headermask image

header image

Modèle de relance impayé

Il n`y a en fait aucune théorie psychologique expliquant pourquoi la réponse humaine est corrélée comme observée. Il y a au moins trois raisons pour lesquelles cela est ainsi et il est utile de les mentionner pour motiver la perspective de modélisation bayésienne qui est offerte dans cet article. La première est que les signaux d`erreur en psychophysique sont composés de quantités qui sont à certains supprimer des processus cognitifs et perceptifs qui les produisent. Une fluctuation du temps de réaction, par exemple, ne précise guère les aspects de l`attention, de la mémoire et de la prise de décision qui créent cette fluctuation. Deuxièmement, même les théories les plus sophistiquées du processus psychologique ne prévoient pas la formation de corrélations spontanées dans le signal d`erreur. Les théories du temps de réaction, un exemple de mesure comportementale qui a été intensivement étudiée (Luce, 1986), ne traitent généralement que ses propriétés distributionnelles. Des théories dynamiques du temps de réaction ont été proposées (Vickers & Lee, 1998), mais elles se concentrent sur la façon dont les latences sont influencées par la variation temporelle systématique des propriétés de stimulation objective. De même, les modèles de production les plus connus impliquent un comportement temporel et sont construits autour de la notion de déviats aléatoires indépendants (Wing & Kristofferson, 1973; Gibbon, Church, & Meck, 1984). Enfin, le développement de la corrélation est intrinsèquement un problème de subtilité. les bruits 1/f ont, en particulier, été une source de controverse théorique considérable parce qu`il n`est pas clair si elles découlent de principes généraux du système (bak, 1996) ou par une prolifération de mécanismes individuels (Milotti, 2002).

Ainsi, même si la psychologie avait des théories fondamentales qui ont été articulées dans des termes biologiques spécifiques, il n`est pas garanti que les corrélations observées dans le comportement humain serait moins problématique. Les matrices de covariance des modèles ARMA et fBmW ont des éléments diagonaux (variances) qui sont très non uniformes, un fait qui a des implications critiques pour la sélection du modèle. Les estimations spectrales à la fréquence la plus basse ont des écarts types de plusieurs 100 fois plus grandes que les estimations à la fréquence la plus élevée. Cette circonstance découle à la fois de la façon dont la variabilité apparaît intrinsèquement dans le spectre brut, et par les contraintes arithmétiques sur la moyenne des fenêtres. Dans le spectre brut, les estimations de la puissance spectrale sont distribuées exponentiellement et la variance croît linéairement avec une puissance croissante. Il arrive que le pouvoir augmente nettement à basses fréquences dans l`application de l`intérêt ici-séries chronologiques résiduelles. En outre, il y a la contrainte numérique que pour une quantité fixe de données, le nombre de fenêtres disponibles pour la moyenne est inversement proportionnel à la taille de la fenêtre. Dans notre version de la méthode Press et coll. (1992) d`estimation spectrale, de plus grandes tailles de fenêtre sont utilisées pour calculer la puissance à des fréquences inférieures.

Par conséquent, la moyenne statistique offre moins de réduction de variance à une fréquence inférieure. Les deux effets conspirer pour faire la partie basse fréquence du spectre le moins certain. Malheureusement, décider si les données sont courtes ou à long terme implique de déterminer si un spectre a un genou ou non, et cette décision descend fondamentalement à une détermination de s`il y a un plateau ou une étagère discernable aux fréquences les plus basses. C`est la raison principale pour laquelle un ajustement simple des courbes n`a pas permis de dégager un consensus clair sur la nature des fluctuations résiduelles.

If you liked my post, feel free to subscribe to my rss feeds