mercredi 5 juin 2019

Rôles des connaissances et de l’attention dans le cadre de l’automatisation

Quelles relations existent entre l’automatisation des connaissances — une notion clé de la pratique autonome en enseignement explicite — et le fonctionnement de l’attention ou de la mémoire à long terme ?
(Photographie : Shinji Aratani)



Les enjeux de l’automatisation des apprentissages


L’idée de l’acquisition d’automatismes procéduraux flexibles et d’une fluidité dans la mobilisation des savoirs et savoir-faire est au cœur de l’enseignement explicite et constitue l’objet de la pratique autonome. La question a déjà été abordée dans cet article.

Il s’agit par la pratique d’automatiser des procédures et l’application de règles ou la mobilisation de connaissances. Par la suite, celles-ci peuvent être activées à partir de la mémoire à long terme, sans surcharger la mémoire de travail. Cela permet de garder sous contrôle la charge cognitive face à des contenus nouveaux ou plus complexes.

Par exemple, grâce à l’automatisation, nous n’avons plus besoin d’énoncer mentalement les règles d’orthographe de grammaire de manière déclarative quand nous écrivons. Nous n’avons plus besoin de réfléchir aux règles de base du calcul algébrique ni aux tables d’addition ou de multiplication dans le cas de calculs simples. Au fur et à mesure que nous apprenons à rouler à vélo ou à conduire une voiture, notre maîtrise devient de plus en plus fluide, précise, automatique et rapide. La même chose se passe quand nous apprenons à lire ou à jouer de la guitare ou d’un autre instrument de musique.

L’automatisation constitue un enjeu fondamental de l’apprentissage et de l’enseignement. Il est utile de bien comprendre ses mécanismes.

L’automatisation est également une fonction propre à la mémoire procédurale. Une fois transformée en une procédure automatisée, une compétence devient un tout, que nous devenons capables d’exercer de manière performante tout en nous étant détachés des étapes de sa construction. Il devient parfois compliqué d’expliquer et de transmettre avec aisance et de manière déclarative les finesses du processus, cela nous demande d’en exécuter à rebours une nouvelle traduction et de ralentir. Ces caractéristiques et enjeux de l’automatisation font ainsi que nous avons également besoin d’enseignants pour en assurer le modelage et l’acquisition de manière efficace, afin qu’elle puisse se produire de manière optimale.

L’automatisation est ainsi intrinsèquement reliée à une pratique et à une consolidation en mémoire à long terme. Les tâches que nous effectuons de manière procédurale changent profondément la mémoire sous l’effet de la pratique, de la répétition ou de l’habitude. Un novice va exécuter une tâche de manière très différente d’un expert. La novice la réalise à la fois extérieurement avec lenteur et hésitation, et intérieurement en s’appuyant moins sur sa mémoire à long terme et plus sur sa mémoire de travail. Un expert va agir avec précision et fluidité en s’appuyant essentiellement sur la mémoire à long terme et moins sur sa mémoire de travail.



Distinguer les traitements automatiques et non automatiques


Les psychologues ont très tôt proposé une dichotomie entre les traitements non automatiques et les traitements automatiques.
  • Les traitements non automatiques seraient le fruit de l’activation et de la manipulation de connaissances en mémoire de travail.
  • Les traitements automatiques seraient le fruit d’un apprentissage et de l’utilisation directe de connaissances stockées en mémoire à long terme (sans passer nécessairement par la mémoire de travail).

Deux conceptions de l’automaticité existent :
  1. La première s’incarne dans les recherches de Schneider et Shiffrin (1977). Cette conception voit en l’automaticité un affranchissement des besoins en attention. Au fur et à mesure qu’une automatisation s’installe, au moins les élèves vont avoir besoin de concentrer pleinement leur attention sur la tâche.
  2. La seconde conception de l’automaticité correspond à la théorie des traces épisodiques de l’automatisation, énoncée par Gordon D Logan (2002). L’automatisation d’une tâche grâce à la pratique est vue avant tout comme un phénomène mnésique. L’automatisation se jouerait essentiellement au niveau de la mémoire à long terme.




L’hypothèse de l’affranchissement des besoins en attention


Selon Schneider et Shiffrin (1977), l’automaticité se manifeste en matière d’affranchissement des besoins en attention d’une tâche lorsque celle-ci est pratiquée dans des conditions où les mêmes réponses sont invariablement associées aux mêmes stimuli. L’idée est qu’à force d’exercer la même procédure, nous finissons par la réaliser sans faire attention, presque machinalement.

Schneider et Shiffrin (1977) ont proposé une dichotomie basée sur un certain nombre de caractéristiques entre les traitements non automatiques et les traitements automatiques. Elles sont envisagées en lien avec l’hypothèse d’une capacité attentionnelle.

Les caractéristiques les plus saillantes des traitements automatiques proposées par Schneider et Shiffrin sont les suivantes 
  • Ils opèrent sans mobiliser l’attention disponible, mais celle-ci reste parfois nécessaire. Nous pouvons ainsi réaliser certaines tâches machinalement quasiment sans nous en rendre compte et n’en garder par la suite aucun souvenir.
  • Ils opèrent sans activation en mémoire de travail. Une tâche automatique ne contribuerait pas à la charge cognitive.
  • Ils n’interfèrent pas avec d’autres traitements en cours, ils peuvent fonctionner en parallèle avec d’autres tâches.
  • Ils ont un haut niveau de performance et demandent peu d’effort
  • Ils se déclenchent sans la participation de la volonté :
    • Lorsque nous lisons une phrase, il est impossible d’en oblitérer le sens.
    • Lorsque nous lisons un calcul simple, il est impossible d’empêcher sa solution de poindre dans notre pensée.
  • Ils sont difficilement contrôlables et non fractionnables.
  • Ils sont améliorables par la pratique. Ils deviennent plus difficilement modifiables par la suite. Lorsqu’une procédure erronée a été automatisée se pose ensuite le problème de son inhibition.

La pratique permet de rendre compte des changements visibles. Des traitements non automatiques deviennent peu à peu automatiques :
  1. Les traitements non automatiques culmineraient lors des premiers essais de pratique : 
    • La performance atteinte au début de la pratique sera faible, car les tâches seront réalisées lentement et seront imprécises. 
    • Les traitements non automatiques sont accompagnés d’erreurs imputables à des interférences avec d’autres tâches non automatiques qui sont elles-mêmes en cours. 
    • Les difficultés rencontrées sont tributaires du goulet d’étranglement de l’attention.
  2. Les traitements automatiques se développeraient grâce à l’accumulation de traces liées aux essais de pratique de la tâche dans des conditions constantes (c’est-à-dire dans des conditions où les mêmes stimuli appellent invariablement les mêmes réponses).
  3. Après suffisamment de pratique, il arrivera un moment à partir duquel les traitements automatiques joueront un rôle prépondérant dans la performance observée :
    • La performance sera alors réalisée rapidement et avec précision. 
    • Il n’y a plus de perturbation mutuelle entre les traitements automatiques et non automatiques puisqu’ils n’interfèrent pas les uns avec les autres. 
    • Un traitement automatique et un traitement non automatique peuvent se dérouler en parallèle, ce qui augmente leur fiabilité.

En résumé, au cours de la pratique répétée d’une tâche :
  • Le rôle des traitements non automatiques décroît. 
  • En contrepartie, le rôle des traitements automatiques croît. 

Les traitements automatiques et non automatiques coexistent à tout moment, dans tout comportement humain avec la plupart des processus automatiques opérant en parallèle.

Les habiletés expertes seraient largement soutenues par des processus automatiques et des procédures rapides. La signature cognitive de la performance experte est la mobilisation de traitements essentiellement automatiques.

La faiblesse du modèle de Schneider et Shiffrin (1977) est que la dichotomie entre traitements non automatiques et traitements automatiques est descriptive. Elle n’offre pas d’explications simples au phénomène d’automatisation, à l’affranchissement de tout besoin en attention ou au fait que les traitements automatiques peuvent opérer sans aucune interférence avec d’autres traitements en cours.

Ce modèle illustre essentiellement le fait que la pratique accélère la performance. Elle réduit le pourcentage d’erreurs et produit des changements relativement permanents en mémoire. Tout cela permet aux individus de mieux se préparer à exécuter rapidement une tâche et le faire de manière plus efficiente.



La théorie des traces épisodiques de l’automatisation


D’après la théorie des traces épisodiques de l’automatisation, de Gordon D. Logan (2002), l’automatisation d’une tâche avec la pratique est avant tout un phénomène mnésique. Il ne s’agit pas d’un phénomène attentionnel :
  • L’absence d’automatisation reflète une absence de connaissances apprises sur la façon de réaliser la tâche. 
  • La réalisation des premiers essais reposerait sur le déploiement, en mémoire de travail, d’algorithmes (de calculs) dont le rôle est de trouver une réponse au stimulus.
  • Avec la pratique, il y aurait création et développement d’une base de connaissances spécifiques à la tâche. Cette base de connaissances stockée en mémoire à long terme, comprendrait l’ensemble des traces épisodiques (ou représentations) qui sont le fruit de chacune des expositions à la tâche.

À chaque nouvel essai, il y a une compétition entre deux mécanismes :
  • Un algorithme en mémoire de travail
  • Une récupération directe (en une seule étape) des connaissances stockées en mémoire à long terme

Celui des deux mécanismes qui se conclut le premier accède au contrôle de la réponse :
  1. Lors des premiers essais, le mécanisme utilisé est un algorithme général considéré comme suffisant pour réaliser la tâche. 
    • Par définition, un algorithme est un processus de calcul comportant un ensemble d’opérations nécessaires à réaliser afin d’accomplir une tâche. 
    • Le temps de réalisation d’un algorithme dépend donc du nombre d’opérations à effectuer. 
    • Plus il y a d’opérations à faire, plus le temps de réalisation de l’algorithme est long. 
  2. Au début de la pratique, l’algorithme remporterait quasi systématiquement la course, ce qui expliquerait la lenteur des comportements.
  3. Et au fur et à mesure des essais, l’élargissement de la base de connaissances apprises augmenterait la quantité d’informations directement récupérées lors d’un nouvel essai et la vitesse d’extraction de ces informations :
    • Plus le nombre de répétitions est élevé, plus la base de connaissances est large. Cet élargissement a deux conséquences : 
      • Une augmentation de la quantité d’informations potentiellement récupérables lors de tout nouvel essai.
      • Une augmentation de la vitesse d’extraction de ces informations. 
    • Avec la pratique, l’algorithme est progressivement supplanté par un autre mécanisme dont l’utilisation ne cesse de s’amplifier. Il s’agit d’un mécanisme de récupération directe des solutions passées en mémoire à long terme et comportant une seule étape. 
    • À force de répétition d’une tâche, les individus apprennent et retiennent des solutions spécifiques.
  4. Le mécanisme de récupération directe des solutions stockées en mémoire, en devenant de plus en plus important et rapide avec la pratique, finit par devancer l’algorithme dans la course engagée.

Le traitement d’une tâche devient automatique lorsque les individus ont acquis suffisamment de connaissances pour utiliser directement et à chaque essai les solutions spécifiques stockées dans leur mémoire à long terme. Cela provoque l’abandon de l’algorithme et des traitements cognitifs en lien dans la mémoire de travail.

Selon cette théorie, la principale limitation, en matière de compétence, du novice n’est pas une pénurie en attention, mais une pénurie de connaissances :
  • La capacité d’automatisation dépend essentiellement de la quantité de connaissances stockées et utilisables.  
  • Le novice ne dispose donc pas de connaissances apprises suffisantes sur la façon de réaliser la tâche. Il va s’appuyer sur des algorithmes (des calculs) afin de trouver la solution. Ces calculs s’effectueraient en mémoire de travail. Ils sont conditionnés aux limites de cette dernière qui sont en lien avec le concept de charge cognitive.

L’automaticité associée à l’expertise explique deux changements quantitatifs de performance se produisant avec la pratique : 
  1. Le premier changement est la réduction de la variabilité du comportement puisque davantage de connaissances sont disponibles, nous réutilisons ce qui marche.
  2. Le second changement est l’accélération du traitement de l’information puisque les connaissances sont extraites plus rapidement.

Selon Logan (2002), un traitement est automatique s’il consiste en la récupération des traces épisodiques stockées en mémoire à long terme.

Trois hypothèses constituent le cœur du modèle de Logan (2002) :
  • La première hypothèse est que l’encodage en mémoire est obligatoire. Simplement faire attention à un stimulus est insuffisant pour l’encoder en mémoire sous la forme de codes abstraits (c’est-à-dire sous la forme de représentations).
  • La deuxième hypothèse est que la récupération en mémoire est obligatoire. Faire attention à un stimulus est suffisant pour récupérer en mémoire les représentations associées à ce stimulus lors des essais précédents. Un rôle majeur est conféré à l’attention dans le fonctionnement des processus mnésiques d’encodage et de récupération.
  • La troisième hypothèse est que chaque épisode (rencontre) avec un stimulus est encodé, stocké et récupéré séparément. Une trace épisodique originale est donc créée chaque fois qu’un stimulus bénéficie d’un traitement attentionnel. C’est cette accumulation de traces épisodiques qui est importante. Elle élargit la base de connaissances en mémoire à long terme. Elle facilite la transition d’un mode de traitement algorithmique (en mémoire de travail) vers un mode de récupération directe d’épisodes stockés en mémoire à long terme. Cette dernière hypothèse peut être mise en relation et à relativiser en rapport avec la « New Theory of Disuse » de Robert Bjork and Elizabeth Bjork (voir article).



L’attention reste nécessaire même pour un traitement automatique


Une question reste à aborder, celle de la relation entre l’attention et le traitement automatique. Si les besoins en matière d’attention s’amenuisent avec l’automatisation, ils ne s’évanouissent pourtant pas totalement.

En l’état actuel des connaissances, il semble raisonnable d’émettre des réserves à propos de l’idée qu’une tâche automatisée soit nécessairement affranchie de tout besoin en attention pour opérer.

Il existe de nombreuses études attestant de l’impossibilité à traiter une tâche lorsque l’attention centrale est mobilisée par une autre tâche. La raison est la présence d’un goulet d’étranglement situé au niveau central du traitement de l’information.

Les quelques travaux menés sur cette question ont abouti à une conclusion mitigée : le traitement d’une tâche sans recourir à l’attention disponible semble possible, mais seulement dans des conditions expérimentales très spécifiques.

En situation de double tâche, les codes (ou représentations) des stimuli auditifs et des réponses verbales sont maintenus dans la boucle phonologique. Les codes des stimuli visuels et des réponses manuelles sont maintenus dans le calepin visuospatial. L’automatisation est possible lorsque les deux tâches reposent sur des sous-systèmes distincts. Spécifiquement, puisque les codes n’entrent pas en conflit, la réponse peut être sélectionnée automatiquement et exécutée sans intervention de l’attention centrale.

L’automatisation en double tâche est impossible lorsqu’au moins un sous-système maintient des codes appartenant aux deux tâches. Spécifiquement, puisque les codes entrent en conflit en mémoire de travail, ils doivent nécessairement être résolus par l’intervention de l’attention centrale.

La limitation de l’attention centrale est largement inactivée dans le cas d’une double tâche. C’est le cas lorsque l’une est automatisée et que l’autre est nouvelle. C’est également le cas lorsqu’elles sont chacune représentées dans des sous-systèmes distincts de la mémoire de travail. L’une peut être une tâche auditive vocale dans la boucle phonologique et l’autre peut être une tâche visuomanuelle dans le calepin visuospatial. La limitation est par contre bien présente lorsqu’une tâche est auditive-manuelle et que l’autre est visuelle-vocale, car les sous-systèmes utilisés sont alors communs.



Liens entre l’automatisation et l’attention


  1. Aucune tâche ne comporte 100 % de traitement automatique :
    1. De même, aucune tâche n’est à 100 % de traitement non automatique.
  2. L’automaticité des compétences enseignées passe par un changement en mémoire à long terme :
    • C’est une condition requise pour un traitement rapide, précis, efficace et économe. La condition n’est pas que cela s’accompagne d’une diminution de l’attention.
  3. La présence de larges connaissances structurées en mémoire à long terme est fondamentale pour les automatismes : 
    • Elles permettent d’y puiser directement une réponse dans le cadre d’un traitement automatique. 
    • Elle nous dispense, par sa rapidité, d’entamer un processus de traitement de l’information plus coûteux en mémoire de travail. 
  4. Une pratique délibérée constitue un facteur important d’automatisation :
    • C’est par exemple le cas de la pratique guidée, suivie de pratique autonome et de révisions, promues en enseignement explicite. 
    • Une pratique approfondie permet non seulement une automatisation des compétences, mais également un accroissement de leur rapidité, de leur exactitude et de la variété des contextes dans lesquels elles s’appliquent.
  5. La pratique de récupération revêt une importance fondamentale dans l’automatisation :
    • Elle nous permet d’activer et de consolider les connaissances en mémoire à long terme. 
    • Cela n’est pas étonnant vu l’importance de la vérification de la compréhension en enseignement explicite, l’effet majeur de l’évaluation formative et le caractère central de l’effet de test dans le cadre de l’apprentissage efficace.
  6. Si une tâche automatique peut s’exécuter en parallèle avec une tâche non automatique ou automatique, ce n’est que dans des conditions très spécifiques que le phénomène a lieu sans interférence et sans ralentissement. 
    • Cela impose que les ressources nécessaires à la tâche automatique ne coïncident pas avec celles de l’autre tâche. 
    • Nous ne sommes jamais multitâches pour deux tâches non automatiques et si une tâche automatique peut avoir lieu en parallèle avec une tâche non automatique ou automatique, elle conserve un coût attentionnel dans la plupart des situations.


Mise à jour le 07/06/2023


Bibliographie


François Maquestiaux, Psychologie de l’attention, De Boeck, p 127-158, 2017

Schneider, W., & Shiffrin, R. M. (1977). Controlled and automatic human information processing: I. Detection, search, and attention. Psychological Review, 84(1), 1–66. https://doi.org/10.1037/0033-295X.84.1.1

Logan, Gordon. (2002). An instance theory of attention and memory. Psychological review. 109. 376–400. 10.1037/0033–295X.109.2.376. 

0 comments:

Enregistrer un commentaire