mercredi 5 juin 2019

Importance des connaissances et de l’attention dans le cadre de l’automatisation et du surapprentissage

Quelles relations existent entre le surapprentissage (ou automatisation), un notion-clé de la pratique autonome en enseignement explicite et le fonctionnement de l'attention ou de la mémoire à long terme ?


(Photographie : Shinji Aratani)



Introduction


L’idée de surapprentissage est au cœur de l’enseignement explicite et constitue l’objet de la pratique autonome. La question a déjà été abordée longuement dans cet article.

Il s’agit dans les grandes lignes, par la pratique, d’automatiser des procédures et l’application de règles ou la mobilisation de connaissances en les activant à partir de la mémoire à long terme, sans surcharger la mémoire de travail, afin de garder sous contrôle la charge cognitive.

Grâce à l’automatisation par exemple, nous n’avons plus besoin de nous énoncer les règles d’orthographe ou de calculs algébrique pour répondre à un email ou réaliser une opération mathématique simple. Au fur et à mesure que nous apprenons à rouler à vélo ou à conduire une voiture, notre maîtrise devient de plus en plus fluide, précise et rapide. La même chose se passe quand on apprend à lire ou à jouer de la guitare.

Ainsi, l’automatisation constitue un enjeu fondamental de l’apprentissage et de l'enseignement, et il y a tout avantage à bien comprendre ses mécanismes.

L’automatisation est également un objet propre à la mémoire procédurale. Une fois transformée en une procédure automatisée, une compétence devient un tout, que l’on est capable d’exercer de manière performante tout en ayant perdu les étapes de sa construction. Il devient ainsi compliqué d’expliquer et de transmettre avec aisance et de manière déclarative les finesses du processus, cela demande une nouvelle traduction. Les caractéristiques de l’automatisation font ainsi qu’on a également besoin d’enseignants pour la modeler, afin qu’elle puisse avoir lieu de manière optimale.

L’automatisation est ainsi intrinsèquement reliée à une pratique et à une mémorisation en mémoire à long terme. Les tâches que nous effectuons de manière procédurale changent profondément sous l'effet de la pratique, de la répétition ou de l'habitude.



Traitements automatiques et non-automatiques


Les psychologues ont très tôt proposé une dichotomie entre les traitements non automatiques et les traitements automatiques.


  • Les traitements non automatiques seraient le fruit de l'activation et de la manipulation de connaissances en mémoire de travail.
  • Les traitements automatiques seraient le fruit d'un apprentissage et de l'utilisation directe de connaissances stockées en mémoire à long terme (sans passer par la mémoire de travail).


Deux conceptions de l’automaticité existent. Nous allons les passer en revue dans cette synthèse :

  1. La première, incarnée par les recherches de  Schneider et Shiffrin voit celle-ci en termes d'affranchissement des besoins en attention. Au fur et à mesure qu'une automatisation s'installe, au moins les élèves ont besoin de se concentrer.
  2. Selon la seconde, « La théorie des traces épisodiques de l'automatisation », énoncée par Gordon D. Logan, l'automatisation d'une tâche avec la pratique est avant tout un phénomène mnésique. L'automatisation se jouerait essentiellement au niveau de la mémoire à long terme.




Un affranchissement des besoins en attention


Selon Schneider et Shiffrin, l’automaticité se manifeste en termes d'affranchissement des besoins en attention d'une tâche lorsque celle-ci est pratiquée dans des conditions où les mêmes réponses sont invariablement associées aux mêmes stimuli. L’idée est qu’à force d’exercer la même procédure, on finit par la réaliser sans faire attention, machinalement.

Schneider et Shiffrin ont proposé une dichotomie basée sur un certain nombre de caractéristiques entre les traitements non automatiques et les traitements automatiques, envisagés en lien avec l'hypothèse d'une capacité attentionnelle.

Les caractéristiques les plus saillantes des traitements automatiques proposées par Schneider et Shiffrin sont les suivantes :


  1. Ils opèrent sans mobiliser l'attention disponible mais celle-ci est parfois nécessaire. On peut ainsi réaliser certaines tâches machinalement quasiment sans s’en rendre compte et en n’en gardant par la suite aucun souvenir.
  2. Ils opèrent sans activation en mémoire de travail. Une tâche automatique ne contribuerait pas à la charge cognitive.
  3. Ils n'interfèrent pas avec d’autres traitements en cours, ils peuvent fonctionner en parallèle avec d’autres tâches.
  4. Ils ont un haut niveau de performance et demandent peu d’effort
  5. Ils se déclenchent sans la participation de la volonté. Lorsque l’on lit une phrase, impossible d’en oblitérer le sens. Lorsque l’on lit un calcul simple, impossible d’arrêter la solution de poindre en pensée.
  6. Ils sont difficilement contrôlables et non fractionnables.
  7. Ils sont améliorables par la pratique et difficilement modifiables. Lorsqu’une procédure erronée a été automatisée, se pose le problème de son inhibition.


La pratique permet de rendre compte des changements visibles : des traitements non automatiques deviennent peu à peu automatiques :

  1. Les traitements non automatiques culmineraient lors des premiers essais de pratique. La performance atteinte au début de la pratique sera faible car les tâches seront réalisées lentement et seront imprécises. Les traitements non automatiques sont accompagnés d’erreurs imputables à des interférences avec d’autres tâches non automatiques, elles mêmes en cours, tributaires du goulet d’étranglement de l'attention.
  2. Les traitements automatiques se développeraient, grâce à l'accumulation des essais de pratique de la tâche dans des conditions constantes (c'est-à-dire dans des conditions où les mêmes stimuli appellent invariablement les mêmes réponses).
  3. Après suffisamment de pratique, il arrivera un moment à partir duquel les traitements automatiques joueront un rôle prépondérant dans la performance observée. Celle-ci sera alors réalisée rapidement et avec précision. Il n'y a pas de perturbation mutuelle entre les traitements automatiques et non automatiques puisqu'ils n'interfèrent pas les uns avec les autres et peuvent de dérouler en parallèle, cela augmente leur fiabilité.


En résumé, au cours de la pratique répétée d'une tâche, le rôle des traitements non automatiques décroît alors que le rôle des traitements automatiques croît. Les traitements automatiques et non automatiques coexistent à tout moment, dans tout comportement humain avec la plupart des processus automatiques opérant en parallèle.

Les habiletés expertes seraient largement sous-tendues par des processus automatiques et des procédures rapides. La signature « cognitive » de la performance experte est la mobilisation de traitements essentiellement automatiques.

Le problème du modèle de Schneider et Shiffrin est que la dichotomie entre traitements non automatiques et traitements automatiques est descriptive. Elle n'offre pas d'explication simple au phénomène d’automatisation, à l’affranchissement de tout besoin en attention où au fait que les traitements automatiques puissent opérer sans aucune interférence avec d’autres traitements en cours.

Ce modèle n’illustre que le fait que la pratique accélère la performance, réduit le pourcentage d'erreurs et produit des changements relativement permanents en mémoire, qui permettraient aux individus de mieux se préparer à faire vite une tâche et à l'effectuer plus efficacement.





La théorie des traces épisodiques de l'automatisation


D’après la théorie des traces épisodiques de l'automatisation, de Gordon D. Logan, l'automatisation d'une tâche avec la pratique est avant tout un phénomène mnésique (et non un phénomène attentionnel) :


  1. L'absence d'automatisation reflète une absence de connaissances apprises sur la façon de réaliser la tâche. 
  2. La réalisation des premiers essais reposerait sur le déploiement, en mémoire de travail, d'algorithmes (de calculs) dont le rôle est de trouver une réponse au stimulus.
  3. Avec la pratique, il y aurait création et développement d'une base de connaissances spécifiques à la tâche. Cette base de connaissances, stockées en mémoire à long terme, comprendrait l'ensemble des traces épisodiques (ou représentations) qui sont le fruit de chacune des expositions à la tâche.


A chaque nouvel essai, il y a une compétition entre deux mécanismes :

  1. Un algorithme en mémoire de travail
  2. Une récupération directe (en une seule étape) des connaissances stockées en mémoire à long terme.


Celui des deux mécanismes qui se termine le premier accède alors au contrôle de la réponse :

  1. Lors des premiers essais, le mécanisme utilisé est un algorithme général considéré comme suffisant pour réaliser la tâche. Par définition, un algorithme est un processus de calcul comportant un ensemble d'opérations nécessaires à réaliser afin d'accomplir une tâche. Le temps de réalisation d'un algorithme dépend donc du nombre d'opérations à effectuer : plus il y a d'opérations à faire, plus le temps de réalisation de l'algorithme est long. Au début de la pratique, l'algorithme remporterait quasi systématiquement la course, ce qui expliquerait la lenteur des comportements.
  2. Et au fur et à mesure des essais, l'élargissement de la base de connaissances apprises augmenterait la quantité d’informations directement récupérées lors d’un nouvel essai et la vitesse d'extraction de ces informations :
    • Plus le nombre de répétitions est élevé, plus la base de connaissances est large. Cet élargissement a deux conséquences : une augmentation de la quantité d'informations potentiellement récupérables lors de tout nouvel essai et une augmentation de la vitesse d'extraction de ces informations. 
    • Avec la pratique, l'algorithme est progressivement supplanté par un autre mécanisme dont l'utilisation ne cesse de croître : un mécanisme de récupération directe des solutions passées en mémoire à long terme et comportant une seule étape. 
    • À force de répétition d'une tâche, les individus apprennent des solutions spécifiques.
  3. Le mécanisme de récupération directe des solutions passées en mémoire, en devenant de plus en plus important et rapide avec la pratique, finira par devancer l'algorithme dans la course engagée.


Le traitement d'une tâche devient automatique lorsque les individus ont acquis suffisamment de connaissances pour utiliser directement et à chaque essai les solutions spécifiques stockées en mémoire à long terme, provoquant ainsi l'abandon de l'algorithme (et donc l'abandon de traitements cognitifs en mémoire de travail).

Selon cette théorie, la principale limitation, en termes de compétence, du novice n'est pas une pénurie en attention, mais une pénurie de connaissances :

  • La capacité d'automatisation dépend essentiellement de la quantité de connaissances.  
  • Le novice ne disposant donc pas de connaissances apprises sur la façon de réaliser la tâche, il va s'appuyer sur des algorithmes (des calculs) afin de trouver la solution. Ces calculs s’effectueraient en mémoire de travail et sont conditionnés aux limites de celle-ci (charge cognitive).


L’automaticité associée à l’expertise expliquent deux changements quantitatifs de performance se produisant avec la pratique :

  1. Le premier changement est la réduction de la variabilité du comportement puisque davantage de connaissances sont disponibles.
  2. Le second changement est l'accélération du traitement de l'information puisque les connaissances sont extraites plus rapidement.


Selon Logan, un traitement est automatique s’il consiste en la récupération des traces épisodiques stockées en mémoire à long terme.

Trois hypothèses constituent le cœur du modèle de Logan :

  1. La première hypothèse est que l'encodage en mémoire est obligatoire : simplement faire attention à un stimulus est insuffisant pour l'encoder en mémoire sous la forme de codes abstraits (c'est-à-dire sous la forme de représentations).
  2. La deuxième hypothèse est que la récupération en mémoire est obligatoire : faire attention à un stimulus est suffisant pour récupérer en mémoire les représentations associées à ce stimulus lors des essais précédents.  Un rôle majeur est donc conféré à l'attention dans le fonctionnement des processus mnésiques d'encodage et de récupération.
  3. La troisième hypothèse est que chaque épisode avec un stimulus (c'est-à-dire chaque « rencontre » avec un stimulus) est encodé, stocké et récupéré séparément. Une trace épisodique originale est donc créée à chaque fois qu'un stimulus bénéficie d'un traitement attentionnel. C'est cette accumulation de traces épisodiques qui, en élargissant la base de connaissances en mémoire à long terme, facilite la transition d'un mode de traitement algorithmique (en mémoire de travail) vers un mode de récupération directe d'épisodes stockés en mémoire à long terme. Toutefois cette dernière hypothèse est à mettre en relation et à relativiser en rapport avec la "New Theory of Disuse » de Robert Bjork and Elizabeth Bjork (voir article).





Une attention nécessaire même pour un traitement automatique


Une question reste à aborder, celle de la relation entre l’attention et le traitement automatique. Si les besoins en termes d’attention s’amenuisent avec l’automatisation, ils ne s’évanouissement pourtant pas totalement.

En l'état actuel des connaissances, il semble raisonnable d'émettre des réserves à propos de l'idée qu'une tâche automatisée soit comme nécessairement affranchie de tout besoin en attention pour opérer.

Il existe de nombreuses études attestant de l'impossibilité à traiter une tâche lorsque l'attention centrale est mobilisée par une autre tâche (en raison de la présence d’un goulet d'étranglement situé au niveau central du traitement de l'information.

Les quelques travaux menés sur cette question ont abouti à une conclusion mitigée : le traitement d'une tâche sans recourir à l'attention disponible semble possible, mais seulement dans des conditions expérimentales très spécifiques.

En situation de double tâche, les codes (ou représentations) des stimuli auditifs et des réponses verbales sont maintenus dans la boucle phonologique et que les codes des stimuli visuels et des réponses manuelles sont maintenus dans le calepin visuo-spatial.

L'automatisation est possible lorsque les deux tâches reposent sur des sous-systèmes distincts. Spécifiquement, puisque les codes n'entrent pas en conflit, la réponse peut être sélectionnée automatiquement et exécutée sans intervention de l'attention centrale.

L'automatisation en double tâche est impossible lorsqu'au moins un sous-système maintient des codes appartenant aux deux tâches. Spécifiquement, puisque les codes entrent en conflit en mémoire de travail, ils doivent nécessairement être résolus par l'intervention de l'attention centrale.

La limitation de l'attention centrale est largement inactivée dans le cas d’une double tâche (l’une étant automatisée et l’autre nouvelle), lorsqu’elles sont chacune représentées dans des sous-systèmes distincts de la mémoire de travail (par exemple une tâche auditive-vocale dans la boucle phonologique et une tâche visuo-manuelle dans le calepin visuo-spatial). La limitation est par contre bien présente lorsqu’une tâche est auditive-manuelle et l’autre visuelle-vocale car les sous-systèmes utilisés sont alors communs.




Quelques conclusions intéressantes



  1. Aucune tâche ne comporte 100 % de traitement automatique ou 100 % de traitement non automatique.
  2. L’automaticité des compétences enseignées passe par un changement en mémoire à long terme et c’est une condition requise pour un traitement rapide, précis, efficace et économe. La condition n’est pas que cela s’accompagne d’une diminution de l’attention.
  3. La présence de larges connaissances structurées en mémoire à long terme est fondamentale. Elle permet d’y puiser directement une réponse dans le cadre d’un traitement automatique et dispense, par sa rapidité, d’entamer un processus de traitement de l’information plus coûteux en mémoire de travail. 
  4. Une pratique approfondie, telle que la pratique guidée, suivi de pratique autonome et de révisions - telles que promues en enseignement explicite – constitue un facteur important. Il permet non seulement une automatisation des compétences, mais également un accroissement de leur rapidité, de leur exactitude et de la variété des contextes dans lesquelles elles s’appliquent.
  5. L'entrainement à la récupération revet une importance fondamentale qui n'est pas étonnante vu l'importance de la vérification de la compréhension en enseignement explicite, l'effet majeur de l'évaluation formative et le caractère central de l'effet de test dans le cadre de l'apprentissage.
  6. Si une tâche automatique peut s’exécuter en parallèle avec une tâche non automatique, ce n’est que dans des conditions très spécifiques que le phénomène a lieu sans interférence et sans ralentissement, lorsque les ressources nécessaires à la tâche automatique ne coïncident pas avec celles de l’autre tâche.  Nous ne sommes pas multitâches pour deux tâches non automatiques et si une tâche automatique peut avoir lieu en parallèle avec une tâche non automatique, elle conserve un coût attentionnel dans la plupart des situations.





Bibliographie


François Maquestiaux, Psychologie de l'attention, Deboeck, p 127-158, 2017

0 comments:

Enregistrer un commentaire