mercredi 5 juin 2019

Rôles des connaissances et de l’attention dans le cadre de l’automatisation

Quelles relations existent entre l’automatisation des connaissances — une notion clé de la pratique autonome en enseignement explicite — et le fonctionnement de l’attention ou de la mémoire à long terme ?
(Photographie : Shinji Aratani)



Introduction


L’idée de l’acquisition d’une automatisation et d’une fluidité dans la mobilisation des savoirs et savoir-faire est au cœur de l’enseignement explicite et constitue l’objet de la pratique autonome. La question a déjà été abordée dans cet article.

Il s’agit par la pratique d’automatiser des procédures et l’application de règles ou la mobilisation de connaissances. Celles-ci sont activées à partir de la mémoire à long terme, sans surcharger la mémoire de travail. Cela permet de garder sous contrôle la charge cognitive face à des contenus nouveaux.

Grâce à l’automatisation, nous n’avons plus besoin d’énoncer mentalement les règles d’orthographe de grammaire quand nous écrivons. Nous n’avons plus besoin de réfléchir aux règles de base du calcul algébrique ni aux tables d’addition ou de multiplication dans le cas de calculs simples. Au fur et à mesure que nous apprenons à rouler à vélo ou à conduire une voiture, notre maîtrise devient de plus en plus fluide, précise, automatique et rapide. La même chose se passe quand nous apprenons à lire ou à jouer de la guitare ou d’un autre instrument de musique.

L’automatisation constitue un enjeu fondamental de l’apprentissage et de l’enseignement. Il est utile de bien comprendre ses mécanismes.

L’automatisation est également une fonction propre à la mémoire procédurale. Une fois transformée en une procédure automatisée, une compétence devient un tout, que nous devenons capables d’exercer de manière performante tout en ayant perdu les étapes de sa construction. Il devient ainsi compliqué d’expliquer et de transmettre avec aisance et de manière déclarative les finesses du processus, cela nous demande d’en exécuter à rebours une nouvelle traduction. Les caractéristiques de l’automatisation font ainsi que nous avons également besoin d’enseignants pour en assurer le modelage et l’acquisition, afin qu’elle puisse avoir lieu de manière optimale.

L’automatisation est ainsi intrinsèquement reliée à une pratique et à une consolidation en mémoire à long terme. Les tâches que nous effectuons de manière procédurale changent profondément la mémoire sous l’effet de la pratique, de la répétition ou de l’habitude.



Traitements automatiques et non automatiques


Les psychologues ont très tôt proposé une dichotomie entre les traitements non automatiques et les traitements automatiques.
  • Les traitements non automatiques seraient le fruit de l’activation et de la manipulation de connaissances en mémoire de travail.
  • Les traitements automatiques seraient le fruit d’un apprentissage et de l’utilisation directe de connaissances stockées en mémoire à long terme (sans passer nécessairement par la mémoire de travail).

Deux conceptions de l’automaticité existent :
  1. La première s’incarne dans les recherches de Schneider et Shiffrin. Cette conception voit en l’automaticité un affranchissement des besoins en attention. Au fur et à mesure qu’une automatisation s’installe, au moins les élèves vont avoir besoin de concentrer pleinement leur attention sur la tâche.
  2. La seconde conception de l’automaticité correspond à la théorie des traces épisodiques de l’automatisation, énoncée par Gordon D Logan. L’automatisation d’une tâche grâce à la pratique est vue avant tout comme un phénomène mnésique. L’automatisation se jouerait essentiellement au niveau de la mémoire à long terme.




Un affranchissement des besoins en attention


Selon Schneider et Shiffrin, l’automaticité se manifeste en matière d’affranchissement des besoins en attention d’une tâche lorsque celle-ci est pratiquée dans des conditions où les mêmes réponses sont invariablement associées aux mêmes stimuli. L’idée est qu’à force d’exercer la même procédure, nous finissons par la réaliser sans faire attention, presque machinalement.

Schneider et Shiffrin ont proposé une dichotomie basée sur un certain nombre de caractéristiques entre les traitements non automatiques et les traitements automatiques. Elles sont envisagées en lien avec l’hypothèse d’une capacité attentionnelle.

Les caractéristiques les plus saillantes des traitements automatiques proposées par Schneider et Shiffrin sont les suivantes 
  1. Ils opèrent sans mobiliser l’attention disponible, mais celle-ci reste parfois nécessaire. Nous pouvons ainsi réaliser certaines tâches machinalement quasiment sans nous en rendre compte et n’en garder par la suite aucun souvenir.
  2. Ils opèrent sans activation en mémoire de travail. Une tâche automatique ne contribuerait pas à la charge cognitive.
  3. Ils n’interfèrent pas avec d’autres traitements en cours, ils peuvent fonctionner en parallèle avec d’autres tâches.
  4. Ils ont un haut niveau de performance et demandent peu d’effort
  5. Ils se déclenchent sans la participation de la volonté. Lorsque nous lisons une phrase, il est impossible d’en oblitérer le sens. Lorsque nous lisons un calcul simple, il est impossible d’empêcher sa solution de poindre dans notre pensée.
  6. Ils sont difficilement contrôlables et non fractionnables.
  7. Ils sont améliorables par la pratique et difficilement modifiables. Lorsqu’une procédure erronée a été automatisée se pose ensuite le problème de son inhibition.


La pratique permet de rendre compte des changements visibles. Des traitements non automatiques deviennent peu à peu automatiques :
  1. Les traitements non automatiques culmineraient lors des premiers essais de pratique. La performance atteinte au début de la pratique sera faible, car les tâches seront réalisées lentement et seront imprécises. Les traitements non automatiques sont accompagnés d’erreurs imputables à des interférences avec d’autres tâches non automatiques qui sont elles-mêmes en cours. Les difficultés rencontrées sont tributaires du goulet d’étranglement de l’attention.
  2. Les traitements automatiques se développeraient grâce à l’accumulation de traces liées aux essais de pratique de la tâche dans des conditions constantes (c’est-à-dire dans des conditions où les mêmes stimuli appellent invariablement les mêmes réponses).
  3. Après suffisamment de pratique, il arrivera un moment à partir duquel les traitements automatiques joueront un rôle prépondérant dans la performance observée. Celle-ci sera alors réalisée rapidement et avec précision. Il n’y a plus de perturbation mutuelle entre les traitements automatiques et non automatiques puisqu’ils n’interfèrent pas les uns avec les autres. Ils peuvent se dérouler en parallèle. Cela augmente leur fiabilité.

En résumé, au cours de la pratique répétée d’une tâche, le rôle des traitements non automatiques décroît. En contrepartie, le rôle des traitements automatiques croît. Les traitements automatiques et non automatiques coexistent à tout moment, dans tout comportement humain avec la plupart des processus automatiques opérant en parallèle.

Les habiletés expertes seraient largement soutenues par des processus automatiques et des procédures rapides. La signature cognitive de la performance experte est la mobilisation de traitements essentiellement automatiques.

Le problème du modèle de Schneider et Shiffrin est que la dichotomie entre traitements non automatiques et traitements automatiques est descriptive. Elle n’offre pas d’explications simples au phénomène d’automatisation, à l’affranchissement de tout besoin en attention ou au fait que les traitements automatiques peuvent opérer sans aucune interférence avec d’autres traitements en cours.

Ce modèle illustre essentiellement le fait que la pratique accélère la performance. Elle réduit le pourcentage d’erreurs et produit des changements relativement permanents en mémoire. Tout cela permet aux individus de mieux se préparer à exécuter rapidement une tâche et le faire de manière plus efficiente.





La théorie des traces épisodiques de l’automatisation


D’après la théorie des traces épisodiques de l’automatisation, de Gordon D. Logan, l’automatisation d’une tâche avec la pratique est avant tout un phénomène mnésique. Il ne s’agit pas d’un phénomène attentionnel :
  1. L’absence d’automatisation reflète une absence de connaissances apprises sur la façon de réaliser la tâche. 
  2. La réalisation des premiers essais reposerait sur le déploiement, en mémoire de travail, d’algorithmes (de calculs) dont le rôle est de trouver une réponse au stimulus.
  3. Avec la pratique, il y aurait création et développement d’une base de connaissances spécifiques à la tâche. Cette base de connaissances stockée en mémoire à long terme, comprendrait l’ensemble des traces épisodiques (ou représentations) qui sont le fruit de chacune des expositions à la tâche.

À chaque nouvel essai, il y a une compétition entre deux mécanismes :
  1. Un algorithme en mémoire de travail
  2. Une récupération directe (en une seule étape) des connaissances stockées en mémoire à long terme

Celui des deux mécanismes qui se conclut le premier accède au contrôle de la réponse :
  1. Lors des premiers essais, le mécanisme utilisé est un algorithme général considéré comme suffisant pour réaliser la tâche. Par définition, un algorithme est un processus de calcul comportant un ensemble d’opérations nécessaires à réaliser afin d’accomplir une tâche. Le temps de réalisation d’un algorithme dépend donc du nombre d’opérations à effectuer. Plus il y a d’opérations à faire, plus le temps de réalisation de l’algorithme est long. 
  2. Au début de la pratique, l’algorithme remporterait quasi systématiquement la course, ce qui expliquerait la lenteur des comportements.
  3. Et au fur et à mesure des essais, l’élargissement de la base de connaissances apprises augmenterait la quantité d’informations directement récupérées lors d’un nouvel essai et la vitesse d’extraction de ces informations :
    • Plus le nombre de répétitions est élevé, plus la base de connaissances est large. Cet élargissement a deux conséquences : une augmentation de la quantité d’informations potentiellement récupérables lors de tout nouvel essai et une augmentation de la vitesse d’extraction de ces informations. 
    • Avec la pratique, l’algorithme est progressivement supplanté par un autre mécanisme dont l’utilisation ne cesse de s’amplifier. Il s’agit d’un mécanisme de récupération directe des solutions passées en mémoire à long terme et comportant une seule étape. 
    • À force de répétition d’une tâche, les individus apprennent et retiennent des solutions spécifiques.
  4. Le mécanisme de récupération directe des solutions stockées en mémoire, en devenant de plus en plus important et rapide avec la pratique, finit par devancer l’algorithme dans la course engagée.

Le traitement d’une tâche devient automatique lorsque les individus ont acquis suffisamment de connaissances pour utiliser directement et à chaque essai les solutions spécifiques stockées dans leur mémoire à long terme. Cela provoque l’abandon de l’algorithme et des traitements cognitifs en lien dans la mémoire de travail.

Selon cette théorie, la principale limitation, en matière de compétence, du novice n’est pas une pénurie en attention, mais une pénurie de connaissances :
  • La capacité d’automatisation dépend essentiellement de la quantité de connaissances stockées et utilisables.  
  • Le novice ne dispose donc pas de connaissances apprises suffisantes sur la façon de réaliser la tâche. Il va s’appuyer sur des algorithmes (des calculs) afin de trouver la solution. Ces calculs s’effectueraient en mémoire de travail. Ils sont conditionnés aux limites de cette dernière qui sont en lien avec le concept de charge cognitive.

L’automaticité associée à l’expertise explique deux changements quantitatifs de performance se produisant avec la pratique : 
  1. Le premier changement est la réduction de la variabilité du comportement puisque davantage de connaissances sont disponibles.
  2. Le second changement est l’accélération du traitement de l’information puisque les connaissances sont extraites plus rapidement.

Selon Logan, un traitement est automatique s’il consiste en la récupération des traces épisodiques stockées en mémoire à long terme.

Trois hypothèses constituent le cœur du modèle de Logan :
  1. La première hypothèse est que l’encodage en mémoire est obligatoire. Simplement faire attention à un stimulus est insuffisant pour l’encoder en mémoire sous la forme de codes abstraits (c’est-à-dire sous la forme de représentations).
  2. La deuxième hypothèse est que la récupération en mémoire est obligatoire. Faire attention à un stimulus est suffisant pour récupérer en mémoire les représentations associées à ce stimulus lors des essais précédents. Un rôle majeur est conféré à l’attention dans le fonctionnement des processus mnésiques d’encodage et de récupération.
  3. La troisième hypothèse est que chaque épisode avec un stimulus (c’est-à-dire chaque « rencontre » avec un stimulus) est encodé, stocké et récupéré séparément. Une trace épisodique originale est donc créée chaque fois qu’un stimulus bénéficie d’un traitement attentionnel. C’est cette accumulation de traces épisodiques qui est importante. Elle élargit la base de connaissances en mémoire à long terme. Elle facilite la transition d’un mode de traitement algorithmique (en mémoire de travail) vers un mode de récupération directe d’épisodes stockés en mémoire à long terme. Toutefois, cette dernière hypothèse est à mettre en relation et à relativiser en rapport avec la « New Theory of Disuse » de Robert Bjork and Elizabeth Bjork (voir article).





Une attention nécessaire même pour un traitement automatique


Une question reste à aborder, celle de la relation entre l’attention et le traitement automatique. Si les besoins en matière d’attention s’amenuisent avec l’automatisation, ils ne s’évanouissent pourtant pas totalement.

En l’état actuel des connaissances, il semble raisonnable d’émettre des réserves à propos de l’idée qu’une tâche automatisée soit nécessairement affranchie de tout besoin en attention pour opérer.

Il existe de nombreuses études attestant de l’impossibilité à traiter une tâche lorsque l’attention centrale est mobilisée par une autre tâche. La raison est la présence d’un goulet d’étranglement situé au niveau central du traitement de l’information.

Les quelques travaux menés sur cette question ont abouti à une conclusion mitigée : le traitement d’une tâche sans recourir à l’attention disponible semble possible, mais seulement dans des conditions expérimentales très spécifiques.

En situation de double tâche, les codes (ou représentations) des stimuli auditifs et des réponses verbales sont maintenus dans la boucle phonologique. Les codes des stimuli visuels et des réponses manuelles sont maintenus dans le calepin visuospatial. L’automatisation est possible lorsque les deux tâches reposent sur des sous-systèmes distincts. Spécifiquement, puisque les codes n’entrent pas en conflit, la réponse peut être sélectionnée automatiquement et exécutée sans intervention de l’attention centrale.

L’automatisation en double tâche est impossible lorsqu’au moins un sous-système maintient des codes appartenant aux deux tâches. Spécifiquement, puisque les codes entrent en conflit en mémoire de travail, ils doivent nécessairement être résolus par l’intervention de l’attention centrale.

La limitation de l’attention centrale est largement inactivée dans le cas d’une double tâche. C’est le cas lorsque l’une est automatisée et que l’autre est nouvelle. C’est également le cas lorsqu’elles sont chacune représentées dans des sous-systèmes distincts de la mémoire de travail. L’une peut être une tâche auditive vocale dans la boucle phonologique et l’autre peut être une tâche visuomanuelle dans le calepin visuospatial. La limitation est par contre bien présente lorsqu’une tâche est auditive-manuelle et que l’autre est visuelle-vocale, car les sous-systèmes utilisés sont alors communs.




Quelques conclusions intéressantes



  1. Aucune tâche ne comporte 100 % de traitement automatique ou 100 % de traitement non automatique.
  2. L’automaticité des compétences enseignées passe par un changement en mémoire à long terme et c’est une condition requise pour un traitement rapide, précis, efficace et économe. La condition n’est pas que cela s’accompagne d’une diminution de l’attention.
  3. La présence de larges connaissances structurées en mémoire à long terme est fondamentale. Elle permet d’y puiser directement une réponse dans le cadre d’un traitement automatique. Elle nous dispense, par sa rapidité, d’entamer un processus de traitement de l’information plus coûteux en mémoire de travail. 
  4. Une pratique approfondie, telle que la pratique guidée, suivie de pratique autonome et de révisions — telles que promues en enseignement explicite — constitue un facteur important d’automatisation. Il permet non seulement une automatisation des compétences, mais également un accroissement de leur rapidité, de leur exactitude et de la variété des contextes dans lesquels elles s’appliquent.
  5. L’entrainement à la récupération revêt une importance fondamentale. Cela n’est pas étonnant vu l’importance de la vérification de la compréhension en enseignement explicite, l’effet majeur de l’évaluation formative et le caractère central de l’effet de test dans le cadre de l’apprentissage.
  6. Si une tâche automatique peut s’exécuter en parallèle avec une tâche non automatique, ce n’est que dans des conditions très spécifiques que le phénomène a lieu sans interférence et sans ralentissement. Cela impose que les ressources nécessaires à la tâche automatique ne coïncident pas avec celles de l’autre tâche. Nous ne sommes pas multitâches pour deux tâches non automatiques et si une tâche automatique peut avoir lieu en parallèle avec une tâche non automatique, elle conserve un coût attentionnel dans la plupart des situations.


Mise à jour le 09/02/21


Bibliographie


François Maquestiaux, Psychologie de l’attention, Deboeck, p 127-158, 2017

0 comments:

Publier un commentaire