Stanislas Dehaene, L'illusion d'une lecture globale

La page est créée Dominique Carre
 
CONTINUER À LIRE
Stanislas Dehaene, L'illusion d'une lecture globale
Stanislas Dehaene, L'illusion d'une lecture globale

    Stanislas Dehaene, Les Neurones de la lecture, pp. 291-301.
http://www.amazon.fr/Les-neurones-lecture-Stanislas-Dehaene/dp/2738119743

      Le but de l'enseignement de la lecture est donc clair : il faut mettre en place
cette hiérarchie dans le cerveau, afin que l'enfant puisse reconnaître les lettres et les
graphèmes et les transformer aisément en sons du langage. Tous les autres aspects
essentiels de l'écrit — apprentissage de l'orthographe, enrichissement du
vocabulaire, nuances de sens, plaisir du style — en dépendent directement.
      Ce ne serait pas rendre service à l'enfant que de lui faire miroiter les plaisirs
de la lecture sans lui en donner, d'abord, les clés. Le décodage phonologique
des mots est l'étape clé de la lecture. Toutes les recherches sur les enfants et les
illettrés que j'ai décrites au début de ce chapitre en témoignent : la conversion
graphème-phonème est une invention unique dans l'histoire de l'écriture, qui
transforme radicalement le cerveau de l'enfant et sa manière d'écouter les sons
du langage. Elle ne se développe pas spontanément, il faut donc l'enseigner. La
lecture par la voie directe ou orthographique, qui mène en parallèle des lettres au
sens, ne devient efficace qu'après plusieurs années de lecture par la voie
phonologique.

     Le grand débat des méthodes de lecture
     La psychologie cognitive réfute ainsi, très directement, toute idée d'enseigner
la lecture par une méthode globale ou idéovisuelle. De quoi s'agit-il ? Disons, pour
simplifier, que cette méthode pédagogique propose à l'enfant d'associer
directement les mots écrits, voire des phrases entières, à leur sens, en refusant
d'enseigner explicitement les correspondances graphèmes-phonèmes.
     La méthode globale est issue d'une idée généreuse : refuser le « dressage » des
enfants, que l'école primaire est parfois accusée de transformer en petites
Stanislas Dehaene, L'illusion d'une lecture globale
mécaniques à ânonner « pa, pe, pi, po, pu, papa a le tutu de Lili ». Récusant la
primauté de la mécanique, elle souhaite replacer le sens au centre de la lecture en
donnant d'emblée aux enfants des textes censés les intéresser, leur laissant le plaisir
d'y trouver eux-mêmes les phrases, puis les mots, puis les règles orthographiques.
Ne redonne-t-elle pas ainsi l'initiative aux enfants ? À eux de construire leur propre
apprentissage, en découvrant par eux-mêmes les règles de la lecture. Et tant pis si,
au départ, l'enfant joue aux devinettes et lit : « Le minou a très soif » au lieu de : « Le
chat boit du lait » — il est sur la bonne voie, prétendent certains partisans » de la
lecture globale, car il grandit en autonomie et découvre d'emblée le plaisir du sens.
     Dans les années 1950-1960, le monde de l'éducation se polarise ainsi dans
une véritable guerre entre les progressistes, pour qui la méthode globale libère
l'inventivité des enfants, et les tenants de la pédagogie traditionnelle. Qu'en est-il
aujourd'hui ? Pour beaucoup, la hache de guerre est enterrée. Chercheurs,
enseignants, ministres, tous s'accordent : en dépit des idées généreuses qui la
fondent, la méthode globale ne fonctionne pas, elle a conduit une génération
d'enfants à l'échec. Jack Lang, dans Le Monde s'écriait en 2002: « Aux oubliettes
la méthode globale ! » Luc Ferry, alors ministre de l'Éducation, résumait le
consensus à l'Assemblée nationale en 2003 : « La méthode globale est en effet
calamiteuse. Cela étant, elle n'est presque plus utilisée, déjà depuis longtemps, et
elle est depuis l'an dernier, par instruction officielle, fortement déconseillée. »
     Est-il donc encore la peine d'en débattre ? Oui, car, poursuit Luc Ferry, « le
problème est aujourd'hui celui des méthodes mixtes, où l'élève apprend par
exemple à reconnaître globalement son nom avant de savoir le décomposer en
syllabes ». Le constat est repris par son successeur au ministère de l'Education
nationale, Gilles de Robien, qui souligne que « des méthodes à départ global
continuent d'exister ».
     Dans les faits, quoique officiellement vouée aux gémonies, la méthode
globale continue d'infiltrer les programmes, ne fût-ce que par inertie ou par
habitude. Le corps enseignant, désorienté par tant d'allers et retours, ne peut se
résoudre à abandonner toute une philosophie, mais aussi des habitudes, des
exercices qui ont été sa seule formation. Ainsi, dans Qu'apprend-on à l'école
élémentaire ?, ouvrage du Centre national de documentation pédagogique préfacé
par Jack Lang et paru en 2002, au sein d'un chapitre qui souligne pertinemment
l'importance d'« avoir compris le principe qui gouverne le codage alphabétique des
mots » et énonce diplomatiquement que le choix de la méthode globale «
comporte plus d'inconvénients que d'avantages », figure l'étonnante conclusion
suivante :
     « On peut toutefois considérer que la plupart de ces méthodes [globales ou
semi-globales], par le très large usage qu'elles font des activités d'écriture,
parviennent aussi à enseigner, de manière moins explicite, les relations entre
graphèmes et phonèmes. Il appartient aux enseignants de choisir la voie qui
conduit le plus efficacement tous les élèves à toutes les compétences fixées par les
programmes[1] [...]. »
     Depuis des années, les instructions officielles soufflent ainsi le chaud et le
froid. Elles autorisent chaque enseignant à choisir sa méthode favorite, ce qui
revient à nier qu'il existe des méthodes meilleures que d'autres. Dans les écoles
se poursuivent donc, aux côtés de l'enseignement de la syllabification et des
correspondances graphèmes-phonèmes, les activités héritées de la méthode
globale : appariement d'un mot avec une image, reconnaissance du contour des
mots, reconnaissance du prénom et du nom quelle que soit l'irrégularité de son
orthographe (figure 5.2). Ce n'est que tout récemment que le ministère de
l'Éducation nationale a exprimé, avec force, l'inutilité de ces pratiques et les a
officiellement proscrites.
     Il serait trop facile de rejeter le blâme sur le seul corps enseignant. En réalité,
ce sont des pédagogues et des psychologues qui, les premiers, ont prôné la lecture
globale[2].Dès le XVIIIe siècle, le Dictionnaire pédagogique de Nicolas Adam (1787)
reprend les thèses de l'abbé de Radonvilliers, selon lesquelles l'apprentissage
syllabique « tourmente » les enfants pour leur faire « retenir un grand nombre de
lettres, de syllabes et de sons où ils ne doivent rien comprendre » alors qu'il faudrait
les « amuser avec des mots entiers » écrits sur des cartes à jouer. À la fin du mixe
siècle, dans son laboratoire américain de psychophysique, James McKeen Cattell
annonce avoir découvert que les mots sont reconnus globalement plus rapidement
que les lettres qui les composent. Ses travaux sont repris par le psychologue suisse
Édouard Claparède, pour qui l'apprentissage de la lecture doit s'appuyer sur la
perception naturellement « syncrétique » de l'enfant. Le docteur Ovide Decroly
incorpore ces idées

Figure 5.2 En dépit de son inefficacité, la méthode globale d'enseignement de la lecture
continue d'inspirer certains exercices de cours préparatoire. Quelques semaines après la
rentrée, alors qu'il n'a pas encore appris les sonorités de lettres, l'enfant doit apparier un mot
avec une image (en haut). Remarquez l'erreur grossière sur le mot « ballon », qui suggère qu'il
ignore tout du principe alphabétique. L'enfant apprend également à prêter attention à la forme
globale du mot, symbolisée par l'enveloppe des lettres montantes et descendantes. Notez que
l'institutrice elle-même se trompe sur le mot « lavabo » ! Ces exercices n'ont pas le moindre
rapport avec la manière dont notre cerveau reconnaît les mots.
dans sa « méthode idéovisuelle » qui connaît un succès officiel en Belgique
dans les années 1930, et reçoit l'assentiment de Jean Piaget et surtout d'Henri
Wallon, influent professeur au Collège de France où il occupe la chaire de
psychologie de l'enfance et de l'éducation de 1937 à 1944. Ministre de l'Éduca-
tion nationale, celui-ci élaborera avec Paul Langevin et Henri Piéron, au sortir de
la guerre (1947), un ambitieux plan de réforme de l'enseignement.
    Par une autre voie, l'emphase sur la forme globale du mot envahit le monde
de la typographie, où un mot spécial, la « bouma » (du nom du psychologue
néerlandais Herman Bouma), fait référence au contour des mots. Pour en
améliorer la lisibilité, les typographes conçoivent sciemment des polices de
caractères qui produisent des « boumas » les plus distinctes possible.

    L'illusion d'une lecture globale
    Comment des scientifiques et des pédagogues consciencieux sont-ils
parvenus à une conclusion aujourd'hui jugée erronée ? Il importe de comprendre,
et de réfuter un par un, les arguments scientifiques qui ont conduit à l'idée fausse
d'une lecture globale des mots. Un article récent recense au moins quatre
observations fallacieuses qui constituent autant de piliers de l'illusion de la
lecture globale[3].

     1. Le temps de lecture d'un mot ne dépend pas du nombre de lettres
qu'il contient. Quelle que soit leur longueur (dans un intervalle de 3 à 8 lettres
environs), nous mettons autant de temps pour lire les petits mots que les grands.
Cette découverte semble accréditer l'idée que la reconnaissance d'un mot ne
passe pas par sa décomposition en lettres. Introspectivement, la lecture d'un mot
nous paraît une opération élémentaire, immédiate, qui reconnaît la chaîne de
lettres comme un tout indivisible. Cependant, nous savons aujourd'hui que cette
conclusion ne tient pas. Chez le lecteur adulte, si la longueur des mots
n'influence pas la lecture, ce n'est pas parce que notre cerveau ne prête aucune
attention aux lettres, mais tout simplement parce qu'il les traite toutes
simultanément et non pas une par une. De plus, chez l'enfant, les choses sont
bien différentes. Pendant les années d'apprentissage, le temps de lecture est
strictement proportionnel au nombre de lettres, et cet effet de longueur met
plusieurs années à disparaître. Ainsi, est-il encore plus évident chez l'enfant que
la lecture n'est pas globale.

    2. La reconnaissance d'un mot peut être plus rapide ou plus efficace
que celle d'une lettre seule. Cet effet fascinant, découvert par Cattell, a été
répliqué par Reicher et popularisé sous le terme d'« effet de supériorité lexicale
» ; nous l'avons examiné au chapitre 2 (page 80). Bien que son origine ne soit
pas encore bien comprise, il n'est plus, aujourd'hui, considéré comme la preuve
que la reconnaissance globale du mot précède l'extraction de ses lettres. Au
contraire, des analyses récentes montrent que la lecture d'un mot dans du bruit
se déduit directement du taux de reconnaissance de chacune de ses lettres[4].
Si l'on accède plus vite au mot, c'est peut-être que l'attention consciente
s'oriente plus aisément vers les niveaux les plus élevés de la hiérarchie
corticale, tandis qu'un effort d'attention focale est nécessaire pour accéder à
l'identité des lettres (même si celle-ci est calculée en premier[5]). La taille des
populations neuronales concernées doit également favoriser la reconnaissance
des lettres au sein des mots : un très grand nombre de neurones, aux niveaux
lexical, sémantique et phonologique - différencient « saut » de « sauf », tandis
qu'un petit ensemble d'unités visuelles déchargent de façon distincte à la
présentation des lettres « t » et « f ».

    3. La lecture des mots en minuscules est légèrement plus rapide que
celle des mots en majuscules. Selon les partisans de la méthode globale,
cette rapidité serait due à la forme particulière des minuscules ascendantes et
descendantes, qui engendre un contour propre à chaque mot (la « bouma » des
typographes). Ce contour disparaît lorsque toutes les lettres apparaissent en
majuscules de la même taille. Cependant, si nous utilisions réellement le contour
des mots, nous ne devrions pas seulement être ralentis, mais être tout
simplement incapables de reconnaître les mots en majuscules. A fortiori, la
lecture devrait être impossible lorsque les mots sont présentés AvEc DeS
LeTtReS MiXtEs, ce qui brise totalement les régularités du contour. Au contraire,
tous ces mots restent éminemment lisibles. Comme nous l'avons vu au chapitre 2
(page 131), l'aire sensible aux mots écrits située dans le cortex occipito-temporal
gauche généralise très vite des minuscules aux majuscules, y compris de façon
non consciente. Le léger ralentissement de la lecture des mots en majuscules
n'est donc pas crucial. Il pourrait tout simplement être dû à leur moindre
familiarité.

    4. Les erreurs typographiques qui respectent le contour global du mot
sont moins faciles à déceler que celles qui le violent. Ce n'est pas
entièrement faux : lorsque le mot désiré est « test », nous détectons moins
fréquemment l'erreur d'orthographe « tesf » que l'erreur « tesg », dans laquelle
une minuscule ascendante a été remplacée par une descendante. Cependant cet
effet ne provient pas de la forme globale du mot. Il s'explique intégralement par la
ressemblance des lettres : le « f » de « tesf » ressemble plus à un « t » que le g
de « tesg ». L'expérience montre que c'est la similarité des lettres, et non celle du
contour global, qui détermine les confusions entre les mots[6].

    En résumé, cela ne fait aujourd'hui plus de doute : le contour global des mots
ne joue pratiquement aucun rôle dans la lecture. La reconnaissance visuelle des
mots ne repose pas sur une appréhension globale de son contour, mais sur sa
décomposition en éléments simples, les lettres et les graphèmes. La région
corticale de la forme visuelle des mots traite toutes les lettres du mot en parallèle,
ce qui, historiquement, est responsable de l'impression de lecture globale. Mais
l'immédiateté de la lecture n'est qu'une illusion, suscitée par l'extrême
automatisation de ses étapes, qui se déroulent en dehors de notre conscience.
L'inefficacité de la méthode globale

     L'inefficacité de la méthode globale d'enseignement de la lecture est confirmée
par l'expérimentation directe. Plusieurs chercheurs ont comparé l'enseignement de
l'orthographe selon une méthode soit globale, soit analytique. L'une des plus belles
expériences a été réalisée par mon ami Bruce McCandliss, professeur à l'Institut
Sackler de New York[7]. Il a inventé un nouvel alphabet artificiel d'un style inhabituel.
Celui-ci s'écrit de bas en haut, à l'aide de lettres dont les traits et les courbes se
touchent, de sorte que leurs courbes forment un contour global continu. Voici quatre
mots écrits dans cet alphabet :

     Sans en être informé, on ne se rend pas nécessairement compte qu'il s'agit de
mots de trois lettres — mais remarquez par exemple la lettre « t », qui revient quatre
fois dans cet exemple.
     Une fois qu'il eut mis au point cet alphabet, Bruce McCandliss proposa à
deux groupes d'étudiants d'apprendre à lire ces mots. Aux uns, il demanda d'en
mémoriser la forme globale, sans les prévenir de la présence de lettres, tandis
qu'aux autres il signala que les mots à retenir étaient composés d'une séquence
de lettres écrites de bas en haut.
     Examinons pas à pas les conséquences de cette simple différence de
présentation. Après un jour d'entraînement sur une première liste de trente mots, le
groupe qui prêtait attention à leur forme globale les reconnaissait mieux que celui qui
tentait d'extraire les lettres. Ce résultat s'accorde bien à l'intuition de nombreux
enseignants, qui affirment que la méthode globale est plus facile pour l'enfant, du
moins au départ. Mais cela n'est vrai que pour les vingt ou trente premiers mots.
L'identification des lettres et des graphèmes demande initialement plus d'efforts,
mais les bénéfices en sont vite évidents.
     Dès le deuxième jour, lorsque Bruce McCandliss demanda aux étudiants
d'apprendre une deuxième liste de mots, ceux qui faisaient attention à la forme
globale commencèrent à perdre pied. Ils apprirent les nouveaux mots — mais au
détriment de leurs performances sur la première liste, qu'ils oublièrent rapidement.
Il en alla ainsi à chaque fois qu'une nouvelle liste de mots fut introduite : il leur
fallait toujours repartir de zéro, et ils perdaient le peu qu'ils avaient appris la veille.
Quoi de plus normal, puisqu'ils essayaient d'apprendre ces mots un par un,
comme s'il s'agissait de caractères chinois — une tâche extraordinairement difficile
dès lors que le nombre de mots dépasse quelques dizaines et qu'ils se
ressemblent tous.
Au contraire, ceux qui prêtaient attention aux lettres progressaient
lentement, mais sûrement. Chaque jour, leur taux de réussite s'accroissait. Non
seulement ils parvenaient d'emblée à déchiffrer certains des mots nouveaux
qu'on leur proposait ; mais, de plus, leurs performances s'amélioraient
également pour les mots les plus anciens qu'ils n'avaient pourtant jamais
révisés. Ce n'était que logique : leur connaissance croissante des lettres leur
permettait de déchiffrer ces mots de plus en plus aisément, même s'ils ne se
rappelaient plus les avoir vus.
     Mais c'est l'imagerie cérébrale qui mit en évidence l'effet le plus spectaculaire :
l'hémisphère droit s'activait pour la lecture globale, alors que l'attention portée aux
lettres activait bien la région classique de la lecture, l'aire occipito-temporale ventrale
gauche. Autrement dit, l'apprentissage par la méthode globale mobilisait un circuit
inapproprié, diamétralement opposé à celui de la lecture experte.
     L'expérience de McCandliss met en évidence deux limites majeures de la
méthode globale. Premièrement, la simple exposition aux mots écrits, sans
apprentissage explicite des correspondances graphème-phonème, ne suffit pas
toujours à découvrir les régularités de l'orthographe, en tout cas pas de façon
systématique et rapide. Même après avoir été exposé à des milliers de mots
écrits, un adulte non prévenu peut très bien ne jamais se rendre compte que
ces mots sont composés à l'aide d'un système régulier de signes[8].
     Seconde limite, la méthode globale ne permet pas de généraliser la procédure
de lecture à des mots nouveaux. Or cette généralisation joue un rôle essentiel dans
l'apprentissage de la lecture chez l'enfant. Aucun enseignant ne peut espérer
présenter à l'enfant tous les mots du français ! Savoir lire, c'est avant tout savoir
décoder des milliers de mots nouveaux, que l'on rencontre pour la première fois dans
un livre, et dont il faut déduire la prononciation. Pour progresser en lecture, l'enfant
doit donc s'« autoenseigner » — il lui faut savoir déchiffrer de lui-même les chaînes
de caractères nouvelles afin d'y reconnaître des mots dont il connaît déjà la
prononciation et le sens, et d'automatiser progressivement l'ensemble de cette
chaîne de traitement[9].
     Ce point est capital, car il réfute l'argument selon lequel la méthode globale
accroîtrait la liberté et l'autonomie des enfants. Paradoxalement, l'apprentissage
explicite des correspondances graphèmes-phonèmes est le seul à offrir à l'enfant
la liberté de lire, car lui seul donne accès à de nouveaux mots. On a bien tort
d'opposer la liberté de l'enfant à l'effort et à la rigueur de l'enseignement.
Conquérir sa liberté de lecteur demande certes à l'enfant des efforts, mais ceux-ci
sont rapidement payés en retour lorsqu'il découvre, pour la première fois, qu'il
parvient à lire des mots qu'il n'a jamais appris en classe.
     Cependant, je ne voudrais pas donner l'impression que le rejet de la méthode
globale repose seulement sur des expériences de laboratoire ou des arguments
théoriques. Son inefficacité est également prouvée par l'expérimentation en
grandeur nature. Tirant parti de la variabilité des méthodes d'enseignement, la
psychologie de la lecture a bénéficié d'expérimentations dans les écoles. Ces
recherches, qui empruntent leurs méthodes à l'épidémiologie autant qu'à la
psychologie de l'éducation, ont mesuré les performances de lecture des enfants dans
des tests standardisés, en fonction de la méthode d'enseignement employée, mais
aussi du niveau socio-économique, de l'âge et d'autres variables.
Leurs résultats[10], tant en France qu'à l'étranger, conduisent à une
conclusion ferme : les approches fondées sur la forme globale du mot et sa mise
en liaison directe avec un sens ne fonctionnent pas aussi bien que la mise en
liaison systématique des lettres avec les sons. Quelle que soit leur origine
sociale, les élèves dont l'attention n'est pas attirée sur le codage des lettres et
des graphèmes souffrent d'un retard de lecture non négligeable et qui persiste
pendant plusieurs années, même s'il finit ensuite par disparaître.
     Point crucial : contrairement aux affirmations des « globalistes », à la fin de la
scolarité, les enfants qui ont appris avec une méthode globale sont, non seulement
moins performants dans la lecture de mots nouveaux, mais également moins
rapides et moins efficaces en compréhension de textes. Voilà qui réfute l'idée que
les méthodes grapho-phonologiques transforment l'enfant en machine à ânonner,
incapable de prêter attention au sens. En réalité, décodage et compréhension vont
de pair : les enfants qui savent le mieux lire des mots et des pseudo-mots isolés
sont aussi ceux qui comprennent le mieux le contenu d'une phrase ou d'un texte.
Bien entendu, apprendre à ânonner la prononciation des mots ne saurait constituer
une fin en soi. Il est bon que la plupart des livres scolaires, aujourd'hui, fassent très
vite appel à des petits textes signifiants plutôt qu'à des lignes de charabia sur le «
tutu de Lola ». Mais la compréhension passe avant tout par la fluidité du décodage.
Plus vite cette étape est automatisée, mieux l'enfant peut se concentrer sur le sens
du texte.

[1] Centre national de documentation pédagogique, 1992.
                                                    e
[2] Bellenger L., 1980, Les Méthodes de lecture (2 édition). Paris : Presses Universitaires de France.
[3] K.        Larson         (2004), The      Science        of       Word        Recognition,       site
internet :http://www.microsoft.com/typography/ctfonts/wordrecognition.aspx
[4] Pelli D. G., Farell B. & Moore D. C. (2003), The remarkable inefficiency of word recognition. Nature,
423 (6941), 752-756.
[5] Ahissar M. & Hochstein S. (2004), The reverse jierarchy theory of visual perceptual
learning. Trends Cogn. Sci, 8(10), 457-464.
[6] Paap K. R., Newsome S. L. & Noel R. W. (1984), Word shape’s in poor shape for the race to the
lexicon. J Exp Psychol Hum Percept Perform, 10(3), 413-428.
[7] Yoncheva Y. N., Blau V. C., Maurer U. & McCandliss B. D. (2006), Strategic Focus During
Learning Impacts the Neural Basis of Expetise in Reading. Paper presented at the Poster presented at
the Association for Psychological Science Meeting Convention, New York.
[8] Rayner K., Foorman B. R., Perfetti C. A., Pesetsky D. & Seidenberg M. S. (2001), How
psychological science informs the teaching of reading. Psychol Sci, 2, 31-74.
Bitan T. & Karni A. (2003), Alphabetical knowledge from whole words training : effects of explicit
instruction and implicit experience on learning script segmentation. Brain Res Cogn Brain Res, 16(3),
323-337.
[9] Share D. L. (1995), self-teaching : sine qua non of reading acquisition. Cognition, 55(2), 151-218 ;
discussion 219-226.
Share D. L. (1999), Phonological recoding and orthographic learning : A direct test of the self-teaching
hypothesis. J Exp Child Psychol, 72(2), 95-129.
[10] Braibant & Gérard, (1996), Savoir lire : une question de méthodes ? Bulletin de psychologie
scolaire et d’orientation, 1, 7-45.
http://pedagogie.ac-toulouse.fr/ien31-blagnac/spip/IMG/pdf/Lir_meth_Gerard-Braibant.pdf
Goigoux (2000), Apprendre à lire à l’école : les limites d’une approche idéovisuelle
http://www.acfos.org/sedocumenter/base_doc/lecture_surdite/art_goigoux.pdf
Ehri, Nunes, Stahl & Willows (2001), Systematic phonics instruction helps students learn to read :
Evidence from the National Reading Panel’s meta-analysis, Review of Educational Research, 71, 393-
447.
Ehri, Nunes, Willows, Schuster, Yaghoub-Zadeh, Shanahan (2001), Phonemic awareness instruction
helps children learn to read : Evidence from the National Reading Panel’s meta-analysis, Reading
Research                         Quaterly,                      6,                       250-287.

Extrait d'un article du Dr Ghislaine Wettstein-Badour :

Noël 2007 - "Les Neurones de
la lecture" dont l'auteur est M.
Stanislas Dehaene - note de
lecture
Apprendre à lire : « les contraintes de l’architecture de
notre cerveau ».
Note de lecture du Dr Ghislaine WETTSTEIN-BADOUR- fransya@fransya.com
concernant l’ouvrage de M. Stanislas DEHAENE « Les neurones de la lecture »
(une             des              études              de              : http://cerveau-et-lecture.blogspot.com )

Les                    mécanismes                       de                    la                      lecture

M. DEHAENE dissèque tout particulièrement les mécanismes qui permettent de passer de la vision du
texte à sa compréhension. Il insiste, à juste titre, sur le premier stade du traitement visuel qui consiste
à éclater la chaîne écrite en fragments susceptibles d’être reconnus chacun par un photorécepteur
distinct sur le centre de la rétine. Ces signes élémentaires sont ensuite traités en parallèle et
recombinés dans les différents niveaux d’intervention du système visuel. L’acquisition de la lecture est
ainsi liée à une « capacité d’attention aux détails pertinents » perçus par les récepteurs visuels qui
différencient les lettres les unes des autres, mode de traitement qui « ne laisse pratiquement aucun
rôle » à la perception de « la forme globale des mots » dans la lecture.

L’auteur montre ensuite que la compréhension du sens de l’écrit nécessite à la fois la prise de
conscience du son que chaque signe (ou groupe de signes) graphique représente ainsi que de la
mobilisation des données incluses dans les différents lexiques contenus dans le cerveau, en
particulier ceux qui permettent la reconnaissance de la forme orthographique et grammaticale des
mots.

C’est là qu’intervient la région occipito-temporale gauche vers laquelle convergent toutes les
informations d’origine visuelle. Mais pourquoi s’attarder, dans cette courte note, sur cette aire précise
alors que d’autres régions de l’hémisphère gauche jouent également un rôle très important dans la
compréhension du sens de la lecture ? D’abord parce que M. DEHAENE lui accorde, à juste titre, une
place fondamentale dans ses travaux. Ensuite, parce que certains ont voulu voir dans cette région du
cerveau qui reconnaît « la forme écrite des mots » un argument « scientifique » susceptible de «
prouver » l’existence du caractère global de la lecture. M.DEHAENE fournit à cette affirmation erronée
une réponse sans ambiguïté : « La reconnaissance visuelle des mots ne repose pas sur une
appréhension globale de son contour, mais sur sa décomposition en éléments simples, les
lettres et les graphèmes. La région corticale de la forme visuelle des mots traite toutes les
lettres du mot en parallèle, ce qui, historiquement est responsable de l’impression de lecture
globale…l’immédiateté de la lecture n’est qu’une illusion, suscitée par l’extrême
automatisation            de           ses            étapes.       »            (page            297).

J’ai écrit, dans mes études précédentes, que si une aire de l’hémisphère gauche avait la possibilité de
reconnaître la forme écrite des mots, ce travail ne pouvait se réaliser qu’en comparant un à un chacun
des éléments qui les composent avec ceux contenus dans les mots dont elle a gardé le souvenir
graphique en mémoire. Il s’agit bien là d’un travail de synthèse des éléments préalablement analysés
qui est aux antipodes d’une vision globale du mot. Je constate avec satisfaction que les travaux de
M.DEHAENE se situent sur cette ligne. Ce point constitue un élément essentiel à opposer aux tenants
des méthodes globales et apparentées pour leur en démontrer le non sens neurologique. L’existence
d’une aire qui ne peut aborder la compréhension d’un mot écrit que par synthèse des éléments qui le
composent exclut toute possibilité d’accès au sens du mot vu dans son ensemble et élimine toutes les
hypothèses       qui    assimilent    la    perception      du     mot      à   celle    de    l’image.

Il me parait utile de signaler dès maintenant une ambiguïté apparente qu’il faut impérativement clarifier
dans les propos de M.DEHAENE. Lorsque celui-ci parle de « méthodes globales » il associe, de toute
évidence, dans cette formulation l’ensemble des pédagogies globales et semi-globales, termes qui
recouvrent la quasi-totalité des pédagogies actuellement en vigueur dans l’Education nationale
(méthodes mixtes, naturelles, par hypothèses, ou intégratives). Quelques exemples suffisent à s’en
convaincre. Il considère que l’apprentissage du lien entre phonèmes et graphèmes doit être effectué
exclusivement à partir de mots contenant des graphèmes connus et en cours d’apprentissage (page
304). Ceci exclut l’emploi d’une méthode ou les graphèmes sont découverts dans des mots et phrases
contenant des éléments graphiques qui n’ont encore jamais été étudiés, ce qui se retrouve dans
toutes les méthodes autres que les méthodes alphabétiques. D’autres part, il écrit (page 292) : « Dans
les faits, quoique officiellement vouée aux gémonies, la méthode globale continue d’infiltrer les
programmes » et il ajoute que le ministre L.FERRY avait déclaré que « le problème est aujourd’hui
celui des méthodes mixtes où l’élève apprend par exemple à reconnaître globalement son nom avant
de savoir le décomposer en syllabes». Il rappelle également que M. de ROBIEN a précisé que « des
méthodes à départ global continuent d’exister ». Il paraît donc évident que M.DEHAENE est conscient
de l’existence des méthodes semi-globales et qu’il les intègre toutes dans l’appellation « méthodes
globales ». Ce regroupement est une évidence sur le plan neurologique puisque ces deux types de
pédagogie font toutes preuve de la même méconnaissance des mécanismes de la lecture, conduisent
au même type d’erreurs et au même handicap concernant l’accès au sens du texte lu. Cependant,
cette formulation risque d’être perçue de manière restrictive par certains lecteurs intellectuellement
peu rigoureux ou tout simplement partisans qui peuvent l’utiliser pour prétendre que les conclusions
de M.DEHAENE sont désormais obsolètes dans la mesure ou les méthodes entièrement globales ne
sont plus utilisées. Il eût donc été préférable que l’auteur précise plus clairement sa pensée sur ce
point d’une grande importance.
Vous pouvez aussi lire