Stanislas Dehaene, L'illusion d'une lecture globale
←
→
Transcription du contenu de la page
Si votre navigateur ne rend pas la page correctement, lisez s'il vous plaît le contenu de la page ci-dessous
Stanislas Dehaene, L'illusion d'une lecture globale Stanislas Dehaene, Les Neurones de la lecture, pp. 291-301. http://www.amazon.fr/Les-neurones-lecture-Stanislas-Dehaene/dp/2738119743 Le but de l'enseignement de la lecture est donc clair : il faut mettre en place cette hiérarchie dans le cerveau, afin que l'enfant puisse reconnaître les lettres et les graphèmes et les transformer aisément en sons du langage. Tous les autres aspects essentiels de l'écrit — apprentissage de l'orthographe, enrichissement du vocabulaire, nuances de sens, plaisir du style — en dépendent directement. Ce ne serait pas rendre service à l'enfant que de lui faire miroiter les plaisirs de la lecture sans lui en donner, d'abord, les clés. Le décodage phonologique des mots est l'étape clé de la lecture. Toutes les recherches sur les enfants et les illettrés que j'ai décrites au début de ce chapitre en témoignent : la conversion graphème-phonème est une invention unique dans l'histoire de l'écriture, qui transforme radicalement le cerveau de l'enfant et sa manière d'écouter les sons du langage. Elle ne se développe pas spontanément, il faut donc l'enseigner. La lecture par la voie directe ou orthographique, qui mène en parallèle des lettres au sens, ne devient efficace qu'après plusieurs années de lecture par la voie phonologique. Le grand débat des méthodes de lecture La psychologie cognitive réfute ainsi, très directement, toute idée d'enseigner la lecture par une méthode globale ou idéovisuelle. De quoi s'agit-il ? Disons, pour simplifier, que cette méthode pédagogique propose à l'enfant d'associer directement les mots écrits, voire des phrases entières, à leur sens, en refusant d'enseigner explicitement les correspondances graphèmes-phonèmes. La méthode globale est issue d'une idée généreuse : refuser le « dressage » des enfants, que l'école primaire est parfois accusée de transformer en petites
mécaniques à ânonner « pa, pe, pi, po, pu, papa a le tutu de Lili ». Récusant la primauté de la mécanique, elle souhaite replacer le sens au centre de la lecture en donnant d'emblée aux enfants des textes censés les intéresser, leur laissant le plaisir d'y trouver eux-mêmes les phrases, puis les mots, puis les règles orthographiques. Ne redonne-t-elle pas ainsi l'initiative aux enfants ? À eux de construire leur propre apprentissage, en découvrant par eux-mêmes les règles de la lecture. Et tant pis si, au départ, l'enfant joue aux devinettes et lit : « Le minou a très soif » au lieu de : « Le chat boit du lait » — il est sur la bonne voie, prétendent certains partisans » de la lecture globale, car il grandit en autonomie et découvre d'emblée le plaisir du sens. Dans les années 1950-1960, le monde de l'éducation se polarise ainsi dans une véritable guerre entre les progressistes, pour qui la méthode globale libère l'inventivité des enfants, et les tenants de la pédagogie traditionnelle. Qu'en est-il aujourd'hui ? Pour beaucoup, la hache de guerre est enterrée. Chercheurs, enseignants, ministres, tous s'accordent : en dépit des idées généreuses qui la fondent, la méthode globale ne fonctionne pas, elle a conduit une génération d'enfants à l'échec. Jack Lang, dans Le Monde s'écriait en 2002: « Aux oubliettes la méthode globale ! » Luc Ferry, alors ministre de l'Éducation, résumait le consensus à l'Assemblée nationale en 2003 : « La méthode globale est en effet calamiteuse. Cela étant, elle n'est presque plus utilisée, déjà depuis longtemps, et elle est depuis l'an dernier, par instruction officielle, fortement déconseillée. » Est-il donc encore la peine d'en débattre ? Oui, car, poursuit Luc Ferry, « le problème est aujourd'hui celui des méthodes mixtes, où l'élève apprend par exemple à reconnaître globalement son nom avant de savoir le décomposer en syllabes ». Le constat est repris par son successeur au ministère de l'Education nationale, Gilles de Robien, qui souligne que « des méthodes à départ global continuent d'exister ». Dans les faits, quoique officiellement vouée aux gémonies, la méthode globale continue d'infiltrer les programmes, ne fût-ce que par inertie ou par habitude. Le corps enseignant, désorienté par tant d'allers et retours, ne peut se résoudre à abandonner toute une philosophie, mais aussi des habitudes, des exercices qui ont été sa seule formation. Ainsi, dans Qu'apprend-on à l'école élémentaire ?, ouvrage du Centre national de documentation pédagogique préfacé par Jack Lang et paru en 2002, au sein d'un chapitre qui souligne pertinemment l'importance d'« avoir compris le principe qui gouverne le codage alphabétique des mots » et énonce diplomatiquement que le choix de la méthode globale « comporte plus d'inconvénients que d'avantages », figure l'étonnante conclusion suivante : « On peut toutefois considérer que la plupart de ces méthodes [globales ou semi-globales], par le très large usage qu'elles font des activités d'écriture, parviennent aussi à enseigner, de manière moins explicite, les relations entre graphèmes et phonèmes. Il appartient aux enseignants de choisir la voie qui conduit le plus efficacement tous les élèves à toutes les compétences fixées par les programmes[1] [...]. » Depuis des années, les instructions officielles soufflent ainsi le chaud et le froid. Elles autorisent chaque enseignant à choisir sa méthode favorite, ce qui revient à nier qu'il existe des méthodes meilleures que d'autres. Dans les écoles se poursuivent donc, aux côtés de l'enseignement de la syllabification et des
correspondances graphèmes-phonèmes, les activités héritées de la méthode globale : appariement d'un mot avec une image, reconnaissance du contour des mots, reconnaissance du prénom et du nom quelle que soit l'irrégularité de son orthographe (figure 5.2). Ce n'est que tout récemment que le ministère de l'Éducation nationale a exprimé, avec force, l'inutilité de ces pratiques et les a officiellement proscrites. Il serait trop facile de rejeter le blâme sur le seul corps enseignant. En réalité, ce sont des pédagogues et des psychologues qui, les premiers, ont prôné la lecture globale[2].Dès le XVIIIe siècle, le Dictionnaire pédagogique de Nicolas Adam (1787) reprend les thèses de l'abbé de Radonvilliers, selon lesquelles l'apprentissage syllabique « tourmente » les enfants pour leur faire « retenir un grand nombre de lettres, de syllabes et de sons où ils ne doivent rien comprendre » alors qu'il faudrait les « amuser avec des mots entiers » écrits sur des cartes à jouer. À la fin du mixe siècle, dans son laboratoire américain de psychophysique, James McKeen Cattell annonce avoir découvert que les mots sont reconnus globalement plus rapidement que les lettres qui les composent. Ses travaux sont repris par le psychologue suisse Édouard Claparède, pour qui l'apprentissage de la lecture doit s'appuyer sur la perception naturellement « syncrétique » de l'enfant. Le docteur Ovide Decroly incorpore ces idées Figure 5.2 En dépit de son inefficacité, la méthode globale d'enseignement de la lecture continue d'inspirer certains exercices de cours préparatoire. Quelques semaines après la rentrée, alors qu'il n'a pas encore appris les sonorités de lettres, l'enfant doit apparier un mot avec une image (en haut). Remarquez l'erreur grossière sur le mot « ballon », qui suggère qu'il ignore tout du principe alphabétique. L'enfant apprend également à prêter attention à la forme globale du mot, symbolisée par l'enveloppe des lettres montantes et descendantes. Notez que l'institutrice elle-même se trompe sur le mot « lavabo » ! Ces exercices n'ont pas le moindre rapport avec la manière dont notre cerveau reconnaît les mots.
dans sa « méthode idéovisuelle » qui connaît un succès officiel en Belgique dans les années 1930, et reçoit l'assentiment de Jean Piaget et surtout d'Henri Wallon, influent professeur au Collège de France où il occupe la chaire de psychologie de l'enfance et de l'éducation de 1937 à 1944. Ministre de l'Éduca- tion nationale, celui-ci élaborera avec Paul Langevin et Henri Piéron, au sortir de la guerre (1947), un ambitieux plan de réforme de l'enseignement. Par une autre voie, l'emphase sur la forme globale du mot envahit le monde de la typographie, où un mot spécial, la « bouma » (du nom du psychologue néerlandais Herman Bouma), fait référence au contour des mots. Pour en améliorer la lisibilité, les typographes conçoivent sciemment des polices de caractères qui produisent des « boumas » les plus distinctes possible. L'illusion d'une lecture globale Comment des scientifiques et des pédagogues consciencieux sont-ils parvenus à une conclusion aujourd'hui jugée erronée ? Il importe de comprendre, et de réfuter un par un, les arguments scientifiques qui ont conduit à l'idée fausse d'une lecture globale des mots. Un article récent recense au moins quatre observations fallacieuses qui constituent autant de piliers de l'illusion de la lecture globale[3]. 1. Le temps de lecture d'un mot ne dépend pas du nombre de lettres qu'il contient. Quelle que soit leur longueur (dans un intervalle de 3 à 8 lettres environs), nous mettons autant de temps pour lire les petits mots que les grands. Cette découverte semble accréditer l'idée que la reconnaissance d'un mot ne passe pas par sa décomposition en lettres. Introspectivement, la lecture d'un mot nous paraît une opération élémentaire, immédiate, qui reconnaît la chaîne de lettres comme un tout indivisible. Cependant, nous savons aujourd'hui que cette conclusion ne tient pas. Chez le lecteur adulte, si la longueur des mots n'influence pas la lecture, ce n'est pas parce que notre cerveau ne prête aucune attention aux lettres, mais tout simplement parce qu'il les traite toutes simultanément et non pas une par une. De plus, chez l'enfant, les choses sont bien différentes. Pendant les années d'apprentissage, le temps de lecture est strictement proportionnel au nombre de lettres, et cet effet de longueur met plusieurs années à disparaître. Ainsi, est-il encore plus évident chez l'enfant que la lecture n'est pas globale. 2. La reconnaissance d'un mot peut être plus rapide ou plus efficace que celle d'une lettre seule. Cet effet fascinant, découvert par Cattell, a été répliqué par Reicher et popularisé sous le terme d'« effet de supériorité lexicale » ; nous l'avons examiné au chapitre 2 (page 80). Bien que son origine ne soit pas encore bien comprise, il n'est plus, aujourd'hui, considéré comme la preuve que la reconnaissance globale du mot précède l'extraction de ses lettres. Au contraire, des analyses récentes montrent que la lecture d'un mot dans du bruit se déduit directement du taux de reconnaissance de chacune de ses lettres[4]. Si l'on accède plus vite au mot, c'est peut-être que l'attention consciente s'oriente plus aisément vers les niveaux les plus élevés de la hiérarchie corticale, tandis qu'un effort d'attention focale est nécessaire pour accéder à
l'identité des lettres (même si celle-ci est calculée en premier[5]). La taille des populations neuronales concernées doit également favoriser la reconnaissance des lettres au sein des mots : un très grand nombre de neurones, aux niveaux lexical, sémantique et phonologique - différencient « saut » de « sauf », tandis qu'un petit ensemble d'unités visuelles déchargent de façon distincte à la présentation des lettres « t » et « f ». 3. La lecture des mots en minuscules est légèrement plus rapide que celle des mots en majuscules. Selon les partisans de la méthode globale, cette rapidité serait due à la forme particulière des minuscules ascendantes et descendantes, qui engendre un contour propre à chaque mot (la « bouma » des typographes). Ce contour disparaît lorsque toutes les lettres apparaissent en majuscules de la même taille. Cependant, si nous utilisions réellement le contour des mots, nous ne devrions pas seulement être ralentis, mais être tout simplement incapables de reconnaître les mots en majuscules. A fortiori, la lecture devrait être impossible lorsque les mots sont présentés AvEc DeS LeTtReS MiXtEs, ce qui brise totalement les régularités du contour. Au contraire, tous ces mots restent éminemment lisibles. Comme nous l'avons vu au chapitre 2 (page 131), l'aire sensible aux mots écrits située dans le cortex occipito-temporal gauche généralise très vite des minuscules aux majuscules, y compris de façon non consciente. Le léger ralentissement de la lecture des mots en majuscules n'est donc pas crucial. Il pourrait tout simplement être dû à leur moindre familiarité. 4. Les erreurs typographiques qui respectent le contour global du mot sont moins faciles à déceler que celles qui le violent. Ce n'est pas entièrement faux : lorsque le mot désiré est « test », nous détectons moins fréquemment l'erreur d'orthographe « tesf » que l'erreur « tesg », dans laquelle une minuscule ascendante a été remplacée par une descendante. Cependant cet effet ne provient pas de la forme globale du mot. Il s'explique intégralement par la ressemblance des lettres : le « f » de « tesf » ressemble plus à un « t » que le g de « tesg ». L'expérience montre que c'est la similarité des lettres, et non celle du contour global, qui détermine les confusions entre les mots[6]. En résumé, cela ne fait aujourd'hui plus de doute : le contour global des mots ne joue pratiquement aucun rôle dans la lecture. La reconnaissance visuelle des mots ne repose pas sur une appréhension globale de son contour, mais sur sa décomposition en éléments simples, les lettres et les graphèmes. La région corticale de la forme visuelle des mots traite toutes les lettres du mot en parallèle, ce qui, historiquement, est responsable de l'impression de lecture globale. Mais l'immédiateté de la lecture n'est qu'une illusion, suscitée par l'extrême automatisation de ses étapes, qui se déroulent en dehors de notre conscience.
L'inefficacité de la méthode globale L'inefficacité de la méthode globale d'enseignement de la lecture est confirmée par l'expérimentation directe. Plusieurs chercheurs ont comparé l'enseignement de l'orthographe selon une méthode soit globale, soit analytique. L'une des plus belles expériences a été réalisée par mon ami Bruce McCandliss, professeur à l'Institut Sackler de New York[7]. Il a inventé un nouvel alphabet artificiel d'un style inhabituel. Celui-ci s'écrit de bas en haut, à l'aide de lettres dont les traits et les courbes se touchent, de sorte que leurs courbes forment un contour global continu. Voici quatre mots écrits dans cet alphabet : Sans en être informé, on ne se rend pas nécessairement compte qu'il s'agit de mots de trois lettres — mais remarquez par exemple la lettre « t », qui revient quatre fois dans cet exemple. Une fois qu'il eut mis au point cet alphabet, Bruce McCandliss proposa à deux groupes d'étudiants d'apprendre à lire ces mots. Aux uns, il demanda d'en mémoriser la forme globale, sans les prévenir de la présence de lettres, tandis qu'aux autres il signala que les mots à retenir étaient composés d'une séquence de lettres écrites de bas en haut. Examinons pas à pas les conséquences de cette simple différence de présentation. Après un jour d'entraînement sur une première liste de trente mots, le groupe qui prêtait attention à leur forme globale les reconnaissait mieux que celui qui tentait d'extraire les lettres. Ce résultat s'accorde bien à l'intuition de nombreux enseignants, qui affirment que la méthode globale est plus facile pour l'enfant, du moins au départ. Mais cela n'est vrai que pour les vingt ou trente premiers mots. L'identification des lettres et des graphèmes demande initialement plus d'efforts, mais les bénéfices en sont vite évidents. Dès le deuxième jour, lorsque Bruce McCandliss demanda aux étudiants d'apprendre une deuxième liste de mots, ceux qui faisaient attention à la forme globale commencèrent à perdre pied. Ils apprirent les nouveaux mots — mais au détriment de leurs performances sur la première liste, qu'ils oublièrent rapidement. Il en alla ainsi à chaque fois qu'une nouvelle liste de mots fut introduite : il leur fallait toujours repartir de zéro, et ils perdaient le peu qu'ils avaient appris la veille. Quoi de plus normal, puisqu'ils essayaient d'apprendre ces mots un par un, comme s'il s'agissait de caractères chinois — une tâche extraordinairement difficile dès lors que le nombre de mots dépasse quelques dizaines et qu'ils se ressemblent tous.
Au contraire, ceux qui prêtaient attention aux lettres progressaient lentement, mais sûrement. Chaque jour, leur taux de réussite s'accroissait. Non seulement ils parvenaient d'emblée à déchiffrer certains des mots nouveaux qu'on leur proposait ; mais, de plus, leurs performances s'amélioraient également pour les mots les plus anciens qu'ils n'avaient pourtant jamais révisés. Ce n'était que logique : leur connaissance croissante des lettres leur permettait de déchiffrer ces mots de plus en plus aisément, même s'ils ne se rappelaient plus les avoir vus. Mais c'est l'imagerie cérébrale qui mit en évidence l'effet le plus spectaculaire : l'hémisphère droit s'activait pour la lecture globale, alors que l'attention portée aux lettres activait bien la région classique de la lecture, l'aire occipito-temporale ventrale gauche. Autrement dit, l'apprentissage par la méthode globale mobilisait un circuit inapproprié, diamétralement opposé à celui de la lecture experte. L'expérience de McCandliss met en évidence deux limites majeures de la méthode globale. Premièrement, la simple exposition aux mots écrits, sans apprentissage explicite des correspondances graphème-phonème, ne suffit pas toujours à découvrir les régularités de l'orthographe, en tout cas pas de façon systématique et rapide. Même après avoir été exposé à des milliers de mots écrits, un adulte non prévenu peut très bien ne jamais se rendre compte que ces mots sont composés à l'aide d'un système régulier de signes[8]. Seconde limite, la méthode globale ne permet pas de généraliser la procédure de lecture à des mots nouveaux. Or cette généralisation joue un rôle essentiel dans l'apprentissage de la lecture chez l'enfant. Aucun enseignant ne peut espérer présenter à l'enfant tous les mots du français ! Savoir lire, c'est avant tout savoir décoder des milliers de mots nouveaux, que l'on rencontre pour la première fois dans un livre, et dont il faut déduire la prononciation. Pour progresser en lecture, l'enfant doit donc s'« autoenseigner » — il lui faut savoir déchiffrer de lui-même les chaînes de caractères nouvelles afin d'y reconnaître des mots dont il connaît déjà la prononciation et le sens, et d'automatiser progressivement l'ensemble de cette chaîne de traitement[9]. Ce point est capital, car il réfute l'argument selon lequel la méthode globale accroîtrait la liberté et l'autonomie des enfants. Paradoxalement, l'apprentissage explicite des correspondances graphèmes-phonèmes est le seul à offrir à l'enfant la liberté de lire, car lui seul donne accès à de nouveaux mots. On a bien tort d'opposer la liberté de l'enfant à l'effort et à la rigueur de l'enseignement. Conquérir sa liberté de lecteur demande certes à l'enfant des efforts, mais ceux-ci sont rapidement payés en retour lorsqu'il découvre, pour la première fois, qu'il parvient à lire des mots qu'il n'a jamais appris en classe. Cependant, je ne voudrais pas donner l'impression que le rejet de la méthode globale repose seulement sur des expériences de laboratoire ou des arguments théoriques. Son inefficacité est également prouvée par l'expérimentation en grandeur nature. Tirant parti de la variabilité des méthodes d'enseignement, la psychologie de la lecture a bénéficié d'expérimentations dans les écoles. Ces recherches, qui empruntent leurs méthodes à l'épidémiologie autant qu'à la psychologie de l'éducation, ont mesuré les performances de lecture des enfants dans des tests standardisés, en fonction de la méthode d'enseignement employée, mais aussi du niveau socio-économique, de l'âge et d'autres variables.
Leurs résultats[10], tant en France qu'à l'étranger, conduisent à une conclusion ferme : les approches fondées sur la forme globale du mot et sa mise en liaison directe avec un sens ne fonctionnent pas aussi bien que la mise en liaison systématique des lettres avec les sons. Quelle que soit leur origine sociale, les élèves dont l'attention n'est pas attirée sur le codage des lettres et des graphèmes souffrent d'un retard de lecture non négligeable et qui persiste pendant plusieurs années, même s'il finit ensuite par disparaître. Point crucial : contrairement aux affirmations des « globalistes », à la fin de la scolarité, les enfants qui ont appris avec une méthode globale sont, non seulement moins performants dans la lecture de mots nouveaux, mais également moins rapides et moins efficaces en compréhension de textes. Voilà qui réfute l'idée que les méthodes grapho-phonologiques transforment l'enfant en machine à ânonner, incapable de prêter attention au sens. En réalité, décodage et compréhension vont de pair : les enfants qui savent le mieux lire des mots et des pseudo-mots isolés sont aussi ceux qui comprennent le mieux le contenu d'une phrase ou d'un texte. Bien entendu, apprendre à ânonner la prononciation des mots ne saurait constituer une fin en soi. Il est bon que la plupart des livres scolaires, aujourd'hui, fassent très vite appel à des petits textes signifiants plutôt qu'à des lignes de charabia sur le « tutu de Lola ». Mais la compréhension passe avant tout par la fluidité du décodage. Plus vite cette étape est automatisée, mieux l'enfant peut se concentrer sur le sens du texte. [1] Centre national de documentation pédagogique, 1992. e [2] Bellenger L., 1980, Les Méthodes de lecture (2 édition). Paris : Presses Universitaires de France. [3] K. Larson (2004), The Science of Word Recognition, site internet :http://www.microsoft.com/typography/ctfonts/wordrecognition.aspx [4] Pelli D. G., Farell B. & Moore D. C. (2003), The remarkable inefficiency of word recognition. Nature, 423 (6941), 752-756. [5] Ahissar M. & Hochstein S. (2004), The reverse jierarchy theory of visual perceptual learning. Trends Cogn. Sci, 8(10), 457-464. [6] Paap K. R., Newsome S. L. & Noel R. W. (1984), Word shape’s in poor shape for the race to the lexicon. J Exp Psychol Hum Percept Perform, 10(3), 413-428. [7] Yoncheva Y. N., Blau V. C., Maurer U. & McCandliss B. D. (2006), Strategic Focus During Learning Impacts the Neural Basis of Expetise in Reading. Paper presented at the Poster presented at the Association for Psychological Science Meeting Convention, New York. [8] Rayner K., Foorman B. R., Perfetti C. A., Pesetsky D. & Seidenberg M. S. (2001), How psychological science informs the teaching of reading. Psychol Sci, 2, 31-74. Bitan T. & Karni A. (2003), Alphabetical knowledge from whole words training : effects of explicit instruction and implicit experience on learning script segmentation. Brain Res Cogn Brain Res, 16(3), 323-337. [9] Share D. L. (1995), self-teaching : sine qua non of reading acquisition. Cognition, 55(2), 151-218 ; discussion 219-226. Share D. L. (1999), Phonological recoding and orthographic learning : A direct test of the self-teaching hypothesis. J Exp Child Psychol, 72(2), 95-129. [10] Braibant & Gérard, (1996), Savoir lire : une question de méthodes ? Bulletin de psychologie scolaire et d’orientation, 1, 7-45. http://pedagogie.ac-toulouse.fr/ien31-blagnac/spip/IMG/pdf/Lir_meth_Gerard-Braibant.pdf Goigoux (2000), Apprendre à lire à l’école : les limites d’une approche idéovisuelle
http://www.acfos.org/sedocumenter/base_doc/lecture_surdite/art_goigoux.pdf Ehri, Nunes, Stahl & Willows (2001), Systematic phonics instruction helps students learn to read : Evidence from the National Reading Panel’s meta-analysis, Review of Educational Research, 71, 393- 447. Ehri, Nunes, Willows, Schuster, Yaghoub-Zadeh, Shanahan (2001), Phonemic awareness instruction helps children learn to read : Evidence from the National Reading Panel’s meta-analysis, Reading Research Quaterly, 6, 250-287. Extrait d'un article du Dr Ghislaine Wettstein-Badour : Noël 2007 - "Les Neurones de la lecture" dont l'auteur est M. Stanislas Dehaene - note de lecture Apprendre à lire : « les contraintes de l’architecture de notre cerveau ». Note de lecture du Dr Ghislaine WETTSTEIN-BADOUR- fransya@fransya.com concernant l’ouvrage de M. Stanislas DEHAENE « Les neurones de la lecture » (une des études de : http://cerveau-et-lecture.blogspot.com ) Les mécanismes de la lecture M. DEHAENE dissèque tout particulièrement les mécanismes qui permettent de passer de la vision du texte à sa compréhension. Il insiste, à juste titre, sur le premier stade du traitement visuel qui consiste à éclater la chaîne écrite en fragments susceptibles d’être reconnus chacun par un photorécepteur distinct sur le centre de la rétine. Ces signes élémentaires sont ensuite traités en parallèle et recombinés dans les différents niveaux d’intervention du système visuel. L’acquisition de la lecture est ainsi liée à une « capacité d’attention aux détails pertinents » perçus par les récepteurs visuels qui différencient les lettres les unes des autres, mode de traitement qui « ne laisse pratiquement aucun rôle » à la perception de « la forme globale des mots » dans la lecture. L’auteur montre ensuite que la compréhension du sens de l’écrit nécessite à la fois la prise de conscience du son que chaque signe (ou groupe de signes) graphique représente ainsi que de la mobilisation des données incluses dans les différents lexiques contenus dans le cerveau, en particulier ceux qui permettent la reconnaissance de la forme orthographique et grammaticale des mots. C’est là qu’intervient la région occipito-temporale gauche vers laquelle convergent toutes les informations d’origine visuelle. Mais pourquoi s’attarder, dans cette courte note, sur cette aire précise alors que d’autres régions de l’hémisphère gauche jouent également un rôle très important dans la compréhension du sens de la lecture ? D’abord parce que M. DEHAENE lui accorde, à juste titre, une place fondamentale dans ses travaux. Ensuite, parce que certains ont voulu voir dans cette région du
cerveau qui reconnaît « la forme écrite des mots » un argument « scientifique » susceptible de « prouver » l’existence du caractère global de la lecture. M.DEHAENE fournit à cette affirmation erronée une réponse sans ambiguïté : « La reconnaissance visuelle des mots ne repose pas sur une appréhension globale de son contour, mais sur sa décomposition en éléments simples, les lettres et les graphèmes. La région corticale de la forme visuelle des mots traite toutes les lettres du mot en parallèle, ce qui, historiquement est responsable de l’impression de lecture globale…l’immédiateté de la lecture n’est qu’une illusion, suscitée par l’extrême automatisation de ses étapes. » (page 297). J’ai écrit, dans mes études précédentes, que si une aire de l’hémisphère gauche avait la possibilité de reconnaître la forme écrite des mots, ce travail ne pouvait se réaliser qu’en comparant un à un chacun des éléments qui les composent avec ceux contenus dans les mots dont elle a gardé le souvenir graphique en mémoire. Il s’agit bien là d’un travail de synthèse des éléments préalablement analysés qui est aux antipodes d’une vision globale du mot. Je constate avec satisfaction que les travaux de M.DEHAENE se situent sur cette ligne. Ce point constitue un élément essentiel à opposer aux tenants des méthodes globales et apparentées pour leur en démontrer le non sens neurologique. L’existence d’une aire qui ne peut aborder la compréhension d’un mot écrit que par synthèse des éléments qui le composent exclut toute possibilité d’accès au sens du mot vu dans son ensemble et élimine toutes les hypothèses qui assimilent la perception du mot à celle de l’image. Il me parait utile de signaler dès maintenant une ambiguïté apparente qu’il faut impérativement clarifier dans les propos de M.DEHAENE. Lorsque celui-ci parle de « méthodes globales » il associe, de toute évidence, dans cette formulation l’ensemble des pédagogies globales et semi-globales, termes qui recouvrent la quasi-totalité des pédagogies actuellement en vigueur dans l’Education nationale (méthodes mixtes, naturelles, par hypothèses, ou intégratives). Quelques exemples suffisent à s’en convaincre. Il considère que l’apprentissage du lien entre phonèmes et graphèmes doit être effectué exclusivement à partir de mots contenant des graphèmes connus et en cours d’apprentissage (page 304). Ceci exclut l’emploi d’une méthode ou les graphèmes sont découverts dans des mots et phrases contenant des éléments graphiques qui n’ont encore jamais été étudiés, ce qui se retrouve dans toutes les méthodes autres que les méthodes alphabétiques. D’autres part, il écrit (page 292) : « Dans les faits, quoique officiellement vouée aux gémonies, la méthode globale continue d’infiltrer les programmes » et il ajoute que le ministre L.FERRY avait déclaré que « le problème est aujourd’hui celui des méthodes mixtes où l’élève apprend par exemple à reconnaître globalement son nom avant de savoir le décomposer en syllabes». Il rappelle également que M. de ROBIEN a précisé que « des méthodes à départ global continuent d’exister ». Il paraît donc évident que M.DEHAENE est conscient de l’existence des méthodes semi-globales et qu’il les intègre toutes dans l’appellation « méthodes globales ». Ce regroupement est une évidence sur le plan neurologique puisque ces deux types de pédagogie font toutes preuve de la même méconnaissance des mécanismes de la lecture, conduisent au même type d’erreurs et au même handicap concernant l’accès au sens du texte lu. Cependant, cette formulation risque d’être perçue de manière restrictive par certains lecteurs intellectuellement peu rigoureux ou tout simplement partisans qui peuvent l’utiliser pour prétendre que les conclusions de M.DEHAENE sont désormais obsolètes dans la mesure ou les méthodes entièrement globales ne sont plus utilisées. Il eût donc été préférable que l’auteur précise plus clairement sa pensée sur ce point d’une grande importance.
Vous pouvez aussi lire