Isabelle ROBIN (chargée de mission à la DPD)

 
CONTINUER À LIRE
Isabelle ROBIN
(chargée de mission à la DPD)
                            Évaluations, une mise en perspective nécessaire

Depuis 1989, à la rentrée scolaire, le ministère de l’Éducation nationale organise des évaluations
diagnostiques dont les résultats sont rendus publics, ce qui donne régulièrement lieu dans les médias à
des discours qui oscillent entre incantation et déploration. Nombre d’entre nous se souviennent du cap de
la rentrée, difficile à doubler lorsqu’il fallait ainsi livrer les chiffres obtenus à la rentrée de septembre,
concernant par exemple les compétences de base. D’autres évaluations sont depuis intervenues et
contribuent à brouiller les pistes : chiffres de IALS donnant en France 40% d’illettrés, chiffres de la
JAPD… Il devient à présent difficile de s’orienter dans cette forêt de chiffres divergents, parfois
contradictoires.
Mettre en perspective ces différentes données paraît aujourd’hui tout à fait nécessaire, ne serait-ce que
pour mieux comprendre ce que recouvrent les chiffres qui nous sont donnés. Cette opération exige un
rappel des fonctions propres aux différentes évaluations mises en œuvre. D’un côté les évaluations
diagnostiques de rentrées, spécificités françaises, d’un autre côté les évaluations bilan qui partagent avec
les évaluations internationales bien des aspects.
Une évaluation n’est jamais neutre ni anodine : elle est toujours sous-tendue par une volonté politique,
des hypothèses, bref, une vision de l’école et sa structure, la façon dont elle définit ses objectifs sont au
moins aussi importantes que les données qu’elle produit.
Il ne s’agit donc pas ici d’exploiter des données dans le cadre concret d’une classe mais de s’interroger
sur le sens et la nature de la mesure qu’effectuent les évaluations.

    1.   Les différentes enquêtes : leur rôle, leurs fonctions, leurs limites
    2.   Circularité des évaluations nationales
    3.   La surprise internationale : une autre vision de la lecture, une autre vision de l’école ?
    4.   Emergence de spécificités françaises
    5.   Conclusion :

1 Etat des lieux : les différentes enquêtes
Des évaluations dans le domaine de l’éducation sont menées en France depuis la fin des années
soixante-dix. De ce point de vue, notre pays est très en avance ; en effet, beaucoup de pays d’Europe
n’en sont pas là, ayant choisi de piloter leur système scolaire par d’autres moyens.
Aux enquêtes menées dans le cadre de l’observatoire permanent des acquis des élèves ayant pour but
de fournir des indicateurs propres à nourrir le débat sur l’école se sont ajoutées en 1989 les évaluations
de masse, dites évaluations diagnostiques. Les unes et les autres trouvent leur légitimité dans la
disparition de la certification qui, avant la création du collège unique auquel accède maintenant la quasi-
totalité des élèves, jalonnait la scolarité. La disparition du certificat d’études primaires et de l’examen
d’entrée en sixième a ainsi eu pour effet de faire du baccalauréat le moyen de contrôle de l’ensemble de
la scolarité et de supprimer les points de référence sur le niveau des élèves.

rôle des évaluations
Les évaluations menées en France ont depuis l’origine une triple vocation.
    • Nourrir et structurer le débat public sur l’école, amener des éléments concernant l’évolution des
        acquis susceptibles d’orienter les décisions au niveau national.
    • Par ailleurs, elles ont pour but d’aider à formuler et à mettre en œuvre la politique éducative.
    • Enfin, elles visent à l’amélioration des pratiques. Ces visées distinctes impliquent des évaluations
        différentes.

Les évaluations pratiquées en France peuvent être regroupées en trois catégories : diagnostiques,
bilans et internationales, ces deux dernières possédant un grand nombre de traits communs. Du point
de vue de la démarche engagée, de la visée, du recueil de données de l’élaboration même du protocole
et enfin des interprétations auxquelles elles donnent lieu, ces évaluations présentent des différences qu’il
importe de souligner.
1.a Différentes évaluations

         • Evaluation diagnostique : en direction des enseignants
      Le rôle des évaluations diagnostiques consiste à renseigner chaque enseignant sur les
      compétences et les difficultés de chacun des élèves de sa classe. Il ne s’agit donc pas en
      l’occurrence de comparer les scores d’une année sur l’autre mais plutôt d’examiner les réussites et
      les lacunes individuelles. Des indicateurs globaux sont bien fournis tous les ans à la suite de cette
      opération mais leur but est de rendre possible une comparaison synchrone, des classes, des écoles
      ou des académies. Elles permettent en revanche, au niveau du bassin de formation, d’insister sur
      telle compétence non acquise et devant être travaillée davantage en amont de l’évaluation. Par
      conséquent, elles sont un outil de liaison précieux entre deux cycles (c’est le cas de l’évaluation
      CE2 et celui de l’évaluation menée cette année en début de cinquième), entre l’école et le collège
      (évaluation sixième) ou encore entre le collège et le lycée (évaluation à l’entrée en seconde).

         • Evaluation bilan : en direction des décideurs
      Le rôle des évaluations bilan est de fournir des indicateurs globaux sur les acquis des élèves à tel
      niveau de la scolarité. Il s’agit par exemple de renseigner sur les effets d’une mesure ou d’un
      changement de programme ou encore d’évaluer par comparaison l’évolution de ces acquis. Un
      protocole destiné à cerner les difficultés en lecture à l’entrée en sixième a par exemple été proposé
      aux élèves en 1987, en 1997 et en 2002. Les indicateurs fournis permettent d’apprécier la nature et
      l’amplitude de ces évolutions dans le but, par exemple, de les corriger. Dans le but de permettre ces
      comparaisons dans le temps, un protocole identique est par conséquent généralement reconduit.
      La France s’apprête à mener très prochainement une évaluation en fin de troisième et une autre en
      fin de CM2. Ajoutons que l’évaluation de la journée d’appel et de préparation à la défense peut être
      considérée comme une évaluation bilan, détachée du contexte scolaire.

        • Internationales
      Les évaluations internationales ont pour fonction de répondre, par le jeu des comparaisons entre
      différents pays, aux questions posées par les états eux-mêmes sur la validité de leur école. Ces
      évaluations s’interrogent sur la rentabilité des différents systèmes scolaires et des mesures
      entreprises pour leur amélioration. Elles sont l’affaire des pédagogues mais aussi (et peut-être
      avant tout) l’affaire des économistes de l’éducation. Les questions posées par ces économistes
      portent par exemple sur l’espérance de salaire selon le taux de scolarisation ou sur les effets
      observés de la réduction de la taille des classes. Les deux dernières évaluations internationales
      sont l’enquête PISA, menée par l’OCDE en mai 2000, concernant les enfants de 15 ans et l’enquête
      PIRLS pilotée par l’IEA auprès des enfants de 9 ans.

1.b Des démarches différentes
     • Du point de vue des démarches et des stratégies engagées par les élèves. L’évaluation
     diagnostique cherche à préciser le plus possible le point d’achoppement de l’élève. Elle s’attachera
     à vérifier la validité des stratégies de résolution mises en œuvre. L’évaluation bilan au contraire ne
     s’intéresse qu’au résultat ; elle n’implique aucun raisonnement sur l’analyse de l’erreur.

      • Du point de vue de la distance par rapport au programme. Lorsqu’il s’agit de fournir un
      indicateur sur les acquis des élèves en vue d’une analyse longitudinale, il est particulièrement
      important de les interroger sur ce qu’ils ont effectivement étudié en classe. Les évaluations bilans
      sont donc contraintes par les programmes de l’année visée ou de l’ensemble du cycle. Cependant,
      les évaluations bilan en troisième et au CM2 qui seront proposées cette année s’appuient plutôt sur
      les compétences générales que disciplinaires.
      Le but des évaluations diagnostiques étant de repérer, certes les faiblesses, mais également les
      points forts des élèves, les exercices proposés peuvent anticiper sur des compétences en cours
      d’acquisition. Un faible taux de réussite est attendu à certains des items des protocoles de rentrée.
      Le score obtenu à ces items n’est donc pas une surprise : il s’agit bien pour l’enseignant d’identifier
      tous les talents et les compétences avec lesquels il aura à travailler.
Pour ces mêmes raisons, l’évaluation bilan a lieu en fin d’année scolaire et l’évaluation diagnostique
        prendra place en septembre.

    •      Du point de vue du recueil des données
        Les exercices du protocole (diagnostic) sont appelés à changer tous les ans et à demeurer dans les
        établissements après l’évaluation. Le ministère établit cependant un échantillon représentatif
        national et demande la remontée de certains résultats dans le but d’établir les scores nationaux.
        L’évaluation bilan est passée par un échantillon d’élèves. Les cahiers, après la passation, sont
        transmis au ministère pour correction puis encodage. Destinées à permettre un suivi longitudinal,
        les épreuves sont reprises d’une évaluation sur l’autre, ce qui empêche de les publier et de les faire
        connaître. Par ailleurs, cette reprise, qu’une comparaison rigoureuse rend obligatoire, pose en elle-
        même problème. En effet, il n’est pas rare que les programmes aient évolué entre deux mesures,
        ou que les épreuves aient par trop vieilli.

    •     Du point de vue des indicateurs
        Les évaluations diagnostiques délivrent des résultats par champs, par compétence ou par item. Le
        but étant de traiter des performances individuelles et pour cela, de descendre le plus finement
        possible dans les procédures de résolution mises en œuvre, le caractère des exercices est
        forcément atomisé. L’ensemble est appelé à un traitement synchronique. Le protocole étant modifié
        tous les ans, les indicateurs produits sont condamnés à fluctuer, parfois dans une marge
        importante. Il est impossible de cette manière d’établir un degré de maîtrise en lecture fiable et
        robuste d’une année sur l’autre.
        Construire des indicateurs destinés à apprécier les degrés de maîtrise des élèves et pouvant servir
        de référence d’une année à l’autre est la fonction des évaluations bilan, entre autres parce que les
        protocoles utilisés ne changent pas. Un score par item n’a en l’occurrence pas beaucoup de sens et
        le niveau de détail importe peu lorsqu’il est question de fournir une idée des connaissances des
        jeunes à un niveau donné. En revanche, il devient important, pour limiter les erreurs, d’évaluer une
        compétence par le biais de nombreux items.

        Les quelques points qui viennent d’être abordés montrent qu’il faut faire preuve de la plus grande
        prudence lorsque l’on met en perspective les résultats de plusieurs évaluations dont les visées sont
        parfois incompatibles.
        Parce que les évaluations diagnostiques sont conçues pour pointer des compétences en
        construction, elles peuvent servir à orienter des démarches pédagogiques à l’échelle de la classe.
        Les évaluations bilan renseignent sur la validité des choix opérés dans le cadre de la politique de
        l’éducation (les programmes en leurs différents points).
        Aucune évaluation ne peut tout dire. Il faut probablement renoncer à la tentation d’élaborer une
        démarche qui puisse servir à renseigner et les politiques et les enseignants. Il convient même de
        garder présent à l’esprit que l’évaluation de rentrée ne fournit qu’un faisceau d’indices sur les
        performances des élèves, indices à partir desquels les enseignants doivent effectuer des
        investigations.

2 Circularité des évaluations nationales calées sur les programmes.
Calées en large partie sur les programmes, étroitement dépendantes d’une vision de l’école qui
transparaît dans le choix des compétences évaluées, inconsciemment porteuses d’une vision de l’école,
les évaluations fonctionnent en circuit fermé sur notre système. De là, la surprise générale à la lecture
des résultats des évaluations internationales, sur lesquelles nous reviendrons plus tard.
Dans les programmes de l’école et du collège, les contenus sont présentés en même temps que des
savoir-faire à acquérir. Ces savoir-faire sont lisibles dans les tableaux présentant les compétences
évaluées, que ce soit en mathématiques ou en français, au CE2 ou en sixième.
Le problème posé par cette circularité est qu’elle nous rend en partie aveugles et ne donne aucun
élément susceptible de renseigner sur les compétences de nos élèves par rapport aux élèves d’autres
pays. Il nous est donc impossible grâce à elles de savoir si nos choix pédagogiques ou en termes de
structures (la filiarisation, par exemple ou encore le redoublement) sont bons. Il est pourtant nécessaire
de contrôler la validité des options prises dans le domaine de l’éducation.

Quelles sont les compétences évaluées en France ?
   • Validité des mécanismes d’accès au texte ;
   • Prélever l’information ;
   • Comprendre les liens cohésifs du texte : compréhension logique ;
   • Traiter l’information ;
   • Faire des inférences (suppléer par le raisonnement aux informations manquantes : accès à
        l’implicite).

La toute première compétence est présente dans le cahier de CE2 (dans celui de sixième en 1998).
L’ensemble des compétences est à peu près inchangé depuis le début des évaluations en 1989 : elles
représentent pour nous autres français, les différentes étapes qui mènent (hiérarchiquement ou non) à la
compréhension parfaite de l’écrit.
Il est ainsi possible de « filer » les compétences d’un cahier à l’autre, du CE2 à la sixième.
Les évaluations bilan, celle de l’école (fin CM2) et celle du collège (fin troisième) ont une structure
semblable (prélèvement, traitement, accès à l’implicite) mais dans les deux enquêtes, ces compétences
sont transversales et mobilisées sur des supports disciplinaires. Autrement dit, elles ne fourniront pas
directement de données propres au français, aux mathématiques ou aux sciences mais plutôt des
indicateurs portant sur la maîtrise d’une compétence mobilisée sur des supports de différentes disciplines.
Quelle que soit la discipline interrogée, on se rend compte qu’en fait ces compétences représentent à nos
yeux l’ensemble du processus de compréhension et qu’elles ne tiennent compte que de ce que l’élève est
à même de percevoir à partir d’un support.

3 La surprise internationale
Une autre vision de la lecture
Les compétences évaluées en France le sont aussi dans les enquêtes l’internationales, du moins le
protocole de l’OCDE les prend-il en compte. Cependant on observe que la compréhension logique est
beaucoup moins prise en compte dans PISA. Elle l’est dans PIRLS avec les questions sur la chronologie
par exemple.
En revanche apparaît dans les deux enquêtes une compétence non évaluée en France, nommée
« réagir » dans PISA et « évaluer les éléments textuels » dans PIRLS.

Cette compétence implique la capacité de prendre position vis-à-vis d’un texte. Une nouvelle dimension
de la lecture apparaît donc ici. Elle implique que lire ne se limite pas à la réception d’un texte ni à sa
compréhension : on a réellement lu lorsque l’on est capable de donner son avis, de s’opposer, de fournir
un argumentaire, bref lorsque l’on en fait quelque chose.
L’écrit, en France, n’est pas travaillé de cette manière. Généralement, l’attente de l’enseignant se limite à
la compréhension et à la restitution de ce qui a été compris, et le sens critique des élèves est fort peu
sollicité. Il n’est donc pas surprenant que les résultats des élèves français soient sur cette compétence
inférieurs à la moyenne internationale. Dans un premier temps, la tentation a été forte de dénier à cette
compétence toute légitimité. En effet, selon nos critères, elle n’entrait pas dans le champ de la lecture ;
par ailleurs, elle n’exigeait pas de compétences techniques très poussées. L’intrusion de cette
compétence a été l’occasion de réfléchir sur les spécificités du système français relativement aux autres
et au système anglo-saxon en particulier.
Il a fallu pour mener à bien cette réflexion prendre en compte l’ensemble des caractéristiques mises en
évidence par les deux enquêtes.

Une autre vision de l’école ?

Les résultats de l’enquête PISA ont surpris à plus d’un titre. Cette évaluation a attiré l’attention sur des
points qui a priori ne faisaient pas problème ici, sur lesquels, même, nos spécialistes de l’éducation se
sentaient en sécurité. Elles ont révélé que relativement aux élèves du même âge à l’étranger, les nôtres
connaissaient des faiblesses inattendues que notre système évaluatif n’avait pas détectées parce qu’il ne
les soupçonnait pas.

1 les élèves français étaient relativement à l’aise lorsqu’il fallait répondre à un QCM alors que ce mode
d’interrogation n’est pas pratiqué dans le cadre de l’école ;
2 alors que l’enseignement français est essentiellement basé sur l’écrit, les élèves affichaient des
faiblesses dans ce domaine, renonçant à répondre lorsqu’il fallait rédiger (dans les autres pays, les élèves
même faibles répondent en rédigeant leur réponse) ;
3 les élèves français se montraient moins capables que leurs camarades de réfléchir sur un support, de
prendre des distances avec un texte, de mener une argumentation, même simple.

Que peuvent signifier les données observées ?

4 Émergence de spécificités françaises

Des élèves à l’aise quand il s’agit de s’informer…
Dans l'enquête PIRLS, les supports narratifs et informatifs permettaient de prendre en compte les deux
objectifs qui poussent le lecteur à lire et qui ont été définis plus haut, à savoir lire pour approcher la
littérature et lire pour acquérir des informations. Ainsi, parmi les huit supports proposés, la moitié étaient
des textes narratifs, tandis que l'autre moitié s'approchait de supports à caractère informatif. Dans tous les
pays, les élèves obtiennent de meilleurs scores sur support narratif que sur support informatif ;
néanmoins, l’écart entre ces deux catégories de support est moins important en France (c'est le troisième
écart le plus faible, derrière la Moldavie et Hong-Kong), raison pour laquelle on peut avancer que les
élèves français réussissent relativement mieux que ceux des autres pays sur les supports informatifs.
Dans Pisa en revanche, les supports ne sont pas répartis selon les pôles narratif et informatif, si bien qu’il
est difficile de mettre en évidence un goût particulier des élèves pour tel type de textes. Un exercice peut
être constitué de plusieurs textes classés dans plusieurs catégories. Par ailleurs, les textes narratifs sont
très peu nombreux dans PISA. On en compte trois susceptibles d’être considérés comme tels. Deux
autres supports ont un caractère littéraire, mais l’un est extrait d’une pièce de théâtre et l’autre tend vers
la poésie. On peut cependant faire valoir la supériorité des élèves scolarisés en France sur la compétence
« s’informer » qui fait appel à des compétences généralement plus techniques et précises que celles à
l’œuvre dans « réagir ». Cette supériorité est particulièrement évidente lorsqu’il s’agit de prélever ou de
traiter les données d’un tableau ou d’un graphique.
Que ce soit sur les supports informatifs dans Pirls ou sur la compétence « s’informer » de Pisa, nos
élèves semblent donc accomplir avec aisance les tâches consistant à prélever de l’information.

… encore plus à l’aise dans le cas particulier du repérage sur carte...
Cette aptitude à s’informer est particulièrement évidente lorsqu’il s’agit de situer un objet ou un parcours
sur une carte et plus généralement de procéder à des repérages spatiaux. L’évaluation PISA proposait
trois items de ce type qui, tous, ont connu en France des taux largement supérieurs aux moyennes
internationales.
On retrouve cette sensibilité des élèves français à l'école primaire. Dans l'enquête PIRLS, on trouvait un
dépliant publicitaire présentant les prestations d'un loueur de vélo, accompagné d'un plan de piste
cyclable. Les élèves français obtiennent un score supérieur à la moyenne internationale pour tous les
items de ce support, et la France se classe à la troisième place. Relativement aux autres pays, ce support
distingue nettement les élèves français par leurs bons résultats. A titre d’exemples, dans Pirls, un item
demandait de suivre le plan afin de remettre dans l'ordre les lieux rencontrés au cours de la promenade :
il est réussi par 90,3 % des élèves français, contre 81,6% pour la moyenne internationale ; dans Pisa, un
des items proposant aux élèves de situer un objet sur un plan obtient en France 10 points de plus qu’à
l’international.
Tous les items portant sur ce type de support, même s’ils ne traitent pas du repérage (prélèvement,
traitement d’informations) semblent bénéficier de la prédilection des élèves français pour les cartes ou les
plans. On peut raisonnablement penser que les activités de repérage sont largement représentées dans
le système éducatif français.

… mais en difficulté pour donner leur avis
Le score des élèves français dans les deux compétences « apprécier » dans Pirls et « réagir » dans Pisa
révèle une faiblesse relative lorsqu’il s’agit de s’emparer d’un texte comme support de réflexion
personnelle. Compte tenu de la ressemblance des compétences devant être mobilisées par les élèves et
de la récurrence des résultats, on peut faire ici l’hypothèse d’une caractéristique du système scolaire
français. Les pratiques doivent être interrogées lorsqu’il s’agit d’expliquer ce phénomène. On peut
supposer simplement que cette compétence n’est pas suffisamment travaillée en classe. On peut
également y voir la trop grande prudence ressentie par les élèves lorsqu’il faut s’exprimer
personnellement. Cette réticence pourrait trouver son origine dans une conduite de la classe laissant peu
de place à l’expression : peu sollicités, les élèves n’acquièrent pas suffisamment les capacités
d’expression qui leur permettraient de donner leur avis, d’argumenter, de débattre.

Des élèves qui sous-estiment leurs compétences…
L’erreur considérée comme une faute et stigmatisée comme telle, pourrait être à l’origine de la tendance à
ne pas répondre de l’ensemble des élèves quel que soit leur niveau.
L'étude PIRLS s'attachait, en dehors de la mesure de la compétence en lecture, à apprécier l'attitude des
élèves vis à vis de la lecture. Parmi les questions qui leur étaient posées, plusieurs concernaient l'opinion
qu'ils avaient de leurs propres capacités en lecture. Un indicateur synthétisant leurs réponses permet
d'apprécier cet aspect. Il est frappant de constater que les élèves français se sous-évaluent nettement par
rapport aux élèves des autres pays. En effet, alors qu'ils obtiennent des performances proches de la
moyenne, ils sont 28% à avoir une très bonne opinion de leurs compétences en lecture, contre 40% des
élèves au niveau international. Sur cet aspect d'estime de soi, la France se retrouve en avant-dernière
position, juste devant Hong-Kong.
Par manque d’assurance, les élèves français préfèrent ainsi ne pas répondre plutôt que de risquer une
réponse fausse. Ce comportement averse au risque pourrait révéler une crainte à l’égard de l’institution
scolaire. L’erreur considérée par l’école, non pas comme nécessaire à l’apprentissage mais comme une
faute, et stigmatisée comme telle, pourrait ainsi être à l’origine de cette attitude de l’ensemble des élèves.

… et particulièrement mal à l’aise lorsqu’il s’agit d’écrire
Le taux important de non-réponse concernent les questions ouvertes, en particulier celles qui exigent une
réponse longue. Ce constat s’appliquant aux deux enquêtes peut laisser supposer que c’est dans le
domaine de l’expression écrite plutôt que dans celui de la lecture que nos élèves éprouvent le plus de
difficultés. Parce qu’ils choisissent souvent de ne pas répondre du tout, les élèves montrent que l’écrit leur
demande des efforts.
Cette difficulté des élèves français en production d’écrits est également perceptible dans Pirls. Quand il
s'agit de questions ne nécessitant pas le passage à l'écriture (QCM, mais également activités demandant
de relier des objets par des flèches, de replacer des phrases dans l'ordre en les numérotant) les élèves
français répondent plutôt plus que la moyenne internationale ; en revanche dès que l'on passe à des
réponses écrites, le taux d'absention des élèves français passe au-dessus de celui que l'on observe au
niveau international. Plus la réponse attendue est longue, plus la non-réponse des élèves français
augmente par rapport au niveau international. Sur les questions demandant les réponses les plus
longues, la part des élèves français qui s'abstiennent de répondre atteint 19,3% en moyenne, contre 9,9%
au niveau international, même si ces items ne sont pas moins bien réussis par les élèves français.
Ces constats amènent à s’interroger sur les apprentissages réels entrepris dans le domaine de la
production de texte ; en effet, même si l’écrit demeure l’axe essentiel de l’enseignement français, peut-
être sa maîtrise est-elle trop souvent supposée par les enseignants et les compétences, au lieu de
s’inscrire dans une démarche pédagogique, demeurent-elles implicites. Si la volonté s’exprime dans les
programmes, de faire de l’expression écrite une pratique quotidienne, on peut penser qu’elle demeure
dans la réalité relativement rare et trop souvent évaluée du point de vue de la forme et de la correction de
la langue.
S’exprimer par écrit devient alors un exercice dangereux, hérissé de contraintes, que l’on va peu à peu
désinvestir. Faute d’une pratique fréquente et progressive, l’écrit risque ainsi de demeurer coûteux aux
élèves en termes d’efforts.

Une école trop scolaire ?

En conclusion, il est possible de faire émerger des deux enquêtes des caractéristiques propres aux élèves
scolarisés en France et d’en déduire des hypothèses s’appliquant à l’ensemble du système éducatif
français de l’Ecole au Collège. L’ensemble des constats et hypothèses semble avoir trait à des pratiques
de classe laissant peu de place à l’interaction, au statut de l’erreur et à la situation de l’élève considéré
comme un être devant avant tout apprendre et non pas s’exprimer. Cependant, amener les élèves à
s’exprimer dépasse peut-être le simple cadre des apprentissages mais tiendrait plutôt à la place que
l’école peut laisser à la parole des élèves et peut-être à la valeur qu’elle leur accorde en tant que
personnes capables d’opinions. En cela, les caractéristiques pointées ici mettent davantage en évidence
une conception de l’école qu’un manque ponctuel au niveau des pratiques ou des programmes.
En revanche, les points forts propres à nos élèves semblent bien liés à la dynamique générale de notre
système scolaire, c’est-à-dire aux pratiques de classe relayant les injonctions du programme. Nous avons
donc bien affaire à un système qui fonctionne, un système efficace dans les missions qu’on lui assigne,
très étroitement dépendantes de notre culture, de notre inconscient et dont la responsabilité échappe en
partie aux seuls enseignants.

Publications françaises sur PISA

Les élèves de 15 ans – Premiers résultats d’une évaluation internationale des acquis des élèves, Note
   d’information 01.52, décembre 2001, MEN-DPD.

Les compétences des élèves français à l’épreuve d’une évaluation internationale, Premiers résultats de
   l’enquête PISA 2000, Les Dossiers n° 137, MEN-DPD.

Dupé C. et Olivier Y., L’évaluation PISA, Le Bulletin vert de l’Association des Professeurs de
  Mathématiques, n°439, 2002.

Murat F. et Rocher T., La place du projet professionnel dans les inégalités de réussite scolaire à 15 ans,
  France - Portrait social, 2002, INSEE.

Robin I., L’enquête PISA sur les compétences en lecture des élèves de 15 ans : trois biais culturels en
  question, Ville-École-Intégration-Enjeux, n°129, juin 2002, CNDP.

Robin I. et Rocher T., La compétence en lecture des jeunes de 15 ans : une comparaison internationale,
  Données sociales, 2002, INSEE.

Rocher T., La méthodologie des évaluations internationales, Psychologie et Psychométrie (à paraître).

Robin I et Rocher T., Que sait-on des compétences en lecture de nos jeunes, Économie et Humanisme (à
paraître)

Publications françaises sur PIRLS

Colmant M., Mulliez A., Premiers résultats d’une évaluation internationale des acquis des élèves (sous
réserve de modification du titre) Note d’information MEN-DPD (à paraître)

Colmant M., Mulliez A., Robin I., PIRLS, PISA, deux enquêtes internationales sur les compétences en
lecture, quelles hypothèses pour le système éducatif français ? Note d’information, MEN-DPD (à paraître)
Vous pouvez aussi lire