Isabelle ROBIN (chargée de mission à la DPD)
←
→
Transcription du contenu de la page
Si votre navigateur ne rend pas la page correctement, lisez s'il vous plaît le contenu de la page ci-dessous
Isabelle ROBIN (chargée de mission à la DPD) Évaluations, une mise en perspective nécessaire Depuis 1989, à la rentrée scolaire, le ministère de l’Éducation nationale organise des évaluations diagnostiques dont les résultats sont rendus publics, ce qui donne régulièrement lieu dans les médias à des discours qui oscillent entre incantation et déploration. Nombre d’entre nous se souviennent du cap de la rentrée, difficile à doubler lorsqu’il fallait ainsi livrer les chiffres obtenus à la rentrée de septembre, concernant par exemple les compétences de base. D’autres évaluations sont depuis intervenues et contribuent à brouiller les pistes : chiffres de IALS donnant en France 40% d’illettrés, chiffres de la JAPD… Il devient à présent difficile de s’orienter dans cette forêt de chiffres divergents, parfois contradictoires. Mettre en perspective ces différentes données paraît aujourd’hui tout à fait nécessaire, ne serait-ce que pour mieux comprendre ce que recouvrent les chiffres qui nous sont donnés. Cette opération exige un rappel des fonctions propres aux différentes évaluations mises en œuvre. D’un côté les évaluations diagnostiques de rentrées, spécificités françaises, d’un autre côté les évaluations bilan qui partagent avec les évaluations internationales bien des aspects. Une évaluation n’est jamais neutre ni anodine : elle est toujours sous-tendue par une volonté politique, des hypothèses, bref, une vision de l’école et sa structure, la façon dont elle définit ses objectifs sont au moins aussi importantes que les données qu’elle produit. Il ne s’agit donc pas ici d’exploiter des données dans le cadre concret d’une classe mais de s’interroger sur le sens et la nature de la mesure qu’effectuent les évaluations. 1. Les différentes enquêtes : leur rôle, leurs fonctions, leurs limites 2. Circularité des évaluations nationales 3. La surprise internationale : une autre vision de la lecture, une autre vision de l’école ? 4. Emergence de spécificités françaises 5. Conclusion : 1 Etat des lieux : les différentes enquêtes Des évaluations dans le domaine de l’éducation sont menées en France depuis la fin des années soixante-dix. De ce point de vue, notre pays est très en avance ; en effet, beaucoup de pays d’Europe n’en sont pas là, ayant choisi de piloter leur système scolaire par d’autres moyens. Aux enquêtes menées dans le cadre de l’observatoire permanent des acquis des élèves ayant pour but de fournir des indicateurs propres à nourrir le débat sur l’école se sont ajoutées en 1989 les évaluations de masse, dites évaluations diagnostiques. Les unes et les autres trouvent leur légitimité dans la disparition de la certification qui, avant la création du collège unique auquel accède maintenant la quasi- totalité des élèves, jalonnait la scolarité. La disparition du certificat d’études primaires et de l’examen d’entrée en sixième a ainsi eu pour effet de faire du baccalauréat le moyen de contrôle de l’ensemble de la scolarité et de supprimer les points de référence sur le niveau des élèves. rôle des évaluations Les évaluations menées en France ont depuis l’origine une triple vocation. • Nourrir et structurer le débat public sur l’école, amener des éléments concernant l’évolution des acquis susceptibles d’orienter les décisions au niveau national. • Par ailleurs, elles ont pour but d’aider à formuler et à mettre en œuvre la politique éducative. • Enfin, elles visent à l’amélioration des pratiques. Ces visées distinctes impliquent des évaluations différentes. Les évaluations pratiquées en France peuvent être regroupées en trois catégories : diagnostiques, bilans et internationales, ces deux dernières possédant un grand nombre de traits communs. Du point de vue de la démarche engagée, de la visée, du recueil de données de l’élaboration même du protocole et enfin des interprétations auxquelles elles donnent lieu, ces évaluations présentent des différences qu’il importe de souligner.
1.a Différentes évaluations • Evaluation diagnostique : en direction des enseignants Le rôle des évaluations diagnostiques consiste à renseigner chaque enseignant sur les compétences et les difficultés de chacun des élèves de sa classe. Il ne s’agit donc pas en l’occurrence de comparer les scores d’une année sur l’autre mais plutôt d’examiner les réussites et les lacunes individuelles. Des indicateurs globaux sont bien fournis tous les ans à la suite de cette opération mais leur but est de rendre possible une comparaison synchrone, des classes, des écoles ou des académies. Elles permettent en revanche, au niveau du bassin de formation, d’insister sur telle compétence non acquise et devant être travaillée davantage en amont de l’évaluation. Par conséquent, elles sont un outil de liaison précieux entre deux cycles (c’est le cas de l’évaluation CE2 et celui de l’évaluation menée cette année en début de cinquième), entre l’école et le collège (évaluation sixième) ou encore entre le collège et le lycée (évaluation à l’entrée en seconde). • Evaluation bilan : en direction des décideurs Le rôle des évaluations bilan est de fournir des indicateurs globaux sur les acquis des élèves à tel niveau de la scolarité. Il s’agit par exemple de renseigner sur les effets d’une mesure ou d’un changement de programme ou encore d’évaluer par comparaison l’évolution de ces acquis. Un protocole destiné à cerner les difficultés en lecture à l’entrée en sixième a par exemple été proposé aux élèves en 1987, en 1997 et en 2002. Les indicateurs fournis permettent d’apprécier la nature et l’amplitude de ces évolutions dans le but, par exemple, de les corriger. Dans le but de permettre ces comparaisons dans le temps, un protocole identique est par conséquent généralement reconduit. La France s’apprête à mener très prochainement une évaluation en fin de troisième et une autre en fin de CM2. Ajoutons que l’évaluation de la journée d’appel et de préparation à la défense peut être considérée comme une évaluation bilan, détachée du contexte scolaire. • Internationales Les évaluations internationales ont pour fonction de répondre, par le jeu des comparaisons entre différents pays, aux questions posées par les états eux-mêmes sur la validité de leur école. Ces évaluations s’interrogent sur la rentabilité des différents systèmes scolaires et des mesures entreprises pour leur amélioration. Elles sont l’affaire des pédagogues mais aussi (et peut-être avant tout) l’affaire des économistes de l’éducation. Les questions posées par ces économistes portent par exemple sur l’espérance de salaire selon le taux de scolarisation ou sur les effets observés de la réduction de la taille des classes. Les deux dernières évaluations internationales sont l’enquête PISA, menée par l’OCDE en mai 2000, concernant les enfants de 15 ans et l’enquête PIRLS pilotée par l’IEA auprès des enfants de 9 ans. 1.b Des démarches différentes • Du point de vue des démarches et des stratégies engagées par les élèves. L’évaluation diagnostique cherche à préciser le plus possible le point d’achoppement de l’élève. Elle s’attachera à vérifier la validité des stratégies de résolution mises en œuvre. L’évaluation bilan au contraire ne s’intéresse qu’au résultat ; elle n’implique aucun raisonnement sur l’analyse de l’erreur. • Du point de vue de la distance par rapport au programme. Lorsqu’il s’agit de fournir un indicateur sur les acquis des élèves en vue d’une analyse longitudinale, il est particulièrement important de les interroger sur ce qu’ils ont effectivement étudié en classe. Les évaluations bilans sont donc contraintes par les programmes de l’année visée ou de l’ensemble du cycle. Cependant, les évaluations bilan en troisième et au CM2 qui seront proposées cette année s’appuient plutôt sur les compétences générales que disciplinaires. Le but des évaluations diagnostiques étant de repérer, certes les faiblesses, mais également les points forts des élèves, les exercices proposés peuvent anticiper sur des compétences en cours d’acquisition. Un faible taux de réussite est attendu à certains des items des protocoles de rentrée. Le score obtenu à ces items n’est donc pas une surprise : il s’agit bien pour l’enseignant d’identifier tous les talents et les compétences avec lesquels il aura à travailler.
Pour ces mêmes raisons, l’évaluation bilan a lieu en fin d’année scolaire et l’évaluation diagnostique prendra place en septembre. • Du point de vue du recueil des données Les exercices du protocole (diagnostic) sont appelés à changer tous les ans et à demeurer dans les établissements après l’évaluation. Le ministère établit cependant un échantillon représentatif national et demande la remontée de certains résultats dans le but d’établir les scores nationaux. L’évaluation bilan est passée par un échantillon d’élèves. Les cahiers, après la passation, sont transmis au ministère pour correction puis encodage. Destinées à permettre un suivi longitudinal, les épreuves sont reprises d’une évaluation sur l’autre, ce qui empêche de les publier et de les faire connaître. Par ailleurs, cette reprise, qu’une comparaison rigoureuse rend obligatoire, pose en elle- même problème. En effet, il n’est pas rare que les programmes aient évolué entre deux mesures, ou que les épreuves aient par trop vieilli. • Du point de vue des indicateurs Les évaluations diagnostiques délivrent des résultats par champs, par compétence ou par item. Le but étant de traiter des performances individuelles et pour cela, de descendre le plus finement possible dans les procédures de résolution mises en œuvre, le caractère des exercices est forcément atomisé. L’ensemble est appelé à un traitement synchronique. Le protocole étant modifié tous les ans, les indicateurs produits sont condamnés à fluctuer, parfois dans une marge importante. Il est impossible de cette manière d’établir un degré de maîtrise en lecture fiable et robuste d’une année sur l’autre. Construire des indicateurs destinés à apprécier les degrés de maîtrise des élèves et pouvant servir de référence d’une année à l’autre est la fonction des évaluations bilan, entre autres parce que les protocoles utilisés ne changent pas. Un score par item n’a en l’occurrence pas beaucoup de sens et le niveau de détail importe peu lorsqu’il est question de fournir une idée des connaissances des jeunes à un niveau donné. En revanche, il devient important, pour limiter les erreurs, d’évaluer une compétence par le biais de nombreux items. Les quelques points qui viennent d’être abordés montrent qu’il faut faire preuve de la plus grande prudence lorsque l’on met en perspective les résultats de plusieurs évaluations dont les visées sont parfois incompatibles. Parce que les évaluations diagnostiques sont conçues pour pointer des compétences en construction, elles peuvent servir à orienter des démarches pédagogiques à l’échelle de la classe. Les évaluations bilan renseignent sur la validité des choix opérés dans le cadre de la politique de l’éducation (les programmes en leurs différents points). Aucune évaluation ne peut tout dire. Il faut probablement renoncer à la tentation d’élaborer une démarche qui puisse servir à renseigner et les politiques et les enseignants. Il convient même de garder présent à l’esprit que l’évaluation de rentrée ne fournit qu’un faisceau d’indices sur les performances des élèves, indices à partir desquels les enseignants doivent effectuer des investigations. 2 Circularité des évaluations nationales calées sur les programmes. Calées en large partie sur les programmes, étroitement dépendantes d’une vision de l’école qui transparaît dans le choix des compétences évaluées, inconsciemment porteuses d’une vision de l’école, les évaluations fonctionnent en circuit fermé sur notre système. De là, la surprise générale à la lecture des résultats des évaluations internationales, sur lesquelles nous reviendrons plus tard. Dans les programmes de l’école et du collège, les contenus sont présentés en même temps que des savoir-faire à acquérir. Ces savoir-faire sont lisibles dans les tableaux présentant les compétences évaluées, que ce soit en mathématiques ou en français, au CE2 ou en sixième. Le problème posé par cette circularité est qu’elle nous rend en partie aveugles et ne donne aucun élément susceptible de renseigner sur les compétences de nos élèves par rapport aux élèves d’autres pays. Il nous est donc impossible grâce à elles de savoir si nos choix pédagogiques ou en termes de
structures (la filiarisation, par exemple ou encore le redoublement) sont bons. Il est pourtant nécessaire de contrôler la validité des options prises dans le domaine de l’éducation. Quelles sont les compétences évaluées en France ? • Validité des mécanismes d’accès au texte ; • Prélever l’information ; • Comprendre les liens cohésifs du texte : compréhension logique ; • Traiter l’information ; • Faire des inférences (suppléer par le raisonnement aux informations manquantes : accès à l’implicite). La toute première compétence est présente dans le cahier de CE2 (dans celui de sixième en 1998). L’ensemble des compétences est à peu près inchangé depuis le début des évaluations en 1989 : elles représentent pour nous autres français, les différentes étapes qui mènent (hiérarchiquement ou non) à la compréhension parfaite de l’écrit. Il est ainsi possible de « filer » les compétences d’un cahier à l’autre, du CE2 à la sixième. Les évaluations bilan, celle de l’école (fin CM2) et celle du collège (fin troisième) ont une structure semblable (prélèvement, traitement, accès à l’implicite) mais dans les deux enquêtes, ces compétences sont transversales et mobilisées sur des supports disciplinaires. Autrement dit, elles ne fourniront pas directement de données propres au français, aux mathématiques ou aux sciences mais plutôt des indicateurs portant sur la maîtrise d’une compétence mobilisée sur des supports de différentes disciplines. Quelle que soit la discipline interrogée, on se rend compte qu’en fait ces compétences représentent à nos yeux l’ensemble du processus de compréhension et qu’elles ne tiennent compte que de ce que l’élève est à même de percevoir à partir d’un support. 3 La surprise internationale Une autre vision de la lecture Les compétences évaluées en France le sont aussi dans les enquêtes l’internationales, du moins le protocole de l’OCDE les prend-il en compte. Cependant on observe que la compréhension logique est beaucoup moins prise en compte dans PISA. Elle l’est dans PIRLS avec les questions sur la chronologie par exemple. En revanche apparaît dans les deux enquêtes une compétence non évaluée en France, nommée « réagir » dans PISA et « évaluer les éléments textuels » dans PIRLS. Cette compétence implique la capacité de prendre position vis-à-vis d’un texte. Une nouvelle dimension de la lecture apparaît donc ici. Elle implique que lire ne se limite pas à la réception d’un texte ni à sa compréhension : on a réellement lu lorsque l’on est capable de donner son avis, de s’opposer, de fournir un argumentaire, bref lorsque l’on en fait quelque chose. L’écrit, en France, n’est pas travaillé de cette manière. Généralement, l’attente de l’enseignant se limite à la compréhension et à la restitution de ce qui a été compris, et le sens critique des élèves est fort peu sollicité. Il n’est donc pas surprenant que les résultats des élèves français soient sur cette compétence inférieurs à la moyenne internationale. Dans un premier temps, la tentation a été forte de dénier à cette compétence toute légitimité. En effet, selon nos critères, elle n’entrait pas dans le champ de la lecture ; par ailleurs, elle n’exigeait pas de compétences techniques très poussées. L’intrusion de cette compétence a été l’occasion de réfléchir sur les spécificités du système français relativement aux autres et au système anglo-saxon en particulier. Il a fallu pour mener à bien cette réflexion prendre en compte l’ensemble des caractéristiques mises en évidence par les deux enquêtes. Une autre vision de l’école ? Les résultats de l’enquête PISA ont surpris à plus d’un titre. Cette évaluation a attiré l’attention sur des points qui a priori ne faisaient pas problème ici, sur lesquels, même, nos spécialistes de l’éducation se sentaient en sécurité. Elles ont révélé que relativement aux élèves du même âge à l’étranger, les nôtres
connaissaient des faiblesses inattendues que notre système évaluatif n’avait pas détectées parce qu’il ne les soupçonnait pas. 1 les élèves français étaient relativement à l’aise lorsqu’il fallait répondre à un QCM alors que ce mode d’interrogation n’est pas pratiqué dans le cadre de l’école ; 2 alors que l’enseignement français est essentiellement basé sur l’écrit, les élèves affichaient des faiblesses dans ce domaine, renonçant à répondre lorsqu’il fallait rédiger (dans les autres pays, les élèves même faibles répondent en rédigeant leur réponse) ; 3 les élèves français se montraient moins capables que leurs camarades de réfléchir sur un support, de prendre des distances avec un texte, de mener une argumentation, même simple. Que peuvent signifier les données observées ? 4 Émergence de spécificités françaises Des élèves à l’aise quand il s’agit de s’informer… Dans l'enquête PIRLS, les supports narratifs et informatifs permettaient de prendre en compte les deux objectifs qui poussent le lecteur à lire et qui ont été définis plus haut, à savoir lire pour approcher la littérature et lire pour acquérir des informations. Ainsi, parmi les huit supports proposés, la moitié étaient des textes narratifs, tandis que l'autre moitié s'approchait de supports à caractère informatif. Dans tous les pays, les élèves obtiennent de meilleurs scores sur support narratif que sur support informatif ; néanmoins, l’écart entre ces deux catégories de support est moins important en France (c'est le troisième écart le plus faible, derrière la Moldavie et Hong-Kong), raison pour laquelle on peut avancer que les élèves français réussissent relativement mieux que ceux des autres pays sur les supports informatifs. Dans Pisa en revanche, les supports ne sont pas répartis selon les pôles narratif et informatif, si bien qu’il est difficile de mettre en évidence un goût particulier des élèves pour tel type de textes. Un exercice peut être constitué de plusieurs textes classés dans plusieurs catégories. Par ailleurs, les textes narratifs sont très peu nombreux dans PISA. On en compte trois susceptibles d’être considérés comme tels. Deux autres supports ont un caractère littéraire, mais l’un est extrait d’une pièce de théâtre et l’autre tend vers la poésie. On peut cependant faire valoir la supériorité des élèves scolarisés en France sur la compétence « s’informer » qui fait appel à des compétences généralement plus techniques et précises que celles à l’œuvre dans « réagir ». Cette supériorité est particulièrement évidente lorsqu’il s’agit de prélever ou de traiter les données d’un tableau ou d’un graphique. Que ce soit sur les supports informatifs dans Pirls ou sur la compétence « s’informer » de Pisa, nos élèves semblent donc accomplir avec aisance les tâches consistant à prélever de l’information. … encore plus à l’aise dans le cas particulier du repérage sur carte... Cette aptitude à s’informer est particulièrement évidente lorsqu’il s’agit de situer un objet ou un parcours sur une carte et plus généralement de procéder à des repérages spatiaux. L’évaluation PISA proposait trois items de ce type qui, tous, ont connu en France des taux largement supérieurs aux moyennes internationales. On retrouve cette sensibilité des élèves français à l'école primaire. Dans l'enquête PIRLS, on trouvait un dépliant publicitaire présentant les prestations d'un loueur de vélo, accompagné d'un plan de piste cyclable. Les élèves français obtiennent un score supérieur à la moyenne internationale pour tous les items de ce support, et la France se classe à la troisième place. Relativement aux autres pays, ce support distingue nettement les élèves français par leurs bons résultats. A titre d’exemples, dans Pirls, un item demandait de suivre le plan afin de remettre dans l'ordre les lieux rencontrés au cours de la promenade : il est réussi par 90,3 % des élèves français, contre 81,6% pour la moyenne internationale ; dans Pisa, un des items proposant aux élèves de situer un objet sur un plan obtient en France 10 points de plus qu’à l’international. Tous les items portant sur ce type de support, même s’ils ne traitent pas du repérage (prélèvement, traitement d’informations) semblent bénéficier de la prédilection des élèves français pour les cartes ou les
plans. On peut raisonnablement penser que les activités de repérage sont largement représentées dans le système éducatif français. … mais en difficulté pour donner leur avis Le score des élèves français dans les deux compétences « apprécier » dans Pirls et « réagir » dans Pisa révèle une faiblesse relative lorsqu’il s’agit de s’emparer d’un texte comme support de réflexion personnelle. Compte tenu de la ressemblance des compétences devant être mobilisées par les élèves et de la récurrence des résultats, on peut faire ici l’hypothèse d’une caractéristique du système scolaire français. Les pratiques doivent être interrogées lorsqu’il s’agit d’expliquer ce phénomène. On peut supposer simplement que cette compétence n’est pas suffisamment travaillée en classe. On peut également y voir la trop grande prudence ressentie par les élèves lorsqu’il faut s’exprimer personnellement. Cette réticence pourrait trouver son origine dans une conduite de la classe laissant peu de place à l’expression : peu sollicités, les élèves n’acquièrent pas suffisamment les capacités d’expression qui leur permettraient de donner leur avis, d’argumenter, de débattre. Des élèves qui sous-estiment leurs compétences… L’erreur considérée comme une faute et stigmatisée comme telle, pourrait être à l’origine de la tendance à ne pas répondre de l’ensemble des élèves quel que soit leur niveau. L'étude PIRLS s'attachait, en dehors de la mesure de la compétence en lecture, à apprécier l'attitude des élèves vis à vis de la lecture. Parmi les questions qui leur étaient posées, plusieurs concernaient l'opinion qu'ils avaient de leurs propres capacités en lecture. Un indicateur synthétisant leurs réponses permet d'apprécier cet aspect. Il est frappant de constater que les élèves français se sous-évaluent nettement par rapport aux élèves des autres pays. En effet, alors qu'ils obtiennent des performances proches de la moyenne, ils sont 28% à avoir une très bonne opinion de leurs compétences en lecture, contre 40% des élèves au niveau international. Sur cet aspect d'estime de soi, la France se retrouve en avant-dernière position, juste devant Hong-Kong. Par manque d’assurance, les élèves français préfèrent ainsi ne pas répondre plutôt que de risquer une réponse fausse. Ce comportement averse au risque pourrait révéler une crainte à l’égard de l’institution scolaire. L’erreur considérée par l’école, non pas comme nécessaire à l’apprentissage mais comme une faute, et stigmatisée comme telle, pourrait ainsi être à l’origine de cette attitude de l’ensemble des élèves. … et particulièrement mal à l’aise lorsqu’il s’agit d’écrire Le taux important de non-réponse concernent les questions ouvertes, en particulier celles qui exigent une réponse longue. Ce constat s’appliquant aux deux enquêtes peut laisser supposer que c’est dans le domaine de l’expression écrite plutôt que dans celui de la lecture que nos élèves éprouvent le plus de difficultés. Parce qu’ils choisissent souvent de ne pas répondre du tout, les élèves montrent que l’écrit leur demande des efforts. Cette difficulté des élèves français en production d’écrits est également perceptible dans Pirls. Quand il s'agit de questions ne nécessitant pas le passage à l'écriture (QCM, mais également activités demandant de relier des objets par des flèches, de replacer des phrases dans l'ordre en les numérotant) les élèves français répondent plutôt plus que la moyenne internationale ; en revanche dès que l'on passe à des réponses écrites, le taux d'absention des élèves français passe au-dessus de celui que l'on observe au niveau international. Plus la réponse attendue est longue, plus la non-réponse des élèves français augmente par rapport au niveau international. Sur les questions demandant les réponses les plus longues, la part des élèves français qui s'abstiennent de répondre atteint 19,3% en moyenne, contre 9,9% au niveau international, même si ces items ne sont pas moins bien réussis par les élèves français. Ces constats amènent à s’interroger sur les apprentissages réels entrepris dans le domaine de la production de texte ; en effet, même si l’écrit demeure l’axe essentiel de l’enseignement français, peut- être sa maîtrise est-elle trop souvent supposée par les enseignants et les compétences, au lieu de s’inscrire dans une démarche pédagogique, demeurent-elles implicites. Si la volonté s’exprime dans les programmes, de faire de l’expression écrite une pratique quotidienne, on peut penser qu’elle demeure dans la réalité relativement rare et trop souvent évaluée du point de vue de la forme et de la correction de la langue.
S’exprimer par écrit devient alors un exercice dangereux, hérissé de contraintes, que l’on va peu à peu désinvestir. Faute d’une pratique fréquente et progressive, l’écrit risque ainsi de demeurer coûteux aux élèves en termes d’efforts. Une école trop scolaire ? En conclusion, il est possible de faire émerger des deux enquêtes des caractéristiques propres aux élèves scolarisés en France et d’en déduire des hypothèses s’appliquant à l’ensemble du système éducatif français de l’Ecole au Collège. L’ensemble des constats et hypothèses semble avoir trait à des pratiques de classe laissant peu de place à l’interaction, au statut de l’erreur et à la situation de l’élève considéré comme un être devant avant tout apprendre et non pas s’exprimer. Cependant, amener les élèves à s’exprimer dépasse peut-être le simple cadre des apprentissages mais tiendrait plutôt à la place que l’école peut laisser à la parole des élèves et peut-être à la valeur qu’elle leur accorde en tant que personnes capables d’opinions. En cela, les caractéristiques pointées ici mettent davantage en évidence une conception de l’école qu’un manque ponctuel au niveau des pratiques ou des programmes. En revanche, les points forts propres à nos élèves semblent bien liés à la dynamique générale de notre système scolaire, c’est-à-dire aux pratiques de classe relayant les injonctions du programme. Nous avons donc bien affaire à un système qui fonctionne, un système efficace dans les missions qu’on lui assigne, très étroitement dépendantes de notre culture, de notre inconscient et dont la responsabilité échappe en partie aux seuls enseignants. Publications françaises sur PISA Les élèves de 15 ans – Premiers résultats d’une évaluation internationale des acquis des élèves, Note d’information 01.52, décembre 2001, MEN-DPD. Les compétences des élèves français à l’épreuve d’une évaluation internationale, Premiers résultats de l’enquête PISA 2000, Les Dossiers n° 137, MEN-DPD. Dupé C. et Olivier Y., L’évaluation PISA, Le Bulletin vert de l’Association des Professeurs de Mathématiques, n°439, 2002. Murat F. et Rocher T., La place du projet professionnel dans les inégalités de réussite scolaire à 15 ans, France - Portrait social, 2002, INSEE. Robin I., L’enquête PISA sur les compétences en lecture des élèves de 15 ans : trois biais culturels en question, Ville-École-Intégration-Enjeux, n°129, juin 2002, CNDP. Robin I. et Rocher T., La compétence en lecture des jeunes de 15 ans : une comparaison internationale, Données sociales, 2002, INSEE. Rocher T., La méthodologie des évaluations internationales, Psychologie et Psychométrie (à paraître). Robin I et Rocher T., Que sait-on des compétences en lecture de nos jeunes, Économie et Humanisme (à paraître) Publications françaises sur PIRLS Colmant M., Mulliez A., Premiers résultats d’une évaluation internationale des acquis des élèves (sous réserve de modification du titre) Note d’information MEN-DPD (à paraître) Colmant M., Mulliez A., Robin I., PIRLS, PISA, deux enquêtes internationales sur les compétences en lecture, quelles hypothèses pour le système éducatif français ? Note d’information, MEN-DPD (à paraître)
Vous pouvez aussi lire