Suivi des apprentissages au moyen d'évaluations formatives par questions à choix multiples diffusées sur le Web par le logiciel eTests
←
→
Transcription du contenu de la page
Si votre navigateur ne rend pas la page correctement, lisez s'il vous plaît le contenu de la page ci-dessous
Document généré le 9 sept. 2022 02:06 Revue internationale des technologies en pédagogie universitaire International Journal of Technologies in Higher Education Suivi des apprentissages au moyen d’évaluations formatives par questions à choix multiples diffusées sur le Web par le logiciel eTests Grégoire Vincke, Benoît Bihin, Anne-Cécile Wauthy, Eliane Al Zind, Arnaud Vervoort et Eric Depiereux Volume 11, numéro 1, 2014 Résumé de l'article URI : https://id.erudit.org/iderudit/1035611ar eTests est un logiciel libre permettant l’édition collaborative et la diffusion DOI : https://doi.org/10.7202/1035611ar d’évaluations formatives par questions à choix multiples sur le Web. Ces évaluations sont formatives, car à chaque proposition de réponse sont associés Aller au sommaire du numéro des justificatifs détaillés ou des indices, selon que la proposition est correcte ou incorrecte. Ce retour instantané d’information permet à l’étudiant de rectifier une éventuelle erreur ou de conforter son raisonnement. L’enregistrement de Éditeur(s) chaque réponse permet le suivi des performances individuelles ou de groupes. Ceci permet à l’apprenant de se positionner vis-à-vis de ses pairs et le CRIFPE responsabilise dans sa formation. L’analyse édumétrique des réponses permet de détecter des difficultés de résolution, qui peuvent révéler la présence d’un ISSN obstacle cognitif de la matière enseignée, dont le diagnostic pourra être affiné par la rédaction de séquences de questions de complexité croissante. 1708-7570 (numérique) Découvrir la revue Citer cet article Vincke, G., Bihin, B., Wauthy, A.-C., Al Zind, E., Vervoort, A. & Depiereux, E. (2014). Suivi des apprentissages au moyen d’évaluations formatives par questions à choix multiples diffusées sur le Web par le logiciel eTests. Revue internationale des technologies en pédagogie universitaire / International Journal of Technologies in Higher Education, 11(1), 19–34. https://doi.org/10.7202/1035611ar Tous droits réservés © CRIFPE, 2014 Ce document est protégé par la loi sur le droit d’auteur. L’utilisation des services d’Érudit (y compris la reproduction) est assujettie à sa politique d’utilisation que vous pouvez consulter en ligne. https://apropos.erudit.org/fr/usagers/politique-dutilisation/ Cet article est diffusé et préservé par Érudit. Érudit est un consortium interuniversitaire sans but lucratif composé de l’Université de Montréal, l’Université Laval et l’Université du Québec à Montréal. Il a pour mission la promotion et la valorisation de la recherche. https://www.erudit.org/fr/
IJTHE • RITPU Suivi des apprentissages au Grégoire VINCKE Université de Namur, Belgique, gregoire.vincke@uclouvain.be moyen d’évaluations formatives Benoît BIHIN Université de Namur, Belgique, benoit.bihin@unamur.be par questions à choix multiples Anne-Cécile WAUTHY Université de Namur, Belgique, anne-cecile.wauthy@unamur.be diffusées sur le Web par le Eliane Al ZIND Université de Namur, Belgique, elianealzind@hotmail.com logiciel eTests Arnaud VERVOORT Université de Namur, Belgique, arnaud.vervoort@unamur.be Eric DEPIEREUX Université de Namur, Belgique, eric.depiereux@unamur.be Compte rendu d’expérience intégrant les TIC Résumé Abstract eTests est un logiciel libre permettant l’édition eTests is a free software that can be used to offer collaborative et la diffusion d’évaluations forma- web-based multiple-choice formative assessment tives par questions à choix multiples sur le Web. questionnaires. The assessments are formative be- Ces évaluations sont formatives, car à chaque pro- cause each choice is linked with complementary position de réponse sont associés des justificatifs information in the form of hints if the answer is détaillés ou des indices, selon que la proposition incorrect or comments if the answer is correct. Ins- est correcte ou incorrecte. Ce retour instantané tant feedback allows students to correct any errors d’information permet à l’étudiant de rectifier une or confirm their reasoning. The answers are recor- éventuelle erreur ou de conforter son raisonnement. ded so that individual or group performance can L’enregistrement de chaque réponse permet le sui- be monitored. This transfers responsibility to the vi des performances individuelles ou de groupes. learners by helping them compare themselves with Ceci permet à l’apprenant de se positionner vis-à- their peers. The teachers can perform an edumetric vis de ses pairs et le responsabilise dans sa forma- analysis of the distribution of the answers to detect tion. L’analyse édumétrique des réponses permet resolution difficulties, which could be the sign of a de détecter des difficultés de résolution, qui peu- cognitive obstacle in the learning process. Creating vent révéler la présence d’un obstacle cognitif de increasingly complex sequences of questions can la matière enseignée, dont le diagnostic pourra être refine the diagnosis of any such obstacles. affiné par la rédaction de séquences de questions de complexité croissante. Keywords Mots-clés Formative assessment, freeware, open source, co- gnitive obstacle, biostatistics Évaluation formative, QCM, logiciel libre, open source, obstacle cognitif, biostatistique Cette œuvre est mise à disposition selon les termes de la licence cc $ = Creative Commons Attribution - Pas de Modification 2.5 Canada http://creativecommons.org/licences/by-nd/2.5/ca/deed.fr 2014 - International Journal of Technologies in Higher Education, 11(1) 19 www.ijthe.org
RITPU • IJTHE fine, des questions furent publiées sur la plateforme Introduction d’apprentissage, sous la forme de questionnaires interactifs générés par le logiciel Hot Potatoes1 (Vincke et Depiereux, 2010). Chaque proposition Objectif de réponse cochée par l’étudiant lui renvoyait dans Cette étude s’insère dans un processus de délocali- une fenêtre secondaire la raison pour laquelle l’op- sation numérique, initié par la création d’une pla- tion choisie était correcte ou non. Parallèlement, teforme d’autoapprentissage (Vincke et Depiereux, nous avons développé un logiciel d’enregistrement 2010), d’une partie d’un dispositif d’apprentissage via le Web des réponses à de petites collections de de la biostatistique. Le public cible est constitué questions, ce qui nous a permis de mettre en œuvre d’étudiants inscrits en seconde année de premier une stratégie d’évaluation formative encadrée dans cycle en sciences biologiques et médicales à l’Uni- le cadre du dispositif d’apprentissage présentiel versité de Namur (Belgique). Cette hybridation du (Vincke et Depiereux, 2008). dispositif d’apprentissage a permis la mutation du Pour ne pas appauvrir la banque de questions certi- contrat didactique en recentrant le temps présen- ficatives, celles-ci ont été diversifiées et multipliées tiel sur la résolution d’obstacles cognitifs (Vincke, par « clonage et mutation ». Le « clonage » consis- Wauthy, Bihin et Depiereux, 2013). Cet article se te à modifier la contextualisation de façon à ce que focalise sur une innovation technologique, la pla- l’étudiant ne puisse pas se contenter de retenir que teforme eTests, en situant son utilisation didactique si le contexte parle de « moutons », il faut répondre par rapport aux principaux modèles d’enseignement « la corrélation est significative ». La « mutation » et d’apprentissage et en analysant les perspectives consiste à modifier un paramètre de l’énoncé (par qu’elle offre en matière d’évaluation formative et exemple R ≤ 0 est muté en R ≥ 0), ce qui trans- de détection d’obstacles cognitifs. forme l’option correcte en distracteur et récipro- quement. Cette technique de diversification des Évolution du dispositif d’apprentissage et questions est particulièrement bien adaptée à notre d’évaluation contexte et permet, dans une stratégie d’évaluation formative, de mobiliser certaines notions de façon Notre premier dispositif d’apprentissage sur ordina- répétitive dans différents contextes et de conserver teur (Van Vyve-Genette, Gohy et Feytmans, 1988) des questions inédites pour l’évaluation certifica- fut relayé à partir des années 2000 par un site Web tive. Au cours du temps, la rédaction de questions statique (Calmant, 2004) puis dynamique (Vincke originales, à leur tour clonées et mutées, a ainsi per- et Depiereux, 2010). mis d’enrichir la collection pour atteindre environ Depuis 1990, en réponse au passage rapide d’une 700 questions. Celles-ci sont classées en trois ca- université de classe à une université de masse (Al- tégories selon qu’elles évaluent a) les connaissan- bero, 2011), l’évaluation certificative est réalisée au ces théoriques, b) la maîtrise de techniques ou c) la moyen de QCM avec coefficient de certitude, se- sélection et l’utilisation efficace de la technique lon une méthodologie inspirée de Leclercq (1982). adaptée au regard de l’énoncé de la question et sur En 2002, certains enseignants ont souhaité utiliser la base des connaissances théoriques de l’appre- à des fins formatives certaines des questions cer- nant (la justification de choix est ce que Chevallard, tificatives, considérées comme confidentielles, en 1999, appelle un discours technologique). les rendant accessibles sur le Web. La tension qui L’évaluation certificative devant être simultanée émergea entre les partisans du rôle formatif ou cer- pour environ 1 000 étudiants, elle ne peut être réa- tificatif d’une évaluation refléta un débat plus large, lisée directement sur ordinateur. Une banque de qui confronte encore différentes visions du rôle de questions indépendante est donc maintenue dans l’université (Pachler, Daly, Mor et Mellar, 2010). In le logiciel FileMaker Pro pour pouvoir sélection- 20 2014 - Revue internationale des technologies en pédagogie universitaire, 11(1) www.ritpu.org
IJTHE • RITPU ner les questions non redondantes entre les sessions d’examens et générer les questionnaires papier. diant s’approprie une praxéologie (dans le sens de La procédure que nous avons détaillée jusqu’ici Chevallard, 1999) relative à chaque domaine de présente plusieurs désavantages : i) la triplication compétence, soit bien respecté. Le suivi des perfor- des collections de questions (formative non présen- mances d’étudiants est également visé dans notre tielle sur Hot Potatoes, formative présentielle sur le démarche, mais une bonne méthodologie a été pré- Web et certificative dans FileMaker) implique iné- sentée à ce sujet par Jaillet (2012). vitablement une évolution divergente de celles-ci; N’ayant trouvé aucun logiciel correspondant aux ii) aucun des deux logiciels ne permet de conserver fonctionnalités recherchées, le développement d’un l’historique des corrections apportées aux énoncés nouveau logiciel d’évaluation formative fut entre- et options de réponse; iii) Hot Potatoes ne per- pris dans le projet eTests. met pas d’associer les propositions de réponses à des coefficients de certitude; iv) Hot Potatoes ne Modèles permet pas de suivre les réponses des étudiants; v) l’analyse rétrospective du profil de réponse aux Les modèles du dispositif d’apprentissage centré questions de l’évaluation certificative ne fournit sur l’apprenant ayant été décrits par ailleurs (Vincke aucune garantie que la question posée au temps t et al., 2013), nous nous focalisons ici sur l’articu- n’a pas été corrigée lorsqu’elle est à nouveau pro- lation enseignement-évaluation. Chacun des modè- posée au temps t + 1. les justifie nos choix vis-à-vis de l’objet de l’étude. Le modèle pédagogique pose le cadre théorique de Détection d’obstacles cognitifs notre dispositif hybride présentiel/numérique et le Parallèlement à ces développements, nous avons rôle de l’évaluation formative, concept peu déve- commencé à tenter de diagnostiquer les obstacles loppé dans notre contexte universitaire et sur lequel cognitifs de la statistique en réalisant des interviews nous focalisons notre étude. Le modèle d’appren- semi-structurées d’étudiants (Calmant, 2004; Cal- tissage situe notre dispositif dans la mouvance so- mant, Ducarme et Schneider, 2011; Vincke et al., cioconstructiviste, ce qui justifie les interactions 2013). Mais ces interviews, bien que très instructi- créées entre étudiants tant dans l’espace présentiel ves, sont assez lourdes à réaliser, et donc impossi- que numérique. Le modèle didactique focalise le bles à généraliser. C’est ainsi que nous nous sommes processus d’évaluation formative vers une applica- intéressés aux plateformes QCM, en postulant que tion encore peu développée dans ce contexte : la l’enregistrement continu et l’analyse des réponses détection d’obstacles cognitifs. Ces obstacles sont des étudiants pourraient nous permettre de détecter situés dans la classification de Brousseau afin de des obstacles cognitifs de façon systématique en les traiter spécifiquement dans notre utilisation de déterminant le moment où une majorité décroche la plateforme eTests. au sein d’une séquence de questions de complexité Modèle pédagogique croissante, pénétrant dans un même concept (voir ci-dessous : modèle didactique et figure 2). Selon Allal et Mottier Lopez (2005), le concept L’utilisation d’un logiciel permettant de systémati- d’évaluation formative a été introduit par Scriven ser cette analyse permettrait de suivre la cinétique (1967) comme un outil permettant d’ajuster les pro- de l’apprentissage, de localiser les obstacles cogni- grammes scolaires. Le concept a ensuite été repris tifs et de vérifier l’adéquation des performances par Bloom, qui fut l’un des premiers à le considé- observées dans les domaines théorique, technique rer comme un outil d’apprentissage (Bloom, 1968; et technologique. Ce dernier point permettrait de Bloom, Hasting et Madaus, 1971), plaçant cette vérifier que l’objectif de l’enseignement, que l’étu- évaluation à la fin d’une séquence d’enseignement 2014 - International Journal of Technologies in Higher Education, 11(1) 21 www.ijthe.org
RITPU • IJTHE L’espace d’activité numérique est un site Web et utilisant les résultats pour organiser une remédia- d’autoapprentissage (Vincke et Depiereux, 2010) tion. Depuis, le concept d’évaluation formative s’est commun à plusieurs institutions, au sens de Che- peu à peu étoffé (Allal, 1979; Andrade et Cizek, vallard (1999). Asynchrone, délocalisé et déma- 2010; Black et Wiliam, 2009), son statut d’objet térialisé, il correspond en quelque sorte au « cy- d’apprentissage est reconnu et ce type d’activité est berprofesseur » de Lombard (2007). L’apprenant régulièrement intégré au sein même des séquences y étant beaucoup plus autonome que dans le dis- d’enseignement. positif présentiel classique (cours ex cathedra, Le modèle pédagogique sur lequel nous avons séances de questions-réponses, travaux pratiques construit notre dispositif d’apprentissage (Vincke et encadrés), il favorise la dévolution des tâches au al., 2013) guide l’apprenant en lui proposant deux sens de Brousseau (1998) et transforme le temps espaces d’activité partiellement redondants, un es- didactique, comme défini par Chopin (2005). pace numérique, constitué de la plateforme Web et La coexistence de plusieurs méthodes d’appren- un espace présentiel, représenté par le cours magis- tissage procure à chaque étudiant la possibilité tral et les travaux pratiques (figure 1). d’avancer à son propre rythme, appliquant ainsi les principes de la pédagogie différenciée décrite par Hotte, Basque, Page-Lamar- che et Ruelland (2007). Cette approche s’inscrit également dans la pédagogie de la maîtrise (Bloom, 1968) avec des acti- vités présentielles suivies d’une évalua- tion formative dans l’espace d’activité numérique, suivie d’un retour au présen- tiel pour la remédiation, les deux derniè- res étapes étant répétées jusqu’à ce que chaque apprenant actif maîtrise la ma- tière abordée. Modèles d’apprentissage À l’heure actuelle, la plupart des modè- les d’apprentissage font référence aux travaux de deux psychologues : le suisse Jean Piaget, reconnu comme le père du constructivisme, et le russe Lev Vygots- ki, qui le fait évoluer en socioconstructi- Figure 1. Modèle pédagogique de l’articulation enseignement- visme. Ces deux psychologues font partie d’une évaluation. eTests se situe à l’intersection de deux même mouvance théorique selon laquelle l’appre- espaces d’activité, présentiel et numérique, réglant la nant construit son savoir par son activité propre et dévolution des tâches et la gestion du temps didactique. au travers des interactions qu’il développe avec La base de données de questions (BDD) permet de géné- autrui. Pour Piaget (1936), l’apprentissage est un rer les évaluations formatives et certificatives, et la BDD phénomène dynamique en constante évolution, des réponses, le suivi a posteriori des profils de réponse durant lequel les acquis sont progressivement re- par des indices édumétriques. construits par l’apprenant. L’apport des travaux de Vygotski (1985) complète ce modèle en y ajoutant 22 2014 - Revue internationale des technologies en pédagogie universitaire, 11(1) www.ritpu.org
IJTHE • RITPU une composante sociale : la reconstruction des ac- quis en savoir est sensible à l’environnement social binôme dispose de son propre questionnaire eTests dans lequel un apprenant évolue, d’autant plus que sur une moitié d’écran et les réponses suscitent le ce dernier y établit des interactions significatives. débat. L’objectif est d’étendre la ZPD à travers La construction personnelle d’un savoir serait ainsi leur dialogue et la confrontation de leurs points de influencée par l’appropriation éventuelle de ceux vue. Si le succès didactique d’un dispositif d’ap- d’autrui. Vygotski définit ainsi la zone proximale prentissage dépend entre autres de la motivation de de développement (ZPD) : la différence entre ce l’apprenant, il assume lui-même une grande part de qu’un apprenant peut réaliser seul et ce qu’il peut responsabilité dans le développement et le maintien réaliser avec la collaboration d’un « expert », qui de cette motivation (Lebrun, 2007) : dans les faits, peut aussi bien symboliser une personne isolée ou l’espace numérique développé par l’équipe ensei- un groupe d’individus que, selon Lombard (2007), gnante est complété, voire dépassé, par les réseaux un cyberdispositif. sociaux dans lesquels nous n’avons pas (encore?) Dans les modèles de Piaget et de Vygotski, l’appren- pris de rôle actif. tissage est présenté comme une activité conflictuel- le : conflit entre les conceptions préalables et celles Modèle didactique qui émergent d’une analyse logique d’une situation, et conflit entre individus d’avis différents qui argu- L’évaluation formative est envisagée comme une mentent pour défendre leurs positions. Le conflit série de questions en cascade, pénétrant dans le sociocognitif serait alors le moteur de l’apprentis- concept par des questions simples se complexifiant sage (Doise, Mugny et Perret-Clermont, 1975; Per- progressivement, ou posant un problème global qui ret-Clermont, 1979), permettant à l’apprenant de sera par la suite décortiqué par différentes questions reconstruire un savoir plus robuste. Suivant cette plus ciblées abordant les différents niveaux théori- théorie, chaque membre d’un dispositif d’appren- ques ou techniques nécessaires pour construire le tissage est de facto un acteur potentiel de l’appren- discours technologique (voir discussion, figure 5). tissage des autres membres. C’est le fondement des Cette cascade est schématisée à la figure 2. méthodes d’enseignement basées sur le travail col- laboratif, dont Bouzidi et Jaillet (2007) poussent la logique jusqu’à l’évaluation par les pairs. Le dispositif d’apprentissage dans lequel nous uti- lisons eTests s’inspire de cette mouvance socio- constructiviste. À l’instar de Lombard (2007), nous pensons que le cyberdispositif, avec les interactions qu’il offre sur le forum de la plateforme d’appren- tissage (Vincke et Depiereux, 2010) et sur eTests (l’individu situe sa réponse par rapport à celles du groupe, reçoit des justificatifs sur le caractère cor- rect ou incorrect de son choix de réponse et peut discuter de la question asynchroniquement avec des pairs distants), peut être lui-même assimilé à un « expert » et servir de relais vers les autres mem- bres du groupe. Durant les travaux pratiques (es- pace d’activité présentiel), les apprenants sont ins- tallés par binômes devant les ordinateurs, et il leur est conseillé de s’entraider. Chaque partenaire du 2014 - International Journal of Technologies in Higher Education, 11(1) 23 www.ijthe.org
RITPU • IJTHE Figure 2. Modèle didactique. Suivi de questions de complexité modifier la séquence d’apprentissage (Vincke et al., croissante pénétrant « en cascade » un concept donné 2013) si la distribution des réponses aux questions, (exemple fictif). Vert : plus de 60 % de succès, jaune : avérées correctes et non ambigües puis reclassées entre 60 % et 40 %, orange : entre 40 % et 20 %, dans la séquence de complexité croissante, témoi- rouge : moins de 20 %. Phase 1 : série de questions ori- gne d’une difficulté réelle pour les apprenants, ré- ginales et décrochage des étudiants à partir de la ques- vélant peut-être la présence d’un obstacle cognitif. tion 3; analyse de la question mettant en évidence son À plus long terme, l’analyse des fréquences de ambiguïté. Phase 2 : modification de la formulation de réponse permettra de vérifier si cet obstacle aura la question 3 (3bis). Phase 3 : analyse de la question 4 été levé ou non. La mise en œuvre de ce modèle mettant en évidence un obstacle cognitif; une nouvelle nécessite que la base de données permette la tra- séquence d’apprentissage est développée. Phase 4 : çabilité des réponses au cours des modifications performances après implémentation d’une nouvelle successives des questions et qu’elle permette de séquence d’apprentissage. reconstituer le profil des réponses à chaque ques- tion en l’état où celle-ci était avant d’éventuelles L’étudiant rencontre ces questions dans un ordre modifications. Cette fonctionnalité est une des ca- aléatoire et non dans la séquence de complexité ractéristiques originales de notre logiciel eTests. croissante préétablie. L’analyse rétrospective des réponses fournies par l’étudiant entre l’initiation de La notion d’obstacle et son rôle dans l’apprentissage et l’évaluation certificative permet l’apprentissage par une série de mesures (voir « édumétrie ») : i) de repérer les questions ambigües ou erronées; le cours La prise en compte d’obstacles à l’apprentissage se répétant chaque quadrimestre, lorsqu’une ques- ainsi que l’aménagement d’une rencontre de l’ap- tion doit être modifiée, il est possible de mesurer prenant avec ceux-ci semblent être fondamentaux. à court terme l’impact de ces modifications; ii) de La leçon que l’apprenant tirera de la rencontre avec 24 2014 - Revue internationale des technologies en pédagogie universitaire, 11(1) www.ritpu.org
IJTHE • RITPU l’obstacle sera toujours plus porteuse de sens que celle que le professeur aurait pu lui dispenser avant Le logiciel d’évaluation eTests la réalisation de l’exercice. Le processus d’appren- tissage n’est pas un phénomène linéaire, il peut être Implémentation schématisé comme une progression qui est parfois ralentie, voire stoppée par des obstacles de nature L’utilisation de systèmes informatisés pour gérer des et d’origine variées et qui nécessitent de la part de évaluations formatives n’est pas récente (De Campos, l’apprenant un effort supplémentaire afin de les 1990; Leclercq, 1980; Ring, 1993; Séguin, 1984), de franchir. Sans entrer dans les détails, Brousseau même que le choix d’utiliser à cette fin des questions (1998) classe ces obstacles cognitifs en plusieurs à choix multiples (Callear et King, 1997; Leclercq, catégories, selon leur origine : i) les obstacles onto- 1986, 1987). L’informatisation a permis le traitement géniques qui résultent du développement psycho- de plus grandes quantités d’information, et l’arrivée génétique de l’apprenant; ii) les obstacles d’origi- du Web au début des années 1990 a facilité le dé- ne didactique dont la responsabilité incombe aux veloppement de stratégies d’évaluations formatives choix didactiques de l’enseignant (éventuellement asynchrones (Buchanan, 2000; Gibson, Brewer, Dho- inévitables, voire intentionnels); iii) les obstacles lakia, Vouk et Bitzer, 1995; Stockburger, 1999; Peat et épistémologiques, au sens de Bachelard (1938), Franklin, 2002). Mais il est certains domaines qui se- qui trouvent leur origine dans les conceptions préa- ront plus difficiles à atteindre avec ce type de média, lables de l’apprenant, l’inconscient collectif et la par exemple lorsqu’il faut prendre en compte d’autres culture ou la connaissance scientifique de toute la sources d’informations que les réponses à des tests ou société concernée par l’enseignement analysé. La encore fournir à chaque étudiant des conseils person- statistique, en particulier, ne manque pas d’obsta- nalisés pour orienter son apprentissage, domaines qui, cles épistémologiques, par exemple l’affrontement nous l’espérons, feront longtemps encore appel aux conceptuel entre la norme et l’écart à la norme relations humaines. Pour pallier cette dualité, nous (Quetelet, 1871) fortement marqué par le contexte avons fait le choix d’un dispositif d’apprentissage hy- socioculturel d’une culture donnée (Chevallard, bride, alliant les avantages des outils informatiques 1978). (rapidité, puissance de calcul), ceux du Web (asyn- Face à un obstacle cognitif, il y a plusieurs postures chronicité, personnalisation du rythme d’apprentissa- possibles de la part de l’enseignant, qui peut soit ge) et ceux d’un encadrement humain (discussion des l’ignorer, soit l’affronter par un dispositif adéquat résultats et remédiation collective ou personnalisée). (Brousseau, 1998). Idéalement, le dispositif sera construit de telle sorte qu’à l’issue de cette rencon- Édumétrie tre, le ou les obstacles en question soient naturel- lement définis et franchis. Le but majeur de notre L’édumétrie utilise dans le cadre de l’étude les tech- utilisation de la plateforme eTests est de réaliser niques mathématiques et statistiques d’analyse des ré- une détection systématique des obstacles, en nous ponses développées en psychométrie (Carver, 1974) focalisant tout particulièrement sur ceux qui ont et se focalise sur l’analyse des scores qui renseignent une portée didactique et épistémologique, c’est-à- sur la qualité des questions. Les principaux indica- dire ceux contre lesquels nous avons pu (Vincke et teurs sur lesquels notre logiciel se focalise concernent al., 2013) et pourrions encore éventuellement agir. l’évaluation de la difficulté et de la qualité des ques- tions, en nous inspirant principalement des ouvrages de Leclercq (1987), de Laveault et Grégoire (2002) et de Gilles (2002). L’écran général de l’analyse édu- métrique est présenté à la figure 3 et les principaux indicateurs sont détaillés ci-dessous. 2014 - International Journal of Technologies in Higher Education, 11(1) 25 www.ijthe.org
Figure 3. Tableau de bord général de l’analyse édumétrique d’une question par le logiciel eTests, tel qu’accessible aux enseignants. Les items relatifs au questionnaire (A) et à la question (B) sont expliqués dans le texte.
IJTHE • RITPU Des pictogrammes (A1) récapitulent l’ensemble du questionnaire en pointant les questions qui requiè- rent une attention particulière. Un graphique (A2), dont l’interprétation est détaillée à la figure 4, présente une synthèse intéressante de la relation entre, en abscisse, p, la fréquence de sélection de la bonne réponse, et en ordonnée, D, un indice de discrimination (Ebel, 1965; Feldt, 1961; Findley, 1956; Kelley, 1939). Figure 4. Représentation graphique (Ebel, 1965) de la discrimination (en ordonnée) et de la difficulté (en abscisse) de la question, l’indice p étant faible lorsque la difficulté est élevée et réciproquement. Les exemples et leur explication sont inspirés de ceux de Laveault et Grégoire (2002). 1) Question idéale pour différentier les répondants : difficulté moyenne et discrimi- nation élevée. 2) Question plus difficile et encore discriminante. Questions à examiner : 3) Question de difficulté moyen- ne qui discrimine assez peu. 4) Question plus difficile qui discrimine assez peu. 5) Question facile et peu discriminante. 6) Question réellement problématique : car la question est de difficulté moyenne, mais discrimine de manière très néga- tive. L’analyse pointe soit une erreur dans la grille de correction ou dans la question, soit un problème d’apprentissage. 2014 - International Journal of Technologies in Higher Education, 11(1) 27 www.ijthe.org
RITPU • IJTHE En B2 et B3 sont repris différents indices complé- L’indice p est faible lorsque la difficulté est élevée mentaires dont la comparaison des valeurs relève et réciproquement (p proche de 0 = difficulté éle- plus d’une recherche méthodologique que de la vée, p proche de 1 = question facile). Idéalement, simple analyse du questionnaire et dont la discus- il aurait dû s’appeler indice de facilité, mais l’ex- sion de la spécificité dépasse le cadre de cet article. pression indice de difficulté semble consacrée dans la littérature (Leclercq et Gilles, 2003). L’indice Caractéristiques techniques de discrimination D est facile à calculer et permet de diagnostiquer des problèmes internes aux ques- Les aspects techniques du logiciel n’ont pas grand tions. Selon Leclercq (1987, cité par Gilles, 2002) intérêt dans cette discussion. Nous en mentionnons l’indice D tend vers le coefficient de corrélation ici les points essentiels. eTests est une application point bisériale, ou rpbis (figure 3, A3) (Lord, Novick Web, diffusée sous licence EUPL V1.1. Le code et Birnbaum, 1968), lorsque le nombre d’observa- source est téléchargeable sur sourceforge.net2 d’où tions augmente. Un indice D et/ou un rpbis négatif il a déjà été téléchargé plus de 600 fois depuis plus (zone rouge) signifient que ceux qui ont bien ré- de 90 pays différents. Le code est écrit en PHP3, et pondu à cette question sont majoritairement ceux il dialogue avec une base de données MySQL4. La qui ont le moins bien répondu à l’ensemble des version actuelle (0.3.1) est stable (elle est utilisée autres questions du questionnaire, ce qui n’est pas dans deux universités belges depuis trois ans par normal (figure 4) (Laveault et Grégoire, 2002) et 1 000 à 3 000 utilisateurs/an) et son interface est généralement le signe d’un problème de formula- actuellement accessible en français et en anglais. tion de la question posée. Une question située dans À la suite de la présentation d’eTests au FOSDEM la zone jaune devrait être examinée : son pouvoir 20135, des contacts ont été pris avec des déve- discriminant reste positif, mais faible. Une question loppeurs brésiliens et indiens pour étendre la com- située dans la zone verte est une question qui ne munauté et accélérer son développement. présente pas de problème. Discussion Les indicateurs B détaillent les propositions de ré- ponse d’une question particulière. En B1 se trouve L’objectif de l’évaluation formative est de respon- une analyse des réponses enregistrées pour chaque sabiliser l’étudiant vis-à-vis de son apprentissage proposition, du haut vers le bas : réponse correcte en lui permettant de tester ses performances, de (identifiée par la flèche verte), distracteurs et solu- les comparer à celles de ses pairs et d’en obser- tions générales. B1a est la fréquence des réponses, ver l’évolution, en fonction du temps et de l’effort B1b est la proportion des coefficients de certitude d’étude consenti dans un laps de temps donné. (jaune : peu certain; vert clair : assez certain; vert Contrairement aux plateformes étudiantes classi- foncé : tout à fait certain), B1c est le rpbis calculé par ques – Moodle6, Claroline (Lebrun, 2004)… – dont proposition de réponse. Ces trois indicateurs sont la structure est une série de cours indépendants les récapitulés dans un pictogramme semblable à A1 uns des autres au sein d’un établissement d’ensei- mais ici spécifique de chaque proposition de répon- gnement unique, eTests propose des espaces de par- se, ce qui met en évidence au moins un problème tage de contenu évaluatif entre plusieurs titulaires dans l’option par un examen visuel rapide. pouvant appartenir à des établissements différents. Dans la question illustrée à la figure 3, la propo- Ce logiciel permet donc une meilleure intégration sition correcte (no 2) n’est choisie que par 51 % des enseignements et la répartition de l’effort que des 83 répondants avec une confiance mitigée. Par représente la réalisation d’une base de questions contre, la proposition no 3 est détectée comme un couvrant l’ensemble d’une matière. distracteur attractif, avec 25 % des réponses, dont la moitié avec une certitude élevée. 28 2014 - Revue internationale des technologies en pédagogie universitaire, 11(1) www.ritpu.org
IJTHE • RITPU Toute modification de question entraîne automati- quement l’enregistrement complet de la question modifiée sous un numéro de version incrémenté, sans suppression de ses caractéristiques précéden- tes. Cette fonctionnalité permet d’analyser les résul- tats issus de questionnaires en fonction de l’état réel d’une question au moment où elle a été utilisée. Il n’existe pas, à notre connaissance, d’autre logiciel libre permettant d’obtenir ce suivi des questions ou une analyse d’une grande précision en fonction d’un relevé édumétrique très diversifié. Cela rend le logiciel particulièrement utile pour assurer la lo- calisation et le suivi des obstacles cognitifs. L’analyse des données enregistrées par ce système a permis la mise en évidence de phénomènes inat- tendus. Les différentes notions qui présentent ma- nifestement des difficultés n’étaient pas forcément celles que les enseignants attendaient. La figure 5 illustre la détection d’un obstacle cognitif par une cascade de quatre questions dans l’évaluation de la tâche « calculer une variance ». Figure 5. Profils de réponse à une série de questions en cascade. À gauche : p, proportion de bonnes réponses. À droite : proportion des coefficients de certitude. A. Type de tâche : « calculer une variance » (voir texte); B. Choix de 4 formules de calcul alternatives (approche théorique); C. et D. Étapes de calcul mental (approche technique). L’interprétation est fournie dans le texte. 2014 - International Journal of Technologies in Higher Education, 11(1) 29 www.ijthe.org
RITPU • IJTHE rapidement pris conscience de leur intérêt à répon- La première question consiste à calculer menta- dre honnêtement au questionnaire. Cette forme de lement la variance d’un échantillon. « Lors d’une compétition, sans autre enjeu que celui de l’appren- récolte à la pompe à vers sur une plage de Breta- tissage, est une réelle émulation. Nous assistons à gne, un étudiant récolte trois Lanice conchilega. une meilleure appropriation par les étudiants du Ces vers mesurent respectivement 17,7, 18,3 et système d’évaluations, qui s’est d’ailleurs traduite 18,0 cm. Quelle est la valeur de la variance de cet par une très nette baisse des réactions manifestant échantillon de vers? » Le taux de bonnes réponses un stress vis-à-vis de la méthodologie de l’examen est faible et la certitude des étudiants, mitigée. Sur certificatif de fin d’année. la base de cette seule question, le diagnostic hâtif se limiterait au fait que le concept statistique de va- Conclusions et perspectives riance n’est pas maîtrisé. La seconde question propose un choix de quatre Vu l’intérêt des étudiants et la richesse des échan- formules de calcul ressemblantes, dont seule la ges générés avec les enseignants, une mise en ligne troisième est correcte : le taux de bonnes réponses de QCM, qui n’avait au départ qu’un but de démys- et la certitude des étudiants sont élevés; la couche tification de l’évaluation certificative, a été progres- théorique est donc maîtrisée. sivement généralisée et a évolué vers un support de l’apprentissage par des évaluations formatives. La troisième question demande le calcul mental Pour systématiser cette approche et développer une rapide de la moyenne de l’échantillon : le taux de base de données cohérente de questions formatives, bonnes réponses et la certitude des étudiants sont nous avons développé le logiciel eTests. élevés; le problème ne vient donc pas de cette com- pétence technique. L’analyse rétrospective de la base de données don- ne à l’enseignant la possibilité du suivi des ques- La quatrième question demande le calcul mental tions. Des profils anormaux permettent en outre de d’une étape du calcul de la variance : détecter des difficultés qui peuvent se révéler être - 0,32; le taux de bonnes réponses est faible et la des obstacles didactiques ou épistémologiques aux- certitude associée à une fausse réponse est élevée. quels il peut être possible de remédier. L’analyse montre donc que l’étape limitante du La détection et la tentative de résolution des obsta- problème complexe est la capacité de l’étudiant cles didactiques se déroulent donc selon le schéma d’élever au carré une valeur négative et inférieure à suivant : i) une séquence de questions de complexi- 1, prérequis qui relève du cours de mathématique. té croissante visant un concept déterminé est choi- L’obstacle est donc détecté, et peut faire l’objet sie dans la base de données ou élaborée si elle est d’une remédiation particulière. inexistante; ii) l’étudiant rencontre ces questions La mise en place de notre dispositif a été très appré- dans un ordre aléatoire; iii) le suivi des performan- ciée des étudiants. Lors de l’évaluation institution- ces des apprenants permet de déterminer les ques- nelle des enseignements, gérée anonymement sur tions qui correspondent à des obstacles qu’ils n’ont la plateforme étudiante de notre établissement7, et pas surmontés; iv) l’analyse des indices édumétri- lors d’enquêtes indépendantes (Vincke, 2010), ils ques permet de déterminer si le problème vient de ont plébiscité à plusieurs reprises ce système, qui la formulation de la question (ambiguë, mauvais selon eux est déterminant tant pour leur apprentis- choix des distracteurs, bonne réponse discutable, sage que pour la réussite de l’examen. Lors d’un question prématurée vis-à-vis de prérequis à ce travail en tandem dans un dispositif encadré, cha- stade de l’apprentissage…) ou de l’appropriation que étudiant doit entrer sa propre réponse et son du concept; v) dans ce dernier cas, une séquence coefficient de certitude. Ainsi, plutôt que de se d’apprentissage est imaginée pour permettre de contenter de copier l’un sur l’autre, les étudiants ont 30 2014 - Revue internationale des technologies en pédagogie universitaire, 11(1) www.ritpu.org
IJTHE • RITPU contourner ou de surmonter l’obstacle en question (Vincke et al., 2013). Andrade, H. J. et Cizek, G. J. (dir.). (2010). Handbook of formative assessment. New York, NY : Rout- Nous développons actuellement une séquence de ledge. questions relative à un obstacle épistémologique qui concerne la compréhension des risques d’er- Bachelard, G. (1938). La formation de l’esprit sci- reurs dans les tests d’hypothèse. Cet obstacle est entifique. Paris, France : Librairie Philosophique lié à la confusion historique des notions d’erreur et J. Vrin. de variabilité, comme dans des expressions consa- Black, P. et Wiliam, D. (2009). Developing the theory crées telles qu’« erreur type » (Depiereux, 2013). of formative assessment. Educational Assess- Nous suspectons par ailleurs que la compréhension ment, Evaluation and Accountability, 21(1), 5-31. de ce concept soit liée aux croyances épistémiques doi:10.1007/s11092-008-9068-5 des étudiants (Schommer-Aikins et Duell, 2013). En bref, le modèle théorique oppose une perspec- Bloom, B. S. (1968). Learning for mastery. Evaluation tive naïve de la connaissance (immuable et détenue Comment, 1(2), 1-12. par l’autorité) à un point de vue sophistiqué (évo- Bloom, B. S., Hasting, J. T. et Madaus, G. F. (1971). lution de la connaissance et de l’aptitude à appren- Handbook on formative and summative evaluation dre, interconnexion des concepts) (Huet et Escribe, of student learning. New York, NY : McGraw-Hill. 2004). Notre objectif est d’étudier la corrélation éventuelle entre le profil de réponse, récolté sur Bouzidi, L. et Jaillet, A. (2007). L’évaluation par les eTests, et le profil de croyances épistémiques ré- pairs pourra-t-elle faire de l’examen une vraie colté dans une version française du questionnaire activité pédagogique? Dans Actes de la con- des croyances épistémiques de Schommer. férence Environnements informatiques pour l’apprentissage humain (EIAH). Récupéré Références del’archive HAL : http://hal.archives-ouvertes.Fr Brousseau, G. (1998). Théorie des situations didac- Albero, B. (2011). Le couplage entre pédagogie et tiques. Grenoble, France : La pensée sauvage. technologies à l’université : cultures d’action et paradigmes de recherche. Revue internationale des Buchanan, T. (2000). The efficacy of a worldwide technologies en pédagogie universitaire, 8(1-2), web mediated formative assessment. Journal of 11-21. Récupéré de http://www.ritpu.org Computer Assisted Learning, 16(3), 193-200. doi:10.1046/j.1365-2729.2000.00132.x Allal, L. (1979). Stratégies d’évaluation formative : conceptions psychopédagogiques et modal- Callear, D. et King, T. (1997). Using computer-based ités d’application. Dans L. Allal, J. Cardinet et tests for information science. Research in Learning P. Perrenoud (dir.), L’évaluation formative dans Technology, 5, 27-31. Récupéré de un enseignement différencié (p. 153-183). Berne, http://www.researchinlearningtechnology.net Suisse : Peter Lang. Calmant, P. (2004). Favoriser l’apprentissage des bi- Allal, L. et Mottier Lopez, L. (2005). L’évaluation ostatistiques par le Web? Essai de problématisation formative de l’apprentissage : revue de publica- d’une question issue du terrain (thèse de doctorat tions en français. Dans OCDE (dir.), L’évaluation non publiée). Facultés universitaires Notre-Dame formative. Pour un meilleur apprentissage dans de la Paix, Namur, Belgique. les classes (p. 265-290). Paris, France : auteur. 10.1787/9789264007420-5-fr 2014 - International Journal of Technologies in Higher Education, 11(1) 31 www.ijthe.org
RITPU • IJTHE Feldt, L. S. (1961). The use of extreme groups to test Calmant, P., Ducarme, M. et Schneider, M. (2011). for the presence of a relationship. Psychometrika, Obstacles a priori à l’apprentissage de l’analyse 26(3), 307-316. doi:10.1007/BF02289799 statistique inférentielle. Statistique et enseigne- Findley, W. G. (1956). A rationale for evaluation of ment, 2(1), 43-59. Récupéré de http://publications- item discrimination statistics. Educational and sfds.math.cnrs.fr/index.php/StatEns Psychological Measurement, 16(2), 175-180. Carver, R. P. (1974). Two dimensions of tests: Psy- doi:10.1177/001316445601600201 chometric and edumetric. American Psychologist, Gibson, E. J., Brewer, P. W., Dholakia, A., Vouk, M. A. 29(7), 512-518. doi:10.1037/h0036782 et Bitzer, D. L. (1995). A comparative analysis of Chevallard, Y. (1978). Problèmes de surdétermination web-based testing and evaluation systems (rapport en didactique : la notion de moyenne en statistique. no 27695-8206). Raleigh, NC: North Carolina State Document inédit, Laboratoire de psychologie du University. Récupéré du site CiteSeerX : travail du Cnam, département de mathématique, http://citeseerx.ist.psu.edu UER de Luminy et IREM d’Aix-Marseille. Gilles, J.-L. (2002). Qualité spectrale des tests stand- Chevallard, Y. (1999). L’analyse des pratiques ensei- ardisés universitaires (thèse de doctorat non pub- gnantes en théorie anthropologique du didactique. liée). Université de Liège, Belgique. Recherches en didactique des mathématiques, Hotte, R., Basque, J., Page-Lamarche, V. et Ruelland, 19(2), 221-265. D. (2007). Ingénierie des compétences et scénarisa- Chopin, M.-P. (2005, octobre). Le temps didactique en tion pédagogique. Revue internationale des tech- théorie anthropologique du didactique : quelques nologies en pédagogie universitaire, 4(2) 38-56. remarques méthodologiques à propos des moments Récupéré de http://ritpu.org de l’étude. Communication présentée au 1er congrès Huet, N. et Escribe, C. (2004). Croyances épistémiques, international sur la Théorie anthropologique du buts d’accomplissement de soi et engagement didactique [TAD], « Société, école et mathéma- dans l’utilisation d’un média électronique chez des tiques : apports de la TAD », Baeza, Espagne. étudiants. Revue des sciences de l’éducation, 30(1), Récupéré du site du congrès : 177-196. doi:10.7202/011776ar http://www4.ujaen.es/~aestepa/TAD-frances Jaillet, E. (2012). C2i2e à distance : l’activité de De Campos, M. (1990). Outils diagnostiques et ensei- l’étudiant est-elle représentative de son évaluation? gnement assisté par ordinateur. Mesure et évalua- Revue internationale des technologies en péda- tion en éducation, 13(3), 55-69. gogie universitaire, 9(1-2), 100-110. Récupéré de Depiereux, E. (2013). De la variabilité aux risques http://ritpu.org d’erreur. Analyse critique des résultats expéri- Kelley, T. L. (1939). Selection of upper and lower mentaux et de la fiabilité d’une décision clinique. groups for the validation of test items. Jour- Namur, Belgique : Presses universitaires de Namur. nal of Educational Psychology, 30(1), 17-24. Doise, W., Mugny, G. et Perret-Clermont, A. N. (1975). doi:10.1037/h0057123 Social interaction and the development of cognitive Laveault, D. et Grégoire, J. (2002). Introduction aux operations. European Journal of Social Psychol- théories des tests en psychologie et en sciences ogy, 5(3), 367-383. doi:10.1002/ejsp.2420050309 de l’éducation (2e éd.). Bruxelles, Belgique : Ebel, R. L. (1965). Measuring educational achieve- De Boeck. ment. Englewood Cliff, NJ : Prentice Hall. 32 2014 - Revue internationale des technologies en pédagogie universitaire, 11(1) www.ritpu.org
Vous pouvez aussi lire