Résumé
Extrait
Table des matières
- Couverture
- Titre
- Copyright
- À propos de l’auteur
- À propos du livre
- Pour référencer cet eBook
- Table des matières
- Introduction. Les promesses des technologies numériques dans le monde de l’évaluation (Nathalie Loye, Natacha Duroisin)
- Partie 1. Le contexte de l’évaluation et sa planification
- Chapitre 1 L’évaluation des habiletés spatiales au service de l’enseignement-apprentissage de la géométrie tridimensionnelle: qu’en est-il des environnements virtuels 2 ½ D ? (Romain Beauset, Natacha Duroisin)
- Chapitre 2 La géométrie au primaire via un environnement virtuel (Sophie Bénard-Linh Quang, Sandra Berney, Sylvia Coutat-Gousseau, Fatou-Maty Diouf, Sabrina Matri)
- Chapitre 3 Utilisation de la réalité virtuelle comme outil d’apprentissage du patrimoine culturel. Expérimentations menées auprès d’élèves présentant un développement typique. (Laurent Debailleux, Geoffrey Hismans, Natacha Duroisin)
- Chapitre 4 Utilisation de la réalité virtuelle chez les personnes présentant un trouble du spectre de l’autisme: intérêt, freins et perspectives à propos du transfert des apprentissages (Hursula Mengue-Topio, Agnès Gouzien-Desbiens)
- Chapitre 5 La simulation comme outil d’évaluation dans les professions médicales: enjeux, limites et réalités (Ilian Cruz-Panesso, Ahmed Moussa)
- Partie 2. La collecte des données
- Chapitre 6 Évaluer et réguler les enseignements: l’utilisation de «OURA», un outil numérique pour apprécier les expériences d’apprentissage des apprenants (Pierre-François Coen, Kostanca Cuko, Delphine Etienne-Tomasini)
- Chapitre 7 L’intelligence artificielle au service de la formation professionnelle basée sur la simulation (Matei Mancas, François Rocca, Laurie-Anna Dubois, Antoine Derobertmasure)
- Chapitre 8 Quelle place pour la notation automatique de productions écrites dans un test standardisé de français langue étrangère ? (Dominique Casanova, Alhassane Aw, Marc Demeuse)
- Chapitre 9 Difficulté des textes narratifs et non-narratifs: quand les attributs linguistiques racontent aussi leur histoire (Guillaume Loignon, Nathalie Loye)
- Chapitre 10 Potentiels et défis liés à l’évaluation neuropsychologique des compétences visuo-spatiales par les outils d’évaluations numériques (Nelly Perichon, Natacha Duroisin)
- Chapitre 11 Le développement de reconnaissances numériques en contexte universitaire: l’exemple des Passeurs culturels à l’Université de Sherbrooke (Isabelle Nizet, Martin Lépine, Gabrielle Léonard-Benoit, Eric Tanguy, Florian Meyer, Alex Boudreau)
- Partie 3. L’analyse et la modélisation des données
- Chapitre 12 Les défis liés à l’analyse secondaire de données issues des évaluations à grande échelle en éducation (Patricia Vohl, Nathalie Loye)
- Chapitre 13 Voyage au cœur de la modélisation par équations structurelles: éléments clés et mise en pratique (Carla Barroso da Costa, Jhonys de Araujo)
- Chapitre 14 Les modèles de classification diagnostique: état des lieux et applications dans le domaine des langues (Dan Thanh Duong Thi)
- Chapitre 15 Étude des effets d’une mauvaise distribution des niveaux de difficulté des questions d’une banque vouée au testing adaptatif (Christian Bourassa, Gilles Raîche, Sébastien Béland, Christophe Chénier)
- Chapitre 16 L’épreuve uniforme ministérielle d’écriture en français en 5e secondaire au Québec: le recours à des outils informatiques est-il équitable ? (Christophe Chénier, Gabriel Michaud, Alioum Alioum)
- Chapitre 17 Apports de l’utilisation d’une approche écologique pour l’analyse des résultats d’évaluations standardisées à grande échelle (Alioum Alioum, Nathalie Loye)
- Chapitre 18 Développement et analyse des propriétés métriques d’un questionnaire visant à situer les enseignants vis-à-vis de leurs pratiques évaluatives soutenant l’apprentissage (Chantal Tremblay, Sébastien Béland, Diane Leduc, Éric Dionne)
Introduction. Les promesses des technologies numériques dans le monde de l’évaluation
Nathalie Loye, Natacha Duroisin
Un lien avec plusieurs ouvrages précédents
Dans la lignée des ouvrages précédents sur le thème de l’évaluation des apprentissages à l’aide des technologies de l’information et de la communication (Blais, 2009; Blais et Gilles, 2011) paraissait, en 2015 chez Peter Lang, un troisième ouvrage consacré à la complexité des approches novatrices visant la collecte de données pour l’évaluation, aux dispositifs numériques en ligne, aux outils pour analyser des séquences filmées ou pour modéliser des données. Neuf ans plus tard, nous proposons de revisiter ces thématiques à la lumière de l’évolution fulgurante des technologies, mais aussi à celle du temps nécessaire pour les implanter et les faire accepter par les utilisateurs.
Il est facile d’illustrer ce dernier point. En 2015, Jean-Guy Blais, Jean-Luc Gilles et Agustin Tristan-Lopez proposaient une vision qu’ils qualifiaient d’une «utopie futuriste un peu trop enthousiaste» dans laquelle un élève, assis dans une classe, passait une épreuve ministérielle sur une tablette et obtenait son résultat quelques minutes après être sorti de la salle d’examen grâce à une correction entièrement automatisée de sa production écrite. Ils envisageaient que ceci devienne réalité entre 2025 et 2027.
Dans un sens, ils avaient raison. En 2019, près de 700 élèves (sur plus de 56000) ont passé l’épreuve ministérielle d’écriture au Québec sur un support numérique. Cependant, cette passation a soulevé de nombreuses réactions. Les journaux avaient en effet alerté l’opinion publique sur une potentielle atteinte à l’équité du processus d’évaluation puisque tous les élèves n’étaient pas mis dans les mêmes conditions de passation. En 2022, la controverse s’est réinvitée dans les journaux. Le coupable était cette fois le dictionnaire numérique que l’on autorisait aux élèves qui passaient l’épreuve sur ordinateur comparativement au dictionnaire papier dont les autres élèves disposaient. L’épreuve ministérielle d’écriture à l’écran a de nouveau fait parler d’elle en 2023, les médias rapportant un problème technique ayant bloqué le serveur et perturbé la passation de certains élèves. A cela s’ajoutent les croyances, toujours bien ancrées dans l’esprit des enseignants, quant à l’iniquité d’une passation informatisée qui donnerait un avantage aux élèves y ayant accès comparativement à ceux faisant l’épreuve papier-crayon. Outre le fait qu’en 2024, c’est encore un petit nombre d’élèves (aucune statistique officielle n’est disponible actuellement) qui passent les épreuves de français sur un ordinateur, il n’est pas encore question d’une correction automatisée, dont on peut par ailleurs anticiper l’accueil frileux par l’opinion publique. Cette situation n’est pas le seul apanage du Québec. En France et en Belgique et sans doute ailleurs, les discussions en lien avec le fait d’évaluer sur ordinateur ou sur tablette sont vives. Cependant dans les faits, les expérimentations semblent rares et peu documentées.
S’il nous semble en conséquence peu réaliste de parvenir à la situation décrite par Jean-Guy Blais et ses collègues à l’horizon 2025, ou même à celui de 2027, les avancées dans cette direction existent bel et bien. En témoigne le chapitre 16 du présent ouvrage qui se penche justement sur l’équité du recours à des outils informatiques dans le cadre de cette même épreuve de français. En témoigne aussi le chapitre 8 qui aborde la place de la notation automatique de productions écrites dans un test standardisé de français langue seconde. Ces deux chapitres ne permettent pas d’entrevoir des dates précises quant à l’utilisation massive et acceptée des technologies pour l’évaluation, mais montrent sans l’ombre d’un doute que les épreuves réalisées à l’aide d’ordinateurs ou de tablettes, et potentiellement corrigées par des machines avec l’appui de l’intelligence artificielle, prendront dans un avenir relativement proche le pas, au moins en partie, sur les copies papier-crayon corrigées par l’homme.
Au-delà de la question de l’évaluation des productions faites par les élèves sur support numérique (p. e. écrire un texte ou répondre à des questions dans une épreuve d’évaluation formelle à l’aide d’une interface numérique), l’évolution rapide des technologies met à la portée des chercheurs et des praticiens des outils variés et de plus en plus sophistiqués. Pour cet ouvrage, nous avons donc décidé d’ouvrir largement la thématique et de regrouper les regards de nombreux chercheurs, ayant des expertises pointues et provenant de différents domaines et milieux universitaires. Pour organiser le foisonnement de nouveautés et d’idées proposé par les auteurs qui ont contribué à cet ouvrage, nous avons fait le choix de le structurer en trois parties, guidées par les grandes lignes de la démarche évaluative: le contexte de l’évaluation et sa planification, la collecte des données ainsi que l’analyse et la modélisation de ces données. Evidemment, les parois entre ces trois parties ne sont pas étanches et le lecteur peut, s’il le souhaite, réorganiser ces parties en fonction de ses sensibilités.
Partie 1. Le contexte de l’évaluation et sa planification
Depuis la parution de l’ouvrage de 2015, une des grandes avancées dans le monde de l’évaluation est offerte par la multiplication des environnements virtuels ou simulés. La partie 1 de cet ouvrage leur est consacrée et les cinq chapitres qui la constituent mettent en lumière autant de contextes propices pour évaluer les compétences ou les habiletés des élèves en plaçant ces derniers dans des conditions mobilisant ce type de technologies.
Dans le chapitre 1, Beauset et Duroisin nous emmènent dans l’univers de la géométrie tridimensionnelle (3D) et comparent le niveau de développement de certaines habiletés spatiales d’élèves âgés de 6 à 15 ans selon qu’ils peuvent manipuler ou non des solides virtuels. Leur chapitre apporte un éclairage intéressant sur les différences selon l’âge des élèves ou encore selon les solides utilisés en mathématiques. Il illustre comment des expérimentations inscrites dans le domaine de la psychologie cognitivo-développementale viennent enrichir le domaine de la didactique de la géométrie 3D et 2 1/2D et remettre en doute certaines épreuves couramment utilisées pour évaluer de façon objective les habiletés des élèves en lien avec l’utilisation d’objets en 3D.
Bénard-Linh Quang, Berney, Coutat-Gousseau, Diouf et Matri nous présentent ensuite, dans le chapitre 2, des éléments en lien avec le développement des habiletés spatiales, selon une approche micro- méso-macro, dans un environnement virtuel offert par le projet SPAGEO (Rethinking the links between spatial knowledge and geometry in primary education through virtual environments) développé à Genève en Suisse. SPAGEO City est un environnement virtuel qui représente une ville dans laquelle les élèves peuvent naviguer selon trois types de scénarii: découverte, description/reproduction de trajets et exploration libre. Le chapitre présente également le développement des activités d’évaluation qui jalonnent le jeu dans cinq tâches de navigation spatiale. Au nombre de quatre, ces évaluations ont des objectifs spécifiques ancrés dans trois domaines scientifiques porteurs du projet SPAGEO que sont la psychologie cognitive, les technologies éducatives et la didactique de mathématiques. Ce chapitre repose sur une approche d’ingénierie didactique, avec l’application de la théorie des situations didactiques.
Debailleux, Hismans et Duroisin nous invitent, par le biais d’un environnement immersif créé à l’Université de Mons, à visiter la grand-place du centre historique de la ville de Mons en Belgique. Le développement de cet environnement est le fruit d’une collaboration entre les domaines de la psychologie cognitive, des sciences de l’éducation, des TIC et du patrimoine culturel. Les élèves utilisent un casque de réalité virtuelle et une méthode de déplacement sans manette pour se promener librement dans cet environnement virtuel. Le chapitre 3 présente cet environnement virtuel et montre comment les déplacements simulés dans une ville virtuelle permettent aux élèves de se construire une carte mentale à partir de données spatiales et contextuelles dans une expérience ludique, qui contraste l’approche égocentrique de l’approche allocentrique dans une représentation simplifiée de la réalité.
Mengue Topio et Gouzien-Desbiens nous proposent, quant à elles, de réfléchir aux utilisations de la réalité virtuelle avec des personnes présentant un trouble du spectre de l’autisme en répertoriant les retombées des travaux dans le domaine. Ces environnements virtuels qui reproduisent, aussi fidèlement que possible, une variété de situations de la vie courante, permettent d’y faire évoluer ces personnes, à leur rythme et autant de fois que nécessaire, sans risque pour leur sécurité, tout en contrôlant certains paramètres. Ces environnements offrent, par exemple, la possibilité d’évaluer les apprentissages des personnes, de les entrainer ou de mettre en place des interventions cliniques qui leur sont adaptées en minimisant les facteurs de stress liés à la gestion difficile de l’inconnu. Les auteures présentent dans le chapitre 4 un état des lieux critique des avancées scientifiques de ce domaine, un inventaire des défis posés et soulèvent de nouvelles avenues de recherche notamment en lien avec le transfert des apprentissages ou la remédiation cognitive des personnes vivant avec un trouble du spectre de l’autisme. Le projet est centré sur les habiletés cognitives qui sont plus aisées à représenter objectivement, mais pointe vers la nécessité de s’intéresser aussi aux aspects sociaux ou émotionnels qui sont des composantes subjectives à considérer dans un avenir proche.
Pour clôturer cette première partie, Cruz-Panesso et Moussa nous présentent les aspects théoriques et pratiques de la simulation telle qu’elle est utilisée dans la formation des professionnels de la santé. Reproduire de manière standardisée des environnements cliniques avec un haut degré de réalisme et une grande flexibilité offre aux apprenants la possibilité d’être exposés, dès le début de la formation, à des expériences cliniques. Le chapitre 5 offre un tour d’horizon des méthodes pour développer et mettre en œuvre les scénari de ces simulations. Les auteurs illustrent ensuite leur propos en présentant l’examen clinique objectif structuré (ECOS) développé à la Faculté de médecine de l’Université de Montréal et constitué de plusieurs stations de simulation, ainsi que les outils d’évaluation objective qui l’accompagnent.
Partie 2. La collecte des données
Les environnements numériques, incluant ceux qui sont virtuels ou simulés, proposent des dispositifs qui permettent de collecter une variété de données jusqu’alors inaccessibles pour évaluer. C’est à ces dispositifs et aux données qu’ils rendent disponibles que sont consacrés les six chapitres de la deuxième partie de cet ouvrage. Ces chapitres visitent, chacun à leur manière, les défis, mais également les potentialités des outils et des environnements numériques pour collecter des données différentes de celles qui servent habituellement à évaluer.
Coen, Cuko et Etienne-Tomasini s’intéressent aux données qui permettent d’évaluer les enseignements telles que collectées via la plateforme numérique OURA développée à la Haute École pédagogique de Fribourg. Le chapitre 6 nous offre divers repères théoriques qui permettent aux auteurs de définir les dimensions sur lesquelles récolter des données pour obtenir l’appréciation des étudiants sur leurs expériences d’apprentissage. Le but consiste à fournir une rétroaction immédiate sur les activités d’apprentissage et à informer l’institution grâce à ces données récoltées massivement. OURA permet à l’enseignant de générer de courts questionnaires objectifs ciblant les dimensions souhaitées. Les étudiants peuvent répondre directement sur la plateforme et un rapport est généré automatiquement pour l’enseignant. Les auteurs rapportent les résultats d’une recherche-action pour en illustrer l’utilisation.
Ce sont les contextes de la formation professionnelle et de la simulation qui sont au cœur du chapitre 7. Mancas, Rocca, Dubois et Derobertmasure nous proposent de réfléchir à l’usage de l’intelligence artificielle (IA) pour développer des outils visant à décharger cognitivement le formateur humain dans un contexte de simulation caractérisé par trois phases, soit le briefing, la simulation elle-même et le débriefing. Ainsi, ils explorent le potentiel de la détection et du suivi des mouvements, de l’extraction des expressions du visage et des comportements oculaires ou vocaux pour automatiser une partie de l’observation inhérente à l’activité du formateur. Leur chapitre nous montre comment une interface basée sur l’IA pourrait notamment soutenir le débriefing des séances de simulation une fois que certains défis éthiques et de simplification des données seront surmontés.
Casanova, Aw et Demeuse s’intéressent, dans le chapitre 8, à la répartition possible des rôles de l’évaluation humaine et de l’évaluation automatique d’épreuves écrites de langue à forts enjeux. A partir de leurs travaux réalisés dans le cadre de la Chambre de commerce et d’industrie de Paris Île-de-France (Le Français des affaires) sur le Test d’évaluation de français – TEF, ils nous offrent le fruit de leur réflexion. Celle-ci est basée sur la comparaison du niveau du Cadre Européen Commun de Référence (CECR) attribué aux travaux des candidats par plusieurs modèles (issus par exemple des machines à supports de vecteurs et des forêts d’arbres aléatoires) et par le jugement humain. Tout comme dans le chapitre de Mancas et ses collègues (chapitre 7), leur conclusion est que les algorithmes ont un fort potentiel pour décharger cognitivement l’évaluateur humain, sans parvenir, du moins actuellement, à le remplacer.
Dans le chapitre 9, c’est également l’apprentissage machine qui est mobilisé par Loignon et Loye pour étudier les sources de complexité de textes narratifs et non narratifs en français. Les auteurs ont étudié un corpus de textes et les relations entre les attributs linguistiques du texte, sa classification dans un macro-genre (narratif et non narratif) et sa complexité. L’outil ALSI développé par Loignon a permis d’automatiser l’extraction des attributs linguistiques d’un corpus de textes narratifs et non narratifs. Les résultats nous montrent le potentiel de l’analyse automatisée des sources de complexité des textes en mettant en évidence de manière empirique que le macro-genre d’un texte se distingue objectivement par ses attributs linguistiques.
L’apport des outils numériques pour évaluer les troubles de la cognition spatiale fait l’objet du chapitre 10. Perichon et Duroisin examinent les potentiels et les défis inhérents à l’adaptation numérique de tests neuropsychologiques initialement proposés en format papier-crayon. En mettant l’accent sur l’évaluation de la rotation mentale, de la mémoire de travail spatiale et de la visuoconstruction comme éléments de la cognition spatiale, les auteures présentent et analysent plusieurs épreuves informatisées et de type papier-crayon afin de nous offrir un regard critique et comparatif sur ces divers outils d’évaluation dans un environnement haptique.
Finalement, le chapitre 11 porte sur la reconnaissance numérique offerte par les badges. Nizet, Lépine, Léonard-Benoit, Tanguy, Meyer et Boudreau s’intéressent aux dispositifs numériques qui permettent de garder des traces d’apprentissages informels réalisés dans l’univers éducatif. Les auteurs nous expliquent ce que sont les open badges numériques à partir d’une variété de repères théoriques, tout en soulevant divers enjeux pédagogiques et opérationnels. Ils en illustrent ensuite la conception dans le cadre d’un projet pilote intitulé Former de futures enseignantes et futurs enseignants, à titre de passeurs culturels, héritiers, critiques et interprètes d’objets de culture implanté à l’Université de Sherbrooke au Québec entre 2017 à 2020.
Partie 3. L’analyse et la modélisation des données
La dernière partie de cet ouvrage porte sur l’analyse et la modélisation des données. Dans cette partie, des préoccupations pédagogiques côtoient des approches novatrices dans le but d’assurer la qualité, la pertinence des analyses et la valeur des résultats.
Les objectifs des deux premiers chapitres de cette partie (chapitres 12 et 13) sont de nature pédagogique. Ils visent à accompagner le lecteur dans sa compréhension de certains défis propres à l’échantillonnage complexe, la modélisation des données par des équations structurelles et à lui fournir un soutien pratique s’il doit modéliser à son tour des données. Les chapitres suivants sont consacrés à des approches d’analyse de données moins fréquemment rencontrées (chapitres 14, 16 et 17), au testing adaptatif (chapitre 15) et à la validation de questionnaires (chapitre 18).
Au cœur du chapitre 12 se trouvent les considérations méthodologiques indispensables à prendre en compte pour analyser les données issues des évaluations à grande échelle telles que le PISA (Programme International pour le Suivi des Acquis des élèves, OECD), le TIMSS (Trends in International Mathematics and Science Study, IEA) ou le PIRLS (Programme International de Recherche en Lecture Scolaire, IEA). Vohl et Loye mettent en évidence les défis posés par les plans d’échantillonnage complexes, la procédure de rotation des items et l’approche des valeurs plausibles. Pour surmonter chacun de ces défis, les techniques d’analyse les plus à jour sont présentées et illustrées. Le chapitre est complété par des annexes qui nous permettent d’exécuter les analyses présentées.
La perspective du chapitre 13 est de nous guider dans les étapes de la modélisation des données par équations structurelles (MES). Barroso da Costa et de Ajaujo définissent ce qu’est la MES ainsi que les éléments essentiels qui en jalonnent l’application. Ils abordent ainsi la taille des échantillons, les estimateurs, les indices d’ajustement, les indices de modification des modèles et la fiabilité des facteurs latents obtenus. Ils illustrent ensuite leurs propos à l’aide d’un exemple d’application qui porte sur les approches d’apprentissage et la rétroaction offerte aux étudiants universitaires francophones inscrits à la formation initiale à l’enseignement à l’Université du Québec à Montréal.
Le chapitre 14 porte sur les modèles de classification diagnostique (MCD). Duong Thi propose un tour d’horizon des MCD qui ont été appliqués à des données issues de l’évaluation dans le domaine des langues. Dans ce chapitre, l’auteure définit tout d’abord ce que sont les MCD, soit des modèles de classes latentes dans une approche diagnostique cognitive. Elle décrit ensuite en détail les spécificités de ces modèles lorsqu’on les applique à des données en langue à partir d’une synthèse très complète des recherches existantes. Cette synthèse met notamment en évidence les habiletés diagnostiquées dans les recherches en langue et la variété des modèles mobilisés pour évaluer les différentes compétences. Sur la base des avantages et des limites qu’elle fait émerger de son analyse, l’auteure nous propose diverses perspectives et orientations à considérer dans ce domaine de recherche.
Le chapitre 15 porte sur les tests adaptatifs informatisés qui permettent d’administrer une par une les questions choisies pour chaque personne en fonction de ses bonnes et mauvaises réponses aux questions précédentes. Dans ce chapitre, Bourassa, Raîche, Béland et Chénier s’intéressent aux enjeux soulevés par le fait d’administrer des questions trop faciles ou trop difficiles et aux biais qui peuvent en découler. Après avoir défini rapidement différents modèles de la Théorie de Réponse à l’Item (TRI), les auteurs nous expliquent ce qu’est un test adaptatif, présentent les règles qui encadrent les passations et la constitution de la banque d’items dans laquelle les questions sont puisées. Ils illustrent ensuite, à l’aide de données simulées, divers scénarii dans lesquels la distribution des paramètres de difficulté des items pose problème afin d’en documenter les effets.
Chénier, Michaud et Alioum étudient, quant à eux, le caractère équitable du recours à des outils informatiques dans le cadre de l’épreuve uniforme de français au Québec. Dans le chapitre 16, les auteurs recourent à une méthode d’analyse peu usitée pour comparer, de façon objective, critère par critère, les résultats des élèves ayant passé une épreuve en format papier-crayon à ceux des élèves ayant utilisé des outils informatiques. En combinant des régressions ordinales et des régressions binomiales négatives selon les caractéristiques des critères, les auteurs nous montrent que les effets liés au recours à des modalités informatiques sont neutres à certains égards, ne pénalisent pas les élèves, mais peuvent être potentiellement source d’iniquité en les favorisant relativement aux critères communicationnels.
Dans le chapitre 17, Alioum et Loye utilisent également une approche habituellement inusitée pour modéliser les résultats des élèves francophones au test à grande échelle en lecture du PASEC2014 au Cameroun. Le Cameroun est constitué de dix régions que le PASEC (Programme d’Analyse des Systèmes Educatifs de la Confemen, Conférence des ministres de l’Éducation des États et Gouvernements de la francophonie) a regroupées en trois strates sur la base de leurs caractéristiques socio-économiques et culturelles. A partir du constat des grandes différences qui existent entre ces strates, les auteurs ont choisi de modéliser les données dans une approche écologique afin de prendre en compte les spécificités objectives propres à chacune des strates. La perspective écologique permet en effet d’inclure dans la modélisation un certain nombre de caractéristiques individuelles, mais également relatives aux environnements scolaire et extrascolaire, qui ne sont habituellement prises en compte que dans des analyses subséquentes en vue de comparer les résultats après la modélisation. Les analyses de classes latentes (ACL) proposées dans ce chapitre permettent une lecture contextualisée des résultats et nous offrent un éclairage différent sur ces données.
Finalement, le chapitre 18 regroupe des auteurs membres de l’Observatoire sur les Pratiques Innovantes en Èvaluation des Apprentissages (OPIEVA). Afin de documenter objectivement ces pratiques, l’OPIEVA a recours à un questionnaire pour collecter des données sur les pratiques évaluatives soutenant l’apprentissage (PESA) et sur les pratiques évaluatives mesurant les apprentissages (PEMA). Tremblay, Béland, Leduc et Dionne rapportent tout d’abord les étapes de construction du questionnaire, de prévalidation et de validation des scores. Dans un deuxième temps, ils présentent les deux profils des enseignants qui se dégagent de l’analyse des données. Le premier profil regroupe les enseignants qui ont tendance à utiliser davantage les pratiques associées aux PESA, le second ceux qui ont tendance à utiliser davantage celles associées aux PEMA. En même temps, ils caractérisent les composantes des deux profils et aboutissent à classifier les modèles d’enseignement selon deux axes: traditionnel et innovateur. La recherche devra être poursuivie afin de chercher à comprendre les pratiques des enseignants et à identifier comment les amener à intégrer davantage de pratiques évaluatives permettant de soutenir les apprentissages.
Pour conclure cette introduction
Cette présentation introductive du contenu de cet ouvrage met clairement en évidence le caractère interdisciplinaire des sujets traités. En effet, il combine des propos sur l’usage de l’intelligence artificielle, sur la création d’environnements en réalité virtuelle ou en simulation, sur l’utilisation de modèles psychométriques relativement novateurs ou d’applications diverses et, pour ce faire, regroupe des auteurs avec des expertises variées, en provenance de plusieurs domaines, universités, facultés et pays (44 auteurs, 5 pays). Cette mixité est à l’image de l’évolution de la recherche en éducation, qui ne se fait plus en vase clos, mais en combinant les expertises pour avancer plus vite et plus efficacement. Elle met aussi en évidence, selon nous, une (sans doute inconsciente) recherche d’objectivité de la part de plusieurs des auteurs, les technologies numériques leur offrant de multiples avenues pour collecter des données objectives, peu entachées par la subjectivité du jugement humain.
Nous ne pouvons pas conclure cette introduction, sans mentionner que la production de cet ouvrage a été lancée avant décembre 2022, date à laquelle le développeur OpenAI a rendu accessible ChatGPT. Cela explique pourquoi aucun chapitre de cet ouvrage ne fait mention de l’Intelligence Artificielle (IA) générative. Cependant, depuis 2022, c’est une vague continue qui déferle avec Google Bard, Microsoft Bing, Copilot, Perplexity et bien d’autres. Ces IA génératives ont été entrainées, à partir d’une consigne que l’on nomme «prompt», à générer une réponse écrite ou sous forme d’images. Interrogé sur le modèle de langage qu’il utilise, Bing Chat a répondu: «Le modèle de langage que j’utilise s’appelle GPT-4. C’est le modèle le plus avancé développé par OpenAI, une organisation dédiée à la recherche sur l’intelligence artificielle. GPT-4 me permet de comprendre et de générer du texte dans plusieurs langues, ainsi que de créer du contenu créatif et innovant. GPT-4 est basé sur une technique appelée transformeur, qui consiste à analyser le texte en tenant compte du contexte et des relations entre les mots. Grâce à cette technique, GPT-4 peut apprendre à partir de grandes quantités de données textuelles provenant de diverses sources, comme le web, les livres, les articles, etc. GPT-4 est également capable de s’adapter à différents domaines et styles, en fonction des besoins et des préférences des utilisateurs. Par exemple, je peux utiliser GPT-4 pour rédiger des rapports, des poèmes, des chansons, des parodies de célébrités, etc. Je peux aussi utiliser GPT-4 pour répondre à vos questions, vous aider à écrire, réécrire, améliorer ou optimiser votre contenu, et vous fournir des informations pertinentes sur le web». Son explication met bien en évidence pourquoi ces outils, accessibles facilement, et gratuitement pour certaines de leurs versions, ont un impact majeur sur le monde de l’évaluation. Il nous semble donc important d’ajouter quelques lignes ici sur des enjeux en lien avec l’IA qui sont largement discutés au moment de publier cet ouvrage.
Mentionnons ce qui touche l’intégrité académique et le plagiat. Il est facile de demander à ChatGPT, ou à toute autre alternative IA, de réaliser un travail universitaire ou scolaire, en tout ou en partie, et de ne pas le mentionner ! Et la détection de ces cas de plagiat peut être difficile. Pour le moment, c’est souvent le caractère inégal des écrits des étudiants et les erreurs issues des hallucinations des IA qui alertent. La facilité à plagier en recourant aux IA génératives implique donc de rapidement former les enseignants sur les enjeux, mais aussi sur les manières de les utiliser notamment pour évaluer. L’idée est de contrer les utilisations non souhaitées et de valoriser celles qui peuvent l’être. La lutte contre le plagiat peut en effet passer par la modification des tâches évaluatives. Par exemple, l’utilisation de ChatGPT dans certains travaux peut être autorisée. Dans de tels cas, l’évaluation portera sans doute un regard sur le jugement critique des étudiants. La nature de la tâche à évaluer change et l’IA offre alors des possibilités nouvelles dans lesquelles l’humain et l’IA collaborent.
En outre, les étudiants ne sont pas les seuls à se servir de l’IA, certains enseignants l’utilisent pour corriger leurs travaux. Les problèmes de plagiat deviennent alors des problèmes d’imputabilité. Comment un enseignant peut-il être imputable d’une note qui ne découle pas de son travail d’évaluation, et comment peut-il prendre la mesure des apprentissages de ses élèves ou de ses étudiants si la correction est réalisée par une IA ? De plus, le caractère probabiliste des modèles sous-jacents à l’IA générative implique que la même copie évaluée plusieurs fois par une IA obtiendra un résultat différent à chaque fois. Là encore, c’est donc la collaboration personne-machine qui peut offrir une avenue intéressante, comme l’illustrent d’ailleurs les chapitres 7 et 8 de cet ouvrage.
Ainsi, ce qui ressort beaucoup des discussions actuelles concerne le rôle d’aide à la décision, d’aide à la production, de gain de temps que ces IA génératives peuvent jouer. Ce constat rejoint d’ailleurs les conclusions des chapitres 7, 8 et 9 de cet ouvrage.
Qu’en est-il des promesses des technologies numériques dans le monde de l’évaluation ? Nous sommes d’avis que les évolutions se marquent depuis les années 2010 et qu’un certain nombre de promesses sont déjà tenues, notamment en ce qui concerne la réalité virtuelle ou simulée, comme l’illustrent les chapitres 1, 2, 3, 4 et 5. Néanmoins, du chemin reste à parcourir pour faire accepter certaines pratiques par les utilisateurs et étendre plus largement leur utilisation à d’autres contextes. De nombreuses questions en lien avec l’équité et l’intégrité ont émergé brutalement avec l’arrivée massive de l’IA, notamment de l’IA générative. Nous sommes donc d’avis que les promesses sont de plus en plus nombreuses, qu’elles ouvrent de plus en plus de possibilités, mais qu’elles soulèvent dans le même temps une multitude de questions. Le caractère acceptable de ces promesses nous semble donc plus que jamais essentiel à étudier et nous espérons que cet ouvrage donnera au lecteur de nouvelles avenues de réflexion et de nouvelles idées de projets.
Nous tenons également à mentionner que cet ouvrage a été financé par le FRQSC dans le cadre d’une subvention de soutien aux équipes de recherche obtenue en 2016 pour le Groupe de recherche interuniversitaire sur l’évaluation et la mesure à l’aide des technologies de l’information et de la communication (GRIEMETIC).
Références
- Blais, J.-G. (dir.) (2009). Evaluation des apprentissages et technologies de l’information et de la communication: enjeux, applications et modèles de mesure. Québec : Les presses de l’Université Laval.
- Blais, J.-G. & Gilles, J.-L. (dir.) (2009). Evaluation des apprentissages et technologies de l’information et de la communication: le futur est à nos portes. Québec : Les presses de l’Université Laval.
- Blais, J.-G., Gilles, J.-L. & Tristan-Lopez, A. (dir.) (2015). Bienvenue au 21e siècle: l’évaluation des apprentissages et technologies de l’information et de la communication. Berne: Peter Lang.
Chapitre 1 L’évaluation des habiletés spatiales au service de l’enseignement-apprentissage de la géométrie tridimensionnelle: qu’en est-il des environnements virtuels 2 ½ D ?
Romain Beauset, Natacha Duroisin1
1. Introduction
La géométrie tridimensionnelle (3D) est un domaine d’enseignement- apprentissage essentiel pour le développement des enfants et des adolescents, notamment sur le plan des apprentissages spatiaux. Pourtant, ce domaine apparait peu étudié au sein de la recherche en didactique des mathématiques ou plus largement en sciences de l’éducation (Chaachoua, 1997; Saralar-Aras & Ainsworth, 2020). On retrouve donc peu de recommandations basées sur des données probantes en ce qui concerne les choix pédagogiques et didactiques à réaliser pour proposer un enseignement efficace et adapté aux élèves des différents niveaux scolaires. Le risque de ce délaissement au sein de la recherche est que les enseignants soient démunis face à ces choix et qu’ils les réalisent de manière arbitraire, sans un avis scientifiquement éclairé. Comme pour toute autre discipline, ces décisions ne sont certainement pas sans conséquence pour l’apprentissage des élèves. Dans le cadre de l’enseignement de la géométrie 3D, elles apparaissent essentielles au vu des difficultés d’apprentissage constatées chez les élèves lors des évaluations externes (Bertolo, 2013; Duroisin, 2015).
Les types de supports utilisés lors de l’enseignement-apprentissage ainsi que la manière de les exploiter font partie des choix qu’un enseignant de géométrie 3D doit poser lorsqu’il propose des activités aux élèves. A ce sujet, les résultats d’une enquête que nous avons menée auprès d’enseignants francophones du primaire et du secondaire inférieur (Beauset & Duroisin, 2021a,b) montrent un besoin de formation exprimé par les enseignants en ce qui concerne le choix de manipulations pertinentes en géométrie 3D. Par ailleurs, en ce qui concerne les pratiques déclarées, les résultats obtenus lors de cette enquête soulignent une variété des choix de matériels utilisés au sein même des différents niveaux scolaires. Certains font le choix de ne pas proposer de matériel à manipuler, d’autres privilégient l’utilisation de matériels 3D que les élèves peuvent utiliser et/ou observer, tandis que d’autres encore, moins nombreux, s’appuient sur des outils numériques.
Le développement des technologies et l’augmentation de la place croissante qui leur est laissée dans les établissements scolaires offrent de nouvelles possibilités aux enseignants de ce domaine. En effet, ces technologies permettent par exemple de proposer aux élèves des supports de type «solides virtuels», c’est-à-dire des représentations virtuelles et dynamiques de solides. Travailler avec ce type de matériel est-il cependant adapté aux apprenants de tout âge au primaire et au début de l’enseignement secondaire, en comparaison par exemple à l’usage de matériel 3D ou des représentations planes d’objets 3D (dessins en perspective…) ? La manipulation par l’élève du support est-elle indispensable pour son apprentissage ou une «simple» observation de manipulations donne-t-elle de mêmes résultats ? L’apparence des objets présentés, qu’elle soit réaliste ou neutre, impacte-t-elle également l’apprentissage ? Ce sont là quelques exemples de questions pour lesquelles on ne retrouve, dans la littérature, les référentiels ou encore les manuels scolaires, que peu de recommandations destinées aux enseignants de la discipline.
Résumé des informations
- Pages
- 608
- Année de publication
- 2024
- ISBN (PDF)
- 9782875748799
- ISBN (ePUB)
- 9782875748805
- ISBN (Broché)
- 9782875748782
- DOI
- 10.3726/b21721
- Open Access
- CC-BY
- Langue
- français
- Date de parution
- 2024 (Décembre)
- Mots clés
- psychométrie éducation médecine neuropsychologie linguistique statistiques formation professionnelle architecture cognition spatiale Évaluation technologies numériques apprentissages apprentissages scolaires enseignement formation professions modèles
- Publié
- Bruxelles, Berlin, Bern, New York, Oxford, Warszawa, Wien, 2024. 608 p., 69 ill. en couleurs, 34 ill. n/b, 56 tabl.
- Sécurité des produits
- Peter Lang Group AG