Evaluation dans les dispositifs techno-pédagogiques https://sites.google.com/view/evadisponumerique/Home Innover Innover, c’est tout simplement faire quelque chose différemment et mieux à l’aide de la connaissance dont on dispose à un moment donné Individu plus L'individu, contrairement aux idées courantes, n'agit pas seul et sa connaissance ne se réduit pas à ce qui se trouve dans sa tête. Perkins (1995) suggère en effet que même l'expert, face à une tâche ardue, n'agit pas seul, mais en individu plus, c-à-d en utilisant des outils de son environnement et son entourage social. Hypothèse d’accès équivalent Le siège de conservation d'une connaissance, que ce soit la mémoire ou un support écrit par exemple, n'a pas d'importance en soi. C'est la facilité d'accès à l'information qui est bien plus cruciale. Des informations se prêtent d'ailleurs mieux à être enregistrées dans un carnet de notes, sur internet,…que dans la mémoire individuelle. Consensor – création par armée américaine en 1977 Le Consensor est un boitier constitué d’un bouton de pondération, d’un bouton de sélection gradué de 1 à 10 et d’une connexion filaire vers un circuit de contrôle central. Les questions sont posées oralement sous la forme de questions à choix multiples. Chaque utilisateur indique sa réponse en tournant le bouton sur la graduation correspondante de 1 à 10. Les résultats sont affichés sur un écran sous la forme d’histogrammes. Outils technologiques Partout autour de nous… Cela devrait être ainsi maintenant en éducation : 1 Et pourtant à l’école Selon le rapport, intitulé "Students, Computers and Learning: Making The Connection", montre que les pays qui ont considérablement investi dans les technologies de l'information et de la communication (TIC) dans l'éducation n'ont enregistré "aucune amélioration notable" de leurs résultats aux évaluations PISA de compréhension de l'écrit, de mathématiques et de sciences (Pisa, 2015). C’est normal ; mauvaise formation, mauvaise utilisation Les élèves utilisent peu le numérique pour la conception. Ils l’utilisent essentiellement PASSIVEMENT, pour les réseaux, les musiques… Ils sont consommateurs et non producteurs. Au niveau des applications, elles sont en constante augmentation. Mais peu pour la recherche, production… 2 Pratiques pédagogiques Si on n’a pas de numérique, on fait des techniques pédagogiques pour voir si cela aide à l’apprentissage. Avec le numérique, on aura une interaction supplémentaire. Il pourra faciliter les pratiques pédagogiques et peuvent soutenir le développement des compétences. Mais cela rend cela complexe. Exemple : quizlet pour apprentissage formatif, duolingo pour apprentissage distribué, … La première chose qui influence notre perception positive des outils numériques : son utilité Enseignement : on ne sait jamais généraliser si on veut évaluer un dispositif, cela dépendra du contexte 3 Différents dispositifs techno-pédagogiques Cycles 3 et 4 Eveil géographique Problème guidé & apprentissage collaboratif Google Earth : Permet un travail de recherche en géographie. Pas utile sans activité prévue, il faut que cela soit guidé. Etudiant à Leuze ont créé des fiches mettant en avant à chaque fois une fonctionnalité de l’application => tâche => côté utilitaire « Retenons en premier lieu la grande motivation des enfants pour interagir avec l'outil numérique : l'enthousiasme était chaque fois au rendez-vous et bien souvent, les séances paraissaient souvent trop courtes aux yeux de tous. Aussi, plusieurs d'entre eux ont poursuivi l'exploration de Google Earth à la maison : ils revenaient alors le lendemain en partageant leurs nouvelles découvertes. Certains ont même initié leurs parents ! Organiser le travail par deux est intéressant : même si on n’a pas la souris en main, on peut apprendre en guidant, observant, conseillant celui qui tient les commandes. Cela suppose, bien évidemment, de développer en amont l'habitude de collaborer en binôme. Travailler avec Google Earth demande d'opérer un va-et-vient constant entre l'espace réel (en 3D) et sa représentation (en 2D). En effet, pour retrouver ma maison (que je connais en 3D), je prends des indices tels que le chemin de fer, l’autoroute, le parc, etc. Ces indices 3D, je dois les rechercher en 2D sur l’image que me donne Google Earth et vérifier, au besoin, en passant de Google Earth à Street View. Ce travail nous semble vraiment aidant pour la lecture de cartes, tâche souvent difficile car le lien avec le réel est à construire. Google Earth permet donc de jeter des ponts entre l'espace connu et sa représentation abstraite » Watthez & Derrider (2014) Scratchjunior : Prof apporte des fiches en plus. Cela permet une manipulation et une collaboration en plus. On prédit les choses, on teste papier puis on encode. Complémentarité avec les autres outils Robot orientation : Idem 4 Google forms : On propose aux élèves de résoudre une série d’exercices dessus avec feedback. On constate que si les élèves visualisent leurs réponses (compte rendu), ils réussissent mieux (grain relatif) la fois d’après. Plickers (scan) : Tableau à double entrée permet de visualiser quelle question fut un problème, les atouts de chaucun => remédiation plus facile, on sait cibler ce qu’il faut. Dropbox & audio splitter : Travailler le savoir écouter en faisant de la collaboration. Ecouter un truc seul et répondre seul : on ne s’améliore pas, niveau toujours le même. Or collaboration : évolution Curieux : amélioration également ! du savoir-lire Judo : Hors contexte scolaire. Quand on travaille avec un tutorat augmenté avec des technologies, cela fonctionne mieux car ils ont pu observer la qualité de leur geste. « Il devient alors plus facile pour les étudiants, en se voyant, d'analyser leurs mouvements et de comprendre ce qu'il reste à améliorer du côté technique. La rétroaction que je fais en classe (ou celle de son coéquipier) est plus précise, et enfin possible pour tous ! Nous pouvons davantage tenir compte des forces et faiblesses de chacun. L'intervention est plus rapide, le visionnement étant instantané. » Cloutier (2012) Sic’estpasmalheureux : qq’un travaille en inversant la classe inversée. Eleves écrivent eux-mêmes leur capsule. Ils créent leur histoire, leur matière, ils donnent une explication aux autres. « L’aspect technique ayant quasiment disparu, on s’est concentré sur le fond ! Les story-boards ont été accueillis comme le messie et finalement le plus gros du travail et de la réflexion s’est fait à l’oral entre les élèves et sur une fiche de papier. Preuve que cette app est un catalyseur mais pas une fin en soi. Et ça je pense pense que les élèves s’en s’ont très vite rendu compte. Ce qui prime ce sont les idées, et la façon dont on les organise. Voice oblige les élèves à être au clair, à argumenter entre eux. La production 5 du « chef d’oeuvre » (dans son sens premier) est une vraie motivation. Ajoutez à cela la dimension communicative de la publication sur Twitter et collaborative de la création de contenu par et pour la classe… » Badge Moodle : Dispositif en ligne, reçoit un badge en testant leurs connaissances => autoévaluation + collaboration (on peut s’entrainer en voyant ce que les autres ont comme badge) Chatbots Exploration de la possibilité d’utiliser l’intelligence artificielle pour la personnalisation de feedbacks et relance Variable pour évaluer un dispositif La logique des 3P Processus (qualité) Collaboration, interactions, test formatif, messages postés, consultation des ressources, temps de connexion Produit Gain relatif, réalisation des tests, test sommatif Perception Motivation, utilité, avis, utilisabilité 6 Démarche qualité !!!! On est toujours dans l’étape 1 ou l’étape 2. 1. 2. 3. 4. Concevoir Mettre en œuvre Evaluer Réguler Learning analytics Siemens & Long (2011, p.31) définissent les Learning analytics comme « la mesure, la collection, l’analyse et l’interprétation des traces des apprenants et de leurs contextes, pour comprendre et optimiser leur apprentissage dans l’environnement dans lequel il se produit. » Le niveau « micro » concerne un dispositif de formation spécifique dans un contexte donné. Le niveau méso concerne l’analyse des traces au sein d’une même institution et le niveau macro fait référence à un terrain d’investigation à une plus large échelle comme un système éducatif. Etudier des outils contextualisés – on récolte des traces, on analyse, on récupère de l’information Tableau dillenbourg 7 Alignement pédagogique On a un contenu et à partir de celui-ci, on crée des tâches, des objectifs et des outils d’évaluation Ces éléments de base doivent être utilisé même dans un contexte numérique Une méta-analyse C’est une démarche statistique combinant les résultats d'une série d'études dépendantes sur un problème donné. La méta-analyse permet une analyse plus précise des données par l'augmentation du nombre de cas étudiés et de tirer une conclusion globale. Environnement numérique d’apprentissage 1. Tâches Il faut générer des tâches d’apprentissage 2. Modalités d’encadrement Proactif / réactif 3. Outils et ressources 4. Gestion du temps 5. Organisation du groupe On peut choisir groupe, équipe, seul, en présence ou à distance, puis on peut les regrouper … On peut scénariser. Avec le numérique, on peut créer un scénario montrant l’évolution du groupe en fonction du temps 8 « Quelle est la qualité des produits de l’apprentissage » ? On a du contenu. Généralement, on créé une innovation et on s’intéresse pas à la qualité du produit. Or ça doit être la première chose à laquelle penser. « Est-ce qu’ils apprennent mieux ? » On a 4 variables pour caractériser ces outils (qualité) : progression, niveau de maitrise, transfert, équité « Quels processus d’apprentissage induit le dispositif » On a 4 variables pour évaluer le processus (qu’ont-ils fait ?) : réalisation, temps engagé, usages, interactions (grâce aux traces on essaie de comprendre le processus d’apprentissage, on analyse) La compétence ne peut se voir et se mesurer qu’à travers l’empreinte qu’elle laisse dans sa mise en œuvre. Cette empreinte peut prendre la forme d’indices, de signes perçus lors d’observations ou d’artefacts laissés par l’action elle-même. Nous utilisons ici le terme générique de trace pour évoquer toutes les formes possibles de cette empreinte. 9 « Comment les acteurs perçoivent-ils le dispositif » On a 5 variables pour évaluer la perception : utilité, satisfaction, efficacité, motivation engagement, utilisabilité contrabilité « Quels liens entre les variables du processus et la qualité des produits de l’apprentissage » On le fait rarement mais important. J’ai des gains d’apprentissage et j’essaie de voir s’il n’a pas des comportements (pratiques pédagogiques) qui expliquent des progressions « Comment les acteurs perçoivent-ils leur processus dans le dispositif ? Avec quelle cohérence ? Que pensent les apprenants de ce qu’ils font au cours du processus, ce qui a été apprécié ou non « Comment les acteurs perçoivent-ils les produits de l’apprentissage ? Avec quelle cohérence ? » Que pensent les apprenants de ce qu’ils ont produit « Les perceptions, les produits, les processus sont-ils influencés par les caractéristiques initiales ? » 2 Types de recherche Appliquée : plupart des recherches en sciences de l’éducation. Parfois on peut grâce à l’application refaire une loi générale Je teste une situation pédagogique en contexte réel Fondamentale : on essaie de formuler des lois générales Je formule de nouvelles règles Hattie : grâce aux démarches 10 Pourquoi évaluer ? A partir du modèle, on peut faire 4 analyses possibles. De la rétrospection à l’anticipation. « Comment faire pour que cela se produise » exemple : apprentissage adaptatif, on prend les traces pour voir ce qu’il faut à l’apprenant (on anticipe) On voit dans les recherches le plus souvent des analyses descriptives et diagnostiques. Les analyses prédictive et prescriptive sont plus difficiles mais ont plus de valeur Il n’est pas obligé d’user de toutes les variables pour réaliser un travail. Ce sont des pistes, tout ce qui est possible d’évaluer. PLAN 11 Introduction 1.1 Recherche appliquée vs recherche fondamentale Dans la littérature, un relatif consensus existe autour de l’idée que l’évaluation est cruciale en éducation (Crahay, 1999). Si son but premier est de prendre des informations à différents moments de l’apprentissage pour mesurer les acquis des élèves, elle permet pour un enseignant dans une perspective de « processus qualité » de disposer d’informations pour faire évoluer les dispositifs qu’il met en oeuvre au quotidien. Cette prise de recul est importante dans la mesure où le dispositif est souvent réutilisé et remis en oeuvre au fil du temps. Elle permet de dépasser la logique de "nous croyons" et d'aboutir à de nouvelles connaissances sur l'apprentissage...nous permettant de dire "nous savons". Cette logique induit que la recherche soit adossée aux pratiques pédagogiques comme l'est la pratique médicale. En référence à la typologie de Van Der Maeren (1997), cette articulation revêt clairement un enjeu pragmatique avec la recherche de solutions fonctionnelles pour l’apprentissage et peut être associée à la recherche appliquée. Evaluer un dispositif peut également concerner le chercheur en éducation dans la perspective de contribuer à une meilleure connaissance des conditions d’apprentissage et ainsi produire de nouveaux savoirs. Ce type d’approche concerne alors davantage la recherche fondamentale. Le cours "évaluation dans les dispositifs techno-pédagogique" s'oriente davantage vers une logique de recherche appliquée. Il a pour objet de mettre en évidence les différents questionnements possibles pour un chercheur et pour un enseignant autour des effets d’un dispositif d’apprentissage dans un contexte donné. Dans les deux perspectives, la recherche reste toujours une tentative de réponse instrumentée à une question ou à plusieurs questions qu'on estime pertinente(s) (Reuter, 2017). Dans le cadre de ce cours, ce questionnement portera sur les environnements numériques pour l'apprentissage humain. 1.2 Qu’entend-on par environnement numérique d’apprentissage ? Avant de décrire ces propositions méthodologiques, il nous semble pertinent de préciser tout d’abord le concept d’environnement d’apprentissage. Pour Lebrun (2005), il peut se définir comme un ensemble cohérent constitué de ressources, de stratégies, de méthodes et d’acteurs interagissant dans un contexte donné pour atteindre un but pédagogique qui consiste pour quelqu’un à apprendre quelque chose de nouveau. Cet apprentissage concerne le développement d’une compétence. La mise en place d’un environnement de formation demande donc de faire des choix pour scénariser l’apprentissage et pour l’encadrer (Dillenbourg, 2012). 12 Dans le processus de scénarisation, il importe dans un premier temps d’analyser et de structurer le contenu à maîtriser. Il convient ensuite de déterminer quelles tâches seront proposées aux apprenants au travers du dispositif de formation en lien avec les compétences que l’on souhaite voir maîtriser par les apprenants (Strijbos, 2004). L’importance de la tâche renvoie à l’idée que la connaissance est toujours le résultat d’une reconstruction par l’individu qui apprend (Depover & Marchand, 2002). Pour qu’un apprentissage significatif se réalise, l’apprenant doit être actif dans l’environnement où il est amené à progresser. Il doit y mettre en œuvre un processus qui l’amène à sélectionner les informations, à les organiser en une représentation cohérente et à les intégrer ensuite aux connaissances déjà acquises (Mayer, 2010). Dans une perspective de cohérence, la tâche doit être définie parallèlement aux compétences qui précisent les transformations intellectuelles à opérer chez l’élève (Kollar, Fisher & Hesse, 2006). Il ne suffit donc pas de se focaliser exclusivement sur la question de la démarche (« comment faire apprendre ? »). Encore faut-il ne pas oblitérer la question du contenu (« que faire apprendre ? ») et la manière d’évaluer le développement des compétences ciblées. L’efficacité d’une formation exige une articulation subtile de ces trois composantes de l’action éducative : l’identification des compétences à développer, l’évaluation des résultats et la sélection des moyens et des démarches qui correspondent aux tâches d’apprentissage. L’importance des liens entre ces trois dimensions est à la base de la recherche de la qualité d’un dispositif de formation (Biggs, 1996). Nous estimons comme Dillenbourg & al. (2007) et Mayer (2010) que les tâches constituent en effet la clef de voûte de la conception d’un dispositif d’apprentissage. Elles déterminent en quelque sorte les formes de construction des savoirs qui doivent s’opérer. Pour Reuter (2007, p.215), « la notion de tâche renvoie à la face visible de la transposition didactique. Le travail donné à réaliser à l’apprenant manifeste la forme que prend le savoir à enseigner ». Reuter (2007) établit également une distinction entre la notion de tâche et la notion d’activité. La tâche précise ce qui est à effectuer alors que l’activité correspond à ce qui est effectivement réalisé par l’apprenant. L’apport des ressources renvoie à l’idée que les connaissances sont disponibles à la fois chez l’individu qui apprend et dans l’environnement proche de celui-ci. Différents outils sont ainsi susceptibles de supporter l’individu dans son traitement d’une situation d’apprentissage. Les outils distribués dans l’environnement d’apprentissage peuvent être à la fois langagiers, cognitifs, physiques ou numériques. Dans le champ de l’intelligence distribué, Perkins (1995) met en avant au travers du principe « d’individu-plus » que l’apprenant peut adopter la démarche d’un expert. Lorsque ce dernier est confronté à une tâche complexe, il n’agit, en effet, jamais seul : « C’est entouré de tous ses outils que l’ « individu-plus » affronte la situation et parvient à résoudre le problème. » (Perkins, 1995, p. 58). Si l’on se réfère aux propositions de Bloom (1979) et au modèle de Slavin (1995), la gestion du temps est cruciale dans la mise en oeuvre d’apprentissage. On peut évidemment observer des résultats très 13 différents chez les apprenants en fonction du temps alloué aux apprentissages. Cette gestion peut concerner la durée, mais également la manière de distribuer les apprentissages dans le temps (Temperman, 2013). L’organisation du groupe fait plutôt référence à la manière de gérer le groupe dans le dispositif de formation. Pour Dillenbourg & Jermann (2012), on peut envisager différentes formes de groupement dans le temps (travail individuel, travail en groupe, travail en groupe plénier, ...). Pour chaque type de groupement, il y a évidemment des choix à opérer. Dans le cas d’un travail collaboratif, les modalités de constitution des groupes peuvent être évidemment très différentes au fil du temps (voir figure ci-dessous). Dans cette schématisation, la variable "distance vs présence" peut être également considérée. 1.3 Innover en éducation Les recherches qui évaluent l'impact des technologies tendent à montrer que l'investissement en technologie par un système éducatif n'entraîne pas forcément de bénéfices pour les élèves en termes d'apprentissage. Selon le rapport, intitulé "Students, Computers and Learning: Making The Connection", montre ainsi que les pays qui ont considérablementinvesti dans les technologies de l'information et de la communication (TIC) dans l'éducation n'ont enregistré "aucune amélioration notable" de leurs résultats aux évaluations PISA de compréhension de l'écrit, de mathématiques et de sciences (Pisa, 2015). La principale raison est que l'apport technologique est souvent mobilisé selon des protocoles anciens. L'intégration technologique n'est pas forcément synonyme d'innovation qui consiste à faire quelque chose différemment et mieux à l’aide de la connaissance dont on dispose à un moment donné. Si l'efficacité d'un système éducatif passait par l'usage d'outils, cela se saurait ! Si l'innovation est censée avoir un impact sur l'activité humaine au moins égal à la solution précédente, on l'évalue en réalité trop rarement. Morozov (2014) nomme ce comportement le solutionnisme c-àd apporter des solutions à des problèmes qui ne se posent pas. 14 Une innovation dans un contexte d'éducation peut passer par l'application du modèle TPAK (Technology, Pedagogy & Knowledge) de Mishra & Koehler (2013). Celui-ci met en évidence que la plus-value des technologies réside dans l'interaction de trois facteurs-clefs : Un choix d'outils pertinents, des pratiques pédagogiques qui font la différence et l'analyse du contenu ciblé. Trois idées interagissent dans ce modèle : des outils peuvent faciliter des pratiques pédagogiques efficaces, des pratiques pédagogiques efficaces facilitent le développement de compétences et des outils peuvent soutenir le développement de compétences. L'enjeu pour l'enseignant réside dans la conception et la mise en place de tâches significatives qui jouent sur ces trois leviers complémentaires. Dans son intervention, André Tricot abonde dans ce sens. 1.3.1 Par la pédagogie Pour guider l'application de démarches pédagogiques innovantes et efficaces, l'enseignant-concepteur peut s'appuyer sur les méta-analyses de Hattie (2009). Cet auteur a analysé des milliers d'expériences en utilisant le principe de taille de l'effet en comparant des groupes dans différents contextes ayant bénéficié d'une démarche pédagogique innovante à des groupes témoins. D'un point de vue statistique, la taille de l'effet correspond à la différence standardisée des moyennes des groupes expérimentaux et des groupes contrôles divisée par l’écart-type de l’ensemble de l’échantillon (Hattie, 2009). Un d de 1 signifie que 84 % des participants du groupe expérimental sera au-dessus du participant ayant la moyenne dans le groupe-contrôle. Il y a également 76 % de chances qu’un 15 participant pris au hasard dans le groupe expérimental aura un résultat supérieur à un participant pris au hasard dans le groupe-contrôle. Ce site développé par un chercheur suédois propose une simulation pour mieux comprendre ce principe statistique. Sur la base de cette technique, Hattie met en évidence différents principes qui ont des effets remarquables sur l'apprentissage. Si vous souhaitez en savoir plus sur ces principes, vous pouvez découvrir la conférence de Hattie ici et ici. Depuis la première publication de sa méga-analyse (synthèse de plus de 100 méta-analyses) en 2009, Hattie met à jour sur ce site une échelle interactive reprenant les principes pédagogiques classés en fonction de leur taille d'effet. Vous pouvez découvrir cette approche dans ce Moocproposé par le service de pédagogie générale et des médias éducatifs. Chi & Willie (2014) proposent de catégoriser le niveau d'engagement des élèves dans l'apprentissage : • Passif : l’élève reçoit l’information et est focalisé sur les explications données • Actif : l’élève manipule des objets, opère des sélections. On le voit être en activité • Constructif : l’élève génère des hypothèses, découvre par lui-même • Interactif : plusieurs élèves collaborent, confrontent leurs hypothèses/découvertes A l'aide de différentes expériences, ils observent que le dernier niveau est le plus efficace mais se révèle plus chronophage (et donc moins efficient). Ils mettent également en évidence que ce dernier niveau peut entraîner moins d'effets pour les élèves ayant un faible niveau au départ. 1.3.2 Avec les outils Concernant les outils, on peut invoquer tout d'abord le modèle de Mayer qui à partir d'une série d'expérimentations contrôlées met en avant que l'apprentissage est de meilleure qualité quand l'élève peut s'appuyer de manière complémentaire sur la mémoire visuelle et la mémoire auditive (double canal). Les outils multimédia offrent cette possibilité. Il met toutefois en avant que l'usage articulé des différentes mémoires est modulé par différents principes ergonomiques qui peuvent faire la différence en termes de performances dans la mesure où ils impactent directement la charge cognitive en mémoire de travail. Pour en savoir plus sur ce modèle fondamental en éducation, vous pouvez visionner ce podcast. En termes de formation, il est important que l'enseignant dispose d'une formation à l'usage des outils et qu'il soit conscient qu'il existe différents niveaux d'intégration comme le suggère le modèle SAMR proposé par Puentedura. On peut estimer que les outils constituent des supports facilitateurs permettant aux élèves d'atteindre un niveau de connaissance supérieur à celui qu'il possède (Zone Proximale de développement). 16 1.3.3 Pour développer des compétences Il est évident que l'apport des technologies enrichi par des pratiques pédagogiques innovantes a pour objectif de développer des compétences et de maîtriser un contenu pour les apprenants. Il n'y a aucun intérêt à utiliser la technologie pour la technologie. Toute la difficulté pour les enseignants est probablement que les référentiels et les programmes ne documentent pas à l'heure actuelle ces usages précis. Les compétences disciplinaires et transversales n'intègrent que peu ou pas la dimension "outils" dans leur formulation. Cette intégration est en lien avec l'idée d'intelligence distribuée proposée par Perkins (1995) et qui postule que "L'individu, contrairement aux idées courantes, n'agit pas seul et sa connaissance ne se réduit pas à ce qui se trouve dans sa tête. Perkins (1995) suggère en effet que même l'expert, face à une tâche ardue, n'agit pas seul, mais en individu plus, c-à-d en utilisant des outils de son environnement et son entourage social" n'est pas encore adopté par la communauté éducative. Ce principe rejoint celui d'hypothèse d'accès équivalent (Crahay, 2007) qui met en avant que le siège de conservation d'une connaissance, que ce soit la mémoire ou un support écrit par exemple, n'a pas d'importance en soi. C'est la facilité d'accès à l'information qui est bien plus cruciale. Des informations se prêtent d'ailleurs mieux à être enregistrées dans un carnet de notes, sur internet,…que dans la mémoire individuelle. L'important actuellement est de pouvoir externaliser les savoirs afin de faciliter le partage des connaissances de manière universelle via les nouveaux médias disponibles sur Internet. 17 Trianguler 2.1 Evaluer On ne peut pas améliorer une situation sans évaluation de celle-ci. Pour évaluer les effets d’un environnement d’apprentissage dans un contexte particulier concernant des apprenants avec des caractéristiques initiales, un chercheur peut s’intéresser à différentes dimensions complémentaires. La figure ci-dessous schématise cette approche méthodologique. Elle articule les différentes observations à prendre en compte. Au total, on peut y distinguer trois sources d’observations distinctes : les produits de l’apprentissage, le processus d’apprentissage et les perceptions des acteurs. Sur le plan épistémologique, cette démarche d'évaluation de l'environnement a posteriori peut être considérée comme une triangulation des méthodes et des sources (Pourtois & Desmet, 2007). Cette approche découle de l'approche "processus-produit" qui au départ s'intéressait d'une part au comportement des enseignants en classe (processus) et d'autre part à l'apprentissage des élèves (produit) dans une perspective de recherche d'efficacité (Bressoux, 1994). A celui-là s'ajoute le paradigme des processus médiateurs centrés sur l'élève. Les variations dans les résultats de l'apprentissage sont liées aux procédures intermédiaires de traitement de l'information que l’élè ve déploie lors de l'activité. Il nous semble utile d'associer à cette logique "l'avis des acteurs" (apprenants ou enseignants) afin de mieux comprendre l'expérience d'apprentissage mise en place. Il est important de préciser que tout dispositif est développé et inséré dans un contexte particulier. Lors d'une démarche d'évaluation, le chercheur doit veiller à bien décrire et à caractériser celui-ci. Cela permet de décider par la suite si les résultats sont généralisables à d'autres contextes et de mieux documenter les méta-analyses (Hattie, 2009). 2.2 Réguler Ces différentes sources permettent d’interroger a posteriori l’environnement d’apprentissage mis en oeuvre. Ce questionnement correspond à une démarche de qualité dont l’objectif est l’amélioration continue du scénario pédagogique par un usage réfléchi des moyens humains et technologiques à disposition. Les réponses obtenues donnent alors la possibilité de réguler, le cas échéant, l’environnement développé. Cette régulation consiste à modifier en conséquence l’environnement d’apprentissage en opérant des ajustements dans le scénario pédagogique qui caractérise les modalités d’encadrement, les tâches, la constitution des groupes, la sélection des outils et le temps alloué. L'enseignant-concepteur peut s'appuyer sur plusieurs expériences successives pour aboutir à un environnement de qualité suffisante. Avec cette approche de rétro-ingénierie, l’enseignant peut 18 mettre en évidence a posteriori le modè le efficace de la tâche. Il a alors la possibilité de reconsidérer le scénario en envisageant les améliorations utiles en matiè re de définition de la tâche, de choix d’outils, de modalités de constitution de groupes et de possibilités de suivi. Il augmente ainsi ses chances de développer un environnement d’apprentissage plus adapté, en mesure d’étayer la tâche des apprenants et de faciliter ainsi leur progression dans la mai ̂trise des compétences visées. Bien plus que les objets technologiques qui ne restent que des moyens, cette démarche itérative fondée sur l’analyse des traces constitue un puissant levier en mesure de faire la différence pour faire apprendre. 2.3 Learning Analytics Le développement de cette approche s’est particuliè rement accéléré avec l’émergence progressive du champ de recherche « Learning analytics » que Siemens & Long (2011, p.31) définissent comme « la mesure, la collection, l’analyse et l’interprétation des traces des apprenants et de leurs contextes, pour comprendre et optimiser leur apprentissage dans l’environnement dans lequel il se produit. » Dans le cadre fixé par le champ de recherche « learning analytics » (Buckingham, 2012), nous nous situons au niveau micro (v. figure ci-dessous). Notre préoccupation principale concerne en effet, l’activité de l’apprenant dans le contexte spécifique d’un cours. Le niveau méso concerne l’analyse des traces au sein d’une même institution et le niveau macro fait référence à un terrain d’investigation à une plus large échelle comme un systè me éducatif. Comme le suggè re la figure ci-dessous, les données recueillies au niveau micro sont susceptibles d’alimenter les analyses menées aux niveaux supérieurs, et inversement. 19 Produit 1. Créer l’outil d’évaluation 1.1 Varier les opérations mentales pour une même compétence 1.2 Intégrer des questions ouvertes et des questions fermées - Les questions de sélection ou questions à réponse choisie ont pour caractéristique commune de présenter à l'apprenant une série de propositions parmi lesquelles il devra choisir (question à choix dichotomique ou à choix multiple), établir un ou plusieurs liens (question à appariement) ou qu'il devra organiser selon un principe explicite (question à ordonnancement). - Les questions de production exigent du sujet qu'il élabore puis rédige sa réponse avant de la soumettre au correcteur pour qu'elle soit évaluée en fonction de critères plus ou moins explicites. Le principal paramètre utilisé afin d'établir des distinctions parmi les questions de production repose sur l'étendue et sur la forme de la réponse attendue. Ainsi, on distinguera les questions à réponse courte, à réponse longue, à réponse élaborée, mais aussi les schémas à compléter, les phrases à compléter et les textes lacunaires. 1.3 Utiliser des degrés de certitude En nous appuyant sur les travaux de Leclercq & Poumay (2007), cette information supplémentaire donne la possibilité de calculer un score de confiance qui correspond à la somme des degrés de certitude fournis aux réponses correctes (idéalement, cette somme devrait être la plus élevée possible). À partir de ces informations, nous avons alors l’opportunité de calculer un score de prudence qui correspond à la somme des degrés de certitude fournis aux réponses incorrectes (idéalement, cette valeur devrait être la plus faible possible). 2. Utiliser les technologies pour… 2.1 Recueillir des données Socrative, google forms, wooclap… 20 2.2 Analyser des données Indice de difficulté : L’indice Pi (variant entre 0 et 1) est la proportion d’élèves ayant répondu correctement à un item i. Un item est d’autant plus facile qu’il a un P élevé. De plus, il faudrait que la majorité des items aient un P se distribuant autour de 0,5. Comment apprécier cette valeur ? McAlpine (2002) considère que les réponses trop difficiles (P < 0,15, soit lorsque moins de 15 % des participants ont répondu juste à la question donnée) ou trop faciles (P > 0,85, soit lorsque au moins 85 % y ont répondu juste) peuvent être écartées du QCM. Les premières sont donc « impossibles », les secondes « triviales » et donc ni l’une ni l’autre ne permettent la mesure efficace des compétences des personnes passant le QCM. Analyser le pouvoir discriminant des items Analyser le pouvoir discriminant des items : Le but d’un questionnaire peut être de mesurer une compétence/connaissance donnée, et donc de pouvoir discriminer les élèves en fonction de cette dernière. L’indice de discrimination (ID) est une variante du coefficient de corrélation de Pearson et est nommé r point-bisérial (rpbis), à utiliser lorsque l’une des deux variables est dichotomique (en effet, les scores à un item sont soit 0 soit 1). Il varie, comme tout coefficient de corrélation, entre –1 et 1, et correspond au coefficient de corrélation entre un item et le score total au test. La valeur du rpbis d’un item donné peut être : – positive et élevée, ce qui signifie que les élèves réussissant bien au test réussissent également bien à l’item concerné. – négative, ce qui signifie, soit que ce sont les élèves peu performants en général (sur l’ensemble du questionnaire) qui réussissent bien à l’item, ce qui peut laisser penser que cet item est un faible prédicteur de la connaissance ou compétence mesurée dans le test, et donc qu’il faut considérer sa suppression. Soit encore que les élèves performants en général réussissent moins bien à cet item : il convient dans ce cas de se demander pourquoi (il faut au passage noter qu’un rpbis élevé et négatif est rarement rencontré, et témoigne très souvent d’une erreur de saisie des données). – nulle ou faible (en valeur absolue inférieure à 0,40), ce qui signifie que le lien entre la réussite à l’item et la réussite au test est nul ou faible. L’enseignant peut considérer sa suppression du test. Trois idées importantes : - Un item discriminant n’est pas nécessairement difficile. À l’inverse, un item problématique (donc à rejeter ou reformuler) a presque toujours un ID faible. - Si une question a une corrélation item-test faible (en valeur absolue inférieure à 0,40), cela peut signifier qu’elle mesure une compétence/connaissance qui n’appartient pas au même domaine que celui du test complet (un pouvoir discriminant est satisfaisant si la corrélation est supérieure à 0,40). 21 Si le test est conçu pour être multidimensionnel (mesure plusieurs types de compétences/connaissances), la corrélation est à réaliser entre la question et le sous-ensemble de questions liées à une compétence particulière. - Un test a une bonne cohérence interne (il est composé d’items qui concourent à mesure un type de connaissance/compétence) si ses items ont des ID élevés (plutôt proches de 1). 2.3 Représenter des données 3. Valider l’outil d’évaluation 3.1 Analyser le degré de difficulté Calculer le niveau de difficulté d’un item : proportion d’élèves ayant répondu correctement à un item. Pour Mc Alpine (2002), ce niveau doit être compris entre 15 % et 85 %. 3.2 Utiliser les indices de discrimination Calculer le niveau de discrimination de l’item : correspond au coefficient de corrélation (rpbis) entre un item et le score total au test Si + et élevé (>= .40), alors conserver La première dimension qu'un enseignant-chercheur peut investiguer concerne les résultats de l'apprentissage. Il s'intéresse à la question de la qualité des apprentissages. Bon nombre d'articles et de contributions scientifiques ont pour objet la plus-value au travers l'évaluation de la performance des apprenants. Dans ce type d'analyse, on peut distinguer quatre variables complémentaires : la progression, le degré de maîtrise, le transfert et l'équité. La progression concerne la valeur ajoutée du dispositif sur le plan individuel. L’observation de cette progression peut s’envisager à l’aide d’un dispositif de type « prétest/posttest » permettant de calculer un gain relatif qui correspond au rapport de ce que l’élève a gagné à ce qu’il aurait pu gagner au maximum (D’Hainaut, 1975). Cette évaluation du gain réel pondéré par le gain maximum qui est possible permet d’apprécier l’efficacité intrinsèque du dispositif. Ce rapport entre la progression possible et la progression observée donne ainsi la possibilité́ de comparer les progrè s des élè ves, quel que soit leur niveau de départ. Le calcul du gain relatif (Posttest-Prétest)/(Maximum-Prétest) est possible à la condition que le score au prétest soit inférieur ou égal au score du posttest. Par exemple, l'élève a 2/10 au prétest et 6/10 au posttest. Il a un gain de 50 % ((6-2)/(10-2)). Si le score au prétest est supérieur au posttest, il convient alors de calculer une perte relative (Posttest-Prétest/Prétest). Par exemple, l'élève a 5/10 au prétest et 4/10 au posttest. Il a une perte relative de 20 % ((4-5)/5)). En lien 22 avec ce principe de progression, il peut être pertinent de mettre en évidence le nombre d'élèves ayant évolué positivement, ayant régressé et ayant stagné. Pour apprécier l'efficacité intrinsèque, nous pouvons également utiliser la taille de l'effet (d de Cohen) qui correspond à la différence entre le post-test et pré-test divisé par l'écart-type de l'ensemble des données (Hattie, 2009). Cohen considère l'échelle suivante pour apprécier l'efficacité d'une intervention : faible (0,2), moyenne (0,5), large (0,8) et très large (1,3). Cette démarche peut être intéressante à appliquer pour comparer la puissance de différentes interventions pédagogiques. Le degré de maîtrise correspond tout simplement au niveau atteint par les élèves au terme de l'apprentissage. Si nous référons à la pédagogie de la maîtrise, il est communément admis que ce niveau doit être proche de 80 %. Cette maîtrise peut être envisagée à la fois au niveau individuel ou au niveau d'une production collective dans le cadre d'un apprentissage collaboratif. En lien avec la logique de compétences, il est nécessaire d'observer la capacité de l'apprenant à réutiliser dans une autre situation les acquis de la formation. Cette évaluation du transfert des apprentissages peut être envisagée de manière différée et selon une modalité différente que l'évaluation proposée au terme de la formation. Il importe enfin d’analyser l’effet du dispositif sur l’équité à partir d’une analyse de l’évolution de la variance entre le prétest et le posttest. Il est commode d'utiliser comme indice le coefficient de variation également appelé le taux d'hétérogénéité qui correspond au rapport entre l'écart-type et la moyenne. Plus ce coefficient de variation est faible, plus la distribution est homogène (plus les individus sont proches les uns des autres). Une diminution du coefficient de variation entre le prétest et le posttest signifie que le dispositif permet de réduire les écarts initiaux entre les élèves. Une autre information utile est la corrélation entre le prétest et le gain relatif. Elle permet, de mettre en évidence pour quel type d’apprenant le dispositif a été le plus utile. Une corrélation positive entre le gain relatif et le prétest nous indiquera que le dispositif a permis de faire progresser les plus forts au départ. A contrario, une corrélation négative nous informera que celui-ci a plutôt été bénéfique pour les plus faibles. Le fichier Excel téléchargeable ici permet de traiter ces différentes statistiques. 3.1 Créer l'outil d'évaluation Différentes démarches complémentaires peuvent guider la conception de l'outil d'évaluation. Au niveau de la nature des questions, il peut être intéressant de faire référence à un modèle taxonomique de manière à affiner l'analyse. En termes de modalités de réponse, il peut être utile de varier le type de questionnement proposé à l'élève en proposant de manière complémentaire à la fois des questions ouvertes et des questions fermées. Enfin, la prise en compte des degrés de certitude donne l'occasion de dépasser le caractère binaire de l'évaluation : réponse correcte vs réponse incorrecte. 23 3.1.1 Varier les opérations mentales pour une même compétence Issues des théories en technologie de l'éducation, les taxonomies constituent des outils intéressants pour guider la définition des objectifs. Elles donnent en effet la possibilité à l'enseignant d'une part de préciser le degré de complexité réelle de la tâche et d'autre part de varier les opérations cognitives sollicitées chez les apprenants. On peut considérer que les taxonomies se situent dans la logique des compétences dans la mesure où l'on considère que l'atteinte de la compétence se situe aux niveaux les plus élevés des taxonomies. Amener les élèves à être compétents, c'est donc travailler sur tous les niveaux taxonomiques et faire en sorte que même les niveaux les plus élevés soient atteints par un maximum d'élèves (Gérard & Roegiers, 2002). Plusieurs modèles sont disponibles dans la littérature pour guider la conception d'un outil d'évaluation. Le modèle de Tirtiaux est intéressant à considérer dans la mesure où il permet d'évaluer une même compétence en proposant différentes tâches mobilisant la pensée convergente et la pensée divergente. Il permet de moduler les tâches d'apprentissage en fonction du degré d’initiative laissé aux élèves. Dans cette progression, l’élève est guidé pour passer d’un mode de pensée convergente, basée sur l’application des connaissances pour produire une réponse correcte (problème fermé) ; vers un mode de pensée divergente - fondée sur l’utilisation des connaissances, du raisonnement, et de la créativité afin de produire une réponse originale (problème ouvert). La taxonomie de Tirtiaux se structure autour de sept niveaux ordonnés (reproduire, reconnaître, ajuster, appliquer, achever d’initiative, imiter et inventer) allant du plus simple (initiative nulle) au plus complexe (initiative optimale). Cette progression permet d'établir la relation entre un savoir ou savoir-faire et une situation inédite, qui nécessite la mobilisation de ce savoir ou savoir-faire. Bien que cet outil semble quelque peu opposer la pensée convergente et la pensée divergente, il est important de noter que ces deux modes de pensée ne s'opposent en réalité pas, mais se complètent. Une démarche de résolution de problème passe souvent par la divergence pour ensuite converger vers une solution réalisable. Le modèle de Bloom propose une classification des degrés de maîtrise des connaissances. Cette hiérarchie s'organise sur six niveaux qui vont de la simple restitution à la manipulation complexe du contenu : connaissance, compréhension, application, analyse, synthèse et évaluation. Vous pouvez générer automatiquement à partir de cet outil des objectifs pédagogiques qui s'appuient sur ce modèle. Selon Grubert & Verniers (2017, p.22), « même si les étages de la pyramide de Bloom sont présentés de manière hiérarchique, cette hiérarchie ne porte que sur la complexité des gestes mentaux à exécuter et pas sur l’ordre idéal dans lequel les aborder ». Le modèle de Bloom peut être mis en relation avec la progression dans la connaissance proposée par Biggs (1982) qui associe 5 niveaux de maîtrise spécifiques à des verbes opérationnels. Le modèle de D'Hainaut cherche quant à lui à articuler les rapports entre la pensée en action, son objet et son produit. Il est intéressant à considérer dans la mesure où il facilite la formulation 24 d'objectifs opérationnels précis. Il décrit six types de tâches différentes : reproduction, conceptualisation, application, exploration, mobilisation et résolution de problèmes. 3.1.2 Intégrer des questions ouvertes et des questions fermées Les questions de sélection ou questions à réponse choisie ont pour caractéristique commune de présenter à l'apprenant une série de propositions parmi laquelle il devra choisir (question à choix dichotomique ou à choix multiple), établir un ou plusieurs liens (question à appariement) ou qu'il devra organiser selon un principe explicite (par exemple : une question à ordonnancement). Les questions de production exigent de l'élève qu'il élabore puis rédige sa réponse avant de la soumettre au correcteur pour qu'elle soit évaluée en fonction de critères plus ou moins explicites. Le principal paramètre utilisé afin d'établir des distinctions parmi les questions de production repose sur l'étendue et sur la forme de la réponse attendue. Ainsi, on distinguera les questions à réponse courte, à réponse longue, à réponse élaborée, mais aussi les schémas à compléter, les phrases à compléter et les textes lacunaires. Pour générer des tâches, vous pouvez vous appuyer sur le tableau suivant qui articule la taxonomie de Bloom et de Tirtiaux (identifier la solution, adapter la solution proposée, achever la solution proposée et produire la solution). Plus vous vous situez dans la partie gauche du tableau, plus vous sollicitez la pensée convergente chez l'apprenant. Si vous vous positionnez dans la partie inférieure droite du tableau, alors vous solliciterez davantage la pensée divergente de l'élève. 25 3.1.3 Utiliser des degrés de certitude Une réponse correcte avec une certitude élevée par rapport à celle-ci correspond évidemment à un niveau de mai ̂trise plus élevé qu’une réponse correcte associée à un faible niveau de certitude. L’analyse de la conviction avec laquelle l’apprenant a répondu offre ainsi la possibilité de mesurer de maniè re subtile le niveau opérationnel de ses connaissances (Leclercq, 1998).D'un point de vue pratique, demander à un apprenant de donner son degré de certitude permet aux enseignants et aux chercheurs d'identifier l'incompétence dangereuse (réponse incorrecte avec un degré de certitude élevé), l'incompétence reconnue (réponse incorrecte avec un degré de certitude faible), la compétence non opérationnelle (réponse correcte avec un degré de certitude faible) et la compétence opérationnelle (réponse correcte avec un degré de certitude élevé). En nous appuyant sur les travaux de Leclercq & Poumay (2007), l'utilisation des degrés de certitude donne la possibilité de calculer un score de confiance qui correspond à la somme des degrés de certitude fournis aux réponses correctes (idéalement, cette somme devrait être la plus élevée possible). À partir de ces informations, nous avons alors l’opportunité de calculer un score de prudence qui correspond à la somme des degrés de certitude fournis aux réponses incorrectes (idéalement, cette valeur devrait être la plus faible possible). Vous pouvez découvrir l'application de cette démarche dans les deux études suivantes : étude 1 et étude 2. Vous pouvez également prendre connaissance de cet article qui présente l'application de ce principe dans le domaine médical. 3.1.4 Utiliser des solutions générales implicites Quand les solutions sont à sélectionner (QCM), il peut être intéressant de solliciter la vigilance cognitive des apprenants. Cette sollicitation passe par l'intégration de 4 propositions complémentaires que l'apprenant doit prendre en considération. 26 Aucune : aucune proposition n'est correcte Toutes : toutes les solutions proposées sont correctes Manque : il est impossible de répondre parce que l'information (au moins une donnée) manque dans l'énoncé de la question Absurde : une absurdité rend toute la question caduque Vous pouvez découvrir des exemples de l'application de ces principes en téléchargeant le fichier suivant. 3.2 Valider l'outil d'évaluation D'un point de vue docimologique, deux indices sont utiles pour valider l'outil d'évaluation : le degré de difficulté et l'indice de discrimination. Le fichier disponible ici en téléchargement donne la possibilité de les calculer automatiquement. Le fichier est adapté en fonction de votre questionnaire d'évaluation. 3.2.1 Analyser le degré de difficulté Pour Dessus (2014), il est nécessaire que le questionnaire comprenne quelques questions plutôt faciles, de manière à rassurer l’élève ou l’étudiant. En revanche, une trop grande proportion de questions faciles amène à un « effet-plafond » (et un effet-plancher pour des questions trop difficiles) et donc ne représente pas une tâche suffisamment consistante et cognitivement engageante pour la plupart des élèves. L’indice Pi (variant entre 0 et 1) est la proportion d’élèves ayant répondu correctement à un item i. Un item est d’autant plus facile qu’il a un P élevé. De plus, il faudrait que la majorité des items aient un P se distribuant autour de 0,5. Comment apprécier cette valeur ? McAlpine (2002) considère que les réponses trop difficiles (P < 0,15, soit lorsque moins de 15 % des participants ont répondu juste à la question donnée) ou trop faciles (P > 0,85, soit lorsqu'au moins 85 % y ont répondu juste) peuvent être écartées du QCM. Les premières sont donc « impossibles », les secondes « triviales » et donc ni l’une ni l’autre ne permettent la mesure efficace des compétences des personnes passant le QCM. Il faut noter que, selon les auteurs, ces valeurs varient : 80 % et 25 % (Bodner, 1980). 3.2.2 Utiliser les indices de discrimination Pour Dessus (2014, P.36), le but d’un questionnaire peut être de mesurer une compétence/connaissance donnée, et donc de pouvoir discriminer les élèves en fonction de cette dernière. L’indice de discrimination (ID) est une variante du coefficient de corrélation de Pearson et est nommé r point-bisérial (rpbis), à utiliser lorsque l’une des deux variables est dichotomique (en 27 effet, les scores à un item sont soit 0 soit 1). Il varie, comme tout coefficient de corrélation, entre –1 et 1, et correspond au coefficient de corrélation entre un item et le score total au test. La valeur du rpbis d’un item donné peut être : positive et élevée, ce qui signifie que les élèves réussissant bien au test réussissent également bien à l’item concerné. négative, ce qui signifie, soit que ce sont les élèves peu performants en général (sur l’ensemble du questionnaire) qui réussissent bien à l’item, ce qui peut laisser penser que cet item est un faible prédicteur de la connaissance ou compétence mesurée dans le test, et donc qu’il faut considérer sa suppression. Soit encore que les élèves performants en général réussissent moins bien à cet item : il convient dans ce cas de se demander pourquoi (il faut au passage noter qu’un rpbis élevé et négatif est rarement rencontré, et témoigne très souvent d’une erreur de saisie des données). nulle ou faible (en valeur absolue inférieure à 0,20), ce qui signifie que le lien entre la réussite à l’item et la réussite au test est nul ou faible. L’enseignant peut considérer sa suppression du test. L'usage d'un indice de discrimination implique trois idées importantes : Un item discriminant n’est pas nécessairement difficile. À l’inverse, un item problématique (donc à rejeter ou reformuler) a presque toujours un ID faible. Si une question a une corrélation item-test faible (en valeur absolue inférieure à 0,20), cela peut signifier qu’elle mesure une compétence/connaissance qui n’appartient pas au même domaine que celui du test complet (un pouvoir discriminant est satisfaisant si la corrélation est supérieure à 0,40). Si le test est conçu pour être multidimensionnel (mesure plusieurs types de compétences/connaissances), la corrélation est à réaliser entre la question et le sous-ensemble de questions liées à une compétence particulière. Un test a une bonne cohérence interne (il est composé d’items qui concourent à mesure un type de connaissance/compétence) si ses items ont des ID élevés (plutôt proches de 1). L'important est d'utiliser le degré de difficulté et l'indice de discrimination. L'idéal est d'avoir un item dont le degré de difficulté est compris entre 30 et 70 % avec un indice de discrimination supérieur à 0.3. Le logiciel IRTSShiny permet d'obtenir ces différentes statistiques. 3.3 Utiliser les technologies pour évaluer les produits d'apprentissage Plusieurs outils technologiques disponibles sur Internet peuvent être utilisés pour recueillir les données (pas d'encodage manuel et forcer l'utilisateur à fournir une réponse) et pour faciliter le traitement de celles-ci par la suite (avec l'exportation des données dans un tableau structuré) : Google Forms, Socrative, Plickers. Oppia est un outil en ligne permettant de prendre des données. Il offre la 28 possibilité de traiter des structures conditionnelles et de proposer ainsi des parcours différenciés aux apprenants. Vous pouvez tester votre maîtrise de cette section du cours avec les différentes séquences créées avec Oppia par les étudiants de la promo 2016-2017.. 29 Processus L'analyse du processus d'apprentissage concerne le parcours des apprenants et les données recueillies en cours de la réalisation de l'activité. Il s'agit de la dimension la moins investiguée en sciences de l'éducation dans la mesure où les données sont plus difficilement accessibles et le traitement de cellesci est chronophage pour les professionnels. Etant donné le nombre d'élèves et la complexité des prises d'informations (dresser un bilan personnalisé au fil de l'apprentissage, identifier les erreurs, détecter la perte d'attention, etc.), ces observations doivent être instrumentées. Pour le chercheur ou pour l'enseignant, cette instrumentation est dorénavant facilitée avec les environnements d'apprentissage humain informatisés avec l'enregistrement et l'archivage des différentes activités de l'apprenant dans ceux-ci. Cette démarche est cohérente avec une approche socio-constructiviste de l'apprentissage qui accorde de l'importance à la démarche d'apprentissage des individus et entre individus, et pas uniquement aux résultats de celle-ci. Pour Chamberland & al. (2010), la compétence ne peut d'ailleurs se voir et se mesurer qu’à travers l’empreinte qu’elle laisse dans sa mise en œuvre. Cette empreinte peut prendre la forme d’indices, de signes perçus lors d’observations ou d’artefacts laissés par l’action elle-même. Le terme générique de trace est généralement associé à toutes les formes possibles de cette empreinte. 4.1 La notion de trace Sur le plan conceptuel, la trace correspond à « un enregistrement automatique d’éléments en interaction entre un utilisateur et son environnement dans le cadre d’une activité donnée » (Laflaquiè re & Prié, 2007, p.1). Comme l’illustre la figure ci-dessous, la trace peut être associée à une séquence temporelle d’opérations et d’outils mobilisés par l’utilisateur en interaction avec un systè me informatique (Champin & Prié, 2002 cités par May, 2010). 30 D’un point de vue informatique, chaque activité de l’utilisateur avec les outils et les ressources disponibles dans l’environnement est enregistrée avec une référence temporelle dans une base de données. Les informaticiens désignent cet enregistrement de la trace de l’activité d’un utilisateur comme une donnée brute ou plus communément par le terme de « logfile ».Au niveau de leur nature, les données brutes peuvent concerner à la fois, les accè s à l’environnement, les données issues des interactions sociales (messages postés, ouverture d’un message, création d’un fil de discussion...), les actions dans un espace de structuration comme le wiki (éditions, consultations, enregistrements, modifications...), les consultations d’une ressource en ligne, la navigation dans un glossaire, le téléchargement d’un document mis à disposition, le remplissage d’un questionnaire, le temps utilisé pour réaliser une activité, etc. Pour faciliter la lecture, il est indispensable de développer une synthè se structurée de ces informations. Pour y parvenir, ces données brutes doivent être agrégées et traitées à l’aide d’un logiciel dédié de maniè re à créer des indicateurs qui ont du sens pour les apprenants ou pour les tuteurs et qui représentent au mieux l’activité mise en œuvre dans l’environnement. Pour Dimitracopoulou & Bruillard (2007, p.8), « Un indicateur est une variable au sens mathématique à laquelle est attribuée une série de caractéristiques. Chaque indicateur, en tant que variable, peut être indépendant ou dépendant d’autres variables, voire d’autres indicateurs d’analyse d’interactions. Ainsi certains indicateurs sont dépendants du temps (la contribution hebdomadaire dans le forum de discussion, par exemple), d’autres peuvent être considérés comme étant indépendants du temps (la densité du réseau social dans le forum de discussion, par exemple). » En ce qui concerne la nature, Dimitracopoulou (2008) distingue les indicateurs cognitifs et les indicateurs sociaux. Les indicateurs de nature cognitive fournissent des informations sur les activités de l’individu ou du groupe, relatives au processus et au contenu de la tâche. Des informations peuvent porter sur le degré d’interaction dans le temps, sur l’état d’avancement dans la séquence pédagogique (en visualisant les différentes étapes effectuées), sur le temps passé pour chaque étape de la tâche. Au sein de l’environnement Argunaut, les utilisateurs peuvent par exemple, visualiser les traces de leur activité de conceptualisation. Les différents graphiques donnent la possibilité de mettre en 31 évidence le type d’actions réalisées par chaque membre (créations de liens, insertion d’une question, insertion d’un argument, etc.) pour élaborer la carte conceptuelle commune. Dans le même ordre d’idées, le logiciel C-Map Tools offre la possibilité à partir des traces informatiques de visualiser dans l’ordre chronologique les différentes étapes qui ont permis d’aboutir à la carte définitive. Au sein d’un wiki géré à partir du systè me Wikispaces, les apprenants et les enseignants peuvent prendre connaissance de l’évolution de l’engagement dans les tâches d’écriture collaborative en cours. La clef de lecture des graphiques linéaires proposés est relativement simple : une pastille vide indique que l’apprenant n’a ni lu ni écrit dans le wiki, une pastille verte indique une activité en lecture du document partagé, une pastille noire renvoie à l’intensité de sa production et enfin, un drapeau rouge informe que l’apprenant a validé par un enregistrement sa contribution dans l’espace. Ces informations peuvent être observées en fonction d’un intervalle de temps fixé par l’utilisateur. Sur le plan cognitif, il peut être aussi intéressant de visualiser le contenu des échanges (Mochizuki & al., 2005 ; Allaire, 2008). À partir d’une analyse lexicométrique alimentée par un glossaire de base, Allaire (2008) suggè re ainsi de mettre en évidence l’usage effectif des concepts-clefs du cours dans les échanges médiatisés. Au niveau de la nature des données, la visualisation décrit le nombre d’occurrences par mot par contributeur et le niveau d’utilisation du lexique. Pour évaluer l’activité des apprenants dans un contexte d'apprentissage collaboratif à distance, Jaillet (2005) suggè re d’utiliser trois types informations complémentaires de surface que sont l’assiduité qui correspond à la fréquence de connexion des apprenants à l’environnement, la disponibilité qu’il associe à la durée de connexion et l’implication qui se caractérise par le nombre d’opérations effectuées par l’apprenant avec les outils disponibles sur la plate-forme de travail. Dans le but de stimuler les interactions entre les apprenants, l’élaboration de chacun de ces indicateurs à partir de ces trois informations passe par le calcul d’un pourcentage par rapport à celui de ses partenaires qui est le plus actif dans la dimension concernée. Le travail à réaliser en commun dépend en effet en grande partie de l’assiduité, de la disponibilité et de l’implication de tous les membres. Molinari (2011) utilise l'eye-tracking pour observer l'implication des apprenants dans l'environnement c-map tools et pour mettre en évidence les éléments qui les intéressent dans l'environnement d'apprentissage. L'analyse des usages d'un point de vue cognitif peut également passer par l'observation des éléments sélectionnés par les apprenants en cours d'activité. Lors d'une activité de lecture numérique, Boumazguida, Temperman & De Lièvre (2014) utilisent cette démarche et montrent que ces usages peuvent varier en fonction du moment où l'élève utilise le média dans l'apprentissage. Sur le plan social, les indicateurs se focalisent plutô t sur la dynamique interactive établie entre les partenaires ou entre les élèves et l'enseignant. Ils s’intéressent le plus souvent au réseau d’échanges qui se met en place au sein de l’équipe ou de la communauté. L’outil Snappvis intè gre ce type de visualisation. Chaque cercle aux intersections des axes représente un individu. Les apprenants et le tuteur ont la possibilité d’observer les différents canaux de communication activés au sein du groupe dans le forum de discussion. Ils peuvent ainsi évaluer l’état des relations établies entre les participants en observant le nombre de messages échangés entre eux. Avec cette visualisation du réseau social, ils peuvent identifier rapidement d’une part, les apprenants qui sont en retrait de la situation de communication (cercle plus petit) et d’autre part, ceux qui à l’inverse exercent un rô le de leadership au sein de la communauté (cercle plus large). Une vue globale du réseau social permet également de mettre en évidence d’éventuelles situations conflictuelles qui peuvent être objectivées par la mise en 32 évidence d’absence d’échanges entre deux apprenants ou de la présence de canaux de communication à sens unique (un étudiant ne fournit aucun retour aux messages adressés par un autre étudiant). Dans le cadre du modèle, nous distinguons les traces en cours de processus qui portent sur les interactions, le temps, les réalisations et les usages. La liste ci-dessous donne des exemples pour chaque catégorie de variables. 1. Interactions : Echanges entre apprenants, échanges entre tuteur et apprenants (forum, chat, face-àface, etc.) 2. Temps : Durée effective d'apprentissage, distribution de l'apprentissage, temps de connexion, régularité, temps de réponse à une interaction, etc. 3. Usages (eyetracking, logs, clics,...) : Utilisation des fonctionnalités d'un logiciel, consultation de ressources, usages des outils,... 4. Réalisations (production) : Résultats à un questionnaire, Historique dans un wiki ou dans Etherpad, Elaboration d'une carte conceptuelle, ... Actuellement, certains auteurs vont plus loin et imaginent des algorithmes susceptibles d'exploiter les traces et d'inférer des niveaux de maîtrise à partir de cette exploitation. TACIT Ce qui différencie TACIT des autres outils pédagogiques est la méthode grâce à laquelle le système analyse le niveau de compétence des élèves : la méthodologie de développement de test utilisée est celle des modèles de réponse à l'item. Elle permet d’évaluer simultanément le niveau de compétence d'un enfant et le niveau de difficulté des exercices à proposer. 4.2 La mise à disposition des traces Les traces peuvent être mises à disposition des utilisateurs de manière didactique. La visualisation correspond à une association de données à des représentations (Tufte, 2001). Dans sa définition, Few (2013) met en avant le principe d’amplification cognitive. Pour cet auteur, la visualisation recouvre l’ensemble des représentations visuelles qui facilite l’exploration, l’analyse et la communication de données. Dans les environnements d’apprentissage médiatisé, les visualisations offrent une mémoire externe qui décrit les événements passés et sert de support à la communication et à la coordination (Dimitracopoulou & Bruillard, 2007). Sur le plan informatique, le développement de la visualisation s’opè re en plusieurs étapes successives (May, 2010), à partir des activités médiatisées des apprenants dans leur environnement de travail jusqu’à la visualisation de celles-ci.Le développement de la visualisation passe par différentes étapesclefs: l’enregistrement de la trace, le recueil des données, le traitement des données et l’élaboration d’indicateurs, le design de la visualisation ainsi que la mise à disposition de celle-ci. D’un point de vue conceptuel, les visualisations font partie intégrante des outils de suivi dans un environnement d'apprentissage médiatisé. L’idée de visualiser l’apprentissage à partir de l’exploitation des traces laissées par l’apprenant durant son parcours d’apprentissage a rapidement trouvé un consensus dans la communauté EIAH ces derniè res années avec les recherches centrées sur l’analyse automatique des interactions (Dimitracopoulou, 2008). 33 Si les visualisations sont susceptibles de synthétiser un nombre conséquent d’informations et de faciliter leurs interprétations, elles ne permettent cependant pas de compenser un environnement en face à face. Plusieurs publications récentes mettent en évidence l’importance de se doter d’outils qui permettent de visualiser des informations directement liées à la médiation sociale et cognitive (Janssen & al., 2011 ; Buder, 2010). On peut, en effet, considérer que les informations sont plus facilement disponibles et traitables dans un environnement numérique grâce à l’archivisation et à la disponibilité des traces informatiques. L’intérêt réside davantage dans la mise en évidence d’informations, qui ne sont pas directement observables par l’apprenant, de maniè re à lui offrir une réalité augmentée du processus d’apprentissage. Le principe est donc de rendre visible et persistant ce qui est difficilement perceptible ou imperceptible. Les outils offrant ces visualisations sont souvent désignés par les termes de tableau de bord. Ils informent les sujets sur l’état de leurs actions et de leurs interactions à travers une série d’indicateurs qui leur donnent la possibilité de découvrir la maniè re dont ils interagissent et évoluent dans l'environnement (Janssen & al., 2007). Ces indicateurs peuvent communiquer des informations qualitatives et quantitatives par rapport aux actions et aux interactions ayant eu lieu précédemment dans l’environnement. Dimitracopoulou & Bruillard (2007) évoquent clairement cette idée dans leurs travaux relatifs à l’usage des forums de discussion en éducation. Pour ces auteurs, il s’agit d’aider à concevoir des interfaces enrichies, ouvrant à de multiples lectures des échanges enregistrés. Ces supports permettant des représentations multiples et diversifiées peuvent apporter une assistance métacognitive directe aux participants (étudiants, tuteurs ou modérateurs) des forums en cours de formation. Dans ce cas, l’exploitation est endogè ne, car elle sert directement à l’activité d’apprentissage (Laflaquiè re & Prié, 2007). Les visualisations peuvent aussi fournir une assistance cognitive aux observateurs des interactions d’un forum (enseignants, chercheurs, etc.) qui sont amenés à analyser a posteriori le processus mis en place. L’usage des visualisations est alors de type exogè ne, car elles sont utilisées en dehors de l’activité elle-même (Laflaquiè re & Prié, 2007). Sur le plan pédagogique, l’observation des informations disponibles dans la visualisation initie un mécanisme de feed-back (Janssen & al., 2007) que définit Hattie (2009) comme une information fournie par un agent extérieur par rapport à l’activité de l’apprenant. Hattie (2009) met clairement en évidence au travers des méta-analyses que le feed-back constitue la pratique pédagogique qui a la taille d’effet la plus importante (d=1.13) en contexte d’apprentissage. Le principe est simple ...il est plus facile de s'améliorer quand on dispose d'éléments qui ont été objectivés et mesurés. En nous appuyant sur les théories du feed-back, on peut considérer que la visualisation de l’activité correspond davantage à ce que Crahay (2005, p.144) définit comme « un feed-back de contrô le qui invite l’apprenant par lui-même à vérifier sa démarche». Dans une étude expérimentale, il montre que cette sollicitation d’une auto-évaluation a davantage d’effet sur la qualité de l’apprentissage que des rétroactions simples ou plus directes de l’enseignant. Dillenbourg (2011) va dans le même sens. Selon lui, l’intérêt principal des outils de visualisation réside dans le fait qu’ils ne formulent pas directement un feed-back expliqué sur la qualité des interactions et de la situation. Ils laissent plutô t la liberté aux élè ves de disposer d’une rétroaction qu’ils ont eux-mêmes élaborée à partir des informations disponibles au sein de la visualisation. Par ailleurs, en nous référant à Hattie & Timperley (2007) qui s’appuient sur les travaux de Kulik & Kulik (1988), le feed-back au cours du processus d’apprentissage est d’autant plus efficace qu’il est 34 administré immédiatement. Nous pouvons considérer que la visualisation obtenue à partir d’un processus informatique automatisée offre cette possibilité de fournir aux apprenants une rétroaction « just in time ». Un certain nombre d’auteurs considè re que, par le biais des visualisations, cette rétroaction d’informations exerce également un rô le motivationnel au niveau des apprenants (Janssen & al., 2007 ; Michinov & Primois, 2005). 4.3 Le degré d'étayage de la visualisation des traces Le statut des indicateurs correspond au degré d’étayage de la visualisation. Pour bien comprendre cette idée d’étayage, Jermann & Dillenbourg (2008) proposent un modè le pragmatique à prendre en compte d’un point de vue pédagogique. 4.3.1 Le niveau "miroir" !! Il correspond à la logique du miroir et consiste à afficher les indicateurs de l’activité dans l’environnement (Phase 1 et Phase 2). Dans notre vie quotidienne, ce principe est souvent mis en œuvre dans les technologies que nous utilisons afin de réguler certaines de nos actions (par exemple : l’affichage instantané et permanent de la consommation aide la conduite automobile). Lors de cette phase, le contrô le de l’activité reste alors entiè rement entre les mains de l’utilisateur dans l’environnement de travail dans la mesure où il doit interpréter lui-même les données fournies par les indicateurs. 4.3.2 Le niveau "métacognitif" Le modè le de Jermann & Dillenbourg (2008) met également en évidence que la visualisation peut dépasser la simple fonction de miroir. Le concepteur associe alors l’indicateur ou plusieurs indicateurs à un modè le de référence qui induit un état désiré de la collaboration (Phase 3). Pour Dimitracopoulou (2008), les valeurs de l’indicateur doivent alors être graduées par le biais d’un mécanisme de calibrage qui fixe une norme prédéfinie et adaptée au contexte de la situation. Cette norme correspond à la fixation d’un objectif précis à atteindre pour les apprenants. Le but de cette approche plus normative est de fournir à l’apprenant une aide cognitivo- perceptive pour mieux diagnostiquer et interpréter la situation en question. Une visualisation qui correspond à cette logique de norme et d’objectif est le 35 cadran proposé par le systè me Nike Runnning GPS pour les coureurs à pied. En course, il les informe de leur progression (jauge du bas) par rapport à un objectif fixé (pastille blanche qui représente un coureur virtuel) sur une distance donnée. Dans l’exemple proposé ci-dessous, il indique que le coureur est en retard par rapport à la vitesse choisie au départ comme référence. Il a encore la possibilité de se réguler et de compenser son retard dans la derniè re partie de la course. En contexte collaboratif, le logiciel Streamy (Duval & al., 2012) donne à un élè ve la possibilité d’observer son niveau d’implication dans un cours en prenant en compte différents indicateurs comme le nombre de tweets en lien avec le cours, le nombre de liens fournis avec le cours, l’investissement du temps, les commentaires apportés aux informations fournies par les partenaires... Le point de vue métacognitif est obtenu à l’aide d’une jauge qui synthétise son niveau d’engagement dans la collaboration. Elle stimule l’apprenant à se questionner et à prendre du recul par rapport à son implication. Une aiguille orientée vers la gauche indique une collaboration restreinte alors qu’une aiguille orientée vers la droite montre un niveau élevé de collaboration. Le statut métacognitif peut également faire référence à la moyenne des autres groupes dans l’environnement. Calvani & al. (2009) se sont appuyés sur ce principe de comparaison. Leur outil visualise l’activité collaborative au sein d’un forum de discussion. Il informe le groupe sur la qualité de ses interactions au travers d’une série d’indicateurs (degré d’assiduité, approfondissement de la discussion, réponses fournies, équilibre des échanges, types d’interventions, lecture réciproque, etc.) avec les moyennes des indicateurs des autres équipes collaboratives présentes dans l’environnement comme point de comparaison (v.diaporama du cours 3). Complémentairement au graphique, un tableau de type miroir signale également la présence d’apprenants qui adoptent au sein du groupe un comportement plus en retrait (nombre d’apprenants uniquement lecteurs : lurkers et nombre d’apprenants inactifs : inactive). Dans cette troisiè me phase, le contrô le est davantage partagé entre le systè me et l’utilisateur. Le systè me fournit en effet une indication relative par rapport à une norme avec laquelle l’utilisateur prend la décision de modifier le cas échéant son comportement. 4.3.3 Le niveau "guidance" Le systè me peut également fournir de maniè re automatique une information explicite de type de guidance (Phase 4) qui passe alors par l’élaboration et par l’affichage d’une relance automatique à l’apprenant et associée à la visualisation (encourager la participation, suggérer l’usage d’outils, etc.). Pour Jermann & Dillenbourg (2008), le systè me doit alors interpréter les valeurs calibrées par comparaison avec un modè le de référence fixé au départ (Phase 3). À partir de traitement, le systè me prend la décision par rapport à la nécessité d’informer les individus en vue de réguler leur activité. Si 36 l’on prend l’exemple de la voiture, le niveau de guidance peut être associé à un signal lumineux ou sonore qui informe d’un volume d’essence faible et qui rappelle au conducteur de s’approvisionner au plus vite. Intégré dans un contexte d’apprentissage collaboratif, l’outil d’assistance de Duolingocorrespond à cette approche de guidance automatique. Sur la base d’une analyse de leurs activités, le systè me informe les apprenants de leur niveau d’engagement dans l'apprentissage. Par le biais d’un courriel, il délivre aux apprenants une notification automatisée intégrant des recommandations adaptées pour remédier à la situation problématique. Au niveau psychomoteur, un exemple intéressant est proposée par l'outil Swimbot. Il est basé sur le principe de l'apprentissage profond . Le dispositif consiste à analyser l'activité des nageurs pour leur fournir un retour sur la qualité de leur nage en temps réel (position de la tête, mouvements des bras, des jambes, ...). Un signal sonore envoie l'information aux nageurs quand un mouvement n'est pas efficace. Le jeu consiste pour le nageur à supprimer ce bruit signe d'une correction du geste. Au niveau de la course à pied, Moov propose un dispositif similaire pour améliorer sa démarche en fournissant un f-b par rapport au nombre de pas par foulée, à l'impact de votre corps sur le sol, ... Ce dernier niveau peut être associé à la démarche d'adaptative learning qui consiste à tenir compte de l'activité antérieure des élèves pour leur proposer des tâches dans leur zone proximale de développement. Le site Tacit s'appuie sur ce système pour aider les élèves dans le développement de la compétence inférentielle en lecture. Le modèle statistique de réponse à l'item développé par les concepteurs de Tacit permet d'établir une correspondance précise entre le niveau de compétence d'un enfant et la difficulté relative des exercices. Le service Duolingo fonctionne sur le même principe d'adaptation aux apprenants. La programmation d'une séquence pédagogique devient alors rationnelle et individualisée. Elle permet de mettre en oeuvre un véritable apprentissage différencié. Dans la phase 4 du modè le de Jermann & Dillenbourg (2008), le contrô le est donc davantage entre les mains du systè me, car celui- ci génè re des injonctions à l’utilisateur et peut même s’adapter automatiquement à son comportement antérieur. Karsenti (2018) propose un système d'analyse de type adaptatif qui module les parcours d'apprentissage en fonction de leurs démarches antérieures. 37 Perception Alors que les deux premières dimensions (performance et processus) s'intéressent à ce que les apprenants réalisent effectivement, la dimension perception va porter sur ce que les élèves expriment par rapport à leur expérience d'apprentissage ou sur ce que les enseignants expriment par rapport à l'environnement d'apprentissage. Une opinion est une réponse verbale à une question. Elle peut varier en fonction des caractéristiques des acteurs et de la situation. Ce questionnement peut concerner différents aspects : l'utilité, l'efficacité, l'utilisabilité, la motivation et la satisfaction. En termes d'échantillonnage, il y a deux cas de figures : la liste des individus est disponible ou est indisponible. Quand elle est disponible, on peut envisager un sondage aléatoire simple ou un sondage aléatoire stratifié. Quand elle est indisponible, on peut mettre en oeuvre un sondage à deux ou plusieurs degrés (on tire aléatoirement des grappes et des individus dans ces grappes) ou un sondage par méthode des quotas dans le cas d'une population (le chercheur crée alors un modèle réduit de la population). Lors d'une recherche, la perception des acteurs est parfois la seule source d'informations disponible. Dans ce cas, le chercheur peut rechercher à questionner différents types d'intervenants. Cette étude centrée sur l'apprentissage du tableau noir en formation initiale questionne à la plusieurs reprises d'une part, les enseignants "pré-service" et d'autre part, les maîtres de stage qui les accueillent. Plusieurs outils complémentaires peuvent être utilisés pour recueillir l'avis et les caractéristiques initiales des différents utilisateurs (élèves, enseignants, tuteurs, concepteurs, responsables de formation, ... ) de l'environnement technopédagogique. Outils de prise de l’information Questionnaire avec items fermées, échelles de likert, qcm… 38 5.1 Questionnaire d'opinion L'approche par questionnaire est pertinent pour recueillir l'opinion d'un nombre important de sujets. On peut soit construire un nouveau questionnaire soit réutiliser un questionnaire validé d'un point de vue édumétrique. 5.1.1 Questionnaires validés Concernant les questionnaires validés, plusieurs d'entre-eux peuvent être mobilisés. Le questionnaire de Davis (1989) permet de recueillir à l'aide de douze items l'avis des individus concernant l'utilité et l'utilisabilité. Le tableau ci-dessous reprend l'ensemble des items proposés aux étudiants et leurs unités de sens correspondantes à la suite de leur expérience dans un wiki. Chaque item est associé à une échelle de Likert de 6 niveaux (tout à fait en désaccord -> tout à fait d'accord). Vous pouvez prendre connaissance de l'analyse réalisée à partir de ce recueil d'informations dans cet article. Utilité Rapidité : L’utilisation du wiki dans mon emploi me permettrait d’accomplir les tâches plus rapidement. Performance : L’utilisation du wiki améliorerait la qualité de mon travail. Productivité : L’utilisation du wiki dans mon emploi augmenterait ma productivité Efficacité : L’utilisation du wiki améliorerait mon efficacité dans mon emploi. Facilité : L’utilisation du wiki faciliterait l’accomplissement de ma tâche. Transfert : L’utilisation du wiki serait utile dans mon contexte professionnel. Utilisabilité Apprentissage : Il m’a été aisé d’apprendre le fonctionnement du wiki. Contrôlabilité : J’ai trouvé facile d’utiliser le wiki pour réaliser les tâches souhaitées. Clarté et compréhension : Mon interaction avec le wiki a été claire et compréhensible. Flexibilité : J’ai pu interagir en souplesse avec le wiki. Habileté : Il m’a été facile de devenir compétent dans l’utilisation du wiki. Facilité : Le wiki m’a semblé facile à utiliser. De manière complémentaire, Campbell & al. (2003) cités par Feyfant (2011, p.5) mettent en avant l’importance de prendre en compte les caractéristiques initiales des élèves. « Des différences relatives aux capacités intellectuelles et psychomotrices, à l’état des connaissances antérieures, aux sources 39 d’intérêt et de motivation, au style cognitif et au niveau socioéconomique des élèves doivent être prises en compte pour saisir l’influence (ou l’absence d’influence) de pratiques pédagogiques ». Concernant la nature de ces caractéristiques, il peut être ainsi instructif en nous référant au modèle de Slavin (1995) de prendre en considération les buts motivationnels et le niveau de départ des apprenants susceptibles d’avoir un effet de modulation sur les variables décrites ci-dessus. Elles peuvent contribuer à expliquer la qualité de l’apprentissage sur le plan individuel (Rienties & al., 2009). Les buts motivationnels font référence au sens de l’apprentissage et à la valeur que l’élève accorde à la tâche. Deci & Ryan (2000) formulent ainsi l’existence de plusieurs niveaux de motivation déterminés par les buts que se fixe l’apprenant par rapport à la tâche au moment d’initier un comportement. Le modèle distingue trois types de buts : les buts d’évitement, les buts de performance et les buts de maîtrise. La motivation intrinsèque est considérée comme le plus haut niveau de motivation autodéterminée que peut atteindre un individu. L’apprenant animé par des buts de maîtrise ou de compétence réalise une activité pour l’intérêt que lui procure l’apprentissage ou pour le plaisir d’apprendre. La motivation extrinsèque apparaît quand l’individu tente d’obtenir quelque chose en échange de la pratique de l’activité ou pour éviter des conséquences négatives. Elle est donc davantage liée à des raisons instrumentales (performance, récompense, besoin de reconnaissance). Enfin, l’amotivation se traduit plutôt chez l’apprenant par une tendance à éviter la tâche proposée. Le questionnaire de Bouffard & al. (1998) permet de mesurer les buts de maîtrise, les buts de performance et les buts d'évitement. Dans un environnement de type CSCL, Rienties & al. (2009) mettent en évidence que les apprenants animés de buts de maîtrise participent davantage aux échanges centrés sur la tâche à réaliser et sur les aspects cognitifs. Ces résultats corroborent en partie ceux obtenus par De Lièvre & al. (2009) qui montrent que les apprenants avec un degré de motivation intrinsèque plus élevé procèdent plus souvent à une évaluation critique de ce que réalisent ou énoncent leurs partenaires dans le forum de discussion. Quintin (2008) met en avant quant à lui à l’aide d’une analyse de régression qu’un niveau élevé de motivation orientée vers la performance explique en partie la progression individuelle dans un contexte d’apprentissage collaboratif réalisé à distance. 40 Au niveau des styles d'apprentissage, le modè le de Grasha (1996) suppose l’existence de trois dimensions prenant place lors d’interactions sociales : participatif vs fuyant, collaborateur vs compétitif, autonome vs dépendant. · Le style participatif se caractérise par le désir d’apprendre le contenu du cours et de s’engager dans la tâche alors que le style fuyant témoigne plutô t d’un intérêt réduit pour apprendre et une faible participation lors d’une activité. · Le style collaboratif passe quant à lui par le besoin d’interagir avec d’autres tandis que le style compétitif se caractérise par une motivation extrinsè que importante. · Le style indépendant se traduit davantage par une pensée autonome, une bonne confiance en soi, une capacité de se structurer son travail, tandis que le style dépendant est lié au besoin de considérer l’enseignant comme une source d’informations qui structure l’apprentissage. Le questionnaire de Kolb peut également être intéressant à considérer dans la mesure où il s'intéresse à la manière dont les élèves traitent l'information. Il permet de mettre en évidence quatre profils d'apprentissage distincts. Le questionnaire TPACK permet par exemple d'évaluer les perceptions du degré de maîtrise d'un contenu, des connaissances pédagogiques et des habiletés technologiques. Le questionnaire Nasa-TLX permet d'avoir un évaluation subjective par l'apprenant de la charge cognitive qu'il mobilise pour réaliser les tâches d'apprentissage ou pour assurer celle-ci. Il se compose de six sous-échelles complémentaires qui permettent d'évaluer l'exigence mentale, l'exigence physique, l'exigence temporelle, la performance, l'effort demandé et la frustration. Une application (en anglais) sur tablette est désormais disponible pour administrer ce questionnaire. Les trois premières dimensions concernent les contraintes imposées au sujet par la tâche et les trois dernières s'intéressent aux interactions du sujet avec la tâche. 41 5.1.2 Questionnaires à construire Quand il construit un questionnaire d'opinions, le chercheur peut mobiliser différents types d'échelles : le choix d'un niveau par rapport à une affirmation sur une échelle (Likert) et le positionnement par rapport à une échelle bipolaire (différenciateur sémantique d’Osgood). Certaines questions peuvent être proposées sous la forme d'un choix dichotomique. Le chercheur peut enfin solliciter les sujets en leur demandant de classer une série de propositions ou de répondre à une question ouverte. De nombreux outils en ligne existent pour construire et pour administrer un questionnaire (Par exemple : Google Forms). L'avantage de ce type d'outil est de pouvoir recueillir les données directement dans une feuille de calcul exportable ensuite dans un logiciel de statistique (Par exemple : Jasp). Lors de la construction d'un questionnaire, il importe d'identifier le concept (par exemple : la classe inversée) investigué. Plusieurs dimensions seront utiles pour l'appréhender (par exemple : utilité, satisfaction, ...). Chaque dimension sera évaluée à l'aide de différentes questions complémentaires. Chaque item pourra être associé à une variable et chaque réponse sera ainsi un indice pour le chercheur. Concept - Dimensions (1, 2, 3) - Variables (questions 11, 12,...) - Indices (indice 111 = réponse 1 à Q1, indice 112 = réponse 2 à Q1, ...). Au niveau de l'élaboration des questions, évitez le vocabulaire technique et spécialisé (par exemple l'usage d'un jargon lié à la technologie ou à la pédagogie) ainsi que les questions trop longues. 5.2 Entretien L'entretien est plus approprié pour un nombre plus réduit de sujets. Au travers des échanges entre le chercheur et les sujets, il est souvent utilisé pour approfondir certains aspects à partir d'un guide d'entretien élaboré au préalable. Il peut être utilisé de manière complémentaire au questionnaire d'opinion (en sélectionnant un nombre de sujets au profil contrasté et objectivé par l'analyse de leurs réponses aux questionnaires par exemple). La difficulté réside ensuite dans l'analyse des verbatim recueillis. Certains outils de traitement automatique du langage peuvent aider le chercheur à recherche des informations précises dans les textes retranscrits et à les visualiser ensuite (Par exemple : Voyant Tools ou TXM). Vous pouvez également utiliser un logiciel comme wordcounter pour avoir des informations quantitatives sur votre corpus. Ces indicateurs peuvent porter sur différents aspects : nombre de mots, nombre de mots uniques, ... Le logiciel Readerbench offre également de nombreuses possibilités pour traiter le contenu de textes à l'aide de différents modules d'analyses. 42 Traitement des données Voyant Tools urlz.fr/6wNx : 43 Buts motivationnels (Questionnaire reconnu) Questionnaire étabi par Bouffard, Vezeau, Romano, Chouinard, Bordeleau et Filion, Revue Canadienne des Sciences du Comportement, 30 (3), 1998 Mise en évidence de trois axes : Buts d’’évitement (fuir la tâche) Buts de maîtrise Buts de performance (reconnaissance sociale) Echelle de Lickert : (de 1: tout à fait en désaccord à 6: tout à fait d'accord) 1. Dans ce cours, je fais seulement ce qui est nécessaire pour éviter l'échec. => Evitement 2. Dans ce cours, il m'arrive de faire du travail facultatif. => Evitement (score peut être négatif) (si le score est haut, on n’évite pas le travail) (si le score est pas, on évite le travail) 3. Il est important pour moi de bien maîtriser les connaissances et les habiletés qu'on est supposé apprendre dans ce cours. => Maitrise 4. Ce qui est d'abord important pour moi dans ce cours, c'est d'apprendre des choses nouvelles. => Maitrise 5. Dans ce cours, je consacre le moins de temps possible aux activités qui ne comptent pas dans la note. => Evitement 6. Dans ce cours, je suis prêt à travailler fort seulement quand je suis sûr d'avoir des notes élevées. => Performance 7. Dans ce cours, je fais seulement ce qui est vraiment obligatoire. => Evitement 8. Ce qui est d’abord important pour moi dans ce cours, c'est d'avoir des notes élevées. => Performance 9. Je veux terminer ce cours en ayant le sentiment d'avoir appris de nouvelles choses. => Maitrise 10. J'aime quand ce cours me permet de découvrir des choses que j'ignorais. => Maitrise 11. C'est important pour moi de faire mieux que les autres dans ce cours. => Performance 12. Je trouve important d'améliorer mes capacités dans cette matière. => Maitrise 44 13. Dans ce cours, je vise simplement à obtenir la note de passage. => Evitement 14. Ça m'est égal de ne pas être parmi ceux qui ont les meilleures notes dans ce cours. => Performance (social) 15. Dans ce cours, j'aime les tâches difficiles si elles me permettent d'acquérir de nouvelles connaissances. => Maitrise 16. Ça ne me fait rien de perdre des points en autant que je n'échoue pas ce cours. => Evitement 17. Dans ce cours, je fais de mon mieux même si je sais que je n’arriverai pas à avoir une note élevée. => Performance 18. Il m'arrive de faire du travail supplémentaire afin de mieux comprendre la matière de ce cours. => Evitement (il m’arrive, mais cela peut être négatif) 19. Dans ce cours, je suis en compétition avec les autres élèves pour obtenir des notes élevées. => Performance 20. Dans ce cours, je suis prêt à travailler fort pour apprendre de nouvelles choses. => Maitrise 21. Dans ce cours, je veux apprendre le plus de choses possible. => Maitrise 22. Dans ce cours, je suis d'abord et avant tout préoccupé par les notes que j'aurai. => Performance 45 Analyses croisées Si nous pouvons envisager des analyses croisées intra-dimensions (par exemple dans le processus : les liens entre les usages et la qualité des productions), quatre questions dans le modèle qui structure le cours portent sur les analyses inter-dimensions : - Q 4 : Quels liens entre les variables du processus et la qualité des produits de l’apprentissage ? - Q 5 : Comment les acteurs perçoivent-ils les produits d’apprentissage ? Avec quelle cohérence ? - Q 6 : Comment les acteurs perçoivent-ils leur processus d’apprentissage ? Avec quelle cohérence ? - Q 7 : Les perceptions, les produits, les processus sont-ils modulés par les caractéristiques initiales ? Pour apporter des éléments de réponse à ces différentes questions, le principe de base consiste à croiser les observations issues d’au moins deux dimensions différentes (perceptions, caractéristiques, produit et processus). D'un point de vue épistémologique, ce croisement peut être associé à une logique de triangulation qui consiste à confronter des sources d'informations et qui implique la référence à des informations multiples. Elle permet d'améliorer la validité interne de l'étude. Elle évite par ailleurs au chercheur de s'enfermer dans une représentation unique du phénomène et d'aboutir à une meilleure compréhension de la dynamique d’apprentissage. Dans cette perspective, le chercheur peut mobiliser différentes approches analytiques. Il peut ainsi corréler, comparer, prédire, classer, catégoriser et résumer. Cette liste n'est toutefois pas exhaustive. La littérature dans le champ des "Learning Analytics" propose de nombreuses approches complémentaires. Ce croisement peut à la fois s'appuyer sur des démarches qualitatives ou quantitatives (Machine Learning). 46 JASP (guide en ligne : https://jasp-stats.org/2018/09/13/a-new-manual-for-jasp/) Décrire : descriptives Comparer : ANOVA + t-tests Corréler : Regression => correlation Prédire : idem que corréler mais pour plus de 3 variables Catégoriser : pas possible sur l’application, c’est faire des PAQUETS Classer : Frequenties + factor Résumer : Frequenties + factor 1. Décrire Nommer les variables (indépendante/dépendante) Visualiser les pré test et post tests Graphique de ces tests : degré de maitrise et équité 2. Corréler La corrélation consiste à rechercher s'il existe des liens entre les variables considérées. Par exemple, on peut croiser ce que les acteurs nous disent (échelle de Likert d'un questionnaire) par rapport à un outil avec leur usage réel de l'outil technologique (observations dans le dispositif). Une analyse de ce type peut aussi passer par le croisement entre le niveau initial des apprenants (pré-test) et leur usage d'une fonctionnalité dans l'environnement d'apprentissage. Toute la difficulté réside bien évidemment dans l'interprétation d'une corrélation. Une erreur de raisonnement courante consiste à mettre en évidence : « La variable 1 et la variable 2 sont corrélées, donc la variable 1 est la cause de la variable 2 ». Le chercheur effectue une confusion entre corrélation et causalité. En réalité, il se peut aussi que la variable 2 cause la variable 1, ou bien que les deux variables aient une cause commune avec une troisième variable, ou encore que les deux variables soient accidentellement (par le hasard) liées, mais n’aient aucun lien de causalité. Enfin, il est important de ne pas s'enfermer dans une relation linéaire (droite). Il est tout à fait possible que la relation suive une courbe (polynomiale). La représentation graphique (à l'aide d'un tableur) d'une corrélation est par conséquent essentielle. 47 Dans un plan expérimental, il peut être intéressant de calculer la corrélation entre deux variables dans les différentes conditions expérimentales. Cette démarche est appliquée dans cette étude où les chercheurs comparent entre deux conditions (incitation vs pas d'incitation) le lien entre l'usage d'un tableau de bord et le nombre de jours nécessaires pour effectuer le parcours d'apprentissage. Dans la condition "incitation", il n'y a aucune relation entre les deux variables considérées alors que le lien est significatif et négatif entre l'usage et la durée dans la modalité "incitation". Une autre analyse facile à mettre en oeuvre est d'observer le lien entre une performance et l'usage d'une ressources. Dans cette étude, nous observons plusieurs relations : la corrélation entre le niveau de départ (pré-test) et l'usage des aides par QR codes, la corrélation entre la performance en cours d'apprentissage (et au terme) et le type de prompts (QR Codes) utilisés (pour accéder à la présentation de cette étude). 3. Prédire Souvent utilisée dans les études de type Learning analytics, la prédiction consiste à identifier des variables (indépendantes) permettant d’expliquer une variable cible (dépendante). Elle permet d’aboutir à une équation comme celle proposée ci-dessous. On est dans une situation où on essaie à partir de certaines valeurs en avoir une autre. Y correspond à la variable à prédire. X1, X2, etc... sont les variables indépendantes de la prédiction. Le βo (Bêta zéro) est la constante qui correspond à la prédiction quand X1, X2 valent zéro. Enfin, ∈ (Eta) correspond à la valeur résiduelle de la prédiction (il restera toujours une erreur irréductible dans un algorithme de ce type qui est liée à l'incertitude). Par exemple, il peut être pertinent d'identifier les variables du processus et les caractéristiques initiales qui expliquent la progression des apprenants dans la maîtrise des compétences. Les différents β1, β2 correspondent aux coefficients de la pente. Ils expliquent la valeur de Y quand la valeur des X varient. Cette séquence vous propose une explication complémentaire et didactique de la prédiction. D'un point statistique, l'analyse de régression linéaire donne la possibilité d'effectuer ce type de traitement. Pour utiliser de manière appropriée cette méthode, il faut à la fois veiller à obtenir un nombre restreint de prédicteurs pertinents et significatifs tout en s’intéressant au degré de prédiction 48 fourni par la valeur du R2 ajusté. Le logiciel Jasp (open source et gratuit) propose cette fonction d'analyse multivariée. 4. Comparer Il peut être également intéressant de créer une nouvelle variable à partir de deux variables issues de dimensions différentes. Dans cet article, nous calculons le degré d'efficience (= logique coût - bénéfice) des groupes collaboratifs. Il est obtenu par le rapport entre la qualité de la production collaborative au terme de l'apprentissage (produit) sur le temps effectué pour réaliser cette synthèse (processus). On peut ensuite utiliser cette nouvelle variable dépendante pour évaluer les effets des variables indépendantes manipulées dans le dispositif dans la perspective de mettre en avant les conditions les plus intéressantes d'un point de vue pédagogique. 5. Catégoriser (= faire des paquets) RAPIDMINER 1er principe : faire des groupes très différents (si 3 groupes, 3 groupes différents) (recherche de séparation) 2e principe : dans le même groupe, les personnes se ressemblent beaucoup (recherche de cohésion) L'objectif de cette dernière démarche est d'identifier des profils d'acteurs différents qui ont progressé dans le dispositif. Sur le plan statistique, le chercheur peut s'appuyer sur les démarches de catégorisation automatique (Clusters). Cette procédure statistique vise à trouver une structure intrinsèque aux données en les organisant en groupes homogènes et distincts, appelés « clusters ». Pour former un « cluster », les éléments doivent être à la fois similaires entre eux et différents des objets regroupés dans d’autres « clusters » (Quintin, 2008). 49 On distingue trois algorithmes principaux pour créer des clusters (groupe : nuées dynamiques, classification hiérarchique et classification two-step. Si ces algorithmes génèrent des catégories de manière automatique, il reste bien évidemment un travail d'interprétation qui passe par une interprétation des différentes classes (= mettre une étiquette sur chaque classe). L'intérêt de cette méthode permet de générer une nouvelle variable (le profil spécifique) permettant aux chercheurs d'effectuer de nouvelles analyses des données à sa disposition. Le logiciel SPSS propose un module de classification automatique. Vous pouvez également utiliser le logiciel Weka pour mener à bien ce traitement sur les données. En médecine : identifier des patients qui ont des symptômes similaires à partir d’observations et de caractéristiques individuelles En biologie : Elaborer des taxonomies avec des groupes et sousgroupes dans la faune et dans la flore à partir d’observations En éducation : créer des profils d’apprenants (d’enseignants) homogènes à partir de ce qu’ils font ou de ce qu’ils disent En marketing : Dresser des profils de consommateurs qui ont les mêmes besoins et les mêmes comportements Rapidminer : Importer donnée, cliquer sur « auto model », choisir « clusters », choisir maximum 4 variables à regrouper, choisir ensuite plutôt le « k » pour choisir le nombre de clusters qu’on veut. Cliquer sur « centroid table » pour avoir les valeurs. On peut imaginer faire un tableau excel grâce à cela. 50 La démarche par clusters est… - Complémentaire à d’autres analyses quantitatives et/ou qualitatives : analyse plus approfondie - Pertinente pour identifier de nouvelles variables indépendantes a posteriori : créer des profils avec comportements différents (catégoriser) - Utilisable avec ses différentes sources d’informations (produits, processus, perceptions, caractéristiques individuelles) : nouvelle VI (voir les individus dans quel cluster il se trouve !) - Utile pour synthétiser et visualiser des quantités importantes de données : visualisation globale 6. Classer La logique du classement est un peu différente de celle de la catégorisation. Elle s’appuie sur la création d’arbres de décision. Ceux-ci ont pour but de répartir les sujets de l’échantillon en groupes homogènes selon un ensemble de variables discriminantes (par exemple : les caractéristiques individuelles, les variables du processus) et en fonction d’une variable de sortie (par exemple : échec ou réussite à un post-test) et non par rapport aux groupes. Les résultats de cette analyse permettent d'aboutir à la mise en évidence d'une série de règles de type "Si..., alors...". 7. Résumer Le chercheur se retrouve souvent devant une masse importante de données. Selon une logique de réduction, il est donc parfois utile de synthétiser celles-ci afin de mieux les appréhender. Une analyse factorielle des correspondances multiples (AFC) et une analyse en composantes principales (ACP) donnent la possibilité de prendre du recul par rapport à un ensemble de données important. L'analyse en composantes principales articule des variables liées (ou corrélées) pour créer de nouvelles variables décorrélées les unes des autres, appelées composantes principales. Un bel exemple d'analyse de ce type est proposé ici avec le logiciel "je lève la main." 51 L'Analyse Factorielle des Correspondances (AFC) est une méthode qui permet d'étudier l'association entre deux variables qualitatives issues d'un tableau de contingence (tableau à double-entrée) et de créer une nouvelle représentation des données issues de celui-ci. L'objectif est de résumer la structure des oppositions et des rapprochements entre les lignes et les colonnes du tableau. Cette méthode s'appuie sur le principe de l'inertie et donne la possibilité de situer différents groupes dans un systè me de coordonnées à deux dimensions. Elle met en évidence les distances ou les rapprochements qui peuvent exister entre ces groupes. Khaneboubi (2015) mobilise cette démarche pour associer des caractéristiques individuelles des utilisateurs d'un MOOC et leur perception de leur expérience d'apprentissage. Le site Voyant Tools ou l'application TXM vous donnent la possibilité d'effectuer ce type d'analyses croisées. A retenir de ce cours, selon M. Temperman 1. Choisir les outils en fonction du questionnement (et vice versa, à l’envers !) 2. Sortir des sentiers battus : il n’y a pas que du questionnaire en Sciences de l’Education. Les études de terrain existent. Différente type d’analyse, ça permet de trianguler, c’est super ! 3. Combiner différents types d’analyse : schéma, tableau, analyse… essayer de les démontrer de manière didactique 4. Veiller aux aspects didactiques dans la communication des résultats Objectifs du cours : • Recueillir et exploiter les traces issues d’un environnement d’apprentissage • Différencier les variables relatives au processus, au produit et à la perception d’apprentissage • Mettre en oeuvre de manière complémentaire des démarches d’analyse quantitative et qualitative • Utiliser des logiciels d'observation et de traitement des données 52 Conclusion Dans le cadre de ce cours, la démarche présentée s’adresse au chercheur qui s’engage dans une étude que l’on peut qualifier d’empirique dans la mesure où les éléments de réponse qu’il tente de trouver aux questions qu’il se pose se fonde sur des faits observés sur son « terrain » d’investigation. Les différentes analyses proposées et découvertes dans ce cours peuvent être classées dans la quadrant ci-dessous en considérant la manière de prendre de l'information auprès des acteurs et le type de démarche (quantitatif vs qualitatif). Nous devrions dire « se fonde en partie sur des faits observés » car ce type de recherche ne peut faire l’économie du mouvement, inévitable nous semble-t-il, entre les faits observés et analysés (son terrain d’étude) : d’une part, les résultats engrangés par d’autres chercheurs du domaine et, d’autre, part la « théorie » scientifique qui permet de « faire du sens » à partir des différents résultats obtenus Si les technologies sont des outils au service de l'apprentissage, nous pouvons également considérer que les outils eux-mêmes constituent des outils précieux entre les mains des chercheurs pour mieux comprendre l'apprentissage mis en oeuvre avec ou sans les technologies. Enfin, ne tombons pas dans le piège d'une logique de la mesure à tout prix...Ce qui compte ne peut pas toujours être compté, et ce qui peut être compté ne compte pas forcément" (Einstein) ;-) 53 Wooclap - Les degrés de certitude permettent d’évaluer le niveau de compétence opérationnelle - Un coefficient de discrimination proche de 0.6 indique que l’item est bien formulé - Si la corrélation entre le prétest et le gain relatif est négatif cela signifie que les élèves faibles au départ ont progressé - Il existe 4 indicateurs complémentaires pour évaluer les résultats d’apprentissage la progression, le degré de maitrise, le transfert et l'équité. Un enseignant-chercheur réalise un pré-test et un post-test et calcule l'évolution de la variance entre le pré-test et le post-test en utilisant le coefficient de variation. Il observe également le pourcentage obtenu lors de post-test et met en évidence tous les scores inférieurs à 80. Il évalue donc le degré maitrise (posttest) et l’équité - L'utilisation des degrés de certitude dans les QCM donne la possibilité de calculer un score de prudence. Que signifie la situation où un apprenant obtient un score de prudence élevé ? L'élève répond incorrectement mais n'est pas sûr de ses réponses (il est prudent) - Voici une situation : Nicolas accède au tableau de bord de la plateforme esprit. Différentes informations qualitatives et quantitatives concernant les actions et interactions lui sont fournies. Il observe que son nombre de messages postés sur le forum est fortement inférieur à ceux des autres membres de son équipe. Nicolas va participer plus régulièrement sur le forum d’équipe. Quelles sont les propositions correctes relatives à cette situation ? a. L’usage des visualisations est de type exogène b. Le nombre de messages postés sur le forum est un indicateur cognitif c. Les informations reçues par l’apprenant quant aux traces l’amènent à poser un feed-back de contrôle et à se réguler. d. La variable mentionnée est relative à la catégorie des interactions Principe de mémoire - La Khan Academy est une plateforme mettant à disposition des cours et des exercices dans différentes disciplines et niveaux. Dans certains modules, l’apprenant peut réaliser un test diagnostique et en fonction des résultats obtenus, un parcours individualisé est défini où des exercices lui sont suggérés. L’application « Le Secret du Poids » vous a été présentée précédemment. Quelles sont les propositions correctes ? a. b. c. d. Ces 2 exemples sont tous les deux liés au niveau « miroir » Le Secret du Poids peut être associé à de l’adaptative learning La Khan Academy peut être associée à de l’adaptative learning La Khan Academy propose des tâches dans la zone proximale de développement de l’apprenant 54 - Selon le modèle de l’acceptation technologique, quelles sont les affirmations correctes ? a. Les connaissances technologiques de l’individu influencent l'utilité et l’utilisabilité de l’outil b. L’utilisabilité a le plus d’impact sur l’intention d’utiliser : c’est le contraire !! c. Si l’outil est facile à utiliser, il est probable qu’il soit perçu comme utile d. L’utilité impacte l’utilisabilité : c’est le contraire - Le questionnaire de Davis questionne l’acceptation d’une technologie à travers 2 dimensions. Voici 2 items inspirés de ce questionnaire : 1/ L’utilisation de l’application améliorerait mon efficacité dans mon emploi. 2/ L’utilisation de l’application dans mon emploi me permettrait d’accomplir les tâches plus rapidement. a. b. c. d. L’item 1 est de la dimension « utilité » et l’item 2 est de la dimension « utilisabilité » L’item 1 est de la dimension « utilisabilité » et l’item 2 est de la dimension « utilité » Les 2 items sont de la dimension « utilisabilité » Les 2 items sont de la dimension « utilité » (efficacité, ca va aller plus vite donc utile) Q. davis - En mars 2016, une étude analysant les facteurs qui poussent un apprenant à aller au bout d’un dispositif d’apprentissage numérique a été publiée. Les chercheurs se sont notamment intéressés au potentiel lien existant entre le genre des sujets et les taux de complétion (nombre de sujets terminant le dispositif d’apprentissage). Entre ces 2 variables, l’équipe a dû réaliser : a. une corrélation b. une prédiction c. une catégorisation d. une comparaison - Une équipe de chercheurs s’intéresse aux effets des modalités d’intégration d’un outil d’autorégulation dans un environnement d’apprentissage collaboratif à distance. Cette recherche est basée sur un plan factoriel à 2 variables indépendantes. Celles-ci sont l’incitation à l’usage de l’outil et la planification de la tâche à réaliser. La première est à 2 niveaux : incitation à utiliser l’outil vs non incitation à utiliser l’outil. La seconde variable est à 3 niveaux : planification imposée, planification négociée, aucune planification. Dans lequel des énoncés suivants est mobilisée une approche analytique de comparaison ? A. B. C. D. L’équipe cherche un lien entre l’usage de l’outil et le niveau initial des apprenants L’équipe calcule le degré d’efficience (note obtenue/temps) et l’utilise pour voir les effets des variables indépendantes manipulées VD : degré d’efficience L’équipe identifie des profils d’apprenants différents qui ont progressé dans le dispositif L’équipe répartit les apprenants en groupes homogènes selon les caractéristiques de ceuxci et la réussite ou échec à la tâche finale 55 - On calcule le taux d’hétérogénéité au pré-test et au post-test. On obtient 58,45% au post-test. Sachant que le dispositif a augmenté les écarts initiaux entre les élèves, le taux d’hétérogénéité au pré-test peut valoir : Taux d’hétérogénité : plus il se rapproche de 0 et plus les élèves sont dans une situation d’équité : partage de compétence a. 42,83% b. 68,14% c. 53,19% - Cette démarche consiste à identifier des variables indépendantes permettant d’expliquer des variables dépendantes. Il s’agit d’une … : a. b. c. d. - Prédiction Comparaison Catégorisation Corrélation Assertion (donner la conséquence) : dans le cadre d’une étude, on obtient une corrélation positive entre le niveau initial des apprenants et leur degré d’utilisation du tableau de bord d’un environnement numérique d’apprentissage. Plus le niveau initial des apprenants est haut, plus ils utilisent le tableau de bord de l’environnement numérique d’apprentissage. Raison (cause) : le niveau initial des apprenants est la cause de leur usage du tableau de bord de l’environnement numérique d’apprentissage A. A et R sont vraies et R est l’explication correcte de A B. A et R sont vraies et R n’est pas l’explication correcte de A C. A est vraie et R est fausse. On ne peut pas déduire cette raison-là. C’est le problème des corrélations, ça va peut-être dans un sens mais pas dans l’autre. D. A est fausse et R est vraie E. A et R sont fausses - Dans le cadre d’une recherche appliquée, que signifie le concept « triangulation » ? a. Le chercheur met en perspective les faits observés au regard des résultats antérieurs et du cadre conceptuel b. Le chercheur génère des questions de recherche en considérant la manière de prendre de c. l'information auprès des acteurs et le type de démarche Le chercheur s’engage dans une étude empirique où les éléments de réponse qu’il tente de trouver aux questions qu’il se pose se fonde sur des faits observés sur son « terrain » d’investigation 56 Examen : 1. Dimension conceptuelle : + questions à piocher (N=35) sur des concepts du cours. Être capable avec mes mots de débattre sur ces notions. 57