L’irruption de ChatGPT dans l’enseignement
La question de la compétence informationnelle et la gestion de l’intelligence artificielle dans les salles de cours : témoignage d’une expérience dans le cadre de l’enseignement-apprentissage de l’espagnol.
Par Yannick Iglesias-Philippot
Dans le cadre de l’enseignement-apprentissage des langues de spécialité, la formation à la compétence informationnelle se retrouve au cœur du dispositif mis en place tout au long du cursus universitaire. S’il me semble toujours primordial de privilégier la compétence informationnelle comme une compétence transversale clé en langue de spécialité, l’irruption médiatique autour de l’intelligence artificielle (IA) et de ChatGPT au cours de l’année universitaire 2022-2023 rebat les cartes et interpelle toute la communauté éducative.
Certes, l’IA ne date pas d’hier et nous l’utilisons parfois depuis plusieurs années sans en avoir conscience. De quoi s’agit-il? Pourquoi cette question divise-t-elle? Doit-on l’interdire, comme l’a fait Sciences-Po, mettre des garde-fous ou intégrer l’IA dans l’enseignement-apprentissage des langues ? Faut-il repenser et modifier les dispositifs mis en place? Mon objectif ici est de contribuer à cette réflexion en apportant quelques éléments concrets, fruits du travail réalisé avec des étudiants de première année de Master pendant l’année universitaire 2022-2023.
Étape 1 : Prendre conscience des limites informationnelles des réseaux sociaux
La présentation de plusieurs travaux individuels a mis en lumière le caractère aléatoire du système d’information des étudiants. L’un d’eux a illustré la problématique de la gestion de l’eau avec les évènements de Sainte-Soline (automne 2022) liés à la construction de mégabassines en France. À son grand étonnement, comme au mien, personne n’en avait entendu parler. À la question posée sur la source de leurs informations, la réponse est unanimement : via les réseaux sociaux. Pourquoi génèrent-ils autant de différences entre les utilisateurs? L’explication est dans les algorithmes qui sélectionnent les informations en fonction des centres d’intérêt et des profils des utilisateurs, ce qui finit par créer des communautés cloisonnées.
Avec l’intelligence artificielle la formation à la compétence informationnelle doit relever de nouveaux défis qui rendent cette formation plus complexe
Nous sommes bien au cœur de la problématique de la compétence informationnelle (CI) qui va au-delà du cas concret de la langue de spécialité. Dans un contexte global de lutte contre l’infobésité, la sélection et la pertinence des informations ne constituent pas une nouveauté, mais avec l’IA, tel ChatGPT qui permet de produire des contenus adaptés aux profils des utilisateurs, la formation à la CI doit relever de nouveaux défis qui rendent cette formation plus complexe. Le cas que je mentionne a mis en lumière un vrai problème qui a fortement interrogé le groupe. J’ai saisi cette occasion pour soulever la question de la recherche d’informations et du problème de la sélection liée aux algorithmes, tout en réfléchissant sur la stratégie à mettre en place pour sensibiliser les étudiants à cette problématique et proposer des pistes pour pallier ce déficit d’informations. Les enseignants sont plutôt démunis face à cette rapide évolution et nous devons nous garder de tout jugement sur le rôle et la place des réseaux sociaux. Nous sommes témoins et dressons un constat. Dans le cas présent, les étudiants ont pris conscience des limites de leurs sources d’information.
Pour ma part, je me suis fixé comme objectif d’exploiter cette situation et d’essayer de trouver un moyen pour les accompagner dans cette réflexion sur la CI à l’ère des réseaux sociaux : comment utiliser ces nouveaux outils tout en étant conscients des bénéfices et des limites? Le but étant d’aborder ces questions par le biais d’exemples concrets, à travers des projets.
Étape 2: Accompagner la réflexion des étudiants sur l’IA
À l’occasion d’un autre travail personnel, j’ai constaté qu’un étudiant apportait un éclairage partiel et très orienté sur le sujet traité (le bilan de l’adoption du Bitcoin comme monnaie officielle au Salvador depuis septembre 2021). Fervent adepte de toutes les innovations technologiques, cet étudiant était le seul du groupe à utiliser de façon régulière l’IA dans ses travaux de recherches, ce qui a suscité beaucoup d’intérêt et de questions de la part de l’assistance, moi incluse.
Il présentait la bitcoinisation comme une opportunité pour le pays, un facteur de développement économique, reprenant ainsi sans en avoir conscience les arguments des (rares) défenseurs de cette mesure, même s’il évoquait rapidement le problème de la volatilité de la cryptomonnaie. La question n’est pas de savoir si l’on est partisan ou pas de la bitcoinisation mais de comprendre les enjeux et de dresser le bilan socio-économique pour le pays, en prenant en compte toutes les analyses. Consciente de la partialité du contenu, je me suis néanmoins abstenue d’émettre un jugement.
Comme je le fais systématiquement après toute intervention, j’ai questionné l’étudiant sur les sources consultées et il a confirmé qu’il avait réalisé ce travail en utilisant uniquement l’IA. J’avais là l’occasion d’aborder la question des limites de l’IA. Dans ce cas précis de l’étudiant geek, toutes les informations obtenues allaient dans ce sens, sans prendre en compte des arguments adverses.
À la séance suivante, j’ai proposé de visionner deux extraits d’interviews de spécialistes pour comparer leur analyse avec celle de l’étudiant, pour voir si elles étaient semblables ou si l’on relevait des différences à prendre éventuellement en compte dans la synthèse finale. Tous les étudiants, y compris le geek, ont été très étonnés de découvrir une série d’arguments qui n’étaient pas du tout évoqués dans sa présentation, apportant un nouvel éclairage à l’opposé de son travail. Après les avoir relevés, nous avons ensuite essayé de comprendre ces divergences, de les expliquer, ce qui à nouveau a mis en lumière le problème de la partialité des informations reçues par le biais de l’IA. Cela a permis aux étudiants d’en tirer eux-mêmes les conséquences et les leçons. Ils ont compris la nécessité de rechercher des informations en utilisant d’autres voies pour les compléter, les comparer, les analyser dans le détail et d’affûter leur esprit critique pour appréhender les questions dans leur globalité, en prenant en compte différents points de vue. Il était donc nécessaire de concevoir une dernière étape pour voir si les étudiants avaient intégré ou non ces observations en diversifiant et interrogeant les sources consultées.
Étape 3 : Mettre en œuvre un projet collectif sur le big data
L’implication et la cohésion de ce groupe d’étudiants de première année de Master ont permis de mettre en place cette dernière phase de la formation dans le cadre de l’action collective. Il s’agit de proposer au groupe de définir dans sa totalité un projet de leur choix : or celui-ci s’est porté sur le big data et avec lui la question de la gestion des données, personnelles ou autres. Ils ont dû ensuite définir et planifier leur projet. Les étudiants ont choisi de traiter chacun un sujet directement en rapport avec leur spécialité, (comparaison des algorithmes de TikTok et Instagram, programmes commerciaux de stockage de données, numérisation du secteur de la santé, etc.). Une fois leur décision prise, je leur ai proposé de commencer la séquence par deux documents que j’avais sélectionnés pour présenter le sujet et les problématiques (bénéfices et limites), point de départ pour une synthèse finale enrichie par la suite de leurs contributions. Dans ce type de projet, l’enseignant accompagne, coordonne les différentes interventions et apporte des informations complémentaires s’il en ressent la nécessité. Il peut puiser alors dans le corpus qu’il a élaboré en fonction des besoins, comme ce fut le cas pour le bilan de la bitcoinisation au Salvador.
Questionner de façon constructive un nouvel outil qui débarque dans nos salles de cours, et mener ce questionnement conjointement avec nos étudiants
Dans l’évaluation finale de ce projet collectif sur le big data, tous les acteurs (étudiants et enseignant) ont été d’accord pour affirmer que les productions prenaient en compte la diversification des sources, tous les étudiants ayant intégré dans leur présentation des sources divergentes qui ne reflétaient pas forcément leur point de vue ou un seul point de vue, ce qui précisément les aidait à mieux appréhender les questions dans leur globalité, étape indispensable pour ensuite leur permettre de se positionner sur le sujet. Dans le cas de l’étudiant geek, il ne s’était pas contenté du contenu produit par l’IA. Chaque étudiant est revenu sur le processus de sélection d’informations qu’il a exposé et commenté en mettant en évidence le recours à plusieurs sources identifiées et répertoriées.
Cette expérience a été enrichissante pour tous. Elle a suscité beaucoup d’intérêt, de réactions et de questionnements mais aussi des réponses concrètes dans un contexte complexe qui peut être anxiogène. Ce compte rendu d’expérience n’a pas la prétention de trancher sur l’usage de ChatGPT à l’université mais il a le mérite d’illustrer la possibilité de questionner de façon constructive un nouvel outil qui débarque dans nos salles de cours, et de mener ce questionnement conjointement avec nos étudiants. Cette démarche exige un travail d’équipe qui s’inscrit dans un cadre professionnalisant et dans un contexte très particulier d’irruption de l’IA qui amène les enseignants à questionner leur pratique.
Yannick Iglesias-Philippot est maîtresse de conférences en espagnol à la Faculté d’économie de l’Université de Montpellier. Laboratoire DIPRALANG.