Face à l’IA, l’enseignant ne doit pas se transformer en chasseur de fraudes, mais repenser sa pédagogie
Aussi performantes soient-elles, les intelligences artificielles génératives ne peuvent remplacer les professeurs dans leur travail d’éducation à l’esprit critique auprès des élèves. Mais pour bien remplir ce rôle, ils doivent remettre en perspective leurs pratiques et réinventer leur pédagogie.
On le sait, les intelligences artificielles (IA) génératives sont en mesure de rédiger des textes, de traiter des corpus, de générer des contenus multimédias et de résoudre des équations complexes… soit des opérations traditionnellement demandées aux étudiants.
À l’université, elles provoquent (à nouveau et encore) des débats sur la place des machines dans l’acquisition de compétences. Si les étudiants s’appuient trop sur elles, ne risquent-ils pas de considérer certaines compétences comme obsolètes ? Peut-on apprendre sans pratiquer, en déléguant la tâche à une machine ?
Les réponses se multiplient avec un discours catastrophiste. Des enquêtes se font l’écho de pertes cognitives liées à l’usage des IA, comme l’explique la dernière étude du MIT, selon laquelle les utilisateurs d’intelligences artificielles génératives sous-performeraient systématiquement.
Sont aussi interrogées les limites du modèle : les bases de données ne risquent-elles pas de se dégrader à force de se nourrir avec les résultats qu’elles produisent ? Sans compter le très lourd impact environnemental et humain de ces outils.
De tels discours prêtent des capacités infinies et incontrôlables à ces outils. Ils nourrissent le discours de toute-puissance des industries numériques et s’inscrivent dans un imaginaire de science-fiction. Ils négligent leur caractère économique et le fait que l’IA est un terme choisi par son potentiel marketing. Penser en termes d’effets, sans nourrir la discussion et sans contradiction, laisse les Big Tech piloter le débat.
Questionner la verticalité de l’enseignement
Ces outils sont indéniablement puissants, même s’ils ne peuvent pas tout faire. Leur facilité d’accès et leur rapidité font qu’ils sont largement mobilisés par les étudiants, comme le répètent ad nauseam sondages, articles et rapports publics. Or, cet usage est difficilement traçable et la situation ira en s’accentuant, car les intelligences artificielles génératives se multiplient et se diversifient, leur qualité augmente et les limites ou hallucinations évidentes autrefois (c’est-à-dire, il y a deux ans) s’atténuent.
En même temps, leurs effets sont désormais mis en lumière : la non-appropriation des productions, les limites de la réflexion et l’accroissement des inégalités.
La bonne nouvelle est que le combat pour affirmer que les intelligences artificielles génératives ne peuvent pas remplacer la réflexion n’est pas perdu d’avance. Mais il faut changer la focale du problème : comment en faire un « amplificateur d’intelligence » et non un substitut hébétant ?
Ces outils questionnent le modèle d’apprentissage encore largement vertical en France. Qui n’a jamais assisté dans un amphithéâtre à un cours magistral sans interactions pour en ressortir avec le constat de la passivité des étudiants ? Une passivité qui préexistait aux intelligences artificielles génératives. Ce n’est donc pas une chasse aux fraudes qui doit être mise en place, mais un questionnement sur la manière même d’enseigner et d’évaluer.
Voici trois pistes de réflexion sur la manière dont les intelligences artificielles génératives peuvent aider à repenser le rôle d’enseignant.
Resituer l’IA dans la longue histoire des usages numériques
Les intelligences artificielles génératives n’arrivent pas dans un paysage vide de technologie numérique. Internet, les bibliothèques numériques, le courrier électronique, les réseaux sociaux… reconfigurent le rapport à la connaissance. Certains ont pu faire comme si Google ou Wikipédia étaient des outils négligeables, qu’il suffisait d’interdire ou d’ignorer. C’était manquer à notre mission éducative.
Les résultats d’un moteur de recherche varient selon la capacité à formuler une requête, à comprendre le fonctionnement algorithmique et à exercer un regard critique sur les sources. Consulter Wikipédia sans savoir que l’on peut retracer l’historique d’une page, ignorer la différence entre Google Scholar et JSTOR, ou ne pas saisir la signification d’une citation, revient à utiliser ces outils de manière aveugle.
Les technologies, comme l’a montré la sociologie des usages, se déploient dans un environnement pluriel et imprévisible, avec des pratiques différenciées, des détournements et des appropriations. Les usages des intelligences artificielles génératives doivent être replacés dans leur contexte social, politique, culturel. Mais aussi dans leurs modalités d’utilisation, passive ou active, individuelle ou collective, sur le modèle problem solving ou interaction créative. Ainsi, l’intelligence artificielle générative n’est ni miracle ni fléau pour l’apprentissage : sa puissance dépend du contexte, des usages, de la réflexivité déployée par les acteurs.
Rappelons enfin que l’intelligence artificielle générative n’est pas une technique unique, mais une série d’outils différents et que, si ChatGPT occupe aujourd’hui une position dominante, il n’est pas seul. Les risques associés (données personnelles, véracité des contenus, biais des modèles…) varient selon les systèmes. Éduquer à l’intelligence artificielle générative, c’est aussi apprendre à choisir le bon outil selon l’usage attendu, à en comprendre les enjeux éthiques, culturels et économiques.
Intégrer l’IA comme objet d’exercice critique
Former à l’intelligence artificielle générative ne revient donc pas à enseigner une boîte à outils : c’est avant tout offrir une perspective analytique et réflexive. La formation doit être pensée pour différents niveaux de maîtrise et adaptée aux besoins des étudiants.
Comme le note Nicholas Carr, les compétences nécessaires pour bien exploiter l’intelligence artificielle générative dépendent de savoirs que l’usage de l’IA risque de court-circuiter. Former à l’intelligence artificielle générative, c’est refuser de céder à une dépendance intellectuelle et veiller à ce que les étudiants développent une compréhension des sujets qu’ils abordent. L’enjeu est autant cognitif (développement de la pensée) et pragmatique (maîtrise de l’outil) qu’éthique (responsabilité, agentivité).
Il s’agit de permettre aux étudiants de développer une compréhension du fonctionnement même des modèles d’IA, notamment leur caractère probabiliste (qui les rend susceptibles de produire des réponses convaincantes, mais inexactes). Leur utilisation dépend largement du type de rapport au savoir que les étudiants entretiennent avec ces outils : lorsqu’ils sont utilisés pour construire et augmenter la connaissance, ils favorisent le développement de la réflexion analytique ; en revanche, un usage régurgitatif, reposant sur la reproduction des contenus générés, conduit à des apprentissages superficiels.
Intégrer l’intelligence artificielle générative comme objet d’exercice critique devient central pour renforcer l’autonomie intellectuelle des élèves et prévenir leur réduction au rôle de consommateurs passifs de contenus obtenus de manière automatisée.
Repenser le rapport à l’évaluation
Les textes rédigés à l’aide d’intelligences artificielles génératives sont, sauf grande maladresse, difficiles à détecter, ce qui remet en question nos méthodes d’évaluation traditionnelles, largement fondées sur la restitution écrite et la capacité de synthèse ou de mémorisation. Dans ce contexte, la classique fiche de lecture perd de sa pertinence : à l’échelle individuelle, les étudiants constatent que les intelligences artificielles génératives sont capables de résumer un texte plus efficacement qu’eux.
Pourtant, à l’échelle collective, cette délégation de la lecture à une intelligence artificielle générative conduit à une standardisation des interprétations, dictée par un fonctionnement orienté vers la synthèse la plus probable, au détriment de l’interprétation personnelle, de la nuance et de la complexité. Ce glissement interroge non seulement la validité des productions, mais aussi le sens même de la lecture et de la compréhension.
Deux formats d’évaluation sont considérés comme préservés : l’oral ou le devoir surveillé avec interdiction des outils numériques. Ces options restent valables et sont encore très présentes pour les examens de l’université française, mais elles ne sauraient constituer les seules alternatives.
Des travaux explorent actuellement d’autres formes d’évaluation. En sciences humaines et sociales, plusieurs pistes s’ouvrent. Par exemple, cela consiste à valoriser des productions plus difficiles à automatiser, telles que la restitution d’enquêtes de terrain, les observations in situ, ou encore les productions qui mobilisent leur « expérience incarnée ». Une telle orientation implique un déplacement épistémologique : l’expérience, articulée à la théorie, participe à une construction collective du sens et à une éducation fondée sur l’engagement.
Ce n’est pas simple dans un système scolaire où la notation occupe une place centrale et qu’en conséquence la triche domine le débat sur les intelligences artificielles génératives. Pourtant, la finalité de l’évaluation ne devrait pas être de sanctionner, mais de mesurer la progression, la compréhension et la capacité à mobiliser des savoirs.
L’enseignant doit alors expliciter pour les étudiants ce qu’il évaluera, et si, comment et avec quelles limites l’intelligence artificielle générative peut être utilisée. Certaines pratiques doivent parallèlement être explicitement désignées comme inacceptables : présenter comme personnel le travail d’une IA, utiliser de fausses références ou fabriquer des données fictives.
Ce n’est pas l’usage de l’intelligence artificielle générative qui est problématique, mais des comportements qui vont à l’encontre des attentes pédagogiques. Dès lors, il ne s’agit pas d’abord de surveiller ou de sanctionner, mais de poser un cadre, favorisant une évaluation fondée sur le partage de responsabilités et sur le développement d’un raisonnement critique sur la manière dont la connaissance est produite, que l’étudiant soit épaulé ou non par l’intelligence artificielle générative.![]()
Cécile Méadel, Professeure en sciences de l'information et de la communication, Université Paris-Panthéon-Assas et Jaércio da Silva, Maître de conférences en sciences de l'information et de la communication, Université Paris-Panthéon-Assas
Cet article est republié à partir de The Conversation sous licence Creative Commons. Lire l’article original.
