N°85 / La gestion de l’apport culturel par les technologies en didactique du FLE : enjeux, défis et perspectives

Sensibiliser les enseignant.e.s de FLE en formation initiale aux contenus culturels générés par l’IA

Cristelle CAVALLA, Eugénie DUTHOIT, Donatienne WOERLY, Amélie CELLIER, José AGUILAR, Alice BURROWS

Résumé

L’article interroge le fonctionnement de l’IA pour voir dans quelle mesure il serait intéressant de sensibiliser les futur.e.s enseignant.e.s de FLE aux contenus culturels qu’elles véhiculent. Bien que les IA puissent générer des contenus apparemment utiles pour l’apprentissage des langues, elles ne pensent pas réellement et peuvent véhiculer des biais culturels. De ce fait, les auteurs.trices mettent en évidence que les cultures véhiculées par l’IA sont des illusions basées sur des données statistiques, et non sur une compréhension profonde des cultures humaines. Les discours produits par l’IA n’ont pas d’énonciateur et peuvent induire en erreur les apprenants en leur faisant croire à une représentation fidèle de la réalité culturelle. Se posent alors des questions sur l’éthique de l’utilisation de l’IA en DDLC, et sur l’agentivité des futur.e.s enseignant.e.s face à la lecture des contenus générés par l’IA.

Abstract

The article questions how AI functions to see to what extent it would be worthwhile to make future teachers of French as a Foreign Language (FFL) aware of the cultural content that AI conveys. Although AI can generate content that appears useful for language learning, it doesn’t actually think and can transmit cultural biases. Consequently, the authors highlight that the cultures conveyed by AI are illusions based on statistical data, rather than a deep understanding of human cultures. The discourse produced by AI lacks a speaker and can mislead learners into believing it’s a faithful representation of cultural reality. This raises questions about the ethics of using AI in language and culture teaching, and about the agency of future teachers when interpreting content generated by AI.

Keywords: AI, culture, FFL, applied linguistics, affordance

Mots-clés

Plan de l'article

Télécharger l'article

Introduction

Les outils sous l’appellation “intelligence artificielle” (IA dorénavant) ne pensent pas, mais calculent, avec un potentiel virtuellement infini. Ces outils donnent l’illusion de réfléchir et d’avoir une conscience, ce qui n’est pas le cas. Toutefois, ces IA semblent pouvoir fabriquer des entités potentiellement intéressantes pour l’apprentissage et l’enseignement des langues : feedback personnalisé, création d’exercices, etc. (Romero et al., 2023). Ceci est sans compter les biais contenus dans ces machines (“hallucinations”) qui reproduisent et amplifient les biais humains à partir de sources de données moissonnées et transformées. De ce moissonnage apparaissent des textes et des images - notamment - qui donnent une illusion de véracité, voire de représentation du réel. Nous interrogeons ici ce réel en termes culturels : représente-t-il les cultures cibles recherchées ? Comment prévoir une utilisation en classe de langue étrangère auprès d’apprenant.e.s qui découvrent une nouvelle culture ? Comment gérer ces nouvelles données auxquelles nous ne pouvons désormais échapper ? De façon plus précise, nous verrons dans quelle mesure et comment l’IA modifie la formation en didactique des langues et des cultures (DDLC dorénavant).

Afin de répondre à ces questions, nous avons interrogé certaines IA textuelles et non spécialisées, des outils du quotidien de millions d’utilisateurs dans le monde1. Nous souhaitons vous faire part ici de nos réflexions sur la place de la dimension culturelle dans les contenus générés par l’IA. Ensuite, nous aborderons les pratiques numériques pour l’apprentissage des langues qui ont déjà été documentées dans le cadre de l’appropriation et des représentations culturelles. Enfin, nous conclurons en faisant des propositions pour la formation des futur.e.s enseignant.e.s de langue.

IA et illusion culturelle

Nous commençons par définir le rapport de l’IA aux cultures en rappelant que le caractère artificiel appelle un regard critique sur la “culture” véhiculée par l’IA. Elle relève en effet d’une illusion.

Il faut d’abord poser que l’IA ne pense pas, notamment si on définit la pensée dans le cadre d’une approche énactive faisant de la cognition un phénomène incarné. Cet aspect est fondamental du point de vue de la réception des textes générés par l’IA. Dans le domaine des études cognitives de la réception, Caracciolo (2014) s’appuie sur les théories de l’énaction, qui constituent un paradigme de la cognition réintégrant à la théorie de la conscience des domaines écartés, notamment le corps et les émotions. Le modèle énactif développé par Varela, Thompson et Rosch, à partir de 1991, insiste sur le co-développement du sujet et de l’environnement, souligne Caracciolo :

It is through the interaction (which the authors term “structural coupling”) between the organism and the environment that the organism’s environment constitutes itself as such. In turn, the organism is constituted (both ontogenetically and phylogenetically) by the history of its structural coupling with the environment that it helps co-fashion. (2014 : 18)2.

Il rappelle que le premier modèle cognitif s’appuyait sur une conception de la cognition comme computationnelle, répondant au modèle de l’ordinateur, à travers la manipulation de symboles abstraits ou de représentations mentales : langage organisé par des scripts, des schémas, des propositions microstructurelles ou macrostructurelles. Les algorithmes de l’IA s’appuient sur ce type de modèle régi par des règles, de type computationnel ou connexionniste, qui est très éloigné du modèle d’une cognition incarnée, intégrant l’expérience, la sensorialité et la corporalité : autrement dit, la machine calcule, “compute”, et ne pense pas. Ce modèle est congruent avec la définition d’une conscience fondée sur les émotions et l’incarnation chez Damasio : “Consciousness identifies mental contents as belonging to a specific organism and vice versa; it connects a mind with its respective body and establishes mutual ownership” (Damasio et Damasio, 2023 : 278)3.

Par ailleurs, le discours produit par les IA génératives pose des problèmes de définition de l’énonciation, qui engagent le rapport de ce discours à la notion de culture. Les discours produits n’ont pas à strictement parler d’énonciateur.trice. Nous sommes ici devant un type de discours dont la configuration énonciative échappe aux définitions déjà développées pour le discours numériquement natif. Paveau (2017a : 149-164) définit des figures d’énonciateurs.trices numériques, apparaissant avec les conditions sociotechniques d’internet : la génération automatique de discours, si elle relève d’un discours numériquement natif, ne fait pas émerger d’énonciateur.trice de ce type, puisque la machine ne peut être tenue pour énonciatrice du discours. Nous ne savons pas définir en termes énonciatifs ce qu’est le Je du discours des IA. “L’énonciation est [la] mise en fonctionnement de la langue par un acte individuel d’utilisation”, posait Benveniste (1980, [1974] : 80). Or, l’acte individuel d’utilisation (la requête) et la mise en fonctionnement de la langue (de manière automatisée) ne coïncident plus. Le Je ne relève pas pour autant de la fiction : l’analyse littéraire a largement décrit la complexité des phénomènes énonciatifs, qu’ils soient fictionnels, poétiques ou dramaturgiques, et l’énonciation automatisée n’est pas de cette nature. Il s’agirait plutôt d’une illusion. On pourrait parler d’illusion énonciative, au sens où le discours vient se couler dans les formes d’une énonciation ancrée qui est familière au.à la lecteur.trice, favorisant une attribution de conscience (Caracciolo, 2014) au discours ainsi produit. Cette illusion n’est pas une tromperie, de la même manière que l’illusion référentielle que propose le récit littéraire est consciemment acceptée par le lecteur. La forme de l’espace conversationnel de l’IA établit ainsi un contrat de lecture, un accord tacite entre les inventeurs de l’IA générative et le lecteur.

Afin de comprendre l’aide de l’IA en termes de culture pour l’enseignement et l’apprentissage de la langue, il convient de rappeler brièvement le fonctionnement des IA génératives. Il s’agit d’outils alimentés par des corpus de données et dont l’objectif est d’extraire une moyenne statistique d’apparition d’une suite de signes qui donnent l’illusion que des données permettraient de voir des tendances. Ces tendances sont influencées par les données du corpus de départ (la représentation du monde sera donc différente que les données soient chinoises ou françaises), et servent à la machine pour prendre des décisions ou faire des prédictions. C’est-à-dire qu’en se basant sur des données – de bons et de mauvais exemplaires, ils [les algorithmes ML] trouvent leur propre recette. (de la Higuera et Iyer, 2024 : 41)

De ce fait, la culture extraite des données de l’IA dépend essentiellement du type de données (de la Higuera et Iyer, 2024 : 80) qu’elle reçoit en amont et ensuite du paramétrage humain choisi pour les prédictions à mettre en avant. Ainsi, poser une question à une IA à propos d’un avis sur un sujet, celle-ci nous donnera à voir une information qui représente la moyenne des signes informatiques associés correspondant statistiquement aux cooccurrences lexicales autour du sujet. Ceci a pour conséquence une forme de lissage d’une information irréelle.

Notons que dialoguer avec ces outils comme avec un.e humain.e, induit obligatoirement qu’ils nous répondent comme un.e humain.e (avec un Je) puisqu’il s’agit de statistiques d’utilisation des éléments proches (cooccurrents). De ce fait, apparaît un lexique anthropomorphique qu’il serait intéressant de modifier en une terminologie appropriée au travail de l’IA différent de celui d’un.e humain.e. Par exemple, éviter de mentionner (et donc de faire croire) que l’IA "pense", "réfléchit" tel qu’on peut le constater dans ces exemples4 :

Prompt 1 : Anthropomorphisation sur Claude - février 2025

 

Prompt 2 : Anthropomorphisation sur ChatGPT 3.5 - février 2025

 

Le lexique employé par les IA reproduit celui de l’humain.e qui pose la question comme à un.e autre humain.e. Ainsi, la réflexion est inhérente au travail de la machine qui d’ailleurs le justifie en conclusion dans ChatGPT (Prompt 2) avec les verbes "adapter" et "proposer" : ils renforcent l’illusion de pensée. Ainsi, pour la question de la culture au centre de cet article, il paraît important de former les futur.e.s enseignant.e.s de langue et les apprenant.e.s à la prise de recul nécessaire face aux réponses de la machine, de manière que le.la lecteur.trice ne prenne pas l’illusion pour du réel, c’est-à-dire qu’il.elle perçoive la dimension totalement désénoncée du discours qui lui est proposée. La culture de l’IA est induite par les données engagées en amont et la façon dont elles sont traitées, ce n’est donc pas de la culture mais des statistiques donnant l’illusion d’une culture. Lors du lancement de l’IA Deepseek, certains médias ont relayé le constat selon lequel l’outil ne répond pas à certaines questions, et il ne faut pas oublier que c’est le cas pour toutes ces machines dans des domaines différents (les tabous, la religion…) (Kruspe, 2024). En outre, certaines questions que nous pourrions poser n’ont pas de réponse tout simplement parce qu’il n’y a que très peu de données dessus. Si nous cherchons à comprendre la disparition d’un animal rare, alors la machine crée une illusion, c’est-à-dire, donne une réponse fausse comme avec ChatGPT dans le Prompt 35 :

Prompt 3 : Réponse fausse de ChatGPT - février 2025

 

Peut-être, dans de telles conditions et pour l’enseignement, doit-on rappeler ce qu’est la culture. Lévi-Strauss la définit de la sorte : "phénomène naturel, résultant des rapports directs ou indirects entre les sociétés" (Lévi-Strauss, 1952 : 19). Il semble complexe pour l’humain.e de 2025 de se souvenir de cela face à une machine qui lui répond comme un.e autre humain.e. Une autre définition de la culture peut aider à comprendre l’illusion créée par la machine : la culture est « the accumulated and continuing expression of agency ; of Designing » (Kress, 2000 : 203)6.

Dans ce cadre, les éléments culturels eux-mêmes relèvent de formes illusoires, désembrayées, qui ne sont jamais référentielles, au sens où la seule matière est du discursif détaché de sa référentialité. Si les données culturelles relèvent d’une moyenne issue de la récurrence de schèmes identifiés dans les données en entrée, le caractère ancré des données culturelles est donc lui aussi une illusion. Les éléments culturels doivent donc faire l’objet d’une mise à distance, qui devrait être constitutive du contrat de lecture que le.la lecteur.trice passe avec l’IA. Or, nous avons vu que l’interface de l’IA joue sur la dimension conversationnelle et sur l’illusion énonciative et de pensée, et favorise l’adhésion au discours généré artificiellement. Former à l’esprit critique, c’est apprendre à l’utilisateur.trice à déshumaniser le discours de la machine. Nous pouvons admettre que l’IA (re)crée de la culture mais artificiellement et d’une manière partiellement décontextualisée. Il ne peut être question de la culture humaine. Cette culture ainsi créée par les outils d’IA peut alors être tout à fait acceptée par l’humain.e, mais en tant que culture créée par une IA et non en tant que culture humaine. Pour la culture humaine, il faut soit vérifier ce que l’IA donne à lire, soit attendre encore un peu et l’IA ne se trompera plus dans les informations qu’elle extraira de ses corpus. En attendant que l’IA ne se trompe plus, la solution de la vérification reste de mise. Une telle action induit le rapport que nous mettons en place entre nous et la machine et donc la question de l’éthique qui est développée ci-dessous.

Quels enjeux éthiques en DDLC ?

En tant que discipline intervenant sur le terrain de la diversité, de l’altérité, la DDLC encourage ses acteurs.trices à réfléchir à l’action enseignante à travers le prisme de l’éthique (Cicurel & Spaëth, 2017 ; Pretceille, 2017). Actualiser cette réflexion est d’autant plus nécessaire que les systèmes d’IA reposent sur plusieurs biais cognitifs pouvant modifier les représentations culturelles de ses utilisateurs.trices, car les systèmes d’IA « influent de façon directe ou indirecte sur notre environnement » (UNESCO, 2021 : 16). Goel et al. (2024) alertent sur le fait que les utilisateurs.trices des IA sont plus enclin.e.s à croire un discours généré par un agent conversationnel plutôt que par une personne inconnue. Leurs arguments reposent sur une étude de Matz et al. (2024), qui montre que ChatGPT peut influencer plus efficacement les utilisateurs.trices lorsque ses messages sont adaptés à leur profil. Goel et al. (2024) concluent que cette croyance en l’IA peut être bénéfique si les données d’entraînement sont éthiques et scientifiquement valides, car elle permettrait alors de lutter contre la désinformation.

Konan Groguhe (2024) et Larsonneur (2021) constatent la disparité de données des IA puisque certaines minorités, ne disposant pas de systèmes d’écriture, ne sont pas du tout représentées dans les corpus d’entrainement. Le multilinguisme et le multiculturalisme des IA ne sont pas synonymes de diversité culturelle et linguistique. En bref, les IA reproduisent les disparités déjà présentes dans les sociétés et ce, à une échelle mondiale. D’après l’OCDE, développer une IA équitable et ouverte à tous devient une priorité croissante. Cela est d’autant plus vrai dans la mesure où l’on redoute que l’IA aggrave les inégalités ou creuse les écarts existant au sein des pays et entre pays développés et pays en développement. Ces écarts résultent de la concentration des ressources en IA – technologies, compétences, ensembles de données et puissance de calcul – dans quelques entreprises et pays (OCDE, 2019 : 95).

Il est donc crucial que les futur.e.s enseignant.e.s de langue prennent conscience de la neutralité illusoire des IA (Kruspe, 2024), ainsi que de leurs rôles actifs dans la transmission de ces données et de leurs responsabilités vis-à-vis des apprenant.e.s.

Parce que l’agir enseignant est un acte culturel en soi, si l’on se réfère à la définition de la culture de G. Kress (2000 ; cf. précédemment), un acte par lequel les enseignant.e.s peuvent donner du sens aux contenus générés artificiellement par les IA, la question du partage de l’agentivité se pose entre enseignant.e.s et concepteurs.rices d’IA dans le processus de didactisation. Dans le livre blanc Enseigner et apprendre à l’ère de l’intelligence artificielle, Romero et al. (2023) mettent l’accent sur la nécessité de préserver l’agentivité des enseignant.e.s et des apprenant.e.s dans les modèles pédagogiques qui émergent avec l’utilisation des IA.

En sciences sociales, le concept d’agentivité fait aussi référence à une forme d’autonomie, mais cette fois de la part des personnes. Selon Engeström et Sannino (2013), « l’agentivité est une recherche volontaire de transformation de la part du sujet » et « se manifeste dans une situation problématique polymotivée dans laquelle le sujet évalue et interprète les circonstances, prend des décisions selon les interprétations et exécute ces décisions » (p. 7) (ibid. : 84).

Le risque d’introduire dans la formation initiale des futur.e.s enseignant.e.s de langue une approche ni éthique ni critique de l’utilisation des IA est qu’ils.elles perdent en agentivité et donc en contrôle dans le processus de didactisation. Inversement, et supposément de manière proportionnée, les concepteurs.rices d’IA, ceux et celles qui programment les algorithmes afin de prédire les données, gagnent un pouvoir d’agir supplémentaire dans la diffusion des connaissances et des représentations linguistiques et culturelles. Ce phénomène a été documenté par Pagliari (2023) dans le domaine de l’aviation militaire : plus les IA sont actives dans l’exécution de la tâche visée, plus les utilisateurs.rices ont tendance à se désengager de leur rôle et de leurs responsabilités (Suchman, 2020). En d’autres termes, les affordances des applications d’IA et la part d’agentivité des futur.e.s enseignant.e.s de langue sont corrélées.

IA, affordances, agentivité

Cela rejoint l’idée de l’approche de Rabardel (1995) à propos de l’instrumentation et l’instrumentalisation. Les enseignant.e.s ont tendance à instrumentaliser les outils à leur disposition, et peut-être d’autant plus les outils numériques à leur disposition gratuitement (Cavalla et Loiseau, 2013). Il s’agit de détourner les fonctions de ces outils et de les adapter aux usages nécessaires à la classe de langue pour un public de formateurs.trices de langue étrangère. Les enseignant.e.s et les apprenant.e.s s’approprient ces outils, les un.e.s pour leur formation d’enseignant.e.s de langue, les autres pour leur apprentissage de la langue. Dans tous les cas, l’appropriation active de ces outils par les utilisateurs ne fait pas de doute. Avec l’IA, les modifications importantes dans la relation qu’entretient l’utilisateur.trice avec l’outil dans un environnement donné sont considérables et ont un impact sur les processus d’apprentissage des langues et le rapport à la culture. Afin d’envisager ces changements, il semble nécessaire de dépasser une vision de l’outil, de la technologie IA per se mais de l’envisager plutôt de manière holistique. Les travaux déjà menés sur la relation “homme-machine” dans une perspective située et l’approche des affordances notamment proposée par Van Lier (2010), nous paraît pertinente dans ce qu’elle envisage l’ensemble des possibilités relationnelles et d’agentivité entre un.e humain.e et un outil/artefact dans une approche écologique.

Dans cette perspective, nous analysons ci-dessous les affordances culturelles de quelques outils d’IA et leur mise en œuvre pour la formation des futur.e.s enseignant.e.s de langue. Nous mobilisons une partie du cadre développé par Sun & Suthers (2023) qui paraît intéressant pour analyser les affordances culturelles dans l’interaction entre technologie, utilisateurs.trices et culture. Ces auteurs différencient les affordances culturelles de la technologie des affordances culturelles des utilisateurs.trices et des affordances de la culture. Dans notre cadre, nous nous arrêtons sur les affordances culturelles de la technologie et des utilisateurs.

Les affordances culturelles de la technologie

Les affordances culturelles de la technologie décrivent ce qu’un environnement technologique peut offrir aux utilisateurs.trices et à la culture. Ces possibilités peuvent influencer ou non les façons de penser et d’agir des utilisateurs.trices ainsi que la culture elle-même. Par exemple, ce qui est produit par l’IA peut encourager, renforcer, décourager ou rejeter certains comportements ou cultures et surtout certains biais. Ces affordances ont une influence sur l’agentivité (la capacité d’action) des utilisateurs.trices. Dans le cas des outils d’IA actuellement disponibles, la question d’entrée "Comment puis-je vous aider ?" (ChatGPT, février 2025), "How can I help you today?" (DeepSeek, février 2025), invite à une requête. Cette représentation monolithique de l’aide est réduite au simple usage de l’outil, alors qu’elle est, dans une interaction entre humain.e.s, à la fois processus et produit des différents ajustements par des acteurs.trices de manière située et distribuée (Duthoit, 2014). Dans l’invitation à poser une question, l’agentivité de l’utilisateur.trice est sollicitée et ce.tte dernier.ère ne se pose pas forcément la question des affordances culturelles de la machine. Nous avons testé cette affordance avec le prompt “donne une anecdote sur la culture française”. La réponse produite est :

Réponse 1 : Anecdote sur la culture française par ChatGPT - février 2025

 

On observe que cette production de l’IA est vraiment une anecdote, ce qui répond bien à la requête7. Les modalités d’organisation de la réponse montrent une structure du paragraphe qui imite le genre de l’anecdote journalistique :

  1. Contexte [Révolution Française]

  2. Question pour attirer le lecteur [mais comment ?]

  3. Développement [Quand-Où]

Nous observons un faible positionnement énonciatif qui imite le genre "anecdote de presse" et donne finalement l’impression que l’IA a répondu de manière satisfaisante, voire originale à la question.

Cependant, lors d’une seconde lecture, le manque d’explication de ce qu’est un “mètre-étalon” manque cruellement à l’anecdote. L’émoticône utilisé pour illustrer le titre pourrait même induire en erreur, le mètre-étalon n’est pas un mètre tel que représenté : ????. Un.e journaliste aurait ajouté une photographie d’un des deux exemples proposés et/ou décrit rapidement ce qu’est un mètre-étalon puisqu’il n’est plus utilisé de nos jours. Par ailleurs, la dernière partie de la réponse renforce un préjugé sur un “besoin [qui serait] très français”. L’émoticône final (????), enfin, donne faussement l’air d’être un marqueur énonciatif mais ne l’est pas. Il est juste mobilisé “par imitation” du genre par la machine. Cette seconde lecture est nécessaire pour tout un chacun, et surtout pour les futur.e.s enseignant.e.s de langue afin de dépasser l’illusion de neutralité de l’IA d’une part, et d’autre part, de réfléchir à la manière dont les affordances culturelles produites par imitation, sans prise en compte des situations d’énonciation par l’IA, peuvent influencer leur propre agentivité. Ces considérations montrent, par ailleurs, la nécessité d’une approche écologique du discours numérique (Paveau, 2017a).

Les affordances culturelles des utilisateurs.trices

Les affordances culturelles des utilisateurs.trices sont liées aux actions sur les dispositifs des utilisateurs.trices par le prisme de leurs différentes cultures comme, poster, liker, sur les réseaux sociaux ou bien rédiger des prompts pour l’IA. Ces actions révèlent des valeurs qui s’alignent sur des normes culturelles. Dans le cas de l’IA, ces affordances culturelles vont enrichir le corpus initial.

Le technogenre (Paveau, 2017b) de “la requête auprès d’une IA” se matérialise ainsi par une formulation discursive spécifique du prompt s’appuyant à la fois sur la demande d’aide énoncée par le ou la scripteur.trice mais se formulant également dans les contraintes techniques de l’IA. En effet, la manière de formuler des prompts pour que la machine puisse y répondre contraint de facto les affordances culturelles des utilisateurs.trices. La requête auprès de l’IA n’est donc pas seulement une demande d’aide, elle est obligatoirement hybride, à la fois en lien avec les affordances culturelles de l’utilisateur.trice et en même temps matérialisée dans la technicité de la formulation de prompts. Dans le cadre d’une formation éclairée sur l’IA des futur.e.s enseignant.e.s de FLE, une réflexion sur leurs propres affordances culturelles mise en lien avec les contraintes techniques de l’IA permet de contextualiser de manière éthique voire critique cette interaction humain.e-machine. Dans ce cadre, il est possible de remettre au premier plan sa propre agentivité.

Les affordances de la culture

Les affordances de la culture selon Sun & Suthers (2023) concernent la dimension invisible de la culture et ses différentes mobilisations. Dans cette partie, nous traitons d’exemples de productions entendues comme culturelles par l’IA. Il s’agit d’un corpus illustratif et non représentatif. Dans les prompts 4 et 5 ci-dessous, on constate que s’ils sont concis voire abstraits, l’outil propose un développement élaboré à partir d’une interprétation d’une partie de la requête, ici “culture française” :

Prompt 4 : Fait intéressant sur la culture française par Dall-e 3 - février 2025

 

On observe une représentation dite "réaliste" conservatrice de ce qu’est la culture française avec une dimension régionale non précisée (quelle région ?). La mention du “corsage brodé de fleurs” et les nombreux adjectifs qualificatifs euphémisant traduisent une vision vieillissante de la culture française. À la suite de cette réponse, un second prompt a été donné :

Prompt 5 : Précision du Prompt 4 - février 2025

 

Malgré la demande, “l’image ne doit pas contenir de préjugés”, l’IA évoque la cuisine "traditionnelle" française et des plats très marqués dans le temps voire dans l’espace. Les affordances de la culture par l’IA sont donc illusoires même si l’IA a été entrainée pour les justifier et les étayer systématiquement, présentant de fait une référentialité illusoire issue d’une production statistique de contenus. Il nous semble donc essentiel de travailler avec les étudiant.e.s dans leur formation sur la notion d’affordances de la culture et de réfléchir aux modalités de productions de contenus par l’IA.

Former à une approche éthique et inclusive

À la lumière de notre réflexion, deux pistes apparaissent pour la formation des futur.e.s enseignant.e.s de langue : d’abord, créer une approche éthique et inclusive de l’utilisation des IA à partir notamment des travaux qui ont été menés sur la question par l’UNESCO ; puis orienter les futur.e.s enseignant.e.s de langue vers une pratique des IA dans laquelle la diversité culturelle des apprenant.e.s constitue un agent de leur créativité.

Depuis les années 1990, des travaux en DDLC suggèrent que les outils numériques tendent à enrichir la formation initiale des futur.e.s enseignant.e.s de langue. Les formations hybrides, qui combinent des interactions en ligne et en présentiel, permettent une réflexion approfondie sur les pratiques pédagogiques et les contextes culturels (Aguilar Río et Narcy-Combes, 2017). De même, la prise en main de ces environnements encourage une posture réflexive face aux défis de la diversité culturelle et pédagogique (Aguilar Río, Brudermann & Abendroth-Timmer, 2020). L’environnement linguistique et culturel des IA, ainsi que leur fonctionnement, réinterroge la manière dont ces futur.e.s enseignant.e.s de langue peuvent être formé.e.s aux outils numériques. Consciente de ces enjeux, l’UNESCO a publié en 2024 un référentiel de compétences visant à préparer les étudiant.e.s à ces défis, en cohérence avec la politique d’encadrement qu’elle a initiée lors de la conférence de Beijing en 2019.

Si le référentiel ne s’adresse pas spécifiquement aux futur.e.s enseignant.e.s de langue, il répertorie 12 compétences basées sur une approche à la fois critique et humaniste de l’utilisation des IA. Son intérêt est de constituer une base consolidant la posture réflexive des étudiant.e.s face notamment aux représentations culturelles générées par les IA du fait des biais cognitifs imputables à leurs concepteurs.trices et aux ressources avec lesquelles elles sont entraînées. Si, pour l’heure, l’UNESCO se focalise sur quatre aspects englobant la relation humain.e-machine (centration sur l’humain.e, éthique, applications et techniques des IA, conception des systèmes), le référentiel repose avant tout sur des principes d’inclusivisité dont l’objectif majeur est d’« empêcher l’utilisation de systèmes d’IA qui discriminent les groupes marginalisés ou produisent des préjugés liés au sexe, aux capacités, au statut socio-économique, à la langue et/ou à la culture » (2024 : 58).

En DDLC, l’enjeu d’un tel référentiel serait de former les étudiant.e.s à des pratiques d’enseignement assistées par l’IA déconstruisant les représentations culturelles que ces dernier.es pourraient projeter sur leurs futur.e.s apprenant.e.s, tout en freinant la cristallisation de nouveaux stéréotypes générés par la machine (Tighanimine, 2023). Dans cette perspective, les étudiant.e.s seraient encouragé.e.s à développer une réflexion critique sur leurs pratiques pédagogiques avec l’IA. Ils pourraient analyser et adapter les contenus générés (textes, images, etc.) en fonction des divers contextes d’enseignement, tout en prenant en compte les biais cognitifs humains (les leurs ainsi que ceux des concepteurs des modèles) et les biais technologiques. Ces derniers incluent les représentations culturelles véhiculées par les corpus d’entraînement ainsi que les logiques algorithmiques sous-jacentes aux modèles d’apprentissage profond qui ne garantissent pas toujours une approche éthique et inclusive.

Conclusion

Dans cet article, nous avons voulu comprendre comment fonctionnent les IA génératrices de textes afin de voir ce que les enseignant.e.s peuvent faire de leurs propositions dans un cadre d’enseignement de la culture en langue étrangère. Il s’agit ensuite de réfléchir à la manière de sensibiliser, en formation initiale, les futur.e.s enseignant.e.s de langue à la dimension culturelle par le numérique afin de passer du web 2.0 à l’ère des IA. Pour répondre à nos questions de départ, nous avons interrogé et analysé les réponses d’IA textuelles et en avons montré quelques biais. Ces analyses montrent que la dimension critique est première dans l’utilisation de ces outils et que la formation à l’analyse des sorties est primordiale.

Les recherches sur l’apport du numérique dans la formation de futur.e.s enseignant.e.s de langues mettent en lumière son potentiel à sensibiliser ces derniers à la diversité culturelle tout en leur offrant des outils pour repenser, enrichir et diversifier leurs pratiques pédagogiques (Brudermann & Aguilar, 2022). Les environnements numériques, en permettant une médiation multimodale et collaborative, répondent aux configurations de certains contextes éducatifs de nos jours, façonnés en partie par la globalisation et la diversité. Les environnements numériques basés sur le web 2.0 ont enrichi la formation des enseignant.e.s de FLE en facilitant la co-construction des savoirs, en développant des compétences interculturelles et en encourageant une posture réflexive face à la diversité culturelle et pédagogique. L’introduction de l’IA dans les classes peut également apporter des éléments très pertinents du moment où la prise de recul nécessaire est présente chez tous les acteurs : enseignant.e.s et apprenant.e.s. L’IA qui peut intégrer et prendre en compte les besoins spécifiques des acteurs.trices de la classe est tout à fait possible et même envisageable comme appui à l’enseignant.e dans des classes hétérogènes sur plusieurs niveaux et donc parfois difficile à structurer. La décentration consciente et critique attendue face à l’IA est à penser en termes de formation initiale auprès des étudiant.e.s en DDLC notamment pour ce qui est de la sensibilisation à la dimension culturelle.

Bibliographie

Aguilar Río, J. & Narcy-Combes, J.-P. (2017). Télécollaboration en formation initiale d’enseignants de langue : Retour d’expériences sur un partenariat Franco-Allemand. Les Langues Modernes, 1, 2230.

Aguilar Río, J., Brudermann, C. & Abendroth-Timmer, D. (2020). Resorting to tandem learning in academic language teacher training programmes : Evidence from the literature of / and the field. Dans C. Tardieu & C. Horgues (Éds.), Redefining Tandem Language and Culture Learning in Higher Education (pp. 161176). Routledge.

Benveniste, E. (1980, [1974]). Problèmes de linguistique générale. Gallimard.

Bruckner, A. & Chiriac, A. (2024). An Overview of the Potentials of Artificial Intelligence Tools in Foreign Language Teaching. Linguaculture, 15(Special Issue), 2943. https://doi.org/10.47743/lincu-2024-si-0385

Brudermann, C. & Aguilar Río, J. (2022). Accompagner la professionnalisation des futurs enseignants de français dit “langue étrangère” à l’ère du numérique : retour d’expérience sur un projet franco-allemand. In M. Boutet & M. Sadiqui (dir.), Portrait de la professionnalisation de l’enseignement en contextes francophones (pp. 169-188). Editions du Champ Social. hal-03675269

Caracciolo, M. (2014). The Experientiality of Narrative. De Gruyter.

Cavalla, C. & Loiseau, M. (2013). Scientext comme corpus pour l’enseignement. In A.Tutin & F.Grossmann (éds.), L’écrit scientifique : du lexique au discours. Autour de Scientext (pp. 163-182). PUR.

Cicurel, F. (2013). L’agir professoral entre genre professionnel, cultures éducatives et expression du "soi". Synergies Pays Scandinaves, 8, 19-33, en ligne : https://gerflint.fr/Base/Paysscandinaves8/Cicurel.pdf

Cicurel, F. Spaëth, V. (2017). Présentation. Le Français dans le monde. Recherches et applications, 62, 8-19.

Collomb C., Hoss I. & Zriouali S. (2024). Changer son rapport à la langue pour changer son rapport à l’IA : quand l’écriture créative remet en question l’usage de ChatGPT. Revue d’études littéraires, linguistiques et audiovisuelles, 4, 103-123, https://revues.imist.ma/index.php/limpact/article/view/53634

Damasio, A. & Damasio, H. (2023). Feelings Are the Source of Consciousness. Neural Computation, 35(3), 277286. https://doi.org/10.1162/neco_a_01521

de la Higuera, C. & Iyer, J. (2024). IA pour les enseignants : un manuel ouvert. Chaire UNESCO RELIA (Nantes Université). Publication du projet Erasmus +. https://chaireunescorelia.univ-nantes.fr/2024/01/18/le-textbook-2-0-est-sorti/

Gaudin, J. (2024). Inventaire taxonomique des oiseaux du monde. Éditeur Delachaux et Niestlé.

Goel, N., Bergeron, T., Lee-Whiting, B., Galipeau, T., Bohonos, D., Mujahedul, I. M., Lachance, S., Savolainen, S., Treger, C. & Merkley, E. (2024). Artificial influence? Comparing AI and Human Persuasion in Reducing Belief Certainty. OSF. https://doi.org/10.31219/osf.io/2vh4k

Kalantzis, M. & Cope, B. (2010). The teacher as Designer: Pedagogy in the New Media Age. E-learning and Digital media, 7(3), 200-222, en ligne : https://newlearningonline.com/_uploads/3_Kalantzis_ELEA_7_3_web.pdf

Konan Groguhe, A. (2024). L’Intelligence Artificielle : de la disparité dans la promotion des langues. Communication, technologies et développement, 15. https://doi.org/10.4000/123iv

Kress, G. (2000). Design and transformation: new theories of meaning. Dans B. Cope & M. Kalantzis (éds.), Multiliteracies. Literacies Learning and the Design of Social Futures (pp. 153-161). Cambridge university press.

Kruspe, A. (2024). Towards detecting unanticipated bias in Large Language Models. arXiv. https://doi.org/10.48550/arXiv.2404.02650

Larsonneur, C. (2021). Intelligence artificielle ET/OU diversité linguistique : les paradoxes du traitement automatique des langues. Hybrid, 7, 1-14. https://doi.org/10.4000/hybrid.650

Lévi-Strauss, C. (1952). L’ethnocentrisme. Dans C. Lévi-Strauss (éd.) Race et Histoire (pp. 19-26). UNESCO.

Matz, S., Teeny, J. D., Vaid S. S., Peters H., Harari, G. M. & Cerf M. (2024). The potential of generative ai for personalized persuasion at scale. Scientific Reports, 14(4692).

OCDE (2019). L’intelligence artificielle dans la société. Éditions OCDE, Paris, https://doi.org/10.1787/b7f8cd16-fr

Pagliari, M. (2023). Intelligence artificielle (IA) et transparence : prédictibilité, sentiment de contrôle et confiance. [thèse] Université Paris Sciences & Lettres.

Paveau, M.-A. (2017a). L’analyse du discours numérique : Dictionnaire des formes et des pratiques. Hermann.

Paveau, M. (2017b). Technogenre de discours. Dans M-A. Paveau (ed), L’analyse du discours numérique Dictionnaire des formes et des pratiques. (pp. 295 -304). Hermann. https://shs.cairn.info/l-analyse-du-discours-numerique--9782705693213-page-295?lang=fr

Piccardo, E. (2016). La diversité culturelle et linguistique comme ressource à la créativité. Voix plurielles, 13(1), 57-75. https://doi.org/10.26522/vp.v13i1.1370

Pretceille, M. (2017). De la didactique des langues à l’éthique de l’altérité et de la diversité. Le français dans le monde. Recherches et applications, 62, 93-104.

Rabardel, P. (1995). Les hommes et les technologies, approche cognitive des instruments contemporains. Armand Colin.

Romero, M., Heiser, L., Lepage, A., Gagnebien, A., Bonjour, A., Lagarrigue, A., Palaude, A., Boulord, C. & Gagneur, C.-A. (2023). Enseigner et apprendre à l’ère de l’intelligence artificielle. Canopé.

Roussel, S., & Ochoa, M. (2025). Peux-tu rendre mon texte plus allemand ? Écrire en langue seconde avec l’intelligence artificielle. Intelligence artificielle et didactique des langues et des cultures, 28(1). https://doi.org/10.4000/13cv6

Suchman, L. (2020). Algorithmic warfare and the reinvention of accuracy. Critical Studies on Security, 8(2), 175-187.

Sun, Y., & Suthers, D.D. (2023). From affordances to cultural affordances : An analytic framework for tracing the dynamic interaction among technology, people and culture. Cultures of Science, 6(2), 235-249.

Tighanimine, M. (2023). Les algorithmes sont-ils racistes ? All OpenEdition Éléments d’analyse sociologique des discriminations en contexte numérique. Socio La nouvelle revue des sciences sociales. https://doi.org/10.4000/socio.14648

UNESCO (2021). Recommandation sur l’éthique de l’intelligence artificielle. UNESCO

Van Lier, L. (2010). The ecology of language learning : Practice to theory, theory to practice. Procedia-Social and Behavioral Sciences, 3, 2-6.

1 D’après Silicon, ChatGPT aurait « attiré 100 millions d’utilisateurs[.trices] « actifs[.ives] » [...] deux mois seulement après son lancement » : https://www.silicon.fr/Thematique/data-ia-1372/Breves/ChatGPT-capte-100-millions-d-utilisateurs-en-deux-mois-402265.htm#:~:text=ChatGPT%2C%20l’intelligence%20artificielle%20conversationnelle,attire%20toujours%20plus%20d’internautes, dernière consultation le 6 mars 2025).

2 TDA : C’est par l’interaction (que les auteurs appellent « couplage structurel ») entre l’organisme et l’environnement que l’environnement de l’organisme se constitue en tant que tel. À son tour, l’organisme est constitué (à la fois ontogénétiquement et phylogénétiquement) par l’histoire de son couplage structurel avec l’environnement qu’il contribue à co-fabriquer. (Caracciolo, 2014 : 18).

3 TDA : La conscience identifie les contenus mentaux comme appartenant à un organisme spécifique et vice versa ; elle relie un esprit à son corps respectif et établit une propriété mutuelle (Damasio & Damasio, 2023 : ).

4 [les informations entre crochets sont personnelles et pas de la machine]

5 [les informations entre crochets sont personnelles et pas de la machine]

6 TDA : l’expression accumulée et continue de l’agentivité, de l’acte de création (Kress, 2000 : 203).

7 De plus, cette anecdote pourrait être considérée comme originale puisque certain.e.s d’entre nous ont appris quelque chose.

Continuer la lecture avec l'article suivant du numéro

L’Intelligence artificielle au service de la didactique de la traduction à l’Université : quel apport pour la gestion des culturèmes et pour le développement des compétences interculturelles ?

Maria Margherita MATTIODA

L’intégration de la traduction automatique neuronale (TAN) et de l’Intelligence artificielle générative dans l’enseignement des langues ouvre de nouvelles perspectives, tout en soulevant des questions cruciales sur les objectifs pédagogiques à définir pour proposer des parcours de formation adaptés et innovants. Dans cet article, nous présentons une expérimentation didactique menée avec des étudiants en Langue et Traduction française de l’Université de Turin, visant à les sensibiliser à un usage réfléchi et maîtrisé de la TAN. Nous analyserons l’utilisation de cette...

Lire la suite

Du même auteur

Tous les articles

Aucune autre publication à afficher.