À propos du livre de François Rastier, L’IA m’a tué. Comprendre un monde post-humain
Recension et commentaires
Par Mireille Kentzinger
Collectif Sauver les lettres www.sauv.net
Septembre 2025
Face à l’enthousiasme béat des technophiles devant les progrès de l’intelligence artificielle et face à la sidération résignée de tous ceux que ces progrès intimident, le linguiste et sémiologue François Rastier, nous propose un petit livre très salutaire [1], qui remet bien les idées en place tant sur le fonctionnement des IA que sur les croyances qui permettent leur effet de séduction. Plus spécifiquement, sa réflexion sur ce qu’est un texte doit nous inciter à la prudence en ce qui concerne l’utilisation des IA génératives grand public [2] dans l’enseignement des disciplines littéraires.
François Rastier est d’autant plus convaincant qu’il a eu l’occasion de travailler comme chercheur dans des laboratoires d’IA et qu’il n’en parle donc pas de l’extérieur. Cette compétence ne l’a pas empêché cependant d’être victime d’une étonnante mésaventure, lorsqu’il a appris que ChatGPT [3] le déclarait mort, non par erreur ou confusion d’homonymes, mais avec force arguments, références, pseudo-sources débités avec insistance par le programme informatique contre tous ceux qui ont tenté de le contredire.
Alors que le monde éducatif se retrouve exposé à une utilisation de l’IA, volontaire ou forcée, l’histoire de la mort prétendue de F. Rastier est exemplaire et devrait être racontée en préalable à toute discussion sur le sujet, notamment pour interroger le rapport à la vérité des ChatGPT et consorts. Les critiques ne manquent pas qui soulignent le défaut originel de ces systèmes : les sources auxquelles ils puisent sont un vaste fourre-tout où, écrit Rastier, se mêlent « des encyclopédies comme Wikipédia, des livres et articles en ligne, des pages web, des posts de réseaux sociaux, de textes générés par des IA » (p. 35), autant de « données qui ne sont pas supervisées ni vérifiées » . Le livre produit de nombreux exemples, chiffres à l’appui, de la capacité des fake news à s’imposer du seul fait de leur nombre, bien supérieur aux démentis les concernant, et également des exemples de la façon dont se multiplient les « hallucinations » générées par des « corrélations oiseuses », d’autant plus fréquentes que les données sont plus étendues (p.37-38). « L’IA générative remplace le réel par le prévisible — sans s’aviser que le réel se signale obstinément par son imprévisibilité » — , remplacement qui accroît le domaine de la post-vérité », nouveau révisionnisme qui « n’opère pas par omission ou par dénégation, comme pour le négationnisme classique, mais par addition et invention d’une foule de faits aussi faux que prétendument documentés » (p. 110).
Malgré les défaillances évidentes des IA, elles bénéficient généralement d’une adhésion sans réserve (on se dit « bluffé »), qui s’apparente à une croyance quasi religieuse, ravivant quelques vieux mythes ou superstitions : les discours produits par l’IA, du fait qu’ils sont non-humains, s’imposent comme les paroles « révélées » d’être surnaturels ; la rapidité des réponses de ChatGPT et son absence de « doute » (la machine ne peut pas ne pas répondre) contribuent à produire un effet d’autorité qui incite à la soumission (les enfants, paraît-il, ont plus confiance dans les robots que dans leurs parents). Intervient aussi dans ce processus de croyance l’idée que l’intelligence humaine serait par nature défaillante et aurait donc bien besoin que l’IA vienne compenser ses manques ; y contribue également la volonté du grand public de « croire aux miracles, fussent-ils techniques » (p. 12).
Outre les mises au point de Rastier au sujet du rapport des IA au réel et à la vérité, sur lesquelles je ne m’étendrai pas davantage, son livre est particulièrement salutaire pour ses éclairages sur le langage et la notion de texte, questions centrales pour l’enseignement des disciplines littéraires, dont « Sauver les lettres » s’attache à défendre une conception ambitieuse depuis des années.
Tout d’abord, le discours produit par les IA génératives est un discours non-humain, au sens où « l’énonciateur reste indiscernable » (p. 41). Or, explique Rastier, « un texte n’est pas qu’une chaîne de caractères », « sa teneur dépend du point de vue de celui qui l’énonce et d’une garantie qui le légitime » (p. 41). Point de vue et garantie définissent la portée du texte et donc déterminent son interprétation. « On ne saurait interpréter un texte sans auteur ni intention définissable et qui ne s’appuie sur aucune garantie sociale » (p. 42).
Cette absence d’énonciateur pose la question de la responsabilité : du fait qu’on ne sait pas « qui parle », on ne peut demander raison à personne à propos d’un texte généré artificiellement, le système « se retranchant derrière des arguments de type je ne fais que suivre les ordres, je ne suis qu’une IA (p. 96 et 138). Cette irresponsabilité est aggravée par le fait que qu’on ne peut accéder aux sources dans lesquelles puisent les IA , car elles sont « effacées : on ne sait desquelles le système tient compte, ni comment » (p. 101).
Cet effacement de l’énonciateur et des sources revient, pour les textes ainsi produits, à les priver de contexte. Or le « contexte, dit Rastier, est une norme locale qui permet et limite l’interprétation », ce qui en fait un « principe essentiel à la constitution du sens » (p. 137). Ainsi l’IA produit des suites de mots qui semblent cohérentes, mais qui rendent impossible l’activité interprétative du lecteur. Pour Rastier, il s’agit là d’une « offensive globale contre la culture, réduite à des « contenus » et coupée de ses conditions de création et d’interprétation » (p. 147).
La notion même de corpus doit être interrogée quand elle est appliquée aux ensembles de documents dans lesquelles puisent les IA : de même qu’un « texte ne se réduit pas à une chaîne de caractères » (p. 41), « tout regroupement de documents ne mérite pas le nom de corpus » (p. 34). Un corpus est un regroupement structuré qui « anticipe les applications pour lesquelles il est rassemblé : il dépend du point de vue qui a présidé à sa constitution ». De même avec l’IA, s’est répandue l’idée d’une indistinction entre informations et connaissances : or « la connaissance, dit Rastier, est une élaboration critique selon un projet et non une répétition aléatoire du déjà-dit » (p. 103). C’est encore plus évident avec la notion de création qui doit être distinguée de la production : « créer n’est pas combiner des extraits de l’existant, mais objectiver du nouveau : la musique d’ascenseur ne retient personne et la littérature générée par ordinateur, écrite par personne pour quiconque, tombe des mains de tous ». Le danger est celui d’un conformisme généralisé, comme on le voit déjà à l’œuvre à travers les réseaux sociaux.
C’est ainsi pour Rastier tout un processus de « mort du symbolique » (p. 14) qui est en marche, ajouté au problème des données, àlamultiplication des fake news, à la déresponsabilisation, à la radicalisation du conformisme, sans parler du risque de se déprendre de sa capacité à savoir écrire par soi-même.
Ces mises au point sur ce qu’est un texte devraient nous inciter à réfléchir d’urgence à l’utilisation des IA dans l’enseignement, et surtout dans l’enseignement littéraire. Ce n’est apparemment pas le cas de certaines institutions, comme le réseau Canopé [4] qui, tout en affichant des recommandations de prudence, multiplie les incitations à utiliser l’IA en classe, au prétexte, toujours le même, que si l’école ne le fait pas, tous les enfants ne seront pas à égalité devant le maniement de ces nouveaux outils. F. Rastier relève des exemples de pratiques destinées à « enrichir le cours », par exemple en demandant à ChatGPT de « générer des dictées ou des QCM » (p. 61). [5] Il conclut en alertant sur le fait que « sous couvert d’éducation au numérique, l’éducation par le numérique devient la norme. »
Pour conclure, on laissera ici de côté le débat sur toutes les utilisations pédagogiques qui pourraient être pertinentes éventuellement, pour se concentrer, à la lumière du livre de Rastier, sur ce qui paraît totalement incompatible avec l’enseignement des lettres :
- le fait de travailler sur des textes inauthentiques comme si c’était des textes authentiques ;
- le fait de continuer à apprendre aux élèves à rédiger, comme si de rien n’était, des écrits que les IA sont capables de produire bien mieux qu’eux (comptes-rendus de lecture, résumés, discussions, dissertations, etc). C’est tellement évident que les professeurs ont déjà renoncé à donner du travail à la maison, afin de ne pas avoir à corriger et noter les produits de ChatGPT. Il y a fort à craindre que le temps pour s’entraîner à ce type d’écrit ne se réduise comme peau de chagrin, et que, comme tout ne peut pas être fait en classe, le temps restant soit absorbé par des activités entièrement arrimées à l’usage des systèmes numériques.
Que pourrions-nous imaginer d’autre ?
Une perspective intéressante est proposée dans un article de la revue AOC où les auteurs s’émeuvent des dangers que l’IA fait courir à tous les processus d’évaluation et de certification des professions intellectuelles : si les élèves ont accès à ChatGPT, leur réussite aux épreuves est assurée et donc quelle valeur attribuer aux diplômes obtenus ? Leur réponse résulte d’un renversement du problème : au lieu de se demander si l’IA fait aussi bien que l’intelligence humaine, demandons-nous si certaines productions humaines ne sont pas finalement aussi pauvres et peu originales que les productions de ChatGPT. La question de l’évaluation disent-ils, serait alors : « cette production humaine est-elle le fruit d’une pensée ? ». Et de conclure : « au lieu de capacités intellectuelles relevant des compétences d’une intelligence artificielle (l’exhaustivité et l’organisation des connaissances), ce sont désormais l’originalité et la créativité qui pourront être valorisées. [6]»
Que donnerait un tel principe appliqué à l’enseignement des lettres ? Il valoriserait ce que Sauver les Lettres prône depuis sa création :
- demander à l’élève d’exposer un point de vue personnel, un jugement, au lieu de le limiter à des exercices où produire des arguments standardisés suffit, où on attend de lui qu’il sache seulement écrire ce que n’importe qui ou une machine pourrait écrire.
- fonder les pratiques d’enseignement sur l’analyse de textes littéraires (authentiques et consistants), textes qui incarnent précisément une haute idée de la créativité humaine et ouvrent les élèves à l’inconnu. Cette analyse donne lieu à l’expression d’un jugement argumenté sur l’intérêt ou la portée du texte, et l’élève peut ainsi apprendre à exercer sa capacité critique personnelle.
- rappeler que l’analyse littéraire d’un texte consiste précisément à « interpréter », à formuler des hypothèses sur son sens, lesquelles ne sont jamais définitivement arrêtées et peuvent faire l’objet de discussions. Serait alors convoqué un réel enseignement esthétique, permettant de se repérer dans l’histoire des formes.
- bannir toute forme de « sujet d’invention » parce que c’est une fausse réponse à la question de la créativité, car il s’appuie sur une conception purement rhétorique de l’écriture, où des recettes sont censées suffire à faire un texte.
Au total le développement des IA génératrices de textes impose, avec une urgence plus grande encore que dans le passé récent, de centrer prioritairement notre enseignement sur le développement de la faculté de juger et de la capacité à exprimer ce jugement, et de relire la réflexion menée en ce sens sur notre site.
Mireille KENTZINGER
Collectif Sauver les lettres www.sauv.net
Notes :
[1] L’IA m’a tué. Comprendre un monde post-humain. Ed. Intervalles 2025.
[2] F. Rastier précise que ses critiques ne concernent que « les IA génératives grand public » (p.122)
[3] « GPT » : acronyme de Generative Pretrained Transformer (transformeur génératif pré-entraîné), ce dernier terme renvoie à l’apprentissage préalable. « Chat » renvoie à sa capacité conversationnelle (note 3 p. 13)
[4] Sous la tutelle du ministère de l’Éducation nationale, Réseau Canopé est l’opérateur de la formation tout au long de la vie des enseignants et des acteurs de l’éducation (https://www.reseau-canope.fr/qui-sommes-nous)
[5]Pour avoir d’autres exemples éclairants de cette tendance, voir : https://www.frenchweb.fr/formes-aux-ia-des-profs-utilisent-deja-chatgpt-en-classe/442368
[6] Julie Noirot et Pierre Sujobert, « La pensée à l’ère de sa reproductibilité technique », in AOC, 7 novembre 2013, repris dans le numéro spécial n° 1, Intelligence artificielle, printemps 2025.