Écrire comme tout le monde, penser comme personne : l’héritage toxique de ChatGPT
Une langue sans faille est une langue sans chair.
Voilà presque trois ans que nous sommes des millions à confier à ChatGPT un nombre hallucinant de tâches différentes. Les jeunes lui donnent leurs devoirs, certains profs s’en servent pour corriger leurs copies ; dans le secteur tertiaire, il peut aider à structurer un projet, rédiger des e-mails ou aider au brainstorming. « Améliore le style de mon texte », « étoffe-le », « reformule-le de manière plus académique/littéraire/scientifique », des consignes qu’il s’empressera de respecter.
En retour, et lorsqu’il est réglé par défaut, il nous proposera toujours ce même genre d’écrit : des phrases sages et bien lissées, sans relief, pour ne choquer personne. C’est le d’ailleurs le but d’un chatbot généraliste, quel qu’il soit : ne pas créer la controverse. Sauf que ce style « GPTesque », à force d’être utilisé jusqu’à la corde, s’est infiltré de partout. Dans les vidéos YouTube d’universitaires, les documents professionnels ou les discours des conférenciers TEDx. Un style sans voix, sans émotion et finalement, sans pensée.
C’est l’hypothèse, dérangeante sous certains aspects, d’une équipe du Max Planck Institute for Human Development à Berlin. Ces chercheurs viennent de publier une étude sur la plateforme arXiv concernant les transformations du langage depuis l’irruption de ChatGPT, baptisée Empirical evidence of Large Language Model’s influence on human spoken communication. En analysant automatiquement 280 000 vidéos académiques diffusées sur YouTube, issues de plus de 20 000 chaînes, ils sont parvenus à cette déduction : le lexique typique des LLMs s’est incrusté dans la langue des chercheurs, des conférenciers, des professeurs ; ceux-là mêmes qui devraient nous aider à penser autrement.
ChatGPT : propagateur d’une nouvelle novlangue ?
Empruntons volontairement le terme novlangue à Georges Orwell pour exprimer ce qui suit. Dans son roman 1984, la novlangue est un outil de contrôle mental instauré par les autorités, un idiome simplifié, vidé de ses nuances et conçu pour restreindre la pensée critique. Moins de mots, c’est moins d’idées à exprimer et par effet boule de neige, un risque de dissidence réduit de la part des populations. Bien sûr, ChatGPT ne vise pas à étouffer nos libertés, mais les effets secondaires de son omniprésence rappellent, à s’y méprendre, les rouages d’un certain conditionnement : une normalisation sournoise du langage, qui, à force de lisser notre vocabulaire, finit peut-être par aplanir notre pensée.
Bien sûr, ce n’est pas ChatGPT qui a inventé les mots ou expressions « méticuleux », « approfondir », « se distinguer par », « reste à savoir » (liste non exhaustive). On les retrouve pourtant ad nauseam dans des quantités hallucinantes de textes, qu’ils proviennent de médias généralistes, de blogs ou de posts sur les réseaux sociaux. Des « gimmicks GPTesque », voilà quel nom leur siérait à merveille tant leur fréquence d’utilisation a explosé depuis 2022.
Le(s) discour(s) universitaires, bien plus complexes naguère par nature, semblent tomber dans ce moule préfabriqué. Un moule rempli de textes fades et sans âme, standardisés à l’excès. Affirmer que ChatGPT ; et l’intelligence artificielle par extension ; serait un danger, c’est se tromper de cible. Le vrai danger est le sillage de ce qu’elle laisse derrière elle : un appauvrissement de notre écriture. Les mots ne manquent pas, bien au contraire, mais ils passent sous le grand rouleau compresseur de la machine à reformuler.
Du fait d’insister à lui demander de « mieux dire », on finit nécessairement par moins dire. Nous retrouvons les mêmes tournures en boucle et les aspérités de l’écriture personnelle s’émoussent, puisque chaque phrase doit être un compromis : assez claire pour tous, elle devient tiédasse pour chacun. Une langue trop parfaite, qui ne bouscule plus personne et qui, finalement, ne parvient plus à éclairer là où elle faisait la lumière autrefois.
Faut-il abandonner ChatGPT et consorts, et revenir à nos anciens outils ? Ce n’est pas la bonne question à mettre sur la table, en réalité. Ce qu’il faut interroger, c’est le coût cognitif et culturel de cette fameuse efficacité dont l’IA nous dote. En déléguant trop notre langage ; ce qui sépare Homo sapiens des autres animaux, rappelons-le ; ne sommes-nous pas en train de déléguer également une partie de notre pensée ? En plus d’être l’organe de notre communication, il est aussi celui de la résistance. Si nous continuons à le lisser de la sorte, que nous restera-t-il pour penser à contre-courant ? « Le langage ne se refuse qu’à une chose, c’est à faire aussi peu de bruit que le silence », écrivait Francis Ponge, dans ses Poèmes. C’est ce que produit l’IA généraliste : une prose aseptisée, trop bien cousue pour ne jamais déborder.
- L’usage généralisé des intelligences artificielles génère un style d’écriture standardisé et neutre.
- Des recherches montrent que ce langage de l’IA s’immisce progressivement dans la communication humaine, notamment chez les universitaires.
- Cette homogénéisation de notre expression pourrait, à terme, appauvrir notre capacité à penser de manière originale.
