L'intelligence artificielle générative peut-elle nous aider à connaître la vérité ?
La première réponse qui vient à l'esprit est sans aucun doute "non" : après tout, si cette IA est censée être générative, alors elle génère du contenu plutôt que de nous dire ce qui existe réellement. En effet, ces intelligences artificielles n'ont en théorie aucune expérience directe du monde réel. Comment pourraient-elles savoir ce qui est vrai et ce qui ne l'est pas ?
Nous connaissons tous le problème des hallucinations : lorsqu'un grand modèle linguistique (LLM) invente un fait qui n'existe pas, dans le but de produire un texte probable. Qu'a mangé Napoléon avant la bataille de Waterloo ? Une tarte aux pommes. Ce n'est pas absurde, mais ce n'est pas vrai. Un modèle linguistique a du mal à faire la différence parce qu'il fonctionne sur la base de probabilités statistiques et non sur la base d'une recherche précise dans une base de données. Bien sûr, la réponse d'un modèle sera souvent juste, surtout si l'information demandée apparaît fréquemment dans les données sur lesquelles le modèle a été entraîné (par exemple, la date de la bataille de Waterloo). En bref, le modèle linguistique produit du plausible plutôt que du vrai et s'efforce d'accepter ce qu'il ne sait peut-être pas. En cela, il s'apparente aux faux savants décrits par Descartes : "S'ils veulent savoir parler de toutes choses (...), ils y parviendront plus aisément en se contentant de la vraisemblance, qui se trouve sans grande difficulté dans toutes sortes de choses, qu'en cherchant la vérité, qui ne se découvre que peu à peu dans les unes, et qui, quand il s'agit de parler des autres, les oblige à avouer franchement qu'ils les ignorent".
Ce que l'on peut appeler le "péril de la plausibilité" suffit à déconseiller l'utilisation des LLM, dans leur état actuel, comme simples moteurs de recherche ou sources d'informations brutes. Mais ce péril va plus loin encore. Au-delà des faits inexacts, il y a le problème des idées banales. Un texte plausible risque non seulement d'être faux, mais d'être moyen, normal. Ce qui peut être un avantage pour rédiger un énième communiqué de presse devient un inconvénient pour inventer de nouvelles idées, ou même pour rendre compte d'une idée originale. Tout progrès dans la connaissance implique un écart par rapport à ce qui est communément admis : Galilée n'aurait pas été Galilée s'il s'était soumis au savoir commun de son époque.
Certains imaginent ainsi un scénario où, à force de déléguer la réflexion à des modèles de langage, l'humanité finira par connaître un "effondrement de la connaissance" conduisant à la perte du vrai savoir, noyé dans des résumés de plus en plus déformés, banalisés par les machines, jusqu'à la régression scientifique.[1] Sans aller aussi loin, le risque d'expérimenter ce phénomène dans une entreprise est réel : si l'entreprise s'appuie trop sur l'IA générative pour traiter sa base de connaissances, elle risque de perdre son expertise. L'expertise suppose non seulement la connaissance de l'ensemble d'un domaine, mais aussi la connaissance de ses exceptions, de ses irrégularités et de ses cas extrêmes. Une compagnie aérienne ne fonctionne pas uniquement grâce à la pertinence de sa documentation technique, mais bien sûr grâce aux connaissances spécifiques, ancrées dans l'expérience, de ses ingénieurs et techniciens spécialisés, qui peuvent se souvenir de situations uniques et improbables.
Néanmoins, ce serait une cruelle erreur de s'arrêter là. Car, sous d'autres formes, et si l'on dépasse ce péril de la plausibilité, l'IA générative peut nous aider à faire des progrès décisifs dans le monde de la connaissance.
Tout d'abord, nous devons nous rendre compte que la possibilité qu'un texte écrit par l'IA ne soit pas "vrai" n'est pas un défaut de l'IA elle-même ; c'est un défaut de notre pensée critique. Trop souvent, nous nous appuyons sur des arguments d'autorité : Je lis ce texte d'un grand auteur, donc je lui fais confiance. Mais le texte lui-même n'offre aucune certitude de vérité, même lorsqu'il est écrit par un humain. Sa vérité dépend de la cohérence interne de ses arguments, et il nous incombe, en tant que lecteurs, de la repérer. Il en va de même pour les images : nous avons associé la photographie à la vérité, mais c'est un raccourci trop facile. La photographe Annie Leibovitz a déclaré que l'IA ne l'inquiète pas du tout car "la photographie elle-même n'est pas vraiment réelle".[2] Il peut être altéré, et même sans altération, il n'est qu'une transcription de photons sur un plan, et non l'objet lui-même.
Un texte écrit par l'IA doit donc être lu avec un esprit critique... tout comme un texte écrit par un humain. Comme le disait Roland Barthes, que ChatGPT n'aurait pas dérangé, "l'unité d'un texte ne réside pas dans ses origines (...) mais dans sa destination".[3] Que pouvons-nous donc faire avec les produits de l'IA générative pour nous aider à faire progresser nos connaissances ?
Tout d'abord, nous devons nous concentrer sur l'utilisation de ces modèles en tant que processeurs plutôt que producteurs d'informations. Le modèle linguistique est un traducteur universel, qui peut non seulement traduire un texte anglais en français et vice versa, mais aussi traduire un texte français en script Python, un poème en prose, ou une feuille de calcul Excel en présentation PowerPoint. Il peut également traduire un texte compliqué en un texte simple et faire communiquer des domaines qui, autrement, ne se seraient jamais parlés. Une petite étude a récemment montré que, bien que ChatGPT soit souvent utilisé par les chercheurs pour rédiger les introductions de leurs articles, comme le révèle une mesure des bizarreries linguistiques de ChatGPT dans les revues universitaires (par exemple, le mot plongerLes chercheurs ne considèrent pas que ces introductions soient moins bonnes que celles qui sont écrites à la main.[4] Si les chercheurs font des découvertes par eux-mêmes et les partagent avec le monde à l'aide de ChatGPT, la communication des connaissances s'en trouve améliorée. La fluidité des échanges entre chercheurs est l'un des facteurs clés du progrès scientifique, c'est pourquoi l'imprimerie a tant contribué au progrès de la science moderne depuis la Renaissance. D'une manière générale, cette capacité de transformation des LLM permet d'améliorer la communication à tous les niveaux : entre techniciens et non-techniciens, entre différentes spécialités, et même entre différentes personnalités.
Plus fondamentalement, le modèle linguistique peut agir comme un stimulus. Nous avons vu qu'il a tendance à produire des textes et des idées qui sont plausibles plutôt que vraies, mais ce n'est pas nécessairement un défaut. Les innovateurs ont souvent besoin d'un sparring-partner pour évaluer et tester leurs idées ; chaque Sherlock Holmes a besoin d'un Dr Watson, et un LLM est un excellent Watson. C'est souvent en confrontant des idées communes que l'on trouve des idées uniques. De plus, si le LLM tend spontanément vers la moyenne, on peut combattre cette tendance en le déstabilisant, en lui demandant d'imaginer des idées inspirées par des sources inattendues. En effet, en l'obligeant à interpoler entre des notions et des inspirations habituellement distinctes (pourquoi pas, la stratégie financière et l'art de Vermeer), le LLM sera contraint de créer quelque chose de nouveau. Tout n'en vaudra pas la peine, mais des idées précieuses peuvent en émerger.
L'IA générative peut également compléter des aspects inaperçus d'un processus de pensée. Vous pouvez être meilleur que ChatGPT dans votre domaine d'expertise, mais il est probablement meilleur que vous dans tous les autres domaines. Vous avez peut-être une nouvelle idée que seul un humain aurait pu avoir, mais les applications de cette idée dans d'autres domaines que le vôtre peuvent sans doute être imaginées mieux que vous par un LLM.
Enfin, on ne peut exclure l'hypothèse que les modèles futurs auront des capacités de raisonnement beaucoup plus avancées qu'aujourd'hui, notamment en dépassant le cadre du modèle linguistique et en l'associant à d'autres architectures moins soumises au péril de la plausibilité. Peut-être verrons-nous des intelligences artificielles proposer de nouvelles théories et les mettre à l'épreuve. Les possibilités de découverte seraient alors presque infinies.
En attendant, et à condition de se prémunir contre les risques évoqués plus haut, il est certain que des progrès importants seront réalisés dans les prochaines années, à la fois grâce à l'IA générative, qui sert de support aux innovateurs, et, ne l'oublions pas, grâce à l'IA non générative, qui permet déjà de réaliser des tâches surhumaines, telles que la prédiction massive de la structure des protéines[5]la découverte de nouveaux matériaux[6] ou la lecture de papyrus romains carbonisés par l'éruption du Vésuve.[7]
[1] Peterson, Andrew. L'IA et le problème de l'effondrement des connaissances. (2024).
[2] 'La photographie elle-même n'est pas vraiment réelle... J'utilise tous les outils disponibles" : Annie Leibovitz parle de l'IA, lors de son intronisation à l'Académie des Beaux-arts, Le monde de l'appareil photo numériqueLe 24 mars 2024, le Conseil d'administration de l'Union européenne a approuvé le projet de loi de finances pour l'année 2010.
[3] Barthes, Roland. La mort de l'auteur" (1968). Dans Le Bruissement de la langue (1984).
[4] Sikander, B., Baker, J.J., Deveci, C.D., Lund, L. et Rosenberg, J. (2023). ChatGPT-4 et les chercheurs humains sont égaux dans la rédaction des sections d'introduction scientifique : Une étude contrôlée en aveugle, randomisée et sans infériorité. Cureus, 15. (2023).
[5] Jumper, J., Evans, R., Pritzel, A. et al. Prédiction très précise de la structure des protéines avec AlphaFold. Nature 596 , 583-589 (2021).
[6] Merchant, A., Batzner, S., Schoenholz, S.S. et al. Mise à l'échelle de l'apprentissage profond pour la découverte de matériaux. Nature 624, 80-85 (2023).
[7] Le défi du Vésuve (2023).
Raphaël Doan - Auteur, Si Rome n'avait pas chuté
Accuracy Talks Straight #10 - La perspicacité académique