Le point de vue des universitaires - La connaissance à l'ère de l'IA générative

L'intelligence artificielle générative peut-elle nous aider à connaître la vérité ? La première réponse qui vient à l'esprit est sans aucun doute "non" : après tout, si cette IA est censée être générative, alors elle génère du contenu plutôt que de nous dire ce qui existe réellement. En effet, ces intelligences artificielles n'ont en théorie aucune expérience directe du monde réel. 

Comment sauraient-ils ce qui est vrai et ce qui ne l'est pas ? Nous connaissons tous le problème des hallucinations : lorsqu'un grand modèle linguistique (LLM) invente un fait qui n'existe pas, dans le but de produire un texte probable. 'Qu'a mangé Napoléon avant la bataille de Waterloo ?' 'Une tarte aux pommes.' Cette suggestion n'est pas absurde, mais elle n'est pas vraie. Un modèle linguistique a du mal à faire la différence parce qu'il fonctionne sur la base de probabilités statistiques et non d'une recherche précise dans une base de données. Bien sûr, la réponse d'un modèle sera souvent juste, surtout si l'information demandée apparaît fréquemment dans les données sur lesquelles le modèle a été entraîné (par exemple, la date de la bataille de Waterloo).

En bref, le modèle linguistique produit du plausible plutôt que du vrai et s'efforce d'accepter ce qu'il ne sait peut-être pas. En cela, il s'apparente aux faux savants décrits par Descartes : "S'ils veulent savoir parler de toutes choses (...), ils y parviendront plus aisément en se contentant de la vraisemblance, qui se trouve sans grande difficulté dans toutes sortes de matières, qu'en cherchant la vérité, qui ne se découvre que peu à peu dans les unes, et qui, lorsqu'il s'agit de parler des autres, les oblige à avouer franchement qu'ils les ignorent". Ce que l'on peut appeler le "péril de la vraisemblance" suffit à déconseiller l'utilisation des LLM, dans leur état actuel, comme simples moteurs de recherche ou sources d'informations brutes. Mais ce péril va encore plus loin. Au-delà des faits inexactsLe problème des idées banales. Un texte plausible risque non seulement d'être faux, mais d'être moyen, normal. Ce qui pourrait être un avantage pour rédiger un énième communiqué de presse devient un inconvénient pour inventer de nouvelles idées, ou même pour rendre compte d'une idée originale.

Tous les progrès réalisés en la connaissance implique un écart par rapport à ce qui est communément admis: Galilée n'aurait pas été Galilée s'il s'était soumis au savoir commun de son époque. Certains imaginent donc un scénario où, à force de déléguer la réflexion à des modèles de langage, l'humanité finira par connaître un "effondrement de la connaissance" conduisant à la perte du vrai savoir, noyé dans des résumés de plus en plus déformés, banalisés par les machines, jusqu'à la régression scientifique. Sans aller aussi loin, le risque de vivre ce phénomène dans une entreprise est réel : si l'entreprise s'appuie trop sur l'IA générative pour traiter sa base de connaissances, elle risque de perdre son expertise. L'expertise suppose non seulement la connaissance de l'ensemble d'un domaine, mais aussi la connaissance de ses exceptions, de ses irrégularités et de ses cas extrêmes. Une compagnie aérienne ne fonctionne pas uniquement grâce à la pertinence de sa documentation technique, mais bien sûr grâce aux connaissances spécifiques, ancrées dans l'expérience, de ses ingénieurs et techniciens spécialisés, qui peuvent se souvenir de situations uniques et improbables. Néanmoins, ce serait une cruelle erreur de s'arrêter là. Car, sous d'autres formes, et si l'on dépasse ce péril de la plausibilité, l'IA générative peut nous aider à faire des progrès décisifs dans le monde de la connaissance.

TOUT D'ABORD, NOUS DEVONS NOUS RENDRE COMPTE QUE LA POSSIBILITÉ QU'UN TEXTE ÉCRIT PAR UNE IA NE SOIT PAS "VRAI" N'EST PAS UN DÉFAUT DE L'IA ELLE-MÊME ; C'EST UN DÉFAUT DE NOTRE PENSÉE CRITIQUE.

Trop souvent, nous nous appuyons sur des arguments d'autorité : Je lis ce texte d'un grand auteur, donc je lui fais confiance. Mais le texte lui-même n'offre aucune certitude de vérité, même lorsqu'il est écrit par un être humain. Sa vérité dépend de la cohérence interne de ses arguments, et il nous incombe, en tant que lecteurs, de la repérer. Il en va de même pour les images : nous avons associé la photographie à la vérité, mais c'est un raccourci trop facile. La photographe Annie Leibovitz a déclaré que l'IA ne l'inquiète pas du tout parce que "[...] l'intelligence artificielle n'est pas un problème.La photographie elle-même n'est pas vraiment réelle Il peut être altéré, et même sans altération, il n'est qu'une transcription de photons sur un plan, pas l'objet lui-même. Un texte écrit par l'IA doit donc être lu avec un esprit critique... comme un texte écrit par un humain. Comme le disait Roland Barthes, que ChatGPT n'aurait pas dérangé, "l'unité d'un texte ne réside pas dans ses origines (...) mais dans sa destination".3 

QUE POUVONS-NOUS FAIRE AVEC LES PRODUITS DE L'AI GÉNÉRATIVE POUR NOUS AIDER À FAIRE PROGRESSER NOS CONNAISSANCES ? 

Tout d'abord, nous devons nous concentrer sur l'utilisation de ces modèles en tant que processeurs plutôt que producteurs d'informations. Le modèle linguistique est un traducteur universel, qui peut non seulement traduire un texte anglais en français et vice versa, mais aussi traduire un texte français en script Python, un poème en prose, ou une feuille de calcul Excel en présentation PowerPoint. Il peut également traduire un texte compliqué en un texte simple et faire communiquer des domaines qui, autrement, ne se seraient jamais parlés. 

Une petite étude a récemment montré que, bien que les ChatGPT est souvent utilisé par les chercheurs pour rédiger les introductions de leurs articles, comme le révèle une mesure des bizarreries linguistiques de ChatGPT dans les revues académiques (par exemple, le mot delve, surutilisé par ChatGPT), les chercheurs ne considèrent pas que ces introductions sont moins bonnes que celles écrites à la main. Si les chercheurs font des découvertes par eux-mêmes et les partagent avec le monde à l'aide de ChatGPT, la communication des connaissances s'en trouve améliorée. La fluidité des échanges entre chercheurs est l'un des facteurs clés du progrès scientifique. C'est pourquoi l'imprimerie a tant contribué au progrès de la science moderne depuis la Renaissance. 

D'une manière générale, cette capacité de transformation des LLM permet d'améliorer la communication à tous les niveaux : entre techniciens et non-techniciens, entre différentes spécialités, voire entre différentes personnalités.

Plus fondamentalement, le modèle linguistique peut servir de stimulus. Nous avons vu qu'il a tendance à produire des textes et des idées qui sont plausibles plutôt que vraies, mais ce n'est pas nécessairement un défaut. Les innovateurs ont souvent besoin d'un sparring-partner pour évaluer et tester leurs idées ; chaque Sherlock Holmes a besoin d'un Dr Watson, et un LLM est un excellent Watson. C'est souvent en confrontant des idées communes que l'on trouve des idées uniques. De plus, si le LLM tend spontanément vers la moyenne, on peut combattre cette tendance en le déstabilisant, en lui demandant d'imaginer des idées inspirées par des sources inattendues. En effet, en l'obligeant à interpoler entre des notions et des inspirations habituellement distinctes (pourquoi pas, la stratégie financière et l'art de Vermeer), le LLM sera contraint de créer quelque chose de nouveau. Tout n'en vaudra pas la peine, mais des idées précieuses pourront en émerger. L'IA générative peut également compléter des aspects inaperçus d'un processus de pensée. Vous pouvez être meilleur que ChatGPT dans votre domaine d'expertise, mais il est probablement meilleur que vous dans tous les autres domaines. Vous pouvez avoir une nouvelle idée que seul un humain aurait pu avoir, mais les applications de cette idée dans d'autres domaines que le vôtre peuvent sans doute être imaginées mieux que vous par un LLM. Enfin, on ne peut pas exclure l'hypothèse que les modèles du futur auront des capacités de raisonnement beaucoup plus poussées qu'aujourd'hui, notamment en dépassant le cadre de l'analyse de l'information. cadre de la langue et en l'associant à d'autres architectures moins sujettes au péril de la plausibilité.

PEUT-ÊTRE VERRONS-NOUS DES INTELLIGENCES ARTIFICIELLES PROPOSER DE NOUVELLES THÉORIES ET LES METTRE À L'ÉPREUVE. LES POSSIBILITÉS DE DÉCOUVERTE SERAIENT ALORS PRESQUE INFINIES.

En attendant, et à condition de se prémunir contre les risques mentionnés ci-dessus, nous pouvons être sûrs que des progrès importants seront réalisés au cours des prochaines années, grâce à IA générativequi sert de support aux innovateurs, et, ne l'oublions pas, grâce à l'IA non générative, qui permet déjà de réaliser des tâches surhumaines, comme la prédiction massive de la structure des protéines5 , la découverte de nouveaux matériaux ou la lecture des papyrus romains carbonisés par l'éruption du Vésuve.