Erreur, vérité, in-certitude...?
|
| Erreur et vérité
"L'IA oblige à repenser la pensée..." P.Quéau , La pensée à venir (2)
A mon échelle, je peux essayer de tirer quelques enseignements des "conversations" qui ont eu pour objet-direct ou indirect- la vérité.
L'importance des dates (car les LLMs évoluent très très vite et ne produisent plus les mêmes erreurs qu'il y a un an).
Les 4 conversations (4-5-6) où des questions relatives à la vérité sont évoquées avec ChatGPT se passent de novembre 2023 à avril 2024. Une grande (trop grande) importance y a été accordée à la notion d'hallucination qui était à la mode. On peut parier que -malgré cette place prise pendant quelques mois , ce concept psychiatrique appliqué à l'IA va tomber (est déjà tombé ) en désuétude.
On connait la date de l'inscription au Dictionnaire de Cambridge, qui couronne « hallucinate » (halluciner ou, par extension, hallucination) .
Le terme « hallucination » a ainsi gagné un nouveau sens en 2023 : on l’utilise maintenant "pour décrire les fausses informations produites par les IA génératives lorsqu’on leur pose des questions."
Les livres et les articles aussi en parlaient abondamment, par exemple: "Pour l’heure, l’IA hallucine. C’est l’expression consacrée pour rendre compte de la façon dont elle donne des réponses fausses avec un aplomb confondant". Raphaël Gaillard, L'homme augmenté: Futurs de nos cerveaux, Grasset Janvier 2024. Dans mon expérience, jamais ChatGPT n'a fait preuve "d'aplomb" confondant. Au contraire: la rectification ou l'essai de rectification de l'erreur -dès que je l'ai signalée- a été immédiate.L'exception, c'est le cas de la différence texte-image où l'explication de Chat ressemble à ce que nous les humains nommerions "mauvaise foi" (peut-être tout simplement un embarras dans la complexités des systèmes mobilisés). Lorsque de telles expressions nous viennent à l'esprit quand nous jouons avec les IA, nous devrions commencer par interroger nos diverses formes (connues et surtout inconnues devant de telles nouveautés) d'anthropomorphisme.
On le sait aussi, les LLMs vont se perfectionnant à grande vitesse et, en multipliant les couches d'entrée des requêtes et de la sortie des réponses, elles savent de mieux en mieux éliminer les résultats inadéquats. C'est ce point que ChatGpt a développé à propos de ma question sur le pipe line d'inférence. Ce dispositif sert notamment à ajuster les résultats "en coulisse"(1) avant de donner les réponses. On peut donc s'attendre à ce que les LLMs s'auto-guérissent de leurs hallucinations dans un futur très proche sans perdre pour autant la capacité de nous surprendre.
|
L'importance des rectifications massives.
C'est le cas pour le type d'erreur que l'on peut qualifier de "banales", telle que dans conversation3. Elles sont reconnues immédiatement et rectifiées aussitôt. Le pointage des erreurs par les usagers assurent qu'elles seront de moins en moins nombreuses. Mais une question subsiste: une erreur peut exister quand même. Il y aura donc à la fois une probabilité de plus en plus grande pour que le texte freudien cherché ou utilisé soit exact , et un élément d'incertitude (jusqu'à quel point ce texte-ci est-il tout à fait conforme à l'original?). On ne dira jamais assez que le texte papier imprimé d'origine doit être précieusement conservé et consulté autant que nécessaire.
Il ne faut pas perdre de vue que l'apprentissage de base s'est fait en anglais, et donc il faut garder précieusement les premières traductions anglaises de Freud à coté de l'édition en allemand. Le reste d'incertitude indépassable reste étrange dans ce domaine où de gigantesques calculs et combinaisons sont parfaitement exacts: il nous faut donc "penser" ces régimes de production de la vérité pour en comprendre les richesses et les limites.
Une faille fertile encore actuelle
Un genre d'erreur résulte de la juxtaposition d'un texte et d'une image créée pour illustrer le texte. Dans objet a et dollar il s'agit véritablement d'une erreur.Le sujet barré du graphe de lacan est interprété comme étant le dollar. Dans le second exemple, nicecinicela l'illustration semble ne pas obéir aux logarithmes habituels, "bien-pensants" quant aux relations "humains-IA".Comme je l'ai souligné, les humains sont des quasi-fourmis, l'IA -cerveau trône de tout son pouvoir. Cet "effet" de rapport illustre bien l'inattendu et semble désigner une sorte de faille dans l'encadrement logarithmique qui la laisse passer. C'est une voie intéressante pour explorer des aspects moins "contraints".
Pour le moment, il me semble qu'il est beaucoup plus intéressant de penser les chocs que prend notre pensée quand nous inter-agissons avec une IA, que de projeter sur elle nos attentes et nos critiques. Je suis d'accord avec ce que dit Quéau dans son blog(2): "L’IA oblige à repenser la pensée, c’est-à-dire à penser, toujours à nouveau, à ce qu’est réellement l’essence de la pensée (humaine), puisqu’elle la mime si aisément, de façon déjà suffisamment convaincante pour faire quelque illusion".
|