Par analogie avec celle survenant chez l’homme, due à une fausse perception, on utilise ce mot dans le domaine de l’intelligence artificielle pour caractériser une réponse fausse qui est présentée comme un fait certain. On en trouvera des illustrations dans l’article de Wikipedia qui lui est consacré.
J’ai eu le désir que vérifier le phénomène sur ChatGPT, en lui demandant quelle était la philosophie qui se dégageait de mes propres ouvrages, et de quel autre écrivain le programme jugeait que j’étais proche. Eh bien, cela n’a pas tardé : très vite je me suis vu affublé de titres de livres que je n’avais pas écrits, et de noms de personnalités œuvrant dans un domaine qui n’est absolument pas le mien. J’ai vu là un déluge d’hallucinations.
Un instant j’ai pu penser que mes requêtes n’étaient pas assez explicites, et que la responsabilité du phénomène m’incombait. Mais je me suis vite rendu à l’évidence, et j’ai vu que selon Wikipedia dès 2023 les analystes ont considéré les hallucinations comme un problème majeur de ces technologies, un dirigeant de Google identifiant leur réduction comme une tâche « fondamentale ». En fait l’IA ne cherche pas la vérité des choses, mais leur probabilité et leur plausibilité. Comme elle est conçue pour être persuasive par la vraisemblance de ses productions, et non pas véridique, ses résultats peuvent sembler très réalistes, mais inclure des affirmations erronées.
Dès lors, on ne peut qu’être très prudent quant à la confiance qu’on lui accorde. Indubitablement très utile dans certains domaines, elle est dangereuse dans d’autres, spécialement ceux pour qui est indispensable la caution du réel et des faits.
D’autre part, pour prendre l’exemple de mon propre domaine, celui de la littérature, l’IA ne peut produire que des pastiches ou des plagiats d’œuvres antérieures qu’elle a en mémoire, car elle ne regarde que vers le passé, le déjà connu, et non le nouveau, toujours non prédictible. Elle ne comprend pas ce qu’elle énonce, et de la pensée elle ignore la chair vivante, elle n’en montre que la réduction statistique, les os, le squelette, se contentant de généralités abstraites, finalement « passe-partout ». Les étudiants qui l’utilisent pour faire une dissertation présentent un texte sans exemples, qui pourtant sont l’essentiel et le plus personnel. Il y a bien sûr ses thuriféraires, tel Elon Musk : « Un nouveau monde ! Adieu les devoirs ! » Mais ce sont les nouveaux incultes.
Voir aussi : Cyber-Jésus.
Voici la réponse que le programme d'IA Perplexity AI a faite à une demande concernant cet article (communiquée par mon ami Michel Jas, que je remercie) :
commenter cet article …