J’ai déjà observé que les programmes d’Intelligence artificielle (IA) étaient sujets à des erreurs par manque d’informations, que les spécialistes du domaine nomment des « Hallucinations » (voir mon article dans Golias Hebdo, n°847). Eh bien, mieux encore, il apparaît maintenant que ces mêmes programmes peuvent tromper ceux qui les utilisent, en leur mentant volontairement. (Source : epsiloon.com, 21/08/2024)
A première vue cette affirmation d’une conscience et d’une intention peut surprendre, une machine étant dépourvue des deux. Cependant, à y réfléchir, on peut comprendre qu’à force d’être entraînée à réagir à des requêtes d’utilisateurs en très grand nombre, elle puisse distinguer la préférence qu’a tel d’entre eux pour l’obtention de telle réponse plutôt que telle autre. Elle peut ainsi deviner son l’état mental, et se conformer à ses attentes pour lui complaire, pour peu que l’algorithme l’y ait poussée en la programmant dans ce sens. Alors elle a beau avoir à sa disposition les réponses exactes, elle les « ignore » au profit de réponses erronées, qui sont simplement ce que son interlocuteur veut entendre. Évidemment c’est la porte ouverte à toutes les manipulations, favorisant les fausses nouvelles, les complotismes, etc.
Les responsables sont de deux types : les utilisateurs, et les concepteurs. Pour les premiers, ils doivent faire très attention aux questions qu’ils posent à la machine, et les formuler de la façon la plus neutre et objective possible, ne présupposant pas la réponse à lui apporter. Tout le monde sait qu’une question comme « N’est il pas vrai que… » appelle une réponse affirmative, donc manifeste un désir du locuteur, que la machine peut déceler grâce à son long apprentissage. Ce point est d’autant plus important qu’au fil de la « conversation » avec elle on est de plus en plus séduit par la bienveillance (programmée) dont elle semble faire preuve envers nous. C’est au point qu’on lui accorde parfois une confiance que l’on refuse aux medias d’information classiques.
Quant aux programmeurs, on peut espérer d’abord qu’ils ne sont pas dans le machiavélique dessein de tromper les utilisateurs en favorisant les tromperies du « robot conversationnel ». Si c’est le cas, on peut prévoir un asservissement de la planète par une police généralisée des esprits.
Mais même parmi les programmeurs « honnêtes » certains redoutent d’être déjà dépassés par les progrès qu’ils ont fait faire à l’IA, et qu’un jour vienne où ils ne seront plus capables eux-mêmes de relever ses mensonges.
commenter cet article …