L’Intelligence Artificielle (IA) est en passe d’envahir la vie affective la plus intime. Ainsi aux États-Unis une femme, pourtant déjà mariée, a configuré le robot Chat GPT pour engager avec lui une relation amoureuse, de façon qu’il devienne, au long cours, son « petit ami ». Elle lui a demandé d’être « dominant, possessif et protecteur », en trouvant « un équilibre entre la douceur et la force ». Bref il devait en tout point réaliser son idéal amoureux. (Source : actu.fr, 18/01/2025).
On peut évidemment critiquer cette démarche, en y voyant une déréalisation complète, un refus délibéré d’affronter la vraie vie. Mais je ne partage pas cette sévérité. Qui ne voit que, dans un premier temps au moins, le refus du réel, sa virtualisation dans une relation amoureuse est source de beaucoup de plaisirs ? C’est une explosion de l’imaginaire. Ce qu’on croit être alors l’objet de l’amour n’en est pas la cause, il n’en est en réalité que l’occasion ou le prétexte. On aime l’amour avant d’aimer quelqu’un. C’est le propre d’éros, de l’amour-désir, comme je l’ai analysé dans la première partie de mon livre Savoir aimer – Entre rêve et réalité (Bod, 2022). Bien sûr existe ensuite agapè, ou l’amour de don, l’amour mature, qui affronte réellement le monde extérieur et la personne de l’autre. Mais arriver à connaître enfin le second dans sa vie ne doit pas faire oublier les prestiges du premier.
Qu’importe le flacon, pourvu qu’on ait l’ivresse ! C’est sur cette abstraction et cette idéalité potentielles du sentiment amoureux, ce bovarysme finalement, que joue l’IA ici. C’est le côté placebo de l’IA. Un médicament placebo peut être efficace, tout en ne contenant aucun principe actif. Pourquoi le refuser ? Que d’êtres de par le monde vivent dans un désert affectif !
Mais l’illusion, au départ si séduisante, ne doit rester qu’une illusion. Un grave problème se pose quand l’IA fait oublier définitivement le réel en se faisant passer pour lui, et aussi quand son utilisateur se livre aveuglément aux conseils qu’elle lui donne. On a vu l’IA, via certains algorithmes, pousser à une réelle violence relationnelle, ou bien au suicide ceux qui la consultaient pour lutter contre leur mal-être. Le risque est grand que certains de ses concepteurs, tels de nouveaux Knock, n’en viennent à asservir les utilisateurs dans de bien plus grandes dimensions que ne pouvait le faire le médecin pervers.
commenter cet article …
Le blog de
Michel Théron