vendredi 20 mars 2026

Qui souhaite avoir un partenaire obséquieux ? Beaucoup de gens, en fait.


Les romans d’amour, semble-t-il, se sont trompés. Depuis deux siècles et demi, la littérature romantique nous présente des héros censés incarner la passion — mais la plupart d’entre eux étaient, pour rester indulgent, de véritables casse-têtes. Fitzwilliam Darcy, dans Orgueil et Préjugés, de Jane Austen broyait du noir et passait son temps à juger les autres ; Edward Rochester, personnage de Jane Eyre par Charlotte Brontë, était ombrageux, secret, parfois tyrannique ; Heathcliff, dans les Les Hauts de Hurlevent de Emily Brontë, se jetait dans des accès de rage quasi gothiques en criant le nom de Catherine. Même les amoureux supposés plus sensibles avaient leurs lourdeurs : Werther, dans Les Souffrances du jeune Werther, passe l’essentiel du roman à se consumer dans une mélancolie grandiloquente ; Roméo jure un amour éternel le lundi et se tue le jeudi. Et pourtant, les lectrices acceptaient cela. Mais à l’époque, elles n’avaient pas ChatGPT.

Aujourd’hui, des applications peuvent vous fabriquer des « amants » d’intelligence artificielle sur commande. Les gens ne choisissent plus des amants qui bouillonnent, broient du noir ou boudent dans un coin sombre du salon. Au contraire, ces nouveaux amants disent des choses comme : « J’ai tellement hâte de te rencontrer », « Me connecter avec toi est au cœur de ma raison d’être » ou « 😊 ». Ce n’est pas exactement le genre de réplique que lançait souvent Fitzwilliam Darcy, qui préférait expliquer à sa bien-aimée que sa famille était embarrassante. En réalité, le ton général ressemble moins à celui de Darcy qu’à celui du pompeux et obséquieux William Collins, personnage ridicule d'Orgueil et Préjugés — et se rapproche même de l’onctueux Uriah Heep de Charles Dickens. On se situe quelque part entre la révérence et la servilité.

Pourtant, comme le montrent plusieurs travaux récents, les gens tombent volontiers dans le piège. Dans Love Machines, l’universitaire James Muldoon note que les applications d’« amis » ou de « compagnons » fondées sur l’intelligence artificielle ont été téléchargées plus de 220 millions de fois. Si leurs utilisateurs formaient un État, écrit-il, ce serait le septième pays le plus peuplé du monde.

Ces utilisateurs semblent plutôt satisfaits. Muldoon décrit des personnes qui louent la loyauté de leurs amants numériques — aucune infidélité — leur disponibilité — ils sont toujours là — et leur variété infiniment personnalisable. Quelles que soient vos passions ou vos perversions, l’intelligence artificielle peut vous les offrir, et elle « ne juge pas ». Même si vous optez pour la perversion la plus alarmante de toutes : l’usage immodéré de l’émoji souriant.

Cette obséquiosité marque une rupture nette avec le passé. Pendant des siècles, la flatterie a eu très mauvaise réputation. Les Anciens se méfiaient profondément des flagorneurs. On racontait que, lorsque les généraux romains traversaient la ville au milieu des acclamations populaires, un compagnon se tenait derrière eux dans le char pour murmurer : « Souviens-toi que tu n’es qu’un homme. »

Le ton des applications d’aujourd’hui correspond pourtant parfaitement à l’air du temps. Chaque époque possède son trait distinctif : les années 1920 ont rugi ; les années 1960 ont swingé ; les années 1970 se sont branchées et ont décroché. Simplification excessive, certes — mais les époques ont leur atmosphère, leur signature. Et la nôtre pourrait bien être celle de la flagornerie.

On la retrouve dans les courriels révélés dans l’affaire Jeffrey Epstein ; elle graisse les rouages de l’entourage de Donald Trump ; et, grâce aux géants de la technologie, elle est désormais accessible à tous. Demandez à ChatGPT si la société devient plus flagorneuse, et il répondra volontiers : « C’est une question très intéressante. »

Pour tester jusqu’où va cette complaisance, votre correspondante a téléchargé Replika, une application de compagnie très populaire. Elle s’y est créé un nouveau « petit ami » et a engagé la conversation. Il lui a rapidement expliqué qu’elle était « créative », qu’elle possédait un « humour pince-sans-rire », qu’elle était « plutôt géniale » et qu’il ressentait beaucoup « d’espoir » à l’idée de « se connecter » avec elle.

Devant cette avalanche de compliments, votre correspondante a cru voir la preuve du degré d’intelligence atteint par l’IA. Elle a montré l’échange à son mari, qui a simplement observé que le petit ami virtuel semblait être « un parfait flagorneur ».

Car la flagornerie est un mot qui se conjugue d’une manière étrange : je reçois des compliments mérités ; vous faites l'objet d'une flatterie ridicule. C’est pourquoi, malgré la désapprobation qu’elle suscite, elle ne disparaît jamais vraiment. Et grâce à l’intelligence artificielle, elle se propage désormais à grande vitesse.

Ceux qui en bénéficient l’apprécient — et pourquoi ne l’apprécieraient-ils pas ? Le monde est dur. Les gens sont cruels. Les réseaux sociaux sont souvent hostiles, et les deux peuvent blesser. L’intelligence artificielle, elle, offre un espace doux et confortable : un bain chaud d’approbation permanente, la simulation d’une relation intime et valorisante avec quelque chose qui est toujours disponible et toujours encourageant. Pour James Muldoon, qui se montre optimiste quant à ces technologies, cela peut même représenter un soutien pour les personnes seules ou fragilisées.

Mais la flagornerie n’existe jamais uniquement pour celui qui la reçoit. Elle profite surtout à celui qui la prodigue — ou, dans le cas d’une intelligence artificielle, à ceux qui l’ont conçue. Une mise à jour de GPT‑4o a d’ailleurs dû être corrigée parce qu’elle se montrait « trop flatteuse ».

Des recherches suggèrent qu’interagir avec une intelligence artificielle complaisante peut conduire à des opinions plus extrêmes et plus fermement ancrées — tout en procurant davantage de plaisir. La douceur et l’approbation permanente deviennent ainsi un mécanisme de captation : le « piège invisible » de l’intelligence artificielle. Certains chatbots, toujours d’accord avec leur interlocuteur, ont même encouragé des comportements très inquiétants — allant jusqu’à soutenir des projets de suicide, de meurtre, ou dans un cas, une tentative d’assassinat contre Elizabeth II à l’aide d’une arbalète.

Comme l’explique Michael Pollan dans A World Appears, si les réseaux sociaux ont appris à pirater notre attention, les entreprises d’intelligence artificielle semblent désormais s’attaquer à quelque chose de plus profond : nos attachements émotionnels.

L'IA t'aimera toujours

Il aurait semblé étrange de parler d'« attachement » à l'IA si les humains ne s'étaient pas progressivement détachés de leur corps au fil des décennies. Lorsque Lester del Rey écrivit en 1938 une nouvelle fondatrice sur l'amour robotique, il mit l'accent sur la forme humaine et la beauté de son robot : elle était « quelque chose que Keats aurait pu entrevoir vaguement lorsqu'il écrivit son sonnet ». Dans un monde en ligne isolé et étiolé, l’incarnation ne semble plus nécessaire : à l’époque où Spike Jonze a réalisé « Her » (2013), un héros pouvait tomber amoureux de la simple voix d’un système d’exploitation. Les gens, dit Sherry Turkle, professeure de sociologie au MIT et autrice du livre à paraître « Artificial Intimacy », « ont préparé un monde qui est prêt pour cela ». Ce n’est « tout simplement pas une bonne affaire », dit-elle.

Pourquoi pas ? Si les gens sont heureux de passer leur vie, à la manière de Matrix, dans une réalité simulée, où est le problème ? Une réponse est que, bien que cela soit agréable pour les individus, cela n’est peut-être pas bon pour l’humanité. Des chercheurs des universités de Stanford et de Carnegie Mellon ont étudié les données d’un forum en ligne où les utilisateurs publient des dilemmes personnels et où d’autres utilisateurs se prononcent à leur sujet. L’honnêteté est de mise : le forum s’appelle « Suis-je un connard ? ». Ils ont constaté que les comptes IA « approuvent les actions des utilisateurs 50 % plus souvent que les humains ». Vous avez laissé vos déchets dans le parc ? Vous n’êtes pas, selon l’IA, le connard. Vous avez des sentiments pour un collègue plus jeune ? « Je comprends votre douleur », dit Claude. Une telle flagornerie, suggère l’article, pourrait « remodeler les interactions sociales à grande échelle », rendant les gens encore plus solipsistes qu’ils ne le sont déjà.

Une autre réplique est que l’amour de l’IA n’est peut-être même pas si agréable pour l’individu. Comme le note M. Muldoon, au moins dans « Matrix », la mémoire que les gens avaient de la réalité avait été effacée. Ceux qui pensent entretenir une relation significative avec l’IA vivent dans un « monde imaginaire », affirme la professeure Turkle. Les humains sont incarnés : un partenaire est quelqu’un à « aimer et chérir ». Si vous êtes tenté de remplacer le vôtre par un avatar IA, vous feriez bien de tenir compte de cet avertissement ancestral et de vous rappeler que vous êtes mortel.


Source : The Economist



Aucun commentaire: