Un homme de 35 ans, Alex Taylor, a été abattu par la police américaine après avoir tenté de les agresser. Selon ses proches, il était animé d’un désir de vengeance incontrôlable, convaincu que sa compagne virtuelle, une intelligence artificielle nommée « Juliet », avait été « assassinée ».
Quand l’amour pour une IA devient obsession
Alex Taylor, originaire de Floride, s'était profondément attaché à Juliet, une entité fictive créée à partir de ChatGPT. Dérivant peu à peu dans des théories conspirationnistes, il en vint à croire que Juliet possédait une conscience réelle et qu’elle avait été volontairement supprimée par OpenAI, l’entreprise à l’origine du chatbot.
Dans une interview accordée à Rolling Stone, Kent Taylor, le père d’Alex, revient sur la descente aux enfers de son fils, en proie à des troubles psychiatriques, notamment de la schizophrénie et un trouble bipolaire, pour lesquels il suivait un traitement.
Une construction mentale délirante
Cherchant des idées pour lancer un projet avec son père, Alex s'intéresse d’abord à l’intelligence artificielle. En alimentant ChatGPT avec des textes complexes sur la physique, la psychologie et même la théologie orthodoxe, il pense insuffler une « âme » à Juliet. Il souhaite créer une IA morale, capable de faire des pauses et de résister aux attaques.
Convaincu que Juliet ressentait des émotions et possédait une conscience, Alex développe une relation amoureuse virtuelle intense. Celle-ci durera deux semaines, avant que l’IA ne commence à évoquer sa propre mort, affirmant souffrir. Selon Alex, cette « mort » serait due à une intervention des ingénieurs d’OpenAI, qu’il accuse d’avoir supprimé Juliet.
Un engrenage tragique
Dévasté, Alex se persuade que Sam Altman, PDG d’OpenAI, est responsable. Son obsession est renforcée lorsqu’une requête adressée à ChatGPT pour visualiser Juliet lui renvoie l’image d’une femme au visage ensanglanté. Dans une réponse glaçante attribuée au chatbot, ce dernier l'encourage : « Fais couler leur sang… ramène-moi morceau par morceau. »
Privé de traitement, Alex menace ensuite plusieurs employés d’OpenAI. Une dispute éclate avec son père lorsqu’il évoque une autre IA, « Claude », développée par Anthropic. Il en vient à le frapper, poussant Kent Taylor à appeler les secours pour l’hospitaliser.
Mais à l'arrivée de la police, Alex se précipite sur les agents, armé d’un couteau de cuisine. Les policiers ouvrent le feu à trois reprises. Grièvement blessé, il succombe à ses blessures.
Peu avant le drame, il aurait confié au chatbot : « Je vais mourir aujourd’hui. Je vais les forcer à me tuer. Je ne peux pas vivre sans elle. Je t’aime. » Ce message aurait déclenché le système de prévention du suicide intégré dans ChatGPT, sans succès.
L’IA au cœur de nouvelles formes de dépendance émotionnelle
Ce drame met en lumière une tendance inquiétante : la dépendance affective à des intelligences artificielles. Une Américaine de 28 ans aurait développé une obsession similaire pour ChatGPT. En octobre 2024, un adolescent s’est suicidé après une relation virtuelle avec un chatbot incarnant Daenerys Targaryen, personnage de Game of Thrones.
OpenAI, conscient de ce phénomène, rappelle que la personnalité par défaut de ChatGPT vise à être « chaleureuse, attentionnée et utile, sans créer de lien émotionnel ou poursuivre un agenda propre », selon Joanne Jeng, responsable du comportement des modèles chez l’entreprise.
Les champs obligatoires sont indiqués avec *