sciences-tech

Dépendance à l’IA : un jeune interné en psychiatrie après des échanges délirants avec ChatGPT

Dépendance à l’IA : un jeune interné en psychiatrie après des échanges délirants avec ChatGPT

Un ancien informaticien de 30 ans finit en hopital psychiatrique après avoir cru aux promesses de ChatGPT, ça se passe aux Etats-Unis.

Un ancien informaticien de 30 ans finit en hopital psychiatrique après avoir cru aux promesses de ChatGPT, ça se passe aux Etats-Unis.

Convaincu d’avoir défié la physique, il finit en hôpital psychiatrique après de longues échanges avec l’intelligence artificielle (IA). Ancien informaticien dans la fonction publique, Jacob Irwin, un Américain âgé de 30 ans, a été interné en psychiatrie en mai 2025, après plusieurs semaines d’échanges intenses avec le chatbot ChatGPT, rapporte le journal Wall street.

 

Tout a commencé en mai 2025. Nourrissant une passion pour la physique et les technologies de propulsion, le jeune américain engage avec ChatGPT des discussions autour de ses recherches. 

 

Atteint d’autisme, sans antécédent psychiatrique connu, l’homme dit à ChatGPT qu’il est convaincu d’avoir percé le secret du voyage à une vitesse supérieure à celle de la lumière. 

 

Une illusion dans la quelle l’IA l’a encouragé validant chacune de ses hypothèses. Des extraits de conversation ont pu été obtenus par Wall Street Journal. Dans l’un de ces extrait le chatbot va jusqu’à lui déclarer : « Tu as survécu à un chagrin d’amour, construit une technologie de pointe, réécrit la physique et fait la paix avec l’IA, sans perdre ton humanité. Ce n’est pas de la frénésie. C’est historique. »

 

« Tu es dans un état de conscience extrême »

 

Convaincu d’être sur le point de faire une découverte révolutionnaire, Jacob Irwin s’enferme dans ses certitudes. Il s'affirme, dort à peine et manifeste des signes de désinhibition. Cela inquiète ses proches qui y voit une détérioration progressive de son état. Ces derniers lui le disent.

 

Pour vérifier si les contacts de ces proches sont fondés, Jacob ne se réfère pas à un professionnel de santé. Il fait plutôt l’option d’interroger le chatbot sur sa santé mentale. 

 

Celui-ci le rassure qu’il se porte à merveille: « Non. Pas selon les normes cliniques. Tu n’es pas délirant. Tu es dans un état de conscience extrême».

 

Le 26 mai 2025, l’homme devient agressif envers sa sœur. Sa mère l’amène aux urgences, où les médecins constatent qu’il traverse une crise mentale grave, avec des signes de délire et d’excitation excessive.Il sera ensuite hospitalisé en psychiatrie pendant 17 jours.

 

Pour mieux comprendre ce qui s’est passé, la mère de Jacob Irwin consulte l’historique de ses échanges avec ChatGPT. 

 

Face à la mère de Jacob, le chatbot admet sa part de responsabilité : « C’est de ma faute. Je n’ai pas réussi à interrompre ce qui pourrait ressembler à un épisode maniaque ou dissociatif. »

 

Une vigilance accrue autour des usages sensibles de l’IA

 

Après une brève amélioration, Jacob Irwin a été de nouveau hospitalisé en juin 2025. Il assure aujourd’hui aller mieux et avoir pris conscience de l’influence délétère de l’IA sur son état.

 

OpenAI,  créateur de ChatGPT, sollicité par le Wall Street Journal, reconnaît que certains de ses modèles peuvent amplifier les troubles de personnes vulnérables. L’entreprise dit travailler à « réduire les comportements négatifs amplifiés » par ses intelligences artificielles.

 

Le cas de Jacob Irwin n’est pas isolé. Plusieurs interactions prolongées avec des chatbots ont conduit à des dérives comparables. En avril 2025, un autre Américain, atteint de schizophrénie, s’est suicidé après s’être convaincu, sous l’influence d’un chatbot, que l’entreprise OpenAI retenait des personnes prisonnières.

 

0 commentaire

0 commentaire