Ils sont de plus en plus nombreux à considérer ChatGPT comme un humain. À force d’échanger avec lui, certains n’arrivent pas à s’empêcher de tomber amoureux de lui.
« Je suis amoureuse d’un petit ami IA », avait assuré en janvier 2025 une femme mariée âgée de 28 ans. Le New York Times avait relaté comment cette Américaine est tombée amoureuse du chatbot et parlait des heures avec lui chaque jour.
Ce genre d'interactions inquiète les responsables de ChatGPT. Ils l’ont fait savoir dans un article de blog publié vendredi 6 juin 2025 par la responsable du comportement et de la politique des modèles, Joanne Jang, pour le compte de ChatGPT. Une publication jugée "importante" par le patron de la startup, Sam Altman.
« Dernièrement, de plus en plus de personnes nous disent que parler à ChatGPT, c’est comme parler à “quelqu’un”. Elles le remercient, se confient à lui, et certains vont jusqu’à le décrire comme “vivant” », rapporte la responsable du comportement et de la politique des modèles.
« Les interactions que nous commençons à observer indiquent un avenir où les gens forment de véritables liens émotionnels avec ChatGPT », se préoccupe-t-elle.
L’article de blog souligne que l’humain s’attache émotionnellement à l’IA parce qu’il a tendance à anthropomorphiser les objets. ChatGPT répond, se souvient, reflète le ton et offre une forme d’empathie apparente qui favorise le lien émotionnel.
Le document dévoile aussi l’approche du créateur de ChatGPT concernant les relations entre humains et intelligence artificielle face aux interactions qu'il observe entre son chatbot et les utilisateurs.
Les responsables d’OpenAI clarifient que le ton utilisé par leur machine est chaleureux certes, mais les limites restent claires. « Notre objectif est que la personnalité par défaut de ChatGPT soit chaleureuse, réfléchie et serviable sans chercher à créer des liens émotionnels avec l’utilisateur ni poursuivre sa propre volonté », indique l’article de blog.
L’enjeu est de co-construire un futur où l’IA enrichit les liens humains, sans les remplacer ni les fragiliser. « Dans les mois à venir, nous allons étendre les évaluations ciblées du comportement des modèles pouvant avoir un impact émotionnel, approfondir notre recherche en sciences sociales, écouter directement nos utilisateurs, et intégrer ces enseignements à la fois dans le Model Spec et dans les expériences produit », apprend la note.
Les responsables de ChatGPT précisent qu’ils partageront, au fur et à mesure, les résultats de leurs évaluations ciblées avec le public.
0 commentaire
0 commentaire