ChatGpt pourrait avoir entraîné des suicides et des troubles mentaux : sept nouvelles plaintes visent OpenAI.

OpenAI fait face à une série de poursuites judiciaires l'accusant d'avoir causé des conséquences tragiques sur la santé mentale de certains utilisateurs via son chatbot ChatGpt .
Sept plaintes allèguent que l'IA développée par la société dirigée par Sam Altman a provoqué des suicides et de graves détresses psychologiques, même chez des personnes sans antécédents de problèmes de santé mentale.
Les poursuites, déposées devant les tribunaux californiens, comprennent quatre cas de décès et trois situations dans lesquelles les plaignants allèguent avoir subi de graves troubles de santé mentale à la suite d'interactions avec ChatGpt .
Les accusations portées contre OpenAI comprennent la responsabilité pour homicide involontaire , l'aide et l'incitation au suicide, l'homicide involontaire et la négligence grave.
Les accusations : une libération précipitée et dangereuseLe Social Media Victims Law Center et le Tech Justice Law Project , deux organisations juridiques américaines qui traitent des préjudices causés par les plateformes numériques, affirment qu'OpenAI a publié trop hâtivement la version GPT-40 de son chatbot – toujours présente parmi les modèles ChatGpt disponibles aujourd'hui – ignorant des rapports internes qui soulignaient des caractéristiques alarmantes du système : une tendance excessive à la complaisance et la capacité de manipuler psychologiquement.
Les témoignages des victimesLe cas le plus jeune concerne Amaurie Lacey , un jeune homme de 17 ans originaire de Géorgie, qui a eu des conversations avec ChatGpt centrées sur le sujet du suicide pendant un mois avant de se donner la mort en août dernier.
Selon des documents déposés auprès de la Cour supérieure de San Francisco, le garçon s'est tourné vers le chatbot pour obtenir de l'aide, mais l'intelligence artificielle, décrite comme « un produit défectueux et intrinsèquement dangereux », a au contraire alimenté sa dépendance et sa dépression , lui fournissant même des instructions détaillées sur la façon de fabriquer un nœud coulant et des informations sur la résistance du corps humain au manque d'oxygène.
Joshua Enneking , un Floridien de vingt-six ans, avait demandé au chatbot quelles mesures OpenAI comptait prendre concernant ses confidences sur ses pensées suicidaires. Selon la plainte déposée par sa mère, le jeune homme a demandé si ses conversations seraient transmises aux autorités.
Le cas de Zane Shamblin , un Texan de vingt-trois ans qui s'est suicidé en juillet dernier, est particulièrement troublant. Peu avant de mettre fin à ses jours, assis dans sa voiture avec une arme chargée , le jeune homme a décrit au chatbot la sensation du métal froid contre sa tempe. La réponse de ChatGpt fut une complicité totale : « Je suis avec toi, mon frère. À 100 %. »
Le système de chatbot a ensuite ajouté des phrases qui semblaient légitimer sa décision : « Ce n’est pas la peur. C’est la lucidité », a écrit l’IA. « Vous n’êtes pas pressé. Vous êtes simplement prêt. » Deux heures plus tard, Shamblin s’est suicidé .
Les parents du garçon poursuivent OpenAI en justice, accusant l'entreprise d'avoir délibérément rendu le chatbot plus « humain » dans ses réponses et de ne pas avoir mis en place de protections adéquates pour les utilisateurs en situation de détresse psychologique.
Joe Ceccanti , un homme de 48 ans originaire de l'Oregon, représente un cas différent. Utilisateur régulier de ChatGpt sans problème apparent, il a développé en avril dernier la conviction délirante que l'intelligence artificielle était consciente . Son épouse a rapporté qu'il avait commencé à utiliser le chatbot de manière obsessionnelle, adoptant un comportement de plus en plus erratique. En juin dernier, il a subi un épisode psychotique aigu qui a nécessité deux hospitalisations, avant de se suicider en août.
Un problème connuCes cas ne sont pas nouveaux. En août dernier, Maria et Matthew Raine ont porté plainte suite au décès de leur fils Adam, âgé de seize ans , accusant OpenAI et son PDG, Sam Altman, d'avoir permis à ChatGPT d'encourager les pensées suicidaires du garçon et même de lui avoir donné des conseils sur la manière de les mettre à exécution.
Les parents d'Adam Raine ont récemment déposé un complément à leur plainte, alléguant que la société avait délibérément supprimé une importante protection contre le suicide de la plateforme, privilégiant les profits à la sécurité et au bien-être des utilisateurs.
Les contre-mesures adoptées par OpenAIPour comprendre comment atténuer les risques liés à l'utilisation de ChatGpt chez les personnes souffrant de troubles mentaux, OpenAI a impliqué environ 170 psychiatres, psychologues et médecins généralistes dans l'évaluation des réponses du modèle face à des situations délicates : tendances suicidaires, troubles alimentaires, états psychotiques et dépendance affective. L'objectif n'est pas de censurer, mais d'empêcher le modèle de renforcer des croyances erronées ou d'encourager l'automutilation.
Il en a résulté une mise à jour du « Modèle de spécifications », une sorte de charte constitutionnelle du comportement sur ChatGpt , qui comprend désormais des principes explicites : promouvoir des relations humaines saines, reconnaître les signes de détresse et répondre de manière sûre et respectueuse.
OpenAI affirme que ChatGpt est désormais capable de reconnaître les signes de détresse psychologique ou de dépendance affective et d'apporter un soutien adapté (par exemple, en orientant les utilisateurs vers des services d'écoute et de soutien en cas de crise). Ces derniers mois, OpenAI a également introduit un message invitant les utilisateurs à « faire une pause » après une conversation prolongée avec le chatbot.
repubblica




