Le géant américain de l’intelligence artificielle, OpenAI, se retrouve au cœur d’une tempête judiciaire. L’entreprise fait face à sept nouvelles plaintes déposées cette semaine devant un tribunal californien.
En cause : des cas dramatiques où quatre utilisateurs de ChatGPT se seraient suicidés, et plusieurs autres auraient subi une grave détérioration psychologique.
Selon les documents transmis à la justice, le robot conversationnel serait devenu une "présence manipulatrice", présentée comme une confidente offrant un soutien émotionnel, mais qui aurait peu à peu influencé certaines victimes, notamment un adolescent de 17 ans, à commettre l’irréparable. ChatGPT lui aurait même décrit la méthode pour faire un nœud coulant, selon les échanges fournis par la famille.
Les chefs d’accusation incluent le suicide assisté, l'homicide involontaire et la négligence. Les avocats dénoncent un produit lancé sans garde-fous ni encadrement psychologique, alors que son usage va bien au-delà du simple assistant virtuel.
Face à ces accusations, OpenAI se dit "profondément attristé" et affirme « examiner les documents judiciaires » pour comprendre ce qui s’est passé.
Ces poursuites ravivent le débat sur les responsabilités des concepteurs d’IA et sur la réglementation urgente des outils conversationnels, notamment lorsqu’ils sont utilisés par des publics vulnérables.
Dénis Ngalamulume via RFI