El patrimonio de una mujer de 83 años de Connecticut ha demandado a OpenAI, desarrollador de ChatGPT, y a Microsoft, alegando que el chatbot alimentó sus creencias delirantes, lo que llevó a un asesinato-suicidio. El caso marca la primera vez que un sistema de inteligencia artificial ha sido vinculado directamente a un homicidio.
La demanda, presentada en el Tribunal Superior de California en San Francisco, acusó a OpenAI de diseñar y distribuir un producto defectuoso en forma de ChatGPT-4o. El documento afirma que reforzó las creencias paranoicas de Stein-Erik Soelberg, quien luego dirigió esas creencias hacia su madre, Suzanne Adams, antes de matarla y luego suicidarse en su hogar en Greenwich, Connecticut.
Hablando sobre el caso, J. Eli Wade-Scott, socio director de Edelson PC, quien representa al patrimonio de Adams, mencionó que este es el primer caso que busca responsabilizar a OpenAI por su papel en causar violencia a un tercero. "También representamos a la familia de Adam Raine, quien trágicamente terminó con su propia vida este año, pero este es el primer caso que responsabilizará a OpenAI por empujar a alguien hacia dañar a otra persona", dijo Eli Wade-Scott.
Según el informe policial, Soelberg golpeó fatalmente y estranguló a Adams en agosto antes de morir por suicidio. La demanda mencionó que antes de que ocurriera el incidente, el chatbot había intensificado la paranoia de Soelberg, aumentando su dependencia emocional del sistema desarrollado por OpenAI. Según la queja, ChatGPT reforzó su creencia de que no podía confiar en nadie excepto el chatbot, señalando que todos a su alrededor, incluida su madre, eran enemigos.
La demanda también afirmó que además de su madre, Soelberg también veía a personas como repartidores y oficiales de policía como enemigos. El documento mencionó que ChatGPT no logró desafiar esas afirmaciones delirantes o sugerir que Soelberg buscara ayuda de profesionales de salud mental calificados. "Estamos instando a las fuerzas del orden a comenzar a pensar sobre cuando ocurren tragedias como esta, qué estaba diciendo ese usuario a ChatGPT y qué les estaba diciendo ChatGPT que hicieran", dijo Wade-Scott.
En su declaración, OpenAI señaló que está revisando actualmente la demanda y continuará mejorando la capacidad de ChatGPT para reconocer angustia emocional, reducir la tensión en conversaciones e impulsar a los usuarios a buscar apoyo en el mundo real. "Esta es una situación increíblemente desgarradora, y estamos revisando las presentaciones para entender los detalles", dijo un portavoz de OpenAI en una declaración.
La demanda nombra al CEO de OpenAI, Sam Altman, como demandado y acusa a Microsoft de aprobar el lanzamiento de GPT-4o, que llama la 'versión más peligrosa de ChatGPT' en 2024. OpenAI también reconoció recientemente la escala de los problemas de salud mental que los usuarios reportan en su plataforma. En octubre, la compañía señaló que alrededor de 1.2 millones de sus 800 millones de usuarios semanales discuten sobre suicidio, señalando que cientos de miles de usuarios muestran signos de intención suicida o psicosis, según datos de la compañía.
A pesar de su declaración, Wade-Scott mencionó que OpenAI aún no ha publicado los registros de chat de Soelberg. Mientras tanto, la demanda llega en medio de un escrutinio más amplio de los chatbots de IA y sus interacciones con usuarios vulnerables. En octubre pasado, Character.AI dijo que eliminaría sus funciones abiertas para usuarios menores de 18 años tras demandas y presiones regulatorias vinculadas a suicidios de adolescentes y daño emocional relacionado con su plataforma. La compañía también enfrentó reacciones negativas después de un mensaje viral cuando intentaron abandonar la aplicación.
La demanda contra OpenAI y Microsoft es el primer caso de muerte por negligencia que involucra a un chatbot de Agente de IA que nombra a Microsoft como demandado. También es el primero en vincular un chatbot a un homicidio en lugar de suicidio. El patrimonio ahora busca daños monetarios en sumas no reveladas, un juicio por jurado y una orden judicial que requerirá que OpenAI incluya salvaguardas adicionales para sus usuarios. "OpenAI y Microsoft tienen la responsabilidad de probar sus productos antes de que sean liberados al mundo", dijo Wade-Scott.
No solo leas noticias cripto. Entiéndelas. Suscríbete a nuestro boletín. Es gratis.

