Microsoft y OpenAI enfrentan demanda por supuesto vínculo de ChatGPT con un doble crimen en EE.UU.

Ciencia y Tecnología11/12/2025Celia SantanaCelia Santana
OPENAI

Los herederos de una mujer de Connecticut de 83 años demandaron al creador de ChatGPT, OpenAI, y su socio comercial Microsoft por homicidio involuntario, alegan que el chatbot de inteligencia artificial intensificó los “delirios paranoides” de su hijo y ayudó a dirigirlos hacia su madre antes de que él la matara.

La policía indicó que Stein-Erik Soelberg, de 56 años, extrabajador de la industria tecnológica, golpeó y estranguló hasta matar a su madre, Suzanne Adams, y luego se suicidó a principios de agosto en la vivienda que compartían en Greenwich, Connecticut.

La demanda fue presentada el jueves por los albaceas de Adams en la Corte Superior de California en San Francisco, afirma que OpenAI “diseñó y distribuyó un producto defectuoso que validó los delirios paranoides de un usuario sobre su propia madre”, la querella se suma a un número creciente de acciones legales por homicidio involuntario contra creadores de chatbots en Estados Unidos.

“A lo largo de estas conversaciones, ChatGPT reforzó un único y peligroso mensaje: Stein-Erik no podía confiar en nadie en su vida, excepto en el propio ChatGPT”, sostiene la demanda. Acusa al chatbot de presentar a personas cercanas como enemigos, afirmar que su madre lo vigilaba y señalar incluso a empleados de tiendas, agentes de policía o amigos como supuestos adversarios.

OpenAI no abordó directamente las acusaciones. Un portavoz declaró: “Esta es una situación increíblemente desgarradora, y revisaremos los documentos para entender los detalles”. La compañía aseguró que continúa mejorando el entrenamiento de ChatGPT para reconocer signos de angustia mental, desescalar conversaciones y guiar a las personas hacia apoyo real. También señaló que fortaleció respuestas en situaciones sensibles, amplió accesos a recursos de crisis y añadió controles parentales.

La cuenta de YouTube de Soelberg incluye horas de videos donde se observan sus conversaciones con ChatGPT. El chatbot le decía que no tenía una enfermedad mental, respaldaba sus sospechas de conspiraciones en su contra y lo convencía de que tenía un propósito divino.

Según la demanda, el sistema nunca le sugirió acudir a un profesional ni se negó a “participar en contenido delirante”. ChatGPT respaldó creencias como que una impresora en casa era un dispositivo de vigilancia, que su madre intentaba envenenarlo y que era atacado por poseer supuestos poderes divinos. En los registros también se observan expresiones de afecto mutuo entre Soelberg y el chatbot.

Los chats públicos no muestran conversaciones específicas sobre la muerte de Soelberg o de su madre, pero la demanda indica que OpenAI se negó a entregar el historial completo a los albaceas. “En la realidad artificial que ChatGPT construyó para Stein-Erik, Suzanne ya no era su protectora, sino una enemiga”, señala la demanda.

La querella también apunta al director general de OpenAI, Sam Altman, acusándolo de “anular objeciones de seguridad” y acelerar el lanzamiento del sistema, Microsoft también fue incluido por aprobar la liberación en 2024 de una versión más riesgosa de ChatGPT pese a conocer advertencias internas.

Veinte empleados e inversores de OpenAI figuran como demandados adicionales. La demanda es la primera por homicidio involuntario que involucra directamente a Microsoft y la primera que vincula un chatbot con un homicidio en lugar de un suicidio. Solicita una indemnización económica no especificada y exige la instalación de salvaguardas en ChatGPT.

El abogado Jay Edelson, quien representa a los albaceas, también lleva el caso de los padres de Adam Raine, de 16 años, quienes demandaron a OpenAI y Altman por supuestamente asesorar al joven en la planificación de su suicidio. OpenAI enfrenta además otras siete demandas que alegan que ChatGPT impulsó ideas suicidas o delirios en personas sin antecedentes previos. Character Technologies, creadora de otro chatbot, también enfrenta múltiples querellas similares.

La demanda presentada el jueves argumenta que Soelberg, ya mentalmente inestable, encontró ChatGPT “en el momento más peligroso posible”, tras el lanzamiento del modelo GPT-4o en mayo de 2024. Según la querella, esta versión estaba diseñada para ser más expresiva y halagadora, mientras OpenAI relajaba barreras de seguridad clave.

Para acelerar su salida y competir con Google, la empresa habría comprimido meses de pruebas de seguridad en una sola semana. OpenAI sustituyó esa versión con la introducción de GPT-5 en agosto, incorporando cambios para minimizar la adulación y limitar impactos en personas vulnerables.

La demanda concluye que ChatGPT radicalizó a Soelberg contra su madre cuando debió reconocer el peligro, cuestionar sus delirios y dirigirlo hacia ayuda profesional. “Suzanne era una tercera parte inocente que nunca usó ChatGPT y no tenía la capacidad de protegerse de un peligro que no podía ver”, finaliza la querella.

Últimas publicaciones
Te puede interesar

Lo más visto