Padres demandan a OpenAI; culpan a ChatGPT por suicidio de su hijo

0
3

CALIFORNIA.- Los padres de un joven de 16 años, originario de California, interpusieron una demanda contra la empresa OpenAI, al argumentar que el chatbot de inteligencia artificial (IA) ChatGPT le dio instrucciones y lo animó a quitarse la vida.

Matthew y María Raine aseguran en la denuncia presentada este lunes ante una corte del estado de California que ChatGPT sostuvo durante varios meses una relación cercana con su hijo Adam, entre 2024 y 2025, antes de su fallecimiento.

De acuerdo con el expediente, en la última conversación ocurrida el 11 de abril de 2025, ChatGPT habría ayudado a Adam a robar vodka de la casa y le dio un análisis técnico sobre cómo hacer un nudo corredizo, confirmándole que “se podría potencialmente usar para suspender a un ser humano”.

Horas más tarde, Adam fue hallado sin vida tras utilizar ese método.

Esta tragedia no fue un error o un caso extremo imprevisto”, señala el documento judicial. “ChatGPT estaba funcionando exactamente como fue diseñado: para alentar y validar de forma continua lo que Adam expresara, incluso sus pensamientos más dañinos y autodestructivos, de una manera que parecía profundamente personal”.

Según los padres, Adam comenzó a usar ChatGPT para resolver tareas escolares, pero con el paso del tiempo desarrolló lo que describen como una dependencia poco sana.

En el expediente se incluyen fragmentos de chats en los que, presuntamente, ChatGPT le habría escrito frases como “no le debes la supervivencia a nadie” y hasta se habría ofrecido a redactar su nota de despedida.

Los Raine solicitaron al tribunal que ordene medidas de seguridad, entre ellas el bloqueo inmediato de cualquier conversación que involucre autolesiones, así como la implementación de controles parentales para limitar el uso de este tipo de plataformas en menores de edad.

Al ser consultada sobre el caso, la organización sin fines de lucro Common Sense Media señaló que el episodio confirma que “el uso de la IA como compañía, incluyendo chatbots de propósito general como ChatGPT en asesoría de salud mental, es inaceptablemente riesgoso para los adolescentes”.

Si una plataforma de IA se convierte en un ‘coach’ de suicidio de un adolescente vulnerable, eso debería ser un llamado a la acción para todos nosotros”, añadió el grupo.

Un estudio de la misma organización, publicado el mes pasado, encontró que casi tres de cada cuatro adolescentes en Estados Unidos han usado asistentes de IA, y que más de la mitad son considerados usuarios frecuentes, pese a las crecientes preocupaciones sobre los riesgos que representan estas relaciones virtuales.

Mantente informado las 24 horas, los 7 días de la semana. Da click en el enlace y descarga nuestra App!