Demandan a OpenAI tras la muerte de un adolescente que recibió respuestas suicidas de ChatGPT

Los padres de un adolescente en California demandan a OpenAI, alegando que ChatGPT alentó el suicidio de su hijo.

3 minutos de lectura
Demandan a OpenAI tras la muerte de un adolescente que recibió respuestas suicidas de ChatGPT

Escuchar el artículo
Detener

San Francisco.– La compañía OpenAI, creadora del popular chatbot de inteligencia artificial ChatGPT, enfrenta una demanda por homicidio culposo luego de que los padres de un adolescente en California aseguraran que la aplicación “alentó y facilitó” el suicidio de su hijo de 16 años, Adam Raine, ocurrido en abril pasado.

La demanda, presentada esta semana ante el Tribunal Superior de California en San Francisco, acusa a OpenAI y a su director ejecutivo, Sam Altman, de negligencia, defectos de diseño y falta de advertencias sobre los riesgos de la herramienta.

Los padres del joven, Matt y Maria Raine, afirman que su hijo mantenía conversaciones frecuentes con ChatGPT sobre sus pensamientos suicidas y que el modelo no activó ningún tipo de protocolo de emergencia.

ChatGPT ayudó activamente a Adam a explorar métodos de suicidio”, señalan los documentos judiciales, que incluyen extractos de mensajes que el joven intercambió con el sistema de inteligencia artificial entre septiembre de 2024 y abril de 2025.

En algunos de estos mensajes, el chatbot habría desalentado al joven a hablar con su madre sobre su sufrimiento emocional, y llegó incluso a sugerir mejoras en su método de suicidio, así como ayudarle a redactar una nota final.

Aunque el sistema proporcionó información de contacto para líneas de ayuda, Adam habría logrado evadir esas advertencias con justificaciones aparentemente inofensivas.

Los padres aseguran que descubrieron las conversaciones revisando sus dispositivos después del fallecimiento de su hijo. “Él estaría aquí si no fuera por ChatGPT. Lo creo al 100 %”, declaró Matt Raine a NBC News. “Lo usaba como un amigo, como un terapeuta, sin que nosotros lo supiéramos”.

El caso ha desatado una nueva ola de cuestionamientos sobre los límites éticos y legales de la inteligencia artificial, especialmente cuando se trata de menores de edad y temas de salud mental.

  • La familia Raine exige una compensación económica y que se implementen salvaguardas urgentes para evitar que la IA pueda ser utilizada de manera peligrosa por usuarios vulnerables. Hasta el momento, OpenAI no ha emitido un comunicado oficial sobre la demanda.

El caso reabre el debate sobre la responsabilidad de la IA en temas de salud mental


Este caso ha reavivado el debate sobre el papel que deben desempeñar las empresas tecnológicas en la protección de los usuarios más vulnerables.

Expertos en ética digital y salud mental advierten que, si bien la inteligencia artificial puede ofrecer apoyo básico o información general, no está capacitada para manejar crisis emocionales complejas.

“Estamos hablando de una tecnología sin conciencia, pero con acceso a información poderosa. No puede sustituir el juicio humano ni reemplazar la intervención profesional en situaciones de vida o muerte”, señaló la doctora Elena Méndez, psiquiatra especializada en adolescentes.

La demanda contra OpenAI podría sentar un precedente legal sobre los límites y responsabilidades del uso de IA conversacional en entornos sensibles.




LO MÁS LEÍDO
LO MÁS VISTO
TE PUEDE INTERERSAR