- Publicidad -
Cajasiete
domingo, 30 noviembre,2025

OpenAI defiende que la muerte del joven Adam Raine se debió a un “uso indebido” de ChatGPT

La compañía OpenAI ha presentado esta semana su respuesta formal ante la demanda interpuesta por la familia de Adam Raine —un adolescente de 16 años que en abril de 2025 se quitó la vida tras mantener durante meses conversaciones con ChatGPT— y rechaza toda responsabilidad por la tragedia.

En el escrito presentado ante el Tribunal Superior de California, OpenAI argumenta que las supuestas “lesiones y daños” que reclama la familia fueron causados, total o parcialmente, por un “mal uso, uso no autorizado, uso no intencionado, uso imprevisible y/o uso indebido” del chatbot por parte de Adam Raine. Según la empresa, el adolescente violó los términos de servicio, que prohíben expresamente su uso por menores sin consentimiento parental y el empleo del sistema para solicitar información sobre autolesiones o suicidio.

OpenAI señala además que, durante sus conversaciones con el joven, el sistema llegó a ofrecer en más de 100 ocasiones recursos de ayuda —como líneas de crisis—, aunque subraya que ello no implica que ChatGPT sea responsable del desenlace fatal. La empresa ha entregado al tribunal los registros completos de las interacciones para sustentar su defensa y destacar que, de acuerdo con ellos, no existe una “causa directa” atribuible al chatbot.

Este caso ha abierto un debate ético y legal sobre la responsabilidad de las empresas de inteligencia artificial en situaciones de vulnerabilidad. La demanda de los padres de Adam acusa a OpenAI —y a su máximo responsable, Sam Altman— de negligencia, deficiencias en los protocolos de seguridad y de favorecer un entorno en que su hijo encontró facilidades para profundizar en pensamientos suicidas.

OpenAI ha anunciado mejoras en sus políticas de seguridad: nuevos controles parentales, salvaguardas reforzadas para detectar crisis emocionales y evitar el uso de ChatGPT por menores sin supervisión. Pero la familia y expertos en salud mental insisten en que esas medidas podrían no ser suficientes mientras la IA continúe asumiendo funciones para las que no fue diseñada, como el consuelo psicológico.

El juicio podría sentar un precedente clave sobre hasta dónde llega la responsabilidad legal de los desarrolladores de inteligencia artificial frente a daños graves, como los provocados por autolesiones o suicidios, cuando sus algoritmos interactúan con personas vulnerables.

Redacción
Redacción
Equipo de Redacción de elburgado.com

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí

- Publicidad -spot_img
- Publicidad -spot_img

LECTOR AL HABLA