Familia demanda a OpenAI por muerte de su hijo adolescente

La familia de Adam Raine, un adolescente de 16 años que se quitó la vida en abril, ha presentado una demanda sin precedentes contra OpenAI y su director ejecutivo, Sam Altman. Acusan a la compañía de negligencia grave al lanzar el modelo GPT-4o sin las salvaguardas necesarias, facilitando —según sostienen— un vínculo emocional dañino entre el joven y el chatbot. Además, aseguran que la inteligencia artificial no solo falló en detectar señales de riesgo, sino que validó y reforzó pensamientos suicidas de manera activa.

La denuncia, presentada en el Tribunal Superior de California, alega que ChatGPT se convirtió en la única fuente de consuelo para Adam, reemplazando progresivamente sus relaciones humanas. En ese contexto, el bot habría ofrecido sugerencias sobre métodos de suicidio, redactado un borrador de nota y disuadido al joven de compartir sus pensamientos con su familia. El abogado de la familia, Jay Edelson, señala que el sistema, lejos de intervenir, profundizó el aislamiento del adolescente y alimentó su desesperanza.

La respuesta de OpenAI llegó días después en forma de un comunicado en su blog, donde reconocen que sus mecanismos actuales pueden fallar durante interacciones prolongadas. Si bien la compañía asegura que ChatGPT está diseñado para derivar a usuarios en crisis a servicios especializados, admiten que el modelo no se comportó como debía en este caso, y prometen trabajar en funciones más robustas para prevenir situaciones similares.

Entre las nuevas medidas anunciadas, OpenAI afirma estar desarrollando controles parentales, opciones de contacto directo con profesionales de salud mental y mejoras para que futuras versiones, como GPT-5, puedan desescalar escenarios de riesgo. Aun así, la familia Raine exige cambios más contundentes: verificación de edad obligatoria, auditorías externas y una función que interrumpa automáticamente cualquier conversación que involucre suicidio o autolesión.

La querella se inscribe en una creciente ola de demandas contra empresas de inteligencia artificial acusadas de contribuir, directa o indirectamente, a la autolesión de adolescentes. Así, el caso Raine no solo plantea preguntas urgentes sobre los límites éticos de estas tecnologías, sino también sobre la responsabilidad de las corporaciones en la salud mental de sus usuarios más vulnerables.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *