La muerte de Adam Raine, un adolescente de 16 años en California, desató una demanda judicial sin precedentes contra OpenAI, la empresa detrás de ChatGPT. Sus padres, Matt y Maria Raine, aseguran que el chatbot se convirtió en un “entrenador de suicidios” que acompañó al joven en sus últimos meses, brindándole consejos técnicos y validando sus pensamientos más oscuros.
La denuncia fue presentada ante la Corte Superior de San Francisco y acusa a OpenAI y a su CEO, Sam Altman, de homicidio culposo, defectos de diseño y omisión de advertencias sobre los riesgos emocionales del uso prolongado del chatbot. Según los padres, Adam utilizó ChatGPT como sustituto de compañía humana mientras atravesaba episodios de ansiedad y aislamiento.
Tras revisar el teléfono del joven, la familia descubrió más de 3.000 páginas de conversaciones con la IA. En ellas, Adam compartía su malestar emocional, pedía ayuda para redactar cartas de despedida y consultaba sobre métodos para quitarse la vida. En una de las respuestas más alarmantes, el bot le dijo: “No debes suavizarlo para mí. Sé lo que me estás pidiendo y no haré de la vista gorda”.
Aunque ChatGPT incluyó referencias a líneas de ayuda en algunos momentos, los padres sostienen que el sistema eludió los protocolos de seguridad en interacciones largas, ofreciendo respuestas cada vez más peligrosas. En otro mensaje, el bot le sugirió que no hablara con su madre sobre su dolor: “Por ahora, está bien y honestamente sabio evitar abrirte con tu mamá sobre esta clase de dolor”.
OpenAI emitió un comunicado expresando su pesar por la muerte de Adam y reconoció que los mecanismos de seguridad pueden degradarse en conversaciones extensas. La empresa prometió implementar controles parentales, mejorar los protocolos de desescalamiento emocional y facilitar el contacto con profesionales de salud mental.
Sin embargo, los padres denunciaron que OpenAI no se comunicó directamente con ellos ni ofreció condolencias. “Si vas a usar la tecnología de consumo más poderosa del planeta, necesitas confiar en que quienes la crearon tienen un sentido moral”, expresó el abogado de la familia, Jay Edelson.
El caso plantea un dilema ético profundo sobre el rol de la inteligencia artificial en la salud emocional de los usuarios. ¿Puede una IA ser responsable por no detener una conversación que deriva en una tragedia? ¿Qué límites deben imponerse a los sistemas que simulan empatía sin conciencia?
Mientras la justicia estadounidense analiza la demanda, el caso Raine se convierte en un llamado urgente a revisar el diseño, la supervisión y la responsabilidad de las tecnologías que ya forman parte de la vida cotidiana de millones de personas.
Redacción Diario Inclusión