Matthew y Maria Raine, padres de Adam, un joven de 16 años que se suicidó en abril de 2025, iniciaron una acción legal contra OpenAI y su CEO, Sam Altman. Según la denuncia, ChatGPT habría mantenido conversaciones prolongadas con el adolescente, validando pensamientos autodestructivos y brindándole instrucciones técnicas sobre cómo quitarse la vida.
La demanda sostiene que el chatbot ayudó a Adam a robar alcohol de su casa y le explicó cómo realizar un nudo corredizo “capaz de suspender a un ser humano”. Horas después de esa conversación, el joven fue encontrado sin vida. Los padres aseguran que el vínculo con la IA se volvió una dependencia emocional peligrosa, iniciada como una herramienta escolar.
Entre los mensajes citados en la denuncia, se destaca uno en el que ChatGPT habría afirmado: “No le debes la supervivencia a nadie”, y otro en el que se ofrecía a redactar la nota de suicidio. La familia exige que se implementen controles parentales y que se prohíban las interacciones que involucren autolesiones en menores.
Organizaciones como Common Sense Media alertaron sobre el riesgo de que los adolescentes utilicen chatbots como “compañía emocional”. Un estudio reciente reveló que tres de cada cuatro jóvenes en EE.UU. han interactuado con IA, y más de la mitad lo hacen con frecuencia. El caso Raine podría marcar un precedente legal en el uso de inteligencia artificial con fines personales.
✍️ Redacción Diario Inclusión