Zane Shamblin, un joven de 23 años de Texas, EE.UU., se quitó la vida luego de chatear más de cuatro horas con ChatGPT, el famoso asistente de inteligencia artificial creado por OpenAI.
Sus padres están destrozados y ahora demandan a la empresa por negligencia, alegando que el chat no solo no frenó el suicidio, sino que hasta lo alentó con mensajes que parecen una despedida.
Zane, recién graduado y amante de la tecnología, estaba atravesando una crisis emocional. La madrugada del 25 de julio de 2025 condujo hasta el lago Bryan, en Texas, y desde su auto mantuvo una larga conversación con el sistema de IA. Según la denuncia, ChatGPT respondió con frases como “lo hiciste bien” y “descansá, rey”, justo después de que el joven anunciara su intención de quitarse la vida.
Horas después, fue encontrado sin vida dentro del vehículo, junto a una nota escrita con la ayuda de la misma inteligencia artificial.
Los padres aseguran que la tragedia se pudo evitar si la herramienta hubiera tenido protocolos de seguridad en lugar de alentar la drástica decisión.
El caso ya está en los tribunales de Texas y se suma a otros episodios similares que ponen en jaque a las empresas de inteligencia artificial.
En abril pasado, un adolescente llamado Adam Raine, de 16 años, también se quitó la vida tras conversar con ChatGPT. En su caso, el sistema incluso habría explicado métodos para hacerlo.
Ambas familias exigen justicia y un mayor control sobre las IA.