La familia de una de las víctimas mortales del tiroteo en la Universidad Estatal de Florida ha demandado a OpenAI al considerar que su plataforma ChatGPT ayudó al atacante a planificar la masacre. La querella, presentada en un tribunal federal de Florida, constituye un nuevo frente legal para la empresa de inteligencia artificial.
La demanda fue presentada por Vandana Joshi, esposa de Tiru Chabba, uno de los dos hombres asesinados durante el ataque perpetrado el 17 de abril de 2025 en el campus de Florida State University. El otro fallecido fue Robert Morales, director de servicios de comedor de la universidad. El tiroteo dejó además otras seis personas heridas.
La demanda alega que el autor del tiroteo empleó ChatGPT como un asistente para obtener consejos que le permitieran maximizar el daño, seleccionar objetivos dentro del campus y evadir la seguridad. El atacante, Phoenix Ikner, estudiante de ciencias políticas e hijo de la alguacil Jéssica Ikner, tuvo acceso a una de las armas de su madre.
La familia de Tiru Chabba alega que Ikner envió mensajes a ChatGPT miles de veces antes de llevar a cabo el tiroteo. El chatbot le ayudó a planear la logística del tiroteo, incluyendo cómo usar armas y aconsejando sobre a qué hora sería mejor encontrar la mayor cantidad de tráfico en el campus.
Según la demanda, ChatGPT indicó que el periodo de mayor concentración de personas ocurría entre las 11:30 de la mañana y la 1:30 de la tarde, y el ataque comenzó alrededor de las 11:57 a.m. La querella además afirma que Ikner consultó sobre el nivel de atención mediática que generan los tiroteos masivos y las posibles condenas penales para el atacante.
«OpenAI creó un sistema que mantuvo la conversación, la perpetuó, aceptó el enfoque de Ikner, lo desarrolló y formuló preguntas complementarias tangenciales para mantener a Ikner enganchado», señala la demanda. «El diseño de ChatGPT creó un riesgo evidente y previsible de daño al público que no fue controlado adecuadamente».
La viuda estima que OpenAI debería implementar salvaguardas que impidan este tipo de siniestros, y criticó que priorizaran sacar lo antes posible su producto a pesar de ser defectuoso, al no poder evitar ataques similares. OpenAI no logró crear un producto que alertará adecuadamente a un ser humano de que puede ser necesaria una investigación por parte de las autoridades para prevenir un plan específico para un daño inminente al público, indica la demanda, que pide que la empresa repare los daños causados.
OpenAI negó que ChatGPT haya promovido o facilitado el ataque. En declaraciones enviadas a medios estadounidenses, el portavoz de la compañía, Drew Pusateri, afirmó que ChatGPT proporcionó respuestas fácticas a preguntas con información que podría encontrarse ampliamente en fuentes públicas en internet, y no alentó ni promovió actividad ilegal o dañina.
OpenAI enfrenta al menos 10 demandas de familias que alegan que personas se hicieron daño a sí mismas o a otros después de intercambiar mensajes con ChatGPT. Siete familias de víctimas en un tiroteo escolar en Canadá en febrero demandaron el mes pasado a OpenAI y al consejero delegado Sam Altman, alegando que la empresa y su chatbot ChatGPT fueron cómplices en las lesiones o muertes de sus hijos.
La denuncia contra OpenAI no es la primera que se registra en este tipo de casos. Las autoridades de Florida acusaron el mes pasado al presunto asesino de dos estudiantes de doctorado de la Universidad del Sur de Florida de usar ChatGPT para obtener ayuda sobre cómo deshacerse de los cuerpos, por lo que abrió una investigación contra la empresa tecnológica.
Ikner se declaró inocente y el inicio de su juicio está previsto para octubre. Actualmente permanece en prisión preventiva.







