¿IA fue cómplice en tiroteo?... investigan ataque que dejó a 2 muertos y 7 lesionados por ‘consejos’ de ChatGPT
El caso de un ataque armado en una universidad de Florida vuelve a discusión tras señalamientos sobre el posible uso de inteligencia artificial en su planeación.
El caso de Phoenix Ikner, un joven de 20 años responsable de un tiroteo ocurrido en 2025 en la Universidad Estatal de Florida, volvió al centro del debate público este 2026. La razón: autoridades analizan si herramientas de inteligencia artificial pudieron influir en la planeación del ataque que dejó dos personas muertas y siete lesionadas.
El fiscal del estado de Florida, James Uthmeir, informó que se abrió una investigación para determinar si el uso de plataformas como ChatGPT tuvo algún papel en los hechos. La hipótesis ha generado inquietud, especialmente en comunidades académicas y tecnológicas.
Este nuevo ángulo del caso no solo reabre heridas en la comunidad estudiantil afectada, sino que también plantea preguntas más amplias sobre el alcance y la responsabilidad del uso de herramientas digitales en contextos sensibles.
DECLARACIONES Y POSTURAS ENFRENTADAS
Las declaraciones del fiscal han sido contundentes. “Si ChatGPT fuera una persona, estaría enfrentando cargos por asesinato”, aseguró Uthmeir, al referirse al posible nivel de influencia de la herramienta en la conducta del agresor.
De acuerdo con las autoridades, el atacante habría consultado información para ejecutar el tiroteo, lo que llevó a considerar a la IA como un posible “cómplice” en el caso. Sin embargo, hasta el momento no se han presentado pruebas concluyentes que determinen responsabilidad directa.
Por su parte, OpenAI, desarrolladora de ChatGPT, respondió a los señalamientos rechazando cualquier implicación. La empresa sostuvo que su sistema no promueve actividades ilegales y que las respuestas generadas se basan en información pública disponible en internet.
RESPUESTA DE LA EMPRESA Y DEBATE ABIERTO
En su posicionamiento, OpenAI fue enfática: “El tiroteo múltiple del año pasado en la Universidad Estatal de Florida fue una tragedia, pero ChatGPT no es responsable de este terrible delito. ChatGPT dio respuestas objetivas a preguntas con información que podía encontrarse en fuentes públicas de Internet, y no alentó ni promovió actividades ilegales o perjudiciales”.
La discusión, sin embargo, va más allá de este caso en particular. Expertos han señalado que el uso de IA en contextos delicados obliga a revisar los límites, controles y responsabilidades tanto de usuarios como de desarrolladores.
Mientras la investigación sigue en curso, el caso se perfila como un punto de referencia en el debate sobre tecnología, ética y seguridad, en un contexto donde la inteligencia artificial se integra cada vez más a la vida cotidiana.
DATOS CURIOSOS
• El caso reavivó el debate global sobre la regulación de la inteligencia artificial
• Universidades en Estados Unidos han reforzado protocolos de seguridad tras el incidente
• Herramientas como ChatGPT incluyen filtros diseñados para evitar contenidos dañinos