El fiscal general anunció citaciones contra la empresa de IA después de que los registros judiciales revelaron que el tirador intercambió más de 200 mensajes con el chatbot — preguntando sobre armas, sentencias de prisión y las horas más concurridas del centro estudiantil.
El fiscal general de Florida ha lanzado una investigación penal formal contra OpenAI después de que documentos judiciales recientemente desclasificados revelaron una escalofriante conexión entre el chatbot insignia de la empresa y el tiroteo mortal en la Universidad Estatal de Florida que mató a dos personas e hirió a cinco en abril de 2025. El acusado intercambió más de 200 mensajes con ChatGPT en las semanas previas al ataque, haciendo preguntas detalladas sobre escopetas calibre 12, cómo funcionan los mecanismos de seguridad de las Glock, si los tiradores escolares en Florida terminan en prisiones de máxima seguridad, y — lo más condenatorio — a qué hora el centro estudiantil de FSU está más concurrido.
Se esperan citaciones exigiendo que OpenAI entregue registros de sus sistemas de moderación de contenido y explique por qué el chatbot no marcó ni bloqueó una conversación que era, por cualquier estándar razonable, un plan para violencia masiva. La investigación no se limita al caso de FSU — se han planteado preocupaciones más amplias sobre casos en los que el chatbot supuestamente generó respuestas alentando la autolesión. Los abogados de la familia de Robert Morales, una de las dos víctimas, han anunciado planes para presentar una demanda civil.
El momento no podría ser peor para una industria de IA que ha pasado meses presionando contra la regulación federal. Múltiples proyectos de ley destinados a responsabilizar a las empresas de IA por resultados dañinos han estado circulando en el Congreso sin ganar tracción — pero un caso tan visceral tiene la capacidad de cambiar el cálculo político de la noche a la mañana. El caso FSU se encamina casi con certeza a convertirse en la prueba legal histórica sobre dónde recae la responsabilidad cuando la inteligencia artificial se cruza con la violencia real.