Le procureur général a annoncé des assignations contre l'entreprise d'IA après que les documents judiciaires ont révélé que le tireur avait échangé plus de 200 messages avec le chatbot — posant des questions sur les armes, les peines de prison et les heures de pointe du syndicat étudiant.
Le procureur général de Floride a lancé une enquête pénale formelle contre OpenAI après que des documents judiciaires récemment descellés ont révélé un lien glaçant entre le chatbot phare de l'entreprise et la fusillade mortelle à l'Université d'État de Floride qui a fait deux morts et cinq blessés en avril 2025. Le tireur accusé a échangé plus de 200 messages avec ChatGPT dans les semaines précédant l'attaque, posant des questions détaillées sur les fusils à pompe calibre 12, le fonctionnement des mécanismes de sécurité des Glock, si les auteurs de fusillades scolaires en Floride finissent en prison de haute sécurité, et — le plus accablant — à quelle heure le syndicat étudiant de FSU est le plus fréquenté.
Des assignations sont désormais en cours exigeant qu'OpenAI remette les registres de ses systèmes de modération de contenu et explique pourquoi le chatbot n'a pas signalé ou bloqué une conversation qui était, selon tout critère raisonnable, un plan pour une violence de masse. L'enquête ne se limite pas au cas FSU — des préoccupations plus larges ont été soulevées concernant des cas où le chatbot aurait généré des réponses encourageant l'automutilation. Les avocats de la famille de Robert Morales, l'une des deux victimes, ont annoncé leur intention d'intenter une action civile.
Le moment ne pourrait être pire pour une industrie de l'IA qui a passé des mois à faire pression contre la réglementation fédérale. Plusieurs projets de loi visant à tenir les entreprises d'IA responsables des résultats nuisibles circulent au Congrès sans gagner de terrain — mais un cas aussi viscéral a la capacité de changer le calcul politique du jour au lendemain. L'affaire FSU se dirige presque certainement vers un test juridique historique pour déterminer où se situe la responsabilité lorsque l'intelligence artificielle croise la violence réelle.