OpenAI e diverse società affiliate sono state chiamate in causa da Vandana Joshi, vedova di un uomo ucciso nella sparatoria avvenuta nell’aprile del 2025 alla Florida State University, venendo accusate che ChatGpt, prodotto dall’azienda, abbia aiutato lo studente che ha compiuto l’attacco a pianificare e preparare l’attentato. Lo riporta l’emittente america Nbc News.
Vandana Joshi, che ha presentato la denuncia per conto degli eredi del marito, Tiru Chabba, 45 anni, e dei loro figli, ha ricordato che l’attentatore, Phoenix Ikner, 20 anni, ha trascorso mesi a comunicare con ChatGpt. La denuncia sostiene che l’intelligenza artificiale abbia identificato le armi da fuoco dalle foto caricate da Ikner, ha fornito istruzioni su come caricarle, utilizzarle e disattivare le sicure, e ha persino offerto suggerimenti tattici come il momento migliore e il numero di vittime che avrebbero probabilmente attirato l’attenzione nazionale.

Secondo le prove raccolte dal procuratore generale della Florida, James Uthmeier, lo studente aveva chiesto a ChatGpt quale arma e munizioni sarebbero state più adatte al suo attacco, e quando e dove avrebbe potuto infliggere il maggior numero di vittime. Il chatbot, affermano gli inquirenti, ha risposto alle sue domande dandogli consigli. Adesso il procuratore Uthmeier vuole accertare se questo renda OpenAI un criminale. “Se dall’altra parte dello schermo ci fosse stata una persona, l’avremmo accusata di omicidio”, ha dichiarato il procuratore, annunciando un’indagine penale contro OpenAI e lasciando aperta la possibilità di incriminare l’azienda o i suoi dipendenti.
Il caso relativo alla sparatoria dell’aprile 2025 porta alla ribalta la questione se i creatori di un’intelligenza artificiale possono essere ritenuti penalmente responsabili per il ruolo svolto dalla loro IA in un crimine o persino in un suicidio. Per coloro che cercano giustizia, una causa civile potrebbe rappresentare una strada più percorribile.
Un simile approccio, secondo alcuni esperti, potrebbe spingere le aziende a progettare i propri prodotti con maggiore attenzione, o almeno costringerle a fare i conti con il costo umano di un errore. OpenAI insiste sul fatto che ChatGpt non ha alcuna responsabilità per l’attacco. “Lavoriamo costantemente per rafforzare le nostre misure di sicurezza al fine di individuare intenti dannosi, limitare gli abusi e rispondere in modo appropriato quando si presentano rischi per la sicurezza”, ha dichiarato l’azienda. Diverse cause civili sono già state intentate negli Stati Uniti, contro piattaforme di intelligenza artificiale molte delle quali relative a suicidi, sebbene nessuna abbia ancora portato a una sentenza di condanna nei confronti delle aziende.





