L’intelligenza artificiale è atterrata nelle nostre vite come un’astronave aliena. Era il 2022 quando OpenAI lanciava nel mondo la sua ChatGPT e da quel momento, sono cambiate molte cose. Non che l’AI sia nata dal nulla: la sua è una storia lunga, che affonda le radici al termine del secondo conflitto mondiale, ma tutto questo non interessa all’utilizzatore finale, che spesso si affida ai modelli di LLM (Large Language Model, ovvero ChatGPT e i suoi cugini come Gemini, Claude, Copilot, giusto per citarne alcuni) quasi come fosse un oracolo infallibile e imperscrutabile.
Quello che troppo spesso viene ignorato è che questa potente tecnologia possiede un lato oscuro: è infatti diventata uno strumento formidabile nelle mani di cybercriminali, mafie e terroristi. L’AI ha consentito a chiunque abbia delle cattive intenzioni di aumentare la precisione e l’impatto, per esempio, di un attacco informatico. E anche qui veniamo a un tema di sottovalutazione generalizzato: spesso parlare di “attacco informatico” viene percepito come qualcosa di non così grave. Dopotutto, se è informatico non ha sostanza, non si può toccare, resta relegato dietro uno schermo. Nella realtà, le cose sono un tantino più complesse di così. E allora, vediamo quali possono essere, concretamente, i rischi legati all’Intelligenza artificiale.
I Deepfake
In passato, era facile riconoscere un'email truffa (phishing) perché spesso conteneva errori grammaticali evidenti. Oggi, grazie all'intelligenza artificiale generativa, i criminali possono creare su larghissima scala messaggi truffaldini (spear-phishing) che sono praticamente indistinguibili dalle comunicazioni ufficiali di banche o istituzioni. Il pericolo si estende anche a video e audio: utilizzando reti neurali avanzate, gli hacker creano i cosiddetti "deepfake".
Si tratta di contenuti multimediali iperrealistici in grado di simulare alla perfezione l'aspetto e la voce di persone reali, come politici, esperti o conoscenti. Queste falsificazioni sono così sofisticate che possono essere usate per aggirare i moderni sistemi di sicurezza basati sul riconoscimento biometrico (come lo sblocco del telefono tramite il viso) o per diffondere finte comunicazioni durante situazioni di emergenza.
Il tema è preso in seria considerazione dalla nostra intelligence: sin dallo scorso anno, nella Relazione Annuale del 2025 consegnata prima al Parlamento e poi resa pubblica, all’AI veniva dedicato un allegato specifico. Anche nella Relazione del 2026, pubblicata pochi mesi fa, questa tecnologia è al centro dell’attenzione, in particolare per la sua capacità di impatto sulle masse. E qui arriviamo al tema della propaganda.
Propaganda "su misura" e assistenti virtuali per terroristi
L'AI sta cambiando radicalmente anche il modo in cui i gruppi estremisti reclutano nuove persone online. I criminali utilizzano questa tecnologia per analizzare enormi quantità di dati sui social media, nei videogiochi online e nei forum, al fine di individuare i soggetti psicologicamente più fragili e vulnerabili.
Una volta individuato il bersaglio, entrano in gioco algoritmi capaci di dialogare con l'utente: l'AI adatta le proprie risposte in tempo reale in base alle reazioni della persona, creando una "propaganda adattiva" estremamente persuasiva e mirata. Esistono persino "chatbot" (assistenti virtuali) istruiti per guidare gli utenti, passo dopo passo, nella costruzione di ordigni esplosivi rudimentali. In un caso recente avvenuto in Svezia, un diciottenne ha utilizzato proprio uno di questi assistenti virtuali per farsi aiutare a individuare il luogo più affollato e adatto per compiere un attentato (per fortuna sventato con il suo arresto) durante un festival.
A livello sociale, l'AI è poi oggi il motore principale delle campagne di disinformazione. Attraverso programmi automatici è possibile produrre a basso costo e in tantissime lingue una quantità industriale di notizie false, supportate persino da "influencer sintetici", ovvero personaggi creati interamente al computer che si costruiscono una finta credibilità sui social network. L'obiettivo di queste operazioni è manipolare l'opinione pubblica, creare caos sociale e distruggere la fiducia dei cittadini nelle istituzioni.
Il business delle mafie e le finte raccolte fondi
Le organizzazioni criminali tradizionali guardano all'AI come a un mezzo per velocizzare e nascondere meglio i propri affari illeciti. Nel settore della contraffazione, ad esempio, l'AI aiuta i criminali a progettare repliche di prodotti in modo velocissimo e preciso, a creare campagne pubblicitarie false e a individuare potenziali acquirenti online in totale anonimato.
Questa tecnologia viene usata anche per rubare soldi sfruttando la buona fede delle persone: gli algoritmi permettono di orchestrare campagne di raccolta fondi legate a finti progetti umanitari, dirottando poi le donazioni direttamente nelle casse di organizzazioni terroristiche o criminali. Oltre alla manipolazione, poi, l’AI ha riscritto radicalmente le regole della cybersecurity anche da un punto di vista prettamente tecnico.
Attacchi "invisibili"
Il gioco è sempre lo stesso: guardie e ladri. Una corsa senza fine verso l’orizzonte, cambiamenti talmente rapidi, che non si fa in tempo a sistematizzare un’organizzazione di difesa, che già è il momento di riscrivere le regole d’ingaggio. È questo il mondo in cui viviamo: un mondo in cui la digitalizzazione ci ha resi intrinsecamente molto più fragili e vulnerabili. In questo, l’AI ha sicuramente dato un grande contributo.
I criminali studiano continuamente modi per ingannare le difese informatiche. Ad esempio, possono nascondere comandi dannosi o virus all'interno di una semplice immagine: quando il sistema informatico analizza quella foto, finisce per eseguire le operazioni vietate nascoste al suo interno. Oppure, possono mettere in atto attacchi specifici contro altri sistemi di AI (tecnicamente chiamati Adversarial Attack), come la compromissione del set di dati utilizzato per addestrare un modello di AI (inserendo informazioni malevole per alterarne il comportamento); possono sferrare attacchi – chiamati Prompt Injection – per aggirare i filtri di sicurezza e le barriere etiche imposte ai modelli di AI generativa (come appunto ChatGPT) o per rendere l’AI complice inconsapevole di un crimine (e qui parliamo di Indirect Prompt Injection, ovvero della possibilità che un AI possa leggere ed eseguire delle istruzioni malevole nascoste nel codice di una normale pagina web).
L’AI viene anche utilizzata per attacchi informatici “classici”, ma di cui viene moltiplicata la velocità, l’impatto e la scala. I criminali, per esempio, utilizzano versioni modificate di modelli linguistici open source (a cui sono stati tolti i limiti etici) per automatizzare lo sviluppo di codice malevolo, creare malware polimorfici (capaci di cambiare forma per eludere gli antivirus) e per effettuare la scansione massiva di vulnerabilità nei sistemi bersaglio.
In conclusione, risulta evidente che la tecnologia non può essere considerata né buona, né cattiva. Dipende dall’uso che ne viene fatto. E l’AI non sfugge a questa regola universale. Se da un lato, come abbiamo visto, ha fornito ai criminali uno strumento eccezionale, dall’altra può essere utilizzata in modo altrettanto proficuo da chi questi criminali li deve contrastare. Il vero tema, però, è culturale: dobbiamo iniziare a leggere la realtà che ci circonda con occhi diversi e prendere consapevolezza tanto delle potenzialità, quanto dei limiti e dei rischi delle nuove tecnologie, in particolare quando si parla di Intelligenza artificiale. Dopotutto, parlare oggi di sicurezza informatica, significa parlare della sicurezza della nostra privacy, delle nostre finanze, ma anche della nostra incolumità fisica. E allora, in questo scenario mobile e in rapida trasformazione, la prima frontiera della difesa è la consapevolezza.