L'AI è lo strumento più potente che i team di sicurezza hanno mai avuto. È anche lo strumento più potente che i cybercriminali abbiano mai avuto. Questa non è una metafora: è la realtà operativa del 2026.
Capire entrambe le facce non è un esercizio accademico. Per un'azienda italiana con 20-200 dipendenti, significa la differenza tra un incidente gestibile e uno che blocca l'operatività per settimane.
Come i cybercriminali usano l'AI oggi
Phishing iper-personalizzato
Il phishing classico era riconoscibile: tono generico, italiano maccheronico, mittente ovviamente falso. Il phishing AI è diverso. Un modello linguistico addestrato su dati pubblici - LinkedIn, sito aziendale, comunicati stampa - genera email indistinguibili da quelle reali.
Un attacco mirato a una PMI manifatturiera potrebbe includere riferimenti al nome del fornitore storico, alla fiera di settore visitata il mese scorso, e al nome del responsabile acquisti. Tutto ricavato da fonti aperte, tutto elaborato in automatico, tutto convincente.
Il volume è moltiplicato dall'automazione: quello che prima richiedeva ore di lavoro a un criminale esperto, oggi si scala a migliaia di target in parallelo.
Deepfake audio del CEO
L'attacco che ha fatto più rumore negli ultimi due anni non è tecnico: è sociale. Un dipendente riceve una chiamata - voce del CEO, tono urgente, richiesta di bonifico immediato. La voce è clonata da tre minuti di video YouTube.
Questa tecnica, chiamata voice cloning fraud, ha già colpito aziende italiane. Il costo medio di un singolo incidente: €50.000-300.000. Il tempo necessario per creare il deepfake: meno di 30 minuti con strumenti disponibili gratuitamente online.
Attacchi automatizzati su larga scala
L'AI permette di identificare vulnerabilità nei sistemi esposti su internet in modo automatico e continuo. Un server con una patch mancante, una VPN con credenziali deboli, un pannello di amministrazione raggiungibile dall'esterno - vengono identificati e sfruttati in minuti, non giorni.
Le PMI sono bersagli preferiti proprio perché spesso non hanno un team IT dedicato a monitorare questi rischi.
Come l'AI difende le aziende
Rilevazione delle anomalie in tempo reale
I sistemi di EDR (Endpoint Detection and Response) basati su AI monitorano il comportamento di ogni dispositivo aziendale e identificano schemi anomali. Un file che viene copiato in massa alle 2 di notte, un utente che accede a cartelle a cui non ha mai acceduto, un processo che avvia connessioni insolite verso l'esterno.
La differenza rispetto ai sistemi tradizionali basati su regole fisse è sostanziale: l'AI impara il "normale" di quella specifica azienda e segnala le deviazioni, riducendo i falsi positivi e catturando attacchi che non hanno firma riconoscibile.
Analisi automatica delle email sospette
Strumenti come Microsoft Defender for Office 365 o Proofpoint con AI analizzano ogni email in ingresso su decine di segnali - non solo il mittente o gli allegati, ma il tono, i link nascosti, le anomalie di intestazione, la coerenza con i pattern storici della comunicazione aziendale.
Un dipendente non deve più affidarsi al proprio occhio critico per ogni email. Il sistema filtra, segnala, e in alcuni casi blocca in automatico prima ancora che il messaggio arrivi nella inbox.
Risposta automatica agli incidenti
Quando viene rilevata una minaccia, i sistemi SOAR (Security Orchestration, Automation and Response) possono isolare automaticamente il dispositivo compromesso dalla rete, bloccare l'account coinvolto, avviare un backup di emergenza e notificare il responsabile - tutto in secondi, senza intervento umano.
Per una PMI senza un SOC (Security Operations Center) interno, questa automazione della risposta può fare la differenza tra un incidente contenuto e un ransomware che si propaga all'intera rete.
I 3 rischi AI che quasi nessuno considera
1. Fuga di dati nelle chat AI
Quanti dipendenti della tua azienda usano ChatGPT, Claude o Copilot inserendo dati aziendali? Contratti, email di clienti, dati finanziari, codice sorgente - tutto passa attraverso server di aziende terze, spesso statunitensi.
Il rischio non è che OpenAI "rubi" i dati. Nelle versioni consumer di molti strumenti AI, i dati inseriti possono essere usati per migliorare i modelli, mentre nelle versioni enterprise e API (es. ChatGPT Enterprise o Business) i dati non vengono usati per training per impostazione predefinita. Il rischio reale è un breach sul provider che esponga i dati aziendali, oppure una gestione non consapevole degli strumenti consumer. Le versioni enterprise offrono garanzie contrattuali sulla data retention - ma quante PMI le hanno attivate?
2. Dipendenza da modelli esterni per processi critici
Un'azienda che integra un provider AI in un processo di business critico - approvazione ordini, generazione contratti, valutazione fornitori - crea una dipendenza operativa verso un terzo. Se il provider subisce un'interruzione, cambia le API o modifica le condizioni di utilizzo, il processo si blocca.
La resilienza è un criterio di selezione che spesso manca dalle valutazioni AI.
3. Allucinazioni in contesti ad alto rischio
Un AI che genera un report commerciale sbagliato è un problema recuperabile. Un AI che fornisce indicazioni errate su una procedura di sicurezza, su una clausola contrattuale o su una soglia normativa è qualcosa di diverso.
Usare modelli generativi in contesti dove l'accuratezza è critica richiede meccanismi di verifica umana che molte implementazioni frettolosa non prevedono.
Cosa deve fare concretamente una PMI
La checklist di sicurezza base
Non serve un budget da grande azienda per alzare significativamente il livello di protezione:
- Autenticazione a due fattori su tutti gli accessi aziendali (email, VPN, cloud) - costo: zero
- Password manager aziendale (Bitwarden Business, 1Password Teams) - costo: €3-5/utente/mese
- Backup 3-2-1 verificato e testato - costo: €50-200/mese per la maggior parte delle PMI
- EDR su tutti i dispositivi (Crowdstrike Falcon Go, SentinelOne Core) - costo: circa €5-15/dispositivo/mese a seconda del vendor e del livello di protezione
- Policy sull'uso degli strumenti AI - costo: una mezza giornata per scriverla
Formazione su phishing e deepfake
La tecnologia da sola non basta. I dipendenti devono sapere che le telefonate urgenti del CEO per bonifici non standard vanno sempre verificate con un secondo canale. Che le email convincenti vanno comunque controllate prima di cliccare.
Bastano due ore di formazione specifica l'anno, con esempi reali, per ridurre significativamente il tasso di successo degli attacchi di social engineering.
Il punto più importante: la cybersecurity non è un progetto con una data di fine. È una pratica continua. E le aziende che la trattano come tale - anche con risorse limitate - sono molto più resistenti di quelle che la affrontano solo dopo un incidente.