Molte aziende italiane stanno adottando strumenti AI senza aver verificato se lo stanno facendo nel rispetto del GDPR. Non per malafede, ma perché la questione sembra complicata e il fornitore di turno assicura che "tutto è a posto".
Spesso non è così. E il Garante italiano ha già avviato procedimenti verso organizzazioni che usavano sistemi AI con dati personali senza le dovute cautele.
Come il GDPR si applica ai sistemi AI
Il GDPR non distingue tra AI e altri sistemi informatici. Si applica ogni volta che vengono trattati dati personali di persone fisiche nell'UE, indipendentemente dalla tecnologia usata.
I sistemi AI trattano dati personali in modi molti diversi: un chatbot legge messaggi di clienti che possono contenere nome, email, informazioni personali. Un sistema di analisi HR processa dati di dipendenti. Un tool di analisi email accede a comunicazioni che spesso contengono informazioni personali di mittenti e destinatari. Un sistema RAG su documenti aziendali può indicizzare contratti con dati di clienti e partner.
La prima domanda da porsi per qualsiasi sistema AI è: tratta dati personali? Se la risposta è sì - e spesso lo è - il GDPR si applica in pieno.
Dati personali e sistemi AI: i punti critici
Alcuni aspetti specifici dell'uso dell'AI creano sfide particolari rispetto al GDPR tradizionale.
Training su dati aziendali: se si usa il fine-tuning con dati che contengono informazioni personali (email di clienti, documenti con dati di dipendenti), si crea un nuovo trattamento che richiede base giuridica e misure specifiche.
Dati nei prompt: quando un dipendente inserisce dati personali in un prompt di ChatGPT o strumenti simili, quei dati vengono inviati al provider AI. Questo è un trasferimento di dati a un responsabile del trattamento che deve essere regolamentato.
Profilazione automatizzata: se l'AI viene usata per prendere decisioni automatizzate su persone fisiche (decidere se approvare un credito, filtrare curricula, valutare dipendenti), entra in gioco l'articolo 22 del GDPR con requisiti specifici.
Output contenente dati personali: i log e le risposte dei sistemi AI possono contenere dati personali che vanno gestiti con le stesse cautele di qualsiasi altra elaborazione.
Usare ChatGPT e Claude con dati aziendali: rischi e misure
Questa è la situazione più comune oggi: i dipendenti usano tool AI SaaS con dati aziendali, spesso senza una policy formale.
Il rischio principale è inviare dati personali a provider fuori dall'UE senza un contratto di Data Processing Agreement (DPA) adeguato. OpenAI, Anthropic e Google offrono tutti DPA per uso enterprise, ma devono essere stipulati esplicitamente.
Le misure pratiche:
- Stipulare un DPA con ogni provider AI usato
- Verificare che il DPA includa le garanzie richieste dal GDPR (clausole contrattuali standard per trasferimenti extra-UE)
- Adottare una policy interna che limiti quali dati possono essere inseriti nei tool AI non certificati
- Considerare soluzioni con deployment in UE o on-premise per i dati più sensibili
- Formare il personale su cosa può e non può essere condiviso con sistemi AI esterni
Contratti con i fornitori AI: il DPA
Ogni fornitore di servizi AI che tratta dati personali per conto dell'azienda è un responsabile del trattamento ai sensi del GDPR (art. 28). È obbligatorio stipulare un contratto DPA che specifichi:
- Oggetto e durata del trattamento
- Natura e finalità del trattamento
- Tipo di dati personali e categorie di interessati
- Istruzioni vincolanti per il responsabile
- Misure di sicurezza adottate
- Condizioni per sub-responsabili
- Obblighi di cancellazione o restituzione dei dati
I provider AI enterprise hanno template DPA standard. Vanno rivisti, non accettati ciecamente: alcune clausole sui dati di training o sul miglioramento del servizio possono essere problematiche e vanno negoziate o disattivate.
Base giuridica del trattamento automatizzato
Per trattare dati personali con sistemi AI ci vuole sempre una base giuridica (art. 6 GDPR). Le più usate in contesto aziendale:
Esecuzione del contratto: se il trattamento è necessario per erogare un servizio al cliente, questa base regge. Non si applica a trattamenti aggiuntivi come profilazione o analisi predittiva.
Interesse legittimo: applicabile se il trattamento è necessario per finalità legittime dell'azienda e i diritti degli interessati non prevalgono. Richiede un bilanciamento esplicito documentato.
Consenso: applicabile, ma raramente la scelta giusta in ambito B2B o per dipendenti, dove il consenso non è genuinamente libero.
Il punto critico è che la base giuridica deve essere identificata prima di avviare il trattamento, non dopo.
Il diritto alla spiegazione: articolo 22
L'art. 22 del GDPR è particolarmente rilevante per l'AI: prevede che le persone fisiche abbiano il diritto di non essere soggette a decisioni basate unicamente su trattamento automatizzato che producano effetti giuridici o analogamente significativi.
In pratica: se un sistema AI decide automaticamente (senza supervisione umana) di rifiutare un'istanza, classificare negativamente un cliente, o prendere decisioni che impattano significativamente su una persona, l'interessato ha il diritto di richiedere intervento umano, di esprimere il proprio punto di vista, e di contestare la decisione.
La soluzione più semplice per evitare i vincoli dell'art. 22 è non avere decisioni puramente automatizzate sui casi rilevanti: la supervisione umana non è solo buona pratica, è spesso un obbligo normativo.
GDPR + AI Act: il doppio binario
Dal 2026 le aziende italiane si trovano a operare con due framework normativi paralleli sull'AI: il GDPR, che regola i dati personali, e l'AI Act europeo, che regola i sistemi AI per categoria di rischio.
I due framework si sovrappongono in molti punti ma non sono identici. Un sistema AI può essere conforme all'AI Act ma violare il GDPR, e viceversa. Non basta verificare uno dei due.
Le aree di sovrapposizione più critiche:
- Valutazione d'impatto: il GDPR richiede la DPIA, l'AI Act richiede la fundamental rights impact assessment per certi sistemi
- Trasparenza verso gli interessati: entrambi richiedono informative, con requisiti parzialmente diversi
- Governance: entrambi richiedono responsabilità, documentazione, log
Per approfondire l'AI Act e i suoi impatti specifici, l'articolo AI Act: guida per le aziende offre il quadro completo.
Misure pratiche immediate
Se non sai da dove partire, queste sono le priorità concrete per un'azienda italiana nel 2026:
Fare un inventario dei tool AI usati in azienda (spesso più numerosi di quanto sembri). Per ognuno verificare se trattano dati personali e se c'è un DPA. Aggiornare il registro dei trattamenti includendo i trattamenti AI. Adottare una policy interna sull'uso dei tool AI con dati aziendali. Valutare se i processi critici che usano AI richiedono supervisione umana per rispettare l'art. 22.
Non è un percorso da fare da soli. La combinazione GDPR + AI Act richiede competenze legali, tecniche e organizzative. Ma posticipare non riduce il rischio: lo accumula.
Per supporto nell'assessment e nella strutturazione dei processi, la sezione servizi descrive come accompagniamo le aziende in questo percorso.