GDPR e AI: obblighi e adempimenti per le aziende italiane nel 2026

Come il GDPR si applica ai sistemi AI nelle aziende italiane nel 2026: dati personali, contratti con fornitori, base giuridica e doppio binario con l'AI Act.

Matteo Scutifero

Matteo Scutifero

Founder & CEO, DeepElse

8 min di lettura

Molte aziende italiane stanno adottando strumenti AI senza aver verificato se lo stanno facendo nel rispetto del GDPR. Non per malafede, ma perché la questione sembra complicata e il fornitore di turno assicura che "tutto è a posto".

Spesso non è così. E il Garante italiano ha già avviato procedimenti verso organizzazioni che usavano sistemi AI con dati personali senza le dovute cautele.

Come il GDPR si applica ai sistemi AI

Il GDPR non distingue tra AI e altri sistemi informatici. Si applica ogni volta che vengono trattati dati personali di persone fisiche nell'UE, indipendentemente dalla tecnologia usata.

I sistemi AI trattano dati personali in modi molti diversi: un chatbot legge messaggi di clienti che possono contenere nome, email, informazioni personali. Un sistema di analisi HR processa dati di dipendenti. Un tool di analisi email accede a comunicazioni che spesso contengono informazioni personali di mittenti e destinatari. Un sistema RAG su documenti aziendali può indicizzare contratti con dati di clienti e partner.

La prima domanda da porsi per qualsiasi sistema AI è: tratta dati personali? Se la risposta è sì - e spesso lo è - il GDPR si applica in pieno.

Dati personali e sistemi AI: i punti critici

Alcuni aspetti specifici dell'uso dell'AI creano sfide particolari rispetto al GDPR tradizionale.

Training su dati aziendali: se si usa il fine-tuning con dati che contengono informazioni personali (email di clienti, documenti con dati di dipendenti), si crea un nuovo trattamento che richiede base giuridica e misure specifiche.

Dati nei prompt: quando un dipendente inserisce dati personali in un prompt di ChatGPT o strumenti simili, quei dati vengono inviati al provider AI. Questo è un trasferimento di dati a un responsabile del trattamento che deve essere regolamentato.

Profilazione automatizzata: se l'AI viene usata per prendere decisioni automatizzate su persone fisiche (decidere se approvare un credito, filtrare curricula, valutare dipendenti), entra in gioco l'articolo 22 del GDPR con requisiti specifici.

Output contenente dati personali: i log e le risposte dei sistemi AI possono contenere dati personali che vanno gestiti con le stesse cautele di qualsiasi altra elaborazione.

Usare ChatGPT e Claude con dati aziendali: rischi e misure

Questa è la situazione più comune oggi: i dipendenti usano tool AI SaaS con dati aziendali, spesso senza una policy formale.

Il rischio principale è inviare dati personali a provider fuori dall'UE senza un contratto di Data Processing Agreement (DPA) adeguato. OpenAI, Anthropic e Google offrono tutti DPA per uso enterprise, ma devono essere stipulati esplicitamente.

Le misure pratiche:

  • Stipulare un DPA con ogni provider AI usato
  • Verificare che il DPA includa le garanzie richieste dal GDPR (clausole contrattuali standard per trasferimenti extra-UE)
  • Adottare una policy interna che limiti quali dati possono essere inseriti nei tool AI non certificati
  • Considerare soluzioni con deployment in UE o on-premise per i dati più sensibili
  • Formare il personale su cosa può e non può essere condiviso con sistemi AI esterni

Contratti con i fornitori AI: il DPA

Ogni fornitore di servizi AI che tratta dati personali per conto dell'azienda è un responsabile del trattamento ai sensi del GDPR (art. 28). È obbligatorio stipulare un contratto DPA che specifichi:

  • Oggetto e durata del trattamento
  • Natura e finalità del trattamento
  • Tipo di dati personali e categorie di interessati
  • Istruzioni vincolanti per il responsabile
  • Misure di sicurezza adottate
  • Condizioni per sub-responsabili
  • Obblighi di cancellazione o restituzione dei dati

I provider AI enterprise hanno template DPA standard. Vanno rivisti, non accettati ciecamente: alcune clausole sui dati di training o sul miglioramento del servizio possono essere problematiche e vanno negoziate o disattivate.

Base giuridica del trattamento automatizzato

Per trattare dati personali con sistemi AI ci vuole sempre una base giuridica (art. 6 GDPR). Le più usate in contesto aziendale:

Esecuzione del contratto: se il trattamento è necessario per erogare un servizio al cliente, questa base regge. Non si applica a trattamenti aggiuntivi come profilazione o analisi predittiva.

Interesse legittimo: applicabile se il trattamento è necessario per finalità legittime dell'azienda e i diritti degli interessati non prevalgono. Richiede un bilanciamento esplicito documentato.

Consenso: applicabile, ma raramente la scelta giusta in ambito B2B o per dipendenti, dove il consenso non è genuinamente libero.

Il punto critico è che la base giuridica deve essere identificata prima di avviare il trattamento, non dopo.

Il diritto alla spiegazione: articolo 22

L'art. 22 del GDPR è particolarmente rilevante per l'AI: prevede che le persone fisiche abbiano il diritto di non essere soggette a decisioni basate unicamente su trattamento automatizzato che producano effetti giuridici o analogamente significativi.

In pratica: se un sistema AI decide automaticamente (senza supervisione umana) di rifiutare un'istanza, classificare negativamente un cliente, o prendere decisioni che impattano significativamente su una persona, l'interessato ha il diritto di richiedere intervento umano, di esprimere il proprio punto di vista, e di contestare la decisione.

La soluzione più semplice per evitare i vincoli dell'art. 22 è non avere decisioni puramente automatizzate sui casi rilevanti: la supervisione umana non è solo buona pratica, è spesso un obbligo normativo.

GDPR + AI Act: il doppio binario

Dal 2026 le aziende italiane si trovano a operare con due framework normativi paralleli sull'AI: il GDPR, che regola i dati personali, e l'AI Act europeo, che regola i sistemi AI per categoria di rischio.

I due framework si sovrappongono in molti punti ma non sono identici. Un sistema AI può essere conforme all'AI Act ma violare il GDPR, e viceversa. Non basta verificare uno dei due.

Le aree di sovrapposizione più critiche:

  • Valutazione d'impatto: il GDPR richiede la DPIA, l'AI Act richiede la fundamental rights impact assessment per certi sistemi
  • Trasparenza verso gli interessati: entrambi richiedono informative, con requisiti parzialmente diversi
  • Governance: entrambi richiedono responsabilità, documentazione, log

Per approfondire l'AI Act e i suoi impatti specifici, l'articolo AI Act: guida per le aziende offre il quadro completo.

Misure pratiche immediate

Se non sai da dove partire, queste sono le priorità concrete per un'azienda italiana nel 2026:

Fare un inventario dei tool AI usati in azienda (spesso più numerosi di quanto sembri). Per ognuno verificare se trattano dati personali e se c'è un DPA. Aggiornare il registro dei trattamenti includendo i trattamenti AI. Adottare una policy interna sull'uso dei tool AI con dati aziendali. Valutare se i processi critici che usano AI richiedono supervisione umana per rispettare l'art. 22.

Non è un percorso da fare da soli. La combinazione GDPR + AI Act richiede competenze legali, tecniche e organizzative. Ma posticipare non riduce il rischio: lo accumula.

Per supporto nell'assessment e nella strutturazione dei processi, la sezione servizi descrive come accompagniamo le aziende in questo percorso.

Vuoi applicare tutto questo alla tua azienda?

Prenota una call gratuita di 30 minuti con Matteo. Analizziamo insieme i tuoi processi e identifichiamo le opportunità AI ad alto ROI.

Prenota la call

Pronto a portare l'AI nella tua azienda?

Inizia con una call gratuita di 30 minuti. Nessun impegno: capiamo insieme dove l'AI può fare la differenza per te.

Riassumi con AI

Ottieni un riepilogo di questo articolo con il tuo assistente AI preferito.

Matteo Scutifero

Matteo Scutifero

Founder & CEO, DeepElse

Aiuto PMI e Corporate italiane ad adottare l'AI in modo concreto e misurabile. Appassionato di tecnologia applicata ai processi aziendali.

Ti potrebbe interessare