Trend e NewsGuida completa

AI governance e compliance per aziende italiane: guida pratica

Come strutturare AI governance e compliance in azienda: AI Act, GDPR, policy interne, gestione fornitori e ruolo dell'AI Officer. Guida pratica per PMI italiane.

Matteo Scutifero

Matteo Scutifero

Founder & CEO, DeepElse

14 min di lettura

L'AI governance non è un tema per le grandi aziende con un ufficio legale interno. È qualcosa che riguarda ogni impresa che usa - o sta per usare - sistemi AI nei propri processi.

La ragione è semplice: l'AI Act europeo è in vigore, il GDPR si applica a qualsiasi trattamento di dati personali che coinvolga sistemi AI, e le aspettative di clienti, partner e stakeholder sulla responsabilità nell'uso dell'AI stanno crescendo rapidamente.

Non si tratta di creare una burocrazia interna. Si tratta di mettere in ordine le cose che andrebbero fatte comunque - e di farlo in modo strutturato.

Cos'è la AI governance e perché è urgente

La AI governance è l'insieme di politiche, processi, ruoli e controlli che un'organizzazione adotta per garantire che i propri sistemi AI siano sviluppati e usati in modo responsabile, trasparente e conforme alle normative.

Governance non significa burocrazia. Significa avere risposta alle domande che prima o poi arrivano:

  • Chi ha deciso di usare quel sistema AI per quel processo?
  • Come si verifica che funzioni correttamente nel tempo?
  • Cosa succede se prende una decisione sbagliata che danneggia un cliente?
  • Chi è responsabile quando il sistema AI sbaglia?
  • I dati che alimentano il sistema sono trattati correttamente?

Se un'azienda non ha risposta strutturata a queste domande, è esposta: sul piano legale, reputazionale e operativo.

Perché è urgente agire adesso

L'AI Act europeo ha un calendario di applicazione progressivo. Le disposizioni per i sistemi ad alto rischio e i divieti per le applicazioni proibite sono già in vigore o lo saranno a breve. Le sanzioni per la non conformità arrivano fino al 3-7% del fatturato globale.

Ma al di là delle sanzioni: un incidente AI non governato - una decisione automatica che discrimina, un sistema che diffonde informazioni errate, una violazione di dati in un sistema AI - ha un costo reputazionale che può essere molto superiore a qualsiasi multa.

Le aziende che strutturano la governance oggi, quando i sistemi AI che usano sono ancora pochi e gestibili, lo fanno con meno sforzo rispetto a chi dovrà adeguarsi d'urgenza quando i sistemi saranno molti e integrati profondamente nei processi.

Il quadro normativo: AI Act, GDPR, normative di settore

Il framework normativo che regola l'AI in Italia è articolato su più livelli:

AI Act (Regolamento UE 2024/1689)

Il Regolamento europeo sull'intelligenza artificiale è il primo framework normativo globale sull'AI. Classifica i sistemi AI per livello di rischio e impone obblighi proporzionali.

Struttura del rischio:

  • Rischio inaccettabile: sistemi proibiti (manipolazione subliminale, social scoring generalizzato, alcune applicazioni di identificazione biometrica in tempo reale)
  • Alto rischio: sistemi soggetti a obblighi rigorosi (infrastrutture critiche, sistemi di selezione del personale, accesso a servizi finanziari, sistemi educativi)
  • Rischio limitato: obblighi di trasparenza (chatbot, deepfake)
  • Rischio minimo: nessun obbligo specifico (filtri antispam, giochi video AI)

Per la maggior parte delle PMI italiane, i sistemi AI in uso ricadono nella categoria "rischio limitato" o "rischio minimo". Ma alcune applicazioni specifiche - come sistemi AI per la selezione del personale o per la valutazione del credito - ricadono nell'alto rischio e portano obblighi significativi.

GDPR e AI

Il GDPR si applica a qualsiasi trattamento di dati personali, incluso quello effettuato attraverso sistemi AI. Le implicazioni specifiche per l'AI riguardano:

  • Diritto alla spiegabilità: quando una decisione automatica ha effetti significativi su una persona, questa ha diritto a una spiegazione comprensibile.
  • Valutazione d'impatto (DPIA): obbligatoria per trattamenti che presentano rischi elevati, inclusi molti sistemi AI.
  • Minimizzazione dei dati: l'AI non giustifica la raccolta di dati personali in eccesso rispetto a quanto necessario.
  • Limitazione della finalità: i dati raccolti per un servizio non possono alimentare un sistema AI senza base giuridica adeguata.

Normative di settore

Alcuni settori hanno regole specifiche che si sommano all'AI Act e al GDPR:

  • Settore finanziario: EBA Guidelines sull'uso dell'AI, normative di Banca d'Italia
  • Settore sanitario: MDR (Medical Device Regulation) per i dispositivi medici AI
  • Lavoro: normativa italiana sulla sorveglianza tecnologica dei lavoratori (art. 4 L. 300/1970, modificato dal D.Lgs. 185/2016)

Per una panoramica completa della normativa di riferimento, vedi la guida AI Act: compliance per le aziende.

Le categorie di rischio AI secondo l'AI Act

Capire in quale categoria ricadono i propri sistemi AI è il primo passo per definire gli obblighi di compliance.

Sistemi proibiti

Applicazioni vietate in tutta l'UE, indipendentemente dall'uso o dalle intenzioni:

  • Sistemi di social scoring da parte di entità pubbliche
  • Manipolazione subliminale che sfrutta vulnerabilità delle persone
  • Identificazione biometrica in tempo reale negli spazi pubblici (con eccezioni limitate)
  • Sistemi che sfruttano informazioni sull'orientamento politico, sessuale, religioso per prendere decisioni discriminatorie

Nessuna PMI italiana dovrebbe avere sistemi di questo tipo. Ma è utile conoscerne i confini, specialmente per sistemi di monitoraggio del personale o di analisi comportamentale dei clienti.

Sistemi ad alto rischio

Richiedono: registrazione, documentazione tecnica, valutazione di conformità, sistemi di qualità, supervisione umana, trasparenza.

Applicazioni ad alto rischio rilevanti per le PMI:

Applicazione Perché è ad alto rischio
Sistemi AI per la selezione del personale Impatto sui diritti dei lavoratori
Sistemi AI per la valutazione del credito Accesso a risorse finanziarie
Sistemi AI per l'istruzione/formazione Impatto sulle opportunità educative
Chatbot AI per servizi pubblici critici Accesso a servizi essenziali

Sistemi a rischio limitato

Richiedono: obblighi di trasparenza. Il cliente deve sapere che sta interagendo con un sistema AI.

Applicazioni tipiche: chatbot e assistenti virtuali (anche quando simulano conversazioni umane), sistemi che generano contenuti sintetici (testi, immagini, video).

Sistemi a rischio minimo

Nessun obbligo specifico. La maggior parte dei sistemi AI aziendali rientra in questa categoria: strumenti di analisi dati, sistemi di raccomandazione dei prodotti, filtri antispam, ottimizzazione dei processi.

Cosa devono fare concretamente le PMI

Molte PMI pensano che la compliance AI sia un problema delle grandi aziende. Non è così. Ma il livello di complessità è proporzionale alla tipologia e al numero di sistemi in uso.

La checklist di base per ogni PMI

1. Inventario dei sistemi AI in uso

Quanti e quali sistemi AI usa l'azienda? Inclusi: strumenti di terzi con componenti AI (CRM, piattaforme marketing, strumenti HR), sistemi AI sviluppati internamente o da partner, AI integrata in software gestionali.

Molte aziende usano più AI di quanto pensino - i sistemi AI embedded in piattaforme cloud sono spesso invisibili.

2. Classificazione del rischio

Per ogni sistema, identificare la categoria di rischio AI Act. Per i sistemi ad alto rischio, attivare il processo di conformità. Per i sistemi a rischio limitato, definire le modalità di disclosure all'utente.

3. Verifica GDPR

Per ogni sistema AI che tratta dati personali: base giuridica del trattamento, informativa agli interessati, valutazione se è necessaria una DPIA, contratti con i fornitori AI (DPA - Data Processing Agreement).

4. Policy interna

Definire le regole di uso accettabile dell'AI per i dipendenti: quali strumenti AI possono usare, per quali scopi, con quali dati, con quale supervisione.

5. Responsabilità e supervisione

Chi è responsabile di ogni sistema AI? Chi lo supervisiona nel tempo? Come vengono gestiti gli errori?

Costruire una AI policy aziendale

La AI policy è il documento che definisce come l'azienda usa l'AI: quali sistemi sono approvati, chi può usarli, con quali regole, con quale supervisione.

Non deve essere un documento lungo e complesso. Deve essere chiaro, pratico e comunicato a tutto il team.

Contenuti essenziali di una AI policy

Scope: quali sistemi AI rientrano nella policy (tutti, o solo quelli sviluppati internamente?).

Sistemi approvati: elenco dei sistemi AI approvati per uso aziendale, con indicazione di chi può usarli e per quali scopi.

Regole di utilizzo:

  • Quali dati possono essere inseriti nei sistemi AI esterni (e quali no - in particolare: mai inserire dati personali di clienti in sistemi AI cloud senza verifica GDPR)
  • Come verificare l'output prima di usarlo (review umana per output con impatto su terzi)
  • Come citare o dichiarare l'uso dell'AI nei documenti esterni

Sistemi non approvati: lista o categoria di strumenti non approvati per uso aziendale (shadow AI).

Gestione degli incidenti: cosa fare se un sistema AI produce un output dannoso o errato.

Aggiornamento: con quale frequenza la policy viene rivista.

Shadow AI: il rischio nascosto

Lo shadow AI - l'uso di strumenti AI non approvati e non monitorati da parte dei dipendenti - è uno dei rischi governance più sottovalutati.

Un dipendente che inserisce contratti aziendali in ChatGPT per ottenere un riassunto, o che usa uno strumento AI per analizzare dati di clienti, sta creando un rischio GDPR reale senza che l'azienda lo sappia.

La policy deve affrontare questo tema esplicitamente: non con divieti assoluti che vengono ignorati, ma con linee guida chiare su cosa è permesso e perché certi strumenti richiedono approvazione.

Gestione dei fornitori AI: clausole contrattuali

Quando si acquista o si integra un sistema AI da un fornitore esterno, il contratto deve includere alcune clausole specifiche.

Clausole imprescindibili

Proprietà dei dati: i dati inseriti nel sistema AI rimangono di proprietà dell'azienda. Il fornitore non può usarli per addestrare modelli, condividerli con terzi o conservarli oltre il necessario.

Localizzazione dei dati: dove vengono elaborati e conservati i dati? Per i dati personali, è necessario che rimangano in UE o che ci siano garanzie adeguate per i trasferimenti extraeuropei.

Data Processing Agreement (DPA): se il fornitore tratta dati personali per conto dell'azienda, è obbligatorio un DPA ai sensi del GDPR. Non si può iniziare a usare il servizio senza avere questo documento firmato.

Incidenti e notifiche: il fornitore deve notificare l'azienda entro tempi definiti in caso di violazione dei dati o incidenti di sicurezza che coinvolgono i sistemi AI.

Diritto di audit: l'azienda deve poter verificare la compliance del fornitore, attraverso questionari, certificazioni (ISO 27001, SOC 2) o audit diretti.

Subprocessori: il fornitore deve dichiarare se usa subprocessori per l'elaborazione dei dati e richiedere l'approvazione dell'azienda per nuovi subprocessori.

Valutazione dei fornitori AI

Prima di selezionare un fornitore AI, valuta:

  • Dove sono localizzati i server che elaborano i dati?
  • Il fornitore ha certificazioni di sicurezza (ISO 27001, SOC 2 Type II)?
  • Come gestisce gli incidenti di sicurezza?
  • Quali garanzie offre sulla non-usabilità dei dati per addestrare modelli?
  • È disponibile a firmare il DPA senza negoziazioni eccessive?

Un fornitore che esita su questi punti è un segnale di rischio.

Approfondisci la gestione della governance IT con i servizi di affiancamento tecnologico.

Trasparenza e spiegabilità dell'AI

Due principi che ricorrono nell'AI Act e nel GDPR: trasparenza (le persone devono sapere quando interagiscono con un'AI) e spiegabilità (le decisioni automatizzate devono essere comprensibili).

Trasparenza verso i clienti

Se l'azienda usa chatbot, Voice AI o altri sistemi AI che interagiscono direttamente con i clienti, questi devono sapere che stanno interagendo con un sistema AI. Non è necessario farlo in modo prominente e ripetitivo, ma il sistema non può simulare di essere umano quando non lo è.

Implementazione pratica: disclosure chiara nell'interfaccia di chat, nel messaggio iniziale del Voice AI, nell'informativa del sito.

Spiegabilità delle decisioni automatizzate

Quando un sistema AI prende decisioni con effetti significativi su individui - valutazione del credito, selezione del personale, definizione dei prezzi personalizzati - deve essere possibile spiegare come è stata raggiunta quella decisione.

Questo non significa rendere pubblica l'architettura tecnica del sistema. Significa poter dire al cliente o al dipendente: "questa decisione è stata influenzata da questi fattori, pesati in questo modo."

Per i sistemi ad alto rischio, la spiegabilità non è un'opzione ma un obbligo.

Audit e monitoraggio continuo

La governance AI non finisce con l'implementazione. Un sistema AI che funziona bene al go-live può degradare nel tempo, sviluppare bias su nuovi dati o produrre errori in situazioni non previste.

Il monitoraggio continuo

Le attività di monitoraggio includono:

  • Accuracy monitoring: il sistema produce ancora output accurati? Il tasso di errore è rimasto stabile?
  • Drift detection: i dati in input sono cambiati in modo significativo rispetto a quelli su cui il sistema è stato calibrato?
  • Bias monitoring: il sistema tratta in modo equo tutti i gruppi di utenti (età, genere, provenienza geografica)?
  • Compliance monitoring: le normative sono cambiate? Il sistema è ancora conforme?

Cadenza degli audit

Tipo di sistema Frequenza minima di review
Sistemi ad alto rischio Trimestrale
Sistemi a rischio limitato con alto volume Semestrale
Sistemi a rischio minimo Annuale

Gestione degli incidenti AI

Definire in anticipo la procedura di gestione degli incidenti:

  1. Rilevamento: come viene identificato un malfunzionamento?
  2. Contenimento: come si limita il danno (ad esempio, disabilitando temporaneamente il sistema)?
  3. Analisi: qual è la causa del problema?
  4. Correzione: come viene risolto?
  5. Notifica: chi deve essere informato (internamente, e se necessario il Garante)?
  6. Documentazione: come viene registrato l'incidente?

Il ruolo dell'AI Officer

L'AI Officer è la figura responsabile della governance AI in azienda. L'AI Act prevede esplicitamente questa responsabilità per i fornitori di sistemi AI ad alto rischio.

Per le PMI che non sviluppano AI ma la usano, non c'è un obbligo formale di nominare un AI Officer. Ma avere una persona con questa responsabilità - anche in modo informale o part-time - è una buona pratica che aiuta a mantenere l'ordine nel tempo.

Responsabilità dell'AI Officer

  • Mantenere l'inventario dei sistemi AI in uso
  • Monitorare le novità normative e aggiornarsi
  • Gestire le relazioni con i fornitori AI sul piano contrattuale
  • Coordinare le valutazioni di impatto (DPIA) con il DPO
  • Gestire la AI policy aziendale e il suo aggiornamento
  • Essere il punto di riferimento per i dipendenti con domande sull'AI

Chi può svolgere questo ruolo

In una PMI, l'AI Officer può essere:

  • Il responsabile IT o digitale (se esiste)
  • Il DPO (Data Protection Officer), se già in carica
  • Un manager di area che si forma specificamente
  • Un consulente esterno con mandato specifico

L'importante è che la responsabilità sia assegnata esplicitamente a una persona, non diffusa in modo che alla fine non sia di nessuno.

FAQ su AI governance

L'AI Act si applica anche alle PMI?

Sì, si applica a tutte le aziende che operano nel mercato europeo, indipendentemente dalla dimensione. Tuttavia, gli obblighi più gravosi riguardano i fornitori di sistemi AI ad alto rischio e i deployatori di questi sistemi. La maggior parte delle PMI italiane usa sistemi AI a rischio minimo o limitato, per cui gli obblighi sono molto più contenuti.

Dobbiamo avere un DPA con tutti i fornitori AI che usiamo?

Sì, se il fornitore AI tratta dati personali per vostro conto. Questo include praticamente qualsiasi sistema AI a cui passate dati di clienti, dipendenti o fornitori. Il DPA non è un'opzione: è un obbligo GDPR.

Cosa rischiamo se non siamo conformi all'AI Act?

Le sanzioni variano in base al tipo di violazione: fino al 7% del fatturato globale per l'uso di sistemi proibiti, fino al 3% per la mancata conformità ai requisiti per i sistemi ad alto rischio, fino all'1,5% per la fornitura di informazioni errate all'Autorità.

La AI policy deve essere un documento formale?

Non deve essere necessariamente un documento lungo e formalizzato con firme notarili. Deve essere chiaro, accessibile a tutti i dipendenti, aggiornato periodicamente e comunicato in modo che nessuno possa dire di non sapere le regole. La forma è meno importante della sostanza.

Come si gestisce il GDPR quando si usa l'AI generativa?

La regola base è: non inserire dati personali in sistemi AI cloud senza una base giuridica adeguata e un DPA con il fornitore. Per i sistemi AI che elaborano dati personali, verifica sempre: il fornitore è in UE? Ha firmato il DPA? I dati vengono usati per addestrare il modello pubblico? Quest'ultimo punto è critico: molti servizi AI gratuiti o consumer usano i dati inseriti per migliorare i loro modelli, il che è incompatibile con il GDPR per i dati personali.

Vuoi applicare tutto questo alla tua azienda?

Prenota una call gratuita di 30 minuti con Matteo. Analizziamo insieme i tuoi processi e identifichiamo le opportunità AI ad alto ROI.

Prenota la call

Pronto a portare l'AI nella tua azienda?

Inizia con una call gratuita di 30 minuti. Nessun impegno: capiamo insieme dove l'AI può fare la differenza per te.

Riassumi con AI

Ottieni un riepilogo di questo articolo con il tuo assistente AI preferito.

Matteo Scutifero

Matteo Scutifero

Founder & CEO, DeepElse

Aiuto PMI e Corporate italiane ad adottare l'AI in modo concreto e misurabile. Appassionato di tecnologia applicata ai processi aziendali.

Ti potrebbe interessare