Se lavori in azienda e senti parlare di LLM ogni giorno, ma non sei sicuro di cosa significhi davvero, sei in buona compagnia. Il termine è diventato onnipresente, ma spesso viene usato in modo impreciso o interscambiabile con "AI", "ChatGPT" e decine di altri termini.
Questa guida spiega cosa sono i Large Language Model, come funzionano senza ricorrere alla matematica, e soprattutto cosa implicano per chi gestisce un'azienda o un team.
Cosa fa un LLM, detto semplicemente
Un Large Language Model è un sistema software addestrato su quantità enormi di testo per imparare a predire quale parola (o sequenza di parole) viene dopo, dato un contesto.
Non "capisce" nel senso umano del termine. Calcola probabilità su probabilità, su miliardi di parametri, fino a produrre testo che sembra ragionato. Il risultato è sorprendente perché il linguaggio umano è denso di logica implicita: imparare a produrre testo coerente significa aver appreso, in modo distribuito, moltissime strutture concettuali.
La parola "large" è concreta: i modelli più capaci hanno centinaia di miliardi di parametri e sono stati addestrati su libri, articoli, codice, forum e molto altro. Questo volume di dati spiega perché sanno fare cose molto diverse: tradurre, riassumere, scrivere, spiegare, programmare.
I principali modelli oggi disponibili
Il mercato si è consolidato attorno a pochi grandi player, ognuno con caratteristiche diverse.
GPT-4 e GPT-4o (OpenAI) sono i modelli che hanno reso famosa questa tecnologia. Sono disponibili tramite ChatGPT e tramite API. Ottimi per uso generale, molto diffusi in integrazione aziendale.
Claude (Anthropic) è spesso preferito per task che richiedono ragionamento lungo e preciso, o per ambienti dove la sicurezza e la riduzione delle allucinazioni è prioritaria. Ha una finestra di contesto molto ampia.
Gemini (Google) è integrato nell'ecosistema Google Workspace e punta su multimodalità e integrazione con dati in tempo reale.
Llama (Meta) è un modello open weight: può essere scaricato ed eseguito su infrastruttura propria. Questo lo rende interessante per chi ha requisiti di privacy o vuole evitare dipendenze da API esterne.
Nessuno di questi modelli è superiore in assoluto. La scelta dipende dal caso d'uso, dal volume, dai requisiti di compliance e dall'architettura del sistema che si vuole costruire.
Cosa può fare un LLM
La lista è lunga. I LLM eccellono in:
- Generazione di testo (email, report, contenuti, documentazione)
- Riassunto di documenti lunghi
- Estrazione di informazioni strutturate da testo non strutturato
- Traduzione e adattamento linguistico
- Risposta a domande su basi di conoscenza
- Supporto alla scrittura di codice
- Classificazione e categorizzazione di testo
Questi task coprono una parte enorme del lavoro cognitivo ripetitivo che avviene ogni giorno in un'azienda.
Cosa non può fare un LLM
Altrettanto importante è sapere i limiti.
Un LLM non ha memoria persistente tra sessioni (a meno che non sia costruita esplicitamente). Non sa cosa è successo ieri nella tua azienda. Non accede a sistemi esterni a meno che non sia integrato con strumenti specifici. Non ragiona in senso stretto: produce output plausibili, non necessariamente veri.
Può generare informazioni false con la stessa fluidità con cui genera quelle corrette. Questo problema - chiamato allucinazione - è strutturale e va gestito architetturalmente, non sperando che il modello "faccia attenzione".
Non è adatto a decisioni che richiedono certezza assoluta senza verifica umana, a calcoli precisi su grandi volumi di dati, o a operazioni che richiedono stato persistente e affidabilità mission-critical senza supervisione.
LLM tramite interfaccia vs tramite API
Molti manager hanno incontrato i LLM attraverso ChatGPT o strumenti simili: si apre un browser, si scrive un messaggio, si riceve una risposta. Questo è l'uso tramite interfaccia.
L'uso tramite API è diverso: il modello viene chiamato da un'applicazione, un processo, un agente. Non c'è un utente che digita manualmente. Il LLM diventa un componente di un sistema più ampio.
È questa seconda modalità quella rilevante per le integrazioni aziendali. Un chatbot su documenti interni, un assistente che processa email, un agente che compila report: tutto questo passa da API, non da browser.
La differenza pratica è enorme. Usare ChatGPT manualmente scala zero. Integrare un LLM via API in un processo aziendale può scalare a migliaia di operazioni al giorno.
LLM come infrastruttura, non come prodotto finale
Questo è il punto che molti manager sottovalutano all'inizio.
Un LLM non è un prodotto finito da comprare e usare. È un'infrastruttura - come un database o un motore di ricerca - su cui costruire applicazioni. Il valore non sta nel modello in sé, ma in come viene integrato con i dati aziendali, i processi esistenti, i sistemi di controllo.
ChatGPT è un prodotto consumer. Un sistema AI aziendale costruito su un LLM è qualcosa di completamente diverso: ha accesso ai tuoi documenti, parla con i tuoi sistemi, risponde alle regole della tua organizzazione, viene monitorato e aggiornato nel tempo.
Comprare una licenza ChatGPT Teams e costruire un AI Agent personalizzato sono due cose diverse per costo, complessità e valore generato. La prima è immediata e limitata. La seconda richiede progettazione, ma il ritorno è proporzionalmente maggiore.
Approfondisci come vengono costruite queste architetture nella sezione tecnologia.
Come valutare un LLM per uso aziendale
Quando si confrontano modelli diversi per un progetto specifico, i criteri rilevanti sono:
Qualità dell'output sul tipo di task specifico (non in generale). Un modello ottimo per copywriting può essere mediocre per estrazione dati strutturati.
Finestra di contesto: quanti token può processare in una singola chiamata. Rilevante se devi analizzare documenti lunghi o mantenere conversazioni estese.
Latenza: quanto tempo impiega a rispondere. In applicazioni real-time questo conta.
Costo per token: i modelli più capaci costano di più. In applicazioni ad alto volume, la scelta del modello ha impatto diretto sul costo operativo.
Opzioni di deployment: SaaS, API cloud, self-hosted. Rilevante per compliance e privacy.
Supporto enterprise: SLA, contratti di elaborazione dati, certificazioni di sicurezza.
Nessuna azienda dovrebbe scegliere un modello basandosi su benchmark generici o su quale è più famoso nel momento. Il benchmark rilevante è quello sul proprio caso d'uso, con i propri dati.
Il mercato sta cambiando rapidamente
I modelli che esistono oggi non sono quelli che esisteranno tra sei mesi. Le prestazioni migliorano, i costi scendono, nuovi player entrano nel mercato.
Questo ha una conseguenza pratica: le architetture aziendali AI ben costruite devono essere model-agnostic, cioè progettate per poter cambiare il modello sottostante senza riscrivere tutto il sistema. Chi si è legato a un singolo modello in modo rigido ha già scoperto quanto sia costoso migrare.
Per le aziende che vogliono approfondire l'uso pratico dei LLM nei processi, il punto di partenza più utile è capire come il RAG - il metodo per portare i propri dati dentro il modello - funziona in pratica. Ne parliamo in dettaglio in Cos'è il RAG: guida pratica per aziende.