Luca Frabboni – Maat Srl
L’ecosistema dell’intelligenza artificiale generativa sta attraversando una fase di rapida evoluzione tecnologica e si sta assistentendo negli ultimi mesi del 2025 ad una vera e propria corsa tra i maggiori player per alzare le performance dei proprio modelli generativi. Il presente contributo si propone di esaminare lo stato dell’arte e le caratteristiche tecniche dei modelli di intelligenza artificiale più avanzati disponibili sul mercato a dicembre 2025, con particolare attenzione alle soluzioni offerte dai principali operatori del settore: Google con la famiglia Gemini 3, OpenAI con GPT-5.1 (aggiornato a 5.2 poche ore dopo la pubblicazione dell’articolo), Anthropic con i modelli Claude della serie 4 (Opus 4.5, Sonnet 4.5 e Haiku 4.5), nonché le iniziative europee nel campo dei modelli open source.
Google Gemini 3: la nuova frontiera dell’intelligenza multimodale
Nel novembre 2025, Google ha annunciato il rilascio di Gemini 3, presentato come il modello di intelligenza artificiale più avanzato sviluppato dall’azienda. Questa nuova generazione rappresenta un significativo avanzamento rispetto ai predecessori, con particolare enfasi sulle capacità di ragionamento avanzato e comprensione multimodale. Il modello è stato integrato immediatamente nell’ecosistema di prodotti Google, incluso il motore di ricerca, configurandosi come il primo caso di implementazione simultanea di un modello Gemini nell’intera infrastruttura dell’azienda fin dal giorno del lancio.
Dal punto di vista tecnico, Gemini 3 introduce il concetto di “interfacce generative”, una funzionalità che consente al modello di determinare autonomamente il formato ottimale di output in base alla natura della richiesta dell’utente. Questa capacità di adattamento contestuale si traduce nella generazione di layout visivi dinamici, strumenti interattivi e simulazioni specificamente calibrate per ciascuna interrogazione. Il sistema è stato sottoposto a quella che Google definisce “la più completa serie di valutazioni di sicurezza mai applicata a un modello AI di Google”, con particolare attenzione alla riduzione della sycophancy (compiacenza eccessiva) e al miglioramento della resistenza agli attacchi di prompt injection.
L’architettura del modello presenta significativi progressi nelle prestazioni su benchmark standardizzati, includendo capacità avanzate nella comprensione di documenti, nel ragionamento spaziale e nella elaborazione di contenuti video. La versione Gemini 3 Pro ha registrato prestazioni di livello superiore nei test di ragionamento visivo complesso, stabilendo nuovi standard di riferimento nei benchmark MMMU Pro e Video MMMU. La modalità “Deep Think”, destinata agli utenti del livello Ultra, è progettata per affrontare problemi di particolare complessità attraverso un impiego intensivo di risorse computazionali dedicate al ragionamento.
Dal punto di vista dell’adozione commerciale, Google ha comunicato che l’applicazione Gemini conta oltre 650 milioni di utenti attivi mensili, mentre AI Overviews, il sistema di sintesi intelligente integrato nella ricerca, raggiunge 2 miliardi di utenti mensili. L’azienda ha inoltre introdotto “Google Antigravity”, una piattaforma di sviluppo agenticale che consente ai programmatori di operare a un livello di astrazione superiore, orientato ai compiti piuttosto che all’implementazione specifica.
OpenAI GPT-5.1: evoluzione incrementale e personalizzazione avanzata
OpenAI ha rilasciato GPT-5.1 nel novembre 2025, introducendo due varianti distinte: GPT-5.1 Instant e GPT-5.1 Thinking. Il modello rappresenta un’evoluzione della precedente generazione GPT-5, lanciata nell’agosto 2025, e si distingue per l’attenzione dedicata al miglioramento dell’esperienza conversazionale e alla personalizzazione delle interazioni. GPT-5.1 Instant costituisce il modello predefinito per l’uso quotidiano, ottimizzato per velocità e naturalezza conversazionale, mentre GPT-5.1 Thinking è progettato per supportare ragionamenti complessi attraverso un’allocazione dinamica delle risorse computazionali.
L’innovazione principale di GPT-5.1 risiede nella capacità di adattamento dinamico del tempo di elaborazione: il modello Thinking modula la durata del processo cognitivo in funzione della complessità del compito, risultando approssimativamente due volte più veloce nelle attività semplici e due volte più accurato in quelle complesse rispetto alla generazione precedente. Questa caratteristica si traduce in un miglioramento dell’efficienza operativa, riducendo i tempi di attesa per interrogazioni elementari e garantendo analisi più approfondite per richieste articolate.
Sul piano delle prestazioni benchmark, GPT-5.1 mantiene risultati competitivi nei test matematici standardizzati, registrando il 94.0% su AIME 2025, e dimostra significativi progressi nella riduzione dei tassi di allucinazione. Con la funzionalità di ricerca web attivata, GPT-5.1 presenta una riduzione del 45% della probabilità di errori fattuali rispetto a GPT-4o, percentuale che sale all’80% quando opera in modalità di ragionamento. OpenAI ha inoltre introdotto controlli di personalizzazione più granulari, consentendo agli utenti di selezionare tra diverse “personalità” predefinite (Professionale, Candida, Quirky) e di modulare parametri quali concisione, calore e scansionabilità delle risposte.
Dal punto di vista dell’implementazione commerciale, GPT-5.1 è stato integrato in GitHub Copilot attraverso tre varianti specifiche (GPT-5.1, GPT-5.1-Codex e GPT-5.1-Codex-Mini), consentendo agli sviluppatori di selezionare il modello più appropriato per il contesto di utilizzo. OpenAI ha comunicato di aver superato il milione di clienti aziendali paganti, segnalando l’adozione del sistema in settori regolamentati quali scienze della vita, servizi finanziari e tecnologia.
Aggiornamento del 12/12: OpenAI ha annunciato in data odierna rilascio di GPT-5.2, presentato come il modello di frontiera più avanzato dell’azienda, particolarmente indicato per applicazioni di tipo agentico nel mondo reale. Il modello si distingue per prestazioni eccellenti in tre ambiti principali: programmazione informatica, analisi di documenti e dati, e assistenza alla clientela.
Le caratteristiche tecniche salienti includono: prestazioni superiori nella comprensione di contesti estesi, con risultati eccellenti nel benchmark OpenAI MRCRv2; capacità avanzate nell’utilizzo di strumenti (tool-calling), risultando superiore nei test Tool Decathlon e τ²-Bench Telecom; capacità di analisi visiva rafforzate, con riduzione superiore al 50% degli errori nell’interpretazione di grafici e interfacce utente; prestazioni di eccellenza nella programmazione, con risultati leader nel benchmark SWE-Bench Pro.
Anthropic Claude 4: un approccio stratificato all’intelligenza artificiale
Anthropic ha adottato una strategia distintiva nel panorama dell’intelligenza artificiale generativa, rilasciando nel 2025 una famiglia completa di modelli complementari: Claude Sonnet 4.5 nel settembre 2025, Claude Haiku 4.5 nell’ottobre 2025 e Opus 4.5 a novembre 2025. Questa architettura a livelli è stata progettata espressamente per supportare flussi di lavoro agentici orchestrati, consentendo ai sistemi di distribuire compiti a modelli di diverse dimensioni in funzione della complessità richiesta.
Claude Sonnet 4.5 rappresenta il modello di punta della famiglia, commercializzato come “il migliore modello di codifica al mondo” e “il migliore modello al mondo per agenti”. Il sistema ha registrato prestazioni superiori nei benchmark di codifica, ottenendo il 77.2% su SWE-bench Verified, un test basato su problematiche reali di ingegneria del software tratte da progetti open source autentici. Sonnet 4.5 supporta una finestra di contesto di 200.000 token, espandibile a 1 milione in versione preview, e opera sotto lo standard di sicurezza AI Safety Level 3 (ASL-3), che richiede misure di protezione più stringenti rispetto ai livelli inferiori.
Claude Haiku 4.5, lanciato nell’ottobre 2025, rappresenta un’evoluzione significativa nel segmento dei modelli compatti. Nonostante le dimensioni ridotte, Haiku 4.5 offre prestazioni comparabili a quelle di Claude Sonnet 4 (il modello flagship di cinque mesi prima) a un terzo del costo e con una velocità superiore al doppio. Il modello ha ottenuto il 73.3% su SWE-bench Verified, posizionandosi a soli cinque punti percentuali dal risultato di Sonnet 4.5. Per la prima volta nella famiglia Haiku, la versione 4.5 integra funzionalità di ragionamento esteso, utilizzo del computer e context awareness, caratteristiche precedentemente riservate ai modelli di fascia superiore.
Un aspetto particolarmente rilevante dal punto di vista della sicurezza è che Claude Haiku 4.5 è stato classificato come il modello più sicuro di Anthropic secondo le metriche automatizzate di allineamento, registrando tassi di comportamenti disallineati statisticamente inferiori rispetto sia a Sonnet 4.5 che a Opus 4.5. Questa valutazione ha consentito il rilascio del modello sotto lo standard ASL-2, meno restrittivo rispetto ai modelli di fascia superiore. Il sistema di tariffazione è strutturato a $1/$5 per milione di token di input/output, con sconti del 50% per l’elaborazione batch asincrona.
Claude Opus 4.5 si posiziona come il modello di ragionamento profondo della famiglia, utilizzato principalmente per revisioni critiche del codice e analisi di problematiche complesse che sfuggono ai modelli più rapidi. Gli sviluppatori software riportano che Opus 4.5 è particolarmente efficace nell’identificazione di bug relativi a gestione della memoria, problemi di concorrenza e leak di risorse, aree in cui sia Haiku 4.5 che Sonnet 4.5 potrebbero non fornire analisi sufficientemente approfondite.
L’iniziativa europea: verso una sovranità digitale nell’intelligenza artificiale
L’Unione Europea ha avviato diverse iniziative strategiche volte a sviluppare un ecosistema di intelligenza artificiale sovrano, rispondendo alla dipendenza tecnologica dal Nord America e dalla Cina. Questa strategia si articola attraverso il sostegno a modelli open source che rispettano i principi di trasparenza, multilinguismo e conformità al quadro normativo europeo, in particolare all’AI Act che entrerà pienamente in vigore nell’agosto 2026.
Tra le iniziative più significative si annovera Mistral AI, azienda francese che ha lanciato nel dicembre 2025 la famiglia Mistral 3, comprendente dieci modelli open-weight. Mistral Large 3 costituisce il modello frontier della serie, caratterizzato da capacità multimodali e multilingue integrate in un’unica architettura. Il sistema utilizza un’architettura “granular Mixture of Experts” con 41 miliardi di parametri attivi e 675 miliardi di parametri totali, consentendo un ragionamento efficiente attraverso una finestra di contesto di 256.000 token. La famiglia Ministral 3 comprende nove modelli compatti (con 14, 8 e 3 miliardi di parametri) disponibili in tre varianti: Base (modello fondamentale pre-addestrato), Instruct (ottimizzato per conversazioni) e Reasoning (specializzato in logica complessa).
Un’altra iniziativa rilevante è rappresentata da Apertus, sviluppato dalla Swiss AI Initiative in collaborazione con l’ETH Zurich e altre università svizzere. Apertus è stato addestrato su 15 trilioni di token in oltre 1.000 lingue, includendo idiomi specifici come lo svizzero tedesco e il romancio. Il modello è completamente open source, con architettura di addestramento, dataset, codice sorgente e pesi del modello disponibili pubblicamente. L’iniziativa esplora applicazioni settoriali specifiche in ambito giuridico, climatico, sanitario ed educativo.
La Germania sta sviluppando SOOFI (Sovereign Open Source Foundation Models), un progetto governativo finalizzato alla creazione di modelli fondamentali avanzati open source adattabili da altre imprese che sviluppano prodotti di intelligenza artificiale. Il progetto è concepito per supportare i servizi di pubblica amministrazione attraverso il portale online governativo e per applicazioni scientifiche avanzate.
Il Portogallo ha avviato il progetto Amalia, sviluppato da un consorzio di università portoghesi a partire dal 2024. Il modello è progettato per operare in lingua portoghese con contesto locale, supportando funzionalità quali risposta a domande, generazione di codice, spiegazione di concetti, sintesi testuale e interpretazione di informazioni. La versione beta è stata testata nel settembre 2025, con un rilascio pubblico previsto per metà 2026. Il codice del modello sarà open source per consentire alle imprese portoghesi di utilizzarlo nei propri sistemi di intelligenza artificiale.
TildeOpen LLM, sviluppato dall’azienda lettone Tilde e vincitore dell’European AI Grand Challenge, rappresenta un modello con 30 miliardi di parametri ottimizzato per tutte le 24 lingue ufficiali dell’Unione Europea, oltre a ucraino, norvegese e diverse lingue balcaniche. Il modello è stato addestrato sul supercomputer LUMI dell’EuroHPC utilizzando 2 milioni di ore GPU assegnate attraverso l’AI Grand Challenge. TildeOpen offre prestazioni competitive rispetto ai modelli globali dominanti, mantenendo al contempo piena conformità con l’AI Act e garantendo che i dati rimangano all’interno dell’infrastruttura europea.
Implicazioni giuridiche e regolamentari
L’evoluzione dei modelli di intelligenza artificiale solleva numerose questioni giuridiche di rilevanza crescente per i professionisti del diritto. L’AI Act dell’Unione Europea, che diverrà pienamente operativo nell’agosto 2026, introduce un quadro regolamentare basato sul rischio che classifica i sistemi di intelligenza artificiale in diverse categorie, con obblighi di conformità progressivamente più stringenti per i sistemi ad alto rischio.
I modelli discussi in questo contributo rientrano potenzialmente in diverse categorie di rischio a seconda delle modalità di implementazione. L’utilizzo di sistemi di intelligenza artificiale generativa in contesti professionali regolamentati (quali la redazione di atti legali, l’analisi contrattuale o la ricerca giurisprudenziale) richiede particolare attenzione ai requisiti di trasparenza, spiegabilità e supervisione umana previsti dalla normativa europea.
La questione della proprietà intellettuale costituisce un ulteriore nodo critico: i modelli sono addestrati su vasti corpus di dati che possono includere materiale protetto da copyright, sollevando interrogativi sulla legittimità di tale utilizzo ai sensi delle eccezioni per text e data mining previste dalla Direttiva Copyright nel Mercato Unico Digitale. I modelli open source europei si propongono di affrontare questa problematica attraverso la documentazione trasparente delle fonti di addestramento e l’adesione a licenze open source conformi agli standard OSI (Open Source Initiative).
La responsabilità per eventuali output errati o dannosi generati dai sistemi di intelligenza artificiale rappresenta una questione giuridica complessa, che coinvolge sia i fornitori dei modelli sia gli utilizzatori finali. L’emergente giurisprudenza europea dovrà delineare i contorni della responsabilità extracontrattuale in questo ambito, bilanciando l’esigenza di tutelare i soggetti danneggiati con la necessità di non soffocare l’innovazione tecnologica.
Dove sta andando l’intelligenza artificiale
L’analisi comparativa dei principali modelli di intelligenza artificiale generativa attualmente disponibili evidenzia una convergenza tecnologica verso capacità sempre più avanzate di ragionamento, comprensione multimodale e adattabilità contestuale. Ciascun operatore del settore ha adottato strategie distintive: Google privilegia l’integrazione immediata nell’ecosistema di prodotti esistente, OpenAI enfatizza la personalizzazione dell’esperienza utente, Anthropic propone un approccio stratificato orientato ai flussi di lavoro agentici, mentre l’Europa persegue la sovranità digitale attraverso modelli open source multilingue.
Per i professionisti del diritto e le istituzioni giuridiche, la comprensione approfondita di queste tecnologie diviene essenziale per navigare le complesse questioni normative che esse sollevano. L’AI Act europeo costituisce un tentativo ambizioso di regolamentare un settore in rapida evoluzione, ma la sua efficacia dipenderà dalla capacità di adattamento alle innovazioni tecnologiche future e dalla cooperazione internazionale nella definizione di standard comuni.
L’adozione responsabile dell’intelligenza artificiale generativa negli ambiti giuridici richiederà un approccio equilibrato che valorizzi le potenzialità di efficientamento e miglioramento della qualità dei servizi, senza compromettere i principi fondamentali di trasparenza, accountability e tutela dei diritti fondamentali che costituiscono il nucleo essenziale dell’ordinamento giuridico europeo.
La tutela della privacy nell’Utilizzo dei modelli di intelligenza artificiale: obblighi e buone prassi per i professionisti legali
Una questione di cruciale rilevanza per i professionisti del settore legale riguarda la tutela della riservatezza dei dati trattati mediante sistemi di intelligenza artificiale generativa. L’utilizzo di modelli cloud-based comporta inevitabilmente il trasferimento di informazioni ai server dei fornitori dei servizi, con conseguenti implicazioni in termini di protezione dei dati personali ai sensi del Regolamento (UE) 2016/679 (GDPR) e del Codice della Privacy italiano.
Gli avvocati e i professionisti legali sono vincolati da stringenti obblighi di riservatezza professionale, sanciti dall’articolo 9 del Codice Deontologico Forense, che impone il segreto su tutto ciò di cui l’avvocato è venuto a conoscenza in ragione del proprio mandato. Il caricamento di atti processuali, contratti, pareri legali o qualsiasi documento contenente dati personali dei clienti su piattaforme di intelligenza artificiale online costituisce un trattamento di dati che deve essere attentamente valutato alla luce dei principi di liceità, correttezza, trasparenza, minimizzazione e integrità sanciti dal GDPR.
È pertanto assolutamente imprescindibile che i professionisti legali procedano ad una preventiva anonimizzazione dei documenti prima del loro caricamento sui modelli di intelligenza artificiale online. Tale processo deve garantire la rimozione o la pseudonimizzazione di tutti gli elementi identificativi, quali nomi, cognomi, indirizzi, codici fiscali, numeri di telefono, indirizzi email e qualsiasi altro dato che possa consentire, direttamente o indirettamente, l’identificazione delle persone fisiche coinvolte. L’anonimizzazione non costituisce un mero adempimento formale, bensì rappresenta una condizione necessaria per il rispetto del principio di minimizzazione dei dati e per la tutela dei diritti fondamentali degli interessati.
Ulteriori cautele devono essere adottate nella selezione dei fornitori di servizi di intelligenza artificiale, privilegiando soluzioni che offrano garanzie adeguate in termini di localizzazione dei dati, misure di sicurezza implementate, politiche di conservazione e possibilità di controllo sui dati trattati. I modelli open source eseguibili in locale rappresentano, da questo punto di vista, un’alternativa particolarmente interessante, in quanto consentono di mantenere i dati all’interno dell’infrastruttura controllata dal professionista o dallo studio legale, eliminando i rischi connessi al trasferimento verso server di terze parti.
Usare l’AI in sicurezza e nel rispetto della privacy – l’anonimizzazione dei dati personali
La formazione continua dei professionisti legali su questi temi assume carattere prioritario. In tale contesto, si segnala il webinar gratuito organizzato da Maat – LegalPaperless dal titolo “Usare l’AI in sicurezza e nel rispetto della privacy – l’anonizzazione dei dati personali”, che si terrà il giorno 18 dicembre 2025 dalle ore 14:30 alle ore 16:30.
L’evento formativo affronterà specificamente le problematiche connesse all’utilizzo sicuro dell’intelligenza artificiale nella pratica legale, con particolare riferimento agli adempimenti privacy e alle best practices operative. Il webinar rappresenta un’occasione preziosa per approfondire gli aspetti tecnici e normativi dell’anonimizzazione documentale e per acquisire competenze pratiche nell’implementazione di protocolli di sicurezza conformi alla normativa vigente.




