Allucinazioni AI in ambito giudiziario: un fenomeno in rapida espansione

di Luca Frabboni – Maat Srl


L’uso dell’intelligenza artificiale nei contesti legali, pur offrendo potenzialità significative, ha generato un problema crescente di “allucinazioni” – cioè la produzione di contenuti fittizi ma plausibili – che sta minacciando l’affidabilità del sistema giudiziario globale. Secondo l’analisi condotta da Damien Charlotin, autore del sito https://www.damiencharlotin.com/hallucinations/, si è in presenza di una crisi sistemica con caratteristiche allarmanti per estensione, velocità di crescita, diffusione geografica e impatto professionale.

1. Crescita esponenziale del fenomeno

Charlotin ha costruito un database che raccoglie 150 casi documentati a livello globale (dato aggiornato a maggio 2025), partendo da 10 casi nel 2023 fino a 73 nei primi cinque mesi del 2025, di cui oltre 20 solo nel mese di maggio 2025. Secondo l’autore, questa accelerazione segue una curva “almeno quadratica”, segno di un’escalation e non di una stabilizzazione.

2. Distribuzione geografica e demografica

Il fenomeno è stato rilevato in 12 paesi, ma con una predominanza schiacciante degli Stati Uniti (80-85%), seguiti da Regno Unito, Canada, Australia, Brasile e vari paesi europei tra cui l’Italia, dove sono emersi i primi segnali anche nei sistemi di civil law.

Un cambiamento rilevante è avvenuto nella tipologia dei soggetti coinvolti: nel 2023 il 70% dei casi vedeva protagonisti litiganti pro se, mentre nel 2025 sono i professionisti legali ad essere responsabili della maggioranza dei casi, segno che l’uso inconsapevole o scorretto dell’AI si sta diffondendo anche tra operatori esperti.

3. Casi esemplari con gravi conseguenze

Tra i casi più noti:

  • Mata v. Avianca (S.D.N.Y. 2023): un avvocato ha citato sei precedenti inesistenti generati da ChatGPT. La corte ha imposto una sanzione di 5.000 dollari e l’obbligo di scuse ufficiali.
  • Morgan & Morgan v. Walmart (D. Wyo. 2025): uno dei maggiori studi americani ha citato otto casi falsi, subendo sanzioni economiche e disciplinari.
  • Ellis George LLP & K&L Gates (C.D. Cal. 2025): il team ha ricevuto sanzioni per 31.100 dollari per aver incluso 9 citazioni errate in un singolo atto.

Nel Regno Unito, l’Alta Corte ha reagito con durezza: un avvocato ha inserito 18 casi fittizi in una causa da 90 milioni di sterline. I giudici hanno ammonito che simili comportamenti possono costituire perversion of justice, punibile fino all’ergastolo.

Anche in Canada, Australia e Italia si registrano i primi casi (abbiamo parlato qui del provvedimento del Tribunale di Firenze sul tema), confermando l’internazionalità del problema.

4. Perché l’AI “allucina”: cause tecniche

Le allucinazioni derivano dal modo in cui i modelli linguistici (come quelli di tipo transformer) generano testo: predizione statistica del token successivo sulla base di pattern appresi. In ambito legale, i modelli ricompongono strutture citazionali plausibili (es. “Rossi v. Verdi, Cass. civ. Sez. II, n. 123/2021”) che però non corrispondono a casi reali.

Problemi tecnici specifici includono:

  • Maldirezione del meccanismo di attenzione.
  • Decodifica non controllata (es. top-k sampling).
  • Interpolazione errata tra documenti simili nei dati di addestramento.

Secondo una ricerca di Stanford RegLab, i tassi di allucinazione sono elevati in tutti i modelli AI più usati:

  • GPT-3.5: 69-75%
  • GPT-4: 58-69%
  • LLaMA 2: 88%
  • PaLM 2: 82%

Anche modelli ottimizzati per il ragionamento mostrano tassi del 33-48%. Il paradosso è che modelli più potenti creano contenuti più persuasivi, ma non necessariamente più veri.

5. Implicazioni professionali e regolatorie

Le allucinazioni non sono solo un problema tecnico, ma ormai una questione disciplinare e deontologica.

Sanzioni crescenti e responsabilità professionale

  • Negli Stati Uniti le sanzioni economiche sono in aumento: si passa da casi con $1.000-$5.000 a sanzioni che superano i $10.000.
  • L’intero studio legale può essere ritenuto responsabile per errori dei collaboratori.
  • Secondo il Model Rule 1.1, gli avvocati devono conoscere i rischi delle tecnologie usate, AI inclusa.

Mancanza di formazione e governance AI

Dati dell’American Bar Association mostrano una scarsa preparazione:

  • Il 52% degli studi non ha alcuna politica sull’uso dell’AI.
  • Il 64% dei legali non ha ricevuto alcuna formazione.
  • Solo l’11% degli avvocati usava AI nel 2023; il dato è salito al 30% nel 2024.

Tuttavia, solo una minoranza verifica sistematicamente gli output.

6. Risposte normative: AI Act europeo e Italia

L’AI Act dell’Unione Europea classifica l’uso dell’AI per applicare o interpretare norme giuridiche come uso ad alto rischio, imponendo:

  • Obbligo di trasparenza.
  • Supervisione umana significativa.
  • Valutazioni di conformità ex ante.

In caso di violazioni, le sanzioni possono arrivare a 35 milioni di euro o al 7% del fatturato globale.

In Italia, il DDL sull’ Intelligenza Artificiale approvato al Senato il 19 marzo scorso (qui il mio approfondimento) prevede tra le altre cose:

  • Limitazioni dell’uso dell’AI a funzioni accessorie nelle professioni regolamentate.
  • Obbligo di disclosure al cliente.
  • Divieto di delegare all’AI le decisioni giuridiche sostanziali.
  • Obbligo di verifica professionale degli output.

L’Ordine Avvocati di Milano già a dicembre 2024 ha pubblicato la carta dei principi per un uso consapevole dei sistemi di intelligenza artificiale in ambito forense.

7. Best practices e strumenti di verifica

Per evitare allucinazioni, Charlotin e altre fonti suggeriscono protocolli rigorosi:

Verifica multi-livello

  • Controllo delle citazioni con fonti primarie ufficiali (es. Lexis, Westlaw, giurisprudenza pubblica).
  • Revisione tra colleghi dei contenuti AI, documentando il processo.
  • Verifica manuale della prima pagina di ogni caso citato.

Strumenti tecnici affidabili ma non infallibili

  • CoCounsel (Thomson Reuters) e Lexis+ AI: basati su database legali chiusi, ma con tassi di errore residui del 17-33%.
  • Strumenti di validazione: KeyCite, Shepard’s, Brief Analyzer, BCite.

Formazione professionale continua

Programmi universitari (Harvard, Yale, Berkeley) e professionali (es. National Judicial College) ora includono moduli su:

  • Limiti tecnici dell’AI.
  • Verifica e gestione del rischio.
  • Etica e responsabilità legale.

8. La soluzione non può essere rinunciare all’uso dell’AI

Il fenomeno delle allucinazioni AI in ambito legale non è un’anomalia occasionale, ma una crisi strutturale in atto. Con una crescita esponenziale dei casi, una scarsa consapevolezza professionale e strumenti ancora imperfetti, il rischio per l’affidabilità del sistema giudiziario è concreto.

La soluzione non può essere l’abbandono dell’AI, ma un’adozione responsabile, con protocolli di verifica, formazione continua e normative adeguate.

Come conclude Charlotin, la verifica umana rimane imprescindibile, e l’uso dell’AI deve essere accompagnato da trasparenza, supervisione professionale e obblighi etici rinnovati.

Se sei un avvocato non perdere la seconda edizione del corso online di Alta Formazione sull’ Intelligenza Artificiale organizzato da Maat Legalpaperless che si svolgerà nelle seguenti date: 09/06/2025 (14:30-16:30), 11/06/2025 (ore 14:30-16:30), 19/06/2025 (ore 14:30-16:30), 23/06/2025 (ore 14:30-16:30), 25/06/2025 (ore 14:30-16:30).