Citazioni allucinate e responsabilità professionale: quando l’uso dell’IA integra colpa grave ex art. 96 c.p.c.

di Elisabetta Zimbè Zaire – Avvocato in Busto Arsizio

Il perimetro della responsabilità professionale che la giurisprudenza di merito sta delineando attorno all’impiego dei sistemi di Intelligenza Artificiale (IA) generativa si fa, mese dopo mese, sempre più rigoroso. Se il Tribunale di Firenze, nel marzo 2025, aveva inizialmente escluso la colpa grave trattando il fenomeno come un’incognita tecnologica, la recente sentenza del Tribunale di Siracusa, Sez. II, 20 febbraio 2026, n. 338, segna il superamento di ogni indulgenza. La curva sanzionatoria è ascendente: la tolleranza per l’errore algoritmico si è azzerata, lasciando il posto a condanne pecuniarie che travalicano la soglia dei trentamila euro.

Anatomia di un disastro processuale: il caso Siracusa

La vicenda approdata dinanzi al Giudice Alfredo Spitaleri rappresenta l’archetipo del rischio da automazione acritica nel ministero difensivo. In una lite risarcitoria legata a un inadempimento contrattuale, la difesa attorea ha fondato la propria strategia ermeneutica sulla citazione di quattro precedenti di legittimità (Cass. n. 1216/2000, n. 8379/2006, n. 14795/2003 e n. 4553/2004), corredandoli con virgolettati testuali presentati come estratti letterali.

Il vaglio del magistrato attraverso il CED della Cassazione ha tuttavia rivelato una realtà distopica: nessuna delle sentenze richiamate conteneva quei passaggi. In alcuni casi i numeri di ruolo afferivano a materie totalmente estranee, in altri i contenuti erano stati costruiti ex novo con una coerenza stilistica e un tono autoritativo tali da indurre in errore il lettore. Il Tribunale, mediante un ragionamento per esclusione che ha scartato il malfunzionamento delle banche dati professionali e l’errore mnemonico, ha individuato nell’impiego di un Large Language Model (LLM) l’unica origine plausibile della “fabbricazione” di tali sentenze fantasma.

Il regime sanzionatorio: l’art. 96 c.p.c. come presidio di verità

Il nucleo dogmatico della pronuncia risiede nella qualificazione della condotta del difensore in termini di colpa grave. Il Giudice ha stabilito che costituisce ormai “fatto notorio” la natura dei sistemi di IA generativa: essi non sono archivi documentali, bensì motori inferenziali basati sulla probabilità statistica. L’avvocato che abdica alla verifica delle fonti primarie viola il dovere di lealtà e probità (art. 88 c.p.c.) e aggrava inutilmente l’attività giudiziaria, costringendo il magistrato e la controparte a un vano dispendio di energie per la verifica di citazioni inesistenti.

La sanzione irrogata riflette la gravità di tale rinuncia alla centralità della decisione umana. Oltre alle spese di lite (14.103 euro), la parte è stata colpita da una condanna di pari importo per responsabilità aggravata ex art. 96, comma 3, c.p.c. e da una sanzione di 2.000 euro in favore della Cassa delle Ammende ex comma 4, introdotto dalla riforma Cartabia con finalità deflattive e di contrasto all’abuso del processo.

Il precedente milanese e la “validazione epistemica”

L’orientamento siracusano trova sponda nella sentenza n. 3348/2025 del TAR Lombardia, che per fattispecie analoghe ha disposto la trasmissione degli atti all’Ordine degli Avvocati per le valutazioni disciplinari. Il richiamo alla Carta HOROS di Milano e alle linee guida del CCBE di ottobre 2025 evidenzia come la firma di un atto processuale costituisca, oggi più che mai, un atto di validazione epistemica.

Il difensore non è un mero veicolo di output algoritmici, ma il garante della verità delle allegazioni. Sottoscrivere un atto contenente citazioni inesistenti significa assumersi la paternità di un falso, poiché la firma attesta che il professionista ha operato quel vaglio critico che è l’essenza stessa della sua funzione sociale.

La forma non sostituisce la prova

In definitiva, la maturità digitale dello studio legale non risiede più nella rapidità di adozione di strumenti generativi, bensì nella capacità di integrarli entro il perimetro invalicabile della diligenza professionale qualificata (art. 1176, comma 2, c.c.).

In un’epoca caratterizzata dalla “plausibilità statistica” delle macchine, il ruolo dell’avvocato torna a essere quello di custode della verità documentale. Il diritto sta riaffermando un principio antico con strumenti nuovi: la forma stilistica perfetta offerta dall’IA non può surrogare la prova della fonte. Quando il legame tra l’enunciato e la sua origine documentale si spezza, la responsabilità professionale riemerge nella sua forma più severa, a presidio della lealtà processuale e della dignità della toga.


L’interesse crescente verso percorsi formativi di questo tipo è legato al fatto che l’intelligenza artificiale non rappresenta più una tecnologia sperimentale ma una componente sempre più diffusa nei processi decisionali e organizzativi. Proprio con questo obiettivo nasce il corso completo in Artificial Intelligence – laboratorio pratico, organizzato da Maat LegalPaperless, un percorso formativo esclusivamente online, pensato specificamente per avvocati, collaboratori di studio e professionisti del settore legale interessati ad approfondire le implicazioni tecnologiche e giuridiche dell’AI.

Il ciclo di incontri è strutturato come un laboratorio pratico che consente ai partecipanti non solo di acquisire nozioni teoriche, ma anche di sperimentare concretamente l’utilizzo degli strumenti di intelligenza artificiale nel contesto professionale.

Il percorso complessivo, che inizierà il 9 marzo 2026 (ore 14.30-16.30), ha una durata di 10 ore di formazione e si articola in cinque moduli tematici, tra loro collegati ma fruibili anche singolarmente. Questa struttura consente ai partecipanti di affrontare in modo progressivo i diversi aspetti della materia: dalle basi teoriche dell’intelligenza artificiale fino alle applicazioni operative nello studio legale.