di Elisabetta Zimbè Zaire – Avvocato in Busto Arsizio
Il 16 settembre 2025 il Tribunale di Torino, Sezione Lavoro, con la sentenza n. 2120, ha scritto una pagina destinata a rimanere nella giurisprudenza italiana: per la prima volta è stata riconosciuta la responsabilità aggravata ex art. 96, comma 3, c.p.c. per un ricorso redatto con il supporto dell’intelligenza artificiale e privo del necessario controllo umano.
I fatti del caso
La vicenda prende le mosse da un’opposizione proposta contro avvisi di addebito e atti esecutivi già notificati alla parte ricorrente. L’atto introduttivo del giudizio, come sottolinea il Tribunale, risultava redatto con il supporto di strumenti di intelligenza artificiale generativa, ma conteneva citazioni normative e giurisprudenziali astratte, prive di ordine logico e inconferenti. Inoltre, mancavano allegazioni concrete e riferimenti puntuali alla vicenda oggetto di causa.
Secondo il giudice, l’atto non costituiva un vero strumento processuale ma un mero ostacolo all’attività del creditore e all’amministrazione della giustizia.
La decisione del Tribunale di Torino
Il Tribunale ha qualificato la condotta come espressione di malafede o, quantomeno, colpa grave, ritenendo integrati i presupposti dell’art. 96, comma 3, c.p.c. La parte ricorrente è stata pertanto condannata a:
- pagare 500 euro in favore di ciascuna parte convenuta, a titolo di responsabilità aggravata;
- rifondere le spese processuali.
La sentenza sottolinea che l’uso dell’IA non esonera dall’obbligo di diligenza e verifica, imponendo all’avvocato – o alla parte – il controllo critico e professionale sull’elaborato.
Il precedente di Firenze: un diverso approccio
Il tema non è del tutto inedito. Il Tribunale di Firenze, Sezione Imprese, con ordinanza del 14 marzo 2025, aveva già affrontato un caso simile: un avvocato aveva depositato una memoria contenente citazioni di sentenze inesistenti, generate da un modello linguistico. In quell’occasione:
- il professionista aveva ammesso l’errore;
- aveva chiesto lo stralcio delle citazioni;
- aveva dimostrato trasparenza nella condotta.
Il giudice fiorentino escluse quindi la lite temeraria, qualificando l’accaduto come una negligenza e non come un atto in malafede o con colpa grave.
Il quadro normativo: art. 96 c.p.c.
L’art. 96 c.p.c. disciplina la responsabilità aggravata:
- comma 1: condanna al risarcimento del danno in caso di malafede o colpa grave;
- comma 3: sanzione pecuniaria in favore della controparte quando il comportamento processuale si rivela abusivo.
Il punto centrale è l’elemento soggettivo: a Torino il giudice ha ravvisato un vero abuso del processo; a Firenze, invece, l’errore fu ricondotto a mera superficialità.
Implicazioni professionali ed etiche
La sentenza di Torino rappresenta un campanello d’allarme per la professione forense:
- Responsabilità professionale – L’avvocato non può affidarsi ciecamente all’IA: deve verificarne i contenuti e valutarne la pertinenza. In caso contrario, rischia conseguenze economiche e disciplinari.
- Deontologia – Il Codice Deontologico impone all’avvocato il dovere di competenza e di lealtà processuale. Usare l’IA senza controllo mina la fiducia nel ruolo dell’avvocato come custode della legalità.
- Efficienza processuale – Atti infondati e viziati appesantiscono il sistema giustizia, già gravato da carichi eccessivi.
Tecnologia e diritto: un equilibrio necessario
L’intelligenza artificiale è uno strumento potente: può velocizzare ricerche giurisprudenziali, aiutare nella stesura di bozze, supportare l’organizzazione di studi legali. Tuttavia, la sentenza di Torino segna un limite preciso: la tecnologia non sostituisce il giudizio critico e la diligenza dell’avvocato.
Il rischio non è solo la condanna economica, ma la perdita di credibilità professionale. L’IA deve restare un mezzo, non un fine.
Il confronto tra Torino e Firenze evidenzia la linea sottile tra errore professionale e abuso del processo. Laddove vi siano malafede o colpa grave, il giudice non esiterà a sanzionare la parte che usa l’IA come scorciatoia per introdurre cause infondate.
La lezione è chiara: nell’era digitale, l’avvocato deve essere non un semplice trascrittore di output tecnologici, ma il garante del diritto, della correttezza e dell’etica processuale.




