Quando l’IA non basta: la lite temeraria per un ricorso redatto con intelligenza artificiale. Tribunale di Torino sentenza 2120/2025

di Elisabetta Zimbè Zaire – Avvocato in Busto Arsizio

Il 16 settembre 2025 il Tribunale di Torino, Sezione Lavoro, con la sentenza n. 2120, ha scritto una pagina destinata a rimanere nella giurisprudenza italiana: per la prima volta è stata riconosciuta la responsabilità aggravata ex art. 96, comma 3, c.p.c. per un ricorso redatto con il supporto dell’intelligenza artificiale e privo del necessario controllo umano.

I fatti del caso

La vicenda prende le mosse da un’opposizione proposta contro avvisi di addebito e atti esecutivi già notificati alla parte ricorrente. L’atto introduttivo del giudizio, come sottolinea il Tribunale, risultava redatto con il supporto di strumenti di intelligenza artificiale generativa, ma conteneva citazioni normative e giurisprudenziali astratte, prive di ordine logico e inconferenti. Inoltre, mancavano allegazioni concrete e riferimenti puntuali alla vicenda oggetto di causa.

Secondo il giudice, l’atto non costituiva un vero strumento processuale ma un mero ostacolo all’attività del creditore e all’amministrazione della giustizia.

La decisione del Tribunale di Torino

Il Tribunale ha qualificato la condotta come espressione di malafede o, quantomeno, colpa grave, ritenendo integrati i presupposti dell’art. 96, comma 3, c.p.c. La parte ricorrente è stata pertanto condannata a:

  • pagare 500 euro in favore di ciascuna parte convenuta, a titolo di responsabilità aggravata;
  • rifondere le spese processuali.

La sentenza sottolinea che l’uso dell’IA non esonera dall’obbligo di diligenza e verifica, imponendo all’avvocato – o alla parte – il controllo critico e professionale sull’elaborato.

Il precedente di Firenze: un diverso approccio

Il tema non è del tutto inedito. Il Tribunale di Firenze, Sezione Imprese, con ordinanza del 14 marzo 2025, aveva già affrontato un caso simile: un avvocato aveva depositato una memoria contenente citazioni di sentenze inesistenti, generate da un modello linguistico. In quell’occasione:

  • il professionista aveva ammesso l’errore;
  • aveva chiesto lo stralcio delle citazioni;
  • aveva dimostrato trasparenza nella condotta.

Il giudice fiorentino escluse quindi la lite temeraria, qualificando l’accaduto come una negligenza e non come un atto in malafede o con colpa grave.

Il quadro normativo: art. 96 c.p.c.

L’art. 96 c.p.c. disciplina la responsabilità aggravata:

  • comma 1: condanna al risarcimento del danno in caso di malafede o colpa grave;
  • comma 3: sanzione pecuniaria in favore della controparte quando il comportamento processuale si rivela abusivo.

Il punto centrale è l’elemento soggettivo: a Torino il giudice ha ravvisato un vero abuso del processo; a Firenze, invece, l’errore fu ricondotto a mera superficialità.

Implicazioni professionali ed etiche

La sentenza di Torino rappresenta un campanello d’allarme per la professione forense:

  1. Responsabilità professionale – L’avvocato non può affidarsi ciecamente all’IA: deve verificarne i contenuti e valutarne la pertinenza. In caso contrario, rischia conseguenze economiche e disciplinari.
  2. Deontologia – Il Codice Deontologico impone all’avvocato il dovere di competenza e di lealtà processuale. Usare l’IA senza controllo mina la fiducia nel ruolo dell’avvocato come custode della legalità.
  3. Efficienza processuale – Atti infondati e viziati appesantiscono il sistema giustizia, già gravato da carichi eccessivi.

Tecnologia e diritto: un equilibrio necessario

L’intelligenza artificiale è uno strumento potente: può velocizzare ricerche giurisprudenziali, aiutare nella stesura di bozze, supportare l’organizzazione di studi legali. Tuttavia, la sentenza di Torino segna un limite preciso: la tecnologia non sostituisce il giudizio critico e la diligenza dell’avvocato.

Il rischio non è solo la condanna economica, ma la perdita di credibilità professionale. L’IA deve restare un mezzo, non un fine.

Il confronto tra Torino e Firenze evidenzia la linea sottile tra errore professionale e abuso del processo. Laddove vi siano malafede o colpa grave, il giudice non esiterà a sanzionare la parte che usa l’IA come scorciatoia per introdurre cause infondate.

La lezione è chiara: nell’era digitale, l’avvocato deve essere non un semplice trascrittore di output tecnologici, ma il garante del diritto, della correttezza e dell’etica processuale.