di Elisabetta Zimbè Zaire – Avvocato in Busto Arsizio
L’ingresso dell’Intelligenza Artificiale nel “dominio giustizia” non è più una previsione futuristica, ma una complessa realtà operativa che chiama in causa i pilastri stessi del giusto processo e dell’autonomia decisionale del giudice. In risposta a questa ineludibile evoluzione tecnologica, il Consiglio Superiore della Magistratura (CSM) ha posto un fondamentale punto fermo. Con la delibera plenaria dell’8 ottobre 2025, l’organo di autogoverno della magistratura ha infatti formalizzato il primo quadro organico di principi e cautele per l’impiego dell’IA, specie generativa e predittiva, nell’attività giudiziaria. La risoluzione, lungi dall’essere un semplice vademecum, si configura come una vera e propria Tabella di marcia strategica, proiettata all’attuazione del Regolamento UE 2024/1689 (AI Act) e della Legge Italiana sull’Intelligenza Artificiale (DDL n. 1146/2025). Il dictum del CSM è inequivocabile: l’innovazione deve subordinarsi alla sovranità della decisione umana e alle inderogabili esigenze di trasparenza algoritmica e tutela del dato processuale.
Il vincolo etico e giuridico
Il CSM fonda le proprie raccomandazioni sulla constatazione che l’IA, sebbene idonea a supportare le attività di studio e di gestione documentale, veicola rischi sistemici in termini di protezione dei dati, pregiudizio algoritmico (bias) e responsabilità decisoria.
La compatibilità dell’IA con la funzione giurisdizionale è condizionata al rigoroso rispetto dei principi fondamentali, in coerenza con la Carta Etica Europea sull’uso dell’AI nei sistemi giudiziari (CEPEJ-Commissione Europea per l’Efficacia della Giustizia, 2018).
Le condizioni essenziali di ammissibilità sono:
- L’IA deve rimanere subordinata all’autonomia valutativa del giudice, operando in una logica di supervisione umana continua (Human-in-the-Loop).
- Devono essere assicurate la trasparenza e la verificabilità dell’elaborazione algoritmica, garantendo l’assenza di opacità.
- Deve essere garantita la parità informativa tra le parti in ogni fase di eventuale impiego.
- Deve essere rispettata la coerenza con i principi di legalità e giusto processo.
Il principio è categorico: il magistrato detiene la riserva di decisione sull’interpretazione del diritto, la valutazione dei fatti e l’adozione dei provvedimenti. Il giudizio, pertanto, si configura come atto insostituibilmente personale e relazionale, impermeabile alla sostituzione del pensiero libero e critico.
Rischi e profilassi operativa
Il documento consiliare osserva che l’uso di sistemi di IA generativa, operanti su logiche probabilistiche (non-deterministica), comporta una serie di rischi che minacciano sia l’integrità del sistema informativo, sia la qualità dell’atto decisorio.
Un primo e grave ordine di problemi è legato alla sicurezza e alla riservatezza. L’esternalizzazione dei dati a sistemi IA non locali (off-premises) può determinare il trasferimento su server di terze parti, anche extra-UE, configurando un potenziale grave pregiudizio (vulnus) alla riservatezza dei dati sensibili e al principio di sovranità del dato giudiziario. Questo comporta il rischio concreto che l’uso di piattaforme non controllate esponga a violazione di dati personali (data breach) e a fenomeni di profilazione indebita.
In secondo luogo, l’analisi si concentra sul pregiudizio algoritmico e l’inaffidabilità. L’IA, lungi dall’essere un dispositivo neutrale, introietta e spesso amplifica i pregiudizi insiti nel patrimonio informativo di addestramento. Ne consegue un rischio di distorsione algoritmica, che può generare output non conformi o le note “allucinazioni” (contenuti privi di fondamento oggettivo). A ciò si aggiunge la variabilità e disomogeneità dell’Output; l’impiego del medesimo comando di interrogazione (prompt) può generare, in modelli probabilistici, risposte disomogenee e diverse nel tempo, compromettendo l’uniformità e l’affidabilità.
Per contrastare questi rischi, sono state impartite precise cautele operative e obblighi di vigilanza. A livello cautelare, è fatto divieto assoluto di immettere in sistemi IA esterni dati sensibili, riservati o coperti da segreto investigativo/processuale (Protezione del dato giudiziario). A livello processuale, è prescritta la verifica umana costante e obbligatoria sull’accuratezza (Supervisione umana rigorosa), con l’obbligo per il magistrato di replicare autonomamente le conclusioni (principio di replicabilità). Fondamentale, infine, è l’assunto che la responsabilità personale delle scelte compiute con il supporto dell’IA rimane integralmente in capo al magistrato.
Piano operativo di transizione: il divieto di automatizzazione e la funzione strumentale
Nelle more dell’entrata in vigore del regime europeo (agosto 2026), il CSM ha tracciato una distinzione netta tra le applicazioni ammissibili e quelle precluse, definendo in modo puntuale la funzione strumentale dell’IA.
Il divieto di utilizzo nell’attività decisoria è tassativo: è escluso l’utilizzo non autorizzato di sistemi di IA che incidano direttamente sull’attività valutativa del giudice o sull’elaborazione della motivazione. L’IA non può partecipare alla formazione del convincimento né alla stesura del decisum finale. Il divieto sanziona ogni forma di automatizzazione del giudizio.
Per contro, l’uso è circoscritto alle attività ammissibili e ai compiti procedurali limitati (art. 6, par. 3, lett. a, AI Act). Tali impieghi devono avvenire in modalità tracciata, sicura e con revisione umana, e tramite strumenti forniti o autorizzati dal Ministero della Giustizia.
In questo ambito circoscritto, rientrano:
- Ricerca giurisprudenziale e dottrinale: Supporto alla costruzione di stringhe di ricerca e classificazione tematica;
- Gestione documentale: Sintesi e creazione di abstract per l’archiviazione interna;
- Supporto amministrativo e organizzativo: Redazione di report statistici, gestione dei calendari d’udienza e comparazione documentale;
- Supporto agli affari semplici: Ausilio in attività seriali e a bassa complessità giuridica con redazione di bozze standardizzate;
- Revisione linguistica: Controllo di coerenza sintattica e stilistica; traduzione preliminare di documenti giuridici (subordinata a verifica umana).
La prospettiva futura: autonomia tecnologica e competenze professionali
Il CSM orienta la fase transitoria verso una sperimentazione controllata e un’accelerazione della crescita culturale, al fine di scongiurare un gap operativo, ponendo l’accento su due direttrici prioritarie.
Per garantire la sovranità del dato, si sollecita il Ministero della Giustizia a progettare un Sistema di IA Nazionale (On-Premise), interno al “dominio giustizia”, basato su infrastrutture pubbliche e controllate. Tale modello garantirebbe l’autonomia tecnologica e la necessaria protezione dei dati giudiziari.
Parimenti essenziale è la formazione specialistica dei magistrati. La conoscenza dei meccanismi probabilistici e dei concetti di pregiudizio algoritmico e di errore statistico è condizione essenziale per l’uso consapevole. L’obiettivo è preservare il “tempo della decisione“, permettendo al giudice di esercitare un controllo critico effettivo e di contrastare l’automation bias (la tendenza ad accettare acriticamente l’output della macchina).
Conclusioni
Le raccomandazioni del CSM, pur sancendo un divieto funzionale all’automatizzazione del giudizio, definiscono una strategia di integrazione prudente e graduale. L’obiettivo ultimo è preparare la magistratura all’impatto inevitabile dell’IA, preservando intatta la dignità, la libertà e la responsabilità del giudicare.




