di Elisabetta Zimbè Zaire – Avvocato in Busto Arsizio
L’IA non è più un’ipotesi accademica, ma uno strumento già presente nelle cancellerie e negli studi legali di tutto il mondo. Se l’efficienza è la promessa, la protezione del diritto resta la sfida. Attraverso le sue recenti Linee Guida, l’UNESCO stabilisce i paletti necessari affinché l’algoritmo resti un supporto e non si trasformi in un decisore opaco, privo di responsabilità umana.
1. Il contesto: la fine del “Far West” algoritmico
Il dibattito sull’Intelligenza Artificiale (IA) in ambito legale è transitato, in tempi rapidissimi, dalla speculazione dottrinale all’applicazione pratica. Sebbene l’IA offra soluzioni concrete alla crisi di efficienza dei sistemi giudiziari mondiali (caratterizzati da milioni di cause pendenti), la sua adozione “disomogenea” ha generato un vuoto regolamentare.
Il documento pubblicato dall’UNESCO, frutto di una consultazione globale con oltre 36.000 operatori, si pone come il primo vero quadro deontologico di riferimento universale. Non si tratta di una semplice dichiarazione di intenti, ma di un parametro di riferimento per valutare la legittimità del supporto tecnologico nel processo decisionale pubblico e privato.
2. Il principio di Trasparenza: dall’opacità algoritmica all’auditabilità dinamica
Il cuore pulsante del Manifesto UNESCO risiede nel principio di Trasparenza, un concetto che evolve da mera “conoscibilità” a vera e propria auditabilità dinamica. In un sistema di Civil Law, dove la motivazione della sentenza costituisce il baluardo insuperabile della democrazia e del controllo di legittimità, l’adozione di algoritmi “opachi” (le cosiddette black box) rappresenta una minaccia diretta all’obbligo di motivazione sancito dalla Costituzione.
Affinché una decisione sia legittima, il percorso logico-giuridico deve essere ripercorribile; se questo percorso è mediato da una macchina, la “scatola nera” deve essere scoperchiata attraverso due direttrici fondamentali:
A. Repository e pubblicità proattiva
L’UNESCO sollecita le autorità giudiziarie a istituire archivi pubblici digitali che fungano da registro di trasparenza. Questi non devono limitarsi a elencare i software in uso, ma devono dettagliare:
- I dataset di addestramento: per verificare la pertinenza delle fonti utilizzate e la loro coerenza con l’ordinamento giuridico di riferimento.
- Le variabili di calcolo: ovvero i “pesi” e i parametri che l’algoritmo utilizza per elaborare l’output, garantendo la verificabilità dei criteri logici impiegati.
B. Contestabilità e audit di parte: il nuovo diritto processuale
Dalle linee guida emerge un profilo inedito del diritto di difesa: il diritto delle parti di esaminare il modello logico sottostante l’output dell’IA. La contestabilità non può fermarsi al risultato finale, ma deve potersi estendere ai criteri logici che lo hanno determinato.
In questo senso, l’UNESCO chiarisce un punto di rottura fondamentale: la proprietà intellettuale o il segreto industriale delle software house produttrici non possono costituire un limite invalicabile per il diritto di difesa (Art. 24 Cost.). In un’aula di giustizia, il principio del giusto processo e il diritto alla prova prevalgono sulla tutela del diritto d’autore del codice sorgente.
3. I 15 principi operativi: verso una nuova diligenza professionale
Le linee guida ridefiniscono il concetto di “equo processo” attraverso pilastri dogmatici essenziali:
- Human-in-the-loop (supervisione umana): Il giudice e l’avvocato non possono delegare il mandato decisionale o difensivo. La delega totale all’algoritmo configurerebbe un’omissione di esercizio della funzione giurisdizionale. L’umano deve intervenire in ogni fase: dall’input dei dati alla validazione finale. L’IA resta un “assistente cognitivo”, ma la paternità dell’atto e la relativa responsabilità (civile e penale) restano indissolubilmente legate al professionista, che non può giustificare un errore adducendo il mero malfunzionamento del software.
- Accuratezza ontologica e bias: L’output grammaticalmente perfetto non garantisce la correttezza della sussunzione giuridica. Un errore di contesto normativo rende lo strumento intrinsecamente inidoneo.
- Proporzionalità e sicurezza: Se il rischio di pregiudizio per i diritti fondamentali supera il beneficio atteso in termini di celerità, l’adozione del sistema deve essere inibita.
4. Gestione degli LLM e Segreto Professionale
L’uso di Large Language Models (es. ChatGPT) comporta responsabilità specifiche e non delegabili:
- Protezione del dato e prompting: L’inserimento di dati riservati in sistemi pubblici integra una violazione del segreto professionale a causa del data feeding (riutilizzo dei dati per l’addestramento).
- Contrasto alle “allucinazioni”: La propensione degli LLM a generare citazioni plausibili ma inesistenti impone un onere di verifica puntuale. La citazione di un precedente errato è considerata una negligenza professionale sanzionabile.
Conclusioni: Il pensiero critico come valore residuo
Le linee guida UNESCO (rif. Guidelines for the use of AI systems in courts and tribunals) segnano il passaggio dall’entusiasmo acritico a una gestione consapevole dell’automazione. In questo scenario, la funzione del giurista si evolve: non più solo ricercatore, ma garante dell’etica e della logica del processo. Il futuro della giustizia appartiene a chi saprà governare l’IA attraverso i binari della deontologia internazionale.




