di Elisabetta Zimbè Zaire – Avvocato in Busto Arsizio
Con il Regolamento UE 1689/2024, pubblicato in Gazzetta Ufficiale dell’Unione Europea del 12 luglio 2024, viene introdotto c.d. AI Act il primo atto normativo a livello globale, indirizzato a regolamentare in maniera orizzontale il complesso mondo dell’intelligenza artificiale. Gran parte delle norme del regolamento troveranno applicazione dal 1° agosto 2026 ad eccezione di quelle disposizioni inerenti alla classificazione ed obblighi per i sistemi di intelligenza artificiale definiti ad alto rischio che troveranno applicazione a decorrere dal 1° agosto 2027. Altre norme invece come quelle inerenti l’identificazione e notificazione alla Commissione dell’Autorità pubblica nazionale per la tutela dei diritti fondamentali individuata da ciascuno Stato membro dovranno essere applicate già dal 1° novembre 2024; mentre le disposizioni relative ai modelli, nonché quelle inerenti alle sanzioni ed alla governance dell’Unione Europea dal 1° agosto 2025.
L’intelligenza artificiale conversazionale ha fatto molta strada negli ultimi anni, con numerosi modelli e piattaforme sviluppati per consentire alle macchine di comprendere e rispondere agli input del linguaggio naturale. Tra questi c’è Chat GPT, acronimo di Generative Pretrained Transformer: uno strumento di elaborazione del linguaggio naturale (o Natural Language Processing) potente e versatile che utilizza algoritmi avanzati di apprendimento automatico per generare risposte simili a quelle umane all’interno di un discorso. Applicazione quest’ultima che si sta integrando nel settore legale utilizzata da avvocati e Tribunali. L’uso di ChatGPT in ambito giudiziario ha portato alla luce diverse preoccupazioni che meritano un’attenta riflessione. Tra le critiche principali vi è l’affidabilità delle informazioni generate dal modello. Di fatto, ChatGPT è un potente strumento linguistico, ma è stato progettato per produrre testi plausibili basati su una vasta gamma di dati, non per fornire dati verificati. Sebbene le sue risposte possano sembrare precise, non possono essere considerate un sostituto delle fonti di dati verificate, specialmente in contesti dove l’accuratezza è fondamentale.
Ma, a quanto pare, mentre il dibattito teorico prosegue, la realtà va avanti a passo spedito, moltiplicando le possibili applicazioni dell’intelligenza artificiale nell’ambito giuridico.
In territorio nazionale c’è già chi sta ricorrendo all’intelligenza artificiale generativa in ambito processuale, come l’avvocato che ha utilizzato il risultato del sistema di IA per supportare una richiesta di revisione di una sentenza che condannava i suoi assistiti per un reato di abuso edilizio. Tra le prove fornite, per dimostrare ai giudici che l’area in questione non era sottoposta a vincolo ambientale, ha argomentato che “anche l’intelligenza artificiale ChatGPT aveva confermato che l’area in questione non era soggetta a vincoli” e ha – sicuramente in buona fede – conferito alla risposta di ChatGPT il valore di un parere autorevole.
Apprendiamo di questo uso dell’IA generativa di OpenAI dalla sentenza n. 14631/2024 della terza sezione penale della Corte di Cassazione che menziona per la prima volta l’utilizzo di ChatGPT.
Nela sentenza si legge infatti che “…anche l’intelligenza artificiale ChatGPT aveva confermato che l’area in questione non era soggetta a vincoli”.
I ricorrenti avevano quindi utilizzato ChatGPT per confermare che l’area su cui insistevano le costruzioni non era soggetta a vincoli ambientali al momento delle costruzioni. Nemmeno l’intelligenza artificiale è riuscita a far vincere la causa ai ricorrenti; tuttavia, la menzione di ChatGPT in una sentenza è una novità assoluta e solleva questioni significative relative alla veridicità e alla validità delle evidenze basate su AI nei procedimenti legali. In questo specifico caso, l’utilizzo di ChatGPT per affermare l’assenza di vincoli su un’area implica che le prove fornite dall’AI siano state considerate nel contesto delle evidenze presentate. Tuttavia, la Corte di Cassazione ha ritenuto che le conclusioni di ChatGPT non fossero sufficienti a ribaltare la decisione precedente.
Recentemente anche il Rechtbank Gelderland nei Paesi Bassi ha utilizzato ChatGPT in una controversia giuridica. Il caso trattato dal Rechtbank Gelderland coinvolgeva una disputa tra due vicini, uno dei quali aveva aggiunto un piano alla propria abitazione. L’altro vicino, preoccupato per la potenziale riduzione del rendimento dei suoi pannelli solari causata dalla nuova costruzione, ha intentato una causa chiedendo un risarcimento danni. Per risolvere la controversia, il tribunale ha deciso di utilizzare ChatGPT come strumento di supporto per stimare la durata media dei pannelli solari e il prezzo medio attuale per kilowattora (kWh) dell’elettricità.
Il tribunale ha affermato di aver stimato “anche con l’aiuto di ChatGPT” la durata media dei pannelli solari installati dal 2009, fissandola tra i 25 e i 30 anni, con una media di 27,5 anni, ed ha utilizzato lo stesso strumento per determinare il prezzo medio attuale del kWh di elettricità, stimandolo a circa 0,30 euro, con una perdita di ricavi stimata in circa 2.250 euro.
L’uso di ChatGPT da parte del Rechtbank Gelderland solleva importanti riflessioni su come l’intelligenza artificiale possa essere integrata nei processi giudiziari. Da una parte, l’IA offre potenziali vantaggi in termini di efficienza e accesso rapido alle informazioni; dall’altra, bisogna fare attenzione a non compromettere i principi fondamentali di giustizia e trasparenza.
Nella sentenza si fa riferimento al sol uso dello strumento di ChatGPT ma nulla ma non è stato reso noto quali input siano stati forniti a ChatGPT per ottenere le risposte, quale versione di ChatGPT sia stata utilizzata poiché ogni versione del modello ha caratteristiche, capacità e limitazioni uniche e diverse o anche sapere se le informazioni generate da ChatGPT siano state verificate o integrate con altre fonti affidabili. Tutte queste informazioni sono essenziali per comprendere l’affidabilità delle informazioni generate.
L’uso di AI in contesti legali solleva questioni di trasparenza e attendibilità, oltre che di trattamento dei dati e privacy. Le parti in causa e i tribunali devono essere in grado di comprendere come l’AI arriva alle sue conclusioni per garantire che le decisioni siano giuste e fondate su basi solide, questo è cruciale per la legittimità del processo giudiziario.
In conclusione, l’introduzione dell’intelligenza artificiale ha il potenziale di cambiare profondamente il ruolo di avvocati e giudici. Sebbene l’IA possa costituire un valido supporto, è fondamentale che i professionisti del diritto esercitino un controllo rigoroso sulle informazioni e sulle decisioni prese che potrebbe richiedere un continuo aggiornamento e una maggiore consapevolezza delle potenzialità e dei limiti dell’intelligenza artificiale, per garantire che venga utilizzata in modo etico e responsabile. Sarà compito dei giuristi, dei tecnologi e dei legislatori lavorare insieme per garantire che l’intelligenza artificiale possa essere integrata nel sistema legale in modo sicuro, trasparente e giusto.