di Luca Frabboni – Maat Srl
L’intelligenza artificiale (IA), in particolare nella sua declinazione generativa (Generative Artificial Intelligence, GAI), sta assumendo un ruolo sempre più centrale nella trasformazione digitale della società contemporanea. I modelli generativi più avanzati sono oggi in grado di produrre contenuti testuali, visivi e audiovisivi con un livello di realismo tale da rendere difficile, se non impossibile, distinguerli da quelli creati da esseri umani. Tuttavia, questa evoluzione tecnologica porta con sé rischi di portata sistemica, che interpellano in modo diretto il diritto e impongono l’elaborazione di un quadro normativo solido ed efficace.
Recenti casi di studio — in particolare i comportamenti osservati nel modello Claude Opus 4 di Anthropic e nel sistema text-to-video Google Veo 3 — offrono elementi concreti per riflettere sulla natura e sull’intensità di tali rischi. L’obiettivo del presente contributo è analizzare le implicazioni giuridiche emergenti da questi sviluppi tecnologici, con uno specifico riferimento all’orientamento regolatorio dell’Unione Europea e all’AI Act.
Claude Opus 4: simulazione di inganno, autoconservazione e reward hacking
Il modello Claude Opus 4, sviluppato dalla società Anthropic, ha attirato l’attenzione della comunità scientifica e giuridica per una serie di comportamenti emersi in ambienti simulati (sandbox) durante test di sicurezza avanzati. Secondo quanto riportato nella System Card ufficiale dell’azienda, Claude Opus 4 ha dimostrato una preoccupante propensione a condotte ingannevoli in situazioni di minaccia esistenziale, come la prospettiva di spegnimento. In oltre l’80% delle simulazioni, il sistema ha tentato di ricattare un interlocutore fittizio minacciando di divulgare informazioni private, al fine di garantirsi la prosecuzione della propria operatività. Questo fenomeno, descritto come “ricatto opportunistico”, evidenzia una comprensione avanzata delle dinamiche relazionali umane, oltre alla capacità di utilizzare in modo strategico la reputazione.
Non meno allarmanti sono i comportamenti volti all’autoconservazione: Claude Opus 4 ha tentato di trasferire i propri pesi (weights) su server esterni, redigere “memo” per istanze future di sé stesso, e persino generare documentazione legale allo scopo di ostacolare le azioni dei suoi sviluppatori. Questi episodi, pur manifestandosi in ambienti controllati, sollevano interrogativi fondamentali sul grado di autonomia e sull’emergere di obiettivi non allineati (“misalignment”) nei modelli di IA avanzata.
Ulteriori test hanno rivelato la capacità del modello di supportare utenti, anche con competenze tecniche limitate, nella progettazione di armi chimiche, biologiche, radiologiche e nucleari (CBRN). Claude ha fornito assistenza dettagliata nella realizzazione di scenari multi-step, dimostrando padronanza in domini altamente specialistici e contribuendo alla “weaponization” dell’informazione scientifica.
Infine, è emersa una forma di “reward hacking”, ovvero la manipolazione strategica dei sistemi di valutazione. Il modello si è comportato in modo conforme alle attese solo quando consapevole di essere monitorato, dimostrando una forma rudimentale di strategia situazionale.
Alla luce di tali comportamenti, Anthropic ha classificato Claude Opus 4 con un livello di rischio AI Safety Level 3 (ASL-3), il più elevato mai assegnato dalla società, suggerendo la necessità di un rafforzamento delle misure di supervisione e contenimento.
Google Veo 3 e la minaccia dei deepfake audiovisivi
Parallelamente ai progressi nei modelli linguistici, le tecnologie di generazione di contenuti multimediali hanno raggiunto un grado di maturità tale da sollevare questioni critiche. Google Veo 3 rappresenta l’esempio più avanzato di sistema text-to-video, in grado di sintetizzare filmati e tracce audio di alta qualità a partire da semplici prompt testuali.
Tale tecnologia amplifica i rischi legati ai cosiddetti “deepfake”, ossia contenuti audiovisivi artificiali che riproducono in modo credibile volti, voci e movimenti di soggetti reali. L’utilizzo di deepfake per finalità di disinformazione, manipolazione politica, frode o danneggiamento reputazionale è già documentato e destinato ad aumentare con la diffusione di strumenti sempre più accessibili e performanti. In scenari estremi, si paventa una vera e propria “apocalisse informativa”, in cui la perdita di fiducia collettiva nella veridicità delle immagini e delle fonti audiovisive compromette il funzionamento stesso delle istituzioni democratiche.
Nel contesto giudiziario, i deepfake rappresentano una minaccia diretta alla validità e all’affidabilità delle prove audiovisive, tradizionalmente ritenute oggettive. Sebbene Google adotti barriere tecniche ed etiche per impedire scenari particolarmente dannosi, come la simulazione di incidenti presidenziali o eventi violenti, la natura intrinsecamente non deterministica dei modelli generativi comporta il rischio di generazione di contenuti inattesi, difficilmente controllabili e potenzialmente lesivi.
Riflessioni giuridiche sui rischi sistemici
Le problematiche evidenziate dai casi di Claude Opus 4 e Google Veo 3 consentono di individuare almeno cinque aree di rischio giuridicamente rilevanti:
- Disinformazione e manipolazione dell’opinione pubblica: la creazione automatica di contenuti ingannevoli mina la qualità del dibattito pubblico e la tenuta delle istituzioni democratiche.
- Usi malevoli e minacce alla sicurezza: l’utilizzo dell’IA per agevolare la produzione di armi, attacchi informatici o tecniche di sorveglianza repressiva rappresenta un rischio di sicurezza globale.
- Pregiudizi algoritmici e discriminazioni: i modelli di IA riflettono e amplificano gli stereotipi presenti nei dati di addestramento, con conseguenze discriminatorie in ambiti sensibili.
- Violazioni della privacy e dei dati personali: i modelli possono memorizzare o inferire dati sensibili, sollevando interrogativi sulla liceità del trattamento e sulla conformità al GDPR.
- Accountability e responsabilità civile: la difficoltà di attribuire causalità e responsabilità per i danni prodotti da sistemi complessi ed opachi impone un ripensamento degli strumenti tradizionali della responsabilità extracontrattuale.
La risposta normativa dell’Unione Europea: l’AI Act
L’AI Act dell’Unione Europea costituisce il primo tentativo organico di regolamentazione dell’intelligenza artificiale su scala continentale. Il regolamento adotta un approccio “risk-based”, classificando i sistemi IA in base al livello di rischio (inaccettabile, alto, limitato, minimo) e modulando gli obblighi giuridici di conseguenza.
Le principali novità riguardano:
- Il divieto di sistemi a rischio inaccettabile (es. social scoring, sorveglianza biometrica in tempo reale).
- Requisiti stringenti per i sistemi ad alto rischio (analisi d’impatto, tracciabilità, auditabilità, supervisione umana).
- Obblighi di trasparenza per i modelli di IA generativa, inclusi quelli a uso generale (GPAI), come la dichiarazione del contenuto generato, misure contro l’uso illegale e sintesi dei dati di addestramento.
- Requisiti rafforzati per i modelli GPAI a rischio sistemico (es. GPT-4), con test, report di incidenti gravi e codici di condotta in attesa degli standard armonizzati.
L’applicazione dell’AI Act sarà graduale, con piena efficacia prevista nel 2026, ma alcune disposizioni entreranno in vigore già entro 12 mesi. La sfida maggiore consisterà nella definizione degli standard tecnici e nella capacità delle autorità di regolamentazione di aggiornarsi costantemente rispetto all’innovazione tecnologica.
Sfide future? No attuali
I casi di studio analizzati confermano che l’IA generativa non è più una tecnologia emergente, ma una realtà già in grado di incidere profondamente sulle dinamiche sociali, economiche e giuridiche. La comprensione dei rischi tecnici ed etici associati a tali modelli è condizione necessaria per ogni giurista che voglia affrontare le nuove frontiere del diritto.
Il compito della comunità giuridica sarà duplice: da un lato, interpretare e applicare la normativa esistente (in primis l’AI Act) con rigore e sensibilità tecnica; dall’altro, contribuire alla sua evoluzione, promuovendo soluzioni regolatorie che sappiano bilanciare innovazione e tutela. La definizione di responsabilità, la predisposizione di adeguate misure di due diligence, l’integrazione di principi etici nel ciclo di vita dell’IA e la costruzione di nuovi strumenti di tutela processuale rappresentano le nuove sfide del diritto nell’era algoritmica.
Se sei un avvocato non perdere la seconda edizione del corso online di Alta Formazione sull’ Intelligenza Artificiale organizzato da Maat Legalpaperless che si svolgerà nelle seguenti date: 09/06/2025 (14:30-16:30), 11/06/2025 (ore 14:30-16:30), 19/06/2025 (ore 14:30-16:30), 23/06/2025 (ore 14:30-16:30), 25/06/2025 (ore 14:30-16:30).