di Luca Frabboni – Maat Srl
In data 25 giugno 2025, la Camera dei Deputati ha approvato, in seconda lettura, il disegno di legge A.C. 2316-A, recante “Disposizioni e deleghe al Governo in materia di intelligenza artificiale”, già approvato in prima lettura dal Senato della Repubblica il 20 marzo 2025. L’intervento della Camera ha introdotto alcune limitate modifiche rispetto al testo licenziato da Palazzo Madama, rendendo necessaria una terza lettura al Senato ai sensi dell’articolo 72 della Costituzione, per il completamento dell’iter parlamentare.
Il provvedimento in esame si configura quale primo tentativo sistemico del legislatore italiano di delineare una disciplina nazionale sull’impiego dell’intelligenza artificiale, in coerenza con il Regolamento (UE) 2024/1689 (AI Act), cercando al contempo di preservare le peculiarità del sistema giuridico interno. L’impostazione generale del testo si fonda su un approccio antropocentrico, teso a salvaguardare la centralità dell’essere umano, la supervisione umana e la tutela dei diritti fondamentali nel contesto dell’adozione delle tecnologie di IA.
Le principali modifiche introdotte dalla Camera dei Deputati
Soppressione dell’obbligo di localizzazione dei server
Una delle modifiche maggiormente significative introdotte dalla Camera concerne la soppressione del comma 2 articolo 6 del testo originariamente approvato dal Senato, il quale prevedeva l’obbligo di localizzazione territoriale dei server per i sistemi di IA destinati a impieghi pubblici. La disposizione, nella sua formulazione iniziale, imponeva l’installazione di tali sistemi su server ubicati nel territorio nazionale, salvo eccezioni connesse a operazioni militari all’estero, in funzione della tutela della sovranità e della sicurezza dei dati.
L’abrogazione è avvenuta tramite un emendamento di iniziativa governativa, sostenuto da analoghe proposte provenienti da diversi gruppi parlamentari. Secondo i relativi pareri tecnici, la previsione avrebbe potuto generare difficoltà operative in relazione all’impiego di applicazioni ampiamente diffuse nell’ambito della pubblica amministrazione, basate su infrastrutture cloud geograficamente distribuite.
La modifica si colloca in un’ottica di compatibilità con l’attuale dotazione tecnologica delle amministrazioni pubbliche, contemperando le esigenze di efficienza gestionale e accesso ai servizi digitali con i principi generali di sicurezza e autonomia tecnologica.
Estensione delle garanzie democratiche: dalla tutela istituzionale alla protezione del dibattito pubblico
La modifica introdotta dalla Camera dei Deputati al comma 4 dell’articolo 3 del disegno di legge rappresenta un’evoluzione qualitativa significativa nella concezione delle garanzie democratiche in ambito digitale, ampliando il perimetro di tutela dalle sole istituzioni formali all’intero ecosistema del dibattito democratico.
Il testo originario del Senato si limitava a proteggere “lo svolgimento con metodo democratico della vita istituzionale e politica” e l’esercizio delle competenze degli enti territoriali secondo i principi di autonomia e sussidiarietà. L’integrazione camerale introduce una dimensione ulteriore di tutela, estendendo la protezione alla “libertà del dibattito democratico da interferenze illecite, da chiunque provocate”, con esplicito riferimento agli “interessi della sovranità dello Stato” e ai “diritti fondamentali di ogni cittadino riconosciuti dagli ordinamenti nazionale ed europeo”.
Dal punto di vista sistematico, questa modifica risponde alle crescenti preoccupazioni relative all’utilizzo di sistemi di intelligenza artificiale per condizionare l’opinione pubblica attraverso tecniche di manipolazione informativa, quali la diffusione di deepfake, la creazione di contenuti sintetici fuorvianti o l’amplificazione algoritmica di messaggi polarizzanti. La formulazione “interferenze illecite, da chiunque provocate” assume particolare rilevanza in quanto comprende tanto gli attori statali quanto quelli privati, configurando un sistema di tutela omnicomprensivo contro ogni forma di condizionamento artificiale del processo democratico.
L’inserimento del riferimento alla “sovranità dello Stato” introduce una dimensione geopolitica nella disciplina dell’intelligenza artificiale, riconoscendo implicitamente che i sistemi di IA possono costituire strumenti di influenza transnazionale capaci di compromettere l’autodeterminazione democratica nazionale. Questa previsione assume particolare significato alla luce delle recenti esperienze internazionali di interferenze elettorali mediate da tecnologie digitali avanzate.
Per i professionisti del diritto costituzionale e amministrativo, la modifica comporta la necessità di sviluppare nuove categorie interpretative per valutare quando l’utilizzo di sistemi di IA possa configurare un’interferenza illecita nel dibattito democratico. La giurisprudenza futura dovrà definire i criteri di bilanciamento tra libertà di espressione, libertà di impresa tecnologica e tutela dell’integrità democratica, considerando che la soglia di illiceità dovrà essere determinata caso per caso attraverso una valutazione multidisciplinare che tenga conto degli aspetti tecnici, giuridici e politologici.
Dal punto di vista operativo, questa disposizione implica che i fornitori di piattaforme digitali, i gestori di social media e gli sviluppatori di sistemi di IA dovranno implementare meccanismi di governance algoritmici specificamente orientati alla prevenzione di interferenze nel dibattito democratico. Ciò include l’adozione di sistemi di monitoraggio dell’autenticità dei contenuti, la trasparenza degli algoritmi di raccomandazione in periodi elettorali e la collaborazione con le autorità competenti per l’identificazione tempestiva di campagne di disinformazione artificiale.
La modifica rappresenta inoltre un significativo precedente normativo nella regolamentazione dell’intersezione tra intelligenza artificiale e democrazia, posizionando l’Italia tra i primi paesi europei a introdurre tutele legislative specifiche contro l’utilizzo improprio dell’IA nel contesto politico-elettorale.
Rafforzamento della tutela dei minori e coordinamento con la disciplina europea sulla protezione dei dati personali
La modifica apportata dalla Camera dei Deputati all’articolo 4, comma 4, del disegno di legge introduce un significativo rafforzamento della tutela dei minori nell’utilizzo di sistemi di intelligenza artificiale, attraverso un esplicito coordinamento con la disciplina europea e nazionale sulla protezione dei dati personali.
L’integrazione testuale “nonché il conseguente trattamento dei dati personali richiedono” amplia l’ambito di applicazione del consenso genitoriale, estendendolo non solo all’accesso alle tecnologie di IA da parte dei minori di quattordici anni, ma anche a tutti i trattamenti di dati personali che ne conseguono. Questa precisazione assume particolare rilevanza pratica, poiché l’utilizzo di sistemi di intelligenza artificiale comporta inevitabilmente la raccolta, l’elaborazione e la conservazione di dati personali del minore, spesso attraverso modalità complesse e non immediatamente percepibili dall’utente.
Il richiamo esplicito al Regolamento (UE) 2016/679 (GDPR) e al Codice Privacy nazionale (D.Lgs. 196/2003) opera un necessario coordinamento sistematico tra la nuova disciplina dell’intelligenza artificiale e il quadro normativo consolidato in materia di protezione dei dati personali. Dal punto di vista operativo, questa modifica implica che i fornitori di servizi di IA destinati ai minori dovranno implementare meccanismi di verifica dell’età e di acquisizione del consenso genitoriale che rispettino simultaneamente i principi dell’AI Act, del GDPR e della normativa nazionale.
Per i professionisti legali che operano nel settore della privacy e della tecnologia, tale integrazione comporta la necessità di sviluppare procedure di compliance che tengano conto della stratificazione normativa, considerando che il trattamento di dati di minori attraverso sistemi di IA dovrà rispettare le garanzie specifiche previste dall’articolo 8 del GDPR, le disposizioni dell’articolo 2-quinquies del Codice Privacy italiano, nonché i nuovi obblighi introdotti dal presente disegno di legge.
La modifica evidenzia inoltre l’approccio metodologico del legislatore italiano nel costruire un sistema normativo coerente e integrato, evitando sovrapposizioni o lacune che potrebbero compromettere l’efficacia della tutela. In termini pratici, ciò significa che le piattaforme digitali, i servizi educativi online e tutti i sistemi di IA rivolti ai minori dovranno adeguare le proprie policy e i propri meccanismi tecnici per garantire la conformità a un quadro normativo ora pienamente armonizzato.
Revisione dei criteri per l’accesso agli investimenti pubblici
Il disegno di legge conferma la previsione di un fondo da un miliardo di euro gestito da CDP Venture Capital, destinato a investimenti nel capitale di rischio di imprese attive nei settori dell’IA, della cybersicurezza e delle tecnologie abilitanti. La modifica introdotta già in sede senatoriale, e mantenuta dalla Camera, elimina il requisito della sede legale in Italia per le imprese beneficiarie, limitandosi a richiedere la presenza di una sede operativa sul territorio nazionale.
Questa scelta normativa si inserisce in una prospettiva di apertura al capitale estero, con l’obiettivo di attrarre investimenti internazionali pur garantendo un radicamento minimo delle attività economiche in Italia.
Principi generali e governance
Entrambi i testi mantengono l’impostazione fondamentale dell’approccio antropocentrico all’intelligenza artificiale, con l’affermazione del principio della supervisione umana indelegabile. La governance del sistema rimane affidata all’Agenzia per l’Italia Digitale (AgID) come autorità di notifica e all’Agenzia per la Cybersicurezza Nazionale (ACN) come autorità di vigilanza, in collaborazione con il Dipartimento per la Trasformazione Digitale.
Settori specifici di applicazione
Le disposizioni settoriali rimangono sostanzialmente invariate tra i due testi. Nel settore sanitario, l’IA è riconosciuta come strumento di supporto per migliorare prevenzione, diagnosi e cura, ma senza mai sostituire la decisione medica. Nel mondo del lavoro, viene confermato il divieto di utilizzo dell’IA per il controllo a distanza dei lavoratori e l’obbligo di informazione preventiva delle rappresentanze sindacali.
Per le professioni intellettuali, entrambi i testi stabiliscono che l’IA può essere utilizzata esclusivamente come strumento di supporto, mantenendo la responsabilità professionale in capo al professionista. Nel settore giudiziario, rimane fermo il divieto di automazione delle decisioni giurisdizionali, con l’IA limitata a funzioni di supporto alla ricerca giurisprudenziale e dottrinale.
La necessità della terza lettura al Senato
Le modifiche apportate dalla Camera dei Deputati, seppur limitate nel numero, assumono carattere sostanziale e richiedono necessariamente il ritorno del provvedimento all’esame del Senato per la terza lettura. Tale passaggio è previsto dall’articolo 72 della Costituzione, che stabilisce il procedimento di approvazione delle leggi nelle due Camere.
Aspetti procedurali
Il Senato dovrà ora esaminare il testo modificato dalla Camera, con la possibilità di approvarlo definitivamente senza ulteriori modifiche, oppure di introdurre nuovi emendamenti che comporterebbero un ulteriore passaggio alla Camera. L’esperienza parlamentare suggerisce che, trattandosi di modifiche concordate con il Governo e già oggetto di ampio dibattito, è ragionevolmente probabile un’approvazione definitiva senza ulteriori modifiche sostanziali.
Tempi di attuazione
È importante sottolineare che l’efficacia del disegno di legge sarà subordinata all’adozione dei decreti legislativi di attuazione da parte del Governo, per i quali è previsto un termine di un anno dall’entrata in vigore della legge. Questa tempistica implica che l’effettiva operatività del sistema normativo sull’intelligenza artificiale non sarà immediata, ma richiederà un ulteriore periodo di elaborazione normativa secondaria.
Coordinamento con la normativa europea
La terza lettura rappresenta anche un’occasione per verificare l’effettivo coordinamento del testo nazionale con l’AI Act europeo, considerando che alcuni rilievi della Commissione europea, espressi nel parere circostanziato C(2024)7814, potrebbero non essere stati completamente risolti. In particolare, permangono questioni relative all’indipendenza delle autorità di governance e alla potenziale sovrapposizione di obblighi rispetto alla disciplina europea.