top of page

Legge italiana sull’intelligenza artificiale tra aspettative e sfide applicative


ree

La recente approvazione della legge italiana sull’intelligenza artificiale rappresenta un passo decisivo verso l’adeguamento del quadro normativo nazionale alle direttive dell’AI Act europeo, ma le difficoltà attuative e le criticità di sistema rendono il percorso ancora complesso. Il provvedimento, pubblicato nella Gazzetta Ufficiale del 26 settembre 2025 come legge n. 136, introduce una disciplina organica dell’intelligenza artificiale, stabilendo deleghe al Governo e ai Ministeri competenti per completare la regolamentazione, e apre una fase di coordinamento multilivello tra istituzioni, autorità indipendenti e organismi di certificazione.L’impianto legislativo, di natura mista tra legge di delega e cornice di principi, si inserisce nel contesto europeo che, a partire dal 2 agosto 2025, ha visto l’entrata in vigore dei primi capi dell’AI Act relativi alle pratiche vietate, alla governance europea e alle sanzioni, con la piena efficacia delle restanti disposizioni prevista tra il 2026 e il 2027.

Il legislatore nazionale ha cercato di anticipare le scadenze europee per rafforzare la strategia di coordinamento sull’intelligenza artificiale, istituendo un sistema di autorità e comitati destinati alla supervisione dei diversi ambiti di applicazione dell’IA, dai modelli generali alle soluzioni ad alto rischio.Il cuore della legge è rappresentato dalla delega al Governo per l’adozione di decreti legislativi volti a disciplinare gli aspetti applicativi del quadro regolatorio: dalla certificazione dei sistemi alla definizione dei criteri di trasparenza, fino alla valutazione d’impatto e al regime delle responsabilità civili e amministrative. Si tratta, tuttavia, di una disciplina che, pur ambiziosa, lascia emergere una serie di lacune strutturali legate soprattutto all’assenza di una strategia finanziaria coerente con gli obiettivi dichiarati e alla frammentarietà del sistema di vigilanza.

La legge si propone di armonizzare la normativa nazionale con quella europea, prevedendo l’istituzione di un’autorità centrale di coordinamento che dovrà operare in sinergia con il sistema di governance dell’Unione.Questa autorità, secondo l’impostazione della legge n. 136/2025, sarà chiamata a garantire la coerenza tra i diversi interventi settoriali e a vigilare sull’applicazione delle regole in materia di sicurezza, trasparenza e tutela dei diritti fondamentali. Il principio di proporzionalità, mutuato dall’AI Act, dovrà guidare l’azione regolatoria, distinguendo i livelli di rischio dei sistemi di intelligenza artificiale e adattando le misure di controllo in base alla loro incidenza sui diritti delle persone e sugli interessi collettivi.

Uno degli elementi di maggior rilievo è la previsione di un sistema di notifica e accreditamento per gli organismi di valutazione della conformità, cui spetterà il compito di certificare la sicurezza dei modelli di IA ad alto rischio.Questi organismi, sotto la supervisione delle autorità di vigilanza, dovranno operare secondo criteri di indipendenza e trasparenza, con obblighi di comunicazione verso la Commissione europea e verso il futuro Comitato nazionale per l’intelligenza artificiale.L’impostazione mira a evitare duplicazioni di competenze e a garantire una gestione unitaria delle procedure di valutazione, ma l’efficacia di tale assetto dipenderà dalla rapidità con cui verranno adottati i decreti attuativi.

Particolare attenzione è stata riservata al tema della responsabilità civile derivante dall’uso di sistemi automatizzati. La legge prevede l’introduzione di un regime di responsabilità specifico per i danni causati da sistemi di IA, articolato su tre livelli: responsabilità del produttore, dell’operatore e del fornitore del servizio. In parallelo, è prevista una revisione della normativa sul trattamento dei dati personali, volta a garantire la compatibilità tra le elaborazioni automatizzate e i principi del Regolamento (UE) 2016/679.Il testo rinvia ai decreti delegati la definizione delle soglie di rischio, dei criteri di tracciabilità e delle procedure di audit, che dovranno assicurare un equilibrio tra innovazione tecnologica e tutela dei diritti.

Il dibattito dottrinale ha sottolineato come il successo della legge dipenda dalla capacità di coordinare le diverse autorità coinvolte, evitando sovrapposizioni tra competenze ministeriali e settoriali. La creazione di un “Comitato interministeriale per l’intelligenza artificiale” è considerata un passo importante verso la centralizzazione delle decisioni strategiche, ma resta da chiarire il rapporto tra questo organismo e le agenzie già operanti in ambito digitale, come l’AGID e il Garante per la protezione dei dati personali. Il rischio, evidenziato anche dal professor Giovanni Comandé, è che l’assenza di una chiara catena di comando renda inefficace la strategia nazionale, disperdendo risorse e rallentando l’attuazione delle misure previste.

Un altro punto critico riguarda la dimensione economica del provvedimento.Pur prevedendo incentivi per la ricerca e lo sviluppo di tecnologie basate sull’intelligenza artificiale, la legge non istituisce fondi dedicati di entità sufficiente a sostenere la crescita del settore nel medio periodo.La mancanza di un piano di finanziamento organico rischia di compromettere la capacità del sistema produttivo di adattarsi alle nuove regole, soprattutto per le piccole e medie imprese che rappresentano la maggior parte del tessuto industriale italiano.L’obiettivo dichiarato di promuovere un’“IA etica e sostenibile” rimane, pertanto, ancora legato alla disponibilità di risorse che dovranno essere reperite attraverso strumenti europei e partnership pubblico-private.

La legge italiana sull’intelligenza artificiale si distingue comunque per l’enfasi posta sull’educazione digitale e sulla formazione specialistica.Il Governo è delegato a definire programmi di aggiornamento professionale per i funzionari pubblici e corsi universitari dedicati all’etica e al diritto dell’IA.Queste misure intendono colmare il divario di competenze che rappresenta uno dei principali ostacoli all’attuazione delle politiche digitali.La transizione verso un’economia della conoscenza fondata sull’automazione richiede infatti una struttura amministrativa capace di comprendere e gestire i rischi tecnologici, oltre a promuovere un uso consapevole e responsabile degli algoritmi.

Sul piano dei diritti, il testo afferma la centralità del principio di trasparenza algoritmica e introduce obblighi di tracciabilità per i sistemi decisionali automatizzati utilizzati nella pubblica amministrazione.L’obiettivo è garantire che ogni decisione fondata su un algoritmo sia verificabile e comprensibile, tutelando così il diritto alla motivazione degli atti amministrativi e il principio di eguaglianza sostanziale. La legge prevede inoltre che le piattaforme digitali utilizzate per servizi pubblici essenziali siano sottoposte a periodiche valutazioni di impatto etico, con l’intervento di comitati indipendenti composti da giuristi, informatici e rappresentanti della società civile.

L’impianto complessivo della legge n. 136/2025 segna dunque un punto di svolta nella politica tecnologica italiana, ma la sua efficacia dipenderà in larga misura dalla capacità di tradurre le deleghe in atti concreti.Le sfide principali riguardano l’attuazione dei meccanismi di controllo, la coerenza del sistema sanzionatorio con quello europeo e la definizione delle responsabilità in caso di danno causato da sistemi di IA autonomi. Il rafforzamento della strategia nazionale sull’intelligenza artificiale, invocato dagli esperti, rappresenta un’occasione decisiva per strutturare un modello di governance capace di coniugare innovazione, tutela dei diritti e competitività economica.

Commenti


Le ultime notizie

bottom of page