Via libera definitivo alla legge sull’intelligenza artificiale: regole su sicurezza, diritti e investimenti per un nuovo modello di sviluppo
- piscitellidaniel
- 17 set 2025
- Tempo di lettura: 3 min
Il Senato ha approvato in via definitiva la legge che disciplina l’intelligenza artificiale, un provvedimento destinato a segnare una tappa fondamentale nel percorso normativo italiano. La norma, che delega il governo a definire decreti attuativi in diversi settori, mette al centro sicurezza, diritti fondamentali e promozione degli investimenti. Si tratta di una legge che nasce in parallelo con l’AI Act europeo e che intende rafforzare l’allineamento dell’Italia al nuovo quadro regolatorio continentale, offrendo al tempo stesso strumenti nazionali specifici per sostenere l’innovazione e prevenire i rischi legati alle nuove tecnologie.
La struttura del provvedimento si articola intorno a principi cardine: il rispetto della dignità umana, la protezione dei dati personali, la non discriminazione, la trasparenza e la supervisione umana nelle decisioni più rilevanti. In questo senso la legge non si limita a regolare gli aspetti tecnici, ma mira a garantire un equilibrio tra l’uso dell’intelligenza artificiale e i diritti dei cittadini. Ogni sistema di IA dovrà essere valutato in base al rischio, con una classificazione che distinguerà tra applicazioni a basso, medio o alto impatto. Per quelle considerate ad alto rischio saranno richiesti requisiti più severi, tra cui certificazioni, audit periodici e controlli di conformità.
Un elemento centrale è rappresentato dall’attenzione alla tutela dei dati personali. La legge stabilisce che l’utilizzo di informazioni sensibili dovrà essere accompagnato da procedure di sicurezza rafforzate e da obblighi di trasparenza verso gli utenti. Nella pubblica amministrazione i cittadini dovranno essere informati quando interagiscono con sistemi automatizzati e avere la possibilità che decisioni cruciali, come quelle relative a prestazioni sociali o sanitarie, siano comunque sottoposte a supervisione umana. L’obiettivo dichiarato è evitare che la macchina diventi l’unico soggetto decisionale in questioni che incidono direttamente sulla vita delle persone.
La norma disciplina anche l’impiego dell’intelligenza artificiale in ambiti particolarmente delicati, come la sanità, il lavoro, la giustizia e la sicurezza. Nei servizi sanitari, per esempio, l’uso di algoritmi di supporto alla diagnosi sarà consentito solo se rispettano standard elevati di trasparenza e se garantiscono la possibilità di verificare i processi decisionali. In ambito lavorativo vengono introdotte regole per evitare che sistemi automatizzati possano determinare assunzioni o licenziamenti senza controllo umano. Saranno inoltre previste misure di tutela per i lavoratori esposti a processi di automazione intensiva, con percorsi di formazione e aggiornamento professionale.
Grande rilievo è stato dato anche al tema degli investimenti. La legge prevede la creazione di un fondo da un miliardo di euro destinato a sostenere imprese e startup che operano nei settori strategici dell’IA, della cybersicurezza, delle tecnologie quantistiche e delle telecomunicazioni. L’intento è rafforzare la competitività del sistema produttivo nazionale, stimolare la ricerca applicata e favorire collaborazioni tra pubblico e privato. Sono previsti incentivi fiscali per gli investitori e programmi di attrazione dei talenti, in particolare per riportare in Italia ricercatori e professionisti che oggi lavorano all’estero.
Sul fronte della sicurezza vengono introdotti vincoli specifici per applicazioni considerate sensibili, come la sorveglianza biometrica, l’uso militare o i sistemi di riconoscimento facciale in spazi pubblici. Questi ambiti saranno soggetti a regole molto più restrittive, con limiti e controlli volti a evitare abusi o violazioni della privacy. Le autorità competenti avranno il compito di vigilare, applicare sanzioni e imporre eventuali blocchi per i sistemi che non rispettano gli standard previsti.
Un ulteriore aspetto riguarda la governance. La legge prevede che la regolazione sia affidata a un coordinamento tra diverse autorità già esistenti, con competenze rafforzate e nuovi strumenti operativi. Al governo spetta il compito di emanare i decreti attuativi, che definiranno nel dettaglio le regole tecniche, le modalità di controllo e i parametri di valutazione del rischio. È prevista anche la creazione di osservatori e comitati consultivi che includano esperti, università e rappresentanti del mondo produttivo.
La dimensione europea è al centro del provvedimento. L’Italia si muove in coerenza con l’AI Act, inserendosi in un contesto normativo che punta a rendere l’Europa leader mondiale di un’intelligenza artificiale etica e sicura. Questo significa che i criteri di valutazione del rischio, le norme su trasparenza e tracciabilità e le tutele dei cittadini saranno armonizzati con quelli degli altri Stati membri. L’intento è quello di favorire un mercato unico digitale che dia certezza agli operatori economici e al tempo stesso protezione ai consumatori.
La legge segna dunque un passaggio cruciale per l’Italia. Coniuga diritti e sviluppo, regole e incentivi, limiti e opportunità. Stabilisce una cornice che vuole rendere il Paese un punto di riferimento nell’uso responsabile dell’intelligenza artificiale e aprire una fase nuova per l’innovazione tecnologica, bilanciata dal rispetto delle libertà fondamentali e da un forte impegno sul fronte della sicurezza.

Commenti