top of page

Fisco e intelligenza artificiale: perché l’IA non potrà sostituire l’intervento umano negli accertamenti

Nel sistema tributario italiano l’intelligenza artificiale non potrà essere utilizzata come strumento autonomo per effettuare accertamenti fiscali. L’Agenzia delle Entrate ha confermato che, pur riconoscendo le potenzialità delle nuove tecnologie, nessun procedimento potrà essere gestito interamente da algoritmi o sistemi automatizzati. La decisione deriva da un insieme di ragioni giuridiche e organizzative che tutelano il diritto dei contribuenti, la trasparenza dei procedimenti e la necessità del contraddittorio.


Il principio di fondo è che l’accertamento fiscale deve essere sempre il risultato di un atto umano motivato e verificabile. L’automazione completa, cioè la possibilità che un algoritmo generi un avviso di accertamento senza alcuna supervisione, è esclusa perché violerebbe norme fondamentali dell’ordinamento amministrativo. In particolare, la Costituzione e la legge sul procedimento amministrativo richiedono che ogni atto sia imputabile a un funzionario, che sia motivato e che il destinatario possa comprenderne le ragioni e contestarle. Un algoritmo, per sua natura, non è in grado di soddisfare questi requisiti in modo trasparente, né può garantire la conoscibilità del processo decisionale.


Dal punto di vista tecnico, l’amministrazione finanziaria utilizza già sistemi di analisi dei dati e strumenti predittivi per individuare situazioni di rischio fiscale. Tali applicazioni, basate su modelli statistici e di machine learning, servono a selezionare i contribuenti da sottoporre a verifica, ma non producono autonomamente provvedimenti. L’intelligenza artificiale opera dunque come supporto alla decisione, fornendo indicatori e correlazioni che devono poi essere esaminate da funzionari in carne e ossa. È il funzionario, e non il sistema, che deve firmare, motivare e notificare l’atto impositivo.


Questo approccio risponde anche a un’esigenza di tutela nei confronti dei cittadini. La trasparenza è uno dei pilastri del rapporto tra Fisco e contribuente, e l’uso di algoritmi non spiegabili rischierebbe di minare la fiducia nel sistema. Se un accertamento derivasse da un processo automatizzato di cui il contribuente non può conoscere i criteri, si verrebbe a creare una disparità di potere incompatibile con i principi del giusto procedimento. Inoltre, l’assenza di un intervento umano renderebbe impossibile valutare casi particolari, errori nei dati o circostanze che l’algoritmo non è in grado di interpretare.


A livello normativo, anche il nuovo regolamento europeo sull’intelligenza artificiale, l’AI Act, classifica i sistemi automatizzati utilizzati in ambito fiscale come “ad alto rischio”. Ciò comporta l’obbligo di garantire supervisione umana costante, audit periodici, tracciabilità delle decisioni e possibilità di intervento correttivo. Queste condizioni rendono impossibile, almeno per ora, una gestione pienamente automatizzata degli accertamenti. Prima che l’IA possa assumere un ruolo più esteso, sarà necessario introdurre norme specifiche che definiscano la responsabilità delle decisioni, la trasparenza degli algoritmi e le garanzie procedurali a tutela del contribuente.


L’uso dell’intelligenza artificiale nel fisco, quindi, resta confinato a funzioni di analisi e prevenzione. I sistemi predittivi sono impiegati per migliorare l’efficienza dei controlli, individuare anomalie, prevenire frodi e concentrare l’attività ispettiva sui casi più a rischio. Questi strumenti possono anche agevolare la cosiddetta compliance, ossia il comportamento spontaneo dei contribuenti che si adeguano alla normativa grazie a un monitoraggio preventivo. Tuttavia, la linea di confine tra supporto tecnico e decisione amministrativa rimane netta.


Dal punto di vista pratico, ciò significa che ogni atto di accertamento dovrà continuare a essere firmato da un funzionario e fondarsi su una motivazione accessibile e verificabile. Anche se l’input iniziale può provenire da un sistema di intelligenza artificiale, l’intero procedimento dovrà essere validato da una persona fisica. Il contribuente avrà così la possibilità di chiedere chiarimenti, accedere agli atti e contestare la decisione in base a elementi concreti.


La digitalizzazione del fisco prosegue comunque in modo rapido. L’Agenzia delle Entrate sta investendo su piattaforme di interoperabilità dei dati, archivi integrati e sistemi di valutazione predittiva. L’obiettivo è rendere più efficiente il lavoro interno e migliorare la capacità di controllo, riducendo gli errori e accelerando i tempi di verifica. L’intelligenza artificiale, in questo contesto, diventa uno strumento di ausilio alla pubblica amministrazione, ma non un sostituto della decisione pubblica.


Le implicazioni etiche e giuridiche restano centrali. La tracciabilità delle decisioni, la neutralità dei modelli e la protezione dei dati personali sono condizioni imprescindibili. Ogni algoritmo utilizzato dovrà essere sottoposto a test di affidabilità e a controlli indipendenti. L’idea di un fisco completamente automatizzato rimane lontana, e la scelta di mantenere l’intervento umano risponde non solo a un’esigenza di garanzia, ma anche a una visione equilibrata dell’uso della tecnologia nel settore pubblico.


L’intelligenza artificiale potrà in futuro diventare un alleato importante nella gestione dei flussi informativi e nella prevenzione dell’evasione, ma per il momento il cuore della decisione fiscale rimane saldamente nelle mani dell’uomo.

Post correlati

Mostra tutti

Commenti


Le ultime notizie

bottom of page