top of page

Scandalo Deloitte in Australia: un report realizzato con l’IA contiene errori, la società deve risarcire il governo

Un caso emblematico delle insidie connesse all’uso indiscriminato dell’intelligenza artificiale nelle attività di consulenza è esploso in Australia, dove Deloitte è stata costretta a restituire una parte del compenso ricevuto dal governo federale dopo che il report consegnato risultava zeppo di errori e citazioni inventate. L’incarico, una revisione di conformità del sistema di welfare australiano, aveva un valore di circa 439.000 dollari australiani e conteneva passaggi che sono stati subito contestati da accademici e professionisti per la presenza di riferimenti non esistenti e attribuzioni giuridiche errate, attribuibili a fenomeni noti come “allucinazioni” dell’IA.


Il report, commissionato dal Dipartimento per l’Occupazione e le Relazioni del Lavoro (DEWR), mirava ad analizzare il cosiddetto Targeted Compliance Framework, un meccanismo automatizzato che applicava penalità ai beneficiari dei sussidi in caso di presunta non conformità. Quando il documento è stato pubblicato, è stato rapidamente segnalato da un docente di diritto del welfare, Chris Rudge, che ha scoperto citazioni accademiche inesistenti e una massiccia presenza di errori bibliografici. Tra le anomalie più clamorose, si segnalano fonti che non esistono nelle banche dati universitarie, citazioni attribuite a giudici federali che non avrebbero mai pronunciato tali frasi e articoli accademici mai pubblicati.


Davanti alla crescente pressione critica, Deloitte ha ammesso che alcune note e riferimenti erano incorrecti e contemporaneamente ha reso noto che nel processo di realizzazione del report era stato utilizzato uno strumento generativo di IA, nello specifico Azure OpenAI GPT-4o, ospitato nella infrastruttura del DEWR. Pur affermando che gli errori non compromettevano i risultati principali del rapporto, l’azienda ha accettato di rimborsare l’ultima tranche del contratto, corrispondente al pagamento finale, restituendo al governo federale il compenso non giustificabile alla luce delle imprecisioni riscontrate.


Il governo, da parte sua, ha revisionato il documento e pubblicato una versione corretta: sono stati rimossi più di una dozzina di riferimenti fittizi, eliminati passaggi con citazioni inesistenti, rivisti errori tipografici e riscritto il capitolo dei riferimenti. Il DEWR ha affermato che, nonostante le correzioni, il contenuto sostanziale e le raccomandazioni del report rimangono intatti, ma che il contratto sarà definitivamente reso pubblico al termine della procedura di rimborso.


Questo episodio ha suscitato reazioni severe nella comunità accademica e legale australiana. Alcuni commentatori hanno parlato di un caso di “intelligenza artificiale malamente controllata”, denunciando la facilità con cui strumenti generativi possono introdurre contenuti errati o inventati che, se non adeguatamente verificati, si insinuano in rapporti ufficiali di governo. La vicenda diventa un simbolo degli effetti collaterali dell’adozione precoce e non controllata dell’IA in ambiti che richiedono rigore scientifico e responsabilità istituzionale.


Il mondo delle Big Four e delle società di consulenza, in particolare, è direttamente sotto osservazione: molti osservano che Deloitte non è la prima a sperimentare passaggi azzardati con l’IA, e che la capacità delle grandi società di monitorare e validare i risultati dei propri modelli generativi è ormai cruciale per la loro reputazione e la loro credibilità. I concorrenti, come PwC, EY e KPMG, hanno già dovuto affrontare interrogativi simili sull’integrità dei contenuti generati con l’IA e sulle responsabilità professionali collegate.


Sul piano normativo e regolamentare, il caso apre il fronte di una possibile revisione delle norme di affidabilità e trasparenza nella produzione di consulenze pubbliche condotte con l’ausilio di sistemi automatici. Si profila la necessità di definire codici obbligatori di verifica, audit obbligatori per le parti generative e responsabilità contrattuali ancora più stringenti per chi usa strumenti AI in contratti governativi. Il provvedimento del rimborso da parte di Deloitte rappresenta forse il primo importante precedente in cui un errore generato tramite IA comporta un’azione finanziaria concreta da parte di un committente pubblico.


La vicenda mostra le contraddizioni dell’era dell’IA: potenti strumenti che promettono efficienza e velocità, ma che se non governati con criteri rigorosi, possono generare danni di credibilità, contenziosi e perdite economiche. Il mondo delle consulenze è chiamato oggi a bilanciare innovazione e rigore, per evitare che episodi come questo indeboliscano la fiducia nelle imprese che operano nei settori strategici della pubblica amministrazione.

Post correlati

Mostra tutti

Commenti


Le ultime notizie

bottom of page