top of page

Ue, nuova indagine Antitrust su Meta per l’uso dell’intelligenza artificiale nei dati di WhatsApp

L’avvio di una nuova indagine da parte dell’Antitrust europeo nei confronti di Meta si concentra sull’utilizzo dei dati provenienti da WhatsApp per alimentare modelli di intelligenza artificiale destinati ai servizi del gruppo. L’attenzione delle autorità riguarda la possibile integrazione di informazioni raccolte attraverso la piattaforma di messaggistica in sistemi di analisi e profilazione utilizzati per finalità commerciali, con il rischio di un trattamento non conforme alle norme europee. L’indagine intende verificare se l’azienda abbia impostato procedure che consentano l’utilizzo dei dati degli utenti senza un consenso esplicito e chiaramente documentato, soprattutto in relazione alle nuove funzioni basate sull’IA introdotte nei principali servizi del gruppo. Le istituzioni europee considerano essenziale che i processi di apprendimento automatico rispettino i limiti imposti dal quadro normativo e garantiscano trasparenza nelle modalità con cui le informazioni personali vengono trattate.


L’Autorità europea osserva con particolare attenzione l’interazione tra le piattaforme del gruppo e l’eventuale trasferimento dei dati da un’applicazione all’altra, un aspetto già più volte oggetto di confronto tra Meta e i regolatori. Le recenti evoluzioni tecnologiche, che comprendono l’impiego di modelli generativi e sistemi predittivi, hanno aumentato le preoccupazioni sulla capacità dei grandi operatori digitali di utilizzare i dati degli utenti per finalità sempre più sofisticate e potenzialmente invasive. La nuova indagine mira a chiarire se l’azienda abbia predisposto meccanismi di separazione effettiva dei dati, oppure se le pratiche interne consentano un uso combinato delle informazioni tale da incidere sulla tutela della privacy. Il procedimento si inserisce in un contesto di crescente rigore da parte delle autorità europee, impegnate a garantire che le innovazioni tecnologiche non vengano realizzate a scapito dei diritti fondamentali.


Meta ha dichiarato di aver adottato un approccio improntato alla piena conformità normativa, sostenendo di aver introdotto modifiche rilevanti alle proprie politiche per rispondere ai requisiti europei. L’azienda afferma che i contenuti privati scambiati su WhatsApp restano protetti dalla crittografia end-to-end e non vengono utilizzati per addestrare modelli di intelligenza artificiale. La posizione del gruppo evidenzia la distinzione tra metadati tecnici e contenuti delle conversazioni, sostenendo che nessun elemento personale che identifichi direttamente gli utenti venga impiegato nei processi di sviluppo dell’IA. Le autorità, tuttavia, intendono verificare la coerenza tra le dichiarazioni pubbliche e le pratiche interne, considerando la complessità delle infrastrutture tecnologiche e la difficoltà per gli utenti di comprendere nel dettaglio le modalità di utilizzo dei propri dati.


L’indagine si colloca anche nel quadro dei nuovi strumenti regolatori introdotti dall’Unione europea, tra cui il Digital Markets Act e il nuovo sistema di regole sull’IA. Questi strumenti attribuiscono ai regolatori poteri più incisivi nel monitoraggio delle piattaforme considerate gatekeeper, con la possibilità di imporre obblighi specifici riguardo alla gestione dei dati e alla trasparenza degli algoritmi. Meta, in quanto uno dei maggiori operatori del settore, è tenuta a conformarsi a una serie di requisiti aggiuntivi che riguardano il funzionamento interno dei sistemi di raccomandazione, l’utilizzo dei dati per la personalizzazione dei servizi e la comunicazione agli utenti delle finalità di trattamento. L’indagine avviata rappresenta un banco di prova importante per valutare l’efficacia delle nuove norme nel disciplinare l’uso dell’intelligenza artificiale da parte dei grandi gruppi digitali.


Il procedimento potrebbe determinare ulteriori obblighi per Meta, tra cui la necessità di separare in modo più stringente i sistemi interni di trattamento dei dati e di riformulare alcune funzionalità basate sull’IA. Le autorità europee intendono preservare il principio di autonomia informativa degli utenti e ridurre il rischio che strumenti tecnologici evoluti possano determinare forme di dipendenza commerciale o discriminazione algoritmica. In questo quadro, l’attenzione si concentra anche sulla capacità degli utenti di esercitare un controllo pieno e consapevole sui propri dati, elemento che rappresenta uno dei cardini del modello europeo di protezione. L’evoluzione dell’indagine sarà un passaggio centrale per comprendere come verranno applicati, in concreto, i nuovi standard previsti per l’intero settore digitale.

Post correlati

Mostra tutti

Commenti


Le ultime notizie

bottom of page