top of page

La sentenza simbolo in Germania contro OpenAI: il chatbot ChatGPT considerato in violazione del diritto d’autore sui testi delle canzoni

Un tribunale regionale di Monaco di Baviera ha stabilito che OpenAI ha violato la normativa tedesca sul diritto d’autore utilizzando testi protetti di canzoni per addestrare il suo modello di linguaggio ChatGPT e restituendo, con semplici richieste (“prompt”), porzioni rilevanti degli stessi testi, senza autorizzazione né compenso agli aventi diritto. La causa era stata promossa dalla collettività tedesca dei diritti musicali GEMA, che rappresenta oltre centomila autori, compositori e editori musicali, e aveva denunciato l’uso sistematico da parte di OpenAI del suo repertorio per l’allenamento del modello. Nel dispositivo la corte ha rigettato l’argomento dell’istante secondo cui la responsabilità ricadrebbe sugli utenti che generano gli output, ribadendo che l’operatore del sistema resta responsabile della conformità alle norme sul copyright. È stata disposta l’attribuzione di un risarcimento a favore degli aventi diritto e stabilito che l’uso di quei testi senza licenza non era ammissibile.


La vicenda assume un rilievo di portata europea in quanto costituisce uno dei primi precedenti giudiziari che collegano in modo diretto l’utilizzo dei dati protetti nei processi di addestramento delle intelligenze artificiali generative e la violazione dei diritti d’autore. In particolare, la GEMA aveva provato che nella risposta a determinate richieste ChatGPT riproduceva frammenti in modo sostanzialmente identico ai testi originali protetti, il che ha permesso al tribunale di riconoscere l’appropriazione indebita del materiale creativo. La posizione della società tedesca era chiara: «Le canzoni dei nostri iscritti non sono materie prime gratuite per i modelli di AI», come ha affermato il suo amministratore delegato. Il contenzioso non riguarda solo la mera generazione automatica di testi analoghi, ma l’uso – nell’addestramento – di opere protette senza accordo e il successivo sfruttamento commerciale del modello. OpenAI aveva difeso la propria posizione sostenendo che il modello non memorizza parti specifiche dei testi ma genera output sulla base di modelli statistici, e che gli utenti sono da considerarsi i responsabili diretti dei prompt inseriti. Tuttavia la corte ha ritenuto che l’operatore del sistema debba garantire la liceità dell’intero flusso operativo.


Dal punto di vista tecnico-giuridico la sentenza interroga alcuni principi chiave: l’eccezione tedesca sul “text and data mining” per finalità di ricerca scientifica o privata non è stata ritenuta applicabile nel caso in esame, poiché l’uso dei testi protetti faceva parte di un’attività di training destinata a un modello commerciale e non rientrava nelle strette maglie della ricerca scientifica senza scopo di profitto. Inoltre la riproduzione nei risultati del chatbot di porzioni riconoscibili dei testi ha rafforzato il nesso di causalità tra l’utilizzo senza licenza e l’output generato. Il modello di training – pur dichiarato generico – ha generato un risultato che ha permesso all’utente di accedere a un testo protetto senza autorizzazione: elemento decisivo sul piano della responsabilità. Il tribunale ha preso atto che, benché ChatGPT non presentasse un catalogo di testi riproposto identicamente in forma organizzata, la realtà fattuale era che alcuni prompt provocavano la produzione di sequenze sostanzialmente corrispondenti ai testi originari: ciò è stato considerato uso non autorizzato.


Le implicazioni per il settore dell’intelligenza artificiale e per l’ecosistema dei contenuti creativi sono molteplici. Innanzitutto la sentenza invia un messaggio forte ai fornitori di modelli generativi: l’allenamento su materiali protetti comporta una responsabilità diretta verso i titolari dei diritti, e non può bastare un generico riferimento al “copyright pubblico” o a fonti “open web” per eludere l’obbligo di licenza. In secondo luogo, apre scenari di ripensamento dei modelli di business delle aziende che operano con sistemi generativi: la necessità o la convenienza di negoziare licenze con collettività di autori si fa più urgente, al pari della predisposizione di filtri o meccanismi di esclusione dal training di contenuti protetti. In terzo luogo, la decisione tedesca può fungere da catalizzatore per iniziative analoghe in altri ordinamenti europei: la regolamentazione dell’uso delle opere protette nelle fasi di “training” e “inference” dei modelli AI è uno dei nodi più dibattuti nell’attuale fase di sviluppo normativo dell’Unione europea.


Nel contesto tedesco, la GEMA aveva già sollecitato un modello di licenza per i provider di AI generativa, proponendo che una percentuale del fatturato derivato dal modello fosse destinata ai titolari dei diritti. La vertenza assume dunque anche una dimensione economica significativa: non più solo una questione di diritto d’autore astratto, ma di ridistribuzione del valore generato da sistemi che sfruttano contenuti creativi. Gli operatori tecnici dovranno tener conto dei seguenti elementi operativi: la verifica della provenienza dei dati di training, la predisposizione di database di esclusione (filtering) per i materiali coperti, la trasparenza sulle fonti e, se del caso, la stipula di accordi di licenza preventiva. Contestualmente, gli autori e i titolari dei diritti si trovano in una posizione di maggiore negoziazione: poter far valere il loro ruolo nel nuovo ecosistema generativo significa trasformare un potenziale rischio in una risorsa monetizzabile.


Dal lato degli utenti e delle imprese che utilizzano strumenti generativi come ChatGPT o analoghi, la decisione richiama la cautela: la responsabilità per gli output generati non ricade esclusivamente sull’utente che formula il prompt, ma – almeno in una misura giuridica rilevante – sull’operatore della piattaforma che ha predisposto il modello. Ciò implica che l’adozione di modelli AI richiede una due diligence specifica: verificare se il fornitore del modello ha curato le licenze dei materiali di training, se prevede meccanismi di filtraggio di output problematici e se garantisce la conformità alle normative sul diritto d’autore del territorio di utilizzo. In un contesto in cui la normativa europea sulla intelligenza artificiale è in via di definizione, e in particolare mentre si lavora all’attuazione del regolamento noto come “AI Act”, la sentenza funge da anticipazione dei criteri che probabilmente verranno richiesti a livello regolatorio: accountability dell’operatore, trasparenza dei dati di training, gestione dei rischi legali.


Sul versante normativo, la decisione tedesca può contribuire a definire l’ambito di applicazione dell’articolato sistema europeo del diritto d’autore (cd. “Copyright Directive”), specialmente per quanto riguarda le eccezioni per text and data mining e i confini di utilizzo delle opere protette nell’addestramento dei modelli di intelligenza artificiale. La sentenza solleva ulteriormente il tema della distinzione tra contenuti generati ex novo e contenuti che riproducono in modo sostanziale opere pre-esistenti, nonché della soglia quantitativa e qualitativa che determina l’infrangimento: non più solo la riproduzione integrale, ma anche la riproduzione automatica di sequenze riconoscibili può integrare la violazione. Infine, la vicenda profila un quadro operativo in cui la governance dei modelli generativi dovrà includere processi di trasparenza verso gli autori, amministratori dei diritti e utenti, supportata da audit interno e da un registro delle fonti di training.


La sentenza costituisce dunque un punto di svolta nel rapporto tra creatività, contenuti protetti e tecnologie generative, delineando un nuovo regime nel quale l’intelligenza artificiale non è esente dalle regole del diritto d’autore e costringe le imprese tecnologiche a ripensare i propri modelli di utilizzo dei dati.

Post correlati

Mostra tutti

Commenti


Le ultime notizie

bottom of page