L’intelligenza artificiale (IA) generativa, negli ultimi anni, ha mostrato capacità sorprendenti nel creare testi, immagini, musica e persino video. In pochi secondi, queste macchine possono generare contenuti in grado di competere con la creatività umana, sollevando però alcune domande fondamentali: chi detiene i diritti su queste opere digitali? E soprattutto, le IA stanno utilizzando materiali protetti da copyright senza autorizzazione?
Un problema di addestramento (e di trasparenza)
Per capire a fondo la questione, occorre partire dall’addestramento delle IA. Modelli come ChatGPT, MidJourney, Stable Diffusion e DALL·E si basano su reti neurali addestrate su enormi quantità di dati. Questi dati includono testi, immagini, video e musiche raccolti da ogni angolo di internet, spesso senza una reale distinzione tra contenuti di dominio pubblico e materiali protetti da copyright.
Le aziende che sviluppano queste tecnologie sostengono di potersi appoggiare a principi come il “fair use” (o “uso legittimo”), ma la situazione è tutt’altro che chiara. Se una persona comune copia ed elabora un contenuto protetto senza permesso, rischia di incorrere in una violazione di copyright. Se lo fa un algoritmo, la faccenda è ancora in parte da definire dal punto di vista legale, poiché la normativa non era inizialmente concepita per sistemi IA di questa portata.
A questo va aggiunto che spesso manca trasparenza su quali dataset e siti vengano inclusi nel processo di addestramento. Alcuni sviluppatori di IA, di fronte alle prime critiche, hanno iniziato a rilasciare elenchi parziali delle fonti usate, ma la questione non è risolta: molti creatori non sanno nemmeno che i loro lavori sono stati inclusi.
L’IA come artista (involontario) e i casi concreti
Diversi artisti, scrittori e fotografi hanno scoperto con sorpresa di essere diventati “tutor involontari” per le IA. Un esempio significativo è quello dell’artista digitale Greg Rutkowski, il cui stile fantasy è stato ripetutamente evocato tramite prompt di testo, generando immagini estremamente simili alle sue illustrazioni. Allo stesso modo, l’artista Karla Ortiz ha denunciato come molte delle sue opere siano state incluse nei dataset di addestramento di alcuni modelli di IA senza alcun permesso.
Altri episodi riguardano scrittori di narrativa, come l’autrice Jane Friedman, che ha trovato online libri a lei attribuiti ma creati interamente da modelli linguistici. In alcuni casi, i testi generati dalle IA riprendevano sezioni quasi identiche di opere già pubblicate, modificandole solo leggermente.
Oppure fotografi come Amy Smith, che ha riconosciuto dettagli unici delle proprie foto in alcune immagini prodotte da generatori di IA, scoprendo così che i suoi scatti erano stati utilizzati nei database di training.
Uno dei casi più noti è quello di Getty Images, che nel 2023 ha citato in giudizio Stability AI, sostenendo che il software Stable Diffusion avrebbe impiegato miliardi di immagini coperte da copyright (tra cui molte immagini Getty, riconoscibili dal watermark). Questo episodio ha mostrato come i grandi archivi fotografici possono diventare vettori di dati appetibili per il training delle macchine, senza che nessuno chieda il permesso.
Le posizioni dei produttori di IA
Alcune aziende, sotto la pressione mediatica e legale, hanno iniziato a prendere posizioni più chiare. Stability AI, ad esempio, ha annunciato futuri aggiornamenti del proprio modello per limitare l’uso di materiale protetto, e sta valutando l’implementazione di strumenti per facilitare l’opt-out degli artisti. Anche OpenAI ha dichiarato di voler rispettare le normative sul copyright, sebbene non sia sempre facile stabilire i confini di un uso “accettabile” quando si parla di dataset di addestramento così vasti.
Meta (ex Facebook) ha pubblicato alcuni documenti relativi ai contenuti di addestramento, ma la questione resta delicata: molti file e opere caricati in passato su piattaforme social ora si trovano, potenzialmente, anche nei database di addestramento. Google, dal canto suo, si è mossa in modo analogo per Bard e altre IA interne, ma la community di creatori invoca maggiore trasparenza.
Le cause legali e le questioni aperte
Aumento di controversie legali:
- Getty Images vs. Stability AI: come accennato, un caso emblematico di immagini con watermark sfruttate nel dataset.
- Class action di artisti: in vari Paesi, tra cui Stati Uniti e Regno Unito, alcuni collettivi di artisti stanno valutando azioni legali per difendere i propri diritti e richiedere compensi.
- Protezione delle opere letterarie: l’Authors Guild americana ha espresso preoccupazione riguardo alle IA che generano testi troppo simili a opere protette.
La battaglia, insomma, è appena iniziata e potrebbe portare a una rivisitazione del concetto di copyright digitale. Che differenza passa tra “creare” e “ricombinare” quando si parla di contenuti generati in larga scala da algoritmi?
Possibili soluzioni: dal database di opt-out alla compensazione
Per evitare che la situazione degeneri in un “Far West” digitale, si stanno ipotizzando diverse soluzioni:
- Database di opt-out: Dare la possibilità a chi detiene i diritti di un’opera di dichiarare esplicitamente che non vuole che il suo materiale venga utilizzato per l’addestramento. Questo sistema, tuttavia, è complesso da implementare: occorrerebbe un’adesione globale di tutti i fornitori di IA.
- Compensi per i creatori: Qualcuno propone un modello simile a quello delle licenze radiofoniche, dove i distributori (in questo caso, chi sviluppa e utilizza IA) pagano una quota ad artisti e scrittori in base all’uso delle loro opere.
- Trasparenza e tracciabilità: Rendere noti i dataset di addestramento e creare sistemi che permettano di tracciare l’origine dei singoli contenuti. In questo modo, se un artista scopre di essere stato incluso senza permesso, può agire di conseguenza.
- Regolamentazioni internazionali: Diversi governi stanno iniziando a discutere leggi specifiche per l’IA. L’Unione Europea sta lavorando all’AI Act, che potrebbe introdurre regole più precise sulla responsabilità nell’uso di dati protetti.
Un futuro incerto (ma non necessariamente tetro)
La forza innovativa dell’IA è innegabile. Nel giro di pochi anni, queste tecnologie hanno rivoluzionato il mondo della creatività digitale e posto nuove sfide a legislatori, artisti, produttori e consumatori. Non si tratta di demonizzare l’intelligenza artificiale in sé — in fondo, è uno strumento potentissimo che può migliorare molti settori — quanto di definire regole del gioco eque e rispettose del lavoro altrui.
Se lasciassimo l’evoluzione dell’IA completamente priva di vincoli, potremmo arrivare a un punto in cui la creatività umana viene svuotata di valore, perché imitabile e replicabile all’infinito da algoritmi. Ma se, al contrario, riuscissimo a trovare un equilibrio tra libertà creativa, tutela dei diritti d’autore e incentivi per l’innovazione, potremmo costruire un ecosistema in cui uomo e macchina collaborano alla creazione di nuovi linguaggi espressivi.
La sfida è aperta, e la palla passa al legislatore, alle aziende tech e agli stessi artisti, che rivendicano a gran voce il diritto di avere un controllo sul proprio lavoro. Nel frattempo, i tribunali di mezzo mondo iniziano a ricevere cause e denunce destinate a mettere a confronto, in modo drammatico, i vecchi concetti di copyright con le nuove potenzialità del calcolo algoritmico.
La direzione che prenderà questa sfida è ancora incerta, ma una cosa è sicura: l’intelligenza artificiale non scomparirà, e con essa le questioni legate al copyright e alla proprietà intellettuale. Come sempre, spetta alla società stabilire dove tracciare i confini, per evitare che l’innovazione diventi sottrazione di diritti e di dignità creativa.
Lascia un commento