In questi giorni molti utenti stanno ricevendo una mail da Meta — l’azienda madre di Facebook, Instagram e WhatsApp — con un oggetto tanto rassicurante quanto ambiguo:
“Scopri come useremo le tue informazioni mentre miglioriamo l’intelligenza artificiale (IA) in Meta.”
Un tono pacato, un linguaggio neutro, qualche parola chiave (IA, innovazione, trasparenza) e un link per opporti. Ma leggendo con attenzione si scopre qualcosa che merita una riflessione profonda.
E, forse, un po’ di inquietudine.
Cosa dice davvero la comunicazione
Meta ci informa che, per migliorare la sua intelligenza artificiale generativa (come Meta AI e i suoi strumenti creativi), utilizzerà le informazioni pubbliche dei nostri account: post, commenti, interazioni. Tutto ciò che abbiamo mai reso pubblico da quando abbiamo creato l’account.
Non solo: useranno anche le nostre interazioni con i servizi di intelligenza artificiale integrati nei loro prodotti.
Il tutto, specificano, “sulla base dei legittimi interessi”. In altre parole: non stanno chiedendo il tuo consenso. Ti stanno informando che useranno i tuoi dati — a meno che tu non ti opponga esplicitamente.
Il paradosso del consenso implicito
In teoria, secondo il GDPR, abbiamo il diritto di sapere come vengono usati i nostri dati. Ma in pratica, molte piattaforme come Meta stanno trasformando il diritto all’informazione in una giustificazione retroattiva: “Ti abbiamo avvisato, se non ci dici di no, per noi è sì.”
Questa forma di “consenso implicito” ribalta completamente il principio della protezione dei dati: non sei tu a dare il permesso, è l’azienda a dartelo… per toglierglielo.
Ma sono solo dati pubblici, no?
È proprio questo il punto: sono pubblici, certo, ma erano pubblici per le persone, non per le macchine.
Scriviamo post pubblici perché vogliamo che siano letti da amici, conoscenti, magari da un pubblico generico. Ma da lì a diventare materiale grezzo per l’addestramento di un algoritmo ce ne passa.
Non è solo una questione di privacy. È una questione di contesto.
Un nostro commento su un post, una battuta, una riflessione personale — anche se pubblica — assume un altro significato quando viene inghiottita da una macchina che ne estrae pattern linguistici, bias culturali, frasi da replicare.
In un certo senso, perdiamo il controllo non solo dei nostri dati, ma anche del senso di ciò che scriviamo.
Il diritto di opposizione… ma quanto è facile?
Meta ci concede il diritto di opposizione. Ma per esercitarlo bisogna compilare un modulo, aspettare una mail, e sperare che il processo funzioni davvero.
Un meccanismo volutamente macchinoso? Forse no, ma di sicuro poco incentivante.
Siamo davanti a una dinamica ricorrente: si fa affidamento sull’inerzia dell’utente, sulla pigrizia digitale, sulla fiducia residua.
E infatti, quanti si prenderanno la briga di opporsi? Quanti andranno a cercare le impostazioni sulla privacy, a capire cosa è pubblico e cosa no, a leggere le righe scritte in piccolo?
Una normalizzazione silenziosa
Se oggi consideriamo normale che i nostri dati siano usati per addestrare un’intelligenza artificiale senza un nostro consenso esplicito, domani potremmo abituarci ad altri tipi di accessi non richiesti. Le conseguenze possibili non sono solo teoriche: basti pensare alla possibilità che un algoritmo impari dai nostri commenti più impulsivi, dai post scritti in momenti delicati, o da battute fraintese, e che tutto questo venga utilizzato per addestrare un modello che genera contenuti, risposte automatiche o persino campagne pubblicitarie.
C’è anche il rischio concreto di un effetto “boomerang reputazionale”: se una parte delle nostre parole finisce, anche in modo anonimo, nel patrimonio culturale e linguistico di un’IA, ciò che abbiamo scritto pubblicamente può essere reinterpretato, ricontestualizzato, o addirittura “ritornare” in una forma simile in altri contesti.
Infine, il fatto che queste informazioni alimentino algoritmi che verranno poi utilizzati per migliorare l’engagement o influenzare comportamenti (come già avviene nella pubblicità mirata), introduce una forma di sfruttamento che merita di essere chiamata col suo nome: estrattivismo digitale.
Il rischio più grande non è tanto che Meta usi i nostri dati.
È che cominciamo a trovarlo normale.
Che la prossima volta non ci faccia nemmeno più caso.
Che smettiamo di distinguere tra cosa è pubblico per scelta e cosa è pubblico per sfruttamento.
L’intelligenza artificiale, per come viene venduta oggi, è il nuovo “motore del progresso”. Ma se il carburante siamo noi, almeno dovremmo essere messi nella condizione di scegliere se e quando farci usare.
Il prezzo della comodità
Viviamo in un’epoca in cui molti strumenti digitali sembrano gratuiti, ma non lo sono mai davvero.
Paghiamo con tempo, attenzione, dati… e, sempre più spesso, con la nostra identità digitale.
Non si tratta di demonizzare Meta o l’intelligenza artificiale. Si tratta di pretendere un rispetto più profondo per la nostra autonomia.
Perché una vera innovazione non può basarsi sull’uso disinvolto della nostra fiducia.
Lascia un commento