Da settimane rimbalza l’idea che l’Unione Europea voglia “leggere le chat”. Il nome ufficiale è Regolamento per prevenire e combattere gli abusi sessuali sui minori online (CSAR). Il cuore della proposta, nelle versioni controverse, è questo: imporre ai servizi digitali ordini di rilevazione (obblighi legali rivolti ai provider di analizzare certi contenuti secondo criteri fissati dalle autorità) per scansionare contenuti privati alla ricerca di materiale pedopornografico o tentativi di adescamento. In alcune bozze la scansione avverrebbe sul dispositivo, prima che un messaggio venga cifrato end‑to‑end (E2EE: cifratura in cui solo mittente e destinatario possono leggere il contenuto; nemmeno il fornitore del servizio può farlo). È l’aspetto che ha acceso la miccia.
A che punto siamo oggi
Il dossier ha avuto alti e bassi: rinvii, compromessi, presidenze di turno che ci hanno provato e governi spaccati. In questi giorni la situazione è tornata fluida: si parla nuovamente di stallo in Consiglio e di testo rimandato al tavolo negoziale; il ruolo della Germania è decisivo perché senza il suo via libera difficilmente si raggiunge la maggioranza qualificata.
Nel frattempo è in vigore una deroga temporanea (una sorta di “regola‑ponte”) che permette ai servizi online di fare controlli volontari contro l’abuso sui minori senza violare la legge sulla segretezza delle comunicazioni (la direttiva e‑Privacy, cioè le norme che proteggono le nostre chat). In concreto, oggi non esiste lo scanner universale nelle chat di cui si discute: le piattaforme possono però intervenire su ciò che transita dai loro server (post pubblici, gruppi o messaggi non cifrati end‑to‑end, foto e video caricati su cloud) usando confronti con impronte digitali (hash) di materiale già noto e moderazione umana; possono agire sulle segnalazioni degli utenti (chi segnala condivide volontariamente una copia dei contenuti); possono bloccare link/URL già classificati come illeciti; e offrire strumenti opt‑in (cioè attivati solo se l’utente o il genitore li sceglie esplicitamente, con la possibilità di disattivarli in qualsiasi momento) come i parental control. Questa deroga è stata prorogata fino al 3 aprile 2026 per evitare un vuoto di regole mentre si decide la versione definitiva.
Esempi pratici di strumenti opt‑in (oggi)
- Controllo genitori del sistema operativo: Tempo di utilizzo (iOS) o Family Link (Android) attivati dal genitore per limitare app/ore, bloccare download, approvare contatti. Si possono disattivare o modificare in qualsiasi momento.
- Modalità “contenuti sensibili” nelle chat: alcuni servizi offrono il blur automatico delle immagini ricevute da sconosciuti, che l’utente può togliere manualmente se desidera visualizzare.
- SafeSearch/Modalità con restrizioni: filtri dei motori di ricerca o di piattaforme video che nascondono risultati espliciti, attivabili dall’utente o dal genitore e reversibili.
- Scansione su cloud facoltativa: servizi foto che propongono il confronto con impronte note solo sugli upload volontari (non sulle chat cifrate), con consenso espresso e possibilità di revoca.
- Segnalazioni e blocchi user‑side: pulsanti “Segnala/Blocca” più facili e percorsi guidati che inviano solo ciò che l’utente decide di condividere con i moderatori.
- Profili junior: account per minori con impostazioni predefinite più restrittive (privacy, contatti, visibilità) che il tutore può allentare o rafforzare.
Perché parlo di opt‑in se il tema è la pedofilia?
Gli opt‑in non fermano chi è determinato a delinquere: su questo siamo d’accordo. Allora perché citarli? Perché servono a ridurre il danno senza smontare la cifratura per tutti. In pratica: diminuiscono l’esposizione di ragazzi e famiglie a contenuti indesiderati, aumentano le segnalazioni qualificate (quando l’utente sceglie di condividerle), e limitano i falsi positivi rispetto a uno scanner universale. Non sono la “rete a strascico”, sono la cintura di sicurezza: non evita tutti gli incidenti, ma riduce i danni e non richiede di aprire il cofano delle chat cifrate.
Per colpire chi produce e scambia materiale illecito servono indagini mirate con mandato, cooperazione tra forze dell’ordine e piattaforme, strumenti forensi e canali di denuncia efficaci. Gli opt‑in stanno accanto a tutto questo, non al posto di tutto questo.
Perché è così controversa
Mettere uno scanner universale dentro i telefoni significa spostare il baricentro della sicurezza: non più “io e te” che comunichiamo protetti dalla cifratura, ma un software di terzi che decide cosa è lecito inviare. Le autorità europee per la protezione dei dati (EDPB/EDPS) hanno scritto nero su bianco che il pacchetto, così concepito, comporta seri rischi per i diritti fondamentali e per i principi del GDPR (minimizzazione, proporzionalità, privacy by design).
C’è anche un tema di tenuta tecnica: il riconoscimento di immagini usa spesso hash percettivi; basta un ritaglio o un filtro ad hoc per eludere il controllo. E per testo/adescamento entriamo nel regno dei falsi positivi: slang, ironia, multilingua confondono i modelli. Concretamente può capitare che genitori che si scambiano immagini dei propri figli per fini medici, scolastici o familiari vengano intercettati per errore da questi filtri, con segnalazioni automatiche da verificare a posteriori. Non lo dicono solo gli attivisti: esperti di sicurezza e organizzazioni tecniche spiegano perché lo scanning lato client indebolisce l’ecosistema e crea nuove superfici di attacco.
Chi sta dicendo cosa (e perché conta)
Signal ha la posizione più netta: “meglio uscire dal mercato UE che inserire spyware nei dispositivi”. Non è una minaccia campata in aria, è coerente con il loro modello “privacy‑first”.
Altri servizi orientati alla privacy hanno lanciato campagne coordinate: l’idea di una “piccola backdoor” non esiste; una backdoor è… una backdoor (in informatica: un accesso nascosto/non documentato che permette di entrare in un sistema o leggere dati aggirando le protezioni, ad esempio la cifratura).
Apple è un caso istruttivo: nel 2021/22 aveva annunciato uno schema di scanning (iCloud Photos) e lo ha cancellato dopo il boomerang di critiche, spostando l’attenzione su funzioni opt‑in per la sicurezza dei minori (opzionali e sotto controllo dell’utente/famiglia, non imposte a tutti). Un promemoria: se non è sostenibile per Apple, difficile che lo sia per tutti.
Dall’altra parte, le organizzazioni che lottano contro l’abuso ricordano che il problema è reale e urgente e che non possiamo permetterci “zone buie” online: alcune propongono tecniche per bloccare prima della condivisione anche nei contesti cifrati. È importante ascoltarle, pur mettendo in conto i limiti tecnici e legali appena citati.
Il nodo giuridico (senza farci venire mal di testa)
La giurisprudenza della Corte di giustizia dell’UE è severa con gli obblighi generali e indiscriminati: dalla data retention ai filtri generalizzati su piattaforme, l’idea di sorvegliare “tutti per sempre” è stata più volte bocciata per sproporzione. Non è lo stesso identico scenario, ma le analogie pesano quando si valuta la compatibilità di scansioni preventive nelle comunicazioni private.
Tradotto: anche se passasse una versione “dura”, la strada porterebbe quasi certamente a ricorsi e a un nuovo giro davanti ai giudici europei, con mesi (anni) di incertezza applicativa.
Cosa può succedere davvero (senza fantascienza)
Tre scenari possibili, in ordine di probabilità realistica:
- Compromesso: niente scanner universale lato client; più focus su rilevazioni mirate, strumenti opt‑in, standard tecnici e tutele forti per l’E2EE.
- Braccio di ferro legale: passa un testo troppo invasivo → ricorsi immediati, provider che limitano funzioni nell’UE e causa lunga in Lussemburgo.
- Stop & Rewrite: niente maggioranza in Consiglio → si torna a scrivere, nel mentre resta la deroga volontaria fino al 2026.
La riflessione che ci interessa (più della tifoseria)
Proteggere i minori non è in discussione. La domanda è come: preferiamo una scorciatoia tecnologica che apre una porta su tutte le nostre conversazioni (sperando che funzioni e non venga abusata), oppure investiamo su indagini mirate con mandato, cooperazione internazionale, strumenti di denuncia efficaci, educazione digitale e parental control opt‑in? La prima via promette molto ma, tra errori e abusi possibili, rischia di fare più danni alla sicurezza complessiva di quanti ne risolva. La seconda è meno spettacolare, più lenta, ma compatibile con l’idea di cifratura come cintura di sicurezza per tutti: bambini compresi.
Non è questione di essere “pro” o “contro” la privacy: è capire che indebolire l’E2EE per beccare i criminali indebolisce anche giornalisti, attivisti, vittime di abusi domestici e chiunque dipenda da comunicazioni sicure. E, sì, pure noi quando mandiamo documenti medici o foto della patente in chat.
Cosa ci portiamo a casa: proteggere i minori è un dovere. Ma farlo aprendo una porta su tutte le chat rischia di esporre tutti a nuovi pericoli senza garantire risultati proporzionati. La via più solida è un mix di indagini mirate con mandato, cooperazione internazionale, strumenti opt‑in per famiglie e canali di segnalazione efficaci—senza indebolire la cifratura di base.
Lascia un commento