Sicurezza online, censura? Genitori indagati per abuso sui minori.

blank
Tempo di lettura 4 minuti

La sicurezza online è un problema. Non nel senso che ci sia semplicemente un grave problema nella gestione della sicurezza ma nel senso che risolvere i problemi della sicurezza in rete è di per sé un problema forse insormontabile.

Da parte di chi parla facile e si indigna spiegando agli altri cosa dovrebbero fare si dice sempre che i gestori dei servizi online dovrebbero prendersi l’onere di fare i controlli necessari per non far proliferare le fake news, la violenza, l‘illegalità e al contempo proteggere la privacy.

Facile, no? Basta dire a un qualunque colosso informatico fai così e quello con le risorse a disposizione sarà in grado di farlo, le difficoltà tecniche non esistono.
Si arriva anche al paradosso che quelle stesse persone che professano la facilità di questo tipo di controlli quando scoprono che Google legge le mail di gmail o guarda i dati che archivi allora no. Allora è violazione della privacy. Perché le mie mail, i miei dati non li deve vedere nessuno, quelli di un malfattore invece sì.

Cosa distingue un malfattore da un ligio genitore attento alla salute del proprio figlio?

Sistemi come PhotoDNA di Microsoft (https://short.staipa.it/photodna) o Content Safety API e CSAI Match di Google (https://short.staipa.it/mn12u) hanno lo scopo di combattere gli abusi sui minori analizzando miliardi di foto, praticamente tutte quelle disponibili in rete e decidere se queste possano rappresentare abusi sui minori o no. Analizzano tutto. Quello che inviamo via mail, quello che salviamo in automatico nelle copie online delle fotografie fatte con lo smartphone.

La cosa è positiva o negativa?

Questo sistema implica necessariamente che tutte le immagini vengano verificate, il sistema è automatico e applicato da tutti i grandi gestori di dati, social network e no, e ha lo scopo di identificare persone che fanno traffico di immagini illegali e denunciali alle autorità locali.

Il New York Time però riporta il caso di indagine su un padre che ha inviato alla pediatra alcune foto che ritraevano la zona genitale del proprio figlio (https://short.staipa.it/u475z). In questo caso Google ha ritenuto potesse essere un caso di molestie e ha ritenuto opportuno allertare le autorità che hanno fatto partire un’indagine che ha gettato per alcuni mesi una famiglia in un incubo giudiziario. Ovviamente si tratta di un caso ma sono molti quelli analoghi accaduti.

Chiaramente le cose in fase giudiziaria vengono risolte ma che cosa non è funzionato nel sistema di controllo?

Il sistema prevede una prima scrematura automatica che al ritrovamento di immagini potenzialmente problematiche le invia a un secondo livello di controllo umano. Sì, ci sono degli umani che tutto il giorno verificano foto di potenziali abusi per valutare quali lo siano realmente abusi e quali no. Come è prevedibile sia il sistema automatico che quello umano possono avere una percentuale di fallibilità. Scegliamo una fallibilità bassa a pelle, diciamo uno 0,1% sia per il sistema automatico che per quello umano. Ossia entrambi i sistemi sbagliano una volta su mille, è facile calcolare che la fallibilità del sistema accoppiato automatico e umano sia molto più bassa, ossia 0,01%, uno su 10.000.
Quante immagini vengono verificate al giorno?
Solo su Instagram vengono pubblicate 3600 foto al secondo (COSA ACCADE OGNI 60 SECONDI IN RETE: https://short.staipa.it/a3fva). Il che significa qualcosa come 311.040.000 al giorno, con un tasso di errore dello 0,01% significherebbe 3.110.400 errori, solo sui controlli di immagini su Instagram.

Questo è un calcolo chiaramente è fatto su dati che non hanno un reale riscontro, le immagini pubblicate su internet sono infinitamente di più, e al contempo sono infinitamente di meno quelle problematiche, ma serve a rendere l’idea che per quanto un tasso di errore sia estremamente basso su numeri enormi si rivela essere comunque determinante.
Se non è possibile diminuire più di un certo livello l’errore dell’automatismo è importante che quello del secondo livello, quello umano sia il più possibile basso.

Questo implica che degli esseri umani sono pagati per guardare le foto potenzialmente compromettenti che le persone fanno con il proprio smartphone, almeno quando hanno la sincronizzazione con il cloud attiva come la gran parte degli utenti.

Questo è il prezzo, uno dei prezzi, della sicurezza. Chiediamo sicurezza in rete, chiediamo privacy e spesso non ci rendiamo conto che le due cose non sono compatibili.

D’altra parte, questi sistemi hanno ampio margine di miglioramento, la possibilità ad esempio di avvisare anche l’utente della denuncia in modo che possa fornire contestualmente una giustificazione potrebbe essere un buon inizio per diminuire i disagi in caso di errore.

I grandi gestori di dati diventano però contemporaneamente investigatori, e giudici e questa è una situazione estremamente delicata e pericolosa.

Non ho una soluzione a tutto questo, altrimenti probabilmente sarei dirigente in qualche mega azienda e non avrei tempo di scrivere articoletti su un blog di nicchia, ma trovo sia importante riflettere su questi dati: il riconoscimento di quanto presente in una foto, cosa che un umano fa più facilmente di una intelligenza artificiale può far immaginare quanto complesso possa essere il riconoscimento di altre cose come le fake news, che spesso anche un umano fatica a riconoscere perché quasi sempre borderline tra dati falsati o presentati in maniera erronea, ideologie e inganni.

Controllare la rete non è semplice come qualcuno vorrebbe venderci, è e resta uno dei più complessi problemi sia tecnici che etici che possano esistere.

Categorie Articolo: , , ,
blank

Conferenze

Sono disponibile per l’organizzazione di conferenze su Uso consapevole delle tecnologie, e su Come riconoscere le Fake News, o altri temi analoghi.
Potete contattarmi attraverso i miei contatti su questo sito.

Le conferenze possono essere declinate per formazione per adolescenti, formazione per genitori o formazione per insegnanti.

Potete visitare l’apposita pagina Conferenze e Corsi per maggiori informazioni.

Iscriviti al blog tramite email

Inserisci il tuo indirizzo e-mail per essere avvisato quando verranno create nuove pagine o eventi su staipa.it

Unisciti a 711 altri iscritti

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Short link

short.staipa.it/czy2o

Citazioni a caso

Io ho smesso di “dover essere”, cerco di “dover” il meno possibile e di “essere” il più possibileStefano Giolo

Categorie Articoli