Quante volte capita di sentire affermazioni di questo genere? Persone convinte che su Facebook o sugli altri social tutto sia controllato, che ci obblighino a vedere cose che decidono loro, che ci nascondano le cose che loro non vogliono che vediamo, che insomma sia tutto controllato dall’alto?
Beh, è vero ed è pure piuttosto ovvio. Non siamo in una piazza pubblica ma nella gigantesca casa di qualcuno. Chi di noi avendo creato una struttura così gigantesca e piena di utenti la lascerebbe senza controllo alcuno e non approfitterebbe, almeno un minimo, per guadagnarci o almeno rientrare delle enormi spese tecnologiche?
La questione è che è vero ma non nel modo in cui pensano questo genere di complottisti. Esistono temi che a uno o all’altro social non vanno bene e non vengono accettati.
- Facebook e Instagram cancellano la propaganda russa: rimossi mille falsi account a sostegno della guerra in Ucraina (https://short.staipa.it/w9ta5)
- Facebook cancella un account di rete ‘No Vax’ in Italia e Francia per “molestie di massa” (https://short.staipa.it/u5bhj)
- Twitter e Facebook hanno sospeso l’account di Donald Trump (https://short.staipa.it/q2u9f)
Su quanto sia corretto o no cancellare questo genere di account e di pagine ognuno ha la propria sensibilità sebbene il contesto di azienda privata non implichi in alcun modo una lesione della libertà di parola o di pensiero. (https://short.staipa.it/0m1nl)
Tuttavia, quando fanno questo genere di azioni lo dicono apertamente o in ogni caso si viene a sapere tranquillamente senza troppi segreti. D’altronde è nel loro interesse avvisare gli utenti che quella tematica è vietata.
Per il resto quello che ci viene mostrato sui social si può riassumere molto semplicemente in: quello che attira maggiormente i nostri interessi secondo una serie di parametri basati sui nostri comportamenti.
Cosa significa? Significa che dietro c’è un algoritmo (uno schema o procedimento sistematico di calcolo) che valuta una serie di parametri della navigazione di ogni utente e in base a quello sceglie cosa mostrare. Tra i vari parametri ci sono le immagini o i testi sui quali si sofferma maggiormente, le pagine o i generi di post su cui mette i like o su cui commenta, e una serie di valori che vengono desunti automaticamente da queste informazioni. Per esempio, se la gran parte dei post su cui l’utente si sofferma hanno a che fare con il materiale sportivo verrà assunto che l’utente sia interessato magari anche ai risultati sportivi o alle palestre, indipendentemente che si sia soffermato su questi. Se successivamente si soffermerà, o no, su questi nuovi temi l’algoritmo potrà acquisire maggiori informazioni sui gusti. Per esempio, se tra le nuove cose mostrate l’utente si soffermerà soprattutto sul basket potranno essere rafforzate le visualizzazioni di quello specifico sport e magari diminuite quelle su un altro di minore interesse.
E se continuo a vedere post di qualcosa che mi infastidisce? Probabilmente è perché ti ci soffermi, e magari ci perdi del tempo a commentare e lamentandoti che non ti interessa. Il classico caso è quello degli influencer sotto i cui post ci sono spesso insulti o chissenefrega, questi commenti gli donano maggiore visibilità e spingono l’algoritmo dei social a mostrare nuovamente loro post a chi ha commentato, paradossalmente anche a chi se ne lamenta. Il paradosso può spingersi fino a far sentire l’utente quasi perseguitato, lui continua a commentare lamentandosi e più lo fa più riceve post di quel genere.
Va tenuto conto che nella gran parte dei social esiste la possibilità di escludere determinati contenuti dalla visualizzazione bloccando un account, una pagina o chiedendo di non vederne i post
Questo implica che gran parte del controllo di quello che vediamo o non vediamo dipende da noi. Vogliamo vedere più cose di un argomento, basta cercarle, visualizzarle, leggerle e queste aumenteranno in automatico. Vogliamo vedere meno cose di un certo argomento? Basta ignorarle, ma ignorarle davvero, non commentarle con sdegno o mettere faccine arrabbiate, oppure basta bloccarne il contenuto con le apposite funzioni.
Io per dire sono riuscito a non vedere più alcun contenuto di tipo complottistico, e non è poco.
Bisogna conoscere questo meccanismo per non “farsi fregare”, è lo stesso meccanismo che in molte persone sta causando l’attuale polarizzazione delle idee di cui ho già parlato. Più guardiamo un certo argomento, più ci viene proposto. Più ci viene proposto più ci convinciamo di quell’idea. Più ci convinciamo di quell’idea più guardiamo quell’argomento. Così finiamo per avere tante certezze (non necessariamente giuste) e pochissima conoscenza di tutto quello che invece punta nella direzione opposta (non necessariamente sbagliata).
Questo è il modo di non farsi fregare: non fidarsi pedissequamente del guru di turno.
Eppure, la possibilità che i contenuti dei social vengano usati contro di noi è più che concreta. Accade ogni giorno e accade a causa di questo stesso meccanismo.
Come ormai appare chiaro l’algoritmo (uno schema o procedimento sistematico di calcolo) di un social fa il possibile per veicolare verso di noi contenuti che ritiene interessanti per noi. Ma l’argomento più importante, per ovvi motivi economici, è la pubblicità. Essenzialmente si mantengono fornendo a ogni utente pubblicità mirata. Tu sei interessato al tema x, l’algoritmo ti mostra pubblicità sul tema x.
Per tanto se si vuole influenzare l’opinione publica è sufficiente veicolarla allo stesso modo delle pubblicità: pagando i social per pubblicare determinati contenuti sulle bacheche di utenti che rispondano a determinate caratteristiche.
Per esempio, pubblicare articoli (non importa se veri o falsi) sulla pericolosità dei Puffi, a chi abbia propensione alla paura verso cose blu, per ottenere di vincere delle elezioni mettendo nel programma “Più gatti rossi per tutti”.
Nota di colore: per chi si lamenta di ricevere pubblicità “sbagliate”, tenga conto che più l’algoritmo sbaglia nel mostrarvi pubblicità meno dati corretti ha su di voi.