L’intelligenza artificiale, i video realistici e la verità che scegliamo di vedere

Tempo di lettura 3 minuti

Negli ultimi giorni, l’attenzione si è concentrata su Veo 3, il nuovo modello di intelligenza artificiale sviluppato da Google DeepMind. Presentato durante l’evento Google I/O 2025, Veo 3 rappresenta un significativo passo avanti nella generazione di contenuti video tramite IA. Questo strumento è in grado di creare video ad alta definizione a partire da semplici prompt testuali o immagini, integrando elementi come dialoghi sincronizzati, effetti sonori e musiche di sottofondo.

Le capacità di Veo 3 non si limitano alla generazione di immagini in movimento; il modello comprende e riproduce la fisica del mondo reale, garantendo movimenti fluidi e coerenti, e può interpretare complesse descrizioni per creare scene cinematografiche dettagliate. Questa tecnologia è attualmente accessibile attraverso l’app Gemini per gli abbonati Ultra negli Stati Uniti e tramite la piattaforma Vertex AI per le aziende.

Le preoccupazioni sollevate da Veo 3

L’introduzione di Veo 3 ha suscitato un mix di entusiasmo e preoccupazione. Da un lato, offre nuove opportunità per creatori di contenuti, educatori e professionisti del marketing, democratizzando la produzione video di alta qualità. Dall’altro, emergono timori legati alla possibilità di creare contenuti ingannevoli o manipolati con estrema facilità.

La capacità di generare video realistici con dialoghi e ambientazioni credibili solleva interrogativi sull’autenticità dei contenuti online. Inoltre, la potenziale sostituzione di ruoli creativi tradizionali, come attori e registi, con soluzioni automatizzate alimenta il dibattito sull’impatto dell’IA nel settore dell’intrattenimento e dei media.

Ma siamo sicuri che sia davvero questo il problema?

La verità è che da anni non distinguiamo più il vero dal falso — e non abbiamo certo avuto bisogno dei video creati dall’IA per perderci.
Le fake news circolano da molto prima dell’intelligenza artificiale generativa. I titoli acchiappa-click, le notizie inventate o distorte, le foto decontestualizzate… tutto questo esiste già. E funziona.

Non servono video falsi per crederci

Le fake news, prima e dopo l’avvento di tecnologie come Veo 3, continuano ad avere caratteristiche ricorrenti che non dipendono dallo strumento utilizzato ma dal modo in cui sono costruite: fanno leva su emozioni forti (paura, rabbia, indignazione), confermano idee già presenti in chi legge, sono spesso confezionate in modo sensazionalistico, e hanno titoli o contenuti volutamente ambigui. Tutti elementi che abbiamo già visto analizzando i meccanismi classici della disinformazione.

Come spiegato in dettaglio nella guida su come riconoscere una fake news (https://www.staipa.it/blog/come-riconoscere-una-fake-news-parte-3/), queste notizie false raramente si presentano come completamente inventate: più spesso distorcono, esagerano o rimescolano contenuti veri per ottenere un effetto specifico. E anche con strumenti di nuova generazione, il principio resta lo stesso: se non siamo allenati a riconoscerle, ci cascheremo comunque.

Il meccanismo è noto e ha un nome preciso: bias di conferma.
Tendiamo a dare più credito alle notizie che confermano le nostre opinioni, e a ignorare (o attaccare) quelle che le mettono in discussione. È un filtro mentale che ci fa credere a ciò che vogliamo sia vero.

A questo si aggiungono altri bias cognitivi:

  • Effetto di verità illusoria: più sentiamo ripetere una notizia, più ci sembra vera.
  • Bias dell’autorità: se lo dice una figura autorevole (o che consideriamo tale), ci fidiamo.
  • Effetto Dunning-Kruger: più ne sappiamo poco, più crediamo di capirci qualcosa.

Il problema, insomma, non sono (solo) gli strumenti. È l’uso che ne facciamo.
E soprattutto, è l’atteggiamento con cui ci avviciniamo all’informazione.

I canali inaffidabili useranno l’IA, quelli seri faranno debunking

Non c’è dubbio che i canali inaffidabili useranno questa tecnologia per rafforzare le proprie narrazioni. Lo fanno già oggi, con mezzi più grezzi: immagini modificate, titoli distorti, contenuti presi fuori contesto.
L’intelligenza artificiale generativa darà loro un’arma in più. Ma non è questo a doverci spaventare.

Perché anche i canali affidabili continueranno a fare ciò che fanno: verificare, contestualizzare, debunkare.
E soprattutto, continueranno a basarsi su un principio tanto semplice quanto cruciale: la responsabilità dell’informazione.

È una questione di scelta (come lo è sempre stata)

Alla fine, tutto si riduce a questo: la scelta delle fonti.
Oggi più che mai, serve esercitare il pensiero critico.
Serve sapere che il nostro cervello può ingannarci.
Serve riconoscere che a volte ci fidiamo non perché qualcosa è vero, ma perché ci fa comodo pensarlo.

I video falsi sono solo l’ultima evoluzione di un problema antico: la tendenza umana a credere a ciò che ci rassicura, che ci scandalizza, che conferma il nostro mondo.

Non serve avere paura dell’intelligenza artificiale. Serve avere consapevolezza di noi stessi.

Categorie Articolo: ,
blank

Conferenze

Sono disponibile per l’organizzazione di conferenze su Uso consapevole delle tecnologie, e su Come riconoscere le Fake News, o altri temi analoghi.
Potete contattarmi attraverso i miei contatti su questo sito.

Le conferenze possono essere declinate per formazione per adolescenti, formazione per genitori o formazione per insegnanti.

Potete visitare l’apposita pagina Conferenze e Corsi per maggiori informazioni.

Iscriviti al blog tramite email

Inserisci il tuo indirizzo e-mail per essere avvisato quando verranno create nuove pagine o eventi su staipa.it

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Short link

short.staipa.it/onjy7

Citazioni a caso

Anche qui Dio concede che non manchi l’enigma di vivere. Altrove, senza dubbio, esistono i tramonti. Ma perfino da questo quarto piano sulla città si può pensare all’Infinito. Un infinito con magazzini sottostanti, è vero, ma con stelle all’orizzonte.Fernando Pessoa
Il libro dell’inquietudine

Categorie Articoli