Staipa’s Blog

Il Blog di Stefano Giolo, divulgazione informatica, uso consapevole tecnologia, e fatti miei

Deepfake ai colloqui di lavoro

Sono passati pochi giorni da quando ho cambiato lavoro, tra le varie caratteristiche del mio nuovo lavoro una è il full remote, ossia la possibilità di lavorare sempre e solo da remoto, da casa o da qualunque luogo in cui mi trovi. In questi mesi, prima del cambio, ho fatto parecchi colloqui sia presso l’azienda dove lavoro ora che presso altre aziende molte delle quali mi avrebbero fatto lavorare in full remote. Tutti i colloqui sono stati in remoto.

Si tratta essenzialmente del futuro, che piaccia o no. Ma tra i vari pericoli che queste scelte possono portare uno è quello a cui raramente si pensa: cosa succederebbe se durante i colloqui di lavoro il candidato sostituisse il proprio volto e la propria voce digitalmente in diretta?

A quanto pare l’FBI ha lanciato un’allerta per questo rischio considerandolo come concreto (https://www.ic3.gov/Media/Y2022/PSA220628

Continua a leggere

L’intelligenza artificiale che rappresenta i tuoi sogni

Quando sogniamo tendiamo talvolta a immaginare cose assurde che poi quando ci svegliamo non siamo in grado di rappresentare. E se l’Intelligenza artificiale potesse superare questo nostro limite?

No, lo scopo reale di quanto sto per scrivere in questo articolo non è ovviamente sopperire alla nostra incapacità di rappresentare i nostri sogni assurdi ma il risultato è in qualche modo quello.

Ho già parlato di che cosa sia l’Intelligenza Artificiale nell’articolo Cos’è l’Intelligenza Artificiale? (https://short.staipa.it/oooew)

e ho avuto occasione di discuterne in una live (https://short.staipa.it/qgp4q) con @lasignoraconiglio

Google di recente ha rilasciato in una versione beta privata utilizzabile solo da un numero limitato di utenti il progetto Imagen (https://imagen.research.google/

Continua a leggere

L’intelligenza artificiale può essere razzista?

Chiedersi se l’intelligenza artificiale possa soffrire di razzismo sembra una domanda poco sensata, e in un’epoca in cui è forte lo scontro del politically correct sembra perfino una provocazione, eppure non lo è perché davvero l’intelligenza artificiale può essere non solo razzista ma anche sessista, omofoba, transfobica, o più generalmente xenofoba.

Casi reali di Intelligenza Artificiale razzista e intollerante

Il caso di Tay, il “bot nazista”

Un caso che ha fatto molta notizia è stato quello di Tay, un sistema automatizzato creato da Microsoft con lo scopo di studiare appunto l’intelligenza artificiale e l’apprendimento automatico. Il risultato atteso era che Tay avrebbe dovuto essere in grado di prendere da diverse fonti il maggior numero di informazioni possibili per essere in grado di rispondere a qualunque domanda gli venisse posta in maniera il più possibile naturale e realistica.

Continua a leggere

Cos’è l’Intelligenza Artificiale?

Negli ultimi decenni, prima nella fantascienza e poi sempre di più nella vita reale si parla di intelligenza artificiale. Se ne parla con ammirazione, con mistero, con paura. Verremo conquistati da Skynet come in Terminator? Verremo salvati da un’intelligenza artificiale che ci salvi dai nostri stessi errori? Useremo l’intelligenza artificiale per creare gattini?

Una prima risposta certa è che useremo l’intelligenza artificiale per cerare gattini. Anzi, lo facciamo già, e per chi non ci credesse sappia che questo gattino non esiste.

Gattino creato dall’intelligenza artificiale di thiscatdoesnotexist.com)

ma è stato creato in maniera del tutto automatica dall’intelligenza artificiale di thiscatdoesnotexist.com, analogo al sito che genera volti umani di cui avevo parlato in Cos’è il Deepfake?

Continua a leggere

Cos’è il Deepfake?

Quella che chiamiamo Intelligenza Artificiale, non è affatto quello che pensa la gente comune. Non ancora almeno. Tuttavia, un’intelligenza artificiale in genere è un sistema in grado di prendere decisioni in maniera autonoma e senza intervento esterno e possibilmente di apprendere e crescere. Questo tipo di tecnologie, se ben usate, saranno in grado presto di migliorare il nostro mondo prendendo decisioni in frazioni di secondo dove noi non siamo in grado di prenderle. Salvarci da un incidente automobilistico, controllare un aeroplano quando il pilota avesse dei problemi, correggere i movimenti di un chirurgo in caso di errore, far muovere una persona tetraplegica interpretandone i segnali del cervello…

Come prevedibile però esistono anche dei pericoli.

Un esempio di intelligenza artificiale è anche quella in grado di prendere un’immagine e modificarla in autonomia ottenendo risultati buoni senza intervento umano.

Continua a leggere

Come riconoscere una Fake News? Parte 6: Strumenti di indagine per le immagini

Dopo aver approfondito e capito come funzionano le Fake News e come riconoscerle e come comportarsi a fronte dell’esserci incappati abbiamo iniziato a vedere gli strumenti tecnici che possiamo usare per indagare sulle Fake News. Molto spesso, per convincere della veridicità di una notizia vengono usate come prova delle foto. Sicuramente è il metodo più sicuro per convincere, ma spesso è anche il metodo più veloce per farsi scoprire.
Nella gran parte dei casi sono i piccoli dettagli a farci scoprire l’inganno e non è assolutamente facile dare un metodo utile a scoprire tutti i casi di foto false. Proverò a proporre alcuni strumenti ed alcune metodologie, spesso una o l’altra funzionano, molto più spesso però sono l’esperienza e l’inventiva di chi indaga a fare la differenza.

Google Immagini

Avete una foto e volete sapere cosa sia e dove sia stata scattata.

Continua a leggere