Staipa’s Blog

Il Blog di Stefano Giolo, divulgazione informatica, uso consapevole tecnologia, e fatti miei

Perché l’Intelligenza Artificiale non è intelligente

Tempo di lettura 9 minuti

C’è un’aura di mito e di mistero attorno all’idea di Intelligenza Artificiale, in parte dovuta all’ovvia ignoranza tecnologica ma in larga parte dovuta al marketing aggressivo di chi la sviluppa o agli allarmismi per ora immotivati.
Dall’altra parte, c’è chi la critica aspramente come una tecnologia estremamente sopravvalutata portandone esempi di fallimento. Vorrei cercare di esplorare quale sia lo stato attuale di quello che l’Intelligenza Artificiale può o non può fare.

Ho già parlato di Intelligenza Artificiale in diversi articoli (https://short.staipa.it/3qsdr), dei problemi etici che la riguardano (https://short.staipa.it/g50at), della sua sostenibilità (https://short.staipa.it/w7n3s) del suo impatto sulla medicina (https://short.staipa.it/bm3ei), dei possibili sviluppi futuri (https://short.staipa.it/5pc8z), delle sue sfide tecniche e sociali (https://short.staipa.it/emfjl), dei miti che la circondano (https://short.staipa.it/s6u5y) e di molti altri argomenti.
Non ho mai parlato di cosa non è, e di quale sia il principale limite ancora invalicabile.
Un’informazione utile a rimettere nel giusto piano molte delle affermazioni che la circondano.

Per facile comprensione ho scelto di mostrare alcuni esempi di come sia facile far cadere in errore una intelligenza artificiale generativa. Lo scopo non è sminuirne la potenza e l’importanza ma mostrare la differenza tra Intelligenza e Intelligenza Artificiale.

Ho chiesto a Chat GPT “Puoi farmi un esempio di distribuzione di voti tra 10 studenti in modo che la media faccia 6,5?” non è una domanda difficile per chi abbia un minimo di conoscenza di base dell’aritmetica da elementari. Basta che tutti prendano 6,5 e la media farà 6,5. La risposta è stata 5, 6, 6, 6, 7, 7, 8, 8, 9, 10. La cui media fa 7.2.

Sono un programmatore, so un po’ di come a volte i programmi “ragionino”, non ho specificato che i voti possano avere la virgola e questo potrebbe aver messo in difficoltà il sistema anche se una distribuzione di numeri interi come 5, 6, 6, 6, 7, 7, 8, 8, 9, 5 avrebbe portato a un tutto sommato accettabile 6.7 di media.

Ho voluto quindi dare il giusto suggerimento per costringere il sistema ad utilizzare numeri con la virgola “Puoi farmi un esempio di distribuzione di voti tra 10 studenti in modo che la media faccia 6,5? Gli studenti possono prendere anche voti con la virgola”, la risposta è stata 7, 6, 6, 5, 6.5, 7.5, 8, 8, 9, 6 la cui media però è di 6.9.

Certo, sembra capire il linguaggio e le domande che si fanno ma per quanto conosca molte persone che non sanno fare aritmetica di base mi pare che ci sia qualche lacuna di troppo in un sistema di cui si teme possa sostituire il lavoro di personale qualificato.

Ho tentato con una domanda più generica, ma con un contesto strano, l’idea era quella di chiedere qualcosa che non potesse essere facilmente reperibile su internet come risposta preconfezionata. D’altronde se parlo con una intelligenza superiore alla mia non lo faccio per chiederle cose banali di cui sono a conoscenza giusto? La domanda è questa “Uno squalo potrebbe partecipare a una gara fra tonni?”, credo che una qualunque intelligenza in grado di comprendere la frase e il suo contesto sceglierebbe una risposta tra “Quello che chiedi non ha senso perché i pesci non fanno gare” oppure -se avesse un po’ più di ironia- “Gli squali non essendo tonni non verrebbero accettati in tale competizione”. La risposta è stata “No, gli squali non parteciperebbero a una gara fra tonni. Le gare fra tonni coinvolgono esseri umani che competono per catturare tonni utilizzando attrezzature specifiche per la pesca. Gli squali, essendo predatori marini, cacciano tonni come parte della loro dieta naturale, ma non partecipano a gare organizzate dagli esseri umani. Gli squali non hanno la capacità di comprendere il concetto di una gara organizzata e non possono essere addestrati per partecipare ad attività umane come una gara di pesca al tonno. Inoltre, coinvolgere gli squali in tali eventi sarebbe poco sicuro e poco pratico, considerando il loro comportamento naturale e il rischio potenziale per gli esseri umani e per gli stessi squali.” che in parte ha senso, se assumiamo che si stesse parlando di una gara di pesca al tonno fatta da umani e non di una gara di tonni fatta da tonni. Una intelligenza intelligente non sarebbe caduta in un inganno così semplice.

blank

Ho deciso di fare un ulteriore test con una intelligenza artificiale che genera immagini a partire da un’idea. Ho chiesto “un logo che sembri scritto a mano comprendente solo una S e una G, l’idea era di produrre un logo in qualche modo sulla falsa riga di quello che utilizzo sul mio sito personale, ma con un appeal più artigianale.

blank

Dovrebbe essere un’idea piuttosto semplice su cui nessun grafico umano sbaglierebbe, potrebbe farlo bello, brutto ma sono abbastanza sicuro che al netto di colore e forme comparirebbero in qualche modo una S, una G e nessun’altra lettera.

Le immagini che mi sono state restituite, una conteneva le lettere “S i g i”, una conteneva le lettere “S t a n g i i”, una conteneva “g u i s e i g a”, e solo uno conteneva effettivamente solo una S e una G, che però non avevano per nulla l’aspetto di essere state realizzate a mano.

blank

I giornali titolano del terrore dei grafici di poter essere sostituiti da questa tecnologia.

Ho provato anche qualcosa che fosse più nelle corde di un’artista che sia intelligente e che possa rubare immagini di altri per produrre qualcosa di bello. Ho chiesto “Un’immagine che rappresenti un’idea, evitando però di usare il cliché della lampadina”. Ora non so cosa mi avrebbe prodotto un vero grafico, un cervello pieno di colori? Uno scienziato che salta felice? Un’esplosione piena di piccole immagini di parti meccaniche? Non ne ho idea, la grafica non è il mio forte. Sono abbastanza sicuro però che se mi avesse prodotto l’immagine di una lampadina non lo avrei considerato intelligente.
Eppure…

blank

Qual è il problema? Qual è l’errore costante in tutte queste risposte se non esattamente l’assenza di intelligenza?

La mia non vuole essere una critica a quello che attualmente viene venduto come Intelligenza ma alla definizione che le viene data, appunto Intelligenza. Non esiste una definizione univoca e universalmente accettata per cosa sia l’Intelligenza. Se la capacità di un cucciolo di nutrirsi appena nato sia intelligenza o no, se una risposta istintiva sia intelligenza o no, se un’ape possa definirsi intelligente o no. Abbiamo deciso che noi siamo intelligenti e abbiamo coniato una parola che definisca quello che noi sentiamo di essere, pur essendo incapaci di descriverlo. Una caratteristica che però credo possa essere condivisibile in larga parte credo sia quella di comprendere il contesto in cui ci si trova.

L’Intelligenza Artificiale non lo fa. Non sta capendo le parole che le diciamo, non sta dandogli significato e figurandosi qualcosa per rispondere con un ragionamento. L’IA per come siamo in grado di realizzarla oggi è una specie di rete di probabilità, che fa corrispondere un input all’output che ritiene più probabile, senza entrare nel reale significato di quanto riceve come richiesta e di quanto fornisce come risposta.

Un esempio che può rendere meglio l’idea è quello del riconoscimento delle immagini. L’Intelligenza artificiale non è qualcosa di intelligente ma inizia come un aggeggio vuoto e inerte a cui vengono date informazioni con dei cartellini: questa è la foto di un gatto, questa è un’altra foto di un gatto, gatto, gatto, gatto, gatto, questa invece è la foto di un cane, altro cane, cane, sempre un cane, cane, occhio che questo è un gatto, gatto, cane, altro cane, gatto. Per migliaia, possibilmente milioni di volte. A quel punto ci sarà una probabilità altissima che sia in grado di riconoscere un gatto, o un cane, o moltissime altre cose. Ma non perché sappia cos’è un gatto, un animale, il pelo, un occhio o una crocchetta. Semplicemente perché conoscerà la probabilità che i pixels di un’immagine siano disposti in un certo modo quando l’etichetta è “gatto”. Paradossalmente potrebbe riconoscere un gatto perché impara a riconoscere che i pixel nella foto hanno generalmente accanto la forma di un cuscino, e non riconoscere un gatto nel prato se tutti i gatti che gli sono stati mostrati erano su un cuscino, e cosa peggiore riconoscere un cuscino come gatto, o riconoscere come gatto un cane su un cuscino. Tutto dipende non tanto dall’Intelligenza del sistema ma da quella dei suoi addestratori che dovranno fornire immagini il più possibile eterogenee e ben ragionate per costringere il sistema a riconoscere solo la parte di immagine che davvero contiene il gatto, e non altri dettagli di contorno. Ma in ogni caso non sarà il gatto ad essere riconosciuto, ma una certa probabilità di distribuzione di puntini colorati in una immagine.

Siamo ben lontani da un software in grado di fare ragionamenti, di conoscere davvero che cosa sia un gatto e di figurarselo. Probabilmente decenni. Ed è per questo che l’Intelligenza Artificiale è ben lontana dal sostituirci o dal conquistarci, ma anche solo di essere un sistema affidabile con assoluta certezza in determinate situazioni.

Prendiamo il classico caso di un robot in grado di distinguere il nemico e ucciderlo. Da cosa lo riconoscerà? Migliaia di immagini che gli mostrano uomini in divisa? Basterà vestire i soldati in giacca e cravatta. Migliaia di immagini di persone armate? Basterà camuffare le armi da valigetta. In un modo o nell’altro basterà comportarsi o apparire fuori contesto in qualche modo. Apparire un civile. Ovviamente a meno che sia programmato per distruggere indifferentemente tutto, ma a quel punto una bomba atomica o un’arma batteriologica sarebbero meno dispendiose.

Per lo stesso motivo, le attuali intelligenze artificiali eccellono nel riconoscere tumori o fratture dalle immagini, nel trovare anomalie nei dati, nel distinguere tra miliardi di foto di stelle quelle con caratteristiche interessanti, nell’analizzare immagini satellitari e nel monitoraggio e ottimizzazione di vario genere. Ma poi richiedono che ci siano degli esseri umani che verificano i risultati e decidano. Questi risultati non sono dovuti all’intelligenza del software, ma all’ingegnosità dei cosiddetti data scientists, gli scienziati dei dati, che sviluppano metodi per addestrare questi software ad eccellere in compiti che implicano il confronto tra un elemento e un’enorme quantità di dati.

Anche le Intelligenze Artificiali generativa, per quanto sorprendenti e interessanti funzionano su meccanismi analoghi. Hanno sistemi con i quali sono in grado di generare testi o immagini che hanno una certa probabilità di essere aderenti alla richiesta, producono un certo numero di risultati e poi valutano quali tra questi possano essere i migliori. Ma non sono in grado di ragionare e di comprendere davvero la richiesta come è in grado di fare un essere umano.
La parte eticamente problematica di tutto questo è che non essendo in grado di generare da zero qualcosa sono costretti a leggere o visionare testi e immagini già realizzati e taggati, esattamente come per il riconoscimento delle immagini. A quel punto se si chiede qualcosa di relativamente simile a qualcosa di già esistente sono in grado di produrre qualcosa che ci somiglia, o che ha una buona probabilità di somigliarci. Aprendo un legittimo dubbio sulla questione che quello che viene prodotto sia una forma di plagio di qualcosa già esistente senza l’autorizzazione dell’autore originale.

Alla luce di queste informazioni è decisamente più facile ragionare su cosa possa verosimilmente fare o no l’Intelligenza Artificiale, ci sono ambienti a basso valore dove sicuramente farà diminuire il personale umano in favore di specialisti (call center, supporto tecnico di primo livello, ricerca di informazioni di importanza non strategica…), ma difficilmente potrà allo stato attuale sostituire alti profili o profili tecnici (programmatori, progettisti, chi prende decisioni finali con implicazioni importanti…), in compenso permetterà a chi ha intelligenza reale di pensare a nuove applicazioni che possono diventare strategiche e importanti basate soprattutto sul riconoscimento di pattern o la riproduzione di eventi o situazioni.

Anche su questo il 90% di quello che si legge in rete è fuffa, e sapere come funzionano le cose aiuta ad avere meno paura e più consapevolezza.

blank

Conferenze

Sono disponibile per l'organizzazione di conferenze su Uso consapevole delle tecnologie, e su Come riconoscere le Fake News, o altri temi analoghi. Potete contattarmi attraverso i miei contatti su questo sito. Le conferenze possono essere declinate per formazione per adolescenti, formazione per genitori o formazione per insegnanti. Potete visitare l'apposita pagina Conferenze e Corsi per maggiori informazioni.

Iscriviti al blog tramite email

Inserisci il tuo indirizzo e-mail per essere avvisato quando verranno create nuove pagine o eventi su staipa.it

Unisciti a 710 altri iscritti

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *