Staipa’s Blog

Il Blog di Stefano Giolo

Il pericolo dell’Intelligenza Artificiale

Tempo di lettura 3 minuti

L’intelligenza artificiale è qualcosa di utile e di rivoluzionario. Ci sono una infinità di campi in cui sta cambiando le nostre esistenze e in cui la cambierà. In una quantità di situazioni in costante aumento.
Ma ci sono anche dei pericoli.

Non intendo pericoli come quello di Skynet e di Terminator in cui l’Intelligenza Artificiale prenderà il sopravvento sull’umanità, ma quello di dare per scontato che l’Intelligenza Artificiale stia funzionando correttamente e di non avere gli strumenti o la capacità di capire che stia funzionando nel modo sbagliato.

Con @lasignoraconiglio ho trattato in parte l’argomento degli usi dell’Intelligenza Artificiale in ambito medico nell’intervista che abbiamo realizzato assieme qualche mese fa (https://short.staipa.it/qgp4q). Voglio prendere come esempio quanto detto allora per mostrare quanto pericoloso possa essere affidarsi ciecamente a una Intelligenza Artificiale in un ambito simile e quanto sia quindi importante l’affiancamento da parte di un medico umano e lo sviluppo di test rigorosi che portino un sistema di Intelligenza Artificiale ad essere davvero affidabile.

Un famoso e caso spesso utilizzato come esempio in questi casi è quello dei “Quello è un Lupo o un Husky“? (https://short.staipa.it/6xjby). Probabilmente si tratta di un racconto aneddotico non realmente accaduto ma è un esempio lampante delle problematiche che possono accadere nel riconoscimento di immagini ed è più o meno lo stesso meccanismo che ha portato un’Intelligenza Artificiale sviluppata per il riconoscimento delle fratture del femore a sbagliare clamorosamente con “comportamenti algoritmici inattesi e potenzialmente dannosi”, “unexpected and potentially harmful algorithmic behaviour” (https://short.staipa.it/4o9sw).

L’aneddoto parla di un’Intelligenza Artificiale di test sviluppata per riconoscere un lupo da un husky, a questa intelligenza artificiale sono date in pasto enormi quantità di foto delle due tipologie di animali specificando per ognuna se si trattasse di lupo o di husky. Una volta istruita l’Intelligenza Artificiale questa sembrava riconoscere i due animali con un margine di errore estremamente basso a fronte di immagini che non aveva mai visto. Ad un certo punto però aveva iniziato a rivelarsi una enorme difettosità e terminati i test preliminari aveva iniziato a produrre una quantità di errori inverosimile nel momento in cui le foto venivano fornite da altri tester.

Il problema era che chi aveva popolato l’intelligenza artificiale aveva involontariamente selezionato la gran parte delle foto di husky con uno sfondo innevato tipico delle zone dove gli husky vengono maggiormente utilizzati, e la gran parte delle foto di lupi con sfondo boscoso o comunque poco innevato. L’Intelligenza Artificiale aveva ritenuto più preciso distinguere le due tipologie di foto discriminando lo sfondo. Molto bianco significava Husky, molto verde significava Lupo. E fino a che non sono state fornite foto di lupi sulla neve i di husky su un prato nessuno ha avuto modo di accorgersi che l’Intelligenza Artificiale si fosse concentrata su cosiddette correlazioni spurie, ossia correlazioni che l’uomo scarterebbe a priori ma che se non insegnate all’Intelligenza Artificiale possono inficiarne la qualità.

In realtà un’Intelligenza Artificiale simile è stata realmente creata in una ricerca (https://arxiv.org/pdf/1602.04938.pdf) creandola volutamente difettosa. Un interessante spunto in questa ricerca è che i risultati di questa Intelligenza Artificiale furono mostrati ad un gruppo di studenti laureati nel settore delle IA e il risultato era di otto riconoscimenti corretti contro uno sbagliato. Fu chiesto agli studenti se il risultato dal loro punto di vista fosse buono e un terzo di loro disse di fidarsi del software, e meno della metà aveva supposto che la presenza o l’assenza di neve potesse essere un dato spurio potenzialmente rilevante.

Gli studenti avevano accettato di fidarsi dell’Intelligenza Artificiale basandosi esclusivamente sulla statistica dei risultati. In fondo se una cosa funziona bene otto volte su nove è facile considerare che funzioni bene in generale.

Questo è esattamente l’approccio che non deve essere utilizzato nell’uso dell’Intelligenza Artificiale. Nel momento in cui qualcosa che creiamo è in grado di prendere decisioni in modi che non possiamo prevedere dobbiamo avere dei metodi di verifica estremamente rigidi e grande cautela prima di decidere di affidarcisi totalmente. Questo è il motivo per cui, soprattutto in medicina ma non solo, il dibattito sull’uso di tali strumenti è e deve restare ancora aperto. Molto probabilmente arriveremo a un punto nel quale l’Intelligenza Artificiale potrà sostituire molto di quello che ora fanno gli esseri umani e farlo con un livello di fallibilità bassissimo. Ma per arrivare a quel momento ogni passo dovrà essere fatto in maniera rigorosa, più le decisioni sono importanti più diventa importante la sicurezza nella validità di quelle decisioni.


Conferenze

Sono disponibile per l'organizzazione di conferenze su Uso consapevole delle tecnologie, e su Come riconoscere le Fake News, o altri temi analoghi. Potete contattarmi attraverso i miei contatti su questo sito. Le conferenze possono essere declinate per formazione per adolescenti, formazione per genitori o formazione per insegnanti. Potete visitare l'apposita pagina Conferenze e Corsi per maggiori informazioni.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato.