Staipa’s Blog

Il Blog di Stefano Giolo

Cos’è l’Intelligenza Artificiale?

Tempo di lettura 7 minuti

Negli ultimi decenni, prima nella fantascienza e poi sempre di più nella vita reale si parla di intelligenza artificiale. Se ne parla con ammirazione, con mistero, con paura. Verremo conquistati da Skynet come in Terminator? Verremo salvati da un’intelligenza artificiale che ci salvi dai nostri stessi errori? Useremo l’intelligenza artificiale per creare gattini?

Una prima risposta certa è che useremo l’intelligenza artificiale per cerare gattini. Anzi, lo facciamo già, e per chi non ci credesse sappia che questo gattino non esiste.

Gattino creato dall’intelligenza artificiale di thiscatdoesnotexist.com)

ma è stato creato in maniera del tutto automatica dall’intelligenza artificiale di thiscatdoesnotexist.com, analogo al sito che genera volti umani di cui avevo parlato in Cos’è il Deepfake? (https://wp.me/pQMJM-2jl).

Anche in questo caso si tratta di un sistema informatico che ha visionato milioni di foto di gattini e dopo aver capito come deve essere fatto un gattino credibile è diventato in grado di realizzare immagini di gattini inesistenti. E bellissimi.

Cos’è un’intelligenza artificiale?

L’intelligenza artificiale (o IA, dalle iniziali delle due parole, in italiano) è una disciplina appartenente all’informatica che studia i fondamenti teorici, le metodologie e le tecniche che consentono la progettazione di sistemi hardware e sistemi di programmi software capaci di fornire all’elaboratore elettronico prestazioni che, a un osservatore comune, sembrerebbero essere di pertinenza esclusiva dell’intelligenza umana.

Marco Somalvico,  ingegnere italiano e specialista nel campo dell’intelligenza artificiale.

Un po’ di noiosa storia dell’intelligenza artificiale

La ricerca sullo sviluppo dell’intelligenza artificiale ha radici più lontane di quanto ci si potrebbe aspettare.

Nel 1956 al Dartmouth College nel New Hampshire ci fu probabilmente il primo convegno in cui su iniziativa di John McCarthy un team di dieci persone si era messo a lavorare per creare una macchina in grado di simulare gli aspetti dell’apprendimento e dell’intelligenza umana.

Nel 1959, Herbert Gelemeter creò il Geometry Theorem Prover, un software in grado di dimostrare alcuni teoremi di geometri complessi. All’epoca vi era un grande ottimismo riguardo alla possibilità di riuscirci entro poche decine di anni.

Nel 1982 fu distribuito R1, il primo sistema di intelligenza artificiale usato in ambito commerciale. Doveva servire ad aiutare la configurazione di pc in fase di ordinazione per l’acquisto. Secondo Digital Equipment, che ne usufruiva, gli avrebbe fatto risparmiare quaranta milioni di dollari all’anno.

A metà degli anni Ottanta si iniziò a fare ricerca sulle cosiddette reti neurali sull’ipotesi che creando molti punti di connessione e di elaborazione interconnessi, simili ai neuroni del sistema nervoso animale, fosse possibile una maggiore potenza ed espressività, in particolare nella ricerca sull’apprendimento.

Al giorno d’oggi esistono intelligenze artificiali in grado di battere ampiamente gli umani nei giochi (famoso è il caso di Deep Blue negli scacchi), contribuire nel controllo automatico delle navicelle nelle missioni spaziali, guidare (anche se non in completa autonomia) automobili, o più banali come controlli di termostati, arie condizionate in grado di anticipare la temperatura esterna, prevedere (in parte) i mercati azionari, fare diagnosi mediche. Un uso molto importante è quello di decidere in pochi istanti quali dei milioni di foto scattate da un telescopio spaziale siano di possibile interesse per gli umani e quali no.

Cosa può fare l’intelligenza artificiale?

Essenzialmente tutto. Ma anche niente. Attualmente siamo ben lontani dalle intelligenze artificiali dei film, in grado di sostituire l’uomo in tutto e per tutto in ogni campo e di prendere il controllo. Esistono invece ottimi sistemi in grado di fare meglio e più velocemente degli umani compiti specifici. Il problema è che, come per tutto ogni tecnologia, può essere usata bene o male.

La stessa tecnologia in grado di regolare l’andamento di una navicella spaziale in orbita attorno a venere può essere usata per controllare un missile terra aria, la stessa tecnologia in grado di correggere la guida di un umano su un’automobile può essere usata per controllare un carrarmato automatizzato, la stessa tecnologia usata per fare ricerca statistica su enormi quantità di dati medici può essere usata per fare ricerca sulle posizioni politiche e controllare la democrazia (Ne ho parlato in I social possono influenzare la mia mente?: https://wp.me/pQMJM-27V e in La democrazia della paura: https://wp.me/pQMJM-1J7)

Principi di Asilomar

Nel 2017 a seguito del convegno di esperti mondiali di intelligenza artificiale promosso dal Future of Life Institute è stato redatto un vademecum con 23 principi per affrontare le problematiche etiche, sociali, culturali e militari dell’IA. Il documento è stato sottoscritto subito da oltre 800 esperti e in seguito da altre migliaia.

  1. OBIETTIVO DELLA RICERCA: lo scopo della ricerca sull’AI deve essere quello di creare un’intelligenza della quale beneficiare e non un’intelligenza senza uno scopo.
  2. FINANZIAMENTO DELLA RICERCA: gli investimenti in materia di AI devono essere accompagnati dai finanziamenti per la ricerca al fine di assicurare un uso da cui trarre beneficio, includendo questioni spinose in materia di informatica, economia, legge, etica e studi economici: – Come possiamo rendere altamente solidi i sistemi di AI del futuro in modo che questi non siano malfunzionanti oppure oggetto di hacking? – Come possiamo accrescere la nostra prosperità attraverso l’automazione pur mantenendo le risorse e gli scopi delle persone? – Come possiamo aggiornare i nostri sistemi legali in modo da renderli più corretti ed efficienti al fine di andare di pari passo con l’AI e riuscendo a gestire i rischi a essa associati? – A quale tipo di valori dovremmo allineare l’AI e quali status legali ed etici dovremmo attribuirle?
  3. COLLEGAMENTI TRA POLITICA E SCIENZA: ci dovrebbe essere uno scambio costruttivo e sano tra i ricercatori di intelligenza artificiale e i politici.
  4. CULTURA DELLA RICERCA: una cultura di cooperazione, fiducia e trasparenza dovrebbe costituire la base di chi si occupa di ricerca e sviluppo dell’AI.
  5. EVITARE LE CORSE: i team che si occupano dello sviluppo di sistemi AI devono cooperare attivamente per evitare scorciatoie a discapito dei sistemi di sicurezza.
  6. SICUREZZA: i sistemi di AI dovrebbero essere sicuri e protetti nel corso di tutta la durata del loro ciclo di vita e verificabili nella loro fattibilità.
  7. TRASPARENZA IN CASO DI INSUCCESSO: nel momento in cui un sistema di AI causasse un danno sarebbe possibile scoprirne le cause.
  8. TRASPARENZA DEI GIUDIZI: qualsiasi coinvolgimento da parte di un sistema decisionale autonomo in materia di giustizia dovrebbe fornire spiegazioni soddisfacenti e verificabili da parte delle autorità umane competenti.
  9. RESPONSABILITÀ: i progettisti e i costruttori dei sistemi avanzati di AI sono parte attiva nelle implicazioni morali del loro uso e abuso, ma anche delle azioni e hanno la responsabilità e l’opportunità di plasmare tali implicazioni.
  10. ALLINEAMENTO DEI VALORI: i sistemi di AI altamente autonomi dovrebbero essere progettati affinché i loro scopi e comportamenti possano garantire di essere allineati con i valori umani a ogni operazione.
  11. VALORI UMANI: i sistemi di AI devono essere progettati e gestiti in modo da essere compatibili con gli ideali di dignità umana, i diritti, le libertà e la diversità culturale.
  12. PRIVACY PERSONALE: le persone dovrebbero avere il diritto di accedere, gestire e controllare i dati che generano e, di pari passo, dare ai sistemi AI la possibilità di analizzare e utilizzare tali dati.
  13. LIBERTÀ E PRIVACY: l’applicazione dell’AI ai dati personali non deve limitare irragionevolmente l’idea di libertà delle persone, sia reale sia percepita.
  14. BENEFICI CONDIVISI: le tecnologie AI dovrebbero beneficiare e potenziale più persone possibili.
  15. PROSPERITÀ CONDIVISA: la prosperità economica creata dall’AI dovrebbe essere condivisa in modo ampio, per dare beneficio a tutta l’umanità.
  16. CONTROLLO UMANO: gli esseri umani dovrebbero scegliere come e se delegare le decisioni ai sistemi di AI per raggiungere i propri obiettivi umani.
  17. NON-SOVVERSIONE: il potere conferito dal controllo dei sistemi di AI altamente avanzati dovrebbe rispettare e migliorare, piuttosto che sovvertire, i processi sociali e civili tra il benessere della società.
  18. CORSA ALLE ARMI AI: una corsa agli armamenti di armi letali autonome dovrebbe essere evitata.
  19. GRADI DI PRECAUZIONE: in caso di mancato consenso, dovremmo evitare forti ipotesi riguardanti i limiti massimi sulle future capacità dell’AI.
  20. IMPORTANZA: l’AI avanzata potrebbe rappresentare un cambiamento profondo nella storia della vita sulla Terra e dovrebbe essere pianificata e gestita con cura e risorse commisurate.
  21. RISCHI: i rischi associati ai sistemi AI, in particolare, i rischi catastrofici o esistenziali, devono essere oggetto di pianificazione e mitigazione degli sforzi, affinché siano commisurati con il loro impatto atteso.
  22. MIGLIORAMENTO PERSONALE RICORSIVO: i sistemi di AI progettati per auto-migliorarsi o auto-replicarsi ricorrentemente in modo che possano portare a un rapido aumento della qualità o delle quantità, devono essere oggetto di misure di sicurezza e di controllo severe.
  23. BENE COMUNE: la Super-intelligenza dovrebbe essere sviluppata esclusivamente al servizio di ideali etici ampiamente condivisi e a beneficio di tutta l’umanità, anziché di un solo paese o organizzazione.

Codice etico EU per l’intelligenza artificiale

A sua volta anche l’Unione Europea nel 2019 ha elaborato un proprio codice etico che contiene le linee guida sullo sviluppo e sull’utilizzo delle tecnologie legate all’intelligenza artificiale.

Il presupposto di partenza dell’intero documento è la centralità dell’uomo e il miglioramento del benessere e della libert poggiandosi ai Trattati UE, la Carta Dei Diritti e la legge Internazionale dei Diritti Umani. I punti che sono stati individuati sono

  • Supervisione umana: l’Intelligenza Artificiale deve essere al servizio dell’uomo e non deve invece ridurne, limitarne o fuorviarne l’autonomia, inoltre non devono essere sviluppati sistemi che mettano a rischio i diritti fondamentali dell’uomo. La persona deve restare autonoma e in grado di supervisionare il sistema stesso.
  • Solidità tecnica e sicurezza: gli algoritmi devono essere affidabili e sviluppati in modo tale che la sicurezza non venga messa in pericolo durante l’intero ciclo di vita del sistema.
  • Privacy e governance dei dati: i cittadini devono sempre essere informati dell’utilizzo dei propri dati personali nel massimo rispetto della normativa UE sulla privacy per l’intero ciclo di vita del sistema che fa uso dell’Intelligenza Artificiale.
  • Trasparenza: trasparenza significa tracciabilità dei sistemi di Intelligenza Artificiale. Tutti i dati utilizzati, inclusi gli algoritmi, vanno documentati, solo così si potranno capire i motivi per cui, ad esempio, una decisione basata sull’Intelligenza Artificiale è stata presa in modo errato.
  • Diversità, assenza di discriminazione, correttezza: i sistemi di Intelligenza Artificiale devono prendere in considerazione tutte le capacità e le abilità umane, garantendo l’accessibilità a tutti.
  • Benessere sociale e ambientale: i sistemi di Intelligenza Artificiale devono essere utilizzati per sostenere cambiamenti ambientali positivi e perseguire obiettivi di sviluppo sostenibile.
  • Responsabilità: devono essere adottati meccanismi di responsabilità nel riportare i dati e gli algoritmi utilizzati nei sistemi di Intelligenza Artificiale. Questo processo di valutazione consente di minimizzare eventuali impatti negativi.

Leggendo questo articolo ti sono venute delle domande a cui potrei rispondere nei prossimi articoli?

Qui puoi trovare tutte le domande semplici: https://short.staipa.it/ledomandesemplici


Conferenze

Sono disponibile per l'organizzazione di conferenze su Uso consapevole delle tecnologie, e su Come riconoscere le Fake News, o altri temi analoghi. Potete contattarmi attraverso i miei contatti su questo sito. Le conferenze possono essere declinate per formazione per adolescenti, formazione per genitori o formazione per insegnanti. Potete visitare l'apposita pagina Conferenze e Corsi per maggiori informazioni.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Questo sito usa cookies per fornirti la migliore esperienza. Se sei d'accordo clicca sul tasto 'Accetta cookies', altrimenti controlla la privacy cookies policy e scegli nel dettaglio.

WeePie Cookie Allow cookie category settings icon

Impostazioni Cookie

Di seguito puoi scegliere quale tipo di cookie consentire su questo sito Web. Fai clic sul pulsante "Salva impostazioni cookie" per applicare la tua scelta.

FunzionaliQuesto sito utilizza cookie funzionali. Questi cookie sono necessari per farlo funzionare.

AnaliticiQuesto sito utilizza cookie analitici per consentire di analizzarne l'uso e le visite alle pagine allo scopo di migliorare l'esperienza utente.

Social mediaQuesto sito web inserisce cookie di social media per mostrarti contenuti di terze parti come YouTube e Twitter. Questi cookie possono tracciare i tuoi dati personali.

AltriQuesto sito inserisce cookie di terze parti da altri servizi di terze parti che non sono analitici, social media o pubblicitari.

WeePie Cookie Allow close popup modal icon