Intelligenza artificiale: opportunità o minaccia? Considerazioni e questioni etiche

Due miliardi di anni fa, i nostri antenati erano microbi; mezzo miliardo di anni fa, pesci; cento milioni di anni fa, qualcosa di simile a topi; dieci milioni di anni fa, scimmie arboricole; un milione di anni fa, protoumani che si chiedevano come addomesticare il fuoco. La nostra linea evolutiva è contrassegnata dalla capacità di dominare il cambiamento. Nella nostra epoca, il ritmo si sta facendo più rapido.” (Carl Sagan)

Le parole sopra citate sono di Carl Sagan, un astronomo, divulgatore scientifico e autore di fantascienza statunitense. Scomparso prematuramente nel 1996, l’astronomo sarebbe stato sicuramente colpito dal carattere profetico delle sue stesse parole se ne avesse visto la completa realizzazione che è oggi sotto i nostri occhi. Gli ultimi vent’anni sono infatti stati caratterizzati da una vera e propria impennata dei progressi tecnologici nel campo della genetica, della nanotecnologia e della robotica.

Le parole di Sagan sono riportate in apertura del secondo capitolo del libro La singolarità è vicina, di Ray Kurzweil (lo trovi qui) L’inventore e informatico statunitense sostiene, nel suo saggio, che siamo molto vicini ad un punto in cui la tecnologia si svilupperà in un processo esponenziale dalle conseguenze difficilmente prevedibili.

singolarità intelligenza artificiale.png

Si va dunque verso l’evoluzione dell’uomo ad un nuovo livello che oggi non possiamo ancora immaginare?

Per evitare inutili allarmismi abbiamo chiesto il parere di un esperto, Luigi Scopelliti, dottore in Fisica intervenuto allo Speech Cocktail di Sistema Critico incentrato sulla tematica dell’Intelligenza Artificiale.

Cos’è l’Intelligenza Artificiale?

Se l’intelligenza può essere definita come la capacità di apprendere con l’esperienza, attribuendo un significato a ciò che ci circonda e pianificando di conseguenza le azioni da intraprendere, sarà simile la definizione di intelligenza artificiale. Con questa espressione ci riferiamo infatti a macchine in grado di automatizzare azioni che associamo al pensiero umano: prendere decisioni, risolvere problemi e imparare.

Ciò che una macchina deve saper fare per poter essere considerata un’Intelligenza Artificiale è:

  1. comunicare tramite il linguaggio;
  2. rappresentare la conoscenza per immagazzinare ciò conosce e ascolta;
  3. ragionare automaticamente per usare le informazioni immagazzinate, rispondere a domande e trarre nuove conclusioni;
  4. imparare per adattarsi a nuove circostanze.

Macchine che imparano

La vera rivoluzione alla base dell’intelligenza artificiale, dunque, non è nella natura dei programmi avanzati che vengono caricati su una macchina e la rendono intelligente. Ciò che differenzia le moderne tecnologie è la capacità delle macchine di imparare attraverso la lettura di file. Le moderne intelligenze artificiali estrapolano informazioni dall’osservazione dei dati e in molti casi trovano addirittura soluzioni innovative rispetto agli esperti che hanno caricato i file. È il caso di DeepMind, l’intelligenza artificiale targata Google, che dopo soli 240 minuti di osservazione delle dinamiche di gioco del videogame Atari Breakout ha appreso la migliore tattica possibile per vincere, rendendosi di fatto imbattibile.

Come si insegna ad una macchina? Dopo aver studiato la struttura del cervello umano, gli esperti di robotica hanno ricavato un modello progettato in modo che la macchina imiti le reti cerebrali (reti neurali) e crei vere e proprie associazioni mentali.

La questione etica

Chi decide cosa è giusto quando si crea un programma che dovrà prendere decisioni a carattere etico? Ad esempio, nei programmi di intelligenza artificiale che sono alla base delle macchine a guida autonoma, in caso di collisione quali sono i principi che spingono il robot a scegliere tra il salvare la vita del guidatore o salvare la vita della persona che sta per essere investita? Una questione spinosa e dalla difficile soluzione.

Il dottor Scopelliti fa una considerazione: per il paradosso del re Mida si può programmare una macchina perché compia la migliore scelta possibile, ma si rischia comunque di creare danni irreparabili. Se diamo un compito ad una macchina, infatti, questa lo eseguirà in ogni caso, anche se ne risultassero danneggiati alcuni dei soggetti coinvolti.

Le possibili soluzioni

Per essere certi che le macchine non danneggino l’uomo nel prendere decisioni autonome, al momento l’unica strada percorribile sarebbe quella di caricare nel programma tutta la gamma di casi possibili con le relative azioni da intraprendere. Questo, però, minerebbe alla base l’idea di intelligenza, perché la macchina non si dimostrerebbe in grado di decidere in base ad un sistema di valori.

Si potrebbe quindi pensare di insegnare alla macchina i valori in base ai quali prendere decisioni eticamente accettabili. Questo sarà possibile solo dopo aver riscontrato, con un ragionevole grado di certezza, la presenza nelle macchine di una coscienza. Insieme alla coscienza si dovrà poi misurare la capacità della macchina di farne un buon uso. Si parla quindi di evoluzioni future e ancora difficilmente prevedibili.

La proposta del Future of Life Institute

L’organizzazione di ricerca e sensibilizzazione di Boston, attenta al rischio esistenziale nascosto nelle pieghe degli sviluppi dell’Intelligenza Artificiale, propone un sistema di valori etici da insegnare alle macchine (le modalità, come suggerisce il dottor Scopelliti, sono ancora in fase di definizione):

  1. Sicurezza: I sistemi di IA devono essere sicuri per la durata della loro azione. La verifica della loro sicurezza deve essere sempre possibile.
  2. Trasparenza nel guasto: se un Sistema IA causa dei danni, se ne deve poter accertare la causa.
  3. Trasparenza nelle decisioni: chiunque coinvolga un sistema autonomo nel prendere decisioni, deve fornire una spiegazione soddisfacente e verificabile da una autorità umana competente.
  4. Responsabilità: i progettisti e produttori di IA sono responsabili delle implicazioni morali delle decisioni delle macchine, del loro uso corretto o non corretto e devono intraprendere azioni per definire queste implicazioni.
  5. Aderenza ai Valori: sistemi dotati di intelligenza artificiale altamente autonomi dovranno essere progettati affinché i loro obiettivi e i loro comportamenti siano in linea con i valori umani nell’intero corso della loro azione
  6. Valori Umani: i sistemi IA debbono essere progettati e devono operare in modo da essere compatibili con gli ideali di dignità umana, diritto, libertà e diversità culturale.
  7. Privacy e Libertà: l’applicazione della IA ai dati personali non deve limitare senza ragione la libertà personale reale o percepita. 8.Condivisione dei benefici: le IA devono portare benefici e favorire la crescita di quanta più gente possibile.
  8. Condivisione della prosperità: la prosperità economica creata da IA deve essere condivisa ed andare a beneficio dell’intera umanità.
  9. Controllo Umano: gli umani devono poter scegliere come e se delegare le decisioni a sistemi IA che siano in accordo con gli obiettivi degli umani stessi.

Sigma Consulting

Indagini di mercato, Ricerche sociali, Insight per le decisioni

Via del cinema, 5 - 61122 Pesaro
+39 0721 415210
info@sigmaconsulting.biz

Sigma Consulting srls unipersonale – P. Iva 02625560418 - Capitale sociale € 2.000,00 i.v. - REA PS 196812 - Privacy Policy - Cookie Policy -