Intelligenza artificiale: il futuro è delle macchine?

L’Intelligenza Artificiale è una grande speranza per il futuro dell’umanità. Ma, secondo alcuni scienziati, può anche rappresentare un grande pericolo, potenzialmente in grado di soppiantare l’uomo come specie dominante.
Romualdo Gianoli, 29 Ottobre 2015
Micron
Micron
Giornalista Scientifico

In principio fu il Golem, l’essere antropomorfo della tradizione ebraica creato dall’argilla, nel quale rituali e formule magiche infondevano vita e intelligenza proprie. Poi fu la volta del mostro di Frankenstein, la creatura nella quale, attraverso una scienza seppur fantastica e primitiva, l’uomo aveva riacceso la scintilla della vita, rubandone il segreto a Dio, come Prometeo aveva rubato agli dei quello del fuoco per donarlo agli uomini. In seguito arrivarono il computer senziente Hal 9000 di “2001 odissea nello spazio”, i replicanti semi-umani di “Blade Runner”, i robot sterminatori di “Terminator” e la rete virtuale globalmente connessa di “Matrix”. Tutte creazioni (e creature) accomunate dall’unico scopo di soddisfare uno stesso e antico bisogno profondamente umano: trovare un’intelligenza altra da sé eppure, in qualche modo, alla pari, anche a costo di crearla dal nulla, per colmare quell’inconfessato senso di solitudine che da sempre accompagna l’uomo. Tentativi, però, che raccontano anche altro. Come l’eterno istinto della scoperta e la sfida a impadronirsi dei più segreti meccanismi della vita e dell’intelligenza, fino a tentare di ricrearla artificialmente, sostituendosi a Dio.

LA SINDROME DI FRANKESTEIN
Eppure, ad accompagnare indissolubilmente il sogno della creazione, c’è sempre stato un elemento negativo, una paura oscura e ancestrale a fare da immancabile altra faccia della medaglia: il terrore di perdere il controllo, l’angoscia che la creatura si ribelli al suo creatore con una manifestazione di autocoscienza e autodeterminazione in grado di capovolgere gli equilibri naturali, sostituendo il “figlio” al “padre”. E se finora magia, letteratura e finzione cinematografica avevano relegato queste creature nel rassicurante mondo dell’immaginazione, oggi la scienza vera (quella che da decenni accumula conoscenze nella robotica, nelle reti neurali e nell’intelligenza artificiale) sembra sul punto di abbattere la barriera, trasportando nel mondo reale nuove macchine dotate di “nuova” intelligenza. Un’intelligenza non umana. E così gli antichi timori si risvegliano.
Sarà, dunque, la sensazione che significativi successi in questi campi della scienza e della tecnologia siano a portata di mano, ad aver spinto gli scienziati a interrogarsi sul senso del loro stesso lavoro. Questa volta, però, non solo in termini di benefici, ma anche di possibili, catastrofici, rischi per l’umanità.
E forse qui sta la vera novità: che questa volta sono proprio gli scienziati a uscire allo scoperto, parlando apertamente della necessità di vigilare sul rischio di perdere il controllo delle proprie creazioni. In fondo, la cosa veramente interessante (o preoccupante, dipende dai punti di vista) è che questo monito rappresenta di per sé un’implicita ammissione che tale possibilità è reale e concreta e non più soltanto un’ipotesi fantascientifica. E, per giunta, arriva proprio da chi sta lavorando per realizzare l’antico sogno di dar vita a una nuova forma di intelligenza. Infatti, a compiere questa (per certi versi) inattesa riflessione sulla materia è stato un nutrito gruppo di scienziati impegnati nella ricerca d’avanguardia in varie discipline, dalla genetica alla microelettronica, dalla cosmologia alla matematica, dalla fisica all’aerospazio. Questi scienziati hanno affidato le proprie considerazioni a una lettera aperta pubblicata lo scorso 23 gennaio sulle pagine web del Future of Life Institute: una lettera che ha subito fatto il giro del mondo. Il motivo? I nomi dei firmatari.

UNA LETTERA APERTA
Il Future of Life Institute, con sede a Boston, è un ente di ricerca alquanto particolare che, con senso della misura tipicamente americano, si pone obiettivi a dir poco ambiziosi. La sua missione dichiarata, infatti, è “catalizzare e supportare la ricerca e le iniziative per la salvaguardia della vita e lo sviluppo di visioni ottimistiche del futuro, inclusi modi positivi per l’umanità di orientare il proprio corso, considerando nuove sfide e tecnologie”. Tra i suoi fondatori figurano personaggi di grande rilievo scientifico, tecnologico e imprenditoriale, spesso caratterizzati da una visione piuttosto “personale” del ruolo della scienza e della tecnologia in rapporto alla società umana e delle loro possibili evoluzioni future.
Tra i suoi promotori il FLI annovera, ad esempio, Jaan Tallin, ingegnere e cofondatore di Skype, ma anche sostenitore e fondatore di altri istituti dai nomi particolarmente suggestivi come il Cambridge Center for Existential Risk, il Future of Humanity Institute, il Global Catastrophic Risk Institute e il Machine Intelligence Research Institute.
Altro fondatore del FLI è Max Tegmark (soprannominato “Mad Max”), famoso e controverso professore di fisica al MIT, con oltre duecento pubblicazioni all’attivo, noto divulgatore scientifico e autore del recente successo editoriale “L’universo matematico. La ricerca della natura ultima della realtà”.
Ancora più interessante, poi, è l’elenco dei nomi del comitato scientifico del Future of Life Institute dove, accanto a personalità di primo piano del mondo scientifico come Stephen Hawking, Martin Rees e i premi Nobel Saul Perlmutter e Frank Wilczek, troviamo il giovane magnate Elon Musk (fondatore dell’azienda spaziale privata SpaceX e cofondatore della Tesla Motors) e volti noti dello spettacolo come Alan Alda e Morgan Freeman, da tempo impegnati anche in attività di comunicazione e divulgazione scientifica.
Ebbene, la riflessione che queste persone hanno affidato alla lettera aperta del 23 gennaio è al tempo stesso molto semplice e molto complessa perché densa di argomenti su cui, più o meno tutti, siamo (o saremo) chiamati a riflettere e rappresenta un invito rivolto, in primo luogo, a tutti gli scienziati che nel mondo fanno ricerca sull’intelligenza artificiale. In sintesi la tesi espressa nella lettera è la seguente: “Vi è un generale accordo sul fatto che la ricerca nel campo dell’I.A. stia procedendo ormai stabilmente ed è altamente probabile che il suo impatto sulla società andrà via, via aumentando. I potenziali benefici sono enormi e, dal momento che tutto ciò che la civiltà ha da offrire è un prodotto dell’intelligenza umana, non possiamo predire cosa saremo in grado di raggiungere qualora questa fosse amplificata dagli strumenti dell’Intelligenza Artificiale. L’eradicamento della povertà e della malattia, ad esempio, non sono improponibili. Tuttavia, a causa del grande potenziale dell’I.A., è importante riuscire a raccoglierne i benefici evitandone le insidie”.

LE PRIORITÀ DELLA RICERCA E LE “ESPLOSIONI DI INTELLIGENZA”
Ma quali sono le insidie cui fa riferimento la lettera? L’argomento senza dubbio più interessante e suggestivo è spiegato meglio nel documento allegato alla lettera, intitolato “Research Priorities Document”. Valutando quelle che sono le priorità a lungo termine della ricerca, gli autori si riferiscono, essenzialmente alla capacità dell’uomo di mantenere il controllo sulle attività di macchine dotate di intelligenza artificiale. Eccoci dunque tornati al timore del creatore di perdere il controllo sulla sua creatura.
Come ricordano gli autori del documento, la ricerca sulle macchine “super-intelligenti” o sulla possibilità di un rapido e autonomo aumento dell’intelligenza artificiale (definito “esplosione d’intelligenza”) è già stato oggetto di studio in relazione alla capacità di mantenere un controllo affidabile nel lungo termine da parte dell’uomo. Già nel 2008-2009 l’AAAI 2008-09 Presidential Panel on Long-Term AI Futures Subgroup on Pace, Concerns, and Control concludeva che: «Vi è un diffuso scetticismo sulla prospettiva di un’esplosione di intelligenza.
Cionondimeno c’è la condivisa sensazione che ricerche aggiuntive sui metodi per comprendere e verificare la gamma dei comportamenti dei sistemi computazionali complessi, sarebbe utile per minimizzare eventuali risultati indesiderati. Alcuni relatori suggeriscono di aumentare gli studi per definire meglio il concetto di ‘esplosione di intelligenza’ e per formulare una migliore classificazione di queste intelligenze ‘in accelerazione’. Il lavoro tecnico da svolgere potrebbe, così, portare a una migliore comprensione della probabilità di tali fenomeni e della natura, dei rischi e degli esiti complessivi associati alle diverse varianti concepite».
La questione, inoltre, è stata affrontata (in maniera forse ancora più esplicita) lo scorso dicembre, anche nello Stanford’s One-Hundred Year Study of Artificial Intelligence che così si è espresso: «…un giorno potremmo perdere il controllo dei sistemi di I.A. a causa dell’affermarsi di superintelligenze che non agiscono in accordo con i desideri umani e questi sistemi potrebbero minacciare l’umanità.
E’ possibile un futuro del genere? E nel caso come potrebbero nascere simili situazioni? Che tipo di investimenti nella ricerca dovrebbero essere fatti per capire meglio ed evitare il rischio dell’insorgere di superintelligenze pericolose o il verificarsi di ‘esplosioni di intelligenza’»?

SENTI CHI PARLA!
Come era ovvio attendersi, data la particolarità dell’argomento, questo suggestivo tema è stato ampiamente ripreso e pubblicizzato dai media, fino a oscurare tutto il resto del messaggio contenuto nella lettera aperta (che non si occupa certo solo di questo). Tuttavia è innegabile che l’attenzione mediatica e l’enfasi posta su tali argomentazioni, siano state ulteriormente favorite da almeno due elementi: la quantità e il livello dei sottoscrittori della lettera e alcune recenti dichiarazioni rilasciate da personaggi “insospettabili” che hanno fatto “outing”, affermando di essere nel campo dei “tecnoscettici”. Il documento del Future of Life Institute, infatti, è accompagnato da un lunghissimo elenco di firmatari, ben oltre 400 tra scienziati e personalità di altissimo profilo (tra cui spiccano i nomi di Stephen Hawking, Elon Musk e Martin Rees) provenienti dalle più prestigiose università e aziende di tutto il mondo come Berkley, il MIT, Cambridge, Oxford, Harvard, Google, IBM, DeepMind, etc. Ma a fare davvero scalpore sono state le recenti dichiarazioni di personaggi del calibro di Bill Gates (uno che di computer dovrebbe intendersene) e di Stephen Hawking.
Il primo ha dichiarato di essere «nel campo di quelli che sono preoccupati dalle superintelligenze», aggiungendo che: «Prima le macchine faranno un sacco di lavoro per noi senza essere superintelligenti. E questo sarà un bene se sapremo gestirle bene. Ma pochi decenni dopo l’intelligenza sarà abbastanza forte da diventare fonte di preoccupazione». Ancora più esplicito è stato Hawking che, in una recente intervista alla BBC, ha affermato: «Lo sviluppo di una’intelligenza artificiale completa potrebbe significare la fine della razza umana, principalmente perché gli esseri umani sono limitati da una lenta evoluzione biologica e non potrebbero competere, rimanendone soppiantati».
Ma, come accennato, la lettera del FLI contiene anche altro, soprattutto un forte richiamo alle responsabilità della scienza a impegnarsi per studiare in che modo sia possibile rendere i sistemi di I.A. benefici per l’umanità e, contemporaneamente, robusti rispetto a varie insidie (non solo la perdita di controllo). Secondo i relatori del testo, i progressi conseguiti sono ormai tali che i tempi sono maturi per avviare azioni concrete che tengano conto di scenari e problemi a breve termine, ma anche di più lungo respiro. Insomma, i problemi ci sono e bisogna cominciare a pensarci ma il pericolo di una ribellione delle macchine sembra ancora molto di là da venire. E comunque, in una tale evenienza, si potrebbe sempre pensare a un modo per tradurre in realtà le famose tre leggi della robotica di Asimov. Perché non si può mai sapere!

Commenti dei lettori


Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

    X