Intelligenza Artificiale: chi stabilisce le regole?

Le grandi imprese dell’Intelligenza Artificiale stanno cercando di scrivere le regole etiche e le leggi che devono regolare l’utilizzo di queste nuove tecnologie. E lo stanno facendo con poca spesa e senza alcuna resistenza. Il grido di allarme lanciato sulle pagine di ‘Nature’ da Yochai Benkler della Harvard University.
Pietro Greco, 14 Maggio 2019
Micron
Micron
Giornalista e scrittore

Lo scorso 10 maggio la National Science Foundation (NSF), una delle principali agenzie federali che finanziano la ricerca scientifica negli Stati Uniti, ha ricevuto una lettera di intenti per un programma di ricerca sull’Intelligenza Artificiale (IA) in collaborazione con Amazon. Ad aprile la Commissione Europea ha reso pubbliche le Linee Guida per un corretto utilizzo dell’Intelligenza Artificiale: un membro della commissione le ha definite come una creazione dominata dalla “ethics washing” (letteralmente di lavaggio etico) dell’industria di settore. A marzo Google ha creato a sua volta un comitato etico sull’IA, che è stato sciolto tra le polemiche una settimana dopo. A gennaio Facebook ha investito 7,5 milioni di dollari per finanziare un centro di ricerca su etica e IA presso il Politecnico di Monaco di Baviera.
L’elenco che l’americano Yochai Benkler, docente di diritto e condirettore del Berkman Klein Center for Internet & Society presso la Harvard University di Cambridge, nel Massachusetts, ha lanciato di recente sulla rivista scientifica inglese Nature è accompagnato da un grido che ha toni disperati: «Non lasciamo che le industrie scrivano le regole per l’IA».
Già, perché quell’elenco di recenti iniziative parla chiaro: le grandi imprese dell’Intelligenza Artificiale stanno cercando e stanno riuscendo a scrivere le regole etiche e anche le leggi che devono regolare l’utilizzo di queste nuove tecnologie. E lo stanno facendo con poca spesa e nessuna resistenza.
Le intenzioni delle grandi aziende multinazionale dell’IA è evidente, consegnare ad algoritmi segreti e onnipotenti tutte le informazioni che ci riguardano di cui entrano in possesso. E sono tante, queste informazioni. Tali da ricostruire per intero la nostra vita e le nostre attitudini. Informazioni mediche, sociali, culturali. Che nel migliore dei casi possono essere rivendute ad altre aziende per campagne pubblicitarie ad personam. Ma che possono essere vendute, nei casi peggiori, a singoli o istituzioni interessate ai nostri gusti sessuali o alle nostre visoni politiche o a conoscere lo stato della nostra salute.
I casi venuti alla luce di uso non corretto di queste informazionisono molti. Alcuni sono stati sanzionati in Europa come in America con multe salate ma, evidentemente, non salatissime. Talvolta la scoperta è stata accompagnata dalle scuse dei manager che hanno consentito o addirittura ordinato questo uso illegale di informazioni sul nostro conto.
È sotto gli occhi di tutti il fatto che gli stati sono stati colti impreparati dallo sviluppo di queste tecnologie di comunicazione. E che la politica ha abdicato. Ma non è davvero il caso che lo facciano anche le università e i centri di ricerca che stanno cercando di mettere a punto regole etiche sull’uso dell’IA.
Quando un’agenzia pubblica importante come la NSF legittima il programma di ricerca sull’etica dell’IA di un’azienda come Amazon che ha come obiettivo, appunto, quello di scrivere le regole da rispettare nel campo dell’Intelligenza Artificiale mina alla base, sostiene Yochai Benkler, il ruolo della ricerca pubblica che deve fare da contrappeso alla ricerca e sviluppi delle imprese private. Se poi per scrivere le regole che lei stessa dovrebbe rispettare Amazon impegna 7,6 milioni di dollari, pari allo 0,03% della spesa totale in ricerca e sviluppo (R&S) dell’azienda, allora oltre al danno si aggiunge la beffa.
Non solo glielo stiamo permettendo, ma glielo stiamo permettendo a costo minimo. Praticamente gratis. «Una università abdica al proprio ruolo centrale quando accetta finanziamenti da un’impresa per studiare le implicazioni morali, politiche e legali per pratiche che costituiscono il core business della medesima azienda», sostiene – quasi grida – Yochai Benkler. La stessa cosa succede quando i governi delegano le loro funzioni a comitati tecnici dominati dalle aziende. Certo, continua lo studioso americano, la NSF sottopone al normale processo di peer review il programma di ricerca sottoposto in collaborazione con Amazon. E al Politecnico di Monaco assicurano che Facebook non ha esercitato alcuna pressione per stabilire i criteri di conduzione dello studio etico che ha finanziato. Ma in entrambi i casi il conflitto di interessi è evidente e persino clamoroso.
Non si tratta di condannare in toto le industrie, sostiene Yochai Benkler. Il loro contributo allo sviluppo dell’Intelligenza Artificiale è necessario e anche ineludibile. Si tratta di non consentire loro di dominare completamente il settore fino a concederle di scrivere le regole.
L’Intelligenza Artificiale è la nuova tecnologia che molto probabilmente informerà di sé il nostro futuro. Non possiamo concedere a pochissime imprese di disegnarlo, questo futuro, a loro completo piacimento. L’IA deve essere di tutti e per tutti. Occorre, in altri termini, una sana ecologia dell’Intelligenza Artificiale.

Commenti dei lettori


Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

    X