Nixon, la Luna e i deepfake

E se gli astronauti dell’Apollo 11 non fossero mai tornati dalla Luna e la missione fosse fallita tragicamente? La domanda non se la pone un inguaribile complottaro, ma il Center for Advanced Virtuality del MIT per un progetto finalizzato a educare l’opinione pubblica sul mondo dei deepfake e su quanto audio e video manipolati con l’AI possano essere convincenti.
Francesco Aiello, 02 Agosto 2020
Micron
Micron
Biologia e Comunicazione della Scienza

Sono le 22,17 del 20 luglio 1969 quando l’astronauta americano Neil Armstrong compie il fatidico passo con il quale lascia il modulo spaziale Eagle e mette piede sulla Luna. La missione ripaga gli Stati Uniti dei primi insuccessi nella corsa alla spazio che, con lo Sputnik e con Gagarin, avevano visto la prevalenza dei sovietici.
Quel giorno 900 milioni di persone in tutto il mondo erano incollate alla televisione, solo in Italia erano 20 milioni: lo sbarco sulla Luna del 1969 fu il primo vero evento mediatico globale e coinvolse milioni di persone in ogni angolo del Pianeta. In quella lunga notte la RAI mandò in onda uno “Speciale Luna” che durò oltre 28 ore, condotto da Tito Stagno.

E se gli astronauti dell’Apollo 11 non fossero mai tornati dalla Luna e la missione fosse fallita tragicamente? La domanda non se la pone un inguaribile complottaro, ma il Center for Advanced Virtuality del MIT per un progetto finalizzato a educare l’opinione pubblica sul mondo dei deepfake e su quanto audio e video manipolati con l’AI possano essere convincenti.

L’istituzione, con il contributo di Mozilla Foundation, ha lanciato il progetto digitale ‘In Event of Moon Disaster’, online sul sito moondisaster.org, che mostra un video dove Richard Nixon pronuncia il discorso ‘alternativo’ che era stato realmente scritto nel caso la più famosa delle missioni lunari si fosse trasformata in tragedia.
Fortunatamente, Nixon non ha mai dovuto tenere quel discorso perché gli astronauti sono tornati ​​dallo zio Sam. Ma un gruppo di ricercatori ha deciso di creare un video falso che in modo convincente, terrificante, mostra l’ex presidente degli Stati Uniti mentre annuncia al mondo il fallimento della missione Apollo 11. Il filmato, lo riperiamo è un falso, ma mostra quanto sia difficile scovare i video falsi da quelli reali.
Il team ha reclutato un attore per recitare il discorso e, lavorando con le società Respeecher e Canny AI, ha riprodotto la voce di Nixon e i suoi movimenti con sofisticate tecnologie di deep learning e intelligenza artificiale creando il video di 7 minuti che potete vedere qui sotto.

“La disinformazione dei media è un fenomeno di vecchia data, ma, esacerbata dalle tecnologie di deepfake e dalla facilità di diffusione dei contenuti online, è diventata una questione cruciale del nostro tempo”, ha dichiarato Fox Harrell, direttore del Center for Advanced Virtuality del Massachusetts Institute of Technology (MIT) .
Il deepfake di Nixon ha lo scopo di provocare una riflessione più ampia non solo su come le notizie false influenzano il nostro processo decisionale, ma come l’intelligenza artificiale è già utilizzata oggi per curare le notizie e fornire annunci personalizzati per i consumatori che leggono contenuti online.

“Questa storia alternativa mostra come le nuove tecnologie possano offuscare la verità che ci circonda, incoraggiando il nostro pubblico a riflettere attentamente sui media che incontrano quotidianamente”, ha aggiunto Francesca Panetta, direttore creativo della realtà estesa del centro, nella stessa dichiarazione.

L’esperimento del MIT ci deve invitare a riflettere. Il pericolo principale di una tale tecnologia risiede nel fatto che essa può raggiungere milioni di persone senza che questi vengano avvertiti preventivamente della contraffazione del video, rischiando di creare inutile confusione e allarme. Tutto ciò rappresenta un’ulteriore sfida che il giornalismo e l’opinione pubblica si trovano ad affrontare: come si fa a distinguere un contenuto se neanche chi lo pubblica spiega di cosa si tratti? Al momento non esiste un software in grado di identificare in maniera certa un deep fake: sono state però implementate delle tecniche che sfruttano alcune “mancanze” temporanee di informazione, come il fatto che gli esseri umani sbattono gli occhi ogni 2-10 secondi, ogni battito di ciglia richiede tra uno e quattro decimi di secondo e in rete non si trovano facilmente foto di persone a occhi chiusi. Così le reti neurali dei video deep fake hanno poco materiale a cui attingere e, di conseguenza, raramente nei video deep fake il protagonista sbatte le palpebre. Facendo analizzare il video ad altre applicazioni, anch’esse basate su I.A. e specializzate nell’individuare il “battito di ciglia”, si riesce attualmente – nel 95% dei casi – a individuare video deep fake: ma questa, come si può immaginare, è solo una vittoria temporanea.
Un deep fake ci impone di prestare una soglia di attenzione enormemente superiore rispetto alle classiche fake news, spesso velocemente smascherabili. È prevedibile, inoltre, che con l’inesorabile progredire dei sistemi di intelligenza artificiale tali video risulteranno sempre più difficili da smascherare.

La sfida al deep fake si presenta su due diversi binari. Da un lato c’è la digitalizzazione dell’informazione, con il conseguente ampliamento dell’influenza dei social network e lo sgretolamento dei media tradizionali. Dall’altro vi è il progressivo aumentare della potenza computazionale degli algoritmi, in grado di elaborare una vastissima quantità di dati simultaneamente.

Dietro al deep fake si può nascondare poi una vera e propria campagna di contro informazione che può essere confezionata ad hoc a seconda delle caratteristiche personali dei soggetti bersaglio delle fake news. Il deep fake non è solo pericoloso per gli effetti che potrebbe produrre in un’opinione pubblica già sballottata e frastornata da avvelantori di pozzi, ma lo è soprattutto per le conseguenze che potrebbe portare nelle nostre vite quotidiane.

A novembre dell’anno scorso i social network – FacebookTwitterYouTube – hanno avviato una campagna di epurazione dai contenuti a rischio, ritenendoli una vera minaccia in vista delle elezioni presidenziali Usa. Ma ora, in tempi di coronavirus e di corsa al vaccino, la vera scommessa sarà riuscire a evitare la dinsinformazione di complottisti e manipolatori. Soprattutto se la bufala passa inosservata perché il travestimento è ben riuscito.
Il vero pericolo sta poi nel considerare questi filmati semplice goliardia. Vi ricordate il Renzi dello scorso autunno andato in onda su Striscia la Notizia? Dobbiamo stare attenti a minimizzare e a non berci questa roba come simpatico divertissement televisivo. Le fake news sono e saranno una battaglia che si sta dimostrando difficile da vincere con l’avvento dei deepfake, se non staremo attenti, ci ritroveremo a combattere contro i mulini a vento.

Commenti dei lettori


Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

    X