Ma gli androidi sognano pecore elettriche? E i robot-giornalisti? Secondo il report Journalism, Media and Technology Predictions 2016, realizzato dal Reuters Institute for the Study of Journalism, già a partire da quest’anno verranno utilizzati più bots e algoritmi per la creazione automatica dei contenuti così come per la loro distribuzione. L’Associated Press, per esempio, ha già automatizzato le relazioni trimestrali sugli utili societari. Inoltre, anche Forbes, New York Times, Los Angeles Times e ProPublica, solo per citarne alcuni, hanno iniziato a utilizzare questo tipo di strumenti.
Una volta messo a punto un algoritmo affidabile, sarà possibile produrre migliaia di notizie “di routine” per un dato argomento in modo più rapido, a basso costo, e, potenzialmente, con meno errori rispetto ai giornalisti umani. Il ruolo di questi ultimi non sarà comunque eccessivamente minacciato dall’automazione, anche perché questa non è utile per coprire temi per i quali non sono disponibili dati strutturati. In realtà, molto presto ci saranno nuove figure professionali nelle redazioni di tutto il mondo per lo sviluppo di algoritmi sempre più efficienti.
Per capire a che punto siamo, il Tow Center for Digital Journalism e la Knight Foundation hanno finanziato una Guide to Automated Journalism, appena pubblicata. Per prima cosa, il project leader Andreas Graefe si interroga sul grande potenziale offerto dai bots, ma anche sui loro limiti. Effettivamente, questi permettono di generare notizie più velocemente, in quantità maggiore e con meno errori. Inoltre, gli stessi dati possono raccontare una storia in più lingue, magari tenendo conto dei singoli lettori.
Tuttavia, un problema può essere legato al fatto che questi programmi non possono porre domande, spiegare fenomeni nuovi e stabilirne le cause, essendo limitati nella loro capacità di osservare e capire un fatto. Inoltre, la qualità di scrittura degli articoli è inferiore a quella umana, anche se la tecnologia di apprendimento migliora costantemente e qualche volta è davvero difficile distinguere un pezzo “artificiale” da uno “naturale”.

I GIORNALISTI LASCIANO SPAZIO AI PROGRAMMATORI
Alcune implicazioni riguardano i giornalisti. Non dovendo scrivere pezzi su argomenti ripetitivi e noiosi, ci sarà più tempo per fare approfondimenti, interviste e inchieste, dove l’intuito umano è ancora indispensabile. Nelle redazioni ci sarà più spazio per i programmatori, ma anche i freelancer dovranno imparare a scrivere codici. In parallelo, è ancora da valutare la reazione dei lettori di fronte ai contenuti automatici, specialmente riguardo alla qualità della lettura e alla comprensione degli algoritmi. Questi saranno trasparenti, open-source e affidabili? Oppure saranno proprietari e tenderanno a selezionare alcune notizie rispetto ad altre? Da questo punto di vista, la responsabilità di eventuali errori ricadrà probabilmente su una persona fisica o sull’editore, magari in caso di dispute su argomenti controversi. Un fatto sembra però certo: l’automazione aumenterà notevolmente la quantità di notizie disponibili. Da un lato ci saranno molti più contenuti adatti ai nostri gusti, ma dall’altro crescerà il rumore di fondo prodotto da quello che non ci interessa.
A questo punto viene da chiedersi in che modo vengono generate le notizie. Le soluzioni attuali vanno dal semplice codice che estrae i numeri da un database, che vengono poi utilizzati per riempire gli spazi vuoti in modelli precompilati, a metodi sofisticati che analizzano una grande mole di dati per ottenere informazioni supplementari da inserire in narrazioni “umane” complesse. Questi risultati si basano sulla tecnologia di generazione del linguaggio naturale, che viene già utilizzata con successo per riassumere in modo automatico l’esito di eventi sportivi che producono molte statistiche, come le partite di baseball. Al momento, le società che forniscono servizi per la creazione automatica di contenuti giornalistici sono una dozzina in tutto il mondo. Ben cinque si trovano in Germania, le altre sono distribuite tra Stati Uniti, Francia, Regno Unito e Cina, ma il settore è in forte espansione.
Le notizie automatizzate possono avere successo in campi ben precisi, quali le previsioni del tempo oppure nel mondo della finanza, dove la velocità e l’affidabilità con cui viaggiano le informazioni è fondamentale per essere competitivi. Un altro uso interessante è stato fatto per gli earthquake alerts. È il caso del Quakebot utilizzato dal Los Angeles Times. Quando il Geological Survey degli Stati Uniti (USGS) rilascia un avviso di terremoto, un algoritmo crea un testo che fornisce tutte le informazioni rilevanti, come l’orario, il luogo e la magnitudo. A questo punto lo salva come bozza e una persona dello staff legge la storia per correggere eventuali errori prima della pubblicazione. Nel marzo 2013 questo sistema è stato la prima fonte (solo tre minuti dopo l’evento) a descrivere un terremoto di magnitudo 4.4 che aveva colpito la California. Il sistema, tuttavia, non è infallibile. Nel maggio del 2015 l’USGS ha segnalato per sbaglio tre distinti terremoti con magnitudo compresa tra 4.8 e 5.5. Quakebot ha quindi preparato tre articoli, poi accettati da un editor umano poco attento. L’USGS ha quindi deciso di utilizzare Twitter per verificare la correttezza delle segnalazioni, calcolando il numero di tweet al minuto relativi a un singolo evento e contenenti la parola “earthquake”. In caso di falso allarme, il valore di questa statistica sarà prossimo allo zero.

Insomma, se lavorate in una redazione, molto presto potreste avere a che fare con un assistente robotico, le cui potenzialità sono pressoché inesplorate. E prima o poi qualcuno potrebbe anche provare a farvi una serie di domande. Lo chiamano test di Turing, ma per fortuna voi siete umani. Giusto?