Manipolare l’informazione con il deep fake
Siamo nell’era della mistificazione 2.0, ovvero dalle fake news (notizie false) siamo arrivati ai video fake costriuiti con una tecnologia che li rende estremamente realistici in modo che siano facilmente percepiti come autentici dall’utente.
Se guardate questo breve video (potete inserire i sottotitoli in italiano) capirete meglio di cosa stiamo parlando:
https://www.youtube.com/watch?v=cQ54GDm1eL0
La prima frase nella descrizione sulla sua pagina di YouTube è la seguente: "Stiamo entrando in un'era nella quale i nostri nemici possono far dire qualsiasi cosa, a chiunque, in qualsiasi momento".
Quello che avete appena visto è una dichiarazione di Barack Obama, caratterizzata tuttavia da un dettaglio non trascurabile: Obama non ha mai pronunciato quelle parole.
Il video è un esperimento realizzato da Jordan Peele – attore, regista e sceneggiatore americano – che ha utilizzato alcuni software già disponibili sul mercato come Fakeapp, una tecnologia che permette di “montare” il volto di qualcuno sul corpo di qualcun altro.
Inizia così ad emergere quella che potrebbe essere la nuova frontiera della comunicazione politica contemporanea, che forse potrebbe estendersi anche ad altre tipologie di comunicazione, delinenando uno scenario intriso di mistificazione e difficilmente decifrabile per l’utenza.
Oggi esistono tecnologie che possono permettere alle macchine della propaganda di immettere materiale audiovisivo totalmente artefatto, ma confezionato come se fosse del tutto verosimile.
Si parla infatti di deep fake, di falso profondo, laddove la profondità può essere intesa sia come natura del livello di sofisticazione raggiungibile, che come livello di opacità di chi inserisce questi contributi video in rete.
Come spesso accade, è la pornografia ad aver aperto il fronte del deep fake: Fakeapp è infatti già stato usato in questi mesi per sovrapporre volti di personaggi famosi su contenuti per adulti.
Questo tipo di contenuti potrebbero esasperare una delle questioni che negli ultimi anni ha reso popolare il dibattito sull’informazione manipolata: rinforzano ulteriormente le convinzioni di utenti che hanno idee molto polarizzate su uno specifico argomento o su un persona, e che dunque sono maggiormente esposte a finire dentro trappole cognitive come il bias di conferma (cioè la ricerca e il ricordo di fonti informative che confermano le proprie tesi).
Se Obama in un video afferma di non essere nato negli Stati Uniti, e questo è esattamente ciò di cui un utente è convinto, perché quest’ultimo dovrebbe preoccuparsi dell’attendibilità di ciò che sta vedendo (soprattutto se è terribilmente realistico)?
In Italia, per il momento, non ci sono esempi noti al grande pubblico di video o audio palesemente manipolati con questo genere di tecniche. Negli Stati Uniti invece il dibattito è già molto maturo – forse anche a causa delle imminenti elezioni di metà mandato – e si iniziano a intravedere già i primi anticorpi al virus.
Il primo anticorpo è di natura tecnica, e agisce sullo stesso terreno di battaglia della malattia che cerca di sconfiggere. Il Dipartimento della Difesa ha infatti notato alcune caratteristiche dei video deep fake che potrebbero aiutare nella progettazione di un sistema di intelligenza artificiale capace di riconoscere immediatamente l’esistenza di un contenuto artefatto.
In particolare, i movimenti oculari di un video fake sono palesemente innaturali, perché la tecnologia alla base della costruzione di video fake si basa su immagini di volti a occhi aperti.
La seconda reazione riguarda, ovviamente, le contromisure che uno staff politico può adottare se il leader – o l’organizzazione politica per cui lavora – si trova al centro di una polemica incentrata su un video o un audio inesistente, ma tremendamente virale.
Innanzi tutto, gli esperti, hanno notati la costruzione di una rete digitale di simpatizzanti e militanti, e la loro attivazione attraverso newsletter, che consente un tempo di reazione minore in caso di attacco.
In secondo luogo, bisogna potenziare i meccanismi di monitoraggio dei contenuti virali online, perché un incendio può essere spento con più facilità se controllato alla radice.
In ogni caso, quel che rimane è un'ombra minacciosa che si staglia all'orizzonte: c’è il rischio che passeremo buona parte dei prossimi anni a inseguire contenuti falsi, costruiti ad arte da macchine di propaganda per colpire avversari politici o personali: saremo ancora in grado di distinguere la realtà dalla fiction?
Sicuramente si tratta di una sfida complessa che non riguarda soltanto le istituzioni ma coinvolge l’opinione pubblica che va sensibilizzata e aiutata a sviluppare un “sistema immunitario” adeguato che non può certamente fare a meno di un pensiero critico, della disponibilità ad approfondire i contenuti e a verificare l’attendibilità delle fonti di informazioni consultate ma, sopratutto, si tratta di rinunciare alla tentazione orientare la propria attenzione esclusivamente ai contenuti che confermano le proprie opionioni, convinzioni.