Menu Menu

La "Deep Fake Detection Challenge" di Facebook restituisce dati preoccupanti

Con l'avvicinarsi delle elezioni presidenziali statunitensi del 2020, i siti di social media devono prepararsi all'inevitabile attacco del discorso politico e l'individuazione di contenuti diffamatori è in cima all'agenda.

Se ti tieni aggiornato con Thred, allora questo sicuramente no sii la prima volta che senti parlare di deepfake. Questa tecnologia di manipolazione del viso basata sull'intelligenza artificiale è iniziata con meme innocui di Nicholas Cage diversi anni fa, ma si è lentamente evoluta in una seria arma online che potrebbe minacciare l'integrità della democrazia moderna.

Originariamente era usato per popolare i subreddit con divertenti imitazioni di celebrità. Rapidamente la tecnologia iniziò ad essere implementata nei discorsi presidenziali, nelle manifestazioni elettorali e nella propaganda politica che divenne... virale in linea. Improvvisamente, i deepfake potrebbero essere utilizzati per diffondere disinformazione su scala globale, mostrando cifre del mondo reale che annunciano cose che mai detto davvero. Le prove video affidabili sono diventate rapidamente un ricordo del passato e i social media hanno dovuto tenere il passo.

Che si tratti di nuove app sui telefoni o di software più nascosti, i deepfake stanno diventando più facili da creare e più difficili da rilevare. I siti che hanno maggiori probabilità di ospitare tali contenuti, come Facebook, ora hanno la responsabilità di stare al passo con i nuovi progressi nei deepfake al fine di garantire che non rimangano online.

In che modo Facebook sta affrontando i deepfake?

A seguito delle conseguenze di due casi di alto profilo sulla sua piattaforma: la diffamazione dell'altoparlante democratico Nancy Pelosi e il sig Zuckerberg stesso - Facebook ha invitato gli utenti alla fine del 2019 a contribuire a rafforzare i suoi profondi sforzi di rilevamento dei falsi tramite una "sfida" pubblica.

Coloro che hanno preso parte hanno ricevuto 100,000 brevi clip contenenti filmati di 3000 attori assunti da Facebook. Da questo pool, i partecipanti sono stati incaricati di identificare quali campioni erano stati manomessi da Facebook utilizzando i propri algoritmi di rilevamento automatico personalizzati.

Dopo quasi un anno finalmente abbiamo il sul risultato da questi test registrati. 2000 partecipanti hanno messo alla prova i loro algoritmi (i candidati provenivano principalmente dall'industria tecnologica o avevano un background accademico) e il campione di maggior successo ha ottenuto un impressionante tasso di rilevamento dell'82%. Considerando la moltitudine di exploit digitali che oggi si trasformano in falsi falsi; sfocature, modifiche al frame-rate, sovrapposizioni, solo per citarne alcuni... bisogna dire che questo è un ritorno davvero promettente.

Il vincitore della sfida, Selim Seferbekov, è stato premiato con $ 500,000 ed è stato quindi incaricato di confrontare il suo algoritmo vincente contro un set di dati "scatola nera" pieno delle forme più intricate di falso inganno noto agli esperti di IA. Una volta che il punteggio è stato finalizzato e combinato con i risultati precedenti, una media complessiva è risultata pari a ad appena 65%.


Questi risultati dovrebbero essere una preoccupazione per Facebook?

Questo studio mette in evidenza quanto sia davvero difficile individuare un deepfake in natura. Dopotutto, la natura adattiva dell'intelligenza artificiale significa che non appena gli exploit esistenti vengono chiusi, ne possono sorgere di nuovi rapidamente e si torna al punto di partenza. È un gioco del gatto col topo frustrante e senza fine.

Tuttavia, i ricercatori di Facebook sono fiduciosi che i dati raccolti da questo test si dimostreranno preziosi per rafforzare il proprio software preventivo attualmente in lavorazione. Facebook sta anche pianificando di rilasciare il codice sorgente per gli algoritmi di maggior successo, incluso quello di Seferbekov, per aiutare altri ricercatori a rilevare video fasulli prima che diventino virali.

Per ora, Facebook sta giocando in modo intelligente e sta mantenendo segreto il proprio software di rilevamento per impedire che si verifichi qualsiasi forma di reverse engineering nel 2020. Chief Technology Officer Mike Schroepfer afferma che al momento i deepfake "non sono un grosso problema" con Facebook, ma che lui e il suo team stanno lavorando instancabilmente per evitare di essere "colti alla sprovvista" nella preparazione delle elezioni statunitensi di novembre.

Allo stato attuale, resta da vedere se siamo davvero attrezzati per affrontare la prossima ondata di falsi profondi. Ma puoi garantire una cosa, è is venuta.

Accessibilità