Guardando il video di una profonda Emma Watson finta sopra, puoi vedere quanto sia realistica la tecnologia.
Scherzi a parte, di recente sono andato al concerto olografico degli ABBA acclamato dalla critica a Londra e i movimenti realistici in quella clip sono sorprendentemente simili in termini di qualità.
Ma è difficile non notare la natura suggestiva del video, che illustra perfettamente le oscure intenzioni degli utenti – e forse degli stessi programmatori. A rendere le cose più problematiche è che questa clip viene utilizzata come pubblicità.
Retweet della registrazione dello schermo dell'annuncio, ha detto un utente di Twitter: 'Questo è solo un nuovo modo di molestare sessualmente le donne. Sta togliendo la tua autonomia corporea e costringendoti a materiale sessuale non consensuale, che può quindi essere usato per umiliarti e discriminarti. Per non parlare degli effetti psicologici».
Incoraggiare l'uso dell'IA deepfake per questo scopo è ovviamente sinistro. Tuttavia, non dovrebbe sorprendere, poiché gli usi più famosi della tecnologia deep fake finora sono stati pornografici o legati alla politica.
Nel 2019, appena due anni dopo la creazione della tecnologia, è stato riferito che almeno il 96% di tutti i video deepfake trovati online erano pornografici, secondo una ricerca condotta da Deeptrace.
Ad alimentare la creazione di questi video sono numerosi siti Web che ospitano esclusivamente pornografia deepfake. Molte clip falsificate caricate su queste piattaforme sono state create da ex vendicativi o persone che cercano di offuscare l'immagine dei loro nemici.
Di conseguenza, i governi di tutto il mondo hanno iniziato a costruire quadri giuridici più solidi che limitano i modi in cui è possibile utilizzare la tecnologia deepfake. Certo, questi dovevano essere informati dai casi esistenti, motivo per cui gli esperti di tecnologia hanno avvertito che non eravamo preparati ai suoi pericoli.
Nel novembre 2022, il governo del Regno Unito ha realizzato pornografia deepfake un reato punibile. Tuttavia, i tribunali possono perseguire le persone solo nel caso in cui diffondano queste immagini o video online.
Alcuni stati degli Stati Uniti hanno anche messo simili leggi a posto. Realisticamente, tuttavia, queste politiche non possono proteggere nessuno dall'essere inserito in video espliciti per la visione di un altro individuo a porte chiuse.
Basterà questo pensiero, per la stragrande maggioranza delle donne, a suscitare disgusto e rabbia, se non brividi e reazioni da brividi.
Come accennato, i deepfake sono stati utilizzati anche per incitare il tumulto politico.
Barak Obama lo è stato raffigurato insultare Donald Trump. Mark Zuckerberg sì stato in bilico per dire che l'unico scopo di Facebook è controllare e sfruttare gli utenti della piattaforma.
Tutto è diventato virale, rivelando il livello di interesse, soggezione e, in alcuni casi, l'inganno della tecnologia deepfake.
Utilizzato in altri contesti, le conseguenze potrebbero essere molto più pericolose. Durante i primi mesi dell'invasione russa dell'Ucraina, video del presidente Zelensky emerso in cui ha detto ai soldati ucraini di arrendersi ai soldati russi.
Fortunatamente, il di rose Il presidente Zelensky ha utilizzato i suoi account personali sui social media per confermare che il video era stato falsificato dalle forze di opposizione. Ha ricordato al suo popolo che la lotta per il proprio Paese non era ancora finita e li ha esortati a rimanere uniti.
Sembra che i deepfake, anche se usati per creare una versione degna di risate del tradizionale costume della regina Elisabetta II Discorso di Natale, tendono a far sorgere dentro di noi un sentimento inquietante.
Forse noi sapere in fondo, è molto più probabile che la tecnologia venga utilizzata con intenti dannosi. Quindi, cosa accadrà quando diventerà così avanzato da non poter distinguere tra ciò che è realtà e finzione?
Con app scaricabili gratuitamente come Facemega, dovremmo preoccuparci che la tecnologia deepfake stia diventando ampiamente disponibile attraverso i nostri smartphone?
Direi che, sfortunatamente, dovremmo esserlo.