Menu Menu

Perché l'app Facemega deepfake è un pendio scivoloso

L'accesso alla tecnologia deepfake sta diventando più facile. Con la maggior parte delle persone che scelgono di usarlo per ragioni sinistre, è difficile ignorare che le conseguenze negative della nuova tecnologia potrebbero superare i suoi benefici.

Le conseguenze negative e pericolose dei deepfake sono state oggetto di accese discussioni da quando la tecnologia AI si è fatta strada nel mainstream nel 2017.

Gli esperti hanno avvertito che il loro uso diffuso, combinato con sistemi di apprendimento dell'intelligenza artificiale in costante miglioramento, "provocherà il caos nella società" e che "non siamo preparati" ad affrontare le ricadute.

Oltre alle clip stranamente reali pubblicate su @deepTomCruise Con l'account TikTok, la maggior parte dei deepfake non impiega molto tempo a mostrare piccoli difetti che ci consentono di rilevarli come contenuti fabbricati.

Creare un video impeccabile di qualcuno che dice qualcosa che in realtà non ha detto o che esegue atti che non ha fatto richiede abilità di montaggio fenomenali, per esempio. Richiede anche molti punti di riferimento multimediali affinché l'IA apprenda i modi e le abitudini linguistiche dell'individuo abbastanza bene da essere convincente.

Ma ovviamente era solo una questione di tempo prima che tale tecnologia progredisse e prima che fosse adattata per funzionare nelle mani della gente comune.

Nei giorni scorsi, gli utenti di app di fotoritocco e Facebook hanno riferito di aver visto annunci per un'app chiamata Facemega. Il software gratuito per smartphone consente agli utenti di caricare e ricamare virtualmente un ritratto di nessuno faccia su in qualsiasi video di loro scelta.

Guardando il video di una profonda Emma Watson finta sopra, puoi vedere quanto sia realistica la tecnologia.

Scherzi a parte, di recente sono andato al concerto olografico degli ABBA acclamato dalla critica a Londra e i movimenti realistici in quella clip sono sorprendentemente simili in termini di qualità.

Ma è difficile non notare la natura suggestiva del video, che illustra perfettamente le oscure intenzioni degli utenti – e forse degli stessi programmatori. A rendere le cose più problematiche è che questa clip viene utilizzata come pubblicità.

Retweet della registrazione dello schermo dell'annuncio, ha detto un utente di Twitter: 'Questo è solo un nuovo modo di molestare sessualmente le donne. Sta togliendo la tua autonomia corporea e costringendoti a materiale sessuale non consensuale, che può quindi essere usato per umiliarti e discriminarti. Per non parlare degli effetti psicologici».

Incoraggiare l'uso dell'IA deepfake per questo scopo è ovviamente sinistro. Tuttavia, non dovrebbe sorprendere, poiché gli usi più famosi della tecnologia deep fake finora sono stati pornografici o legati alla politica.

 

Nel 2019, appena due anni dopo la creazione della tecnologia, è stato riferito che almeno il 96% di tutti i video deepfake trovati online erano pornografici, secondo una ricerca condotta da Deeptrace.

Ad alimentare la creazione di questi video sono numerosi siti Web che ospitano esclusivamente pornografia deepfake. Molte clip falsificate caricate su queste piattaforme sono state create da ex vendicativi o persone che cercano di offuscare l'immagine dei loro nemici.

Di conseguenza, i governi di tutto il mondo hanno iniziato a costruire quadri giuridici più solidi che limitano i modi in cui è possibile utilizzare la tecnologia deepfake. Certo, questi dovevano essere informati dai casi esistenti, motivo per cui gli esperti di tecnologia hanno avvertito che non eravamo preparati ai suoi pericoli.

Nel novembre 2022, il governo del Regno Unito ha realizzato pornografia deepfake un reato punibile. Tuttavia, i tribunali possono perseguire le persone solo nel caso in cui diffondano queste immagini o video online.

Alcuni stati degli Stati Uniti hanno anche messo simili leggi a posto. Realisticamente, tuttavia, queste politiche non possono proteggere nessuno dall'essere inserito in video espliciti per la visione di un altro individuo a porte chiuse.

Basterà questo pensiero, per la stragrande maggioranza delle donne, a suscitare disgusto e rabbia, se non brividi e reazioni da brividi.

@kennaacting

Affronta la sfida di scambio con #facemega #facemegaapp #cambia faccia #facciamagia #montaggio video #divertente #recitazione

♬ Happy Upbeat Fun Rock Energico – StockSounds

Come accennato, i deepfake sono stati utilizzati anche per incitare il tumulto politico.

Barak Obama lo è stato raffigurato insultare Donald Trump. Mark Zuckerberg sì stato in bilico per dire che l'unico scopo di Facebook è controllare e sfruttare gli utenti della piattaforma.

Tutto è diventato virale, rivelando il livello di interesse, soggezione e, in alcuni casi, l'inganno della tecnologia deepfake.

Utilizzato in altri contesti, le conseguenze potrebbero essere molto più pericolose. Durante i primi mesi dell'invasione russa dell'Ucraina, video del presidente Zelensky emerso in cui ha detto ai soldati ucraini di arrendersi ai soldati russi.

Fortunatamente, il di rose Il presidente Zelensky ha utilizzato i suoi account personali sui social media per confermare che il video era stato falsificato dalle forze di opposizione. Ha ricordato al suo popolo che la lotta per il proprio Paese non era ancora finita e li ha esortati a rimanere uniti.

Sembra che i deepfake, anche se usati per creare una versione degna di risate del tradizionale costume della regina Elisabetta II Discorso di Natale, tendono a far sorgere dentro di noi un sentimento inquietante.

Forse noi sapere in fondo, è molto più probabile che la tecnologia venga utilizzata con intenti dannosi. Quindi, cosa accadrà quando diventerà così avanzato da non poter distinguere tra ciò che è realtà e finzione?

Con app scaricabili gratuitamente come Facemega, dovremmo preoccuparci che la tecnologia deepfake stia diventando ampiamente disponibile attraverso i nostri smartphone?

Direi che, sfortunatamente, dovremmo esserlo.

Accessibilità