Menu Menu

Facebook „Deep Fake Detection Challenge” zwraca niepokojące dane

W obliczu zbliżających się wyborów prezydenckich w USA w 2020 r. serwisy społecznościowe muszą przygotować się na nieunikniony atak politycznego dyskursu, a wykrywanie zniesławiających treści jest jednym z priorytetów.

Jeśli będziesz na bieżąco z Thredem, to zdecydowanie nie będzie po raz pierwszy usłyszysz o deepfake'ach. Ta technologia AI manipulacji twarzami rozpoczęła się kilka lat temu od niewinnych memów Nicholasa Cage'a, ale powoli przekształciła się w poważną broń online, która może zagrozić integralności współczesnej demokracji.

Pierwotnie był używany do wypełniania subreddits zabawnymi imitacjami celebrytów. Technologia szybko zaczęła być wdrażana w przemówieniach prezydenckich, wiecach wyborczych i propagandzie politycznej, która stała się wirusowe w Internecie. Nagle deepfake mogą być wykorzystywane do rozpowszechniania dezinformacji na skalę globalną, wyświetlając rzeczywiste postacie ogłaszające rzeczy, które nigdy tak naprawdę nie powiedział. Wiarygodne dowody wideo szybko odeszły w przeszłość – a media społecznościowe musiały nadążyć.

Niezależnie od tego, czy mówimy o nowych aplikacjach na telefonach, czy o bardziej ukrytym oprogramowaniu, deepfake stają się łatwiejsze do stworzenia i trudniejsze do wykrycia. Witryny, które najprawdopodobniej zawierają takie treści, takie jak Facebook, mają teraz obowiązek nadążać za nowymi postępami w dziedzinie deepfake, aby mieć pewność, że nie pozostaną w Internecie.

Jak Facebook radzi sobie z deepfake'ami?

W następstwie dwóch głośnych przypadków na swojej platformie – rozmazywania mówcy Demokratów Nancy Pelosi i pan Zuckerberg sam – Facebook wezwał użytkowników pod koniec 2019 r., aby pomogli wzmocnić swoje głębokie wysiłki w zakresie wykrywania fałszywych informacji poprzez publiczne „wyzwanie”.

Uczestnikom rozdano 100,000 3000 krótkich klipów zawierających materiał od XNUMX aktorów wynajętych przez Facebooka. Z tej puli uczestnicy mieli za zadanie określić, które próbki zostały naruszone przez Facebooka przy użyciu własnych, niestandardowych algorytmów automatycznego wykrywania.

Prawie rok później wreszcie mamy have wyniki z tych testów. 2000 uczestników przetestowało swoje algorytmy (wnioskodawcy pochodzili głównie z branży technologicznej lub mieli wykształcenie akademickie), a najbardziej udana próbka zapewniła imponujący wskaźnik wykrywalności wynoszący 82%. Biorąc pod uwagę mnogość cyfrowych exploitów, które dziś są głęboko podrabiane; rozmycia, modyfikacje liczby klatek na sekundę, nakładki, żeby wymienić tylko kilka… trzeba by powiedzieć, że jest to naprawdę obiecujący powrót.

Zwycięzca wyzwania, Selim Seferbekov, otrzymał 500,000 XNUMX dolarów, a następnie otrzymał zadanie zmierzenia swojego zwycięskiego algorytmu z zestawem danych „czarnej skrzynki” wypełnionym najbardziej zawiłymi formami głębokiego fałszywego oszustwa znanego ekspertom AI. Gdy wynik został sfinalizowany i połączony z poprzednimi wynikami, ogólna średnia wyszła na właśnie % 65.


Czy te wyniki powinny budzić obawy Facebooka?

To badanie pokazuje, jak trudno jest naprawdę dostrzec deepfake w środowisku naturalnym. W końcu adaptacyjny charakter sztucznej inteligencji oznacza, że ​​gdy tylko istniejące exploity zostaną zamknięte, nowe mogą szybko pojawić się i wracają do punktu wyjścia. To frustrująca, niekończąca się gra w kotka i myszkę.

Jednak badacze Facebooka są przekonani, że dane zebrane w ramach tego testu okażą się nieocenione we wzmacnianiu ich własnego oprogramowania zapobiegawczego, nad którym obecnie pracujemy. Facebook planuje również opublikować kod źródłowy najbardziej udanych algorytmów – w tym algorytmu Seferbekova – aby pomóc innym badaczom w wykrywaniu fałszywych filmów, zanim staną się wirusowe.

Na razie Facebook postępuje mądrze i utrzymuje w tajemnicy własne oprogramowanie do wykrywania, aby zapobiec pojawieniu się jakiejkolwiek formy inżynierii wstecznej w 2020 roku. Mike'a Schroepfera twierdzi, że w tej chwili deepfake nie są „dużym problemem” dla Facebooka, ale on i jego zespół pracują niestrudzenie, aby uniknąć „przyłapania na płaskiej stopie” podczas przygotowań do wyborów w USA w listopadzie.

W obecnej sytuacji okaże się, czy naprawdę jesteśmy przygotowani do radzenia sobie z następną falą głębokich podróbek. Ale możesz zagwarantować jedno, to is nadchodzi.

dostępność