Gdzie jeszcze wykorzystywana jest technologia deepfake?
Treści Deepfake przeszły długą drogę i stale stają się częścią głównego nurtu treści online, na dobre lub na złe. Jednym z przykładów jest konto deepfake TikTok Toma Cruise'a, które tworzy krótkie filmy przekonująco ukazujące aktora w różnych sytuacjach.
Użytkownicy są często oszukiwani, wierząc, że to real Tom, kiedy w rzeczywistości jest podobnym aktorem z twarzą Cruise'a narzuconą cyfrowo w postprodukcji.
Chociaż ten przykład jest w dużej mierze nieszkodliwy i nie ma na celu powodowania problemów, podobna technologia deepfake jest wykorzystywana w bardziej złośliwy sposób.
Szczególny niepokój budzi pornografia oparta na technologii Deepfake AI. Istnieje znaczny potencjał tworzenia i udostępniania materiałów o charakterze jawnym bez zgody, ponieważ wiele witryn dla dorosłych nie jest odpowiednio uregulowanych i rzadko przestrzega ścisłych wytycznych.
Materiał Deepfake został również stworzony, aby dezorientować i wprowadzać w błąd opinia publiczna o wojnie ukraińskiej. W Internecie udostępniono treści, które pokazują, że przywódcy obu krajów „mówią” rzeczy, których nie powiedzieli. Konsekwencje tego mogą być dalekosiężne – i prawdopodobnie zobaczymy, że posuwa się to dalej.
Nie tylko wizualizacjami można manipulować. Deepfake audio zyskują na popularności i są znacznie bardziej dostępne. Jedną z usług, z którymi próbowaliśmy się bawić w biurze Thred, jest UberDuck, który pozwolił nam stworzyć całe oldschoolowe piosenki Eminema od zera.
Inne narzędzie jest w stanie tworzyć automatyczne twarze z samego dźwięku, co oznacza, że wkrótce możemy zobaczyć całe cyfrowe osoby zbudowane od podstaw, które nigdy nawet istniał. Platforma Replika eksperymentuje z tym za pomocą botów czatowych, tworząc cyfrowe postacie konwersacyjne, z którymi ludzie mogą się angażować. Pomyśl o fabule, aby Jej i nie jesteś daleko.
https://www.youtube.com/watch?v=QhBWRh-h71g&ab_channel=40Hertz
Dlaczego to może być niepokojące?
Moralne wykorzystanie deepfake'ów jest obecnie nieco mieszaną torbą.
W tej chwili widzimy kilka nowatorskich lub efekciarskich implementacji tej technologii, ale wkrótce może to stać się bardziej powszechne i trudniejsze do zidentyfikowania.
Wiąże się to z wieloma problemami, jak wspomniano powyżej, od treści jawnych po wprowadzające w błąd treści polityczne. Wyobraź sobie potencjalne konsekwencje, jeśli niezdecydowany światowy przywódca (których wydaje się być wielu) zobaczy sfałszowane wideo grożące wojną nuklearną.
Nie mówię, że wideo Kendricka jest znakiem, że zmierzamy w dół skazanej na zagładę ścieżki, ale wideo robi pokazują, że głębokie podróbki stają się łatwiejsze do stworzenia i są bardzo skuteczne. Jeśli widok twarzy Kanye'a nałożonej na ciało Kendricksa nie wystarczy, by dać ci paliwo do koszmaru na tygodnie, to nie wiem, co będzie.
Na razie weźcie album Kendricka – bez wątpienia będzie to klasyk, prawda?