Menu Menu

Deepfakes jest teraz bronią polityczną w wojnie ukraińskiej

Wykorzystanie deepfake'ów w polityce było jak dotąd rzadkością. Ale w ostatnim tygodniu w sieci pojawiły się dwa deepfake związane z wojną na Ukrainie.

Zaledwie kilka dni temu w mediach społecznościowych zaczęło krążyć oszukane nagranie ukraińskiego prezydenta Wołodymyra Zełenskiego. Po przesłaniu przez hakerów znalazł się również na lokalnym kanale informacyjnym na żywo i na stronie internetowej.

W ciągu minutowego nagrania prezydent Ukrainy wydaje się mówić swoim żołnierzom, aby złożyli broń i poddali się walce z Rosją.

Jednak po bliższym przyjrzeniu się, różne kontrasty kolorystyczne, rozmiar i kształt twarzy Zełenskiego, a także jego nienaturalne ruchy ciała, wzbudziły podejrzenia, że ​​klip nie jest autentyczny.

Prezydent Zełenskij szybko potępił wideo, nazywając je „dziecinną prowokacją” i zapewnił Ukraińców, że nie uciekł z kraju, jak twierdził deepfake.

Firmy zajmujące się mediami społecznościowymi, takie jak YouTube, Facebook i Twitter, usunęły ze swoich platform posty zawierające wideo, ponieważ narusza to politykę użytkownika, ale wcześniej zgromadziły setki tysięcy wyświetleń.

Twórca deepfake'a pozostaje nieznany, jednak ukraińscy urzędnicy od kilku tygodni ostrzegają obywateli przed potencjalnym rozpowszechnianiem przez Rosję fałszywych informacji medialnych o wojnie.

Przewidując użycie tej taktyki na początku marca, ukraiński wywiad wojskowy rozesłał nagranie wideo wyjaśniające, w jaki sposób zmanipulowane filmy mogą być wykorzystywane do wzbudzania niepokoju i zamieszania wśród obywateli.

Po jego premierze w środę wielu Ukraińców wykryło, że wideo było oszustwem. Mimo że synchronizacja ust Zełenskiego była znośna, reszta teledysku nie jest dobrze zrobiona, a akcent, kształt głowy i głos Zełenskiego nie pasują do siebie.

Ten deepfake mógł nie być tak przekonujący, ale przyszłe wersje mogą być trudniejsze do odróżnienia. Zwracanie szczególnej uwagi na subtelne szczegóły (takie jak ruchy ust, twarzy i ciała) to kluczowe sposoby, aby zorientować się, czy film jest prawdziwy, czy nie.

Co więcej, większość twórców deepfake będzie polegać na już istniejącym materiale jako szablonie do tworzenia swoich mediów, co oznacza, że ​​znalezienie źródła oryginalnego klipu wideo może pomóc w rozwianiu wszelkich pojawiających się niepewności.

Krótko po tym, jak wypuszczono podróbkę Zełenskiego, wypuszczono podróbkę Putina mówiącą żołnierzom, żeby „wrócili do domu, póki żyjesz” i ogłaszając kapitulację Rosji.

Widzowie zwrócili uwagę, że ten film został nakręcony przy użyciu klipu z niedawnego krajowego wystąpienia Putina i manipulacji nim za pomocą technologii AI. Uważano, że deepfake Putina został uwolniony w bezpośrednim odwecie na deepfake'a Zełenskiego.

Wykorzystanie deepfake'ów w polityce było jak dotąd rzadkością, ale wielu uważa, że ​​te dwa ostatnie filmy to „tylko wierzchołek góry lodowej” z serii deepfake'ów, które pojawią się podczas rosyjskiej inwazji na Ukrainę.

Gdy Putin podejmuje frywolne próby zmiany narracji o przebiegu wojny, nie ma wątpliwości, że jego państwowi propagandyści będą pracować po godzinach, próbując wszelkimi niezbędnymi środkami wywalczyć zwycięstwo na korzyść Rosji.

A w dobie dezinformacji wiadomości i algorytmów uczenia maszynowego niepokojące jest myślenie, że możemy zobaczyć postęp tej technologii i znacznie bardziej zaangażować się w przyszłe konflikty polityczne.

To powiedziawszy, chociaż internet pozwala na szybkie rozpowszechnianie fałszywych zdjęć i filmów, telefony komórkowe i media społecznościowe również ułatwić światowym przywódcom obalanie tych fałszerstw, rozmawiając bezpośrednio ze swoimi obywatelami w każdej chwili.

Po zapoznaniu się z deepfake Zełenskij opowiada Ukraińcom w swoim telegramie, mówiąc: „Bronimy naszej ziemi, naszych dzieci, naszych rodzin. Więc nie planujemy składać broni. Aż do naszego zwycięstwa.

dostępność