Menu Menu

Dlaczego aplikacja Facemega deepfake jest śliska

Dostęp do technologii deepfake jest coraz łatwiejszy. Ponieważ większość ludzi decyduje się na jej użycie ze złowrogich powodów, trudno zignorować fakt, że negatywne konsekwencje nowej technologii mogą przeważyć nad jej korzyściami.

Negatywne i niebezpieczne konsekwencje deepfake'ów były przedmiotem gorących dyskusji, odkąd technologia sztucznej inteligencji znalazła się w głównym nurcie w 2017 roku.

Eksperci mają ostrzeżony że ich powszechne stosowanie w połączeniu ze stale ulepszanymi systemami uczenia się AI „sieje spustoszenie w społeczeństwie” i że „nie jesteśmy przygotowani” na radzenie sobie z konsekwencjami.

Poza dziwacznie prawdziwymi klipami zamieszczonymi na stronie @deepTomCruise Konto TikTok, większość deepfake'ów nie zajmuje dużo czasu, aby pokazać subtelne usterki, które pozwalają nam wykryć je jako sfabrykowane treści.

Stworzenie doskonałego filmu, na którym ktoś mówi coś, czego tak naprawdę nie powiedział, lub wykonuje czynności, których nie zrobił, wymaga fenomenalnych umiejętności montażowych. Wymaga również wielu multimedialnych punktów odniesienia, aby sztuczna inteligencja nauczyła się manier i nawyków językowych danej osoby na tyle dobrze, aby była przekonująca.

Ale oczywiście było tylko kwestią czasu, zanim taka technologia się rozwinie – i zanim zostanie przystosowana do pracy w rękach zwykłych ludzi.

W ostatnich dniach użytkownicy aplikacji do edycji zdjęć i Facebooka zgłaszali, że widzieli reklamy aplikacji o nazwie Facemega. Darmowe oprogramowanie na smartfony pozwala użytkownikom przesyłać i łączyć wirtualne portrety czyjegoś twarz na każdy wybrany przez siebie film.

Patrząc na powyższy film głęboko sfałszowanej Emmy Watson, możesz zobaczyć, jak realistyczna jest ta technologia.

Poważnie, byłem ostatnio na uznanym przez krytyków holograficznym koncercie zespołu ABBA w Londynie i realistyczne ruchy w tym klipie są uderzająco podobne pod względem jakości.

Trudno jednak nie zauważyć sugestywnego charakteru filmu, który doskonale ilustruje mroczne intencje użytkowników – i być może samych programistów. Problematyczne jest to, że ten klip jest używany jako reklama.

Retweetowanie nagrania ekranu reklamy, – powiedział jeden z użytkowników Twittera: „To po prostu nowy sposób molestowania seksualnego kobiet. Odbiera ci autonomię cielesną i zmusza cię do seksu bez zgody, który może być następnie wykorzystany do upokorzenia i dyskryminacji ciebie. Nie mówiąc już o skutkach psychologicznych.

Zachęcanie do wykorzystywania w tym celu sztucznej inteligencji typu deepfake jest oczywiście złowrogie. Nie powinno to jednak dziwić, ponieważ jak dotąd najsłynniejsze zastosowania technologii deep fake miały charakter pornograficzny lub były powiązane z polityką.

 

Według badań przeprowadzonych przez Deeptrace, w 2019 roku – zaledwie dwa lata po stworzeniu tej technologii – co najmniej 96 procent wszystkich deepfake filmów znalezionych w Internecie miało charakter pornograficzny.

Siłą napędową tworzenia tych filmów są liczne strony internetowe, które udostępniają wyłącznie fałszywą pornografię. Wiele sfałszowanych klipów przesłanych na te platformy zostało stworzonych przez mściwych byłych lub ludzi, którzy chcą zepsuć wizerunek swoich wrogów.

W rezultacie rządy na całym świecie zaczęły tworzyć silniejsze ramy prawne, które ograniczają możliwości wykorzystania technologii deepfake. Trzeba przyznać, że musiały one opierać się na istniejących przypadkach, dlatego eksperci techniczni ostrzegali, że nie jesteśmy przygotowani na niebezpieczeństwa.

W listopadzie 2022 r. rząd Wielkiej Brytanii stworzył fałszywą pornografię przestępstwo zagrożone więzieniem. Jednak sądy mogą ścigać osoby tylko w przypadku, gdy rozpowszechniają one te obrazy lub filmy online.

Niektóre stany USA również wprowadziły podobne prawa w miejscu. Jednak realistycznie rzecz biorąc, te zasady nie chronią nikogo przed umieszczeniem w drastycznych filmach wideo do oglądania przez inną osobę za zamkniętymi drzwiami.

Ta myśl u zdecydowanej większości kobiet wystarczy, by wywołać wstręt i złość, jeśli nie dreszcz i gęsią skórkę.

@kennaacting

Wyzwanie zamiany twarzy z #facemega #facemegaaplikacja #zamiana twarzy #magia twarzy #edycja wideo #zabawny #gra aktorska

♬ Wesoły, optymistyczny, zabawny, energetyczny rock – StockSounds

Jak wspomniano, deepfake były również wykorzystywane do wzniecania zamieszek politycznych.

był Barak Obama przedstawiony obrażanie Donalda Trumpa. Mark Zuckerberg ma był gotowy powiedzieć, że jedynym celem Facebooka jest kontrolowanie i wykorzystywanie użytkowników platformy.

Wszystko to stało się wirusowe, ujawniając poziom zainteresowania, podziwu, aw niektórych przypadkach oszustwa technologii deepfake.

Używane w innych kontekstach, konsekwencje mogą być znacznie bardziej niebezpieczne. W pierwszych miesiącach rosyjskiej inwazji na Ukrainę wideo prezydenta Zełenskiego w którym nakazał żołnierzom ukraińskim poddanie się żołnierzom rosyjskim.

Na szczęście real Prezydent Zełenski na swoich osobistych kontach w mediach społecznościowych potwierdził, że wideo zostało sfałszowane przez siły opozycyjne. Przypomniał swoim ludziom, że walka o ich kraj jeszcze się nie skończyła i wezwał ich do pozostania zjednoczonym.

Wygląda na to, że deepfake'i, nawet jeśli są używane do stworzenia godnej śmiechu wersji tradycyjnej królowej Elżbiety II przemówienie świąteczne, budzą w nas niepokojące uczucie.

Być może my wiedzieć w głębi duszy, że technologia ta jest znacznie bardziej prawdopodobna do wykorzystania w złych intencjach. Co się stanie, gdy stanie się tak zaawansowany, że nie będziemy w stanie odróżnić tego, co jest faktem, a fikcją?

Czy w przypadku aplikacji do pobrania za darmo, takich jak Facemega, powinniśmy się martwić, że technologia deepfake staje się powszechnie dostępna za pośrednictwem naszych smartfonów?

Powiedziałbym, że niestety powinniśmy.

dostępność