Menu Menu

Wyraźne obrazy AI Taylor Swift wywołują panikę prawną

W zeszłym tygodniu na Twitterze (X) udostępniono wyraźne zdjęcia Taylor Swift utworzone przy użyciu sztucznej inteligencji, a niektóre posty zyskały miliony wyświetleń. Wynikająca z tego panika prawna może mieć konsekwencje w zakresie wykorzystywania podobizny celebrytów i ogólnie obrazów sztucznej inteligencji.

Taylor Swift w zeszłym tygodniu padła ofiarą generowania obrazu przez sztuczną inteligencję. Wyraźne obrazy pornograficzne zostały utworzone bez jej zgody i udostępnione w serwisie X (formalnie na Twitterze) przez tysiące użytkowników.

Posty wyświetlono dziesiątki milionów razy, zanim zostały usunięte i usunięte z platformy.

Skutki tego były szybkie, a X ulepszył w weekend swoje filtry cenzury, aby usunąć wszelkie wzmianki o obrazach. Politycy amerykańscy – tak wzywając do wprowadzenia nowych przepisów w celu kryminalizacji deepfake’ów jako bezpośredniego skutku, oraz Microsoft zobowiązał się do przesuwania większej liczby barier ochronnych w aplikacji Designer IP, aby zapobiec przyszłym incydentom.

Najnowsze wydarzenia w obszarze kontrowersji związanych z fałszywymi treściami są następstwem wielu lat nieetycznych treści pornograficznych w Internecie, z których większość pozbawia ofiary autonomii w zakresie własnego podobieństwa. To problem, który dotyczy zarówno celebrytów, jak i zwykłych ludzi, ponieważ narzędzia AI stają się coraz bardziej powszechne i dostępne dla każdego.

Znany status Taylor i oddana baza fanów pomogły wysunąć tę kwestię na pierwszy plan bieżących wiadomości i bez wątpienia zaalarmują decydentów, platformy mediów społecznościowych i firmy technologiczne w sposób, jakiego nie widzieliśmy do tej pory.

Chociaż zmiany i bardziej rygorystyczne przepisy powinny były zostać wprowadzone już dawno temu, w nadchodzących tygodniach i miesiącach prawdopodobnie zobaczymy bardzo potrzebny postęp. Konsekwencje mogą być szeroko zakrojone i ogólnie wpływać na generowanie obrazów AI – nie tylko na podobizny gwiazd czy wulgarne treści.


W jaki sposób skutki prawne mogą wpłynąć na generowanie obrazu AI w przyszłości?

Tak, to jakie swoiście Czy dzieje się to legalnie w celu zwalczania fałszywych treści AI Taylora?

We wtorek ponadpartyjna grupa amerykańskich senatorów wprowadził rachunek które kryminalizowałoby rozpowszechnianie bezsensownych i seksualizowanych obrazów generowanych przez sztuczną inteligencję. Umożliwiłoby to ofiarom dochodzenie kary cywilnej wobec „osób, które wyprodukowały lub posiadały fałszerstwo z zamiarem jego rozpowszechniania”.

Ponadto będzie to miało wpływ na każdą osobę, która otrzyma obrazy lub materiały, wiedząc, że nie zostały utworzone za zgodą.

Za ustawą stoją Dick Durbin, bicz większości w Senacie USA, oraz senatorowie Lindsey Graham, Amy Klobuchar i Josh Hawley. Nazywa się to „Ustawą z 2024 r. o zakazie jawnego fałszowania obrazów i edycji bez zgody” lub „Ustawa o nieposłuszeństwie” w skrócie.

Wyraźne zdjęcia Taylora dotarły także do Białego Domu. Sekretarz prasowa Karine Jean-Pierre powiedziała w piątek ABC News, że rząd „jest zaniepokojony doniesieniami o krążących zdjęciach”.

Wszystko to wynika z inne projekt ustawy o nazwie No AI FRAUD Act, który został wprowadzony 10 styczniath, 2024.

Ma to na celu stworzenie „federalnej, podstawowej ochrony przed nadużywaniem sztucznej inteligencji” i utrzymanie praw wynikających z Pierwszej Poprawki w Internecie. Kładzie szczególny nacisk na prawa jednostki do własnego wizerunku i głosu przeciwko fałszerstwom sztucznej inteligencji. Jeśli ustawa No AI FRAUD Act zostanie przyjęta, „potwierdzi, że wizerunek i głos każdej osoby są chronione oraz zapewni jednostkom prawo do kontrolowania wykorzystania ich cech identyfikacyjnych”.

Oczywiście ochrona prawna to jedno Egzekwowanie to w skali całej sieci, to co innego. Jest również kontrowersyjna kwestia wolności słowa i ekspresja – oraz określenie, gdzie leży kara.

Czy platformy oprogramowania umożliwiające pośredniczenie w tworzeniu obrazów AI powinny być ograniczane lub karane? Nie ograniczamy na przykład programu Photoshop, mimo że jest to ważne narzędzie do tworzenia wprowadzających w błąd obrazów. Na jakim stanowisku zgodnie z prawem powinny znajdować się firmy zajmujące się sztuczną inteligencją? Obecnie nie jest to jasne.


Dlaczego powinniśmy się martwić generowaniem obrazów AI bez zgody? 

Istnieje mnóstwo problemów związanych z generowaniem obrazów AI i głębokim fałszowaniem bez zgody, a większość z nich jest prawdopodobnie oczywista.

Większość filmów pornograficznych generowanych przez sztuczną inteligencję przedstawia kobiety i jest tworzona bez zgody podmiotu. Badanie 2019 odkryli, że 96% wszystkich filmów zawierających deepfake zawierało wulgaryzmy, przedstawiało kobiety i zostało nakręconych bez zgody. To jest olbrzymi większość i wskazuje, że treści generowane przez sztuczną inteligencję są w dużej mierze zakorzenione w jawnej mizoginii i molestowanie seksualne.

Mówiąc wprost, ramy prawne nie nadążają za treściami AI i związanymi z nimi zagrożeniami. Kobiety są coraz bardziej zagrożone, niezależnie od tego, czy są to gwiazdy najwyższej klasy, takie jak Taylor Swift, czy skromne osoby publiczne. To potencjalne ryzyko również stale rośnie, w miarę jak oprogramowanie staje się łatwiejsze w użyciu i łatwiej dostępne.

Wiemy już, że istnieje wiele społeczności w Internecie, często za pośrednictwem forów takich jak 4chan, Telegram i Discord, które bez pozwolenia generują i rozpowszechniają treści pornograficzne przedstawiające znane kobiety. Jest to zjawisko nieuregulowane i prawie niemożliwe do całkowitego rozprawienia się z nim, niezależnie od jakichkolwiek dobrych intencji ustawy Kongresu USA.

Wszystko to bez uwzględnienia konsekwencji fałszywych obrazów i filmów w naszych sferach politycznych, gdzie dezinformacja prawdopodobnie stanie się jeszcze bardziej powszechna niż obecnie. Jak możemy powstrzymać jakąkolwiek gwiazdę przed powiedzeniem lub zrobieniem czegokolwiek, jeśli nie mamy odpowiedniej odpowiedzialności prawnej za kradzież tożsamości w Internecie?

Wystarczająco trudno jest nakłonić naszych dziadków do przeanalizowania, co jest prawdziwe w Internecie, a co nie. Teraz, gdy sztuczna inteligencja eksplodowała w audio, wideo, a nawet w copywritingu, zrozumienie treści ludzkich i treści botów już tak niemal niezrozumiałe pole minowe. To zawodzi kobiety, niszcząc poczucie własności naszego własnego podobieństwa i ostatecznie niszcząc naszą zdolność do komunikowania się w Internecie.

Być może Taylor Swift na razie przewodzi tej kwestii, ale rzeczywistość jest taka, że ​​fałszywe treści i sztuczna inteligencja porno krążą po Internecie od długiego czasu, zagnieżdżając się w podejrzanych zakątkach forów i pozwalając im pozostać bez kontroli. To ogromny, istotny problem, którego nie da się rozwiązać jedną ustawą czy wnioskiem.

Należy zrobić więcej, aby chronić wszyscy, nie tylko tych bardzo znanych.

dostępność