Meny Meny

Explicita Taylor Swift AI-bilder orsakar juridisk panik

Förra veckan delades explicita bilder av Taylor Swift skapade med AI på Twitter (X), med några inlägg som fick miljontals visningar. Den efterföljande juridiska paniken kan få konsekvenser för användningen av kändisliknelser och AI-bilder i allmänhet.

Taylor Swift blev offer för AI-bildgenerering förra veckan. Explicita, pornografiska bilder skapades utan hennes samtycke och delades över X (formellt Twitter) av tusentals användare.

Inläggen sågs tiotals miljoner gånger innan de togs bort och skurades från plattformen.

Det efterföljande nedfallet har varit snabbt, med X justerade sina censurfilter under helgen för att ta bort allt omnämnande av bilderna. Det är amerikanska politiker efterlyser nya lagar att kriminalisera deepfakes som ett direkt resultat, och Microsoft har åtagit sig att skjuta fler skyddsräcken på sin Designer IP-app för att förhindra framtida incidenter.

Den här senaste utvecklingen inom djupfalsk kontrovers följer många år av oetiskt pornografiskt innehåll på nätet, varav de flesta berövar offren autonomi över deras likhet. Det är ett problem som berör både kändisar och vanliga människor, eftersom AI-verktyg blir mer vanliga och tillgängliga för alla och alla att använda.

Taylors högprofilerade status och hängivna fanbas har hjälpt till att driva denna fråga till förgrunden för aktuella nyheter, och kommer utan tvekan att varna beslutsfattare, sociala medieplattformar och teknikföretag på ett sätt som vi inte har sett förrän nu.

Även om förändringar och strängare lagar borde ha införts för länge sedan, kommer vi sannolikt att se välbehövliga framsteg under de kommande veckorna och månaderna. Förgreningar kan vara omfattande och påverka AI-bildgenerering i allmänhet – inte bara kändisliknelser eller explicit innehåll.


Hur kan det juridiska nedfallet påverka AI-bildgenereringen i framtiden?

Så, vad specifikt händer lagligt för att bekämpa Taylors djupfalska AI-innehåll?

På tisdagen, en tvåpartisk grupp av amerikanska senatorer införde en proposition som skulle kriminalisera spridningen av sexualiserade bilder utan samtycke som genereras av AI. Detta skulle göra det möjligt för offren att begära en civilrättslig påföljd mot "individer som producerade eller innehade förfalskningen med avsikt att distribuera den".

Dessutom skulle alla som tar emot bilder eller material som vet att de inte skapades med samtycke också påverkas.

Dick Durbin, amerikanska senatens majoritetspiska, och senatorerna Lindsey Graham, Amy Klobuchar och Josh Hawley ligger bakom lagförslaget. Det kallas "Disrupt Explicit Forged Images and Non-Consensual Edits Act of 2024", eller "Defiance Act" för korta.

Taylors explicita bilder nådde också Vita huset. Pressekreterare Karine Jean-Pierre sa till ABC News på fredagen att regeringen "var orolig över rapporter om cirkulerande bilder".

Allt detta följer av annan lagförslaget kallat No AI FRAUD Act som infördes den 10 januarith2024

Detta syftar till att skapa ett "federalt, grundläggande skydd mot AI-missbruk", och upprätthålla First Amendment-rättigheterna online. Den lägger särskild tonvikt på en individs rättigheter till sin likhet och röst mot AI-förfalskning. Om lagen antas, skulle No AI FRAUD Act "bekräfta att allas likhet och röst skyddas och ge individer rätten att kontrollera användningen av sina identifierande egenskaper".

Naturligtvis är rättsskydd en sak, faktiskt driva det på en nätövergripande basis är en annan. Det finns också den omtvistade frågan om yttrandefrihet och uttryck – och bestämma var straffet ligger.

Bör förmedlande mjukvaruplattformar som gör AI-bilder möjliga begränsas eller straffas? Vi begränsar till exempel inte Photoshop, trots att det är ett framträdande verktyg för att skapa vilseledande bilder. Var ska AI-företag stå juridiskt här? Det är för närvarande oklart.


Varför ska vi vara oroliga för generering av AI-bilder utan samtycke? 

Det finns massor av problem som kommer med AI-bildgenerering och djupförfalskning utan samtycke, varav de flesta förmodligen är uppenbara.

Det mesta av AI-genererad pornografi är av kvinnor och görs utan försökspersonens samtycke. En 2019 studie fann att 96 % av alla deepfake-videor var explicita, presenterade kvinnor och gjordes utan godkännande. Det är en stor majoritet och indikerar att AI-genererat innehåll är till stor del bottnade i öppet kvinnohat och sexuella trakasserier.

För att uttrycka det tydligt, har rättsliga ramar misslyckats med att hålla jämna steg med AI-innehåll och riskerna med det. Kvinnor är alltmer hotade, oavsett om det är kändisar i toppklassen som Taylor Swift eller anspråkslösa medlemmar av allmänheten. Denna potentiella risk ökar också kontinuerligt, eftersom programvaran blir enklare att använda och mer lättillgänglig.

Vi vet redan att det finns många gemenskaper online, ofta via forum som 4chan, Telegram och Discord, som genererar och cirkulerar pornografiskt innehåll av kända kvinnor utan tillstånd. Det är oreglerat och nästan omöjligt att slå ner helt, oavsett välmenande lagförslag från den amerikanska kongressen.

Allt detta är utan att överväga konsekvenserna av djupt falska bilder och video i våra politiska sfärer, där desinformation sannolikt kommer att bli ännu mer frodig än den redan är. Utan ett korrekt juridiskt ansvar för identitetsstöld på nätet, hur kan vi stoppa någon kändis från att säga eller göra någonting?

Det är svårt nog att få våra morföräldrar att dissekera vad som är verkligt på nätet och vad som inte är det. Nu när AI har exploderat i ljud, video och till och med copywriting är förståelsen av mänskligt innehåll och botinnehåll nästan ett obegripligt minfält. Det sviker kvinnor, urholkar äganderätten över vår egen likhet och skadar i slutändan vår förmåga att kommunicera online.

Taylor Swift kan vara spjutspets för den här frågan för tillfället, men verkligheten är att djupt falskt innehåll och AI-pornografi har cirkulerat på internet under en lång tid, tjatat i förslappade hörn av forum och fått gå okontrollerat. Det är ett enormt, betydande problem, som inte kan lösas med en enda proposition eller motion.

Mer måste göras för att skydda alla, inte bara de ultraberömda.

Tillgänglighet