Meny Meny

Eksplisitte Taylor Swift AI-bilder forårsaker juridisk panikk

Forrige uke ble eksplisitte bilder av Taylor Swift laget med kunstig intelligens delt på Twitter (X), med noen innlegg som fikk millioner av visninger. Den påfølgende juridiske panikken kan ha konsekvenser for bruken av kjendisliknelser og AI-bilder generelt.

Taylor Swift ble offer for AI-bildegenerering forrige uke. Eksplisitte, pornografiske bilder ble laget uten hennes samtykke og delt på X (formelt Twitter) av tusenvis av brukere.

Postene ble sett på titalls millioner ganger før de ble fjernet og skrubbet fra plattformen.

Det påfølgende nedfallet har vært raskt, med X tilpasset sine sensurfiltre i løpet av helgen for å fjerne enhver omtale av bildene. Det er amerikanske politikere krever nye lover å kriminalisere deepfakes som et direkte resultat, og Microsoft har forpliktet seg å skyve flere rekkverk på sin Designer IP-app for å forhindre fremtidige hendelser.

Disse siste utviklingene i dypfalske kontroverser følger mange år med uetisk pornografisk innhold på nettet, hvorav de fleste fratar ofrene autonomi over deres likhet. Det er et problem som angår både kjendiser og vanlige mennesker, ettersom AI-verktøy blir mer vanlig og tilgjengelig for alle og enhver å bruke.

Taylors høyprofilerte status og hengivne fanbase har bidratt til å presse denne saken frem i forkant av aktuelle nyheter, og vil uten tvil varsle beslutningstakere, sosiale medieplattformer og teknologiselskaper på en måte som vi ikke har sett før nå.

Selv om endringer og strengere lover burde vært på plass for lenge siden, vil vi sannsynligvis se sårt tiltrengt fremgang i de kommende ukene og månedene. Forgreninger kan være vidtrekkende og påvirke generering av AI-bilder generelt – ikke bare kjendisliknelser eller eksplisitt innhold.


Hvordan kan det juridiske nedfallet påvirke generering av AI-bilder i fremtiden?

Så, hva spesielt skjer det lovlig for å bekjempe Taylors dypfalske AI-innhold?

På tirsdag, en bipartisan gruppe av amerikanske senatorer introduserte en regning som ville kriminalisere spredningen av ikke-samtykkelige, seksualiserte bilder generert av AI. Dette vil tillate ofre å søke en sivil straff mot "individer som har produsert eller besatt forfalskningen med den hensikt å distribuere den".

I tillegg vil alle som mottar bilder eller materiale som vet at de ikke er laget med samtykke også bli berørt.

Dick Durbin, USAs senats flertallspisk, og senatorene Lindsey Graham, Amy Klobuchar og Josh Hawley står bak lovforslaget. Det blir kalt «Disrupt Explicit Forged Images and Non-Consensual Edits Act of 2024», eller "Defiance Act" for kort.

Taylors eksplisitte bilder nådde også Det hvite hus. Pressesekretær Karine Jean-Pierre sa til ABC Nyheter fredag ​​at regjeringen var «skremt over rapporter om sirkulerende bilder».

Alt dette følger av en annen lovforslaget kalt No AI FRAUD Act som ble innført 10. januarth, 2024.

Dette tar sikte på å skape en "føderal, grunnleggende beskyttelse mot AI-misbruk", og opprettholde rettighetene til First Amendment online. Den legger særlig vekt på et individs rettigheter til deres likhet og stemme mot AI-forfalskninger. Hvis den vedtas, vil loven om svindel uten AI "bekrefte at alles likhet og stemme er beskyttet og gi individer rett til å kontrollere bruken av deres identifiserende egenskaper".

Selvfølgelig er rettsvern én ting, faktisk håndheving det på nettbasert basis er en annen. Det er også det omstridte spørsmålet om ytringsfrihet og uttrykk – og bestemme hvor straffen ligger.

Bør medierende programvareplattformer som gjør AI-bilder mulig begrenses eller straffes? Vi begrenser ikke Photoshop, for eksempel, til tross for at det er et fremtredende verktøy for å lage villedende bilder. Hvor skal AI-selskaper stå juridisk her? Det er foreløpig uklart.


Hvorfor skal vi være bekymret for generering av AI-bilder uten samtykke? 

Det er massevis av problemer som kommer med generering av AI-bilder og dyp forfalskning uten samtykke, hvorav de fleste sannsynligvis er åpenbare.

Mest AI-generert pornografi er av kvinner og gjøres uten forsøkspersonens samtykke. En 2019 studie fant at 96 % av alle dypfalske videoer var eksplisitte, inneholdt kvinner og ble gjort uten godkjenning. Det er en stort flertall og indikerer at AI-generert innhold er i stor grad forankret i åpenlyst kvinnehat og seksuell trakassering.

For å si det enkelt, har juridiske rammer ikke klart å holde tritt med AI-innhold og risikoene forbundet med det. Kvinner er i økende grad truet, enten det er toppkjendiser som Taylor Swift eller upretensiøse medlemmer av offentligheten. Denne potensielle risikoen øker også kontinuerlig, ettersom programvare blir enklere å bruke og lettere tilgjengelig.

Vi vet allerede at det er mange fellesskap på nettet, ofte via fora som 4chan, Telegram og Discord, som genererer og sirkulerer pornografisk innhold av kjente kvinner uten tillatelse. Det er uregulert og nesten umulig å slå helt ned på, uavhengig av et velmenende lovforslag fra den amerikanske kongressen.

Alt dette er uten å vurdere konsekvensene av dypt falske bilder og video i våre politiske sfærer, der feilinformasjon sannsynligvis vil bli enda mer utbredt enn den allerede er. Uten et skikkelig juridisk ansvar for identitetstyveri på nettet, hvordan kan vi stoppe en kjendis fra å si eller gjøre noe?

Det er vanskelig nok å få besteforeldrene våre til å dissekere hva som er ekte på nettet og hva som ikke er det. Nå som AI har eksplodert i lyd, video og til og med copywriting, er det å forstå menneskelig innhold og bot-innhold nesten et uforståelig minefelt. Det er sviktende kvinner, eroderer eierskapet over vår egen likhet, og til slutt skader vår evne til å kommunisere på nettet.

Taylor Swift kan være spydspissen for dette problemet foreløpig, men realiteten er at dypt falskt innhold og AI-pornografi har sirkulert på internett i lang tid, stivnet i snuskete hjørner av fora og fått lov til å gå ukontrollert. Det er et stort, betydelig problem som ikke kan løses med en enkelt regning eller bevegelse.

Mer må gjøres for å beskytte alle, ikke bare de ultrakjente.

tilgjengelighet