Forrige uke ble eksplisitte bilder av Taylor Swift laget med kunstig intelligens delt på Twitter (X), med noen innlegg som fikk millioner av visninger. Den påfølgende juridiske panikken kan ha konsekvenser for bruken av kjendisliknelser og AI-bilder generelt.
Taylor Swift ble offer for AI-bildegenerering forrige uke. Eksplisitte, pornografiske bilder ble laget uten hennes samtykke og delt på X (formelt Twitter) av tusenvis av brukere.
Postene ble sett på titalls millioner ganger før de ble fjernet og skrubbet fra plattformen.
Det påfølgende nedfallet har vært raskt, med X tilpasset sine sensurfiltre i løpet av helgen for å fjerne enhver omtale av bildene. Det er amerikanske politikere krever nye lover å kriminalisere deepfakes som et direkte resultat, og Microsoft har forpliktet seg å skyve flere rekkverk på sin Designer IP-app for å forhindre fremtidige hendelser.
Det er strengt forbudt å legge ut bilder uten samtykke (NCN) på X og vi har nulltoleranse overfor slikt innhold. Teamene våre fjerner aktivt alle identifiserte bilder og iverksetter passende tiltak mot kontoene som er ansvarlige for å legge dem ut. Vi er tett…
— Sikkerhet (@Safety) Januar 26, 2024
Disse siste utviklingene i dypfalske kontroverser følger mange år med uetisk pornografisk innhold på nettet, hvorav de fleste fratar ofrene autonomi over deres likhet. Det er et problem som angår både kjendiser og vanlige mennesker, ettersom AI-verktøy blir mer vanlig og tilgjengelig for alle og enhver å bruke.
Taylors høyprofilerte status og hengivne fanbase har bidratt til å presse denne saken frem i forkant av aktuelle nyheter, og vil uten tvil varsle beslutningstakere, sosiale medieplattformer og teknologiselskaper på en måte som vi ikke har sett før nå.
Selv om endringer og strengere lover burde vært på plass for lenge siden, vil vi sannsynligvis se sårt tiltrengt fremgang i de kommende ukene og månedene. Forgreninger kan være vidtrekkende og påvirke generering av AI-bilder generelt – ikke bare kjendisliknelser eller eksplisitt innhold.
Hvordan kan det juridiske nedfallet påvirke generering av AI-bilder i fremtiden?
Så, hva spesielt skjer det lovlig for å bekjempe Taylors dypfalske AI-innhold?
På tirsdag, en bipartisan gruppe av amerikanske senatorer introduserte en regning som ville kriminalisere spredningen av ikke-samtykkelige, seksualiserte bilder generert av AI. Dette vil tillate ofre å søke en sivil straff mot "individer som har produsert eller besatt forfalskningen med den hensikt å distribuere den".
I tillegg vil alle som mottar bilder eller materiale som vet at de ikke er laget med samtykke også bli berørt.
Dick Durbin, USAs senats flertallspisk, og senatorene Lindsey Graham, Amy Klobuchar og Josh Hawley står bak lovforslaget. Det blir kalt «Disrupt Explicit Forged Images and Non-Consensual Edits Act of 2024», eller "Defiance Act" for kort.
Taylors eksplisitte bilder nådde også Det hvite hus. Pressesekretær Karine Jean-Pierre sa til ABC Nyheter fredag at regjeringen var «skremt over rapporter om sirkulerende bilder».
Alt dette følger av en annen lovforslaget kalt No AI FRAUD Act som ble innført 10. januarth, 2024.
Dette tar sikte på å skape en "føderal, grunnleggende beskyttelse mot AI-misbruk", og opprettholde rettighetene til First Amendment online. Den legger særlig vekt på et individs rettigheter til deres likhet og stemme mot AI-forfalskninger. Hvis den vedtas, vil loven om svindel uten AI "bekrefte at alles likhet og stemme er beskyttet og gi individer rett til å kontrollere bruken av deres identifiserende egenskaper".
Selvfølgelig er rettsvern én ting, faktisk håndheving det på nettbasert basis er en annen. Det er også det omstridte spørsmålet om ytringsfrihet og uttrykk – og bestemme hvor straffen ligger.
Bør medierende programvareplattformer som gjør AI-bilder mulig begrenses eller straffes? Vi begrenser ikke Photoshop, for eksempel, til tross for at det er et fremtredende verktøy for å lage villedende bilder. Hvor skal AI-selskaper stå juridisk her? Det er foreløpig uklart.
Lovgivere foreslår et lovforslag mot AI-porno uten samtykke etter Taylor Swift-kontroversen https://t.co/3PS8h0ULxO
- The Verge (@verge) Januar 31, 2024