Meny Meny

Royals fotoopprør fremhever utfordringen med kresne falskt innhold

Ettersom kunstig intelligens gjør det stadig vanskeligere å skille mellom ekte og falske bilder, blir folk utvilsomt mindre tillitsfulle til media de blir presentert for. Kan vi nappe denne økende skepsisen i knoppen?

Samfunnets terskel for hva som kvalifiserer som "uhyggelig dal" i 2024 blir mer diskutabel for hver måned. Offentlig tillit, i mellomtiden, er tydeligvis avtagende.

Takket være kunstig intelligens og dens evne til å skape ufeilbarlig realistiske fremstillinger av foto og video fra det virkelige liv, er folk tydelig mer mistenksomme overfor media de blir presentert for og om de er helt autentiske eller ikke.

Hvis forslaget om at algoritmer ville skape masseforvirring og hysteri var tidligere vurdert "storm i en tekopp", den pågående saken rundt Catherine Middleton peker på det motsatte.

Hvis du ikke visste det allerede, prinsessen av Wales la ut et familiebilde til Instagram på morsdagen. Selv om det virket ufarlig for det blotte øye, undersøkte folk bildet rettsmedisinsk og tok flere eksempler på antatt digital manipulasjon.

Gitt vanvittige sosiale medier spekulasjoner hadde allerede raset om Kates mangel på offentlige opptredener i månedene før innlegget – med #WhereisKate trending i flere dager – folk hoppet raskt til noen ville konklusjoner.

Etter rapporter i desember 2023 om at Kate hadde vellykket gjennomgått en abdominal kirurgi og var i en periode med bedring, spredte ubegrunnede konspirasjoner om den kongeliges fysiske og mentale velvære. Kates onkel Gary Goldsmith ble til og med avhørt om emnet forrige uke av Ekin Su i Celebrity Big Brother hus.

Jeg overhørte personlig en minneverdig diskusjon der noen hevdet at Kate hadde forsvunnet for å få BBL-operasjon (brasiliansk rumpeløft). Svar på et postkort for hvorfor det ville gjøre det nødvendig å redigere en del av datterens erme i et familiebilde.

Som en del av generelle retningslinjer for å hindre "manipulerte medier" fra å sirkulere, har fotobyråer, inkludert Reuters, Associated Press og Getty, raskt trakk bildet fra deres respektive lagerbibliotek. Som du kan forestille deg, stoppet ikke dette konspirasjonene akkurat.

I dagene etter innlegget har Kate imidlertid åpenlyst klargjort at hun som amatørfotograf forsøkte å korrigere familieportrettet ved hjelp av digital programvare. Ingen bruk av AI-generasjonsverktøy finnes heller, til tross for arbeidet til flere dypfalske eksperter.

«Som mange amatørfotografer, eksperimenterer jeg av og til med redigering», skrev prinsessen. "Jeg ville be om unnskyldning for forvirringen familiebildet vi delte i går forårsaket." Hun var offentlig oppdaget samme mandag (11. mars).

Mens en del av britene pliktoppfyllende forsvarer Kate og hennes rett til å gjøre det millioner av andre gjør på daglig basis, spesielt på Instagram, har bildet utilsiktet vist hvor skadelig manipulerte medier kan være når det gjelder å redusere tilliten til publikum.

Dette er et viktig poeng, siden 2024 har blitt utpekt som "super valgårmed halvparten av verden som går til valgurnene. Ettersom AI eksploderer i sin mest sofistikerte form på tvers av foto, video og lyd, er potensialet for å spre propaganda stort.

Medieinstitusjoner er angivelig på rødt varsel for å minimere spredningen gjennom offisielle nettverk, men den nylige utglidningen fra fotobyråer antyder at gjeldende kontrollsikring kanskje ikke er tilstrekkelig.

Likevel er det vanskelig å legge skylden på døra til noen. Det ustanselige volumet og hastigheten som AI-generert innhold vises på på nettet, er nesten umulig å kontrollere.

Høyprofilerte lovbrudd, som 2022 deepfake som viste Ukrainas president Volodymyr Zelensky overgivelse på nasjonal TV, eller den nyere spredningen av eksplisitte pornografiske bilder ved hjelp av Taylor Swifts likhet har fremskyndet innsatsen for topartireformer og sikkerhetstiltak, men vi vinner ikke kampen ennå.

På en teknologikonferanse i London denne uken, klargjorde britisk teknologisekretær Michelle Donelan at forsøk på å hindre AI-deepfakes har "ingen teknologisk løsning som er svaret på alt."

En bemerkelsesverdig bransjeinnsats for å dempe ufarlig bruk av AI, kalt Koalisjon for innholdsherkomst og ekthet, inkluderer Adobe, BBC, Microsoft og Google.

Dette konsortiet utvikler standarder for å identifisere desinformasjon, mens alle Meta-plattformer har begynt å betegne AI-genererte bilder og videoer. Google prøver også et verktøy som er i stand til å flagge digitalt opprettede eller endrede bilder laget av sine egne verktøy.

Selv om disse initiativene uten tvil vil hindre fremtidige forsøk på å lure eller forårsake skade, kan det hevdes at den verste skaden allerede er gjort. Som standard virker folk særlig mer motvillige til å akseptere media til pålydende på grunn av frykt for å bli lurt av tvetydig teknologi.

Vi har god tid til de harmløse memene som for tiden sirkulerer på Twitter – og herregud, er det noen god de – men reaksjonen på nettet på at bildet først falt var oppriktig bekymrende. Massehysteri er den eneste måten det kan beskrives på.

Når vi ser på nær fremtid, ettersom utnyttelsene av AI blir vanskeligere å skille fra ekte virkelighet, er folk bestemt til å bli mer på spissen og bevoktet om hva de velger å tro. Høres ikke ut som en sunn måte å leve på, ikke sant?

tilgjengelighet