Meny Meny

Royals fotouppror belyser utmaningen att kräsna på falskt innehåll

Eftersom artificiell intelligens gör det allt svårare att skilja mellan verkliga och falska bilder, blir människor utan tvekan mindre förtroendefulla för media som de presenteras för. Kan vi kväva denna växande skepsis i sin linda?

Samhällets tröskel för vad som kvalificeras som "uncanny valley" år 2024 blir mer diskutabel för varje månad. Allmänhetens förtroende håller på att avta.

Tack vare artificiell intelligens och dess förmåga att skapa ofelbart realistiska skildringar av verkliga foton och video, är människor tydligt mer misstänksamma mot media de presenteras för och oavsett om de är helt autentiska eller inte.

Om förslaget att algoritmer skulle skapa massförvirring och hysteri var tidigare övervägt "storm i en tekopp", det pågående fallet kring Catherine Middleton pekar på motsatsen.

Om du inte redan visste, prinsessan av Wales har lagt upp ett familjefoto till Instagram på mors dag. Även om det verkade ofarligt för blotta ögat, undersökte folk fotot rättsmedicinskt och tog flera exempel på förmodad digital manipulation.

Med tanke på freneside sociala medier spekulationer hade redan rasat om Kates brist på offentliga framträdanden under månaderna fram till inlägget – med #WhereisKate trendigt i flera dagar – folk drog snabbt några vilda slutsatser.

Efter rapporter i december 2023 som Kate hade framgångsrikt genomgått en bukoperation och befann sig i en period av återhämtning spred sig ogrundade konspirationer om kungens fysiska och psykiska välbefinnande. Kates farbror Gary Goldsmith förhördes till och med i ämnet förra veckan av Ekin Su i Kändis storebror hus.

Jag hörde personligen en minnesvärd diskussion där någon påstod att Kate hade försvunnit för att få BBL-operation (brasiliansk rumplyft). Svar på ett vykort för varför det skulle göra det nödvändigt att redigera en del av hennes dotters ärm i ett familjefoto.

Som en del av allmänna policyer för att förhindra "manipulerad media" från att cirkulera, bildbyråer inklusive Reuters, Associated Press och Getty snabbt tog tillbaka fotot från sina respektive lagerbibliotek. Som du kan föreställa dig, stoppade detta inte precis konspirationerna.

Under dagarna efter inlägget har Kate emellertid öppet klargjort att hon som amatörfotograf försökte korrigera familjeporträttet med hjälp av digital programvara. Ingen användning av AI-genereringsverktyg kan hittas heller, trots ansträngningar från flera deepfake-experter.

"Som många amatörfotografer experimenterar jag ibland med redigering", skrev prinsessan. "Jag ville uttrycka min ursäkt för all förvirring som familjebilden vi delade igår orsakade." Hon var offentligt upptäckt samma måndag (11 mars).

Medan en del av britterna plikttroget försvarar Kate och hennes rätt att göra vad miljontals andra gör dagligen, särskilt på Instagram, har bilden oavsiktligt visat hur skadlig manipulerad media kan vara när det gäller att minska allmänhetens förtroende.

Detta är en viktig punkt, eftersom 2024 har utpekats som "supervalår' med hälften av världen som går till valurnorna. När AI exploderar i sin mest sofistikerade form över foto, video och ljud, är potentialen för att propagandan ska spridas enorm.

Medieinstitutioner sägs vara på röd beredskap för att minimera spridningen genom officiella nätverk, men det nyligen gjorda misstaget från bildbyråer tyder på att nuvarande kontrollskydd kanske inte är tillräckliga.

Ändå är det svårt att skylla på någons dörr. Den oupphörliga volymen och hastigheten med vilken AI-genererat innehåll dyker upp online är nästan omöjligt att bevaka.

Högprofilerade förseelser, som 2022 deepfake som visade Ukrainas president Volodymyr Zelensky kapitulera på nationell TV, eller den nyare spridningen av explicita pornografiska bilder med hjälp av Taylor Swifts likhet har påskyndat ansträngningarna för tvådelade reformer och skyddsåtgärder, men vi vinner inte striden ännu.

Vid en teknisk konferens i London denna vecka klargjorde den brittiska tekniksekreteraren Michelle Donelan att försök att förhindra AI deepfakes har "ingen teknisk lösning som är svaret på allt."

En anmärkningsvärd branschinsats för att mildra skändlig användning av AI, kallad Koalition för innehållets ursprung och äkthet, inkluderar Adobe, BBC, Microsoft och Google.

Detta konsortium utvecklar standarder för att identifiera desinformation, medan alla Meta-plattformar har börjat beteckna AI-genererade foton och videor. Google testar också ett verktyg som kan flagga digitalt skapade eller ändrade bilder gjorda av sina egna verktyg.

Även om dessa initiativ utan tvekan kommer att förhindra framtida försök att vilseleda eller orsaka skada, kan man hävda att den värsta skadan redan är gjord. Som standard förefaller människor märkbart mer ovilliga att acceptera media till nominellt värde på grund av rädsla för att bli lurade av tvetydig teknik.

Vi har gott om tid för de ofarliga memes som för närvarande cirkulerar på Twitter – och herregud, finns det några god ettor – men onlinereaktionen på att bilden först föll var verkligen oroande. Masshysteri är det enda sättet det kan beskrivas på.

När man ser till den närmaste framtiden, när AI-bedrifterna blir svårare att skilja från verkligheten, är människor avsedda att bli mer på spetsen och bevakade vad de väljer att tro. Låter inte som ett hälsosamt sätt att leva, eller hur?

Tillgänglighet