Meny Meny

Netflixs ikke avslørte AI-bruk vekker debatt om mediemanipulasjon

Netflix har blitt kritisert for å inkludere ikke avslørte AI-bilder i en ny dokumentar om sann kriminalitet. Tilbakeslaget har utløst viktige samtaler rundt mediemanipulasjon. 

Lik det, frykt det eller avsky det, AI er nå en del av hverdagen vår. Fra utdanning til underholdning, kunstig intelligens vil bare fortsette å vokse, og forme nesten alle aspekter av vår interaksjon med media.

Men disse endringene krever grenser. Både AIs uforutsigbarhet og enestående vekst gjør det til et farlig verktøy hvis det ikke brukes skånsomt. Og de siste dagene har to enorme medieselskaper kommet under ild for ikke å ha gjort nettopp det.

Bare dager etter at studio A24 ble kritisert for bruk AI-plakater For å promotere den nye filmen 'Civil War' har Netflix startet en heftig debatt om bruken av kunstig intelligens i TV og film, spesielt når seerne ikke blir gjort oppmerksomme på det.

Strømmetjenesten ble funnet å ha brukt AI-bilder av den dømte morderen Jennifer Han, som en del av deres nye sanne kriminalitetsdokumentar «What Jennifer Did». Filmen følger politiet mens de etterforsker det brutale drapet på Hans mor og drapsforsøket på faren hennes, og trodde først at Jennifer var et uskyldig vitne.

Hun tilsto til slutt å ha orkestrert en leie-til-drap på foreldrene sine i et forsøk på å arve pengene deres.

Rundt 28 minutter ut i filmen beskriver Pans venn på videregående, Nam Nguyen, henne som "flott å snakke med."

«Jennifer, du vet, var sprudlende, glad, selvsikker og veldig ekte,» forklarer han mens tre bilder av Pan vises på skjermen.

Bildene har siden blitt undersøkt, ettersom gjenstander i bakgrunnen virker forvrengte, samt detaljer i Jennifers hender, ører og hår.

Seerne har anklaget Netflix for å bruke kunstig intelligens for å manipulere dem, og presenterer en falsk idé om Jennifer Han som ville bidra til filmens dramatiske klimaks.

«Å bruke AI for å manipulere seeren under sakprosa-innhold er definitivt ondskap på øverste hylle» sa en Instagram-bruker. Den overveldende konsensusen blant Netflix-publikummet har vært negativ, og mange har fremhevet ironien i å bruke falsk informasjon under en film om å avdekke «sannheten».

Selv om Netflix ennå ikke har kommentert tilbakeslaget, reiser beslutningen om å bruke AI-genererte bilder uten avsløring alvorlige etiske spørsmål om ansvaret til innholdsskapere.

Ved å presentere AI-genererte bilder som ekte, risikerer innholdsskapere å forvrenge sannheten og opprettholde feilinformasjon. Når det gjelder «What Jennifer Did», kan seerne ha dannet unøyaktige oppfatninger av Jennifer Han basert på de fabrikkerte bildene som presenteres i dokumentaren.

Manipulering av visuelle elementer gjennom AI vekker også bekymringer om uthulingen av tilliten til media. Når seerne ikke lenger kan skille mellom ekte og kunstige bilder, kommer troverdigheten til mainstream-medier i tvil. Tillit er grunnlaget for journalistikk og filmskaping, og hendelser som dette tjener bare til å undergrave den.

 

Se dette innlegget på Instagram

 

Et innlegg delt av MODERNNOTORIETY (@modernnotoriety)

Noen internettbrukere har antydet fremveksten av kunstig intelligens i populærkulturen, spesielt dets ikke avslørte utseende i dokumentarinnhold, signaliserer slutten på informasjonsalderen.

Mens lover for øyeblikket er på plass for å regulere bruken av kunstig intelligens i hele USA og Europa, er det for tiden ingen spesifikk lovgivning styrer bruken av AI-bilder eller video i dokumentarer eller annet innhold.

Den ukontrollerte bruken av AI har kapasitet til å påvirke de som jobber i bransjen også. Ettersom teknologien for kunstig intelligens fortsetter å utvikle seg, er det en økende frykt for at tradisjonelle roller i filmskaping, som makeupartister og spesialister på visuelle effekter, kan bli foreldet.

Og hvis AI-genererte bilder blir normen, kan det ha dype konsekvenser for fremtidens sysselsetting innen underholdningsmedier.

Når bedrifter ikke klarer å informere publikum om at kunstig intelligens er tilstede i innhold, forringes kapasiteten for publikum til å skille mellom hva som er ekte og hva som er falskt. Som sådan er gyldigheten av AI som et underholdningsverktøy sementert i hodet til innholdsskapere.

Produsenter og mediebedrifter har et ansvar for å avsløre bruken av kunstige bilder og sørge for at seerne er klar over eventuelle manipulasjoner eller endringer som er gjort i det visuelle. Åpenhet fremmer tillit og ansvarlighet, viktige elementer for å opprettholde integriteten til innholdet vi bruker hver dag.

tilgjengelighet