Meny Meny

Kendricks siste singel bruker avansert deepfake-teknologi

Kendrick Lamars musikkvideo for hans nye albumteaser inneholder dypfalske teknologier for å skildre perspektivene til ulike kulturelle ikoner. Det er et eksempel på hvor realistisk og avansert deepfake-teknologi har blitt.

Hvis du er en musikkfan, vil du uten tvil ha sett og hørt om Kendrick Lamars forestående albumutgivelse, hans første på fem år.

Som tradisjon for hver Lamar-dråpe, ga han ut den femte sangen i 'Heart'-serien i begynnelsen av uken, og ga en smakebit på temaene og lydene til hele LP-en. En kompleks, tett lyrisk opplevelse, sangen utforsker perspektiver av kulturelle ikoner både levende og avdøde.

Den generelle konsensus er at den lever opp til sine høye forventninger – men det er videoen som får folk til å snakke mest. Sjekk det ut nedenfor.

I løpet av den fem minutters kjøretiden, endres Kendricks ansikt til å ligne andres identiteter, inkludert Kanye West, Nipsey Hussle, Kobe Bryant og OJ Simpson. Effekten er kraftig og overraskende ved første visning, og er et vitnesbyrd om fremgangen som er gjort innen deepfake-teknologi selv de siste årene.


Hvor ellers brukes deepfake-teknologi?

Deepfake innhold har kommet langt og blir stadig en del av mainstream nettinnhold, på godt og vondt. Et eksempel er Tom Cruise deepfake TikTok-kontoen, som lager kortformede videoer som overbevisende viser skuespilleren i alle slags situasjoner.

Brukere blir ofte lurt, og tror det er ekte Tom, når det faktisk er en lookalike-skuespiller med Cruises ansikt digitalt pålagt i postproduksjon.

Selv om dette eksemplet stort sett er ufarlig og ikke ment å forårsake problemer, brukes lignende dypfalsk teknologi på mer ondsinnede måter.

Deepfake AI-pornografi er av spesiell bekymring. Det er et betydelig potensial for at eksplisitt materiale kan lages og deles uten samtykke, ettersom mange voksennettsteder ikke er ordentlig regulert og sjelden følger strenge retningslinjer.

Deepfake-materiale er også laget for å forvirre og feilinformere offentligheten om den ukrainske krigen. Innhold har blitt delt på nettet som viser ledere i begge land som «sier» ting de ikke gjorde. Konsekvensen av dette kan være vidtrekkende – og vi vil sannsynligvis se mer av det fremover.

Det er ikke bare det visuelle som kan manipuleres, heller. Deepfakes får stadig større innflytelse og er langt mer tilgjengelige. En tjeneste vi har prøvd å rote med på Thred-kontoret er UberDuck, som tillot oss å lage hele old school Eminem-sanger fra bunnen av.

Et annet verktøy er i stand til å lage automatiserte ansikter fra lyd aleneogså, noe som betyr at vi snart kan se hele digitale mennesker bygget fra bunnen av som aldri engang eksisterte. Plattformen replika eksperimenterer med dette ved å bruke chat-bots, og skaper digitale samtalekarakterer som mennesker kan engasjere seg i. Tenk på plottet til Her og du er ikke langt unna.

https://www.youtube.com/watch?v=QhBWRh-h71g&ab_channel=40Hertz


Hvorfor kan dette være bekymringsfullt?

Den moralske bruken av deepfakes er foreløpig litt blandet.

Akkurat nå ser vi en haug med nye eller gimmicky implementeringer av teknologien, men det kan lett bli mer vanlig og vanskeligere å identifisere veldig snart.

Dette bringer med seg en rekke problemer som nevnt ovenfor, fra eksplisitt innhold til villedende politisk innhold. Se for deg de potensielle konsekvensene hvis en uhengslet verdensleder (som det ser ut til å være mange av) ser en dypt forfalsket video som truer med atomkrig.

Jeg sier ikke at Kendricks video er et tegn på at vi er på vei nedover en dødsdømt vei, men videoen gjør demonstrere at dype forfalskninger blir lettere å lage og er svært effektive. Hvis det ikke er nok å se Kanyes ansikt påtvinget Kendricks kropp til å gi deg marerittdrivstoff i flere uker, vet jeg ikke hva som vil gjøre det.

For nå, ta med Kendricks album – det vil uten tvil bli en klassiker, ikke sant?

tilgjengelighet