Var annars används deepfake-teknik?
Deepfake-innehåll har kommit långt och blir stadigt en del av mainstream-innehåll på nätet, på gott och ont. Ett exempel är Tom Cruises deepfake TikTok-konto, som skapar kortformade videor som på ett övertygande sätt visar skådespelaren i alla möjliga situationer.
Användare blir ofta lurade och tror att det är verklig Tom, när det faktiskt är en lookalike skådespelare med Cruises ansikte digitalt påtvingat i efterproduktion.
Även om det här exemplet i stort sett är ofarligt och inte avsett att orsaka problem, används liknande deepfake-teknik på mer skadliga sätt.
Deepfake AI-pornografi är särskilt oroande. Det finns en betydande potential för att explicit material skapas och delas utan samtycke, eftersom många vuxenwebbplatser inte är ordentligt reglerade och sällan följer strikta riktlinjer.
Deepfake-material har också skapats för att förvirra och felinformera allmänheten om det ukrainska kriget. Innehåll har delats online som visar att ledare i båda länderna "sade" saker som de inte gjorde. Konsekvensen av detta kan bli långtgående – och vi kommer sannolikt att se mer av det framåt.
Det är inte bara bilder som kan manipuleras heller. Deepfakes för ljud vinner dragkraft och är mycket mer tillgängliga. En tjänst som vi har provat att bråka med på Thred-kontoret är UberDuck, som gjorde det möjligt för oss att skapa hela gamla skolans Eminem-låtar från början.
Ett annat verktyg kan skapa automatiserade ansikten enbart från ljudockså, vilket betyder att vi snart kan se hela digitala människor byggda från grunden som aldrig ens existerade. Plattformen Replika experimenterar med detta med hjälp av chattrobotar, och skapar digitala konversationskaraktärer som människor kan engagera sig i. Tänk på handlingen till Här och du är inte långt borta.
https://www.youtube.com/watch?v=QhBWRh-h71g&ab_channel=40Hertz
Varför kan detta vara oroande?
Den moraliska användningen av deepfakes är för närvarande något av en blandad sak.
Just nu ser vi ett gäng nya eller gimmickiga implementeringar av dess teknologi, men det kan lätt bli vanligare och svårare att identifiera mycket snart.
Detta medför en mängd problem som nämnts ovan, från explicit innehåll till vilseledande politiskt innehåll. Föreställ dig de potentiella följderna om en oslagbar världsledare (som det verkar finnas många av) ser en djupförfalskad video som hotar kärnvapenkrig.
Jag säger inte att Kendricks video är ett tecken på att vi är på väg nedför en dömd väg, men videon gör visa att djupa förfalskningar blir lättare att skapa och är mycket effektiva. Om det inte räcker att se Kanyes ansikte påtvingad Kendricks kropp för att ge dig mardrömsbränsle i flera veckor, jag vet inte vad som kommer att göra det.
För nu, ta med Kendricks album – det kommer utan tvekan att bli en klassiker, eller hur?