Meny Meny

Djup falsk AI kan omforma musikindustrin

Tekniska ingenjörer kan nu simulera sången hos musiker och artister för att föreställa sig gamla låtar, vilket kan ha långsiktiga konsekvenser för branschen som helhet.

Äldre Gen Z-musikfans kan komma ihåg att de hörde Eminems breakout-singel 'My Name Is' ända tillbaka 1999.

Låten släpptes som den första singeln från sitt debutstudioalbum, och låten var en slående popkulturhit tack vare dess ordspel, karaktär utan vägg och obevekliga hänvisningar till tidens populära kändisar. Medan detta tillvägagångssätt gav Eminem en perfekt introduktionsport till vanlig publik, innebar det också att låten blev föråldrad mycket snabbt.

Jag är tjugofem - praktiskt taget en fossil vid denna tidpunkt - och till och med jag förstod inte helt varje skämt och punchline när jag först hörde det. Med tanke på 'My Name Is' är nu över två decennier gammalt, det är kul att överväga hur drastiskt olika texterna skulle vara om de kom ut idag.

Tack vare nya AI-tekniker och sångsynthesizer är detta inte längre bara en fiktiv fundering. Ett YouTube-konto som heter '40 Hertz 'laddade upp en omarbetad version av låten som använder' deep fake 'ljud för att återskapa det ikoniska Slim Shady-ljudet med uppdaterade texter. Resultatet är sinnesböjande, oroande och imponerande på en gång. Lyssna nedan.

Att återskapa gamla låtar för det moderna ögonblicket är otroligt på egen hand, men användningen av AI på detta sätt kan ha bredare förgreningar som kan suddiga gränsen mellan automatiserad konst och autentiskt mänskligt uttryck.


Vad är djupt förfalskning?

Vi har skrivit massor om djupt falskt tidigare, med stor fokus på videor och fotoidentifiering. 'Deep faking' är när en konstnär eller algoritm skapar en bit media som antar likhet med någon utan deras direkta engagemang.

Du kan få en individ att säga eller göra saker på video eller i en låt som de aldrig gick med på, vilket har en skrämmande potential att vilseleda och förvirra.

Vi lever redan genom en tid av misstro och djupt rotad splittring orsakad av felaktig information - lägga till inautent video utseende verkligt för allt detta jargong kommer sannolikt att orsaka ytterligare huvudvärk och störningar i status quo.

AI-genererad musik är dock mindre täckt, åtminstone från vanliga försäljningsställen. Det kan ha lika stor inverkan som video och kan vara ännu svårare att upptäcka för vardagliga radiolyssnare.

Det mesta av innehållet som produceras med ljud-AI är memecentrerat och lite dumt för närvarande - men eftersom förbättringar ständigt görs är övergången till seriös musik inte så långt borta.


Hur fungerar djup falsk musik?

'Deep fake' musik är helt enkelt användningen av synthesizers för att återge en artists röst, vilket effektivt gör deras sång till ett instrument som kan omarbetas efter ingenjörens val. Du kan skapa nya texter och låtar utan den ursprungliga sångers vetskap eller input.

Det återskapade 'My Name Is' som nämnts ovan är en perfekt fallstudie, och en liknande bot användes för att skapa ett Zuckerberg-disspår med Eminems röst i slutet av förra året. YouTube-kanalen '30 Hertz ' har massor av falska AI-spår av hiphop-artister som är värda att kolla in om du vill ha en omfattande titt på möjligheterna med djupa förfalskningar.

AI kan också användas för att producera originalpoäng och blanda ihop befintliga låtar. Det finns några gratis gimmicky-robotar tillgängliga online som kan manipulera spår och visa hur mycket potential det finns AI-genererad musik utöver att bara återskapa ljudet av sångare.

'Den eviga jukeboxen'till exempel omarrangerar alla låtar du väljer att spelas oändligt utan avbrott. Jag testade det med Machine Gun Kelly's pop punk banger 'drunk face' och resultatet blev förvånansvärt sömlöst.

Dessa bots och algoritmer kan uppskalas för att fungera som mer än bara engångsverktyg och knäppa platser. Marknadsföringsföretag som utnyttjar musikbaserad AI lovar kunderna ursprungliga, automatiska spår som kan anpassas för alla stämningar, situationer eller projekt utan behov av en låtskrivare.

AI.Music är ett sådant företag. Det beskriver dess verktyg som att kunna '' oändligt skala och anpassa mänsklig kreativitet '' som är både spännande och dystopiskt, beroende på vem du frågar.

Vi skulle snart kunna leva i en värld befolkad av både mänsklig och robotproducerad musik, med en genomsnittlig lyssnare som inte kan se skillnaden. Mänsklig sång kommer att samplas, omarbetas och syntetiseras för att producera nytt material av länge döda artister, och vi kan sannolikt kunna använda algoritmer för att skapa DJ-set och mixar i farten utan behov av manuellt ingripande.


Hur kan detta förändra branschen som helhet?

Det är lätt att omedelbart tänka på en dyster framtid där våra Spotify-flöden är fulla av automatiserade låtar som aldrig ens rördes av mänskliga händer, men experter och branschinnovatörer tycker att det är osannolikt.

Talar till TIME, liknar musiker Ash Koosha användningen av AI med de första synthesizern någonsin på sjuttiotalet. Nya förändringar i musikinspelning och -produktion kommer alltid att mötas med reservationer, och det mest rimliga resultatet av AI-baserad musik är omutgivningar, remaster och omarbetningar av gamla låtar av klassiska artister.

Så länge implementeringen är smart och väl hanterad finns det ingen anledning att AI och bots inte kan användas som ett annat verktyg i större resursbox. Det finns möjlighet till tvivelaktiga metoder och vilseledande media, men tidig reglering och kontroll över tillgång till avancerad AI kan hjälpa till att stämpa bort det innan det blir en stor fråga.

För tillfället kommer vi sannolikt att fortsätta se gamla skolor från Eminem, Billie Eilish-klipp och lekfulla onlinebots. Låt oss hoppas att det förblir på sidan av kul och inte politisk manipulation.

Tillgänglighet