Meny Meny

Dyp, falsk AI kan omforme musikkindustrien

Tekniske ingeniører er nå i stand til å simulere vokalene til musikere og artister for å forestille seg gamle sanger, som kan ha langsiktige konsekvenser for bransjen som helhet.

Eldre Gen Z-musikkfans husker kanskje å høre Eminems breakout-singel 'My Name Is' helt tilbake i 1999.

Utgitt som den første singelen fra debutstudioalbumet, var sangen en knallhard popkulturhit takket være ordspillet, off-the-wall-karakteren og ubarmhjertige referanser til tidens populære kjendiser. Mens denne tilnærmingen ga Eminem en perfekt introduksjonsport til det vanlige publikummet, betydde det også at sangen ble utdatert veldig raskt.

Jeg er tjuefem - praktisk talt en fossil på dette punktet - og til og med jeg forstod ikke helt hver vits og punchline da jeg først hørte det. Tatt i betraktning 'My Name Is' er nå over to tiår gammel, er det morsomt å vurdere hvor drastisk forskjellige tekstene ville være hvis den kom ut i dag.

Takket være nye AI-tech- og vokalsynthesizere er dette ikke lenger bare en fiktiv planlegging. En YouTube-konto kalt '40 Hertz 'lastet opp en omarbeidet versjon av sangen som bruker' deep fake 'lyd for å gjenskape den ikoniske Slim Shady-lyden med oppdaterte tekster. Resultatet er tankebøyning, bekymrende og imponerende på en gang. Lytt nedenfor.

Å gjenopprette gamle sanger for det moderne øyeblikket er utrolig alene, men bruken av AI på denne måten kan ha bredere forgreninger som kan utvide linjen mellom automatisert kunst og autentisk menneskelig uttrykk.


Hva er dyp forfalskning?

Vi har skrevet massevis om dyp forfalskning før, i stor grad fokusert på videoer og bildeidentifikasjon. 'Deep faking' er når en kunstner eller algoritme lager et stykke media som adopterer likheten til noen uten deres direkte involvering.

Du kan få en person til å si eller gjøre ting på video eller i en sang som de aldri har sagt ja til, som har fryktinngytende potensial til å villede og forvirre.

Vi lever allerede gjennom en tid av mistillit og dypt rotende splittelse forårsaket av feilinformasjon - og legger til uautentisk video det utseende virkelig for alt dette sjargongen vil sannsynligvis føre til ytterligere hodepine og forstyrrelser i status quo.

AI-generert musikk er mindre dekket, men i det minste fra vanlige utsalgssteder. Det kan ha like stor innvirkning som video og kan være enda vanskeligere å oppdage for radiolyttere i hverdagen.

Det meste av innholdet som produseres med lyd-AI er memesentrisk og litt dumt for øyeblikket - men da forbedringer stadig blir gjort, er ikke skiftet til seriøs musikk så langt unna.


Hvordan fungerer dyp falsk musikk?

'Deep fake' musikk er rett og slett bruk av synthesizere for å gjengi stemmen til en artist, noe som effektivt gjør vokalen til et instrument som kan bearbeides etter ingeniørens valg. Du kan lage nye tekster og sanger uten den originale vokalistens kunnskap eller innspill.

Den gjenskapte 'My Name Is' som nevnt ovenfor er en perfekt casestudie, og en lignende bot ble brukt til å lage et Zuckerberg diss-spor med Eminems stemme på slutten av fjoråret. YouTube-kanalen '30 Hertz ' har massevis av falske AI-spor av hiphop-artister som er verdt å sjekke ut hvis du vil ha et omfattende blikk på mulighetene for musikk dype forfalskninger.

AI kan også brukes til å produsere originale partiturer og blande sammen eksisterende sanger. Det er noen få gratis gimmicky-roboter tilgjengelig på nettet som kan manipulere spor og demonstrere hvor mye potensial det er AI-generert musikk utover bare å gjenskape lydene fra vokalister.

'The Eternal Jukebox', for eksempel, omorganiserer du en sang du velger å bli spilt uendelig uten avbrudd. Jeg testet det med Machine Gun Kellys pop punk banger 'full face' og resultatet var overraskende sømløst.

Disse roboter og algoritmer kan oppskaleres til å tjene som mer enn bare engangsverktøy og quirky nettsteder. Markedsføringsfirmaer som benytter seg av musikkbasert AI, lover kunder originale, automatiserte spor som kan finjusteres for enhver stemning, situasjon eller prosjekt, uten behov for en låtskriver.

AI.Music er et slikt firma. Den beskriver verktøyene som å være i stand til å 'uendelig skalere og tilpasse menneskelig kreativitet', som er både spennende og dystopisk, avhengig av hvem du spør.

Vi kunne snart bo i en verden befolket av både menneskelig og robotprodusert musikk, med den gjennomsnittlige lytteren ikke i stand til å se forskjellen. Menneskelig vokal vil bli samplet, bearbeidet og syntetisert for å produsere nytt materiale av lenge døde artister, og vi kan trolig være i stand til å bruke algoritmer til å lage DJ-sett og mikser på farten uten behov for manuell inngrep.


Hvordan kan dette endre næringen som helhet?

Det er lett å umiddelbart tenke på en dyster fremtid der Spotify-feedene våre er fulle av automatiserte sanger som ikke engang ble berørt av menneskelige hender, men eksperter og bransjinnovatører synes dette er usannsynlig.

Snakker til TIME, sammenligner musiker Ash Koosha bruken av AI med de første synthesizerne noensinne på syttitallet. Nye endringer i musikkopptak og -produksjon vil alltid bli møtt med forbehold, og det mest fornuftige resultatet av AI-basert musikk er nyutgivelser, remaster og omarbeidelse av gamle sanger av klassiske artister.

Så lenge implementeringen er smart og godt håndtert, er det ingen grunn til at AI og bots ikke kan brukes som et annet verktøy i større ressursbokser. Det er mulighet for unnvikende praksis og villedende medier, men tidlig regulering og kontroll over tilgang til avansert AI kan bidra til å utrydde dette før det blir et stort problem.

Foreløpig vil vi sannsynligvis fortsette å se gamle skolen Eminem-sanger, Billie Eilish-klipp og lekne online-bots. La oss håpe det holder seg på siden av moro og ikke politisk manipulasjon.

tilgjengelighet