Meny Meny

Er stemme -AI på randen av en markedsføringseksplosjon?

AI-talesyntese kan føles som en ny gimmick nå, men når teknologien blir mer sofistikert, kan vi se en fullskala integrering i markedsføringsverdenen?

Tilsynelatende er AI-lydsyntese i ferd med å bli en hel mengde mer sofistikert enn Eminems rapgenerator. Som om det til og med er mulig.

Til tross for de mange etiske spørsmålene rundt rekreasjonsbruken av AI og dens potensiale for ondsinnet bruk – med dypfalsk porno uten samtykke politisk feilinformasjon, og modifisert satellittbilder blant hovedforbryterne i 2021 – det er spennende muligheter for å bryte inn i mainstream-næringer raskere enn forventet.

På den fronten peker alle bevis mot underholdning som den mest lovende veien for teknologien.

Først nylig har vi hørt om Spotifys patent for maskinlæring som vil bruke lydsignaler i miljøet vårt for å anbefale musikk basert på humøret vårt og produksjonshuset Lucasfilm ansette online deepfake-artisten 'Shamook' for å hjelpe til med å forbedre avdelingen for visuelle effekter.

https://youtu.be/yK-l4gz4rUU

Mens for et år eller to siden, å ta en storfilm og "forbedre" CGI-en sannsynligvis ville ha ført til en opphør-og-avstå-ordre fra skaperne, ser det ut til å være en økende aksept for at teknologien vil bli en del av vår bor.

Etter hvert som flere kommer til den oppfatningen, er det en følelse blant AI-eksperter at teknologien neste gang kan målrette seg mot reklamebransjen. Tenk deg syntetiserte kjendisstemmer som dukker opp på annonseplasseringer eller radioidentiteter.


Hvordan stemme AI fungerer

På samme måte som visuelle deepfakes, bruker stemme-AI (eller stemmesyntese) maskinlæringssystemer for å hente en spredt oversikt over noens stemme fra flere datakilder.

Denne samlingen av rålyd kjøres deretter gjennom en algoritme, som bruker synthesizere til å spleise det hele sammen og danne en setning som brukeren legger inn.

Hvis du ennå ikke har kastet bort timer på å lage tull fra Yoda eller David Attenborough, venter vi her mens du leker med et av mange gratis bot-programmer på nettet. Hvis ikke, sjekk ut dette Eminem syntetisert Mark Zuckerberg diss-spor.

Som eksemplet ovenfor, er flertallet av stemmekloningsmateriale på nettet enten spoofrelatert eller bare en utøvelse av teknologien, selv om det ikke er å si at det ikke allerede har dukket opp i seriøse kommersielle prosjekter.

Tilbake i juli het en dokumentar Roadrunner brukte stemme-AI for å gjenskape vokalen til kokken Anthony Bourdain og snakke ut replikker han hadde skrevet før hans død i 2018. Som du kan forestille deg, falt dette ikke særlig bra med en stor del av seerne.

Ytterligere kontrovers ble trommet opp en måned senere, da skuespilleren Val Kilmer brukte et byrå kalt Sonantic for å etterligne stemmen hans før en trakeostomi for å fjerne halskreft i 2014.

Mens mange berømmet teknologien i tilfellet med Kilmer, Roadrunner ble i stor grad sett på som utbyttende – spesielt ettersom dokumentaren ikke klarte å avsløre bruken av stemmesyntese i det hele tatt.


En lukrativ fremtid for kjendiser og influencere

Følelsen mot mainstream bruk av syntetiserte stemmer og deepfakes generelt er langt fra enstemmig, men det er en klar toveis interesse fra både kjendiser og selskaper for å lage lisenser for deres bruk – omtrent på samme måte som bilderettigheter.

For å erkjenne dette, lanserte et selskap kalt Veritone en tjeneste tidligere i år som lar influencere, idrettsutøvere og skuespillere selge sine virtuelle lydrettigheter for påtegninger.

I hovedsak lar dette kjendiser og influencere tjene penger uten å måtte reise fysisk til et innspillingsstudio eller et spillested, mens en betalende klient høster fordelene av å ha stemmen sin på vent.

Jeg er sikker på at kontrakter vil være mer skuddsikre enn som så, men du skjønner kjernen.

Så lenge talentet er fornøyd med å leie ut et simulacrum av seg selv, vil det nesten helt sikkert være fremtidige muligheter for store navn å tjene penger på.

Bruce Willis, for eksempel, har allerede lisensiert bildet sitt til å brukes som en deepfake på russisk mobilannonser. Gjør det faktum til og med mer dystopisk, vi snakker unge Willis rett ut av Die Hard era.

Her og nå er applikasjoner som Veritone få og langt mellom, men stemmesyntese blir allerede brukt av podcaster.

Et slikt selskap, Descript, har laget en funksjon kalt 'Overdub' som lar podcastere syntetisere sine egne stemmer. På denne måten kan show og transkripsjoner sømløst redigeres i farten.

Snakk om uekte innhold vil alltid bli møtt med bekymring og kritikk, men det hindrer ikke industrien i å komme rundt til ideen om AI. Tvert imot, det blir mer avansert og vanskeligere å oppdage for hver dag.

Det blir interessant hvem som hopper først på disse mulighetene. Jeg ville vært mye mer villig til å kjøpe PPI hvis Patrick Stewart sa det.

tilgjengelighet