I det som skal være en definitiv sak for fremtiden til generativ AI, saksøker New York Times OpenAI for å trene ChatGPT ved å bruke artiklene sine uten tillatelse. Tiltalte hevder at media lurte AI-modellen spesifikt for å gi svar ordrett.
Landskapet med generativ AI ser kanskje ikke så lovløst ut i 2024, hvis New York Times kan vinne sin landemerkesak mot OpenAIs morselskap, Microsoft. Stor hvis.
I det som kommer til å bli et sentralt tidspunkt for generative AI-plattformer og deres medfødte prosesser, er mediene saksøke ChatGPTs skaper for opplæring av sine språkmodeller ved å bruke NYT-innhold uten tillatelse.
Mens selve naturen til en dyp læringsmodell er å dele så mye data som mulig for å generere verdifulle svar, hevder NYT at ChatGPT har resitert innholdet ordrett ved flere anledninger.
En talsperson sa at dette "undergraver og skader" selskapets omdømme samtidig som det frarøves det for "abonnement, lisensiering, annonsering og tilknyttede inntekter." The Times oppdaterte sin vilkårene for tjenesten i august 2023 for å forby skraping av artikler og bilder for AI-trening.
I lekmenns termer ser NYT nå på ChatGPT som direkte konkurranse i nyhetsbransjen og er ikke interessert i å dele sin intellektuelle eiendom uten kompensasjon.
I en saftig vending har imidlertid OpenAI uttalt en tro at ansatte ved NYT bevisst lurte det generative AI-verktøyet til å gjenskape utdrag fra artiklene. OpenAI avviser saken som «uten fortjeneste», og håper fortsatt å samarbeide med media – slik det har gjort med The Associated Press, Blant andre.
Av de tilsynelatende eksemplene på plagiat, som offentligheten åpenbart ikke er kjent med, hevder OpenAI at NYT enten eksplisitt instruerte modellen om å gjenoppstå eller kirsebærplukkede eksempler fra mange forsøk.
De valgte sitatene "ser ut til å være fra år gamle artikler som har spredt seg på flere tredjeparts nettsteder," sa en talsperson for selskapet. OpenAI har tidligere fjernet en ChatGPT-funksjon kalt Søk etter å ha oppdaget det utilsiktet reprodusert innhold, men seniorer tilbakeviser påstander om at dens generative AI har det samme problemet nå.