In quello che dovrebbe essere un caso definitivo per il futuro dell'intelligenza artificiale generativa, il New York Times ha citato in giudizio OpenAI per aver addestrato ChatGPT utilizzando i suoi articoli senza autorizzazione. L’imputato sostiene che i media hanno ingannato il suo modello di intelligenza artificiale appositamente per fornire risposte letterali.
Il panorama dell’intelligenza artificiale generativa potrebbe non sembrare così senza legge nel 2024, se il New York Times riuscisse a vincere la sua causa storica contro la società madre di OpenAI, Microsoft. Big Se.
In quello che dovrebbe essere un momento cruciale per le piattaforme di intelligenza artificiale generativa e i loro processi innati, lo sono i media facendo causa al creatore di ChatGPT per aver addestrato i suoi modelli linguistici utilizzando i contenuti del NYT senza autorizzazione.
Sebbene la natura stessa di un modello di deep learning sia quella di compartimentare quanti più dati possibile per generare risposte preziose, il NYT sostiene che ChatGPT abbia recitato testualmente il suo contenuto in diverse occasioni.
Un portavoce ha affermato che ciò “mina e danneggia” la reputazione dell’azienda, privandola allo stesso tempo di “abbonamenti, licenze, pubblicità e entrate di affiliazione”. Il Times ha aggiornato il suo termini di servizio nell'agosto 2023 per vietare lo scraping dei suoi articoli e immagini per la formazione sull'intelligenza artificiale.
In parole povere, il NYT ora vede ChatGPT come un concorrente diretto nel settore delle notizie e non è interessato a condividere la sua proprietà intellettuale senza compenso.
In una succosa svolta degli eventi, tuttavia, OpenAI ha dichiarato una convinzione che i dipendenti del NYT hanno deliberatamente ingannato lo strumento di intelligenza artificiale generativa facendogli replicare estratti dai suoi articoli. Respingendo il caso come "privo di merito", OpenAI spera ancora di collaborare con i media, come ha fatto con The Associated Press.
Tra gli evidenti esempi di plagio, di cui il pubblico ovviamente non è a conoscenza, OpenAI afferma che il NYT ha esplicitamente incaricato il modello di rigurgitare o ha selezionato esempi da molti tentativi.
Le citazioni selezionate "sembrano provenire da articoli vecchi di un anno che sono proliferati su più siti Web di terze parti", ha detto un portavoce dell'azienda. OpenAI aveva precedentemente eliminato una funzionalità ChatGPT chiamata Scopri la nostra gamma di prodotti dopo aver scoperto che riproduceva involontariamente contenuti, ma gli anziani confutano le accuse secondo cui la sua intelligenza artificiale generativa ora ha lo stesso problema.