Menu Menu

OpenAI sostiene che il New York Times abbia ingannato ChatGPT portandolo al plagio

In quello che dovrebbe essere un caso definitivo per il futuro dell'intelligenza artificiale generativa, il New York Times ha citato in giudizio OpenAI per aver addestrato ChatGPT utilizzando i suoi articoli senza autorizzazione. L’imputato sostiene che i media hanno ingannato il suo modello di intelligenza artificiale appositamente per fornire risposte letterali.

Il panorama dell’intelligenza artificiale generativa potrebbe non sembrare così senza legge nel 2024, se il New York Times riuscisse a vincere la sua causa storica contro la società madre di OpenAI, Microsoft. Big Se.

In quello che dovrebbe essere un momento cruciale per le piattaforme di intelligenza artificiale generativa e i loro processi innati, lo sono i media facendo causa al creatore di ChatGPT per aver addestrato i suoi modelli linguistici utilizzando i contenuti del NYT senza autorizzazione.

Sebbene la natura stessa di un modello di deep learning sia quella di compartimentare quanti più dati possibile per generare risposte preziose, il NYT sostiene che ChatGPT abbia recitato testualmente il suo contenuto in diverse occasioni.

Un portavoce ha affermato che ciò “mina e danneggia” la reputazione dell’azienda, privandola allo stesso tempo di “abbonamenti, licenze, pubblicità e entrate di affiliazione”. Il Times ha aggiornato il suo termini di servizio nell'agosto 2023 per vietare lo scraping dei suoi articoli e immagini per la formazione sull'intelligenza artificiale.

In parole povere, il NYT ora vede ChatGPT come un concorrente diretto nel settore delle notizie e non è interessato a condividere la sua proprietà intellettuale senza compenso.

In una succosa svolta degli eventi, tuttavia, OpenAI ha dichiarato una convinzione che i dipendenti del NYT hanno deliberatamente ingannato lo strumento di intelligenza artificiale generativa facendogli replicare estratti dai suoi articoli. Respingendo il caso come "privo di merito", OpenAI spera ancora di collaborare con i media, come ha fatto con The Associated Press.

Tra gli evidenti esempi di plagio, di cui il pubblico ovviamente non è a conoscenza, OpenAI afferma che il NYT ha esplicitamente incaricato il modello di rigurgitare o ha selezionato esempi da molti tentativi.

Le citazioni selezionate "sembrano provenire da articoli vecchi di un anno che sono proliferati su più siti Web di terze parti", ha detto un portavoce dell'azienda. OpenAI aveva precedentemente eliminato una funzionalità ChatGPT chiamata Scopri la nostra gamma di prodotti dopo aver scoperto che riproduceva involontariamente contenuti, ma gli anziani confutano le accuse secondo cui la sua intelligenza artificiale generativa ora ha lo stesso problema.

Utilizzando i contenuti del NYT per la formazione del sistema, OpenAI sostiene che le sue pratiche rientrano nelle regole del fair use che consentono di riutilizzare le opere protette da copyright. OpenAI consente alle aziende di impedire direttamente lo scraping del proprio web crawler bloccandone l'indirizzo IP, ma il NYT ritiene di aver già preso l’iniziativa introducendo i suoi cambiamenti politici generali l’estate scorsa.

Esprimendo una posizione simile a quella Camera dei Lord del Regno Unito, il titolare di ChatGPT ha sostenuto che le opere protette da copyright devono essere incorporate per "rappresentare l'intera diversità e ampiezza dell'intelligenza e dell'esperienza umana". Ciò non sorprende, dato che l'alternativa rappresenta la morte del concetto stesso di intelligenza artificiale generativa.

D’altro canto, si può capire perché le principali istituzioni del mondo dell’editoria non siano entusiaste dell’idea di nuove e ambigue iniziative tecnologiche che si intromettono nei loro flussi di entrate. L’etica dell’intelligenza artificiale è, nella migliore delle ipotesi, ancora controversa, e i germogli verdi delle normative non tengono il passo con l’incessante crescita commerciale della tecnologia.

L’onere, probabilmente, dovrebbe spettare alle società di intelligenza artificiale generativa di stringere alleanze facendo sì che ne valga la pena per i creatori di contenuti. Altrimenti, una replica legale come questa sarà sempre una possibilità.

In questo caso, tuttavia, non sembra che sia in arrivo un compromesso da nessuna delle parti. La principale fonte di interesse si sposta ora sulle potenziali ramificazioni di questa causa e su quanto grandi potrebbero essere per il futuro dell’intelligenza artificiale generativa come entità.

Accessibilità