En lo que será un caso definitivo para el futuro de la IA generativa, el New York Times está demandando a OpenAI por entrenar a ChatGPT utilizando sus artículos sin permiso. El demandado alega que el medio de comunicación engañó su modelo de IA específicamente para producir respuestas palabra por palabra.
Es posible que el panorama de la IA generativa no parezca tan anárquico en 2024, si el New York Times puede ganar su histórico caso contra la empresa matriz de OpenAI, Microsoft. Big Si.
En lo que será un momento crucial para las plataformas de IA generativa y sus procesos innatos, el medio de comunicación está demandando al creador de ChatGPT por entrenar sus modelos de lenguaje utilizando contenido del NYT sin permiso.
Si bien la naturaleza misma de un modelo de aprendizaje profundo es compartimentar la mayor cantidad de datos posible para generar respuestas valiosas, el NYT alega que ChatGPT ha recitado su contenido palabra por palabra en varias ocasiones.
Un portavoz dijo que esto "socava y daña" la reputación de la empresa y, al mismo tiempo, la priva de "suscripciones, licencias, publicidad e ingresos de afiliados". Términos de servicio en agosto de 2023 para prohibir el scraping de sus artículos e imágenes para el entrenamiento de IA.
En términos simples, el NYT ahora ve a ChatGPT como una competencia directa en el negocio de las noticias y no está interesado en compartir su propiedad intelectual sin compensación.
Sin embargo, en un jugoso giro de los acontecimientos, OpenAI ha declaró una creencia que los empleados del NYT engañaron deliberadamente a la herramienta de inteligencia artificial generativa para que replicara extractos de sus artículos. Al descartar el caso por considerarlo "sin mérito", OpenAI todavía espera asociarse con el medio de comunicación, como lo ha hecho con The Associated Press, entre otros.
De los aparentes ejemplos de plagio, de los que el público obviamente no está al tanto, OpenAI afirma que el NYT ordenó explícitamente al modelo que regurgitara o seleccionó ejemplos de muchos intentos.
Las citas seleccionadas "parecen provenir de artículos de hace años que han proliferado en múltiples sitios web de terceros", dijo un portavoz de la compañía. OpenAI anteriormente eliminó una función ChatGPT llamada Explorar al descubrir que reprodujo contenido sin querer, pero las personas mayores refutan las acusaciones de que su IA generativa tiene el mismo problema ahora.