Menú Menú

OpenAI alega que el New York Times engañó a ChatGPT para que cometiera plagio

En lo que será un caso definitivo para el futuro de la IA generativa, el New York Times está demandando a OpenAI por entrenar a ChatGPT utilizando sus artículos sin permiso. El demandado alega que el medio de comunicación engañó su modelo de IA específicamente para producir respuestas palabra por palabra.

Es posible que el panorama de la IA generativa no parezca tan anárquico en 2024, si el New York Times puede ganar su histórico caso contra la empresa matriz de OpenAI, Microsoft. Big Si.

En lo que será un momento crucial para las plataformas de IA generativa y sus procesos innatos, el medio de comunicación está demandando al creador de ChatGPT por entrenar sus modelos de lenguaje utilizando contenido del NYT sin permiso.

Si bien la naturaleza misma de un modelo de aprendizaje profundo es compartimentar la mayor cantidad de datos posible para generar respuestas valiosas, el NYT alega que ChatGPT ha recitado su contenido palabra por palabra en varias ocasiones.

Un portavoz dijo que esto "socava y daña" la reputación de la empresa y, al mismo tiempo, la priva de "suscripciones, licencias, publicidad e ingresos de afiliados". Términos de servicio en agosto de 2023 para prohibir el scraping de sus artículos e imágenes para el entrenamiento de IA.

En términos simples, el NYT ahora ve a ChatGPT como una competencia directa en el negocio de las noticias y no está interesado en compartir su propiedad intelectual sin compensación.

Sin embargo, en un jugoso giro de los acontecimientos, OpenAI ha declaró una creencia que los empleados del NYT engañaron deliberadamente a la herramienta de inteligencia artificial generativa para que replicara extractos de sus artículos. Al descartar el caso por considerarlo "sin mérito", OpenAI todavía espera asociarse con el medio de comunicación, como lo ha hecho con The Associated Press, entre otros.

De los aparentes ejemplos de plagio, de los que el público obviamente no está al tanto, OpenAI afirma que el NYT ordenó explícitamente al modelo que regurgitara o seleccionó ejemplos de muchos intentos.

Las citas seleccionadas "parecen provenir de artículos de hace años que han proliferado en múltiples sitios web de terceros", dijo un portavoz de la compañía. OpenAI anteriormente eliminó una función ChatGPT llamada Explorar al descubrir que reprodujo contenido sin querer, pero las personas mayores refutan las acusaciones de que su IA generativa tiene el mismo problema ahora.

Sobre la utilización del contenido del NYT para la capacitación del sistema, OpenAI argumenta que sus prácticas se rigen por reglas de uso justo que permiten reutilizar obras protegidas por derechos de autor. OpenAI permite a las empresas bloquear el scraping de su rastreador web directamente bloqueando su dirección IP, pero el NYT siente que ya tomó la iniciativa al introducir cambios generales de política el verano pasado.

Expresando una postura similar a la Cámara de los Lores del Reino Unido, el propietario de ChatGPT argumentó que las obras protegidas por derechos de autor deben incorporarse para “representar la diversidad total de la inteligencia y la experiencia humanas”. Esto no es sorprendente, dado que la alternativa representa la muerte del concepto mismo de IA generativa.

Por otro lado, se puede entender por qué las instituciones básicas del mundo editorial no están contentas con la idea de que nuevas y ambiguas empresas tecnológicas se inmiscuyan en sus flujos de ingresos. La ética de la IA sigue siendo, en el mejor de los casos, polémica y los brotes verdes de las regulaciones no están a la altura del incesante crecimiento comercial de la tecnología.

Podría decirse que la responsabilidad debería recaer en las empresas de IA generativa para forjar alianzas que hagan que valga la pena para los creadores de contenido. De lo contrario, siempre será posible una réplica legal como ésta.

En este caso, sin embargo, no parece que ninguna de las partes vaya a llegar a un acuerdo. La principal fuente de interés ahora se dirige a las posibles ramificaciones de esta demanda y a cuán grandes podrían ser para el futuro de la IA generativa como entidad.

Accesibilidad