En respuesta a una demanda presentada por tel New York Times, en el que el medio de comunicación acusó a OpenAI de utilizar su contenido de noticias para entrenar su modelo de IA, OpenAI presentó recibos. El desarrollador líder de inteligencia artificial se apoyó en su compromiso frecuentemente declarado con la industria de las noticias y declaró: “Apoyamos el periodismo, nos asociamos con organizaciones de noticias y creemos Los New York Times La demanda no tiene mérito.”

OpenAI también acusó al New York Times de informes incompletos, alegando que “el New York Times no cuenta la historia completa”. La compañía sugiere que los ejemplos utilizados por el periódico provienen de artículos más antiguos que están ampliamente disponibles en sitios web de terceros, y también insinuó que el Tiempo de Nueva York había elaborado sus indicaciones de IA para generar la evidencia más condenatoria.

“Parece que manipularon intencionalmente las indicaciones, que a menudo incluyen extensos extractos de artículos, para que nuestro modelo regurgite”, dijo OpenAI, implicando que el New York Times actuó de mala fe al proporcionar indicaciones antinaturales como prueba.

“Incluso cuando utilizamos este tipo de indicaciones, nuestros modelos normalmente no se comportan como los New York Times insinúa, lo que sugiere que le ordenaron al modelo que regurgitara o seleccionaron sus ejemplos de muchos intentos”.

La manipulación rápida es una práctica común en la que las personas pueden engañar a un modelo de IA para que haga cosas para las que no está programado, utilizando indicaciones específicas que desencadenan una respuesta muy específica que no se obtendría en condiciones normales.

OpenAI enfatizó su colaboración con la industria de las noticias.

“Trabajamos duro en nuestro proceso de diseño de tecnología para apoyar a las organizaciones de noticias”, escribió la compañía, destacando el despliegue de herramientas de IA que ayudan a reporteros y editores y el objetivo de crecimiento mutuo tanto para la IA como para el periodismo. OpenAI formó recientemente una asociación con Axel Springer, editor de Piedra rodante-para proporcionar resúmenes de noticias más precisos.

Abordar la cuestión de la “regurgitación” de contenidos, como la New York Times Alegado, OpenAI admite que es un problema poco común pero existente que están trabajando para mitigar.

“La memorización es un raro fallo del proceso de aprendizaje en el que avanzamos continuamente”, explican y defienden sus métodos de formación. “Entrenar modelos de IA utilizando materiales de Internet disponibles públicamente es un uso legítimo”.

Aun así, OpenAI reconoció la validez de las consideraciones éticas al proporcionar un proceso de exclusión voluntaria para los editores.

Entrenamiento de IA y almacenamiento de contenido

La batalla entre los creadores de contenido y las empresas de IA parece ser un juego de suma cero por ahora, ya que la raíz de todo es la forma fundamental en que se entrenan los modelos de IA.

Estos modelos se desarrollan utilizando vastos conjuntos de datos que comprenden textos de diversas fuentes, incluidos libros, sitios web y artículos. Otros modelos utilizan pinturas, ilustraciones, películas, voces y canciones, dependiendo de lo que están capacitados para crear. Sin embargo, estos modelos no retienen artículos o datos específicos. En cambio, analizan estos materiales para aprender patrones y estructuras del lenguaje.

Este proceso es crucial para comprender la naturaleza de las acusaciones y la defensa de OpenAI, y por qué los formadores de IA creen que sus empresas están utilizando el contenido de manera justa, similar a cómo un estudiante de arte estudia a otro artista o estilo artístico para comprender sus características.

Sin embargo, los creadores, incluidos los New York Times y autores de best-sellers, argumentan que empresas como OpenAI están utilizando su contenido de mala fe. Afirman que su propiedad intelectual está siendo explotada sin permiso ni compensación, lo que da lugar a productos generados por IA que potencialmente podrían competir con el contenido original y desviarlo de él.

El New York Times demandó a OpenAI diciendo que el uso de su contenido sin permiso explícito socava el valor del periodismo original, enfatizando el potencial impacto negativo en la producción del periodismo independiente y su costo para la sociedad. Y se podría argumentar que, por muy elaborado que sea el mensaje, si “regurgitó” algún tipo de contenido protegido por derechos de autor, es porque fue utilizado.

Depende de los tribunales decidir si se utilizó de manera justa o injusta.

Esta batalla legal es parte de un movimiento legal que podría dar forma al futuro de la IA, las leyes de derechos de autor y el periodismo. A medida que se desarrolle el caso, sin duda influirá en la conversación sobre la integración de la IA en la creación de contenidos y los derechos de los propietarios de propiedad intelectual en la era digital.

Aún así, OpenAI no cree que este sea un escenario de suma cero. A pesar de criticar los puntos clave de la demanda, la empresa de Altman dijo que está dispuesta a extender una rama de olivo y encontrar un resultado positivo en alguna parte.

“Tenemos la esperanza de una asociación constructiva con el New York Times y respetar su larga historia, que incluye informar sobre la primera red neuronal en funcionamiento hace más de 60 años y defender las libertades de la Primera Enmienda”.

Editado por Ryan Ozawa.

Manténgase al tanto de las noticias sobre criptomonedas y reciba actualizaciones diarias en su bandeja de entrada.



Fuente Traducida decrypt.co