OpenAI contrataca: acusa a The New York Times de hackear ChatGPT

Comparte

En diciembre del año pasado, The New York Times hizo público que había demandado a OpenAI y Microsoft por el uso no autorizado de millones de artículos del medio para entrenar el modelo de ChatGPT.

En su demanda, The New York Times sostuvo no solo que OpenAI había infringido masivamente derechos de propiedad intelectual de The New York Times, sino que OpenAI estaba llevando a cabo actos de competencia desleal. Así, The New York Times argumentó que el chatbot de OpenAI, entrenado con el contenido del medio sin consentimiento, competía ahora con The New York Times, al proporcionar a los usuarios información muy similar a la de los artículos publicados en el medio, por lo que los usuarios ya no tenían incentivos para visitar la fuente original.

Ahora, OpenAI ha contraatacado, afirmando en una moción presentada ante el tribunal que The New York Times contrató a alguien para hackear los productos de OpenAI. La moción de OpenAI gira en torno a otros argumentos, como el hecho de que parte de las alegaciones de The New York Times se basan en supuestas infracciones prescritas (por haber ocurrido más de tres años atrás) o la aplicabilidad de la famosa doctrina del uso legítimo o fair use, pero OpenAI no ha querido deja pasar la oportunidad de lanzar un dardo al medio.

Entre otras cosas, OpenAI ha afirmado que “las alegaciones de la demanda del Times no cumplen sus famosas y rigurosas normas periodísticas” (con cita incluida al manual sobre periodismo ético de la editorial). Según anticipa OpenAI, la verdad “saldrá a la luz” durante el transcurso del caso y quedará demostrado que The New York Times tuvo que realizar miles de intentos para generar los resultados “altamente anómalos” que incorporó como prueba a su demanda. En opinión de OpenAI, la obtención de esos resultados solo fue posible porque The New York Times identificó y explotó un fallo técnico (bug) en ChatGPT, dedicándose a introducir en el chatbot instrucciones (prompts) engañosas que vulneraron de forma flagrante los términos y condiciones de uso de ChatGPT. Concluye OpenAI aseverando que “la gente normal no utiliza los productos de OpenAI de esta forma”.

Leer más

Posts relacionados que podrían interesarte

24, noviembre 2021

España podría contar en 2022 con una Agencia Española de Supervisión de Inteligencia Artificial

31, mayo 2023

Twitter en el punto de mira de Bruselas tras la compra de Elon Musk

7, mayo 2019

La AEPD y la APDCAT han publicado sus listados de tratamientos en los que es obligatorio realizar una evaluación de impacto a la protección de datos.

2, abril 2019

Legal Army se une a ELTA European legal Tech Association. #legaltech #ELTA

1, abril 2021

¿Cuáles son los principales desafíos de ciberseguridad en coches autónomos?

26, junio 2019

la ICO pone en duda la regulación actual de la industria Adtech y la publicidad programática.