“Reparar y compensar es el camino correcto”: ocho medios presentan una demanda contra OpenAI y Microsoft por derechos de autor

El reclamo asegura que las grandes tecnológicas usaron los contenidos periodísticos para entrenar bots de inteligencia artificial, además de difundir información falsa en su nombre. En diálogo con RED/ACCIÓN, Irina Sternik, periodista especializada en tecnología, resalta la necesidad de proteger la profesión en una era de desinformación.

Ocho diarios estadounidenses realizaron una demanda contra OpenAI y Microsoft en la que acusan a las grandes tecnológicas de utilizar ilegalmente artículos periodísticos para alimentar sus sistemas de inteligencia artificial. Se trata de otro capítulo de la conversación que se abrió en diciembre de 2023 cuando el reconocido The New York Times hizo una denuncia por la misma razón.

Las publicaciones involucradas (The New York Daily News, The Chicago Tribune, The Orlando Sentinel, The Sun Sentinel of Florida, The San Jose Mercury News, The Denver Post, The Orange County Register y The St. Paul Pioneer Press) presentaron el escrito ante el tribunal federal del distrito sur de Nueva York el 30 de abril. 

Con la proliferación de herramientas de IA y medios publicando en redes sociales, pareciera que la información es gratis y que el buen trabajo periodístico no tuviera ningún valor”, reflexiona en diálogo con RED/ACCIÓN Irina Sternik, periodista especializada en tecnología. “Para que los medios sobrevivan en un mundo totalmente acaparado por la desinformación es indispensable que protejan su activo”, profundiza. 

En detalle, según informa un artículo de The New York Times, la demanda especifica que los chatbots mostraban a los usuarios suscriptores el texto íntegro de los artículos y rara vez incluían un enlace a la fuente. Esto podría terminar privando a los medios de los ingresos tanto por suscripciones como por la concesión de licencias de sus contenidos en otros sitios.

A su vez, los periódicos aseveran que los bots atribuyeron falsamente a las publicaciones informaciones inexactas o engañosas, «empañando la reputación de los periódicos y difundiendo información peligrosa.» Por ejemplo, ChatGPT aseguró que The Chicago Tribune recomendaba la hamaca para recién nacidos de Boppy, un producto que fue retirado del mercado tras relacionarse con muertes infantiles y que Tribune nunca mencionó. 

El reclamo no exige daños y perjuicios monetarios específicos, pero sí solicita un juicio con jurado y una compensación para los editores. «Hemos invertido millones de dólares en recopilar información y dar noticias en nuestras publicaciones. No podemos permitir que OpenAI y Microsoft roben nuestro trabajo para construir sus propios negocios a nuestra costa», dijo de acuerdo con The Guardian, Frank Pine, editor ejecutivo de MediaNews Group y Tribune Publishing, asociaciones que tienen bajo su dominio algunas publicaciones involucradas. 

Con este problema en auge, las empresas tecnológicas han comenzado a tomar acción. Además de atender legalmente a las denuncias, están firmando acuerdos con grupos de medios para usar sus contenidos a cambio de una remuneración justa y atribución de la fuente. OpenAI, por ejemplo, ya selló alianzas con Axel Springer, The Associated Press, Financial Times, Le Monde y Prisa Media. 

“Reparar y compensar es el camino correcto para las empresas tecnológicas. Llegar a acuerdos por el uso de contenido protegido por derecho de autor y citar la fuente original”, asegura Sternik. “De esta manera, no solamente no está robando información, sino que está ofreciendo la referencia de donde lo saca, en vez de entregar un dato o referencia que puede estar mal y no hay manera de chequear”, concluye la especialista. 

Además, los recientes acuerdos podrían ser indicio de una nueva manera de monetizar la profesión. Juan Iramain, socio director de la consultora INFOMEDIA, comenta a RED/ACCIÓN que se avecina un modelo en el que las plataformas de IA van a poder acceder al contenido periodístico pagando derechos. «El pirateo de la primera etapa va dejando lugar a un formato en el que las empresas de IA quieren hacer acuerdos legales para poder luego comercializar lo que ellas generan sin riesgos legales«, considera.


Este contenido fue originalmente publicado en RED/ACCIÓN y se republica como parte del programa «Periodismo Humano», una alianza por el periodismo de calidad entre RÍO NEGRO y RED/ACCIÓN.



Certificado según norma CWA 17493
Journalism Trust Initiative
Nuestras directrices editoriales
<span>Certificado según norma CWA 17493 <br><strong>Journalism Trust Initiative</strong></span>

Formá parte de nuestra comunidad de lectores

Más de un siglo comprometidos con nuestra comunidad. Elegí la mejor información, análisis y entretenimiento, desde la Patagonia para todo el país.

Quiero mi suscripción

Comentarios