Estudio advierte que la IA está utilizando el contenido del periodismo canadiense para generar respuestas sin citar las fuentes

Por Anja Karadeglija (The Canadian Press)

Montreal (17 de marzo de 2026).- Un estudio publicado ayer por investigadores del Centro de Medios, Tecnología y Democracia de la Universidad McGill analizó 2,267 noticias canadienses en los principales modelos de IA.

Según el reporte, todos los sistemas evaluados demostraron un amplio conocimiento de la actualidad del país, lo que sugiere que han sido entrenados con información proveniente de medios de comunicación.

Sin embargo, los resultados revelan una falta significativa de atribución. Cuando se consultó a herramientas como ChatGPT, Gemini, Claude y Grok sobre eventos noticiosos canadienses incluidos en sus datos de entrenamiento, no mencionaron las fuentes originales en aproximadamente el 82 % de los casos.

Además, cuando se les pidió información sobre artículos específicos con acceso a internet activado, en la mayoría de las respuestas reprodujeron suficiente contenido del reportaje original como para que el usuario no necesitara consultar la fuente.

Aunque cerca de la mitad de las respuestas incluían al menos un enlace canadiense, solo en el 28 % de los casos se identificó explícitamente el medio de origen.

El informe subraya que, aunque los enlaces pueden conducir al contenido original, muchos usuarios no llegan a saber qué medio produjo la información que están consumiendo.

En este sentido, los investigadores advierten que las empresas de IA están extrayendo valor del periodismo en todas las etapas: desde el uso de archivos noticiosos para el entrenamiento hasta la generación de contenidos derivados sin atribución y la entrega directa de respuestas al público.

Este fenómeno, señalan, podría acelerar el deterioro económico del sector periodístico, al reducir tanto la necesidad como el incentivo de los usuarios para visitar los sitios originales.

El documento fue presentado durante una cumbre nacional organizada por el gobierno federal en Banff, centrada en los desafíos que plantea la inteligencia artificial en el ámbito cultural. En la apertura del evento, el ministro de Cultura, Mark Miller, reconoció que existen “preguntas legítimas” sobre derechos de autor, licencias de mercado y la proliferación de contenidos generados por IA.

Por su parte, el ministro de Inteligencia Artificial, Evan Solomon, afirmó que durante las consultas públicas sobre la futura estrategia nacional de IA se evidenció la necesidad de establecer salvaguardas para proteger a los creadores. También mencionó preocupaciones en torno a la propiedad intelectual, la titularidad de los contenidos y el uso de datos.

En paralelo, una coalición de medios canadienses —entre ellos The Canadian Press, Torstar, The Globe and Mail, Postmedia y CBC/Radio-Canada— ha presentado una demanda contra OpenAI ante un tribunal de Ontario. Los medios alegan que la empresa utilizó sus contenidos para entrenar ChatGPT sin autorización, violando derechos de autor y obteniendo beneficios sin compensación.

El debate se produce en un contexto marcado por la aprobación, en 2023, de la Online News Act, que obliga a plataformas como Meta y Google a compensar a los medios por el uso de sus contenidos. Mientras Meta optó por retirar las noticias de sus plataformas, Google ha comenzado a realizar pagos conforme a la legislación.

Finalmente, el informe destaca que, a diferencia de las redes sociales —que concentraban la publicidad alrededor de contenidos informativos—, las empresas de IA están yendo más allá: absorben el contenido periodístico y lo presentan directamente al usuario como un producto propio, reduciendo aún más la necesidad de acudir a las fuentes originales.

Fuente: The Canadian Press

Crédito fotográfico: Global News