InicioCiencia & TecnologíaLa regulación del acceso a contenido en Internet en la era de...

La regulación del acceso a contenido en Internet en la era de la inteligencia artificial

En un contexto donde la inteligencia artificial (IA) consume contenido de manera masiva, surge la controversia en torno a la extracción de datos de Internet para entrenar modelos. Compañías como OpenAI, Gemini y Anthropic emplean bots rastreadores como GPTBot, Googlebot y ClaudeBot para llevar a cabo el llamado «scraping» en millones de páginas web, descargando HTML, extrayendo texto y guardando enlaces.

Una vez entrenados, estos modelos recurren a la web en busca de información adicional en tiempo real. No obstante, esta dinámica ha provocado conflictos relacionados con la propiedad intelectual, como el caso de ChatGPT generando imágenes al estilo de Studio Ghibli o Seedance 2.0 creando videos con contenido de Disney, lo que ha derivado en demandas por violación de derechos de autor.

Frente a este escenario, empresas como OpenAI han optado por licenciar contenido, alcanzando acuerdos millonarios con conglomerados mediáticos como News Corp y agencias como Associated Press. Incluso han forjado alianzas con otras compañías para pagar por el acceso a información. Un ejemplo relevante fue la colaboración entre OpenAI y Disney para permitir el uso de personajes en videos generados por IA, aunque este acuerdo quedó en suspenso con el cierre de la aplicación Sora.

Además de los problemas de derechos de autor, el rastreo indiscriminado de los bots ha suscitado quejas por la disminución del tráfico y los ingresos de los sitios web. Asimismo, la voracidad de los bots puede ocasionar problemas técnicos, como el caso de iFixit y Freelancer, que sufrieron visitas masivas de bots en un corto lapso de tiempo.

Para abordar estas problemáticas, el RSL Collective ha creado un estándar abierto denominado RSL (Really Simple Licensing) que permite a los sitios web controlar el acceso de los bots a su contenido. Este estándar busca ofrecer una fórmula universal para que las páginas web puedan licenciar su contenido y establecer reglas claras para los bots.

Al mismo tiempo, empresas como Cloudflare han desarrollado programas como AI Crawl Control y AI Labyrinth para identificar y regular el acceso de bots rastreadores a los sitios web. Estas iniciativas buscan prevenir el «scraping» no autorizado y asegurar un acceso equitativo al contenido.

En un panorama donde el tráfico de bots supera al tráfico humano, la iniciativa RSL y programas como AI Crawl Control representan intentos de regular el acceso a contenido en Internet y proteger los derechos de autor. Estas soluciones buscan equilibrar los intereses de los sitios web de contenido con las empresas desarrolladoras de IA, promoviendo un acceso justo y respetuoso a la información en la era digital.

Source: www.xataka.com

RELATED ARTICLES
- Advertisment -
Google search engine
Google search engine
Google search engine

Most Popular