
Image by AbsolutVision, from Unsplash
Les Éditeurs Bloquent les Bots IA pour Protéger le Contenu
Les éditeurs de presse continuent de lutter contre les bots IA, en poursuivant les entreprises technologiques, mettant en garde contre les dangers que le scraping pose pour le journalisme, les systèmes de rémunération équitable, ainsi que pour l’avenir du web ouvert.
Précipitée ? Voici les faits en bref:
- Des outils d’IA comme ChatGPT réduisent le trafic vers les sites d’actualités.
- Cloudflare a lancé des outils pour aider à bloquer les grattoirs d’IA non autorisés.
- Reddit et iFixit ont poursuivi en justice ou bloqué des entreprises d’IA comme Anthropic.
Dans un nouveau rapport du The Wall Street Journal (WSJ), les éditeurs de nouvelles luttent contre les entreprises d’IA qui extraient le contenu de leurs sites Web sans compensation. Alors que des outils d’IA tels que ChatGPT et Gemini de Google se développent, de nombreuses entreprises de médias tentent de bloquer les robots qui utilisent leur travail sans autorisation.
« Vous voulez que des humains lisent votre site, pas des bots, particulièrement des bots qui ne vous apportent aucune valeur », a déclaré Nicholas Thompson, PDG de The Atlantic, qui a conclu un accord de licence avec OpenAI mais prévoit de bloquer d’autres entreprises d’IA, comme rapporté par le WSJ.
Cette tactique, connue sous le nom de « scraping », existe depuis les premiers jours de Google. A l’époque, les moteurs de recherche dirigeaient le trafic vers les sites des éditeurs. Aujourd’hui, les chatbots IA permettent des résumés d’actualités qui redirigent les lecteurs loin de leurs sources originales. La combinaison de la réduction du trafic généré par les bots et du déclin des revenus publicitaires est devenue un problème courant pour de nombreux éditeurs.
Pour riposter, les éditeurs se tournent vers des entreprises technologiques comme Cloudflare, qui a récemment lancé des outils pour permettre aux sites web de contrôler si les bots IA peuvent accéder au contenu. Neil Vogel, PDG de Dotdash Meredith, dont l’entreprise licence également du contenu à OpenAI, a déclaré : « Les personnes qui créent des propriétés intellectuelles doivent être protégées, sinon plus personne ne créera de propriété intellectuelle », selon ce qui a été rapporté par le WSJ.
Certaines entreprises, comme Reddit et iFixit, ont engagé des actions en justice. Reddit a poursuivi la société IA Anthropic pour avoir scrapé plus de 100 000 fois malgré les demandes d’arrêt. iFixit a déclaré qu’Anthropic avait sollicité ses serveurs un million de fois en une seule journée.
Le combat se joue également devant les tribunaux. Le New York Times poursuit Microsoft et OpenAI, tandis que News Corp et ses filiales s’attaquent à Perplexity. La BBC a également menacé d’engager des poursuites judiciaires contre la startup IA Perplexity, l’accusant d’avoir récupéré son contenu pour entraîner son modèle par défaut.
Pendant ce temps, certains craignent que des règles anti-scraping plus strictes ne bloquent des utilisations légitimes comme la recherche universitaire, comme le note le WSJ.
Comme l’a prévenu Shayne Longpre de l’Initiative de Provenance des Données, « Le web est en train d’être partitionné au plus offrant. C’est vraiment mauvais pour la concentration du marché et l’ouverture, » comme rapporté par le WSJ.