Forlag Blokerer AI Bots For at Beskytte Indhold

Image by AbsolutVision, from Unsplash

Forlag Blokerer AI Bots For at Beskytte Indhold

Læsetid: 2 Minut

Nyhedsudgivere fortsætter med at kæmpe mod AI-bots, sagsøger techvirksomheder og advarer om, at skrabning udgør farer for journalistik, retfærdige kompensationssystemer samt fremtiden for det åbne web.

Er du på farten? Her er de hurtige fakta:

  • AI-værktøjer som ChatGPT reducerer trafikken til nyhedssites.
  • Cloudflare har lanceret værktøjer til at blokere uautoriserede AI-scrapere.
  • Reddit og iFixit har sagsøgt eller blokeret AI-virksomheder som Anthropic.

I en ny rapport fra The Wall Street Journal (WSJ) kæmper nyhedsudgivere tilbage mod AI-virksomheder, der skraber deres hjemmesider for indhold uden kompensation. I takt med at AI-værktøjer som ChatGPT og Google’s Gemini vokser, forsøger mange medievirksomheder at blokere bots, der bruger deres arbejde uden tilladelse.

“Du vil have mennesker til at læse din hjemmeside, ikke bots, især ikke bots, der ikke giver nogen værdi tilbage til dig,” sagde Nicholas Thompson, CEO for The Atlantic, som har en licensaftale med OpenAI, men planlægger at blokere andre AI-virksomheder, som rapporteret af WSJ.

Denne taktik, kendt som “scraping”, har eksisteret siden de tidlige dage af Google. Dengang drev søgemaskiner trafik til udgiveres hjemmesider. Nu muliggør AI-chatbots nyhedssammenfatninger, der omdirigerer læsere væk fra at besøge deres oprindelige kilder. Kombinationen af bot-drevet trafikreduktion og nedgang i reklameindtægter er blevet et almindeligt problem for mange udgivere.

For at slå tilbage, vender forlag sig til tech-virksomheder som Cloudflare, der for nylig har lanceret værktøjer, der lader hjemmesider kontrollere, om AI-bots kan få adgang til indhold. Dotdash Merediths CEO, Neil Vogel, hvis firma også licenserer indhold til OpenAI, sagde, “Folk, der skaber intellektuel ejendom, skal beskyttes, ellers vil ingen skabe intellektuel ejendom længere”, som rapporteret af WSJ.

Nogle virksomheder, som Reddit og iFixit, har taget retslige skridt. Reddit sagsøgte AI-virksomheden Anthropic for at skrabe over 100.000 gange på trods af anmodninger om at stoppe. iFixit sagde, at Anthropic ramte deres servere en million gange på en enkelt dag.

Kampen udspiller sig også i retten. New York Times sagsøger Microsoft og OpenAI, mens News Corp og dens datterselskaber tager kampen op mod Perplexity. BBC har også truet med retslige skridt mod AI-startupvirksomheden Perplexity, som de anklager for at skrabe deres indhold for at træne deres standardmodel.

Imens bekymrer nogle sig over, at strengere anti-skrapningsregler kunne blokere for legitime anvendelser som akademisk forskning, som bemærket af WSJ.

Som Shayne Longpre fra Data Provenance Initiative advarede, “Internettet bliver opdelt til den højeste byder. Det er virkelig dårligt for markeds koncentrationen og åbenheden,” som rapporteret af WSJ.

Kunne du lide denne artikel?
Så anmeld den venligst!
Jeg hadede den Jeg kan ikke rigtigt lide den Den var ok Ret god! Var vild med den!

Vi er glade for du synes om vores arbejde!

Som en værdsat læser, håber vi du har lyst til at tjekke os på Trustpilot? Det er hurtigt, og betyder alverden for os. Tak for at du er fantastisk!

Bedøm os på Trustpilot
0 Brugere som har 0 stemt
Overskrift
Kommentar
Tak for din feedback