Därför försvårar Google scraping av sökresultaten
Publicerad 16 september 2025, senast uppdaterad 2025-09-16
Google fortsätter försvåra för botar att scrapa deras sökresultat. SEO-branschen drabbas men är inte måltavlan. Förändringen ska istället ses i ljuset av hur pass viktigt Googles index är även för de rivaler som växer fram inom framtidens AI-sök.
I helgen var det många SEO:are som noterade att deras sajter fick markant färre exponeringar i Search Console. Tappet tycks korrelera med att Google tagit bort möjligheten att visa 100 sökresultat genom att ange &num=100-parametern i URL:en på Google.
Denna funktion har fram tills nu använts av bland annat rank trackers för att kunna hämta in topp 100-sökresultaten och därigenom visa vilken position inom topp 100 en viss sida rankade på.
I och med denna förändring blir det än mer komplext (och dyrare) för dessa företag att hämta in alla topp 100-resultat. Detta eftersom de istället behöver spindla igenom hela pagineringen på Google för att nå alla de 100 första sökresultaten.
Detta får också till följd att färre botar triggar exponeringar på sökord som rankar på högre positioner i serpen (eftersom botarna inte ser hela topp 100 längre).
SEO-branschen drabbas men är inte måltavlan
Jag tror inte det här är medvetet gjort av Google för att sabba för SEO-industrin. Google har alltid förbjudit i sina användarvillkor för andra aktörer att skrapa serpen men de har ändå inte gjort mycket för att stoppa det. Att det nu sker tror jag beror på att man vill försvåra för aktörer som bygger AI-agenter och liknande att åka snålskjuts på Googles infrastruktur.
Så sent som i slutet av augusti rapporterades det att OpenAI använde SerpAPI, en tjänst för att programmatiskt få access till bland annat Googles sökresultat, för att komma åt Googles sökindex.
Vi såg tidigare i år hur Google började kräva JavaScript för att rendera SERP:en vilket inte hade varit fallet fram tills dess. Även detta har gått att komma runt genom att programmera botarna att rendera JavaScript vilket dock sker till högre kostnader.
För dig som jobbar med SEO är det bra att vara medveten om att detta orsakssamband och att trenden lär fortsätta. Googles uppdaterade sökindex är guld för rivaler att ha access till vilket kan ske via de API:er som finns tillgängliga på marknaden såsom exempelvis SerpAPI och DataForSEO.
Google kommer dock vilja försvåra än mer för deras nuvarande och kommande konkurrenter att åka snålskjuts på deras infrastruktur. Vilket kommer resultera i högre priser för SEO-verktyg som är beroende av den här datan och mer sånt här stök när det kommer till mätning.