Google entfernt den num=100 Parameter

Lass dir den Artikel direkt mit KI leicht verständlich zusammenfassen:

Num100 Entfernt
Inhaltsverzeichnis

Google entfernt den num=100 Parameter

In der dynamischen Welt der Suchmaschinenoptimierung (SEO) sind Veränderungen eine Konstante. Doch nur selten löst eine einzelne, unangekündigte Anpassung eine derartige Welle der Unsicherheit und Neuausrichtung aus wie die jüngste Entscheidung von Google.

Mitte September 2025 hat Google stillschweigend den langjährigen URL-Parameter &num=100 deaktiviert. Dieser Parameter, der es Nutzern und Drittanbieter-Tools ermöglichte, bis zu 100 Suchergebnisse auf einer einzigen Seite abzurufen, war über Jahre hinweg ein Eckpfeiler für die Effizienz der Datenbeschaffung in der SEO-Branche. Was auf den ersten Blick wie eine geringfügige technische Änderung erscheinen mag, hat sich schnell zu einem seismischen Ereignis entwickelt, das weitreichende Diskussionen in der SEO-Community ausgelöst, zahlreiche Tools lahmgelegt, Analysedaten verzerrt und eine grundlegende Neubewertung der Erfolgsmessung erzwungen hat.

Dieser Artikel beleuchtet die unmittelbaren Auswirkungen, die tiefergehenden Implikationen für die Google Search Console und die möglichen Motivationen hinter Googles Entscheidung, um SEO-Professionals einen umfassenden Überblick über diese entscheidende Entwicklung zu geben.

Lahmgelegte Tools und explodierende Kosten

Der &num=100-Parameter war über Jahre hinweg das Rückgrat vieler Rank-Tracking-Softwarelösungen. Er bot eine effiziente Methode, um die Suchergebnisseiten (SERPs) von Google zu crawlen und Keyword-Rankings für bis zu 100 Ergebnisse auf einmal zu erfassen [1]. Die Entfernung dieser Abkürzung hat die Mechanik der Datenerfassung grundlegend verändert. Was zuvor mit einem einzigen Request 100 Ergebnisse lieferte, erfordert nun zehn separate Requests, um die gleiche Datenmenge zu erhalten [1]. Dies bedeutet eine „Verzehnfachung der Crawl-Last“, des Serverbedarfs und der Infrastruktur, die SEO-Tool-Anbieter benötigen, um dieselben Datensätze zu sammeln. Die unmittelbaren Folgen waren weitreichend: Berichte über defekte Dashboards, fehlende Ranking-Daten, Fehlerzustände und unvollständige SERP-Berichte machten die Runde [1].

Namhafte Anbieter haben bereits auf diese Änderung reagiert. So erklärte beispielsweise Keyword Insights, dass Google den n=100 SERP-Parameter „getötet“ habe und statt eines Requests für 100 SERP-Ergebnisse nun zehn Requests (mit den damit verbundenen zehnfachen Kosten) erforderlich seien [1]. AccuRanker, ein weiterer wichtiger Akteur im Bereich des Rank-Trackings, hat seine Standard-Tracking-Tiefe bereits auf die Top 20 Ergebnisse angepasst. AccuRanker begründete dies damit, dass das Abrufen weiterer Ergebnisse von Google zusätzliche Seitenabrufe erfordere, und jede zusätzliche Seite die Kosten erheblich erhöhe [1].

Diese erhöhte betriebliche Belastung wird voraussichtlich finanzielle Auswirkungen haben. Tool-Anbieter sehen sich mit einem potenziellen Anstieg der Infrastrukturkosten konfrontiert, die in den kommenden Quartalen wahrscheinlich in Form von höheren Abonnementpreisen an die Kunden weitergegeben werden. Für SEO-Professionals bedeutet dies, dass sie möglicherweise mit höheren Kosten für ihre bevorzugten Tools rechnen müssen, während die Tools selbst sich an die neue Realität anpassen und ihre Crawling-Methoden überarbeiten müssen, um weiterhin tiefergegehende Ergebnissätze wiederherzustellen [Xovi Statusmeldung].

Die Entschlüsselung der „Großen Entkopplung“ in der Google Search Console

Über die Störung von Drittanbieter-Tools hinaus hatte die Änderung auch unerwartete Auswirkungen auf die First-Party-Daten innerhalb der Google Search Console (GSC). Um den 10. September herum, zeitgleich mit der Feststellung der Parameteränderung, beobachteten viele Website-Betreiber einen signifikanten und abrupten Rückgang der Desktop-Impressionen, der von einem entsprechenden Anstieg der durchschnittlichen Position begleitet wurde [1]. SEO-Berater Brodie Clark bemerkte: „… Ich sehe einen spürbaren Rückgang der Desktop-Impressionen, was zu einem starken Anstieg der durchschnittlichen Position führt“ [1].

Die führende Theorie innerhalb der Community besagt, dass dieser Rückgang offenbart, wie viele Impressionen zuvor von Bots von SEO- und KI-Analyse-Tools generiert wurden. Für eine Impression in der GSC reicht es aus, dass ein Link zu einer Website auf der aktuellen Seite des Nutzers erscheint; er muss nicht in den sichtbaren Bereich gescrollt werden, um registriert zu werden [1]. Wenn ein Rank-Tracking-Bot eine Seite mit 100 Ergebnissen unter Verwendung des Parameters lud, registrierte eine Website, die auf Position #99 rangierte, eine Impression. Mit dem Wegfall des &num=100-Parameters können diese Bots keine Impressionen mehr für die Positionen 11-100 bei einem einzigen Seitenaufruf generieren, was zu einem dramatischen Rückgang der gesamten Impressionen führt [1].

Diese Entdeckung hat Zweifel an einem jüngsten Phänomen aufkommen lassen, das als „Die Große Entkopplung“ bekannt ist – der weithin diskutierte Trend, dass die GSC-Impressionen im letzten Jahr ohne einen entsprechenden Anstieg der Klicks gestiegen sind. Während viele, einschließlich Google, die Vorstellung zurückwiesen, dass dieses Muster durch die Einführung von KI-Übersichten verursacht wurde, deutet diese neue Evidenz darauf hin, dass die Daten durch Bot-Impressionen erheblich „verunreinigt“ gewesen sein könnten [1]. Eine Analyse von Tyler Gargula, Director of Technical SEO bei LOCOMOTIVE Agency, zeigte, dass 87,7 % der Websites Impressionen in der Google Search Console verloren haben und 77,6 % der Websites einzigartige Ranking-Begriffe verloren haben [3]. Dies deutet darauf hin, dass die GSC-Daten nun möglicherweise genauer sind und die tatsächliche menschliche Interaktion besser widerspiegeln, da die Verzerrung durch Bot-Traffic eliminiert wurde [2, 3].

Googles Motivationen: Warum diese Änderung?

Google hat sich zu den Gründen für diese Änderung bisher nicht offiziell geäußert, was der Spekulation in der SEO-Community Tür und Tor geöffnet hat. Es gibt jedoch mehrere vorherrschende Theorien, die versuchen, Googles Motivation zu erklären [1]:

  • Eindämmung des Scrapings:
    Eine der plausibelsten Erklärungen ist, dass Google beabsichtigt, die automatisierte Datenextraktion aus den SERPs für Dritte schwieriger und kostspieliger zu machen [1, 2]. Durch die Erhöhung der Anzahl der benötigten Anfragen für dieselbe Datenmenge wird das Scraping weniger effizient und teurer, was eine natürliche Barriere für große Scraping-Operationen darstellt.
  • Schutz der Infrastruktur:
    Große Mengen an Datenanfragen, insbesondere von Tools, die 100 Ergebnisse pro Seite abrufen, belasten Googles Server erheblich. Die Entfernung des &num=100-Parameters könnte eine Maßnahme sein, um die Belastung der Google-Server durch diese „Heavy-Hitting-Requests“ zu reduzieren und die Infrastruktur zu schützen [1].
  • Verschärfung der Datenkontrolle:
    Google könnte SEO-Professionals stärker auf die Nutzung seiner eigenen Datenkanäle, wie die Google Search Console (GSC) und offizielle APIs, drängen wollen, anstatt sich auf externe Tools zu verlassen [1]. Wie Veronika Höller es ausdrückte, ist die Botschaft von Google klar: „Das sind unsere Daten. Greifen Sie zu unseren Bedingungen darauf zu“ [1]. Dies würde Google eine größere Kontrolle über die Verbreitung und Interpretation seiner Suchdaten ermöglichen.
  • Bekämpfung der KI-Konkurrenz:
    Eine weitere Spekulation ist, dass diese Maßnahme eine defensive Reaktion auf konkurrierende Large Language Models (LLMs) wie ChatGPT ist, die Googles Index scrapen, um ihre eigenen Ergebnisse zu untermauern [1]. Analyst Ryan Jones deutet an, dass „die Leute so viel, so aggressiv für KI scrapen, dass Google zurückschlägt und dabei alle SEO-Rank-Checker und SERP-Scraper kaputtmacht“ [1]. Ray Grieselhuber argumentiert, dass „der Index der Preis ist“ und Google wahrscheinlich versucht, sein wertvollstes Datenasset zu schützen [1]. Diese Theorie gewinnt an Gewicht, da die Entwicklung von KI-Modellen, die auf Webdaten trainiert werden, rasant voranschreitet und Google ein Interesse daran haben könnte, den Zugang zu seinen proprietären Suchergebnissen zu regulieren.

Was SEO-Professionals jetzt tun sollten (und was als Nächstes kommt)

Die SEO-Branche ist bekannt für ihre Anpassungsfähigkeit, und auch diese jüngste Änderung wird die Entwicklung neuer Strategien und Tools vorantreiben. Während sich die Drittanbieter-Tools an die neue Realität anpassen und an Lösungen arbeiten, um wieder tiefere Ergebnissätze zu erfassen, gibt es konkrete Schritte, die SEO-Professionals unternehmen können und sollten:

Anpassung der Datenerfassung und -analyse:

  • GSC-Daten annotieren:
    Es ist entscheidend, die Daten der Google Search Console ab dem 10. September 2025 zu annotieren [XOVI Statusmeldung]. Dies hilft, den Einfluss der Parameterentfernung auf die eigenen Impressionen und Positionen zu verstehen und zukünftige Analysen nicht zu verfälschen.
  • Erwartungen an Impressionen anpassen:
    Erwarten Sie, dass die Impressionen in der GSC in Zukunft niedriger ausfallen werden. Dies ist auf die Änderungen in der Berichterstattung von Google zurückzuführen und nicht auf einen tatsächlichen Verlust der Sichtbarkeit [XOVI Statusmeldung]. Die Daten sind nun möglicherweise genauer und spiegeln die tatsächliche menschliche Interaktion wider, frei von Bot-induzierten Verzerrungen.
  • Fokus auf relevante KPIs:
    Konzentrieren Sie sich auf Klicks, Konversionen und Top-Rankings als die zuverlässigsten Key Performance Indicators (KPIs) [XOVI Statusmeldung]. Ihre Rankings und Ihr Traffic sind nicht verschwunden; nur die Art und Weise, wie Google sie berichtet, hat sich geändert.
  • Anpassung der Tracking-Tiefe:
    Viele Tools, wie AccuRanker, haben ihre Standard-Tracking-Tiefe bereits auf die Top 20 Ergebnisse angepasst [1]. SEO-Professionals sollten ihre eigenen Tracking-Strategien entsprechend anpassen und verstehen, dass tiefere Rankings möglicherweise nicht mehr so einfach oder kostengünstig zu verfolgen sind.

Strategische Neuausrichtung:

  • Kontinuierliche Überwachung:
    Beobachten Sie genau, wie sich die Situation entwickelt und wie Tool-Anbieter ihre Lösungen anpassen. Agenturen und SEO-Teams sollten ihre Ansätze bei Bedarf anpassen und weiterhin aussagekräftige Berichte liefern [1].
  • Qualität vor Quantität:
    Die verstärkte Konzentration auf die ersten Seiten der Suchergebnisse könnte dazu führen, dass die Optimierung für die Top 10 oder Top 20 Ergebnisse noch wichtiger wird. Investieren Sie in hochwertige Inhalte und technische SEO, um in diesen entscheidenden Bereichen sichtbar zu sein.
  • Nutzung offizieller Google-Daten:
    Da Google den Zugang zu seinen Daten stärker kontrolliert, wird die effektive Nutzung der Google Search Console und anderer offizieller Google-APIs noch wichtiger. Dies könnte auch eine verstärkte Integration dieser Daten in interne Reporting-Systeme bedeuten.

Die SEO-Branche ist widerstandsfähig und hat sich in der Vergangenheit immer wieder an Googles Änderungen angepasst. Obwohl die Entfernung des &num=100-Parameters kurzfristig erhebliche Auswirkungen auf das Keyword-Tracking hat, ist es wahrscheinlich, dass langfristig Lösungen gefunden werden. Die Kernberichte und Ranking-Einblicke werden dort, wo es am wichtigsten ist, konsistent bleiben, auch wenn dies zusätzliche Arbeit für die Tool-Anbieter erfordert [XOVI Statusmeldung].

Fazit

Die Entfernung des &num=100-Parameters durch Google markiert einen Wendepunkt in der SEO-Branche. Was als scheinbar kleine technische Anpassung begann, hat sich zu einer tiefgreifenden Veränderung entwickelt, die die Art und Weise, wie SEO-Tools funktionieren, wie GSC-Daten interpretiert werden und wie SEO-Professionals ihre Strategien ausrichten, nachhaltig beeinflusst. Die unmittelbaren Auswirkungen waren eine Störung der Rank-Tracking-Tools und ein Anstieg der Betriebskosten für Anbieter. Gleichzeitig hat die Änderung eine „Große Entkopplung“ in der Google Search Console aufgedeckt, die darauf hindeutet, dass ein erheblicher Teil der zuvor gemeldeten Impressionen auf Bot-Aktivitäten zurückzuführen war. Die GSC-Daten sind nun wahrscheinlich genauer und spiegeln die tatsächliche menschliche Sichtbarkeit wider.

Googles Motivationen sind zwar nicht offiziell bestätigt, doch die Theorien reichen von der Eindämmung des Scrapings und dem Schutz der Infrastruktur bis hin zur Verschärfung der Datenkontrolle und der Abwehr von KI-Konkurrenz. Unabhängig von den genauen Gründen ist die Botschaft klar: Google behält die Kontrolle über seine Daten und den Zugang dazu. Für SEO-Professionals bedeutet dies eine Notwendigkeit zur Anpassung. Der Fokus sollte auf der Annotation von GSC-Daten, der Neuausrichtung auf Klicks und Konversionen als primäre KPIs und der kontinuierlichen Überwachung der Branchenentwicklung liegen. Die SEO-Landschaft ist im ständigen Wandel, und diese jüngste Änderung ist eine weitere Erinnerung daran, dass Flexibilität, datengesteuerte Entscheidungen und ein tiefes Verständnis der Suchmaschinenmechanismen unerlässlich sind, um langfristig erfolgreich zu sein. zu sein.

Referenzen

[1] Reflect Digital. (2025, September). Google Removes The ‘&num=100’ Parameter. https://www.reflectdigital.co.uk/blog/google-removed-the-and-num-100
[2] Schwartz, B. (2025, September 18). Google Search confirms it does not support the results per page parameter. Search Engine Land. https://searchengineland.com/google-search-confirms-it-does-not-support-the-results-per-page-parameter-462244 [3] Goodwin, D. (2025, September 18). 77% of sites lost keyword visibility after Google removed num=100: Data. Search Engine Land. https://searchengineland.com/google-num100-impact-data-462231
[XOVI Statusmeldung:] https://status.xovi.net/incidents/234w38g3nvng

Bild von Benjamin
Benjamin
Benjamin Mylius ist nicht nur ein SEO-Experte und Programmierer; er ist der Architekt, der Ihre KMU-Webseite in eine digitale Erfolgsgeschichte verwandelt. Mit fast 13 Jahren Erfahrung und über 1200 betreuten Kunden weiß er genau, wie man komplexe digitale Herausforderungen in klare, messbare Ergebnisse umwandelt. Von der Steigerung Ihrer Sichtbarkeit bis zur Absicherung Ihrer Systeme – Benjamin Mylius navigiert Ihr Unternehmen sicher durch die digitale Galaxis. Er spricht Ihre Sprache, nicht Fachchinesisch, und liefert Lösungen, die wirklich zählen.