Einzigartige Funktionen und eine Logdatenspeicherung von bis zu 5 Jahren ermöglichen unerkannte Optimierungspotenziale. 100% DSGVO konform.
(1/2) @g33konaut @methode @JohnMu The past few weeks I've been my own crawler & indexer, collecting data from all sorts of specific resources over the internet & podcasts to put together a big picture of the Google indexing process. It's of course incomplete & greatly simplified! pic.twitter.com/5NmJI26pNW
— Jan-Peter Ruhso (@JanRuhso) October 29, 2021
In dieser Übersicht siehst Du, wie sich Dein Crawl-Budget (oder auch Crawl-Volumen genannt) auf Monatsbasis geändert hat. Wir betrachten bewusst immer einen Monat, um eine Vergleichbarkeit zu ermöglichen und um so Trends auf einen Blick zu erkennen. Extreme Steigerungen oder Abfälle sind meist Indikatoren für Crawling-Probleme oder Google-Updates. Durch die Logdatenspeicherung von bis zu 5 Jahren können so wunderbar Trends, Langzeitentwicklungen & Optimierungserfolge festgestellt werden.
Wir definieren „Crawl-Budget“ bewusst etwas anders, als Google diesen Begriff offiziell definiert: Bei uns steht der Begriff Crawl-Budget für die Gesamtanzahl der Googlebot-Requests binnen einem Monat.
Weiteres findest Du in den Statistiken aktuelle Crawl-Trends, im Vergleich zum Vortag, Vorwoche und Vormonat. Hier werden alle Hard-Facts zusammengefasst und verglichen:
• Gesamtanzahl Googlebot Requests
• Anzahl gecrawlte Unique-URLs
• Anzahl gecrawlte Business-relevante URLs
• Anzahl gecrawlte Errors (Status Codes 4xx und 5xx)
• Durchschnittliche Download-Ladezeit einer URL
• Durchschnittliche Größe einer URL in Kilobyte
Abschließend siehst Du hier noch, ob Deine „Robots.txt“ und Deine „XML-Sitemap(s)“ gecrawlt wurden.
Bei Crawled Status Codes siehst Du auf Tagesebene die Anzahl der gecrawlten, unterschiedlichen Status Codes, um Crawling-Fehler sofort zu erkennen. Du hast zusätzlich folgende Filtermöglichkeiten:
Wenn Du nun im Graphen mit Deinem Cursor auf einen bestimmten Balken klickst (z.B. Status Code 200), wirst Du automatisch in unseren Logfile Explorer (RAW DATA) weitergeleitet. Dort findest Du dann alle Requests vorgefiltert (Status Code, Googlebot Group & Datum). Siehe Screenshot unterhalb.
Unter Business-relevanten Seiten definieren wir alle Seiten einer Webseite, die aus unternehmerischer Sicht wichtig sind und einen wirtschaftlichen Zweck erfüllen sollen (z.B. Newsartikel, Kategorieseiten, Markenseiten, Produktdetailseiten uvm). Um diesen wirtschaftlichen Zweck zu erfüllen, müssen diese Seiten in den Google-Suchergebnissen organischen Suchmaschinen-Traffic generieren und zuguterletzt Suchintensionen der Suchenden bestmöglich befriedigen. Aus diesen genannten Gründen sollten grundsätzlich nur Business-relevante Seiten von Bots gecrawlt werden, denn alle anderen Crawls auf nicht Business-relevante Seiten wären reine Verschwendung der ohnehin limitierten und daher kostbaren Googlebot Requests.
Info: Die Definition der Business-relevanten Seiten ist eine einmalige Sache und sollte zum Start erledigt werden.
Wenn Deine Webseite über eine oder mehrere XML-Sitemap(s) verfügt, kannst Du sie in den SETTINGS im crawlOPTIMIZER hinterlegen und alle URL-Einträge aus den Sitemaps sind dann im System automatisch als „Business-relevant“ markiert.
Weiteres kannst Du in den SETTINGs im crawlOPTIMIZER in einem Freitextfeld manuell „URLs“ und/oder „Parameter“ als Business-relevant hinzufügen (z.B. URLs zu Ressourcen, die der Googlebot für das Rendering benötigt oder alte URLs die über Backlinks verfügen. Ein weiteres Beispiel sind Produktdetailseiten mit speziellen Tracking-Parametern, die für Google-Shopping ausgelegt sind – auch diese URLs sind Business-relevant, da sie vom normalen Googlebot gecrawlt werden). In den SETTINGS kannst Du auch mittels REGEX-Anweisungen weitere URLs als Business-relevant flaggen.
Tipp: Manchmal kann es gewollt sein, dass NOINDEX-Seiten gecrawlt werden zwecks Vererbung des Linkjuices zum Beispiel. Achte daher bitte gezielt auf solche eher seltenen Ausnahmen.
Tipp: Pflege & überprüfe Deine XML-Sitemap(s) regelmäßig! In den XML-Sitemaps sollen nur Seiten aufgelistet werden, die relevant für Suchmaschinen (und somit Business-relevant) sind.
Tipp: Blockiere niemals URLs vom Crawling, die für Google Shopping ausgelegt sind, da ansonsten die Google Shopping Anzeigen von Google abgelehnt werden.
Unter Crawl-Frequenz versteht man die zeitliche Dauer in Tagen zwischen zwei Crawls einer URL. In dieser Grafik wird auf Tagesbasis die Crawl-Frequenz angezeigt. Du kannst eine Farbe im Balken klicken und bekommst dann automatisch alle URLs dieses Clusters im Logfile Exlorer vorgefiltert angezeigt.
Beispiel:
Die URL „xyz“ wurde am 25.05.2018 gecrawlt und das nächste Mal am 29.06.2018 – daraus ergibt sich eine Crawl-Frequenz von 35 Tagen. Diese URL wäre im orangefarbigen Abschnitt „30 days“ zu finden. Siehe Screenshot oberhalb.
In unserem Graphen siehst Du eine sinnvoll geclusterte Crawl-Frequenz von URLs auf Tagesebene.
Tipp: Du gewinnst, wenn Du es schafft Deine Business-relevanten Seiten häufiger gecrawlt zu bekommen als Deine Konkurrenz. In jedem Fall solltest Du Werte unter 15 Tagen anpeilen und merke Dir eines: Je höher die Crawl-Frequenz, umso besser!
Unsere Frequenz-Clusterung
Mehr als 60 Tage
60 Tage
30 Tage
15 Tage
7 Tage
6 Tage
5 Tage
4 Tage
3 Tage
2 Tage
1 Tag
Ganz neu gecrawlt
Wenn Deine Webseite über XML-Sitemap(s) verfügt, hast Du diese bestimmt schon in den SETTINGS hinterlegt (siehe oberhalb Punkt 3).
Gegebenenfalls hast Du auch noch weitere Busines-relevante Seiten manuell hinterlegt.
Wenn ja, perfekt! Denn all diese URLs werden von uns einmal in der Woche gecrawlt – yep, Du hast richtig gehört. Sie werden von uns regelmäßig kontrolliert.
Tipp: Verschwende nicht Deine kostbaren Google-Requests mit fehlerhaften URLs.
Wir haben dafür extra unseren eigenen Crawler gebaut, der einmal pro Woche nachts Deine XML-Sitemap(s) crawlt. Unser Crawler überprüft alle URL-Einträge, die in den Sitemaps vorkommen und die von Dir manuell hinterlegten URLs. Wir prüfen immer folgende Werte:
Wenn ja, überprüft bitte diese Seiten, korrigiert oder entfernt sie aus den Sitemaps, denn solche fehlerhaften URLs verbrauchen unnötig Dein kostbares Crawl Budget.
Du kannst Dir jederzeit alle fehlerhaften URLs ansehen, indem du einfach auf einen der Buttons „Show URLs“ klickst.
In dieser Übersicht siehst Du auf einem Blick die Top-50 gecrawlten URLs in einem definierten Zeitraum. Der zuletzt gecrawlte Status Code wird ergänzend auch angezeigt.
Mit einem Klick auf eine URL gelangst Du in den Logfile Explorer (RAW DATA), wo Dir alle einzelnen Requests dieser URL aufgelistet werden.
Im Gegensatz zur vorherigen Übersicht werden hier nicht die meist gecrawlten URLs angezeigt, sondern die meist gecrawlten Ressourcen (js/css/etc.). Auch hier wieder mit dem letzten, aktuellen Status Code.
Mit einem Klick auf eine URL gelangst Du auch hier wieder in den Logfile Explorer (RAW DATA), wo Dir alle einzelnen Requests dieser URL (Ressource) aufgelistet werden.
Welche Verzeichnisse werden am häufigsten gecrawlt? Eine oft gestellte, jedoch meist unbeantwortete Frage.
Unsere übersichtliche Grafik beantwortet Dir diese Frage auf einen Blick, um möglichst einfach OnPage-Optimierungsmaßnahmen ableiten zu können.
Du kannst Dir jederzeit alle Requests auf ein bestimmtes Verzeichnis im Logfile Explorer anzeigen lassen, indem Du im Graphen auf einen der Balken klickst.
Mittels einer einfachen REGEX-Abfrage (in den SETTINGS) kannst Du eigene URL-Gruppen definieren und so regelmäßig monitoren, wie häufig diese Gruppen gecrawlt werden. Wenn für Dich wichtige URL-Gruppen zu selten gecrawlt werden, solltest du Deine Webseitenarchitektur aus SEO-Sicht analysieren, dann schrittweise optimieren und den Fortschritt laufend im crawlOPTIMIZER messen.
Du betreust einen Online-Shop? Dann ist diese Funktion für Dich perfekt geeignet. Mittels einmaliger, einfacher Hinterlegung eines Identifiers in den SETTINGS kannst Du Deine Produkte definieren und hast so jederzeit im Blick, welche Produkte vom Googlebot am häufigsten gecrawlt werden. Diese Information hilft Dir bei Deinen weiteren Analysen und Onsite-Optimierungen.
Wenn du im Graphen auf eine Produkt-URL klickst, wird Dir das Produkt auf Deiner Webseite angezeigt
Tipp: Solltest Du keinen Online-Shop betreiben, kannst Du in den SETTINGS auch einen anderen x-beliebigen Identifier hinterlegen und so monitoren.
In diesen beiden Grafiken werden alle gecrawlten Parameter dargestellt, die in einem definierten Zeitraum gecrawlt wurden. Die zweite (untere) Grafik zeigt die Anzahl der gefundenen Parameter pro gecrawlter URL an. Dies hilft Muster zu erkennen.
Welche dieser Parameter beeinflussen maßgeblich den Inhalt Deiner Webseite und welche können vom Crawling ausgeschlossen werden? Analysiere die gefundenen Parameter mit größter Sorgfalt im Detail und steuere den Bot mit einer sauberen Webseitenarchitektur und/oder mit Vorsicht mit Deiner Robots.txt.
Tipp: Wenn Du aktiv Google-Shopping betreibst und Deine URLs im Shopping-Feed diverse (Tracking-)Parameter enthalten, darfst Du diese dort enthaltenen Parameter niemals mittels Deiner Robots.txt vom Crawling blockieren! Eine Blockierung hätte nämlich zur Folge, dass Deine Google-Shopping Anzeigen abgelehnt werden würden. Hinweis: Der normale (Search-)Googlebot crawlt den Shopping-Feed.
In diesen beiden Graphen siehst Du, wie häufig Deine Seiten unter HTTPS bzw. HTTP gecrawlt wurden. Hilfreich ist diese Information, wenn HTTPS-Umstellungen bevorstehen, HTTPS-Umstellungen nicht korrekt umgesetzt wurden bzw. einfach zur nachträglichen Kontrolle. Weiteres siehst Du, welcher Redirect-Typ verwendet wird. Du kannst Dir jederzeit alle gefilterten Requests im Logfile Explorer anzeigen lassen, indem Du auf einen der Balken im Graphen klickst.
Es gibt viele verschiedene Googlebots. Hier siehst Du alle Googlebots, die Deine Webseite gecrawlt haben und mit welcher Häufigkeit. Wir haben für Dich die unterschiedlichen Googlebots sinnvoll geclustert, konkret in Googlebot Desktop, Googlebot Smartphone und Googlebot others.
In dieser Übersicht werden Dir die einzelnen, gecrawlten Content-Typen nach Häufigkeit angezeigt.
Wir setzen auf unserer Webseite Cookies ein. Einige von ihnen sind notwendig, während andere uns helfen unser Online-Angebot zu verbessern und wirtschaftlich zu betreiben. Nähere Hinweise erhältst Du in unserer Datenschutzerklärung.
Hier findest Du eine Übersicht über alle verwendeten Cookies. Du kannst Deine Einwilligung zu ganzen Kategorien geben oder sich weitere Informationen anzeigen lassen und so nur bestimmte Cookies auswählen.
Essenzielle Cookies ermöglichen grundlegende Funktionen und sind für die einwandfreie Funktion der Website erforderlich.
Cookie-Informationen anzeigen Cookie-Informationen ausblenden
Name | |
---|---|
Anbieter | Eigentümer dieser Website |
Zweck | Speichert die Einstellungen der Besucher, die in der Cookie Box von Borlabs Cookie ausgewählt wurden. |
Cookie Name | borlabs-cookie |
Cookie Laufzeit | 1 Jahr |
Name | |
---|---|
Anbieter | crawloptimizer |
Zweck | Technisch notwendige Cookies, um die Webseite zu betreiben. |
Datenschutzerklärung | https://www.crawloptimizer.com/datenschutz/ |
Host(s) | www.crawloptimizer.com |
Cookie Name | _pk_ses..a946,abpct_hyro_acc_collect,apbct_visible_fields,apbct_visible_fields_count,ct_checkjs,ct_fkp_timestamp,ct_pointer_data,ct_ps_timestamp,ct_timezone,gaVisitorUuid,isiframeenabled,apbct_cookies_test,apbct_page_hits,apbct_site_landing_ts,apbct_times |
Cookie Laufzeit | 6 Monate |
Name | |
---|---|
Anbieter | crawloptimizer |
Zweck | Technisch notwendige Cookies, für den laufenden Webseitenbetrieb. |
Datenschutzerklärung | https://www.crawloptimizer.com/datenschutz/ |
Host(s) | .crawloptimizer.com |
Cookie Name | ecomvikings-_zldt,ecomvikings-_siqid,ecomvikings-_zldp |
Cookie Laufzeit | 2 Jahre |
Marketing-Cookies werden von Drittanbietern oder Publishern verwendet, um personalisierte Werbung anzuzeigen. Sie tun dies, indem sie Besucher über Websites hinweg verfolgen.
Cookie-Informationen anzeigen Cookie-Informationen ausblenden
Akzeptieren | |
---|---|
Name | |
Anbieter | Google LLC |
Zweck | Cookie von Google für Website-Analysen. Erzeugt statistische Daten darüber, wie der Besucher die Website nutzt. |
Datenschutzerklärung | https://policies.google.com/privacy |
Cookie Name | _ga,_gat,_gid |
Cookie Laufzeit | 2 Jahre |
Akzeptieren | |
---|---|
Name | |
Anbieter | Zoho |
Zweck | Zoho CRM Tracking Code zur Analyse des Nutzungsverhaltens. |
Datenschutzerklärung | https://www.zoho.com/de/sites/gdpr.html |
Akzeptieren | |
---|---|
Name | |
Anbieter | Facebook Ireland Limited |
Zweck | Cookie von Facebook, das für Website-Analysen, Ad-Targeting und Anzeigenmessung verwendet wird. |
Datenschutzerklärung | https://www.facebook.com/policies/cookies |
Cookie Name | _fbp,act,c_user,datr,fr,m_pixel_ration,pl,presence,sb,spin,wd,xs |
Cookie Laufzeit | Sitzung / 1 Jahr |
Akzeptieren | |
---|---|
Name | |
Anbieter | |
Zweck | Das LinkedIn Insight-Tag ermöglicht Kampagnen zu optimieren und Webseitenbesucher erneut anzusprechen. |
Datenschutzerklärung | https://de.linkedin.com/legal/cookie-policy |
Akzeptieren | |
---|---|
Name | |
Anbieter | |
Zweck | Cookie von Twitter, das für Website-Analysen, Ad-Targeting und Anzeigenmessung verwendet wird. |
Inhalte von Videoplattformen und Social-Media-Plattformen werden standardmäßig blockiert. Wenn Cookies von externen Medien akzeptiert werden, bedarf der Zugriff auf diese Inhalte keiner manuellen Einwilligung mehr.
Cookie-Informationen anzeigen Cookie-Informationen ausblenden
Akzeptieren | |
---|---|
Name | |
Anbieter | |
Zweck | Wird verwendet, um Facebook-Inhalte zu entsperren. |
Datenschutzerklärung | https://www.facebook.com/privacy/explanation |
Host(s) | .facebook.com |
Akzeptieren | |
---|---|
Name | |
Anbieter | |
Zweck | Wird zum Entsperren von Google Maps-Inhalten verwendet. |
Datenschutzerklärung | https://policies.google.com/privacy |
Host(s) | .google.com |
Cookie Name | NID |
Cookie Laufzeit | 6 Monate |
Akzeptieren | |
---|---|
Name | |
Anbieter | |
Zweck | Wird verwendet, um Instagram-Inhalte zu entsperren. |
Datenschutzerklärung | https://www.instagram.com/legal/privacy/ |
Host(s) | .instagram.com |
Cookie Name | pigeon_state |
Cookie Laufzeit | Sitzung |
Akzeptieren | |
---|---|
Name | |
Anbieter | OpenStreetMap Foundation |
Zweck | Wird verwendet, um OpenStreetMap-Inhalte zu entsperren. |
Datenschutzerklärung | https://wiki.osmfoundation.org/wiki/Privacy_Policy |
Host(s) | .openstreetmap.org |
Cookie Name | _osm_location, _osm_session, _osm_totp_token, _osm_welcome, _pk_id., _pk_ref., _pk_ses., qos_token |
Cookie Laufzeit | 1-10 Jahre |
Akzeptieren | |
---|---|
Name | |
Anbieter | |
Zweck | Wird verwendet, um Twitter-Inhalte zu entsperren. |
Datenschutzerklärung | https://twitter.com/privacy |
Host(s) | .twimg.com, .twitter.com |
Cookie Name | __widgetsettings, local_storage_support_test |
Cookie Laufzeit | Unbegrenzt |
Akzeptieren | |
---|---|
Name | |
Anbieter | Vimeo |
Zweck | Wird verwendet, um Vimeo-Inhalte zu entsperren. |
Datenschutzerklärung | https://vimeo.com/privacy |
Host(s) | player.vimeo.com |
Cookie Name | vuid |
Cookie Laufzeit | 2 Jahre |
Akzeptieren | |
---|---|
Name | |
Anbieter | YouTube |
Zweck | Wird verwendet, um YouTube-Inhalte zu entsperren. |
Datenschutzerklärung | https://policies.google.com/privacy |
Host(s) | google.com |
Cookie Name | NID |
Cookie Laufzeit | 6 Monate |