Fachlich kompetent
Äußerst flexibel
Absolut zuverlässig
SEO und SEA

11 Anwender-Tipps zum Screaming Frog aus der SEO-Praxis

2019-03-25
Seokratie
Seokratie GmbH
Main address: Blutenburgstr. 18 D-80636 München, Deutschland ,
Tel:089 - 219098411 , E-mail: mail[@]seokratie.de
von Luisa Dziki17. Aug 2017 16 Kommentare

Der Screaming Frog SEO Spider ist aus unserem täglichen Arbeiten nicht mehr wegzudenken. Er ist ein mächtiges Tool – nicht nur für Vollblut-SEOs, sondern für alle Online Marketer. Heute zeige ich Dir 11 schnelle Tipps aus der Praxis, wie Du mit dem Screaming Frog Deine Webseite verbessern kannst.

Screaming Frog SEO Tipps
Direkt zu den Tipps:

#1 – Export aller Deiner URLs

#2 – Broken Links: Einzelreports

#3 – Export aller Links > Broken Links gesammelt

#4 – Redirect Chains (Weiterleitungsketten)

#5 – Liste der alten URLs bei Relaunch prüfen

#6 – Canonicals

#7 – Dan`s Tipp: XML Sitemap erstellen oder crawlen

#8 – Javascript crawlen

#9 – Snippets Vorschau & Präferenzen

#10 – Advanced: Custom extraction

#11 – Crawl von passwortgeschützten Bereichen

Was macht der Screaming Frog überhaupt?

Der SEO Spider von Screaming Frog ist ein Tool mit dem Du Webseiten crawlen kannst. Der Screaming Frog schickt dazu seinen Bot los und durchläuft Deine Seite. Dabei folgt er allen Links, ruft jede URL auf und sammelt sämtliche Informationen über diese. So bekommst Du nach Deinem Crawl zum Beispiel Informationen über die RobotsMeta Angaben, die Statuscodes, die Snippets, die Dateigrößen, Canonical-Links, hreflang und noch vieles mehr. Bis zu 500 URLs sind in der kostenlosen Version crawlbar. Wenn Du mehr crawlen willst, benötigst Du eine Lizenz, diese kostet 149 £ pro Jahr.

Je größer Deine Seite ist, desto wichtiger ist es das Crawling zu steuern. Warum das wichtig ist und wie Du es machst, hat Felix in seinem Blogpost zur Crawlingsteuerung erklärt.

Vorsicht! Bevor Du Deinen Crawl startest, empfehle ich Dir den Speed unter „Configuration“ > „Speed“ zu begrenzen. Ansonsten kann es passieren, dass Du mit dem Crawl Deinen Server überlastest. Solltest Du direkt Kontakt zur IT haben, kannst Du mit ihnen abklären, wie hoch Du den Speed setzen kannst. Wenn Du keine Informationen bekommen kannst, rate ich Dir zur Vorsicht: Ich bgrenze die Anzahl der URLs, die pro Sekunde abgerufen werden, dann zum Beispiel auf 2,0: screaming frog speed begrenzen

Vor dem Crawl solltest Du Dir außerdem genau überlegen, was Du alles crawlen willst – musst Du zum Beispiel wirklich Bilder crawlen? Wenn nein, deaktiviere den Bilder-Crawl unter „Configuration“ vorher. Du kannst zum Beispiel auch bestimmte Ordner in Deinen Crawl ein- oder ausschließen. Wie Du Deinen Crawl konfigurierst und was Du alles konfigurieren kannst, soll allerdings nicht Teil dieses Blogposts werden. Allerdings kannst Du das bei Screaming Frog selbst sehr ausführlich nachlesen: User Guide Configuration. Mein Blogpost zeigt Dir stattdessen 11 Tipps direkt aus unserem SEO-Alltag, die Du direkt nachmachen kannst. Die meisten Funktionen bietet Dir auch RYTE, jedoch finde ich diese speziellen 11 Anwendungsfälle im Screaming Frog SEO Spider komfortabler gelöst. RYTE hat dafür andere Stärken, so dass wir in der Regel beide Tools paralell nutzen.

#1 Export einer Liste aller Deiner URLs

Mein erster Tipp klingt recht banal, ist aber meiner Meinung nach eine der wichtigsten Funktionen vom Screaming Frog. Du kannst alle Deine URLs exportieren:

Export URLs Screaming Frog

Anschließend kannst Du nach URLs sortieren und einmal über die Liste scrollen. Hier bekommst du a) bereits ein Gefühl für die Anzahl Deiner URLs und b) fallen Dir hier bereits „komische“ URLs auf, wenn sie in größerer Menge vorkommen. Das können zum Beispiel eine große Anzahl an URLs sein, die vom System generiert werden, die aber eigentlich erst gar nicht entstehen sollen, wie zum Beispiel im folgenden Fall, als über den Cookie-Hinweis mehrere Tausend (!) URLs generiert wurden:


#2 Broken Links / Links auf Weiterleitungen

Über den Screaming Frog kannst Du auch mit einem Mausklick Deine internen Links auf 404-Seiten oder Links auf Weiterleitungen exportieren. Du findest diese Möglichkeit unter „Bulk Export“ > „Response Codes“. Hier kannst Du Dir die Broken Links sortiert nach ihrem Statuscode einfach in Excel exportieren:

export inlinks 4xxx, 3xx

Du erhältst anschließend eine Liste mit allen Inlinks, die einen 3xx Statuscode zurückgeben. Ich empfehle Dir anschließend noch nach seitenweiten und einzelnen Links zu trennen, indem Du nach Linktext und Linkziel sortierst – alle die hier übereinstimmen und mehr als 10x vorkommen sind in der Regel seitenweite Links und können gemeinsam korrigiert werden. Alle Fehler in Einzellinks kannst Du über die Linkquelle und den Linktext schnell identifizieren und korrigieren.

Der Nachteil dabei ist, dass Du für jede Art von Broken Links einen eigenen Export machen musst, der Vorteil, dass die einzelnen Reports übersichtlich und klein sind. Es gibt aber noch eine weitere Möglichkeit, Broken Links zu identifizieren:

#3 Export aller internen Links > alle Broken Links in einer Datei

Diese Methode startest Du einfach über „Bulk Export“ > „All Inlinks“. Damit exportierst Du alle eingehenden Links Deiner Seite. Anschließend kannst Du alle 200er herausfiltern und löschen. Übrig bleiben dann alle Seiten, die einen anderen Statuscode als „200“ haben:

export all inlinks screaming frog

Das heißt Du musst jetzt mit einer größeren Datenmenge als bei Tipp 2 arbeiten und etwas mehr in Excel anpassen, dafür hast Du anschließend alle Broken Inlinks in einer Datei, was ich persönlich komfortabler finde. Letztendlich ist es Geschmacksache, welche Methode Du wählst.

Mit dem All-Inlinks-Report sind natürlich noch ganz andere Dinge möglich. So kannst Du zum Beispiel auch die Linktexte zu Deinen Seiten vergleichen oder eine Gephi-Analyse starten.

#4 Redirect Chains (Weiterleitungsketten)

Einer meiner Favoriten ist der Report „Redirect Chains“ – und übrigens auch derjenige von Dan Sharp, einem der Gründer von Screaming Frog, wie er mir vor Kurzem verraten hat:

Export redirect chains mit dem screaming frog

Wichtig: Damit dieser Report aussagekräftig ist, musst Du vor Deinem Crawl über „Configuration“ > „Advanced“ > „Always follow Redirects“ aktivieren, ansonsten folgt der Bot immer nur der ersten Weiterleitung:follow redirect chains

Du erhältst nach dem Export eine Excel-Datei, die Dir die ursprüngliche Quelle und eine Liste aller Weiterleitungen sowie deren Anzahl ausgibt. Außerdem zeigt Dir die Excel-Tabelle ob Loops vorliegen:

excel redirect chains

Um sofort damit arbeiten zu können, füge ich eine neue zweite Spalte ein mit SOLL-Weiterleitungsziel. Hierhin kopiere ich mir immer die letzte Redirect URL – das ist ein wenig Filter- und Kopierarbeit. Wenn Du aber immer nach der „Number of Redirects“ filterst und Dir dann die letzte Redirect URL nach vorne kopierst, hält es sich in Grenzen. Aber hey, @Dan, if you read this: Would be a great feature for the future! 😉

Soll Linkziel redirect chains

Wichtig: Wenn die Weiterleitungskette auf einen 4xx endet, solltest Du ein anderes SOLL-Weiterleitungsziel wählen oder alternativ den Link löschen.

#5 Liste der alten URLs bei Relaunch prüfen

Bei einem Relaunch ist der Listen-Mode bei Screaming Frog ein besonderes Feature. Hier kannst Du eine Liste der alten URLs aus einem vorherigen Crawl einfügen und diese crawlen lassen. Dazu gehst Du oben im Menü auf „Mode“ > „List“. Und anschließend auf „Upload“. Besonders komfortabel beim Sreaming Frog ist, dass Du jetzt eine Datei hochladen kannst, aber auch einfach per copy&paste Deine Liste einfügen kannst oder auch einfach eine XML-Sitemap crawlen kannst.

Listen Modus Screaming Frog

Mit dem Listen-Crawl kannst Du sofort feststellen, ob alle URLs nach einem Relaunch korrekt weitergeleitet wurden. Wichtig: Auch hier solltest Du vorher wieder die Einstellung vornehmen, dass der Bot immer allen Redirects folgen soll. Natürlich ist das nicht alles, was Du bei einem Relaunch beachten solltest, aber dazu gibt es einen eigenen Blogpost inklusive Relaunch-Checkliste.

Übrigens: Der Listen-Modus ist in der kostenlosen Version nicht auf 500 URLs beschränkt, sondern Du kannst unbegrenzt viele URLs crawlen!

 


#6 Canonicals

Bezüglich der Canonicals mag ich besonders die Darstellungsmöglichkeiten im Screaming Frog selbst auf der rechten Seite. Hier kannst Du mit einem Blick übersichtlich sehen, wie viele URLs kanonisiert sind und wie viele kein Canonical-Tag besitzen. Du kannst die einzelnen Punkte auch anklicken und anschließend bequem in Excel exportieren.

canonical ansicht im Screaming Frog

#7 Dan`s Tipp: XML Sitemap erstellen oder crawlen

Mit dem Screaming Frog kannst Du nicht nur ganz einfach eine XML-Sitemap erstellen, sondern auch eine live-Sitemap crawlen, um zum Beispiel festzustellen, ob sie fehlerhafte Seiten enthält. Dan Sharp, Co-Founder von Screaming Frog erklärt, wie es geht:

„An easy one we like is cleaning up XML Sitemaps. If an XML sitemap is live already, switch to list mode (Mode > List) and choose ‚Download Sitemap‘ or ‚Download Sitemap Index‘, and input the URL. Remember to also go to ‚Configuration > Robots.txt > Settings‘ and untick ‚Ignore robots.txt‘, so you can see if any URLs that are disallowed are in the XML Sitemap.The SEO Spider will then crawl the URLs directly from the live sitemap. You can then check for anything that isn’t a 200 response (No responses, 3XX, 4XX, 5XX etc), and spot URLs that are blocked by robots.txt, canonicalised, or noindex and shouldn’t be in there.

You can even then generate an XML Sitemap using the SEO Spider, which will automatically remove those URLs for you. If an XML Sitemap isn’t live yet, but you have the file, simply go to ‚Mode > List‘ and choose ‚from a file‘ and select ‚files of type‘ as .xml to upload that and crawl.“

Danke an Dan!

Hier noch die deutsche Übersetzung, inklusive Bilder-Anleitung:

„Ein einfacher [Quick Win], den wir mögen, ist einer mit dem Du XML-Sitemaps aufräumen kannst. Wenn eine XML-Sitemap bereits live ist, kannst Du den Mode auf List ändern („Mode“ > „List“) und dann „Download Sitemap“ oder „Download Sitemap Index“ wählen und die URL eingeben:

xml sitemap crawlen

Bevor Du crawlst solltest Du außerdem noch über „Configuration“ > „Robots.txt“ > “Settings“ das Häkchen bei „Ignore robots.txt“ entfernen:

robots.txt einstellung

Jetzt siehst Du, ob Deine Sitemap URLs enthält, die über die robots.txt gesperrt sind. Der SEO Spider wird jetzt die Seiten direkt von der live-Sitemap crawlen. Anschließend kannst Du überprüfen, ob der Crawl Seiten enthält, die keinen 200er Statuscode zurückgeben (keine Antwort, 3XX, 4XX, 5XX, etc.) oder die über die robots.xt gesperrt sind, deren Canonical-Link auf eine andere URL zeigt, die auf „noindex“ gestellt sind oder die aus einem anderen Grund nicht in der Sitemap sein sollten.

Du kannst anschließend über den Screaming Frog SEO Spider auch eine XML-Sitemap erstellen. Dabei werden diese URLs automatisch entfernt. Wenn Deine Sitemap noch nicht live ist, Du aber bereits eine Datei hast, dann starte den Crawl einfach, indem Du über „Mode“ > „List“ > „from a file“ > „files of type as .xml“ auswählst und dort Deine Sitemap hochlädst.

#8 Javascript crawlen

Ein weiteres wirklich hilfreiches Feature ist die Möglichkeit JavaScript zu crawlen. Aber Vorsicht: Wenn Du JavaScript crawlst, wird Dein Crawl um einiges langsamer. Du solltest also nicht blind immer JavaScript crawlen, sondern dieses Feature immer nur bewusst einsetzen.

Um Javascript zu crawlen musst Du unter „Configuration“ > „Spider“ > Rendering die Einstellung zu „Rendering to JavaScript“ ändern:

javascript crawlen

Zusätzlich solltest Du die Haken unter „Configuration“ > „Spider“ Images, CSS and JS setzen, damit die Ressourcen auch gerendert werden:

java scrpit screaming frog

Anschließend kannst Du die gerenderte URL anklicken und unter „Rendered Page“ rechts unten ansehen:

Weitere Informationen zum JavaScript Crawl findest Du im Blogpost auf Screamingfrog.co.uk

#9 Snippets Vorschau & Präferenzen

Snippetoptimierung ist ein wichtiger Bestandteil von SEO. Aus diesem Grund schätze ich es auch sehr im SEO Spider meine bevorzugte Pixel- und Zeichenlänge von Title und Description einstellen zu können, um anschließend auf einen Blick zu lange oder zu kurze Snippets zu identifizieren. Im Beispiel stelle ich die Titlelänge auf 569 Pixel und die Zeichenzahl der Description auf 135, weil diese ein Datum enthält und mir somit weniger Platz zur Verfügung steht. Du findest diese Einstellung unter Configuration >Spider > Preferences:

pixelbegrenzung title

Du siehst anschließend nicht nur die Länge des Titles in der Crawl-Übersicht, sondern kannst in der rechten Sidebar auch gleich nach zu langen, zu kurzen, doppelten oder fehlenden Werten filtern, dabei orientiert sich der Screaming Frog an meinen vorher eingestellten Präferenzen:

präfernzen title & description

Das ist aber noch nicht alles! Du hast die Möglichkeit Dir die Snippets Deiner gecrawlten URLs als Vorschau im Screaming Frog anzeigen zu lassen. Den Button dazu findest Du in der unteren Leiste unter SERP Preview:

Snippet-Vorschau

Du kannst das Snippet direkt bearbeiten. Rechts neben der Vorschau werden nicht nur die Zeichen und Pixel gezählt, sondern Du kannst auch den Device umstellen, Rich Snippets oder Description Präfixes hinzufügen:

snippet optimierung screaming frog

Einziges Manko hier: An dieser Stelle werden die vorher eingestellten Präferenzen leider nicht übernommen!

#10 Advanced: Custom extraction

Besonders hilfreich, wenn man spezielle Attribute einer Seite überprüfen will ist die „Custom Extraction“ Funktion des Screaming Frogs SEO Spiders. Mit ihr kannst Du über die CSS-Klasse, den Xpath oder regulären Ausdrücken gezielt Elemente ansteuern.

Ich zeige es Dir an einem Beispiel: Angenommen, ich möchte wissen, welcher erste „Verwandte Beitrag“ unter einem Seokratie Blogpost erscheint und dazu möchte ich auch noch den Autor des Blogposts haben.

Als erstes rufe ich dafür den Blogpost im Google Chrome auf und öffne die Chrome Entwickler Tools. Jetzt wähle ich über den Selector (1) das Element (2) an. Anschließend wähle ich es in der HTML mit dem rechten Mausklick aus (3) und kopiere den Xpath (4):

anleitung custom extraction

Anschließend wechsle ich wieder zum Screaming Frog und füge es unter Configuration > Custom > Extraction ein. Jetzt kann ich meinen Extractror noch benennen, so dass ich die richtige Spalte später im Crawl auch wiederfinde. Anschließend wähle ich noch XPath als Extraktionsmethode aus:

xpath extraction screaming frog

Dasselbe wiederhole ich für meinen ersten verwandten Artikel und starte dann den Crawl. Anschließend kann ich die Spalten suchen und bekomme mein Ergebnis:

Verpasse keine Beiträge mehr: DER Newsletter im Online Marketing

Gefällt Dir dieser Blogpost? Wenn Du regelmäßig die neuesten Trends im Online Marketing mitbekommen willst, dann abonniere jetzt unseren Newsletter. Über 10.000 Abonnenten vertrauen uns.

Jetzt abonnieren

Felix ist der Autor des gecrawlten Artikels und der erste ähnliche Beitrag ist Julians Video zur Snippet-Optimierung.

Tipp: Bei langsamen Ladezeiten kann es passieren, dass der Screaming Frog nicht alle Custom-Inhalte extrahiert. Dieses Problem kannst Du umgehen, indem Du die Crawling Geschwindigkeit des Spiders heruntersetzt. Mehr dazu kannst Du im sehr ausführlichen Blogpost von perfomics lesen. In diesem ist auch erklärt, wie Du Elemente anhand ihrer verketteten CSS-Klassen extrahieren kannst. Das ist zum Beispiel hilfreich, wenn Du sehr langsam ladende Seiten mit viel Content hast oder der XPath nicht eindeutig ist.

#11 Crawl von passwortgeschützten Bereichen

Besonders hilfreich für einen Relaunch ist es auch passwort-geschützte Bereiche crawlen zu können. Dazu startest Deinen Crawl der Testumgebung ganz normal. Gleich darauf frägt Dich der SEO-Spider nach den Zugangsdaten:

crawl passwortgeschützte bereiche

Sobald Du diese eingegeben hast, crawlt der Screaming Frog Deine Seite. Es ist übrigens auch möglich, Seiten zu crawlen, die über ein Web-Formular geschützt sind, wie zum Beispiel private WordPress-Seiten. Dazu kannst Du unter Configuration > Authentication die Login-Daten geben:

crawl webformular geschützte bereiche

Aber Vorsicht! Du erlaubst damit den Screaming Frog sich einzuloggen: Er folgt dann jedem Link, den er findet – wenn er als Admin eingeloggt ist auch denjenigen ins Backend.

Du solltest also am besten dem Screaming Frog vorher einen eigenen Account erstellen, der lediglich einen Lesezugriff hat. Außerdem solltest Du bestimmte Bereiche, wie zum Beispiel wp-admin bei WordPress ausschließen. Sonst kann es Dir passieren, dass der SEO Spider neue Beiträge erstellt oder alte Beiträge löscht. In einem Test von Screaming Frog hat der Bot innerhalb einer halben Stunde nicht nur ein neues Theme aufgesetzt, sondern auch 108 Plugins installiert und 8 von diesen aktiviert. Ich rate Dir also dringend, alle weitere Sicherheitsregeln bei Screaming Frog vorab zu lesen, wenn Du diese Funktion nutzen willst.

War das schon alles? Nein!

Der Sreaming Frog SEO Spider kann natürlich noch viel mehr als diese 11 Anwendungsfälle. So kann er Dir zum Beispiel auf einem Mausklick alle Bilder ohne ALT-Tag reporten, alle Canonical-Fehler exportieren oder hreflang-Fehler identifizieren. Auch alle Linktexte kannst Du mit ihm prüfen und noch an die 1000 andere Dinge. Nutzt Du den Screaming Frog SEO Spider bereits? Hast Du noch einen praktischen Anwendungsfall? Wenn ja, dann freue ich mich, wenn Du ihn uns in den Kommentaren hinterlässt!

Titelbild: © kikkerdirk / istock.com

Merken

Merken

Brauchst Du Hilfe? Suchst Du eine gute Online-Marketing-Agentur? Wir sind für Dich da! Wir freuen uns auf Deine unverbindliche Anfrage.
089 | 219 09 84 11 kontakt@seokratie.de Oder kontaktiere uns über das Formular: Jetzt kontaktieren
Über den Autor
Luisa leitet das SEO- und SEA-Team bei Seokratie. Dabei steht sie unseren Kunden bei allen Belangen rund um SEO und AdWords mit Rat und Tat zur Seite. Hier findest Du alle Beiträge von .

Kommentiere diesen Beitrag

Deine E-Mail Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.

16 Kommentare
  1. Karsten, kidsgo.de 17. August 2017

    Hallo Luisa,

    danke für den Beitrag und die guten Tipps. Als wir das Tool vor zwei Jahren angesehen haben, war das Manko, dass es nur unter Windows lief, nicht unter OSX. Weißt du zufällig, ob das inzwischen anders ist? Viele Grüße, Karsten

  2. Sven 17. August 2017

    Hi Luisa,
    danke für diesen interessanten Artikel. Mal wieder ein Tool, dass ich mir in nächster Zeit wohl genauer angucken werde.
    Ist denn eigentlich bekannt, warum es so ausartet, wenn er WordPress Seiten mit einem Admin Zugang crawlt?

  3. Isa 18. August 2017

    Hallo Luisa,

    vielen Dank für den Beitrag.

    Ich habe schon öfters von dem Tool gelesen, vor allem, dass es ein Must Have im SEO-Bereich ist.
    Würdest du Screaming Frog auch empfehlen, wenn man bereits OnPage.org (bzw. Ryte) als Bezahlversion nutzt? Wenn ja, wo liegen die genauen Unterschiede?

    Danke und liebe Grüße

  4. Luisa 18. August 2017

    Hallo Isa,

    Wir nutzen sowohl den Screaming Frog SEO Spider als auch RYTE – beide haben Vor- und Nachteile. Wenn man keine Agentur ist, denke ich reicht allerdings eines von beiden aus. Gerade für Einsteiger ist Ryte amfangs oft einfacher zu bedienen und verschaftt schnell einen guten Überblick – mit den vielen Filtern wird es aber schnell auch mal unübersichtlich. Hier schätze ich die Klarheit vom Screaming Frog. Was die genauen Unterschiede sind, das wäre einen eigenen Blogpost wert.

  5. Luisa 18. August 2017

    Hallo Sven,

    das passiert nur, wenn Du die Funktion über das Webformular nutzt und liegt daran, dass der Crawler dann jedem Link folgt – er findet also einen Login-Link, kann sich dann über das Webformular einloggen. Jetzt befindet er sich im Backend und hier sind eben die Schaltflächen, um Beitrag zu erstellen, löschen etc. auch Links. Diesen Links folgt er auch und führt dabei dann diese verschiedenen Aktionen aus.

  6. Luisa 18. August 2017

    Hallo Karsten,

    Dazu kann ich dir leider nichts sagen da wir Windows nutzen. Am besten schreibst du einfach dem Support von Screaming Frog, die sind sehr nett: https://www.screamingfrog.co.uk/seo-spider/support/

  7. Manuel 7. September 2017

    Der Frog kann auch problemlos unter Mac genutzt werden.

  8. Armin Ginschel 15. September 2017

    Klasse Artikel!
    Der Frosch ist eines meiner absoluten Lieblingstools. Mit ein wenig Praxis findet man unzählige Aufgabengebiete.

    Beispiele:
    Extraktion von HTML-Attributen wie Inhalten von hreflang
    Extraktion von Absatzinhalten. Klasse, wenn man Texte auswerten möchten

    Ich hatte unlängst den Fall, dass ich ermitteln wollte, ob in einem Shop Artikel nicht verfügbar sind. Der Shopbetreiber war leider nicht zu erreichen. Da bei jedem Artikel auf der Produktdetailseite der Text „Artikel leider nicht verfügbar“ stand, habe ich in einem Crawl nach diesem Textsnippet gesucht und bekam eine handliche Liste.

  9. Raphael 19. Januar 2018

    Vielleicht sollte der Artikel noch um den Hinweis ergänzt werden, dass alle Einstellungen unter „Configuration“ in der kostenfreien Version leider nicht verfügbar sind.

  10. Eric Oberesch 11. Februar 2019

    Hier sind noch ein paar weitere hilfreiche Funktionen des Screaming Frog:

    1. Crawl Depth: Da eine zu hohe Klickpfadlänge es sowohl Bot als auch Usern erschwert, Inhalte zu finden, sollte man diesen Aspekt im Blick behalten. Der folgende Screenshot zeigt die Klickpfadlänge einer größeren Website:
    https://abload.de/img/klickpfadlaenge_hochvvjtl.png

    Man sieht, dass etwa die Hälfte der Seiten eine Klickpfadlänge von 6 und gerade mal 4 % eine Klickpfadlänge von maximal 3 hat. Zum Vergleich mal die Darstellung für seokratie.de:
    https://abload.de/img/klickpfadlaenge_niedrndkdc.png

    Hier weisen 84 % aller URLs eine Klickpfadlänge von maximal 2 auf, sodass die Inhalte schnell gefunden werden können. Am Beispiel des 5 Jahre alten Blogbeitrags „WordPress für SEO fit machen“ kann man beispielhaft sehen, wie die niedrige Klickpfadlänge zustande kommt. Der Beitrag weist eine Klickpfadlänge von 2 auf, obwohl er nur noch auf der 8. Paginierungsseite der Blogstartseite zu finden ist. Wenn man sich die eingehenden Links ansieht, erkennt man aber, wie die niedrige Klickpfadlänge zustande kommt:
    https://abload.de/img/eingehende_links_seokcbk48.png

    Die violett markierten Links sind Querverlinkungen aus anderen Blogbeiträgen, entweder direkt aus dem Content heraus (Fall 1), über Pingbacks in den Kommentaren (Fall 2) oder über den Kasten „Verwandte Artikel“ unter dem Beitrag (Fall 3).

    Die rot markierten Links stellen Autorenseiten dar, die türkisen Links die normalen Paginierungsseiten von Blogkategorien bzw. der Blogstartseite. Es gibt aber auch noch haufenweise Verlinkungen über Tagseiten (gelb markiert). Während die anderen Verlinkungen oft von hinteren Paginierungsseiten stammen, gibt es auch Verlinkungen direkt von der ersten Seite einer Tagkategorie (z. B. aus der Kategorie „Title“).

    Da alle Tagkategorien am Ende der Startseite verlinkt sind, kommt man somit mit einem Klick von der Startseite zur Tagkategorie und mit einem weiteren Klick zu dem 5 Jahre alten Artikel. Auch aus jedem beliebigen anderen Artikel kommt man mit 2 Klicks zu diesem Artikel, da die Tagkategorien in der Sidebar verlinkt sind.

    Kritisch anzumerken ist aber, dass zwar Bots den Artikel sehr schnell finden, dass die Nutzer aber womöglich deutlich länger brauchen. Die entscheidende Frage ist, wie viele Nutzer tatsächlich auf Tagkategorien klicken, die am Ende der Startseite bzw. am Ende der Sidebar verlinkt sind. Ein Blick in die Analytics-Statistiken könnte zeigen, wie oft die Tagseiten aufgerufen werden und wie viel Traffic die alten Artikel noch erhalten. Ebenfalls spannend kann ein Blick auf den Verhaltensfluss in Google Analytics sein, um zu sehen, wie die Besucher tatsächlich auf der Seite navigieren.

    2. Insecure Content: Wenn auf einer HTTPS-Website Inhalte wie Bilder, JavaScript-Dateien etc. von HTTP-Websites eingebunden werden, gibt der Browser eine Warnung wegen „Mixed Content“ aus und das vorher grüne Sicherheitsschloss in der Browserleiste wechselt zu gelb bzw. zu einem Warnhinweis. Die Fehlermeldung tritt auch dann auf, wenn die angefragte Ressource nicht mehr existiert und einen 404 ausgibt.

    Um solche unsicheren Inhalte schnell zu finden, kann man im Screaming Frog auf „Reports => Insecure Content“ gehen und sich anschließend die Ergebnisse in Excel ansehen. Bei der Seokratie-Website erhält man dadurch beispielsweise eine Liste mit 122 Einträgen, wobei sich der Großteil auf über HTTP eingebundene Google Fonts bezieht. In diesem Fall hat man noch Glück und der Browser zeigt keinen für den Nutzer sichtbaren Warnhinweis, sondern nur einen über die Browserkonsole:
    https://abload.de/img/mixed_content_seokratj5kw0.png

    Es gibt aber auch einige wenige Bilder, die über HTTP eingebunden werden. In diesem Fall verschwindet dann auch das Sicherheitsschloss des Browsers und der Browser zeigt eine Fehlermeldung an:
    https://abload.de/img/mixed_content_seokratmfkgg.png

    Diese Funktion des Screaming Frog ist also sehr praktisch, um Mixed Content aufzuspüren und zu beheben.

    3. Images Missing Alt Text: Auch diese Exportmöglichkeit ist sehr praktisch. Man findet schnell alle Bilder ohne Alt-Text und die URL, auf der sie eingebunden sind, damit man die Alt-Texte einfügen kann.

    4. Images Over X KB: Diese Exportfunktion kann man nutzen, um zu große Bilder zu finden, die gerade auf mobilen Geräten die Ladezeiten deutlich erhöhen und Datenvolumen kosten können. Mit Lazy Loading kann man das Problem zwar abschwächen, wenn man dann aber beim Scrollen zu den großen Bildern kommt, dauert es für mobile Nutzer trotzdem recht lange, bis sie das Bild sehen können. Gerade bei großen Websites bzw. Websites mit User Generated Content entdeckt man mit dieser Funktion viele Bilder im Megabyte-Bereich, die man komprimieren sollte.

    5. Crawl Tree Graph: Auch wenn der Graph bei großen Seiten leicht unübersichtlich wird, ist das ein schönes Feature, um sich auf optische Weise die Klickpfadlänge und die kürzesten Pfade zu bestimmten Artikeln anzusehen. Der oben erwähnte Artikel zu „WordPress SEO“ findet sich wie folgt in der Struktur wieder:
    https://abload.de/img/crawl_tree_graph_seokg8k7g.png

    Wenn der Screaming Frog mehrere kürzeste Pfade findet, zeigt er denjenigen an, der zuerst gecrawlt wurde. Das ist in diesem Fall die Tagseite zur internen Verlinkung. Ebenfalls schön an der Darstellung ist, dass Noindex-Seiten durch einen roten Kreis direkt optisch erkennbar sind.

    6. Directory Tree Graph: Hiermit kann man optisch die Verzeichnisstruktur erfassen. Bei Blogs ist die Struktur meist recht flach, die meisten Artikel und Kategorien befinden sich in einem Verzeichnis ohne Oberverzeichnis. Mehrere Ebenen kommen meist nur durch Präfixe wie „Tag“ und „Category“ vor dem eigentlichen Verzeichnis bzw. durch Paginierungsseiten zustande, ansonsten bleibt die Struktur flach:
    https://abload.de/img/directory_tree_graph_jxj7o.png

    Bei Online-Shops wie otto.de ist die Verzeichnisstruktur hingegen durch die Vielfalt an Produkten oft deutlich verschachtelter:
    https://abload.de/img/directory_tree_graph_grk02.png

    Über die grafische Übersicht entdeckt man aber auch schnell, wenn eine Seite eine schlecht durchdachte URL-Struktur hat, wie hier bild.de:
    https://abload.de/img/directory_tree_graph_avjiz.png

    Man sieht, dass die Kategorieseite zu Computerspielen bei bild.de (Klickpfadlänge: 1) stark verschachtelte Verzeichnisse hat. Neben überflüssigen Verzeichnissen wie „Startseite“ gibt es auch zahlreiche Doppelungen. Der Begriff „Spiele“ taucht in zwei Verzeichnissen und einer HTML-Datei auf. Diese enthält dann noch mal den englischen Begriff für Startseite (Home), eine ID sowie den ebenfalls überflüssigen Begriff „Bild“. Bild.de ist also ein gutes Beispiel dafür, wie man seine URL- und Verzeichnisstruktur nicht aufbauen sollte.

    Fazit:
    Der Screaming Frog bietet eine Menge Funktionen, von denen manche zwar nicht so bekannt, aber dennoch sehr nützlich sind. Auf diese Weise kann man sehr tief greifende Analysen von Websites durchführen und Fehler und Verbesserungspotenziale entdecken, die sonst verborgen bleiben würden.

  11. Dennis 2. März 2019

    Habt Ihr einen Tipp, wie man zu Beginn eines Projekts die Onpage-Baustellen aus dem Screaming-Frog schön visualisieren kann (z. B. Meta Titel, Headerstruktur, 404 usw.)? Klar kann man sich manuell alles zusammenstellen mit Screenshots oder Excel aber gibt es evtl. ein Tool, welches Ihr empfehlen könnt, dass die wichtigsten Eckdaten auch visuell ansprechend aufbereitet?

  12. Luisa Dziki 4. März 2019

    Hi Dennis,
    Excel oder auch das Datastudio.
    Wir arbeiten vorwiegend mit Excel bzw., wenn es generell um die Visualisierung auch gerne mal mit Ryte.
    Hier gibt`s aber z.B. eine Anleitung für`s Datastudio: https://onpage.rocks/screaming-frog-report-builder/ Ausprobiert habe ich sie aber noch nicht.
    LG
    Luisa

  13. Dennis 4. März 2019

    Dankeschön 😉

  14. Sergej 12. März 2019

    Hallo Luisa,

    habe ich richtig verstanden, dass ihr beim Title so viele Pixel einstellt ?
    „Titlelänge auf 769 Pixel“
    Denn im Screenshot sind nur 569 Zeichen zu sehen.

    Könnte es ein Vertipper sein?

  15. Luisa Dziki 25. März 2019

    Hallo Sergej,

    oh, vielen Dank! Das ist tatsächlich ein Tippfehler. Korrekt ist 569. Ich habe es entsprechend angepasst.

    Liebe Grüße

    Luisa

Willst Du fit in Online Marketing werden?
 Mit unserem kostenlosen Newsletter bekommst Du 2 bis 3 Mal pro Woche unsere besten Artikel und Videos aus den Bereichen SEO, SEA, Content Marketing, Social Media und Usability zugeschickt. Jetzt anfordern! Über 10.000 E-Mail-Abonnenten vertrauen uns bereits.
Anmelden
close-image

Send this to a friend