Rankingverlust? Hier findest Du die Lösung!

1. Oktober 2013  |     |  25 Kommentare
Ein Beitrag von Julian Dziki

Immer wieder bin ich erstaunt darüber, wie wenig viele Webmaster wissen, warum Ihre Seite an Rankings verliert. Sehr oft heißt es lapidar „der Pinguin / Panda / eine Penalty hat uns erwischt“, ohne dass wirklich verifiziert wird, um was genau es sich denn nun handelt. Heute will ich Euch einmal die häufigsten Ursachen für Rankingverluste vorführen.

Manchmal sehr schlimm: Große Rankingverluste

Manchmal sehr schlimm: Große Rankingverluste

#1 Panda

Am 12.8.2011 wurde das erste Google Panda Update ausgerollt und seitdem gab es viele weitere Panda Updates.

Diagnose

Google Panda ist ein reines Onpage Update und hat überhaupt nichts, gar nichts mit Links zu tun. Betroffen sind vor allem News Seiten mit Low-Quality Content, sowie Arbitrage Modelle (Thin Affiliate Seiten, Preisvergleiche), aber auch sonstige Seiten mit wenig redaktionellem Content und vielen duplicated Seiten. Zur Diagnose eignet sich der Vergleich Eurer Absprungrate und der Seiten pro Besuch im Vergleich zur Konkurrenz, sowie eine gesunde Portion Ehrlichkeit: Bietet Ihr wirklich dem User einen Mehrwert oder ist der alleinige Zweck Eurer Seite, dass Ihr Geld verdient?

Behebung

Panda ist sehr schwer wieder zu beheben. Meistens ist nämlich ein großer Aufwand in Sachen Onpage, insbesondere in Hinblick auf eine Qualitätsoffensive nötig. Oft muss man auch das gesamte Geschäftsmodell ändern. Seiten, die vorher aufgrund des geringen Aufwands rentabel waren, wären es durch eine Anwendung aller „Anti-Panda“ Maßnahmen meist nicht mehr und so ändern viele Webmaster diese Webseiten meist nicht mehr. Wer aber trotzdem raus aus Panda will, sollte sich auf den User fokussieren: Wie kann man die Seite derart gestalten, dass User in Zukunft zufriedener mit der Webseite werden? Außerdem sollte man duplicate Content so gut es geht bekämpfen. Wichtiger ist aber der User Fokus. Panda Updates finden unregelmäßig statt. Änderungen sind also nicht sofort sichtbar, sondern erst nach dem nächsten Panda Update. Mittlerweile geschehen diese aber relativ häufig.

#2 Penguin

Google Penguin wurde am 24.04.2012 erstmalig ausgerollt, am 22.05.2013 ging Penguin 2.0 live.

Diagnose

Auch wenn es schwammig heißt, dass „schlechte“ Links entwertet wurden und mehr Fokus auf Qualität gelegt wurde, so bin ich der festen Meinung, dass es mehr oder weniger nur um Anchortexte ging. Wer also seinen Kreditvergleich ständig nur mit dem Anchortext „Kreditvergleich“ verlinkt hatte, der bekam früher zwar schon in Extremfällen eine Penalty. Penguin reagiert aber viel granularer und straft nicht nur komplette Webseiten, sondern auch einzelner HTML Dokumente ab, wenn die Anchortext-Verteilung unnatürlich wird. Penguin ist ein algorithmisches Update.

Behebung

Behebt man die Fehler, dann geht es automatisch wieder nach oben. Allerdings meist nicht sehr weit, denn Webmaster, die es übertrieben haben, verlieren ja einen großten Teil ihrer bisherigen Links. Als Betroffener sollte man trotzdem versuchen, Links mit harten Anchortexten zu entfernen. Im Prinzip sind das alle Anchortexte, die ein hohes Suchvolumen haben und oft auch viel Konkurrenz bei Google Adwords. Der häufigste Anchortext einer Domain sollte Domain.de bzw. der Name der Marke sein. Da Penguin sehr granular wirkt, kann bereits die Entfernung von ein bis zwei Links einen Effekt erzielen. Es gibt auch ein Formular, mit dem Ihr angeben könnt, dass Ihr zu Unrecht betroffen seid. Naja, viel Glück damit.

#3 Warnung über unnatürliche Links

Die Warnung über unnatürliche Links kam das erste Mal am Wochende um den 20.07.2012 an deutsche Webmaster. Seitdem gehen die Meldungen regelmäßig bei vielen Seiten ein.

So sieht sie aus, die Meldung über unnatürliche Links (Bild von den Internetkapitänen)

So sieht sie aus, die Meldung über unnatürliche Links (Bild von den Internetkapitänen)

Diagnose

Hier ist die Diagnose einfach: Man erhält eine Nachricht über „unnatürliche eingehende Links“ in den Google Webmastertools. Ein Google Mitarbeiter hat sich also manuell die Links zur Webseite angesehen und vermutet, dass die Webseite Links gekauft hat, um ihr Ranking zu verbessern. In der Regel dauert es dann nur wenige Tage, bis erste Rankingverluste spürbar sind. Das betrifft in den meisten Fällen bestimmte Verzeichnisse oder Dokumente, seltener sogar die komplette Webseite. Die Auswirkungen dieser Nachricht können kaum spürbar sein oder sehr massiv, je nach Grad der Penalty.

Behebung

Diese Maßnahme von Google ist manuell und kann daher auch nur manuell wieder gelöst werden. Als erstes sollte man sich eine große Linkliste anlegen, jeden einzelnen Link durchgehen und auf Natürlichkeit prüfen. Google Mitarbeiter sind nicht dumm und wissen oft sehr genau, welche Links gekauft sind und welche nicht. Es reicht also nicht, ein paar Links zu löschen, sondern man sollte wirklich großflächig arbeiten. Die entsprechenden Webmaster sollte man nett (!) anschreiben und sie bitten, die Links zu entfernen. Reagieren die Webmaster nicht, dann kann man die Links mittels des Disavow Tools (in den Google Webmastertools) entfernen.

Herauskommen sollte eine Liste mit Domains, die man dann öffentlich zugänglich in Google Docs anlegt. Diese Liste referenziert man anschließend im sogenannten „Antrag auf erneute Überprüfung“, den man auch in den Google Webmastertools stellt. Ein Google Mitarbeiter sieht sich dann an, ob entsprechende Maßnahmen unternommen wurden, damit die Webseite wieder den Richtlinien für Webmaster entspricht. In den Antrag sollte auf jeden Fall auch kommen, was man früher getan hat, dass einem dies leid tut und man es niemals wieder tun wird. Geht der Antrag durch, bekommt man die Nachricht „Manuelle Spam Maßnahmen aufgehoben“ und sollte bald wieder bessere Rankings haben. Falls er nicht genehmigt wurde ist es auch nicht schlimm: Meistens erhält man dann eine Liste mit drei konkreten Beispiellinks, die noch gegen die Richtlinien verstoßen.

Hier die offizielle Hilfeseite von Google zur Warnung über unnatürliche Links

#4 Einzelne URLs steigen hoch bis auf Platz 2-5, fallen dann wieder

Diagnose

Ihr optimiert auf ein bestimmtes Keyword und die Rankings steigen gut bis Seite 1, danach fällt die Seite aber oft auf Position 10 oder Seite zwei zurück. Dann hat diese Seite eine schlechte User Experience und passt nicht zur Suchanfrage.

Behebung

Überlegt Euch, was an Eurer Seite nicht zur Suchanfrage passen könnte und versucht möglichst viele Suchintentionen abzudecken. Mehr Infos darüber gibt es im Blogpost Wir haben nicht viel Zeit.

#5 Das Ranking der gesamten Domain nimmt kontinuierlich über einen langen Zeitraum ab

Diagnose

Eure Domain verliert langsam, aber stetig an Rankings. Es gibt keine großen Abstürze, sondern ein eher langsames Abgleiten in die Bedeutungslosigkeit.

Behebung

Hier wird es knifflig. Die Beispiele, die ich bisher gesehen habe, hatten unterschiedlichste Gründe für den „Slow Death“. Userverhalten spielt wahrscheinlich eine sehr große Rolle. Die Seite wird immer weniger angeklickt, das Design ist eventuell nicht mehr zeitgemäß und / oder der Content nicht gut genug. Auch nachlassende Brand-Suchanfragen (Suchen nach „Domain.de“) können ein schlechtes Signal sein. Und natürlich kann es auch daran liegen, dass immer mehr schlechte Links entwertet werden. Ich habe auch schon Fälle gesehen, bei denen die Meldung über „unnatürliche Links“ ignoriert wurde und daraufhin die Rankings kontinuierlich schlechter wurden. Auf jeden Fall ist die Behebung nicht einfach und man sollte sich ernsthaft Gedanken machen, was genau der Grund ist.

Gemeinsamkeit aller Penalties: Änderung der Arbeitsweise

Alle Penalties haben gemeinsam, dass der Webmaster sich ernsthaft Gedanken über die Art und Weise, wie er im Internet Geld verdient, Gedanken machen sollte. Billiger Linkaufbau und schlechter Content gingen noch 2010, aber diese Zeit ist schon lange abgelaufen. Gerade in großen Teams sollte man sich zusammensetzen und prinzipiell darüber diskutieren, wie man SEO überhaupt definiert. Denn die Penalties kommen meistens nicht von kleineren Fehlern – diese verzeiht Google ohne Probleme. Penalties sind strukturelle Probleme.

Bevor ich jetzt hier wieder gerügt werde, „Algorithmische Updates“ habe ich der Einfachheit halber auch Penalties genannt. Natürlich ist die einzige echte Penalty die Nummer drei und alle anderen sind nur algorithmische Filter.
Foto: Igor Zh. / Shutterstock.com

Jetzt teilen: Share on Facebook56Tweet about this on TwitterShare on Google+44Email this to someoneShare on LinkedIn3

E-Book: Der Weg zum erfolgreichen Online Shop

  • Das 47-seitige E-Book mit 72 konkreten Tipps für Deinen Online Shop
  • Einmal wöchentlich exklusiver Content für das Marketing Deines Shops
  • Unser Newsletter (1-2x pro Woche)
E-Book kostenlos downloaden

25 Kommentare

  • Julia

    Danke Julian,
    wie immer sehr hilfreich für mich als SEO-Anfänger. Besonders deine Struktur und die guten Erklärungen sind hilfreich für mich!

    LG
    Julia

  • Danke für die tolle Zusammenfassung!

  • Marcel Wengel

    Interessanter Beitrag, danke dafür.

  • sppeedy

    Hi Julian,

    Ein sehr guter Artikel! Hast wirklich alles sehr gut zusammengefasst.

  • Sehr schöne Zusammenfassung. Vielleicht gehts du in den nächsten Beiträgen noch etwas genauer auf die „Behebung“ ein 😉

  • Hallo Julian, danke für die interessante Zusammenfassung. Auch immer wieder interessant, was man eigentlich alles weiß – und trotzdem nicht unternimmt. Ist wie mit dem Rauchen, jeder weiß ja, wie ungesund es ist – es muss schon etwas passieren, ehe der Mensch reagiert.

    Viele Grüße aus Aurich,
    Jürgen

  • Sehr nett zusammen gefasst! Werde ich mir auf jeden Fall bookmarken, kann man immer mal gebrauchen wenn einem die „Symptome“ auftreten 😉

    – Henry

  • Frank

    Hallo Julian,

    hast du auch Erfahrung mit der Situation, wenn in den Webmastertools eine manuelle Maßnahme steht, in der Übersicht der Maßnahmen steht aber:
    „Unnatürliche Links zu Ihrer Website – Auswirkungen auf die Links
    Google hat unnatürliche, betrügerische oder manipulative Links entdeckt, die auf Seiten dieser Website verweisen. Einige Links unterliegen möglicherweise nicht der Kontrolle des Webmasters, daher ergreifen wir in diesem Fall gezielt Maßnahmen gegen die unnatürlichen Links und nicht gegen das Ranking der Website als Ganzes“

    Da 2 Wochen nach der Mitteilung ein erheblicher Absturz im Ranking erfolgte, ist die Frage was man jetzt macht. Bringt da ein Reinclusion überhaupt was? Oder hat G. einfach nur viele Links entwertet, so dass das Ranking fällt? Für Ideen bin ich dankbar.
    Gruß,
    Frank

  • Schön zusammengefasst. Like & +1.
    Was man noch ergänzen könnte sind die +10, +50 Abstrafungen.
    lg Thomas

  • Julian

    Hi Frank,

    Du solltest auf jeden Fall den Reinclusion Request stellen. Ich glaube nämlich nicht, dass Google „nur“ die Links entwertet, auch wenn es dort steht.

  • mewho

    Hallo zusammen,

    werden Links, die man im Disavow Tool einreicht mit der Zeit im Webmastertool unter dem Punkt „Links zu Ihrer Website“ verschwinden oder bleiben diese weitehrin sichtbar?

  • Julian

    Hallo mewho,

    Soweit ich weiß, bleiben die Link weiterhin sichtbar.

  • Guter Artikel! Kurz und knapp die wichtigsten Informationen die man braucht.

  • Hallo Julian,

    sehr guter Beitrag, endlich sieht man kurz und knapp genau was welches Update macht bzw. für welchen Bereich das zuständig ist.

    Oft musste ich nachschaune war Panda jetzt onPage oder OffPage.

    Danke

  • btw: cooles Artikelbild! 😉

  • Hallo Julian, wieder seht guter Beitrag. Allerdings setzt du bei vielen Punkten auf das Nutzerverhalten. Matt Cutts hat ja vor ein paar Monaten gesagt, dass die Abspungrate derzeit kein Rankingsignal ist. Jetzt kann Absprungrate ja unterschiedlich definiert werden. Wie interpretierst du das?

  • Hi Olaf,

    Richtig, die Absprungrate kann kein gutes Signal sein. Wenn jemand nämlich auf einer Seite genau die Information findet, die er sucht, springt er trotzdem meistens wieder ab. Obwohl er ja eigentlich mit der Seite zufrieden war. Google sieht sich sogenannte „Short Clicks“ an, also ob der User nach dem ersten Suchergebnis nun auf ein alternatives Ergebnis klickt oder ob seine Suche beendet wurde.

  • Das macht Sinn, obwohl man so ein Verhalten natürlich auch unterschiedlich deuten kann…

  • Marco

    Was ich nie ganz kapiert hab: Angeblich machen sich bei Panda betroffenen Seiten Änderungen am Content erst mit dem nächsten Update bemerkbar. Ist nicht jedes Panda Update nur eine weitere Feinjustierung des Algorithmus? D.h. das evtl neue Signale berücksichtigt oder anders gewichtet werden.

    Ich hatte mal auf einer Seite sehr viel Werbung im sichtbaren Bereich. Nachdem ich die Werbung rausgenommen habe, haben sich Rankings über Nacht massiv verbessert. So macht es für mein Verständnis auch mehr Sinn. D.h. dass jede Information, die der Crawler sammelt auch umgehend zur Bewertung der Website verwendet wird. Mit einem neuen Panda Update wird dann höchstens noch mal etwas nachjustiert.

    Ich kann mich auch irren. Aber warum sollte Google Informationen über den Content bis zum nächsten Update ungenutzt lassen?

  • Es gibt auch Domains die sich nicht mehr erholen oder nur unter extrem hohen Aufwand wiederbeleben lassen. Da kann es Sinn machen eine neue Domain zu registrieren, neu aufzusetzen und wieder von vorne anzufangen (dann aber richtig) 😉 Viele Grüße

  • Julian

    Hi Marco,

    Was Du meintest was ein anderes Update: Das sogenannte Page-Layout Update. Das wirkt sofort und hat nichts mit Panda zu tun.
    Und Google kann schlichtweg nicht immer Panda Updates machen, scheinbar weil sie sehr rechenintensiv sind.

  • Marco

    Mit dem Page-Layout Update hast du vermutlich recht. Danke für den Hinweis! Da wird aber scheinbar auch kein komplett neues Update des Algos gemacht, wenn Veränderungen im Ranking sichtbar sind. Ich stelle mir das so vor:
    – Crawler entdeckt, dass die Werbung raus geflogen ist
    – für meine Website besteht ein Set an Variablen, in dem nun eine entsrechende Variable verändert wird (die zB die Anzahl an Pixeln mit Werbung im sichtbaren Bereich enthält)
    – eine seeeeehr komplexe Formel errechnet aus dem Variablenset einen Score für meine Website (oder wahrcheinlich eher mehrere Scores für Trust, Relevanz, Freshness,…)
    – bei einer Suchanfrage werden die Dokumente im Index anhand ihrer Scores verglichen, sortiert und daraufhin die Serps generiert
    – bei einem Algo Update ändert sich erstmal NUR die Formel selbst (Berechnungen finden gar nicht statt. Dies geschieht kontinuierlich, sobald neue Crawling Daten vorliegen)

    …und bei Panda müsste es doch genauso laufen. Nur die Variable hieße dann statdessen zB Artikelbild (j/n).

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.

Willst Du fit in SEO werden?

Abonniere unseren Newsletter und bleibe in Sachen SEO, Inbound- & Online-Marketing auf dem Laufenden.

Du kannst den Newsletter jederzeit wieder abbestellen.