Wie kommt man aus Panda heraus?

1. April 2012  |     |  12 Kommentare
Ein Beitrag von Julian

Heute versuche ich einmal eine Zusammenfassung zu erstellen, die einige Tipps gegen Panda-betroffene Webseiten enhält.

Aktuelle Penalty: Panda UND Links

Der Panda hat gut lachen :-)

Einige Kommentare meines letzten Posts haben gezeigt, dass die momentane Penalty von letzter Woche auch sehr viel mit Links zu tun hat. Mir liegen Informationen vor, nach denen auch deutsche Webseiten bereits die Meldung über “unnatürliche Links” bekommen haben und auch schon deutsche Linknetzwerke bestraft wurden. So manche Vollpfosten haben daraus auch einen Aprilscherz gemacht und leider auch mich in den April geschickt (sogar um 12 Uhr nachts als einen der Ersten…). :-)

Momentan haben wir es also mit einer Link Penalty und einem kleineren Panda Update (eher 2.1 als 3.0) zu tun, wobei hier auch Seiten aus Panda “entlassen” wurden. Die Linkpenalty ist klar: Zu viele Links von ähnlichen Quellen, zu auffällige Anchortexte. Was aber tut man bei Panda? Hier ist momentan so viel Bullshit zu lesen und zu hören, dass ich mal ein paar Dinge klarstellen muss.

Was tun, was tun?

Zunächst einmal sollte man eindeutig feststellen, ob man überhaupt “gepandat” wurde oder ob nicht ein anderer Filter vorliegt. Seitdem Panda in Deutschland ausgerollt wurde, ist man sehr versucht jeder Webseite gleich einen Bären aufzubinden (^^).

Panda Merkmale

  • Hohe Absprungrate im Vergleich zu den Mitbewerbern in der gleichen Branche* (sieht man gut bei Alexa.com)
  • Wenige Pageviews / User im Vergleich zu den Mitbewerbern der gleichen Branche
  • Weniger Suchanfragen nach “Domainname” oder “Markenname”  als vergleichbare Mitbewerber
  • Wenig eigener Content (Aggregatoren, Preisvergleiche) mit wenigen einzigartigen Funktionen
  • Viel Werbung im sichtbaren Bereich der Webseite**

* Einschränkung 1: Hier sollten sich nicht Aggregatoren untereinander vergleichen, sondern beispielsweise auch Aggregatoren mit echten Online Shops.

Einschränkung 2: Ich bin nicht sicher, ob dieses Update schon in Deutschland angekommen ist. Außerdem ist es meist nicht der wahre Grund für Panda, sondern zählt nur akkumulativ dazu. Seht euch mal Bild.de oder Spiegel.de an – die haben unendlich viel Werbung, allerdings sind die anderen Signale weitaus positiver.

Keine Panda Merkmale

  • Links haben mit Panda nicht das Geringste zu tun! Nein, nein, nein, nein!
  • Google kann nicht wirklich sehen, ob ein Text gut ist oder nicht. Sie können nur sehen, ob der Text dem User gefällt oder nicht!

Merkt euch das!

Beispiele

Hier mal einige Beispiele, damit ihr seht, wie supereinfach man sehen kann, ob eine Webseite die User zufriedenstellt oder nicht.

Pageviews pro User

Pageviews Pro User: Na, wer wurde hier wohl gepandat?

Otto und Spiegel haben viele, GuteFrage, der Preisroboter und Suite101 viel weniger Pageviews pro User. In diesem (wohlgemerkt extremen) Beispiel sieht man es sogar Branchen- und Seitenart-übergreifend.

Absprungrate

Absprungrate
Auch hier: Die Absprungrate ist bei Spiegel und Otto geringer

Verweildauer auf der Seite

Verweildauer auf der Seite
Na, wo bleiben die User wohl am längsten?

Interessant: Wie viel Prozent des Traffics kommen aus der Suche?

Diese Grafik ist interessant: Sie sagt (relativ gesehen) aus, wie viel Prozent der Besucher über Suchmaschinen kommen. Ich denke, dass Alexa hier nur Google.com heranzieht, denn die absoluten Zahlen können nicht stimmen, sonst kämen unter 5 % aller Spiegel-Besucher von Google. Allerdings stimmt die Relation: Spiegel Besucher kommen sehr oft direkt auf die Seite, sehr oft von Facebook oder von anderen Webseiten. Gutes Marketing und gute Markenbekanntheit sorgen ebenso wie ein gutes Produkt für diesen Effekt. Umgekehrt heißt das: Wer sich nur um SEO-Visits bemüht, der erreicht unter Umständen genau das Gegenteil! Dass Spiegel.de hier wie eine Thin-Affiiate Seite herüberkommt, liegt einfach daran, dass bei Newsseiten dieser Faktor ganz anders aussieht, weil sehr viele Besucher direkt, per Mail, per Facebook oder Twitter kommen.

Hier schneidet auch Otto.de nicht so gut ab, aber immer noch besser als alle anderen

Mittel gegen Panda

Eines muss man sich klar werden: Bei Google Panda geht es ausschließlich um Onpage Faktoren. Die Brandsearches spielen zwar ein wenig in einer anderen Liga, lassen sich aber auch beeinflussen.

#1 Absprungrate verringern, Seiten pro Besuch erhöhen

Wer von Panda betroffen ist, der musss dafür sorgen, dass die Besucher länger auf der Webseite bleiben. Wie man das macht? Indem man echte Mehrwerte, interessante Inhalte und eine gute Usabiity bringt! Sorry, wer hier eine leichte Lösung hören wollte, der hat leider Pech gehabt. Was macht man, wenn man aber keine wirklichen Mehrwerte hat? Ich sage jetzt mal, man ist der Betreiber eines Preisvergleichs: Hier sollte man zum Beispiel exzellente Sortierfunktionen bieten und eine wirklich außerordentlich gute Usability. Das fängt bei den meisten schon bei der internen Suche an: Findet der Preisvergleich kein passendes Ergebnis, dann wird momentan oft einfach “irgendwas ähnliches” angezeigt. Wenn der User darauf klickt, bekommt man ja seine Klickprovision, also who cares? Der User!
Eine großartige Möglichkeit, die auch funktioniert ist es, dass man (bei einer Newsseite) schlechte Artikel mit hoher Absprungrate bei Google löscht. Hierzu kann ich diesen Artikel empfehlen. Im Prinzip geht es darum, bei Analytics nachzusehen, welche Artikel in der letzten Zeit sowieso keinen Traffic bekommen haben und diese Artikel zu löschen. Es versteht sich von selbst, dass man damit sehr vorsichtig umgehen sollte. Übrigens würde ich persönlich die Artikel komplett löschen und nicht wie in dem Beispiel beschrieben auf Noindex, Follow stellen. Eine andere Möglichkeit ist es, die schlechten Artikel einfach zu überarbeiten und zu besseren Artikeln zu machen. Technische Spielereien wie Weiterleitungen, Fotostrecken (zur Erhöhung der PIs) und dergleichen haben übrigens bisher meiner Wissens noch nirgends gut funktioniert. Die Absprungrate und Seiten pro Besuch müssen also “echt” sein.

Bounce-back, unsatisfied Search Queries

Nebenbei noch sehr einfach zu erkennen: Ein User sucht etwas, klickt auf das erste Google Ergebnis und bleibt dort nur zwei Sekunden. Danach drückt er den “Zurück” Button und klickt das zweite Ergebnis an. Passiert euch das oft, dann habt Ihr dort schlechte Inhalte und werdet langfristig nicht auf Platz 1 stehen bleiben. Denn der User war unzufrieden. Anders sieht es aus, wenn der User nach dem Besuchen eurer Seite ein anderes Keyword eingibt oder die Suchanfrage verfeinert. Google weiß also sehr genau, ob Ihr die richtige Webseite für den ersten Platz seid oder nicht. Häuft sich das bei vielen Keywords, dann seid Ihr potenzielle Panda Kandidaten.

#2 Auf den User fokussieren!

Kümmert euch in erster Linie um den User, nicht um Google. Tretet einen Schritt zurück und betrachtet eure Webseite: Hat sie einen wirklichen Nutzen oder dient sie nur dazu den User von Google zu eurer Seite und dann auf Werbung zu schleusen? Das Einzigartige am Panda Update ist, dass es eine Webseite aus Usersicht analysieren kann, obwohl es letztlich dann algorithmisch gemacht wird. 

Überlegt euch auch, ob die Suchanfragen zu einer Webseite passen! Wer nach “XY Gutschein” sucht, der will auch einen Gutschein bekommen. Bietet Ihr dann nur einen Affiiate Link ohne Gutschein, dann wäre ich zumindest sehr verärgert.

#3 Werdet eine große Marke!

Das Kuriose an Panda ist, dass man als große Marke mit echtem Mehrwert sich keine großen Gedanken machen muss. Auch gibt es nur sehr wenige Online Shops, die von Panda betroffen sein könnten. Warum? Man braucht heutzutage eine wirkliche Existenzberechtigung bei Google. Wenn Ihr Produkte verkauft, dann habt Ihr sie damit schon. Wenn Ihr allerdings selbst keine Produkte verkauft und die User nur auf andere Shops weitereitet, dann muss eure Webseite eine einzigartige Sortierfunktion oder einen sonstigen Nutzen haben.

Fazit

Es gibt keinen einfachen Workaround für Panda. Panda hat Seiten getroffen, die mit vergleichsweise extrem wenig Aufwand enorm viel Geld verdient haben. Dazu gehören Preisvergleiche: Einfach nur Produktfeeds einbinden und massiv Backlinks aufbauen ist nicht mehr genug. Dazu gehören Contentaggregatoren aller Art: Einfach nur aus fünf Quellen eine neue Landingpage zu bauen (siehe Personensuchmaschinen) ist auch kein Nutzen. Und Low-Budget Content gehört auch dazu: Was denkt Ihr, wieviel Spiegel.de für einen Text ausgibt, wie viel Suite101.de?

Panda ist eine userfokussierte Penalty. Wer raus will, der muss sein Geschäftsmodell stark überarbeiten. Wer Content aggregiert, der muss wissen, dass es langfristig ein Konkurrent von Google ist und nur durch wirklich exzellente Funktionen überleben wird. Das Problem ist, dass solche Firmen ihre gesamte Denkweise ändern müssen. Wer das nicht will oder es sich nicht leisten kann – der sollte besser heute als morgen den Laden zusperren, denn länger als 12 Monate geht das nicht mehr gut. Panda ist in Deutschland erst rudimentär ausgerollt worden. Was wir bisher gesehen haben, war erst der Anfang. Auch wenn Ihr jetzt wieder herausgekommen seid: Solltet Ihr nicht dauerhaft die Webseite verbessern, so seit Ihr beim nächsten oder übernächsten Update wieder drin.

Eure Meinung?

Foto: Khoroshunova Olga / Shutterstock.com

Beitrag teilen:

Über den Autor

Julian Dziki ist SEO, Online Marketer und Affiliate seit 2007. Suchmaschinenoptimierung München

12 Kommentare

  • Naja “große Marken” dann hätte es check24 nicht so gebeutelt obwohl hier ja das Brand Keyword building nicht mal ansatzweise vorhanden war! Vielleicht sollte man hier eher sagen Seiten die Brand vernachlässigt haben beim Linkthema. Ich denke man hat hier einfach die Schrauben beim Thema “was kann man sich mit Trustlinks an off page Fehlern leisten” etwas zurückgedreht! Und die hat nun wie du schon sagtest vor allem “Seiten getroffen, die mit vergleichsweise extrem wenig Aufwand enorm viel Geld verdient haben”

  • Tobias, schau dir das Linkprofil von Check24 an, das sollte alles sagen. Was die SEOs da gemacht haben, kann ich nicht nachvollziehen.

    Kai, deine Artikel sind immer wieder Klasse. Sehr gut aufbereitet und sie bieten echten Mehrwert ;) Auf der SMX hat Andre Alpar auch deinen Beitrag zum Thema empfohlen, ich weiß nicht ob du selbst anwesend warst, nur mal zur Info.

  • lor.design

    Ähm, Julian meine ich natürlich. Nicht Kai ;)

  • Frank

    Schöne Zusammenfassung – Speed, Brand, User Signale und Usability sind das wichtigste. Scraping, MFA und Shared Hosting sind (fast) tot :(

  • Ich bin selbst mit ein paar Seiten dem Panda zum Opfer gefallen, jedoch schon beim “2.0″ Panda und komme so langsam durch Rückarbeit wieder raus und zurück in die Serps, war nicht einfach die “echten” Problemlinks zu finden. Hat aber allem Anschein nach geklappt. Besuchszeit ist so eine Sache, hat man genau DIE information die der User sucht, kann dieser schnell wieder weg sein, da er ja das gefunden hat was er gesucht hat.

    Gruß Edelnerd

  • Hi Julian,
    insgsamt ein klasse Artikel, ich gebe dir da in vielen Punkten recht. Bei all meinen Projekten wurde ich nur einmal “erwischt” – deshalb machen deine Ausführungen für mich selbst auch Sinn.

    In einem Punkt zweifele ich aber bzw. schränke deine Aussage mal ein:
    “Was denkt Ihr, wieviel Spiegel.de für einen Text ausgibt, wie viel Suite101.de?”

    Ich weiß von einigen großen Seiten (u.a. auch spiegel.de und focus.de), dass jeden Morgen eine Armada an Studenten kommen, die dann den News-Kram von den diversen Nachrichtenagenturen umschreiben. Klar, viel für Google-News, aber sicherlich macht das den Großteil der neuen Artikel dieser Seiten täglich aus. Und was denkst du, zahlt man den Jungs? 10 EUR die Stunde? Sagen wir mal, wenn sie langsam sind, schreiben die 5 Artikel um – sind also 2 EUR pro Artikel… Das wäre vergleichbar Stufe 2 bei Textbroker – also Suite101?

    Okay, es gibt auch “richtig gute Artikel” bei Spiegel.de – und das macht die Seite wohl auch aus. “Echte” Redakteure schreiben gut recherchierte mehrseitige Artikel, die dann auch Backlinks bekommen (die die Seite natürlich nicht bräuchte…). Somit wäre ich wieder bei deiner Aussage. Letztendlich gilt dann eben wieder “Content ist King”.
    In diesem Sinne – Happy Panda….

  • Da sag noch mal jemand, die Anchortexte (“Vollpfosten”) wirken nicht ;-) https://www.google.de/search?q=vollpfosten&ie=utf-8&oe=utf-8&aq=t&rls=org.mozilla:de:official&client=firefox-a#hl=de&client=firefox-a&hs=pRx&rls=org.mozilla:de%3Aofficial&tbs=qdr:d&sclient=psy-ab&q=vollpfosten+seo-united&oq=vollpfosten+seo-united&aq=f&aqi=&aql=&gs_l=serp.3…17484l19596l0l19737l11l11l0l0l0l0l135l1215l2j9l11l0.frgbld.&pbx=1&bav=on.2,or.r_gc.r_pw.r_qf.,cf.osb&fp=cfc257ac624cbe61&biw=1920&bih=869

  • Hi Julian,

    Du hast aus meiner Sicht völlig Recht wenn Du sagst: Website-Betreiber müssen sich verstärkt wieder um die Basics kümmern. Sich Daten wie PI, Verweildauer oder Absprungraten aus Analytics zu Nutze zu machen, um die eigene Webpräsenz zu verbessern sollten grundlegende Learnings sein. Wo sonst bekommt man derartige Daten schöner ausgewertet als von Google selbst? Wer sich negative Entwicklungen aus derartigen Tools nicht zu Herzen nimmt trotz erfolgreicher Rankings braucht sich nicht wundern, wenn es damit rapide bergab geht…

    Wie Du bereits sagtest: Panda wird uns auch noch weiterhin erhalten bleiben – Für viele sollte dies Grund genug sein, schnell in die Gänge zu kommen… ;)

  • Hallo, ein paar nette Gedankengänge.

    Google kann aber meiner Meinung nach gut einschätzen, ob ein Text wirklich schlecht ist – anhand von Rechtschreibfehlern, Keyword-stuffing wäre auch ein negativer Faktor, positiv hingegen die Verwendung von Synonymen.
    Auch automatisierte Übersetzungen hinterlassen einen Footprint.

  • Spökenkieker

    An Pandas neuestem Prankenhieb sieht man zwei Dinge:

    #1: Google kann eben _nicht_ auf rein statistischem Weg gut von schlecht geschriebenen Webseiten trennen. Dafür wertet es das Klick- und Absprung-Verhalten seiner User bis ins Detail aus. Ist dann eine Seite auf SERP-Platz 1 weniger populär (weniger Klicks, kürzere Verweildauer, mehr Bounces) als eine auf Platz 8, wird Google die Platzierungen beider Seiten kurzfristig korrigieren. Auch der +1-Button und sogar GooglePlus sind vor dem Hintergrund einer gründlichen Surferverhaltensforschung zu verstehen.

    #2: Online-Zeitungen mit hohem Anteil an (meist 1:1 abgeschriebenen) Agentur-Artikeln sind hochgradig gefährdet, denn exakt den gleichen Content findet man ja woanders im WWW auch. Zeitungen mit einem hohen Anteil an «selbst gestricktem» Content und ganz besonders Lokalzeitungen haben es hier deutlich besser!

Hinterlasse eine Antwort

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind markiert *

Du kannst folgende HTML-Tags benutzen: <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <strike> <strong>