Zweites Panda Update in Deutschland angekommen

17. Oktober 2011  |     |  28 Kommentare
Ein Beitrag von Julian Dziki

Ende letzter Woche wurde in Deutschland wieder ein Panda Update eingespielt. Die Liste der aktuellen Gewinner und Verlierer und ein Blogpost dazu finden sich bei Searchmetrics.

Wie funktionieren die Panda Updates?

Einige Dinge sind an den Panda Updates, besonders in den USA interessant:

  • Sie passieren plötzlich und nicht nach-und-nach
  • Sie betreffen (vergleichsweise) eine große Anzahl an Suchanfragen – einige Prozent sind insgesamt vielleicht wenig, aber für viele Seiten gehen eben 80 % des Traffics flöten
  • Sie sind Webseiten- und nicht Keywordbezogen
  • Sie sind nicht in einer kleinen Usergruppe ausrollbar und müssen anscheinend immer auf dem gesamten System live gestellt werden. Warum das so ist, weiß ich nicht. Es gibt aber keine Testgruppen, wie bei sonstigen algorithmischen Updates.
  • Daraus resultiert, dass Google einige Updates bereits zurückgenommen hat, weil die User Experience anscheinend nicht so gut war wie erhofft oder „unschuldige“ Seiten getroffen wurden

Hochqualitativer Content?

Blödsinn, der Googlebot kann keinen hochqualitativen Content erkennen! Die Bild-Zeitung ist immer noch obenauf und das „readability Level“ ist nicht für alle Teile der Bevölkerung gleich wichtig…

Das Panda Update richtet sich ausschließlich nach der User-Experience. Es ist trivial, denn die äusseren Anzeichen sind meistens die Pageviews pro Besucher und die Absprungrate, jeweils verglichen mit der Konkurrenz. Das Ganze wurde noch gepaart mit einer erhöhten Strafe für Duplicate Content. Besonders interner (!) duplicate Content wird massiv von Google beobachtet. Wer viele, sich wiederholende Seitenelemente hat (dazu gehören auch Sachen wie Versandinformationen etc.), der hat keine guten Karten.

Daraus lässt sich auch schliessen, dass Shopping Club 1 verloren hat, Shopping Club 2 aber nicht. Ebenso verhält es sich mit Newsseite 1 vs. Newsseite 2 oder Preisvergleich 1 vs. Preisvergleich 2. Das Update hängt also nicht vom Thema ab, sondern es werden in vielen Branchen die schlechtesten Teilnehmer aussortiert.

Trotzdem…

Die Ursache liegt meistens im Content. Damit will ich sagen: Auch wer keine genauen Kenntnisse über die Panda Algorithmen hat, der kann aus der Panda Penalty wieder herauskommen, wenn er das befolgt, was Google will: Guten und qualifizierten Content bereitstellen. Wer natürlich genau analysiert, der kann sich Zeit und Geld sparen, indem er einfach algorithmisch besser aussieht. Meistens sind diese Maßnahmen dann aber auch für den User sinnvoll.

Vier Dinge, die man sich ansehen sollte

Google hat bei vier wichtigen Kennzahlen in den letzten Monaten die Schraube angedreht:

  • Seiten pro Besucher
  • Absprungrate
  • Linktexte
  • Duplicate Content

Wer in diesen Zahlen „sauber“ ist, der hat vor Panda nichts zu befürchten. Wobei ich mir auch nicht sicher bin, ob DC und Linktexte Panda-Update-relevant sind oder nicht: Trotzdem sind diese Faktoren auch sehr wichtig. Wer in einer der vier Kennzahlen weit schlechter da steht als die Konkurrenz, der sollte mal an seiner Seite arbeiten. Denn bei hier gibt es momentan „knallharte“ Abstrafungen, also keine leichten Rankingveränderungen, sondern Totalabstürze. Eure Meinung?

Foto: © macnai – Fotolia.com

Jetzt teilen: Share on Facebook3Tweet about this on TwitterShare on Google+2Email this to someoneShare on LinkedIn5

E-Book: Der Weg zum erfolgreichen Online Shop

  • Das 47-seitige E-Book mit 72 konkreten Tipps für Deinen Online Shop
  • Einmal wöchentlich exklusiver Content für das Marketing Deines Shops
  • Unser Newsletter (1-2x pro Woche)
E-Book kostenlos downloaden

28 Kommentare

  • „Wer in diesen Zahlen “sauber” ist, der hat vor Panda nichts zu befürchten.“

    Zumindest bei der Absprungrate möchte ich widersprechen, hab schon reichlich Beispiele gesehen, bei denen die Absprungrate relativ niedrig war, teilweise unter 40%, und es hab dennoch eine Abstrafung.

  • Julian

    Hi Björn,

    Da hast Du Recht. Ich habe auch hohe Absprungraten gesehen, die nicht abgestraft wurden. Ich denke, die kann man getrost rausnehmen.

  • Zu ersteinmal wieder ein interessanter Artikel.
    Ich finde es bemerkenswert wie oft Absprungrate und Pageimpressions genannt werden. Ich denke wenn überhaupt was von Google geprüft werden kann ist es die Back-to-Serp Rate. Wie denkst du sollen von Google die Seiten pro Besucher oder die Absprungrate erfasst werden können? Ich bezweifle dass Daten aus Analystics oder User Experience vom Chrome oder der Toolbar effektiv in die Serpberechnung genutzt werden.

    In meinen Augen ist das Hauptkriterium der von die angesprochene interne DC

  • Maike

    Warum finden sich dann in den Listen der Verlierer immer wieder „saubere“ Content-Portale wie aktuell heimwerker.de? Man vermutet einen Grund in der Monetarisierung (AdSense) – der wird in diesem Blogpost gar nicht aufgeführt. Ist da etwas dran? Was können solche Portale eurer Meinung nach anders machen; sprich: wie die user experience erhöhen?

  • Hallo.
    Mir ist leider das mit dem internen Duplicate Content nicht so richtig klar geworden. Ich bemühe mich zwar möglichst viele Synonyme zu finden, aber wenn zB der Versand nunmal immer 1€ kostet, dann muss ich das doch in jeden Artikel wieder reinbringen? Ich kann ja nicht davon ausgehen, daß die Besucher die anderen Artikel zum Shop kennen.
    Und wenn ich auf der Seite in der Sidebar aktuelle Artikel aufliste und die eventuell auch noch in der Hauptspalte sind, ist das dann auch interner Duplicate Content? Ich stehe da irgendwie auf dem Schlauch. 🙂
    Für Aufklärung wäre ich dankbar.
    Gruß, Max

  • Julian

    @Maike: Heimwerker.de hat wirklich sehr viel Werbung. Allein der Adsense-Block in der linken Seitenleiste zeigt, dass sie Usability-Fehler in Kauf nehmen, um viel durch Werbung zu verdienen.
    @Max: Genau so ist es leider. Ein Kunde hat neulich in den Footer viele zusätzliche Informationen zum Versand etc. geschrieben: Schwupps ging es bei vielen Keywords bergab (für die wir seit 2 Jahren betoniert waren). Die Sache ist natürlich: Wenn dieser DC dafür sorgt, dass Deine Besucher mehr Seiten ansehen, dann ist der Effekt ja aufgehoben.

  • mfritzonline

    @Björn, Julian: Ich denke es geht Google um die Absprungrate, von der Sie auch die meisten Daten haben, nämlich von SERP zur Website und zurück zur SERP. Ich denke das fließt schon mit ein und kann sich auch gehörig von der Bounce Rate der gesamten Seite unterscheiden (Email Kampagnen und Type-in Traffic haben natürlich eine viel geringere Absprungrate)

    Von daher kann man sie nciht einfach rausnehmen, mit Toolbars etc. könnte man auch die Overall-Absprungrate messen, aber hier sind die Daten einfach nicht ausreichend.

    BTW: Julian, super Artikel – vor allem wie die den Unterschied zu anderen Updates herausstellst.

    Gruß,
    Michael

  • Julian

    [quote]Ich finde es bemerkenswert wie oft Absprungrate und Pageimpressions genannt werden. Ich denke wenn überhaupt was von Google geprüft werden kann ist es die Back-to-Serp Rate. Wie denkst du sollen von Google die Seiten pro Besucher oder die Absprungrate erfasst werden können? Ich bezweifle dass Daten aus Analystics oder User Experience vom Chrome oder der Toolbar effektiv in die Serpberechnung genutzt werden.[/quote]
    Einfache Antwort: Ich rede von Absprungrate, weil ich die „Back-to-Serp“ Rate nicht sehen kann. Sicher wird Google diese Rate sehr stark einfliessen lassen.

  • Tom

    Wäre es dann eine Lösung den Footer in einen iframe zu packen?

  • Julian

    Pfui, bloß keine iframes! Technisch wäre das vielleicht eine Lösung – aber es gibt 1000 gute Gründe, warum man 2011 nicht mehr mit Frames arbeiten sollte.

  • naja wenn man sich mal einige dieser Content Wüsten anschaut muss man sich nicht wundern, Content is King die Zeiten sind vorbei zumindest für solche 400 Wörter Artiikel ohne Bild, Tabelle, Video, Anker s etc. Bei Projekten die durch das am Do/Fr ausgerollte update gewonnen haben sieht man das viele Zusatz Informationen eingebaut wurden auch wenn diese kurzen Werte teilweise DC sind! Es kommt eher auf die Art an wie Sie eingebaut und ausgegeben werden! Obwohl ich bei einigen Projekten auch das Gefühl habe es wurden einfach die Werte von Mai/Juni eingeschoben gerade da viel Minderwertiger Inhalt in manchen Gebieten wieder nach vorne gekommen ist

  • Was genau bedeutet Linktexte ?

  • Meiner Ansicht nach ist die Absprungrate kein Grund, um ein Kandidat für Abstrafungen zu werden. Im klassischen Sinne heißt es zwar, dass sie darauf hinweist, dass die Besucher diese Seite nicht als relevant ansehen, bei manchen Seiten ist es aber genau umgekehrt – hier finden Besucher gleich alle Informationen, die sie benötigen und können die Seite entsprechend wieder verlassen.

  • Julian

    @Thom: Eine Penalty durch zu viele gleiche Linktexte.

  • Hallo.
    Mal ganz ehrlich: Für Affiliate Webseiten ist das doch nicht angemessen. Ich schreibe die Texte selber, lasse keinen Feed reinlaufen, formuliere sogar die Angebotstexte um und habe dummerweise gar keine andere Möglichkeit als ähnlich klingende Linktexte zu nehmen. Und, bumms gibts ne Strafe? 🙁
    Gruß, Max

  • Naja, ich glaube das mit der Absprungrate sollte man differenzierter sehen. Eine große Absprungrate ist nicht immer schlecht. Findet der Besucher alle gewünschten Informationen auf meiner Seite und wechselt dann zurück zu Google, dann habe ich unter Umständen eine sehr hohe Absprungrate. ABER: ich denke man muss natürlich auch berücksichtigen, wie lange der Besucher auf meiner Seite verweilt. War der User 50 Sekunden auf meiner Seite und hat sich den kompletten Inhalt durchgelesen und das ein oder andere Bild angesehen und war dann mit allen Informationen versorgt, ist das sicher ein großer Unterschied zu einem Besucher, der nach 2 Sekunden feststellt: hey, hier find ich einfach nicht die Information die ich suche, ich geh zurück zu Google. Beide User haben aber unter Umständen meine Seite nach dem Besuch nur einer einzigen Seite verlassen. Der eine weil er gefunden hat was er suchte (wird anschließend evtl. nach etwas anderem suchen, z. B. landet er mit einer informational search auf meiner Seite und hat sich nach der Lektüre meiner Landingpage für das dort vorgestellte Produkt entschieden, dann sucht er vielelicht jetzt in Google nach dem Produktnamen um dieses zu kaufen). Der andere kehrt eben zu Google zurück, weil er eben NICHT gefunden hat, was er suchte. Ich denke diese beiden Fälle sollten unterschieden werden. Wir sind deshalb der Meinung, dass die Absprungrate an sich nicht immer gut oder schlecht sein muss. Es kommt vor allem wohl auf die Verweildauer an. Hält sich ein Besucher lange auf meiner Seite auf, ist das für Google ein positives Zeichen – klingt ja logisch, oder? Was meint ihr dazu bzw. was meinst du dazu Julian?

  • Ich habe jetzt gerade ganz aufmerksam alles Kommentar gelesen und schließe mich einerseits der Meinung an das die Verweildauer ein entscheidendes Kriterium ist. Aber die Verweildauer kann aber auch extrem kurz sein wenn ein User z.B. Nach einem Sportergebnis sucht und dies sofort findet dann ist er maximal ein paar Sekunden auf der Seiten und zusätzlich geht er danach evtl. Auch noch direkt zurück zu Google. Was jetzt für Google bedeuten würde das alles sehr schlecht ist! Aber der User hat ja genau das gefunden was er gesucht hat und ein normaler User benötigt halt nicht länger um zu Erfahren wer gewonnen hat. Ein anderer User kommt auf die gleiche Seite und findet nicht das was er sucht und ist dann in der gleichen Zeit wieder weg.
    Nun stellt sich mit die Frage wie Google diese zwei User unterscheiden will!?

  • Ich sehe das genau so wie Bernd und Chris:
    Die Absprungrate sollte man differenziert betrachten. Auf gute Seiten findet man schnell was man sucht, danach ist man auch schon wieder weg.

    Auf schlechten Seiten dauert es oft ewig bis man das gefunden hat was man sucht. Und man hofft diese nie wieder sehen zu müssen – das nächste Mal auf einer anderen Seite fündig zu werden…

    Entscheidend ist doch, ob der Besucher regelmäßig zurückkehrt, das würde tatsächlich Sinn machen, wenn dieser Aspekt von Google berücksichtigt werden würde.
    VG
    Ralf

  • Hochqualifizierte Content = Blödsinn ? Naja, dass ist wohl doch ein wenig weit her geholt. Der Post liest sich auch als würdest du den Schlüssel kennen. Du kennst ihn nicht. Also bleibe doch bei der bescheideneren Art 😉

  • Qualität von Content liegt im Auge des Betrachters! Und vielleicht sollte man Google nicht immer so vermenschlichen! Das ist nur ein Bot dessen Horizont aus 0 und 1 besteht und so ist die Qualität auch nur ein Algorithmus. Wenn man sich mal die Verlierer und Gewinner so anschaut fällt auf das viele Content Wüsten bei denen die einzigen Zusätze Bunte Werbung sind verloren haben, im Gegensatz zu den Gewinnern wo viele Zusätze zum Content zu finden sind Tabellen, Bilder, Aufzählungen, Videos etc.. Weswegen ich denke das zusätzliche Aufarbeitungen des Contents wie auch das User verhalten vielleicht etwas stärker ins Gewicht fallen und dafür das Thema Links etwas nach hinten rutscht! Aber das sind alles nur Ideen letztendlich können wir in ein paar Wochen vielleicht mehr sagen

  • Susann

    Ich denk auch mal, dass die Kombi aus Verweildauer und Absprungrate relevant ist. Wenn ein Großteil der Leute nach ein paar Sekunden abspringt bedeutet das, dass der Content nicht zum Suchbegriff gepasst hat.

    Also es macht keinen Sinn auf etwas zu optimieren, dass er User dann nicht bekommt. Steigt der User schnell aus ist auch über kurz oder lang das Ranking weg.

    Dass die ganze Website verliert und nicht einzelne Rankings kann ich mir dahingehend erklären, dass G. die Links entwertet oder dämpft, die das Ranking bei verschiednenen Keys hoch gebracht haben. Diese Links waren ja offensichtlich nicht gut im Sinne des Suchenden. Sonst hätte ja Key und Content zusammen gepasst.
    Und wenn eine Website weniger Links hat …
    D.H. man sollte auch nur Links auf guten Content setzen … alles andere ist zwecklos

  • Julian

    @Seonaut: Der Schlüssel steht doch oben??
    Seiten pro Besucher
    Absprungrate
    Linktexte
    Duplicate Content
    Noch einige andere Sachen, aber aus Panda kann man definitiv rauskommen. Ist nur eine Frage des Willens / der Möglichkeiten der jeweilige Webmaster.
    @Alex: Ganz einfach: Der User, der sein Ergebnis gefunden hat, sucht dann nach etwas Anderem. Der User, der nicht zufrieden war klickt auf das nächste Suchergebnis.

  • Ich denke, wenn man seine Aufgabe mit der eigenen Seite richtig und gut gemacht hat, braucht man sich auch nicht vor Panda zu fürchten!!!

    Meist hatte eine Abstrafung sowieso mit eigenen Fehlern zu tun…auch wenn man die fehler in der Öffentlichkeit nicht wirklich zugibt.

    Die von Panda erwischt worden sind schreiben nur das in der Öffentlichkeit was vermutet wird…doch wenn man etwas falsch gemacht hat was gegen die Google Richtlinien war, gibt man diese sowieso nicht zu und man behauptet dann…na ich habe ja nichts gemacht…oder…bin zu unrecht erwischt worden!

    Schön sauber arbeiten, dann klappt es auch mit Panda!

    MfG

    Meli

  • joo

    Hallo
    ich habe mir gerade mal handwerker.de angeschaut und das wurde definitv wegen der vielen werbung abgestraft. Google hat erkannt das die nicht mehr seroös genug ist um guten content zu liefern und gut ist. Schaut mal gleich links oben ein link zu gartencenter, dann links adsense… usw Ich hätte die Seite auch von hand abgestraft abgestraft weil das verhältnis einfach nicht mehr stimmt. Überall Bilder, keine usability…

  • Woran genau erkenne ich internen Duplicate Content, gibt es da ein Tool oder sowas?

    Mit den Linktexten sind also externe Anchor gemeint ja?

    Habe eigentlich viele Seitenaufrufe pro User und ca 20 – 30% Absprungrate.

    Was soll ich nun tun? Es hat irgendwie nur das Hauptkeyword erwischt, worüber aber die meisten User kamen, vielleicht hat es bei nur dem Hauptkey mit Panda ja auch nichts zu tun?

    Zuviele Ads spielen Eurer Meinung nach keine Rolle?

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.

Willst Du fit in SEO werden?

Abonniere unseren Newsletter und bleibe in Sachen SEO, Inbound- & Online-Marketing auf dem Laufenden.

Du kannst den Newsletter jederzeit wieder abbestellen.