Search Engine Ranking Factors 2011 & Mein Senf – Teil 2

8. Juni 2011  |   ,  |  12 Kommentare
Ein Beitrag von Julian Dziki

Und weiter geht es, dieses Mal mit Onpage-Kriterien.

Domainname: Bindestriche, Zahlen, Länge

Diese drei Faktoren sind kaum wichtig, wie die Daten auch zeigen. Und auch wenn es ganz leichte Abweichungen gibt, so sind sie auf die Tatsache zurückzuführen, dass Webmaster mit Bindestrich-Domains oft eher Amateure sind, als jemand mit einer generischen Domain. Daher sagen die Daten auch (ganz leicht) aus, dass eine Domain mit Bindestrichen oder Zahlen im Domainnamen leichte Rankingnachteile hat.

Domainweite Onpage Faktoren

Das hier sind wieder Expertenmeinungen ohne Algorithmus. Und diese beiden sind die wichtigsten Faktoren – das überrascht mich schon ein wenig. Während ich die Unique Content Theorie verstehen kann, auch wenn es krasse Ausnahmen gibt (Aggregatoren), so kann ich mit „Freshness of Content“ kaum etwas anfangen. Welcher Online Shop wechselt täglich seinen Content? Außerdem habe ich auch Contentprojekte mit fortlaufenden Beiträgen, die nach Einstellen der Contentproduktion nichts an Rankings verloren haben. Natürlich gibt es Ausnahmen, etwa wenn eine Tatsache nicht mehr stimmt, weil sie veraltet ist. Aber im Großen und Ganzen würde ich Freshness of Content ganz weit unten einfügen, auf keinen Fall als zweitwichtigsten Faktor.

Bounce Rate, CTR und Fehler auf der Seite

Bounce Rate

Die Bounce Rate als nächster wichtiger Faktor ist wohl ein wenig allgemein beschrieben worden. Besser wäre hier „User Experience“ gewesen. Denn (beliebtes Beispiel): Ich suche danach, wie hoch die Zugspitze ist. Ich klicke auf das Ergebnis, die Webseite zeigt sofort die Information und ich verlasse die Seite sofort wieder, weil ich meine Suche beendet habe. Das war dann aber eine „satisfied search query“, ich bin also zufrieden. Hier meinten die Experten mit Sicherheit auch eher „unsatisfied queries“, also wenn jemand nicht das gewünschte findet. Wenn die Frage so gestellt ist, dann sage ich auch im Zweifel lieber ja, als die Bounce-Rate völlig außer Acht zu lassen.

CTR

Dass die CTR für die gesamte Domain ein Rankingfaktor sein soll, ist interessant! Da wird doch gleich mal ein Test gestartet. Bisher dachte ich immer, dass es (nur) für jede Suchanfrage extra berechnet wird. Wenn diese Daten aber aggregiert ein gutes Ranking ausmachen, dann muss man eher darauf achten alle Landingpages mit tollen Titles auszustatten als nur seine Conversionpages.

Quantity of Error Pages

Klare Sache: Hier geht es insbesondere um die Crawling Fehler in den Google Webmastertools. Daher sollte man alle Fehler entfernen, besonders Sachen wie „Doppelte Titles“ (= Duplicate Content).

Weitere Faktoren

Das Alter einer Domain spielt in meinen Augen heutzutage nur noch eine sehr untergeordnete Rolle. Das Alter der Links, die auf die Domain zeigen ist eher interessant. Dazu passend sind noch Aussagen wie „Zeitraum, seit dem die Domaininhaberdetails gleich geblieben sind“. Ein paar Änderungen machen da sicher nichts, aber „Wanderpokale“ sind oft Expired Domains die Google erkennt. Bei .de-Domains gilt das übrigens nicht, weil Google hier keinen Zugriff auf Registrierungsdaten hat. Sie haben ihn zwar theoretisch schon (Google is Registrar). Die Denic verbietet jedoch Massenabfragen in dieser Hinsicht. Für .com , .net und .org Domains gilt das nicht!

Die Ladezeit ist wie bereits neulich erwähnt auch ein großer Faktor – oder kann zumindest zu einem solchen werden. Google misst das laut den Experten mit zwei Methoden: Einmal die grobe HTTP-Response Time, dann noch die Userdaten.  Die Anzahl der 404 Seiten, die von außen verlinkt werden sind sicher ein guter Faktor, auch wenn ich es nicht als sehr wichtig ansehen würde. Man verschenkt damit eben Linkpower.

Die Qualität der anderen Seiten auf dem gleichen C-Block ist sicher auch ein gewisser Faktor. Viel wichtiger wäre mir aber die exakt gleiche IP-Adresse und außerdem die Host-Details. Ich denke, dass Google auch sehen möchte ob man auf einem Shared Server sitzt, oder auf einem High-End-Server. Google bannt auch ganze IP-Adressen aus den Suchergebnissen – aber nur, wenn es dafür auch einen sehr guten Grund gibt.

Bist du eine Authority Domain / Trusted Domain?

Sehr interessant ist folgende Grafik, weil sie aufzeigt wie Google Trusted Domains erkennt. Wichtig ist hierbei, dass in der Grafik alles Linkbasierte herausgenommen wurde, was doch einen sehr großen Teil ausmacht. Es geht hier also nur um Content oder linkunrelevante Faktoren. Bei Facebook & Co. ist dabei die Nennung gemeint, nicht der Link!

Suchvolumen nach dem Domainnamen: Ich habe auch das Gefühl, dass das ein riesiger Faktor ist. Allerdings: Wenn ich eine Marke bin (und das hat viele Nebeneffekte), dann werde ich auch oft gesucht. Das Suchvolumen kann deswegen genauso gut die Wirkung sein und nicht die Ursache.“Mentions“ sind in Deutschland noch gar nicht angekommen und sollten eigentlich einen eigenen Artikel verdienen. Google wertet heutzutage selbstverständlich nicht nur Links aus, sondern auch bloße Erwähnungen. Viele Newsseiten verlinken nur noch sehr sporadisch, weswegen Google hier reagieren musste.

Natürlich wird auch das Userverhalten stark in das Trust-Ranking mit einfliessen. Und Wikipedia ist sowieso eine sehr gute Link- und Trustquelle.

Wo bin ich?

Diese Faktoren, wie z.B: „Webseite hat eine Facebook Seite“ oder andere Faktoren (eingedeutscht): „Webseitenname ist eine GmbH“ werden viel vom Trustranking ausmachen. Und das sind bei weitem nicht alle Faktoren: Google wäre blöd, wenn sie nur sechs verschiedene Quellen auswerten würden, denn es gibt viel mehr. In Deutschland ist sicher noch Xing dabei, außerdem vielleicht noch die Gelben Seiten oder andere Unternehmensressourcen. Insgesamt gibt es wohl hunderte Webseiten, bei denen Google relevante Daten finden kann. Google will im Prinzip herausfinden: „Meinen die es ernst oder sind sie nur halbherzig bei der Sache?“

Theorie: Ich persönlich bin fest davon überzeugt, dass Google auch Nachrichtenmagazine auswertet. Und damit meine ich keine Onlinemagazine, denn das ist sowieso klar. Nein, mit Sicherheit scannt und crawlt Google auch viele Printerzeugnisse in Deutschland. Viele haben beispielsweise auch eigene Rubriken à la „Webtipps des Monats“. Da wäre Google schön blöd, sich diese unglaublich Trusted Quellen entgehen zu lassen. Vom Redakteur ausgesucht, vom Chefredakteur geprüft – was gibt es besseres? Und falls Google es noch nicht macht, dann werden sie es bald tun. Aber wenn ich ein Projekt wie „Google Books“ hätte, würde ich auch mal probieren ob man diese Daten für einen guten Algorithmus verwenden kann. Deswegen: Versucht in Büchern zu erscheinen!

Bildquellen und Daten von http://www.seomoz.org/article/search-ranking-factors

Jetzt teilen: Share on Facebook0Tweet about this on TwitterShare on Google+0Email this to someoneShare on LinkedIn4

E-Book: Der Weg zum erfolgreichen Online Shop

  • Das 47-seitige E-Book mit 72 konkreten Tipps für Deinen Online Shop
  • Einmal wöchentlich exklusiver Content für das Marketing Deines Shops
  • Unser Newsletter (1-2x pro Woche)
E-Book kostenlos downloaden

12 Kommentare

  • Hallo Julian,
    wieder eine sehr gute Interpretation und Weiterführung der SEOmoz-Basis – vielen Dank dafür. Nur klitzekleine Anmerkung: „Ich habe xyz gemacht (bzw. den Content schon lange nicht mehr aktualisiert) und nichts ist passiert, also kann das kein so ganz großer Faktor sein“ mag in diesem speziellen Fall (Freshness of Content) durchaus richtig sein. Ich denke allerdings, dass man in Anbetracht der Fülle der Faktoren, der Unterschiedlichkeit der Geschäftsmodelle bzw. Website-Arten und der Tatsache, dass es letztlich doch darauf ankommt, ob die direkte Ranking-Konkurrenz sich im jeweiligen Bereich bzw. beim jeweiligen Faktor besser oder schlechter entwickelt hat (dass es also um relativ und weniger um absolut geht), das Thema „Rankingfaktor-Rankings“ zwar sezieren kann und auch sollte, aber gleichzeitig den Helikopter-Blick beibehalten muss. Freue mich auf den Rest Deiner Reihe.
    Viele Grüße, Markus

  • Sergej Müller

    Julian, danke dir für die Auswertung, Details und Theorien.

  • Hallo Julian,

    danke für den zweiten Teil der SEO Studie inkl. Deiner deutschen Auswertung. Prädikat: extrem wertvoll!

    Gruss
    Daniel

  • Hi Julian,

    danke für Die Mühe, sehr lesenswert!

  • Hi Julian.

    Von mir auch vielen Dank für deine Mühe! Sehr interessant zu lesen 🙂

    Beim Thema Freshness of Content kann ich aus meiner Erfahrung sagen, dass es durchaus Sinn macht, hier hin und wieder aktiv zu werden. Bei einem Projekt von mir war das Ranking leicht gefallen (von 1 auf 2). Die Seite war über 1 Jahr auf 1, es wurde in der Zeit wenig an der Seite getan, irgendwann fiel sie auf 2 ab. Dann kam wieder etwas neuer Content hinzu und schwupps, war sie 2 Tage später wieder auf 1. Das gleiche ist dann nochmal ein halbes später genauso abgelaufen – der neue Content zeigt immer eine gute Wirkung. Mittlerweile bekommt diese Seite gelegentlich frischen Content und hält das Rsnking jetzt schon 2,5 Jahre auf 1. Sicher hat diese Domain mittlerweile auch einen guten Trust, allerdings gibt es diese auch erst seit 3 Jahren (Thema Domainalter!).

    Bei einem anderen Projekt habe ich ähnliche Erfahrungen gemacht. Sind aber alles deutsche Projekte, ich weiß nicht, wie das anderswo ausschaut.

    Liebe Grüße
    Kathrin

  • Hallo Julian,

    Sehr schöner Stil, vor allem die eigene Meinung finde ich klasse.

    Wenn Mentions für das Ranking zählen, dann eine Gegenfrage: Viele große Medien schreiben über „Expedia“ und verlinken nicht. Welche Domain von Expedia kriegt den Boost? Expedia.com, Expedia.fr oder doch Expedia.de?

    Viele Grüße,
    Jonas

  • Julian

    Hi Jonas,

    Da Google das Problem noch nicht einmal in der Kombination „Trust-Links“ heraushat (US-Links können deutschen Seiten Trust bringen), so glaube ich schlichtweg, dass sie da einfach noch nicht unterscheiden.

  • Hallo Julian,

    vielen Dank für Deine Arbeit. Es macht Spass Deine Texte zu lesen und Sie helfen mir bei der täglichen Arbeit. Schöne Pfingsten, beste Grüße
    Rene

    PS: Wie stehst Du zum Kampf zwischen Besucher abholen (Social Media) v free Traffic (SEO)?

  • Julian

    Hi rene,

    Was für ein Kampf? Man sollte meiner Meinung nach beides machen. Social Media hat auch viele andere Funktionen (Markenbindung etc.) und ist nicht direkt zum Verkaufen geeignet.

  • Hallo Julian,

    schöne Zusammenfassung. Ich kann deine Skepzis bezüglich freshness of content verstehen. Vielleicht sollte man diesen Faktor eher aus Google News SEO Gesichtspunkten und dem Fakt, dass stets guter fresher Content zu inks führt sehen.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind markiert *

Willst Du fit in SEO werden?

Abonniere unseren Newsletter und bleibe in Sachen SEO, Inbound- & Online-Marketing auf dem Laufenden.

Du kannst den Newsletter jederzeit wieder abbestellen.