Searchmetrics Ranking Faktoren 2014: Onpage und Content

10. September 2014  |     |  12 Kommentare
Ein Beitrag von Julian Dziki

Markus Tober und das Team von Searchmetrics bringen seit 2012 jedes Jahr eine Studie heraus, in der sie zeigen, welche Gemeinsamkeiten gut rankende Domains bei Google haben. Und anschließend gebe ich jedes Jahr immer meinen persönlichen Senf dazu ab, das hat Tradition. 🙂

ranking-faktoren-searchmetrics

Edel: Die Rankingfaktoren sollte man ausdrucken und binden lassen! 🙂

Datenbasis

Searchmetrics geht folgendermaßen vor: Aus einem Set von 10.000 möglichst trafficstarken, laut Searchmetrics „informationsorientieren“ Keywords werden jeweils immer die 30 am besten rankenden Domains extrahiert und dann auf diverse Gemeinsamkeiten (Anzahl Backlinks / Contentlänge etc.) untersucht. Dabei zeigen sich oft eindeutige Ergebnisse, etwa, dass Seiten mit mehr Backlinks weiter oben stehen.

Kritik an der Datenbasis

Ich will die Studie auf keinen Fall schlecht reden. Sie ist wunderbar gemacht und aufbereitet und ich bin sicher, dass Marcus mit den Daten sorgfältig und exakt umgegangen ist. Allerdings gibt es schon einige Kritikpunkte, die man nicht unerwähnt lassen sollte. Das wären zum Beispiel die Keywords: Trafficstarke Keywords, wie in dieser Studie untersucht, unterliegen (meiner Erfahrung nach) anderen Algorithmen als Keywords mit weniger Suchvolumen. Was für Keywords wie „Iphone 6“ gilt, muss also nicht für „Fischzucht Hasenbergl-Ost“ gelten. Die Rankingfaktoren für „kleinere“ Keywords können also durchaus anders sein.

Auch die Art der Keywords ist eine spezielle: Auf Seite 10 spricht Searchmetrics davon, dass „informationsorientierte“ Keywords verwendet wurden. Neben der Suche nach reiner Information, gibt es neben diesen noch transaktionssorientierte Keywords, die für viele SEOs am wichtigsten sind. Statt auf „Iphone 6 Informationen“ optimieren viele SEOs auf „Iphone 6 kaufen“, weil hinter dieser Suchanfrage ein Kaufwunsch steckt und das Keyword dementsprechend mehr bringt. Ich weiß nicht, ob das nur falsches Wording von Searchmetrics war, oder ob tatsächlich nur informationsorientierte Keywords abgefragt wurden. Sollte dem so sein, dann wären die Ergebnisse wieder anderen Algorithmen unterworfen. Und auch die untersuchten Webseiten wären statt Online Shops eben dann größtenteils Info-Portale und Nachrichtenseiten, was natürlich besonders hinsichtlich der Backlinks eine völlig andere Datenbasis zeigen würde. Denn ein Shop hat weniger Backlinks und in der Regel auch andere Backlinks als ein Nachrichtenportal.

Trotzdem…

Ich bin überzeugt, dass Searchmetrics gewissenhaft gearbeitet hat. Die Studie war sicherlich eine Menge Arbeit, zudem macht niemand sich sonst in Deutschland die Mühe. Ich vergleiche die Ergebnisse der Studie mit meiner praktischen, täglichen Erfahrung und gebe Searchmetrics in vielen Punkten recht. Ich drucke nicht umsonst 100 Seiten aus und lasse sie binden, ich finde diese Studie sollte jeder im SEO Bereich lesen. Behaltet aber bitte im Hinterkopf, dass die Daten von einem Dritten stammen.

Kausalität ist NICHT Korrelation

Es ist jedes Jahr die gleiche Leier, trotzdem scheinen manche Individuen es einfach nicht zu kapieren. Es geht um den Unterschied zwischen Kausalität und Korrelation.

Eine Website ist wirklich toll, informativ und hat erstklassigen Content. Deswegen rankt sie auf Platz 1 für ihr Keyword. Gleichzeitig hat sie verständlicherweise viele Facebook Fans, viele Twitter Follower und insgesamt viele Social Signals – weil sie eine gute Website ist. Untersucht man zehntausende von Webseiten, so wird man sicher merken, dass die oberen Positionen meistens mehr Shares, Likes und Tweets haben als die unteren. Das bedeutet aber nicht, dass man Shares, Likes und Tweets für ein gutes Ranking braucht (Kausalität), sondern es ist einfach so, dass gute Seiten meistens ein gutes Google Ranking haben UND gleichzeitig auch viele Fans / Likes / Tweets (Korrelation).

Nach der ersten Rankingfaktoren Studie von Searchmetrics (und auch der von Moz) zogen viele Webmaster fälschlicherweise den Schluss, dass Facebook Shares ein positives Rankingsignal seien.

 Onpage Faktoren

Keine gute Nachricht für Domainer: Die Wichtigkeit einer Keyworddomain für das Ranking hat weiterhin abgenommen. Im Vergleich zu den Studien aus 2012 und 2013 ist der Rankingfaktor „Keyword in Domain“ kaum mehr wichtig.

keyword-in-domain

Immer weniger Keyworddomains in den Top30 bei Google

Aus meiner Sicht kommt hier jetzt ein großes „Aber“: Ich vermute nach wie vor, dass Keyworddomains einen gar nicht mal so kleinen Rankingvorteil haben. Aus eigener Erfahrung kann ich aber die Entwicklung hier bestätigen. 2010 etwa hatte ich noch eine Menge sehr gut rankender Keyword-Domains. Diese hatten teilweise nur eine Seite Content und wirklich schrottige Inhalte. Über die Jahre sind diese Seiten allesamt abgeschmiert, die letzten so etwa letztes Jahr.

Von solchen Domains gab es nicht nur meine, sondern jeder SEO hatte sie. Ich denke, dass genau diese Seiten besonders abgestraft wurden, zumindest sehe ich sie nur noch sehr selten. Trotzdem sollte man sich die Frage stellen, ob es Sinn macht, eine Keyword Domain für sein Projekt zu benutzen. SEO Faktoren sind da nicht so wichtig, toll sind beispielsweise auch Effekte bei Radio- oder TV-Werbung, siehe etwa die Werbung für „Reisecom“. Keyword Domains sind einfach zu merken!

 Position des Keywords im Title und Keyword in Überschriften

Hier zeigt sich eigentlich nichts Überraschendes. Je weiter vorne das Keyword im Title steht, desto besser ist das Ranking. Dieser Faktor hat sogar leicht zugenommen.

position keyword im title

Hat seit 2012 zugenommen: Das Keyword ist in den Top 30 nun öfter an vorderen Positionen.

Ich vermute allerdings, dass es weniger damit zu tun hat, dass die Position des Keywords im Title mehr in den Algorithmus mit einfließt, sondern eher damit, dass mehr und mehr Webseiten diese SEO-Grundregel beachten, auch die großen Brands. Das war 2012 noch nicht so häufig der Fall wie 2014. Aber diskutieren brauchen wir das nicht: Das Keyword kommt nach vorne im Title, basta. Bis auf wenige Ausnahmen sollte man es so handhaben. Nur Unternehmen wie Amazon handhaben das seit Jahren anders, denn die Marke „Amazon“ erhöht die Klickrate dermaßen, dass dieser Faktor (Klickrate) überwiegt.

Keywords in Überschriften sind laut der Studie sogar eher seltener auf den ganz vorderen Plätzen zu sehen. Meine Meinung dazu ist – wie schon lange – dass man H1 und H2 beachten sollte, sie aber nicht übermäßig in das Ranking mit einfließen.

Seitenladezeit

Die Seitenladezeit (S. 22 -24) wurde dieses Mal ohne Wikipedia berechnet und zeigt schon einen interessanten Fakt.

„[…] wobei die Seiten, die auf den ersten drei Positionen ranken, sich noch einmal um im Schnitt bis zu 7-8 Hundertstelsekunden schneller aufbauen. Die durchschnittliche Ladezeit einer Domain […] in den Top 30 beträgt 0,76 Sekunden.“ (S. 23)

seitenladezeit

Da die Seitenladezeit auch einen großen Einfluss auf das Uservehalten darstellt, scheint das also weiterhin (und dauerhaft) ein sehr wichtiger Faktor zu sein. Keine Überraschung und auch hier gilt: Je schneller, desto besser!

Content: Holistischer, relevanter Content ist das A und O im Jahr 2014

„Content is King“ schwirrt seit Urzeiten als Phrase durch viele SEO-Köpfe. Meine Einschätzung ist, dass Content gerade in jüngster Zeit massiv an Bedeutung gewonnen hat. Google versucht immer mehr, Dokumente für sich alleine bewerten zu können, ohne auf externe Faktoren zurückzugreifen, die man bekanntlich gut manipulieren kann.

content

Content Faktoren haben deutlich an Bedeutung gewonnen.

In der obigen Grafik sieht man weitere Indizien dafür, dass Content wichtiger (für den Algorithmus) geworden ist. Auf den Seiten 29 bis 34 gibt Searchmetrics dann einen kurzen Exkurs, wie Google versuchen könnte, den Content zu bewerten. Korrelierende Keywords, Proof- und Relevant Terms und Kookkurrenzen werden erklärt und analysiert. Ich finde diesen Teil in der Studie besonders interessant.

Gleichzeitig muss ich dazu drei Dinge loswerden: Erstens sollte man unabhängig von Analysen arbeiten und möglichst versuchen, einen wirklich sehr guten (holistischen) Text zum jeweiligen Topic zu schreiben. Das ist meistens besser, als nach „Proof Keywords“ und dergleichen zu suchen. Meistens sind die Texte dann – checkt man sie mit den entsprechenden Tools – auch automatisch nach diesen Kriterien geschrieben. Das gilt auch für WDF*IDF. Texte sollte man nicht nach Kurven schreiben, sondern für den User.

Zweitens sind die Tools und auch konzeptuellen Herangehensweisen wie der Flesch-Grad zwar komplex und durchaus interessant. Man sollte sich aber im Hinterkopf behalten, dass Google gerade hier an der Spitze der Entwicklung sitzt und mit Sicherheit eigene Herangehensweise von überaus klugen Linguisten besitzt, die sie aber sicher nicht mit der Außenwelt teilen.

Drittens – und das widerspricht sich eigentlich – muss man aber auch auf dem Boden bleiben. Gerade semantische Analysen sind sehr rechenintensiv. Die Grundlagen für das Semantic Web gibt es schon seit über 13 Jahren. Trotzdem kommen sie, zumindest so wie es Tim Berners-Lee vorschwebt, noch nicht einmal ansatzweise zum Einsatz. Das Problem liegt auch darin, dass die Entwicklung semantischer Algorithmen überaus kompliziert ist und man Ingenieure, Mathematiker und Linguisten an einen Tisch bekommen muss. Über diesen Zweig in der Google Entwicklungsabteilung fließt absolut keine Information nach außen. Ihr könnt Euch aber sicher sein, dass es ihn gibt und dass er wahrscheinlich nicht mit kleinem Budget ausgestattet ist.

Text: Lang ist besser?

textlaenge

Textlänge: Im Vergleich zu 2013 ranken längere Texte besser!

Bei der Textlänge hat sich in der Studie wohl ein eindeutiges Bild ergeben: Längere Texte haben ein besseres Ranking. Die erste Position mit „Brand-Faktor“ bildet meistens eine Ausnahme, aber die Positionen dahinter haben im Schnitt 800 Worte und mehr Content. Dazu zählt allerdings jedes Wort auf der Webseite, also nicht nur der reine Text. Interessant wäre dabei zu wissen, ob Searchmetrics Links auch als Content gezählt hat, oder nicht? Verlinkte Worte werden meiner Meinung nämlich nicht immer zum Content gezählt, besonders was Duplicate Content betrifft. Sonst wäre jedes Navigationsmenü in den Augen von Google Duplicate Content und ich vermute, dass sie deswegen verlinkte Worte nicht als „Worte“ zählen.

Das Gleiche zeigt sich übrigens bei Bildern (S. 38-39): Je mehr Bilder eine Webseite hat, desto besser für das Ranking.

Werbung: Negativ?

Nachdem in der Studie 2012 Werbung ein negatives Signal war, war es 2013 sogar ein leicht positives Signal. 2014 ist es wieder ein negatives Signal. Da es allerdings immer um Bereiche von 0,01-0,05 in der Spearman-Korrelation geht, kann man (meiner Meinung nach) diese Schwankungen ruhig vernachlässigen.

adsense

Adsense Integration 2012-2014

Vorteil durch Adsense auf der Seite? Weit gefehlt! Der Kampf des Adsense Teams gegen das Search Quality Team

Folgende Geschichte habe ich in Abwandlungen schon sehr oft gehört:

Sehr große Seiten mit viel Adsense Umsatz bekommen in der Regel einen persönlichen Ansprechpartner bei Google. Dieser möchte natürlich so viel Umsatz wie möglich generieren und treibt die Webseitenbetreiber meistens dazu, so viel Werbung wie möglich einzubauen – und diese so prominent wie möglich zu platzieren. Was in der Folge schon oft passierte, war, dass die Domain danach wegen zu viel Werbung von Google abgestraft wurde und in den Rankings fiel. Der Publisher rief den Adsense Ansprechpartner an, dieser wiederrum rief intern beim Search Quality Team an und bat sie, das Ranking für die Seite wieder zu verbessern.

Aber das Search Quality Team blieb hart. Zu viel Werbung bedeutet eine Abstrafung, auch wenn es sich um Adsense Werbung handelt. Da macht Google keine Ausnahme beim eigenen Produkt und schneidet sich damit letztlich ins eigene Fleisch. Wobei man aber betonen muss, dass große „Brands“ wie diverse Zeitungen anscheinend diesem Algorithmus nicht unterliegen und sich weit mehr Werbung „erlauben“ können als kleinere Zeitungen.

Fazit: Onpage und Content

Meiner persönlichen Erfahrung nach ist Onpage und Content letztes Jahr viel wichtiger geworden. Das hat Searchmetrics mit der Studie bestätigt. Überrascht hat mich vor allem der Content Bereich und dass man den Bedeutungsgewinn hier so deutlich messen konnte. Hier würde ich an der Stelle von Searchmetrics im Jahr 2015 noch viel mehr untersuchen, denn gerade die Rankingfaktoren hinsichtlich von Content werden immer komplexer. Das als kleine Kritik. Insgesamt gilt Searchmetrics aber ein großer Dank, dass sie sich jedes Jahr die Mühe für ihre Studie machen. Ihr seid großartig!

Hier geht es übrigens zur kompletten Studie, Ihr solltet sie wirklich lesen!

Morgen geht es dann mit dem zweiten Teil weiter und der Analyse von Links und Social Media.

Was ist Eure Meinung zu den Rankingfaktoren 2014?

Hier geht es zu Teil 2 der Rankingfaktoren

Jetzt teilen: Share on Facebook99Tweet about this on TwitterShare on Google+18Email this to someoneShare on LinkedIn0

E-Book: Der Weg zum erfolgreichen Online Shop

  • Das 47-seitige E-Book mit 72 konkreten Tipps für Deinen Online Shop
  • Einmal wöchentlich exklusiver Content für das Marketing Deines Shops
  • Unser Newsletter (1-2x pro Woche)
E-Book kostenlos downloaden

12 Kommentare

  • Roland

    Tja, das wird wohl so sein. Google wird geschickt aufbereiteten Content weit oben ranken lassen.

    Aber ich stelle mir eine grundsätzliche Frage. Wo finden denn die Blogs ihren Platz? Ein Blog ist ein Blog und kein Fachmagazin. Also die Blogs die über ihr Hobby, ihren Urlaub oder auch Krankheitsverlauf schreiben? Diese Blogs werden in der Regel von normalen Leuten unterhalten und nicht von SEOs.
    Diese Blogs sind authentisch und nicht „weil Google es so will Inhalte“.

    So langsam, eigentlich schon länger, wird mir Angst und Bange um das Bloggerwesen der aus Spaß bloggt und sich vor dem ersten Tastenschlag nicht einen Kurs in SEO belegen will.

    Die ersten Seiten bei Google weisen oft ähnliche Inhalte auf. Zwangsläufig ist das so, denn was soll man zum Beispiel schreiben wenn es, sagen wir um „Apfelkuchen aus Hefeteig“ geht? Oftmals findet man interessante oder unterhaltsame Beiträge ab Seite 3. Da steige ich nämlich inzwischen vermehrt ein wenn ich etwas suche.
    Wird dann mein Wissensdurst oder meine Lust nach Unterhaltung nicht gestillt, kann ich immer noch irgendein Ergebnis auf Seite eins anklicken.

  • Julian Dziki

    Hi Roland,

    Also wenn ein Blogger über sein Hobby schreibt, dann ist das ja auch eine Art Fachmagazin. Solche Blogs ranken schon teilweise sehr gut in den Suchergebnissen. Oft aber auch nicht, das liegt dann aber an Faktoren wie Postingfrequenz oder eben schon teilweise, weil die Blogger keine Grundregeln zum Thema SEO beachten.

  • Saladyn

    @Roland. Es gibt ja auch eine Blogsuche. Oder andere Suchmaschinen (faroo.com), die mehr auf Blogs spezialisiert sind und auch solche Blogs ranken lassen, die nicht SEO-Optimiert sind.

  • Nach den ganzen Google Updates und Änderungen / „Verschärfungen“ des Algorithmus, würde ich mich als Betreiber eines Produktes oder einer Dienstleistung eher mehr darauf konzentrieren meine Marke in meiner ausgewählten Nische zu stärken, statt mich ständig von Google abhängig zu machen und zu versuchen mit bestimmten Suchbegriffen oder Kombis wie „Reisen günstig“ bei Google oben zu stehen und bei den zum Teil starken Schwankungen mitzufiebern.
    Und genau das schafft man eben nur mit hochwertigen Beiträgen und Content auf Seiten die meine Zielgruppe lesen. Gute Rankings kommen dann ganz automatisch ohne Stress und täglichem keywordmonitoren. Hier sollten vor allem SEOs etwas umdenken und statt Rankings, eher versuchen die Marke zu stärken, damit die Leute dann statt z.B. „Reiseschnäppchen“, „Urlaubspiraten“ eingeben.

  • Roland

    so, ich hab jetzt mal die Suchanfrage
    „Wie komme ich auf Seite 1 bei Google“ bei Google eingegeben.

    Was Google alles so als relevant und guten Text empfindet ist schon sehr erstaunlich.
    Wer sich danach richtet wird es teilweise sehr schwer haben.
    Mir scheint hier versagt Google mit seinen Ergebnissen.

  • Hallo Roland

    Das mit den „Rankings kommen schon von alleine“ setzt natürlich voraus, dass deine Seite gerne ein Jahr+ ohne gute Rankings online sein kann. Das heißt, du bist nicht auf den Erfolg der Seite angewiesen UND hast noch die Zeit und die Kraft das Projekt in dieser Zeit am Leben zu erhalten. Das funktioniert meiner Meinung nach nur, wenn die Seite reines Hobby ist. Viele Seiten werden nun mal mit dem Hintergedanken erstellt, irgendwann mal damit Erfolg zu haben (Sei es AdSense Einnahmen, Besucher, Empfehlungen von anderen Seiten) und ich finde es absolut legitim, dass richtig guter Content auch entlohnt werden kann – auch mittelfristig.

  • Roland

    Hallo Andre, das ist schon klar, ich bin ja auch nicht gegen gute Inhalte.
    Nur kann ich mir nicht vorstellen dass ein Algorithmus den Geschmack aller trifft.
    Es ist halt der Geschmack von einem privatwirtschaftlichen Unternehmen. Das ist eher die Sorge dabei.

    Das andere ist, wenn einer wirklich gute Inhalte schreibt und trotzdem nicht oben ist, (weil der eine oder andere SEO Kniff nicht bekannt ist oder der Schreiber damit überfordert ist) dieser denken muß: Ich schreibe schlechte Inhalte.
    Alles was nicht oben ist, ist ja nach der Schlußfolgerung von Google und SEOisten ein schlechter Content. Sonst wäre er ja nicht irgendwo im Nirwana.

    Ich hoffe ich werde richtig verstanden. Goethe und Co würde es heute nicht auf Seite 1, geschweige denn auf Platz 1 schaffen. die Texte passen nicht in den Google Algorithmus. Schon alleine der „Fleshfaktor“ dieser Texte ist für Google unakzeptabel.

    Das zeigt mir, all die Tricks (Content, Persönlichkeit, Keywords, Ladezeiten, Markenbildung, Empfehler suchen, …) sind Krücken um Google zu bedienen. Sie sind kein Indikator für die Qualität.

    Der Algorithmus ist die Spielregel die Google aufgestellt hat. Die Spielregel ist nur in teilen bekannt. Man kann also jederzeit verlieren oder gewinnen. Keiner weiß es genau, aber viele spielen mit.

  • Ich kann aus eigener Erfahrung berichten, dass Beiträge mit mehr als 800 Wörter auf jeden Fall besser in Suchergebnissen ranken, als Beiträge mit deutlich weniger Content. Der Content ist meiner Ansicht nach daher sehr wichtig, wobei ich auch oftmals feststellen konnte, dass Seiten mit weniger als 300 Wörtern in die Top 10 schaffen, weil sie viele Backlinks mit ihrem Keyword im Ankertext haben. Es spielen daher viele Punkte ein entscheidende Rolle, um letztendlich eine gute Position zu bekommen. Es bringt also nichts 2000 Wörter zu schreiben und zu hoffen, dass man einfach besser rankt als andere. Google gibt uns die wichtigsten Faktoren auf die Hand und wir müssen diese bestmöglich für unsere Projekte umsetzen. Hier ist vor allem viel Geduld und Durchhaltevermögen gefragt!

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.

Willst Du fit in SEO werden?

Abonniere unseren Newsletter und bleibe in Sachen SEO, Inbound- & Online-Marketing auf dem Laufenden.

Du kannst den Newsletter jederzeit wieder abbestellen.