SEO 2013: Was kommt nächstes Jahr auf uns zu?

17. Dezember 2012  |     |  14 Kommentare
Ein Beitrag von Julian Dziki

Heute versuche ich einmal eine Vermutung anzustellen, wohin uns der Weg im nächsten Jahr führen könnte.

hundewelpe mit Weihnachtsmütze

Passt nicht zum Thema, aber egal! 🙂

Linkbuilding: Es wird immer schwerer, aber man verzeiht mehr

Die Daumenschraube im Linkbuilding wird 2013 noch mehr angezogen als bisher. Bereits seit 2010 beschäftigt sich Google mit der Überoptimierung von Anchortexten, noch länger schon mit dem Phänomen des Linkkaufs. Das „Schwere“ daran wird zum einen sein, dass alte Techniken im Jahr 2013 nicht mehr funktionieren werden. Eine Webseite erstellen und danach mal eben auf Backlink-Shoppingtour zu gehen – damit kann man zwar auch heute noch sehr schnell sehr gute Erfolge erzielen. Spätestens nach einigen Monaten aber sind ein Großteil der Links aufgedeckt und die Rankings leiden entsprechend.

Auch den Link umgebende Faktoren werden 2013 wichtiger: Ist das Unternehmen im Beitrag überhaupt genannt oder wird kommentarlos mit „Kredit“ verlinkt, ohne die verlinkte Webseite überhaupt zu erwähnen? Wie ist die Textqualität? Wie viele Links gibt es im Artikel? Der Vorteil: Mit Algorithmen dieser Art kann Google sehr gute Beiträge auf eigentlich eher mittelmäßigen Domains erkennen. Umgekehrt kann man so natürlich billig-gekaufte Links auf eigentlich sehr guten Domains erkennen. Insgesamt geht es also mehr in Richtung Dokumentebene, worauf ich später noch komme.

Positiv ist es daher anzusehen, dass Google mit dem Disavow Tool, den manuellen Meldungen über „unnatürliche Links“ und anderen (kommenden?) Features viel mehr verzeiht als früher. Eine Abstrafung ist nicht das Ende aller Tage, sondern man hat immer die Möglichkeit, sich wieder reinzuwaschen.

 Content: No more Cheating

Google erkannte bisher nur rudimentär, ob ein Text inhaltlich gut ist oder nicht. Ich behaupte einfach einmal, dass auch das erste Panda Update, verglichen mit den unzähligen Folgeupdates sehr grobkörnig war. Insbesondere in der Zukunft wird Google viel mehr Anstrengung darauf vergeben zu erkennen, ob ein Dokument gut oder schlecht ist. Denn das ist wirklich etwas, was die Ergebnisqualität stark beeinflusst. Ob jetzt jemand „schlechtes“ Linkbuilding macht oder nicht interessiert Google in Zukunft dann nicht die Bohne, weil sie das Dokument aufgrund dessen inhaltlicher Qualität dann oben ranken. Das bedeutet nicht, dass Links wertlos werden, sondern nur, dass als zusätzliche Hürde die Qualität des Dokuments gut sein muss, um oben zu stehen.

Als SEO muss man sich daher bei jedem Dokument fragen: Bin ich wirklich das beste Dokument bei Google für diesen Suchbegriff? QDF (Quality deserves Freshness) und WDF*IDF werden die Stichworte 2013 sein. Ausdrücklich muss ich da Karl Kratz erwähnen, der sich zwar nicht selbst als den besten SEO Deutschland sieht (sehe ich ihn auch nicht, auch wenn er sicherlich zu DEN besten gehört), der aber mit der „Promotion“ von WDF*IDF der SEO-Gemeinde eine faszinierende neue Theorie geliefert hat.

 Insgesamt: Weg vom „Trust“, hin zur Dokumentebene

Ei, das ist eine kontroverse Aussage, ich spüre es schon. Meine Theorie: Google hat seit kurzem viel mehr Möglichkeiten, ein Dokument unabhängig von seinem „physischen“ Standort aus zu bewerten. Will meinen: Es gibt manche Mini-Fitzel-Zwergen-Blogs, die einmal einen extrem guten Artikel über ein Thema veröffentlicht haben, während 99% der anderen Beiträge auf diesem Blog schlichtweg Schrott sind. Dieses eine Dokument ist dann aber das Beste im gesamten Netz zu dem Suchbegriff. Umgekehrt ist nicht jeder (und das muss ich betonen!) Beitrag auf Spiegel.de hochqualitativ, bloß weil er auf Spiegel.de erscheint. Google könnte genau hier qualitativ ansetzen.

Das läuft dem ganzen „The internet is a cesspool, brands are the solution“-Trommelfeuer von Eric Schmidt zwar zugegen, aber ich denke, dass so manche Google-Ingenieure genau diese Entdeckung gemacht haben und noch machen, während sie sich mit dem Panda-Algorithmus beschäftigen. Problem: Domainweite Usersignale sind bei großen Brands prinzipiell immer besser als bei unbekannten Marken. Die Landingpage eines Laptops bei Amazon hat mehr Erfolg als die (bessere Landingpage) eines unbekannten Online Shops.

Andererseits habe ich 2012 keine größeren Bemühungen von Google gesehen, dass Brands besser gerankt werden sollten. Das korreliert auch manchmal sehr stark mit „guten“ Seiten, so dass man hier unterscheiden muss. Conrad hat aber eine drei Mal größere Sichtbarkeit als Media Markt und Saturn, obwohl letztere definitiv die stärkeren Marken sind: Alleine die TV-Werbebudgets der beiden müssten eigentlich für mehr Sichtbarkeit sorgen, würde der Faktor „Brand“ wirklich eine so immens große Rolle spielen. Als (enorm) verstärkender Faktor ja, als alleinige Lösung – nein.

Kurz: Die „Sippenhaft“ für Dokumente, die in einem schlechten Umfeld publiziert werden, sollte in Zukunft aufhören und das könnte sie auch, wenn Google die Algorithmen weiter so verfeinert wie 2012.

Was denkt ihr?

Ach ja: Die Bedeutung von Social für die organischen Suchergebnisse (kein Google News)

—-.

SEO Wahlen 2012 – Zweitbester Blog

Ich freue mich natürlich, dass ich wie bereits 2011 wieder zum zweitbesten Blog gewählt wurde. Betonen muss ich aber Eisy, den Tagseoblog, Rankingcheck, die zu Recht auch zu den Top 5 Blogs zählen. Außerdem hätten mindestens noch der Seonaut, die Internetkapitäne, Eric Kubitz, der Searchmetrics Blog, Sistrix und der SEODeluxe mit aufs Treppchen gehört. Ganz auf Platz 1 gehört für mich SEO United, die sich mit dem Blog am meisten Mühe geben und fast ohne Ausnahme täglich bloggen. Kritik gibt es aber auch: Aufgrund der vielen Manipulationsversuche, die sicher in der ein oder anderen Kategorie auch erfolgreich waren, solltet Ihr unbedingt (!) das Wahlsystem ändern. Trotzdem papp ich mir das Widget auf die Seite, Platz zwei von 100.022.432.453 SEO Blogs ist auch nicht schlecht! 🙂

zweitbester-seo-blog-2

Foto: Ostanina Ekaterina / Shutterstock.com

Jetzt teilen: Share on Facebook17Tweet about this on TwitterShare on Google+3Email this to someoneShare on LinkedIn2

E-Book: Der Weg zum erfolgreichen Online Shop

  • Das 47-seitige E-Book mit 72 konkreten Tipps für Deinen Online Shop
  • Einmal wöchentlich exklusiver Content für das Marketing Deines Shops
  • Unser Newsletter (1-2x pro Woche)
E-Book kostenlos downloaden

14 Kommentare

  • Hey Julian,

    also erstmal Glückwunsch für die Top-Platzierung, meines Erachtens zu Recht.

    Meines Erachtens besitzen Brands einen Google-Boni, nur nutzen es zahlreiche Websites nicht, weil sie totalen Schrott abliefern. Da bringt ein kleiner Brand Boni auch nichts. Strategisch würde ich den Brand-Bonus allerdings nicht unterschlagen.

    Alle anderen Themen, die du angerissen hast, sehe ich sehr ähnlich.

    Beste Grüße
    Jens

  • Hallo Julian,

    danke für das Lob und noch einmal Glückwunsch zum zweiten Platz! Die SEO Wahlen 2013 werden wir wahrscheinlich auf Facebook oder Google+ veranstalten…

    Grüße

    Gretus

  • Hallo Julian,

    erst einmal Glückwunsch zum 2. Platz. Ich habe keine Bewertung abgegeben. Jeder interessante SEO-Blog auf dem ich lese ist in irgendeiner Weise speziell, von daher kann ich sowas nicht bewerten. Hätte jedem der sich bei mir im Feed befindet Platz 1 gegeben*.

    Zu deinen Aussichten 2013
    „Das bedeutet nicht, dass Links wertlos werden, sondern nur, dass als zusätzliche Hürde die Qualität des Dokuments gut sein muss, um oben zu stehen.“ so sehe ich das auch. Vom logischem Aspekt ist beides auch in der Kombination zu sehen. Guter Inhalt = Backlinks = Gute Rankings. Aber war das nicht schon immer so?

    Grüße Ivo

    *du bist dort auch vertreten

  • RayRay

    Hallo Julian,

    interessanter Beitrag und schön zu sehen, dass Black-Hat-Link-Building wohl Stück für Stück weniger genutzt werden wird. Viele Sachen habe ich begeistert gelesen und ich bin sehr dankbar für das Expertenwissen.

    Aber ich habe ein Problem mit dem oft postulierten Begriff „guter Inhalt“. Mir als Sprachwissenschaftler stehen dabei immer die Haare zu Berge. Es gibt keine objektiven Parameter,um gute von schlechten Inhalten zu trennen. Die einzige Möglichkeit, die Google hat, besteht darin, die „Kommunikationseigenschaften“ von Dokumenten zu bestimmen. Aber das kann Google nur mit Daten über Bouncing, Links von außerhalb(!), Verweildauer, Klickverhalten auf der Domain etc. – also mit Merkmalen der Rezeption.

    Aber es gibt keine inhärenten Qualitätsmerkmale von Texten.

    Also wie meinst du, wird Google die Qualität von Content und Dokumenten ONPAGE bewerten? Kann Google das überhaupt?

    LG und vielen Dank
    Ray

  • Ruben

    Glückwunsch zum 2. Platz Es fällt auf, wenn man zig Seiten vergleicht, dass Seiten, die sich mehr um Content (keine 0815-Contentschmieden) kümmern, ECHTE Seiten bauen und keine „Tauschseiten“, oder gerne auch „Fakeprojekte“, ganz nach oben kommen. Mindestens 10 Beispiele, wo genau das passiert ist. Einfach selbst mal prüfen… Google bekommt dafür ein dickes + 😉

    Seowahlen:
    Seonaut sehe ich leider nicht in den TOP Platzierungen, vermutlich zu Recht. Dort findet man wenig gute Artikel wie beispielsweise hier, oder bei eisy. Zumal das Fachwissen dort eher für eine SEOkneipentour reicht. Habe dort leider (hoffe ändert sich), noch nie relevante Infos gefunden, die einen wirklich als SEO weiterhelfen. Natürlich ist die Campixx ein riesiger Erfolg, allerdings weniger zurückzuführen auf das nötige KnowHow, eher auf die Kunst, die passenden Leute zusammen zu trommeln. Radio4SEO sei dank 😉

  • Generell geb ich dir recht, dass es darauf hinauslaufen wird, aber 2013… Nein. Beim Link-Building vielleicht, aber besonders bei Content Qualität werden die noch einpaar Jährchen länger brauchen.

  • Grüße nach München und vielen Dank für Deinen Artikel. Kurz und knapp. Mal sehen, ob Du recht behalten wirst. Gerade die Qualität von Inhalten zu messen dürfte für Suchmaschinen sehr schwer werden. Man denke nur an die vielen verschiedenen Sprachen, die es gibt. Auch bin ich gespannt, wie sich die neu eingeführte Sitemap für Bilder auswirken wird. Suchmaschinen werden wohl trotzdem weiterhin auch Bilder berücksichtigen, die in keiner Bilder-Sitemap aufgeführt sind.

  • Julian

    @RayRay: Google kann schon die Qualität eines Dokuments bewerten. Dokumentlänge, Auszeichnungen (Überschriften), „reading-level“, Anzahl der Bilder und eben neuerdings auch rudimentär mittels semantischer Wortfelder.
    @Ruben: Klar gibt es Seiten, die gar keinen Linkaufbau machen und ohne das nach oben kommen. Die bekommen aber gute (freiwillige) Links von außerhalb. Trotzdem: Wenn diese gute Seite ZUSÄTZLICH noch Links aufbauen würde, würde sie besser da stehen.
    @Sergej und @Lothar: Bis Google ein Dokument wirklich gut „versteht“ kann es noch Jahrzehnte dauern.

  • Wow, das würde heißen – es geht wieder um inhalte , qualität, somit hat auch der underdog eine chance gegen die killerwerbebudgets der grossen firmen anzustinken…romantisch, aber ein schöner ausblick auf nächste jahr, jetzt wo schon die welt nicht untergegangen ist;) ach ja brands – eine marke hat doch nicht unmittelbar mit qualitativ hohem niveau zu tun, oder krieg ich das nicht verstanden – im gegenteil, neigen nicht grosse marken mit noch grösseren werbebudgets – über mangelnde qualität oder ausbeutung oder was auch immer hinwegzutäuschen? aber egal, endlich ab 2013 endlich wieder in richtung sein, stat schein – scheinbar was?

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind markiert *

Willst Du fit in SEO werden?

Abonniere unseren Newsletter und bleibe in Sachen SEO, Inbound- & Online-Marketing auf dem Laufenden.

Du kannst den Newsletter jederzeit wieder abbestellen.