Pfeif auf die Sichtbarkeit!!!

19. April 2013  |     |  94 Kommentare
Ein Beitrag von Julian Dziki

Heute muss ich einmal etwas eindeutig klarstellen: Es geht um die berühmten Graphen bei Sistrix, Searchmetrics, Seolytics und Xovi.

Die Sichtbarkeit von Seokratie hat letzte Woche um 48 % abgenommen.
Die Sichtbarkeit von Seokratie hat letzte Woche um 48 % abgenommen. Ist der Absturz beim (irrelevanten) Keyword „Julian“ der Grund dafür?

Wer macht die Daten?

Mir reicht es langsam wirklich. Posts wie diesen hier sollte sich jeder SEO ausdrucken und an seinen Monitor heften. Marius schaffte es, eine nagelneue Domain mit einem Sichtbarkeitsindex von 2,52 innerhalb von sieben Tagen auszustatten – ohne Links und auch ohne (nennenswerte) Besucherzahlen. So mancher gutgläubige SEO würde sich bei einem solchen Wert die Finger lecken.

Eine Sichtbarkeit von 2 oder 10 sagt absolut gar nichts über den Wert eines Links, einer Webseite oder deren Besucher aus. Ich komme ja noch aus einer Zeit ohne diese Kennzahlen. Damals überprüften wir etwa die Domainpopularität und sahen zum Beispiel bei neuen Artikeln dieser Seite nach, ob sie für die angestrebten Keywords auch gut rankte. Heute stieren SEOs auf Sichtbarkeitsindizes und messen ihren Erfolg daran, wie hoch der Index, Value Rank oder Ovi ist.

Toolanbieter haben keine (alleinige) Schuld

Auf keinen Fall würde ich den Betreibern der Software die Alleinschuld an dem Dilemma geben. Fakt ist:

  • Zu Beginn der SEO Tools überwachten diese Keywords mit Traffic, so dass man einen schnellen Überblick hatte, wofür eine Domain gut rankte ohne das manuell bei Google nachsehen zu müssen.
  • Nach welchen Kriterien wurden die Keywords ausgewählt? Ich weiß es nicht.
  • Dazu nahmen die Toolanbieter höchst fragwürdige Daten (woher???) zum Traffic. Bis heute teilt uns kein Toolanbieter mit, woher er diese Daten bekommt. Natürlich kann man damit argumentieren, dass sonst die Tool-Konkurrenz auch an die Daten käme, aber ehrlich gesagt würde ich manche von diesen Daten gar nicht haben wollen.
  • Es bot sich logischerweise an, daraus eine Art Chartanalyse zu machen.
  • Wie die Keywords dann aber gewichtet wurden (nach Traffic? CPC bei Adwords? Konkurrenzdichte? Geruch?) weiß auch nur der Toolanbieter selbst.
  • SEO-Blogger kamen nun und fuhren Analysen anhand der Sichtbarkeitskurven.
  • Neue SEOs wurden gleich mit den Sichtbarkeitsindizes eingelernt
  • Die Toolanbieter werben auf Prospekten & Co. fast immer mit „Alles auf einen Blick“
  • Und heute sind sie leider für viele SEOs die einzig relevante Kennzahl

Gut für Penalties & Algorithmische Updates

Natürlich zeigen drastische Beispiele wie etwa der Absturz von Finanzen.de anschaulich, wie viel Traffic verloren ging:

Sichtbarkeitsverlust von Finanzen.de nach Searchmetrics
Sichtbarkeitsverlust von Finanzen.de nach Searchmetrics

Aber letztlich geht es um ein Keyword-Set, auf das man vielleicht gar nicht optimiert. Gut, in diesem Beispiel nicht – aber es gibt tatsächlich Beispiele, in denen der Sichtbarkeitsindex stark abfällt und der Traffic steigt. Etwa wenn man als Nachrichtenportal die Hälfte seiner Tags löscht und dann mit diesen Tags nicht mehr auf Platz 60+ rankt. Die Sichtbarkeit sinkt enorm, aber der Webseite als Ganzes tut es sehr gut und der Traffic steigt.

Traffic hochrechnen nach Sichtbarkeit?

Nahezu unmöglich ist es, Rückschlüsse auf den tatsächlichen Traffic zu ziehen. Natürlich ist Ebay.de mit einem Sichtbarkeitsindex von 1.200 bzw. Searchmetrics Value Rank von über 2.000.000 mit mehr Google Traffic gesegnet als Seokratie.de mit 0,02 bzw. 399. Und gerade bei großen Domains à la Ebay kann man gute Rückschlüsse ziehen, wenn die Sichtbarkeit um 10 % zu- oder abnimmt. Aber ich zumindest habe letzte Woche nicht die Hälfte meiner Besucher verloren.

Offene Fragen an Toolanbieter

Jeder Wissenschaftler würde sich die Haare raufen, wenn er sähe, mit welchen Daten wir arbeiten. Der Grund: Die Daten sind „illegal“ von Google erworben, es gibt kein standardisiertes Verfahren. Offene Fragen sind daher:

  • Welche Keywords sind überhaupt im Index und nach welchen Kriterien wurden sie ausgesucht?
  • Was passiert mit neuen Keywords? Wie und wann wird das „Iphone 6“ in die Graphen aufgenommen?
  • Wie verhält es sich mit Trafficänderungen? Nach Iphone 3 suchen doch sicher weniger Leute heutzutage? Das wird in den Graphen auch eingepreist – aber wirklich aktuell?
  • Wo werden die teilweise sehr stark lokalisierten Rankings abgefragt? Was ist der Standort? „Deutschland“, „Berlin“ oder „Kenia“?
  • Was ist bei Sistrix überhaupt die Angabe „Wettbewerb“ zu jedem Keyword? Wonach berechnet sich das?
  • Wie stark ist der Sprung bei der Berechnung, wenn ich bei einem Keyword von Position 2 auf Position 1 hochklettere? Von der ersten Seite auf die zweite Seite?
  • Zählen Keywords, für die ich auf Platz 99 ranke, auch bei der Sichtbarkeit?

Auf alle diese Fragen gibt es leider keine Antwort von den Toolanbietern. Teilweise aus Angst vor der Konkurrenz, teilweise aus Angst vor Google und sicherlich bei vielen Daten auch aus Angst vor Kritik. Noch einmal: Ich mache den Toolanbietern keinen (allzu) großen Vorwurf. Besser wir arbeiten mit relativ ungenauen und unsicheren Daten, als mit gar keinen.

Braucht man Sichtbarkeitskennzahlen?

Ja! Aber man muss sie bitte mit Verstand nutzen. Ich habe heute Hanns Kronenberg (Sistrix) noch einmal gebeten, zu dem obigen Fall „Sichtbarkeitsindex von 2,52 in 7 Tagen“ Stellung zu nehmen. Dabei handelte es sich offensichtlich um einen (behobenen) Bug. Er meint:

„Die Grundregeln der Statistik gelten auch für SEO-Tools. Bei sehr wenigen Keywords als Datengrundlage zu einer Domain sind gewisse Aussagen schlicht und einfach nicht zulässig. Da nicht jeder Statistik studiert hat, bieten wir einen umfangreichen Support und Seminare an, um bei der Datenanalyse zu helfen. Zudem haben wir ein kostenloses E-Book (http://www.sistrix.de/buch-seo-analysen/) mit vielen Fallstudien veröffentlicht. Die Fallstudie galactic.de in dem Buch behandelt ausführlich die Analysemöglichkeiten zu einer Domain auf Basis weniger Keywords. Wer sich professionell mit SEO beschäftigt, sollte sich die 1-2 Stunden Zeit nehmen, das Buch zu lesen oder bei Ungereimtheiten zumindest unseren Support anrufen. Vielleicht handelt es sich wie bei online-outlet-warenhaus.de ja auch nur um einen Fehler in der Datenbank. So ein Einzellfall ist bei über 15 Mio. Keywords, die wir alleine für Deutschland auswerten, leider nicht hundertprozentig zu verhindern.“

Wofür nutze ich Sichtbarkeitskennzahlen?

  • Um nach Updates (Panda, Pinguin) herauszufinden, welche Domains wahrscheinlich betroffen waren und dann auf Gemeinsamkeiten zu schließen (Links, schlechter Content etc.)
  • Um die generelle Entwicklung einer größeren Domain anzusehen (Sichtbarkeitsindex 0,2 vs. 1 sagt NICHTS aus)
  • Um auf die Schnelle den Zeitpunkt einer Abstrafung zu identifizieren, ohne dass ich jedes Keyword einzeln ansehen muss

Übrigens bestehen Tools wie Searchmetrics, Sistrix, Xovi und Seolytics nicht nur aus den Sichtbarkeitsgraphen, sondern alle bieten umfangreichste Funktionen und Analysemöglichkeiten, die – so scheint es mir – aber oft viel zu wenig genutzt werden. Vom Nutzen oder Unnutzen der Sichtbarkeitskennzahlen kann man also nicht auf Nutzen oder Unnutzen der Tools schließen. Die Graphen machen sich nur sehr gut auf Werbeprospekten für Tools!

 Mein Ratschlag für die Bewertung einer (eigenen) Domain

  • Schaut Euch den Traffic über Euer Webanalyse Tool an
  • Schaut Euch den Punkt „Suchanfragen“ in den Webmastertools an. Diese Daten sind direkt von Google! Leider sind sie nur drei Monate rückwirkend verfügbar, aber genauer geht es momentan nicht. Hier werden nämlich auch die Impressionen angezeigt. Oder auch, welche Seiten (ab und zu) auch „getestet“ werden. Google hat überhaupt in den Webmastertools unzählige Neuerungen gebracht, das ist immer einen Blick wert.
  • Schaut Euch Eure Conversions und Verkäufe an. Haben Sie zugenommen, obwohl der Traffic abgenommen hat? Dann ist doch alles ok!
Verlauf der Impressionen bei Seokratie.de - schön gleichmäßig.
Verlauf der Impressionen bei Seokratie.de – schön gleichmäßig.

Mein Ratschlag für die Bewertung einer fremden Domain (für Links)

Ich pfeife auf feste SEO Kennzahlen. Hier mal ein paar Beispiele, wie ich mir einen Link ansehe:

  •  Ist die Domain relevant für meine eigene Zielgruppe?
  • Rankt die Domain für „meine“ Keywords?
  • Rankt die Domain generell für „gute“ Keywords, die eher umkämpft sind?
  • Verkauft die Domain Links (böse, keinen Link holen)?
  • Ist die Domain mit Herzblut und Liebe geführt oder dient sie nur als Linkschleuder?
  • Sind die Informationen auf der Domain gut oder nur oberflächlich?
  • Wäre ein Link von dieser Domain zu meiner eigenen für die Besucher relevant und nützlich?

Wenn diese Domain dann eine hohe Domainpopularität und gute Rankings hat, umso besser. Mir persönlich (und Google und Euren Besuchern) ist aber wichtiger, ob der Link an dieser Stelle gut passt!

Ich würde mich sehr freuen, wenn Ihr diesen Beitrag shared, twittert und weiterverbreitet.

Jetzt teilen: Share on Facebook0Tweet about this on TwitterShare on Google+91Email this to someoneShare on LinkedIn2

E-Book: Der Weg zum erfolgreichen Online Shop

  • Das 47-seitige E-Book mit 72 konkreten Tipps für Deinen Online Shop
  • Einmal wöchentlich exklusiver Content für das Marketing Deines Shops
  • Unser Newsletter (1-2x pro Woche)
E-Book kostenlos downloaden

94 Kommentare

  • Sehr guter Artikel. Ist auch bei uns schon länger ein hochkochendes Thema. Es spielen auch die verschiedentlichen Veränderungen bei Google noch rein, wo manche Sichtbarkeitstools – zumindest zeitweise oder immer mal wieder – nicht damit zurecht kommen.

    Die Toolanbieter kommen hier doch immer mehr in die Pflicht. Gute Daten werden standardisiert vergleichbarer, daher kann ich Sistrix verstehen. Doch was hilft es, wenn man mache Begriffe darin überhaupt nicht berücksichtigt über die man sehr viele Besucher erhält und da spreche ich nicht von 10 Besuchern, sondern von viel mehr am Tag.

    vg
    Maik

  • Sehr guter Beitrag! Leider ist die Sichtbarkeit (meistens die von Sistrix) für viele (zumindest im deutschsprachigen Raum) entscheidend…

  • Schöner Artikel!

    Interessant ist die Sichtbarkeit doch für Netzwerke wie Ranksider/seller. Denn hier wird die die Spreu vom Weizen getrennt. Guter Blog – böser Blog

  • Thomas Wagner | Onlinemarketing Leipzig

    Sehr guter Artikel.

    Gerade bei Nischen versagen die Keywordsets der Toolanbieter. Hier hilft dann nur das eigene Set fürs Monitoring.

    Gruss aus Leipzig
    Thomas

  • Hallo Julian,

    danke für den Post. Die Grundaussage Deines Artikels kann ich absolut unterstützen. Man sollte sich nicht blind auf Daten und eine einzige Kennzahl verlassen, sondern auch immer sein Gehirn einschalten und die Plausibilität überprüfen.

    Die von Dir genannten Fragen beantwortet wir in unserem kostenlosen Buch „SEO-Analysen mit dem SISTRIX Sichtbarkeitsindex“, über unseren Support und auch gerne in unseren wöchentlichen Seminaren. Wer professionell täglich Entscheidungen auf Grundlage von Daten trifft, der sollte sich zumindest einmal die 1-2 Stunden Zeit nehmen, das Buch zu lesen, um sich das Wissen für die Interpretation der Daten anzueignen.

    Das trifft aber nicht nur auf SEO-Tools zu, sondern auch auf alle anderen Studien, Analysen und Auswertungen. Ich bin oft verwundert, was da so verbreitet und kritiklos angenommen wird. Die SEO-Branche in Deutschland hat da in Sachen Professionalität durchaus noch etwas Luft nach oben.

    Das soll aber keine Kritik sein, sondern nur eine Situationsbeschreibung. Ich sehe da Toolanbieter wie uns in der Verantwortung und wir bieten in dem Bereich wirklich eine breite Unterstützung an. Ich würde mich freuen, wenn das noch stärker angenommen wird.

  • Danke Julian, du bringst es wirklich auf den Punkt! Viel mehr gibt es dazu nicht zu sagen.

  • Sehr, sehr geiler Artikel Julian, du sprichst mir aus der Seele. Ich habe z.B. zwei Beispiele von Domains die einen recht guten SI haben, aber nur weil Sie mit einem Key in den Top 100 ranken, was umkämpft ist, sonst nix.

    Die haben nicht mal traffic, aber die Leute/SEO´s stürzen sich drauf. Andere wollen Sie nicht weil sie nur longtail ranken und auch funktionieren. So hab ich bisher nach drei Tagen schon mehere fremde Anfragen für folgende Wohnung in München, obwohl die Domain null SI hat.Also auch eine Art conversion.

    http://immobilienmuenchen.org/wohnung-am-viktualienmarkt-in-muenchen/

  • Danke Julian!

    Bei der Outlet-Domain mag es ja für einen Anfänger noch ersichtlich sein, dass die Sichtbarkeit eher einem Sistrix-Fehler entstammt, weil die Kennzahlen nicht zueinander passen.

    Was aber, wenn ein nichtsahnender Trainee mit solchen Domains (den schon erwarteten Trittbrettfahrern) konfrontiert wird?

    https://tools.sistrix.de/domain/modebezirk.de/
    https://tools.sistrix.de/domain/modebrands.net/
    https://tools.sistrix.de/domain/muttis-geheimtipps.de/

    Viele Grüße, Marius

  • Auf diesen Post habe ich gewartet 🙂 Vielen Dank!

    Sehe ich genauso – am besten baut man sich immer noch die eigene „Sichtbarkeit“ mit einem Ranking-Monitor auf die eigenen Keywords auf. Damit hat man tagesaktuelle Daten (auf Wunsch) und im besten Fall auch eine Korrelation zum Traffic 🙂 (Insofern der KW-Research ordentlich durchgeführt wurde und die CTR stimmt)

  • Sehe ich genauso. Nur auf den Sichtbarkeitsindex zu schauen ist totaler Quatsch. Vor allem wenn man eigentlich von Longtail Keywords abhängig ist. Searchmetrics hatte hierfür wenigstens damals einen eigenen Sichtbarkeitsindex. Was allerdings dennoch ein Pluspunkt dieser Kurve ist: man sieht, wenn ein Kooperationspartner evtl. Schindluder betreibt und bei Google abgestraft wurde.

  • „Super Betrag, schöner Post … bla, bla, bla … Arschkriecher!“

    Hi Julian,

    du hast in vielen Punkten Recht und als SEO(!!) stimme ich dir im Grunde zu, aber trotzdem ist mir der Beitrag doch zu engstirnig.

    Zunächst hast du selbst in diesem Blog SEO Tools genau wegen ihrer „auf Knopfdruck“-Qualitäten gefeiert und konntest dir „die tägliche Arbeit ohne Tools“ nicht mehr vorstellen. Das ist aber ein anderes Thema, es hat sich ja einiges geändert.

    Viel wichtiger ist aber die Arbeit mit Leuten, die keinen Plan von SEO haben, Online Marketing Manager, Geschäftsführer, Performance Marketing Bullshit Irgendwas Manager … Die brauchen verdammt nochmal Kennzahlen. Denen kann ich doch nicht mit „Aber die Seite XYZ ist mit Herzblut gemacht“ kommen oder „Ja, Chef lass uns mit denen kooperieren die haben gute Keywords“. Die wollen anhand von drei,vier Kennzahlen Seiten vergleichen und die eigene Arbeit bewerten.

    Ob Daten nun gut oder schlecht sind, wenn ich zwei Domains vergleichen möchte sind die Daten ja im Zweifel gleich schlecht oder gut. Das Beispiel ist erschreckend, aber meiner Meinung nach die Seltenheit. Das ein Tool kein Mensch ist, versteht sich doch von selbst und nur weil ein Auto mal kaputt geht sagt ja auch keiner, pfeift aufs Autofahren.

    Ich nutze bei SEO Tools häufig nur noch einen individuellen Index mit eigenen Keywords, aber auch das hat Schwächen. Was wenn mein Wettbewerber neue Bereiche angeht, usw. … es ist wie es ist. Was besseres habe ich nicht, ich sehe nun mal nicht den Traffic des Wettbewerbs. Willst du jetzt wieder mit Alexa anfangen?

    Beste Grüße,
    Michael

    p.s.: Polarisieren ist die beste Art des Marketings, weiter so 😉

  • Hi Julian,
    danke für diese erfrischenden Artikel.
    „Den Verstand nutzen“ – das macht meist enorm viel Sinn im Umgang mit Zahlen.

  • @Marius:

    schau dir bei den drei angegebenen Domains einfach mal die Informationsarchitektur / Navigationsstruktur an. Dann kommst du bestimmt selber auf die Schwachstellen. 😉

    @Julian:

    Sehr guter Artikel, der alles sagt, was gesagt werden muss. Wer sich nur auf den Sichtbarkeitsindex Wert verlässt, der ist verlassen. 😉

  • Guter Artikel, Julian.
    Allgemeine Sichtbarkeitskennzahlen – egal von welchem Toolanbieter – können immer nur einen schnellen Überblick über die SEO-Performance von Websites liefern. Sie sind aggregierte Kennzahlen, die auf einem Referenzkeywordset basieren, das vom jeweiligen Toolanbieter ausgewählt wurde. Um für möglichst viele User verwendbar zu sein, setzen sich die Indizes aus einem Durchschnitt der „wichtigsten“ Keywords eines Landes zusammen. Die Sichtbarkeitskennzahlen der verschiedenen Tools sind deshalb auch nicht direkt miteinander vergleichbar, da sie eine unterschiedlich große und verschieden gewichtete Datenbasis haben. Unser SEOlytics Visibility Rank (SVR) berücksichtigt z. B. auch wirtschaftliche Faktoren.

    Wenn ich mich mit meinem Shop aber in einer Nische befinde oder mit Longtail Keywords arbeite, sinkt die Aussagekraft einer allgemeinen Sichtbarkeitskennzahl. Denn die für mich relevanten Keywords werden dann wahrscheinlich nicht in dem Referenzkeywordset enthalten sein. Deshalb kann bei SEOlytics jeder überprüfen, ob sein Keyword in der Datenbank enthalten ist. Und gerade dafür haben wir den Daily Visibility Rank (DVR) entwickelt – unsere individuelle Sichtbarkeitskennzahl, die auf Basis des eignen Keywordsets berechnet wird. Damit steht jedem ein zu 100% passender Branchen-Index für den Wettbewerbsvergleich zur Verfügung.

  • Sehr schöner Artikel Julian.
    Ich sehe es genau so. Man darf einfach nicht alle Werte als in Stein gemeißelt betrachten. Immerhin liegen ja außer Google niemandem alle Daten vor. Ein Blick auf die jeweilige Domain verrät einem schnell, ob sie etwas kann oder nicht. Der Sichtbarkeitsindex ist und bleibt ein Anhaltspunkt, der alleine stehend aber nicht wirklich aussagekräftig ist.

  • Hi Julian,

    wirklich super Artikel. Habe herzhaft gelacht bei einigen Punkten und stimme dir wirklich überall zu.
    Hinterfragen sollte man die einzelnen Tools auf jeden Fall und auch die Nutzung von zwei oder drei Tools kann sicherlich nicht schaden.
    Ist aber zeitintensiv und daher bleibt die Reflektion der Zahlen bzw. der gesunde Menschenverstand irgendwie doch immer mal wieder auf der Strecke.
    Aber wie du schon treffend formuliert hast, trifft die Toolanbieter dabei eigentlich keine Schuld. Überlegen, wie man mit den Zahlen umgeht muss ja immer noch jeder selbst.

  • Aufrührerische Artikel dieser Art begrüße ich doch immer gerne, auch wenn die Aufregung mir etwas bemüht scheint. 🙂

    Die Sichtbarkeitswerte in den genannten Tools waren ja immer schon gedacht als eine vereinfachte und kompakte Darstellung mehrerer Metriken, die in die Bewertung einer Seite hineinspielen.

    Für die eigene Seite ist es doch ohnehin am relevantesten die Keywords zu monitoren, die Traffic und Conversions bringen. Teilweise sind diese ja gerade in Nischen leider nicht in den Sets der Tool-Anbieter enthalten!

    Aber gut, dass Dein Artikel das Thema mal anspricht! 🙂

  • Ich glaube man muss Sichtbarkeiten immer wenig wie den Pagerank betrachten. Hohe Sichtbarkeit weist in der Regel genau wie hoher (echter) Pagerank auf hohen Traffic hin. Kann, muss aber nicht. Die ganzen SEO-Tools können einem immer nur ein Gefühl für eine Domain geben, was am Ende wirklich stimmt weißt nur Google bzw. das Trackingsystem.

  • Signed 🙂
    Gerade das Keyword-Set ist mehr als fragwürdig. Man sollte sich immer vor Augen halten, dass es nur Kennzahlen von Drittanbietern sind.

  • FrauHolle

    Danke für diesen ausführlichen Artikel, ich als „alter Hase“ war schon immer der Meinung das diese Tools nur einem richtig nutzen, und das ist derjenige der die monatlichen Beiträge auf seinem Konto verbucht.

  • Armin Ginschel

    Hallo Julian,

    vielen Dank für den Artikel, der wirklich bitter nötig war.
    Ich kann Deiner Aussage nur zustimmen. In vielen Firma kommen die Verantwortlichen ständig mit irgendwelchen Kennzahlen wie dem Sistrix-Index. Und auch als Freiberufler war manchen Kunden nur der hohe Index wichtig.
    Manchmal möchte man ihnen entgegnen, dass sie nach dem Snafu-Index einen guten Wert haben.
    Ein ehemaliger Kunde brachte es mal schön auf den Punkt: „Mir sind Platzierung und kennzahlen egal, Hauptsache der Umsatz stimmt!“

  • Super Artikel,
    gerade beim Linktausch kommen ja alle inzwischen nur noch mit Sichtbarkeit um die Ecke wo ich mich dann immer frage gibt es eigentlich nichts mehr anderes? Ich mache das auch so wie Julian und schaue mir die Seitten schon ein bisschen genauer an, dazu gehört natürlich der Sichtbarkeitsindex aber auch noch viele andere Faktoren.

  • Klaus

    Ich liebe auch Kunden die nur auf die „Sichtbarkeit“ achten.

    PS: Herr Wagner aus Leipzig übertreibt es zur Zeit auch mit seinem Kommentarsp***

  • „Gesunder Menschenverstand“ ist eines meiner wichtigsten SEO-Tools….

  • Besonders interessant finde ich den Screenshot aus dem Webmaster Tool. SEOs machen am Wochenende wohl immer Pause. Das erklärt auch die Impressions. 🙂

  • Absoluter Gewinn und ROI sind die Kennzahlen auf die optimiert werden sollte. Das vergessen viele „Online Marketer“ nur zu gerne… von einem hohen SI kann man sich noch lange nichts kaufen.

  • Kann dem Artikel nur zustimmen.
    Habe mit meiner Website vor dem Pinguin Update fast 30.000 Besucher pro Tag gehabt, Sichbarkeitsindex war nur bei etwa 1,50, aktuell bei 0,22 und ich habe zurzeit noch knapp 10K Besucher am Tag.

  • Danke für den Artikel.
    Genau mein Gedankengang.

    Allerdings ist es immer etwas heikel den Kunden zu erklären man arbeitet mit „empirischen“ Daten auch wenn die Grafiken so wunderschön professionell aussehen.

  • Ich bin schon etwas amüsiert. Erlebt man beim Projektkauf, Linkanfragen, Bannerplätzen usw. fast nur noch die Frage nach dem SI von SEOs (und nur denen!), sind hier plötzlich alle auf einer Linie mit dem Artikelinhalt. Ich übrigens auch. Aber am Ende ist es so wie mit dem Pagerank. Keiner glaubt an ihn und jeder will ihn haben.

    Aber mal konkret: Ich habe eine Webseite, die seit Jahren kontinuierlich täglich mehrere Tausend Besucher hat. Der SI und auch andere Indexwerte sind sehr stark am Schwanken, zum Teil so wild, dass man Angst von allen schwarzweißen Tierchen haben muss, die von Google in die Welt gesetzt werden. Der Witz: Es hat NULL Einfluss auf das Projekt. Weder ändern sich Besucherzahlen, noch CR oder sonst etwas. Einer der Gründe: Zu einem Key mit 7-stelligem SV rankt die Seite mal auf 50, mal auf 150 und mal gar nicht (> 250). Für mich egal, aber für sämtliche Indexwerte nicht. Welche Aussagekraft hat das dann? Eben! Zum Teil steigen die Besucherzahlen auch bei sinkendem Wert, weil das eine (oder 2-3 Keys) eben um 50 Plätze VON egal auf noch egaler fallen, aber wichtige Keys mit kleinerem SV klettern …

    Wer also nach Si und Co guckt, sollte das nur machen, wenn er
    a) das Prinzip verstanden hat und
    b) sein Gehirn einschaltet.
    Letzteres leider immer seltener in diesem Zusammenhang zu beobachten …

    So ähnlich wird das auch mit Texttools laufen. Alle wollen Keyworddichte (ach ne, war gestern) und WDF/IDF (What da F+++ IDF?) und vergessen, dass es ganz am Ende auf GUTE Texte ankommt. Aber SEOs tauschen ja auch Texte mit Keys, die es nur als SEO-Begriff gibt und nicht als echtes Wort („Verbringen Sie hier ihren Urlaub USA.“) …

    Kritisches Hinterfragen und Luft nach oben: Das gehört bei allen SEO-Aspekten dazu und fehlt bei einigen Leuten leider …

  • Sehr sinnvoller Artikel Julian!

    Gerade bei Nischenthemen – z.B. dem Musikbereich Metal habe ich bemerkt, dass die Toolanbieter (ich habe diverse getestet) teilweise keine verlässlichen Daten liefern.

    Es gab kein Tool, welches mir verlässliche Daten für mein erstes Metalwebzine liefern konnte. Die Keywords aus den Datenbanken der Toolanbieter deckten sich nicht annähernd mit den Keywords aus den Webmaster-Tools von Google bzw. aus Analytics.

    Ob Sistrix SI, OVI oder die Graphen anderer Tools:
    Dauerhaft im unteren Bereich (Sistrix 0,00 – 0,01) und dennoch generierte ich von Monat zu Monat mehr Traffic.

    In diesem Sinne: Lieber die potenziellen Nutzer analysieren und die Seite entsprechend auf die Bedürfnisse der Nutzen anpassen, anstatt Statistiken auszuwerten um dann unsinnige / unnötige Keywords zu optimieren…

  • David

    Toller Artikel, entspricht genau meinem Empfinden.

    Ich für meinen Teil habe „SEO & Co.“ auf dem amerikanischen/englischsprachigen Markt gelernt, wo Sichtbarkeitsmetriken kaum, bis völlig unbekannt sind. Mit Abstrichen könnte man da vielleicht noch SeoMoz als Toolanbieter dazuzählen, ist allerdings ein anderer Ansatz.

    Auf dem US-Markt geht es um Traffic, Conversions und Umsätze. Ein paar ewiggestrige, die die Personalisierung und Lokalisierung der Suchergebnisse noch nicht mitbekommen haben, fragen noch vereinzelt nach Rankings. Und auf diesen basieren ja die Sichtbarkeits-Daten sämtlicher Anbieter, zusammen mit Traffic (siehe weiter unten) und Competition.

    Folgende Fragen habe ich mir bei einem Testlauf mit Sistrix gestellt:

    – Keyword Abdeckung bei gefühlten 5%, insbesondere in Nischen (ist nicht alles eine Nische?) völlig unzureichend. Dabei spreche ich von KWs mit 10.000+ exakten Suchabfragen/Monat. Riesige Sprünge im SI bei Ups & Downs von völlig irrelevanten Keywords wie Vornamen oder generischen Shortheads.

    – Wie lese ich den grünen (oder wars blau?) Traffic-Balken? Ist ein Wert von 35/100 gut? Wieviele Suchabfragen/Monat sind es denn? Warum haben Keywords den gleichen XX/100 Wert, obwohl sie lt. Googles KW-Tool um Welten ausseinanderliegen? Eine Validierung der Rentabilität ist damit völlig unmöglich.

    – Wie wird die Competition errechnet? Ein Vergleich mit Zahlen von Google und Semrush ergab keinen Zusammenhang.

    – Woher kommen die Traffic Daten? Lt. Sistrix „aus 22 Quellen“ die man auf Nachfrage nicht näher nennen wollte. Ich selbst kenne ausser Googles KW-Tool, der wohl bekanntesten Quelle, an die 4-5 grosse, vertrauenwürdige Anbieter. Nun, ich bin wohl nicht Sistrix.

    Zu Sichtbarkeit-Index: es ist in etwa so aussagekräftig, als wenn man 3 zufällig vorbeilaufende Rentner-Ehepaare zum werten Selbstbefinden befragt und danach die Ergebnisse der „Studie“ veröffentlich, unter dem Titel: „50% der Deutschen haben Rheuma“.

    Sichtbarkeit scheint in meinen Augen ein typisch deutsches Phänomen zu sein. Ein Versuch, aus einer sehr ungenauen Momentaufnahme Schlüsse ziehen zu wollen.

    Ergo: macht geile Seiten, die konvertieren. Oder beobachtet weiterhin Sichtbarkeits-Graphen 😉

    Gruss

    David

  • Hallo Julian, ich hoffe der Rankingverlust „Julian“ kratzt nicht so sehr am EGO (-:
    Du hast ja so Recht….Nice Weekend

  • Hallo,

    Ich finde den Artikel in seiner Grundaussage absolut richtig. Dieses Schwarz-Weiß-Denken finde ist allerdings sehr überspitzt.

    Wer seine eigene Website beurteilen möchte hat natürlich viel besser Analyse-Möglichkeiten wie Google-Analytics oder die Webmaster-Tools. Wer aber von „außen“ eine Seite/Domain überprüfen möchte, kann sehr gut mit KPIs arbeiten.

    Aus meiner Sicht sind die Daten auch verlässlich. Wer sich blind auf den Wert verlässt, dem helfen aber auch keine anderen Tools oder Werte weiter. Eine Portion gesunder Menschenverstand sollte schon dabei sein.

    Für mich ist der Sichtbarkeitsindex definitiv das beste Tool für die Bewertung einer Website von außen.

  • Basti

    Sehr guter Artikel und vielen Dank, dass dies mal gesagt wurde. Mich nervt es schon langsam wenn ich nur noch nach diesen Zahlen gefragt werde und alles andere ausgeblendet wird. Es sind alles ganz schöne zahlen, aber wenn es sich nicht messen lässt, anhand Besucher oder Conversions bringt mir das alles nichts.

    Mich würde es auch nicht wundern wenn manche mittlerweile sogar schon unbewusst auf die Tools hingehend optimieren. Das was uns bis jetzt am meisten Erfolg gebracht hat, ist unsere Köpfe zu benutzen.

  • Ich habe mir gerade seokratie.de in der Toolbox angeschaut und hier mal praxisnah aufgezeigt, warum Julian vielleicht doch nicht auf den Sichtbarkeitsindex „pfeifen“ sollte

    https://plus.google.com/u/0/107294527000562680486/post/6RNi91c2ZFQ

  • Danke für die Worte, endlich spricht es mal wer aus. Bei mir ist es meist so: Geht der SI runter, geht der Traffic rauf. Andersrum fällt er aber nicht ab sondern bleibt konstant bzw. steigt ebenso wenn der SI steigt. Die Kurve geht hoch und runter, der Traffic wächst dabei konstant ohne Einbrüche 🙂

  • Wir ärgern uns auch seit Monaten mit Leuten rum, die Preise am SI fest machen wollen. Mittlerweile geht es da nicht mehr nur um Link/Artikel Kauf und Verkauf, sondern auch Kunden fragen, ob man nicht eine Zielvereinbarung aufgrund des SI treffen könne. Dem erteilen wir immer eine klare Absage.
    Auch bei anderen Anbietern sieht man unfassbare Schwankungen, die es eigentlich nur im Aktienmarkt geben sollte.
    Erklärt man den Leuten dann minutiös, was für KPI’s sinnvoll sind, dann ist oft Einsicht da, aber nicht der Wille, Einkaufskriterien etc. zu ändern. Bitte Sichtbarkeitsmetriken einstampfen und weiterfahren.

  • Was mir hier in dem Artikel noch fehlt (auch wenn ich kein studierter Statistiker bin) ist, dass je mehr Scraping-Tools am Markt sind (und desto mehr Venture-Kapital hinten reingeblasen wird) desto mehr Impressions werden ohne echten Traffic generiert und verfälschen die Ergebnisse noch mehr als sie es bis jetzt schon sind.

    Gehen die Tools in Zukunft auch noch zusätzlich verstärkt auf Longtail-Keywords/Kombis über, wird sich dieses Phänomen noch weiter verstärken/vervielfachen und die Aussagekraft immer fragwürdiger…

    Es soll Webmaster geben, die fragen sich warum die Impressions in letzter Zeit stark steigen, aber die Besucherzahlen konstant bleiben…

    Früher hieß es immer, man solle nicht „die Katze im Sack kaufen“. Heute im Internet-Zeitalter müsste es eher heißen, man solle nicht „die Katze im Sack im monatlichen Abo kaufen“ 😉

  • sy

    Hanns,

    ich haette mir gewuenscht, dass du mehr auf das Inhaltliche und die gerechtfertigen Fragen, anstatt auf die Polemik von Julian eingestiegen waerst.

    Vielleicht waere dies ein guter Zeitpunkt endlich Transparenz zu schaffen? Ich habe vor 2 Jahren aehnliche bis heute unbeantwortete Fragen gestellt und bin mittlerweile wie viele Andere kein Kunde mehr – auch aus diesem Grund.

    Interessant waere neben einer genauen WIE Definition auch eine Begruendung des WARUM.

    Aktuell draengt sich unweigerlich der Verdacht auf, dass Sistrix unf Co nur fuer wirklich grosse Seiten nuetzlich sind. Alle die aus diesem Raster rausfallen, finanzieren euch letztlich nur die grossen Kunden quer – nicht mehr.

    Entweder muss die Gewichtung des oeffentlichen SI grundlegend ueberdacht werden (speziell die Relevanz von Keywords abseits der Top 15) oder aber ihr kommuniziert deutlicher -ohne um den heissen Brei Gerede und Schoenigung- an wen sich euer Angebot richtet.

    Ich verstehe durchaus euer Dilemma, waere auf der einen Seite eine einmalige „Inflation“ des SI doch bitter noetig, wuerde dies auf der anderen Seite bedeuten, dass die historischen Daten in Mitleidenschaft gezogen und es zu einem harten Schnitt kommen wuerde.

    Man sollte jedenfalls nicht zu lange an historischen Fehlern (Top100/festes Hauptset) festhalten und handeln. Ich gehe davon aus, dass euch bewusst ist, fuer was eure Kunden die reine Kennzahl SI primaer nutzen, was euren Verweis auf eigene KW-Sets ad absurdum fuehren wuerde – entweder moechtet ihr eine greifbare und vergleichbare Waehrung sein oder eben nicht. Es klar und deutlich zu kommunizieren liegt an euch.

    Denkbar waere z.B. ein neuer paralell-SI der langsam den alten abloest, auch wenn es fuer euch Mehrkosten und Mehraufwand bedeutet.

    Liebe Gruesse

  • Hallo Julian,

    wieder ein sehr guter Artikel von Dir. Das Thema hatte ich im November letzten Jahres in meinem B.Om:b Podcast zusamme mit dem Tobias besprochen:
    http://www.baynado.de/blog/bomb02-sichtbarkeitsindex-manipulieren

    Wer ein wenig recherchiert und ein wenig Fingerspitzengefühl hat, kann seine Si schön Pimpen und auf einmal kommen Sie alle wieder angekrochen und wollen Links haben. Muahahaha!!
    Die anderen Kennzahklen die Domianpop und IP-Pop kann man dank gigalo.de doch auch für ’nen Apple und einn Ei pimpen.

    Grundsätzlich wähle ich meine Linkpartner aber auch nach Deinen Kirterien aus. Passt die Zielgruppe, das Thema und wirkt die Seite ordentlich gepflegt und fertig ist. Vielleicht sollten wir SEOs uns auch viel mehr die reellen Besucherzahlen vom Partner geben lassen und anhand dieser Werte eine Domain bewerten. Das wäre das einfachste und sicherste. Scheiß auf PR! Fuck off SI & OVI!

    Das einzige was zählt, bekomme ich über den Link gute Besucher zu meiner Seite. Das Ranking im Google wird sowieso immer unberechnenbarer durch die personalisierte Suche werden.

  • Julian

    @sy: Dass Du gleich Sistrix gekündigt hast, verstehe ich nicht. Sistrix (und alle anderen Tools) haben so viele mehr Funktionen als nur die SEO-Graphen. Die anderen Funktionen sind sehr nützlich, auch für kleine Seiten!

  • FrauHolle

    @Julian,

    die Tools haben in meinen Augen keinerlei Funtionen die man nicht auch für „lau“ im Internet bekommt.

    Aber ich bin ja wie schon geschrieben eh einer vom alten Schlag, der mehr mit Hirn und Verstand arbeitet als mit diversen Tools. Und es gab noch keinen Kunden, den ich auch ohne diese Tools nicht nach vorne gebracht habe…

  • sy

    @Julian
    Ich schrieb „auch aus diesem Grund“, womit ich implizieren wollte, dass die Intranzparenz und die Unbrauchbarkeit fuer Nischen einen Teil zu meiner Entscheidung beigetragen haben.

    Andere Faktoren waren (meiner Bescheidenen Meinung nach) schlechte Workflows, Restriktionen (Export) trotz anders lautender Werbeversprechen, fehlendes Kundengehoer und ein -im Verhaeltnis- zu hoher Preis.

    Aber hey, ich moechte Sistrix auf keinen Fall schlecht reden oder schaden. Wie erwaehnt war ich vor etwa 2 Jahren Kunde, es kann und wird sich seither sicher viel getan haben und ich bin der letzte, der nicht wieder Kunde werden wuerde, wenn mich das Produkt wieder ueberzeugt. Andere Anbieter sind ja nicht besser, sondern nur preiswerter oder gar kostenlos – was es ertragbarer macht, ueber Dinge hinwegzusehen – insbesondere wenn man Agentur-Features nicht benoetigt.

    Was aber alles nichts daran aendert, das meine Fragen noch immer offen bleiben. Hanns wird nach dem Wochenede sicher die richtigen Antworten geben koennen.

    Liebe Gruessw

  • Steffen

    Super Artikel, Julian! Nachdem ich immer wieder mit ominösen SI-Werten zutun hatte nutze ich sie inzwischen fast nur noch z.B. um Penalties zu erkennen. Details lassen sich am besten mit Google selbst oder Tools wie den WMT analysieren. Fürs Linkbuilding kommt dann noch SeoKicks dazu und schon hat man kostenlos alle relevanten Infos die man braucht.

  • @sy
    Meiner Meinung nach bin ich auf die inhaltlichen Fragen eingegangen. Wie bereits im Artikel und meinem ersten Kommentar erwähnt, stellen wir ein kostenloses E-Book zur Verfügung, in dem auf 123 Seiten alle möglichen Fragen zum Sichtbarkeitsindex beantwortet werden. Wir zeigen damit wesentlich mehr Tranzparenz als andere Toolanbieter. In insgesamt 9 Fallstudien wird dort außerdem gezeigt, was man aus den Daten lesen kann und was nicht. In Fallstudie 9 zeigen wir auch ganz offen ein Beispiel, bei dem der allgemeine Sichtbarkeitsindex keine geeignete Kennzahl ist. Hast Du das mal gelesen?

    Wenn man kleine Nischen analysieren will, kann man im SISTRIX Optimizer eigene Keywords anlegen und seinen eigenen Sichtbarkeitsindex berechnen lassen. Inzwischen geht das für rund 40 Länder. Damit läßt sich jede noch so kleine Nische perfekt analysieren.

    Jeder kann die Toolbox kostenlos und unverbindlich praktisch ohne Einschränkungen 14 Tage testen, um dann zu enzscheiden, ob sie für ihn nützlich sind. Eine Kündigung nach Ende des Testzeitraums ist nicht notwendig. Ich halte das für ein extrem faires und offenes Angebot. Und wenn es für Dich nicht das richtige ist, ist es ja auch ok.

  • Steve-O

    Das kann ich mal eben voll unterschreiben. Wir haben laut Tool vor ein paar Wochen mit einem Projekt rund 50% Sichtbarkeit verloren. Das führt natürlich zunächst zu einigen Panikttacken. Im Traffic sieht man aber nach mehr als einer Woche nahezu keine Veränderung, weil nur Longtailkeywords betroffen waren, die sowieso kaum Traffic bringen.

  • eine gewisse tool-hörigkeit ist gerade bei halbwissenden ein großes problem. wer zahlen und statistiken ohne verstand anschaut, sollte lieber die finger ganz davon lassen. es ist wohl das allgemeine menschliche streben nach „schnell erfolgreich, möglichst automatisch auf knopfdruck“… fatal.

    denn wir alle wissen es eigentlich: was gut oder sehr gut sein oder werden soll, braucht viel arbeit und liebe.

    dementsprechend sollte man websites für das zielpublikum bauen. ob eigene oder kundensites, spielt dabei keine rolle. fremde sites „adoptiert“ man und macht alles so, daß das publikum sich rundum glücklich fühlt.

    das geheimnis großartiger sites ist: viel arbeit und liebe zum detail.

  • Hans ohne N

    Hanns, ihr wollt es vielleicht nicht verstehen, denn ihr müsstet damit ja große Fehler in eurem Tool zugeben, aber es geht in dieser Diskussion nicht mehr um das (schlechte) Keywordset, sondern einfach Falschberechnungen.

    Wenn ein KW mit ~100 Suchanfragen in den Top 10 einen SI von ~0,X erzeugt, dann hat das weder was mit dem Keywordset zu tun, noch mit Statistik. Das ist einfach ein FEHLER. Aber scheinbar sitzt der so tief, das man ihn nicht fixen möchte oder kann, sondern es auf Grundlagen der Statistik schiebt und im gleichen Satz noch seine Toolnutzer als dumm beleidigt.
    Infolgedessen bringt es auch nichts, einen eigenen SI-Index für ein eigenes KW-Set zu erstellen, wenn es Fehler in dessen Berechnung gibt.

    Gerne darfst Du jetzt noch mit ein paar Begriffen aus der Statistik rumschmeißen. Schreib vielleicht gleich einen Blogbeitrag darüber, in dem Du das genauer erklärst. Ich denke ehemalige Kollegen wie Herr Kauermann an der TU München bewerten dieser Erklärung dann gerne mal.
    Aber dieser hat natürlich, zumindest soweit ich weiß, keinerlei Erfahrungen im SEO Bereich. Deshalb wird der dann wieder rausfallen, oder?
    Macht euch nicht zu was, was ihr nicht seid.

    Ansonsten sind die restlichen Features, wie hier in den Kommentaren ja bereits gesagt, ebenso oft nicht mehr viel Wert. Neben dem, dass vor allem bei Sistrix Suchanfragen nicht stimmen und wohl ca. jedes 4. Keyword signifikant falsch ist, (80/100 bei 85 Suchanfragen?! und das ist kein Einzelfall) kann man es dafür also auch schonmal knicken.
    Auch Rankingdaten sollte der ein oder andere des öfteren mal prüfen, denn auch hier sitmmt öfters bei mehr Keywords als man denkt was nicht. Aber da liegt es natürlich an lokalen Gegebenheiten und personalisierter Suche. Bestimmt!

    Ansonsten gibts noch Linkdaten, nun gut, die kosten zum einen extra und sind zum andern bei allen deutschen Tools, die diese selbst crawlen, zum fremdschämen.

  • Hans ohne N

    *Natürlich LMU, nicht TU 😉

  • Hey Julian

    Das Haupt-Fazit deines Posts ist doch im Grunde: „Bitte Hirn einschalten, wenn man Sichtbarkeitsdaten auswertet.“ Aber gilt das denn nicht für alle Tools und Daten (und auch sonst noch für ein paar Lebensbereiche)? Ich wundere mich ein wenig, dass das nicht sowieso als Selbstverständlichkeit wahrgenommen wird…

    Gruss Mirko

  • Der Pagerank und der SI hören da glaube in eine Schublade.
    Ein Werbepartner hat uns Anhand des SI eine Absage erteilt. Wir lägen mit unseren Werten unter dem minimum SI.
    Schade dass die Werbeinhalte genau mit den Seiteninhalten von uns übereinstimmten.

  • Guter Artikel.

    Sichtbarkeit nervt total ab.

    Die Sichtbarkeit wird von Tools unterschiedlich bewertet und skaliert. Hier wäre zumindest eine einheitliche Berechnung wünschenswert.

    Die Visibilty als DAS Kriterium ist genauso wenig aussagefähig, wie das dies das Alex Ranking. Die hier gezeigten Trafficangaben sind meist Lichtjahre von der Realität entfernt.

    Mit der Visibility verhält es sich doch wie vor Jahren um den Page Rank. Jeder wollte undbedingt einen hohen Page Rank vorzeigen. Und…. der hatte zu keiner Zeit etwas mit den Ranking ind den SERP´s und dem Traffic zu tun. Viele Seiten mit PR „0“ standen (und stehen noch heute ) auf Seite 1.

  • Stavros Kourtidis

    Endlich nimmt die Anzahl zu. Nämlich der Menschen die, die Werte Objektiv sehen und nicht als Absolut. Immer wieder stoße ich beim Tausch auf Menschen (Auch von großen Agenturen), die sich für einen Link auf den SI beziehen, sonnst sei er nichts Wert…

    Naja, mein Beitrag auf Xing vom letzten November, wird jetzt wahrscheinlich ernster genommen, da auch renommierte SEO`s, wie du Julian, die länger dabei sind, es offiziell äußern.

    Hier mein Beitrag:
    https://www.xing.com/topics/de/sichtbarkeit-furs-linkbuilding-8083

    lg
    Stavros

  • Interessanter Beitrag. Vor allem lese ich hier Emotionen bzw. einen Artikel, der durch Emotionen geschrieben wurde.

    ich habe auch ein paar Domains, die ranken laut XOVI gar nicht. Ich habe einen OVI von 0,01.

    Auf der Domain habe ich aber aufgrund von 8 saustarken Backlinks (Wikipedia + deutsche-startups.de + noch diverse andere starke Webseiten) mehr täglichen Google-Traffic nach 3 Monaten schon, als bei anderen Contentseiten, die ich seit mehr als 2 Jahren betreue.

    Trotzdem gebe ich zu, dass ich für Kunden auch XOVI oft heranziehe, weil man oft schon eine Insgesamt-Entwicklung sehen kann.

  • Hi Julian. Ist das der selbe Julian, der Projekte mit mind. SI 1.0 sucht ;o)

  • Julian

    Hi Ralf,

    Leider ja. Weil viele Leute, von denen wir Links wollen, eben nur auf Sichtbarkeit gucken, hatte ich probiert, günstige Projekte mit Sichtbarkeitsindex zu kaufen. Die Projekte waren aber oft dermaßen schlecht, dass ich mittlerweile davon abgekommen bin.

  • Hi Julian,

    toller Beitrag, genau das gleiche predige ich auch immer wieder, wenn jemand wegen der Sichtbarkeit jammer, aber seine echten Traffic und Umsatzzahlen nicht dagegen hält. Ich kenne mehrere Fälle, bei welche die Sichtbarkeitswerte absichtlich nach unten gingen und der Traffic und der Umsatz gestiegen ist.

    Ich denke manchmal, wer nur nach der Sichtbarkeit steuert, macht das zum Teil nur deshalb, weil er kein ordentliches Trackingtool hat, oder es schlichtweg nicht besser weiß.

    Gruss

    Knut

  • Sieht ja so aus, als wenn die Mehrheit der Kommentare hier eindeutig kontra SI ist. Warum? Letztendlich nutzt ihn doch fast jeder.

    …meiner Meinung nach auch zurecht. Denn es geht doch beim operativen Linkbuilding meist darum, große Mengen an Domains vorzusortieren bzw. auszufiltern. Wenn mir jemand eine SEO Metrik nennen kann, die dafür besser geeignet ist als der SI (abgesehen vllt von Searchmetrix Visibility u Co) bin ich echt gespannt.

    Ich glaube, die meisten Kritiker hier übersehen einige wichtige Punkte:

    – Wenn ein Projekt auch noch so themenrelevant für einen Link ist, noch so liebevoll mit hochwertigem Content ausgestattet ist oder noch so viele Backlinks hat, nützt das alles nichts, wenn Google das nicht honoriert. Entweder, weil es aus technischen Gründen nicht erkannt wird, oder weil zB das Linkprofil unnatürlich ist, oder, oder, oder. Und am Ende gibt es keinen besseren Beweis für Trust bei google als Rankings, ergo Sichtbarkeit.

    – Das Keywordset bei sistrix ist unzureichend? Ja klar, besonders bei Nischenwebsites. Aber dann schaue ich halt bei searchmetrix u Co rein (alle SI Metriken gibt es ja kostenlos). Wenn die Rankings von keinem der Anbieter gefunden werden, kann man getrost davon ausgehen, dass sie vernachlässigbar sind. Dazu kommt eben der große Vorteil bei sistrix, dass die Sichtbarkeit im zeitlichen Verlauf absolut aussagekräftig ist. Das geht natürlich nur auf Kosten eines halbwegs konstanten KW-Sets. Da nehme ich gerne in Kauf, das meine Nischenseite A unterm SI-Radar bleibt. Dafür hat Seite B dann eben etwas mehr Sichtbarkeit.

    – Es gibt einen Fehler bei der Berechnung? Das glaube ich kaum. Das Problem sind nur die (teilweise) veralteten/ungenauen Daten für die Suchvolumen. Beim Vergleich von großen Seiten mit hinreichend vielen Keywords ist das aber vernachlässigbar. Genauso natürlich bei der Analyse im zeitlichen Verlauf.

    – Trafficdaten wären zur Linkbewertung aussagekräftiger als Sichtbarkeit? Für mich nicht. Ich will lieber einen Link von einer Seite, die viele/gute Rankings hat, als von einer Seite, die viel Traffic über sonstwelche Quellen bekommt. Selbst wenn über diesen Link weniger Besucher kommen als bei der Trafficseite. Hier muss aber jeder selbst wissen, ob es ihm beim Linkaufbau in erster Linie um Trust geht (->SEO) oder um direkten Traffic.

    – Ich trau mich gar nicht mit Statistik anzukommen, aber darum geht es letztendlich. Eine ungenaue Information ist besser als gar keine. Wenn eure Seite bei sistrix abloost nehmt es sportlich. Dafür klappst bei einer anderen Seite. Bei der Analyse großer URL-Listen geht es vor allem um Zeitersparnis. Und da liegt dann die Stärke der Metrik. Bei großen Datenmengen passt es im Mittel recht gut.

    Wahrscheinlich polarisiert die Sichtbarkeit so krass, weil einige sie direkt für den Werte eines Links einsetzen wollen und andere dann beleidigt sind, wenn ihre Seite dabei schlecht abschneidet. Wenn man sie aber richtig interpretiert, ist sie derzeit die wertvollste Kennzahl, die ich kenne.

    Ich hab mich in letzter Zeit echt viel mit dem SI auseinandergesetzt. Eine Frage kann ich mir aber immer noch nicht beantworten. Vielleicht weiß jemand, woher sistrix die Daten zur erwarteten Klickrate für jedes Keyword nimmt. ZB sollen Brand-Keys auf #1 deutlich besser abschneiden als Informations-KWs (logischerweise), was dann bei der Berechnung des SI berücksichtigt wird. Gibt es da Daten für jedes individuelle Key oder unterteilt sistrix einfach in Klassen (Brand-Keys, Longtail etc)?

  • @niko, guck dir mal die Metriken an, die Seomoz über sein API anbietet.

    Mit einem starren Keywordset hat man ein großes Problem, da neue Themen nicht abgebildet werden. Ich spreche nicht von Eintagsfliegen, sondern z.B. von Dingen wie 3d-Druckern, Putzroboter, ein neuer Formel-1-Star, …

  • Leider scheint keine der Metriken bei seomoz direkt auf Rankings zu basieren. Trotzdem sind da glaube ich einige nützliche Kennzahlen dabei. Danke für den Tipp! Wusste gar nicht, dass es da ne gratis Version gibt.

    Ja, das Problem mit dem starren Keywordset besteht leider bei sistrix. Deshalb muss man auch gelegentlich mal bei xovi usw reinschauen.

  • Stavros Kourtidis

    @Niko,

    ist dass ein Witz, oder machst du nur Werbung für Sistrix?

    Dom POP und IP Pop und ob die Website zu einem der Suchbegriffe rankt, für die der Link gesetzt werden soll, sind die werte die du brauchst. Was nutzt der Si von 10,00 (der übrigens ein totaler Schätzwert ist), wenn für das bestimmte Keyword kein Ranking erzielt wird.

    Was für und wie viele eingehende Links, zu der bestimmten Kategorie, oder Unterseite auf der der Link gesetzt wird, das ist interessant.

    Der Si, OVi oder Paperlapapp führt Irre. Er sagt keine echten Zahlen aus, sondern was jeglich der Toolanbieter an Besucher SCHÄTZT. Gemessen an den Rankings der Seite und dem Suchvolumen. Aber die Formel, wie Sistrix, Xovi oder Paperlapapp es berechnet ist A: Nicht bekannt, B. nur eine fiktive Zahl. Hier laut sistrix selber mir einem Auszug von Johannes Beus:“ Je nach erwarteter Klickrate auf den unterschiedlichen Positionen (hier wird zwischen den Keywords differenziert, da Navigationssuchen wie ‚ebay‘ auf der ersten Position eine deutlich höhere Klickrate als beispielsweise informationsgetriebene Suchen haben) und Suchvolumen auf diesem Keyword wird dann für jeden der 25 Millionen Datenpunkt ein gewichteter Wert gebildet.“ Link: http://www.sistrix.de/news/sistrix-sichtbarkeitsindex/

    Aber ist es denn nicht statistisch erwiesen, dass man selbst die CTR nicht 100% definieren kann? auch der Google Dance wird nicht berücksichtigt. D.h. die rankings werden zu einem bestimmten Zeitpunkt zwar analsiert, aber wenn ein richtiger Dance stattfindet, ist die Seite zu verschiedenen Zeiten auf verschiedenen Positionen. Während einer Stunde, während eines Tages, in der Woche. Bis google ausgewertet hat und die Positionen neu bestimmt wurden. Ganz zu schweigen von Suchbegriffen, die nicht in der Sistrix Datenbank vorhanden sind.

    Aber ich mache Sistrix nicht nieder. Es zeigt ja Werte an, die ich brauche, wie: Eingehende Links, Social Signals, Dom Pop, Netzwerke, Linktexte, Linkziele… da ist sitrix doch gut drin.

    Ich bin nur gegen den bestimmten Wert. Er zeigt nichts Wahres an, nur ein Schätzwert.
    Genauso kannst du ein Tool benutzten um Lottozahlen zu Schätzen. Leg ne Datenbank an, alle Nummern aus dem Archiv rein, Algorithmus der die besten Daten ausspuckt, fertig. Soll ich meine Kampagnen wirklich über so einen Wert beeinflussen lassen?

    lg
    Stavros

  • Hi Julian. Danke für Dein offenes Feedback/ Antwort. Wir haben schon Ende 2011 über SIO anstatt SEO gebloggt. Denn der SI ist leider zur Währung vieler geworden. Mittlerweile haben wir zwar aufgegeben, gegen dieses Windrad zu kämpfen, aber auch weil es nicht mehr wichtig ist. Denn wenn wir versuchen Links zu bekommen, dann sprechen wir nach Möglichkeit NICHT mit (Hobby-)SEO´s, sondern mit Leuten, die eine Site auf Inhalte, Eignung und Relevanz prüfen, und nicht auf eine Metrik, die zu 95% nichts über eine Site aussagt. Und die die einen guten SI unbedingt wollen/ für Ihre Entscheider brauchen, die bekommen dann halt eine Absage ODER ein/ zwei Links mehr ;o)

  • @niko, nein seomoz bietet reine Linkdaten an. Gerade bei Xovi habe ich auch kuriose Beobachtungen gemacht, z.B. dass für eine ganze reihe von Domains die Werte sprunghaft angestiegen sind, ohne dass sich im Traffic etwas getan hätte. Das zugrunde liegende Problem wurde oben bereits schon einige male angesprochen. Rankings auf den hinteren Plätzen zählen rein.

  • Toller Artikel, keine Frage, aber mal ernsthaft, jeder der Daten nicht hinterfragt sondern einfach blind nutzt ist doch selbst schuld.
    Eine gesunde Skepsis gehört zu so ziemlich jedem Job und sollte auch bei der Verwendung von Tools oder dem betrachten von Werbung nicht fehlen.
    So groß auch der personal trust Faktor sein mag und so lieb wie sich alle immer haben… solange ein Toolanbieter mir vorschreibt welche Daten wichtig sind ohne diese im Detail zu benennen, fehlt mir eine Komponente .. nämlich die für mich wichtige !

  • @Stavros,
    irgend jemand muss ja hier mal Partei für die Sichtbarkeit ergreifen 😉 …nichts gegen Lob für einen guten Artikel, aber nach 50 mal „Danke Julian für den tollen Artikel!“ (gähn) kann eine kleine Diskussion sicher nicht schaden.

    Aber im Ernst, ich bin wirklich vom Nutzen der Kennzahl überzeugt. Versteh mich nicht falsch – ich bin mir bewusst, dass es sich um eine Schätzung handelt. Deshalb ist sie aber nicht schlechter als Domainpop oder IP-Pop. Je nach Anbieter können hier die Zahlen auch locker um mehrere hundert % abweichen. Scheinbar glauben die Leute, die Sichtbarkeit müsste 1:1 den Traffic abbilden. Das wird aber NIE klappen, zB auch wegen fehlenden Keywords, Google Dance, pipapo, wie du schon angesprochen hast. Aber das ist doch auch ok. Ich kann aus der Metrik trotzdem ablesen ob die Seite einen positiven oder negativen Trend hat, ob sie rankt, und bei Seiten aus demselben Themengebiet würde ich den SI sogar für einen direkten Vergleich heranziehen.

    @Naden,
    ja beim Ovi ist es ganz ähnlich. Die Rankings auf den hinteren Positionen bringen zwar kein Traffic, werden aber bei der Sichtbarkeit berücksichtigt. Aber mir geht es wie schon gesagt auch gar nicht darum, den Traffic zu schätzen. Ich würde es sogar ausdrücklich begrüßen, wenn bei der Berechnung der Sichtbarkeiten die Klickraten überhaupt nicht mehr herangezogen würden. Google sortiert sich die Top 100 ja einfach nur nach einem internen Score für Trust und Relevanz. Dabei besteht aber kein nicht-linearer Zusammenhang zw. Ranking und Trust bzw Relevanz. Berücksichtigt man die CTRs führt das aber zu einen nicht-linearen Zusammenhang. Dann kommt wahrsch. #1 auf 30% mehr Sichtbarkeit als #2 (sofern es nur ein einziges Key gibt). Als Linkgeber ist die Seite aber möglicherweise nur marginal besser/stärker.

    Aber wie gesagt, es ist sowieso alles nur eine grobe Schätzung. Etwa wie bei einer Wettervorhersage. Tausend Einflüsse können nicht berücksichtigt werden. Trotzdem kann man gewisse Tendenzen erkennen.

  • Stavros Kourtidis

    @Niko,

    ich bin der Meinung man kann (fast-)absolute Werte, wie Dom Pop, Ip POP und Social Signals, nicht mit einem geschätzten Wert vergleichen.
    Aber wir können uns darauf einigen, dass jeder SEO, nach seinen eigenen Werten für ein Link, oder dem Wert einer Website, gehen muss. Schließlich ist es ja so, dass auch wenn eine Website einen Riesenwert hat, man nicht unbedingt einen Link davon generieren kann, oder auch, dass man aus unbedeutende Websites den Link nimmt.

    Mann nimmt was man kriegen kann. Vorsicht nur bei Seiten, die von google als Spam markiert wurden, aber um Spamer zu identifizieren, noch im Index sind.

    Und ja, die meisten schreiben nur ne Zeile und generieren einen Link. Wobei ich immer den Link entferne, in meinen Blogs. Der ist ja nicht da, um Links zu generieren, sondern Diskussionen zu fördern. Da hast du Recht, Niko 😀

    Wünsche allen eine schöne Linkschlacht

    euer
    Stavros

  • Ich denke es ist jedem erfahrenen SEO klar, das die Sichtbarkeit keine „Business Intelligence“-Komponente mit absoluten Werten sein kann, sondern ein Indikator im Rahmen einer Analyse ist. Und ähnlich wie bei analytischen Daten, die ebenfalls nie akkurat sein können, müssen auch die SI-Daten hinterfragt und überprüft werden. Der größte Nutzen ergibt sich schließlich, wenn alle verfügbaren Daten im zeitlichen Verlauf kombiniert betrachtet werden, da sich auf diese Weise Rückschlüsse auf spezifische, bzw. systemische Defizite/Zusammenhänge ziehen lassen. SI-Daten haben in diesem Kontext natürlich ihre Berechtigung. Es ist trotzdem immer wieder interessant zu beobachten, zu welchen Reaktionen die hier natürlich beabsichtigt polarisierende Haltung führt 😉

    Steven

  • Sehr guter Beitrag!
    Am Ende des Tages muss man selbst schauen wie der Traffic auf der Seite bzw. die Conversions (Analytics, Webmaster Tools etc.) sich entwickelt. Der SI ist ein netter Wert zum Vergleich, sollte aber nicht zu hoch gewertet werden.

    Viele Grüße

  • pit

    Hi
    Sehr guter Beitrag. Gratuliere. Alleredings habe ich bezüglich „Sichtbarkeit“ seit dem Pinguin2 ein ernstes Problem. Meine Webseite ist 12 Jahre alt, und war bisher immer toppgelistet. (Seite 1 oder 2)
    Nun aber ist diese unter meinem Hauptkeyword ins „Nirwana“ verschwunden. NUR MIT DIESEM KEYWORD!
    Unter andern, ebenfalls wichtigen Keywords, ist sie jedoch nach wie vor auf Seite 1 oder 2 aufgeführt.
    Alle Unterseiten ranken ebenfalls sehr gut.
    Nun behauptet jedoch ein Seo-erfahrener Bekannter, sie hätter auf SISTRIX einen Sichtbarkeitsindex von NULL!
    Ist also der „Sichtbarkeitsindex doch nicht so unbegründet?

  • Julian

    Hallo Pit,

    Hat sie denn noch viele Besucher?

  • pit

    Hallo Julian
    Die Besucheranzahl kann ich nicht so genau überprüfen, da ich im Moment „Google Analytics“ noch nicht erstellt habe. Werde dies aber nachholen.Habe lediglich einen „Besucherzähler“ installiert. Heute hatte ich etwa 70 Besucher. Da die Unterseiten wie bereits schon erwähnt recht gut gelistet sind, kommen aktuell die Besucher vermtlich eher „um die Ecke“ via Unterseite auf meine Start-Seite. Es könnte eventuell auch sein, dass die Erstellung der Linkstruktur schuld daran ist und Google neu seit der Aenderung des Algorhytmus dieser einen viel höheren Stellenwert einräumt als bisher. Einige Fehler ( welche in der Vergangenheit offenbar verzieghen wurden) habe ich heute entdeckt.

  • Schöner Artikel und traurig, dass er so aktuell ist (wenn man in diversen Kanälen unterwegs ist, liest man das viele Jammern). Für uns war das allerdings nie ein Thema, wir sind Statistiker (im Nebenfach) und sind daher noch nicht einmal auf die Idee gekommen, dies irgendwie alleinig zu nutzen.

    Zwei Ergänzungen aber:
    1) Ein SI von 1 und 0,1 macht in Einzelfällen sehr wohl etwas aus. Für unsere Domain können wir 1:1 im Nachkommabereich unsere Aktivitäten feststellen, die auch mit dem Traffic korrespondieren.

    2) In allen anderen Fällen liegst Du völlig falsch. Ebenso wie ein Pagerank von 3 sehr viel besser als ein PR von 1 ist, so ist ein SI von 1 auch sehr viel besser als einer, der die 1 nicht erreicht. „Schwanzvergleich“ lässt hier grüßen 😉

  • Annette

    Ich verstehe den Hype um den Sichtbarkeitsindex auch nicht. Ich sehe meine eigene Seite, die sehr gute Rankings für zahlreiche Keywords erzielt, aber nur einen geringen Sichtbarkeitsindex hat und die Konkurrenzseiten, die nur selten bei den Keywords auf der ersten Seite erscheinen, aber einen höheren Sichtbarkeitsindex haben.. und kann mir das absolut nicht erklären. Warum ist das so? Was hat das mit „Sichtbarkeit“ zu tun? So variabel sind die Keywords doch nun auch nicht, oder? o.O

  • Auch wenn ich doch recht spät kommentiere, so ist das nicht minder wichtig und immer noch aktuell.

    Du sprichst mir aus der Seele. Fehlende Standards, dauernde Updates und mitunter schlechte Datenqualität…

    Habe Domains im Portfolio mit einem schlechten Index, aber Top Listungen bei den wichtigsten Keywords und Phrasen. Und viele der für mich / meine Kunden wichtigen keywords sind oftmals nicht in den Tools enthalten

    Tool ja, für den groben Überblick. Mehr nicht.

  • Ich denke, daß der SI genau wie der Pagerank ziemlich wertvoll ist, wenn es darum geht, Kooperationen gleich welcher Art einzugehen. Da schaue ich genauso auf die Kennzahlen, wie mein Gegenüber. Das man allerdings auch noch ein paar andere Dinge beachten muss – und diese teilweise wesentlich mehr über den Wert eines Links verraten – ist hier ja schon ein paar Mal erwähnt worden.
    Und mal ganz ehrlich: für mich ist der SI eine nette Kennzahl fürs Gefühl.

  • Ganz starker Artikel gerade was den Nutzen vom Sichtbarkeitsindex für kleinere Webseiten betrifft. Was für große Seiten vielleicht Sinn macht, muss ja nicht für kleine stimmen. Gerade bei neuen und kleineren Webseiten finde ich den Sichtbarkeitsindex fast nutzlos.

    Die Kritik, die hier ausgedrückt wurde ist sinnvoll und nachvollziehbar. Danke dafür

  • Sehr guter Artikel, den ich leider erst jetzt gefunden habe. Marketing war schon immer ein Fan davon, wichtige einzelne Kennzahlen einzudampfen auf eine Kennzahl, an der Erfolg gemessen werden kann. Tausenderkontaktpreise, Conversion Rates … und als die Krönung dann der Sichtbarkeitsindex. Den hatte ich ewig nicht auf dem Schirm bis ein Freund mal davon erzählte. Und ich hatte sofort Bauchschmerz damit. OK, wer bestimmt eigentlich die Keywords? Wie viele Keywords gibt es da eigentlich? Wie werden die gewichtet? Nach Suchvolumen? Wo kommt das her? Fragen über Fragen. Klar, eine hohe Sichtbarkeit heißt in der Regel, dass die Seite ordentlich optimiert ist, viele Seiten enthält, etc. Aber eine Vergleichbarkeit ist ganz und gar nicht gegeben. Ich habe schon SEO-Analysen gesehen, die eine zu bewertende Webseite mit Wikipedia, ebay vergleichen, fernab der Branche. Klar deckt Wikipedia mit seinen immens vielen verschiedenen Themenseiten und dem Trust sehr viele Keywords ab und hat hierdurch notgedrungen einen höheren SI als der Eierkuchenpfannen-Online-Shop mit seinen eng gesteckten Keywords.

    Ich Ich selbst nutze nur Seolytics in einer freien Version und wundere mich immer wieder, was das Tool für Keywords für unseren Coprorate Blog auswählt, welche sich natürlich auch, wenn sie denn (gerechtfertigt) fallen, auf die Sichtbarkeit auswirken. Ob mir diese Keywords tatsächlich was bedeuten … egal. Deswegen bin ich mittlerweile soweit, den SI eher als Tendenz anzusehen. Wenn da was einbricht, sind die Keywords zu checken. Ggf. betrifft es nur unwichtige Keys. Auf den Traffic hat er in unserem kleinen Bereich gar keine Auswirkungen, der bleibt konstant, trotzdem wir einige SI-Einbrüche hatten.

  • Es wäre ja schon hilfreich, wenn die Tools Keywords bzw. Keyword Kombis erst ab einem gewissen Suchvolumen – z.B. >1 – berücksichtigen würden. Da würde dann schon viel Schrott ausgefiltert.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind markiert *

Willst Du fit in SEO werden?

Abonniere unseren Newsletter und bleibe in Sachen SEO, Inbound- & Online-Marketing auf dem Laufenden.

Du kannst den Newsletter jederzeit wieder abbestellen.