Die fünf am wenigsten beachteten Onpage Fehler 2012

15. Oktober 2012  |     |  55 Kommentare
Ein Beitrag von Julian Dziki

Viele Onpage-Fehler sind relativ trivial und leicht zu entdecken. Es gibt aber einige, die immer wieder vorkommen und sowohl von “normalen Webmastern” wie auch von SEO Agenturen kaum auf dem Radar sind. Sie kommen selten in einführenden Artikeln vor, auch nicht in Büchern über SEO – daweil können sie das Ranking einer Webseite entscheidend bremsen. Heute will ich mal ein paar dieser Fehler aufzeigen.

Manche Onpage Fehler kann man leicht übersehen

#1 Wiederkehrende Textbausteine

Momentan ist Google überempfindlich was wiederkehrenden Text auf einer Webseite angeht. Dabei handelt es sich in der Regel um Versandinformationen, Hinweise im Footer und dergleichen. Am besten ist es, wenn man diese Texte so weit wie möglich reduziert. Google wäre es am liebsten, wenn eine Seite nur aus Content bestehen würde. Ihre Meinung:

“Minimieren Sie wiederkehrende Textbausteine: Anstatt am Ende jeder Seite umfangreiche Urheberrechtshinweise einzufügen, können Sie lediglich eine kurze Zusammenfassung mit einem Link zu detaillierten Informationen aufführen.

Bei Duplicate Content denken viele SEOs immer an externen Duplicate Content. Er wirkt aber auch intern und das oft gewaltig! Achtet daher darauf, dass ein sehr hoher Prozentsatz Eurer Inhalte unique ist. Das bedeutet oft, diverse Texte in Sidebar und Footer zu löschen. Anstatt zu schreiben “Versand innerhalb von 24 Stunden” ist es daher oft klüger, man bindet das in einen Button / eine Grafik ein. Nach meinen Beobachtungen wertet Google Links (z.B: das Navigationsmenü) übrigens nicht zum Content dazu.

#2 Crawling-Willkür

Bei besonders großen Domains ist es unablässlich, dass man das Crawling des Googlebot steuert, weil er sonst nicht alle Seiten oft genug crawlt. Das kann bei bei Online Shops zur Folge haben, dass ausverkaufte Produkte zu langsam deindexiert und neue Produkte zu langsam indexiert werden. Es reicht nicht, wenn man unerwünschte Seiten per Noindex ausschließt, weil der Google Bot diese auch crawlt und unter Umständen den ganzen Tag auf Noindex Seiten unterwegs ist. Die Robots.txt sollte man überhaupt nicht mehr verwenden (Ausnahme: Bilder / Sitemap Angaben). Habt Ihr die Meldung “Der Googlebot hat auf Ihrer Webseite eine extrem hohe Anzahl an URLs entdeckt” in den Webmastertools, dann müsst ihr in Richtung Crawling tätig werden.

#3 Ordner-Chaos

Viele Webseiten machen sich keine Gedanken über Ihre Ordnerstruktur. So gibt es in WordPress immer noch die Funktion der datumsbasierten URLs à la “Domain.de/blog/2012/09/15/blogpostname/”. Ihr befindet Euch mit so einer Struktur im fünften Unterordner der Seite! Im Ordner 2012/09/15/ gibt es in der Regel nur einen Blogpost, außer Ihr bloggt mehrmals täglich. Wichtiger ist aber, dass solche Ordner keine logische Struktur haben. Die Struktur ist datumsbasiert und das hilft nicht viel für eine logische Einteilung der Webseite. Habt Ihr auf Eurem Desktop datumsbasierte Ordner oder thematische? Eben. Versucht, die Hierarchie so flach wie möglich zu halten. Hat ein Ordner keine klar definierte Funktion, dann hat er auch keine Existenzberechtigung.

 #4 Ignorieren von interner Verlinkung

Wie die Wiesel bauen wir SEOs ständig Backlinks auf, vergessen dabei aber, dass auch die interne Linkstruktur viel zählt. Ein Beispiel: Das Impressum ist in der Regel eine der am besten verlinkten Seiten und in den meisten Fällen eine Sackgasse. Fügt dort doch einmal ein paar Links zu ansonsten schlecht verlinkten Seiten ein – das wirkt Wunder! :-)

Intern nofollow zu benutzen ist übrigens Blödsinn. Ihr gebt dadurch nicht den anderen Seiten mehr Power, sondern beschneidet die Power Eurer Webseite insgesamt.

#5 Keyword-Größenwahnsinn

Ihr betreibt einen Shop für Pflanzen und bemerkt, dass nach “Pflanzen Lexikon” recht oft gesucht wird. Viele SEOs erstellen daraufhin eine Landingpage mit optimiertem Title, guter Description und einem Text über “Pflanzen Lexikon”. Sorry, aber das geht schon seit zwei Jahren nicht mehr. Wenn Ihr für “Pflanzen Lexikon” ranken wollt, dann muss es auf der Landingpage bzw. den Folgeseiten auch ein vollständiges (und gutes!) Pflanzenlexikon geben. Man sollte immer eine Rechtfertigung haben, warum man für ein gewisses Keyword rankt. Einfach nebenbei “Keywords mitnehmen” funktioniert nicht mehr gut.
Foto Copyright: Everett Collection / Shutterstock.com

Beitrag teilen:

Über den Autor

Julian Dziki ist SEO, Online Marketer und Affiliate seit 2007. Suchmaschinenoptimierung München

55 Kommentare

  • Danke für deinen Beitrag. Gerade die interne Verlinkung wird gerne vernachlässigt. Erwische mich aber auch immer wieder dabei. Inwiefern würdest du denn “Wunder” beim Thema Impressum definieren?

  • Super Artikel! Danke dafür. Vor allem der Tipp mit dem Impressum ist eine gute Idee die ich mal umsetzen werden. Die total abgedrehten Ordnerstrukturen sehe ich im übrigen auch häufiger, aber ich glaube das liegt einfach an dem fehlenden Hintergrundwissen einiger Webmaster. Gut das du hier mal aufklärst!

    Grüße
    Micha

  • SEODEO-Kai

    Hey, zu Punkt #3. Und was nutzt man jetzt? NoIndex Tag: Nein ; robots.txt: Nein.
    Ihr sagt leider nur dass man tätig werden soll aber wie lenkt man denn bitte schön den Crawler auf bestimmte Bereiche, ohne die beiden Varianten oben?

  • Hehe, das Bild zu dem Artikel ist super :)

    Wie kann man denn den Crawler steuern, wenn Noindex und robots.txt nicht dazu taugen?

  • L

    “Intern nofollow zu benutzen ist übrigens Blödsinn. Ihr gebt dadurch nicht den anderen Seiten mehr Power, sondern beschneidet die Power Eurer Webseite insgesamt.”

    NoFollow ist aber auch dazu da um dem Bot zu zeigen dass dem Link eigentlich nicht gefolgt werden sollte, da die Seite keine hohe priorität hat. Oder? ;)

  • Julian

    Hi Kai,

    Am besten die Parameterbehandlung in den Google Webmastertools. Ist Flickschusterei, aber die momentan einzige Möglichkeit. Hier ist die Anleitung: http://www.seokratie.de/duplicate-content-bei-google-vermeiden/

  • Julian

    Hi Daniel,

    Ein Keyword rankt auf Seite 3 und nachdem man den Link im Impressum zu der jeweiligen Seite hinzugefügt hat, auf Platz 8. Wichtig ist aber: Die Seite sollte vorher nicht im Hauptmenü verlinkt sein (denn dieser Link ist ja auch vom Impressum über die Navigation aus erreichbar). Am besten nimmt man dafür weit unten in der Hierarchie versteckte Unterseiten.

  • Hätte auch noch was zur Website Struktur. Ich habe nämlich mal eben durch die Korrektur falsch gesetzter h2 im Theme den Traffic verdoppeln können:
    http://mizine.de/suchmaschinenoptimierung-internet/website-struktur/

  • Hi Julian,
    meinst Du bzgl. #3 Ordner-Chaos auch die Bildeinordnung in die Tiefen der wp-content Ordner oder nur Posts?

  • Hey Julian,

    danke für die fünf kleinen, aber sehr wichtigen Tipps. :-)

    grüße,
    Jascha

  • Seiten, die für Google praktisch keinen Sinn machen oder zu DC führen, können auch mit einer etwas komplexeren Javascript-Verlinkungen eingebunden werden…

  • Julian

    Hi Vitali,

    Ja, aber “irgendwie” findet Google manchmal dann trotzdem die URLs. Der Bot gibt ja mittlerweile sogar testweise URLs ein…

  • Der Bot findet alles! Auch solche JS Links! Ich hab meine Webmaster Tools voll von Textlinks, die sogar keinerlei Links sind. Also weder JS noch HTML – sondern nur Text.

  • Julian

    @Viktor, dann hast Du vielleicht keine 404 Seiten??? :-)

  • doch, warum? Wie kommst Du jetzt auf 404??

  • Ein netter, schöner Text mit guten Tipps. Auch, weil alles im Grunde mit Hirn zu Tun hat, nicht so sehr mit emsigem Linkgebastel. Vor allem die Idee, vom Impressum aus zu verlinken, halte ich für sehr nützlich. Werde Sie noch Heute umsetzen.
    DANKE.

  • Jev

    Nach meinen Beobachtungen wertet Google Links (z.B: das Navigationsmenü) übrigens nicht zum Content dazu.

    Hiermit bin ich nicht einverstanden. Viele meiner Seiten werden fälschlicherweise gerade aus dem Grund, dass die Links in der Navigation sind, über Google gefunden. Ist beispielsweise in der Navigation ein Link mit dem Anchor “Spiel”, kommen die Leute teilweise über “Dach Spiel” auf die Seite, obwohl auf der Seite “Dach” kein einziges Wort überhautp nur etwas mit “Spiel” zu tun. Ich bin eigentlich gar nicht glücklich darüber.

  • … und nicht nur das “Impressum” sondern auch im “Datenschutz”, “Hier werben” usw. finden sich sicherlich Möglichkeiten 1 oder 2 interne Links unterzubringen.

    Bei den wiederkehrenden Textbausteinen stieß ich auch bei mir sofort auf mind. eine Baustelle. Mein “About this Blog”-Text muss vielleicht auch wirklich nicht im Footer jeder Seite stehen.

  • Sehr interessanter Artikel.

    Gerade der Tipp mit dem Impressum hat mir sehr gut gefallen. Das werde ich gleich mal probieren und die Ergebnisse abwarten.

  • Hallo Julian,

    ich finde es immer wieder witzig, das Kritiker oder unsichere Fragesteller meist keine URL angeben. Könnte ja peinlich werden, gell?

    @L: “NoFollow ist aber auch dazu da um dem Bot zu zeigen dass dem Link eigentlich nicht gefolgt werden sollte, da die Seite keine hohe priorität hat. Oder?”
    Nein. Dem Link wird gefolgt, es wird nur keine Linkpower vererbt. Dein “eigentlich” bringt Deine Unsicherheit hier zum Ausdruck. Mein Tipp daher: Mehr SEO-Grundwissen aufbauen, umso mehr Sicherheit hast Du in Deiner Arbeit.

    Die Thematik mit dem Impressum hat meine ehemalige rechte Hand Benjamin aka Seouxindianer übrigens schon vor 2 Jahren gepostet: http://seouxindianer.de/blog/seo-impressum-ein-linkbuilding-hebel/

    Sonst inhaltlich wie immer guter Artikel.
    Beste Grüße, Marcell

  • Max

    Ja, geiler Content ist eifnach das A und O, dann wird auch die seite weiter empfohlen! Wichtig ist es ja auch beim Aufbau organisch vorzugehen! Du hast hier schon die wichtigsten punkte zusammengetragen! Danke für den guten Beitrag! LG =)

  • Viktor

    @Max Du benutzt im Satz gar 2 Variablen ohne Mehrwert!
    1. “geiler Content”
    2. “organisch”

    und wenn der geile Content von selber empfohlen wird, ist Dein Link zur Sessel Seite dann wahrscheinlich ein Indiz dafür, dass Dein Content scheiße ist? Oder?

  • Viktor

    “Ein Keyword rankt auf Seite 3 und nachdem man den Link im Impressum zu der jeweiligen Seite hinzugefügt hat, auf Platz 8. Wichtig ist aber: Die Seite sollte vorher nicht im Hauptmenü verlinkt sein”
    Finde den Fehler ;)
    Eine Unterseite, die vorher intern so schlecht verlinkt war, schießt natürlich nach oben, wenn ein Link von einer global verlinkten Impressumsseite darauf gesetzt wird ;)

    Menü-/Navigationslinks werden meiner Meinung nach schon länger nicht mehr als interne Contentlinks gewertet (John Müller hat mir dies auch in einer ähnlichen Art schon mal beglaubigt).
    Ein Link im Impressum (oder einer anderen global verlinkten Seite) auf ein wichtiges Keyword ist demnach so oder so viel Wert.

  • Ich steh aufm Schlauch bei #2… Keine Robots, kein Noindex…interne Verlinkung ist ein gesonderter Punkt. Mhhh… Also wie steuere ich jetzt?

  • Danke für den Beitrag,
    die Themen Content und gutes internets Verlinken kommen einfach nicht aus den News und Blogs raus. Ich frage mich nur, wenn man immer so oft darüber liest und so viele SEOs darüber schreiben, wieso wird die Situation nicht besser? Nach Panda waren bereits viele Seiten betroffen, dann kam Penguin mit dem Vorgehen gegen schlechtes Verlinken, dann ein Freshness Update usw.

    Ich kann dir jedoch nur Zustimmen! Achtet auf den Content und vergesst nicht eure eigene Seite zu verlinken! Verlinkt auch von eurer Seite aus auf andere, es leitet zwar Leser weg von euch, wenn aber der Wert der eigenen Artikel steigt, kann man eine Stammleserschaft aufbauen und auf lange Sicht gesehen besseren Traffic erziele.

  • Julian

    @DerNouskrat: Sorry, hätte ich auch noch kurz schreiben können – über den Punkt “Parameterbehandlung” in den Webmastertools.
    @Jennifer: Guter Content ist nun mal auch sehr teuer und aufwändig zu beschaffen. Das ist der Knackpunkt, denke ich.

  • Zu Thema #3: d.h. Du würdest in einem Blog die Artikel-ID etc. alles weglassen und nur http://www.Domain.de/Artikeltitel als URL nehmen? Die Kategorien sind ja wegen Duplicate content meistens auch auf no-index, d.h. http://www.domain.de/kategorie/artikeltitel würde dann auch keinen Sinn machen, oder?

  • Danke für die Tipps, aber es ist bei Seo`s irgendwie wie bei Sterneköchen… jeder sagt etwas anderes habe ich manchmal das Gefühl :(

    z.B. das mit intern Nofollow habe ich auch gemacht da ich in einem anderen Seo Blog gelesen habe, das es viel bringt bzw. schadet wenn man es nicht macht.

    Naja denke mal da hilft nur eines: Ausprobieren, und das werde ich jetzt auch tun, Danke für die Anregungen!

  • Julian

    Hi Marcel,

    Anfangs hat es ja auch jeder gemacht, weil es logisch klingt. Dann aber meinte Matt Cutts, dass interne Nofollow Links schaden. Bei anderen Dingen bin ich ja skeptisch gegenüber der Meinung von Google, aber hier tat es Matt nur, um viele Leute vor Fehlern zu bewahren. Siehe:

  • Ok ja danke, das macht eigentlich ja auch sinn, thx für die Erklärung, und ist es dann das Selbe mit Noindex bzw. noarchive auch das man das besser lassen sollte? Das habe ich nämlich neben Nofollow auch meinen Archiven in WordPress zugefügt hatte ich auch gelesen irgendwo.

  • Schnipsel

    Das mit den wiederkehrenden Textbausteinen ist, so wie du es beschreibst, ein wenig an den Haaren herbeigezogen. Ausserdem ist Google nicht in der Lage DC zu erkennen, wenn es nicht um riesige Mengen geht. Eine große interne Navigation reicht schon aus, um mittelgroße DC Textmengen nicht nur in den Index, sondern auch zum Ranken zu bringen.

  • Viktor

    @Schnipsel Schon mal CopyScape benutzt? Von Wegen, Google sei nicht in der Lage den gescheit zu erkennen…

  • Schnipsel

    lass es mich anders sagen – dann erkennen sie es halt, aber es ist egal. Copyscape iss auch nicht Google.

  • Vielen Dank für den tollen Beitrag. Toll wäre es, wenn mir jemand sagen könnte, ob und inwiefern Bilder als Content gezählt werden. Oder wird dabei nur Text gewertet?

  • Julian

    Hi Swantje,

    Die Alt-Attribute in den Bildern werden wie Text gewertet.

  • Wow, das ist ja ein interessanter Artikel. Da wartet wohl noch viel Arbeit auf mich. Danke für’s Einstellen.

  • Super Beitrag, ich habe mir das gleich mal ausgedruckt :) Vielen Dank für die tollen Tipps

  • Danke für den Artikel. Habe jetzt auch ein paar Links in mein Impressum gepackt ;)

  • Danke für #3. Ich habe gedacht, das “übersieht” Google und co… Naja. Gleich geändert!!!

  • Vielen Dank für den tollen Artikel.

    “Habt Ihr die Meldung “Der Googlebot hat auf Ihrer Webseite eine extrem hohe Anzahl an URLs entdeckt” in den Webmastertools, dann müsst ihr in Richtung Crawling tätig werden.” In welche Richtung sollte ich denn dann tätig werden ?

    Die anderen Hinweise habe ich schon recht gut berücksichtigt.

    Grüße, Uli.

  • Julian

    @Branchen Bär: Google hat Probleme, alle Deiner URLs zu crawlen. Am besten schaust Du Dir in den Webmastertools einmal die “Parameterbehandlung” an.

  • @Julian: ok, vielen Dank für den Hinweis. Das hilft mir schon mal weiter.

    Den Hinweis mit dem Imppressum fand ich übrigend auch sehr hilfreich. Dort kann man in der Tat einige Links unterbringen.

    Grüße, Uli.

  • Danke für die Tipps, auch wir haben noch GANZ VIEL Potential, unsere ganzen Produkte erstmal intern vernünftig zu verlinken. Ich habe das Gefühl, dass man bei gewissenhafter und regelmäßiger OnPage-Optimierung fast sowieso keine Zeit mehr für das Sammeln neuer Backlinks hat :-)

  • Ich habe den Beitrag bereits kommentiert und etwas dazu gesagt. Jetzt arbeite ich in einem Unternehmen und bin für den Content zuständig. Dabei fällt mir eben genau der Punkt mit dem wiederkehrenden Content auf. Ganz häufig wird die Beschreibung des Unternehmens einfach auf X-Seiten wiederholt, gleiches gilt auch für die Leistungen.

  • was ich mich jetzt noch Frage… “Wie sieht die richtige Permalinkstruktur aus?”
    So nach Gefühl her würde ich den ganzen quatsch mit “unterordnern” sein lassen, dennoch sieht man auch bei großen erfolgreichen Blogs die zum teil sehr tiefgestaffelten Blogbeiträge.
    Hier wäre etwas Präzision sehr hilfreich. Arbeite gerade an einem neuen Blog und bin mir noch unsicher, welche Permalinkstruktur ich wählen soll – einen unterordner (ID oder Jahr) oder zwei Unterordner (Jahr und Monat)???!!! Denn bei letzterem würde es ja Sinn machen, wenn ich täglich einen Artikel oder manchmal auch zwei veröffentliche.
    Beste Grüße

  • Super Bericht werde ab jetzt meine Impressum Seite verlinken mit meinen Seiten. Danke und weiter so, super.

Hinterlasse eine Antwort

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind markiert *

Du kannst folgende HTML-Tags benutzen: <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <strike> <strong>