So steuert Ihr die Indexierung bei Online Shops

2017-08-30
Seokratie
Seokratie GmbH
Main address: Blutenburgstr. 18 D-80636 München, Deutschland ,
Tel:089 - 219098411 , E-mail: mail[@]seokratie.de
20. Jul 2016 SEO 24 Kommentare

Auf den ersten Blick erscheint es seltsam: Warum sollte ich nicht wollen, dass Google eine meiner Seiten indexiert? Tatsächlich ist es aber dringend notwendig sich zu überlegen, welche Inhalte im Index auftauchen. Welche Seiten sind das? Und warum?

ablage in schubladen

Suchmaschinen haben genug zu tun und sind Euch dankbar, wenn Ihr Euch vorher gut überlegt, was Ihr ihnen zum Indexieren gebt.

Bevor Ihr Euch mit der Indexierung auseinandersetzt, solltet Ihr Euch mit dem Thema Crawling beschäftigen. Alles Wichtige findet Ihr in meinem Artikel über Crawlingsteuerung.

Warum sollte ich Seiten nicht indexieren lassen?

Vor langer, langer Zeit – im Jahr 2011 um genau zu sein – kam der Panda Algorithmus auf die Welt. Dieser Panda hatte die Bestimmung, schlechte Inhalte aus dem Google Index zu verbannen. Doch nur die schlechten Inhalte waren dem Panda nicht genug: Ganze Themengebiete und sogar ganze Domains hat er aufgrund mancher schlechten Inhalte von den Beinen geholt. Seitdem hatte dieser Panda diverse „level ups“ und ist heute klüger als je zuvor. Wer gegen ihn ankommen will, muss ebenso klug seine schlechten Inhalte im Zaum halten.

panda cheese werbung

Passt also auf, dass Ihr keinen ungeliebten Käse im Einkaufswagen Content im Index habt.

Ein weiterer wichtiger Punkt ist Duplicate Content. Google mag keine doppelten Inhalte und bevorzugt Seiten die möglichst einzigartig sind. Dementsprechend ist es sinnvoll, doppelte Inhalte nicht zu indexieren.

Weitere sinnvolle Gründe dafür, eine Seite zu deindexieren, sind etwa, …

  • …dass es sich um eine Login- bzw. Systemumgebung handelt
  • …dass eine Seite noch im Aufbau ist oder
  • …dass eine Seite aus rechtlichen bzw. strategischen Gründen nicht auffindbar sein sollte.

Wie Ihr seht gibt es also genügend Gründe. Daher ist Indexierung eines der wichtigsten Themen in Sachen SEO – besonders bei Online Shops.

Wie deindexiere ich eine Seite?

Eine Seite wird über das robots-Metatag deindexiert. Die korrekte Konfiguration lautet:

<meta name="robots" content="noindex, follow" />

Bei der Deindexierung gibt es leider immer wieder klassische Fehler, auf die ich hinweisen möchte:

  • Die Konfiguration lautet nicht „noindex, nofollow“. Das nofollow-Attribut solltet Ihr intern nicht verwenden. Ihr entwertet damit all eure Links. Jegliche Stärke, die in diese Seiten fließt, haut ihr damit komplett in die Tonne.
  • Seiten, die auf noindex stehen, dürfen nicht in der robots.txt gesperrt sein, weil Suchmaschinen dann das obige Metatag nicht lesen können. Die Konsequenz: Die Seite erscheint trotzdem im Index. Die robots.txt solltet Ihr für Eure Inhalte generell nicht verwenden.

Welche Seiten sollte ich nicht indexieren lassen?

Wie gehe ich mit Duplicate Content um?

duplicate children

Was macht man, wenn plötzlich mehr da ist als geplant war?

Der beste Weg ist immer das Übel an der Wurzel zu packen und die doppelten Inhalte komplett weiterzuleiten:

http://example.com/doppelter-inhalt → 301 → http://example.com/original-inhalt

So spart Ihr Crawlingbudget und verschlankt Eure Seite. Sollte eine Seite mit doppelten Inhalten wirklich notwendig sein, dann solltet Ihr sie mit einem Canonical auf die Haupt-URL verweisen lassen. Ein Canonical-Link sagt prinzipiell: "Liebe Suchmaschine, ich bin nur ein Duplikat; fasse daher all unsere Stärke auf dieser anderen URL zusammen!" So sieht das im Quelltext aus:

http://example.com/doppelter-inhalt

<link rel="canonical" href="http://example.com/original-inhalt" />

Soll ich Seiten, die per Canonical auf eine andere URL verweisen, deindexieren?

Kurze Antwort: Nein. Google sagt selbst: „Überprüft ob die rel=canonical Zielseite eventuell fälschlicherweise ein noindex Robots-Meta-Tag enthält.“ [Edit: Hans hat mich zu Recht darauf hingewiesen, dass sich diese Aussage nur auf die Zielseite bezieht. Diese Aussage von John Mueller trifft den Punkt genauer: "No, you should not combine the noindex with a rel-canonical pointing at an indexable URL."] Trotzdem setzen sich einige darüber hinweg, wie Ihr beim Punkt Filterseiten sehen werdet. Google macht allerdings selten so klare Ansagen, daher ist es ratsam, sich daran zu halten.

Soll ich Paginierungsseiten indexieren?

paginierung

Eine Paginierung ist wichtig, damit Google alle deine Produkte crawlen kann. Indexieren muss Google diese aber nicht.

Bei nahezu allen Shopsystemen könnt Ihr davon ausgehen, dass die Paginierungsseiten auf noindex stehen sollten. Wie Ihr mit der Seitenpaginierung konkret umzugehen habt, hat Katharina in ihrem Blogpost zur Seitenpaginierung ausgeführt.

Soll ich Kategorien mit wenigen Inhalten indexieren?

leerer raum

Weder Suchmaschinen noch Suchende möchten irgendwo im Nirgendwo landen.

Wenn bestimmte Kategorien nur vier Produkte enthalten, ist es sehr wahrscheinlich, dass der Suchende hier nicht das findet, was er will. Zumindest wenn die Konkurrenz hier auch aktiv ist. Er wird daher die Seite nach der Suche verlassen und einen Short Click produzieren. Google weiß dadurch: Das Suchergebnis ist nicht gut. Das solltet Ihr unbedingt vermeiden und daher solchen „thin content“ deindexieren. Das gilt übrigens auch für Kategorien, in denen zwar mehr Produkte sind, bei denen der Shop aber einfach nicht gegen das Angebot der Konkurrenz ankommt. Wer in Sachen SEO wachsen will, der spezialisiert sich auf das, was er wirklich kann, und hält sich beim Rest zurück. Also:

poor content not today

Soll ich Filterseiten indexieren?

filter kaffee

Filter scheinen eine Geschmacksfrage zu sein. Hier arbeitet jeder SEO anders.

Das ist eine spannende Frage, die uns auch Adam Günther via Seokratie hilft gestellt hat. Hier gibt es aus meiner Sicht drei Möglichkeiten:

  1. Die Filterseite ist von den Produkten und dementsprechend den Inhalten sehr identisch mit der Kategorieseite. In diesem Fall solltet Ihr die Filterseite auf index lassen, aber per Canonical auf die Kategorie verweisen lassen. Damit der Canonical gut greifen kann, sollten die Seiten so identisch wie möglich sein. Es ist daher sinnvoll die (Text-)Inhalte der Haupt-URL auch auf den Filterseiten anzuzeigen.
  2. Unterscheidet sich die Filterseite sehr stark von der ungefilterten Kategorie oder erscheinen viele Filterseiten in der Suche, dann ist es sinnvoller die Filterseiten komplett auf noindex zu stellen.
  3. Ist die Filterung eine stark nachgefragte Seite in Eurem Shop, dann könnt ihr diese Seite indexieren. Ein Beispiel: Bei einem Übergrößen-Shop kann die Filterung für Hosen mit Bundweite 52 sehr relevant sein.  Es empfiehlt sich aber dringend, diese auch mit ein wenig einzigartigem Textinhalt anzureichern und intern zu verlinken. Darüber hinaus, solltet Ihr Euch überlegen, ob Ihr diesen Filterseiten nicht statische URLs gebt.

Wie gehen große Seiten mit Filterseiten um?

In der Praxis löst dieses Thema jeder anders. Ich habe Euch daher die Vorgehensweisen einiger wahlloser Online Shops und Konsorten zusammengefasst. So könnt Ihr Euch selbst ein Bild machen.

Indexierbar mit Canonical auf Hauptseite:

Noindex mit Canonical auf Hauptseite:

Noindex ohne Canonical auf Hauptseite:

Alles indexierbar ohne Canonical auf Hauptseite:

Ich persönlich halte es für am sinnvollsten mit indexierbaren Canonicals zu arbeiten (siehe Lösung 1 oben) und stattdessen über das Crawling zu steuern, dass nicht zu viele dieser URLs gefunden werden. Noindex ist dann nur die allerletzte Lösung, wenn die Filter-URLs im Index Ärger machen (siehe Lösung 2 oben).

Worauf muss ich bei der Indexierungssteuerung also achten?

Insgesamt gilt es möglichst effizient zu arbeiten: Suchmaschinen sollten so wenig Inhalte wie möglich crawlen müssen - und von diesen sollte ein möglichst großer Anteil indexiert sein. Auf dieses Zusammenspiel zwischen Crawling und Indexierung geht Andor Palau im Webinar bei SEMrush ab Minute 8:25 anschaulich ein. Das heißt aber nicht, dass so viele Seiten wie möglich indexierbar sein sollten. Nur Eure besten Seiten sollten indexierbar sein. Die Kür ist dann, dass Euer Online Shop nur aus diesen besten Seiten besteht.

Auch für die Indexierungssteuerung solltet Ihr heute den Nutzer vor Augen haben: Entscheidet, ob Eure Inhalte eine gute Sucherfahrung bieten oder nicht. Falls nicht, dann schaltet sie ab. Oder lasst uns entscheiden und meldet euch bei uns zur SEO Beratung.

Auf welche Fragen seid Ihr in Sachen Indexierung gestoßen? Welche Variante für Filterseiten bevorzugt Ihr und wieso? Ich freue mich über Eure Kommentare!

© Bild 1 (Schubladen): Naeem Ishaq / iStockphoto.com
© Bild 2 (Babys): hannamariaH / iStockphoto.com
© Bild 3 (Paginierung): georgia-d / iStockphoto.com
© Bild 4 (Leerer Raum): vargaesz / iStockphoto.com
© Bild 5 ( Filter): thomas-bethge / iStockphoto.com

E-Book: Der Weg zum erfolgreichen Online Shop
Seokratie E-Book
  • Das 47-seitige E-Book mit 72 konkreten Tipps für Deinen Online Shop
  • Einmal wöchentlich exklusiver Content für das Marketing Deines Shops
  • Unser Newsletter (1-2x pro Woche)
Jetzt kostenlos downloaden
24 Kommentare
    1. Tobi 20. Juli 2016, um 14:42 Uhr

      Sehr guter Artikel. Vor allem der Hinweis, dass nicht jeder Seite zwanghaft in den Index geprügelt werden muss. Weniger ist hier oft mehr. Meine Frage: Wie sollte das Verhältnis zwischen der Anzahl der noindex- und der index-Seiten einer Domain sein? Eine Domain mit einer hohen Anzahl an noindex-Seiten macht ja auf Google bestimmt auch keinen wirklich guten Eindruck, oder?
      Und würdet ihr eine Seite auf index setzen, die jetzt nicht unbedingt einen klar erkennbare Keywordfokus hat, aber dafür sehr viel Traffic bekommt (z.B. über Social Media)? Die Nutzersignale einer trafiicstarken Seite sind ja auch oft sehr wertvoll.

    2. Felix 20. Juli 2016, um 14:55 Uhr

      Hi Tobi, danke! Zu einem Verhältnis möchte ich mich da nicht zu weit aus dem Fenster legen. Manche Seiten lassen sich ja kaum vermeiden – Paginierungen zum Beispiel. Ich muss daher dabei bleiben: So wenige wie möglich.
      Wenn eine Seite viel Social Traffic bekommt, aber für die Suche irrelevant oder störend ist, würde ich sie deindexiert lassen. Wie genau Trafficströme bewertet werden, ist unklar. Aber rein theoretisch dürfte darauf höchstens nofollow Einfluss haben. Theoretisch. Und generelle Nutzersignale bekommt Google auch auf deindexierten Seiten mit, da handelt es sich ja um Browserdaten.

    3. daniel 20. Juli 2016, um 15:36 Uhr

      Hallo,
      Du sagst „am sinnvollsten mit indexierbaren Canonicals … arbeiten…und stattdessen über das Crawling zu steuern, dass nicht zu viele dieser URLs gefunden werden. “

      Was ist denn Dein Ansatz, das Crawling in einem großen Shop zu steuern/zu begrenzen? robots.txt-disallow? JS? Nofollow? sonstiges?
      Insbesondere, wie hältst Du den Crawler davon ab, zu viele Filter-Seiten zu finden?

      Danke!

    4. Christian Paavo Spieker 20. Juli 2016, um 15:47 Uhr

      Hallo Felix, ein sehr sehr langes (Mein Lieblings) Thema,
      nur kurz eine Anmerkung zu „Alles indexierbar ohne Canonical auf Hauptseite: ladenzeile.de“ das ist klar, weil die Filter nicht Im Quelltext stehe und somit sowieso nicht gecrawlt werden. Wie Du ja weisst meiner Meinung nach die beste Version.

    5. Felix 20. Juli 2016, um 16:01 Uhr

      Hi Christian, danke für deine Anmerkung! Der Erfolg gibt Ladenzeile ja Recht. 🙂 Die Indexierung und Canonicals sind nur ein Teil des Bilds, aber um genau diesen Teil geht es ja hier. PRG-Patterns sind defintiv die beste Lösung. Aber was, wenn plötzlich irgendein SEO-Blog eine dieser Filter-URLs von extern verlinkt? 😉

    6. Christian Paavo Spieker 20. Juli 2016, um 16:12 Uhr

      ..wenn plötzlich irgendein SEO-Blog eine dieser Filter-URLs von extern verlinkt?…. naja das ist eher selten….aber deshalb sperre ich zusätzlich immer auch über Robots.txt die Filter (so Disallow: /*? oder noch gezielter), dann passiert da nichts. Alternativ kannst du ja Noindex, Follow setzten um die Linkpower nicht zu verlieren, Das machen wir aber immer automatisiert, wenn dann eine Filter URL einen Link bekommen sollte.

    7. Felix 20. Juli 2016, um 16:17 Uhr

      Könnte ja auch mal ein sinnvoller Link sein. Die Wahrscheinlichkeit ist allerdings in der Tat gering. Würde trotzdem den Canonical bevorzugen, um den Bezug zu verdeutlichen. Was spricht da für dich dagegen?

    8. Christian Paavo Spieker 20. Juli 2016, um 16:33 Uhr

      würde auch gehen, bin kein Freund von Canonical Vergewaltigung da die Filterseiten sich ja doch stark von der nonfilter unterscheiden und das aus meiner Sicht nicht sauber ist. Funktionieren würde allerdings. Aber wie gesagt ich habe gerade mal in bei uns im Linkmaster nachgesehen. Ein Linkmaster geprüft: Ein Shop mit über 150.000 Seiten im Index und über 500.000 Filterseiten ha seit Messungsbeginn (ca. 19 Monate) nicht einen Link auf Filterseite bekommen. Bin ja mehr der Test und Realtyp (-:

    9. Felix 20. Juli 2016, um 15:57 Uhr

      Hallo Daniel, mit dem Thema habe ich mich im Beitrag Crawling beschäftigt: https://www.seokratie.de/crawlingsteuerung/ Das geht Hand in Hand, wäre aber in einem Beitrag ausgeufert.

    10. Felix 20. Juli 2016, um 16:58 Uhr

      Eben, es funktioniert. 🙂 Danke für deinen Input! Erklärt gut, warum es so viele unterschiedliche Herangehensweisen da draußen gibt.

    11. Julian Dziki 20. Juli 2016, um 17:14 Uhr

      Hi Christian,

      Canonical wurde genau für so etwas wie Filterseiten eingeführt. Also ist das die technisch korrekte Variante. Darüber hinaus sollte heute meiner Meinung nach niemand mehr mit der robots.txt arbeiten. Parameter über die robots.txt zu sperren, das ist schon lange nicht mehr zeitgemäß. Google sagt das schon seit Jahren sehr deutlich. Anders als bei „heiklen“ Themen gibt es hier auch keinen Grund, warum Google gewisse Dinge verschweigen sollte.

      Also: Noindex oder Canonical, oder die PRG-Pattern. Wobei letztere auch eher ein „Hack“ ist und ich nicht genau weiß, ob das dauerhauft so funktioniert, wie man sich das genau vorstellt. Gerade weil Google immer mehr und mehr Browserdaten auswerten und Userverhalten simuliert, könnte das den Googlebot verwirren, wenn (laut dem, was Google sehen kann) die User ständig „ins Leere klicken“. Meinst Du nicht?

      Viele Grüße
      Julian

    12. Christian Paavo Spieker 20. Juli 2016, um 17:53 Uhr

      Hallo Julian,
      aus meiner Sicht ein ganz klares nein. Der Canonical Tag wurde eingeführt um Duplicate Content bzw Original und Kopie eine Contents zu verifizieren, hierbei sollte das Original und das Duplikat identisch sein. Eine Filterseite ist ja kein Duplikat, wenn auf der Kategorie 100 Schwarze Jeans angezeigt werden und ich klicke Filter Rot, ann ändert sich der Inhalt der Seite ja massiv und ist kein Duplikat mehr. Der Canonical kann bei Sessions oder Paramtern eingesetzt werden bei denn der Inhalt identisch bleibt.

      Zur Robots.txt: Ich kenne natürlich alles was zum Thema Robots.txt geschreiben wird und auch das viele SEOs sagen das es nicht zeitgemäß ist. Aber in der Praxis sieht das ganz anders aus und was gesagt und geschrieben wird ist für mich nicht immer relevant. Wir testen in unserem Lab ja wirklich alles und genau dieses Thema „Crawlbudget Steuerung“ durch Robts.txt habe wir sehr ausführlich getestet und ich muss leider wiedersprechen (-: Die Robots.txt hat eine grosse Auswirkung auf das Crawling. Wenn Du alles wie Du sagts mit Noindex, Follow steuerst, muss der Bot ja alle Filter URLS crawlen und somit hast Du einen immensen Crawltrash. Hier mal ein Beispiel: Dies ist eine Kategorieseite eine Magento 2 Shops https://www.paavo.com/komponenten auf der Seite befinden sich über 300 Links im Filter diese Links kannst Du jetzt alle kombinieren Filter Farbe Preis etc..alleine auf dieser einen Seite ergeben sich zig 1000 Kobinationen, wären diese nicht über Robots.txt gesperrt sondern nur mit Noindex oder Canonical ausgezeichnet, so hätte der Shop über 1 Mio URL die der Bot Crawlen müsste um zu erkennen das alles Noindex ist usw….. Das ist meiner Meinung nach nicht Zeitgemäß.

      PRG Pattern: Das ist jetzt auch wieder so ein Theorie und Praxis Thema. Meine Aussagen Basieren auf Logfile Analysen sehr großer Projekte und das ist für mich der aktuelle Standar, denn wir für uns definiert habe. In der Theorie hast Du Recht, wenn Google die Usersignale auf Filter ULRS misst und diese nicht crawlen kann/findet da sie keinen Link haben (PRG). Auch muss ich leider sagen, da ich das wirklich ausführlich getestet habe, selbst Filter URLs mit mehreren 1.000 Klicks am Tag, die via PRG ausgezeichnet sind konnten den Google Bot nicht dazu bewegen die URLs aufzurufen.

      Meine Meinung ist einfach wir sollten dem Bot immer die Arbeit erleichtern und ihm nichts geben was er nicht braucht (Hilft übrigens auch OnPage.org oder ScreamingFrog beim testen und spart Tool Budget).

      Geiles Thema…macht immer wieder spass und hat ja wirklich einen Mega Impact auf OnSite SEO (-:

      Sommerliche SEO Grüße und schönen Abend noch
      Christian

    13. Julian Dziki 20. Juli 2016, um 21:46 Uhr

      Hallo Christian,

      Bei Deinem Beispiel mit den Jeans würde ich entweder beide Beispiele (mit entsprechendem unique Content) indexieren lassen oder aber mit rel=canonical arbeiten. Wenn der Inhalt sich – wie Du sagst – massiv ändert, dann gehört die Seite auch in den Index, weil evtl. Suchanfragen danach bestehen. Aber ansonsten ist canonical meiner Meinung nach eine bessere Wahl als das Ausschließen des Bots.

      Wenn Du alle Artikel zum Thema robots.txt kennst und Euer Lab etwas anderes sagt, dann ist das ja ok. Vielleicht teilst Du ja mal eines Deiner Experimente mit der SEO-Welt? Einfach so behaupten, dass das „Lab“ hier andere Erkenntnisse hat – das ist mir zu schwach, sorry. Vor allem, wenn der Rest der SEO Welt es anders sieht.

      PRG Pattern: Ich vermute, dass alles, was mit Userverhalten gemessen wird, nicht via Googlebot gemessen wird. Wie Du weißt, kommt Google auch oft mit ganz normaler Chrome / Firefox-Kennung. Gerade in allen Belangen zu Userverhalten wäre das auch meine allererste Wahl.

      Deine Meinung in Ehren – Du kannst ja auch Recht haben. Aber sie als absolut hinzustellen, das ist gefährlich. Deine Herangehensweise ist schon sehr techy, aber nur sehr wenige werden das so umsetzen. Es könnte also sein, dass Du durch diese technischen Kniffe dann technisch zu einem „Sonderfall“ wirst – (Beispiel „Klicks ins Leere) und dann ist das gar nicht mehr gut. Verstehst Du, was ich meine?

      Viele Grüße
      Juian

    14. Christian Paavo Spieker 20. Juli 2016, um 22:23 Uhr

      Abend Julian,
      Sorry Missverständnis, ich wollte nichts als „Absolut“ hinstellen. Eigentlich nur anregen auch mal was zu testen und eigene Erkenntnisse zu erhalten. Wollte nur eine kleine Anregung geben und sagen, das es für mich immer gut funktioniert. Jeder soll es machen wie er will und seine Projekte vorantreiben, am Schluss zählt ja immer nur eins „Rankings“ (-:

      Der Post dazu machen wir demnächst mal

      Schönen Abend & Servus
      PS: Vielleicht einfach mal testen

    15. David 21. Juli 2016, um 09:07 Uhr

      @Julian, danke für die Kommentare.
      Du sagst oben, daß Google davon abrät, parametrisierte Seiten per robots.txt zu sperren. Könntest Du dazu noch eine Quelle geben?
      Im letzten „offiziellen“ Post, die ich dazu kenne (OK, ist alt, von 2014) steht noch canonical, disallow, nofollow: https://webmasters.googleblog.com/2014/02/faceted-navigation-best-and-5-of-worst.html

      Mir scheint es immerhin sehr logisch zu sein, Verzeichnisse, die ich überhaupt nie im Index sehen möchte, per disallow (von Anfang an) auszuschliessen. Klar werden die Indexiert, aber bei einer normalen Google-Suche (ohne site:domain.de) werden sie ja nie angezeigt.

      Besonders bei existierenden, großen Shop-Projekten kann das m.E. eine erste Hilfe sein, wenn man die gesamte facettierte Navigation+Filterlogik nicht so schnell umbauen kann…

    16. David 21. Juli 2016, um 09:19 Uhr

      Und noch eine Frage in die Runde:

      Wenn es in einem Shop das gleiche Shirt in 10 Farben gibt (rot, rosa, beere, weinrot, lila, violett, flieder…)
      – und es 10 verschiedene URLs gibt (weil z.B. die SKU mit Farb-ID in der URL steht),
      – aber sich der INHALT der Seiten nur durch die Bilder(farbe) und die Nennung der Farbe unterscheidet
      (sonst ist der Inhalt natürlich identisch – ist ja das gleiche Produkt mit gleichen Eigenschaften)….

      –> … würdet Ihr alle 10 Versionen des Shirts indizieren lassen (und z.B. auch in den xml-sitemaps auflisten)?
      Oder würdet Ihr das Crawling auf 1 Farb-Variante konzentrieren?

      danke für Meinungen!

    17. Frank 21. Juli 2016, um 09:21 Uhr

      Hi Julian,

      unter den Filterseiten-Beispielen steht Zalando unter „noindex mit Canonical auf die Hauptseite“ … wenn ich die verlinkte Filterseite aufrufe, sehe ich nur ein noindex, aber kein Canonical. Damit würden die in Gruppe 3 rutschen – das ist übrigens auch meine favorisierte Variante, solange keine unique content auf die Filterseiten kann und ich erfassen lasse.

      Hast Du Dich da evtl. verguckt oder hat Zalando gemerkt, dass sie da was haben, was sie so gar nicht wollen & es wurde superschnell angepasst 😉

      Bis denne,

      Frank

    18. Felix 21. Juli 2016, um 09:40 Uhr

      Hi Frank, du hast Recht, dass auf der Zalando-Filterseite kein Canonical steht. Ich behaupte das gewissenhaft gecheckt zu haben, aber man weiß ja nie. Immerhin wissen wir, dass das zumindest deren heutige favorisierte Lösung ist. 🙂 Danke für den Hinweis! Habe es im Artikel korrigiert.

    19. Felix 21. Juli 2016, um 09:48 Uhr

      Hi David, zu deiner Farbvarianten-Frage: Ich würde in den meisten Fällen für eine Canonical-Lösung plädieren. Außer es handelt sich um stark nachgefragte Shirts/Schuhe/Hosen, die bewusst mit Produktnamen gesucht werden. Ob man die crawlen lassen möchte, ist nochmal ein eigenes Thema. Hier würde ich in den meisten Fällen sagen, ja, crawlen. Lässt sich aber nicht pauschalisieren.
      Zum Thema robots.txt habe ich die gleiche Meinung wie zu nofollow: „Das (…) solltet Ihr intern nicht verwenden. Ihr entwertet damit all eure Links. Jegliche Stärke, die in diese Seiten fließt, haut ihr damit komplett in die Tonne.“ Schließlich weiß Google nicht, was hinter der URL steckt, und damit auch nicht, wohin mit der Stärke.

    20. Bernd 22. Juli 2016, um 07:54 Uhr

      Mich würde mal interessieren ob es Erkenntnisse gibt, ab wann eine Seite als doppelter Content gilt. Da auf unseren Seiten zum Thema Versicherungen viele Fachliche Dinge gleich sind, bspw. Betriebshaftpflicht für IT oder Ingenieure, sind viele Textmodule gleich. Verändern tue ich einen mittleren Absatz mit ca. 300 Worten und Bilder. Auf einer Domain klappt das, auf einer anderen nicht.
      Was sagt ihr dazu?

    21. Felix 22. Juli 2016, um 09:18 Uhr

      Hallo Bernd, wenn Inhalte sich um das genau gleiche Thema drehen, ist es für mich Duplicate Content. Wenn es Inhalte sind, die gewollt in verschiedenen Versionen veröffentlicht sind, würde ich eher von „wiederkehrenden Textbausteinen“ reden. Die können dich auch runterdrücken. Die solltest du daher so weit wie möglich reduzieren. Je mehr unique ist, desto besser.
      Google sagt: „Minimieren Sie wiederkehrende Textbausteine: Anstatt am Ende jeder Seite umfangreiche Urheberrechtshinweise einzufügen, können Sie lediglich eine kurze Zusammenfassung mit einem Link zu detaillierten Informationen aufführen.“ https://support.google.com/webmasters/answer/66359?hl=de

    22. Bernd 22. Juli 2016, um 09:23 Uhr

      Hallo Felix, danke für den Hinweis. Dieses Statement war mir nicht bekannt!

    23. PK 5. August 2016, um 08:47 Uhr

      Hallo Bernd,

      ich sehe das etwas anders. Nur weil der Textbaustein auf einem ähnlichen Thema wiederkommt heißt das nicht, dass er für den User keine Relevanz hat und umgeschrieben werden muss.

      In der Praxis würde ich vorschlagen, dass der Baustein so kurz und präzise ist wie nur möglich und auf eine Seite verlinkt, wo das Thema tiefer beschrieben wird. So ähnlich wurde es hier in dem Artikel unter der Überschrift „Soll ich Paginierungsseiten indexieren?“ gemacht. Ich würde aber dennoch die Hauptaspekte nennen.

      Dafür wird dich Google nicht bestrafen, wenn du an den richtigen Stellen die richtigen Infos ausgibst, auch wenn diese sich wiederholen.

      Hoffe das hilft.

      Grüße
      PK

    24. Mansur 10. Juli 2017, um 19:50 Uhr

      Hallo, ich habe mir hier einige Kommentare durchgelesen.

      „wenn Inhalte sich um das genau gleiche Thema drehen, ist es für mich Duplicate Content.“

      Danke für die Aussage. Würde man jedoch diese Aussage auf ein spezifisches Produkt beziehen, würde das automatisch bedeuten, dass nur ein Ergebnis angezeigt würde, da das Thema ja genau das gleiche wäre: „spezifisches Produkt kaufen“. Ich denke nicht, dass die Grenzen so eng gefasst sind. Allein auf Onlineshops ist das überhaupt gar nicht übertragbar, da hier ein Wettbewerbsnachteil für den Großteil der Onlineshops entstünde. Ich denke daher vielmehr, dass Google differenziert, welchem Typus die Seite entspricht und daraus eine Gewichtung vornimmt. Bei Blogs werden die Grenzen sicher enger definiert. Hier entscheidet wohl der Inhalt und die Resonanz, ob die Seite angezeigt wird. Google wird versuchen den Nutzenwert im Vordergrund zu stellen. Die Nutzentheorie ist höchst komplex und muss schließlich einer Maschine beigebracht werden. Differenzierungen sind daher zwingend notwendig, wenn die Suchmaschine für uns Menschen dienlich sein soll.

    Schreibe einen Kommentar

    Deine E-Mail Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.

    Willst Du fit in SEO werden?

    Abonniere unseren Newsletter und bleibe in Sachen SEO, Inbound- & Online-Marketing auf dem Laufenden.

    Du kannst den Newsletter jederzeit wieder abbestellen.

    Send this to a friend