Duplicate Content bei Google vermeiden

8. November 2011  |     |  42 Kommentare
Ein Beitrag von Julian Dziki

Duplicate Content ist immer ein Problem, wenn wir die Arbeit für einen Kunden aufnehmen. Das reicht von viel bis hin zu katastrophal viel Duplicate Content. Wenige Probleme gab es noch nie. Aber was ist überhaupt Duplicate Content und wie kann man ihn vermeiden?

Was sagt Google?

Für Google ist Duplicate Content ein großes Thema. Zum einen ist es schwer, algorithmisch herauszufinden, welche Seite einer Domain am passendsten für eine Suchanfrage ist. Zum anderen sind die Seiten, die nicht passen “verschwendete Energie”, da sie erst einmal gecrawlt werden müssen. Die Grundlagen zum Thema gibt es direkt von Google: “Duplizierter Content”.

Was will Google?

Google will die relevanteste Webseite ausliefern. Dabei sollen die Webmaster helfen und die relevanteste Unterseite selbst auswählen. Außerdem will Google Crawling-Ressourcen sparen und nicht 100 Versionen einer gleichen Seite crawlen, weil das in den Maßstäben von Google wirklich immens viel Geld ist, dass an Hardwareleistung verschwendet wird.

Die Folge

Der Googlebot mag keinen Duplicate Content. Und wenn er zu viel auf einer Domain findet, dann wird er sauer. Die Folge sind Abstrafungen und Zurücksetzungen im Ranking. Wie sich das Ganze berechnet, weiß ich natürlich auch nicht. Ich vermute allerdings, dass eine Domain einen bestimmten “Trustrank” hat, also ein bestimmtes Vertrauen von Google. Sagen wir, sie hat einen Trustrank von 100 und 100 Unterseiten: Dann teilt sich der Trustrank auf und jede Unterseite bekommt einen Trustrank von 1. Hat sie allerdings 100.000 Unterseiten, hat jede Unterseite nur noch 0,001 Trustrank. Das ist natürlich eine völlig falsche Rechnung, denn mit steigender Seitenanzahl (etwa bei News-Webseiten) kann man auch mehr Trustrank als bisher bekommen. Google hat aber sehr gut im Blick ob eine Newsseite 100.000 Artikel hat oder 500 Artikel und 950.000 Tag-Seiten.

Plötzlicher Anstieg der Seitenzahl im Index

Ein plötzlicher Anstieg der Seitenzahl im Index hat fast immer schlechtere Rankings zur Folge. Allerdings hat das auch fast immer schlechte / nachlässige Programmierung (im Hinblick auf SEO) als Ursache! Da wird eine neue Art, wie man in einem Kleidungsshop Produkte sortiert eingeführt und schon generiert das Shopsystem unzählige Webseiten.

Robots.txt

Vergesst die robots.txt! Sie ist mittlerweile für Google nicht mehr zu empfehlen, im Gegenteil: Früher sperrte man die betreffenden Webseiten einfach in der robots.txt aus und Google indexierte diese Webseiten auch nicht. Das Verhalten von Google diesbezüglich hat sich allerdings geändert: Google darf die Webseite nicht crawlen, der robots-Befehl ist ja eine technische Anweisung. Mittlerweile meint man dort aber “Crawlen dürfen wir zwar nicht, aber wir können sie ja indexieren, oder?”

Meine Kategorie-Seiten beispielsweise sind noch immer gesperrt (seit 2007). Sieht man aber nach, dann fällt auf, dass Google diese Webseiten indexiert!

Wie man hier gut sehen kann, sind die URLs alle im Index. Es fehlt sowohl der Title wie auch eine Description oder eine Cache-Version, weil Google ja nichts lesen darf, außer die reine URL. Trotzdem sind diese Seiten im Index! Bei mir sind es nur 13 Ergebnisse, aber bei einem großen Online Shop können es auch gut mal 100.000 oder mehr Ergebnisse sein.

Noindex & Robots.txt

Oft sieht man, dass eine Webseite in der robots.txt gesperrt ist, aber <meta name=”robots” content=”noindex, follow” /> enthält. Hier gibt es ein großes Logikproblem: Wenn der Bot die Webseite laut robots.txt nicht crawlen darf, dann kann er das Noindex auch gar nicht sehen!  Das ist der Grund, warum ich generell von der Robots.txt abrate.

Was nun?

Es gibt vier Möglichkeiten, die Indexierung zu vermeiden:

  1. Noindex-Meta Tag: Erklärt sich von selbst. Kein Index, also passt das.
  2. 301 Weiterleitung: Die geht aber z.B: bei Shopsystemen in den wenigsten Fällen und ist auch oft nicht sinnvoll, weil Druckversionen & Co. ja eine Existenzberechtigung haben
  3. Rel=Canonical: Eine sehr gute Möglichkeit!
  4. Rel=Canonical über den HTTP-Header: Für manche Dateien geht es nicht anders

Rel=Canonical

Sollte man dann einsetzen, wenn es sich beispielsweise um unterschiedliche Größen oder Farben des gleichen Produktes handelt. Wenn ihr wollt, dass “Pullover Blau XL” nicht indexiert werdet, dann sucht euch eine “Pullover Blau” oder “Pullover” Seite und leitet auf diese per Canonical weiter. Der Vorteil für den User: Er kann diese Seite immer noch sehen, selbst wenn es der Bot nicht mehr kann. Ob man die URL indexieren lässt oder nicht, ist eine wichtige Frage, denn hier muss man oft differenzieren: Suchen genug Leute nach “Hugo Boss Pullover Blau”, um die Seite indexieren zu lassen? Wichtig ist, dass auf dieser Seite dann aber auch unique Content stehen muss, also tatsächlich eine andere Produktbeschreibung als für den roten Hugo Boss Pullover. Lediglich die Worte “Blau” und “Rot” auszutauschen funktioniert nicht! Hier geht es dann in erster Linie um Ressourcen: Habe ich genug (Text-)Ressourcen um für alle möglichen Kombinationen einen eigenen Text zu erstellen?

Ja, wirklich!

Manche runzeln jetzt vielleicht die Stirn, aber in der Praxis sieht es mit den uniquen Texten wirklich so aus. Stellt euch vor: Es gibt 20 Online Shops mit dem Produkt “Hugo Boss Pullover Blau”. Manche haben gar keine Produktbeschreibung, manche haben eine automatisch generierte Beschreibung und einer hat einen einzigartigen Text. Wem wird Google wohl ein besseres Ranking geben (Links mal außen vor)? In der Praxis macht natürlich niemand jeweils einzelne Texte – aber überlegt mal, ob es sich nicht vielleicht doch lohnen könnte?

Druckversionen

Rel=Canonical bräuchte man natürlich besonders für Druckversionen von Webseiten, die es sehr oft gibt. Wie bereits erwähnt: Man kann PDF-Dateien nicht mehr per Robots.txt aussperren! Also man kann schon, aber es bringt nichts. Wie geht man also vor? Noindex funktioniert nicht, weil man ja keinen Meta-Bereich in einem PDF-Dokument hat. In diesem Fall muss man über den HTTP-Header gehen. Im HTTP Header darf man sowohl mit Noindex arbeiten, wie auch mit Rel=Canonical. Eine Erklärung zu Noindex gibt es beim Yoast,  eine Erklärung mit Rel=Canonical gibt es direkt bei Google.

Was soll nicht indexiert werden?

Mit diesen Methoden kann man dem Googlebot genau sagen, was er indexieren soll und was nicht. Nur, was soll er überhaupt indexieren und was nicht? Ich sage mal, was man nicht indexieren sollte:

  • Prinzipiell: Alle Seiten mit sich wiederholendem oder nur wenig eigenem Content
  • Tag-Seiten: Sofern sie automatisch generiert sind – weg damit. In manchen Fällen sind sie allerdings sehr gut zusammengestellt – dann kann man sich das überlegen (siehe Beispiel 1, Beispiel 2). Wobei dazu weit mehr gehören sollte, als passende Wikipedia Artikell einzubinden
  • Kategorie-Seiten à la /pullover/page2 /page3 usw. : Paradebeispiel für Rel=Canonical
  • Affiliate-URLs wie ?partnerid=2858 sollten auch verschwinden
  • /index.htm und ähnliche Dinge, die alle (!) Content Management Systeme produzieren

Letzlich muss man das selbst wissen und finden – jedes Mal gibt es neue “Überraschungen” von Content Management Systemen. Eine riesige Hilfe sind natürlich die Google Webmastertools! Dort stehen bei den “HTML VorschlägeN” auch “Doppelte Title Tags” und vieles andere – guckt hier einfach einmal nach!

Duplicate Content auf jeder einzelnen Seite

Ich zitiere mal Google:

“Minimieren Sie wiederkehrende Textbausteine: Anstatt am Ende jeder Seite umfangreiche Urheberrechtshinweise einzufügen, können Sie lediglich eine kurze Zusammenfassung mit einem Link zu detaillierten Informationen aufführen.

Das ist eine nicht unerhebliche Information. Versucht so wenig Text wie möglich in Footer & Co. zu packen. Auch Versandinformationen und andere Dinge sind Duplicate Content! Google reagiert da recht empfindlich in letzter Zeit, besonders wenn Ihr umfangreiche Infos über euren tollen Shop in 300 Wörter am Ende jeder einzelnen Webseite packt. Was daran (für den User) schlecht sein soll, weiß ich nicht. Google wird es schon wissen.

Crawling…

Das waren jetzt die Standard-Informationen zum Thema Indexierung. Jetzt kommt die Kür: Nehmen wir an, Ihr macht SEO für einen Shop mit hunderttausenden von Produkten. Und wir nehmen auch an, dass Ihr gewissenhaft seid und wirklich absolut alles auf Noindex oder Canonical gestellt habt, was nicht in den Index gehört. Trotzdem kann es eine solche Fehlermeldung geben:

“Der Googlebot hat auf Ihrer Website eine extrem hohe Anzahl von URLs entdeckt.”

Wieso? Die Webseiten sind zwar auf Noindex, allerdings crawlt Google sie ja weiterhin! Der Bot kommt auf domain.de/hugo-boss-pullover-blau-xxxl und sieht das “noindex”, also indexiert er die Seite nicht. Nun geht er zur nächsten Seite mit XXXXL und sieht wieder das “Noindex”. Im Extremfall bietet Ihr 25 Farben und jeweils 4 Größen an, also 100 Produkte, von denen eines indexiert wird und 99 werden nicht indexiert. Google crawlt aber alle 100 Produkte! Nun ist es so, dass jede Webseite (abhängig von Links und Trust) ein gewisses “Crawling Budget” hat. Pro Tag wird also nur eine gewisse Anzahl an URLs gecrawlt. Die Anzahl könnt Ihr übrigens sogar in den Webmastertools sehen.

Problematisch wird es nun, wenn der Googlebot den ganzen Tag Noindex Seiten crawlt und das “Budget” bereits aufgebraucht ist, bevor er zu den interessanten Dingen kommt wie zu neuen Produkten, neuen Texten etc., was eben schnell indexiert werden sollte. So kann es ewig dauern, bis Google nicht mehr vorhandene Seiten herauswirft oder neue Seiten indexiert. Um sich davor zu schützen hilft die robots.txt nicht, denn sonst würden (siehe oben) die URLs ja zwar nicht gecrawlt, aber trotzdem indexiert werden.

Es scheint keine Lösung zu geben, oder? Doch! Google bringt sie selbst! In diesem Artikel findet Ihr Tricks. Die beste Lösung ist natürlich, diese URLs gar nicht erst entstehen zu lassen. Das ist aber nicht immer möglich. Interessant ist noch ein Satz dort:

“Nutzen Sie das Tool zur Parameterbehandlung, um anzugeben, welche URL-Paramater Google problemlos ignorieren kann.

Dieses Tool gibt es in den Webmastertools. Das bedeutet jetzt: Ich muss meine URLs umschreiben, so dass sie dynamisch werden. Aus domain.de/hugo-boss-pullover-blau-xxxl wird also domain.de/hugo-boss-pullover?nichtcrawlen=blau-xxxl . Ja, richtig gesehen – der Parameter muss rein. In den Webmastertools kann ich dann angeben, dass alle URLs mit “?nichtcrawlen=” nicht gecrawlt werden sollen. Völlig gesperrt sind sie dann ja nicht für Google, sondern es wurde sehr genau definiert, was mit diesen URLs los ist. So sieht das dann in den Webmastertools aus:

Wie man sieht, gibt es sehr viele Einstellungsmöglichkeiten. Das allein spricht schon dafür, dass Google diese auch nutzt. Auch dafür sprechen die Aussagen

“Das Blockieren des Crawler-Zugangs zu dupliziertem Content auf Ihrer Website durch eine robots.txt-Datei oder sonstige Methoden wird nicht mehr empfohlen.” Quelle

Beziehungsweise dann bei der Parameter-Beschreibung…

Falls die oben genannten Lösungen nicht durchführbar sind, können Sie eine robots.txt-Datei verwenden, um den Zugriff des Googlebot auf problematische URLs zu blockieren.”
Quelle

Wenn das jetzt für euch unsinnig und unnötig kompliziert klingt, dann habt Ihr Recht. Google ist sicher auch nicht sehr zufrieden mit der momentanen Lösung. Diese Lösung werden wahrscheinlich rund 0,01 % aller Shops weltweit momentan praktizieren. Wenn Ihr die Meldung mit den “Extrem hohe Anzahl an URLs” also nicht bekommt, dann lasst es am besten sein. Ich denke (bzw. hoffe) dass Google hier bald eine bessere Lösung findet oder sie besser erklärt. Ob Google sich übrigens wirklich an die Anweisungen der URL-Parameter hält, habe ich noch nicht gecheckt. Mehr kann man aber einfach nicht machen.

Externer Duplicate Content

Habe ich ganz vergessen: Euer Content ist auf anderen Webseiten ebenso vorhanden? Na dann ändert das!  Im Prinzip gilt das Gleiche wie bei internem Duplicate Content, nur das Google hier noch viel weniger verzeiht. Übrigens gibt es (laut Google) auch hier seit einigen Tagen eine Benachrichtigung in den Webmastertools. Nach fast 2.000 Wörtern ist hier aber Schluss!

Fazit

Wenn ihr alle diese Tipps befolgt, dann habt Ihr keine Probleme mit Duplicate Content. Zu guter Letzt noch ein weiterer Ratschlag: Behaltet eure Webseite im Auge. Es schleichen sich sehr oft Fehler ein, die bei der Programmierung von kleinsten Dingen passieren können.

Foto: Copyright: Utekhina Anna / Shutterstock.com

Fragen / Anmerkungen / Kommentare?

Beitrag teilen:

Über den Autor

Julian Dziki ist SEO, Online Marketer und Affiliate seit 2007. Suchmaschinenoptimierung München

42 Kommentare

  • schoebs

    Hi Julian,

    prima Artikel. Die Parameterbehandlung seitens Google kann ich uneingeschränkt empfehlen, funktioniert vor allem sehr schnell. Habe dadurch erst kürzlich eine harte DC-Nuss geknackt :)

  • Ein schöner Artikel, vielen Dank, Julian. Wenn die Seitenzahl explodiert, ist es bei größeren Sites manchmal gar nicht so einfach die Lücke im CMS zu finden. Daher lohnt es sich ein Reporting über die Anzahl indexierter Seiten für verschiedene Subdomains und Verzeichisse auszusetzen. Wenn es dann mal knallt, kann man das Problem sehr schnell eingrenzen. Ich mache demnächst mal ein SISTRIX Toolbox Trainingsvideo dazu.

  • Klasse Artikel! Direkt mal verteilt auf den Kanälen.

  • Danke für diesen langen Artikel. Was haben die Katzen für Aufgabe, was sollten die darstellen? :)

  • Bei “Was soll nicht indexiert werden?” würde ich noch die Suchfunktion (sofern vorhanden) mit aufnehmen (also mit noindex versehen).

    Ansonsten wirklich sehr umfassender Artikel. Vor allem der Punkt mit der Noindex-Crawling-Kapazität-Problematik inklusive der Lösung mit den Parametersettings in den WMTs ist sehr geil ;)

    Grüße
    Pascal

  • Julian

    @Alex: Die Katzen sind das Wichtigste am ganzen Artikel! :-)

  • Schöner abschließender Satz am Ende deines Artikels: “Behaltet eure Webseite im Auge. Es schleichen sich sehr oft Fehler ein …”. Das kann ich aus eigener Erfahrung so unterschreiben!

    Bisher habe ich eher versucht, die Parameterbehandlung in den Webmastertools erst als 2. oder 3. Weg einzuschlagen. Sicher werde ich nun dort häufiger unterwegs sein und die robots.txt lediglich bei ein paar Default-Werten belassen. Irgendwo macht’s ja auch Sinn Google “zu sagen” welche Inhalte für das Crawlen nutzlos sind.

  • Hey Julian …

    Sehr guter Artikel! Wie in der Diskussion nach dem SEO Day schon angesprochen wird sich mit diesem Artikel wieder mehr auf die newbies konzentriert. Aber für die meisten “erfahrenen” SEOs ist dieser Artikel auch sehr lesenswert … Werde den Artikel auf jeden Fall unseren newbe SEOs als Pflichtlektüre vorlegen.

    Gruß
    René

  • Was für ein kurzer Artikel ;-)
    Nein, vielen Dank für die große Mühe, der Artikel ist wirklich gut geschrieben und gibt Aufschluß darüber, was Google nicht einfach so auf einer Website dazu anbietet.

  • Ein super Artikel, danke dafür =)

  • Sepsis

    Was nutzen HTML-Parameter wie “?noindex”, wenn diese in incoming Links nicht angegeben werden? Darübe rhat der wenbaster keine Kontrolle. Irgendwie sind Anweisungen an eine Suchmaschine, die nicht in der Seite selbst stehen, nicht das Gelbe vom Ei.

  • klasse Julian, alles bekannt, aber immer wieder gut solche Beiträge zu lesen und alles komprimiert auf dem Punkt zu haben!

    Werde ich gleich mal an die Praktis und Trainees weiterverteilen (sofern die es nicht schon selber gefunden/gelesen haben) ;-)

    best Grüße
    Nico

  • Julian

    @Sepsis: Das war ja nur ein Beispiel. Typischerweise sind die Namen “?sortprice=” oder “?product-id=” oder “?page=”.

  • Hi Julian,

    Sehr guter Artikel, speziell das Augenmerk auf den Canonical kann ich aus unserer Sicht hier vollstens unterstützen :)

    Interessanterweise haben wir bei den Parameterbehandlungen zwei unterschiedliche Effekte feststellen können:

    – reine Sortierungs/Eingrenzungsparameter werden im Index erst nach einiger Zeit angenommen;

    – Temporäre Parameter als “nicht-relevant” einzustellen und dazugehöriger Wildcard Ausschluss in der robots.txt werden von Google aber meist sogar innerhalb von ein bis zwei Wochen voll angenommen und dementsprechende Seiten werden aus dem Index entfernt

    Das kann speziell bei E-Retail Seiten interessant sein, wo dann schon mal 20.000+ Fehlerseiten auftauchen: im ersten Schritt zuerst Duplicates durch temporäre Parameter rauschmeissen lassen, abwarten und dann erst die restlichen Webmastertools-Einstellungen setzten :)

  • @Julian: Der Artikel gefällt mir gut. Leider beschreibt er aber nur wir man schnell die Symptome bekämpfen kann. Wirkliche Konzepte zu einer effizienten Vermeidung der vielen Seiten zeigst du aber nicht auf, obwohl du selbst schreibst “Die beste Lösung ist natürlich, diese URLs gar nicht erst entstehen zu lassen.”.

    Ich habe gerade gestern einen Artikel bei Seo.de veröffentlicht der einen Abschnitt zum Thema “Hohe Seitenzahlen – Unkontrollierte Vermehrung” hat. Dort erwähne ich kurz das PRG-Pattern (Post/Redirect/Get, http://en.wikipedia.org/wiki/Post/Redirect/Get) als Lösung für genau dieses Problem.

    Aus meiner Sicht solltest du in deinem Artikel noch etwas deutlicher machen, dass die Benutzung des Canonical-Elements alles andere als eine saubere Lösung für das Problem der unkontrollierten Vermehrung von Seiten ist. Google sieht das Canonical-Element nur als Hinweis und entscheidet von Fall zu Fall wie Seiten mit diesem Element gehandhabt werden und gleiches gilt auch für andere Suchmaschinen die das Element adaptieren. Seitenbetreiber die auf Canonical setzen führen also statt gegen die Ursachen zu kämpfen selbst eine Situation herbei bei der sie keine verlässlichen Aussagen mehr darüber treffen können wie die entsprechenden Seiten gehandhabt werden.

  • In Bezug auf die erwähnten PDF gäbe es noch eine Möglichkeit. Man speichert die PDF alle in einem bestimmten Ordner und sperrt selbigen für Tante Google.

  • @Torsten: Genau das sollte man nicht machen. Tut man dies, so können Suchmaschinen nicht erkennen um welche Art Inhalt es sich handelt und wie die Links damit zu werten sind. Die auf gesperrte Seiten zeigenden Links vererben Juice und der versickert dann ungenutzt bzw. wird im gesamten Web neu verteilt. Siehe auch “Random Surfer Model” bzw. “Intentional Surfer Model” (http://en.wikipedia.org/wiki/PageRank#The_intentional_surfer_model).

    Mathematisch betrachtet sind Sperren in der Robots.txt und interne Nofollow-Links also ganz großer Quatsch.

  • Julian

    @Torsten: Per robots.txt funktioniert das wie gesagt nicht mehr. Auch wenn der Ordner gesperrt ist. Siehe http://www.seokratie.de/category/ : Gesperrt in der Robots.txt, aber alle Unterordner sind im Index.

  • @Julian

    Nur interessenshalber:

    Hast Du den category-ordner dann auch per Webmastertools entfernt?

    Die Kombination robots.txt-Ausschluss mit Entfernung der URL durch die Webmaster Tools funktioniert ja meistens ganz gut (und wurde mir mal von einem Google Mitarbeiter empfohlen)

  • Wiedereinmal ein sehr lehrreicher Artikel, der selbst für alte SEO-Hasen noch nützliches Wissen bereit hält.

    Was ich mich schon länger frage, ab wann zB ein Text als DC gesehen wird. Nach welchen Kriterien geht hier google?

    Viele Grüße, Dave

  • Wir haben bei unserem Shop das Problem, dass wir durch eine Filter Navigation extrem viel Duplicate Content im Index haben.
    Letzte Woche haben wir unserem Shop ein neues Design verpasst und in dem Zuge haben wir den gefilterten Seiten das Rel=Canonical Tag verpasst und in den Webmaster Tools die entsprechenden URL-Parameter gesetzt.
    Im Moment haben wir ca. 6800 Seiten im Index wirklich “echte” Seiten gibt es aber nur ca. 500, so dass wir über 6000 Seiten an Duplicate Content haben.
    Die lange dauert es ca. bis die Seiten aus dem Index entfernt werden?
    Sollten die gefilterten Seiten zusätzlich noch auf NoIndex gesetzt werden?

    Viele Grüße Stefan

  • Hallo Julian,

    danke für das sher gut zusammengefasste Thema. Ich würde den Blick noch auf HTML5 erweitern. Ich gehe davon aus, dass z. B. in einem – oder -Tag gepackte Informationen anders bewertet werden, sonst würde die ganze HTML-Semantik keinen Sinn machen.

    Viele Grüße

    Bertram

  • Bernd

    @Stefan, habt ihr das Problem schon lösen können? Bzw. wäre ich sehr an einem Lösungsvorschlag interessiert. Wir haben ein ähnliches Problem.
    Bin da um jeden Tipp/Vorschlag dankbar.

    Viele Grüße

  • Moin,

    wir haben für eins unsere Projekte auch das Problem, dass Kategorie Seiten mit Nutzerprofilen gecrawlt werden. Der Inhalt (Nutzerprofile) ändert sich auf den Seiten! Nur bleibt natürlich die Title und Meta Description. Weiterhin ist auch der Einleitungssatz der Kategorie gleich.

    Macht es jetzt sinn, dass wir anhand des cannocical Tags nur die erste Seite crawlen lassen? Aber wie gesagt der Inhalt (Profile) ändert sich auf jeder Seite..
    Nur das Gerüst bleibt halt gleich..

    Oder würde es schon was bringen, wenn wir die Kategorie Seiten in der Meta und Title Description klarer bennen z.B. Seite 1, Seite 2 etc..??

    Für einen Tipp wäre ich sehr dankbar!

    Viele Grüße
    Dominic

  • Der Artikel lässt wenig offen und ist sehr fundiert. An der Stelle “Externer Duplicate Content” ist mir allerdings nicht klar, welche Maßnahmen man ergreifen sollte um externe Inhalte zu “eleminieren”. So werden beispielsweise die RSS-Feeds häufig genutzt um Inhalte von Blogs auf irgendwelchen Seiten auszugeben. Dagegen kann man sich im Grunde nicht wehren. Oder?

  • guter ausfühlicher Beitrag!

  • Oliver

    Klasse Artikel, wir haben das Problem mir der Indizierung von Seiten bei einem unserer Projekte! Eigentlich haben wir ca. 500 Seiten, aber Google fand 12.000. Nun brauchen dringend Hilfe, um die Lücken zu schließen!

  • Hallo, ein sehr interessanter Bericht und ich dachte robots.txt ist wichtig. Lg Tina-Maria

Hinterlasse eine Antwort

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind markiert *

Du kannst folgende HTML-Tags benutzen: <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <strike> <strong>