So entlarvt Google Deine KI-Texte – und warum nur echte Inhalte ranken
Diesen Satz höre ich in letzter Zeit oft – ob in Gesprächen mit Geschäftsführern, Marketingleitern oder Bekannten. Seit Tools wie ChatGPT in aller Munde sind, scheint professionelle Content-Erstellung überflüssig geworden zu sein. Gleichzeitig bieten immer mehr Anbieter massenhaft KI-generierte Texte zu Schleuderpreisen an – oft ohne redaktionelle Prüfung. Doch wer glaubt, Google sei mit solchen Inhalten zufrieden, irrt gewaltig. Die Suchmaschine erkennt längst nicht nur kopierte Textbausteine – sie analysiert die semantische Tiefe, prüft die Originalität über Vektoren und deckt sogar „intelligentes Copy & Paste“ auf. Kurz: Nur weil ein Text „unique aussieht“, ist er es für Google noch lange nicht. Was bedeutet das für Deine Content-Strategie? Und wie kannst Du KI sinnvoll nutzen, ohne in die Duplicate Content-Falle zu tappen? Lies weiter – es lohnt sich.
Ja, dieses Bild hat mir eine KI erstellt. 😉
Inhalt
Zunächst einmal ein kleiner chronologischer Abriss der SEO-Texte.
Am Anfang war die Keyword-Dichte
Viele denken beim Thema „Texten für SEO“ sofort an die berühmte Keyword-Dichte. Sie beschreibt den prozentualen Anteil des Keywords innerhalb eines Websitetextes. Vereinfacht gesagt: Wenn ein Text aus 100 Wörtern besteht und Du das Keyword dort zwei Mal nennst, dann beträgt die Keyword-Dichte 2 %. Die Keyword-Dichte war nie ein besonders starker Rankingfaktor bei Google – und heute ist sie völlig überholt. Natürlich sollte ein Begriff wie Gartenhaus in einem Text über Gartenhäuser vorkommen. Ich sage immer: Es ist schon schwer, einen fachlichen Text über ein Thema zu nennen, ohne das Thema auch zu nennen. 😉
WDF*IDF: Texten nach Kurven
Der feine Online Marketer Karl Kratz (der sich dieser Tage leider aus dem Online Marketing zurückzieht, mach es gut, hoffentlich sehen wir uns trotzdem ab und an!) entdeckte im Jahr 2012 für die SEO-Szene eine mathematische Theorie wieder, die Dokumente anders bewertete, als Keyword-Dichte: WDF*IDF.
WDF bedeutet Within Document Frequency, also wie oft ein Begriff im Text vorkommt.
IDF heißt Inverse Document Frequency – wie oft er im gesamten Web (oder Textkorpus) vorkommt.
Ein Text über Gartenhäuser enthält oft Wörter wie Holz, Dach, Fundament – aber selten die Wörter Autoreifen, Notebook, CRM-System.
WDF*IDF erkennt das und Du kannst herausfinden, welche semantisch verwandten Wörter in einem Text vorkommen sollten.
WDF-IDF-Analyse des Keywords „Gartenhaus“ – Quelle WDFIDF-Tool.com
WDF*IDF hat deutlich mehr auf dem Kasten als eine herkömmliche Keyword-Dichte-Analyse. 2012 konnte man damit (und sogenannten holistischen Landingpages) viele gute Rankings erreichen, sogar vollkommen ohne Links. Das allerdings meistens nur bei sehr informationsgetriebenen Keywords.
Embeddings – Wie Google wirklich liest
Google „sieht“ in der Regel keine Wörter, wenn ein Text von der Suchmaschine analysiert wird. Stattdessen wird jedes Wort von Google in einen multidimensionalen Vektor übertragen.
Das Wort „SEO“ hat zum Beispiel den Vektor (0,24; -0,78; 0,65; -0,74).
Dabei hat jeder Vektor eine bestimmte Bedeutung bzw. Kategorisierung. Ihr kennt doch Vektoren noch aus der Schule mit X-, Y- und Z-Achse? Genau so müsst ihr euch das vorstellen. Nur nicht dreidimensional, sondern in bis zu 1.000 (!) Dimensionen. Wir wissen leider nicht wie Google genau mit Vektoren arbeitet und mit wie vielen. Aber aus Patenten der Theorien dazu geht hervor, dass es bis zu 1.000 sein können.
Mit diesen Vektoren arbeitet Google bereits seit sehr langer Zeit, lange vor KI. Word2Vec war 2013 eines der Google-Tools, die damals auch kostenlos herauskamen.
Mit Vektoren waren Dinge wie der Knowledge Graph und Rankbrain möglich, aber auch Google MUM und BERT waren Suchsysteme, die darauf aufbauten.
Mit Vektoren bekommen Wörter eine Bedeutung und einen Kontext. Google wusste nun, dass Berlin sich zu Deutschland genauso zueinander verhält wie Paris zu Frankreich (Es sind die Hauptstädte der jeweiligen Länder). Heute macht genau diese vektorbasierte Betrachtung von Keywords und Suchanfragen einen Großteil der Fortschritte in der Google-Suche aus.
Mit Vektoren kann Google auch feststellen, dass
- günstiges Fahrrad kaufen
- billiges Fahrrad bestellen
nahezu die gleiche Bedeutung haben und daher die gleichen Suchergebnisse haben. Google versteht auf diese Art und Weise auch Bilder, indem es das Bild analysiert und Gegenstände, Personen, Orte in Vektoren zerlegt. So kann die Suchmaschine gut erkennen, ob ein Bild zum Text passt.
Vektoren und Duplicate Content: Was ist SimHash?
Du kopierst die Texte Deiner Konkurrenz mittels KI? Du nimmst drei gute Contentstücke von Konkurrenten und fügst sie mit Hilfe von KI zu einem zusammen? Dann solltest Du hier gut mitlesen. Bereits seit 2001 gibt es Patente von Google, wie man auf einfache Art und Weise Websites und deren Merkmale in Vektoren zerlegen kann. Das sind beispielsweise bestimmte Phrasen, wichtige Begriffe oder semantische Einheiten. Jedes dieser Merkmale wird als Vektor dargestellt. Vermutlich auch die Wörter an sich dann zusätzlich. Aus dieser Gesamtheit von Vektoren wird ein 64-Bit-Fingerabdruck erstellt. Ähnliche Texte – und hier ist jetzt der springende Punkt – haben einen ähnlichen 64-Bit-Hash.
„Detecting Near-Duplicates for Web Crawling“ – das Dokument, das SimHash im Detail beschreibt (Link zum PDF): aus dem Jahr 2007!
Ähnlich kann sein:
- Es werden die gleichen Fachbegriffe verwendet.
- Es werden die gleichen Fachbegriffe (aber deren Synonyme verwendet).
- Absätze sind vom Sinn her gleich.
- Wortfolgen sind sehr ähnlich.
- Die Textlänge und Absätze sind ähnlich.
Zu Deutsch: Du kannst einen Text mit einer KI umschreiben lassen und jedes Wort ändern – Google erkennt trotzdem, dass dieser Text bereits auf andere Art und Weise im Netz steht.
Was macht eine KI?
- Bei einer Textkopie kann die KI die Worte ändern, aber die semantische Bedeutung bleibt gleich.
- Die KI ersetzt Sätze durch Synonyme, ändert die Satzstruktur, streicht Redundanzen – aber sie erfindet inhaltlich nichts Neues.
- Das Ergebnis sieht „unique“ aus, aber letztlich ist es nur ein Klon.
Was hat das für Auswirkungen auf unser SEO?
Zunächst einmal muss ich noch klarstellen: Google hat nicht grundsätzlich etwas gegen KI-Content. Aber die Suchmaschine möchte originale Inhalte haben. Wie ihr oben gelesen habt, ist es für Google ein leichtes, inhaltliche Kopien zu entdecken, selbst wenn sie nicht 1:1 kopiert wurden.
Wenn Du also massenhaft KI-Kopien erstellst, könnte folgendes passieren:
- Google sieht Deine Inhalte als Duplicate Content an. Google indexiert nur eine Version – meistens das Original.
- Dein KI-Text wird ignoriert und gar nicht gerankt.
- Wiederholte Duplikate auf Deiner Website können Dein Trust-Level bei Google schwächen.
Ich glaube, dass Google hier die Daumenschrauben in der nächsten Zeit deutlich fester anziehen wird. Aber man merkt ja bereits jetzt, dass viele KI-Texte mit minderwertiger Qualität gar nicht richtig ranken.
Den Fingerabdruck eines Textes erkennt Google immer wieder, auch wenn man den Text verändert.
Dann soll ich keine KI für Texterstellung verwenden?
Um Himmels willen, nein! Wir leben ja nicht mehr im Mittelalter. Zunächst einmal zur Verteidigung von Content-Kopien: Natürlich baut auch ein menschlicher Autor immer auf anderen auf. Bei vielen Keywords sieht man auf Position 1 nicht die URL, die das Meiste und Originellste zum jeweiligen Thema bietet, sondern diejenige, die das Thema am besten aufbereitet. Die Art und Weise wie der Content präsentiert wird, kann auch eine besondere sein – und dann rankt man deswegen besser. Das ist vermutlich auch der Grund, warum einige komplett KI-generierte Texte trotzdem gut ranken.
Du willst keine unserer Beiträge mehr verpassen und auf dem Laufenden bleiben? Abonniere jetzt unseren Newsletter und erhalte jeden neuen Seokratie-Beitrag per E-Mail direkt in Dein Postfach!
Hier geht es zum Anmeldeformular.Ansonsten ist es meiner Meinung nach so, dass man KI unbedingt als Werkzeug nutzen sollte. In meiner, im September erscheinenden 3. Auflage von „Suchmaschinenoptimierung für Dummies“ schreibe ich:
„Ein Websitetext von einem Profi geschrieben, der KI als Tool nutzt ist immer besser als ein Websitetext, der nur von einer KI geschrieben wurde oder ein Websitetext, der von einem Amateur geschrieben wurde.“
Bedeutet: Natürlich solltest Du als Texter heute KI benutzen!
Wofür? – Das ist die bessere Frage:
- für die Gliederung von Inhalten und Konzepten
- für einen schnellen, kritischen Gegencheck Deiner Texte
- für Brainstorming, Themenrecherchen und Ideenfindung
- für das Erstellen von Zusammenfassungen
- für das Erstellen von Bildern und Grafiken.
Jeder gute Websitetexter wird mir beipflichten, dass das ungeprüfte Veröffentlichen von KI-Inhalten wirklich nichts ist, was man tun sollte. Nicht aus einem veralteten Berufsethos heraus, sondern weil KI einfach nicht an einen professionellen Texter heranreicht.
In Sachen Content kommt es mittlerweile oft auf die letzten 5 % an. Diese 5 % kommen eher nicht von der KI, sondern von einem Menschen. Deswegen – um meine Frage vom Beginn aufzugreifen: Man ist nicht veraltet, wenn man auf professionelle menschliche Texter setzt, die KI auch als Tool einsetzen. Diese Texter – wenn Sie denn zusätzlich noch richtig und gut mit einer KI umgehen können – schlagen alles.
Was bedeutet das für die Arbeit mit KI, SEO und Texten?
- Nutze KI nicht, um fremde Texte zu kopieren – es sei denn, Du schaffst insgesamt einen besseren Text. Google erkennt Duplicate Content mit Hilfe von Vektoren auch, wenn Du ihn nicht siehst.
- Glänze mit echtem Unique Content!
Nicht falsch verstehen: Du kannst durchaus mal einen Absatz mit einer KI generieren lassen – das wird Google nicht abstrafen – sofern der Absatz sinnvoll und gut ist. Aber rein KI-generierte Texte haben es echt schwer, vor allem, wenn sie keine Tiefe haben und keine neuen Informationen – sondern nur das weitergeben, was sowieso schon oft im Netz steht.
Genau das ist ja die Spezialität eines LLM (Large Language Models) wie ChatGPT und Co.: Diejenigen Wörter aneinanderzureihen, die am wahrscheinlichsten als nächstes kommen.
Was ist also echter Unique Content?
- Das können echte Meinungen sein
- andere Perspektiven
- Zahlen und Daten, die kein anderer hat
- eine andere Herangehensweise an Content (evtl. ein anderes Format)
- eine bessere Aufbereitung
E-E-A-T ist hier das Stichwort. Die Abkürzung für zu Deutsch: Erfahrung, Fachwissen, Autorität und Vertrauenswürdigkeit – das ist es, was Google in Sachen Content wirklich will. Man merkt es einfach, wenn ein Text von einem langjährigen Experten in seinem Bereich geschrieben wurde. Und genau auf diese Art von Content ist Google scharf. Nicht auf „die zehn besten Sehenswürdigkeiten Mallorcas“ – sondern auf die Tipps, die der Mallorca-Profi hat, der seit 15 Jahren auf der Insel lebt. Ein Hersteller von Präzisionspumpen, der eigene Messdaten zur Laufzeitoptimierung veröffentlicht, liefert echten Unique Content – Google liebt solche Inhalte!
Hast Du Fragen, Anregungen, Kommentare? Ich freue mich über Deine Meinung.
Falls Du Lust auf echten Unique Content hast – melde Dich gerne bei unseren erfahrenen Content Marketern.
10/10 für diesen Blogbeitrag, Julian. Genau solche Dsikussionen habe ich zunehmend mit Kunden, bei denen die gerade der Nachwuchs Einzug hält. Frisch von der Uni und überzeugt, dass KI für nahezu alles die beste Lösung ist. Quick n`dirty. Ich nehme den Blogbeitrag künftig als argumentatorische Referenz (muss ich mir nicht ständig den Mund fusselig reden).
Das ist ein hervorragender Artikel, dem man sofort den Sachverstand anmerkt! Und es beruhigt mich, dass Google immer noch schlauer ist als die KI. Vielen Dank, ich werde direkt ein Lesezeichen setzen!