SMX zweiter Tag – Was weiter geschah

11. April 2013  |     |  6 Kommentare
Ein Beitrag von Julian Dziki

So! Am zweiten Tag war leider das Internet nicht immer verfügbar und so konnte ich nicht mehr livebloggen. Hier hole ich einmal gesammelt einen Auszug meiner Mitschriften aus den Sessions nach. Bitte entschuldigt den stichpunktartigen Stil, aber ich dachte mir lieber so als dann letztlich gar nicht.

 Johannes Müller / Google

  • 20 Milliarden Webseiten am Tag werden gecrawlt
  • Probleme von Google: Hohe Serverbelastung durch Crawlen und zu viele Duplikate
  • Itunes Rankingabsturz: Der Googlebot wurde von Apple gesperrt, weil er zu viele Anfragen gemacht hatte. Somit konnte Google nicht mehr alle Webseiten crawlen. John Müller sagte das bereits gestern, Sistrix hat es ohne fremde Hilfe herausgefunden
  • Wichtig: Dauer des Herunterladens einer Seite (in Millisekunden)
  • Muss man immer im Auge behalten: DNS-Fehler in den Webmastertools
  • Interner Duplicate Content wird nicht bestraft
  • Nicht mehr die robots.txt verwenden!
  • „es können sich dadurch andere Probleme ergeben“ (Anm. von mir: Ich vermute, dass eine große Anzahl an inhaltsleeren Seiten ein negativer Rankingfaktor ist. Mit der robots.txt wird eine solche für Google generiert)
  • Rel canonical: Muss im <Head> sein
  • Max. 1 rel=canonical pro Seite, oft binden Webmaster fälschlicherweise zwei Canonical Tags ein, etwa wenn das zwei unterschiedliche WordPress-SEO Plugins machen
  • Rel=Canonical muss auf eine äquivalente Seite sein mit mehrheitlich identischem Text zeigen, sonst funktioniert er nicht
  • Auch nicht  von einer Kategorie auf einen Artikel, nicht von Seite 2 auf Seite 1

2. Vortrag von Johannes

  • Manuelle Maßnahmen werden automatisch aufgehoben, das kann zwischen einigen Monaten und Jahren dauern
  • Bei Reconsideration Requests werden keine anderen, härteren Maßnahmen überprüft – man muss keine Angst davor haben!
  • Wichtig bei Reconsideration Requests: Das allgemeine Bild muss wieder stimmen
  • Ggf. müssen Stichproben ok sein: Google Mitarbeiter nehmen immer eine kleine Stichprobe an Links
  • 2012 fuhr Google 73.086 Experimente
  • Regelmäßig sind rund 300 Experimente live (in den SERPs, die wir sehen)
  • 665 Algorithmus Änderungen für Search Quality 2012
  • Mehr als 1.000 Personen-Jahre stecken im Algorithmus (!!!)
  • Bei Panda sollte man die 23 Fragen von Amit Singhai verwenden
  • Algorithmus Anpassungen dauern, erst bei erneutem Panda / Pinguin Update kommt man wieder aus dem Filter
  • Man sollte keine kleinen Änderungen machen, sondern möglichst große, sonst muss man bis zum nächsten Update warten
  • Bei manuellen Maßnahmen: Links möglichst entfernen, ansonsten Disavow Links Tool verwenden
  • Bei manuellen Maßnahmen sollte man immer einen Reconsideration Request ausfüllen
  • Bei Disavow Links: Auf Syntax achten, unklare Zeilen werden ignoriert
  • Kommentare im Dokument des Disavow werden nicht gelesen
  • Disavow Links werden beim erneuten Crawling der Links bearbeitet

Jonas Weber (Webhelps)

  • 2009 Vince Update: Brand und Reputation
  • 2010 Mayday Update: Qualität im Longtail
  • 2011 Panda Update: Userverhalten
  • Praxisbeispiel: Webseite, die zwei Mal im Panda Filter war
  • Title wurde optimiert – nur ein Keyword pro URL statt vorher viele Keywords
  • „Keyword – Das Original“ bzw. „Keyword – Experte in Nebenkeyword“
  • „Benötigt die Welt diesen Link? Würde ein Nicht-SEO den Link in dieser Form in seine Homepage einbinden?“

Content Strategy (Will Reynolds)

Wake up Call: Will Reynolds Keynote

  • THE PARTY IS OVER: Die Party ist vorbei (für SEOs, die noch den alten, spammigen Weg gehen)
  • Man sollte #RCS = „Real Company Shit“ machen und aufhören, alles zu faken
  • Niemand erzählt seinen Eltern, was für ein tolles Low-Quality Linknetzwerk er hat
  • Man sollte stolz sein, seinen Eltern zu erzählen, was man macht
  • Erstelle Mehrwert, verbessere das Internet!
  • „The Internet hates us“: SEOs sind als Spammer verschrien
  • #RCS beginnt damit, dass man Bedürftnisse befriedigt
  • Site:huffingtonpost.com Google Alerts intitle: Your asset
  • Wenn man etwas macht, sollte man sich fragen: Würde man dafür bezahlen, um es zu promoten? Wenn man die Frage mit „Nein“ beantwortet, ist es kein guter Content

Onsite Klinik (Fili Wiese und John Müller)

  • „There is no duplicate content penalty for internal duplicate content“ (John Müller)
  • Um Bilder herum sollte immer Kontext sein
  • Wenn man Lightboxes etc. benutzt, kann man die Bilder woanders vielleicht noch einmal einbinden, mit Text herum. So kann Google die Bilder besser in einen Zusammenhang bringen
  • Interne Links, die auf 404 Seiten verlinken sind schlecht
  • Friendscout24.de: Problem, dass der Content unterhalb des Footers ist à Laut Fili Wiese kein gutes Signal
  • Friendscout24.de/Bremen : Seite hat als einzigen Nutzen, den User abzuholen und dann direkt weiter zur Registrierung zu leiten, er nennt die Seite sogar eine Doorway-Page
  • Disneystore.de: 50x so viele URLs gecrawlt wie tatsächlich indexiert
  • Rel=Canonical fliegt nie aus dem Index, sondern bleibt drin, ist aber nicht in der normalen Google Suche zu finden (Anmerkung: Im sogenannten „Supplemental Index“)

Link Clinik (Jonas Weber und Stephanie Wood)

  • Kleinere Seiten müssen meist so viele Links abbauen, dass es sich nicht lohnt, lieber neu starten
  • Stephanie Wood: SEO seit 7 Jahren, jetzt bei Edarling
  • Edarling: Erste Penalty im Mai 2010
  • Aggressiver Linkabbau
  • Fokus beim Linkabbau auf harten Anchortexten und Foren/Kommentarspam
  • Dann Reconsideration Request und Mitteilung, dass Penalty aufgehoben wurde

smx münchen 2013

 Mein persönliches Fazit zur SMX

Fangen wir mit dem Negativen an: Die Pausen von oft nur fünf Minuten zwischen den Sessions waren viel zu kurz, besonders wenn ein Speaker über die Zeit hinaus sprach. Zehn, besser fünfzehn Minuten sollten es schon sein, dafür kann man die Mittagspause kürzer machen (sagten mir auch einige andere Teilnehmer). Die SMX 2013 war für mich persönlich die beste Konferenz, auf der ich jemals war. Ich habe nicht nur sehr viel Neues gelernt, sondern auch einen anderen Blick auf vieles Alte bekommen.

Eine der wichtigsten Personen war Wil Reynolds. Ich wünschte, dass alle SEOs in der Keynote „Wake up Call“ gewesen wären. Wie auch letztes Jahr schon haben seine Vorträge wie eine Bombe eingeschlagen. Bei der Session von Julius van de Laar war ich einfach nur noch Baff, wie intelligent und durchdacht man Wahlkampf betreiben kann. Großes Lob auch an Johannes Müller von Google, der insgesamt in drei (!) Sessions war. Er hat wirklich sehr viele gute Tipps und auch Insights gegeben. Die neue Offenheit tut gut!

Den Organisatoren, namentlich Alexander Holl, Rebecca Stieger und Sandra Finlay kann man nur danken. Sie haben mal wieder einen erstklassigen Job gemacht. Wie die SEO Branche, so hat sich auch die Konferenz professionalisiert. Tolle Organisation, entspanntes Networking und erstklassige Speakerkompetenz. Ich freue mich schon auf 2014!

Jetzt teilen: Share on Facebook5Tweet about this on TwitterShare on Google+3Email this to someoneShare on LinkedIn0

E-Book: Der Weg zum erfolgreichen Online Shop

  • Das 47-seitige E-Book mit 72 konkreten Tipps für Deinen Online Shop
  • Einmal wöchentlich exklusiver Content für das Marketing Deines Shops
  • Unser Newsletter (1-2x pro Woche)
E-Book kostenlos downloaden

6 Kommentare

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind markiert *

Willst Du fit in SEO werden?

Abonniere unseren Newsletter und bleibe in Sachen SEO, Inbound- & Online-Marketing auf dem Laufenden.

Du kannst den Newsletter jederzeit wieder abbestellen.