Seokratie live von der SMX 2016

17. März 2016  |     |  3 Kommentare
Ein Beitrag von Julian Dziki

Wie jedes Jahr berichte ich live von der SMX München, der größten SEO-Konferenz im deutschsprachigen Raum. Was sind die Trends? Was hat sich geändert? Hier ein Einblick mit vielen Fotos und Ausschnitten aus den Sessions. 

Keynote von Rand Fishkin

Voller Saal

Der Saal war komplett voll!

Die Keynote von Rand Fishkin (Moz) handelte von Googles neuen Möglichkeiten des Machine Learning. Die Kernaussage: Engagement der User wird immer wichtiger – nicht nur bei Google, sondern auch auf Facebook, Twitter und Instagram. Webseiten und Brands werden sich mit dem Faktor „Engagement Reputation“ auseinandersetzen müssen: Wie sind die User mit meiner Marke engaged? Wer hier gewinnt, gewinnt auf allen Kanälen.

wp-1458208847071.jpg

2016: Eine Welt der „Engagement based Reputation“

wp-1458207742384.jpg

Rand Fishkin

Mario Fischer und Marcus Tober: Das „Wie“ und das „Weshalb“ – SEO-Experimente

Im Vortrag ging es vor allem um die Problematik von SEO-Experimenten. Das Problem Korrelation und Kausalität wurde anfangs deutlich hervorgehoben, ebenso dass man nicht einen Faktor untersuchen kann, ohne die anderen mit zu berücksichtigen.

 

wp-1458208942694.jpg

Mario Fischer

Marcus Tober

wp-1458209698107.jpg

Wieso ranken manche Seiten höher als andere? Die Lösung von Marcus heißt: Relevanz.

„Warum rankt diese Seite besser als andere?“ Diese Frage kennt jeder SEO. Marcus bringt in seiner Rankingfaktoren Studie jedes Jahr tiefe Insights und macht hier einen klasse Job. Dieses Jahr macht Marcus es anders. Er möchte in der Studie (vermutlich eher ansatzweise) zeigen, wie RankBrain funktioniert.

Er hat sich Wikipedia besonders genau angesehen, weil diese Seite sich anders verhält als „herkömmliche“ URLs.

wp-1458210182519.jpg

Die Anzahl an Links (und Rankings der Seiten) verglichen: E-Commerce vs. Gesundheitsbereich vs. Finanzbereich. E-Commerce Seiten haben die meisten Links.

Parallel ist übrigens Nadine auf der Allfacebook-Konferenz und twittert sehr aktiv!

André Morys: Personalisierung 2.0 – Big Data meets Konsumpsychologie

wp-1458211500319.jpg

Das Leben als Website-Optimierer ist hart.

Zu verstehen, was Menschen optimiert hat fünf Mal so viel Effekt, wie Barrieren abzubauen – etwa bei Kontaktformularen. Wenn man Personas und Daten aus dem CRM zusammenbringt, dann kann man damit tolle Sachen machen. Die automatisch entwickelten Typen aus dem CRM waren bei einem Test mit den Personas überraschend identisch.

wp-1458212008881.jpg

CRM + Personas = Kundentypen!

Die Nutzer wurden im Test dann live anhand der Daten analysiert und mittels eines Scoring Systems eingeordnet. So bekamen unterschiedliche Nutzer bzw. Personas auch unterschiedliche Inhalte. Es gab 196 Kriterien, über 98 % der Nutzer konnten einem Typ zugeordnet werden.

wp-1458212441959.jpg

Kurzes Konferenz-Selfie mit Konstantin (links).

wp-1458212733470.jpg

Unterschiedliche USPs je nach Kundentyp – Dominanz oder Balance?

Zu dem Thema gibt es von Konversionskraft ein Playbook. Hier kann man es downloaden.

wp-1458219603440.jpg

Unser E-Book liegt übrigens für alle SMX Besucher als Printausgabe am Medientisch aus!

Dela Quist: Marketing-Automatisierung macht den Traum von Multi-Channel Marketing-Programmen zur Realität! Und warum setzen so wenige Unternehmen den Traum um?

Nach der Mittagspause geht es weiter mit einer Keynote zum Thema Marketingautomatisierung. Ein unglaublich spannender Bereich, in dem wir auch seit Längerem tätig sind. In rund einem Monat halte ich auf dem ContentDay in Salzburg dazu einen Vortrag, besonders hinsichtlich der Kombination von Content Marketing und Marketing Automation.

E-Mail Marketing gilt immer noch als unsexy, wobei dieser Kanal einer der effektivsten überhaupt ist und absolut unterschätzt wird. Das kann ich auch so unterschreiben, E-Mail Marketing ist (wenn gut gemacht) großartig.

Es gibt mittlerweile eine unglaubliche Fülle an Marketing Software, jedoch schafft es keine, echtes Multichannel-Marketing zu leisten.

wp-1458219683279.jpg

Niemand macht wirkliches Multichannel-Marketing.

Laut Dela sollte man sich nicht nur auf die Conversion konzentrieren, sondern darauf, woher der User ursprünglich kam. Wo kam der erste Kontakt wirklich her? Man sollte hier nicht den großen Firmen (Google, Facebook etc.) trauen, sondern sich den tatsächlichen Kunden ansehen.

Ohne E-Mail Adressen läuft nichts. Man kann kein Smartphone ohne E-Mail Adresse nutzen. Selbst wenn E-Mails nicht geöffnet werden, lösen Sie Conversions aus.

20160317_142854.jpg

Auch ohne Öffnungen wird besser verkauft

Dave Sottimano & Simo Ahava Erfolgsmessung von Content-Strategien

wp-1458222564669.jpg

Content Marketing verkauft oft nicht direkt, das ist ein Problem für Marketer.

wp-1458222676578.jpg

So sieht es oft aus.

Scrolltiefe zu messen ist heutzutage unabdingbar. Das stimmt, man sieht viel mehr als im „normalen“ Google Analytics. Tools: Parsnip und Heap Analytics.

Multichannel-Reports sollten angelegt werden. Macht der Content auch Umsatz? „Assisted Conversions“ sollte man sich ansehen.

Simo Ahava

Er bemängelt die Datenqualität von Analytics. Das Tool von Google ist für sehr viele unterschiedliche Branchen gemacht und kann nicht auf einzelne Bedürfnisse eingehen. Page-Views, Bounces und andere Metriken werden teilweise falsch gemessen. Felix hat hier schon einmal darüber gebloggt.

wp-1458224298671.jpg

Diese Metriken verwendet Simo.

Man sollte den bestmöglichen User, die bestmögliche Session und den bestmöglichen Content suchen und genau diese drei Dimensionen triggern.


John Müller zeigte derweil im anderen Saal interessante Einblicke zur Nutzung der Search Console.

Ari Nahmani & Mike King Technische Probleme, die SEOs den Schlaf rauben

wp-1458228269692.jpg

Ari Nahmani

Aufgeblähte Webseiten sind seiner Meinung nach ein sehr großes Problem. Bei E-Commerce Seiten handelt es sich dabei meist um Filterfunktionen. Nun folgen viele Einzeltipps für verschiedenste Maßnahmen um das Crawl-Budget zu beeinflussen und unwichtige Seiten zu deindexieren. Sehr fundiert, aber leider unmöglich hier wiederzugeben – ich kann leider kein Steno.

wp-1458229071416.jpg

Mike King

Mittlerweile gibt es Marketer, die meinen, dass SEO kaum noch technische Expertise benötigt. Das ist nicht so, das Web ist technisch komplexer als jemals zuvor.

wp-1458229333480.jpg

Die SEO Tools auf dem Markt kommen mit der Entwicklung teilweise nicht hinterher. 304-Statuscode: Der Googlebot respektiert diesen Statuscode und kommt nicht wieder, nachdem er einmal den Content gelesen hat. So könnte man cloaken, wenn man wollte.

wp-1458229749078.jpg

Man sollte sich unbedingt immer die Logfiles seiner Webseite ansehen, und dabei besonders wo der Googlebot sich herumtreibt.

Joost de Valk: Large Scale SEO – So bringen Sie Ordnung ins Chaos

Joost dürfte jeder kennen: Er hat „das“ WordPress SEO Plugin entwickelt. Nach einigen technischen Problemen geht es jetzt los – mit Large Scale SEO.

wp-1458232265955.jpg

Joost de Valk aka Yoast

Er spricht vor allem darüber, wie TheGuardian Engagement bei Twitter, Facebook und in der Webanalyse trackt. Er arbeitet sehr viel mit Logfiles, besonders beim Guardian. Crawl Errors in der Search Console sollten so niedrig wie möglich gehalten werden.

wp-1458232769825.jpg

Guter Spruch!

XML-Sitemaps von großen Webseiten sollten auf der internen Such-API basieren. Das ist einfacher, als sie über das (oder mehrere verschiedene) Content Management Systeme zu generieren.

Das war’s für heute

wp-1458288783308.jpg

SMX After Dark Party am Abend

Der erste Konferenztag ist vorbei. Morgen geht es weiter.

 

Tag 2

Marcus Tandler & Rand Fishkin: Content Republishing – Warum nicht das Meiste aus dem herausholen, was man schon hat?

wp-1458288770850.jpg
Die neuen Algorithmen bei Google sind dazu da, Suchanfragen zu beantworten, die noch nie zuvor gestellt wurden.

Wie kann man mit existierendem Content arbeiten? Man sollte einen Content Audit machen, gute – aber alte Posts updaten und schlechte alte Posts löschen.

wp-1458289024606.jpg

Nach diesem System sollte man arbeiten!

Marcus zeigt das Beispiel einer seiner alten, eigenen Webseiten, die er länger nicht mehr geupdatet hat. Man sollte unbedingt das Userverhalten und vor allem die Klickrate optimieren. Mit On- und Offpage-Faktoren kann Google initial die Seite einschätzen, aber CTR und User Data sind dann für das Ranking auf den vorderen Plätzen verantwortlich. Interessant ist die Metrik „Long Click“. Wenn ein User mit dem Ergebnis zufrieden ist, dann bleibt er länger auf der Seite oder kommt sogar wieder zurück.

wp-1458289490396.jpg

Was braucht man für gute Signale bei Google?

Beispiel: Karrierebibel.de – Das Zielkeyword war „Abwesenheitsnotiz“. Der Content aus dem Jahr 2012 wurde neu gemacht, irrelevante Passagen wurden gestrichen. Bulletpoints hinzugefügt und Title und Description neu erstellt. Die Rankings verbesserten sich schlagartig.

wp-1458289707823.jpg

Die Rankingentwicklung

Er nutzt auch WDF*IDF zur Optimierung der Texte. Das Problem bei alten Seiten ist oft, dass bestimmte Keywords fehlen, die bei detaillierteren Suchen verwendet werden. Wer für detaillierte Suchen gute Ergebnisse liefert, kommt mit der Zeit auch für High-Traffic-Terms nach oben. Der Vortrag ist nach 243 Slides vorbei, leider konnte ich nicht viel mitschreiben – aber er war klasse!

Rand Fishkin

Rand möchte einen Klick-Test machen. Wir schalten das Wifi aus, damit wir genug IP-Adressen haben. Wir suchen „Marcus Tandler SEO“, klicken auf de.onpage.org und interagieren ein wenig mit der Webseite. Momentan ist die Seite auf Platz 6. Weiter geht es später.

Wer auf Platz 5+ steht, hat früher „noch ein paar Links“ gebraucht. Heute ist Republishing empfehlenswert.

Vier Taktiken:

  • Semi-Regular Update – Bestehenden Content in bestimmten Zeiträumen immer wieder aktualisieren. Moz macht das mit der Ranking Factors Survey
  • Localization: Erstelle eine neue Version des Contents in einer anderen Sprache
  • Expanding Content: Content, der Daten sammelt und mit der Zeit dadurch immer besser wird.
  • Distribution Plattform Republishing: Seinen Content kann man nach einiger Zeit auf anderen Plattformen republishen. Ideal ist das natürlich, wenn man Cross-Domain Rel-Canonical verwenden kann.
wp-1458291334419.jpg

Der Mozcast ist ein Beispiel für Expanding Content

Achtung: Republishing ist eine Taktik, keine Strategie! Wer es übertreibt, könnte Probleme mit Google bekommen.

Marty Weintraub: Social? Psychographics? Data? SEO? PR? PPC? Was zur Hölle ist eigentlich Marketing heutzutage?

Wer bei Google News bezahlte Beiträge einreicht, der kann aus Google News fliegen. Mit Nofollow-Links ist es allerdings ok. Man sollte also Advertorials auf Webseiten kaufen – solange sie nofollow sind, ist es ok – zwar nicht für die Google-News Seite, aber für die eigene Seite besteht keine Gefahr.

Wer Advertorials mit nofollow kauft, hat zwar keinen großen Vorteil für die eigene Seite, aber der Content des Advertorials kann gute Rankings bekommen. Das sollte man auf kleineren bis mittelgroßen Magazinen machen.

wp-1458292940786.jpg

So sieht eine gute Zielgruppe bei Facebook aus.

Social Advertising mit Zielgruppen ist eine großartige Sache. Bei Facebook kann man eine Menge mit Zielgruppen machen mittlerweile, schaut es Euch einmal an! Der Vortrag ist sehr unterhaltsam. Retargeting auf anderen Kanälen sollte schlau sein und sich auf das Produkt beziehen, das man kaufen will – nicht generell auf die Firma. Verwendet RSLA bei Adwords.

Webmasters on The Roof Panel

Marcus Tandler, Rand Fishkin, Mike King, Joost de Valk und Marcus Tober sprechen in der Diskussion über RankBrain & Co.

wp-1458296964760.jpg

Von links nach rechts: Marcus Tandler, Marcus Tober, Joost de Valk, Mike King, Rand Fishkin

Interessant von Marucs Tober,  so sehe ich das auch: Mitarbeiter bei Google wissen nicht mehr genau, wie sich bestimmte Dinge auswirken, weil RankBrain selbstständig lernt und agiert. Er ist sich auch sicher, dass RankBrain bereits jetzt versucht, den Content tatsächlich zu verstehen.

Diese Folien solltet Ihr Euch ansehen – es gab bisher selten so tiefe Einblicke von einem Google Ingenieur.

Die Rankingfaktoren sind mittlerweile für verschiedenste Suchanfragen komplett unterschiedlich. RankBrain „merkt“, was der User zu einem bestimmten Keyword sehen will. Und währenddessen kauft ein Großteil der SEO noch Links. Jetzt wird (wie letztes Jahr) auf der Bühne nach Linkmarkplätzen live gesucht. Auch meine Meinung: Lasst den Käse, Linkkauf ist 2016 wirklich komplett vorbei. Für „Linkkauf“ rankt Onpage.org auf Platz 1, Seokratie auf Platz 2 – und das OHNE Linkkauf. 🙂

Die Auflösung des Tests von Rand Fishkin: Marcus rankt auf Platz 2 – aber nur auf der mobilen Suche. Interessant!

Rand wirft ein: User Signals und Klickraten machen schnelle Veränderungen, aber diese fallen auch schnell wieder ab. Der „Test“ wird vermutlich nur 12 Stunden halten, danach ist es vorbei. (Echte) Links jedoch helfen für ein dauerhaft gutes Ranking. Tools, die die CTR beeinflussen sollen, funktionieren übrigens nicht. Man kann Userverhalten nicht automatisieren, zumindest macht Google hier große Anstrengungen, dass es nicht zu „faken“ ist.

Eine große Reiseseite jedoch buchte TV-Werbung und empfahl den Zuschauern: „Sucht nach XY.de + München“. Das boostete deren Rankings enorm. Rand Fiskhin: „Ihr braucht heute keine Keyword-Domain mehr, Ihr müsst Euren Markennamen mit den Keywords assoziert haben.“

SEO Trends in 5 Jahren:

  • Adblocker werden unbezwingbar für Werbetreibende.
  • Viel genauere Zielgruppen als heute
  • Man wird immer noch die Herausforderung haben, erst einmal eine gute Webseite zu bauen
  • SEO-Technik auf hohem Niveau wird nicht einfacher, sondern sogar schwerer
  • SEO mit Voice Search wird vermutlich nur noch ein Ergebnis haben – das wird härter
  • Facebook wird eine Suche haben – und sie haben noch mehr User-Intent-Daten als Google

Zu guter Letzt wird noch eine Wette abgeschlossen: Wird die Facebook Suche größer als Bing heute? Oder überhaupt relevant – in zwei Jahren?

wp-1458303622950.jpg

Draussen in der Pause – tolles Wetter!

Bastian Grimm & Philipp Glöckner: Crawl Budget Best Practices: 10 Regeln für maximal effiziente Websites!

wp-1458304954127.jpg

Philipp Glöckner: Vollständige und aktuelle Seitenstruktur

Googles Datacenter sind teuer in der Anschaffung und in der Wartung! Crawling kostet Geld. Deswegen bekommt jeder Webmaster nur ein bestimmtes Crawlingbudget zugewiesen. PageSpeed hilft viel, wenn man viele Seiten gecrawled haben möchte.

SEO nach dem Pareto-Prinzip: Man sollte das Crawling so priorisieren, dass man die wichtigsten Seiten besser crawlt als den unwichtigen Rest.

Früher machte Philipp die „Panda-Diät“, er löschte bis zu 99 % aller Seiten. Die Sichtbarkeit stieg danach enorm.

wp-1458305200280.jpg

Aber: Airbnb hat 100 Mal mehr Seiten im Index als Wimdu. Es kommt stark darauf an, in welchem Bereich man arbeitet. „Den Longtail beackert man heutzutage nicht mehr, indem man möglichst viele Seiten in den Index drischt.“

In Sachen Onpage rechnet er mit einem „Revenue per Link“. Wenn eine Seite viel Potenzial hat, dann sollte man sie besser intern verlinken. Wie priorisiert man? Am besten nach Popularität der internen Seiten. Bestseller, beliebte Beiträge und dergleichen. In Sachen Paginierung sollte man möglichst wenige Paginierungsseiten haben, meinte Pip.

Tipp zum Schluss: Schaut Euch Amazon als Googlebot an. Nutzt dafür einen User Agent Switcher.

Hier noch die Slides:

Bastian Grimm

Hier auch gleich einmal die Slides:

Es geht primär um Effizienz!

Die robots.txt sollte man auf ein Minimum reduzieren und nur im Notfall benutzen. Statt Noindex sollte man lieber Seiten komplett löschen – denn auch noindex-Seiten gehen auf das Crawl-Budget. Wer Seiten entfernt oder weiterleitet, sollte sie auch nicht mehr intern verlinken, sondern die neuen URLs verlinken. Vorsicht auch bei Weiterleitungsketten – manche Webseiten setzen 7-8 301 Redirects hintereinander!

wp-1458306719032.jpg

Der Statuscode 410 ist super, um Seiten endgültig zu löschen. Allerdings: Danach wird die Seite in der Regel nie wieder gecrawled.

„Canonical Tags sind der Redirect des armen Mannes.“ Der Canonical Tag ist nur ein Hinweis, keine Direktive. Google muss sie also nicht verwenden. Man kann sich auch nicht darauf verlassen.

Wird mein Canonical beachtet? Sucht bei Google nach „Info:Domain.de/unterseite.html“. Wenn dort die Canonical-Seite steht, dann sieht man, dass es auch beachtet wurde. Tolle zwei Vorträge! Leider konnte ich nicht viel mitschreiben, aber seht Euch die Slides einmal an – sie sind ja jetzt bereits verfügbar.

John Müller (Google) Technical Onpage & Onsite Clinic

john

Dieses Bild finde ich einfach klasse: V.l.n.r. Ich, John und Chewbacca – sorry John! :)

John Müller analysiert einige Seiten – besonders interessant, denn er arbeitet direkt bei Google. Häufige Probleme sieht er heute vor allem bei Canonical-Tags und Href-Lang.

Auch er empfiehlt die „info:domain.de“ Abfrage zum Checken, ob Canonical richtig funktioniert und eingebaut ist. Wer sprachbasiert automatisch auf eine Länderdomain weiterleitet, sollte mit x-default arbeiten. 302 ist hier außerdem besser als 301.
Bei der ersten Seite sieht er Probleme, weil einige Ressourcen wie CSS und .JS-Dateien blockiert wurden – der Googlebot kann dann die Seite nicht richtig rendern.
Bei der nächsten Webseite sieht er als Problem, dass er auf Anhieb nicht verstand, was sie eigentlich anbieten. Man sollte immer kurz und knapp erwähnen, worum es auf der Webseite geht.
Außerdem: Die Seiten mit den meisten Impressions haben eine niedrige Klickrate. Das kann ein Problem werden. Das finde ich recht interessant – Schlechte Klickraten für High-Traffic Keywords könnten demnach der Seite schaden? Sollte man daher vermeiden für High-Traffic Keywords zu ranken, die nicht zu einem passen? Also gezielt Rankings „zerstören“?

Er hat auf der SMX bemerkt, dass viele Webmaster Probleme mit Hreflang haben. Es gibt zwar kein Testing-Tool und es ist bisher noch nichts hier geplant, aber vermutlich wird das dann intern bei Google diskutiert.

wp-1458309549318.jpg

John Müller

Die nächste Webseite ist vom TÜV. Er fand das Popup am Anfang eher störend. Generell straft Google nicht so etwas ab, aber wenn es gleich am Anfang kommt, könnte es den Nutzern nicht gefallen.

Die robots.txt ist zu kompliziert gemacht, man sollte lieber mit Canonicals arbeiten. Sie haben viele Nachrichten auf der Webseite, da könnte man laut ihm vielleicht AMP einsetzen.

Es gibt dort viele Seminarseiten, die häufig wechseln und deswegen nicht indexiert werden. John rät, dass man Übersichtsseiten bauen sollte, die dann auch dauerhaft im Index bleiben. Auf den Übersichtsseiten findet man dann die Links zu den jeweiligen Seminaren.

Er wird gefragt: Ist https wichtig? John meint: Früher oder später sollte man es sowieso machen – vor allem aus Nutzersicht. Aber man muss nicht unbedingt heute schon umgestellt haben.

Bei einer anderen Seite gibt es Probleme mit den Rich Snippets – sie werden wegen Spam ausgeblendet. Und die Inhalte sind auf mehreren Domains identisch, es gibt viele Duplikate. Automatische Übersetzungen sind ebenfalls nicht für den Index gedacht – hier kann es Spam-Probleme geben.

wp-1458310359531.jpg

Webseitenprobleme? John hilft. Super Session!

Die nächste Seite hatte Linkprobleme: Es dauert, bis sich die Änderungen auswirken, wenn man Links entfernt hat. John meint, man könnte zusätzlich positiv mit Branding arbeiten.
wp-1458310796742.jpg

Eine super Siteclinic mit vielen Infos. Hreflang scheint ein großes Problem derzeit zu sein, John hat es mehrmals erwähnt. Hier sollten Webmaster überprüfen, ob die Einbindung korrekt ist.

Stephan Walcher: Search Console und Bing Webmaster Tools

Man sollte immer in die Nachrichten in der Search Console hineinschauen, um zu sehen ob es größere Probleme gibt.

wp-1458314063052.jpg

Er erklärt sehr anschaulich die Grundfunktionen der Tools. Ich bringe im Folgenden nur neue Dinge, die über das übliche Wissen hinausgehen.

Der Punkt „Suchanfragen“ hat in der letzten Zeit unglaublich zugelegt und man kann mittlerweile viel mit dem Tool machen. Klicks, Impressionen, durchschnittliche Position und die Klickrate. Die Daten sind genauer als von kostenpflichtigen SEO-Tools – und eben auch direkt von Google, also stimmen sie.

Man sieht auch, welche URLs für welche Keywords ranken und kann hier Doppelrankings entfernen. Die Export Funktion sollte man möglichst häufig nutzen, denn die Daten sind leider nur 90 Tage verfügbar.

Wer seine Links überprüfen lassen will, der sollte sich hingegen nicht den Report „Links“ bei Google ansehen. Google zeigt leider nicht alle Links an. Wer im News-Bereich tätig ist, sollte sich die News-Fehler ansehen. Ich weiß aus eigener Erfahrung, dass Fehler hier wirklich sehr hoch priorisiert sein sollten, wenn man eine Google-News-Seite hat.

Anschließend erklärt er die Bing Webmaster Tools – Generell gibt es hier auch sehr schöne Funktionen. Gut finde ich etwa die Möglichkeit, dass man nicht nur die Domain umziehen kann, sondern auch einzelne Verzeichnisse. Ein guter Vortrag!

Nikolaus von Graewe: Marketing Automation

Dieses Thema ist übrigens momentan mein absolutes Lieblingsthema – macht Euch hier schlau!

One-To-One: Es ist besser, seine Leads individuell anzusprechen als allen das Gleiche zu schicken. Es geht um

  • die richtige Botschaft
  • zur richtigen Zeit
  • über den richtigen Kanal
  • zur richtigen Person

Was ist „das Tool“ für Marketing Automation? Zunächst sollte man seine Denkweise ändern, dann kann man sich das Tool holen. Der Kern von Marketing Automation ist E-Mail Marketing. E-Mail Marketing hat einen schlechten Ruf und scheint veraltet zu sein. Dem ist aber definitiv nicht so.

Techcrunch & Co. nutzen vorrangig E-Mails und fragen am Ende jedes Artikels nach der Adresse – warum? Es gibt momentan ein E-Mail-Revival.

Gründe für E-Mail Marketing

  • Zugang: Man hat die Erlaubnis
  • Push
  • Trigger
  • Targeting

wp-1458316994888.jpg

Wir erdenken Content und hoffen, dass ihn jemand findet – das ist für das Jahr 2016 absurd.  Wir könnten die Nutzer dann ansprechen, wenn sie es wollen.

Typisches Marketing: Traffic auf eine Webseite schaufeln und dann auf 2 % Conversionrate hoffen. Was ist mit den anderen 98 %? Oft ist der Grund „Not yet ready to buy“. Daher sollte man erst Leads generieren und dann mit Marketingautomatisierung arbeiten.Man sollte klein anfangen und einen Schritt nach dem anderen machen.

Für mich persönlich war das einer der besten Vorträge! Schaut Euch das Thema an!

Abschluss Session: Timon Hartung, Tobias Fox, Markus Hartmann, Philipp von Stülpnagel & Stefan Fischerländer

Zum Abschluss der SMX gab es noch ein Fazit des Moderatorenteams.

wp-1458319339819.jpg

Die Moderatoren der SMX-Sessions ziehen ein Fazit

  • Die Datenqualität wird wichtiger – nicht mehr nur „irgendetwas“ tracken, sondern nachsehen, was man wirklich braucht
  • Der Marktanteil von Bing liegt mittlerweile bei knapp 8 % – Bing wird langsam (vielleicht) relevant
  • Die Suche wird in Zukunft (auch) über die Sprache gesteuert – Stimmt, ich verwende mittlerweile auch oft die  Sprachsuche
  • Letztes Jahr wurde noch über Mobilegeddon geredet, dieses Jahr ist mobile Optimierung keine Frage mehr.

 

Fazit SMX

Für mich war es dieses Mal die achte SMX und ich fand sie wie immer hochwertig, mit vielen Insights und guten neuen Impulsen. Ich nehme eine Menge mit nach Hause und kann nur jedem empfehlen: Wenn Ihr dieses Jahr nicht dort wart, dann holt Euch für nächstes Jahr ein Ticket. Vielen Dank an alle Speaker und Organisatoren!

Einen weitere tollen Recap findet Ihr übrigens bei Sebastian Blum.

Wie hat Euch das Liveblogging gefallen? Ich freue mich über Kommentare!

Jetzt teilen: Share on Facebook33Tweet about this on TwitterShare on Google+3Email this to someoneShare on LinkedIn1

E-Book: Der Weg zum erfolgreichen Online Shop

  • Das 47-seitige E-Book mit 72 konkreten Tipps für Deinen Online Shop
  • Einmal wöchentlich exklusiver Content für das Marketing Deines Shops
  • Unser Newsletter (1-2x pro Woche)
E-Book kostenlos downloaden

3 Kommentare

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind markiert *

Willst Du fit in SEO werden?

Abonniere unseren Newsletter und bleibe in Sachen SEO, Inbound- & Online-Marketing auf dem Laufenden.

Du kannst den Newsletter jederzeit wieder abbestellen.