Es ist mal wieder Konferenz Zeit, die SMX in München steht an. Im ICM in München werden wieder hochwertige Fachvorträge über SEO, Social Media, SEA und weitere Online Marketing Themen geboten. In diesem Jahr habe ich mich entschlossen mal wieder ein SMX Recap anzufertigen.

Dieses Mal werde ich nicht nur eine eigene Interpretation der Vorträge vornehmen, sondern versuche in meinem Recap die wichtigsten Aussagen der Referenten zitieren.


QA mit John Müller

Tag 1 auf der SMX

Hier werden zunächst die Voträge des ersten Tages aufgeführt, da die Keynotes eher strategischer Natur sind, werden diese teilweise nicht aufgeführt.

Keynote von Rand Fishkin

In der Keynote von Rand Fishkin (Twitter) ging es um die aktuelle Entwicklung und Herausforderungen im Markt sowie Daten & Erhebungen zum Suchverhalten. Die Präsentationen von Rand Fishkin sind immer klasse, er weiß zu unterhalten, präsentiert spannenden Daten und Fakten und hat einen sehr strategischen Blick auf den Markt (und dessen künftige Entwicklung).

Präsentation (zu slideshare):

  • 21% of the search results in a queriy change before a click
  • Paid get’s 2% of the clicks, 40% goes to organic – 57% dont’t click at all (Desktop 35%) 
  • Only 3% of the SERPs are 10 blue links, other ones got Serp features (Knowledge graphs, maps…)
  • Apps are very powerful for a couple of companies, for many others its their website (weil nur die Top 3 Apps einen erheblichen Anteil der Screenteil erhalten)
  • Google knows what you want to search before you do (Weil Google Standort hat, weiß dass wenn ich „U..“ Suche vermutlich die U-Bahn in der Nähe meine; Search History usw.)
  • Google is willing to sacrifice short term profit for long term revenue (Weil knowledge graph gezeigt wird, statt nur ads, die direkt revenue bringen)

Die Datenquelle waren Clickstream Daten (sowie eine eigene Erhebung).

Google Analytics Power Reporting

Der Vortrag Google Analytics Power Reporting von Andrew Garberson (Twitter) handelt vom Einsatz und der Optimierung von Google Analytics.

  • Daily Reporting: Mehr Alerts setzen, statt andauernd punktuell nutzen
  • Weekly Reporting: Dashboards nutzen, dazu kann auch die Gallery genutzt werden um bestehende zu importieren.
  • Monthly Reporting: Google Analytics API über Plugin nutzen. Mehr spezifische Segmente erstellen um mehr über spezielle Zielgruppen zu erfahren.

Weiterhin gab es eine klare Empfehlung die Google Data Sudios vermehrt zu nutzen.

John Müller: QA mit John

John (Twitter) gibt nicht immer präzise Antworten, jedoch sind hin wieder welche dabei, die herausstechen. Außerdem sind sie „offiziell“ von Google, daher wollte ich mir diesen Slot nicht entgehen lassen.

  • SEO ist tot: Nein, SEO wird bleiben, nur die Themen werden in 5 Jahren andere sein.
  • Google versteht alles und kann alles indexieren: Nein, es müssen schon grundlegende Punkte beachtet werden. Dazu gehören beispielsweise einzigartige URLs, Crawlability. 1 URL pro Inhaltsstück.
  • Künstliche Intelligenz: Ja google hat Machine Learning im Einsatz, aber oft versteht man nicht worum es auf einer Seite geht (Ergänzung: Keywords, Themen war vermutlich gemeint) und da kann AI auch nicht helfen.
  • Java Script: Wir können JS ausführen wie ein Browser das macht.
  • Rankbrain: Wir verwenden Rankbrain nur um Suchanfragen besser zu verstehen, gerade für Suchen, die erstmals gestellt werden. Machine Learning betrifft nicht nur Rank Brain, wir nutzen das im gesamten Unternehmen.
  • Google mag Brands: Jaein, Vorteil besteht darin, dass Marken-Suchanfragen stabil bleiben und nicht weggehen und die Seite rankt immer „automatisch“ für Marken.
  • 404 oder 410, um Inhalte schneller aus dem Index zu bekommen: Ja es gibt einen Unterschied, aber es ist eigentlich egal.
  • Infinite Scrolling, könnt ihr das crawlen: Jaein, manchmal schaffen wir das. Wichtig ist, dass einzelne Seiten einzelne URLs haben. Googlebot weiß manchmal nicht, wo Googlebot klicken muss um weitere Inhalte zu laden. Es gibt dazu eine Doku, wie man das machen sollte und Problemstellung betrifft auch Lazy loading. Kann man mit Fetch & Render Tool in Search Console testen.
  • Angular JS einsetzen oder nicht? Jaein, es sollte sauber eingebaut werden und es gelten die selben Sachen, die es zu beachten gibt, wie bei JS. Bezieht sich auf Rendering, Redirects, Frameworks – Google bietet nicht immer best practise.
  • Http vs https im Index: Wann nimmt Google welche URLs: Es kommt auf viele Signale an. Interne Links, externe Links, Redirects, Sitemaps usw. Bei kleinen Seiten sollte das schnell gehen (bspw. 5000 Seiten geht es schnell)
  • Kann ich auf der 1 stehen ohne einen Backlink: Kann schon, aber es ist eine unnatürliche Situation für eine Webseite. In der Regel ist es ja so, wenn eine Webseite gut ist, dann hat sie schon auch Backlinks. Es hängt aber stark von Suchbegriff und Webseite an. Wenn es starke Suchbegriffe sind, müssen wir die Signale besser verstehen.
  • Zum Thema hüpfende Rankings: Man sollte alle Signale optimieren: Beste Webseite zu diesem Thema, Nutzer bieten klare Signale, Seite wird weiterempfohlen, keine broken Links…

Auch einen Wunsch durfte John äußern, der soll bei mir im SMX Recap für München nicht fehlen: Zusammenarbeit von vielen Departments, Usability, SEO, Technik usw.

Steigerung der CTR für mehr Klicks und bessere Rankings

Der Vortrag wurde von Marcus Tandler (Twitter) und Larry Kim (Twitter) gehalten. Es ging um den Einfluss der CTR (sowie weiterer User Metriken), auf die Rankings in Google.

Los legte Marcus mit seinem gewohnten Slidestorm, Inhalte waren dabei:

  • 404 wird öfters gerecrawlt als 410
  • Its all a huge performance test, links get you to the top 10, CTR and User data keeps you there
  • With great SEO you get a chance in Top 10, User Data will prove it

Larry Kim führte den Vortrag fort, dabei ging es vor allem um Einhörner, aber auch um viele Daten, Tests und damit Erkenntnisse:

  • Exceed the average CTR to gain better rankings
  • Position 1-5 all got in common, to have high time on site und low bounce rates.
  • It’s worth to increase bounce rates, you get more traffic (and maybe aswell better rankings)
  • Pages which are low performing are dying a slow death
  • Direct answer boxes are likely to be shown on pages with excellent user values, especially those, which are extracted from results 5-50

Adwords Scripte

Im Vortrag Adwords Scripte von Thomas Grübel (Twitter) ging es um die Erstellung und Nutzung von Scripten zur Vereinfachung der Arbeit in Google Adwords.

Da die Präsentation online abrufbar ist und die Scripte eher technischer Natur sind, macht ein Recap dazu wenig Sinn, schaut am besten selbst in die Präsentation

Die Präsentation ist hier zugänglich: Inbiz.de

Tag 2

Und es geht direkt mit dem zweiten Tag auf der SMX, auch heute versuche ich in meinem SMX Recap 2017 die wichtigsten Aussagen mit zu protokollieren.

Marcus Tober: Relevanzfaktoren

Marcus (Twitter) leitete seinen Vortrag mit Herausforderungen bei der Contenterstellung ein, auch hier ein paar Zitate/ Auszüge.

  • Es gibt 2 Dinge die den Nutzer bewegen Angst und Freude
  • 30% der Ergebnisse werden mit dem Knowledge Graph angereichert (Datenquelle Google)
  • 3,5 Milliarden Suchergebnisse pro Tag (Quelle Google)
  • 79% der Sales finden offline statt
  • Content muss geupdatet werden, Problem ist jedoch, dass Texter nur für neuen Content bezahlt werden.

Er nannte Beispiele von großen Unternehmen, die ihr Thema nicht optimal abdecken und hier noch Nachholbedarf haben. Zudem stellte er Erfolgsbeispiele vor, wie Springlane.de oder Pflege.de, die durch gute Contentansätze viel Sichtbarkeit gewinnen konnten.

Wil Reynolds: Suchresultate brauchen mehr Menschlichkeit

Der Vortrag von Wil (Twitter) war meiner Meinung nach der beste Vortrag, den ich dieses Jahr auf der SMX in München hören durfte. Er ging darauf ein, dass SEO nicht nur um Keywords handelt, sondern um Menschen die Bedürfnisse haben.

  • Since Machine Learning Google is able to measure disappointment
  • Thats are better than ranks, get more money through recommendations
  • To get thanks, you need to understand the people
  • There are not only keywords, it’s about people with thoughts, dreams, wishes
  • When we minimize people to keywords, we dehumanize them
  • Visit the clients and understand their mind an how they take decisition

Webmasters on the roof

In der lockeren Diskussion WOTR ging es um unterschiedliche Fragestellungen und die Antwort von Experten darauf. Versammelt waren Marcus Tober, Marcus Tandler, Wil Reynolds, Lisa Myers, Dan Petrovic und Eric Enge.

Fred

  • Also das Google Update, dass diesen Namen erhalten hat. Mutmaßungen und Nebelkerzendeuten. 😉

AMP

  • Alleine durch das AMP-Symbol verdoppelte sich die CTR (bei einem Kunden von Eric). Aber möchte man seine Seite im Google Cache haben?
  • Ist der Vorteil durch verbesserte Ladezeiten so hoch, dass man seine Inhalte mit AMP aufbauen möchte?
  • Laut Marcus Tober setzten beim Thema „Oskars“ so gut wie alle Publisher auf AMP Artikel und es gab kaum Publisher mit hohem Traffic Anteil, die auf AMP verzichteten.
  • Die Diskussion entwickelte sich natürlich dann auch hin zu den Facebook Instant Articles. Es gab hier keine einstimmige Meinung, es gibt Vor- und Nachteile, die jeder für sich abwägen muss.

Voice Search: Kann Voice Search gefährlich werden für SEO? Bzw. es ersetzen?

  • Nein, so lange weiterhin eine Suche stattfindet, nicht. Aber die AI dahinter kann zu einer Gefahr werden, also mehr der „Assistent“ im Hintergrund.
  • Im Gegensatz dazu steleln Google Home oder Amazon Echo eher eine Gefahr dar. Denn es gibt nur ein Ergebnis und es wird keine Suche (im klassischen Sinne) ausgeführt,
  • Die viel größere Gefahr geht jedoch für den Einzelhandel aus, SEO’s werden noch am ehesten eine Möglichkeit finden, ihre Strategie anzupassen, der Einzelhandel bleibt auf der Strecke.

Data Strategie, Content und Outreach Automatisieren

Dan Petrovic (Twitter) hatte den weiten Weg aus Australien auf sich genommen, um hier auf der SMX in München 2017 über das Thema Automatisierung in unterschiedlichen Belangen zu referieren.

  • Automatisierte Contenterstellung über Tools, das wird beispielsweise bei der Algoroo Homepage genutzt, um die Daten auszuwerten.
  • Vorstellung unterschiedlicher Content-Automatisierungstools. Jedoch befriedigt bislang keines der Tools die Bedürfnisse. Dazu sind entweder massiv Daten notwendig oder das Basis Setup ist sehr aufwändig und teuer.
  • Tipp: Search Console Daten sichern: In Property alle Buchstaben a bis z einzeln ausschließen und Daten exportieren und im Anschluss vereinen. Dadurch hat man jeweils wieder 1000 Datensätze.
  • Berechnen CTR durchschnitt: Mittelwerte berechnen, wo ausreichend Daten vorhanden sind, Abweichungen checken.
  • Dadurch lassen sich die realen vs. die potenziellen Klicks errechnen. Bei Abweichungen nach unten kann man weiter optimieren und von den Abweichungen nach oben lernen.
  • Tipp: Keywordanalyse für neue Themen durch eine Umfrage anreichern „wie würdest du nach diesem Thema/ Produkt suchen“.

Beispiel für Automatisierung Outreach

  1. Erstellung von einer Umfrage und Nutzung für Inhaltserstellung
  2. Nutzung von Listen in Twitter, Facebook, Linkedin etc. für Blogger und Journalisten. Diese gezielt bewerben.
    Jeder der Inhalte aufruft retargeten.
  3. Das Beispiel brachte 8 verweisende Domains.

Zur Präsentation geht’s hier: dejanseo.com.au

Raus aus den Silos (SEO, SEA, Social): Verknüpfung der Disziplinen

Alexander Holl, sonst nur in der Rolle des Moderators aktiv, war dieses Mal als Referent auf der Bühne. Er hielt einen Vortrag über die Verknüpfung unterschiedlicher Themen, wie SEO, SEA und Social. Der zweite Teil wurde von Melanie Ruf gehalten.

  • Branding ist ein wichtiger Ansatz, Traffic bleibt stabil, gute Conversions und „kostenloser Traffic“.
  • Brand Traffic ist nicht nur die Suche nach der Marke, sondern auch „direct/ none“
  • Ansatz: Sehr zufriedene Nutzer besonders behandeln. Zunächst identifizieren, bspw. durch positive Bewertung eines Artikels und im Anschluss bewerben über Facebook.
  • Gemeinsame Ziele, gemeinsame Messung, gemeinsames Arbeiten können Kanäle kombinieren und beflügeln.

Die Kunst digitaler Verführung

Karl Kratz (Twitter) ist eine Lichtgestalt im Online Marketing, das ist auch meine Meinung. Manchmal finde ich jedoch seine Ansätze für mich nicht sehr pragmatisch, auch wenn sie stimmen. Heute wollte ich mir mal wieder einen Vortrag anhören, was ich nicht bereut habe. Er ist inspirierend und hat eine beeindruckende Art diese rüber zu bringen.

  • Jeder ist Architekt, der dafür sorgen sollte, dass für die Besucher in ihrer Wahrnehmung die gewünschte Realität entsteht.
  • Aufmerksamkeit muss fokussiert werden, unnötige Elemente sollten vermieden werden.
  • Die hoch suggestive Phase, bspw. während ein Nutzer ein Produkt betrachtet und überlegt wo er dieses einsetzen könnte, sollte genutzt werden um Emotionen zu transportieren.
  • Jedes Ereignis erzeigt einen neuen Kontext, das kann ein Blickwinkel sein oder eine neue Information, die den Fokus verändert.
  • Erwartung + Fokus (Führen und/ oder Verführen) + Bestätigung = neue Realität

Versteckte Schätze – Server Logfiles verstehen

Der Vortrag von Dominic Woodman (Twitter) handelt von der Analyse und der Auswertung der Server Logfiles. Er nannte dabei Gründe, warum man es tun sollte und welche wertvollen Informationen sich dadurch beziehen lassen.

  • Welche Bereiche der Webseite werden von Googlebot gecrawlt, obwohl sie keinen Traffic-Potenzial haben und unnötig Crawling Budget kosten.
  • Aufdecken von falsche Priorisierung von Cralwing Verschwendung beispielsweise aufgrund von Redirect Chains, Mehrere Versionen (Print + normal).
  • Weitere Informationen, beispielsweise wann genau der Googlebot eine Seite crawlt (nicht nur das Datum aus der Search Console).
  • Rückschlüsse auf Indexierungsprobleme
  • Freshness der Seite und Häufigkeit des Crawlings
  • Probleme bei Google, Crawling

Eine umfangreiche Anleitung gibt es auf Distilled zusammengefasst.

Mein Fazit zur SMX

Die SMX ist eine der Top Seach Konferenzen in Deutschland, wenn nicht sogar die „beste“. Der Fokus ist nicht nur auf SEO gesetzt sondern, bezieht auch Advertising ein.

Pro

Die Qualität der Vorträge ist insgesamt sehr gut, bis auf einen Ausreißer war ich nur in Top-Vorträgen. Auch wenn die Inhalte teilweise nicht so ganz mit der Beschreibung übereingestimmt haben. Ich komme gerne wieder, da es auch mal Vorträge gibt, die einen prägen und man viel mehr mitnimmt als man denkt, da ein Umdenken stattfindet…

Dieses Jahr lag der Schwerpunkt auf CTR, User Werten, Erwartungen und das hat mir sehr gut gefallen! Das ist vor allem auch zeitgemäß. Was noch stärker betrachtet werden könnte ist das „wie“, also welche Schritte man genau unternimmt um diese Metriken (über den Content) zu verbessern/ zu bestätigen und auch mit gutem Content zu glänzen.

Kontra

Die SMX ist auch gewachsen, zumindest hatte ich das Gefühl, denn es war deutlich voller dieses Jahr. Kaffee holen und Buffetschlangen verlängern nahm leider auch einen großen Teil der Pausen ein. Das war in den vergangen Jahren nicht so.

Weitere SMX Recaps

Habt ihr auch einen SMX Recap für 2017 verfasst? Schreibt mir einen Kommentar oder schickt mir einfach eine Email, dann nehme ich euch auf!