Es ist mal wieder Konferenz Zeit, die SMX in München steht an. Im ICM in München werden wieder hochwertige Fachvorträge über SEO, Social Media, SEA und weitere Online Marketing Themen geboten. In diesem Jahr habe ich mich entschlossen mal wieder ein SMX Recap anzufertigen.
Dieses Mal werde ich nicht nur eine eigene Interpretation der Vorträge vornehmen, sondern versuche in meinem Recap die wichtigsten Aussagen der Referenten zitieren.
Inhaltsverzeichnis
- 1 Tag 1 auf der SMX
- 2 Tag 2
- 2.1 Marcus Tober: Relevanzfaktoren
- 2.2 Wil Reynolds: Suchresultate brauchen mehr Menschlichkeit
- 2.3 Webmasters on the roof
- 2.4 Data Strategie, Content und Outreach Automatisieren
- 2.5 Raus aus den Silos (SEO, SEA, Social): Verknüpfung der Disziplinen
- 2.6 Die Kunst digitaler Verführung
- 2.7 Versteckte Schätze – Server Logfiles verstehen
- 3 Mein Fazit zur SMX
- 4 Weitere SMX Recaps
Update: Dieser Beitrag ist schon etwas älter, hier gibts News:
- Kategorieseite mit allen Beiträgen Zum Blog
- Die Homepage SEO Consultant München
- Unterstützung gesucht – mehr zum SEO-Freelancer München

Tag 1 auf der SMX
Hier werden zunächst die Voträge des ersten Tages aufgeführt, da die Keynotes eher strategischer Natur sind, werden diese teilweise nicht aufgeführt.
Keynote von Rand Fishkin
In der Keynote von Rand Fishkin (Twitter) ging es um die aktuelle Entwicklung und Herausforderungen im Markt sowie Daten & Erhebungen zum Suchverhalten. Die Präsentationen von Rand Fishkin sind immer klasse, er weiß zu unterhalten, präsentiert spannenden Daten und Fakten und hat einen sehr strategischen Blick auf den Markt (und dessen künftige Entwicklung).
Präsentation (zu slideshare):
- 21% of the search results in a queriy change before a click
- Paid get’s 2% of the clicks, 40% goes to organic – 57% dont’t click at all (Desktop 35%)
- Only 3% of the SERPs are 10 blue links, other ones got Serp features (Knowledge graphs, maps…)
- Apps are very powerful for a couple of companies, for many others its their website (weil nur die Top 3 Apps einen erheblichen Anteil der Screenteil erhalten)
- Google knows what you want to search before you do (Weil Google Standort hat, weiß dass wenn ich „U..“ Suche vermutlich die U-Bahn in der Nähe meine; Search History usw.)
- Google is willing to sacrifice short term profit for long term revenue (Weil knowledge graph gezeigt wird, statt nur ads, die direkt revenue bringen)
Die Datenquelle waren Clickstream Daten (sowie eine eigene Erhebung).
Google Analytics Power Reporting
Der Vortrag Google Analytics Power Reporting von Andrew Garberson (Twitter) handelt vom Einsatz und der Optimierung von Google Analytics.
Andrew @Garberson from @LunaMetrics shows us at #SMX nice #Analytics reports to make our reporting skills almost awesome ??? pic.twitter.com/rFhPASZ5uK
— SEO Profi Berlin (@dskom) 14. März 2017
- Daily Reporting: Mehr Alerts setzen, statt andauernd punktuell nutzen
- Weekly Reporting: Dashboards nutzen, dazu kann auch die Gallery genutzt werden um bestehende zu importieren.
- Monthly Reporting: Google Analytics API über Plugin nutzen. Mehr spezifische Segmente erstellen um mehr über spezielle Zielgruppen zu erfahren.
Weiterhin gab es eine klare Empfehlung die Google Data Sudios vermehrt zu nutzen.
John Müller: QA mit John
John (Twitter) gibt nicht immer präzise Antworten, jedoch sind hin wieder welche dabei, die herausstechen. Außerdem sind sie „offiziell“ von Google, daher wollte ich mir diesen Slot nicht entgehen lassen.
Meine Notizen zum #smx Vortrag von @JohnMu: SEO-Mythen (und viele Fragen aus dem Publikum) https://t.co/hMyRChI2VG pic.twitter.com/fWO6a8SYZv
— Markus Hoevener (@bloonatic) 14. März 2017
- SEO ist tot: Nein, SEO wird bleiben, nur die Themen werden in 5 Jahren andere sein.
- Google versteht alles und kann alles indexieren: Nein, es müssen schon grundlegende Punkte beachtet werden. Dazu gehören beispielsweise einzigartige URLs, Crawlability. 1 URL pro Inhaltsstück.
- Künstliche Intelligenz: Ja google hat Machine Learning im Einsatz, aber oft versteht man nicht worum es auf einer Seite geht (Ergänzung: Keywords, Themen war vermutlich gemeint) und da kann AI auch nicht helfen.
- Java Script: Wir können JS ausführen wie ein Browser das macht.
- Rankbrain: Wir verwenden Rankbrain nur um Suchanfragen besser zu verstehen, gerade für Suchen, die erstmals gestellt werden. Machine Learning betrifft nicht nur Rank Brain, wir nutzen das im gesamten Unternehmen.
- Google mag Brands: Jaein, Vorteil besteht darin, dass Marken-Suchanfragen stabil bleiben und nicht weggehen und die Seite rankt immer „automatisch“ für Marken.
- 404 oder 410, um Inhalte schneller aus dem Index zu bekommen: Ja es gibt einen Unterschied, aber es ist eigentlich egal.
- Infinite Scrolling, könnt ihr das crawlen: Jaein, manchmal schaffen wir das. Wichtig ist, dass einzelne Seiten einzelne URLs haben. Googlebot weiß manchmal nicht, wo Googlebot klicken muss um weitere Inhalte zu laden. Es gibt dazu eine Doku, wie man das machen sollte und Problemstellung betrifft auch Lazy loading. Kann man mit Fetch & Render Tool in Search Console testen.
- Angular JS einsetzen oder nicht? Jaein, es sollte sauber eingebaut werden und es gelten die selben Sachen, die es zu beachten gibt, wie bei JS. Bezieht sich auf Rendering, Redirects, Frameworks – Google bietet nicht immer best practise.
- Http vs https im Index: Wann nimmt Google welche URLs: Es kommt auf viele Signale an. Interne Links, externe Links, Redirects, Sitemaps usw. Bei kleinen Seiten sollte das schnell gehen (bspw. 5000 Seiten geht es schnell)
- Kann ich auf der 1 stehen ohne einen Backlink: Kann schon, aber es ist eine unnatürliche Situation für eine Webseite. In der Regel ist es ja so, wenn eine Webseite gut ist, dann hat sie schon auch Backlinks. Es hängt aber stark von Suchbegriff und Webseite an. Wenn es starke Suchbegriffe sind, müssen wir die Signale besser verstehen.
- Zum Thema hüpfende Rankings: Man sollte alle Signale optimieren: Beste Webseite zu diesem Thema, Nutzer bieten klare Signale, Seite wird weiterempfohlen, keine broken Links…
Auch einen Wunsch durfte John äußern, der soll bei mir im SMX Recap für München nicht fehlen: Zusammenarbeit von vielen Departments, Usability, SEO, Technik usw.
Steigerung der CTR für mehr Klicks und bessere Rankings
Der Vortrag wurde von Marcus Tandler (Twitter) und Larry Kim (Twitter) gehalten. Es ging um den Einfluss der CTR (sowie weiterer User Metriken), auf die Rankings in Google.
Hey #smx Munich hope u can make it to my session on Crazy SEO experiments that will blow your mind. ??? Up next! (2:45) pic.twitter.com/JgPquGT6YD
— Larry Kim (@larrykim) 14. März 2017
Los legte Marcus mit seinem gewohnten Slidestorm, Inhalte waren dabei:
- 404 wird öfters gerecrawlt als 410
- Its all a huge performance test, links get you to the top 10, CTR and User data keeps you there
- With great SEO you get a chance in Top 10, User Data will prove it
Larry Kim führte den Vortrag fort, dabei ging es vor allem um Einhörner, aber auch um viele Daten, Tests und damit Erkenntnisse:
- Exceed the average CTR to gain better rankings
- Position 1-5 all got in common, to have high time on site und low bounce rates.
- It’s worth to increase bounce rates, you get more traffic (and maybe aswell better rankings)
- Pages which are low performing are dying a slow death
- Direct answer boxes are likely to be shown on pages with excellent user values, especially those, which are extracted from results 5-50
Adwords Scripte
Im Vortrag Adwords Scripte von Thomas Grübel (Twitter) ging es um die Erstellung und Nutzung von Scripten zur Vereinfachung der Arbeit in Google Adwords.
Jetzt Adwords Scripte mit Thomas Grübel, #smx recap gibts hier: https://t.co/auFp2lOWnQ pic.twitter.com/t04sNQ4qpv
— Maximilian (@Guy_Max) 14. März 2017
Da die Präsentation online abrufbar ist und die Scripte eher technischer Natur sind, macht ein Recap dazu wenig Sinn, schaut am besten selbst in die Präsentation
Die Präsentation ist hier zugänglich: Inbiz.de
Tag 2
Und es geht direkt mit dem zweiten Tag auf der SMX, auch heute versuche ich in meinem SMX Recap 2017 die wichtigsten Aussagen mit zu protokollieren.
Marcus Tober: Relevanzfaktoren
Marcus (Twitter) leitete seinen Vortrag mit Herausforderungen bei der Contenterstellung ein, auch hier ein paar Zitate/ Auszüge.
Marcus Tober von @SearchmetricsDE denkt weiter u. bringt d. Relevanzscore als Rankingsfaktor ins Spiel. #SMX #seo pic.twitter.com/X1h3djfcYi
— Jörg Wukonig (@wukonigcom) 17. März 2016
- Es gibt 2 Dinge die den Nutzer bewegen Angst und Freude
- 30% der Ergebnisse werden mit dem Knowledge Graph angereichert (Datenquelle Google)
- 3,5 Milliarden Suchergebnisse pro Tag (Quelle Google)
- 79% der Sales finden offline statt
- Content muss geupdatet werden, Problem ist jedoch, dass Texter nur für neuen Content bezahlt werden.
Er nannte Beispiele von großen Unternehmen, die ihr Thema nicht optimal abdecken und hier noch Nachholbedarf haben. Zudem stellte er Erfolgsbeispiele vor, wie Springlane.de oder Pflege.de, die durch gute Contentansätze viel Sichtbarkeit gewinnen konnten.
Wil Reynolds: Suchresultate brauchen mehr Menschlichkeit
Der Vortrag von Wil (Twitter) war meiner Meinung nach der beste Vortrag, den ich dieses Jahr auf der SMX in München hören durfte. Er ging darauf ein, dass SEO nicht nur um Keywords handelt, sondern um Menschen die Bedürfnisse haben.
Ha ha a young @wilreynolds ?? #smx pic.twitter.com/5g5ohMQqkb
— Larry Kim (@larrykim) 15. März 2017
- Since Machine Learning Google is able to measure disappointment
- Thats are better than ranks, get more money through recommendations
- To get thanks, you need to understand the people
- There are not only keywords, it’s about people with thoughts, dreams, wishes
- When we minimize people to keywords, we dehumanize them
- Visit the clients and understand their mind an how they take decisition
Webmasters on the roof
In der lockeren Diskussion WOTR ging es um unterschiedliche Fragestellungen und die Antwort von Experten darauf. Versammelt waren Marcus Tober, Marcus Tandler, Wil Reynolds, Lisa Myers, Dan Petrovic und Eric Enge.
Discussion panel with @wilreynolds @stonetemple @LisaDMyers @dejanseo @marcustober #smx #SMXMuenchen @mediadonis moderating ? pic.twitter.com/o2okYZLaK2
— SEMrush (@semrush) 15. März 2017
Fred
- Also das Google Update, dass diesen Namen erhalten hat. Mutmaßungen und Nebelkerzendeuten. 😉
AMP
- Alleine durch das AMP-Symbol verdoppelte sich die CTR (bei einem Kunden von Eric). Aber möchte man seine Seite im Google Cache haben?
- Ist der Vorteil durch verbesserte Ladezeiten so hoch, dass man seine Inhalte mit AMP aufbauen möchte?
- Laut Marcus Tober setzten beim Thema „Oskars“ so gut wie alle Publisher auf AMP Artikel und es gab kaum Publisher mit hohem Traffic Anteil, die auf AMP verzichteten.
- Die Diskussion entwickelte sich natürlich dann auch hin zu den Facebook Instant Articles. Es gab hier keine einstimmige Meinung, es gibt Vor- und Nachteile, die jeder für sich abwägen muss.
Voice Search: Kann Voice Search gefährlich werden für SEO? Bzw. es ersetzen?
- Nein, so lange weiterhin eine Suche stattfindet, nicht. Aber die AI dahinter kann zu einer Gefahr werden, also mehr der „Assistent“ im Hintergrund.
- Im Gegensatz dazu steleln Google Home oder Amazon Echo eher eine Gefahr dar. Denn es gibt nur ein Ergebnis und es wird keine Suche (im klassischen Sinne) ausgeführt,
- Die viel größere Gefahr geht jedoch für den Einzelhandel aus, SEO’s werden noch am ehesten eine Möglichkeit finden, ihre Strategie anzupassen, der Einzelhandel bleibt auf der Strecke.
Data Strategie, Content und Outreach Automatisieren
Dan Petrovic (Twitter) hatte den weiten Weg aus Australien auf sich genommen, um hier auf der SMX in München 2017 über das Thema Automatisierung in unterschiedlichen Belangen zu referieren.
Great insights and tips on how to collect data as input for your content pieces, dev. Check out @dejanseo #smx pic.twitter.com/o8lR5Mc98H
— Martijn Burgman (@MartijnBurgman) 15. März 2017
- Automatisierte Contenterstellung über Tools, das wird beispielsweise bei der Algoroo Homepage genutzt, um die Daten auszuwerten.
- Vorstellung unterschiedlicher Content-Automatisierungstools. Jedoch befriedigt bislang keines der Tools die Bedürfnisse. Dazu sind entweder massiv Daten notwendig oder das Basis Setup ist sehr aufwändig und teuer.
- Tipp: Search Console Daten sichern: In Property alle Buchstaben a bis z einzeln ausschließen und Daten exportieren und im Anschluss vereinen. Dadurch hat man jeweils wieder 1000 Datensätze.
- Berechnen CTR durchschnitt: Mittelwerte berechnen, wo ausreichend Daten vorhanden sind, Abweichungen checken.
- Dadurch lassen sich die realen vs. die potenziellen Klicks errechnen. Bei Abweichungen nach unten kann man weiter optimieren und von den Abweichungen nach oben lernen.
- Tipp: Keywordanalyse für neue Themen durch eine Umfrage anreichern „wie würdest du nach diesem Thema/ Produkt suchen“.
Beispiel für Automatisierung Outreach
- Erstellung von einer Umfrage und Nutzung für Inhaltserstellung
- Nutzung von Listen in Twitter, Facebook, Linkedin etc. für Blogger und Journalisten. Diese gezielt bewerben.
Jeder der Inhalte aufruft retargeten. - Das Beispiel brachte 8 verweisende Domains.
Raus aus den Silos (SEO, SEA, Social): Verknüpfung der Disziplinen
Alexander Holl, sonst nur in der Rolle des Moderators aktiv, war dieses Mal als Referent auf der Bühne. Er hielt einen Vortrag über die Verknüpfung unterschiedlicher Themen, wie SEO, SEA und Social. Der zweite Teil wurde von Melanie Ruf gehalten.
Raus aus den SEO, SEA & Social Silos mit Alexander Holl – erstmalig als Speaker, nicht als Moderator. #smx pic.twitter.com/ugERMOQ4i3
— Effektiv (@Effektiv_com) 15. März 2017
- Branding ist ein wichtiger Ansatz, Traffic bleibt stabil, gute Conversions und „kostenloser Traffic“.
- Brand Traffic ist nicht nur die Suche nach der Marke, sondern auch „direct/ none“
- Ansatz: Sehr zufriedene Nutzer besonders behandeln. Zunächst identifizieren, bspw. durch positive Bewertung eines Artikels und im Anschluss bewerben über Facebook.
- Gemeinsame Ziele, gemeinsame Messung, gemeinsames Arbeiten können Kanäle kombinieren und beflügeln.
Die Kunst digitaler Verführung
Karl Kratz (Twitter) ist eine Lichtgestalt im Online Marketing, das ist auch meine Meinung. Manchmal finde ich jedoch seine Ansätze für mich nicht sehr pragmatisch, auch wenn sie stimmen. Heute wollte ich mir mal wieder einen Vortrag anhören, was ich nicht bereut habe. Er ist inspirierend und hat eine beeindruckende Art diese rüber zu bringen.
Karl Kratz wie immer unterhaltsam und gut #smx http://t.co/kVjtnWAygI pic.twitter.com/YQTBfhyklL
— anton klees (@aklees) 18. März 2015
- Jeder ist Architekt, der dafür sorgen sollte, dass für die Besucher in ihrer Wahrnehmung die gewünschte Realität entsteht.
- Aufmerksamkeit muss fokussiert werden, unnötige Elemente sollten vermieden werden.
- Die hoch suggestive Phase, bspw. während ein Nutzer ein Produkt betrachtet und überlegt wo er dieses einsetzen könnte, sollte genutzt werden um Emotionen zu transportieren.
- Jedes Ereignis erzeigt einen neuen Kontext, das kann ein Blickwinkel sein oder eine neue Information, die den Fokus verändert.
- Erwartung + Fokus (Führen und/ oder Verführen) + Bestätigung = neue Realität
Versteckte Schätze – Server Logfiles verstehen
Der Vortrag von Dominic Woodman (Twitter) handelt von der Analyse und der Auswertung der Server Logfiles. Er nannte dabei Gründe, warum man es tun sollte und welche wertvollen Informationen sich dadurch beziehen lassen.
Still on #SMX and now we’re writing SQL queries … wtf? Weird! Am I on a tech conference after all? ? pic.twitter.com/qMYIVCXChY
— Michael Maretzke (@mmaretzke) 15. März 2017
- Welche Bereiche der Webseite werden von Googlebot gecrawlt, obwohl sie keinen Traffic-Potenzial haben und unnötig Crawling Budget kosten.
- Aufdecken von falsche Priorisierung von Cralwing Verschwendung beispielsweise aufgrund von Redirect Chains, Mehrere Versionen (Print + normal).
- Weitere Informationen, beispielsweise wann genau der Googlebot eine Seite crawlt (nicht nur das Datum aus der Search Console).
- Rückschlüsse auf Indexierungsprobleme
- Freshness der Seite und Häufigkeit des Crawlings
- Probleme bei Google, Crawling
Eine umfangreiche Anleitung gibt es auf Distilled zusammengefasst.
Mein Fazit zur SMX
Die SMX ist eine der Top Seach Konferenzen in Deutschland, wenn nicht sogar die „beste“. Der Fokus ist nicht nur auf SEO gesetzt sondern, bezieht auch Advertising ein.
Pro
Die Qualität der Vorträge ist insgesamt sehr gut, bis auf einen Ausreißer war ich nur in Top-Vorträgen. Auch wenn die Inhalte teilweise nicht so ganz mit der Beschreibung übereingestimmt haben. Ich komme gerne wieder, da es auch mal Vorträge gibt, die einen prägen und man viel mehr mitnimmt als man denkt, da ein Umdenken stattfindet…
Dieses Jahr lag der Schwerpunkt auf CTR, User Werten, Erwartungen und das hat mir sehr gut gefallen! Das ist vor allem auch zeitgemäß. Was noch stärker betrachtet werden könnte ist das „wie“, also welche Schritte man genau unternimmt um diese Metriken (über den Content) zu verbessern/ zu bestätigen und auch mit gutem Content zu glänzen.
Kontra
Die SMX ist auch gewachsen, zumindest hatte ich das Gefühl, denn es war deutlich voller dieses Jahr. Kaffee holen und Buffetschlangen verlängern nahm leider auch einen großen Teil der Pausen ein. Das war in den vergangen Jahren nicht so.
Weitere SMX Recaps
Habt ihr auch einen SMX Recap für 2017 verfasst? Schreibt mir einen Kommentar oder schickt mir einfach eine Email, dann nehme ich euch auf!