Die SEO Konferenzen-Saison beginnt für mich mit der SMX München. Eine tolle Messe und dann noch vor der Haustüre, was will man mehr. Auch in diesem Jahr möchte ich, wie letztes Jahr auch, mit einem SMX München Recap das Ganze festhalten.

In diesem Jahr möchte ich allerdings anders als sonst vorgehen. Ich versuche aus jedem Vortrag die 3 spannendsten Dinge festhalten, nicht mehr und auch nicht weniger! Ich hoffe es gefällt, teilt eure Meinung gerne in den Kommentaren mit!

SMX München 2018

Keynote: Greg Gifford – Mobile Suche und die Sprachsuche 2018

Alexander Holl legt direkt mit einem Rückblick los: 10 Jahre SMX (bzw. 11) und in 10 Jahren ist viel passiert, beispielsweise der Start von Facebook in Deutschland. Die Keynote wurde von Greg Gifford gehalten – Folien gibts hier. „55% of teens and 40% of adults use voice search every day. In 2021 there will be 4 Billion Searches with voice search“ (Different studies).

Meine 3 Highlights/ spannende Fakten:

  1. „When we talk about Voice, its just a different way of input (don’t freak out), its the same thing your doing since years
  2. Featured Snippets haben ein großes Potenzial für Voice Search. Daher sollte die Länge stimmen, die Seite sollte SSL-verschlüsselt sein, eine hohe Wortlänge haben, Schema.org Auszeichnung etc. – da solche Ergebnisse eine höhere Wahrscheinlichkeit haben ausgeliefert zu werden (laut Studien u.a. Backlinko)
  3. Some Various tips: Speak the language (on your website) the users talk. Which languages could the user ask, in which position of the sales funnel is he/ she? It’s all about site speed and great UX, to win the mobile race. To do propper mobile SEO, learn how to do local SEO. Augmented Reality also might be powerful combined with mobile.

John Müller & Leslie To: Google’s Mobile-First Index

Mobile first – mobile first! Nachdem Google Seiten nach und nach auf den mobilen Index umziehen möchte, ist dieses Thema natürlich für jeden Webmaster wichtig. In der Session geht es um den mobilen Index, wie man sich darauf vorbereitet und FAQ von Webmastern.

W-Fragen mobile first

  • Warum wechselt Google auf den mobilen Index? Weil ohnehin mehr User mobil suchen, zudem hat Google in der Vergangenheit den Desktop Index versprochen.
  • Wie funktioniert der Wechsel: 1) Check ist Seite bereit 2) Recrawl alle Seiten 3) Weiterhin checken der Desktop Version 4) auslieerung der Suche
  • Wann ist man bereit: 1) Ist der Content equivalent 2)Dieselben „Out“-Links 3) Image & Alt Texte sind verfügbar 4) Strukturierte Daten 5) Server ist stark genug für das Crawling

Meine Top 3:

  1. Responsive Design ist mobile first ready. Dynamic Serving oder mobile URLs sind nicht unbedingt bereit für den mobile Index
  2. Wenn man eine AMP-Seite hat und im mobilen Index ist, wird dennoch die AMP Seite für eine mobile Suche ausgeliefert.
  3. Technical Readiness – 5 Bereiche die man für den mobile first Index auf dem Schirm haben sollte: Crawl Errors, URLs & Content, Accessibility & Redability, Page Speed

Soweit ich weiß sind die Folien leider nicht öffentlich.

Larry Kim – Unicorn Marketing 2018

In Larrys Vortrag ging es in erster Linie um Einhörner und Esel ;-). Seine Benennung für hervorragende Inhalte (Traffic, Links, Social Signals) und Inhalte, die nicht performen.

Meine Top 3:

  1. Fokus auf CTR: Über eine hohe CTR in der Google Suche/ SEA oder in Facebook Organic/ Paid können Ausgaben dramatisch gesenkt werden und korrelieren auch mit gutem Ranking.
  2. Trenne die Spreu vom Weizen: Im ersten Schritt müssen differenzierte Marketing Disziplinen (Social, Email Campaign usw.) getestet werden. Engagement Rates messen und nur die guten Kampagnen weiterführen. Aber was sind gute Engagement Rates? Es geht um die Top 5-15%, relativ zu den normalen Signalen.
  3. Content Unicorn Babys: 1) Der eigenen Beiträge kann als Beiträg in einem fremden Magazinen nochmals veröffentlicht werden. 2) Möglicherweise lässt sich der Beitrag in einem anderen Teilbereich wiederholen. 3) Das Thema hat sich bereits bewährt, daher kann es als Infografik nochmals aufgenommen werden.
  4. Bonus – Inverted Unicorn: Noch einer, da mit der Tipps gut gefällt! Auf Facebook zwei gegensätzliche Interessen bewerben. Bspw. Star Wars und Fussballschuhe. Im nächsten Schritt kann eine perfekte Kampagne (Wording, Bilder…) erstellt werden, dadurch hat man in diesem Segment eine hohe CTR.

Max Prin & Bartosz Góralewicz: JavaScript SEO

Für SEO’s immer eine wichtige Frage: Welche Inhalte kann Google korrekt verarbeiten und verstehen. In diesem Zusammenhang spielt auch die Frage nach dem Umgang mit JS eine elementare Rolle.

Meine Top 3:

  1. Wo ein Crawling, Indexierung nicht garantiert werden kann: Blockierte Ressourcen via robots.txt, Rendering Delays, JS Errors, User Interatctions. Im Detail heißt das Clean URLs (keine Hashbangs etc.), kein nachladen von Links beim Klick, Dynamisierung von Inhalten sollte auch mit Vorsicht genossen werden (da Google diese Inhalte dann ggf. nicht crawlen kann) usw.
  2. Fetch & Render – aber mit Source Code und nicht nur Screenshot: Beim Rich Snippet Test bekommt man, entgegen der Google Webmastertools Funktion „Fetch and Render“ nicht nur einen Screenshot, sondern den Source Code.
  3. Beurteilung je Suchmaschine: Google schafft es mittlerweile gut mit JS umzugehen (wenn man nicht selbst etwas falsch macht, siehe Punkt 1), bei anderen Suchmaschinen ist das allerdings nicht der Fall. Bing beispielsweise hat Probleme JS zu verarbeiten und Inhalte/ Verlinkungen auszulesen. Duckduckgo schafft es nicht, bei Yandex werden die Ressourcen gescheut. Eine Übersicht gibt es auch auf http://jsseo.expert/.

Tipp: myntra.com anschauen und Google Flights (auch deren Inhalte im Footer lassen sich nicht auslesen)

Gianna Brachetti-Truskawa: Relaunch Fails

Gianna stellte in ihrem Vortrag fehlgeleitete Relaunch-Durchführungen vor und was man bei einem Relaunch vermeiden sollte, bzw. wie man die Ursachen schnell findet.

Meine Top 3:

  1. Schnellanalyse Ursachen: Ist in der Robots.txt etwas blockiert? Ist das Tracking Pixel nicht korrekt implementiert? Wurde eine falsche Umgebung (bspw. Testumgebung) indexiert? Wenn es darin nicht liegt, gilt es geeignete KPI (Umsatz, Traffic etc.) zu aggregieren und nach dem Problem zu suchen.
  2. Ursachen (übergreifend): Woran liegt die Ursache in schlechten Relaunchs: Zu viel auf einmal (redesign, rebranding, neue Inhalte, Wechsel auf SSL) oder SEO ist nicht in Prozesse und Entscheidungen eingebunden.
  3. Ursachen in einzelnen Punkten: Redirect, Indexierung geändert, interne Verlinkung, Entfernung von wichtigen Seiten, UX-fails, falsche Einführung hreflang,

Bastian Grimm & Sebastian Benz: AMP

Am zweiten Tag ging es direkt los mit einem Vortrag über AMP, und ob schnelle Seiten überhaupt AMP benötigen. In meinem SMX Recap München 2018 findet ihr wie auch am ersten Tag meine Top 3 je Vortrag:

Meine Top 3:

  1. Beispiele für AMP: Spiegel Daily, Buzzfeed Tasty BMW.com und das AMP-Ökosystem wächst, es soll ausgerollt werden auf weitere Bereiche.
  2. AMP hat aber nicht nur Vorteile: Begrenzte Freiheit, schwere Monetarisierung, es entsteht zunächst Aufwand bei der Implementierung, Branding in AMP kaum möglich. Ggf. negative Auswirkung auf Crawling (Alle Seiten *2). Weiterhin sind einige News-Publisher sind bereits schneller als deren AMP Seite. Die BMW.com läd in zweistelligen Sekundenbereichen.
  3. Welche Werte zur Ladezeit sind aussagekräftig? Es gibt nicht die eine Zahl, sondern eher Zustände, die die gefühlte Geschwindigkeit ausmachen, bspw.: Time to Paint, Zeit bis die Navigation geladen ist, First Meaningful Paint (Headerbild) etc. – hierzu gibt es wohl eine Chrome Extension (siehe Präsentation Bastian Grimm)

Johannes Schaback – Artifical Intelligence

„We are evolving from an mobile first world to an AI first world“ Sundar Pichai. Wie das Zitat schon sagt, geht es in diesem Vortrag um künstliche Intelligenz.

Meine Top 3:

  1. Wie funktioniert AI vs. menschliches Lernen: Humans learn by experience, Machines learn by following instructions. And Machine learning ist learning from Data. Daher kommt dieser Wandel auch in der heutigen Zeit, da ausreichend Rechnerkapazitäten und Daten zur Verfügung stehen. Software will eat the world. But AI will eat Software. AI is digitalization on steroids. In heutigen Zeiten, wo Software so komplex wird, Daten zu groß werden sie zu verarbeiten, wird AI zum Schlüssel.
  2. Wann werden wir durch AI ersetzt? In manchen Branchen wird es bereits gefährlich, es hängt davon ab: Wie Datengetrieben ist die Arbeit? Ist sie standardisiert? Muss etwas interpretiert werden? Wie digital ist das Umfeld? Muss man kreativ sein? Wie viele andere machen den Job?
  3. AI und SEO: AI kann helfen der Auswahl der Keywords, wie interessant (Conversion Potenzial) und wie kompetitiv sind sie. SEA ist ein weitgehend standardisierter Ablauf, dieser kann mittelfristig recht einfach durch AI ersetzt werden.

John Müller – Technical Onpage & Onsite Clinic

Da John hin und wieder eine echte Neuigkeit raushaut, auch wenn nicht oft, wollte ich die Chance nutzen und mir den Vortrag bzw. die Siteclinics anhören. Hier werde ich alle aufführen und nicht nur 3 ;-).

  1. MK-Angelsport: Nichts neues, einzige Empfehlung war ein breiteres Publikum ansprechen, also Angler im breiteren Sinne und nicht nur „Karpfenliegen“. Structured Data sind gut eingebaut. Er empfahl zudem Linkbuilding, jedoch in der Form, dass gute Inhalte erzeugt werden und dadurch Links verdient werden. ;).
  2. Kuka.com: Gut ist, dass PR-Maßnahmen getroffen werden (bspw. Youtube Videos) und auch Consumer Inhalte angeboten werden. Aber zu viele ahreflang Einträge, seine Empfehlung war, diese zu hinterfragen und ggf. zu reduzieren. Gut fand er, x-default und Trennung innerhalb DE (de und de-at).
  3. Aventics.com: Beim Rich Snippet Test sieht man den gerenderten Quelltext. Fehlende Verknüpfung zu einzelnen Ländern (AT, CH) mit hreflang. Es gibt ca. 9 Mio. Urls, allerdings sind nur 200k indexiert. Zu viel auf noindex, kein sauberer Einsatz von Canonical.
  4. Blitzresult.com: Weil im Head ein Script verbaut ist, wodurch der Head wieder geschlossen wird, kann das hreflang nicht ausgelesen werden. Daher wichtig: Im Rich Snippet Testing Tool ansehen und hreflang oberhalb der Scripte einbinden, in Sitemap oder in http Header nehmen. Google ist aber dran das zu lösen. Teilweise Content Umfang gering (Rechner) und bei anderen URLs zu lang.
  5. Ewe.com: Problem ist, dass eine weitere Subdomain aufgenommen wurde, unter „www2.ewe.com“, dadurch Schluckauf bei Google. Login Seite sollte indexierbar sein, da viele Suchanfragen mit „ewe Webmail“ gestellt werden und nicht korrekt geleitet werden können.
  6. Porsche-Design.com: Auch hier kann das hreflang nicht korrekt ausgelesen werden. Zudem sind sie nicht korrekt gesetzt. Google nutzt diese Signale zur Findung des Originals: Canonical, Weiterleitungen, interne/ externe Links, Sitemap, schönerer URL, SSL → Alle Signale müssen stimmen.

Zwischenfragen:

  • Was sind gute Inhalte? Empfehlung für Kategorieseiten, mehr als nur Produktbeschreibung bieten, bspw.: Informationen wo können die Produkte eingesetzt werden? Wie werden sie eingesetzt?
  • Was ist mit versteckten Texten: Desktop Seiten: Texte die nicht sichtbar sind, geben wir weniger Gewichtung und werden nicht im Snippet dargestellt. Mit Mobile First Index wird es häufiger genutzt, das ist auch ok. Es sollte aber nicht für Keyword Stuffing genutzt werden.
  • Seiten die auf Noindex stehen: Die Noindex Seiten werden gesehen und sie werden sie werden eher als 404 Seite betrachtet. Die internen Links werden also kaum gewertet! Und auch das Crawling geht zurück. Anmerkung MAx H: WICHTIG: Noindex sollte also keinesfalls als für Hubseiten genutzt werden (und das habe ich schon öfters gesehen!)

Marcus Tandler: WOTR

Der Mediadonis stellte sich gemeinsam mit Cindy Krum, Lisa Myers und Michelle Robbins einer Reihe von aktuellen Fragen.

Meine Top 3:

  1. Diskussion zur Darstellung ohne Suchergebnisse: Brauchen wir Suchergebnisse noch in Zukunft oder nur die Antwort (Beispiel „Uhrzeit Los Angeles“)? Die wesentliche Fragestellung ist: Brauchen wir bei der Suchanfrage die Auswahl oder gibt es nur eine (richtige) Antwort?
  2. Wie weit ist die Sichtweise der Kunden: Awareness vs. Ranking/ Backlinks: Es geht letztendlich darum, dass die relevante Zielgruppe die eigene Inhalte zu Gesicht bekommt, darin sind sich alle einig. Allerdings wollen viele Kunden nur Links und Rankings, ohne die Awareness zu berücksichtigen, die ggf. durch andere Kanäle entsteht und nur indirekt durch SEO.
  3. Stichwort Backlinks: Welche Links bringen heute noch was? Geht es um die Anzahl, was ist mit Links aus Blogs? Es geht in vielen Bereichen nicht um Online Metriken, wie Links, Reviews auf Yelp usw. Es geht bei lokalen Unternehmen mehr darum einen vollen Laden zu haben, ob das nun mit der Online Strategie einher geht oder nicht.

Bill Hunt & Matt Storms: Technical International SEO

Bill Hunt startete zunächst mit ein paar Beispielen, wie man es nicht macht: Amercan Express hat 22 unterschiedliche Arten von Homepages (SSL – Non SSL, mit bzw. ohne Trailing Slash usw.). Salesforce Mexico nutzt als language Auszeichnung Portugiesisch, Brasilien.

Meine Top 3:

  1. Die Lösung: Saubere Templating für language Settings, hreflang, für einzelne Seitentypen. So können Fehler vermieden werden und es gibt Synergien. Keine Fehler beim Geotargeting, IP-Detection, hreflang. Wichtig ist auch den Indexstatus in den einzelnen Märkten zu überwachen.
  2. IP Detection & Geotargeting: Wenn ein User aus einem bestimmten Markt kommt darf er nicht fehlerhaft weitergeleitet werden. Zudem darf er nicht bevormundet werden und beispielsweise geblockt werden, wenn er den URL ändert.
  3. Spannende Aussage: Wenn mehr als 1% der eingereichten URLs (bspw. in Sitemap) einen Fehler ausliefern, wird das Dokument nicht mehr weiter gecrawlt. Wenn das natürlich die ersten Einträge betrifft, ist das kritisch. War mir neu, Ist das so?

Weitere Recaps SMX München

Hier führe ich weitere SMX München Recaps 2018 auf (und erweitere die Liste, schreibt mir gern eine E-Mail max [at] guymax.de):