SMX 2014 in München – Recap

SMX 2014 in München – Recap

Die SMX 2014 in München, Messe über Suchmaschinenmarketing und -optimierung, fand zu Teilen im Ramada Hotel sowie dem Internationalen Congress Zentrum München statt. Vom 24. Bis 26. März fanden sich so bekannte Experten aus der SEO Szene zusammen, wie Rand Fishkin, Marcus Tandler, Karl Kratz, Marcus Tober und viele andere.

Einige Workshops wurden bereits am Montag angeboten, vom Namen her klangen sie aber sehr interessant. Ich besuchte die Bing Acadamy, dazu findet ihr hier eine Zusammenfassung zum Bing Webmastertools Workshop. Am Abend ging es aber nochmal in das Hotel Ramada, denn der Inhouse SEO Stammtisch versprach interessante Diskussionen. Ich wurde auch nicht enttäuscht, es ging heiss her. Von Linkaufbau über Penalty Bewältigung (und sogar einer Bierdusche für einen Kollegen, durch die Bedienung, haha), war alles dabei!

SMX In München Tag 1

Für mich war es der erste Besuch des IMC in München und ich bin positiv überrascht. Die Ausstattung, die Größenverhältnisse und auch die Bequemlichkeit lassen nichts zu wünschen übrig. Nach einer kurzen Einführung von Alexander Holl von 121Watt ging es direkt los mit der Keynote von Rand Fishkin.

Maximale Sichtbarkeit 2014: der Schlüssel zum Erfolg

Die Präsentation von Rand ist auch online abrufbar , falls jemand nachlesen möchte. Der Vortrag beleuchtete die Veränderungen in der SEO Welt, Herausforderungen und stellte Lösungsvorschläge vor.

Keynote mit Rand Fishkin weiterlesen...

Nur 15% aller Serps sind einfach nur 10 Links, die meisten Suchmaschinenergebnisseiten haben noch Anreicherungen unterschiedlicher Art:

  • Maps
  • Bilder
  • Rich Snippets

Google bedient sich an unserem (=Webmaster) Traffic, denn durch direkte Anzeige Antworten ist es für den User unnötig noch die Webseite aufzusuchen:

  • Wetterergebnisse
  • Knowlegde Graph
  • Fragen auf Antworten (Wie groß ist Obama…)

Google sperrt Daten, durch die SSL Verschlüsselung werden den Webmastern keine Daten über Keywords mehr zur Verfügung gestellt. Der Wert wird bald nah bei 100% liegen.

  • Nur Adwords treibende erhalten Einblick in die wertvollen Daten
  • Dem Seitenbetreiber bleiben lediglich die Einblicke in die Zielseiten

Der Einfluss von Google Plus wird an vielen Stellen gepusht. Dazu nutzt Google sein eigenes Netzwerk sowie die meisten Dienste.

  • Rel Author
  • Rel Publisher
  • Posts in den Serps
  • Author Rank
  • Chrome
  • Youtube

 

Die Herausforderungen

Als SEO steht man aber auch vor großen Herausforderungen, denn SEO ist schon lange mehr als nur Linkbuilding und Keywordstuffing. Zu den größten Herausforderungen zählen demnach:

  • Der Wachstum von Brands wird seit einigen Jahren forciert. So ist die Einblendung der Top10 Domains in den letzten 24 Monaten um 27% gestiegen.
  • Eine spannende Herausforderung für alle Seitenbetreiber ist der Wachstum von mobilen Endgeräten und damit verbunden auch dem Rückgang der Desktop PC
  • Die Klickraten auf Werbeanzeigen gehen seit den Anfängen des Internets zurück (Banner Blindness), im Gegensatz dazu steigen die Ausgaben für Content.
  • Der Einfluss von Onpage ist am Wachsen, nach dem er über Jahre einen sinkenden Einfluss hatte.
  • Google greift hart durch was Webspam anbelangt. Durch das Verbot von Guest Blogging oder manuellen Abstrafungen (auch von großen Brands) nimmt zu. Spam ist somit nicht mehr das Problem von Google, sondern von den Seitenbetreibern selbst.
  • Googles Anstrengungen im automatischen Lernen und generieren von Inhalten (Knowledge Graph)

Aber wie reagiert die Branche auf diese Herausforderungen?

  1. Die einen resignieren
  2. Anforderungen an SEOS werden immer größer und man muss sich der Herausforderung stellen und ebenfalls sein Kenntnisstand ausbauen
  3. SEO wird umfassender gesehen und betrieben, das lässt sich an der Anzahl an Personen erkennen die SEO als Job Title haben vs. SEO in der Job Beschreibung

Ein SEO benötigt heutzutage viel mehr Fähigkeiten und Kenntnisse, als vor einigen Jahren. Denn es ist mittlerweile ein tiefer Kenntnisstand über die technische Suchmaschinenoptimierung notwendig. Es ist wesentlich mehr von Nöten als Links und Keywords, mehr sind kreative Ideen gefragt, um den Filtern zu entgehen und die Herausforderungen zu stemmen.

Rands 3 Takeaways

  1. Verständnis schaffen, was SEO ist, was damit verbunden ist, welche Zeit dafür notwendig ist. Erwartungen müssen zurecht gerückt und der Realität angepasst werden.
  2. Neue Dinge sollte man früh annehmen (bspw. Google Plus), denn der verbunden Lohn wird herausragend sein. Das war in Vergangenheit so bei Infografiken, Guest Blogging, Widget Links usw.
  3. Es führt kein Weg daran vorbei eine Marke aufzubauen. Wer noch keine hat, oder eine Schwache wird in den nächsten Jahren schwere Zeiten haben. Brand Building kann beispielsweise durch Content und Social Media Marketing, Pressebeziehungen etc. erreicht werden.

Rand Fishkin SlidesTwitter  |  Linkedin

Die wichtigsten Suchmaschinen Ranking Faktoren

Das nächste Panel war von Marcus Tober von Searchmetrics und Rand Fishkin von Moz. Die beiden haben Zugriff auf wirklich viele Daten, so können die beiden natürlich hervorragend über Ranking Faktoren referieren. Die Daten stammen aus den USA und legen den Schwerpunkt auf Content und Technik.

Die wichtigsten Suchmaschinen Ranking Faktoren weiterlesen...

Der Vortrag begann mit Marcus Tober und einem Einblick in die Searchmetrics Analyse der Suchmaschinen Rankingfaktoren 2014.

Technische Onpage Faktoren

  • Seitengeschwindigkeit ist ein Einflussfaktor, der sich deutlich verstärkt hat im Vergleich zu 2013
  • Vorhandensein von Description sowie h1 (Brand Faktor)
  • Im Schnitt 160 bis 180 interne Links pro URL

Ein Zitat von Marcus Tober war (zumindestens sinngemäß):„Google sendet jemanden mit einer guten Zufriedenheit (der Funktionen von Google) auf eine andere Seite, wenn dieser dort unzufrieden ist, ist er auch mit Google unzufrieden“.

Content Faktoren

  • Der Einfluss von Keywords in Description und h1 hat leicht abgenommen.
  • Im Schnitt 7500 Zeichen (Ca. 600 Wörter) der erstplatzierten
  • Content Komplexität: Werden relevante Wörter genutzt? Ja, Proof Keywords und relevante Keywords sind wichtig und korrelieren mit dem Ranking (Stichwort WDF*IDF)
  • Der Einfluss von sozialen Kanälen hat leicht abgenommen, dennoch ist Content der gut rankt auch oft in sozialen Medien populär.

Linkprofile

Auch im Linkprofil gibt es ein paar Veränderungen in der Gewichtung der Ranking Kriterien,

  • Anzahl an Links
  • SEO Visibility der verlinkenden URL
  • Anzahl an neuen Backlinks innerhalb der letzten 30Tage
  • Anzahl an Links von News Domains (bei Google News gelistet)
  • Anzahl an Brandlinks

Was noch in der Vollständigen Analyse der Searchmetrics Rankingfaktoren kommen wird und sehr spannende klingt, sind:

  • Number of referring Domains zu Homepage
  • Domain Keyword Searchvolume

In ca. 4 – 6 Wochen werden die Ranking Kriterien von Searchmetrics veröffentlicht, ich bin schon gespannt.

Marcus Tober: Twitter | Searchmetrics

Teil 2 Ranking Faktoren 2013 von Moz

Die angesprochenen Ranking Faktoren wurden von Rand Fishkin mehr oder weniger bestätigt, mit dem Unterschied, dass die sozialen Kanäle einzeln stärker beleuchtet wurden.

  • Auffällig war der starke Einfluss von Google Plus. Im Anschluss entstand eine kritische Auseinandersetzung mit der Aussage von Matt Cutts, dass Google Plus nicht für das Ranking genutzt wird. Jedoch besagen die Analysen, dass Google Plus noch vor den Signalen von Facebook und Twitter anzusiedeln ist.
  • Exakt Match Domains oder Partially Match Domains sind auf dem absteigenden Ast und ihr Einfluss wird vermutlich wohl noch weiter sinken.
  • Tendenziell performt längerer Content besser als kurzer Content

Test Linkprofil

Unter der Hypothese, dass Google beginnt, den Einfluss von Keywordlinks zu begrenzen oder sogar abzustrafen, berichtetet Rand Fishkin von einem interessanten Test, in dem 2 deckungsgleiche Seiten aufgebaut wurden (genaueres, zum Aufbau und Content der Seiten wurde nicht genannt). Die eine wurde mit 20 nicht-keyword Links beschossen, die andere mit 20 Keywordlinks.

Ergebnisse der Untersuchung:

  • Die Seite mit Keywordslinks performte besser als die ohne Keywordslinks
  • Die Herkunft der Links (aus US bzw. UK) hat ebenfalls einen Einfluss auf die Platzierung in Google.com und Google.co.uk.

Natürlich muss man die Ergebnisse als kurzen Zwischenstand betrachten. Genaueres über den Test wird nach weiteren Analysen bei Moz veröffentlicht.

3 Hypothesen von Rand:

Abschließend stellte Rand 3 Hypothesen auf:

  • Karusselansicht der Bildersuche ist mit Entitäten und Brand Signalen verknüpft
  • Mentions sind wichtig und haben einen Einfluss auf das Ranking (von guten, wichtigen und aktuellen Seiten)
  • Google nutzt Such- und Besuch Werte (User Intent, Klickverhalten…) um dieses für das Ranking zu nutzen.

Rand Fiskin: Slides | Twitter | Moz.com

Search Engine Friendly Design

Der Vortrag Search Engine Frindly Design für Content Provider begann mit einigen Basics zum Seitenaufbau von Contentseiten, am Beispiel Wikipedia.

Search Engine Friendly Design weiterlesen...

  • Wichtige Punkte laut Daniel waren:
  • JS auslagern um Ladezeit zu verbessern
  • Navigation muss im Quelltext wiedergefunden werden, als html Code
  • Wie wird eine Seite strukturiert und ist sie für den User auffindbar
  • Einsatz einer Sitemap
  • Seite auch für mobile Endgeräte optimiert
  • Flash, Session-IDS vermeiden
  • Korrekte Nutzung von Robots.txt, Redirect etc.
  • Schema.org sollte man nutzen um Rich Snippets in die SERPS zu bekommen

Im Anschluss folgte eine Diskussion über den Einsatz von Rich Snippets, warum diese manchmal nicht ausgeliefert werden, welche genutzt werden sollten.

Daniel Herndler: Google+ | danielherndler.com

Teil 2: Für Shops

Der zweite Teil des Vortrages wurde von Merlin (Jan Hendrik Merlin Jacob) von Onpage.org gehalten. Er stellte das Webdesign im E-Commerce in den Vordergrund. Im Folgenden habe ich ein paar Inhalte mit notiert:

  • Breadcrumb verlinkt immer auf Eltern & alle Geschwister
  • Search in Search Seiten sind unbeliebt bei Google
  • Duplicate Content durch Subdomain (www) mit Index Seiten (/index.php)
  • Crawl Budget: Durch Vermeidung von Unique Content kann man bei Google Punkten und das Crawl Budget erhöhen/ hoch halten.
  • Gutes Beispiel jameda.de sowie moo.com, ebenso wie nytimes.com
  • Beispiel, wie man Google alle Seiten zeigen kann, über Footer Links, wie bei Facebook mit Inhaltsverzeichnis für Nutzer und Orte bei Facebook
  • Techniken zur Vermeidung von DC einsetzen (Redirects, Nofollw, Noindex, Canonical)
  • Merlin zeigte im Vortrag auf, wie man nofollow, noindex etc. korrekt einsetzt.
  • Ausschluss von Parametern in Google Webmastertools

Merlin | www.hjacob.com | Onpage.org

Frisch gestärkt vom Essen, und einer Fotosession mit Rand Fishkin Superstar 😉 ging es weiter mit der zweiten Keynote von Frederick Vallaeys. Er hat sich viel mit Adwords beschäftigt und gab seine Erfahrungen zum Besten.

Die drei wichtigsten Gewohnheiten der effektivsten Online Marketer

Frederic war 8 Jahre bei Google, bezeichnet sich selbst als Adwords Evangelist und betreibt nun optmyzr.com, mit Scrips, als Consultant etc. In seinem Vortrag lieferte er eine interessante Sichtweise auf

Die drei wichtigsten Gewohnheiten der effektiven Online Marketer weiterlesen...

Die Einführung bestand aus Bildern sowie Einblicke in das Alltagsleben eines ehemaligen Google Mitarbeiters, um den Spirit zu vermitteln und Einblick in den Alltag zu geben.

  • Kein Google Mitarbeiter ist mehr als 50 Meter entfernt von einer Snack Station/ Kühlschrank (was vermutlich an dem Start in der Garage, neben einem Kühlschrank liegt)
  • „Google is not a conventional company, nor do we become one“ Larry Page
  • Google fördert das Miteinander, durch gemeinsame Einrichtungen, wie beispielsweise eine eigenen Bowlingbahn
  • Google fördert Innovation und Fortschritt, denn selbst der T-Rex ist seiner Starrheit zu Opfer gefallen (Es gibt auf dem Google Gelände eine T-Rex Statue)
  • „We need information, all the time and everywhere“

3 Dinge die Marketer von Google lernen können

1. Die Daten bestimmen die Entscheidungen

Das kann man an unterschiedlichen Stellen beobachten:

  • CTR, Verweildauer etc sind für Ranking sehr relevant
  • Filter für Penguine und Co. bestimmen Penalty von Domains
  • Freunde, Historie, Google Plus bestimmen Rankings im Detail
  • Der (Datengetrieben) Quality Score bestimmt Maßgeblich über die Erfolge bei Adwords
  • Bei Adwords bzw, im Marketing generell sollte unterschieden werden, mit welchem Geräte (Desktop, Smartphone, Tablet) der User kommt, zu welcher Tageszeit und von welchem Ort aus.

2. Behandle deine Mitarbeiter richtig

  • Der Arbeitnehmergewinnungsprozess von Goolge ist ebenfalls herausragend (Beispiel: Auf Werbeplakaten musste eine Aufgabe gelöst werden, die von digital natives gelöst werden kann)
  • „Google hires someone who can do a job today and can figure out what is tomorrow“
  • Priorisiere richtig: 70% Kerngeschäft, 20% nahes Geschäft sowie Weiterbildung und Kommunikation und 10% entferntes Geschäft
  • Entwickle dich weiter und lerne von Fehlern
  • Setze dir keine Grenzen, spinne, im positiven Sinn 😉
  • Teile die Informationen und learnings mit deinen Kollegen

3. Verabschiede dich von alten Zwängen/ Halte dich nicht an der Vergangenheit auf

  • Google bietet das komplette Spektrum, Emailprogramm, Docs es wird allen leicht gemacht, ohne Server und Co. zu haben Viele Wünsche/ Anforderungen bei Adwords lassen sich automatisiert optimieren/ überprüfen
  • Früher dachte niemand daran, dass Youtube eines Tages so eine herausragende Stellung erhalten wird „open is better than closed“, am Beispiel Android lässt sich das gut erkennen. Goolge hätte nie eine solche Marktdurchdringung geschafft ohne ein offenes System.

Der Vortrag war interessant und bot einen interessanten Blick auf die Vergangenheit. Der Ansatz war mit erlebten Dingen, die Vorgehensweise von Google zu veranschaulichen und Trends abzuleiten.

Frederick Vallaeysed | Twitter | optmyzr.com

 

Hummingbird, Google Now und Knowledge Graph: Wie Google von der Suchmaschine zur wirklichen Antwortmaschine wird.

Marcus Tandler meldet sich im nächsten Panel zu Wort, auch dieses Mal mit einer Flut an Folien (über 400). Es war spannend, ich habe mich bemüht die Aussagen und Inhalte so sinngemäß wie möglich wieder zu geben.

Wie Google von der Suchmaschine zur wirklichen Antwortmaschine wird weiterlesen....

  • Knowledge Graph Einblendung steigt, durch die Zuweisung von Entitäten
  • Goolge Plus User und auch die Postings steigen stark, sind jedoch immer noch weit hinter Facebook zurück
  • Nur 3,5% aller Fortune 100 Unternehmen haben eine Verknüpfung mit rel author
  • Momentan wird also versucht der Suchmaschine Google das Lesen und Lernen beizubringen (wobei es sich hierbei noch eher um Grundschullevel handelt)
  • Marcus Tandler führte diverse Bereiche auf, welche M&A Google vornahm, um das Lernen und Verstehen von Zusammenhängen zu fördern. So wird das Verständnis von Entitäten und relevanten Wörter/ Themen immer besser und wird auch in zunehmendem Maße in die SERPS integriert.
  • Wofür steht eine Marke, mit welchen Begriffen ist sie verbunden, und vor allem wo ist sie genannt? So lässt sich abseits von sonstigen Metriken (Backlinks, Onpage) eine Relevanz zu dem Thema herstellen.
  • Strukturierte Daten helfen Google dabei die Inhalte zu erkennen und diese zu Kategorisieren
  • Beispiel: Peppermint Coffe von Starbucks (wird nur in der Weihnachtszeit geboten): In allen Beiträgen über dieses Thema waren die Worte „Starbucks“ sowie „Weihnachtszeit“ geboten, somit waren diese Worte sehr relevant, um für den Begriff „Peppermint Coffee“ zu ranken.
  • Es gibt zu vielen Suchanfragen oft nur eine Antwort (Beispiel: BIP Deutschland/ Bruttoinlandsprodukt BRD/ GDA in Germany…). Das führt auch dazu, dass die Anzahl an ausgelieferten Domains stetig sinkt (denn es gibt wie gesagt nur eine Antwort, zu mehreren Suchanfragen)
  • Der Wandel lautet nicht, wie kann ich für mein Keyword ranken – nein, heute ist die Frage: Welche Intention wollen die User/ Was wollen die User machen, wenn sie XY suchen.
  • Suchen werden automatisch gekoppelt mit (Ort der Suchanfrage), History (Was habe ich davor gesucht), Verben (Essen = Restaurant).
  • Hummingbird ist die Vorbereitung um auf Voice Search zu reagieren (Google Voice gibt es seit 2009, zur Sammlung von Daten)
  • Suche ist nicht gleich Suche, selbst im ausgeloggten Zustand nutzt Google laut Marcus 57 weitere Kriterien um die Suche zu verfeinern (Location, Cookies, Historie…)
  • Wir haben Foren kaputt gemacht, wir haben Kommentare kaputt gemacht, wie haben Verzeichnisse kaputt gemacht – jetzt funktionieren Taktiken nicht mehr, die Kreativität ist gefragt und Google lässt sich nicht mehr so leicht überlisten wie früher.
  • „Von der Search Engine Optimization zur Search Experience Optmization“

Marcus Tandler| Twitter | Mediadonis

Webmasters on the roof

Das Webmaster on the Roof Panel, stets eine Diskussion unter bekannten Größen im Online Marketing fand diese Mal mit Marcus Tandler, Rand Fishkin, Karl Kratz, Marcus Tober sowie Jonas Weber statt. Die Moderation wurde von Marcus Tandler übernommen, in der Diskussion ging es um unterschiedliche Themen, dazu gehörten:

Webmasters on the roof weiterlesen....

Google Adwords:

  • Design von Anzeigen, in Vergangenheit sowie gemäß dem EU Urteil
  • Die rechte Spalte ist nun mit organischen Elemente angereichert (wo auch Werbung platziert ist), um der Banner Blindness entgegen zu wirken
  • Rand Fishkin nimmt an, dass Google alle paar Jahre das Anzeigendesign ändern „muss“, um die Anzeigen nicht als Anzeige identifizierbar zu machen
  • SSL Verschlüsselung könnte bald auch auf Ads ausgerollt werden. So wäre es nur noch möglich die Zielgruppe mit Werbung zu füttern (So wie es bei Facebook bereits ist).

Diverse Themen

  • Der Einfluss von Google Plus, da diverse Dienste mit G+ verknüpft sind und diese auch Einfluss in das Ranking finden, zum Einen bei der Gestaltung der SERPS, zum anderen finden die Posts Einfluss in die Serps der befreundeten (eingekreisten) Kontakte
  • Google Barges: Die großen Dinger, die vor der amerikanischen Küste schwimmen 😉 laut Marcus Tober könnten es auch schwimmenden Server sein, die Server beinhalten und Rechenzentren in internationales Gewässer schiffen. Andere Meinungen könnte die Bewerbung von Google Glasses sein. Niemand (ausser Big G) weiss hier genaueres, also werden wir auch hier nichts weiteres als Vermutungen hören.

Linkbuilding

  • Frage aus dem Publikum: Wie soll man beim Linkbuilding vornehmen? Man muss einfach Seiten finden, die themenrelevanten Traffic liefern können und alles ist in Butter.
  • Die nächste Diskussion startet über „unnatural outgoing links“, und Webmaster, die Meldungen in Google Webmastertools bekamen, obwohl nie ein Link verkauft wurde.
  • Es ist wichtig, jede Linkbuilding Aktivität mit einer Maßnahme zu verbinden, die die Seite besser macht (bspw. im Zuge von einer Content Strategie).
  • Wie im ersten Panel von Rand Fishkin „Spam ist nicht mehr das Problem von Google, sondern nun von den Webmastern“ , schwang die Diskussion in Linkbuilding, Content Marketing und Guest Blogging um.
  • In der Runde wurden diverse Content Marketing Beispiele hinterfragt und vorgestellt, beispielsweise „the best job in the world“, oder die Werbung eines Herstellers für Rasierer etc.

 

SMX Tag 2

Content Marketing – Deconstructing Karl Kratz oder was man sich von Erfolgsbeispielen abschauen sollte

Am zweiten Tag ging es direkt los, unter der Moderation von Alexander Holl, zum Vortrag von Karl Kratz. Es ging um „Content Marketing – Deconstrukting Karl Kratz“, also, um das Buzzwort „Content Marketing“ und wie man vorgehen sollte und welche Strategien zum Erfolg führen. Besonders wichtig ist es Resonanz zu erzeugen und zu messen, damit der User das auffindet, was er auch sucht.

Den Vortrag von Karl Kratz weiterlesen

Der Vortrag handelte von 4 hilfreichen Ansätzen für Content Marketing:

1. Das Ebenen Modell

Karl stellte vor, wie man ein Thema unter unterschiedlichen Blickwinkeln betrachten kann, an einem kurzen Publikumstest. Es ging dabei um die Aspekte eines T-Shirts, unter welchen Blickwinkeln, dieses betrachtet werden kann. Welche Blickwinkel unterschiedliche Menschen einnehmen können.

Wie können wir gute Inhalte für Produkte oder Produktkategorien erstellen?

  1. Definiere eine Klasse, an Produkten, die sich bündeln lassen und ähnliche Sorgen bzw. Bedürfnisse hervorrufen.
  2. Nutze die Amazon Bewertungen und „übersetze“ deren Bedürfnisse. Also das ein T-Shirt beim Waschen eingeht, sich verfärbt, juckt etc.
  3. Daraus kann man unterschiedliche Bedürfnisse („Ebenen“) identifizieren. Diese lassen sich für die Kommunikation (in Beschreibungstexten, in der Bewerbung etc.) nutzen.

Über diese drei Schritte lassen sich eigentlich alle Texte für Kategorien oder Produkte erstellen.

 

2. Das Fragen Modell „Welche Fragen wurde je zu einem Produkt gestellt, und wie lassen sich diese beantworten“

  • Für Fragen die oft gestellt werden, braucht man eine exzellente Antwort
  • Für Fragen die noch nie gestellt wurden, brauchen wir einfach eine Antwort
  • Das lässt sich auch prozessual in einer Matrix organisieren:
  • Achse vertikal bilden mit „Ebenen“ (siehe oeben)
  • Achse horizontal bilden mit allen „-Fragen
  • Das muss noch hinterfragt werden ob die Fragen eine Relevanz aufweisen
  • Jene Kombinationen mit Relevanz und Sinn lassen sich auf der Webseite abbilden

3. Inhaltsbereitstellung

Die Inhalte sollten mit unterschiedlichen Blickwinkeln ausgestattet sein, damit das Dokument holistisch ist. Besonders wichtig ist es laut Karl Kratz, den Texter gut zu briefen, damit der Text auch den Erwartungen entspricht. Das Briefing sollte aus diesen Inhalten bestehen:

  • Aufgabenstellung (Zielsetzung)
  • Angebot (Was ist das Angebnot)
  • Bedarfsgruppe (Wer soll angesprochen werden)
  • Inhalt (Umfang)
  • Organisatorisches (Wann muss er fertig sein)
  • Online Kanäle (Wo wird er veröffentlicht)
  • Hilfsmaterial (Beispiele)
  • Dimensionen (Welche Ebenen sollen betrachtet werden)
  • Kontextuelle Fragen (Was soll beantwortet werden)

Im nächsten Schritt muss der Redaktionsplan erstellt werden. Die einzelnen Abschnitte und Bestandteile des Textes sollte nach und nach veröffentlicht werden (nachdem der Google Bot da war). So kann man dem Bot immer neuen Content anbieten und für jeden neuen Inhalt nach und nach eine neue Zielgruppe ansprechen und dort Social Signals und Co. sammeln. 4. Responsive Inhalte Inhalte sollten auf das Userbedürfnis angepasst werden. Jeder sollte das vorfinden, was ihm am leichtesten zugänglich ist.

  • Es sollte aber auch das Wording, die Darstellung der Überschriften etc. angepasst werden
  • Aufzählungsliste können einfach erfasst und strukturiert werden
  • Inhalte für große/ mittlere und kleinere Bildschirme sollten komplett umgeschrieben und verkürzt werden

Karl Kratz | Google+ | karlkratz.de

Keynote Big Data – a realitiy check: Frank Fuchs und Anirudh Koul

Die nächste Keynote war dieses Mal von zwei Microsoft Mitarbeitern, mal was anderes, nach Rand Fishkin sowie einem Adwords Profi. Wesentliche Inhalte waren dabei:

Die Keynote weiterlesen

  • Neurale Netzwerke, wie unser Gehirn, können Schreibfehler (also Wortdreher), abgeschnittene Worte einfach ergänzen und verstehen. Genauso ist es auch mit der Suchmaschine, sie wird besser im erkennen und verstehen.
  • Nächster Punkt der Diskussion war „Big Data“ wo fängt es an und wo hört es auf. „Da wo Excel zusammenbricht“.
  • Big Big Data ist ebenfalls oft das Problem, dass diese in unstrukturierter Weise vorliegen und somit nicht einfach zu nutzen sind.
  • Ebenfalls eine Herausforderung war lange die Datensicherheit, damit keine Daten verloren gehen, aufgrund von Rechnerabstürzen etc.
  • Heutzutage liegen jedoch so viele Daten vor, wie nie. Jeder hat in seinem Rahmen Daten, viele große Unternehmen sammeln diese etc.

Frank Fuchs | Twitter | locallytype.com

Anirduh Koul | Linkedin | koul.us

Site Clinic – Johannes Müller

In dem zweiten Panel ging es direkt weiter mit Johannes Müller von Google, mittlerweile im verflixten 7ten Jahr bei Google tätig. In dem Vortrag geht es, wie der Titel „site clinics“ schon sagt, um Optimierungsvorschläge für Webseiten. Es werden also explizit Fragen und Antworten zu unterschiedlichen Webseiten vorgestellt.

Den Vortrag von Johannes Müller weiterlesen

Was laut John nicht so wichtig ist sind:

  • Html valide? Nein, kein Problem
  • Fehlende Robots.txt? Nein, kein Problem
  • Duplicate www und non www? Nein, kein Problem
  • 302 anstatt 301? Nein, kein Problem
  • URLs mit Parametern und Session IDs? Nein, kein Problem

Die Siteclinics im Überblick (Ich habe mich dazu entschieden, die Webseiten zu verfremden): IT Unternehmen

  • Prüfung Mobile Version mit PageSpeed Insights
  • Kein Problem mit Crawling und INdexing
  • Hauptproblem: Problematische Links
  • Schlechte 404 Seite
  • Geotargeting korrekt eingestellt?
  • Viele unnötige Meta Tags werden genutzt
  • Es werden 404 Fehler vorhanden

Marktplatz für Handwerker

  • Technisch ok
  • Responsive Design vorhanden
  • Geschäftsmodell schwierig – warum soll der Nutzer einen weitere Klick auf sich nehmen?
  • Server zu langsam
  • Aus 36k Seiten nur 10% indexiert
  • Server Logs ansehen – was crawlt der Google Bot

Shop aus dem Bereich Haushaltsware

  • Probleme bei der Qualität
  • Probleme beim Linkprofil
  • Angst laut Google: Quantität statt Qualität
  • Kleinere Probleme bei Crawling & Indexierung sowie Konfigurationsprobleme der Inhalte auf https
  • Sauberes URL Rewriting muss sauber umgesetzt werden
  • Rich Snippets noch nicht genutzt

Shop individuelle Wohngestaltung

  • Warum gibt es 2 Shops die ähnlich und vermutlich vom gleichen Betreiber sind?
  • Press Release Links
  • Keine Probleme mit Crawling
  • Smartphone Version mit Responsive Design ausstatten?
  • Rich Snippets fehlerhaft eingebaut

Shop Produkte für Kinder

  • Länder Dialog unnötig
  • Viele Parameter ohne Canonical
  • Täglich werden doppelt so viele URLS gecrawls wie in der Sitemap
  • Server ist langsam
  • „Schlechtes Crawling hat keine Auswirkung auf Ranking, nur auf Indexing“
  • Alle Länder-Versionen verlinken
  • Href lang ist nicht konsequent eingebaut
  • Rich Snippets werden genutzt, das ist gut
  • Smartphone Version nicht vorhanden
  • Title & Beschreibungen sind nicht optimal
  • Duplicate Content auf verschiedenen Länder-Webseiten
  • Bei Wartungsarbeiten Statuscode 503 nutzen, nicht 200

Affiliate Shop Mode

  • Dünne Inhalte (Affiliate)
  • Aufräumen durch Canonical, Noindex, 404
  • Robots.txt falsch eingesetzt
  • Tipp: Mit Algorithmen aufräumen
  • Wichtige Seiten in Vordergrund stellen, unwichtige aufräumen
  • Responsive Design gut

Video Ratgeber

  • Videos sind gut
  • Crawling ok, Indexing ok
  • Video Sitemaps erstellen?

Johannes Müller | Google+

Customer Love Ecommerce – Michaela Schneider

Um Beispiele zur Umsetzung eines CRM Systems zu erhalten, hörte ich mir im nächsten Schritt die Session von Michaela Schneider an, verantwortlich für CRM bei windeln.de. Die Zielstellung ist das maximale aus dem Kunden rauszuholen und ihm das beste Angebot zu bieten. Einzelne Bereiche der Präsentation waren:

Den Vortrag über Customer Love Ecommerce weiterlesen

Customer Relationship (Satisfaction) Management

  • Firma geht in Vorleistung, durch Kommunikation und man „wirbt“ um den Kunden
  • Wie ist die User Experience, findet er was er sucht? Ist er mit dem Einkaufserlebnis zufrieden? Kauft er wieder bei mir ein?
  • Wird er mich nach dem Kauferlebnis weiterempfehlen?
  • Welche Daten habe ich im CRM?
  • Wiederkauf (Zeit zwischen den Käufen, Zeitintervalle der Einkäufe, Warenkorbwert), Segmentierung nach Kanal)
  • Kundenservicekontakte (Wie häufig, Outcome und Zufriedenheit, welche Kanäle und welcher Tenor)
  • Bewertungen kann anhand des Net-Promoter-Scores (=% an Promotern, mit sehr guten Bewertungen – % Detractors, mit sehr schlechten Bewertungen) ermittelt werden

Datenanalyse:

  • Wann habe ich gute Kunden gewonnen (durch Kohortenanalyse, vergleiche unterschiedlicher Zeiträume sowie Methoden)
  • Wer kauft wann welche Produkte? (Umsatz pro Kunde/ Alter des Kindes)
  • Welche Kunden sind gute Kunden (Wiederkaufsrate, Warenkorb, Marge)
  • Welche Kunden verliere ich wann? Durch eine Kategorisierung der Kunden sowie Auswahl an kritischen Signalen (seit X Tagen nichts mehr gekauft) sowie Benachrichtigungsintervallen kann dies ermittelt und vermieden werden.
  • Aus den Fragestellungen sollte abgeleitet werden, wann welche Produkte beim Kunden gefragt sind. So lässt sich der Kundenlebenszyklus begleiten und zur richtigen Zeit die richten Empfehlungen aussprechen.

Wichtig ist zudem, die richten Maßnahmen aus den Daten zu ziehen:

  • Gute Kunden belohnen (bspw. durch ein Geschenk)
  • Empfehlungen fördern
  • Kunden, die drohen verloren zu gehen wieder reaktivieren
  • Kundenqualität verbessern

Im zweiten Teil der Präsentation ging es um die Social Customer Experience. Dieser wurde von Andreas H. Bock gehalten. Also wo auf Facebook und Co. der Kontakt zum Kunden gewahrt wird.

  • Im Vortrag wurden unterschiedliche Möglichkeiten vorgestellt, wie Kunden auf Facebook begegnet wird bzw. wie diese in eigene Kommunikationskanäle gezogen werden.
  • Analog dazu gibt es Möglichkeiten, wie man auf Twitter mit dem Kunden in Kontakt bleiben kann etc., best practice ist dabei KLM.
  • Der Referent führte unterschiedliche Beispiele aus der Unternehmenskommunikation mit Kunden auf, vor allem aus dem amerikanischen Markt. Da dort die Kommunikation noch deutlich stärker in sozialen Medien stattfindet.

Michaela Schneider | Twitter

5 technische Herausforderungen die Google wichtig sind

Nach einer kurzen Pause ging es direkt weiter, nochmal mit Johannes Müller und Zineb Ait Bahajji von Google, mit dem Thema 5 technische Herausforderungen, die Google wichtig sind. Es war eine schwere Entscheidung, denn genau zu diesem Panel gab es zwei andere, die mich auch gereizt hätten.

Den Vortrag über 5 technische Herausforderungen die Goolge wichtig sind weiterlesen

Probleme aus Googles Sicht sind:

1. Structured Data Damit ist die Nutzung von strukturierten Daten gemeint. Die Inhalte werden für Google leichter Verständlich und man kann durch Rich SNippets von einer erhöhten CTR profitieren. Blick in die Hilfethemen ist wichtig und dann die korrekte Umsetzung. Alternativ kann der Data Highlighter dafür genutzt werden, jedoch sind diese dann nur für die Suchmaschine Google sichtbar, nicht aber für Yahoo etc. Prüfung mit Rich Snippet Testing Tool

2. JavaScript Mit JavaScript können durch onclick oder ähnliche Techniken URLs und Elemente nachgeladen werden. Der Google Bot versteht einen Teil dieser Anfragen, bei kritischen Elementen sollten diese nicht blockiert sein, bzw. über JS versteckt sein Die Javascript Dateien müssen jedoch selbstverständlich auch crawlbar sein

3. Mobile Der Einfluss von Mobile nimmt zu, das ist unbestritten. Aus diesem Grund möchte Google auch die Präsenz von mobilen Seiten bzw. Seiten die für mobile Endgeräte optimiert sind, erhöhen. Google empfiehlt Responsive Webdesign, dabei werden identische Seiteninhalte auf andere Art dargestellt. Naja fast, denn genau das empfiehlt Karl Kratz nicht – er stellte in seinem Workshop vor, auf welche Art und Weise der Content verändert werden sollte.

John Müller stellte im Vortrag klar „So lange der Inhalt nicht zu stark verändert wird, ist es ok (wenn der Desktop User eine Seite über Schuhe sieht, sollte die mobile Version nicht von Autos handeln)

Zu vermeiden bei der mobilen Optimierung sind:

  • Blockieren von CSS
  • Nicht abspielbare Videos, Flash Seiten, Smartphone Errors

4. Internationalization

Viele Seiten machen Fehler in der Setzung von href lang, Nutzung falsche Möglichkeiten, um ihre Seiten zu internationalisieren. Das ist eigentlich nicht notwendig, denn es gibt umfangreiche Hilfethemen zu diesem Thema von Google.

  • URLS pro Land/ Sprache
  • DC ist bei der Internationalisierung nicht so schlimm
  • Nicht cloaken
  • Nutzung von href lang
  • Noindex mit Bedacht einsetzen
  • Korrekte Canonilisierung ist wichtig

5. Security

Google möchte dem User nur das beste Ergebnis bieten, dazu gehören selbstverständlich auch virenfreie Seiten.

  • Zu den Themen gehören Hacked- und Injected Content oder Malware
  • Es erfolgt eine Benachrichtigung in den Goolge Webmastertools
  • Zudem wird die URL für User geblockt, damit diese nicht von Viren etc. befallen werden
  • SSL-Verschlüsselungen sind von Google ebenfalls gern gesehen

Johannes Müller | Google+

Exkurs: Die allfacebook Marketing Conference München – das Gipfeltreffen der Social Media Marketer in Süddeutschland

Die Agentur für Social Media 1-2-Social war natürlich auch dabei, als die Messe in München ihre Pforten öffnete um Wissbegierige aus verschiedensten Branchen willkommen zu heißen. Drei ganze Säle mit parallelen Vorträgen hatte allfacebook für den Tag organisiert. Ein Zeichen, dass Social Media für Marketing in Deutschland weiterhin an Relevanz gewinnt.

Lesen Sie mehr zur Allfacebook Konferenz - weiterlesen...

Im Folgenden möchte ich 5 interessante Punkte vorstellen:

  1. Facebook selbst, vertreten durch F. Scott Woods, machte gleich zu Beginn der Konferenz klar, dass auch ihre eigene Arbeit einem Trend folgt, nämlich der Priorisierung von Mobile-Usern. Mobile First – heißt die Prämisse der nächsten Jahre!
  2. Einen weiteren überaus relevanten und sehr aktuellen Punkt besprach Social Media Guru Thomas Hutter: Die Verschmelzung von über den Globus verteilten nationalen Seiten internationaler Konzerne zu zentralen Global Pages. Der Prozess birgt neben immensen Fanzahlen nämlich auch Nachteile.
  3. Thomas H. Kaspar widmete sich dem Aspekt des sozial in „Social Media“ und kam über Ausflüge zur Psychologie und der Verhaltensforschung zu dem Ergebnis, dass eine perfekt auf die Zielgruppe zugeschnittene „Social Experience“ zur Generierung nachhaltiger Fans führen kann.
  4. Social Media und Recht war ein weiteres Hot Topic der gesamten Veranstaltung. Scheinbar sind Facebook, Twitter und Co. immer noch zu jung um augenblicklich auf juristischer Basis logisch zu erscheinen.
  5. Auch Vertreter einzelner Unternehmen und Produkte waren auf den Bühnen zu finden. Darunter sowohl der Onlineshop Stylefruits, als auch Traditionsunternehmen wie Vorwerk.

Fazit SMX in München:

Mir hats gut gefallen, man trifft viele nette und bekannte Gesichter, tauscht sich aus, super Location, top Speaker, lecker Verpflegung, rundum ein gelungenes Event!

Heiner Tappe Rand Fishkin Maximilian Hitzler

Freunde der Suchmaschinenoptimerung! Von links nach rechts: Heiner Tappe Rand Fishkin Maximilian Hitzler

Nach einer Konferenz (vor allem nach 2, vor ein paar Tagen war ja erst die Campixx), ist man immer voll mit Gehörtem, Anregungen und Sichtweisen, im Arbeitsalltag ist das nicht immer leicht alles umzusetzen. Für mich hat es sich gelohnt, da ich auch einige mir offene Fragen klären konnte, dafür nochmal vielen Dank an Kai Spriestersbach für eine Antwort, die mir weiterhilft! Vielen Dank auch an Sandra Finlay von www.risingmedia.de für die super Organisation, den Inhouse Stammtisch und eine gelungene SMX in München!

Weitere Recaps zur SMX 2014 in München

Bisher bin ich nur über wenige Nachberichte gestoßen. Falls Du einen gefunden oder geschrieben hast, schreib mir bitte eine Mail oder einen Kommentar.

Guy Max

Guy Max

Hallo, hier schreibt Max, Inhouse SEO und Affiliate aus München. Ich freue mich stets über fachlichen Austausch und Kooperationen im Online Marketing!

Schreib mir doch einen Kommentar 🙂
Guy Max

2 Kommentare

  1. Super gemacht! Vielen Dank!
    Ich habe jetzt hier viel Material zu lesen und entdecken 🙂

    Maria

  2. Guy Max

    Hallo Maria,

    das nächste Mal schreibe ich mir aber nicht mehr die Finger blutig. Sind fast 5000 Wörter geworden, soviel redet ein Mann normalerweise an einem ganzen Tag! 😀

Trackbacks/Pingbacks

  1. SMX München 2014 Recap - WebmarketingBlog.at - […] http://www.guymax.de/smx-2014-in-muenchen-recap/ […]
  2. SMX München 2014 - Recaps Überblick - - […] http://www.guymax.de/smx-2014-in-muenchen-recap/ (Maximilian “Max” Hitzler) […]

Einen Kommentar schreiben

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind markiert *