Der erste Tag der SMX 2014 in München startete für mich bereits am Montag, mit dem Bing Acadamy Workshop mit Frank Fuchs und Stephan Walcher. Dazu findet ihr im Folgenden ein Recap (an dem zweiten Teil der Bing Acadamy über Bing Ads konnte ich leider nicht teilnehmen). Zunächst begann Frank Fuchs mit einer Einführung in die Bing Suche, welcher Aufwand mit einer Suche verbunden ist.

Insbesondere nannte er ein Beispiel von einem „N-gram“, wo Bing, wie auch Google vor Herausforderungen stehen, „New York Times Square“. Hierbei ist es nicht leicht den Intent des Users herauszufinden:

  • Möchte er die New York Times sehen (Navigation zu der Zeitung)
  • Will er zum New York Times Square

Teil der Diskussion war unter anderen Inhalten:

  • Die Bildung von neuralen Netzen durch Einlesen von Dokumenten (beispielsweise von politischen Großevents, bei denen inhaltsgleiche Übersetzungen in unterschiedlichen Sprachen vorliegen).
  • Die Hiybbprqag Gate Affäre, beim damaligen Skandal versuchte Google durch einen Test zu beweisen, dass Bing auf Teile von Googles Suchergebnisse zurückgreift.
  • Strategische Herausforderungen, dazu ein Zitat „Es ist oft besser Geld in Usability Tests zu stecken, als Geld in sinnlose, kurzfristige (SEO) Maßnahmen zu stecken“.

Bing Webmastertools

Bing Webmaster Seite einrichten

Nach der Einführung ging es weiter mit Stephan Walcher, und den Bing Webmastertools. Im Folgenden sind einige Diskussionsbestandteile und Funktionen der Bing Webmastertools genannt. Die unten genannten Inhalte stammen aus Aussagen der beiden Vortragenden sowie den Teilnehmern.Daten sind 6 Monate abrufbar, nicht wie in Google Webmastertools nur 3 Monate

  • Profileinstellung: Wie oft sollte man Benachrichtigungen bekommen (Empfohlene Einstellung: wöchentlich)
  • Sitemap muss zu 99% korrekt sein. Denn wenn in Sitemaps weiterleitungen vorhanden sind, entstehen Fehlermeldungen, dann wird der Sitemap nicht mehr zu 100% vertraut.
  • Bei Sitemaps sollte eine Index-Sitemap mit mehreren Sitemaps angelegt werden.
  • Ausschluss von Parametern in den Webmastertools, zur Vermeidung von Duplicate Content sowie zur optimalen Nutzung des Crawlingkontigents der Suchmaschinen sollte auch bei Bing vorgenommen werden.
  • Steuerung der Crawling Zeit, während die Server die Maximallast der Besucher stemmen, sollte man das Crawling Volumen herunterschrauben.
  • Bing Deeplinks (bei Google die sog. Sitelinks) lassen sich ebenfalls bei Bing ausschließen
  • Deeplinks bringen ca. 16% mehr CTR als keine Deeplinks
  • Seiten, die stark intern verlinkt sind, tauchen oft als Sitelinks auf (und diese nicht durch nofollow entwertet wurden)
  • Links ablehnen (Disavow Tool für Bing), hat Bing vor Google eingeführt. Jedoch führt Bing generell weniger „Abstrafungen“ durch (im Gegensatz zu Google), die Links werden oft lediglich weniger stark gewertet.
  • In der Folge entstand eine interessante Diskussion über die Qualität von Links, negative SEO und wie man in einem Fall idealerweise vorgehen sollte.
  • Einstellungen zum Geotargeting: Href lang tag wird von Bing aktuell noch nicht unterstützt.
  • Funktion in den Bing Webmastertools „verbundene Seiten“: Durch diese Einstellungen lassen sich soziale Profile der eigenen Marke hinzufügen.
  • Social sing kein Ranking Faktor, ist aber wichtig für die Indexierung von Webseiten

Teil 2 Bing Webmastertools – Berichte und Daten

Bing Webmastertools Berichte und Daten

In diesem Bereich lassen sich einige relevante SEO KPIs herauslesen und helfen bei Analysen. Besonders interessant ist neben der „Nutzung der Seite“ (und die daraus resultierenden Platzierungen in Bing, sowie Anzahl der Klicks), besonders der Punkt „Index Explorer“. In diesem Bereich erhält man Einblick in die Seitenarchitektur sowie anderen diese Informationen.

  • Interne Verlinkung
  • Von Robots.txt ausgeschlossen
  • 404 Fehler

Der Menupunkt Berichte und Daten bietet darüber hinaus noch Informationen über eingehende Links, Crawlinginformationen, wie Serverfehler, Weiterleitungen etc. Selbstverständlich gibt es auch Informationen hinsichtlich Schadsoftware einer Seite.

Teil 3 Diagnose Tools

Bing Webmastertools Diagnose Tools

Im Bereich Diagnose Tools lassen sich kleiner Analysen fahren und können bei der täglichen Arbeit helfen, dazu einige Stichpunkte aus dem Workshop:

  • Schlüsselwort Recherche: Das Tool kann bei der Keywordrecherche helfen und ermittelt Wörter, die für SEO & SEA interessant sein können.
  • Link Explorer: Der Link Explorer erinnerte an den Open Site Explorere (Rest in Peace), der ehemals ein beliebtes Tool in der täglichen SEO Arbeit war. In diesem Zusammenhang stellt sich natürlich die Frage nach der Datenqualität der angezeigten Links. Sind diese Vollständig, wie lange dauert die Erkennung von eingehenden Links.
  • Bingbot Abrufe: Hier kann man sehen, wie der Bingbot eine Seite liest, so kann man feststellen ob der Bot beispielsweise durch die robots.txt blockiert wird.
  • Markup Prüfer: Durch dieses Tool lassen sich die Markups, die auf der Domain genutzt werden prüfen. Werden die Codes korrekt interpretiert.
  • SEO Analysator: Der SEO Analysator ist ein interessantes Tool, dass einem hilft explizites Verbesserungspotenzial zu identifizieren. Dazu gehören beispielsweise die Größe des Dokuments, fehlende Attribute (bspw. Alt Attribut bei Bildern) etc. Hier werden explizite Verbesserungsmöglichkeiten für die Seite ermittelt und helfen praxisnah weiter. Nicht jeder Punkt hat eine große Relevant, dennoch ist ein Blick auf die Verbesserungsvorschläge sinnvoll.
  • Bing Bot Überprüfen: Hierbei kann man prüfen, ob es sich bei einem Bot um den Bing Bot handelt (falls beispielsweise eine Seite abgeschossen wurde, durch zu intensives Crawling)
  • Bei der „Seitenverschiebung“ kann man für Bing deutlich erkennbar machen, dass ein Domainwechsel stattgefunden hat. So kann man nicht nur über die Weiterleitungen kenntlich machen, dass ein Wechsel der Domain stattgefunden hat, sondern auch durch eine offizielle Angabe über die Bing Webmastertools (gibt es ja auch analog in den Google Webmastertools).
  • Über die Bing Webmaster API kann man sich die Daten aus den Webmastertools direkt ziehen und für seine Zwecke verarbeiten. So kann man sich beispielsweise ein eigenes Dashboard bauen und Rückschlüsse aus den gebotenen Daten ziehen.

Der Vortrag endete mit einem Vergleich der Bing und der Google Webmastertools. Im Prinzip finde ich die Bing Tools schon sehr praktisch, ich frage mich nur an der ein oder anderen Stelle die Qualität und die Vollständigkeit der Daten. Denn in den Google Tools ist die Datenqualität vor einigen Monaten deutlich verbessert worden.

Diskussion und Fazit

Im letzten Abschnitt des Panels war noch etwas Zeit für eine Diskussion rund um das Thema Suche, Bing und Microsoft Produkten ;). Denn mittlerweile ist die Bing Suche in die Produkte von Microsoft stark integriert (am Beispiel Windows 8.1). Wirklich ein spannendes Thema, da sich die Suche quasi lokal abspielt. So werden beispielsweise wichtige Suchintentionen mit Partnern abgebildet. Eine wirklich spannende Sache, vor allem wenn man sich die Verbreitung von Windows basierten Endgeräten vor Augen führt, welche sich mit Windows 8.1 früher oder später auch auf die breite Masse abbilden wird.

Mein persönliches Fazit zu dem Vortrag ist positiv. Die beiden Speaker sind super fit auf ihrem Gebiet und neben der Vorstellung der Tools (die ja auch im Hilfebereich ersichtlich sind), waren vor allem die Aussagen, die am Rande getroffen wurden, sehr spannend. Darauf kann ich in diesem Recap zur Bing Webmastertools Workshop nicht genau eingehen, da die Aussagen eher für den kleinen Kreis bestimmt waren. Falls Dich auch die Vorträge auf der SMX 2014 interessieren, kannst Du hier im SMX Recap mehr lesen.