„SEO ist tot“ wird in der SEO-Szene oft skandiert. Allerdings oft von jenen, die von den Veränderungen bei Google nicht profitieren können. Das liegt beispielsweise an rückläufigem Potential zu einzelnen Keywords, aufgrund von Google Integrationen, Fokus auf SEA, Suchen ohne Klicks (Details bei Sparktoro).

Der häufigste Grund für Traffic-Einbußen sind allerdings Verschiebungen in den Rankings – durch Veränderung der Gewichtung bzw. neuen Ranking-Faktoren – und damit weniger Klicks.

Dieser Beitrag bietet einen spielerischen Einblick in die Veränderungen der Bewertungsfaktoren, zwischen 2009 und 2020. Früher war es leicht möglich durch Ausnutzung einzelner Ranking Faktoren künstlich gute Rankings zu erzeugen. Heute ist das mindestens schwerer, für viele kompetitive Nischen aber nahezu unmöglich. Es werden konkrete Beispiele genannt und abschließend konkrete Tipps und Tools aufgeführt.

Phase 1: Spam

Googles begrenzte Fähigkeiten prägen Suchergebnisse. SEO‘s nutzen dies zu ihrem Vorteil.

Eine Auswahl beliebter Spam-Techniken möchte ich exemplarisch vorstellen. Sie werden zum Teil heute noch genutzt.

Keywordstuffing

Keywordstuffing: Durch X-Fache Platzierung des Wortes wird eine hohe Wortdichte erzeugt. Das wurde damals als Relevanzsignal positiv belohnt. Ob das für den User einen gut lesbaren Text erzeugte, war damals Nebensache. Der Screenshot stammt von einer Webseite mit einer hohen Sichtbarkeit im stark umkämpften Finanz-Umfeld aus dem Jahr 2009-2011 – alle eingefärbten Wörter beinhalten das Wort „Kredit“.

Keywordstuffing

Quelle: Archive.org

Doorway Pages

Aufbau Doorway Pages: Aufbau von Unterseiten zum selben Thema, mit diversen Keywordvarianten. Bekannt wurde das Thema auch in den Medien, als BMW nicht mehr in der Google Suche aufzufinden war. Hierbei wurden Unterseiten mit Keywords angereichert – für die Suchmaschine. Für den User blieben diese Inhalte verborgen, diesem wurde eine wesentlich schönere Seite gezeigt.

BMW Doorway Pages

Quelle: Archive.org

Spin Content

In einem Test habe ich auf Namenstaggeschenke.de (nicht mehr aktiv) Inhalte „auf Knopfdruck“ umgeschrieben. Mit einer Software lassen sich für einzelne Begriffe durch Synonyme austauschen. Eine Headline sah beispielsweise so aus:

{{Richtig|Akkurat|Fehlerfrei|Genau|Gewissenhaft|Korrekt|Ordentlich|Präzise} {Informationen|Info’s|Infos} {finden|aufspüren|aufstöbern|auftreiben|ausfindig machen|suchen}|Nach {passenden|geeigneten|tauglichen} {Informationen|Info’s|Infos} {suchen|stöbern|ausschau halten}|{Auf der {Suche|Recherche} nach {Informationen|Info’s|Infos}}

Und erzeugte Variante wie:

  • Richtige Informationen finden
  • Nach tauglichen Infos stöbern
  • Auf der Recherche nach Informationen

Mit einem solchen Spin-Text entsteht ein nahezu einzigartiger Text, der aber auch für den User oft sehr fragwürdig zu lesen ist.

Spin Texte

Quelle: Eigene Darstellung

Mit dieser Technik kann man massenhaft, schnell Seiten erzeugen und diverse Top 10 Platzierungen einnehmen – zumindest damals.

Sichtbarkeit Namenstag

Quelle: Sistrix.de

Contentfarmen

Eine bekannte Contentfarm war damals Suite101. Hier wurde zu jedem Thema Stellung genommen, vorwiegend, um den Google Traffic abzugreifen. Leser konnten Ratschläge zu jedem Lebensbereich finden, in knappen, auf bestimmte Keywords optimierten Beiträgen. Hier ein Beispiel zum Thema Zungenpflege, mit mehr oder weniger gehaltvollem Inhalt:

Abgesehen davon, dass die Zunge manchmal zum non-verbalen Kommunizieren verwendet wird, ist die Zunge zum Sprechen und Schmecken da – siehe auf Archive.org

Screenshot Suite101

Quelle: Archive.org

Und das brachte einiges an Traffic ein. 2010 lag die Sichtbarkeit bei Werten zwischen 60 und 80. Ich vermute, dass hier monatlich Traffic-Ströme über Google im 7- bis 8-stelligen Bereich zustande kamen.

Sichtbarkeit Suite101

Quelle: Sistrix.de

Linkspam

Das größte Thema war (und ist es auch heute noch oft) die Manipulation der Rankings über Backlinks. Denn Googles hat sich gegenüber anderen Suchmaschinen vor allem wegen dem „Page Rank“ Algorithmus durchsetzen können. Der Verknüpfungen zwischen unterschiedlichen Webseiten analysiert und bewertet.

  • In einer Umfrage von SEO-United aus dem Jahr 2010 zu den Top Ranking Faktoren, waren in den Top 10, alleine 6 Linkbezogene Faktoren.
  • Google’s Andrey Lipattsev (Search Quality Senior Strategist) nannte 2016 in einem Google Hangout Backlinks als einen der drei top Ranking Faktoren.
  • Und auch heute haben sie einen großen Einfluss und werden zur Rankingbewertung genutzt, aber es ist durchaus komplexer geworden, Details würden hier den Rahmen sprengen.

Schrott-Blogs mit Backlinks gespickt:

Um Backlinks zu bekommen wurden massenhaft Webseiten aufgebaut, um sich über das eigene Netzwerk zu verlinken. Ganze Blog-Landschaften entstanden, mit sehr fragwürden „Blogbeiträgen“, gespickt mit externen Verlinkungen. Ganz nach dem Motto „Every Link counts“ und am besten noch mit einem Keyword verlinkt:

Spam Links

Quelle: Archive.org

Das Maß der Manipulation war mindestens fragwürdig: Es wurden Links eingekauft, getauscht, über Generatoren und Widgets etc. verbreitet…Über Tools konnten Backlinks automatisiert aufgebaut, in Kommentaren, Foren, Freeblogs, Wikis, Bookmarkverzeichnissen und so weiter.

Beispiel von gehackten Seiten:

Es wurden sogar Seiten gehackt, um diese anschließend als Backlink-Geber zu missbrauchen – unter anderem Universitäts-Webseiten.

Expired Domain wird reaktiviert:

Wenn eine Domain „expired“ (also der Pachtvertrag ausläuft), ist sie auf dem freien Markt wieder verfügbar. Diese wurden registriert und das Vertrauen, dass diese vor allem durch die Backlinks hatten, für andere Zwecke genutzt. Siehe das folgende Beispiel:

Und dies wurde von Google offensichtlich auch mit guten Rankings belohnt und erst nach Bekanntwerden des Sachverhalts manuell korrigiert.

Kommentarspam

Selbst heute gibt es noch genügend SEO’s, die Kommentarspam für ihre Zwecke einsetzen. Was anfangs zum Zwecke des Austausches gedacht war, artete in eine Flut aus Spam aus…

  • Nicht umsonst hatte ich mit einer Webseite für einige Zeit ein Ranking für „Franzi“ (da ich mit diesem Pseudonym auch Spam verbreitet habe).
  • Im Sistrix Blog wurden Grüße an Bernd Sonnensegel ausgerufen.
  • Mithilfe von Tools lassen sich in kürzester Zeit 100.000 Kommentare automatisiert setzen (inklusive Namensgenerator, Proxys für andere IP-Adressen, diversen Mailadressen, Spin Content…).
  • Im folgenden Beispiel Links aus dem Jahr 2017 (!), aus einer Kommentarspalte – selbst eine SEO Agentur baut solche Links für sich auf, kein Kommentar dazu.
Kommentarspam

Quelle: Kommentarspalte eines Blogs

Zwischenfazit Phase 1:

Ich habe mir vor ein paar Monaten mal aus Interesse ein paar Linkpakete auf Fiver gekauft, einfach aus Nostalgie und um zu sehen, welche „High-Quality“ Links ich wohl bekomme. 😀 Es war ein bunter Mix aus Freeblogs, gehackten Mittelständern, Bookmarks, Artikelverzeichnissen und so weiter. Es hat sich nichts verändert!

Es war eine wilde Zeit. Ich fand sie unglaublich spannend. Es gab viel Bewegung, Entwicklung und es fühlt sich ein bisschen wie der Wilde Westen an. Ich habe all diese Techniken ausgiebig eingesetzt – wie jeder andere SEO in dieser Phase. Denn nur so konnte man im Rennen um Top-Platzierungen mithalten. Das hat aber nicht nur die SEO-Szene in Verruf gebracht, sondern auch die Qualität der Suchergebnisse. Google hat hierzu eine Reihe von Updates auf den Weg gebracht und verfeinert diese auch heute noch. Dazu mehr im nächsten Kapitel.

Phase 2: Spamoffensive & Qualitätsupdates

Google geht radikal gegen Manipulation vor: User first!

Schon immer versucht Google dem User die besten Ergebnisse zu liefern. Nicht aus Nächstenliebe, sondern aus anderen Gründen. Daher geht Google schon immer gegen Manipulation der organischen Ergebnisse vor. Im Folgenden möchte ich ein paar richtungsweisende Updates vorstellen:

Google stärkt Marken (Vince Update)

„Brands are the solution, not the problem… Brands are how you sort out the cesspool.“ sagte der damalige Google CEO Eric Schmidt 2008. Und das setzten sie dann auch um, im sogenannten Vince Update:

Vince Update

Screenshot aus meinem 1und1 Vortrag auf Slideshare

Mit dem Update waren bis dahin weniger gut online auffindbare, in der Offline Welt aber gefragte Marken, deutlich besser auffindbar. Das Bild zeigt die Bundesagentur für Arbeit. Die nach damaligen SEO-Maßstäben äußerst schlecht gestaltet war:

  • 8x h1 Überschriften
  • einen nichtsagendenden Title ohne Keywords „Startseite – arbeitsagentur.de“
  • Und natürlich ohne Description

Update gegen Content Spam (Panda Update)

Das Panda Update beendet Herrschaft der Content Farmen. Die wesentlichen Trigger sind hierbei wertlose Inhalte, zu viel Werbung, nicht einzigartige Inhalte.

  • Sogenannte Serp-in-Serp Seiten waren betroffen (beispielsweise eine Suchergebnisseite in einem Shop mit einem Produkt und 4 Werbeblöcken)
  • Contentfarmen und Affiliate Seiten mit „Thin-Content“
  • Am Sichtbarkeitsverlauf der bereits erwähnten Contentfarm Suite101 lässt sich die Wirkung vom Panda Update gut erkennen: Seit der Einführung gab es mehrere Iterationen und Verfeinerungen des Updates.

Quelle: Sistrix

Linkspam Update (Penguine)

Googles Penguine Update straft unnatürlichen Linkaufbau ab. Die wesentlichen Trigger sind hierbei: Gekaufte, getauschte, manipulierte Links von schlechten Quellen, Links aus bekannten Netzwerken und mit unnatürlichen Mustern.

  • Dies betrifft beispielsweise Links deren Linktexte kaum variieren, zu selten Brand-Texte beinhalten und so weiter.
  • Bekannte Linkverkauf-Netzwerke lassen sich von Google einfach erkennen. Diese Links wirken nicht mehr oder sogar negativ.
  • Im Zuge dieses Updates, und deren Iterationen, gewannen auch Linkaudits und das Disavow Tool (Zur Linkentwertung) an Bedeutung.

Im folgenden Beispiel eine Gutschein-Seite, deren Linkprofil auf wenig Wohlwollen durch Google traf. Die erste Iteration trat im Frühling 2012 in Kraft.

Sichtbarkeit Gutscheinseite

Quelle: Sistrix.de

Language Updates

Google hat auch viel in der Verarbeitung und im Verstehen der Suchanfragen verbessert. So gab es ein paar richtungsweisende Updates, die die Interpretation von Suchanfragen oder die Verarbeitung von semantischen Bezügen betrafen.

  • Das Kolibri Update (Ende 2013) bezog sich in erster Linie auf Sprachsuchen und die korrekte Interpretation der Interpretation. Auch semantische Bezüge wurden hierbei verbessert.
  • Rank Brain (Anfang 2015) verhalf Google mithilfe künstlicher Intelligenz, erstmals gestellte Suchen besser zu interpretieren.
  • Das Bert Update (Ende 2019) half Google auch Long Tail suchen mit feinen Unterschieden besser zu beantworten. So wurde bislang beispielsweise bei einer Suche nach „Parken am Berg ohne Handbremse“ dem Wort „ohne“ zu wenig Beachtung geschenkt. Dies wurde geändert.

Weitere Qualitätsupdates

Bei einer Reihe von Qualitätsupdates (Phantom Updates, Core Updates, Medic Update, Unknow Updates) wurden die Nutzerintention & -werte noch stärker gewichtet.

  • Trigger waren an dieser Stelle ein Mismatch zwischen der Erwartung der User und den tatsächlich gebotenen Inhalten, hohe Bounce Rates usw.
  • Es ist anzunehmen, dass die Auswahl durch die Masse an Daten und deren Interpretation automatisiert über Machine Learning Algorithmen ablief. Google hat hier nur die Relation der Faktoren verfeinert.
  • Es gab auch schon Aussagen von Google Mitarbeitern, dass diese auch nicht genau wissen welche Ranking Faktoren nun zum Tragen kämen, da die künstliche Intelligenz mittlerweile eine sehr große Rolle spielt und dies übernehme. Und das glaube ich ihnen sogar!

Google setzt seit einigen Jahren immer stärker auf Machine Learning, eine Schlüsselperson war John Giannandrea – der den Bereich der künstlichen Intelligenz bis 2018 verantwortete. Hier verschwimmen die Ranking Faktoren immer mehr. Denn Branchen, sogar einzelne Suchanfragen unterliegen anderen Ranking-Kriterien. So lässt sich heute gar nicht mehr so leicht sagen woran es im Einzelnen liegt. Man muss mehr die Summe der Faktoren betrachten und, gerade bei umkämpften Nischen, „alles“ richtig machen.

Und diese Qualitätsupdates haben es in sich: Sie bringen extreme Schwankungen in den SERPS mit sich. Was sie im Folgenden sehen bedeutet eine Verschiebung großer Besuchermassen vom einem zum anderen Portal. Im gewählten Beispiel, Webseiten aus der Gesundheitsbranche. Einem sensiblen Bereich – von Google als YMYL (Your Money Your Life) bezeichnet. Hier kommen die sogenannten EAT (Expertise, Authority, Trust) Faktoren besonders zum Tragen.

Rankingverschiebungen

Quelle: Sistrix.de

Take-Aways: Was zählt heute?

Laut Google reicht es den User in den Mittelpunkt zu stellen. Und es ist tatsächlich so „einfach“.

Ich unterteile die Google Ranking Faktoren in aller Regel in vier Bereiche: Technische Qualität, Content Qualität, Linkqualität und die User Signale. Wenn in diesen 4 Ebenen eine hervorragende, dem Konkurrenten überlegende Leistung abgegeben wird, sind gute Rankings sehr wahrscheinlich.

Brauchen Sie Unterstützung bei Ihrer Suchmaschinenoptimierung? In einem unverbindlichen und kostenlosen Erstgespräch können wir Ihr Anliegen besprechen ⇒ Jetzt Kontakt aufnehmen

Saubere technische Basis

Mit einer sauberen technischen Basis fängt alles an. Weder der Bot, noch der User kann eine Seite gut bedienen und sich wohl fühlen, wenn die Seiten den Grundanforderungen nicht genügt. Auf ein paar Punkte gehe ich exemplarisch ein und stelle ein paar Tools vor:

Performance!

Performante Seite, die dem Nutzer schnell die ersten Inhalte bieten. So sieht er, dass er auf der richtigen Seite gelandet ist. Inhalte außerhalb des Viewports, Bilder und Co können auch später geladen werden. Zwei Tools möchte ich an dieser Stelle empfehlen. Nach Eingabe und Prüfung der Domain erhält man Verbesserungsvorschläge:

Mobile Friendly

Indexabdeckung & Broken Links

Keine Broken Links, Crawling Fehler, Soft 404, falsche Indexierungseinstellungen etc. Das kann perfekt in der Search Console geprüft und erkannt werden:

Webmaster Tools

Quelle: Indexabdeckung in der Search Console

Korrekte Headlinestrukturen helfen Suchmaschinen den Inhalt besser zu verstehen. Tipp: Hier kann man mit dem Plugin SEO-Meta in 1 Click einfach die H-Auszeichnungen nachprüfen:

Headlinestruktur

Ein funktionierendes Setup zur Internationalisierung. Tipp: Hier gibt es ein kostenloses Tool von Sistrix, den Hreflang Validator.

hreflang-Auszeichnung

Quelle: Sistrix Hreflang Validator

Keine Fehler in der Robots.txt

robots.txt

Weitere Punkte

  • Nutzung von Schema.org Auszeichnungen
  • Unique Content und keine identischen Inhalte unter mehreren URLs
  • Sprechende URLs und logische, flache URL-Hierarchien
  • Gelerntes Design und Grundlagen der UX
  • Der Korrekte Einsatz von Status Codes
  • Crawlingfreundliche Inhalte ohne Dupletten, sinnfreien Parametern usw.
  • Clevere Indexierungseinstellungen, nur das Beste für Bot und User
  • SSL-Verschlüsselung ist heutzutage gelernter und erwarteter Standard
  • Einsatz von JS und CSS: Man darf weder cloaken, noch wichtige Links/ Inhalte nachladen
  • Valide Sitemap, ohne fremdreferenzierende Canonicals, Noindex URLs, oder URLs die nicht den Status Code 200 aufweisen
  • Korrekter Einsatz von Canonicals

Natürlich gibt es genau für diese Punkte eine Reihe toller Tools. Meine Favoriten sind hierbei Screaming Frog, Ryte, Webmaster Tools.

Content Qualität

Die Inhalte (Text, Video, Bilder, Anwendungen) sind heute ein zentraler Bestandteil jeder Suchmaschinenoptimierung und haben den externen Verlinkungen in ihrer Wichtigkeit oftmals den Rang abgelaufen. Auch hier ein paar Stichpunkte, worauf Wert gelegt werden sollte:

User Intent

Der User Intent muss zwingend getroffen werden, sonst sind gute Rankings nicht (nachhaltig) möglich. Das bedeutet beispielsweise:

  • Für eine Suche nach „Frisurentrends 2020“ erwartet der User Bildmaterial, daher muss das auch geboten werden.
  • Für eine Suche nach „Gründung der Bundesrepublik“ wird ein tiefgehender Beitrag erforderlich sein.
  • Für eine Suche nach „Brutto Netto“ möchte ich einen Rechner finden.

Was erwartet wird, sieht man auch an den Google Integrationen zu einer Suche und den Inhalten, die bereits gute Rankings einnehmen.

Baue ein Welt um dein Thema

Durch Suggest-Scraper lassen sich einfach Unterthemen zu einem Hauptkeyword/ Thema finden. Diese Themen sucht der Nutzer, er erwartet sie zu einem Thema zu finden. Was liegt also näher diese Keywords in Themen zu clustern und für jedes Thema eine nützliche Unterseite zu erzeugen: Überzeugen Sie selbst am Beispiel meiner Seite taufgeschenke-ideen.com, genau diese Inhalte sind vertreten (und ranken auch gut):

Guter Content

Baue die besten Unterseiten zu einem Thema. Ich erarbeite hier pro Unterseite ein eigenes Briefing. Dieses orientiert sich am User Intent, also der Erwartungshaltung des Users. Diese lassen sich durch Keywords gut herauslesen, durch W-Fragen Tools, durch Betrachtung des bisherigen Angebots.

Das Auge isst mit

Keiner möchte sich aus einem 18-zeiligen Absatz die wichtigsten Informationen heraussuchen müssen. Durch kurze Abschnitte, Zwischenüberschriften, Listenelementen, Bilder, Videos, Fettmarkierungen, Tabellen etc. wird guter Inhalt erst zugänglich.

Korrekte und nützliche Inhalte von Experten

Die Inhalte sollten natürlich von fachkundigen Experten verfasst werden. Sie sollten grammatikalisch korrekt sein und einen echten Mehrwert bieten. Gerade die letzten Qualität Updates zielten auf diesen Punkt ab. In diesem Zusammenhang sind auch die Google Quality Rater Guidlines zu empfehlen.

Quality Rater Guidelines

Keywords still matter!

Nutzung von Keywords (nicht exzessiv, aber an Schlüsselstellen) auf der Webseite, ich empfehle sie an dieser Stelle.

  • Meta Angaben (Title und Description)
  • Headlines
  • Im Text
  • für interne Linktexte

Die Häufigkeit spielt hier eine untergeordnete Rolle. Wichtiger ist eine semantische Vielfalt, Proof Keywords und so weiter…

Weitere Punkte

  • Wichtige Inhalte nicht verstecken (zuklappen)
  • Interne und externe Verlinkung auf weiterführende Inhalte und Quellen
  • Die richtige Reihenfolge der Informationen
  • Contentstruktur und Festlegung von Keywords je Unterseite, zur Vermeidung von Kannibalisierung
  • Einsatz von Headlines, Befüllung der Meta Angaben
  • Aktualität: Inhalte sollten aktuell gehalten und laufend überarbeitet werden.
  • Je nach Thema sollte die Sprache einfach gehalten und Schachtelsätze vermieden werden.
  • Bilder sollten von hoher Qualität, aber nicht zu groß sein (Stichwort Seitengröße). Sie sollten sinnvoll benannt und deren Alt-Tag ausgefüllt sein.
  • Nutzung aktueller Chancen, wie beispielsweise die FAQ-Auszeichnung mithilfe von Schema.org

Offpage Qualität

Mit Offpage SEO war früher schlicht und einfach der Linkaufbau gemeint. Und damit zumeist recht spammige Methoden. Heute sollten SEO das anders verstehen, allerdings gibt es auch noch die „oldschool“ SEO’s und beispielsweise dieses Angebot auf Fiverr.com:

Fiverr Backlinks

Quelle: Fiverr.com

Brand Suchanfragen

Zum Offpage SEO gehört für mich auch die Höhe der Brand-Suchanfragen. Ich kann mir gut vorstellen, dass diese Markensignale von Google beachtet werden.

Wenn Beispielsweise nach „Adidas Sportschuh“ deutlich stärker gesucht wird als nach „Nike Sportschuh“, sollte sich das auch in den Rankings wiederfinden. (Das ist meist nicht so, da natürlich die Optimierung der einzelnen Wettbewerber eine elementare Rolle spielt! Falls beispielsweise keine Unterseite dazu existiert, kann auch kein Ranking durch die Marke eingenommen werden.)

Mentions

Inwiefern Mentions eine Rolle spielen ist nicht zu bewerten. Ich denke das Signal ist für Google „zu noisy“. Allerdings könnte es eine gewisse Rolle spielen, wenn im Kontext eines Themas immer wieder eine bestimmte Marke bzw Person auftaucht (auch wenn diese nicht verlinkt ist). Diese findet ihr übrigens recht einfach über eine ensprechende Google-Suche:

Google Mentions

Zu einer Autorität werden

Es sollte der Anspruch sein, in seiner Nische eine Autorität zu werden. Das kann eine Nennung bei einer Berichterstattung sein oder sich in Form von Interviews, Gastbeiträge und Messeauftritten einbringen. Je nachdem wo die Zielgruppe anzutreffen ist. Google kann hier durchaus Zusammenhänge herstellen einen „Expertenbonus“ vergeben.

Backlinks

Backlinks sind ein klarer und starker Ranking Faktor – in beide Richtungen. Sie können eine Webseite deutlich nach vorne bringen oder deren Sichtbarkeit deutlich beschränken. Auch manuelle Penaltys werden hier vergeben. Für mich haben gute Links diese Merkmale:

  • Ein guter Link ist themenrelevant und bringt Besucher, idealerweise konvertierende Besucher
  • Domains, die auch auf Eskort, Viagra und sonstige Inhalte verlinken sind unseriös und werfen kein gutes Bild auf die eigene Domain
  • Der Linktext sollte natürlich aussehen und mit brand „www.domain.de„ oder „Domain“ verlinken, nicht mit „Keyword X“ (bzw. nur ein geringer Anteil an Links)
  • Ich rate davon ab Links zu kaufen und tue dies auch für Kunden nicht. Dieses Vorgehen ist entgegen der Google Webmasterrichtlinien und können nachhaltig schaden.
  • Gute Links werden durch gute Inhalte verdient.
  • Die verlinkende Domain sollte selbst Besucher, Sichtbarkeit und eingehende Verlinkungen haben.
  • Auf der Seite selbst sollte nicht auf extrem viele andere Seiten verlinkt werden.
  • Der Link sollte in einem redaktionellen Beitrag verankert sein mit gutem, nützlichen Umgebungstext.
  • Links sollten stetig wachsen, in einem natürlichen Tempo.
  • Schlechte Links sollten hin und wieder (oder anlassbezogen) abgebaut bzw. durch eine Disavow File entwertet werden.
  • Links sollten nicht nur aus einem Netzwerk kommen, beispielsweise 20 eigener Domains.

Und wie baue ich nun Links auf?

Gehört habt ihr es alle schonmal, das Zauberwort lautet „Content Marketing“. Schafft herausragende Inhalte für eine Interessensgruppe aus eurer Nische und vermarktet es entsprechend.

Ebenfalls können diese Quickwins helfen:

  • Partner/ Freunde ansprechen, ob Verlinkung möglich ist (aber nur wenn Qualität gewährleistet werden kann)
  • Alle Firmenkanäle verlinken (Xing, Facebook, Linkedin, Twitter…)
  • In themenrelevanten Foren an Diskussion beteiligen und wenn es für den User einen Mehrwert darstellt, einen Link setzen
  • Regionale Partnerschaften mit Presse/ Bloggern suchen und Inhalte anbieten (Interviews, Besuch im Unternehmen, Studien…)
  • Guter Content ist ein guter Weg zu mehr Links, das können Fallbeispiele, Studien, Videos sein. Dieser muss noch aktiv verbreitet werden (=Seeding)
  • Konkurrenz analysieren und daraus lernen, welche Inhalte Links anziehen

User Signale

Einen Teil der entsprechenden User Signale habe ich ja schon bei den oberen Punkten erwähnt (Brand Searches, User Intent…).

  • Alles was in der Google Suche passiert, kann von Google registriert werden: Klickraten, No-Klicks, Klicks auf Maps, Bildersuche, Youtube…
  • Google hat über seine anderen Technologien (Android, Chrome, Analytics, Gmail, Adsense, Google Plus 😉, Google Fonts, Google Maps, Youtube…) eine brachiale Masse an Daten. Unglaublich!

Wie diese Daten nun genutzt, kombiniert und interpretiert werden ist Spekulation. Allerdings ist es naheliegend, dass…

…Klickraten eine Rolle spielen

  • Wenn Platz 2 im Schnitt 16,08% der Klicks erzielen und ich 19% erreiche ist das ein positives Signal.
  • Wenn der User dann auch noch länger als beim Konkurrenten auf Platz 1 auf der Seite verweilt ist das ebenfalls ein Proof meiner Seitenqualität. Das geht natürlich auch in die andere Richtung.

…Short-Klicks & Bounce Rate & wiederkehrende Besucher ausgewertet werden können

  • Wenn der User nach einem Seitenbesuch gleich wieder in die Google Suche springt und zum nächsten Ergebnis geht, verheißt das nichts Gutes für meine Rankings.
  • Ein hohes Maß an wiederkehrenden Besuchern ist sicherlich auch ein gutes Zeichen.
  • Die Bounce Rate wird oft als „kritischer“ Wert gesehen, darf aber nicht isoliert betrachtet werden.
  • Die Seitentiefe ist stark vom Seitentypus abhängig.

Tipp: Betrachtet die Werte immer in Kombination auf URL Ebene: So kann ein User der abspringt glücklich sein und die gewünschten Informationen gefunden haben.

  • Bei einer Suche nach „Karneval Termin“ hat der User nach 3 Sekunden seine Suche befriedigt und springt ab. Ergebnis: Hohe Bounce Rate und geringe Verweildauer.
  • Das sollte aber nicht für alle Seitentypen gelten. Blogbeiträge haben meist hohe Verweildauern und tendenziell hohe Absprungraten. Hubseiten haben geringe Verweildauer und Bounce Rate und eine hohe Seitentiefe.

Summary: Wie funktionieren Ranking Algorithmen?

Es gibt eine Reihe von Hygiene Faktoren und dann ist die Google Suche eine Art Börse. Jeder hat die Chance zu jedem Keyword 100 Punkte zu verdienen, nur ist die Verteilung der oben genannten 4 Bereiche jeweils anders. In dieser stark vereinfachten Darstellung habe ich die Ebenen festgehalten.

Google Ranking einfach erklärt

  • Ebene 1: Durch unzureichende technische Qualität scheiden einige aus. Diese Seiten sind für Google schlichtweg nicht zu verarbeiten.
  • Ebene 2: Andere Seiten sind für Google nicht korrekt zu interpretieren, da keine Keywords genutzt werden oder die Content Qualität ist unzureichend. Die Relevanz wird nicht erkannt oder als schlecht beurteilt.
  • Ebene 3: Nehmen wir an es sind nun noch 1000 Seiten übrig. Wie würden wir uns entscheiden in welches Restaurant wir essen gehen, wenn es 1000 Stück gibt? Wir suchen nach Empfehlungen (= Links und Co). Es geht also um die Popularität
  • Ebene 4: Jetzt sind wir schon in der Baumkrone angelangt. Allerdings lassen sich Ebene 1-3 gut manipulieren. Daher setzt hier der Machine Learning Algorithmus an. Er rechnet nun aus, was Spreu und was Weizen ist, unter anderem anhand von User Werten – ein schwer zu manipulierender Faktor. Es ist ein Proof, dass Ebene 1 bis 3 korrekt gearbeitet haben. Und derjenige mit den besten User-Werten gewinnt heutzutage oft das Rennen.

Brauchen Sie Unterstützung bei Ihrer Suchmaschinenoptimierung? In einem unverbindlichen und kostenlosen Erstgespräch können wir Ihr Anliegen besprechen ⇒ Jetzt Kontakt aufnehmen

Ich hoffe Euch hat die Zeitreise gefallen. Über Feedback freue ich mich immer, auf Facebook, Twitter & Co.