Das Ranking einer Webseite ist von vielen Faktoren abhängig. Eine sbsolute Basisanforderung stellen technische Faktoren dar. Denn wenn eine Seite nicht bedienbar ist, für Google ein Crawling-Fass ohne Boden ist, extreme Ladezeiten hat oder fehlerhafte Verlinkungen aufweist, ist ein Ranking ebenfalls unmöglich.

Im Folgenden ein kurzer Einblick, welche Bestandteile hierunter fallen.


Crawling Budget & Indexierung

Webseiten werden vom Google Bot gecrawlt (durchsucht). Dies passiert eigentlich automatisch, da Google neue Webseiten über Verlinkungen oder eingereichte Sitemaps findet.

  • Die Software untersucht dabei Inhalte auf der Seite, folgt Verlinkungen auf der Seite, analysiert Bilder etc.
  • Selbst Inhalte, die nur mit aktivem JS geladen werden, kann Google mittlerweile immer besser crawlen.

Crawling Optimierung

Beim Crawling sollte man Goole unterstützen. Denn die Ressourcen, die Google für einzelne Webseiten bereit stellt sind begrenzt. Das sogenannte Crawling Budget sollte daher optimal genutzt werden. Gerade für große Domains, mit einer 5-stelligen Anzahl an Unterseiten (oder höher) spielt es eine große Rolle.

  • In einer idealen Welt gibt es eine URL genau einmal, ohne Parameter, und genau so wird sie auch immer verlinkt.
  • Durch Tracking-, Personalisierungs-, Filter-Parameter etc., entstehen aber oft zig Kopien einer Unterseite. Diese Kopien sollten Suchmaschinen verborgen bleiben oder sie sollten sie zumindest verstehen, damit das Crawling für diese URLs verringert werden kann.

Lösungsansätze sind hierbei: Durch das Maskieren von Links mittels PRG Pattern, können Links/ Filter effektiv für Suchmaschinen verborgen werden. Über die Robots.txt können einzelne Bereiche ausgeschlossen werden. Oder wenn es gar nicht anders geht, muss auf die Parametersteuerung in der Search Console zurückgegriffen werden oder es kommen Canonicals zum Einsatz.

Indexierung

Sobald Inhalte gecrawlt, analysiert und für qualitativ ausreichend befunden wurden, werden sie indexiert.

  • Die Indexierung kann durch die Meta Robots Angabe „noindex“ unterbunden werden.
  • Grundsätzliche sollten nur thematisch passende und hochwertige Inhalte bei Google indexiert werden. Der Rest sollte auf noindex gesetzt werden.
  • Jedoch gibt es auch Ausnahmen. Seiten, die viele externe Links anziehen sollten ebenfalls zur Indexierung freigegen werden.

Bei der Indexierung gilt es auf ein passendes Zusammenspiel zwischen Canonicals, Sitemap, Robots.txt und Meta Robots Angaben zu achten. Sonst können die Anweisungen teilweise nicht ausgelesen oder befolgt werden.

Und weniger ist hier oft mehr: In einem Blogbeitrag von Sistrix wurden Hometogo und Airbnb verglichen. Heute (Anfang 2020) sehen die Wettbewerber so aus:

  • Hometogo hat bei einer site:domain Abfrage 7.160 Seiten im Index
  • Airbnb hat bei einer site:domain Abfrage 1.620.000 Seiten im Index

Und die Sichtbarkeit zeichnet hier ein deutliches Bild (allerdings ist die Ursache sicher noch in weiteren Faktoren zu suchen…):

Vergleich Hometogo und Airbnb
Quelle: Sistrix.de

Robots.txt

Die Robots.txt beinhaltet die Anweisungen für Suchmaschinen. Welche Inhalte dürfen vom Bot gecrawlt werden, welche nicht. So können Bereiche ausgeschlossen werden, in denen sich der Bot nur „tot-crawlen“ würde.

  • Bei einem Shop mit 1000 Produkten und 10 Kategorien könnten so schnell 100.000 oder sogar Millionen von URLs entstehen.
  • Durch unterschiedliche Ansichten, Sortierungen, das Kombinieren von Filtern entstehen zig URLs, die Suchmaschinen in ihren Index aufnehmen würden.
  • In der Robots.txt kann auch ein Verweis auf die Sitemap gesetzt werden.

Hier bietet sich eine Steuerung an – je nachdem was Umsetzbar ist, reichen die Lösungen von: Maskierung von Links, dem Ausschluss in der Robots.txt oder wenn es nicht anders geht, die Steuerung über Canonicals. Tipp: rufen Sie einfach Ihre Robots.txt auf unter Domain.de/robots.txt – dort sehen Sie was blockiert ist, in der Search Console gibt es übrigens auch einen Robots.txt Tester.

Robots.txt Tester
Quelle: Search Console Robotst.txt Tester

Sitemap.xml

Auch eine valide Sitemap ist für Google und die Sichtbarkeit wichtig. Ich habe auf einer Konferenz mal gehört, dass Google das Crawling der Sitemap abbricht, wenn mehr als 1% nicht valide URLs enthalten sind… ob das stimmt? Egal, man sollte es einfach richtig machen:

  • Nur URLs mit dem Status Code 200 in die Sitemap aufnehmen (Also keine 404 Fehler Seiten, keine Weiterleitungen…)
  • Keine fremdreferenzierenden Canonicals
  • Keine URLs die auf Noindex stehen oder durch die Robots.txt blockiert sind
  • Sitemap bei Google in der Search Console einreichen

So kann die Sitemap helfen, Veränderungen auf Unterseiten schnell zu identifizieren und neue Inhalte rutschen schnell in den Index. Eine weitere Unterteilung der Sitemap in eine Index-Sitemap und mehrere Unter-Sitemaps hilft zudem beim Monitoring, was indexiert ist und was nicht. In der Search Console sieht das so aus:

Sitemap.xml
Quelle: Search Console

Canonicals

Mit Canonicals hat Google eine gute Möglichkeit eingeführt, Duplikate zu kennzeichnen. Hierfür wird beim Original und bei den Kopien einfach ein Codeschnippsel, mit dem Verweis auf das Original, integriert.

  • In der Praxis werden Canonicals gern zweckendfremdet, um beispielsweise „Linkjuice“ auf die wichtigen Seiten zu schicken.
  • Gerade beim Einsatz von „noindex“ auf den Seiten-Kopien kann das Noindex auf die Original-Seite vererbt werden – zumindest gab es hier viele Diskussionen und „mixed Signals“ sind nicht zu empfehlen.

Aus den oben genannten Gründen werden Canonicals von Google oft ignoriert. Sie sind nur ein „weiches Instrument“ zur Vermeidung doppelter Inhalte.


Performance

Die Ladezeiten sind heutzutage in aller Munde. Aber was sind denn „diese Ladezeiten“ überhaupt? Es gibt nicht diesen einen Wert. Im Folgenden ein paar Insights und Stichpunkte hierzu.

Welche Werte zählen?

Der in Google Chrome integrierte Lighthouse Report definiert diese Metriken:

Bei der Performance Optimierung achte ich auf jene Metriken, die auch im Lighthouse Report eine hohe Relevanz haben.

  • First Contentful Paint (wann sieht der User erstmal etwas im Browser)
  • Time to Interactive (wann kann der User die Seite bedienen)
  • Speed-Index: Zusammenfassung von FCP, FMP und Time to Interactive.
  • Gesamtgröße der Seite in MB

Wie misst man die Seitengeschwindigkeit

Die Tools meiner Wahl zur Messung von Performance sind Webpagetest.org und der Lighthouse Report.

  • Neben dem genutzten Standort hat natürlich die eingestellte Verbindungsgeschwindigkeit einen erheblichen Einfluss auf gemessenen Werte.
  • Ich nutze immer ein „Worst-Case“ Szenario, nämlich, dass der Nutzer eine mittlere 3G Verbindung nutzt

Nach Eingabe der Domain erhält man einen Bericht mit Tipps zur Verbesserung:

Lighthouse Report
Quelle Lighthouse Report
Webpagetest.org
Quelle: Webpagetest.org

Seit kurzem gibt es auch die Integration in der Google Search Console, die noch nicht ganz optimal hilfreich ist, allerdings Indizien gibt:

Googe Search Console Performance

Caching & Komprimierung

Es werden Serverseitig statische html Dateien erzeugt, die für den User schnell abrufbar sind. So muss kein Inhalt dynamisch erstellt werden, sondern der User erhält ein Abbild der Unterseite, die ein paar Minuten/ Stunden alt ist.

  • Die meisten WordPress Caching Plugins haben auch noch extra Funktionen, wie html und CSS minimieren und über eine Gzip Komprimierung auszuliefern.
  • Auch das Kombinieren von mehreren CSS und JS Dateien zu einer Datei ist bei vielem WordPress Plugins im Funktionsumfang enthalten.
  • Manche Optimierungstechnik kann im Einzelfall auch aus Gründen keinen Sinn machen oder die Kompatibilität einer Seite einschränken. Das muss im Einzelfall geprüft werden.

Umgang mit Bildern

Bilder machen oftmals einen großen Anteil der Datenmengen auf Webseiten auf, daher hat auch ihre Optimierung einen hohen Einfluss auf das Ergebnis.

  • Bilder sollten nur in einer Größe hochgeladen werden, wie sie auch benötigt werden. Ein kleines Bild muss keine 4000px mal 4000px je Seitenkante haben.
  • Bilderformate haben auch Einfluss auf die Dateigröße. So sind Bilder, die über WebP eingebunden sind im Schnitt 25% bis 34% kleiner als jpeg-Dateien.
  • Durch eine gute Bilderkompression kann die Bildergröße, ohne Qualitätseinbußen, verringert werden.
  • Sie sollten nur geladen werden, wenn der User die Bilder im Viewport hat. Sonst lassen sie sich mit „Lazy Loading“ nachladen.

Weiteren Einfluss auf die Performance haben:

  • Der Einsatz eines CDN (Content Delivery Networks)
  • Protokoll HTTP/2 im Webserver aktivieren
  • Externe Inhalte nur asynchron laden und diese nur bedingt einsetzen
  • Inhalte im oberen Bereich priorisiert ausliefern
  • Der Einsatz von Googles AMP ist ebenfalls eine Option, die aber Vor- und Nachteile bietet

Internationalisierung

Die Internationalisierung von Webseiten ist ein komplexes Unterfangen. Es wird oft unterschätzt oder erst im Laufe eines Projekts angegriffen, was zu ernsthaften Herausforderungen führen kann – auch wenn hier Google ziemlich klare Aussagen trifft:

Quelle: Google Internationalisierung von Webseiten

Die Wahl der Domain

  • Alles unter einer generischen Domain abbilden? Als Verzeichnis? Oder Subdomain?
  • Einzelne cc Top-Level Domains für die Internationalisierung nutzen? Sind diese überhaupt noch frei? Was ist mit Randmärkten?
  • Oder was man natürlich leider auch oft sieht: Unter einer cc Top-Level Domain in anderen Märkten auftreten…

Einsatz von hreflang

Hreflang ist das Mittel der Wahl zur Internationalisierung von Webseiten. So können Suchmaschinen erkennen, welche Domain für welchen Markt konzipiert ist:

  • In UK und USA gibt es dann keine Probleme wegen der Währung und wegen der doppelten Inhalte.
  • Über ein X-default kann ein Fallback eingestellt werden, falls der Markt nicht definiert ist (bspw. die englische Version als Fallback)
  • Es können Sprachen oder Länder sowie mehrere Sprachen in einzelnen Ländern unterschieden werden
  • Bei der Nutzung von Canonicals ist erhöhte Vorsicht geboten: Nur URLs, mit selbstreferenzierendem Canonical, dürfen eingehende und ausgehende hreflang-Auszeichnungen besitzen.

Weitere Punkte

  • Im Language-Header korrekte Sprache senden
  • Langfristig sollten Links von gleichsprachigen Seiten verdient werden
  • Die Inhalte sollten natürlich nicht automatisch übersetzt werden, sondern von Menschen (oder zumindest von diesen überprüft werden)

Achtung: User mit einer IP aus einem anderen Land, sollten nicht direkt auf die cc-TLD ihres Landes weiter geleitet werden, aus unterschiedlichen Gründen:


Seitenqualität & Fehler

Im Laufe der Zeit können sich schnell Fehler auf einer Webseite einschleichen, die sich negativ auf die Seitenqualität auswirken. Weder der User, noch der Bot werden die folgenden Punkte mit besseren Rankings belohnen:

  • Broken Links: Also tote Links, die nur auf eine Fehlerseite oder eine nicht mehr existente, fremde Domain zeigen.
  • Weiterleitungsketten: Eine Weiterleitung zeigt auf eine Weiterleitung, auf eine Weiterleitung und so weiter.
  • Status Codes: Eine erreichbare Seite, eine dauerhafte oder permanente Weiterleitung – sie alle haben einen klaren Status Code. Und genau dieser sollte genutzt werden und kein anderer.
  • HTTPs: Es ist schon beinahe als Fehler zu bezeichnen, wenn eine Seite nicht unter einer SSL Verschlüsslung läuft. Ebenfalls achten sollte man auf mixed Content (also Inhalte, die teilweise noch nicht verschlüsselt sind).
  • Fehlende Alt-Angaben bei Bildern
  • Verwaiste Seiten, die kaum eingehende Links haben. Gerade bei Blogsystemen oft der Fall
  • Suboptimale oder fehlende Meta-Angaben, bezogen auf Länge, Inhalte und Darstellung.

All diese Punkte lassen sich teilweise in der Search Console, noch besser aber über Tools wie Ryte oder den Screaming Frog rausfinden. Nach einem Crawl lassen sich die Punkte priorisieren und abarbeiten.

Screaming-Frog
Quelle Screaming Frog

Neben externen Tools nutze ich aber auch immer die Google Search Console. Hier erhält man beispielsweise auch URLs, die nicht mehr intern verlinkt sind. Das kann zum Beispiel eine PDF Datei sein.


Seitentemplate Analyse

Es macht absolut Sinn für häufig eingesetzte Content-Formate einzelne Templates zu erstellen. Sie vereinfachen die Eingabe und sorgen für ein Mindestmaß an Qualität, Struktur und Usablity. Aber auch aus SEO-Sicht können diese gut oder schlecht strukturiert sein. SEO und UX gehen hierbei auch Hand in Hand:

Headline-Strukturen

  • Ist die Headlinestruktur korrekt eingesetzt? Es gibt eine h1 Headline, sowie zugehörige H2 und dazu zugehörige H3 Headlines und so weiter.
  • Auch wenn die Rolle dieses Faktors immer weiter abnimmt, muss man das nicht falsch machen.

Tipp: Hier kann man mit dem Plugin SEO-Meta in 1 Click einfach die H-Auszeichnungen nachprüfen:

Headlinestruktur

Interne Verlinkungen

Interne Verlinkungen sollten auch aus dem Content kommen. Fest verbaut sind sie allerdings meist im Template. Das kann eine Breadcrumb sein, im Footer, in der Sidebar o.ä.

  • Es sollten sprechende Linktexte genutzt werden, die jeweils eine bestimmte Nische anvisieren und nicht zu ähnlich sind.
  • Die Links sollten auf die wichtigsten Seitenbereiche zeigen ggf. sogar teilautomatisiert gesetzt werden.

Breadcrumb

Die Brotkrümelnavigation dient dem User zur Orientierung und zur Navigation. Sie kann ebenfalls für Google konform ausgezeichnet werden:

  • Eine Auszeichnung mit Schema.org macht sie für Google verständlich
  • Dadurch werden die eingerückten Abstände in der Google Suche bei der URL vergeben

Schema.org Auszeichnungen

Grundsätzlich sollte man die Domain, die Templates überprüfen, ob es nicht noch eine sinnvolle Anwendung von Schema.org gibt. Mit dieser Auszeichnungssprache werden die Inhalte für Google verständlich gemacht.

  • Anstatt von Wörtern und Zahlen, wie: „Bewertung: 3,6 – ‎1.957 Abstimmungsergebnisse“ oder Zubereitungszeit „‎1 Std.“ oder „‎Kalorien: 270“ erkennt Google genau, was damit gemeint ist.
  • Über Schema.org können bestimmte Inhaltstypen ausgezeichnet werden. Zum Beispiel Rezepte, Bewertungen, lokale Organisationen, Personen… und so weiter
  • Die Integration auf der Webseite wird oft mithilfe von JSON-LD realisiert.
  • Und so versteht Google plötzlich den Kontext und nicht mehr die reinen Worte und Zahlen auf einer Seite.
  • Besonders spannend sind die Auszeichnungen auch deshalb, da sich dadurch direkt die Klicks erhöhen lassen – durch Rich Snippets (also angereicherte Snippets). Aktuell sieht man das deutlich bei den FAQ-Snippets.

Im Ergebnis profitiert nicht nur Google, sondern auch der Seitenbetreiber durch schöne Snippets:

Screenshot Rich Snippets
Quelle Google

Aber natürlich nur, wenn das Testing Tool keine Fehler mehr ausspuckt:

Google Testing Tool
Quelle: Google Rich Snippet Testing Tool

Fazit

Die oben genannten Punkte sind nur ein Ausschnitt aus den Prüfungen, die eine Webseite bei einem Audit durchläuft. Je nachdem was man findet, werden noch andere Facetten betrachtet. Technisches SEO ist oftmals nur noch entscheidend für ein gutes oder schlechtes Ranking, wenn es um wirklich große Webseiten geht oder die Fehler sehr gravierend sind. Das liegt daran, dass Google viele (falsche) Entscheidungen netterweise nicht wertet und den Webmaster so vor sich selbst schützt.

Dennoch lohnt es sich die Hausaufgaben im technischen SEO zu machen, denn in umkämpften Märkten optimiert man eben in den letzten 10%. Und da kann eine Schema.org Auszeichnung, bessere Performance Werte o.ä. eben doch das Zünglein an der Wage sein.