Wenn wir Websites auditieren, Chancen und Fehler finden und Maßnahmen priorisieren, müssen wir uns Folgendes ständig fragen:
- Wie schlimm sind die Fehler, wie teuer ist das Beheben?
- Wie groß sind die Chancen und wie viel Ressourcen frisst das Heben der Potenziale?
Wenn ich eine Wand blau streichen möchte, kann ich die Kosten ziemlich gut abschätzen und mir sicher sein: Hinterher ist sie blau. Der Ausgang der Maßnahme ist deterministisch. Was passiert, steht schon vorher fest, wenn wir Ärgernisse mit Handwerkern oder meine eigene Ungeschicklichkeit mal außen vor lassen. Es gilt die "Wenn-Dann-Logik".
Beim SEO-Erfolg hantieren wir mit Wahrscheinlichkeiten
In den SEO-Anfangstagen war es vielleicht noch möglich, aus den Suchergebnissen abzuleiten, an welchen Faktoren Du arbeiten musst, um bessere Rankings zu bekommen. Keywords, Links, Ankertexte... Der Zusammenhang zwischen Ursache und Wirkung war relativ kausal.
Heute sind Suchmaschinen wie Google deutlich komplexer. Zu Content und Links ist die User Experience dazugekommen. Die Suchintention spielt eine größere Rolle. Verschiedene Websites wie Shops vs. Wikis vs. Zeitungen vs. Dienstleister vs. Foren werden je nach Suchkontext ganz unterschiedlich behandelt.
Das SERP-Design und die Content-Formate unterscheiden sich erheblich. Die schiere Menge an Webinhalten macht eine Indexierungsgarantie unmöglich. Suchmaschinen werden wählerischer.
Diese und noch viele weitere Komponenten machen die organische Suche zu einem komplexen System, bei dem wir nicht mehr von deterministischen Zusammenhängen ausgehen können.
-
Viele Backlinks sorgen nicht automatisch für bessere Rankings, machen sie aber wahrscheinlicher.
-
Die wichtigsten Begriffe des Themas einer Seite zum Beginn des Titles und der H1 zu erwähnen, ist nicht immer notwendig, kann aber helfen.
-
Eindeutige Ankertexte und Canonicals garantieren nicht, dass die kanonische Seite rankt, helfen Google aber dabei, so zu entscheiden, wie Du geplant hast.
-
Umgekehrt interpretiert Google alle Meta Tags vielleicht korrekt, obwohl Du den Head mit wilden Skripten begonnen hast.
Aber es funktioniert doch...
Ein kniffliges SEO-Thema ist der Umgang mit JavaScript. Immer mehr Websites basieren auf JS-Frameworks. Google hat sich relativ gut darauf eingestellt und rendert sogar fehlerhaften Code häufig überraschend gut. In der Search Console sehen wir, dass auch Client-Side-Rendering für HTML mit allen wichtigen Inhalten und Links führen kann.
"Kann" ist hier aber das entscheidende Stichwort.
Klappt es in 100 von 100 Fällen? Stößt Google zügig genug den Rendering-Prozess an? Passen die Ladezeiten? Das haut schon bei Google nicht immerhin, andere Suchmaschinen haben sogar noch mehr Probleme mit JS. Deshalb empfehlen wir häufig, die wichtigsten Bestandteile einer Webpage bereits mit dem Sourcecode auszuliefern und/oder auf Server-Side-Rendering umzustellen, selbst wenn das Entwicklungsaufwand bedeutet.
Das führt leider selten direkt dazu, dass sämtliche Erfolgsmetriken durch die Decke gehen. Aber wir wollen die Wahrscheinlichkeit erhöhen, dass Suchmaschinen unsere Websites korrekt lesen, interpretieren und ranken können. Wir wollen uns gegen das Risiko schützen, dass ein Wettbewerber mit ähnlichem Angebot, aber sauber(er)em HTML-Code an uns vorbeizieht.
Vor allem in den Top-Boxen, in denen Publisher konkurrieren, können Kleinigkeiten den Unterschied zwischen Top oder Flop ausmachen.
Barry Adams hat diese Aspekte schon vor ein paar Jahren in diesem Artikel sehr anschaulich besprochen. Gerade weil ich auch heute noch uneingeschränkt zustimmen kann und der Beitrag nichts an seiner Relevanz verloren hat, verweise ich gerne nochmal darauf.
Erstklassiger Evergreen-Content eben. 🌲 👍
Gehst Du mit oder alter Hut?