Zum Hauptinhalt springen
Consultant

Johan hatte auf Twitter Verbesserungen für Kevins SEO first principles-Artikel vorgeschlagen.

In dem Zusammenhang kam die Frage auf, ob URLs, die durch die Robots.txt geblockt werden tatsächlich ranken können oder nicht.

Johan hatte da ein paar Beispiele gefunden und ich habe ihn gefragt, wie er das gemacht hat.

  1. Starke Domain überlegen und schauen, ob Einträge in der Robots.txt vorhanden sind

  2. Aufruf des Keywordberichts in Sistrix

  3. Filtern der Description auf "Für diese Seite sind keine Informationen verfügbar" oder "No information available for this page"

  4. Eventuell branded queries ausschließen.

Wie oft sind Dir diese “leeren” Snippets schon über den Weg gewirbelt?

Consultant

Du hast Fragen zum Artikel, zum Thema oder brauchst einen Tipp für Deine nächsten Schritte? Hier kannst Du Dir einen unverbindlichen Termin in meinem Kalender buchen. Ich freue mich auf Dich!
15-Minuten-Termin mit Caro reservieren
Das ist ein Artikel aus unserem Newsletter. Wenn Du jeden Dienstag Morgen schlauer werden möchtest, melde jetzt kostenfrei für den SEO-Newsletter an

Kurze, praxisnahe SEO-Tipps – maximal 1× pro Woche. Keine Werbung, kein Spam.

Deine Daten sind bei uns in guten Händen und werden ausschließlich für diesen Newsletter genutzt.