Johan hatte auf Twitter Verbesserungen für Kevins SEO first principles-Artikel vorgeschlagen.
In dem Zusammenhang kam die Frage auf, ob URLs, die durch die Robots.txt geblockt werden tatsächlich ranken können oder nicht.
Johan hatte da ein paar Beispiele gefunden und ich habe ihn gefragt, wie er das gemacht hat.
-
Starke Domain überlegen und schauen, ob Einträge in der Robots.txt vorhanden sind
-
Filtern der Description auf "Für diese Seite sind keine Informationen verfügbar" oder "No information available for this page"
-
Eventuell branded queries ausschließen.
Wie oft sind Dir diese “leeren” Snippets schon über den Weg gewirbelt?