Zum Hauptinhalt springen
Consultant

Gerade wenn Du im Bereich (News-)Publishing unterwegs bist, kennst Du bestimmt Googles Sicht auf Abo- und Paywall-Inhalte.

Suchmaschinen haben ein Interesse, den Content hinter der Paywall zu sehen, um eine korrekte Ranking-Bewertung vornehmen zu können. Damit bekommen Suchmaschinen aber andere Inhalte ausgeliefert als die meisten User. Üblicherweise nennt man das Cloaking.

Mit Hilfe von JSON-LD können Publisher Google erklären, dass und vor allem welche Teile des Inhalts nicht frei zugänglich sind:

"This structured data helps Google differentiate paywalled content from the practice of cloaking, which violates our guidelines."

Denn natürlich ist es für die Bewertung und das Ranking der Inhalte relevant, eine ungefähre und im Idealfall verlässliche Idee zu haben, was da hinter der Paywall versteckt ist. Üblicherweise sieht man ja außerhalb der Bezahlschranke außer Headline, Bild und 1-2 Sätzen nicht viel, was Google als Grundlage für ein Ranking heranziehen kann.

Bing hingegen scheint da etwas lässiger zu sein und an das Gute im Menschen bzw. Publisher zu glauben. In ihrem Best Practice Beitrag erläutern ihr  bevorzugtes Vorgehen.

Der Bingbot soll alles sehen dürfen, ohne eine weitere Erklärung, warum hier gecloaked wird.

"The first step is to allow search engines, like Bing, to see the full content that normally resides behind a paywall or a subscription. By accessing the full content, search engines will be able to index more text which will help match more customer queries."

Wie Google empfiehlt auch Bing, noarchive zu verwenden, um Suchmaschinen zu verbieten, den Content aus dem Suchmaschinen-Cache anzuzeigen.

Anzeige des Wikipedia-Artikels "Paid Content" im Google-Cache

Bei Bing sieht eine gecachte URL übrigens so aus.

Bing erwähnt außerdem das nocache-Attribut für Dein Meta-Robots oder X-Robots-Tag. Von Google wird dieses aber nicht unterstützt:

"To prevent search engines from exposing publisher subscription-based or paywall content in search engines cache pages, publishers can control whether search engines show a cached page of a document by using a special robots meta tag in the <head> section of the web page or, alternatively, by using a customer HTTP response header returned to the search engines crawler for each URL."

Also sollte Dein Setup, wenn es die Richtlinien von Google erfüllt, automatisch auch für Bing passen – so lange Du noch dafür sorgst, dass der Bingbot alles sehen kann, ist alles bestens!

Consultant

Das ist ein Artikel aus unserem Newsletter. Wenn Du jeden Dienstag Morgen schlauer werden möchtest, melde jetzt kostenfrei für den SEO-Newsletter an

Kurze, praxisnahe SEO-Tipps – maximal 1× pro Woche. Keine Werbung, kein Spam.

Deine Daten sind bei uns in guten Händen und werden ausschließlich für diesen Newsletter genutzt.