In der SEO-Szene ist Keyword-Kannibalisierung ein großes Thema, das gerne angeführt wird, wenn eine Website zu einem Thema nicht gut aufgestellt ist, aber mehrere URLs zu dem Keyword in der Search Console zu finden sind. Auch viele SEO-Tools haben Berichte zu diesem Punkt. Googelst Du nach Keyword-Kannibalisierung, findest Du zahlreiche Beiträge zu dem Thema, die Dir sagen, dass dieses Phänomen die Qualität der gesamten Website beeinträchtigt.
Hier setzen John Mueller und Martin Splitt an und bescheinigen uns, dass das nicht so ist. Vielmehr sieht John Mueller Keyword-Kannibalisierung als ein "catchall phrase", die noch nicht die wahren Probleme identifiziert. Search Engine Journal schreibt dazu:
"Keyword cannibalization is just a catchall phrase that is applied to low-ranking pages that are on similar topics.
The problem with saying that something is keyword cannibalization is that it does not identify something specific about the content that is wrong. That is why there are people asking John Mueller about it, simply because it is an ill-defined and unhelpful SEO concept."
Mueller hatte Bezug zu dem Thema genommen, da im Zusammenhang mit dem num=100 Parameter die Frage aufgekommen ist, wie es zukünftig möglich sei, Keyword-Kannibalisierung zu vermeiden, wenn man nur noch die Top 20 Positionen sieht. Diese werden natürlich weiterhin angezeigt. Das Problem sei ein anderes: die SEO-Urangst vor Duplicate-Content und den postulierten negativen Folgen für die gesamte Website. Diese negativen Folgen für eine Website gibt es aber nicht. Dies stellt Martin in dem Video SEO Made Easy - How to avoid Duplicate Content noch einmal explizit heraus. Search Engine Journal fasst das Video noch einmal gut zusammen. Herausfordernd für SEOs ist es, dass Martin zwar sagt, es gibt kein Problem, dennoch finden wir in der GSC gleich drei Reports, die sich diesem Thema annehmen:
- “Duplicate without user-selected canonical”.
- “Alternate page with proper canonical tag”.
- “Duplicate Google chose different canonical than user”.
Ganz generell fällt die Einordnung des Themas schwer, da Martin auch sagt, wenn Du sehr ähnlichen Content hast, ist es vielleicht ratsam, diesen zusammenzufassen. Es ist aber auch nichts, was Dir schlaflose Nächte bereiten sollte.
Mueller weiter im X-Thread zu der ursprünglichen Frage und dem Punkt Kannibalisierung:
"All that said, I don't know if this is actually a good use of time. If you have 3 different pages appearing in the same search result, that doesn't seem problematic to me just because it's "more than 1″. You need to look at the details, you need to know your site, and your potential users.
Reduce unnecessary duplication and spend your energy on a fantastic page, sure. But pages aren't duplicates just because they happen to appear in the same search results page. I like cheese, and many pages could appear without being duplicates: shops, recipes, suggestions, knives, pineapple, etc."
Nimmt man alle Aussagen der beiden Google Advokaten zusammen, dann ist der erste Eindruck, dass diese wieder sehr schwammig sind:
- Duplicate Content hat keine negative Auswirkung auf Deine Website.
- Keyword-Kannibalisierung ist kein Issue.
- Google Systeme haben das im Griff, Lösung durch Canonicals.
- Trotzdem bietet es sich an, ähnliche Inhalte zusammenzufassen.
- Es ist nicht schlimm, wenn wir mehrere URLs ins Rennen schicken, aber Du musst Deine Audience kennen.
Nicht eindeutige Aussagen sind wir von Google gewohnt. Aber in diesem Fall sind sie gar nicht so schwammig. Für mich ist es vielmehr ein Votum, die echten Probleme der Website anzugehen, anstatt zu sagen, dass Duplicate Content das Problem ist. Letztendlich gibt es eine Vielzahl von Punkten, die dazu führen, dass eine Seite nicht rankt:
- Die Seiten sind zu lang und folglich nicht fokussiert.
- Die Seiten enthalten themenfremde Passagen.
- Die Seiten sind unzureichend intern verlinkt.
- Die Seiten sind dünn, haben zu wenig Inhalt.
- Die Seiten sind praktisch Duplikate der anderen Seiten in der Gruppe (dies nur ein Thema, wenn die falsche URL rankt).
Einfach 4 von 5 Seiten abschneiden, die sich zum Thema XYZ aufgestellt haben, ist hier nicht die Lösung. Wir sollten uns die Frage stellen, warum wir zu einem uns wichtigen Thema in der Suche nicht stattfinden. Wenn wir ein Shop sind, warum ranken wir mit unserem Ratgeber? Sieht Google uns als Shop? Haben wir die relevanten URLs durch interne Verlinkung entsprechend priorisiert? Ist unser Content organisch gewachsen? Kennen wir unser URL-Inventar? Entsprechen die Inhalte dem, was der User erwartet? Ist unser Inhalt fokussiert?
Wenn wir das Gefühl haben, hier liegt Duplicate Content oder Keyword-Kannibalisierung vor, dann ist dieses Gefühl vermutlich nicht falsch. Aber dann müssen wir erst recht genau hinschauen und die wirklichen Probleme erkennen. Die Ausführungen von John Mueller und Martin Splitt machen sehr deutlich, welche Anforderungen Google an die Organisation des Contents und auch den Aufbau der gesamten Website stellen. Keyword-Kannibalisierung ist hier zu kurz gedacht.