Ich war dieses Jahr wieder virtuell auf der NESS. Barry Adams und John Shehata haben wieder tolle Speaker:innen zusammen getrommelt und ich konnte sehr viel mitnehmen. Ein bisschen was habe ich diese Woche für Dich mitgebracht.
AI nutzen, um besser zu werden in dem, was Du tust
Der unumgängliche Punkt AI war natürlich in fast jeder Session vertreten.
Es wurden mehrere Varianten gezeigt, wie Tools genutzt werden können, um die Ergebnisse zu verbessern. Die Speaker:innen haben dazu ermutigt, AI zu nutzen, um die eigene Arbeit besser zu machen.
Allerdings auch aufgezeigt, wie viel Arbeit es zunächst macht und betont, dass man dran bleiben soll. Kevin Indig hat beispielsweise über mehrere Tage an einem Prompt gearbeitet, bis er endlich zu einem zufriedenstellenden Ergebnis gekommen ist. Diesen Prompt kann er aber jetzt immer wieder abwandeln und nutzen, um dann wiederum schnell an Ergebnisse zu kommen, um seine Arbeit zu erleichtern. Barry nutzt AI beispielsweise, um sich inspirieren zu lassen und Lücken aufzudecken.
Beispielsweise zu neuen Themen, um einen leichteren Einstieg zu bekommen und dann selbst etwas schreiben zu können. So stellt er sicher, dass er Content-Lücken schließt. Ich habe mich dazu mit ein paar Teilnehmern ausgetauscht und die Möglichkeit, verschiedene Artikel von anderen Publishern mit dem eigenen Artikel zu vergleichen, findet großen Anklang. Die meisten nutzen hierfür ChatGPT. Hierbei nimmst du Deinen Artikel und lässt diesen mit besser rankenden Artikeln vergleichen und herausarbeiten, welche Aspekte Deinem Artikel fehlen und von den anderen beleuchtet werden, oder aber, dass die anderen mehr Bilder, Tabellen usw. haben. Diesen Promt können sie immer wieder nutzen, lediglich die URLs müssen angepasst werden.
LLMs ausschließen - ja oder nein?
Super spannend fand ich die Abschlussdiskussion am zweiten Tag, bei der noch einmal diskutiert wurde, ob News-Seiten LLMs per robots.txt ausschließen sollten oder nicht. Jes Scholz ist davon überzeugt, dass ein Ausschluss keinen positiven Effekt bringt und vertrat somit eine andere Meinung, als die anderen Gesprächsteilnehmer:innen. Sie sagt, auch wenn Du jetzt die Blockierung erstellst, wird Deine Brand trotzdem auftauchen und Deine bereits erstellten Inhalte genutzt werden. Sie sieht es als positiven Aspekt an, dass Nutzer:innen sich dadurch zu Deiner Seite navigieren können.
Jes geht sogar noch ein Stück weiter und sagt, sie würde, wenn sie die Zeit zurückdrehen könnte, die Machine Learning Systeme auch dann nicht aussperren. Der meiste Content von Publishern ist nämlich nicht unique und wenn Du die Bots aussperrst, dann bekommen sie die Nachrichten trotzdem - nur von einer anderen Quelle. Und dann hast Du überhaupt keine Chance mehr, als Quelle genannt zu werden.
Weiterhin sagt Jes, Journalismus solle immer eine persönliche Note enthalten und die Stories so geschrieben sein, dass Leser:innen diese auch trotz SGE und Chatbots lesen wollen. Weil sie Dich als Autor:in schätzen - Deine Meinung, Deinen Schreibstil etc. Wenn ein Artikel keinen Mehrwert bringt und easy von AI zusammengefasst, selbst geschrieben oder auch von anderen Publishern so rausgebracht werden kann, dann ist es auch egal, ob Maschinen Deinen Inhalt "klauen", denn dann stichst Du mit Deiner Arbeit ohnehin nicht heraus.
Kevin Indig sieht das komplett anders: Er ist der Meinung, dass Nutzer, wenn sie über SGE die Antwort auf ihre Frage erhalten haben, nicht auf die Quelle klicken. Die Antworten von ChatGPT sind noch nicht perfekt und es kommt sehr auf die Qualität der Fragestellung an. Je genauer Deine Frage ist und je besser Du beschreibst, was für eine Antwort du möchtest, desto besser wird das Ergebnis. Die Ergebnisse sind bereits jetzt aber schon besser und ausführlicher, als Google sie bisher geben konnte. Mit SGE werden die Inhalte verschiedenster Seiten zusammengeführt und passend zur Frage aufbereitet. Je mehr Trainingsdaten Seitenbetreiber den Maschinen zur Verfügung stellen, desto besser werden diese Inhalte werden. Publisher geben ihre wichtige Position laut Kevin mit der Bereitstellung der Daten aus der Hand, weshalb es wichtig sei, die Bots auszusperren.
John Shehata bringt als einen weiteren wichtigen Punkt mit in die Diskussion, dass die Aufmerksamkeitsspanne immer weiter abnimmt. Aufgrund dessen sind immer mehr kurze Videos und Inhalte erfolgreich. Kurze aufbereitete Informationen in SGE werden laut John ausreichen und Nutzer:innen werden sich nicht unbedingt weiter navigieren, um ausführliche Inhalte einer bestimmten Quelle zu lesen. Ich kann die verschiedenen Argumente verstehen und würde sagen: it depends. Wir wissen nicht, ob Google SGE weltweit ausrollen wird - auch hier gehen die Meinungen auseinander. Glenn Gabe hat beispielsweise gesagt, dass er nicht daran glaubt. Momentan können wir die Auswirkungen von SGE nicht messen, die GSC hilft da laut Jes auch nicht, da die Daten nicht gesondert einfließen. Wenn Du Dir also unsicher bist, ob Du die Bots ausschließen sollst oder nicht (die SGE kannst Du nur ausschließen, wenn Du den Googlebot blockst), sei gewiss: Du bist mit Deiner Unsicherheit nicht alleine.
Back to Basics
Ein weiteres heiß diskutiertes Thema war, wie man es schafft, die Redaktion, Geschäftsführung und Devs auf seine SEO-Seite zu ziehen. Eventuell wurde auch darüber berichtet, wie Devs mit Donuts auf die eigene Seite gezogen wurden 😀
Die Speaker:innen sind sich einig, dass regelmäßige Schulungen unumgänglich sind. Der wichtigste Part sei für Redaktionen die perfekte Überschrift und die Differenzierung zwischen Überschriften für Discover und Search. Während die Überschriften für die organische Suche klar auf einen Query ausgerichtet sein müssen, haben wir in Discover keine Suche, sondern Vorschläge für die Nutzer:innen. Darum müssen die Überschriften catchy und emotional ansprechend sein.
"What's your number 1 SEO Priority when it comes to Articles?"
– Frage aus dem Publikum, bei jedem Panel und zahlreichen Sessions.
"The f*cking headline"
– Barry Adams