Wohoooo! Was hier los ist! Das Web brennt gerade lichterloh, im absolut besten Sinne! #PyrotechnikIstDochKeinVerbrechen Während wir früher noch darüber diskutiert haben, ob man ein Bild-Alt-Attribut braucht, ballern uns heute autonome KI-Agenten die Servertüren ein. Ein bisschen chaotisch, teilweise verdammt schnell, macht nicht selten ein bisschen Angst und sorgt für Verwirrung, aaaaber ich bin hyped.
Obacht! Wer im Goldrausch keine Karte hat, verläuft sich. Bastian Grimm hat das neulich auf LinkedIn perfekt seziert… Die Explosion von Agentic Workflows ist real. Wir reden hier nicht mehr von braven Crawlern, die einmal pro Woche vorbeischauen, sondern von einer Armee aus Agenten, die im Sekundentakt Entscheidungen treffen.
Teilweise sehr fiese und finstere Gesellen, die sich im Schatten tummeln und froh sind, sich nicht ausweisen zu müssen. Und genau deshalb brauchen wir jetzt die ANS(wer).
Was zur Hölle ist ANS?
Die Agent Name Registry (agentnameregistry.org) ist der Versuch, Ordnung in den Agenten-Dschungel zu bringen.
Bisher war die Identifikation im Web ein Ratespiel. Ein User-Agent-String kann jeder Hanswurst fälschen. ANS ist der digitale Personalausweis. Es ist ein Protokoll, das Agenten eine verifizierbare Identität gibt. Wenn ein Agent anklopft, behauptet er nicht nur, cool zu sein, sondern er liefert einen kryptografischen Beweis, wer er ist, für wen er arbeitet und was er eigentlich auf Deiner Seite will.
ANS vs. Robots.txt
Ich höre die SEO-Oldschool-Fraktion schon rufen: "Flohoooorian, wir haben doch die robots.txt!". Ich könnte zustimmen, aber dann lägen wir beide falsch.
Während die robots.txt sich eher anfühlt wie eine schwer durchzusetzende Hausordnung, die wie "Die Rasenflächen bitte nicht betreten" also eine reine Zugriffskontrolle ist, ist ANS der Türsteher, der die Ausweise mit der Gästeliste abgleicht und das Hausrecht direkt durchsetzt.
Schon immer war die robots.txt für die "bösen Bots" die erste Adresse, um sich die verbotenen Bereiche rauszusuchen, die man als erstes besuchen möchte.
Wir alle wissen, die robots.txt allein bringt gar nichts. Ohne ANS (oder andere serverseitige Blockaden) ist deine robots.txt wie eine Verbotsliste für "Unbekannt".
Also, liebe Vibe-Coder da draußen… baut bitte weniger Schrott und denkt etwas nachhaltiger. Morgens eine Idee haben und mittags den fertigen Agenten auf die Menschheit loslassen und sich selbst auf LinkedIn dafür abfeiern ist selten cool. Echt nicht. Die Zeiten von Shadow-Bots sind auf lange Sicht passé.
Ein Rat für nachhaltige Agenten
Gebt euren Babys einen Namen. Ein Agent ohne verifizierbare Identität landet zukünftig sehr schnell auf einer Blacklist. Seid transparent. Crawl-Verbote zu ignorieren bedeutet, im schlimmsten Fall nicht nur eine IP-Sperre, sondern rechtliche Konsequenzen.
Ab jetzt heißt es, Verantwortung in die Prompts zu bauen. Wenn ihr eure Agenten loslasst, gebt ihnen die Anweisung mit, sich auszuweisen. Ein Agent, der sagt: "Hi, ich bin von Tool XY und suche nach Infos über YZ", wird eher durchgelassen als ein anonymer Scraper.