Nun ist es also so weit: Die Zukunft ist hier! Denn Google hat nun WebMCP als Early Preview veröffentlicht.
Im Kern geht es um eine simple, aber geniale Idee: Websites sollen für KI-Agenten endlich “bedienbar” werden. Bisher haben sich KIs eher “auf gut Glück” durch das Interface geklickt. In der Hoffnung, den richtigen Button zu finden. WebMCP ändert das nun, indem Website-Betreiberinnen und -Betreiber künftig strukturierte “Tools” bereitstellen können, die ein Agent direkt ansteuern kann.
Quasi wie ein Wegweiser, der festlegt, wie und wo so ein KI-Agent mit Deiner Seite interagieren soll, um Dir beispielsweise die Kino-Tickets für den neuesten Avatar-Film zu kaufen oder Deinen Flug nach Madagaskar zu buchen.
Zwei APIs im Angebot
WebMCP skizziert dabei zwei Wege, wie Agenten künftig für uns handeln dürfen:
- Deklarativ: Standardaktionen, die ganz simpel über HTML-Formulare definiert werden.
- Imperativ: Die “Königsdisziplin” für komplexe Interaktionen, die JavaScript benötigen.
Die beschränken sich übrigens nicht nur auf Gemini, wie man vielleicht vermuten könnte, sondern ermöglichen es auch anderen Agenten von Clause, GPT und dergleichen darauf zuzugreifen. Solange es über einen Browser läuft.
Konkret kannst Du zu Deinem HTML beispielsweise ein toolname=”” oder tooldescription=”” (Deklarativ) oder navigator.registerTool (Imperativ) hinzufügen. Weitere Details und Beispiele findest Du in diesem Doc.
Ein Web, zwei Zielgruppen
Bastian Grimm hat das Ganze bei LinkedIn treffend zusammengefasst: Wir steuern auf zwei Schichten des Webs zu. Eine für Menschen und eine für Maschinen. Mit WebMCP signalisiert Google unmissverständlich, dass sie diese zweite Ebene fest in Chrome etablieren wollen.
Das verändert die Spielregeln massiv. Denn wenn KI-Agenten zu unserem primären “Browser” werden, verschiebt sich auch die Frage der Sichtbarkeit. Es geht dann nicht mehr (nur) darum, ob Google meine Seite crawlen kann, sondern auch darum, ob KI-Agenten meine Systeme aufrufen und verstehen können. Und ob sie ihm (genug) vertrauen, dort tatsächlich zu konvertieren.
Abschließende Worte
Spannend, spannend. Die Einführung von WebMCP ist wohl definitiv ein Wendepunkt, der uns zeigt, wohin die Reise geht: Vom reinen Suchen, wie es für uns mit Suchmaschinen wie Google lange der “Default” war, hin zum “Tun (lassen)”.
Gleichzeitig müssen wir uns auch vor Augen führen, dass wir es heutzutage nicht mehr mit den plumpen “Steinzeit-Bots” von früher zu tun haben, die nur Texte scannen (ehrlicherweise haben wir das schon länger nicht mehr). Die neuen KI-Agenten werden (noch) komplexer arbeiten. Und wer ihnen keine Brücke baut (wie WebMCP), wird vermutlich gar nicht erst berücksichtigt.
Dann wird es vielleicht doch (bald) wieder relevanter, “für die Suchmaschine (oder eben den Agenten)” zu optimieren. Oder für beide parallel (was auch nochmal sehr interessant werden dürfte). Bis es so weit ist, zieht zwar sicher noch der ein oder andere Tag ins Land. Aber in gar so weiter Ferne liegt es trotzdem nicht mehr.
Werden klassische Websites deshalb verschwinden? Sicher nicht – zumindest meiner Meinung nach. Der Faktor Mensch wird auch weiterhin sehr wichtig bleiben. Aber unter der schicken Oberfläche für das menschliche Auge braucht jede Website künftig ein “digitales Nervensystem”, das für Maschinen lesbar ist.
Wilde Zeiten, in denen wir leben? Definitiv. Andererseits aber auch verdammt spannende.