SEO - Suchmaschinenoptimierung
Zäsur fürs Agentic Web? WebMCP soll Websites zur API für KI Agents machen

Zäsur fürs Agentic Web? WebMCP soll Websites zur API für KI Agents machen

Larissa Ceccio | 18.02.26

GEO war nur der Anfang. Mit WebMCP bauen Google und Microsoft gerade an der Infrastruktur für ein agentisches Internet. KI-Agents könnten Websites direkt steuern statt sie zu besuchen. Wir zeigen, was das für SEO, Traffic und digitale Sichtbarkeit bedeutet.

Spätestens Projekte wie OpenClaw zeigen, wie schnell sich die Agentic Era entwickelt. KI generiert nicht mehr nur Inhalte, sondern beginnt aktiv mit digitalen Interfaces zu arbeiten und Aufgaben eigenständig auszuführen. Und WebMCP will diese Entwicklung jetzt in einen strukturierten Web-Standard übersetzen.

KI-Agents könnten Websites bald nicht mehr wie Menschen bedienen müssen. Mit WebMCP stellen Google und Microsoft einen Ansatz vor, der das Surfen im Hintergrund grundlegend verändern könnte. Statt sich durch Menüs zu klicken oder Inhalte visuell zu interpretieren, greifen KI-Systeme direkt auf Funktionen einer Website zu. Websites wären dann nicht mehr nur Orte zum Lesen oder Shoppen, sondern technische Schnittstellen für automatisierte Aktionen. Noch befindet sich WebMCP in einer frühen Testphase. Trotzdem steht schon jetzt eine größere Frage im Raum. Wer entscheidet künftig, über welche Wege Nutzer:innen Inhalte erreichen, wenn KI-Agents dazwischenstehen?



AI Shopping wird Standard:
Universal Commerce Protocol von Google verändert alles

Smartphone Mockup mit AI Shopping, violette Streifen im Hintergrund
© Google via Canva


Neue Regeln für AI Search: Wenn Websites zur Agent-Schnittstelle werden

Schon im Januar stellte Google gemeinsam mit Commerce-Partnern das Universal Commerce Protocol vor, das Shopping direkt im KI-Kontext ermöglichen soll. WebMCP wirkt wie der nächste Schritt. Während UCP vor allem Transaktionen standardisieren will, geht es jetzt darum, wie Websites überhaupt mit KI-Agents kommunizieren. Für Publisher, Shops und Marken kann das effizienter sein. Gleichzeitig entstehen neue Abhängigkeiten von Browsern und Plattformstandards.

Agent-basierte Sucherlebnisse gelten inzwischen als mögliche nächste Evolutionsstufe der Suche. Für viele Unternehmen bedeutet das eine unbequeme Perspektive. Weniger direkte Website-Besuche, weniger Kontrolle über die eigene User Journey und mehr technische Anforderungen im Hintergrund. Genau deshalb wird WebMCP in der Branche nicht nur als Fortschritt, sondern auch als Einschnitt diskutiert.

Der SEO-Researcher Dan Petrovic spricht von der größten Veränderung im technischen SEO seit strukturierten Daten und bewertet WebMCP damit durchaus kritisch. Wenn Inhalte nicht mehr über klassische Interfaces, sondern über Agent-Schnittstellen gefunden werden, werden Menschen Websites wahrscheinlich deutlich seltener direkt aufrufen. Das hätte konkrete Folgen. Weniger Branding, weniger Werbeeinblendungen und weniger eigene Datenpunkte für Unternehmen. Auch der SEO-Experte Glenn Gabe ordnet WebMCP in einem Post auf X als „big deal“ ein und beleuchtet die Folgen für die Sichtbarkeit von Websites, die Rolle der Benutzer:innenoberfläche und die wachsende Abhängigkeit von strukturierten Schnittstellen im agentischen Web.

Die entscheidende Frage ist deshalb nicht mehr nur, wie Inhalte gefunden werden. Es geht darum, über welche technischen Wege Agents künftig überhaupt darauf zugreifen.

Strukturierte APIs statt klassischer Website-Navigation

Heute arbeiten KI-Agents meist wie Nutzer:innen. Sie scrollen, analysieren Seitenstrukturen oder interpretieren Inhalte visuell. WebMCP soll diesen Umweg verkürzen. Websites können künftig selbst festlegen, welche Aktionen ein Agent ausführen darf. Google beschreibt das als direkte Verbindung zwischen Website und Agent Workflow.

Technisch basiert WebMCP auf zwei APIs. Eine Variante deckt Standardaktionen ab, etwa Formulare oder einfache Abläufe. Die zweite ermöglicht komplexere Funktionen über JavaScript. Ein Onlineshop könnte zum Beispiel eine Produktsuche bereitstellen, die ein Agent direkt ansteuert. Ohne solche Schnittstellen müsste die KI weiterhin klicken, filtern und interpretieren. Einordnungen, etwa bei Search Engine Land, ziehen Parallelen zu Structured Data, sehen aber deutlich größere Auswirkungen, weil Agents nicht nur Inhalte lesen, sondern zusätzlich auch handeln. Google nennt mehrere Szenarien, die zeigen sollen, wie strukturierte Agent-Interaktionen aussehen könnten:

  • Reisen: Agents durchsuchen Flugdaten, filtern Ergebnisse und führen Buchungen direkt aus.
  • Kund:innen-Support: Support Tickets werden automatisch mit technischen Details erstellt.
  • E-Commerce: Produkte werden gefunden, Optionen konfiguriert und Check-outs präzise gesteuert.

WebMCP soll vor allem eines erreichen: weniger Interface-Interaktion und mehr strukturierte Kommunikation. Entwickler:innen können bestehende HTML-Formulare erweitern oder neue Funktionen definieren, die direkt im Browser ausgeführt werden. Ein einzelner Tool Call könnte damit viele einzelne Browser-Aktionen ersetzen. Statt Filtermenüs zu klicken oder Ergebnisseiten zu scrollen, erhält ein Agent strukturierte Daten zurück.

Befürworter:innen sehen darin vor allem Effizienz. Prozesse könnten schneller laufen, weniger Rechenleistung benötigen und stabiler funktionieren. Chrome-Entwickler:innen beschreiben drei entscheidende Vorteile:

  • Kontext: Der Agent versteht die aktuelle Nutzersituation.
  • Fähigkeiten: Websites definieren klar, welche Aktionen möglich sind.
  • Koordination: Nutzer:innen bleiben Teil des Entscheidungsprozesses.

Der Standard ist damit bewusst nicht auf vollständig autonome Agents ausgelegt, sondern auf kollaborative Workflows. Menschen bleiben im Loop, während Agents Aufgaben vorbereiten oder strukturieren.

Effizienz für Agents, neue Spielregeln für das Web

Befürworter:innen sehen darin schnellere Agent Workflows und weniger Rechenaufwand, doch Kritiker:innen warnen vor strukturellen Folgen. Wenn KI-Agents strukturierte APIs bevorzugen, entsteht ein klarer Vorteil für Websites, die WebMCP integrieren. Seiten ohne solche Schnittstellen könnten seltener genutzt werde, nicht zwingend im Ranking, sondern in der tatsächlichen Interaktion durch Agents. VentureBeat beschreibt WebMCP deshalb als möglichen Infrastruktur Schritt, der Websites zunehmend zu APIs für KI Systeme macht.

Damit verschiebt sich auch die Machtfrage im Web. Wenn Browser-Ökosysteme festlegen, wie Agents mit Websites sprechen, wandert ein Teil der Kontrolle weg vom offenen Web hin zu Plattformstandards. Für Publisher, Retailer und Marken bedeutet das neue technische Abhängigkeiten und möglicherweise weniger Einfluss auf die eigene Customer Journey. Gleichzeitig verändert sich der Kontaktpunkt zwischen Marke und Nutzer:innen. Wenn Agents Aufgaben direkt erledigen, sehen Menschen die Website selbst seltener. Das kann langfristig weniger Branding-Momente, weniger Daten und neue Herausforderungen für Monetarisierung bedeuten. Auch aus Entwickler:innenperspektive bleiben zentrale Fragen offen. Governance, Sicherheit und Interoperabilität gelten als ungeklärt, ebenso die Frage, wie offen oder kontrolliert solche Schnittstellen künftig sein werden.

Der Vorstoß reiht sich in eine größere Bewegung ein, bei der Plattformanbieter:innen das Fundament für ein agentisches Internet neu aufbauen. Während Protokolle wie das Universal Commerce Protocol vor allem Transaktionen strukturieren sollen, greift WebMCP tiefer und verändert die Art, wie Websites überhaupt erreichbar werden. Ob sich daraus ein neuer Standard entwickelt, ist offen. Sicher ist nur, dass KI-Agents zunehmend zu eigenen Zugangsebenen im Netz werden und damit stärker beeinflussen, welche Inhalte sichtbar bleiben und welche im Hintergrund verschwinden.



Moltbot ist OpenClaw:
Sehr gefährlich und hilfreich zugleich

OpenClaw-Grafik mit Hummer in Rot und Schriftzug vor schwarzem Hintergrund mit Sternen
© OpenClaw

Kommentare aus der Community

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

*
*