In der Diskussion über KI-Assistenten entsteht derzeit ein neues Schlagwort: WebMCP.
Das „Model Context Protocol“ soll es KI-Systemen ermöglichen, direkt mit Websites und Web-Anwendungen zu interagieren.
Statt Informationen nur zu lesen, könnten Assistenten Tools auf Webseiten nutzen: Verfügbarkeiten prüfen, Produkte konfigurieren, Buchungen vorbereiten.
Technisch wirkt diese Vision nicht mehr weit entfernt.
Doch zwischen einer neuen Webtechnologie und ihrer realen Nutzung in Unternehmen liegt oft ein weiter Weg.
Die Idee klingt zunächst simpel. Ein KI-Assistent soll nicht mehr nur Inhalte lesen, sondern Funktionen nutzen können, die eine Website bereitstellt. Ein Hotel könnte etwa ein Tool anbieten, das Zimmerverfügbarkeiten prüft. Ein Reiseportal könnte eine Schnittstelle bereitstellen, über die sich Flugverbindungen abfragen lassen. Ein Online-Shop könnte einem KI-Agenten ermöglichen, Produkte zu konfigurieren oder Bestände zu prüfen.
In dieser Vision wird das Web zu einer Umgebung, in der nicht nur Menschen navigieren. Auch Maschinen greifen aktiv auf Funktionen zu, um Aufgaben zu erledigen.
Technisch betrachtet wirkt dieser Schritt weniger futuristisch, als er zunächst erscheint. Viele Websites verfügen bereits über APIs, über die Daten strukturiert abgefragt werden können. Unternehmen betreiben Buchungssysteme, Produktdatenbanken und Serviceschnittstellen. WebMCP würde diese Möglichkeiten nicht neu erfinden, sondern standardisieren und für KI-Agenten leichter zugänglich machen.
Doch zwischen einer technischen Spezifikation und ihrer tatsächlichen Nutzung im Alltag liegt häufig ein weiter Weg. Gerade in großen Unternehmen können Jahre vergehen, bis neue Webstandards produktiv eingesetzt werden.
Die entscheidende Frage lautet daher nicht nur, ob WebMCP technisch möglich ist. Die wichtigere Frage lautet: Wann wird diese Technologie tatsächlich relevant werden.
Eine neue Schnittstelle für KI-Agenten
Die Grundidee hinter WebMCP ist vergleichsweise einfach. Eine Website kann bestimmte Funktionen als sogenannte Tools definieren. Ein KI-Agent, etwa ein digitaler Assistent im Browser, erkennt diese Tools und kann sie nutzen.
Ein Beispiel aus der Reisebranche macht das Prinzip greifbar. Ein Nutzer fragt einen KI-Assistenten nach einem Hotelzimmer in München für ein bestimmtes Wochenende.
Der Assistent könnte nun nicht nur allgemeine Informationen über Hotels lesen. Er könnte gezielt ein Tool auf einer Hotelwebsite aufrufen, das Verfügbarkeiten prüft. Die Antwort würde nicht aus einem langen Text bestehen, sondern aus strukturierten Daten.
Der Assistent könnte daraus direkt eine Empfehlung formulieren oder mehrere Optionen vergleichen.
Der Unterschied zum heutigen Web ist subtil, aber bedeutsam.
Bislang interagieren KI-Systeme vor allem mit statischen Informationen. Sie lesen Webseiten, analysieren Inhalte und versuchen, daraus Antworten zu generieren. Wenn aktuelle Daten benötigt werden, etwa Preise oder Verfügbarkeiten, stoßen diese Systeme schnell an Grenzen.
Mit WebMCP könnten Websites aktiv Funktionen anbieten, die Maschinen nutzen dürfen. Ein Assistent würde nicht mehr nur interpretieren, was auf einer Seite steht. Er würde gezielt Funktionen ausführen, die die Seite bereitstellt.
Für Unternehmen eröffnet sich damit eine neue Rolle des Webs. Die Website wäre nicht mehr nur eine Präsentationsfläche für Menschen. Sie würde zu einer Schnittstelle für automatisierte Systeme.
Der aktuelle Stand der Technik
Der Gedanke, dass Maschinen Websites aktiv nutzen könnten, ist nicht neu. APIs und Webservices existieren seit vielen Jahren. Der Unterschied bei WebMCP liegt in der Standardisierung.
Der Vorschlag sieht vor, dass Websites Tools in einer Form beschreiben, die KI-Agenten automatisch erkennen können. Ein Browser oder Assistent könnte prüfen, welche Funktionen eine Seite anbietet, und entscheiden, ob sie zur aktuellen Nutzeranfrage passen.
Im Frühjahr 2026 befindet sich diese Idee noch in einer frühen Phase. Erste Implementierungen werden getestet. Browserhersteller experimentieren mit entsprechenden Funktionen. Entwickler können Prototypen bauen und Szenarien durchspielen.
Doch von einer breiten Nutzung kann noch keine Rede sein.
Das erinnert an viele andere Technologien im Web. Auch strukturierte Daten, Open Graph oder neue API-Standards wurden zunächst in kleinen Entwicklerkreisen diskutiert, bevor sie im Alltag ankamen.
Der technische Fortschritt folgt dabei oft einem bekannten Muster.
Zunächst entsteht eine Spezifikation. Entwickler beginnen zu experimentieren. Browser integrieren erste Funktionen, häufig hinter versteckten Einstellungen oder experimentellen Flags. Danach folgen Pilotprojekte und erste reale Anwendungen.
Erst wenn mehrere dieser Schritte erfolgreich verlaufen, erreicht eine Technologie die breite Öffentlichkeit.
Warum Browser eine Schlüsselrolle spielen
Eine zentrale Rolle in diesem Prozess spielen Browser. Sie sind das Tor zum Web. Wenn ein Browser neue Standards unterstützt, kann sich eine Technologie schnell verbreiten.
Gerade im Umfeld von KI-Agenten wird der Browser zunehmend zum Vermittler zwischen Nutzer, Website und automatisierten Systemen.
Ein Assistent, der im Browser integriert ist, könnte erkennen, welche Funktionen eine Website anbietet. Er könnte entscheiden, ob diese Funktionen zur aktuellen Anfrage passen. Und er könnte die Ergebnisse interpretieren.
Damit entsteht ein neues Zusammenspiel zwischen drei Komponenten: dem KI-Agenten, dem Browser und der Website.
Der Browser erkennt, welche Tools verfügbar sind. Der Agent entscheidet, ob er sie nutzt. Die Website liefert strukturierte Antworten.
Für Entwickler klingt dieses Szenario vergleichsweise klar. Für Unternehmen hingegen beginnt an dieser Stelle häufig erst die eigentliche Herausforderung.
Die träge Realität von Organisationen
In vielen Technologieartikeln entsteht der Eindruck, dass neue Standards schnell in der Praxis ankommen. Die Realität in großen Organisationen sieht oft anders aus.
Selbst vergleichsweise kleine Änderungen an digitalen Systemen können umfangreiche Abstimmungsprozesse auslösen.
Neue Schnittstellen müssen geplant werden. Sicherheitsfragen müssen geklärt werden. Datenschutzanforderungen müssen geprüft werden. Interne Systeme müssen angepasst werden.
Der Weg von einer technischen Idee zur produktiven Umsetzung führt in Unternehmen durch zahlreiche Abteilungen.
Typischerweise beginnt dieser Prozess mit einer Phase der Aufmerksamkeit. Technologieverantwortliche werden auf eine neue Entwicklung aufmerksam. Sie analysieren, welche Bedeutung sie für das eigene Unternehmen haben könnte.
Darauf folgt häufig eine Phase der Bewertung.
Welche Chancen bietet die Technologie. Welche Risiken entstehen. Welche Systeme wären betroffen.
Erst danach beginnt eine Phase der konkreten Planung. Entwickler prüfen, wie eine Integration aussehen könnte. Architekten analysieren, welche Datenquellen angebunden werden müssten.
Juristische Abteilungen prüfen, welche rechtlichen Fragen entstehen. Datenschutzbeauftragte untersuchen, welche Daten verarbeitet werden und wie sie geschützt werden müssen.
In vielen Unternehmen kann allein diese Vorphase mehrere Monate dauern.
Erst danach beginnen technische Projekte.
Ein realistischer Zeitrahmen
Wenn man diese organisatorische Realität berücksichtigt, ergibt sich ein deutlich nüchterneres Bild der Entwicklung.
Neue Webtechnologien durchlaufen meist mehrere Phasen.
In der ersten Phase experimentieren Entwickler. Prototypen entstehen. Erste Tests zeigen, welche Möglichkeiten und Probleme sich ergeben.
In der zweiten Phase beginnen erste Unternehmen mit Pilotprojekten. Diese Projekte sind oft begrenzt und konzentrieren sich auf einzelne Anwendungsfälle.
In der dritten Phase entstehen stabile Implementierungen. Tools und Frameworks unterstützen den Standard. Entwickler können Lösungen relativ einfach umsetzen.
Erst in der vierten Phase wird eine Technologie zu einem alltäglichen Bestandteil des Webs.
Überträgt man dieses Muster auf WebMCP, ergibt sich ein realistischer Zeitplan.
Das Jahr 2026 dürfte vor allem von Experimenten geprägt sein. Entwickler testen neue Möglichkeiten. Browser integrieren erste Funktionen.
Im Jahr 2027 könnten erste Pilotprojekte entstehen. Einige Unternehmen werden beginnen, einfache Tools für KI-Agenten anzubieten.
Erst danach wird sich zeigen, ob sich die Technologie tatsächlich verbreitet.
Ein Beispiel aus der Reisebranche
Die Reisebranche bietet ein gutes Beispiel dafür, wie komplex solche Entwicklungen sein können.
Angenommen, eine Hotelkette möchte KI-Agenten ermöglichen, Zimmerverfügbarkeiten direkt abzufragen.
Auf den ersten Blick klingt das nach einer einfachen Funktion. In Wirklichkeit ist es ein komplexes Projekt.
Die Verfügbarkeitsdaten liegen meist in einem Property-Management-System. Dieses System verwaltet Zimmer, Buchungen und Preise.
Damit ein KI-Agent diese Daten nutzen kann, müsste eine Schnittstelle geschaffen werden. Diese Schnittstelle müsste definieren, welche Informationen abgefragt werden dürfen.
Zugleich müssten Sicherheitsfragen geklärt werden.
Darf jeder Agent diese Daten abrufen. Müssen Anfragen authentifiziert werden. Welche Daten dürfen öffentlich sein.
Auch wirtschaftliche Fragen spielen eine Rolle.
Wenn ein externer Agent Verfügbarkeiten prüft, könnte dies Auswirkungen auf Vertriebskanäle haben. Buchungsplattformen oder Partnerprogramme könnten betroffen sein.
Hinzu kommen rechtliche Aspekte.
Welche Informationen dürfen automatisiert abgefragt werden. Welche Datenschutzanforderungen gelten.
Selbst wenn die technische Umsetzung relativ einfach wäre, würde die organisatorische Abstimmung Zeit benötigen.
Ein erstes Beispiel für eine solche Hotel-Implemenetierung habe ich hier erstellt.
Der unterschätzte Faktor Datenschutz
Gerade in Europa spielt Datenschutz eine zentrale Rolle. Jede neue Schnittstelle muss prüfen, welche Daten verarbeitet werden.
Bei Reisebuchungen entstehen zahlreiche personenbezogene Informationen. Namen, Aufenthaltsdaten, Zahlungsinformationen oder Präferenzen.
Wenn KI-Agenten künftig mit Websites interagieren, muss klar definiert werden, welche Daten übertragen werden dürfen.
Unternehmen müssen sicherstellen, dass automatisierte Zugriffe keine sensiblen Informationen preisgeben. Gleichzeitig müssen sie verhindern, dass Systeme missbraucht werden.
Diese Fragen lassen sich nicht allein durch technische Lösungen beantworten. Sie erfordern juristische Bewertung und organisatorische Regeln.
Warum Unternehmen trotzdem jetzt nachdenken sollten
Angesichts dieser langen Zeiträume könnte man zu dem Schluss kommen, dass Unternehmen sich mit WebMCP erst später beschäftigen müssen.
Doch genau das wäre ein Fehler.
Die Einführung neuer Technologien folgt selten einem festen Zeitplan. Wenn eine Entwicklung plötzlich an Dynamik gewinnt, müssen Unternehmen schnell reagieren.
Organisationen, die sich bereits früh mit neuen Standards beschäftigen, sind in solchen Situationen im Vorteil.
Dabei geht es nicht darum, sofort technische Lösungen zu bauen.
Wichtiger ist ein grundlegendes Verständnis der Entwicklung.
Unternehmen sollten sich fragen, welche Informationen KI-Agenten künftig benötigen könnten. Welche Systeme diese Informationen enthalten. Und welche Schnittstellen bereits existieren.
Viele Organisationen verfügen bereits über APIs oder Datenservices. In manchen Fällen wäre eine Anpassung ausreichend, um sie für neue Anwendungen zugänglich zu machen.
Andere Unternehmen werden feststellen, dass ihre Daten stark fragmentiert sind. Informationen liegen in unterschiedlichen Systemen und sind schwer zugänglich.
Gerade diese Erkenntnis kann wertvoll sein. Sie zeigt, wo langfristige Modernisierung notwendig ist.
Das Web als Infrastruktur für Maschinen
Der vielleicht wichtigste Aspekt dieser Entwicklung liegt weniger in der konkreten Technologie. Entscheidend ist die Veränderung der Perspektive.
Über viele Jahre hinweg wurde das Web vor allem für Menschen gestaltet. Websites wurden so optimiert, dass Besucher Informationen finden und Aktionen ausführen können.
Mit dem Aufstieg von KI-Assistenten verändert sich diese Perspektive.
Maschinen werden zu aktiven Nutzern des Webs. Sie lesen Inhalte, analysieren Daten und treffen Entscheidungen.
Damit entstehen neue Anforderungen an digitale Systeme. Informationen müssen nicht nur verständlich, sondern auch maschinenlesbar sein. Funktionen müssen klar definiert und zugänglich sein.
Für Unternehmen bedeutet das eine grundlegende Veränderung ihrer digitalen Infrastruktur.
Die Website wird nicht mehr nur als Oberfläche betrachtet. Sie wird Teil eines größeren Systems aus Daten, Schnittstellen und automatisierten Prozessen.
Der Wettbewerb der nächsten Jahre
Diese Entwicklung könnte langfristig auch den Wettbewerb im Internet verändern.
Im klassischen Suchmaschinenzeitalter konkurrierten Unternehmen vor allem um Sichtbarkeit in Ergebnislisten. Rankings, Keywords und Content spielten eine zentrale Rolle.
Im Zeitalter von KI-Agenten verschiebt sich dieser Wettbewerb.
Entscheidend wird, ob ein Unternehmen Teil der Wissensbasis wird, aus der Empfehlungen entstehen. Systeme müssen verstehen können, welche Produkte oder Dienstleistungen angeboten werden und in welchem Kontext sie relevant sind.
Schnittstellen und strukturierte Daten werden damit wichtiger als reine Marketingtexte.
Unternehmen, die ihre Informationen klar modellieren und zugänglich machen, könnten in diesem Umfeld Vorteile haben.
Der lange Weg von der Idee zur Realität
Die Geschichte des Webs zeigt, dass technische Innovationen selten über Nacht den Alltag verändern.
Viele heute selbstverständliche Technologien haben Jahre gebraucht, um sich zu etablieren. Strukturierte Daten wurden bereits vor mehr als einem Jahrzehnt eingeführt und sind dennoch nicht überall verbreitet.
Ähnlich könnte es WebMCP ergehen. Die Idee ist vielversprechend. Doch ihre Umsetzung hängt von zahlreichen Faktoren ab.
Browser müssen stabile Implementierungen bereitstellen. Entwickler müssen Werkzeuge und Frameworks entwickeln. Unternehmen müssen organisatorische und rechtliche Fragen klären.
Erst wenn all diese Elemente zusammenkommen, kann sich eine Technologie wirklich durchsetzen.
Ein realistischer Blick auf die Zukunft
Wer heute über WebMCP spricht, bewegt sich zwangsläufig im Bereich von Prognosen.
Es ist gut möglich, dass erste praktische Anwendungen bereits in den kommenden Jahren entstehen. Gleichzeitig ist es unwahrscheinlich, dass der Standard kurzfristig das gesamte Web verändert.
Die wahrscheinlichste Entwicklung liegt irgendwo dazwischen.
Einige Branchen werden früh experimentieren. Unternehmen mit stark digitalisierten Systemen könnten erste Pilotprojekte starten.
Andere Organisationen werden abwarten und beobachten, wie sich die Technologie entwickelt.
Für viele Unternehmen dürfte die eigentliche Herausforderung nicht in der Technik liegen. Sie wird in der Anpassung der eigenen Systeme und Prozesse bestehen.
Die eigentliche Frage
Wenn man diese Entwicklung aus größerer Perspektive betrachtet, stellt sich eine andere Frage.
Nicht wann genau WebMCP umgesetzt wird.
Sondern wann Unternehmen beginnen, ihre digitalen Systeme so zu gestalten, dass Maschinen sinnvoll mit ihnen interagieren können.
Die Antwort auf diese Frage wird darüber entscheiden, welche Rolle sie im zukünftigen digitalen Ökosystem spielen.
Denn eines scheint bereits heute wahrscheinlich.
Im Suchmaschinenzeitalter optimierten Unternehmen Webseiten.
Im Zeitalter von KI-Agenten optimieren sie Schnittstellen.