Zum Hauptinhalt springen
Google-Agent: Der neue User-Agent für AI-Agenten erklärt
Zurück zum Blog
KI & Automatisierung 3. April 2026 9 min Lesezeitvon Matthias Meyer

Google-Agent: Der neue User-Agent für AI-Agenten erklärt

Google-Agent ist der erste User-Agent für autonome AI-Agenten im Web. Was er tut, wie Web Bot Auth funktioniert und was Website-Betreiber jetzt vorbereiten sollten.

Google-Agent ist ein neuer User-Agent von Google, der AI-Agenten identifiziert, die im Auftrag eines Users autonom im Web navigieren — Seiten lesen, Formulare ausfuellen, Preise vergleichen und Kaeufe ausfuehren. Seit dem 20. Maerz 2026 ist er offiziell dokumentiert. Er ist kein Crawler wie Googlebot, sondern ein User-Triggered Fetcher, der auf direkte Nutzeranfragen reagiert. Google-Agent nutzt erstmals das Web Bot Auth Protokoll fuer kryptographische Bot-Verifizierung.

Wer die letzten Monate die Google-Crawler-Dokumentation beobachtet hat, kennt das Muster: Alle paar Wochen taucht ein neuer User-Agent auf. Aber Google-Agent ist anders. Er ist der erste offizielle Identifier fuer AI-Agenten, die autonom im Web handeln — und er kommt mit einer kryptographischen Identitaet.

Was ist Google-Agent und wie unterscheidet er sich von Googlebot?

Google-Agent ist ein User-Triggered Fetcher — das bedeutet: Er besucht Websites nur, wenn ein echter Mensch ihn dazu beauftragt. Das ist ein fundamentaler Unterschied zu Googlebot, der automatisch im Hintergrund crawlt.

EigenschaftGooglebotGoogle-Agent
TypCrawlerUser-Triggered Fetcher
TriggerAutomatisch (Crawl-Schedule)Nutzer-Auftrag ("Buche mir ein Hotel")
Was er tutSeiten lesen, indexierenNavigieren, klicken, Formulare ausfuellen, kaufen
IP-Rangescommon-crawlers.jsonuser-triggered-agents.json (neu, separat)
robots.txtRespektiertIgnoriert (user-triggered)
IdentifikationUser-Agent + Reverse DNSUser-Agent + Web Bot Auth (kryptographisch)

Der User-Agent String fuer Desktop:

Mozilla/5.0 AppleWebKit/537.36 (KHTML, like Gecko; compatible; Google-Agent;
+https://developers.google.com/crawling/docs/crawlers-fetchers/google-agent)
Chrome/W.X.Y.Z Safari/537.36

Was ist Project Mariner und warum ist es wichtig?

Project Mariner ist Googles AI-Agent, der den Google-Agent User-Agent nutzt. Vorgestellt bei Google I/O 2025, basiert er auf Gemini 2.0 und kann:

  • Autonom im Web navigieren — Websites oeffnen, Links folgen, scrollen
  • Formulare ausfuellen — Kontaktformulare, Buchungsformulare, Checkout-Prozesse
  • Preise vergleichen — Mehrere Shops besuchen und Ergebnisse zusammenfassen
  • Aktionen ausfuehren — Buchungen vorbereiten, Warenkörbe fuellen

Mariner arbeitet nach dem Observe-Plan-Act-Prinzip: Er analysiert den Seiteninhalt, plant eine Folge von Schritten und fuehrt sie aus — immer unter User-Kontrolle. Seit dem I/O-Update laeuft Mariner in Cloud VMs und kann bis zu zehn Tasks parallel bearbeiten.

Aktueller Stand (April 2026): Nur in den USA verfuegbar, nur fuer Google AI Ultra Abonnenten ($249.99/Monat). Der europaeische Rollout ist angekuendigt, aber ohne konkretes Datum. Erfahrungsgemaess folgt Europa wenige Monate nach dem US-Launch.

Was ist das Web Bot Auth Protokoll?

Die vielleicht wichtigste Neuerung: Google experimentiert erstmals mit kryptographischer Bot-Verifizierung. Statt sich nur per User-Agent String zu identifizieren (leicht faelschbar), signiert Google-Agent seine HTTP-Requests mit einem Private Key.

So funktioniert es:

  1. Google-Agent hat ein Schluesselpaar (Private Key + Public Key)
  2. Jeder HTTP-Request wird signiert — der Private Key erstellt eine kryptographische Signatur
  3. Der Server verifiziert — mit dem Public Key aus einem oeffentlichen Verzeichnis
  4. Ergebnis: Mathematischer Beweis, dass der Request wirklich von Google kommt

Die Identitaet ist https://agent.bot.goog — ein IETF-Draft (Internet Engineering Task Force), also ein potenzieller Internet-Standard.

Wer unterstuetzt es bereits:

  • Google (Google-Agent)
  • Cloudflare (WAF-Integration)
  • Akamai (Bot-Management)
  • Amazon (AgentCore Browser)

Das ist wie ein digitaler Reisepass fuer Bots. Bisher konnte jeder Bot behaupten, Googlebot zu sein. Mit Web Bot Auth ist die Identitaet kryptographisch gesichert und in Echtzeit verifizierbar.

Was bedeutet Google-Agent fuer Website-Betreiber?

robots.txt greift nicht

Google-Agent ist ein User-Triggered Fetcher und ignoriert robots.txt — genau wie ein normaler Browser. Denn er handelt im Auftrag eines echten Users. Das bedeutet: Sie koennen Google-Agent nicht per robots.txt blockieren.

WAF und Bot-Schutz pruefen

Aggressive Anti-Bot-Massnahmen (CAPTCHAs, JavaScript-Challenges, Rate Limiting) koennen Google-Agent blockieren — und damit den User frustrieren, der einen Auftrag delegiert hat. Pruefen Sie Ihre WAF-Regeln und stellen Sie sicher, dass Google-Agent nicht faelschlicherweise geblockt wird.

Structured Data wird zum Wettbewerbsvorteil

AI-Agenten nutzen strukturierte Daten um Aufgaben auszufuehren: Produktpreise vergleichen, Verfuegbarkeit pruefen, Buchungen vorbereiten. Websites mit sauberem Schema Markup (Product, Offer, LocalBusiness, FAQ) werden bevorzugt — weil der Agent die Daten zuverlaessiger extrahieren kann.

agents.json und A2A-Protokoll

Das Agent-to-Agent (A2A) Protokoll von Google definiert, wie AI-Agenten miteinander kommunizieren. Websites mit einer agents.json Datei (unter /.well-known/agents.json) signalisieren AI-Agenten, welche Faehigkeiten sie anbieten. Das ist die Zukunft der Web-Interaktion — nicht mehr Mensch-zu-Website, sondern Agent-zu-Website.

Checkliste: Was Sie jetzt vorbereiten sollten

Auch wenn Google-Agent in Europa noch nicht aktiv ist — die Vorbereitung ist einfach und schadet nie:

  1. Server-Logs: Google-Agent als eigenen Bot-Typ erfassen (separater UA String)
  2. WAF-Regeln: Sicherstellen dass Google-Agent nicht geblockt wird
  3. Schema Markup: Product, Offer, LocalBusiness, FAQ — sauber und aktuell
  4. agents.json: Unter /.well-known/agents.json bereitstellen (beschreibt Website-Faehigkeiten)
  5. Formulare: Semantisches HTML, aria-Labels, klare Feldbezeichnungen — Agents muessen Formulare verstehen
  6. Web Bot Auth: Beobachten — wenn Sie Cloudflare oder Akamai nutzen, wird es automatisch unterstuetzt

Fazit

Google-Agent markiert den Beginn einer neuen Aera: Agentic Search. Statt Menschen die Suchergebnisse zu praesentieren und sie selbst klicken zu lassen, schickt Google einen AI-Agenten los, der die Aufgabe erledigt. Fuer Website-Betreiber bedeutet das: Wer maschinenlesbar ist, bekommt den Traffic. Wer es nicht ist, wird uebersprungen.

Die gute Nachricht: Alles was fuer SEO und AI-Sichtbarkeit wichtig ist — strukturierte Daten, semantisches HTML, klare Inhalte — ist auch fuer Agentic Search relevant. Wer heute in Schema Markup und AI-Ready-Infrastruktur investiert, ist vorbereitet.

Weiterfuehrend: Was ist das MCP-Protokoll? | Schema Markup Guide | FAQ und HowTo Schema

Matthias Meyer

Matthias Meyer

Gründer & KI-Architekt

Full-Stack-Entwickler mit über 10 Jahren Erfahrung in Webdesign und KI-Systemen. Baut AI-Ready Websites und KI-Automatisierungen für KMU und Agenturen.

google-agentagentic-searchweb-bot-authproject-marinerai-crawlerrobots-txt
Google-Agent: Der neue User-Agent für AI-Agenten erklärt