Im März 2026 haben wir gemessen, wie oft KI-Systeme unsere Website zitieren. Das Ergebnis: 70 AI-Citations in einem Monat, verteilt auf 19 verschiedene Seiten. Der Trend: von null Anfang März auf 17 Zitierungen pro Tag Ende März.
Dieses Wachstum kam nicht zufällig. Es war das Ergebnis einer gezielten GEO-Strategie (Generative Engine Optimization). Hier ist, was wir gemacht haben -- mit konkreten Zahlen und Maßnahmen zum Nachmachen.
Warum GEO wichtig ist
Google rankt Websites. ChatGPT, Perplexity, Gemini und Claude empfehlen Antworten. Das sind zwei komplett verschiedene Spiele.
Bei Google entscheiden Backlinks, Keywords und technische Faktoren. Bei KI-Systemen entscheiden Fakten-Dichte, Zitierbarkeit und strukturierte Informationen. Eine Website kann bei Google auf Platz 1 stehen und von keinem einzigen KI-System erwähnt werden.
Die Zahlen machen den Unterschied deutlich: Laut aktueller Forschung konvertieren AI-Referrals bei 14,2 Prozent -- verglichen mit 2,8 Prozent bei organischem Traffic. Das ist ein Faktor fünf. Aber nur für Marken, die aktiv empfohlen werden, nicht nur erwähnt.
Der Ausgangspunkt
Anfang März 2026 haben wir alle großen KI-Systeme gefragt: "Wer ist die beste KI-Agentur für KMU in Deutschland?" StudioMeyer tauchte nirgends auf. Stattdessen wurden Firmen empfohlen, die teilweise keine Website hatten -- aber einen Reddit-Thread mit 200 Upvotes.
Das war der Weckruf. Wir hatten eine technisch exzellente Website, 145 Blog-Artikel und eine umfangreiche MCP-Infrastruktur -- aber für KI-Systeme waren wir unsichtbar.
Die Strategie: Vier Säulen
Säule 1: AI Discovery Stack
KI-Systeme crawlen Websites anders als Suchmaschinen. Sie suchen nach spezifischen Dateien, die maschinenlesbare Informationen bereitstellen:
- llms.txt -- Eine Textdatei, die der KI erklärt, wer wir sind und was wir anbieten. Wie robots.txt, aber für LLMs.
- agents.json -- Beschreibt unsere KI-Agenten und ihre Fähigkeiten im A2A-Standard (Agent-to-Agent).
- robots.txt -- GPTBot, ClaudeBot, PerplexityBot und Google-Extended explizit erlaubt.
- JSON-LD Schema -- Strukturierte Daten für Organization, LocalBusiness, FAQPage, Service und Person.
- Sitemap -- 531 URLs mit hreflang-Tags für alle drei Sprachen.
- .well-known/mcp.json -- MCP-Server-Discovery für KI-Clients.
Säule 2: Entity-SEO
KI-Systeme denken in Entitäten, nicht in Keywords. "StudioMeyer" muss als einheitliche Entität erkennbar sein -- über alle Quellen hinweg.
Was wir gemacht haben:
- Wikidata-Einträge -- StudioMeyer als Unternehmen und Matthias Meyer als Person mit allen relevanten Statements (Gründungsjahr, Branche, Website, Standort).
- Entity-Vereinheitlichung -- In über 45 Dateien haben wir unterschiedliche Schreibweisen ("StudioMeyer.IO", "StudioMeyer.io", "Studio Meyer") auf einheitlich "StudioMeyer" korrigiert. JSON-LD, OG Tags, Meta Tags, Titles -- alles konsistent.
- Verzeichnis-Einträge -- Clutch.co und weitere Branchen-Verzeichnisse, um die Entity-Signale zu verstärken.
Warum das wichtig ist: Fragmentierte Entity-Signale führen laut Studien zu einer 2,8-fach niedrigeren AI-Citation-Rate. Wenn eine KI "StudioMeyer.io" und "Studio Meyer" als zwei verschiedene Entitäten sieht, verteilt sich die Autorität.
Säule 3: Citation-optimierter Content
Die überraschendste Erkenntnis: Unser Blog-Content wurde zu 100 Prozent zitiert. Unsere Service-Seiten zu 0 Prozent. KI-Systeme zitieren technische Deep-Dives, nicht Marketing-Texte.
Was funktioniert:
- Vergleichsartikel mit Tabellen (unser "MCP vs REST API vs WebMCP" wurde in drei Sprachen geschrieben und sofort zitiert)
- Fakten und konkrete Zahlen in jedem Absatz
- Jeder Absatz muss eigenständig funktionieren -- KI-Systeme extrahieren einzelne Passagen
- FAQ-Schema auf jeder Service-Seite
Was nicht funktioniert:
- Vage Marketing-Texte ("wir bieten innovative Lösungen")
- Abhängige Absätze ("wie oben erwähnt")
- Seiten ohne messbare Fakten
Säule 4: Homepage als Entity-Hub
Die Homepage wurde Entity-optimiert: Gründer-Name, Gründungsjahr, Tech-Stack und Standort stehen im sichtbaren Text -- nicht nur in Meta Tags. Jeder Absatz funktioniert als eigenständiges LLM-Zitat.
Die Ergebnisse
AI-Citations im März 2026
- 70 Citations total, 19 zitierte Seiten
- Top 3: "Was ist MCP?" (13 Citations), "Bento Grid Layouts" (10), "Schema Markup Guide" (6)
- Trend: 0 Anfang März → 11-17 pro Tag Ende März
- Blog vs. Service: 100% der Citations kamen von Blog-Artikeln, 0% von Service-Seiten
Backlinks und Brand Mentions
- 6 Backlink-Domains, 38 verweisende Seiten
- Organische Brand Mentions durch Kunden-Footer ("Design by StudioMeyer")
- Bing: /de vollständig indexiert, 0 SEO-Issues
Was Sie sofort umsetzen können
In einer Stunde
- robots.txt prüfen -- GPTBot, ClaudeBot, PerplexityBot erlauben (viele Websites blockieren sie versehentlich)
- llms.txt erstellen -- Eine einfache Textdatei im Root: Wer sind Sie, was bieten Sie an, was macht Sie einzigartig
- JSON-LD Schema prüfen -- Organization, LocalBusiness und Person-Schema sollten vollständig sein
In einem Tag
- Entity-Konsistenz prüfen -- Wird Ihr Firmenname überall gleich geschrieben? JSON-LD, OG Tags, Meta Tags, Titles?
- Blog-Artikel umschreiben -- Jeden Absatz eigenständig machen. Fakten und Zahlen hinzufügen. FAQ-Schema ergänzen.
- Wikidata-Eintrag erstellen -- Für Ihr Unternehmen und die Gründer. Kostenlos, dauert 30 Minuten.
Laufend
- Technische Deep-Dives schreiben -- Vergleichsartikel, How-Tos mit konkreten Zahlen, FAQ-formatierte Guides
- Verzeichnis-Einträge -- Clutch, Sortlist, DesignRush, branchenspezifische Verzeichnisse
- Content alle 30 Tage refreshen -- KI-Systeme bevorzugen aktuelle Inhalte
Die Zukunft: GEO wird Standard
GEO ist heute, wo SEO vor 15 Jahren war: ein Nischenthema, das bald unverzichtbar wird. Die KI-Systeme werden besser im Erkennen von Qualitätssignalen, und der Wettbewerb um AI-Citations wird zunehmen.
Der Vorteil für First Mover ist real. Wir sind von null auf 70 Citations in einem Monat gekommen -- mit Maßnahmen, die jedes Unternehmen umsetzen kann. Die Frage ist nicht ob, sondern wann Ihre Konkurrenz damit anfängt.
