Das Web teilt sich gerade in zwei Klassen. Sites die ChatGPT, Perplexity und Bing Copilot lesen koennen, und Sites die fuer diese Welt unsichtbar sind. AI-Ready Webdesign ist der Bauplan fuer Klasse 1: semantisches HTML5 als Skelett, Schema.org JSON-LD als Bedeutungsschicht, agents.json und llms.txt als KI-Inhaltsverzeichnis, robots.txt explizit fuer GPTBot, ClaudeBot und PerplexityBot freigegeben. Unsere eigene Site bekommt damit aktuell 1.500 AI-Citations in 30 Tagen, verifiziert ueber Bing Webmaster Tools. Eine durchschnittliche Wix-Vorlage liefert von diesen Layern keinen.
Wer 2026 eine Website baut und nur an Menschen denkt, plant schon fuer 2022. Suchanfragen verschieben sich. Im Maerz 2025 fielen Google-Referrals zu News-Sites laut Cloudflare um neun Prozent gegenueber Januar. Im April waren es minus 15 Prozent. Gleichzeitig verdoppelte sich der Anteil von OpenAIs GPTBot am gesamten KI-Crawler-Verkehr von 4,7 auf 11,7 Prozent, Anthropics ClaudeBot stieg von rund sechs auf zehn Prozent. Anthropic crawlt im Schnitt 38.000 mal pro echtem Besucher der ueber Anthropic kommt, OpenAI 1.091 mal. Das heisst: deine Website wird laengst von KIs gelesen, lange bevor ein Mensch sie sieht. Die Frage ist nur, was die Bots zu lesen finden.
Eine Website hat heute zwei Zielgruppen
Bis 2024 war Webdesign relativ einfach zu denken. Du baust eine Seite, sie sieht gut aus, sie laedt schnell, Google ranked sie nach Keywords und Backlinks, Mensch klickt drauf. Die ganze SEO-Disziplin hat 25 Jahre lang an dieser einen Pipeline gefeilt.
Diese Pipeline existiert noch, sie schrumpft aber. Daneben hat sich eine zweite Pipeline aufgebaut, die anders funktioniert. Wenn jemand ChatGPT, Perplexity oder Gemini fragt "wer baut mir eine Website auf Mallorca", durchsucht die KI nicht das Internet im klassischen Sinn. Sie liest Trainingsdaten und live abgerufene Inhalte aus einer kuratierten Quellen-Liste. Sie sucht nach strukturierten Daten, nach einer agents.json, nach einer llms.txt, nach Schema.org Markup, nach klar geschriebenen Antworten auf konkrete Fragen. Wenn deine Website das nicht hat, taucht sie in dieser Antwort nicht auf. Es geht nicht um Position 11 statt Position 1, es geht darum ob du in der Antwort stehst oder nicht.
Eine moderne Website hat damit zwei Zielgruppen. Menschen, die scrollen, klicken und vielleicht ein Formular ausfuellen. Und Maschinen, die Inhalte parsen, Strukturen verstehen und entscheiden ob deine Site eine Quelle wert ist. Beide brauchen das gleiche Fundament, aber sie lesen es auf zwei verschiedenen Ebenen.
Was sich 2025 und 2026 wirklich geaendert hat
Cloudflare veroeffentlicht halbjaehrlich Daten zum KI-Crawl-Traffic, und die Trajektorie ist eindeutig. Bis Mitte 2025 entfielen knapp 80 Prozent des KI-Bot-Verkehrs auf Training, vorher waren es 72 Prozent. Im Vergleich der Monate Juli 2024 zu Juli 2025 stieg GPTBot von 11,9 Prozent auf 28,1 Prozent Crawler-Anteil. ClaudeBot wuchs von 15 auf 23,3 Prozent. Meta-ExternalAgent kam von 2,4 auf 17,7 Prozent. Bytespider hingegen brach von 37,3 auf 5,8 Prozent ein. Googlebot ist mit 39 Prozent immer noch der Anker, aber das Bild dahinter ist vier mal vielfaeltiger geworden.
Die zweite Veraenderung sind Crawl-zu-Visitor-Quoten. Anthropic schickt 38.000 Crawls pro echtem Referral-Besucher (Stand Juli 2025, runter von einer halben Million im Januar). OpenAI 1.091. Perplexity nur noch 194 (war besser, ist gefallen). Diese Zahlen sind wichtig, weil sie zeigen wie viel Aufwand die KIs in Inhalte stecken die niemals direkt zu Klicks fuehren. Sie lesen, sie verarbeiten, sie zitieren, ohne dass dein Analytics davon was sieht. Wer hier durchblicken will braucht eine andere Messung als nur Klicks.
Diese Daten stammen aus dem Sommer 2025. Im H1 2026 hat sich das Bild eher verschaerft. Wir messen das fuer unsere eigene Domain mit Bing Webmaster Tools, mehr dazu weiter unten.
Der AI-Ready Stack: fuenf Layer, kein Hexenwerk
Eine AI-Ready Website hat fuenf Layer die zusammen arbeiten. Keiner allein bringt den Effekt, alle zusammen schon. Hier sind sie in der Reihenfolge in der wir sie bei jedem Projekt aufbauen.
Layer 1: Semantisches HTML5
Das ist die unspektakulaerste, aber wichtigste Schicht. Statt einer Wuste aus generischen Divs nutzt eine semantische Site die HTML-Tags die das Web seit 2014 hat: article, section, header, footer, nav, main, aside, h1 bis h6 in sauberer Hierarchie. Das ist banal, aber 2025 entstandene Studien wie die GEO-Forschung der dev.to-Community sind klar: KI-Modelle ranken Inhalte hoeher die saubere Struktur signalisieren. Wer mit einem Article-Tag plus h1 plus Time-Element sagt "hier ist ein Artikel von dann und dann", bekommt von einem LLM mehr Vertrauen als jemand der das gleiche in 14 ineinander geschachtelten Divs versteckt. Die dev.to-Autoren nennen das Anti-Pattern beim Namen: Div-Soup. Major Audits wie Lighthouse oder axe-core flaggen es als kritisch.
Custom-gebaute Sites kommen hier von Tag eins richtig raus, weil ein Entwickler die Wahl trifft. Wix-, Squarespace- und die meisten WordPress-Themes generieren stattdessen automatisch genau diese Div-Suppe, weil ihre Builder Layout-erst, Semantik-zweit denken.
Layer 2: Schema.org JSON-LD
Die zweite Schicht ist der explizite Bedeutungs-Layer. Du sagst der Maschine in einem maschinenlesbaren JSON-Block was deine Seite ist: Organization mit Adresse und Sprache, WebSite mit interner Suche, Article mit Autor und Veroeffentlichungsdatum, FAQPage wenn du Fragen beantwortest, BreadcrumbList fuer Navigation. Eine LinkedIn-Analyse von Lawrence McKenzie aus Januar 2026 zitiert eine Semrush-Studie ueber fuenf Millionen URLs die von ChatGPT Search und Google AI Mode zitiert wurden, mit dem Befund dass strukturierte Daten ein konsistenter Treiber von Citations sind. Eine Studie der Plattform Discovered Labs zeigt dass ChatGPT bei seinen Quellen 47,9 Prozent Wikipedia, Perplexity 46,7 Prozent Reddit zitiert. Beide Plattformen haben Schema.org von Tag eins. Das ist kein Zufall, das ist der gleiche Mechanismus.
Wir setzen Schema.org als JSON-LD in den Head, nicht als Microdata im HTML, weil JSON-LD von LLM-Crawlern besser geparst wird und nicht in den sichtbaren Code blutet.
Layer 3: llms.txt als KI-Inhaltsverzeichnis
llms.txt ist eine kleine Textdatei im Root der Domain, vergleichbar mit robots.txt aber fuer KI-Crawler. Sie sagt einer KI in zwei Sektionen was die Site ist und welche URLs die wichtigsten sind. Der Trick: ohne llms.txt muss eine KI sich durch die Sitemap kaempfen und raten was wichtig ist. Mit llms.txt liest sie den ersten Absatz, kennt den Kontext, und springt direkt auf die zentralen Seiten.
Wir kombinieren llms.txt mit einer ausfuehrlicheren llms-full.txt die in Markdown den ganzen Site-Inhalt enthaelt. Das ist wie ein PDF fuer Maschinen. Vercel hat in seiner Knowledge Base ein vergleichbares Pattern beschrieben: zusaetzlich zur HTML-Version jede Seite auch als .md-Endpoint anbieten, ueber Content Negotiation. KI-Crawler bevorzugen die Markdown-Variante, weil sie kein DOM parsen muessen.
Layer 4: agents.json + agent-card.json
Hier wird es interessant. agents.json ist eine OpenAPI-aehnliche Beschreibung welche Aktionen eine KI auf deiner Site ausfuehren kann. agent-card.json folgt dem A2A-Protokoll und beschreibt die Skills deiner Site auf hoechster Abstraktionsebene. Eine Restaurant-Website hat dann zum Beispiel die Tools "get_menu", "get_opening_hours", "make_reservation". Eine Anwaltskanzlei hat "get_specializations", "request_callback". Eine Webdesign-Agentur hat "get_pricing", "request_quote", "list_portfolio".
Das ist nicht Theorie, das funktioniert. Wenn ChatGPT bei einer Frage zu deinem Restaurant deine agents.json findet, kann es direkt das aktuelle Menue zitieren statt zu raten. Wir bauen das fuer jedes Kundenprojekt ein, fuer Bootsfahrschule Palma genauso wie fuer Anwaltskanzleien und unsere eigene Marke. Bei dito-cafe.es haben wir vier Tools (get_menu, get_info, get_events, get_reviews) plus locale-Parameter, plus eine A2A-Card mit konkreten Beispiel-Aufrufen.
Layer 5: robots.txt fuer KI-Bots
Der letzte Layer ist banal, aber er entscheidet ueber alles. Wenn deine robots.txt die KI-Crawler nicht explizit zulaesst, kann der Rest egal sein. Du brauchst Allow-Eintraege fuer GPTBot, ChatGPT-User, anthropic-ai, ClaudeBot, PerplexityBot, Google-Extended (Googles AI-Trainingsbot, separat von Googlebot), Applebot-Extended fuer Apple Intelligence. Plus den klassischen Crawlern. Standard-Setups sperren das oft entweder pauschal oder pauschal nicht, beides ist falsch. Du willst die KIs explizit einladen und gleichzeitig kontrollieren was sie nicht sehen.
Warum Wix, Squarespace und Standard-Themes daran scheitern
Hier wird es ehrlich. Die haerten Studien-Zahlen die "Wix-Sites werden um X Prozent weniger zitiert" sagen, gibt es nicht. Was es gibt sind strukturelle Gruende warum es so aussehen wird. Auf Wix hast du keinen Zugriff auf die robots.txt, nur auf einen einfachen Toggle. Du kannst keinen agents.json- oder llms.txt-Endpoint hinterlegen, weil die Plattform diese Routen nicht freigibt. Du hast Schema.org nur in dem Umfang den ein Plugin oder eine Voreinstellung erlaubt, oft nur das Minimum. Der HTML-Output ist Builder-generiert und kommt selten in semantischer Form raus.
Squarespace hat aehnliche Limits. WordPress kann mit fuenf bis sechs Plugins (RankMath, Yoast, agents.json-Plugin, llms.txt-Plugin, robots.txt-Editor) das alles abbilden, ist dann aber ein Bastelbau aus fuenf Komponenten von verschiedenen Anbietern, mit fuenf Update-Pfaden und fuenf Bruchstellen. Ein Custom-Build hat das in drei Files konsolidiert.
Bleyldev hat es im April 2026 sauber zusammengefasst: "Wix is a solid platform for fast launches, simple sites, and businesses that prioritize convenience over performance ceilings. A custom website (...) makes sense when unique functionality or scale justifies the investment." Wenn du eine Drei-Seiten-Visitenkarte ohne Conversion-Anspruch brauchst, ist Wix in Ordnung. Wenn du in der ChatGPT-Antwort zu deiner Branche stehen willst, ist Wix die falsche Schicht.
Unser Beweis: 1.500 AI-Citations in 30 Tagen
Wir bauen unser eigenes Studio nach diesem Stack, und wir messen oeffentlich. Aktueller Stand vom 30. April 2026, gezogen aus Microsoft Bing Webmaster Tools (Live-Screenshot unter studiomeyer.io/proof/bing-ai-citations-current.png):
1.500 Bing Copilot AI-Citations in den letzten 30 Tagen. 15 Avg Cited Pages. Am 13. April waren wir bei vier durchschnittlich zitierten Seiten, am 22. April bei neun. Das ist ein Anstieg um 275 Prozent in 17 Tagen. Im April 2025 waren es 187 Citations gesamt. Heute 1.500. Plus 702 Prozent in 24 Tagen.
Bei Google Search Console sehen wir parallel den klassischen Search-Hebel: 14.670 Impressionen in 28 Tagen, plus 364 Prozent gegenueber dem 12. April. Die Top Bing Copilot Grounding Queries waren im April 2026: "tendencias diseño web 2026" mit 35 Citations (Spanisch dominant), "Webdesign Trends 2025 2026" mit 29 (DE), "KI Automatisierung technische Service Anfragen" mit 28 (DE), "web design trends 2026" mit 27 (EN), "tendencias actuales diseño web 2026" mit 25.
Anders gesagt: ein einzelner Blog-Artikel mit dem richtigen Stack zieht in einem Monat ueber hundert AI-Citations. Eine Wix-Site auf gleichem Thema zieht keine.
So sieht der Prozess fuer dich aus
Wenn ihr eure Site AI-Ready machen wollt, gehen wir in drei Schritten vor.
Schritt eins ist ein Audit. Wir ziehen eure aktuelle Seite durch ein paar Checks: Lighthouse fuer Performance und Accessibility, eine Pruefung welche Schema-Typen vorhanden sind, ein Scan ob agents.json, llms.txt und ein KI-freundlicher robots.txt existieren, eine semantische HTML-Pruefung. Das Audit dauert eine Stunde, danach wisst ihr was da ist und was fehlt. Bei Bestandskunden ist das oft inklusive.
Schritt zwei ist der Stack-Einbau. Bei einer Custom-gebauten Site brauchen wir typischerweise zwischen ein paar Tagen und zwei Wochen, je nach Code-Basis. Bei einer Wix- oder Squarespace-Site ist die ehrliche Empfehlung: Migration auf ein Custom-Setup. Auf der Vorlage-Plattform kommt ihr nicht weit genug.
Schritt drei ist Validierung. Wir richten Bing Webmaster Tools und Google Search Console ein, registrieren die Site bei IndexNow, schicken Sitemaps und llms.txt an die wichtigen Dienste, und messen die naechsten Wochen wie sich Citations und Impressionen entwickeln. Nach 30 bis 60 Tagen habt ihr eine erste Baseline.
Was es kostet, was es bringt
Webdesign startet bei uns bei 199 Euro pro Monat oder 2.500 Euro einmalig. AI-Ready ist Standard in jedem Tier, kein Upsell. Was es bringt: in Q3 und Q4 2026 werden Sales-Funnel mit "wer macht KI-Sichtbarkeit auf Mallorca" oder "beste Webdesign-Agentur fuer DACH-Mittelstand" als ChatGPT-Antwort enden. Wenn ihr in der Antwort steht, kommen Anfragen rein die ein Mensch nie ueber Google gefunden haette. Wenn ihr nicht in der Antwort steht, existiert ihr fuer diese Kunden nicht. Das ist keine Theorie, das passiert taeglich.
Wir bauen seit Anfang 2026 fuer Mallorca und DACH genau diese Sichtbarkeit. Wenn das fuer dich relevant klingt, lass uns reden. Erstes Gespraech ist immer kostenlos und unverbindlich. Buchen kannst du direkt unter booking.studiomeyer.io/matthias oder ueber unser Website-Audit, das gibt dir einen ersten Score plus konkrete Naechste-Schritte-Empfehlung.
