La web se está dividiendo en dos clases. Sitios que ChatGPT, Perplexity y Bing Copilot pueden leer, y sitios invisibles para ese mundo. El diseño web AI-ready es el plano para la clase uno: HTML5 semántico como esqueleto, Schema.org JSON-LD como capa de significado, agents.json y llms.txt como índice de contenido para IA, robots.txt explícitamente abierto para GPTBot, ClaudeBot y PerplexityBot. Nuestro propio sitio recibe actualmente 1.500 citas de IA en treinta días, verificado a través de Bing Webmaster Tools. La plantilla Wix promedio no entrega ninguna de estas capas.
Quien construya un sitio web en 2026 pensando solo en humanos está planificando para 2022. El comportamiento de búsqueda está cambiando. En marzo de 2025 las referencias de Google a sitios de noticias cayeron aproximadamente nueve por ciento respecto a enero, según Cloudflare. En abril fue peor, menos quince por ciento. Al mismo tiempo, GPTBot de OpenAI más que duplicó su participación en el tráfico total de rastreadores de IA, del 4,7 al 11,7 por ciento; ClaudeBot de Anthropic creció del seis al diez por ciento. Anthropic rastrea en promedio 38.000 veces por cada visitante real que envía de vuelta, OpenAI 1.091. Traducción: tu sitio web ya está siendo leído por IAs mucho antes de que ningún humano lo vea. La única pregunta es qué encuentran los bots cuando llegan.
Una web tiene hoy dos audiencias
Hasta 2024 el diseño web era relativamente simple de pensar. Construyes una página, se ve bien, carga rápido, Google la posiciona por palabras clave y backlinks, un humano hace clic. Toda la disciplina SEO pasó veinticinco años puliendo ese único embudo.
Ese embudo sigue existiendo, pero está reduciéndose. Junto a él se construyó un segundo embudo que funciona distinto. Cuando alguien pregunta a ChatGPT, Perplexity o Gemini "¿quién construye webs en Mallorca?", la IA no busca en internet en sentido clásico. Lee datos de entrenamiento y contenido obtenido en directo desde una lista de fuentes curada. Busca datos estructurados, un agents.json, un llms.txt, marcado Schema.org, respuestas claras a preguntas concretas. Si tu web no lo tiene, no apareces en la respuesta. No se trata de la posición once en lugar de la uno, se trata de si estás o no en la respuesta.
Una web moderna tiene por tanto dos audiencias. Humanos, que hacen scroll, clic y a lo mejor rellenan un formulario. Y máquinas, que parsean contenido, entienden estructura y deciden si tu sitio merece ser una fuente. Ambos necesitan el mismo cimiento, pero lo leen en dos capas diferentes.
Qué cambió realmente en 2025 y 2026
Cloudflare publica datos sobre tráfico de rastreadores de IA dos veces al año, y la trayectoria es clara. A mediados de 2025, alrededor del 80 por ciento del tráfico de bots de IA se dedicaba a entrenamiento, frente al 72 por ciento del año anterior. Comparando julio 2024 con julio 2025: GPTBot subió del 11,9 al 28,1 por ciento de cuota de rastreador. ClaudeBot creció del 15 al 23,3 por ciento. Meta-ExternalAgent saltó del 2,4 al 17,7 por ciento. Bytespider cayó del 37,3 al 5,8 por ciento. Googlebot sigue anclando el cuadro con un 39 por ciento, pero el campo detrás es cuatro veces más diverso que hace un año.
El segundo cambio son las ratios de rastreo por visitante. Anthropic ahora envía 38.000 rastreos por cada visitante real referido (julio 2025, frente a medio millón en enero). OpenAI 1.091. Perplexity está en 194 rastreos por visitante, en descenso. Estos números importan porque muestran cuánto trabajo invierten las IAs en contenido que jamás convierte directamente en clic. Leen, procesan, citan, sin que tus analytics vean nada. Quien quiera medir visibilidad aquí necesita otra vara que no sean solo clics.
Esos datos son del verano de 2025. En el primer semestre de 2026 el cuadro solo se ha agudizado. Lo medimos para nuestro propio dominio con Bing Webmaster Tools, más sobre eso abajo.
El stack AI-ready: cinco capas, sin magia
Una web AI-ready tiene cinco capas que funcionan en conjunto. Ninguna por sí sola entrega el efecto, todas juntas sí. Aquí están en el orden en que las construimos en cada proyecto.
Capa 1: HTML5 semántico
Esta es la capa menos vistosa y la más importante. En vez de un desierto de divs genéricos, un sitio semántico usa las etiquetas HTML que la web tiene desde 2014: article, section, header, footer, nav, main, aside, h1 hasta h6 en jerarquía limpia. Banal, pero la investigación GEO de la comunidad dev.to publicada a finales de 2025 es inequívoca: los modelos de IA posicionan más alto el contenido que señaliza estructura limpia. Una página que dice "esto es un artículo de tal fecha por tal autor" mediante una etiqueta article, un h1 y un elemento time recibe más confianza de un LLM que el mismo contenido enterrado en catorce divs anidados. Los autores de dev.to nombran el antipatrón directamente: div soup. Auditorías mayores como Lighthouse y axe-core lo marcan como crítico.
Los sitios construidos a medida hacen esto bien desde el día uno porque un desarrollador toma la decisión. Wix, Squarespace y la mayoría de temas WordPress generan exactamente esa sopa de divs automáticamente, porque sus constructores piensan primero el layout, después la semántica.
Capa 2: Schema.org JSON-LD
La segunda capa es la capa explícita de significado. Le dices a la máquina en un bloque JSON qué es realmente tu página: Organization con dirección e idioma, WebSite con búsqueda interna, Article con autor y fecha, FAQPage si respondes preguntas, BreadcrumbList para navegación. Un análisis de LinkedIn de Lawrence McKenzie de enero 2026 cita un estudio de Semrush sobre cinco millones de URLs referenciadas por ChatGPT Search y Google AI Mode, encontrando que los datos estructurados son un impulsor consistente de citaciones. Un estudio de Discovered Labs sobre patrones de citación de IA muestra que ChatGPT obtiene el 47,9 por ciento de sus fuentes de Wikipedia, Perplexity el 46,7 por ciento de Reddit. Ambas plataformas tenían Schema.org desde el día uno. No es casualidad, es el mismo mecanismo.
Desplegamos Schema.org como JSON-LD en el head, no como Microdata en el HTML, porque JSON-LD se parsea de forma más fiable por los rastreadores LLM y no se filtra al código visible.
Capa 3: llms.txt como índice de contenido para IA
llms.txt es un pequeño archivo de texto en la raíz de tu dominio, comparable a robots.txt pero para rastreadores de IA. En dos secciones le dice a una IA qué es el sitio y qué URLs son las más importantes. El truco es este: sin llms.txt una IA tiene que rastrear el sitemap y adivinar qué importa. Con llms.txt lee el primer párrafo, conoce el contexto, salta directamente a las páginas centrales.
Combinamos llms.txt con un llms-full.txt más largo que contiene el contenido completo del sitio en Markdown. Piénsalo como un PDF para máquinas. Vercel describe un patrón similar en su knowledge base: además de la versión HTML de cada página, ofrecer un endpoint .md vía content negotiation. Los rastreadores de IA prefieren la variante Markdown porque no tienen que parsear un DOM.
Capa 4: agents.json + agent-card.json
Aquí se pone interesante. agents.json es una descripción tipo OpenAPI de qué acciones puede ejecutar una IA en tu sitio. agent-card.json sigue el protocolo A2A y describe los skills de tu sitio en el nivel más alto de abstracción. Una web de restaurante puede tener tools como get_menu, get_opening_hours, make_reservation. Un despacho de abogados tiene get_specializations, request_callback. Una agencia de diseño web tiene get_pricing, request_quote, list_portfolio.
Esto no es teoría, funciona. Cuando ChatGPT encuentra tu agents.json al responder una pregunta sobre tu restaurante, puede citar el menú actual real en vez de adivinar. Lo construimos en cada proyecto de cliente, desde una escuela náutica de Mallorca hasta despachos de abogados y nuestra propia marca. Para dito-cafe.es desplegamos cuatro tools (get_menu, get_info, get_events, get_reviews) con parámetro locale, más una A2A card con ejemplos concretos de llamadas.
Capa 5: robots.txt para bots de IA
La última capa es banal pero decide todo lo demás. Si tu robots.txt no permite explícitamente los rastreadores de IA, lo demás puede ser irrelevante. Necesitas entradas allow para GPTBot, ChatGPT-User, anthropic-ai, ClaudeBot, PerplexityBot, Google-Extended (el bot de entrenamiento de IA de Google, separado de Googlebot), Applebot-Extended para Apple Intelligence. Más los rastreadores clásicos. Las configuraciones por defecto suelen bloquear todo o no bloquear nada, ambas son incorrectas. Quieres invitar explícitamente a las IAs y al mismo tiempo controlar lo que no pueden ver.
Por qué Wix, Squarespace y los temas estándar fallan en esto
Aquí seamos honestos. Los números duros de estudios que digan "los sitios Wix se citan X por ciento menos" no existen. Lo que sí existe son razones estructurales por las que se verá así. En Wix no tienes acceso real a robots.txt, solo un toggle simple. No puedes alojar un endpoint agents.json o llms.txt porque la plataforma no expone esas rutas. Tu cobertura de Schema.org es la que un plugin o una opción interna te da, a menudo lo mínimo. El HTML de salida es generado por el constructor y rara vez sale semántico.
Squarespace tiene límites similares. WordPress puede cubrirlo todo con cinco o seis plugins (RankMath, Yoast, un plugin de agents.json, un plugin de llms.txt, un editor de robots.txt) pero terminas con un parche de cinco proveedores con cinco rutas de actualización y cinco puntos de fallo. Una construcción a medida consolida esto en tres archivos.
Bleyldev lo resumió en abril 2026: "Wix is a solid platform for fast launches, simple sites, and businesses that prioritize convenience over performance ceilings. A custom website (...) makes sense when unique functionality or scale justifies the investment." Si necesitas una tarjeta de visita de tres páginas sin ambición de conversión, Wix está bien. Si quieres aparecer en la respuesta de ChatGPT para tu sector, Wix es la capa equivocada.
Nuestra prueba: 1.500 citas de IA en 30 días
Construimos nuestro propio estudio según este stack y medimos públicamente. Estado actual al 30 de abril de 2026, extraído de Microsoft Bing Webmaster Tools (captura en vivo en studiomeyer.io/proof/bing-ai-citations-current.png):
1.500 citas de IA de Bing Copilot en los últimos treinta días. 15 páginas citadas en promedio. El 13 de abril estábamos en cuatro páginas citadas en promedio, el 22 de abril en nueve. Eso es un salto del 275 por ciento en diecisiete días. En abril 2025 tuvimos 187 citas en total. Hoy 1.500. Eso es más 702 por ciento en 24 días.
En Google Search Console vemos en paralelo el motor clásico de búsqueda: 14.670 impresiones en 28 días, más 364 por ciento contra el 12 de abril. Las top queries grounding de Bing Copilot en abril 2026 fueron: "tendencias diseño web 2026" con 35 citas (español dominante), "Webdesign Trends 2025 2026" con 29 (DE), "KI Automatisierung technische Service Anfragen" con 28 (DE), "web design trends 2026" con 27 (EN), "tendencias actuales diseño web 2026" con 25.
Dicho de otra forma: un solo artículo de blog con el stack correcto trae más de cien citas de IA en un mes. Un sitio Wix sobre el mismo tema trae cero.
Cómo se ve el proceso para ti
Si quieres hacer tu sitio AI-ready, trabajamos en tres pasos.
Paso uno es una auditoría. Pasamos tu sitio actual por unos checks: Lighthouse para performance y accesibilidad, escaneo de qué tipos Schema están presentes, verificación de si existen agents.json, llms.txt y un robots.txt amigable con IA, revisión de HTML semántico. La auditoría dura aproximadamente una hora, después de la cual sabes qué está y qué falta. Para clientes existentes suele estar incluida.
Paso dos es la construcción del stack. En un sitio construido a medida típicamente necesitamos entre unos días y dos semanas según la base de código. En un sitio Wix o Squarespace la recomendación honesta es: migrar a una configuración a medida. La plataforma de plantillas no te deja llegar suficientemente lejos.
Paso tres es validación. Configuramos Bing Webmaster Tools y Google Search Console, registramos el sitio en IndexNow, enviamos sitemaps y llms.txt a los servicios relevantes, y observamos las semanas siguientes cómo evolucionan citas e impresiones. Dentro de treinta a sesenta días tienes una primera baseline.
Qué cuesta, qué aporta
El diseño web con nosotros empieza en 199 euros al mes o 2.500 euros pago único. AI-ready es estándar en cada tier, nunca un upsell. Lo que aporta: en el tercer y cuarto trimestre de 2026 los embudos de venta van a terminar con "quién es la mejor agencia de diseño web para el mercado de habla alemana" o "quién maneja la visibilidad de IA en Mallorca" como respuesta de ChatGPT. Si estás en la respuesta, recibes consultas que ningún humano habría encontrado por Google. Si no estás en la respuesta, no existes para esos clientes. Esto no es teoría, ocurre a diario.
Construimos exactamente este tipo de visibilidad para Mallorca y la región DACH desde principios de 2026. Si te suena relevante, hablemos. La primera conversación es siempre gratuita y sin compromiso. Puedes reservar directamente en booking.studiomeyer.io/matthias o pasar primero por nuestra auditoría de website, que te da una puntuación inicial más una recomendación concreta de próximos pasos.
