AI SEO
Capítulo 08 / 08
Medición de búsqueda con IA
Cómo trackear si tu programa de AI-SEO está funcionando — a través de ChatGPT, Gemini, Claude, Perplexity y AI Overviews. Las métricas, las herramientas, y la metodología que convierte la búsqueda con IA de un canal basado en fe en uno responsable.

El AI SEO sin medición es optimización basada en fe. El trabajo se siente productivo, los motores son grandes, el comportamiento del usuario es real — pero sin una capa de medición, no hay forma de decir si el trabajo está produciendo lift de citación o solo está agregando al pile de contenido. Este capítulo cubre las métricas, las herramientas y el diseño del set de prompts que convierten un programa de AI-SEO de una inversión basada en fe en una responsable con reportes semanales y optimización atada al outcome.
“El gap de medición es la única razón más grande por la que los programas de AI SEO se estancan. Sin un reporte semanal de tasa de mención, el trabajo de optimización es invisible — cada cambio se siente como adivinanza porque no hay señal contra la cual probarlo. Con el reporte, cada artículo publicado y cada arreglo de schema puede ser evaluado dentro de una semana. La medición convierte al AI SEO en una disciplina normal de optimización.”
Las cuatro métricas
- Tasa de mención. El porcentaje de prompts donde el nombre de tu marca aparece en la respuesta, mencionado o referenciado. La señal más amplia. Trackea la presencia de awareness en el output del motor.
- Tasa de citación. Cuando el motor produce una lista de citación (Perplexity siempre, AIO seguido, Gemini a veces), el porcentaje donde tu URL aparece. Trackea atribución y presencia que impulsa clic.
- Share of voice (SOV). Tu tasa de mención/citación como fracción del total de menciones/citas a través de ti y tus competidores top en el mismo set de prompts. La vista competitiva.
- Tasa de top-citación. De las citas, qué tan seguido estás en las top 1 a 3 citadas (los slots más prominentes en Perplexity, la fuente líder en AIO). Trackea dominancia, no solo presencia.
Diseñar el set de prompts
El set de prompts es la fundación del programa de medición. Los prompts malos producen datos ruidosos; los prompts buenos producen señal sobre la que puedes actuar. La estructura:
- Nivel 1: Prompts de marca (5 a 10). “¿Qué es [marca]?”, “¿Quién fundó [marca]?”, “[marca] vs [competidor]”. El piso de precisión — estos siempre deberían producir respuestas correctas, con marca.
- Nivel 2: Prompts head de categoría (15 a 30). “¿Cuál es el mejor software de [categoría]?”, “¿Cómo escojo una plataforma de [categoría]?”, “Top alternativas de [categoría]”. El campo de batalla competitivo — donde el SOV más importa.
- Nivel 3: Prompts de intención de cola larga (30 a 100). “[categoría] para una [persona específica] que necesita [feature específico]”, “¿Cómo hago [tarea específica] con una herramienta de [categoría]?”. La capa de detalle — donde los motores reformulan queries internamente.
- Nivel 4: Prompts de comparación (10 a 20). “[marca] vs [competidor 1] vs [competidor 2]”. Trackea qué tan seguido estás incluido en sets de comparación.
Total: 60 a 160 prompts por categoría. Corridos semanalmente a través de los cinco motores = 300 a 800 combinaciones prompt-motor por semana. Manejable con automatización por API; impráctico de hacer manualmente más allá del Nivel 1.
Los cinco motores, trackeados
Cada motor tiene sus propios quirks de medición:
- ChatGPT. API de OpenAI o manual vía chatgpt.com. Trackea tanto el modelo estándar (solo entrenamiento) como el modelo browse-enabled — producen resultados distintos.
- Gemini. API de Google AI Studio o gemini.google.com. Empareja con Search Console para validación cruzada de qué queries están mostrando respuestas de IA.
- Claude. API de Anthropic o claude.ai. El más caro de los cinco para probing de alto volumen; considera semanalmente en lugar de diariamente.
- Perplexity. API de Perplexity o perplexity.ai. El más fácil de medir porque cada respuesta cita; captura tanto el texto de la respuesta como la lista de citas.
- AI Overviews. No tiene API directa. Scraping manual o vía herramientas que proxy a través de la interfaz de Google. El motor más difícil de medir programáticamente; apóyate en patrones de Search Console y tooling que maneje el scraping.
Herramientas que hacen este trabajo
- SEOTopSecret AI Mentions. Tracking cross-motor de mención + citación, schedules semanales, SOV de competidores, historial de prompts. Construido para equipos de SEO corriendo esto como parte de un programa de growth más amplio.
- Profound. Plataforma especializada de analytics de búsqueda con IA; datos prompt-por-prompt profundos y tracking de citación.
- Otterly.ai. Tracking de rank de búsqueda con IA con foco en monitoreo de prompts y atribución de citación.
- Goodie. Monitoreo ligero de prompts con reportes semanales.
- DIY vía API. Un runner de prompts custom vía las APIs de OpenAI/Anthropic/Google/Perplexity, con una base de datos para almacenar respuestas y un dashboard para análisis de tendencias. Correcto para equipos de datos in-house; caro en tiempo de dev pero flexible.
Search Console como capa parcial de medición
Para Gemini y AI Overviews, Search Console captura datos de impresión aun cuando la tasa de clic es baja. Tres patrones que buscar:
- Queries conversacionales long-form. Los queries fraseados como oraciones completas (“cómo hago X para Y”, “cuál es la mejor forma de Z”) cada vez más se correlacionan con respuestas de IA. Una página recibiendo impresiones en estos probablemente está siendo citada.
- Caídas de CTR con posición estable. Cuando AIO sale en un query que solías ganar, tu conteo de impresiones se mantiene pero el CTR cae. Esta es la firma de AIO.
- Apariciones de URLs nuevas en queries conversacionales. Las páginas que históricamente no rankeaban en el top 20 de pronto recibiendo impresiones en queries conversacionales probablemente están haciendo el set de candidatas de citación de AIO desde una posición orgánica más profunda.
Cadencia de reporteo
Un programa funcional de medición de AI-SEO reporta en tres capas:
- Reporte táctico semanal. Tasa de mención por motor, tasa de citación por motor, movers top (queries donde el SOV cambió materialmente). Impulsa las prioridades de optimización de la siguiente semana.
- Reporte estratégico mensual. Tendencia de SOV por motor, benchmark de competidores, correlación contenido-a-citación (qué contenido publicado ganó lift de citación).
- Revisión trimestral. Auditoría completa del set de prompts (¿los prompts trackeados aún matchean el comportamiento del usuario?), costo de tooling vs valor de señal, expansión a categorías nuevas de prompts.
Atar la optimización a la medición
El punto de la medición es probar si los movimientos de optimización funcionan. Un loop de prueba funcional:
- Escoge un query donde la tasa de mención o de citación está debajo del target.
- Hipotetiza una razón (estructura de pasaje, schema, frescura, señal de entidad).
- Implementa el cambio en la página relevante.
- Espera 1 a 4 semanas para que el motor reindexe y las métricas se actualicen.
- Compara antes/después en ese query específico. Si la métrica se mueve, generaliza el cambio a páginas similares. Si no, cambia la hipótesis.
Este loop es lo que convierte al AI SEO de un juego de volumen de contenido a una disciplina impulsada por medición. Los equipos que ganan SOV de búsqueda con IA en 2026 son los equipos corriendo este loop semanalmente.
Lo que las métricas no te dicen
- Atribución de conversión. Un usuario que lee tu marca en una respuesta de ChatGPT y convierte una semana después no se trackea de regreso al motor de IA — aparece como tráfico directo o búsqueda de marca. La atribución a superficies de IA es estructuralmente difícil; usa análisis estilo lift (correlación de crecimiento de SOV con crecimiento de búsqueda de marca y tráfico directo) en lugar de atribución directa.
- Calidad de mención. Una mención neutra y una mención positiva son ambas menciones. El análisis de sentimiento sobre el contexto circundante agrega una capa pero también agrega ruido.
- Certeza causal. Una mejora correlacionada después de un cambio no es prueba de que el cambio la causó. Múltiples cambios por semana, drift del set de prompts y updates de motor todos confunden la señal. Trata las métricas como probabilísticas, no determinísticas.
Cerrando el cluster
El AI SEO en 2026 es una disciplina: un modelo claro de cómo los motores de IA recuperan y rankean, tácticas específicas por motor para ChatGPT, Gemini, Claude, Perplexity y AI Overviews, ingeniería de citación aplicada al stack de contenido, e infraestructura de medición que ata el trabajo de optimización al outcome. Ninguno de estos ocho capítulos es suficiente por sí solo; juntos describen el trabajo que decide si tu marca es la respuesta o está ausente a través de las superficies de IA que cada vez más interceptan los queries que Google solía dueñar.
Empareja este cluster con el cluster de SEO on-page para la disciplina a nivel página de la que depende el AI-SEO, el cluster de SEO off-page para las señales de entidad y autoridad que anclan las citas, y el hub de la Academia para el resto de las disciplinas.
Preguntas frecuentes
Preguntas frecuentes
Respuestas rápidas a lo que nos preguntan antes de cada prueba.
Tres acercamientos. Probing manual — corre un set curado de prompts de categoría en cada motor, semanalmente o bisemanalmente, y registra si tu marca aparece. Tooling — servicios como el tracker AI Mentions de SEOTopSecret, Goodie, Profound y Otterly corren prompts agendados y reportan tasas de mención a lo largo del tiempo. Monitoreo por API — establece batches automatizados de prompts vía las APIs de OpenAI, Anthropic, Google y Perplexity y analiza las respuestas programáticamente. Cada método tiene tradeoffs en costo, cobertura y calidad de señal.
En este clúster