En resumen: Cuando preguntas algo a ChatGPT, el sistema no hace solo una búsqueda en Google: hace varias consecutivas. Un estudio de Profound analizó 420 consultas y 2,867 búsquedas internas para descubrir que la primera búsqueda que ChatGPT realiza genera el 67% de las citas finales. Esto significa que estar posicionado en esa primera consulta es más importante que aparecer en búsquedas posteriores, incluso si tu ranking es excelente en esas. Este hallazgo cambia radicalmente cómo construimos reputación algorítmica: los modelos de IA priorizan fuentes que aparecen en sus consultas más tempranas y obvias, estableciendo así qué marcas perciben como autoridades en cada tema.
Imagina que le preguntas a ChatGPT: "¿Cuál es el mejor software de gestión de proyectos para equipos remotos?"
Probablemente pienses que ChatGPT hace una búsqueda en Google con esa frase exacta, lee los resultados y te da una respuesta. Pero no es así.
En realidad, ChatGPT realiza un proceso llamado query fanout (dispersión de consultas): hace múltiples búsquedas consecutivas explorando diferentes ángulos del tema antes de sintetizar su respuesta final. En el ejemplo anterior, podría buscar:
Luego combina información de todas esas búsquedas para construir su respuesta. Y aquí viene lo importante: no todas esas búsquedas tienen el mismo peso.
Un estudio publicado en noviembre de 2025 por Profound (empresa especializada en optimización para IA) analizó 420 prompts de usuario y rastreó las 2,867 búsquedas internas que ChatGPT realizó para responderlos. El hallazgo clave:
La primera búsqueda que ChatGPT realiza genera el 67% de las fuentes más citadas en la respuesta final. Las búsquedas intermedias solo contribuyen el 28%, y la última búsqueda apenas el 4,6%.
Esto significa que si tu contenido no aparece en los resultados de esa primera búsqueda obvia y directa, tus probabilidades de ser citado caen dramáticamente, incluso si rankeas perfectamente para variaciones más específicas del tema. En términos de reputación algorítmica, la primera consulta es donde los modelos buscan a las autoridades establecidas: si no estás ahí, el sistema asume que no eres una fuente principal en ese tema.
Antes de profundizar en las implicaciones, entendamos qué es el query fanout y por qué los modelos de lenguaje lo utilizan.
Query fanout es el conjunto de búsquedas que un asistente de IA realiza internamente para responder a una pregunta del usuario. El "fanout" se refiere a cómo una sola pregunta se "abre en abanico" (fan out) hacia múltiples búsquedas exploratorias.
ChatGPT no tiene acceso directo a información actualizada en tiempo real, así que cuando necesita datos recientes o específicos, consulta motores de búsqueda (Google en el caso de Gemini, Bing en algunas configuraciones de ChatGPT) para recuperar información fresca mediante arquitectura RAG (Retrieval-Augmented Generation).
Según el estudio de Profound, el número de búsquedas que ChatGPT realiza varía según la complejidad de la pregunta:
En la muestra analizada:
Aquí es donde la cosa se pone realmente interesante. El estudio descubrió que la posición en el ranking de Google (SERP position) interactúa con la posición de la consulta dentro del fanout de una forma que nunca habíamos visto en SEO tradicional.
Profound midió la "tasa de citación" (probabilidad de que tu dominio sea citado por ChatGPT) combinando dos variables:
Los resultados:
| Escenario | Tasa de citación |
|---|---|
| Posición #1 SERP en la primera consulta | 40,2% |
| Posición #1 SERP en la última consulta | 24,3% |
| Posición #3 SERP en la primera consulta | 26,0% |
| Posición #10 SERP en la primera consulta | 12,7% |
| Posición #10 SERP en la última consulta | 11,9% |
Observa algo sorprendente: estar en posición #3 de Google para la primera consulta (26,0% de citación) es mejor que estar en posición #1 para la última consulta (24,3%).
Esto rompe completamente con la lógica del SEO tradicional, donde la posición #1 siempre domina independientemente del contexto.
Los investigadores de Profound definieron el concepto de "gradiente" como la diferencia en tasa de citación entre estar en posición #1 y posición #10 del SERP para una consulta dada.
Descubrieron que este gradiente se reduce a medida que la consulta está más adelante en el fanout:
En términos prácticos: tu posición en el ranking importa mucho más cuando apareces en la primera búsqueda que ChatGPT hace. En búsquedas tardías, incluso estar #1 no te da tanta ventaja.
El estudio también analizó si ChatGPT cita el mismo dominio que aparece en Google (domain overlap) o la misma URL específica (URL overlap).
Resultados promedio:
La brecha de ~12 puntos porcentuales indica que ChatGPT frecuentemente cita el dominio correcto, pero no necesariamente la página exacta que Google ranquea más alto.
Esto sugiere que el modelo tiene cierta "memoria" de qué dominios son autorizados en ciertos temas, pero explora diferentes páginas de ese dominio según el contexto específico de la pregunta. En otras palabras: tu reputación algorítmica se construye a nivel de dominio, no solo de páginas individuales. Los modelos aprenden que "example.com es autoridad en marketing digital" y luego exploran tu contenido específico según la consulta. Por eso es crítico construir señales E-E-A-T consistentes en todo tu sitio, no solo en artículos aislados.
Cuando analizaron solo la primera consulta del fanout:
Esto refuerza la conclusión: la primera búsqueda no solo tiene más peso, sino que además ChatGPT tiene mayor probabilidad de usar la página exacta que encuentra en esa primera búsqueda.
Uno de los hallazgos más interesantes del estudio es lo que Profound llama la "Fanout Efficiency Curve" (Curva de Eficiencia del Fanout).
Cuando ChatGPT realiza más búsquedas (fanout alto), cada búsqueda individual tiene menor eficacia:
¿Por qué ocurre esto? Dos razones principales:
Sin embargo, hay un lado positivo: aunque cada búsqueda adicional aporta menos individualmente, la cobertura acumulativa (el total de dominios únicos que aparecen) sigue creciendo:
| Número de consultas | Cobertura acumulativa | Ganancia marginal |
|---|---|---|
| 1 consulta | 35,8% | — |
| 2 consultas | 40,8% | +5,0 pp |
| 3 consultas | 43,9% | +3,1 pp |
| 4 consultas | 44,8% | +0,9 pp |
| 5 consultas | 45,6% | +0,8 pp |
Observación crítica: después de 3-5 consultas, las ganancias marginales son mínimas (menos de 1 punto porcentual). Esto sugiere que concentrarse en las primeras 2-3 consultas que un modelo haría sobre tu tema captura ~90% del valor potencial.
Este estudio cambia fundamentalmente cómo debemos construir reputación algorítmica. Las marcas que ya dominan los asistentes de IA están aplicando estos principios: concentran esfuerzos en las consultas obvias principales donde los modelos buscan autoridades primero. Aquí están las acciones concretas que puedes tomar.
Para cada tema importante en tu negocio, pregúntate: ¿Cuál es la búsqueda más directa y obvia que un LLM haría para responder preguntas sobre esto?
Ejemplo: si vendes software de contabilidad para autónomos:
Tu prioridad absoluta debe ser dominar esa primera consulta obvia, no dispersarte intentando rankear para 50 variaciones long-tail.
Una vez identificada la consulta principal:
Si rankeas #1 en Google para "software contabilidad autónomos facturación fiscal declaración trimestral España 2025" (una consulta muy específica que probablemente ChatGPT haga como sexta o séptima búsqueda), tu tasa de citación esperada es ~20-24%.
Si rankeas #3 en Google para "software contabilidad autónomos" (la primera consulta obvia), tu tasa de citación esperada es ~26%.
Conclusión: es mejor estar en posiciones 2-4 para la consulta principal que estar #1 para variaciones muy específicas que el modelo explora tarde en el fanout.
Los datos de cobertura acumulativa muestran que después de 3-5 consultas, las ganancias marginales son minúsculas. No necesitas crear 20 páginas diferentes optimizadas para cada posible variación que ChatGPT podría buscar.
Enfócate en:
Esto capturará ~90% del valor potencial con una fracción del esfuerzo.
En tu tracking mensual de GEO, no solo midas si apareces citado, sino en qué consulta del fanout apareces:
Meta deseable: aparecer citado cuando tu dominio está en la primera o segunda consulta del fanout en al menos 60% de tus queries tracked.
La estructura tradicional de "hub pages" con muchas páginas satélite ultra-específicas puede no ser óptima para GEO.
Considera consolidar contenido en páginas más comprehensivas que puedan rankear para la consulta obvia principal, en lugar de fragmentar en 10 páginas que rankean para variaciones long-tail que el modelo explora tarde (o nunca).
El estudio de Profound introduce el concepto de AEO (Agent Engine Optimization): optimización para motores basados en agentes de IA, diferenciándolo del SEO tradicional. Este concepto profundiza en las diferencias fundamentales entre GEO y SEO que ya conocemos, pero añadiendo una capa específica sobre cómo los agentes de IA realizan sus búsquedas internas.
| Aspecto | SEO tradicional | AEO (Agent Engine Optimization) |
|---|---|---|
| Métrica clave | Posición SERP (ranking) | Posición SERP × Posición de consulta en fanout |
| Objetivo | Aparecer en top 3 para tu keyword | Aparecer en la primera consulta que el LLM hace |
| Cobertura | Maximizar rankings para muchas keywords | Dominar las 2-3 consultas obvias principales |
| Valor de posición #1 | Constante (~30% CTR independiente de contexto) | Variable (40% si es primera consulta, 24% si es última) |
| Long-tail | Alto valor acumulativo (muchas keywords = mucho tráfico) | Bajo valor (consultas tardías tienen baja eficacia) |
No. Ambos son complementarios. El estudio de Profound encontró que el 72% de las fuentes citadas por ChatGPT/Perplexity provienen de sitios que rankean en la primera página de Google.
El SEO tradicional sigue siendo el requisito fundamental para entrar en el pool de candidatos. AEO añade una capa adicional de optimización enfocada en maximizar la probabilidad de citación una vez que ya estás en ese pool. En el marco conceptual de reputación algorítmica, podemos pensar en SEO como la base que te hace "visible" para los modelos, y AEO/GEO como las técnicas que te hacen "memorable" y citable. Ambas son necesarias para construir autoridad sostenida en asistentes de IA.
Como con cualquier investigación, este estudio tiene limitaciones que debemos considerar:
Dicho esto, los patrones son lo suficientemente consistentes y los tamaños de efecto lo suficientemente grandes como para justificar cambios estratégicos en cómo abordamos la optimización para IA.
ChatGPT no siempre expone sus búsquedas internas, pero cuando activas "web search" (búsqueda web) a menudo muestra las queries que está realizando. Prueba haciendo las preguntas típicas de tu sector y observa qué búsquedas genera. La primera búsqueda suele ser la más genérica y obvia. También puedes usar herramientas especializadas de monitorización de reputación algorítmica como Brand24, Otterly o IA Listening que trackean citas en LLMs y pueden inferir patrones de búsqueda.
El estudio se centró en ChatGPT, pero los principios fundamentales probablemente se aplican a otros modelos con arquitectura RAG (Retrieval-Augmented Generation). Todos estos sistemas recuperan información mediante búsquedas y luego sintetizan. La primera búsqueda lógicamente tendrá más peso porque establece el contexto principal. Sin embargo, cada plataforma puede tener parámetros diferentes. Recomendamos testear en tu vertical específico.
No completamente. Long-tail sigue siendo valioso para SEO tradicional (captación de tráfico directo) y para cubrir nichos específicos. Lo que sugiere este estudio es que para citación en LLMs, el long-tail tiene rendimientos decrecientes rápidos. Una estrategia equilibrada sería: 70% esfuerzo en dominar las 2-3 consultas principales (head terms) para GEO, 30% en long-tail para SEO tradicional y cobertura de nichos.
Si ya rankeas en top 10 de Google para esa consulta, los ajustes de formato y estructura (para hacerte más "citable") pueden mostrar resultados en 4-6 semanas. Si necesitas mejorar tu ranking SERP base, espera 3-6 meses de SEO tradicional primero. La autoridad de dominio sigue siendo el factor fundamental de velocidad.
Si quieres aplicar estos hallazgos a tu estrategia de reputación algorítmica:
Recuerda: la reputación algorítmica se construye mediante citaciones consistentes. Aparecer repetidamente en la primera consulta que los modelos realizan establece tu dominio como autoridad temática. Es un círculo virtuoso: mayor citación → mayor reputación → mayor probabilidad de citación futura.
Para profundizar en implementación técnica, consulta la guía completa de reputación algorítmica. Para entender otros factores de citación, revisa nuestro análisis sobre perplexity (predecibilidad) y citación en LLMs. Y si quieres explorar técnicas avanzadas, lee sobre optimización multimodal con caption injection.
Fuente del estudio: Blyskal, J. & Singh, J. (2025). ChatGPT Query Fanout Explained: The First Query Matters Most. Profound. Leer estudio original