No es GEO, LLMO, GAIO, LSO ni LEO, es sólo SEO: cómo hacer SEO para los LLM como ChatGPT

Cada vez que un nuevo concepto o sigla asoma en el mundo del marketing digital, GEO, LLMO,GAIO, LSO, LEO, etc. el debate gira en torno a si estamos ante una verdadera revolución o si es la misma estrategia de siempre con otro nombre. Mi experiencia es que la optimización para grandes modelos de lenguaje (LLMs) es, en esencia, la evolución lógica del SEO de toda la vida.

En este artículo repaso cómo adaptamos las técnicas de SEO para que motores como ChatGPT (o cualquier LLM) nos tengan en cuenta en sus respuestas. Y la clave, al final, sigue siendo la misma: contenido bien estructurado, legible y confiable. 

1. El crecimiento del tráfico proveniente de las IA y su mayor conversión

Comparto algunos datos que reflejan por qué conviene no perder de vista del tráfico de los LLM:

  • El tráfico proveniente de los LLM convierte más: Kevin Indig analizó más de 7 millones de sesiones (en ChatGPT, Copilot, Gemini, Perplexity, etc.) comparándolas con Google Search. Concluyó que la media de permanencia en página de un clic procedente de un chatbot es de casi 10.4 minutos, frente a los 8.1 minutos de Google. Además, la gente ve más páginas por sesión y está más predispuesta a comprar o contratar un servicio. Andrea Volpini, por ejemplo, compartió en X un caso donde el tráfico procedente de IA tenía una tasa de conversión del 1.378% frente al 0.201% del tráfico orgánico de Google. Eso es casi 7 veces más en conversiones. Comprobando con mis clientes he visto lo mismo, es un tráfico mucho mejor que el del resto de canales.

Es decir, no solo crece el uso de chatbots o “LLMs con interfaz de búsqueda,” sino que los pocos clics que generan parecen estar muy «cualificados» para convertir. No tiene ningún misterio, la razón es que llegan más preparados, porque ya han pasado por un proceso de exploración más profundo en la conversación con el LLM. Súmale que son queries más largas y complejas, por lo que están más «acotadas».
Esto te hace pensar: “¿Estoy preparando mi web para aparecer en las respuestas de la IA?”

2. Cómo aparecer en las “AI Overviews” y en los chatbot LLM

Antes de nada, debemos de distinguir dos escenarios en los que un LLM puede mostrar tu contenido:

  1. Respuesta “desde la memoria del modelo”: En este caso, el LLM se entrenó previamente con una gran cantidad de textos (posiblemente incluyendo parte de tu contenido o del contenidos de otros hablando de ti) y, cuando genera una respuesta, lo hace “desde su memoria”, basado en patrones, sin acudir a fuentes externas en ese momento. Este escenario se parece a cuando alguien estudia un libro y, tiempo después, te explica un concepto sin necesidad de consultar nada. El modelo combina lo que aprendió, pero no necesariamente cita la fuente original.

  2. Respuesta en la “fase de inferencia”: Aquí, el LLM no se limita a su conocimiento interno. En la fase de inferencia (el momento en el que el chatbot genera la respuesta), el modelo busca en fuentes externas para complementar o actualizar la información. Esto suele hacerse con técnicas como RAG, donde el sistema consulta bases de datos o páginas web y luego integra esos fragmentos a la respuesta final. Es en esta segunda modalidad donde tienes más opciones de ser citado directamente (o enlazado) porque el modelo “lee” el contenido actual de tu web y lo incluye explícitamente en la respuesta, en lugar de fiarse solo de su entrenamiento previo.

2.1 ¿Qué es GEO y en qué se diferencia del SEO?

GEO, de Generative Engine Optimization, es un término que define la manera de optimizar contenido para motores de búsqueda impulsados por IA generativa, originariamente pensado para Google SGE / AIO o Bing Chat. El concepto fue acuñado en el paper GEO: Generative Engine Optimization de Pranjal Aggarwal, Vishvak Murahari, Tanmay Rajpurohit, Ashwin Kalyan, Karthik Narasimhan, y Ameet Deshpande (2024).

2.1.1 GEO en la práctica

Entre las técnicas que se proponen en paper para GEO destacan:

  • Citar fuentes: Agregar citas y referencias claras de fuentes confiables aumenta la credibilidad y, por ende, la visibilidad en las respuestas generadas.
  • Añadir citas: Incluir citas textuales relevantes refuerza el impacto del contenido, lo cual se traduce en un mayor “peso” en las respuestas.
  • Añadir estadísticas: El uso de datos cuantitativos refuerza el carácter autoritario del contenido.
  • Optimización de fluidez y claridad: Mejorar la legibilidad y la coherencia del texto resulta fundamental para que los LLMs interpreten correctamente la información.
Geo generative engine optimization

Técnicas GEO (Generative Engine Optimization)

    Esto coincide bastante con lo que yo hacía para featured snippets. Lo que llevo haciendo años consiste en tratar de imitar, a muy bajo nivel, cómo funcionan los buscadores internamente:

    1. Fase de selección de candidatos (ranking inicial): Uso similitud de coseno, BM25, TF-IDF o Token Set Ratio de top performing query con la meta title y h1 para detectar qué landings tienen más potencial de mejora y optimizo las metas para que obtener un mejor score.
    2. Fase rerank:  Creo varias versiones del texto hasta dar con la que mejor score de relevancia devuelve para N queries de esa landing con una versión destilada de Bert entrenada para Q&A. En estas versiones aprovecho las técnicas que en paper anterior se mencionan, que ya eran conocidas por su influencia en direct answers.

    Básicamente, si ya optimizas un texto para que Google lo muestre en destacados, estás muy cerca de lo que se hace para SGE / AIO.

    «Si estás optimizando para búsqueda, entonces en cierto modo también estás optimizando para las AIO y el AI mode», en referencia al grounding – John Mueller, Google (2025).

    If you're optimising for search then you're kind also optimising for ai overviews and ai mode in reference to grounding john mu

    La diferencia es que un LLM en fase de inferencia no sólo extrae un fragmento, sino que “fusiona” y “reordena” la información de varias fuentes para dar la mejor respuesta. Recordemos que los modelos de IA no funcionan como Google Search. No rastrean la web en tiempo real, sino que se entrenan con corpus previos y luego, durante la inferencia, pueden usar RAG (Retrieval-Augmented Generation) para complementar con datos actualizados.

    2.3 Factores clave para la visibilidad en LLM en fase de inferencia

    Para reforzar la idea de que “no es nada nuevo, es sólo SEO”, te interesará ver lo que hace la gente de Jina AI con su DeepSearch.

    Snippet selection and url ranking in deepsearch deepresearch

    Snippet selection and url ranking in deepsearch deepresearch

     

    Han compartido cómo seleccionan snippets y priorizan URLs para mostrar en su buscador. Aunque se perciba como algo avanzado o distinto, en realidad los factores y técnicas que usan no difieren mucho de un buscador tradicional:

    • Freshness: fecha de última actualización (via headers HTTP, fechas visibles o Schema.org). En este caso, Jina AI usa Schema.org únicamente para consultar la fecha. Aunque sabemos que los los datos estructurados como Schema.org, no afectan al entrenamiento de un LLM (los LLM se entrenan con texto plano), sí ayudan en “grounding” o la integración con RAG como en este ejemplo. Vamos, cuanto más clara tu estructura de datos, mejor para que la IA entienda y cite de forma confiable. Admás, creo que en futuro agéntico, esto tendrá más sentido así como el contenido estructurado vía feeds. Otra cosa que podemos hacer en este punto es asegurarnos que los contenidos sean actualizados al momento cuando cambien (sitemaps.xml, index now…) y los que necesiten de «frescura» preocuparnos de tenernos al día como veníamos haciendo.
    • Frecuencia y autoridad del dominio: Si múltiples fuentes referencian ese contenido y esos dominios son relevantes. Cuando hacemos link building, ¿no tratamos de conseguir enlaces de los sitios que ya rankean para búsquedas determinadas? Para la IA, lo que hacemos es tratar de aparecer en referencias citadas por los LLMs. Si no podemos ser la fuente primaria, al menos debemos estar en los sitios que estas IA consultan, que suelen ser los que están arriba en los índices de buscadores. Además, hay un nuevo factor que podría influir directamente en la visibilidad dentro de los modelos de lenguaje: los acuerdos con proveedores de contenido. OpenAI ha firmado partnerships con medios como Financial Times, Le Monde, The Atlantic, Axel Springer (dueño de Politico, Business Insider…), The Guardian, PRISA Media (dueño de El País, AS, Cinco Días…), News Corporation (The Wall Street Journal, The Times…), entre otros. Esto significa que los contenidos de estos medios tienen mayor probabilidad de aparecer en respuestas de ChatGPT, ya sea a través de citas directas, resúmenes o enlaces. ¡Digital PR!
    • Estructura del path: URLs organizadas de forma semántica.
    • Relevancia semántica: Usan embeddings y modelos de reranking para determinar la relevancia. ¿No es similar al proceso que acabo de explicar arriba?
    • Late Chunking: Una técnica con la que seleccionan fragmentos relevantes en docs largos sin perder contexto. ¿No os suena de nada esto tampoco? Si estructuramos nuestros contenidos en párrafos autocontenidos, que puedan ser entendidos sin contexto adicional, estaremos ayudando a estos sistemas.
    • Accesibilidad del contenido: Si tu contenido está detrás de paywalls, mala suerte: la IA no podrá acceder a él (o violaría los ToS). Otra vez más, nada nuevo: los bots no indexan lo que no está accesible.  También hay que tener en cuenta que muchos ChatBots no renderizan JS todavía y aquí podemos hacer usos también de llms.txt. Este estándar permite a tu sitio web definir qué info pueden consumir los LLM en tiempo de inferencia (OpenAI, Perplexity y Anthropic lo soportan). El protocolo llms.txt es como un sitemap de tu sitio con el contenido en markdown.

    Todo esto sigue siendo SEO, pero aplicado a la nueva realidad de la IA generativa.

    2.4 Los buscadores con IA tienen un problema con las citas y por qué debería importarte como SEO

    Como sabemos, los modelos generativos de IA, incluyendo el nuevo GPT-4.5 de OpenAI, a menudo sufren del conocido fenómeno de las «alucinaciones», generando respuestas que, aunque pueden parecer muy convincentes, son incorrectas o completamente inventadas. Por ejemplo, este último, sigue alucinando en más de 1 de cada 3 preguntas. Eso sí, es un gran avance respecto a versiones anteriores. Para ponerlo en contexto frente a GPT-4o:

    • Alucina menos: GPT-4.5 solo «se inventa» respuestas en el 37.1% de los casos en SimpleQA, frente al 59.8% de GPT-4o.
    • Sabe más: GPT-4.5 acierta el 62.5% de las preguntas en SimpleQA, un salto enorme desde el 38.6% de GPT-4o.

    Pero, cuando hablamos de citas, la cosa es mucho más preocupante.

    Un estudio reciente del Tow Center for Digital Journalism confirmó que este no es un problema exclusivo de OpenAI, sino generalizado entre los motores de búsqueda generativos. Tras evaluar 8 buscadores de IA (incluyendo ChatGPT, Gemini, Perplexity, Grok y Copilot), concluyeron que todos tenían serias dificultades para citar correctamente las fuentes, con tasas muy preocupantes de respuestas incorrectas o enlaces inventados. Algunos datos:

    • Más del 60% de las respuestas fueron incorrectas.
    • Las versiones premium fallan con más frecuencia y con más confianza que las gratuitas.
    • Chatbots como Gemini y Grok 3 se inventan las URLs, lo que no permite verificar las fuentes. Gemini, sí, el que ahora usan también para el AI Mode…
    • Muchos de ellos ignoran el robots.txt y acceden a contenido bloqueado por medios.
      Otra cosa curiosa, los acuerdos de licencia con medios tampoco garantizan precisión en las citas ni respeto total a las restricciones de rastreo.

    Esto no acaba aquí. Otro estudio independiente de la BBC casa con lo que acabamos de mostrar. Más del 50% de las respuestas de asistentes como Gemini, Perplexity, ChatGPT o Copilot contenían errores significativos, incluyendo distorsiones de citas, datos erróneos y enlaces rotos. Lo más alarmante es que cuando mencionan marcas confiables como la BBC, el usuario tiende a confiar más en la respuesta, aunque sea falsa. Otro motivo más para tomarse muy en serio este problema.

    Seguramente habréis visto en vuestras analíticas que mucho del tráfico que traen estos bots aterrizan en una página 404, si no os animo a comprobarlo. ¿Qué hacer en estos casos?

    Google ya está avisando que este fenómeno podría aumentar en los próximos meses. ¿Qué hacer entonces con esos enlaces alucinados que generan errores 404? Mueller recomienda tener una buena página de error personalizada que explique qué ha pasado. Incluso propone usar esa URL como una búsqueda interna para intentar reconducir al usuario a lo que estaba buscando.

    Pero también se están proponiendo soluciones más creativas, como por ejemplo, añadir un mensaje en la propia 404 dirigido explícitamente a quienes llegan desde un enlace generado por IA, explicando que es una alucinación y que el sitio ha sido actualizado para advertir de ello.

    ¿Redireccionar estos enlaces? No es mala opción. Si son muchos, puede no compensar, aunque se me ocurren formas de hacerlo de forma auto por similitud semántica. Pero si eres una marca pequeña, cada clic cuenta.

    Aun así, esto va a dar guerra, así que mejor empezar a monitorizar bien esas URLs fantasma, su impacto y cómo corregirlo. Igualmente, nada nuevo si eres SEO 🙂

    2.5 Cómo “entiende” un LLM: Monosemanticidad y desambiguación

    Los modelos de IA trabajan en lo que llaman monosemanticidad. Hay “neuronas” que se activan cuando el modelo detecta un concepto muy concreto, por ejemplo, “dirección de correo electrónico” o “nombres de ciudades.” La idea la explica un estudio reciente de Anthropic y se asemeja al viejo concepto SEO semántico de “entidades” y “desambiguación”.

    Scaling monosemanticity extracting interpretable features from claude 3 sonnet

    Monosemanticidad

     

    A su vez, los modelos almacenan “hechos” en sus capas internas. Típico ejemplo: Michael Jordan → Basketball. Esa asociación se graba en la red,  específicamente en los multi-layer perceptrons (MLPs).

     

    Aunque haya neuronas específicas, no es tan sencillo: a veces se mezclan varios conceptos en “superposición”. Por eso interpretar un LLM es complejo, pero nos da una pista de cómo optimizar: haz tu contenido lo más “inequívoco” posible para el modelo.

    En definitiva, si queremos que los LLM nos tengan en cuenta en su corpus, es decir, que comprendan quiénes somos y qué hacemos, lo que debemos hacer es explicar mejor el contenido, sin ambigüedades. De la misma forma que hacemos para cualquier otro buscador trabajando la semántica.

    3. Resumiendo: El SEO para IA sigue siendo SEO tradicional

    Al final, resulta que estamos haciendo SEO para la IA y no lo sabíamos. Cuando aparecen términos como LLMO, GEO, GAIO, LSO o LEO, puede parecer que todo ha cambiado. Pero lo esencial se mantiene: sigue siendo un juego de relevancia, autoridad y accesibilidad. La diferencia es cómo el modelo consume e interpreta esa información para devolverla en formato de respuesta y, para nosotros, no cambia la forma de trabajar.

    No es LLMO, GEO, GAIO, LSO ni LEO, es sólo SEO.

    Natzir Turrado 19 marzo 2025

    Compartir

    Facebook Linkedin Twitter

    Otros artículos

    Encabezados para SEO y accesibilidad: múltiples etiquetas H1, HTML5 y más

    Hace más de una década, la optimización de los encabezados tenía un impacto significativo en el ranking. Aunque su influencia ha disminuido, siguen siendo útiles para los motores de búsqueda. Además, los encabezados afectan indirectamente al SEO al mejorar la comprensión del contenido y la interacción del usuario, e influyen en la forma en que […]

    Leer más

    Los algoritmos de Google al descubierto. Cómo funciona el buscador según documentos filtrados

    En este artículo nos adentramos en el funcionamiento interno de Google, una herramienta que todos usamos a diario pero que pocos comprendemos realmente. A raíz de la reciente filtración de documentos en un juicio antimonopolio contra Google, tenemos una gran oportunidad para explorar los algoritmos de Google. De algunos de ellos ya teníamos información, pero […]

    Leer más