Cómo aparecer citado en ChatGPT y Perplexity en 2025
Qué mira un LLM cuando elige qué fuente citar y cómo construir las señales que te ponen en esa lista corta. Sin recetas mágicas, lo que vemos en proyectos reales.
Publicado el 8 de abril de 2025 · Vinto Growth®
Hace dos años, el juego era posicionar diez links azules. Hoy el juego es entrar en una lista de tres fuentes que un modelo de lenguaje cita antes de responder. Cambió el ranking, cambió la SERP, cambió quién decide qué se muestra.
Cuando alguien pregunta algo en ChatGPT, Perplexity o Google AI Overviews, el modelo no devuelve resultados. Devuelve una respuesta construida a partir de un puñado de fuentes que considera fiables, recientes y específicamente relevantes para la consulta. Si tu marca no está en esa lista corta, no existe en la conversación. No hay segunda página donde aparecer. No hay long tail al que escapar.
En este artículo desarmamos qué hace que un LLM cite a una fuente y no a otra, qué señales podés trabajar hoy y qué cosas son ruido vendido por agencias que prometen "ranking en ChatGPT" como si fuera un producto enlatado.
Qué mira un LLM cuando elige a quién citar
Lo primero importante: los LLMs no "indexan" la web a la manera de Google. Cuando un usuario hace una consulta en un motor con capacidades de búsqueda en vivo (Perplexity, ChatGPT con search, Google AI Overviews, Copilot), el sistema hace una búsqueda tradicional por debajo, recupera un set de páginas, las parsea y elige cuáles citar para construir la respuesta.
Eso significa que estar bien posicionado en búsqueda tradicional sigue siendo una condición necesaria. Pero no suficiente. Una vez que el motor recupera el set inicial, entran a jugar otros criterios:
- Densidad informativa real: cuánta sustancia hay por párrafo. Páginas con relleno SEO tradicional ("en este artículo veremos…") rinden peor que páginas que entran al tema en el primer párrafo.
- Especificidad de la respuesta: si la consulta es "cuánto cuesta hacer SEO técnico", una página con un rango numérico concreto y desglose por componente le sirve más al modelo que una que dice "depende de muchos factores".
- Estructura semántica: encabezados que efectivamente describen lo que viene abajo. Listas que listan cosas. Tablas cuando hay datos para tabular. El modelo "lee" la estructura para decidir qué fragmento extraer.
- Datos estructurados: schema markup correcto le da al modelo un mapa explícito de qué es qué. Producto, precio, autor, fecha, organización, FAQ. Veremos esto en detalle.
- Frescura: especialmente en consultas sobre herramientas, precios, regulación o cualquier cosa que cambie en el tiempo, los modelos castigan a contenido viejo. Un post del 2022 sobre AI Overviews ya es arqueología.
- Reputación de dominio: backlinks, menciones, presencia en otros corpus de entrenamiento. Las marcas que ya aparecen mucho en internet aparecen más en las respuestas. No es justo, pero es así.
El modelo no premia al que más escribió. Premia al que respondió primero, mejor y con más estructura.
Afilar las páginas para que un modelo las parsee
La mayoría del contenido SEO de los últimos diez años fue escrito para Google de 2015: introducciones largas para meter keywords, secciones de "qué es X" antes de responder la consulta real, repeticiones para densidad. Todo eso hoy juega en contra.
Lo que vemos funcionar mejor en proyectos reales:
Responder primero, contextualizar después
El primer párrafo de cualquier página que apunte a aparecer en respuestas debería contener la respuesta. Si la consulta es "cuál es la diferencia entre SEO y AEO", el primer párrafo debería decirlo. El contexto, la historia, los matices, vienen después. Esto va en contra de cómo se enseñó a escribir contenido SEO durante una década, y es exactamente por eso que funciona: hay un océano de contenido que no responde nada en los primeros 800 caracteres.
Atomización por consulta
Una página por intención. Si tu sitio tiene una sola página gigante sobre "todo lo que hay que saber de X", está optimizada para que ningún fragmento sea citable. Mejor diez páginas más cortas, cada una respondiendo una consulta específica con precisión, y vinculadas entre sí semánticamente.
Formato extraíble
Los modelos extraen mejor lo que está en formato lista, tabla, definición o paso a paso. No porque "les guste" sino porque su proceso de extracción es literalmente más confiable cuando la información viene segmentada. Un párrafo de 400 palabras sobre cinco criterios distintos es peor que cinco bullets bien escritos de 60 palabras cada uno.
Schema markup: lo que sí mueve la aguja
Schema markup es etiquetado JSON-LD que le explica a los crawlers (y a los LLMs que reusan la infraestructura de Google) qué es cada cosa en tu página. Los tipos que más impacto tienen para AEO:
- Article / BlogPosting: con autor, fecha de publicación, sección y entidad organizativa correctamente marcados. El modelo usa esto para decidir si la fuente es lo suficientemente fresca.
- Organization: schema de tu marca con nombre, logo, redes, ubicación, áreas de servicio. Le da al modelo un ancla claro de quién está hablando.
- FAQPage: para páginas de respuestas. Funciona como un mapa pre-extraído de pregunta-respuesta, lo que aumenta notablemente la probabilidad de cita literal.
- HowTo: para guías paso a paso. Equivalente al FAQ pero para procesos.
- Product / Service: para páginas de oferta. Precio, área servida, disponibilidad, atributos. El modelo usa esto para desambiguar comparativas.
Hay un detalle no menor: schema mal implementado es peor que no tener schema. Un FAQPage con preguntas que no se corresponden con las respuestas, o un Product con precio mal marcado, es señal de baja calidad técnica. Los modelos lo detectan y bajan la confianza en la fuente.
Reputación de dominio y presencia en el corpus
Acá está la parte injusta. Los modelos fueron entrenados con snapshots de internet hasta determinada fecha, y siguen siendo actualizados con nuevos datos. Una marca que ya tenía mucha presencia editorial — menciones en medios, citas en otros sitios, contenido propio bien indexado — entra en ventaja porque el modelo ya "la conoce" desde su entrenamiento base, antes de cualquier búsqueda en vivo.
Para una marca nueva, eso significa que la estrategia AEO no se agota en optimizar páginas propias. Implica también:
- Aparecer en medios y publicaciones del nicho. Una entrevista, un artículo de opinión, una mención en un análisis de mercado: cada una de esas piezas suma al corpus de "lo que el modelo sabe sobre tu marca".
- Generar contenido evergreen que sea citado por terceros. Frameworks, datos propios, estudios de mercado. Si te citan orgánicamente, entrás más rápido.
- Mantener presencia consistente en directorios y bases de datos relevantes (Crunchbase, GitHub si aplica, registros de cámaras, publicaciones especializadas). Son señales de existencia que los modelos ponderan.
Aparecer en respuestas de IA es 60% SEO bien hecho, 30% reputación editorial preexistente y 10% trucos específicos de AEO.
Lo que no funciona (aunque te lo vendan)
Apareció una camada de servicios que prometen "rankear en ChatGPT" con técnicas como inyectar prompts en páginas, listar tu marca al principio de tablas comparativas inventadas, o llenar el sitio de FAQs autogeneradas. La mayoría de eso es ruido o contraproducente:
- Prompt injection en HTML: los modelos modernos ignoran instrucciones embebidas en el contenido recuperado. Y cuando las detectan, reducen la confianza en la fuente.
- Tablas comparativas inventadas: si tu página dice que sos "la mejor opción según X" y X no existe o no lo dijo, el modelo lo nota cuando contrasta con otras fuentes y te despriorisa.
- FAQs autogeneradas masivas: contenido escrito por IA sin verificación, con preguntas que nadie hace, padded con respuestas vagas. No solo no aparece: arrastra el dominio entero.
- "Schema spam": marcar como Article cosas que no son artículos, marcar Product en páginas que no venden nada, inflar reviews. Penalizado hace años por Google, y los modelos replican esa penalización.
Cómo medir si estás apareciendo
Esta es la parte molesta: no hay un Search Console para ChatGPT. Algunos proxies que sí sirven:
- Tests manuales recurrentes: armar un set de 30 a 50 consultas relevantes para tu vertical y correrlas periódicamente en ChatGPT, Perplexity y Google AI Overviews. Anotar cuándo aparece tu marca, en qué posición, con qué cita textual. Es trabajo manual, pero es lo más fiable.
- Tráfico desde fuentes nuevas: en Google Analytics, mirar referrals desde dominios como
chat.openai.com,perplexity.ai,copilot.microsoft.com. El volumen es bajo en términos absolutos pero el crecimiento relativo es lo que vale la pena trackear. - Herramientas específicas de AEO: en el último año aparecieron servicios que monitorean visibilidad en LLMs. Ninguno es perfecto, todos son caros, pero para proyectos a escala empiezan a justificarse.
Por dónde empezar
Si tu sitio recién está despertando a esto, no hace falta refactorear todo. Un orden razonable:
- Auditar las 10-20 páginas con más impresiones orgánicas. Reescribir la primera mitad para que respondan primero, contextualicen después.
- Implementar schema básico: Organization, BlogPosting en notas, FAQPage donde aplique. Validar con Rich Results Test.
- Identificar 5-10 consultas estratégicas (las que querés que tu marca conteste) y producir o reescribir una página puntual para cada una, optimizada para extracción.
- Setear el monitoreo manual semanal de esas consultas.
- Recién después, pensar en lo más caro: relaciones públicas digitales, contenido para que terceros te citen, presencia en medios.
No es magia y no es rápido. Es SEO, pero leído de nuevo, con la SERP de 2025 en la cabeza en lugar de la de 2018. Y es, probablemente, la inversión de marca con mejor ROI a 24 meses para cualquier negocio que dependa de búsqueda.