Google Discover: La trampa del «Zero-Click» y el ocaso del tráfico web
Si llevas tiempo en el SEO o gestionando medios digitales, seguramente recuerdas cuando Google Discover era la «tierra prometida». Ese chute de tráfico brutal, casi aleatorio, que podía salvarte el mes si una noticia se viralizaba. Bueno, amigos, tengo malas noticias: la fiesta se ha acabado. Y no es que Google haya cerrado el garito, es que ha decidido tapiar las ventanas y quedarse con los clientes dentro.
Hoy vamos al lío con un análisis de lo que está pasando en la arquitectura de la información de Google. Spoiler: tu web ya no es el destino, es solo el combustible.
De escaparate a búnker digital
Lo que estamos viendo es un cambio de paradigma brutal. Discover ha pasado de ser un distribuidor de tráfico —un escaparate que te invitaba a entrar a la tienda— a convertirse en un destino final. Un búnker del que el usuario no necesita salir.
Ojo con los datos que nos trae la gente de Marfeel, que son para echarse a temblar. En mercados gigantes como Estados Unidos, Brasil y México, más del 50% de las tarjetas que aparecen en Discover ya son resúmenes generados por IA. No son enlaces a tu artículo currado de 2.000 palabras; son síntesis masticadas por el algoritmo.
«Google está construyendo un probador en medio del aparcamiento del centro comercial. Te pruebas la ropa ahí mismo, te ves bien, y te vas a casa sin haber pisado la tienda. ¿El problema? La tienda (tu web) paga la luz, el alquiler y al dependiente, pero Google se queda con la experiencia del cliente.»
Es la estrategia del muro. Si antes Google era el conserje que te abría la puerta, ahora es el portero de discoteca que te cuenta lo que pasa dentro para que no tengas que entrar.
El algoritmo caníbal: Anatomía del secuestro
Aquí es donde la cosa se pone técnica y oscura. El mecanismo detrás de este secuestro de tráfico es fascinante si te gusta la ingeniería, y aterrador si vives de los clics. El proceso es un pipeline de tres pasos: Rastreo de entidades, generación de síntesis y supresión del click. La IA lee tu contenido, extrae los datos puros (la entidad) y genera un nuevo texto que hace tu web redundante.
Pero espera, que hay más. Si miras las métricas de redirección, te explota la cabeza. Entre el 77% y el 100% de los clics que se generan en estas nuevas tarjetas de IA no van a la fuente original. ¿A dónde van? A vídeos de YouTube o a otros widgets dentro del ecosistema de Google.
Básicamente, el algoritmo prioriza la retención (su propio Time on Site) sobre la distribución. Es un sistema caníbal: se alimenta de la web abierta para engordar su propio jardín vallado. Bro, nos están cocinando con nuestra propia receta.

La arquitectura del error (y cómo funciona el filtro)
Hablemos de la fiabilidad, porque aquí es donde el «techie» que llevo dentro se pone nervioso. Estamos ante un flujo de datos vertical muy agresivo. La IA ingiere múltiples fuentes (tu artículo, el de la competencia, un PDF oficial) y las pasa por una trituradora para escupir un resultado homogeneizado.
El problema es que esta trituradora se atasca. Según datos de la UER, el 45% de las respuestas generadas por esta IA contienen alucinaciones o imprecisiones críticas. Estamos delegando la verdad a un modelo probabilístico que a veces se inventa las cosas para que suenen bien.
Y lo peor no es el error técnico, es la erosión de la marca. El medio (tú) pone los periodistas, la investigación y los datos. La IA se lleva el crédito y la interfaz limpia. Es la mercantilización absoluta de la información: tu marca desaparece y solo queda el dato en bruto, muchas veces mal procesado.
Supervivencia en la era de la síntesis
No quiero ponerme apocalíptico, pero hay que moverse rápido. La estrategia de «publicar y rezar» para salir en Discover está muerta. Ahora toca negociar datos y reforzar la marca visual. Si tu contenido es commodity (noticias genéricas), la IA te va a comer. Necesitas opinión, voz propia y formatos que la IA no pueda replicar fácilmente (vídeo, audio, interactivos).
También hay un rol para el usuario aquí. Tenemos que dejar de hacer doomscrolling pasivo y empezar a auditar al algoritmo. Si nos conformamos con el resumen de tres líneas, estamos matando la fuente que genera la información real.
Y sí, miramos al futuro regulatorio. La transparencia algorítmica va a dejar de ser un capricho técnico para convertirse en un derecho del consumidor. Hasta entonces, diversifica tus fuentes de tráfico, bro. No pongas todos los huevos en la cesta de un gigante que quiere hacerse una tortilla contigo.

