Predicción de penalizaciones en Google a través de Webmaster Tools

¿Podemos predecir penalizaciones en Google a través de Webmaster Tools? Me entero de esto gracias a Dan Shure que ha tuiteado lo siguiente:

Por lo que se ve en Google Webmaster Tools, un aumento en el número de páginas indexadas en Google ha provocado una caída de tráfico en Google 8 días después como comenta a continuación. ¿No os huele todo esto a hostia de Google Panda? ¡Eso parece! En el hilo podemos leer lo que comenta Mike Vallano que también le ha pasado esto:

Es decir, un cambio que hicieron en la navegación produjo un montón comida de osos Panda, lo que viene siendo contenido duplicado. Lo que no quiere decir que si se indexan más páginas te puedan filtrar, te filtran si se indexan muchas páginas basura. Recordemos que Panda no penaliza, Panda filtra que es muy diferente.

Y ahora, ¿qué podemos aprender de esto? 2 cosas:

  1. Cada cambio que se realice en la web tiene que estar auditado por un SEO. El SEO es quien te dice cómo tienes que tratar ciertas paginaciones, búsquedas, etc. mediante los next-prev, canonical, noindex, robots…
  2. Si eres SEO, mira de vez en cuando el Webmaster Tools y si ves algo así, pregunta qué cojones han tocado en la web sin avisarte y ponte enseguida manos a la obra (y luego a cortar cabezas).

Conclusión

Haz las cosas bien y PON A UN SEO EN TU VIDA y así te evitas el intentar predecir… no me seas un vidente del SEO.

Natzir Turrado 11 julio 2013

Compartir

Facebook Linkedin Twitter

Otros artículos

Lo que los leaks de ChatGPT nos enseñan sobre SEO para la IA

La reciente filtración del system prompt de GPT-5 por el hacker Elder Plinius the Liberator, la publicación de su configuración de búsqueda de GPT-5 por el SEO Metehan Yesilyurt, el descubrimiento que hice sobre el flujo de orquestación y búsqueda en GPT-4 y las recientes declaraciones del CEO de OpenAI, Sam Altman, quizá no aporten […]

Leer más

Tráfico agéntico: así navegan los agentes de IA y qué tienes que saber tú

Durante décadas, las webs han estado (o deberían estar) centradas en los humanos: cómo buscan, cómo hacen clic, cómo se mueven por una página. Todo medido desde una unidad simple, la URL. Pero este modelo está empezando a cambiar. ¿Por qué? Porque hoy, parte del tráfico web ya no proviene de personas, sino de agentes: […]

Leer más