Corinthavexi

Ocho horas optimizando cómo Google rastrea el sitio

Ocho horas optimizando cómo Google rastrea el sitio

Empiezo el día revisando el informe de rastreo en Search Console. Google visitó 8.400 páginas ayer, pero 3.100 fueron URLs de paginación sin valor. Eso son 3.100 peticiones desperdiciadas que podrían haber ido a contenido nuevo.

Lo primero es analizar los logs del servidor con Screaming Frog Log Analyzer. Filtro por Googlebot y encuentro que está rastreando versiones AMP obsoletas que deberíamos haber eliminado hace meses. Nadie las enlaza, pero siguen en el sitemap por error de migración.

Identificar desperdicios reales

Entre las 10:30 y las 13:00 me dedico a mapear qué secciones consumen más crawl budget. Las páginas de filtros facetados generan 12.000 combinaciones posibles. Solo 200 tienen tráfico orgánico según Analytics. Marco para noindex las que llevan más de 90 días sin visitas.

Reviso también la velocidad de rastreo. Google pide 15 páginas por segundo en picos, pero el servidor responde lento entre las 14:00 y las 16:00. Compruebo con el equipo de infraestructura si podemos aumentar recursos en esas horas.

Documentación y monitoreo

Por la tarde actualizo la hoja de seguimiento. Anoto cuántas URLs bloqueamos en robots.txt esta semana, cuántas salieron del sitemap y el cambio en páginas rastreadas diariamente. Los números suben despacio: de 8.400 a 9.100 páginas en dos semanas.

Configuro alertas en Logflare para detectar picos anormales de rastreo en secciones específicas. Mañana tengo reunión con el equipo de contenido para explicar por qué sus 4.000 páginas de archivo de 2018 están bloqueando el presupuesto de rastreo.

¿Te resultó útil este artículo?