Ahora mismo me estoy preparando para una gran iniciativa de SEO en el trabajo. En lugar de limitarme a leer teoría, decidí adoptar un enfoque de “aprender haciendo” con un proyecto personal paralelo.
¿El resultado después de un mes? 632 visitantes orgánicos.
Ha sido un sprint muy revelador. Aprendí que incluso los detalles más pequeños de UX pueden influir en el posicionamiento. Me sorprendió de verdad ver una correlación entre los ajustes del tamaño de la fuente y las métricas de rendimiento.
La anomalía de los bots
El 15 de octubre alcancé un pico diario de 83 visitantes. Pero cuando profundicé en los datos, algo no cuadraba.
Una parte importante de ese tráfico llegaba directamente desde China. Usando Yandex Webvisor, revisé las sesiones y me di cuenta de que el sitio se estaba cargando con CSS desactivado. Calculo que alrededor de 20 de esos “usuarios” eran en realidad bots.
Pregunta para la comunidad: ¿Por qué los bots apuntarían a un sitio pequeño mediante tráfico directo y desactivarían el CSS a propósito? ¿Será simplemente una forma de ahorrar ancho de banda durante el scraping?
Me encantaría leer sus teorías mientras sigo analizando los logs.