Je me prépare actuellement à une grosse initiative SEO au travail. Au lieu de me contenter de lire de la théorie, j’ai choisi une approche « apprendre en faisant » à travers un side project personnel.
Le résultat après un mois ? 632 visiteurs organiques.
Ce sprint a été particulièrement révélateur. J’ai compris que même les plus petits détails UX peuvent influencer le classement. J’ai notamment été surpris de voir une corrélation entre les ajustements de taille de police et les métriques de performance.
L’anomalie des bots
Le 15 octobre, j’ai atteint un pic quotidien de 83 visiteurs. Mais en creusant les données, quelque chose m’a semblé anormal.
Une part significative de ce trafic venait directement de Chine. Grâce à Yandex Webvisor, j’ai observé les sessions et constaté que le site était consulté avec le CSS désactivé. J’estime qu’environ 20 de ces « utilisateurs » étaient en réalité des bots.
Question à la communauté : Pourquoi des bots cibleraient-ils un petit site via du trafic direct tout en désactivant volontairement le CSS ? Est-ce simplement une façon d’économiser de la bande passante pendant le scraping ?
Je serais curieux de lire vos théories pendant que je continue à analyser les logs.