No momento, estou me preparando para uma grande iniciativa de SEO no trabalho. Em vez de ficar apenas na teoria, decidi seguir uma abordagem de “aprender fazendo” por meio de um projeto pessoal paralelo.
O resultado depois de um mês? 632 visitantes orgânicos.
Foi um sprint revelador. Aprendi que até os menores detalhes de UX podem influenciar o ranqueamento. Fiquei genuinamente surpreso ao ver uma correlação entre ajustes no tamanho da fonte e métricas de desempenho.
A anomalia dos bots
No dia 15 de outubro, atingi um pico diário de 83 visitantes. Mas, quando fui mais fundo nos dados, algo pareceu estranho.
Uma parcela significativa desse tráfego veio diretamente da China. Usando o Yandex Webvisor, observei as sessões e percebi que o site estava sendo acessado com CSS desativado. Minha estimativa é que cerca de 20 desses “usuários” fossem, na verdade, bots.
Pergunta para a comunidade: Por que bots mirariam um site pequeno via tráfego direto e ainda desativariam o CSS de propósito? Será que isso é apenas uma forma de economizar banda durante o scraping?
Quero muito ouvir suas teorias enquanto continuo analisando os logs.