In questo periodo mi sto preparando per una grande iniziativa SEO al lavoro. Invece di limitarmi a studiare la teoria, ho deciso di adottare un approccio “imparare facendo” attraverso un progetto personale parallelo.
Il risultato dopo un mese? 632 visitatori organici.
È stato un mese davvero illuminante. Ho capito che anche i dettagli più piccoli della UX possono influenzare il posizionamento. Mi ha colpito soprattutto vedere una correlazione tra le modifiche alla dimensione del font e le metriche di performance.
L’anomalia dei bot
Il 15 ottobre ho raggiunto un picco giornaliero di 83 visitatori. Ma quando ho analizzato meglio i dati, qualcosa non mi tornava.
Una quota significativa di quel traffico arrivava direttamente dalla Cina. Con Yandex Webvisor ho osservato le sessioni e mi sono accorto che il sito veniva aperto con CSS disattivato. La mia stima è che circa 20 di quegli “utenti” fossero in realtà bot.
Domanda per la community: Perché dei bot dovrebbero prendere di mira un piccolo sito tramite traffico diretto e disattivare volontariamente il CSS? È semplicemente un modo per risparmiare banda durante lo scraping?
Mi piacerebbe leggere le vostre teorie mentre continuo a scavare nei log.