Obecnie przygotowuję się do dużej inicjatywy SEO w pracy. Zamiast ograniczać się do czytania teorii, postanowiłem podejść do tego praktycznie i potraktować własny projekt poboczny jako poligon doświadczalny.
Efekt po miesiącu? 632 organicznych odwiedzających.
To był naprawdę otwierający oczy sprint. Przekonałem się, że nawet najmniejsze detale UX mogą wpływać na pozycje. Szczególnie zaskoczyła mnie korelacja między zmianami rozmiaru fontu a wskaźnikami wydajności.
Anomalia z botami
15 października zanotowałem dzienny szczyt na poziomie 83 odwiedzających. Ale kiedy zacząłem dokładniej analizować dane, coś wydało mi się podejrzane.
Znaczna część tego ruchu przyszła bezpośrednio z Chin. Korzystając z Yandex Webvisor, obejrzałem sesje i zauważyłem, że strona była otwierana przy wyłączonym CSS. Szacuję, że około 20 z tych „użytkowników” to w rzeczywistości boty.
Pytanie do społeczności: Dlaczego boty miałyby celować w małą stronę przez direct traffic i celowo wyłączać CSS? Czy chodzi po prostu o oszczędzanie transferu podczas scrapowania?
Z przyjemnością poznam Wasze teorie, bo dalej przekopuję logi.