Şu sıralar iş yerinde yürüteceğimiz büyük bir SEO girişimine hazırlanıyorum. Sadece teori okumak yerine, kişisel bir yan projeyle “yaparak öğrenme” yaklaşımını denemeye karar verdim.
Bir ayın sonunda sonuç? 632 organik ziyaretçi.
Bu süreç gerçekten göz açıcı oldu. UX tarafındaki en küçük ayrıntıların bile sıralamayı etkileyebileceğini gördüm. Özellikle yazı boyutu ayarlamaları ile performans metrikleri arasındaki ilişki beni ciddi biçimde şaşırttı.
Bot Anomalisi
15 Ekim’de günlük zirvem 83 ziyaretçi oldu. Ama verilerin içine biraz daha girdikçe bir şeylerin tuhaf olduğunu fark ettim.
Bu trafiğin önemli bir kısmı doğrudan Çin’den geliyordu. Yandex Webvisor ile oturumları izlediğimde, sitenin CSS devre dışı bırakılmış halde açıldığını gördüm. Tahminime göre bu “kullanıcıların” yaklaşık 20’si aslında bottu.
Topluluğa sorum: Botlar neden küçük bir siteyi direct traffic üzerinden hedef alıp bir yandan da CSS’yi bilerek kapatsın? Bu, scraping sırasında bant genişliğinden tasarruf etmenin bir yolu mu?
Logları incelemeye devam ederken teorilerinizi duymayı çok isterim.