मैं इस समय काम पर एक बड़े SEO initiative की तैयारी कर रहा हूँ। सिर्फ़ थ्योरी पढ़ने के बजाय, मैंने एक निजी side project के ज़रिए “करते-करते सीखने” वाला तरीका अपनाने का फैसला किया।
एक महीने बाद नतीजा? 632 ऑर्गेनिक विज़िटर।
यह महीना सच में आँखें खोल देने वाला रहा। मैंने सीखा कि UX की बहुत छोटी-छोटी बातें भी ranking को प्रभावित कर सकती हैं। खासकर फ़ॉन्ट साइज़ में बदलाव और performance metrics के बीच संबंध देखकर मैं सच में हैरान रह गया।
बॉट से जुड़ी गड़बड़ी
15 अक्टूबर को मैंने एक दिन में 83 विज़िटर का peak देखा। लेकिन जब मैंने डेटा को थोड़ा गहराई से देखा, तो लगा कि कुछ ठीक नहीं है।
उस ट्रैफ़िक का एक बड़ा हिस्सा सीधे चीन से आ रहा था। Yandex Webvisor में sessions देखकर मुझे समझ आया कि साइट CSS बंद करके खोली जा रही थी। मेरा अनुमान है कि उन “यूज़र्स” में से करीब 20 असल में bots थे।
कम्युनिटी के लिए सवाल: bots किसी छोटे site को direct traffic के ज़रिए क्यों target करेंगे, वो भी जानबूझकर CSS बंद करके? क्या यह scraping के दौरान bandwidth बचाने का तरीका है?
मैं logs को और खंगाल रहा हूँ। इस दौरान आपकी theories सुनना मुझे अच्छा लगेगा।