این روزها دارم خودم را برای یک ابتکار مهم SEO در محل کار آماده میکنم. بهجای اینکه فقط تئوری بخوانم، تصمیم گرفتم با یک پروژه جانبی شخصی رویکرد «یادگیری در عمل» را امتحان کنم.
نتیجه بعد از یک ماه؟ 632 بازدیدکننده ارگانیک.
این یک تجربه واقعاً چشمگیر بود. فهمیدم که حتی ریزترین جزئیات UX هم میتوانند روی رتبهبندی اثر بگذارند. دیدن ارتباط بین تغییرات اندازه فونت و شاخصهای عملکرد واقعاً غافلگیرم کرد.
ناهنجاری رباتها
در 15 اکتبر به رکورد روزانه 83 بازدیدکننده رسیدم. اما وقتی دقیقتر سراغ دادهها رفتم، حس کردم یک جای کار میلنگد.
بخش قابل توجهی از این ترافیک مستقیماً از چین آمده بود. با استفاده از Yandex Webvisor، سشنها را بررسی کردم و متوجه شدم سایت با CSS غیرفعال باز میشود. برآورد من این است که حدود 20 نفر از آن «کاربرها» در واقع ربات بودهاند.
سؤال برای جامعه: چرا رباتها باید یک سایت کوچک را از طریق ترافیک مستقیم هدف بگیرند و عمداً CSS را غیرفعال کنند؟ آیا فقط برای صرفهجویی در پهنای باند هنگام اسکریپ کردن است؟
دوست دارم در حالی که به کندوکاو در لاگها ادامه میدهم، نظریههای شما را هم بشنوم.