ตอนนี้ฉันกำลังเตรียมตัวสำหรับโปรเจกต์ SEO ใหญ่ที่ทำงานอยู่ แทนที่จะอ่านแต่ทฤษฎีอย่างเดียว ฉันตัดสินใจใช้โปรเจกต์ส่วนตัวเป็นสนามทดลอง แล้วเรียนรู้จากการลงมือทำจริง
ผลลัพธ์หลังผ่านไปหนึ่งเดือน? ผู้เข้าชมแบบออร์แกนิก 632 คน
เดือนนี้เปิดมุมมองให้ฉันมากจริง ๆ ฉันได้เรียนรู้ว่าแม้แต่รายละเอียด UX เล็กน้อยก็อาจส่งผลต่ออันดับได้ และฉันก็แปลกใจมากที่เห็นความสัมพันธ์ระหว่างการปรับขนาดตัวอักษรกับตัวชี้วัดด้านประสิทธิภาพ
ความผิดปกติของบอต
วันที่ 15 ตุลาคม ฉันทำสถิติรายวันสูงสุดที่ 83 คน แต่พอลงลึกไปในข้อมูล ก็เริ่มรู้สึกว่ามีบางอย่างไม่ปกติ
ทราฟฟิกส่วนหนึ่งที่ไม่น้อยเข้ามาจากจีนโดยตรง ฉันใช้ Yandex Webvisor ดูเซสชันต่าง ๆ แล้วพบว่าไซต์ถูกเปิดด้วย CSS ที่ถูกปิดไว้ ฉันประเมินว่าจาก “ผู้ใช้” เหล่านั้น มีราว 20 รายที่จริง ๆ แล้วเป็นบอต
คำถามถึงคอมมูนิตี้: ทำไมบอตถึงเลือกยิงเข้าเว็บเล็ก ๆ ผ่าน direct traffic และยังตั้งใจปิด CSS อีก แบบนี้ทำเพื่อประหยัดแบนด์วิดท์ตอน scraping หรือเปล่า?
ฉันยังคงไล่ดูล็อกต่อไป และอยากฟังมุมมองของทุกคนมาก