요즘 회사에서 진행할 큰 SEO 이니셔티브를 준비하고 있습니다. 이론만 읽는 대신, 개인 사이드 프로젝트를 통해 “직접 해 보면서 배우는” 방식을 택했습니다.
한 달 뒤 결과는? 유기적 방문자 632명이었습니다.
정말 많은 걸 깨닫게 해준 한 달이었습니다. UX의 아주 작은 디테일도 순위에 영향을 줄 수 있다는 걸 배웠고, 특히 폰트 크기 조정과 성능 지표 사이에 상관관계가 보였다는 점이 꽤 놀라웠습니다.
봇 이상 징후
10월 15일에는 하루 방문자가 83명까지 올라갔습니다. 그런데 데이터를 더 깊이 들여다보니 뭔가 이상했습니다.
그 트래픽 중 상당수가 중국에서 직접 들어온 것이었습니다. Yandex Webvisor로 세션을 확인해 보니, 사이트가 CSS가 비활성화된 상태로 열리고 있었습니다. 제 추정으로는 그 “사용자”들 중 약 20명은 실제 사람이 아니라 봇이었습니다.
커뮤니티에 묻고 싶습니다: 왜 봇들은 작은 사이트를 direct traffic으로 노리면서 굳이 CSS까지 꺼 버릴까요? 스크래핑할 때 대역폭을 아끼려는 걸까요?
계속 로그를 파고들고 있으니, 여러분 생각도 꼭 듣고 싶습니다.