我最近正在为工作中的一项大型 SEO 计划做准备。与其只看理论,我更想通过一个个人 side project 来走一遍“边做边学”的路线。
一个月后的结果?632 位自然访客。
这段时间真的很有启发。我意识到,即使是非常细小的 UX 细节,也可能影响排名。尤其让我意外的是,字体大小调整和性能指标之间居然能看出明显关联。
机器人的异常现象
10 月 15 日,我的单日访问峰值达到了 83 位访客。但当我继续往下看数据时,就感觉有点不对劲了。
其中相当一部分流量是直接从中国过来的。通过 Yandex Webvisor,我回看了这些会话,发现这个站点是在关闭 CSS 的状态下被访问的。我的估计是,这些“用户”里大约有 20 个其实是机器人。
想问问大家:为什么机器人会通过直接流量盯上一个小网站,而且还会刻意禁用 CSS?只是为了在抓取时节省带宽吗?
我还会继续翻日志,也很想听听你们的判断。