网页蜘蛛跳转代码对搜狗搜索引擎并不友好
时间:2020-10-30 17:20:08
作者:重庆seo小潘
来源:
跳转代码是微情报的站长给我。跳转代码有个好处,链接失效了不用全部更换,只需要在跳转代码里面替换下网址就行了。 因为跳转代码没有什么内容,并不希望搜索引擎蜘蛛访问。在robots协议里已经写了禁止蜘蛛访问,百度遵守了,搜狗没有遵守协议,依然会抓
跳转代码是微情报的站长给我。跳转代码有个好处,链接失效了不用全部更换,只需要在跳转代码里面替换下网址就行了。
因为跳转代码没有什么内容,并不希望搜索引擎蜘蛛访问。在robots协议里已经写了禁止蜘蛛访问,百度遵守了,搜狗没有遵守协议,依然会抓取。
这样就出现一个情况,网站被搜狗收录几十个网页,然后K光,只剩下跳转代码收录。然后再收录几十个页,过段时间再K光。只剩下跳转代码网页,因此我判断是跳转代码的问题。
现在有些人重新定制了跳转代码。手机端跳转,电脑端不跳。这种应该不影响搜狗收录。阳光也在找这样的代码,目前没找到最好的。
这种移动端跳,电脑端不跳的代码,有朋友和我说会拦截蜘蛛。如果我们在页面加一个返回首页应该没事。
现在还有人使用javascript:void(0)悬浮跳转,这种不显示网址,也不会引导蜘蛛访问。目前是比较高明的,定制一下,大概200元费用。
看到百度自己说,它们有两个索引库,移动的和电脑端的不一样。那么抓取内容肯定会派出蜘蛛。跳转代码对蜘蛛不并友好,能够隐藏跳转对网站收录和排名各个方面都有好处。