我来分享: “抓取异常”搜索引擎蜘蛛不能爬行的原因_资讯_56之窗网手机版
SEO优化
我来分享: “抓取异常”搜索引擎蜘蛛不能爬行的原因
2017-08-08 00:53  点击:120
 “抓取异常”搜索引擎蜘蛛不能爬行的原因
有些网页内容优质,用户也可以正常访问,单是搜索引擎知足却无法正常访问抓取,照成搜索结果覆盖率缺失,这对网站优化是一种损失。百度把这种情况叫做“抓取异常”对于大欸容无法正常抓取的网站。百度为认为该网站的用户体验度左右的不好,会降低对网站的评价,导致在抓取,索引,排序出现负面影响。最终会减少网站的百度流量获取数。那么常见“抓取异常”都有哪些原因呢?
   1.服务器连接异常
     1.1站点不稳定 让百度蜘蛛出现暂时无法链接的问题
     1.2百度蜘蛛引擎一直无法连接网站的服务器
而以上的问题出现通常是网站服务器过大,超负荷运转,也哟可能是网站运行不正常 。须检测web服务器是否安装且正常云南行。并使用那浏览器检查主要页面能否正常访问。此外,网站和主机还可能会阻止百度搜素引擎蜘蛛的访问,只是需要检查网站和主机的防火墙。
2.网站运营商问题
需与网络运营商ianxi,购买双线服务的空间,或购买CDN服务
3.DNS异常
百度引擎蜘蛛无法解析网站的IP地址会出现DNS异常。可能是网站的IP地址错误或者域名服务商封禁的问题。可以用WHOIS或者host查询结果。如果不正确,需联系域名注册商,更新IP地址
 
4.IP的封禁 需要检查相关设置,是否添加了百度搜索引擎的IP地址。
5. UA封禁  需要查看User-agent的相关设置中是否有被百度搜索引擎的UA,并及时予以修改
6.死链  有协议死链和内容死链两种处理方式,其中建议使用协议死链。并且通过百度站长平台-死链功能根据体哦啊叫以便百度更快的发现死链,并删除
7.异常跳转 将网站请求重新指向其他文职即为跳转。对于长时间跳转到其他域名的情况,如网站更换域名,百度建议使用201跳转协议进行设置。
   8.其他异常
  8.1针对百度refeR的异常  
  8.2 针对百度Ua的异常
  8.3 JS跳转异常
  8.4 压力过大引起的偶然封禁
你可能感兴趣
SEO优化说说之SEO优化的9大优势 不仅仅提高转化率那么简单
SEO优化说说之如何撰写SEO内容?
站长基础说说之做百度百科外链留意须知
站长基础说说之如何改善网站的打开(响应)速度
站长基础说说之分享上网站权重的要素
站长基础说说之浅析站内优化如何兼顾百度谷歌的算法
站长基础说说之网站优化之稳固的主要
站长基础说说之百度竞价推广教您省钱高效果的技巧
站长基础说说之对SEO认识的误区
站长基础说说之客户体验也就是传统营销说的客户需求
站长基础说说之浅谈我百曲不折的坚持着seo最初的梦想
站长基础说说之最近网站这样优化效果比较好