logo
  • 搜索学堂
  • 搜索服务
  • 互动交流
  • 资源合作
  • 用户中心
登录
推荐内容 创作者小课堂 工具解读 搜索规范 基础开发 智能小程序

资源提交

站点资源
  • 快速抓取
  • 普通收录
  • 移动适配
  • 死链提交

数据统计

小程序资源
  • 流量统计
站点资源
  • 索引量
  • 流量与关键词
  • 抓取频次
  • 抓取诊断
  • 抓取异常
  • Robots

搜索展现

  • 站点子链
  • 站点属性

站点优化与维护

  • 网站改版
论坛 反馈中心 VIP俱乐部
合作专题 申请历史
站点管理 消息提醒 联系方式 管理员设置 安全防护
  • 在线咨询

  • 反馈中心

  • 回到顶部

搜索学堂 巧用robots避免蜘蛛黑洞

巧用robots避免蜘蛛黑洞

发布日期:2014-10-16

对于百度搜索引擎来说,蜘蛛黑洞特指网站通过极低的成本制造出大量参数过多,及内容雷同但具体参数不同的动态URL ,就像一个无限循环的“黑洞”将spider困住,Baiduspider浪费了大量资源抓取的却是无效网页。

比如很多网站都有筛选功能,通过筛选功能产生的网页经常会被搜索引擎大量抓取,而这其中很大一部分检索价值不高,如“500-1000之间价格的租房”,首先网站(包括现实中)上基本没有相关资源,其次站内用户和搜索引擎用户都没有这种检索习惯。这种网页被搜索引擎大量抓取,只能是占用网站宝贵的抓取配额。那么该如何避免这种情况呢?

我们以北京某团购网站为例,看看该网站是如何利用robots巧妙避免这种蜘蛛黑洞的:

对于普通的筛选结果页,该网站选择使用静态链接,如:http://bj.XXXXX.com/category/zizhucan/weigongcun

同样是条件筛选结果页,当用户选择不同排序条件后,会生成带有不同参数的动态链接,而且即使是同一种排序条件(如:都是按销量降序排列),生成的参数也都是不同的。如:http://bj.XXXXX.com/category/zizhucan/weigongcun/hot?mtt=1.index%2Fpoi.0.0.i1afqhek

http://bj.XXXXX.com/category/zizhucan/weigongcun/hot?mtt=1.index%2Fpoi.0.0.i1afqi5c


对于该团购网来说,只让搜索引擎抓取筛选结果页就可以了,而各种带参数的结果排序页面则通过robots规则拒绝提供给搜索引擎。

robots.txt的文件用法中有这样一条规则:Disallow: /*?* ,即禁止搜索引擎访问网站中所有的动态页面。该网站恰是通过这种方式,对Baiduspider优先展示高质量页面、屏蔽了低质量页面,为Baiduspider提供了更友好的网站结构,避免了黑洞的形成。

相关内容讨论请移步【学堂同学汇】《巧用robots避免蜘蛛黑洞》讨论帖

推荐阅读

  • 死链介绍及设置方法
  • 移动网站如何快速向百度提交数据
  • 移动适配工具全解析
  • 轻松两步,教你快速识别百度蜘蛛(U...
  • 站点Logo权益获取与使用说明
  • 做笔记停不下来?这里免费领取线下公...
  • 百度搜索落地页标准重大更新:禁止页...
智能小程序 投诉平台 百度统计 百度智能云 百度云加速 百度安全 百度大脑 百度保障 百度开发者中心 联系我们 微信公众号
©2025 Baidu 使用百度前必读 京ICP证030173号