logo
  • 首页
  • 搜索学院
  • 网站支持
  • 互动交流
  • 资源合作
  • 移动专区
  • 用户中心
登 录 | 注 册
热门内容 移动专区 工具解读 搜索规范 建站优化 Web技术

数据引入

链接提交 移动适配 MIP 死链提交

搜索展现

HTTPS认证 站点属性 站点子链 品牌词保护

数据监控

索引量 流量与关键词 抓取频次 抓取诊断 抓取异常 Robots

优化与维护

链接分析 网站体检 网站改版 闭站保护 移动落地页检测
论坛 反馈中心 任务中心
合作专题 申请历史
站点管理 消息提醒 联系方式 管理员设置 消息订阅 分润中心
  • 在线咨询

  • 反馈中心

  • 回到顶部

搜索学院 【官方说法】robots文件是否支持中文目录

【官方说法】robots文件是否支持中文目录

发布日期:2016-10-31

有同学问百度站长学院一个关于robots的问题:我们有个站点的目录结构使用的是中文,这样式儿的:www.a.com/冒险岛/123.html,那在制作robots文件和sitemap文件的时候,可以直接使用中文吗?百度能获取到吗?在实际操作中我们发现,sitemap中有文件是可以生效的,但robots封禁貌似没有反应,所以想确认一下:robots文件是否支持中文?

工程师解答:Baiduspider目前(2016年10月)在robots里是不支持中文的。

同学追问:那我们进行UrlEncode编码会不会支持呢?比如这种:http://www.a.cn/%E7%89%B9%E6%AE%8A:%E6%B5%8F%E8%A7%88/%E7%94%9F%E6%AD%BB%E7%8B%99%E5%87%BB:%E7%99%BD%E9%93%B6%E5%8A%A0%E7%89%B9%E6%9E%97

工程师解答:robots文件支持这种写法。但是否生效,还要取决于当时BaiduSpider抓取的是哪种形式结构的链接,如果是UrlEncode编码就可以生效,如果是中文就非常不幸了。

推荐阅读

  • 视频极速页分润结算Q&A
  • 飓风算法2.0解读
  • 《百度移动搜索落地页体验白皮书4....
  • B2B领域细雨算法解读
  • 清风算法2.0欺骗下载算法解读
  • 百度移动搜索落地页体验白皮书——广...
  • 移动专区数据后台:收录量、展现量、...
智能小程序 投诉平台 百度统计 百度云 百度云加速 百度安全 Web开发者中心 百度大脑 百度开发者中心 联系我们
©2019Baidu使用百度前必读 京ICP证030173号