logo
  • 搜索学堂
  • 搜索服务
  • 互动交流
  • 资源合作
  • 用户中心
登录
推荐内容 创作者小课堂 工具解读 搜索规范 基础开发 智能小程序

资源提交

站点资源
  • 快速抓取
  • 普通收录
  • 移动适配
  • 死链提交

数据统计

小程序资源
  • 流量统计
站点资源
  • 索引量
  • 流量与关键词
  • 抓取频次
  • 抓取诊断
  • 抓取异常
  • Robots

搜索展现

  • 站点子链
  • 站点属性

站点优化与维护

  • 网站改版
论坛 反馈中心 VIP俱乐部
合作专题 申请历史
站点管理 消息提醒 联系方式 管理员设置 安全防护
  • 在线咨询

  • 反馈中心

  • 回到顶部

搜索学堂 【官方说法】robots文件是否支持中文目录

【官方说法】robots文件是否支持中文目录

发布日期:2016-10-31

有同学问百度站长学堂一个关于robots的问题:我们有个站点的目录结构使用的是中文,这样式儿的:www.a.com/冒险岛/123.html,那在制作robots文件和sitemap文件的时候,可以直接使用中文吗?百度能获取到吗?在实际操作中我们发现,sitemap中有文件是可以生效的,但robots封禁貌似没有反应,所以想确认一下:robots文件是否支持中文?

工程师解答:Baiduspider目前(2016年10月)在robots里是不支持中文的。

同学追问:那我们进行UrlEncode编码会不会支持呢?比如这种:http://www.a.cn/%E7%89%B9%E6%AE%8A:%E6%B5%8F%E8%A7%88/%E7%94%9F%E6%AD%BB%E7%8B%99%E5%87%BB:%E7%99%BD%E9%93%B6%E5%8A%A0%E7%89%B9%E6%9E%97

工程师解答:robots文件支持这种写法。但是否生效,还要取决于当时BaiduSpider抓取的是哪种形式结构的链接,如果是UrlEncode编码就可以生效,如果是中文就非常不幸了。

推荐阅读

  • 死链介绍及设置方法
  • 移动网站如何快速向百度提交数据
  • 移动适配工具全解析
  • 轻松两步,教你快速识别百度蜘蛛(U...
  • 站点Logo权益获取与使用说明
  • 做笔记停不下来?这里免费领取线下公...
  • 百度搜索落地页标准重大更新:禁止页...
智能小程序 投诉平台 百度统计 百度智能云 百度云加速 百度安全 百度大脑 百度保障 百度开发者中心 联系我们 微信公众号
©2025 Baidu 使用百度前必读 京ICP证030173号