logo
  • 搜索学院
  • 搜索服务
  • 互动交流
  • 资源合作
  • 用户中心
登录
推荐内容 智能小程序 工具解读 搜索规范 合作共建 基础开发

资源提交

小程序资源
  • 资源提交及校验
站点资源
  • 快速收录
  • 普通收录
  • 移动适配
  • 死链提交

数据统计

小程序资源
  • 流量统计
站点资源
  • 索引量
  • 流量与关键词
  • 抓取频次
  • 抓取诊断
  • 抓取异常
  • Robots

搜索展现

  • HTTPS认证
  • 站点子链
  • 站点属性
  • 专业问答
  • 落地页视频转存
  • 视频极速服务
  • 医疗权威资源
  • 热议资源

站点优化与维护

  • 闭站保护
  • 网站改版
  • 移动落地页检测
  • 网站体检
论坛 反馈中心 搜索用户建议
合作专题 申请历史
站点管理 消息提醒 联系方式 管理员设置 分润中心
  • 在线咨询

  • 反馈中心

  • 回到顶部

搜索学院 【官方说法】robots文件是否支持中文目录

【官方说法】robots文件是否支持中文目录

发布日期:2016-10-31

有同学问百度站长学院一个关于robots的问题:我们有个站点的目录结构使用的是中文,这样式儿的:www.a.com/冒险岛/123.html,那在制作robots文件和sitemap文件的时候,可以直接使用中文吗?百度能获取到吗?在实际操作中我们发现,sitemap中有文件是可以生效的,但robots封禁貌似没有反应,所以想确认一下:robots文件是否支持中文?

工程师解答:Baiduspider目前(2016年10月)在robots里是不支持中文的。

同学追问:那我们进行UrlEncode编码会不会支持呢?比如这种:http://www.a.cn/%E7%89%B9%E6%AE%8A:%E6%B5%8F%E8%A7%88/%E7%94%9F%E6%AD%BB%E7%8B%99%E5%87%BB:%E7%99%BD%E9%93%B6%E5%8A%A0%E7%89%B9%E6%9E%97

工程师解答:robots文件支持这种写法。但是否生效,还要取决于当时BaiduSpider抓取的是哪种形式结构的链接,如果是UrlEncode编码就可以生效,如果是中文就非常不幸了。

推荐阅读

  • 2020年搜索学院公开课复盘合辑
  • 从新手到SEO大神,站长如何实现轻...
  • 如何查看sitemap文件提交配额
  • 智能小程序如何关联H5站点
  • 搜索公开课复盘之《搜索算法全解析》
  • 搜索公开课复盘之《搜索问题解决指南》
  • 搜索公开课复盘之《搜索优质内容解读》
智能小程序 投诉平台 百度统计 百度智能云 百度云加速 百度安全 百度大脑 百度保障 百度开发者中心 联系我们 微信公众号
©2021 Baidu 使用百度前必读 京ICP证030173号