robots.txt支持或者能识别中文目录吗?

987seo/2019-09-07/ 分类:seo常见问题/阅读:
今天有个群友在问说写robots的时候,可否使用中文的目录,这边987seo工作室小编就和大家分享下,百度官方是如何回应这个问题的哦,希望对有此疑惑的朋友有帮助哦! 官方说法: 有同学问百度站长学院一个关于robots的问题:我们有个站点的目录结构使用的是中 ...
今天有个群友在问说写robots的时候,可否使用中文的目录,这边987seo工作室小编就和大家分享下,百度官方是如何回应这个问题的哦,希望对有此疑惑的朋友有帮助哦!

robots.txt支持或者能识别中文目录吗?

官方说法:

有同学问百度站长学院一个关于robots的问题:我们有个站点的目录结构使用的是中文,这样式儿的:www.a.com/冒险岛/123.html,那在制作robots文件和sitemap文件的时候,可以直接使用中文吗?百度能获取到吗?在实际操作中我们发现,sitemap中有文件是可以生效的,但robots封禁貌似没有反应,所以想确认一下:robots文件是否支持中文?

工程师解答:Baiduspider目前(2016年10月)在robots里是不支持中文的。

同学追问:那我们进行UrlEncode编码会不会支持呢?比如这种:http://www.a.cn/%E7%89%B9%E6%AE%8A:%E6%B5%8F%E8%A7%88/%E7%94%9F%E6%AD%BB%E7%8B%99%E5%87%BB:%E7%99%BD%E9%93%B6%E5%8A%A0%E7%89%B9%E6%9E%97

工程师解答:robots文件支持这种写法。但是否生效,还要取决于当时BaiduSpider抓取的是哪种形式结构的链接,如果是UrlEncode编码就可以生效,如果是中文就非常不幸了。  --百度站长学院

好了,关于robots.txt是否支持中文目录,就分享到这,相信大家已经知道了哈

更多关于robots.txt的文章:


robots.txt有什么作用,应该放在网站哪个地方

robots.txt怎么写?如何使用方法技巧

阅读:
扩展阅读:
精彩评论:
说点什么吧
  • 全部评论(0
    还没有评论,快来抢沙发吧!
腾讯云服务器优惠

推荐文章

Recommend article
腾讯云服务器-全球

热门文章

HOT NEWS
  • 周榜
  • 月榜
阿里云服务器优惠券
987seo网络工作室 - 关注SEOer,站长和创业者的网站
微信二维码扫一扫
关注微信公众号
987studio.com 联系QQ:256707691 邮箱:256707691@qq.com Copyright © 2018-2019 987seo网络工作室 版权所有
987SEO工作室专注seo教程分享,seo技术,网站关键词排名优化,dedecms织梦模板建站教程,技术分享等知识资讯,关键词上百度首页的方法及网站建设相关软件资源下载!一个关注SEOer、站长和创业者的网站
二维码
意见反馈 二维码