利用Robots.txt优化你的WordPress站点

2015年4月11日11:03:18 82 28,611

利用Robots.txt优化你的WordPress站点-1

很多建站新手对robots.txt文件的重要作用不是很清楚,利用这篇文章普及一下WordPress站点robots.txt文件编写知识。

Robots协议(也称为爬虫协议、机器人协议等)的全称是“网络爬虫排除标准”(Robots Exclusion Protocol),网站通过Robots协议告诉搜索引擎哪些页面可以抓取,哪些页面不能抓取。

搜索引擎机器人访问网站时,首先会寻找站点根目录有没有 robots.txt文件,如果有这个文件就根据文件的内容确定收录范围,如果没有就按默认访问以及收录所有页面。另外,当搜索蜘蛛发现不存在robots.txt文件时,会产生一个404错误日志在服务器上,从而增加服务器的负担,因此为站点添加一个robots.txt文件还是很重要的。

知道Robots协议的作用后,下面具体说一下WordPress站点如何编写robots.txt文件。

WordPress站点默认在浏览器中输入:http://你的域名/robots.txt,会显示如下内容:

  1. User-agent:*
  2. Disallow:/wp-admin/
  3. Disallow:/wp-includes/

这是由WordPress自动生成的,意思是告诉搜索引擎不要抓取后台程序文件。

但这是远远不够的,比较完整的WordPress站点robots.txt文件内容如下:

  1. User-agent:*
  2. Disallow:/wp-admin/
  3. Disallow:/wp-content/
  4. Disallow:/wp-includes/
  5. Disallow:/*/comment-page-*
  6. Disallow:/*?replytocom=*
  7. Disallow:/category/*/page/
  8. Disallow:/tag/*/page/
  9. Disallow:/*/trackback
  10. Disallow:/feed
  11. Disallow:/*/feed
  12. Disallow:/comments/feed
  13. Disallow:/?s=*
  14. Disallow:/*/?s=*\
  15. Disallow:/*?*
  16. Disallow:/attachment/

使用方法:新建一个名称为robots.txt文本文件,将上面的内容放进去,然后上传到网站根目录即可。

下面分别解释一下各项的作用:

1、Disallow: /wp-admin/、Disallow: /wp-content/和Disallow: /wp-includes/

用于告诉搜索引擎不要抓取后台程序文件页面。

2、Disallow: /*/comment-page-*和Disallow: /*?replytocom=*

禁止搜索引擎抓取评论分页等相关链接。

3、Disallow: /category/*/page/和Disallow: /tag/*/page/

禁止搜索引擎抓取收录分类和标签的分页。

4、Disallow: /*/trackback

禁止搜索引擎抓取收录trackback等垃圾信息

5、Disallow: /feed、Disallow: /*/feed和Disallow: /comments/feed

禁止搜索引擎抓取收录feed链接,feed只用于订阅本站,与搜索引擎无关。

6、Disallow: /?s=*和Disallow: /*/?s=*\

禁止搜索引擎抓取站内搜索结果

7、Disallow:/*?*

禁止搜索抓取动态页面

8、Disallow: /attachment/

禁止搜索引擎抓取附件页面,比如毫无意义的图片附件页面。

上面只是些基本的写法,当然还有很多,不过够用了。

 

weinxin
我的微信
分享交流WordPress经验与技巧,关注前端设计与网站制作。仅用于功能演示。
Begin主题购买
Begin主题购买

发表评论

:?: :razz: :sad: :evil: :!: :smile: :oops: :grin: :eek: :shock: :???: :cool: :lol: :mad: :twisted: :roll: :wink: :idea: :arrow: :neutral: :cry: :mrgreen:

目前评论:82   其中:访客  74   博主  2

    • 热腾吧 2

      我的还没写robots文件。明天要写上了

        • 我爱动感单车网 7

          @热腾吧 :razz: 想当初因为自己对WordPress程序不熟悉,为了尽可能拟写好这个robots.txt文本文件,那可是查找了很多资料和不断思索才最终搞定。感兴趣的朋友可以去参考下我的博客是怎么写的,大家多多交流、共同进步。

        • 009 5

          建议文章标题参考之前的主题看看

          • 三月福利吧 2

            不错,正愁这个呢!!!!

            • 枯叶蚁 1

              用上了,谢谢

              • 龙之游 1

                用上了,谢谢http://www.lzyhll.com

                • Noob工厂手表 0

                  感谢知更鸟无私的分享,对于我来说太有用了!

                  • 嘻嘻不要 1

                    robots金典教程,大家圈起来,考试要考

                    • 五牛 1

                      呵呵,简单实用的!谢谢博主!

                      • 驴行路上乐悠悠 4

                        刚试了一下发现我的robots.txt这个文件里多了个:Allow: /wp-admin/admin-ajax.php,这个ms是搞错了吧,抓取后台的文件了?

                        • 逆袭风暴 0

                          受教了,刚好用上,谢谢分享。

                          • 唯美图片网 0

                            用上了,总结的不错,再写一个sitemap就更好了!
                            www.weimeitupian.com

                            • 猎乐网 2

                              很好,不过要注意的是,百度的可以用utf8编码 谷歌的会报错, 谷歌要保存成ANSI编码的

                              • Bravo 0

                                我想问下您的代码高亮是用的是那个插件???谢谢!

                                • 还有谁 0

                                  呵呵哈哈哈机甲

                                  • 淘宝优惠券查询系统 2

                                    屏蔽了各种蜘蛛还是乱抓取。。。

                                    • 玩游戏赚钱 0

                                      谢谢博主啊,我直接拿来用了!在你博客学到好多东西,感谢!

                                      • 洛伊元 1

                                        用上了,谢谢http://www.lyy928.com

                                        • 发大水 0

                                          苟富贵升大概桂丰大厦

                                          • 爸妈质选 0

                                            谢谢博主,已经上传啦

                                            • 怡文 0

                                              学习了,自己的博客站正好用上。www.meibaseo.com

                                              • 瞎折腾 0

                                                阿里云负载突然100%,现在又好了,是不是有爬虫在爬啊

                                                • 福利啊 1

                                                  感谢博主,已经用上http://fulia.net

                                                  • 精斑检测试纸 0

                                                    很实用每次都来复制下