A-A+

优化WordPress的robots.txt让博客更健康

2014年01月09日 PHP开源系统 评论 20 条 阅读 238 views 次

WordPress目前全球有数千万用户,包括独立博客和博客平台,且很多人把Wordpress开发成CMS来使用。Wordpress程序的优越性就不用多说了。

讲Wordpress的robots.txt优化之前,先对robots.txt的相关知识普及一下。
robots.txt是一个存放在网站根目录下的纯文本文件(ASCII编码),这个文件用于指定spider在您网站上的抓取范围,一定程度上保护站点的安全和隐私。同时也是网站优化利器,例如屏蔽捉取站点的重复内容页面。

robots.txt目前并不是一种标准,只是一种协议!所以现在很多搜索引擎对robots.txt里的指令参数都有不同的看待。

使用robots.txt需要注意的几点地方:

1、指令区分大小写,忽略未知指令,下图是本博客的robots.txt文件在Google管理员工具里的测试结果;

1

好像还是不支持中文等非英文字符,如需添加中文地址指令,请先转码(UTF-8和GBK会有不同的转码结果)。

如果想第一时间知道自己写的robots.txt是否规范,可以用Google管理员工具的“像 Googlebot 一样抓取”功能。捉取后,点击“成功”那个链接进去,就可以看到Google眼中的robots.txt了。

2

2、每一行代表一个指令,空白和隔行会被忽略;

3、“#”号后的字符参数会被忽略;

4、有独立User-agent的规则,会排除在通配“*”User agent的规则之外;

5、可以写入sitemap文件的链接,方便搜索引擎蜘蛛爬行整站内容。

6、尽量少用Allow指令,因为不同的搜索引擎对不同位置的Allow指令会有不同看待。

想了解更多关于robots.txt的“标准化”说明,可以查看robots.txt官网和Google关于robots.txt的说明页。

转入正题。因为Wordpress建站设置不同的固定链接(或者安装不同的插件),在写指令的时候,相应的地址会不同。本博客固定链接设置为:/a/%post_id%.html,供参考。

下面开始Wordpress的robots.txt优化之旅,同时请下载本博客的robots.txt边看边学优化。

User-agent: *

一般博客的robots.txt指令设置都是面对所有spider程序,用通配符“*”即可。如果有独立User-agent的指令规则,尽量放在通配“*”User agent规则的上方。

Disallow: /wp-admin/

Disallow: /wp-content/

Disallow: /wp-includes/

屏蔽spider捉取程序文件,同时也节约了搜索引擎蜘蛛资源。

Disallow: feed

Disallow: /comments/feed

头部代码里的feed链接主要是提示浏览器用户可以订阅本站,而一般的站点都有RSS输出和网站地图,故屏蔽搜索引擎捉取这些链接,节约蜘蛛资源。

Disallow: /?s=*

Disallow: comment-page-*

Disallow: /*?replytocom*

屏蔽捉取留言信息链接。一般不会收录到这样的链接,但为了节约蜘蛛资源,也屏蔽之。

Disallow: /a/date/

Disallow: /a/author/

Disallow: /a/category/

Disallow: /?p=*&preview=true

Disallow: /?page_id=*&preview=true

Disallow: /wp-login.php

屏蔽其他的一些形形色色的链接,避免造成重复内容和隐私问题。

Sitemap:http://***.com/sitemap.txt

网站地图地址指令,主流是txt和xml格式。告诉搜索引擎网站地图地址,方便搜索引擎捉取全站内容,当然你可以设置多个地图地址。要注意的就是Sitemap的S要用大写,地图地址也要用绝对地址。

上面的这些Disallow指令都不是强制要求的,可以按需写入。也建议站点开通谷歌管理员工具,检查站点的robots.txt是否规范。

标签:

20 条留言  访客:20 条  博主:0 条

  1. 李明

    不错,我又修改了robots.txt。

  2. 爱浮夸

    针对WP的。

  3. Betty

    现在只希望有一劳永逸的防垃圾评论的办法
    近来每天删上百条的垃圾啊

  4. 范韵鹏

    学习了.回去给我的网站也加上robots.txt

  5. 凌吉林

    我刚做站,啥也不懂,程序不会,代码不会,有机会向博主多多请教。

  6. 够靓博客

    谢谢分享。

  7. 香菇肥牛

    嗯,我都是用生成sitemap的插件一并自动生成的。。。。。

  8. 宿迁波仔博客

    wordpress这么多不让搜索引擎访问啊。zblog的就比较少了。

    • smiling

      wordpress许多链接都是重复的。

  9. 寇铈鑫

    博主 看下我的是否优化了

    • smiling

      看了你的robots.txt文件,很简单,sitemap.html的页面也打不开。

  10. PHP二次开发

    学习了,可以搞哦。

  11. 免费部落

    这个文件真的要引起站长重视!

  12. 历史百家争鸣

    都是自动生成的

    • smiling

      自动生成的会产生许多重复收录的内容,对搜索引擎可能不太好。

  13. 正版软件爱分享

    我的在不断的修改

  14. 恋羽

    这个文件用处还是挺大的,可以弄弄。

  15. 东狸

    放robots.txt就是意思下。

  16. 罗胜

    话说还真不懂怎么弄这东西

  17. 21氪

    一直没搞过这个文件

给我留言