织梦CMS集成七牛插件最新优化版本教程
许多新手建站同伙对robots协议文件的主要性不是很清晰,本篇文章由昆明SEO博主普及一下WordPress站点robots协议文件编写知识。robots协议(也称为爬虫协议、机械人协议 等)的全称是“网络爬虫清扫尺度”(Robots Exclusion Protocol),网站通过robots协议告诉搜索引擎哪些页面可以抓取,哪些页面不能抓取。robots协议主要注重以下几大方面:
一、使用robots协议需要注重的几点地方:
1、指令区分巨细写,忽略未知指令。
2、每一行代表一个指令,空缺和隔行会被忽略。
3、“#”号后的字符参数会被忽略。
4、有自力User-agent的规则,会清扫在通配“*”User agent的规则之外。
5、可以写入sitemap文件的链接,利便搜索引擎蜘蛛爬行整站内容。
6、只管少用Allow指令,由于差其余搜索引擎对差异位置的Allow指令会有差异看待。
7、robots.txt 文件必须放在网站的根目录,不能以放在子目录。
二、robots协议文件写法:
1、User-agent: * 这里的*代表的所有的搜索引擎种类,*是一个通配符
2、Disallow: /admin/ 这里界说是阻止爬寻admin目录下面的目录
3、Disallow: /require/ 这里界说是阻止爬寻require目录下面的目录
4、Disallow: /ABC/ 这里界说是阻止爬寻ABC目录下面的目录
5、Disallow: /cgi-bin/*.htm 阻止接见/cgi-bin/目录下的所有以".htm"为后缀的URL(包罗子目录)
6、Disallow: /*?* 阻止接见网站中所有包罗问号 (?) 的网址
7、Disallow: /.jpg$ 阻止抓取网页所有的.jpg花样的图片
8、Disallow:/ab/adc.html 阻止爬取ab文件夹下面的adc.html文件
9、Allow: /cgi-bin/ 这里界说是允许爬寻cgi-bin目录下面的目录
10、Allow: /tmp 这里界说是允许爬寻tmp的整个目录
11、Allow: .htm$ 仅允许接见以".htm"为后缀的URL
12、Allow: .gif$ 允许抓取网页和gif花样图片
13、Sitemap: 网站舆图 告诉爬虫这个页面是网站舆图
三、robots协议文件现实说明:
1、User-agent: * //设置robots规则适用的浏览者身份为所有UA身份
2、Disallow: /*?* //屏障掉页面中的动态路径
3、Disallow: /?p=* //屏障掉非牢靠链接的文章页面路径,由于每个页面中都市有一个shortlink使用的是?p= 的路径。
4、Disallow: /index.php //屏障掉首页默认页面的index.php 页面地址
5、Disallow: /wp-admin //屏障掉后台上岸页面地址,主要是思量到服务器平安
6、Disallow: /wp-content/plugins //屏障掉wordpress的插件目录
7、Disallow: /wp-content/themes //屏障掉wordpress的模板目录
8、Disallow: /wp-includes //屏障掉wordpress的底层程序目录
Wordpress站点SEO优化教程四:数据库优化
9、Disallow: /trackback //屏障wordpress的页面回评路径
10、Disallow: /*/*/trackback //屏障wordpress分类目录、文章页面的回评路径
11、Disallow: /feed //屏障wordpress的内容订阅路径
12、Disallow: /*/*/feed //屏障wordpress分类目录、文章页面的订阅路径
13、Disallow: /comments/feed //屏幕wordpress谈论的订阅路径
14、Disallow: /page/ //屏障默认的翻页路径
15、Disallow: /*/*/page/ //屏障分类目录的翻页路径
16、Disallow: /page/1$ //屏障翻页路径中的数字路径
17、Disallow: /tag/ //屏障标签页面
18、Disallow: /?s=* //屏障搜索效果路径,主要是阻止搜索效果的缓存被搜索引擎收录
19、Disallow: /date/ //屏障按日期分类显示的列表页面
20、Disallow: /author/ //屏障作者文章列表页面
21、Disallow: /category/ //屏障以category为起始路径的分类路径,若是您没有使用插件天生不带category前缀的路径时,请不要使用此项规则。
22、Disallow: /wp-login.php //屏障后台上岸页面
四、robots协议设置方式
1、写好之后把文件重命名为:robots.txt 然后用FTP上传到网站的根目录下面,切记不是主题的根目录下而是网站的根目录。
2、行使站长工具自动天生,网址:http://tool.chinaz.com/robots/
3、行使SEO插件设置,好比Yoast SEO、all in one seo
五、robots协议的作用
1、指导搜索引擎蜘蛛抓取指定栏目或内容;
2、网站改版或者URL重写优化时刻屏障对搜索引擎不友好的链接;
3、屏障死链接、404错误页面;
4、屏障无内容、无价值页面;
5、屏障重复页面,如谈论页、搜索效果页;
6、屏障任何不想被收录的页面;
7、指导蜘蛛抓取网站舆图;
六、若何查看robots协议:
1、WordPress站点默认在浏览器中输入:http://你的域名/robots.txt
好比星辰seo博客:http://xxjz001.com/robots.txt
2、打开FTP,找到网站根目录查看robots.txt文件
总结:robots协议需要的注重地方,以及写法,设置方式,作用,若何查看就先容到这里,信托人人对robot协议已经有了对照详细的领会。使用好robots协议对于我们网站的SEO有着主要作用,做的好可以有用的屏障那些我们不想让搜索引擎抓取的页面,也就是对用户体验不高的页面,从而将有利于要害词排名的内页充实展示个客户,获得搜索引擎对站内页面的权重,从而有利于我们将网站要害词排名做的更好,从而获取更多流量。
作者:星辰seo博客
如何利用robots.txt 优化 wordpress博客?
未经允许不得转载! 作者:网站源码,转载或复制请以超链接形式并注明出处x36交易网。
原文地址:https://www.x36.cn/post/3686.html发布于:2021-10-15