robots.txt协议是网站和搜索引擎的协议 。
作为网站优化人员,一定要会看robots文件,也要会写robots文件,那么,robots.txt文件有什么作用?
robots.txt文件的作用有:
(1)引导搜索引擎蜘蛛抓取指定内容或栏目 。比如,有的网站部分内容,只有注册会员后,登陆会员功能才能看到更多内容 。
(2)网站改版或者URL需要重写优化的时候屏蔽对搜索引擎不友好的链接 。
(3)屏蔽死链接、404页面;
(4)屏蔽无内容页面、无价值页面;
(5)屏蔽重复页面,如搜索结果页、评论页面等;
(6)屏蔽任何不想收录页面;
(7)引导蜘蛛抓取网站地图 。
网站设置robots.txt可以集权到网站重要页面,保护网站安全 。
知道了robots.txt的作用和设置robots.txt的必要性后,我就要知道robots.txt怎么写?
User-agent:Baiduspider
Disallow:/
禁止百度抓取
User-agent:*
Disallow:/
不允许所以蜘蛛抓取
User-agent:Baiduspider
Disallow:/baidu/
禁止访问/baidu/里面的所有文件夹
【robots.txt文件的作用和写法】User-agent:*
Disallow:/baidu/huaxia.js
紧张蜘蛛抓取某个文件夹下面的某个内容
知道了这些,我们就根据robots.txt文件的写法和实际需要 。把写好的robots.txt文件,通过FTP网站后台打开上传网站跟目录就可以了 。
为了方便各位朋友学习,robots.txt文件我们举例写一下,供需要学习的朋友参考:
User-agent: *
Disallow: /baidu/huaxia.js
指定所有搜索引擎蜘蛛抓取站点根目录下/baidu/文件夹下的huaxia.js文件
User-agent: *
Allow: /baidu/ccc
Disallow: /baidu/
禁止所有搜索引擎抓取baidu文件夹
但可以抓取百度文件夹下含有ccc的文件及文件夹
User-agent: *
Disallow: /*.js$
禁止抓取站点根目录所有js文件
User-agent: *
Disallow: /*.css$
禁止抓取站点根目录下所有css文件
User-agent: *
Disallow: /*?*
禁止蜘蛛抓取所有动态路径
Sitemap: 域名/sitemap.xml
网站地图写法
文章插图
robots.txt书写规格
robots.txt文件书写注意事项:
英文符号下写;
冒号后要有空格;
首个字母要大写;
/ 网站根目录(网站所有)
其实,robots.txt文件,只要熟悉理解代码,书写和应用很简单 。
推荐阅读
- 长虹玻璃的凹凸面是朝里还是朝外 长虹玻璃哪一面朝外
- 500以下的蓝牙头戴耳机推荐 500左右的蓝牙耳机推荐
- 薮猫是什么动物的杂交 薮猫体型多大
- MySQL服务端读取客户端文件漏洞的复现
- 喝菊花茶的坏处,女孩喝菊花茶的禁忌
- 荷叶茶的减肥喝法,荷叶茶的副作用
- 国外网友总结的最佳Android浏览器应用,看看有你用过的吗
- 金骏眉香气口感介绍,高山金骏眉与低山金骏眉的区别
- 兰馨雀舌有什么功效,优质名茶兰馨雀舌的制作工艺
- 喝滇红茶的禁忌人群,浮梁工夫茶的禁忌人群