查看: 1326|回复: 0

黑帽seo之家:robots.txt写法以及对黑帽排名的影响

[复制链接]

2万

主题

141

回帖

7万

积分

管理员

高级管理员

积分
70475
发表于 9-12 10:07 | 显示全部楼层 |阅读模式
企业在做网站推广的时候,有很多有助于网站优化的设置都是不容忽视的,比如:robot协议、sitemap等,这些都是引导蜘蛛对网站抓取的,因此在网站优化前期就是不容忽视的,那robots协议对网络SEO优化的帮助大不大?黑帽seo之家:robots.txt写法以及对黑帽排名的影响


robots格式


  一、robots格式


  1)Allow:


  是允许的意思,但需要注意: 他的使用一般都是结合 Disallow 他不能单独出现,意思是禁止爬取那个内容,加上 Allow 后意思是,除了可以爬取这个外其余的都禁止!


  2)Disallow:


  是禁止搜索引擎抓取的路径。注意: / 表示根目录 (代表网站所有目录)。Disallow 禁止搜索引擎把我们的网页放出来,就是我们不允许搜索引擎收录,请记住是不允许搜索引擎收录,并不代表他不能爬取了。这是两个概念,他还是能爬的,他不是命令,他只是协议


  3)User-agent:


  是定义搜索引擎的,指定搜索引擎的爬取程序,如果想定义所有搜索引擎请用 * ,


  记住他不能单独使用,他要配合前面两个语法使用(随便一个就行了)


robots文件有什么作用,黑帽seo之家:robots.txt写法以及对黑帽排名的影响


  二、robots文件有什么作用?


  1.保护我们网站的隐私内容不被爬虫抓取,表面透露隐私内容。例如:用户数据、管理员信息等。


  2.我们可以利用好robots文件来做好网站的SEO优化工作,比如清理网站死链的时候可以把死链接写进robots文件,再或者可以将网站地图写进robots方便爬虫一次性抓取网站内容等等。


  三、robots.txt文件使用误区。


  1、在robots.txt文件中设置不抓取整个网站内容,不让抓取意味着整个网站都不会被搜索引擎收录,不被收录的话,关键词难以获得排名,在好的营销内容,也难以被用户看到。


  2、在robots.txt文件中设置所有的文件都允许搜索引擎蜘蛛抓取,让搜索引擎能够收录更多页面。其实搜索引擎蜘蛛对于网站程序脚本、css样式、js文件等,很难被搜索引擎收录,就算收录了,也只会浪费服务器资源,这种对网站保护性很差,对蜘蛛体验不友好。


  3、网站所有文件都可以被抓取,不去设置robots.txt文件,默认让搜索引擎抓取整个的网站文件,这样不更利于优化。现实不是这样的,蜘蛛每次来抓取网站先会抓取robots.txt文件,如果文件不存在,蜘蛛就会认为是死链,就在网站日志记录为死链,严重影响蜘蛛友好度。


robots.txt文件使用误区,黑帽seo之家:robots.txt写法以及对黑帽排名的影响


  robots协议对网络SEO优化的帮助大不大?总之robots协议是网站优化中重要的优化细节,它能够更好的引导蜘蛛对网站的抓取,避免蜘蛛对网站抓取出现问题,数据泄露等,因此在网站上线前,需检查网站是否有添加网站robots.txt文件。

回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

关闭

站长推荐上一条 /1 下一条