当前位置:首页 >  站长 >  搜索优化 >  正文

网站robots文件没做好带来的影响不可小视

 2019-10-12 17:22  来源: A5用户投稿   我来投稿 撤稿纠错

  域名预订/竞价,好“米”不错过

网站优化过程非常容易忽视的一个就是robots文件,因为如果网站彻底不做robots文件好像也没有多大影响,但不做好这个文件,引起的问题可不能小视。

什么是robots文件?简单的说就是告诉搜索引擎哪些是你能抓取的哪些是你不能碰的,哪个蜘蛛可以进来哪个不能进来,做好了robots文件有以下几点好处:节省服务器资源,避免不必要的抓取;像有客户资料的私密信息不会泄露;让蜘蛛爬取的更加顺利方便,增加搜索引擎的友好度等等。

一、robots文件看法

想要看别人网站的robots文件,直接在网址栏输入:http://www.域名.com/robots.txt,比如你想看A5的robots文件就可以输入://m.sfpenrealtor.com/robots.txt

二、robots文件写法

这个在网上有大量的教程,本人的表达能力也比较欠佳,就不再赘述了。建议还是参照百度站长平台的资讯更加简单易懂一点。

三、如果robots文件出现了问题导致网站数据出现严重问题怎么办

robots文件对于稍稍有点规模的网站都是不可或缺的,很多不必要的搜索引擎的蜘蛛那就没有必要让它们爬取来占取资源,这时靠robots封禁,如果网站出现了严重的数据波动,比如收录索引全部掉完,排名全部下降,若网站没有出现其他问题正常优化的情况下,首先就要检查robots文件,这时也不要慌,笔者整理了方法,供大家参考使用。

1.修改Robots封禁为允许,然后到百度站长后台检测并更新Robots。

2.在百度站长后台抓取检测,此时显示抓取失败,没关系,多点击抓取几次,触发蜘蛛抓取站点。

3.在百度站长后台抓取频次,申请抓取频次上调。

4.百度反馈中心,反馈是因为误操作导致了这种情况的发生。

5.百度站长后台链接提交处,设置数据主动推送(实时)。

6.更新sitemap网站地图,重新提交百度,每天手工提交一次。

以上处理完,接下来就是等待了,基本5天内就能回到正常状态!在最后笔者还是建议大家要好好做好网站的robots文件,因为好处是有目共睹的,放在根目录下就可以了,当然,还可以在robots文件中放上网站的sitemap,对蜘蛛的爬取很有好处。

笔者:在职考研招生信息网www.eduzzyjs.com,转载请附上链接

友情提示:A5官方SEO服务,为您提供权威网站优化解决方案,快速解决网站流量异常,排名异常,网站排名无法突破瓶颈等服务:http://www.admin5.cn/seo/zhenduan/

申请创业报道,分享创业好点子。点击此处,共同探讨创业新机遇!

相关标签
robots文件
robots

相关文章

  • robots协议怎么写 作用是什么?

    robots协议也叫robots.txt(统一小写)是一种存放于网站根目录下的ASCII编码的文本文件,它通常告诉网络搜索引擎的漫游器(又称网络蜘蛛),此网站中的哪些内容是不应被搜索引擎的漫游器获取的,哪些是可以被漫游器获取的。

    标签:
    robots
  • robots具体应该禁止些什么文件

    今天大概总结一下:首先说明一点:每天百度派出的蜘蛛是有限的,robots写出来是为了节省蜘蛛资源让蜘蛛能更快的进行有效爬取和收录!

  • robots文件编写秘籍 新手必看

    当我们的网站上线之后,一定会有一些不想让百度抓取的页面、文件,针对这种问题,我们就要使用协议去屏蔽。那么这个协议是什么?究竟怎么写这个协议呢?

    标签:
    robots文件
    robots
  • robots.txt文件怎么写才正确呢?

    曾庆平SEO在前面的文章中讲过robots.txt概念的时候,留下一个问题:为什么曾庆平SEO的robots.txt写得那么复杂?曾庆平SEO的robots.txt:http://www.xxx.com/robots.txt这样做的目的是,让搜索引擎看来网站更规范和权威。

  • 百度站长平台检测robots.txt 提示301错误代码 怎么解决

    如果以上都没有错误,那么你就要检查你的CDN了,很可能是因为CDN缓存而造成的,或者是你配置了https,而站长平台却绑定的http,无法访问,这两点自己排查,如果以上都做到,那么是不会提示这类错误的,当然也不排查百度站长平台本身的问题,不过这种机率性很小。

热门排行

信息推荐