robots.txt怎么使用_seo培训

相信各位站长都知道你的网站中有robots文件,但他的作用有哪些?还是有些站长一知半解的,接下来篇章教大家robots怎么用。

一、我们一个新站如果没把站内布局做完,可以用robots文件设置禁止搜索引擎抓取访问,它禁止全部蜘蛛爬行的语法是:

User-agent: *

Disallow: /

如果你想禁止个别搜索引擎蜘蛛,我拿谷歌的举例:

User-agent: Googlebot

Disallow: /

按理说我们设置了禁止这样蜘蛛就不会爬行了,然而事实真是这样吗?

篇章的答案是否定的。请看案例(以百度蜘蛛为例)

结果显示:“由于该网站的robots.txt文件存在限制指令(限制搜索引擎抓取),系统无法提供该页面的内容描述”

而且是可以访问,(ps:这个是大的网站是特殊例外,笔者也想过之前做过查证,而且确实有这样的网站,只是在无意中看到的当时没有记录,实在抱歉今天再找却记不起来了)

应用:新网站测试,站长心想没有提交蜘蛛应该不会被收录,谁知被奇妙的收录了(ps:可怜的优化策略没有上马,就这样跟百度蜘蛛邂逅了)之后采取robots屏蔽发现这些需要时间不能达到预期效果,网站被竞争者窃取,由于时间紧急的原因,最后是关闭服务器提交死链才消除百度搜索收录记录。

2、robots.txt具有屏蔽死链接的作用,提交后会不会立马这些死链接会消失收录?

篇章的答案是否定的,因为我们都知道百度在各个省都有各个百度的服务器,因此不可能同时清楚缓存,为此我们可以ping一下百度。

操作过程:

一、打开系统的运行,快捷键是“WIN+R”

二、输入ping-空格-百度域名-最后回车

操作完我们会看到这样的:

我本地是上海的IP,它显示的是115.239.211.112 各位的IP肯定跟我不一样,因此验证了我上面所说。

不过想快速消失死链百度站长平台倒是有一个“死链提交”的功能,大家可以去看看,那是快速清除死链的方法,前些天试了一下,还挺好用,很快就能得到响应:

不知道大家看完后有什么想说的,都可以在评论区评论一下,篇章会尽心回复的。

未经允许不得转载:SEO培训-免费在线学习SEO课程 » robots.txt怎么使用_seo培训

赞 (18)
标签:

评论 0

  • 昵称 (必填)
  • 邮箱 (必填)
  • 网址