利用robots提高页面的抓取率

众所周知,在网站优化中,robots.txt文件告诉蜘蛛程序在服务器上什么文件是可以被查看的,什么是不可以被查看的,蜘蛛知道了这些以后,就可以将所有的精力放在被我们允许访问的页面上面,从而将有限的权重集中起来。

同时,我们还不能互略最重要的一点就是,robots.txt是搜索引擎访问网站要查看的第一个文件。明白了这一点,我们就有必要,也可能针对这一条做一些文章。

  • 将sitemap.xml写入robots文件

前面提到了,robots.txt文件是搜索引擎中访问网站要查看的第一个文件,那么,如果我们将sitemap.xml(网站地图)文件地址写入robots.txt文件里面,自然而然会被搜索引擎蜘蛛在第一时间发现,也增大了网站页面被快速抓取和收录的可能性。此种做法,对于新站作用明显,对于大站更具有积极和现实的作用。

具体写法示例如下:

所以,无论是新站还是老站,为了使得更多的页面被搜索引擎抓取,有必要将sitemap.xml写入robots.txt文件中。

  • Sitemap.xml文件的获取

前面讲了那么多,可能很多人还不是很明白,sitemap.xml文件究竟如何攻取呢?

给大家提供一个工具,也是谷歌官方推荐的sitemap.xml在线生成工具,http://www.xml-sitemaps.com/,大家可以根据里面的选项选择适合自己网站的sitemap.xml生成样式。生成sitemap.xml后,一般需要将该文件放置在根目录下面即可。

综上,把sitemap.xml地址写入robots.txt文件,从而提升页面抓取率的方式是可行的,也是具有可操作性的。Seo先生希望可以与更多的朋友就网站推广和优化进行探讨。

讨论区