如何理解seo里面的抓取和爬行

小芳seo 2019-04-05 阅读:222

如何理解seo里面的抓取和爬行

爬行和抓取是搜索引擎工作的第一步,完成数据收集的任务。

1、搜索引擎蜘蛛

搜索引擎蜘蛛访问网站页面和访问页面的程序被称为蜘蛛(spider)或机器人(bot)。

搜索引擎蜘蛛访问网站页面时类似于普通用户使用的浏览器。蜘蛛程序发出页面访问请求后,服务器返回HTML代码,蜘蛛程序把收到的代码存入原始页面数据库。搜索引擎为了提高爬行和抓取速度,都使用多个蜘蛛并发分布爬行。

蜘蛛访问任何一个网站时,都会先访问网站根目录下面的robots.txt文件。如果robots.txt文件禁止搜索引擎抓取某些文件或目录,蜘蛛将遵守协议,不抓取被禁止访问的网址。和浏览器一样,搜索引擎蜘蛛也有标明自己身份的用户代理名称,站长可以在日志文件中看到搜索引擎的特定用户代理,从而辨认搜索引擎蜘蛛。

2、跟踪链接

为了抓取网上尽量多的页面,搜索引擎蜘蛛会跟踪页面上的链接,从一个页面爬到下一个页面,就好像蜘蛛在蜘蛛网上面爬行一样,这也就是搜索引擎蜘蛛的由来。

整个互联网是由相互链接的网站及页面组成的。从理论上面来讲,蜘蛛从任何一个页面出发,顺着链接都可以爬行到网上的所有页面。当然,由于网站及页面链接结构异常复杂,蜘蛛需要采取一定的爬行策略才能遍历网上所有页面。

简单的爬行遍历策略分为2种,一种是深度优先,另一种是广度优先。

所谓深度优先,指的是蜘蛛沿着发现的链接一直向前爬行,直到前面再也没有其他链接,然后返回到第一个页面,沿着另一个页面链接再一直往前爬行。

广度优先是指蜘蛛在一个页面上发现多个链接时,不是顺着一个链接一直向前,而是把所有页面第一层链接都爬一遍,然后在沿着第二层页面上发现的链接爬向第三层页面。

从理论上面说,不论是广度还是深度优先,只要给蜘蛛足够的时间,都能爬完整个互联网。但是在实际工作中,蜘蛛的带宽资源、时间都不是无限的,也不可能爬完所有页面。实际上最大的搜索引擎也只是爬行和收录了互联网的一小部分。

深度优先和广度优先通常是混合使用的,这样既可以照顾到尽量多的网站(广度优先),也能照顾到一部分网站的内页(深度优先),同时也会考虑页面权重、网站规模。

以上内容均来源于东莞网络公司,由东莞培恋网科技整合。东莞市培恋网科技为企业网页建设排名优化,提供企业、个人模板网站制作,国外域名注册和服务器提供商。


评论(0)

">