当前位置:厦门SEO > SEO优化 > 正文

搜索引擎如何通过蜘蛛对网页抓取和收集?

龙腾SEO 2018-11-01 1367 0

做为一名SEO优化从业人员,长期要跟搜索引擎打交道,那么一定要了解搜索引擎的一些工作原理,比如是怎样通过蜘蛛程序对网页进行抓取和收集,其实这是搜索引擎工作的第一步,将抓取到的页面存在了原始数据库中,当我们了解了网页的抓取机制,可以更好的做网站优化。

蜘蛛抓取网页

那么什么是蜘蛛,是指按照指定的规则,在网络上对网站的页面代码或者脚本进行自动抓取工作。而我们如果没有对代码中的链接进行屏蔽,那么蜘蛛(爬虫)就可以通过该链接对站内或站外进行爬行和抓取。


由于网站的页面链接结构多样化,蜘蛛需要通过制定的爬行规则才能抓到更多页面,比如深度抓取还有广度抓取。深度是蜘蛛从当前页开始,逐个链接的爬行下去,处理完后再进下一个页面的爬行;广度是蜘蛛会先将这个页面中链接的所有网页全部抓取,再选择其中的一个网页链接继续抓取,这个方法可以使蜘蛛并行处理,增加了抓取的速度,所以是比较常用的方式。

而为了照顾到更多的网站,通常深度与广度是混合使用的,在抓取中也会考虑网站的权重、规模、外链、内容更新等因素,另外为了提高抓取的速度,正常是多个蜘蛛并发分布去爬行页面。我们根据这个原理,进行网站优化时要合理做内链优化,方便蜘蛛的顺利爬行。

另外为什么我们要在高权重的网站做链接,原因是这些网站蜘蛛多,带有导航性我们称为种子站点,蜘蛛会将这些站做为起始站点,所以我们在这些高权网站添加了链接,会增加抓取的入口。
蜘蛛收集机制
最后讲下搜索引擎的收集机制,当网站有定期定量在更新内容时,蜘蛛也会有规律的来网站抓取,所以这个抓取的频率会受到更新周期的影响,也就是如果网站长期不更新,那么蜘蛛就不会经常来抓取,因为蜘蛛每次爬行会将页面数据存储起来,当多次爬行时发现页面与之前收录的完全一样,没有内容更新,那么就不会频繁的来访问,所以我们要保持定期定量的更新,并且内容要有质量,这样当页面有新的链接时也会被更快抓取。

转载请注明来自龙腾SEO,本文标题:搜索引擎如何通过蜘蛛对网页抓取和收集?
本文地址:http://www.fjxmseo.cn/content/70.html

标签:百度蜘蛛搜索引擎

本文暂时没有评论,来添加一个吧(●'◡'●)

欢迎 发表评论:

关于我

欢迎加我的微信号交流

文章代更新
热门文章
随机tag
免费网盘关键词优化浮动广告代码FastCGI企业SEO百度快照电商推广DEDECMS搬家活动专题页搜索引擎百度负面搭建云服务器百度蜘蛛网络营销方法网站搬家mysql命令新媒体营销外链建设301重定向新闻营销cmd命令微博营销反向链接百度恶意点击