您的位置 首页 golang

爬虫平台Crawlab核心原理–分布式架构

背景

Crawlab自第一版发布已经几个月了,其中经历了好几次迭代:版本从到了;后端语言从Python到了Golang;从最初使用Celery作为任务调度引擎,到自己开发分布式任务调度引擎;从只能运行自定义爬虫到可以运行(虽然还没迁移到最新版本);从手动部署爬虫到自动部署爬虫;从自己搭建环境到;从手动执行任务到定时任务;等等(详情见)。在使用者们的反馈下,Crawlab爬虫平台也逐渐变得稳定和实用,能够真正帮助到有爬虫管理需求的用户。如今在 Github 上有近1k的star,相关社区(微信群、微信公众号)也建立起来,四分之一的用户表示已经将Crawlab应用于企业爬虫管理。可以看出,Crawlab是受开发者们关注和喜欢的。

Github:

为什么需要爬虫管理平台

对于一般的爬虫爱好者来说,写一个单机爬虫脚本已经足够,而且Scrapy这样的优秀爬虫框架能够让开发者轻松调试、编写一个简单的爬虫,需要定时任务就直接上Crontab,分分钟搞定。然而,一般的企业对爬虫的要求相对较高,其中主要涉及一个问题,也就是规模(Scale)。当然,这里的规模是指大型规模。爬虫的规模分为两种:一种是爬虫需要抓取大量的数据(Volume),例如全网抓取淘宝的商品;另一种是爬虫需要涵盖大量的网站(Coverage),例如搜索引擎。

不同的规模需要有不同的架构策略(如下图):

而爬虫管理平台就是针对情况(2)、(3)、(4)而存在的分布式管理平台,能够让用户轻松管理多个爬虫或多机运行的爬虫。

Crawlab从诞生之初就解决了分布式爬虫问题,最早采用了Celery作为分布式任务调度引擎,以Redis作为消息队列,HTTP请求作为节点通信媒介,简单地实现了分布式管理。但随着用户不断使用Crawlab,发现这样的方式并不是很方便,用户需要指定节点的IP地址和API端口,而且还不能指定节点执行任务。因为各种问题,在最新版本用Golang重构后端的时候,就将Celery弃用了,转而自己开发分布式节点的监控和通信应用,这样更加灵活和高效。本文是核心原理介绍,下面将着重介绍Crawlab的 分布式架构 原理(Golang版本)。

整体架构

Crawlab的整体架构如下图,由五大部分组成:

以执行爬虫任务为例,它是Crawlab中常见的使用场景,我们来看看它具体是如何工作的:

以上就是执行爬虫任务的大致流程。当然,这还不是全部,我们还需要考虑日志处理、并发执行、取消任务等细节问题。具体的处理信息,请查看和。

总的来说,可以将主节点看作是Crawlab整体架构的中控系统,理解为Crawlab的大脑;工作节点是实际干活的部分,是Crawlab的运动躯体; MongoDB 和Redis是负责通信交流的,可以看作Crawlab的血液和神经网络。这些模块一起构成了一个完整、自洽、相互协作的系统。

节点注册和监控

节点监控主要是通过Redis来完成的(如下图)。

工作节点会不断更新心跳信息在Redis上,利用,心跳信息包含节点MAC地址,IP地址,当前时间戳。

主节点会周期性获取Redis上的工作节点心跳信息。如果有工作节点的时间戳在60秒之前,则考虑该节点为离线状态,会在Redis中删除该节点的信息,并在MongoDB中设置为”离线”;如果时间戳在过去60秒之内,则保留该节点信息,在MongoDB中设置为”在线”。

该架构的优点

这样,就做到了一个监控节点是否在线的节点注册系统。这样架构的好处在于,节点之间根本不用像HTTP、RPC那样IP或端口,只需要知道Redis的地址就可以完成节点注册和监控。因此,也就减少了用户配置节点的操作,简化了使用流程。同时,由于隐藏了IP地址和端口,也更为安全。另外,相较于Celery版本的监控,我们去除了Flower服务,不用在服务中单独起一个Flower服务的进程,减少了开销。

下图是Crawlab UI界面上的节点之间的关系图(拓扑图)。

该架构的缺点

相较于一些常见的分布式架构,例如 Zookeeper ,Crawlab还存在一些不完善的地方。

高可用性(High Availability)是Crawlab暂时还没有做得很好的。例如,当主节点宕机的时候,整个系统就会瘫痪,因为主节点是Crawlab的大脑中枢,负责很多功能。如果主节点宕机,前端就无法获取API数据,任务无法调度,当然也无法监控节点了。虽然Zookeeper没有将可用性(Availability)做得非常完善,但其投票选举机制保证了其一定程度的高可用。如果Crawlab要改善这一点的话,会在主节点宕机后,用一定的方式选举出另一个主节点,保证高可用。

节点通信

如果仔细看上面的整体架构图的话,你可能会注意到Crawlab中通信有两种。一种是同步信息(Sync via Msg),另一种是派发任务(Assign Tasks)。这两种通信分别叫 即时通信 延迟通信 。下面分别介绍。

即时通信

即时通信是指某节点A通过某种媒介向另一节点B发送信息,取决于是否为双向通信,节点B收到信息后可能会通过同一种媒介将信息回复给节点A。

Crawlab的即时通信是通过Redis的PubSub来实现的(如下图)。

所谓PubSub,简单来说是一个发布订阅模式。订阅者(Subscriber)会在Redis上订阅(Subscribe)一个通道,其他任何一个节点都可以作为发布者(Publisher)在该通道上发布(Publish)消息。

在Crawlab中,主节点会订阅nodes:master通道,其他节点如果需要向主节点发送消息,只需要向发布消息就可以了。同理,各工作节点会各自订阅一个属于自己的通道(node_id是MongoDB里的节点ID,是MongoDB ObjectId),如果需要给工作节点发送消息,只需要发布消息到该通道就可以了。

一个网络请求的简单过程如下:

Crawlab的获取日志、获取系统信息、取消任务、告知节点获取爬虫文件都是通过即时通信完成的。

而实现代码相对来说有些复杂。下面是主节点的PubSub 回调函数

这里其实是用来区分消息类别,如果要扩展的话需要写不少。工作节点的回调函数也需要写类似的逻辑。

这个可能跟HTTP请求和RPC通信相较来说麻烦一些。不过,这其实和WebSocket非常像(对WebSocket不了解的同学可以看看韦世东最近的文章),都需要在客户端和服务端定义回调函数。一个改进方法是不用来区分信息类别,转而用PubSub频道名称,监听多个频道。总之,具体实践中怎么选择,还需要考虑实际情况。

延迟通信

延迟通信对即时性要求不高,不需要节点或客户端对请求即时回复。通常来说,延迟通信的实现方式有队列、 轮询 等方式。这样的方式不要求即时性。延迟通信主要是用作需要长时间的操作,例如发送邮件、数据处理、构建应用等等。

Crawlab中的延迟通信主要包含任务队列以及轮询,都是通过Redis来实现的。任务队列是用作爬虫任务执行:主节点接收抓取请求后,将执行任务的消息推到任务队列中,工作节点不断轮询任务队列,获取任务并执行(如下图)。Crawlab爬虫任务执行的详情请参见和。

Crawlab的延迟通信主要包括爬虫任务执行和爬虫部署。爬虫任务执行这里不再赘述。下面简单介绍一下爬虫部署(流程如下图)。

整个爬虫部署的生命周期:

这样,所有爬虫将被周期性的部署在工作节点上。

在后续的开发中,Crawlab将会加入邮件通知、短信通知、微信推送等功能。而这些都是属于延迟通信的范畴,主要实现方法无外乎队列和轮询。

分布式实践 – 抓取上百个新闻网站

下面将介绍一个多机爬虫的实际应用场景,帮助大家深入理解Crawlab的分布式原理。

首先,你可能需要足够的网络带宽,因为需要抓取的网站上百了,不是简简单单的单机爬虫,你需要多台机器。这里只是简单介绍下拓扑架构,并不会详细介绍大规模爬虫的去重、反爬、容错等逻辑。如下图,每一个工作节点可以限制抓取一部分网站,总共M个网站平均分配给N个工作节点。在Crawlab中就是用指定节点的方式了,这个不难。另外,你也可以通过随机分配的方式来派发任务,每一个工作节点统计上也会均匀分配到任务,这其实也就是一个负载均衡(Load Balancing)的过程。

当然,你可能好奇上百个新闻网站是不是需要写上百个爬虫。对于这个问题,没有确切的准确回答。答案应该是“看情况”。对于自动提取字段的算法不够自信的开发者来说,可以选择Crawlab的(看这篇文章),这样的开发成本相对来说比较小。但是对于已经有技术实力的可以写出很好的通用提取规则的选手来说,只写一个通用爬虫就足够了(简单的列表页提取规则参考),抓取多个网站等于抓取一个网站,不过还是需要部署在多个机器上,以求最大的带宽和计算资源。当然,不管是哪一种,都绕不开去重、反爬、错误监控,不过这些不在本文讨论范围,网上有很多教程可以多学习一下。

社区

如果您觉得Crawlab对您的日常开发或公司有帮助,请加作者微信 tikazyq1 并注明”Crawlab”,作者会将你拉入群。欢迎在Github上进行star,以及,如果遇到任何问题,请随时在Github上提issue。另外,欢迎您对Crawlab做开发贡献。

往期文章

本篇文章由一文多发平台ArtiPub自动发布 .

文章来源:智云一二三科技

文章标题:爬虫平台Crawlab核心原理–分布式架构

文章地址:https://www.zhihuclub.com/98702.shtml

关于作者: 智云科技

热门文章

网站地图