JStorm 源码解析:Nimbus 的启动和运行机制
本篇我们一起分析一下 nimbus 节点的启动和运行机制。Nimbus 节点是 Storm 集群的调度者和管理者,它是集群与用户交互的窗口,负责 topology 任务的分配、启动和运行,也管理着集群中所有的 supervisor 节点的运行,监控着整个集群的运行状态,并将集群运行信息汇集给 UI 进行展示。
Nimbus 节点的启动过程位于 NimbusServer 类中,这是一个驱动类,main 方法中会加载集群配置文件,包括 default.yaml 和 storm.yaml,并将配置文件内容与启动时的命令行参数一起封装成 map 对象便于后续使用,真正的启动逻辑位于 NimbusServer#launchServer
方法中:
1 | private void launchServer(final Map conf, INimbus inimbus) { |
整个启动过程可以概括如下:
- 检测运行模式是否为集群模式,不允许以本地模式运行;
- 在本地创建对应的进程目录:
${storm.local.dir}/nimbus/pids/${pid}
; - 注册 shutdown hook 方法,用于在集群销毁时执行相应的清理逻辑;
- 模板方法,如果用户实现了
INimbus#prepare
方法,则会在这里被调度; - 创建并初始化封装 nimbus 运行数据的 NimbusData 对象;
- 注册一个 follower 线程,用于支持 HA 机制;
- 启动一个 HTTP 服务,主要用于查看和下载 nimbus 节点的运行日志数据;
- 如果集群运行在 YARN 上,则初始化容器的心跳线程;
- 启动 nimbus thrift 服务。
整个方法的运行逻辑还是相当清晰的,下面就其中一些关键步骤深入分析,主要包含 NimbusData 的实例化过程、HA 机制,以及 thrift 服务的初始化启动过程。
NimbusData 的实例化过程
首先来看一下 NimbusData 的实例化过程,位于 NimbusServer#createNimbusData
方法中,该方法基于前面加载的集群配置信息创建 NimbusData 类实例,并在构造方法中执行了一系列的初始化逻辑。NimbusData 是 nimbus 端非常重要的一个类,封装了 nimbus 节点所有的运行数据,这里挑重点分析一下其构造的初始化过程:
- 创建上传和下载传输通道处理器;
- 创建并初始化对应的 blobstore 实例;
- 创建 StormZkClusterState 对象,并设置本地缓存。
创建上传和下载传输通道处理器位于 NimbusData#createFileHandler
方法中,前面我们在分析 topology 构建和提交过程时曾分析过 jar 文件的上传过程,在开始上传之前客户端会先通知 nimbus 节点做一些准备工作,其中就包含创建文件上传通道,对于创建完成的通道会记录到一个 TimeCacheMap 类型的 uploaders 字段中等待后续取用。在 supervisor 从 nimbus 节点下载对应 topology 的 jar 文件时会创建相应的下载传输通道,并记录到 TimeCacheMap 类型的 downloaders 字段中。本方法就是对这两个字段执行初始化的过程,实现如下:
1 | public void createFileHandler() { |
该方法主要完成了 3 件事情,其中 1 和 2 比较直观,而 3 则在 TimeCacheMap 类实例化时完成,3 件事情分别如下:
- 为通道或流创建回调策略,用于关闭通道或流;
- 实例化 uploaders 和 downloaders 属性;
- 启动一个守护线程,该线程会定期对过期的通道应用注册的回调策略。
我们来看一下步骤 3 的逻辑,TimeCacheMap 是一个自定义的 map 类型,包含 map 类型常用的方法,同时具备超时机制,在实例化对象时会创建并启动一个后台线程,用于定时的应用超时回调策略:
1 | public TimeCacheMap(int expirationSecs, int numBuckets, ExpiredCallback<K, V> callback) { |
这里我们以 uploaders 为例,当客户端请求 nimbus 执行文件上传准备时,nimbus 会为本次请求创建一个上传通道,同时记录到 uploaders 中,本质上是记录到了 TimeCacheMap 的 buckets 字段头部。在实例化 uploaders 时,方法会创建相应的守护线程,每间隔指定时间(默认是 30 秒)从 buckets 尾部移除超时的通道,并应用回调策略,这里也就是在 createFileHandler 方法开始时创建的关闭通道回调策略。NimbusData#mkBlobCacheMap
方法的逻辑与 createFileHandler 基本相同。
下面来看一下 BlobStore 实例的创建和初始化过程,BlobStore 是一个键值存储对象,用于存储 topology 对象,以及 topology 配置信息等。Storm 默认提供了两类存储实现:本地文件存储(LocalFsBlobStore)和 HDFS 文件存储(HdfsBlobStore)。如果是本地存储则需要 ZK 的介入来保证数据一致性,而采用 HDFS 存储则会使用 HDFS 自带的备份和一致性保证。在 NimbusData 实例化过程中会调用 BlobStoreUtils#getNimbusBlobStore
方法创建并初始化 BlobStore 实例,方法会检查 nimbus.blobstore.class
配置,该配置用于指定具体的 BlobStore 实现类全称类名(包括 HdfsBlobStore),如果没有指定则默认采用 LocalFsBlobStore 实现,并在实例化后调用对应的 prepare 方法执行初始化,这里以 LocalFsBlobStore#prepare
进行说明。对于本地模式而言,会采用 ${storm.local.dir}/blobs/
作为存储的基础路径,并以 FileBlobStoreImpl 类实例操作本地文件,同时会创建对应的 ZK 客户端用于操作 ZK,以维护数据的一致性。
最后来看一下 StormZkClusterState 类对象的创建。StormZkClusterState 类也是一个非常重要的类,它实现了 StormClusterState 接口。Storm 可以看做是基于 ZK 的分布式实时任务调度系统,基于 ZK 实现对整个集群中任务和节点的协调和调度,而集群与 ZK 之间的通信都依赖于 StormZkClusterState 类对象,其实例化过程中所做的主要工作就是在 ZK 上创建相应的一级目录,并注册一个数据变更回调策略,用于触发监听相应路径数据变更时的回调处理器。创建的路径包括:
1 | - supervisors |
这里我们对上面的路径进行一个简单的说明:
1 | + ${zk_root_dir} |
Storm 集群的运行严重依赖于 ZK 进行协调,所以在集群较大的时候 ZK 有可能成为瓶颈,JStorm 在这一块引入了缓存进行优化,因为 ZK 中的数据有相当一部分是很少变更的,采用缓存策略可以提升访问速度,又减小对于 ZK 的读压力。缓存实例的创建也在 NimbusData 实例化期间完成,相应逻辑位于 NimbusData#createCache
方法中,该方法会创建一个 NimbusCache 缓存类对象,并将其记录到 StormZkClusterState 的相应属性中。NimbusCache 采用了两级缓存设计,即内存和文件,构造方法实现如下:
1 | public NimbusCache(Map conf, StormClusterState zkCluster) { |
JStormCache 接口声明了缓存的基本操作,针对该接口 Storm 主要提供了两类实现:TimeoutMemCache 和 RocksDBCache。对于文件存储而言,如果是本地模式,或者 linux 和 mac 以外的平台均采用 TimeoutMemCache,否则会检查 nimbus.cache.class
配置是否有指定相应的缓存实现类,如果没有指定的话,Storm 会采用 RocksDBCache 作为文件存储。RocksDBCache 的存储实现基于 rocksdb,这是一个由 Facebook 开发和维护的嵌入式键值数据库,借用了 leveldb 项目的核心代码,以及来自 HBase 的设计思想,可以简单将其理解为本地版本的 HBase。
Nimbus 节点的 HA 机制
Nimbus 节点在整个 Storm 集群中地位无可厚非,但是单点的设计对于目前大环境下的高可用来说是欠缺的,虽然 nimbus 本身的运行数据是无状态的,但是当 nimbus 节点宕机后,我们还是希望有其它 nimbus 节点能够快速顶替上来,以保证业务 topology 的正常运行。早期的 Storm 实现存在单点的问题,所以 JStorm 在改写的时候引入了 HA 机制来解决这一问题,对于 JStorm 来说一个集群运行过程中只能有一个 nimbus leader 节点,但是可以启动多个 nimbus follower 节点,当 leader 节点宕机之后,follower 节点们可以依据优先级竞选成为 leader 节点。实际上集群刚刚启动时所有的 nimbus 节点都是 follower,不过在短时间内就会依赖于 HA 机制从中选出一个 leader 节点。
JStorm HA 机制依赖于 ZK 实现,会在 ZK 根节点下创建 nimbus_master 和 nimbus_slave 两个临时节点,顾名思义,nimbus_master 用于存储 nimbus leader 的相关信息,其实就是节点对应的 IP 和端口,而 nimbus_slave 主要存储 nimbus follower 的相关信息。简单的说,nimbus 在启动时会抢占式在 ZK 上创建临时节点(EPHEMERAL 类型),先创建成功者成为 leader,余下的成为 follower,这些 follower 会定期检查 nimbus_master 节点是否存在,因为是 EPHEMERAL 类型,所以当 leader 宕机之后对应的节点会被 ZK 主动删除,此时余下的 follower 感知到 leader 不存在会立即抢占式顶替上来,这也算是 ZK 的典型应用场景。
HA 机制的启动过程位于 NimbusServer#initFollowerThread
方法中:
1 | private void initFollowerThread(Map conf) { |
方法的主要逻辑就是为当前 nimbus 节点创建并启动一个 follower 线程,相应的实现位于 FollowerRunnable 类中,该类实例化的过程中会执行以下几件事情:
- 判断当前是否是以集群模式运行,对于本地模式不适用于 HA 机制;
- 将当前节点的 IP 和端口号信息注册到 ZK 的 nimbus_slave 和 nimbus_slave_detail 目录下,表示当前节点是一个 nimbus follower 节点;
- 检查当前节点是否存在 leader,如果不存在则尝试成为 leader 节点;
- 如果使用本地存储 blobstore 数据则记录状态信息到 ZK,以保证数据的一致性。
当 follower 线程启动之后,follower 默认会每间隔 5 秒钟检查一次当前集群是否存在 nimbus leader 节点,如果不存在则会尝试成为 leader,该过程位于 FollowerRunnable#tryToBeLeader
方法中:
1 | private void tryToBeLeader(final Map conf) throws Exception { |
方法首先会基于所有 follower 的优先级来决定当前 follower 节点是否有资格尝试成为 leader,对于有资格的 follower 会调用 StormZkClusterState#try_to_be_leader
方法尝试在 ZK 上创建 nimbus_master 临时节点并写入自己的 IP 和端口号。如果对应 nimbus_master 节点已经存在,则说明已经有 leader 选举出来,则当前尝试失败,否则如果不存在 NodeExistsException 异常则表示竞选成功。
如果集群已经存在 leader,则方法会判断对应的 leader 是否是当前 follower 自身,如果是的话且上一次的 leader 不存在或是其它 follower 节点,则会触发之前在 NimbusServer#initFollowerThread
方法中定义的回调策略,本质上是调用了 NimbusServer#init
方法,该方法主要执行以下初始化逻辑:
- 执行
NimbusData#init
方法; - 清除一些老的 topology(在 ZK 上有记录但是在本地没有对应的 topology 文件);
- 启动 topology 任务分配后台线程,也就是 TopologyAssign 线程(之前在分析 topology 任务分配过程的篇章中有专门介绍);
- 更新集群中 topology 的状态信息(设置为 startup)和心跳信息;
- 启动定时清理任务,默认每隔 10 分钟会清理上传到本地的 topology 文件(inbox 目录,更多本地目录说明如下);
- 启动 metrics 监控任务。
1 | + ${nimbus_local_dir} |
Thrift 服务的初始化启动过程
最后我们来看一下 nimbus 服务的启动过程。Thrift 是一种接口描述语言和二进制通讯协议,同时也是一个强大的 RPC 中间件,跨语言高效通讯是其主要卖点。Nimbus 启动起来本质上就是一个 thrift 服务,在介绍 topology 任务提交过程时我们就已经接触到与 nimbus 节点通信的过程,本质上也是 RPC 服务调用的过程。所有 RPC 接口的实现均位于 ServiceHandler 类中,该类实现了 Nimbus.Iface
接口,NimbusServer 主要调用 NimbusServer#initThrift
方法来启动 thrift 服务,过程如下:
1 | private void initThrift(Map conf) throws TTransportException { |
方法实现了一个标准的 thrift 服务启动过程,如果对于 thrift 不熟悉可以参考 Thrift: The Missing Guide。Nimbus 节点启动后默认监听 8627 端口,然后等待客户端的请求。到此,一个 nimbus 节点启动的主要流程就基本完成了。