前言
在大数据分析领域,Apache Kylin 和 Apache Druid (incubating) 是两个普遍使用的 OLAP 引擎,都具有支持在超大数据上进行快速查询的能力。在一些对大数据分析非常依赖的企业,往往同时运行着 Kylin 和 Druid 两套系统,服务于不同的业务场景。
在2018年8月的 Apache Kylin Meetup 活动上,美团点评技术团队分享了他们的 Kylin On Druid 方案(简称 KOD)。那么,美团点评为什么要开发这样一套混合系统?这背后是有什么挑战和考虑呢?本文将围绕这些问题跟大家做探讨,帮助读者理解两个 OLAP 引擎之间的差异和各自优势。
01
Apache Kylin 简介
Apache Kylin 是一个开源的分布式大数据分析引擎,在超大规模数据集上建立数据模型,构建支持多维分析的预计算 Cube,提供 Hadoop 上的 SQL 查询接口及多维分析能力。并开放通用的 ODBC、JDBC 或 Restful API 接口。这种独特的预计算能力使 Apache Kylin 可以应对超大数据集上的查询,并实现亚秒级查询响应。
图 1 Kylin架构图
02
Apache Kylin 的优势
1.基于 Hadoop 成熟的计算引擎(MapReduce 和 Spark),提供了强大的处理超大数据集的预计算能力,能够在主流 Hadoop 平台上开箱即用。
2. 支持 ANSI SQL,用户可以使用 SQL 进行数据分析。
3. 亚秒级低延迟响应。
4. 提供 OLAP 通用的星型模型和雪花模型等数据建模方式。
5. 提供丰富的度量(Sum,Count Distinct、Top N、Percentile 等)。
6. 提供智能的 Cuboid 剪枝能力,减少存储和计算资源的消耗。
7. 支持直接跟主流 BI 工具的集成,有丰富的接口。
8. 既支持超大历史数据的批量导入,也支持流数据的微批次导入。
03
Apache Druid ( incubating )简介
Druid 诞生于 2012 年,是一个开源分布式数据存储,其核心设计结合了分析型数据库、时序数据库、搜索系统的特点,可以处理较大数据集上的数据收集和分析任务。Druid 使用 Apache v2许可,目前是 Apache 基金会孵化项目。
Druid 架构
从 Druid 的部署架构上看,Druid 的进程根据角色主要分为以下三类:
Historical 负责加载 segment(已提交的不可变数据),接受历史数据查询
Middle Manager 负责数据摄入和提交 segment,单个 task 由单独 JVM负责。
Peon 负责完成单个 task,由 Middle Manager 管理和监控。
Broker 接受查询请求,确定数据来自于哪些 segment,分发 sub query 和merge 结果。
Coordinator 监控 Historical,负责给 Historical 分配 Segment 和监控负载。
Overlord 监控 Middle Manager,负责给 Middle Manager 分配任务和协助发布 Segment。
外部依赖
同时 Druid 有三个可替换的外部依赖:
Druid 使用 Deep storage 在 Druid 各节点间传输数据文件。
元数据存储了 Segment 的位置和 Task 的输出等元数据。
.
Druid 使用 Zookeeper (ZK) 来负责集群保证集群状态的一致性。
图 2 Druid 架构图
Data Source 和 Segment
Druid 中的数据存放在 Data Source 中,Data Source 概念上等同于 RDBMS中的表;Data Source 概念上会根据时间戳分为若干个 Chunk,同一时间区间产生的数据会归属到同一 Chunk;Chunk 内部由若干个 Segment 组成,每个 Segment 是一个物理上的数据文件,同时 Segment 是一个不可再分的存储单元。出于性能考虑,一个 Segment 文件的大小是建议在 500mb 左右。
图 3 Data Source 和 Segment
从 schema 看,因为 Druid 具有 OLAP 和 Time Series Database 的特性,列包含三种,分别为时间戳列,维度列和度量列。时间戳列具有 Segment 剪枝的作用,维度列和度量列在 Kylin 中有相似的概念。
图 4 Druid 中的 Schema
Druid 的优势
1. 具有实时摄取数据的能力,数据进入 Druid 即可被查询,延迟为毫秒级,这也是 Druid 的最大特点。
2. 支持数据明细查询和聚合查询。
3. 数据存储使用列式存储格式,避免不比较要的 IO。
4. 支持倒排索引,具有良好的过滤性能。
5. 支持冷热数据分离。
04
为什么美团开发 Kylin on Druid
美团点评自 2015 年上线使用 Apache Kylin 做为其离线 OLAP 平台核心组件,服务了几乎所有业务线,数据量和查询次数迅速增长,集群压力越来越大。在这个过程中,美团技术团队不断摸索,针对 Kylin 所暴露出的一些问题寻找更优方案,其中一个主要问题就是 Kylin 所依赖的存储:Apache HBase。
我们知道,目前的 Kylin 数据存储使用 HBase,存储 Cube 时将维度值和度量值转换成 HBase 的 KeyValue。因为 HBase 不支持二级索引,只有一个行键 (RowKey) 索引,Kylin 的维度值会按照固定的顺序拼接作为 RowKey 存储,那么排在 RowKey 前面的维度,就会获得比后面的维度更好的过滤性能。下面我们来看一个例子。
在测试环境使用两个几乎完全相同的的 Cube(Cube1 和 Cube2),它们的数据源相同,维度和度量也完全相同,两者的唯一差别在于 RowKey 中各个维度的顺序:Cube1 将过滤用到的字段( P_LINEORDER.LO_CUSTKEY )放到第一个位置,而 Cube2 则将该字段放到最后一个位置。
图 5 Cube1 的 RowKey 顺序
图 6 Cube2 的 RowKey 顺序
现在我们以相同的 SQL 在这两个 Cube 上进行查询,比较查询用时。
select S_SUPPKEY, C_CUSTKEY, sum(LO_EXTENDEDPRICE) as m1
from P_LINEORDER
left join SUPPLIER on P_LINEORDER.LO_SUPPKEY = SUPPLIER.S_SUPPKEY
left join CUSTOMER on P_LINEORDER.LO_CUSTKEY = CUSTOMER.C_CUSTKEY
WHERE (LO_ORDERKEY > 1799905 and LO_ORDERKEY < 1799915) or (LO_ORDERKEY > 1999905 and LO_ORDERKEY < 1999935)
GROUP BY S_SUPPKEY, C_CUSTKEY;
下图是它们查询时的耗时和扫描的数据量。
图 7 Cube1 查询日志
图 8 Cube2查询日志
从上面的测试结果看,对于相同的 SQL 语句,两者查询用时相差两百多倍。两者差别的原因主要在于对 Cube2 所在 HTable 进行了更大范围的扫描。
此外,Kylin 的多个度量值被存储到一个 Key 对应的 Value,当只查询单个度量时,不需要的度量也会被读取,消耗不必要的 IO。总之,HBase 的局限,加大了 Kylin 对用户,尤其是业务用户的使用难度。
如果使用纯列式的存储和多维度索引,将大大提升 Kylin 查询性能,同时减小Kylin 的使用难度。从上面的 Druid 的优点介绍我们得知 Druid 正好符合列式+多维度索引这样的特征。因此美团 Kylin 开发团队决定尝试使用 Druid 替换 HBase。
到这里,读者可能会问,为什么不直接使用 Druid 呢?美团的工程师也分享了他们的经验,主要有以下考虑:
此外从对 Druid 和 Kylin 的使用经验看,直接使用 Druid 作为 OLAP 引擎在管理和运维方面有一些挑战:
因此,把 Druid 优秀的列式存储特性,和 Kylin 在易用性、兼容性和完备性相结合,看上去将是一个不错 OLAP 解决方案。Druid 使用了列式存储和倒排索引,过滤性能优于 HBase,并且 Druid 天生具有 OLAP 的特性,也具有良好的二次聚合能力。于是,美团点评技术团队决定进行尝试,用 Druid 替换 HBase作为 Kylin 的存储。
05
Kylin on Druid 的设计介绍
Apache Kylin v1.5 引入了可插拔架构,将计算和存储等模块做了解耦,使得开发替代 HBase 的存储引擎变成可能。在这里我结合美团工程师康凯森的设计文档,简要介绍 Kylin on Druid 的主体设计思想(图9和图10来自于参考[1]的附件,文字说明部分来自于参考链接中的[1]和[3])。
构建Cube的流程
1. 生成 Cuboid 数据文件前,增加计算 Druid Segment 数量和更新 Druid Rule 的步骤。
2. 和原先的构建流程一样,通过 MapReduce 生成 Cuboid 文件。
3. 将原有的步骤“转换为HFile”替换为“转换为 Druid Segment ”,该步骤将构建好的 Cuboid 文件转化为 Druid 的列存格式,输出到 HDFS 指定路径(下图 1号线条)。
4. 发布 Druid Segment 的元数据到 Druid 元数据存储(下图 2号线条)。
5. Druid Coordinator 会周期性检查元数据存储的新 Segment(下图 3号线条),发现新的 Segment 会通知 Historical(下图 4号线条),Historical 收到通知会去 HDFS 拉取 Segment 数据文件到本地并且加载(下图 5号线条)。
6. 等到全部 Druid Segment 被加载完毕后,Cube 完成构建。
图 9 构建 Cube 流程
查询 Cube 的流程
1. 当 Kylin Query Server 查询数据时,经过 Calcite 解析后的 query plan Druid 的查询(scan 或者 groupby),并且将请求发送给 Druid Broker。
2. Druid Broker 会解析请求找到对应的 Historical 分发请求,并且对 Historical 返回的结果再做一次聚合。
3. Kylin Query Server 通过 HTTP 获取到 Druid Broker 返回的结果,会转化为 Tuple 再交由 Calcite 遍历处理。
图 10 查询 Cube 流程
Schema 映射
1. Kylin 的一个 Cube 会被映射到 Druid 的一个 Data Source
2. Kylin 的一个 Segment 会被映射到 Druid 的一到多个 Segment
3. Kylin 的分区时间列映射到 Druid 的时间戳列
4. Kylin 的 Cuboid 映射到 Druid 的单个维度列
5. Kylin 的维度列映射到 Druid 的维度列
6. Kylin 的度量列映射到 Druid 的度量列
06
总结
在这篇文章里,我们首先分析了Kylin 和 Druid 各自的特点和优势,以及Kylin on HBase 在一些情况下性能不佳的原因;然后基于症状寻找解决办法,得出使用 Druid 作为 Kylin 存储引擎的可行方案;接下来分析了美团开发的 Kylin on Druid 的架构和流程。
关于 Kylin on Druid 的使用方式和性能分析,以及 Kylin on Druid 目前有哪些尚待完善的部分,敬请期待下篇文章。
07
参考链接