首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往
  • 您找到你想要的搜索结果了吗?
    是的
    没有找到

    POLARDB IMCI 白皮书 云原生HTAP 数据库系统 一 主体架构与接口

    3 概述 在本节中,我们首先概述PolarDB-IMCI的体系结构,接着总结驱动前面设计目标的设计理念,并简要描述用户界面。 3.1 PolarDB-IMCI的体系结构 图2显示了PolarDB-IMCI的体系结构,遵循将计算和存储架构分离的关键设计原则。存储层是一个具有高可用性和可靠性的用户空间分布式文件系统PolarFS [8]。计算层包含多个计算节点,包括用于读写请求的主节点(RW节点)、用于只读请求的多个节点(RO节点)以及多个无状态代理节点用于负载均衡。有了这些,PolarDB-IMCI可以提供高资源弹性性(§7)。此外,存储和计算层中的所有节点都通过高速RDMA网络连接以实现数据访问的低延迟。 为加快分析查询速度,PolarDB-IMCI支持在RO节点的行存储上建立内存列索引(§4)。列索引按插入顺序存储数据,并执行位于原位置之外的写操作以实现高效更新。插入顺序意味着列索引中的行可以通过其行ID(RID)而不是主键(PK)快速定位。为支持基于PK的点查找,PolarDB-IMCI实现了一个RID定位器(即两层LSM树)用于PK-RID映射。 PolarDB-IMCI使用一个异步复制框架(§5)进行RO和RW之间的同步。即,RO节点的更新不包含在RW的事务提交路径中,以避免对RW节点的影响。为增强RO节点上的数据新鲜度,PolarDB-IMCI在日志应用方面使用了两个优化,预提交式日志传送和无冲突并行日志重播算法。RO节点通过行存储的REDO日志进行同步,这比其他稻草人方法(例如使用Binlog)对OLTP造成的干扰要小很多。需要注意的是,将物理日志应用到列索引中并不是微不足道的,因为行存储和列索引的数据格式是异构的。 每个RO节点中都使用两个相互共生的执行引擎(§6):PolarDB的常规基于行的执行引擎来处理OLTP查询,以及一个新的基于列的批处理模式执行引擎用于高效运行分析查询。批处理模式执行引擎借鉴了列式数据库处理分析查询的技术,包括管道执行模型、并行运算符和矢量化表达式评估框架。常规基于行的执行引擎通过增强优化可进行列引擎不兼容或点查询。PolarDB-IMCI的优化器自动为两个执行引擎生成和协调计划,此过程对使用者透明。 3.2 设计理念 我们以下面突出PolarDB-IMCI的设计理念,这也适用于其他云本地HTAP数据库。 存储计算分离。同时作为云本地数据库的关键设计原则,存储计算分离架构在没有数据移动的情况下实现了适应性计算资源配置,这已经成为主流架构的替代方案。PolarDB-IMCI采取此决策以自然地达成我们的设计目标G#5(高资源弹性)。 单个RW节点和多个RO节点。实践中,单写架构已经通过[52] 确认拥有卓越的写性能并显着降低系统复杂性。我们观察到单个RW节点足以为95%的客户提供服务。此外,所有RO节点都具有与RW节点同步的一致数据视图。大型OLAP查询被路由到RO节点上以实现有效的资源隔离,RO节点可以快速扩展以处理激增的OLAP查询,这符合设计目标G#3(对OLTP的最小干扰)和G#5(资源弹性)。 RO节点内的混合执行和存储引擎。从OLAP社区的经验中得出,列式数据布局和矢量化的批处理执行对于OLAP查询来说是显著的优化。然而,对我们而言,直接使用现有的列式系统(例如ClickHouse)作为RO节点是不明智的决定。有两个原因支持这个论点。首先,在创建表方面,实现RW节点和RO节点之间的全兼容是耗时的。在云服务环境中,即使存在微小的不兼容性,也会在巨大的客户量下被显著放大并压垮开发人员。其次,纯基于列的RO节点对于被归类为OLTP工作量的点查找查询仍然效率低下。因此,我们开始设计一个扩展PolarDB原始执行引擎的新基于列的执行引擎,以满足目标G#1(透明度)。列式执行引擎的设计旨在满足G#2(先进的OLAP性能)。而基于行的执行引擎处理不兼容和点查询,前者无法处理。RO节点具有基于行和基于列的执行和存储引擎。 双格式RO节点通过物理REDO日志进行同步。在共享存储架构上,新RO节点可以快速启动以处理激增的只读查询,以满足设计目标G#5,并可以保持数据新鲜度(即G#4)通过不断应用RW节点的REDO日志。然而,将异构存储与原始物理日志(即REDO日志)同步是具有挑战性的,因为日志与底层数据结构(例如页面)密切相关。因此,稻草人方法是使RW节点记录用于列存储的附加逻辑日志(例如Binlog)。缺点是,当提交事务时触发额外的fsyncs,从而对OLTP造成非常大的性能干扰。因此,我们专门设计了一种新的同步方法,通过重用REDO并使RO节点上的逻辑操作由物理日志组成。之所以可行是因为PolarDB-IMCI在RO节点上维护基于行的缓冲池和列索引。逻辑操作可以通过在行缓冲池上的应用进程中获得。我们的评估显示,重用REDO日志的开销明显低于使用Binlog。

    02

    MYSQL POLARDB 学习系列之 拆解 POLARDB 7 (终结) 失败恢复与可靠性

    学习POLARDB 已经有3-4个月的时间了,当然大部分还是在理论方面,实际上POLARDB 在实际的操作中,有一部分是我还没有深入,另一部分是POLARDB 的 SERIVCE guy 的服务方式有些太主观,当然有客观的原因,但是作为一个数据库,想拥有FANS ,各种在内部进行展示的系统性能或一些小心思的开关,还是会吸引到 死忠粉的,建议不要冷冰冰的说,这些都是内部XX, 或者说你看 monitor web page 来打发一些想“进步” 的同学,终究我们也是看 MYSQL 的文档,并在里面找 有意思东西的一群人。另外一些服务的同学,你们这样做,真心是在浪费 技术同学的努力创造POLARDB 的好形象。

    03

    POLARDB IMCI 白皮书 云原生HTAP 数据库系统 一 数据压缩和打包处理与数据更新

    当部分package达到最大容量后,它会被转换为big package并压缩到磁盘上以减少空间消耗。压缩过程采用写时复制模式以避免访问冲突。也就是说,生成一个新package来保存压缩数据,而不对部分package进行任何更改。PolarDB-IMCI在压缩后更新元数据,将部分打包替换为新的package(即以原子方式更新指向新打包的指针),对于不同的数据类型,列索引采用不同的压缩算法。数值列采用参考帧、delta编码和位压缩的组合,而字符串列使用字典压缩。此外,由于打包是不可变的,当活动事务大于所有VID时,即没有活动事务引用插入VID映射时,该打包的插入VID映射是无用的。在这种情况下,PolarDB-IMCI会删除行组中的插入VID映射以减少内存占用。

    02

    探索 | PolarDB-X:实现高效灵活的分区管理

    用户在使用分布式数据库时,最想要的是既能将计算压力均摊到不同的计算节点(CN),又能将数据尽量散列在不同的存储节点(DN),让系统的存储压力均摊到不同的DN。对于将计算压力均摊到不同的CN节点,业界的方案一般比较统一,通过负载均衡调度,将业务的请求均匀地调度到不同的CN节点;对于如何将数据打散到DN节点,不同的数据库厂商有不同策略,主要是两种流派:按拆分键Hash分区和按拆分键Range分区,DN节点和分片之间的对应关系是由数据库存储调度器来处理的,一般只要数据能均匀打散到不同的分区,那么DN节点之间的数据基本就是均匀的。如下图所示,左边是表A按照列PK做Hash分区的方式创建4个分区,右边是表A按照列PK的值做Range分区的方式也创建4个分区:

    00
    领券