在线联机事务处理(OLTP)和在线联机分析处理(OLAP)这两类数据处理分析场景,是公司日常工作中不可不说的内容,尤其是在大数据时代的当下,说它们决定了公司的成败也不为过,因此诞生了各类成熟且高效地分布式计算、存储系统,如计算侧的MapReduce、Spark、Flink、Trino等,存储侧的Oracle、RocksDB、Clickhouse等。
但正是各类计算和存储系统的遍地开花,也导致了在实际中很难将不同的系统归一、数据统一,导致各类负担,尤其是流系统、批系统的天然隔阂,因此近年来大家都是力求找到或开发出一个系统,能够同时很好应付日常工作中的绝大部分OLTP/OLAP的业务就行了,就像Snowflake
那样,实现一个相对完善的HTAP系统
。
但要想做好一个HTAP系统,不可避免地需要要结合计算、存储这两个层面的特性来进行设计,虽然我们在实际的工作中经常强调要存算分离,保证集群系统能够至少满足BASE(Basically Available、Soft States、Eventually Consistent原则,也可以说是AP原则吧)原则
,但这仅仅是强调使用上的注意事项,而要实现这样的系统,却不能分开计算而谈存储,反之亦然。
人都是“贪婪”的,一旦有了开发了一个工具,不管是使用者还是开发者,都希望随着技术的进步,这个工具能够变得更好,比如说时间
,为别人/自己节省了多少时间,实时性达到秒级等,说到这里,这篇博客也就随着这篇论文Real-Time LSM-Trees for HTAP Workloads来看看学习和思考前人的成果,以帮助解决当下或未来的问题。
很多文章都介绍这个概念了,大家可以自行查找一下,当然也有不少系统基于此原理实现了自己的存储,如Google LevelDB、Clickhouse、Flink Table Store等
。
这个概念也有不少的大佬分析了其理论与实践,例如Redis
中的应用,还有Real-Time LSM-Trees for HTAP Workloads论文中的提到的LASER
系统。
实际上对应了数据库中的INSERT、DELETE、UPDATE
操作,更细节知识自行查阅吧。
可以认为就是持久化到磁盘上的数据文件,文件中的数据行都是按排序KEY
有序的。
为了兼并行存和列存的优势,LASER在不同的存储等级(LEVEL)上定义不了同列组规则,一个列组就是一个数据行中的部分或全部字段,对应一个单独的存储文件,例如在下面的图中显示的,在Level 0层
,文件是按行存储的,文件中的一行就对应了一条完整的Record
;而在Leve 1
层,会存储两个文件,分别保存(A, B)列
以及(C, D)列
;在Level 3层
,一个列,就是一个单独的文件。(这里说一个文件
并不准确,实际上应该是一类文件
,毕竟文件一般会按大小被切分成多个)
图-1 列组的定义与组织
下图展示了LASER中的基本存储流程,图中也展示了一些配套的索引技术,如BLOOM FILTERS
用于加速文件的查找、SkipList
查找新记录的待插入位置。
一条新数据记录(Record)完整地经历CDC过程的简单描述如下:
排序Key、唯一Key
,在内存中的SKIPLIST以及磁盘中的LEVEL文件(这里指SST文件)查找,看是否存在相同的数据记录。如果存在则更新这条RECORD的操作类型为UPDATE
,否则为INSERT
。跳表
可以很快地确认这条新的数据记录的插入位置,因此就将其插入到内存。MUTABLE
的数据刷新到磁盘,但在Flush之前,需要将新记录插入的内存数据表
标记为IMMUTABLE
,以保证数据写出时,不会发生 变更。Level 0只定义了一个文件
,因此会首先尝试将新的RECORD,按行格式,插入到此文件中。Level 0
的文件,转存到Level 1
。文件由Level 0插入到Level 1的过程,实际上是一个归并排序的过程
,需要保证文件的有序性,因此这里可以采用二分查找
来确认需要合并Level 1中的哪些文件
,例如Level 0文件的SORT KEY值范围为[22, 66]
,那么需要与Level 1中的21-50
和51-88
的两个SST文件进行合并。从
图-1
可以知道每一个Level的列组划分是不同的,而Level 0中的文件中的一行可能包含了所有列值(如A、B、C、D四个列
),而在Level 1中数据文件只有两类(A, B)和(C, D)
,因此需要将0层的文件
中的数据行按列拆分成两个文件,分别以前两个列为一行和后两个列为一行,再分别进行合并,最终生成两类文件。
一般地,SQL中的UPDATE语句会更新部分列的历史值,因此LASER也需要有能力支持。
Level 0:数据文件行式存储,因此文件中的一行,包含了全部列,A、B、C、D。
Level 1: 两个文件,即两人上Column Group,左边文件包含A、B列;右边文件包含C、D列
注意到每一行记录之前有一个特殊的整数,例如106: a6, b6, c6, d6
中的106,表示的是数据记录排序键对应的值,可以看到在每一个文件中,所有的数据记录都是按此值有序。
插入一条新记录:
99: a9, b9, c9, d9
更新一条旧记录:107: -, -, c9, d9
,其中-
表示不更新,即保留A, B列的原有值
注意到,这里插入新记录后,导致LEVEL 0
超过存储阈值,因此会触发L0的文件下沉到L1,因此下面的图展示的是合并后的结果。
在合并L0和L1的过程中,可以看到,原本在L0的行文件中的记录106: a6, b6, c6, d6
,下沉到L1后,被纵向拆分到了两个Column Group
文件中;而新的更新记录107: -, -, c9, d9
最终只会在CG:<C, D>
有值,而不会添加记录107: -, -到CG:<A, B>
中,节约了存储空间。
插入一条新记录:
50: a0, b0, c0, d0
更新一条旧记录:108: a1, b1, -, -
,其中-
表示不更新,即保留C, D列的原有值
可以看到由于新插入的数据后,被首先Flush到Level 0,但Level 0的数据大小没有达到阈值,因此不会发生Compaction,新的数据就以行格式保留在L0中。
ColumnMergingIterators:用于合并ColumnGroup,一个Iterator实例只会
作用于同一个Level
,因此不会真正的合并新旧数据,而是将要所有要检索的列(这里是A、B、C、D列)拼接
在一起。
LevelMergingIterators:用于合并来自不同Level的数据
,这些数据经过ColumnMergingIterators
后返回了一个"临时表
",包含了所有要检索的列,同时会进行新、旧列值的覆盖
。
查询流程简述如下:
SELECT * FROM tbl WHERE sort_key >= 50 and sort_key <= 108
,产生要返回的结果列的投影信息,即返回A、B、C、D。sort_key
的取值范围是[50, 108],在3个Level中都存在数据,因此需要遍历每一层的数据文件。ColumnMergingIterators
实例,遍历满足条件的数据文件,返回的结果是一个临时表
且它们的Layout相同,均为A、B、C、D
,例如对于sort_key = 107
的数据记录,通过列拼接,最终得到在临时表中的对应行107: -, -, c9, d9
。LevelMergingIterators
实例,合并每一层的返回结果,同时进行数据记录的更新/删除动作,例如对于sort_key = 107
的数据记录,发现它的旧值为107: a7, b7, c7, d7
,新值为107: -, -, c9, d9
,因此通过覆盖后的最终结果为107: a7, b7, c9, d9
。通过后台的Compaction线程,可以并行地在不同的
ColumnGroup
上进行Compaction,因为在数据下沉
的过程中,越往向,列组越小,并且互相不影响。
如下图所示,当前一共有两个Compaction任务在执行,第一个任务是合并L1和L2中的CG:<A, B>
;第二个任务是合并L2和L3中的CG: <C>
。
但这里有一个潜在的问题:为什么选择L1中的<A, B>
下沉,以及L2中的<C>
下沉?
简单来说,LASER为每一个Level配置了不同的Quota
,例如为L1配置了上限记录数为2
,而当前L1中一共存在3条记录,因此需要合并L1和L2;同时注意到CG: <A, B>
的占比最多,因此优先选择此CG下沉,故就对应了任务1
,同理生成任务2
。
最终,经过部分列上的下沉,可以避免对它列的影响,在一定程度上能够减缓由于数据下沉,导致在这些列上的检索时间变长的问题
,当然也可以结合一些冷热策略
可以更精细地控制正常过程。
如下图所示,在同时进行INSERT、UPDATE、SELECT操作时,LASER的整体性能是最好的,尤其是在设置了ColumnGroup的大小为6(6列)、15(15列)的场景下
,而次强的则是HTAP-simple和rocksdb-col(它们完全是基于内存的)
。
如下图所示,当仅执行INSERT
操作时,LASER表现最好,尤其是设置CG的大小为2和3时
,而HTAP-simple和rocksdb
将之。
𝑄1: INSERT INTO R VALUES (𝑎0, 𝑎1, …, 𝑎𝑐 )
𝑄2: SELECT 𝑎1, 𝑎2, …, 𝑎𝑘 FROM R WHERE 𝑎0 = 𝑣
𝑄3: UPDATE R SET 𝑎1 = 𝑣1, …, 𝑎𝑘 = 𝑣𝑘 WHERE 𝑎0 = 𝑣
𝑄4: SELECT 𝑎1 + 𝑎2 + … + 𝑎𝑘 FROM R WHERE 𝑎0 ∈ [𝑣𝑠 , 𝑣𝑒 )
𝑄5: SELECT 𝑀𝐴𝑋 (𝑎1), …, 𝑀𝐴𝑋 (𝑎𝑘) FROM RWHERE𝑎0 ∈ [𝑣𝑠 , 𝑣𝑒 )
如下图所示,分别执行不同Query时的延迟统计图,从中可以看到当前执行Q1、Q2、Q3时,LASER能够达到其它优势引擎的最好性能
;而执行Q4的算术运算时,Hyper
表现最好,比LASER快5倍
(而MonetDB比LASER慢20倍
);而执行Q5的聚合运算时,MonetDB和Hyper
比LASER快5倍
,这是由于Hyper和Monet存储的数据记录都是按列连续的
,因此不需要像LASER那样需要先合并数据。
因此整体上看,在高负载,和能用场景下,LASER的表是所有列式引擎、行式引擎中综合表现最好的,也更加活动地通过CG的大小来适配不再的场景。
下面提到的这些问题,都是论文中有提到的,同时也给出了估算公式,但是着实需要细致分析每一个算法才能更好地理解架构设计的精妙,这里就不展开分析了,也怕功力不够,引发解读错误,那就栽了!!!
不难想象,当我们更新更新或插入数据时,至少需要读取索引数据、旧的的数据记录,以确定当前数据行的操作类型;当发生数据合并(Compaction过程)时,需要将新旧数据写出到一个新的数据文件,同时保证旧的数据文件依然在此期间可以为查询作业提供服务,因此这么大的倍数与写入或更新的数据模型有关。
为了缓解此问题,可以基于ColumnGroup机制,同时为每一个Level制定不同的数据下沉策略。
仅仅是等值查询,最坏情况下,需要在内存遍历,同时需要检查所有Level中的数据范围,以确定数据是否存在。
比点查更坏,最坏情况下,要查询的数据在每一个Level中都存在,因此遍历记录每一层的数据文件的信息,来确定要读取的数据。
在点查放大问题的基础之上,需要将新数据写出到Level 0,同时很可能会引发Compcation过程。
Real-Time LSM-Trees for HTAP Workloads介绍了一个支持实现写入的、基于LSM的、支持HTAP场景的存储系统,LASER
。论文提出了ColumnGroup存储规范,能在兼并行存、列存的优点,以相对最好的性能同时支持OLTP和OLAP事务,为打造流批一体计算&存储系统提供了借鉴,非学值得我们细细口味。