ToplingDB fork 自 RocksDB,自然而然地兼容了 RocksDB 的生态,但是,兼容 RocksDB 有优点,就自然有缺点,例如 RocksDB 的 L0 Flush 在我们看来就完全是多余的,但是,要去掉 L0 Flush,并且在 RocksDB 的巨大的 Code Base 上动刀,难度杠杠的,不过,至少,我们的思路是清晰的:
副本数多了,最重要的不是浪费内存和磁盘空间(因为 L0 的数据总量并不大),而是浪费 CPU 和内存带宽,最最严重的是浪费 IO 带宽,并且因为 Flush 是在极短的时间内将内存中的数据写到 SST 文件中,会造成一个很大的 IO 尖刺。
然而我们仔细思考,L0 Flush 是可以省略掉的,但是引擎的 Write 流程和数据的组织方式需要进行大幅度的调整:
这样可以将副本减少到两个(WriteBatch 和 WAL,MemTab 中只是索引),注意,这里,最重要是节省了 CPU 和内存带宽的消耗,而不是内存空间!
并且,即便 DB 压力再提高 1 倍,也不会象 Flush 到 SST 那样产生 IO 带宽尖刺,因为数据写入 WAL 的速度是相对比较均匀的。
省略 L0 Flush 之后,就只有 Compact,最初的 Compact 就是 MemTab+WAL 的组合体(简称 MemTab 吧) 与 L1 的 Compact。以这样的方式,最多就只需要两个 MemTab:
MemTab + L1
Compact 的 MemTab,此 MemTab 只读,不可写具体策略上,一旦可写的 MemTab2 达到尺寸限制(应该是两个限制并且很大,例如 10G 和 20G,对应 rocksdb 的 level0_slowdown_writes_trigger
和 level0_stop_writes_trigger
),就需要产生新的 MemTab3,并执行 MemTab2 + L1
Compact,如果此时上一个 MemTab1 + L1
仍在执行中,写入就要主动卡顿甚至暂停一下了。所以:
MemTab + L1
Compact 最好是多线程执行,并且每个线程的数据量大致均等,也不做任何压缩L1 + L2
Compact 尽可能并发,L1 的 SST 文件数目要尽量多一点,大小要尽量均匀一点这两个需求加到一起,就又需要 MemTab 有 GetRandomKeys 功能,以便在 MemTab + L1
Compact 中可以将输入和输出数据都分得更细更均匀。
如果我们有能力进行更大的改造,WriteBatch 中的那份副本也可以省略,就是写 WriteBatch 时将数据直接写到 WAL 中,但这样在填充 WriteBatch 期间,就只能单线程运行,而这是我们不能接受的,所以,省略 WriteBatch 的副本,需要基于 thread local WAL 来实现。
即便如此,SeqNum 也是个问题,在这样的 WriteBatch 中,所有 KV 的 seqnum 必须是相同的(rocksdb 的 seq_per_batch
),并且,在 commit 之前,这个 WriteBatch 中的数据必须是对外不可见的。