秒换存储引擎,又多了一种架构方案? | 数据库系列

2022-10-08 13:43:55 浏览数 (1)

在做业务架构的过程中,你是否遇到过类似的痛点?

(1)数据量太大,容量复杂性上移到业务层;

(2)并发量太大,性能复杂性上移到业务层;

(3)前台与后台存储异构,满足不同查询需求;

(4)线上与线下存储异构,满足大数据需求;

(5)存储系统迁移成本高,不敢轻易做重构;

(6)...

职业生涯十五年,基本都在使用MySQL做线上业务的存储。最近这几年,遇到的问题慢慢多起来,严重影响了研发效率。TiDB近年甚火,于是最近做了一些调研,与大家分享。

如一贯风格,更多的聊:TiDB究竟解决什么问题,以及为什么这么设计,体现什么架构思想

问题的引出,MySQL体系结构存在什么问题?

上面这幅MySQL体系结构图,相信很多人都见过:

(1)上游:MySQL客户端;

(2)下游:MySQL服务端,又包含连接池,语法分析,语义分析,查询优化,缓冲池,存储引擎,物理存储,管理功能… 等诸多模块;

画外音:太复杂了,字都看不清了。

对MySQL体系结构做了一个简化:

如上图所示:

(1)上游:MySQL客户端;

(2)中间:通过MySQL协议通讯;

(3)下游:MySQL服务端;

画外音:对不起,忍一下我画的丑图。

核心的服务端,又主要分为两层:

一层,计算层

一层,存储层

MySQL如此这般,存在什么天然的问题?

【1】计算与存储天然耦合。

计算层和存储层,既然都在一个MySQL进程里,所有的CPU资源,内存资源都是共享的,势必存在资源争抢的耦合。

除了天生的不足,在数据量大,并发量大的典型互联网业务场景里,对于MySQL的使用,还有哪些痛点呢?

我们都知道,当读写量增加的时候,通常会对MySQL做主从分组集群

如上图所示:主从同步,读写分离,通过线性增加从库来线性扩展系统的读性能。

画外音:大部分业务,读容易成为主要矛盾。

我们也知道,当存储容量增加的时候,通常会对MySQL做水平切分集群

如上图所示:用一个键值进行数据分片,以实现更大的存储容量。

所以,实际上线上的MySQL集群是这样的:

(1)既有水平切分,多个分片;

(2)又有主从分组,每个分片有一个主从集群;

而分片和分组,都是调用方微服务需要关注的,这就引出了下一个痛点:

【2】调用方需要关注存储细节,底层存储的复杂性转移到了上层应用。

另外,除了在线应用,绝大部分互联网公司都有各类大数据处理的需求

(1)离线分析:例如,经营日报;

(2)在线分析:例如,分析师取数;

(3)实时处理:例如,实时报表;

为了满足这类需求,又需要将MySQL中的数据同步到各类大数据体系的集群中

用一系列大数据的技术体系,去解决各类大数据处理的需求。

这就引出了另一个痛点:

【3】技术侧需要关注数据同步,数据一致性,大数据集群的复杂性。

当然,很多技术管理者也会调研各类替代产品,以解决上述1-3的问题,例如NoSQL的代表之一MongoDB,无奈【4】升级迁移需要大量的系统改造,综合评估之后,往往不得不放弃迁移方案,继续忍受MySQL带来的各种问题。

历史的痛点,往往是创新的机会。

TiDB,它来了!

TiDB是如何设计,以解决:

【1】计算与存储耦合;

【2】存储底层的复杂性转移;

【3】大数据体系复杂性转移;

【4】系统迁移成本高;

等问题的呢?

首先,TiDB在诞生之初,就确定了:

(1)复用MySQL协议

(2)计算与存储分离

的设计大方向。

如上图所示:

(1)上游:不需要做任何改动,可以使用MySQL的各类driver,访问TiDB;

(2)中间:通过MySQL协议通讯;

(3)下游:将计算层与存储层拆分到两个进程里,解除资源争抢的耦合,而这两层的通讯则使用内部协议,对调用方透明;

如此一来,难题【1】和【4】就得到了解决。

如何解决读写量扩展,存储量扩展等“底层复杂性转移”等问题呢?

对于计算层,实现连接池,语法分析,语义分析,查询优化等模块,做到无状态,并通过集群的方式扩展,这就是TiDB体系结构中的“计算引擎tidb-server”集群。对于调用方,接入层TiDB集群就是入口,其背后的复杂性对上游不可见。上图中,简记为【接入层(计算层)】

画外音:微服务架构中,站点应用和微服务层也必须无状态化,以实现轻易的集群扩展,也是一个道理。

对于存储层,实现一致性算法,分布式事务,MVCC并发控制,算子下推等模块,实现原子KV存储,也能通过集群的方式自动扩展,这就是TiDB体系结构中的“存储引擎TiKV-server” 集群。上图中,简记为【存储层】

画外音:这与GFS中的chunk-server很像,有了它,不再需要手动水平切分扩容了。

除此之外,需要一个拥有全局视野,实现元数据存储,ID分配(key-id,事务ID),时间戳生成,心跳检测,集群信息收集等模块的master,这就是TiDB体系结构中的“PD-server”集群。上图中,简记为【管理层】

画外音:这与GFS中的master-server很像。

如此一来,难题【2】存储底层读写容量与存储容量的复杂性转移问题,也得到了解决。

大数据体系的复杂性,TiDB也将其屏蔽在了内部:

(1)扩展接入层,让大数据有独立的接入,如上图中的TiSpark;

(2)扩展存储层,匹配以适合大数据的存储,如上图中的TiFlash;

画外音:TiKV和TiFlash分别独立存储,且进行异步数据同步,彼此解耦。

(3)扩展管理层,同时管理大数据的部分;

如此一来,难题【3】大数据数据同步,数据一致性,大数据集群的复杂性的问题,也得到了解决。

TiDB的架构,无处不体现着这样的设计原则:使用者简单易用,复杂麻烦的地方,都屏蔽到TiDB的内部。

回到开篇,如果你也正经历着类似的痛点?

(1)数据量太大,容量复杂性上移到业务层;

(2)并发量太大,性能复杂性上移到业务层;

(3)前台与后台存储异构

(4)线上与线下存储异构

(5)存储系统迁移成本高

(6)...

不妨,试一试TiDB。

最后一个问题,业务架构如何快速迁移至TiDB呢?

从MySQL到TiDB的迁移过程也非常平滑

(1)第一步,保持服务读写原有MySQL集群;

(2)第二步,将原有MySQL集群中的数据,同步到TiDB;

画外音:TiDB的工具集很全,本文没有扩展介绍。

(3)第三步,服务流量切换至TiDB;

画外音:由于保持MySQL协议,业务代码几乎不用修改,这是TiDB能够成功很重要的一个原因。

今天聊了聊TiDB体系结构的宏观设计原则,希望大家有收获。如果对TiDB的内核感兴趣,未来可以和大家聊聊它的实现细节

画外音:大家感兴趣吗?

源码https://github.com/pingcap/tidb

末了,圈内好基友,TiDB的作者黄东旭搞了一个TiDB黑客马拉松活动,帮他站个台。此次TiDB黑客马拉松活动,在五城(北京,上海,广州,成都,新加坡)设立了线下会场。当然,也可以在线参加,有灵感出创意拿大奖,奖金35W,非常有诚意。

活动分为两大赛道:

(1)应用方向:使用TiDB构建游戏,电商,金融,公益等各类应用,更多应用场景,等你来发掘;

(2)内核方向:为TiDB内核及上下游工具提升性能,稳定性,易用性,甚至添加新功能;

画外音:内核方向更难,但读源码,看文档收获肯定不小。

每个赛道又分为几阶段:

今天 - 10.17 :报名,找idea,找队友组队,提交初赛RFC(此阶段不需要编码

10.17 - 10.19 :初赛评选,每个赛道前30组进入决赛

10.22 - 10.23 :决赛,coding(代码必须开源,且遵循 Apache2.0开源许可

10.23 :决赛答辩,评奖颁奖

抛开丰厚的奖金不谈,一次黑客马拉松,能让你结交更多的朋友,了解TiDB的源码与应用,和TiDB的作者做深入的技术交流,是一个不可多得的学习机会

黑客马拉松,是工程师生涯非常值得尝试的一段体验。有时候,不逼自己一把,你永远也不会知道,自己有多大的潜力。

找举办方要了一个参赛快捷通道,扫码添加小助手(或者直接加微信:billmay),进入活动群,认识更多小伙伴,同时领取TiDB技术资料。

扫码添加小助手,回复【马拉松】,进入活动群

阅读原文,了解更多,希望大家有收获。

0 人点赞