企业级SSD,性能之后,还有什么?

2019-06-10 17:08:05 浏览数 (1)

现在的企业级NVMe SSD的性能真是让人震撼,有些SSD的性能动辄上百万IOPS,延迟20μs~1ms(视队列深度),冬瓜哥这辈子恐怕都用不了这么高的性能。冬瓜哥感觉,这个性能应对99%的应用已经完全够用了。剩下的1%就是一些极其特殊的场景,比如广泛存在于大型互联网后端的一些系统,以及少数特殊行业。

依靠强大的主控芯片,后端动辄16/32通道,挂多片Flash,利用极高的并行性实现高吞吐量,同时,得益于强大主控芯片的处理能力,以及NVMe协议在Host端的精简I/O路径,使得I/O时延大幅降低,进一步提升了吞吐量。

大家可能认为固态盘的单盘功耗肯定低于机械盘,大错特错。目前市场上的14TB机械盘随机读写时功耗在8W左右。而企业级NVMe SSD在随机读写时峰值功耗可能要达到10~25W左右,25W这个数值已经接近了x8通道PCIE插槽的额定功耗值。估计多数人都没有摸过高性能U.2接口NVMe SSD在加电之后的壳温,可以摸一下,虽然赶不上CPU壳温,但是基本上烫人程度已经达到你不会忍受3秒钟时间。随着固态盘容量、性能越来越高,可能很多人都不曾想到的是,厂商可能届时不得不为了控制功耗而故意限制性能,这就比较尴尬了。

看来互联网后端是不是应该做个性能预期了,短期内不要再期望单块NVMe SSD的性能更高了,100万IOPS@1ms时延,基本上封顶,再高的话功耗就会是个很大问题了。

Memblaze已经重视到该问题,并在最近发布的PBlaze5 510/516和910/916系列中全面实现了深度节能降耗技术。

方案采用同样配置的超微服务器,每个服务器配9片NVMe SSD,使用fio做顺序写(128KB)的横向对比测试,测试过程中采集带宽及功耗信息,并算出两者比值作为能源效率的结果。

对于传统企业来讲,功耗可能也不是什么大问题,因为这些企业恐怕多数连NVMe盘都还没开始用,多用的SAS/SATA SSD,而且还不是满配,多固态和机械混合使用。再就是由于用量比较少,功耗并不是最重要的考量因素。相反,诸如高可靠性(HA)、稳定性,是传统企业更加注重的特性,因为传统企业并无法像互联网后端那样有大量的后端开发和维护者,可以用廉价方案撑起高并发低时延高可用架构。传统企业只能仰仗厂商的封闭系统为其提供同样级别的可靠性。

对于传统企业,相当比例的数据是存放在外置存储系统中的,包括传统的SAN存储以及新兴的开放平台分布式存储系统,以及全闪存存储系统。在这些存储系统中,单块SSD的性能其实已经起不到决定性作用,这些系统中对硬盘的管理,前端的缓存,I/O路径的优化,才是决定性作用,也就是说,你用性能高20%的SSD插到系统中,整体性能的提升可能远不到20%。而且这类系统更倾向于采用低成本、性能适中、稳定性强的产品,靠堆积多块SSD来统一管理,这也是外置存储系统存在的根本根基,如果一块盘就能满足所有需求,外置存储系统就可以退出舞台了。而传统SAN存储系统的一个特点就是双控/多控冗余。该模式需要两个甚至多个控制器共同访问同一块SSD,而这个需求只有SAS SSD(原生双端口)可以做到,当然,业界目前已经有NVMe SSD产品也可以做到双端口。

上图所示为Memblaze今年推出的Pblaze5系列NVMe SSD的双端口架构示意图。PBlaze5 SSD前端具有4个PICE通道,这也是企业级NVMe SSD标配,但是PBlaze5可以将这4个通道逻辑上分割为2个x2通道的PCIE端口,分别与一个host端连接。从而可以形成Active-Active、Active-Hot_Standby、Active_Cold_Standby等多种架构,不但可以满足传统SAN存储双控冗余的要求,也可以满足一些开放式模块化服务器资源池化架构下的特殊要求。

在单颗Core™ i7-8700KCPU、DDR4 2400 16G内存的环境下,PBlaze5 910 系列3.84TB U.2 NVMe SSD同时连接到两台机器,每台机器上发起4K随机读I/O请求,经实测,每台机器的IOPS达到40万左右,这样,一个PBlaze5 x4通道可以达到80万的IOPS。一旦某个链路出现问题,丝毫不影响另外的x2链路。

综上,企业级NVMe SSD,除了性能,冬瓜哥觉得,可靠性稳定性当然是第一位的,但是功耗、双端口这两个特性,恐怕是企业级NVMe SSD后续发展中必须考虑的特性了。

0 人点赞