前两天看到西瓜哥发布的一篇文章名为《SERVER SAN一定比阵列便宜吗?请看5年TCO分析》,其中分析了几家公司产品在数据归档方面5年内的TCO分析。我非常赞同西瓜哥的看法,这种场景的未来一定是Sserver SAN的,这个结论应该不用怀疑。
对于长期归档,应该用10年的跨度来对比比较合适。因为一般阵列的生命周期是5-7年,生命周期结束要更换到新的系统,必须要进行数据迁移,有一笔迁移的费用。而Server SAN理论上可以滚动更换服务器,平滑完成硬件的升级,而且,如果数据量暴涨,Scale-out方式也可以保持架构的不变。这些都是SDS的独特优势。
下面举例说明:
例如:医院的PACS医疗影像系统,当前使用的是昂贵的FC高端存储来存放热数据,以便于快速查询资料,当过了一个月或是两个月之后这些数据将会变成温数据,然后将温数据迁移至相对便宜的IPSAN用于长期保存。
(国家卫计委有规定,医院影像资料必须长期保存,以便日后查询。)
这种数据存放有一个弊端,就是假设在医疗方面发生了重大突破or重大发现,需要查阅之前的数据,当从封存已久的IPSAN中往回导出查询的时候也是很麻烦的,因为不是同一设备。同时也要面临介质失效的问题,更换磁盘也很麻烦。刚才说的都是数据两级存放,假设如下图所说,数据三级存放,最后一级是带库or光盘。大家都知道介质是有时间寿命的,当介质寿命一到,那么这些数据就会丢失。另外就是数据的读取麻烦,假设恰好用的那家光盘or带库倒闭,那么就会陷于被某个厂商所绑定,但是现在还好,因为很多读取设备对大部分带库or光盘兼容。或者是想要那个光盘里面的部分数据,你需要重新把数据全部读取出来。
上面的例子,只是简单说了下医疗行业目前数据存放的流程,我们暂且称之为“单次生命周期”因为只能存放,如果数据往回导是很麻烦的。
而SDS我们称之为“多次生命周期”,因为既可以存放,又便于读取。
假设采用Server SAN架构,把数据分为热数据、温数据、冷数据三类。当最终数据变为冷数据时,我们把冷数据放置到低功耗的服务器上,如atom架构的X86机器,以便于节省能耗。当有重大突破or重大发现,需要调用之前的资料进行查看时,就可以把数据迁移回来,因为都是同一集群、同一网段,迁移起来会更加的方便。当某个磁盘、机器介质失效时,可以更换新的磁盘、机器加入集群,数据也会平滑的迁移,做到应用无感知。
其实不只是医疗行业,政府某些行业也是一样,一些资料必须长期保存。所以,采用软件定义存储(或Server SAN)的好处不仅仅如之前所说,低成本、按需使用等,更重要的是数据长期保存的价值排浪。
相关资料:
https://mp.weixin.qq.com/s?__biz=MjM5NDQyNDQ0Mw==&mid=2652388708&idx=1&sn=8716a23bdab8fb32655054ed7102e2e3&chksm=bd6b6e708a1ce766b8d6e34539c554319e8c2c0b4fb90eaf4043e62b04bdf9366668f5f11916&mpshare=1&scene=1&srcid=020411ETqeu61Wo8AcuZ6TOJ&key=6be9550aed890fdf22d7296e9b020f787c651293e73d66eaa613b57a408ec80913b06749cb47b81ffb74aaa8eeb69934ac227506cba2c3156f972e072d335b5049c662730f8939dcbe997b077c5cc1c9&ascene=0&uin=Njg5NTc0NDYx&devicetype=iMac MacBookAir7,2 OSX OSX 10.11.6 build(15G1108)&version=12010110&nettype=WIFI&fontScale=100&pass_ticket=bHTRJmDh7jh9C4yUpyQ9Z4slZp+1QYMXG1zQ9my0bFJ4O8T6zGcBiUOL0gMwtBpV