本站点使用Cookies,继续浏览表示您同意我们使用Cookies。Cookies和隐私政策>

搜索
  • china mobile banner pc 0612

    FusionStorage分布式存储助力中国移动辽宁公司核心业务升级提速

客户背景

中国移动通信集团辽宁有限公司隶属于中国移动通信集团有限公司,于1999年7月成立,2000年11月在香港和纽约上市,负责中国移动通信在辽宁的网络建设维护和业务经营。注册资本51.41亿元人民币。经过十余年的不懈努力,中国移动辽宁公司织就了一张覆盖范围广、通信质量高、业务品种丰富、服务水平领先的综合信息网络。

业务挑战

随着电信行业竞争越来越激烈,运营商的商业模式逐渐从传统的资源型转向基于用户需求的模型,使得BSS(Business Support Systems,业务支撑系统,B域)、 OSS(Operation support system 运营支撑系统,O域)等系统日益重要,而这些系统最核心的数据资产又是由数据库承载的。以往,国内电信运营商采用“小型机+集中存储(多为传统架构的中高端存储阵列)”部署核心数据库,投入巨大,辽宁移动也不例外,仅B域就有来自多厂商的超过300台小型机,使用Oracle数据库承载计费、网管、管信、数据增值业务、位置服务等100多套系统,而每套业务系统配套的存储成了“存储烟囱”。随着业务数据不断增长,传统架构存储逐渐显现出业务风险高、维保费用高和资源利用率低等突出问题:数据库运行越来越慢,业务处理周期越来越长,日报、月报等业务动辄需要10多个小时;以往高端存储必须整柜扩容,成本甚至高于新购设备;不同系统的小型机负载差别大,部分设备负载峰值较高但均值低,长时间处在低负荷运转状态。

为解决上述问题,辽宁移动公司曾面对两条截然不同的变革之路:一是采用开源数据库,该方案需要传统应用做大量修改,但是无法支持部分复杂的关系数据模型;二是分布式数据库,该方案采用x86服务器+分布式存储,实现对小型机+传统存储替换,数据库无需修改。究竟哪一种更适合呢?辽宁移动经过测试验证得出结论:互联网公司的数据类型以非结构化和半结构化为主,因此适合采用开源非关系型数据库解决方案;而移动公司主要处理结构化数据,而且业务系统改造难度极大。采用x86服务器+分布式存储作为分布式数据库的“基座”更符合需求。

解决方案

华为设计的基于 FusionStorage 分布式存储,用存储池代替存储烟囱,具备大规模横向扩展、弹性按需等特性,为数据库提供高效块存储服务,在众多实力派竞争者中脱颖而出。

数据库应用基本都要求存储有高带宽、低时延的数据块服务能力,辽宁移动的存储需求可通俗地归纳为“嘴巴大” 和“肚子大”。“嘴巴大”就是高性能需求,因为B域和O域数据库多样,如4A(安全管理平台)、VGOP(增值业务综合运营平台)、计费库、BOSS库、经分库等,且每个数据库还分别承载了几十甚至上百个不同数量的各种业务,各类业务的数据读写模型与用户访问习惯各异,比如 O 域库的 IOPS 峰值超过 20000、经分库的 IOPS 峰值接近30000、BOSS库的IOPS峰值接近40000。“肚子大”就是超强扩展需求,数十个应用系统,近1PB总量的数据通过融合资源池共享,以后数据再增长还能使用这个资源池。

华为 FusionStorage 分布式存储与传统 SAN 架构存储的核心区别在于扩展能力。传统 SAN 存储采用控制器堆叠方式扩展:双控或多控堆叠,最多可扩展至几十个控制器,然 后通过在控制器后端纵向(Scale-up)叠加磁盘框实现容量和性能的增加,但是一定规模后就会遇到瓶颈:增加硬盘虽然可以增加总容量,可受限于控制器架构,性能无法再线性增加了。FusionSotrage在设计之初就采用全分布式架构,通过软件将成百上千台x86服务器组织成虚拟化的、 Scale-out(横向扩展)架构的存储池,每台服务器同时具备计算和存储能力,存储资源池能够随业务增长以服务器节点为单位线性扩容。

在这个项目中,FusionStorage将分布在各个存储服务器上的SSD组建成共享的分布式Cache资源池,供所有业务系统共同使用,通过分层读缓存机制(第一层为内存Cache,第二层为SSD Cache),缩短数据访问时间,对于常见的4K数据读写,平均时延保持在1ms 左右;DHT(Distributed Hash Table, 分 布 式 哈 希 表)算法结合对高性能硬件(全NVMe SSD配置时)快速兼容,缩短数据读写响应时间,支持最大并发用户数由400增加至1000,完全满足前端业务的整体性能需求。FusionStorage还采用大吞吐、低时延的InfiniBand交换机做内部组网,打破传统存储架构中FC交换方式的网络瓶颈,系统内部数据交换带宽由 10Gb/s 扩展至128Gb/s,进一步大幅提升IO性能,数百客户同时访问数据库 仍然不存在 IO瓶颈。通过 BASS(Business Analysis Support System,经营分析系统)数据实测,100TB数据分析处理时长由超过10小时缩短至2小时,效果非常明显。


数据保护更得力

在数据保护方面,FusionStorage采用集群管理,具备磁盘级、节点级、机柜级和系统级数据高可用保障设计,每个硬盘都保存了多个数据块(Partition),这些数据块的副本按照策略分散在全系统中的其他节点。当系统检测到硬盘或者服务器节点硬件发生故障时,自动在后台启动数据修复。由于数据块的副本被分散到多个不同节点上,数据重建会在多 节点同时启动,每个节点只需重建一小部分数据,多节点并行工作,避免单节点重建大量数据的性能瓶颈,对数据库业务没有影响。反观现网传统架构的存储系统采用 RAID 技术,参与数据重建的磁盘数量通常为十几块,且存在独立数据校验 磁盘瓶颈,数据保护效率相比分布式架构完全不可同日而语。另外,FusionStorage采用数据同步写与读修复技术保障 数据一致性,达到现网传统高端存储的可靠性水平。

对于数据备份容灾,客户也充分受益于FusionStorage的分布式结构与高性能,相比以往备份效率提升了50%以上,并通过备份软件保证数据的一致性,后期还可以以FusionStorage 为中心,综合考虑块、文件、对象、备份各场景构建数据湖,打造数据保护“生态圈”。

客户收益

1、 节省扩容及维护投资30%

2、 缩短日报、月报时长10小时降低至2小时

3、 数据保护效率提升50%

TOP