全球首例银行“大型机”下移背后

您所在的位置:网站首页 银行大型机下移涉及那些银行 全球首例银行“大型机”下移背后

全球首例银行“大型机”下移背后

2024-03-02 00:46| 来源: 网络整理| 查看: 265

【直播预告】程序员逆袭 CEO 分几步?

20年12月24日,在腾讯云数据库品牌升级的时刻,我们也有幸邀请到了平安银行技术负责人李中原分享平安银行分布式数据库TDSQL实践,讲述全球首例银行“大型机”下移背后的故事,以下是平安银行技术负责人李中原的演讲全文:

尊敬的各位领导,各位来宾大家下午好,我是平安银行技术负责人李中原,今天由我代表平安银行给大家分享平安银行在分布式系统建设中的经验。

我的分享有四个部分,第一个是分布式PssS平台项目,第二个是同城多活的建设,第三个是自动化运维建设,最后是弹性扩容的能力建设。

A+信用卡核心是国内首例由大型机直接下沉到分布式系统的核心系统,信用卡建设的契机是在我们一级卡量精准服务,性能突破,成本控制,并且快速创新能力受到底层服务框架制约的情况下,行领导提出需要建设一套全新的能够实现快速业务交付以及灵活、富有弹性的新的信用卡核心系统。

于是2018年12月份我们开始启动了信用卡A+项目,整个项目历时两年,于今年10月31日正式投产。由于今年双11规则是从11月1日开始,所以新系统上线的第二天就要承接双11巨大的压力,但在这个基础上我们的系统最终还是非常平稳的上线。

基于信用卡建设的契机,我们同时建设了一整套的企业级全栈式服务化的技术中台,这个技术中台主要是PssS层,其中主要的核心组件有大约九个,而数据库组件可以说是核心中的核心,选用了腾讯云TDSQL数据库,基于PssS平台建设的信用卡核心系统,整体的处理能力较原有系统提升了十倍,理论上具有无限横向扩展能力,而且成本是原系统1/3不到,保守估计未来五年可以节约成本14亿。

信用卡A+系统采用单元化DSU分布式架构,基于私有云和PssS平台建设,应用微服务化,拆分解耦。DSU整体设计逻辑采用按客户维度进行分片,由GNS去负责解析,完成分片,由DLS实现分片的路由,分片内部实现自包含,所谓自包含就是说我们所有的客户的业务均可以在单个分片完成,包括交易授权、用卡业务,也包括我们的批量业务。

在DSU之外,为了满足聚合查询、分析、归档需求,我们同时建设一套sharding版的TDSQL,用于实现聚合的查询,我们支持全量、增量以及实时的数据同步,同时为了完成数据归档,我们建设了一套Hadoop集群作为归档数据平台。

接下来第二部分是同城多活,这是我们反复打磨,不断极限测试的一个部分。首先这个是我们DSU部署架构,部署架构中采用了非常典型的两地三中心,一主五备的架构,它的架构的特点是同城备机强分步,同机房异步,不管什么场景下,包括硬件、软件各种场景的故障均实现了RPO为0,完成跨机房、强同步和一键切换。

第二个是异地容灾模式,半小时是在对系统包括数据库做极限压力的时候它的最大的一个值。其实我们上线到目前为止两个月我们观察到的RTO和RPO的值远没有到半小时,其中还包括跑批的时间。

我们的同城多活是建设所有组件的同城多活,我们架构中第一个组件就是LVS,LVS由于本身技术特性不能实现跨数据中心的高可用架构,这个过程中我们跟腾讯的研发团队反复的沟通协商,最终我们建设了一个LVS Group的概念,通过这样一个概念把两个数据中心的VIP绑定在一起,对我们的业务提供服务,通过这样的模式最终实现了LVS的同城多活。

正常业务的访问场景是业务流量进入系统的时候通过域名访问我们的数据库,同城部署的时候应用不需要做任何修改,它的域名和端口都是相同的,由我们的GSLB组件解析,生成不同机房不同的LVS VIP,根据我们的流量权重的配置转发到相应的网关,再由网关专发到数据库主库,读写分离场景中转发到备库。

这个架构最大的特点有两个,第一个就是我们所有组件是同城多活的,另外一个我们的应用流量是本地访问的,最大限度减少了机房之间的访问交互。

这是我们LVS高可用组,在一个机房整体故障的场景,GSLB会自动检测到我们的LVS Group不可用并自动启动切换,切换的时候会直.........



【本文地址】


今日新闻


推荐新闻


CopyRight 2018-2019 办公设备维修网 版权所有 豫ICP备15022753号-3