项目背景
某国有大型银行数据中心,一直在关注双中心建设,其思想是避免灾备中心的服务器和存储闲置,充分利用资源,降低系统建设的成本。其实不仅在系统容灾架构中存在资源的闲置,而且在数据中心高可用架构中同样存在过度保护,造成资源闲置。因此希望通过此项目不仅保证集群系统的高可用同时也防止资源的浪费。
某国有大型银行数据中心,一直在关注双中心建设,其思想是避免灾备中心的服务器和存储闲置,充分利用资源,降低系统建设的成本。其实不仅在系统容灾架构中存在资源的闲置,而且在数据中心高可用架构中同样存在过度保护,造成资源闲置。因此希望通过此项目不仅保证集群系统的高可用同时也防止资源的浪费。
项目框架
集群系统是目前应用高可用的主要手段。由多台主机,连接共享的存储磁盘阵列,实现应用在多台主机上的并行运作(需要应用支持,如OracleRAC)或者Active/Standby模式运作,当单个主机上的应用,或者主机本身发生错误时,由其他服务器接替工作,最终实现应用的高可用。
关键业务系统需要24X7不间断提供服务。即使发生短暂的业务中断,也会导致难以估量的损失。
传统的集群架构多为1+1模式,M套系统的即形成了(1+1)*M套集群,有M台机器闲置。我们是否会有M套系统同时发生故障,需要使用到M台备机?答案是明显否定的。所有系统的故障,通常是整个site的故障,容灾系统的建设已经对此类场景进行了保护。在单个数据中心,同时发生故障的系统数量N通常小于M,我们可以通过形成M+N的集群形式,在确保高可用的同时降低成本。因此项目采用(M+N)集群架构建设方案。
物理机集群架构图如下:
本地集群,也称为共享存储集群,是目前流行的通过应用和数据库故障切换提供高可用性的方案。
本地集群,也称为共享存储集群,是目前流行的通过应用和数据库故障切换提供高可用性的方案。
用于应用和数据可用性的冗余服务器、网络和存储架构使用多重服务器与共享存储系统的连接。
系统被连入一个专用的网络互联结构中,通常使用以太网传递系统状态和软硬件资源的信息――VCS使用快速专用协议GAB/LLT进行状态通信。
集群中的每个系统都能够在需要时访问共享存储系统上的应用数据
区别于扩展集群,它不把数据复制或镜像到其他数据中心(往往在单一阵列中,利用镜像/RAID来提供磁盘保护)
SAN结构可以简化大型的集群(大于两个节点),这在当前的所有集群中具有代表性。例如,使用交换机和集线器
所有集群组件服务器、SAN结构、存储系统全部共存于某个站点上。
集群中的所有服务器在一个单独的位置(单数据中心)
项目实施效果
使用共享存储系统上的数据实现应用恢复(零数据损失)
将应用和数据库的停机时间降至最低(自动故障切换)
优化服务器整合(N+1故障切换情形)
快速恢复时间目标,满足严格的服务水平协议和高可用性