一种基于OpenStack的公有云网络构架系统的制作方法

文档序号:11959634阅读:731来源:国知局
一种基于OpenStack的公有云网络构架系统的制作方法与工艺

本发明涉及一种公有云架构,尤其是涉及一种基于OpenStack的公有云网络构架系统。



背景技术:

目前,在现有的公有云解决方案中,主要有VMware的V-CLOUD,微软的Windows Azure,亚马逊的EC2解决方案,但是这些方案成本高昂,价格贵,作为普通用户并不是最佳的选择,近年来,OpenStack开源的云计算解决方案迅速崛起,该方案几乎支持所有的底层虚拟化技术,如ESX、KVM、Xen、Hyper-V、LXC等等。



技术实现要素:

本发明的目的就是为了克服上述现有技术存在的缺陷而提供一种基于OpenStack的公有云网络构架系统,实现大规模的公有云存储,节约了大量的成本,维护技术变得简单而高效。

本发明的目的可以通过以下技术方案来实现:

一种基于OpenStack的公有云网络构架系统包括控制器集群服务器、计算存储集群服务器、管理内网线路、虚拟机内网线路、虚拟机外网线路、分布式存储网络线路、存储复制网络线路和远程管理网络线路,所述控制器集群服务器通过第一以太网交换机分别连接管理内网线路、虚拟机内网线路、虚拟机外网线路和存储复制网络线路,并通过远程管理网络线路连接公网,所述计算存储集群服务器通过第二以太网交换机分别连接管理内网线路、虚拟机内网线路、分布式存储网络线路和存储复制网络线路。

所述控制器集群服务器的服务器数量为三台。

所述计算存储集群服务器的服务器数量为三台的倍数,计算存储集群服务器采用分布式存储,数据按1:3份额拷贝。

所述计算存储集群服务器分为多个计算存储集群子服务器,每个计算存储集群子服务器包括三台相互连接的服务器,每个计算存储集群子服务器均通过第二以太网交换机分别连接管理内网线路、虚拟机内网线路、分布式存储网络线路和存储复制网络线路。

所述计算存储集群服务器的服务器数量为九台。

所述管理内网线路、虚拟机内网线路和虚拟机外网线路均为两千兆网络线路。

所述分布式存储网络线路、存储复制网络线路均为两万兆网络线路。

所述控制器集群服务器和计算存储集群服务器均为多个。

与现有技术相比,本发明具有以下优点:

1、采用分布式存储架构方式,不再采用RAID磁盘冗余技术,使用基于节点冗余模式,3个存储计算节点为一组,任何一个节点发生故障,都不影响数据丢失和虚机的运行,不影响公有云使用和数据读写速度。

2、管理内网线路、虚拟机内网线路、虚拟机外网线路、分布式存储网络线路、存储复制网络线路和远程管理网络线路实现不同数据的传输,不仅保证足够的带宽,还保证单一数据传输之间的相互独立,各个节点互联采用成熟的以太网技术,不再采用FC-SAN光纤通道技术,从而节约了大量的成本,维护技术变得简单而高效。

3、控制器集群服务器由3个节点冗余,主要安装Keystone、Glance、Horizon、Neutron四个功能组件,实现强大的公有云存储功能。

4、底层虚拟化采用KVM开源虚拟化软件,同时也支持VMWARE的ESXi,及其他厂商的虚拟化软件,降低了软件成本。

附图说明

图1为本发明整体结构示意图;

图2为控制器集群服务器的内部功能结构示意图。

图中:1、控制器集群服务器,2、计算存储集群服务器,3、管理内网线路,4、虚拟机内网线路,5、虚拟机外网线路,6、分布式存储网络线路,7、存储复制网络线路,8、远程管理网络线路,9、公网,10、服务器。

具体实施方式

下面结合附图和具体实施例对本发明进行详细说明。本实施例以本发明技术方案为前提进行实施,给出了详细的实施方式和具体的操作过程,但本发明的保护范围不限于下述的实施例。

如图1所示,一种基于OpenStack的公有云网络构架系统包括控制器集群服务器1、计算存储集群服务器2、管理内网线路3、虚拟机内网线路4、虚拟机外网线路5、分布式存储网络线路6、存储复制网络线路7和远程管理网络线路8,控制器集群服务器1通过第一以太网交换机分别连接管理内网线路3、虚拟机内网线路4、虚拟机外网线路5和存储复制网络线路7,并通过远程管理网络线路8连接公网9,计算存储集群服务器2通过第二以太网交换机分别连接管理内网线路3、虚拟机内网线路4、分布式存储网络线路6和存储复制网络线路7。全部为双冗余节点负责均衡方式。

控制器集群服务器1的服务器数量为三台。

计算存储集群服务器2的服务器数量为三台的倍数,组成冗余节点,采用Ceph分布式存储,则计算存储集群服务器2可分为多个计算存储集群子服务器,每个计算存储集群子服务器包括三台相互连接的服务器10,每个计算存储集群子服务器均通过第二以太网交换机分别连接管理内网线路3、虚拟机内网线路4、分布式存储网络线路6和存储复制网络线路7。本实施例中,计算存储集群服务器2的服务器数量为九台。底层存储采用分布式存储,硬盘采用服务器10一体化的通用硬盘,数据按1:3份额拷贝,3台高性能服务器10采用集群方式负载,任何一台节点主机发生故障,均不影响公有云使用和数据读写速度。

管理内网线路3、虚拟机内网线路4和虚拟机外网线路5均为两千兆网络线路。分布式存储网络线路6、存储复制网络线路7均为两万兆网络线路,分布式存储网络线路6、存储复制网络线路7构建的存储网络采用CEPH存储技术架构,2x10ge负载分摊,采用传统的以太网交换机,避免使用了价格昂贵的FC SAN光纤通道存储,节约了大量的硬件成本。

控制器集群服务器1和计算存储集群服务器2均为多个。

控制器集群服务器1上软件采用开源的OpenStack技术,主要安装Keystone、Glance、Horizon、Neutron组件以及计算+存储节点:Nova、Cinder、Swift和Neutron组件等。

Keystone主要负责虚机,租户等身份认证功能;

Horizon:提供DASHBOARD(Web前端控制台)服务,提供用户自服务UI及基本cloud管理服务,定义tanents,users服务;

NOVA:提供核心计算服务,广泛支持multiple Hpyervisors KVM、Xen、LXC、Hyper-V、ESX等底层虚拟化技术;

Glance主要提供磁盘镜像服务,支持RAW、QCOW、VMDK、VHD、ISO、OVF、AMI/AKI等格式;

Swift:提供对象文件存储服务,即为虚机提供磁盘服务;

Neutron:提供openstack网络服务功能,采用SDN软件定义网络技术架构方案,实现灵活的SDN网络管理方案;

Cinder:提供block storage块存储服务;

Heat:是一个基于模板来编排复合云应用的服务。

Ceilometer:是一种集中收集计量和监测数据的机制。

Trove是OpenStack实现Database as a Service(DBaaS)的项目,为要能过户提供可扩展和高可靠性的云数据库,并作为一个基本服务可以同时支持关系和非关系型数据库。

这些组件关系如图2所示。

当前第1页1 2 3 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1