[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

CN104135514B - 融合式虚拟化存储系统 - Google Patents

融合式虚拟化存储系统 Download PDF

Info

Publication number
CN104135514B
CN104135514B CN201410357408.4A CN201410357408A CN104135514B CN 104135514 B CN104135514 B CN 104135514B CN 201410357408 A CN201410357408 A CN 201410357408A CN 104135514 B CN104135514 B CN 104135514B
Authority
CN
China
Prior art keywords
server
storage
server node
hard disk
fusion type
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201410357408.4A
Other languages
English (en)
Other versions
CN104135514A (zh
Inventor
俞雄杰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Inventec Pudong Technology Corp
Inventec Corp
Original Assignee
Inventec Pudong Technology Corp
Inventec Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Inventec Pudong Technology Corp, Inventec Corp filed Critical Inventec Pudong Technology Corp
Priority to CN201410357408.4A priority Critical patent/CN104135514B/zh
Priority to US14/507,218 priority patent/US9641612B2/en
Publication of CN104135514A publication Critical patent/CN104135514A/zh
Application granted granted Critical
Publication of CN104135514B publication Critical patent/CN104135514B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/10Protocols in which an application is distributed across nodes in the network
    • H04L67/1095Replication or mirroring of data, e.g. scheduling or transport for data synchronisation between network nodes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/14Error detection or correction of the data by redundancy in operation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/16Error detection or correction of the data by redundancy in hardware
    • G06F11/20Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements
    • G06F11/2053Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where persistent mass storage functionality or persistent mass storage control functionality is redundant
    • G06F11/2089Redundant storage control functionality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/16Error detection or correction of the data by redundancy in hardware
    • G06F11/20Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements
    • G06F11/2053Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where persistent mass storage functionality or persistent mass storage control functionality is redundant
    • G06F11/2094Redundant storage or storage space
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/16Error detection or correction of the data by redundancy in hardware
    • G06F11/20Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements
    • G06F11/2097Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements maintaining the standby controller/processing unit updated
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/10File systems; File servers
    • G06F16/18File system types
    • G06F16/188Virtual file systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/16Error detection or correction of the data by redundancy in hardware
    • G06F11/20Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements
    • G06F11/2017Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where memory access, memory control or I/O control functionality is redundant
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2201/00Indexing scheme relating to error detection, to error correction, and to monitoring
    • G06F2201/815Virtual
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2201/00Indexing scheme relating to error detection, to error correction, and to monitoring
    • G06F2201/85Active fault masking without idle spares

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Quality & Reliability (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Hardware Redundancy (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本发明公开一种融合式虚拟化存储子系统,其至少包括:一第一服务器节点;一第二服务器节点;以及一共享存储池,包括至少一硬盘簇,所述第一服务器节点与所述第二服务器节点同时访问所述共享存储池;其中,所述融合式虚拟化存储子系统安装有一操作系统,所述操作系统内定义一存储空间单元,所述第一、第二服务器节点分别通过所述存储空间单元访问所述共享存储池中的所述至少一硬盘簇,实现所述第一服务器节点和所述第二服务器节点的同步,进而保证冗余存储的配置,所述操作系统内设置一文件服务器与一虚拟服务器,所述虚拟服务器通过基于所述操作系统的应用程序堆叠方式与所述文件服务器对应相连,实现所述虚拟服务器与所述文件服务器的快捷匹配。

Description

融合式虚拟化存储系统
技术领域
本发明涉及服务器架构领域,尤其涉及一种融合式虚拟化存储系统。
背景技术
在现有的企业用户存储解决方案中,参见图1所示,传统虚拟化存储系统100是由多个存储设备110(其为JBOD,全称Just a bunch of disks,或称硬盘簇)、多个文件服务器120、多个虚拟服务器130所构成的集群式三层架构,每一层架构之间是通过复杂的线缆(例如SAS线缆或光纤等)进行互联,并且通过复杂的软件层面的配置完成整个系统结构的拓扑配置。如图1所示,每一所述存储设备110(例如JBOD1、JBOD2、JBODn等)分别与每一所述文件服务器120(例如文件服务器1、文件服务器2、文件服务器n等)相连,每一所述文件服务器120与每一所述虚拟服务器130(例如虚拟服务器1、虚拟服务器2、虚拟服务器n等)相连,每一所述虚拟服务器130与一交换机140相连,所述交换机140分别与多个客户端150(例如客户端1、客户端2、客户端n等)相连。其中JBOD作为存储领域中一重要的存储设备,也可以被称为a spanned disk。JBOD并非具有前端逻辑以管理硬盘上的数据分布,而是每一硬盘进行单独寻址,以作为独立的存储资源。所述文件服务器120是一种具有分时系统文件管理功能,并且提供用户访问文件、目的的并发控制和安全保密措施的网络服务器。所述虚拟服务器130通过软硬件技术将其自身分成为若干个主机,每一被分成的主机具有独立的域名、IP地址,但是共享真实主机的CPU、RAM、操作系统以及应用程序,相对于用户而言,所操作的服务器与真实独立的主机功能一样。因此,用户能够通过客户端150、交换机140、虚拟服务器130和文件服务器120访问存储设备110中的数据信息。由于每一所述存储设备110分别与每一所述文件服务器120相连,每一所述文件服务器120与每一所述虚拟服务器130相连,每一所述虚拟服务器130与一交换机140相连,因此使得整个传统虚拟化存储系统100具有较好的冗余设计。但是如此的冗余设计,使得传统虚拟化存储系统100存有以下缺陷:其一,虚拟服务器130和文件服务器120之间错综复杂的网络线缆需要软件配置拓扑,文件服务器120和存储设备110之间错综复杂的网络线缆也需要软件配置拓扑;其二,若遇到扩容等情况时,复杂的线缆连接以及配置接口使扩容变得非常繁琐而效率较低。
有鉴于此,亟需提供一种新型的融合式虚拟化存储系统以解决上述问题。
发明内容
本发明的目的在于,提供一种融合式虚拟化存储系统,其将原有传统虚拟化存储系统的三层架构融合为一集群系统,利用虚拟化解决方案,使得整个存储系统的配置扁平化,并且能够省略传统虚拟化存储系统的三层架构之间复杂的线缆配置,以至使本发明所述融合式虚拟化存储系统的集群扩展变得简单易行,从而使得整个系统的可靠性和可维护性大大增强。
为了解决上述问题,本发明提供一种融合式虚拟化存储子系统,至少包括:一第一服务器节点;一第二服务器节点;以及一共享存储池,包括至少一硬盘簇,所述第一服务器节点与所述第二服务器节点能够同时访问所述共享存储池;其中,所述融合式虚拟化存储子系统安装有一操作系统,所述操作系统内定义一存储空间单元,所述第一服务器节点和所述第二服务器节点分别通过所述存储空间单元访问所述共享存储池中的所述至少一硬盘簇,实现所述第一服务器节点和所述第二服务器节点的同步,进而保证冗余存储的配置,所述操作系统内设置一文件服务器与一虚拟服务器,所述虚拟服务器通过基于所述操作系统的应用程序堆叠方式与所述文件服务器对应相连,实现所述虚拟服务器与所述文件服务器的快捷匹配。
作为可选的技术方案,所述文件服务器分别配置所述第一服务器节点与所述第二服务器节点,所述虚拟服务器分别配置所述第一服务器节点与所述第二服务器节点。
作为可选的技术方案,所述第一服务器节点与所述第二服务器节点通过采用存储双域技术实现同时访问所述共享存储池。
作为可选的技术方案,所述第一服务器节点与所述第二服务器节点为多个。
作为可选的技术方案,所述融合式虚拟化存储子系统设置在一台服务器中。
作为可选的技术方案,所述第一服务器节点和第二服务器节点均进一步包括至少一控制器,所述第一服务器节点的至少一所述控制器和第二服务器节点的至少一所述控制器分别耦接至所述至少一硬盘簇。
作为可选的技术方案,更包括至少一存储扩展模块,每一所述控制器通过所述至少一存储扩展模块连接至所述至少一硬盘簇。
作为可选的技术方案,所述第一服务器节点的至少一所述控制器和第二服务器节点的至少一所述控制器分别通过所述至少一存储扩展模块连接至同一所述硬盘簇。
作为可选的技术方案,每一所述存储扩展模块分别与所述第一服务器节点的至少一控制器和所述第二服务器节点的至少一控制器相连。
本发明的另一目的在于,提供一种融合式虚拟化存储系统,包括:多个上述的融合式虚拟化存储子系统;一交换机,分别与每一所述融合式虚拟化存储子系统和多个客户端相连;每一所述客户端,用于使用户能够通过每一所述客户端访问相应的一所述融合式虚拟化存储子系统。
本发明的优点在于,利用高密度、高带宽和冗余设计,在一个4U(1U=44.45毫米)的存储系统中融合原有三层架构之间的连接和配置。与现有技术相比,本发明具有以下有益效果:(1)能够节省一半以上的空间;(2)无复杂的层与层之间的线缆连接和拓扑配置流程;(3)扁平化集成结构能够减少原有3层架构之间的延迟和信号损失,有效地提高系统运行的效率和稳定性;(4)通过系统内部统一的虚拟化,使扩容显得非常简单方便。
附图说明
图1是现有技术中虚拟化存储系统的架构图。
图2是本发明一实施例中的融合式虚拟化存储子系统的主架构图。
图3A是图2所示的融合式虚拟化存储子系统的部份架构图,其中双域SAS的控制器通过存储空间单元的存储扩展模块与硬盘簇相连。
图3B是图3A所示的硬盘簇的结构示意图。
图3C是本发明一实施例中一4U集群服务器内部的示意图。
图4A是本发明一实施例中多个控制器通过多个存储扩展模块与70个硬盘驱动器的连接关系示意图。
图4B是本发明一实施例中两个服务器节点与多个存储扩展模块之间的连接关系示意图。
图4C是本发明一实施例中两个服务器节点与多个存储扩展模块之间的连接关系示意图。
图4D是本发明一实施例中两个服务器节点通过多个存储扩展模块与70个硬盘驱动器的另一种连接关系示意图。
图5是本发明一实施例中的融合式虚拟化存储系统的架构图。
图中的标号分别表示:
100、传统虚拟化存储系统;110、存储设备;120、文件服务器;
130、虚拟服务器;140、交换机;150、客户端;
200、融合式虚拟化存储子系统;
210、第一服务器节点;
211、虚拟服务器;212、文件服务器;
220、第二服务器节点;230、共享存储池;
231、硬盘驱动器;240、存储空间单元;
241、第一存储扩展模块;242、第二存储扩展模块;
243、第三存储扩展模块;244、第四存储扩展模块;
250、控制器;
310、硬盘簇;320、扩展器;
331、第一IO模块;332、第二IO模块;
341、第一转接板;342、第二转接板;343、硬盘背板;
500、融合式虚拟化存储系统;510、客户端;
520、交换机。
具体实施方式
下面结合附图对本发明提供的融合式虚拟化存储系统的具体实施方式做详细说明。
图2是本发明一实施例中的融合式虚拟化存储子系统的架构图。
参见图2所示,根据本发明的一目的,本发明提供一种融合式虚拟化存储子系统200,且设置在一服务器(例如4U的集群服务器)中,所述融合式虚拟化存储子系统200至少包括:第一服务器节点210、第二服务器节点220、存储空间单元240以及共享存储池230。在本发明的其他实施例中,所述第一服务器节点与所述第二服务器节点可以为多个。
如图2所示,所述第一服务器节点210和第二服务器节点220互为冗余配置。亦即,所述第一服务器节点210和第二服务器节点220中任一服务器节点可以作为另一服务器节点的备用。通过上述冗余配置可以减少或避免因单个服务器节点的故障而使所述融合式虚拟化存储子系统200不能正常运行的情况发生。尤其针对用于制造、医疗、零售等领域的存储系统而言,数据可用性和安全性对于不间断操作显得极其重要。上述融合式虚拟化存储子系统200安装有一操作系统(图中未示),所述操作系统内定义一存储空间单元240。所述第一服务器节点210和所述第二服务器节点220分别通过所述存储空间单元240访问所述共享存储池230中的至少一硬盘簇310,以实现所述第一服务器节点210和所述第二服务器节点220的同步,进而保证冗余存储的配置。所述操作系统内至少包括一虚拟服务器211和一文件服务器212。所述文件服务器212可以分别配置所述第一服务器节点210与所述第二服务器节点220,所述虚拟服务器211也可以分别配置所述第一服务器节点210与所述第二服务器节点220,具体参见图2所示。所述虚拟服务器211(例如图2中的虚拟服务器1、虚拟服务器2)通过所述操作系统的的应用程序堆叠方式与所述文件服务器212(例如图2中的文件服务器1、文件服务器2)对应相连,以实现所述虚拟服务器211与所述文件服务器212的快捷匹配。相较于现有技术通过网络线缆的连接以及相关软件的配置拓扑,本发明通过应用程序的堆叠有助于存储系统的执行效能,而无需花费太多系统运行时间,从而解决虚拟服务器211访问文件服务器212的延迟和复杂的匹配问题。设置在所述虚拟服务器211内的多个主机系统(图中未示)通过一虚拟层(图中未示)能够实现协同工作、统一管理和不间断的维护,其中多个主机系统可以运行相同/不同的操作系统,所述虚拟层起到抽象层作用,使物理硬件从和应用程序相关联的操作系统去耦合,以实现更大的资源利用和灵活性。虚拟层允许具有同质或异质操作系统的虚拟机或客户机单独地但并行地在相同或不同的物理机上运行。由于所述虚拟服务器211和所述文件服务器212形成的服务器节点210、220属于同一层的扁平化架构,因此能够简化现有虚拟服务器和文件服务器之间的线缆(例如SAS线缆或光纤)管理,即仅需一简单配置即能够实现通过多个不同的主机系统访问所述文件服务器212,而无需物理连接至所述文件服务器212。此外,扁平化架构能够提供强大的扩展能力,因此能够容易地实施在所述融合式虚拟化存储子系统200中增加(或称扩展)虚拟服务器211或文件服务器212,进而使整个系统的可靠性和可维护性大大加强。
图3A是图2所示的融合式虚拟化存储子系统的部份架构图,其中双域SAS的控制器通过存储空间单元的存储扩展模块与硬盘簇的相连。图3B是图3A所示的硬盘簇的结构示意图。图3C是本发明一实施例中一4U集群服务器内部的示意图。
如图2及3A所示,所述第一服务器节点210和第二服务器节点220均进一步包括至少一控制器250,控制器250用于处理数据信号和控制信号并且控制输入和输出,每一所述控制器250可以分别通过所述存储空间单元240连接至所述共享存储池230的至少一硬盘簇310。
如图3A所示,所述共享存储池230包括至少一硬盘簇310;请进一步参见图3A及3B所示,其中每一硬盘簇310包括多个硬盘驱动器231,硬盘驱动器231用于供所述第一服务器节点210和第二服务器节点220共享所存储的数据。每一所述硬盘驱动器231可以为但不限定于双域SAS驱动器或SATA驱动器。
请参见图2所示,所述第一服务器节点210和第二服务器节点220分别通过所述存储空间单元240访问所述共享存储池230,以实现第一服务器节点210和第二服务器节点220的同步,进而保证冗余配置。如图3A所示,所述存储空间单元240进一步包括第一存储扩展模块241及第二存储扩展模块242,第一存储扩展模块241和第二存储扩展模块242为相同的存储扩展模块,以至所述第一服务器节点210的至少一所述控制器250和第二服务器节点220的至少一所述控制器250分别通过所述存储空间单元240的第一存储扩展模块241和第二存储扩展模块242连接至所述共享存储池230中的同一硬盘簇310。所述第一存储扩展模块241和第二存储扩展模块242用于使所述控制器250所发送的命令和数据传送至一硬盘簇310的硬盘驱动器231(例如SAS驱动器或SATA驱动器)。
进一步参见图3A及3B,所述共享存储池230的所述硬盘簇310还包括第一IO模块331和第二IO模块332,第一IO模块331和第二IO模块332均包括一扩展器320(expanders),每一所述扩展器320均与多个硬盘驱动器231相连,同时两个所述扩展器320分别通过其对应的第一存储扩展模块241与第一服务器节点210的控制器250相连,以及通过其对应的第二存储扩展模块242与第二服务器节点220的控制器250相连。所述扩展器320可以采用三种路由方式:直接路由方式(direct routing)、路由表方式(routing table)以及删减路由方式(subtractive routing)以实现所述控制器250、存储扩展模块、扩展器320及所述硬盘驱动器231之间的彼此路由。所述扩展器320为可选组件。在本发明的其他实施中,所述第一存储扩展模块241及第二存储扩展模块242可以直接连接至硬盘驱动器231。
在本发明的实施例中,如图3A及3B所示的所述第一服务器节点210的至少一控制器250和第二服务器节点220的至少一控制器250利用双域SAS(Dual Domain SAS(SAS为Serial Attached SCSI的简称))技术,通过存储空间单元240的第一存储扩展模块241和第二存储扩展模块242实现同时访问同一硬盘驱动器231。在其他实施例中,所述控制器250可以被替换为主总线适配器(Host Bus Adapter,简称HBA),其也能够利用双域SAS技术同时访问同一硬盘驱动器231。由于所述融合式虚拟化存储子系统200通过采用双域SAS技术以实现冗余配置,因此能够容许主总线适配器的故障、外部线缆(external cable)故障、扩展器(expanders)故障以及硬盘簇(JBOD)的故障,这是极其重要的。所述双域SAS技术不同与现有技术的双路径SATA(即Dual Path SATA)技术方案,后者仅使用单个域的方式以容许线缆的故障发生,而前者却能够提供完整的冗余的双域SAS。另外,相较于双路径SATA,双域SAS能够提供更高的可靠性、更高的性能以及数据可用性。需注意的是,双域SAS与双路径SATA的主要区别在于是使用SAS驱动器,还是使用SATA驱动器。由于双口型硬盘驱动器能够在一个双域SAS内提供完整途径的冗余配置,而SAS驱动器为双口型硬盘驱动器,因此,在双域SAS内应该采用SAS驱动器。在本发明的实施例中,所述硬盘驱动器231为SAS驱动器,SAS驱动器具有双口(Dual Ports)满足上述条件。
当所述硬盘驱动器231为双口型硬盘驱动器且第一IO模块331与第二IO模块332互为冗余配置时,使得所述双域SAS满足冗余设计的条件。因此,在本实施例中的双域SAS能够容许双口型硬盘驱动器的其中一个端口发生故障,或者容许所述第一IO模块331和第二IO模块332中的任一IO模块发生故障,或者容许支持双域SAS的控制器250的双端口中的一个端口发生故障,或者容许外部线缆发生故障,但不影响整个所述融合式虚拟化存储子系统200的正常工作。
另外,图3A及3B的所述第一服务器节点210的至少一控制器250和第二服务器节点220的至少一控制器250可以使用SSP协议并且通过存储扩展模块(即第一存储扩展模块241、第二存储扩展模块242)和扩展器320与属于SAS驱动器的硬盘驱动器231相连。当然,所述控制器250也可以使用STP协议并且通过存储扩展模块和扩展器320与属于SATA驱动器的硬盘驱动器231相连。在本发明的实施例中,所述控制器250是使用SSP协议并且通过存储扩展模块和扩展器320与属于SAS驱动器的硬盘驱动器231相连。
请参见图3A及3C所示,每一所述控制器250可以具体设置在一第一转接板341(见图3C的标号341)上,例如第一转接板341为Interposer Board,用于处理数据信号和控制信号,并且控制输入和输出,所述存储空间单元240的所述第一存储扩展模块241和第二存储扩展模块242可以具体设置在一第二转接板342(参见图3C中标号342),第二转接板342(又称为MID Plane),分别与第一转接板341和硬盘背板343相连,用于转接数据信号和控制信号。
图4A是本发明一实施例中多个控制器通过多个存储扩展模块与70个硬盘驱动器的连接关系示意图。参见图4A所示,所述融合式虚拟化存储子系统包括四个控制器250,每一个控制器250具有八个端口,每一个控制器250与存储空间单元240的其中一相对应的存储扩展模块直连,所述存储扩展模块分别与所述共享存储池230中对应的硬盘簇310的硬盘驱动器231相连。如图4A所示,第一存储扩展模块241分别与第一组的硬盘驱动器231(0~9硬盘驱动器)、第二组的硬盘驱动器231(10~19硬盘驱动器)、第三组的硬盘驱动器231(20~29硬盘驱动器)以及第四组的硬盘驱动器231(30~39硬盘驱动器)相连。第三存储扩展模块243分别与第一组的硬盘驱动器231(0~9硬盘驱动器)、第二组的硬盘驱动器231(10~19硬盘驱动器)、第三组的硬盘驱动器231(20~29硬盘驱动器)以及第四组的硬盘驱动器231(30~39硬盘驱动器)相连。第二存储扩展模块242分别与第四组的硬盘驱动器231(30~39硬盘驱动器)、第五组的硬盘驱动器231(40~49硬盘驱动器)、第六组的硬盘驱动器231(50~59硬盘驱动器)以及第七组的硬盘驱动器231(60~69硬盘驱动器)相连。第四存储扩展模块244分别与第四组的硬盘驱动器231(30~39硬盘驱动器)、第五组的硬盘驱动器231(40~49硬盘驱动器)、第六组的硬盘驱动器231(50~59硬盘驱动器)以及第七组的硬盘驱动器231(60~69硬盘驱动器)相连。
图4B是本发明一实施例中两个服务器节点与多个存储扩展模块之间的连接关系示意图。参见图4B所示,在本实施例中,所述第一服务器节点210的一控制器250和第二服务器节点220的一控制器250分别通过所述存储空间单元240的两个存储扩展模块连接至所述共享存储池230中同一硬盘簇310。需注意的是,在其他实施例中,所述第一服务器节点210中的控制器250的个数以及所述第二服务器节点220中的控制器250的个数不限于一个,可以为多个。所述第一服务器节点210通过控制器250分别与第一存储扩展模块241和第三存储扩展模块243直连,所述第二服务器节点220通过控制器250分别与第二存储扩展模块242和第四存储扩展模块244直连。所述第一存储扩展模块241和第二存储扩展模块242共同连接至相同的一硬盘簇310,所述第三存储扩展模块243和第四存储扩展模块244共同连接至相同的另一硬盘簇310。由上述配置可知,第一存储扩展模块241和第二存储扩展模块242互为冗余。第三存储扩展模块243和第四存储扩展模块244互为冗余。因此,第一服务器节点210和第二服务器节点220通过上述的冗余设置可以减少或避免因单个服务器节点的故障而使所述融合式虚拟化存储子系统200不能正常运行的情况发生。另外,由上述内容可知,第一服务器节点210和第二服务器节点220采用存储双域技术能够实现同时访问同一个硬盘簇310中的多个硬盘驱动器231,亦即,第一服务器节点210通过第一存储扩展模块241以及第二服务器节点220通过第二存储扩展模块242能够实现同时访问相同的一个硬盘簇310中的多个硬盘驱动器231。同样,第一服务器节点210通过第三存储扩展模块243以及第二服务器节点220通过第四存储扩展模块244也能够实现同时访问相同的另一个硬盘簇310中的多个硬盘驱动器231。
图4C是本发明一实施例中两个服务器节点与多个存储扩展模块之间的连接关系示意图。参见图4C所示,在本实施例中,每一所述存储扩展模块241分别与所述第一服务器节点210的至少一控制器250和所述第二服务器节点220的至少一控制器250相连。第一服务器节点210和第二服务器节点220分别通过控制器250与多个存储扩展模块相连,以连至使得更多的所述共享存储池230中多个硬盘簇310的硬盘驱动器能够与第一服务器节点210和第二服务器节点220中的相应所述控制器250相连,从而创建一较大规模的SAS域。在本实施例中,所述第一服务器节点210包括控制器250,所述第二服务器节点220包括控制器250,所述第一服务器节点210的控制器250和所述第二服务器节点220的控制器250均具有八个HDSAS端口。所述第一服务器节点210的控制器250以双实线方式(作为冗余配置)分别与设置在第二转接板342上的第一存储扩展模块241和第二存储扩展模块242相连。所述第一服务器节点210的控制器250以双虚线方式(作为冗余配置)分别与设置在第二转接板342上的第三存储扩展模块243和第四存储扩展模块244相连。同样,所述第二服务器节点220的控制器250以双虚线方式分别与设置在第二转接板342上的第三存储扩展模块243和第四存储扩展模块244相连。所述第二服务器节点220的控制器250以双实线方式分别与设置在第二转接板342上的第一存储扩展模块241和第二存储扩展模块242相连。由上述配置可知,第一存储扩展模块241和第二存储扩展模块242互为冗余关系,第三存储扩展模块243和第四存储扩展模块244互为冗余关系,从而可以减少或避免因单个控制器250的故障而使所述融合式虚拟化存储子系统不能正常运行的情况发生。
图4D是本发明一实施例中两个服务器节点通过多个存储扩展模块与70个硬盘驱动器的另一种连接关系示意图。参见图4D所示,所述融合式虚拟化存储子系统200中的第一服务器节点210和第二服务器节点220分别通过控制器250连接至第二转接板342(参见图3C中的标号342)上的第一存储扩展模块241、第二存储扩展模块242、第三存储扩展模块243和第四存储扩展模块244。其中第一服务器节点210分别与所述第二转接板342上的第一存储扩展模块241、第二存储扩展模块242、第三存储扩展模块243和第四存储扩展模块244相连,其连接方式与图4C相同。同样,第二服务器节点220也分别与所述第二转接板342上的第一存储扩展模块241、第二存储扩展模块242、第三存储扩展模块243和第四存储扩展模块244相连,其连接方式与图4C相同。所述第一存储扩展模块241、第二存储扩展模块242、第三存储扩展模块243和第四存储扩展模块244再分别连接至所述共享存储池230中多个硬盘簇的硬盘驱动器231,例如,如图4D所示,第一存储扩展模块241分别与第一组的硬盘驱动器231(0~9硬盘驱动器)、第二组的硬盘驱动器231(10~19硬盘驱动器)、第三组的硬盘驱动器231(20~29硬盘驱动器)以及第四组的硬盘驱动器231(30~39硬盘驱动器)相连。第三存储扩展模块243分别与第一组的硬盘驱动器231(0~9硬盘驱动器)、第二组的硬盘驱动器231(10~19硬盘驱动器)、第三组的硬盘驱动器231(20~29硬盘驱动器)以及第四组的硬盘驱动器231(30~39硬盘驱动器)相连。第二存储扩展模块242分别与第四组的硬盘驱动器231(30~39硬盘驱动器)、第五组的硬盘驱动器231(40~49硬盘驱动器)、第六组的硬盘驱动器231(50~59硬盘驱动器)以及第七组的硬盘驱动器231(60~69硬盘驱动器)相连。第四存储扩展模块244分别与第四组的硬盘驱动器231(30~39硬盘驱动器)、第五组的硬盘驱动器231(40~49硬盘驱动器)、第六组的硬盘驱动器231(50~59硬盘驱动器)以及第七组的硬盘驱动器231(60~69硬盘驱动器)相连。结合参考图4C所示,所述第一服务器节点210和第二服务器节点220中的第一个控制器250和第二个控制器250互为冗余设置,并且第一个控制器250和第二个控制器250彼此之间为集群互联(Cluster Interconnect),从而能够在控制器250或线缆发生故障时提供冗余。
在本发明的实施例中,所述共享存储池230中的多个硬盘驱动器231数量为70个。由于本发明所述融合式虚拟化存储子系统200采用Dual Domain SAS方式,因此能够实现第一服务器节点210和第二服务器节点220可以同时访问全部70个硬盘驱动器231。所述第一服务器节点210和第二服务器节点220分别通过所述存储空间单元240的存储扩展模块并利用存储双域技术实现同时访问所述共享存储池230中70个硬盘驱动器231(此处,硬盘驱动器231均为SAS驱动器),从而实现第一服务器节点210和第二服务器节点220的同步,并且保证冗余存储配置和对称途径,因此作为企业级的融合式虚拟化存储子系统200能够保障其数据的可用性和安全性。
参见图5,根据本发明的另一目的,本发明还提供一种融合式虚拟化存储系统500,包括:多个上述的融合式虚拟化存储子系统200;一交换机520,分别与每一所述融合式虚拟化存储子系统200和多个客户端510相连;每一所述客户端510,用于使用户能够通过每一所述客户端510访问相应的一融合式虚拟化存储子系统200。
由于每一所述融合式虚拟化存储子系统200融合所述虚拟服务器211、文件服务器212以及存储设备(例如属于SAS驱动器的硬盘驱动器),所有的连接和配置在设计时进行统一整合,从而能够为用户提供一完整解决方案。更重要一点,本发明将现有技术的三层架构融合为一层架构的融合式虚拟化存储子系统200,并且利用虚拟化方式,使得整个融合式虚拟化存储系统500的配置呈扁平化,进而能够省略传统的三层架构之间的复杂线缆配置。
通过多个融合式虚拟化存储子系统200、多个客户端510(例如PC终端)以及交换机520的配合使用,使得用户能够便捷地通过客户端510访问所需的融合式虚拟化存储子系统200中的硬盘驱动器231内的数据。另外,根据上文可知,利用文件服务器212和虚拟服务器211之间的堆叠技术以及存储双域SAS技术,使得整个融合式虚拟化存储系统500的集群扩展显得较为容易,从而能够使整个融合式虚拟化存储系统500的可靠性和可维护性大大增强。
由上文可知,与现有技术的存储系统相比,本发明所述融合式虚拟化存储系统500利用高密度、高带宽和冗余设计,在一个4U(1U=44.45毫米)的存储系统中融合原有三层架构之间的连接和配置。通过将现有三层架构扁平化成为一层,以体现本发明架构的高密度性,并且融合存储空间单元240的多个存储扩展模块成为同一共享存储池230的接口,其高效率的运用即能实现高带宽。亦即,本发明将现有技术的三层架构融合至一层架构,从而实现节省一半以上的空间,无复杂的层与层之间的线缆连接和拓扑配置流程的目的,同时利用扁平化集成结构能够减少原有三层架构之间的延迟和信号损失,有效地提高系统运行的效率和稳定性。再者,通过系统内部统一的虚拟化,使集群扩展及扩容显得非常简单方便,从而增强整个系统的可靠性和可维护性。
以上所述仅是本发明的优选实施例,应当指出,对于本技术领域的普通技术人员,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。

Claims (9)

1.一种融合式虚拟化存储子系统,其特征在于,至少包括:
一第一服务器节点;
一第二服务器节点;以及
一共享存储池,包括至少一硬盘簇,所述第一服务器节点与所述第二服务器节点能够同时访问所述共享存储池;
其中,所述融合式虚拟化存储子系统安装有一操作系统,所述操作系统内定义一存储空间单元,所述第一服务器节点和所述第二服务器节点分别通过所述存储空间单元访问所述共享存储池中的所述至少一硬盘簇,实现所述第一服务器节点和所述第二服务器节点的同步,进而保证冗余存储的配置,所述操作系统内设置一文件服务器与一虚拟服务器,所述虚拟服务器通过基于所述操作系统的应用程序堆叠方式与所述文件服务器对应相连,实现所述虚拟服务器与所述文件服务器的快捷匹配;
所述第一服务器节点和第二服务器节点均进一步包括至少一控制器,所述第一服务器节点的至少一所述控制器和第二服务器节点的至少一所述控制器分别耦接至所述至少一硬盘簇。
2.根据权利要求1所述融合式虚拟化存储子系统,其特征在于,所述文件服务器分别配置所述第一服务器节点与所述第二服务器节点,所述虚拟服务器分别配置所述第一服务器节点与所述第二服务器节点。
3.根据权利要求1所述融合式虚拟化存储子系统,其特征在于,所述第一服务器与所述第二服务器通过采用存储双域技术实现同时访问所述共享存储池。
4.根据权利要求1所述融合式虚拟化存储子系统,其特征在于所述第一服务器与所述第二服务器为多个。
5.根据权利要求1所述融合式虚拟化存储子系统,其特征在于,所述融合式虚拟化存储子系统设置在一台服务器中。
6.根据权利要求1所述融合式虚拟化存储子系统,其特征在于,更包括至少一存储扩展模块,每一所述控制器通过所述至少一存储扩展模块连接至所述至少一硬盘簇。
7.根据权利要求6所述融合式虚拟化存储子系统,其特征在于,所述第一服务器节点的至少一所述控制器和第二服务器节点的至少一所述控制器分别通过所述至少一存储扩展模块连接至同一所述硬盘簇。
8.根据权利要求7所述融合式虚拟化存储子系统,其特征在于,每一所述存储扩展模块分别与所述第一服务器节点的至少一控制器和所述第二服务器节点的至少一控制器相连。
9.一种融合式虚拟化存储系统,其特征在于,包括:
多个根据权利要求1所述的融合式虚拟化存储子系统;
一交换机,分别与每一所述融合式虚拟化存储子系统和多个客户端相连;
每一所述客户端,用于使用户能够通过每一所述客户端访问相对应的一所述融合式虚拟化存储子系统。
CN201410357408.4A 2014-07-25 2014-07-25 融合式虚拟化存储系统 Active CN104135514B (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201410357408.4A CN104135514B (zh) 2014-07-25 2014-07-25 融合式虚拟化存储系统
US14/507,218 US9641612B2 (en) 2014-07-25 2014-10-06 Virtualized fusion storage system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201410357408.4A CN104135514B (zh) 2014-07-25 2014-07-25 融合式虚拟化存储系统

Publications (2)

Publication Number Publication Date
CN104135514A CN104135514A (zh) 2014-11-05
CN104135514B true CN104135514B (zh) 2017-10-17

Family

ID=51808036

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201410357408.4A Active CN104135514B (zh) 2014-07-25 2014-07-25 融合式虚拟化存储系统

Country Status (2)

Country Link
US (1) US9641612B2 (zh)
CN (1) CN104135514B (zh)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016094291A1 (en) 2014-12-08 2016-06-16 Umbra Technologies Ltd. System and method for content retrieval from remote network regions
US11711346B2 (en) 2015-01-06 2023-07-25 Umbra Technologies Ltd. System and method for neutral application programming interface
CN115834534A (zh) 2015-01-28 2023-03-21 安博科技有限公司 用于全局虚拟网络的系统
JP2018515974A (ja) 2015-04-07 2018-06-14 アンブラ テクノロジーズ リミテッドUmbra Technologies Ltd. グローバル仮想ネットワーク(gvn)において仮想インタフェースとアドバンストスマートルーティングとを提供するためのシステム及び方法
US10303637B2 (en) * 2015-08-20 2019-05-28 Toshiba Memory Corporation Storage system including a plurality of storage devices arranged in a holder
CN114726847A (zh) 2015-12-11 2022-07-08 安博科技有限公司 用于网络挂毯和瞬间粒度上的信息弹弓的系统和方法
CN113810483A (zh) 2016-04-26 2021-12-17 安博科技有限公司 经由挂毯弹弓的网络弹射
CN113609064B (zh) * 2021-07-16 2023-11-17 深圳市国鑫恒运信息安全有限公司 一种便于适配不同宽度和配置的4u节点式服务器

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2704461A1 (en) * 2009-05-22 2010-11-22 Comcast Interactive Media, Llc Web service system and method
CN102710752A (zh) * 2012-05-13 2012-10-03 徐州易存信息技术有限公司 灾备存储系统
CN103503414A (zh) * 2012-12-31 2014-01-08 华为技术有限公司 一种计算存储融合的集群系统
CN103810113A (zh) * 2014-01-28 2014-05-21 华中科技大学 一种非易失存储器和动态随机存取存储器的融合内存系统

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI476610B (zh) * 2008-04-29 2015-03-11 Maxiscale Inc 同級間冗餘檔案伺服器系統及方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2704461A1 (en) * 2009-05-22 2010-11-22 Comcast Interactive Media, Llc Web service system and method
CN102710752A (zh) * 2012-05-13 2012-10-03 徐州易存信息技术有限公司 灾备存储系统
CN103503414A (zh) * 2012-12-31 2014-01-08 华为技术有限公司 一种计算存储融合的集群系统
CN103810113A (zh) * 2014-01-28 2014-05-21 华中科技大学 一种非易失存储器和动态随机存取存储器的融合内存系统

Also Published As

Publication number Publication date
CN104135514A (zh) 2014-11-05
US9641612B2 (en) 2017-05-02
US20160028807A1 (en) 2016-01-28

Similar Documents

Publication Publication Date Title
CN104135514B (zh) 融合式虚拟化存储系统
CN103152397B (zh) 一种多协议存储系统设计方法
AU2018200155B2 (en) Method And Apparatus To Manage The Direct Interconnect Switch Wiring And Growth In Computer Networks
JP6317856B2 (ja) クラスタ間冗長構成におけるスムーズな制御部交代
CN103201721B (zh) 虚拟机热迁移的系统和方法
CN106462498B (zh) 用于数据存储系统的模块化交换架构
CN103503414B (zh) 一种计算存储融合的集群系统
US8943258B2 (en) Server direct attached storage shared through virtual SAS expanders
JP6137313B2 (ja) 高可用性コンピュータシステム
CN106899518A (zh) 一种基于互联网数据中心的资源处理方法以及装置
CN102546813A (zh) 一种基于x86 PC架构的高性能集群计算系统
US8788753B2 (en) Systems configured for improved storage system communication for N-way interconnectivity
WO2015007422A1 (en) Dynamic formation of symmetric multi-processor (smp) domains
CN205490680U (zh) 基于通用服务器和通用交换机的高可用云计算系统
CN101739220A (zh) 一种多控制器存储阵列的设计方法
CN106814976A (zh) 集群存储系统及应用其的数据交互方法
CN105472047A (zh) 存储系统
CN105335168A (zh) 实现操作系统远程配置的系统、方法及装置
WO2024221975A1 (zh) 融合架构系统、非易失性存储系统及存储资源获取方法
WO2016082442A1 (zh) 一种存储系统及交换扩展装置
CN207704423U (zh) 电网调度中资源池一体化构建系统
CN105511990B (zh) 基于融合架构双冗余度存储控制节点架构的装置
CN103746941A (zh) 一种板级互联大数据一体机
CN116700445A (zh) 一种基于分布式存储硬件架构的全闪存arm存储服务器
CN108762672A (zh) 分布式存储设备、方法及级联模块

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant