[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

WO2014136263A1 - ストレージシステム、ストレージ装置の制御方法及びプログラム - Google Patents

ストレージシステム、ストレージ装置の制御方法及びプログラム Download PDF

Info

Publication number
WO2014136263A1
WO2014136263A1 PCT/JP2013/056500 JP2013056500W WO2014136263A1 WO 2014136263 A1 WO2014136263 A1 WO 2014136263A1 JP 2013056500 W JP2013056500 W JP 2013056500W WO 2014136263 A1 WO2014136263 A1 WO 2014136263A1
Authority
WO
WIPO (PCT)
Prior art keywords
storage device
data
storage
stores
rule
Prior art date
Application number
PCT/JP2013/056500
Other languages
English (en)
French (fr)
Inventor
浩明 久保田
Original Assignee
株式会社 東芝
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社 東芝 filed Critical 株式会社 東芝
Priority to JP2013541133A priority Critical patent/JP5612223B1/ja
Priority to PCT/JP2013/056500 priority patent/WO2014136263A1/ja
Publication of WO2014136263A1 publication Critical patent/WO2014136263A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0628Interfaces specially adapted for storage systems making use of a particular technique
    • G06F3/0646Horizontal data movement in storage systems, i.e. moving data in between storage devices or systems
    • G06F3/0647Migration mechanisms
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0602Interfaces specially adapted for storage systems specifically adapted to achieve a particular effect
    • G06F3/061Improving I/O performance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0628Interfaces specially adapted for storage systems making use of a particular technique
    • G06F3/0653Monitoring storage devices or systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0668Interfaces specially adapted for storage systems adopting a particular infrastructure
    • G06F3/0671In-line storage system
    • G06F3/0673Single storage device
    • G06F3/068Hybrid storage device
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F12/00Accessing, addressing or allocating within memory systems or architectures
    • G06F12/02Addressing or allocation; Relocation
    • G06F12/0223User address space allocation, e.g. contiguous or non contiguous base addressing
    • G06F12/023Free address space management
    • G06F12/0238Memory management in non-volatile memory, e.g. resistive RAM or ferroelectric memory
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2212/00Indexing scheme relating to accessing, addressing or allocation within memory systems or architectures
    • G06F2212/72Details relating to flash memory management
    • G06F2212/7202Allocation control and policies
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2212/00Indexing scheme relating to accessing, addressing or allocation within memory systems or architectures
    • G06F2212/72Details relating to flash memory management
    • G06F2212/7208Multiple device management, e.g. distributing data over multiple flash devices

Definitions

  • Embodiments described herein relate generally to a storage system used in a cloud system, a storage apparatus control method, and a program.
  • the storage system includes a plurality of types of storage devices and is hierarchized according to performance (for example, response performance).
  • performance for example, response performance
  • an SSD is an example of a solid-state drive that is fast but expensive
  • an HDD is an example of a hard disk drive that is inexpensive but inexpensive.
  • Each SSD and HDD is also classified into several types according to performance, and is similarly hierarchized.
  • the storage system assigns a data storage destination to one of a plurality of storage devices so that frequently accessed data is stored in a high-speed storage device and data that is not frequently accessed is stored in a low-speed storage device.
  • the object of the present invention is to optimize the storage device so that the service user can use the service comfortably at a low price and at high speed in a system in which the service provider provides the service user on the network.
  • a storage system, a storage apparatus control method, and a program can be provided.
  • the storage system includes a high-speed first storage device, a second storage device that is slower than the first storage device, a service providing server that provides a plurality of application services, a controller, data Moving means and adjusting means.
  • the controller stores data related to a plurality of application services in either the first storage device or the second storage device according to a predetermined rule.
  • the moving means moves data from the second storage device to the first storage device in response to a request from the service providing server, and from the first storage device to the second storage device in accordance with the amount of data stored in the first storage device. Data is moved to another storage device.
  • the adjustment unit is configured to provide data related to an application service in which movement of data from the second storage device to the first storage device is small among a plurality of application services when the storage data amount of the first storage device is equal to or greater than the upper limit.
  • the predetermined rule is changed so that the amount of data stored in the first storage device decreases.
  • FIG. 2 is a diagram illustrating an example of a configuration of a storage system in FIG. 1. It is a figure which shows an example of a structure of the index table which the policy adjustment part of FIG. 2 stores.
  • 3 is a flowchart showing an example of tearing processing by the controller of FIG. 2. It is a figure which shows an example of a structure of the tearing table which the policy adjustment part of FIG. 2 stores. It is a flowchart which shows an example of the policy adjustment process by the policy adjustment part of FIG.
  • FIG. 1 shows a cloud system in which a service provider provides an application service to a service user on a network.
  • Service providing servers 12A and 12B corresponding to the service user are connected to the network 18 of the service provider.
  • User terminals 10A and 10B are connected to service providing servers 12A and 12B via communication lines 20A and 20B such as a virtual private network (VPN).
  • the number of user terminals connected to the service providing servers 12A and 12B is not limited to a single number, and is usually a large number.
  • the service provider's operation management server 14 and hybrid storage system 16 are also connected to the network 18.
  • the service providing servers 12A and 12B and the hybrid storage system 16 may be connected by another means such as a fiber channel.
  • the service providing servers 12A and 12B may be configured from a plurality of separate physical servers, or may be configured from a single physical server.
  • the service providing servers 12A and 12B and the operation management server 14 may also be configured from separate physical servers, or may be configured from a single physical server.
  • the service providing server 12A is a physical server for executing an application service for the user of the terminal 10A, and includes a plurality of virtual servers 12A 1 , 12A 2 , 12A 3 , 12A 4 ,.
  • Each virtual server 12A 1, 12A 2, 12A 3 , 12A 4, ... is, CPU, computational resources such as memory and virtualization is a server program for providing an application service actually operates. Therefore, when there is one application service to be provided, there is one virtual server.
  • any one of the virtual servers 12A 1 , 12A 2 , 12A 3 , 12A 4 ,... Is assigned to the plurality of application services for each function / role.
  • virtual servers 12A 1 , 12A 2 , 12A 3 , 12A 4 ,... are provided. Since the application service is provided by the virtual server, a single service providing server 12 may be provided for a plurality of users and a plurality of application services.
  • the service providing server 12B is configured similarly to the service providing server 12A.
  • the hybrid storage system 16 commonly used as the storage area of the virtual servers 12A 1 , 12A 2 , 12A 3 , 12A 4 ,..., 12B 1 , 12B 2 ,. 2) first and second storage devices 16 1 , 16 2 and a controller 22.
  • the controller 22 controls how the hybrid storage system 16 allocates and stores the data received from each virtual server to the first and second storage devices 16 1 , 16 2 .
  • the first storage device 16 1 is a flash array is expensive but fast, as an example is SSD.
  • the second storage device 18 2 is slow is a storage which is inexpensive, it is the HDD as an example.
  • a flash array is a storage that uses a NAND flash memory as a storage medium to achieve high performance, large capacity, and power saving, and further improves reliability by RAID technology.
  • the flash array enables high-speed data transfer by PCI Express and can also be connected to a fiber channel.
  • a high-speed storage device such as a flash array as a cache
  • an automatic tearing method for determining a data storage area based on rules and policies.
  • the storage system is not limited to a combination of a plurality of types of storage devices with different performances, and may be composed of a plurality of storage devices with the same types and different performances.
  • a SAS Serial Attached SCAI
  • SATA Serial ATA
  • the operation management server 14 includes a controller 24 and a policy storage module 28.
  • An administrator terminal 26 is connected to the operation management server 14.
  • the administrator terminal 26 may be connected via a network.
  • a combination method of the storage apparatuses 16 1 and 16 2 is stored in the policy storage module 28 in advance as a policy.
  • the administrator selects an appropriate policy for each virtual server in accordance with the contract status (capacity, response performance, etc.) of the user, and sets it in the controller 22 of the storage system 16 (initial setting of the policy).
  • the policy is a combination method of the storage devices 16 1 and 16 2 for each virtual server, but the contract may be for each user instead of for each virtual server. That is, the storage capacity and response performance may be contracted for each virtual server, or the storage capacity and response performance may be contracted for each user.
  • the policy storage module 28 is at least one of these schemes. Storing scheme, or a plurality of the method combining the method as a policy. The policy is created and stored by operating the administrator terminal 26 by the operation manager.
  • No. 2 Stores the 70% of the data in SSD16 1, stores the 30% of the data in the HDD 16 2.
  • No. 3 is accessed in the specified time period data stored in SSD16 1, other data may be stored in the HDD 16 2.
  • No. 4 storing frequently accessed data in SSD16 1, stores access frequency lower data into HDD 16 2.
  • SSD16 1 uses to specify volume, SSD16 1 possible data up to a specified volume is stored, it stores the data into HDD 16 2.
  • the controller 24 selectively reads one of the policies 28 1 , 28 2 , 28 3 ,... From the policy storage module 28 according to the function / role of the virtual server, and reads the read policy to the controller 22 of the storage system 16. Set for each virtual server.
  • Policies 30, 32, 34, 36, 38,... are set for the virtual servers 12 A 1 , 12 A 2 , 12 A 3 , 12 B 1 , 12 B 2 ,.
  • the policy 30 of the virtual server 12A 1 is the policy 1 (the SSD 16 1 is always used)
  • the policy 32 of the virtual server 12A 2 is the policy 2 (70% of the data is stored in the SSD 16 1 and 30% of the data is stored).
  • virtual server 12A policy 3 policy 34 3 (had access to the specified time period T1 data stored in SSD16 1, the other data stored in the HDD 16 2) but (to store frequently accessed data in SSD16 1, the access frequency stores the lower data into HDD 16 2)
  • Policy 4 is a policy 36 of the virtual server 12B 1 is policy to policy 38 of the virtual server 12B 2 1 (HDD 16 2 constantly using) is set.
  • policy sets a storage method of data into SSD16 1, HDD 16 2 combined for each virtual server.
  • the SSD 16 1 and the HDD 16 2 are combined to form a virtual storage. Therefore, in FIG. 2, the combination of the policy and the SSD 16 1 and the HDD 16 2 is a virtual storage for the virtual server. It is the policy that defines.
  • the controller 22 of the storage system 16 also includes a policy adjustment unit 42.
  • Policy adjustment unit 42 monitors the operation of storing the data relating to the virtual server to any of SSD16 1 and HDD 16 2 according to the policy, to create an index table as shown in FIG. 3, and stores.
  • the index table includes a storage address, latest access date and time, and access frequency for each data.
  • the data is specified by a file name, block number, i-node, or the like.
  • FIG. 4 is a flowchart showing an example of the tearing process of the storage system 16.
  • the storage capacity of the storage system 16 assigned to each virtual server is used effectively, and the SSD 16 1 and the HDD 16 2 constituting the virtual storage for each virtual server are configured so as not to deteriorate the overall response performance. Is to move the data as appropriate.
  • the tearing process may be performed periodically once a day, for example, or may be performed when the storage status of the storage system allocated to the virtual server is monitored and the data storage amount reaches a predetermined capacity.
  • block 402 it is determined whether or not it is a scheduled tearing time. If it is not the scheduled time, it is determined whether the storage amount of SSD16 1 data in block 404 is greater than the upper limit of the capacity allocated to the virtual server. If it is below the upper limit, return to block 402.
  • the data to be moved in blocks 406 and 410 is selected based on the access frequency, but may be selected based on the latest access date and time. For example, at block 406, moves the data last access date older among the data SSD16 1 is stored in the HDD 16 2, at block 410, the new data is last access date of the data HDD 16 2 is stored SSD16 may be moved to 1.
  • each virtual server is assigned SSD16 1, HDD 16 but there was a movement of data within the second volume, such as if the contracted storage capacity and response performance for each user, not per virtual server may move data within the capacity of the user SSD16 is assigned to multiple virtual servers that have contracted 1, HDD 16 2.
  • Tearing treatment is a a movement of data within the allocated capacity of the virtual server or each user, if SSD16 1 total free space is almost gone, without being completely adjusted by tearing, as shown in FIG. 6 Policy adjustment processing is performed.
  • the system determines whether the total amount of the entire SSD16 1 (sum of the amount of all users) is equal to or higher than the upper. Despite SSD16 1 total amount of the whole is equal to or higher than the upper, when you try to further store data in SSD16 1, the system will be down. In order to avoid this, when the total usage amount of the entire SSD 16 1 is equal to or more than the upper limit, a policy of a virtual server with a small number of tears from the HDD to the SSD in block 604 is set so that the saving ratio to the SSD 16 1 is low. ,adjust.
  • the number of tearings for each virtual server can be known from the tearing table shown in FIG. For example, if the virtual server 12A 2 is the most tearing the small number, 60% proportion of the policy 2: Change 40%, if the virtual server 12A 3 and most tearing the small number, to shorten the period specified policy 3 . If, when the virtual server 12A 1 is the most tearing the small number, changes the policy 1 policy 2, and stores the 90% of the data in SSD16 1, so as to store 10 percent of the data in the HDD 16 2. Thus, the SSD16 1 volume, to the extent that the system does not go down, can be effectively utilized.
  • the user determines whether the total amount of the whole SSD16 1 is below the lower limit. If the total usage amount of the entire SSD 16 1 is equal to or lower than the lower limit, the user can improve the perceived speed by using more SSD 16 1 . Therefore, when the total amount of the entire SSD16 1 is the lower limit or less, more policies of tearing the number of times the SSD from the HDD at block 608, as stored proportion to SSD16 1 increases, adjusted. If the policy of a virtual server with a high number of tears is changed, the access speed of data frequently accessed by the user increases, so that the user's perceived speed also increases.
  • the virtual server 12A 2 has the highest number of tearing times, the ratio of policy 2 is changed to 80%: 20%, and if the virtual server 12A 3 has the highest number of tearing times, the specified period of policy 3 is lengthened. . If, when the virtual server 12B 2 is the most tearing a large number of times, change the policy 1 policy 2, and stores the 10% of the data in SSD16 1, so as to store 90 percent of the data in the HDD 16 2. This makes it possible to effectively utilize the SSD16 1 capacity. Although not shown, the tearing count may be cleared when policy adjustment is completed.
  • policy adjustments and tiering times may be accumulated for each application server. This is because the same type of application service of the same user may be realized by a plurality of virtual servers. That is, in the case where the file server is realized by two or more virtual servers, it may be more effective to adjust the policy as a file server rather than adjusting the policy for each virtual server.
  • the SSD16 1, HDD 16 2 of the configuration to be provided to users by changing as appropriate according to usage SSD16 1, without SSD16 1 high response performance is system down, using the high response performance SSD16 1
  • the service level it is possible to mix the HDD 16 2 low response performance in service, it is possible to reduce the overall service costs.
  • the larger the capacity the lower the price / capacity ratio and the better the cost performance.
  • this method can provide a large capacity storage device to multiple service users and the overall service. Cost can be reduced.
  • a plurality of service providing servers are realized by a plurality of physical servers, so that a plurality of application services are provided to a single customer, or an application service for a plurality of customers is provided. can do.
  • a plurality of virtual servers may be mixed in a plurality of physical servers without separating the physical servers for a plurality of application services or a plurality of customers. In this case, it is preferable to use virtual network technology for each application service and customer to separate the networks.
  • the tearing number used to determine whether or not to adjust the policy in blocks 604 and 608 in FIG. 6 is the number of times data is transferred from the HDD to the SSD, but is not limited to this. It may be determined whether or not the policy is adjusted in consideration of the number of times of data movement. The frequency of policy adjustment may be periodically performed once a day, for example. Also in this case, the tearing count is cleared for each adjustment.
  • the present invention is not limited to the above-described embodiment as it is, and can be embodied by modifying constituent elements without departing from the scope of the invention in the implementation stage. Further, various inventions can be formed by appropriately combining a plurality of constituent elements disclosed in the embodiment. For example, some components may be deleted from all the components shown in the embodiment. Furthermore, you may combine suitably the component covering different embodiment.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

 実施形態によれば、高速の第1のストレージ装置と、低速の第2のストレージ装置と、複数のアプリケーションサービスを提供するサービス提供サーバと、コントローラと、移動手段と、調整手段とを具備する。コントローラは、複数のアプリケーションサービスに関するデータを所定ルールに従い第1のストレージ装置と第2のストレージ装置のいずれかに格納する。移動手段は、第1のストレージ装置が記憶しているデータ量に応じて第1のストレージ装置から第2のストレージ装置へデータを移動する。調整手段は、第1のストレージ装置の格納データ量が上限以上の場合、複数のアプリケーションサービスの中で、第2のストレージ装置から第1のストレージ装置へのデータの移動が少ないアプリケーションサービスに関するデータについての所定ルールを、第1のストレージ装置の格納データ量が減少するように、変更する。

Description

ストレージシステム、ストレージ装置の制御方法及びプログラム
 本発明の実施形態はクラウドシステムに用いられるストレージシステム、ストレージ装置の制御方法及びプログラムに関する。
 従来、ネットワーク上でサービス提供者がサービス利用者に種々のサービスを提供するクラウドシステムが実用されている。このようなシステムでは、データはサービス提供者が所有するストレージシステムに格納される。このようにストレージシステムを共有することにより、個人でストレージシステムを所有するよりも、はるかに低コストでストレージシステムを利用することができる。ストレージシステムは、複数種類のストレージ装置を含み、性能(例えば、レスポンス性能)に応じて階層化されている。ストレージ装置には、例えば、高速であるが高価であるソリッドステートドライブの一例としてはSSDがあり、低速であるが安価であるハードディスクドライブの一例としてHDDがある。なお、SSDやHDDのそれぞれも性能によりいくつかの種類に分類され、同様に階層化されている。ストレージシステムは、頻繁にアクセスされるデータを高速のストレージ装置に格納し、あまりアクセスされないデータを低速のストレージ装置に格納するように、データの格納先を複数のストレージ装置のいずれかに割り当てる。
 サービス利用者の規模(従業員数等)や、レスポンス性能に対する要求や、必要とするデータ記録領域の容量、料金等に応じて、いくつかの異なる種類のストレージ装置を適宜な比率で組み合わせて、サービス利用者に提供する。
特開2011-70627号公報 特開2006-79273号公報 特開2006-79274号公報
 従来の情報処理システムは、膨大な数のサービス利用者が契約しているが、全てのサービス利用者が常に契約した記憶容量をフルに利用するとは限らない前提でストレージ装置の組み合わせ及び料金を決めている。もしも、全てのサービス利用者が常に契約容量をフルに利用するという前提でストレージ装置の組み合わせ及び料金を決めると、ストレージシステムの使用料金が高額になり、クラウドシステムの長所が発揮できない。しかしながら、サービス利用の状況によっては、高速のストレージ装置の残容量が0となり、さらに高速のストレージ装置にデータを書き込もうとすると、ストレージシステムがダウンする恐れがある。
 本発明の目的は、ネットワーク上でサービス提供者がサービス利用者にサービスを提供するシステムにおいて、サービス利用者がサービスを低価格で、かつ、高速がゆえに快適に利用できるように、ストレージ装置を最適に組み合わせることができるストレージシステム、ストレージ装置の制御方法及びプログラムを提供することである。
 実施形態によれば、ストレージシステムは、高速の第1のストレージ装置と、第1のストレージ装置より低速の第2のストレージ装置と、複数のアプリケーションサービスを提供するサービス提供サーバと、コントローラと、データ移動手段と、調整手段と、を具備する。コントローラは、複数のアプリケーションサービスに関するデータを所定ルールに従い第1のストレージ装置と第2のストレージ装置のいずれかに格納する。移動手段は、サービス提供サーバからの要求に応じて第2のストレージ装置から第1のストレージ装置へデータを移動し、第1のストレージ装置の格納データ量に応じて第1のストレージ装置から第2のストレージ装置へデータを移動する。調整手段は、第1のストレージ装置の格納データ量が上限以上の場合、複数のアプリケーションサービスの中で、第2のストレージ装置から第1のストレージ装置へのデータの移動が少ないアプリケーションサービスに関するデータについての所定ルールを、前記第1のストレージ装置の格納データ量が減少するように、変更する。
第1実施形態のクラウドシステムの構成の一例を示す図である。 図1のストレージシステムの構成の一例を示す図である。 図2のポリシー調整部が格納するインデックステーブルの構成の一例を示す図である。 図2のコントローラによるティアリング処理の一例を示すフローチャートである。 図2のポリシー調整部が格納するティアリングテーブルの構成の一例を示す図である。 図2のポリシー調整部によるポリシー調整処理の一例を示すフローチャートである。
 図1は、ネットワーク上でサービス提供者がサービス利用者にアプリケーションサービスを提供するクラウドシステムを示す。図1では、図示の便宜上、サービス利用者(契約者)は2社とするが、多数のサービス利用者が含まれ得る。サービス利用者に対応しているサービス提供サーバ12A、12Bがサービス提供者のネットワーク18に接続される。利用者端末10A、10Bが、仮想プライベートネットワーク(VPN)等の通信回線20A、20Bを介してサービス提供サーバ12A、12Bに接続される。サービス提供サーバ12A、12Bに接続される利用者端末の数は単数に限られず、通常は多数である。
 サービス提供者の運用管理サーバ14、ハイブリッドストレージシステム16もネットワーク18に接続される。ただし、サービス提供サーバ12A、12Bとハイブリッドストレージシステム16の間は、ファイバーチャネルなどの別の手段で接続されることもある。サービス提供サーバ12A、12Bは別個の複数の物理サーバから構成されてもよいし、単一の物理サーバから構成されてもよい。さらに、サービス提供サーバ12A、12B、運用管理サーバ14も別個の物理サーバから構成されてもよいし、単一の物理サーバから構成されてもよい。
 サービス提供サーバ12Aは、端末10Aの利用者に対してアプリケーションサービスを実行するための物理サーバであり、複数の仮想サーバ12A、12A、12A、12A、…を含む。各仮想サーバ12A、12A、12A、12A、…は、CPU、メモリ等の計算リソースを仮想化して、実際にアプリケーションサービスを提供するためのプログラムが動作するサーバである。そのため、提供するアプリケーションサービスが1つの場合は、仮想サーバは1つである。提供するアプリケーションサービスが複数の場合は、複数のアプリケーションサービスに対してその機能・役割毎にそれぞれ仮想サーバ12A、12A、12A、12A、…のいずれかが割り当てられる。例えば、仮想デスクトップを提供するためのデスクトッププログラム、ファイル格納・共有領域を提供するためのファイルサーバプログラム、ドメインサービスを提供するためのドメインコントローラプログラム、プリントサービスを提供するためのプリンタサーバプログラム等に対応して仮想サーバ12A、12A、12A、12A、…が設けられる。なお、アプリケーションサービスを提供するのは仮想サーバであるので、複数の利用者、複数のアプリケーションサービスであってもサービス提供サーバ12は1つでもよい。
 サービス提供サーバ12Bも、サービス提供サーバ12Aと同様に構成される。
 仮想サーバ12A、12A、12A、12A、…、12B、12B、…のストレージ領域として共通に用いられるハイブリッドストレージシステム16は、性能(例えば、レスポンス性能)の異なる複数(ここでは、2つ)の第1、第2ストレージ装置16、16と、コントローラ22を含む。コントローラ22はハイブリッドストレージシステム16が各仮想サーバから受け取ったデータを第1、第2ストレージ装置16、16にどのように割り当てて格納するかを制御する。
 例えば、第1ストレージ装置16は高速であるが高価であるフラッシュアレイであり、一例としてはSSDである。第2ストレージ装置18は低速であるが安価であるストレージであり、一例としてはHDDである。フラッシュアレイは、NANDフラッシュメモリを記憶媒体として用いることにより、高性能・大容量・省電力を実現し、さらにRAID技術により信頼性を高めストレージである。また、フラッシュアレイは、PCI Expressにより高速なデータ転送を可能とし、ファイバーチャネル接続も可能である。SSD16の性能の一例は32TBの容量で、従来のHDDの性能を大幅に上回る100万IOPS(IPOSは1秒当たりに読み込み・書き込みできる回数である)である。
 複数のストレージ装置16、16を組み合わせて仮想サーバに割り当てる方法としては、フラッシュアレイ等の高速なストレージ装置をキャッシュとして利用する方法や、高速ストレージ装置から低速ストレージ装置までを順に階層化して配置して、ルールやポリシーに基づいてデータの格納領域を決定する自動ティアリング方法がある。
 ストレージシステムは性能の異なる複数種類のストレージ装置の組み合わせに限らず、同じ種類で性能の異なる複数のストレージ装置から構成してもよい。例えば、SAS (Serial Attached SCAI) HDDとSATA (Serial ATA) HDDとを組み合わせてもよい。
 運用管理サーバ14は、コントローラ24と、ポリシー格納モジュール28を含む。運用管理サーバ14には管理者端末26が接続される。管理者端末26はネットワークを経由して接続されてもよい。
 本実施形態では、ストレージ装置16、16の組み合わせ方法をポリシーとしてポリシー格納モジュール28に予め格納している。管理者は利用者の契約状況(容量、レスポンス性能等)に応じて、仮想サーバ毎に適切なポリシーを選び、ストレージシステム16のコントローラ22に設定(ポリシーの初期設定)する。なお、ポリシーは仮想サーバ毎のストレージ装置16、16の組み合わせ方法であるが、契約は仮想サーバ毎ではなく、ユーザ毎でもよい。すなわち、仮想サーバ毎に記憶容量とレスポンス性能を契約してもよいし、ユーザ毎に記憶容量とレスポンス性能を契約してもよい。
 ストレージ装置の組み合わせ方式としては以下のような例がある。
 ・ある仮想サーバは指定されたストレージ装置のみを常時使用する方式
 ・指定された期間にアクセスされたブロック、あるいはファイルを指定されたストレージ装置に格納し、それ以外のブロック、あるいはファイルを別のストレージ装置に格納する方式
 ・指定された期間に指定回数以上アクセスされたブロック、あるいはファイルを指定されたストレージ装置に格納し、それ以外のブロック、あるいはファイルを別のストレージ装置に格納する方式
 ・指定されたデータ容量までは指定されたストレージ装置にデータ格納し、指定された容量を超えた場合は別のストレージ装置に格納する方式
 ・データを指定された容量の比率で、それぞれのストレージ装置に格納する方式
 ポリシー格納モジュール28は、これらの方式の少なくとも1つの方式、あるいは複数の方式を組み合わせた方式をポリシーとして格納する。ポリシーの作成、格納は運用管理者が管理者端末26を操作することにより行う。
 ポリシーの一例は下記の通りである。
 No.1:SSD16、あるいはHDD16を常時使用する。
 No.2:データの70%をSSD16に格納し、データの30%をHDD16に格納する。
 No.3:指定された期間にアクセスされたデータはSSD16に格納し、それ以外のデータはHDD16に格納する。
 No.4:アクセス頻度が高いデータをSSD16に格納し、アクセス頻度が低いデータをHDD16に格納する。
 No.5:SSD16を指定容量まで使い、SSD16が指定容量までデータが格納されている場合は、データをHDD16に格納する。
 No.6:SSD16、HDD16を1:1の割合で使い分ける。
 コントローラ24は、仮想サーバの機能・役割に応じて、ポリシー格納モジュール28からポリシー28、28、28、…のいずれかを選択的に読み出し、読み出したポリシーをストレージシステム16のコントローラ22に仮想サーバ毎に設定する。
 ポリシーがコントローラ22に設定された状態を図2に示す。仮想サーバ12A、12A、12A、12B、12B、…に対してポリシー30、32、34、36、38、…が設定される。例えば、仮想サーバ12Aのポリシー30にはポリシー1(SSD16を常時使用する)が、仮想サーバ12Aのポリシー32にはポリシー2(データの70%をSSD16に格納し、データの30%をHDD16に格納する)が、仮想サーバ12Aのポリシー34にはポリシー3(指定された期間T1にアクセスがあったデータはSSD16に格納し、それ以外のデータはHDD16に格納する)が、仮想サーバ12Bのポリシー36にはポリシー4(アクセス頻度が高いデータをSSD16に格納し、アクセス頻度が低いデータをHDD16に格納する)が、仮想サーバ12Bのポリシー38にはポリシー1(HDD16を常時使用する)が設定される。
 このようにポリシーは、仮想サーバ毎に組み合わせるSSD16,HDD16へのデータの格納方法を設定する。この格納方法でSSD16,HDD16が組み合わされて仮想ストレージが構成されるので、図2において、ポリシーとSSD16,HDD16との組み合わせは、仮想サーバに対する仮想ストレージであり、仮想ストレージの構成を定義するのがポリシーである。
 ストレージシステム16のコントローラ22はポリシー調整部42も含む。ポリシー調整部42は、仮想サーバに関するデータをポリシーに従ってSSD16とHDD16のいずれかに保存する動作を監視し、図3に示すようなインデックステーブルを作成し、記憶する。インデックステーブルは、データ毎の格納アドレス、最新アクセス日時、アクセス頻度からなる。データは、ファイル名、ブロック番号、あるいはi-node等により特定される。
 図4はストレージシステム16のティアリング処理の一例を示すフローチャートである。ティアリング処理とは、仮想サーバ毎に割り当てられているストレージシステム16の記憶容量を有効に使うとともに、全体のレスポンス性能を落とさないように、仮想サーバ毎の仮想ストレージを構成するSSD16とHDD16間でデータを適宜移動することである。ティアリング処理は、例えば、1日1回定期的に行ってもよいし、仮想サーバに割り当てられているストレージシステムの使用状況を監視し、データの記憶量が所定容量になると実施しても良い。
 そのため、先ず、ブロック402でティアリング予定時刻か否か判定する。予定時刻でない場合は、ブロック404でSSD16のデータの記憶量が当該仮想サーバに割り当てられている容量の上限を超えているか否か判定する。上限以下である場合は、ブロック402に戻る。
 予定時刻になった場合、あるいはSSD16のデータの記憶量が上限を超えている場合は、ブロック406で、SSD16が格納している当該仮想サーバのデータのうちアクセス頻度の低いデータをHDD16に移動する。ブロック408で、SSD16のデータの記憶量が上限以下になった否か判定する。上限以下になった場合は、ブロック410で、HDD16が格納している当該仮想サーバのデータのうちアクセス頻度の高いデータをSSD16に移動する。この後、ブロック412で、図5に示すようなティアリングテーブルを更新する。ティアリングテーブルは仮想サーバ(アプリケーションサービス)毎に、ティアリング(データ移動)の回数を、SSD16からHDD16への移動と、HDD16からSSD16への移動とに分けて記憶する。ティアリング回数の積算はアプリケーションサーバ毎に行われる。
 ブロック406、410で移動するデータはアクセス頻度に基づいて選択したが、最新アクセス日時に基づいて選択してもよい。例えば、ブロック406で、SSD16が格納しているデータのうち最新アクセス日時が古いデータをHDD16に移動し、ブロック410で、HDD16が格納しているデータのうち最新アクセス日時が新しいデータをSSD16に移動してもよい。
 このように、仮想サーバ(アプリケーションサービス)毎に、割り当てられている容量内で、よく使うデータが高速のSSD16に格納され、それ以外のデータが低速のHDD16に格納されるように、データの格納先が変更される。その結果、SSD16とHDD16とに保存されるデータの比率が変わる。これにより、利用者の体感速度を低下することなく、ストレージ装置を有効に使用することができ、ストレージシステムの運用コストを下げることができる。
 上記は、各仮想サーバに割り当てられているSSD16、HDD16の容量内でのデータの移動であったが、仮想サーバ毎ではなくユーザ毎に記憶容量とレスポンス性能を契約している場合等は、ユーザが契約している複数の仮想サーバに割り当てられているSSD16、HDD16の容量内でデータを移動してもよい。
 ティアリング処理は、各仮想サーバあるいは各ユーザの割り当て容量内でのデータの移動であったが、SSD16全体の空き容量がほとんど無くなった場合は、ティアリングでは調整しきれずに、図6に示すようなポリシーの調整処理が行われる。
 ブロック602で、SSD16全体の総使用量(全てのユーザの使用量の総和)が上限以上であるか否かを判定する。SSD16全体の総使用量が上限以上であるにもかかわらず、さらにSSD16にデータを保存しようとすると、システムがダウンしてしまう。これを避けるために、SSD16全体の総使用量が上限以上である場合は、ブロック604でHDDからSSDへのティアリング回数の少ない仮想サーバのポリシーを、SSD16への保存割合が低くなるように、調整する。ティアリング回数の多い仮想サーバのポリシーを、SSD16への保存割合が低くなるように、変更すると、利用者がアクセスする頻度が多いデータのアクセス速度が低下するので、利用者にとってのレスポンス性能の体感速度が低下してしまう。ティアリング回数の少ない仮想サーバのポリシーであれば、ポリシーの変更は利用者に認識されにくいと想定する。
 仮想サーバ毎のティアリング回数は、図5に示すティアリングテーブルから知ることができる。例えば、仮想サーバ12Aが最もティアリング回数が少ないとすると、ポリシー2の比率を60%:40%に変更し、仮想サーバ12Aが最もティアリング回数が少ないとすると、ポリシー3の指定期間を短くする。もしも、仮想サーバ12Aが最もティアリング回数が少ないとすると、ポリシー1をポリシー2に変更し、データの90%をSSD16に格納し、データの10%をHDD16に格納するようにする。これにより、SSD16の容量を、システムがダウンしない範囲で、有効に利用することができる。
 次に、ブロック606で、SSD16全体の総使用量が下限以下であるか否かを判定する。SSD16全体の総使用量が下限以下であれば、SSD16をより多く使用して、利用者の体感速度を改善できる。このため、SSD16全体の総使用量が下限以下である場合は、ブロック608でHDDからSSDへのティアリング回数の多いポリシーを、SSD16への保存割合が高くなるように、調整する。ティアリング回数の多い仮想サーバのポリシーを変更すると、利用者がアクセスする頻度が多いデータのアクセス速度が増加するので、利用者の体感速度も増加する。例えば、仮想サーバ12Aが最もティアリング回数が多いとすると、ポリシー2の比率を80%:20%に変更し、仮想サーバ12Aが最もティアリング回数が多いとすると、ポリシー3の指定期間を長くする。もしも、仮想サーバ12Bが最もティアリング回数が多いとすると、ポリシー1をポリシー2に変更し、データの10%をSSD16に格納し、データの90%をHDD16に格納するようにする。これにより、SSD16の容量を有効に利用することができる。なお、図示していないが、ポリシー調整が終了すると、ティアリング回数をクリアしてもよい。
 このようにポリシーの調整、ティアリング回数の積算はアプリケーションサーバ毎に行われることもある。これは、同じユーザの同じ種類のアプリケーションサービスが複数の仮想サーバで実現されることがあるからである。すなわち、ファイルサーバが2つ以上の仮想サーバで実現されるケースでは、仮想サーバ毎にポリシーの調整を行うのではなく、ファイルサーバとしてポリシーの調整を行った方が効果がある場合がある。
 以上説明したように、第1の実施形態によれば、ネットワーク上でサービス提供者がサービス利用者に種々のサービスを提供し、データをサービス提供者が所有するストレージシステムへ格納する際に、各利用者へ提供するSSD16、HDD16の構成を、SSD16の使用状況に応じて適宜変更することにより、レスポンス性能の高いSSD16がシステムダウンすることなく、レスポンス性能の高いSSD16を使ってサービスレベルを高めると同時に、レスポンス性能の低いHDD16をサービスに混在させることが可能となり、全体的なサービスコストを下げることができる。一般的に、容量が大きくなるほど価格/容量比が小さくなり、コストパフォーマンスが改善されるが、本方式により、容量の大きなストレージ装置を複数のサービス利用者に提供することができ、全体的なサービスコストを下げることができる。
 変形例
 上述の実施形態は、複数の物理サーバにより複数のサービス提供サーバを実現しているので、単一の顧客に複数のアプリケーションサービスを提供、あるいは、複数の顧客を対象としたアプリケーションサービスを提供することができる。しかし、複数のアプリケーションサービスあるいは複数の顧客毎に物理サーバを分離することなく、複数の物理サーバに複数の仮想サーバを混在させても良い。この場合、アプリケーションサービスおよび顧客ごとに、仮想ネットワーク技術を利用し、ネットワークを分離することが好ましい。
 図6のブロック604、608でポリシーを調整するか否かを判断するために利用されるティアリング回数は、HDDからSSDへのデータの移動回数としたが、これに限らず、SSDからHDDへのデータの移動回数も加味してポリシーを調整するか否かを判断してもよい。また、ポリシー調整の頻度は、例えば、1日1回定期的に行ってもよい。この場合も、調整毎にティアリング回数はクリアする。
 なお、本発明は上記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合せにより種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。更に、異なる実施形態に亘る構成要素を適宜組み合せてもよい。

Claims (18)

  1.  高速の第1のストレージ装置と、
     前記第1のストレージ装置より低速の第2のストレージ装置と、
     複数のアプリケーションサービスを提供するサービス提供サーバと、
     前記複数のアプリケーションサービスに関するデータを所定ルールに従い前記第1のストレージ装置と前記第2のストレージ装置のいずれかに格納するコントローラと、
     前記第1のストレージ装置の格納データ量に応じて前記第1のストレージ装置から前記第2のストレージ装置へデータを移動する移動手段と、
     前記第1のストレージ装置の格納データ量が上限以上の場合、前記複数のアプリケーションサービスの中で、前記第2のストレージ装置から前記第1のストレージ装置への前記データの移動が少ないアプリケーションサービスに関するデータについての所定ルールを、前記第1のストレージ装置の格納データ量が減少するように、変更する調整手段と、
     を具備するストレージシステム。
  2.  前記コントローラは、データの保存先と、該保存先の最新アクセス日時あるいはアクセス頻度とのテーブルを記憶し、
     前記移動手段は、前記複数のアプリケーションサービスの各々に関するデータの移動回数を記憶する請求項1記載のストレージシステム。
  3.  前記所定ルールは、
     データを前記第1あるいは第2のストレージ装置に常に格納する第1のルール、データの所定パーセントを前記第1のストレージ装置に格納し、残りのデータを第2のストレージ装置に格納する第2のルール、指定期間はデータを第1のストレージ装置に格納し、指定期間外は第2のストレージ装置に格納する第3のルール、アクセス頻度が高いデータを第1のストレージ装置に格納し、アクセス頻度が低いデータを第2のストレージ装置に格納する第4のルール、指定量までデータを第1のストレージ装置に格納し、それ以降第2のストレージ装置に格納する第5のルール、第1、第2のストレージ装置に均等にデータを保存する第6のルールのいずれかを具備する請求項1記載のストレージシステム。
  4.  前記移動手段は、前記第1のストレージ装置の空き容量があれば、前記第2のストレージ装置から前記第1のストレージ装置へデータを移動する請求項1記載のストレージシステム。
  5.  前記調整手段は、前記第1のストレージ装置の格納データ量が下限以下の場合、前記複数のアプリケーションサービスの中で、前記第2のストレージ装置から前記第1のストレージ装置への前記データの移動が多いアプリケーションサービスに関するデータについての所定ルールを、前記第1のストレージ装置の格納データ量が増加するように、変更する請求項1記載のストレージシステム。
  6.  前記第1のストレージ装置はフラッシュメモリアレイを具備し、
     前記第2のストレージ装置はハードディスクドライブを具備し、
     前記サービス提供サーバは仮想デスクトップとファイルサーバ、メールサーバとを提供し、
     前記コントローラは前記仮想デスクトップのデータを前記フラッシュアレイに保存し、前記ファイルサーバ、メールサーバのデータを前記ハードデスクドライブに保存する請求項1記載のストレージシステム。
  7.  複数のアプリケーションサービスを提供し、
     前記複数のアプリケーションサービスに関するデータを所定ルールに従い前記第1のストレージ装置と前記第2のストレージ装置のいずれかに格納し、
     前記第1のストレージ装置の格納データ量に応じて前記第1のストレージ装置から前記第2のストレージ装置へデータを移動し、
     前記第1のストレージ装置の格納データ量が上限以上の場合、前記複数のアプリケーションサービスの中で、前記第2のストレージ装置から前記第1のストレージ装置への前記データの移動が少ないアプリケーションサービスに関するデータについての所定ルールを、前記第1のストレージ装置の格納データ量が減少するように、変更するストレージシステムの制御方法。
  8.  データの保存先と、該保存先の最新アクセス日時あるいはアクセス頻度とのテーブルを記憶し、
     前記複数のアプリケーションサービスの各々に関するデータの移動回数を記憶する請求項7記載のストレージシステムの制御方法。
  9.  前記所定ルールは、
     データを前記第1あるいは第2のストレージ装置に常に格納する第1のルール、データの所定パーセントを前記第1のストレージ装置に格納し、残りのデータを第2のストレージ装置に格納する第2のルール、指定期間はデータを第1のストレージ装置に格納し、指定期間外は第2のストレージ装置に格納する第3のルール、アクセス頻度が高いデータを第1のストレージ装置に格納し、アクセス頻度が低いデータを第2のストレージ装置に格納する第4のルール、指定量までデータを第1のストレージ装置に格納し、それ以降第2のストレージ装置に格納する第5のルール、第1、第2のストレージ装置に均等にデータを保存する第6のルールのいずれかを具備する請求項7記載のストレージシステムの制御方法。
  10.  前記第1のストレージ装置の空き容量があれば、前記第2のストレージ装置から前記第1のストレージ装置へデータを移動する請求項7記載のストレージシステムの制御方法。
  11.  前記第1のストレージ装置の格納データ量が下限以下の場合、前記複数のアプリケーションサービスの中で、前記第2のストレージ装置から前記第1のストレージ装置への前記データの移動が多いアプリケーションサービスに関するデータについての所定ルールを、前記第1のストレージ装置の格納データ量が増加するように、変更する請求項7記載のストレージシステムの制御方法。
  12.  前記第1のストレージ装置はフラッシュメモリアレイを具備し、
     前記第2のストレージ装置はハードディスクドライブを具備し、
     仮想デスクトップのデータを前記フラッシュアレイに保存し、ファイルサーバ、メールサーバのデータを前記ハードデスクドライブに保存する請求項7記載のストレージシステムの制御方法。
  13.  コンピュータにより実行されるプログラムであって、
     前記プログラムは、
     複数のアプリケーションサービスを提供し、
     前記複数のアプリケーションサービスに関するデータを所定ルールに従い前記第1のストレージ装置と前記第2のストレージ装置のいずれかに格納し、
     前記第1のストレージ装置の格納データ量に応じて前記第1のストレージ装置から前記第2のストレージ装置へデータを移動し、
     前記第1のストレージ装置の格納データ量が上限以上の場合、前記複数のアプリケーションサービスの中で、前記第2のストレージ装置から前記第1のストレージ装置への前記データの移動が少ないアプリケーションサービスに関するデータについての所定ルールを、前記第1のストレージ装置の格納データ量が減少するように、変更するものであるプログラム。
  14.  データの保存先と、該保存先の最新アクセス日時あるいはアクセス頻度とのテーブルを記憶し、
     前記複数のアプリケーションサービスの各々に関するデータの移動回数を記憶する請求項13記載のプログラム。
  15.  前記所定ルールは、
     データを前記第1あるいは第2のストレージ装置に常に格納する第1のルール、データの所定パーセントを前記第1のストレージ装置に格納し、残りのデータを第2のストレージ装置に格納する第2のルール、指定期間はデータを第1のストレージ装置に格納し、指定期間外は第2のストレージ装置に格納する第3のルール、アクセス頻度が高いデータを第1のストレージ装置に格納し、アクセス頻度が低いデータを第2のストレージ装置に格納する第4のルール、指定量までデータを第1のストレージ装置に格納し、それ以降第2のストレージ装置に格納する第5のルール、第1、第2のストレージ装置に均等にデータを保存する第6のルールのいずれかを具備する請求項13記載のプログラム。
  16.  前記第1のストレージ装置の空き容量があれば、前記第2のストレージ装置から前記第1のストレージ装置へデータを移動する請求項13記載のプログラム。
  17.  前記第1のストレージ装置の格納データ量が下限以下の場合、前記複数のアプリケーションサービスの中で、前記第2のストレージ装置から前記第1のストレージ装置への前記データの移動が多いアプリケーションサービスに関するデータについての所定ルールを、前記第1のストレージ装置の格納データ量が増加するように、変更する請求項13記載のプログラム。
  18.  前記第1のストレージ装置はフラッシュメモリアレイを具備し、
     前記第2のストレージ装置はハードディスクドライブを具備し、
     仮想デスクトップのデータを前記フラッシュアレイに保存し、ファイルサーバ、メールサーバのデータを前記ハードデスクドライブに保存する請求項13記載のプログラム。
PCT/JP2013/056500 2013-03-08 2013-03-08 ストレージシステム、ストレージ装置の制御方法及びプログラム WO2014136263A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2013541133A JP5612223B1 (ja) 2013-03-08 2013-03-08 ストレージシステム、ストレージ装置の制御方法及びプログラム
PCT/JP2013/056500 WO2014136263A1 (ja) 2013-03-08 2013-03-08 ストレージシステム、ストレージ装置の制御方法及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2013/056500 WO2014136263A1 (ja) 2013-03-08 2013-03-08 ストレージシステム、ストレージ装置の制御方法及びプログラム

Publications (1)

Publication Number Publication Date
WO2014136263A1 true WO2014136263A1 (ja) 2014-09-12

Family

ID=51490819

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2013/056500 WO2014136263A1 (ja) 2013-03-08 2013-03-08 ストレージシステム、ストレージ装置の制御方法及びプログラム

Country Status (2)

Country Link
JP (1) JP5612223B1 (ja)
WO (1) WO2014136263A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017199291A (ja) * 2016-04-28 2017-11-02 株式会社野村総合研究所 構成管理装置
JP2019219847A (ja) * 2018-06-19 2019-12-26 Zホールディングス株式会社 データベース管理装置、データベース管理方法、およびプログラム

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003296151A (ja) * 2002-03-29 2003-10-17 Toshiba Corp Hsmシステムおよび同システムのマイグレーション制御方法
JP2005338985A (ja) * 2004-05-25 2005-12-08 Hitachi Ltd 記憶領域管理方法及びシステム
JP2009211569A (ja) * 2008-03-06 2009-09-17 Fujitsu Ltd 階層記憶装置、制御装置、および制御方法
WO2012081089A1 (ja) * 2010-12-15 2012-06-21 株式会社日立製作所 計算機システムの管理装置及び管理方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2259172A3 (en) * 2006-06-09 2011-04-13 Apple Inc. Touch screen liquid crystal display

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003296151A (ja) * 2002-03-29 2003-10-17 Toshiba Corp Hsmシステムおよび同システムのマイグレーション制御方法
JP2005338985A (ja) * 2004-05-25 2005-12-08 Hitachi Ltd 記憶領域管理方法及びシステム
JP2009211569A (ja) * 2008-03-06 2009-09-17 Fujitsu Ltd 階層記憶装置、制御装置、および制御方法
WO2012081089A1 (ja) * 2010-12-15 2012-06-21 株式会社日立製作所 計算機システムの管理装置及び管理方法

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017199291A (ja) * 2016-04-28 2017-11-02 株式会社野村総合研究所 構成管理装置
JP2019219847A (ja) * 2018-06-19 2019-12-26 Zホールディングス株式会社 データベース管理装置、データベース管理方法、およびプログラム
JP7044645B2 (ja) 2018-06-19 2022-03-30 ヤフー株式会社 データベース管理装置、データベース管理方法、およびプログラム

Also Published As

Publication number Publication date
JPWO2014136263A1 (ja) 2017-02-09
JP5612223B1 (ja) 2014-10-22

Similar Documents

Publication Publication Date Title
US11237871B1 (en) Methods, systems, and devices for adaptive data resource assignment and placement in distributed data storage systems
JP6564082B2 (ja) バーチャル環境におけるダイナミックストレージ階層化
JP5981563B2 (ja) 情報記憶システム及び情報記憶システムの制御方法
Skourtis et al. Flash on rails: Consistent flash performance through redundancy
US8051243B2 (en) Free space utilization in tiered storage systems
WO2013164878A1 (ja) 計算機システムの管理装置および管理方法
JP6260407B2 (ja) ストレージ管理装置、性能調整方法及び性能調整プログラム
US20140052953A1 (en) Mass storage system and methods of controlling resources thereof
US8296543B2 (en) Computer system management apparatus and management method for the computer system
JP5972363B2 (ja) デュアル動作システムに対する複数のリソースのためのリソース割り当て
US9110591B2 (en) Memory resource provisioning using SAS zoning
US11914894B2 (en) Using scheduling tags in host compute commands to manage host compute task execution by a storage device in a storage system
US20150120859A1 (en) Computer system, and arrangement of data control method
WO2013098960A1 (ja) 計算機システム、ファイル管理方法及び記憶媒体
US11093410B2 (en) Cache management method, storage system and computer program product
JP2012113662A (ja) アクセス制御プログラム、アクセス制御方法および情報処理装置
US10303369B2 (en) Storage in tiered environment with cache collaboration
EP2595048A2 (en) Volume copy management method on thin provisioning pool of storage subsystem
JP5612223B1 (ja) ストレージシステム、ストレージ装置の制御方法及びプログラム
US9069471B2 (en) Passing hint of page allocation of thin provisioning with multiple virtual volumes fit to parallel data access
US10761726B2 (en) Resource fairness control in distributed storage systems using congestion data
US20160364400A1 (en) Management server which outputs file relocation policy, and storage system
CN110196752A (zh) 数据处理方法、装置及存储介质
US8473643B2 (en) Method and apparatus of tier storage management awareness networking
KR102212108B1 (ko) 스토리지 오케스트레이션의 학습형 최적화 대상 볼륨 선정 방법

Legal Events

Date Code Title Description
ENP Entry into the national phase

Ref document number: 2013541133

Country of ref document: JP

Kind code of ref document: A

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13876887

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 13876887

Country of ref document: EP

Kind code of ref document: A1