[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JPWO2018011882A1 - 計算機システム及びストレージ装置の制御方法 - Google Patents

計算機システム及びストレージ装置の制御方法 Download PDF

Info

Publication number
JPWO2018011882A1
JPWO2018011882A1 JP2018527283A JP2018527283A JPWO2018011882A1 JP WO2018011882 A1 JPWO2018011882 A1 JP WO2018011882A1 JP 2018527283 A JP2018527283 A JP 2018527283A JP 2018527283 A JP2018527283 A JP 2018527283A JP WO2018011882 A1 JPWO2018011882 A1 JP WO2018011882A1
Authority
JP
Japan
Prior art keywords
storage device
logical device
storage
remote copy
ldev
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018527283A
Other languages
English (en)
Other versions
JP6557785B2 (ja
Inventor
梓 神
梓 神
彰 出口
彰 出口
智大 川口
智大 川口
中川 弘隆
弘隆 中川
弘志 那須
弘志 那須
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Publication of JPWO2018011882A1 publication Critical patent/JPWO2018011882A1/ja
Application granted granted Critical
Publication of JP6557785B2 publication Critical patent/JP6557785B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/16Error detection or correction of the data by redundancy in hardware
    • G06F11/20Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements
    • G06F11/2002Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where interconnections or communication control functionality are redundant
    • G06F11/2007Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where interconnections or communication control functionality are redundant using redundant communication media
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/16Error detection or correction of the data by redundancy in hardware
    • G06F11/20Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements
    • G06F11/2002Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where interconnections or communication control functionality are redundant
    • G06F11/2012Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where interconnections or communication control functionality are redundant and using different communication protocols
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/16Error detection or correction of the data by redundancy in hardware
    • G06F11/20Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements
    • G06F11/202Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where processing functionality is redundant
    • G06F11/2023Failover techniques
    • G06F11/203Failover techniques using migration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/16Error detection or correction of the data by redundancy in hardware
    • G06F11/20Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements
    • G06F11/202Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where processing functionality is redundant
    • G06F11/2048Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where processing functionality is redundant where the redundant components share neither address space nor persistent storage
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/16Error detection or correction of the data by redundancy in hardware
    • G06F11/20Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements
    • G06F11/2053Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where persistent mass storage functionality or persistent mass storage control functionality is redundant
    • G06F11/2094Redundant storage or storage space
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0602Interfaces specially adapted for storage systems specifically adapted to achieve a particular effect
    • G06F3/061Improving I/O performance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0628Interfaces specially adapted for storage systems making use of a particular technique
    • G06F3/0646Horizontal data movement in storage systems, i.e. moving data in between storage devices or systems
    • G06F3/065Replication mechanisms
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0668Interfaces specially adapted for storage systems adopting a particular infrastructure
    • G06F3/067Distributed or networked storage systems, e.g. storage area networks [SAN], network attached storage [NAS]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/16Error detection or correction of the data by redundancy in hardware
    • G06F11/20Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements
    • G06F11/202Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where processing functionality is redundant
    • G06F11/2035Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where processing functionality is redundant without idle spare hardware
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2201/00Indexing scheme relating to error detection, to error correction, and to monitoring
    • G06F2201/815Virtual

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Quality & Reliability (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Software Systems (AREA)
  • Retry When Errors Occur (AREA)
  • Hardware Redundancy (AREA)

Abstract

管理計算機と、第1のストレージ装置と、第2のストレージ装置とを含む計算機システムであって、第1のストレージ装置の第1の論理デバイスと、第2のストレージ装置の第2の論理デバイスがリモートコピーペアを構成し、前記第2のストレージ装置の前記第2の論理デバイスと第3の論理デバイスがコピーペアを構成し、前記第2の論理デバイスと前記第3の論理デバイスはI/O要求の発行元が認識する仮想IDを有し、前記第2のストレージ装置は、前記I/O要求の発行元からの前記第3の論理デバイスへのI/O要求の処理中に、前記管理計算機から所定の指令を受け付けたことを契機に、前記第3の論理デバイスと第2の論理デバイスの仮想IDを入れ替えることにより、前記I/O要求の発行元のアクセス先を第3の論理デバイスから第2の論理デバイスに切替える。

Description

本発明は、計算機システム及びストレージ装置の制御方法に関する。
仮想化技術の進展により、複数の仮想マシンを1つの物理ホスト計算機上で稼動させることができ、システム障害発生時には仮想マシンが実行している処理を遠隔地のホスト計算機上の別の仮想マシンに引継いでフェイルオーバすることが可能となった。
仮想マシンのイメージや利用データなどの仮想マシン情報は、ストレージ装置の論理デバイスに格納することができる。このような構成の場合、仮想マシンのフェイルオーバ実行に伴い、仮想マシン情報が格納された正サイトのストレージ装置の論理デバイスから遠隔地等の副サイトのストレージ装置の論理デバイスにフェイルオーバすることで論理デバイスの正副を入れ替える。そのため、仮想マシンと関連付ける論理デバイスの単位が重要となる。
特許文献1では、ストレージ装置の一つの論理デバイスをホスト計算機上で複数の仮想ボリュームに区分けし、仮想マシンが用いるデータを仮想ボリューム毎に収める方法が開示されている。
特開2012−79245号公報
仮想マシンに対して論理デバイスを割当てる方式として、Conglomerate LUN Structureが提案されている。この方式では、ストレージ装置の複数の論理デバイスを複数の論理グループ(LUN Conglomerate)に纏め、論理グループ内でゲートウェイの役割を果たす代表的な論理デバイス(ALU:Administrative Logical Unit)に論理パスを設定し、ホスト計算機側からの入出力(I/O:Input Output)コマンドは、論理グループ内のALU以外の論理デバイス(SLU:Subsidiary Logical Unit)の識別子を指定して発行し、ストレージ装置は、受信コマンドに指定されたSLUへI/O処理を分配する。これにより、ホスト計算機上の一つの仮想サーバに対して、一つまたは複数のSLUを割当てることにより、仮想サーバ単位にストレージ装置の論理デバイスを設定することができ、SLU単位でフェイルオーバが可能である。
フェイルオーバには、実際の障害発生等を契機として自動的に行われる正式フェイルオーバと、フェイルオーバの検証等を目的として計画的に実行されるテストフェールオーバがある。
テストフェールオーバでは、本番稼働中の業務やリモートコピー構成に影響を与えないよう、リモートコピー先の論理デバイスから取得したスナップショットを用いることがある。さらに、所定の時点のスナップショットデータを利用するため、テストフェールオーバ実行中の仮想マシンで本番の業務を継続する場合がある。例えば、副サイトの仮想マシンがスナップショットを利用してテストフェールオーバを実施中に、正サイトの仮想マシンで障害が発生した場合である。
このとき、テストフェールオーバ実行中の仮想マシンが接続していた副サイトのスナップショットは、最新データとして扱われることとなる。さらに、最新データとして扱うこととなったスナップショットは、正サイトの論理デバイスとリモートコピー構成が組まれていない為、リモートコピー構成を維持するために、フェイルオーバ先の副サイトのスナップショットから正サイトの論理デバイスへ、逆方向のリモートコピーを再開することが要求される。
正サイトから副サイトへリモートコピーを行っていた論理デバイスのペアに対して、副サイトから正サイトへ逆方向に論理デバイスのデータを同期する従来技術がある。しかし、副サイトのスナップショットと、正サイトの論理デバイスとの間にはリモートコピーペアが構成されておらず、新たにリモートコピーペアを構成する必要がある。
新たにリモートコピーペアを構成する場合、副サイトから正サイトへボリューム全領域のデータをコピーする必要があり、リモートコピーの再構成に時間を要するという課題が発生する。
本発明の目的は、リモートコピーペアを構成しない副サイトのスナップショットから正サイトの論理デバイスへの逆方向のリモートコピーを、全領域コピーを発生させず高速に行うことである。
本発明は、管理計算機と、第1のストレージ装置と、第2のストレージ装置とを含む計算機システムであって、前記第1のストレージ装置の第1の論理デバイスと、前記第2のストレージ装置の第2の論理デバイスがリモートコピーペアを構成し、前記第2のストレージ装置の前記第2の論理デバイスと第3の論理デバイスがコピーペアを構成し、前記第2の論理デバイスと前記第3の論理デバイスはI/O要求の発行元が認識する仮想IDを有し、前記第2のストレージ装置は、前記I/O要求の発行元からの前記第3の論理デバイスへのI/O要求の処理中に、前記管理計算機から所定の指令を受け付けたことを契機に、前記第3の論理デバイスと第2の論理デバイスの仮想IDを入れ替えることにより、前記I/O要求の発行元のアクセス先を第3の論理デバイスから第2の論理デバイスに切替える。
本発明によれば、リモートコピー先ボリューム(第2の論理デバイス)のスナップショット(第3の論理デバイス)をコピー元とした、逆方向のリモートコピーの再開を高速化することが可能となる。
本発明の第1の実施例及び第2の実施例を示し、計算機システムの物理的な構成の一例を示すブロック図である。 本発明の第1の実施例を示し、計算機システムの論理的な構成の一例を示すブロック図である。 本発明の第1の実施例を示し、テストフェールオーバ実行時のI/Oの処理の一例を示す図である。 本発明の第1の実施例を示し、リモートコピー再構成時のI/Oの処理の一例を示す図である。 本発明の第1の実施例及び第2の実施例を示し、ストレージ装置の記憶領域の階層構造の一例を示す図である。 本発明の第1の実施例を示し、ストレージ装置内のプログラム及びテーブルの一例を示す図である。 本発明の第1の実施例を示し、SLU管理テーブルの一例を示す図である。 本発明の第1の実施例を示し、LDEV管理テーブルの一例を示す図である。 本発明の第1の実施例及び第2の実施例を示し、スナップショットペア管理テーブルの一例を示す図である。 本発明の第1の実施例及び第2の実施例を示し、リモートコピーペア管理テーブルの一例を示す図である。 本発明の第1の実施例を示し、I/O要求処理プログラムのフローチャートの一例を示す。 本発明の第1の実施例を示し、リモートコピー再開準備プログラムのフローチャートの一例を示す。 本発明の第1の実施例を示し、リモートコピー再開プログラムのフローチャートの一例を示す。 本発明の第2の実施例を示し、計算機システムの論理的な構成の一例を示すブロック図である。 本発明の第2の実施例を示し、リモートコピー再構成時のI/Oの処理の一例を示す図である。 本発明の第2の実施例を示し、仮想LDEV管理テーブルの一例を示す図である。 本発明の第2の実施例を示し、仮想LDEV−実LDEV管理テーブルの一例を示す図である。 本発明の第2の実施例を示し、リモートコピー再開準備プログラムのフローチャートの一例を示す。 本発明の第1の実施例を示し、テストフェールオーバからリモートコピー再開までの処理の一例を示すシーケンス図である。
以下、図を用いて、本発明の一実施例を説明する。以下の図中、同一の部分には同一の符号を付加する。ただし、本発明が本実施例に制限されることは無く、本発明の思想に合致するあらゆる応用例が本発明の技術的範囲に含まれる。また、特に限定しない限り、各構成要素は複数でも単数でも構わない。
なお、以下の説明では、「xxxテーブル」の表現にて各種情報を説明することがあるが、各種情報は、テーブル以外のデータ構造で表現されていても良い。データ構造に依存しないことを示すために「xxxテーブル」を「xxx情報」と呼ぶことができる。
また、以下の説明では、「プログラム」を主語として処理を説明する場合があるが、プログラムは、プロセッサ(例えばCPU(Central Processing Unit))によって実行されることで、定められた処理を適宜に記憶資源(例えばメモリ)及び通信インターフェース装置(例えば通信ポート)を用いながら行うため、処理の主語がプロセッサとされても良い。プロセッサは、CPUの他に専用ハードウェアを有していても良い。コンピュータプログラムは、プログラムソースから各計算機にインストールされても良い。プログラムソースは、例えば、プログラム配布サーバ又は記憶メディアであっても良い。
また、各要素は、ID、番号などで識別可能であるが、識別可能な情報であれば、名前など他種の識別情報が用いられても良い。
本発明の第一の実施例について、図1〜図13を用いて説明する。図1は、第一の実施例及び第二の実施例における、計算機システムの物理的な構成を示すブロック図である。
この計算機システムは、例えば、一つまたは複数のホスト計算機110、一つまたは複数の第一のストレージ装置120、一つまたは複数の第二のストレージ装置130、及び一つまたは複数の管理計算機140を含んで構成される。
ホスト計算機110と第一のストレージ装置120と第二のストレージ装置130とは、例えば、SAN(Storage Area Network)150を介して通信線151、152、153で接続される。
ホスト計算機110と第一のストレージ装置120と第二のストレージ装置130と管理計算機140は、例えば、管理ネットワーク160を介して、通信線161、162、163、164で接続される。
第一のストレージ装置120と第二のストレージ装置130は、例えば、WAN(Wide Area Network)170を介して、通信線172、173で接続される。
なお、上述の通信線151、152、153、161、162、163、164、172、173は、例えば、メタルケーブルや光ファイバケーブル等の有線として構成されるが、無線で接続しても良い。この場合は、これらの通信線は省略される。また、これら通信線は1つに限らず複数でもよい。
また、SAN150と管理ネットワーク160とWAN170が、共通のネットワークであっても良い。これらは通信ネットワークであり、例えば、SAN、WAN、LAN(Local Area Network)等で構成することができる。
ホスト計算機110は、例えば、CPU111、メモリ112、記憶装置113、入力装置114、出力装置115、ホストバスアダプタ(HBA:Host Bus Adapter)116、及びインターフェース制御部117を含んで構成されたコンピュータ装置であり、例えば、パーソナルコンピュータや、ワークステーション、メインフレームなどから構成される。
CPU111は、ホスト計算機110全体の制御を司るプロセッサであり、記憶装置113に格納された各種プログラムをメモリ112に読み出して実行する。
メモリ112は、ホスト計算機110の起動時にCPU111により記憶装置113から読み出された各種プログラムを記憶するために用いられるほか、CPU111のワークメモリとしても用いられる。
記憶装置113は、例えば、HDD(Hard Disk Drive)またはSSD(Solid State Drive)から構成され、各種プログラムや制御データを記憶保持するために用いられる。
入力装置114は、例えば、キーボードスイッチやポインティングデバイス、マイクロフォン等から構成される。出力装置115は、例えば、液晶ディスプレイなどから構成される。
ホストバスアダプタ116は、ストレージ装置120、130との通信時におけるプロトコル制御を行う。HBA116が、プロトコル制御機能を実行することで、ホスト計算機110とストレージ装置120、130との間や、第一のストレージ装置120と第二のストレージ装置130との間において、データやコマンドの送受信が行われる。
インターフェース制御部117は、ホスト計算機110を管理ネットワーク160に接続するためのアダプタである。
仮想化プログラム118は、ホスト計算機110のCPU111、メモリ112、記憶装置113、入力装置114、出力装置115、HBA116、インターフェース制御部117のリソースを仮想化し、仮想マシンの単位に割当てて管理するためのプログラムであり、CPU111により、記憶装置113からメモリ112に読み出されて実行される。
第一のストレージ装置120、と第二のストレージ装置130は、本実施例では同様の構成を取るため、第二のストレージ装置130の説明は省略する。
第一のストレージ装置120は、複数の記憶装置121と、記憶装置121に対するデータの入出力を制御するコントロール部122から構成される。
記憶装置121は、例えば、HDD又はSSDから構成されるSCSIディスク等の高価なディスクや、SATA(Serial AT Attachment)ディスクや光ディスク等の安価なディスクなどから構成される。複数の記憶装置121により1つのRAID(Redundant Array of Inexpensive Disks)グループが構成され、一つまたは複数のRAIDグループが提供する物理的な記憶領域上に、一つまたは複数の論理ユニットが設定される。そして、ホスト計算機110からのデータは、この論理ユニット内に所定の大きさのブロックを単位として格納される。
コントロール部122は、CPU123、主メモリ124、不揮発性メモリ125、キャッシュメモリ126、複数のホスト側ポート127、複数の記憶装置側ポート128及びインターフェース制御部129を含んで構成される。
CPU123は、第一のストレージ装置120全体の制御を司るプロセッサであり、記憶装置121に格納された各種プログラムを主メモリ124に読み出して実行する。
主メモリ124は、第一のストレージ装置120の起動時にCPU123により不揮発性メモリ125から読み出された各種プログラムを記憶するために用いられるほか、CPU123のワークメモリとしても用いられる。
不揮発性メモリ125は、各種プログラムや制御データを記憶保持するために用いられる。キャッシュメモリ126は、主として、ホスト計算機110と記憶装置121との間で授受されるデータを一時的に格納するキューなどの記憶領域として用いられる。
ホスト側ポート127は、第一のストレージ装置120をSAN150やWAN170に接続するためのアダプタである。記憶装置側ポート128は、コントロール部122を記憶装置121に接続するためのアダプタである。インターフェース制御部129は、第一のストレージ装置120を管理ネットワーク160に接続するためのアダプタである。
管理計算機140は、ホスト計算機110、第一のストレージ装置120、及び第二のストレージ装置130を管理するためのコンピュータ装置であり、例えば、CPU141、メモリ142、記憶装置143、入力装置144、出力装置145、及びインターフェース制御部147を含んで構成される。
CPU141は、管理計算機140全体の制御を司るプロセッサであり、記憶装置143に格納された各種プログラムをメモリ142に読み出して実行する。メモリ142は、管理計算機140の起動時にCPU141により記憶装置143から読み出された各種プログラムを記憶するために用いられるほか、CPU141のワークメモリとしても用いられる。
記憶装置143は、例えば、HDDまたはSSDから構成され、各種プログラムや制御データを記憶保持するために用いられる。入力装置144は、例えば、キーボードスイッチやポインティングデバイス、マイクロフォン等から構成される。出力装置145は、例えば、液晶ディスプレイなどから構成される。
インターフェース制御部147は、管理計算機140を管理ネットワーク160に接続するためのアダプタである。ストレージ管理プログラム148は、管理ネットワーク160を介して、第一のストレージ装置120、第二のストレージ装置130のコントロール部122、132へ論理デバイスの操作要求を送信することができる。ストレージ管理プログラム148は、CPU141により、記憶装置143からメモリ142に読み出されて実行される。
図2は、第一の実施例における、計算機システムの論理的な構成を示すブロック図である。本実施例中のストレージ装置は、第一のストレージ装置120、または第二のストレージ装置130の何れかに限定されるものではないため、ストレージ装置120、130と記載する。
仮想マシン210は、仮想化プログラム118により仮想化され、ホスト計算機110の計算機リソースの一部を割当てられた仮想的な計算機である。
仮想ボリューム(VVOL:Virtual VOLume)212は、仮想化プログラム118により仮想マシン210へ提供される論理デバイスであり、ストレージ装置120、130のSLU217(後述)をホスト計算機110が論理デバイスを認識する単位である。
仮想化プログラム118は、仮想マシン210からVVOL212へのI/O要求(ReadやWrite等)を読み替えて、ストレージ装置120、130へI/Oコマンドを発行する。VVOL212とSLU217は、後述するLU214、ALU215を介して対応付けられている。
論理ユニット(LU:Logical Unit)214は、記憶装置121が提供する記憶領域を、論理的な単位に分割または集約した単位である。
ALU215は、ストレージ装置120、130の論理デバイスのうち、ホスト計算機110から代表として認識される論理デバイスである。ALU215は、ストレージ装置130のSLU217と対応付けて管理される。
SLU217は、ストレージ装置120、130の論理デバイスを仮想化して、ホストが認識するIDであるSLU IDで管理される論理デバイスであり、ALU215と対応付けられて管理されている。ホスト計算機110からストレージ装置120、130へのI/Oコマンドは、SLU217の識別子を指定して発行する。
図3は、第一の実施例における、テストフェールオーバ実行中のI/O処理の一例を示す概略図である。
尚、図中で「−A」と「−B」を付与したものは、図2で「−A」と「−B」を付与せずに説明したものと同様であるが、説明のため、区別して記載する。
I/O経路310は、仮想マシン210−Aから発行されたI/O要求を処理する例を示している。第一のホスト計算機110−Aの仮想マシン210−Aから、VVOL212−Aに対して発行されたI/O要求は、SAN150を経由して第一のストレージ装置120に伝送される。
このとき、第一のホスト計算機110−AのVVOL212−Aに対応付けられたLU1(214−A)が定義されている第一のストレージ装置120は、このI/O要求を受信し、LU1(214−A)に対応付けられたALU1(215−A)と関連付けられ、さらに、VVOL212−Aと関連付けられたSLUであるSLU1(320)に対してI/O処理を行う。
このSLU1(320)の属性は、リモートコピーの正ボリューム(RC PVOL:Remote Copy Primary Volume)である。
リモートコピー経路311は、第一のストレージ装置120のSLU1(320)のデータを、第二のストレージ装置130のSLU2(321)に複製するリモートコピーの例を示している。
第二のストレージ装置130のSLU2(321)の属性は、リモートコピーの副ボリューム(RC SVOL:Remote Copy Secondary Volume)である。
第一のストレージ装置120のSLU1(320)の更新内容は、第一のストレージ装置120から、第二のストレージ装置130に転送され、第二のストレージ装置130のSLU2(321)に反映される。
スナップショット作成経路312は、第二のストレージ装置130のSLU2(321)のデータを、第二のストレージ装置130内の別のSLUであるスナップショットVOL(SS VOL:Snapshot Volume)322へ複製する例を示している。
第二のストレージ装置130のSLU2(321)のデータは、一定時間毎などの予め設定されたタイミングで、SS VOL322に複製される。このとき、複製の度に異なるスナップショットVOLを指定することが可能である。
ここで、本番稼動している仮想マシン210−AからSLU1(320)に至るI/O経路310とリモートコピー経路311の処理を停止させることなく、SS VOL322のデータを用いて、仮想マシン210−Aのテストフェールオーバを行う場合がある。
この方法を実施する構成例として、フェイルオーバ先に第二のホスト計算機110−Bの仮想マシン210−Bを指定し、第二のストレージ装置130のSS VOL322をVVOL212−Bと対応付け、仮想マシン210−Bへ提供する構成で説明する。
I/O経路313は、第二のホスト計算機110−Bが管理計算機140から、テストフェールオーバの開始を指示する「テストフェールオーバ実行コマンド」を受信したことを契機として発生するI/Oの経路であり、仮想マシン210−Bから発行されたI/O要求を処理する例を示している。
第二のホスト計算機110−Bの仮想マシン210−Bから、VVOL212−Bに対して発行されたI/O要求は、SAN150を経由して第二のストレージ装置130に伝送される。
このとき、第二のホスト計算機110−BのVVOL212−Bと対応付けられたLU2(214−B)が定義されている第二のストレージ装置130は、このI/O要求を受領し、LU2(214−B)に対応付けられたALU2(215−B)と関連付けられ、さらに、VVOL212−Bと関連付けられたSLUであるSS VOL322に対してI/O処理を行う。
図4は、第一の実施例における、リモートコピー方向の切替え時のI/O処理の概略図である。
図3で例を挙げたテストフェールオーバの実施中に、I/O経路310に代わって、I/O経路313を正として運用したい場合がある。例えば、第一のホスト計算機110−Aで障害が発生した場合などである。このとき、リモートコピー経路311に代わって、第二のストレージ装置130から第一のストレージ装置120へのリモートコピーによる冗長化が必要となる。
第二のストレージ装置130が管理計算機140からの指示により、I/Oの経路とリモートコピー経路が変更される処理について説明する。I/O経路410、及びI/O経路411を合わせた経路は、図3のI/O経路313と同一の経路を示している。
スナップショットのリストア経路412は、第二のストレージ装置130が管理計算機140から、正式フェイルオーバ状態への遷移を指示する「リモートコピー再開準備コマンド」を受領したことを契機に実行される処理であり、第二のストレージ装置130のSLU2(321)から作成したSS VOL322のデータを、再びSLU2(321)にコピーする処理を示している。
ここで、例えば仮想マシン210−Bから発行されたI/O要求によって、SS VOL322に更新された領域がある場合には、更新が発生している領域のみをSLU2(321)へコピーすることで、コピー時間を短縮することが可能となる。
I/O経路413は、仮想マシン210−BからのI/O要求を処理するSLUを、SS VOL322からSLU2(321)に変更する時の処理を示している。I/O経路411からI/O経路413への変更は、SLU2(321)のIDを2000から3000へ変更し、SS VOL322のIDを3000から2000へ変更することで行われる(詳細は、図12で後述)。
リモートコピー経路414は、第二のストレージ装置130が管理計算機140から、逆方向のリモートコピー再開を指示する「リモートコピー再構成コマンド」を受領したことを契機に設定するデータのコピー経路であり、スナップショットのリストア後のSLU2(321)のデータを、第一のストレージ装置120のSLU1(320)にコピーするリモートコピーの処理の例を示している。
このリモートコピーの再開は、SLU2(321)の属性をRC SVOLからRC PVOLへ変更し、SLU1(320)の属性をRC PVOLからRC SVOLへ変更した後に行われる(詳細は、図13で後述)。
ボリュームの属性変更後、SLU2(321)の更新内容は、第二のストレージ装置130から、第一のストレージ装置120へ転送され、SLU1(320)に反映される。
図5は、第一の実施例及び第二の実施例における、第一のストレージ装置120、及び第二のストレージ装置130の記憶領域の階層構造を示す説明図である。以下、第一のストレージ装置120の説明を行うが、第二のストレージ装置130も同様の階層構造であるため説明を省略する。
第一のストレージ装置120は、記憶装置121が提供する記憶領域を論理ユニット(LU)530としてホスト計算機110に提供する。
この場合、記憶装置121と論理ユニット530の間には、記憶装置121と論理ユニット530を対応付けるための複数の中間記憶階層が設けられる。この中間記憶階層には、例えば、RAIDグループ510及び論理デバイス(LDEV:Logical DEVice)520を含めることができる。
RAIDグループ510は、下位記憶階層である記憶装置121と、上位記憶階層である論理デバイス520とを接続する中間記憶階層であり、RAIDグループを構成する各記憶装置121が提供する記憶領域上に定義される。
論理デバイス520は、下位記憶階層であるRAIDグループ510と、上位記憶階層である論理ユニット530とを接続する中間記憶階層であり、一つまたは複数のRAIDグループ510の記憶領域の全部、または、一部を集合してなる記憶領域、または、RAIDグループ510の記憶領域の一部を抜き出して構成される記憶領域である。
論理デバイス520は、ALU215やSLU217の属性を有することができる。
図6は、第一の実施例における、ストレージ装置120、130の不揮発性メモリ125、135内のプログラム及びテーブル構成を示す説明図である。
第一のストレージ装置120と第二のストレージ装置130は、同様の構成であるため、第二のストレージ装置130の説明は省略する。
図6において、不揮発性メモリ125には、SLU管理テーブル601、LDEV管理テーブル602、スナップショットペア管理テーブル603、リモートコピーペア管理テーブル604、I/O要求処理プログラム611、リモートコピー再開準備プログラム612、リモートコピー再開プログラム613が格納される。各テーブル601〜604、及び、各プログラム611〜613は、不揮発性メモリ125から主メモリ124に転送され、CPU123により実行される。なお、各テーブルは601〜604は、予め管理計算機140が設定する。
また、第一のストレージ装置120と第二のストレージ装置130は、所定のタイミングで通信を行ってリモートコピーペア管理テーブル604を更新させる。例えば、第一のストレージ装置120がリモートコピーペア管理テーブル604を更新すると、第二のストレージ装置130に更新内容を通知する。あるいは、管理計算機140が所定のタイミングでリモートコピーペア管理テーブル604を更新させてもよい。
SLU管理テーブル601は、例えば、第一のストレージ装置120のCPU123が、自ストレージ装置の各ポートについて、ポートに対応するLUN(Logical Unit Number)と、ALU IDと、SLU IDと、I/Oキューイングフラグを記憶するためのテーブルである。このテーブルの詳細は、図7で説明する。
LDEV管理テーブル602は、例えば、第一のストレージ装置120のCPU123が、自ストレージ装置に定義されるSLU毎に、LDEV IDと、LDEV開始アドレスと、LDEV終了アドレスを記憶するためのテーブルである。このテーブルの詳細は、図8で説明する。
スナップショットペア管理テーブル603は、例えば、第一のストレージ装置120のCPU123が、自ストレージ装置に定義されるスナップショットペア毎に、スナップショット作成元のLDEV IDと、スナップショットボリュームのLDEV IDと、ペア状態を記憶するためのテーブルである。このテーブルの詳細は、図9で説明する。
リモートコピーペア管理テーブル604は、例えば、第一のストレージ装置120のCPU123が、自ストレージ装置に定義されるリモートコピーペア毎に、LDEV IDと、ボリューム属性と、リモートコピーペアを組む相手のLDEV IDと、リモートコピーペアを組む相手のストレージ装置IDを記憶するためのテーブルである。このテーブルの詳細は、図10で説明する。
I/O要求処理プログラム611は、第一のストレージ装置120のCPU123が、ホスト計算機110から受信したデータの入出力処理などを要求するコマンド(Readコマンド、Writeコマンド等)を処理するためのプログラムである。このプログラムの詳細は、図11で説明する。
リモートコピー再開準備プログラム612は、第一のストレージ装置120のCPU123が、管理計算機140から受信した、スナップショットボリュームに対するリモートコピー再開準備を要求するコマンドを処理するためのプログラムである。このプログラムの詳細は、図12で説明する。
リモートコピー再開プログラム613は、第一のストレージ装置120のCPU123が、自ストレージ装置のSLUのデータを、異なるストレージ装置内のSLUへコピーするためのプログラムである。このプログラムの詳細は、図13で説明する。
以下、本発明の第二のストレージ装置130の不揮発性メモリ146に記憶されている各テーブルについて、図7〜図10を参照しながら説明する。
図7は、第一の実施例における、SLU管理テーブル601の一例を示す図である。
SLU管理テーブル601は、例えば、ポートID列701と、LUN列702と、ALU ID列703と、SLU ID列704と、I/Oキューイングフラグ列705と、を対応付けて管理する。
ポートID列701には、自ストレージ装置に定義されているポート128、138の識別情報が格納される。LUN列702には、LU214の識別情報であるLUNが格納される。
ALU ID列703には、ALU215の識別情報が格納される。SLU ID列704には、当該ALU毎に定義されるSLU217の識別情報(仮想ID)が格納される。
I/Oキューイングフラグ列705には、当該SLUに対するI/Oをキューから取り出すことの要否を示す情報が格納される。キューイングフラグがONであれば、キューから取り出さずキューイングを継続し、キューイングフラグがOFFであれば、キューから取り出すことが可能であることを示す。なお、キューは、キャッシュメモリ126、136の所定の領域に予め設定される。
例えば、行711には、SLU ID「1000」は、ALU ID「000」、LUN「00」、ポートID「00」と紐付けられており、当該SLUのI/Oキューイングフラグが「OFF」であることを示す。
図8は、第一の実施例における、LDEV管理テーブル602の一例を示す図である。
LDEV管理テーブル602は、例えば、SLU ID列801と、LDEV ID列802と、LDEV開始アドレス列803列と、LDEV終了アドレス列804と、を対応付けて管理する。
SLU ID列801には、自ストレージ装置に定義されているSLUの識別情報(仮想ID)が格納される。LDEV ID列802には、当該SLUに紐づくLDEVの識別情報が格納される。
LDEV開始アドレス列803には、当該SLUに紐づくLDEVの領域の開始アドレス情報が格納される。LDEV終了アドレス列804には、当該SLUに紐づくLDEVの領域の終了アドレス情報が格納される。
例えば、行811には、SLU ID「2000」に紐づくLDEV IDは、「2222」であり、当該LDEV領域の開始アドレスは「020000」、終了アドレスは「020999」であることを示す。
図9は、第一の実施例及び第二の実施例における、スナップショットペア管理テーブル603の一例を示す図である。
スナップショットペア管理テーブル603は、例えば、ペアID列901と、スナップショット作成元LDEV ID列902と、スナップショットボリュームLDEV ID列903と、ペア状態列904を対応付けて管理する。
ペアID列901には、自ストレージ装置に定義されているスナップショットペアの識別情報が格納されている。スナップショット作成元LDEV ID列902には、当該スナップショットペアのスナップショット作成元となっているボリュームのLDEVの識別情報が格納される。
スナップショットボリュームLDEV ID列903には、当該スナップショット元LDEVとペア関係が構築されている、スナップショットボリュームのLDEVの識別情報が格納される。ペア状態列904には、当該スナップショットペアのコピーペア状態の情報(PAIR(二重化)、Suspend(分割)など)が格納されている。
例えば、行911は、スナップショットペアID「1−1」のスナップショット作成元LDEV IDは「2222」、スナップショットボリュームのLDEV IDは「3333」であり、ペア状態は「Suspend(分割)」であることを示す。
図示の異例では、図3の第二のストレージ装置130のSLU2(LDEV ID902=2222)と、SS VOL322(LDEV ID902=3333)がコピーペアの関係であることを示す。なお、コピーペアは、異なる論理デバイス間で複製の関係を定義したものである。
図10は、第一の実施例及び第二の実施例における、リモートコピーペア管理テーブル604の一例を示す図である。
リモートコピーペア管理テーブル604は、例えば、ペアID列1001と、LDEV ID列1002と、ペア属性列1003と、ペア相手LDEV ID列1004と、ペア相手ストレージ装置ID列1005と、を対応付けて管理する。
ペアID列1001には、自ストレージ装置に定義されているリモートコピーペアの識別情報が格納される。LDEV ID列1002には、当該リモートコピーペアの自ストレージ装置側のLDEVの識別情報が格納される。
ペア属性列1003には、当該LDEVのリモートコピーペア属性(PVOLまたはSVOL)の情報が格納される。ペア相手LDEV ID列1004には、当該LDEVのリモートコピー相手のLDEVの識別情報が格納される。
ペア相手ストレージ装置ID列1005には、当該LDEVのリモートコピー相手のストレージ装置の識別情報が格納される。
例えば、行1011には、リモートコピーペアID「1」の自ストレージ装置側のLDEV IDは「2222」で、そのLDEVのペア属性が「SVOL」であり、当該LDEVのリモートコピー相手のLDEV IDは「1111」であり、リモートコピー相手のストレージ装置IDは「ST01」であることを示す。
なお、リモートコピーペアは、異なるストレージ装置(第一のストレージ装置120及び第二のストレージ装置130)間で論理デバイスの複製の関係を定義したものである。
以下、図11〜図13を用いて、本実施例1で行われる種々の処理を詳細に説明する。各フローチャートは、本発明の理解及び実施に必要な範囲で、各処理の概要を示すが、処理の順序は、図示の順序に限定されなくて良い。
図11は、第一の実施例における、I/O要求処理プログラム611で行われる処理を示すフローチャートである。
この処理は、第一のストレージ装置120、及び、第二のストレージ装置130がホスト計算機110から書込み要求を受領した契機で開始される。
以下、第一のストレージ装置120が書込み要求を受領した例を用いて説明する。ステップS1101では、I/O要求処理プログラム611が、ホスト計算機110から発行され、キューに格納されたSCSIコマンドを解析し、I/O先として指定されているポートID、LUN、ALU ID、SLU IDを取得する。
ステップS1102では、I/O要求処理プログラム611が、SLU管理テーブル601の「SLU ID」列704からステップS1101で取得したSLU IDを検索し、対応する「I/Oキューイングフラグ」列705の値を取得する。
ステップS1103では、I/O要求処理プログラム611が、ステップS1102で取得した「I/Oキューイングフラグ」列705の値がON(S1103:YES)の場合は処理を終了し、OFF(S1103:YES)の場合はステップS1104に遷移する。
ステップS1104では、ステップS1103の判定がNOの場合、I/O要求処理プログラム611は、キューイングされたホスト計算機110からの要求を取得して、SLU1(320)への書込み処理を行う。
SLU1(320)から、第二のストレージ装置130のSLU2(321)へのリモートコピーが非同期リモートコピーである場合、I/O要求処理プログラム611は、SLU1(320)への書込み処理が完了した後、更新データをジャーナルとしてジャーナルボリュームへ書き込み、ステップS1105に遷移する。
ステップS1105への遷移後も、第一のストレージ装置120のジャーナルボリュームに書き込まれたジャーナルは、WAN170を経由して、第二のストレージ装置130のジャーナルボリュームに非同期でコピーされ、コピーされたジャーナルはSLU2(321)に反映される。
SLU1(320)から、第二のストレージ装置130のSLU2(321)へのリモートコピーが同期リモートコピーである場合は、SLU1(320)への書込み処理が完了した後、I/O要求処理プログラム611は、更新データをSLU1(320)からSLU2(321)へ転送し、転送した更新データがSLU2(321)へ反映されたことを示す応答を受信した後に、ステップS1105に遷移する。
ステップS1105では、I/O要求処理プログラム611が、キューから取り出したホスト計算機110の要求であるSCSIコマンドに対して、書込み処理が完了したことを示す応答を行う。
ステップS1106では、I/O要求処理プログラム611が、第一のストレージ装置120でホスト計算機110からの要求がキューイングされている状態であれば(S1106:YES)、ステップS1104に遷移して上記処理を繰り返し、キューイングされていなければ処理を終了する。
本実施例では、SLU管理テーブル601の「I/Oキューイングフラグ」列705の値(ON/OFF)によって、I/O要求を受領したときに格納されるキューからの取り出しを制御する例を示したが、「I/Oキューイングフラグ」列705の値がONの場合にI/O要求を格納する別のキューを使用しても良いし、その他のキュー管理方法であっても良い。
図12は、第一の実施例における、リモートコピー再開準備プログラム612で行われる処理を示すフローチャートである。
本実施例1では、この処理は、第二のストレージ装置130が、管理計算機140から、SS VOL322に対する「リモートコピー再開準備コマンド」を受領したことを契機に処理を行う。
ステップS1201では、リモートコピー再開準備プログラム612が、管理計算機140からリモートコピー再開準備コマンドを受領する。
ステップS1202では、リモートコピー再開準備プログラム612が、管理計算機140から受領したリモートコピー再開準備コマンドから、スナップショットVOLであるSS VOL322のSLU IDを取得する。
ステップS1203では、リモートコピー再開準備プログラム612が、LDEV管理テーブル602の「SLU ID」列801に対し、S1202で取得したSS VOL322のSLU IDの検索を行い、検索結果に対応する「LDEV ID」列802の値を取得する。
ステップS1204では、リモートコピー再開準備プログラム612が、スナップショットペア管理テーブル603の「スナップショットVOL LDEV ID」列903に対し、S1203で取得したSS VOL322のLDEV IDの検索を行い、検索結果に対応する「スナップショット作成元LDEV ID」列902の値を、SLU2(321)のLDEV IDとして取得する。
また、リモートコピー再開準備プログラム612は、LDEV管理テーブル602の「LDEV ID」列802に対し、上記で取得したSLU2(321)のLDEV IDの検索を行い、検索結果に対応する「SLU ID」列801の値を取得する。この値は、ステップS1209で使用する。
ステップS1205では、リモートコピー再開準備プログラム612が、リモートコピーペア管理テーブル604の「LDEV ID」列1002に対し、ステップS1204で取得したSLU2(321)のLDEV IDの検索を行い、当該行が存在すること(=SLU2(321)がリモートコピーペアを構成済であること)を検証する。なお、SLU2(321)がリモートコピーペアを構成していない場合には処理を終了する。
ステップS1206では、リモートコピー再開準備プログラム612が、SLU管理テーブル601の「SLU ID」列704から、ステップS1202で特定したSS VOL322のSLU IDを検索し、検索結果に対応する「I/Oキューイングフラグ」列705の値をONに変更する。
ステップS1207では、リモートコピー再開準備プログラム612が、ステップS1202で特定したSS VOL322から、ステップS1204で特定したSLU2(321)へのスナップショットリストア処理をキックし、ステップS1208に遷移する。キックされたことを契機に、バックグラウンドで行われるスナップショットリストア処理では、SS VOL322とSLU2(321)との差分データのみがコピーされる。
ステップS1208では、リモートコピー再開準備プログラム612が、LDEV管理テーブル602の「SLU ID」列801について、値がSS VOL322のSLU IDであるものはSLU2(321)のSLU IDに更新し、値がSLU2(321)のSLU IDであるものはSS VOL322のSLU IDに更新することで、値の入れ替えを行う。
このSLU ID列801の変更により、図4に示した仮想マシン210−BのI/O要求はI/O経路411からI/O経路413へ変更されてSLU2(321)に伝送される。
ステップS1209では、リモートコピー再開準備プログラム612が、SLU管理テーブル601の「SLU ID」列704から、ステップS1202で特定したSS VOL322のSLU ID(SLU ID入れ替え後は、SLU2(321)のSLU ID)を検索し、検索結果に対応する「I/Oキューイングフラグ」列705の値をOFFに変更する。
ステップS1210では、リモートコピー再開準備プログラム612が、管理計算機140に対し、リモートコピー再開準備コマンドの処理が完了したことを示す応答を通知して処理を終了する。
上記処理によって、第二のストレージ装置130では、リモートコピー再開準備プログラム612が、仮想マシン210−BがアクセスしているSS VOL322のI/Oキューイングフラグ列705の値をONに変更し、I/O要求の発行を停止してから、SS VOL322とSLU2(321)のSLU IDを入れ替えることで、I/O経路411からI/O経路413に切り替える。
そして、リモートコピー再開準備プログラム612は、キューイングの開始後にスナップショットリストア処理をキックしてバックグラウンドで実行させる。これによりSS VOL322からSLU2(321)へ差分データのみがコピーされて、スナップショットリストア処理が実施される。
その後、リモートコピー再開準備プログラム612が、SLU2(321)のI/Oキューイングフラグ列705の値をOFFに変更することで、仮想マシン210−Bが発行したI/O要求をSLU2(321)に伝送する。これにより、仮想マシン210−Bが読み書きする論理ボリュームは、SS VOL322からSLU2(321)に切り替えられる。なお、スナップショットリストア処理はキューイングの終了後にも継続される場合がある。
図13は、第一の実施例における、リモートコピー再開プログラム613で行われる処理を示すフローチャートである。
本実施例1では、この処理は、第二のストレージ装置130のリモートコピー再開プログラム613が、管理計算機140から「リモートコピー再開(逆方向)コマンド」を受領したことを契機に処理を行う。
ステップS1301では、リモートコピー再開プログラム613が、管理計算機140からリモートコピー再開(逆方向)コマンドを受領する。
ステップS1302では、リモートコピー再開プログラム613が、管理計算機140から受領したリモートコピー再開(逆方向)コマンドから、RC SVOLであるSLU2(321)のSLU IDを取得する。
ここで、ステップS1301で、リモートコピー再開プログラム613が管理計算機140から受領したリモートコピー再開(逆方向)コマンドに含まれるSLU IDと、図12のステップS1201で、リモートコピー再開準備プログラム612が管理計算機140から受領したリモートコピー再開準備コマンドに含まれるSLU IDは、同一の値である。しかし、図12のステップS1207でSLU2(321)とSS VOL(322)のIDが交換されているため、このSLU IDが示すSLUは、SS VOL322からSLU2(321)に変更となった値である。
ステップS1303では、リモートコピー再開プログラム613が、LDEV管理テーブル602の「SLU ID列」801に対し、ステップS1302で取得したSLU2(321)のSLU IDの検索を行い、検索結果に対応する「LDEV ID」列802の値を取得する。
ステップS1304で、リモートコピー再開プログラム613は、第二のストレージ装置130が保有するリモートコピーペア管理テーブル604の「LDEV ID」列1002から、S1303で取得したSLU2(321)に対応するLDEV IDを検索し、検索結果に対応する「ペア属性」列1003の値をSVOLからPVOLに変更する。
また、リモートコピー再開プログラム613は、第一のストレージ装置120に対して、リモートコピーペア管理テーブル604のうち、同じペアIDを有する行の「ペア属性」列1003の値をPVOLからSVOLに変更するよう指示を行う。
ステップS1305では、リモートコピー再開プログラム613が、SLU2(321)からSLU1(320)へ差分コピーを実施する。具体的には、SLU1(320)からSLU2(321)へのリモートコピーが分割された後で、SLU2(321)に更新が発生した領域のデータのみをSLU2(321)からSLU1(320)へコピーする処理を行う。
ステップS1306では、リモートコピー再開プログラム613が、管理計算機140に対し、リモートコピーの再開完了を示す応答を通知して処理を終了する。尚、本ステップの処理は、所定のタイミングでもよく、例えば、S1304の終了後、S1305の開始前に行っても良い。
以上の処理によって、第一のストレージ装置120と第二のストレージ装置130のコピーペアの関係は逆転し、第二のストレージ装置130のSLU2(321)から第一のストレージ装置120のSLU1(320)へリモートコピーが行われる。
図19は、テストフェールオーバからリモートコピー再開までに計算機システム全体で行われる処理の一例を示すシーケンス図である。
第一のホスト計算機110−Aでは、仮想マシン210−Aが正サイト(現用系)で稼働しており、仮想マシン210−Aが第一のストレージ装置120へ書き込みを行うと(S1)、SLU1(320)に書き込まれたデータはリモートコピーペアである第二のストレージ装置130のSLU2(321)にリモートコピーされる(S2)。
次に、管理計算機140の管理プログラム148が第二のホスト計算機110−Bの仮想マシン210−Bにテストフェールオーバの指示を送信する(S3)。副サイト(待機系)で稼働する仮想マシン210−Bは、第二のストレージ装置130にSLU2のスナップショットボリューム(SS VOL322)を生成させ(S4)、SS VOL322を利用してフェイルオーバのテストを実施する(S5)。なお、第二のストレージ装置130は、SS VOL322を生成すると当該論理デバイスの仮想ID(SLU ID)を設定して、I/O要求を発行する仮想マシン210−Bに当該仮想IDを認識させる。
仮想マシン210−Bで、テストフェールオーバの実行中に正サイトの仮想マシン210−Aで障害が発生する(S6)。管理計算機140は、仮想マシン210−Aで障害が発生したことを検出すると、副サイトの仮想マシン210−Bにテストフェールオーバから正式なフェイルオーバに切り替える指令を送信する(S7)。そして、管理計算機140は、待機系を構成する第二のストレージ装置130に、リモートコピーの再開準備コマンドを送信する(S8)。
第二のストレージ装置130は、SS VOL322のキューイングを開始してSS VOL322が更新されるのを抑止してから(S9)、第二のストレージ装置130は、SS VOL322とSLU2(321)のSLU IDを入れ替えて、仮想マシン210−BがアクセスするSLUをコピーペアのS−VOLのSLU2(321)に切り替える(S10)。また、スナップショットのリストア処理をバックグランドで実行し(S11)し、SS VOL322とSLU2(321)との差分データをSLU2(321)にコピーする。
次に、第二のストレージ装置130は、キューイングを終了して仮想マシン210−BのSLU2(321)へのアクセスを許可する(S12)。第二のストレージ装置130は、リモートコピーの再開準備が完了したことを管理計算機140へ通知する(S13)。なお、上述のようにキューイングが終了した後にもスナップショットリストア処理が継続する場合がある。
管理計算機140の管理プログラム148は、リモートコピーの再開準備が完了したことを受信すると、第二のストレージ装置130にリモートコピーの再開コマンドを送信する(S14)。
第二のストレージ装置130のリモートコピーの再開プログラム613は、リモートコピーペア管理テーブル604でSLU2(322)のペア属性列1003をSVOLからPVOLに変更する(S15)。次に、リモートコピーの再開プログラム613は、第一のストレージ装置120に対して、SLU2(322)のコピーペアとなっているSLU1(320)のペア属性をPVOLからSVOLへ変更するよう指令する(S16)。
そして、リモートコピーの再開プログラム613は、SLU2(322)とSLU1(320)の差分をSLU1(320)へコピーする(S17)。差分コピーが完了すると、リモートコピーの再開プログラム613は、管理計算機140へリモートコピーの再開が完了したことを管理計算機140に通知する(S18)。以降、第二のストレージ装置130は、仮想マシン210−Bからの書き込みを受け付けると、SLU2(322)に書き込んだデータをSLU1(320)へリモートコピーを行う。
以上のように、本実施例1では、テストフェールオーバ中に障害が発生した場合には、待機系の仮想マシン210−Bが使用していたスナップショット(SS VOL)へのI/O要求を第二のストレージ装置130が停止してから、リモートコピーのSVOLとなっているSLU2(322)へスナップショットとの差分を書き込んでから、SLU2とスナップショットのIDを入れ替えて、仮想マシン210−Bが書き込むボリュームの経路を切り替える。
次に、第二のストレージ装置130は、仮想マシン210−BからSLU2へのI/O要求を許可してから、第二のストレージ装置130のSLU2とコピーペアの関係にある第一のストレージ装置120のSLU1(320)のPVOLとSVOLの関係を切り替えてから、差分コピーを行ってSLU1をリストアする。
本実施例1では、前記従来例のようにテストフェールオーバで使用していたSS VOLから第一のストレージ装置120のPVOLへ全コピーを行う必要がなくなって、差分コピーとSLU IDの切り替えと、リモートコピー方向の切り替えを行えば良いので、フェイルオーバに要する時間を短縮することが可能となる。換言すれば、リモートコピーペアを構成しない副サイトのスナップショットから正サイトの論理デバイスへの逆方向のリモートコピーを、全領域コピーを行うことなく高速に実現することができる。
本発明の第二の実施例について、図14〜図18を用いて説明する。
図14は、第二の実施例における、計算機システムの論理的な構成の一例を示すブロック図である。物理構成は、前記図1の第一の実施例と同様である。本実施例2中のホスト計算機110、HBA116、ポート127、ストレージ装置120、130、SAN150、仮想マシン210、LU214は、前記実施例1の図1、図2と同様であるため、説明を省略する。
仮想論理デバイス1410は、ストレージ装置120、130のLU214をホスト計算機110が認識する単位である。実施例2では、同一のホスト計算機110内の複数の仮想マシン210が、仮想論理デバイス1410を共有することができる。
仮想マシン210から仮想論理デバイス1410へのI/O要求(ReadやWrite等)は、ストレージ装置120、130へのI/Oコマンドとして発行される。
第一のストレージ装置120及び第二のストレージ装置130のLDEV1420は、ストレージ装置120、130の論理デバイスである。LDEV1420は、ホスト計算機110が認識するLDEV ID、或いは、仮想的なIDである仮想LDEV IDにより管理されるが、本実施例2では、仮想LDEV IDで管理する例を示す。LDEV1420は、LU214と、後述する(仮想LDEV管理テーブル1600)により対応付けて管理される。
図15は、第二の実施例における、リモートコピー方向切替え時のI/O処理で行われる処理の概念図である。第一の実施例における、リモートコピー方向切替え時のI/O処理の概略図である図4との差異を中心に説明する。
第二のホスト計算機110−Bの仮想マシン210−Bから、仮想論理デバイス1420−Bに対して発行されたI/O要求は、SAN150を経由して第二のストレージ装置130に伝送される。
このとき、仮想論理デバイス1420−Bと対応付けられたSS VOL1522を有する第二のストレージ装置130は、このI/O要求を受領し、SS VOL1522に対してI/O処理を行っている。
第二のストレージ装置130は、管理計算機140からの指示により、I/O経路1512からI/O経路1513へI/O経路の変更を行う。具体的には、LDEV2(1521)のIDを2000から3000へ変更し、SS VOL1522のIDを3000から2000へ変更した後で行われる(詳細は、図18で後述)。
スナップショットのリストア経路1514、及び、リモートコピー経路1515の処理と実行契機は、図4のスナップショットのリストア経路412、及び、リモートコピー経路414と同様である。図4の説明のSLU1(320)、SLU2(321)を、LDEV1(1520)、LDEV2(1521)に読み替えることで説明できるため、記載を省略する。
図16は、第二の実施例における、仮想LDEV管理テーブル1600の一例を示す図である。
仮想LDEV管理テーブル1600は、例えば、ポートID列1601と、LUN列1602と、仮想LDEV ID列1603と、I/Oキューイングフラグ列1604と、を対応付けて管理する。
仮想LDEV ID列1603には、自ストレージ装置に定義されているLDEVに対し、仮想的に付与したLDEVの識別情報(仮想ID)が格納される。
その他、ポートID列1601、LUN列1602、I/Oキューイングフラグ列1604については、前記実施例1の図7のポートID列701、LUN列702、I/Oキューイングフラグ列705と同様であるため、説明を省略する。
例えば、行1611には、仮想LDEV ID「1000」は、LUN「00」、ポートID「00」と紐付けられており、当該LDEVのI/Oキューイングフラグが「OFF」であることを示す。
図17は、第二の実施例における、仮想LDEV−実LDEV管理テーブル1700の一例を示す図である。
仮想LDEV−実LDEV管理テーブル1700は、例えば、仮想LDEV ID1701列と、LDEV ID列1702と、LDEV開始アドレス列1703列と、LDEV終了アドレス列1704と、を対応付けて管理する。
仮想LDEV ID列1701には、自ストレージ装置に定義されているLDEVに対し、仮想的に付与したLDEVの識別情報(仮想ID)が格納される。
その他、LDEV ID列1702、LDEV開始アドレス列1703列、LDEV終了アドレス列1704については、図8のLDEV ID列802、LDEV開始アドレス列803、LDEV終了アドレス列804と同様であるため、説明を省略する。
例えば、行1711には、仮想LDEV ID「2000」に紐づくLDEV IDは、「2222」であり、当該LDEV領域の開始アドレスは「020000」、終了アドレスは「020999」であることを示す。
図18は、第二の実施例における、リモートコピー再開準備プログラム1800で行われる処理の一例を示すフローチャートである。
本実施例2では、この処理は、第二のストレージ装置130が、管理計算機140から、SS VOL1522に対する「リモートコピー再開準備コマンド」を受領したことを契機に処理を行う。
ステップS1801では、リモートコピー再開準備プログラム1800が、管理計算機140からリモートコピー再開準備コマンドを受領する。ステップS1802では、リモートコピー再開準備プログラム1800が、管理計算機140から受領したリモートコピー再開準備コマンドから、スナップショットVOLであるSS VOL1522のLDEV IDを取得する。
ステップS1803では、リモートコピー再開準備プログラム1800が、仮想LDEV−実LDEV管理テーブル1700の「仮想LDEV ID」列1701に対し、ステップS1802で取得したSS VOL1522のLDEV IDの検索を行い、検索結果に対応する「LDEV ID」列1702の値を取得する。
ステップS1804では、リモートコピー再開準備プログラム1800が、スナップショットペア管理テーブル603の「スナップショットVOL LDEV ID」列903に対し、ステップS1803で取得したSS VOL1522のLDEV IDの検索を行い、検索結果に対応する「スナップショット作成元LDEV ID」列902の値を、LDEV2(1521)のLDEV IDとして取得する。
また、リモートコピー再開準備プログラム1800は、仮想LDEV−実LDEV管理テーブル1700の「仮想LDEV ID」列1701に対し、上記で取得したLDEV2(1521)のLDEV IDの検索を行い、検索結果に対応する「LDEV ID」列1702の値を取得する。この値は、ステップS1809で使用する。
ステップS1805では、リモートコピー再開準備プログラム1800が、リモートコピーペア管理テーブル604の「LDEV ID」列1002に対し、ステップS1804で取得したLDEV2(1521)のLDEV IDの検索を行い、当該行が存在すること(=LDEV2(1521)がリモートコピーペアを構成済であること)を判定検証する。
ステップS1806では、リモートコピー再開準備プログラム1800は、仮想LDEV管理テーブル1600の「仮想LDEV ID」列1603から、ステップS1802で特定したSS VOL1522のLDEV IDを検索し、対応する「I/Oキューイングフラグ」列1604の値をONに変更する。
ステップS1807では、リモートコピー再開準備プログラム1800は、ステップS1802で特定したSS VOL1522から、ステップS1804で特定したLDEV2(1521)へのスナップショットリストア処理をキックし、ステップS1808に遷移する。キックされたことを契機に、バックグラウンドで行われるスナップショットリストア処理では、SS VOL1522とLDEV2(1521)との差分データのみをコピーする。
ステップS1808では、リモートコピー再開準備プログラム1800が、仮想LDEV−実LDEV管理テーブル1700の「仮想LDEV ID」列1701について、値がSS VOL1522のLDEV IDであるものはLDEV2(1521)のLDEV IDに更新し、値がLDEV2(1521)のLDEV IDであるものはSS VOL1522のLDEV IDに更新することで、IDの入れ替えを行う。これにより、I/O経路1512からI/O経路1513へI/O経路の切り替えを行う。
ステップS1809では、リモートコピー再開準備プログラム1800が、仮想LDEV管理テーブル1600の「仮想LDEV ID」列1603から、S1802で特定したSS VOL1522のLDEV ID(LDEV ID入れ替え後は、LDEV2(1521)のLDEV ID)を検索し、検索結果に対応する「I/Oキューイングフラグ」列1604の値をOFFに変更する。
ステップS1810では、リモートコピー再開準備プログラム1800が、管理計算機140に対し、リモートコピー再開準備コマンドの処理が完了した応答を通知して処理を終了する。
以上のように、本実施例2では、テストフェールオーバ中に障害が発生した場合には、待機系の仮想マシン210−Bが使用していたスナップショット(SS VOL)への書き込みを停止してから、LDEV2とスナップショットの仮想ID(仮想LDEV ID)を入れ替えて、仮想マシン210−Bが書き込むボリュームの経路を切り替える。また、バックグラウンドにてスナップショットリストア処理が実行され、リモートコピーのSVOLとなっているLDEV2(1521)へスナップショット(SS VOL)との差分が書き込む。次に、仮想マシン210−BからLDEV2へのI/O要求を許可してから、第二のストレージ装置130のLDEV2とコピーペアの関係にある第一のストレージ装置120のLDEV1のPVOLとSVOLの関係を切り替えてから、差分コピーを行ってLDEV1をリストアする。なお、スナップショットリストア処理は、キューイングが終了した後も継続する場合がある。
本実施例2においても、前記従来例のようにテストフェールオーバで使用していたSS VOLから第一のストレージ装置120のPVOLへ全コピーを行う必要がなくなって、差分コピーとLDEV2のIDの切り替えと、リモートコピー方向の切り替えを行えば良いので、論理デバイスとして仮想LDEVを採用した場合でもフェイルオーバからの復旧に要する時間を短縮することが可能となる。
以上、本発明の実施例を説明したが、本発明は、これらの実施形態に限定されるものでなく、その要旨を逸脱しない範囲で種々変更可能であることはいうまでもない。例えば、第一または第二の実施形態において、第二のストレージ装置130が管理計算機140から、リモートコピーペア再開準備コマンドとリモートコピーペア再開(逆方向)の2つのコマンドの情報を合わせた1つのコマンドを受領したことを契機に、リモートコピー再開準備プログラム612を、S1210の完了応答を除いて実行した後、リモートコピー再開プログラム613を連続して実行しても良い。
また第一または第二の実施形態において、リモートコピー再開準備プログラム612やリモートコピー再開プログラム613の各ステップは、それぞれ管理計算機140からの異なるコマンドを受領したことを契機に実行されてもよい。例えば、リモートコピー再開準備プログラム612ではS1202〜S1205を実行後に管理計算機140に応答を行い、S1206、S1207、S1208、S1209の処理はそれぞれ別のコマンドを受領したことを契機に実行され、リモートコピー再開プログラム613ではS1302〜S1304を実行後に管理計算機140に応答を行い、S1305の処理は別のコマンドを受領したことを契機に実行されても良い。
また、第一または第二の実施形態において、ホスト計算機内のサーバ内の仮想マシンがホスト計算機相当の働きをし、第一のストレージ装置120及び第二のストレージ装置130の各プログラム、及び、各テーブルが当該ホスト計算機内で稼働することにより、ストレージ装置の一部または全部を含まない構成も変形例の一つとして考えられる。
なお、本発明は上記した実施例に限定されるものではなく、様々な変形例が含まれる。例えば、上記した実施例は本発明を分かりやすく説明するために詳細に記載したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、ある実施例の構成の一部を他の実施例の構成に置き換えることが可能であり、また、ある実施例の構成に他の実施例の構成を加えることも可能である。また、各実施例の構成の一部について、他の構成の追加、削除、又は置換のいずれもが、単独で、又は組み合わせても適用可能である。
また、上記の各構成、機能、処理部、及び処理手段等は、それらの一部又は全部を、例えば集積回路で設計する等によりハードウェアで実現してもよい。また、上記の各構成、及び機能等は、プロセッサがそれぞれの機能を実現するプログラムを解釈し、実行することによりソフトウェアで実現してもよい。各機能を実現するプログラム、テーブル、ファイル等の情報は、メモリや、ハードディスク、SSD(Solid State Drive)等の記録装置、または、ICカード、SDカード、DVD等の記録媒体に置くことができる。
また、制御線や情報線は説明上必要と考えられるものを示しており、製品上必ずしも全ての制御線や情報線を示しているとは限らない。実際には殆ど全ての構成が相互に接続されていると考えてもよい。

Claims (10)

  1. 管理計算機と、第1のストレージ装置と、第2のストレージ装置とを含む計算機システムであって、
    前記第1のストレージ装置の第1の論理デバイスと、前記第2のストレージ装置の第2の論理デバイスがリモートコピーペアを構成し、
    前記第2のストレージ装置の前記第2の論理デバイスと第3の論理デバイスがコピーペアを構成し、前記第2の論理デバイスと前記第3の論理デバイスはI/O要求の発行元が認識する仮想IDを有し、
    前記第2のストレージ装置は、前記I/O要求の発行元からの前記第3の論理デバイスへのI/O要求の処理中に、前記管理計算機から所定の指令を受け付けたことを契機に、前記第3の論理デバイスと第2の論理デバイスの仮想IDを入れ替えることにより、前記I/O要求の発行元のアクセス先を第3の論理デバイスから第2の論理デバイスに切替えることを特徴とする計算機システム。
  2. 請求項1に記載の計算機システムであって、
    前記第2のストレージ装置は、
    前記仮想IDの入れ替えを行っている間は、前記I/O要求をキューイングすることを特徴とする計算機システム。
  3. 請求項1に記載の計算機システムであって、
    前記第2のストレージ装置は、
    前記第3の論理デバイスと第2の論理デバイスの仮想IDを入れ替える前に、前記第3の論理デバイスから第2の論理デバイスへ差分データをリストアすることを特徴とする計算機システム。
  4. 請求項1に記載の計算機システムであって、
    前記第2のストレージ装置は、
    前記第3の論理デバイスと第2の論理デバイスの仮想IDを入れ替えた後に、前記第2の論理デバイスから前記第1の論理デバイスへリモートコピーペアを実施することを特徴とする計算機システム。
  5. 請求項2に記載の計算機システムであって、
    前記第2のストレージ装置は、
    前記第3の論理デバイスと第2の論理デバイスの仮想IDを入れ替えた後に、前記I/O要求のキューイングを終了することを特徴とする計算機システム。
  6. 管理計算機と、第1のストレージ装置と、第2のストレージ装置とを含む計算機システムで前記第1及び第2のストレージ装置を制御するストレージ装置の制御方法であって、
    前記管理計算機が、前記第1のストレージ装置の第1の論理デバイスと、前記第2のストレージ装置の第2の論理デバイスがリモートコピーペアを設定する第1のステップと、
    前記第2のストレージ装置が、前記第2の論理デバイスと第3の論理デバイスにコピーペアを設定し、前記第2の論理デバイスと前記第3の論理デバイスにはI/O要求の発行元が認識する仮想IDを設定する第2のステップと、
    前記第2のストレージ装置が、前記I/O要求の発行元からの前記第3の論理デバイスへのI/O要求の処理中に、前記管理計算機から所定の指令を受け付けたことを契機に、前記第3の論理デバイスと第2の論理デバイスの仮想IDを入れ替えることにより、前記I/O要求の発行元のアクセス先を第3の論理デバイスから第2の論理デバイスに切替える第3のステップと、
    を含むことを特徴とするストレージ装置の制御方法。
  7. 請求項6に記載のストレージ装置の制御方法であって、
    前記第3のステップは、
    前記第2のストレージ装置が、前記仮想IDの入れ替えを行っている間は、前記I/O要求をキューイングすることを特徴とするストレージ装置の制御方法。
  8. 請求項6に記載のストレージ装置の制御方法であって、
    前記第3のステップは、
    前記第2のストレージ装置が、前記第3の論理デバイスと第2の論理デバイスの仮想IDを入れ替える前に、前記第3の論理デバイスから第2の論理デバイスへ差分データをリストアすることを特徴とするストレージ装置の制御方法。
  9. 請求項6に記載のストレージ装置の制御方法であって、
    前記第3のステップは、
    前記第2のストレージ装置が、前記第3の論理デバイスと第2の論理デバイスの仮想IDを入れ替えた後に、前記第2の論理デバイスから前記第1の論理デバイスへリモートコピーペアを実施することを特徴とするストレージ装置の制御方法。
  10. 請求項7に記載のストレージ装置の制御方法であって、
    前記第3のステップは、
    前記第2のストレージ装置が、前記第3の論理デバイスと第2の論理デバイスの仮想IDを入れ替えた後に、前記I/O要求のキューイングを終了することを特徴とするストレージ装置の制御方法。
JP2018527283A 2016-07-12 2016-07-12 計算機システム及びストレージ装置の制御方法 Active JP6557785B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2016/070545 WO2018011882A1 (ja) 2016-07-12 2016-07-12 計算機システム及びストレージ装置の制御方法

Publications (2)

Publication Number Publication Date
JPWO2018011882A1 true JPWO2018011882A1 (ja) 2018-12-06
JP6557785B2 JP6557785B2 (ja) 2019-08-07

Family

ID=60952465

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018527283A Active JP6557785B2 (ja) 2016-07-12 2016-07-12 計算機システム及びストレージ装置の制御方法

Country Status (3)

Country Link
US (1) US10761767B2 (ja)
JP (1) JP6557785B2 (ja)
WO (1) WO2018011882A1 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10656877B2 (en) * 2016-12-06 2020-05-19 Nutanix, Inc. Virtual storage controller
US11061585B1 (en) 2017-10-19 2021-07-13 EMC IP Holding Company, LLC Integration of NVMe device with DRAM cache system and method
US10521137B1 (en) * 2017-10-31 2019-12-31 EMC IP Holding Company LLC Storage device array integration of dual-port NVMe device with DRAM cache and hostside portion of software stack system and method
US11397539B2 (en) * 2020-11-30 2022-07-26 EMC IP Holding Company LLC Distributed backup using local access

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004302556A (ja) * 2003-03-28 2004-10-28 Hitachi Ltd 複数の計算機システム間でのデータ共有方法およびディスク制御装置
JP2009093316A (ja) * 2007-10-05 2009-04-30 Hitachi Ltd ストレージシステム及び仮想化方法
JP2010039986A (ja) * 2008-08-08 2010-02-18 Hitachi Ltd データのバックアップを管理する計算機システム及び方法
JP2011090550A (ja) * 2009-10-23 2011-05-06 Hitachi Ltd コンピュータシステム及びプログラム記録媒体
JP2012185575A (ja) * 2011-03-03 2012-09-27 Nec Corp ストレージシステム及びリビルド処理高速化方法
JP2013054407A (ja) * 2011-08-31 2013-03-21 Fujitsu Ltd ストレージシステム、ストレージ制御装置およびストレージ制御方法
JP2015531091A (ja) * 2012-10-04 2015-10-29 株式会社日立製作所 システム管理方法、及び計算機システム

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6886053B2 (en) * 2002-05-28 2005-04-26 Sun Microsystems, Inc. Method, system, and program for managing access to a device
US7103727B2 (en) * 2002-07-30 2006-09-05 Hitachi, Ltd. Storage system for multi-site remote copy
WO2005083569A1 (ja) * 2004-02-26 2005-09-09 Nec Corporation ネットワーク間のプロセス移動方法およびそのネットワークシステム
US7058731B2 (en) * 2004-08-03 2006-06-06 Hitachi, Ltd. Failover and data migration using data replication
JP2006301820A (ja) * 2005-04-19 2006-11-02 Hitachi Ltd ストレージシステム及びストレージシステムのデータ移行方法
JP2007066162A (ja) * 2005-09-01 2007-03-15 Hitachi Ltd ストレージシステム及びストレージシステムの管理方法
US9032164B2 (en) * 2006-02-17 2015-05-12 Emulex Corporation Apparatus for performing storage virtualization
JP4804218B2 (ja) * 2006-05-11 2011-11-02 株式会社日立製作所 記憶媒体への書き込み回数を管理する計算機システム及びその制御方法
JP5508798B2 (ja) * 2009-09-29 2014-06-04 株式会社日立製作所 クラスタを考慮してレプリケーションを管理する管理方法及びシステム
JP5492731B2 (ja) 2010-10-06 2014-05-14 株式会社日立製作所 仮想計算機のボリューム割当て方法およびその方法を用いた計算機システム
US8782358B2 (en) * 2011-04-27 2014-07-15 International Business Machines Corporation Transparent input / output switching between synchronously mirrored storage volumes
KR101850318B1 (ko) * 2011-12-09 2018-04-20 삼성전자주식회사 가상 메모리 관리 장치 및 방법
US9189341B1 (en) * 2012-03-30 2015-11-17 Emc Corporation Method and apparatus for multi-copy replication using a multi-splitter
WO2014041591A1 (ja) * 2012-09-11 2014-03-20 株式会社日立製作所 管理装置及び管理方法
US9092449B2 (en) * 2012-10-17 2015-07-28 International Business Machines Corporation Bitmap selection for remote copying of updates
JP5990641B2 (ja) * 2013-05-08 2016-09-14 株式会社日立製作所 ストレージシステム及びデータ管理方法
WO2016199232A1 (ja) * 2015-06-10 2016-12-15 株式会社日立製作所 ストレージ管理計算機、及びストレージ装置の管理方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004302556A (ja) * 2003-03-28 2004-10-28 Hitachi Ltd 複数の計算機システム間でのデータ共有方法およびディスク制御装置
JP2009093316A (ja) * 2007-10-05 2009-04-30 Hitachi Ltd ストレージシステム及び仮想化方法
JP2010039986A (ja) * 2008-08-08 2010-02-18 Hitachi Ltd データのバックアップを管理する計算機システム及び方法
JP2011090550A (ja) * 2009-10-23 2011-05-06 Hitachi Ltd コンピュータシステム及びプログラム記録媒体
JP2012185575A (ja) * 2011-03-03 2012-09-27 Nec Corp ストレージシステム及びリビルド処理高速化方法
JP2013054407A (ja) * 2011-08-31 2013-03-21 Fujitsu Ltd ストレージシステム、ストレージ制御装置およびストレージ制御方法
JP2015531091A (ja) * 2012-10-04 2015-10-29 株式会社日立製作所 システム管理方法、及び計算機システム

Also Published As

Publication number Publication date
US10761767B2 (en) 2020-09-01
US20190065064A1 (en) 2019-02-28
WO2018011882A1 (ja) 2018-01-18
JP6557785B2 (ja) 2019-08-07

Similar Documents

Publication Publication Date Title
US10394662B2 (en) Storage apparatus and storage apparatus migration method
JP5718533B1 (ja) ストレージシステムのデータ移行方法
JP5620614B1 (ja) ストレージシステム
JP5286212B2 (ja) ストレージクラスタ環境でのリモートコピー制御方法及びシステム
US20100036896A1 (en) Computer System and Method of Managing Backup of Data
US8677090B2 (en) First storage apparatus and first storage apparatus control method
JP5706808B2 (ja) 連続的なリモートコピーのためのネットワーク効率の改良
WO2014174570A1 (ja) ストレージ管理計算機、ストレージ管理方法、およびストレージシステム
JP6557785B2 (ja) 計算機システム及びストレージ装置の制御方法
WO2017171804A1 (en) Method and apparatus for defining storage infrastructure
WO2014091600A1 (ja) ストレージ装置及びストレージ装置移行方法
JP6227771B2 (ja) 論理ボリュームを管理するためのシステム及び方法
CN110716882B (zh) 存储系统
JP6039818B2 (ja) 情報システム、ホストシステム、及びアクセス制御方法
JP2014038551A (ja) データ記憶装置、データ記憶装置の制御方法、及びデータ記憶装置の制御プログラム
US9977813B2 (en) Storage device and data migration method
JP6000391B2 (ja) ストレージシステムのデータ移行方法
JP6343716B2 (ja) 計算機システム及び記憶制御方法
WO2014087465A1 (ja) ストレージ装置及びストレージ装置移行方法
JP6013420B2 (ja) ストレージシステム
JP2021033782A (ja) リモートコピーシステム
JP2016024656A (ja) ストレージ制御装置、ストレージシステム及びストレージ制御プログラム
US20240220378A1 (en) Information processing system and information processing method
WO2015132946A1 (ja) ストレージシステム及びストレージシステムの制御方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180730

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190618

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190712

R150 Certificate of patent or registration of utility model

Ref document number: 6557785

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350