JP2006301820A - ストレージシステム及びストレージシステムのデータ移行方法 - Google Patents
ストレージシステム及びストレージシステムのデータ移行方法 Download PDFInfo
- Publication number
- JP2006301820A JP2006301820A JP2005120431A JP2005120431A JP2006301820A JP 2006301820 A JP2006301820 A JP 2006301820A JP 2005120431 A JP2005120431 A JP 2005120431A JP 2005120431 A JP2005120431 A JP 2005120431A JP 2006301820 A JP2006301820 A JP 2006301820A
- Authority
- JP
- Japan
- Prior art keywords
- migration
- volume
- data
- migration destination
- destination volume
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 238000013508 migration Methods 0.000 title claims abstract description 549
- 230000005012 migration Effects 0.000 title claims abstract description 549
- 238000003860 storage Methods 0.000 title claims description 246
- 238000000034 method Methods 0.000 title claims description 57
- 238000012544 monitoring process Methods 0.000 claims abstract description 158
- 238000012546 transfer Methods 0.000 claims description 19
- 238000004891 communication Methods 0.000 claims description 17
- 238000012790 confirmation Methods 0.000 claims description 10
- 230000001360 synchronised effect Effects 0.000 claims description 4
- 238000007726 management method Methods 0.000 description 122
- 230000008569 process Effects 0.000 description 44
- 230000015654 memory Effects 0.000 description 37
- 238000012545 processing Methods 0.000 description 37
- 102220060547 rs786203080 Human genes 0.000 description 14
- 238000010586 diagram Methods 0.000 description 11
- 230000006870 function Effects 0.000 description 9
- 238000005259 measurement Methods 0.000 description 7
- 230000007704 transition Effects 0.000 description 7
- 238000013507 mapping Methods 0.000 description 6
- 238000004364 calculation method Methods 0.000 description 5
- 230000008859 change Effects 0.000 description 5
- 238000013523 data management Methods 0.000 description 5
- 238000011156 evaluation Methods 0.000 description 4
- 239000000835 fiber Substances 0.000 description 4
- 238000012423 maintenance Methods 0.000 description 3
- 230000004044 response Effects 0.000 description 3
- 230000015572 biosynthetic process Effects 0.000 description 2
- 230000015556 catabolic process Effects 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 238000006731 degradation reaction Methods 0.000 description 2
- 230000003111 delayed effect Effects 0.000 description 2
- 238000011084 recovery Methods 0.000 description 2
- 238000012795 verification Methods 0.000 description 2
- 238000007792 addition Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 239000003999 initiator Substances 0.000 description 1
- 238000012432 intermediate storage Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F11/00—Error detection; Error correction; Monitoring
- G06F11/30—Monitoring
- G06F11/34—Recording or statistical evaluation of computer activity, e.g. of down time, of input/output operation ; Recording or statistical evaluation of user activity, e.g. usability assessment
- G06F11/3466—Performance evaluation by tracing or monitoring
- G06F11/3485—Performance evaluation by tracing or monitoring for I/O devices
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/06—Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
- G06F3/0601—Interfaces specially adapted for storage systems
- G06F3/0602—Interfaces specially adapted for storage systems specifically adapted to achieve a particular effect
- G06F3/061—Improving I/O performance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/06—Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
- G06F3/0601—Interfaces specially adapted for storage systems
- G06F3/0628—Interfaces specially adapted for storage systems making use of a particular technique
- G06F3/0629—Configuration or reconfiguration of storage systems
- G06F3/0635—Configuration or reconfiguration of storage systems by changing the path, e.g. traffic rerouting, path reconfiguration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/06—Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
- G06F3/0601—Interfaces specially adapted for storage systems
- G06F3/0628—Interfaces specially adapted for storage systems making use of a particular technique
- G06F3/0646—Horizontal data movement in storage systems, i.e. moving data in between storage devices or systems
- G06F3/0647—Migration mechanisms
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/06—Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
- G06F3/0601—Interfaces specially adapted for storage systems
- G06F3/0628—Interfaces specially adapted for storage systems making use of a particular technique
- G06F3/0653—Monitoring storage devices or systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/06—Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
- G06F3/0601—Interfaces specially adapted for storage systems
- G06F3/0668—Interfaces specially adapted for storage systems adopting a particular infrastructure
- G06F3/067—Distributed or networked storage systems, e.g. storage area networks [SAN], network attached storage [NAS]
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Computer Hardware Design (AREA)
- Quality & Reliability (AREA)
- Computer Networks & Wireless Communication (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Debugging And Monitoring (AREA)
Abstract
【課題】 移行先ボリュームの性能を適切に監視し、データマイグレーションのやり直しを短時間で行う。
【解決手段】 データマイグレーションを行う場合、移行元ボリューム1から移行先ボリューム2へ全データをコピーさせ(S1)、全コピーの完了後に、ホスト4のアクセスパスを移行先ボリューム2に切替える(S2)。全コピー完了後も各ボリューム1,2間のコピーペアは維持され、移行先ボリューム2で生じた差分は管理される(S3)。性能監視部6は、移行先ボリューム2の種類に応じた指標に基づいて、移行先ボリューム2の性能を監視する。監視の結果(S4)、データマイグレーション前の状態に復帰させることが決定されると、移行先ボリューム2から移行元ボリューム1へ差分データがコピーされ(S5)、ホスト1のアクセスパスが移行元ボリューム1へ切り替えられる(S6)。
【選択図】 図1
【解決手段】 データマイグレーションを行う場合、移行元ボリューム1から移行先ボリューム2へ全データをコピーさせ(S1)、全コピーの完了後に、ホスト4のアクセスパスを移行先ボリューム2に切替える(S2)。全コピー完了後も各ボリューム1,2間のコピーペアは維持され、移行先ボリューム2で生じた差分は管理される(S3)。性能監視部6は、移行先ボリューム2の種類に応じた指標に基づいて、移行先ボリューム2の性能を監視する。監視の結果(S4)、データマイグレーション前の状態に復帰させることが決定されると、移行先ボリューム2から移行元ボリューム1へ差分データがコピーされ(S5)、ホスト1のアクセスパスが移行元ボリューム1へ切り替えられる(S6)。
【選択図】 図1
Description
本発明は、それぞれ異なる複数種類のボリュームを有するストレージシステム及びストレージシステムのデータ移行方法に関する。
ストレージシステムは、例えば、多数のディスクドライブをアレイ状に配設して構成され、RAID(Redundant Array of Independent Disks)に基づく記憶領域を提供する。各ディスクドライブが有する物理的な記憶領域上には、論理的な記憶領域である論理ボリュームが形成される。ホストコンピュータは、ストレージシステムにライトコマンドやリードコマンドを発行することにより、所望のボリュームとの間でデータの読み書きを行うことができる。
ストレージシステムは、例えば、RAID構成の異なるボリュームをホストコンピュータに提供することができる。システム管理者や保守員等のユーザは、ボリュームの利用頻度に応じて、あるボリュームの記憶内容を他のボリュームに移すことができる。このようなボリューム移動は、データマイグレーションとして知られている(特許文献1)。この文献に記載の従来技術では、例えば、利用頻度の高いボリュームをRAID1で運用するディスクドライブに配置し、利用頻度の低いボリュームをRAID5で運用するディスクドライブに配置する。
特開平9−274544号公報
前記文献に記載の従来技術では、ボリューム単位でRAID構成を動的に変化させることができるが、ボリューム構成を変更しても、予期した性能を得られない場合がある。従って、データマイグレーション後に、ユーザは、その再配置されたボリュームの性能を監視し、予定通りの性能が得られているか、または、想定範囲内の性能低下に止まっているか否か等を検証する必要がある。
ところで、近年では、同一のストレージシステム内に、それぞれ性能の異なる複数種類のディスクドライブを混載することも考えられている。従って、物理デバイスのレベルで相違する2つのボリューム間で、データマイグレーションさせることも考えられる。
従って、この場合、ディスクドライブの種別をも考慮して、データ移行後のボリューム性能を検証する必要がある。しかし、従来は、ディスクドライブの種別の相違まで考慮してボリューム性能を検証していないため、ディスクドライブの種別が異なるボリューム間でのデータマイグレーションに対応することができない。
また、データマイグレーション後に、予定したボリューム性能が得られない等の理由によって、そのボリュームを移行先から移行元へ再配置する場合、移行先の全ての記憶内容を移行元にコピーする必要がある。従って、データマイグレーションをやり直すために、データマイグレーション前の状態に戻そうとすると、全データをコピーしなければならず、時間や手間がかかり、使い勝手が悪い。
そこで、本発明の一つの目的は、ボリュームの種類に応じた指標に基づいてデータ移行後の性能を検証することができるようにしたストレージシステム及びストレージシステムのデータ移行方法を提供することにある。本発明の他の一つの目的は、移行先から移行元へ速やかに切り替え直すことができるストレージシステム及びストレージシステムのデータ移行方法を提供することにある。本発明のさらなる目的は、後述する実施形態の記載から明らかになるであろう。
上記課題を解決すべく、本発明の一つの観点に従うストレージシステムは、上位装置により利用され得る複数種類のボリュームと、複数種類のボリュームの中からそれぞれ選択される移行元ボリューム及び移行先ボリュームの間で、データを移行させる制御部と、制御部によって移行元ボリュームから移行先ボリュームへデータが移行された場合に、移行先ボリュームの稼働状況を監視する監視部と、を備え、監視部は、移行先ボリュームの種類に応じた所定の指標について、移行先ボリュームの稼働状況を監視する、ようになっている。
複数種類のボリュームは、例えば、各ボリュームが設定される記憶デバイスの種別、各ボリュームが設定される記憶デバイスのデータ入出力速度、または各ボリュームのRAID構成の種別のうち少なくともいずれか一つ以上の属性によって分類可能である。即ち、例えば、FC(Fibre Channel)ディスクとSATA(Serial AT Attachment)ディスク等のように、それぞれ異なる種類のディスクドライブから複数種類のボリュームを生成することができる。また、例えば、1万回転のドライブと1万5千回転のドライブのように、それぞれ異なる回転数(データ入出力速度)を有するドライブから複数種類のボリュームを生成することができる。さらに、RAID1の記憶領域とRAID5の記憶領域等のように、RAID構成の異なる複数種類のボリュームを生成することもできる。また、これら各属性(ディスクドライブ種別、データ入出力速度、RAID構成)の組合せを違えることにより、より多種類のボリュームを生成することもできる。
制御部は、複数種類のボリュームの中から移行元ボリューム及び移行先ボリュームをそれぞれ選択する。制御部は、両ボリュームの属性の少なくとも一部が異なるように、移行元ボリュームと移行先ボリュームとをそれぞれ選択することができる。例えば、制御部は、信頼性が相対的に高い記憶デバイス(FCディスク)上のボリュームを移行元ボリュームとして、信頼性が相対的に低い記憶デバイス(SATAディスク)上のボリュームを移行先ボリュームとして、それぞれ選択可能である。
制御部によって移行元ボリュームから移行先ボリュームへのデータ移行が行われる場合、監視部は、移行先ボリュームの種類に応じた所定の指標について、移行先ボリュームの稼働状況を監視する。
制御部は、監視部によって移行先ボリュームの稼働状況が監視されている間、移行元ボリュームと移行先ボリュームとの対応関係を保持し続けることができる。移行元ボリュームと移行先ボリュームとの対応関係としては、例えば、いずれのボリュームがコピー元ボリュームであり、いずれのボリュームがコピー先ボリュームであるか等の関係を挙げることができる。監視部による移行先ボリュームの監視が行われている間、移行元ボリュームから移行先ボリュームへのデータ移行を確定させないようにすることができる。そして、この未確定の猶予期間中、制御部は、移行元ボリュームと移行先ボリュームとの対応関係を維持し、データ移行のやり直しに備えることができる。
所定の指標は、移行先ボリュームの種類(ディスクドライブ種別、データ入出力速度、RAID構成等)に基づいて予め設定される。指標としては、例えば、単位時間当たりのアクセス総数、単位時間当たりのライトアクセス総数、単位時間当たりのリードアクセス総数、ライトアクセスのキャッシュヒット率、リードアクセスのキャッシュヒット率、単位時間当たりのデータ転送サイズ、単位時間当たりのライトデータ転送サイズ、単位時間当たりのリードデータ転送サイズ、を挙げることができる。これらの各指標の中から、移行先ボリュームの種類に応じた一つ以上の指標が選択され、この選択された指標に基づいて、移行先ボリュームの稼働状況が監視される。
移行先ボリュームは、移行元ボリュームに比べて、ランダムアクセス性能が相対的に低い記憶デバイスに基づいて生成することもできる。この場合、監視部は、少なくとも移行先ボリュームへのランダムアクセスの状況を監視することができる。
ランダムアクセス性能の低い記憶デバイスとしては、例えば、SATAディスクを挙げることができる。これに対し、ランダムアクセス性能の高い記憶デバイスとしては、例えば、FCディスクを挙げることができる。
本発明の実施形態では、制御部に接続され、監視部による監視結果の表示及び制御部への指示がそれぞれ可能なユーザインターフェースを有する管理用コンピュータをさらに備えている。そして、制御部は、管理用コンピュータからの指示に基づいて、移行元ボリュームと移行先ボリュームとの間のデータ移行を制御する。
本発明の実施形態では、制御部は、
(1)予め設定されている移行条件に従って移行元ボリュームから移行先ボリュームへのデータ移行を行い、
(2)監視部による移行先ボリュームの稼働状況に関する監視結果と予め設定されている復帰条件とに基づいて、移行先ボリュームの使用を継続するか否か判定する。
(1)予め設定されている移行条件に従って移行元ボリュームから移行先ボリュームへのデータ移行を行い、
(2)監視部による移行先ボリュームの稼働状況に関する監視結果と予め設定されている復帰条件とに基づいて、移行先ボリュームの使用を継続するか否か判定する。
例えば、あるボリュームの利用頻度が所定値以上に増大した場合、制御部は、そのボリュームを移行元ボリュームとして、より高速なアクセスが可能な移行先ボリュームへのデータ移行を開始する。監視部は、移行先ボリュームの稼働状況を監視する。制御部は、この監視結果と復帰条件とに基づいて、その移行先ボリュームをそのまま継続して使用するか否かを判断することができる。例えば、予定された性能が得られない場合や予定された性能低下を上回る性能低下が検出された場合、制御部は、移行先ボリュームの使用を中止し、移行元ボリュームに切り替え直すことができる。
本発明の実施形態では、制御部は、監視部による監視結果に基づいて、移行先ボリュームの使用を中止する場合に、移行先ボリュームの記憶内容と移行元ボリュームの記憶内容とを同期させる。例えば、制御部は、移行先ボリュームの記憶内容と移行元ボリュームの記憶内容との差分データを、移行先ボリュームから移行元ボリュームにコピーさせることにより、移行先ボリュームと移行元ボリュームとを同期させることができる。
本発明の実施形態では、制御部は、
(1)移行元ボリュームから移行先ボリュームへのデータ移行が完了した場合に、移行元ボリュームと移行先ボリュームとの対応関係を維持しながら該各ボリューム間の差分データを管理し、
(2)監視部による監視結果に基づいて、移行先ボリュームの使用を中止する場合に、差分データを移行元ボリュームにコピーさせることにより、移行先ボリュームと移行元ボリュームとを同期させる、ようになっている。
(1)移行元ボリュームから移行先ボリュームへのデータ移行が完了した場合に、移行元ボリュームと移行先ボリュームとの対応関係を維持しながら該各ボリューム間の差分データを管理し、
(2)監視部による監視結果に基づいて、移行先ボリュームの使用を中止する場合に、差分データを移行元ボリュームにコピーさせることにより、移行先ボリュームと移行元ボリュームとを同期させる、ようになっている。
制御部は、移行元ボリュームと移行先ボリュームとの間でデータを移行させている場合も、上位装置からのアクセス要求を受付可能である。即ち、上位装置からのアクセス要求を停止させることなく、上位装置にボリュームを提供しながら、複数のボリューム間でデータを移行させることができる。
例えば、制御部は、移行元ボリュームと移行先ボリュームとの間でデータを移行させている場合に、上位装置からのライトデータを受信したときは、このライトデータを移行元ボリューム及び移行先ボリュームの両方にそれぞれ書き込ませることにより、上位装置からのアクセス要求を受け付けながら、データ移行を行うことができる。
監視部は、移行元ボリュームから移行先ボリュームへの移行完了後に予め設定されている所定時間が経過した場合に、移行先ボリュームの稼働状況に関する監視を終了し、制御部は、監視部による監視が終了した場合に、移行元ボリュームから移行先ボリュームへのデータ移行を確定させることもできる。即ち、移行元ボリュームから移行先ボリュームへのデータ移行が完了してからの経過時間が、予め設定されている所定時間に達した場合に、監視部は、移行先ボリュームに関する監視を終了させる。監視部による監視が終了すると、制御部は、移行元ボリュームから移行先ボリュームへのデータ移行を確定させることができる。
監視部は、明示の終了指示があった場合に、移行先ボリュームの稼働状況に関する監視を終了し、制御部は、監視部による監視が終了した場合に、移行元ボリュームから移行先ボリュームへのデータ移行を確定させることもできる。
本発明の他の観点に従うストレージシステムのデータ移行方法は、複数種類のボリュームを備えたストレージシステムにおいてボリューム間のデータ移行を制御するための方法であって、複数種類のボリュームの中から移行元ボリューム及び移行先ボリュームをそれぞれ選択する選択ステップと、移行元ボリュームと移行先ボリュームとを対応付けてコピーペアを生成し、移行元ボリュームの全ての記憶内容を移行先ボリュームに第1コピーさせる第1コピーステップと、第1コピーの実行中に、上位装置からのライトアクセスを受け付け、上位装置から受信したライトデータを移行元ボリューム及び移行先ボリュームにそれぞれ書き込ませる第1書込みステップと、第1コピーの完了後に、上位装置からのアクセスを移行先ボリュームに切り替える第1切替ステップと、移行先ボリュームと移行元ボリュームとの間に生じる差分データを管理する差分管理ステップと、第1コピーの完了後に、移行先ボリュームの種類に応じた所定の指標について、移行先ボリュームの稼働状況を監視する監視ステップと、を含む。
さらに、監視ステップの次に、監視ステップによる監視結果に基づいて、移行先ボリュームの使用を中止するか否かを判定する判定ステップと、判定ステップにより移行先ボリュームの使用中止が決定された場合、差分管理ステップにより管理されている差分データを移行元ボリュームに第2コピーさせる第2コピーステップと、第2コピーの実行中に、上位装置から受信したライトデータを移行先ボリューム及び移行元ボリュームにそれぞれ書き込ませる第2書込みステップと、第2コピーの完了後に、第1コピーステップによって生成されたコピーペアを解除するコピーペア解除ステップと、コピーペアの解除後に、上位装置からのアクセスを移行元ボリュームに切り替える第2切替ステップと、を含めることもできる。
さらに、判定ステップの次に、判定ステップにより移行先ボリュームの使用継続が決定された場合、コピーペアを解除して差分管理ステップによる差分データの管理を終了する移行確定ステップを含めることもできる。
本発明の機能や手段あるいはステップは、その全部または一部をコンピュータプログラムとして構成できる場合がある。このコンピュータプログラムは、記録媒体に固定して譲渡等することができるほかに、インターネット等の通信ネットワークを介して伝送することもできる。
以下、図面に基づき、本発明の実施の形態を説明する。本実施形態では、ボリューム構成の種類に応じた指標に基づいて、移行先ボリュームの性能を監視することにより、そのデータマイグレーションにおいて、移行先ボリュームの選択が適切であったか否かを判断できるようになっている。
もしも、その移行先ボリュームがそのデータマイグレーションにとって不適切であったた場合、データマイグレーション後に移行元ボリュームと移行先ボリュームとの間で発生した差分データのみを、移行先ボリュームから移行元ボリュームへコピーさせる。これにより、移行元ボリュームの記憶内容を最新の記憶内容に更新させることができる。その後、より適切と考えられる移行先ボリュームを選定し直して、データマイグレーションを再び実行することができる。
図1は、本実施形態の全体概念を示す説明図である。このストレージシステムでは、それぞれ種類の異なる移行元ボリューム1及び移行先ボリューム2を備えており、これら各ボリューム1,2間のデータ移行は、制御部3によって制御される。
ホスト4によって利用されるデータ群は、移行元ボリューム1に記憶されている。ホスト4は、移行元ボリューム1にアクセスすることにより、所望のデータを読み書きすることができる。
例えば、システム管理者や保守員等のユーザによって明示の指示が与えられた場合や、予め設定されている所定のデータマイグレーション条件が成立した場合は、移行元ボリューム1から移行先ボリューム2へのデータ移行が開始される。
まず初めに、移行元ボリューム1の全記憶内容が、移行先ボリューム2へコピーされる(S1)。この全コピーは、ホスト4を経由することなく、ストレージ装置内で行うことができる。移行ポインタP1は、移行元ボリューム1の記憶内容がどこまで移行済であるかを管理する。同様に、移行ポインタP2は、移行先ボリューム2にどこまで記憶内容がコピーされたかを管理する。
全コピーが行われている期間中でも、ホスト4は、所望のデータを読み書きすることができる。リードアクセスの場合、制御部3は、移行元ボリューム1からデータを読出してホスト4に送信する。これに対し、ライトアクセスの場合、制御部3は、ホスト4から受信したライトデータを、移行元ボリューム1及び移行先ボリューム2の両方にそれぞれ書き込ませる。これにより、全コピー期間中でも、ホスト4からのアクセス要求を受け付けて、その要求を処理することができる。
図1(b)は、全コピーが完了した場合を示す。移行元ボリューム1の全ての記憶内容を移行先ボリューム2に移行させた後、制御部3は、ホスト4からのアクセス先を移行先ボリューム2に切り替える(S2)。制御部3は、差分管理部5により、移行先ボリューム2に生じた差分データを管理する(S3)。差分データとは、全コピーの完了後に、移行先ボリューム2において更新されたデータであり、両ボリューム1,2間に生じた記憶内容の差である。制御部3は、全コピーの完了後も、移行元ボリューム1と移行先ボリューム2との対応関係(コピーペア)を維持しており、両ボリューム1,2間の差分を管理する。
性能監視部6は、移行元ボリューム1から移行先ボリューム2にホスト4のアクセスパスが切り替わると、所定の情報を定期的にまたは不定期に採取することにより、移行先ボリューム2の性能(稼働状況)を評価する。評価開始のタイミングは、差分データの管理開始タイミングと一致させることができる。あるいは、差分データの管理開始後に、移行先ボリューム2の評価を開始させることもできる。
性能監視部6は、移行先ボリューム2の種類に応じて設定された所定の指標について、移行先ボリューム2の性能を評価する。ここで、指標としては、例えば、単位時間当たりのアクセス総数、単位時間当たりのライトアクセス総数、単位時間当たりのリードアクセス総数、ライトアクセスのキャッシュヒット率、リードアクセスのキャッシュヒット率、単位時間当たりのデータ転送サイズ、単位時間当たりのライトデータ転送サイズ、単位時間当たりのリードデータ転送サイズ、単位時間当たりのランダムアクセス総数等を挙げることができる。性能監視部6は、これらの各指標の中から、移行先ボリューム2の特性に応じた一つまたは複数の指標を選択し、これら選択された各指標について移行先ボリューム2を監視する。
図1(c)に示すように、性能監視部6による評価の結果(S4)、例えば、移行先ボリューム2が不適切であったと判断された場合、移行先ボリューム2から移行元ボリューム1へ再び切り替えられる。
この切り替え直しの段階(復帰段階)では、移行先ボリューム2と移行元ボリューム1との記憶内容が再び同期される。再同期は、差分管理部5によって管理されている差分データを移行元ボリューム1にコピーすることにより、行われる(S5)。従って、この再同期は、全コピーを用いる場合に比べると、短時間で完了する。差分コピーが行われている期間中も(S5)、ホスト4からのアクセス要求は受け付けられる。リードアクセスの場合は、移行先ボリューム2からデータが読み出されてホスト4に送信される。ライトアクセスの場合、ホスト4から受信したライトデータは、移行元ボリューム1及び移行先ボリューム2の両方にそれぞれ書き込まれる。
このようにして、ホスト4からのアクセス要求を停止させることなく、差分データのみを移行元ボリューム1にコピーして、両ボリューム1,2の記憶内容を再同期させる。そして、再同期が完了すると、制御部3は、ホスト4からのアクセスパスを移行元ボリューム1に切り替え直す(S6)。
もしも、性能監視部6の評価により、移行先ボリューム2の選択が適切であると判定された場合、図1(b)に示す状態において、移行元ボリューム1と移行先ボリューム2との間の対応関係が解除される。また、両ボリューム1,2間の対応関係が解除されると、差分管理部5による差分データの管理処理も終了する。
本実施形態では、移行元ボリューム1から移行先ボリューム2への移行後に、移行先ボリューム2の種類(属性)に応じて選択される指標に基づいて、移行先ボリューム2の性能を監視することができる。
従って、性能監視部6による性能監視の結果、移行先ボリューム2の選択が適切ではないと判断された場合、その移行先ボリューム2の使用を中止したり、別のボリュームを移行先ボリュームとして選定することができる。
本実施形態では、移行元ボリューム1から移行先ボリューム2へ暫定的にデータを移行させた後も、移行元ボリューム1と移行先ボリューム2とのコピーペアを維持し、移行先ボリューム2に生じた差分データを管理する。従って、移行先ボリューム2から移行元ボリューム1へホスト4のアクセスパスを切り替え直す場合、差分データのみを移行元ボリューム1へコピーすればよい。これにより、暫定的なデータ移行を解除して、もとの移行元ボリューム1に短時間で復帰させることができる。
以下、本実施形態をより詳細に説明する。
後述のように、本実施形態のストレージシステムは、ホスト10に複数種類のボリューム164を提供可能なストレージ装置100と、このストレージ装置100を管理するための管理端末20とを備えている。
後述のように、本実施形態のストレージシステムは、ホスト10に複数種類のボリューム164を提供可能なストレージ装置100と、このストレージ装置100を管理するための管理端末20とを備えている。
ストレージ装置100は、複数種類のボリューム164を生成するための複数種類のディスクドライブ161と、ホスト10及び各ディスクドライブ161との間の通信をそれぞれ制御し、複数種類のボリューム164の中からそれぞれ選択される移行元ボリューム及び移行先ボリュームの間でデータを移行させる制御部101と、を備えている。
また、管理端末20は、制御部101との間で通信を行うストレージ管理部21と、制御部101によって移行元ボリュームから移行先ボリュームにデータが移行された場合は、ストレージ管理部21を介して制御部101から所定の情報を採取することにより、移行先ボリュームの稼働状況を監視する監視部22とを備えている。
そして、監視部22は、移行先ボリュームの種類に応じた所定の指標T10,T10Aに基づいて、移行先ボリュームの稼働状況を監視し、この監視結果を出力する。
そして、監視部22は、移行先ボリュームの種類に応じた所定の指標T10,T10Aに基づいて、移行先ボリュームの稼働状況を監視し、この監視結果を出力する。
さらに、本実施形態では、第1ストレージ装置100及び第2ストレージ装置200の複数のストレージ装置を備えている。そして、第1ストレージ装置100は、第2ストレージ装置200の有するボリューム240を、第1ストレージ装置100の内部ボリューム164として仮想化することにより、そのボリューム240を取り込んでいる。
図2は、ストレージシステムの全体構成を示すブロック図である。ストレージシステムは、例えば、ホスト10と、管理端末20と、第1ストレージ装置100と、第2ストレージ装置200とを備えて構成することができる。
ホスト10は、例えば、CPU(Central Processing Unit)やメモリ等の情報処理資源を備えたコンピュータ装置であり、例えば、パーソナルコンピュータ、ワークステーション、メインフレーム等として構成することができる。なお、図中では、ホスト10を一つだけ示しているが、実際には、複数のホスト10を設けることができる。
ホスト10は、通信ネットワークCN1を介して第1ストレージ装置100にアクセスするためのHBA(Host Bus Adapter)11と、例えば、データベースソフトウェア等のアプリケーションプログラム12と、を備えている。
通信ネットワークCN1としては、例えば、LAN(Local Area Network)、SAN(Storage Area Network)、インターネット、専用回線、公衆回線等を場合に応じて適宜用いることができる。LANの場合、例えば、TCP/IPプロトコルに従ってデータ転送を行うことができる。この場合、ホスト10は、ファイル名を指定してファイル単位でのデータ入出力を要求する。
ホスト10がSANを介して第1ストレージ装置100に接続される場合、ホスト10は、ファイバチャネルプロトコルに基づいて、データ転送を行うことができる。SANの場合、ホスト10は、ディスクドライブ161のデータ管理単位であるブロックを単位として、第1ストレージ装置100にデータ入出力を要求する。
通信ネットワークCN1がLANの場合、HBA11は、例えばLAN対応のネットワークカードである。通信ネットワークCN1がSANの場合、HBA11は、例えばホストバスアダプタである。
管理端末20は、ストレージシステムの構成等を管理するためのコンピュータ装置であり、例えば、システム管理者や保守員等のユーザにより操作される。管理端末20は、通信ネットワークCN3を介して、第1ストレージ装置100に接続されている。管理端末20は、後述のように、コピーペアの形成やデータマイグレーション等について、第1ストレージ装置100に所定の指示を与える。
第1ストレージ装置100は、例えば、ディスクアレイサブシステムとして構成されるものである。但し、これに限らず、第1ストレージ装置100を、例えば、高機能化されたスイッチ装置(ファイバチャネルスイッチ)として構成することもできる。第1ストレージ装置100は、後述のように、第2ストレージ装置200の有する記憶資源を自己の論理ボリューム(Logical Unit)としてホスト10に提供可能である。従って、第1ストレージ装置100は、実ボリュームを備えている必要は必ずしもない。
第1ストレージ装置100は、制御部101(図8参照)と記憶部160とに大別することができる。制御部101は、例えば、複数のチャネルアダプタ(以下、「CHA」)110と、複数のディスクアダプタ(以下、「DKA」)120と、キャッシュメモリ130と、共有メモリ140と、接続制御部150とを備えて構成可能である。
各CHA110は、ホスト10との間のデータ通信を行う。各CHA110は、ホスト10と通信を行うための通信ポート111をそれぞれ少なくとも一つ以上備える。各CHA110は、それぞれCPUやメモリ等を備えたマイクロコンピュータシステムとして構成されている。各CHA110は、ホスト10から受信したリードコマンドやライトコマンド等の各種コマンドを解釈して実行する。
各CHA110には、それぞれを識別するためのネットワークアドレス(例えば、IPアドレスやWWN)が割り当てられており、各CHA110は、それぞれが個別にNAS(Network Attached Storage)として振る舞うことができる。複数のホスト10が存在する場合、各CHA110は、各ホスト10からの要求をそれぞれ個別に受け付けて処理する。
各CHA110には、それぞれを識別するためのネットワークアドレス(例えば、IPアドレスやWWN)が割り当てられており、各CHA110は、それぞれが個別にNAS(Network Attached Storage)として振る舞うことができる。複数のホスト10が存在する場合、各CHA110は、各ホスト10からの要求をそれぞれ個別に受け付けて処理する。
各DKA120は、記憶部160が有するディスクドライブ161との間でデータ授受を行う。各DKA120は、CHA110と同様に、CPUやメモリ等を備えたマイクロコンピュータシステムとして構成される。各DKA120は、例えば、CHA110がホスト10から受信したデータや第2ストレージ装置200から読み出されたデータを、所定のディスクドライブ161に書込む。また、各DKA120は、所定のディスクドライブ161からデータを読み出し、ホスト10または第2ストレージ装置200に送信することもできる。ディスクドライブ161との間でデータ入出力を行う場合、各DKA120は、論理的なアドレスを物理的なアドレスに変換する。
各DKA120は、ディスクドライブ161がRAIDに従って管理されている場合、RAID構成に応じたデータアクセスを行う。例えば、各DKA120は、同一のデータを別々のディスクドライブ群(RAIDグループ)にそれぞれ書き込んだり(RAID1等)、あるいは、パリティ計算を実行し、データ及びパリティをディスクドライブ群に書き込む(RAID5等)。
キャッシュメモリ130は、ホスト10または第2ストレージ装置200から受信したデータを記憶する。また、キャッシュメモリ130は、ディスクドライブ161から読み出されたデータを記憶する。後述のように、キャッシュメモリ130の記憶空間を利用して、仮想的な中間記憶デバイスが構築される。
共有メモリ(制御メモリとも呼ばれる場合がある)140には、第1ストレージ装置100の作動に使用するための各種制御情報等が格納される。また、共有メモリ140には、ワーク領域が設定されるほか、後述するマッピングテーブル等の各種テーブル類も格納される。
なお、ディスクドライブ161のいずれか一つあるいは複数を、キャッシュ用のディスクとして使用してもよい。また、キャッシュメモリ130と共有メモリ140とは、それぞれ別々のメモリとして構成することもできるし、同一のメモリの一部の記憶領域をキャッシュ領域として使用し、他の記憶領域を制御領域として使用することもできる。
接続制御部150は、各CHA110,各DKA120,キャッシュメモリ130及び共有メモリ140を相互に接続させる。接続制御部150は、例えば、クロスバスイッチ等として構成可能である。
記憶部160は、複数のディスクドライブ161を備えている。ディスクドライブ161としては、例えば、ハードディスクドライブ、フレキシブルディスクドライブ、磁気テープドライブ、半導体メモリドライブ、光ディスクドライブ等のような各種記憶デバイス及びこれらの均等物を用いることができる。また、例えば、FC(Fibre Channel)ディスクやSATA(Serial AT Attachment)ディスク等のように、異種類のディスクを記憶部160内に混在させることもできる。
本実施例では、FCディスクとSATAディスクとがストレージシステム内に混在する場合を例に挙げて説明する。複数種類のディスクドライブがストレージシステム内に混在する場合としては、例えば、(1)第1ストレージ装置100のディスクドライブ161がFCディスクで、第2ストレージ装置200のディスクドライブ220がSATAディスクである場合のように、ストレージ装置単位でディスクドライブの種類がそれぞれ異なる場合と、(2)各ストレージ装置100,200の少なくともいずれか一方において、異種類のディスクドライブが搭載されている場合、を挙げることができる。
サービスプロセッサ(SVP)170は、LAN等の内部ネットワークCN4を介して、各CHA110とそれぞれ接続されている。SVP170は、CHA110を介して、共有メモリ140やDKA120とデータ授受を行うことができる。SVP170は、第1ストレージ装置100内の各種情報を採取して、管理端末20に提供する。
第2ストレージ装置200は、例えば、コントローラ210と、複数のディスクドライブ220とを備えて構成される。第2ストレージ装置200は、通信ポート211から通信ネットワークCN2を介して、第1ストレージ装置100に接続されている。通信ネットワークCN2は、例えば、SANやLAN等から構成することができる。
第2ストレージ装置200は、第1ストレージ装置100とほぼ同様の構成を備えることもできるし、第1ストレージ装置100よりも簡易な構成を採用することもできる。第2ストレージ装置200のディスクドライブ220の全部または一部は、第1ストレージ装置100の内部記憶デバイスとして扱われる。
図3を参照する。図3は、ストレージシステムの記憶構造を示す説明図である。まず、第1ストレージ装置100の構成から先に説明する。
第1ストレージ装置100の記憶構造は、例えば、物理的記憶階層と論理的記憶階層とに大別することができる。物理的記憶階層は、物理的なディスクであるPDEV(Physical Device)161により構成される。PDEVは、ディスクドライブ161に該当する。
第1ストレージ装置100の記憶構造は、例えば、物理的記憶階層と論理的記憶階層とに大別することができる。物理的記憶階層は、物理的なディスクであるPDEV(Physical Device)161により構成される。PDEVは、ディスクドライブ161に該当する。
論理的記憶階層は、複数の(例えば2種類の)階層から構成可能である。一つの論理的階層は、VDEV(Virtual Device)162と、VDEV162のように扱われる仮想的なVDEV(以下、「V-VOL」とも呼ぶ)163とから構成可能である。他の一つの論理的階層は、LDEV(Logical Device)164から構成することができる。
VDEV162は、例えば、4個1組(3D+1P)、8個1組(7D+1P)等のような所定数のPDEV161をグループ化して構成される。グループに属する各PDEV161がそれぞれ提供する記憶領域が集合して一つのRAID記憶領域が形成される。このRAID記憶領域がVDEV162となる。
VDEV162が物理的な記憶領域上に構築されるのと対照的に、V-VOL163は、物理的な記憶領域を必要としない仮想的な中間記憶デバイスである。V-VOL163は、物理的な記憶領域に直接関係づけられるものではなく、第2ストレージ装置200のLU(Logical Unit)をマッピングするための受け皿となる。
LDEV164は、VDEV162またはV-VOL163上に、それぞれ少なくとも一つ以上設けることができる。LDEV164は、例えば、VDEV162を固定長で分割することにより構成することができる。ホスト10がオープン系ホストの場合、LDEV164がLU165にマッピングされることにより、ホスト10は、LDEV164を一つの物理的なディスクとして認識する。オープン系のホストは、LUN(Logical Unit Number )や論理ブロックアドレスを指定することにより、所望のLDEV164にアクセスする。なお、メインフレーム系ホストの場合は、LDEV164を直接認識する。
LU165は、SCSIの論理ユニットとして認識可能なデバイスである。各LU165は、ターゲットポート111Aを介してホスト10に接続される。各LU165には、少なくとも一つ以上のLDEV164をそれぞれ関連付けることができる。なお、一つのLU165に複数のLDEV164を関連付けることにより、LUサイズを仮想的に拡張することもできる。
CMD(Command Device)166は、ホスト10上で稼働するI/O制御プログラムとストレージ装置100の制御部101との間で、コマンドやステータスを受け渡すために使用される専用のLUである。ホスト10からのコマンドは、CMD166に書き込まれる。制御部101は、CMD166に書き込まれたコマンドに応じた処理を実行し、その実行結果をステータスとしてCMD166に書き込む。ホスト10は、CMD166に書き込まれたステータスを読み出して確認し、次に実行すべき処理内容をCMD166に書き込む。このようにして、ホスト10は、CMD166を介して、ストレージ装置100に各種の指示を与えることができる。
なお、ホスト10から受信したコマンドを、CMD166に格納することなく、制御部101は直接的に処理することもできる。また、実体のデバイス(LU)を定義せずに、CMDを仮想的なデバイスとして生成し、ホスト10からのコマンドを受け付けて処理するように構成してもよい。即ち、例えば、CHA110は、ホスト10から受信したコマンドを共有メモリ140に書き込み、この共有メモリ140に記憶されたコマンドを、CHA110又はDKA120が処理する。その処理結果は共有メモリ140に書き込まれ、CHA110からホスト10に送信される。
第1ストレージ装置100の有する外部接続用のイニシエータポート(External Port)111Bには、通信ネットワークCN2を介して、第2ストレージ装置200が接続されている。
第2ストレージ装置200は、複数のPDEV220と、PDEV220の提供する記憶領域上に設定されたVDEV230と、VDEV230上に少なくとも一つ以上設定可能なLDEV240とを備えている。そして、各LDEV240は、LU250にそれぞれ関連付けられている。PDEV220は、図2中のディスクドライブ220に該当する。
第2ストレージ装置200は、複数のPDEV220と、PDEV220の提供する記憶領域上に設定されたVDEV230と、VDEV230上に少なくとも一つ以上設定可能なLDEV240とを備えている。そして、各LDEV240は、LU250にそれぞれ関連付けられている。PDEV220は、図2中のディスクドライブ220に該当する。
第2ストレージ装置200のLU250(即ち、LDEV240)は、仮想的な中間記憶デバイスであるV-VOL163にマッピングされている。例えば、第2ストレージ装置200の「LDEV1」,「LDEV2」は、第2ストレージ装置200の「LU1」,「LU2」を介して、第1ストレージ装置100の「V-VOL1」,「V-VOL2」にそれぞれマッピングされている。「V-VOL1」,「V-VOL2」は、それぞれ「LDEV3」,「LDEV4」にマッピングされており、ホスト10は、これらのボリュームを「LU3」,「LU4」を介して、利用可能となっている。
なお、VDEV162,V-VOL163には、RAID構成を適用できる。即ち、一つのディスクドライブ161を複数のVDEV162,V-VOL163に割り当てることもできるし(スライシング)、複数のディスクドライブ161から一つのVDEV162,V-VOL163を形成することもできる(ストライピング)。
図4は、第2ストレージ装置200の有するボリューム240(以下、外部ボリューム240とも呼ぶ)を、第1ストレージ装置100の内部ボリュームとして取り込むためのマッピングテーブルT1を示す。
マッピングテーブルT1は、例えば、LUN番号と、LDEVに関する情報と、VDEVに関する情報とを対応付けることにより、構成することができる。
LDEVに関する情報としては、例えば、LDEV番号及び容量(図中の「MAX SLOT数」)とを挙げることができる。VDEVに関する情報としては、例えば、VDEV番号と、容量と、デバイス種別と、パス情報とを挙げることができる。ここで、VDEVに関する情報には、V-VOL163の情報も含まれている。
「デバイス種別」には、例えば、テープ系デバイスかディスク系デバイスかの種別や、どのようなディスク(FCディスクかSATAディスクか等)であるかの情報を含めることができる。「パス情報」には、例えば、そのVDEVへアクセスするための情報が含まれている。VDEVが外部のボリュームに対応付けられている場合(即ち、V-VOLの場合)、パス情報には、例えば、各通信ポート211に固有の識別情報(WWN)と、LU250を識別するためのLUN番号とが含まれる。
このようなマッピングテーブルT1を採用することにより、第1ストレージ装置100内のV-VOL163に対して、一つまたは複数の外部のディスクドライブ220をマッピングすることができる。なお、以下に示す他のテーブルでも同様であるが、テーブル中のボリューム番号等は、テーブル構成を説明するための例示であって、図3等に示す構成とは特に対応していない。
図4には、空き容量管理テーブルT2も示されている。空き容量管理テーブルT2は、ストレージシステム内に存在する記憶資源の使用状態を管理する。空き容量管理テーブルT2は、例えば、VDEV番号と、そのVDEVの全容量と、そのVDEVの空き容量と、そのVDEVが設定されているデバイスの種別(記憶区分)とを対応付けることにより、構成することができる。
図5は、複数のボリューム間でデータコピーを行う場合に使用されるテーブル群を示す説明図である。
差分管理テーブルT3は、対象とするボリュームにおいて、ある時点以降に発生した更新を管理するためのものである。差分管理テーブルT3は、例えば、トラック番号と、更新フラグとを対応付けることにより、構成可能である。なお、トラック番号に代えて、ブロックアドレス等の他の管理単位を用いてもよい。更新フラグとは、その管理単位の記憶領域のデータが更新されたか否かを示す情報である。例えば、更新された場合は、更新フラグに「1」がセットされる。未更新の場合、更新フラグの値は「0」である。
差分管理テーブルT3は、対象とするボリュームにおいて、ある時点以降に発生した更新を管理するためのものである。差分管理テーブルT3は、例えば、トラック番号と、更新フラグとを対応付けることにより、構成可能である。なお、トラック番号に代えて、ブロックアドレス等の他の管理単位を用いてもよい。更新フラグとは、その管理単位の記憶領域のデータが更新されたか否かを示す情報である。例えば、更新された場合は、更新フラグに「1」がセットされる。未更新の場合、更新フラグの値は「0」である。
コピーペア管理テーブルT4は、ボリューム間のコピー管理に使用される。コピーペア管理テーブルT4は、例えば、コピー元ボリュームを特定する情報と、コピー先ボリュームを特定する情報と、ペア状態を示す情報とを対応付けることにより、構成することができる。ペア状態としては、例えば、「ペア形成」、「ペア解除(ノーマル)」等を挙げることができる。
コピーポインタ管理テーブルT5は、ボリューム間で全コピーを行う場合に使用されるテーブルである。全コピーとは、上述のように、コピー元ボリュームの全ての記憶内容を丸ごとコピー先ボリュームにコピーすることを言う。コピーポインタ管理テーブルT5は、例えば、コピー元ポインタのアドレスを示す情報と、コピー先ポインタのアドレスを示す情報とを含んで構成することができる。複数の全コピーが行われる場合、コピーポインタ管理テーブルT5は、各全コピー毎にそれぞれ用意される。
各ポインタは、全コピーの進捗状況をそれぞれ示す。全コピーが進捗するに連れて、各ポインタのアドレスが変化していく。コピー開始アドレスからポインタの示すアドレスまでの範囲が、コピーの完了した範囲である。
図6は、データマイグレーションに使用されるテーブル群を示す説明である。
データマイグレーション条件管理テーブルT6は、あるボリュームから別のボリュームにデータを移し替えるための条件を管理する。即ち、テーブルT6は、データマイグレーションを開始させるための条件を管理する。
データマイグレーション条件管理テーブルT6は、あるボリュームから別のボリュームにデータを移し替えるための条件を管理する。即ち、テーブルT6は、データマイグレーションを開始させるための条件を管理する。
このテーブルT6は、例えば、対象のボリュームを特定するための情報(LUN番号)と、そのボリュームについてのデータマイグレーション実行条件とを対応付けることにより、構成される。データマイグレーション実行条件としては、例えば、アクセス頻度や最終更新時からの経過時間等を挙げることができる。
アクセス頻度が所定値以下に低下したボリュームは、その情報価値が低下したものとみなして、より低速なディスクドライブに移すことができる。同様に、最終更新時から所定時間以上アクセスされていないボリュームも、その情報価値が低下したものと考えることができるため、より低速なディスクドライブに移される。このようにして、情報価値が相対的に低下したボリュームによって高速なディスクドライブの有する記憶資源が無駄に消費されるのを抑制することができる。なお、以上は例示であって、これ以外の条件を設定することもできる。
復帰条件管理テーブルT7は、いったん行われたデータマイグレーションを解消して、データマイグレーション実行前の状態に復帰させるための条件を管理する。復帰条件管理テーブルT7は、例えば、LU条件管理テーブルT8と、ドライブ条件管理テーブルT9とを備えることができる。なお、これら各テーブルT8,T9を全て備えている必要はなく、いずれか一方のテーブルのみを備える構成でもよい。
LU条件管理テーブルT8は、移行先ボリュームの性能に関する閾値を管理する。このテーブルT8は、例えば、各ボリュームを特定するための情報(LUN#)と、管理対象の各性能項目毎の閾値とを対応付けることにより、構成することができる。性能項目としては、例えば、単位時間当たりの入出力回数(I/O Rate)、単位時間当たりのリードアクセス回数(READ Rate)、単位時間当たりのライトアクセス回数(WRITE Rate)、単位時間当たりのデータ転送サイズ(Trans Rate)等を挙げることができる。
これら各性能項目のそれぞれについて、閾値がそれぞれ設定されている。ある性能項目の実際の測定値がその閾値を上回った場合または下回った場合、少なくとも、その性能項目に関しては、移行先ボリュームの選択が適切でなかったことになる。但し、移行先ボリュームの選択が適切であったか否かの判定は、全ての性能項目の実測値と閾値との関係に基づいて総合的に行うことができる。
ドライブ条件管理テーブルT9は、移行先ボリュームが構築されているディスクドライブ161(またはディスクドライブ220)の性能に関する閾値を管理する。このテーブルT9は、例えば、VDEV番号と、ドライブ番号と、各性能項目毎の閾値とを対応付けることにより、構成することができる。VDEV番号及びドライブ番号により、そのディスクドライブがいずれの論理ボリュームに関連するのかを特定することができる。
性能項目としては、例えば、LU条件管理テーブルT8で例示的に列挙した各項目を採用することができる。なお、各テーブルT8,T9の性能項目は、同一である必要はなく、それぞれ異なる性能項目群を管理することもできる。
図7は、ボリューム等の性能を監視するためのテーブルT10,T10Aを示す。これら各性能監視テーブルT10,T10Aに登録されている各項目について、そのボリュームの性能が監視される。
一方のテーブルT10は、FCディスク上に設けられたボリュームの性能を監視するために使用することができる。他方のテーブルT10Aは、SATAディスク上に設けられたボリュームの性能を監視するために使用することができる。
これらの各テーブルT10,T10Aは、例えば、「LU」、「ディスクドライブ」、「ポート」、「キャッシュ」、「プロセッサ」等の大項目毎に分類されており、各大項目は、それぞれ複数の性能項目を含むことができる。
大項目「LU」には、例えば、「LUN番号」と、「I/O Rate」と、「READ Rate」と、「WRITE Rate」と、「READ Hit」と、「WRITE Hit」と、「Trans Rate」と、「READ Trans Rate」と、「WRITE Trans Rate」とを含めることができる。ここで、「READ Hit」とは、リードコマンドのヒット率を示す。「WRITE Hit」とは、ライトコマンドのヒット率を示す。「READ Trans Rate」とは、単位時間当たりのリードデータの転送サイズを示し、「WRITE Trans Rate」とは、単位時間当たりのライトデータの転送サイズを示す。
大項目「ディスクドライブ(図中「ドライブ」と略記)」には、例えば、「ドライブ番号」と、「I/O Rate」と、「READ Rate」と、「WRITE Rate」と、「READ Hit」と、「WRITE Hit」と、「Trans Rate」と、「READ Trans Rate」と、「WRITE Trans Rate」とを含めることができる。これに加えて、テーブルT10Aには、「Online Verify Rate」と、「Operating Rate」とを含めることもできる。「Online Verify Rate」とは、単位時間当たりに行われたオンラインベリファイコマンドの回数を示す。「Operating Rate」とは、ドライブ稼働率を示す。
本実施例のオンラインベリファイとは、SATAディスクに書き込まれたデータを書込み直後に読出して、キャッシュメモリ130上のライトデータと比較する処理である。オンラインベリファイは、SATAディスクのような信頼性の低いディスクについてのみ行うことができる。その詳細はさらに後述する。
なお、上述の項目以外に、例えば、SATAディスクについては、ランダムアクセス率、ランダムライトアクセス率等の他の項目を採用することもできる。このように、本実施例では、ボリュームの構成(ディスク種別)に応じて、性能監視の指標を選択できるようになっている。
図8は、ストレージシステムの主要な機能構成に着目した説明図である。制御部101は、第1ストレージ装置100の有する各CHA110及び各DKA120と、キャッシュメモリ130及び共有メモリ140等から構成することができる。
制御部101は、その内部機能として、例えば、データマイグレーション制御部102と、I/O処理部103と、全コピー部104と、差分コピー部105と、差分管理部106とを備えることができる。
データマイグレーション制御部102は、例えば、データマイグレーション条件管理テーブルT6及び復帰条件管理テーブルT7を用いることにより、データマイグレーションの実行及び復帰を制御する機能である。
I/O処理部103は、ホスト10からのライトアクセスやリードアクセスを処理するための機能である。全コピー部104は、例えば、コピーペア管理テーブルT4及びコピーポインタ管理テーブルT5を用いることにより、指定された複数のボリューム間で、全データをコピーさせる機能である。差分コピー部105は、例えば、コピーペア管理テーブルT4及び差分管理テーブルT3を用いることにより、指定された複数のボリューム間で、差分データのみをコピーさせる機能である。差分管理部106は、差分管理テーブルT3を用いて、差分データを管理する機能である。
管理端末20の機能構成に着目する。管理端末20は、例えば、ストレージ管理部21と、性能監視部22とを備えることができる。ストレージ管理部21は、コピーペアの形成やデータマイグレーション等に関して、制御部101に指示を与える。ストレージ管理部21は、SVP170から各種情報を取得することができる。
性能監視部22は、第1ストレージ装置100の性能(ボリューム性能等)を監視するための機能である。性能監視部22は、ストレージ管理部21を介して制御部101から、テーブル10,10Aに示す各指標に関する実測値を取得することができる。そして、性能監視部22は、データマイグレーション条件管理テーブルT6及び復帰条件管理テーブルT7に基づいて、データマイグレーションの実行や復帰に関する指示を制御部101に与えることができる。なお、性能監視部22は、管理端末20に設ける場合に限らず、制御部101内に設けることもできる。
詳細は後述するが、本実施例では、データマイグレーションを実行する場合は、全コピーを用いる。そして、そのデータマイグレーションを解消して元の状態に復帰させる場合は、差分コピーを用いる。
図9は、ストレージシステムの有する記憶資源をランク分けした説明図である。上述のように、ストレージシステムは、複数種類のボリュームをホスト10に提供することができる。各ボリュームは、それぞれ複数の属性を備えており、これら各属性の組合せによって、複数種類のボリュームが生成される。
第1の属性は、ディスクドライブの種別である。本実施例では、例えば、FCディスクとSATAディスクを例示する。第2の属性は、ディスクドライブの回転数である。本実施例では、FCディスクの回転数として15000rpm及び10000rpmの2種類を、SATAディスクの回転数として10000rpm及び7200rpmの2種類を、それぞれ例示する。第3の属性は、RAID構成の種類である。本実施例では、RAID構成の種類として、RAID1+0と、RAID5との2種類を挙げる。
RAID1+0とは、RAID1(ミラーリング)とRAID0(ストライピング)を組み合わせたものである。RAID5とは、データを分割して、分割されたデータからパリティを生成し、これら分割されたデータ群及びパリティを複数のディスクドライブに分散させて記憶させるものである。
以上述べた3つの属性は、それぞれ複数の値を取る。本実施例では、以下のように、合計8種類のグループC1〜C8が存在する。
(C1)高速(15000rpm)なFCディスクであって、RAID1+0の構成をとるグループ
(C2)高速なFCディスクであって、RAID5の構成をとるグループ
(C3)低速(10000rpm)なFCディスクであって、RAID1+0の構成をとるグループ
(C4)低速なFCディスクであって、RAID5の構成をとるグループ
(C5)高速(10000rpm)なSATAディスクであって、RAID1+0の構成をとるグループ
(C6)高速なSATAディスクであって、RAID5の構成をとるグループ
(C7)低速(7200rpm)なSATAディスクであって、RAID1+0の構成をとるグループ
(C8)低速なSATAディスクであって、RAID5の構成をとるグループ
(C1)高速(15000rpm)なFCディスクであって、RAID1+0の構成をとるグループ
(C2)高速なFCディスクであって、RAID5の構成をとるグループ
(C3)低速(10000rpm)なFCディスクであって、RAID1+0の構成をとるグループ
(C4)低速なFCディスクであって、RAID5の構成をとるグループ
(C5)高速(10000rpm)なSATAディスクであって、RAID1+0の構成をとるグループ
(C6)高速なSATAディスクであって、RAID5の構成をとるグループ
(C7)低速(7200rpm)なSATAディスクであって、RAID1+0の構成をとるグループ
(C8)低速なSATAディスクであって、RAID5の構成をとるグループ
一般的に、FCディスクの方がSATAディスクよりも、データの書込み速度及び読出し速度が速い。また、回転数が高くなるほど、目的のセクタに到達するまでの時間を短くすることができるため、データの書込み速度及び読出し速度を速くできる。RAID構成1+0の場合は、同一データを複数のディスクドライブに書き込むだけであり、パリティ計算等を行う必要がない。従って、RAID1+0の方がRAID5よりも、データの書込み速度が速くなる。
以上の特性に基づいて、ライドアクセスを処理する場合のランキングを示したのが、ライトアクセス時ランキングテーブルT11である。このテーブルT11には、ライトコマンドをより速く処理可能なボリューム構成が順番に記載されている。同様に、リードアクセス時ランキングテーブルT12には、リードコマンドを短時間で処理できる順番に、ボリューム構成が並べられている。
ライトアクセス時でもリードアクセス時でも、グループC1(高速FCディスク、RAID1+0)のボリューム構成が、最短の処理時間となる。しかし、各ランキングテーブルT11,T12を見比べるとわかるように、ライトアクセスとリードアクセスとでは、C1以下のランキングが相違する。
その理由として、ライトペナルティの存在が挙げられる。RAID5で運用されるディスクドライブ群にライトデータを書き込む場合は、旧パリティを読出して新たなパリティを算出する必要があるため、このパリティ演算の分だけ処理が遅くなる。この遅れをライトペナルティと呼ぶ。従って、RAID5では、ライトペナルティが生じるため、ライトアクセス時の処理時間が長くなる。これに対し、リードアクセス時には、パリティ計算を行う必要がないため、RAID構成の相違による影響は比較的少ない。従って、ライトアクセス時のランキングとリードアクセス時のランキングとは、相違する。
次に、ライトアクセス及びリードアクセスの両方において、FCディスクの方がSATAディスクよりも処理時間が短くなる理由を述べる。FCディスクとSATAディスクの回転数が同一の場合でも、FCディスクの方が処理時間は短くなる。
その一つの理由は、FCディスクは複数のコマンドを多重処理できるのに対し、SATAディスクではコマンドを一つずつ処理するようになっているためである。
二つ目の理由として、SATAディスクの信頼性が低いために、シーク時間が増大する点を挙げることができる。SATAディスクでは、ディスク上にヘッドを長期間置かず、ディスク外部にヘッドを退避させることにより(ヘッドアンロード)、ヘッドのストレス低減およびセクタ破損を回避する。このため、シーク時間が増大する。
三つ目の理由として、SATAディスクの信頼性が低いために、後述のように、書込みデータを読み返してチェックしなければならない点を挙げることができる。従って、この書込みデータを読み返してチェックする分だけ、SATAディスクでは処理が遅れる。
二つ目の理由として、SATAディスクの信頼性が低いために、シーク時間が増大する点を挙げることができる。SATAディスクでは、ディスク上にヘッドを長期間置かず、ディスク外部にヘッドを退避させることにより(ヘッドアンロード)、ヘッドのストレス低減およびセクタ破損を回避する。このため、シーク時間が増大する。
三つ目の理由として、SATAディスクの信頼性が低いために、後述のように、書込みデータを読み返してチェックしなければならない点を挙げることができる。従って、この書込みデータを読み返してチェックする分だけ、SATAディスクでは処理が遅れる。
このようにFCディスクとSATAディスクとでは、その性能や信頼性が異なる。従って、FCディスクは、例えば、24時間365日稼働するオンラインボリュームとして使用されるのに対し、SATAディスクは、例えば、バックアップボリュームとして使用されることが多い。
ランキングテーブルT11,T12は、データマイグレーションの実行に利用することができる。例えば、ランキングテーブルT11,T12の内容の全部または一部を、管理端末20の端末画面に表示させることにより、ユーザの判断を支援できる。また、ストレージ管理部21等によって自律的にデータマイグレーションを運用する場合、テーブルT11,T12を参照することにより、データマイグレーションポリシーに応じた移行先ボリュームを選択することもできる。
図10は、FCディスクにデータを書き込む場合の処理(ディステージ処理)の概略を示すフローチャートである。
まず、制御部101は、キャッシュメモリ130からライトデータを読出し(S11)、このライトデータを所定のディスクドライブに転送する(S12)。RAID1+0で運用される場合は、それぞれ複数のディスクドライブから構成される2組のディスクドライブ群に、それぞれ同一のライトデータが転送される。RAID5で運用される場合は、ライトデータの転送に先立って、旧パリティが読み出され、新しいパリティを算出してから、ライトデータ及びパリティを所定のディスクドライブ群に転送する。
まず、制御部101は、キャッシュメモリ130からライトデータを読出し(S11)、このライトデータを所定のディスクドライブに転送する(S12)。RAID1+0で運用される場合は、それぞれ複数のディスクドライブから構成される2組のディスクドライブ群に、それぞれ同一のライトデータが転送される。RAID5で運用される場合は、ライトデータの転送に先立って、旧パリティが読み出され、新しいパリティを算出してから、ライトデータ及びパリティを所定のディスクドライブ群に転送する。
制御部101は、今回のライト処理の対象となっている全てのライトデータを、所定のディスクドライブ群にそれぞれ書き込むまで(S13:NO)、S11,S12のステップをそれぞれ繰り返す。
図11は、SATAディスクにデータを書き込む場合の処理の概略を示すフローチャートである。
まず、制御部101は、キャッシュメモリ130からライトデータを読出し(S21)、そのRAID構成に応じて、所定のディスクドライブ群に転送する(S22)。制御部101は、ディスクドライブから書込み完了の応答を受信するのを待つ(S23)。制御部101は、書込み完了を確認すると(S23:YES)、今回のライト処理の対象となっている全ライトデータを書き込んだか否かを判定する(S24)。全てのライトデータをディスクドライブに書き込むまで(S24:NO)、制御部101は、S21〜S23のステップを繰り返す。
まず、制御部101は、キャッシュメモリ130からライトデータを読出し(S21)、そのRAID構成に応じて、所定のディスクドライブ群に転送する(S22)。制御部101は、ディスクドライブから書込み完了の応答を受信するのを待つ(S23)。制御部101は、書込み完了を確認すると(S23:YES)、今回のライト処理の対象となっている全ライトデータを書き込んだか否かを判定する(S24)。全てのライトデータをディスクドライブに書き込むまで(S24:NO)、制御部101は、S21〜S23のステップを繰り返す。
全ライトデータの書込みを完了すると(S24:YES)、制御部101は、先のステップS22で書き込んだライトデータをディスクドライブ群から読出す(S25)。制御部101は、ディスクドライブから読み出したデータとキャッシュメモリ130上に残っているライトデータとを比較する(S26)。
両データが一致する場合(S27:YES)、制御部101は、正常に書込みが行われたものと判定し、本処理を終了させる。これに対し、もしも両データが一致しない場合(S27:NO)、制御部101は、書込みが正常に行われなかったものと判定し、エラーリカバリ処理を行う(S28)。
エラーリカバリ処理として、例えば、制御部101は、別のディスクドライブ群を選択してライトデータを書き込んだり、あるいは、同一のディスクドライブ群に再度ライトデータを書き込む等の処理を行うことができる。
上述のように、FCディスクとSATAディスクとでは、ライト処理が相違し、SATAディスクの方が複雑な処理を行うようになっている。このため、SATAディスクでは、ライトコマンドを処理するための時間が増大する。
特に、ランダムライトの場合、散発的にライトデータがSATAディスクに書き込まれるため、書込みデータを読み返して確認する処理(S25〜S27)が、ライトアクセスのたびに実行される。この書込みデータを読み返して確認する処理のために、オーバーヘッドが大きくなりやすい。
これに対し、連続したデータをディスクドライブに書き込むシーケンシャルライトの場合は、ある程度のライトデータを書き込んだ後で、まとめてそのライトデータを読み返して確認すればよい。従って、この確認処理(S25〜S27)を行う回数が少なくなり、オーバーヘッドは比較的小さくなる。
このように、SATAディスクの場合は、ライトアクセスの処理性能がFCディスクよりも低くなる。特に、SATAディスクにおけるランダムライトアクセスの処理性能は、FCディスクのそれよりも大幅に低下する。
図12は、データマイグレーション処理の概略を示すフローチャートである。このデータマイグレーション処理は、管理端末20と第1ストレージ装置100との協働作業によって行われる。ここでは、S31〜S35を管理端末20のストレージ管理部21が実行し、それ以後のS36〜S43を第1ストレージ装置100の制御部101が実行するものとして説明する。
ストレージ管理部21は、ユーザからの手動操作により、データマイグレーションの実行が指示されたか否かを判定する(S31)。ユーザから指示された場合(S31:YES)、後述のS34に移行する。
ユーザからの指示が無い場合(S31:NO)、ストレージ管理部21は、データマイグレーション条件管理テーブルT6を参照し(S32)、移動させるべきボリュームが存在するか否かを判定する(S33)。テーブルT6に登録されている条件に該当するボリュームが一つも存在しない場合(S33:NO)、ストレージ管理部21は、データマイグレーション処理を終了させる。
これに対し、テーブルT6に登録されている条件に該当するボリュームが発見された場合(S33:YES)、ストレージ管理部21は、予め設定されているデータマイグレーションポリシー等に基づいて、移行先ボリュームを決定する(S34)。データマイグレーションポリシーは、例えば、移行元ボリュームに記憶されているデータの種類や移行元ボリュームの属性等に基づいて設定することができる。
例えば、FCディスクに記憶されている電子メールデータをアーカイブする場合、SATAディスク上に構築された未使用のボリュームが、移行先ボリュームとして選択される。所定期間を経過した電子メールデータは、その後の利用頻度が低いため、処理の遅いSATAディスクに移しても支障はない。また、別の例としては、データマイグレーション後においても、ある程度の利用が見込まれるような場合、RAID1+0で運用されているFCディスク群からRAID5で運用されているFCディスク群に移動させることもできる。この場合、所定台数のFCディスクにより構築されたRAID5の未使用ボリュームが、移行先ボリュームとして選択される。
ストレージ管理部21は、移行先ボリュームを選択すると、移行元ボリュームと移行先ボリュームとでコピーペアを生成させる(S35)。制御部101は、ストレージ管理部21からのコピーペア生成指示を受信すると、指定された移行元ボリューム及び移行先ボリュームとでコピーペアを生成させる。
制御部101は、移行元ボリュームに記憶されている全てのデータ(ユーザデータ)を、移行先ボリュームに全コピーさせる(S36)。この全コピーでは、移行元ボリュームからデータが所定量ずつ読み出され、キャッシュメモリ130を介して、移行先ボリュームに書き込まれていく。コピーがどこまで完了したかは、コピーポインタ管理テーブルT5によって管理される。
なお、移行元ボリュームと移行先ボリュームとの間のデータコピーは、第1ストレージ装置100内で、または、第1ストレージ装置100と第2ストレージ装置200との間で、行われる。即ち、ホスト10は、このデータマイグレーションに関与しない。従って、ホスト10の処理負荷を上げることなく、データマイグレーションを実行することができる。
移行元ボリュームから移行先ボリュームへのデータマイグレーションが完了するよりも前に、ホスト10からアクセスが要求される場合がある。本実施例では、データマイグレーション期間中も、ホスト10からのアクセス要求を処理可能としている。
データマイグレーション中にホスト10からライトコマンドが発行された場合(S37:YES)、制御部101は、ホスト10から受信したライトデータを、移行元ボリューム及び移行先ボリュームの両方にそれぞれ書き込ませる(S38)。この二重書込みは、コピー済領域へのライトアクセスであるか否かを問わずに行われる。
これに対し、例えば、コピー済領域へのライトアクセスの場合は、移行先ボリュームにのみライトデータを書込み、未だコピーされていない領域へのライトアクセスの場合は、移行元ボリュームにのみライトデータを書き込むように構成することも可能である。但し、本実施例のように、コピーされた領域であるか否かを問わずに、ライトデータを移行元ボリューム及び移行先ボリュームの両方に書き込む構成の方が、制御構造を簡素化することができる。
これに対し、例えば、コピー済領域へのライトアクセスの場合は、移行先ボリュームにのみライトデータを書込み、未だコピーされていない領域へのライトアクセスの場合は、移行元ボリュームにのみライトデータを書き込むように構成することも可能である。但し、本実施例のように、コピーされた領域であるか否かを問わずに、ライトデータを移行元ボリューム及び移行先ボリュームの両方に書き込む構成の方が、制御構造を簡素化することができる。
一方、データマイグレーション中にホスト10からリードコマンドが発行された場合(S37:NO,S38:YES)、制御部101は、要求されたデータを移行元ボリュームから読出してホスト10に送信する(S40)。もしも、ホスト10から要求されたデータがキャッシュメモリ130上に存在する場合は、ディスクドライブにアクセスすることなく、キャッシュされているデータをホスト10に送信することができる。
なお、コピー済領域へのリードアクセスであるか否かを問わずに、コピー元ボリュームである移行元ボリュームからデータを読出して、ホスト10に転送する。これに対し、コピー済領域へのリードアクセスの場合は、移行先ボリュームからデータを読み出し、未コピー領域へのリードアクセスの場合は、移行元ボリュームからデータを読み出す構成でもよい。
なお、コピー済領域へのリードアクセスであるか否かを問わずに、コピー元ボリュームである移行元ボリュームからデータを読出して、ホスト10に転送する。これに対し、コピー済領域へのリードアクセスの場合は、移行先ボリュームからデータを読み出し、未コピー領域へのリードアクセスの場合は、移行元ボリュームからデータを読み出す構成でもよい。
このように、制御部101は、ホスト10からのライトアクセス及びリードアクセスを処理しながら(S37〜S40)、移行元ボリュームから移行先ボリュームへのデータコピーを続行する(S41)。移行元ボリュームから移行先ボリュームへの全コピーが完了した場合(S41:YES)、制御部101は、移行元ボリュームと移行先ボリュームとのコピーペアを維持したままで(S42)、ホスト10のアクセスパスを移行元ボリュームから移行先ボリュームへ切り替えさせる(S43)。
図13は、移行元ボリュームから移行先ボリュームへの全コピーが完了した後に実行される差分管理処理を示すフローチャートである。
制御部101は、移行元ボリュームから移行先ボリュームへホスト10のアクセスパスを切り替えた場合でも、移行元ボリュームと移行先ボリュームとのコピーペアを解除せずに、差分データを管理する。
制御部101は、移行元ボリュームから移行先ボリュームへホスト10のアクセスパスを切り替えた場合でも、移行元ボリュームと移行先ボリュームとのコピーペアを解除せずに、差分データを管理する。
制御部101は、移行先ボリュームへアクセスパスが切り替わった後で、ホスト10からライトコマンドが発行されたか否かを判定する(S51)。ライトコマンドの場合(S51:YES)、制御部101は、ホスト10からライトデータを受信して(S52)、キャッシュメモリ130に記憶させる。制御部101は、ホスト10に書込み完了を報告してから(S53)、ライトデータを移行先ボリュームに書き込ませる(S54)。
そして、制御部101は、更新された位置に対応する更新フラグを「1」にセットし、差分管理テーブルT3を更新させる(S55)。なお、移行先ボリュームに係るディスクドライブ群へのライトデータの書込みを確認した後、ホスト10に書込み完了を報告するという、いわゆる同期方式を採用してもよい。但し、同期方式の場合は、ディスクドライブからの書込み完了を待つ必要があるため、ライトコマンドの処理速度が低下する。
そして、制御部101は、更新された位置に対応する更新フラグを「1」にセットし、差分管理テーブルT3を更新させる(S55)。なお、移行先ボリュームに係るディスクドライブ群へのライトデータの書込みを確認した後、ホスト10に書込み完了を報告するという、いわゆる同期方式を採用してもよい。但し、同期方式の場合は、ディスクドライブからの書込み完了を待つ必要があるため、ライトコマンドの処理速度が低下する。
ホスト10からリードコマンドが発行された場合(S51:NO,S56:YES)、制御部101は、要求されたデータがキャッシュメモリ130上に存在するか否かを判定する(S57)。要求されたデータがキャッシュメモリ130に記憶されていない場合(S57:NO)、制御部101は、移行先ボリュームからデータを読み出して(S58)、このデータをホスト10に送信する(S59)。これに対し、要求されたデータがキャッシュメモリ130に記憶されている場合(S57:YES)、制御部101は、このデータをホスト10に送信する(S59)。
図14は、管理端末20の性能監視部22によって実行される性能監視処理を示すフローチャートである。
性能監視部22は、監視を開始するか否かを判断する(S61)。例えば、ユーザの手動操作によって性能監視が指示された場合、性能監視部22は、監視を開始する。あるいは、性能監視部22は、データマイグレーション処理が完了した場合に、自動的に監視を開始することもできる。
性能監視部22は、監視を開始するか否かを判断する(S61)。例えば、ユーザの手動操作によって性能監視が指示された場合、性能監視部22は、監視を開始する。あるいは、性能監視部22は、データマイグレーション処理が完了した場合に、自動的に監視を開始することもできる。
性能監視部22は、監視を開始する場合(S61:YES)、監視対象に対応する性能監視テーブルT10Aを初期化させる(S62)。本実施例では、FCディスクからSATAディスクにデータが移行された場合を例に挙げて説明する。
性能監視部22は、監視間隔を規定するタイマをスタートさせる(S63)。そして、性能監視部22は、所定時間が経過するのを待ち(S64:YES)、第1ストレージ装置100から情報を採取する(S65)。即ち、性能監視部22は、性能監視テーブルT10Aに登録されている各性能項目に関する情報を、第1ストレージ装置100からそれぞれ取得する。
性能監視部22は、第1ストレージ装置100から採取した情報に基づいて、性能監視テーブルT10Aを更新させる(S66)。また、性能監視部22は、管理端末20の端末画面に表示される性能監視画面を更新させる(S67)。性能監視画面の一例については後述する。なお、性能監視画面を表示させていない場合、S67のステップを省略することができる。
性能監視部22は、監視処理を終了させるか否かを判定する。処理終了の判定は、処理開始の判定と同様に、ユーザからの指示、あるいは、別のプログラムの実行に基づいて行うことができる。後者の場合、例えば、後述する復帰処理が完了した場合やデータマイグレーション確定処理が完了した場合に、監視処理を終了させることができる。
監視処理を続行する場合(S68:NO)、性能監視部22は、所定の時間毎に(S63,S64)、第1ストレージ装置100から情報を採取し(S65)、性能監視テーブルT10Aを更新させる(S66)。
図15は、ランダムライト率を算出する場合の処理を示すフローチャートである。本処理は、性能監視部22により実行される。
ランダムライト率に関する情報は、移行先ボリュームがSATAディスクに基づいて生成されている場合に有用である。上述の通り、SATAディスクの場合は、FCディスクに比べて、ランダムライトの処理性能が特に低いためである。
ランダムライト率に関する情報は、移行先ボリュームがSATAディスクに基づいて生成されている場合に有用である。上述の通り、SATAディスクの場合は、FCディスクに比べて、ランダムライトの処理性能が特に低いためである。
本実施例では、必要に応じてランダムライト率を算出し、管理端末20の画面に表示させる。必要に応じてとは、例えば、ユーザからの明示の要求があった場合や、移行先ボリュームがSATAディスク上に生成されている場合を意味する。これにより、ランダムライト率を無駄に算出することがなく、管理端末20の負荷を軽減できる。なお、これに代えて、常にランダムライト率を算出するように構成してもよい。
性能監視部22は、SATAディスクに関する性能表示が要求されたか否かを判定する(S71)。SATAディスクそのもの、または、SATAディスク上に生成されたボリュームに関する性能表示が要求された場合(S71:YES)、性能監視部22は、性能監視テーブルT10Aを参照する(S72)。
性能監視部22は、性能監視テーブルT10Aからランダムライト率の算出に関連する情報を取得する(S73)。ランダムライト率に関連する情報としては、例えば、「WRITE Rate」、「WRITE Hit」、「WRITE Trans Rate」等を挙げることができる。
性能監視部22は、ランダムライト率を算出し(S74)、管理端末20内のメモリまたはローカルディスクに記憶する。そして、性能監視部22は、ユーザによってランダムライト率の表示が要求されると(S75:YES)、記憶させたランダムライト率を呼び出して端末画面に表示させる(S76)。
なお、ランダムライト率は、必ずしも厳密に算出する必要はなく、その傾向がある程度把握できる程度の正確さを備えていれば足りる。
なお、ランダムライト率は、必ずしも厳密に算出する必要はなく、その傾向がある程度把握できる程度の正確さを備えていれば足りる。
図16は、性能監視画面の一例を示す説明図である。性能監視画面は、例えば、グラフ表示タブ301,オプションタブ302,出力タブ303を備えることができる。ユーザは、所望のタブを操作することにより、所望の画面に移ることができる。グラフ表示タブ301をユーザが操作すると、図16に示すグラフ表示画面が表示される。なお、オプションタブ302をユーザが操作すると、オプション画面に遷移する。ユーザが出力タブ303を操作すると、出力画面に遷移する。出力画面では、監視データを管理端末20から外部に出力させることができる。ユーザは、出力された監視データをパーソナルコンピュータや携帯情報端末等に読み込んで、統計処理等を行うことができる。
グラフ表示画面は、例えば、監視状態表示部310と、ツリー表示部320と、監視結果表示部330と、グラフ表示部340とを含んで構成することができる。監視状態表示部310は、例えば、状態表示部311と、採取間隔指定部312と、開始ボタン313と、終了ボタン314とを備えることができる。状態表示部311は、各監視対象毎に監視されているか否かの状態を表示する。採取間隔指定部312は、監視周期を指定するものである。開始ボタン313は、性能監視の開始を指示するためのボタンである。終了ボタン34は、性能監視の終了を指示するためのボタンである。
ツリー表示部320は、ストレージシステムの構成(第1ストレージ装置100の構成)をツリー形式で表示させる。ユーザは、表示されたツリーの中から監視対象や監視結果の表示対象を選択することができる。
監視結果表示部330は、監視の結果を表示する領域である。監視結果表示部330は、例えば、数値表示部331と、選択部332と、グラフ表示ボタン333とを備えることができる。数値表示部331は、各監視対象について、選択部332で選択された指標に関する実測値を数値で表示させる。数値表示部331は、選択部332で選択された指標の実測値のみを表示させることができる。但し、本実施例では、選択部332で選択された指標の実測値を先頭(画面の左側)に表示させ、これに続けて別の指標の実測値も表示させる。表示の順番は、性能監視テーブルT10,T10Aに登録されている項目の順番により定まる。
ユーザがグラフ表示ボタン333を操作すると、グラフ表示部340には、監視結果がグラフとして表示される。グラフの形式としては、例えば、折れ線グラフ、棒グラフ、円グラフ等を挙げることができる。グラフ表示部340には、選択部332で選択された指標に関する実測値のグラフが表示される。なお、例えば、選択部332を複数設けることにより、複数の指標の実測値を比較してグラフ表示させる構成でもよい。
このように、本実施例では、移行先ボリュームに関する性能を監視して、その監視結果を管理端末20の端末画面に表示させる。ユーザは、性能監視画面を確認して、移行先ボリュームの選択が適切であるか否かを判断することができる。
例えば、RAID1+0で運用されるFCディスク群からRAID5で運用されるSATAディスク群にボリュームを移動させる場合を考える。この移行後に、そのボリュームへのランダムアクセスが多量に発生すると、第1ストレージ装置100の応答性能が低下し、ストレージサービスの品質が低下する。従って、この場合は、RAID5で運用されるSATAディスク群の選択は、不適切であったと判断することができる。
そこで、ユーザは、後述のように、そのデータマイグレーションを取り消して元の状態に復帰させる。ユーザは、別のディスク群に生成される未使用ボリュームを選択して、データマイグレーションをやり直すことができる。例えば、ユーザは、RAID5で運用されるFCディスク群に未使用のボリュームを生成し、この未使用ボリュームを移行先ボリュームとして選択し直して、データマイグレーションをやり直すことができる。
そこで、ユーザは、後述のように、そのデータマイグレーションを取り消して元の状態に復帰させる。ユーザは、別のディスク群に生成される未使用ボリュームを選択して、データマイグレーションをやり直すことができる。例えば、ユーザは、RAID5で運用されるFCディスク群に未使用のボリュームを生成し、この未使用ボリュームを移行先ボリュームとして選択し直して、データマイグレーションをやり直すことができる。
また、別の例として、例えば、RAID5で運用されている15000rpmのFCディスク群(図9中のグループC2)から、RAID1+0で運用される10000rpmのFCディスク群(グループC3)にボリュームを移動させる場合を考える。この移行後に、リードアクセスの方がライトアクセスよりも多く発生した場合、移行先のボリュームは、ユーザが意図した通りの性能を発揮しないかも知れない。
図9のテーブルT11に示すように、グループC3に属するボリュームは、そのライトアクセス時のランキングは第2位であるが、テーブルT12に示すように、そのリードアクセス時のランキングは第3位である。
従って、グループC3に属するボリュームへのリードアクセスが多い場合、データマイグレーションの実行前よりも、ボリュームの応答性能が低下する可能性がある。ユーザは、性能監視画面を管理端末20の画面に表示させることにより、リードアクセス率やライトアクセス率等を確認することができる。そして、ユーザは、別のグループ(例えばC1)を選択して、データマイグレーションをやり直すことができる。
図9のテーブルT11に示すように、グループC3に属するボリュームは、そのライトアクセス時のランキングは第2位であるが、テーブルT12に示すように、そのリードアクセス時のランキングは第3位である。
従って、グループC3に属するボリュームへのリードアクセスが多い場合、データマイグレーションの実行前よりも、ボリュームの応答性能が低下する可能性がある。ユーザは、性能監視画面を管理端末20の画面に表示させることにより、リードアクセス率やライトアクセス率等を確認することができる。そして、ユーザは、別のグループ(例えばC1)を選択して、データマイグレーションをやり直すことができる。
なお、以上の説明では、ユーザの判断によってデータマイグレーションをやり直すか否かを決定する場合を述べたが、後述のように、自動的にデータマイグレーションの可否を評価して、そのデータマイグレーションを取り消すこともできる。
図17は、いったん実行されたデータマイグレーションを取り消して元の状態に戻すための復帰処理を示すフローチャートである。この復帰処理は、図12で述べたデータマイグレーション処理と同様に、管理端末20と第1ストレージ装置100との連携によって行うことができる。
本実施例では、S71〜S74までを管理端末20のストレージ管理部21が実行し、S75〜S83までを第1ストレージ装置100で実行させるものとして説明する。これに代えて、復帰処理の全部または略全部を第1ストレージ装置100内で実行させる構成でもよい。
本実施例では、S71〜S74までを管理端末20のストレージ管理部21が実行し、S75〜S83までを第1ストレージ装置100で実行させるものとして説明する。これに代えて、復帰処理の全部または略全部を第1ストレージ装置100内で実行させる構成でもよい。
最初に、ストレージ管理部21は、ユーザからの復帰指示があったか否かを判定する(S71)。復帰指示とは、未確定の状態のデータマイグレーションを取り消して、元の状態に戻させるための指示である。ユーザが復帰を命じた場合(S71:YES)、ストレージ管理部21は、移行元ボリューム及び移行先ボリュームを特定して、第1ストレージ装置100にデータマイグレーションの取り消しを指示する(S74)。
ユーザからの復帰指示が無い場合(S71:NO)、ストレージ管理部21は、復帰条件管理テーブルT7及び性能監視テーブルT10,T10Aを参照し(S72)、復帰対象のボリュームが存在するか否かを判定する(S73)。即ち、移行先ボリュームについて取得された性能の実測値が復帰条件管理テーブルT7に登録されている閾値に達しているか否かを判定する。
復帰対象のボリュームが存在しない場合(S73:NO)、ストレージ管理部21は、本処理を終了させる。復帰対象のボリュームが存在する場合(S73:YES)、ストレージ管理部21は、データマイグレーションの取り消しを第1ストレージ装置100に指示する(S74)。
第1ストレージ装置100の制御部101は、差分管理テーブルT3及びコピーペア管理テーブルT4を参照し(S75)、移行先ボリュームの側で管理されていた差分データを移行元ボリュームにコピーさせる(S76)。
暫定的なデータマイグレーションの完了後に生じた差分データのみをコピーするため、この差分コピーは比較的短時間で完了する。しかし、差分コピー中に、ホスト10から移行先ボリュームへのアクセス要求が生じる場合もある。そこで、本実施例では、全コピーを行った場合と同様に、差分コピー中もホスト10からのアクセス要求を受け付けて処理するようになっている。
差分コピー中に、ホスト10から移行先ボリュームを対象とするライトコマンドが発行された場合(S77:YES)、制御部101は、ホスト10から受信したライトデータを移行元ボリューム及び移行先ボリュームにそれぞれ書き込ませる(S78)。
差分コピー中に、ホスト10から移行先ボリュームを対象とするリードコマンドが発行された場合(S77:NO,S79:YES)、制御部101は、要求されたデータを移行先ボリュームから読み出して、ホスト10に送信する(S80)。
制御部101は、差分コピーが完了するまでの間(S81:NO)、ホスト10からのアクセス要求を処理しつつ、差分コピーを実行する。差分コピーが完了すると(S81:YES)、制御部101は、移行元ボリュームと移行先ボリュームとのコピーペアを解消し、コピーペア管理テーブルT4を更新させる(S82)。制御部101は、ホスト10のアクセスパスを、移行先ボリュームから移行元ボリュームへ切り替え直す(S83)。
図18は、暫定的なデータマイグレーションを確定させるための処理を示すフローチャートである。
上述のように、本実施例では、データマイグレーションを実行した場合に、コピーペアを解除することなく、移行先ボリュームの性能を監視して、差分データを管理する。差分データの管理は、そのデータマイグレーションの復帰処理が実行された場合、または、これから述べるデータマイグレーション確定処理が実行された場合に、終了する。
上述のように、本実施例では、データマイグレーションを実行した場合に、コピーペアを解除することなく、移行先ボリュームの性能を監視して、差分データを管理する。差分データの管理は、そのデータマイグレーションの復帰処理が実行された場合、または、これから述べるデータマイグレーション確定処理が実行された場合に、終了する。
データマイグレーション確定処理は、例えば、管理端末20のストレージ管理部21によって実行される。これに代えて、第1ストレージ装置100内でデータマイグレーション確定処理を行う構成でもよい。
ストレージ管理部21は、ユーザからデータマイグレーションを確定させるべき旨の指示が入力されたか否かを判定する(S91)。ユーザからの指示が無い場合(S91:NO)、ストレージ管理部21は、データマイグレーション後に所定時間の経過した移行先ボリュームが存在するか否かを判定する(S92)。つまり、ストレージ管理部21は、予め設定された所定時間以上、差分データが管理されているボリュームが存在するか否かを判定する。この所定時間は、例えば、「差分管理の上限時間」または「移行猶予期間」等のように表現することもできる。
データマイグレーション後に所定時間経過したボリュームが存在する場合(S92:YES)、ストレージ管理部21は、第1ストレージ装置100の制御部101に指示を出して、移行先ボリュームと移行元ボリュームとのコピーペアを解除させる(S93)。そして、ストレージ管理部21は、差分管理の中止及び差分管理テーブルT3の消去を、制御部101に指示して(S94)、この処理を終了させる。
図19は、本実施例による移行元ボリューム及び移行先ボリュームのステータス変化を模式的に示す説明図である。図19(a)は、データマイグレーション後に、その移行先ボリュームの使用継続が決定された場合のステータス変化を示す。
データマイグレーションの開始前(初期状態)において、移行元ボリューム及び移行先ボリュームのステータスは、それぞれ「ノーマル」となっている。データマイグレーションを行うために「全コピーフェーズ」に移行すると、移行元ボリュームのステータスは「ノーマル」から「コピー元」に、移行先ボリュームのステータスは「ノーマル」から「コピー先」に、それぞれ変化する。
全コピーが完了すると、全コピーフェーズから差分管理フェーズに遷移する。差分管理フェーズに遷移しても、移行元ボリューム及び移行先ボリュームのステータスは、それぞれ変化しない。移行元ボリュームは「コピー元」に、移行先ボリュームは「コピー先」になったままである。差分管理フェーズでは、移行元ボリュームと移行先ボリュームとのコピーペアを維持したままで、差分データを管理する。
上述のデータマイグレーション確定処理が行われると、差分管理フェーズから移行確定フェーズに遷移する。移行確定フェーズでは、移行元ボリュームのステータスは「コピー元」から「ノーマル」に、移行先ボリュームのステータスは「コピー先」から「ノーマル」に、それぞれ変化する。
図19(b)は、データマイグレーション後に、そのデータマイグレーションをやり直すべく、元の状態に復帰させる場合のステータス変化を示す。初期状態から差分管理フェーズまでの移行元ボリューム及び移行先ボリュームのステータス変化は、図19(a)で述べたと同様であるため、省略する。
差分管理フェーズにおいて、上述の通り、性能監視部22は、移行先ボリュームの性能を監視している。この監視の結果、例えば、移行先ボリュームが期待されている性能を発揮していない場合、または、予定された性能低下以上に移行先ボリュームの性能が低下している場合は、そのデータマイグレーションが解消される。
データマイグレーションの解消が決定されると、差分コピーフェーズに遷移し、データマイグレーション開始前の状態に戻すべく、移行先ボリュームから移行元ボリュームに差分データをコピーさせる。データマイグレーション開始前は、移行元ボリュームがホスト10からアクセスされる基準ボリュームであったため、再び基準ボリュームを移行元ボリュームにするべく、差分コピーを行う。差分コピーフェーズでは、移行先ボリュームが「コピー元」となり、移行元ボリュームが「コピー先」となる。
差分コピーが完了すると、復帰後フェーズに遷移する。復帰後フェーズでは、移行元ボリュームのステータスは「コピー先」から「ノーマル」に、移行先ボリュームのステータスは「コピー元」から「ノーマル」に、それぞれ変化する。
本実施例は上述のように構成されるので、以下の効果を奏する。
本実施例では、性能監視部22により、移行先ボリュームの種類に応じた所定の指標について、移行先ボリュームの稼働状況を監視する。従って、例えば、FCディスクからSATAディスクへのデータマイグレーション等のように、それぞれ異なる種類のドライブに基づくボリューム間でデータを移行させた場合でも、移行先ボリュームの性能を適切に監視することができる。
本実施例では、性能監視部22により、移行先ボリュームの種類に応じた所定の指標について、移行先ボリュームの稼働状況を監視する。従って、例えば、FCディスクからSATAディスクへのデータマイグレーション等のように、それぞれ異なる種類のドライブに基づくボリューム間でデータを移行させた場合でも、移行先ボリュームの性能を適切に監視することができる。
本実施例では、ランダムアクセスに関する状況を監視可能な構成とした。従って、例えば、SATAディスクのようなランダムアクセスの処理性能が低いドライブについて、その性能をより適切に評価することができる。換言すれば、本実施例では、それぞれ技術的特性の異なる複数種類のボリュームが混在するヘテロジニアスな環境下において、これら異種類のボリュームの弱点を監視して、評価することができる。
本実施例では、管理端末20と第1ストレージ装置100との連携によって、データマイグレーションを制御する構成とした。従って、移行先ボリュームの性能に関する監視結果を管理端末20の画面に表示等させることができ、ユーザは、移行先ボリュームの選択が適切か否かを容易に判断することができる。
本実施例では、予め設定されているデータマイグレーション条件に基づいて、自動的にデータマイグレーションを実行可能とした。また、本実施例では、移行先ボリュームの性能に関する監視結果と予め設定されている復帰条件とを比較することにより、データマイグレーション実施前の状態に自動的に復帰可能な戻すことができる構成とした。従って、本実施例では、自律的にデータマイグレーションを行うことができ、ユーザの使い勝手が向上する。
本実施例では、データマイグレーションの実行中に、ホスト10からのアクセス要求を処理可能な構成とした。また、本実施例では、ホスト10を介さずに、ボリューム間でのデータコピーを行う構成とした。従って、ホスト10上のアプリケーション処理に何ら影響を与えることなく、データマイグレーションを実施可能であり、ストレージシステムの使い勝手が向上する。
本実施例では、暫定的なデータマイグレーションの実施後に移行先ボリュームに関して差分データを管理する構成とした。従って、暫定的なデータマイグレーションを解消して元の状態に戻す場合、移行先ボリュームから移行元ボリュームに差分データをコピーするだけでよく、現状への復帰時間を短縮することができ、使い勝手が向上する。また、差分データのみを管理すればよいため、第1ストレージ装置100の処理負荷も少ない。
本実施例では、暫定的なデータマイグレーションの実施後に、予め設定された所定時間だけ移行先ボリュームの性能を監視し、この監視の結果、その移行先ボリュームの使用継続を決定した場合は、データマイグレーションを確定させて差分管理を終了させる構成とした。従って、未確定の状態が不必要に継続するのを防止して、第1ストレージ装置100の処理負荷を軽減することができる。
本実施例では、第1ストレージ装置100は、第2ストレージ装置200の有する記憶資源を第1ストレージ装置100の内部で仮想化することにより、それがあたかも自己の記憶資源であるかのように取り込む構成とした。従って、第2ストレージ装置200のディスクドライブ220が提供する記憶領域に対して、第1ストレージ装置100の有する性能(キャッシュメモリ容量やCPU性能等)を適用することができ、ストレージシステム内の記憶資源を有効に利用することができる。
これにより、本実施例では、異種類のボリュームが混在するストレージシステムにおいて、これら異種類のボリュームを第1ストレージ装置100内で仮想化し、有効に利用することができる。そして、異種類のボリューム間でのデータマイグレーションを行うことができ、さらに、異種類のボリューム間でデータマイグレーションが実行された場合に、移行先ボリュームの種類に応じて適切に性能を監視することができる。
なお、本発明は、上述した実施の形態に限定されない。当業者であれば、本発明の範囲内で、種々の追加や変更等を行うことができる。
1…移行元ボリューム、2…移行先ボリューム、3…制御部、4…ホスト、5…差分管理部、6…性能監視部、10…ホスト、11…ホストバスアダプタ(HBA)、12…アプリケーションプログラム、20…管理端末、21…ストレージ管理部、22…性能監視部、100…第1ストレージ装置、101…制御部、102…データマイグレーション制御部、103…I/O処理部、104…全コピー部、105…差分コピー部、106…差分管理部、110…チャネルアダプタ(CHA)、111…通信ポート、111A…ターゲットポート、111B…外部接続ポート、120…ディスクアダプタ(DKA)、130…キャッシュメモリ、140…共有メモリ、150…接続制御部、160…記憶部、161…ディスクドライブ、162…中間記憶デバイス(VDEV)、163…仮想中間記憶デバイス(V-VOL)、164…論理ボリューム(LDEV)、165…ロジカルユニット(LU)、165…コマンドデバイス、200…第2ストレージ装置、210…コントローラ、211…通信ポート、220…ディスクドライブ、240…論理ボリューム
Claims (20)
- 上位装置により利用され得る複数種類のボリュームと、
前記複数種類のボリュームの中からそれぞれ選択される移行元ボリューム及び移行先ボリュームの間で、データを移行させる制御部と、
前記制御部によって前記移行元ボリュームから前記移行先ボリュームへデータが移行された場合に、前記移行先ボリュームの稼働状況を監視する監視部と、を備え、
前記監視部は、前記移行先ボリュームの種類に応じた所定の指標について、前記移行先ボリュームの稼働状況を監視する、ストレージシステム。 - 前記制御部は、前記監視部によって前記移行先ボリュームの稼働状況が監視されている間、前記移行元ボリュームと前記移行先ボリュームとの対応関係を保持し続ける請求項1に記載のストレージシステム。
- 前記複数種類のボリュームは、前記各ボリュームが設定される記憶デバイスの種別、前記各ボリュームが設定される記憶デバイスのデータ入出力速度、または前記各ボリュームのRAID構成の種別のうち少なくともいずれか一つ以上の属性によって分類可能である請求項1に記載のストレージシステム。
- 前記移行先ボリュームは、前記移行元ボリュームに比べて、信頼性が相対的に低い記憶デバイスに基づいて生成されている請求項1に記載のストレージシステム。
- 単位時間当たりのアクセス総数、単位時間当たりのライトアクセス総数、単位時間当たりのリードアクセス総数、ライトアクセスのキャッシュヒット率、リードアクセスのキャッシュヒット率、単位時間当たりのデータ転送サイズ、単位時間当たりのライトデータ転送サイズ、単位時間当たりのリードデータ転送サイズの各指標の中から少なくともいずれか一つ以上の指標が前記移行先ボリュームの種類に応じて選択され、前記監視部は、この選択された指標について、前記移行先ボリュームの稼働状況を監視する請求項1に記載のストレージシステム。
- 前記移行先ボリュームは、前記移行元ボリュームに比べて、ランダムアクセス性能が相対的に低い記憶デバイスに基づいて生成されており、
前記監視部は、少なくとも前記移行先ボリュームへのランダムアクセスの状況を監視する請求項1に記載のストレージシステム。 - 前記制御部に接続され、前記監視部による監視結果の表示及び前記制御部への指示がそれぞれ可能なユーザインターフェースを有する管理用コンピュータをさらに備え、
前記制御部は、前記管理用コンピュータからの指示に基づいて、前記移行元ボリュームと前記移行先ボリュームとの間のデータ移行を制御する請求項1に記載のストレージシステム。 - 前記制御部は、
(1)予め設定されている移行条件に従って前記移行元ボリュームから前記移行先ボリュームへのデータ移行を行い、
(2)前記監視部による前記移行先ボリュームの稼働状況に関する監視結果と予め設定されている復帰条件とに基づいて、前記移行先ボリュームの使用を継続するか否か判定する請求項1に記載のストレージシステム。 - 前記制御部は、前記監視部による監視結果に基づいて、前記移行先ボリュームの使用を中止する場合に、前記移行先ボリュームの記憶内容と前記移行元ボリュームの記憶内容とを同期させる請求項1に記載のストレージシステム。
- 前記制御部は、前記監視部による監視結果に基づいて、前記移行先ボリュームの使用を中止する場合に、前記移行先ボリュームの記憶内容と前記移行元ボリュームの記憶内容との差分データを前記移行先ボリュームから前記移行元ボリュームにコピーさせることにより、前記移行先ボリュームと前記移行元ボリュームとを同期させる請求項1に記載のストレージシステム。
- 前記制御部は、
(1)前記移行元ボリュームから前記移行先ボリュームへのデータ移行が完了した場合に、前記移行元ボリュームと前記移行先ボリュームとの対応関係を維持しながら該各ボリューム間の差分データを管理し、
(2)前記監視部による監視結果に基づいて、前記移行先ボリュームの使用を中止する場合に、前記差分データを前記移行元ボリュームにコピーさせることにより、前記移行先ボリュームと前記移行元ボリュームとを同期させる、
請求項1に記載のストレージシステム。 - 前記制御部は、前記移行元ボリュームと前記移行先ボリュームとの間でデータを移行させている場合も、前記上位装置からのアクセス要求を受付可能である請求項1に記載のストレージシステム。
- 前記制御部は、前記移行元ボリュームと前記移行先ボリュームとの間でデータを移行させている場合に、前記上位装置からのライトデータを受信したときは、このライトデータを前記移行元ボリューム及び前記移行先ボリュームの両方にそれぞれ書き込ませる請求項1に記載のストレージシステム。
- 前記監視部は、前記移行元ボリュームから前記移行先ボリュームへの移行完了後に予め設定されている所定時間が経過した場合に、前記移行先ボリュームの稼働状況に関する監視を終了し、
前記制御部は、前記監視部による監視が終了した場合に、前記移行元ボリュームから前記移行先ボリュームへのデータ移行を確定させるようになっている請求項1に記載のストレージシステム。 - 前記監視部は、明示の終了指示があった場合に、前記移行先ボリュームの稼働状況に関する監視を終了し、
前記制御部は、前記監視部による監視が終了した場合に、前記移行元ボリュームから前記移行先ボリュームへのデータ移行を確定させるようになっている請求項1に記載のストレージシステム。 - 複数種類のボリュームを備えたストレージシステムにおいてボリューム間のデータ移行を制御するための方法であって、
前記複数種類のボリュームの中から移行元ボリューム及び移行先ボリュームをそれぞれ選択する選択ステップと、
前記移行元ボリュームと前記移行先ボリュームとを対応付けてコピーペアを生成し、前記移行元ボリュームの全ての記憶内容を前記移行先ボリュームに第1コピーさせる第1コピーステップと、
前記第1コピーの実行中に、上位装置からのライトアクセスを受け付け、前記上位装置から受信したライトデータを前記移行元ボリューム及び前記移行先ボリュームにそれぞれ書き込ませる第1書込みステップと、
前記第1コピーの完了後に、前記上位装置からのアクセスを前記移行先ボリュームに切り替える第1切替ステップと、
、前記移行先ボリュームと前記移行元ボリュームとの間に生じる差分データを管理する差分管理ステップと、
前記第1コピーの完了後に、前記移行先ボリュームの種類に応じた所定の指標について、前記移行先ボリュームの稼働状況を監視する監視ステップと、
を含むストレージシステムのデータ移行方法。 - 前記監視ステップの次に、前記監視ステップによる監視結果に基づいて、前記移行先ボリュームの使用を中止するか否かを判定する判定ステップと、
前記判定ステップにより前記移行先ボリュームの使用中止が決定された場合、前記差分管理ステップにより管理されている前記差分データを前記移行元ボリュームに第2コピーさせる第2コピーステップと、
前記第2コピーの実行中に、前記上位装置から受信したライトデータを前記移行先ボリューム及び前記移行元ボリュームにそれぞれ書き込ませる第2書込みステップと、
前記第2コピーの完了後に、前記第1コピーステップによって生成された前記コピーペアを解除するコピーペア解除ステップと、
前記コピーペアの解除後に、前記上位装置からのアクセスを前記移行元ボリュームに切り替える第2切替ステップと、
をさらに含む請求項16に記載のストレージシステムのデータ移行方法。 - 前記判定ステップの次に、前記判定ステップにより前記移行先ボリュームの使用継続が決定された場合、前記コピーペアを解除して前記差分管理ステップによる前記差分データの管理を終了する移行確定ステップをさらに含む請求項17に記載のボリューム間のデータ移行方法。
- 上位装置に複数種類のボリュームを提供可能なストレージ装置と、このストレージ装置を管理するための管理用コンピュータとを備えたストレージシステムであって、
前記ストレージ装置は、
前記複数種類のボリュームを生成するための複数種類のディスクドライブと、
前記上位装置及び前記各ディスクドライブとの間の通信をそれぞれ制御し、前記複数種類のボリュームの中からそれぞれ選択される移行元ボリューム及び移行先ボリュームの間でデータを移行させる制御部と、
を備え、
前記管理用コンピュータは、
前記制御部との間で通信を行うストレージ管理部と、
前記制御部によって前記移行元ボリュームから前記移行先ボリュームにデータが移行された場合は、前記ストレージ管理部を介して前記制御部から所定の情報を採取することにより、前記移行先ボリュームの稼働状況を監視する監視部と、
を備え、
前記監視部は、前記移行先ボリュームの種類に応じた所定の指標に基づいて、前記移行先ボリュームの稼働状況を監視し、この監視結果を出力することができるストレージシステム。 - 前記制御部は、
(1)前記移行元ボリュームと前記移行先ボリュームとでコピーペアを生成し、前記移行元ボリュームの記憶内容を全て前記移行先ボリュームにコピーさせることにより、前記移行元ボリュームから前記移行先ボリュームへデータを移行させ、
(2)前記データ移行の完了後は、前記上位装置からのアクセスを前記移行元ボリュームから前記移行先ボリュームへ切り替えさせ、
(3)前記コピーペアを維持したまま、前記上位装置によって前記移行先ボリュームに書き込まれたライトデータを差分データとして管理し、
(4)前記監視部からの指示により、前記移行先ボリュームの使用継続が中止された場合は、前記差分データを前記移行元ボリュームにコピーさせ、
(5)前記移行元ボリュームから前記移行先ボリュームへの前記差分データのコピーが完了した後は、前記コピーペアを解除して、前記上位装置からのアクセスを前記移行先ボリュームから前記移行元ボリュームに切り替えさせる、
ように制御する請求項19に記載のストレージシステム。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005120431A JP2006301820A (ja) | 2005-04-19 | 2005-04-19 | ストレージシステム及びストレージシステムのデータ移行方法 |
US11/159,323 US20060236056A1 (en) | 2005-04-19 | 2005-06-23 | Storage system and storage system data migration method |
EP06250860A EP1717689A1 (en) | 2005-04-19 | 2006-02-17 | Storage system and storage data migration method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005120431A JP2006301820A (ja) | 2005-04-19 | 2005-04-19 | ストレージシステム及びストレージシステムのデータ移行方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2006301820A true JP2006301820A (ja) | 2006-11-02 |
Family
ID=36293684
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005120431A Withdrawn JP2006301820A (ja) | 2005-04-19 | 2005-04-19 | ストレージシステム及びストレージシステムのデータ移行方法 |
Country Status (3)
Country | Link |
---|---|
US (1) | US20060236056A1 (ja) |
EP (1) | EP1717689A1 (ja) |
JP (1) | JP2006301820A (ja) |
Cited By (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008165379A (ja) * | 2006-12-27 | 2008-07-17 | Nec Corp | ストレージシステムとプログラム並びに方法 |
JP2008217575A (ja) * | 2007-03-06 | 2008-09-18 | Nec Corp | ストレージ装置及びその構成最適化方法 |
JP2008304963A (ja) * | 2007-06-05 | 2008-12-18 | Hitachi Ltd | 計算機システムまたは計算機システムの性能管理方法 |
JP2009205295A (ja) * | 2008-02-26 | 2009-09-10 | Buffalo Inc | データ管理方法 |
JP2010250477A (ja) * | 2009-04-14 | 2010-11-04 | Fujitsu Ltd | ストレージ制御プログラム、ストレージシステム、ストレージ制御装置、およびストレージ制御方法 |
JP2012511773A (ja) * | 2008-12-10 | 2012-05-24 | アリババ・グループ・ホールディング・リミテッド | 効率的なデータ同期化のための方法及びシステム |
JP2012198627A (ja) * | 2011-03-18 | 2012-10-18 | Fujitsu Ltd | ストレージ装置,データ移動方法及びストレージシステム |
JP2012215935A (ja) * | 2011-03-31 | 2012-11-08 | Nec Corp | ディスクアレイ装置及びその制御方法 |
US8402238B2 (en) | 2010-05-18 | 2013-03-19 | Hitachi, Ltd. | Storage apparatus and control method thereof |
KR101401392B1 (ko) * | 2012-08-31 | 2014-06-02 | 전자부품연구원 | 가변적 cs 운용방법 및 이를 적용한 컴퓨팅 시스템 |
US8762773B2 (en) | 2010-03-30 | 2014-06-24 | Fujitsu Limited | Processing apparatus, data migration method, and computer-readable recording medium having data migration program recorded thereon |
JP2014186652A (ja) * | 2013-03-25 | 2014-10-02 | Fujitsu Ltd | データ転送装置、データ転送システム、データ転送方法及びプログラム |
JP2015500544A (ja) * | 2011-12-15 | 2015-01-05 | シマンテック コーポレーションSymantec Corporation | バーチャル環境におけるダイナミックストレージ階層化 |
JP2015520876A (ja) * | 2012-04-26 | 2015-07-23 | 株式会社日立製作所 | 情報記憶システム及び情報記憶システムの制御方法 |
JP2016062315A (ja) * | 2014-09-18 | 2016-04-25 | 富士通株式会社 | 制御装置、ストレージシステム、及び制御プログラム |
JP2017173886A (ja) * | 2016-03-18 | 2017-09-28 | 日本電気株式会社 | 通信システム、記憶装置、通信方法、プログラム |
JP2020160860A (ja) * | 2019-03-27 | 2020-10-01 | Necプラットフォームズ株式会社 | ストレージ制御装置、ストレージ制御方法及びストレージ制御プログラム |
JP2021106002A (ja) * | 2016-11-26 | 2021-07-26 | 華為技術有限公司Huawei Technologies Co.,Ltd. | データ移行方法、ホスト、およびソリッドステートディスク |
JP2021135732A (ja) * | 2020-02-27 | 2021-09-13 | 富士通株式会社 | 制御方法、制御プログラム、および情報処理装置 |
Families Citing this family (57)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20070214194A1 (en) * | 2006-03-07 | 2007-09-13 | James Reuter | Consistency methods and systems |
US20070234107A1 (en) * | 2006-03-31 | 2007-10-04 | International Business Machines Corporation | Dynamic storage data protection |
JP2008181461A (ja) * | 2007-01-26 | 2008-08-07 | Hitachi Ltd | Nas装置間でのデータ移行を制御する装置及び方法 |
US20080186787A1 (en) * | 2007-02-05 | 2008-08-07 | Seiko Epson Corporation | Storage device |
US7970903B2 (en) * | 2007-08-20 | 2011-06-28 | Hitachi, Ltd. | Storage and server provisioning for virtualized and geographically dispersed data centers |
JP2009104421A (ja) * | 2007-10-23 | 2009-05-14 | Hitachi Ltd | ストレージアクセス装置 |
JP2009151677A (ja) * | 2007-12-21 | 2009-07-09 | Fujitsu Ltd | ストレージ制御装置、ストレージ制御プログラムおよびストレージ制御方法 |
US8380674B1 (en) * | 2008-01-09 | 2013-02-19 | Netapp, Inc. | System and method for migrating lun data between data containers |
US8005996B2 (en) | 2008-02-01 | 2011-08-23 | Prostor Systems, Inc. | Digitally shredding on removable disk drives |
JP2009230381A (ja) * | 2008-03-21 | 2009-10-08 | Hitachi Ltd | ストレージシステム及びボリューム割当方法並びに管理装置 |
US8914540B1 (en) * | 2008-07-01 | 2014-12-16 | Cisco Technology, Inc. | Multi-fabric SAN based data migration |
US8239623B2 (en) * | 2008-07-03 | 2012-08-07 | Oracle America, Inc. | Scheduling read operations during drive reconstruction in an array of redundant disk drives |
US8166136B2 (en) * | 2008-12-24 | 2012-04-24 | National Institute Of Advanced Industrial Science And Technology | Performance reservation storage management system, storage management method, and storage medium |
JP5339432B2 (ja) | 2009-02-25 | 2013-11-13 | 日本電気株式会社 | ストレージシステム |
US8458719B2 (en) * | 2009-12-17 | 2013-06-04 | International Business Machines Corporation | Storage management in a data processing system |
US20110185136A1 (en) * | 2010-01-22 | 2011-07-28 | Microsoft Corporation | Moving large dynamic datasets via incremental change synchronization |
US8677009B2 (en) * | 2010-01-22 | 2014-03-18 | Microsoft Corporation | Massive structured data transfer optimizations for high-latency, low-reliability networks |
US8843459B1 (en) * | 2010-03-09 | 2014-09-23 | Hitachi Data Systems Engineering UK Limited | Multi-tiered filesystem |
JP5521807B2 (ja) * | 2010-06-16 | 2014-06-18 | 富士通株式会社 | 障害原因推定装置、障害原因推定プログラム及び障害原因推定方法 |
JP5605043B2 (ja) * | 2010-07-16 | 2014-10-15 | 富士通株式会社 | データコピー装置、データコピー方法およびストレージ装置 |
US8578108B2 (en) | 2010-08-03 | 2013-11-05 | International Business Machines Corporation | Dynamic look-ahead extent migration for tiered storage architectures |
US8345489B2 (en) | 2010-09-02 | 2013-01-01 | International Business Machines Corporation | Caching scheme synergy for extent migration between tiers of a storage system |
CN102622303B (zh) * | 2011-01-30 | 2016-02-17 | 国际商业机器公司 | 一种内存过载控制的方法及装置 |
US10298684B2 (en) | 2011-04-01 | 2019-05-21 | International Business Machines Corporation | Adaptive replication of dispersed data to improve data access performance |
US8627091B2 (en) * | 2011-04-01 | 2014-01-07 | Cleversafe, Inc. | Generating a secure signature utilizing a plurality of key shares |
US11418580B2 (en) | 2011-04-01 | 2022-08-16 | Pure Storage, Inc. | Selective generation of secure signatures in a distributed storage network |
JP5760614B2 (ja) * | 2011-04-05 | 2015-08-12 | 富士通株式会社 | ライブラリシステム、管理装置、ライブラリ装置、管理方法および管理プログラム |
US20120265932A1 (en) * | 2011-04-13 | 2012-10-18 | Jibbe Mahmoud K | Method to increase the flexibility of configuration and/or i/o performance on a drive array by creation of raid volume in a heterogeneous mode |
WO2013190590A1 (en) * | 2012-06-18 | 2013-12-27 | Hitachi, Ltd. | Computer system and data migration method |
US9015433B2 (en) | 2012-07-31 | 2015-04-21 | Hewlett-Packard Development Company, L.P. | Resiliency with a destination volume in a replication environment |
US9158468B2 (en) * | 2013-01-02 | 2015-10-13 | International Business Machines Corporation | High read block clustering at deduplication layer |
WO2014188682A1 (ja) * | 2013-05-20 | 2014-11-27 | 日本電気株式会社 | ストレージノード、ストレージノード管理装置、ストレージノード論理容量設定方法、プログラム、記録媒体および分散データストレージシステム |
US20150081893A1 (en) * | 2013-09-17 | 2015-03-19 | Netapp. Inc. | Fabric attached storage |
US9213753B2 (en) * | 2013-11-18 | 2015-12-15 | Hitachi, Ltd. | Computer system |
US9344525B2 (en) * | 2013-11-25 | 2016-05-17 | Violin Memory Inc. | Method and apparatus for data migration |
US8874835B1 (en) * | 2014-01-16 | 2014-10-28 | Pure Storage, Inc. | Data placement based on data properties in a tiered storage device system |
US9766972B2 (en) | 2014-08-07 | 2017-09-19 | Pure Storage, Inc. | Masking defective bits in a storage array |
US9558069B2 (en) | 2014-08-07 | 2017-01-31 | Pure Storage, Inc. | Failure mapping in a storage array |
JP2016099952A (ja) * | 2014-11-26 | 2016-05-30 | 株式会社アイ・ピー・エス | 帳票データ管理装置、帳票データ管理プログラム、および帳票データ管理方法 |
US11283900B2 (en) | 2016-02-08 | 2022-03-22 | Microstrategy Incorporated | Enterprise performance and capacity testing |
US10440153B1 (en) | 2016-02-08 | 2019-10-08 | Microstrategy Incorporated | Enterprise health score and data migration |
US10761767B2 (en) * | 2016-07-12 | 2020-09-01 | Hitachi, Ltd. | Computer system and method for controlling storage apparatus that has replication direction from first logical device (in first storage) to second logical device (in second storage) and from said second logical device to third logical device (in said second storage), wherein said replication direction is reversed when second computer takes over for first computer |
US9672905B1 (en) | 2016-07-22 | 2017-06-06 | Pure Storage, Inc. | Optimize data protection layouts based on distributed flash wear leveling |
US10437799B2 (en) * | 2016-12-02 | 2019-10-08 | International Business Machines Corporation | Data migration using a migration data placement tool between storage systems based on data access |
US10437800B2 (en) * | 2016-12-02 | 2019-10-08 | International Business Machines Corporation | Data migration using a migration data placement tool between storage systems based on data access |
US9747158B1 (en) | 2017-01-13 | 2017-08-29 | Pure Storage, Inc. | Intelligent refresh of 3D NAND |
US10228873B2 (en) * | 2017-06-28 | 2019-03-12 | International Business Machines Corporation | Swapping tape cartridges in tape libraries |
US11561714B1 (en) * | 2017-07-05 | 2023-01-24 | Pure Storage, Inc. | Storage efficiency driven migration |
US11048526B2 (en) * | 2018-04-06 | 2021-06-29 | International Business Machines Corporation | Methods and systems for managing computing devices with specification migration |
US11263111B2 (en) | 2019-02-11 | 2022-03-01 | Microstrategy Incorporated | Validating software functionality |
US11637748B2 (en) | 2019-08-28 | 2023-04-25 | Microstrategy Incorporated | Self-optimization of computing environments |
US11210189B2 (en) | 2019-08-30 | 2021-12-28 | Microstrategy Incorporated | Monitoring performance of computing systems |
US11354216B2 (en) | 2019-09-18 | 2022-06-07 | Microstrategy Incorporated | Monitoring performance deviations |
US11360881B2 (en) | 2019-09-23 | 2022-06-14 | Microstrategy Incorporated | Customizing computer performance tests |
US11438231B2 (en) | 2019-09-25 | 2022-09-06 | Microstrategy Incorporated | Centralized platform management for computing environments |
CN111273872A (zh) * | 2020-02-14 | 2020-06-12 | 北京百度网讯科技有限公司 | 一种数据迁移方法、装置、设备和介质 |
JP2022020926A (ja) * | 2020-07-21 | 2022-02-02 | 株式会社日立製作所 | ストレージシステム及び処理移行方法 |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5367698A (en) * | 1991-10-31 | 1994-11-22 | Epoch Systems, Inc. | Network file migration system |
JP3641872B2 (ja) | 1996-04-08 | 2005-04-27 | 株式会社日立製作所 | 記憶装置システム |
US6341333B1 (en) * | 1997-10-06 | 2002-01-22 | Emc Corporation | Method for transparent exchange of logical volumes in a disk array storage device |
US6275898B1 (en) * | 1999-05-13 | 2001-08-14 | Lsi Logic Corporation | Methods and structure for RAID level migration within a logical unit |
JP2001337790A (ja) * | 2000-05-24 | 2001-12-07 | Hitachi Ltd | 記憶システム及びその階層管理制御方法 |
JP4087097B2 (ja) * | 2001-11-12 | 2008-05-14 | 株式会社日立製作所 | データベース管理システム情報を考慮したデータ再配置方法およびデータ再配置を行う計算機システム |
US7228361B2 (en) * | 2002-06-26 | 2007-06-05 | Lsi Logic Corporation | Communications method within an arbitrated loop fibre channel network |
US7752361B2 (en) * | 2002-06-28 | 2010-07-06 | Brocade Communications Systems, Inc. | Apparatus and method for data migration in a storage processing device |
US7093088B1 (en) * | 2003-04-23 | 2006-08-15 | Emc Corporation | Method and apparatus for undoing a data migration in a computer system |
US7603528B2 (en) * | 2004-10-08 | 2009-10-13 | International Business Machines Corporation | Memory device verification of multiple write operations |
-
2005
- 2005-04-19 JP JP2005120431A patent/JP2006301820A/ja not_active Withdrawn
- 2005-06-23 US US11/159,323 patent/US20060236056A1/en not_active Abandoned
-
2006
- 2006-02-17 EP EP06250860A patent/EP1717689A1/en not_active Withdrawn
Cited By (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008165379A (ja) * | 2006-12-27 | 2008-07-17 | Nec Corp | ストレージシステムとプログラム並びに方法 |
JP2008217575A (ja) * | 2007-03-06 | 2008-09-18 | Nec Corp | ストレージ装置及びその構成最適化方法 |
JP2008304963A (ja) * | 2007-06-05 | 2008-12-18 | Hitachi Ltd | 計算機システムまたは計算機システムの性能管理方法 |
JP2009205295A (ja) * | 2008-02-26 | 2009-09-10 | Buffalo Inc | データ管理方法 |
JP2012511773A (ja) * | 2008-12-10 | 2012-05-24 | アリババ・グループ・ホールディング・リミテッド | 効率的なデータ同期化のための方法及びシステム |
JP2010250477A (ja) * | 2009-04-14 | 2010-11-04 | Fujitsu Ltd | ストレージ制御プログラム、ストレージシステム、ストレージ制御装置、およびストレージ制御方法 |
US8762773B2 (en) | 2010-03-30 | 2014-06-24 | Fujitsu Limited | Processing apparatus, data migration method, and computer-readable recording medium having data migration program recorded thereon |
US8402238B2 (en) | 2010-05-18 | 2013-03-19 | Hitachi, Ltd. | Storage apparatus and control method thereof |
JP2012198627A (ja) * | 2011-03-18 | 2012-10-18 | Fujitsu Ltd | ストレージ装置,データ移動方法及びストレージシステム |
JP2012215935A (ja) * | 2011-03-31 | 2012-11-08 | Nec Corp | ディスクアレイ装置及びその制御方法 |
JP2015500544A (ja) * | 2011-12-15 | 2015-01-05 | シマンテック コーポレーションSymantec Corporation | バーチャル環境におけるダイナミックストレージ階層化 |
JP2018110014A (ja) * | 2011-12-15 | 2018-07-12 | ベリタス テクノロジーズ エルエルシー | バーチャル環境におけるダイナミックストレージ階層化 |
US9652159B2 (en) | 2012-04-26 | 2017-05-16 | Hitachi, Ltd. | Relocating data in tiered pool using multiple modes of moving data |
JP2015520876A (ja) * | 2012-04-26 | 2015-07-23 | 株式会社日立製作所 | 情報記憶システム及び情報記憶システムの制御方法 |
KR101401392B1 (ko) * | 2012-08-31 | 2014-06-02 | 전자부품연구원 | 가변적 cs 운용방법 및 이를 적용한 컴퓨팅 시스템 |
JP2014186652A (ja) * | 2013-03-25 | 2014-10-02 | Fujitsu Ltd | データ転送装置、データ転送システム、データ転送方法及びプログラム |
JP2016062315A (ja) * | 2014-09-18 | 2016-04-25 | 富士通株式会社 | 制御装置、ストレージシステム、及び制御プログラム |
JP2017173886A (ja) * | 2016-03-18 | 2017-09-28 | 日本電気株式会社 | 通信システム、記憶装置、通信方法、プログラム |
JP2021106002A (ja) * | 2016-11-26 | 2021-07-26 | 華為技術有限公司Huawei Technologies Co.,Ltd. | データ移行方法、ホスト、およびソリッドステートディスク |
US11644994B2 (en) | 2016-11-26 | 2023-05-09 | Huawei Technologies Co., Ltd. | Data migration method, host, and solid state disk |
US11960749B2 (en) | 2016-11-26 | 2024-04-16 | Huawei Technologies Co., Ltd. | Data migration method, host, and solid state disk |
JP2020160860A (ja) * | 2019-03-27 | 2020-10-01 | Necプラットフォームズ株式会社 | ストレージ制御装置、ストレージ制御方法及びストレージ制御プログラム |
JP2021135732A (ja) * | 2020-02-27 | 2021-09-13 | 富士通株式会社 | 制御方法、制御プログラム、および情報処理装置 |
Also Published As
Publication number | Publication date |
---|---|
EP1717689A1 (en) | 2006-11-02 |
US20060236056A1 (en) | 2006-10-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2006301820A (ja) | ストレージシステム及びストレージシステムのデータ移行方法 | |
JP4990322B2 (ja) | データ移動管理装置及び情報処理システム | |
EP2399190B1 (en) | Storage system and method for operating storage system | |
JP5178854B2 (ja) | ストレージシステム及びデータ再配置制御装置 | |
US7581061B2 (en) | Data migration using temporary volume to migrate high priority data to high performance storage and lower priority data to lower performance storage | |
JP4643395B2 (ja) | ストレージシステム及びデータの移動方法 | |
JP4903415B2 (ja) | 記憶制御システム及び記憶制御方法 | |
JP4555036B2 (ja) | ストレージ装置及びストレージ装置のデバイス切替制御方法 | |
JP4842909B2 (ja) | ストレージシステム及びデータ再配置制御装置 | |
JP4690765B2 (ja) | ストレージ管理システム、ストレージ管理サーバ、データ再配置制御方法およびデータ再配置制御プログラム | |
US20120278569A1 (en) | Storage apparatus and control method therefor | |
JP2008123132A (ja) | 記憶制御装置及び記憶制御装置の論理ボリューム形成方法 | |
JP2006072789A (ja) | ストレージシステム及びストレージシステムのデータ管理装置 | |
JP2006127028A (ja) | 記憶システム及び記憶制御装置 | |
JP4643597B2 (ja) | ストレージシステム及びデータ再配置制御装置 | |
JP2008065503A (ja) | ストレージシステム及びバックアップ/リカバリ方法 | |
JP4634136B2 (ja) | 記憶制御システム | |
US8352766B2 (en) | Power control of target secondary copy storage based on journal storage usage and accumulation speed rate | |
JP2008134712A (ja) | ファイル共有システム、ファイル共有装置及びファイル共有用ボリュームの移行方法 | |
JP2006139552A (ja) | ストレージ装置及びストレージ装置のデータライフサイクル管理方法 | |
JP2006092120A (ja) | ストレージ装置及びストレージ装置のライトアクセス処理方法 | |
JP2006309640A (ja) | 記憶制御システム及び記憶制御方法 | |
JP2009223863A (ja) | コンピュータシステム及びコマンド実行頻度制御方法 | |
JP2007072519A (ja) | ストレージシステム及びストレージシステムの制御方法 | |
US20120023301A1 (en) | Computer system and its control method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20080116 |
|
A761 | Written withdrawal of application |
Free format text: JAPANESE INTERMEDIATE CODE: A761 Effective date: 20090526 |