[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP4508612B2 - クラスタ型ストレージシステム及びその管理方法 - Google Patents

クラスタ型ストレージシステム及びその管理方法 Download PDF

Info

Publication number
JP4508612B2
JP4508612B2 JP2003391620A JP2003391620A JP4508612B2 JP 4508612 B2 JP4508612 B2 JP 4508612B2 JP 2003391620 A JP2003391620 A JP 2003391620A JP 2003391620 A JP2003391620 A JP 2003391620A JP 4508612 B2 JP4508612 B2 JP 4508612B2
Authority
JP
Japan
Prior art keywords
unit
control unit
cache
cache control
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2003391620A
Other languages
English (en)
Other versions
JP2004240949A (ja
Inventor
和久 藤本
睦 細谷
健太郎 島田
山本  彰
直子 岩見
康友 山本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority to US10/422,734 priority Critical patent/US6957303B2/en
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2003391620A priority patent/JP4508612B2/ja
Priority to US10/795,719 priority patent/US7069385B2/en
Priority to EP04010101A priority patent/EP1533704A3/en
Priority to CNB2004100453332A priority patent/CN1293456C/zh
Publication of JP2004240949A publication Critical patent/JP2004240949A/ja
Priority to US11/474,462 priority patent/US7571280B2/en
Priority to US12/213,522 priority patent/US7743211B2/en
Application granted granted Critical
Publication of JP4508612B2 publication Critical patent/JP4508612B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0628Interfaces specially adapted for storage systems making use of a particular technique
    • G06F3/0655Vertical data movement, i.e. input-output transfer; data movement between one or more hosts and one or more storage devices
    • G06F3/0661Format or protocol conversion arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F12/00Accessing, addressing or allocating within memory systems or architectures
    • G06F12/02Addressing or allocation; Relocation
    • G06F12/08Addressing or allocation; Relocation in hierarchically structured memory systems, e.g. virtual memory systems
    • G06F12/0802Addressing of a memory level in which the access to the desired data or data block requires associative addressing means, e.g. caches
    • G06F12/0866Addressing of a memory level in which the access to the desired data or data block requires associative addressing means, e.g. caches for peripheral storage systems, e.g. disk cache
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0602Interfaces specially adapted for storage systems specifically adapted to achieve a particular effect
    • G06F3/0604Improving or facilitating administration, e.g. storage management
    • G06F3/0607Improving or facilitating administration, e.g. storage management by facilitating the process of upgrading existing storage systems, e.g. for improving compatibility between host and storage device
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0628Interfaces specially adapted for storage systems making use of a particular technique
    • G06F3/0629Configuration or reconfiguration of storage systems
    • G06F3/0635Configuration or reconfiguration of storage systems by changing the path, e.g. traffic rerouting, path reconfiguration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0602Interfaces specially adapted for storage systems specifically adapted to achieve a particular effect
    • G06F3/061Improving I/O performance

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Memory System Of A Hierarchy Structure (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description

本発明は、小規模〜大規模構成まで拡張可能なストレージシステムとその管理方法に関する。
企業内へのITシステムの浸透や、インターネットの発展による企業間のITシステムの連携の拡大により、ITシステムで処理されるデータを保存するストレージシステムが、ITシステムの中心的な役割を担っている。ストレージシステムには、小規模な構成から大規模な構成のシステムまで数多くの種類のシステムがある。
例えば、小規模〜大規模までの構成を提供する主なストレージシステムの1つとして、従来技術では、図2に示すようなアーキテクチャのストレージシステムが特許文献1に開示されている。このストレージシステムでは、計算機(以下「サーバ」とも言う)3との間のデータ転送を実行する複数のチャネルIF部11と、ハードディスク群2との間のデータ転送を実行する複数のディスクIF部16と、ハードディスク群2に格納するデータを一時的に格納するキャッシュメモリ部14と、ストレージシステム8に関する制御情報(例えば、ストレージシステム8内のデータ転送制御に関する情報、ハードディスク群2に格納するデータの管理情報)を格納する制御メモリ部15とを備え、チャネルIF部11及びディスクIF部16とキャッシュメモリ部14との間は相互結合網41で接続され、チャネルIF部11及びディスクIF部16と制御メモリ部15との間は相互結合網42で接続されていた。また、相互結合網41や相互結合網42は共通バスやスイッチで構成されていた。
このようにして、1つのストレージシステム8内において、キャッシュメモリ部14および制御メモリ部15は全てのチャネルIF部11及びディスクIF部16からアクセス可能な構成となっていた。
チャネルIF部11は、サーバ3と接続するためのインターフェース(ホストIF)104、サーバ3に対する入出力を制御するマイクロプロセッサ103、キャッシュメモリ部14へのアクセスを制御するメモリアクセス部106、および制御メモリ部15へのアクセスを制御するメモリアクセス部107を有している。また、ディスクIF部16は、ハードディスク群2と接続するためのインターフェース(ディスクIF105)及びハードディスク群2に対する入出力を制御するマイクロプロセッサ103、キャッシュメモリ部14へのアクセスを制御するメモリアクセス部106、および制御メモリ部15へのアクセスを制御するメモリアクセス部107を有している。また、ディスクIF部16は、RAIDの制御も行う。
上記ストレージシステムでは、サーバ3との間のデータ転送を制御するチャネルIF部11とハードディスク群2とのデータ転送を制御するディスクIF部16を分離し、キャッシュメモリ部14、制御メモリ部15を介して、チャネルIF部11とディスクIF部16の間のデータ転送を制御するため、チャネルIF部11とディスクIF部16の数を柔軟に変えることが可能であった。そのため、小規模〜大規模な構成をとることが可能となっていた。
また、特許文献2に開示されている従来技術では、図21に示すように、複数のディスクアレイ装置4をディスクアレイスイッチ5を介して複数のサーバ3に接続し、ディスクアレイスイッチ5及び各ディスクアレイ装置4に接続されたシステム構成管理手段60で、複数のディスクアレイ装置4を1つのストレージシステム9として管理していた。
特開2000−99281号公報
特開2000−242434号公報
銀行、証券、電話会社等に代表される大企業では、従来各所に分散していたコンピュータ及びストレージシステムを、データセンターの中に集中化したコンピュータシステム及びストレージシステム構成とすることにより、コンピュータシステム及びストレージシステムの運用、保守、管理に要する費用を削減する傾向にある。
一方、ITバブル崩壊等の影響により経済が低迷する中、企業はITシステムへの初期投資を抑えるとともに、ビジネス規模の拡張に応じてシステム拡張を行う傾向にある。このため、初期投資を抑え、事業規模に合わせてリーズナブルな投資で規模を拡張可能なコストおよび性能のスケーラビリティが、ストレージシステムに要求されている。
図2に示す従来技術では、全てのチャネルIF部11と全てのディスクIF部16が、キャッシュメモリ部14および制御メモリ部15を介して、チャネルIF部11とディスクIF部16の間のデータ転送を制御することにより、サーバ3からハードディスク群2へのデータのリード/ライトを実行する。そのため、全てのチャネルIF部11と全てのディスクIF部16からのアクセス負荷がキャッシュメモリ部14および制御メモリ部15に集中する。
ストレージシステムに要求される性能(単位時間当たりのデータの入出力回数や単位時間当たりのデータの転送量)は年々増加している。将来的にそれに対応するため、チャネルIF部11およびディスクIF部16のデータ転送処理性能も向上させる必要がある。
上記のように、従来技術では全てのチャネルIF部11と全てのディスクIF部16が、キャッシュメモリ部14および制御メモリ部15を介して、チャネルIF部11とディスクIF部16の間のデータ転送を制御するため、チャネルIF部11およびディスクIF部16のデータ転送処理性能が向上すると、キャッシュメモリ部14や制御メモリ部へのアクセス負荷が増大し、これがネックとなり、ストレージシステム8の性能を向上することが将来的に難しくなるという問題があった。
一方、キャッシュメモリ部14や制御メモリ部を大規模化して許容可能なアクセス性能を向上させることは可能である。しかしながら、全てのチャネルIF部11およびディスクIF部16からキャッシュメモリ部14や制御メモリ部15をアクセス可能とするためにキャッシュメモリ部14や制御メモリ部15をそれぞれ1つの共有メモリ空間として管理する必要があるため、キャッシュメモリ部14や制御メモリ部15を大規模化すると、小規模構成においてストレージシステムの低コスト化をすることが難しく、小規模構成のシステムを低価格で提供することが難しくなるという問題があった。
また、図21に示す従来技術では、ディスクアレイスイッチ5のポート数を増やすことや複数のディスクアレイスイッチ5を多段に接続することで、接続可能なディスクアレイ装置4およびサーバ3の数を増やすことができ、小規模〜大規模な構成にスケーラブルに対応可能なストレージシステム9を提供できた。しかしながら、サーバ3はディスクアレイスイッチ5を介してディスクアレイ装置4にアクセスするため、ディスクアレイスイッチ5内のサーバ3とのインターフェース部において、サーバとディスクアレイスイッチとの間のプロトコルをディスクアレイスイッチ内のプロトコルに変換し、さらにディスクアレイスイッチ5内のディスクアレイ装置4とのインターフェース部において、ディスクアレイスイッチ内のプロトコルをディスクアレイスイッチとディスクアレイ装置との間のプロトコルに変換する処理が発生し、ディスクアレイスイッチを介さずに直接ディスクアレイ装置にアクセス可能な場合に比べ、特に応答性能が劣るという問題があった。
本発明の目的は、小規模〜大規模な構成までシステム規模に見合った価格/性能のストレージシステムを提供することにある。
より具体的には、本発明の目的は、ストレージシステムの共有メモリネックを解消するとともに、小規模な構成の低コスト化を図り、従来のディスクアレイ装置と同等以上の応答性能で、小規模〜大規模構成までコストとスループット性能のスケーラビリティを実現可能なストレージシステムを提供することにある。
かかる課題を解決するため本発明においては、ストレージシステムにおいて、サーバとのインターフェースを有し、前記サーバとの間で取り交わすデータのリード/ライトコマンドを変換する第1のプロトコル変換部と、複数の論理ユニットを提供する記憶装置に接続する第2のプロトコル変換部と、相互結合網を介して前記第1のプロコトル変換部と接続され、各々前記サーバとの間でリード/ライトされるデータを格納するキャッシュメモリを有し、該キャッシュメモリを制御し、管理する論理ユニットに記録されるデータのみを前記キャッシュメモリに一時的に格納する複数のキャッシュ制御部とを備え、前記第1のプロコトル変換部は、前記複数のキャッシュ制御部に含まれるキャッシュ制御部ごとに、当該キャッシュ制御部が管理する論理ユニットを示す管理情報を有し、前記サーバから前記複数の論理ユニットに含まれるいずれかの前記論理ユニットへのリードコマンドを受信した場合に、前記管理情報を参照して前記論理ユニットを管理する前記キャッシュ制御部を割り出し、割り出した前記キャッシュ制御部に対して前記リードコマンドに対応した要求を発行し、前記論理ユニットを管理する前記キャッシュ制御部は、前記リードコマンドに対応するデータが前記キャッシュ制御部のキャッシュメモリに格納されているか否かを判断し、前記対応するデータが前記キャッシュ制御部のキャッシュメモリに格納されていない場合には、前記第2のプロトコル変換部に対して、前記論理ユニットより前記リードコマンドに対応するデータの読み出し要求を発行し、前記第2のプロトコル変換部が前記読み出し要求に基づいて前記論理ユニットから読み出したデータを受信した場合に、前記第1のプロトコル変換部に当該データを送信するようにした。
また本発明においては、ストレージシステムにおいて、サーバと接続され、リード/ライトコマンドを受信する第1のインターフェース部と、複数の論理ユニットを提供する記憶装置に接続する第2のインターフェース部と、前記第1のインターフェース部と接続され、各々前記リード/ライトコマンドに対応するデータを一時的に格納するキャッシュメモリを有し、該キャッシュメモリを制御し、管理する論理ユニットに記録されるデータのみを前記キャッシュメモリに一時的に格納する第1及び第2のキャッシュ制御部とを備え、前記第1のインターフェース部は、前記第1のキャッシュ制御部が管理する第1の論理ユニットと、前記第2のキャッシュ制御部が管理する第2の論理ユニットとを示す管理情報を有し、前記サーバより前記第1の論理ユニットのリードコマンドを受信した場合に、前記管理情報を参照して、前記第1の論理ユニットを管理するキャッシュ制御部として前記第1のキャッシュ制御部を割り出し、割り出した前記第1のキャッシュ制御部に対して、前記リードコマンドに対応した要求を発行し、前記第1のキャッシュ制御部は、前記リードコマンドに対応するデータが前記第1のキャッシュ制御部のキャッシュメモリに格納されているか否かを判断し、前記対応するデータが前記第1のキャッシュ制御部のキャッシュメモリに格納されていない場合には、前記第2のプロトコル変換部に対して、前記第1の論理ユニットより前記リードコマンドに対応するデータの読み出し要求を発行し、前記第2のプロトコル変換部が前記読み出し要求に基づいて前記第1の論理ユニットから読み出したデータを受信した場合に、前記第1のプロトコル変換部に当該データを送信するようにした。
その他、本願が開示する課題、及びその解決方法は、発明の実施形態の欄及び図面により明らかにされる。
本発明によれば、ストレージシステムの共有メモリネックを解消するとともに、小規模な構成の低コスト化を図り、小規模〜大規模構成までコストと性能のスケーラビリティを実現可能なストレージシステムを提供することが可能となる。
以下、本発明の実施例を図面を用いて説明する。
図1に示すようにストレージシステム1は、サーバ3あるいはハードディスク群2とのインターフェース部であるプロトコル変換部10と、キャッシュ制御部21と、システム管理部60と、ハードディスク群2を有し、プロトコル変換部10とキャッシュ制御部21とシステム管理部60の間は相互結合網31を介して接続されている。
相互結合網31の具体的な構成の一例を図6に示す。
相互結合網31は、2つのスイッチ部51を有する。プロトコル変換部10、キャッシュ制御部21、およびシステム管理部60からは、2つのスイッチ部51に1本ずつパスを接続する。これにより、プロトコル変換部10、キャッシュ制御部21、およびシステム管理部60の間で2つのパスを確保し、信頼性をあげることが可能となる。また、システム管理部60を二重化している。これにより、システム全体の信頼性を向上することが可能となる。ここで、上記個数は一実施例に過ぎず、個数を上記に限定するものではない。
また、相互結合網はスイッチを利用したものを例に示したが、相互に接続され制御情報やデータが転送されれば良いのであり、例えばバスで構成されても良い。
プロトコル変換部10の具体的な一例を図8に示す。
プロトコル変換部10は、少なくとも、サーバ3あるいはハードディスク群2との4つのIF(外部IF)100と、キャッシュ制御部21あるいはシステム管理部60との間のデータ/制御情報の転送を制御する転送制御部105と、2つのマイクロプロセッサ102を有する。マイクロプロセッサは主記憶として自身に接続されたメモリ(図示していない)を有する。
ここで、上記個数は一実施例に過ぎず、個数を上記に限定するものではない。以下、全ての説明において、個数は例示であり、本発明を限定するものではない。
マイクロプロセッサ102は、共有バス108により外部IF100および転送制御部105と接続される。また、外部IF100は転送制御部105に直結される。マイクロプロセッサ102は、外部IF100と転送制御部105を制御することにより、サーバ3あるいはハードディスク群2と外部IF100間のデータのリード/ライトプロトコルと、キャッシュ制御部21あるいはシステム管理部60と転送制御部105の間のデータ転送プロトコルを相互に変換する。これにより、プロトコル変換部10は、サーバ3からのリード/ライト要求を目的のキャッシュ制御部21あるいは他のプロトコル変換部10に転送する。またプロトコル変換部10は、キャッシュ制御部21あるいは他のプロトコル変換部からのリード/ライト要求をハードディスク群2へ転送する処理を実行する。
ここで、マイクロプロセッサ102、外部IF100、および転送制御部105の間の接続構成は一実施例に過ぎず、構成を上記に限定するものではなく、マイクロプロセッサ102が外部IF100および転送制御部105を制御可能であり、外部IF100から転送制御部105へデータを転送可能な構成であれば問題ない。
キャッシュ制御部21の具体的な一例を図9に示す。
キャッシュ制御部21は、少なくとも、4つのマイクロプロセッサ101と、プロトコル変換部10あるいはシステム管理部60との間のデータ/制御情報の転送を制御する転送制御部105と、サーバ3あるいはハードディスク群2との間でやり取りするデータを一時格納するキャッシュメモリ部111と、データ転送、キャッシュメモリ部111の管理、およびハードディスク群2の管理に関する制御情報を格納する制御メモリ部112を有する。キャッシュメモリ部111および制御メモリ部112は、いずれもメモリモジュール122とメモリモジュール122へのアクセスを制御するメモリコントローラ121を有する。ここで、キャッシュメモリ部111と制御メモリ部112を同一のメモリコントローラ121及びメモリモジュール122とし、1つのメモリ空間上の異なる領域にキャッシュメモリ領域と制御メモリ領域を割り当てても問題ない。また、マイクロプロセッサは主記憶として自身に接続されたメモリ(図示していない)を有する。あるいは、4つのマイクロプロセッサがキャッシュメモリ部111および制御メモリ部を自身の主記憶として共有するSMP構成であっても問題ない。
マイクロプロセッサ101、キャッシュメモリ部111、制御メモリ部112、および転送制御部105は、スイッチ109を介して接続される。マイクロプロセッサ101は、制御メモリ部内に格納した制御情報により、キャッシュメモリへのデータのリード/ライト、キャッシュメモリのディレクトリ管理、プロトコル変換部10との間のデータ転送、システム管理部60との間のシステム管理情報のやり取りを制御する。また、プロトコル変換部10へ接続されたハードディスク群2へ書き込むデータの冗長化処理、いわゆるRAID処理を実行する。このRAID処理は、プロトコル変換部10において実行しても問題ない。
ここで、マイクロプロセッサ101、キャッシュメモリ部111、制御メモリ部112、および転送制御部105の間の接続構成は一実施例に過ぎず、構成を上記に限定するものではなく、マイクロプロセッサ101がキャッシュメモリ部111、制御メモリ部112、および転送制御部105を制御可能である構成であれば問題ない。
スイッチ部51の具体的な一例を図22に示す。
スイッチ部51は、少なくとも4つのパスIF130と、ヘッダ解析部131と、アービタ132と、クロスバスイッチ133と、4つのバッファ134と、4つのパスIF135と、2つのパスIF136を有する。
パスIF130は、プロトコル変換部10との接続パスを接続するIFで、4つのプロトコル変換部10から1本ずつパスが接続される。パスIF135は、キャッシュ制御部21との接続パスを接続するIFで、4つのキャッシュ制御部21へのパスが1本ずつ接続される。バッファ134は、プロトコル変換部10、キャッシュ制御部21、システム管理部60の間で転送されるパケットをバッファリングする。
図23にプロトコル変換部10、キャッシュ制御部21、システム管理部60の間で転送されるパケットのフォーマットの一例を示す。パケット200は、ヘッダ210と、ペイロード220と、エラーチェックコード230を有する。ヘッダ210には、少なくともパケットの送信元と送信先を示す情報が格納される。また、ペイロード220には、コマンド、アドレス、データ、ステータスが格納される。また、エラーチェックコード230は、パケット転送時のパケット内のエラー検出のためのコードである。各パスIF130、135、136へパケットが入力されると、パケットのヘッダ210がヘッダ解析部131へ送られる。ヘッダ解析部131では、各パスIFのパケットの送信先から、各パスIF間の接続要求を割り出し、その接続要求をアービタ132へ送る。アービタ132では、各パスIFからの接続要求を元にアービトレーションを行い、その結果に基づいて、クロスバスイッチ133に対して接続切換えを示す信号を出力し、クロスバスイッチ133内の接続を切り換える。ここで、本実施例では各パスIFにバッファを持つ構成としたが、スイッチ部51が1つの大きなバッファを持ち、その中から各パスIFにパケット格納領域を割り当てるという構成にしても問題ない。また、ヘッダ解析部131にはスイッチ部51内の障害情報が格納される。
システム管理部60の具体的な一例を図10に示す。
システム管理部60は、少なくとも、1つのマイクロプロセッサ101と、プロトコル変換部10あるいはキャッシュ制御部21との間のデータ/制御情報の転送を制御する転送制御部105と、メモリコントローラ121と、メモリモジュール122と、LANコントローラ123を有する。マイクロプロセッサ101は、メモリモジュール122を自身の主記憶とする。あるいは、主記憶として自身に接続されたメモリをメモリモジュール122とは別個に持っても問題ない。
マイクロプロセッサ101は、メモリコントローラ121を介して、メモリモジュール122、転送制御部105、およびLANコントローラ123に接続される。マイクロプロセッサ101は、プロトコル変換部10およびキャッシュ制御部21から収集した管理情報、相互結合網31の管理情報、およびLANコントローラ123に接続された管理コンソールからユーザが設定した情報により、ストレージシステム1全体の管理情報をまとめ、その管理情報をメモリモジュール122に格納する。また、その情報を使用してストレージシステム1の管理を行う。この管理情報は、メモリコントローラ121に繋がる不揮発性メモリ(図示していない)、あるいはハードディスク群2に保存することにより、ストレージシステム1の信頼性を高めることが可能となる。
ここで、マイクロプロセッサ101、メモリコントローラ121、メモリモジュール122、LANコントローラ123、および転送制御部105の間の接続構成は一実施例に過ぎず、構成を上記に限定するものではなく、マイクロプロセッサ101がメモリコントローラ121、メモリモジュール122、LANコントローラ123、および転送制御部105を制御可能である構成であれば問題ない。
図1に示すように、本実施例では、2つのキャッシュ制御部21を1つの制御クラスタ70としてまとめ、制御クラスタ70内でキャッシュメモリ部111の管理を閉じさせる。すなわち、ある制御クラスタ70内のキャッシュ制御部21内のマイクロプロセッサ101は、自制御クラスタ70内のキャッシュメモリ部111、制御メモリ部112のみを管理し、他制御クラスタ70内のキャッシュメモリ部111、制御メモリ部112は管理しない。
ここで、2つのキャッシュ制御部21内のキャッシュメモリ部111および2つのキャッシュ制御部21内の制御メモリ部112を二重化しても良い。こうすることにより、1つのキャッシュ制御部21に障害が発生した場合、メモリの二重化をしたもう一方のキャッシュ制御部21で動作を継続することが可能となり、ストレージシステム1の信頼性を向上することが可能となる。
複数の制御クラスタ70内のキャッシュメモリ部111に同一のデータを多重に格納する必要が生じた場合、該データをキャッシュ制御部21へ転送するプロトコル変換部10が、システム管理部60内のメモリのあらかじめ定められた領域に、どのデータをどの制御クラスタ70のキャッシュメモリ部111に多重に格納したかを示す制御情報を記録する。それと同時に、プロトコル変換部10は、多重に格納されたデータであることを示す制御情報を該データとともにキャッシュ制御部21に送る。キャッシュ制御部21は、自キャッシュメモリ部111内の多重に格納されたデータへの更新または削除が発生した場合、そのことを示す制御情報をシステム管理部60へ送り、それを受けてシステム管理部60は、メモリ内に記録されているどのデータをどの制御クラスタ70のキャッシュメモリ部111に多重に格納したかを示す制御情報をもとに、多重に格納された該当データの更新または削除の処理を実行する。
以上のようにして、キャッシュ制御部21内のマイクロプロセッサ101が制御するキャッシュメモリ部111の範囲を制御クラスタ70内に限定することにより、キャッシュメモリ部111および制御メモリ部112へのアクセス負荷を減らすことが可能となり、その結果、ストレージシステム1の性能を向上することが可能となる。
また図4に示すように、プロトコル変換部10をサーバ3に接続するプロトコル変換部10と、ハードディスク群2に接続するプロトコル変換部10にグループ分けし、2つのキャッシュ制御部21とハードディスク群に接続する2つのプロトコル変換部10を1つの制御クラスタ71としてまとめ、自制御クラスタ71のキャッシュ制御部21内のキャッシュメモリ部111には、自制御クラスタ内のプロトコル変換部10に繋がるハードディスク群2に記録するデータ、または記録されたデータのみを格納する構成も考えられる。それと同時に、制御クラスタ71内でキャッシュメモリ部111の管理を閉じさせる。すなわち、ある制御クラスタ71内のキャッシュ制御部21内のマイクロプロセッサ101は、自制御クラスタ71内のキャッシュメモリ部111のみを管理し、他制御クラスタ71内のキャッシュメモリ部111は管理しない。
ここで図中では、サーバ3に接続するプロトコル変換部10が繋がる相互結合網31とハードディスク群2に接続するプロトコル変換部10が繋がる相互結合網31を分離して描いているが、物理的には同一の相互結合網31に繋がる。
またここで、2つのキャッシュ制御部21の間で、キャッシュメモリ部111および制御メモリ部112の内容を二重化しても良い。こうすることにより、1つのキャッシュ制御部21に障害が発生した場合、メモリの二重化をしたもう一方のキャッシュ制御部21で、動作を継続することが可能となり、ストレージシステム1の信頼性を向上することが可能となる。
以上のようにして、キャッシュ制御部21内のマイクロプロセッサ101が制御するキャッシュメモリ部111の範囲を制御クラスタ71内に限定することにより、キャッシュメモリ部111および制御メモリ部112へのアクセス負荷を減らすことが可能となり、その結果、ストレージシステム1の性能を向上することが可能となる。
また、上述の管理とすることで、図4に示す構成では複数の制御クラスタ71のキャッシュメモリ部111に多重にデータが格納されることがなくなる。したがって、図1の構成で必要であったシステム管理部60における複数の制御クラスタ70のキャッシュメモリ部111に多重に格納したデータの一致制御が不要となり、システムの管理が簡単化され、図1の構成に比べさらにストレージシステム1の性能を向上することが可能となる。
また、図30に示すように、制御クラスタ70内の2つのキャッシュ制御部21間を2本のパスで接続する構成も考えられる。その場合のキャッシュ制御部21の詳細構成を図31に示す。
本図に示したキャッシュ制御部は、スイッチ109に繋がる内部IF126を除いて図9に示すキャッシュ制御部21の構成と同様である。制御クラスタ構成をとる2つのキャッシュ制御部21間を繋ぐ接続パスを使用してデータおよび制御情報の通信が行われるため、スイッチ109には2つの内部IF126が接続される。2つのキャッシュ制御部21の内部IF126間を接続パスで相互に繋ぐことにより、接続パスを通してデータおよび制御情報の通信を行う。例えば、この接続パスを介して、2つのキャッシュ制御部21のキャッシュメモリ部111あるいは制御メモリ部112に格納される情報の2重化を行う。このことにより、制御クラスタ70を構成する2つのキャッシュ制御部21の一方に障害が発生した場合、もう一方でストレージシステムの稼動を続けることが可能となるため、信頼性が向上する。
次に、ストレージシステム1全体の管理構成の一例を図11により示す。
ここでは、図4に示す構成のストレージシステム1の管理構成の一例を示す。
システム管理部60では、ストレージシステム1全体の管理を3つのレイヤ、すなわちネットワーク、論理パス及びストレージに分けて管理を行い、管理の簡単化を図る。具体的には、システム管理部60は、ソフトウエアプログラムとして、ネットワーク管理部503、論理パス管理部502、ストレージ管理部501を有する。尚、図11に示される各部は実際はソフトウエアプログラムであり、システム管理部60のマイクロプロセッサ101で実行される。これらのプログラムはネットワークや可搬の記憶媒体を介してシステム管理部60のメモリに格納される。
さらに、以下の説明で、図11で示される各部が主語になる場合には、実際にはその処理はシステム管理部60のマイクロプロセッサで実行される。更に、各部に含まれる処理もプログラムである。尚、各部は専用のハードウエアで実行されても良い。
ここで、ネットワークとは相互結合網31のことを示す。ネットワーク管理部503は、少なくとも、ネットワークの制御541およびネットワークの障害処理542を行う。例えば、図6に示すスイッチ部51で構成された相互結合網の場合、プロトコル変換部10、スイッチ部51、キャッシュ制御部21、およびシステム管理部60の物理的なリンクの設定、リンクの張り替え、物理的な障害の検出/処理を行う。
次に、論理パス管理部502は、少なくとも、論理パスの割当て531および論理パスの閉塞/切替え処理532を行う。ここで論理パスとは、プロトコル変換部10、キャッシュ制御部21、およびシステム管理部60のそれぞれの間で設定される論理的なパスのことを示す。例えば、図6に示す構成の場合、1つのプロトコル変換部10から1つのスイッチ部51を経由して1つのキャッシュ制御部21へ至るパスを1つの論理パスとする。したがって、1つのプロトコル変換部10と1つのキャッシュ制御部21の間には2つの論理パスが設定される。同様に、プロトコル変換部10−システム管理部60間、システム管理部60−キャッシュ制御部21間、プロトコル変換部10間、キャッシュ制御部21間、システム管理部60間にも2つの論理パスが設定される。論理パス管理部502では、システムの立ち上げ時における上記の論理パスの設定、各部間にある2つの論理パスの内の1つに障害が起こった場合の閉塞、もう一方の論理パスへの切替え処理を行う。
次に、ストレージ管理部501は、少なくとも、ボリューム統合管理521、サーバ−LU(論理ユニット)割当て522、およびシステム障害処理523の処理を行う。ボリューム管理521では、各制御クラスタ71内それぞれで管理される論理ボリュームを統合して管理する。そして、サーバ−LU割当て522において、統合した論理ボリュームの中からLUを切り出し、各サーバ3に割り当てる。これらボリューム管理521およびサーバ−LU割当て522により、それぞれが独立した制御を行う複数の制御クラスタ71の集まりをサーバ3に対して1つのストレージシステム1として見せることが可能となる。
本実施例において、図26に示すように、サーバ3を繋ぐプロトコル変換部10に他のストレージシステム4を接続することも可能である。そうした場合、ボリューム統合管理521において、他のストレージシステムが提供するLUも含めて管理し、それらをサーバ−LU割当て522において、サーバ3に割当てることにより、サーバ3からストレージシステム1を介して他のストレージシステム4のボリュームへアクセスすることが可能となる。
また、ストレージ管理部501において、どのプロトコル変換部10にどのサーバが接続されているかを示すテーブルを管理することにより、ストレージシステム1に繋がる複数のサーバ3間での通信およびデータ転送が可能となる。
プロトコル変換部10に繋がるサーバ3およびストレージシステム4との間でデータ転送を行う際、プロトコル変換部10間で相互結合網31を介してデータ転送を行う。この時、該データをシステム管理部60内のメモリにキャッシュしても良い。また、該データをキャッシュ制御部21内のキャッシュメモリ部21にキャッシュしても良い。これにより、サーバ3およびストレージシステム4間のデータ転送性能が向上する。
また本実施例において、図27に示すように、SANスイッチ65を介して、ストレージシステム1とサーバ3および他のストレージシステム4との間を接続する。さらに、プロトコル変換部10内の外部IF100にSANスイッチ65を介してサーバ3および他のストレージシステム4へアクセスするようにする。こうすることにより、ストレージシステム1に接続されたサーバ3から、SANスイッチ65および複数のSANスイッチ65からなるネットワークに接続されたサーバ3や他のストレージシステム4へのアクセスが可能となる。
システム障害処理523では、プロトコル変換部10およびキャッシュ制御部21からそれぞれの障害情報を収集するとともに、論理パス管理部502から論理パスの障害情報を収集し、これらの情報からストレージシステム1内の閉塞/交換する部位を判断する。そして、閉塞処理の実施を命ずる制御情報を該当する部位(プロトコル変換部10、キャッシュ制御部21、あるいはスイッチ部51)へ送り、該制御情報を受けた該当部位は閉塞処理を行う。閉塞処理完了後、ユーザに障害部位の交換を促すメッセージを管理コンソールに表示する。さらに、ユーザが管理コンソールから障害部位の交換完了を示すメッセージを入力したら、閉塞解除を命ずる制御情報を該当する部位へ送り、該制御情報を受けた該当部位は閉塞解除処理を行う。閉塞解除処理完了後、システムを通常動作に戻す。
以上のように、システム管理部60内で3つのレイヤに分けてストレージシステム1全体を管理する。
ここで、ネットワーク管理部503と論理パス管理部502を1つの管理部として、システムの制御を行っても問題ない。
本発明では、図2に示す従来技術において、チャネルIF部11において行っていたサーバ3とのコマンド/データ送受信、コマンドの解析、サーバ3からの要求の振り分け処理、およびディスクIF部16において行っていたハードディスク群2とのコマンド/データ送受信、コマンドの解析、ハードディスク群2への要求の振り分け処理を、プロトコル変換部10の処理として分離し、それ以外のチャネルIF部11およびディスクIF部16の処理をまとめ、キャッシュ制御部21での処理とする。
したがって、キャッシュ制御部21では、少なくとも、キャッシュ制御561、データ転送制御562、および制御クラスタ内ボリューム管理563を行う。キャッシュ制御561では、キャッシュメモリ部111へのデータのリード/ライト制御、制御メモリ部112に格納したキャッシュメモリ部112内のディレクトリの管理、キャッシュメモリ部111内に要求データが存在するかどうかを調べるヒット・ミス判定処理を行う。データ転送制御562では、プロトコル変換部10とキャッシュメモリ部111間のデータ転送の制御を行う。制御クラスタ内ボリューム管理563では、ハードディスク群2の物理的なボリュームから制御クラスタ内の論理的なボリュームを構成し、それを示すテーブルを管理する。
また、プロトコル変換部10は、サーバ3を接続するプロトコル変換部10のグループであるサーバ接続部50と、ハードディスク群2を接続するプロトコル変換部10のグループであるデバイス接続部506に分けられる。
サーバ接続部504に含まれるプロトコル変換部10は、少なくとも、コマンド処理551および要求振分け552を行う。コマンド処理551では、サーバ3との間でコマンドの送受信を行い、サーバ3からのコマンドの解析、サーバ3へのコマンドの発行を行う。要求振分け552では、サーバ3からのデータのリード/ライトのコマンドおよびデータを内部プロトコルに変換し、該当するキャッシュ制御部21、あるいはプロトコル制御部10へ転送する。また、キャッシュ制御部21、あるいはプロトコル変換部10からサーバ3へのコマンドおよびデータを、内部プロトコルからサーバ3とプロトコル変換部10の間のプロトコルに変換し、サーバ3へ送信する。
デバイス接続部506に属するプロトコル変換部10は、少なくとも、コマンド処理571、要求振分け572、デバイス制御、デバイス障害処理を行う。
本実施例では、デバイスとはハードディスク群2のことを指すが、ブロックデータを記録するデバイスであれば良く、例えば光ディスクでも問題ない。
コマンド処理571では、デバイスとの間でコマンドの送受信を行い、デバイスへのコマンドの発行、デバイスからのリプライの解析を行う。要求振分け572では、デバイスへのデータのリード/ライトのコマンドおよびデータを内部プロトコルから、デバイスとプロトコル変換の間のプロトコルに変換し、該当するデバイスへ転送する。また、デバイスからのリプライやデータを該当するキャッシュ制御部21、あるいはプロトコル制御部10へ転送する。さらにデバイス制御573では、デバイスへのリード/ライトの制御を行う。また、デバイス障害処理574では、デバイスに障害が起こった場合、デバイスの閉塞/交換処理を行う。
以上のように、従来技術ではチャネルIF部11とディスクIF部16で分けて行っていた処理をキャッシュ制御部21においてまとめて行うことにより、データ転送のために、チャネルIF部11とディスクIF部16の間で制御メモリ部15を介して行う通信処理がなくなるため、ストレージシステム1の性能を向上することが可能となる。
以上、図4に示す構成のストレージシステム1における管理構成を説明したが、図1に示す構成の場合、システム管理部60に複数の制御クラスタのキャッシュメモリ部に多重に格納されたデータの一致制御を行う処理が追加されることにより、同様の管理が可能となる。
次に、図12〜図15に物理ボリュームと論理ボリュームの関係、論理ボリュームと論理ユニットの関係、論理ユニットのサーバへの割当て関係の例を示す。以下では、論理ボリュームのことを仮想ボリュームと呼ぶ。
図12は、物理デバイス管理テーブル651を示している。すなわち、物理デバイス(本実施例ではハードディスク群2)とそれをまとめてボリュームとした仮想ボリュームの関係を示している。物理デバイス番号(PDEV#)630はそれぞれ1つのハードディスクに対応する。4つの物理デバイスから1つの仮想ボリューム1を構成し、それぞれに仮想ボリューム1番号631として、制御クラスタ71内で一意に決まる番号を割り振る。また、仮想ボリューム1のRAID構成を示すRAIDクラス605と仮想ボリューム1の容量を示すボリューム容量601をそれぞれの仮想ボリューム1に付ける。また、制御クラスタ内71の仮想ボリューム1に対し、そのボリュームをどのプロトコル変換部(以下プロトコル変換アダプタ(PA)とも称する)10が管理するかを示す、接続アダプタ番号610を割り振る。仮想ボリューム2番号632は、複数の制御クラスタ71の全ての仮想ボリューム1を統合管理するために、システム管理部60がストレージシステム1全体で一意に決まる番号を割り振るものである。
この物理デバイス管理テーブル651の仮想ボリューム2番号以外の部分は、初期化時に各制御クラスタ71ごとにキャッシュ制御部71内で作成し、それをシステム管理部60に登録し、システム管理部60は全ての制御クラスタ71からのテーブルをもとに、仮想ボリューム2番号632を割り振ったテーブル(物理デバイス管理テーブル651)を作成する。そして、そのテーブルの中の各制御クラスタ71に関係する部分のコピーを、該当する制御クラスタ71のキャッシュ制御部21へ転送し、各キャッシュ制御部21はそれを制御メモリ部112に格納する。
ハードディスク群2の構成に変更が生じた場合には、そのハードディスク群2を管理するキャッシュ制御部21は、物理デバイス管理テーブル651の仮想ボリューム2番号以外の部分を変更し、それをシステム管理部60に登録する。システム管理部60は登録された情報を元に物理デバイス管理テーブル651を変更し、そのテーブルの中の各制御クラスタ71に関係する部分のコピーを、該当する制御クラスタ71のキャッシュ制御部21へ転送し、各キャッシュ制御部21はそれを制御メモリ部112に格納する。
ここで、物理デバイス管理テーブル651の作成に必要な情報を全てキャッシュ制御部21からシステム管理部60へ転送し、それをもとに物理デバイス管理テーブル651の全てをシステム管理部60で作成しても問題はない。
図13は、仮想ボリューム管理テーブル652を示している。仮想ボリューム1(仮想ボリューム2)は数台のハードディスクから構成するため、その容量が数百GBと大きくなる。そこで、ユーザの使い勝手向上のために、仮想ボリューム1(仮想ボリューム2)を容量の小さい複数の仮想ボリューム3に分割する。この仮想ボリューム管理テーブル652は、仮想ボリューム3の番号633と仮想ボリューム1内アドレス641の関係を示すためのテーブルである。また、この仮想ボリューム管理テーブル652には、仮想ボリューム1がどのキャッシュ制御部21で管理されるかを示す管理キャッシュ制御部番号621も含まれる。
ここで、ハードディスクの容量が数GBと小さい場合、あるいはユーザの必要とする論理ユニットの容量が数十から数百GBと大きくなった場合は、仮想ボリューム3を作る必要はない。
仮想ボリューム管理テーブル652は、キャッシュ制御部21から転送された仮想論理ボリューム1の情報をもとにシステム管理部60が作成する。
図14は、論理ユニット管理テーブル653を示す。このテーブルは、仮想ボリューム3と実際にユーザに提供する論理ユニットの関係を示す。論理ユニットは1つまたは複数の仮想ボリューム3から構成される。論理ユニット管理テーブル653では、論理ユニット番号661とその論理ユニットを構成する仮想ボリューム3番号633との関係が示される。論理ユニット番号661は、ストレージシステム1全体でに決まる番号が割り振られる。また、論理ユニットの信頼性を示すために、その論理ユニットが属する仮想論理ボリューム1のRAIDクラス605も示す。また、論理ユニットを構成する仮想ボリューム3がどのキャッシュ制御部21で管理されるかを示す管理キャッシュ制御部番号621も示す。論理ユニットは、管理キャッシュ制御部が異なる複数の仮想ボリューム3から構成されていても問題ない。そうすることにより、1つの論理ユニットに対するアクセスが複数のキャッシュ制御部21に分散されるため、キャッシュ制御部21への負荷が分散され、ストレージシステム1の性能を向上することが可能となる。

図15は、論理ユニット割当て管理テーブル654を示す。このテーブルは、接続サーバ番号670とそのサーバに割り当てられた論理ユニットの関係を示す。サーバに対して複数の論理ユニットを割り振る場合、それぞれのサーバに割り振られた論理ユニットの番号は0番から割り振る必要がある。したがって、サーバに対しては、0番から始まる仮想論理ユニット番号662を割り振って論理ユニットを提供する。論理ユニット割当て管理テーブル654はこの仮想論理ユニット番号662と論理ユニット番号661の関係も示す。また、サーバがどのプロトコル変換部10のどの接続チャネルに接続されているかを示す接続アダプタ番号611と接続チャネル番号615も示す。さらに、論理ユニットを構成する仮想ボリュームがどのキャッシュ制御部21で管理されるかを示す管理キャッシュ制御部番号621も示す。この管理キャッシュ制御部番号621は、サーバが接続されたプロトコル変換部10がサーバからのアクセス要求に対しどのキャッシュ制御部21へアクセスすべきかを、システム管理部60に問い合わせること無しに知るために必要であり、そうすることにより、ホストからのアクセス要求に対する応答時間を短くすることが可能となる。
ちなみに、論理ユニット割当て管理テーブル654は、サーバ1が繋がるプロトコル変換部10からの情報および管理コンソールからのユーザの設定情報に基づき、システム管理部60が作成/管理する。そして、システム管理部60は、そのテーブルの中の各プロトコル変換部10に関係する部分のコピーを、該当するプロトコル変換部10へ転送し、各プロトコル変換部10はそれをマイクロプロセッサ102に繋がるメモリに格納する。
サーバの接続構成/論理ユニットの割当てに変更が生じた場合には、システム管理部60は論理ユニット割当て管理テーブル654を変更し、そのテーブルの中の各プロトコル変換部10に関係する部分のコピーを、該当するプロトコル変換部10へ転送し、各プロトコル変換部10はそれをマイクロプロセッサ102に繋がるメモリ(図示していない)に格納する。
これら図12〜図15に示したテーブルは、管理コンソールのモニタ上にそれら全部または一部が表示され、ユーザが管理コンソールから論理ユニット、仮想ボリューム、物理デバイス間の関係の全部または一部を設定できるようにする。
本実施例では、物理デバイスから、論理ボリューム、ユーザに提供する論理ユニットまで複数の種類のボリュームを構成したが、これは一例でありこれと同様の構成にする必要はない。必要なのは、制御クラスタ71内ではその中で独立にボリュームを構成/管理し、システム管理部60で、ストレージシステム1内すべての制御クラスタ71が提供するボリュームを統合管理して、その中からボリュームを切り出し、ユーザに提供するという機能であり、これにより本発明を実施可能である。
次に、図16にストレージシステム1のシステム初期化時の動作フローの一例を示す。まず、電源ON(701)すると、プロトコル変換部10、キャッシャ制御部221、システム管理部60は、自己動作チェック(702)を行う。自己動作チェック(702)では、上記各部は、自部内の診断を行い正常動作か障害があるかを調べる。障害があった場合、各部は、後の構成情報登録(706)においてシステム管理部60に通知するか、通知ができない障害の場合は自部内にある障害を示す表示部をONにする。自己動作チェック702で正常動作と判断されると、上記各部は、自部内の構成情報(自部を特定するID番号、自部内のプロセッサを特定するプロセッサ番号、プロセッサ種別/仕様、メモリ容量等)を収集する(703)。この際、ハードディスク群2が繋がるプロトコル変換部10は、自身に繋がるハードディスク群の構成を調べるとともに、ハードディスクに障害がないかをチェックする。ハードディスクに障害があった場合は、後の構成情報登録706においてシステム管理部60に通知する。
次に、システム管理部60内のネットワーク管理部503は、相互結合網31の物理的なリンクの情報を収集し、相互結合網31の構成を調べる(704)。プロトコル変換部10およびキャッシュ制御部(以下「CA」とも称する)21は、自己情報収集703後、システム管理部(以下「MA」とも称する)60がネットワーク構成情報収集を行うのに要する時間(あるいはあらかじめ設定した時間)だけ待って、システム管理部60との間の論理パスの確立を行う(705)。その後、プロトコル変換部10およびキャッシュ制御部21は、それぞれが収集した自部内の構成情報をシステム管理部60に登録する(706)。この際、上で述べたように、障害情報もシステム管理部60へ通知される。
次に、システム管理部60は、システム管理部60に繋がる管理コンソールのモニタ上に、図12〜図15で示した構成情報の管理テーブルの一部または全部(図のように各番号間の関係が全て定まったものではなく、ユーザ設定が必要な部分は、空欄のテーブル)を表示し、管理コンソール上で物理デバイス、仮想ボリューム、論理ユニット間の関係の一部または全部の設定をユーザに行わせる(707)。ここで表示されるテーブルは、図中に示しているような全ての関係が定まった管理テーブルではなく、ユーザにより関係の決定が必要な箇所は、その部分がユーザ入力により設定できるように空欄で表示される。次にシステム管理部60は、ユーザからの設定に基づいて図12〜図15に示す管理テーブルを完成させ、システム管理部60内のメモリに格納する(708)。これら管理テーブルは、障害が発生したときのために、システム管理部60内の不揮発メモリとハードディスク群2の中のハードディスクの両方あるいはどちらか一方にも格納される。
次に、管理テーブルの中で各プロトコル変換部10、および各キャッシュ制御部21それぞれに関係する部分のコピーを、各プロトコル変換部10、および各キャッシュ制御部21に配信し、コピーを配信された各部は自部のメモリ内にコピーを格納する(709)。次に、プロトコル変換部10は、システム管理部60から配信された自部に関係する管理テーブルを参照し、自身がアクセスする必要があるキャッシュ制御部21を調べ、該当するキャッシュ制御部21との間に論理パスを確立する(710)。最後に、プロトコル変換部10、キャッシュ制御部21は全ての初期化動作が正常に終了したかを判断し、その結果をシステム管理部60に通知する。システム管理部60は、全てのプロトコル変換部10、キャッシュ制御部21の初期化正常終了通知と自身の初期化正常終了を確認する(711)。全ての初期化正常終了確認後、通常のリード/ライト動作を開始する(712)。
次に、図17にストレージシステム1のシステム終了時の動作フローの一例を示す。まず、管理コンソールからシステム終了通知が発行されると(721)、システム管理部60は、プロトコル変換部10およびキャッシュ制御部21にコマンドの受付中止を指示する制御情報を発行する。それを受け、各部はコマンドの受付を中止する(722)。コマンド受付中止後、プロトコル変換部10およびキャッシュ制御部21は、すでに受け付けていたコマンドを全て処理する(723)。次に、プロトコル変換部10およびキャッシュ制御部21は、初期化時と同様に自身の構成情報を収集し、システム管理部60に登録する(724)。つぎに、プロトコル変換部10およびキャッシュ制御部21は動作終了が可能であることをシステム管理部60に登録する(725)。
その後、プロトコル変換部10は、キャッシュ制御部との論理パスを閉塞する。また、プロトコル変換部10およびキャッシュ制御部21は、システム管理部60との論理パスを閉塞する(726)。最後に、システム管理部60は、プロトコル変換部10およびキャッシュ制御部21から登録された構成情報と、システム管理部60内の構成情報を、不揮発メモリに保存する(727)。その後、管理コンソールのモニタ上に“システム終了プロセス完了、電源OFF可”を表示し、電源をOFFする。
次に、図18において、サーバ3からストレージシステム1に記録されたデータを読み出す場合の一例を述べる。
まず、サーバ3は、ストレージシステム1に対してデータの読出しコマンドを発行する。
プロトコル変換部10内の外部IF100がコマンドを受信すると、コマンド待ち(741)にあったマイクロプロセッサ102は、外部IF100からコマンドを読み出し(742)、コマンド解析(743)を行う。コマンド解析からサーバ3が要求するデータが記録されている論理ユニット(以下「LU」とも称する)を割り出す。マイクロプロセッサ102は、システム初期化/変更時にシステム管理部60より配信された、自プロトコル変換部10に関係する論理ユニット割当て管理テーブル654を参照し、要求されたデータが記録されたLUを構成する仮想ボリュームを管理するキャッシュ制御部21を割り出す(744)。
そして、マイクロプロセッサ102は、自身の転送制御部105から該当するキャッシュ管理部21の転送制御部105へ相互結合網を介してデータのリード要求を発行する(745)。リード要求を受け取ったキャッシュ制御部21内のマイクロプロセッサ101は制御メモリ部112へアクセスして、論理ユニット管理テーブル653、仮想ボリューム管理テーブル652及び物理デバイス管理テーブル651を参照し、仮想ボリューム1番号631と仮想ボリューム1内アドレス641を割り出す(746)。次に、マイクロプロセッサ101は制御メモリ部112へアクセスして、仮想ボリューム1番号631と仮想ボリューム1内アドレス641から自キャッシュメモリ部111内に要求データがあるかどうか判定を行う(747)。
そこで自キャッシュメモリ部111内に要求データがあった場合(キャッシュヒット)、マイクロプロセッサ101は、キャッシュメモリ部111から要求を発行したプロトコル変換部10へ要求データを転送するように、自転送制御部105に指示する(755)。自転送制御部105は、要求を発行したプロトコル変換部10の転送制御部105に相互結合網31を介して要求データを転送する(756)。要求データを受け取ったプロトコル変換部10の転送制御部105は、外部IF100を通して、サーバ3へデータを送信する(757)。
自キャッシュメモリ部111内に要求データがない場合(キャッシュミス)、マイクロプロセッサ101は、キャッシュメモリ部111に要求データを格納する領域を確保する(749)。キャッシュ領域確保後、マイクロプロセッサ101は制御メモリ部112へアクセスして、物理デバイス管理テーブル651を参照し、要求された仮想ボリューム1を構成する物理デバイス(以下「PDEV」ともいう)を管理する接続アダプタ番号610(該当物理デバイス(ここではハードディスク)が繋がるプロトコル変換部10の番号)を割り出す(750)。次に、マイクロプロセッサ101は、自身の転送制御部105から該当するプロトコル変換部10の転送制御部105に、要求データを読み出してキャッシュ制御部21に転送することを指示する制御情報を送る(751)。該当プロトコル変換部10のマイクロプロセッサ102は、自身の転送制御部105からその制御情報を受け取り、初期化時/変更時にシステム管理部60より配信された自身に関係のある物理デバイス管理テーブル651のコピーを参照し、データを読み出す物理デバイス(PDEV:ハードディスク)を決定し、該当するハードディスクからデータを読み出す(752)。そのデータを、自身の転送制御部105から要求を出したキャッシュ制御部21の転送制御部105へ相互結合網31を介して転送する(753)。要求を出したキャッシュ制御部21のマイクロプロセッサ101は、自身の転送制御部105が要求データを受信すると、そのデータをキャッシュメモリ部111に書き込み、制御メモリ部112に格納しているキャッシュメモリのディレクトリを更新する(754)。以降の動作フローは、キャッシュヒット時の動作フロー755以降と同様である。以上のようにして、サーバ3からのリード要求に対し、ハードディスクからデータを読み出して、サーバ3へ送信する。
次に、図19において、サーバ3からストレージシステム1にデータを書き込む場合の一例を述べる。
まず、サーバ3は、ストレージシステム1に対してデータの書き込みコマンドを発行する。
プロトコル変換部10内の外部IF100がコマンドを受信すると、コマンド待ち(761)にあったマイクロプロセッサ102は、外部IF100からコマンドを読み出し(762)、コマンド解析(763)を行う。マイクロプロセッサ102は、コマンド解析からサーバ3が要求するデータを記録する論理ユニット(LU)を割り出す。マイクロプロセッサ102は、システム初期化/変更時にシステム管理部60より配信された、自プロトコル変換部10に関係する論理ユニット割当て管理テーブル654を参照し、要求されたデータが記録されたLUを構成する仮想ボリュームを管理するキャッシュ制御部21を割り出す(764)。
ここで、仮想ボリュームを管理するキャッシュ制御部21を二重化しておくと、ストレージシステム1の信頼性を向上させることができる。すなわち、仮想ボリュームごとにそのボリュームを管理するマスタのキャッシュ制御部21とバックアップ用のキャッシュ制御部(以下「BCA」とも称する)21を決めておき、その両方にデータを書き込んでおく。そうすることにより、マスタのキャッシュ制御部21に障害が起こった場合、バックアップのキャッシュ制御部21で動作を継続することが可能となる。この場合、上記764の処理では、論理ユニット割当て管理テーブル654にはバックアップ用の管理キャッシュ制御部21も記されており、その番号も割り出す。以下、バックアップ用の管理キャッシュ制御部21が定められている場合についての説明をする。
マイクロプロセッサ102は、自身の転送制御部105から該当するキャッシュ管理部21とバックアップ用のキャッシュ管理部21の転送制御部105へ相互結合網31を介してデータのライト要求を発行する(765)。ライト要求を受け取ったキャッシュ制御部21とバックアップ用のキャッシュ制御部21内のマイクロプロセッサ101は制御メモリ部112へアクセスして、論理ユニット管理テーブル653、仮想ボリューム管理テーブル652と、物理デバイス管理テーブル651を参照し、仮想ボリューム1番号631と仮想ボリューム1内アドレス641を割り出す(766)。次に、マイクロプロセッサ101は制御メモリ部112へアクセスして、仮想ボリューム1番号631と仮想ボリューム1内アドレス641から自キャッシュメモリ部111内にライト要求されたデータがあるかどうか判定を行う(767)。
そこで、自キャッシュメモリ部111内に要求データがあった場合(キャッシュヒット)、マイクロプロセッサ101は、転送制御部105を通じて、要求を出したプロトコル変換部10にライト準備の完了(以下「ライト準備完」とも称する)を通知する(770)。自キャッシュメモリ部111内に要求データがない場合(キャッシュミス)、マイクロプロセッサ101は、キャッシュメモリ部111に要求データを格納する領域を確保し(769)、その後ライト準備完を通知する(770)。
プロトコル変換部10のマイクロプロセッサ102は、ライト準備完の通知を受け、外部IF100を通じてサーバ3へライト準備完を通知する。その後、プロトコル変換部10は、ライト準備完の通知を受けサーバ3から送られてきたデータを外部IF100で受信する(772)。マイクロプロセッサ102は、そのデータを該当するキャッシュ制御部21とそのバックアップ用のキャッシュ制御部21の転送制御部105へ送信するように、自身の転送制御部105に指示する(773)。データを受け取ったキャッシュ制御部21とバックアップ用のキャッシュ制御部21のマイクロプロセッサ101は、そのデータを自身のキャッシュメモリ部111に書き込み、制御メモリ部112内のキャッシュメモリのディレクトリを更新する(774)。キャッシュメモリ部111へのライトが終了すると、キャッシュ制御部21とバックアップ用のキャッシュ制御部21のマイクロプロセッサ101は、ライト完了通知を、要求を出したプロトコル変換部10へ転送制御部105を通じて送信する(775)。ライト完了通知を受け取ったプロトコル変換部10のマイクロプロセッサ101は、外部IF100を通じ、サーバ3へライト完了通知を送信する。キャッシュメモリ部111に書き込まれたデータは、マスタのキャッシュ制御部21のマイクロプロセッサ101が、キャッシュメモリ部111の空き容量等を判断して、サーバ3からのライト要求とは非同期に、該当データを記録するボリュームを含むハードディスクへ、そのハードディスクが繋がるプロトコル変換部10を介して書き込む。以上のようにして、サーバ3からのライト要求に対し、ライト動作を行う。
本実施例によれば、制御クラスタごとに独立してキャッシュメモリの制御を行うため、キャッシュメモリ部および制御メモリ部へのアクセス負荷が減少する。また、キャッシュメモリの制御およびサーバとハードディスク間のデータ転送をキャッシュ制御部にあるマイクロプロセッサでまとめて行うため、図2に示す従来技術で必要であったプロセッサ間の通信処理が減少する。これにより、ストレージシステム1全体の性能を向上することが可能となる。
また、制御クラスタごとに独立してキャッシュメモリの制御を行うため、1つの制御クラスタごとにストレージシステムとして動作させることが可能となる。したがって、制御クラスタごとにシステムのコストを最適化することができ、小規模構成のシステムを低価格で提供すること、またシステム規模に見合った価格のシステムを提供することが可能となる。
これにより、小規模〜大規模な構成までシステム規模に見合った価格/性能のストレージシステムを提供することが可能となる。
図5および図7に、本発明の第二の実施例を示す。
図5に示すように、ストレージシステム1の構成は、サーバ3が繋がるプロトコル変換部10とキャッシュ制御部21を接続する相互結合網31と、ハードディスク群2が繋がるプロトコル変換部10とキャッシュ制御部21を接続する相互結合網35が物理的に独立している点を除いて、実施例1の図4に示す構成と同様である。
相互結合網31と相互結合網35は物理的に独立しており、2つの相互結合網の間は直接接続されていない。
図7は、相互結合網31と相互結合網35をそれぞれスイッチ部51、スイッチ部52で構成した場合の一例を示している。スイッチ部52は、図22に示すスイッチ部51において、パスIFの総数を4つとした構成となる。
上記のようにすることにより、独立した相互結合網を2つ用意することでコストが高くなる可能性があるが、実施例1の構成のようにサーバ3が繋がるプロトコル変換部10とキャッシュ制御部21間のデータ転送と、ハードディスク群2が繋がるプロトコル変換部10とキャッシュ制御部21間のデータ転送が干渉することがなくなる。また、それぞれのデータ転送に要求される性能にマッチする仕様の相互結合網を構成することが可能となるため、ストレージシステム1の性能の向上が図れる。
本実施例の構成においても、問題なく実施例1と同様の効果が得られ、小規模〜大規模な構成までシステム規模に見合った価格/性能のストレージシステムを提供することが可能となる。
また図24に示すように、キャッシュ制御部21とプロトコル変換部10とを1つの制御部としてディスク制御部25にまとめ、1つの基板に実装しても、本発明を実施する上で問題無い。
図25にディスク制御部25の具体的な一例を示す。
ディスク制御部25は、少なくとも、4つのマイクロプロセッサ101と、プロトコル制御部10あるいはシステム管理部60との間のデータ/制御情報の転送を制御する転送制御部105と、ハードディスク群2との4つのIF(外部IF)100と、サーバ3あるいはハードディスク群2との間でやり取りするデータを一時格納するキャッシュメモリ部111と、データ転送、キャッシュメモリ部111の管理、およびハードディスク群2の管理に関する制御情報を格納する制御メモリ部112を有する。キャッシュメモリ部111および制御メモリ部112は、いずれもメモリモジュール122とメモリモジュール122へのアクセスを制御するメモリコントローラ121から構成される。ここで、キャッシュメモリ部111と制御メモリ部112を同一のメモリコントローラ121とメモリモジュール122で構成し、1つのメモリ空間上の異なる領域にキャッシュメモリ領域と制御メモリ領域を割り当てても問題ない。また、マイクロプロセッサは主記憶として自身に接続されたメモリ(図示していない)を有する。あるいは、4つのマイクロプロセッサがキャッシュメモリ部111および制御メモリ部を自身の主記憶として共有するSMP構成であっても問題ない。
マイクロプロセッサ101、キャッシュメモリ部111、制御メモリ部112、外部IF100、および転送制御部105は、スイッチ109を介して接続される。マイクロプロセッサ101は、制御メモリ部内に格納した制御情報により、キャッシュメモリへのデータのリード/ライト、キャッシュメモリのディレクトリ管理、プロトコル変換部10およびハードディスク群2との間のデータ転送、システム管理部60との間のシステム管理情報のやり取りを制御する。また、ハードディスク群2へ書き込むデータの冗長化処理、いわゆるRAID処理を実行する。
ここで、マイクロプロセッサ101、キャッシュメモリ部111、制御メモリ部112、外部IF100、および転送制御部105の間の接続構成は一実施例に過ぎず、構成を上記に限定するものではなく、マイクロプロセッサ101がキャッシュメモリ部111、制御メモリ部112、外部IF100、および転送制御部105を制御可能である構成であれば問題ない。
また、図24に示すように制御クラスタ構成をとる2つのディスク制御部25間を繋ぐ接続パスで、データおよび制御情報の通信を行うため、スイッチ109には2つの内部IF126を接続する。2つのディスク制御部25の内部IF126間を接続パスで繋ぐことにより、接続パスを通してデータおよび制御情報の通信を行う。例えば、この接続パスを介して、2つのディスク制御部25のキャッシュメモリ部111あるいは制御メモリ部112に格納される情報の2重化を行うことにより、制御クラスタ72を構成する2つのディスク制御部25の一方に障害が発生した場合、もう一方でストレージシステムの稼動を続けることが可能となるため、信頼性が向上する。
上記のように、キャッシュ制御部21とプロトコル変換部10とを1つの制御部としてディスク制御部25にまとめ1つの基板に実装することにより、スイッチ部52を介してキャッシュ制御部21とプロトコル変換部10が通信をする必要が無くなり、データ転送性能が向上する。また、制御クラスタ72を構成する部品点数が削減されるため、ストレージシステムのコスト削減が可能になる。
図3に、本発明の第三の実施例を示す。
図3に示すように、ストレージシステム1の構成は、相互結合網31が相互結合網41と相互結合網42とに分割され、相互結合網42にシステム管理部60が接続されている点を除いて、実施例1の図1に示す構成と同様である。
相互結合網41はデータ転送専用の相互結合網で、相互結合網42は制御情報の転送専用の相互結合網である。したがって、ストレージシステム1の管理を行うシステム管理部60は相互結合網42に接続する。
上記のようにすることにより、データ転送と制御情報の転送が互いに干渉することがなくなる。また、それぞれの転送に要求される性能にマッチする仕様の相互結合網を構成することが可能となるため、ストレージシステム1の性能の向上が図れる。
本実施例の構成は、実施例1の図4、実施例2の図5の構成に適用しても、本発明を実施するうえで問題ない。
本実施例の構成においても、問題なく実施例1と同様の効果が得られ、小規模〜大規模な構成までシステム規模に見合った価格/性能のストレージシステムを提供することが可能となる。
図20に、実施例1の図6、あるいは実施例2の図7に示す構成のストレージシステム1を筐体に実装する場合の構成の一例を示す。
PA10、CA21、MA60、およびスイッチ部51/52はパッケージ上に実装し、それぞれPAブレード802、CAパッケージ801、MAブレード804、SWブレード803として、制御ユニットシャーシ821に搭載する。制御ユニットシャーシ821の背面にはバックプレーン(図示していない)があり、各パッケージ、ブレードはコネクタを介してバックプレーンに接続される。バックプレーン上には配線が施されており、それにより、図6、図7に示す接続構成のように、各パッケージ、ブレード間が接続される。
ここで、キャッシュ制御部21はプロトコル変換部10やシステム管理部に比べ、搭載するプロセッサ数やメモリ容量が大きくなるため、CAパッケージ801は他のブレードに比べ面積を約2倍にしている。また、これらパッケージ、ブレードは汎用/専用のブレードサーバを流用し、その上で専用のソフトウェアを実行するものとしても良い。
制御ユニットシャーシ821の上には、ハードディスクを実装したハードディスクユニット811を搭載するディスクユニットシャーシ822を4つ設ける。
また、制御ユニットシャーシ821の下には、ストレージシステム1全体に電力を供給する電源ユニットを収めた電源ユニットシャーシ823を設ける。
そして、これらのシャーシを19インチラック(図示していない)の中に収める。
なお、ストレージシステム1はハードディスク群を有さないハードウェア構成もありうる。この場合、ストレージシステム1とは別の場所に存在するハードディスク群とストレージシステム1とがPA10を介して接続されることになる。
実施例1では、図1及び図4に示す構成のストレージシステム1において、制御クラスタ70、71内でキャッシュメモリ部111の管理を閉じさせるシステムについて述べた。すなわち、ある制御クラスタ70、71内のキャッシュ制御部21内のマイクロプロセッサ101は、自制御クラスタ70、71内のキャッシュメモリ部111、制御メモリ部112のみを管理し、他制御クラスタ70、71内のキャッシュメモリ部111、制御メモリ部112は管理しない。しかし本実施例では、図1や図4に示す複数の制御クラスタ70、71内に物理的に分割されたキャッシュメモリ部111及び制御メモリ部112を、それぞれストレージシステム1全体で1つのメモリアドレス空間として制御することにより、ストレージシステム1全体のマイクロプロセッサ101、102で複数のキャッシュメモリ部及び制御メモリ部112をそれぞれ論理的に共有する制御方法について述べる。
ここで、ストレージシステム1全体のマイクロプロセッサ101、102で複数のキャッシュメモリ部111及び制御メモリ部112をそれぞれ論理的に共有するとは、物理的に複数のメモリ部にシステム内で一意に決まるグローバルなアドレスを割り当て、そのグローバルなアドレスマップを各プロセッサが持つことにより、全てのマイクロプロセッサ101、102がどのキャッシュメモリ部111あるいは制御メモリ部112内に格納されたデータまたは制御情報にアクセス可能であることを意味する。
ストレージシステム全体の管理構成は図11に示す構成と同様である。ここで、システム管理部60のメモリ内にユーザに提供するLUとそのLUを構成する仮想ボリュームを管理するキャッシュ制御部21の対応関係を示す論理ユニット割り当てテーブル654を格納している。
実施例1では、論理ユニット管理テーブル654は、各々のプロトコル変換部10に関係する部分のコピーを、該当するプロトコル変換部10へ転送し、各プロトコル変換部10はそれをマイクロプロセッサ102に繋がるメモリに格納するとしたが、本実施例ではコピーの配信を行わない。これに伴い、図16に示すシステム初期化時の動作フローにおいて、ステップ709の処理で、プロトコル変換部10への論理ユニット管理テーブル654のコピーの配信処理がなくなる。
ここで本実施例においてサーバ3からストレージシステム1に記録されたデータを読み出す場合の一例を述べる。
まずサーバ3は、ストレージシステム1に対してデータの読出しコマンドを発行する。ここで、コマンド解析の処理までは図18の説明で述べた実施例1の方法と同様である。その後の要求先CAの決定処理(744)の方法が異なる。すなわち、マイクロプロセッサ102はシステム管理部60にアクセスし、自プロトコル変換部10に関係する論理ユニット割当て管理テーブル654を参照し、要求されたデータが記録されたLUを構成する仮想ボリュームを管理するキャッシュ制御部21を割り出す(744)。その後の処理(745−757)は、図18の説明で述べた実施例1の方法と同様である。
次に、サーバ3からストレージシステム1にデータを書き込む場合の一例を述べる。
まず、サーバ3は、ストレージシステム1に対してデータの書き込みコマンドを発行する。
ここで、コマンド解析の処理までは図19の説明で述べた実施例1の方法と同様である。その後の要求先CAの決定処理(764)の方法が異なる。すなわち、マイクロプロセッサ102はシステム管理部60にアクセスし、自プロトコル変換部10に関係する論理ユニット割当て管理テーブル654を参照し、要求されたデータが記録されたLUを構成する仮想ボリュームを管理するキャッシュ制御部21を割り出す(764)。その後の処理(765−776)は、図19の説明で述べた実施例1の方法と同様である。
上記では、データの読み出しまたは書き込み時に、毎回システム管理部60にアクセスし、読み出しまたは書き込みの対象となるLUを構成する仮想ボリュームを管理するキャッシュ制御部21を割り出すとした。しかし、ストレージシステム全体の論理ユニット割り当てテーブル654を全てのキャッシュ制御部21の制御メモリ部112に格納しても本発明を実施するうえで問題ない。その場合、図18、図19に示す要求先CAの決定処理(744、764)の方法が異なる。
すなわち、システム初期化時に管理端末からの設定により、各プロトコル変換部10がデータのリード/ライト要求を送るキャッシュ制御部21を予め定めておく。その際、キャッシュ制御部21に割り当てられるプロトコル変換部10の数は、各キャッシュ制御部21でなるべく等しくなるように設定する。こうすることにより、各キャッシュ制御部21へのアクセス負荷を均等にすることができる。要求先CAの決定処理(744、764)では、マイクロプロセッサ102は予め定められたキャッシュ制御部21にアクセスし、自プロトコル変換部10に関係する論理ユニット割当て管理テーブル654を参照し、要求されたデータが記録されたLUを構成する仮想ボリュームを管理するキャッシュ制御部21を割り出す。その他の手順は、図18及び図19で説明した手順と同様である。
また図18及び図19の処理において、コマンド受信(742、762)後、そのコマンドをキャッシュ制御部21のマイクロプロセッサ101に転送し、コマンド解析(743、763)をマイクロプロセッサ101で行うことによっても本発明を実施するうえで問題ない。この場合、要求先CA決定処理(744,764)では、マイクロプロセッサ101が制御メモリ部112内に格納された論理ユニット割当て管理テーブル654を参照し、要求されたデータが記録されたLUを構成する仮想ボリュームを管理するキャッシュ制御部21を割り出す。該当するキャッシュ制御部21がコマンドを受けたマイクロプロセッサ101が属するキャッシュ制御部21でない場合は、マイクロプロセッサ101は該当キャッシュ制御部21内のキャッシュメモリ部111及び制御メモリ部112にアクセスして、745または765以降の処理を行う。
あるいは、コマンドを該当キャッシュ制御部21内のマイクロプロセッサ101に転送して、該当キャッシュ制御部21内のマイクロプロセッサ101とキャッシュメモリ部111及び制御メモリ部112により、745または765以降の処理を行う。
これにより、プロトコル変換部10にマイクロプロセッサ102を搭載する必要がなくなる。
本実施例の制御方法は、実施例1の図6、図30、実施例2の図7、図24、実施例3の図3の構成に適用しても、本発明を実施するうえで問題ない。
本実施例の構成においても、問題なく実施例1と同様の効果が得られ、小規模〜大規模な構成までシステム規模に見合った価格/性能のストレージシステムを提供することが可能となる。
図28、図29に本発明の第五の実施例を示す。
図に示すように、ストレージシステム1はシステム管理部60が無いことを除いて、図1、図6に示す実施例1の構成と同様である。
本実施例においては、実施例4と同様に、複数の制御クラスタ70内に物理的に分割されたキャッシュメモリ部111及び制御メモリ部112が、それぞれストレージシステム全体で1つのメモリアドレス空間として制御される。これにより、ストレージシステム1全体のマイクロプロセッサ101、102で複数のキャッシュメモリ部111、及び制御メモリ部112をそれぞれ論理的に共有する。
一方、実施例1でシステム管理部60内で作成され、そのメモリ内に格納されていた物理デバイス管理テーブル651、仮想ボリューム管理テーブル652、論理ユニット管理テーブル653及び論理ユニット割当管理テーブル654は、ローカルエリアネットワーク(LAN)等の専用ネットワーク、あるいは相互結合網31により各プロセッサに接続される管理端末65で作成し、各プロトコル変換部10、キャッシュ制御部21に関係する部分のコピーを、それぞれ該当するプロトコル変換部10、キャッシュ制御部21内のメモリに格納する。
このようにして各管理テーブルを各メモリに格納した場合、データの読み出し及び書き込みの手順は図18、図19に示す手順と同様になる。
また、システム全体の論理ユニット管理テーブル654を全てのキャッシュ制御部21の制御メモリ部112に格納しても良い。その場合、図18、図19に示す要求先CAの決定処理(744、764)の方法が異なる。すなわち、システム初期化時に管理端末からの設定により、各プロトコル変換部10がデータのリード/ライト要求を送るキャッシュ制御部21を予め定めておく。その際、キャッシュ制御部21に割り当てられるプロトコル変換部10の数は、各キャッシュ制御部21でなるべく等しくなるように設定する。
こうすることにより、各キャッシュ制御部21へのアクセス負荷を均等にすることができる。要求先CAの決定処理(744、764)では、マイクロプロセッサ102は予め定められたキャッシュ制御部21にアクセスし、自プロトコル変換部10に関係する論理ユニット割当て管理テーブル654を参照し、要求されたデータが記録されたLUを構成する仮想ボリュームを管理するキャッシュ制御部21を割り出す。その他の手順は、図18及び図19で説明した手順と同様である。
また図18及び図19の処理において、コマンド受信(742、762)後、そのコマンドをキャッシュ制御部21のマイクロプロセッサ101に転送し、コマンド解析(743、763)をマイクロプロセッサ101で行っても良い。この場合、要求先CA決定処理(744,746)では、マイクロプロセッサ101が制御メモリ部112内に格納された論理ユニット割当て管理テーブル654を参照し、要求されたデータが記録されたLUを構成する仮想ボリュームを管理するキャッシュ制御部21を割り出す。該当するキャッシュ制御部21がコマンドを受けたマイクロプロセッサ101が属するキャッシュ制御部21でない場合は、マイクロプロセッサ101は該当キャッシュ制御部21内のキャッシュメモリ部111、及び制御メモリ部112にアクセスして、745または765以降の処理を行う。
あるいは、コマンドを該当キャッシュ制御部21内のマイクロプロセッサ101に転送して、該当キャッシュ制御部21内のマイクロプロセッサ101とキャッシュメモリ部111及び制御メモリ部112により、745または765以降の処理を行う。
これにより、プロトコル変換部10にマイクロプロセッサ102を搭載する必要がなくなる。
本実施例の構成においても、問題なく実施例1と同様の効果が得られ、小規模〜大規模な構成までシステム規模に見合った価格/性能のストレージシステムを提供することが可能となる。
ストレージシステムの実施例1の構成を示す図。 従来のストレージシステムの構成を示す図。 ストレージシステムの実施例3の構成を示す図。 ストレージシステムの実施例1の他の論理構成を示す図。 ストレージシステムの実施例2の構成を示す図。 ストレージシステムの実施例1の相互結合網の詳細構成を示す図。 ストレージシステムの実施例2の相互結合網の詳細構成を示す図。 ストレージシステムを構成するプロトコル変換部の構成を示す図。 ストレージシステムを構成するキャッシュ制御部の構成を示す図。 ストレージシステムを構成するシステム管理部の構成を示す図。 ストレージシステムの管理構成を示す図。 ストレージシステムを管理する管理テーブルの一例を示す図。 ストレージシステムを管理する他の管理テーブルの一例を示す図。 ストレージシステムを管理する他の管理テーブルの一例を示す図。 ストレージシステムを管理する他の管理テーブルの一例を示す図。 ストレージシステムのシステム立ち上げ時の初期化フローを示す図。 ストレージシステムのシステム終了時のフローを示す図。 ストレージシステムのリード動作フローを示す図。 ストレージシステムのライト動作フローを示す図。 ストレージシステムの筐体への実装例を示す図。 従来のストレージシステムの他の構成を示す図。 ストレージシステムを構成するスイッチ部の構成を示す図。 ストレージシステムを構成する相互結合網上で転送するパケットフォーマットの一例を示す図。 ストレージシステムの実施例2の他の構成を示す図。 ストレージシステムを構成するディスク制御部の構成を示す図。 ストレージシステムにおけるプロトコル変換部への外部装置の接続構成を示す図。 ストレージシステムにおけるプロトコル変換部への外部装置の他の接続構成を示す図。 ストレージシステムの実施例6の構成を示す図。 ストレージシステムの実施例6の相互結合網の詳細構成を示す図。 ストレージシステムの実施例2の他の構成を示す図。 ストレージシステムを構成するディスク制御部の構成を示す図。
符号の説明
1…ストレージシステム、2…ハードディスク群、3…サーバ、10…プロトコル変換部、21…キャッシュ制御部、31…相互結合網、60…システム管理部、70…制御クラスタ、100…外部IF、101、102…マイクロプロセッサ、105…転送制御部、111…キャッシュメモリ部、112…制御メモリ。

Claims (8)

  1. サーバとのインターフェースを有し、前記サーバとの間で取り交わすデータのリード/ライトコマンドを変換する第1のプロトコル変換部と、
    複数の論理ユニットを提供する記憶装置に接続する第2のプロトコル変換部と、
    相互結合網を介して前記第1のプロコトル変換部と接続され、各々前記サーバとの間でリード/ライトされるデータを格納するキャッシュメモリを有し、該キャッシュメモリを制御し、管理する論理ユニットに記録されるデータのみを前記キャッシュメモリに一時的に格納する複数のキャッシュ制御部と
    を備え、
    前記第1のプロコトル変換部は、
    前記複数のキャッシュ制御部に含まれるキャッシュ制御部ごとに、当該キャッシュ制御部が管理する論理ユニットを示す管理情報を有し、
    前記サーバから前記複数の論理ユニットに含まれるいずれかの前記論理ユニットへのリードコマンドを受信した場合に、前記管理情報を参照して前記論理ユニットを管理する前記キャッシュ制御部を割り出し、割り出した前記キャッシュ制御部に対して前記リードコマンドに対応した要求を発行し、
    前記論理ユニットを管理する前記キャッシュ制御部は、
    前記リードコマンドに対応するデータが前記キャッシュ制御部のキャッシュメモリに格納されているか否かを判断し、
    前記対応するデータが前記キャッシュ制御部のキャッシュメモリに格納されていない場合には、前記第2のプロトコル変換部に対して、前記論理ユニットより前記リードコマンドに対応するデータの読み出し要求を発行し、
    前記第2のプロトコル変換部が前記読み出し要求に基づいて前記論理ユニットから読み出したデータを受信した場合に、前記第1のプロトコル変換部に当該データを送信する
    ことを特徴とするストレージシステム。
  2. 請求項1に記載のストレージシステムであって、
    前記第1のプロコトル変換部は、
    前記サーバよりいずれかの前記論理ユニットへのリード/ライトコマンドを受信した場合、前記管理情報を参照して、他の前記論理ユニットを管理する前記キャッシュ制御部に対しては、前記リード/ライトコマンドに対応した要求を発行しない
    ことを特徴とするストレージシステム。
  3. 請求項1に記載のストレージシステムであって、
    同一の前記論理ユニットを管理するキャッシュ制御部が複数存在し、
    同一の前記論理ユニットを管理する複数の前記キャッシュ制御部は、互いに接続パスを介して接続され、前記キャッシュメモリに格納されるデータを前記接続パスを介して二重化する
    ことを特徴とするストレージシステム。
  4. 請求項1に記載のストレージシステムであって、
    前記キャッシュ制御部は、
    前記第1のプロコトル変換部が前記サーバよりいずれかの前記論理ユニットへのライトコマンドを受信した場合に、前記第2のプロコトル変換部に対して、当該論理ユニットへ前記ライトコマンドに対応するデータを書き込む要求を発行する
    ことを特徴とするストレージシステム。
  5. サーバと接続され、リード/ライトコマンドを受信する第1のインターフェース部と、
    複数の論理ユニットを提供する記憶装置に接続する第2のインターフェース部と、
    前記第1のインターフェース部と接続され、各々前記リード/ライトコマンドに対応するデータを一時的に格納するキャッシュメモリを有し、該キャッシュメモリを制御し、管理する論理ユニットに記録されるデータのみを前記キャッシュメモリに一時的に格納する第1及び第2のキャッシュ制御部と
    を備え、
    前記第1のインターフェース部は、
    前記第1のキャッシュ制御部が管理する第1の論理ユニットと、前記第2のキャッシュ制御部が管理する第2の論理ユニットとを示す管理情報を有し、
    前記サーバより前記第1の論理ユニットのリードコマンドを受信した場合に、前記管理情報を参照して、前記第1の論理ユニットを管理するキャッシュ制御部として前記第1のキャッシュ制御部を割り出し、割り出した前記第1のキャッシュ制御部に対して、前記リードコマンドに対応した要求を発行し、
    前記第1のキャッシュ制御部は、
    前記リードコマンドに対応するデータが前記第1のキャッシュ制御部のキャッシュメモリに格納されているか否かを判断し、
    前記対応するデータが前記第1のキャッシュ制御部のキャッシュメモリに格納されていない場合には、前記第2のプロトコル変換部に対して、前記第1の論理ユニットより前記リードコマンドに対応するデータの読み出し要求を発行し、
    前記第2のプロトコル変換部が前記読み出し要求に基づいて前記第1の論理ユニットから読み出したデータを受信した場合に、前記第1のプロトコル変換部に当該データを送信する
    ことを特徴とするストレージシステム。
  6. 請求項に記載のストレージシステムであって、
    前記第1のインターフェース部は、
    前記サーバより前記第2の論理ユニットへのリードコマンドを受信した場合に、前記管理情報を参照して、前記第2のキャッシュ制御部に対して、前記リードコマンドに対応した要求を発行する
    ことを特徴とするストレージシステム。
  7. 請求項に記載のストレージシステムであって、
    前記第1のインターフェース部は、
    前記サーバより前記第1の論理ユニットへのリードコマンドを受信した場合に、前記管理情報を参照して、前記第2のキャッシュ制御部に対しては、前記リードコマンドに対応した要求を発行しない
    ことを特徴とするストレージシステム。
  8. 請求項に記載のストレージシステムであって、
    前記第1のキャッシュ制御部は、
    前記第1のインターフェース部が前記サーバより前記第1の論理ユニットへのライトコマンドを受信した場合に、前記第1のインターフェース部に対して、前記第1の論理ユニットへ前記ライトコマンドに対応するデータを書き込む要求を発行する
    ことを特徴とするストレージシステム。
JP2003391620A 2002-11-26 2003-11-21 クラスタ型ストレージシステム及びその管理方法 Expired - Fee Related JP4508612B2 (ja)

Priority Applications (7)

Application Number Priority Date Filing Date Title
US10/422,734 US6957303B2 (en) 2002-11-26 2003-04-25 System and managing method for cluster-type storage
JP2003391620A JP4508612B2 (ja) 2002-11-26 2003-11-21 クラスタ型ストレージシステム及びその管理方法
US10/795,719 US7069385B2 (en) 2002-11-26 2004-03-09 Cluster-type storage system and managing method of the cluster-type storage system
EP04010101A EP1533704A3 (en) 2003-11-21 2004-04-28 Read/write protocol for cache control units at switch fabric, managing caches for cluster-type storage
CNB2004100453332A CN1293456C (zh) 2003-11-21 2004-05-20 集群型存储系统
US11/474,462 US7571280B2 (en) 2003-04-25 2006-06-26 Cluster-type storage system and managing method of the cluster-type storage system
US12/213,522 US7743211B2 (en) 2003-04-25 2008-06-20 Cluster-type storage system and managing method of the cluster-type storage system

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2002341664 2002-11-26
JP2003005245 2003-01-14
JP2003391620A JP4508612B2 (ja) 2002-11-26 2003-11-21 クラスタ型ストレージシステム及びその管理方法

Publications (2)

Publication Number Publication Date
JP2004240949A JP2004240949A (ja) 2004-08-26
JP4508612B2 true JP4508612B2 (ja) 2010-07-21

Family

ID=32966267

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003391620A Expired - Fee Related JP4508612B2 (ja) 2002-11-26 2003-11-21 クラスタ型ストレージシステム及びその管理方法

Country Status (2)

Country Link
US (2) US6957303B2 (ja)
JP (1) JP4508612B2 (ja)

Families Citing this family (62)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4202709B2 (ja) * 2002-10-07 2008-12-24 株式会社日立製作所 ストレージ装置を有するネットワークにおける、ボリューム及び障害管理方法
JP4130615B2 (ja) * 2003-07-02 2008-08-06 株式会社日立製作所 ストレージ装置を有するネットワークにおける障害情報管理方法及び管理サーバ
US7409583B2 (en) * 2002-10-07 2008-08-05 Hitachi, Ltd. Volume and failure management method on a network having a storage device
US6957303B2 (en) * 2002-11-26 2005-10-18 Hitachi, Ltd. System and managing method for cluster-type storage
JP4107083B2 (ja) * 2002-12-27 2008-06-25 株式会社日立製作所 高可用ディスク制御装置とその障害処理方法及び高可用ディスクサブシステム
JP4226350B2 (ja) 2003-02-17 2009-02-18 株式会社日立製作所 データ移行方法
US7571280B2 (en) * 2003-04-25 2009-08-04 Hitachi, Ltd. Cluster-type storage system and managing method of the cluster-type storage system
US7146462B2 (en) * 2003-05-20 2006-12-05 Hitachi, Ltd. Storage management method
JP4278445B2 (ja) * 2003-06-18 2009-06-17 株式会社日立製作所 ネットワークシステム及びスイッチ
JP4433372B2 (ja) 2003-06-18 2010-03-17 株式会社日立製作所 データアクセスシステム及び方法
JP2005056200A (ja) * 2003-08-05 2005-03-03 Hitachi Ltd データ管理方法、ディスク記憶装置およびディスク記憶システム
US7159140B2 (en) * 2003-08-21 2007-01-02 International Business Machines Corporation Method to transfer information between data storage devices
EP1533704A3 (en) * 2003-11-21 2007-03-07 Hitachi, Ltd. Read/write protocol for cache control units at switch fabric, managing caches for cluster-type storage
JP4454299B2 (ja) 2003-12-15 2010-04-21 株式会社日立製作所 ディスクアレイ装置及びディスクアレイ装置の保守方法
JP2005190036A (ja) 2003-12-25 2005-07-14 Hitachi Ltd 記憶制御装置及び記憶制御装置の制御方法
JP4463042B2 (ja) 2003-12-26 2010-05-12 株式会社日立製作所 ボリュームの動的割り付け機能を有する記憶装置システム
JP4141391B2 (ja) * 2004-02-05 2008-08-27 株式会社日立製作所 ストレージサブシステム
US7467238B2 (en) * 2004-02-10 2008-12-16 Hitachi, Ltd. Disk controller and storage system
JP4405277B2 (ja) * 2004-02-16 2010-01-27 株式会社日立製作所 ディスク制御装置
JP4441286B2 (ja) * 2004-02-10 2010-03-31 株式会社日立製作所 ストレージシステム
JP4528551B2 (ja) * 2004-04-14 2010-08-18 株式会社日立製作所 ストレージシステム
US7519851B2 (en) * 2005-02-08 2009-04-14 Hitachi, Ltd. Apparatus for replicating volumes between heterogenous storage systems
JP4713902B2 (ja) 2005-03-01 2011-06-29 株式会社日立製作所 ストレージシステム
US20060236032A1 (en) * 2005-04-13 2006-10-19 Campbell Brian K Data storage system having memory controller with embedded CPU
US8484213B2 (en) * 2005-08-31 2013-07-09 International Business Machines Corporation Heterogenous high availability cluster manager
US8010829B1 (en) 2005-10-20 2011-08-30 American Megatrends, Inc. Distributed hot-spare storage in a storage cluster
US7996608B1 (en) 2005-10-20 2011-08-09 American Megatrends, Inc. Providing redundancy in a storage system
US8010485B1 (en) 2005-10-20 2011-08-30 American Megatrends, Inc. Background movement of data between nodes in a storage cluster
US7778960B1 (en) 2005-10-20 2010-08-17 American Megatrends, Inc. Background movement of data between nodes in a storage cluster
JP4643427B2 (ja) * 2005-12-08 2011-03-02 株式会社日立製作所 暗号化機能内蔵ストレージシステム
JP4859471B2 (ja) 2006-02-02 2012-01-25 株式会社日立製作所 ストレージシステム及びストレージコントローラ
JP4740763B2 (ja) 2006-02-15 2011-08-03 株式会社日立製作所 ストレージシステム及びストレージコントローラ
US20070214105A1 (en) * 2006-03-08 2007-09-13 Omneon Video Networks Network topology for a scalable data storage system
US7809892B1 (en) 2006-04-03 2010-10-05 American Megatrends Inc. Asynchronous data replication
US8868930B2 (en) 2006-05-31 2014-10-21 International Business Machines Corporation Systems and methods for transformation of logical data objects for storage
WO2007138603A2 (en) 2006-05-31 2007-12-06 Storwize Ltd. Method and system for transformation of logical data objects for storage
JP2008090657A (ja) 2006-10-03 2008-04-17 Hitachi Ltd ストレージシステム及び制御方法
JP4897499B2 (ja) 2007-01-19 2012-03-14 株式会社日立製作所 記憶システム又はストレージ移行方法
US8046548B1 (en) 2007-01-30 2011-10-25 American Megatrends, Inc. Maintaining data consistency in mirrored cluster storage systems using bitmap write-intent logging
US8498967B1 (en) 2007-01-30 2013-07-30 American Megatrends, Inc. Two-node high availability cluster storage solution using an intelligent initiator to avoid split brain syndrome
US7908448B1 (en) 2007-01-30 2011-03-15 American Megatrends, Inc. Maintaining data consistency in mirrored cluster storage systems with write-back cache
JP2008204041A (ja) 2007-02-19 2008-09-04 Hitachi Ltd ストレージ装置及びデータ配置制御方法
US8108580B1 (en) 2007-04-17 2012-01-31 American Megatrends, Inc. Low latency synchronous replication using an N-way router
JP2009098887A (ja) * 2007-10-16 2009-05-07 Hitachi Ltd 記憶システム及びデータ消去方法
JP4519179B2 (ja) * 2008-02-25 2010-08-04 富士通株式会社 論理ボリューム管理プログラム、論理ボリューム管理装置、論理ボリューム管理方法、および分散ストレージシステム
US8943271B2 (en) 2008-06-12 2015-01-27 Microsoft Corporation Distributed cache arrangement
US8176256B2 (en) * 2008-06-12 2012-05-08 Microsoft Corporation Cache regions
JP5035230B2 (ja) * 2008-12-22 2012-09-26 富士通株式会社 ディスク搭載機構及びストレージ装置
US8225057B1 (en) * 2009-03-24 2012-07-17 Netapp, Inc. Single-system configuration for backing-up and restoring a clustered storage system
WO2010116538A1 (en) * 2009-04-06 2010-10-14 Hitachi, Ltd. Storage apparatus and data transfer method
US8250283B1 (en) * 2009-05-22 2012-08-21 Google Inc. Write-distribute command for RAID mirroring
WO2011114379A1 (en) * 2010-03-18 2011-09-22 Hitachi, Ltd. Storage controller coupled to storage apparatus
EP2731300B1 (en) 2011-07-21 2019-02-13 Huawei Technologies Co., Ltd. Interface register method and device for network device to join cluster system
US9423983B2 (en) 2012-01-19 2016-08-23 Syncsort Incorporated Intelligent storage controller
US9015519B2 (en) * 2012-01-31 2015-04-21 Symantec Corporation Method and system for cluster wide adaptive I/O scheduling by a multipathing driver
US9135097B2 (en) * 2012-03-27 2015-09-15 Oracle International Corporation Node death detection by querying
JP6068676B2 (ja) * 2013-11-28 2017-01-25 株式会社日立製作所 計算機システム及び計算機システムの制御方法
WO2017062612A1 (en) * 2015-10-09 2017-04-13 Arch Systems Inc. Modular device and method of operation
CN107231399B (zh) 2016-03-25 2020-11-06 阿里巴巴集团控股有限公司 高可用服务器集群的扩容方法以及装置
CN108388468B (zh) * 2018-01-26 2022-02-22 杨立群 一种快速文件系统调度方法及装置
CN114281269B (zh) * 2021-12-31 2023-08-15 中企云链(北京)金融信息服务有限公司 数据缓存方法以及装置、存储介质、电子装置
CN114741220B (zh) * 2022-03-31 2023-01-13 北京志凌海纳科技有限公司 一种磁盘隔离方法、系统、设备及存储介质

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11203201A (ja) * 1998-01-08 1999-07-30 Hitachi Ltd キャッシュメモリの配置方法およびデータ記憶システム
JP2000099281A (ja) * 1998-09-18 2000-04-07 Hitachi Ltd ディスクアレイ制御装置
JP2000163246A (ja) * 1998-11-25 2000-06-16 Hitachi Ltd Fifo機能を有する記憶装置サブシステム
JP2000242434A (ja) * 1998-12-22 2000-09-08 Hitachi Ltd 記憶装置システム
JP2001306265A (ja) * 2000-04-27 2001-11-02 Hitachi Ltd 記憶制御装置および記憶制御装置の制御方法
JP2002116883A (ja) * 2000-10-10 2002-04-19 Nec Corp ディスクアレイ制御装置

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU5442494A (en) 1992-10-13 1994-05-09 Compaq Computer Corporation Disk array controller having advanced internal bus protocol
US5689678A (en) 1993-03-11 1997-11-18 Emc Corporation Distributed storage array system having a plurality of modular control units
JP3431972B2 (ja) 1993-11-29 2003-07-28 株式会社日立製作所 仮想ディスクシステム
JPH0951347A (ja) 1995-08-04 1997-02-18 Nippon Telegr & Teleph Corp <Ntt> 階層型ネットワーク管理方式
US6549918B1 (en) 1998-09-21 2003-04-15 Microsoft Corporation Dynamic information format conversion
US6542961B1 (en) 1998-12-22 2003-04-01 Hitachi, Ltd. Disk storage system including a switch
JP4294142B2 (ja) * 1999-02-02 2009-07-08 株式会社日立製作所 ディスクサブシステム
US6542951B1 (en) 1999-08-04 2003-04-01 Gateway, Inc. Information handling system having integrated internal scalable storage system
CA2284947C (en) 1999-10-04 2005-12-20 Storagequest Inc. Apparatus and method for managing data storage
US20030099254A1 (en) 2000-03-03 2003-05-29 Richter Roger K. Systems and methods for interfacing asynchronous and non-asynchronous data media
CA2405405C (en) 2000-04-18 2011-03-22 Nelson Nahum Storage virtualization in a storage area network
JP2002014777A (ja) * 2000-06-29 2002-01-18 Hitachi Ltd データ移行方法並びにプロトコル変換装置及びそれを用いたスイッチング装置
JP3753598B2 (ja) 2000-07-06 2006-03-08 株式会社日立製作所 計算機、計算機システムおよびデータ転送方法
US6813676B1 (en) * 2001-07-27 2004-11-02 Lsi Logic Corporation Host interface bypass on a fabric based array controller
US7404000B2 (en) 2001-09-28 2008-07-22 Emc Corporation Protocol translation in a storage system
US6925531B2 (en) 2002-07-11 2005-08-02 Storage Technology Corporation Multi-element storage array
US6957303B2 (en) * 2002-11-26 2005-10-18 Hitachi, Ltd. System and managing method for cluster-type storage

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11203201A (ja) * 1998-01-08 1999-07-30 Hitachi Ltd キャッシュメモリの配置方法およびデータ記憶システム
JP2000099281A (ja) * 1998-09-18 2000-04-07 Hitachi Ltd ディスクアレイ制御装置
JP2000163246A (ja) * 1998-11-25 2000-06-16 Hitachi Ltd Fifo機能を有する記憶装置サブシステム
JP2000242434A (ja) * 1998-12-22 2000-09-08 Hitachi Ltd 記憶装置システム
JP2001306265A (ja) * 2000-04-27 2001-11-02 Hitachi Ltd 記憶制御装置および記憶制御装置の制御方法
JP2002116883A (ja) * 2000-10-10 2002-04-19 Nec Corp ディスクアレイ制御装置

Also Published As

Publication number Publication date
JP2004240949A (ja) 2004-08-26
US20040221105A1 (en) 2004-11-04
US6957303B2 (en) 2005-10-18
US20040103244A1 (en) 2004-05-27
US7069385B2 (en) 2006-06-27

Similar Documents

Publication Publication Date Title
JP4508612B2 (ja) クラスタ型ストレージシステム及びその管理方法
JP4528551B2 (ja) ストレージシステム
US7743211B2 (en) Cluster-type storage system and managing method of the cluster-type storage system
JP4462852B2 (ja) ストレージシステム及びストレージシステムの接続方法
US9037671B2 (en) System and method for simple scale-out storage clusters
JP6074056B2 (ja) 計算機システムおよびデータ制御方法
JP4338068B2 (ja) ストレージシステム
JP4297747B2 (ja) ストレージ装置
JP2005165702A (ja) クラスタストレージのデバイス連結方法
JP4441286B2 (ja) ストレージシステム
US7774514B2 (en) Method of transmitting data between storage virtualization controllers and storage virtualization controller designed to implement the method
US7571280B2 (en) Cluster-type storage system and managing method of the cluster-type storage system
JP2003099206A (ja) ストレージシステム、ディスク制御クラスタおよびディスク制御クラスタの増設方法
JP2006268403A (ja) データストレージシステム及びストレージ制御装置のログデータの等価制御方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20051128

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20051128

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060327

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20060523

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20071012

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090202

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20090216

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090406

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090601

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20091109

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100208

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20100216

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100415

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100427

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130514

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130514

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees