[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2009053921A - ストレージシステム、計算機及び計算機システム - Google Patents

ストレージシステム、計算機及び計算機システム Download PDF

Info

Publication number
JP2009053921A
JP2009053921A JP2007219947A JP2007219947A JP2009053921A JP 2009053921 A JP2009053921 A JP 2009053921A JP 2007219947 A JP2007219947 A JP 2007219947A JP 2007219947 A JP2007219947 A JP 2007219947A JP 2009053921 A JP2009053921 A JP 2009053921A
Authority
JP
Japan
Prior art keywords
job
logical volume
ldev
computer
executed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007219947A
Other languages
English (en)
Inventor
Masaaki Hosouchi
昌明 細内
Kunihiro Maki
晋広 牧
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2007219947A priority Critical patent/JP2009053921A/ja
Priority to US11/971,466 priority patent/US8136116B2/en
Publication of JP2009053921A publication Critical patent/JP2009053921A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5005Allocation of resources, e.g. of the central processing unit [CPU] to service a request
    • G06F9/5011Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resources being hardware resources other than CPUs, Servers and Terminals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0602Interfaces specially adapted for storage systems specifically adapted to achieve a particular effect
    • G06F3/0625Power saving in storage systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0628Interfaces specially adapted for storage systems making use of a particular technique
    • G06F3/0629Configuration or reconfiguration of storage systems
    • G06F3/0631Configuration or reconfiguration of storage systems by allocating resources to storage systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0628Interfaces specially adapted for storage systems making use of a particular technique
    • G06F3/0653Monitoring storage devices or systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0628Interfaces specially adapted for storage systems making use of a particular technique
    • G06F3/0662Virtualisation aspects
    • G06F3/0665Virtualisation aspects at area level, e.g. provisioning of virtual or logical volumes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0668Interfaces specially adapted for storage systems adopting a particular infrastructure
    • G06F3/067Distributed or networked storage systems, e.g. storage area networks [SAN], network attached storage [NAS]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5005Allocation of resources, e.g. of the central processing unit [CPU] to service a request
    • G06F9/5011Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resources being hardware resources other than CPUs, Servers and Terminals
    • G06F9/5016Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resources being hardware resources other than CPUs, Servers and Terminals the resource being the memory
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B19/00Driving, starting, stopping record carriers not specifically of filamentary or web form, or of supports therefor; Control thereof; Control of operating function ; Driving both disc and head
    • G11B19/20Driving; Starting; Stopping; Control thereof
    • G11B19/209Driving; Starting; Stopping; Control thereof in multiple disk arrays, e.g. spindle synchronisation in RAID systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/10Protocols in which an application is distributed across nodes in the network
    • H04L67/1097Protocols in which an application is distributed across nodes in the network for distributed storage of data in networks, e.g. transport arrangements for network file system [NFS], storage area networks [SAN] or network attached storage [NAS]
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Software Systems (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

【課題】計算機で実行されるジョブの処理効率を維持しつつ、ストレージシステムの電力消費量を低減させる。
【解決手段】データを処理するジョブが実行される計算機に接続されるストレージシステムであって、ストレージコントローラ及びディスクドライブを備え、ストレージコントローラは、ディスクドライブの記憶領域を論理ボリュームに割り当てることによって計算機に提供し、ディスクドライブの回転を制御し、ジョブが実行される場合には、ジョブの実行順序及びジョブの負荷属性を含むジョブ情報を受信し、実行されるジョブによって一時的に使用されるファイルを格納するための論理ボリュームを要求された場合には、記憶領域が割り当てられていない論理ボリュームを選択し、ジョブの実行順序及びジョブの負荷属性の少なくとも一方に基づいて、選択された論理ボリュームに割り当てる記憶領域を選択し、論理ボリュームに割り当てる。
【選択図】図14

Description

本発明は、データを格納するストレージシステムに関し、特に、ストレージシステムの消費電力を低減する技術に関する。
ホスト計算機において実行されるユーザプログラムによって使用される作業用の一時ファイルが、ストレージシステムによって提供される記憶領域に割り当てられる場合がある。この場合に、ジョブ管理機能によって割り当てられる論理ボリュームの選択について、ユーザプログラムの優先順位に対応した性能の論理ボリュームを選択する技術が開示されている(特許文献1参照)。また、特許文献1に開示された技術では、一時ファイルを格納する論理ボリュームを、空き容量又は入出力負荷を基準に選択する方法、及び、入出力負荷の少ない順に選択する方法が開示されている。
また、ストレージシステムの消費電力を低減するための技術として、MAID(Massive Arrays of Idle Disks)と呼ばれる技術が開示されている。MAID技術は、ディスクドライブの制御回路による消費電力、及び、ディスクドライブが発する熱を排熱するために使用する電力を低減するために、非活動状態にあるディスクドライブの回転を停止させたり、電源を切断させたりする。
特開平7−84840号公報
特許文献1に開示された一時ファイル領域の論理ボリューム割当方法では、プログラムの処理効率又は容量を考慮して一時ファイルが割り当てられるが、電力消費量については考慮されていない。処理効率のみを考慮して一時ファイルを多数のディスクドライブに分散して割り当てると、MAID技術が採用されたストレージシステムであってもMAIDが有効に機能せず、電源投入状態又は回転状態のディスクドライブ数が増大し、電力消費量が増大してしまう。しかし、MAIDが有効に機能するように割当先のディスクドライブを局所化すると、処理効率が低下してしまう。
本発明は、このような問題点に鑑みてなされたものであり、ホスト計算機上で実行されるプログラムの処理効率を維持しつつ、ストレージシステムの電力消費量を削減する技術を提供することを目的とする。
本発明の代表的な一形態では、プログラムを実行することによってデータを処理するジョブが実行される計算機に接続されるストレージシステムであって、前記計算機に接続されるインターフェースと、前記インターフェースに接続されるストレージコントローラと、前記計算機によって読み書きされるデータを格納するディスクドライブと、を備え、前記ストレージコントローラは、前記ディスクドライブの記憶領域を論理ボリュームに割り当てることによって前記計算機に提供し、前記ディスクドライブの回転を制御し、前記ジョブが実行される場合には、前記ジョブの実行順序及び前記ジョブの負荷属性を含むジョブ情報を前記計算機から受信し、前記実行されるジョブによって一時的に使用されるファイルを格納するための論理ボリュームを前記計算機から要求された場合には、前記記憶領域が割り当てられていない論理ボリュームを選択し、前記ジョブの実行順序及び前記ジョブの負荷属性の少なくとも一方に基づいて、前記選択された論理ボリュームに割り当てる記憶領域を選択し、前記選択された記憶領域を前記選択された論理ボリュームに割り当て、前記選択された論理ボリュームを前記計算機に通知する。
本発明の一形態によれば、計算機で実行されるジョブの処理効率を維持しつつ、ストレージシステムの電力消費量を低減することができる。
以下、各図を参照しながら本発明の実施の形態について説明する。
(第1の実施の形態)
図1は、本発明の第1の実施の形態の計算機システム9のハードウェア構成を示す図である。
計算機システム9は、計算機1及びストレージシステム2を含む。計算機1及びストレージシステム2は、それぞれ複数含まれていてもよい。計算機1とストレージシステム2とは、通信ネットワーク4を介して接続される。通信ネットワーク4は、例えば、SAN(Storage Area Network)、LAN(Local Area Network)、WAN(Wide Area Network)、インターネット、専用回線、公衆回線などである。
計算機1は、主記憶装置10、CPU(Central Processing Unit)11、及び入出力インターフェース12を備える。
主記憶装置10は、CPU11によって実行されるプログラム及び処理に必要な情報を記憶する。主記憶装置10は、半導体メモリなどによって構成される。主記憶装置10は、ジョブ管理プログラム1000、ジョブネット定義情報100、ジョブ定義情報110、ジョブファイル定義情報120及び論理ボリュームリスト130を記憶する。
ジョブ管理プログラム1000は、CPU11に実行されることによって、ストレージシステム2にジョブ及びジョブネットなどの情報を送信し、ストレージシステム2に各種処理の実行を要求する。
ジョブとは、一定期間蓄積したデータを一括して処理するバッチ処理を、計算機1に要求する単位である。また、ジョブネットとは、実行順序を関連づけたジョブの集合である。
ジョブネット定義情報100は、ジョブネットの定義情報が格納される。ジョブネット定義情報100の詳細は、図8Aにて後述する。
ジョブ定義情報110は、ジョブの定義情報を格納する。ジョブ定義情報110の詳細は、図9Aにて後述する。
ジョブファイル定義情報120は、各ジョブの実行時にアクセスされるファイルの定義情報を格納する。ジョブファイル定義情報120の詳細は、図9Bにて後述する。
論理ボリュームリスト130は、ストレージシステム2によって提供される論理ボリュームの情報を格納する。なお、論理ボリュームリスト130は、本発明の第1の実施の形態では使用されず、本発明の第2の実施の形態にて使用される。
CPU11は、主記憶装置10に記憶されたジョブ管理プログラム1000などを実行し、各種処理を実行する。
入出力インターフェース12は、通信ネットワーク4を介してストレージシステム2にアクセスするためのインターフェースであり、例えば、ホストバスアダプタである。
ストレージシステム2は、コントローラ部20及びストレージ部30を含む。コントローラ部20は、計算機1からのデータの入出力要求に応答して入出力制御を行う。ストレージ部30は、計算機1によって入出力されるデータを格納する。
コントローラ部20は、一つ又は複数のチャネルアダプタ(CHA:CHannel Adapter)21、一つ又は複数のディスクアダプタ(DKA:DisK Adapter)22、共有メモリ23、及び接続部24を備える。
CHA21は、計算機1とデータを通信するインターフェースである。DKA22は、ディスクドライブ31とデータを通信するインターフェースである。CHA21及びDKA22は、CPU、メモリ、複数の通信ポート等を備えたマイクロコンピュータシステム(例えば、回路基盤)として構成することができる。
CHA21は、計算機1からの読み出し要求を受信すると、DKA22に指定されたデータの読み出しを要求する。DKA22は、要求された内容に基づいて、ディスクドライブ31からデータを読み出し、CHA21に応答する。CHA21は、応答されたデータを計算機1に送信する。
共有メモリ23は、ストレージシステム2の制御のためにCHA21又はDKA22に参照される情報を格納する。共有メモリ23は、例えば、揮発性又は不揮発性のメモリである。共有メモリ23は、LU管理テーブル200、仮想LDEV管理テーブル210、LDEV管理テーブル220、アドレスマッピング管理テーブル230、回転状態管理テーブル240、及びジョブ情報管理テーブル250などの情報を記憶する。
LU管理テーブル200は、論理ユニットと当該論理ユニットに割り当てられた論理デバイスとの関係を格納する。LU管理テーブル200の詳細は、図4にて後述する。
仮想LDEV管理テーブル210は、後述する仮想LDEV35に割り当てられる論理デバイスのリストを格納する。仮想LDEV管理テーブル210の詳細は、図5にて後述する。
LDEV管理テーブル220は、論理デバイスを提供するRAIDグループなどを格納する。LDEV管理テーブル220の詳細は、図6にて後述する。
アドレスマッピング管理テーブル230は、仮想LDEV35内の記憶領域のアドレスとLDEV33内の記憶領域のアドレスとの対応を格納する。アドレスマッピング管理テーブル230の詳細は、図7にて後述する。
回転状態管理テーブル240は、RAIDグループ32ごとのディスクドライブ31の回転状態を格納する。回転状態管理テーブル240の詳細は、図2にて後述する。
ジョブ情報管理テーブル250は、計算機1から送信されたジョブの情報を格納する。ジョブ情報管理テーブル250の詳細は、図11にて後述する。
接続部24は、CHA21、DKA22、及び共有メモリ23を相互に接続する。接続部24は、例えば、クロスバースイッチである。
ストレージ部30は、ディスクドライブ31を含む。ディスクドライブ31は、データを格納するための物理的な記憶領域を提供する。ディスクドライブ31は、例えば、FC(Fibre Channel)ディスクドライブ、SATA(Serial Advanced Technology Attachment)ディスクドライブ、PATA(Parallel Advanced Technology Attachment)ディスクドライブ、FATA(Fibre Attached Technology Adapted)ディスクドライブ、SCSI(Small Computer System Interface)ディスクドライブである。
RAIDグループ32は、複数のディスクドライブ31がグループ化されて構成される。例えば、4つのディスクドライブ31を一組としてグループ化することによって(3D+1P)、論理的な記憶領域であるRAIDグループ32が定義される。
ディスクドライブ31は、DKA22内のメモリに格納された制御プログラムからSCSIコマンドなどの命令が発行されると、ディスクドライブ31のディスクの回転状態を変更することができる。非回転状態(スピンオフ)から回転状態(スピンオン)に変更することをスピンアップ、回転状態から非回転状態に移行することをスピンダウンという。DKA22は、例えば、一定時間アクセスがない場合にはスピンダウンの命令をディスクドライブ31に発行したり、スピンオフのディスクドライブ31に入出力命令を発行する前にスピンアップさせる命令を発行する。スピンアップ及びスピンダウンの制御単位は、本発明の第1の実施の形態では一つのRAIDグループ32であるが、複数のRAIDグループを制御単位としてもよい。
なお、DKA22は、ディスクドライブ31のスピンアップ/スピンダウンを制御する替わりに、ストレージシステム2内にディスクドライブ31の電源制御回路を設けて、電源制御回路を経由して、ディスクドライブ31の電源のON/OFFを制御してもよい。DKA22がディスクドライブ31の電源ON/OFFを制御する場合には、以下に説明する各処理において、「回転」を「電源」に、「スピンダウン」を「電源切断」に、「スピンアップ」を「電源投入」に、それぞれに置き換えればよい。
論理デバイス(LDEV:Logical DEVice)33は、RAIDグループ32に定義される論理的な記憶領域である。LDEV33は、RAIDグループ32を構成するディスクドライブ31によって提供される物理的な記憶領域が論理的に分割された記憶領域を一つ又は複数含む記憶領域である。LDEV33に格納されるデータと、当該データに基づいて生成されたパリティは、複数のディスクドライブ31に分散されて格納される。
論理ユニット(LU:Logical Unit)34は、LDEV33又は仮想LDEV35が割り当てられた論理的な記憶領域である。計算機1は、各LU34を一つの論理ボリュームとして認識する。
仮想LDEV35は、一部又はすべての領域にディスクドライブ31によって提供される記憶領域が割り当てられていない論理デバイスである。仮想LDEV35は、必要に応じてディスクドライブ31によって提供される記憶領域が割り当てられる。一方、LDEV33は、LDEV33が定義された時点で、LDEV33内のすべての領域にディスクドライブ31によって提供される記憶領域が割り当てられる。仮想LDEV35が割り当てられているLU34を仮想LU、仮想LDEV35が割り当てられておらず直接LDEV33が割り当てられているLU34を実LUと定義する。
図2は、本発明の第1の実施の形態の回転状態管理テーブル240の構成を示す図である。
回転状態管理テーブル240は、RAIDグループ32ごとにエントリが設けられる。回転状態管理テーブル240は、RAIDグループ識別子241、回転状態フラグ242、最終アクセス時刻243、及びスピンダウン禁止フラグ244を含む。
RAIDグループ識別子241は、RAIDグループ32をストレージシステム2内で一意に識別する識別子である。
回転状態フラグ242は、RAIDグループ32を構成するディスクドライブ31がスピンオンであるかスピンオフであるかを判別するフラグである。回転状態フラグ242の値が“ON”の場合はスピンオンであって、“OFF”の場合はスピンオフである。
最終アクセス時刻243は、RAIDグループ32を構成するディスクドライブ31が最後にアクセスされた時刻である。
スピンダウン禁止フラグ244は、ディスクドライブ31に一定時間アクセスがない場合でもスピンオン状態を維持するためのフラグであって、フラグがONであればスピンダウンを禁止する。
なお、DKA22がディスクドライブ31の電源ON/OFFを制御する場合には、「回転状態フラグ」を「電源状態フラグ」に、「スピンダウン禁止フラグ」を「電源切断禁止フラグ」とすればよい。
図3は、本発明の第1の実施の形態の論理ユニットと論理デバイスとの関係の一例を示す図である。
LU34Aは、ディスクドライブ31によって構成されたRAIDグループ32によって提供されるLDEV33Aが直接マッピングされている実LUを示している。
一方、LU34B及びLU34Cは、LU34AのようにLDEV33に直接マッピングされておらず、仮想LDEV35B及び仮想LDEV35Cにマッピングされている仮想LUを示している。
仮想LDEV35は、計算機1から仮想LUにデータ出力が要求された場合に、LDEV33の集合の中からLDEV33によって提供される記憶領域の一部又は全部を動的に割り当てる。例えば、仮想LDEV35Cでは、LDEV33の集合にLDEV33C及びLDEV33Dが含まれている。LU34Cにデータを出力する場合には、LDEV33C及びLDEV33Dによって提供される記憶領域を仮想LDEV35Cに動的に割り当てる。
図4は、本発明の第1の実施の形態のLU管理テーブル200の構成を示す図である。
LU管理テーブル200は、ストレージシステム2に含まれるすべての実LU及び仮想LUのエントリを格納する。LU管理テーブル200は、LU識別子201、仮想化フラグ202、及びLDEV識別子リスト203を含む。
LU識別子201は、LU34をストレージシステム2内で一意に識別するための識別子である。LU識別子201は、例えば、CCA(Channel Connection Address)、又は、LUN(Logical Unit Number)とチャネル番号(CHA21の識別子)との組である。
仮想化フラグ202は、LU34に仮想LDEV35が割り当てられているか否かを判別するためのフラグである。仮想化フラグ202の値が“OFF”の場合には、LU34はLDEV33に直接マッピングされていることを示し、仮想化フラグ202の値が“ON”の場合には、仮想LDEV35にマッピングされていることを示している。
LDEV識別子リスト203は、仮想化フラグ202が“OFF”の場合に、LU34にマッピングされたLDEV33のLDEV識別子が記述されたリストである。LDEV識別子は、LDEV33をストレージシステム2内で一意に識別するための識別子である。LDEV識別子は、例えば、論理デバイス番号(LDEV#)である。
LDEV識別子リスト203は、仮想化フラグ202の値が“ON”の場合には、LU34にマッピングされた仮想LDEV35の仮想LDEV識別子が記述されたリストである。仮想LDEV識別子は、仮想LDEV35をストレージシステム2内で一意に識別するための識別子である。仮想LDEV識別子は、LDEV識別子とは別の管理体系を有する。
図5は、本発明の第1の実施の形態の仮想LDEV管理テーブル210の構成を示す図である。
仮想LDEV管理テーブル210は、ストレージシステム2内のすべての仮想LDEV35について、仮想LDEV35ごとのエントリを格納する。仮想LDEV管理テーブル210は、仮想LDEV識別子211及びLDEV識別子リスト212を含む。
仮想LDEV識別子211は、仮想LDEV35を識別する識別子である。LDEV識別子リスト212は、仮想LDEV35の記憶領域にマッピングさせる記憶領域を提供するLDEV33のLDEV識別子のリストである。
図6は、本発明の第1の実施の形態のLDEV管理テーブル220の構成を示す図である。
LDEV管理テーブル220は、ストレージシステム2に定義されたすべてのLDEV33について、LDEV33ごとにエントリが格納される。LDEV管理テーブル220は、LDEV識別子221、RAIDグループ識別子222、割当状態223、及び一時用途属性224を含む。
LDEV識別子221は、LDEV33を識別する識別子である。RAIDグループ識別子222は、記憶領域を提供するLDEV33が定義され、ディスクドライブ31によって構成されるRAIDグループ32の識別子である。
割当状態223は、LU34にLDEV33が割り当てられている状態を示す値を格納する。具体的には、LU34にLDEV33が直接割り当てられている場合には“R”、仮想LDEV35が割り当てられている場合には“V”、未割り当ての場合には“N”が設定される。
一時用途属性224は、割当状態223に“V”が割り当てられているLDEV33について、当該LDEVに割り当てられる一時ファイルの属性が格納される。具体的には、CPU負荷が高いCPUバウンドジョブの一時ファイルが割り当てられている場合には“C”が格納される。また、入出力(I/O)負荷が高いI/Oバウンドジョブの一時ファイルが割り当てられている場合には“I”が格納される。
図7は、本発明の第1の実施の形態のアドレスマッピング管理テーブル230の構成を示す図である。
アドレスマッピング管理テーブル230は、仮想LDEV35によって提供される記憶領域のアドレスとLDEV33によって提供される記憶領域のアドレスとのマッピング情報を格納する。アドレスマッピング管理テーブル230は、仮想LDEV35ごとに作成され、LDEV33にマッピングされた(すなわち、ディスクドライブ31に実データが存在する)仮想LDEV35内のアドレスごとにエントリが格納される。アドレスとは、仮想LDEV35及びLDEV33をそれぞれ一定のサイズで区切って番号を割り当てたものであり、仮想LDEV35と当該仮想LDEV35が使用するLDEV群との間で対応がとれればよい。
アドレスマッピング管理テーブル230は、仮想LDEVのアドレス231、当該仮想LDEV35に割り当てられたLDEV33の識別子232、及び当該LDEV33のアドレス233を含む。
ここで、計算機1においてバッチ処理を実行する場合に必要なプログラム及び情報について説明する。具体的には、ジョブ管理プログラム1000、ジョブネット定義情報100、ジョブ定義情報110及びジョブファイル定義情報120である。
計算機1のCPU11は、ジョブ管理プログラム1000を実行することによって、計算機1からアクセス可能な論理ボリューム(をマッピングしたLDEV33)に格納された定義ファイルを読み出す。読み出される定義ファイルは、具体的には、ジョブネット定義ファイル109及びジョブ定義ファイル119である。
計算機1のCPU11は、読み出された定義ファイルを解析し、ジョブネット定義情報100、ジョブ定義情報110及びジョブファイル定義情報120に解析された情報を格納する。
以下、ジョブネット定義情報100の構成を図8Aに、ジョブネット定義ファイル109の一例を図8Bに示す。また、ジョブ定義情報110の構成を図9Aに、各ジョブでアクセスされるファイルの定義情報であるジョブファイル定義情報120の構成を図9Bに、ジョブ定義ファイル119の一例を図9Cに示す。ファイルとは、論理ボリュームに格納されたデータの論理的なまとまりであって、計算機1のプログラムからアクセスされる単位である。
図8Aは、本発明の第1の実施の形態のジョブネット定義情報100の構成を示す図である。
ジョブネット定義情報100は、ジョブごとにエントリが格納される。ジョブネット定義情報100は、ジョブネット識別子101、ジョブ識別子102、先行ジョブ識別子103、及び開始時刻104を含む。
ジョブネット識別子101は、ジョブネットを識別する識別子である。ジョブ識別子102は、ジョブネットに含まれる各ジョブを計算機システム9内で一意に識別するための識別子である。先行ジョブ識別子103は、先行して実行されるジョブの識別子である。開始時刻104は、ジョブネットの開始時刻104である。
図8Aを参照すると、JOB2及びJOB3の先行ジョブ識別子がJOB1になっており、NET1は、JOB1の実行完了を待って、JOB2とJOB3とを並列実行するジョブネットであることを示している。JOB1は、毎日1時に実行される。
図8Bは、本発明の第1の実施の形態のジョブネット定義ファイル109の一例を示す図である。
“UNIT=NET ID=”に続く“NET1”は、ジョブネット識別子101を示している。“START=”に続く“01:00:00”がジョブネットの開始時刻104を示している。“UNIT=JOB ID=”に続く“JOB1”がジョブ識別子102を表す。“F=”に続く“JOB1”が先行ジョブ識別子103を示している。
図9Aは、本発明の第1の実施の形態のジョブ定義情報110の構成を示す図である。
ジョブ定義情報110は、ジョブごとにエントリを格納する。ジョブ定義情報110は、ジョブ識別子111及び負荷属性112を含み、さらに、実行するプログラムの名称など、ジョブの実行に必要な情報を格納する。
ジョブ識別子111は、ジョブを識別する識別子である。負荷属性112は、CPU負荷が高いCPUバウンドジョブであるか、I/O負荷が高いI/Oバウンドジョブであるかを判別するための情報である。CPUバウンドジョブの場合には“C”が格納され、I/Oバウンドジョブの場合には“I”が格納される。
図9Bは、本発明の第1の実施の形態のジョブファイル定義情報120の構成を示す図である。
ジョブファイル定義情報120は、ファイルごとにエントリが格納される。ジョブファイル定義情報120は、ジョブ内でアクセスするファイルに関する情報を保持する。ジョブファイル定義情報120は、ジョブ識別子121、ファイルタイプ122、ファイル識別子123、及びLU識別子124を含む。
ジョブ識別子121は、ジョブを識別する識別子である。ファイルタイプ122は、ジョブがアクセスするファイルが恒久ファイルであるか一時ファイルであるかを識別するための情報である。恒久ファイルとは、ジョブ開始前から存在し、ジョブ終了後も削除されないファイルである。一時ファイルとは、ジョブ内で作業用に使用され、ジョブ終了後に不要となるファイルである。ファイルタイプ122は、恒久ファイルの場合には“PERM”が格納され、一時ファイルの場合には“TEMP”が格納される。
ファイル識別子123は、恒久ファイルの場合はファイルのパス名(図9では“/dir/fileName”)を格納する。一時ファイルの場合は、一時ファイルをジョブ内のプログラムから識別するための一時ファイル識別子(図9では“A”)を格納する。
LU識別子124は、恒久ファイルの場合には、論理ボリュームのLU識別子201を格納する。論理ボリュームのLU識別子201は、恒久ファイルが格納された論理ボリュームの識別子(例えば、デバイスの識別子又はデバイス番号)をOSが提供するインターフェースを利用してパス名から取得し、ストレージシステム2に問い合わせることによって取得される。
図9Cは、本発明の第1の実施の形態のジョブ定義ファイル119の一例を示す図である。
先頭行の“JOB ID=”に続く“JOB1”は、ジョブ識別子111(121)を示している。“PERFORM=”に続く“I”は、負荷属性112がI/Oバウンドジョブであることを示している。
2行目は、“/dir/fileName”のパスにある恒久ファイルが、JOB1の処理においてアクセスされることを示している。なお、2行目に“TYPE=PERM”と記述することによって恒久ファイルであることを明示してもよい。3行目は、“JOB1”の処理で識別子が“A”である一時ファイルが使用されることを示している。
図10は、本発明の第1の実施の形態のジョブ情報送信処理1100の手順を示すフローチャートである。本処理は、計算機1のCPU11がジョブ管理プログラム1000を処理することによって実行される。
計算機1のCPU11は、利用者によって実行が指定されたジョブネットのジョブネット定義ファイル109をストレージシステム2などから読み出し、主記憶装置10にジョブネット定義情報100を格納可能な大きさのメモリ領域を割り当てる。次に、読み出されたジョブネット定義ファイル109の情報を解析する。そして、ジョブネット定義ファイル109に記述されたジョブネット識別子101、ジョブ識別子102、及び先行ジョブ識別子103を抽出し、ジョブネット定義情報100に格納する(ステップ1101)。
計算機1のCPU11は、ジョブネット定義情報100内の各エントリのジョブ識別子102に対応したジョブのジョブ定義ファイル119をストレージシステム2などから読み出す。そして、主記憶装置10にジョブ定義情報110及びジョブファイル定義情報120を格納可能な大きさのメモリ領域を割り当てる。次に、読み出されたジョブ定義ファイル119を解析する。ジョブ定義ファイル119に記述されたジョブ識別子111、負荷属性112、ファイルタイプ122、ファイル識別子123、及びLU識別子124を抽出し、ジョブ定義情報110及びジョブファイル定義情報120に格納する(ステップ1102)。
計算機1のCPU11は、ジョブ情報の送信要求命令をストレージシステム2に送信する。さらに、計算機1のCPU11は、ジョブネット定義情報100の全エントリについて、ジョブネット識別子101、ジョブ識別子102及び先行ジョブ識別子103をストレージシステム2に送信する(ステップ1103)。
計算機1のCPU11は、さらに、ジョブ定義情報110の全エントリについて、ジョブ識別子111及び負荷属性112をストレージシステム2に送信する(ステップ1104)。
計算機1のCPU11は、ジョブ定義情報110のエントリごとに、ジョブ識別子111と一致するジョブ識別子121を有するジョブファイル定義情報120のエントリをすべて抽出する。そして、ジョブ識別子111と、抽出されたエントリにファイルタイプ122の値が“TEMP”であるエントリが一つでも含まれるか否かを判定する一時ファイル情報と、抽出されたエントリのすべてのLU識別子124とを、ストレージシステム2に送信する(ステップ1105)。
ストレージシステム2のコントローラ部20は、ジョブ情報送信処理1100のステップ1103からステップ1105までの処理によって計算機1から送信された情報をCHA21を介して受信すると、共有メモリ23に割り当てられたジョブ情報管理テーブル250に保存する。
図11は、本発明の第1の実施の形態のジョブ情報管理テーブル250の構成を示す図である。
ジョブ情報管理テーブル250は、ジョブごとに設けたエントリが格納される。ジョブ情報管理テーブル250は、ジョブネット識別子251、ジョブ識別子252、先行ジョブ識別子253、負荷属性254、一時ファイル255、LU識別子256、仮想LU識別子257及びLDEV数258を含む。
ジョブネット識別子251は、エントリに対応するジョブが含まれているジョブネットの識別子である。ジョブ識別子252は、エントリに対応するジョブの識別子である。先行ジョブ識別子253は、エントリに対応するジョブに先行して処理されるジョブの識別子である。
負荷属性254は、ジョブ定義情報110の負荷属性112に対応する。負荷属性254には、CPU負荷が高いCPUバウンドジョブであるか、I/O負荷が高いI/Oバウンドジョブであるかを判別するための情報が格納される。
一時ファイル255は、ジョブ識別子252に対応するジョブが一時ファイルを使用するか否かを判別するための情報が格納される。
LU識別子256は、ジョブ識別子252に対応するジョブによってアクセスされるすべての恒久ファイルが割り当てられているLU34の識別子のリストである。
仮想LU識別子257は、事前に割り当てられた一時ファイル格納先である仮想LUの識別子のリストである。LDEV数258は、仮想LU識別子257によって識別される仮想LUに対応する仮想LDEV35に割り当てられるLDEV33の数である。
図12は、本発明の第1の実施の形態のジョブ情報受信処理2100の手順を示すフローチャートである。
本処理は、コントローラ部20に格納された制御プログラムを処理することによって実行される。本処理では、計算機1から送信されたジョブの情報をジョブ情報管理テーブル250に格納する。
ストレージシステム2のコントローラ部20は、CHA21が計算機1からジョブ情報の送信要求命令を受信すると(ステップ2101)、ジョブ情報受信処理を開始する。
ストレージシステム2のCHA21は、ジョブネット識別子101、ジョブ識別子102、及び先行ジョブ識別子103の組を受信する。ストレージシステム2のコントローラ部20は、受信したデータの組ごとに、ジョブ情報管理テーブル250に新たなエントリを追加し、ジョブネット識別子251、ジョブ識別子252及び先行ジョブ識別子253に受信したデータを格納する(ステップ2102)。
ストレージシステムのCHA21は、ジョブ識別子111及び負荷属性112の組を受信する。ストレージシステム2のコントローラ部20は、受信したジョブ識別子111と一致するジョブ識別子252を有するエントリに負荷属性112を格納する(ステップ2103)。
ストレージシステム2のCHA21は、ジョブ識別子111、一時ファイル情報及び一つ以上のLU識別子の組を受信する。ストレージシステム2のコントローラ部20は、受信したジョブ識別子111と一致するジョブ識別子252を有するエントリに、一時ファイル255及びLU識別子256を格納する(ステップ2104)。
ここで、各ジョブを実行する際の処理について説明する。
計算機1のCPU11は、開始時刻104が現在時刻と一致するジョブのエントリがジョブネット定義情報100に含まれる場合には、当該ジョブの実行を開始する。
また、計算機1のCPU11は、ジョブネット定義情報100のエントリに対応するジョブが実行可能な状態になると、当該ジョブによってアクセスされる恒久ファイル及び一時ファイルを格納するLU(論理ボリューム)にジョブ実行前処理1200を実行し、その後、当該ジョブを実行する。実行可能な状態になったジョブとは、開始時刻104が経過した未実行のジョブ、又は、先行ジョブの処理が完了した未実行のジョブである。
なお、ジョブ実行前処理1200は、ジョブが実行可能な状態になる前に、例えば、ジョブネットを開始したときに、すべてのジョブに対して実行してもよい。
また、計算機1で同時に実行可能なジョブ数が制限され、ジョブが実行可能な状態になったときに同時に実行可能なジョブ数の上限に達している場合には、実際にジョブの実行が開始されるまでの任意の時点にジョブ実行前処理1200を実行すればよい。例えば、ジョブが実行待ちジョブキューに含まれている間にジョブ実行前処理1200を実行することによって、アクセス対象の論理ボリュームをスピンアップさせ、ジョブの実行開始時にスピンアップされるまで待機することなくジョブを実行することができる。
図13は、本発明の第1の実施の形態のジョブ実行前処理1200の手順を示すフローチャートである。本処理は、計算機1のCPU11がジョブ管理プログラム1000を処理することによって実行される。
計算機1のCPU11は、ジョブ識別子121が実行対象ジョブのジョブ識別子と一致するエントリを、ジョブファイル定義情報120から抽出する(ステップ1201)。
計算機1のCPU11は、抽出されたエントリにファイルタイプ122の値が“TEMP”であるエントリが含まれているか否か判定する(ステップ1202)。抽出されたエントリにファイルタイプ122の値が“TEMP”であるエントリが含まれていない場合には(ステップ1202の結果が「No」)、ステップ1206の処理を実行する。
計算機1のCPU11は、抽出されたエントリにファイルタイプ122の値が“TEMP”であるエントリが含まれている場合には(ステップ1202の結果が「Yes」)、ストレージシステム2にジョブ識別子を送信し、一時ファイルの割当先となる論理ボリュームの仮想LUにLDEV33の割り当てを要求する(ステップ1203)。そして、ストレージシステム2からLDEV33の割り当てが完了した旨の応答が送信されるまで待機する。
計算機1のCPU11は、ストレージシステム2からの応答を受信すると、ストレージシステム2から応答されたLU識別子をLU識別子124に記録する(ステップ1204)。さらに、LU識別子124によって特定される論理ボリュームをマウントする(ステップ1205)。
計算機1のCPU11は、マウント先のディレクトリのパス名、又は、マウント先のディレクトリに生成された一時ファイルのパス名を、環境変数又は引数などによって実行されるジョブに通知する。
計算機1のCPU11は、抽出されたエントリにファイルタイプ122の値が“PERM”であるエントリが含まれているか否かを判定する(ステップ1206)。抽出されたエントリにファイルタイプ122の値が“PERM”であるエントリが含まれている場合には(ステップ1206の結果が「Yes」)、LU識別子124によって特定される論理ボリュームのスピンアップをストレージシステム2に要求する(ステップ1207)。ステップ1207の処理において、抽出されたエントリのLU識別子124によって特定される論理ボリュームにアクセスすることによってスピンアップさせてもよい。
図14は、本発明の第1の実施の形態の仮想LU割当処理2200の手順を示すフローチャートである。本処理は、コントローラ部20に格納された制御プログラムを処理することによって実行される。
ストレージシステム2のコントローラ部20は、図13のステップ1203の処理によって計算機1から送信された仮想LU割当要求及びジョブ識別子をCHA21が受信すると(ステップ2201)、仮想LU割当処理を開始する。
ストレージシステム2のコントローラ部20は、まず、LU管理テーブル200から、仮想化フラグ202が“ON”であって、LDEV識別子リスト203に示される仮想LDEV35にLDEV33が割り当てられていない仮想LUを検索する(ステップ2202)。
次に、ストレージシステム2のコントローラ部20は、受信したジョブ識別子とジョブ識別子252とが一致するエントリをジョブ情報管理テーブル250から検索する(ステップ2203)。
ストレージシステム2のコントローラ部20は、ジョブ情報管理テーブル250から検索されたエントリのLDEV数258が記録されているか否かを判定する(ステップ2204)。検索されたエントリのLDEV数258が記録されていない場合には(ステップ2204の結果が「No」)、LDEV数算出処理2300を実行し、ジョブに割り当てるLDEV数を求める(ステップ2205)。
さらに、ストレージシステム2のコントローラ部20は、負荷属性254に応じてLDEV33を選択するために、検索された負荷属性254の負荷属性254の値が“I”であるか否かを判定する(ステップ2206)。
ストレージシステム2のコントローラ部20は、負荷属性254の値が“I”である場合には(ステップ2206の結果が「Yes」)、I/OバウンドジョブのLDEV選択処理を実行し、仮想LDEV35にLDEV33を割り当てる(ステップ2400)。
ストレージシステム2のコントローラ部20は、負荷属性254の値が“C”である場合には(ステップ2206の結果が「No」)、CPUバウンドジョブのLDEV選択処理を実行し、仮想LDEV35にLDEV33を割り当てる(ステップ2500)。
ストレージシステム2のコントローラ部20は、ステップ2202の処理で検索された仮想LUに対応する仮想LDEV35のLDEV識別子リスト212に、ステップ2400又はステップ2500の処理で割り当てられたLDEV33の識別子を記録する(ステップ2209)。
ストレージシステム2のコントローラ部20は、新たに割り当てられたすべてのLDEV33、及び、LU識別子256に対応するLUに割り当てられているすべてのLDEV33を提供するRAIDグループ32に対応する回転状態管理テーブル240のエントリのスピンダウン禁止フラグ244を“ON”に設定する(ステップ2210)。ジョブの実行中に使用中のディスクドライブがスピンダウンされることによって、処理性能が低下することを防止するためである。
ストレージシステム2のコントローラ部20は、ステップ2210の処理でスピンダウン禁止フラグ244が“ON”に設定されたRAIDグループ32に対応するエントリについて、回転状態フラグ242が“OFF”であるか否かを判定する(ステップ2211)。RAIDグループ32の回転状態フラグ242が“OFF”である場合には(ステップ2211の結果が「Yes」)、当該RAIDグループ32に属する全ディスクドライブ31をスピンアップする(ステップ2212)。
最後に、ストレージシステム2のコントローラ部20は、ステップ2202で割り当てられた仮想LUのLU識別子を、CHA21から計算機1に送信する(ステップ2213)。
図15は、本発明の第1の実施の形態のLDEV数算出処理2300の手順を示すフローチャートである。
ストレージシステム2のコントローラ部20は、受信したジョブ識別子とジョブ識別子252とが一致するジョブ情報管理テーブル250のエントリについて、負荷属性254の値が“C”、すなわち、ジョブの負荷属性がCPUバウンドであるか否かを判定する(ステップ2301)。
ストレージシステム2のコントローラ部20は、該当するエントリの負荷属性254の値が“C”である場合には(ステップ2301の結果が「Yes」)、該当するエントリのLDEV数258に1を記録する(ステップ2302)。CPUバウンドジョブの場合には、ディスクアクセスによる処理負荷が小さいため、使用するLDEV33の数を1に設定することによって省電力化を図ることができる。
ストレージシステム2のコントローラ部20は、該当するエントリの負荷属性254の値が“C”でない場合、すなわち、“I”である場合には(ステップ2301の結果が「No」)、必要なLDEV数を算出し、該当するエントリのLDEV数258に算出された値を記録する(ステップ2303)。具体的には、ステップ2202の処理で割り当てられた仮想LUと計算機1との間の時間当たりの最大転送データ量と、ディスクドライブ31の時間当たりの最大転送データ量とに基づいて、ディスクドライブ31を複数割り当てることによって転送性能が向上するディスクドライブ31の上限を算出する。I/Oバウンドジョブの場合には、ディスクアクセスによる処理負荷が大きいため、処理性能を最大限向上させるLDEV数を設定する。
ストレージシステム2のコントローラ部20は、受信したジョブ識別子によって特定されるジョブが含まれるジョブネットと同じジョブネットに属するジョブに対し、ステップ2301からステップ2303までの処理を実行し、LDEV数258を設定する(ステップ2304)。
以下、本発明の第1の実施の形態の仮想LU割当処理において、ファイルを割り当てるLDEVを選択する手順について説明する。図16には、実行対象のジョブの負荷属性がI/Oバウンドジョブである場合、図17には、実行対象のジョブの負荷属性がCPUバウンドジョブである場合のLDEV選択処理について説明する。
以下の説明において、RAIDグループ識別子222と一致するRAIDグループ識別子241のエントリの回転状態フラグ242が“ON”であるLDEVを“スピンオンLDEV”と定義する。一方、RAIDグループ識別子222と一致するRAIDグループ識別子241のエントリの回転状態フラグ242が“OFF”であるLDEVを“スピンオフLDEV”と定義する。
また、割当状態223が“仮想LDEV”、かつ、一時用途属性224の値が“C”であるLDEVを“C−LDEV”と定義する。一方、割当状態223が“仮想LDEV”、かつ、一時用途属性224の値が“I”であるLDEVを“I−LDEV”と定義する。割当状態223が“仮想LDEV”、かつ、一時用途属性224の値が“C”又は“I”いずれでもないLDEVを“非一時LDEV”と定義する。割当状態223の値が“未割当”であるLDEVを“未割当LDEV”と定義する。
図16は、本発明の第1の実施の形態のI/OバウンドジョブのLDEV選択処理2400の手順を示すフローチャートである。
ストレージシステム2のコントローラ部20は、未割当LDEVをLDEV管理テーブル220から検索する。さらに、スピンオン未割当LDEV、スピンオフ未割当LDEVの優先順位で、LDEV数258に達するまで検索されたLDEV33を仮想LDEV35に割り当てる(ステップ2401)。このとき、仮想LDEV35に割り当てられたLDEV33に対応するLDEV管理テーブル220のエントリについて、一時用途属性224を“I”を設定する。
ストレージシステム2のコントローラ部20は、ステップ2401の処理で仮想LDEV35に割り当てられたLDEV33の数がLDEV数258に達したか否かを判定する(ステップ2402)。
ストレージシステム2のコントローラ部20は、仮想LDEV35に割り当てられたLDEV33の数がLDEV数258に達していない場合には(ステップ2402の結果が「No」)、非一時LDEVをLDEV管理テーブル220から検索する。複数のLDEVが検索された場合には、スピンオン非一時LDEV、スピンオフ非一時LDEVの優先順位で、検索されたLDEV33をLDEV数258に達するまで仮想LDEV35に割り当てる。ただし、検索されたLDEV33が、実行対象のジョブと同一のジョブネットに属するジョブによって使用されている場合には、恒久ファイルとの入出力競合が発生しないように、割り当て対象のLDEVから除外する(ステップ2403)。
ストレージシステム2のコントローラ部20は、ステップ2403の処理で仮想LDEV35に割り当てられたLDEV33の数がLDEV数258に達したか否かを判定する(ステップ2404)。
ストレージシステム2のコントローラ部20は、仮想LDEV35に割り当てられたLDEV33の数がLDEV数258に達していない場合には(ステップ2404の結果が「No」)、LDEV管理テーブル220からI−LDEVを検索する。さらに、LDEV数258に達するまで、検索されたLDEV33を仮想LDEV35に割り当てる。ステップ2405の処理において、条件を満たすLDEV33が複数存在する場合には、LDEV33が割り当てられている仮想LDEVの数が均一となるように、割り当てた仮想LDEV35の数が少ないLDEV33を優先して割り当てる。
I/OバウンドジョブのLDEV選択処理2400において、スピンオン状態のディスクドライブ数が多く、ストレージシステム2の電力消費量が大きい場合には、電力消費量を一定以上増大させないため、回転状態のディスクドライブ数に上限を設け、仮想LDEV35に割り当てるLDEV33を制限してもよい。この場合には、ステップ2401の処理の前に回転状態管理テーブル240の回転状態フラグ242が“ON”のエントリ数の合計値を取得する。ステップ2401及びステップ2403の処理において、スピンオン状態のディスクドライブ数の上限値をあらかじめ設定して共有メモリ23に保持し、ディスクドライブ数の上限値がスピンオン状態のLDEVの数よりも大きい場合には、スピンオフ状態のLDEVを選択せず、スピンオン状態のLDEVのみを選択し、仮想LDEVに割り当てる。
図17は、本発明の第1の実施の形態のCPUバウンドジョブのLDEV選択処理2500の手順を示すフローチャートである。
ストレージシステム2のコントローラ部20は、ジョブネット識別子251が同じエントリであって、同時に実行される可能性の高いジョブのLDEV数258の和の最大値を取得する。ここで得られた値は、当該ジョブネットにおいて同時に使用されるLDEVの数の最大値となる。また、同時に実行される可能性の高いジョブとは、例えば、先行ジョブ識別子253が同じジョブである。そして、取得された最大値から、処理対象のジョブと先行ジョブ識別子253が同じエントリのうち、負荷属性の値が“I”、すなわち、I/OバウンドジョブであるエントリのLDEV数258の合計を減算する(ステップ2501)。
ストレージシステム2のコントローラ部20は、ステップ2501の処理で得られた値が1より大きいか否かを判定する(ステップ2502)。
ステップ2501の処理で得られた値が1以下の場合には(ステップ2502の結果が「No」)、処理対象のジョブが実行されているタイミングで使用されているLDEV33の数は、実行中のジョブネットにおいて最大値となる。したがって、新たに未割当のLDEV33を仮想LDEV35に割り当てると、過剰な台数のディスクドライブ31をスピンオン状態にさせてしまう可能性があり、電力消費量が増大するおそれがある。そこで、ステップ2501の処理で得られた値が1以下の場合には、電力消費量の低減を優先して、他のCPUバウンドジョブで使用されているLDEV(C−LDEV)を一時ファイルの出力先として選択する。
具体的には、ストレージシステム2のコントローラ部20は、C−LDEVをLDEV管理テーブル220から検索し、仮想LDEV35に割り当てる(ステップ2503)。なお、複数のLDEVが検索された場合には、スピンオンC−LDEVをスピンオフC−LDEVよりも優先して割り当てる。
次に、ストレージシステム2のコントローラ部20は、ステップ2503の処理で仮想LDEV35にLDEV33が割り当てられたか否かを判定する(ステップ2504)。ステップ2503の処理で仮想LDEV35にLDEV33が割り当てられた場合には(ステップ2504の結果が「Yes」)、本処理を終了する。
ストレージシステム2のコントローラ部20は、ステップ2503の処理で仮想LDEV35にLDEV33が割り当てられなかった場合には(ステップ2504の結果が「No」)、未割当LDEVをLDEV管理テーブル220から検索し、仮想LDEV35に割り当てる(ステップ2505)。複数のLDEVが検索された場合には、スピンオン未割当LDEVをスピンオフ未割当LDEVよりも優先して割り当てる。このとき、仮想LDEV35に割り当てられたLDEV33に対応するLDEV管理テーブル220のエントリについて、一時用途属性224を“C”を設定する。
一方、ステップ2501の処理で得られた値が1より大きい場合には(ステップ2502の結果が「Yes」)、処理対象のジョブが実行されるタイミング以外でより多くのLDEVが使用されていることになる。したがって、処理対象のCPUバウンドジョブに未割当LDEVを割り当てても、ジョブネット全体として使用されるLDEVの数は増加しない。そこで、ストレージシステム2のコントローラ部20は、ステップ2501の処理で得られた値が1より大きい場合には、処理性能の向上を優先して、未割当LDEVを選択する。
具体的には、ストレージシステム2のコントローラ部20は、未割当LDEVをLDEV管理テーブル220から検索し、仮想LDEV35に割り当てる(ステップ2506)。複数のLDEVが検索された場合には、スピンオン未割当LDEVをスピンオフ未割当LDEVよりも優先して割り当てる。このとき、仮想LDEV35に割り当てられたLDEV33に対応するLDEV管理テーブル220のエントリについて、一時用途属性224を“C”を設定する。
ストレージシステム2のコントローラ部20は、ステップ2506の処理で仮想LDEV35にLDEV33が割り当てられたか否かを判定する(ステップ2507)。ステップ2506の処理で仮想LDEV35にLDEV33が割り当てられた場合には(ステップ2507の結果が「Yes」)、本処理を終了する。
ストレージシステム2のコントローラ部20は、ステップ2506の処理で仮想LDEV35にLDEV33が割り当てられなかった場合には(ステップ2507の結果が「No」)、C−LDEVをLDEV管理テーブル220から検索し、仮想LDEV35に割り当てる(ステップ2508)。複数のLDEVが検索された場合には、スピンオンC−LDEVをスピンオフC−LDEVよりも優先して割り当てる。
さらに、ストレージシステム2のコントローラ部20は、ステップ2505又はステップ2508の処理によって仮想LDEV35にLDEV33が割り当てられたか否かを判定する(ステップ2509)。ステップ2505又はステップ2508の処理によって仮想LDEV35にLDEV33が割り当てられた場合には(ステップ2509の結果が「Yes」)、本処理を終了する。
ストレージシステム2のコントローラ部20は、ステップ2505又はステップ2508の処理によって仮想LDEV35にLDEV33が割り当てられなかった場合には(ステップ2509の結果が「No」)、非一時LDEVをLDEV管理テーブル220から検索し、仮想LDEV35に割り当てる(ステップ2510)。複数のLDEVが検索された場合には、スピンオン非一時LDEVをスピンオフ非一時LDEVよりも優先する。ただし、検索されたLDEV33が、実行対象のジョブと同一のジョブネットに属するジョブによって使用されている場合には、恒久ファイルとの入出力競合が発生しないように、割り当て対象のLDEVから除外する。
図18は、本発明の第1の実施の形態のLU出力処理2800の手順を示すフローチャートである。本処理は、コントローラ部20に格納された制御プログラムを処理することによって実行される。
ストレージシステム2のコントローラ部20は、CHA21が計算機1からのデータ出力要求を受信し、さらに、出力するデータ、出力先LU識別子、及び出力先アドレスを受信する(ステップ2801)。
ストレージシステム2のコントローラ部20は、出力先LU識別子を有するエントリの仮想化フラグ202を参照し、出力先のLUが仮想LUか実LUかを判定する(ステップ2802)。
ストレージシステム2のコントローラ部20は、仮想化フラグ202の値が“OFF”に設定され、出力先のLUが実LUの場合には(ステップ2802の結果が「Yes」)、LDEV識別子リスト203に格納されたLDEV33を出力先とする(ステップ2803)。
ストレージシステム2のコントローラ部20は、仮想化フラグ202の値が“ON”に設定され、出力先のLUが仮想LUの場合には(ステップ2802の結果が「No」)、アドレスマッピング管理テーブル230から出力先アドレスと仮想LDEVアドレス231が一致するエントリを検索する(ステップ2804)。そして、ステップ2804の処理でエントリが検索されたか否かを判定する(ステップ2805)。
ストレージシステム2のコントローラ部20は、ステップ2804の処理でエントリが検索された場合には(ステップ2805の結果が「Yes」)、エントリのLDEV識別子232によって特定される領域を出力先とする(ステップ2806)。
ストレージシステム2のコントローラ部20は、ステップ2804の処理でエントリが検索されなかった場合には(ステップ2805の結果が「No」)、同一仮想LDEV内の各LDEV領域数が均一となるように、LDEV識別子232が同じであって、エントリ数が最も少ないLDEVに領域を割り当ててデータを出力する(ステップ2807)。さらに、アドレスマッピング管理テーブル230に新規エントリを割り当てて出力先LDEVの識別子232、出力先アドレス233、及び仮想LDEVアドレス231を記録する(ステップ2808)。
ストレージシステム2のコントローラ部20は、データを出力したLDEVのRAIDグループ識別子222をLDEV管理テーブル220から取得し、取得されたRAIDグループ識別子222を含む回転状態管理テーブル240のエントリの最終アクセス時刻243をデータ出力時の時刻に更新する(ステップ2809)。さらに、回転状態フラグ242が“OFF”である場合には、RAIDグループ識別子241に対応するRAIDグループ32の全ディスクドライブ31をスピンアップする(ステップ2710)。
最後に、ストレージシステム2のコントローラ部20は、計算機1によって要求されたデータを出力先LDEVに出力する(ステップ2711)。
図19は、本発明の第1の実施の形態のジョブ終了処理1300の手順を示すフローチャートである。本処理は、計算機1のCPU11がジョブ管理プログラム1000を処理することによって実行される。
計算機1のCPU11は、fsyncシステムコールなどを発行することによって、主記憶装置10に記憶された入出力バッファに残っている未出力データがすべてストレージシステム2に出力されるまで待機する(ステップ1301)。
計算機1のCPU11は、ストレージシステム2にジョブ識別子を転送し、ジョブ終了を通知する(ステップ1302)。
図20は、本発明の第1の実施の形態のLDEV解放処理2900の手順を示すフローチャートである。
本処理は、コントローラ部20に格納された制御プログラムを処理することによって実行される。本処理では、ジョブの実行が完了した後に、一時ファイルが格納された仮想LDEV35に割り当てられたLDEV33を解放する。
ストレージシステム2のコントローラ部20は、CHA21によって計算機1からジョブ終了通知を受信する(ステップ2901)。
ストレージシステム2のコントローラ部20は、LDEV33の解放要求を受信すると、仮想LDEV35に割り当てられたLDEV33を解放し、他の処理で使用可能な状態とする。以下、具体的な処理を説明する。
ストレージシステム2のコントローラ部20は、解放対象の仮想LDEV35に対応する仮想LDEV管理テーブル210のエントリを検索し、LDEV識別子リスト212を取得する。LDEV識別子リスト212に含まれるLDEV33について、LDEV管理テーブル220の割当状態223を“N”に変更し、一時用途属性224をクリアする(ステップ2902)。ステップ2902の処理によって、解放対象の仮想LDEV35に割り当てられていたLDEVを未割当状態とすることができる。
ストレージシステム2のコントローラ部20は、解放対象の仮想LDEV35に対応する仮想LDEV管理テーブルのLDEV識別子リスト212をクリアする(ステップ2903)。さらに、解放対象の仮想LDEV35のアドレスマッピング管理テーブル230をクリアする(ステップ2904)。ステップ2903及びステップ2904の処理によって、解放対象の仮想LDEV35と割り当てられていたLDEV33との関係をクリアする。
また、ストレージシステム2のコントローラ部20は、RAIDグループ識別子222に対応する回転状態管理テーブル240のエントリのスピンダウン禁止フラグ244を“OFF”に設定する(ステップ2905)。さらに、ジョブ情報管理テーブル250の仮想LU識別子257及びLDEV数258をクリアする(ステップ2906)。仮想LU識別子257及びLDEV数258は、次回ジョブが実行される場合に再度設定される。
図21は、本発明の第1の実施の形態のディスクドライブ31の回転制御処理3000の手順を示すフローチャートである。本処理は、コントローラ部20に格納された制御プログラムを処理することによって実行される。
ストレージシステム2のコントローラ部20は、CHA21が計算機1からのデータ出力要求を受信したか否かを判定する(ステップ3001)。CHA21が計算機1からのデータ出力要求を受信していない場合には(ステップ3001の結果が「No」)、ステップ3005の処理を実行する。
ストレージシステム2のコントローラ部20は、CHA21が計算機1からのデータ出力要求を受信した場合には(ステップ3001の結果が「Yes」)、受信したスピンアップ対象LUを構成するLEDV33を構成するRAIDグループ32を特定する(ステップ3002)。
具体的には、ストレージシステム2のコントローラ部20は、スピンアップ要求とともに送信されたLU識別子124に基づいて、LU管理テーブル200からLDEV識別子リスト203を取得する。続いて、LDEV識別子リスト203に含まれるLDEV識別子に基づいて、LDEV管理テーブル220からRAIDグループ識別子222を取得する。
また、仮想化フラグ202の値が“ON”の場合には、LDEV識別子リスト203から仮想LDEV識別子を取得し、仮想LDEV管理テーブル210から仮想LDEV35のLDEV識別子リスト212を取得する。取得されたLDEV識別子リスト212に基づいて、LDEV管理テーブル220からRAIDグループ識別子222を取得する。
ストレージシステム2のコントローラ部20は、取得されたRAIDグループ識別子とRAIDグループ識別子241が一致する回転状態管理テーブル240のエントリを抽出し、回転状態フラグ242の値が“OFF”であるか否かを判定する(ステップ3003)。回転状態フラグ242の値が“OFF”である場合には(ステップ3003の結果が「Yes」)、取得されたRAIDグループ識別子に対応するRAIDグループを構成する全ディスクドライブ31をスピンアップする(ステップ3004)。
また、ストレージシステム2のコントローラ部20は、ディスクドライブ31がスピンオン状態となっている場合に、所定の時間、ディスクアクセスがない場合には、当該ディスクドライブ31をスピンダウンさせることによって消費電力を低減する。
具体的には、ストレージシステム2のコントローラ部20は、回転状態管理テーブル240の各エントリの最終アクセス時刻と現在時刻との差が所定の時間を上回るエントリが存在するか否かを判定する(ステップ3005)。さらに、所定の時間アクセスされていないRAIDグループのスピンダウン禁止フラグが“OFF”であるか否かを判定する(ステップ3006)。
ストレージシステム2のコントローラ部20は、回転状態管理テーブル240の各エントリの最終アクセス時刻と現在時刻との差が所定の時間を上回るエントリが存在し(ステップ3005の結果が「Yes」)、所定の時間アクセスされていないRAIDグループのスピンダウン禁止フラグが“OFF”である場合には(ステップ3006の結果が「Yes」)、当該RAIDグループ32を構成する全ディスクドライブ31をスピンダウンする(ステップ3007)。
本発明の第1の実施の形態によれば、CPUバウンドであるジョブを実行する場合に、同時に実行されているジョブによって同時に使用されているLDEV33の数に基づいて、論理ボリュームに割り当てるLDEV33を選択する。具体的には、同時に使用されているLDEV33の数が少ない場合には、未割当LDEVを選択することによって、処理性能の向上を図ることができる。また、同時に使用されているLDEV33の数が多い場合には、他のジョブで使用されているCPUバウンドジョブで使用されているLDEV33を選択することによって、ストレージシステム2の省電力化を図ることができる。
さらに、本発明の第1の実施の形態によれば、ストレージシステム2の電力消費量を低減させた場合であっても、計算機1で実行されたジョブの処理効率を維持できるため、処理時間の遅延に伴う計算機1の電力消費量を増大させることなく、計算機システム9全体の省電力化を図ることができる。
(第2の実施の形態)
本発明の第1の実施の形態では、計算機1が一時ファイルを格納先するLUに対するLDEVの割り当てをストレージシステム2に要求し、ストレージシステム2が仮想LUを選択していた。一方、本発明の第2の実施の形態では、計算機1において事前に論理ボリュームごとに省電力優先属性と性能優先属性を設定し、論理ボリュームリスト130に記録する。そして、計算機1のCPU11がジョブ管理プログラム1000を実行し、論理ボリュームリスト130に基づいて論理ボリュームを選択する。
また、ストレージシステム2は、ジョブ開始前に計算機1から要求されたタイミングではなく、ジョブ実行中にLU34に最初にアクセスされるタイミングで、仮想LDEV35にLDEV33を割り当てる。
なお、本発明の第2の実施の形態において、本発明の第1の実施の形態と共通する内容については適宜説明を省略する。
第2の実施の形態の計算機システム9のハードウェア構成は、第1の実施の形態と同じである。第2の実施の形態では、計算機1において、論理ボリュームリスト130を参照して論理ボリュームが選択される。一方、ストレージシステム2では、計算機1において論理ボリュームが選択されるため、ジョブ情報管理テーブル250を必要としない。
ここで、計算機1及びストレージシステム2に格納される各種情報について、第1の実施の形態と比較しながら説明する。
まずは、計算機1に格納される情報について説明する。計算機1に含まれるジョブネット定義情報100、ジョブ定義情報110及びジョブファイル定義情報120は、第1の実施の形態と共通である。
ジョブ管理プログラム1000が計算機1のCPU11によって実行される処理のうち、本発明の第2の実施の形態特有の処理については後述する。
論理ボリュームリスト130は、ストレージシステム2によって提供される論理ボリュームの情報を格納するリストである。論理ボリュームリスト130の詳細については、図22Aにて後述する。
次に、ストレージシステム2に格納される情報について説明する。
LU管理テーブル200、LDEV管理テーブル220、アドレスマッピング管理テーブル230、及び回転状態管理テーブル240の構成は、本発明の第1の実施の形態と同じである。また、前述したように、本発明の第2の実施の形態では、ジョブ情報管理テーブル250は不要である。
仮想LDEV管理テーブル210は、図5に示した本発明の第1の実施の形態の構成に加えて、さらに一時用途属性213を含む。すなわち、本発明の第2の実施の形態の仮想LDEV管理テーブル210は、仮想LDEV識別子211、LDEV識別子リスト212及び一時用途属性213を含む。
仮想LDEV識別子211及びLDEV識別子リスト212は、本発明の第1の実施の形態と同じである。
一時用途属性213は、LDEV管理テーブル220の一時用途属性224と同じである。なお、一時用途属性213は、仮想LDEV管理テーブル210に追加するのではなく、LU管理テーブル200に追加してもよい。
図22Aは、本発明の第2の実施の形態の論理ボリュームリスト130の構成を示す図である。
論理ボリュームリスト130は、論理ボリュームごとにエントリが格納される。論理ボリュームリスト130は、論理ボリューム識別子131、LU識別子132、及びボリューム属性133を含む。
論理ボリューム識別子131は、論理ボリュームを計算機1で一意に識別するための番号又は文字列であり、例えば、VSN(Volume Serial Number)、ボリュームラベル、DEVN(DEVice Number)である。
LU識別子132は、論理ボリュームに対応するLU34のLU識別子である。ボリューム属性133は、論理ボリュームが省電力優先か性能優先かを示す情報である。
図22Bは、本発明の第2の実施の形態の論理ボリュームリストファイル139の一例を示す図である。
論理ボリュームリストファイル139は、ジョブ管理プログラム1000が一時ファイルの割当先として利用可能な論理ボリュームの一覧を定義したファイルである。論理ボリュームリストファイル139は、ストレージシステム2によって提供される論理ボリュームに格納される。なお、論理ボリュームリストファイル139は、実際には、論理ボリュームをマッピングしたLDEV33に格納されている。
論理ボリュームリストファイル139には、ボリューム属性133と、当該ボリューム属性133を有する一時ファイルの割当先として利用可能な論理ボリュームの論理ボリューム識別子131が記述される。
計算機1は、まず、ストレージシステム2によって提供される論理ボリュームに格納される論理ボリュームリストファイル139を読み出す。計算機1は、読み出された論理ボリュームリストファイル139を解析し、記述された内容を論理ボリュームリスト130に格納する。例えば、論理ボリュームリストファイル139の1行目を読み出して解析すると、論理ボリュームリスト130の論理ボリューム識別子131が“VOL01”である行と“VOL02”である行とを作成する。
ストレージシステム2では、ジョブ情報受信処理2100を実行するかわりに、事前に仮想LDEV35又は仮想LUに対して、性能優先か省電力優先かを設定する。そして、仮想LDEV管理テーブル210の一時用途属性213に性能優先であれば“I”を、省電力優先であれば“C”を記憶する。
計算機1のCPU11は、ジョブ管理プログラム1000を実行することによって、ジョブ情報送信処理1100及びジョブ実行前処理1200の代わりに、ジョブ情報読込処理1400及び一時ファイル割当処理1500を実行する。
図23は、本発明の第2の実施の形態のジョブ情報読込処理1400の手順を示すフローチャートである。本処理は、計算機1のCPU11がジョブ管理プログラム1000を処理することによって実行される。
ステップ1401及びステップ1402の処理は、図10に示したジョブ情報送信処理1100のステップ1101及びステップ1102の処理と同じである。
計算機1のCPU11は、利用者によって実行が指定されたジョブネットのジョブネット定義ファイル109をストレージシステム2などから読み出して解析し、解析結果をジョブネット定義情報100に格納する(ステップ1401)。
計算機1のCPU11は、ジョブネット定義情報100の各エントリのジョブ識別子102に対応したジョブのジョブ定義ファイル119をストレージシステム2などから読み出して解析し、解析された情報をジョブ定義情報110及びジョブファイル定義情報120に格納する(ステップ1402)。
計算機1のCPU11は、論理ボリュームリストファイル139を読み出し、主記憶装置10にメモリ領域を割り当てて、論理ボリュームリストファイル139を解析する。そして、論理ボリュームリストファイル139に記述されたボリューム属性133と論理ボリューム識別子131とを抽出し、論理ボリュームリスト130に格納する(ステップ1403)。
計算機1のCPU11は、論理ボリュームの識別子に基づいて、ストレージシステム2から論理ボリュームに対応するLU識別子を取得し、LU識別子132に格納する(ステップ1404)。
図24は、本発明の第2の実施の形態の一時ファイル割当処理1500の手順を示すフローチャートである。本処理は、計算機1のCPU11がジョブ管理プログラム1000を処理することによって実行される。
計算機1のCPU11は、まず、ジョブネット定義情報100を参照し、実行可能状態になったジョブを選択する。さらに、選択されたジョブの負荷属性112をジョブ定義情報110から抽出する(ステップ1501)。
計算機1のCPU11は、実行対象のジョブのジョブ識別子とジョブ識別子121とが一致するエントリをジョブファイル定義情報120から抽出する(ステップ1502)。
計算機1のCPU11は、抽出されたジョブファイル定義情報120のエントリにファイルタイプ122が“TEMP”であるエントリが含まれるか否かを判定する(ステップ1503)。
計算機1のCPU11は、抽出されたジョブファイル定義情報120のエントリにファイルタイプ122が“TEMP”であるエントリが含まれる場合には(ステップ1503の結果が「Yes」)、実行対象のジョブの負荷属性と実行対象のジョブに先行して実行されるジョブに負荷属性が一致するジョブが含まれるか否かを判定する(ステップ1504)。
計算機1のCPU11は、先行して実行されるジョブと負荷属性112の値が一致する場合には(ステップ1504の結果が「Yes」)、先行して実行されるジョブのファイルタイプの値が“TEMP”であるジョブファイル定義情報120のエントリを取得する。そして、取得されたエントリのLU識別子124を、実行対象のジョブであってファイルタイプの値が“TEMP”であるジョブファイル定義情報120のエントリに記録する(ステップ1505)。このように、先行して実行されるジョブの一時ファイルが割り当てられていた論理ボリュームに、実行対象のジョブの一時ファイルを割り当てることによって、当該論理ボリュームのスピンアップ状態を継続させることができる。
一方、計算機1のCPU11は、先行して実行されるジョブと負荷属性112の値が一致しない場合(ステップ1504の結果が「No」)、又は先行して実行されるジョブが複数存在する場合には、実行対象のジョブの負荷属性112の値が“I”(I/Oバウンドジョブ)であるか否かを判定する(ステップ1506)。
計算機1のCPU11は、実行対象のジョブの負荷属性112の値が“I”である場合には(ステップ1506の結果が「Yes」)、論理ボリュームリスト130からボリューム属性133の値が“性能優先”であるエントリを抽出する(ステップ1507)。一方、実行対象のジョブの負荷属性112の値が“C”(CPUバウンドジョブ)である場合には(ステップ1506の結果が「No」)、論理ボリュームリストからボリューム属性133の値が“省電力優先”であるエントリを抽出する(ステップ1508)。
計算機1のCPU11は、ステップ1507又はステップ1508の処理が終了すると、割り当てられた論理ボリュームに対応するLU識別子を、ジョブファイル定義情報120のLU識別子124に記録する(ステップ1509)。
計算機1のCPU11は、割り当てられた論理ボリュームをスピンアップさせる(ステップ1510)。具体的には、ストレージシステム2にスピンアップを要求するか、論理ボリュームに直接アクセスする。
計算機1のCPU11は、抽出されたエントリにファイルタイプ122の値が“PERM”であるエントリが含まれているか否かを判定する(ステップ1511)。抽出されたエントリにファイルタイプ122の値が“PERM”であるエントリが含まれている場合には(ステップ1511の結果が「Yes」)、LU識別子124によって特定される論理ボリュームのスピンアップをストレージシステム2に要求する(ステップ1512)。ステップ1207の処理において、抽出されたエントリのLU識別子124によって特定される論理ボリュームにアクセスすることによってスピンアップさせてもよい。
図25は、本発明の第2の実施の形態の仮想LU割当処理2600の手順を示すフローチャートである。
本処理は、ストレージシステム2のコントローラ部20に格納された制御プログラムを処理することによって実行される。また、本処理は、計算機1で実行されたジョブによって、論理ボリュームのアクセス要求がストレージシステム2のCHA21を介してストレージシステム2のコントローラ部20に受け付けられた後に実行される。
ストレージシステム2のコントローラ部20は、仮想LDEV35又は仮想LUの一時用途属性213の値が“I”であるか否かを判定する(ステップ2601)。
ストレージシステム2のコントローラ部20は、仮想LDEV35又は仮想LUの一時用途属性213の値が“I”である場合には(ステップ2601の結果が「Yes」)、必要なLDEV数を算出し、LDEV数258に算出された値を共有メモリ23に記録する(ステップ2602)。具体的には、仮想LUと計算機1との間の時間当たりの最大転送データ量と、ディスクドライブ31の時間当たりの最大転送データ量とに基づいて、ディスクドライブ31を複数割り当てることによって転送性能が向上するディスクドライブ31の上限を算出する。その後、図16に示した本発明の第1の実施の形態のI/OバウンドジョブのLDEV選択処理2400を実行し、一時ファイルを割り当てるLDEV33を選択する(ステップ2603)。
一方、ストレージシステム2のコントローラ部20は、仮想LDEV35又は仮想LUの一時用途属性213の値が“I”でない場合、すなわち、一時用途属性213の値が“C”の場合には(ステップ2601の結果が「No」)、後述するCPUバウンドジョブのLDEV選択処理2700を実行し、一時ファイルを割り当てるLDEV33を選択する(ステップ2604)。
最後に、ストレージシステム2のコントローラ部20は、選択された一つ又は複数のLDEV33のLDEV識別子をLDEV識別子リスト203に記録する(ステップ2605)。
図26は、本発明の第2の実施の形態のCPUバウンドジョブのLDEV選択処理の手順を示すフローチャートである。
ストレージシステム2のコントローラ部20は、C−LDEVをLDEV管理テーブル220から検索し、仮想LDEV35に割り当てる(ステップ2701)。なお、複数のLDEVが検索された場合には、スピンオンC−LDEVをスピンオフC−LDEVよりも優先して割り当てる。
次に、ストレージシステム2のコントローラ部20は、ステップ2701の処理で仮想LDEV35にLDEV33が割り当てられたか否かを判定する(ステップ2702)。ステップ2701の処理で仮想LDEV35にLDEV33が割り当てられた場合には(ステップ2702の結果が「Yes」)、本処理を終了する。
ストレージシステム2のコントローラ部20は、ステップ2701の処理で仮想LDEV35にLDEV33が割り当てられなかった場合には(ステップ2702の結果が「No」)、未割当LDEVをLDEV管理テーブル220から検索し、仮想LDEV35に割り当てる(ステップ2703)。複数のLDEVが検索された場合には、スピンオン未割当LDEVをスピンオフ未割当LDEVよりも優先して割り当てる。このとき、仮想LDEV35に割り当てられたLDEV33に対応するLDEV管理テーブル220のエントリについて、一時用途属性224を“C”を設定する。
さらに、ストレージシステム2のコントローラ部20は、ステップ2703の処理によって仮想LDEV35にLDEV33が割り当てられたか否かを判定する(ステップ2704)。ステップ2505の処理によって仮想LDEV35にLDEV33が割り当てられた場合には(ステップ2704の結果が「Yes」)、本処理を終了する。
ストレージシステム2のコントローラ部20は、ステップ2703の処理によって仮想LDEV35にLDEV33が割り当てられなかった場合には(ステップ2704の結果が「No」)、非一時LDEVをLDEV管理テーブル220から検索し、仮想LDEV35に割り当てる(ステップ2705)。複数のLDEVが検索された場合には、スピンオン非一時LDEVをスピンオフ非一時LDEVよりも優先する。ただし、検索されたLDEV33が、実行対象のジョブと同一のジョブネットに属するジョブによって使用されている場合には、恒久ファイルとの入出力競合が発生しないように、割り当て対象のLDEVから除外する。
本発明の第2の実施の形態のLU出力処理2800は、ステップ2802とステップ2804との間に、出力要求があった仮想LUにLDEV33が割り当てられているかを判定する処理が加えられる。言い換えると、仮想LDEV管理テーブル210のLDEV識別子リスト212に値が設定されているかを判定する。そして、出力要求のあった仮想LUにLDEV33が割り当てられていない場合には、図25に示した仮想LU割り当て処理2600を実行する。以上の処理を除いて、図18に示した第1の実施の形態の処理と同じである。
本発明の第2の実施の形態のジョブ終了処理1300は、ステップ1302の処理の代わりに、論理ボリュームに対応するLUに対してLDEV33の解放をストレージシステム2に要求する。他の処理については、図19に示した第1の実施の形態の処理と同じである。
本発明の第2の実施の形態のLDEV解放処理は、ジョブ情報管理テーブル250を使用しないため、ステップ2906の処理を実行しない点を除き、図20に示した第1の実施の形態の処理と同じである。
本発明の第2の実施の形態の回転制御処理3000は、図21と同じである。
本発明の第2の実施の形態によれば、本発明の第1の実施の形態と同様に、計算機1で実行されるジョブによってアクセスされる一時ファイルを格納するディスクドライブを、処理効率を維持しつつ、電力消費量を低減するように選択することができ、ストレージシステムの省電力化を図ることができる。
本発明の第2の実施の形態によれば、CPUバウンドであるジョブを実行する場合に、他のジョブで使用されているCPUバウンドジョブで使用されているLDEV33を選択することによって、ストレージシステム2の省電力化を図ることができる。
本発明の第1の実施の形態の計算機システムのハードウェア構成を示す図である。 本発明の第1の実施の形態の回転状態管理テーブルの構成を示す図である。 本発明の第1の実施の形態の論理ユニットと論理デバイスとの関係の一例を示す図である。 本発明の第1の実施の形態のLU管理テーブルの構成を示す図である。 本発明の第1の実施の形態の仮想LDEV管理テーブルの構成を示す図である。 本発明の第1の実施の形態のLDEV管理テーブルの構成を示す図である。 本発明の第1の実施の形態のアドレスマッピング管理テーブルの構成を示す図である。 本発明の第1の実施の形態のジョブネット定義情報の構成を示す図である。 本発明の第1の実施の形態のジョブネット定義ファイルの一例を示す図である。 本発明の第1の実施の形態のジョブ定義情報の構成を示す図である。 本発明の第1の実施の形態のジョブファイル定義情報の構成を示す図である。 本発明の第1の実施の形態のジョブ定義ファイルの一例を示す図である。 本発明の第1の実施の形態のジョブ情報送信処理の手順を示すフローチャートである。 本発明の第1の実施の形態のジョブ情報管理テーブルの構成を示す図である。 本発明の第1の実施の形態のジョブ情報受信処理の手順を示すフローチャートである。 本発明の第1の実施の形態のジョブ実行前処理の手順を示すフローチャートである。 本発明の第1の実施の形態の仮想LU割当処理の手順を示すフローチャートである。 本発明の第1の実施の形態のLDEV数算出処理の手順を示すフローチャートである。 本発明の第1の実施の形態のI/OバウンドジョブのLDEV選択処理の手順を示すフローチャートである。 本発明の第1の実施の形態のCPUバウンドジョブのLDEV選択処理の手順を示すフローチャートである。 本発明の第1の実施の形態のLU出力処理の手順を示すフローチャートである。 本発明の第1の実施の形態のジョブ終了処理の手順を示すフローチャートである。 本発明の第1の実施の形態のLDEV解放処理の手順を示すフローチャートである。 本発明の第1の実施の形態のディスクドライブの回転制御処理の手順を示すフローチャートである。 本発明の第2の実施の形態の論理ボリュームリストの構成を示す図である。 本発明の第2の実施の形態の論理ボリュームリストファイルの一例を示す図である。 本発明の第2の実施の形態のジョブ情報読込処理の手順を示すフローチャートである。 本発明の第2の実施の形態の一時ファイル割当処理の手順を示すフローチャートである。 本発明の第2の実施の形態の仮想LU割当処理の手順を示すフローチャートである。 本発明の第2の実施の形態のCPUバウンドジョブのLDEV選択処理の手順を示すフローチャートである。
符号の説明
1 計算機
2 ストレージシステム
4 通信ネットワーク
9 計算機システム
10 主記憶装置
11 CPU
12 入出力インターフェース
20 コントローラ部
21 CHA
22 DKA
23 共有メモリ
30 ストレージ部
31 ディスクドライブ
32 RAIDグループ
33 論理デバイス(LDEV)
34 論理ユニット(LU)
35 仮想LDEV
100 ジョブネット定義情報
110 ジョブ定義情報
120 ジョブファイル定義情報
130 論理ボリュームリスト
200 LU管理テーブル
210 仮想LDEV管理テーブル
220 LDEV管理テーブル
230 アドレスマッピング管理テーブル
240 回転状態管理テーブル
250 ジョブ情報管理テーブル
1000 ジョブ管理プログラム

Claims (19)

  1. プログラムを実行することによってデータを処理するジョブが実行される計算機に接続されるストレージシステムであって、
    前記計算機に接続されるインターフェースと、前記インターフェースに接続されるストレージコントローラと、前記計算機によって読み書きされるデータを格納するディスクドライブと、を備え、
    前記ストレージコントローラは、
    前記ディスクドライブの記憶領域を論理ボリュームに割り当てることによって前記計算機に提供し、
    前記ディスクドライブの回転を制御し、
    前記ジョブが実行される場合には、前記ジョブの実行順序及び前記ジョブの負荷属性を含むジョブ情報を前記計算機から受信し、
    前記実行されるジョブによって一時的に使用されるファイルを格納するための論理ボリュームを前記計算機から要求された場合には、前記記憶領域が割り当てられていない論理ボリュームを選択し、
    前記ジョブの実行順序及び前記ジョブの負荷属性の少なくとも一方に基づいて、前記選択された論理ボリュームに割り当てる記憶領域を選択し、
    前記選択された記憶領域を前記選択された論理ボリュームに割り当て、
    前記選択された論理ボリュームを前記計算機に通知することを特徴とするストレージシステム。
  2. 前記負荷属性は、前記計算機による演算処理の負荷が大きいことを示す第1の負荷属性と、前記論理ボリュームにデータを読み書きする負荷が大きいことを示す第2の負荷属性と、を含むことを特徴とする請求項1に記載のストレージシステム。
  3. 前記ストレージコントローラは、前記実行されるジョブが前記第1の負荷属性を有する場合には、前記実行されるジョブと異なるジョブであって、前記第1の負荷属性を有するジョブによって一時的に使用されるファイルを格納する論理ボリュームに割り当てられた記憶領域を、前記選択された記憶領域とすることを特徴とする請求項2に記載のストレージシステム。
  4. 前記ジョブは、一連の業務処理を実行するジョブの集合に含まれ、
    前記ストレージコントローラは、
    前記実行されるジョブが前記第1の負荷属性を有する場合には、前記集合に属するジョブであって、同時に実行される可能性が高いジョブによってアクセスされる各論理ボリュームに割り当てられる記憶領域の数の和の最大値を算出し、
    前記実行されるジョブと同時に実行される可能性が高いジョブであって、前記第2の負荷属性を有するジョブによってアクセスされる論理ボリュームに割り当てられる記憶領域の数の和を算出し、
    前記算出された最大値と前記算出された記憶領域の数の和との差が1よりも大きい場合には、前記第1の負荷属性を有するジョブによって一時的に使用されるファイルを格納する論理ボリュームに割り当てられた記憶領域よりも、いずれの論理ボリュームにも割り当てられていない記憶領域を優先して選択することを特徴とする請求項3に記載のストレージシステム。
  5. 前記ストレージコントローラは、前記実行されるジョブが前記第2の負荷属性を有する場合には、いずれの論理ボリュームにも割り当てられていない記憶領域を、前記選択された記憶領域とすることを特徴とする請求項2に記載のストレージシステム。
  6. 前記ストレージコントローラは、前記選択された記憶領域を前記選択された論理ボリュームに割り当てる場合に、前記選択された記憶領域を提供するディスクドライブの回転を開始することを特徴とする請求項1に記載のストレージシステム。
  7. 前記ストレージコントローラは、前記選択された記憶領域を前記選択された論理ボリュームに割り当てる場合に、前記選択された記憶領域を提供するディスクドライブの回転を停止させないように制御することを特徴とする請求項1に記載のストレージシステム。
  8. 前記ストレージコントローラは、回転状態のディスクドライブによって提供される記憶領域を、非回転状態のディスクドライブによって提供される記憶領域よりも優先して選択することを特徴とする請求項1に記載のストレージシステム。
  9. 前記ストレージコントローラは、
    前記実行順序に基づいて、前記実行されるジョブの後に実行されるジョブを特定し、
    前記特定されたジョブが実行された場合にアクセスされる論理ボリュームに割り当てられる記憶領域を提供するディスクドライブの回転を開始することを特徴とする請求項1に記載のストレージシステム。
  10. 前記ストレージコントローラは、
    前記実行順序に基づいて、前記実行されるジョブの後に実行されるジョブを特定し、
    前記特定されたジョブが実行された場合にアクセスされる論理ボリュームに割り当てられる記憶領域を提供するディスクドライブの回転が停止しないように制御することを特徴とする請求項1に記載のストレージシステム。
  11. プログラムを実行することによってデータを処理するジョブが実行され、ストレージシステムに接続される計算機であって、
    前記ストレージシステムは、
    回転を制御可能なディスクドライブを備え、
    前記ディスクドライブの記憶領域を論理ボリュームに割り当てることによって前記計算機に提供し、
    前記計算機は、前記ストレージシステムに接続されるインターフェースと、前記インターフェースに接続されるプロセッサと、前記プロセッサに接続されるメモリと、を備え、
    前記メモリは、
    前記論理ボリュームが処理性能を優先するか電力消費量を優先するかを示す用途属性を含む論理ボリューム情報を記憶し、
    前記ジョブの実行順序及び前記ジョブの負荷属性を含むジョブ情報を記憶し、
    前記プロセッサは、
    前記ジョブを実行する場合には、前記ジョブの負荷属性及び前記論理ボリュームの用途属性に基づいて、前記ジョブが実行された場合に一時的に使用されるファイルを格納するための論理ボリュームを選択し、
    前記選択された論理ボリュームに対する記憶領域の割当要求を、前記選択された論理ボリュームの用途属性とともに前記ストレージシステムに送信し、
    前記ジョブの実行が完了した場合には、前記ジョブの実行が完了したことを前記ストレージシステムに通知することを特徴とする計算機。
  12. 前記プロセッサは、
    前記ジョブ情報に含まれる実行順序に基づいて、前記実行されるジョブの後に実行されるジョブを特定し、
    前記特定されたジョブによってアクセスされるすべての論理ボリュームを抽出し、
    前記抽出された論理ボリュームを前記ストレージシステムに通知し、
    前記通知された論理ボリュームに割り当てられる記憶領域を提供するディスクドライブの回転を開始するように、前記ストレージシステムに要求することを特徴とする請求項11に記載の計算機。
  13. 前記計算機は、実行待ちのジョブを格納するジョブキューを備え、
    前記プロセッサは、
    前記ジョブの実行順序に基づいて、前記ジョブキューにジョブを格納し、
    前記ジョブキューから実行待ちのジョブが取り出される前に、前記実行待ちのジョブによってアクセスされるすべての論理ボリュームを抽出し、
    前記実行待ちのジョブによってアクセスされるすべての論理ボリュームに割り当てられる記憶領域を提供するディスクドライブの回転を開始するように、前記ストレージシステムに要求することを特徴とする請求項11に記載の計算機。
  14. プログラムを実行することによってデータを処理するジョブが実行される計算機と、前記計算機によって読み書きされるデータを格納するストレージシステムを含む計算機システムであって、
    前記計算機は、前記ストレージシステムに接続される第1インターフェースと、前記第1インターフェースに接続されるプロセッサと、前記プロセッサに接続されるメモリと、を備え、
    前記ストレージシステムは、前記計算機に接続される第2インターフェースと、前記第2インターフェースに接続されるストレージコントローラと、前記計算機によって読み書きされるデータを格納するディスクドライブと、を備え、
    前記ストレージコントローラは、
    前記ディスクドライブの記憶領域を論理ボリュームに割り当てることによって前記計算機に提供し、
    前記ディスクドライブの回転を制御し、
    前記メモリは、
    前記論理ボリュームが処理性能を優先するか電力消費量を優先するかを示す用途属性を含む論理ボリューム情報を記憶し、
    前記ジョブの実行順序及び前記ジョブの負荷属性を含むジョブ情報を記憶し、
    前記プロセッサは、
    前記ジョブを実行する場合には、前記ジョブの負荷属性及び前記論理ボリュームの用途属性に基づいて、前記ジョブを実行する場合に一時的に使用されるファイルを格納するための論理ボリュームを選択し、
    前記選択された論理ボリュームに対する記憶領域の割当要求を、前記選択された論理ボリュームの用途属性とともに前記ストレージシステムに送信し、
    前記ストレージコントローラは、
    前記選択された論理ボリュームに対する記憶領域の割当要求を受信すると、前記選択された論理ボリュームの用途属性に基づいて、前記選択された論理ボリュームに割り当てる記憶領域を選択し、
    前記選択された記憶領域を前記選択された論理ボリュームに割り当て、
    前記プロセッサは、前記ジョブの実行が完了した場合に、前記ジョブの実行が完了したことを前記ストレージシステムに通知し、
    前記ストレージコントローラは、前記ジョブが完了したことを通知されると、前記選択された論理ボリュームに割り当てられた記憶領域を開放することを特徴とする計算機システム。
  15. 前記負荷属性は、前記計算機による演算処理の負荷が大きいことを示す第1の負荷属性と、前記論理ボリュームにデータを読み書きする負荷が大きいことを示す第2の負荷属性と、を含むことを特徴とする請求項14に記載の計算機システム。
  16. 前記ストレージコントローラは、前記実行されるジョブが前記第1の負荷属性を有する場合には、前記実行されるジョブと異なるジョブであって、前記第1の負荷属性を有するジョブによって一時的に使用されるファイルを格納する論理ボリュームに割り当てられた記憶領域を、前記選択された記憶領域とすることを特徴とする請求項15に記載の計算機システム。
  17. 前記ジョブは、一連の業務処理を実行するジョブの集合に含まれ、
    前記ストレージコントローラは、
    前記実行されるジョブが前記第1の負荷属性を有する場合には、前記集合に属するジョブであって、同時に実行される可能性が高いジョブによってアクセスされる各論理ボリュームに割り当てられる記憶領域の数の和の最大値を算出し、
    前記実行されるジョブと同時に実行される可能性が高いジョブであって、前記第2の負荷属性を有するジョブによってアクセスされる論理ボリュームに割り当てられる記憶領域の数の和を算出し、
    前記算出された最大値と前記算出された記憶領域の数の和との差が1よりも大きい場合には、前記第1の負荷属性を有するジョブによって一時的に使用されるファイルを格納する論理ボリュームに割り当てられた記憶領域よりも、いずれの論理ボリュームにも割り当てられていない記憶領域を優先して選択することを特徴とする請求項16に記載の計算機システム。
  18. 前記ストレージコントローラは、前記実行されるジョブが前記第2の負荷属性を有する場合には、いずれの論理ボリュームにも割り当てられていない記憶領域を、前記選択された記憶領域とすることを特徴とする請求項15に記載の計算機システム。
  19. 前記プロセッサは、
    前記ジョブ情報に含まれる実行順序に基づいて、前記実行されるジョブの後に実行されるジョブを特定し、
    前記特定されたジョブによってアクセスされるすべての論理ボリュームを抽出し、
    前記抽出された論理ボリュームを前記ストレージシステムに通知し、
    前記ストレージコントローラは、前記通知された論理ボリュームに割り当てられる記憶領域を提供するディスクドライブの回転を開始することを特徴とする請求項14に記載の計算機システム。
JP2007219947A 2007-08-27 2007-08-27 ストレージシステム、計算機及び計算機システム Pending JP2009053921A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2007219947A JP2009053921A (ja) 2007-08-27 2007-08-27 ストレージシステム、計算機及び計算機システム
US11/971,466 US8136116B2 (en) 2007-08-27 2008-01-09 Device allocation utilizing job information, storage system with a spin control function, and computer thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007219947A JP2009053921A (ja) 2007-08-27 2007-08-27 ストレージシステム、計算機及び計算機システム

Publications (1)

Publication Number Publication Date
JP2009053921A true JP2009053921A (ja) 2009-03-12

Family

ID=40409575

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007219947A Pending JP2009053921A (ja) 2007-08-27 2007-08-27 ストレージシステム、計算機及び計算機システム

Country Status (2)

Country Link
US (1) US8136116B2 (ja)
JP (1) JP2009053921A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014167716A1 (ja) * 2013-04-12 2014-10-16 株式会社日立製作所 計算機システムの管理システム及び管理方法

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8631200B2 (en) 2009-03-20 2014-01-14 Netapp, Inc. Method and system for governing an enterprise level green storage system drive technique
US9507524B1 (en) 2012-06-15 2016-11-29 Qlogic, Corporation In-band management using an intelligent adapter and methods thereof
JP2014002639A (ja) * 2012-06-20 2014-01-09 Fujitsu Ltd ストレージシステム及びストレージシステムの消費電力制御方法
US9454305B1 (en) 2014-01-27 2016-09-27 Qlogic, Corporation Method and system for managing storage reservation
US9423980B1 (en) 2014-06-12 2016-08-23 Qlogic, Corporation Methods and systems for automatically adding intelligent storage adapters to a cluster
US9436654B1 (en) * 2014-06-23 2016-09-06 Qlogic, Corporation Methods and systems for processing task management functions in a cluster having an intelligent storage adapter
US9477424B1 (en) 2014-07-23 2016-10-25 Qlogic, Corporation Methods and systems for using an intelligent storage adapter for replication in a clustered environment
US9460017B1 (en) 2014-09-26 2016-10-04 Qlogic, Corporation Methods and systems for efficient cache mirroring
US9483207B1 (en) 2015-01-09 2016-11-01 Qlogic, Corporation Methods and systems for efficient caching using an intelligent storage adapter

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2625382B2 (ja) 1993-07-23 1997-07-02 日本電気株式会社 ファイル割り当てシステム
JP2002132549A (ja) * 2000-10-23 2002-05-10 Hitachi Ltd 論理ボリューム管理方法、これを利用したサービスおよびそのサービスを記録したコンピュータ読み取り可能な記録媒体
US6732241B2 (en) * 2001-09-07 2004-05-04 Hewlett-Packard Development Company, L.P. Technique for migrating data between storage devices for reduced power consumption
JP4518541B2 (ja) * 2004-01-16 2010-08-04 株式会社日立製作所 ディスクアレイ装置及びディスクアレイ装置の制御方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014167716A1 (ja) * 2013-04-12 2014-10-16 株式会社日立製作所 計算機システムの管理システム及び管理方法
US9442765B2 (en) 2013-04-12 2016-09-13 Hitachi, Ltd. Identifying shared physical storage resources having possibility to be simultaneously used by two jobs when reaching a high load

Also Published As

Publication number Publication date
US8136116B2 (en) 2012-03-13
US20090064161A1 (en) 2009-03-05

Similar Documents

Publication Publication Date Title
JP2009053921A (ja) ストレージシステム、計算機及び計算機システム
JP5502232B2 (ja) ストレージシステム、及びその制御方法
EP1837751B1 (en) Storage system, storage extent release method and storage apparatus
US7613896B2 (en) Storage area dynamic assignment method
JP4438457B2 (ja) 記憶領域割当方法、システム及び仮想化装置
US8051243B2 (en) Free space utilization in tiered storage systems
JP5439581B2 (ja) ストレージシステム、ストレージ装置、ストレージシステムの記憶領域の最適化方法
JP5981563B2 (ja) 情報記憶システム及び情報記憶システムの制御方法
US20150153961A1 (en) Method for assigning storage area and computer system using the same
US8296543B2 (en) Computer system management apparatus and management method for the computer system
JP2014013592A (ja) 空間最適化ブロックデバイスのためのシステムソフトウェアインタフェース
JP4684864B2 (ja) 記憶装置システム及び記憶制御方法
JP2009238114A (ja) ストレージ管理方法、ストレージ管理プログラム、ストレージ管理装置およびストレージ管理システム
JP2013531283A (ja) ストレージの仮想化機能と容量の仮想化機能との両方を有する複数のストレージ装置を含んだストレージシステム
JP2007226557A (ja) 計算機システム及び管理計算機とストレージシステム並びに記憶領域割当量制御方法
WO2014155555A1 (ja) 管理システム及び管理プログラム
JP2008065445A (ja) 同一データを纏める事で格納領域を節約する計算機システム、ストレージシステム及びそれらの制御方法
JP5130169B2 (ja) 仮想化ボリュームへの物理ボリューム領域割り当方法及びストレージ装置
US20080109630A1 (en) Storage system, storage unit, and storage management system
JP4871758B2 (ja) ボリューム割当方式
US9239681B2 (en) Storage subsystem and method for controlling the storage subsystem
JP2012146280A (ja) 記憶操作のためのキュー及び作業負荷による選択インタフェースの方法及び装置
JP4997063B2 (ja) 計算機の起動方法及び計算機システム
WO2017163322A1 (ja) 管理計算機、および計算機システムの管理方法