JP4469306B2 - 計算機システム、管理サーバ - Google Patents
計算機システム、管理サーバ Download PDFInfo
- Publication number
- JP4469306B2 JP4469306B2 JP2005133681A JP2005133681A JP4469306B2 JP 4469306 B2 JP4469306 B2 JP 4469306B2 JP 2005133681 A JP2005133681 A JP 2005133681A JP 2005133681 A JP2005133681 A JP 2005133681A JP 4469306 B2 JP4469306 B2 JP 4469306B2
- Authority
- JP
- Japan
- Prior art keywords
- server
- blade
- unit
- cpu
- servers
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000004891 communication Methods 0.000 claims description 47
- 230000008707 rearrangement Effects 0.000 claims description 24
- 238000007726 management method Methods 0.000 description 129
- 230000006870 function Effects 0.000 description 105
- 238000012545 processing Methods 0.000 description 99
- 238000000034 method Methods 0.000 description 65
- 230000008569 process Effects 0.000 description 56
- 238000013341 scale-up Methods 0.000 description 45
- 238000010586 diagram Methods 0.000 description 37
- 238000003860 storage Methods 0.000 description 37
- 238000006243 chemical reaction Methods 0.000 description 33
- 238000001514 detection method Methods 0.000 description 25
- 238000009826 distribution Methods 0.000 description 22
- 239000000835 fiber Substances 0.000 description 21
- 238000012423 maintenance Methods 0.000 description 16
- 230000007246 mechanism Effects 0.000 description 16
- 238000012544 monitoring process Methods 0.000 description 13
- 238000004364 calculation method Methods 0.000 description 11
- 230000015556 catabolic process Effects 0.000 description 11
- 238000006731 degradation reaction Methods 0.000 description 11
- 230000008859 change Effects 0.000 description 8
- 238000005457 optimization Methods 0.000 description 8
- 239000003086 colorant Substances 0.000 description 5
- 230000007423 decrease Effects 0.000 description 4
- 238000013468 resource allocation Methods 0.000 description 4
- 230000005856 abnormality Effects 0.000 description 3
- 230000003247 decreasing effect Effects 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 239000000758 substrate Substances 0.000 description 3
- 230000004913 activation Effects 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 239000000203 mixture Substances 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 230000001174 ascending effect Effects 0.000 description 1
- 230000004397 blinking Effects 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000000737 periodic effect Effects 0.000 description 1
- 238000013439 planning Methods 0.000 description 1
- 238000012384 transportation and delivery Methods 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/50—Allocation of resources, e.g. of the central processing unit [CPU]
- G06F9/5083—Techniques for rebalancing the load in a distributed system
Landscapes
- Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computer And Data Communications (AREA)
- Debugging And Monitoring (AREA)
Description
として、ブレードシステムと呼ばれるサーバシステムが知られている。ブレードシステム
は、1または複数の基板(CPUブレード)により構成されるサーバ(以下、ブレードまたはブレードサーバという)の複数台を1つの筐体に収納して構成される。そして、1つの筐体に収納される複数台のブレードサーバは、複数の機能の異なるサーバを含んでいる。
術は、これまで知られていない。
成されているが、それらのブレードサーバが、どのような機能を持っているか外見から一
目で判るように構成されていないのが一般的であり、そのため、保守を行う際に、保守者
が誤って目的と異なるブレードサーバの点検をしてしまう可能性があるという問題点を有
している。また、従来のブレードシステム(計算機システム)は、搭載されているブレードサーバが故障等により停止した場合、ブレードサーバの機能毎の負荷の均衡が取れなくなり、負荷が大きくなったブレードサーバでのサービスを充分に行うことができなくなる等により、ビジネスチャンスを失う可能性も生じるという問題点を有している。
いるブレードサーバがどのような機能を持っているか外見から一目で判るようにし、ブレ
ードシステムに搭載されたブレードサーバの配置変換を可能にすると共に、故障によって
生じた負荷の変化を感知しブレードサーバの機能の変更によるシステム構成を変化させる
ことを可能とすることにある。また、本発明の目的は、好適なスケールアップを実現することにある。
された機能の異なる複数種類のサーバを含む複数台のサーバにより構成されるブレードシ
ステムと、該ブレードシステムを管理する管理サーバとを備え、該管理サーバが、複数の
サーバのそれぞれの機能を変更する手段を備えて構成することにより達成される。
能の異なる複数種類のサーバを含む複数台のサーバにより構成されるブレードシステムと
、該ブレードシステムを管理する管理サーバとを備え、該管理サーバが、搭載された複数
のサーバをグループ化して管理する手段と、複数のサーバの筐体内での配置状態を管理す
る手段と、複数のサーバのそれぞれの機能を変更すると共に、機能を入れ替えることによ
り筐体内でのサーバの配置を変更する配置変更手段とを備え、該配置変更手段が、複数の
サーバの機能毎に、各サーバを筐体内で整列させるように構成することにより達成される
。
る機能の異なる複数種類のサーバを含む複数台のサーバにより構成されるブレードシステ
ムと、該ブレードシステムを管理する管理サーバとを備え、該管理サーバが、搭載された
複数のサーバをグループ化して管理し、複数のサーバの筐体内での配置状態を管理し、複
数のサーバのそれぞれの機能を変更すると共に、機能を入れ替えることにより筐体内での
サーバの配置を変更し、この配置の変更により、複数のサーバの機能毎に、各サーバを筐
体内で整列させるようにすることにより達成される。
の容易性の向上を図ることができる。また、本発明によれば、1つのサーバが故障したこ
とにより搭載された他のサーバの負荷の不均衡が生じた場合に、サーバの機能を自動的に
入れ替えることができるので、保守が行われるまでの間ブレードシステムの処理能力を最
大限に活用することが可能となる。また、本発明によれば、機能を割り当てる計算機間の関係が密結合である(通信速度が高速でないと、処理性能の低下が大きい)場合に、2以上の計算機間の通信速度が速い配置の計算機に機能を割り当てる。また、それができないときには、疎結合の(通信速度が高速でなくとも、処理性能の低下が少ない)機能を他の計算機に再配置するので、スケールアップの自由度を向上し、業務(機能)をCPUブレード(計算機)に割当てることができる。
に説明する。
図1は本発明の一実施形態によるサーバシステムの構成例を示すブロック図、図2はブ
レードサーバの構成例を示すブロック図である。図1、図2において、1はブレードシス
テム(以下、ブレードと略す)、2は記憶装置、3はブレードサーバ、4はサーバ種別管理テーブル、5はブレードサーバ管理テーブル、6はサーバイメージ記憶装置、7は管理サーバ、8、11は通信制御部、9はサーバ種別検知部、10は記憶装置インターフェース部、13はイメージ配信部、14はイメージ収集部、15は自動配信スケジュール部、17はサーバ負荷検知部、18はサーバ負荷計算部、20はSANコンフィグ部、21はグループ作成部、22はLED点灯部、23は起動パラメータ設定部、24は表示装置である。
を含んでいる。また、ブレード1は、図示しない負荷分散装置を備えており、機能毎に分
類される同種類ブレードサーバ3が全て均等に負荷分散されるように制御されている。な
お、図1には、ブレード1として、1つの筐体に複数のブレードサーバ3を収納したものとして1つのブレードだけ示しているが、ブレード1は、複数段の棚を持つ筐体の各段に複数設けられていてもよい。ブレードシステムを複数段で構成する場合、1つの段全体で1つのブレード1を構成しても、あるいは、複数段をまとめて1つのブレード1を構成してもよい。さらに、1つの段に含まれる複数のブレードサーバを複数の群に分けて、各群をそれぞれ1つのブレード1として構成してもよい。機能をまとめたり、近接するブレードサーバに割り当てたりすることにより、通信時間を短くし、処理能力を向上することもできる。
されており、ブレード1の全てのブレードサーバ3を管理するものであるが、ブレードサ
ーバ3の1つに構成されていてよい。そして、管理サーバ7は、ブレードサーバ3との通
信を制御する通信制御部11、ブレードサーバ3にサーバイメージ(モジュールや、プログラムイメージ、システムイメージ、ディスクイメージ、ボリュームイメージともいう)を配信するイメージ配信部13、ブレードサーバ3からイメージを収集するイメージ収集部14、本実施形態によりブレードサーバ3のブレード1内での配置の変更等の処理を行う自動配信スケジュール部15、各ブレードサーバ3の負荷を計算するサーバ負荷計算部18、記憶装置2がSANで接続される場合のSANのコンフィグレーションを設定するSANコンフィグ部20、ブレードサーバ3をグループ化するグループ作成部21、起動パラメータ設定部23、複数のブレードサーバ3の配置状態を表示する表示装置24、複数のブレードサーバ3のそれぞれの機能種別を管理するサーバ種別管理テーブル4、複数のブレードサーバ3のブレード内での配置位置等を管理するブレードサーバ管理テーブル5、ブレードサーバ3に配信するサーバイメージを保持するサーバイメージ記憶装置6を備えて構成される。各ブレードサーバは、それぞれに割付けられたサーバイメージに基づいて処理を実行する。
制御部8、自ブレードサーバの機能種別を検知するサーバ種別検知部9、記憶装置2との
インタフェースである記憶装置インタフェース部10、自ブレードサーバの負荷状態を検
知するサーバ負荷検知部11、自ブレードサーバの機能種別に対応する色のLED、障害
等の状態を示すLEDを点灯制御するLED点灯部22、図示しない機能種別毎に対応す
る色で発光させられる複数のLED及び障害等の状態を示すLEDを備えて構成されてい
る。
グループ作成部21で作成したグループに登録することによりブレードサーバ3の管理を
行う。また、管理サーバ7内の自動配信スケジュール部15は、本実施形態によるブレードサーバ3の配置(デプロイ)、機能種別の変更を行うものであり、この処理の詳細については後述する。なお、デプロイ(deploy)に関する具体的な技術内容については、特許文献1に記載されている。
内の通信制御部8、管理サーバ内の通信制御部11を介して通信を行い、自ブレードサー
バ3にインストールされているモジュール(例えば、SMTPサーバやHTTPサーバを
示す)を検知する。
制御部8を介して対象のブレードサーバ3へサーバイメージ記憶装置6に記憶されている
イメージを配信する。対象のブレードサーバ3は、イメージが配信された後、配信された
イメージの元の状態を復元し、起動パラメータ設定部23により設定された対象サーバ固
有の情報を読み込みOSを起動する。本発明の実施形態において、イメージとはそのサー
バが接続されている記憶装置2のバックアップイメージを指す。管理サーバ7内のイメー
ジ収集部14は、通信制御部11、対象ブレードサーバ3の通信制御部8を介して対象の
ブレードサーバ3のイメージを収集し、サーバイメージ記憶装置9に記憶する。
定時間停止しなければ実行することができない。すなわち、イメージの収集、配信時にお
いて、対象サーバは停止状態になる。ブレードサーバ3内のサーバ負荷検知部17は、自
ブレードサーバ3の負荷を測定する。ここでいう負荷は、例えば、CPU使用率であって、ある一定の時間間隔で測定されたCPU使用率の平均値である。また、負荷は、要求を処理したレスポンス時間やその平均値を利用してもよい。ここで得られた測定結果は、通信制御部8、管理サーバ7の通信制御部11を介して管理サーバ7に送られる。
検知部17で得た測定結果を平均する機能と、ある機能種別のサーバに増減がある場合、
その機能種別のサーバが増減したと仮定した場合の負荷の平均を予測計算する機能とを有
する。予測計算の方法は、例えば、機能種別毎の負荷の合計値をサーバの増減を仮定した
ときのその機能種別のサーバ数で割る等の方法であってよい。管理サーバ7内のグループ
作成部21は、グループとして管理したいブレードサーバのグループを作成し、作成したグループのそれぞれに、グループとして管理したいブレード1あるいはブレードサーバ3を登録する。1つのグループに複数のブレードあるいはブレードサーバを登録することにより、グループとして、ブレードあるいはブレードサーバを管理することができる。
より接続されている場合に、ファイバチャネルスイッチのコンフィグレーションを作成し
、作成したコンフィグレーションをファイバチャネルスイッチに設定する機能を有する。
ブレードサーバ3内のLED点灯部22は、ブレードサーバの起動時に、自ブレードサー
バがどの機能種別に属するかを判断し、その機能種別に対応するLEDを図3に示して後
述する表から判別して点灯させる。管理サーバ7内の起動パラメータ設定部23は、イメ
ージ配信部13での処理中にイメージ配信対象サーバにおける固有の情報を参照するが、
その各ブレードサーバ固有の情報を設定する機能を有する。各処理部は、プログラムや、オブジェクト、プロセス、スレッド、ハードウェアでも実現できる。
ついて説明する。
別を管理するためのものであり、ブレードサーバの番号201、その機能種別202、L
EDの対応する点灯色を示すLED203及び検知モジュール1〜n(204、205)
により構成される。機能種別202は、例えば、WEBサーバ、メールサーバというよう
にそのサーバの機能を表す。LED203は、その機能に対応して点灯させるLEDの色
を表す。検知モジュール204、205は、例えば、SMTPサーバ、POPサーバ、H
TTPサーバのようにサーバ種別検知部により検知されたモジュールがどの機能に属する
ものかを判断するために用いられる。同じ機能を持つサーバ、例えば、WEBサーバであ
っても、異なるモジュールを持つ場合もあり、検知モジュール1〜n等として区別されて
登録される。
れについて説明する。
の配置位置等を管理するためのものであり、筐体内での収用位置を示すブレードサーバの
番号301、ブレード番号302、機能種別303、そのサーバが稼動中(act)か否
(non act)かを示す状態304、実行可能な機能305により構成される。ブレ
ード番号302は、グループによって登録された全てのブレードサーバのブレード番号、
ブレードサーバ番号により構成される。機能種別303は、ブレード番号に対応するサー
バが持つ種別を表し、図3で説明した202に対応する。実行可能な機能305には、記
憶装置2がDASであってブレードサーバに直接接続されている場合に、記憶装置2内に
実行可能に格納されているモジュール名が格納されている。なお、故障と診断されたブレ
ードサーバは、このテーブルに登録されない。
順番で、そのブレードを格納している筐体に収納されているブレードサーバの順番に等し
いものとする。図4に示すブレードサーバ管理テーブル5の例は、ブレードサーバ3を4
枚備えて構成されるブレードの2つを1つのグループとして登録した場合の例である。こ
の場合に、1つの筐体に2つのブレードが構成されることになるが、システム全体が複数
の筐体で構成される場合、1つの段の筐体に収納される全てのブレードサーバにより1つ
のブレードを構成し、そのブレードの複数を1つのグループとして登録するようにしても
よい。また、機能種別303において、ある種別が決定されると、その機能種別のブレー
ドサーバに含まれる機能やアプリケーションは、グループによって一意に決定される。例
えば、図4に示す例において、種別がWEBサーバとなっているブレードサーバは、全て同等の機能及びアプリケーションしか実行しない。
明するフローチャートであり、次に、これについて説明する。ここで説明する例は、図3
に示される機能がWEBサーバ、メールサーバに限られるものとした場合の例である。こ
の処理は、障害等によりブレードサーバの1つが停止したとき、あるいは、定期的に起動
される。
始されたのか否かを判定し、1つのブレードサーバの停止によりこの処理が開始された場
合、図4に示すテーブル5の停止したサーバを削除して、テーブル5を更新する(ステッ
プ401、402)。
停止したブレードサーバと同一の機能を持った同種類のブレードサーバに停止したブレー
ドサーバの処理を分散させて実行するように負荷分散させるので、管理サーバ7内のサー
バ負荷計算部17は、同種類のブレードサーバのサーバ負荷検知部17からブレードサー
バの負荷状態を収集し、各サーバの平均負荷を測定して、同種類のブレードサーバの負荷
が多くなり過ぎているか否か、すなわち、負荷の状態が許容できる範囲にあるか否かを判
定する(ステップ403、404)。
が大きく、負荷の状態が許容できる範囲でなかった場合、例えば、WEBサーバが停止し
た場合で、1つのWEBサーバの停止より、他のWEBサーバの負荷が著しく大きくなっ
た場合、まず、テーブル5内に空きとなっているサーバがあるか否かを判定し、あれば空
きのサーバの1つにWEBサーバ(ここでは、予め取得しておいた初期状態のWEBサー
バとする)のイメージをイメージ配信部13から配信する。空きがなかった場合、メール
サーバがグループ内にいくつあるかを図4に示すテーブル5から計算し、複数あった場合
、サーバ負荷計算部18によりメールサーバを1つ減少させた場合のメールサーバの負荷
を予測計算し、WEBサーバを増加させる方が適当である場合、1つのメールサーバにW
EBサーバのイメージ(ここでは予め収集しておいたイメージ)をイメージ配信部13か
ら配信する。メールサーバが複数ないか、あるいは、WEBサーバを増加させない方が適
当である場合何もしない(ステップ405)。
トされると、そのブレードサーバのLED点灯部22は、機能により決められている色を
発光するLEDを点灯させ、テーブル5を更新すると共に、その後の処理でブレードサー
バの配置を変更するために利用する配置変換後の新たなテーブルを、更新したテーブル5
の情報に基づいて作成する(ステップ406〜408)。
はない場合、定期的な起動で、ブレードサーバの並べ替えのための起動であるので、現在
のブレードサーバ管理テーブル5の情報に基づいて、配置変換後の新たなテーブルを作成
する(ステップ409)。
02の処理で更新したテーブル5の情報に基づいて、配置変換後の新たなテーブルを作成
する(ステップ410)。
した後、ブレードサーバの並べ替えの処理が開始される。この処理が開始されると、まず
、ブレードサーバに接続される記憶装置2がDASにより接続されているのか、SANに
より接続されているのかを判定する(ステップ411、412)。
Sの場合の処理を実行し、SANにより接続去れている場合、詳細を後述するSANの場
合の処理を実行して、ブレードサーバの並べ替えの処理を終了する(ステップ413、4
14)。
、ここに示す例は、前述したステップ409の処理で、現在のブレードサーバ管理テーブ
ル5の状態が図4に示すようなものであった場合における配置変換後のブレードサーバの
並び順を示すものであり、WEBサーバ、メールサーバ、空きのサーバが順に筐体に収納
されたものとなる。このように、機能種別毎にブレードサーバを複数まとめて配置するよ
うにすることにより、保守者がブレードサーバの配置位置を把握しやすくなり、保守の容
易性を向上させることができる。なお、配置変換後のブレードサーバの並び順をどのよう
にするかは任意である。また、前述のステップ408、410で作成される配置変換後の
新たなブレードサーバ管理テーブルが、ステップ409で作成されるものと同一となると
は限らないが、以下の説明では、配置変換後の新たなブレードサーバ管理テーブルが図6
に示すようなものとなるとして説明を続ける。
作を説明するフローチャート、図8は図7のステップ603での空きサーバの位置変換の
処理動作を説明するフローチャート、図9は空きサーバの位置変換の処理動作を行った後
のサーバの配置状態を示す図であり、まず、図7に示すフローを参照して、ブレードサー
バの並べ替えの処理動作を説明する。
成した配置変換後のブレードサーバ管理テーブル501とを比較し、両者が同等か否かに
より配置の変換が必要か否かを判定する。2つのテーブルが同等である場合、変換の必要
ないので処理を終了させる(ステップ601)。
った場合、次に、ブレードサーバ管理テーブル5に空きのサーバが登録されているか否か
を判定し、空きのサーバがなかった場合、サーバの配置の変換が不可能であるため、ここ
での処理を終了する(ステップ602)。
ーバの位置の変換を行う。この処理により、図9に801として示すテーブルのように空
サーバをテーブルの末尾に配置する。ここでの処理では、図4に示しテーブルに空きサー
バが2つあるので、3番の空きサーバに、8番のWEBサーバを移動させ、4番の空きサ
ーバに、7番のメールサーバを移動させ、その後、7番のサーバと8番のサーバとを空き
にする処理を行って、図9に示すような配置とする(ステップ603)。
上ない場合、すなわち、空きサーバが1つしかない場合、必要に応じて縮退運転をしなけ
ればならないため、各ブレードサーバのサーバ負荷検知部17から検知された負荷の状態
を収集し、管理サーバ7のサーバ負荷計算部18により縮退運転時の構成における各ブレ
ードサーバの負荷を予測する。縮退運転とは、例えば、空きのサーバが1つしかない場合
、WEBサーバ、メールサーバのどちらか一方を停止させて運転を続けることをいい、こ
こではその両方の場合を考慮してサーバ負荷計算部18により負荷予測を行う。すなわち
、WEBサーバが1減少する場合とメールサーバが1減少する場合において負荷予測を行
う(ステップ605)。
かでも負荷の基準値を超えるか否かを判定し、基準値を超えていた場合ブレードサーバの
配置変換を中止するか、あるいは、一定時間待ってから処理を再開することとして、ここ
での処理を終了する。一方、負荷の計算値からどちらのサーバを1つ減少させるのがよい
かを計算値より判断し、例えば、WEBサーバが1減少したほうが負荷の影響が少ない場
合は、メールサーバを空きサーバに配信する。この場合、その配信されたサーバイメージは予め収集しておいたメールサーバの機能を持つものとする(ステップ606)。
ルサーバの組をどこかの空きサーバに配信しておく。この場合のイメージも予め収集して
おいたものとする。予備としてこれらの配信により作成されたサーバを運転するがこれら
のサーバの運転中取得されたログなどの固有の情報は破棄される(ステップ607)。
、Bを決定し、A、Bのイメージ収集を同時に行い、A、Bともにイメージ収集を終えた
時点でAのイメージをBへ、BのイメージをAへ同時に配信することををいう。かりに、
Bが空の場合、Bのイメージを収集する必要はなく、配信時にはAに対応するテーブル5
を空に設定し、Aのサーバは停止させておく。サーバA、Bは、常にWEBサーバとメー
ルサーバの組になるようにする。説明している例では、ステップ603の処理で、図9に
示す状態となっているので、ここでの処理は、2番のメールサーバと5番のWEBサーバ
とを入れ替える処理となり、これにより、図6に示す状態となる。その後、必要なイメー
ジがそれぞれのサーバにリブートされると、各サーバのLED点灯部22により、機能に
対応する色のLEDが点灯させられる(ステップ608、609)。
、入れ替えるべきサーバがなくなれば、ここでの処理を終了する(ステップ610)。
ド内の最後の位置に配置する処理について説明する。
の番号を示す図示していないが、空きサーバテーブルAと呼ぶテーブルを作成する。この
空きサーバテーブルAには、対応する番号のサーバの機能種別も記憶させる(ステップ7
01)。
ドサーバテーブル501とを比較し、空きサーバの位置が同じであるか否かにより配置変
換が必要か否かを判定し、空きサーバの位置が同じで配置変換が不要であればここでの処
理を終了する(ステップ702)。
と判定された場合、前述の空きサーバテーブルから位置変換が必要な空きサーバと空きサ
ーバと変換されるサーバ種別を決定する。位置変換が必要なサーバが1ならば対応するサ
ーバの位置が自動的に決定される。位置変換が必要なサーバが2以上の場合、どのサーバ
とどのサーバとを対応させるかについては、例えば、以下のように決定する。テーブル5
01における種別が空のサーバの番号と現在の種別、すなわち、テーブル5における種別
をテーブルBに記憶する。次に、前述の空きサーバテーブルAを番号順に走査し、テーブ
ルAの種別に対応する種別がテーブルBにあるかを調べる。対応する種別があれば、その
サーバに決定し、決定したテーブルBの番号をテーブルBから削除する。なければ、対応
するサーバを決定せずに空きサーバテーブルAの次の走査に移り、同様の操作を繰り返す
。テーブルAの走査を終えると対応するサーバが決定していないテーブルAのサーバをテ
ーブルBの残っているサーバの中から適当に決定する。このように対応するサーバを決定
することにより、図7により説明したステップ608におけるサーバ変換処理を最小の処
理量に抑えることができる(ステップ703)。
判定して、位置変換がなければテーブル5を更新してここでの処理を終了する(ステップ
704、705)。
負荷を、前述ですでに説明していると同様に計算し、縮退運用時の負荷が基準値より大き
いか否かを判定し、負荷が基準値より大きければ処理を終了するか、あるいは、一定時間
待って処理を続けることとする(ステップ706、707)。
理によって決定した対応するサーバに対して、イメージの収集、イメージの配信の処理を
行って位置変換を行う。この位置変換の処理では、対象となるサーバが一時的に停止させ
られる。この位置変換により、イメージがサーバにリブートされれば、そのサーバ内のL
ED点灯部22が、その機能種別に対応する色のLEDを点灯させる(ステップ708〜
710)。
に示すテーブル801にように変更されたことになり、同時に、空きサーバが番号の末尾
となるように配置される。
ブレードサーバの並べ替えについて説明した。前述したDASの場合の並べ替えは、処理
を迅速に行う必要性からブレード1内に少なくとも2つの空きのブレードサーバが存在す
る場合に、その空きサーバを利用して効率的にサーバの並べ替えを行う例を示して説明し
た。しかし、ブレードサーバの並べ替えは、並べ替えにある程度時間が係ることを許容す
れば、ブレード1内に1つの空きのブレードサーバが存在すれば行うことができる。この
場合のサーバの並べ替えは、例えば、データソートの方法としてよく知られている方法を
応用し、空きのサーバに移動したいサーバの機能を移し、そのサーバを空きにすることに
よるサーバの位置変換を、所望の配置となるまで繰り返し実行するという方法により行う
ことができる。さらに、負荷の軽い機能種別のサーバの1つを停止状態とし、このサーバ
を1つの空きサーバと見て前述したような処理を行えば、ブレード1内に空きのブレード
サーバが存在しない場合にも、サーバの配置替えを行うことができる。
記憶装置内にそのサーバの機能を特徴付けるモジュールをイメージとして配信しなければ
ならない。このため、いずれにしてもサーバの配置替えに際してサーバの停止を伴うこと
になり、図5に示して説明したフローにおいて、ステップ408からの並べ替え開始後の
処理は、サーバシステム全体の処理負荷が低い状態で行うことが望ましく、図5のステッ
プ408〜410の手段で並べ替え後のテーブルを作成した後は、処理を中断して、ステ
ップ408からの並べ替え開始後の処理をサーバシステム全体の処理負荷が低い状態とな
る深夜等の時間帯に行うようにしておくとよい。
動作を説明するフローチャートであり、次に、これについて説明する。記憶装置2がSA
Nの場合、記憶装置2は、ファイバケーブルによりファイバチャネルスイッチを介して各
ブレードサーバ3に接続されているものとする。
08から410のどれかで作成した並べ替え後のテーブル501の状態になるようファイ
バチャネルスイッチのコンフィグレーションを作成し、作成した情報を通信制御部8、1
1のを通してファイバチャネルスイッチに設定する(ステップ901)。
、ステップ902からステップ906の処理をテーブルCに記憶したサーバに対して繰り
返すことにより設定情報を各サーバに反映させるため、リブートによりそのサーバが停止
するものと考えて負荷予測計算を、前述で説明した場合と同様にサーバ負荷計算部18に
より行わせ、負荷が規定値より大きいか否かを判定する(ステップ902、903)。
に対して同じ処理を実行し、負荷が規定値より大きくなければ、OSの機能を用いてリブ
ートを行う。リブートが完了すれば、LED点灯部22がリブートされた機能に対応する
色のLEDを点灯させる(ステップ904、905)。
バが存在すれば、ステップ902からの処理に戻って処理を繰り返し、テーブルCにサー
バがなくなれば、処理を終了する(ステップ906)。
何らかの理由で、ブレードサーバの配置が乱れた場合にブレードサーバの機能を入れ替え
て配置を変更するとして説明したが、本実施形態で設けられた管理サーバは、各ブレードサーバの負荷状態を常時監視して、負荷が基準値より大きくなった場合に、空きのサーバに同一機能のモジュールを配信して、その機能を持つサーバの数を増加させ、あるいは、負荷が基準値より小さくなった場合に、その機能を持つサーバの1つを空き状態にして、その機能を持つサーバの数を減少させて、サーバシステム全体の処理効率を向上させることができ、この場合にも、配置が乱れたブレードサーバの配置を変更することができる。
例を示す図である。図11に示す表示画面1008において、1001、1002はサー
バ種別とそれに対応して点灯するLEDの色を示しており、例えば、1001がサーバの
機能種別がWEBサーバでLEDの色が緑、1002がサーバの機能種別がメールサーバ
でLEDの色が赤とする。また、1003は空でLEDを点灯しない場合とする。そして
、ブレード1を1009として示しており、ブレード1がWEBサーバ1004、メール
サーバ1005で構成され、空1006があることを示しており、表示画面1008に表
示される各ブレードサーバ3は、その物理的な位置を示している。ブレードサーバとして
のWEBサーバ1004、メールサーバ1005、空1006は、それぞれ、前述で説明
した色が付けられて表示されている。
す図である。図12において、1101は緑色LED、1102は赤色LEDを示し、1
103はブレード1、1104はブレードサーバ3を示している。
けるブレードサーバ3の配置の状態が一目で判る。また、実際の機器においても、図12
に示すように、ブレードサーバ毎に機能種別に対応した色のLEDが点灯しているので、
保守者は、一目で各ブレードサーバの機能を知ることができる。
場合の複数のブレードサーバ3の配置状態を表示装置24に表示したモニター画面の例を
示す図である。
とそれに対応して点灯するLEDの色を示しており、例えば、1001がサーバの機能種
別がWEBサーバでLEDの色が緑、1002がサーバの機能種別がメールサーバでLE
Dの色が赤、1203がサーバの機能種別がDHCPサーバでLEDの色が青とする。ま
た、1204は空でLEDを点灯しない場合とする。そして、1205はブレード1を収
納する筐体を示しており、1207はWEBサーバ、1208はメールサーバ、1209
はDHCPサーバ、1210は空を示しており、表示画面1205に表示される各ブレー
ドサーバ3は、その物理的な位置を示している。ブレードサーバとしてのWEBサーバ1
207、メールサーバ1208、DHCPサーバ1209、空1210は、それぞれ、前
述で説明した色が付けられて表示されている。
す図である。図14において、1302は緑色LED、1303は赤色LED、1304
は青色LEDを示し、1106はブレード1、1305はブレードサーバ3を示している
。また、1301は複数のブレード1を収納した筐体である。
1の配置、各ブレードにおけるブレードサーバ3の配置の状態を一目で知ることができる
。また、実際の機器においても、図14に示すように、ブレードサーバ毎に機能種別に対
応した色のLEDが点灯しているので、保守者は、一目で各ブレードサーバの機能を知る
ことができる。
Bサーバを緑、メールサーバを赤、DHCPサーバを青に対応付けているものとして説明
したが、サーバの機能種別と、色との対応は任意に設定することができる。また、実際の
機器における色の表示は、色の表示ができるものであればLEDに限らず他の点灯、表示
素子を使用することもできる。また、図11〜図14の説明では、ブレードサーバの機能
種別に対して対応する色を割り当てて表示、点灯させるとして説明したが、障害等により
停止状態となったブレードサーバを判り易く表示するために、機能種別とは異なる色でそ
の障害を表示する、あるいは、表示を点滅させる等の手段を設けることができる。
る操作について説明する図である。
れに対応して点灯するLEDの色を示しており、例えば、1401がサーバの機能種別が
WEBサーバでLEDの色が緑、1402がサーバの機能種別がメールサーバでLEDの
色が赤とする。また、1403は空でLEDを点灯しない場合とする。
ものとする。この配列では、WEBサーバ1408、メールサーバ1409、空1410
が整列されずに配置されている。このような配置を画面操作により手作業で配置を変更す
ることとする。この場合、例えば、1406として示すように、6番のWEBサーバをマ
ウスによるドラックアンドドロップにより、2番のメールサーバの位置に移動させる操作
を行う。これにより、表示画面上で、ドラック元のサーバ種別とドラック先のサーバ種別
とが変更され、表示画面上の配列が、1405として示すようなものとなる。このような
操作により手作業で配置を決定した後、1407として示す「整列実行」の画面上のボタ
ンをマウスでクリックすることにより、管理サーバ7によるブレードサーバの並べ替えの
処理が開始される。
開始されるブレードサーバの並べ替えの処理動作を説明するフローチャートである。このフローにおいて、ステップ1501、1502、1503での処理は、それぞれ、図5に示すフローにより説明したステップ412、413、414での処理と同一であるので、ここでの説明は省略する。なお、図6に示して説明した配置変換後のテーブルは、図15での表示画面上での操作が行われたときに設定されるものとする。
ーバを保守の目的で抜き差しする作業やそれぞれのサーバに設置されたリセットボタンを
操作する作業が発生するが、現在のブレードシステムでは保守者が対象となるサーバを目
で見て判別する手段に乏しく、誤作業によりシステムに致命的な打撃を与えることも少な
くない。
次に、本発明の第2の実施形態について説明する。第2の実施形態は、ブレードシステムにおいて、ユニット(ブレードサーバ)内で業務(機能)を拡張しなければならないスケールアップと、ユニット内である必要はなくユニット間であっても業務を拡張することができるスケールアウトとが混在していても、スケールアップを妨げることなく、業務をCPUブレード(計算機)に割り当てることを可能とするものである。なお、スケールアップは、1つの業務を割り当てる複数のCPUブレード間の関係が密結合である(CPUブレード間のデータ通信が高速である)場合の拡張処理である。また、スケールアウトは、1つの業務を割り当てる複数のCPUブレード間の関係が疎結合である(CPUブレード間のデータ通信が高速でない)場合の拡張処理である。スケールアップ(scale up)およびスケールアウト(scale out)の具体的な技術内容については、それぞれ特許文献2および特許文献3に記載されている。
図17は、第2の実施形態に係るサーバシステムの構成例を示す図である。サーバシステム100は、管理サーバ101、複数のサーバ115およびディスクアレイ装置113を含んで構成される。
図19は、本実施形態におけるサーバの接続形態例を示す図である。サーバシャーシは、複数のCPUブレード(計算機、ブレード)により1つの論理計算機を構成するブレードサーバ(計算機ユニット)に対応する。1つのCPUブレードは、図17に示す1台のサーバ115に対応する。サーバシャーシには、複数のCPUブレードを収めることができる。本実施形態では、1つのサーバシャーシに8枚のCPUブレードを収納できることとする。また、サーバシャーシは複数台あってもよく、その複数台のサーバシャーシ(ブレードサーバ)をブレードシステムという。図17に示す管理サーバ101は、複数台のサーバシャーシと、それぞれに収められた複数枚のCPUブレードとを管理することができる。
図24は、図17のSMP構成定義テーブル108の詳細を示す図である。SMP構成定義テーブル108には、SMP構成規則が定義されている。SMP構成規則は、システム管理者があらかじめ作成する。SMP構成定義テーブル108の組み合わせ#1081には、許容する組み合わせの通し番号が格納される。CPUスロット#1082には、SMP構成を記載する。例えば、CPUブレード1枚が2wayCPUである場合、1ユニット内にCPUブレード1枚の2way・SMP構成のサーバを4組作ることができる。また、CPUブレード2枚の4way・SMP構成のサーバであれば2組作ることができる。さらに、最大CPUブレード4枚のSMP構成としているため、8way・SMP構成のサーバであれば1ユニット内に1つ作ることができる。これによれば、組み合わせ#1081が小さいほど、高性能であると言える。ただし、1ユニット内のスロットにCPUブレードがすべて挿入されているという前提がある。また、図24に示す「空き」の状態とは、CPUブレードが挿入されていない状態ではなく、当該スロットのCPUブレードはSMP構成として使用しないということを表している。
図29は、管理サーバ101の割り当てプログラム102の処理フローを示す図である。まず、割り当てプログラム102の割り当て・拡張要求受付部103が、システム管理者からの新規割り当て要求・拡張要求を受付ける(ステップ2901)。この場合、リソース監視部104が性能低下を検出することもある。すなわち、以下説明するCPUブレードの割り当て処理は、割り当て・拡張要求受付部103またはリソース監視部104によってトリガを与えられる。次に、割り当て最適化部105が、割り当て・拡張要求受付部103またはリソース監視部104から必要な情報を入力し、CPUブレードの割り当て位置を最適化し、決定する(ステップ2902)。そして、割り当てプログラム102が、ステップ2902の結果に従ってCPUブレードの割り当てが可能であるか否か(割り当て結果を実際にハードウェアに反映できるか否か)を判定する(ステップ2903)。割り当てが可能であれば(ステップ2903のYes)、割り当て実行部106がCPUブレードの割り当てを実行する(ステップ2904)。割り当てが可能でなければ(ステップ2903のNo)、割り当てを行わずに処理を終了する。
以上本発明について好適な実施形態について一例を示したが、本発明は前記実施形態に限定されず、本発明の趣旨を逸脱しない範囲で適宜変更が可能である。例えば、以下のような実施形態が考えられる。
(1)前記第2の実施形態では、スケールアップの例として、2wayCPUのCPUブレードによるSMP構成について記載したが、CPUブレードが1wayCPUであってもよく、また、CPUブレード間の関係が密結合であればSMP構成である必要はない。
(2)前記第2の実施形態では、ユニットにおいて、左端のCPUブレードからスケールアップの業務を割り当て、右端のCPUブレードにスケールアウトの業務を割り当てるように記載したが、左右逆であってもよい。
(3)前記第2の実施形態では、図17に示すように、管理サーバ101がサーバ115とは別の筐体として説明したが、ブレードサーバ(同一の筐体)内のサーバ115(CPUブレード)やその他のCPUを管理サーバ101として用いてもよい。
2 記憶装置
3 ブレードサーバ
4 サーバ種別管理テーブル
5 ブレードサーバ管理テーブル
6 サーバイメージ記憶装置
7 管理サーバ
8、11 通信制御部
9 サーバ種別検知部
10 記憶装置インターフェース部
13 イメージ配信部
14 イメージ収集部
15 自動配信スケジュール部
17 サーバ負荷検知部
18 サーバ負荷計算部
20 SANコンフィグ部
21 グループ作成部
22 LED点灯部
23 起動パラメータ設定部
24 表示装置
100 サーバシステム(計算機システム)
101 管理サーバ
102 割り当てプログラム(ブレード割り当てプログラム)
109 ブレード割り当て管理テーブル(ブレード割り当て情報)
115 サーバ(計算機、ブレード)
Claims (2)
- 複数の計算機を含む計算機ユニットを複数備え、
前記計算機ユニットに含まれる計算機間のデータ通信速度は、前記計算機ユニット間のデータ通信速度よりも速く、前記計算機ユニットは、第1の機能を実行する計算機と第2の機能を実行する計算機とを少なくとも含み、前記複数の計算機を管理する管理サーバを備えた計算機システムであって、
前記管理サーバは、
同一の前記計算機ユニット内で割り当てる計算機を増やすことが可能な第1の機能を割り当てる計算機を増やす場合に、
当該計算機ユニットに空きの計算機があるときに、該空きの計算機に第1の機能を割り当てる手段と、
空きの計算機がなく前記第1の機能を実行する計算機を増やすことができないときに、他の計算機ユニットに割り当て可能な第2の機能が割り当てられている計算機から該計算機ユニットに含まれない他の計算機へ該第2の機能を再配置して、当該再配置元となった計算機に第1の機能を割り当てる手段と
を備えることを特徴とする計算機システム。 - 計算機ユニットに含まれる計算機間のデータ通信速度は、前記計算機ユニット間のデータ通信速度よりも速く、第1の機能を実行する計算機と第2の機能を実行する計算機とを少なくとも含む複数の計算機を管理する管理サーバであって、
同一の前記計算機ユニット内で割り当てる計算機を増やすことが可能な第1の機能を割り当てる計算機を増やす場合に、
当該計算機ユニットに空きの計算機があるときに、該空きの計算機に第1の機能を割り当てる手段と、
空きの計算機がなく前記第1の機能を実行する計算機を増やすことができないときに、他の計算機ユニットに割り当て可能な第2の機能が割り当てられている計算機から該計算機ユニットに含まれない他の計算機へ該第2の機能を再配置して、当該再配置元となった計算機に第1の機能を割り当てる手段と
を備えることを特徴とする管理サーバ。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005133681A JP4469306B2 (ja) | 2004-04-30 | 2005-04-28 | 計算機システム、管理サーバ |
US11/288,107 US8260923B2 (en) | 2004-04-30 | 2005-11-29 | Arrangements to implement a scale-up service |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004136095 | 2004-04-30 | ||
JP2005133681A JP4469306B2 (ja) | 2004-04-30 | 2005-04-28 | 計算機システム、管理サーバ |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008010033A Division JP4608559B2 (ja) | 2004-04-30 | 2008-01-21 | ブレード割り当て方法及びブレード割り当てプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2005339528A JP2005339528A (ja) | 2005-12-08 |
JP4469306B2 true JP4469306B2 (ja) | 2010-05-26 |
Family
ID=35492978
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005133681A Expired - Fee Related JP4469306B2 (ja) | 2004-04-30 | 2005-04-28 | 計算機システム、管理サーバ |
Country Status (2)
Country | Link |
---|---|
US (1) | US8260923B2 (ja) |
JP (1) | JP4469306B2 (ja) |
Families Citing this family (36)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4797636B2 (ja) * | 2006-01-16 | 2011-10-19 | 株式会社日立製作所 | 複合型情報プラットフォーム装置とその情報処理装置構成方法 |
JP5082252B2 (ja) * | 2006-02-09 | 2012-11-28 | 株式会社日立製作所 | サーバ情報収集方法 |
US7805618B2 (en) * | 2006-02-17 | 2010-09-28 | International Business Machines Corporation | Component indicators used during extended power-off service |
JP2007241365A (ja) * | 2006-03-06 | 2007-09-20 | Hitachi Electronics Service Co Ltd | 自律・仮想化システム及び管理装置 |
US9323311B2 (en) * | 2006-06-22 | 2016-04-26 | Broadcom Corporation | Method and system for packet based signaling between A Mac and A PHY to manage energy efficient network devices and/or protocols |
JP2008015803A (ja) * | 2006-07-06 | 2008-01-24 | Hitachi Ltd | ブレード型コンピュータ管理システム |
JP4923795B2 (ja) * | 2006-07-10 | 2012-04-25 | 日本電気株式会社 | ブレードサーバ及びその方法 |
US20080120567A1 (en) * | 2006-11-17 | 2008-05-22 | International Business Machines Corporation | Cooperative blade front panels |
JP4863905B2 (ja) * | 2007-03-02 | 2012-01-25 | 株式会社日立製作所 | ストレージ利用排他方式 |
JP4777285B2 (ja) * | 2007-03-27 | 2011-09-21 | 株式会社野村総合研究所 | プロセス制御システム |
JP4739272B2 (ja) * | 2007-04-19 | 2011-08-03 | 株式会社富士通アドバンストエンジニアリング | 負荷分散装置、仮想サーバ管理システム、負荷分散方法および負荷分散プログラム |
JP2008276320A (ja) * | 2007-04-25 | 2008-11-13 | Nec Corp | 仮想システム制御方法およびコンピュータシステム |
US20080288626A1 (en) * | 2007-05-14 | 2008-11-20 | Bandholz Justin P | structure for resetting a hypertransport link in a blade server |
US8244793B2 (en) | 2007-05-14 | 2012-08-14 | International Business Machines Corporation | Resetting a HyperTransport link in a blade server |
DE602007004970D1 (de) * | 2007-07-06 | 2010-04-08 | Ntt Docomo Inc | Middleware zur Verwendung in einer Client-Server-Architektur |
EP2304582A4 (en) * | 2008-06-19 | 2013-02-13 | Hewlett Packard Development Co | MORE BLADE CONNECTOR |
US20110093572A1 (en) * | 2008-06-20 | 2011-04-21 | Koehler Loren M | Low level initializer |
EP2304579A4 (en) | 2008-06-20 | 2016-01-20 | Hewlett Packard Development Co | DOMAIN MANAGEMENT PROCESSOR |
JP4922255B2 (ja) * | 2008-06-30 | 2012-04-25 | 株式会社日立製作所 | 情報処理システムおよびそのシステムにおける省電力制御方法 |
US20100125655A1 (en) * | 2008-11-19 | 2010-05-20 | Uri Elzur | Method and system for centralized logic for centrally managed machines |
US8341140B2 (en) * | 2009-07-03 | 2012-12-25 | Hitachi, Ltd. | Configuration management system and configuration management method for storage system |
US8427285B2 (en) * | 2010-04-29 | 2013-04-23 | Hewlett-Packard Development Company, L.P. | Configurable control of data storage device visual indicators in a server computer system |
US8607225B2 (en) | 2010-12-28 | 2013-12-10 | Oracle International Corporation | Managed upgrades of components in an integrated software and hardware system |
CN102571478B (zh) * | 2010-12-31 | 2016-05-25 | 上海宽惠网络科技有限公司 | 服务器 |
JP2012164260A (ja) * | 2011-02-09 | 2012-08-30 | Nec Corp | コンピュータ運用管理システム、コンピュータ運用管理方法及びコンピュータ運用管理プログラム |
FR2974647B1 (fr) * | 2011-04-26 | 2013-04-26 | Bull Sas | Dispositif de reperage pour reperer une armoire informatique parmi une pluralite d'armoires informatiques |
DE102011107092B4 (de) * | 2011-07-11 | 2017-09-14 | Fujitsu Ltd. | Computersystem, Verfahren zum Starten eines Server-Computers, Server-Computer, Managementstation und Verwendung |
JP5699999B2 (ja) | 2012-03-30 | 2015-04-15 | 日本電気株式会社 | 情報処理システム |
US9495238B2 (en) | 2013-12-13 | 2016-11-15 | International Business Machines Corporation | Fractional reserve high availability using cloud command interception |
US9246840B2 (en) | 2013-12-13 | 2016-01-26 | International Business Machines Corporation | Dynamically move heterogeneous cloud resources based on workload analysis |
US10404547B2 (en) | 2014-02-27 | 2019-09-03 | Intel Corporation | Workload optimization, scheduling, and placement for rack-scale architecture computing systems |
JP6032314B2 (ja) * | 2015-03-27 | 2016-11-24 | 日本電気株式会社 | システム |
JP6131979B2 (ja) * | 2015-03-27 | 2017-05-24 | 日本電気株式会社 | システム |
US10158526B2 (en) | 2015-03-27 | 2018-12-18 | Nec Corporation | System that manages server function |
WO2016174739A1 (ja) * | 2015-04-28 | 2016-11-03 | 株式会社日立製作所 | 複合計算機システム、管理計算機、およびデータ連携管理方法 |
US10491701B2 (en) * | 2016-07-14 | 2019-11-26 | Cisco Technology, Inc. | Interconnect method for implementing scale-up servers |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07152699A (ja) * | 1993-11-29 | 1995-06-16 | Canon Inc | 情報処理方法及び装置及びシステム |
US6751698B1 (en) * | 1999-09-29 | 2004-06-15 | Silicon Graphics, Inc. | Multiprocessor node controller circuit and method |
US6725317B1 (en) * | 2000-04-29 | 2004-04-20 | Hewlett-Packard Development Company, L.P. | System and method for managing a computer system having a plurality of partitions |
FR2810506B1 (fr) * | 2000-06-21 | 2002-09-27 | Gervais Danone Sa | Procede de fabrication d'une eau riche en calcium et eau obtenue par ce procede |
JP2002163241A (ja) * | 2000-11-29 | 2002-06-07 | Ntt Data Corp | クライアントサーバシステム |
US20040015581A1 (en) * | 2002-07-22 | 2004-01-22 | Forbes Bryn B. | Dynamic deployment mechanism |
JP2004100791A (ja) | 2002-09-09 | 2004-04-02 | Nifco Inc | 取付用クリップ及び内装材の取付構造 |
US7765299B2 (en) * | 2002-09-16 | 2010-07-27 | Hewlett-Packard Development Company, L.P. | Dynamic adaptive server provisioning for blade architectures |
US7590736B2 (en) | 2003-06-30 | 2009-09-15 | Microsoft Corporation | Flexible network load balancing |
US20050010918A1 (en) * | 2003-07-11 | 2005-01-13 | International Business Machines Corporation | Autonomic image migration/deployment appliance |
US20050256942A1 (en) * | 2004-03-24 | 2005-11-17 | Mccardle William M | Cluster management system and method |
-
2005
- 2005-04-28 JP JP2005133681A patent/JP4469306B2/ja not_active Expired - Fee Related
- 2005-11-29 US US11/288,107 patent/US8260923B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2005339528A (ja) | 2005-12-08 |
US20060143255A1 (en) | 2006-06-29 |
US8260923B2 (en) | 2012-09-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4469306B2 (ja) | 計算機システム、管理サーバ | |
JP5132735B2 (ja) | サーバシステム及びサーバの配置方法 | |
JP4651913B2 (ja) | 記憶装置システム | |
US8495645B2 (en) | Server pool management method | |
US9684450B2 (en) | Profile-based lifecycle management for data storage servers | |
US7636820B2 (en) | Storage system with automated resources allocation | |
JP5099128B2 (ja) | ストレージ管理プログラム、ストレージ管理装置およびストレージ管理方法 | |
US20090150639A1 (en) | Management apparatus and management method | |
JP5589218B2 (ja) | 計算機システム及び管理計算機 | |
JP2007249729A (ja) | マイクロプロセッサの負荷分散機能を備えたストレージシステム | |
US8799525B2 (en) | Computer system and its renewal method | |
JP4608559B2 (ja) | ブレード割り当て方法及びブレード割り当てプログラム | |
JP4500090B2 (ja) | 情報管理システムと情報管理方法 | |
US10019182B2 (en) | Management system and management method of computer system | |
JP2006155658A (ja) | 記憶装置システム | |
JP5543653B2 (ja) | 管理計算機 | |
JP2005031892A (ja) | ジョブ実行システム及び実行制御方法 | |
JP4685079B2 (ja) | 記憶装置システム | |
JP5746397B2 (ja) | 管理計算機及び更改方法 | |
JP5942014B2 (ja) | 管理計算機及び更改方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20071207 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20090909 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20091027 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20091222 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20091228 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20100223 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20100226 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130305 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130305 Year of fee payment: 3 |
|
LAPS | Cancellation because of no payment of annual fees |