[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP4107676B2 - トランザクション引継ぎシステム - Google Patents

トランザクション引継ぎシステム Download PDF

Info

Publication number
JP4107676B2
JP4107676B2 JP2006198976A JP2006198976A JP4107676B2 JP 4107676 B2 JP4107676 B2 JP 4107676B2 JP 2006198976 A JP2006198976 A JP 2006198976A JP 2006198976 A JP2006198976 A JP 2006198976A JP 4107676 B2 JP4107676 B2 JP 4107676B2
Authority
JP
Japan
Prior art keywords
request
server
processing
information
transaction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2006198976A
Other languages
English (en)
Other versions
JP2008027189A (ja
Inventor
勝義 山本
正寿 田頭
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
International Business Machines Corp
Original Assignee
International Business Machines Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by International Business Machines Corp filed Critical International Business Machines Corp
Priority to JP2006198976A priority Critical patent/JP4107676B2/ja
Priority to US11/776,590 priority patent/US20080077657A1/en
Publication of JP2008027189A publication Critical patent/JP2008027189A/ja
Application granted granted Critical
Publication of JP4107676B2 publication Critical patent/JP4107676B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/10Protocols in which an application is distributed across nodes in the network
    • H04L67/1001Protocols in which an application is distributed across nodes in the network for accessing one among a plurality of replicated servers
    • H04L67/1004Server selection for load balancing
    • H04L67/1008Server selection for load balancing based on parameters of servers, e.g. available memory or workload
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/16Error detection or correction of the data by redundancy in hardware
    • G06F11/20Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements
    • G06F11/202Error detection or correction of the data by redundancy in hardware using active fault-masking, e.g. by switching out faulty elements or by switching in spare elements where processing functionality is redundant
    • G06F11/2023Failover techniques
    • G06F11/2025Failover techniques using centralised failover control functionality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/10Protocols in which an application is distributed across nodes in the network
    • H04L67/1001Protocols in which an application is distributed across nodes in the network for accessing one among a plurality of replicated servers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/10Protocols in which an application is distributed across nodes in the network
    • H04L67/1001Protocols in which an application is distributed across nodes in the network for accessing one among a plurality of replicated servers
    • H04L67/1029Protocols in which an application is distributed across nodes in the network for accessing one among a plurality of replicated servers using data related to the state of servers by a load balancer
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/10Protocols in which an application is distributed across nodes in the network
    • H04L67/1001Protocols in which an application is distributed across nodes in the network for accessing one among a plurality of replicated servers
    • H04L67/1034Reaction to server failures by a load balancer
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/50Network services
    • H04L67/56Provisioning of proxy services
    • H04L67/563Data redirection of data network streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L69/00Network arrangements, protocols or services independent of the application payload and not provided for in the other groups of this subclass
    • H04L69/40Network arrangements, protocols or services independent of the application payload and not provided for in the other groups of this subclass for recovering from a failure of a protocol instance or entity, e.g. service redundancy protocols, protocol state redundancy or protocol service redirection

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Security & Cryptography (AREA)
  • Quality & Reliability (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Hardware Redundancy (AREA)
  • Computer And Data Communications (AREA)

Description

本発明は、トランザクションの引継ぎシステムに関する。更に詳しくは、複数ノード環境における障害時などの仕掛途中のトランザクションを自動継続するシステムおよびその方法に等に関する。
近年、ネットワーク環境におけるクライアント・サーバシステムにおいて膨大なトランザクションを処理する信頼性の高いサーバの役割がますます重要になっている。このような環境におけるネットワークやサーバの障害は、業務アプリケーションによっては時として重大な社会問題をも引き起こす。このためサーバの障害からできるだけスムーズに復旧させるための様々な手法が考えられている。
例えば、特許文献1には、異なる装置で実行される互いに関連する二つの処理に関して、共に1回ずつの実行を保証したシステム、サーバ装置、クライアント装置、連携処理方法等が開示されている。この発明において、クライアント装置では、通信エラーを検出したら、サーバ装置に対して前回と同じ処理要求を再送し、サーバ装置では、完了した第1の処理と同じ識別情報の処理要求を再度受け取ったときは、第1の処理を実行せずにクライアント装置に対して第1の処理の完了通知を送信するようにしている。そのため、クライアント装置では、ネットワークの障害等により完了通知を受け取れなかった場合でも、処理要求を再送することで、第1の処理を重複させることなく完了通知を受け取り、第2の処理を実行することができる。この結果、第1の処理と第2の処理とが1回ずつ実行されることが保証されることが記載されている。
また別の例として、特許文献2には、トランザクションの内部キューを持つ現用系コンピュータが障害状態になった場合に、現用系に対するネットワーク・トランザクション・リクエストの処理の入出力パケットを監視(スニフィング)することによって待機系コンピュータへと透過的に切り替えるシステムおよび手段が開示されている。
特開2003−16041号公報 特開2004−32224号公報
このようなシステムにおいては、サーバの障害発生から復旧時に仕掛中のトランザクション処理の再開が要求元(一般的にはクライアント装置)により気付かれることなく実行され(要求元に対しての透過性)、かつ要求元に対して重複した処理が発生しないことが必要である。
しかしながら、特許文献1に記載の方法では、クライアント装置でエラーを検出し、前回と同じ処理要求を再送しなければならず、要求元に対して必ずしも透過性を実現するものではない。また、特許文献2に記載の方法では、サーバの内部キューから取り出されたトランザクションがサーバプロセス上でユーザロジックによって処理されている途中で障害が発生したものに関しては処理をロールバック(取り消し)し、最初から再処理することになる。しかし、単純にロールバックさせて最初からやり直すだけで再処理できる場合以外には適用できない。
従って、本発明は上記課題を解決し、要求元にエラーを返さずに仕掛中の処理を継続するトランザクション処理方法を提供し、更に、ロールバックや再処理をプログラマブルにして、柔軟性のあるシステムおよびその方法等を提供することを目的とする。
本発明では以下の解決手段を備えたシステム、方法、およびプログラムを提供する。
本発明の第一の形態では、
要求元端末からのリクエストを処理する第1サーバに障害が発生した場合に、一または複数の第2サーバが前記第1サーバの処理を引き継ぐシステムであって、前記要求元端末からの前記リクエストである端末要求情報を受信し、前記第1サーバに対して該リクエストを代理するリクエスト代理装置と、前記リクエスト代理装置から前記端末要求情報を受信し、記憶する要求情報管理装置と、前記第1サーバから外部処理装置への処理を中継し、前記第1サーバと前記外部処理装置との接続情報を管理する接続代理装置と、
を備える。
このシステムでは、前記リクエスト代理装置は、前記第1サーバに障害が発生したことを検知し、前記要求情報管理装置から前記端末要求情報を読出し、前記第2サーバへ送信し、前記第2サーバは、前記端末要求情報を用いて前記要求元端末からのリクエストに対する処理を継続し、前記外部処理装置への処理要求を前記接続代理装置へ送信する際に前記接続情報を用いて前記リクエストの処理結果を前記リクエスト代理装置へ送信する、ことを特徴とする。
このような構成によれば、要求元の端末からのサーバに対するリクエストをリクエスト代理装置がプロキシとして代理中継し、この時、そのリクエストに関する要求元端末の情報(端末要求情報)を要求情報管理装置に記憶させておく。また、サーバが外部の接続機器(例えば、バックエンドのデータベースサーバやサーバ以外の外部デバイスなど)に処理を依頼する場合、その接続情報を管理する接続代理装置にサーバと外部処理装置の間を中継させる。
すなわち、リクエスト代理装置は、リクエストの代理中継とサーバの障害検知を主な役目とする。また、要求情報管理装置は、そのリクエストに関する様々な復旧に必要な情報を逐次サーバから得て記憶しておき、必要なときにリクエスト代理装置に送信する。更に、接続代理装置は、外部処理装置の接続情報(コネクション情報とも呼ぶ)を管理する。このようにすることで、リクエストを処理・継続するサーバを挟み込む形でリクエスト代理装置、要求情報管理装置と接続代理装置が要求元の情報および外部処理装置の状態を管理し、サーバの障害、復旧時の処理を効率よく分担して行うことができる。
更に、上記の発明の追加形態として、要求元のリクエストが複数のトランザクションで構成されている場合、トランザクション処理が完了した場合に、その完了状況とそのトランザクションを復帰するのに必要な復帰情報をサーバから逐次要求情報管理装置に送信し、要求情報管理装置にトランザクションとリクエストの同期管理を行なわせることができる。
本発明の別の形態では、
要求元端末からのリクエストを処理する第1サーバに障害が発生した場合に、一または複数の第2サーバが前記第1サーバの処理を引き継ぐ方法であって、前記要求元端末と前記第1または第2サーバとの間を中継する一または複数の中継装置が、前記要求元端末からの前記第1サーバへの前記リクエストを代理するステップと、前記要求元端末からの前記リクエストに関する端末要求情報を受信し、記憶するステップと、前記第1サーバに対する前記リクエストを送信するステップと、前記第1サーバから外部処理装置への処理要求が発生したことに応じて、前記第1サーバと前記外部処理装置との接続情報を管理し、該処理要求を代理するステップと、前記第1サーバに障害が発生したことを検知するステップと、前記障害を検知したことに応じて、前記端末要求情報を読出し、前記第2サーバへ送信するステップと、前記第2サーバに、前記端末要求情報を用いて前記要求元端末からのリクエストに対する処理を継続させるステップと、を含む方法を提供する。
このような構成によれば、ハードウェア構成をより柔軟にし、1または複数の中継装置において第一の発明の形態と同様な作用効果を奏する方法を提供することができる。
本発明の更に別の形態では、
要求元端末からのリクエストを処理する複数のサーバを含むサーバシステムにおいて、該複数のサーバの一つである第1サーバに障害が発生した場合に、一または複数の第2サーバが前記第1サーバの処理を継続させるコンピュータ・プログラムであって、前記要求元端末からの前記第1サーバへの前記リクエストを代理する1または複数の中継装置に、前記要求元端末からの該リクエストに関する端末要求情報を受信し、記憶するステップと、前記第1サーバに対する前記リクエストを送信するステップと、前記第1サーバから外部処理装置への処理要求が発生したことに応じて、前記第1サーバと前記外部処理装置との接続情報を管理し、該処理要求を代理するステップと、前記第1サーバに障害が発生したことを検知するステップと、前記障害を検知した際に、前記端末要求情報を読出し、前記第2サーバへ送信するステップと、前記第2サーバに、前記端末要求情報を用いて前記要求元端末からのリクエストに対する処理を継続させるステップと、を実行させる、ことを特徴とするコンピュータ・プログラムを提供する。
このような構成によれば、上記のシステムまたは方法で示された方法を一または複数の中継装置に機能させるコンピュータ・プログラムを提供できる。
また、本発明の応用形態として、
ネットワークに接続された要求元端末からのリクエストを処理する複数のサーバを含み、該複数のサーバの一つである第1サーバの負荷に応じて第2サーバに前記第1サーバの処理を分散させるシステムであって、前記要求元端末からの前記リクエストに関する端末要求情報を受信し、前記第1サーバに対する前記リクエストを代理し、前記第2サーバに処理の負荷を分散させるリクエスト代理装置と、前記リクエスト代理装置から前記端末要求情報を受信し、記憶する要求情報管理装置と、前記第1サーバと接続され外部処理装置への前記第1サーバからの処理要求を代理し、前記第1サーバと前記外部処理装置との接続情報を管理する接続代理装置と、前記複数のサーバのトランザクション負荷を監視するトランザクションモニタ装置とを備える。
このシステムでは、前記トランザクションモニタ装置は、前記第1サーバに所定の過負荷が発生したことを検知し、前記リクエスト代理装置は、前記過負荷の検知を受信したことに応じて、前記要求情報管理装置が記憶する前記端末要求情報を読出し前記第2サーバへ送信し、前記第2サーバは、前記端末要求情報を用いて前記要求元端末からのリクエストに対する処理を継続し、前記外部処理装置への処理要求を前記接続代理装置へ送信する際に前記接続情報を用いて前記リクエストの処理結果を前記リクエスト代理装置へ送信する、ことを特徴とする。
すなわち、この形態は単にサーバの障害復帰システムではなく、サーバの負荷(トランザクションの処理量)をトランザクションモニタ装置が監視することで過負荷となっているサーバを検知し、それをリクエスト代理装置に伝えることで過負荷となったサーバの処理を他の比較的負荷の少ないサーバへ分散させることができる。リクエスト代理装置や要求情報管理装置、接続代理装置にとっては、サーバの障害発生時と同様な処理を実行する。このシステムは、オートノミックなどの自立調整型のシステムと組み合わせてサーバの数(ノード数)をオン・デマンドに調整することができ柔軟なサーバシステムとすることも可能である。
本発明によれば、仕掛中のリクエストであっても処理を継続し正常に完了できるシステム等が提供できる。ここでは、要求元にエラーの発生を気付かせることなく正常処理が完了できるため、システムが提供するサービスの信用、信頼性を高く保つことができ、平常時のオーバヘッドが比較的低く、レスポンスへの影響を少なくすることが可能である。
更に、本発明の応用として、サーバの処理能力のキャパシティを自律調整するためにノード数(サーバ数)を増減させるオートノミック技術と組み合わせることで、容易に仕掛中の処理をすぐさま他のノードで引継ぎ、即時にノードを減少させることも可能である。
以下、本発明の実施形態について図を参照しながら説明する。
図1は、本発明の第1の実施形態におけるサーバシステム10の概略を示す図である。このサーバシステム10では、要求元端末11とその要求(リクエスト)を処理する第1サーバ14(現行系サーバ)と障害発生時のバックアップ用サーバである第2サーバ15(待機系サーバ)とを含む。この図では要求元端末11は一つしか示していないが、当然複数の端末を含んでもよい。また、要求元端末11からのリクエストを受けるサーバは第1サーバ14と第2サーバ15の二つを示しているが、点線で示すように第2サーバ15は複数であってもよい。
本実施形態においては、要求元端末11と第1サーバ14、第2サーバ15の間にリクエスト代理装置12と要求情報管理装置13を配置する。リクエスト代理装置12と要求情報管理装置13の機能については後述する。また、第1サーバ14、第2サーバ15と外部処理装置17(バックエンドサーバ7もしくは外部デバイス8など)の間に接続代理装置16を配置する。バックエンドサーバ7は、第1サーバ14または第2サーバ15の依頼を受け処理に必要なデータベースを格納したサーバであり、外部デバイス8は、バックエンドサーバ7のようなサーバでなく要求元から処理が必要な外部の任意の装置を指す。本サーバシステム10の動作は図3以降で詳しく説明する。
なお、図1のシステムでは、リクエスト代理装置12、要求情報管理装置13、および接続代理装置16は、それぞれ単一の装置としての構成を示してあるが、それぞれの装置の障害に備えて、更に各装置が多重構成(二重化構成、または冗長化構成)をとってもよい。
図2は、本発明の第2の実施形態におけるサーバシステム30の概略を示す図である。このサーバシステム30では、図1のリクエスト代理装置12、要求情報管理装置13、および接続代理装置16を単一の中継装置18の内部にまとめて構成したものである。リクエスト代理部19,要求情報管理部20、接続代理部21が、図1の各装置にそれぞれ対応する。この構成では、必要なハードウェア構成は、図1のシステムと比べ小さくなるが、中継装置18の障害対策が必要となる可能性は高まる。一方、図1のような分散システム構成のほうがハードウェア構成は多くなるが、その分、中継装置18自体の障害リスクは小さくなる。しかしながら、以降の説明からわかるように、いずれの構成においてもこれらの中継装置(代理部)の処理は単純であり、オーバヘッドは比較的小さいものである。
図3は、本発明の第3の実施形態におけるサーバシステム40の概略を示す図である。このシステムでは、サーバの処理能力のキャパシティを自律調整するためにノード数(サーバ数)を増減させるオートノミック技術と組み合わせることで、仕掛中の処理をすぐさま他のノード(サーバ)で引継ぎ、即時にノード(サーバ)を減少させることも可能である。すなわち、例えば、図2のシステムにおいて(図1の場合も同様である)トランザクションの負荷をモニタするトランザクションモニタ装置25を追加することで、サーバの障害だけを管理するのではなく、サーバのトランザクション負荷を監視させるようにする。トランザクション量はあらかじめ所定の値を記憶しておき、トランザクションモニタ装置が判定するようにしてもよい。つまり、トランザクションモニタ装置25は、あらかじめ各サーバの適正な負荷量を記憶しておき、あるサーバが適正な負荷を超えた(超えそうな)ことを検知すると、追加のサーバをシステムに加え全体の負荷を分散するように中継装置18に通知する。そして、後に(例えば深夜などに)負荷が減少してサーバ数が逆に過剰になった場合には、トランザクションモニタ装置25は、中継装置18の各コンポーネント部に対して、過剰なサーバが障害に陥ったと認識させることで、その過剰なサーバを切り離すために図1、図2のシステムにおける処理がほとんどそのまま利用できる。すなわち、このトランザクションモニタ装置25と、上述に説明したリクエスト代理部19(リクエスト代理装置12)、要求情報管理部20(要求情報管理装置13)、接続代理部21(接続代理装置16)と連携させることで、自立調整型のコンピュータ・システムを容易に構築できることになる。特に、従来のオートノミック技術では、サーバをシステムから切り離すときに、技術的困難と課題があるため、本発明の手法はきわめて有用である。
図4は、本発明の第1、第2の実施形態においてシステムが正常に動作している場合の処理の流れを示す図である。なお、図1と図2の実施形態においてはハードウェア構成が異なるのみで、基本的な処理は同様である。以降の説明では、図1のリクエスト代理装置12と図2のリクエスト代理部19を総称して、リクエスト代理コンポーネント4と呼ぶ。また同様に、要求情報管理装置13と要求情報管理部20を総称して、要求情報管理コンポーネント5と呼び、接続代理装置16と接続代理部21を総称して、接続代理コンポーネント6と呼ぶことにする。これらのコンポーネントは本発明の主要部を構成する。
以降、要求元端末11上のアプリケーションとして、Webブラウザ3を例にとって具体的に説明する。また図3、図4では、ステップSnはデータの流れを表している。
[正常時の処理]
まず、Webブラウザ3からの要求情報が含まれたリクエスト(通常はHTTPリクエスト)が送信される(ステップS1)。次に、このリクエストに関連するクッキーIDやHTTPリクエストに含まれるデータ、Webブラウザ3が稼動する端末情報をリクエスト代理コンポーネント4から要求情報管理コンポーネント5へ送信し、要求情報管理コンポーネント5は自らの記憶部にこれらのデータを記憶する(ステップS2)。
そして、リクエスト代理コンポーネント4は、Web/APサーバ1に対し、代理サーバ(Proxyサーバ)として、リクエストを送信する(ステップ3)。次に、Web/APサーバ1は、バックエンドサーバ7や外部デバイス8のリクエストを接続代理コンポーネント6に依頼する(ステップS4)。更に、接続代理コンポーネント6は、この依頼に従い、バックエンドサーバ7や外部デバイス8への処理を代行する(ステップS5)。ここでの接続(セッション)は、接続代理コンポーネント6が、あらかじめバックエンドサーバ7および外部デバイス8と確立しておき、このセッションのコネクション情報を、接続代理コンポーネント6に備えた接続プールを用いて管理する。セッションは一度確立したらそのまま接続プールに保持される。こうすることでセッションの確立、終了にかかるオーバヘッドを最小にすることができる。
一つのリクエストに複数のトランザクションが含まれる場合、Web/APサーバ1は、トランザクション単位で処理が完了する毎に要求情報管理コンポーネント5に完了状況を送付する。また、この際、復帰する際に必要な情報を合わせて送付する(ステップS6)。次に、Web/APサーバ1は、トランザクションの処理結果をリクエスト代理コンポーネント4に戻す(ステップS7)。リクエスト代理コンポーネント4は、要求情報管理コンポーネント5が記憶しているWebブラウザ3に関する端末情報を元にWebブラウザ3にリクエスト単位に処理結果を戻す(ステップS8)。最後に、このリクエストが完了したことを要求情報管理コンポーネント5に伝達し、要求情報管理コンポーネント5は、記憶している復帰情報を削除する(ステップS9)。これらの一連の処理は、Web/APサーバ上に設けられた専用のAPIを持つサポート・ライブラリのモジュール群によって実現される。
図5は、本発明の第1、第2の実施形態においてシステムの異常発生時の処理の流れを示す図である。まず、Webブラウザ3から要求情報が含まれたリクエストが送信される(ステップS1)。次に、このリクエストに関連するクッキーIDやHTTPリクエストに含まれるデータ、Webブラウザ3が稼動する端末情報をリクエスト代理コンポーネント4から要求情報管理コンポーネント5へ送付し、要求情報管理コンポーネント5はこれらのデータを記憶する(ステップS2)。
そして、リクエスト代理コンポーネント4は、Web/APサーバ1に対し、代理サーバ(Proxyサーバ)として、リクエストを送信する(ステップ3)。Web/APサーバ1は、バックエンドサーバ7や外部デバイス8のリクエストを接続代理コンポーネント6に依頼する(ステップS4)。接続代理コンポーネント6は、依頼に従い、バックエンドサーバ7や外部デバイス8への処理を代行する(ステップS5)。ここで接続セッションは、接続代理コンポーネント6が、あらかじめバックエンドサーバ7および外部デバイス8と確立しておき、このセッションのコネクション情報を、接続代理コンポーネント6に備えた接続プールを用いて管理する。一つのリクエストに複数のトランザクションが含まれる場合、Web/APサーバ1は、トランザクション単位で処理が完了する毎に要求情報管理コンポーネント5に完了状況を送付する。また、この際、復帰する際に必要な情報を合わせて送付する(ステップS6)。ここまでの処理(ステップS1〜S6)は、図3の正常時の処理と同じである。
[異常時の処理]
ここで、Web/APサーバ1で障害が発生したとする(ステップS7)と、これをリクエスト代理コンポーネント4が検知する。障害発生検知後、リクエスト代理コンポーネント4は、要求情報管理コンポーネント5が記憶しているクッキー情報、HTTPリクエストに含まれるデータ、トランザクション完了情報、復帰情報を読出し(ステップ8a)、そのリクエストをWeb/APサーバ2へ送信する(ステップ8b)。
Web/APサーバ2ではサポート・ライブラリ(処理の継続の処理モジュールの集まりであるAPIライブラリ)を備え、このサポート・ライブラリにより必要なロールバック処理と残っているトランザクション処理を開始し、処理を継続する(ステップS9)。また、バックエンドサーバ7や外部デバイス8への要求を接続代理コンポーネント6へ依頼する際、Web/APサーバ1で使用していた接続と同じものを使用し、バックエンドサーバ7や外部デバイス8のトランザクション処理を継続する(ステップS10)。
Web/APサーバ2は、トランザクションの処理結果をリクエスト代理コンポーネント4に戻す(ステップS11)。リクエスト代理コンポーネント4は、要求情報管理コンポーネント5が記憶しているWebブラウザ3の端末情報を元にWebブラウザ3にリクエスト単位に処理結果を戻す(ステップS12)。最後に、このリクエストが完了したことを要求情報管理コンポーネント5に伝達し、要求情報管理コンポーネント5は、記憶している復帰情報を削除する(ステップS13)。
図6は、本発明の第1、第2の実施形態においてリクエスト代理コンポーネント4のサーバ障害検知後の処理の流れを示す図である。まず、ステップS31においてWeb/APサーバの障害を検知する。検知する具体的方法についてはここでは特に問わない。次にステップS32では、要求情報管理コンポーネント5から仕掛中のリクエスト情報を問い合わせる。そして、ステップS33では、要求情報管理コンポーネント5から仕掛中のリクエストのパラメータ、復帰情報、接続プール情報を受け取る。更に、ステップS34において、パラメータ、復帰情報、接続プール情報からリクエストをジェネレートし、ステップS35で、ジェネレートしたリクエストを障害の発生していないWeb/APサーバ2上のサポート・ライブラリへ送信する。そしてサポート・ライブラリから結果を受け取り(ステップS36)、受け取った結果をWebブラウザ3へ送り(ステップS37)、要求情報管理コンポーネント5に復帰処理の完了を知らせる(ステップS38)。これらのステップS32〜S38を、仕掛中のリクエスト全てに対して行う(ステップS39)。
図7は、本発明の第1、第2の実施形態において要求情報管理コンポーネント5の復帰処理開始の流れを示す図である。ステップS41において、リクエスト代理コンポーネント4から仕掛中リクエストの問い合わせを受けると、保管しているリクエストを検索し(ステップS42)、リクエスト代理コンポーネント4へ仕掛中リクエストのパラメータ、復帰情報、接続プール情報を送る(ステップS43)。これらの処理(ステップS41〜S43)を繰り返す。
図8は、本発明の第1、第2の実施形態において要求情報管理コンポーネント5の復帰処理完了の流れを示す図である。ステップS51において、リクエスト代理コンポーネント4から復帰処理完了の通知を受け取ると、保管しているリクエストを検索し(ステップS52)、該当するリクエストのステータスを正常完了にする(ステップS53)。これらの処理(ステップS51〜S53)を繰り返す。
図9は、本発明の第1、第2の実施形態においてWeb/APサーバ2上のサポート・ライブラリの処理の流れを示す図である。ステップS61において、リクエスト代理コンポーネントからジェネレートされたリクエストを受け取る。次に、受け取ったパラメータ情報からアプリケーション(APPL)の初期化を行う(ステップS62)。また、受け取った復帰情報からアプリケーションの仕掛中の処理を継続させる(ステップS63)。更に、受け取った接続プール情報を元に接続代理コンポーネント上の接続プールから正常時と同じ接続情報を取得する(ステップS64)。次に、Web/APサーバ上のアプリケーションからバックエンドサーバ7、もしくは外部デバイス8への処理要求を受け取る(ステップS65)。そして、接続代理コンポーネント6へ要求を送り(ステップS66)、接続代理コンポーネント6から受け取った結果をアプリケーションに送る(ステップS67)。最後に、処理結果をリクエスト代理コンポーネントへ送る(ステップS68)。以上のステップ(S61〜S68)を繰り返す。
図10は、本発明の第1、第2の実施形態において接続代理コンポーネント6の処理の流れを示す図である。まず、(Web/APサーバ1またはWeb/APサーバ2から)サポート・ライブラリからの要求内容を受け取ると(ステップS71)、(バックエンドサーバ7、もしくは外部デバイス8の)接続プールを使用して要求内容を送る(ステップS72)。次にバックエンドサーバ、もしくは外部デバイス8から結果を受け取る(ステップS73)。そして、サポート・ライブラリへ結果を送る(ステップS74)。以上の処理(ステップS71〜S74)を繰り返す。
以上説明した、図1〜図10の各装置またはコンポーネントの処理の特徴をまとめると以下のようになる。
1)処理の途中から再開できるため、ロールバックをしたくない、もしくは不可能な場合での障害復帰に効果がある。
2)このシステムは使用するための前提条件が必要でなく汎用的に利用できる。PerlなどのCGIやsendmailといったトランザクションの概念がないバックエンドサーバまたは外部デバイスにも適用可能である。
3)トランザクション管理を行う機能とユーザロジックを分離しているためユーザロジックの影響を受けない。
4)復帰処理の方法をシステム任せでなく、自由に設定できる。
5)ユーザに障害に気付かせないシステムが組める。
6)バックエンド、外部デバイスにWeb/APサーバの影響を与えない。
このような特徴を全て備えたシステムは従来にないものである。
図11は、図1〜図10で説明したサーバや各装置(各コンポーネントを含む)の典型的なハードウェア構成例として情報処理装置100を示したものである。以下、この情報処理装置100のハードウェア構成の1例を示す。情報処理装置100は、CPU(Central Processing Unit)1010、バスライン1005、通信I/F1040、メインメモリ1050、BIOS(Basic Input Output System)1060、パラレルポート1080、USBポート1090、グラフィック・コントローラ1020、VRAM1024、音声プロセッサ1030、I/Oコントローラ1070、並びにキーボードおよびマウス・アダプタ等1100の入力手段を備える。I/Oコントローラ1070には、フレキシブル・ディスク(FD)ドライブ1072、ハード・ディスク1074、光ディスクドライブ1076、半導体メモリ1078、等の記憶手段を接続することができる。
音声プロセッサ1030には、増幅回路1032およびスピーカ1034が接続される。また、グラフィック・コントローラ1020には、表示装置1022が接続されている。
BIOS1060は、情報処理装置100の起動時にCPU1010が実行するブートプログラムや、情報処理装置100のハードウェアに依存するプログラム等を格納する。FD(フレキシブル・ディスク)ドライブ1072は、フレキシブル・ディスク1071からプログラムまたはデータを読み取り、I/Oコントローラ1070を介してメインメモリ1050またはハード・ディスク1074に提供する。
光ディスクドライブ1076としては、例えば、DVD−ROMドライブ、CD−ROMドライブ、DVD−RAMドライブ、CD−RAMドライブを使用することができる。この際は各ドライブに対応した光ディスク1077を使用する必要がある。光ディスクドライブ1076は光ディスク1077からプログラムまたはデータを読み取り、I/Oコントローラ1070を介してメインメモリ1050またはハード・ディスク1074に提供することもできる。
情報処理装置100に提供されるコンピュータ・プログラムは、フレキシブル・ディスク1071、光ディスク1077、またはメモリーカード等の記録媒体に格納されて利用者によって提供される。このコンピュータ・プログラムは、I/Oコントローラ1070を介して、記録媒体から読み出され、または通信I/F1040を介してダウンロードされることによって、情報処理装置100にインストールされ実行される。コンピュータ・プログラムが情報処理装置に働きかけて行わせる動作は、図1から図9において説明したサーバまたは各コンポーネント装置における動作と同一であるので省略する。
前述のコンピュータ・プログラムは、外部の記憶媒体に格納されてもよい。記憶媒体としてはフレキシブル・ディスク1071、光ディスク1077、またはメモリーカードの他に、MD等の光磁気記録媒体、テープ媒体を用いることができる。また、専用通信回線やインターネットに接続されたサーバシステムに設けたハード・ディスクまたは光ディスク・ライブラリ等の記憶装置を記録媒体として使用し、通信回線を介してコンピュータ・プログラムを情報処理装置100に提供してもよい。
以上の例は、情報処理装置100について主に説明したが、コンピュータに、情報処理装置で説明した機能を有するプログラムをインストールして、そのコンピュータを情報処理装置として動作させることにより上記で説明した情報処理装置と同様な機能を実現することができる。従って、本発明において一つの実施形態として説明した情報処理装置は、方法およびそのコンピュータ・プログラムによっても実現可能である。
本発明の装置は、ハードウェア、ソフトウェア、またはハードウェアおよびソフトウェアの組み合わせとして実現可能である。ハードウェアとソフトウェアの組み合わせによる実施では、所定のプログラムを有するコンピュータ・システムでの実施が典型的な例として挙げられる。かかる場合、該所定のプログラムが該コンピュータ・システムにロードされ実行されることにより、該プログラムは、コンピュータ・システムに本発明にかかる処理を実行させる。このプログラムは、任意の言語、コード、または表記によって表現可能な命令群から構成される。そのような命令群は、システムが特定の機能を直接実行すること、または(1)他の言語、コード、もしくは表記への変換、(2)他の媒体への複製、のいずれか一方もしくは双方が行われた後に、実行することを可能にするものである。もちろん、本発明は、そのようなプログラム自体のみならず、プログラムを記録した媒体を含むプログラム製品もその範囲に含むものである。本発明の機能を実行するためのプログラムは、フレキシブル・ディスク、MO、CD−ROM、DVD、ハード・ディスク装置、ROM、MRAM、RAM等の任意のコンピュータ可読媒体に格納することができる。かかるプログラムは、コンピュータ可読媒体への格納のために、通信回線で接続する他のコンピュータ・システムからダウンロードしたり、他の媒体から複製したりすることができる。また、かかるプログラムは、圧縮し、または複数に分割して、単一または複数の記録媒体に格納することもできる。
以上、本発明を実施形態、および実施例を用いて説明したが、本発明の技術的範囲は上記実施形態に記載の範囲に限定されない。上記実施形態に、多様な変更または改良を加えることが可能である。また、そのような変更または改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。
本発明の第1の実施形態におけるサーバシステム10の概略を示す図である。 本発明の第2の実施形態におけるサーバシステム30の概略を示す図である。 本発明の第3の実施形態におけるサーバシステム40の概略を示す図である。 本発明の第1、第2の実施形態においてシステムが正常に動作している場合の処理の流れを示す図である。 本発明の第1、第2の実施形態においてシステムの異常発生時の処理の流れを示す図である。 本発明の第1、第2の実施形態においてリクエスト代理コンポーネント4のサーバ障害検知後の処理の流れを示す図である。 本発明の第1、第2の実施形態において要求情報管理コンポーネント5の復帰処理開始の流れを示す図である。 本発明の第1、第2の実施形態において要求情報管理コンポーネント5の処理の流れ(復帰処理完了)を示す図である。 本発明の第1、第2の実施形態においてWeb/APサーバ2上のサポート・ライブラリの処理の流れを示す図である。 本発明の第1、第2の実施形態において接続代理コンポーネント6の処理の流れを示す図である。 本発明のサーバ装置、各コンポーネント装置の典型的なハードウェア構成例として情報処理装置100を示した図である。
符号の説明
1 Web/APサーバ1
2 Web/APサーバ2
3 Webブラウザ
4 リクエスト代理コンポーネント
5 要求情報管理コンポーネント
6 接続代理コンポーネント
7 バックエンドサーバ
8 外部デバイス
10,20,30 サーバシステム
11 要求元端末
12 リクエスト代理装置
13 要求情報管理装置
14 第1サーバ
15 第2サーバ
16 接続代理装置
18 中継装置
17 外部処理装置
19 リクエスト代理部
20 要求情報管理部
21 接続代理部
25 トランザクションモニタ装置
100 情報処理装置

Claims (9)

  1. 要求元端末からのリクエストを処理する第1サーバに障害が発生した場合に、一または複数の第2サーバが前記第1サーバの処理を引き継ぐシステムであって、
    前記要求元端末からの前記リクエストである端末要求情報を受信し、前記第1サーバに対して該リクエストを代理し、前記第1サーバから前記リクエストに含まれるトランザクションの処理結果を受信し、前記リクエストの単位の処理結果を前記要求元端末に送信するリクエスト代理装置と、
    前記リクエスト代理装置から前記端末要求情報を受信し、記憶し、前記第1サーバからトランザクションの単位で処理が完了した毎に該トランザクションの完了状況および復帰情報を受信し、記憶し、前記リクエスト代理装置から前記リクエストに対する処理が完了したことを受信したことに応じて、記憶している前記復帰情報を削除する要求情報管理装置と、
    前記第1サーバから外部処理装置への処理を中継し、前記第1サーバと前記外部処理装置との接続情報を管理する接続代理装置と、
    を備え、
    前記リクエスト代理装置は、前記第1サーバに障害が発生したことを検知したことに応じて、前記要求情報管理装置から、記憶している前記端末要求情報と前記トランザクションの完了状況および復帰情報とを読出して前記第2サーバへ送信し、
    前記第2サーバは、受信した前記端末要求情報と前記トランザクションの完了状況および復帰情報とに基づいて前記リクエストに対する処理を継続し、前記外部処理装置への処理要求を前記接続代理装置へ送信する際に前記接続情報を用い、処理が完了したトランザクションの完了状況および復帰情報を前記リクエスト代理装置へ送信する、
    ことを特徴とするシステム。
  2. 前記要求情報管理装置は、前記リクエストに複数のトランザクションが含まれる場合に、トランザクションの単位で処理が完了した毎に該トランザクションの完了状況および復帰情報を前記第1サーバから受信する、請求項1に記載のシステム。
  3. 前記第2サーバは、前記第1サーバの処理を引き継ぐ際に、処理途中のトランザクションのロールバックを行い、残りのトランザクションを完了する毎にその処理結果を前記リクエスト代理装置に送信し、
    前記リクエスト代理装置は、前記リクエストに含まれるすべてのトランザクションが完了した際に、前記要求情報管理装置が記憶している前記端末要求情報をに前記要求元端末に前記リクエストの処理結果を送信する、請求項2に記載のシステム。
  4. 前記端末要求情報は、クッキーID、HTTPリクエストに含まれるデータ、前記トランザクションの完了情報、HTTPヘッダ情報、セションID、および前記トランザクションの復帰情報のうち少なくとも一つを含む、請求項2に記載のシステム。
  5. 前記要求情報管理装置は、前記第2サーバが引き継いだリクエストに対する処理が完了したことに応じて前記復帰情報を削除する、請求項4に記載のシステム。
  6. 前記リクエスト代理装置、要求情報管理装置、および前記接続代理装置は、それぞれ二重化構成または冗長化構成をとることを含む、請求項1に記載のシステム。
  7. 要求元端末からのリクエストを処理する第1サーバに障害が発生した場合に、一または複数の第2サーバが前記第1サーバの処理を引き継ぐ方法であって、
    前記要求元端末と前記第1サーバまたは第2サーバとの間を中継する一または複数の中継装置が、
    前記要求元端末からの前記第1サーバへの前記リクエストを代理するステップと、
    前記要求元端末からの前記リクエストに関する端末要求情報を受信し記憶するステップと、
    前記第1サーバに対する前記リクエストを送信するステップと、
    前記第1サーバから外部処理装置への処理要求が発生したことに応じて、前記第1サーバと前記外部処理装置との接続情報を管理し、該処理要求を代理するステップと、
    前記第1サーバからトランザクションの単位で処理が完了した毎に該トランザクションの完了状況および復帰情報を受信し、記憶するステップと、
    前記第1サーバから前記リクエストに含まれるトランザクションの処理結果を受信し、前記リクエストの単位の処理結果を前記要求元端末に送信するステップと、
    前記リクエストに対する処理が完了したことに応じて、記憶している前記復帰情報を削除するステップと、
    前記第1サーバに障害が発生したことを検知するステップと、
    前記障害を検知したことに応じて、記憶している前記端末要求情報と前記トランザクションの完了状況および復帰情報とを読出し、前記第2サーバへ送信し、前記第2サーバに、送信した前記端末要求情報と前記トランザクションの完了状況および復帰情報とに基づいて前記要求元端末からのリクエストに対する処理を継続させるステップと、
    を含むことを特徴とする方法。
  8. 要求元端末からのリクエストを処理する第1サーバに障害が発生した場合に、一または複数の第2サーバが前記第1サーバの処理を継続させるコンピュータ・プログラムであって、
    前記要求元端末と前記第1サーバまたは第2サーバとの間を中継する一または複数の中継装置に、
    前記要求元端末からの前記第1サーバへの前記リクエストを代理するステップと、
    前記要求元端末からの前記リクエストに関する端末要求情報を受信し記憶するステップと、
    前記第1サーバに対する前記リクエストを送信するステップと、
    前記第1サーバから外部処理装置への処理要求が発生したことに応じて、前記第1サーバと前記外部処理装置との接続情報を管理し、該処理要求を代理するステップと、
    前記第1サーバからトランザクションの単位で処理が完了した毎に該トランザクションの完了状況および復帰情報を受信し、記憶するステップと、
    前記第1サーバから前記リクエストに含まれるトランザクションの処理結果を受信し、前記リクエストの単位の処理結果を前記要求元端末に送信するステップと、
    前記リクエストに対する処理が完了したことに応じて、記憶している前記復帰情報を削除するステップと、
    前記第1サーバに障害が発生したことを検知するステップと、
    前記障害を検知したことに応じて、記憶している前記端末要求情報と前記トランザクションの完了状況および復帰情報とを読出し、前記第2サーバへ送信し、前記第2サーバに、送信した前記端末要求情報と前記トランザクションの完了状況および復帰情報とに基づいて前記要求元端末からのリクエストに対する処理を継続させるステップと、
    を実行させる、コンピュータ・プログラム。
  9. 要求元端末からのリクエストを処理する第1サーバの負荷に応じて一または複数の第2サーバに前記第1サーバの処理を分散させるシステムであって、
    前記要求元端末からの前記リクエストである端末要求情報を受信し、前記第1サーバに対する該リクエストを代理し、前記第1サーバから前記リクエストに含まれるトランザクションの処理結果を受信し、前記リクエストの単位の処理結果を前記要求元端末に送信し、前記第2サーバに処理の負荷を分散させるリクエスト代理装置と、
    前記リクエスト代理装置から前記端末要求情報を受信し、記憶し、前記第1サーバからトランザクションの単位で処理が完了した毎に該トランザクションの完了状況および復帰情報を受信し、記憶し、前記リクエスト代理装置から前記リクエストに対する処理が完了したことを受信したことに応じて、記憶している前記復帰情報を削除する要求情報管理装置と、
    前記第1サーバと接続され外部処理装置への前記第1サーバからの処理要求を代理し、前記第1サーバと前記外部処理装置との接続情報を管理する接続代理装置と、
    前記複数のサーバのトランザクション負荷を監視するトランザクションモニタ装置と、を備え、
    前記トランザクションモニタ装置は、前記第1サーバに所定の過負荷が発生したことを検知し、
    前記リクエスト代理装置は、前記過負荷の検知を受信したことに応じて、前記要求情報管理装置が記憶する前記端末要求情報と前記トランザクションの完了状況および復帰情報とを読出して前記第2サーバへ送信し、
    前記第2サーバは、受信した前記端末要求情報と前記トランザクションの完了状況および復帰情報とに基づいて前記要求元端末からのリクエストに対する処理を継続し、前記外部処理装置への処理要求を前記接続代理装置へ送信する際に前記接続情報を用い、処理が完了したトランザクションの完了状況および復帰情報を前記リクエスト代理装置へ送信する、
    ことを特徴とするシステム。
JP2006198976A 2006-07-21 2006-07-21 トランザクション引継ぎシステム Expired - Fee Related JP4107676B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2006198976A JP4107676B2 (ja) 2006-07-21 2006-07-21 トランザクション引継ぎシステム
US11/776,590 US20080077657A1 (en) 2006-07-21 2007-07-12 Transaction takeover system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006198976A JP4107676B2 (ja) 2006-07-21 2006-07-21 トランザクション引継ぎシステム

Publications (2)

Publication Number Publication Date
JP2008027189A JP2008027189A (ja) 2008-02-07
JP4107676B2 true JP4107676B2 (ja) 2008-06-25

Family

ID=39117756

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006198976A Expired - Fee Related JP4107676B2 (ja) 2006-07-21 2006-07-21 トランザクション引継ぎシステム

Country Status (2)

Country Link
US (1) US20080077657A1 (ja)
JP (1) JP4107676B2 (ja)

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4966135B2 (ja) * 2007-08-31 2012-07-04 株式会社東芝 サーバ装置、端末装置、通信制御方法および通信制御プログラム
EP2504966B1 (en) 2009-11-26 2013-08-14 Telefonaktiebolaget LM Ericsson (publ) Method, system and network nodes for performing a sip transaction in a session initiation protocol based communications network
JP5550392B2 (ja) * 2010-03-15 2014-07-16 株式会社東芝 計算機の機能検証方法
US9363327B2 (en) 2011-06-15 2016-06-07 Juniper Networks, Inc. Network integrated dynamic resource routing
US9571566B2 (en) 2011-06-15 2017-02-14 Juniper Networks, Inc. Terminating connections and selecting target source devices for resource requests
US8504723B2 (en) * 2011-06-15 2013-08-06 Juniper Networks, Inc. Routing proxy for resource requests and resources
JP2013186745A (ja) 2012-03-08 2013-09-19 Fuji Xerox Co Ltd 処理システム及びプログラム
EP2975523A4 (en) * 2013-03-12 2017-02-08 Toshiba Solutions Corporation Database system, program, and data processing method
IN2015CH03249A (ja) * 2015-06-27 2015-07-10 Wipro Ltd
US9990491B2 (en) 2016-01-19 2018-06-05 International Business Machines Corporation Methods and systems for assessing and remediating online servers with minimal impact
US10178445B2 (en) * 2016-11-23 2019-01-08 At&T Intellectual Property I, L.P. Methods, devices, and systems for load balancing between a plurality of waveguides
JP6787576B2 (ja) * 2017-02-20 2020-11-18 ウイングアーク1st株式会社 クラウド中継システムおよび中継サーバ
WO2020165994A1 (ja) 2019-02-14 2020-08-20 三菱電機株式会社 データ処理装置及びデータ処理システム
JP7363049B2 (ja) * 2019-02-18 2023-10-18 日本電気株式会社 業務サービス提供システム、業務サービス復旧方法及び業務サービス復旧プログラム
JP2022074496A (ja) * 2020-11-04 2022-05-18 イグドラシルリーヴズ合同会社 ネットワーク処理制御システム

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02310665A (ja) * 1989-05-25 1990-12-26 Toshiba Corp 分散トランザクション処理システム
US5796934A (en) * 1996-05-31 1998-08-18 Oracle Corporation Fault tolerant client server system
US6226694B1 (en) * 1998-04-29 2001-05-01 Hewlett-Packard Company Achieving consistency and synchronization among multiple data stores that cooperate within a single system in the absence of transaction monitoring
US7409420B2 (en) * 2001-07-16 2008-08-05 Bea Systems, Inc. Method and apparatus for session replication and failover
US6779093B1 (en) * 2002-02-15 2004-08-17 Veritas Operating Corporation Control facility for processing in-band control messages during data replication

Also Published As

Publication number Publication date
US20080077657A1 (en) 2008-03-27
JP2008027189A (ja) 2008-02-07

Similar Documents

Publication Publication Date Title
JP4107676B2 (ja) トランザクション引継ぎシステム
US6728897B1 (en) Negotiating takeover in high availability cluster
US7076691B1 (en) Robust indication processing failure mode handling
US9306825B2 (en) Providing a witness service
US20080288812A1 (en) Cluster system and an error recovery method thereof
EP3624426B1 (en) Binding crud-type protocols in distributed agreement protocols
JP2007226400A (ja) 計算機管理方法、計算機管理プログラム、実行サーバの構成を管理する待機サーバ及び計算機システム
WO2016202051A1 (zh) 一种通信系统中管理主备节点的方法和装置及高可用集群
CN111209260A (zh) 基于分布式存储的nfs集群及其提供nfs服务的方法
JP4515262B2 (ja) フォールトトレランススキームを動的に切換えるための方法
CN114844809B (zh) 基于网络心跳和内核磁盘心跳的多因子仲裁方法、装置
CN110109772A (zh) 一种cpu的重启方法、通信设备及可读存储介质
JP2011203941A (ja) 情報処理装置、監視方法、および監視プログラム
Ramasamy et al. Hacm: high availability control method in container-based microservice applications over multiple clusters
JP5691248B2 (ja) タスク引継プログラム、処理装置及びコンピュータ・システム
US8036105B2 (en) Monitoring a problem condition in a communications system
JP4863984B2 (ja) 監視処理プログラム、方法及び装置
CA2334305C (en) Object duplication
JP2004295334A (ja) 電子計算システム、サーバ装置およびプログラム
US11947431B1 (en) Replication data facility failure detection and failover automation
WO2024013828A1 (ja) 信号処理リソース切替装置、信号処理リソース切替システム、信号処理リソース切替方法およびプログラム
JP7395908B2 (ja) 情報処理システム
JP4224037B2 (ja) サービス提供方法、及びデータ処理装置
CN115203334A (zh) 数据处理方法、装置、电子设备和存储介质
JP2007156590A (ja) 障害回復方法、情報管理サーバおよび計算機システム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20071205

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20071221

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20080107

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080122

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080222

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080325

RD14 Notification of resignation of power of sub attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7434

Effective date: 20080326

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080331

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110411

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees