WO2004088940A1 - 負荷分散システム - Google Patents
負荷分散システム Download PDFInfo
- Publication number
- WO2004088940A1 WO2004088940A1 PCT/JP2003/004143 JP0304143W WO2004088940A1 WO 2004088940 A1 WO2004088940 A1 WO 2004088940A1 JP 0304143 W JP0304143 W JP 0304143W WO 2004088940 A1 WO2004088940 A1 WO 2004088940A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- distribution
- load
- traffic
- transmission
- transmission byte
- Prior art date
Links
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L67/00—Network arrangements or protocols for supporting network services or applications
- H04L67/01—Protocols
- H04L67/10—Protocols in which an application is distributed across nodes in the network
- H04L67/1001—Protocols in which an application is distributed across nodes in the network for accessing one among a plurality of replicated servers
- H04L67/1004—Server selection for load balancing
- H04L67/1008—Server selection for load balancing based on parameters of servers, e.g. available memory or workload
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L47/00—Traffic control in data switching networks
- H04L47/10—Flow control; Congestion control
- H04L47/11—Identifying congestion
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L47/00—Traffic control in data switching networks
- H04L47/10—Flow control; Congestion control
- H04L47/12—Avoiding congestion; Recovering from congestion
- H04L47/125—Avoiding congestion; Recovering from congestion by balancing the load, e.g. traffic engineering
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L67/00—Network arrangements or protocols for supporting network services or applications
- H04L67/01—Protocols
- H04L67/10—Protocols in which an application is distributed across nodes in the network
- H04L67/1001—Protocols in which an application is distributed across nodes in the network for accessing one among a plurality of replicated servers
Definitions
- the present invention relates to a load distribution system, and more particularly to a load distribution system that distributes traffic load.
- load distribution was measured by measuring the load by measuring the number of unprocessed file access requests, and the load was calculated based on the number of transactions in progress and the number of business processing processes stagnant in the EPU system.
- a technique has been proposed that measures the load and performs load balancing.
- Patent Document 1
- JP-A-6-3322782 (paragraph numbers [0010] to [0017], FIG. 1)
- Patent Document 2
- JP 2002-278945 A paragraph numbers [0012] to [002
- Patent Document 1 in order to measure the number of unprocessed file access requests, management is performed on a file basis, but this file management process itself is a bottleneck in performing load distribution at high speed. And load balancing is easy There is a problem that it is difficult to increase the speed.
- Patent Document 2 it is necessary to grasp the transaction and process status in order to measure the number of transactions being processed and the number of business processing processes staying in the EPU system, but the processing itself for monitoring the transaction and process status is a burden. There is a problem that it may become a bottleneck in performing high-speed distribution, and it is difficult to easily accelerate load distribution. Disclosure of the invention
- the present invention has been made in view of such a point, and it is an object of the present invention to provide a load distribution system that efficiently and quickly performs load measurement and load distribution control to improve communication quality and reliability. Aim.
- a plurality of load distribution apparatuses 10 for receiving distributed traffic and performing load distribution in a load distribution system 1 for performing traffic load distribution as shown in FIG. 1, a plurality of load distribution apparatuses 10 for receiving distributed traffic and performing load distribution.
- _ 1 to 10 — n a transmission byte number acquisition unit 27 that acquires the number of transmission bytes from the frame, and a value obtained by cumulatively adding the number of transmission bytes for each destination address to the transmission byte number storage table T 2. It consists of a transmission byte number storage section 28 to be stored and a transmission byte number notification section 29 for notifying the number of transmission bytes stored in the transmission byte number storage table T2 at regular intervals.
- the pre-distribution device 20 placed before the load distribution device 10-1 to 10-n, and the notified number of transmission bytes and the load distribution device 10-1 to 10_n can be received. Compare the number of bytes to determine which load balancer is overloaded.
- the load balancers 10-1 to 10-n receive the distributed traffic and distribute the load.
- the transmission byte number acquisition unit 27 acquires the transmission byte number from the frame.
- the transmission byte count storage unit 28 stores a value obtained by cumulatively adding the transmission byte count for each destination address in the transmission byte count storage table T2.
- the transmission byte number notification unit 29 periodically updates the transmission byte number stored in the transmission byte number storage table T2. Notify every time.
- the overload device detection unit 32a compares the notified number of transmitted bytes with the number of bytes receivable by the load distributing device 10—1 to 10_n, and determines the load that is overloaded Detect the distribution device.
- the distribution amount adjustment unit 32b adjusts the traffic distribution amount by reducing the allocation to the load balancer that has been detected as overloaded.
- FIG. 1 is a diagram illustrating the principle of a load distribution system according to the present invention.
- Figure 2 is a diagram showing an overview of correcting traffic bias.
- FIG. 3 is a diagram showing a configuration of a client-server communication system.
- FIG. 4 is a diagram showing the configuration of the load distribution system.
- FIG. 5 is a diagram showing the setting contents of the distribution destination table.
- FIG. 6 is a diagram showing an operation sequence for determining a frame distribution destination.
- FIG. 7 is a diagram showing an outline of transmission byte count measurement.
- FIG. 8 is a diagram showing an operation sequence of transmission byte number measurement.
- FIG. 9 is a diagram illustrating an operation sequence of a result notification of the number of transmission bytes measurement.
- FIG. 10 is a diagram showing an operation sequence for determining the details of reallocation.
- FIG. 11 is a diagram for explaining the overload device detection process.
- FIG. 12 is a diagram showing the operation sequence of the reassignment content transfer.
- FIG. 13 is a diagram showing an operation sequence of setting a distribution destination correspondence table.
- FIG. 14 is a diagram showing a state of changing the assignment of the distribution destination correspondence table.
- FIG. 15 is a diagram showing a distribution destination correspondence table independent for each user.
- FIG. 16 is a diagram showing an outline of the transmission byte count measurement.
- FIG. 17 is a diagram illustrating a manner of calculating the total number of transmission bytes for each load distribution device.
- Figure 18 is a diagram showing the detection operation of the user who is transmitting the largest number of frames.
- FIG. 19 is a diagram showing a switching count storage table.
- FIG. 1 is a principle diagram of the load distribution system of the present invention.
- the load distribution system 1 includes a load distribution device 10-1 to 10-n, a pre-stage distribution device 20 and a management device 30, and is a system for distributing a network traffic load.
- a plurality of load balancers are prepared for an amount of traffic that cannot be processed by one load balancer, and a pre-stage distribution device 20 and a management device 30 are arranged in front of the load balancers. Then, a configuration is adopted in which the traffic to be transmitted to the load distribution devices 10-1 to 10-n is distributed by the pre-stage distribution device 20 and the management device 30.
- the function of the management device 30 may be included in the pre-sorting device 20.
- the load balancers 10-1 to 10-n receive the traffic distributed and adjusted by the management device 30 from the upstream distribution device 20 and distribute the load.
- the upstream sorting device 20 includes a transmission byte number acquisition unit 27, a transmission byte number storage table T2, and a transmission byte number storage unit 28.
- the transmission byte number acquisition unit 27 acquires a destination address (address of the load balancer to which the packet is distributed) and a frame length from the frame (or packet). This frame length is the number of transmission bytes (the number of bytes of the transmission frame) corresponding to the destination address.
- the transmission byte count storage unit 28 stores the value obtained by cumulatively adding the transmission byte count in the transmission byte count storage table T2. That is, the number of transmission bytes (frame length) acquired by the transmission byte number acquisition unit 27 is stored in a table as a value obtained by accumulative addition corresponding to the destination address (this transmission byte number storage table). From the information stored in T2, it is possible to recognize how much traffic was allocated in the past to each of the load balancers 10-1 to 10-n.) The transmission byte number notification unit 29 notifies the management device 30 of the transmission byte number stored in the transmission byte number storage table T2 at regular intervals.
- Management device 30 is composed of overload device detection unit 32a and distribution amount adjustment unit 32b Is done.
- the overload device detection unit 32a compares the notified number of transmission ports with the number of bytes (preset) that can be received by the load balancers 10-1 to 10-n. Detects overloaded load balancers.
- the distribution amount adjustment unit 3 2b reduces the amount of allocation to the load balancer that has been detected as overloaded, and adjusts the traffic distribution amount so that traffic is not concentrated only on a specific load balancer. In addition, dynamically correct the traffic bias.
- FIG. 2 is a diagram showing an outline of the correction of the traffic bias.
- the state A1 on the left side shows that the frames are distributed to the load balancers 10-1 to 10-3 in a state where the traffic volume is biased. If such a state occurs, for example, in the load balancer 10-1 receiving the largest amount of frames, the frame reception buffer overflows and the frames are discarded. Discarding frames causes a decrease in service to users.
- state A2 on the right side shows that traffic bias correction has been performed.
- the transmission function of the present invention measures the actual distribution of frames, measures the amount of transmitted data (specifically, measures the number of transmitted bytes), and based on this measurement result. To correct the traffic bias. As a result, frames do not concentrate on a specific load balancer, so that frame discarding does not occur and a decrease in service quality can be prevented.
- FIG. 3 is a diagram showing the configuration of the client server communication system.
- the client-server communication system 100 is composed of clients 50-1 to 50-n, a network 110, a pre-distribution device 20, a management device 30, and a load distribution device 10_1 to 10_n. , Switch SW, server group 60-1 to 60-n.
- Each of the server groups 60-1 to 60-n is composed of a plurality of servers.
- the clients 50-1 to 50-n and the pre-sorting device 20 are connected to the network 110.
- the management device 30 and the load distribution devices 10-1 to 10-n are connected to the pre-stage distribution device 20.
- load balancer 10 0-1 to 1 0- n Is connected to the switch SW, and the switch SW is connected to the server group 60_1 to 60-n.
- the client-server communication system 100 as a configuration of a server that receives requests from a large number of clients 50-1 to 50-n, a plurality of servers having the same contents and the same processing are prepared, and a server group is provided.
- the load balancers 10-1 to 10-n are arranged in front of the 60-l to 60_n via the switch SW.
- the requests transmitted from the clients 50-1 to 50-n via the network 110 are sent to the load distribution devices 10 _ 1 to 1 by the pre-stage distribution device 20 and the management device 30.
- the load is distributed to 0-n, and the load balancer 10 0-1 to 10-n distributes the request to an appropriate server to process a large amount of traffic.
- the load balancers 10_1 to 10_n analyze the contents of the request from the client, select an appropriate server according to the contents, rewrite the request destination to the server destination, and send the request to the server. Perform the transfer process.
- a method of preventing frame (bucket) discarding due to overflow of a frame reception buffer in the load balancer 1 0—1 to 10 0—n (collectively, the load balancer 10) is based on the load balancer 1
- a method of monitoring the state of the receive buffer of 0 and notifying it to a frame distribution unit having a frame distribution function in, for example, a pre-stage distribution device to reduce a transmission amount addressed to the corresponding load distribution device There was a method to increase the buffer size.
- traffic to load balancer 10 related to frame overflow prevention
- a method of performing a hash (Hash) operation process from the source address of an input frame and transferring the frame to a load distribution device corresponding to the hash value can be considered (the hash operation is a given original text.
- (Data) is a calculation method to generate a pseudo-random number of fixed length from the (data), and the generated pseudo-random number value is called a hash value.
- the source addresses of the input traffic are evenly distributed, the traffic is not biased, but the source addresses may not actually be uniform.
- one function of allocating traffic to the load distribution apparatus 10 is realized by measuring the number of transmission bytes. This is a method of measuring the load of the load distribution device 10 with the amount of transmission traffic.
- the load balancer 10 is considered to be configured so that all frames received can be processed by the CPU (inputs that exceed the CPU processing capacity are not accepted). In order to ascertain the service level reduction situation), it is sufficient to measure whether or not the frame can be received, that is, whether or not the reception buffer overflows.
- whether or not the receiving buffer overflows can be determined by measuring the amount of transmitted traffic (the number of transmitted bytes) and determining whether or not it exceeds the receivable capacity of the load balancer.
- the process of measuring the number of transmitted bytes according to the present invention (a series of processes of acquiring the number of transmitted bytes, cumulatively adding, and notifying) can perform control without performing a feed pack from a distribution destination, and does not include condition determination. Since only simple processing is required, it can be executed by hardware without complicated software, so high-speed processing is possible.
- the distribution control function is based on the measurement result of the number of transmission bytes measured by the pre-stage distribution device 20 (framed by the pre-stage distribution device 20 and transferred to the management device 30). Reassignment at 0 (correction of traffic bias) Determine the content. The point is that the transmission byte count measurement function and the distribution control function for making judgments are independent.
- the transmission byte count measurement function requires high-speed processing, but the judgment function is generally complicated and does not require high-speed processing. Rather, it is enough to make regular reviews.) Therefore, the two functions only need to be independent, and it is sufficient if the two functions can cooperate.
- the pre-stage distribution device 20 communicates with a plurality of load distribution devices 10 0 to 1 to 10 n. It is necessary to combine information received from a plurality of load balancers 10-1 to 10-1n. In contrast, there is a one-to-one relationship between the transmission byte number measurement function of the pre-stage distribution device 20 and the distribution control function of the management device 30, and no processing such as integration of information is required.
- the management device 30 detects whether or not the frame receiving buffer has overflowed in the load distribution device 10 based on the measurement content of the number of transmission bytes. This is determined based on whether the number of transmitted bytes exceeds the number of bytes that the load balancer 10 can process.
- the contents of a distribution destination correspondence table described later are modified so that the distribution amount to the load distribution device is reduced (specifically, Hearts assigned to the load balancer that is the load Change the entry corresponding to the default value to another load balancer).
- the determined re-allocation contents are transferred from the management device 30 to the pre-assignment device 20 and set in the assignment destination correspondence table.
- FIG. 4 is a diagram showing the configuration of the load distribution system 1.
- the frame transmission / reception unit 21a has a frame transmission / reception function for performing a communication interface with a client, and receives an input frame with respect to the pre-stage distribution device 20.
- the frame transmission / reception unit 21b has a frame transmission / reception function for performing a communication interface with the management device 30.
- Each of the frame transmission / reception units 21c-1 to 21c-n has a frame transmission / reception function for performing communication interface with the load balancers 10-1 to 10-n.
- the output port determining unit 22 has a function of transmitting predetermined information to a corresponding component block in the pre-stage distribution device 20 or receiving predetermined information from the corresponding component block.
- the control frame discriminating unit 23 distributes the input frame received via the frame transmitting / receiving unit 21a and the output port determining unit 22 as a target to be distributed to the load distribution devices 10-1 to 10-n. It is determined whether the frame is to be transferred to the destination determining unit 25 or to be transferred to the table writing unit 24 as a control frame for the pre-sorting device 20 itself. Do).
- the table writing unit 24 extracts the data from the control frame transmitted from the management device 30, and writes the data to the distribution destination correspondence table T1.
- the destination table T1 is a table for assigning a load balancer to a hash value.
- a table is prepared for the hash function output value. Specify which load balancer to assign to the table (because, for example, if the output value of the hash function is 8 and there are 3 load balancers, if there are no tables, the distribution destination is 5 Z 8 It will not exist).
- the distribution destination determination unit 25 includes a hash calculation unit 25a and a distribution destination address return unit 25b, and has a function of determining a distribution destination from an input frame.
- the hash calculator 25a applies a hash function to the source address of the input frame to obtain a hash value.
- the hash function used has 8 values, 16 values, etc., but the output value must be larger than the number of load distribution devices to which the preceding distribution device 20 is to be distributed.
- the distribution destination address return unit 25b searches the distribution destination correspondence table T1 with the obtained hash value, obtains the address (distribution destination address) of the corresponding load distribution device, and obtains the address of this load distribution device. To the destination address rewriting section 26. The destination address rewriting unit 26 rewrites the destination address of the input frame with the load balancing device address received from the distribution destination address return unit 25b.
- the transmission byte number acquisition unit 27 acquires the destination address and the frame length from the frame transmitted from the destination address rewriting unit 26, and acquires the number of transmission bits for each destination address.
- the transmission byte number storage unit 28 stores the transmission byte number in the transmission byte number storage table T2.
- the transmission byte number transfer unit 29 transfers the accumulated number of transmission bytes to the output port determination unit 22 at regular intervals, and the transmission byte number is transmitted to the output port determination unit 22 and the frame transmission / reception unit 21b. Is transferred to the management device 30 via
- the frame transmission / reception unit 31 has a frame transmission / reception function for performing a communication interface with the pre-assignment device 20 with respect to the management device 30.
- the distribution destination control unit 32 includes an overload device detection unit 32a and a distribution amount adjustment unit 32b, detects a traffic deviation, and stores a distribution destination correspondence table T1 according to the deviation degree. Control to correct the contents (the corrected contents are framed and transferred to the pre-sorting device 20).
- the overload device detection unit 32a detects a load distribution device in an overload state from the number of transmission bytes received from the pre-stage distribution device 20. In this case, the number of transmitted bytes is compared with the number of bytes that can be received by the load balancers 10-1 to 10-n, and the amount of traffic that can be received by the load balancer (the (It shall be set).
- the distribution amount adjustment unit 32b reduces the allocation to the load distribution device detected by the overload device detection unit 32a and distributes it to the load distribution device with the least amount of transmission traffic. Correct the destination correspondence table T1.
- System operation items include: frame destination determination, transmission byte count measurement, notification of measurement results, determination of reassignment contents, transfer of reassignment contents, setting to assignment destination correspondence table T1. Divided. Each will be described.
- FIG. 5 is a diagram showing the setting contents of the sorting destination table T1.
- An example is shown in which the pre-assignment device 20 assigns loads to three load distribution devices A, B, and C.
- the input traffic volume is 80 Mbps
- the traffic is processed at 3: 3: 2, respectively.
- the hash calculator 25a applies a hash function (8 values) to the source address of the input frame, calculates the hash value, and transmits the hash value to the destination address reply unit 25.
- the distribution destination address replying unit 25b refers to the distribution destination correspondence table T1 from the received hash value, obtains the address of the distribution destination load distribution device, and transmits it to the destination address rewriting unit 26.
- the destination address rewriting unit 26 rewrites the destination address of the input frame to the address of the load distribution device of the distribution destination. With this setting, it is expected that traffic of 30 Mbps, 30 Mbps, and 20 Mbps will be distributed to the load balancers A to C.
- the ratio can be set arbitrarily, the ratio may be 4: 2: 2 instead of 3: 3: 2. However, here, the sum of the ratios (3 + 3 + 2, 4 + 2 + 2) needs to be 8, which is the same as the number of hash values. Do from).
- FIG. 6 is a diagram showing an operation sequence for determining a frame distribution destination.
- the frame transmitting / receiving unit 21a receives a frame from the client.
- the output port determination unit 22 confirms the destination address of the received frame, and if it is the address of the pre-stage distribution device 20, transfers it to the control frame determination unit 23.
- the control frame determining unit 23 checks the data part of the frame, and determines whether the data part is a table content to be set in the distribution destination correspondence table T1 or a general data frame. In the case of a data frame, it is transferred to the distribution destination determination unit 25.
- the distribution destination determination unit 25 Upon receiving the frame, the distribution destination determination unit 25 extracts the source address in the hash operation unit 25a, inputs the source address to the 8-valued hash function, performs the operation, and distributes the operation result to the destination Forward to address reply section 2 5 b.
- the distribution destination address return unit 25b acquires the corresponding entry contents (address of the load balancer) of the distribution destination correspondence table T1 from the hash value output by the hash function.
- the distribution destination determination unit 25 transfers the frame and the address of the load balancer to the destination address rewriting unit 26.
- the destination address rewriting unit 26 rewrites the destination address of the frame to the address of the load balancer.
- the destination address rewriting unit 26 transfers the frame after the destination address rewriting to the transmission byte number acquisition unit 27.
- FIG. 7 is a diagram showing an outline of the measurement of the number of transmission bytes.
- the transmission byte number acquisition unit 27 acquires the frame length of the frame after rewriting the destination address.
- the transmission byte number storage unit 28 adds the frame length to the entry corresponding to the destination address stored in the transmission byte number storage table T2.
- the frame length is 64 bytes and the destination address is the address of the load balancer A, 64 is added to 45,000,000. In this way, the number of transmitted bytes can be measured by adding the frame length and storing the accumulated amount for each load distribution device.
- FIG. 8 is a diagram showing an operation sequence for measuring the number of transmitted bytes. Steps S11 to S13 are the measurement of the number of transmission bytes, and steps S14 and S15 show the operation of distributing the frames to the load distribution device.
- the destination address rewriting unit 26 transmits the frame after the destination address rewriting. Transfer to byte number acquisition part 27.
- the transmission byte number acquisition section 27 acquires the destination address and the frame length from the received frame, and transfers them to the transmission byte number storage section 28.
- the transmission byte number storage unit 28 adds the frame length to the entry corresponding to the destination address in the transmission byte number storage table T2.
- the destination address rewriting unit 26 transfers the frame after the destination address rewriting to the output port determination unit 22.
- the output port determining unit 22 transfers the frame to the frame transmitting / receiving unit 21c corresponding to the destination address, and the frame transmitting / receiving unit 21c transmits the received frame to the corresponding load distribution device. I do. If the input frame is a data frame, the above steps S1 to S15 are repeated.
- the transmission byte number notification unit 29 frames the contents of the transmission byte number storage template T2 at regular time intervals (eg, once every minute, once every five minutes, etc.) Notify to
- FIG. 9 is a diagram showing an operation sequence of the result notification of the number of transmission bytes measurement.
- the transmission byte number notification unit 29 converts the contents of the transmission byte number storage table T2 (transmission byte number information) into a frame having the destination address of the management device 30 and forms an output port determination unit 2 Transfer to 2.
- the transmission byte number notification unit 29 clears the contents of the transmission byte number storage table T2 simultaneously with the transfer in step S21.
- the output port determination unit 22 transfers the received frame to the frame transmission / reception unit 21b in order to transfer the received frame to the management device 30.
- the frame transmission / reception unit 21b transfers the frame of the transmission byte number information to the management device 30.
- the frame transmission / reception unit 31 receives this and transfers it to the distribution destination control unit 32.
- the distribution destination control unit 32 of the management device 30 detects an overloaded load distribution device and adjusts the distribution traffic to the device.
- Figure 10 shows the reallocation
- FIG. 6 is a diagram showing an operation sequence for determining contents.
- the overload device detection unit 32a compares the notified number of transmission bytes with the number of receivable bytes of the load distribution device. It is assumed that the number of bytes that can be received by the load balancer is set in advance. As a result of the comparison, if an overloaded device is detected, the information of the device is transferred to the distribution amount adjustment unit 32b.
- the distribution amount adjustment unit 32b generates information for changing the allocation to the overloaded device in the distribution destination correspondence table T1 to another device (for example, the device with the least number of transmission bytes).
- FIG. 11 is a diagram for explaining the overload device detection processing.
- the number of transmission bytes corresponding to the load distribution devices A to is registered in the transmission byte number storage table T2.
- the load distribution device A has 45,000,000 (45M bytes), and the load distribution device B has 11,250,000 (11.25 M byte) and 3,750,000 (3.75 M bytes) for load balancer C.
- the number of bytes that can be received by the load balancer is 50 M bps, and 50 M bps is divided by 8. If the unit is byte, it is 6.25 M byte / sec, and if it is multiplied by 60 and the unit is byte / min, it becomes 37.51 VI byte / rnin.
- the load balancer A is detected, and the traffic is biased to the load balancer A. Therefore, the load balancer A is detected as an overload device.
- FIG. 12 is a diagram showing the operation sequence of the reassignment content transfer.
- the distribution amount adjustment unit 3 2b frames the changed reassignment contents.
- the destination address is set to the pre-assignment device 20
- the reassignment content is set in the data section
- a flag indicating that the frame including the changed content is a control frame is set. Then, the frame is transmitted to the frame transmitting / receiving section 31.
- the frame transmission / reception unit 31 transfers the control frame including the changed content to the pre-stage distribution device 20.
- FIG. 13 is a diagram showing an operation sequence of setting the distribution destination correspondence table T1.
- the pre-sorting device 20 that has received the frame at the frame transmission / reception unit 21b, The frame is transferred to the output port determination unit 22.
- the output port determination unit 22 confirms the destination address of the received frame. Since the address of the frame here is the address of the pre-stage distribution device 20, it is transferred to the control frame discriminator 23.
- the control frame determining unit 23 checks the data portion of the frame and determines whether the data portion is a table content to be set in the distribution destination correspondence table T1 or a general data frame. .
- This frame is recognized as a control frame and transferred to the table writing unit 24.
- the table writing unit 24 extracts data from the control frame, and overwrites the contents to the distribution destination correspondence table T1.
- FIG. 14 is a diagram showing how the assignment of the distribution destination correspondence table T1 is changed.
- hash values 0 to 2 are load balancers A
- hash values 3 to 5 are load balancers B
- hash values 6, 7 are load balancers C.
- the load distribution device C is changed to the load distribution device C having the least traffic amount.
- hash values 0 and 1 are load distribution devices A
- hash values 3 to 5 are load distribution devices B
- hash values 2, 6, and 7 are load distribution devices C and allocation contents. has been edited.
- a function corresponding to a multi-user is provided in the load distribution system 1 (hereinafter, the modified system is referred to as a load distribution system la).
- the modified system is referred to as a load distribution system la.
- IDCs Internet Data Centers
- the network provided by IDC has multiple logically independent network structures inside and lends them to multiple companies (users).
- the load measurement and the load And efficient and high-speed load balancing control to prevent mutual interference between multiple multiplexed users and improve communication quality and reliability.
- the configuration of the load distribution system 1a of the modified example is basically the same as the configuration of the load distribution system 1 shown in FIG. 4, and therefore the following description will focus on the configuration and operation that are different. .
- the difference between the functional blocks is that the transmission byte count measurement function of the upstream sorting device 20 obtains the destination address, frame length, and user identifier of the frame, and calculates the number of transmission bytes for each user identifier and each destination address.
- the transmission byte number storage table T2 is written.
- the transmission byte number storage table T2 stores the number of transmission ports for each user and each destination address.
- the traffic distribution of all users is integrated. It has a function to detect the bias of traffic to the devices 10-1 to 10-n, and correct the contents of the table T1 corresponding to the distribution destination of the specific user according to the degree of the bias.
- the overload device detection function the number of transmitted bytes is compared after summing up the number of transmitted bytes of all users, and the maximum value is the amount of traffic that can be received by the load distribution device (set in advance in the management device). The overload device is judged based on whether or not it exceeds the value.
- a user to be reallocated is selected from a group of users transmitting traffic to the load distribution device detected as an overload device. Then, the distribution destination correspondence table T1 is modified so that the allocation of the selected user to the load distribution device is reduced and the allocation is re-allocated to the load distribution device having the smallest transmission traffic.
- FIG. 15 is a diagram showing a distribution destination correspondence table independent for each user. As shown in the figure, the sorting destination correspondence tables T11-1 to T11-n are independent for each user. Exist.
- the distribution destination determining unit 25_1 receiving the frame extracts the user identifier and the source address, and inputs the source address to the 8-valued hash function corresponding to the user identifier by the hash calculator 25a-1. I do.
- the distribution destination address return unit 2 5 b-1 is a destination address rewriting unit 26 that stores the contents of the entry (address of the load balancer) of the distribution destination correspondence table for each user corresponding to the hash value output by the hash function for each user. — Transfer to 1.
- FIG. 16 is a diagram showing an outline of the measurement of the number of transmitted bytes.
- the transmission byte number acquisition unit 27-1 having received the frame from the destination address rewriting unit 26-1, acquires the destination address, frame length, and user identifier from the frame. Then, the transmission byte count storage unit 28_1 adds the frame length to the entry corresponding to the destination address of the transmission byte count storage table T2a corresponding to the user identifier.
- the figure shows a state in which the number of transmission bytes is stored for each user for the load balancers 10-1 to 10-n of a plurality of users (user identifiers).
- FIG. 17 is a diagram showing how to calculate the total number of transmission bytes for each load distribution device.
- the overload detector 3 2 a-1 calculates the value obtained by adding the number of transmission bytes received from the transmission byte number notifier 29-1 to the load balancer 10-1 to 10-n I do.
- the result of the addition is compared with the number of receivable bytes of the load distribution device.
- the number of bytes that can be received by the load balancer is assumed to be set in advance.
- the device is transferred to the distribution amount adjustment unit 32b-1.
- FIG. 18 is a diagram illustrating the operation of detecting the user who is transmitting the largest number of frames.
- the distribution amount adjustment unit 3 2 b-1 among the users transmitting frames (the number of transmitted bytes is not 0) to the load distribution device detected as the overload device, the number of transmitted bytes is Find the largest users.
- the overload device is the load balancer 10-1.
- the user with a large traffic volume is the user identifier 10th. Then, reduce the amount assigned to the user corresponding to the load distribution device that is detected as overloaded, and adjust the traffic distribution amount (for example, change to the device with the least number of transmitted bytes). Do)
- the granularity is the fineness of the distribution ratio. If the granularity is N, the load can be distributed in units of 1 / N. (If the granularity is 8, the hash value is 0 to 7, and the granularity is 1 If it is 6, the hash value will be a value between 0 and 15).
- the distribution unit is 1 Z 8 for all traffic.
- traffic was allocated to load balancer A in the nth step, it would be overloaded because it was overloaded, so it was distributed to load balancer B. Due to overload, it can be repeated to distribute to load balancer A.
- FIG. 19 is a diagram showing a switching count storage table.
- the switching number storage template T3 is managed by the distribution amount adjustment unit 32b. Based on the determined assignment contents, the distribution amount adjustment unit 3 2b uses the set of the load distribution device before distribution and the load distribution device after distribution as a table entry, and stores the number of switching times as the switching frequency storage table T 3 Write to.
- an appropriate time interval for example, one hour
- the load balancing device before the distribution (switching source) and the load balancing device after the distribution (switching destination) are determined. , Which are opposite to each other and have the same number of switching times (look for a non-zero number or a difference of 1).
- the distribution amount adjustment unit 32b inserts the content for increasing the granularity of the hash function into the control frame and transmits the control frame to the pre-stage distribution device 20.
- the control for resetting the granularity of the hash function is applied to both systems 1 and 1a by distributing the load.
- the overload device detection unit 32a determines that the load distribution device A is overloaded.
- the load balancers B and C are performing processing with exactly the number of received bytes. At this time, even if the traffic of the load distribution device A is distributed to the load distribution devices B and C, the distributed load distribution devices B and C are overloaded.
- the distribution amount adjustment unit 3 2 b sets the allocation of the distribution destination correspondence table T 1 to the load balancer A to “discard” (not limited to the above conditions, but simply detects an overload).
- the frame discarding may be set for the set load distribution device.)
- the transmission byte count measuring function of the pre-sorting device 20 the frame whose destination is “discarded” is not counted, and is directly transferred to the output port determination unit 22 (or discarded).
- a counter for measuring the destination may be prepared in the transmission byte count storage table T2, and the number of bytes may be counted and then transferred to the output port determination unit 22).
- the output port decision unit 22 discards the frame without transmitting it to any place (it is overwritten with a new frame because it is not actually output anywhere).
- the frame discard processing is applied to both the load distribution systems 1 and 1a.
- the load distribution system of the present invention measures the number of transmission bytes from the input frame in the pre-distribution device, and the management device determines the number of transmission bytes and the number of bytes that can be received by the load distribution device. By comparing the above, a load distribution device that is overloaded is detected, and the amount of traffic distribution to the load distribution device is adjusted. As a result, load measurement and load distribution control can be performed efficiently and at high speed, and communication quality and reliability can be improved.
Landscapes
- Engineering & Computer Science (AREA)
- Computer Networks & Wireless Communication (AREA)
- Signal Processing (AREA)
- Computer Hardware Design (AREA)
- General Engineering & Computer Science (AREA)
- Data Exchanges In Wide-Area Networks (AREA)
- Computer And Data Communications (AREA)
Abstract
負荷の測定及び負荷分散制御を効率よく高速に行い、通信品質、信頼性の向上を図る。送信バイト数取得部(27)は、入力フレームから宛先アドレスとフレーム長とを取得して、宛先アドレス毎の送信バイト数を測定する。送信バイト数保存部(28)は、送信バイト数を累積加算した値を送信バイト数保存テーブル(T2)に保存する。送信バイト数通知部(29)は、送信バイト数保存テーブル(T2)で保存されている送信バイト数を一定期間毎に転送する。過負荷装置検出部(32a)は、転送された送信バイト数と負荷分散装置(10−1)~(10−n)が受信可能なバイト数とを比較して、過負荷状態になっている負荷分散装置を検出する。振り分け量調整部(32b)は、過負荷と検出された負荷分散装置への割り当て分を減らし、トラフィックの振り分け量を調整する。
Description
明 細 書 負荷分散システム 技術分野
本発明は負荷分散システムに関し、 特にトラフィックの負荷分散を行う負荷分 散システムに関する。 背景技術
近年、 情報通信ネットワークは、 多様な形態が構築されており、 伝送容量の増 犬に伴い、 通信品質及びサービス性のさらなる向上が期待されている。 このよう な状況の中で、 ネットワーク内の負荷は急激に増加しており、 負荷に耐え切れず にネットワークがダウンすることのないよう、 ネッ卜ワーク負荷を効率よく分散 させる負荷分散制御の重要性がますます高まってきている。 今日の高速 ·大容量 のネットワークに対応した負荷分散を行うためには、 負荷を効率よく測定し、 高 速に負荷分散を実行する機能を実現することが必須である。
このため、 従来、 未処理のファイルアクセス要求数を測定することで負荷を測 定して負荷分散を行っている技術や、 処理中トランザクシヨン数と E P U系に滞 在する業務処理プロセス数から負荷を測定して負荷分散を行っている技術が提案 されている。
特許文献 1
特開平 6— 332782号公報 (段落番号 〔0010〕 〜 〔0017〕 , 第 1図)
特許文献 2
特開 2002— 278945号公報 (段落番号 〔0012〕 〜 〔002
7〕 , 第 1図)
しかし、 特許文献 1では、 未処理ファイルアクセス要求数を測定するために、 ファイルという単位での管理を行っているが、 このファイル管理の処理自体が負 荷分散を高速に行う上でのボトルネックとなるおそれがあり、 負荷分散を容易に
高速化することは困難であるといった問題があった。
また、 特許文献 2では、 処理中トランザクション数と E P U系に滞在する業務 処理プロセス数を測定するために、 トランザクション及びプロセス状態の把握が 必要であるが、 トランザクション及びプロセス状態を監視する処理自体が負荷分 散を高速に行う上でのボトルネックとなるおそれがあり、 負荷分散を容易に高速 化することは困難であるといった問題があった。 発明の開示
本発明はこのような点に鑑みてなされたものであり、 負荷の測定及び負荷分散 制御を効率よく高速に行って、 通信品質、 信頼性の向上を図った負荷分散システ ムを提供することを目的とする。
本発明では上記課題を解決するために、 図 1に示すような、 トラフィックの負 荷分散を行う負荷分散システム 1において、 振り分けられたトラフィックを受信 して負荷分散を行う複数の負荷分散装置 1 0 _ 1〜1 0— nと、 フレームから送 信バイト数を取得する送信バイト数取得部 2 7と、 送信バイ卜数を宛先ァドレス 毎に累積加算した値を送信バイ卜数保存テーブル T 2に保存する送信バイト数保 存部 2 8と-, 送信バイ卜数保存テーブル T 2で保存されている送信バイ卜数を一 定期間毎に通知する送信バイト数通知部 2 9と、 から構成され、 負荷分散装置 1 0— 1〜 1 0— nの前段に配置する前段振分装置 2 0と、 通知された送信バイ卜 数と負荷分散装置 1 0— 1〜 1 0 _ nが受信可能なバイト数とを比較して、 過負 荷状態になっている負荷分散装置を検出する過負荷装置検出部 3 2 aと、 過負荷 と検出された負荷分散装置への割り当て分を減らし、 トラフィックの振り分け量 を調整する振り分け量調整部 3 2 bと、 から構成される管理装置 3 0と、 を有す ることを特徴とする負荷分散システム 1が提供される。
ここで、 負荷分散装置 1 0— 1〜1 0— nは、 振り分けられたトラフィックを 受信して負荷分散を行う。 送信バイト数取得部 2 7は、 フレームから送信バイト 数を取得する。 送信バイト数保存部 2 8は、 送信バイト数を宛先アドレス毎に累 積加算した値を送信バイ卜数保存テーブル T 2に保存する。 送信バイト数通知部 2 9は、 送信バイ卜数保存テーブル T 2で保存されている送信バイト数を一定期
間毎に通知する。 過負荷装置検出部 3 2 aは、 通知された送信バイト数と負荷分 散装置 1 0— 1〜 1 0 _ nが受信可能なバイト数とを比較して、 過負荷状態にな つている負荷分散装置を検出する。 振り分け量調整部 3 2 bは、 過負荷と検出さ れた負荷分散装置への割り当て分を減らし、 トラフィックの振り分け量を調整す る。
本発明の上記および他の目的、 特徴および利点は本発明の例として好ましい実 施の形態を表す添付の図面と関連した以下の説明により明らかになるであろう。
図面の簡単な説明
図 1は、 本発明の負荷分散システムの原理図である。
図 2は、 トラフィック偏り修正の概要を示す図である。
図 3は、 クライアントサーバ通信システムの構成を示す図である。
図 4は、 負荷分散システムの構成を示す図である。
図 5は、 振り分け先テーブルの設定内容を示す図である。
図 6は、 フレーム振り分け先決定の動作シーケンスを示す図である
図 7は、 送信バイト数測定の概要を示す図である。
図 8は、 送信バイト数測定の動作シーケンスを示す図である。
図 9は、 送信バイト数測定の結果通知の動作シーケンスを示す図である。 図 1 0は、 再割り当て内容決定の動作シーケンスを示す図である。
図 1 1は、 過負荷装置検出処理を説明するための図である。
図 1 2は、 再割り当て内容転送の動作シーケンスを示す図である。
図 1 3は、 振り分け先対応テーブル設定の動作シーケンスを示す図である。 図 1 4は、 振り分け先対応テーブルの割り当て変更の様子を示す図である。 図 1 5は、 ユーザ毎に独立した振り分け先対応テーブルを示す図である。 図 1 6は、 送信バイト数測定の概要を示す図である。
図 1 7は、 負荷分散装置毎の総送信バイト数の算出の様子を示す図である。 図 1 8は、 最も大量のフレームを送信しているユーザの検出動作を示す図であ
図 1 9は、 切替回数保存テーブルを示す図である。 発明を実施するための最良の形態
以下、 本発明の実施の形態を図面を参照して説明する。 図 1は本発明の負荷分 散システムの原理図である。 負荷分散システム 1は、 負荷分散装置 1 0— 1〜1 0— n、 前段振分装置 2 0、 管理装置 3 0を含み、 ネットワークのトラフィック 負荷を分散させるシステムである。
本発明では、 1台の負荷分散装置では処理しきれない量のトラフィックに対し、 負荷分散装置を複数台用意し、 その負荷分散装置の前段に前段振分装置 2 0及び 管理装置 3 0を配置して、 前段振分装置 2 0及び管理装置 3 0により、 負荷分散 装置 1 0— 1〜1 0— nへ送信すべきトラフィックを振り分ける構成をとる。 な お、 管理装置 3 0の機能は、 前段振分装置 2 0に含まれるような構成としてもよ い。
負荷分散装置 1 0— 1〜1 0— nは、 管理装置 3 0によって振り分け調整され たトラフィックを前段振分装置 2 0から受信して負荷分散を行う。
前段振分装置 2 0は、 送信バイト数取得部 2 7、 送信バイト数保存テーブル T 2、 送信バイト数保存部 2 8から構成される。 送信バイト数取得部 2 7は、 フレ —ム (またはパケット) から宛先アドレス (振り分け先の負荷分散装置のァドレ ス) とフレーム長とを取得する。 このフレーム長が宛先ァドレスに対応した送信 バイト数 (送信フレームのバイト数) となる。
送信バイト数保存部 2 8は、 送信バイ卜数を累積加算した値を送信バイト数保 存テーブル T 2に保存する。 すなわち、 送信バイト数取得部 2 7で取得された送 信バイト数 (フレーム長) を、 宛先アドレスに対応して累積加算して得られる値 としてテーブルに保存する (この送信バイト数保存テ一ブル T 2に保存されてい る情報から、 負荷分散装置 1 0— 1〜1 0— nそれぞれに対し、 どれだけのトラ フィック量を過去に振り分けたかを認識できる) 。 送信バイト数通知部 2 9は、 送信バイト数保存テーブル T 2で保存されている送信バイト数を一定期間毎に管 理装置 3 0へ通知する。
管理装置 3 0は、 過負荷装置検出部 3 2 a、 振り分け量調整部 3 2 bから構成
される。 過負荷装置検出部 3 2 aは、 通知された送信パイ卜数と、 負荷分散装置 1 0— 1〜1 0— nが受信可能なバイト数 (あらかじめ設定されている) とを比 較して、 過負荷状態になっている負荷分散装置を検出する。
振り分け量調整部 3 2 bは、 過負荷と検出された負荷分散装置への割り当て分 を減らし、 トラフィックの振り分け量を調整して、 特定の負荷分散装置だけにト ラフィックが集中することのないように、 トラフィックの偏りを動的に修正する。 次に負荷分散装置 1 0— 1〜1 0—nに対する本発明のトラフィック偏り修正 について説明する。 図 2はトラフィック偏り修正の概要を示す図である。 左側の 状態 A 1では、 負荷分散装置 1 0— 1〜 1 0 _ 3に対し、 トラフィック量が偏つ た状態でフレームが振り分けられている様子を示している。 このような状態が生 じると、 例えば、 最も大量のフレームを受信している負荷分散装置 1 0— 1では、 フレーム受信バッファが溢れてしまい、 フレーム廃棄がなされることになる。 フ レーム廃棄は、 ユーザへのサービス低下を招いてしまう。
一方、 右側の状態 A 2では、 トラフィック偏り修正が施されている様子を示し ている。 本発明の振り分け機能によって、 実際にフレームがどのように振り分け られたか、 その送信データ量を測定しておき (具体的には、 送信バイト数を測定 しておく) 、 この測定結果をもとにして、 トラフィックの偏りを修正する。 これ により、 特定の負荷分散装置に対するフレーム集中が起きないので、 フレーム廃 棄が生じることがなく、 サービス品質の低下を防ぐことが可能になる。
次に本発明の負荷分散システム 1の適用例として、 クライアントサーバ通信シ ステムに本発明を適用した場合について説明する。 図 3はクライアントサ一バ通 信システムの構成を示す図である。 クライアントサーバ通信システム 1 0 0は、 クライアント 5 0— 1〜5 0— n、 ネットワーク 1 1 0、 前段振分装置 2 0、 管 理装置 3 0、 負荷分散装置 1 0 _ 1〜1 0 _ n、 スィッチ S W、 サーバ群 6 0— 1〜6 0 — nから構成される。 なお、 サーバ群 6 0— 1〜6 0 — nはそれぞれ複 数のサーバで構成される。
接続関係としては、 ネットワーク 1 1 0にクライアント 5 0— 1〜 5 0— nと 前段振分装置 2 0が接続する。 前段振分装置 2 0には、 管理装置 3 0と、 負荷分 散装置 1 0— 1〜 1 0— nが接続する。 また、 負荷分散装置 1 0— 1〜 1 0— n
は、 スィッチ S Wと接続し、 スィッチ S Wはサーバ群 6 0 _ 1〜6 0— nと接続 する。
クライアントサーバ通信システム 1 0 0では、 多数のクライアント 5 0— 1〜 5 0— nからのリクエストを受け付けるサーバの構成として、 同一内容、 同一処 理を行うサーバを複数台用意し、 サ一バ群 6 0— l〜6 0 _ nの前段に、 スイツ チ S Wを介して、 負荷分散装置 1 0— 1〜1 0— nを配置している。
そして、 ネットワーク 1 1 0を介して、 クライアント 5 0— 1〜5 0— nから 送信されたリクエストを、 前段振分装置 2 0及び管理装置 3 0によって、 負荷分 散装置 1 0 _ 1〜1 0— nに振り分け、 負荷分散装置 1 0— 1〜1 0— nではリ クェストを適当なサーバに振り分けて大量のトラフィックを処理する。
なお、 負荷分散装置 1 0 _ 1〜1 0— nは、 クライアントからのリクエスト内 容を解析し、 その内容に応じて適切なサーバを選び、 リクエストの宛先をサーバ の宛先に書き換えて、 サーバに転送する処理を行う。
次に本発明の前段振分装置 2 0による送信バイ卜数測定機能と、 管理装置 3 0 による振り分け制御機能との設計方針及び特徴について説明する。 まず、 送信バ ィト数測定機能から説明する。
負荷分散装置 1 0— 1〜 1 0— n (総称する場合は負荷分散装置 1 0 ) におい て、 フレーム受信バッファ溢れによるフレーム (バケツ卜) 廃棄を防ぐ方法とし ては、 従来、 負荷分散装置 1 0の受信バッファの状態を監視し、 それを例えば前 段振分装置にある、 フレーム振り分け機能を持つたフレーム振り分け部へ通知し て、 該当の負荷分散装置宛の送信量を減少させる方法や、 バッファサイズを大き くする方法などがあった。
しかし、 負荷分散装置 1 0から情報を通知してもらい、 その情報をフレーム振 り分け部で受信してトラフィック量を減少させる前者の方法では、 フレーム振り 分け部において必要となる機能が複雑になりすぎ、 必要な高速性を実現すること ができない。 また、 後者のバッファサイズを大きくする方法では、 バッファサイ ズからの取り出し速度に対し、 入力過多である状況においては、 バッファサイズ を拡大したとしても本質的な問題を解決できない。
また、 フレーム溢れ防止に関連して、 負荷分散装置 1 0に対するトラフィック
割り当て制御として、 入力フレームの発信元アドレスからハッシュ (Hash) 演 算処理を行い、 ハッシュ値に対応する負荷分散装置にフレームを転送する方法が 考えられる (なお、 ハッシュ演算とは、 与えられた原文 (データ) から固定長の 疑似乱数を生成する演算手法のことであり、 生成した擬似乱数値はハッシュ値と 呼ばれる) 。
この場合、 入力トラフィックの発信元アドレスが均一に分布していれば、 トラ フィックの偏りはなくなるが、 発信元アドレスが実際には均一になっていない場 合が存在する。
例えば、 特定の発信元アドレスを持つクライアントのみが集中的にトラフィッ クを発生する場合や、 同じハッシュ値となる発信元ァドレスを持つクライアント 群が集中している場合などである。
このような入力トラフィックを受け付けると、 意図していたようなトラフィッ クの振り分けを行うことができない。 すなわち、 入力トラフィックの発信元アド レスが偏っていれば、 特定の負荷分散装置に対して偏つたトラフィック振り分け を行ってしまうことになる (結局、 図 2の状態 A 1のようになってしまう) 。 その結果として、 処理可能な量を超えた卜ラフィックが、 特定の負荷分散装置 に集中してしまい、 負荷分散装置のフレーム受信バッファが溢れ、 負荷分散装置 におレ ^て廃棄が発生することになる。
一方、 本発明では、 送信バイト数を測定することで負荷分散装置 1 0に対する トラフィック割り当ての一機能を実現する。 これは、 送信トラフィック量をもつ て負荷分散装置 1 0の負荷を測定する方法である。
負荷分散装置 1 0においては、 受信できたフレームについてはすべて C P Uで 処理が可能な構成 (C P U処理能力を超える入力は受け付けられない構成) と考 えられるため、 負荷分散装置 1 0の負荷状況 (サービスレベルの低下状況)を把握 するためには、 フレームが受信できるかどうか、 すなわち受信バッファ溢れが発 生していないことを測定すればよい。
したがって、 受信バッファ溢れが発生しているかどうかは、 送信トラフィック 量 (送信バイト数) を測定して、 それが負荷分散装置のもつ受信可能能力を超え ているか否かを判別すればよいことになる。
本発明による送信バイト数の測定処理 (送信バイト数の取得、 累積加算、 通知 の一連の処理) では、 振り分け先からのフィ一ドパックをせずに制御を行える点、 また条件判断等を含まない単純な処理のみで済ませられるという点から、 複雑な ソフトウェアを介在せずにハードウェアで実行できるため、 高速処理が可能にな る。
次に振り分け制御機能について説明する。 振り分け制御機能では、 前段振分装 置 2 0で測定した送信バイ卜数の測定結果 (前段振分装置 2 0でフレーム化され て管理装置 3 0へ転送される) にもとづいて、 管理装置 3 0での再割り当て (ト ラフィック偏り修正) 内容を決定する。 ポイントは、 送信バイト数測定機能と、 判断を行う振り分け制御機能とは独立しているというところにある。
上述のように送信バイト数測定機能には高速処理が必要であるが、 判断を行う 機能は、 一般的に処理が複雑であり、 また高速処理は必要とされない (常に振り 分け先を見直しているのではなく、 定期的に見直しを行えば十分であるため)。 したがつて 2つの機能は独立させておけばよく、 2つの機能間で連携が行えれば よい。
2つの機能間の連携は、 前段振分装置 2 0と負荷分散装置 1 0 _ 1〜 1 0— n との連携に比べて容易に実現可能である。 前段振分装置 2 0と負荷分散装置 1 0 一 1〜 1 0— n間での連携では、 前段振分装置 2 0は、 複数の負荷分散装置 1 0 — 1〜 1 0— nとの通信が必要であり、 また複数の負荷分散装置 1 0— 1〜 1 0 一 nから受け取った情報を総合する必要がある。 これに対し、 前段振分装置 2 0 の送信バイ卜数測定機能と管理装置 3 0の振り分け制御機能との間では 1 : 1の 関係であり、 情報の統合などの処理を必要としない。
管理装置 3 0では、 送信バイト数の測定内容にもとづいて、 負荷分散装置 1 0 においてフレーム受信バッファの溢れが発生しているかを検出する。 これは、 送 信バイト数が、 負荷分散装置 1 0が処理可能なバイト数を超えているかどうかで 判断する。
そして、 過負荷状態に陥っていると検出された場合には、 その負荷分散装置へ の振り分け量を減少させるように、 後述の振分先対応テーブルの内容を修正する (具体的には、 過負荷となっている負荷分散装置への割り当てとなっているハツ
シュ値に対応するエントリを、 別の負荷分散装置への割り当てに変更する) 。 な お、 決定された再割り当て内容は、 管理装置 3 0から前段振分装置 2 0へと転送 し、 振分先対応テーブルへ設定することになる。
次に前段振分装置 2 0と管理装置 3 0の詳細な構成及び動作について説明する。 図 4は負荷分散システム 1の構成を示す図である。 前段振分装置 2 0に対し、 フ レーム送受信部 2 1 aは、 クライアントとの通信インタフェースを行うフレーム 送受信機能を有し、 入力フレームを受信する。 フレーム送受信部 2 1 bは、 管理 装置 3 0との通信インタフェースを行うフレーム送受信機能を有する。
フレーム送受信部 2 1 c— 1〜 2 1 c— nそれぞれは、 負荷分散装置 1 0— 1 〜 1 0— nと通信ィンタフエースを行うフレーム送受信機能を有する。 出力ポー ト決定部 2 2は、 所定の情報を、 前段振分装置 2 0内の対応する構成ブロックに 送信、 または対応する構成ブロックから受信する機能を有する。
制御フレーム判別部 2 3は、 フレーム送受信部 2 1 a及び出力ポート決定部 2 2を介して受信した入力フレームを、 負荷分散装置 1 0— 1〜 1 0— n宛に振り 分ける対象として、 振り分け先決定部 2 5へ転送するものか、 前段振分装置 2 0 自身への制御フレームとして、 テーブル書き込み部 2 4へ転送するものかを判別 する (判別は、 フレームのデータ部にあるフラグ等で行う) 。
テーブル書き込み部 2 4は、 管理装置 3 0から送信された制御フレームからデ 一夕を取り出し、 データを振り分け先対応テーブル T 1に書き込む。 振り分け先 対応テ一ブル T 1は、 ハッシュ値に対して負荷分散装置を割り当てるためのテ一 ブルである。
なお、 ハッシュ関数の出力値 ひ ッシュ値) をそのまま負荷分散装置 1 0—1 〜 1 0 — 11と 1 : 1対応で割り当てるのではなく、 ハッシュ関数の出力値に対す るテーブルを用意し、 そのテーブルにどの負荷分散装置へ振り分けるかの設定を 行う (なぜなら、 例えばハッシュ関数の出力値が 8値で負荷分散装置が 3台なら、 テ一ブルが無ければ、 5 Z 8の確率で振り分け先が存在しない状態になってしま うから) 。
振り分け先決定部 2 5は、 ハッシュ演算部 2 5 aと、 振り分け先アドレス返信 部 2 5 bとから構成され、 入力フレームから振り分け先を決定する機能を有する。
ハッシュ演算部 2 5 aは、 入力フレームの発信元アドレスにハッシュ関数を適用 し、 ハッシュ値を得る。 使用されるハッシュ関数は 8値、 1 6値などがあるが、 前段振分装置 2 0が振り分け対象とする振り分け先の負荷分散装置数よりも出力 値は大きくなければいけない。
振り分け先アドレス返信部 2 5 bは、 得られたハッシュ値で振り分け先対応テ 一ブル T 1を検索し、 該当の負荷分散装置のアドレス (振り分け先アドレス) を 得て、 この負荷分散装置のアドレスを宛先アドレス書替部 2 6へ返信する。 宛先 アドレス書替部 2 6は、 入力フレームの宛先アドレスを、 振り分け先アドレス返 信部 2 5 bから受信した負荷分散装置のアドレスに書き替える。
送信バイト数取得部 2 7は、 宛先アドレス書替部 2 6から送信されたフレーム から宛先ァドレスとフレーム長とを取得して、 宛先ァドレス毎の送信パイト数を 取得する。 送信バイ卜数保存部 2 8は、 送信バイト数保存テーブル T 2に送信バ ィ卜数を保存する。 送信バイト数転送部 2 9は、 蓄積された送信バイ卜数を一定 期間毎に出力ポート決定部 2 2へ転送し、 送信バイト数は、 出力ポート決定部 2 2及びフレーム送受信部 2 1 bを介して、 管理装置 3 0へ転送される。
一方、 管理装置 3 0に対し、 フレーム送受信部 3 1は、 前段振分装置 2 0との 通信ィン夕フェースを行うフレーム送受信機能を有する。 振り分け先制御部 3 2 は、 過負荷装置検出部 3 2 a、 振り分け量調整部 3 2 bから構成され、 トラフィ ックの偏りを検出し、 その偏り具合に応じて振り分け先対応テーブル T 1の内容 を修正する制御を行う (修正内容は、 フレーム化して前段振分装置 2 0へ転送す る) 。
過負荷装置検出部 3 2 aは、 前段振分装置 2 0から受信した送信バイト数から、 過負荷状態になっている負荷分散装置を検出する。 この場合、 転送された送信バ ィト数と、 負荷分散装置 1 0— 1〜1 0— nが受信可能なバイト数とを比較して、 負荷分散装置が受け取れる卜ラフィック量 (あらかじめ管理装置に設定されてい るものとする)を超えているか否かで判断する。
振り分け量調整部 3 2 bは、 過負荷装置検出部 3 2 aで検出された負荷分散装 置への割り当て分を減らし、 最も送信トラフィック量の少ない負荷分散装置へ割 り当て直すように、 振り分け先対応テーブル T 1を修正する。
次に本発明の動作についてさらに詳しく説明する。 システム動作の項目として は、 フレームの振り分け先決定、 送信バイ卜数測定、 測定結果の通知、 再割り当 て内容の決定、 再割り当て内容の転送、 振り分け先対応テーブル T 1への設定、 に大きく分けられる。 それぞれについて説明する。
〔フレームの振り分け先決定〕
入力トラフィック量に対し、 3台の負荷分散装置 A、 B、 Cに、 各々どの程度 のトラフィックを割り当てるかを、 その比で設定する。 図 5は振り分け先テープ ル T1の設定内容を示す図である。 前段振分装置 20にて、 3台の負荷分散装置 A、 B、 Cに対して負荷を割り当てる例を示している。 ここでは入力トラフィッ ク量 80Mb p sとし、 それぞれ 3 : 3 : 2でトラフィックを処理させるものと する。
ハッシュ演算部 25 aは、 入力フレームの発信元アドレスにハッシュ関数 (8 値とする) を適用し、 八ッシュ値を算出し、 振り分け先アドレス返信部 25 へ 送信する。
振り分け先アドレス返信部 25 bは、 受信した八ッシュ値から振り分け先対応 テーブル T1を参照し、 振り分け先の負荷分散装置のアドレスを取得し、 宛先ァ ドレス書替部 26へ送信する。
宛先アドレス書替部 26は、 入力フレームの宛先ァドレスを、 振り分け先の負 荷分散装置のアドレスに書き替える。 このように設定することで、 負荷分散装置 A〜Cには、 30Mbp s、 30M p s, 20Mbp sのトラフィックが振り 分けられることが期待される。
なお、 比率は、 任意に設定できるため、 3 : 3 : 2ではなく、 例えば 4 : 2 : 2のようにしてもよい。 ただし、 ここでは、 比の合計 (3 + 3 + 2、 4+ 2 + 2) は、 ハッシュ値の数と同様の 8である必要がある (これらの比率の実際の設 定は、 管理装置 30から行う) 。
図 6はフレーム振り分け先決定の動作シーケンスを示す図である。
〔S 1〕 フレーム送受信部 21 aは、 クライアントからのフレームを受信する。 出力ポート決定部 22は、 受信したフレームの宛先アドレスを確認し、 それが前 段振分装置 20のアドレスである場合には、 制御フレーム判別部 23へ転送する。
〔S 2〕 制御フレーム判別部 2 3は、 フレームのデータ部をチェックし、 それが 振り分け先対応テーブル T 1に設定すべきテーブル内容であるか、 一般のデータ フレームであるかを判別する。 データフレームの場合は振り分け先決定部 2 5へ 転送する。
C S 3〕 フレームを受信した振り分け先決定部 2 5は、 ハッシュ演算部 2 5 aに おいて、 発信元アドレスを抽出し、 それを 8値ハッシュ関数へ入力して演算し、 演算結果を振り分け先ァドレス返信部 2 5 bへ転送する。
〔S 4〕 振り分け先アドレス返信部 2 5 bは、 ハッシュ関数が出力したハッシュ 値から、 対応する振り分け先対応テーブル T 1のエントリ内容 (負荷分散装置の アドレス) を取得する。
〔S 5〕 振り分け先決定部 2 5は、 フレームと、 負荷分散装置のアドレスとを、 宛先アドレス書替部 2 6へ転送する。
C S 6 ] 宛先アドレス書替部 2 6は、 フレームの宛先アドレスを、 負荷分散装置 のアドレスに書き替える。
〔S 7〕 宛先ァドレス書替部 2 6は、 宛先ァドレス書き替え後のフレームを、 送 信バイト数取得部 2 7へ転送する。
〔送信バイ卜数測定〕
図 7は送信バイト数測定の概要を示す図である。 送信バイト数取得部 2 7は、 宛先アドレス書き替え後のフレームのフレーム長を取得する。 送信バイト数保存 部 2 8は、 送信バイ卜数保存テーブル T 2で保存されている宛先ァドレスに対応 するェントリにフレーム長を加算する。
図の場合、 例えば、 フレーム長が 6 4バイトで、 宛先ァドレスが負荷分散装置 Aのアドレスであったならば、 45,000,000に 64を加算する。 このように、 フレ 一ム長を加算していき、 負荷分散装置それぞれに対する累積量を保存することで、 送信バイト数を測定できる。
図 8は送信バイト数測定の動作シーケンスを示す図である。 なお、 ステップ S 1 1〜ステップ S 1 3が送信バイト数測定であり、 ステップ S 1 4、 S 1 5は、 フレームの負荷分散装置への振り分け動作を示している。
〔S 1 1〕 宛先アドレス書替部 2 6は、 宛先アドレス書替後のフレームを、 送信
バイ卜数取得部 2 7へ転送する。
( S 1 2 ] 送信バイト数取得部 2 7は、 受信したフレームから、 宛先アドレスと フレーム長を取得し、 送信バイト数保存部 2 8へ転送する。
C S 1 3〕 送信パイト数保存部 2 8は、 送信バイ卜数保存テーブル T 2の宛先ァ ドレスに対応するエントリに、 フレーム長を加算する。
C S 1 4 ] 宛先アドレス書替部 2 6は、 宛先アドレス書替後のフレームを、 出力 ポー卜決定部 2 2へ転送する。
[ S 1 5 ) 出力ポート決定部 2 2は、 宛先アドレスに対応したフレーム送受信部 2 1 cへフレームを転送し、 フレーム送受信部 2 1 cは、 受信したフレームを該 当の負荷分散装置へ送信する。 なお、 入力フレームがデータフレームの場合には、 上記のステップ S 1からステップ S 1 5までを繰り返し行う。
〔測定結果の通知〕
送信バイ卜数通知部 2 9は、 一定時間間隔 (例えば 1分に 1回、 5分に 1回な ど) で、 送信バイト数保存テ一プル T 2の内容をフレーム化し、 管理装置 3 0へ 通知する。
図 9は送信バイト数測定の結果通知の動作シーケンスを示す図である。
〔S 2 1〕 送信バイ卜数通知部 2 9は、 送信バイト数保存テーブル T 2の内容 (送信バイ卜数情報) を宛先アドレスが管理装置 3 0のフレームとしてフレーム 化し、 出力ポート決定部 2 2へ転送する。
〔S 2 2〕 送信パイト数通知部 2 9は、 ステップ S 2 1の転送と同時に、 送信バ ィト数保存テーブル T 2の内容をクリァする。
〔S 2 3〕 出力ポート決定部 2 2は、 受信したフレームを管理装置 3 0へ転送す るために、 フレーム送受信部 2 1 bへ転送する。
〔S 2 4〕 フレーム送受信部 2 1 bは、 送信バイト数情報のフレームを管理装置 3 0へ転送する。 なお、 管理装置 3 0では、 フレーム送受信部 3 1でこれを受信 し、 振り分け先制御部 3 2へ転送する。
〔再割り当て内容の決定〕
管理装置 3 0の振り分け先制御部 3 2では、 過負荷となっている負荷分散装置 を検出し、 その装置宛の振り分け卜ラフィック量を調整する。 図 1 0は再割り当
て内容決定の動作シーケンスを示す図である。
〔S 3 1〕 過負荷装置検出部 3 2 aは、 通知された送信パイト数を、 負荷分散装 置の受信可能バイト数と比較する。 負荷分散装置の受信可能バイト数はあらかじ め設定されているものとする。 比較した結果、 過負荷装置が検出された場合には、 その装置の情報を振り分け量調整部 3 2 bへ転送する。
〔S 3 2〕 振り分け量調整部 3 2 bは、 振り分け先対応テーブル T 1の、 過負荷 装置に対する割り当てを、 別の装置 (例えば最も送信バイト数の少ない装置) に 変更する情報を生成する。
図 1 1は過負荷装置検出処理を説明するための図である。 送信バイ卜数保存テ 一ブル T 2に、 負荷分散装置 A〜(:に対応する送信バイト数が登録されている。 負荷分散装置 Aが 45,000,000(45M byte)、 負荷分散装置 Bが 11,250,000 (11.25M byte) 、 負荷分散装置 Cが 3,750,000 (3.75M byte) となっている。 ここで、 負荷分散装置の受信可能バイト数を 5 0 M b p sとする。 5 0 M b p sを 8で割つてバイト単位にすると 6 . 2 5 M byte/secであり、 さらに 6 0を 掛けて単位を byte/min にすると 3 7 . 51VI byte/rnin となる。 したがって、 3 7 . 5 M byte/min を超えているのは負荷分散装置 Aとなり、 負荷分散装置 Aに トラフィックが偏っていることになるので、 負荷分散装置 Aが過負荷装置として 検出される。
〔再割り当て内容の転送〕
図 1 2は再割り当て内容転送の動作シーケンスを示す図である。
〔S 4 1〕 振り分け量調整部 3 2 bは、 変更した再割り当て内容をフレーム化す る。 この場合、 宛先アドレスを前段振分装置 2 0にし、 データ部に再割り当て内 容を設定し、 変更内容を含むフレームが制御フレームであることを示すフラグを セットする。 そして、 フレーム送受信部 3 1へ転送する。
〔S 4 2〕 フレーム送受信部 3 1は、 変更内容を含む制御フレームを前段振分装 置 2 0へ転送する。
〔振り分け先対応テーブル T 1への設定〕
図 1 3は振り分け先対応テーブル T 1設定の動作シーケンスを示す図である。 〔S 5 1〕 フレーム送受信部 2 1 bでフレ一ムを受け取った前段振分装置 2 0は、
フレームを出力ポート決定部 2 2へ転送する。
C S 5 2 ] 出力ポート決定部 2 2は、 受信したフレームの宛先アドレスを確認す る。 ここでのフレームのアドレスは前段振分装置 2 0のアドレスであるので、 制 御フレーム判別部 2 3へ転送する。
〔S 5 3〕 制御フレーム判別部 2 3は、 フレームのデータ部をチェックし、 それ が振り分け先対応テーブル T 1に設定すべきテーブル内容であるか、 一般のデー 夕フレームであるかを判別する。 このフレームは制御フレームと認識され、 テ一 ブル書き込み部 2 4へ転送する。
〔S 5 4〕 テーブル書き込み部 2 4は、 制御フレームからデータを取り出し、 そ の内容を振り分け先対応テーブル T 1へ上書きする。
図 1 4は振り分け先対応テーブル T 1の割り当て変更の様子を示す図である。 振り分け先対応テーブル T 1 aでは、 ハッシュ値 0〜 2が負荷分散装置 A、 ハッ シュ値 3〜 5が負荷分散装置 B、 ハッシュ値 6、 7が負荷分散装置 Cとなってい る。 ここで、 負荷分散装置 Aが過負荷と判断された場合、 例えば、 最もトラフィ ック量の少ない負荷分散装置 Cに変更する。
変更後の振り分け先対応テーブル T l bでは、 ハッシュ値 0、 1が負荷分散装 置 A、 ハッシュ値 3〜 5が負荷分散装置 B ハッシュ値 2、 6、 7が負荷分散装 置 Cと割り当て内容が変更されている。
次に本発明の変形例について説明する。 変形例はマルチユーザ対応の機能を負 荷分散システム 1に設けたものである (以下、 変形例のシステムを負荷分散シス テム l aと呼ぶ) 。 近年、 ネットワークの構築 ·維持.管理を、 各企業が独自に 行うのではなく、 I D C (インターネットデ一夕センター)と呼ばれる専門の業者 に委託する形態が多く見られている。 I D Cの提供するネットワークでは、 内部 に論理的に独立した複数のネットワーク構造をもち、 それを複数の企業 (ユー ザ) に貸し出す。
このようなネットワーク形態においては、 単独のユーザでは問題にならない卜 ラフィック量であっても、 それが多重された状態では、 複数ユーザ間での相互干 渉が発生するおそれがある。
本発明の変形例では、 このようなマルチユーザ環境にあっても、 負荷の測定及
び負荷分散制御を効率よく高速に行って、 多重された複数のユーザ間での相互干 渉の発生を防ぎ、 通信品質、 信頼性の向上を図るものである。 なお、 変形例の負 荷分散システム 1 aの構成は基本的には、 図 4で示した負荷分散システム 1の構 成と同じであるので、 差異のある構成、 動作を中心にして以降説明する。
機能ブロックの相違点として、 前段振分装置 2 0における送信バイ卜数測定機 能では、 フレームの宛先アドレス、 フレーム長、 ユーザ識別子を取得し、 ユーザ 識別子毎、 かつ宛先アドレス毎の送信バイト数を送信バイト数保存テーブル T 2 に書き込み、 送信バイト数保存テーブル T 2では、 ユーザ毎かつ宛先ァドレス毎 の送信パイ卜数を保存する。
一方、 管理装置 3 0における振り分け先制御では、 ュ一ザ毎に独立した設定を 振り分け先対応テーブル T 1の内容としてフレーム化する機能のほかに、 すべて のユーザのトラフィック量を総合して負荷分散装置 1 0— 1〜1 0— nへのトラ フィックの偏りを検出し、 その偏り具合に応じて特定ユーザの振り分け先対応テ 一ブル T 1の内容を修正する機能を持つ。
具体的には、 過負荷装置検出機能として、 すべてのユーザの送信バイト数を総 合したうえで送信バイト数を比較し、 その最大値が、 負荷分散装置が受け取れる トラフィック量 (あらかじめ管理装置に設定されているものとする) を超えてい るか否かで過負荷装置を判断する。
また、 振り分け量調整機能としては、 過負荷装置として検出された負荷分散装 置に対してトラフィックを送信しているユーザ群から、 再割り当て対象とするュ 一ザを選択する。 そして、 選択したユーザに対する負荷分散装置への割り当て分 を減らし、 最も送信トラフィック量の少ない負荷分散装置へ割り当て直すように、 振り分け先対応テーブル T 1を修正する。
次にマルチユーザ対応の負荷分散システム 1 aの動作についてさらに詳しく説 明する。 ただし、 図 1〜図 1 4で上述した負荷分散システム 1に対する差分の動 作のみ説明する。
〔フレームの振り分け先決定〕
図 1 5はユーザ毎に独立した振り分け先対応テーブルを示す図である。 振り分 け先対応テーブル T 1一 1〜T 1一 nは、 図に示したように、 ュ一ザ毎に独立し
て存在している。
フレームを受信した振り分け先決定部 2 5 _ 1は、 ユーザ識別子及び発信元ァ ドレスを抽出し、 ハッシュ演算部 2 5 a— 1により、 ユーザ識別子に対応する 8 値ハッシュ関数へ発信元アドレスを入力する。
振り分け先アドレス返信部 2 5 b— 1は、 ユーザ毎のハッシュ関数が出力した ハッシュ値に対応するユーザ毎の振り分け先対応テーブルのェントリ内容 (負荷 分散装置のァドレス)を宛先ァドレス書替部 2 6— 1へ転送する。
〔送信バイ卜数測定〕
図 1 6は送信バイト数測定の概要を示す図である。 宛先アドレス書替部 2 6— 1からフレームを受け取つた送信バイ卜数取得部 2 7— 1は、 フレームから宛先 アドレス、 フレーム長、 ュ一ザ識別子を取得する。 そして、 送信バイト数保存部 2 8 _ 1は、 ユーザ識別子に該当する送信バイト数保存テーブル T 2 aの宛先ァ ドレスに対応するエントリに、 フレーム長を加算していく。 図では、 複数のユー ザ (ユーザ識別子) の負荷分散装置 1 0— 1〜1 0— nに対し、 ユーザ毎に送信 バイ卜数が保存されている様子が示されている。
〔再割り当て内容の決定〕
図 1 7は負荷分散装置毎の総送信バイト数の算出の様子を示す図である。 過負 荷装置検出部 3 2 a - 1では、 送信バイ卜数通知部 2 9— 1から受け取つた送信 バイト数を、 負荷分散装置 1 0— 1〜1 0— n毎に加算した値を算出する。
そして、 加算結果を負荷分散装置の受信可能バイト数と比較する。 負荷分散装 置の受信可能バイト数はあらかじめ設定されているものとする。 比較した結果、 過負荷装置が検出された場合には、 その装置を振り分け量調整部 3 2 b— 1へ転 送する。
図 1 8は最も大量のフレームを送信しているユーザの検出動作を示す図である。 振り分け量調整部 3 2 b— 1では、 過負荷装置として検出された負荷分散装置に 対して、 フレームを送信している (送信バイト数が 0でない) ュ一ザのうち、 送 信バイト数が最大のユーザを検出する。 図の場合、 過負荷装置が負荷分散装置 1 0— 1であり、 この中でトラフィック量の多いュ一ザはユーザ識別子 1 0番であ る。
そして、 過負荷と検出された負荷分散装置に対応するユーザへの割り当て分を 減らし、 卜ラフィックの振り分け量を調整する (例えば、 最も送信バイト数の少 ない装置) に変更する (変更内容を生成する) 。
次にハッシュ関数をより細かいものにして、 振り分けの分散粒度 (以下、 単に 粒度) を上げて (細かくして) 振り分け処理を行う場合について説明する。 なお、 粒度とは、 分散比の細かさのことで、 粒度が Nならば、 1 /Nの単位で負荷分散 を行うことができる (粒度が 8ならばハッシュ値は 0〜 7、 粒度が 1 6ならばハ ッシュ値は 0〜1 5の値を取る) 。
負荷分散システム 1、 l aにおける処理を行い、 継続して送信バイト数を計測 し続けた結果、 2つの負荷分散装置間で割り当てを切り替えあっている (反復) 状況が発生する場合がある。
ここで、 8値のハッシュ演算を行っているときは、 8つの振り分け、 すなわち 振り分け単位は、 全卜ラフィックに対して 1 Z 8ということである。 この場合、 例えば、 nステップ目で負荷分散装置 Aにトラフィックを割り当てたら過負荷と なったので、 負荷分散装置 Bへ振り分け、 次の n + 1ステップ目では負荷分散装 置 Bにトラフィックを割り当てたら過負荷となったので、 負荷分散装置 Aへ振り 分ける、 といったことが反復して起こることがある
このような現象は粒度が粗いために生じるものなので、 2つの負荷分散装置間 で割り当ての切り替えを相互に行っている状況を検出した場合には、 例えば、 8 値を 1 6値へ、 または 8値を 3 2値へというように、 ハッシュ関数の粒度をより 細かくするように制御する。
図 1 9は切替回数保存テーブルを示す図である。 切替回数保存テ一プル T 3は、 振り分け量調整部 3 2 bで管理される。 振り分け量調整部 3 2 bは、 決定した割 り当て内容から、 振り分け前の負荷分散装置と、 振り分け後の負荷分散装置との 組をテ一ブルエントリとして、 切替回数を切替回数保存テーブル T 3に書き込む。 ここで、 適当な時間間隔 (例えば 1時間) 経過した時点で、 切替回数保存テー ブル T 3を参照し、 振り分け前の負荷分散装置 (切替元) と振り分け後 (切替 先) の負荷分散装置が、 互いに逆になつていて、 切替回数が同じ (ゼロではな レ 、 または差分が 1となっているものを探す。
図の場合、 負荷分散装置 A→負荷分散装置 Cの切替回数が 1 0、 負荷分散装置 C—負荷分散装置 Aの切替回数が 9なので、 負荷分散装置 Aと負荷分散装置 Cと の間で反復状況が起きていることがわかる。 したがって、 振り分け量調整部 3 2 bは、 ハッシュ関数の粒度を上げる内容を制御フレームに挿入して、 前段振分装 置 2 0へ送信する。 なお、 ハッシュ関数の粒度を再設定する制御は、 負荷分散し システム 1、 1 aの両方に適用するものである。
次にフレーム廃棄処理について説明する。 負荷分散システム 1、 l aにおける 処理を行い、 管理装置 3 0で振り分け先を変更するにあたって、 別の負荷分散装 置に振り分けるのではなく、 該当のフレームを廃棄するようにする。
具体的な動作について説明すると、 過負荷装置検出部 3 2 aが、 負荷分散装置 Aを過負荷と判断したとする。 また、 同時に負荷分散装置 B、 Cは受信バイ卜数 ちょうどで処理を行っていたとする。 このとき、 負荷分散装置 Aのトラフィック を負荷分散装置 B、 Cに振り分けたとしても、 振り分けられた負荷分散装置 B、 Cが今度は過負荷状態になってしまう。
このような場合、 振り分け量調整部 3 2 bは、 振り分け先対応テーブル T 1の 負荷分散装置 Aへの割り当てを 「廃棄」 に設定する (なお、 上記の条件に限らず、 単に過負荷と検出された負荷分散装置に対してフレーム廃棄を設定してもよい) 。 そして、 前段振分装置 2 0の送信バイト数測定機能では、 宛先が 「廃棄」 のフレ ームについては、 バイト数のカウントを行わず、 そのまま出力ポート決定部 2 2 へ転送する (または、 廃棄先を計測するカウンタを送信バイト数保存テーブル T 2に用意し、 そのバイト数をカウントしてから出力ポー卜決定部 2 2へ転送して もよい) 。
出力ボート決定部 2 2では、 フレームの宛先が 「廃棄」 である場合、 どこにも 転送せず、 そのまま廃棄する (実際には、 どこにも出力されないため、 新しいフ レームで上書きされる) 。 なお、 フレーム廃棄処理は、 負荷分散システム 1、 1 aの両方に適用するものである。
以上説明したように、 本発明によれば、 高速性を維持したまま、 トラフィック 振り分けの偏りを修正することができるので、 トラフィックが振り分けられた先 の装置でフレーム溢れ発生を防ぐことが可能になる。 また、 ユーザ多重を考慮し
て、 高速で偏りの少ない卜ラフィックの振り分けを実現するので、 高速性を維持 したまま、 多重された複数ユーザ間での相互千渉の発生を防ぐことが可能になる。 以上説明したように、 本発明の負荷分散システムは、 前段振分装置では、 入力 フレームから送信バイト数を測定し、 管理装置では、 送信バイト数と負荷分散装 置が受信可能なバイ卜数とを比較して、 過負荷状態になっている負荷分散装置を 検出し、 負荷分散装置へのトラフィックの振り分け量を調整する構成とした。 こ れにより、 負荷の測定及び負荷分散制御を効率よく高速に行うことができるので、 通信品質、 信頼性の向上を図ることが可能になる。
上記については単に本発明の原理を示すものである。 さらに、 多数の変形、 変 更が当業者にとって可能であり、 本発明は上記に示し、 説明した正確な構成およ び応用例に限定されるものではなく、 対応するすべての変形例および均等物は、 添付の請求項およびその均等物による本発明の範囲とみなされる。
Claims
1 . トラフィックの負荷分散を行う負荷分散システムにおいて、
振り分けられたトラフィックを受信して負荷分散を行う複数の負荷分散装置と、 フレームから送信バイト数を取得する送信バイト数取得部と、 前記送信バイト 数を宛先ァドレス毎に累積加算した値を送信バイト数保存テーブルに保存する送 信バイト数保存部と、 前記送信バイト数保存テーブルで保存されている前記送信 バイト数を一定期間毎に通知する送信バイト数通知部と、 から構成され、 負荷分 散装置の前段に配置する前段振分装置と、
通知された送信バイト数と負荷分散装置が受信可能なバイト数とを比較して、 過負荷状態になっている負荷分散装置を検出する過負荷装置検出部と、 過負荷と 検出された負荷分散装置への割り当て分を減らし、 トラフィックの振り分け量を 調整する振り分け量調整部と、 から構成される管理装置と、
を有することを特徴とする負荷分散システム。
2 . 前記前段振分装置は、 八ッシュ値に対応して負荷分散装置を割り当てるた めの振り分け先対応テーブルと、 前記管理装置から送信されたトラフィックの割 り当て内容を前記振り分け先対応テ一ブルに書き込むテーブル書き込み部と .. 入 カフレームの発信元ァドレスにハツシュ関数を適用して、 ハツシュ値を取得し、 ハッシュ値に対応する負荷分散装置のアドレスを前記振り分け先対応テーブルか ら検索して、 振り分け先アドレスを決定する振り分け先決定部と、 前記振り分け 先ァドレスで、 入力フレームの宛先ァドレスを書き替えて、 宛先ァドレス変更後 のフレームを前記送信パイ卜数取得部に転送する宛先アドレス書替部とをさらに 有することを特徴とする請求の範囲第 1項記載の負荷分散システム。
3 . 前記振り分け量調整部は、 トラフィック振り分け前の負荷分散装置及び卜 ラフィック振り分け後の負荷分散装置の組の切替回数を管理し、 振り分け前と振 り分け後の負荷分散装置が互いに逆で、 切替回数がゼロでなくて値が同じ、 また は差分が 1の切替回数があった場合は、 ハッシュ関数の分散粒度を上げる制御を 行うことを特徴とする請求の範囲第 1項記載の負荷分散システム。
4 . 前記振り分け量調整部は、 過負荷と検出された負荷分散装置に対するフレ
ームの廃棄設定を行うことを特徴とする請求の範囲第 1項記載の負荷分散システ ム。
5 . 前記振り分け量調整部は、 過負荷と検出された第 1の負荷分散装置に対す る割り当てを、 最も送信バイト数の少ない第 2の負荷分散装置に変更しようとし たときに、 前記第 2の負荷分散装置が過負荷に近い状態であったならば、 前記第 1の負荷分散装置に対するフレームの廃棄設定を行うことを特徴とする請求の範 囲第 1項記載の負荷分散システム。
6 . 負荷分散装置の前段に配置して、 トラフィックの振り分けを行う前段振分 装置において、
フレームから送信バイト数を取得する送信バイト数取得部と、
前記送信バイト数を宛先ァドレス毎に累積加算した値を送信バイ卜数保存テー ブルに保存する送信バイ卜数保存部と、
前記送信バイ卜数保存テーブルで保存されている前記送信バイト数を一定期間 毎に通知する送信バイト数通知部と、
を有することを特徴とする前段振分装置。
7 . ハッシュ値に対応して負荷分散装置を割り当てるための振り分け先対応テ ―ブルと、 前記管理装置から送信されたトラフィックの割り当て内容を前記振り 分け先対応テ一ブルに書き込むテーブル書き込み部と、 入力フレームの発信元ァ ドレスにハッシュ関数を適用して、 ハッシュ値を取得し、 ハッシュ値に対応する 負荷分散装置のアドレスを前記振り分け先対応テ一ブルから検索して、 振り分け 先アドレスを決定する振り分け先決定部と、 前記振り分け先アドレスで、 入カフ レームの宛先ァドレスを書き替えて、 宛先ァドレス変更後のフレームを前記送信 バイト数取得部に転送する宛先ァドレス書替部とをさらに有することを特徴とす る請求の範囲第 6項記載の前段振分装置。
8 . 卜ラフィックの振り分け制御を行う管理装置において、
測定された送信バイ卜数と負荷分散装置が受信可能なバイト数とを比較して、 過負荷状態になっている負荷分散装置を検出する過負荷装置検出部と、
過負荷と検出された負荷分散装置への割り当て分を減らし、 トラフィックの振 り分け量を調整する振り分け量調整部と、
を有することを特徴とする管理装置。
9 . 前記振り分け量調整部は、 トラフィック振り分け前の負荷分散装置及びト ラフィック振り分け後の負荷分散装置の組の切替回数を管理し、 振り分け前と振 り分け後の負荷分散装置が互いに逆で、 切替回数がゼロでなくて値が同じ、 また は差分が 1の切替回数があった場合は、 ハッシュ関数の分散粒度を上げる制御を 行うことを特徴とする請求の範囲第 8項記載の管理装置。
1 0 . 前記振り分け量調整部は、 過負荷と検出された負荷分散装置に対するフ レームの廃棄設定を行うことを特徴とする請求の範囲第 8項記載の管理装置。
1 1 . 前記振り分け量調整部は、 過負荷と検出された第 1の負荷分散装置に対 する割り当てを、 最も送信バイト数の少ない第 2の負荷分散装置に変更しようと したときに、 前記第 2の負荷分散装置が過負荷に近い状態であったならば、 前記 第 1の負荷分散装置に対するフレームの廃棄設定を行うことを特徴とする請求の 範囲第 8項記載の管理装置。
1 2 . トラフィックの負荷分散を行う負荷分散システムにおいて、
振り分けられた卜ラフィックを受信して負荷分散を行う複数の負荷分散装置と、 フレームから送信バイト数を取得する送信バイト数取得部と、 前記送信バイト 数を宛先アドレス毎に累積加算した値を、 ユーザ毎に送信バイト数保存テーブル に保存する送信バイト数保存部と、 前記送信バイト数保存テーブルで保存されて いる前記送信バイ卜数を一定期間毎に通知する送信バイ卜数通知部と、 から構成 され、 前記負荷分散装置の前段に配置する前段振分装置と、
通知された送信バイ卜数を負荷分散装置毎に加算した加算値と、 負荷分散装置 が受信可能なバイト数とを比較して、 過負荷状態になっている負荷分散装置を検 出する過負荷装置検出部と、 過負荷と検出された負荷分散装置に対して最もトラ フィック量の多いュ一ザを検出し、 前記ュ一ザへの割り当て分を減らして、 トラ フィックの振り分け量を調整する振り分け量調整部と、 から構成される管理装置 と、
を有することを特徴とする負荷分散システム。
1 3 . 前記前段振分装置は、 ハッシュ値に対応して負荷分散装置を割り当てる ためのュ一ザ毎の振り分け先対応テーブルと、 前記管理装置から送信されたトラ
フィックの割り当て内容を前記振り分け先対応テーブルに書き込むテーブル書き 込み部と、 入力フレームの発信元アドレスにハッシュ関数を適用して、 ハッシュ 値を取得し、 ハッシュ値に対応する負荷分散装置のアドレスを前記振り分け先対 応テーブルから検索して、 振り分け先ァドレスを決定する振り分け先決定部と、 前記振り分け先アドレスで、 入力フレームの宛先アドレスを書き替えて、 宛先ァ ドレス変更後のフレームを前記送信パイ卜数取得部に転送する宛先ァドレス書替 部とをさらに有することを特徴とする請求の範囲第 1 2項記載の負荷分散システ ム。
1 4. 前記振り分け量調整部は、 トラフィック振り分け前の負荷分散装置及び 卜ラフィック振り分け後の負荷分散装置の組の切替回数を管理し、 振り分け前と 振り分け後の負荷分散装置が互いに逆で、 切替回数がゼロでなくて値が同じ、 ま たは差分が 1の切替回数があった場合は、 ハツシュ関数の分散粒度を上げる制御 を行うことを特徴とする請求の範囲第 1 2項記載の負荷分散システム。
1 5 . 前記振り分け量調整部は、 過負荷と検出された負荷分散装置に対するフ レームの廃棄設定を行うことを特徴とする請求の範囲第 1 2項記載の負荷分散シ ス "ム。
1 6 . 前記振り分け量調整部は、 過負荷と検出された第 1の負荷分散装置に対 する割り当てを、 最も送信バイト数の少ない第 2の負荷分散装置に変更しようと したときに、 前記第 2の負荷分散装置が過負荷に近い状態であったならば、 前記 第 1の負荷分散装置に対するフレームの廃棄設定を行うことを特徴とする請求の 範囲第 1 2項記載の負荷分散システム。
1 7 . 負荷分散装置の前段に配置して、 トラフィックの振り分けを行う前段振 分装置において、
フレームから送信バイト数を取得する送信バイ卜数取得部と、
前記送信バイト数を宛先ァドレス毎に累積加算した値を、 ユーザ毎に送信バイ ト数保存テーブルに保存する送信バイト数保存部と、
前記送信バイト数保存テーブルで保存されている前記送信バイト数を一定期間 毎に通知する送信パイト数通知部と、
を有することを特徴とする前段振分装置。
1 8 . ハッシュ値に対応して負荷分散装置を割り当てるためのユーザ毎の振り 分け先対応テーブルと、 前記管理装置から送信されたトラフィックの割り当て内 容を前記振り分け先対応テーブルに書き込むテーブル書き込み部と、 入力フレー ムの発信元アドレスにハッシュ関数を適用して、 ハッシュ値を取得し、 ハッシュ 値に対応する負荷分散装置のァドレスを前記振り分け先対応テーブルから検索し て、 振り分け先アドレスを決定する振り分け先決定部と、 前記振り分け先ァドレ スで、 入力フレームの宛先アドレスを書き替えて、 宛先アドレス変更後のフレー ムを前記送信バイト数取得部に転送する宛先アドレス書替部とをさらに有するこ とを特徴とする請求の範囲第 1 7項記載の前段振分装置。
1 9 . トラフィックの振り分け制御を行う管理装置において、
測定された送信バイト数を負荷分散装置毎に加算した加算値と、 負荷分散装置 が受信可能なバイト数とを比較して、 過負荷状態になっている負荷分散装置を検 出する過負荷装置検出部と、
過負荷と検出された負荷分散装置に対して最もトラフィック量の多いユーザを 検出し、 前記ユーザへの割り当て分を減らして、 トラフィックの振り分け量を調 整する振り分け量調整部と、
を有することを特徴とする管理装置。
2 0 . 前記振り分け量調整部は、 トラフィック振り分け前の負荷分散装置及び トラフィック振り分け後の負荷分散装置の組の切替回数を管理し、 振り分け前と 振り分け後の負荷分散装置が互いに逆で、 切替回数がゼロでなくて値が同じ、 ま たは差分が 1の切替回数があった場合は、 ハツシュ関数の分散粒度を上げる制御 を行うことを特徴とする請求の範囲第 1 9項記載の管理装置。
2 1 . 前記振り分け量調整部は、 過負荷と検出された負荷分散装置に対するフ レームの廃棄設定を行うことを特徴とする請求の範囲第 1 9項記載の管理装置。
2 2 . 前記振り分け量調整部は、 過負荷と検出された第 1の負荷分散装置に対 する割り当てを、 最も送信バイト数の少ない第 2の負荷分散装置に変更しようと したときに、 前記第 2の負荷分散装置が過負荷に近い状態であったならば、 前記 第 1の負荷分散装置に対するフレームの廃棄設定を行うことを特徴とする請求の 範囲第 1 9項記載の管理装置。
2 3 . トラフィックの負荷分散を行う負荷分散方法において、
フレームから送信バイト数を取得し、
前記送信バイト数を宛先ァドレス毎に累積加算した値を送信バイト数保存テ一 ブルに保存し、
前記送信バイト数保存テーブルで保存されている前記送信バイト数を一定期間 毎に通知し、
通知された送信バイ卜数と負荷分散装置が受信可能なバイ卜数とを比較して、 過負荷状態になっている負荷分散装置を検出し、
過負荷と検出された負荷分散装置への割り当て分を減らし、 卜ラフィックの振 り分け量を調整することを特徴とする負荷分散方法。
2 4. マルチユーザに対応する場合は、 前記送信バイト数を宛先ァドレス毎に 累積加算した値を、 ユーザ毎に送信バイト数保存テーブルに保存し、 通知された 送信バイト数を負荷分散装置毎に加算した加算値と、 負荷分散装置が受信可能な バイト数とを比較して、 過負荷状態になっている負荷分散装置を検出し、 かつ過 負荷と検出された負荷分散装置に対して最もトラフィック量の多いユーザを検出 して、 前記ユーザへの割り当て分を減らし、 トラフィックの振り分け量を調整す ることを特徴とする請求の範囲第 2 3項記載の負荷分散方法。
2 5 . トラフィック振り分け前の負荷分散装置及びトラフィック振り分け後の 負荷分散装置の組の切替回数を管理し、 振り分け前と振り分け後の負荷分散装置 が互いに逆で、 切替回数がゼロでなくて値が同じ、 または差分が 1の切替回数が あった場合は、 ハッシュ関数の分散粒度を上げることを特徴とする請求の範囲第
2 3項記載の負荷分散方法。
2 6 . 過負荷と検出された負荷分散装置に対するフレームの廃棄設定を行うこ とを特徴とする請求の範囲第 2 3項記載の負荷分散方法。
2 7 . 過負荷と検出された第 1の負荷分散装置に対する割り当てを、 最も送信 バイト数の少ない第 2の負荷分散装置に変更しょうとしたときに、 前記第 2の負 荷分散装置が過負荷に近い状態であったならば、 前記第 1の負荷分散装置に対す るフレームの廃棄設定を行うことを特徴とする請求の範囲第 2 3項記載の負荷分 散方法。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004570179A JPWO2004088940A1 (ja) | 2003-03-31 | 2003-03-31 | 負荷分散システム |
PCT/JP2003/004143 WO2004088940A1 (ja) | 2003-03-31 | 2003-03-31 | 負荷分散システム |
US11/100,208 US20050195834A1 (en) | 2003-03-31 | 2005-04-06 | Load distribution system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2003/004143 WO2004088940A1 (ja) | 2003-03-31 | 2003-03-31 | 負荷分散システム |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
US11/100,208 Continuation US20050195834A1 (en) | 2003-03-31 | 2005-04-06 | Load distribution system |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2004088940A1 true WO2004088940A1 (ja) | 2004-10-14 |
Family
ID=33105365
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/JP2003/004143 WO2004088940A1 (ja) | 2003-03-31 | 2003-03-31 | 負荷分散システム |
Country Status (2)
Country | Link |
---|---|
JP (1) | JPWO2004088940A1 (ja) |
WO (1) | WO2004088940A1 (ja) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016518081A (ja) * | 2013-04-16 | 2016-06-20 | アマゾン・テクノロジーズ・インコーポレーテッド | 分散型ロードバランサ |
JP2017516399A (ja) * | 2014-05-13 | 2017-06-15 | グーグル インコーポレイテッド | エニーキャストデータトラフィックをロードバランシングするための方法、システム、および、コンピュータプログラム |
JP2019161603A (ja) * | 2018-03-16 | 2019-09-19 | 株式会社東芝 | 負荷分散装置、負荷分散システム、プログラム及び負荷分散方法 |
US10999184B2 (en) | 2013-04-16 | 2021-05-04 | Amazon Technologies, Inc. | Health checking in a distributed load balancer |
JP7200359B2 (ja) | 2018-08-23 | 2023-01-06 | モルガン スタンレー サービシーズ グループ,インコーポレイテッド | 障害分散システムコンポーネントの識別 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH1127320A (ja) * | 1997-07-03 | 1999-01-29 | Fujitsu Ltd | パケット中継制御方法,パケット中継装置およびプログラム記憶媒体 |
JPH1196128A (ja) * | 1997-09-22 | 1999-04-09 | Fujitsu Ltd | ネットワークサービスサーバ負荷調整装置、方法および記録媒体 |
JP2000339279A (ja) * | 1999-05-28 | 2000-12-08 | Matsushita Electric Ind Co Ltd | 映像分散キャッシュ装置、及び映像収集再生装置 |
JP2001320420A (ja) * | 2000-03-01 | 2001-11-16 | Fujitsu Ltd | 伝送経路制御装置及び伝送経路制御方法並びに伝送経路制御プログラムを記録した媒体 |
JP2002223234A (ja) * | 2001-01-29 | 2002-08-09 | Nec Corp | パケット伝送装置および伝送方法 |
JP2002281070A (ja) * | 2001-03-19 | 2002-09-27 | Hitachi Ltd | 情報中継装置及び転送方法 |
JP2003174473A (ja) * | 2001-12-06 | 2003-06-20 | Fujitsu Ltd | サーバ負荷分散システム |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3384619B2 (ja) * | 1994-07-13 | 2003-03-10 | 日本電信電話株式会社 | 重輻輳規制方式 |
JP2002300177A (ja) * | 2001-04-03 | 2002-10-11 | Nippon Telegr & Teleph Corp <Ntt> | パケットスイッチとプログラムおよび記録媒体ならびにネットワークシステム |
-
2003
- 2003-03-31 JP JP2004570179A patent/JPWO2004088940A1/ja not_active Withdrawn
- 2003-03-31 WO PCT/JP2003/004143 patent/WO2004088940A1/ja active Application Filing
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH1127320A (ja) * | 1997-07-03 | 1999-01-29 | Fujitsu Ltd | パケット中継制御方法,パケット中継装置およびプログラム記憶媒体 |
JPH1196128A (ja) * | 1997-09-22 | 1999-04-09 | Fujitsu Ltd | ネットワークサービスサーバ負荷調整装置、方法および記録媒体 |
JP2000339279A (ja) * | 1999-05-28 | 2000-12-08 | Matsushita Electric Ind Co Ltd | 映像分散キャッシュ装置、及び映像収集再生装置 |
JP2001320420A (ja) * | 2000-03-01 | 2001-11-16 | Fujitsu Ltd | 伝送経路制御装置及び伝送経路制御方法並びに伝送経路制御プログラムを記録した媒体 |
JP2002223234A (ja) * | 2001-01-29 | 2002-08-09 | Nec Corp | パケット伝送装置および伝送方法 |
JP2002281070A (ja) * | 2001-03-19 | 2002-09-27 | Hitachi Ltd | 情報中継装置及び転送方法 |
JP2003174473A (ja) * | 2001-12-06 | 2003-06-20 | Fujitsu Ltd | サーバ負荷分散システム |
Non-Patent Citations (1)
Title |
---|
Naoya IKEDA et al., "B-16-1 Kaiska Fuka Bunsan Hoshiki ni yoru Kosoku Contents Haishin Kiko no Kento", 2002 Nen The Institute of Electronics, Information and Communication Engineers Sogo Taikai Koen Renbunshu, 07 March, 2002 , communiation 2, page 727 * |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016518081A (ja) * | 2013-04-16 | 2016-06-20 | アマゾン・テクノロジーズ・インコーポレーテッド | 分散型ロードバランサ |
US10999184B2 (en) | 2013-04-16 | 2021-05-04 | Amazon Technologies, Inc. | Health checking in a distributed load balancer |
US11843657B2 (en) | 2013-04-16 | 2023-12-12 | Amazon Technologies, Inc. | Distributed load balancer |
JP2017516399A (ja) * | 2014-05-13 | 2017-06-15 | グーグル インコーポレイテッド | エニーキャストデータトラフィックをロードバランシングするための方法、システム、および、コンピュータプログラム |
US9998529B2 (en) | 2014-05-13 | 2018-06-12 | Google Llc | Method and system for load balancing anycast data traffic |
JP2019161603A (ja) * | 2018-03-16 | 2019-09-19 | 株式会社東芝 | 負荷分散装置、負荷分散システム、プログラム及び負荷分散方法 |
JP7200359B2 (ja) | 2018-08-23 | 2023-01-06 | モルガン スタンレー サービシーズ グループ,インコーポレイテッド | 障害分散システムコンポーネントの識別 |
Also Published As
Publication number | Publication date |
---|---|
JPWO2004088940A1 (ja) | 2006-07-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20240259327A1 (en) | Software load balancer to maximize utilization | |
US7940661B2 (en) | Dynamic link aggregation | |
US11546644B2 (en) | Bandwidth control method and apparatus, and device | |
CN107026907B (zh) | 一种负载均衡方法、负载均衡器及负载均衡系统 | |
US7957284B2 (en) | System and method for optimizing network bandwidth usage | |
EP1116082B1 (en) | Dynamic load balancer for multiple network servers | |
US7739555B2 (en) | Autonomically adjusting configuration parameters for a server when a different server fails | |
US10313362B2 (en) | Systems and methods for real-time configurable load determination | |
US8976647B2 (en) | Hardware-based dynamic load balancing that avoids flow packet reordering statistically | |
US20100036903A1 (en) | Distributed load balancer | |
US7254639B1 (en) | Methods and apparatus for directing packets among a group of processors | |
US7460558B2 (en) | System and method for connection capacity reassignment in a multi-tier data processing system network | |
US11689470B2 (en) | Allocation of processors for processing packets | |
US7512706B2 (en) | Method, computer program product, and data processing system for data queuing prioritization in a multi-tiered network | |
CN114006863A (zh) | 一种多核负载均衡协同处理方法、装置及存储介质 | |
CN110489238A (zh) | 节点检测方法、装置、电子设备及存储介质 | |
JP2005182641A (ja) | 動的負荷分散システム及び動的負荷分散方法 | |
CN107835262A (zh) | 一种流媒体服务器负载动态分配方法 | |
WO2004088940A1 (ja) | 負荷分散システム | |
US20050195834A1 (en) | Load distribution system | |
CN104104611B (zh) | 一种实现集群负载均衡调度的方法及装置 | |
US7904910B2 (en) | Cluster system and method for operating cluster nodes | |
JP4417582B2 (ja) | 負荷分散方法及びその装置 | |
KR102562834B1 (ko) | 스토리지 시스템의 qos 관리 장치 및 그 방법 | |
WO2024157428A1 (ja) | 情報処理装置、情報処理方法、および情報処理プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
AK | Designated states |
Kind code of ref document: A1 Designated state(s): JP US |
|
WWE | Wipo information: entry into national phase |
Ref document number: 2004570179 Country of ref document: JP |
|
WWE | Wipo information: entry into national phase |
Ref document number: 11100208 Country of ref document: US |