[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

CN102724103B - 代理服务器、分层次网络系统及分布式工作负载管理方法 - Google Patents

代理服务器、分层次网络系统及分布式工作负载管理方法 Download PDF

Info

Publication number
CN102724103B
CN102724103B CN201110077714.9A CN201110077714A CN102724103B CN 102724103 B CN102724103 B CN 102724103B CN 201110077714 A CN201110077714 A CN 201110077714A CN 102724103 B CN102724103 B CN 102724103B
Authority
CN
China
Prior art keywords
request
service
rate
grade
proxy server
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201110077714.9A
Other languages
English (en)
Other versions
CN102724103A (zh
Inventor
吴海珊
王文杰
赵邑新
杨博
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
International Business Machines Corp
Original Assignee
International Business Machines Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by International Business Machines Corp filed Critical International Business Machines Corp
Priority to CN201110077714.9A priority Critical patent/CN102724103B/zh
Priority to US13/430,948 priority patent/US9712448B2/en
Priority to US13/592,932 priority patent/US9071540B2/en
Publication of CN102724103A publication Critical patent/CN102724103A/zh
Application granted granted Critical
Publication of CN102724103B publication Critical patent/CN102724103B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L47/00Traffic control in data switching networks
    • H04L47/10Flow control; Congestion control
    • H04L47/22Traffic shaping
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/10Protocols in which an application is distributed across nodes in the network
    • H04L67/1097Protocols in which an application is distributed across nodes in the network for distributed storage of data in networks, e.g. transport arrangements for network file system [NFS], storage area networks [SAN] or network attached storage [NAS]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/50Network services
    • H04L67/51Discovery or management thereof, e.g. service location protocol [SLP] or web services
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L47/00Traffic control in data switching networks
    • H04L47/10Flow control; Congestion control
    • H04L47/24Traffic characterised by specific attributes, e.g. priority or QoS
    • H04L47/2425Traffic characterised by specific attributes, e.g. priority or QoS for supporting services specification, e.g. SLA

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Computer And Data Communications (AREA)

Abstract

本公开涉及代理服务器和分层次网络系统及其分布式工作负载管理方法。根据本公开的一个实施例,所述代理服务器包括:速率控制器,被配置成基于测量到的请求相关信息和与请求的服务等级有关的服务质量参数,周期性地确定每个服务等级的请求的分派速率,其中各个服务等级的分派速率之和小于或等于预定速率;以及请求分派器,被配置成按照由速率控制器确定的分派速率,分派对应服务等级的请求。本公开的一个方面实现了管理低开销、高可扩展性、简单但高效的工作负载管理系统,以进行QoS保证和过载保护。

Description

代理服务器、分层次网络系统及分布式工作负载管理方法
技术领域
本公开涉及网络流量管理技术,尤其是,涉及分层次网络系统中网络应用的分布式工作负载管理方法和系统。
背景技术
分层次网络系统,例如云计算环境,正在被越来越广泛地应用。象云计算环境这样的多层次系统通常包括,例如,前端的HTTP服务器、中间的代理层以及后端的应用服务器和/或数据库层。HTTP服务器层过滤掉无效的或恶意的请求,并且将合法的请求转发给代理层。然后,代理层将这些请求又路由到所选择的应用服务器和/或数据库层。
随着云计算的发展,提出了将资源作为服务来提供的概念,其强调对于过载保护以及QoS保证的灵活控制的重要性。因此,在多层次网络系统中对工作负载的管理变得越来越重要。通常,工作负载管理大多数发生在代理层和后端服务器层之间。
目前已经针对多层次网络系统中的工作负载管理做了很多工作。这些工作主要分为两类:集中式工作负载管理和分布式工作负载管理。
目前在多层次网络系统中主要使用集中式管理。也就是,依赖于一个中心单元来在多层次网络系统中收集信息和做出请求分派决定。
在集中式管理架构中,广泛使用集中式控制器来操控流经代理服务器的流量。集中式控制器中的中央管理单元负责收集和审核工作负载到达速率及其响应时间,从而管理给后端服务器的工作负载。在一些情况下,管理决定以集中方式做出,但是由多个代理层服务器来分布式执行。但是在大多数情况下,管理决定以集中方式做出并且以集中方式执行。
在这样的集中式管理中,需要预先收集后台应用服务器的信息,诸如CPU利用率和/或存储器利用率和每个请求的执行时间等,并对其进行处理从而建立几种统计数据的样本。然后,中央管理单元执行基于所述样本的训练/学习过程来建立一定的先验知识,然后才能基于所述先验知识对到来的流量进行工作负载管理。通常,这种集中式控制器的部署需要专业技能,用于工作负载管理的系统开销大,并且执行过程非常复杂且耗时。此外,使用集中方式,所有的管理功能都在一个服务器上,而任何服务器都有能力的限制,从而使得在这种情况下可扩展性难以得到提高。更进一步地,集中式管理单元还存在了一个很严重的问题,一旦中央管理单元发生故障,则在群集之间负载不均衡的情况下,会导致资源不被充分利用,甚至会导致整个系统的工作负载管理将不能进行。
在分布式管理架构中,通常使用分布式控制器优化互联网中的流量工程。这种分布式控制器是在OSI协议栈中的传输层上实现的,并且不依赖于来自后端服务器的诸如后端服务器的CPU/存储器利用率信息等的信息。这种分布式控制器基于在传输层获得的信息,诸如分组的丢失率、数据传输速率等的硬件相关信息,而没有考虑基于服务应用的信息,诸如请求的优先权、请求的响应时间、发出请求的应用相关信息(诸如,客户类型、服务要求等)。因此,这种分布式控制器不能对前端的请求进行服务区分,从而不能为不同服务等级提供不同的QoS保证,并且也不能对后端的应用服务器进行过载保护。
面对来自部署在云环境中的大量应用的流量,保证来自具有各种资源需求和负载特点的客户的服务等级协议(SLA)需求是具有挑战性的。
因此,现有技术中需要一种分层次网络系统中能够对网络应用的工作负载进行分布式管理的改进的方法和系统。
发明内容
由上述可知,现有技术中存在以下缺陷:难以实现服务区分、面向服务的工作负载管理的可扩展性差、系统用于工作负载管理的开销大以及部署复杂。为了解决现有技术中存在的上述问题中的至少一个,而提出了本公开。根据本公开的一个方面的实施例提供了一种利用非常有限的信息来简单但高效地实现工作负载管理优化的分布式工作负载管理方法和系统。
根据本公开的实施例是在OSI协议栈中的应用层上实现的。根据本公开的一个实施例实现了以下中的至少一个:1)生成最少信息来在所选的前端代理服务器集合和后端资源管理器之间交换;2)应用独特有效的分配算法来分发服务器容量给不同的服务类以实现服务区分和公平;3)优化系统处理以在后端服务器上实现简单逻辑以便容易地进行部署;4)基于到达负载的特征,高效且快速地调整后端服务器的最大容量。
本公开的实施例可以以包括方法或系统的多种方式实施。下面讨论本公开的几个实施例。
作为一种代理服务器,本公开的一个实施例至少包括:速率控制器,被配置成基于测量到的请求相关信息和与请求的服务等级有关的服务质量参数,周期性地确定每个服务等级的请求的分派速率,其中各个服务等级的分派速率之和小于或等于预定速率;以及请求分派器,被配置成按照由速率控制器确定的分派速率,分派对应服务等级的请求。
作为一种分层次网络系统,本公开的一个实施例至少包括:如上所述的代理服务器;以及应用服务器,被配置成为所述代理服务器提供服务,包括:资源检测器,被配置成周期性地检测应用服务器的资源的当前利用率和当前请求到达速率;最大速率计算器,被配置成基于检测到的资源的当前利用率和当前请求到达速率以及所述资源的目标使用率,为下一管理周期计算请求的最大允许速率;以及速率分配器,被配置成基于预定策略将所述最大允许速率分配给各个代理服务器作为其预定速率。
作为一种分层次网络系统中的分布式工作负载管理方法,本公开的一个实施例至少包括:基于测量到的请求相关信息和与请求的服务等级有关的服务质量参数,周期性地确定每个服务等级的请求的分派速率,其中各个服务等级的分派速率之和小于或等于预定速率;以及按照所确定的分派速率,分派对应服务等级的请求。
作为一种包含计算机可执行指令的计算机可读介质,根据本公开的一个实施例所述计算机可执行指令在被处理器执行时使所述处理器执行上述分布式工作负载管理方法。
附图说明
图1示出了能够实施本发明的分层次系统的示意图。
图2示出了根据本公开的一个实施例的能够进行工作负载管理的分层次系统的示意性结构框图。
图3示出了使用效用函数获得的损失值与当前响应时间和目标响应时间以及重要度之间的关系曲线图。
图4示出了根据本公开的一个实施例的在代理服务器上执行的工作负载管理流程的示意性流程图。
图5示出了根据本公开的一个实施例的在应用服务器上执行的工作负载管理流程的示意性流程图。
具体实施方式
在下列讨论中,提供了大量具体的细节以帮助彻底了解本公开。然而,很显然对于本领域技术人员来说,即使没有这些具体细节,也不影响对本发明的理解。应该认识到,使用如下的任何具体术语仅仅是为了描述方便,因此,本发明不应当局限于只用在这样的术语所表示和/或暗示的任何特定应用中。
根据本公开的实施例提供了一种整体设计和处理架构,其使得能够基于有限信息进行本地判决,其中在代理服务器端,分配所允许的不同速率给不同的请求类别或服务等级以实现服务区分和公平性;而在应用服务器端,基于有限信息来计算应用服务器所允许的请求的最大到达速率。
在代理服务器端,本公开的实施例设计了效用函数来控制分配用于从不同队列给应用服务器分派请求的速率,以实现服务区分和公平。代理服务器端针对不同类别进行速率分配的目标是有区别地管理不同服务等级的QoS以实现服务区分,在优选实施例中使用了请求的目标响应时间和重要度来指示QoS需求。
效用函数是用于将测量到的请求相关信息与QoS需求联系起来的函数,其约束条件为:各队列的速率之和小于等于来自后端应用服务器的总允许速率。在代理服务器端测量到的请求相关信息包括,诸如,例如每个队列的平均请求到达速率、平均队列长度、每个队列的当前响应时间等。
可以通过排队模型来建立不同队列的分派速率和当前响应时间之间的联系,以便确定使得效用函数之和被最优化(例如,最小化)的每个队列的分派速率。本公开实现了如下目标:具有高重要度的服务等级将具有满足其响应时间要求的优先级,但是不会有任一服务等级的请求被忽视(即,不被处理或分派速率很低)。
在应用服务器端,计算并向代理服务器分发针对该代理服务器的最大允许请求到达速率。在应用服务器端,使用自适应方法,而不是精确模型来估计资源需求。所述计算基于非常有限的关于服务器的信息,所述信息包括:资源的目标使用率(例如,90%的CPU)、资源的当前利用率(例如,CPU负载)、请求到达速率、和/或所需的其它信息。所述信息可用脚本实现。此外,进行所述计算的装置不必与应用服务器集成在一起。所述计算消耗非常有限的CPU资源,从而将不会干扰服务器负载。
以下,结合附图,对本发明的优选实施例进行说明。
图1示出了能够实施本公开的实施例的分层次系统的示意图。如图1所示,分层次系统包括客户端层(即,前端)、代理服务器层(即,中间层)和应用服务器层(即,后端)。根据本公开的工作负载管理实现涉及中间层和后端。
图2示出了根据本公开的一个实施例的能够进行工作负载管理的分层次系统的示意性结构框图。如图2所示,前端包括一个或多个客户机,这些客户机通过代理服务器向后端的应用服务器发送资源请求。
中间层包括一个或多个代理服务器,每个代理服务器接收来自其所服务的客户机的资源请求,并且基于后端的应用服务器所提供的最大允许速率,以与接收到的请求的服务等级相对应的分派速率将该请求发送给相应的应用服务器。
代理服务器中可以设置缺省分派速率,均匀地分配给所有服务等级。每个服务等级被设置有目标响应时间和重要度值。在请求到达代理服务器时,请求被分类到其服务等级中。每个服务等级维护一个队列和请求分派器(例如,基于额度)以管理其分派速率。如果系统没有过载,所有队列长度应为0。随着系统变得过载,具有低优先级服务等级的请求将使管理和队列的负荷更重,从而遭受更长的响应时间。按照内部计算周期来基于估计的当前分派速率和所接受的QoS要求之间的相关性,调整每个队列的分派速率。
后端包括一个或多个应用服务器,每个应用服务器都基于自身的有限信息,计算出各自所允许的最大请求到达速率,并将其发送给对应的代理服务器。
如本领域技术人员所知的那样,一个应用服务器可以服务于一个或多个代理服务器,而一个代理服务器也可以接受一个或多个应用服务器提供的服务。应用服务器可以自动获知代理服务器的存在。这可以通过首次接收到来自代理的请求时而自动获知。可替换地,应用服务器也可以以轮询的方式发送请求来获知需要使用其资源的代理服务器。
如图2所示,代理服务器230包括请求分类器231、队列模块233、速率控制器235以及请求分派器237。
请求分类器231接收来自客户端的请求,并将接收到的请求分类为不同的服务等级。所述分类可以基于各个请求的QoS需求来进行。QoS需求可以用例如请求的目标响应时间及其重要度来表示。通常,请求的目标响应时间及其重要度是根据客户与服务提供商之间的服务等级协议(SLA)而预先确定的。
例如,可以将请求分为三类,分别为:金、银和铜。对于金等级的请求,其目标响应时间可以为10ms并且重要度级别为高;对于银等级的请求,其目标响应时间可以为20ms并且重要度级别为中;而对于铜等级的请求,其目标响应时间可以为50ms并且重要度级别为低。
值得注意的是,请求分类器231是可选的。来自服务等级的请求本身可以带有指示其服务等级的标签。
队列模块233也是可选的,用于维护一个或多个请求队列,不同的队列对应于请求的不同服务等级。例如,队列模块233中可以设置三个请求队列Q1、Q2和Q3,用于维护分别为金、银和铜等级的请求。
速率控制器235基于来自应用服务器210的信息和各个服务等级的QoS需求,周期性地为每个服务等级计算分派速率。速率控制器235的计算周期可以与后端的应用服务器的管理周期同步或不同步,但是这对于本发明而言不是关键性的。
速率控制器235从给其提供服务资源的应用服务器210接收该应用服务器210允许来自该速率控制器235的请求的最大到达速率。速率控制器235还检测各个服务等级的请求的当前响应时间以及获取各个服务等级的请求的目标响应时间及其重要度。需要注意的是,这里使用的“当前响应时间”是指在当前计算周期中请求的实际响应时间。
首先,为了建立各个服务等级的请求的当前响应时间与各个服务等级的分派速率之间的联系,速率控制器235基于现有技术的排队论原理,为对应于每个服务等级的请求队列建立排队模型。所述排队模型为每个请求队列建立其分派速率r与响应时间T之间的函数关系,T=f(r)。
需要注意的是:全部请求队列的分派速率之和应小于等于应用服务器210分配给该代理服务器230的请求的最大到达速率。该约束条件可以被表示为:
Σ i = 1 I r = r max - - - ( 1 )
其中,i是1≤i≤I的整数,用于表示队列的索引;并且I是正整数,用于指示服务等级的数目,也就是,队列模块233中维护的队列的数目。
其次,为了实现服务等级区分和公平性,本公开提出了效用函数的概念,该效用函数是把各个服务等级的请求的当前响应时间与其QoS需求联系起来的函数。在约束条件(1)下,使各个服务等级的该效用函数达到极值的分派速率r将是满足QoS需求的解。换言之,本公开提出了效用函数来控制给不同请求队列的分派速率。以下,将效用函数表示为Di
使各个请求队列的效用函数之和最小化的解将使具有高重要度的服务等级在满足目标响应时间要求方面具有高优先级,同时每个服务等级都不会被忽视。
根据本公开的效用函数可以用来表示由于不能满足某一服务等级的目标响应时间需求而带来的损失。效用函数的目的之一是要使在当前响应时间小于等于目标响应时间时没有损失,而在当前响应时间大于目标响应时间时,损失线性增长。在当前响应时间超过目标响应时间的数量相同时,对于具有相同目标响应时间的服务等级,服务等级的重要度越高,则该服务等级的损失越小。
图3示出了使用效用函数获得的损失值与当前响应时间和目标响应时间以及重要度之间的关系曲线图。
如图3所示,在当前响应时间小于等于5ms时,三个队列的损失值都为0。当当前响应时间大于5ms时,对于相同的当前响应时间,重要度越大,损失越大。
根据本发明的优选实施例,本公开提出了一种如下所示的效用函数Di
D i ( T i ) = C i 2 ( ( T i - d i ) + ( T i - d i ) 2 + 0.5 ) - - - ( 2 )
其中,Ti是第i个队列的请求的当前响应时间,Ii是第i个队列的重要度,di是第i个队列的请求的目标响应时间。
最后,在约束条件(1)下,使用以下的等式(3)来获得请求队列i的请求分派速率:
minDi(Ti)
                                        (3)
其中,min是用于求最小值的函数。
通过将T=f(r)以及等式(2)代入等式(3)并对其求解,所获得的解就是在下一计算周期中用于请求队列i的分派速率。
虽然以上描述中使用各个服务等级的请求的当前响应时间来建立各个请求队列的分派速率和QoS参数(例如,目标响应时间和重要度等)之间的联系,但是本领域技术人员应当知道可以使用现有的排队模型建立请求队列的其它属性(诸如,不同时间的队列长度、分派速率、到达速率、等待时间等)和QoS参数之间的联系。此外,以上给出了效用函数的具体形式,但是本领域技术人员应当可以根据其具体需求而设计出其它形式的效用函数。例如,使用请求队列的其它属性来建立效用函数,给Ti、Ci和di不同的加权值,使用立方和开立方的形式等等。
根据本发明的另一实施例,本公开提出了另一种如下所示的效用函数Di
并且,其中,L指示队列长度,Li,前一周期指示在前一计算周期第i个队列的最大长度,而Li,当前周期指示在当前计算周期第i个队列的最大长度。
这个效用函数基于各个服务等级的QoS需求来在约束条件(1)下计算分派给相应请求队列的分派速率加权因子。例如,对于请求队列1,给其分配速率D1/(D1+D2+D3)×rmax;对于请求队列2,给其分配速率D2/(D1+D2+D3)×rmax;而对于请求队列3,给其分配速率D3/(D1+D2+D3)×rmax
在为每个队列计算出分派速率之后,速率控制器235将计算出的速率值发送给请求分派器237。速率控制器235响应于从应用服务器210接收到最大速率更新而更新其存储的最大达到速率,但是每个控制周期只计算一次分派速率。
值得注意的是,如果一个代理服务器接受来自多个应用服务器的资源服务,则该代理服务器的速率控制器235需要针对每个应用服务器计算各个请求队列的分派速率。然后该代理服务器将使用针对一应用服务器计算的速率将需要该应用服务器服务的请求分派给该应用服务器。
请求分派器237使用来自速率控制器235的分派速率,将对应请求队列中的请求发送给应用服务器210。
请求分派器237还可以使用现有技术中的方法来实施速率控制。例如,可以使用令牌桶算法来实现请求速率控制。例如,可以以RoundRobin方式来检查令牌,从而实现正确的请求分派速率控制。
还如图2所示,后端的每个应用服务器210都包括资源监测器211、最大速率计算器213和速率分配器215。
应用服务器210周期性地执行速率管理。所述周期可以是管理员根据经验设定的或者根据需要或以其它方式设定的。每个应用服务器210都会有资源目标使用率,其是应用服务器进行操作时的资源使用上限。例如,对于一个应用服务器,其CPU利用率可被设置为60%并且存储器利用率可被设置为95%。也就是,应用服务器执行操作所利用的CPU周期不能超过其全部周期的60%,而所利用的存储器空间不能超过其全部存储器空间的95%。
资源监测器211周期性地检测应用服务器的资源的当前利用率和当前请求到达速率。所述资源包括CPU利用率、存储器利用率、I/O和带宽等等。所述周期指的是应用服务器的管理周期,在每一管理周期中执行上述检测。检测到的信息中的一些或全部以及资源目标使用率可以用于调整整个控制周期的最大允许请求到达速率。
最大速率计算器213基于来自资源监测器211的检测到的信息以及预先设置的资源目标使用率,计算应用服务器210在下一管理周期中可以接收请求的最大允许速率。
下面,作为例子,本公开给出一个计算最大允许速率的实施例,该实施例基于以下假设:资源为CPU周期,资源目标利用率是CPU利用率的上限,应用服务器使用比例积分(proportional-integral,PI)控制器技术。对于该应用服务器而言,其所允许的请求的最大到达速率为:
R(j)=R(j-1)+(Kp+Kj)*e(j)-Kp*e(j-1)                    (5)
其中,j表示第j个管理周期,R(j)表示为第j个管理周期计算的最大允许请求到达速率,e(j)表示目标利用率与第j个管理周期中测量到的实际资源利用率之差,Kp和Kj是PI控制器技术中常用的参数,其通常是根据实际使用设置的经验值。
在这种工作负载管理系统中,一种非常典型的现象是在应用服务器的实际工作负载远远小于应用服务器的最大容量的情况下,总是观测到为正值的e(j)。这使得应用服务器的最大允许到达速率不断提高。当实际工作负载突然提高并且达到最近更新的最大允许速率时,这容易导致应用服务器发生严重的过载。在这种情况下,使用R′(j-1)来代替公式5中的R(j-1),R’(j)表示在第j个管理周期中测量到的实际请求到达速率。也就是,使用在第j-1个管理周期中测量到的实际请求到达速率作为计算第j个管理周期的最大到达速率的基础。
在这种工作负载管理系统中,还可以观测到采样到的实际允许速率与计算出的最大允许速率有轻微的不同。这是由于在进行描述时存在误差。当计算出的允许速率稍微高于采样到的允许速率时,这会使允许速率缓慢下降。这也容易导致系统过载。在这种情况下,上述公式(5)变为如下形式:
R(j)=Min(R(j-1),R′(j-1))+(Kp+Kj)*e(j)-Kp*e(j-1)        (6)
其中,Min是取R(j-1),R′(j-1)中的最小值的函数。
作为根据本公开的另一实施例,可以如下计算应用服务器的最大允许请求到达速率。速率计算器213基于应用服务器的资源目标利用率计算应用服务器所允许的阈值到达速率。然后,速率计算机213基于来自资源检测器211的当前资源利用率,成比例地计算所允许的最大请求到达速率。例如:
R(j)=前一周期资源利用率/目标资源利用率×R阈值
以上描述仅仅示出了计算应用服务器的最大允许请求到达速率的例子。当然,本领域技术人员还可以以其它方式计算在满足目标资源利用率的情况下应用服务器所允许的最大请求到达速率。
速率分配器215基于预定策略将所述最大允许速率分配给各个代理服务器作为其预定速率。由于应用服务器210可能为多个代理服务器提供服务,所以速率分配器215为各个代理服务器规定的请求到达速率之和应等于其计算出的最大允许到达速率。
速率分配器215可以采用多种策略来给各个代理服务器分配其允许的到达速率。例如,所述预定策略是平均分配,即,将最大允许到达速率均匀地分配给代理服务器。例如,如果速率计算器213计算出的最大允许到达速率为100请求/秒且应用服务器210需要为5个代理服务器提供资源服务,那么资源管理器215给每个代理服务器规定的请求速率为20请求/秒。新的速率将基于策略被分配给不同的代理服务器230。
可替换地,资源管理器215可以从代理服务器接收描述信息,诸如请求到达速率、排队描述或其它必要信息。资源管理器215可以基于接收到的信息,为每个代理服务器分配不同的请求到达速率。
图4示出了根据本公开的一个实施例的在代理服务器上执行的工作负载管理流程的示意性流程图。
在步骤411,确定是否是新的计算周期。如果不是,则继续等待。否则,进行到步骤413。
在步骤413,基于测量到的请求相关信息和与请求的服务等级有关的服务质量参数,确定每个服务等级的请求的分派速率,其中各个服务等级的分派速率之和小于或等于预定速率。
在步骤415,按照所确定的分派速率,分派对应服务等级的请求。
以上步骤413和415中的具体操作,已经参见图2中的代理服务器230进行了详细描述,在此不再重复。
然后,处理过程返回到步骤411等待下一管理周期开始。
图5示出了根据本公开的一个实施例的在应用服务器上执行的工作负载管理流程的示意性流程图。
在步骤511,确定是否是新的控制周期。如果不是,则继续等待。否则,进行到步骤513。
在步骤513,检测所述应用服务器的资源的当前利用率和当前请求到达速率。
在步骤515,基于检测到的资源的当前利用率和当前请求到达速率以及所述资源的目标使用率,为下一管理周期计算请求的最大允许速率。
在步骤517,基于预定策略将所述最大允许速率分配给各个代理服务器作为其预定速率。
以上步骤513、515和517中的具体操作,已经参见图2中的应用服务器210进行了详细描述,在此不再重复。
然后,处理过程返回到步骤511等待下一管理周期开始。
根据本公开的一个方面的一个实施例至少提供了以下优点中的一个或多个:
1.低开销:由于代理服务器和应用服务器之间传送非常少的信息,所以这种分布式方案避免了太多的开销。太多的开销会增大了系统在维护和管理方面的复杂度。
2.优先级和公平性:这是工作负载管理的基本要求。具有高优先级的流得到更好的QoS保证;但是没有流会被忽视。
3.在后端服务器上需要安装的工具软件更少。
4.快速收敛:系统对于不同的负载特点都能够快速收敛。需要长的训练时间的管理方案可能不能很好地工作。本实施例还能够使用更多或更少的不同系统组件来快速收敛。
5.弹性和自适应性:能够处理不同工作负载类型的组合。另外,其需要更少的人的干预或配置。
所属技术领域的技术人员知道,本公开可以体现为系统、方法或计算机程序产品。因此,本公开可以具体实现为以下形式,即,可以是完全的硬件、完全的软件(包括固件、驻留软件、微代码等)、或者本文一般称为“电路”、“模块”或“系统”的软件部分与硬件部分的组合。此外,本公开还可以采取体现在任何有形的表达介质(medium of expression)中的计算机程序产品的形式,该介质中包含计算机可用的程序码。
可以使用一个或多个计算机可用的或计算机可读的介质的任何组合。计算机可用的或计算机可读的介质例如可以是——但不限于——电的、磁的、光的、电磁的、红外线的、或半导体的系统、装置、器件或传播介质。在本文件的语境中,计算机可用的或计算机可读的介质可以是任何含有、存储、传达、传播、或传输供指令执行系统、装置或器件使用的或与指令执行系统、装置或器件相联系的程序的介质。计算机可用的介质可包括在基带中或者作为载波一部分传播的、由其体现计算机可用的程序码的数据信号。计算机可用的程序码可以用任何适当的介质传输,包括-但不限于-无线、电线、光缆、RF等等。
附图中的流程图和框图,图示了按照本公开各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,所述模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
对实施例的选择和说明,是为了最好地解释本公开的原理和实际应用,使所属技术领域的普通技术人员能够明了,本公开可以有适合所要的特定用途的具有各种改变的各种实施方式。所给出的对本公开的描述其目的在于示意和描述,并非是穷尽性的,也并非是要把本公开限定到所表述的形式。对于所属技术领域的普通技术人员来说,在不偏离本公开范围和精神的情况下,显然可以作出许多修改和变型。

Claims (18)

1.一种代理服务器,包括:
速率控制器,被配置成基于测量到的请求相关信息和与请求的服务等级有关的服务质量参数,周期性地确定每个服务等级的请求的分派速率,其中各个服务等级的分派速率之和小于或等于预定速率;以及
请求分派器,被配置成按照由所述速率控制器确定的分派速率,分派对应服务等级的请求,其中,测量到的请求相关信息是当前请求响应时间,而所述服务质量参数是对应服务等级的请求的目标响应时间和重要度。
2.根据权利要求1所述的代理服务器,其中,所述速率控制器使用效用函数来建立所述测量到的请求相关信息和与请求的服务等级有关的服务质量参数之间的关系,并且使用排队模型来建立所述测量到的请求相关信息和所述分派速率之间的关系,通过求解效用函数的最小值来获得对应服务等级的请求的分派速率。
3.根据权利要求1所述的代理服务器,其中,所述预定速率是由为所述代理服务器提供服务的应用服务器独立于所述代理服务器的信息确定的。
4.根据权利要求1所述的代理服务器,还包括:
请求分类器,被配置成接收来自客户端的请求,并将接收到的请求分到一个或多个服务等级中;和
队列模块,被配置成维护一个或多个请求队列,不同的请求队列对应于请求的不同服务等级。
5.一种分层次网络系统,包括:
如权利要求1-4中的任一项所述的代理服务器;以及
应用服务器,被配置成为所述代理服务器提供服务,包括:
资源检测器,被配置成周期性地检测所述应用服务器的资源的当前利用率和当前请求到达速率;
最大速率计算器,被配置成基于检测到的资源的当前利用率和当前请求到达速率以及所述资源的目标使用率,为下一管理周期计算请求的最大允许速率;以及
速率分配器,被配置成基于预定策略将所述最大允许速率分配给各个代理服务器作为其预定速率。
6.根据权利要求5所述的分层次网络系统,其中,所述预定策略是将所述最大允许速率平均分配给所述代理服务器。
7.根据权利要求5所述的分层次网络系统,其中,所述资源包括CPU利用率、存储器利用率、I/O和带宽中的一个或多个。
8.根据权利要求7所述的分层次网络系统,其中,在所述资源为CPU利用率时,所述最大速率计算器使用比例积分控制器技术来计算所述最大允许速率。
9.根据权利要求5所述的分层次网络系统,其中,所述代理服务器的计算周期和所述应用服务器的管理周期同步或不同步。
10.一种分层次网络系统中的分布式工作负载管理方法,包括:
基于测量到的请求相关信息和与请求的服务等级有关的服务质量参数,周期性地确定每个服务等级的请求的分派速率,其中各个服务等级的分派速率之和小于或等于预定速率;以及
按照所确定的分派速率,分派对应服务等级的请求,其中,测量到的请求相关信息是当前请求响应时间,而所述服务质量参数是对应服务等级的请求的目标响应时间和重要度。
11.根据权利要求10所述的方法,其中,所述周期性地确定每个服务等级的请求的分派速率的步骤包括:
使用效用函数来建立所述测量到的请求相关信息和与请求的服务等级有关的服务质量参数之间的关系,并且使用排队模型来建立所述测量到的请求相关信息和所述分派速率之间的关系,通过求解效用函数的最小值来获得对应服务等级的请求的分派速率。
12.根据权利要求10所述的方法,其中,所述预定速率是在所述分层次网络系统中由为代理服务器提供服务的应用服务器独立于所述代理服务器的信息确定的。
13.根据权利要求10所述的方法,还包括:
接收来自客户端的请求,并将接收到的请求分到一个或多个服务等级中;和
维护一个或多个请求队列,不同的请求队列对应于请求的不同服务等级。
14.根据权利要求10所述的方法,其中所述预定速率是通过以下步骤获得的:
周期性地检测所述分层次网络系统中应用服务器的资源的当前利用率和当前请求到达速率;
基于检测到的资源的当前利用率和当前请求到达速率以及所述资源的目标使用率,为下一管理周期计算请求的最大允许速率;以及
基于预定策略将所述最大允许速率分配给所述分层次网络系统中所述应用服务器所服务的各个代理服务器作为其预定速率。
15.根据权利要求14所述的方法,其中,所述预定策略是将所述最大允许速率平均分配给所述代理服务器。
16.根据权利要求14所述的方法,其中,所述资源包括CPU利用率、存储器利用率、I/O和带宽中的一个或多个。
17.根据权利要求16所述的方法,其中,在所述资源为CPU利用率时,使用比例积分控制器技术来计算所述最大允许速率。
18.根据权利要求14所述的方法,其中,所述代理服务器的计算周期和所述应用服务器的管理周期同步或不同步。
CN201110077714.9A 2011-03-30 2011-03-30 代理服务器、分层次网络系统及分布式工作负载管理方法 Active CN102724103B (zh)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN201110077714.9A CN102724103B (zh) 2011-03-30 2011-03-30 代理服务器、分层次网络系统及分布式工作负载管理方法
US13/430,948 US9712448B2 (en) 2011-03-30 2012-03-27 Proxy server, hierarchical network system, and distributed workload management method
US13/592,932 US9071540B2 (en) 2011-03-30 2012-08-23 Proxy server, hierarchical network system, and distributed workload management method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201110077714.9A CN102724103B (zh) 2011-03-30 2011-03-30 代理服务器、分层次网络系统及分布式工作负载管理方法

Publications (2)

Publication Number Publication Date
CN102724103A CN102724103A (zh) 2012-10-10
CN102724103B true CN102724103B (zh) 2015-04-01

Family

ID=46928792

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201110077714.9A Active CN102724103B (zh) 2011-03-30 2011-03-30 代理服务器、分层次网络系统及分布式工作负载管理方法

Country Status (2)

Country Link
US (2) US9712448B2 (zh)
CN (1) CN102724103B (zh)

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6303300B2 (ja) * 2013-06-25 2018-04-04 富士通株式会社 制御依頼方法、情報処理装置、システム、およびプログラム
CN104866382B (zh) * 2014-02-21 2019-02-22 中国电信股份有限公司 虚拟资源调度方法与装置
CN105681096A (zh) * 2016-01-29 2016-06-15 湖南大学 一种用于云平台利润最大化的服务器配置方法和装置
CN108153759B (zh) * 2016-12-05 2021-07-09 中国移动通信集团公司 一种分布式数据库的数据传输方法、中间层服务器及系统
US10452436B2 (en) * 2018-01-03 2019-10-22 Cisco Technology, Inc. System and method for scheduling workload based on a credit-based mechanism
CN108471386B (zh) * 2018-02-28 2022-05-03 四川新网银行股份有限公司 一种基于令牌、交易记录的流量、频率控制方法
US10798006B2 (en) * 2018-10-12 2020-10-06 Akamai Technologies, Inc. Overload protection for data sinks in a distributed computing system
CN109245949B (zh) * 2018-10-31 2022-03-01 新华三技术有限公司 一种信息处理方法及装置
CN109815204B (zh) * 2018-12-10 2021-03-02 清华大学 一种基于拥塞感知的元数据请求分发方法及设备
CN111327573B (zh) * 2018-12-14 2022-12-02 英业达科技有限公司 维护登入状态记录以转送数据的装置及方法
TWI683556B (zh) * 2018-12-18 2020-01-21 英業達股份有限公司 維護登入狀態記錄以轉送資料之裝置及方法
US12135997B1 (en) * 2018-12-31 2024-11-05 Teradata Us, Inc. Workload request rate control
CN110048908B (zh) * 2019-04-15 2021-04-27 网易(杭州)网络有限公司 网络测试平台、网络测试方法以及装置
AU2020263485A1 (en) * 2019-04-25 2021-11-04 Liveperson, Inc. Smart capacity for workload routing
CN110688208A (zh) * 2019-09-09 2020-01-14 平安普惠企业管理有限公司 线性递增的任务处理方法、装置、计算机设备和存储介质
CN112231146B (zh) * 2020-10-22 2022-08-30 浪潮云信息技术股份公司 基于cinder-backup的备份服务质量的实现方法、存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1805365A (zh) * 2005-01-12 2006-07-19 北京航空航天大学 Web服务分级服务质量处理器及处理方法
CN200983594Y (zh) * 2004-05-07 2007-11-28 交互数字技术公司 无线传输/接收单元、与其通信的节点b及无线网络控制器
CN101232339A (zh) * 2008-02-18 2008-07-30 中国网络通信集团公司 动态服务水平协议控制系统及控制方法
CN101662413A (zh) * 2008-08-30 2010-03-03 华为技术有限公司 一种多业务共生管理方法、装置和系统

Family Cites Families (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6728748B1 (en) * 1998-12-01 2004-04-27 Network Appliance, Inc. Method and apparatus for policy based class of service and adaptive service level management within the context of an internet and intranet
US7340532B2 (en) 2000-03-10 2008-03-04 Akamai Technologies, Inc. Load balancing array packet routing system
US20020107962A1 (en) * 2000-11-07 2002-08-08 Richter Roger K. Single chassis network endpoint system with network processor for load balancing
US6823382B2 (en) * 2001-08-20 2004-11-23 Altaworks Corporation Monitoring and control engine for multi-tiered service-level management of distributed web-application servers
US7822860B2 (en) 2001-12-11 2010-10-26 International Business Machines Corporation Method and apparatus for dynamic reconfiguration of web services infrastructure
US7228354B2 (en) * 2002-06-28 2007-06-05 International Business Machines Corporation Method for improving performance in a computer storage system by regulating resource requests from clients
US7305431B2 (en) * 2002-09-30 2007-12-04 International Business Machines Corporation Automatic enforcement of service-level agreements for providing services over a network
US20040111506A1 (en) * 2002-12-10 2004-06-10 International Business Machines Corporation System and method for managing web utility services
US7917903B2 (en) * 2003-03-27 2011-03-29 Hewlett-Packard Development Company, L.P. Quality of service controller and method for a data storage system
US8346909B2 (en) * 2004-01-22 2013-01-01 International Business Machines Corporation Method for supporting transaction and parallel application workloads across multiple domains based on service level agreements
US7725901B2 (en) * 2005-04-14 2010-05-25 International Business Machines Corporation Method and system for performance balancing in a distributed computer system
US7738452B1 (en) 2005-06-22 2010-06-15 Cisco Technology, Inc. Techniques for load balancing subscriber-aware application proxies
US7720971B2 (en) 2005-09-12 2010-05-18 Microsoft Corporation Arbitrating an appropriate back-end server to receive channels of a client session
US7685272B2 (en) * 2006-01-13 2010-03-23 Microsoft Corporation Application server external resource monitor
US8250227B2 (en) * 2007-03-02 2012-08-21 International Business Machines Corporation Providing different rates to different users of a download service
US20090150565A1 (en) 2007-12-05 2009-06-11 Alcatel Lucent SOA infrastructure for application sensitive routing of web services
US8051174B2 (en) * 2008-03-03 2011-11-01 Microsoft Corporation Framework for joint analysis and design of server provisioning and load dispatching for connection-intensive server
US8145761B2 (en) * 2008-03-03 2012-03-27 Microsoft Corporation Load skewing for power-aware server provisioning
US20100042450A1 (en) 2008-08-15 2010-02-18 International Business Machines Corporation Service level management in a service environment having multiple management products implementing product level policies
US20100235355A1 (en) 2009-03-13 2010-09-16 Novell, Inc. System and method for unified cloud management
US8341265B2 (en) * 2009-01-09 2012-12-25 Sonus Networks, Inc. Hybrid server overload control scheme for maximizing server throughput
US8417938B1 (en) * 2009-10-16 2013-04-09 Verizon Patent And Licensing Inc. Environment preserving cloud migration and management
US9009294B2 (en) * 2009-12-11 2015-04-14 International Business Machines Corporation Dynamic provisioning of resources within a cloud computing environment
US8285864B2 (en) * 2009-12-21 2012-10-09 Verizon Patent And Licensing Inc. Service delivery system using intermediary application management subsystem for managing setup provisioning delivery and updating of services
US8719804B2 (en) * 2010-05-05 2014-05-06 Microsoft Corporation Managing runtime execution of applications on cloud computing systems
US8477610B2 (en) * 2010-05-31 2013-07-02 Microsoft Corporation Applying policies to schedule network bandwidth among virtual machines
US8949410B2 (en) * 2010-09-10 2015-02-03 Cisco Technology, Inc. Server load balancer scaling for virtual servers
US8667138B2 (en) * 2010-10-29 2014-03-04 Cisco Technology, Inc. Distributed hierarchical rendering and provisioning of cloud services
US8166164B1 (en) * 2010-11-01 2012-04-24 Seven Networks, Inc. Application and network-based long poll request detection and cacheability assessment therefor

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN200983594Y (zh) * 2004-05-07 2007-11-28 交互数字技术公司 无线传输/接收单元、与其通信的节点b及无线网络控制器
CN1805365A (zh) * 2005-01-12 2006-07-19 北京航空航天大学 Web服务分级服务质量处理器及处理方法
CN101232339A (zh) * 2008-02-18 2008-07-30 中国网络通信集团公司 动态服务水平协议控制系统及控制方法
CN101662413A (zh) * 2008-08-30 2010-03-03 华为技术有限公司 一种多业务共生管理方法、装置和系统

Also Published As

Publication number Publication date
CN102724103A (zh) 2012-10-10
US20120317283A1 (en) 2012-12-13
US9071540B2 (en) 2015-06-30
US9712448B2 (en) 2017-07-18
US20120254413A1 (en) 2012-10-04

Similar Documents

Publication Publication Date Title
CN102724103B (zh) 代理服务器、分层次网络系统及分布式工作负载管理方法
US8352951B2 (en) Method and apparatus for utility-based dynamic resource allocation in a distributed computing system
Jiang et al. Optimal cloud resource auto-scaling for web applications
US8640132B2 (en) Jobstream planner considering network contention and resource availability
CN105242956B (zh) 虚拟功能服务链部署系统及其部署方法
Kim et al. Multi-agent reinforcement learning-based resource management for end-to-end network slicing
CN108965024A (zh) 一种5g网络切片基于预测的虚拟网络功能调度方法
Huang et al. Need for speed: CORA scheduler for optimizing completion-times in the cloud
Liu et al. D-storm: Dynamic resource-efficient scheduling of stream processing applications
CN104092756A (zh) 一种基于dht机制的云存储系统的资源动态分配方法
CN106095582B (zh) 云平台的任务执行方法
CN108845874A (zh) 资源的动态分配方法及服务器
CN109271257A (zh) 一种虚拟机迁移部署的方法及设备
CN108132840A (zh) 一种分布式系统中的资源调度方法及装置
Cao et al. A deep reinforcement learning approach to multi-component job scheduling in edge computing
CN113190342B (zh) 用于云-边协同网络的多应用细粒度卸载的方法与系统架构
CN105335376B (zh) 一种流处理方法、装置及系统
Tan et al. An adaptive learning approach for efficient resource provisioning in cloud services
CN105872109B (zh) 云平台负载运行方法
Bensalem et al. Towards optimal serverless function scaling in edge computing network
Tuli et al. Optimizing the performance of fog computing environments using ai and co-simulation
Cao et al. Online cost-rejection rate scheduling for resource requests in hybrid clouds
Liu et al. Energy-efficient URLLC service provisioning in softwarization-based networks
Mehta et al. Utility-based allocation of industrial IoT applications in mobile edge clouds
KR101813165B1 (ko) 소프트웨어 정의 네트워크를 위한 적응적 제어 평면 관리 방법 및 장치

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant