CN112506659A - 一种边缘设备的管理方法以及相关装置 - Google Patents
一种边缘设备的管理方法以及相关装置 Download PDFInfo
- Publication number
- CN112506659A CN112506659A CN202011434823.7A CN202011434823A CN112506659A CN 112506659 A CN112506659 A CN 112506659A CN 202011434823 A CN202011434823 A CN 202011434823A CN 112506659 A CN112506659 A CN 112506659A
- Authority
- CN
- China
- Prior art keywords
- cluster
- edge
- service
- edge device
- node
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/50—Allocation of resources, e.g. of the central processing unit [CPU]
- G06F9/5005—Allocation of resources, e.g. of the central processing unit [CPU] to service a request
- G06F9/5027—Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/50—Allocation of resources, e.g. of the central processing unit [CPU]
- G06F9/5083—Techniques for rebalancing the load in a distributed system
Landscapes
- Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Computer And Data Communications (AREA)
Abstract
本申请公开了一种边缘设备的管理方法以及相关装置,应用于云技术领域。通过响应于目标指令确定在云端平台部署的元集群,元集群中包括中控设备和相关联的至少一个托管集群,中控设备用于向托管集群下发目标指令,托管集群中配置了至少一个控制组件;然后获取待部署的边缘设备;进而将边缘设备与控制组件相关联,以在边缘设备部署目标指令对应的边缘服务。从而实现快速扩展边缘设备并进行管理的过程,由于边缘设备通过托管集群中的控制组件进行管理,在集群扩展过程中无需对上层的元集群框架进行重新部署,提高了边缘设备的扩展效率。
Description
技术领域
本申请涉及计算机技术领域,尤其涉及一种边缘设备的管理方法以及相关装置。
背景技术
边缘计算是指靠近物或数据源头的一侧,采用网络、计算、存储、应用核心能力为一体的开放平台。网络边缘侧可以是从数据源到云计算中心之间的任意功能实体,这些实体搭载着融合网络、计算、存储、应用核心能力的边缘计算平台,为终端用户提供实时、动态和智能的服务计算。
一般,边缘计算采用集群的方式进行管理,单个集群由于性能限制只能管理一定规模的设备,如果设备数量超过该规模上限,则需要再创建一个或多个集群来满足更大的边缘设备规模。
但是,创建一个集群需要准备集群控制面的机器,再部署集群,即从集群整体架构的角度进行部署,部署过程繁琐且成本较高,影响边缘设备的扩展效率。
发明内容
有鉴于此,本申请提供一种边缘设备的管理方法,可以有效提高边缘设备的扩展效率。
本申请第一方面提供一种边缘设备的管理方法,可以应用于终端设备中包含边缘设备的管理功能的系统或程序中,具体包括:
响应于目标指令确定在云端平台部署的元集群,所述元集群中包括中控设备和相关联的至少一个托管集群,所述中控设备用于向所述托管集群下发所述目标指令,所述托管集群中配置了至少一个控制组件;
获取待部署的边缘设备;
根据部署规则将所述边缘设备与所述控制组件相关联,以使得所述边缘设备接入对应的所述托管集群中,所述托管集群用于在所述边缘设备部署所述目标指令对应的边缘服务,所述部署规则基于所述边缘服务对应的位置信息或业务信息确定。
可选的,在本申请一些可能的实现方式中,所述响应于目标指令确定在云端平台部署的元集群,包括:
响应于所述目标指令为初始集群中的节点单元设定区域标签;
在所述区域标签的范围内调用目标服务以确定所述节点单元中的目标接口;
基于所述目标接口在所述节点单元中创建所述控制组件,以确定为所述托管集群;
确定所述托管集群关联的所述中控设备,以确定所述元集群。
可选的,在本申请一些可能的实现方式中,所述基于所述目标接口在所述节点单元中创建所述控制组件,以确定为所述托管集群,包括:
基于所述目标接口在所述节点单元中创建所述控制组件,唤起检测进程;
若所述检测进程指示所述控制组件在所述节点单元上服务正常,则确定为所述托管集群。
可选的,在本申请一些可能的实现方式中,所述获取待部署的边缘设备,包括:
确定多个候选边缘设备;
调用云端平台的节点注册接口,以获取所述候选边缘设备的注册参数;
基于所述注册参数确定待部署的所述边缘设备。
可选的,在本申请一些可能的实现方式中,所述基于所述注册参数确定待部署的所述边缘设备,包括:
所述注册参数确定所述候选边缘设备的位置信息;
基于所述位置信息确定对应的所述托管集群;
在所述托管集群中进行节点注册,以确定为待部署的所述边缘设备。
可选的,在本申请一些可能的实现方式中,所述在所述托管集群中进行节点注册,以确定为待部署的所述边缘设备,包括:
获取所述托管集群的负载信息;
若所述负载信息满足预设条件,则在所述托管集群中进行节点注册,以确定为待部署的所述边缘设备。
可选的,在本申请一些可能的实现方式中,所述方法还包括:
若所述负载信息不满足所述预设条件,则基于待部署的所述边缘设备创建候选托管集群。
可选的,在本申请一些可能的实现方式中,所述根据部署规则将所述边缘设备与所述控制组件相关联,包括:
根据部署规则将所述边缘设备与所述控制组件相关联,并将所述边缘服务对应的镜像服务上传至镜像仓库;
在所述镜像仓库中部署所述镜像服务;
基于所述镜像服务在所述边缘设备部署所述目标指令对应的边缘服务。
可选的,在本申请一些可能的实现方式中,所述在所述镜像仓库中部署所述镜像服务,包括:
确定所述镜像服务对应的部署参数;
根据所述部署参数确定部署空间,以在所述镜像仓库进行部署。
可选的,在本申请一些可能的实现方式中,所述方法还包括:
发起部署测试指令;
基于所述部署测试指令在所述边缘设备中测试所述边缘服务,以得到测试结果;
若测试结果满足测试条件,则完成所述边缘服务在所述边缘设备中的部署。
可选的,在本申请一些可能的实现方式中,所述元集群和所述托管集群通过kubernetes进行管理,所述目标指令用于扩展所述云端平台管理的所述边缘设备的数量。
可选的,在本申请一些可能的实现方式中,所述边缘设备的管理方法应用于区块链设备,所述区块链设备为区块链中的节点。
本申请第二方面提供一种边缘设备的管理装置,包括:
确定单元,用于响应于目标指令确定在云端平台部署的元集群,所述元集群中包括中控设备和相关联的至少一个托管集群,所述中控设备用于向所述托管集群下发所述目标指令,所述托管集群中配置了至少一个控制组件;
获取单元,用于获取待部署的边缘设备;
管理单元,用于根据部署规则将所述边缘设备与所述控制组件相关联,以使得所述边缘设备接入对应的所述托管集群中,所述托管集群用于在所述边缘设备部署所述目标指令对应的边缘服务,所述部署规则基于所述边缘服务对应的位置信息或业务信息确定。
可选的,在本申请一些可能的实现方式中,所述确定单元,具体用于响应于所述目标指令为初始集群中的节点单元设定区域标签;
所述确定单元,具体用于在所述区域标签的范围内调用目标服务以确定所述节点单元中的目标接口;
所述确定单元,具体用于基于所述目标接口在所述节点单元中创建所述控制组件,以确定为所述托管集群;
所述确定单元,具体用于确定所述托管集群关联的所述中控设备,以确定所述元集群。
可选的,在本申请一些可能的实现方式中,所述确定单元,具体用于基于所述目标接口在所述节点单元中创建所述控制组件,唤起检测进程;
所述确定单元,具体用于若所述检测进程指示所述控制组件在所述节点单元上服务正常,则确定为所述托管集群。
可选的,在本申请一些可能的实现方式中,所述获取单元,具体用于确定多个候选边缘设备;
所述获取单元,具体用于调用云端平台的节点注册接口,以获取所述候选边缘设备的注册参数;
所述获取单元,具体用于基于所述注册参数确定待部署的所述边缘设备。
可选的,在本申请一些可能的实现方式中,所述获取单元,具体用于所述注册参数确定所述候选边缘设备的位置信息;
所述获取单元,具体用于基于所述位置信息确定对应的所述托管集群;
所述获取单元,具体用于在所述托管集群中进行节点注册,以确定为待部署的所述边缘设备。
可选的,在本申请一些可能的实现方式中,所述获取单元,具体用于获取所述托管集群的负载信息;
所述获取单元,具体用于若所述负载信息满足预设条件,则在所述托管集群中进行节点注册,以确定为待部署的所述边缘设备。
可选的,在本申请一些可能的实现方式中,所述获取单元,具体用于若所述负载信息不满足所述预设条件,则基于待部署的所述边缘设备创建候选托管集群。
可选的,在本申请一些可能的实现方式中,所述管理单元,具体用于根据部署规则将所述边缘设备与所述控制组件相关联,并将所述边缘服务对应的镜像服务上传至镜像仓库;
所述管理单元,具体用于在所述镜像仓库中部署所述镜像服务;
所述管理单元,具体用于基于所述镜像服务在所述边缘设备部署所述目标指令对应的边缘服务。
可选的,在本申请一些可能的实现方式中,所述管理单元,具体用于确定所述镜像服务对应的部署参数;
所述管理单元,具体用于根据所述部署参数确定部署空间,以在所述镜像仓库进行部署。
可选的,在本申请一些可能的实现方式中,所述管理单元,具体用于发起部署测试指令;
所述管理单元,具体用于基于所述部署测试指令在所述边缘设备中测试所述边缘服务,以得到测试结果;
所述管理单元,具体用于若测试结果满足测试条件,则完成所述边缘服务在所述边缘设备中的部署。
本申请第三方面提供一种计算机设备,包括:存储器、处理器以及总线系统;所述存储器用于存储程序代码;所述处理器用于根据所述程序代码中的指令执行上述第一方面或第一方面任一项所述的边缘设备的管理方法。
本申请第四方面提供一种计算机可读存储介质,所述计算机可读存储介质中存储有指令,当其在计算机上运行时,使得计算机执行上述第一方面或第一方面任一项所述的边缘设备的管理方法。
根据本申请的一个方面,提供了一种计算机程序产品或计算机程序,该计算机程序产品或计算机程序包括计算机指令,该计算机指令存储在计算机可读存储介质中。计算机设备的处理器从计算机可读存储介质读取该计算机指令,处理器执行该计算机指令,使得该计算机设备执行上述第一方面或者第一方面的各种可选实现方式中提供的边缘设备的管理方法。
从以上技术方案可以看出,本申请实施例具有以下优点:
通过响应于目标指令确定在云端平台部署的元集群,元集群中包括中控设备和相关联的至少一个托管集群,中控设备用于向托管集群下发目标指令,托管集群中配置了至少一个控制组件;然后获取待部署的边缘设备;进而将边缘设备与控制组件相关联,以在边缘设备部署目标指令对应的边缘服务。从而实现快速扩展边缘设备并进行管理的过程,由于边缘设备通过托管集群中的控制组件进行管理,在集群扩展过程中无需对上层的元集群框架进行重新部署,提高了边缘设备的扩展效率。
附图说明
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据提供的附图获得其他的附图。
图1为本申请实施例提供的一种边缘设备的管理系统运行的系统架构图;
图2为本申请实施例提供的一种边缘设备的管理方法的流程图;
图3为本申请实施例提供的另一种边缘设备的管理方法的流程图;
图4为本申请实施例提供的另一种边缘设备的管理方法的流程图;
图5为本申请实施例提供的另一种边缘设备的管理方法的流程图;
图6为本申请实施例提供的另一种边缘设备的管理系统运行的系统架构图;
图7为本申请实施例提供的另一种边缘设备的管理方法的流程图;
图8为本申请实施例提供的一种边缘设备的管理装置的结构示意图;
图9为本申请实施例提供的一种服务器的结构示意图;
图10A为本申请实施例提供的一种数据共享系统;
图10B为本申请实施例提供的一种区块链的组成;
图10C为本申请实施例提供的一种区块链节点的输入信息示意图。
具体实施方式
本申请实施例提供了一种边缘设备的管理方法以及相关装置,可以应用于终端设备中包含边缘设备的管理功能的系统或程序中,通过响应于目标指令确定在云端平台部署的元集群,元集群中包括中控设备和相关联的至少一个托管集群,中控设备用于向托管集群下发目标指令,托管集群中配置了至少一个控制组件;然后获取待部署的边缘设备;进而将边缘设备与控制组件相关联,以在边缘设备部署目标指令对应的边缘服务。从而实现快速扩展边缘设备并进行管理的过程,由于边缘设备通过托管集群中的控制组件进行管理,在集群扩展过程中无需对上层的元集群框架进行重新部署,提高了边缘设备的扩展效率。
本申请的说明书和权利要求书及上述附图中的术语“第一”、“第二”、“第三”、“第四”等(如果存在)是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本申请的实施例例如能够以除了在这里图示或描述的那些以外的顺序实施。此外,术语“包括”和“对应于”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
首先,对本申请实施例中可能出现的一些名词进行解释。
kubernetes:也称为k8s,是一个分布式的集群管理系统,在每个节点(node)上都要运行一个执行程序(worker)对容器进行生命周期的管理,该执行程序就是kubelet。
kubelet:主要功能就是定时从某个地方获取节点上微服务进程的期望状态(运行什么容器、运行的副本数量、网络或者存储如何配置等等),并调用对应的容器平台接口达到这个状态。
Pod:kubernetes创建或部署的最小/最简单的基本单位,一个Pod代表集群上正在运行的一个微服务进程,且一个微服务进程封装一个提供微服务应用的边缘容器(也可以有多个边缘容器)、存储资源、一个独立的网络IP以及管理控制容器运行方式的策略选项。
kube-proxy:一种接口代理,用于管理服务对象(Service)访问入口,代理对象包括集群内微服务进程到服务对象的访问和集群外访问服务对象。
边缘计算是指靠近物或数据源头的一侧,采用网络、计算、存储、应用核心能力为一体的开放平台。网络边缘侧可以是从数据源到云计算中心之间的任意功能实体,这些实体搭载着融合网络、计算、存储、应用核心能力的边缘计算平台,为终端用户提供实时、动态和智能的服务计算。
一般,边缘计算采用集群的方式进行管理,单个集群由于性能限制只能管理一定规模的设备,如果设备数量超过该规模上限,则需要再创建一个或多个集群来满足更大的边缘设备规模。
但是,创建一个集群需要准备集群控制面的机器,再部署集群,即从集群整体架构的角度进行部署,部署过程繁琐且成本较高,影响边缘设备的扩展效率。
为了解决上述问题,本申请提出了一种边缘设备的管理方法,该方法应用于图1所示的边缘设备的管理的系统框架中,如图1所示,为本申请实施例提供的一种边缘设备的管理的系统架构图,具体的,该系统架构分为云端的控制面组件(中控设备master)对集群的划分管理过程和边缘端的边缘设备的接入部署过程。本申请主要使用了容器技术docker和容器编排工具技术kubernetes(以下简称k8s)。其中云端主要部署kubernetes的master相关组件,并且云端的控制面组件分为元集群和托管集群。
具体的,元集群一个完整独立的k8s集群,包括k8s master节点和k8s node节点。k8s的node节点可以横向快速扩展添加。其中node节点上运行托管k8s集群的master组件,其中,node节点可以是一台物理主机,也可以是一台虚拟机。
托管集群则是托管的k8s集群用来注册和管理边缘设备的节点,托管的k8s集群主要部署master部分的组件,其中包括kube-apiserver、kube-controller-manager、kube-scheduler、etcd等组件。托管集群的master以容器(pod)的方式运行在元集群的node节点上。
通过云端的中控设备下达指令,使得通过k8s元集群来创建和管理托管k8s业务集群(即kube on kube的方式),从而可以快速增加托管k8s业务集群的数量来增加云端控制节点,并将边缘设备注册到托管的业务集群控制节点中,实现云端对边缘设备的管理。
可以理解的是,一个托管集群控制节点可以管理一定规模的边缘设备,当增加托管集群控制节点时,可以快速管理更大规模的边缘设备。
本实施例中,服务器可以是独立的物理服务器,也可以是多个物理服务器构成的服务器集群或者分布式系统,还可以是提供云服务、云数据库、云计算、云函数、云存储、网络服务、云通信、中间件服务、域名服务、安全服务、CDN、以及大数据和人工智能平台等基础云计算服务的云服务器。终端可以是智能手机、平板电脑、笔记本电脑、台式计算机、智能音箱、智能手表等,但并不局限于此。终端以及服务器可以通过有线或无线通信方式进行直接或间接地连接,终端以及服务器可以连接组成区块链网络,本申请在此不做限制。
可以理解的是,本申请所提供的方法可以为一种程序的写入,以作为硬件系统中的一种处理逻辑,也可以作为一种边缘设备的管理装置,采用集成或外接的方式实现上述处理逻辑。作为一种实现方式,该边缘设备的管理装置通过响应于目标指令确定在云端平台部署的元集群,元集群中包括中控设备和相关联的至少一个托管集群,中控设备用于向托管集群下发目标指令,托管集群中配置了至少一个控制组件;然后获取待部署的边缘设备;进而将边缘设备与控制组件相关联,以在边缘设备部署目标指令对应的边缘服务。从而实现快速扩展边缘设备并进行管理的过程,由于边缘设备通过托管集群中的控制组件进行管理,在集群扩展过程中无需对上层的元集群框架进行重新部署,提高了边缘设备的扩展效率。
本申请实施例提供的方案涉及云技术,具体通过如下实施例进行说明:
结合上述流程架构,下面将对本申请中边缘设备的管理方法进行介绍,请参阅图2,图2为本申请实施例提供的一种边缘设备的管理方法的流程图,该管理方法可以是由云端设备或服务器执行的,本申请实施例至少包括以下步骤:
201、响应于目标指令确定在云端平台部署的元集群。
本实施例中,元集群中包括了中控设备(控制面组件)和相关联的至少一个托管集群,其中,中控设备用于向托管集群下发目标指令,托管集群中配置了至少一个控制组件。
可以理解的是,本申请以云端平台中部署的一个元集群进行说明,在实际场景中,云端平台中可以包含多个并联的元集群。
具体的,目标指令可以是对于元集群中增加边缘设备的指令,也可以是删除边缘设备的指令,还可以是具体的业务指令,此处不做限定。
相较于现有技术中云端集群维度的管理边缘设备的方式,本申请相当于对云端集群进行了划分,将控制设备对于节点的单层控制调整为了包含元集群(控制设备控制)与托管集群(节点控制)的层级式结构,从而便于边缘设备的管理,例如在k8s的场景中,即将k8smaster对于node的单层控制调整为了元集群与托管集群(node中配置master组件)的层级式结构。
具体的,对于确定元集群及其关联托管集群的过程,可以是创建而得的。即首先响应于目标指令为初始集群中的节点单元设定区域标签;然后在区域标签的范围内调用目标服务以确定节点单元中的目标接口,该目标服务为etcd服务;然后基于目标接口在节点单元中创建控制组件,以确定为托管集群;进而确定托管集群关联的中控设备,以确定元集群。
其中,etcd是一个分布式、可靠key-value存储的分布式系统。它不仅仅用于存储,还提供共享配置及服务发现。服务发现(Service Discovery)可以在同一个分布式集群中的进程或服务中找到对方并建立连接。
具体的,etcd使用raft协议来维护集群内各个节点状态的一致性。etcd服务是一个分布式系统,由多个节点相互通信构成整体对外服务,每个节点都存储了完整的数据,并且通过raft协议保证每个节点维护的数据是一致的,即保证托管集群对应的节点数据一致。另外,etcd服务中的每个节点都维护了一个状态机,并且任意时刻至多存在一个有效的主节点。主节点处理所有来自客户端写操作,通过Raft协议保证写操作对状态机的改动会可靠的同步到其他节点,从而保证托管集群对应的节点数据一致。
可选的,在基于元集群的node节点创建托管集群的过程中,还可以进行复核的过程,即基于目标接口在节点单元中创建控制组件,唤起检测进程;若检测进程指示控制组件在节点单元上服务正常,则确定为托管集群。从而保证了托管集群的可信度。
202、获取待部署的边缘设备。
本实施例中,待部署的边缘设备可以是从多个候选边缘设备中选取的,即在云端平台注册成功的候选边缘设备才能被部署。具体的,首先确定多个候选边缘设备;然后调用云端平台的节点注册接口,以获取候选边缘设备的注册参数;进而基于注册参数确定待部署的边缘设备。其中,注册参数可以包括边缘设备的负载状态、服务时长等设备性能方面的参数,也可以是包括设备分布位置、连接状态等地理参数。
可选的,为了便于托管集群对边缘设备进行管理,可以选择位置相近的;即首先根据注册参数确定候选边缘设备的位置信息;然后基于位置信息确定对应的托管集群;从而在托管集群中进行节点注册,以确定为待部署的边缘设备。通过位置信息的筛选,提高了托管集群对边缘设备进行管理的时效性。
可选的,由于元集群关联了多个托管集群,可以在为边缘设备分配托管集群时,考虑托管集群的负载,即管理的边缘设备的数量。具体的,首先获取托管集群的负载信息;若负载信息满足预设条件,则在托管集群中进行节点注册,以确定为待部署的边缘设备。例如预设条件为负载率小于60%或未负载满,具体数值设定因实际场景而定。
可选的,当负载信息不满足预设条件时,则可以基于待部署的边缘设备创建候选托管集群,该候选托管集群可以是元集群中关联的其他托管集群,也可以是在元集群中新建一个托管集群,从而提高边缘设备管理的准确性。
203、根据部署规则将边缘设备与控制组件相关联,以使得边缘设备接入对应的托管集群中。
本实施例中,通过上述元集群与托管集群的配置,将边缘设备与对应的托管集群进行关联,即托管集群用于在边缘设备部署目标指令对应的边缘服务,从而可以得到元集群中的边缘服务信息,实现了云端平台集群规模的横向扩展,该横向扩展也叫水平扩展,用更多的节点支撑更大量的请求;另外,部署规则即用于保证边缘设备接入托管集群后可以得到充分利用的规则,具体的,部署规则可以是基于边缘服务对应的位置信息或业务信息确定的;例如边缘服务对应于业务A,则确定适配于业务A的边缘设备,假设业务A在托管集群1中(不同托管集群可以不同的设定)需求分辨率至少为4K的摄像设备(业务信息的需求),则在确定边缘设备的过程中,可以进行分辨率的筛选;或边缘服务对应于区域B的服务,则将对应于区域B的托管集群与位置信息靠近于区域B的边缘设备进行关联,从而提高边缘与云端的响应效率;可以理解的是,上述部署规则的设定可以是上述示例中的一种或多种的组合,也可以脱离上述示例,采用相关人员的手动接入进行,即部署规则对应于手动接入,或采用自动接入,即部署规则对应于自由接入,具体方式因实际场景而定,此处不做限定。
具体的,对于边缘服务下发至边缘设备的配置过程,可以首先将边缘服务对应的镜像服务上传至镜像仓库,其中,镜像仓库用于存放Docker镜像,Docker镜像用于部署容器服务,每个镜像有特定的唯一标识,例如标识为镜像的Registry地址+镜像名称+镜像Tag;然后在镜像仓库中部署镜像服务;进而基于镜像服务在边缘设备部署目标指令对应的边缘服务,从而保证了边缘服务的可溯性,提高了边缘服务配置的稳定性。
另外,在镜像服务配置的过程中,可以确定镜像服务对应的部署参数;然后根据部署参数确定部署空间,以在镜像仓库进行部署。例如对镜像服务进行分类,以便于服务情况的统计。
可选的,在边缘服务部署后,可以发起部署测试指令;然后基于部署测试指令在边缘设备中测试边缘服务,以得到测试结果;若测试结果满足测试条件,则完成边缘服务在边缘设备中的部署,从而保证了边缘服务部署的稳定性以及可信度。
本申请可以方便快捷地部署和扩展集群,增加管理边缘设备的数量。假设有6台48核64G资源的中控设备,在现有技术方案的情况下,最多可以管理6000个边缘设备。而通过本申请,该6台设备可以管理12万台的边缘设备。相同中控设备资源的情况下,本申请管理的设备规模是现有技术下的20倍。相较于现有技术,本申请技术集群扩展性强,集群扩展效率按秒级计算,而现有技术集群扩展效率按小时或天计算。
结合上述实施例可知,通过响应于目标指令确定在云端平台部署的元集群,元集群中包括中控设备和相关联的至少一个托管集群,中控设备用于向托管集群下发目标指令,托管集群中配置了至少一个控制组件;然后获取待部署的边缘设备;进而将边缘设备与控制组件相关联,以在边缘设备部署目标指令对应的边缘服务。从而实现快速扩展边缘设备并进行管理的过程,由于边缘设备通过托管集群中的控制组件进行管理,在集群扩展过程中无需对上层的元集群框架进行重新部署,提高了边缘设备的扩展效率。
上述实施例介绍了边缘节点在云端平台的部署过程,下面对云端平台的事先配置进行说明。云端平台的事先配置包括了部署k8s元集群及业务托管集群;注册并检查边缘节点、部署并检查边缘服务三个步骤,下面分别进行说明。
对于部署k8s元集群及托管集群的过程,参见图3,图3为本申请实施例提供的另一种边缘设备的管理方法的流程图,包括如下步骤:
301、部署元集群。
本实施例中,元集群即为k8s元集群,包括k8s master节点和k8s node节点;其中,k8s的node节点可以横向快速扩展添加,node节点上运行托管k8s集群的master组件,该master组件即用于边缘设备的管理。
具体的,元集群的部署可以是根据当前k8s master节点所关联的所有node节点设定的,也可以选择其中的部分,例如:对node节点发起资源探测,以获取node节点的工作信息(负载状态、可用性等),从而选择状态满足条件的node节点进行部署。
302、给元集群的节点打区域标签。
本实施例中,给元集群的node设置区域标签,相当于为托管集群中的控制组件(master组件)设定的标识。
具体的,区域标识的设定可以是根据具体的业务进行的划分,例如对于负责业务A的控制组件标记标识1,为负责业务B的控制组件标记标识2,并相应的对其负责业务路径上的关联设备设定相应的标识;区域标识的设定也可以是根据地理范围进行的划分,由于边缘设备的部署存在地域性,故可以在不同的地理位置设定master组件,即部署node节点,从而保证边缘管理过程的便利性。
可以理解的是,区域标识可以作为一种边缘设备管理过程中的参考,即在实际边缘设备的管理过程中也可以不基于区域标识进行设备部署,这是为了避免突发的设备故障时的设备调度。
303、创建托管集群的目标服务。
本实施例中,目标服务即为创建托管k8s的etcd服务,etcd是一个分布式、可靠key-value存储的分布式服务系统,etcd服务不仅用于存储,还提供共享配置及服务发现。
具体的,在etcd服务的存储是一个扁平的二进制键空间,键空间有一个针对键(字节字符串)的词典序索引,因此范围查询的成本较低。其中,键空间维护了多个修订版本(revisions),每一个原子变动操作(一个事务可由多个子操作组成)都会产生一个新的修订版本。在集群的整个生命周期中,修订版都是单调递增的。修订版同样支持索引,因此基于修订版的范围扫描也是高效的。压缩操作需要指定一个修订版本号,小于它的修订版会被移除,保证了压缩的准确性。
304、在元集群的节点上创建托管集群的控制组件。
本实施例中,创建托管集群的控制组件的过程即在上述node节点上部署master组件,从而使得node节点具有管理边缘设备的能力。
305、配置托管集群的访问接口地址。
本实施例中,在对node节点上部署master组件后,可以管理多个边缘设备,在一种可能的场景中,一个托管集群(包含多个部署了master组件的node节点)可以管理5000个边缘设备。因此,需要为托管集群进行相应的多接口配置,并将访问接口地址通过etcd服务进行存储以及相应的设备关联,以保证master组件之间服务的独立性。
306、检查托管集群是否可用。
本实施例中,检查的过程可以通过调用etcd服务查询集群健康检查接口,以进行接口的检查以及相关服务的测试,以检查托管集群的部署是否正常。
307、返回服务部署失败及报错。
本实施例中,若步骤306中对托管集群进行的检查指示托管集群不可用,则返回服务部署失败及报错,以便于进行部署调整。
308、创建托管集群完成。
本实施例中,若服务正常,则调用部署托管集群的接口,部署k8s托管集群master服务,运行在k8s元集群的node节点上。进而配置托管k8s系统接口(api)的访问地址,即说明元集群及托管集群部署完成。
对于注册并检查边缘节点的过程,如图4所示,图4为本申请实施例提供的另一种边缘设备的管理方法的流程图,包括如下步骤:
401、注册一个或多个边缘设备。
本实施例中,为了保证边缘设备的可信度,对于接入托管集群的边缘设备需要在云端平台进行注册。
402、填写边缘设备注册参数。
本实施例中,边缘设备的注册参数包括边缘设备的标识信息(设备号、认证号等)、位置信息(IP地址、归属地等)以及功能信息(负载能力、可用状态等)。
403、检查节点是否满足注册条件。
本实施例中,注册条件的判断可以是根据注册参数进行的,即对于标识信息、位置信息或功能信息中的一种或多种进行核验,例如检查认证号的可信度;归属地的更换频率;是否为最佳负载状态等。
404、返回注册失败及报错。
本实施例中,若边缘设备的注册信息不满足步骤403中的注册条件,则会向云端平台反馈注册失败,以及具体的失败原因,即报错的过程。
可以理解的是,在报错之后可以进行相应边缘设备的记录,在该设备再次进行注册时进行提醒,以针对报错指示的维度进行进一步的检查。
405、自动选择托管集群。
本实施例中,若满足注册条件则自动选择托管集群,具体的,自动选择的过程可以是基于位置信息进行的,例如自动选择与边缘设备属于同一区域的托管集群;自动选择的过程可以是基于业务进行的,例如自动选择与边缘设备属于业务A的托管集群,从而节省了后续的边缘设备分组的过程。
406、判断托管集群的节点数目是否到达上限。
本实施例中,考虑到托管集群的容量以及管理边缘设备的效率,可以对托管集群中管理的节点数目(边缘设备)进行上限设备,具体的,该上限可以是负载上限,即最多接入的节点数目;上限也可以是由不同托管集群实时的资源负载情况所设定的数值,例如忙时阈值为负载上限的80%,闲时阈值为负载上限的60%,具体的数值设定因实际场景而定,从而保证了托管集群对边缘设备进行管理的稳定性。
407、创建托管集群。
本实施例中,若达到上限则创建托管集群,具体的,该创建的托管集群可以是重复图3所示实施例的步骤,也可以是选用图3所示实施例的步骤中未接入边缘设备的托管集群或未达到上限的托管集群。
可以理解的是,对于新的托管集群的创建,在创建过程中即与该注册的边缘设备进行关联,即在托管集群创建完毕后立即与边缘设备进行关联,从而提高边缘设备的接入效率。
408、检查节点是否注册成功。
本实施例中,将边缘设备对应的节点与托管集群相关联后,需要进行再次的节点核验,即保证边缘设备与托管集群之间联系的可信度。具体的可以通过标识信息发送的过程进行检查,即托管集群向关联的边缘设备发送检查指令,边缘设备会对该检查指令进行响应,根据响应的情况确定检查节点是否注册成功。
409、返回节点注册失败及报错。
本实施例中,根据步骤408中的检查指令响应,若托管集群未接收到边缘设备的响应,则说明该边缘设备注册失败,并生成该边缘设备的相关信息,以便于查验。
410、边缘节点注册成功。
本实施例中,根据步骤408中的检查指令响应,若托管集群接收到边缘设备的响应,则说明该边缘设备注册成功,边缘设备已部署为托管集群中的边缘节点。
进一步的,对于部署并检查边缘服务的过程,参见图5,图5为本申请实施例提供的另一种边缘设备的管理方法的流程图,包括如下步骤:
501、上传边缘服务镜像到镜像仓库。
本实施例中,边缘服务的过程为通过云端平台进行服务下发的过程,为保证服务的一致性,可以首先上传边缘服务镜像到镜像仓库。具体的,在镜像仓库中可以包含多个命名空间,即对于不同的边缘服务配置在不同的命名空间中,以实现多服务的并行。
502、部署边缘镜像服务。
本实施例中,部署边缘镜像服务的过程即调用边缘服务部署接口,通过服务镜像部署边缘服务。
503、填写边缘服务的部署参数。
本实施例中,部署参数可以包括需求的资源参数以及地域参数,具体的,资源参数为用于指示边缘服务运行过程所需要的硬件或软件资源的相关参数,例如:占用资源量、需求设备数等;而地域参数则用于指示边缘服务针对的对象,进而选择距离这些对象较近的边缘设备。
504、选择满足部署参数条件的边缘设备。
本实施例中,部署参数条件的满足即资源参数或地域参数维度的条件满足,例如选择运存达到1G的边缘设备,或选择范围A内的边缘设备。
505、云端平台自动部署边缘服务到对应边缘设备。
本实施例中,通过托管集群对于边缘设备的选择并确定对应的接口,使得边缘服务可以快速的部署到对应边缘设备。
506、检查边缘服务是否部署成功。
本实施例中,检查边缘服务的部署情况可以通过调用边缘服务健康检查接口,以检查边缘服务是否部署成功。
507、返回服务部署失败及报错。
本实施例中,若健康检查指示异常,则返回服务部署失败,并对相应的边缘服务进行记录,以便于查验。
508、返回部署成功。
本实施例中,若健康检查正常,则所述边缘服务部署成功。
在进行上述云端平台与边缘节点的配置过程后,可以得到如图6所示的系统架构图,图6为本申请实施例提供的另一种边缘设备的管理方法的系统架构图。主要分为云端平台(cloud)中控设备(meta k8s master)和边缘端(edge)的边缘设备(node)。其中,中控设备对应的元集群(meta)中关联了三个部署集群节点1-3(node1-3),每个部署集群中通过对应的etcd服务A-D配置了四个控制组件A-D(k8s master pod A-D),且每个控制组件关联了边缘端的四个边缘设备,具体的设备数量因实际场景而定,此处仅为示例。
具体的,对于图6中边缘服务的部署过程,涉及了托管集群(节点)中的控制组件以及边缘设备的选择过程,在下述实施例中托管集群以节点进行表述。
在一种可能的场景中,边缘服务中包含了4个线程的子服务,此时需要进行服务的下发,首先由中控设备遍历元集群中节点的负载状态,并确定了节点1-3进行上述子服务的分配;接下来,由节点遍历自身管理的控制组件的负载状态,并选择满足负载条件的控制组件执行子服务,例如:空闲的组件;如图中节点1负载状态趋近饱和,故只调用控制组件A进行子服务的负载;节点2负载状态空余,故调用控制组件B和控制组件C进行子服务的负载;节点3负载状态趋近饱和,故调用控制组件D进行子服务的负载;从而基于上述控制组件的确定,控制组件根据各自管理的边缘设备进行子服务的下发。
可以理解的是,控制组件进行子服务的下发可以是下发指目标范围内的边缘设备,即采用边缘设备注册过程中的区域标签进行子服务的下发,从而提高了服务的下发效率以及准确性。
可以理解的是,云端中控设备由一个k8s元集群来创建和管理多个k8s托管集群;元集群的node节点可以快速横向扩展,托管集群的数量也可以快速创建和扩展;一个托管集群最多可以管理5000个边缘设备,从而通过快速创建和管理多个托管集群可以快速的扩展接管的边缘设备的数量。
在一种可能的场景中,本申请可以应用于各种边缘计算场景中,例如应用于管理高速公路上的各类摄像头等边缘设备、小区内的视频监控、各类人脸识别设备等边缘设备、各类PCDN及CDN边缘设备。
下面,结合高速公路上摄像头的配置场景进行说明,如图7所示,图7为本申请实施例提供的另一种边缘设备的管理方法的流程图;包括但不限于如下步骤:
701、获取新增道路对应的边缘设备。
本实施例中,应用于道路摄像头的扩展场景,由于道路摄像头部署数量多,且分布广泛,可以采用本申请提供的边缘设备的管理方法进行快速的设备扩展过程。
具体的,新增道路对应的边缘设备即为在新增道路中添加的摄像设备,为了便于摄像设备的管理,可以进行将其在云端进行注册,并关联本申请中托管集群中的控制组件,其中,托管集群可以是根据区域标签设定的,例如对于区域A中道路配置的托管集群,从而提高摄像设备在云端进行注册过程中与托管集群的匹配性。
本实施例中,边缘设备的注册过程参考图4所示实施例的步骤,此处不做赘述。
702、基于云端平台对边缘设备进行部署。
本实施例中,边缘设备的部署的过程参考图3或图5中边缘设备与控制组件的关联过程,此处不做赘述。
703、部署新增道路对应区域的任务至边缘设备。
本实施例中,由于新增道路及其配置的边缘设备具有一定的地理位置特点,可以就近配置相应区域内的托管集群进行管理,从而提高了管理效率。
另一方面,通过元集群对应的中控设备可以得到每个托管集群的任务执性信息,即摄像信息,例如:车辆违章信息;具体的,车辆违章信息可以是在托管集群进行摄像信息的收集并处理后上传至中控设备的,即中控设备收集的违章信息是每个区域违章信息的集合,相较于每个节点对应边缘设备的管理过程,利用本申请所收集到的违章信息更加迅速且全面,而且由于区域信息的整理过程下放至了托管集群,使得中控设备处理数据所耗费的资源减少,可以应用于范围更加广阔的摄像头的管理中。
通过本申请中边缘设备的管理方法,可以全面的接入高速道路的摄像头管理系统中,且不会由于不断增加的摄像头数量对整体的管理效率产生影响,且便于进行大规模的摄像头接入云端平台,并进行相应任务的管理过程。
为了更好的实施本申请实施例的上述方案,下面还提供用于实施上述方案的相关装置。请参阅图8,图8为本申请实施例提供的一种边缘设备的管理装置的结构示意图,管理装置800包括:
确定单元801,用于响应于目标指令确定在云端平台部署的元集群,所述元集群中包括中控设备和相关联的至少一个托管集群,所述中控设备用于向所述托管集群下发所述目标指令,所述托管集群中配置了至少一个控制组件;
获取单元802,用于获取待部署的边缘设备;
管理单元803,用于根据部署规则将所述边缘设备与所述控制组件相关联,以使得所述边缘设备接入对应的所述托管集群中,所述托管集群用于在所述边缘设备部署所述目标指令对应的边缘服务,所述部署规则基于所述边缘服务对应的位置信息或业务信息确定。
可选的,在本申请一些可能的实现方式中,所述确定单元801,具体用于响应于所述目标指令为初始集群中的节点单元设定区域标签;
所述确定单元801,具体用于在所述区域标签的范围内调用目标服务以确定所述节点单元中的目标接口;
所述确定单元801,具体用于基于所述目标接口在所述节点单元中创建所述控制组件,以确定为所述托管集群;
所述确定单元801,具体用于确定所述托管集群关联的所述中控设备,以确定所述元集群。
可选的,在本申请一些可能的实现方式中,所述确定单元801,具体用于基于所述目标接口在所述节点单元中创建所述控制组件,唤起检测进程;
所述确定单元801,具体用于若所述检测进程指示所述控制组件在所述节点单元上服务正常,则确定为所述托管集群。
可选的,在本申请一些可能的实现方式中,所述获取单元802,具体用于确定多个候选边缘设备;
所述获取单元802,具体用于调用云端平台的节点注册接口,以获取所述候选边缘设备的注册参数;
所述获取单元802,具体用于基于所述注册参数确定待部署的所述边缘设备。
可选的,在本申请一些可能的实现方式中,所述获取单元802,具体用于所述注册参数确定所述候选边缘设备的位置信息;
所述获取单元802,具体用于基于所述位置信息确定对应的所述托管集群;
所述获取单元802,具体用于在所述托管集群中进行节点注册,以确定为待部署的所述边缘设备。
可选的,在本申请一些可能的实现方式中,所述获取单元802,具体用于获取所述托管集群的负载信息;
所述获取单元802,具体用于若所述负载信息满足预设条件,则在所述托管集群中进行节点注册,以确定为待部署的所述边缘设备。
可选的,在本申请一些可能的实现方式中,所述获取单元802,具体用于若所述负载信息不满足所述预设条件,则基于待部署的所述边缘设备创建候选托管集群。
可选的,在本申请一些可能的实现方式中,所述管理单元803,具体用于根据部署规则将所述边缘设备与所述控制组件相关联,并将所述边缘服务对应的镜像服务上传至镜像仓库;
所述管理单元803,具体用于在所述镜像仓库中部署所述镜像服务;
所述管理单元803,具体用于基于所述镜像服务在所述边缘设备部署所述目标指令对应的边缘服务。
可选的,在本申请一些可能的实现方式中,所述管理单元803,具体用于确定所述镜像服务对应的部署参数;
所述管理单元803,具体用于根据所述部署参数确定部署空间,以在所述镜像仓库进行部署。
可选的,在本申请一些可能的实现方式中,所述管理单元803,具体用于发起部署测试指令;
所述管理单元803,具体用于基于所述部署测试指令在所述边缘设备中测试所述边缘服务,以得到测试结果;
所述管理单元803,具体用于若测试结果满足测试条件,则完成所述边缘服务在所述边缘设备中的部署。
通过响应于目标指令确定在云端平台部署的元集群,元集群中包括中控设备和相关联的至少一个托管集群,中控设备用于向托管集群下发目标指令,托管集群中配置了至少一个控制组件;然后获取待部署的边缘设备;进而将边缘设备与控制组件相关联,以在边缘设备部署目标指令对应的边缘服务。从而实现快速扩展边缘设备并进行管理的过程,由于边缘设备通过托管集群中的控制组件进行管理,在集群扩展过程中无需对上层的元集群框架进行重新部署,提高了边缘设备的扩展效率。
本申请实施例还提供了一种服务器,请参阅图9,图9是本申请实施例提供的一种服务器的结构示意图,该服务器900可因配置或性能不同而产生比较大的差异,可以包括一个或一个以上中央处理器(central processing units,CPU)922(例如,一个或一个以上处理器)和存储器932,一个或一个以上存储应用程序942或数据944的存储介质930(例如一个或一个以上海量存储设备)。其中,存储器932和存储介质930可以是短暂存储或持久存储。存储在存储介质930的程序可以包括一个或一个以上模块(图示没标出),每个模块可以包括对服务器中的一系列指令操作。更进一步地,中央处理器922可以设置为与存储介质930通信,在服务器900上执行存储介质930中的一系列指令操作。
服务器900还可以包括一个或一个以上电源926,一个或一个以上有线或无线网络接口950,一个或一个以上输入输出接口958,和/或,一个或一个以上操作系统941,例如Windows ServerTM,Mac OS XTM,UnixTM,LinuxTM,FreeBSDTM等等。
上述实施例中由管理装置所执行的步骤可以基于该图9所示的服务器结构。
本申请实施例中还提供一种计算机可读存储介质,该计算机可读存储介质中存储有边缘设备的管理指令,当其在计算机上运行时,使得计算机执行如前述图1至图7所示实施例描述的方法中边缘设备的管理装置所执行的步骤。
本申请实施例中还提供一种包括边缘设备的管理指令的计算机程序产品,当其在计算机上运行时,使得计算机执行如前述图1至图7所示实施例描述的方法中边缘设备的管理装置所执行的步骤。
本申请实施例还提供了一种边缘设备的管理系统,所述边缘设备的管理系统可以包含图8所描述实施例中的边缘设备的管理装置,或者图9所描述的服务器。
在一种可能的场景中,本申请中的网络资源管理的方法应用于区块链设备中,即权威DNS、LDNS或终端为区块链设备,且该区块链设备为区块链中的节点,下面结合附图进行说明;参见图10A所示的数据共享系统,数据共享系统1000是指用于进行节点与节点之间数据共享的系统,该数据共享系统中可以包括多个节点1001,多个节点1001可以是指数据共享系统中各个客户端。每个节点1001在进行正常工作可以接收到输入信息,并基于接收到的输入信息维护该数据共享系统内的共享数据。为了保证数据共享系统内的信息互通,数据共享系统中的每个节点之间可以存在信息连接,节点之间可以通过上述信息连接进行信息传输。例如,当数据共享系统中的任意节点接收到输入信息时,数据共享系统中的其他节点便根据共识算法获取该输入信息,将该输入信息作为共享数据中的数据进行存储,使得数据共享系统中全部节点上存储的数据均一致。
对于数据共享系统中的每个节点,均具有与其对应的节点标识,而且数据共享系统中的每个节点均可以存储有数据共享系统中其他节点的节点标识,以便后续根据其他节点的节点标识,将生成的区块广播至数据共享系统中的其他节点。每个节点中可维护一个如下表所示的节点标识列表,将节点名称和节点标识对应存储至该节点标识列表中。其中,节点标识可为IP(Internet Protocol,网络之间互联的协议)地址以及其他任一种能够用于标识该节点的信息,表1中仅以IP地址为例进行说明。
表1节点名称与节点标识的对应关系
节点名称 | 节点标识 |
节点1 | 117.114.151.174 |
节点2 | 117.116.189.145 |
… | … |
节点N | 119.123.789.258 |
数据共享系统中的每个节点均存储一条相同的区块链。区块链由多个区块组成,参见图10B,区块链由多个区块组成,创始块中包括区块头和区块主体,区块头中存储有输入信息特征值、版本号、时间戳和难度值,区块主体中存储有输入信息;创始块的下一区块以创始块为父区块,下一区块中同样包括区块头和区块主体,区块头中存储有当前区块的输入信息特征值、父区块的区块头特征值、版本号、时间戳和难度值,并以此类推,使得区块链中每个区块中存储的区块数据均与父区块中存储的区块数据存在关联,保证了区块中输入信息的安全性。
在生成区块链中的各个区块时,参见图10C,区块链所在的节点在接收到输入信息时,对输入信息进行校验,完成校验后,将输入信息存储至内存池中,并更新其用于记录输入信息的哈希树;之后,将更新时间戳更新为接收到输入信息的时间,并尝试不同的随机数,多次进行特征值计算,使得计算得到的特征值可以满足下述公式:
SHA256(SHA256(version+prev_hash+merkle_root+ntime+nbits+x))<TARGET
其中,SHA256为计算特征值所用的特征值算法;version(版本号)为区块链中相关区块协议的版本信息;prev_hash为当前区块的父区块的区块头特征值;merkle_root为输入信息的特征值;ntime为更新时间戳的更新时间;nbits为当前难度,在一段时间内为定值,并在超出固定时间段后再次进行确定;x为随机数;TARGET为特征值阈值,该特征值阈值可以根据nbits确定得到。
这样,当计算得到满足上述公式的随机数时,便可将信息对应存储,生成区块头和区块主体,得到当前区块。随后,区块链所在节点根据数据共享系统中其他节点的节点标识,将新生成的区块分别发送给其所在的数据共享系统中的其他节点,由其他节点对新生成的区块进行校验,并在完成校验后将新生成的区块添加至其存储的区块链中。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的系统,装置和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在本申请所提供的几个实施例中,应该理解到,所揭露的系统,装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
所述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,边缘设备的管理装置,或者网络设备等)执行本申请各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(read-only memory,ROM)、随机存取存储器(random access memory,RAM)、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述,以上实施例仅用以说明本申请的技术方案,而非对其限制;尽管参照前述实施例对本申请进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本申请各实施例技术方案的精神和范围。
Claims (15)
1.一种边缘设备的管理方法,其特征在于,包括:
响应于目标指令确定在云端平台部署的元集群,所述元集群中包括中控设备和相关联的至少一个托管集群,所述中控设备用于向所述托管集群下发所述目标指令,所述托管集群中配置了至少一个控制组件;
获取待部署的边缘设备;
根据部署规则将所述边缘设备与所述控制组件相关联,以使得所述边缘设备接入对应的所述托管集群中,所述托管集群用于在所述边缘设备部署所述目标指令对应的边缘服务,所述部署规则基于所述边缘服务对应的位置信息或业务信息确定。
2.根据权利要求1所述的方法,其特征在于,所述响应于目标指令确定在云端平台部署的元集群,包括:
响应于所述目标指令为初始集群中的节点单元设定区域标签;
在所述区域标签的范围内调用目标服务以确定所述节点单元中的目标接口;
基于所述目标接口在所述节点单元中创建所述控制组件,以确定为所述托管集群;
确定所述托管集群关联的所述中控设备,以确定所述元集群。
3.根据权利要求2所述的方法,其特征在于,所述基于所述目标接口在所述节点单元中创建所述控制组件,以确定为所述托管集群,包括:
基于所述目标接口在所述节点单元中创建所述控制组件,唤起检测进程;
若所述检测进程指示所述控制组件在所述节点单元上服务正常,则确定为所述托管集群。
4.根据权利要求1所述的方法,其特征在于,所述获取待部署的边缘设备,包括:
确定多个候选边缘设备;
调用云端平台的节点注册接口,以获取所述候选边缘设备的注册参数;
基于所述注册参数确定待部署的所述边缘设备。
5.根据权利要求4所述的方法,其特征在于,所述基于所述注册参数确定待部署的所述边缘设备,包括:
所述注册参数确定所述候选边缘设备的位置信息;
基于所述位置信息确定对应的所述托管集群;
在所述托管集群中进行节点注册,以确定为待部署的所述边缘设备。
6.根据权利要求5所述的方法,其特征在于,所述在所述托管集群中进行节点注册,以确定为待部署的所述边缘设备,包括:
获取所述托管集群的负载信息;
若所述负载信息满足预设条件,则在所述托管集群中进行节点注册,以确定为待部署的所述边缘设备。
7.根据权利要求6所述的方法,其特征在于,所述方法还包括:
若所述负载信息不满足所述预设条件,则基于待部署的所述边缘设备创建候选托管集群。
8.根据权利要求1所述的方法,其特征在于,所述根据部署规则将所述边缘设备与所述控制组件相关联,包括:
根据部署规则将所述边缘设备与所述控制组件相关联,并将所述边缘服务对应的镜像服务上传至镜像仓库;
在所述镜像仓库中部署所述镜像服务;
基于所述镜像服务在所述边缘设备部署所述目标指令对应的边缘服务。
9.根据权利要求8所述的方法,其特征在于,所述在所述镜像仓库中部署所述镜像服务,包括:
确定所述镜像服务对应的部署参数;
根据所述部署参数确定部署空间,以在所述镜像仓库进行部署。
10.根据权利要求1-9任一项所述的方法,其特征在于,所述方法还包括:
发起部署测试指令;
基于所述部署测试指令在所述边缘设备中测试所述边缘服务,以得到测试结果;
若测试结果满足测试条件,则完成所述边缘服务在所述边缘设备中的部署。
11.根据权利要求1所述的方法,其特征在于,所述元集群和所述托管集群通过kubernetes进行管理,所述目标指令用于扩展所述云端平台管理的所述边缘设备的数量。
12.根据权利要求1所述的方法,其特征在于,所述边缘设备的管理方法应用于区块链设备,所述区块链设备为区块链中的节点。
13.一种边缘设备的管理装置,其特征在于,包括:
确定单元,用于响应于目标指令确定在云端平台部署的元集群,所述元集群中包括中控设备和相关联的至少一个托管集群,所述中控设备用于向所述托管集群下发所述目标指令,所述托管集群中配置了至少一个控制组件;
获取单元,用于获取待部署的边缘设备;
管理单元,用于根据部署规则将所述边缘设备与所述控制组件相关联,以使得所述边缘设备接入对应的所述托管集群中,所述托管集群用于在所述边缘设备部署所述目标指令对应的边缘服务,所述部署规则基于所述边缘服务对应的位置信息或业务信息确定。
14.一种计算机设备,其特征在于,所述计算机设备包括处理器以及存储器:
所述存储器用于存储程序代码;所述处理器用于根据所述程序代码中的指令执行权利要求1至12任一项所述的边缘设备的管理方法。
15.一种计算机可读存储介质,所述计算机可读存储介质中存储有指令,当其在计算机上运行时,使得计算机执行上述权利要求1至12任一项所述的边缘设备的管理方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011434823.7A CN112506659B (zh) | 2020-12-10 | 2020-12-10 | 一种边缘设备的管理方法以及相关装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011434823.7A CN112506659B (zh) | 2020-12-10 | 2020-12-10 | 一种边缘设备的管理方法以及相关装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112506659A true CN112506659A (zh) | 2021-03-16 |
CN112506659B CN112506659B (zh) | 2023-09-22 |
Family
ID=74970420
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011434823.7A Active CN112506659B (zh) | 2020-12-10 | 2020-12-10 | 一种边缘设备的管理方法以及相关装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112506659B (zh) |
Cited By (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112698992A (zh) * | 2021-03-23 | 2021-04-23 | 腾讯科技(深圳)有限公司 | 一种云集群的容灾管理方法以及相关装置 |
CN112925652A (zh) * | 2021-04-06 | 2021-06-08 | 北京百度网讯科技有限公司 | 应用资源部署方法、装置、电子设备和介质 |
CN112925651A (zh) * | 2021-04-06 | 2021-06-08 | 北京百度网讯科技有限公司 | 应用资源部署方法、装置、电子设备和介质 |
CN113225214A (zh) * | 2021-05-07 | 2021-08-06 | 浪潮软件科技有限公司 | 协同管理边缘cdn节点的方法、装置及计算机可读介质 |
CN113342382A (zh) * | 2021-06-30 | 2021-09-03 | 北京京东乾石科技有限公司 | 数据的校验方法、系统和边缘端设备 |
CN113342458A (zh) * | 2021-04-29 | 2021-09-03 | 之江实验室 | 一种基于容器云的云边协同海量设备和业务批量控制方法 |
CN113419819A (zh) * | 2021-06-25 | 2021-09-21 | 重庆紫光华山智安科技有限公司 | 容器管理方法、装置、设备及介质 |
CN114138501A (zh) * | 2022-02-07 | 2022-03-04 | 杭州智现科技有限公司 | 用于现场安全监控的边缘智能服务的处理方法和装置 |
CN114679380A (zh) * | 2021-04-09 | 2022-06-28 | 腾讯云计算(北京)有限责任公司 | 边缘集群的创建方法和相关装置 |
CN114760318A (zh) * | 2022-04-14 | 2022-07-15 | 北京科技大学设计研究院有限公司 | 一种边缘计算管理方法及系统 |
CN115314373A (zh) * | 2022-08-04 | 2022-11-08 | 中国银行股份有限公司 | 边缘服务器部署方法及装置 |
CN115309410A (zh) * | 2022-08-03 | 2022-11-08 | 北京火山引擎科技有限公司 | 应用发布方法、装置和电子设备 |
CN115314354A (zh) * | 2022-07-19 | 2022-11-08 | 中电通商数字技术(上海)有限公司 | 一种海量容器集群管理方法及系统 |
WO2023115590A1 (zh) * | 2021-12-20 | 2023-06-29 | 江苏云工场信息技术有限公司 | 一种cdn节点全链路监控方法及装置 |
CN116932093A (zh) * | 2023-06-29 | 2023-10-24 | 北京百度网讯科技有限公司 | 人工智能模型的部署方法、系统、装置、设备及存储介质 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017045424A1 (zh) * | 2015-09-18 | 2017-03-23 | 乐视控股(北京)有限公司 | 一种应用程序部署系统及部署方法 |
CN111556514A (zh) * | 2020-04-14 | 2020-08-18 | 北京航空航天大学 | 一种去中心化的移动边缘计算资源发现和选择方法及系统 |
CN111614490A (zh) * | 2020-04-29 | 2020-09-01 | 北京金山云网络技术有限公司 | 基于顶级容器集群对托管容器集群的管理系统及方法 |
CN111800506A (zh) * | 2020-07-06 | 2020-10-20 | 深圳市网心科技有限公司 | 一种边缘计算节点部署方法及相关装置 |
CN112000438A (zh) * | 2020-08-24 | 2020-11-27 | 苏州浪潮智能科技有限公司 | 一种基于多架构的大规模k8s集群运维的方法及装置 |
CN112035217A (zh) * | 2020-08-31 | 2020-12-04 | 腾讯科技(深圳)有限公司 | 集群的处理方法、装置、电子设备及计算机可读存储介质 |
-
2020
- 2020-12-10 CN CN202011434823.7A patent/CN112506659B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017045424A1 (zh) * | 2015-09-18 | 2017-03-23 | 乐视控股(北京)有限公司 | 一种应用程序部署系统及部署方法 |
CN111556514A (zh) * | 2020-04-14 | 2020-08-18 | 北京航空航天大学 | 一种去中心化的移动边缘计算资源发现和选择方法及系统 |
CN111614490A (zh) * | 2020-04-29 | 2020-09-01 | 北京金山云网络技术有限公司 | 基于顶级容器集群对托管容器集群的管理系统及方法 |
CN111800506A (zh) * | 2020-07-06 | 2020-10-20 | 深圳市网心科技有限公司 | 一种边缘计算节点部署方法及相关装置 |
CN112000438A (zh) * | 2020-08-24 | 2020-11-27 | 苏州浪潮智能科技有限公司 | 一种基于多架构的大规模k8s集群运维的方法及装置 |
CN112035217A (zh) * | 2020-08-31 | 2020-12-04 | 腾讯科技(深圳)有限公司 | 集群的处理方法、装置、电子设备及计算机可读存储介质 |
Non-Patent Citations (1)
Title |
---|
阿里云云原生: "阿里云 CDN 业务基于边缘容器的云原生转型实践", pages 1 - 14, Retrieved from the Internet <URL:https://juejin.cn/post/6844903917071892487> * |
Cited By (25)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112698992A (zh) * | 2021-03-23 | 2021-04-23 | 腾讯科技(深圳)有限公司 | 一种云集群的容灾管理方法以及相关装置 |
CN112925651B (zh) * | 2021-04-06 | 2023-07-04 | 北京百度网讯科技有限公司 | 应用资源部署方法、装置、电子设备和介质 |
CN112925652A (zh) * | 2021-04-06 | 2021-06-08 | 北京百度网讯科技有限公司 | 应用资源部署方法、装置、电子设备和介质 |
CN112925651A (zh) * | 2021-04-06 | 2021-06-08 | 北京百度网讯科技有限公司 | 应用资源部署方法、装置、电子设备和介质 |
CN112925652B (zh) * | 2021-04-06 | 2023-11-21 | 北京百度网讯科技有限公司 | 应用资源部署方法、装置、电子设备和介质 |
CN114679380B (zh) * | 2021-04-09 | 2024-04-26 | 腾讯云计算(北京)有限责任公司 | 边缘集群的创建方法和相关装置 |
CN114679380A (zh) * | 2021-04-09 | 2022-06-28 | 腾讯云计算(北京)有限责任公司 | 边缘集群的创建方法和相关装置 |
CN113342458B (zh) * | 2021-04-29 | 2024-07-09 | 之江实验室 | 一种基于容器云的云边协同海量设备和业务批量控制方法 |
CN113342458A (zh) * | 2021-04-29 | 2021-09-03 | 之江实验室 | 一种基于容器云的云边协同海量设备和业务批量控制方法 |
CN113225214A (zh) * | 2021-05-07 | 2021-08-06 | 浪潮软件科技有限公司 | 协同管理边缘cdn节点的方法、装置及计算机可读介质 |
CN113419819A (zh) * | 2021-06-25 | 2021-09-21 | 重庆紫光华山智安科技有限公司 | 容器管理方法、装置、设备及介质 |
CN113419819B (zh) * | 2021-06-25 | 2023-09-08 | 重庆紫光华山智安科技有限公司 | 容器管理方法、装置、设备及介质 |
CN113342382A (zh) * | 2021-06-30 | 2021-09-03 | 北京京东乾石科技有限公司 | 数据的校验方法、系统和边缘端设备 |
CN113342382B (zh) * | 2021-06-30 | 2024-04-09 | 北京京东乾石科技有限公司 | 数据的校验方法、系统和边缘端设备 |
WO2023115590A1 (zh) * | 2021-12-20 | 2023-06-29 | 江苏云工场信息技术有限公司 | 一种cdn节点全链路监控方法及装置 |
CN114138501B (zh) * | 2022-02-07 | 2022-06-14 | 杭州智现科技有限公司 | 用于现场安全监控的边缘智能服务的处理方法和装置 |
CN114138501A (zh) * | 2022-02-07 | 2022-03-04 | 杭州智现科技有限公司 | 用于现场安全监控的边缘智能服务的处理方法和装置 |
CN114760318A (zh) * | 2022-04-14 | 2022-07-15 | 北京科技大学设计研究院有限公司 | 一种边缘计算管理方法及系统 |
CN114760318B (zh) * | 2022-04-14 | 2024-02-20 | 北京科技大学设计研究院有限公司 | 一种边缘计算管理方法及系统 |
CN115314354A (zh) * | 2022-07-19 | 2022-11-08 | 中电通商数字技术(上海)有限公司 | 一种海量容器集群管理方法及系统 |
CN115309410B (zh) * | 2022-08-03 | 2024-06-04 | 北京火山引擎科技有限公司 | 边缘计算场景的边缘集群应用发布方法、装置和电子设备 |
CN115309410A (zh) * | 2022-08-03 | 2022-11-08 | 北京火山引擎科技有限公司 | 应用发布方法、装置和电子设备 |
CN115314373A (zh) * | 2022-08-04 | 2022-11-08 | 中国银行股份有限公司 | 边缘服务器部署方法及装置 |
CN115314373B (zh) * | 2022-08-04 | 2024-10-25 | 中国银行股份有限公司 | 边缘服务器部署方法及装置 |
CN116932093A (zh) * | 2023-06-29 | 2023-10-24 | 北京百度网讯科技有限公司 | 人工智能模型的部署方法、系统、装置、设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN112506659B (zh) | 2023-09-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112506659B (zh) | 一种边缘设备的管理方法以及相关装置 | |
US11573725B2 (en) | Object migration method, device, and system | |
US10862760B2 (en) | Network functions virtualization | |
CN112698992B (zh) | 一种云集群的容灾管理方法以及相关装置 | |
US9971823B2 (en) | Dynamic replica failure detection and healing | |
CN108920272B (zh) | 一种数据处理方法、装置、计算机设备及存储介质 | |
CN111880936B (zh) | 资源调度方法、装置、容器集群、计算机设备和存储介质 | |
US11188561B2 (en) | Prioritizing microservices on a container platform for a restore operation | |
CN113382077B (zh) | 微服务调度方法、装置、计算机设备和存储介质 | |
CN111770162B (zh) | 网络带宽限制方法、装置、主节点及存储介质 | |
CN105556499A (zh) | 智能自动缩放 | |
CN110971439A (zh) | 策略决策方法及装置、系统、存储介质、策略决策单元及集群 | |
CN107172214B (zh) | 一种具有负载均衡的服务节点发现方法及装置 | |
CN112631680B (zh) | 微服务容器调度系统、方法、装置和计算机设备 | |
CN107203437B (zh) | 防止内存数据丢失的方法、装置和系统 | |
CN112579319A (zh) | 一种基于LRU Cache优化的服务调用方法及装置 | |
CN112965817A (zh) | 资源管理方法、装置和电子设备 | |
CN111984505A (zh) | 一种运维数据采集引擎及采集方法 | |
CN113630317A (zh) | 一种数据传输方法、装置、非易失性存储介质及电子装置 | |
CN116954870B (zh) | 跨集群应用的迁移方法、恢复方法、装置及集群系统 | |
CN112631727A (zh) | 一种容器组pod的监控方法及装置 | |
CN118051344A (zh) | 硬件资源的分配方法、装置、硬件资源管理系统 | |
CN113965538B (zh) | 设备状态消息处理方法、装置及存储介质 | |
US20240176762A1 (en) | Geographically dispersed hybrid cloud cluster | |
CN115037757A (zh) | 一种多集群服务管理系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
REG | Reference to a national code |
Ref country code: HK Ref legal event code: DE Ref document number: 40040741 Country of ref document: HK |
|
GR01 | Patent grant | ||
GR01 | Patent grant |