CN113344415A - 基于深度神经网络的业务分配方法、装置、设备及介质 - Google Patents
基于深度神经网络的业务分配方法、装置、设备及介质 Download PDFInfo
- Publication number
- CN113344415A CN113344415A CN202110696468.9A CN202110696468A CN113344415A CN 113344415 A CN113344415 A CN 113344415A CN 202110696468 A CN202110696468 A CN 202110696468A CN 113344415 A CN113344415 A CN 113344415A
- Authority
- CN
- China
- Prior art keywords
- neural network
- deep neural
- training
- data
- training sample
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000013528 artificial neural network Methods 0.000 title claims abstract description 145
- 238000000034 method Methods 0.000 title claims abstract description 39
- 238000012549 training Methods 0.000 claims abstract description 186
- 230000006870 function Effects 0.000 claims description 28
- 238000004422 calculation algorithm Methods 0.000 claims description 11
- 238000005457 optimization Methods 0.000 claims description 10
- 238000004590 computer program Methods 0.000 claims description 7
- 238000007405 data analysis Methods 0.000 claims description 3
- 238000012163 sequencing technique Methods 0.000 claims description 3
- 238000005516 engineering process Methods 0.000 abstract description 4
- 239000003795 chemical substances by application Substances 0.000 description 27
- 238000004891 communication Methods 0.000 description 8
- 238000012216 screening Methods 0.000 description 8
- 238000012545 processing Methods 0.000 description 7
- 230000004913 activation Effects 0.000 description 6
- 238000007726 management method Methods 0.000 description 5
- 238000010586 diagram Methods 0.000 description 4
- 210000002569 neuron Anatomy 0.000 description 4
- 238000004458 analytical method Methods 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 3
- 238000013135 deep learning Methods 0.000 description 3
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000011176 pooling Methods 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 238000000638 solvent extraction Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000009193 crawling Effects 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000008034 disappearance Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 239000013598 vector Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/06—Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
- G06Q10/063—Operations research, analysis or management
- G06Q10/0631—Resource planning, allocation, distributing or scheduling for enterprises or organisations
- G06Q10/06311—Scheduling, planning or task assignment for a person or group
- G06Q10/063112—Skill-based matching of a person or a group to a task
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Business, Economics & Management (AREA)
- Human Resources & Organizations (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Software Systems (AREA)
- Mathematical Physics (AREA)
- Computing Systems (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Economics (AREA)
- Educational Administration (AREA)
- Strategic Management (AREA)
- Entrepreneurship & Innovation (AREA)
- Game Theory and Decision Science (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Development Economics (AREA)
- Probability & Statistics with Applications (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Marketing (AREA)
- Operations Research (AREA)
- Quality & Reliability (AREA)
- Tourism & Hospitality (AREA)
- General Business, Economics & Management (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本发明涉及智能决策技术,揭露了一种基于深度神经网络的业务分配方法,包括:将获取的历史客户数据划分为第一训练样本和第二训练样本;利用第一训练样本对原始深度神经网络进行第一训练,得到初始深度神经网络及第一训练结果;获取用户对第一训练结果的反馈信息,利用反馈信息与第二训练样本对初始深度神经网络进行第二训练,得到标准深度神经网络;利用标准深度神经网络对预先获取的多个待接待客户的数据进行分析,以对坐席进行业务的分配。此外,本发明还涉及区块链技术,资源数据可存储于区块链的节点。本发明还提出一种基于深度神经网络的业务分配装置、设备及介质。本发明可以解决分配至坐席的业务与该坐席匹配度较低的问题。
Description
技术领域
本发明涉及智能决策技术领域,尤其涉及一种基于深度神经网络的业务分配方法、装置、电子设备及计算机可读存储介质。
背景技术
随着人们需求的增长,各个公司或企业为用户提供出各种各样的业务,由此带来的业务增长导致需要大量的业务人员来对业务进行处理。例如,保险公司存在大量的保险业务,因此,需要将大量的保险业务分配给多名业务人员进行处理。
现有的业务分配方式多为基于业务级别的分配,即对各项业务和业务人员进行评级,将业务分配给相应级别的业务人员进行处理。该方法中,随着,即使相同级别的业务人员往往擅长沟通的客户群体也不同,因此,按照业务级别对业务进行分配,往往会导致业务与业务人员的匹配度不高。
发明内容
本发明提供一种基于深度神经网络的业务分配方法、装置及计算机可读存储介质,其主要目的在于解决分配至坐席的业务与该坐席匹配度较低的问题。
为实现上述目的,本发明提供的一种基于深度神经网络的业务分配方法,包括:
获取坐席的历史客户数据,按照是否有成交业务订单将所述历史客户数据划分为第一训练样本和第二训练样本;
利用所述第一训练样本对预先构建的原始深度神经网络进行第一训练,得到初始深度神经网络及第一训练结果;
获取用户对所述第一训练结果的反馈信息,利用所述反馈信息与所述第二训练样本对所述初始深度神经网络进行第二训练,得到标准深度神经网络;
利用所述标准深度神经网络对预先获取的多个待接待客户的数据进行分析,得到所述坐席和每个待接待客户达成成交业务订单的概率值;
获取所述多个待接待客户的业务,根据所述概率值对所述坐席进行所述业务的分配。
可选地,所述利用所述第一训练样本对预先构建的原始深度神经网络进行第一训练之前,所述方法还包括:
获取深度神经网络框架;
在所述深度神经网络框架中构建特征输入层;
在所述特征输入层之后建立多层全连接层;
在所述多层全连接层之间构建批标准化层以及丢弃层,得到原始深度神经网络。
可选地,所述按照是否有成交业务订单将所述历史客户数据划分为第一训练样本和第二训练样本,包括:
提取所述历史客户数据中每个数据的状态字段;
判断所述状态字段与预设的标准字段是否相同,若所述状态字段与所述标准字段相同,则确定所述历史客户数据中有成交业务订单,将所述状态字段对应的数据分类为第一训练样本;
若所述状态字段与所述标准字段不同,则确定所述历史客户数据中没有成交业务订单,将所述状态字段对应的数据分类为第二训练样本。
可选地,所述利用所述第一训练样本对预先构建的原始深度神经网络进行第一训练,得到初始深度神经网络及第一训练结果,包括:
获取所述第一训练样本的第一数据特征;
利用所述第一数据特征对所述原始深度神经网络进行第一训练;
利用预设的第一损失函数计算所述第一训练产生的训练结果的第一损失值;
根据所述第一损失值对所述原始深度神经网络的参数进行调整,并返回第一训练的步骤,直至所述第一训练的次数达到预设第一次数,输出初始深度神经网络,以及第一训练生成的第一训练结果。
可选地,所述根据所述第一损失值对所述原始深度神经网络的参数进行调整,包括:
根据所述所述第一损失值,利用预设优化算法计算所述原始深度神经网络中参数的更新梯度;
根据所述更新梯度对所述原始深度神经网络的参数进行更新。
可选地,所述根据所述概率值对所述坐席进行所述业务的分配,包括:
将所述概率值与预设概率阈值进行比对;
选取所述概率值大于所述预设概率阈值的待接待客户的业务分配给所述坐席。
可选地,所述根据所述概率值对所述坐席进行所述业务的分配,包括:
按照所述概率值从大到小的顺序将所述多个待接待客户进行排序,得到客户列表;
按照从前向后的顺序依次从所述客户列表中选取预设数量的待接待客户,并将选取的待接待客户的业务分配给所述坐席。
为了解决上述问题,本发明还提供一种基于深度神经网络的业务分配装置,所述装置包括:
获取坐席的历史客户数据,按照是否有成交业务订单将所述历史客户数据划分为第一训练样本和第二训练样本;
利用所述第一训练样本对预先构建的原始深度神经网络进行第一训练,得到初始深度神经网络及第一训练结果;
获取用户对所述第一训练结果的反馈信息,利用所述反馈信息与所述第二训练样本对所述初始深度神经网络进行第二训练,得到标准深度神经网络;
利用所述标准深度神经网络对预先获取的多个待接待客户的数据进行分析,得到所述坐席和每个待接待客户达成成交业务订单的概率值;
获取所述多个待接待客户的业务,根据所述概率值对所述坐席进行所述业务的分配。
为了解决上述问题,本发明还提供一种电子设备,所述电子设备包括:
存储器,存储至少一个指令;及
处理器,执行所述存储器中存储的指令以实现上述所述的基于深度神经网络的业务分配方法。
为了解决上述问题,本发明还提供一种计算机可读存储介质,所述计算机可读存储介质中存储有至少一个指令,所述至少一个指令被电子设备中的处理器执行以实现上述所述的基于深度神经网络的业务分配方法。
本发明实施例利用达成订单的第一训练样本对构建的网络进行训练,并利用用户对训练结果的反馈信息与未达成订单的第二训练样本再次对网络进行训练,提高了网络的精确度,进而根据网络对坐席接待客户达成成交业务订单的成功率的预测,并按照该成功率对坐席进行业务分配,实现了为坐席匹配可达成订单的概率高的用户群,提高了坐席与用户的匹配度。因此本发明提出的基于深度神经网络的业务分配方法、装置、电子设备及计算机可读存储介质,可以解决对资源生成的标签的精确度较低的问题。
附图说明
图1为本发明一实施例提供的基于深度神经网络的业务分配方法的流程示意图;
图2为本发明一实施例提供的对历史客户数据进行划分的流程示意图;
图3为本发明一实施例提供的进行第一训练的流程示意图;
图4为本发明一实施例提供的基于深度神经网络的业务分配装置的功能模块图;
图5为本发明一实施例提供的实现所述基于深度神经网络的业务分配方法的电子设备的结构示意图。
本发明目的的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方式
应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
本申请实施例提供一种基于深度神经网络的业务分配方法。所述基于深度神经网络的业务分配方法的执行主体包括但不限于服务端、终端等能够被配置为执行本申请实施例提供的该方法的电子设备中的至少一种。换言之,所述基于深度神经网络的业务分配方法可以由安装在终端设备或服务端设备的软件或硬件来执行,所述软件可以是区块链平台。所述服务端包括但不限于:单台服务器、服务器集群、云端服务器或云端服务器集群等。
参照图1所示,为本发明一实施例提供的基于深度神经网络的业务分配方法的流程示意图。在本实施例中,所述基于深度神经网络的业务分配方法包括:
S1、获取坐席的历史客户数据,按照是否有成交业务订单将所述历史客户数据划分为第一训练样本和第二训练样本。
本发明实施例中,所述坐席为客服人员,例如,保险公司的客服人员,银行客服人员或者房地产公司的客服人员;所述历史客户数据为该坐席服务过的多名历史客户的数据,例如,历史客户A的姓名、性别、职业、办理业务名称以及是否达成成交业务订单等。
详细地,所述坐席的历史客户数据可由用户提供,或者,利用具有数据抓取功能的计算机语句(如,java语句、python语句等)从用于存储所述历史客户数据的存储区域(数据库、区块链、网络缓存等)抓取所述历史客户数据。
本发明实施例中,可按照是否有成交业务订单将所述历史客户数据划分为第一训练样本和第二训练样本。
例如,历史客户数据中包含历史客户A的数据、历史客户B的数据和历史客户C的数据,其中,历史客户A的数据、历史客户B的数据中含有成交业务订单,历史客户C的数据不含有成交业务订单,则将历史客户A的数据、历史客户B的数据划分为第一训练样本,将历史客户C的数据划分为第二训练样本;或者将历史客户C的数据划分为第一训练样本,将历史客户A的数据、历史客户B的数据划分为第二训练样本。
本发明其中一个实施例中,参图2所示,所述按照是否有成交业务订单将所述历史客户数据划分为第一训练样本和第二训练样本,包括:
S21、提取所述历史客户数据中每个数据的状态字段;
S22、判断所述状态字段与预设的标准字段是否相同;
若所述状态字段与所述标准字段相同,则执行S23、确定所述历史客户数据中有成交业务订单,将所述状态字段对应的数据分类为第一训练样本;
若所述状态字段与所述标准字段不同,则执行S24、确定所述历史客户数据中没有成交业务订单,将所述状态字段对应的数据分类为第二训练样本。
详细地,所述状态字段可由用户预先写入所述历史客户数据中,所述状态字段用于对历史客户数据中各数据是否包含有成交业务订单进行标记。
所述标准字段可用于对历史客户数据中包含成交业务订单的数据进行标记;或者,所述标准字段也可对历史客户数据中不包含成交业务订单的数据进行标记。
例如,当所述标准字段用于对历史客户数据中包含成交业务订单的数据进行标记时,所述历史客户数据中存在历史客户A的数据包含成交业务订单,则利用该标准字段作为状态字段对历史客户A的数据进行标记;历史客户B的数据中不包含成交业务订单,则利用与该标准字段不相同的状态字段对历史客户B的数据进行标记。
本实施例通过提取历史客户数据中每个数据的状态字段,并将该状态字段与标准字段进行比对,以实现将历史客户数据划分为第一训练样本和第二训练样本,有利于提高对历史客户数据进行划分的精确度。
S2、利用所述第一训练样本对预先构建的原始深度神经网络进行第一训练,得到初始深度神经网络及第一训练结果。
本发明实施例中,所述原始深度神经网络构建时采用多层全连接层的结构,以增强网络对数据的表达能力,提高网络的复杂度,进而提高后续利用网络进行业务分配的精确度。
本发明实施例中,所述利用所述第一训练样本对预先构建的原始深度神经网络进行第一训练之前,所述方法还包括:
获取深度神经网络框架;
在所述深度神经网络框架中构建特征输入层;
在所述特征输入层之后建立多层全连接层;
在所述多层全连接层之间构建批标准化层以及丢弃层,得到原始深度神经网络。
详细地,所述深度神经网络框架可由用户预先给定,并通过java、python等计算机语言在所述深度神经网络框架中编写不同网络层次对应的函数,以实现对特征输入层、全连接层、批标准化层及丢弃层的构建。
其中,所述特征输入层用于输入训练数据的数据特征,以便网络对训练数据进行分析。例如,当利用第一训练样本对原始深度神经网络进行训练时,特征输入层输入的为该第一训练样本的数据特征。
所述全连接层用于对特征输入层输入的数据特征按照预设权重进行表达及分析,以更好的显示出特征之间的隐藏关系,进而获取对训练数据的训练结果;其中,多层全连接层的结构有利于增加网络的复杂度,以提高网络输出的训练结果的精确度,且多层全连接层中包含模型的输出层,用于对模型模型分析的结果进行输出。
例如,当利用第一训练样本对原始深度神经网络进行训练时,全连接层用于对第一训练样本的数据特征进行表达及分析,并利用多层全连接层中的输出层对第一训练结果进行输出,其中,所述第一训练结果为对坐席与客户是否达成成交业务订单的预测结果(如,客服A对历史客户A达成成交业务订单的概率为80%)。
所述批标准化层用于将全连接层表达的数据特征进行标准化,以解决网络训练过程中出现的梯度消失问题,并能够对全连接层按照预设权重表达的数据特征进行权重调整,以优化网络的梯度流。
所述丢弃层即Dropout层,可实现将全连接层表达的数据特征按照预设的概率参数进行暂时丢弃,以防止在训练数据较少时,网络出现过拟合的状态。
本发明其中一个实施例中,所述原始深度神经网络包括7层网络结构,第一层为特征输入层,第二层为包含128个神经元的全连接层,第三层为批标准化层,第四层为丢弃层,第五层为包含64个神经元的全连接层,第六层为包含32个神经元的全连接层,第七层为包含1个神经元的全连接层(输出层),其中,第二层、第五层与第六层采用Relu函数作为激活函数,第七层采用Sigmoid函数作为激活函数,丢弃层的概率参数为0.3。
本发明实施例中,参图3所示,所述利用所述第一训练样本对预先构建的原始深度神经网络进行第一训练,得到初始深度神经网络及第一训练结果,包括:
S31、获取所述第一训练样本的第一数据特征;
S32、利用所述第一数据特征对所述原始深度神经网络进行第一训练;
S33、利用预设的第一损失函数计算所述第一训练产生的训练结果的第一损失值;
S34、根据所述第一损失值对所述原始深度神经网络的参数进行调整;
S35、判断所述第一训练的次数是否达到预设第一次数;
若所述第一训练的次数未达到所述预设第一次数,返回步骤S32;
若所述第一训练的次数达到所述预设第一次数,执行S36、输出初始深度神经网络,以及第一训练生成的第一训练结果。
详细地,可通过预设的智能模型(如NLP模型、HMM模型)对所述第一训练样本进行分析,以获取所述第一训练样本的第一数据特征,所述第一数据特征包括但不限于第一训练样本中每个历史客户数据对应的客户姓名、客户性别、客户职业、客户办理业务名称以及客户是否达成成交业务订单等。
通过获取第一训练样本的第一数据特征对网络进行训练,可减少网络需要处理的数据量,提高网络的训练效率及精确度。
进一步地,将所述第一数据特征输入至所述原始深度神经网络后,该原始深度神经网络对第一数据特征进行分析,以获取对该第一数据特征的预测值,并利用预设的第一损失函数计算该预测值与第一训练样本之间的第一损失值,进而根据第一损失值对原始深度神经网络的参数进行调整,实现对原始深度神经网络的训练,其中,所述第一损失函数包括但不限于平方损失函数、对数损失函数。
本发明其中一个实施例中,在根据第一损失值对原始深度神经网络的参数进行调整时,可采用预设优化算法对所述对抗生成网络的参数进行调节,所述预设优化算法包括但不限于:批量梯度下降算法、小批量梯度下降算法、随机梯度下降算法。
例如,将所述对抗生成网络的当前参数输入至所述优化算法中,利用所述优化算法对输入的当前参数进行优化计算,以获取优化后的优化参数,利用所述优化参数对所述对抗生成网络的当前参数进行更新,以实现对所述对抗生成网络中参数的调整。
本发明实施例中,所述根据所述第一损失值对所述原始深度神经网络的参数进行调整,包括:
根据所述所述第一损失值,利用预设优化算法计算所述原始深度神经网络中参数的更新梯度;
根据所述更新梯度对所述原始深度神经网络的参数进行更新。
在根据所述更新梯度对所述当前参数进行更新时,可利用所述原始深度神经网络中参数与更新梯度进行预设的算数运算。
例如,当前参数为10,利用预设的优化算法对所述原始深度神经网络中参数进行计算,得到所述参数的更新梯度为0.1,可根据所述更新梯度0.1将所述参数进行更新为10(1+0.1)=11;
或者,可根据所述更新梯度0.1将所述参数进行更新为10+0.1=10.1。
S3、获取用户对所述第一训练结果的反馈信息,利用所述反馈信息与所述第二训练样本对所述初始深度神经网络进行第二训练,得到标准深度神经网络。
本发明实施例中,所述反馈信息为用户对第一训练结果的反馈,该反馈信息用于对第一训练结果进行纠正或确认,从而优化和丰富训练样本,进而训练出更准确的网络。
例如,第一训练结果中包括第一训练样本中历史客户A的数据(是否达成成交业务订单,达成时概率值为100%,未达成时概率值为0%),及对该历史客户的A数据的预测结果(达成成交业务订单的概率值),若所述预测结果与历史客户A的数据的差值小于或等于预设概率,则所述反馈信息为对该预测结果的确认;若所述预测结果与历史客户A的数据的差值大于预设概率,则所述反馈信息为对该预测结果的纠正。
本发明实施例中,所述反馈信息可由用户在客户端上传,例如,用户在客户端中用于收集反馈信息的网页中填写所述反馈信息并进行上传。
进一步地,本发明实施例利用所述反馈信息与所述第二训练样本对所述初始深度学习网络进行第二训练,以提高所述初始深度学习网络的精确度,得到标准深度学习网络。
本发明其中一个实施例中,所述利用所述反馈信息与所述第二训练样本对所述初始深度神经网络进行第二训练,得到标准深度神经网络,包括:
获取所述第二训练样本的第二数据特征;
利用所述第二数据特征与所述反馈信息对所述初始神经网络进行第二训练;
利用预设的第二损失函数计算所述第二训练产生的训练结果的第二损失值;
根据所述第二损失值对所述初始深度神经网络的参数进行调整,并返回第二训练的步骤,直至第二训练的次数达到预设第二次数,得到标准深度神经网络。
详细地,所述获取所述第二训练样本的第二数据特征的步骤与获取所述第一训练样本的第一数据特征的步骤一致,在此不做赘述。
具体地,所述第二损失函数可以与所述第一损失函数相同,所述预设第二次数可以与所述预设第一次数相同。
本发明实施例中,利用反馈信息与第二训练样本对初始深度神经网络进行第二训练,增加了训练样本的多样性,有利于提高训练得到的标准深度神经网络的精确度。
S4、利用所述标准深度神经网络对预先获取的多个待接待客户的数据进行分析,得到所述坐席和每个待接待客户达成成交业务订单的概率值。
本发明实施例中,可通过所述标准深度神经网络对预先获取的多个待接待客户的数据进行分析,以获取所述坐席和每个待接待客户达成成交业务订单的概率值。
本发明实施例中,所述利用所述标准深度神经网络对预先获取的多个待接待客户的数据进行分析,得到所述坐席和每个待接待客户达成成交业务订单的概率值,包括:
对所述多个待接待客户的数据进行卷积、池化等处理,得到客户特征;
利用所述标准深度神经网络的全连接层对所述客户特征进行特征表达;
利用所述标准深度神经网络的批标准化层以及丢弃层对所述特征筛选,得到筛选特征;
获取用户画像,利用所述标准深度神经网络的输出层对所述用户画像及所述筛选特征进行概率值计算,并确定计算得到的概率值为所述坐席和所述筛选特征对应的待接待客户达成成交业务订单的概率值。
例如,存在待接待客户A及待接待客户A的数据a,待接待客户B及待接待客户B的数据b,待接待客户C及待接待客户C的数据c,待接待客户D及待接待客户D的数据d;分别对数据a、数据b、数据c、数据d进行进行卷积、池化等处理,以得到每个客户数据对应的客户特征,利用标准深度神经网络的全连接层对所述客户特征进行特征表达,以从将每个客户数据对应的客户特征表达为计算机可读的形式(如,向量、字符等),利用标准深度神经网络的批标准化层以及丢弃层对所述特征筛选,以试下将客户特征中客户的重要特征进行表达,筛除客户特征中不重要的特征,以减少后续分析时计算资源的占用,并提高分析的精确度,进一步地,利用所述标准深度神经网络的输出层对用户画像及筛选特征进行概率值计算,所述输出层中包含激活函数,可用于对用户画像及筛选特征进行计算,得出用户画像及筛选特征之间的相关的概率值,并将该概率值作为坐席和所述筛选特征对应的待接待客户达成成交业务订单的概率值。
详细地,所述激活函数包括但不限于softmax激活函数、sigmoid激活函数。
例如,得到坐席与待接待客户A达成成交业务订单的概率值为90%,坐席与待接待客户B达成成交业务订单的概率值为75%,坐席与待接待客户C达成成交业务订单的概率值为55%,坐席与待接待客户D达成成交业务订单的概率值为37%。
S5、获取所述多个待接待客户的业务,根据所述概率值对所述坐席进行所述业务的分配。
本发明实施例中,可利用具有数据查询功能的计算机程序语句(如python语句,java语句等)对每一个待接待客户的业务进行查询,以获取所述多个待接待客户中每一个待接待客户对应的业务。
本发明其中一个实施例中,可通过将所述概率值与预设概率阈值进行比对,以根据比对结果将多个待接待客户的业务分配给坐席。
详细地,所述根据所述概率值对所述坐席进行所述业务的分配,包括:
将所述概率值与预设概率阈值进行比对;
选取所述概率值大于所述预设概率阈值的待接待客户的业务分配给所述坐席。
例如,存在待接待客户A、待接待客户B、待接待客户C和待接待客户D,其中,坐席与待接待客户A达成成交业务订单的概率值为90%,坐席与待接待客户B达成成交业务订单的概率值为75%,坐席与待接待客户C达成成交业务订单的概率值为55%,坐席与待接待客户D达成成交业务订单的概率值为37%;若预设概率阈值为60%时,则将待接待客户A和待接待客户B对应的业务分配给该坐席。
本发明另一实施例中,可根据所述概率值对所述多个待接待客户的业务进行排序,并根据该排序选取预设数量的业务分配给该坐席。
详细地,所述根据所述概率值对所述坐席进行所述业务的分配,包括:
按照所述概率值从大到小的顺序将所述多个待接待客户进行排序,得到客户列表;
按照从前向后的顺序依次从所述客户列表中选取预设数量的待接待客户,并将选取的待接待客户的业务分配给所述坐席。
具体地,所述预设数量可以为该坐席历史每日接待客户数量的最大值。
例如,存在待接待客户A、待接待客户B、待接待客户C和待接待客户D,其中,坐席与待接待客户A达成成交业务订单的概率值为90%,坐席与待接待客户B达成成交业务订单的概率值为75%,坐席与待接待客户C达成成交业务订单的概率值为55%,坐席与待接待客户D达成成交业务订单的概率值为37%,则按照所述概率值对待接待客户进行排序,得到客户列表:待接待客户A、待接待客户B、待接待客户C、待接待客户D;当预设数量为3时,则将待接待客户A、待接待客户B和待接待客户C对应的业务分配给该坐席。
本发明实施例利用达成订单的第一训练样本对构建的网络进行训练,并利用用户对训练结果的反馈信息与未达成订单的第二训练样本再次对网络进行训练,提高了网络的精确度,进而根据网络对坐席接待客户达成成交业务订单的成功率的预测,并按照该成功率对坐席进行业务分配,实现了为坐席匹配可达成订单的概率高的用户群,提高了坐席与用户的匹配度。因此本发明提出的基于深度神经网络的业务分配方法,可以解决对资源生成的标签的精确度较低的问题。
如图4所示,是本发明一实施例提供的基于深度神经网络的业务分配装置的功能模块图。
本发明所述基于深度神经网络的业务分配装置100可以安装于电子设备中。根据实现的功能,所述基于深度神经网络的业务分配装置100可以包括数据划分模块101、第一训练模块102、第二训练模块103、数据分析模块104及业务分配模块105。本发明所述模块也可以称之为单元,是指一种能够被电子设备处理器所执行,并且能够完成固定功能的一系列计算机程序段,其存储在电子设备的存储器中。
在本实施例中,关于各模块/单元的功能如下:
所述数据划分模块101,用于获取坐席的历史客户数据,按照是否有成交业务订单将所述历史客户数据划分为第一训练样本和第二训练样本;
所述第一训练模块102,用于利用所述第一训练样本对预先构建的原始深度神经网络进行第一训练,得到初始深度神经网络及第一训练结果;
所述第二训练模块103,用于获取用户对所述第一训练结果的反馈信息,利用所述反馈信息与所述第二训练样本对所述初始深度神经网络进行第二训练,得到标准深度神经网络;
所述数据分析模块104,用于利用所述标准深度神经网络对预先获取的多个待接待客户的数据进行分析,得到所述坐席和每个待接待客户达成成交业务订单的概率值;
所述业务分配模块105,用于获取所述多个待接待客户的业务,根据所述概率值对所述坐席进行所述业务的分配。
详细地,本发明实施例中所述基于深度神经网络的业务分配装置100中所述的各模块在使用时采用与上述图1至图3中所述的基于深度神经网络的业务分配方法一样的技术手段,并能够产生相同的技术效果,这里不再赘述。
如图5所示,是本发明一实施例提供的实现基于深度神经网络的业务分配方法的电子设备的结构示意图。
述电子设备可以包括处理器10、存储器11、通信总线12以及通信接口13,还可以包括存储在所述存储器11中并可在所述处理器10上运行的计算机程序,如前端监控程序。
其中,所述处理器10在一些实施例中可以由集成电路组成,例如可以由单个封装的集成电路所组成,也可以是由多个相同功能或不同功能封装的集成电路所组成,包括一个或者多个中央处理器(Central Processing unit,CPU)、微处理器、数字处理芯片、图形处理器及各种控制芯片的组合等。所述处理器10是所述电子设备的控制核心(ControlUnit),利用各种接口和线路连接整个电子设备的各个部件,通过运行或执行存储在所述存储器11内的程序或者模块(例如执行前端监控程序等),以及调用存储在所述存储器11内的数据,以执行电子设备的各种功能和处理数据。
所述存储器11至少包括一种类型的可读存储介质,所述可读存储介质包括闪存、移动硬盘、多媒体卡、卡型存储器(例如:SD或DX存储器等)、磁性存储器、磁盘、光盘等。所述存储器11在一些实施例中可以是电子设备的内部存储单元,例如该电子设备的移动硬盘。所述存储器11在另一些实施例中也可以是电子设备的外部存储设备,例如电子设备上配备的插接式移动硬盘、智能存储卡(Smart Media Card,SMC)、安全数字(Secure Digital,SD)卡、闪存卡(Flash Card)等。进一步地,所述存储器11还可以既包括电子设备的内部存储单元也包括外部存储设备。所述存储器11不仅可以用于存储安装于电子设备的应用软件及各类数据,例如前端监控程序的代码等,还可以用于暂时地存储已经输出或者将要输出的数据。
所述通信总线12可以是外设部件互连标准(peripheral componentinterconnect,简称PCI)总线或扩展工业标准结构(extended industry standardarchitecture,简称EISA)总线等。该总线可以分为地址总线、数据总线、控制总线等。所述总线被设置为实现所述存储器11以及至少一个处理器10等之间的连接通信。
所述通信接口13用于上述电子设备与其他设备之间的通信,包括网络接口和用户接口。可选地,所述网络接口可以包括有线接口和/或无线接口(如WI-FI接口、蓝牙接口等),通常用于在该电子设备与其他电子设备之间建立通信连接。所述用户接口可以是显示器(Display)、输入单元(比如键盘(Keyboard)),可选地,用户接口还可以是标准的有线接口、无线接口。可选地,在一些实施例中,显示器可以是LED显示器、液晶显示器、触控式液晶显示器以及OLED(Organic Light-Emitting Diode,有机发光二极管)触摸器等。其中,显示器也可以适当的称为显示屏或显示单元,用于显示在电子设备中处理的信息以及用于显示可视化的用户界面。
图5仅示出了具有部件的电子设备,本领域技术人员可以理解的是,图5示出的结构并不构成对所述电子设备1的限定,可以包括比图示更少或者更多的部件,或者组合某些部件,或者不同的部件布置。
例如,尽管未示出,所述电子设备还可以包括给各个部件供电的电源(比如电池),优选地,电源可以通过电源管理装置与所述至少一个处理器10逻辑相连,从而通过电源管理装置实现充电管理、放电管理、以及功耗管理等功能。电源还可以包括一个或一个以上的直流或交流电源、再充电装置、电源故障检测电路、电源转换器或者逆变器、电源状态指示器等任意组件。所述电子设备还可以包括多种传感器、蓝牙模块、Wi-Fi模块等,在此不再赘述。
应该了解,所述实施例仅为说明之用,在专利申请范围上并不受此结构的限制。
所述电子设备1中的所述存储器11存储的业务分配程序是多个指令的组合,在所述处理器10中运行时,可以实现:
获取坐席的历史客户数据,按照是否有成交业务订单将所述历史客户数据划分为第一训练样本和第二训练样本;
利用所述第一训练样本对预先构建的原始深度神经网络进行第一训练,得到初始深度神经网络及第一训练结果;
获取用户对所述第一训练结果的反馈信息,利用所述反馈信息与所述第二训练样本对所述初始深度神经网络进行第二训练,得到标准深度神经网络;
利用所述标准深度神经网络对预先获取的多个待接待客户的数据进行分析,得到所述坐席和每个待接待客户达成成交业务订单的概率值;
获取所述多个待接待客户的业务,根据所述概率值对所述坐席进行所述业务的分配。
具体地,所述处理器10对上述指令的具体实现方法可参考图1对应实施例中相关步骤的描述,在此不赘述。
进一步地,所述电子设备1集成的模块/单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读存储介质中。所述计算机可读存储介质可以是易失性的,也可以是非易失性的。例如,所述计算机可读介质可以包括:能够携带所述计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(ROM,Read-Only Memory)。
本发明还提供一种计算机可读存储介质,所述可读存储介质存储有计算机程序,所述计算机程序在被电子设备的处理器所执行时,可以实现:
获取坐席的历史客户数据,按照是否有成交业务订单将所述历史客户数据划分为第一训练样本和第二训练样本;
利用所述第一训练样本对预先构建的原始深度神经网络进行第一训练,得到初始深度神经网络及第一训练结果;
获取用户对所述第一训练结果的反馈信息,利用所述反馈信息与所述第二训练样本对所述初始深度神经网络进行第二训练,得到标准深度神经网络;
利用所述标准深度神经网络对预先获取的多个待接待客户的数据进行分析,得到所述坐席和每个待接待客户达成成交业务订单的概率值;
获取所述多个待接待客户的业务,根据所述概率值对所述坐席进行所述业务的分配。
在本发明所提供的几个实施例中,应该理解到,所揭露的设备,装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述模块的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式。
所述作为分离部件说明的模块可以是或者也可以不是物理上分开的,作为模块显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用硬件加软件功能模块的形式实现。
对于本领域技术人员而言,显然本发明不限于上述示范性实施例的细节,而且在不背离本发明的精神或基本特征的情况下,能够以其他的具体形式实现本发明。
因此,无论从哪一点来看,均应将实施例看作是示范性的,而且是非限制性的,本发明的范围由所附权利要求而不是上述说明限定,因此旨在将落在权利要求的等同要件的含义和范围内的所有变化涵括在本发明内。不应将权利要求中的任何附关联图标记视为限制所涉及的权利要求。
本发明所指区块链是分布式数据存储、点对点传输、共识机制、加密算法等计算机技术的新型应用模式。区块链(Blockchain),本质上是一个去中心化的数据库,是一串使用密码学方法相关联产生的数据块,每一个数据块中包含了一批次网络交易的信息,用于验证其信息的有效性(防伪)和生成下一个区块。区块链可以包括区块链底层平台、平台产品服务层以及应用服务层等。
此外,显然“包括”一词不排除其他单元或步骤,单数不排除复数。系统权利要求中陈述的多个单元或装置也可以由一个单元或装置通过软件或者硬件来实现。第二等词语用来表示名称,而并不表示任何特定的顺序。
最后应说明的是,以上实施例仅用以说明本发明的技术方案而非限制,尽管参照较佳实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,可以对本发明的技术方案进行修改或等同替换,而不脱离本发明技术方案的精神和范围。
Claims (10)
1.一种基于深度神经网络的业务分配方法,其特征在于,所述方法包括:
获取坐席的历史客户数据,按照是否有成交业务订单将所述历史客户数据划分为第一训练样本和第二训练样本;
利用所述第一训练样本对预先构建的原始深度神经网络进行第一训练,得到初始深度神经网络及第一训练结果;
获取用户对所述第一训练结果的反馈信息,利用所述反馈信息与所述第二训练样本对所述初始深度神经网络进行第二训练,得到标准深度神经网络;
利用所述标准深度神经网络对预先获取的多个待接待客户的数据进行分析,得到所述坐席和每个待接待客户达成成交业务订单的概率值;
获取所述多个待接待客户的业务,根据所述概率值对所述坐席进行所述业务的分配。
2.如权利要求1所述的基于深度神经网络的业务分配方法,其特征在于,所述利用所述第一训练样本对预先构建的原始深度神经网络进行第一训练之前,所述方法还包括:
获取深度神经网络框架;
在所述深度神经网络框架中构建特征输入层;
在所述特征输入层之后建立多层全连接层;
在所述多层全连接层之间构建批标准化层以及丢弃层,得到原始深度神经网络。
3.如权利要求1所述的基于深度神经网络的业务分配方法,其特征在于,所述按照是否有成交业务订单将所述历史客户数据划分为第一训练样本和第二训练样本,包括:
提取所述历史客户数据中每个数据的状态字段;
判断所述状态字段与预设的标准字段是否相同,若所述状态字段与所述标准字段相同,则确定所述历史客户数据中有成交业务订单,将所述状态字段对应的数据分类为第一训练样本;
若所述状态字段与所述标准字段不同,则确定所述历史客户数据中没有成交业务订单,将所述状态字段对应的数据分类为第二训练样本。
4.如权利要求1所述的基于深度神经网络的业务分配方法,其特征在于,所述利用所述第一训练样本对预先构建的原始深度神经网络进行第一训练,得到初始深度神经网络及第一训练结果,包括:
获取所述第一训练样本的第一数据特征;
利用所述第一数据特征对所述原始深度神经网络进行第一训练;
利用预设的第一损失函数计算所述第一训练产生的训练结果的第一损失值;
根据所述第一损失值对所述原始深度神经网络的参数进行调整,并返回第一训练的步骤,直至所述第一训练的次数达到预设第一次数,输出初始深度神经网络,以及第一训练生成的第一训练结果。
5.如权利要求4所述的基于深度神经网络的业务分配方法,其特征在于,所述根据所述第一损失值对所述原始深度神经网络的参数进行调整,包括:
根据所述所述第一损失值,利用预设优化算法计算所述原始深度神经网络中参数的更新梯度;
根据所述更新梯度对所述原始深度神经网络的参数进行更新。
6.如权利要求1至5中任一项所述的基于深度神经网络的业务分配方法,其特征在于,所述根据所述概率值对所述坐席进行所述业务的分配,包括:
将所述概率值与预设概率阈值进行比对;
选取所述概率值大于所述预设概率阈值的待接待客户的业务分配给所述坐席。
7.如权利要求1至5中任一项所述的基于深度神经网络的业务分配方法,其特征在于,所述根据所述概率值对所述坐席进行所述业务的分配,包括:
按照所述概率值从大到小的顺序将所述多个待接待客户进行排序,得到客户列表;
按照从前向后的顺序依次从所述客户列表中选取预设数量的待接待客户,并将选取的待接待客户的业务分配给所述坐席。
8.一种基于深度神经网络的业务分配装置,其特征在于,所述装置包括:
数据划分模块,用于获取坐席的历史客户数据,按照是否有成交业务订单将所述历史客户数据划分为第一训练样本和第二训练样本;
第一训练模块,用于利用所述第一训练样本对预先构建的原始深度神经网络进行第一训练,得到初始深度神经网络及第一训练结果;
第二训练模块,用于获取用户对所述第一训练结果的反馈信息,利用所述反馈信息与所述第二训练样本对所述初始深度神经网络进行第二训练,得到标准深度神经网络;
数据分析模块,用于利用所述标准深度神经网络对预先获取的多个待接待客户的数据进行分析,得到所述坐席和每个待接待客户达成成交业务订单的概率值;
业务分配模块,用于获取所述多个待接待客户的业务,根据所述概率值对所述坐席进行所述业务的分配。
9.一种电子设备,其特征在于,所述电子设备包括:
至少一个处理器;以及,
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行如权利要求1至7中任意一项所述的基于深度神经网络的业务分配方法。
10.一种计算机可读存储介质,存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至7中任意一项所述的基于深度神经网络的业务分配方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110696468.9A CN113344415A (zh) | 2021-06-23 | 2021-06-23 | 基于深度神经网络的业务分配方法、装置、设备及介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110696468.9A CN113344415A (zh) | 2021-06-23 | 2021-06-23 | 基于深度神经网络的业务分配方法、装置、设备及介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113344415A true CN113344415A (zh) | 2021-09-03 |
Family
ID=77477914
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110696468.9A Pending CN113344415A (zh) | 2021-06-23 | 2021-06-23 | 基于深度神经网络的业务分配方法、装置、设备及介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113344415A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114401310A (zh) * | 2021-12-31 | 2022-04-26 | 苏州市瑞川尔自动化设备有限公司 | 可视化云业务数据优化方法及服务器 |
CN114399178A (zh) * | 2021-12-30 | 2022-04-26 | 鼎富新动力(北京)智能科技有限公司 | 一种外呼业务案件分配方法及装置 |
Citations (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104966097A (zh) * | 2015-06-12 | 2015-10-07 | 成都数联铭品科技有限公司 | 一种基于深度学习的复杂文字识别方法 |
CN107346448A (zh) * | 2016-05-06 | 2017-11-14 | 富士通株式会社 | 基于深度神经网络的识别装置、训练装置及方法 |
CN108108814A (zh) * | 2018-01-17 | 2018-06-01 | 北京中星微人工智能芯片技术有限公司 | 一种深度神经网络的训练方法 |
CN109598404A (zh) * | 2018-10-23 | 2019-04-09 | 平安科技(深圳)有限公司 | 自动对下发销售任务单进行数据处理的方法和装置 |
CN109871885A (zh) * | 2019-01-28 | 2019-06-11 | 南京林业大学 | 一种基于深度学习和植物分类学的植物识别方法 |
CN109977394A (zh) * | 2018-12-10 | 2019-07-05 | 平安科技(深圳)有限公司 | 文本模型训练方法、文本分析方法、装置、设备及介质 |
CN110163655A (zh) * | 2019-04-15 | 2019-08-23 | 中国平安人寿保险股份有限公司 | 基于梯度提升树的坐席分配方法、装置、设备及存储介质 |
CN110288191A (zh) * | 2019-05-22 | 2019-09-27 | 中国平安财产保险股份有限公司 | 数据匹配方法、装置、计算机设备及存储介质 |
WO2020020088A1 (zh) * | 2018-07-23 | 2020-01-30 | 第四范式(北京)技术有限公司 | 神经网络模型的训练方法和系统以及预测方法和系统 |
CN110766271A (zh) * | 2019-09-10 | 2020-02-07 | 中国平安财产保险股份有限公司 | 基于深度学习的客服坐席配置方法、装置及计算机设备 |
CN111260448A (zh) * | 2020-02-13 | 2020-06-09 | 平安科技(深圳)有限公司 | 基于人工智能的药品推荐方法及相关设备 |
CN111563152A (zh) * | 2020-06-19 | 2020-08-21 | 平安科技(深圳)有限公司 | 智能问答语料分析方法、装置、电子设备及可读存储介质 |
CN111582442A (zh) * | 2020-04-17 | 2020-08-25 | 中国科学院微电子研究所 | 一种基于优化深度神经网络模型的图像识别方法 |
CN111640436A (zh) * | 2020-05-15 | 2020-09-08 | 北京青牛技术股份有限公司 | 向坐席提供通话对象的动态客户画像的方法 |
CN111815124A (zh) * | 2020-06-18 | 2020-10-23 | 上海中通吉网络技术有限公司 | 快递行业座席智能分配方法、装置和设备 |
CN112003989A (zh) * | 2020-08-26 | 2020-11-27 | 中国银行股份有限公司 | 坐席员的匹配方法、装置、电子设备及计算机存储介质 |
CN112036648A (zh) * | 2020-09-02 | 2020-12-04 | 中国平安财产保险股份有限公司 | 基于模型的任务分配方法、装置、计算机设备和存储介质 |
CN112163887A (zh) * | 2020-09-30 | 2021-01-01 | 深圳前海微众银行股份有限公司 | 电销系统和电销名单管理方法、装置、设备、存储介质 |
CN112668716A (zh) * | 2020-12-29 | 2021-04-16 | 奥比中光科技集团股份有限公司 | 一种神经网络模型的训练方法及设备 |
-
2021
- 2021-06-23 CN CN202110696468.9A patent/CN113344415A/zh active Pending
Patent Citations (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104966097A (zh) * | 2015-06-12 | 2015-10-07 | 成都数联铭品科技有限公司 | 一种基于深度学习的复杂文字识别方法 |
CN107346448A (zh) * | 2016-05-06 | 2017-11-14 | 富士通株式会社 | 基于深度神经网络的识别装置、训练装置及方法 |
CN108108814A (zh) * | 2018-01-17 | 2018-06-01 | 北京中星微人工智能芯片技术有限公司 | 一种深度神经网络的训练方法 |
WO2020020088A1 (zh) * | 2018-07-23 | 2020-01-30 | 第四范式(北京)技术有限公司 | 神经网络模型的训练方法和系统以及预测方法和系统 |
CN109598404A (zh) * | 2018-10-23 | 2019-04-09 | 平安科技(深圳)有限公司 | 自动对下发销售任务单进行数据处理的方法和装置 |
CN109977394A (zh) * | 2018-12-10 | 2019-07-05 | 平安科技(深圳)有限公司 | 文本模型训练方法、文本分析方法、装置、设备及介质 |
CN109871885A (zh) * | 2019-01-28 | 2019-06-11 | 南京林业大学 | 一种基于深度学习和植物分类学的植物识别方法 |
CN110163655A (zh) * | 2019-04-15 | 2019-08-23 | 中国平安人寿保险股份有限公司 | 基于梯度提升树的坐席分配方法、装置、设备及存储介质 |
CN110288191A (zh) * | 2019-05-22 | 2019-09-27 | 中国平安财产保险股份有限公司 | 数据匹配方法、装置、计算机设备及存储介质 |
CN110766271A (zh) * | 2019-09-10 | 2020-02-07 | 中国平安财产保险股份有限公司 | 基于深度学习的客服坐席配置方法、装置及计算机设备 |
CN111260448A (zh) * | 2020-02-13 | 2020-06-09 | 平安科技(深圳)有限公司 | 基于人工智能的药品推荐方法及相关设备 |
CN111582442A (zh) * | 2020-04-17 | 2020-08-25 | 中国科学院微电子研究所 | 一种基于优化深度神经网络模型的图像识别方法 |
CN111640436A (zh) * | 2020-05-15 | 2020-09-08 | 北京青牛技术股份有限公司 | 向坐席提供通话对象的动态客户画像的方法 |
CN111815124A (zh) * | 2020-06-18 | 2020-10-23 | 上海中通吉网络技术有限公司 | 快递行业座席智能分配方法、装置和设备 |
CN111563152A (zh) * | 2020-06-19 | 2020-08-21 | 平安科技(深圳)有限公司 | 智能问答语料分析方法、装置、电子设备及可读存储介质 |
CN112003989A (zh) * | 2020-08-26 | 2020-11-27 | 中国银行股份有限公司 | 坐席员的匹配方法、装置、电子设备及计算机存储介质 |
CN112036648A (zh) * | 2020-09-02 | 2020-12-04 | 中国平安财产保险股份有限公司 | 基于模型的任务分配方法、装置、计算机设备和存储介质 |
CN112163887A (zh) * | 2020-09-30 | 2021-01-01 | 深圳前海微众银行股份有限公司 | 电销系统和电销名单管理方法、装置、设备、存储介质 |
CN112668716A (zh) * | 2020-12-29 | 2021-04-16 | 奥比中光科技集团股份有限公司 | 一种神经网络模型的训练方法及设备 |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114399178A (zh) * | 2021-12-30 | 2022-04-26 | 鼎富新动力(北京)智能科技有限公司 | 一种外呼业务案件分配方法及装置 |
CN114401310A (zh) * | 2021-12-31 | 2022-04-26 | 苏州市瑞川尔自动化设备有限公司 | 可视化云业务数据优化方法及服务器 |
CN114401310B (zh) * | 2021-12-31 | 2024-05-31 | 苏州市瑞川尔自动化设备有限公司 | 可视化云业务数据优化方法及服务器 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112541745B (zh) | 用户行为数据分析方法、装置、电子设备及可读存储介质 | |
CN114663198A (zh) | 基于用户画像的产品推荐方法、装置、设备及存储介质 | |
CN113626606B (zh) | 信息分类方法、装置、电子设备及可读存储介质 | |
CN111652280A (zh) | 基于行为的目标物数据分析方法、装置及存储介质 | |
CN113516417A (zh) | 基于智能建模的业务评估方法、装置、电子设备及介质 | |
CN114781832A (zh) | 课程推荐方法、装置、电子设备及存储介质 | |
CN114722281B (zh) | 基于用户画像及用户选课行为的培训课程配置方法、装置 | |
CN115081025A (zh) | 基于数字中台的敏感数据管理方法、装置及电子设备 | |
CN113656690B (zh) | 产品推荐方法、装置、电子设备及可读存储介质 | |
CN113051480A (zh) | 资源推送方法、装置、电子设备及存储介质 | |
CN114612194A (zh) | 产品推荐方法、装置、电子设备及存储介质 | |
CN113344415A (zh) | 基于深度神经网络的业务分配方法、装置、设备及介质 | |
CN114202367A (zh) | 基于用户画像的权益分配方法、装置、设备及介质 | |
CN111652282B (zh) | 基于大数据的用户偏好分析方法、装置及电子设备 | |
CN112269875A (zh) | 文本分类方法、装置、电子设备及存储介质 | |
CN113627160B (zh) | 文本纠错方法、装置、电子设备及存储介质 | |
CN116403693A (zh) | 问诊单派单方法、装置、设备及存储介质 | |
CN113705686B (zh) | 图像分类方法、装置、电子设备及可读存储介质 | |
CN113706019B (zh) | 基于多维数据的业务能力分析方法、装置、设备及介质 | |
CN113657499B (zh) | 基于特征选择的权益分配方法、装置、电子设备及介质 | |
CN113515591B (zh) | 文本不良信息识别方法、装置、电子设备及存储介质 | |
CN115082736A (zh) | 垃圾识别分类方法、装置、电子设备及存储介质 | |
CN115049383A (zh) | 组合支付推荐方法、装置、电子设备及存储介质 | |
CN113657546A (zh) | 信息分类方法、装置、电子设备及可读存储介质 | |
CN113704407A (zh) | 基于类别分析的投诉量分析方法、装置、设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |