CN112241493A - 商品检索方法、装置、计算机设备和存储介质 - Google Patents
商品检索方法、装置、计算机设备和存储介质 Download PDFInfo
- Publication number
- CN112241493A CN112241493A CN202011169418.7A CN202011169418A CN112241493A CN 112241493 A CN112241493 A CN 112241493A CN 202011169418 A CN202011169418 A CN 202011169418A CN 112241493 A CN112241493 A CN 112241493A
- Authority
- CN
- China
- Prior art keywords
- training
- retrieval
- text
- commodity
- probability set
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 56
- 238000013528 artificial neural network Methods 0.000 claims abstract description 74
- 238000012549 training Methods 0.000 claims description 130
- 238000007477 logistic regression Methods 0.000 claims description 19
- 238000003062 neural network model Methods 0.000 claims description 18
- 238000012545 processing Methods 0.000 claims description 15
- 238000004590 computer program Methods 0.000 claims description 14
- 230000000694 effects Effects 0.000 abstract description 4
- 230000014509 gene expression Effects 0.000 description 20
- 230000011218 segmentation Effects 0.000 description 17
- 238000004891 communication Methods 0.000 description 9
- 238000010586 diagram Methods 0.000 description 9
- 230000008569 process Effects 0.000 description 9
- 238000003058 natural language processing Methods 0.000 description 7
- 238000013527 convolutional neural network Methods 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 5
- 238000011176 pooling Methods 0.000 description 5
- 238000013461 design Methods 0.000 description 3
- 238000011161 development Methods 0.000 description 3
- 230000018109 developmental process Effects 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 238000013145 classification model Methods 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 238000013136 deep learning model Methods 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000005065 mining Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000005096 rolling process Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000012706 support-vector machine Methods 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/95—Retrieval from the web
- G06F16/953—Querying, e.g. by the use of web search engines
- G06F16/9535—Search customisation based on user profiles and personalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/205—Parsing
- G06F40/216—Parsing using statistical methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/289—Phrasal analysis, e.g. finite state techniques or chunking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/047—Probabilistic or stochastic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Computation (AREA)
- Biomedical Technology (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Probability & Statistics with Applications (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Computational Biology (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本申请涉及一种商品检索方法,其中,该商品检索方法包括:获取检索文本;将所述检索文本输入第一神经网络,得到第一概率集合;所述第一概率集合包括识别结果归属于一级商品类目中每个商品类目的概率,所述识别结果与所述检索文本相对应;将所述检索文本以及所述第一概率集合输入第二神经网络,得到第二概率集合;所述第二概率集合包括识别结果归属于二级商品类目中每个商品类目的概率;所述识别结果与所述检索文本相对应;所述二级商品类目的商品类目归属于所述一级商品类目的商品类目;基于所述第二概率集合,获取识别结果,解决了输入搜索词进行商品检索的准确率较低的问题,实现了根据搜索词对商品进行准确检索的技术效果。
Description
技术领域
本申请涉及自然语言处理领域,特别是涉及商品检索方法、装置、计算机设备和存储介质。
背景技术
在搜索场景中,为了提高用户搜索词(query)与商品的相关性,需要分析用户搜索词的意图,提前识别出搜索词相关的类目,这一步骤称为类目预测。类目预测的实质,其实就是自然语言处理(natural language processing,简称NLP)领域中的短文本分类问题,对于输入的短文本为搜索词,输出的识别结果是商品的叶子类目(leaf_category)。
短文本分类的发展经历了基于规则、基于浅层模型和基于深层学习三个主要的阶段。2010年之前,基于浅层学习的文本分类模型占主导地位。浅层学习意味着基于词表统计的模型,例如朴素贝叶斯、K近邻和支持向量机。与最开始的基于规则的方法相比,该方法在准确性和鲁棒性维度具有飞跃的进步。但是,这些方法仍然需要进行特征抽取和功能设计,不是一个端到端的处理过程。此外,它们通常会忽略文字意义层面的信息,这使学习单词的语义信息变得困难。自2010年以来,文本分类已逐渐从浅层学习模型变为深层学习模型。与基于浅层学习的方法相比,深度学习方法避免了人工设计规则和功能,并自动为文本挖掘提供了语义上有意义的表示形式。因此,大多数文本分类研究工作都基于深层学习模型。
目前常用的短文本分类模型为Convolutional Neural Networks for SentenceClassification(文本分类的卷积神经网络,简称CNN)模型,其主要原理是基于预先训练好的卷积神经网络模型,将搜索词输入卷积神经网络,获得搜索词的embedding(词嵌入对将文本转换成向量)表达,经过卷积神经网络抽取有用文本信息后得到句子的向量表达,最后经过softmax函数后预测出当前搜索词的最相关类目。然而,在当电商领域的实际应用中,由于类目预测任务中的商品类目类别较多,存在每类的训练样本和类别分布不均衡的问题;此外,由于电商商品词汇类目的分类是分别独立的,即各商品类目之间是没有相互联系的,因此神经网络模型在训练时未考虑到商品类别中的层次结构关系,因此直接输入搜索词对商品进行检索的预测准确率较低。
目前针对相关技术中输入搜索词进行商品检索的准确率较低的问题,尚未提出有效的解决方案。
发明内容
本申请实施例提供了一种商品检索方法、装置、计算机设备和存储介质,以至少解决相关技术中输入搜索词进行商品检索的准确率较低的问题。
第一方面,本申请实施例提供了一种商品检索方法,包括:
获取检索文本;
将所述检索文本输入第一神经网络,得到第一概率集合;所述第一概率集合包括识别结果归属于一级商品类目中每个商品类目的概率,所述识别结果与所述检索文本相对应;
将所述检索文本以及所述第一概率集合输入第二神经网络,得到第二概率集合;所述第二概率集合包括识别结果归属于二级商品类目中每个商品类目的概率;所述识别结果与所述检索文本相对应;所述二级商品类目的商品类目归属于所述一级商品类目的商品类目;
基于所述第二概率集合,获取识别结果。
在其中一个实施例中,所述将所述检索文本输入第一神经网络,得到第一概率集合之前包括:根据电商词库建立多级商品类目模型,所述多级商品类目模型至少包括所述一级商品类目和所述二级商品类目。
在其中一个实施例中,所述将所述检索文本输入第一神经网络之前包括:获取训练检索文本以及所述训练检索文本对应的第一训练概率集合,所述第一训练概率集合为训练识别结果归属于所述一级商品类目每个商品类目的概率,所述训练识别结果与所述训练检索文本相对应;基于所述训练检索文本以及所述第一训练概率集合,建立训练集;基于所述训练集训练第一神经网络模型,得到经训练的第一神经网络。
在其中一个实施例中,所述将所述检索文本输入第一神经网络,得到第一概率集合包括:将所述检索文本输入所述第一神经网络;根据所述电商词库将所述检索文本转换为程序语言,得到第一检索向量;将所述第一检索向量输入第一逻辑回归模型,得到所述第一概率集合,所述第一逻辑回归模型基于所述一级商品类目建立。
在其中一个实施例中,所述将所述检索文本以及所述第一概率集合输入第二神经网络之前包括:获取所述训练检索文本、第一训练概率集合以及对应的第二训练概率集合;所述第二训练概率集合为训练识别结果归属于所述二级商品类目每个商品类目的概率,所述训练识别结果与所述训练检索文本相对应;基于所述训练检索文本、所述第一训练概率集合以及所述第二训练概率集合,建立训练集;基于所述训练集训练第二神经网络模型,得到经训练的第二神经网络。
在其中一个实施例中,所述将所述检索文本以及所述第一概率集合输入第二神经网络,得到第二概率集合包括:将所述检索文本输入所述第二神经网络;根据所述电商词库将所述检索文本转换为程序语言,得到第一检索向量;根据所述第一检索向量以及所述第一概率集合生成第二检索向量;将所述第二检索向量输入第二逻辑回归模型,得到所述第二概率集合,所述第二逻辑回归模型基于所述二级商品类目建立。
在其中一个实施例中,所述基于所述第二概率集合,获取识别结果包括:基于所述第二概率集合,获取所述二级商品类目中概率最大的商品类目作为搜索结果并输出。
第二方面,本申请实施例提供了一种商品检索装置,包括:
采集模块:用于获取检索文本;
第一处理模块:用于将所述检索文本输入第一神经网络,得到第一概率集合;所述第一概率集合包括识别结果归属于一级商品类目中每个商品类目的概率,所述识别结果与所述检索文本相对应;
第二处理模块:用于将所述检索文本以及所述第一概率集合输入第二神经网络,得到第二概率集合;所述第二概率集合包括识别结果归属于二级商品类目中每个商品类目的概率;所述识别结果与所述检索文本相对应;所述二级商品类目的商品类目归属于所述一级商品类目的商品类目;
输出模块:用于基于所述第二概率集合,获取识别结果。
第三方面,本申请实施例提供了一种计算机设备,包括存储器、处理器以及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现如上述第一方面所述的商品检索方法。
第四方面,本申请实施例提供了一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现如上述第一方面所述的商品检索方法。
相比于相关技术,本申请实施例提供的商品检索方法,通过获取检索文本;将所述检索文本输入第一神经网络,得到第一概率集合;所述第一概率集合包括识别结果归属于一级商品类目中每个商品类目的概率,所述识别结果与所述检索文本相对应;将所述检索文本以及所述第一概率集合输入第二神经网络,得到第二概率集合;所述第二概率集合包括识别结果归属于二级商品类目中每个商品类目的概率;所述识别结果与所述检索文本相对应;所述二级商品类目的商品类目归属于所述一级商品类目的商品类目;基于所述第二概率集合,获取识别结果,通过建立级联神经网络,根据上一级神经网络的识别结果,对检索文本在本级神经网络中的识别结果进行修正,解决了输入搜索词进行商品检索的准确率较低的问题,实现了根据搜索词对商品进行准确检索的技术效果。
本申请的一个或多个实施例的细节在以下附图和描述中提出,以使本申请的其他特征、目的和优点更加简明易懂。
附图说明
此处所说明的附图用来提供对本申请的进一步理解,构成本申请的一部分,本申请的示意性实施例及其说明用于解释本申请,并不构成对本申请的不当限定。在附图中:
图1是根据本申请实施例的商品检索方法的流程图;
图2是根据本申请实施例的商品检索方法的电商领域类目树;
图3是根据本申请优选实施例的商品检索方法的多级神经网络模型示意图;
图4是根据本申请实施例的商品检索装置的结构框图;
图5为根据本申请实施例的计算机设备的硬件结构示意图。
具体实施方式
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行描述和说明。应当理解,此处所描述的具体实施例仅仅用以解释本申请,并不用于限定本申请。基于本申请提供的实施例,本领域普通技术人员在没有作出创造性劳动的前提下所获得的所有其他实施例,都属于本申请保护的范围。
显而易见地,下面描述中的附图仅仅是本申请的一些示例或实施例,对于本领域的普通技术人员而言,在不付出创造性劳动的前提下,还可以根据这些附图将本申请应用于其他类似情景。此外,还可以理解的是,虽然这种开发过程中所作出的努力可能是复杂并且冗长的,然而对于与本申请公开的内容相关的本领域的普通技术人员而言,在本申请揭露的技术内容的基础上进行的一些设计,制造或者生产等变更只是常规的技术手段,不应当理解为本申请公开的内容不充分。
在本申请中提及“实施例”意味着,结合实施例描述的特定特征、结构或特性可以包含在本申请的至少一个实施例中。在说明书中的各个位置出现该短语并不一定均是指相同的实施例,也不是与其它实施例互斥的独立的或备选的实施例。本领域普通技术人员显式地和隐式地理解的是,本申请所描述的实施例在不冲突的情况下,可以与其它实施例相结合。
除非另作定义,本申请所涉及的技术术语或者科学术语应当为本申请所属技术领域内具有一般技能的人士所理解的通常意义。本申请所涉及的“一”、“一个”、“一种”、“该”等类似词语并不表示数量限制,可表示单数或复数。本申请所涉及的术语“包括”、“包含”、“具有”以及它们任何变形,意图在于覆盖不排他的包含;例如包含了一系列步骤或模块(单元)的过程、方法、系统、产品或设备没有限定于已列出的步骤或单元,而是可以还包括没有列出的步骤或单元,或可以还包括对于这些过程、方法、产品或设备固有的其它步骤或单元。本申请所涉及的“连接”、“相连”、“耦接”等类似的词语并非限定于物理的或者机械的连接,而是可以包括电气的连接,不管是直接的还是间接的。本申请所涉及的“多个”是指两个或两个以上。“和/或”描述关联对象的关联关系,表示可以存在三种关系,例如,“A和/或B”可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。字符“/”一般表示前后关联对象是一种“或”的关系。本申请所涉及的术语“第一”、“第二”、“第三”等仅仅是区别类似的对象,不代表针对对象的特定排序。
自然语言处理,简称NLP,是计算机科学领域与人工智能领域的一个重要方向。它研究能实现人与计算机之间用自然语言进行有效通信的各种理论和方法。其中,短文本分类是自然语言处理的一个研究方向。随着互联网电商产业的发展,在实际的商业活动中,通过用户搜索词对商品进行检索,本质上是自然语言处理中的短文本分类问题。然而,由于电商词库庞大的商品类目,直接根据搜索词进行检索可能存在搜索不准确的问题,基于此,本实施例提供了一种商品检索方法。
本实施例还提供了一种商品检索方法。图1是根据本申请实施例的商品检索方法的流程图,如图1所示,该流程包括如下步骤:
步骤S101,获取检索文本。
具体的,用户在电商网站或电商软件的搜索界面输入搜索词,例如,用户在搜索界面输入的搜索词为,秋天白色卫衣,则系统获取的检索文本为秋天白色卫衣。
步骤S102,将所述检索文本输入第一神经网络,得到第一概率集合。
所述第一概率集合包括识别结果归属于一级商品类目中每个商品类目的概率,所述识别结果与所述检索文本相对应;具体的,一级商品类目包括多个商品类目,例如服装服饰、家用电器等。将检索文本输入第一神经网络,得到识别结果属于第一商品类目中的每个商品类目的概率的集合。例如,输入的检索文本,即搜索词为“秋天白色卫衣”,一级商品类目包括服装服饰和家用电器,将“秋天白色卫衣”输入第一神经网络,得到的第一概率集合为[0.9,0.1],第一概率集合即是搜索结果的向量表达,其含义为输入检索文本“秋天白色卫衣”至第一神经网络,检索到的识别结果为服装服饰的概率为0.9,识别结果为家用电器的概率为0.1。此处的例子仅用于说明第一概率集合的含义,实际上一级商品类目包括的商品类目可以为几十、几百或几千个,本发明对此不作限定。
在其中一个实施例中,所述将所述检索文本输入第一神经网络,得到第一概率集合之前包括:根据电商词库建立多级商品类目模型,所述多级商品类目模型至少包括所述一级商品类目和所述二级商品类目。具体的,在电商应用场景下,可以基于专有电商词库对商品类目进行分类,建立多级商品类目模型。图2是根据本申请实施例的商品检索方法的电商领域类目树,如图2所示,该电商领域类目树即多级商品类目模型,包括三个商品类目集合,即一级类目、二级类目以及叶子类目。一级类目包括:服装服饰和家用电器等;二级类目包括:女上装、女下装、大家电和生活电器等;叶子类目包括:女长袖T恤、女士皮草、女牛仔裤、女休闲裤、空调、平板电视、除湿器等。该电商领域类目树的建立参考了商品类目间的相互联系,根据类目间的从属关系将全部电商商品类目建立三个等级的商品类目集合。例如,叶子类目中的女长袖T恤这一类目从属于二级类目中的女上装类目;二级类目中的女上装类目从属于一级类目中的服装服饰类目。此外,一级类目中的类目数量少于二级类目中的类目数量,二级类目中的类目数量少于叶子类目中的类目数量。本实施例中的电商领域类目树所包括的类目集合可以为三级,也可以为更多层级,但至少包括两级,即第一类目集合和第二类目集合。
在其中一个实施例中,所述将所述检索文本输入第一神经网络之前包括:获取训练检索文本以及所述训练检索文本对应的第一训练概率集合,所述第一训练概率集合为训练识别结果归属于所述一级商品类目每个商品类目的概率,所述训练识别结果与所述训练检索文本相对应;基于所述训练检索文本以及所述第一训练概率集合,建立训练集;基于所述训练集训练第一神经网络模型,得到经训练的第一神经网络。具体的,将搜索词输入第一神经网络之前,应当对第一神经网络进行训练。例如,取训练检索文本包括“秋天白色卫衣”、“秋天蓝色卫衣”、“冬天白色卫衣”等,一级商品类目包括“服装服饰,家用电器”,训练检索文本对应的第一训练概率集合为[0.9,0.1],该第一训练概率集合表示输入检索文本得到的识别结果是服装服饰的概率为0.9,输入检索文本得到的识别结果是家用电器的概率为0.1。根据该训练检索文本和基于一级商品类目的第一训练概率集合建立训练集,该训练集的数据为先验知识,即所述训练检索文本和第一训练概率集合都是确定的数据,其对应关系也是预先设置好的确定的对应关系。根据该训练集预先对第一神经网络模型进行训练,得到第一神经网络。
在其中一个实施例中,所述将所述检索文本输入第一神经网络,得到第一概率集合包括:将所述检索文本输入所述第一神经网络;根据所述电商词库将所述检索文本转换为程序语言,得到第一检索向量;将所述第一检索向量输入第一逻辑回归模型,得到所述第一概率集合,所述第一逻辑回归模型基于所述一级商品类目建立。
具体的,将检索文本输入第一神经网络,首先根据电商专有词库对检索文本进行分词。分词是短文本分类过程中的一个步骤,本发明采用的是基于字符串匹配的分词方法,即将电商专有词库作为词典,将检索文本拆分成多个部分,将每一部分与词典对应,如果该词语在词典中,则分词成功,否则继续拆分匹配直到成功,在分词的过程中,可根据需要设定切分规则和匹配顺序。本发明并不对分词方法进行限定。例如,检索文本为[秋天白色卫衣],电商词库中包括[秋天]、[白色]和[卫衣],则将检索文本拆分成[秋天]、[白色]、[卫衣]。根据检索文本的分词结果[秋天]、[白色]和[卫衣]进行随机向量初始化,生成检索文本的embedding表达,例如[秋天]的embedding表达为[0.1,0.2,1.9];[白色]的embedding表达为[0.7,0.4,0.9];[卫衣]的embedding表达为[0.45,0.32,1.59];即,检索文本[秋天,白色,卫衣]的embedding表达为[[0.1,0.2,1.9],[0.7,0.4,0.9],[0.45,0.32,1.59]]。将此embedding依次进入卷积层、最大池化层和全连接层,从而提取检索文本中的语义特征,得到检索文本的句向量,即第一检索向量。生成第一检索向量目的是将用户输入检索文本转换为机器可识别的自然语言,根据检索文本的embedding表达生成句向量的过程是为了使句向量的语义更贴近用户输入的检索文本的语义。句向量的维度数与每个词的维度数相同,例如本实施例中的检索文本[秋天,白色,卫衣]的embedding表达为[[0.1,0.2,1.9],[0.7,0.4,0.9],[0.45,0.32,1.59]],经过卷积层、最大池化层和全连接层的处理,得到第一检索向量[0.42,0.33,1.55]将第一检索向量输入softmax模型,得到第一概率集合,即检索文本通过第一神经网络,得到识别结果为一级商品类目中每个类目的可能性的集合。Softmax逻辑回归模型是logistic回归模型在多分类问题上的推广,可以将语义向量中的概率映射到第一类目集合中的每个类目上并进行归一化。此外,在本实施例中对于第一检索向量采用三维向量表示,在实际应用中,为了更准确的对检索文本进行表达,也可以生成包括更多维度的句向量作为第一检索向量,优选的为128维向量,本申请对此不作限定。
步骤S103,将所述检索文本以及所述第一概率集合输入第二神经网络,得到第二概率集合。
所述第二概率集合包括识别结果归属于二级商品类目中每个商品类目的概率;所述识别结果与所述检索文本相对应;所述二级商品类目的商品类目归属于所述一级商品类目的商品类目;具体的,二级商品类目中的商品类目数量大于第一商品类目且存在从属关系。将检索文本以及第一神经网络模型输出的目标向量输入第二神经网络,得到识别结果属于第二商品类目中的每个商品类目的概率的集合,例如“秋天白色卫衣”,一级商品类目包括“服装服饰、家用电器”,二级商品类目包括“上衣、裤子、冰箱、台灯”,则输入检索文本“秋天白色卫衣”和第一概率集合[0.9,0.1],输出第二概率集合[0.7,0.1,0.1,0.1],第一概率集合即是第二神经网络中识别结果的向量表达,表示识别结果为上衣的概率是0.7,识别结果为裤子的概率是0.1,识别结果为冰箱的概率是0.1,识别结果为台灯的概率是0.1。
在其中一个实施例中,所述将所述检索文本以及所述第一概率集合输入第二神经网络之前包括:获取所述训练检索文本、第一训练概率集合以及对应的第二训练概率集合;所述第二训练概率集合为训练识别结果归属于所述二级商品类目每个商品类目的概率,所述训练识别结果与所述训练检索文本以及第一训练概率集合相对应;基于所述训练检索文本、所述第一训练概率集合以及所述第二训练概率集合,建立训练集;基于所述训练集训练第二神经网络模型,得到经训练的第二神经网络。将搜索词输入第一神经网络之前,应当对第二神经网络进行训练。例如,取训练检索文本包括[秋天白色卫衣]、[秋天蓝色卫衣]、[冬天白色卫衣]等,第一训练概率集合[0.9,0.1]、[0.8,0.2]等。二级商品类目包括[上衣,裤子,冰箱,台灯],训练检索文本对应的第二训练概率集合[0.7,0.1,0.1,0.1],该第二训练概率集合表示输入检索文本得到的识别结果为上衣的概率是0.7,识别结果为裤子的概率是0.1,识别结果为冰箱的概率是0.1,识别结果为台灯的概率是0.1。根据该训练检索文本、第一训练概率集合和基于二级商品类目的第二训练概率集合建立训练集,根据该训练集预先对第二神经网络模型进行训练,得到第二神经网络。
在其中一个实施例中,所述将所述检索文本以及所述第一概率集合输入第二神经网络,得到第二概率集合包括:将所述检索文本输入所述第二神经网络;根据所述电商词库将所述检索文本转换为程序语言,得到第一检索向量;根据所述第一检索向量以及所述第一概率集合生成第二检索向量;将所述第二检索向量输入第二逻辑回归模型,得到所述第二概率集合,所述第二逻辑回归模型基于所述二级商品类目建立。
具体的,将与第一神经网络输入的检索文本相同的检索文本输入第二神经网络,基于电商专有词库对检索文本进行分词并获得检索文本的embedding表达,若分词过程采用不同的分词词典,则同样的检索文本会生成不同的embedding。本实施例中的第一分词过程和第二分词过程均根据电商专有词库进行分词,得到的embedding表达与检索文本输入第一神经网络模型得到的embedding表达相同,将该embedding依次进入卷积层、最大池化层和全连接层,从而提取检索文本中的语义特征,对检索文本的embedding表达进行优化,得到检索文本的第一检索向量,将该第一检索向量与第一概率集合进行拼接,即将检索文本的第一检索向量和第一神经网络得到的目标向量进行拼接,得到修正后的语义向量,即第二检索向量。将第二检索向量输入softmax软件,得到第二概率集合。例如:检索文本为[秋天白色卫衣],一级商品类目包括“服装服饰、家用电器”,二级商品类目包括[上衣、裤子、冰箱、台灯],经过分词过程以及随机向量初始化得到检索文本的embedding为[0.3,0.3,0.4],将embedding[0.3,0.3,0.4]依次进入卷积层、最大池化层和全连接层,得到检索文本[秋天白色卫衣]的第一检索向量为[0.2,0.3,0.5];第一概率集合,即第一神经网络输出的目标向量为[0.9,0.1];将第一检索向量与该目标向量拼接得到第二检索向量[0.2,0.3,0.5,0.9,0.1],第二检索向量[0.2,0.3,0.5,0.9,0.1]即为修正后的检索文本的语义向量,将第二检索向量输入softmax模型,得到第二概率集合[0.97,0.01,0.01,0.01],该第二概率集合表示将检索文本[秋天白色卫衣]以及所述第一概率集合输入第二神经网络,得到的,识别结果是上衣的概率是0.97,识别结果为裤子的概率是0.01,识别结果为冰箱的概率是0.01,识别结果为台灯的概率是0.01。
步骤S104,基于所述第二概率集合,获取识别结果。
具体的,根据第二神经网络输出的第二概率集合中各个元素的概率,获得二级商品类目中最准确的商品类目。
在其中一个实施例中,所述基于所述第二概率集合,获取识别结果包括:基于所述第二概率集合,获取所述二级商品类目中概率最大的商品类目作为搜索结果并输出。例如:第二概率集合(0.97,0.01,0.01,0.01),该第二概率集合表示将检索文本“秋天白色卫衣”以及所述第一概率集合输入第二神经网络,得到的,识别结果是上衣的概率是0.97,识别结果为裤子的概率是0.01,识别结果为冰箱的概率是0.01,识别结果为台灯的概率是0.01;根据概率最大值0.97对应的商品类目上衣作为识别结果输出。
通过上述步骤,本申请通过电商领域类目树,设置了多级商品类目模型。在该类目树中。每级商品类目的数量是逐级递增的,解决了由于商品类目较多导致的传统神经网络存在的训练样本和训练类目分布不均衡的问题;并且,根据商品类目之间的从属关系对商品类目进行分级,充分考虑了商品类目间的关系,解决了相关技术中未考虑商品类目之间的关联关系的问题。本申请的商品检索方法依据类目树建立了多级神经网络模型,其中每级子模型的预测结果会对下一级输入检索文本时生成的语义向量进行修正,解决相关技术中检索文本与商品类目点对点的检索方式导致的识别结果不准确的问题,实现了根据检索文本准确检索商品类目的技术效果。
下面通过优选实施例对本申请实施例进行描述和说明。
图3是根据本申请优选实施例的商品检索方法的多级神经网络模型示意图;如图3所示,该多级神经网络模型包括一级类目子模型、二级类目子模型以及叶子类目子模型,每级子模型都包括embedding层、卷积层、最大池化层、全连接层以及softmax回归层。
当输入用户输入query时,依次经过一级类目子模型、二级类目子模型和叶子类目子模型,这三个子模型的模型结构基本上完全相同但query的向量表达和最后的输出数据不同。
针对第一个一级类目子模型,模型的输入是用户搜索词,首先会进过专有电商词库分词得到目标级别的分词结果,然后对分词结果进行随机词向量初始化得到搜索词的向量表达embedding,分别对embedding表达进行窗口为2、3和4的卷积操作,再对每个窗口的卷积结果取最大池化后经过全连接层操作得到检索文本的第一句向量,最后再对第一句向量进行softmax逻辑回归得到第一个一级类目子模型的输出结果第一目标向量,即对每一个一级商品类目的预测结果。
针对第二个二级类目子模型,模型的输入同样是用户搜索词,在softmax步骤前模型结构完全一样,但是各模型相互独立即各类目子模型基于不同的训练集建立,最后对搜索词的第一句向量拼接一级类目子模型的输出第一目标向量得到一个新的句向量的表达第二句向量,再进过softmax得到二级类目子模型的输出结果第二目标向量,即对每一个二级商品类目的预测结果。
针对第三个叶子类目子模型,模型的输入也是用户搜索词,在softmax步骤前模型结构也完全一样,最后对搜索词的第一句向量拼接二级类目子模型的输出第二目标向量得到一个新的句向量的表达第三句向量,再进过softmax得到叶子类目子模型的输出结果叶子商品类目,即与该搜索词最相关的叶子类目结果。至此整个模型训练完毕,通过多级神经网络模型,从预测少分类目标的模型出发和不断传递上一层模型的有用信息,最后得到需要的叶子类目预测结果,本实施例采用的是三级级联神经网络,在实际应用中,也可以设置三级以上的级联神经网络,但级联神经网络模型的子模型的数量需要与预先设置的类目树子模型的数量相适应。
需要说明的是,在上述流程中或者附图的流程图中示出的步骤可以在诸如一组计算机可执行指令的计算机系统中执行,并且,虽然在流程图中示出了逻辑顺序,但是在某些情况下,可以以不同于此处的顺序执行所示出或描述的步骤。
本实施例还提供了一种商品检索装置,该装置用于实现上述实施例及优选实施方式,已经进行过说明的不再赘述。如以下所使用的,术语“模块”、“单元”、“子单元”等可以实现预定功能的软件和/或硬件的组合。尽管以下实施例所描述的装置较佳地以软件来实现,但是硬件,或者软件和硬件的组合的实现也是可能并被构想的。
图4是根据本申请实施例的商品检索装置的结构框图,如图4所示,该装置包括:
采集模块10:用于获取检索文本。
第一处理模块20:用于将所述检索文本输入第一神经网络,得到第一概率集合;所述第一概率集合包括识别结果归属于一级商品类目中每个商品类目的概率,所述识别结果与所述检索文本相对应。
第二处理模块30:用于将所述检索文本以及所述第一概率集合输入第二神经网络,得到第二概率集合;所述第二概率集合包括识别结果归属于二级商品类目中每个商品类目的概率;所述识别结果与所述检索文本相对应;所述二级商品类目的商品类目归属于所述一级商品类目的商品类目。
输出模块40:用于基于所述第二概率集合,获取识别结果。
所述第一处理模块20,还用于根据电商词库建立多级商品类目模型,所述多级商品类目模型至少包括所述一级商品类目和所述二级商品类目。
所述第一处理模块20,还用于获取训练检索文本以及所述训练检索文本对应的第一训练概率集合,所述第一训练概率集合为训练识别结果归属于所述一级商品类目每个商品类目的概率,所述训练识别结果与所述训练检索文本相对应;基于所述训练检索文本以及所述第一训练概率集合,建立训练集;基于所述训练集训练第一神经网络模型,得到经训练的第一神经网络。
所述第一处理模块20,还用于将所述检索文本输入所述第一神经网络;根据所述电商词库将所述检索文本转换为程序语言,得到第一检索向量;将所述第一检索向量输入第一逻辑回归模型,得到所述第一概率集合,所述第一逻辑回归模型基于所述一级商品类目建立。
所述第二处理模块30,还用于获取所述训练检索文本、第一训练概率集合以及对应的第二训练概率集合;所述第二训练概率集合为训练识别结果归属于所述二级商品类目每个商品类目的概率,所述训练识别结果与所述训练检索文本相对应;基于所述训练检索文本、所述第一训练概率集合以及所述第二训练概率集合,建立训练集;基于所述训练集训练第二神经网络模型,得到经训练的第二神经网络。
所述第二处理模块30,还用于将所述检索文本输入所述第二神经网络;根据所述电商词库将所述检索文本转换为程序语言,得到第一检索向量;根据所述第一检索向量以及所述第一概率集合生成第二检索向量;将所述第二检索向量输入第二逻辑回归模型,得到所述第二概率集合,所述第二逻辑回归模型基于所述二级商品类目建立。
所述输出模块40,基于所述第二概率集合,获取所述二级商品类目中概率最大的商品类目作为搜索结果并输出。
需要说明的是,上述各个模块可以是功能模块也可以是程序模块,既可以通过软件来实现,也可以通过硬件来实现。对于通过硬件来实现的模块而言,上述各个模块可以位于同一处理器中;或者上述各个模块还可以按照任意组合的形式分别位于不同的处理器中。
另外,结合图1描述的本申请实施例商品检索方法可以由计算机设备来实现。图5为根据本申请实施例的计算机设备的硬件结构示意图。
计算机设备可以包括处理器51以及存储有计算机程序指令的存储器52。
具体地,上述处理器51可以包括中央处理器(CPU),或者特定集成电路(Application Specific Integrated Circuit,简称为ASIC),或者可以被配置成实施本申请实施例的一个或多个集成电路。
其中,存储器52可以包括用于数据或指令的大容量存储器。举例来说而非限制,存储器52可包括硬盘驱动器(Hard Disk Drive,简称为HDD)、软盘驱动器、固态驱动器(SolidState Drive,简称为SSD)、闪存、光盘、磁光盘、磁带或通用串行总线(Universal SerialBus,简称为USB)驱动器或者两个或更多个以上这些的组合。在合适的情况下,存储器52可包括可移除或不可移除(或固定)的介质。在合适的情况下,存储器52可在数据处理装置的内部或外部。在特定实施例中,存储器52是非易失性(Non-Volatile)存储器。在特定实施例中,存储器52包括只读存储器(Read-Only Memory,简称为ROM)和随机存取存储器(RandomAccess Memory,简称为RAM)。在合适的情况下,该ROM可以是掩模编程的ROM、可编程ROM(Programmable Read-Only Memory,简称为PROM)、可擦除PROM(Erasable ProgrammableRead-Only Memory,简称为EPROM)、电可擦除PROM(Electrically Erasable ProgrammableRead-Only Memory,简称为EEPROM)、电可改写ROM(Electrically Alterable Read-OnlyMemory,简称为EAROM)或闪存(FLASH)或者两个或更多个以上这些的组合。在合适的情况下,该RAM可以是静态随机存取存储器(Static Random-Access Memory,简称为SRAM)或动态随机存取存储器(Dynamic Random Access Memory,简称为DRAM),其中,DRAM可以是快速页模式动态随机存取存储器(Fast Page Mode Dynamic Random Access Memory,简称为FPMDRAM)、扩展数据输出动态随机存取存储器(Extended Date Out Dynamic RandomAccess Memory,简称为EDODRAM)、同步动态随机存取内存(Synchronous Dynamic Random-Access Memory,简称SDRAM)等。
存储器52可以用来存储或者缓存需要处理和/或通信使用的各种数据文件,以及处理器51所执行的可能的计算机程序指令。
处理器51通过读取并执行存储器82中存储的计算机程序指令,以实现上述实施例中的任意一种商品检索方法。
在其中一些实施例中,计算机设备还可包括通信接口53和总线50。其中,如图5所示,处理器51、存储器52、通信接口53通过总线50连接并完成相互间的通信。
通信接口53用于实现本申请实施例中各模块、装置、单元和/或设备之间的通信。通信端口53还可以实现与其他部件例如:外接设备、图像/数据采集设备、数据库、外部存储以及图像/数据处理工作站等之间进行数据通信。
总线50包括硬件、软件或两者,将计算机设备的部件彼此耦接在一起。总线50包括但不限于以下至少之一:数据总线(Data Bus)、地址总线(Address Bus)、控制总线(Control Bus)、扩展总线(Expansion Bus)、局部总线(Local Bus)。举例来说而非限制,总线50可包括图形加速接口(Accelerated Graphics Port,简称为AGP)或其他图形总线、增强工业标准架构(Extended Industry Standard Architecture,简称为EISA)总线、前端总线(Front Side Bus,简称为FSB)、超传输(Hyper Transport,简称为HT)互连、工业标准架构(Industry Standard Architecture,简称为ISA)总线、无线带宽(InfiniBand)互连、低引脚数(Low Pin Count,简称为LPC)总线、存储器总线、微信道架构(Micro ChannelArchitecture,简称为MCA)总线、外围组件互连(Peripheral Component Interconnect,简称为PCI)总线、PCI-Express(PCI-X)总线、串行高级技术附件(Serial AdvancedTechnology Attachment,简称为SATA)总线、视频电子标准协会局部(Video ElectronicsStandards Association Local Bus,简称为VLB)总线或其他合适的总线或者两个或更多个以上这些的组合。在合适的情况下,总线50可包括一个或多个总线。尽管本申请实施例描述和示出了特定的总线,但本申请考虑任何合适的总线或互连。
该计算机设备可以基于获取到的计算机程序指令,执行本申请实施例中的商品检索方法,从而实现结合图1描述的商品检索方法。
另外,结合上述实施例中的商品检索方法,本申请实施例可提供一种计算机可读存储介质来实现。该计算机可读存储介质上存储有计算机程序指令;该计算机程序指令被处理器执行时实现上述实施例中的任意一种商品检索方法。
以上所述实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上所述实施例仅表达了本申请的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本申请构思的前提下,还可以做出若干变形和改进,这些都属于本申请的保护范围。因此,本申请专利的保护范围应以所附权利要求为准。
Claims (10)
1.一种商品检索方法,其特征在于,包括:
获取检索文本;
将所述检索文本输入第一神经网络,得到第一概率集合;所述第一概率集合包括识别结果归属于一级商品类目中每个商品类目的概率,所述识别结果与所述检索文本相对应;
将所述检索文本以及所述第一概率集合输入第二神经网络,得到第二概率集合;所述第二概率集合包括识别结果归属于二级商品类目中每个商品类目的概率;所述识别结果与所述检索文本相对应;所述二级商品类目的商品类目归属于所述一级商品类目的商品类目;
基于所述第二概率集合,获取识别结果。
2.根据权利要求1所述的商品检索方法,其特征在于,所述将所述检索文本输入第一神经网络,得到第一概率集合之前包括:
根据电商词库建立多级商品类目模型,所述多级商品类目模型至少包括所述一级商品类目和所述二级商品类目。
3.根据权利要求2所述的商品检索方法,其特征在于,所述将所述检索文本输入第一神经网络之前包括:
获取训练检索文本以及所述训练检索文本对应的第一训练概率集合,所述第一训练概率集合为训练识别结果归属于所述一级商品类目每个商品类目的概率,所述训练识别结果与所述训练检索文本相对应;
基于所述训练检索文本以及所述第一训练概率集合,建立训练集;
基于所述训练集训练第一神经网络模型,得到经训练的第一神经网络。
4.根据权利要求3所述的商品检索方法,其特征在于,所述将所述检索文本输入第一神经网络,得到第一概率集合包括:
将所述检索文本输入所述第一神经网络;
根据所述电商词库将所述检索文本转换为程序语言,得到第一检索向量;
将所述第一检索向量输入第一逻辑回归模型,得到所述第一概率集合,所述第一逻辑回归模型基于所述一级商品类目建立。
5.根据权利要求4所述的商品检索方法,其特征在于,所述将所述检索文本以及所述第一概率集合输入第二神经网络之前包括:
获取所述训练检索文本、第一训练概率集合以及对应的第二训练概率集合;所述第二训练概率集合为训练识别结果归属于所述二级商品类目每个商品类目的概率,所述训练识别结果与所述训练检索文本相对应;
基于所述训练检索文本、所述第一训练概率集合以及所述第二训练概率集合,建立训练集;
基于所述训练集训练第二神经网络模型,得到经训练的第二神经网络。
6.根据权利要求5所述的商品检索方法,其特征在于,所述将所述检索文本以及所述第一概率集合输入第二神经网络,得到第二概率集合包括:
将所述检索文本输入所述第二神经网络;
根据所述电商词库将所述检索文本转换为程序语言,得到第一检索向量;
根据所述第一检索向量以及所述第一概率集合生成第二检索向量;
将所述第二检索向量输入第二逻辑回归模型,得到所述第二概率集合,所述第二逻辑回归模型基于所述二级商品类目建立。
7.根据权利要求1所述的商品检索方法,其特征在于,所述基于所述第二概率集合,获取识别结果包括:
基于所述第二概率集合,获取所述二级商品类目中概率最大的商品类目作为搜索结果并输出。
8.一种商品检索装置,其特征在于,包括:
采集模块:用于获取检索文本;
第一处理模块:用于将所述检索文本输入第一神经网络,得到第一概率集合;所述第一概率集合包括识别结果归属于一级商品类目中每个商品类目的概率,所述识别结果与所述检索文本相对应;
第二处理模块:用于将所述检索文本以及所述第一概率集合输入第二神经网络,得到第二概率集合;所述第二概率集合包括识别结果归属于二级商品类目中每个商品类目的概率;所述识别结果与所述检索文本相对应;所述二级商品类目的商品类目归属于所述一级商品类目的商品类目;
输出模块:用于基于所述第二概率集合,获取识别结果。
9.一种计算机设备,包括存储器、处理器以及存储在所述存储器上并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1至7中任一项所述的商品检索方法。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现如权利要求1至7中任一项所述的商品检索方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011169418.7A CN112241493A (zh) | 2020-10-28 | 2020-10-28 | 商品检索方法、装置、计算机设备和存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011169418.7A CN112241493A (zh) | 2020-10-28 | 2020-10-28 | 商品检索方法、装置、计算机设备和存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112241493A true CN112241493A (zh) | 2021-01-19 |
Family
ID=74169972
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011169418.7A Pending CN112241493A (zh) | 2020-10-28 | 2020-10-28 | 商品检索方法、装置、计算机设备和存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112241493A (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112965998A (zh) * | 2021-02-04 | 2021-06-15 | 成都健数科技有限公司 | 一种化合物数据库建立及检索方法及系统 |
CN113468414A (zh) * | 2021-06-07 | 2021-10-01 | 广州华多网络科技有限公司 | 商品搜索方法、装置、计算机设备及存储介质 |
CN113806537A (zh) * | 2021-09-14 | 2021-12-17 | 广州华多网络科技有限公司 | 商品类目分类方法及其装置、设备、介质、产品 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104424296A (zh) * | 2013-09-02 | 2015-03-18 | 阿里巴巴集团控股有限公司 | 查询词分类方法和装置 |
CN110287317A (zh) * | 2019-06-06 | 2019-09-27 | 昆明理工大学 | 一种基于cnn-dbn的层次多标签医疗问题分类方法 |
CN110737801A (zh) * | 2019-10-14 | 2020-01-31 | 腾讯科技(深圳)有限公司 | 内容分类方法、装置、计算机设备和存储介质 |
CN111353838A (zh) * | 2018-12-21 | 2020-06-30 | 北京京东尚科信息技术有限公司 | 自动化校验商品类目的方法和装置 |
-
2020
- 2020-10-28 CN CN202011169418.7A patent/CN112241493A/zh active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104424296A (zh) * | 2013-09-02 | 2015-03-18 | 阿里巴巴集团控股有限公司 | 查询词分类方法和装置 |
CN111353838A (zh) * | 2018-12-21 | 2020-06-30 | 北京京东尚科信息技术有限公司 | 自动化校验商品类目的方法和装置 |
CN110287317A (zh) * | 2019-06-06 | 2019-09-27 | 昆明理工大学 | 一种基于cnn-dbn的层次多标签医疗问题分类方法 |
CN110737801A (zh) * | 2019-10-14 | 2020-01-31 | 腾讯科技(深圳)有限公司 | 内容分类方法、装置、计算机设备和存储介质 |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112965998A (zh) * | 2021-02-04 | 2021-06-15 | 成都健数科技有限公司 | 一种化合物数据库建立及检索方法及系统 |
CN113468414A (zh) * | 2021-06-07 | 2021-10-01 | 广州华多网络科技有限公司 | 商品搜索方法、装置、计算机设备及存储介质 |
CN113806537A (zh) * | 2021-09-14 | 2021-12-17 | 广州华多网络科技有限公司 | 商品类目分类方法及其装置、设备、介质、产品 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11704487B2 (en) | System and method for fashion attributes extraction | |
WO2020082569A1 (zh) | 文本分类方法、装置、计算机设备和存储介质 | |
CN112164391A (zh) | 语句处理方法、装置、电子设备及存储介质 | |
CN111190997B (zh) | 一种使用神经网络和机器学习排序算法的问答系统实现方法 | |
CN112241493A (zh) | 商品检索方法、装置、计算机设备和存储介质 | |
CN107085581A (zh) | 短文本分类方法和装置 | |
WO2020147409A1 (zh) | 一种文本分类方法、装置、计算机设备及存储介质 | |
Shuang et al. | A sentiment information Collector–Extractor architecture based neural network for sentiment analysis | |
CN107391565B (zh) | 一种基于主题模型的跨语言层次分类体系匹配方法 | |
CN105760363B (zh) | 文本文件的词义消歧方法及装置 | |
CN109271624B (zh) | 一种目标词确定方法、装置及存储介质 | |
Yuan et al. | Graph attention network with memory fusion for aspect-level sentiment analysis | |
CN113434858A (zh) | 基于反汇编代码结构和语义特征的恶意软件家族分类方法 | |
CN112925904A (zh) | 一种基于Tucker分解的轻量级文本分类方法 | |
Zhai et al. | COM-MRC: A COntext-masked machine reading comprehension framework for aspect sentiment triplet extraction | |
CN113609847B (zh) | 信息抽取方法、装置、电子设备及存储介质 | |
Lin et al. | An adaptive masked attention mechanism to act on the local text in a global context for aspect-based sentiment analysis | |
CN112528653B (zh) | 短文本实体识别方法和系统 | |
Parvathi et al. | Identifying relevant text from text document using deep learning | |
CN115098857A (zh) | 一种可视化恶意软件的分类方法及装置 | |
CN112948573B (zh) | 文本标签的提取方法、装置、设备和计算机存储介质 | |
Agathangelou et al. | Mining domain-specific dictionaries of opinion words | |
CN109885680B (zh) | 一种基于义原扩展的短文本分类预处理方法、系统及装置 | |
CN109446321B (zh) | 一种文本分类方法、装置、终端及计算机可读存储介质 | |
CN113722431B (zh) | 命名实体关系识别方法、装置、电子设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20210119 |