CN106909537A - 一种基于主题模型和向量空间的一词多义分析方法 - Google Patents
一种基于主题模型和向量空间的一词多义分析方法 Download PDFInfo
- Publication number
- CN106909537A CN106909537A CN201710067919.6A CN201710067919A CN106909537A CN 106909537 A CN106909537 A CN 106909537A CN 201710067919 A CN201710067919 A CN 201710067919A CN 106909537 A CN106909537 A CN 106909537A
- Authority
- CN
- China
- Prior art keywords
- word
- vector
- topic
- representing
- theme
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 239000013598 vector Substances 0.000 title claims abstract description 131
- 238000004458 analytical method Methods 0.000 title claims abstract description 17
- 238000005070 sampling Methods 0.000 claims abstract description 14
- 238000012549 training Methods 0.000 claims abstract description 14
- 238000000034 method Methods 0.000 claims description 11
- 238000009825 accumulation Methods 0.000 claims description 3
- 230000006870 function Effects 0.000 description 8
- 238000004364 calculation method Methods 0.000 description 6
- 238000011160 research Methods 0.000 description 5
- 230000000694 effects Effects 0.000 description 4
- 230000009286 beneficial effect Effects 0.000 description 3
- 238000003058 natural language processing Methods 0.000 description 3
- 238000005065 mining Methods 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/205—Parsing
- G06F40/216—Parsing using statistical methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/31—Indexing; Data structures therefor; Storage structures
- G06F16/313—Selection or weighting of terms for indexing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Artificial Intelligence (AREA)
- Probability & Statistics with Applications (AREA)
- Software Systems (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- Machine Translation (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明提供了一种基于主题模型和向量空间的一词多义分析方法,包括:S1、以式(1)作为目标函数,建立一词多义的主题模型;S2、读取整个文档集合D的数据;S3、主题‑词分布初始化;S4、主题采样;S5、主题向量更新;S6、词向量训练;S7、循环执行S4至S6若干次,以进行若干次迭代;S8、将得出的词向量和主题向量输出并存储;S9、判断是否一词多义。本发明提供的一种基于主题模型和向量空间的一词多义分析方法,可以训练出更优质的词向量、主题向量,使其在一词多义的研究分析中表现出更合理的解释,而且主题模型的表现也明显优于原始模型LDA。本发明通过主题模型、词向量、主题向量这三者的交叉学习来相互提高,能够有效应用于相似性评估、文档分类、主题相关性等任务。
Description
技术领域
本发明涉及自然语言处理领域,具体涉及一种基于主题模型和向量空间的一词多义分析方法。
背景技术
随着人工智能技术的蓬勃发展,自然语言处理作为一种革新的语言研究模式,结合了计算机科学、语言学、数学于一体的智能科学,广泛应用于机器翻译、问答系统、信息检索和文档处理等方面。由于大部分字词并不仅有一个意思,即存在一词多义的现象,如果仅用单一的词向量表示每个字词,将无法消除歧义现象,为了解决这个问题,上下文信息或主题向量被用于辅助一词多义的研究中,然而这些研究都把主题模型、词向量、主题向量三者孤立开来,简单的利用现成的结果作为先验知识来辅助训练模型。
主题模型用于挖掘一个文档集合的潜藏主题信息,每个主题表示一个相关概念,具体表现为一系列相关的词,实现形式为主题-词分布。词向量模型则利用文本中的上下文信息,将每个词映射到一个低维实值空间中,并包含语法语义等信息,从而可使用欧氏距离或余弦夹角来衡量词向量的相似度。主题向量直接将主题映射到向量空间中,近似表示一个主题的语义中心。
主题模型、词向量、主题向量都可用于文档表示中,主要应用于文档聚类、文档分类等任务中。这三者在文本挖掘中都各具特点,主题模型的全局信息以及词向量的局部信息相结合已被研究证实有助于提高原模型的效果,但是这些研究都是都有较大的局限性,他们大多都将三者独立开,要么先训练单独训练 其中一两项,然后借助训练结果来提高另一项的效果;要么直接使用较大训练集的训练结果作为外部知识,辅助其他小数据集的模型训练。
发明内容
针对现有技术中存在的问题,本发明通过对文本文档集进行建模,借鉴主题模型、词向量以及主题向量的优点,提出了一种基于主题模型和向量空间的一词多义分析方法,以更好地挖掘文档集合潜藏的主题信息。
为实现上述目的,本发明采用以下技术方案:
一种基于主题模型和向量空间的一词多义分析方法,包括以下步骤:
S1、以式(1)作为目标函数,建立一词多义的主题模型:
其中为文本文档集合,M为集合中的文档数,Nm为第m篇文档的词的数量,c为上下文信息窗口大小,wm,n表示第m篇文档第n个词,K表示主题数目,tk表示第k个主题向量,表示主题模型中的主题-词分布,表示wm,n的主题编号;
S2、读取整个文档集合的数据;
S3、主题-词分布初始化:首先,采用GibbsLDA算法对文本文档集合中的每个词进行主题采样;然后,对主题模型的主题-词分布进行初始化估计;
S4、主题采样:针对文档中的每一个词wm,n,计算出该词属于每个主题的概率,然后采用累加分布的方式采样出其对应的主题编号zm,n∈[1,K];
S5、主题向量更新:对于每个主题向量tk,k∈[1,K],根据式(5)重新计算出其向量表示:
其中,为指示函数,当x取值为真,其结果为1,否则为0。表示词wm,n所对应的词向量表示,W表示文档集合的词汇表大小,nk,w表示词w被分配到主题k下的数目;
S6、词向量训练:构造一棵哈夫曼树,叶子节点为词汇表中的每个词w,非叶子结点作为辅助向量u,采用随机梯度下降的方式求解式(1)所示的目标函数;
S7、循环执行S4至S6若干次,以进行若干次迭代;
S8、将得出的词向量和主题向量输出并存储;
S9、判断是否一词多义:将待分析的词的词向量和主题向量相拼接,组成一个新向量,代表整个上下文环境,然后计算该新向量的余弦值,当余弦值小于设定阈值时,认定该词具有一词多义现象;反之认定该词不具有一词多义现象。
进一步地,在S3中,主题采样过程中所使用的更新规则如式(2)所示:
其中,-(m,n)表示在统计时除去当前词,W表示文本文档集合的词汇数,nm,k表示第m篇文档中属于主题k的词的数量,zm,n表示词wm,n所分配的主题编号, 表示词wm,n被分配到主题k下的数目,nk'表示被分配到主题k下所有词的数目,α为狄利克雷对称超参数;
对主题模型的主题-词分布进行初始化估计所使用的公式为式(3):
其中,表示初始化估计的主题-词分布,β表示狄利克雷对称超参数。
进一步地,在S4中,根据式(4)计算出该词属于每个主题的概率:
进一步地,在S6中,具体包括以下步骤:
S601、更新主题-词分布根据式(6)计算中每个分量的梯度;针对每个分量,定义其约束为
其中,L(wm,n+j)表示从哈夫曼树根节点到叶子节点wm,n+j的路径长度(节点数目,包含根节点和叶子节点),表示该路径上节点i→i+1的哈夫曼编码,σ(x)=1/(1+e-x),表示该路径上第i个非叶子结点;
S602、更新词向量w:根据式(7)计算每个词的梯度,并利用辅助向量来更新;
S603、更新哈夫曼树非叶子结点辅助向量u:根据式(8)计算哈夫曼树路径上的非叶子结点向量u,使之能影响词向量w的训练质量;
进一步地,在S9中,所设定的阈值为0.6。
本发明提供的一种基于主题模型和向量空间的一词多义分析方法,可以训练出更优质的词向量、主题向量,使其在一词多义的研究分析中表现出更合理的解释,而且主题模型的表现也明显优于原始模型LDA。本发明通过主题模型、词向量、主题向量这三者的交叉学习来相互提高,能够有效应用于相似性评估、文档分类、主题相关性等任务。
附图说明
图1是本发明实施例提供的一种基于主题模型和向量空间的一词多义分析方法的流程示意图。
具体实施方式
下面将结合附图和具体的实施例对本发明的技术方案进行详细说明。
为了充分借助主题模型、词向量和主题向量的内在特性,考虑到文本数据一词多义现象普遍性,为更好地挖掘文档集合潜藏的主题信息并训练更高质量的词向量以及主题向量,本发明提供了一种基于主题模型和向量空间的一词多义分析方法。
具体地,本发明根据自然语言处理的基本规则,做出如下合理假设:
1、主题模型中的主题-词分布可以利用其较高概率的一系列词表示一个具体的概念,其数值意义为某一个词出现在该主题下的概率大小,可通过主题相关性来评估挖掘的主题质量。
2、文本中的每个词都可以映射到低维实值向量空间中,即词向量,该向量包含了该词的语法语义等信息,并可使用欧氏距离或余弦等数学方式来评估他们之间的差异。
3、主题向量与主题模型中的主题-词分布并不是完全孤立的,主题向量可视为该概率分布在词向量空间的一个语义中心映射,与词向量紧密关联。
基于上述假设,本发明提出了一种基于主题模型和向量空间的一词多义分析方法,如图1所示,所述方法包括如下步骤:
S1、以式(1)作为目标函数,建立一词多义的主题模型:
其中为文本文档集合,M为集合中的文档数,Nm为第m篇文档的词的数量,c为上下文信息窗口大小,wm,n表示第m篇文档第n个词,K表示主题数目,tk表示第k个主题向量,表示主题模型中的主题-词分布,表示wm,n的主题编号;
S2、读取整个文本文档集合的数据;
S3、主题-词分布初始化:首先,采用GibbsLDA算法对文本文档集合中的每个词进行主题采样;然后,对主题模型的主题-词分布进行初始化估计;
其中,主题采样过程中所使用的更新规则如式(2)所示:
其中,-(m,n)表示在统计时除去当前词,W表示文本文档集合的词汇数,nm,k表示第m篇文档中属于主题k的词的数量,zm,n表示词wm,n所分配的主题编号, 表示词wm,n被分配到主题k下的数目,nk'表示被分配到主题k下所有词的数 目,α为狄利克雷对称超参数;
对主题模型的主题-词分布进行初始化估计所使用的公式为式(3):
其中,表示初始化估计的主题-词分布,β表示狄利克雷对称超参数;
S4、主题采样:针对文档中的每一个词wm,n,根据式(4)计算出该词属于每个主题的概率,然后采用累加分布的方式采样出其对应的主题编号zm,n∈[1,K];
在主题模型中,z作为模型的隐变量,是吉布斯采样求解过程中不可或缺的中间桥梁,直接影响主题模型最终所需要获取的主题-词分布以及文档-主题分布θ的效果。与原始的吉布斯更新规则不同,本发明采用式(4)作为吉布斯更新规则,其特征在于,直接在更新规则中使用主题-词分布其有益效果是,可以充分利用分布的统计以及现实意义,而且还可加快计算速度,更适应大规模数据集的应用。
S5、主题向量更新:对于每个主题向量tk,k∈[1,K],根据式(5)重新计算出其向量表示:
其中,为指示函数,当x取值为真,其结果为1,否则为0。表示词wm,n所对应的词向量表示,W表示文本文档集合的词汇表大小,nk,w表示词w被分配到主题k下的数目,这正是一词多义的细微体现,一个词可能属于不同的主 题。进一步的,主题向量的计算更新可全部同时进行,互不干扰。
主题向量的主要目的在于使用向量空间来表示文档集合中的潜藏主题信息而不是类似的多项式分布,从而使主题具有更多的空间几何意义,跟词向量的结合也更密切。与使用类似Skip-Gram方式训练主题向量的TWE模型不同,本发明采用式(5)直接更新计算每个主题所对应的向量表示,其特征在于,每个主题的向量表示仅与该主题下的词相关,其有益效果是,主题向量的计算方式简单、易于理解,快速高效,而且采用均值计算,可使其向量更接近于这些词向量的几何中心,根据假设2可知,该向量可近似看作一个主题概念的语义中心。
S6、词向量训练:构造一棵哈夫曼树,叶子节点为词汇表中的每个词w,非叶子结点作为辅助向量u,采用随机梯度下降的方式求解式(1)所示的目标函数;具体地,S6包括以下步骤:
S601、更新主题-词分布根据式(6)计算中每个分量的梯度;其中需要注意该分布具有概率意义,因此针对每个分量,我们需要定义其约束为
其中,L(wm,n+j)表示从哈夫曼树根节点到叶子节点wm,n+j的路径长度(节点数目,包含根节点和叶子节点),表示该路径上节点i→i+1的哈夫曼编码,σ(x)=1/(1+e-x),表示该路径上第i个非叶子结点;
S602、更新词向量w:根据式(7)计算每个词的梯度,并利用辅助向量来 更新;
S603、更新哈夫曼树非叶子结点辅助向量u。此步骤主要根据式(8)计算哈夫曼树路径上的非叶子结点向量u,使之能影响叶子节点(即词向量w)的训练质量;
由于softmax函数的计算复杂度与词汇表大小W程线性相关,不利于大规模数据集的训练。本发明沿用Skip-Gram的近似计算方法,采用分层softmax的思想,构造一棵哈夫曼树,叶子节点为词汇表中的每个词w,非叶子结点u作为辅助向量u。在词向量训练阶段,本发明采用随机梯度下降来求解式(1)所示的目标函数,主题-词分布的梯度计算如式(6)所示,其特征在于,主题-词分布的更新直接使用了主题向量tk以及哈夫曼树的非叶子结点向量u,其有益效果是,主题-词分布在迭代更新中不断吸收主题向量tk的内容信息,并且通过辅助向量u达到与词向量交换信息的目的,使得的更新直接或间接利用了主题向量、词向量的空间特征。
进一步的,哈夫曼树中的节点向量更新梯度计算分别如式(7)和式(8)所示,其特征在于,非叶子向量u的更新直接使用了主题向量以及主题分布 而叶子节点w的更新则直接利用非叶子向量,其有益效果是,主题向量和主题分布通过渗透整棵哈夫曼树的非叶子节点(即枝干),使得哈夫曼树上的叶子节点在更深层次上受到其二者的影响,从而达到其相互促进的效果。
S7、循环执行S4至S6若干次,以进行若干次迭代;进行迭代主要是为了 让主题模型、词向量、主题向量这三者进一步地交叉学习来相互提高。
S8、将得出的词向量和主题向量输出并存储;
S9、判断是否一词多义:将待分析的词的词向量和主题向量相拼接,组成一个新向量,代表整个上下文环境,然后计算该新向量的余弦值,当余弦值小于设定阈值(例如e<0.60)时,该词具有一词多义现象;反之该词在给定的不同上下文中意义一致,不具有一词多义现象。
以上所述实施例仅表达了本发明的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对本发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变形和改进,这些都属于本发明的保护范围。因此,本发明专利的保护范围应以所附权利要求为准。
Claims (5)
1.一种基于主题模型和向量空间的一词多义分析方法,其特征在于,包括以下步骤:
S1、以式(1)作为目标函数,建立一词多义的主题模型:
其中为文本文档集合,M为集合中的文档数,Nm为第m篇文档的词的数量,c为上下文信息窗口大小,wm,n表示第m篇文档第n个词,K表示主题数目,tk表示第k个主题向量,表示主题模型中的主题-词分布,表示wm,n的主题编号;
S2、读取整个文档集合的数据;
S3、主题-词分布初始化:首先,采用GibbsLDA算法对文本文档集合中的每个词进行主题采样;然后,对主题模型的主题-词分布进行初始化估计;
S4、主题采样:针对文档中的每一个词wm,n,计算出该词属于每个主题的概率,然后采用累加分布的方式采样出其对应的主题编号zm,n∈[1,K];
S5、主题向量更新:对于每个主题向量tk,k∈[1,K],根据式(5)重新计算出其向量表示:
其中,为指示函数,当x取值为真,其结果为1,否则为0。表示词wm,n所对应的词向量表示,W表示文档集合的词汇表大小,nk,w表示词w被分配到主题k下的数目;
S6、词向量训练:构造一棵哈夫曼树,叶子节点为词汇表中的每个词w,非叶子结点作为辅助向量u,采用随机梯度下降的方式求解式(1)所示的目标函数;
S7、循环执行S4至S6若干次,以进行若干次迭代;
S8、将得出的词向量和主题向量输出并存储;
S9、判断是否一词多义:将待分析的词的词向量和主题向量相拼接,组成一个新向量,代表整个上下文环境,然后计算该新向量的余弦值,当余弦值小于设定阈值时,认定该词具有一词多义现象;反之认定该词不具有一词多义现象。
2.根据权利要求1所述的分析方法,其特征在于,在S3中,主题采样过程中所使用的更新规则如式(2)所示:
其中,-(m,n)表示在统计时除去当前词,W表示文本文档集合的词汇数,nm,k表示第m篇文档中属于主题k的词的数量,zm,n表示词wm,n所分配的主题编号,表示词wm,n被分配到主题k下的数目,nk'表示被分配到主题k下所有词的数目,α为狄利克雷对称超参数;
对主题模型的主题-词分布进行初始化估计所使用的公式为式(3):
其中,表示初始化估计的主题-词分布,β表示狄利克雷对称超参数。
3.根据权利要求1所述的分析方法,其特征在于,在S4中,根据式(4)计算出该词属于每个主题的概率:
4.根据权利要求1所述的分析方法,其特征在于,在S6中,具体包括以下步骤:
S601、更新主题-词分布根据式(6)计算中每个分量的梯度;针对每个分量,定义其约束为
其中,表示从哈夫曼树根节点到叶子节点的路径长度(节点数目,包含根节点和叶子节点),表示该路径上节点i→i+1的哈夫曼编码,σ(x)=1/(1+e-x),表示该路径上第i个非叶子结点;
S602、更新词向量w:根据式(7)计算每个词的梯度,并利用辅助向量来更新;
S603、更新哈夫曼树非叶子结点辅助向量u:根据式(8)计算哈夫曼树路径上的非叶子结点向量u,使之能影响词向量w的训练质量;
5.根据权利要求1所述的分析方法,其特征在于,在S9中,所设定的阈值为0.6。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710067919.6A CN106909537B (zh) | 2017-02-07 | 2017-02-07 | 一种基于主题模型和向量空间的一词多义分析方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710067919.6A CN106909537B (zh) | 2017-02-07 | 2017-02-07 | 一种基于主题模型和向量空间的一词多义分析方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN106909537A true CN106909537A (zh) | 2017-06-30 |
CN106909537B CN106909537B (zh) | 2020-04-07 |
Family
ID=59208107
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710067919.6A Active CN106909537B (zh) | 2017-02-07 | 2017-02-07 | 一种基于主题模型和向量空间的一词多义分析方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN106909537B (zh) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108629009A (zh) * | 2018-05-04 | 2018-10-09 | 南京信息工程大学 | 基于FrankCopula函数的主题相关性建模方法 |
CN108920467A (zh) * | 2018-08-01 | 2018-11-30 | 北京三快在线科技有限公司 | 多义词词义学习方法及装置、搜索结果显示方法 |
CN108984526A (zh) * | 2018-07-10 | 2018-12-11 | 北京理工大学 | 一种基于深度学习的文档主题向量抽取方法 |
CN109376226A (zh) * | 2018-11-08 | 2019-02-22 | 合肥工业大学 | 投诉文本的分类模型、构建方法、系统、分类方法和系统 |
CN110134786A (zh) * | 2019-05-14 | 2019-08-16 | 南京大学 | 一种基于主题词向量与卷积神经网络的短文本分类方法 |
CN110705304A (zh) * | 2019-08-09 | 2020-01-17 | 华南师范大学 | 一种属性词提取方法 |
CN110717015A (zh) * | 2019-10-10 | 2020-01-21 | 大连理工大学 | 一种基于神经网络的多义词识别方法 |
CN112052334A (zh) * | 2020-09-02 | 2020-12-08 | 广州极天信息技术股份有限公司 | 一种文本释义方法、装置及存储介质 |
CN114065745A (zh) * | 2021-11-29 | 2022-02-18 | 平安资产管理有限责任公司 | 文档标题树的生成方法、系统、设备及可读存储介质 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20020022956A1 (en) * | 2000-05-25 | 2002-02-21 | Igor Ukrainczyk | System and method for automatically classifying text |
US20030217047A1 (en) * | 1999-03-23 | 2003-11-20 | Insightful Corporation | Inverse inference engine for high performance web search |
CN103207899A (zh) * | 2013-03-19 | 2013-07-17 | 新浪网技术(中国)有限公司 | 文本文件推荐方法及系统 |
CN103970730A (zh) * | 2014-04-29 | 2014-08-06 | 河海大学 | 一种从单个中文文本中提取多主题词的方法 |
JP5754018B2 (ja) * | 2011-07-11 | 2015-07-22 | 日本電気株式会社 | 多義語抽出システム、多義語抽出方法、およびプログラム |
-
2017
- 2017-02-07 CN CN201710067919.6A patent/CN106909537B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20030217047A1 (en) * | 1999-03-23 | 2003-11-20 | Insightful Corporation | Inverse inference engine for high performance web search |
US20020022956A1 (en) * | 2000-05-25 | 2002-02-21 | Igor Ukrainczyk | System and method for automatically classifying text |
JP5754018B2 (ja) * | 2011-07-11 | 2015-07-22 | 日本電気株式会社 | 多義語抽出システム、多義語抽出方法、およびプログラム |
CN103207899A (zh) * | 2013-03-19 | 2013-07-17 | 新浪网技术(中国)有限公司 | 文本文件推荐方法及系统 |
CN103970730A (zh) * | 2014-04-29 | 2014-08-06 | 河海大学 | 一种从单个中文文本中提取多主题词的方法 |
Non-Patent Citations (2)
Title |
---|
DEVORAH E.KLEIN ET AL: "The Representation of Polysemous Words", 《JOURNAL OF MEMORY AND LANGUAGE》 * |
曾琦 等: "一种多义词词向量计算方法", 《小型微型计算机系统》 * |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108629009A (zh) * | 2018-05-04 | 2018-10-09 | 南京信息工程大学 | 基于FrankCopula函数的主题相关性建模方法 |
CN108984526A (zh) * | 2018-07-10 | 2018-12-11 | 北京理工大学 | 一种基于深度学习的文档主题向量抽取方法 |
CN108920467A (zh) * | 2018-08-01 | 2018-11-30 | 北京三快在线科技有限公司 | 多义词词义学习方法及装置、搜索结果显示方法 |
CN109376226A (zh) * | 2018-11-08 | 2019-02-22 | 合肥工业大学 | 投诉文本的分类模型、构建方法、系统、分类方法和系统 |
CN110134786A (zh) * | 2019-05-14 | 2019-08-16 | 南京大学 | 一种基于主题词向量与卷积神经网络的短文本分类方法 |
CN110705304A (zh) * | 2019-08-09 | 2020-01-17 | 华南师范大学 | 一种属性词提取方法 |
CN110705304B (zh) * | 2019-08-09 | 2020-11-06 | 华南师范大学 | 一种属性词提取方法 |
CN110717015A (zh) * | 2019-10-10 | 2020-01-21 | 大连理工大学 | 一种基于神经网络的多义词识别方法 |
CN112052334A (zh) * | 2020-09-02 | 2020-12-08 | 广州极天信息技术股份有限公司 | 一种文本释义方法、装置及存储介质 |
CN112052334B (zh) * | 2020-09-02 | 2024-04-05 | 广州极天信息技术股份有限公司 | 一种文本释义方法、装置及存储介质 |
CN114065745A (zh) * | 2021-11-29 | 2022-02-18 | 平安资产管理有限责任公司 | 文档标题树的生成方法、系统、设备及可读存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN106909537B (zh) | 2020-04-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106909537B (zh) | 一种基于主题模型和向量空间的一词多义分析方法 | |
CN113792818B (zh) | 意图分类方法、装置、电子设备及计算机可读存储介质 | |
CN112214995B (zh) | 用于同义词预测的分层多任务术语嵌入学习 | |
Ganea et al. | Hyperbolic neural networks | |
CN109213995B (zh) | 一种基于双语词嵌入的跨语言文本相似度评估技术 | |
CN108733742B (zh) | 全局归一化阅读器系统和方法 | |
CN108920460B (zh) | 一种多类型实体识别的多任务深度学习模型的训练方法 | |
Teng et al. | Context-sensitive lexicon features for neural sentiment analysis | |
CN104834747B (zh) | 基于卷积神经网络的短文本分类方法 | |
CN110969020B (zh) | 基于cnn和注意力机制的中文命名实体识别方法、系统及介质 | |
CN104699763B (zh) | 多特征融合的文本相似性度量系统 | |
CN106202010B (zh) | 基于深度神经网络构建法律文本语法树的方法和装置 | |
CN111291556B (zh) | 基于实体义项的字和词特征融合的中文实体关系抽取方法 | |
CN110334219A (zh) | 基于注意力机制融入文本语义特征的知识图谱表示学习方法 | |
CN108628823A (zh) | 结合注意力机制和多任务协同训练的命名实体识别方法 | |
CN110704621A (zh) | 文本处理方法、装置及存储介质和电子设备 | |
CN114358007A (zh) | 多标签识别方法、装置、电子设备及存储介质 | |
CN110688489B (zh) | 基于交互注意力的知识图谱推演方法、装置和存储介质 | |
CN108874896B (zh) | 一种基于神经网络和幽默特征的幽默识别方法 | |
CN111274794B (zh) | 一种基于传递的同义词扩展方法 | |
CN112052684A (zh) | 电力计量的命名实体识别方法、装置、设备和存储介质 | |
Sadr et al. | Unified topic-based semantic models: a study in computing the semantic relatedness of geographic terms | |
WO2023004528A1 (zh) | 一种基于分布式系统的并行化命名实体识别方法及装置 | |
CN110765755A (zh) | 一种基于双重选择门的语义相似度特征提取方法 | |
CN106295690A (zh) | 基于非负矩阵分解的时间序列数据聚类方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |