CN107515856A - 一种基于局部信息表示的细粒度情感元素抽取方法 - Google Patents
一种基于局部信息表示的细粒度情感元素抽取方法 Download PDFInfo
- Publication number
- CN107515856A CN107515856A CN201710763500.4A CN201710763500A CN107515856A CN 107515856 A CN107515856 A CN 107515856A CN 201710763500 A CN201710763500 A CN 201710763500A CN 107515856 A CN107515856 A CN 107515856A
- Authority
- CN
- China
- Prior art keywords
- word
- vector
- model
- representation
- representing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 14
- 230000008451 emotion Effects 0.000 title abstract description 10
- 239000013598 vector Substances 0.000 claims abstract description 41
- 238000000605 extraction Methods 0.000 claims abstract description 35
- 230000014509 gene expression Effects 0.000 claims description 15
- 238000003062 neural network model Methods 0.000 claims description 13
- 230000002996 emotional effect Effects 0.000 claims description 6
- 239000000203 mixture Substances 0.000 claims description 6
- 230000002457 bidirectional effect Effects 0.000 claims description 4
- 238000011156 evaluation Methods 0.000 abstract description 35
- 230000006870 function Effects 0.000 abstract description 9
- 238000002372 labelling Methods 0.000 abstract description 5
- 238000013528 artificial neural network Methods 0.000 description 14
- 238000012549 training Methods 0.000 description 5
- 230000000306 recurrent effect Effects 0.000 description 4
- 238000010586 diagram Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 238000010801 machine learning Methods 0.000 description 3
- 238000004836 empirical method Methods 0.000 description 2
- 238000002474 experimental method Methods 0.000 description 2
- 238000003058 natural language processing Methods 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 238000010200 validation analysis Methods 0.000 description 2
- 235000006693 Cassia laevigata Nutrition 0.000 description 1
- 241000522641 Senna Species 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 125000004122 cyclic group Chemical group 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000012804 iterative process Methods 0.000 description 1
- 238000005065 mining Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 239000000843 powder Substances 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000012552 review Methods 0.000 description 1
- 229940124513 senna glycoside Drugs 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/284—Lexical analysis, e.g. tokenisation or collocates
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/35—Clustering; Classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/289—Phrasal analysis, e.g. finite state techniques or chunking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Evolutionary Computation (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Databases & Information Systems (AREA)
- Machine Translation (AREA)
Abstract
本发明为了解决现有的细粒度情感元素抽取方法当抽取评价对象时,不能很好地利用紧随其后的单词,导致短语词性判断错误、抽取结果缺漏较多,并且难以判断当前词是否是评价对象一部分的缺点,而提出一种基于局部信息表示的细粒度情感元素抽取方法,包括:将预设窗口大小中的每一个单词通过Lookup Table查找词特征的向量表示,将得到的词向量分别输入至LSTM模型中;并将得到的词向量组合为一个向量输入至前馈神经网络模型中;将LSTM模型隐层特征表示以及前馈神经网络模型的局部上下文特征表示进行拼接,得到拼接后的结果;将送入输出层使用softmax函数作标签分类。本发明适用于细粒度情感元素抽取工具。
Description
技术领域
本发明涉及细粒度情感元素抽取,具体涉及一种基于局部信息表示的细粒度情感元素抽取方法。
背景技术
细粒度情感元素抽取旨在从文本中抽取出评价持有者、评价对象和评价表达(如图1)。评价持有者是文本中发出观点的实体;评价表达是指文本中代表情绪、情感、意见或其他个人状态的主观表述,通常以形容词或形容词短语形式出现,如“漂亮”,“不大高兴”;评价对象是指文本中被讨论的主题,具体表现为文本中评价表达所修饰的对象。
由于产品评论和社交网络文本中大多带有明确的用户ID信息,因而对评价持有者抽取研究相对淡化,学术界将更多的精力放到评价对象抽取和评价表达抽取任务上。
目前用来抽取评价对象和评价表达的方法主要分为两类:
(1)基于句法规则匹配的方法。例如:Qiu等人[1]采用了一种称为双向传播的算法(double propagation),通过使用依存句法分析器获取情感词与评价对象的关系,并在两者之间传播信息,在迭代过程中对种子情感词进行Bootstraping来扩充情感词集并抽取出评价对象。
(2)基于有指导的机器学习算法。在基于机器学习的算法中,细粒度情感元素抽取通常被当作字符级别序列标注问题。具有代表性的机器学习算法包括基于特征的CRF算法[2]和基于神经网络的序列标注算法[3][4][5]。由于前者较为依赖专家编写的特征模板和手工情感词典等外部特征,并且领域通用性弱,基于神经网络的表示学习算法受到了更多的青睐,例如Irosy等人[3]将词向量特征应用到深层循环神经网络结构,用来抽取评价表达。Liu等人[4]在基于LSTM的循环神经网络中实验了多种类型的词向量特征,证明了其在评价对象抽取任务上的有效性。
通过观察LSTM循环神经网络的评价对象抽取结果,我们发现:一方面,它在抽取类似“set up”等存在一词多义的短语时,不能很好地利用紧随其后的单词信息(如“is”等be动词),导致短语词性判断错误、抽取结果缺漏较多;另一方面,由于评价对象一般较短,相邻词表征的局部信息对判断当前词是否是评价对象的一部分至关重要。
发明内容
本发明的目的是为了解决现有的细粒度情感元素抽取方法当抽取评价对象时,不能很好地利用紧随其后的单词,导致短语词性判断错误、抽取结果缺漏较多,并且难以判断当前词是否是评价对象一部分的缺点,而提出一种基于局部信息表示的细粒度情感元素抽取方法。
一种基于局部信息表示的细粒度情感元素抽取方法,包括:
步骤一、将预设窗口大小中的每一个单词通过Lookup Table查找词特征的向量表示,将得到的词向量分别输入至LSTM模型中;并将所述得到的词向量组合为一个向量输入至前馈神经网络模型中;
步骤二、将LSTM模型隐层特征表示ht以及前馈神经网络模型的局部上下文特征表示hlr进行拼接,得到拼接后的结果hcon:
hcon=[ht,hlr]
步骤三、将hcon送入输出层使用softmax函数作标签分类。
本发明还提供了另一种基于局部信息表示的细粒度情感元素抽取方法,包括:
步骤一、将预设窗口大小中的每一个单词通过Lookup Table查找词特征的向量表示,将得到的词向量分别输入至含有双向循环结构的BLSTM模型中;并将所述得到的词向量组合为一个向量输入至前馈神经网络模型中;
步骤二、将BLSTM模型隐层的正向特征表示和反向特征表示进行拼接组成隐层特征表示ht,并将隐层特征表示ht与前馈神经网络模型的局部上下文特征表示hlr进行拼接,得到拼接后的结果hcon:
hcon=[ht,hlr]
步骤三、将hcon送入输出层使用softmax函数作标签分类。
本发明的有益效果为:1、当抽取一词多义的短语时,考虑到短语的上下文,能够更为准确地判断词性,抽取结果的准确度更高;2、能够更准确地判断当前词是否是评价对象一部分;3、本发明当使用LSTM模型时,在Laptop数据集的F1值能够达到73.49;本发明当使用BLSTM模型时,在Restaurant数据集的F1值能够达到80.62。
附图说明
图1为针对例句“软粉告诉我,这次Win10创意者更新很酷”的抽取结果;
图2为具体实施方式一的基于局部信息表示的细粒度情感元素抽取方法的示意图;其中softmax表示用于作标签分类的函数;“Hidden”、“Linear”、“Lookup”、“Tanh”为LSTM模型和前馈神经网络中的相应层,属于领域内常用的表达形式;“Creator update is”是选用的英文例句中的连续三个单词。
图3为具体实施方式四的基于局部信息表示的细粒度情感元素抽取方法的示意图;
图4为具体实施方式一的流程图。
具体实施方式
具体实施方式一:本实施方式的基于局部信息表示的细粒度情感元素抽取方法,包括:
步骤一、将预设窗口大小中的每一个单词通过Lookup Table查找词特征的向量表示,将得到的词向量分别输入至LSTM模型中;并将所述得到的词向量组合为一个向量输入至前馈神经网络模型中;
步骤二、将LSTM模型隐层特征表示ht以及前馈神经网络模型的局部上下文特征表示hlr进行拼接,得到拼接后的结果hcon:
hcon=[ht,hlr]
步骤三、将hcon送入输出层使用softmax函数作标签分类,得到分类结果。
本文的方法也将评价对象抽取看作一个序列标注任务,即对每一个单词预测其是否为一个评价对象的一部分。模型首先使用一个LSTM循环网络来计算长距离文本依赖信息,对于每一个单词输入,获得其隐层输出的特征表示ht。同时,我们用一个单独的前馈神经网络来计算局部上下文特征表示hlr。模型的结构框图如图2所示:
最终,将两部分的隐层表示拼接为hcon。
hcon=[ht,hlr]
hcon作为充分考虑局部信息的当前词特征表示,被送入输出层使用softmax函数作标签分类。
需要说明的是,这里ht和hlr的过程可以分别独立进行,只在输出层结合,这意味着在训练过程中,当误差从输出层传播到前馈神经网络结构和LSTM神经网络结构时,可以对两种网络结构独立进行误差反向传播。
具体实施方式二:本实施方式与具体实施方式一不同的是:softmax函数中,每个标签计算结果P(yt=k|s,θ)的表达式为:
其中,表示最后一个隐含层到输出层的权重,k表示某一标签类别,K表示所有可能的标签集合,s,θ分别表示当前句子及模型参数,yt表示当前预测的标签结果。
其它步骤及参数与具体实施方式一相同。
具体实施方式三:本实施方式与具体实施方式一或二不同的是:预设窗口的大小为3。对于用来学习局部信息的前馈神经网络,试验了不同窗口大小的词向量输入,发现窗口大小为3(上一个词,当前词,下一个词)时抽取效果最优。所以对于局部信息表示模型,窗口大小统一设置为3。
其它步骤及参数与具体实施方式一或二相同。
具体实施方式四:本实施方式提供一种基于局部信息表示的细粒度情感元素抽取方法,包括:
步骤一、将预设窗口大小中的每一个单词通过Lookup Table查找词特征的向量表示,将得到的词向量分别输入至含有双向循环结构的BLSTM模型中;并将所述得到的词向量组合为一个向量输入至前馈神经网络模型中;
步骤二、将BLSTM模型隐层的正向特征表示和反向特征表示进行拼接组成隐层特征表示ht,并将隐层特征表示ht与前馈神经网络模型的局部上下文特征表示hlr进行拼接,得到拼接后的结果hcon:
hcon=[ht,hlr]
步骤三、将hcon送入输出层使用softmax函数作标签分类,得到分类结果。
本实施方式与具体实施方式一的不同之处在于,将LSTM模型替代为含有双向循环结构的BLSTM模型,相应地,其中,隐层特征表示ht是由BLSTM模型隐层的正向特征表示和反向特征表示进行拼接组成的。而前馈神经网络模型的部分不做改变。如图3所示。
具体实施方式五:本实施方式与具体实施方式一至四之一不同的是:
softmax函数中,每个标签计算结果P(yt=k|s,θ)的表达式为:
其中,表示最后一个隐含层到输出层的权重,k表示某一标签类别,K表示所有可能的标签集合,s,θ分别表示当前句子及模型参数,yt表示当前预测的标签结果。
其它步骤及参数与具体实施方式四相同。
具体实施方式六:本实施方式与具体实施方式四或五不同的是:预设窗口的大小为3。
其它步骤及参数与具体实施方式四或五相同。
<实施例>
一、实验数据及评价标准
本文使用 SemEval2014Aspect BasedSentimentAnalysis[6]提供的 Laptop 和
Restaurant数据集作为实验数据。数据集的大小如下表1所示:
表1:SemEval2014 ABSA任务数据集
我们采用了与SemEval2014评测任务相同的评价方法, 即根据评价对象标记完全匹配的情况时的F1值来评价抽取结果。候选评价对象只有与人工标注评价对象完全匹配时才算正确。
二、训练参数设置
实验中,我们使用了50维的Senna词向量和300维的Google词向量作为输入,并在训练过程中更新词向量。我们用UNKNOWN代替在训练数据中出现次数少于5次的单词,用DIGIT代替数字。对于用来学习局部信息的前馈神经网络,我们试验了不同窗口大小的词向量输入,发现窗口大小为3(上一个词,当前词,下一个词)时抽取效果最优。所以对于局部信息表示模型,窗口大小统一设置为3。
我们从训练集中随机匀出10%的数据作为验证集,我们选择在验证集上表现最好的模型分类测试数据。
三、实验结果
表2:基于LSTM的模型和CRF基准模型在SemEval2014 ABSA数据集的抽取结果的F1值
从表中可以看出,考虑了局部信息的LSTM+LR和BLSTM+LR的模型相比一般的LSTM模型在Laptop数据集上提升了0.09~0.77,在Restaurant数据集上提升了0.73~1.1不等。表3:普通LSTM模型(LSTM)和融合局部信息表示的LSTM模型(LSTM+LR)抽取结果。[]表示抽取出的评价对象
通过观察对比不同模型的抽取结果,我们发现考虑了局部信息表示的模型能很好地解决上文提到的“set up”、“track pad”类型的问题。
本文针对评价对象抽取任务,提出了基于局部信息表示的LSTM循环神经网络的序列标注模型,通过额外使用一个前馈神经网络自动学习局部信息表示来提升抽取效果,并在SemEval2014数据集上验证了模型的有效性。
虽然本发明只在评价对象抽取任务上进行了实验,但是本发明的模型同样可以应用在评价表达抽取任务上。
本发明还可有其它多种实施例,在不背离本发明精神及其实质的情况下,本领域技术人员当可根据本发明作出各种相应的改变和变形,但这些相应的改变和变形都应属于本发明所附的权利要求的保护范围。
参考文献
[1]Qiu G, Liu B, Bu J, et al. Opinion word expansion and targetextraction throughdouble propagation[J]. Computational linguistics, 2011, 37(1): 9-27.
[2]Choi Y, Cardie C, Rilo E, et al. Identifying sources of opinionswith conditionalrandom fields and extraction patterns[C]//Proceedings of theconference on Human
Language Technology and Empirical Methods in Natural LanguageProcessing.Association for Computational Linguistics, 2005: 355-362.
[3]Irsoy O, and Claire C. Opinion Mining with Deep Recurrent NeuralNetworks[C]//Conference on Empirical Methods in Natural Language Processing(EMNLP 2014). 2014.
[4]Liu P, Joty S, Meng H. Fine-grained opinion mining with recurrentneural networksand word embeddings[C]//Conference on Empirical Methods inNatural Language Processing (EMNLP 2015). 2015.
[5]Mesnil G, He X, Deng L, et al. Investigation of recurrent-neural-network architectures and learning methods for spoken language understanding[C]//INTERSPEECH. 2013: 3771-3775.
[6]Pontiki M, Galanis D, Pavlopoulos J, et al. Semeval-2014 task 4:Aspect basedsentiment analysis[C]//Proceedings of the 8th internationalworkshop on semantic evaluation (SemEval 2014). 2014: 27-35.
Claims (6)
1.一种基于局部信息表示的细粒度情感元素抽取方法,其特征在于,包括:
步骤一、将预设窗口大小中的每一个单词通过Lookup Table查找词特征的向量表示,将得到的词向量分别输入至LSTM模型中;并将所述得到的词向量组合为一个向量输入至前馈神经网络模型中;
步骤二、将LSTM模型隐层特征表示ht以及前馈神经网络模型的局部上下文特征表示hlr进行拼接,得到拼接后的结果hcon:
hcon=[ht,hlr]
步骤三、将hcon送入输出层使用softmax函数作标签分类,得到分类结果。
2.根据权利要求1所述的基于局部信息表示的细粒度情感元素抽取方法,其特征在于,softmax函数中,每个标签计算结果P(yt=k|s,θ)的表达式为:
<mrow>
<mi>P</mi>
<mrow>
<mo>(</mo>
<msub>
<mi>y</mi>
<mi>t</mi>
</msub>
<mo>=</mo>
<mi>k</mi>
<mo>|</mo>
<mi>s</mi>
<mo>,</mo>
<mi>&theta;</mi>
<mo>)</mo>
</mrow>
<mo>=</mo>
<mfrac>
<mrow>
<mi>exp</mi>
<mrow>
<mo>(</mo>
<msubsup>
<mi>W</mi>
<mi>k</mi>
<mi>t</mi>
</msubsup>
<msub>
<mi>h</mi>
<mrow>
<mi>c</mi>
<mi>o</mi>
<mi>n</mi>
</mrow>
</msub>
<mo>)</mo>
</mrow>
</mrow>
<mrow>
<msubsup>
<mi>&Sigma;</mi>
<mrow>
<mi>k</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<mi>K</mi>
</msubsup>
<mi>exp</mi>
<mrow>
<mo>(</mo>
<msubsup>
<mi>W</mi>
<mi>k</mi>
<mi>t</mi>
</msubsup>
<msub>
<mi>h</mi>
<mrow>
<mi>c</mi>
<mi>o</mi>
<mi>n</mi>
</mrow>
</msub>
<mo>)</mo>
</mrow>
</mrow>
</mfrac>
</mrow>
其中,表示最后一个隐含层到输出层的权重,k表示某一标签类别,K表示所有可能的标签集合,s,θ分别表示当前句子及模型参数,yt表示当前预测的标签结果。
3.根据权利要求1或2所述的基于局部信息表示的细粒度情感元素抽取方法,其特征在于,所述预设窗口的大小为3。
4.一种基于局部信息表示的细粒度情感元素抽取方法,其特征在于,包括:
步骤一、将预设窗口大小中的每一个单词通过Lookup Table查找词特征的向量表示,将得到的词向量分别输入至含有双向循环结构的BLSTM模型中;并将所述得到的词向量组合为一个向量输入至前馈神经网络模型中;
步骤二、将BLSTM模型隐层的正向特征表示和反向特征表示进行拼接组成隐层特征表示ht,并将隐层特征表示ht与前馈神经网络模型的局部上下文特征表示hlr进行拼接,得到拼接后的结果hcon:
hcon=[ht,hlr]
步骤三、将hcon送入输出层使用softmax函数作标签分类,得到分类结果。
5.根据权利要求4所述的基于局部信息表示的细粒度情感元素抽取方法,其特征在于,softmax函数中,每个标签计算结果P(yt=k|s,θ)的表达式为:
<mrow>
<mi>P</mi>
<mrow>
<mo>(</mo>
<msub>
<mi>y</mi>
<mi>t</mi>
</msub>
<mo>=</mo>
<mi>k</mi>
<mo>|</mo>
<mi>s</mi>
<mo>,</mo>
<mi>&theta;</mi>
<mo>)</mo>
</mrow>
<mo>=</mo>
<mfrac>
<mrow>
<mi>exp</mi>
<mrow>
<mo>(</mo>
<msubsup>
<mi>W</mi>
<mi>k</mi>
<mi>t</mi>
</msubsup>
<msub>
<mi>h</mi>
<mrow>
<mi>c</mi>
<mi>o</mi>
<mi>n</mi>
</mrow>
</msub>
<mo>)</mo>
</mrow>
</mrow>
<mrow>
<msubsup>
<mi>&Sigma;</mi>
<mrow>
<mi>k</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<mi>K</mi>
</msubsup>
<mi>exp</mi>
<mrow>
<mo>(</mo>
<msubsup>
<mi>W</mi>
<mi>k</mi>
<mi>t</mi>
</msubsup>
<msub>
<mi>h</mi>
<mrow>
<mi>c</mi>
<mi>o</mi>
<mi>n</mi>
</mrow>
</msub>
<mo>)</mo>
</mrow>
</mrow>
</mfrac>
</mrow>
其中,表示最后一个隐含层到输出层的权重,k表示某一标签类别,K表示所有可能的标签集合,s,θ分别表示当前句子及模型参数,yt表示当前预测的标签结果。
6.根据权利要求4或5所述的基于局部信息表示的细粒度情感元素抽取方法,其特征在于,所述预设窗口的大小为3。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710763500.4A CN107515856A (zh) | 2017-08-30 | 2017-08-30 | 一种基于局部信息表示的细粒度情感元素抽取方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710763500.4A CN107515856A (zh) | 2017-08-30 | 2017-08-30 | 一种基于局部信息表示的细粒度情感元素抽取方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN107515856A true CN107515856A (zh) | 2017-12-26 |
Family
ID=60724663
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710763500.4A Pending CN107515856A (zh) | 2017-08-30 | 2017-08-30 | 一种基于局部信息表示的细粒度情感元素抽取方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107515856A (zh) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108121823A (zh) * | 2018-01-11 | 2018-06-05 | 哈尔滨工业大学 | Babbling情感对话生成系统及方法 |
CN108520530A (zh) * | 2018-04-12 | 2018-09-11 | 厦门大学 | 基于长短时记忆网络的目标跟踪方法 |
CN108628834A (zh) * | 2018-05-14 | 2018-10-09 | 国家计算机网络与信息安全管理中心 | 一种基于句法依存关系的词语表示学习方法 |
CN109271627A (zh) * | 2018-09-03 | 2019-01-25 | 深圳市腾讯网络信息技术有限公司 | 文本分析方法、装置、计算机设备和存储介质 |
CN109815996A (zh) * | 2019-01-07 | 2019-05-28 | 北京首钢自动化信息技术有限公司 | 一种基于循环神经网络的场景自适配方法及装置 |
CN110083836A (zh) * | 2019-04-24 | 2019-08-02 | 哈尔滨工业大学 | 一种文本预测结果的关键证据抽取方法 |
CN110991161A (zh) * | 2018-09-30 | 2020-04-10 | 北京国双科技有限公司 | 相似文本确定方法、神经网络模型获得方法及相关装置 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103995803A (zh) * | 2014-04-25 | 2014-08-20 | 西北工业大学 | 一种细粒度文本情感分析方法 |
CN106599933A (zh) * | 2016-12-26 | 2017-04-26 | 哈尔滨工业大学 | 一种基于联合深度学习模型的文本情感分类方法 |
US20170150235A1 (en) * | 2015-11-20 | 2017-05-25 | Microsoft Technology Licensing, Llc | Jointly Modeling Embedding and Translation to Bridge Video and Language |
CN107092596A (zh) * | 2017-04-24 | 2017-08-25 | 重庆邮电大学 | 基于attention CNNs和CCR的文本情感分析方法 |
-
2017
- 2017-08-30 CN CN201710763500.4A patent/CN107515856A/zh active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103995803A (zh) * | 2014-04-25 | 2014-08-20 | 西北工业大学 | 一种细粒度文本情感分析方法 |
US20170150235A1 (en) * | 2015-11-20 | 2017-05-25 | Microsoft Technology Licensing, Llc | Jointly Modeling Embedding and Translation to Bridge Video and Language |
CN106599933A (zh) * | 2016-12-26 | 2017-04-26 | 哈尔滨工业大学 | 一种基于联合深度学习模型的文本情感分类方法 |
CN107092596A (zh) * | 2017-04-24 | 2017-08-25 | 重庆邮电大学 | 基于attention CNNs和CCR的文本情感分析方法 |
Non-Patent Citations (1)
Title |
---|
哈工大SCIR 袁建华: "基于局部信息表示的细粒度情感元素抽取", 《机器之心网站:HTTPS://WWW.JIQIZHIXIN.COM/ARTICLES/2017-05-08-5》 * |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108121823A (zh) * | 2018-01-11 | 2018-06-05 | 哈尔滨工业大学 | Babbling情感对话生成系统及方法 |
CN108520530A (zh) * | 2018-04-12 | 2018-09-11 | 厦门大学 | 基于长短时记忆网络的目标跟踪方法 |
CN108520530B (zh) * | 2018-04-12 | 2020-01-14 | 厦门大学 | 基于长短时记忆网络的目标跟踪方法 |
CN108628834A (zh) * | 2018-05-14 | 2018-10-09 | 国家计算机网络与信息安全管理中心 | 一种基于句法依存关系的词语表示学习方法 |
CN108628834B (zh) * | 2018-05-14 | 2022-04-15 | 国家计算机网络与信息安全管理中心 | 一种基于句法依存关系的词语表示学习方法 |
CN109271627A (zh) * | 2018-09-03 | 2019-01-25 | 深圳市腾讯网络信息技术有限公司 | 文本分析方法、装置、计算机设备和存储介质 |
CN109271627B (zh) * | 2018-09-03 | 2023-09-05 | 深圳市腾讯网络信息技术有限公司 | 文本分析方法、装置、计算机设备和存储介质 |
CN110991161A (zh) * | 2018-09-30 | 2020-04-10 | 北京国双科技有限公司 | 相似文本确定方法、神经网络模型获得方法及相关装置 |
CN109815996A (zh) * | 2019-01-07 | 2019-05-28 | 北京首钢自动化信息技术有限公司 | 一种基于循环神经网络的场景自适配方法及装置 |
CN109815996B (zh) * | 2019-01-07 | 2021-05-04 | 北京首钢自动化信息技术有限公司 | 一种基于循环神经网络的场景自适配方法及装置 |
CN110083836A (zh) * | 2019-04-24 | 2019-08-02 | 哈尔滨工业大学 | 一种文本预测结果的关键证据抽取方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107609132B (zh) | 一种基于语义本体库中文文本情感分析方法 | |
CN107515856A (zh) | 一种基于局部信息表示的细粒度情感元素抽取方法 | |
Mulang' et al. | Evaluating the impact of knowledge graph context on entity disambiguation models | |
CN111241294A (zh) | 基于依赖解析和关键词的图卷积网络的关系抽取方法 | |
US20150170051A1 (en) | Applying a Genetic Algorithm to Compositional Semantics Sentiment Analysis to Improve Performance and Accelerate Domain Adaptation | |
Bartle et al. | Gender classification with deep learning | |
CN113312922B (zh) | 一种改进的篇章级三元组信息抽取方法 | |
CN112818698B (zh) | 一种基于双通道模型的细粒度的用户评论情感分析方法 | |
CN110321434A (zh) | 一种基于词义消歧卷积神经网络的文本分类方法 | |
Wu et al. | BERT for sentiment classification in software engineering | |
CN112434164A (zh) | 一种兼顾话题发现和情感分析的网络舆情分析方法及系统 | |
Samih et al. | Enhanced sentiment analysis based on improved word embeddings and XGboost. | |
CN108694176B (zh) | 文档情感分析的方法、装置、电子设备和可读存储介质 | |
Fei et al. | GFMRC: A machine reading comprehension model for named entity recognition | |
CN114138969A (zh) | 文本处理方法及装置 | |
Yusuf et al. | Sentiment Analysis in Low-Resource Settings: A Comprehensive Review of Approaches, Languages, and Data Sources | |
Sharma et al. | Lexicon a linguistic approach for sentiment classification | |
Douka et al. | Sentiment Analysis with the Use of Transformers and BERT | |
Sadanandan et al. | Improving accuracy in sentiment analysis for Malay language | |
Sharma et al. | Sarcasm Detection on News Headline Dataset Using Language Models | |
CN107729509A (zh) | 基于隐性高维分布式特征表示的篇章相似度判定方法 | |
JP2013109738A (ja) | 意味ラベル付与モデル学習装置、意味ラベル付与装置、意味ラベル付与モデル学習方法、及びプログラム | |
Tanwar et al. | Deep Natural Language Processing and AI Applications for Industry 5.0 | |
Ameer et al. | Hybrid Deep Neural Networks for Improved Sentiment Analysis in Social Media | |
Chaitanya et al. | A sentiment analysis approach by identifying the subject object relationship |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20171226 |