KR102131641B1 - Detection metohd of fake news using grammatic transformation on neural network, computer readable medium and apparatus for performing the method - Google Patents
Detection metohd of fake news using grammatic transformation on neural network, computer readable medium and apparatus for performing the method Download PDFInfo
- Publication number
- KR102131641B1 KR102131641B1 KR1020180152658A KR20180152658A KR102131641B1 KR 102131641 B1 KR102131641 B1 KR 102131641B1 KR 1020180152658 A KR1020180152658 A KR 1020180152658A KR 20180152658 A KR20180152658 A KR 20180152658A KR 102131641 B1 KR102131641 B1 KR 102131641B1
- Authority
- KR
- South Korea
- Prior art keywords
- sentence
- news
- vector
- neural network
- propositional
- Prior art date
Links
- 238000013528 artificial neural network Methods 0.000 title claims abstract description 88
- 238000000034 method Methods 0.000 title claims abstract description 32
- 230000009466 transformation Effects 0.000 title claims abstract description 25
- 238000001514 detection method Methods 0.000 title 1
- 239000013598 vector Substances 0.000 claims abstract description 128
- 238000003058 natural language processing Methods 0.000 claims abstract description 18
- 230000006870 function Effects 0.000 claims description 19
- 230000004048 modification Effects 0.000 claims description 14
- 238000012986 modification Methods 0.000 claims description 14
- 230000007246 mechanism Effects 0.000 claims description 10
- 230000006403 short-term memory Effects 0.000 claims description 9
- 238000004590 computer program Methods 0.000 claims description 2
- 238000013135 deep learning Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 238000012545 processing Methods 0.000 description 2
- 230000015654 memory Effects 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 238000012216 screening Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/205—Parsing
- G06F40/226—Validation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- General Engineering & Computer Science (AREA)
- Biomedical Technology (AREA)
- Evolutionary Computation (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Data Mining & Analysis (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Machine Translation (AREA)
Abstract
신경망 상의 문법 변형을 이용한 가짜뉴스 탐색 방법, 이를 수행하기 위한 기록매체 및 장치가 개시된다. 신경망 상의 문법 변형을 이용한 가짜뉴스 탐색 방법 은 뉴스 문장에 의해 참 또는 거짓이 판별되는 명제(proposition) 문장을 단어(word) 벡터로 임베딩하는 단계, 상기 단어 벡터를 소정의 자연어 처리 신경망에 입력하여 컨텍스트(context) 벡터를 생성하는 단계, 상기 컨텍스트 벡터를 소정의 자연어 처리 신경망에 입력하여 상기 명제 문장과 의미는 동일하되 문법이 다른 문장인 후보 문장을 생성하는 단계 및 상기 후보 문장과 상기 뉴스 문장을 비교하여 상기 명제 문장의 참 또는 거짓을 판별하고 상기 뉴스 문장이 가짜뉴스에 해당하는지를 탐색하는 단계를 포함한다.Disclosed is a method for searching for fake news using grammatical transformation on a neural network, and a recording medium and apparatus for performing the same. The method of searching for fake news using grammatical transformation on a neural network includes embedding a proposition sentence in which a true or false is determined by a news sentence as a word vector, and inputting the word vector into a predetermined natural language processing neural network to context (context) generating a vector, inputting the context vector into a predetermined natural language processing neural network, generating a candidate sentence having the same meaning but different grammar, and comparing the candidate sentence with the news sentence And determining whether the propositional sentence is true or false and searching whether the news sentence corresponds to fake news.
Description
본 발명은 신경망 상의 문법 변형을 이용한 가짜뉴스 탐색 방법, 이를 수행하기 위한 기록매체 및 장치에 관한 것으로, 보다 상세하게는 딥러닝에 기반하여 문장을 생성하고, 이를 이용하여 뉴스의 진위 여부를 판별하는 신경망 상의 문법 변형을 이용한 가짜뉴스 탐색 방법, 이를 수행하기 위한 기록매체 및 장치에 관한 것이다.The present invention relates to a fake news search method using a grammatical modification on a neural network, a recording medium and a device for performing the same, and more specifically, to generate a sentence based on deep learning, and to use this to determine whether the news is authentic The present invention relates to a method for searching for fake news using grammatical transformation on a neural network, and a recording medium and device for performing the same.
고속 이동통신망 및 스마트폰이 널리 보급된 모바일 시대가 도래하면서, 각종 사회관계망서비스(SNS)의 사용이 급속도로 증가하고 있다. 특히, 근래에 들어 블로그(blog), 카카오톡(KakaoTalk), 라인(Line), 페이스북(Facebook), 트위터(Twitter), 인스타그램(Instagram) 및 텀블러(Tumblr)와 같은 SNS의 사용이 급증하면서, 각종 SNS를 통한 정보 또는 뉴스의 전달 역시 폭발적으로 증가하고 있다.With the advent of the mobile era in which high-speed mobile communication networks and smartphones are widely spread, the use of various social networking services (SNS) is rapidly increasing. In particular, in recent years, the use of SNS such as blogs, KakaoTalk, Line, Facebook, Twitter, Instagram and Tumblr has skyrocketed. Meanwhile, the delivery of information or news through various SNS is also explosively increasing.
그러나, 선거와 같은 정치적 행사가 있을 때마다 각종 SNS를 통해 잘못된 정보 또는 뉴스가 퍼지는 경우 또한 적지 않게 발생하는 것이 현실이다. 또한, 더욱 심각한 것은 특정한 목적을 가지고 의도적으로 각종 SNS를 통해 잘못된 정보 또는 뉴스를 전파하는 경우도 빈번히 발생하고 있다는 점인데, 이와 같은 이유로 SNS를 통한 정보 또는 뉴스의 전달이 향후 중요한 사회적 문제가 될 가능성이 높다고 볼 수 있다.However, it is also a reality that whenever there is a political event such as an election, a lot of misinformation or news spread through various SNS. In addition, more seriously, it is a frequent occurrence of misinformation or news propagation through various SNS intentionally for a specific purpose. For this reason, the delivery of information or news through SNS may become an important social issue in the future. It can be said that this is high.
한편 위와 같이 특정한 목적을 가지고 의도적으로 조작된 뉴스인 가짜뉴스는 대부분 사람에 의해 탐색되고, 그 진위 여부가 판별된다. 이는 많은 시간과 노력을 필요로 하므로, 사람의 판단을 요구하지 않으며, 가짜뉴스를 실시간으로 선별할 수 있는 새로운 가짜뉴스 탐색 모델이 필요한 실정이다.On the other hand, fake news, which is news deliberately manipulated with a specific purpose as described above, is mostly searched by a person, and the authenticity is determined. This requires a lot of time and effort, so it does not require human judgment and requires a new fake news search model that can select fake news in real time.
본 발명은 딥러닝에 기반하여 명제(proposition) 문장의 문법을 변형시킨 후보 문장을 생성하고, 후보 문장과 뉴스 문장을 비교하여 뉴스의 진위 여부를 판별하는 신경망 상의 문법 변형을 이용한 가짜뉴스 탐색 방법, 이를 수행하기 위한 기록매체 및 장치를 제공한다. The present invention generates a candidate sentence that modifies the grammar of a proposition sentence based on deep learning, and compares the candidate sentence with the news sentence to search for fake news using a grammar modification on the neural network to determine whether the news is authentic or not. Provided is a recording medium and apparatus for performing this.
본 발명에 따른 신경망 상의 문법 변형을 이용한 가짜뉴스 탐색 방법은 뉴스 문장에 의해 참 또는 거짓이 판별되는 명제(proposition) 문장을 단어(word) 벡터로 임베딩하는 단계, 상기 단어 벡터를 소정의 자연어 처리 신경망에 입력하여 컨텍스트(context) 벡터를 생성하는 단계, 상기 컨텍스트 벡터를 소정의 자연어 처리 신경망에 입력하여 상기 명제 문장과 의미는 동일하되 문법이 다른 문장인 후보 문장을 생성하는 단계 및 상기 후보 문장과 상기 뉴스 문장을 비교하여 상기 명제 문장의 참 또는 거짓을 판별하고 상기 뉴스 문장이 가짜뉴스에 해당하는지를 탐색하는 단계를 포함한다.The method of searching for fake news using grammatical transformation on the neural network according to the present invention includes embedding a proposition sentence in which a true or false is determined by a news sentence into a word vector, and the neural network processing the word vector into a predetermined natural language Generating a context vector by inputting it into a context vector, generating the candidate sentence which is a sentence having the same meaning but different grammar by inputting the context vector into a predetermined natural language processing neural network, and the candidate sentence and the And comparing the news sentences to determine whether the propositional sentence is true or false and searching whether the news sentence corresponds to fake news.
한편, 상기 뉴스 문장에 의해 참 또는 거짓이 판별되는 명제(proposition) 문장을 단어(word) 벡터로 임베딩하는 단계는, 원-핫 인코딩(One-hot encoding) 방식을 이용하여 상기 명제 문장을 구성하는 각 단어들을 벡터로 변환하는 단계를 포함할 수 있다.Meanwhile, the step of embedding a proposition sentence in which a true or false is determined by the news sentence into a word vector comprises constructing the proposition sentence using a one-hot encoding method. And converting each word into a vector.
또한, 상기 단어 벡터를 소정의 자연어 처리 신경망에 입력하여 컨텍스트(context) 벡터를 생성하는 단계는, 상기 단어 벡터를 LSTM(Long Short Term Memory) 신경망에 입력하여 상기 컨텍스트 벡터를 생성하는 단계를 포함할 수 있다.In addition, inputting the word vector into a predetermined natural language processing neural network to generate a context vector may include inputting the word vector into an LSTM (Long Short Term Memory) neural network to generate the context vector. Can.
또한, 상기 컨텍스트 벡터를 소정의 자연어 처리 신경망에 입력하여 상기 명제 문장과 의미는 동일하되 문법이 다른 문장인 후보 문장을 생성하는 단계는, 시퀀스-투-시퀀스(sequence to sequence) 학습 모델의 어텐션 매커니즘에 따라 상기 컨텍스트 벡터의 가중 합(Weighted sum)을 계산하여 어텐션(attention) 벡터를 생성하는 단계, 상기 어텐션 벡터와 상기 컨텍스트 벡터의 생성 시 발생하는 히든 스테이트(hidden state) 벡터를 비교하여 매칭 벡터를 예측하는 단계 및 상기 매칭 벡터를 LSTM(Long Short Term Memory) 신경망에 입력하여 상기 후보 문장을 생성하는 단계를 포함할 수 있다.In addition, the step of generating a candidate sentence that is a sentence having the same meaning but a different grammar by inputting the context vector into a predetermined natural language processing neural network is a mechanism for attracting a sequence-to-sequence learning model. Generating an attention vector by calculating a weighted sum of the context vector according to the comparison, and comparing the attention vector and a hidden state vector generated when the context vector is generated to compare a matching vector The predicting step and inputting the matching vector into a LSTM (Long Short Term Memory) neural network may include generating the candidate sentence.
또한, 상기 후보 문장과 상기 뉴스 문장을 비교하여 상기 명제 문장의 참 또는 거짓을 판별하고 상기 뉴스 문장이 가짜뉴스에 해당하는지를 탐색하는 단계는, 상기 후보 문장을 구성하는 각 단어에 해당하는 벡터를 시퀀스-투-시퀀스(sequence to sequence) 학습 모델의 소프트맥스(softmax) 함수에 입력하여 주어진 개수의 단어를 선정 및 출력하는 단계, 빔 서치 디코더를 이용하여 상기 소프트맥스(softmax) 함수의 출력 단어를 조합한 최종 후보 문장을 생성하는 단계 및 상기 최종 후보 문장과 상기 뉴스 문장을 비교하여 상기 명제 문장의 참 또는 거짓을 판별하고 상기 뉴스 문장이 가짜뉴스에 해당하는지를 탐색하는 단계를 포함할 수 있다.Further, comparing the candidate sentence and the news sentence to determine whether the propositional sentence is true or false, and searching for whether the news sentence corresponds to fake news, sequences of vectors corresponding to each word constituting the candidate sentence Selecting and outputting a given number of words by inputting to a softmax function of a sequence to sequence learning model, and combining output words of the softmax function using a beam search decoder And generating a final candidate sentence and comparing the final candidate sentence with the news sentence to determine true or false of the propositional sentence and searching for whether the news sentence corresponds to fake news.
또한, 상기 최종 후보 문장과 상기 뉴스 문장을 비교하여 상기 명제 문장의 참 또는 거짓을 판별하고 상기 뉴스 문장이 가짜뉴스에 해당하는지를 탐색하는 단계는, 상기 최종 후보 문장 및 상기 뉴스 문장을 임베딩하는 단계, 임베딩한 상기 최종 후보 문장 및 상기 뉴스 문장의 코사인 유사도를 계산하는 단계 및 상기 코사인 유사도를 이용하여 상기 뉴스 문장에 의한 상기 명제 문장의 참 또는 거짓을 판별하는 단계를 포함할 수 있다.In addition, comparing the final candidate sentence with the news sentence to determine whether the propositional sentence is true or false and searching for whether the news sentence corresponds to fake news includes embedding the final candidate sentence and the news sentence, Computing the cosine similarity between the embedded final candidate sentence and the news sentence, and determining whether the propositional sentence is true or false by using the cosine similarity.
또한, 상기 신경망 상의 문법 변형을 이용한 가짜뉴스 탐색 방법을 수행하기 위한, 컴퓨터 프로그램이 기록된 컴퓨터로 판독 가능한 기록 매체일 수 있다.In addition, a computer-readable recording medium having a computer program recorded thereon may be used to perform a method for searching for fake news using a grammar modification on the neural network.
한편, 본 발명에 따른 신경망 상의 문법 변형을 이용한 가짜뉴스 탐색 장치는 뉴스 문장에 의해 참 또는 거짓이 판별되는 명제(proposition) 문장을 단어(word) 벡터로 임베딩하는 단어 임베딩부, 상기 단어 벡터를 소정의 자연어 처리 신경망에 입력하여 컨텍스트(context) 벡터를 생성하는 컨텍스트 생성부, 상기 컨텍스트 벡터를 소정의 자연어 처리 신경망에 입력하여 상기 명제 문장과 의미는 동일하되 문법이 다른 문장인 후보 문장을 생성하는 매칭부 및 상기 후보 문장과 상기 뉴스 문장을 비교하여 상기 명제 문장의 참 또는 거짓을 판별하고 상기 뉴스 문장이 가짜뉴스에 해당하는지를 탐색하는 추론부를 포함한다.On the other hand, the fake news search apparatus using the grammar transformation on the neural network according to the present invention is a word embedding unit that embeds a proposition sentence in which a true or false is determined by a news sentence as a word vector, and the word vector is predetermined Matching to generate a context vector by inputting into the natural language processing neural network of the unit, and matching to generate a candidate sentence that has the same meaning as the propositional sentence but having a different grammar by inputting the context vector into a predetermined natural language processing neural network And a reasoning unit for comparing the candidate sentence and the news sentence to determine whether the propositional sentence is true or false, and searching whether the news sentence corresponds to fake news.
한편, 상기 단어 임베딩부는, 원-핫 인코딩(One-hot encoding) 방식을 이용하여 상기 명제 문장을 구성하는 각 단어들을 벡터로 변환할 수 있다.Meanwhile, the word embedding unit may convert each word constituting the proposition sentence into a vector using a one-hot encoding method.
또한, 상기 컨텍스트 생성부는, 상기 단어 벡터를 LSTM(Long Short Term Memory) 신경망에 입력하여 상기 컨텍스트 벡터를 생성할 수 있다.Also, the context generation unit may generate the context vector by inputting the word vector into a LSTM (Long Short Term Memory) neural network.
또한, 상기 매칭부는, 시퀀스-투-시퀀스(sequence to sequence) 학습 모델의 어텐션 매커니즘에 따라 상기 컨텍스트 벡터의 가중 합(Weighted sum)을 계산하여 어텐션(attention) 벡터를 생성하고, 상기 어텐션 벡터와 상기 컨텍스트 벡터의 생성 시 발생하는 히든 스테이트(hidden state) 벡터를 비교하여 매칭 벡터를 예측하며, 상기 매칭 벡터를 LSTM(Long Short Term Memory) 신경망에 입력하여 상기 후보 문장을 생성할 수 있다.In addition, the matching unit calculates a weighted sum of the context vector according to the attention mechanism of the sequence-to-sequence learning model to generate an attention vector, and the attention vector and the A matching vector is predicted by comparing a hidden state vector generated when the context vector is generated, and the candidate sentence can be generated by inputting the matching vector into an LSTM (Long Short Term Memory) neural network.
또한, 상기 추론부는, 상기 후보 문장을 구성하는 각 단어에 해당하는 벡터를 시퀀스-투-시퀀스(sequence to sequence) 학습 모델의 소프트맥스(softmax) 함수에 입력하여 주어진 개수의 단어를 선정 및 출력하고, 빔 서치 디코더를 이용하여 상기 소프트맥스(softmax) 함수의 출력 단어를 조합한 최종 후보 문장을 생성하며, 상기 최종 후보 문장과 상기 뉴스 문장을 비교하여 상기 명제 문장의 참 또는 거짓을 판별하고 상기 뉴스 문장이 가짜뉴스에 해당하는지를 탐색할 수 있다.In addition, the inference unit selects and outputs a given number of words by inputting a vector corresponding to each word constituting the candidate sentence into a softmax function of a sequence-to-sequence learning model. , Generates a final candidate sentence combining the output words of the softmax function using a beam search decoder, compares the final candidate sentence with the news sentence to determine true or false of the propositional sentence, and determines the news You can search whether the sentence corresponds to fake news.
또한, 상기 추론부는, 상기 최종 후보 문장 및 상기 뉴스 문장을 임베딩하고, 임베딩한 상기 최종 후보 문장 및 상기 뉴스 문장의 코사인 유사도를 계산하며, 상기 코사인 유사도를 이용하여 상기 뉴스 문장에 의한 상기 명제 문장의 참 또는 거짓을 판별할 수 있다.In addition, the inference unit embeds the final candidate sentence and the news sentence, calculates cosine similarity between the embedded final candidate sentence and the news sentence, and uses the cosine similarity to determine the propositional sentence by the news sentence. You can discriminate between true and false.
본 발명에 따르면 사람의 판단을 필요로 하지 않으며, 실시간으로 가짜뉴스의 선별 처리가 가능하다. 아울러, 가짜뉴스를 선별함으로써 가짜뉴스가 전파되지 않도록 하여 가짜뉴스로부터 야기될 수 있는 사회적 혼란을 예방할 수 있다.According to the present invention, no human judgment is required, and real-time fake news screening is possible. In addition, by selecting fake news, it is possible to prevent the spread of fake news and prevent social confusion that may arise from fake news.
도 1은 본 발명의 일 실시예에 따른 신경망 상의 문법 변형을 이용한 가짜뉴스 탐색 장치의 블록도이다.
도 2는 도 1에 도시된 본 발명의 일 실시예에 따른 신경망 상의 문법 변형을 이용한 가짜뉴스 탐색 장치에 의해 구성되는 LSTM 기반의 시퀀스-투-시퀀스(sequence to sequence) 학습 모델을 보여주는 도면이다.
도 3은 본 발명의 일 실시예에 따른 신경망 상의 문법 변형을 이용한 가짜뉴스 탐색 방법의 흐름도이다.1 is a block diagram of a fake news search apparatus using grammar transformation on a neural network according to an embodiment of the present invention.
FIG. 2 is a diagram illustrating an LSTM-based sequence-to-sequence learning model constructed by a fake news search apparatus using grammar transformation on a neural network according to an embodiment of the present invention shown in FIG. 1.
3 is a flowchart of a fake news search method using grammatical transformation on a neural network according to an embodiment of the present invention.
본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 것이며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하며, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.Advantages and features of the present invention, and methods for achieving them will be clarified with reference to embodiments described below in detail together with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, but will be implemented in various different forms, and only the present embodiments allow the disclosure of the present invention to be complete, and common knowledge in the art to which the present invention pertains. It is provided to fully inform the holder of the scope of the invention, and the invention is only defined by the scope of the claims. The same reference numerals refer to the same components throughout the specification.
본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성요소, 단계 및 동작은 하나 이상의 다른 구성요소, 단계 및 동작의 존재 또는 추가를 배제하지 않는다.The terminology used herein is for describing the embodiments and is not intended to limit the present invention. In the present specification, the singular form also includes the plural form unless otherwise specified in the phrase. As used herein, "comprises" and/or "comprising" does not exclude the presence or addition of one or more other components, steps and actions.
도 1은 본 발명의 일 실시예에 따른 신경망 상의 문법 변형을 이용한 가짜뉴스 탐색 장치의 블록도이다.1 is a block diagram of a fake news search apparatus using grammar transformation on a neural network according to an embodiment of the present invention.
도 1을 참조하면, 본 발명의 일 실시예에 따른 신경망 상의 문법 변형을 이용한 가짜뉴스 탐색 장치(1)는 단어 임베딩부(10), 컨텍스트 생성부(30), 매칭부(50) 및 추론부(70)를 포함할 수 있다.Referring to FIG. 1, the fake
본 발명의 일 실시예에 따른 신경망 상의 문법 변형을 이용한 가짜뉴스 탐색 장치(1)는 뉴스 문장의 참 또는 거짓을 판별할 수 있는데, 딥러닝에 기반하여 명제(proposition) 문장의 문법을 변형시킨 후보 문장을 생성하고 이를 이용하여 뉴스의 진위 여부를 판별할 수 있다. 따라서 본 발명의 일 실시예에 따른 신경망 상의 문법 변형을 이용한 가짜뉴스 탐색 장치(1)는 사람의 개입 없이 빠르고 효율적인 가짜뉴스 탐색 모델을 제시할 수 있다.The fake
본 발명의 일 실시예에 따른 신경망 상의 문법 변형을 이용한 가짜뉴스 탐색 장치(1)는 가짜뉴스 탐색을 위한 소프트웨어(어플리케이션)가 설치되어 실행될 수 있으며, 단어 임베딩부(10), 컨텍스트 생성부(30), 매칭부(50) 및 추론부(70)는 가짜뉴스 탐색을 위한 소프트웨어에 의해 제어될 수 있다.The fake
단어 임베딩부(10), 컨텍스트 생성부(30), 매칭부(50) 및 추론부(70)의 구성은 통합 모듈로 형성되거나, 하나 이상의 모듈로 이루어질 수 있다. 그러나, 이와 반대로 각 구성은 별도의 모듈로 이루어질 수도 있다.The structure of the
본 발명의 일 실시예에 따른 신경망 상의 문법 변형을 이용한 가짜뉴스 탐색 장치(1)는 이동성을 갖거나 고정될 수 있다. 본 발명의 일 실시예에 따른 신경망 상의 문법 변형을 이용한 가짜뉴스 탐색 장치(1)는 컴퓨터(computer), 서버(server) 또는 엔진(engine) 형태일 수 있으며, 디바이스(device), 기구(apparatus), 단말(terminal), UE(user equipment), MS(mobile station), MT(mobile terminal), UT(user terminal), SS(subscriber station), 무선기기(wireless device), PDA(personal digital assistant), 무선 모뎀(wireless modem), 휴대기기(handheld device) 등 다른 용어로 불릴 수 있다.The fake
이하, 도 1에 도시된 본 발명의 일 실시예에 따른 신경망 상의 문법 변형을 이용한 가짜뉴스 탐색 장치(1)의 각 구성에 대해 구체적으로 설명한다.Hereinafter, each configuration of the fake
단어 임베딩부(10)는 뉴스 문장으로부터 참 또는 거짓이 판별되는 명제 문장을 단어(word) 벡터로 임베딩할 수 있다. The
여기서, 명제 문장은 본 실시예에서의 탐색 대상인 뉴스의 진위 여부를 판별하기 위한 문장으로, 예를 들어, 뉴스 문장에 의해 명제 문장이 거짓인 것으로 판별되는 경우 해당 뉴스는 가짜뉴스로 판별될 수 있다.Here, the propositional sentence is a sentence for determining whether the news to be searched for in the present embodiment is authentic, for example, if the propositional sentence is determined to be false by the news sentence, the corresponding news may be determined as fake news. .
단어 임베딩부(10)는 임베딩을 통해 명제 문장으로부터 단어 벡터를 생성할 수 있다. 단어 임베딩부(10)는 임베딩 방식 중 원-핫 인코딩(One-hot encoding) 방식을 채택하여 명제 문장을 구성하는 각 단어들을 벡터로 변환할 수 있다. 이는 본 실시예에서 신경망 문법 변형을 이용하여 명제 문장과 의미는 동일하되 문법은 다른 문장인 후보 문장들을 생성하는데 신경망 알고리즘에 문자 자체를 입력하는 것이 불가능하기 때문이다.The
한편, 본 실시예에서 신경망 문법 변형 시 LSTM(Long Short Term Memory) 신경망 기반의 시퀀스-투-시퀀스(sequence to sequence) 학습 모델을 이용할 수 있다. 후술하는 컨텍스트 생성부(30), 매칭부(50) 및 추론부(70)는 LSTM 신경망 기반의 시퀀스-투-시퀀스(sequence to sequence) 학습 모델의 각 계층을 구성하여 가짜뉴스 탐색을 수행할 수 있다.On the other hand, in the present embodiment, a sequence-to-sequence learning model based on a Long Short Term Memory (LSTM) neural network may be used when the neural network grammar is modified. The
LSTM 신경망은 문자와 단어들 사이의 흐름을 처리하는 데에 널리 사용되고 있는 RNN(Recurrent Neural Network) 신경망의 히든 스테이트(hidden state)에 셀 스테이트(cell state)를 추가한 구조이다. RNN 신경망은 히든 스테이트의 히든 노드가 방향을 갖는 엣지로 연결되어 순환구조를 이루는 인공신경망의 한 종류이다. LSTM 신경망에 추가되는 셀 스테이트는 스테이트가 오래 경과하더라도 그래디언트가 비교적 잘 전파될 수 있게 하는 수식을 사용하여 다음 셀에 영향을 줄 수 있다. The LSTM neural network is a structure in which a cell state is added to a hidden state of a Recurrent Neural Network (RNN) neural network that is widely used to process flow between letters and words. The RNN neural network is a kind of artificial neural network in which a hidden node of a hidden state is connected to an edge having a direction to form a circular structure. The cell state added to the LSTM neural network can influence the next cell by using a formula that allows the gradient to propagate relatively well even after a long time.
시퀀스-투-시퀀스(sequence to sequence) 학습 모델은 LSTM 신경망을 활용하여 구현되는 딥러닝 알고리즘으로, 텍스트와 같이 입력의 차원과 출력의 차원이 고정되지 않은 데이터를 처리하는 데 용이하다. 시퀀스-투-시퀀스(sequence to sequence) 학습 모델은 입력으로 소스 시퀀스(source sequence) 및 타겟 시퀀스(target sequence)를 받을 수 있으며, 이러한 입력은 크게 인코더 및 디코더의 두 파트로 나누어 처리할 수 있다. 인코더는 소스 시퀀스를 고정 크기의 벡터로 변환하고, 디코더는 인코더의 벡터를 타겟 시퀀스로 변환할 수 있다. 이때, 타겟 시퀀스의 예측 과정에서 디코더는 직전에 예측한 결과를 다음 단계의 입력으로 넣어 예측할 수 있다. 시퀀스-투-시퀀스(sequence to sequence) 학습 모델에서의 시퀀스 예측 정확도를 높이기 위해, 중요한 단어에 임팩트를 주는 어텐션(attention) 매커니즘을 이용할 수도 있다.The sequence-to-sequence learning model is a deep learning algorithm implemented using an LSTM neural network, and is easy to process data whose input dimension and output dimension are not fixed, such as text. The sequence-to-sequence learning model can receive a source sequence and a target sequence as inputs, and these inputs can be divided into two parts: an encoder and a decoder. The encoder converts the source sequence into a vector of fixed size, and the decoder converts the vector of the encoder into a target sequence. At this time, in the process of predicting the target sequence, the decoder may predict the result of the previous prediction as an input of the next step. In order to increase the accuracy of sequence prediction in a sequence-to-sequence learning model, an attention mechanism that impacts important words may be used.
또한, 시퀀스-투-시퀀스(sequence to sequence) 학습 모델은 소프트맥스(softmax) 계층을 포함하여 최종적으로 단어를 디코딩하여 문장을 생성하는데, 이때, 디코더를 사용하여 높은 확률의 단어로 이루어지는 문장들을 출력할 수 있다. 이러한 디코더의 종류는 여러 가지 제안된 바 있으나, 본 실시예에 적용되는 시퀀스-투-시퀀스(sequence to sequence) 학습 모델은 빔 서치 디코더(Beam Search Decoder)를 포함하여 구현될 수 있다. 빔 서치 디코더는 빔 사이즈에 따라 가장 높은 확률의 단어들을 주어진 개수만큼 생성하여 최적 조합의 문장을 만들 수 있다. In addition, the sequence-to-sequence learning model finally includes a softmax layer to decode a word to generate a sentence. At this time, a decoder is used to output sentences with high probability words. can do. Various types of such decoders have been proposed, but a sequence-to-sequence learning model applied to the present embodiment may be implemented by including a beam search decoder. The beam search decoder can generate the best combination of sentences by generating a given number of words with the highest probability according to the beam size.
컨텍스트 생성부(30)는 단어 벡터를 소정의 자연어 처리 신경망에 입력하여 컨텍스트(context) 벡터를 생성할 수 있다. 여기서 자연어 처리 신경망은 상술한 것처럼 LSTM 신경망일 수 있다. The
매칭부(50)는 컨텍스트 벡터를 이용하여 명제 문장과 의미는 동일하되 문법이 다른 문장인 후보 문장들을 생성할 수 있다.The matching
매칭부(50)는 후보 문장 생성의 정확도를 높일 수 있도록 상술한 바와 같은 시퀀스-투-시퀀스(sequence to sequence) 학습 모델의 어텐션 매커니즘을 적용할 수 있다. The matching
즉, 매칭부(50)는 시퀀스-투-시퀀스(sequence to sequence) 학습 모델의 어텐션 매커니즘을 이용하여 컨텍스트 벡터로부터 어텐션 벡터를 생성할 수 있다. 매칭부(50)는 어텐션 매커니즘에 따라 컨텍스트 벡터의 가중 합(weighted sum)을 계산하여 중요한 단어에 임팩트를 준 어텐션 벡터를 생성할 수 있다.That is, the matching
매칭부(50)는 어텐션 벡터 및 컨텍스트 생성부(30)에서 컨텍스트 벡터의 생성 시 발생하는 히든 스테이트 벡터를 비교하는 매칭 동작을 수행하여 매칭 벡터를 예측할 수 있다. 상술한 바와 같이 컨텍스트 생성부(30)는 LSTM 신경망을 이용하여 컨텍스트 벡터를 생성하는데, LSTM 신경망의 히든 스테이트에서 히든 스테이트 벡터가 생성될 수 있다. 매칭부(50)는 어텐션 벡터 및 히든 스테이트 벡터를 비교하는 매칭 동작을 수행하여 매칭 벡터를 예측할 수 있다.The matching
매칭부(50)는 매칭 벡터를 소정의 자연어 처리 신경망에 입력하여 후보 문장을 생성할 수 있다. 여기서 자연어 처리 신경망은 상술한 것처럼 LSTM 신경망일 수 있다.The matching
추론부(70)는 후보 문장과 뉴스 문장을 비교하여 명제 문장의 참 또는 거짓을 판별하고 뉴스 문장이 가짜뉴스에 해당하는지를 탐색할 수 있다.The
추론부(70)는 최적 조합의 후보 문장과 뉴스 문장을 비교하여 가짜뉴스 선별의 정확도를 높일 수 있도록 상술한 바와 같은 시퀀스-투-시퀀스(sequence to sequence) 학습 모델의 소프트맥스(softmax) 계층을 이용할 수 있다.The
즉, 추론부(70)는 후보 문장을 시퀀스-투-시퀀스(sequence to sequence) 학습 모델의 소프트맥스(softmax) 함수에 입력하여 주어진 개수의 단어를 선정 및 출력할 수 있다. 여기서 후보 문장은 매칭부(50)의 출력인 연계된(Concatenated) 합계 매칭(aggregated matching) 벡터에 해당할 수 있으며, 추론부(70)는 후보 문장을 구성하는 각 단어에 해당하는 합계 매칭 벡터를 소프트맥스(softmax) 함수에 입력하여 주어진 개수의 단어를 선정 및 출력할 수 있다. 이때 출력되는 단어는 뉴스 문장에 나타날 확률이 높은 단어일 수 있다.That is, the
추론부(70)는 소프트맥스(softmax) 함수의 출력을 빔 서치 디코더에 입력하여 최종 후보 문장을 생성할 수 있다. 상술한 것처럼 빔 서치 디코더는 소프트맥스(softmax) 함수의 출력인 단어들을 완성도 있는 조합으로 구성하여 문장을 생성할 수 있다.The
추론부(70)는 이와 같이 시퀀스-투-시퀀스(sequence to sequence) 학습 모델의 소프트맥스(softmax) 계층을 구성하여 보다 완성도 있는 후보 문장을 생성할 수 있다.The
추론부(70)는 뉴스 문장에 의한 명제 문장의 참 또는 거짓을 판별하기 위해, 뉴스 문장과 명제 문장의 문법이 변형된 문장인 후보 문장을 비교할 수 있다.The
이를 위해 추론부(70)는 뉴스 문장 및 빔 서치 디코더의 출력인 후보 문장을 임베딩할 수 있다. 예를 들어, 추론부(70)는 Doc2Vec 모델을 이용하여 뉴스 문장 및 후보 문장을 임베딩하여 벡터로 변환할 수 있다. 이때, 빔 서치 디코더의 출력인 후보 문장은 복수 개일 수 있으며, 이와 같은 경우 추론부(70)는 복수 개의 후보 문장들을 모아 문단(sentence) 그룹을 구성할 수 있다.To this end, the
추론부(70)는 임베딩한 뉴스 문장 및 후보 문장의 코사인 유사도를 계산할 수 있다. 추론부(70)는 코사인 유사도를 이용하여 뉴스 문장에 의한 명제 문장의 참 또는 거짓을 판별할 수 있다. 예를 들어, 코사인 유사도는 0~1 사이의 값을 가질 수 있으며, 추론부(70)는 코사인 유사도가 0.5 이상인 경우, 명제 문장을 참으로 판별할 수 있다.The
추론부(70)는 문단 그룹을 구성한 경우, 문단 그룹의 각 후보 문장들과 뉴스 문장의 코사인 유사도를 모두 계산할 수 있다. 추론부(70)는 문단 그룹의 각 후보 문장들과 뉴스 문장의 코사인 유사도 중 가장 높은 코사인 유사도를 이용하여 뉴스 문장에 의한 명제 문장의 참 또는 거짓을 판별할 수 있다.When the
추론부(70)는 뉴스 문장에 의한 명제 문장이 참으로 판별된 경우, 해당 뉴스 또한 진실인 것으로 선별할 수 있으며, 뉴스 문장에 의한 명제 문장이 거짓으로 판별된 경우, 해당 뉴스 또한 가짜뉴스인 것으로 선별할 수 있다.The
이와 같이, 본 발명의 일 실시예에 따른 신경망 상의 문법 변형을 이용한 가짜뉴스 탐색 장치(1)는 LSTM 기반의 시퀀스-투-시퀀스(sequence to sequence) 학습 모델을 구성하여, 명제 문장과 의미는 동일하되 문법이 다른 문장인 후보 문장들을 생성하고, 후보 문장들과 뉴스 문장을 비교하여 가짜뉴스를 선별할 수 있다. As described above, the fake
본 발명의 일 실시예에 따른 신경망 상의 문법 변형을 이용한 가짜뉴스 탐색 장치(1)는 사람의 판단을 필요로 하지 않으며, 실시간으로 가짜뉴스 선별 처리가 가능하다.The fake
도 2는 도 1에 도시된 본 발명의 일 실시예에 따른 신경망 상의 문법 변형을 이용한 가짜뉴스 탐색 장치에 의해 구성되는 LSTM 기반의 시퀀스-투-시퀀스(sequence to sequence) 학습 모델을 보여주는 도면이다.FIG. 2 is a diagram illustrating an LSTM-based sequence-to-sequence learning model constructed by a fake news search apparatus using grammatical transformation on a neural network according to an embodiment of the present invention shown in FIG. 1.
도 2를 참조하면, LSTM 기반의 시퀀스-투-시퀀스(sequence to sequence) 학습 모델은 단어 임베딩 레이어(Word Embedding Layer), 컨텍스트 생성 레이어(Context Generation Layer), 매칭 레이어(Matching Layer) 및 추론 레이어(Inference Layer)의 4 개의 계층으로 이루어질 수 있다.Referring to FIG. 2, the LSTM-based sequence-to-sequence learning model includes a word embedding layer, a context generation layer, a matching layer, and a reasoning layer ( Inference Layer).
단어 임베딩부(10)는 단어 임베딩 레이어(Word Embedding Layer)를 구성하며, 뉴스 문장으로부터 참 또는 거짓이 판별되는 명제 문장을 단어 벡터로 임베딩할 수 있다. The
컨텍스트 생성부(30)는 컨텍스트 생성 레이어(Context Generation Layer)를 구성하며, 단어 벡터를 LSTM 신경망에 입력하여 컨텍스트 벡터를 생성할 수 있다. The
매칭부(50)는 매칭 레이어(Matching Layer)를 구성하며, 컨텍스트 벡터에 대한 매칭 동작을 수행하여 매칭 벡터를 생성할 수 있다. 이때, 매칭부(50)는 컨텍스트 벡터를 어텐션 함수에 입력하여 어텐션 벡터를 생성하고, 어텐션 벡터와 컨텍스트 생성 레이어(Context Generation Layer)에 포함되는 LSTM 신경망의 히든 스테이트 벡터를 비교하는 매칭 동작을 수행하여 매칭 벡터를 생성할 수 있다. 그리고, 매칭부(50)는 매칭 벡터를 LSTM 신경망에 입력하여 명제 문장과 의미는 동일하되 문법이 다른 문장인 후보 문장에 해당하는 연계된 합계 매칭 벡터를 생성할 수 있다.The matching
추론부(70)는 추론 레이어(Inference Layer)를 구성하며, 연계된 합계 매칭 벡터로부터 합계 매칭 벡터를 획득하고 이를 소프트맥스(softmax) 함수에 입력하여 주어진 개수의 단어를 선정 및 출력할 수 있다. 그리고, 추론부(70)는 소프트맥스(softmax) 함수의 출력을 빔 서치 디코더에 입력하여 복수의 후보 문장들을 생성할 수 있다. 추론부(70)는 복수의 후보 문장들과 뉴스 문장들을 비교하여 뉴스 문장에 의한 명제 문장의 참 또는 거짓을 판별하고, 그 결과에 따라 가짜뉴스를 선별할 수 있다.The
이하에서는 본 발명의 일 실시예에 따른 신경망 상의 문법 변형을 이용한 가짜뉴스 탐색 방법에 대해 설명한다.Hereinafter, a method of searching for fake news using a grammar modification on a neural network according to an embodiment of the present invention will be described.
도 3은 본 발명의 일 실시예에 따른 신경망 상의 문법 변형을 이용한 가짜뉴스 탐색 방법의 흐름도이다.3 is a flowchart of a fake news search method using grammatical transformation on a neural network according to an embodiment of the present invention.
본 발명의 일 실시예에 따른 신경망 상의 문법 변형을 이용한 가짜뉴스 탐색 방법은 도 1에 도시된 신경망 상의 문법 변형을 이용한 가짜뉴스 탐색 장치(1)와 실질적으로 동일한 구성에서 실행될 수 있다. 따라서 도 1에 도시된 신경망 상의 문법 변형을 이용한 가짜뉴스 탐색 장치(1)와 동일한 구성요소는 동일한 도면부호를 부여하고, 반복되는 설명은 생략한다.The fake news search method using the grammar modification on the neural network according to an embodiment of the present invention may be executed in substantially the same configuration as the fake
도 3을 참조하면, 단어 임베딩부(10)는 명제 문장을 단어 벡터로 임베딩할 수 있다(S100). Referring to FIG. 3, the
명제 문장은 뉴스 문장에 의해 참 또는 거짓이 판별될 문장에 해당한다. 단어 임베딩부(10)는 임베딩 방식 중 원-핫 인코딩(One-hot encoding) 방식을 채택하여 명제 문장을 구성하는 각 단어들을 벡터로 변환할 수 있다. A propositional sentence corresponds to a sentence for which true or false will be determined by a news sentence. The
컨텍스트 생성부(30)는 단어 벡터를 신경망에 입력하여 컨텍스트 벡터를 생성할 수 있다(S200).The
여기서 신경망은 자연어 처리 신경망으로, LSTM 신경망일 수 있다.Here, the neural network is a natural language processing neural network, and may be an LSTM neural network.
매칭부(50)는 컨텍스트 벡터를 신경망에 입력하여 후보 문장을 생성할 수 있다(S300).The matching
후보 문장은 명제 문장과 의미는 동일하되 문법이 다른 문장에 해당한다.Candidate sentences are sentences that have the same meaning as propositional sentences but different grammar.
매칭부(50)는 시퀀스-투-시퀀스(sequence to sequence) 학습 모델의 어텐션 매커니즘을 이용하여 컨텍스트 벡터로부터 어텐션 벡터를 생성할 수 있다. 매칭부(50)는 어텐션 매커니즘에 따라 컨텍스트 벡터의 가중 합(weighted sum)을 계산하여 중요한 단어에 임팩트를 준 어텐션 벡터를 생성할 수 있다.The matching
매칭부(50)는 어텐션 벡터 및 컨텍스트 벡터의 생성 시 발생하는 히든 스테이트 벡터를 비교하는 매칭 동작을 수행하여 매칭 벡터를 예측할 수 있다.The matching
매칭부(50)는 매칭 벡터를 LSTM 신경망에 입력하여 후보 문장을 생성할 수 있다. The matching
추론부(70)는 후보 문장과 뉴스 문장을 비교하여 가짜뉴스를 탐색할 수 있다(S400).The
추론부(70)는 후보 문장과 뉴스 문장을 비교하여 명제 문장의 참 또는 거짓을 판별하고 뉴스 문장이 가짜뉴스에 해당하는지를 탐색할 수 있다.The
추론부(70)는 후보 문장을 시퀀스-투-시퀀스(sequence to sequence) 학습 모델의 소프트맥스(softmax) 함수에 입력하여 주어진 개수의 단어를 선정 및 출력할 수 있다. 여기서 후보 문장은 매칭부(50)의 출력인 연계된(Concatenated) 합계 매칭(aggregated matching) 벡터에 해당할 수 있으며, 추론부(70)는 후보 문장을 구성하는 각 단어에 해당하는 합계 매칭 벡터를 소프트맥스(softmax) 함수에 입력하여 주어진 개수의 단어를 선정 및 출력할 수 있다. 이때 출력되는 단어는 뉴스 문장에 나타날 확률이 높은 단어일 수 있다.The
추론부(70)는 소프트맥스(softmax) 함수의 출력을 빔 서치 디코더에 입력하여 최종 후보 문장을 생성할 수 있다. 상술한 것처럼 빔 서치 디코더는 소프트맥스(softmax) 합수의 출력인 단어들을 완성도 있는 조합으로 구성하여 문장을 생성할 수 있다.The
추론부(70)는 뉴스 문장 및 빔 서치 디코더의 출력인 후보 문장을 임베딩할 수 있다. 예를 들어, 추론부(70)는 Doc2Vec 모델을 이용하여 뉴스 문장 및 후보 문장을 임베딩할 수 있다. 이때, 빔 서치 디코더의 출력인 후보 문장은 복수 개일 수 있으며, 이와 같은 경우 추론부(70)는 복수 개의 후보 문장들을 모아 문단(sentence) 그룹을 구성할 수 있다. The
추론부(70)는 임베딩한 뉴스 문장 및 후보 문장의 코사인 유사도를 계산할 수 있다. 추론부(70)는 코사인 유사도를 이용하여 뉴스 문장에 의한 명제 문장의 참 또는 거짓을 판별할 수 있다. 예를 들어, 코사인 유사도는 0~1 사이의 값을 가질 수 있으며, 추론부(70)는 코사인 유사도가 0.5 이상인 경우, 명제 문장을 참으로 판별할 수 있다.The
추론부(70)는 문단 그룹을 구성한 경우, 문단 그룹의 각 후보 문장들과 뉴스 문장의 코사인 유사도를 모두 계산할 수 있다. 추론부(70)는 문단 그룹의 각 후보 문장들과 뉴스 문장의 코사인 유사도 중 가장 높은 코사인 유사도를 이용하여 뉴스 문장에 의한 명제 문장의 참 또는 거짓을 판별할 수 있다. When the
이와 같은 본 발명의 신경망 상의 문법 변형을 이용한 가짜뉴스 탐색방법은 다양한 컴퓨터 구성요소를 통하여 수행될 수 있는 프로그램 명령어의 형태로 구현되어 컴퓨터 판독 가능한 기록 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능한 기록 매체는 프로그램 명령어, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다.The fake news search method using the grammar modification on the neural network of the present invention is implemented in the form of program instructions that can be executed through various computer components and can be recorded in a computer-readable recording medium. The computer-readable recording medium may include program instructions, data files, data structures, or the like alone or in combination.
상기 컴퓨터 판독 가능한 기록 매체에 기록되는 프로그램 명령어는 본 발명을 위하여 특별히 설계되고 구성된 것들이거니와 컴퓨터 소프트웨어 분야의 당업자에게 공지되어 사용 가능한 것일 수도 있다.The program instructions recorded on the computer-readable recording medium are specially designed and configured for the present invention, and may be known and available to those skilled in the computer software field.
컴퓨터 판독 가능한 기록 매체의 예에는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM, DVD 와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 ROM, RAM, 플래시 메모리 등과 같은 프로그램 명령어를 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다.Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tapes, optical recording media such as CD-ROMs, DVDs, and magneto-optical media such as floptical disks. media), and hardware devices specifically configured to store and execute program instructions such as ROM, RAM, flash memory, and the like.
프로그램 명령어의 예에는, 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드도 포함된다. 상기 하드웨어 장치는 본 발명에 따른 처리를 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.Examples of program instructions include not only machine language codes produced by a compiler, but also high-level language codes that can be executed by a computer using an interpreter or the like. The hardware device may be configured to operate as one or more software modules to perform processing according to the present invention, and vice versa.
이상 첨부된 도면을 참조하여 본 발명의 실시예를 설명하였지만, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다.Although the embodiments of the present invention have been described with reference to the accompanying drawings, those skilled in the art to which the present invention pertains may be implemented in other specific forms without changing the technical spirit or essential features of the present invention. You will understand. Therefore, it should be understood that the embodiments described above are illustrative in all respects and not restrictive.
1: 신경망 상의 문법 변형을 이용한 가짜뉴스 탐색 장치
10: 단어 임베딩부
30: 컨텍스트 생성부
50: 매칭부
70: 추론부1: Fake news search device using grammar transformation on neural network
10: word embedding
30: context creation unit
50: matching unit
70: reasoning
Claims (13)
뉴스 문장에 의해 참 또는 거짓이 판별되는 명제(proposition) 문장을 단어(word) 벡터로 임베딩하는 단계;
상기 단어 벡터를 소정의 자연어 처리 신경망에 입력하여 컨텍스트(context) 벡터를 생성하는 단계;
상기 컨텍스트 벡터를 소정의 자연어 처리 신경망에 입력하여 상기 명제 문장과 의미는 동일하되 문법이 다른 문장인 후보 문장을 생성하는 단계; 및
상기 후보 문장과 상기 뉴스 문장을 비교하여 상기 명제 문장의 참 또는 거짓을 판별하고 상기 뉴스 문장이 가짜뉴스에 해당하는지를 탐색하는 단계를 포함하며,
상기 후보 문장과 상기 뉴스 문장을 비교하여 상기 명제 문장의 참 또는 거짓을 판별하고 상기 뉴스 문장이 가짜뉴스에 해당하는지를 탐색하는 단계는,
상기 후보 문장을 구성하는 각 단어에 해당하는 벡터를 시퀀스-투-시퀀스(sequence to sequence) 학습 모델의 소프트맥스(softmax) 함수에 입력하여 주어진 개수의 단어를 선정 및 출력하는 단계;
빔 서치 디코더를 이용하여 상기 소프트맥스(softmax) 함수의 출력 단어를 조합한 최종 후보 문장을 생성하는 단계; 및
상기 최종 후보 문장과 상기 뉴스 문장을 비교하여 상기 명제 문장의 참 또는 거짓을 판별하고 상기 뉴스 문장이 가짜뉴스에 해당하는지를 탐색하는 단계를 포함하는, 신경망 상의 문법 변형을 이용한 가짜뉴스 탐색 방법.In the fake news search method using the grammar transformation on the neural network performed by the fake news search device,
Embedding a proposition sentence in which the true or false is determined by the news sentence as a word vector;
Generating a context vector by inputting the word vector into a predetermined natural language processing neural network;
Inputting the context vector into a predetermined natural language processing neural network to generate a candidate sentence having the same meaning as the propositional sentence but a sentence with a different grammar; And
Comparing the candidate sentence and the news sentence to determine the true or false of the propositional sentence and searching for whether the news sentence corresponds to the fake news,
Comparing the candidate sentence and the news sentence to determine the true or false of the propositional sentence and searching for whether the news sentence corresponds to fake news,
Selecting and outputting a given number of words by inputting a vector corresponding to each word constituting the candidate sentence into a softmax function of a sequence-to-sequence learning model;
Generating a final candidate sentence by combining output words of the softmax function using a beam search decoder; And
And comparing the final candidate sentence with the news sentence to determine whether the propositional sentence is true or false and searching whether the news sentence corresponds to fake news.
상기 뉴스 문장에 의해 참 또는 거짓이 판별되는 명제(proposition) 문장을 단어(word) 벡터로 임베딩하는 단계는,
원-핫 인코딩(One-hot encoding) 방식을 이용하여 상기 명제 문장을 구성하는 각 단어들을 벡터로 변환하는 단계를 포함하는 신경망 상의 문법 변형을 이용한 가짜뉴스 탐색 방법.According to claim 1,
The step of embedding a proposition sentence in which the true or false is determined by the news sentence as a word vector is:
A method of searching for fake news using grammar transformation on a neural network, comprising converting each word constituting the propositional sentence into a vector using a one-hot encoding method.
상기 단어 벡터를 소정의 자연어 처리 신경망에 입력하여 컨텍스트(context) 벡터를 생성하는 단계는,
상기 단어 벡터를 LSTM(Long Short Term Memory) 신경망에 입력하여 상기 컨텍스트 벡터를 생성하는 단계를 포함하는 신경망 상의 문법 변형을 이용한 가짜뉴스 탐색 방법.According to claim 1,
Generating a context vector by inputting the word vector into a predetermined natural language processing neural network includes:
And generating the context vector by inputting the word vector into a Long Short Term Memory (LSTM) neural network.
상기 컨텍스트 벡터를 소정의 자연어 처리 신경망에 입력하여 상기 명제 문장과 의미는 동일하되 문법이 다른 문장인 후보 문장을 생성하는 단계는,
시퀀스-투-시퀀스(sequence to sequence) 학습 모델의 어텐션 매커니즘에 따라 상기 컨텍스트 벡터의 가중 합(Weighted sum)을 계산하여 어텐션(attention) 벡터를 생성하는 단계;
상기 어텐션 벡터와 상기 컨텍스트 벡터의 생성 시 발생하는 히든 스테이트(hidden state) 벡터를 비교하여 매칭 벡터를 예측하는 단계; 및
상기 매칭 벡터를 LSTM(Long Short Term Memory) 신경망에 입력하여 상기 후보 문장을 생성하는 단계를 포함하는 신경망 상의 문법 변형을 이용한 가짜뉴스 탐색 방법.According to claim 1,
The step of generating a candidate sentence, which has the same meaning as the propositional sentence but has a different grammar, by inputting the context vector into a predetermined natural language processing neural network,
Generating an attention vector by calculating a weighted sum of the context vector according to the attention mechanism of the sequence-to-sequence learning model;
Predicting a matching vector by comparing the attention vector and a hidden state vector generated when the context vector is generated; And
And generating the candidate sentence by inputting the matching vector into a long short term memory (LSTM) neural network.
상기 최종 후보 문장과 상기 뉴스 문장을 비교하여 상기 명제 문장의 참 또는 거짓을 판별하고 상기 뉴스 문장이 가짜뉴스에 해당하는지를 탐색하는 단계는,
상기 최종 후보 문장 및 상기 뉴스 문장을 임베딩하는 단계;
임베딩한 상기 최종 후보 문장 및 상기 뉴스 문장의 코사인 유사도를 계산하는 단계; 및
상기 코사인 유사도를 이용하여 상기 뉴스 문장에 의한 상기 명제 문장의 참 또는 거짓을 판별하는 단계를 포함하는 신경망 상의 문법 변형을 이용한 가짜뉴스 탐색 방법.According to claim 1,
Comparing the final candidate sentence and the news sentence to determine the true or false of the propositional sentence and searching for whether the news sentence corresponds to fake news,
Embedding the final candidate sentence and the news sentence;
Calculating cosine similarity between the embedded final candidate sentence and the news sentence; And
And determining whether the propositional sentence is true or false based on the news sentence using the cosine similarity.
상기 단어 벡터를 소정의 자연어 처리 신경망에 입력하여 컨텍스트(context) 벡터를 생성하는 컨텍스트 생성부;
상기 컨텍스트 벡터를 소정의 자연어 처리 신경망에 입력하여 상기 명제 문장과 의미는 동일하되 문법이 다른 문장인 후보 문장을 생성하는 매칭부; 및
상기 후보 문장과 상기 뉴스 문장을 비교하여 상기 명제 문장의 참 또는 거짓을 판별하고 상기 뉴스 문장이 가짜뉴스에 해당하는지를 탐색하는 추론부를 포함하며,
상기 추론부는,
상기 후보 문장을 구성하는 각 단어에 해당하는 벡터를 시퀀스-투-시퀀스(sequence to sequence) 학습 모델의 소프트맥스(softmax) 함수에 입력하여 주어진 개수의 단어를 선정 및 출력하고, 빔 서치 디코더를 이용하여 상기 소프트맥스(softmax) 함수의 출력 단어를 조합한 최종 후보 문장을 생성하며, 상기 최종 후보 문장과 상기 뉴스 문장을 비교하여 상기 명제 문장의 참 또는 거짓을 판별하고 상기 뉴스 문장이 가짜뉴스에 해당하는지를 탐색하는, 신경망 상의 문법 변형을 이용한 가짜뉴스 탐색 장치.A word embedding unit for embedding a proposition sentence in which a true or false is determined by a news sentence as a word vector;
A context generating unit that inputs the word vector into a predetermined natural language processing neural network to generate a context vector;
A matching unit that inputs the context vector into a predetermined natural language processing neural network to generate a candidate sentence that has the same meaning as the propositional sentence but has a different grammar; And
And comparing the candidate sentence with the news sentence to determine whether the propositional sentence is true or false, and includes a reasoning unit to search whether the news sentence corresponds to fake news,
The reasoning unit,
A vector corresponding to each word constituting the candidate sentence is input to a softmax function of a sequence-to-sequence learning model to select and output a given number of words, and a beam search decoder is used. To generate a final candidate sentence combining the output words of the softmax function, comparing the final candidate sentence with the news sentence to determine true or false of the propositional sentence, and the news sentence corresponds to fake news A device for searching fake news using grammatical transformation on a neural network, searching for knowledge.
상기 단어 임베딩부는,
원-핫 인코딩(One-hot encoding) 방식을 이용하여 상기 명제 문장을 구성하는 각 단어들을 벡터로 변환하는 신경망 상의 문법 변형을 이용한 가짜뉴스 탐색 장치.The method of claim 8,
The word embedding unit,
A fake news search apparatus using grammatical transformation on a neural network that converts each word constituting the propositional sentence into a vector using a one-hot encoding method.
상기 컨텍스트 생성부는,
상기 단어 벡터를 LSTM(Long Short Term Memory) 신경망에 입력하여 상기 컨텍스트 벡터를 생성하는 신경망 상의 문법 변형을 이용한 가짜뉴스 탐색 장치.The method of claim 8,
The context generating unit,
A fake news search apparatus using grammar transformation on a neural network that generates the context vector by inputting the word vector into a LSTM (Long Short Term Memory) neural network.
상기 매칭부는,
시퀀스-투-시퀀스(sequence to sequence) 학습 모델의 어텐션 매커니즘에 따라 상기 컨텍스트 벡터의 가중 합(Weighted sum)을 계산하여 어텐션(attention) 벡터를 생성하고, 상기 어텐션 벡터와 상기 컨텍스트 벡터의 생성 시 발생하는 히든 스테이트(hidden state) 벡터를 비교하여 매칭 벡터를 예측하며, 상기 매칭 벡터를 LSTM(Long Short Term Memory) 신경망에 입력하여 상기 후보 문장을 생성하는 신경망 상의 문법 변형을 이용한 가짜뉴스 탐색 장치.The method of claim 8,
The matching unit,
Generates an attention vector by calculating the weighted sum of the context vector according to the attention mechanism of the sequence-to-sequence learning model, and occurs when the attention vector and the context vector are generated A fake news search apparatus using a grammar transformation on a neural network that generates a candidate sentence by comparing a hidden state vector to predict a matching vector and inputting the matching vector into a LSTM (Long Short Term Memory) neural network.
상기 추론부는,
상기 최종 후보 문장 및 상기 뉴스 문장을 임베딩하고, 임베딩한 상기 최종 후보 문장 및 상기 뉴스 문장의 코사인 유사도를 계산하며, 상기 코사인 유사도를 이용하여 상기 뉴스 문장에 의한 상기 명제 문장의 참 또는 거짓을 판별하는 신경망 상의 문법 변형을 이용한 가짜뉴스 탐색 장치.
The method of claim 8,
The reasoning unit,
Embedding the final candidate sentence and the news sentence, calculating the cosine similarity between the embedded final candidate sentence and the news sentence, and using the cosine similarity to determine true or false of the propositional sentence by the news sentence Fake news search device using grammar transformation on neural network.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020180152658A KR102131641B1 (en) | 2018-11-30 | 2018-11-30 | Detection metohd of fake news using grammatic transformation on neural network, computer readable medium and apparatus for performing the method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020180152658A KR102131641B1 (en) | 2018-11-30 | 2018-11-30 | Detection metohd of fake news using grammatic transformation on neural network, computer readable medium and apparatus for performing the method |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20200071821A KR20200071821A (en) | 2020-06-22 |
KR102131641B1 true KR102131641B1 (en) | 2020-07-08 |
Family
ID=71142417
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020180152658A KR102131641B1 (en) | 2018-11-30 | 2018-11-30 | Detection metohd of fake news using grammatic transformation on neural network, computer readable medium and apparatus for performing the method |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102131641B1 (en) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114626425B (en) * | 2020-12-10 | 2024-11-08 | 国家计算机网络与信息安全管理中心 | Multi-view interactive matching method for noise text and electronic device |
CN113177110B (en) * | 2021-05-28 | 2022-09-16 | 中国人民解放军国防科技大学 | False news detection method and device, computer equipment and storage medium |
KR102455747B1 (en) * | 2022-02-18 | 2022-10-18 | 한밭대학교 산학협력단 | System and method for providing fake news detection model using deep learning algorithm |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008165598A (en) | 2006-12-28 | 2008-07-17 | National Institute Of Information & Communication Technology | Apparatus and method for extracting rumor information |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101669339B1 (en) * | 2014-11-27 | 2016-10-25 | 강원대학교산학협력단 | Method and system for constructing corpus for chatting system |
-
2018
- 2018-11-30 KR KR1020180152658A patent/KR102131641B1/en active IP Right Grant
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008165598A (en) | 2006-12-28 | 2008-07-17 | National Institute Of Information & Communication Technology | Apparatus and method for extracting rumor information |
Non-Patent Citations (5)
Title |
---|
K. Shu et al., Fake News Detection on Social media: A Data Mining Perspective, http://arXiv:1708.01967v3 (2017.12.19.) |
R. Ian, Satirical fake News and/as American Political Discourse, Journal of American Culture, 35(3), pp.258-275 (2012) |
S. Chopra et al., Towards Automatic Identification of Fake News: Headline-Article Stance Detection with LSTM Attention Models, Stanford CS224d Deep Learning for NLP final project (2017)* |
운영석 외, 페이크 뉴스 탐지 기술 동향과 시사점, 정보통신기술진흥센터 주간기술동향 (2017.10.04) |
이동호 외, 딥러닝 기법을 이용한 가짜뉴스 탐지, 2018년 춘계학술발표대회 논문집 제25권제1호 pp.384-387 (2018.05.)* |
Also Published As
Publication number | Publication date |
---|---|
KR20200071821A (en) | 2020-06-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11568000B2 (en) | System and method for automatic task-oriented dialog system | |
AU2020103810A4 (en) | A method for detecting fake news using grammatic transformation on neural network computer readable medium | |
CN110326002B (en) | Sequence processing using online attention | |
JP5128629B2 (en) | Part-of-speech tagging system, part-of-speech tagging model training apparatus and method | |
CN112735373A (en) | Speech synthesis method, apparatus, device and storage medium | |
Su et al. | How time matters: Learning time-decay attention for contextual spoken language understanding in dialogues | |
CN112528637B (en) | Text processing model training method, device, computer equipment and storage medium | |
CN114254660A (en) | Multi-modal translation method and device, electronic equipment and computer-readable storage medium | |
KR102131641B1 (en) | Detection metohd of fake news using grammatic transformation on neural network, computer readable medium and apparatus for performing the method | |
JP4930379B2 (en) | Similar sentence search method, similar sentence search system, and similar sentence search program | |
WO2024174911A1 (en) | Code generation method and apparatus, storage medium and electronic device | |
KR20230016794A (en) | Method, computer device, and computer program to generate data using language model | |
CN113178193A (en) | Chinese self-defined awakening and Internet of things interaction method based on intelligent voice chip | |
Chi et al. | Speaker role contextual modeling for language understanding and dialogue policy learning | |
CN112740200B (en) | Systems and methods for end-to-end deep reinforcement learning based on coreference resolution | |
Kwon et al. | Ensemble transfer attack targeting text classification systems | |
CN111814489A (en) | Spoken language semantic understanding method and system | |
CN113591462A (en) | Bullet screen reply generation method and device and electronic equipment | |
CN117708692A (en) | Entity emotion analysis method and system based on double-channel graph convolution neural network | |
Yi et al. | Exploiting language model for efficient linguistic steganalysis | |
Che et al. | Sentence Boundary Detection Based on Parallel Lexical and Acoustic Models. | |
CN116450839A (en) | Knowledge injection and training method and system for knowledge enhancement pre-training language model | |
Rathi et al. | Watermarking of deep recurrent neural network using adversarial examples to protect intellectual property | |
CN112037772A (en) | Multi-mode-based response obligation detection method, system and device | |
JP2020129061A (en) | Language model score calculation device, language model generation device, method thereof, program and recording medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |