JP2020161111A - Method for providing prediction service of mathematical problem concept type using neural machine translation and math corpus - Google Patents
Method for providing prediction service of mathematical problem concept type using neural machine translation and math corpus Download PDFInfo
- Publication number
- JP2020161111A JP2020161111A JP2019173914A JP2019173914A JP2020161111A JP 2020161111 A JP2020161111 A JP 2020161111A JP 2019173914 A JP2019173914 A JP 2019173914A JP 2019173914 A JP2019173914 A JP 2019173914A JP 2020161111 A JP2020161111 A JP 2020161111A
- Authority
- JP
- Japan
- Prior art keywords
- mathematical
- translation
- math
- word
- stage
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000013519 translation Methods 0.000 title claims abstract description 178
- 238000000034 method Methods 0.000 title claims abstract description 93
- 230000001537 neural effect Effects 0.000 title claims abstract description 20
- 238000013528 artificial neural network Methods 0.000 claims abstract description 94
- 238000004458 analytical method Methods 0.000 claims abstract description 39
- 238000004364 calculation method Methods 0.000 claims abstract description 30
- 238000003058 natural language processing Methods 0.000 claims abstract description 18
- 238000012545 processing Methods 0.000 claims abstract description 12
- 238000001914 filtration Methods 0.000 claims abstract description 3
- 239000013598 vector Substances 0.000 claims description 32
- 238000013473 artificial intelligence Methods 0.000 claims description 20
- 230000000877 morphologic effect Effects 0.000 claims description 13
- 230000014509 gene expression Effects 0.000 claims description 11
- 238000010801 machine learning Methods 0.000 claims description 3
- 239000000126 substance Substances 0.000 claims description 3
- 241001465754 Metazoa Species 0.000 claims description 2
- 238000006243 chemical reaction Methods 0.000 claims description 2
- 238000010835 comparative analysis Methods 0.000 claims description 2
- 230000004807 localization Effects 0.000 claims description 2
- 210000005036 nerve Anatomy 0.000 claims 1
- 230000008569 process Effects 0.000 description 22
- 239000000284 extract Substances 0.000 description 12
- 238000004422 calculation algorithm Methods 0.000 description 10
- 239000011159 matrix material Substances 0.000 description 8
- 238000004891 communication Methods 0.000 description 7
- 238000013527 convolutional neural network Methods 0.000 description 6
- 238000005516 engineering process Methods 0.000 description 5
- 230000006870 function Effects 0.000 description 5
- 230000001915 proofreading effect Effects 0.000 description 5
- 238000000926 separation method Methods 0.000 description 4
- 238000013459 approach Methods 0.000 description 3
- 238000013507 mapping Methods 0.000 description 3
- 239000000203 mixture Substances 0.000 description 3
- 238000010295 mobile communication Methods 0.000 description 3
- 238000005457 optimization Methods 0.000 description 3
- 230000000306 recurrent effect Effects 0.000 description 3
- 230000002441 reversible effect Effects 0.000 description 3
- 238000003860 storage Methods 0.000 description 3
- 238000012549 training Methods 0.000 description 3
- 230000002546 agglutinic effect Effects 0.000 description 2
- 230000001413 cellular effect Effects 0.000 description 2
- 239000003795 chemical substances by application Substances 0.000 description 2
- 238000010276 construction Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 238000003909 pattern recognition Methods 0.000 description 2
- 230000002787 reinforcement Effects 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 description 1
- VYZAMTAEIAYCRO-UHFFFAOYSA-N Chromium Chemical compound [Cr] VYZAMTAEIAYCRO-UHFFFAOYSA-N 0.000 description 1
- 241000196324 Embryophyta Species 0.000 description 1
- 241000220317 Rosa Species 0.000 description 1
- 230000002457 bidirectional effect Effects 0.000 description 1
- 230000000052 comparative effect Effects 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 125000004122 cyclic group Chemical group 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 230000000670 limiting effect Effects 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 230000013011 mating Effects 0.000 description 1
- 230000015654 memory Effects 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 244000144985 peep Species 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
- 230000002250 progressing effect Effects 0.000 description 1
- 238000011084 recovery Methods 0.000 description 1
- 230000002829 reductive effect Effects 0.000 description 1
- 230000001373 regressive effect Effects 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 238000012552 review Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
- 230000009897 systematic effect Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/40—Document-oriented image-based pattern recognition
- G06V30/41—Analysis of document content
- G06V30/413—Classification of content, e.g. text, photographs or tables
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Molecular Biology (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Multimedia (AREA)
- Machine Translation (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
Description
本発明は神経網基盤機械翻訳およびマスコーパスを利用した数学問題概念類型予測サービス提供方法に関し、神経網基盤機械翻訳を利用して文章題を数式で翻訳して解き、その結果を自然語解説で提供するプラットホームを提供する。 The present invention relates to a method for providing a mathematical problem concept type prediction service using neural network-based machine translation and a mass corpus. Using neural network-based machine translation, a word problem is translated by a mathematical formula and solved, and the result is explained in natural language. Provide the platform to be provided.
最近ディープランニング(Deep Learning)で代表される人工知能技術は音声認識と映像認識をはじめとする多様なパターン認識分野で革新的な性能を記録して多くの研究が進行されている。Alpha Goなどで現れた最近の人工知能は、ディープブルー(Deep Blue)で代表される既存の人工技術とは技術的な側面で大いに異なるが、場合の数を計算するコンピューティングパワーだけでなくビッグデータに基づいて知識を自動で蓄積することによって、与えられた分野では人間水準の知能を越えているという点である。多様な成功的な応用分野ののうち、最近質疑応答、文章生成、翻訳などの自然語処理分野においてもディープランニングは成果を出している。特に、ディープランニングが成功裏に適用される代表的な自然語処理分野が機械翻訳と言えるが、神経網(Neural Networks)基盤機械翻訳(Neural Machine Translation、NMT)は、一つの神経網で翻訳モデルが構成されて学習されるという側面で既存の多様なモジュールに基づいた機械翻訳と異なるパラダイムを提示している。 Recently, artificial intelligence technology represented by deep learning has recorded innovative performance in various pattern recognition fields such as voice recognition and video recognition, and many studies are underway. The recent artificial intelligence that appeared in Alpha Go etc. is very different from the existing artificial technology represented by Deep Blue in terms of technology, but it is not only big as the computing power to calculate the number of cases. By automatically accumulating knowledge based on data, it exceeds human-level intelligence in a given field. Of the various successful application fields, deep running has recently been successful in natural language processing fields such as Q & A, sentence generation, and translation. In particular, machine translation is a typical field of natural language processing to which deep running is successfully applied, but Neural Machine Translation (NMT) is a translation model with one neural network. It presents a different paradigm from machine translation based on various existing modules in terms of being constructed and learned.
この時、数学文章題問題(Math Word Problem、MWP)を人工知能と解く方法が研究および開発されたが、これと関連して、先行技術であるアメリカ登録特許第7373291号(2008年03月13日公告)には、数学的な認識の正確度を向上させるための新しい情報の根源、言語学的モデルを数学的なドメインに拡張し、自然語認識と関連した方法で数学の人工言語を認知する方法が開示されている。また、アメリカ公開特許第2015−0363390号(2015年12月17日公開)には、自然語処理を通じて算術または対数文章型問題を解決し応答できるように、入力文を受信して入力文と関連した複数の文章の中にあるそれぞれの文章が数学的観点で適格な文章であるかを決定し、それぞれの適格な文章を方程式を形成するための数学式に変換し、これを再び自然語に解く構成が開示されている。そして、韓国登録特許第10−1842873号(2018年03月28日公告)には、数学式を含む文章やイメージから演算子と因子を認識し、認識した演算子と因子を含んだ数学式に対する意味を翻訳して出力し、因子と演算子の関係を自然語に翻訳して出力することによって数学式の翻訳文を提供し、翻訳は、演算子と因子の関係を解釈し、演算子の自然語意味を抽出した後、抽出した演算子の自然語意味と因子で翻訳文を構成する方式で遂行する構成を開示する。 At this time, a method for solving the mathematical word problem (Math Word Problem, MWP) as artificial intelligence was researched and developed. In connection with this, the prior art US Registered Patent No. 7373291 (March 13, 2008) The Japanese announcement) is a source of new information to improve the accuracy of mathematical recognition, extending the linguistic model to the mathematical domain and recognizing the artificial language of mathematics in a way related to natural language recognition. How to do it is disclosed. In addition, US Publication No. 2015-0333390 (published December 17, 2015) receives input sentences and associates them with input sentences so that arithmetic or logarithmic sentence type problems can be solved and responded through natural language processing. Determine whether each sentence in the multiple sentences is a qualified sentence from a mathematical point of view, convert each qualified sentence into a mathematical formula for forming an equation, and convert it into a natural language again. The configuration to be solved is disclosed. Then, in Korean Registered Patent No. 10-1842873 (announced on March 28, 2018), operators and factors are recognized from sentences and images including mathematical formulas, and for mathematical formulas including the recognized operators and factors. It provides a translation of mathematical expressions by translating and outputting the meaning and translating and outputting the relationship between the factor and the operator into a natural language, and the translation interprets the relationship between the operator and the factor and outputs the operator. After extracting the natural language meaning, the composition to be executed by the method of constructing the translated sentence by the natural language meaning and the factor of the extracted operator is disclosed.
ただし、数学文章題問題(Math Word Problem、MWP)を解釈するにおいて、その種類が多様でデータの量も巨大なデータセット(Data Set)に適用するには正確度が落ちる問題があり、前述した韓国登録特許を利用するといっても、韓国語基盤数学用語自然語処理のためのマスコーパス(Math Corpus)の構築が不備であるため、複雑かつ多様な数学問題を解釈し、問題の類型を分類して問題を解くのにその正確度が非常に落ちる。最近、2019年度の大学修学能力試験においてもAIは、30質問項目のうち5問題だけを当て、130万点に16点という受験生の平均である51点にもはるかに及ばない点数を得、推論および思考力問題には全く対応できないことが明らかとなった。すでに、アメリカ、中国および日本は神経網を構築しつつAIに国家試験を受けさせているが、韓国は神経網を構築して実験中の国家や団体が全くなく、それさえもすぐにお金となる金融市場にのみ集中しており、基礎科学の研究には疎かな韓国内の現実を覗き見ることができる。 However, in interpreting the mathematical word problem (Math Word Problem, MWP), there is a problem that the accuracy is low when applying it to a data set (Data Set) with various types and a huge amount of data. Even if you use a Korean registered patent, because the construction of a mass corpus for processing Korean-based mathematical terms and natural languages is inadequate, you can interpret complicated and diverse mathematical problems and classify the types of problems. And the accuracy is very low to solve the problem. Recently, even in the College Scholastic Ability Test in 2019, AI applied only 5 out of 30 question items and got 16 points out of 1.3 million points, which is far less than the average of 51 points of the examinees, and reasoned. And it became clear that he could not deal with the problem of thinking ability at all. Already, the United States, China and Japan have AI take national exams while building a neural network, but South Korea has no nations or organizations building a neural network and experimenting with it, and even that quickly costs money. It is concentrated only in the financial market, and you can peep into the reality in Korea, which is sparse for basic science research.
本発明の一実施例は、数学問題のうち、数学文章題問題(Math Word Problem、MWP)に対して数学問題テキストをマスコーパス(Math Corpus)に基づいて数学項を抽出し、神経網翻訳(Neural Machine Translation、NMT)を利用してなぜそのような翻訳方法を選択したかを説明できるようにし、人工知能およびディープランニングで構築されたレベリングおよびマーキングを通じての学習を進行するようにし、セマンティック分析で意味分析を通じての翻訳規則の最適化を通じて、新しい数学問題が入力された時に問題の類型を自動で分類(Classification)できる数学エンジンプラットホームを提供できる、神経網基盤機械翻訳およびマスコーパスを利用した数学問題概念類型予測サービス提供方法を提供することができる。ただし、本実施例が達成しようとする技術的課題は前記のような技術的課題に限定されず、さらに他の技術的課題が存在し得る。 In one embodiment of the present invention, among mathematical problems, a mathematical problem text is extracted from a mathematical word problem (MWP) based on a mascorpus (Math Corpus), and a neural network translation ( Natural Mathematics Translation (NMT) can be used to explain why such a translation method was selected, to facilitate learning through leveling and marking built with artificial intelligence and deep running, and in semantic analysis. Mathematical problems using neural network-based machine translation and mass corpus that can provide a math engine platform that can automatically classify problem types when new math problems are entered through optimization of translation rules through semantic analysis. It is possible to provide a method for providing a conceptual type prediction service. However, the technical problem to be achieved by this embodiment is not limited to the above-mentioned technical problem, and other technical problems may exist.
前述した技術的課題を達成するための技術的手段として、本発明の一実施例は、数学文章題問題(Math Word Problem)が入力される段階、数学文章題問題を自然語処理(Natural Language Processing)およびイメージ処理を利用してテキストとイメージに分離する段階、分離したテキストをマスコーパス(Math Corpus)に基づいて形態素分析および個体名認識を利用して分析し、イメージを客体認識および意味分析を利用して分析して数学項を抽出するように数式化翻訳を遂行する段階、数式化翻訳された数学項に基づいて概念類型候補群をフィルタリングして抽出および圧縮する段階、数式化翻訳された数学項を既設定された所有格、対象格、時点格、定数項、未知項、および演算項に分類するように分析する段階、および神経網(Neural Networks)基盤機械翻訳(Neural Machine Translation)を利用し、既設定された計算題パターン、文章題パターンおよび図解題パターンの定義に基づいて構文のパターンを分析して数学文章題問題の概念類型を分類(Classification)する段階を含む。 As a technical means for achieving the above-mentioned technical problems, in one embodiment of the present invention, at the stage where a mathematical word problem (Math Word Problem) is input, the mathematical word problem is processed in natural language (Natural Language Processing). ) And the stage of separating into text and image using image processing, the separated text is analyzed using morphological analysis and individual name recognition based on Mathematics, and the image is subjected to object recognition and semantic analysis. The stage of performing mathematical translation to extract mathematical terms by using and analyzing, the stage of filtering, extracting and compressing conceptual type candidates based on the mathematical terms translated into mathematical formulas, and being translated into mathematical formulas. The stage of analyzing mathematical terms to classify them into pre-established possession, object, time point, constant, unknown, and arithmetic terms, and the Natural Machine Translation. It includes a step of classifying the conceptual types of mathematical word problem problems by analyzing the syntax patterns based on the definitions of the already set calculation word patterns, word problem patterns, and illustrated word patterns.
前述した本発明の課題解決手段のうちいずれか一つによると、数学問題のうち、数学文章題問題(Math Word Problem、MWP)に対して数学問題テキストをマスコーパス(Math Corpus)に基づいて数学項を抽出し、神経網翻訳(Neural Machine Translation、NMT)を利用してなぜそのような翻訳方法を選択したかを説明できるようにし、人工知能およびディープランニングで構築されたレベリングおよびマーキングを通じての学習を進行するようにし、セマンティック分析で意味分析を通じての翻訳規則の最適化を通じて新しい数学問題が入力された時に問題の類型を自動で分類(Classification)できる数学エンジンプラットホームを提供することができる。 According to any one of the above-mentioned problem-solving means of the present invention, among mathematical problems, mathematical problem texts for mathematical word problem problems (Math Word Problem, MWP) are math based on the mascorpus (Math Corpus). Extract terms and use neural mathematics translation (NMT) to explain why such translation methods were selected, and learn through leveling and marking built with artificial intelligence and deep running. It is possible to provide a mathematical engine platform that can automatically classify the type of a problem when a new mathematical problem is input through optimization of translation rules through semantic analysis in semantic analysis.
以下では添付した図面を参照して、本発明が属する技術分野で通常の知識を有する者が容易に実施できるように本発明の実施例を詳細に説明する。しかし、本発明は多様な異なる形態で具現され得、ここで説明する実施例に限定されない。そして、図面で本発明を明確に説明するために説明と関係のない部分は省略したし、明細書全体を通じて類似する部分については類似する図面符号を付した。 Hereinafter, examples of the present invention will be described in detail with reference to the accompanying drawings so that a person having ordinary knowledge in the technical field to which the present invention belongs can easily carry out the present invention. However, the present invention can be embodied in a variety of different forms and is not limited to the examples described herein. Then, in order to clearly explain the present invention in the drawings, parts unrelated to the description are omitted, and similar parts are designated by similar drawing reference numerals throughout the specification.
明細書全体において、あう部分が他の部分と「連結」されているとする時、これは「直接的に連結」されている場合だけでなく、その中間に他の素子を挟んで「電気的に連結」されている場合も含む。また、ある部分がある構成要素を「含む」とする時、これは特に反対の記載がない限り、他の構成要素を除くものではなく他の構成要素をさらに含むことができることを意味し、一つまたはそれ以上の他の特徴や数字、段階、動作、構成要素、部分品またはこれらを組み合わせたものなどの存在または付加の可能性をあらかじめ排除しないものと理解されるべきである。 In the entire specification, when the mating parts are "connected" to other parts, this is not only when they are "directly connected", but also "electrically" with another element in between. Including the case where it is "connected to". Also, when a part "includes" a component, this means that other components can be further included, not excluding other components, unless otherwise stated. It should be understood that it does not preclude the possibility of existence or addition of one or more other features or numbers, stages, actions, components, components or combinations thereof.
明細書全体において使われる程度の用語「約」、「実質的に」等は、言及された意味に固有な製造および物質許容誤差が提示される時にその数値でまたはその数値に近接した意味として使われ、本発明の理解を助けるために正確または絶対的な数値が言及された開示内容を非良心的な侵害者が不当に利用することを防止するために使われる。本発明の明細書全体において使われる程度の用語「〜(する)段階」または「〜の段階」は「〜のための段階」を意味しない。 The terms "about", "substantially", etc., as used throughout the specification, are used in their numerical value or in close proximity to that numerical value when the manufacturing and material tolerances inherent in the referred meaning are presented. It is used to prevent unreasonable use by unscrupulous infringers of disclosures that mention accurate or absolute numbers to aid in the understanding of the present invention. The term "step" or "step" as used throughout the specification of the present invention does not mean "step for".
本明細書において「部」とは、ハードウェアによって実現されるユニット(unit)、ソフトウェアによって実現されるユニット、両方を利用して実現されるユニットを含む。また、1個のユニットが2個以上のハードウェアを利用して具現されてもよく、2個以上のユニットが1個のハードウェアによって具現されてもよい。 As used herein, the term "part" includes a unit realized by hardware, a unit realized by software, and a unit realized by using both. Moreover, one unit may be embodied by using two or more hardware, and two or more units may be embodied by one hardware.
本明細書において端末、装置またはデバイスが遂行するものと記述された動作や機能のうち一部は、該当端末、装置またはデバイスと連結されたサーバーで代わりに遂行されてもよい。これと同様に、サーバーが遂行するものと記述された動作や機能のうち一部も、該当サーバーと連結された端末、装置またはデバイスで遂行されてもよい。 Some of the operations or functions described herein as performed by a terminal, device or device may be performed instead by a server associated with that terminal, device or device. Similarly, some of the actions or functions described to be performed by the server may also be performed by a terminal, device or device associated with the server.
本明細書であって、端末とマッピング(Mapping)またはマッチング(Matching)と記述された動作や機能のうち一部は、端末の識別情報(Identifying Data)である端末機の固有番号や個人の識別情報をマッピングまたはマッチングするという意味で解釈され得る。 In this specification, a part of the operations and functions described as mapping or matching with the terminal is the identification information (Identifying Data) of the terminal, which is the unique number of the terminal or the identification of an individual. It can be interpreted in the sense of mapping or matching information.
以下添付された図面を参照して本発明を詳細に説明する。 The present invention will be described in detail with reference to the accompanying drawings.
図1は、本発明の一実施例に係る神経網基盤機械翻訳およびマスコーパスを利用した数学問題概念類型予測サービス提供システムを説明するための図面である。図1を参照すると、神経網基盤機械翻訳およびマスコーパスを利用した数学問題概念類型予測サービス提供システム1は、少なくとも一つのユーザー端末100、数学問題概念類型予測サービス提供サーバー300、少なくとも一つの専門家端末400を含むことができる。ただし、このような図1の神経網基盤機械翻訳およびマスコーパスを利用した数学問題概念類型予測サービス提供システム1は、本発明の一実施例に過ぎないため、図1を通じて本発明が限定解釈されるものではない。
FIG. 1 is a drawing for explaining a mathematical problem concept type prediction service providing system using neural network-based machine translation and a mass corpus according to an embodiment of the present invention. Referring to FIG. 1, the mathematical problem concept type prediction
この時、図1の各構成要素は一般にネットワーク(network、200)を通じて連結される。例えば、図1に図示された通り、少なくとも一つのユーザー端末100はネットワーク200を通じて数学問題概念類型予測サービス提供サーバー300と連結され得る。そして、数学問題概念類型予測サービス提供サーバー300は、ネットワーク200を通じて少なくとも一つのユーザー端末100、少なくとも一つの専門家端末400と連結され得る。また、少なくとも一つの専門家端末400は、ネットワーク200を通じて数学問題概念類型予測サービス提供サーバー300と連結され得る。
At this time, each component of FIG. 1 is generally connected through a network (network, 200). For example, as illustrated in FIG. 1, at least one
ここで、ネットワークは、複数の端末およびサーバーのようなそれぞれのノードの相互間に情報交換が可能な連結構造を意味するものであって、このようなネットワークの一例には、RF、3GPP(3rd Generation Partnership Project)ネットワーク、LTE(Long Term Evolution)ネットワーク、5GPP(5th Generation Partnership Project)ネットワーク、WIMAX(World Interoperability for Microwave Access)ネットワーク、インターネット(Internet)、LAN(Local Area Network)、Wireless LAN(Wireless Local Area Network)、WAN(Wide Area Network)、PAN(Personal Area Network)、ブルートゥース(登録商標)(Bluetooth(登録商標))ネットワーク、NFCネットワーク、衛星放送ネットワーク、アナログ放送ネットワーク、DMB(Digital Multimedia Broadcasting)ネットワークなどが含まれるが、これに限定されはしない。 Here, the network means a connected structure in which information can be exchanged between each node such as a plurality of terminals and servers, and an example of such a network is RF, 3GPP (3rd). Generation Partnership Project) network, LTE (Long Term Evolution) network, 5GPP (5th Generation Partnership Project) network, WIMAX (World Interoperability for Microwave Access) network, the Internet (Internet), LAN (Local Area network), Wireless LAN (Wireless Local Area Network), WAN (Wide Area Network), PAN (Personal Area Network), Bluetooth (registered trademark) (Bluetooth (registered trademark)) network, NFC network, satellite broadcasting network, analog broadcasting network, DMB (Digital Network) Network Etc., but are not limited to this.
下記で、少なくとも一つのという用語は単数および複数を含む用語と定義され、少なくとも一つのという用語が存在せずとも各構成要素が単数または複数で存在し得、単数または複数を意味できることは自明であると言える。また、各構成要素が単数または複数で備えられることは、実施例により変更可能であると言える。 In the following, the term at least one is defined as a term containing singular and plural, and it is self-evident that each component can exist in singular or plural without the presence of at least one and can mean singular or plural. It can be said that there is. Further, it can be said that the provision of each component in a single number or a plurality of components can be changed according to the embodiment.
少なくとも一つのユーザー端末100は、神経網基盤機械翻訳およびマスコーパスを利用した数学問題概念類型予測サービス関連ウェブページ、アプリケーションページ、プログラムまたはアプリケーションを利用して数学問題を解く学生などの端末であり得る。この時、少なくとも一つのユーザー端末100は、数学問題のうち、数学文章題問題(Math Word Problem、MWP)の解釈および解説を所望する学生の端末であり得、このために数学文章題問題を数学問題概念類型予測サービス提供サーバー300で伝送する端末であり得る。そして、少なくとも一つのユーザー端末100は、リアルタイムで問題解釈および解説などのフィードバックデータを数学問題概念類型予測サービス提供サーバー300に伝送を受けることができる端末であり得る。この時、少なくとも一つのユーザー端末100は、数学問題を質疑し得返事をもらう過程を自然語で人工知能チャットボットまたはチャットエージェントと進行できる端末であり得、人工知能チャットボットまたはチャットエージェントは数学問題概念類型予測サービス提供サーバー300から提供されたインターフェースで駆動され得る。
At least one
ここで、少なくとも一つのユーザー端末100は、ネットワークを通じて遠隔地のサーバーや端末に接続できるコンピュータで具現され得る。ここで、コンピュータは例えば、ナビゲーション、ウェブブラウザ(WEB Browser)が搭載されたノートパソコン、デスクトップ(Desktop)、ラップトップ(Laptop)等を含むことができる。この時、少なくとも一つのユーザー端末100は、ネットワークを通じて遠隔地のサーバーや端末に接続できる端末で具現され得る。少なくとも一つのユーザー端末100は、例えば、携帯性と移動性が保証される無線通信装置であって、ナビゲーション、PCS(Personal Communication System)、GSM(登録商標)(Global System for Mobile communications)、PDC(Personal Digital Cellular)、PHS(Personal Handyphone System)、PDA(Personal Digital Assistant)、IMT(International Mobile Telecommunication)−2000、CDMA(Code Division Multiple Access)−2000、W−CDMA(W−Code Division Multiple Access)、Wibro(Wireless Broadband Internet)端末、スマートフォン(smartphone)、スマートパッド(smartpad)、タブレットPC(Tablet PC)等のようなすべての種類のハンドヘルド(Handheld)基盤の無線通信装置を含むことができる。
Here, at least one
数学問題概念類型予測サービス提供サーバー300は、神経網基盤機械翻訳およびマスコーパスを利用した数学問題概念類型予測サービスウェブページ、アプリケーションページ、プログラムまたはアプリケーションを提供するサーバーであり得る。そして、数学問題概念類型予測サービス提供サーバー300は、ユーザー端末100から数学問題のうち数学文章題問題が受信される場合、自然語処理およびイメージ処理を利用してテキストとイメージに分離し、分離したテキストをマスコーパス(Math Corpus)に基づいて個体名を認識(Named Entity Recognition)し、数学項を抽出するサーバーであり得る。そして、数学問題概念類型予測サービス提供サーバー300は、数式化翻訳された数学項に基づいて入力された数学文章題問題に適用された概念と類似する概念類型を有する概念類型候補群を抽出するサーバーであり得る。また、数学問題概念類型予測サービス提供サーバー300は、数式化翻訳された数学項を分析し、神経網(Neural Networks)基盤機械翻訳(Neural Machine Translation)と各文章パターンの定義に基づいて構文のパターンを分析して概念類型を分類できるサーバーであり得る。これにより、数学問題概念類型予測サービス提供サーバー300は、ユーザーが質疑した問題を解くことができる概念類型を正確に予測し、予測した概念類型を適用して問題を解釈し、これを再び自然語に変換してユーザーに説明をする方法でリアルタイムでフィードバックをユーザー端末100で伝達するサーバーであり得る。前述した処理のために、数学問題概念類型予測サービス提供サーバー300は、神経網(Neural Networks)基盤機械翻訳(Neural Machine Translation)モデルを構築するために人工知能機械学習を進行させるサーバーであり得、学習方法は指導学習、半指導学習、強化学習などによって進行され得る。
The mathematical problem concept type prediction
ここで、数学問題概念類型予測サービス提供サーバー300は、ネットワークを通じて遠隔地のサーバーや端末に接続できるコンピュータで具現され得る。ここで、コンピュータは例えば、ナビゲーション、ウェブブラウザ(WEB Browser)が搭載されたノートパソコン、デスクトップ(Desktop)、ラップトップ(Laptop)等を含むことができる。
Here, the mathematical problem concept type prediction
少なくとも一つの専門家端末400は、神経網基盤機械翻訳およびマスコーパスを利用した数学問題概念類型予測サービス関連ウェブページ、アプリケーションページ、プログラムまたはアプリケーションを利用する専門家の端末であり得る。この時、少なくとも一つの専門家端末400は、数学問題概念類型予測サービス提供サーバー300でトレーニングデータを利用して神経網(Neural Networks)基盤機械翻訳(Neural Machine Translation)モデルを構築するために学習する時、人工知能に学習の基準を設定するために数学問題を数学言語に変換した翻訳ファイルを提供する端末であり得る。そして、少なくとも一つの専門家端末400は、人工知能の学習結果で神経網基盤機械翻訳モデルが構築された時、リアルタイムで受信される数学問題を人工知能で処理した結果を校正したりエラーを正すためのデータを数学問題概念類型予測サービス提供サーバー300に伝送する端末であり得る。
The at least one
ここで、少なくとも一つの専門家端末400は、ネットワークを通じて遠隔地のサーバーや端末に接続できるコンピュータで具現され得る。ここで、コンピュータは例えば、ナビゲーション、ウェブブラウザ(WEB Browser)が搭載されたノートパソコン、デスクトップ(Desktop)、ラップトップ(Laptop)等を含むことができる。この時、少なくとも一つの専門家端末400は、ネットワークを通じて遠隔地のサーバーや端末に接続できる端末で具現され得る。少なくとも一つの専門家端末400は、例えば、携帯性と移動性が保証される無線通信装置であって、ナビゲーション、PCS(Personal Communication System)、GSM(登録商標)(Global System for Mobile communications)、PDC(Personal Digital Cellular)、PHS(Personal Handyphone System)、PDA(Personal Digital Assistant)、IMT(International Mobile Telecommunication)−2000、CDMA(Code Division Multiple Access)−2000、W−CDMA(W−Code Division Multiple Access)、Wibro(Wireless Broadband Internet)端末、スマートフォン(smartphone)、スマートパッド(smartpad)、タブレットPC(Tablet PC)等のようなすべての種類のハンドヘルド(Handheld)基盤の無線通信装置を含むことができる。
Here, at least one
図2は図1のシステムに含まれた数学問題概念類型予測サービス提供サーバーを説明するためのブロック構成図であり、図3〜図6は本発明の一実施例に係る神経網基盤機械翻訳およびマスコーパスを利用した数学問題概念類型予測サービスが具現された一実施例を説明するための図面である。 FIG. 2 is a block configuration diagram for explaining a mathematical problem concept type prediction service providing server included in the system of FIG. 1, and FIGS. 3 to 6 show a neural network-based machine translation and a neural network-based machine translation according to an embodiment of the present invention. It is a drawing for demonstrating an example which embodied the mathematical problem concept type prediction service using a mass corpus.
図2を参照すると、数学問題概念類型予測サービス提供サーバー300は、入力部310、分離部320、翻訳部330、フィルタ部340、分析部350、分類部360、学習部360、マッチング部380、解説部390を含むことができる。
With reference to FIG. 2, the mathematical problem concept type prediction
本発明の一実施例に係る数学問題概念類型予測サービス提供サーバー300や連動して動作する他のサーバー(図示されず)が、少なくとも一つのユーザー端末100、および少なくとも一つの専門家端末400に神経網基盤機械翻訳およびマスコーパスを利用した数学問題概念類型予測サービスアプリケーション、プログラム、アプリケーションページ、ウェブページなどを伝送する場合、少なくとも一つのユーザー端末100、および少なくとも一つの専門家端末400は、神経網基盤機械翻訳およびマスコーパスを利用した数学問題概念類型予測サービスアプリケーション、プログラム、アプリケーションページ、ウェブページなどを設置したり開くことができる。また、ウェブブラウザで実行されるスクリプトを利用してサービスプログラムが、少なくとも一つのユーザー端末100、および少なくとも一つの専門家端末400で駆動されてもよい。ここで、ウェブブラウザはウェブ(WWW:world wide web)サービスを利用できるようにするプログラムであって、HTML(hyper text mark−up language)で叙述されたハイパーテキストを受けて見せてくれるプログラムを意味し、例えばネットスケープ(Netscape)、エクスプローラ(Explorer)、クロム(chrome)等を含む。また、アプリケーションは端末上のアプリケーション(application)を意味し、例えば、モバイル端末(スマートフォン)で実行されるアプリケーション(app)を含む。
A
図2を参照すると、入力部310は、数学文章題問題(Math Word Problem)が入力される。この時、数学文章題問題とは、外形的には文章で表現された問題を指すが、文章題の一般的な意味はストーリーが入っている問題であって、数学的な知識を基本内容とするが、これを素材にする問題的状況が文章で提示されている状態の問題を意味する。文章題の構成要素は、問題解決的な要素を中心に問題の構成要素を文章の脈絡(context)、力学(mechanics)、形態(format)を含む。文章題を構成する文章は、指定陳述、関係陳述、質疑陳述、事実陳述の四種類に分けられ得るが、指定陳述はある変数に対して一定の数値を指定する文章である。例えば、「バラ一輪に1000ウォンである」という文章は指定陳述になる。関係陳述は二つの変数間の算術的関係を表すためにある変数を他の変数と関連させる文章である。例えば、「長方形の横の長さは縦の長さより5cmさらに長い」は関係陳述である。そして、質疑陳述はある変数の値に該当する単一の数値を求めるように要求する文章であり、事実陳述は与えられた問題に統合性を付与するために要求される事実を陳述する文章である。
With reference to FIG. 2, the
分離部320は、数学文章題問題を自然語処理(Natural Language Processing)およびイメージ処理を利用してテキストとイメージに分離することができる。この時、自然語処理とは、人間が発話する言語現象を機械的に分析してコンピュータが理解できる形態に作る自然言語理解あるいはそのような形態を再び人間が理解できる言語で表現する諸般技術を意味する。自然語処理方式としては伝統的に規則基盤接近法、統計基盤接近法があり、この二つの強みを統合したハイブリッド方式があり、人工神経網方式があるが、最近浮上しているディープランニング(Deep Learning)が人工神経網方式に該当する。ディープランニングを利用した方式は入力文章と出力文章を一つの対にして置き、最も適合した表現および翻訳結果を探す方式である。自然語処理方式は、まず品詞の付着(POS tagging)から始まるが、品詞の付着は自然語処理技術のうち最も基本となる技術である。膠着語に該当する韓国語は屈折語である英語とは異なって品詞の付着を形態素分析後で遂行することに一般化されているが、形態素分析をせず、品詞付着を遂行する方法も利用され得る。二番目はパーシング(parsing)過程である構文の分析である。韓国語は語順が自由であって、主語を含んだ必須項の省略が頻繁に起きる特徴により構文分析の難易度が高いが、国で開発したセジョンコーパスが利用され得、これに加え、マスコーパス(Math Corpus)も利用され得る。これに加えて、校正(spelling)がさらに含まれ得るが、韓国語校正技術の場合、分かち書き校正と綴り校正技術に大別される。韓国語分かち書きの場合、主にコーパス基盤の統計基盤方式で進行され得るがこれに限定されはしない。韓国語綴り校正研究の場合、韓国語が有する膠着語の特性によりN−gram方式の接近が難しいため、韓国語の綴り校正はrule−based方式で校正語彙対を使用することができるが、同様にこれに限定されるものではない。また、重義性解消(Word Sense Disambiguation、WSD)は主に小規模の意味タグ付きコーパスや辞書の情報などを利用してエントロピー情報、条件付き確率、相互情報などを使って多様に進行され得る。韓国語学習データには目、手、言葉など、重義性がある語彙に対してそれぞれ数十個のデータが含まれ得る。そして、相互参照(Coreference Resolution)がさらに含まれ得る。最後に、個体名認識(Named Entity Recognition、NER)過程がさらに付加され得るが、韓国語個体名認識の場合、多様なドメインで多様なモデルを使うことができる。
翻訳部330は、分離したテキストをマスコーパス(Math Corpus)に基づいて形態素分析および個体名認識を利用して分析し、イメージを客体認識および意味分析を利用して分析して数学項を抽出するように数式化翻訳を遂行できる。この時、翻訳部330は前述した自然語処理技術を続けて利用して形態素を分析し、品詞をタギングし、個体名を認識するなどの過程を遂行できる。本発明の文章題は、テキスト領域とイメージ領域を含む文章題問題を仮定するため、前述した過程が発生する可能性があるが、もしイメージ領域が存在せず、テキスト領域だけで構成される場合には、イメージ領域内の客体認識および意味分析過程は省略され得る。この時、マスコーパス(Math Corpus)は、コーパス(Corpus)とともに数学の問題モデルを定義し、区分するために数学および数学問題を定義する分野で一つの問題を代表するものと考えられるテキスト、発話またはその他標本のコーパスであって、データベースに保存されたものである。自然語処理でコーパス構築の程度が自然語処理正確度を決めるように、数学問題を処理する過程でも問題モデルであるマスコーパスがどの程度構築されているかにより、問題モデルをタギングし、ドメインを定義し、学習させ分離する過程の正確度が高くなり得る。したがって、翻訳部330は、問題モデルを分離するために既構築されたマスコーパスを利用してテキストとイメージから意味分析、翻訳および解決法を探索するための最初の段階として、文章題を翻訳して数学言語に変換させることができる。
The
フィルタ部340は、数式化翻訳された数学項に基づいて概念類型候補群をフィルタリングして抽出および圧縮することができる。図4bを参照すると例えば、概念類型が、二進木や上位−下位メニューを区分する形式で構造化され、第1レベルには、問題形式1(単一問題/セット問題)、第2レベルには、二番目に問題形式2(計算題/文章題/図解題)、第3レベルには、問題類型1(計算機演算型、計算パズル型、単位演算型、方程式型、規則適用型、エラー修正型、四則演算型、陳述完成型、例題提示型、数量比較型、エラー校正型、状況類推型、パターン分析型、数値比較型、垂直線型、漫画対話型、図表作成型、類似図表型)、第4レベルには問題類型2(集める、分ける、補助計算、縦計算、横計算、不等式計算、連結計算、樹形図計算、矢印計算、ウォナン計算、足し算の合併型、足し算の添加型、足し算の比較型など)が存在すると仮定すると(レベルの大きさが高くなるほど子ノード)、フィルタ部340は、翻訳された数学項が、第1レベルに存在する問題形式1のうちいずれであるかを区分し、もしセット問題であれば、第2レベルに存在する問題形式2のうち計算題セット問題であるか文章題セット問題であるかを比較し、もし計算題問題であれば、計算機演算型であるかなどを区分してその候補群を次第に狭めていくのである。最終的に問題型がセット問題(第1レベル)−計算題(第2レベル)−計算機演算型(第3レベル)−集める(第4レベル)に区分されたのであれば、フィルタ部340は、セット問題−計算題−計算機演算型−集める内に含まれた候補群を抽出することになる。
The
再び図2に戻り、分析部350は、数式化翻訳された数学項を既設定された所有格、対象格、時点格、定数項、未知項、および演算項に分類するように分析することができる。この時、翻訳部330で分離されたテキストをマスコーパス(Math Corpus)に基づいて形態素分析および個体名認識を利用して分析し、イメージを客体認識および意味分析を利用して分析して数学項を抽出するように数式化翻訳を遂行しつつ、分離されたテキストを形態素分析および個体名を認識して所有格、対象格、状況格、および数量格に分ける意味把握段階、分離したテキストのうち、キーワードをキーワード数学翻訳を利用して語彙、数字、数式および記号を用語/記号概念単位未知項、定数項、数式および演算子にそれぞれマッチングして構文分析を数学翻訳に変換する段階、イメージのうち、キーシンボルをキーシンボル数学翻訳を利用して計算機、図形、教具、記号、表、および図を、計算機、形態/意味、定数項、意味、形態/意味、および意味にそれぞれ翻訳し、レンダリングが可能なフォーマットに変換して構文分析を数学翻訳に変換する段階を遂行したので、変換された翻訳を基準として分類するプロセスを遂行できる。ここで、翻訳部330で分離されたテキストを形態素分析および個体名を認識して所有格、対象格、状況格、および数量格に分ける意味把握段階は、人物、地域、機関、人工物、および文明に対する個体名は所有格として意味把握し、動物、植物、意味把握で把握された人工物を除いた楽器、武器、および交通手段を含む人工物、文明、物質、および色相模様形態に対する用語は対象格として把握し、一般名詞を含む日、時間および方向に対する用語は状況格として把握し、単位名詞を含む日、時間および数量に対する用語は数量格として把握することで遂行され得る。ただし、前述した定義は前述したものに確定されるものではなく、実施例により変更および変形され得ることは自明であり、人工知能の学習結果により変更され得ることも言うまでもない。
Returning to FIG. 2 again, the
分類部360は、神経網(Neural Networks)基盤機械翻訳(Neural Machine Translation)を利用し、既設定された計算題パターン、文章題パターンおよび図解題パターンの定義に基づいて構文のパターンを分析して数学文章題問題の概念類型を分類(Classification)することができる。この時の分類は、フィルタ部340で候補群に抽出した問題類型から抽出した候補群内で最も類似する候補群をマッチングし、最適の規則マッチング問題を抽出して、ユーザーが質疑した数学問題に適用され得る最適の規則および類似問題を分類(予測)するのである。このように、ユーザーが質疑した問題に適用され得る最適の規則および類似問題が抽出されると、後述する解説部390で最適の規則を該当質疑した問題に適用して解説を生成することになる。
The
一方、学習部370は、入力部310から数学文章題問題(Math Word Problem)が入力される前に、該当文章題問題を解くための神経網(Neural Networks)基盤機械翻訳(Neural Machine Translation)モデルを構築しなければならない。すなわち、何らかの質疑(Query)を処理するためには、これを処理するためのアルゴリズムが構築されなければならない。例えば、y=f(x)というアルゴリズムが存在する場合、xという入力値が処理されるためには、f()という関数(アルゴリズム)が定義されていないと、xを入力とするyを導き出すことができない。同様に、入力部310で入力された質疑(数学文章題問題)を処理するためには、これを分析して解説を進行させるアルゴリズムが設けられていなければならず、本発明の一実施例では神経網(Neural Networks)基盤機械翻訳(Neural Machine Translation)モデルを構築して利用する。
On the other hand, the
この時、神経網基盤機械翻訳は、一つの神経網で翻訳モデルが構成され学習されるという側面で、既存の多様なモジュールに基づいた機械翻訳と異なるパラダイムを提示している。一般的に神経網基盤機械翻訳はエンコーダ(Encoder)とデコーダ(Decoder)で構成されるが、単語で構成された入力文章をエンコーダがベクター空間に表現し、これをデコーダが再び出力文章の単語を一つずつ順次作り出すことで翻訳過程が進行される。このような過程は、伝統的な機械翻訳システムが単語をシンボル(Symbols)水準で直接取り扱っているのと相反する。この時、神経網基盤機械翻訳の説明に先立って、背景知識となるディープランニングの主なアルゴリズムを説明した後に神経網基盤機械翻訳を説明する。 At this time, neural network-based machine translation presents a paradigm different from machine translation based on existing various modules in that a translation model is constructed and learned by one neural network. Generally, neural network-based machine translation is composed of an encoder (Encoder) and a decoder (Decoder). An encoder expresses an input sentence composed of words in a vector space, and the decoder expresses the words of the output sentence again. The translation process proceeds by creating one by one. Such a process contradicts traditional machine translation systems dealing directly with words at the Symbols level. At this time, prior to the explanation of the neural network-based machine translation, the neural network-based machine translation will be explained after explaining the main algorithm of deep running which is the background knowledge.
第1は、オートエンコーダ(AutoEncoder)である。深層網が逆電波だけでは学習が容易でない場合、事前学習過程を使うことができるが、深層網の階層をあらかじめ非監督学習(Unsupervised learning)で学習後、階層を連結して深層網を構成する。オートエンコーダは簡単な神経網であるが、入力(visible)と出力(reconstruction)のターゲットは同じである。すなわち、エンコーディング後にデコーディングした時に本来の入力と同じにならなければならないというものであって、エンコーディングで発生する情報の損失が最小化されることを期待する。エンコーディング行列に対してデコーディングは転置(transpose)で表現できるため同じ変数を使用することができる。学習は復旧エラーの逆電波に基づく。神経網モデルで文章をオートエンコーディングできるが、入力文章がベクターでエンコーディングされて表現され、デコーダが本来の文章を復旧することができる。これを時系列オートエンコーダ(Sequential AutoEncoder、SAE)という。エンコーダとデコーダの言語が異なる場合、翻訳モデルに作られ得るが、例えば文章題数学問題をエンコーディングして表現されたベクターを自然語にデコーディングする場合、これはすなわち、数学の問題解説となる。エンコーダとデコーダは言語別に構成されるが、学習は互いに異なる言語のエンコーダ−デコーダが共に行われなければならない。すなわち、オートエンコーダで各言語別エンコーダとデコーダを学習し、単に互いに異なる言語のエンコーダとデコーダを連結することでは翻訳モデルとしての役割をすることはできない。なぜならば、SAEで学習する場合、エンコーダが作る文章の表現は意味基盤のものではないためである。ひいては、二つの言語のSAEで学習後に両モデルの文章表現の間のマッピング関数を学習することもできないのであるが、同様の理由である。万一、単一語コーパスでオートエンコーダを学習して意味基盤の文章表現が可能であれば、後述する神経網基盤機械翻訳で並列コーパスの量が足りない問題が現在のようには深刻でないはずである。オートエンコーダ概念は並列コーパスが足りない場合、再翻訳(back−translation)という技法で再び現れる。翻訳後に再翻訳する場合、本来の入力文章と同じとなることを望むものであるが、この時は翻訳自体がエンコーディングとなり再翻訳がデコーディングとなる形態となる。 The first is an autoencoder. If the deep network is not easy to learn with only reverse radio waves, the pre-learning process can be used, but after learning the layers of the deep network in advance by unsupervised learning, the layers are connected to form a deep network. .. The autoencoder is a simple neural network, but the target of the input (visual) and the output (reconstruction) are the same. That is, it must be the same as the original input when decoding after encoding, and it is expected that the loss of information generated by encoding will be minimized. The same variables can be used because decoding can be expressed in transpose for the encoding matrix. Learning is based on the reverse radio wave of the recovery error. The sentence can be auto-encoded with the neural network model, but the input sentence is encoded and expressed by the vector, and the decoder can restore the original sentence. This is called a time-series autoencoder (SAE). If the encoder and decoder languages are different, it can be created in a translation model, but for example, when encoding a word problem math problem and decoding a vector expressed in natural language, this is a math problem explanation. Encoders and decoders are organized by language, but learning must be done by encoders and decoders in different languages. That is, it is not possible to play a role as a translation model by learning the encoder and the decoder for each language with the autoencoder and simply connecting the encoder and the decoder of different languages. This is because when learning with SAE, the expression of sentences created by the encoder is not based on meaning. As a result, it is not possible to learn the mapping function between the sentence expressions of both models after learning with SAE in two languages, for the same reason. If it is possible to learn autoencoders with a single-word corpus and express meaning-based sentences, the problem of insufficient parallel corpus in neural network-based machine translation, which will be described later, should not be as serious as it is now. Is. The autoencoder concept reappears with a technique called back-translation when the parallel corpus is lacking. When retranslating after translation, it is hoped that the text will be the same as the original input text, but at this time, the translation itself will be the encoding and the retranslation will be the decoding.
第2は、ワードエンベッディング(Word Embedding)である。シンボルからなる単語の連続である文章を神経網に入力するにはこれらをベクターに変換しなければならないが、ワードエンベッディングという手順を経て変換する。ワードエンベッディングのために、まずすべての単語を集めた単語辞書を作る。この辞書は普通の辞書とは異なり、ただ単語のリストであって、このリストを作る方法はコーパスで最も頻繁に表れる単語を探して作るのが一般的である。辞書の製作が終ると順序が決まるのであるが、順序に特別な意味はなく、一度決まった順序はその単語のIDとなる。このIDを利用して各単語に該当するワンホット(one−hot)表現のベクターを作ることができる。例えば、単語の個数が合計10Kであれば10K次元のベクターを作り、その単語のIDが7であれば10K次元のベクターですべての値は0であり、7番目の値のみ1となるベクターとなる。単語がベクターの形態で表現されたが、各単語間の距離はすべて同じである。すなわちこの表現は何の意味を有さないのであるが、学習前に作られたベクターが無意味なものであることは当然である。ワンホットベクターを意味を表現するベクターに変換する過程はワードエンベッディング行列を使う。D次元のワードエンベッディングを得るためには、エンベッディング行列はNxD行列となる。すなわち、N次元のワンホットベクターをNxD行列に積算することでD次元のベクターを得ることができる。この行列の初期値はよくランダムに与えられ、学習を通じてその値が決定されるが、そのベクター値は空間で単語の意味を含むことになり、類似する意味の単語はベクター空間から近いところに位置することになる。ワードエンベッディング行列は初期値はランダムで始まって学習をする変数であるが、神経網基盤翻訳モデルの入出力に連結されて共に学習されてもよく、他のアルゴリズムで事前に学習した結果を持って行って使うこともできる。事前学習のためのアルゴリズムとしてはモデルとデータの構造により、Skip−gram、CBOW、言語モデル(Language model)、TransEなどが使われ得るが、これに限定されるものではない。また、事前学習された結果を固定し、神経網基盤翻訳モデルの他の変数のみ学習してもよく、共に追加学習してもよい。 The second is Word Embedding. In order to input a sentence consisting of a series of words consisting of symbols into the neural network, these must be converted into vectors, which are converted through a procedure called word embedding. For word embedding, first create a word dictionary that collects all the words. This dictionary is different from ordinary dictionaries, it is just a list of words, and the method of making this list is generally to search for the words that appear most frequently in the corpus. The order is decided when the dictionary is made, but the order has no special meaning, and the order once decided becomes the ID of the word. Using this ID, a vector of one-hot expression corresponding to each word can be created. For example, if the total number of words is 10K, a 10K-dimensional vector is created, and if the ID of the word is 7, all the values are 0 and only the 7th value is 1. Become. The words are represented in the form of vectors, but the distance between each word is all the same. That is, this expression has no meaning, but it is natural that the vector created before learning is meaningless. The process of converting a one-hot vector into a vector that expresses meaning uses a word embedding matrix. To obtain D-dimensional word embedding, the embedding matrix is an NxD matrix. That is, a D-dimensional vector can be obtained by integrating the N-dimensional one-hot vector into the NxD matrix. The initial value of this matrix is often given randomly and its value is determined through learning, but the vector value will contain the meaning of the word in space, and words with similar meanings will be located closer to the vector space. Will be done. The initial value of the word embedding matrix is a variable that starts randomly and learns, but it may be connected to the input and output of the neural network-based translation model and learned together, and the result learned in advance by another algorithm can be used. You can also take it with you and use it. As an algorithm for pre-learning, Skip-gram, CBOW, Language model, TransE, etc. can be used depending on the structure of the model and data, but the algorithm is not limited thereto. In addition, the pre-learned result may be fixed, and only other variables of the neural network-based translation model may be learned, or additional learning may be performed together.
第3は、複合性原理(The Principle of Compositionality)である。 The third is the principle of composition (The Principle of Compositionality).
学習されたワードエンベッディング行列が単語の意味を決定するが、これで文章の意味が決定されるわけではない。例えば、「Mary loves John」と「John loves Mary」は同じ単語で構成されているが、他の意味の文章となる。すなわち、文章の意味は単語の意味と共に結合される方式によって決定されるが、これを複合性原理という。自然語処理で複合性の原理は有限な単語と有限な結合方式を通じてほぼ無限に近い文章を作ることができる生産性(productivity)と、このような無限の文章が作られ理解するための体系性(systematicity)を含む。これを適用した神経網は以下の通りである。 The learned word embedding matrix determines the meaning of a word, but it does not determine the meaning of a sentence. For example, "Mary loves John" and "John loves Mary" are composed of the same word, but have different meanings. That is, the meaning of a sentence is determined by the method of being combined with the meaning of a word, which is called the principle of composition. The principle of complexity in natural language processing is productivity, which enables the creation of almost infinite sentences through finite words and finite combination methods, and the systematic nature for creating and understanding such infinite sentences. (Systemivity) is included. The neural network to which this is applied is as follows.
まず、循環神経網(Recurrent Neural Networks、RNNs)は、一般神経網の各階層で上位階層への連結だけでなく自分自身の階層にも連結を作るが、このような戻ってくる連結はメモリの役割をすることによってデータの時間的な変化をモデリングできるようにする。この時、戻ってくる連結に対する学習はLSTM(Long Short−Term Memory)、GRU(Gated Recurrent Unit)、iRNN、uRNN、PRU(Persistant Recurrent Units)が利用され得る。そして、畳み込み神経網(Convolutional Neural Networks、CNNs)の重要な特徴のうち一つは脳神経科学的な発見に基づいたモデルであるということであるが、これは地域的受容野(local receptive fields)、プーリング(pooling)のような概念に基づいて地域的受容野を全体イメージに畳み込んで(convolution)神経網の連結強度を共有する方法で変数の数を大幅に縮小したものである。事前学習がなくても学習可能な理由は、地域的連結と共有された連結が逆伝播されるエラー情報を消えないようにしエラーの分散を減らすためである。この時、神経網基盤翻訳モデルで畳み込み神経網が使われる場合、複合性の原理はカーネル(kernel)によって具現される。つまり、RNNで循環連結が行う結合の役割を多様な階層のカーネルが行っているのである。また、注意技法(Attention Mechanism)は、RNNあるいはCNNが行う役割を注意技法が代替することによってエンコーダとデコーダにそれぞれ一つずつの注意技法があり、その両者間にもう一つの注意技法があるモデルとなる。RNNあるいはCNNでの結合の原理がそれぞれ循環連結あるいはカーネル強度によってモデルされ学習されるのに対し、注意技法モデルでは各単語別に必要な単語に注意を置くことによって直接結合する。最後に、言語モデル(Language Model)は言語の統辭的あるいは意味的構造をモデリングして学習する。一般的に言語モデルはオート回帰(Auto Regressive)モデルと見なすことができるが、その前までに与えられた単語からその次の単語の確率を計算することになり、これを通じて全体の文章の傾向(Likelihood)を確認することができる。 First, recurrent neural networks (RNNs) make connections not only to higher layers but also to their own layers at each layer of the general neural network, but such returning connections are memory. By playing a role, it enables modeling of changes in data over time. At this time, RSTM (Long Short-Term Memory), GRU (Gated Recurrent Unit), iRNN, uRNN, and PRU (Persistant Recurrent Units) can be used for learning for the returning connection. And one of the important features of the Convolutional Neural Networks (CNNs) is that it is a model based on neuroscientific findings, which is the regional receptive fields, The number of variables is significantly reduced by convolving regional receptive fields into the overall image and sharing the connection strength of the neural network based on a concept such as pooling. The reason why learning is possible without pre-learning is to prevent the error information that is back-propagated by the regional concatenation and the shared concatenation from disappearing and to reduce the variance of the error. At this time, when the convolutional neural network is used in the neural network-based translation model, the principle of complexity is embodied by the kernel. In other words, kernels of various layers play the role of coupling performed by circular connection in RNN. Attention technique is a model in which the encoder and decoder each have one attention technique by substituting the role played by the RNN or CNN, and there is another attention technique between the two. It becomes. Whereas the principle of binding in RNN or CNN is modeled and learned by cyclic connection or kernel strength, respectively, in the attention technique model, it connects directly by paying attention to the necessary words for each word. Finally, a language model (Language Model) models and learns the traditional or semantic structure of a language. In general, the language model can be regarded as an Auto Regressive model, but the probability of the next word is calculated from the words given before that, and the tendency of the whole sentence (through this). Likelihood) can be confirmed.
前述した基本概念に基づいて神経網基盤翻訳モデル(Neural Machine Translation Models)を説明する。 A neural machine translation model (Neural Machine Translation Models) will be described based on the above-mentioned basic concept.
神経網基盤翻訳モデルは、入力文章とターゲット文章が共にある学習の場合と入力文章のみがある実際の翻訳の場合、エンコーダの部分は同じであり、デコーダで若干の差がある。翻訳モデルの学習は入力文章が与えられた時にターゲット文章の確率を最大化するように学習し、ターゲット文章の場合、言語モデルのようにその前までの単語も与えられた条件で現在の単語の確率の積で表現される。まず、入力文章の場合、エンコーディングをすることになる。与えられた文章が単語のIDで構成されているので、前述したようにワードエンベッディングを経た後単語ベクターに変換する。そして、この単語ベクターを入力に両方向RNNを経る。RNNはLSTMあるいはGRUなどを使うことができる。順方向と逆方向出力値を合わせて(concatenate)エンコーディングの結果ベクターを作る。 In the neural network-based translation model, the encoder part is the same in the case of learning with both the input sentence and the target sentence and in the case of the actual translation with only the input sentence, and there is a slight difference in the decoder. Learning the translation model learns to maximize the probability of the target sentence when the input sentence is given, and in the case of the target sentence, like the language model, the previous word is also the current word under the given condition. Expressed as the product of probabilities. First, in the case of input text, it will be encoded. Since the given sentence is composed of word IDs, it is converted into a word vector after undergoing word embedding as described above. Then, this word vector is input and undergoes a bidirectional RNN. For RNN, LSTM, GRU, etc. can be used. Concatenate the forward and reverse output values to create an encoding result vector.
デコーダはRNNと単純神経網で構成される。RNNは隠匿値および入力値を利用して出力データを出力する構造を有することになるが、単純神経網を適用して結果値を得ることになり、最後のアルゴリズムを経ながら出力データを予測することになる。出力データを予測する時の学習の場合にはターゲット文章が存在するのでこれを使用できるが、実際の翻訳の場合には正解ターゲットが存在しないため、予測した結果を使うしかない。この場合、学習と実際の翻訳の間に差が発生し得る。パターン認識の場合、既設定された条件を満足しなければならないが、学習と実際の翻訳間の差を減らすために、スケジュールサンプリング(Scheduled Sampling)技法と強化学習などが利用され得る。 The decoder consists of an RNN and a simple neural network. The RNN will have a structure that outputs output data using hidden values and input values, but the result value will be obtained by applying a simple neural network, and the output data will be predicted through the final algorithm. It will be. In the case of learning when predicting output data, this can be used because there is a target sentence, but in the case of actual translation, there is no correct target, so there is no choice but to use the predicted result. In this case, there can be a difference between learning and actual translation. In the case of pattern recognition, the preset conditions must be satisfied, but scheduled sampling techniques and reinforcement learning can be used to reduce the difference between learning and actual translation.
翻訳モデルの学習は他のディープランニングモデルの学習と同様に多様な最適化アルゴリズム(RMSprop、Adam、あるいはAdadelta)の中から選択して使うことができる。翻訳モデルは翻訳システムとしても重要であるが、それ自体でディープランニングにおいて多様な応用分野に直間接的に活用されるという面で重要である。まず要約(summarization)は翻訳モデルを略そのまま適用可能である。すなわち段落あるいは文書を入力とし、要約結果を出力として翻訳する。もちろん要約の特性を考慮してモデルを改善することもできる。イメージキャプション生成も翻訳モデルの一部(正確にはデコーダの部分)をそのまま使用することができ、イメージをCNNでエンコーディングし、デコーダは前述した同じ方式を使ってキャプション文章を生成することができる。その他にも時系列データを他の時系列データに変換する応用は翻訳に理解し翻訳モデルを修正して適用することができる。前述した方法は本発明の一実施例の変更につれて、変更または変形適用され得、前述したものに限定されないことは自明である。 The training of the translation model can be selected and used from various optimization algorithms (RMSprop, Adam, or Addaleta) like the training of other deep running models. The translation model is important as a translation system, but it is also important in that it is directly and indirectly utilized in various application fields in deep running. First, the summarization can apply the translation model almost as it is. That is, a paragraph or document is input, and the summary result is translated as output. Of course, the model can be improved by considering the characteristics of the summary. For image caption generation, a part of the translation model (to be exact, the decoder part) can be used as it is, the image is encoded by CNN, and the decoder can generate a caption sentence using the same method described above. In addition, the application of converting time series data to other time series data can be applied by understanding the translation and modifying the translation model. It is self-evident that the methods described above may be modified or modified as the embodiment of the present invention is modified and are not limited to those described above.
前述した神経網基盤翻訳モデルの概念に基づいて、継続学習部370のプロセスを説明する。学習部370は、数学問題を解決する端緒に対応する数学問題内テキストのキーワード(Keyword)および数学問題内イメージのキーシンボル(Key−Symbol)の位置および形態を表示したマーキングファイルと、数学問題を構文、数式および解説のトリプルモデル(構文−数式−解釈)の数学言語に変換した翻訳ファイルを類似パターン別に複数対入力を受けることができる。そして、学習部370は、類似パターンの新しい数学問題の原本ファイル複数問題の入力を受け、人工知能で既学習した仮説規則に対応するように分析して構文、数式および解説の数学言語に翻訳ファイルを生成することができる。また、専門家端末400から類似パターンの新しい数学問題の原本ファイル複数問題に対してキーワードおよびキーシンボルが表示されたマーキングファイルと、数学言語に変換された翻訳ファイルの入力を受け、専門家端末400から入力されたマーキングファイルおよび翻訳ファイルと、人工知能で仮説規則に対応するように分析した翻訳ファイルを比較分析し、比較分析結果に基づいて既学習された仮説規則を修正および補完してアブダクション(Abduction)規則を生成することができる。この時、アブダクションからくち、結果を通じて中間段階を推理するものである。すなわち、すでに知っている理論と結果を通じて原因を推定するものである。
The process of the
そして、学習部370は、数学問題を解決する端緒に対応する数学問題内テキストのキーワード(Keyword)および数学問題内イメージのキーシンボル(Key−Symbol)の位置および形態を表示したマーキングファイルと、数学問題を構文、数式および解説のトリプルモデルの数学言語に変換した翻訳ファイルを類似パターン別に複数対入力を受ける時、以下の特徴ベクターを抽出する過程を実行することになり、この時は学習部370内の人工知能を通じて遂行される。
Then, the
学習部370は、入力された数学問題の原本ファイルをテキスト領域とイメージ領域に分割してテキスト領域から文章単位で単語表現(Word Embedding)ベクターを抽出し、イメージ領域からイメージ領域をなすイメージ客体をそれぞれ分離(Object Localization)して第1特徴ベクターを抽出することができる。そして、学習部370は、入力された数学問題のマーキングファイルからキーワード単位で、位置情報、字素の形態、個数の情報を第2特徴ベクターとして抽出し、キーシンボルの位置、形態および大きさの情報を第3特徴ベクターとして抽出することができる。また、学習部370は、専門家端末400から数学問題を数学言語に翻訳した翻訳ファイルから構文、数式および解説のそれぞれを第4特徴ベクターとして抽出し、マーキングファイルと原本ファイルから抽出したテキストとイメージに対する第1〜第3特徴ベクターと、翻訳ファイルから抽出した第4特徴ベクターの間の関係を分析して仮説規則を生成することができる。このように生成された仮説規則は、前述した通り翻訳ファイルを生成するために利用される。この時、構文、数式および解説内の数値は可変要素に処理され得、このように学習された結果である神経網基盤翻訳モデルを利用してユーザーから質疑が存在する場合、最適な問題類型をマッチングして解説を生成し、ユーザーに伝達することになる。これについては、後述する。
The
マッチング部380は、分類部360で神経網(Neural Networks)基盤機械翻訳(Neural Machine Translation)を利用し、既設定された計算題パターン、文章題パターンおよび図解題パターンの定義に基づいて構文のパターンを分析して数学文章題問題の概念類型を分類(Classification)した後、分類した概念類型と類似する問題を段階別にマッチングして比較し、概念類型で適用されてこそ最適の規則を有するマッチング問題を抽出することができる。この時、分類した概念類型と類似する問題は、概念単位であるスキーマの類似問題集合分類内に含まれたモデル問題、同値問題、同型問題、同意問題、交差問題、および推理問題を含むことができるが、これに限定されはしない。
The
そして、モデル問題は、図3dを参照すると、単位概念別に機械学習の指導学習を通じてモデリングされた後にマスコーパスで構築した問題であり、同値問題は形態と意味が同じである同型−同意問題であって、モデル問題と問題の脈絡のキーワードが同じであり解決の手続きも同じである問題であり、同型問題は形態は同じであるが意味は異なる同型−異義問題であって、モデル問題と問題の脈絡のキーワードは同じであるが解決の手続きが異なる問題であり、同意問題は形態は異なるが意味は同じである異型−同意問題であって、モデル問題と問題の脈絡のキーワードは異なるが解決の手続きが同じである問題であり、交差問題は形態が互いに異なり意味も異なる相反−異義問題であって、モデル問題と問題の脈絡のキーワードが反対であり解決の手続きも異なる問題であり、推理問題は形態と意味がすべて異なる異型−異義問題であって、モデル問題と問題の脈絡のキーワードが異なり解決の手続きも異なる問題であり得る。 Then, referring to FIG. 3d, the model problem is a problem constructed by the mass corpus after being modeled by the instructional learning of machine learning for each unit concept, and the equivalence problem is an isomorphism-agreement problem having the same form and meaning. Therefore, the keywords of the model problem and the context of the problem are the same, and the procedure for solving the problem is also the same. The isomorphic problem is an isomorphic-differential problem with the same form but different meaning, and the model problem and the problem The keywords of the context are the same, but the procedure for solving them is different. The consent problem is a variant-consent problem with different forms but the same meaning, and the keywords of the model problem and the context of the problem are different, but they are solved. It is a problem with the same procedure, and the intersection problem is a reciprocal-differential problem with different forms and different meanings, and the keywords of the model problem and the context of the problem are opposite, and the procedure for solving is also different. Is an isomorphic-equivalent problem with all different forms and meanings, and can be a problem with different keywords for the model problem and the context of the problem, and different resolution procedures.
解説部390は、分類部360で神経網(Neural Networks)基盤機械翻訳(Neural Machine Translation)を利用し、既設定された計算題パターン、文章題パターンおよび図解題パターンの定義に基づいて構文のパターンを分析して数学文章題問題の概念類型を分類(Classification)した後、分類した概念類型に基づいて数学文章題問題の数式および解説を生成し、解説を自然語処理して解説を生成することができる。
The
以下、前述した図2の数学問題概念類型予測サービス提供サーバーの構成による動作過程を図3〜図6を例にして詳細に説明する。ただし、実施例は本発明の多様な実施例のうちいずれか一つに過ぎず、これに限定されないことは自明である。 Hereinafter, the operation process according to the configuration of the mathematical problem concept type prediction service providing server of FIG. 2 described above will be described in detail with reference to FIGS. 3 to 6 as an example. However, it is self-evident that the examples are only one of the various examples of the present invention and are not limited thereto.
図3aおよび図3bを参照すると、小学校の数学問題にテキスト領域とイメージ領域が含まれた文章題問題が存在すると仮定する。これを、ユーザー端末100で質疑をした場合、数学問題概念類型予測サービス提供サーバー300は、まずテキスト領域とイメージ領域を分離し、数学問題を解決しようとする核心端緒となるテキストのキーワード(二つの数の和が大きいと、ある数)と、イメージ領域のキーシンボル(9と4、6)の位置と形態を表示したマーキングファイルと、該当問題を[構文]−[数式]−[解説]のトリプルモデルの数学言語に変換した変換ファイルを類似パターン別に10対を入力する。そして、数学問題概念類型予測サービス提供サーバー300は、類似パターンの新しい数学問題の原本ファイル30質問項目を入力し、人工知能ですでに学習した仮説規則に沿って自ら分析して[構文]−[数式]−[解説]の数学言語に翻訳ファイルを生成するようにし、原本ファイル30質問項目に対して専門家端末400からキーワードとキーシンボルを表示したマーキングファイルと、数学言語に変換した翻訳ファイルの入力を受けて人工知能で仮説規則で翻訳した結果を比較および分析することによって、仮説規則を修正したアブダクション規則を生成する。この時、前述した過程はmathML基盤のレンダリングが可能なフォーマットで構築され、これは図3cの通りである。そして、図3dのように最適の規則がマッチングされ、この過程で神経網基盤機械翻訳モデルを利用して類似問題を段階別にマッチングし比較し、最適の規則マッチング問題を抽出することになる。そして、図3eを参照すると、テキスト意味分析、キーワード数学翻訳、およびキーシンボル数学翻訳のマッチングテーブルの実施例が記載される。これにより、各テキストと数字図形などが翻訳される。また、図3fと図3gを参照すると、意味項目別の構文分析要素と、単位名詞を分類したテーブルが図示されるが、これに限定されるものではなく、人工知能学習が進行されながら、または新しい形態がさらに入力される場合、変形され得ることは自明である。
With reference to FIGS. 3a and 3b, it is assumed that an elementary school math problem includes a word problem problem that includes a text area and an image area. When a question is asked on the
図4aは表象変換パターンと、表象変換パターンの例示を図示し、図4bは初等数学問題分類概要を図示する。この時、各問題形式を階層的構造に分類することについては前述した通りである。図4cは小学校の数学1〜2年生の問題を概念単位で内容コード、上位コード、学校級、要素などの内容情報と、教科コード、教育過程、ID、学校級、学年および学期、単元などに、数学問題についてのテーブルを図示する。図5aは本発明の一実施例に係る方法を利用して数学AIチューターサービスが進行される概略的な過程を図示する。そして、図5bを参照すると、数学翻訳方法は神経網学習結果を翻訳規則でスキーママップを円形モデルで生成するようにする差異点を図示する。そして、円形モデルと変形モデルがスキーマ群集マップとして作動するようにし、専門家が定期的に検討して管理するようにする。 FIG. 4a illustrates a representational transformation pattern and an example of the representational transformation pattern, and FIG. 4b illustrates an outline of the classification of elementary mathematical problems. At this time, the classification of each problem type into a hierarchical structure is as described above. Fig. 4c shows the problems of elementary school mathematics 1st and 2nd grades in conceptual units, including content information such as content code, upper code, school class, and elements, as well as subject code, curriculum, ID, school class, grade and semester, and unit. , Illustrate a table for math problems. FIG. 5a illustrates a schematic process in which a mathematical AI tutor service is carried out using the method according to an embodiment of the present invention. Then, referring to FIG. 5b, the mathematical translation method illustrates the differences that make the neural network learning result generate a schema map in a circular model with translation rules. Then, make sure that the circular model and the deformed model act as a schema crowd map, and have experts review and manage them on a regular basis.
図5および図6は構文分析および数式翻訳規則を定義したテーブルを図示するが、各形態素分析されたキーワードとキーシンボルがどのように翻訳され、数式項に翻訳されるかを定義したテーブルである。また、図6fは足算、引き算の文章題に対するタギング(Tagging)を示しているが、これも教科課程が変更される場合等や新しい問題が添加されるのかにより変更可能である。そして、それぞれのテキストはこのテーブルによって翻訳されるが、これに限定されるものではなく、実施例により変更され得ることは自明である。 5 and 6 illustrate a table that defines syntactic analysis and mathematical translation rules, but is a table that defines how each morphologically analyzed keyword and key symbol is translated into a mathematical term. .. Further, FIG. 6f shows tagging for the word problem of addition and subtraction, which can also be changed depending on the case where the curriculum is changed or whether a new problem is added. And each text is translated by this table, but it is self-evident that it is not limited to this and can be changed by the examples.
このような図2〜図6の神経網基盤機械翻訳およびマスコーパスを利用した数学問題概念類型予測サービス提供方法について説明されていない事項は、前述した、図1の神経網基盤機械翻訳およびマスコーパスを利用した数学問題概念類型予測サービス提供方法の内容と同じであるか説明された内容から容易に類推可能であるため、以下では説明を省略する。
図7は、本発明の一実施例に係る神経網基盤機械翻訳およびマスコーパスを利用した数学問題概念類型予測サービス提供方法を説明するための動作フローチャートである。図7を参照すると、数学問題概念類型予測サービス提供サーバーは、数学文章題問題(Math Word Problem)の入力を受けて(S7100)、数学文章題問題を自然語処理(Natural Language Processing)およびイメージ処理を利用してテキストとイメージに分離する(S7200)。
Matters that have not been explained about the method of providing the mathematical problem concept type prediction service using the neural network-based machine translation and the mass corpus of FIGS. 2 to 6 described above are the above-mentioned neural network-based machine translation and the mass corpus of FIG. Since it can be easily inferred from the content explained whether it is the same as the content of the mathematical problem concept type prediction service provision method using the above, the description is omitted below.
FIG. 7 is an operation flowchart for explaining a method of providing a mathematical problem concept type prediction service using neural network-based machine translation and a mass corpus according to an embodiment of the present invention. Referring to FIG. 7, the mathematical problem concept type prediction service providing server receives the input of the mathematical word problem (Math Word Problem) (S7100), and processes the mathematical word problem in natural language processing (Natural Language Processing) and image processing. Is used to separate text and images (S7200).
そして、数学問題概念類型予測サービス提供サーバーは、分離したテキストをマスコーパス(Math Corpus)に基づいて形態素分析および個体名認識を利用して分析し、イメージを客体認識および意味分析を利用して分析して数学項を抽出するように数式化翻訳を遂行する(S7300)。 Then, the mathematical problem concept type prediction service providing server analyzes the separated texts using morphological analysis and individual name recognition based on the mascorpus, and analyzes the image using object recognition and semantic analysis. Then, the mathematical translation is performed so as to extract the mathematical term (S7300).
また、数学問題概念類型予測サービス提供サーバーは、数式化翻訳された数学項に基づいて概念類型候補群をフィルタリングして抽出および圧縮し(S7400)、数式化翻訳された数学項を既設定された所有格、対象格、時点格、定数項、未知項、および演算項に分類するように分析する(S7400)。 In addition, the mathematical problem concept type prediction service providing server filters, extracts and compresses the conceptual type candidate group based on the mathematical term translated into mathematical expressions (S7400), and the mathematical term translated into mathematical expression is already set. The analysis is performed so as to classify into possession case, object case, time point case, constant term, unknown term, and arithmetic term (S7400).
そして、数学問題概念類型予測サービス提供サーバーは、神経網(Neural Networks)基盤機械翻訳(Neural Machine Translation)を利用し、既設定された計算題パターン、文章題パターンおよび図解題パターンの定義に基づいて構文のパターンを分析して数学文章題問題の概念類型を分類(Classification)する(S7500)。 Then, the mathematical problem concept type prediction service providing server uses the neural network-based machine translation (Neural Machine Translation), and is based on the definitions of the already set calculation problem pattern, word problem pattern, and illustration problem pattern. The syntactic pattern is analyzed to classify the conceptual types of mathematical word problem problems (S7500).
前述した段階(S7100〜S7500)間の順序は例示に過ぎず、これに限定されない。すなわち、前述した段階(S7100〜S7500)間の順序は互いに変動され得、このうち一部の段階は、同時に実行または削除されてもよい。 The order between the above-mentioned stages (S7100 to S7500) is merely an example, and is not limited thereto. That is, the order between the above-mentioned stages (S7100 to S7500) can be changed from each other, and some of the stages may be executed or deleted at the same time.
このような図7の神経網基盤機械翻訳およびマスコーパスを利用した数学問題概念類型予測サービス提供方法について説明されていない事項は、前述した図1〜図6の神経網基盤機械翻訳およびマスコーパスを利用した数学問題概念類型予測サービス提供方法の内容と同じであるか説明された内容から容易に類推可能であるため、以下では説明を省略する。 For matters that have not been explained about the method of providing the mathematical problem concept type prediction service using the neural network-based machine translation and the mass corpus of FIG. 7, the neural network-based machine translation and the mass corpus of FIGS. Since it can be easily inferred from the contents explained whether it is the same as the contents of the method for providing the mathematical problem concept type prediction service used, the explanation is omitted below.
図7を通じて説明された一実施例に係る神経網基盤機械翻訳およびマスコーパスを利用した数学問題概念類型予測サービス提供方法は、コンピュータによって実行されるアプリケーションやプログラムモジュールのようなコンピュータによって実行可能な命令語を含む記録媒体の形態でも具現され得る。コンピュータ読み取り可能媒体はコンピュータによってアクセスされ得る任意の使用可能媒体であり得、揮発性および不揮発性媒体、分離型および非分離型媒体をすべて含む。また、コンピュータ読み取り可能媒体はコンピュータ保存媒体をすべて含むことができる。コンピュータ保存媒体はコンピュータ読み取り可能命令語、データ構造、プログラムモジュールまたはその他のデータのような情報の保存のための任意の方法または技術で具現された揮発性および不揮発性、分離型および非分離型媒体をすべて含む。 The method of providing a mathematical problem concept type prediction service using neural network-based machine translation and a mass corpus according to an embodiment described through FIG. 7 is a computer-executable instruction such as an application executed by a computer or a program module. It can also be embodied in the form of a recording medium containing words. Computer-readable media can be any usable medium that can be accessed by a computer, including all volatile and non-volatile media, separable and non-separable media. Also, computer readable media can include all computer storage media. Computer storage media are volatile and non-volatile, separable and non-separable media embodied in any method or technique for the storage of information such as computer-readable instructions, data structures, program modules or other data. Including all.
前述した本発明の一実施例に係る神経網基盤機械翻訳およびマスコーパスを利用した数学問題概念類型予測サービス提供方法は、端末機に基本的に設置されたアプリケーション(これは、端末機に基本的に搭載されたプラットホームや運営体制などに含まれたプログラムを含むことができる)により実行され得、ユーザーがアプリケーションストアサーバー、アプリケーションまたは該当サービスと関連したウェブサーバーなどのアプリケーション提供サーバーを通じてマスター端末機に直接設置したアプリケーション(すなわち、プログラム)により実行されてもよい。このような意味で、前述した本発明の一実施例に係る神経網基盤機械翻訳およびマスコーパスを利用した数学問題概念類型予測サービス提供方法は、端末機に基本的に設置されるかユーザーによって直接設置されたアプリケーション(すなわち、プログラム)で具現され、端末機などのコンピュータで読み取り可能な記録媒体に記録され得る。 The method for providing a mathematical problem concept type prediction service using neural network-based machine translation and a mass corpus according to an embodiment of the present invention described above is an application basically installed in a terminal (this is a basic application in the terminal). It can be executed by a program included in the platform or operating system installed in the user, and the user can use it as a master terminal through an application store server, an application, or an application providing server such as a web server associated with the service. It may be executed by a directly installed application (ie, program). In this sense, the method for providing the mathematical problem concept type prediction service using the neural network-based machine translation and the mass corpus according to the above-described embodiment of the present invention is basically installed in the terminal or directly by the user. It can be embodied in an installed application (ie, a program) and recorded on a computer-readable recording medium such as a terminal.
前述した本発明の説明は例示のためのものであって、本発明が属する技術分野の通常の知識を有する者は、本発明の技術的思想や必須の特徴を変更することなく他の具体的な形態に容易に変形できることが理解できるはずである。したがって、以上で記述した実施例はすべての面で例示的なものであって、限定的ではないものと理解されるべきである。例えば、単一型に説明されている各構成要素は分散して実施されてもよく、同様に分散したものと説明されている構成要素も結合した形態で実施され得る。 The above description of the present invention is for illustration purposes only, and a person having ordinary knowledge in the technical field to which the present invention belongs can use other concrete elements without changing the technical idea or essential features of the present invention. It should be understood that it can be easily transformed into various forms. Therefore, it should be understood that the examples described above are exemplary in all respects and are not limiting. For example, each component described as a single type may be implemented in a distributed manner, and components described as similarly distributed may also be implemented in a combined form.
本発明の範囲は前記詳細な説明よりは後述する特許請求の範囲によって示され、特許請求の範囲の意味および範囲、そしてその均等概念から導き出されるすべての変更または変形された形態は本発明の範囲に含まれるものと解釈されるべきである。
The scope of the present invention is indicated by the scope of claims described later rather than the detailed description, and the meaning and scope of the scope of claims and all modified or modified forms derived from the concept of equality thereof are the scope of the present invention. Should be interpreted as included in.
Claims (10)
数学文章題問題(Math Word Problem)が入力される段階;
前記数学文章題問題を自然語処理(Natural Language Processing)およびイメージ処理を利用してテキストとイメージに分離する段階;
前記分離したテキストをマスコーパス(Math Corpus)に基づいて形態素分析および個体名認識を利用して分析し、前記イメージを客体認識および意味分析を利用して分析して数学項を抽出するように数式化翻訳を遂行する段階;
前記数式化翻訳された数学項に基づいて概念類型候補群をフィルタリングして抽出および圧縮する段階;
前記数式化翻訳された数学項を既設定された所有格、対象格、時点格、定数項、未知項、および演算項に分類するように分析する段階;および
神経網(Neural Networks)基盤機械翻訳(Neural Machine Translation)を利用し、既設定された計算題パターン、文章題パターンおよび図解題パターンの定義に基づいて構文のパターンを分析して前記数学文章題問題の概念類型を分類(Classification)する段階;を含む、神経網基盤機械翻訳およびマスコーパスを利用した数学問題概念類型予測サービス提供方法。 Mathematical problem concept type prediction service provision method In the mathematical problem concept type prediction service provision method executed on the server
The stage where a mathematical word problem (Math Word Problem) is entered;
The stage of separating the mathematical word problem into text and image using natural language processing and image processing;
A mathematical formula such that the separated text is analyzed based on Math Corpus using morphological analysis and individual name recognition, and the image is analyzed using object recognition and semantic analysis to extract mathematical terms. Stage of performing chemical translation;
The stage of filtering, extracting and compressing conceptual typology candidates based on the mathematically translated mathematical terms;
The stage of analyzing the mathematically translated mathematical terms to classify them into pre-established possession, object, time point, constant, unknown, and arithmetic terms; and Neuronal Networks-based machine translation. (Neural Machine Translation) is used to analyze the syntax pattern based on the definitions of the already set calculation subject pattern, sentence subject pattern, and illustrated subject pattern, and classify the conceptual type of the mathematical sentence subject problem (Classification). A method of providing a mathematical problem concept type prediction service using neural network-based machine translation and a mass corpus, including steps.
数学問題を解決する端緒に対応する前記数学問題内テキストのキーワード(Keyword)および前記数学問題内イメージのキーシンボル(Key−Symbol)の位置および形態を表示したマーキングファイルと、前記数学問題を構文、数式および解説のトリプルモデルの数学言語に変換した翻訳ファイルを類似パターン別に複数対入力を受ける段階;
前記類似パターンの新しい数学問題の原本ファイル複数問題の入力を受け、人工知能で既学習した仮説規則に対応するように分析して構文、数式および解説の数学言語に翻訳ファイルを生成する段階;
専門家端末から前記類似パターンの新しい数学問題の原本ファイル複数問題に対してキーワードおよびキーシンボルが表示されたマーキングファイルと、数学言語に変換された翻訳ファイルの入力を受ける段階;
前記専門家端末から入力されたマーキングファイルおよび翻訳ファイルと、前記人工知能で前記仮説規則に対応するように分析した翻訳ファイルを比較分析する段階;
前記比較分析結果に基づいて前記既学習された仮説規則を修正および補完してアブダクション(Abduction)規則を生成する段階;をさらに含むものである、請求項1に記載の神経網基盤機械翻訳およびマスコーパスを利用した数学問題概念類型予測サービス提供方法。 Before the stage where the mathematical word problem (Math Word Problem) is input,
A marking file displaying the position and form of the keyword (Keyword) of the text in the math problem and the key symbol (Key-Symbol) of the image in the math problem corresponding to the beginning of solving the math problem, and the syntax of the math problem. The stage of receiving multiple pairs of translation files converted into a triple model mathematical language of mathematical formulas and explanations for each similar pattern;
Original file of new mathematical problem with similar pattern The stage of receiving input of multiple problems, analyzing them to correspond to the hypothetical rules learned by artificial intelligence, and generating a translation file in the mathematical language of syntax, mathematical formulas and explanations;
Original file of a new mathematical problem with a similar pattern from an expert terminal At the stage of receiving input of a marking file displaying keywords and key symbols for multiple problems and a translation file converted into a mathematical language;
The stage of comparing and analyzing the marking file and the translation file input from the expert terminal and the translation file analyzed by the artificial intelligence so as to correspond to the hypothetical rule;
The neural network-based machine translation and mass corpus according to claim 1, further comprising a step of modifying and complementing the learned hypothetical rules based on the comparative analysis results to generate an abduction rule; Mathematical problem concept type prediction service provision method used.
前記入力された数学問題の原本ファイルをテキスト領域とイメージ領域に分割してテキスト領域から文章単位で単語表現(Word Embedding)ベクターを抽出し、前記イメージ領域から前記イメージ領域をなすイメージ客体をそれぞれ分離(Object Localization)して第1特徴ベクターを抽出する段階;
前記入力された数学問題のマーキングファイルからキーワード単位で位置情報、字素の形態、個数の情報を第2特徴ベクターとして抽出し、前記キーシンボルの位置、形態および大きさの情報を第3特徴ベクターとして抽出する段階;
前記専門家端末から前記数学問題を数学言語に翻訳した翻訳ファイルから構文、数式および解説のそれぞれを第4特徴ベクターとして抽出する段階;
前記マーキングファイルと原本ファイルから抽出したテキストとイメージに対する第1〜第3特徴ベクターと、前記翻訳ファイルから抽出した第4特徴ベクターの間の関係を分析して仮説規則を生成する段階;を遂行して実行されるものである、請求項2に記載の神経網基盤機械翻訳およびマスコーパスを利用した数学問題概念類型予測サービス提供方法。 A marking file displaying the position and form of the keyword (Keyword) of the text in the math problem and the key symbol (Key-Symbol) of the image in the math problem corresponding to the beginning of solving the math problem, and the syntax of the math problem. , The stage of receiving multiple pairs of translation files converted into a triple model mathematical language of mathematical formulas and explanations for each similar pattern
The original file of the input math problem is divided into a text area and an image area, a word expression (Word Embedding) vector is extracted from the text area in sentence units, and the image objects forming the image area are separated from the image area. (Object Localization) to extract the first feature vector;
From the input marking file of the mathematical problem, position information, grapheme form, and number information are extracted as a second feature vector, and information on the position, form, and size of the key symbol is extracted as a third feature vector. Stage to extract as;
The stage of extracting each of the syntax, mathematical formula, and explanation as a fourth feature vector from the translation file obtained by translating the mathematical problem into a mathematical language from the expert terminal;
A step of analyzing the relationship between the first to third feature vectors for the text and image extracted from the marking file and the original file and the fourth feature vector extracted from the translation file to generate a hypothetical rule; The method for providing a mathematical problem concept type prediction service using the neural network-based machine translation and the mass corpus according to claim 2, which is executed.
前記分類した概念類型と類似する問題を段階別にマッチングして比較し、前記概念類型で適用されてこそ最適の規則を有するマッチング問題を抽出する段階;をさらに含み、
前記分類した概念類型と類似する問題は、概念単位であるスキーマの類似問題集合分類内に含まれたモデル問題、同値問題、同型問題、同意問題、交差問題、および推理問題を含むものである、請求項1に記載の神経網基盤機械翻訳およびマスコーパスを利用した数学問題概念類型予測サービス提供方法。 Using the above-mentioned neural network-based machine translation (Neural Machine Translation), the syntax pattern is analyzed based on the definitions of the preset calculation problem pattern, word problem pattern, and illustration word problem, and the mathematical word problem is described. After the stage of classifying the conceptual type of the problem,
Further including a step of matching and comparing problems similar to the classified concept type in each stage, and extracting a matching problem having the optimum rule only when applied in the concept type;
A problem similar to the above-classified conceptual type includes a model problem, an equivalence problem, an equivalence problem, an agreement problem, an intersection problem, and a reasoning problem included in a similar problem set classification of a schema which is a conceptual unit. The method for providing a mathematical problem concept type prediction service using the neural network-based machine translation and the mass corpus described in 1.
前記同値問題は、形態と意味が同じである同型−同意問題であって、前記モデル問題と問題の脈絡のキーワードが同じであり解決の手続きも同じである問題であり、
前記同型問題は、形態は同じであるが意味は異なる同型−異義問題であって、前記モデル問題と問題の脈絡のキーワードは同じであるが解決の手続きは異なる問題であり、
前記同意問題は、形態は異なって意味は同じである異型−同意問題であって、前記モデル問題と問題の脈絡のキーワードは異なるが解決の手続きは同じである問題であり、
前記交差問題は、形態が互いに異なり意味も異なる相反−異義問題であって、前記モデル問題と問題の脈絡のキーワードが反対であり解決の手続きも異なる問題であり、
前記推理問題は、形態と意味がすべて異なる異型−異義問題であって、前記モデル問題と問題の脈絡のキーワードが異なり解決の手続きも異なる問題であるものである、請求項5に記載の神経網基盤機械翻訳およびマスコーパスを利用した数学問題概念類型予測サービス提供方法。 The model problem is a problem constructed by the mass corpus after being modeled through instructional learning of machine learning for each unit concept.
The equivalence problem is an isomorphic-consensus problem having the same form and meaning, and has the same keywords of the model problem and the context of the problem and the same solution procedure.
The isomorphic problem is an isomorphic-differential problem having the same form but different meanings, and the model problem and the problem context keyword are the same, but the solution procedure is different.
The consent problem is a variant-consent problem having a different form and the same meaning, and is a problem in which the keywords of the model problem and the context of the problem are different, but the procedure for solving the problem is the same.
The crossing problem is a reciprocal-differential problem having different forms and different meanings, and the keywords of the model problem and the context of the problem are opposite, and the procedure for solving the problem is also different.
The neural network according to claim 5, wherein the reasoning problem is a variant-differential problem in which all the forms and meanings are different, and the keywords of the context of the model problem and the problem are different and the solution procedure is also different. Mathematical problem concept type prediction service provision method using basic machine translation and mass corpus.
前記分類した概念類型に基づいて前記数学文章題問題の数式および解説を生成し、前記解説を自然語処理して解説を生成する段階;をさらに含むものである、請求項1に記載の神経網基盤機械翻訳およびマスコーパスを利用した数学問題概念類型予測サービス提供方法。 Using the above-mentioned neural network-based machine translation (Neural Machine Translation), the syntax pattern is analyzed based on the definitions of the preset calculation problem pattern, word problem pattern, and illustration word problem, and the mathematical word problem is described. After the stage of classifying the conceptual type of the problem,
The neural network-based machine according to claim 1, further comprising a step of generating mathematical formulas and explanations of the mathematical word problem problem based on the classified conceptual types, and processing the explanations in natural language to generate explanations. Mathematical problem concept type prediction service provision method using translation and mass corpus.
前記分離したテキストを形態素分析および個体名を認識して所有格、対象格、状況格、および数量格に分ける意味把握段階;
前記分離したテキストのうち、キーワードをキーワード数学翻訳を利用して語彙、数字、数式および記号を用語/記号概念単位未知項、定数項、数式および演算子でそれぞれマッチングして構文分析を数学翻訳に変換する段階;
前記イメージのうち、キーシンボルをキーシンボル数学翻訳を利用して計算機、図形、教具、記号、表、および図を、計算機、形態/意味、定数項、意味、形態/意味、および意味にそれぞれ翻訳し、レンダリング可能なフォーマットに変換して構文分析を数学翻訳に変換する段階;を含むものである、請求項1に記載の神経網基盤機械翻訳およびマスコーパスを利用した数学問題概念類型予測サービス提供方法。 A mathematical formula such that the separated text is analyzed based on Math Corpus using morphological analysis and individual name recognition, and the image is analyzed using object recognition and semantic analysis to extract mathematical terms. The stage of carrying out morphological translation is
The stage of understanding the meaning of the separated text by morphological analysis and recognizing the individual name and dividing it into possessive, accusative, situational, and quantitative cases;
Of the separated texts, keywords are matched with vocabulary, numbers, formulas and symbols by term / symbol concept unit unknown term, constant term, formula and operator using keyword mathematical translation, and syntactic analysis is converted into mathematical translation. Stage of conversion;
Of the above images, key symbols are translated into computers, figures, teaching tools, symbols, tables, and figures using key symbol mathematical translation into computers, forms / meanings, constant terms, meanings, forms / meanings, and meanings, respectively. The method of providing a mathematical problem concept type prediction service using the neural network-based machine translation and the mass corpus according to claim 1, which comprises the step of converting the syntactic analysis into a mathematical translation by converting it into a renderable format.
人物、地域、機関、人工物、および文明に対する個体名は所有格として意味把握する段階;
動物、植物、前記意味把握で把握された人工物を除いた楽器、武器、および交通手段を含む人工物、文明、物質、および色相模様形態に対する用語は対象格として把握する段階;
一般名詞を含む日、時間および方向に対する用語は状況格として把握する段階;および
単位名詞を含む日、時間および数量に対する用語は数量格として把握する段階;を含むものである、請求項8に記載の神経網基盤機械翻訳およびマスコーパスを利用した数学問題概念類型予測サービス提供方法。 The stage of understanding the meaning of the separated text by morphological analysis and recognizing the individual name and dividing it into possessive, accusative, situational, and quantitative cases is
Individual names for people, regions, institutions, man-made objects, and civilizations are at the stage of grasping the meaning as possessive;
Terms for animals, plants, musical instruments, weapons, and man-made objects, including means of transportation, excluding the man-made objects grasped in the above-mentioned understanding of meaning, civilization, substances, and hue pattern morphology are in the accusative stage;
The nerve according to claim 8, wherein the term for day, time and direction including a general noun is grasped as a situational case; and the term for a day, time and quantity including a unit noun is grasped as a quantitative case; Mathematical problem concept type prediction service provision method using network-based machine translation and mass corpus.
A computer-readable recording medium on which a program for carrying out the method according to any one of claims 1 to 9 is recorded.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190035243A KR101986721B1 (en) | 2019-03-27 | 2019-03-27 | Method for providing mathematical principle prediction serivce for math word problem using neural machine translation and math corpus |
KR10-2019-0035243 | 2019-03-27 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020161111A true JP2020161111A (en) | 2020-10-01 |
JP6845486B2 JP6845486B2 (en) | 2021-03-17 |
Family
ID=66848475
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019173914A Active JP6845486B2 (en) | 2019-03-27 | 2019-09-25 | Mathematical problem concept type prediction service provision method using neural network-based machine translation and mass corpus |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP6845486B2 (en) |
KR (1) | KR101986721B1 (en) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112949421A (en) * | 2021-02-05 | 2021-06-11 | 华中师范大学 | Method, device and equipment for solving problems of artificial intelligence image-text questions in science and storage medium |
CN113095045A (en) * | 2021-04-20 | 2021-07-09 | 河海大学 | Chinese mathematics application problem data enhancement method based on reverse operation |
CN113435216A (en) * | 2021-06-24 | 2021-09-24 | 湖南大学 | Neural network machine translation model training method, machine translation method and device |
EP3921760A1 (en) * | 2020-04-15 | 2021-12-15 | Intuit Inc. | Mapping natural language utterances to operations over a knowledge graph |
CN114120349A (en) * | 2022-01-10 | 2022-03-01 | 深圳市菁优智慧教育股份有限公司 | Test paper identification method and system based on deep learning |
CN117033847A (en) * | 2023-07-20 | 2023-11-10 | 华中师范大学 | Mathematical application problem solving method and system based on hierarchical recursive tree decoding model |
CN117473096A (en) * | 2023-12-28 | 2024-01-30 | 江西师范大学 | Knowledge point labeling method fusing LATEX labels and model thereof |
JP7511614B2 (en) | 2022-08-02 | 2024-07-05 | クー キム、ミン | System and method for natural language processing using Synapper model units |
Families Citing this family (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20210334461A1 (en) * | 2019-08-30 | 2021-10-28 | Lg Electronics Inc. | Artificial intelligence apparatus and method for generating named entity table |
KR102129704B1 (en) * | 2019-11-01 | 2020-07-02 | 주식회사 보인정보기술 | Method And System for Generating Learning Item |
US20210241644A1 (en) | 2020-02-03 | 2021-08-05 | St Unitas Co., Ltd. | Apparatus, method and recording medium storing command for supporting learning |
CN111259632B (en) * | 2020-02-10 | 2023-04-11 | 暗物智能科技(广州)有限公司 | Semantic alignment-based tree structure mathematical application problem solving method and system |
KR102265573B1 (en) * | 2020-09-29 | 2021-06-16 | 주식회사 팀기원매스 | Method and system for reconstructing mathematics learning curriculum based on artificial intelligence |
CN112949410B (en) * | 2021-02-05 | 2024-01-16 | 华中师范大学 | Method, device, equipment and storage medium for solving problems of character questions in artificial intelligence science |
KR102720951B1 (en) | 2021-02-18 | 2024-10-25 | 주식회사 매스프레소 | System for providing tutoring service using artificial intelligence and method thereof |
KR102718411B1 (en) | 2021-07-28 | 2024-10-16 | 엔에이치엔 주식회사 | Method and system for providing similar question |
KR102476499B1 (en) * | 2021-11-18 | 2022-12-12 | 주식회사 티맥스에이아이 | Techniques for providing similar content |
KR20230106283A (en) | 2022-01-06 | 2023-07-13 | 서강대학교산학협력단 | System for solving mathematical word problems using neural networks and method thereof |
KR102683621B1 (en) | 2022-03-08 | 2024-07-11 | 주식회사 에이치아이컨설팅 | System for Transslating OBD Document using AI model and Driving method thereof |
CN114756682B (en) * | 2022-04-28 | 2024-06-21 | 华中师范大学 | Semantic classification method for mathematical text |
KR20230166853A (en) | 2022-05-30 | 2023-12-07 | 서울대학교산학협력단 | Algebraic word problem solving method and apparatus applying human strategy to artificial neural network |
CN116680502B (en) * | 2023-08-02 | 2023-11-28 | 中国科学技术大学 | Intelligent solving method, system, equipment and storage medium for mathematics application questions |
CN117521812B (en) * | 2023-11-20 | 2024-06-07 | 华中师范大学 | Automatic arithmetic text question solving method and system based on variational knowledge distillation |
Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20040090439A1 (en) * | 2002-11-07 | 2004-05-13 | Holger Dillner | Recognition and interpretation of graphical and diagrammatic representations |
US20130268263A1 (en) * | 2010-12-02 | 2013-10-10 | Sk Telecom Co., Ltd. | Method for processing natural language and mathematical formula and apparatus therefor |
US20130275122A1 (en) * | 2010-12-07 | 2013-10-17 | Iscilab Corporation | Method for extracting semantic distance from mathematical sentences and classifying mathematical sentences by semantic distance, device therefor, and computer readable recording medium |
JP2014010260A (en) * | 2012-06-29 | 2014-01-20 | Casio Comput Co Ltd | Learning support device and learning support program |
JP2014056209A (en) * | 2012-09-14 | 2014-03-27 | Casio Comput Co Ltd | Learning support device and learning support program |
JP2014102383A (en) * | 2012-11-20 | 2014-06-05 | Sprix:Kk | Learning support system, learning support server, learning support method and learning support program |
US9082309B1 (en) * | 2013-03-15 | 2015-07-14 | Querium Corporation | Dynamic question template system and architecture |
US20150363391A1 (en) * | 2014-06-17 | 2015-12-17 | International Business Machines Corporation | Solving and answering arithmetic and algebraic problems using natural language processing |
JP2016028346A (en) * | 2015-09-30 | 2016-02-25 | 洋彰 宮崎 | Artificial intelligence device for expanding processing capacity in self-organizing manner |
CN107153640A (en) * | 2017-05-08 | 2017-09-12 | 成都准星云学科技有限公司 | A kind of segmenting method towards elementary mathematics field |
CN107168949A (en) * | 2017-04-24 | 2017-09-15 | 成都准星云学科技有限公司 | Mathematics natural language processing implementation method, system based on combination of entities |
US20180131645A1 (en) * | 2016-09-29 | 2018-05-10 | Admit Hub, Inc. | Systems and processes for operating and training a text-based chatbot |
CN108228568A (en) * | 2018-01-24 | 2018-06-29 | 上海互教教育科技有限公司 | A kind of mathematical problem semantic understanding method |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101251119B1 (en) * | 2011-06-24 | 2013-04-09 | 한국과학기술원 | Device and method for learning by modeling structure of concept of question |
KR101621828B1 (en) * | 2014-04-25 | 2016-05-17 | 주식회사 셈웨어 | An automatic generation system for random algebra equation |
KR102056822B1 (en) * | 2017-05-04 | 2019-12-17 | 주식회사 매스프레소 | Method for providing learning service and apparatus thereof |
KR102073644B1 (en) * | 2017-05-04 | 2020-02-06 | 주식회사 매스프레소 | Text recognition apparatus included in image, text recognition method and recording media storing with program for the performing method |
-
2019
- 2019-03-27 KR KR1020190035243A patent/KR101986721B1/en active IP Right Grant
- 2019-09-25 JP JP2019173914A patent/JP6845486B2/en active Active
Patent Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20040090439A1 (en) * | 2002-11-07 | 2004-05-13 | Holger Dillner | Recognition and interpretation of graphical and diagrammatic representations |
US20130268263A1 (en) * | 2010-12-02 | 2013-10-10 | Sk Telecom Co., Ltd. | Method for processing natural language and mathematical formula and apparatus therefor |
US20130275122A1 (en) * | 2010-12-07 | 2013-10-17 | Iscilab Corporation | Method for extracting semantic distance from mathematical sentences and classifying mathematical sentences by semantic distance, device therefor, and computer readable recording medium |
JP2014010260A (en) * | 2012-06-29 | 2014-01-20 | Casio Comput Co Ltd | Learning support device and learning support program |
JP2014056209A (en) * | 2012-09-14 | 2014-03-27 | Casio Comput Co Ltd | Learning support device and learning support program |
JP2014102383A (en) * | 2012-11-20 | 2014-06-05 | Sprix:Kk | Learning support system, learning support server, learning support method and learning support program |
US9082309B1 (en) * | 2013-03-15 | 2015-07-14 | Querium Corporation | Dynamic question template system and architecture |
US20150363391A1 (en) * | 2014-06-17 | 2015-12-17 | International Business Machines Corporation | Solving and answering arithmetic and algebraic problems using natural language processing |
JP2016028346A (en) * | 2015-09-30 | 2016-02-25 | 洋彰 宮崎 | Artificial intelligence device for expanding processing capacity in self-organizing manner |
US20180131645A1 (en) * | 2016-09-29 | 2018-05-10 | Admit Hub, Inc. | Systems and processes for operating and training a text-based chatbot |
CN107168949A (en) * | 2017-04-24 | 2017-09-15 | 成都准星云学科技有限公司 | Mathematics natural language processing implementation method, system based on combination of entities |
CN107153640A (en) * | 2017-05-08 | 2017-09-12 | 成都准星云学科技有限公司 | A kind of segmenting method towards elementary mathematics field |
CN108228568A (en) * | 2018-01-24 | 2018-06-29 | 上海互教教育科技有限公司 | A kind of mathematical problem semantic understanding method |
Non-Patent Citations (5)
Title |
---|
小島 一晃、外1名: "過去の作問エピソードを用いた文章題作問システムの試作", 第43回 先進的学習科学と工学研究会資料 (SIG−ALST−A403), JPN6020040152, 15 March 2005 (2005-03-15), JP, pages 81 - 86, ISSN: 0004371180 * |
岩根 典之、外2名: "算数の文章題を対象としたネットワーク型知的教育支援環境", 電子情報通信学会論文誌, vol. 第J80−D−II巻,第4号, JPN6020040154, 25 April 1997 (1997-04-25), JP, pages 915 - 924, ISSN: 0004371181 * |
相澤 彰子、外2名: "自然言語処理と計算代数の接合による数学問題へのアプローチ", 人工知能学会誌, vol. 第27巻,第5号, JPN6020040148, 1 September 2012 (2012-09-01), JP, pages 483 - 491, ISSN: 0004371178 * |
遠藤 勉、外3名: "対話に基づく初等数学の問題解決手法", 電子情報通信学会技術研究報告, vol. 第94巻,第292号, JPN6020040146, 21 October 1994 (1994-10-21), JP, pages 55 - 62, ISSN: 0004371177 * |
阿部 一貴、外3名: "意味処理を用いた算数文章題演算処理手法の提案", 情報処理学会研究報告 平成21年度(6), JPN6020040150, 15 April 2010 (2010-04-15), JP, pages 1 - 8, ISSN: 0004371179 * |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3921760A1 (en) * | 2020-04-15 | 2021-12-15 | Intuit Inc. | Mapping natural language utterances to operations over a knowledge graph |
CN112949421A (en) * | 2021-02-05 | 2021-06-11 | 华中师范大学 | Method, device and equipment for solving problems of artificial intelligence image-text questions in science and storage medium |
CN112949421B (en) * | 2021-02-05 | 2023-07-25 | 华中师范大学 | Method, device, equipment and storage medium for solving image-text questions of artificial intelligence science |
CN113095045B (en) * | 2021-04-20 | 2023-11-10 | 河海大学 | Chinese mathematic application question data enhancement method based on reverse operation |
CN113095045A (en) * | 2021-04-20 | 2021-07-09 | 河海大学 | Chinese mathematics application problem data enhancement method based on reverse operation |
CN113435216B (en) * | 2021-06-24 | 2023-06-23 | 湖南大学 | Neural network machine translation model training method, machine translation method and device |
CN113435216A (en) * | 2021-06-24 | 2021-09-24 | 湖南大学 | Neural network machine translation model training method, machine translation method and device |
CN114120349A (en) * | 2022-01-10 | 2022-03-01 | 深圳市菁优智慧教育股份有限公司 | Test paper identification method and system based on deep learning |
CN114120349B (en) * | 2022-01-10 | 2022-05-03 | 深圳市菁优智慧教育股份有限公司 | Test paper identification method and system based on deep learning |
JP7511614B2 (en) | 2022-08-02 | 2024-07-05 | クー キム、ミン | System and method for natural language processing using Synapper model units |
CN117033847A (en) * | 2023-07-20 | 2023-11-10 | 华中师范大学 | Mathematical application problem solving method and system based on hierarchical recursive tree decoding model |
CN117033847B (en) * | 2023-07-20 | 2024-04-19 | 华中师范大学 | Mathematical application problem solving method and system based on hierarchical recursive tree decoding model |
CN117473096A (en) * | 2023-12-28 | 2024-01-30 | 江西师范大学 | Knowledge point labeling method fusing LATEX labels and model thereof |
CN117473096B (en) * | 2023-12-28 | 2024-03-15 | 江西师范大学 | Knowledge point labeling method fusing LATEX labels and model thereof |
Also Published As
Publication number | Publication date |
---|---|
KR101986721B1 (en) | 2019-06-10 |
JP6845486B2 (en) | 2021-03-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6845486B2 (en) | Mathematical problem concept type prediction service provision method using neural network-based machine translation and mass corpus | |
CN108563653B (en) | Method and system for constructing knowledge acquisition model in knowledge graph | |
Tyagi et al. | Demystifying the role of natural language processing (NLP) in smart city applications: background, motivation, recent advances, and future research directions | |
CN113127624B (en) | Question-answer model training method and device | |
Kusal et al. | A systematic review of applications of natural language processing and future challenges with special emphasis in text-based emotion detection | |
Kumar et al. | An abstractive text summarization technique using transformer model with self-attention mechanism | |
Amrutha et al. | Effortless and beneficial processing of natural languages using transformers | |
Da et al. | Deep learning based dual encoder retrieval model for citation recommendation | |
Vu et al. | Abstract meaning representation for legal documents: an empirical research on a human-annotated dataset | |
CN114936274A (en) | Model training method, dialogue generating device, dialogue training equipment and storage medium | |
Kumari et al. | Context-based question answering system with suggested questions | |
CN117373591A (en) | Disease identification method and device for electronic medical record, electronic equipment and storage medium | |
CN116956925A (en) | Electronic medical record named entity identification method and device, electronic equipment and storage medium | |
Alwaneen et al. | Stacked dynamic memory-coattention network for answering why-questions in Arabic | |
CN114297353A (en) | Data processing method, device, storage medium and equipment | |
Banerjee et al. | Better Qualitative searching for effecting the performance of machine translation | |
CN113591493A (en) | Translation model training method and translation model device | |
CN114742049B (en) | Method, device and related equipment for rewriting incomplete sentence and training model | |
Raff | From Sesame Street to Beyond: Multi-Domain Discourse Relation Classification with Pretrained BERT | |
Melese | Attention-based Neural Machine Translation from English-Wolaytta | |
Rao et al. | Audio to Sign Language Translator Using Python | |
Tung et al. | Leveraging NLP for Building Efficient Information Retrieval Systems: A Performance Analysis | |
Gaware et al. | Combined RNN Approach for Addressing Morphological, Syntactical, and Semantic Challenges in Image Captioning | |
Ravva | Systems and Resources for Telugu: Question Answering and Summarization | |
Grigorov | Evolution and Significance of Large Language Models |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190925 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20201012 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20201027 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210127 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210209 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210209 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6845486 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |