[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JPH03233677A - Conversation control system - Google Patents

Conversation control system

Info

Publication number
JPH03233677A
JPH03233677A JP2028316A JP2831690A JPH03233677A JP H03233677 A JPH03233677 A JP H03233677A JP 2028316 A JP2028316 A JP 2028316A JP 2831690 A JP2831690 A JP 2831690A JP H03233677 A JPH03233677 A JP H03233677A
Authority
JP
Japan
Prior art keywords
scene
conversation
stack
flow
conversations
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2028316A
Other languages
Japanese (ja)
Inventor
Masaaki Kato
正明 加藤
Yukari Sawayama
澤山 ゆかり
Satoko Kai
甲斐 郷子
Hideki Yamamoto
秀樹 山本
Mariko Osato
大里 真理子
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Oki Electric Industry Co Ltd
Original Assignee
Oki Electric Industry Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Oki Electric Industry Co Ltd filed Critical Oki Electric Industry Co Ltd
Priority to JP2028316A priority Critical patent/JPH03233677A/en
Publication of JPH03233677A publication Critical patent/JPH03233677A/en
Pending legal-status Critical Current

Links

Landscapes

  • Machine Translation (AREA)
  • Devices For Executing Special Programs (AREA)

Abstract

PURPOSE:To find the flow error of conversations by providing a scene with an antecedent by which the scene is true and a consequent by which the scene is terminated and checking the antecedent and the consequent of the scene as change elements with respect to the change of a stack structure. CONSTITUTION:A flow error finding part 12 compares a present stack 17, which is used to trace the flow of conversations by a conversation control part 11 and indicates the flow of conversations corresponding to the current input, and a preceding stack 18 indicating the flow of conversations corresponding to the preceding input with each other and discriminates whether the antecedent and the consequent of the scene are satisfied or not to find the flow error of conversations. When finding the flow error of conversations, the part 12 transfers speaking contents indicating the flow error of conversations to an output sentence generating part 13 and returns the state of the present stack 17 to that of the preceding stack 18. But otherwise, conversation contents of a system determined in the conversation control part 11 are transferred to the output sentence generating part 13. Thus, the flow error of conversations is found.

Description

【発明の詳細な説明】 「産業上の利用分野] 本発明は、自然言語によるマンマシンインタフェースを
持つコンピュータシステムの会話制御方式に関し、特に
、ユーザの発話がその発話時点までにコンピュータシス
テムとの間に行われた会話の流れに沿っていないことを
発見しようとするものである。
[Detailed Description of the Invention] [Field of Industrial Application] The present invention relates to a conversation control method for a computer system having a human-machine interface using natural language. The aim is to discover things that do not follow the flow of the conversation that took place.

[従来の技術] 自然言語によるマンマシンインタフェースを持つコンピ
ュータシステムにおいて、コンピュータの発話を決定す
るためには、ユーザの発話を理解するだけではなく、会
話の流れを理解することを要する。会話の際中に会話の
流れをコンピュータが理解する方式には、従来、次のよ
うな方式があった。
[Prior Art] In a computer system having a human-machine interface using natural language, in order to determine the computer's utterances, it is necessary not only to understand the user's utterances but also to understand the flow of the conversation. Conventionally, there have been the following methods for computers to understand the flow of conversation during a conversation.

第1の方式として、連続して行われたコンピュータとユ
ーザの発話、または、ユーザの連続した発話の間の意味
的な関係を、接続詞や副詞等の文法的な情報から抽出す
る方式が提案されている(文献1「認知科学入門」、戸
田正直等著、サイエンス社、pp、 20B−216,
1986年)。しかし、この方式では、2文間の意味的
な関係は理解できても、会話全体の流れを追跡すること
はできない。すなわち、この方式では、極く大まかな流
れしか理解することができない。
As a first method, a method has been proposed in which the semantic relationship between successive utterances between the computer and the user, or between consecutive utterances by the user, is extracted from grammatical information such as conjunctions and adverbs. (Reference 1 "Introduction to Cognitive Science", by Masashi Toda et al., Science Publishing, pp. 20B-216,
(1986). However, with this method, although it is possible to understand the semantic relationship between two sentences, it is not possible to trace the flow of the entire conversation. In other words, with this method, only a very general flow can be understood.

第2に、ある場所や事柄において典型的に起こるであろ
うイベント(シーン)列からなるスクリプトを用いて、
現在までの会話でスクリプト上のどのイベントについて
会話が行われたかの履歴を収ることによって、また現在
のユーザの発話をそのスフリプ1−上のあるイベントに
対応付けることによって、会話の流れを理解する方式が
提案されている(文献2「人工知能ハンドブック第1巻
」、共立出版、pp、 389−393.1983年)
。しかし、この方式では、会話の流れがスクリプトで静
的に記述されており、典型的でない会話の流れの飛躍を
理解することができない。
Second, using a script consisting of a sequence of events (scenes) that would typically occur in a certain place or event,
A method of understanding the flow of a conversation by storing a history of which events on the script have been talked about in the conversation up to now, and by associating the current user's utterance with a certain event on the script 1. has been proposed (Reference 2, “Artificial Intelligence Handbook Volume 1”, Kyoritsu Shuppan, pp. 389-393. 1983)
. However, in this method, the flow of the conversation is statically described in a script, and it is not possible to understand unusual jumps in the flow of the conversation.

第1及び第2の方式での欠点を克服する方式としては、
会話の焦点となり得る複数のシーンとそのシーンを動的
に組み立てるための知識とを用い、複数のシーンを構造
化したスタック又は木構造で現在までの会話の流れを表
現する(理解する)第3の方式が提案されている(文献
3「知的対話システムの対話管理機能」、島田ひとみ等
著、IC0T研究速報TH−0162,1986年)。
As a method to overcome the drawbacks of the first and second methods,
The third step is to express (understand) the flow of the conversation up to the present in a stack or tree structure that is a structured structure of multiple scenes, using multiple scenes that can be the focus of a conversation and the knowledge to dynamically assemble the scenes. The following method has been proposed (Reference 3 "Dialogue Management Function of Intelligent Dialogue System", Hitomi Shimada et al., ICOT Research Bulletin TH-0162, 1986).

この第3の方式において、現在の会話の焦点は、スタッ
クの先頭又は焦点ポインタが指す木の葉であり、スタッ
ク又は木は現在の焦点がこれまでの会話の流れからどの
ように発生してきたかを表している。ユーザ又はコンピ
ュータの発話が行われる際、その発話とある特定のシー
ンとを対応付けし、シーンを動的に組み立てるための知
識を用いて、発話と対応付けられたシーンとスタック又
は木の中のシーンとを関連付けている。例えば、ユーザ
の発話により新たなシーンが発生したならば、スタック
の先頭にそのシーンを置いたり、焦点ボ、インクの指す
葉の下位に新たなシーンを結合したりする。このように
、第3の方式では、スタック又は木を操作して現在の会
話の焦点を制御している。
In this third method, the focus of the current conversation is the top of the stack or leaf of the tree pointed to by the focus pointer, and the stack or tree represents how the current focus has emerged from the flow of the conversation so far. There is. When a user or computer utters an utterance, the utterance is associated with a specific scene, and using the knowledge to dynamically assemble the scene, the scene associated with the utterance and the scene in the stack or tree are associated with the scene. For example, if a new scene is generated by a user's utterance, that scene is placed at the top of the stack, or the new scene is combined below the leaf pointed to by the focal point or ink. Thus, the third method manipulates the stack or tree to control the focus of the current conversation.

[発明が解決しようとする課題] 第1及び第2の方式の不都合を解決し得る第3の方式を
含め、上述した3方式はいずれも、そのコンピュータは
、ユーザが作る会話の流れを追跡してユーザの意図を反
映した会話を行なうために会話の流れを理解しており、
ユーザによる会話の流れに誤りがないということを前提
としている。
[Problem to be Solved by the Invention] In all of the three methods described above, including the third method that can solve the disadvantages of the first and second methods, the computer tracks the flow of the conversation created by the user. We understand the flow of conversations in order to conduct conversations that reflect the user's intentions.
It is assumed that there are no errors in the flow of conversation by the user.

しかし、会話の流れからみて誤ったユーザによる会話が
生じることを避は得ない。上述した3方式は、会話の流
れ誤りを検出することを行なっていない。
However, considering the flow of the conversation, it is inevitable that the wrong user will engage in a conversation. The three methods described above do not detect conversational flow errors.

自然言語によるマンマシンインタフェースを持つコンピ
ュータシステムの一つとして、例えば語学訓練用システ
ムがある。このような語学訓練用システムにおいては、
学習者がシステムの発話や会話の流れを誤って理解した
り、システムの発話や会話の流れを正確に理解しなかっ
たりしたために、学習者の発話がその時点における会話
の流れを不当に乱すことがあり得る(文献4「会話シュ
ミレーションを基にした語学訓練用知的CAIの構成J
、山本秀樹等著、情報処理学会論文誌第30巻第7号、
pp、 908−917.1989年)。この場合に、
システムは学習者が会話の流れを乱したことを理解し、
その学習者の誤りに対して誤りの指摘や、正しい会話の
流れへの復帰的行為を行わなければならない。
An example of a computer system having a human-machine interface using natural language is a language training system. In such a language training system,
The learner's utterances unduly disrupt the flow of the conversation at that point because the learner misunderstands the system's utterances or the flow of the conversation, or does not accurately understand the system's utterances or the flow of the conversation. (Reference 4: “Configuration of intelligent CAI for language training based on conversation simulation J”
, by Hideki Yamamoto et al., Transactions of the Information Processing Society of Japan Vol. 30, No. 7,
pp. 908-917.1989). In this case,
The system understands when the learner disrupts the flow of the conversation and
When the learner makes a mistake, the student must point out the error and take steps to restore the correct flow of the conversation.

会話の流れを理解して制御する方式と、会話の流れ誤り
を発見する方式とを無関係に定めることは、処理の効率
化から見て妥当ではない。そこで、上述した会話の流れ
を理解して制御する方式を利用して会話の流れ誤りを発
見するようにすることが考えられる。
It is not appropriate to independently define a method for understanding and controlling the flow of a conversation and a method for discovering errors in the flow of the conversation from the standpoint of improving processing efficiency. Therefore, it is conceivable to use the above-described method of understanding and controlling the flow of conversation to detect errors in the flow of conversation.

上述したスクリプトを用いる第2の方式においては、あ
るスクリプトの終了を検出する前に、コンピュータシス
テムがユーザの入力をスクリプト上のイベントに対応付
けることができなくなったときにユーザが会話の流れを
乱したと見なすことができる。しかし、スタック構造や
木構造を用いて動的に会話の流れを生成・管理する第3
の方式においては、どのような状態がユーザの会話の流
れの誤りであるかをそのままでは発見することができな
い。
In a second method using scripts as described above, the user disrupts the flow of the conversation when the computer system is no longer able to associate the user's input with events on the script before detecting the end of a certain script. It can be considered as However, a third method that dynamically generates and manages conversation flow using a stack structure or tree structure
In this method, it is not possible to directly discover what kind of state is an error in the flow of a user's conversation.

なお、第2の方式を利用した会話の流れ誤りを発見する
方式については、同一出願人によって別途提案されてい
る。
Note that a method for detecting errors in the flow of conversation using the second method has been separately proposed by the same applicant.

本発明は、以上の点を考慮してなされたものであり、ス
タック構造や木構造を利用して動的に会話の流れを生成
・管理する方式を用いて際に、ユーザの発話がその時点
における会話の流れを不当に乱したことによる会話の流
れ誤りを発見することができる会話制御方式を提供しよ
うとするものである。
The present invention has been made in consideration of the above points, and uses a method that dynamically generates and manages the flow of a conversation using a stack structure or a tree structure. The purpose of the present invention is to provide a conversation control method that can detect errors in the flow of conversation caused by unduly disrupting the flow of conversation.

[課題を解決するための手段] かかる課題を解決するため、本発明においては、自然言
語によるマンマシン・インタフェースを持つコンピュー
タシステムの会話制御方式であって、会話の流れをある
場面毎のシーンに分割し、シーンをスタック構造や木構
造として動的に構築することにより、会話の流れを生成
・管理する方式を用いた会話制御方式においで、以下の
ようにした。
[Means for Solving the Problems] In order to solve the problems, the present invention provides a conversation control method for a computer system having a human-machine interface using natural language, in which the flow of conversation is adjusted for each scene. We developed a conversation control method that generates and manages the conversation flow by dividing the scene and dynamically constructing the scene as a stack structure or a tree structure, as follows.

すなわち、シーンに、そのシーンが成り立つための前条
件と、そのシーンが終了するための後条件を持たせると
共に、スタック構造又は木構造の変化分に対応するシー
ンの前条件と後条件を調べて会話の流れ誤りを発見する
こととした。
In other words, a scene has a precondition for the scene to hold and a postcondition for the scene to end, and the preconditions and postconditions for the scene corresponding to changes in the stack structure or tree structure are examined. I decided to discover errors in the flow of the conversation.

[作用] 本発明は、会話の流れをある場面毎のシーンに分割し、
シーンをスタック構造又は木構造として動的に構築する
ことにより会話の流れを生成・管理する方式を用いるこ
とを前提としている。
[Operation] The present invention divides the flow of conversation into scenes for each scene,
It is assumed that a method is used to generate and manage the flow of conversation by dynamically constructing scenes as a stack structure or tree structure.

会話があるシーンに移行するには、実際上その前に行わ
れた会話はある程度特定され、そのシーンの前(直前と
は限らない)に所定のシーンや会話が存在していること
が求められる。従って、そのシーンに入り込むために特
定の成立条件があるということができる。そこで、本発
明では、スタック構造又は木構造を構築するためのシー
ン情報に前条件を持たせるようにした。
In order to transition to a scene with a conversation, the conversation that actually took place before that scene must be specified to some extent, and a predetermined scene or conversation must exist before (not necessarily immediately before) that scene. . Therefore, it can be said that there are specific conditions for entering that scene. Therefore, in the present invention, scene information for constructing a stack structure or a tree structure is provided with preconditions.

また、会話があるシーンから抜は出るためには、実際上
そのシーンのついて最低限行なっていなければならない
会話やシーンが存在する。すなわち、そのシーンを終了
させるための条件が存在する。
Also, in order to be able to remove a scene from a certain conversation, there are actually some conversations and scenes that must be carried out at least following that scene. That is, there are conditions for ending the scene.

そこで、本発明では、スタック構造又は木構造を構築す
るためのシーン情報に後条件を持たせるようにした。
Therefore, in the present invention, scene information for constructing a stack structure or a tree structure is provided with a post-condition.

そして、スタック構造や木構造が変化したときに、変化
要素であるシーンの前条件と後条件を調べることで、会
話の流れ誤りを発見することとした。
Then, when the stack structure or tree structure changed, we decided to discover errors in the flow of the conversation by examining the preconditions and postconditions of the changing elements of the scene.

「実施例] 以下、本発明の一実施例を図面を参照しながら詳述する
“Example” An example of the present invention will be described in detail below with reference to the drawings.

ここで、第1図はこの実施例を適用したコンピュータシ
ステムの機能ブロック図、第2図は入力文理解部10の
出力である意味表現の例を示す説明図、第3図は会話の
焦点を表わすスタックの例を示す説明図、第4図は会話
制御に用いるシーンの例を示す説明図、第5図はユーザ
の発話から特定のシーンを推論する知識の例を示す説明
図、第6図は会話制御部11の処理フローチャート、第
7図は会話の流れ誤り発見部12の処理フローチャート
である。
Here, FIG. 1 is a functional block diagram of a computer system to which this embodiment is applied, FIG. 2 is an explanatory diagram showing an example of a meaning expression that is the output of the input sentence understanding unit 10, and FIG. FIG. 4 is an explanatory diagram showing an example of a scene used for conversation control. FIG. 5 is an explanatory diagram showing an example of knowledge for inferring a specific scene from a user's utterance. is a processing flowchart of the conversation control section 11, and FIG. 7 is a processing flowchart of the conversation flow error detection section 12.

このシステムも、図示は省略するが、他のコンピュータ
システムと同様に、中央処理ユニット(CPU)と、メ
モリと、デイスプレィ装置と、キーボード装置と、ハー
ドディスク装置とを備えて構成されている。
Although not shown, like other computer systems, this system also includes a central processing unit (CPU), a memory, a display device, a keyboard device, and a hard disk device.

ハードディスク装置には、入力文の理解や出力文の生成
処理等に関する自然言語処理プログラムや、入力文に応
じた出力文の決定処理、会話の流れ誤り処理等に関する
会話制御プログラムや、各段階での処理に使用する各種
のルールや知識が格納されている。例えば、後述する第
4図に示すシーンや第7図に示す会話の流れ誤り発見の
処理にかかるプログラムがハードディスク装置に格納さ
れている。自然言語処理プログラムや会話制御プログラ
ムはメモリにロードされ、CPUによって実行される。
The hard disk drive contains natural language processing programs for understanding input sentences and generating output sentences, conversation control programs for determining output sentences according to input sentences, processing errors in conversation flow, etc., as well as programs for processing errors at each stage. Various rules and knowledge used for processing are stored. For example, a program for detecting errors in the scene shown in FIG. 4 and the flow of conversation shown in FIG. 7, which will be described later, is stored in the hard disk device. Natural language processing programs and conversation control programs are loaded into memory and executed by the CPU.

なお、デイスプレィ装置及びキーボード装置は、周知の
ように、ユーザとシステムとのマンマシンインタフェー
スのためのものであり、これら装置を介して対話が実行
される。
Note that, as is well known, the display device and the keyboard device are for a man-machine interface between the user and the system, and dialogue is performed through these devices.

まず、第1図を用いて、このコンピュータシステムの機
能構成の説明を行なう。
First, the functional configuration of this computer system will be explained using FIG.

第1図において、自然言語によるユーザの発話が入力さ
れてから、自然言語によるシステムの発話がなされるま
でには、大きくは、入力文理解部10の処理、会話制御
部11の処理、流れ誤り発見部12の処理、出力文生成
部13の処理という順序で処理が実行される。
In FIG. 1, from the input of the user's utterance in natural language until the utterance of the system in natural language, there are mainly processing by the input sentence understanding unit 10, processing by the conversation control unit 11, and flow errors. Processing is executed in the order of processing by the discovery unit 12 and processing by the output sentence generation unit 13.

ユーザが発話した後、入力文理解部10は、その自然言
語入力を、システムが処理(推論〉可能な、意味表現と
呼ばれる形式に変換する。変換された意味表現は入力文
理解部10によって状況メモリ14にセットされる。
After the user speaks, the input sentence understanding unit 10 converts the natural language input into a format called a semantic expression that can be processed (inferred) by the system. It is set in the memory 14.

第2図は、意味表現の一例を表わしている。この意味表
現は、スロット名20とスロット値21の対を持つもの
であり、参考のために値の意味22も第2図に示してい
る。第2図は“r want t。
FIG. 2 shows an example of a semantic expression. This semantic expression has a pair of slot name 20 and slot value 21, and the meaning 22 of the value is also shown in FIG. 2 for reference. Figure 2 shows "I want t.

payl)y card、”という文の意味表現の例で
ある。
This is an example of the meaning of the sentence "payl) y card."

この文の場合、例えば、「述語」を意味するスロワ(−
名”prediCate ”のスロットには値”pay
”が挿入され、「行為者」を意味するスロット名゛ag
ent ”のスロットには値“’user”が挿入され
る。
In the case of this sentence, for example, Slowa (−
The slot with the name “prediCate” has the value “pay”.
” is inserted, and the slot name ゛ag which means “actor” is inserted.
The value "'user" is inserted into the slot of "ent".

ユーザの入力文に対応する意味表現が状況メモリ14に
セットされた後、会話制御部11は、会話の流れを追跡
し、システムの発話内容を決定する処理を行なう。会話
制御部11では、会話の流れを表わす知識であるシーン
の集合15と、ユーザの発話から特定のシーンを推論す
るシーン推論知識16と、状況メモリ14と、会話の焦
点を制御するための現在スタック17の4つの情報を用
いる。
After the semantic expression corresponding to the user's input sentence is set in the situation memory 14, the conversation control unit 11 tracks the flow of the conversation and performs processing to determine the content of the system's utterance. The conversation control unit 11 includes a scene set 15 that is knowledge representing the flow of the conversation, scene inference knowledge 16 that infers a specific scene from the user's utterances, a situation memory 14, and a current memory that controls the focus of the conversation. Four pieces of information in the stack 17 are used.

流れ誤り発見部12は、会話制御部11が会話の流れを
追跡するために用いる今回の入力に対応した会話の流れ
を表わす現在のスタック17と、前回の入力に対応した
会話の流れを表わす以前のスタック18とを比較するこ
とにより、また、シーンの前条件及び後条件の充足性を
判断することにより、会話の流れ誤りを発見し、会話の
流れ誤り発見時には、会話の流れ誤りを示す発話内容を
出力文生成部13に渡し、現在のスタック17の状態を
以前のスタック18の状態に戻す。それ以外の場合には
、会話制御部11において決定したシステムの発話内容
を出力文生成部13に渡すものである。
The flow error detection unit 12 uses a current stack 17 representing the conversation flow corresponding to the current input, which is used by the conversation control unit 11 to track the conversation flow, and a previous stack 17 representing the conversation flow corresponding to the previous input. By comparing the stack 18 of the scene and determining the sufficiency of the pre-condition and post-condition of the scene, a conversation flow error is discovered, and when a conversation flow error is discovered, an utterance indicating a conversation flow error is detected. The contents are passed to the output sentence generation unit 13, and the current state of the stack 17 is returned to the previous state of the stack 18. In other cases, the system utterance content determined by the conversation control unit 11 is passed to the output sentence generation unit 13.

出力文生成部13は、会話制御部11又は流れ誤り発見
部12が決定した発話内容に従って実際に出力する自然
言語文(出力文)を生成する。
The output sentence generation unit 13 generates a natural language sentence (output sentence) to be actually output according to the utterance content determined by the conversation control unit 11 or the flow error detection unit 12.

次に、会話制御部11が利用するシーンの集合15、シ
ーン推論知識16、状況メモリ14、スタック17及び
18について、図面を用いて順次説明する。
Next, the scene set 15, scene inference knowledge 16, situation memory 14, and stacks 17 and 18 used by the conversation control unit 11 will be sequentially explained using the drawings.

シーンの集合15に含まれる各シーン15a〜15dは
、第4図(A)〜第4図(D)に示すように、そのシー
ンを識別するためのシーン名30と、そのシーンが成り
立つために必要な前条件31と、そのシーンにおいて会
話からある情報を得るためのルールの集合であるルール
群33と、そのシーンにおいてルールを適用した結果成
り立つ後条件32を持つ。
Each of the scenes 15a to 15d included in the scene set 15 has a scene name 30 for identifying the scene and a name for the scene to be established, as shown in FIGS. 4(A) to 4(D). It has a necessary precondition 31, a rule group 33 that is a set of rules for obtaining certain information from a conversation in that scene, and a postcondition 32 that is satisfied as a result of applying the rules in that scene.

会話があるシーンに移行するには、実際上その前に行わ
れた会話はある程度特定され、そのシーンの前(直前と
は限らない)に所定のシーン(会話)が存在しているこ
とが求められるシーンがあり、この点を考慮して前条件
31を設けている。
In order to move to a certain scene of conversation, the conversation that actually took place before that scene must be specified to some extent, and a predetermined scene (conversation) must exist before (not necessarily immediately before) that scene. There are some scenes in which this happens, and the precondition 31 is provided in consideration of this point.

また、会話があるシーンから抜は出るためには、実際上
そのシーンのついて最低成行なっていなければならない
会話やシーンが存在し、この点を考慮して後条件32を
設けている。
Furthermore, in order for a conversation to be extracted from a certain scene, there are actually conversations and scenes that must be completed at least in that scene, and the post-condition 32 is provided in consideration of this point.

前条件31と後条件32は、状況メモリ14中の意味表
現と等しい形態の意味表現が記述されている。ルール群
33中の個々のルールは、ルール番号34と条件部35
と実行部36とからなり、条件部35には状況メモリ1
4中の意味表現と等しい形態で表された意味表現が記述
され、実行部36には、システムの発話や新しいシーン
の呼び出しや会話から得られなり母語を示す意味表現の
状況メモリ14へのセットが記述されている。
In the pre-condition 31 and the post-condition 32, a semantic expression in the same form as the semantic expression in the situation memory 14 is described. Each rule in the rule group 33 has a rule number 34 and a condition part 35.
and an execution section 36, and the condition section 35 includes a situation memory 1.
A semantic expression expressed in the same form as the semantic expression in 4 is written, and the execution unit 36 sets the semantic expression representing the native language into the situation memory 14, which is obtained from the system's utterance, calling a new scene, or having a conversation. is described.

会話制御部11が利用するシーン推論知識16について
、第5図を用いて説明する。シーン推論知識16は、第
5図に示すように、知識番号40と条件部41とシーン
部42とからなる。条件部41には、発火させるための
、ユーザの入力文から得られた意味表現の状態、又は、
その時点における状況メモリ14中の意味表現の状態が
記述されており、シーン部42には、条件にマツチした
場合に想起されるシーンのシーン名が記述されている。
The scene inference knowledge 16 used by the conversation control unit 11 will be explained using FIG. 5. The scene inference knowledge 16 consists of a knowledge number 40, a condition part 41, and a scene part 42, as shown in FIG. The condition part 41 contains the state of the semantic expression obtained from the user's input sentence for firing, or
The state of the semantic expression in the situation memory 14 at that point in time is described, and the scene section 42 describes the scene name of the scene that will be recalled when the condition is met.

状況メモリ14は会話履歴を保持するメモリであり、現
在までに行われたユーザとシステムとの会話から得られ
た意味表現を保持している。また、ルールの実行により
状況メモリ14にセットされる、会話の結果得られた帰
結を示す意味表現をも保持している。
The situation memory 14 is a memory that holds conversation history, and holds semantic expressions obtained from conversations between the user and the system that have taken place up to now. It also holds a semantic expression indicating the outcome obtained as a result of the conversation, which is set in the situation memory 14 by the execution of the rule.

現在のスタック17は、会話の焦点を制御するために用
いられる。第3図に示すように、会話の中で活性化した
シーンはスタック17に積まれている。一番最近活性化
したシーンは現在のスタック17の先頭にある。現在の
スタック17の先頭にあるシーンに対してのみ、そのシ
ーンに関するルールを発火するか否かが判別される。以
前のスタック18には、システム発話時点におけるスタ
ック17のシーン内容が積まれている。
The current stack 17 is used to control the focus of the conversation. As shown in FIG. 3, scenes activated during the conversation are placed on a stack 17. The most recently activated scene is at the top of the current stack 17. Only for the scene at the head of the current stack 17, it is determined whether or not to fire a rule related to that scene. The previous stack 18 contains the scene contents of the stack 17 at the time of system utterance.

次に、会話制御部11の処理を第6図のフローチャート
を用いて説明する。なお、第6図は、スタック17をど
のように操作するかについて示しており、かかる処理に
ついて説明する。
Next, the processing of the conversation control section 11 will be explained using the flowchart shown in FIG. Note that FIG. 6 shows how the stack 17 is operated, and such processing will be explained.

まず、状況メモリ14に今回セットされた内部意味表現
がスタック17の先頭にあるシーンの後条件を満たすか
否かを判別する(ステップ50)。
First, it is determined whether the internal meaning expression currently set in the situation memory 14 satisfies the postcondition of the scene at the top of the stack 17 (step 50).

満たす場合には、このシーンから抜は出して良いので現
在のスタック17から先頭のシーンを取り除く(ステッ
プ51)。
If the condition is satisfied, it is OK to extract from this scene, so the first scene is removed from the current stack 17 (step 51).

かかるシーンの取り除き処理を実行した場合又は後条件
を満足しない場合には、状況メモリ14に今回セットさ
れた内部意味表現と、ユーザの発話から特定のシーンを
推論する知識とを用いて新しいシーンが推論できるか否
かを判別する(ステップ52)。推論できないならば、
直ちに、ステップ56以降の処理に進む。他方、推論で
きるならば、さらに、新しいシーンがスタック17上に
あるか否かを判別し、なければスタック17に新しいシ
ーンを積み、あれば新しいシーンをスタック17の先頭
とし、それより上にあるシーンを収り除いてユーザによ
り明治された会話の焦点を設定してステップ56以降の
処理に進む(ステップ53〜55)。
When such a scene removal process is executed or when the post-conditions are not satisfied, a new scene is created using the internal semantic representation set this time in the situation memory 14 and the knowledge for inferring a specific scene from the user's utterances. It is determined whether or not inference can be made (step 52). If you can't infer,
The process immediately proceeds to step 56 and subsequent steps. On the other hand, if it can be inferred, it is further determined whether or not the new scene is on the stack 17, and if not, the new scene is placed on the stack 17, and if there is, the new scene is placed at the top of the stack 17, and the new scene is placed on the stack 17. After eliminating the scene, the focus of the conversation established by the user is set, and the process proceeds to step 56 and subsequent steps (steps 53 to 55).

ステップ56では、現在のスタック17の先頭にあるシ
ーンのルールのうちに、状況メモリ14にセットされた
内部表現が、その発火条件を満たすルールがあるか否か
を判別する。
In step 56, it is determined whether or not among the rules of the scene at the head of the current stack 17, there is a rule whose internal representation set in the situation memory 14 satisfies the firing condition.

そのようなルールがなければ、現在のスタ・ツク17か
ら先頭のシーンを取り除いた後、さらに、スタック17
にシーンが残っているか否かを判別する(ステップ58
.59)。存在していると、会話の焦点を変えたので上
述したステ・ノブ56の判別処理をやりなおさせる。存
在していないならば、ユーザによる今回の発話に対する
スタ・ツク17の操作を終了させる。
If there is no such rule, after removing the first scene from the current stack 17,
(Step 58)
.. 59). If it exists, the focus of the conversation has changed, so the above-described determination process for the steering knob 56 is redone. If it does not exist, the operation of the stack 17 for the current utterance by the user is terminated.

現在のスタック17の先頭にあるシーンのルールのうち
に、状況メモリ14にセ・ノドされた内部表現がその発
火条件を満たすルールが1個でもあると、ルール数パラ
メータiに発火可能なルール数をセットし、ルールパラ
メータjに初期値0をセットする(ステップ57)。な
お、このとき、発火可能な1以上のルールに番号0.1
、・・・が対応付けられ、パラメータjは対応付けられ
た番号のいずれかを指示することでルールを特定するも
のである。
Among the rules of the scene at the head of the current stack 17, if there is even one rule whose internal expression that has been sewn into the situation memory 14 satisfies its firing condition, the number of rules that can be fired is set to the number of rules parameter i. is set, and the initial value 0 is set to the rule parameter j (step 57). In addition, at this time, the number 0.1 is assigned to one or more rules that can be fired.
, . . . are associated with each other, and the parameter j specifies the rule by specifying one of the associated numbers.

その後、発火可能な全てのルールに対する処理が終了し
ていないことを、パラメータi及びjの大小比較によっ
て確認する(ステップ60)。
Thereafter, it is confirmed by comparing the magnitudes of parameters i and j that processing for all rules that can be fired has not been completed (step 60).

発火可能な全てのルールに対する処理が終了すると、上
述した現在のスタック17の先頭にあるシーンのルール
のうちに発火可能なルールがあるか否かを判別する処理
(ステップ56)に進む。
When the processing for all the rules that can be fired is completed, the process proceeds to a process (step 56) of determining whether there is any rule that can be fired among the rules of the scene at the head of the current stack 17 mentioned above.

全ルールに対する処理が終了していないと、パラメータ
jが指示するルールを発火させてシステム発話等を決定
しく新たなシーンの発話が決定されることもある)、パ
ラメータjをインクリメントして次の発火可能なルール
を指示するものに変更させる(ステップ61)。
If processing for all rules has not been completed, the system utterance may be determined by firing the rule specified by parameter j, or the utterance of a new scene may be determined), then the parameter j is incremented and the next firing is performed. The possible rules are changed to those that indicate (step 61).

そして、この発火によって新しいシーンがスタツク17
上に積まれたか否かを判別し、積まれたならば、上述し
たステップ54に戻って積まれたシーンについて発火可
能なルールの存在有無の判別を行ない、他方、積まれて
いないならば、この発火によって決定された発話を含め
たシステム発話の長さが十分であるか否かを判別する(
ステップ62.63)。システム発話の長さが十分でな
ければ、ステップ60に戻って発火可能な全ルールの処
理が終了したかの判別を行ない、十分であると、今回の
ユーザによる発話に対するスタック操作処理を終了させ
る。
And, due to this ignition, a new scene is stacked 17
If the scene is stacked, the process returns to step 54 and it is determined whether or not there is a rule that can be fired for the stacked scene. Determine whether the length of the system utterance including the utterance determined by this firing is sufficient (
Step 62.63). If the length of the system utterance is not sufficient, the process returns to step 60 to determine whether processing of all rules that can be fired has been completed, and if it is sufficient, the stack operation processing for the current user's utterance is terminated.

第6図の処理を整理して述べると以下の通りである。The processing shown in FIG. 6 can be summarized and described as follows.

ステップ50及び51の処理によって、スタック17上
のシーンの後条件が満たされた場合には、そのシーンと
そのシーンより上に積まれたシーンは取り除かれる。
If the post-conditions for a scene on the stack 17 are satisfied by the processing in steps 50 and 51, that scene and the scenes stacked above that scene are removed.

ステップ52〜55の処理を通じて、ユーザの発話から
あるシーンが推論できるならば、スタック17にそのシ
ーンが積まれる。
If a certain scene can be inferred from the user's utterance through the processing of steps 52 to 55, that scene is placed on the stack 17.

ステップ56〜63の処理を通じて、ユーザの入力文に
対応する意味表現がスタック17の先頭にあるシーンの
条件部の条件を満たすときにルールが発火し、そのルー
ルの実行部が実行される。
Through the processing of steps 56 to 63, a rule is fired when the semantic expression corresponding to the user's input sentence satisfies the condition of the scene at the top of the stack 17, and the execution part of the rule is executed.

実行部が実行された結果、別のシーンが活性化されると
、会話の焦点が変化し、スタック17に別のシーンが積
まれる。また、このような処理時において、活性化して
いるシーンに発火可能なルールが1個もないときには、
スタック17から先頭のシーンが取り除かれ、会話の焦
点は取り除かれたシーンが活性化されたときのシーンに
戻る。
When another scene is activated as a result of the execution of the execution part, the focus of the conversation changes and another scene is placed on the stack 17. Also, during such processing, if there is no rule that can be fired in the active scene,
The first scene is removed from the stack 17, and the focus of the conversation returns to the scene when the removed scene was activated.

会話制御部11による処理が終了するのは、ここで決定
したシステムの発話の長さが十分である場合と、スタッ
ク17にシーンが存在しない場合であり、終了後は流れ
誤り発見部12に制御が移る。
The processing by the conversation control unit 11 ends when the length of the system utterance determined here is sufficient or when there is no scene in the stack 17, and after the processing is finished, the flow error detection unit 12 will move.

従って、会話制御部11による処理を通じてシーンがス
タックに積まれる場合は、以下の(1)及び(2)の二
つの場合である。
Therefore, there are two cases (1) and (2) below when scenes are stacked on the stack through processing by the conversation control unit 11.

(1)ルールの適用によって、現在のシーンから別のシ
ーンが呼び出された場合(ステップ6l−62−56) (2)ユーザの発話から推論されたシーンがスタック1
7上にない新しいシーンである場合(ステップ52−5
3−54> また、シーンがスタック17から取り除かれるのは、以
下の(3)〜(5)の場合である。
(1) When another scene is called from the current scene by applying the rule (step 6l-62-56) (2) When the scene inferred from the user's utterance is stack 1
If it is a new scene that is not on 7 (step 52-5
3-54> Furthermore, the scene is removed from the stack 17 in the following cases (3) to (5).

(3)そのシーンの後条件が成り立つ場合(ステップ5
0−51> (4)そのシーンの全てのルールが発火不可能であり、
新しいシーンを呼び出すこともできない場合(ステップ
56−58) (5)ユーザの発話により推論されたシーンが、スタッ
ク17上の以前のシーンである場合(ステップ52−5
3−55> このようなスタック17の操作を伴なう場合のうち、場
合(1)及び(3)は会話の流れの変化として必ず適切
であるが、場合(2)、(4)及び(5)は適切でない
ときもある。
(3) If the post-condition of the scene holds (step 5
0-51> (4) All rules of the scene cannot be fired,
(5) If the scene inferred by the user's utterance is a previous scene on the stack 17 (Step 52-5)
3-55> Among cases involving such operations on the stack 17, cases (1) and (3) are definitely appropriate as changes in the flow of the conversation, but cases (2), (4) and ( 5) is sometimes not appropriate.

場合(2)において、新しいシーンとその直前のシーン
との間に、会話の流れの自然さが満たされていないとき
には、ユーザが直前のシーンにおける会話の流れを理解
していないことになる。すなわち、シーンを新しいシー
ンに変えること自体は良い場合もあるが、変えた新しい
シーンが会話の流れからみて妥当でない場合には問題が
ある。
In case (2), if the natural flow of conversation is not satisfied between the new scene and the immediately preceding scene, it means that the user does not understand the flow of conversation in the immediately preceding scene. In other words, changing a scene to a new scene may be a good thing in itself, but there is a problem if the new scene is not appropriate in terms of the flow of the conversation.

この場合、新しく積まれたシーンに入り込むための前条
件が成り立っていれば、会話の流れが自然であると言え
る。
In this case, if the preconditions for entering a newly accumulated scene are met, it can be said that the flow of the conversation is natural.

場合(4)では、スタック17の中にマツチするルール
を持つシーンが存在すれば、そのシーンへ会話の焦点が
移動する。以前会話にしたシーンに戻ることもあり得る
。そのため、移動した以前のシーンの直後にスタック1
7に積まれたシーンの後条件が満たされているのであれ
ば、会話の流れの変化が適切であるが、それ以外ならば
、移動したシーンの後にスタック17に積まれたシーン
をユーザが理解していないことになる。
In case (4), if a scene with a matching rule exists in the stack 17, the focus of the conversation moves to that scene. It is also possible to return to a scene that was previously discussed. Therefore, stack 1 will be added immediately after the previous scene that was moved.
If the condition after the scene stacked in stack 17 is met, then the change in the flow of the conversation is appropriate, but if it is not the case, the user understands the scene stacked in stack 17 after the moved scene. It means you haven't done it.

場合(5)では、推論されたシーン(この場合では以前
に既に会話を行なったシーンに等しい)の直後にスタッ
ク17に積まれたシーンの後条件が満たされているので
あれば、会話の流れの変化が適切であるが、それ以外な
らば、推論されたシーンの後にスタック17に積まれた
シーンをユーザが理解していないことになる。
In case (5), if the condition after the scene placed on the stack 17 immediately after the inferred scene (which in this case is equivalent to a scene in which a conversation has already taken place previously) is met, then the flow of the conversation is appropriate, but otherwise the user does not understand the scene placed on the stack 17 after the inferred scene.

従って、会話の流れ誤りである可能性は次の2つである
。第1に、シーンの後条件を満たされずにスタック17
からシーンが取り除かれたときと、第2に、スタック1
7上に新しいシーンが積まれたにも拘らず、新しいシー
ンに対する前条件が成り立たないときとである。
Therefore, there are two possibilities that the flow of the conversation is incorrect. First, the condition after the scene is not met and the stack 17
and secondly, when the scene is removed from stack 1
This is the case when the precondition for the new scene does not hold even though a new scene has been stacked on 7.

以上の考察に基づいて手順が定められた、流れ誤り発見
部12が実行する処理を、第7図を用いて説明する。
The process executed by the flow error detection unit 12, the procedure of which has been determined based on the above consideration, will be explained using FIG. 7.

まず、スタック17が以前のスタック18から変化した
か否かを確認する(ステップ70)。変化していない場
合には、同一シーンの会話であるので会話の流れ誤りが
ないと判断して流れ誤り発見処理を終了させる。
First, it is determined whether the stack 17 has changed from the previous stack 18 (step 70). If there is no change, it is determined that there is no error in the flow of the conversation since the conversations are in the same scene, and the error detection process is terminated.

変化していると、さらに、現在のスタック17は以前の
スタック18からシーンを取り除いたものであるか否か
を判別する(ステップ71)。そうであると、状況メモ
リ14中の内部表現に、取り除かれたシーンの後条件を
満たすものがあるが否かを判別する(ステップ72)。
If so, it is further determined whether the current stack 17 is the previous stack 18 with the scene removed (step 71). If so, it is determined whether there is any internal representation in the situation memory 14 that satisfies the post-condition of the removed scene (step 72).

この判別でないという結果を得ると、シーンを終了させ
て他のシーンに移ることができないにも係わらず移行さ
せているので、会話の流れ誤りであると判断して発見処
理を終了させる。
If this determination is not made, the scene is ended and the scene is moved to another scene even though it is not possible, so it is determined that the flow of the conversation is incorrect and the discovery process is ended.

現在のスタック17は以前のスタック18からシーンを
取り除いたものでない場合、及び、取り除いたものであ
るが状況メモリ14中の内部表現に、取り除かれたシー
ンの後条件を満たすものがある場合には、現在のスタッ
ク17は以前のスタック18にシーンが積まれたもので
あるか否かを判別する(ステップ73)。否定結果を得
ると、会話の流れ誤りがないと判断して発見処理を終了
させる。
If the current stack 17 is not the one obtained by removing the scene from the previous stack 18, and if there is an internal representation in the situation memory 14 that satisfies the condition after the removed scene, then , it is determined whether the current stack 17 has scenes stacked on the previous stack 18 (step 73). If a negative result is obtained, it is determined that there is no error in the flow of the conversation, and the discovery process is terminated.

シーンが積まれたものであると、さらに、状況メモリ1
4中の内部表現に取り除かれたシーンの前条件を満たす
ものがあるか否かを判別する(ステップ74)。この判
別でないという結果を得ると、会話の流れ誤りであると
判断して発見処理を終了させ、あるという結果を得ると
、会話の流れ誤りがないと判断して発見処理を終了させ
る。
If scenes are accumulated, situation memory 1
It is determined whether any of the internal representations in 4 satisfy the precondition of the removed scene (step 74). If the result is that there is no error in the flow of the conversation, it is determined that there is an error in the flow of the conversation and the discovery process is terminated, and if the result is that there is an error in the flow of the conversation, it is determined that there is no error in the flow of the conversation and the discovery process is terminated.

以下、第3図から第7図を用いて具体的な処理の流れを
説明する。なお、会話はホテルの顧客(ユーザ)とクラ
ーク(システム)との会話とする。
The specific process flow will be explained below using FIGS. 3 to 7. Note that the conversation is between a hotel customer (user) and a clerk (system).

第3図(A)に示す以前のスタック18は、check
−inシーンからroomシーンが呼び出された状態で
あることを示している。ユーザの発話に対する会話制御
が開始される以前では現在のスタック17も同内容とな
っている。
The previous stack 18 shown in FIG.
- This shows that the room scene has been called from the in scene. The current stack 17 also has the same contents before conversation control for the user's utterances is started.

コノ状態でユーザが”That’s good、 I 
think I’If take the root”
 (発話a)及び”I Warlt to keep 
a+y baooaaes、   (発話b)という発
話を行ったとする。
In this state, the user says “That’s good, I
think I'If take the root"
(utterance a) and “I wander to keep
Assume that the following utterance is made: a+y baooaaes, (utterance b).

この場合、発話aを受けて、第4図(B)に示すroo
mシーンの後条件に等しい意味表現が状況メモリ14に
セットされるために、roomシーンの後条件が満たさ
れ、スタック17からroomtシーンが取り除かれ、
スタック17の先頭は第4図(A)に示すcheck−
inシーンとなる(ステップ5O−51)。
In this case, in response to utterance a, roo as shown in FIG.
In order to set a semantic expression equal to the post-condition of the m-scene in the situation memory 14, the post-condition of the room scene is satisfied and the room-t scene is removed from the stack 17;
The top of the stack 17 is check- shown in FIG. 4(A).
It becomes an in scene (step 5O-51).

次に、発話すを受けて、第5図に示すシーン推論知識1
6の知識番号40が「1」の知識を用いることにより、
第4図(D>に示すkeep−baggageシーンが
スタック17に積まれる(ステップ52−53−54>
Next, in response to the utterance, scene inference knowledge 1 shown in Figure 5
By using the knowledge of 6 whose knowledge number 40 is "1",
The keep-baggage scene shown in FIG. 4 (D> is loaded onto the stack 17 (steps 52-53-54>
.

第3図(B)における現在のスタックは、その場合のス
タック17の状態を示している。スタック17の先頭に
あるkeep−baggageシーンにおいてルール番
号34が「0」のルールが発火可能であるので、このル
ールが発火し、5peak brino−baagag
eを実行する(ステップ56−57−6O−61)。そ
の結果、システムの発話の長さが十分であれば、会話制
御部11の処理は終了する(ステップ62−63>。
The current stack in FIG. 3(B) shows the state of the stack 17 in that case. In the keep-baggage scene at the top of the stack 17, the rule whose rule number 34 is "0" can fire, so this rule fires and the 5peak brino-baagag
Execute e (steps 56-57-6O-61). As a result, if the length of the system's utterance is sufficient, the processing of the conversation control unit 11 ends (steps 62-63>).

流れ誤り発見部12においては、第7図に示すように、
この例の場合には、第3図(A>の以前のスタック71
8と第3図(B)の現在のスタック17を比較する。
In the flow error detection unit 12, as shown in FIG.
In this example, the previous stack 71 of FIG.
8 and the current stack 17 of FIG. 3(B).

ここではスタック17は以前のスタック18と比べて変
化しており(ステップ70で肯定結果)、スタック17
からroomシーンが取り除かれているので(ステップ
71で肯定結果)、スタック17から取り除かれたro
omシーンの後条件が満たされているか否かを状況メモ
リ14の意味表現を調べることで判別する(ステップ7
2)。このときには発話aによって状況メモリ14にセ
ットされた意味表現がroomシーンの後条件を満たし
ているので肯定結果が得られる。
Here, stack 17 has changed compared to previous stack 18 (affirmative result at step 70), and stack 17
Since the room scene has been removed from the stack 17 (affirmative result in step 71), the ro scene has been removed from the stack 17.
It is determined whether the post-om scene condition is satisfied by checking the semantic expression in the situation memory 14 (step 7).
2). At this time, since the semantic expression set in the situation memory 14 by the utterance a satisfies the postcondition of the room scene, an affirmative result is obtained.

次に、スタック17に新たにシーンが積まれているので
(ステップ73で肯定結果)、スタック17に積まhな
kefJ)−ba(JQa(Jeシー ンノ前条件が満
たされているか否かを状況メモリ14の意味表現を調べ
ることで判別する(ステップ74)。keep−bag
gageシーンの前条件は、roomシーンの前条件と
、満たすことが判明している後条件とに対応しており、
「00mシーンがスタック17に一旦積まれた後である
ので、roomシーンの前条件が成り立つことは明らか
であり、従って、keel)−baggageシーンの
前条件が成り立つことが判明しくステップ74で肯定結
果)、その結果、ユーザが会話の流れ誤りを犯していな
いことが判明する。
Next, since a new scene has been placed on the stack 17 (affirmative result in step 73), the scene is placed on the stack 17 and it is determined whether the precondition for the scene is satisfied or not. It is determined by examining the semantic representation in the memory 14 (step 74).keep-bag
The preconditions of the cage scene correspond to the preconditions of the room scene and the postconditions that are known to be satisfied.
Since the 00m scene has been loaded onto the stack 17, it is clear that the precondition for the room scene holds true. Therefore, it is clear that the precondition for the keel)-baggage scene holds true, and a positive result is obtained in step 74. ), as a result, it turns out that the user did not make any conversation flow errors.

次に、以前のスタック18が第3図(A>に示す状態で
、ユーザが発話すのみを行なったとする。
Next, assume that the previous stack 18 is in the state shown in FIG. 3 (A>) and the user only speaks.

その場合、先頭のroo+nシーンの後条件が溝たされ
ず、スタック17からroomシーンが取り除かれない
が、発話すを受けて、第5図に示すシーン推論知識16
の知識番号40が「1」の知識を用いることにより、k
eep−bag(Jageシーンがスタック17の先頭
に積まれる(ステップ5O−52−53−54)。
In that case, the condition after the first roo+n scene is not satisfied and the room scene is not removed from the stack 17, but in response to the utterance, the scene inference knowledge 16 shown in FIG.
By using the knowledge whose knowledge number 40 is "1", k
The eep-bag(Jage scene is stacked at the top of the stack 17 (step 5O-52-53-54).

第3図(C)における現在のスタックは、その場合のス
タック17の状態を示している。スタック17の先頭に
あるkeeD−bagCJa(Jeシーンにおいて0番
のルールが発火可能であるので0番のルールが発火し、
5peak bring−baggageを実行する(
ステップ56−57−60−61>。その結果、システ
ム発話の長さが十分であれば、会話制御部11の処理は
終了する(ステップ62−63>。
The current stack in FIG. 3(C) shows the state of the stack 17 in that case. keeD-bagCJa at the top of stack 17 (because rule number 0 can fire in the Je scene, rule number 0 fires,
5Execute peak bring-baggage (
Steps 56-57-60-61>. As a result, if the length of the system utterance is sufficient, the processing of the conversation control unit 11 ends (steps 62-63>).

流れ誤り発見部12においては、第7図に示すように、
この例の場合、第3図(A>の以前のスタック18と第
3図(C)の現在のスタック17とを比較する(ステッ
プ70)。
In the flow error detection unit 12, as shown in FIG.
In this example, the previous stack 18 of FIG. 3(A) and the current stack 17 of FIG. 3(C) are compared (step 70).

ここでは、スタック17は以前のスタック18から変化
しており、スタック17がら取り除かれたシーンがなく
てスタック17に新たにkeep−baggageシー
ンが積まれているので、スタック17に積まれたkee
p−baggageシーンの前条件が満たされているか
否かを状況メモリ14の意味表現を調べることで判別す
る(ステップ71−73−74>。
Here, the stack 17 has changed from the previous stack 18, there is no scene removed from the stack 17, and a new keep-baggage scene is placed on the stack 17, so the keep-baggage scene placed on the stack 17
It is determined whether the preconditions of the p-baggage scene are satisfied by checking the semantic expression in the situation memory 14 (steps 71-73-74>).

keep−baggageシーンの前条件のうち、ro
omシーンの後条件に対応する条件は、発話aがなされ
ないので成り立たない(ステップ74で否定結果)。
Among the preconditions of the keep-baggage scene, ro
The condition corresponding to the post-condition of the om scene does not hold because utterance a is not made (negative result in step 74).

従って、ユーザが会話の流れ誤りを犯していることが判
明する。
Therefore, it turns out that the user is making a mistake in the flow of the conversation.

従って、上述の実施例によれば、シーンに、そのシーン
が成り立つための前条件と、そのシーンが終了するため
の後条件を持たせ、スタック構造の変化に対し、変化要
素であるシーンの前条件と後条件を調べるようにしたの
で、会話の流れ誤りを発見することができる。
Therefore, according to the above embodiment, a scene has a precondition for the scene to be established and a postcondition for the scene to end, and when the stack structure changes, the By examining the conditions and post-conditions, errors in the flow of the conversation can be discovered.

従って、ユーザの会話の流れ誤りに対し、会話の流れ誤
りの指摘、正しい会話の流れの維持というような、フレ
キシブルな対応が可能となる。
Therefore, it is possible to respond flexibly to errors in the user's conversation flow, such as pointing out the error in the conversation flow and maintaining the correct conversation flow.

また、会話の流れを理解するための方式を利用して流れ
誤りを発見しているので、理解方式と流れ誤り発見方式
とを別個に設けることに比較して処理がし易いものとな
っている。
Additionally, since flow errors are detected using a method for understanding the flow of conversation, processing is easier than when the understanding method and flow error detection method are provided separately. .

なお、上述の実施例においては、会話のシーン流れ状態
をスタック構造で動的に表現するものを示したが、木構
造で動的に表現するようなものに対しても、本発明を適
用することができる。
In addition, in the above-mentioned embodiment, the flow state of a conversation scene is dynamically expressed using a stack structure, but the present invention can also be applied to something that is dynamically expressed using a tree structure. be able to.

また、本発明は、英語による対話に適用できるだけでな
く、他の言語の自然言語インタフェースに適用すること
ができ、システムとしても教育システムに限定されるも
のではない。
Further, the present invention can be applied not only to dialogue in English, but also to natural language interfaces in other languages, and the system is not limited to educational systems.

[発明の効果コ 以上のように、本発明によれば、スタックや木を用いて
動的に会話の流れを生成・管理する方式を用いて、ユー
ザの発話がその時点における会話の流れを不当に乱した
ことによる会話の流れ誤りを発見することができる。
[Effects of the Invention] As described above, according to the present invention, a method of dynamically generating and managing the conversation flow using stacks and trees is used to prevent the user's utterances from inappropriately disrupting the flow of the conversation at that point. You can discover errors in the flow of conversation caused by disrupting the conversation.

【図面の簡単な説明】[Brief explanation of drawings]

第1図は本発明による会話制御方式の一実施例を適用し
たコンピュータシステムの機能ブロック図、第2図はそ
の入力文理解部10の出力である意味表現の例を示す説
明図、第3図は会話の焦点を表わすスタックの例を示す
説明図、第4図は会話制御に用いるシーンの例を示す説
明図、第5図はユーザの発話から特定のシーンを推論す
る知識の例を示す説明図、第6図は会話制御部11の処
理フローチャート、第7図は会話の流れ誤り発見部12
の処理フローチャートである。 10・・・入力文理解部、11・・・会話制御部、12
・・・流れ誤り発見部、13・・・出力文生成部、14
・・・状況メモリ、15・・・シーンの集合、16・・
・シーン推論知識、17・・・現在のスタック、18・
・・以前のスタック、31・・・シーンの前条件、32
・・・シーンの後条件。
FIG. 1 is a functional block diagram of a computer system to which an embodiment of the conversation control method according to the present invention is applied, FIG. 2 is an explanatory diagram showing an example of a semantic expression output from the input sentence understanding unit 10, and FIG. is an explanatory diagram showing an example of a stack representing the focus of a conversation, FIG. 4 is an explanatory diagram showing an example of a scene used for conversation control, and FIG. 5 is an explanatory diagram showing an example of knowledge for inferring a specific scene from a user's utterance. 6 is a processing flowchart of the conversation control unit 11, and FIG. 7 is a conversation flow error detection unit 12.
It is a processing flowchart. 10... Input sentence understanding unit, 11... Conversation control unit, 12
...Flow error detection unit, 13...Output sentence generation unit, 14
...Situation memory, 15...Scene collection, 16...
・Scene inference knowledge, 17...Current stack, 18・
...Previous stack, 31...Scene precondition, 32
...The post-scene condition.

Claims (1)

【特許請求の範囲】 自然言語によるマンマシンインタフェースを持つコンピ
ュータシステムの会話制御方式であって、会話の流れを
ある場面毎のシーンに分割し、シーンをスタック構造や
木構造として動的に構築することにより、会話の流れを
生成・管理する方式を用いた会話制御方式において、 シーンに、そのシーンが成り立つための前条件と、その
シーンが終了するための後条件を持たせると共に、 スタック構造又は木構造の変化分に対応するシーンの前
条件と後条件を調べて会話の流れ誤りを発見することを
特徴とする会話制御方式。
[Claims] A conversation control method for a computer system having a human-machine interface using natural language, which divides the conversation flow into scenes for each scene and dynamically constructs the scenes as a stack structure or a tree structure. In a conversation control method that uses a method to generate and manage the flow of conversation, a scene has a precondition for the scene to be established and a postcondition for the scene to end, and a stack structure or A conversation control method characterized by detecting errors in the flow of conversation by examining the preconditions and postconditions of scenes corresponding to changes in the tree structure.
JP2028316A 1990-02-09 1990-02-09 Conversation control system Pending JPH03233677A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2028316A JPH03233677A (en) 1990-02-09 1990-02-09 Conversation control system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2028316A JPH03233677A (en) 1990-02-09 1990-02-09 Conversation control system

Publications (1)

Publication Number Publication Date
JPH03233677A true JPH03233677A (en) 1991-10-17

Family

ID=12245211

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2028316A Pending JPH03233677A (en) 1990-02-09 1990-02-09 Conversation control system

Country Status (1)

Country Link
JP (1) JPH03233677A (en)

Similar Documents

Publication Publication Date Title
JP7524296B2 (en) Tailoring interactive dialogue applications based on author-provided content
KR102355988B1 (en) Context-aware human-to-computer conversations
US7778836B2 (en) System and method of using modular spoken-dialog components
US9753912B1 (en) Method for processing the output of a speech recognizer
JP3212618B2 (en) Dialogue processing device
US7421393B1 (en) System for developing a dialog manager using modular spoken-dialog components
US8630859B2 (en) Method for developing a dialog manager using modular spoken-dialog components
US7617093B2 (en) Authoring speech grammars
US6606598B1 (en) Statistical computing and reporting for interactive speech applications
US5255386A (en) Method and apparatus for intelligent help that matches the semantic similarity of the inferred intent of query or command to a best-fit predefined command intent
EP1557824A1 (en) System and method to disambiguate user's intention in a spoken dialog system
US20080059186A1 (en) Intelligent speech recognition of incomplete phrases
JP2001034289A (en) Interactive system using natural language
US20150149391A1 (en) System and a method for prividing a dialog with a user
CN112084317A (en) Method and apparatus for pre-training a language model
US10978074B1 (en) Method for processing the output of a speech recognizer
KR102527107B1 (en) Method for executing function based on voice and electronic device for supporting the same
CN115129878A (en) Conversation service execution method, device, storage medium and electronic equipment
Li et al. Making something out of nothing: Building robust task-oriented dialogue systems from scratch
US20230321546A1 (en) Predictive audio redaction for realtime communication
KR102135182B1 (en) Personalized service system optimized on AI speakers using voiceprint recognition
JPH03233676A (en) Conversation control system
JPH03233677A (en) Conversation control system
KR102448733B1 (en) Dialog system for response selecting considering turn configuration in context and the method thereof
KR20230071673A (en) Method, computer device, and computer program for building open-domain dialogue system using language model