JPH09330319A - Intention communication supporting method and information processor using the same method - Google Patents
Intention communication supporting method and information processor using the same methodInfo
- Publication number
- JPH09330319A JPH09330319A JP8152356A JP15235696A JPH09330319A JP H09330319 A JPH09330319 A JP H09330319A JP 8152356 A JP8152356 A JP 8152356A JP 15235696 A JP15235696 A JP 15235696A JP H09330319 A JPH09330319 A JP H09330319A
- Authority
- JP
- Japan
- Prior art keywords
- word
- image
- character string
- image information
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- User Interface Of Digital Computer (AREA)
- Digital Computer Display Output (AREA)
- Machine Translation (AREA)
Abstract
Description
【0001】[0001]
【発明の属する技術分野】この発明は、言語翻訳などの
機能を利用した意志伝達支援方法およびその方法を使用
した情報処理装置に関し、特にある言語で表現された意
志などを画像を用いて視覚的な情報に変換できるように
改良された意志伝達支援方法および情報処理装置に関す
る。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a willingness communication support method using a function such as language translation and an information processing apparatus using the method, and in particular, a willingness expressed in a certain language is visually recognized using an image. TECHNICAL FIELD The present invention relates to an improved will communication support method and information processing device that can be converted into various types of information.
【0002】[0002]
【従来の技術】近年、コンピュータの分野では、CPU
の処理速度の向上、半導体技術の進歩による周辺装置の
小型化が進められ、これによって従来では比較的大型の
システムでのみ実現されていた機械翻訳の機能を持つ携
帯型情報端末が開発されている。この種の典型的な携帯
型翻訳機においては、ある言語の日常会話の定文などが
他の言語に翻訳されて文字または音声で出力される。2. Description of the Related Art In recent years, CPUs have been used in the field of computers.
The processing speed has been improved, and the miniaturization of peripheral devices has been promoted by the advancement of semiconductor technology. As a result, a portable information terminal having the machine translation function, which was previously realized only in relatively large systems, has been developed. . In a typical portable translator of this type, a fixed phrase of daily conversation in one language is translated into another language and output as characters or voice.
【0003】しかし、この翻訳機能は英語、独語、仏語
などの主要な言語圏での利用のみを想定したものである
ため、それら言語圏以外での利用は困難である。また、
その携帯型翻訳機を通じてコミュニケーションを図る相
手としては、文字を読むことができ、あるいは出力され
た音声を聞くことができる聴力を持つ健常者に限定され
ていまうという問題もある。However, since this translation function is intended to be used only in major languages such as English, German, and French, it is difficult to use it in other languages. Also,
There is also a problem in that the person who communicates with the portable translator is limited to those who have a hearing ability to read characters or hear the output voice.
【0004】[0004]
【発明が解決しようとする課題】上述のように、従来で
は、利用可能な言語圏、コミュニケーションを図る相手
がなどが限定され、特定の国または地域で且つ限られた
相手としかコミュニケーションを図ることができないと
いう問題があった。As described above, in the past, the available language areas, the parties to communicate with, etc. are limited, and communication is intended only with a limited number of parties in a specific country or region. There was a problem that I could not do it.
【0005】この発明はこのような点に鑑みてなされた
ものであり、言語間の翻訳ではなく、言語から画像への
翻訳によって意志伝達を図れるようにし、より広い言語
圏で相手を選ばずに意志伝達を行うための支援を行うこ
とができる意志伝達支援方法およびその方法を使用した
情報処理装置を提供することを目的とする。The present invention has been made in view of the above circumstances, and enables the communication of intentions by translation from language to image rather than translation between languages, thereby selecting a partner in a wider language range. It is an object of the present invention to provide a will communication support method and an information processing apparatus using the method, which is capable of supporting communication.
【0006】[0006]
【課題を解決するための手段】この発明は、画像表示機
能を有する情報処理装置を用いて、伝達対象の意志を視
覚を通じて伝達する意志伝達支援方法であって、言語に
よって表現可能な事物、感情、または意志などの伝達対
象が指定されたとき、その伝達対象からそれを構成する
要素を決定し、あらかじめ用意された複数の画像情報の
中から、前記決定された要素を連想させるために必要な
1以上の画像情報を選定し、前記選定した画像情報を画
面表示して、前記指定された伝達対象を画像に変換でき
るようにしたことを特徴とする。The present invention is a willingness communication support method for visually communicating a will of a communication target by using an information processing device having an image display function. , Or an intention such as an intention is specified, the constituent elements are determined from the object to be communicated, and necessary for associating the determined element among a plurality of image information prepared in advance. One or more pieces of image information are selected, the selected image information is displayed on a screen, and the specified transmission target can be converted into an image.
【0007】この意志伝達支援方法においては、例えば
携帯情報端末などの情報処理装置のキーボード等から入
力された文字列、あるいはそのキーボードの特定キーに
割り当てられた日常会話の定型文を構成する文字列など
によって、伝達すべき対象となる事物、感情、または意
志などが利用者によって指定されると、その伝達対象か
ら単語を抽出するなどの処理によって伝達対象を構成す
る要素が決定される。そして、その要素として決定され
た例えば単語によって表現された事物、感情、または意
志を連想させるための1以上の画像情報が複数の画像情
報の中から選定され、それが情報処理装置の画面に表示
される。したがって、言語間の翻訳ではなく、言語から
画像への翻訳が可能となり、より広い言語圏で相手を選
ばずに意志伝達を行うことができる。In this method for supporting communication of a will, for example, a character string input from a keyboard or the like of an information processing device such as a portable information terminal or a character string constituting a standard sentence of daily conversation assigned to a specific key of the keyboard. As described above, when the user specifies an object, emotion, or will to be transmitted, the elements constituting the transmission target are determined by processing such as extracting words from the transmission target. Then, one or more pieces of image information for associating an object, an emotion, or an intention expressed by, for example, a word determined as the element are selected from a plurality of pieces of image information and displayed on the screen of the information processing device. To be done. Therefore, it is possible to translate from a language to an image instead of translating between languages, and it is possible to communicate a will in a wider language area without selecting a partner.
【0008】画像情報の選択は、例えば、単語の種類毎
にそれを連想させる画像情報の識別子を示す画像対応表
を用いて行うことができる。この場合、動作を表す単語
に対しては複数の画像情報識別子を定義しておくことに
より、入力文字列で表現された伝達対象が動作またはそ
の方向を、複数の画像情報の連続表示によって動画に変
換することができ、より明確に意志を伝達することが可
能となる。また、動作を表す単語に対してはそれに対応
する画像情報の表示形態を指定する指示情報を付加して
おくことにより、ある画像を画面上で移動させて表示し
たり、他の画像と重ね合わせて表示することができる。The image information can be selected by using, for example, an image correspondence table showing the identifier of the image information associated with each type of word. In this case, by defining a plurality of image information identifiers for the words that represent the motion, the transmission target expressed by the input character string indicates the motion or its direction in the moving image by continuously displaying the plurality of image information. It can be converted, and it becomes possible to communicate the will more clearly. In addition, by adding instruction information that specifies the display mode of image information corresponding to a word that represents an action, one image can be moved and displayed on the screen, or superimposed on another image. Can be displayed.
【0009】また、この発明の意志伝達支援方法は、入
力文字列によって表現された文章を構文解析して、その
文書を、それを構成する要素となる複数種の格に単語単
位で分割し、前記入力文字列に含まれる単語それぞれに
対応する複数の画像情報を、それら単語の属する格に対
応する順序で表示することを特徴とする。これにより、
複雑な文書の内容を複数の画像情報を用いて表現するこ
とが可能となる。また、この場合には、格の種類と画像
情報の表示順序との関係を記述した複数の表示順序情報
の中で前記入力文字列の言語に対応する表示順序情報、
または利用者によって指定された表示順序情報を参照し
て表示順序を決定することにより、例えば各言語の語順
を考慮した状態で画像表示の順番を制御できるようにな
り、より円滑なコミュニケーションが可能となる。Further, the intention transmission support method of the present invention parses a sentence represented by an input character string, divides the document into a plurality of types of cases which are constituent elements of the sentence, and divides it into word units. It is characterized in that a plurality of pieces of image information corresponding to each word included in the input character string are displayed in an order corresponding to a case to which the word belongs. This allows
It is possible to express the contents of a complicated document by using a plurality of image information. In this case, display order information corresponding to the language of the input character string among a plurality of display order information describing the relationship between the type of case and the display order of image information,
Alternatively, by determining the display order by referring to the display order information specified by the user, it becomes possible to control the order of image display in a state in which the word order of each language is taken into consideration, which enables smoother communication. Become.
【0010】[0010]
【発明の実施の形態】以下、図面を参照してこの発明の
実施形態を説明する。図1には、この発明の一実施形態
に係る意志伝達支援方法を使用した携帯型翻訳機の機能
構成が示されている。この携帯型翻訳機は、ある言語で
表現された事物、感情、または意志などを画像情報に変
換するためのものであり、その変換機能は携帯型翻訳機
上で画像翻訳支援プログラムを実行することによって実
現されている。Embodiments of the present invention will be described below with reference to the drawings. FIG. 1 shows the functional configuration of a portable translator that uses the intention transmission support method according to the embodiment of the present invention. This portable translator is for converting things, emotions, or intentions expressed in a language into image information, and the conversion function is to execute an image translation support program on the portable translator. Is realized by.
【0011】この携帯型翻訳機は、図示のように、ユー
ザがキーボードやタッチパネルなどにより文字列を入力
したり、本装置に各種指示を与えるための入力装置1
と、図2で後述する単語表21、構文規則表22、セル
対応表23、表示順序表24を格納したテーブル2と、
CPUおよびメモリなどのハードウェアと前述の画像翻
訳支援プログラムから構成されている制御装置3と、実
際の画像(以下、セルと称する)や、画像を表示する際
の表示方法を格納したセルデータ記憶部4と、ユーザに
よって入力された文字列の処理結果の画像や、エラーメ
ッセージなどを表示する表示装置5とから構成されてい
る。This portable translator is, as shown in the figure, an input device 1 for a user to input a character string using a keyboard, a touch panel or the like, or to give various instructions to this device.
And a table 2 storing a word table 21, a syntax rule table 22, a cell correspondence table 23, and a display order table 24, which will be described later with reference to FIG.
A control device 3 including hardware such as a CPU and a memory and the above-described image translation support program, an actual image (hereinafter referred to as a cell), and cell data storage that stores a display method for displaying the image. It is composed of a section 4 and a display device 5 for displaying an image of a processing result of a character string input by the user, an error message and the like.
【0012】制御装置3は、制御部300と、6つの処
理部、つまりシステム初期化部310、文字列入力部3
20、単語分割部330、構文解析部340、画像作成
部350、表示部360およびバッファ部370から構
成されている。The control device 3 includes a control unit 300, six processing units, that is, a system initialization unit 310 and a character string input unit 3.
20, a word division unit 330, a syntax analysis unit 340, an image creation unit 350, a display unit 360, and a buffer unit 370.
【0013】制御部300は、本装置全体の制御を司る
ものであり、例えば各処理部の動作制御や、これらの間
でのデータ転送等を行う。この制御部300は、CPU
によって構成されている。システム初期化部310、文
字列入力部320、単語分割部330、構文解析部34
0、画像作成部350、表示部360およびバッファ部
370は前述の画像翻訳支援プログラムの機能要素であ
る。The control unit 300 controls the entire apparatus, and controls the operation of each processing unit and transfers data between them. This control unit 300 is a CPU
It is constituted by. System initialization unit 310, character string input unit 320, word division unit 330, syntax analysis unit 34
0, the image creation unit 350, the display unit 360, and the buffer unit 370 are functional elements of the above-described image translation support program.
【0014】制御装置3を構成するこれらユニットのそ
れぞれの機能および結合関係を図2に示す。システム初
期化部310は、処理結果の表示方法の指定や、システ
ムの動作に必要な各種バッファのクリア等の初期化処理
を行う。文字列入力部320は、キーボードなどの入力
装置からユーザが入力した文字列を、入力文字バッファ
371に格納するものである。単語分割部330は、入
力文字列バッファ371に格納された文字列を、単語表
21を参照して単語単位に分割し、単語識別子に置換し
て、単語識別子バッファ372へ格納する。また、各単
語識別子に対応する単語属性を、単語属性バッファ37
3へ格納する。さらに、文字列を分割した際の単語数
を、単語数バッファ374へ格納するものである。FIG. 2 shows the respective functions and connection relations of these units constituting the control device 3. The system initialization unit 310 performs initialization processing such as specification of a display method of processing results and clearing of various buffers necessary for system operation. The character string input unit 320 stores a character string input by the user from an input device such as a keyboard in the input character buffer 371. The word dividing unit 330 divides the character string stored in the input character string buffer 371 into word units by referring to the word table 21, replaces it with a word identifier, and stores it in the word identifier buffer 372. In addition, the word attribute corresponding to each word identifier is stored in the word attribute buffer 37.
Stored in 3. Further, the number of words when the character string is divided is stored in the word number buffer 374.
【0015】構文解析部340は、単語識別子バッファ
372に格納された単語識別子を、構文規則表22を参
照し、単語属性バッファ373に格納された単語属性を
用いて振り分け、格バッファ375へ格納する。画像作
成部350は、表示モード指定バッファ377に指示さ
れた順序で、セル対応表23を参照し、格バッファ37
5に格納された単語識別子を、セル識別子へ展開し、出
力セルバッファ376へ格納する。The syntactic analysis unit 340 sorts the word identifiers stored in the word identifier buffer 372 using the word attributes stored in the word attribute buffer 373 by referring to the syntax rule table 22, and stores them in the case buffer 375. . The image creation unit 350 refers to the cell correspondence table 23 in the order instructed by the display mode designation buffer 377, and the case buffer 37
The word identifier stored in 5 is expanded into a cell identifier and stored in the output cell buffer 376.
【0016】表示部360は、出力セルバッファ376
に格納されたセル識別子を順次読み出し、セルデータ4
に格納された、実際の画像を表示装置5へ出力する。ま
た、バッファ部370は、本装置に必要な各種情報を記
憶する為のものであり、ここでは、図2に示すように入
力文字列バッファ371、単語識別子バッファ372、
単語属性バッファ373、単語数バッファ374、格バ
ッファ375、出力セルバッファ376、表示モード指
定バッファ377を有する。The display section 360 has an output cell buffer 376.
Sequentially reading out the cell identifiers stored in the cell data 4
The actual image stored in is output to the display device 5. Further, the buffer unit 370 is for storing various information necessary for the present apparatus, and here, as shown in FIG. 2, the input character string buffer 371, the word identifier buffer 372,
It has a word attribute buffer 373, a word number buffer 374, a case buffer 375, an output cell buffer 376, and a display mode designation buffer 377.
【0017】また、テーブル2は、図2に示すように単
語表21、構文規則表22、セル対応表23、表示順序
表24からなるものである。単語表21は、図7に示す
ように、ユーザが入力した文字列を、単語に分割するた
めに、それぞれの文字列に対応した単語識別子と、単語
属性を対応付けた構造をもつ。単語識別子は、異なる文
字列であっても、意味的に等しい文字列であれば同一と
なるので、図7のように、文字列「行か」「行き」「行
く」は、同じ単語識別子「w200」を持つ。また、単
語属性は各文字列に対応した、名詞、動詞などの品詞情
報を表している。The table 2 is composed of a word table 21, a syntax rule table 22, a cell correspondence table 23, and a display order table 24, as shown in FIG. As shown in FIG. 7, the word table 21 has a structure in which a word identifier corresponding to each character string is associated with a word attribute in order to divide the character string input by the user into words. Even if the word identifiers are different character strings, they are the same as long as they are semantically equivalent character strings. Therefore, as shown in FIG. 7, the character strings “row”, “go”, and “go” have the same word identifier “w200”. "have. The word attribute represents part-of-speech information such as a noun and a verb corresponding to each character string.
【0018】構文規則表22は、図8に示すように、単
語属性バッファ373に格納された単語属性の関係を調
べ、対応する単語識別子を、格バッファ375のそれぞ
れの位置へ振り分けるために、属性関係と、格識別子を
対応付けた構造をもつ。属性関係は、例えば「名詞と助
詞」、「動詞と助動詞」のような接続関係を表す。ま
た、格識別子は、図16の格バッファに示すように、文
の主語となる単語識別子が格納される主格「B1」、動
作に関する単語識別子が格納される動作格「B6」な
ど、格バッファ中の位置を表している。As shown in FIG. 8, the syntax rule table 22 is used to check the relationship between the word attributes stored in the word attribute buffer 373, and to assign the corresponding word identifier to each position of the case buffer 375. It has a structure that associates relations with case identifiers. The attribute relationship represents a connection relationship such as “noun and particle” and “verb and auxiliary verb”. Further, as shown in the case buffer of FIG. 16, the case identifier is in the case buffer such as a nominal case "B1" in which a word identifier that is a subject of the sentence is stored, and an action case "B6" in which a word identifier related to a motion is stored. Represents the position of.
【0019】セル対応表23は、図9に示すように、単
語識別子と、セル識別子を対応付けた構造をもつ。セル
識別子は、1枚の静止画像、または、画像の表示方法を
表す。例えば、セル「c17」は、図23(1)に示さ
れいてるように、静止画像「水」を表し、セル「c70
2」は対象となるセルを右から左へ移動させながら表示
する表示形態を表す。また、単語識別子「w101(好
き)」などのように動作に関する単語については、図2
3(3)に示されているように、複数のセル「c10
4,c105,c106,c107」が割り当てられて
おり、これにより複数のセルが連続的に表示することが
できる。As shown in FIG. 9, the cell correspondence table 23 has a structure in which word identifiers are associated with cell identifiers. The cell identifier represents one still image or a method of displaying the image. For example, cell "c17" represents a still image "water", as shown in FIG. 23 (1), and cell "c70".
"2" represents a display form in which the target cell is displayed while moving from right to left. In addition, as for the word related to the operation such as the word identifier “w101 (like)”, FIG.
3 (3), multiple cells "c10
4, c105, c106, c107 ”are allocated, and a plurality of cells can be continuously displayed by this.
【0020】表示順序表24は、図10に示すように、
表示モードと、表示順序を対応付けた構造をもつ。表示
モードとは、一部の言語に存在する語順(Word O
rder)を配慮したもので、表示順序を識別するため
のものである。また、表示順序とは、格バッファ内の単
語識別子を、セル識別子へ展開する際に、読み出す順序
を、格識別子で記したものである。The display order table 24, as shown in FIG.
It has a structure that associates the display mode with the display order. The display mode is the word order that exists in some languages (Word O
rder), and is for identifying the display order. The display order is the order in which the word identifiers in the case buffer are read out when the word identifiers are expanded into cell identifiers by the case identifier.
【0021】次に、本実施形態の翻訳処理手順について
説明する。図3は、本実施形態に於ける翻訳処理の手順
を示すフローチャートである。まず、システムが起動さ
れると、システム初期化部310は、バッファ部370
内の各バッファをクリアし、また、図11に示されてい
るように、任意の表示モードD1、D2を、表示モード
指定バッファ377へ格納するなど、翻訳に必要な各種
の初期化処理を行う(ステップS1)。Next, the translation processing procedure of this embodiment will be described. FIG. 3 is a flowchart showing the procedure of the translation process in this embodiment. First, when the system is activated, the system initialization unit 310 causes the buffer unit 370 to operate.
Various buffers in the buffer are cleared, and as shown in FIG. 11, various initialization modes necessary for translation are performed, such as storing arbitrary display modes D1 and D2 in the display mode designation buffer 377. (Step S1).
【0022】ここでは、図22(a)に示すような翻訳
処理のための文字列入力画面と、必要に応じて図22
(c)に示すような表示モード選択画面を、表示部36
0を介して表示装置5に出力する。この文字列入力画面
は、ユーザが文字列を入力するための入力行を有してい
る。また、表示モード選択画面は、ユーザが表示モード
を指定することができる。Here, a character string input screen for translation processing as shown in FIG. 22A and, if necessary, FIG.
The display mode selection screen as shown in FIG.
It is output to the display device 5 via 0. This character string input screen has an input line for the user to input a character string. The display mode selection screen allows the user to specify the display mode.
【0023】文字列入力画面が表示されると文字列が入
力可能となる。この状態で、ユーザは入力装置1により
文字列(この例では「駅へ行きたい」)を入力する。こ
の時、入力した文字列は、文字列入力部320を介し
て、図22(b)に示すように入力され、入力文字列バ
ッファ371へ(図12(4))に格納される(ステッ
プS2)。When the character string input screen is displayed, the character string can be input. In this state, the user inputs a character string (“I want to go to the station” in this example) using the input device 1. At this time, the input character string is input as shown in FIG. 22B via the character string input unit 320 and stored in the input character string buffer 371 (FIG. 12 (4)) (step S2). ).
【0024】次に、制御部300により文字列分割部3
20が起動される。文字列分割部320は、入力文字列
バッファ371に格納された文字列を、単語表21を参
照して単語分割し、単語識別子に置換して、単語識別子
バッファ372へ格納する。また、各単語識別子に対応
する単語属性を、単語属性バッファ373へ格納する。
さらに、文字列を分割した際の単語数を、単語数バッフ
ァ374へ格納する(ステップS3)。Next, the control unit 300 causes the character string dividing unit 3
20 is activated. The character string dividing unit 320 divides the character string stored in the input character string buffer 371 into words by referring to the word table 21, replaces the word with a word identifier, and stores the word in the word identifier buffer 372. In addition, the word attribute corresponding to each word identifier is stored in the word attribute buffer 373.
Further, the number of words when the character string is divided is stored in the word number buffer 374 (step S3).
【0025】単語が分割され、単語識別子が単語識別子
バッファ372へ格納されると、構文解析部340が起
動される。ここで構文解析の前処理として、構文解析部
340は、単語数バッファ374の単語数を調べる。単
語数が0(ステップS4のYES)のとき、文字列分割
部320はステップS7へ制御を移す。また、単語数が
0以外(ステップS4のNO)のときは、ステップS5
へ制御を移す(ステップS4)。When the word is divided and the word identifier is stored in the word identifier buffer 372, the parsing unit 340 is activated. Here, as a preprocessing of the syntax analysis, the syntax analysis unit 340 checks the number of words in the word number buffer 374. When the number of words is 0 (YES in step S4), the character string dividing unit 320 shifts the control to step S7. When the number of words is other than 0 (NO in step S4), step S5
Control is transferred to (step S4).
【0026】また、単語数が1(ステップS5のYE
S)のとき、入力された文字列は構文解析処理の必要が
ないため、ステップS7へ制御を移し、単語数が1以外
(ステップS5のNO)のときは、ステップS6へ制御
を移す(ステップS5)。The number of words is 1 (YE in step S5).
In S), the input character string does not need to be parsed, so control is moved to step S7. If the number of words is other than 1 (NO in step S5), control is moved to step S6 (step S6). S5).
【0027】構文解析部340は、単語識別子バッファ
372に格納された単語識別子を、構文規則表22を参
照し、単語属性バッファ373に格納された単語属性を
用いて振り分け、格バッファ375へ格納する(ステッ
プS6)。The syntax analysis section 340 refers to the syntax rule table 22 to sort the word identifiers stored in the word identifier buffer 372 using the word attributes stored in the word attribute buffer 373 and stores them in the case buffer 375. (Step S6).
【0028】構文解析部340が起動されると、引き続
き、画像作成部350が起動される。画像作成部350
は、表示モード指定バッファ377に指示された順序
で、セル対応表24を参照し、格バッファ375に格納
された単語識別子を、セル識別子へ展開し、出力セルバ
ッファ376へ格納する(ステップS7)。When the syntax analysis section 340 is activated, the image creation section 350 is subsequently activated. Image creation unit 350
Refers to the cell correspondence table 24 in the order instructed by the display mode designation buffer 377, expands the word identifier stored in the case buffer 375 into a cell identifier, and stores it in the output cell buffer 376 (step S7). .
【0029】ステップS7の処理が終了すると、表示部
360が起動される。表示部360は、出力セルバッフ
ァ376に格納されたセル識別子を順次読み出し、セル
データ4に格納された、実際の画像(図24参照)を出
力装置5へ出力する(ステップS8)。図24では、
「駅へ」に対応して駅を連想させる画像が右から左に移
動しながら表示され、「行き」に対応して人物が歩く姿
を表す複数の画像が連続的に表示され、また「たい」に
対応して人物が何かをしたいと思っている様子を示す複
数の画像が連続的に表示されている。When the process of step S7 is completed, the display unit 360 is activated. The display unit 360 sequentially reads the cell identifiers stored in the output cell buffer 376 and outputs the actual image (see FIG. 24) stored in the cell data 4 to the output device 5 (step S8). In FIG.
Images corresponding to "To Station" are displayed moving from right to left, and multiple images showing people walking corresponding to "Go" are displayed continuously. In response, the plurality of images showing the person wanting to do something are continuously displayed.
【0030】次に、上記ステップS3の単語分割処理、
ステップS6の構文解析処理、ステップS8の画像作成
処理について具体的に説明する。図4はステップS3の
単語分割処理を示すフローチャートである。Next, the word division processing in step S3,
The syntax analysis process of step S6 and the image creation process of step S8 will be specifically described. FIG. 4 is a flowchart showing the word division processing in step S3.
【0031】入力装置1から文字列入力部を介して、例
えば「駅へ行きたい」といった文字列が入力されると、
その文字列は入力文字列バッファ371(図4(4))
に格納される。When a character string such as "I want to go to the station" is input from the input device 1 through the character string input unit,
The character string is the input character string buffer 371 (Fig. 4 (4)).
Stored in.
【0032】制御部300により、文字列分割部320
が起動される。文字列分割部320は、入力文字列バッ
ファ371に格納された文字列「駅へ行きたい」を、単
語表21(図7)を参照して単語分割し、単語識別子
「w18(駅),w502(へ),w200(行き),
w100(たい)」に置換して、単語識別子バッファ3
72へ格納する(図15(4))(ステップS31)。The control unit 300 controls the character string dividing unit 320.
Is started. The character string dividing unit 320 divides the character string “I want to go to the station” stored in the input character string buffer 371 into words by referring to the word table 21 (FIG. 7), and the word identifiers “w18 (station), w502”. (To), w200 (To),
w100 (tai) "to replace the word identifier buffer 3
It stores in 72 (FIG.15 (4)) (step S31).
【0033】また、各単語識別子「w18,w502,
w200,w100」に対応する単語属性「A3(名
詞),A10(助詞「〜へ」),A5(動詞),A6
(助動詞「〜たい」)」を、単語属性バッファ373へ
格納する(図14(4))(ステップS32)。Further, each word identifier "w18, w502,
The word attributes “A3 (noun), A10 (particle“ to ”), A5 (verb), A6 corresponding to“ w200, w100 ”
The "auxiliary verb" ~ tai ")" is stored in the word attribute buffer 373 (FIG. 14 (4)) (step S32).
【0034】またさらに、文字列を分割した際の単語数
「4」を、単語数バッファ374へ格納する(図13
(4))。なお、入力した文字列が、単語表21中に存
在しないときは、単語数0を格納する(図12(2)
の、文字列「わび」の例では、単語数は「0」となり、
図13(2)のように格納される)(ステップS3
3)。Furthermore, the word number "4" when the character string is divided is stored in the word number buffer 374 (FIG. 13).
(4)). If the input character string does not exist in the word table 21, the number of words 0 is stored (FIG. 12 (2)).
In the example of the character string "Wabi", the number of words is "0",
It is stored as shown in FIG. 13B) (step S3)
3).
【0035】図5はステップS6の構文解析処理を示す
フローチャートである。単語識別子が単語識別子バッフ
ァ372へ、単語属性が単語属性バッファ373へ、単
語が単語数バッファ374へ格納されると、構文解析部
340が起動される。FIG. 5 is a flow chart showing the syntax analysis process of step S6. When the word identifier is stored in the word identifier buffer 372, the word attribute is stored in the word attribute buffer 373, and the word is stored in the word count buffer 374, the syntax analysis unit 340 is activated.
【0036】ステップS5で、単語数バッファ374の
単語数が2以上のとき、構文解析処理の必要があるた
め、ステップS6へ制御が移される。構文解析部340
は、単語識別子バッファ372(図14(4))に格納
された単語識別子「w18,w502,w200,w1
00」を、各単語識別子に対応した、単語属性「A3,
A10,A5,A6」を用いて、構文規則表22を参照
して格バッファ375(図16)へ振り分ける。構文規
則表22(図8)によると、属性関係「A3+A10
(名詞と助詞「〜へ」)」となる単語識別子は格識別子
「B3(目的先格)」へ、また、「A5+A6(動詞と
助動詞「〜たい」)」は「B6(動作格)」へ格納する
という構文規則から、図18に示す通り、格識別子「B
3」へ単語識別子「w18,w502」を、「B6」へ
「w200,w100」を格納する(ステップS6
1)。In step S5, when the number of words in the word number buffer 374 is 2 or more, it is necessary to perform the syntax analysis process, and therefore the control is moved to step S6. Parser 340
Is the word identifier “w18, w502, w200, w1” stored in the word identifier buffer 372 (FIG. 14 (4)).
00 ”is the word attribute“ A3, which corresponds to each word identifier.
"A10, A5, A6" is used to refer to the syntax rule table 22 and allocate to the case buffer 375 (FIG. 16). According to the syntax rule table 22 (FIG. 8), the attribute relationship “A3 + A10
(Noun and particle "to e") "to the case identifier" B3 (destination case) ", and" A5 + A6 (verb and auxiliary verb "totai") "to" B6 (action case) " From the syntax rule of storing, as shown in FIG. 18, the case identifier “B
The word identifiers "w18, w502" are stored in "3", and "w200, w100" are stored in "B6" (step S6).
1).
【0037】構文解析処理中、入力した文字列から得ら
れた属性関係が、構文規則表22には存在しないとき、
構文解析に失敗したと判断し(ステップS62のYE
S)、単語数バッファにエラー値(99999)を格納
する(ステップS63)。During the parsing process, when the attribute relation obtained from the input character string does not exist in the syntax rule table 22,
It is determined that the syntax analysis has failed (YE in step S62).
S), the error value (99999) is stored in the word number buffer (step S63).
【0038】図6はステップS7の画像作成処理を示す
フローチャートである。構文解析部340が起動される
と、引き続き、画像作成部350が起動される。FIG. 6 is a flow chart showing the image creating process of step S7. When the syntax analysis unit 340 is activated, the image creation unit 350 is subsequently activated.
【0039】画像作成部350は、表示モード指定バッ
ファ377(図11)の表示モードを読み出す(ステッ
プS71)。次に、単語数バッファ374を読み出し、
その単語数に応じて以下の各ステップへ制御を移す。The image creating section 350 reads the display mode of the display mode designation buffer 377 (FIG. 11) (step S71). Next, the word count buffer 374 is read out,
Control is transferred to the following steps according to the number of words.
【0040】単語数が0のときは、ステップS75へ制
御を移す。入力された文字列は、単語表21には存在し
ないことをユーザに知らせるため、出力セルバッファ3
76へ、セル識別子「c9998」を格納する(ステッ
プS75)。図20(2)の文字列「わび」の例では、
出力セルバッファ376には、セル識別子「c999
8」(図27(a))が格納される。When the number of words is 0, control is passed to step S75. In order to inform the user that the input character string does not exist in the word table 21, the output cell buffer 3
The cell identifier "c9998" is stored in 76 (step S75). In the example of the character string “Wabi” in FIG. 20 (2),
The output cell buffer 376 stores the cell identifier “c999
8 ”(FIG. 27A) is stored.
【0041】単語数が1のときは、ステップS76へ制
御を移す。入力された文字列は、1つの単語であること
から、構文解析処理が省略されているため、単語識別子
バッファ372内の単語識別子を直接、セル対応表23
を参照して、出力セルバッファ376へ展開する(ステ
ップS76)。図20(1)の文字列「水」の例では、
出力セルバッファ376には、セル識別子「c17」が
格納される。If the number of words is 1, control is passed to step S76. Since the input character string is one word, the parsing process is omitted. Therefore, the word identifier in the word identifier buffer 372 is directly input to the cell correspondence table 23.
Is expanded to the output cell buffer 376 (step S76). In the example of the character string “water” in FIG. 20 (1),
The output cell buffer 376 stores the cell identifier “c17”.
【0042】単語数が99999、すなわち構文解析エ
ラーのときは、ステップS77へ制御を移す。構文解析
に失敗したことをユーザに知らせるため、出力セルバッ
ファ376へ、セル識別子「c9999」(図27
(b))を格納する(ステップS77)。When the number of words is 99999, that is, when there is a syntax analysis error, control is passed to step S77. In order to inform the user that the parsing has failed, the cell identifier “c9999” (FIG. 27) is output to the output cell buffer 376.
(B)) is stored (step S77).
【0043】単語数が上記以外(2〜99998)のと
き、構文解析処理の必要があるため、ステップS73へ
制御を移す。ステップS71で読み出した表示モードに
て、表示順序表24(図10)を参照し、表示順序の順
で、格バッファ375の格識別子に格納された単語識別
子の内容を読み出す。以下のステップS74の動作は、
格識別子の個数回繰り返される(ステップS73)。When the number of words is other than the above (2 to 99998), it is necessary to perform the syntax analysis process, and therefore the control is moved to step S73. In the display mode read in step S71, the display order table 24 (FIG. 10) is referred to, and the contents of the word identifiers stored in the case identifiers of the case buffer 375 are read in the order of display order. The operation of step S74 below is
The number of case identifiers is repeated (step S73).
【0044】格バッファ375の該当する格識別子の項
目に格納された単語識別子を取り出し、セル対応表23
を参照して、出力セルバッファ376へ、セル識別子を
展開する(ステップS74)。The word identifier stored in the item of the corresponding case identifier in the case buffer 375 is taken out, and the cell correspondence table 23
With reference to, the cell identifier is expanded in the output cell buffer 376 (step S74).
【0045】図18に示す格バッファを例としたとき、
画像作成部350によって、出力セルバッファ376へ
は、図20(4)に示すように、セル識別子が展開され
る。このようにして、文字列「水」を入力したときは、
図23(1)の静止画像を、文字列「わび」を入力した
ときは、図23(2)の静止画像を、文字列「好き」を
入力したときは、図23(3)の動画像を、表示モード
として「D1」を指定し、文字列「駅へ行きたい」を入
力したときは、図23(4)の動画像を、表示モードと
して「D1」を指定し、文字列「私はこれを日本へ航空
便で送りたい」を入力したときは、図25の動画像を、
表示モードとして「D2」を指定し、文字列「私はこれ
を日本へ航空便で送りたい」を入力したときは、図26
の動画像を出力することができる。Taking the case buffer shown in FIG. 18 as an example,
The image creation unit 350 develops a cell identifier in the output cell buffer 376, as shown in FIG. In this way, when you enter the character string "water",
When the character string “Wabi” is input to the still image of FIG. 23 (1), the still image of FIG. 23 (2) is input, and when the character string “I like” is input, the moving image of FIG. 23 (3). When "D1" is specified as the display mode and the character string "I want to go to the station" is input, the moving image in Fig. 23 (4) is specified as the display mode and the character string "I I would like to send this to Japan by air mail ",
When "D2" is specified as the display mode and the character string "I want to send this to Japan by airmail" is input,
The moving image of can be output.
【0046】以上のように、この実施形態においては、
セルデータを新たに付加したことにより、入力した文字
列を、セルデータに格納された画像情報へ変換すること
が可能になるので、文字または音声による出力のよう
に、利用可能な言語圏または意志疎通の対象者を限定せ
ずに、視覚的なインターフェイスを持つ意志伝達支援装
置を提供することができる。また、文字列に対して、異
なる文字列であっても、意味的に等しければ同一の単語
識別子を対応つけた単語表を用いることにより、入力し
た文字列が異なっていても、意味的に等しい同一のセル
データに格納された画像情報へ変換することが可能にな
るので、画像情報を格納されるセルデータの容量を削減
することができる。As described above, in this embodiment,
By adding new cell data, it is possible to convert the input character string into the image information stored in the cell data. It is possible to provide a communication support device having a visual interface without limiting the communication target person. In addition, even if different character strings are semantically equal, by using a word table in which the same word identifier is associated with each other, if the input character strings are different, the meaning is equal. Since it is possible to convert the image information stored in the same cell data, it is possible to reduce the capacity of the cell data in which the image information is stored.
【0047】また、セル対応表へ、単語識別子に対し
て、動作を表す場合は複数のセル識別子を格納したセル
対応表を付加することにより、入力された文字列が、動
作や方向を表す場合は、動画像を扱えることになるか
ら、意志の疎通をよりやさしくすることができる。さら
に、セル対応表へ、単語識別子に対して、動作を表す場
合は表示方法の指示情報を格納したセル対応表を付加す
ることにより、入力された文字列が、物の移動や、物の
重ね合わせなどを表す場合、対象となる画像の移動や、
重ね合わせ表示を扱えることになるため、意志の疎通を
さらにやさしくすることができる。In addition, in the case where an input character string represents an action or a direction by adding a cell correspondence table storing a plurality of cell identifiers to the word identifier to the cell correspondence table when expressing the action. Can handle moving images, so communication can be made easier. Furthermore, by adding a cell correspondence table that stores instruction information of display method when expressing an action to a word identifier to the cell correspondence table, the input character string can be moved or overlapped. If you want to show the match, move the target image,
Since the superimposed display can be handled, the communication of will can be made easier.
【0048】また、単語分割機能を付加することによ
り、入力された文字列が複数の単語からなる場合、文字
列を複数の単語識別子へ分割することになるので、より
複雑な意志を表現することができる。また、構文解析手
段を利用することにより、入力された文字列が文である
場合、文中の単語の関係を調べることになるから、さら
に複雑な意志を表現することができる。またさらに、表
示モードで指定した順序で画像を読み出すようにしてい
るため、入力した文字列と、出力する画像の表示順序
を、入力した文字列の順序に依存させずに画像情報へ変
換することができ、結果を出力する際、各言語に依存し
た語順を配慮するときなどに便宜がはかれる。Further, by adding the word division function, when the input character string consists of a plurality of words, the character string is divided into a plurality of word identifiers, so that a more complex intention is expressed. You can Further, by using the syntactic analysis means, when the input character string is a sentence, the relationship between the words in the sentence is examined, so that a more complicated intention can be expressed. Furthermore, since the images are read out in the order specified in the display mode, the display order of the input character string and the output image must be converted into image information without depending on the input character string order. This is convenient when outputting the result and considering the word order depending on each language.
【0049】なお、本発明は上記の実施形態に限定され
るものではない。本実施形態では、説明の便宜上、ユー
ザが入力した文字列を日本語として扱ったが、扱いたい
言語ごとに、単語表、構文規則表を用意してもよい。The present invention is not limited to the above embodiment. In the present embodiment, the character string input by the user is treated as Japanese for convenience of explanation, but a word table and a syntax rule table may be prepared for each desired language.
【0050】また、文字単位での入力ではなく、定型文
やある一定の語句を特定のキーに割り当てておき、その
キーを用いることによって定型文や語句を構成する文字
列を一度に入力してもよい。Further, instead of inputting character by character, a fixed phrase or a certain fixed phrase is assigned to a specific key, and a character string forming the fixed phrase or phrase is input at a time by using that key. Good.
【0051】また、本実施形態は、手話支援装置、意志
伝達支援装置、超大画面表示装置、ビデオプロジェク
タ、不特定多数客誘導装置、情報案内装置などに適用す
ることができる。例えば、手話支援においては、入力文
字列を手や顔の動きを示す画像に変換することによって
簡単に実現することができる。Further, the present embodiment can be applied to a sign language support device, a will communication support device, a super-large screen display device, a video projector, an unspecified multi-guest guide device, an information guide device, and the like. For example, sign language support can be easily realized by converting an input character string into an image showing the movement of a hand or a face.
【0052】[0052]
【発明の効果】以上説明したように、この発明によれ
ば、言語間の翻訳ではなく、言語から画像への翻訳によ
って意志伝達を図れるようになり、より広い言語圏で相
手を選ばずに意志伝達を行うことが可能となる。As described above, according to the present invention, it becomes possible to communicate with each other not by translating between languages but by translating from a language into an image. It becomes possible to carry out communication.
【図1】この発明の一実施形態に係る携帯型翻訳機の機
能構成を示すブロック図。FIG. 1 is a block diagram showing a functional configuration of a portable translator according to an embodiment of the present invention.
【図2】同実施形態の携帯型翻訳機に設けられている制
御装置の機能構成を示すブロック図。FIG. 2 is a block diagram showing a functional configuration of a control device provided in the portable translator of the same embodiment.
【図3】同実施形態の携帯型翻訳機の翻訳処理全体の流
れを示すフローチャート。FIG. 3 is an exemplary flowchart showing a flow of an entire translation process of the portable translator according to the embodiment.
【図4】同実施形態の携帯型翻訳機の翻訳処理で行われ
る単語分割処理の手順を示すフローチャート。FIG. 4 is an exemplary flowchart showing a procedure of word division processing performed in the translation processing of the portable translator of the embodiment.
【図5】同実施形態の携帯型翻訳機の翻訳処理で行われ
る構文解析処理の手順を示すフローチャート。FIG. 5 is an exemplary flowchart showing the procedure of a syntax analysis process performed in the translation process of the portable translator according to the first embodiment.
【図6】同実施形態の携帯型翻訳機の翻訳処理で行われ
る画像作成処理の手順を示すフローチャート。FIG. 6 is an exemplary flowchart showing a procedure of image creation processing performed in the translation processing of the portable translator according to the same embodiment.
【図7】同実施形態の携帯型翻訳機の翻訳処理で使用さ
れる単語表の例を示す図。FIG. 7 is an exemplary view showing an example of a word table used in a translation process of the portable translator according to the embodiment.
【図8】同実施形態の携帯型翻訳機の翻訳処理で使用さ
れる構文規則表の例を示す図。FIG. 8 is an exemplary view showing an example of a syntax rule table used in a translation process of the portable translator of the embodiment.
【図9】同実施形態の携帯型翻訳機の翻訳処理で使用さ
れるセル対応表の例を示す図。FIG. 9 is an exemplary view showing a cell correspondence table used in a translation process of the portable translator according to the embodiment.
【図10】同実施形態の携帯型翻訳機の翻訳処理で使用
される表示順序表の例を示す図。FIG. 10 is a view showing an example of a display order table used in a translation process of the portable translator of the same embodiment.
【図11】同実施形態の携帯型翻訳機の翻訳処理で使用
される表示モード指定バッファの格納例を示す図。FIG. 11 is a diagram showing a storage example of a display mode designation buffer used in a translation process of the portable translator of the embodiment.
【図12】同実施形態の携帯型翻訳機の翻訳処理で使用
される入力文字列バッファの格納例を示す図。FIG. 12 is a diagram showing a storage example of an input character string buffer used in a translation process of the portable translator of the embodiment.
【図13】同実施形態の携帯型翻訳機の翻訳処理で使用
される単語数バッファの格納例を示す図。FIG. 13 is a diagram showing an example of storage of a word number buffer used in a translation process of the portable translator according to the same embodiment.
【図14】同実施形態の携帯型翻訳機の翻訳処理で使用
される単語属性バッファの格納例を示す図。FIG. 14 is a diagram showing a storage example of a word attribute buffer used in a translation process of the portable translator according to the same embodiment.
【図15】同実施形態の携帯型翻訳機の翻訳処理で使用
される単語識別子バッファの格納例を示す図。FIG. 15 is an exemplary view showing a storage example of a word identifier buffer used in a translation process of the portable translator of the embodiment.
【図16】同実施形態の携帯型翻訳機の翻訳処理で使用
される格バッファを示す図。FIG. 16 is a view showing a case buffer used in a translation process of the portable translator of the embodiment.
【図17】同実施形態の携帯型翻訳機の翻訳処理で使用
される格バッファの第1の格納例を示す図。FIG. 17 is a diagram showing a first storage example of a case buffer used in a translation process of the portable translator according to the same embodiment.
【図18】同実施形態の携帯型翻訳機の翻訳処理で使用
される格バッファの第2の格納例を示す図。FIG. 18 is a diagram showing a second storage example of a case buffer used in a translation process of the portable translator according to the same embodiment.
【図19】同実施形態の携帯型翻訳機の翻訳処理で使用
される格バッファの第3の格納例を示す図。FIG. 19 is a diagram showing a third storage example of the case buffer used in the translation process of the portable translator according to the same embodiment.
【図20】同実施形態の携帯型翻訳機の翻訳処理で使用
される出力セルバッファの第1の格納例を示す図。FIG. 20 is a diagram showing a first storage example of an output cell buffer used in a translation process of the portable translator according to the same embodiment.
【図21】同実施形態の携帯型翻訳機の翻訳処理で使用
される出力セルバッファの第2の格納例を示す図。FIG. 21 is a diagram showing a second storage example of the output cell buffer used in the translation process of the portable translator according to the same embodiment.
【図22】同実施形態の携帯型翻訳機の翻訳処理で使用
される入力画面を示す図。FIG. 22 is an exemplary view showing an input screen used in a translation process of the portable translator of the embodiment.
【図23】同実施形態の携帯型翻訳機の翻訳処理で使用
される出力画面の第1の例を示す図。FIG. 23 is a diagram showing a first example of an output screen used in a translation process of the portable translator according to the same embodiment.
【図24】同実施形態の携帯型翻訳機の翻訳処理で使用
される出力画面の第2の例を示す図。FIG. 24 is a diagram showing a second example of an output screen used in a translation process of the portable translator of the same embodiment.
【図25】同実施形態の携帯型翻訳機の翻訳処理で使用
される出力画面の第3の例を示す図。FIG. 25 is a diagram showing a third example of an output screen used in a translation process of the portable translator of the same embodiment.
【図26】同実施形態の携帯型翻訳機の翻訳処理で使用
される出力画面の第4の例を示す図。FIG. 26 is a diagram showing a fourth example of an output screen used in a translation process of the portable translator according to the same embodiment.
【図27】同実施形態の携帯型翻訳機の翻訳処理で使用
される出力画面の第5の例を示す図。FIG. 27 is a diagram showing a fifth example of an output screen used in a translation process of the portable translator according to the same embodiment.
1…入力装置、3…制御装置、4…セルデータ記憶部、
320…文字列入力部、330…単語分割部、340…
構文解析部、350…画像作成部、371…入力文字列
バッファ、372…単語識別子バッファ、373…単語
属性バッファ、374…単語数バッファ、375…格バ
ッファ、376…出力セルバッファ、377…表示モー
ド指定バッファ。1 ... Input device, 3 ... Control device, 4 ... Cell data storage unit,
320 ... Character string input section, 330 ... Word division section, 340 ...
Syntactic analysis unit, 350 ... Image creation unit, 371 ... Input character string buffer, 372 ... Word identifier buffer, 373 ... Word attribute buffer, 374 ... Word number buffer, 375 ... Case buffer, 376 ... Output cell buffer, 377 ... Display mode The designated buffer.
Claims (12)
いて、伝達対象の意志を視覚を通じて伝達する意志伝達
支援方法であって、 言語によって表現可能な事物、感情、または意志などの
伝達対象が指定されたとき、その伝達対象からそれを構
成する要素を決定し、 あらかじめ用意された複数の画像情報の中から、前記決
定された要素を連想させるために必要な1以上の画像情
報を選定し、 前記選定した画像情報を画面表示して、前記指定された
伝達対象を画像に変換できるようにしたことを特徴とす
る意志伝達支援方法。1. A method for supporting intention transmission, which visually conveys an intention of an object to be transmitted using an information processing device having an image display function, wherein an object, an emotion, or an intention that can be expressed by a language is an object to be transmitted. When specified, the constituent elements are determined from the transmission target, and one or more image information necessary for associating the determined element is selected from a plurality of image information prepared in advance. The intention transmission support method, wherein the selected image information is displayed on a screen so that the designated transmission target can be converted into an image.
され、 前記伝達対象を構成する要素として、前記入力文字列か
ら単語を抽出し、 単語の種類毎にそれを連想させる画像情報の識別子を示
す画像対応表を参照して、前記抽出された単語を連想さ
せるために必要な1以上の画像情報を選定することを特
徴とする請求項1記載の意志伝達支援方法。2. The transmission target is specified by an input character string, and as an element constituting the transmission target, a word is extracted from the input character string, and an identifier of image information that associates it with each type of word is shown. The method for supporting communication of intention according to claim 1, wherein one or more pieces of image information necessary for associating the extracted words are selected with reference to an image correspondence table.
対しては複数の画像情報識別子が定義されており、 前記入力文字列で表現された伝達対象が動作またはその
方向を表現しているとき、複数の画像情報を連続的に表
示することを特徴とする請求項2記載の意志伝達支援方
法。3. In the image correspondence table, a plurality of image information identifiers are defined for a word representing a motion, and the transmission target represented by the input character string represents the motion or its direction. The method for supporting communication of intentions according to claim 2, wherein a plurality of pieces of image information are continuously displayed when the user is present.
対してはそれに対応する画像情報の表示形態を指定する
指示情報が付加されており、 前記入力文字列で表現された伝達対象が動作またはその
方向を表現しているとき、画像情報を画面上で移動また
は他の画像と重ね合わせて表示することを特徴とする請
求項2記載の意志伝達支援方法。4. In the image correspondence table, instruction information for designating a display form of image information corresponding to a word representing an action is added to the image correspondence table, and a transmission target represented by the input character string is displayed. 3. The method for supporting communication of intention according to claim 2, wherein when expressing the action or its direction, the image information is displayed on the screen by moving or superimposing it on another image.
され、 前記入力文字列によって表現された文章を構文解析し、
その文書を、それを構成する要素となる複数種の格に単
語単位で分割し、 前記入力文字列に含まれる単語それぞれに対応する複数
の画像情報を、それら単語の属する格に対応する順序で
表示することを特徴とする請求項1記載の意志伝達支援
方法。5. The transmission target is designated by an input character string, the sentence expressed by the input character string is parsed,
The document is divided word by word into a plurality of cases that are constituent elements of the document, and a plurality of pieces of image information corresponding to each word included in the input character string are arranged in an order corresponding to the case to which the words belong. The method for supporting communication of intention according to claim 1, wherein the method is displayed.
を記述した複数の表示順序情報の中で前記入力文字列の
言語に対応する表示順序情報、または利用者によって指
定された表示順序情報を参照し、その表示順序情報で規
定された順序で前記複数の画像情報を表示することを特
徴とする請求項5記載の意志伝達支援方法。6. The display order information corresponding to the language of the input character string among a plurality of display order information describing the relationship between the case type and the display order of image information, or the display order specified by the user. The method of claim 5, wherein the plurality of pieces of image information are displayed in an order defined by the display order information by referring to the information.
視覚を通じて伝達する情報処理装置であって、 言語によって表現可能な事物、感情、または意志などの
伝達対象が指定されたとき、その伝達対象からそれを構
成する要素を決定する要素決定手段と、 あらかじめ用意された複数の画像情報の中から、前記決
定された要素を連想させるために必要な1以上の画像情
報を選定する画像情報選定手段と、 前記選定した画像情報を画面表示する手段とを具備し、 前記指定された伝達対象を画像に変換できるようにした
ことを特徴とする情報処理装置。7. An information processing apparatus, which has an image display function and visually conveys the intention of a communication target, when the communication target such as a thing, emotion, or intention expressible by language is designated. Element determining means for determining elements constituting the object to be transmitted, and image information for selecting one or more pieces of image information necessary to associate the determined elements from a plurality of image information prepared in advance. An information processing apparatus comprising: a selection unit and a unit for displaying the selected image information on a screen so that the designated transmission target can be converted into an image.
され、 前記要素決定手段は、前記入力文字列から単語を抽出
し、その単語を前記伝達対象を構成する要素として決定
する手段を含み、 前記画像情報選定段は、 単語の種類毎にそれを連想させる画像情報の識別子を示
す画像対応表と、 この画像対応表を参照して、前記抽出された単語を連想
させるために必要な1以上の画像情報を選定する手段と
を含むことを特徴とする請求項7記載の情報処理装置。8. The transmission target is designated by an input character string, and the element determining means includes means for extracting a word from the input character string and determining the word as an element constituting the transmission target, The image information selection stage refers to an image correspondence table showing identifiers of image information associated with each type of word, and one or more images necessary to associate the extracted word with reference to the image correspondence table. The information processing apparatus according to claim 7, further comprising means for selecting image information.
対しては複数の画像情報識別子が定義されており、 前記入力文字列で表現された伝達対象が動作またはその
方向を表現しているとき、複数の画像情報が連続的に表
示されるように構成されていることを特徴とする請求項
8記載の情報処理装置。9. The image correspondence table defines a plurality of image information identifiers for words representing motions, and the transmission target represented by the input character string represents motions or directions thereof. 9. The information processing apparatus according to claim 8, wherein a plurality of pieces of image information are continuously displayed when the information is displayed.
に対してはそれに対応する画像情報の表示形態を指定す
る指示情報が付加されており、 前記入力文字列で表現された伝達対象が動作またはその
方向を表現しているとき、画像情報が画面上で移動また
は他の画像と重ね合わせられて表示されるように構成さ
れていることを特徴とする請求項8記載の情報処理装
置。10. In the image correspondence table, instruction information designating a display form of image information corresponding to a word representing an action is added to the image correspondence table, and the transmission target represented by the input character string is 9. The information processing apparatus according to claim 8, wherein the image information is configured to move on the screen or to be superimposed on another image and displayed when expressing the action or the direction thereof.
定され、 前記要素決定手段は、 前記入力文字列によって表現された文章を構文解析し、
その文書を、それを構成する要素となる複数種の格に単
語単位で分割する手段を含み、 前記入力文字列に含まれる単語それぞれに対応する複数
の画像情報が、それら単語の属する格に対応する順序で
表示されるように構成されていることを特徴とする請求
項7記載の情報処理装置。11. The transmission target is designated by an input character string, and the element determining means parses a sentence expressed by the input character string,
The document includes a unit that divides the document into a plurality of types of cases that are constituent elements of the document on a word-by-word basis. The information processing apparatus according to claim 7, wherein the information processing apparatus is configured to be displayed in the order of.
係を記述した複数の表示順序情報の中で前記入力文字列
の言語に対応する表示順序情報、または利用者によって
指定された表示順序情報を参照し、その表示順序情報で
規定された順序で画像情報が表示されるように構成され
ていることを特徴とする請求項11記載の情報処理装
置。12. The display order information corresponding to the language of the input character string among a plurality of display order information describing the relationship between the case type and the display order of image information, or the display order specified by the user. The information processing apparatus according to claim 11, characterized in that the image information is displayed in an order defined by the display order information with reference to the information.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP8152356A JPH09330319A (en) | 1996-06-13 | 1996-06-13 | Intention communication supporting method and information processor using the same method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP8152356A JPH09330319A (en) | 1996-06-13 | 1996-06-13 | Intention communication supporting method and information processor using the same method |
Publications (1)
Publication Number | Publication Date |
---|---|
JPH09330319A true JPH09330319A (en) | 1997-12-22 |
Family
ID=15538760
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP8152356A Pending JPH09330319A (en) | 1996-06-13 | 1996-06-13 | Intention communication supporting method and information processor using the same method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPH09330319A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7308479B2 (en) | 2002-08-26 | 2007-12-11 | Hitachi, Ltd. | Mail server, program and mobile terminal synthesizing animation images of selected animation character and feeling expression information |
-
1996
- 1996-06-13 JP JP8152356A patent/JPH09330319A/en active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7308479B2 (en) | 2002-08-26 | 2007-12-11 | Hitachi, Ltd. | Mail server, program and mobile terminal synthesizing animation images of selected animation character and feeling expression information |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US6993474B2 (en) | Interactive conversational speech communicator method and system | |
JPH03278174A (en) | Translation method and system for communication between different language | |
JPS6231467A (en) | Sentence preparation device | |
CN1742273A (en) | Multimodal speech-to-speech language translation and display | |
CN109256133A (en) | A kind of voice interactive method, device, equipment and storage medium | |
JPH07222248A (en) | System for utilizing speech information for portable information terminal | |
Sonawane et al. | Speech to Indian sign language (ISL) translation system | |
JP2002236681A (en) | Daily language computing system and method | |
KR100695392B1 (en) | A method for converting SMS message to multimedia message and sending the multimedia message and text-image converting server | |
JP4356745B2 (en) | Machine translation system, machine translation method and program | |
JP2929959B2 (en) | Voice input network service system | |
JPH05266069A (en) | Two-way machie translation system between chinese and japanese languages | |
JP3293763B2 (en) | Emoji communication device | |
US20050165712A1 (en) | Method for operating software object using natural language and program for the same | |
JPH09330319A (en) | Intention communication supporting method and information processor using the same method | |
CN110782514A (en) | Mouth shape switching rendering system and method based on unreal engine | |
JP2006236037A (en) | Voice interaction content creation method, device, program and recording medium | |
JP3987172B2 (en) | Interactive communication terminal device | |
JPH03222069A (en) | Machine translation device | |
JPH0944502A (en) | Informatin receiving device and machine translating device | |
JP3382974B2 (en) | Data analysis apparatus and method | |
JP4348968B2 (en) | Electronic dictionary management device, dictionary data transmission program | |
JP3136038B2 (en) | Interpreting device | |
Kvale et al. | Speech-centric multimodal interaction with small mobile terminals | |
JP2555921B2 (en) | Word processor with translation conversion function |