JP2007072671A - Portable information processing device - Google Patents
Portable information processing device Download PDFInfo
- Publication number
- JP2007072671A JP2007072671A JP2005257762A JP2005257762A JP2007072671A JP 2007072671 A JP2007072671 A JP 2007072671A JP 2005257762 A JP2005257762 A JP 2005257762A JP 2005257762 A JP2005257762 A JP 2005257762A JP 2007072671 A JP2007072671 A JP 2007072671A
- Authority
- JP
- Japan
- Prior art keywords
- data
- input
- attribute
- input data
- information processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000010365 information processing Effects 0.000 title claims abstract description 82
- 239000011159 matrix material Substances 0.000 claims abstract description 7
- 238000000034 method Methods 0.000 claims description 38
- 239000000284 extract Substances 0.000 claims description 7
- 238000013075 data extraction Methods 0.000 claims description 6
- 238000012545 processing Methods 0.000 abstract description 45
- 238000010586 diagram Methods 0.000 description 24
- 238000007639 printing Methods 0.000 description 3
- 230000007704 transition Effects 0.000 description 3
- 238000004891 communication Methods 0.000 description 2
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 235000009508 confectionery Nutrition 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
Images
Landscapes
- Input From Keyboards Or The Like (AREA)
Abstract
【課題】簡便なボタン操作で音声認識の候補の範囲を狭く絞り込み,入力を効率化する携帯情報処理装置を提供する。
【解決手段】音声認識装置が認識した認識入力データに一致する索引データに対応する一致入力データを,縦横の行列状に配置された操作ボタンのうち押下された操作ボタンが位置する行と列に基づき認識入力データの属性と処理の種別を判断し,認識入力データの属性に対応する分類の前記辞書データから当該認識入力データと一致する索引データに対応する一致入力データを抽出する一致入力データ抽出手段と,前記判断された認識入力データに基づく処理の種別が出力である場合は,前記データベースにおいて前記認識入力データの属性に対応する属性データから一致入力データと等しい属性データを検索し,検索された属性データと関係付けられた別の属性の属性データを抽出し出力する属性データ出力手段とを有する携帯情報処理装置。
【選択図】 図4Provided is a portable information processing apparatus that narrows a range of candidates for speech recognition with a simple button operation and improves input efficiency.
SOLUTION: Matched input data corresponding to index data that matches recognized input data recognized by a speech recognition device is placed in a row and a column where the pressed operation button is located among the operation buttons arranged in a matrix form. Based on the input data extracted from the dictionary data of the classification corresponding to the attribute of the recognized input data, the matched input data corresponding to the index data matching the recognized input data is extracted. And when the type of processing based on the determined recognition input data is output, the attribute data corresponding to the attribute of the recognition input data is searched for attribute data equal to the matching input data in the database. Information processing means having attribute data output means for extracting and outputting attribute data of another attribute associated with the attribute data Location.
[Selection] Figure 4
Description
本発明は、携帯情報処理装置に関し,特に情報処理の目的に応じて分類された辞書をボタン操作により特定して音声認識を行うことにより入力操作と入力情報の処理を簡略化する携帯情報処理装置に関する。 The present invention relates to a portable information processing apparatus, and in particular, a portable information processing apparatus that simplifies input operations and processing of input information by performing voice recognition by specifying a dictionary classified according to the purpose of information processing by button operation. About.
近年,携帯電話機には音声通信機能に加え種々の情報処理機能が搭載されるようになっており,情報処理装置としての側面を有している。よって,かかる携帯電話機に入出力する情報も複雑化している。例えば,スケジュール機能を搭載した携帯電話機には,時間,場所,スケジュールの内容などの多岐にわたる情報を適宜入出力することが必要となる。 In recent years, various information processing functions have been installed in mobile phones in addition to voice communication functions, and have an aspect as an information processing apparatus. Therefore, information input / output to / from such mobile phones is also complicated. For example, a mobile phone equipped with a schedule function needs to appropriately input and output various information such as time, place, and schedule contents.
情報の入力に際しては,操作ボタンに文字を割り当て,ボタンの押下に応じた文字入力を行うことが一般的である。しかし,情報量が増加するにつれ,全ての入力を文字で行おうとすると,操作は煩雑になる。また,本来の音声入出力機能を活用して,ユーザが発話した音声を認識し文字列等に変換する音声認識による入力方法も提案されているが,ユーザの発話した音声を高精度に認識するためには,膨大な情報処理を行う必要があり,携帯電話機の筐体に搭載可能な情報処理装置の処理能力を超える。 When inputting information, it is common to assign a character to an operation button and input a character in response to the button being pressed. However, as the amount of information increases, the operation becomes complicated when trying to input all characters in characters. In addition, an input method based on voice recognition that uses the original voice input / output function to recognize the voice spoken by the user and convert it into a character string has been proposed, but the voice spoken by the user is recognized with high accuracy. For this purpose, it is necessary to perform enormous information processing, which exceeds the processing capability of an information processing device that can be mounted on the casing of a mobile phone.
よって,文字入力と音声認識を組み合わせ,ボタン操作により音声認識の精度を補う入力方法が提案されている。例えば,特許文献1及び特許文献2には,入力する語の文頭の文字をボタン操作により入力し,入力した文字から始まる語を候補として音声認識を行う方法が記載されている。
しかしながら,従来の技術では,次のような問題が生じる。すなわち,ボタン操作による文字入力は50音を対象としているため,入力した文字から始まる語の候補が多数存在する場合には,誤認識の可能性が大きく音声認識の処理効率も向上しない。結局,さらに入力候補の範囲を絞込むために第2字以降も入力するとなると,ユーザの操作負担が倍増することになる。 However, the conventional technology has the following problems. That is, since character input by button operation is targeted for 50 sounds, if there are a large number of word candidates starting from the input character, the possibility of erroneous recognition is high and the processing efficiency of speech recognition is not improved. Eventually, if the second and subsequent characters are input in order to further narrow the input candidate range, the operation burden on the user is doubled.
そこで、本発明の目的は、簡便なボタン操作で音声認識の候補の範囲を狭く絞り込み,入力を効率化する携帯情報処理装置を提供することにある。 SUMMARY OF THE INVENTION An object of the present invention is to provide a portable information processing apparatus that narrows down the range of candidates for speech recognition with a simple button operation and makes input more efficient.
上記の目的を達成するために、本発明の第1の側面によれば,操作ボタンの押下と音声入力に応答して,前記入力音声を音声認識装置が認識した認識入力データに一致する一致入力データを辞書データから抽出し,前記一致入力データに基づいて当該一致入力データの属性に対応する情報処理を行う携帯情報処理装置において,前記情報処理は,前記一致入力データの属性に対応して複数の情報処理を有し,複数配置された操作ボタンのうち押下された操作ボタンの位置に基づき,前記一致入力データの属性を判断し,前記判断した属性に対応する前記辞書データから,当該認識入力データに一致する一致入力データを抽出する一致入力データ抽出手段を有することを特徴とする。 In order to achieve the above object, according to the first aspect of the present invention, in response to pressing of an operation button and voice input, a coincidence input that matches the input voice with the recognition input data recognized by the voice recognition device In a portable information processing apparatus that extracts data from dictionary data and performs information processing corresponding to an attribute of the matched input data based on the matched input data, the information processing includes a plurality of information corresponding to the matched input data attribute. And determining the attribute of the coincidence input data based on the position of the pressed operation button among a plurality of operation buttons, and from the dictionary data corresponding to the determined attribute, the recognition input It has a match input data extraction means for extracting match input data that matches the data.
上記第1の側面によれば,前記認識入力データの候補は情報処理に応じた属性ごとに分類された辞書データを参照するので,より狭い範囲から一致入力データを抽出することができ,精度の良い音声認識が可能となる。 According to the first aspect, the recognition input data candidates refer to dictionary data classified for each attribute according to information processing, so that it is possible to extract matching input data from a narrower range, Good speech recognition is possible.
上記第1の側面において好ましい実施例によれば,前記複数の操作ボタンは行列状に配置されており,前記一致入力データ抽出手段は,前記押下されたボタンが位置する行または列に基づき前記一致入力データに基づく情報処理の種別をさらに判断することを特徴とする。よって,辞書データの分類と認識入力データに基づく処理の種別を2次元配列された操作ボタンの行と列に対応付けることにより,情報処理の目的に応じた辞書選択を直感的に行うことができる。さらに,辞書分類と処理種別といった異なる2次元の選択肢に対する選択が1の操作ボタンを押下することにより同時に行うことができるので,ボタン操作が簡略化される。 According to a preferred embodiment in the first aspect, the plurality of operation buttons are arranged in a matrix, and the coincidence input data extracting means is configured to match the coincidence based on a row or a column in which the pressed button is located. It is characterized by further determining the type of information processing based on the input data. Therefore, the dictionary selection according to the purpose of information processing can be performed intuitively by associating the classification of the dictionary data and the type of processing based on the recognition input data with the rows and columns of the operation buttons arranged two-dimensionally. In addition, selection of different two-dimensional options such as dictionary classification and processing type can be performed simultaneously by pressing one operation button, thereby simplifying the button operation.
上記第1の側面においてより好ましい実施例によれば,属性データが相互に関係付けられたデータベースにおいて前記一致入力データと等しい属性データを検索し,検索された属性データと関係付けられた別の属性データを抽出し出力する属性データ出力手段とをさらに備えている。さらに,前記属性データ抽出手段は,出力された属性データについてユーザに選択入力を促し,前記一致入力データ抽出手段により抽出される,前記一致入力データとは別の一致入力データに基づいて,前記出力された属性データとは別の属性データをさらに出力することを特徴とする。よって,属性データが相互に関連付けられたデータベースにおいて属性ごとに属性データを検索し,順次絞り込みを行いながら目的とする属性データの組合せを検索する場合に,次の入力データ候補をユーザに表示することにより,ユーザの入力を補助することができる。 According to a more preferred embodiment in the first aspect, a search is made for attribute data equal to the matching input data in a database in which attribute data is related to each other, and another attribute related to the searched attribute data. Attribute data output means for extracting and outputting data is further provided. Further, the attribute data extraction means prompts the user to select and input the output attribute data, and the output based on the match input data different from the match input data extracted by the match input data extraction means Further, attribute data different from the attribute data thus output is further output. Therefore, when the attribute data is searched for each attribute in the database in which the attribute data is associated with each other, and the target combination of attribute data is searched while sequentially narrowing down, the next input data candidate is displayed to the user. Thus, user input can be assisted.
上記第1の側面において別の好ましい実施例によれば,前記データベースは,スケジュールデータを格納したデータベースであって,「時間」,「場所」,および「スケジュール内容」の各属性データが相互に関係付けられ,「スケジュール内容」は音声データであることを特徴としている。よって,ユーザが「時間」や「場所」を音声入力する際にこれらの属性に対応する辞書データをボタン操作により選択できるので,音声認識の精度が向上し,スケジュールデータへの入出力を簡便に行うことができる。さらに,スケジュールデータ内の「スケジュール内容」については音声により入出力をすることができ,従来のボタンによる文字入力に比べ,多くの情報量であっても容易に入出力することができる。 According to another preferred embodiment in the first aspect, the database is a database storing schedule data, and attribute data of “time”, “location”, and “schedule content” are related to each other. The “schedule content” is voice data. Therefore, when a user inputs “time” or “location” by voice, dictionary data corresponding to these attributes can be selected by button operation, so that the accuracy of voice recognition is improved and scheduling data can be easily input / output. It can be carried out. Furthermore, the “schedule contents” in the schedule data can be input / output by voice, and can be easily input / output even with a large amount of information compared to the conventional character input using buttons.
上記第1の側面において別の好ましい実施例によれば,前記データベースは,外部機器に対する制御コマンドのデータベースであり,前記属性データ出力手段は,選択された外部機器に対して,抽出された制御コマンドを出力することを特徴とする。よって,ユーザは外部のプリンタや画像表示装置などに対する画像加工コマンドを音声入力とボタン操作により入力し,画像データとともに一連のコマンドをプリンタ等に送信でき,携帯電話機などを外部機器の入力装置として利用することができる。 According to another preferred embodiment in the first aspect, the database is a database of control commands for an external device, and the attribute data output means extracts the control commands for the selected external device. Is output. Therefore, the user can input image processing commands to an external printer or image display device by voice input and button operation, and can send a series of commands to the printer, etc. along with the image data. Use a mobile phone as an input device for external devices can do.
以下、図面にしたがって本発明の実施の形態について説明する。但し,発明の技術的範囲はこれらの実施の形態に限定されず,特許請求の範囲に記載された事項とその均等物まで及ぶものである。 Hereinafter, embodiments of the present invention will be described with reference to the drawings. However, the technical scope of the invention is not limited to these embodiments, but extends to the matters described in the claims and equivalents thereof.
図1は,本実施の形態におけるシステムの概略構成図である。本実施の形態における携帯電話機は,音声通信機能のための音声入出力部と,操作ボタンが配置されたボタン入力部,画像表示部に加え,音声認識部,辞書データ,およびスケジュール機能を具備している。操作ボタンはテンキー形式の行列状に配置されており,かかる条件の下での入力の操作を簡便化している。ただし,同等の構成を具備していれば,PDAなどの携帯情報処理装置であってもよく,テンキー形式以外の操作ボタン配列も可能である。 FIG. 1 is a schematic configuration diagram of a system in the present embodiment. The mobile phone in this embodiment includes a voice recognition unit, dictionary data, and a schedule function in addition to a voice input / output unit for a voice communication function, a button input unit in which operation buttons are arranged, and an image display unit. ing. The operation buttons are arranged in a numeric keypad matrix, simplifying the input operation under such conditions. However, a portable information processing device such as a PDA may be used as long as it has an equivalent configuration, and operation button arrangements other than the numeric keypad format are also possible.
携帯電話機に相当する携帯情報処理装置100は,記憶部10,制御部20,ボタン入力部30,音声入力部40,音声認識部50,情報処理部60,出力部70を有しており,各部は信号線101で接続されている。記憶部10には,辞書データ12と,スケジュールデータ14を有するデータベース16が格納されている。さらに辞書データ12には時間情報辞書データ122,場所情報辞書データ124といった辞書データが格納されており,データベース16には,スケジュールデータ14の属性に対応して時間情報属性データ142,場所情報属性データ144,スケジュール内容属性データ146といったデータが格納されている。
A portable information processing apparatus 100 corresponding to a mobile phone includes a
ボタン入力部30は,操作ボタンの押下信号32を受信し,情報処理部60に供給する。情報処理部60は,同信号に基づき押下された操作ボタンの位置を判断し,辞書データ12から参照すべき情報の辞書データ,例えば時間情報辞書データ122を選択する。また,音声認識部50が認識した認識入力データ52と一致する一致入力データ62に基づく情報処理の種別,例えばスケジュールデータの呼び出しを判断する。一方,音声入力部40はユーザの発話した音声データ42を受信して音声認識部50に供給し,音声認識部50は,同音声データを認識して文字列等の認識入力データ52に変換して情報処理部60に供給する。
The
情報処理部60は,前記選択した辞書データ12の情報を参照し,認識入力データ52に一致する索引データと対応する一致入力データ62を抽出したり,スケジュールデータ14を参照し,前記一致入力データ62と一致する属性データを検索したりといった,データ検索やマッチング処理を行う。また,前記一致入力データ62の情報処理の種別に応じて,スケジュールデータ14における属性データの入力・更新を行う。
The
出力部70は情報処理部60から供給される抽出された属性データを画像表示部80により携帯電話機の画面に表示する。また,スケジュール内容126の属性データが音声データである場合は,音声出力部90により音声を再生する。
The
別の実施形態において,携帯電話機を外部機器の入力装置として利用する場合は,辞書データ12とデータベース16のスケジュールデータ14の内容が,外部機器に対するコマンドの変数の辞書データや,前記変数にコマンドを対応させたアルゴリズムデータに置き換わる。ユーザの入力に基づき,情報処理部60により抽出されたコマンドが画像データなどとともに出力部70を介して,ケーブル接続された外部画像表示装置200に送信され,または外部画像形成装置220や外部ファイル装置240へアンテナ72から無線送信される。
In another embodiment, when a mobile phone is used as an input device for an external device, the contents of the dictionary data 12 and the
図2は辞書データ12とスケジュールデータ14(データベース16)それぞれのデータ構造と,データ相互の関係を説明する図である。この例では,辞書データ12の時間情報辞書データ122と場所情報辞書データ124,及びスケジュールデータ14を便宜上テーブル形式で表現して説明する。時間情報辞書データ122と場所情報辞書データ124の辞書データは,それぞれC122−1,C124−1の列に索引データを有している。
FIG. 2 is a diagram illustrating the data structures of the dictionary data 12 and the schedule data 14 (database 16) and the relationship between the data. In this example, the time
これら辞書データは,ユーザの発話音声の認識入力データ52と一致する索引データと対応する一致入力データ62を検索するために使用される。どの情報の辞書データを参照するかは,ユーザのボタン操作により特定される。すなわち,音声認識された認識入力データ52に一致するデータの検索を広範な辞書データに対して行うのではなく,一致入力データ62の属性をユーザが意図する情報処理に応じて予め分類し,その分類に対応する辞書データを特定して参照することにより,一致入力データの検索の効率化を図ることができる。例えばスケジュール管理などユーザの意図する情報処理に応じて分類した時間情報辞書データ122や場所情報辞書データ124の範囲内に特定することにより,音声認識の効率化を図ることができる。
These dictionary data are used to search the matching input data 62 corresponding to the index data that matches the
スケジュールデータ14は,時間情報属性データ142,場所情報属性データ144,スケジュール内容属性データ146といった属性データを有しており,それぞれの属性に対応する属性データが相互に関係付けられ格納されている。これらの関連付けられた属性データは,いつ,どこで,何をするか,という情報を有するスケジュールデータを形成している。
The
辞書データ12における一致入力データ62は,スケジュールデータ14において関係付けられる属性データと同じ属性(データ型やデータ長)を有するデータであるので,一致入力データ62を用いてスケジュールデータ14への入力や,スケジュールデータ14における属性データとのマッチングを行うことができる。
Since the coincidence input data 62 in the dictionary data 12 has the same attributes (data type and data length) as the attribute data related in the
時間情報辞書データ122を例に説明する。ユーザが発話し,音声認識部により認識された認識入力データ52が「なのか」という文字列であるとすると,時間情報辞書データ122において認識入力データに一致する「なのか」という索引データが行R122−2に存在し,「7日」という時間情報辞書データが対応しているので,この時間情報辞書データ「7日」が認識入力データ52「なのか」に一致する索引データと対応する一致入力データ62である。すると,スケジュールデータ14の時間情報属性データ142に対応する属性データ「7日」は図示したように複数存在しており,時刻の属性データ「PM3時」,「AM9時」,「AM12時」が関係付けられている。
The time
また,同様にして,上記の時刻の時間情報属性データの中から「PM3時」を選択してユーザが発話すると,認識入力データ52「さんじ」に一致する索引データと対応する一致入力データ62「PM3時」が行R122−1から抽出できる。ここで,「PM3時」は,先に抽出された一致入力データ「7日」とは別の一致入力データである。すると,先に抽出されたスケジュールデータ14の時間情報属性データ「7日」に関係付けられた属性データ「PM3時」は,図示したように複数存在している。ここで,「PM3時」が,先に抽出された時間情報属性データ「7日」とは別の属性データとして抽出される。なお,「7日」,「PM3時」には,場所情報属性データ「市役所」,「学校」,「自宅」がさらに関係付けられている。
Similarly, when “PM3 o'clock” is selected from the time information attribute data at the above time and the user speaks, the matching input data 62 corresponding to the index data matching the
次に,ユーザの発話に基づく認識入力データ52「しやくしょ」と一致する場所情報辞書データ124における一致入力データ62「市役所」が抽出できる(行R124)。すると,スケジュールデータ14の時間情報属性データ「7日」,「PM3時」に関係付けられた場所情報属性データ「市役所」には,スケジュール内容属性データ「住民票の取得」と「戸籍謄本の取得」がさらに関係付けられているのがわかる。
Next, the matching input data 62 “city hall” in the location
上記のように,時間情報辞書データ122,場所情報辞書データ124から抽出される一致入力データ62は,それぞれスケジュールデータ14における時間情報属性データ142,場所情報属性データ144に対応し,これらの属性データには,スケジュール内容属性データ146が対応付けられるという関係にある。よって,所望のスケジュール内容属性データを呼び出すためには,時間情報属性データ,場所情報属性データを順次絞り込めばよい。
As described above, the match input data 62 extracted from the time
なお,辞書データ12,スケジュールデータ14(データベース16)は,いずれも図示したようなテーブル構造を有していなくてもよい。辞書データ12においては,認識入力データ52に一致する索引データと対応する一致入力データ62が関連付けられて格納されていればよく。スケジュールデータ14も,属性データが相互に関係付けられていればよい。
Note that neither the dictionary data 12 nor the schedule data 14 (database 16) need have a table structure as shown. In the dictionary data 12, it is only necessary that index data matching the
図3は,本実施の形態におけるスケジュール情報の呼び出し処理の全体を説明するフローチャート図である。図4〜図9では,図3を参照しながら,スケジュール機能を有する携帯電話機における情報の入力手順を説明する。 FIG. 3 is a flowchart for explaining the entire schedule information calling process according to the present embodiment. 4 to 9, an information input procedure in a mobile phone having a schedule function will be described with reference to FIG.
図4は,操作ボタンの配列と辞書データ12の分類,スケジュールデータ14,および一致入力データ62の情報処理種別判断の対応関係を説明する図である。ボタン入力部30には「1」〜「9」までの操作ボタンが縦横に3個ずつ行列状に配置されており,押下する操作ボタンの位置に基づき,一致入力データ62の属性を判断し,さらにその属性に対応する辞書データ12の種類と,一致入力データ62に基づく情報処理の種別が判断される。具体的には,かかる各操作ボタンに対し,横の行BR1〜BR3には選択する辞書データ12の分類とスケジュールデータの属性を,縦の列BC1〜BC3には一致入力データ62に基づく情報処理の種別TPをそれぞれ対応させている。よって,1個のボタンには,選択する辞書データ12の分類と,一致入力データ62に基づく情報処理の種別の2次元の選択肢が割り当てられている。
FIG. 4 is a diagram for explaining the correspondence relationship between the arrangement of the operation buttons and the classification of the dictionary data 12, the
例えば,ボタン「1」,「2」,「3」は時間情報辞書データ122を選択するボタンの行BR1に対応しており,ボタン「3」「6」,「9」は,一致入力データ62に基づく処理「呼び出し」を行う列BC3に対応している。よって,ボタン「3」には,時間情報辞書データ122を参照し,一致入力データ62について処理「呼び出し」を行うという機能が割り当てられている。
For example, the buttons “1”, “2”, “3” correspond to the row BR1 of buttons for selecting the time
具体的な処理としては,ユーザがボタン「3」を押下しながら発話した場合は,ボタン入力部30から同入力を受けた情報処理部60は,押下されたボタンの位置に基づき,参照する辞書データ12の分類が時間情報辞書データ122であることを判断する(ステップS10)。一方,音声認識部50は,音声入力部40から供給された音声データ42を認識し,認識入力データ52に変換する(ステップS20)。さらに情報処理部60は,認識入力データ52と一致する一致入力データ62に基づく処理の種別が「呼び出し」であることを判断する。
Specifically, when the user speaks while pressing the button “3”, the
同様にして,行BR2は場所情報辞書データ124に,行BR3はスケジュール内容属性データ146に対応し,列BC1は認識入力データ52に基づく処理「育成」に,列BC2は処理「入力」に対応している。 なお,処理「呼び出し」とは,一致入力データ62に基づき,既存のスケジュール情報をスケジュールデータ14から取得して出力する処理を言い,処理「入力」とは,一致入力データ62に基づき,新規のスケジュール情報をスケジュールデータ14へ登録する処理を言い,処理「育成」とは,認識入力データ52に基づき,辞書データ12へ抽出可能な新規の登録を行う処理を言う。
Similarly, the row BR2 corresponds to the location
以上のように,一致入力データの属性に対応する情報処理とは,「時間」の属性を有する一致入力データと一致する属性データをスケジュールデータ14から検索したり,「場所」の属性を有する一致入力データと一致する属性データを検索したりというように,一致入力データの異なる属性に応じて異なる情報処理がなされることを言う。さらに,情報処理の種別とは,これら異なる情報処理のそれぞれにおいて,一致入力データと一致する属性データの検索・抽出(呼び出し)や,入力(登録)などを行うことを言う。このように,辞書データの分類を2次元配列された操作ボタンの行に,一致入力データに基づく情報処理の種別を操作ボタンの列に対応付けることにより,ユーザは情報処理の目的に応じた辞書選択を直感的に行うことができる。また,辞書分類と処理種別といった異なる2次元の選択肢に対する選択が1の操作ボタンを押下することにより同時に行うことができるので,ボタン操作が簡略化される。さらに,ボタン操作と同時に発話を行うので,辞書の分類,処理の種別,発話内容と3次元の異なる入力を同時に携帯電話機に与えることができ,簡便な操作性を実現できる。なお,1つの操作ボタンに複数次元の選択肢を割り当てられていれば,必ずしも操作ボタンは行列状に配置されていなくてもよい。
As described above, the information processing corresponding to the attribute of the matched input data refers to searching for the attribute data matching the matched input data having the “time” attribute from the
上述したようなボタン入力部30の列BC3に位置するボタン「3」,「6」,「9」の操作により,処理「呼び出し」を行う場合の画像表示部80が表示する画面遷移例を図5〜7を用いて説明する。
A screen transition example displayed by the
図5は,画像表示部80が表示する,携帯電話機のスケジュール機能を呼び出した場合の,入力待ち画面を説明する図である。初期画面としてカレンダーを表示し,カレンダー上に「いつ?」と表示することにより,ユーザに時間情報属性データ142に関する入力を促す。
FIG. 5 is a diagram for explaining an input waiting screen when the schedule function of the mobile phone displayed by the
図6は,図5の指示待ち画面に対する入力操作,データの対応関係,及び表示画面例を関連付けて説明する図である。まず,図6(A)では,時間情報辞書データ122について日付を入力する場合を説明している。ユーザはボタン「3」を押下しながら「なのか」と発話すると,プッシュボタン押下信号32がボタン入力部30に,音声データ42が音声入力部40に供給される(図3のステップIN32,IN42)。ボタン「3」の押下信号32を受けて情報処理部60は時間情報辞書データ122を選択し(ステップS10),音声認識部50が認識した(ステップS20)認識入力データ52「なのか」と一致する索引データと対応する一致入力データ62を前記辞書から抽出する(ステップS30)。なお,ステップS10とステップS20の後先は逆でもよく,同時でもよい。
FIG. 6 is a diagram illustrating the input operation on the instruction waiting screen in FIG. 5, the correspondence between data, and a display screen example in association with each other. First, FIG. 6A illustrates a case where a date is input for the time
図2で説明したように時間情報辞書データ122には「7日」という一致入力データ62が存在するので,情報処理部60は時間情報辞書データ「7日」を抽出する。そして,スケジュールデータ14の時間情報属性データ142を検索すると(図3のステップS40),属性データ「7日」が複数存在しており,それぞれに時刻を表す時間情報属性データ,場所情報属性データ,スケジュール内容属性データが関係付けられている。
As described with reference to FIG. 2, since the coincidence input data 62 “7 days” exists in the time
よって,図6(A)のように,画像表示部80には「7日」に関係付けられた時刻,場所のリストが表示され(ステップS42),さらに「何時?」と表示しユーザに選択入力を促している。よって,ユーザはスケジュールデータを絞り込むために時刻を入力する際は,再度操作ボタンを押下しながら上記リストのなかから選択した時刻を発話すればよい(ステップS50のYES)。
Therefore, as shown in FIG. 6A, the
次に図6(B)では,時間情報辞書データ122について時刻を入力する場合を説明している。上記同様,ユーザはボタン「3」を押下しながら「さんじ」と発話する。ボタン「3」の押下信号32を受けて情報処理部60は時間情報辞書データ122を選択し(図3のステップS10),音声認識部50が認識した(ステップS20)認識入力データ52「さんじ」と一致する索引データと対応する一致入力データ62を前記辞書から抽出する(ステップS30)。すると,時間情報「PM3時」が抽出される。
Next, FIG. 6B illustrates a case where time is input for the time
そして,スケジュールデータ14の時間情報属性データ142を検索すると(ステップS40),図2に示すように属性データ「PM3時」が複数存在しており,それぞれに場所を表す場所情報属性データ144,スケジュール内容属性データ146が関係付けられている。よって,図6(B)に示すように,画像表示部80には「7日」の「PM3時」に関係付けられた場所が表示され,さらに「どこで?」と表示しユーザに場所の選択入力を促している(図3のステップS42)。よって,ユーザは場所の入力においては,再度操作ボタンを押下しながら上記リストのなかから選択した場所を発話すればよい(ステップS50のYES)。
Then, when the time
図7は,場所情報の入力操作,データの対応関係,及び表示画面例を関連付けて説明する図である。ユーザはボタン「6」を押下しながら「しやくしょ」と発話する。ボタン「6」の押下信号32を受けて情報処理部60は場所情報辞書データ124を選択し(図3のステップS10),音声認識部50が認識した(ステップS20)認識入力データ52「しやくしょ」と一致する索引データと対応する一致入力データ62を前記辞書から抽出する(ステップS30)。すると「市役所」という一致入力データ62が抽出される。
FIG. 7 is a diagram illustrating the location information input operation, data correspondence, and a display screen example in association with each other. The user speaks “Yakusoku” while pressing the button “6”. In response to the
そして,スケジュールデータ14の場所情報144を検索すると(ステップS40),図2に示すように属性データ「市役所」が複数存在しており,それぞれにはスケジュール内容属性データ「住民票の取得」,「戸籍謄本の取得」が関係付けられている。よって,図7に示すとおり,画像表示部80には「7日」,「市役所」に関係付けられたスケジュール内容に関する語をユーザに入力させるよう「何を?」と表示しユーザに選択入力を促している(図3のステップS42)。また,場所情報144の「市役所」に関係付けられたスケジュール内容属性データ146の存在を,図7の図形P1により表現することもできる。
Then, when the
図8は,スケジュール内容の入力を促された場合の入力操作,データの対応関係,及び出力を関連付けて説明する図である。ユーザは,すでに抽出されたスケジュール内容属性データ146を出力するための入力を行う(ステップS50のNO,S60)。そこで,ユーザはボタン「9」を押下しながら「じゅうみんひょう」と発話する。ボタン「9」の押下信号32を受けて情報処理部60はスケジュール内容に関する発話がなされ音声データ42が入力されたことを判断する。
FIG. 8 is a diagram for explaining the input operation, the data correspondence, and the output in a case where the input of the schedule content is prompted. The user performs input for outputting the schedule
本実施の形態では,スケジュール内容属性データ146は音声データとして格納されているので,情報処理部60は,前記音声データ42と,格納された音声データであるスケジュール内容属性データ146を比較し,スケジュール内容属性データ146から音声データ42と近似する順番に抽出し,音声出力部90から出力する。すなわち,音声データ42の「じゅうみんひょう」に最も近似するのは,スケジュール内容属性データ「住民票の取得」であるので,「じゅうみんひょうのしゅとく」と音声が再生される(ステップS60)。または,発話をせずに,スケジュール内容属性データ146の存在を表現した図形P1(図7)をボタン操作により選択して,音声データを再生することもできる。
In this embodiment, since the schedule
上述した入力手順によれば,ユーザは「時間」や「場所」を音声入力する際にこれらの属性に対応する辞書データを直感的に配置されたボタン操作により選択できるので,例えば50音のいずれかを入力する場合に比べると,操作が簡便に行える。また,一致入力データの属性別に分類した辞書データを参照するので,音声認識の精度が向上し,スケジュールデータへの入出力を効率的に行うことができる。さらに,スケジュールデータ内の所望の「スケジュール内容」については音声により入出力をすることができ,従来のボタンによる文字入力に比べ,多くの情報量であっても容易に入出力することができる。 According to the input procedure described above, the user can select dictionary data corresponding to these attributes by an intuitive button operation when inputting “time” or “location” by voice. Compared with the case of inputting K, the operation can be performed easily. In addition, since dictionary data classified by attribute of coincident input data is referred to, the accuracy of speech recognition is improved, and input / output to schedule data can be performed efficiently. Furthermore, the desired “schedule contents” in the schedule data can be input / output by voice, and can be easily input / output even with a large amount of information compared to character input using conventional buttons.
図5〜図8では,時間,場所,スケジュール内容という順番にスケジュールデータの呼び出しを行う場合を示したが,上記入力例の変形例を図9で説明する。 5 to 8 show a case where schedule data is called in the order of time, place, and schedule content, a modified example of the above input example will be described with reference to FIG.
図9は,場所情報から入力する場合の表示画面例を説明する図である。まず,ユーザが携帯電話機のスケジュール機能を起動した時には図9(A)のようなカレンダーを表示する。すると,カレンダーの一部を拡大した図9(B)のように,例えば時間情報「14日」には場所情報「学校」と「市役所」に関係付けられたスケジュール内容が格納されていることが図形P1を用いて表示される。すなわち,時間情報は絞り込みを行わずに一覧表示し,時間情報に関係付けされた場所情報とスケジュール情報を表示する画面例である。 FIG. 9 is a diagram for explaining an example of a display screen when inputting from location information. First, when the user activates the schedule function of the mobile phone, a calendar as shown in FIG. 9A is displayed. Then, as shown in FIG. 9B, which is an enlarged view of a part of the calendar, for example, the time information “14th” may contain schedule information related to the location information “school” and “city hall”. It is displayed using the figure P1. That is, the time information is a screen example that displays a list without narrowing down and displays location information and schedule information related to the time information.
ここで,ユーザは上述した場所情報142の入力手順に従って,例えば「市役所」という場所情報を操作ボタンを押下しながら発話して入力すると,「市役所」に関係付けされたスケジュール内容の音声再生をすることができる。
Here, when the user utters and inputs, for example, the location information “City Hall” while pressing the operation button in accordance with the input procedure of the
また,スケジュール機能の起動時に図9(C)に示すように地図を表示させることもできる。この場合,時間情報は,ユーザがスケジュール機能を起動した日付が用いられる。同図の一部を拡大した図9(D)には,地図上の市役所の位置に,場所情報「市役所」に関係付けられたスケジュール内容が格納されていることが図形P1を用いて表示される。ここで,ユーザは上述した場所情報142の入力手順に従って,例えば「市役所」という場所情報を操作ボタンを押下しながら発話して入力すると,「市役所」に関係付けされたスケジュール内容の音声再生をすることができる。
Further, a map can be displayed as shown in FIG. 9C when the schedule function is activated. In this case, the date when the user activates the schedule function is used as the time information. FIG. 9D, which is an enlarged view of the same figure, shows that the schedule contents related to the place information “city hall” are stored at the location of the city hall on the map using the graphic P1. The Here, when the user utters and inputs, for example, the location information “City Hall” while pressing the operation button in accordance with the input procedure of the
上記のような変形例によれば,カレンダーや地図といった直感的な表示形態を用い,より短縮された手順でスケジュール内容を確認することが可能となる。 According to the modified example as described above, it is possible to confirm the schedule contents by a more shortened procedure using an intuitive display form such as a calendar or a map.
図10〜図14は,一致入力データ62に基づく処理の種別が「入力」である場合の手順を説明している。 10 to 14 illustrate a procedure when the type of processing based on the coincidence input data 62 is “input”.
図10は,入力手順の全体の流れを説明するフローチャート図である。図3におけるステップS10〜S30と共通する手順の後,ステップS30から続く手順を説明している。本フローチャート図を参照しながら,図11〜図13の入力手順の画面遷移を説明する。 FIG. 10 is a flowchart for explaining the overall flow of the input procedure. A procedure following step S30 after step S10 to step S30 in FIG. 3 is described. Screen transition of the input procedure of FIGS. 11 to 13 will be described with reference to the flowchart.
図11は,時間情報属性データ142について日付を入力する場合の入力操作,データの対応関係,及び表示画面例を関連付けて説明する図である。ユーザはボタン「2」を押下しながら「ようか」と発話する。ボタン「2」の押下信号32を受けて情報処理部60は時間情報辞書データ122を選択し(図3のステップS10),音声認識部50が認識した(ステップS20)認識入力データ52「ようか」と一致する索引データと対応する一致入力データ62「8日」を前記辞書から抽出する(ステップS30)。
FIG. 11 is a diagram illustrating the input operation, the data correspondence, and the display screen example in association with each other when inputting the date for the time
また,情報処理部60は,ボタン「2」の位置する列は処理「入力」に対応する列BC2(図4)であることから,前記一致入力データ62「8日」をスケジュールデータ14に格納する処理を実行する(図10のステップS140)。このような処理の結果,画像表示部80には,図11のように時間情報属性データ「8日」が格納されたことが表示され,さらに「どこで?」と表示しユーザに「8日」に関係付けられた場所の入力を促している。
The
図12は,場所情報属性データ144について場所情報を入力する場合の入力操作,データの対応関係,及び表示画面例を関連付けて説明する図である。ユーザはボタン「5」を押下しながら「がっこう」と発話する。ボタン「5」の押下信号32を受けて情報処理部60は場所情報辞書データ124を選択し(図3のステップS10),音声認識部50が認識した(ステップS20)認識入力データ52「がっこう」と一致する索引データと対応する一致入力データ62「学校」を前記辞書から抽出する(ステップS30)。
FIG. 12 is a diagram illustrating the input operation, the data correspondence, and the display screen example when inputting location information for the location
情報処理部60は,前記時間情報属性データ142の新規の属性データ「8日」に関係付けて,場所情報属性データ144に対する新規の属性データとして「学校」をスケジュールデータ14に登録する処理を実行する(図10のステップS140)。このような処理の結果,画像表示部80には,時間情報属性データ「8日」に続いて場所情報属性データ「学校」が登録されたことが表示され,さらに「何を?」と表示しユーザに「8日」と「学校」に関係付けられたスケジュール内容の入力を促している。
The
図13は,スケジュール内容属性データ146について音声入力する場合の入力操作,データの対応関係,及び表示画面例を関連付けて説明する図である。ユーザはボタン「8」を押下しながら「じゅぎょうさんかん」と発話する。ボタン「8」の押下信号32を受けて情報処理部60は入力された音声データの属性はスケジュールデータ14におけるスケジュール内容属性データ146に対応していると判断し,すでに関係付けられた時間情報属性データ「8日」と場所情報属性データ「学校」に関係付けて,スケジュール内容属性データ146として音声データ「じゅぎょうさんかん(授業参観)」をスケジュールデータ14に登録する(図10のステップS140)。
FIG. 13 is a diagram illustrating the schedule
このような処理の結果,図13で示すように画像表示部80には,時間情報属性データ「8日」,場所情報属性データ「学校」に関係づけられてスケジュール内容属性データ146に「授業参観」が音声データとして登録されたことが図P1で表示される。そして,スケジュールデータとして必要な属性データの入力が完了したら終了する(図10のステップS150のNO)。
As a result of such processing, as shown in FIG. 13, the
以上の手順により,ユーザは入力する情報の属性に応じた辞書選択を直感的に行うことができるので,ボタン操作が簡略化されるとともに,発話した音声データの音声認識も精度よく行うことができ,効率よくスケジュールデータの登録を行うことができる。 Through the above procedure, the user can intuitively select a dictionary according to the attribute of the information to be input, so that the button operation is simplified and the speech recognition of the spoken speech data can be performed with high accuracy. , Schedule data can be registered efficiently.
図14は,認識入力データ52に基づく情報処理の種別が「育成」である場合の入力操作と,データの対応関係,及び画面の表示例を関連付けて説明する図である。例えば,ユーザが「呼び出し」や「入力」の処理を行った際に,「はつか」という発話に対応する認識入力データ52と一致する索引データと対応する一致入力データ62が時間情報辞書データ122に存在しなかったとする。そのような場合に,「はつか」という発話に一致する時間情報を入力し,辞書を育成することができる。
FIG. 14 is a diagram illustrating the input operation when the type of information processing based on the
ユーザはボタン「1」を押下しながら,「はつか」と発話すると,ボタン「1」の押下信号32を受けて情報処理部60は入力された音声データの属性は時間情報辞書データ122に対応しており,当該認識入力データ52に対する育成処理を行うことを判断する。よって,画像表示部80は,カレンダーを表示し,ユーザが「20日」をボタン操作で特定したら,「はつか」という認識入力データ52には時間情報「20日」が対応するということを時間情報辞書データ122に登録することができる。よって,ユーザは,一致入力データ62の候補となる辞書データを適宜増加させることにより,以後の音声認識の精度を向上させることができる。
When the user speaks “Hatsuka” while pressing the button “1”, the
図15〜図19では,携帯電話機を外部機器の入力装置として利用し,携帯電話機の記憶部10に格納された画像データとともに,同画像データに対する加工処理のコマンドを外部機器に送信する場合の実施形態を説明している。図1で説明したように,本実施形態では,辞書データ12の内容は,外部機器に対するコマンドを特定する変数の辞書データに,データベース16の内容は,前記変数にコマンドを対応させたアルゴリズムデータに置き換わる。
In FIGS. 15 to 19, when a mobile phone is used as an input device for an external device, a processing command for the image data is transmitted to the external device together with the image data stored in the
図15は,ボタン入力部30,辞書データ12の分類,および一致入力データ62に基づく情報処理種別の対応関係を説明する図である。押下する操作ボタンの位置に基づき,一致入力データ62の属性を判断し,さらにその属性に対応する辞書データ12の種類と,一致入力データ62に基づく情報処理の種別が判断される。すなわち,ボタン「1」,「2」,「3」は辞書データ12の被写体情報辞書データ123を選択するボタンの行BR11に対応しており,行BR21は色加工情報辞書データ125に対応しており,行BR31は印刷時の枚数情報辞書データ127に対応している。たとえば,被写体情報辞書データ123の内容は,「人物」,「スポーツ」,「屋内」,「風景」といった変数である。
FIG. 15 is a diagram for explaining the correspondence relationship between the
一方,縦の列BC11は,使用する外部機器がPCなどの外部ファイル装置240である場合,BC21は使用する外部機器がテレビジョン装置などの外部映像表示装置200である場合,そしてBC31は使用する外部機器がプリンタなどの外部画像形成装置220である場合の処理の種別TPに対応している。
On the other hand, the vertical column BC11 is used when the external device used is an
なお,1つの操作ボタンに複数次元の選択肢を割り当てられていれば,必ずしも操作ボタンは行列状に配置されていなくてもよい。 Note that the operation buttons do not necessarily have to be arranged in a matrix as long as a plurality of options are assigned to one operation button.
図16は,入力する変数にコマンドを対応させたアルゴリズムデータを説明する図である。図16(A)は,被写体情報辞書データ123の変数を列123aに,前記変数に対応する画像加工コマンドを列123bに関係付けたアルゴリズムデータ15Aをテーブル形式に表現したものである。たとえば,被写体「人物」が入力された場合には,「顔を認識し,肌色を所定の色になるように色調整」する画像加工が施されるコマンドが抽出される(行R123)。図16(B)は,色加工情報辞書データ125の各変数を列125aに,前記変数に対応する色加工コマンドを列125bに関係付けたアルゴリズムデータ15Bをテーブル形式に表現したものである。たとえば,色加工「明るく」が選択された場合には,「明度を高く補正」する色加工が施されるコマンドが抽出される(行R125)。これらアルゴリズムデータは,便宜上テーブル形式で表現しているが,変数と各コマンドが関係付けられていればテーブル形式でなくてもよい。
FIG. 16 is a diagram for explaining algorithm data in which a command is associated with an input variable. FIG. 16A is a table format of the
図17は,使用する外部機器に対応する処理の種別の種類を列129aに,前記種別に対応する画像加工コマンドを列129bに関係付けたアルゴリズムデータ16を説明する図である。便宜上,テーブル形式で表現しているが,外部機器の種類と画像加工コマンドが関係付けられていればテーブル形式でなくてもよい。例えば,PCなどの外部ファイル装置240に画像データを転送する場合は,「圧縮率が高くなるように画像加工」するコマンドが抽出されることを示している(行T11)。
FIG. 17 is a diagram for explaining the
画像データを外部画像形成装置220に転送する処理の手順を例とした画面遷移を図18〜19により説明する。また,処理手順のフローチャートは,図3が適用される。
Screen transitions taking as an example a processing procedure for transferring image data to the external
図18は,画像表示装置に表示される初期画面の画面例を説明する図である。まず,図18(A)の表示画面例では,「被写体?」などと表示することにより,ユーザの入力を促す。図18(B)は,被写体情報の入力操作,データの対応関係,及び表示画面例を関連付けて説明している。ユーザはボタン「3」を押下しながら「じんぶつ」と発話する。ボタン「3」の押下信号32を受けて情報処理部60は被写体情報辞書データ123を選択し(図3のステップS10),音声認識部50が認識した(ステップS20)認識入力データ52「じんぶつ」と一致する索引データと対応する一致入力データ62「人物」を前記辞書から抽出する(ステップS30)。
FIG. 18 is a diagram illustrating an example of an initial screen displayed on the image display device. First, in the display screen example of FIG. 18A, “Subject?” Or the like is displayed to prompt the user to input. FIG. 18B illustrates the subject information input operation, data correspondence, and display screen example in association with each other. The user utters “Jimbutsu” while pressing the button “3”. Upon receipt of the button “3” pressing
そして,図16(A)のアルゴリズムデータ15Aの被写体情報123から一致入力データ62「人物」と一致する属性データ「人物」を検索し(図3のステップS40),同属性データに対応付けられた画像加工コマンドを抽出する。また,情報処理部60は,使用する対象機器が外部画像形成装置220であることをボタン「3」の列から判断し,図17のアルゴリズムデータ16において対応する「印刷向けの画像加工」を施すコマンドを抽出する。さらに,図18(B)に示すように画像表示装置80に「色加工?」などと表示することにより,ユーザの入力を促す。
Then, the attribute data “person” that matches the match input data 62 “person” is searched from the
図19は,色加工情報の入力操作,データの対応関係,及び表示画面例を関連付けて説明する図である。ユーザはボタン「6」を押下しながら「あかるく」と発話する。ボタン「6」の押下信号32を受けて情報処理部60は色加工情報辞書データ125を選択し(図3のステップS10),音声認識部50が認識した(ステップS20)認識入力データ52「あかるく」と一致する索引データと対応する一致入力データ62「明るく」を前記辞書から抽出する(ステップS30)。そして,アルゴリズムデータ15Bの色加工情報125aから属性データ「明るく」を検索し(ステップS40),同属性データに対応付けられた色加工コマンド「明度を高く補正する」を抽出する。さらに,図19に示すように画像表示装置80に「何枚?」などと表示することにより,ユーザの入力を促す。
FIG. 19 is a diagram illustrating the color processing information input operation, data correspondence, and a display screen example in association with each other. The user speaks “Akaruku” while pressing the button “6”. In response to the
図20は,枚数情報の入力操作,データの対応関係,及び出力を関連付けて説明する図である。ユーザはボタン「9」を押下しながら「ごまい」と発話する。ボタン「9」の押下信号32を受けて情報処理部60は枚数情報辞書データ127を選択し(図3のステップS10),音声認識部50が認識した(ステップS20)認識入力データ52「ごまい」と一致する索引データと対応する一致入力データ62「5枚」を前記辞書から抽出し(ステップS30),前記抽出済みの,被写体「人物」についての画像加工コマンド,色加工方法「明るく」についての色加工コマンド,印刷機向けの画像加工コマンドとともに一連のコマンドとして,画像データとともに外部画像形成装置220に送信する。
FIG. 20 is a diagram for explaining the number information input operation, data correspondence, and output in association with each other. The user utters “Sweet” while pressing the button “9”. In response to the
上記の手順により,ユーザは外部のプリンタや画像表示装置などに対する画像加工コマンドを音声入力とボタン操作により入力し,画像データとともに一連のコマンドをプリンタ等に送信できるので,携帯電話機などを外部機器の入力装置として利用することができる。 According to the above procedure, the user can input image processing commands to an external printer or image display device by voice input and button operation, and can send a series of commands to the printer together with the image data. It can be used as an input device.
以上のとおり,複数の異なる次元の入力情報に基づき出力を得るような情報処理装置において,複数次元の選択肢が割り当てられた操作ボタンと音声入力を組み合わせることにより,操作を簡便化しつつ音声認識の精度を向上させ,入力を効率よく行うことができる。 As described above, in an information processing apparatus that obtains output based on input information of a plurality of different dimensions, the accuracy of voice recognition is simplified while simplifying the operation by combining operation buttons assigned with multi-dimensional options and voice input. And input can be performed efficiently.
12 :辞書データ 122:時間情報辞書データ
14 :スケジュールデータ 142:時間情報属性データ
30 :ボタン入力部 15A:アルゴリズムデータ
12: Dictionary data 122: Time information dictionary data 14: Schedule data 142: Time information attribute data 30:
Claims (9)
前記情報処理は,前記一致入力データの属性に対応して複数の情報処理を有し,
複数配置された操作ボタンのうち押下された操作ボタンの位置に基づき,前記一致入力データの属性を判断し,前記判断した属性に対応する前記辞書データから,当該認識入力データに一致する一致入力データを抽出する一致入力データ抽出手段を有する携帯情報処理装置。 In response to pressing of the operation button and voice input, matching input data matching the recognition input data recognized by the voice recognition device is extracted from the dictionary data, and the matching input data is extracted based on the matching input data. In a portable information processing device that performs information processing corresponding to attributes,
The information processing has a plurality of information processing corresponding to the attribute of the coincidence input data,
Based on the position of the pressed operation button among a plurality of operation buttons, the attribute of the match input data is determined, and the match input data matching the recognition input data is determined from the dictionary data corresponding to the determined attribute. A portable information processing apparatus having matching input data extraction means for extracting.
前記複数の操作ボタンは行列状に配置されており,
前記一致入力データ抽出手段は,前記押下されたボタンが位置する行または列に基づき前記一致入力データの属性および前記一致入力データに基づく情報処理の種別を判断することを特徴とする携帯情報処理装置。 In claim 1,
The plurality of operation buttons are arranged in a matrix,
The coincidence input data extracting means judges the attribute of the coincidence input data and the type of information processing based on the coincidence input data based on the row or column where the pressed button is located. .
属性データが相互に関係付けられたデータベースと,
前記判断した情報処理の種別が出力である場合は,前記データベースにおいて前記一致入力データと等しい属性データを検索し,検索された属性データと関係付けられた別の属性データを抽出し出力する属性データ出力手段とをさらに備える携帯情報処理装置。 In claim 2,
A database of attribute data associated with each other;
If the determined type of information processing is output, search the attribute data equal to the matched input data in the database, and extract and output another attribute data related to the searched attribute data A portable information processing apparatus further comprising output means.
前記属性データ出力手段は,前記出力された属性データについてユーザに選択入力を促し,前記一致入力データ抽出手段により抽出される,前記一致入力データとは別の一致入力データに基づいて,前記出力された属性データとは別の属性データをさらに出力することを特徴とする携帯情報処理装置。 In claim 3,
The attribute data output means prompts the user to select and input the output attribute data, and is output based on match input data different from the match input data extracted by the match input data extraction means. A portable information processing apparatus that further outputs attribute data different from the attribute data.
前記データベースはスケジュールデータのデータベースであって,当該属性データは「時間」,「場所」,および音声データである「スケジュール内容」であり,
前記属性データ出力手段は,抽出された属性データが「スケジュール内容」である場合は,当該音声データを再生することを特徴とする,携帯情報処理装置。 In claim 3,
The database is a database of schedule data, and the attribute data is “time”, “location”, and “schedule content” which is voice data,
The attribute information output means reproduces the audio data when the extracted attribute data is "schedule content".
前記属性データ出力手段は,前記入力音声と類似する音声データである「スケジュール内容」を再生することを特徴とする,携帯情報処理装置。 In claim 5,
The portable information processing apparatus, wherein the attribute data output means reproduces “schedule content” which is voice data similar to the input voice.
前記データベースの属性データは外部機器に対する制御コマンドであって,
前記判断された情報処理の種別は前記外部機器の種別であり,
前記属性データ出力手段は,前記判断された外部機器に対して,前記抽出された制御コマンドを出力することを特徴とする,携帯情報処理装置。 In claim 3,
The attribute data of the database is a control command for an external device,
The determined type of information processing is the type of the external device,
The portable information processing apparatus, wherein the attribute data output means outputs the extracted control command to the determined external device.
属性データが相互に関係付けられたデータベースと,
前記判断された情報処理の種別が入力である場合は,前記データベースの属性に前記一致入力データの属性を対応させて当該一致入力データを前記データベースに入力する属性データ入力手段とをさらに有し,
前記属性データ入力手段は,前記入力音声を前記データベースに入力する手段を備えた携帯情報処理装置。 In claim 2,
A database of attribute data associated with each other;
If the determined type of information processing is an input, it further comprises attribute data input means for associating the attribute of the match input data with the attribute of the database and inputting the match input data to the database,
The attribute data input means is a portable information processing apparatus comprising means for inputting the input voice into the database.
行列状に配置された操作ボタンのうち押下された操作ボタンが位置する行または列に基づき,前記一致入力データの属性と,前記一致入力データに基づく情報処理の種別とを判断し,前記判断した属性に対応する前記辞書データから当該認識入力データに一致する一致入力データを抽出する一致入力データ抽出工程と,
前記判断された情報処理の種別が出力である場合は,前記データベースにおいて前記一致入力データと等しい属性データを検索し,検索された属性データと関係付けられた別の属性の属性データを抽出し出力する属性データ出力工程とを有する携帯情報処理装置の入出力方法。 In response to pressing of the operation button and voice input, matched input data that matches the input voice with the recognized input data recognized by the voice recognition device is extracted from the dictionary data. In the input / output method of the portable information processing apparatus for performing a plurality of information processing corresponding to the attribute of the matched input data with respect to the database related to
Based on the row or column where the pressed operation button is located among the operation buttons arranged in a matrix, the attribute of the matched input data and the type of information processing based on the matched input data are determined, and the determined A matching input data extraction step of extracting matching input data that matches the recognition input data from the dictionary data corresponding to the attribute;
If the determined type of information processing is output, the attribute data equal to the matched input data is searched in the database, and attribute data of another attribute related to the searched attribute data is extracted and output And an input / output method for a portable information processing apparatus.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005257762A JP2007072671A (en) | 2005-09-06 | 2005-09-06 | Portable information processing device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005257762A JP2007072671A (en) | 2005-09-06 | 2005-09-06 | Portable information processing device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2007072671A true JP2007072671A (en) | 2007-03-22 |
Family
ID=37934063
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005257762A Pending JP2007072671A (en) | 2005-09-06 | 2005-09-06 | Portable information processing device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2007072671A (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015011634A (en) * | 2013-07-01 | 2015-01-19 | オリンパス株式会社 | Electronic device, electronic device control method and electronic device control program |
JPWO2013015364A1 (en) * | 2011-07-27 | 2015-02-23 | 三菱電機株式会社 | User interface device, information processing method, and information processing program |
WO2021192991A1 (en) * | 2020-03-23 | 2021-09-30 | ソニーグループ株式会社 | Information processing device, information processing method, and program |
-
2005
- 2005-09-06 JP JP2005257762A patent/JP2007072671A/en active Pending
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPWO2013015364A1 (en) * | 2011-07-27 | 2015-02-23 | 三菱電機株式会社 | User interface device, information processing method, and information processing program |
JP2015011634A (en) * | 2013-07-01 | 2015-01-19 | オリンパス株式会社 | Electronic device, electronic device control method and electronic device control program |
WO2021192991A1 (en) * | 2020-03-23 | 2021-09-30 | ソニーグループ株式会社 | Information processing device, information processing method, and program |
JPWO2021192991A1 (en) * | 2020-03-23 | 2021-09-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US7162412B2 (en) | Multilingual conversation assist system | |
CN100559463C (en) | Dictionary compiling device for voice recognition and voice recognition device | |
KR100790700B1 (en) | Character specification method and character selection device | |
US20050267761A1 (en) | Information transmission system and information transmission method | |
EP2682931B1 (en) | Method and apparatus for recording and playing user voice in mobile terminal | |
CN107885482B (en) | Audio playback method, device, storage medium and electronic device | |
JP7540058B2 (en) | Work support system, work support method, and work support device | |
EP1851757A1 (en) | Selecting an order of elements for a speech synthesis | |
CN101170757A (en) | A method and device for controlling text input in mobile device | |
CN107577358A (en) | Dummy keyboard input method, device and computer-readable recording medium | |
US20070038456A1 (en) | Text inputting device and method employing combination of associated character input method and automatic speech recognition method | |
CN115879440A (en) | Natural language processing method, natural language processing device, natural language model training equipment and storage medium | |
US20090094018A1 (en) | Flexible Phrasebook | |
CN111488744A (en) | Multi-modal language information AI translation method, system and terminal | |
JP3927800B2 (en) | Voice recognition apparatus and method, program, and storage medium | |
EP2851891B1 (en) | Mobile user terminal and method for controlling such a terminal | |
JP2003280683A (en) | Voice recognition device, voice recognition control method of the device, and dictionary controller related to voice processing | |
JP2007072671A (en) | Portable information processing device | |
TWI260531B (en) | Communications terminal apparatus, reception apparatus, and method therefor | |
KR100919227B1 (en) | The method and apparatus for recognizing speech for navigation system | |
JP2012226220A (en) | Speech recognition device, speech recognition method, and speech recognition program | |
JP2002014956A (en) | Character string predicting method and device therefor | |
JP2000305702A (en) | Character input system for electronic devices | |
JP2003202890A (en) | Speech recognition device, and method and program thereof | |
CN112764601B (en) | Information display method and device and electronic equipment |