[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2007072671A - Portable information processing device - Google Patents

Portable information processing device Download PDF

Info

Publication number
JP2007072671A
JP2007072671A JP2005257762A JP2005257762A JP2007072671A JP 2007072671 A JP2007072671 A JP 2007072671A JP 2005257762 A JP2005257762 A JP 2005257762A JP 2005257762 A JP2005257762 A JP 2005257762A JP 2007072671 A JP2007072671 A JP 2007072671A
Authority
JP
Japan
Prior art keywords
data
input
attribute
input data
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005257762A
Other languages
Japanese (ja)
Inventor
Yukimitsu Fujimori
幸光 藤森
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2005257762A priority Critical patent/JP2007072671A/en
Publication of JP2007072671A publication Critical patent/JP2007072671A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Input From Keyboards Or The Like (AREA)

Abstract

【課題】簡便なボタン操作で音声認識の候補の範囲を狭く絞り込み,入力を効率化する携帯情報処理装置を提供する。
【解決手段】音声認識装置が認識した認識入力データに一致する索引データに対応する一致入力データを,縦横の行列状に配置された操作ボタンのうち押下された操作ボタンが位置する行と列に基づき認識入力データの属性と処理の種別を判断し,認識入力データの属性に対応する分類の前記辞書データから当該認識入力データと一致する索引データに対応する一致入力データを抽出する一致入力データ抽出手段と,前記判断された認識入力データに基づく処理の種別が出力である場合は,前記データベースにおいて前記認識入力データの属性に対応する属性データから一致入力データと等しい属性データを検索し,検索された属性データと関係付けられた別の属性の属性データを抽出し出力する属性データ出力手段とを有する携帯情報処理装置。
【選択図】 図4
Provided is a portable information processing apparatus that narrows a range of candidates for speech recognition with a simple button operation and improves input efficiency.
SOLUTION: Matched input data corresponding to index data that matches recognized input data recognized by a speech recognition device is placed in a row and a column where the pressed operation button is located among the operation buttons arranged in a matrix form. Based on the input data extracted from the dictionary data of the classification corresponding to the attribute of the recognized input data, the matched input data corresponding to the index data matching the recognized input data is extracted. And when the type of processing based on the determined recognition input data is output, the attribute data corresponding to the attribute of the recognition input data is searched for attribute data equal to the matching input data in the database. Information processing means having attribute data output means for extracting and outputting attribute data of another attribute associated with the attribute data Location.
[Selection] Figure 4

Description

本発明は、携帯情報処理装置に関し,特に情報処理の目的に応じて分類された辞書をボタン操作により特定して音声認識を行うことにより入力操作と入力情報の処理を簡略化する携帯情報処理装置に関する。   The present invention relates to a portable information processing apparatus, and in particular, a portable information processing apparatus that simplifies input operations and processing of input information by performing voice recognition by specifying a dictionary classified according to the purpose of information processing by button operation. About.

近年,携帯電話機には音声通信機能に加え種々の情報処理機能が搭載されるようになっており,情報処理装置としての側面を有している。よって,かかる携帯電話機に入出力する情報も複雑化している。例えば,スケジュール機能を搭載した携帯電話機には,時間,場所,スケジュールの内容などの多岐にわたる情報を適宜入出力することが必要となる。   In recent years, various information processing functions have been installed in mobile phones in addition to voice communication functions, and have an aspect as an information processing apparatus. Therefore, information input / output to / from such mobile phones is also complicated. For example, a mobile phone equipped with a schedule function needs to appropriately input and output various information such as time, place, and schedule contents.

情報の入力に際しては,操作ボタンに文字を割り当て,ボタンの押下に応じた文字入力を行うことが一般的である。しかし,情報量が増加するにつれ,全ての入力を文字で行おうとすると,操作は煩雑になる。また,本来の音声入出力機能を活用して,ユーザが発話した音声を認識し文字列等に変換する音声認識による入力方法も提案されているが,ユーザの発話した音声を高精度に認識するためには,膨大な情報処理を行う必要があり,携帯電話機の筐体に搭載可能な情報処理装置の処理能力を超える。   When inputting information, it is common to assign a character to an operation button and input a character in response to the button being pressed. However, as the amount of information increases, the operation becomes complicated when trying to input all characters in characters. In addition, an input method based on voice recognition that uses the original voice input / output function to recognize the voice spoken by the user and convert it into a character string has been proposed, but the voice spoken by the user is recognized with high accuracy. For this purpose, it is necessary to perform enormous information processing, which exceeds the processing capability of an information processing device that can be mounted on the casing of a mobile phone.

よって,文字入力と音声認識を組み合わせ,ボタン操作により音声認識の精度を補う入力方法が提案されている。例えば,特許文献1及び特許文献2には,入力する語の文頭の文字をボタン操作により入力し,入力した文字から始まる語を候補として音声認識を行う方法が記載されている。
特開平11−17813号公報 特開2001−255986号公報
Therefore, an input method has been proposed in which character input and voice recognition are combined and the accuracy of voice recognition is compensated by button operation. For example, Patent Document 1 and Patent Document 2 describe a method in which a character at the beginning of an input word is input by a button operation, and speech recognition is performed using a word starting from the input character as a candidate.
JP-A-11-17813 JP 2001-255986 A

しかしながら,従来の技術では,次のような問題が生じる。すなわち,ボタン操作による文字入力は50音を対象としているため,入力した文字から始まる語の候補が多数存在する場合には,誤認識の可能性が大きく音声認識の処理効率も向上しない。結局,さらに入力候補の範囲を絞込むために第2字以降も入力するとなると,ユーザの操作負担が倍増することになる。   However, the conventional technology has the following problems. That is, since character input by button operation is targeted for 50 sounds, if there are a large number of word candidates starting from the input character, the possibility of erroneous recognition is high and the processing efficiency of speech recognition is not improved. Eventually, if the second and subsequent characters are input in order to further narrow the input candidate range, the operation burden on the user is doubled.

そこで、本発明の目的は、簡便なボタン操作で音声認識の候補の範囲を狭く絞り込み,入力を効率化する携帯情報処理装置を提供することにある。   SUMMARY OF THE INVENTION An object of the present invention is to provide a portable information processing apparatus that narrows down the range of candidates for speech recognition with a simple button operation and makes input more efficient.

上記の目的を達成するために、本発明の第1の側面によれば,操作ボタンの押下と音声入力に応答して,前記入力音声を音声認識装置が認識した認識入力データに一致する一致入力データを辞書データから抽出し,前記一致入力データに基づいて当該一致入力データの属性に対応する情報処理を行う携帯情報処理装置において,前記情報処理は,前記一致入力データの属性に対応して複数の情報処理を有し,複数配置された操作ボタンのうち押下された操作ボタンの位置に基づき,前記一致入力データの属性を判断し,前記判断した属性に対応する前記辞書データから,当該認識入力データに一致する一致入力データを抽出する一致入力データ抽出手段を有することを特徴とする。   In order to achieve the above object, according to the first aspect of the present invention, in response to pressing of an operation button and voice input, a coincidence input that matches the input voice with the recognition input data recognized by the voice recognition device In a portable information processing apparatus that extracts data from dictionary data and performs information processing corresponding to an attribute of the matched input data based on the matched input data, the information processing includes a plurality of information corresponding to the matched input data attribute. And determining the attribute of the coincidence input data based on the position of the pressed operation button among a plurality of operation buttons, and from the dictionary data corresponding to the determined attribute, the recognition input It has a match input data extraction means for extracting match input data that matches the data.

上記第1の側面によれば,前記認識入力データの候補は情報処理に応じた属性ごとに分類された辞書データを参照するので,より狭い範囲から一致入力データを抽出することができ,精度の良い音声認識が可能となる。   According to the first aspect, the recognition input data candidates refer to dictionary data classified for each attribute according to information processing, so that it is possible to extract matching input data from a narrower range, Good speech recognition is possible.

上記第1の側面において好ましい実施例によれば,前記複数の操作ボタンは行列状に配置されており,前記一致入力データ抽出手段は,前記押下されたボタンが位置する行または列に基づき前記一致入力データに基づく情報処理の種別をさらに判断することを特徴とする。よって,辞書データの分類と認識入力データに基づく処理の種別を2次元配列された操作ボタンの行と列に対応付けることにより,情報処理の目的に応じた辞書選択を直感的に行うことができる。さらに,辞書分類と処理種別といった異なる2次元の選択肢に対する選択が1の操作ボタンを押下することにより同時に行うことができるので,ボタン操作が簡略化される。   According to a preferred embodiment in the first aspect, the plurality of operation buttons are arranged in a matrix, and the coincidence input data extracting means is configured to match the coincidence based on a row or a column in which the pressed button is located. It is characterized by further determining the type of information processing based on the input data. Therefore, the dictionary selection according to the purpose of information processing can be performed intuitively by associating the classification of the dictionary data and the type of processing based on the recognition input data with the rows and columns of the operation buttons arranged two-dimensionally. In addition, selection of different two-dimensional options such as dictionary classification and processing type can be performed simultaneously by pressing one operation button, thereby simplifying the button operation.

上記第1の側面においてより好ましい実施例によれば,属性データが相互に関係付けられたデータベースにおいて前記一致入力データと等しい属性データを検索し,検索された属性データと関係付けられた別の属性データを抽出し出力する属性データ出力手段とをさらに備えている。さらに,前記属性データ抽出手段は,出力された属性データについてユーザに選択入力を促し,前記一致入力データ抽出手段により抽出される,前記一致入力データとは別の一致入力データに基づいて,前記出力された属性データとは別の属性データをさらに出力することを特徴とする。よって,属性データが相互に関連付けられたデータベースにおいて属性ごとに属性データを検索し,順次絞り込みを行いながら目的とする属性データの組合せを検索する場合に,次の入力データ候補をユーザに表示することにより,ユーザの入力を補助することができる。   According to a more preferred embodiment in the first aspect, a search is made for attribute data equal to the matching input data in a database in which attribute data is related to each other, and another attribute related to the searched attribute data. Attribute data output means for extracting and outputting data is further provided. Further, the attribute data extraction means prompts the user to select and input the output attribute data, and the output based on the match input data different from the match input data extracted by the match input data extraction means Further, attribute data different from the attribute data thus output is further output. Therefore, when the attribute data is searched for each attribute in the database in which the attribute data is associated with each other, and the target combination of attribute data is searched while sequentially narrowing down, the next input data candidate is displayed to the user. Thus, user input can be assisted.

上記第1の側面において別の好ましい実施例によれば,前記データベースは,スケジュールデータを格納したデータベースであって,「時間」,「場所」,および「スケジュール内容」の各属性データが相互に関係付けられ,「スケジュール内容」は音声データであることを特徴としている。よって,ユーザが「時間」や「場所」を音声入力する際にこれらの属性に対応する辞書データをボタン操作により選択できるので,音声認識の精度が向上し,スケジュールデータへの入出力を簡便に行うことができる。さらに,スケジュールデータ内の「スケジュール内容」については音声により入出力をすることができ,従来のボタンによる文字入力に比べ,多くの情報量であっても容易に入出力することができる。   According to another preferred embodiment in the first aspect, the database is a database storing schedule data, and attribute data of “time”, “location”, and “schedule content” are related to each other. The “schedule content” is voice data. Therefore, when a user inputs “time” or “location” by voice, dictionary data corresponding to these attributes can be selected by button operation, so that the accuracy of voice recognition is improved and scheduling data can be easily input / output. It can be carried out. Furthermore, the “schedule contents” in the schedule data can be input / output by voice, and can be easily input / output even with a large amount of information compared to the conventional character input using buttons.

上記第1の側面において別の好ましい実施例によれば,前記データベースは,外部機器に対する制御コマンドのデータベースであり,前記属性データ出力手段は,選択された外部機器に対して,抽出された制御コマンドを出力することを特徴とする。よって,ユーザは外部のプリンタや画像表示装置などに対する画像加工コマンドを音声入力とボタン操作により入力し,画像データとともに一連のコマンドをプリンタ等に送信でき,携帯電話機などを外部機器の入力装置として利用することができる。   According to another preferred embodiment in the first aspect, the database is a database of control commands for an external device, and the attribute data output means extracts the control commands for the selected external device. Is output. Therefore, the user can input image processing commands to an external printer or image display device by voice input and button operation, and can send a series of commands to the printer, etc. along with the image data. Use a mobile phone as an input device for external devices can do.

以下、図面にしたがって本発明の実施の形態について説明する。但し,発明の技術的範囲はこれらの実施の形態に限定されず,特許請求の範囲に記載された事項とその均等物まで及ぶものである。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. However, the technical scope of the invention is not limited to these embodiments, but extends to the matters described in the claims and equivalents thereof.

図1は,本実施の形態におけるシステムの概略構成図である。本実施の形態における携帯電話機は,音声通信機能のための音声入出力部と,操作ボタンが配置されたボタン入力部,画像表示部に加え,音声認識部,辞書データ,およびスケジュール機能を具備している。操作ボタンはテンキー形式の行列状に配置されており,かかる条件の下での入力の操作を簡便化している。ただし,同等の構成を具備していれば,PDAなどの携帯情報処理装置であってもよく,テンキー形式以外の操作ボタン配列も可能である。   FIG. 1 is a schematic configuration diagram of a system in the present embodiment. The mobile phone in this embodiment includes a voice recognition unit, dictionary data, and a schedule function in addition to a voice input / output unit for a voice communication function, a button input unit in which operation buttons are arranged, and an image display unit. ing. The operation buttons are arranged in a numeric keypad matrix, simplifying the input operation under such conditions. However, a portable information processing device such as a PDA may be used as long as it has an equivalent configuration, and operation button arrangements other than the numeric keypad format are also possible.

携帯電話機に相当する携帯情報処理装置100は,記憶部10,制御部20,ボタン入力部30,音声入力部40,音声認識部50,情報処理部60,出力部70を有しており,各部は信号線101で接続されている。記憶部10には,辞書データ12と,スケジュールデータ14を有するデータベース16が格納されている。さらに辞書データ12には時間情報辞書データ122,場所情報辞書データ124といった辞書データが格納されており,データベース16には,スケジュールデータ14の属性に対応して時間情報属性データ142,場所情報属性データ144,スケジュール内容属性データ146といったデータが格納されている。   A portable information processing apparatus 100 corresponding to a mobile phone includes a storage unit 10, a control unit 20, a button input unit 30, a voice input unit 40, a voice recognition unit 50, an information processing unit 60, and an output unit 70. Are connected by a signal line 101. The storage unit 10 stores a database 16 having dictionary data 12 and schedule data 14. Further, the dictionary data 12 stores dictionary data such as time information dictionary data 122 and location information dictionary data 124, and the database 16 stores time information attribute data 142, location information attribute data corresponding to the attributes of the schedule data 14. Data such as 144 and schedule content attribute data 146 are stored.

ボタン入力部30は,操作ボタンの押下信号32を受信し,情報処理部60に供給する。情報処理部60は,同信号に基づき押下された操作ボタンの位置を判断し,辞書データ12から参照すべき情報の辞書データ,例えば時間情報辞書データ122を選択する。また,音声認識部50が認識した認識入力データ52と一致する一致入力データ62に基づく情報処理の種別,例えばスケジュールデータの呼び出しを判断する。一方,音声入力部40はユーザの発話した音声データ42を受信して音声認識部50に供給し,音声認識部50は,同音声データを認識して文字列等の認識入力データ52に変換して情報処理部60に供給する。   The button input unit 30 receives the operation button pressing signal 32 and supplies it to the information processing unit 60. The information processing unit 60 determines the position of the pressed operation button based on the signal, and selects dictionary data of information to be referred to from the dictionary data 12, for example, time information dictionary data 122. Further, it determines the type of information processing based on the coincidence input data 62 that matches the recognition input data 52 recognized by the voice recognition unit 50, for example, the call of schedule data. On the other hand, the voice input unit 40 receives the voice data 42 spoken by the user and supplies it to the voice recognition unit 50. The voice recognition unit 50 recognizes the voice data and converts it into recognition input data 52 such as a character string. To the information processing unit 60.

情報処理部60は,前記選択した辞書データ12の情報を参照し,認識入力データ52に一致する索引データと対応する一致入力データ62を抽出したり,スケジュールデータ14を参照し,前記一致入力データ62と一致する属性データを検索したりといった,データ検索やマッチング処理を行う。また,前記一致入力データ62の情報処理の種別に応じて,スケジュールデータ14における属性データの入力・更新を行う。   The information processing unit 60 refers to the information of the selected dictionary data 12 and extracts the matching input data 62 corresponding to the index data matching the recognition input data 52, or refers to the schedule data 14 and matches the matching input data. Data search and matching processing such as search for attribute data matching 62 is performed. The attribute data in the schedule data 14 is input / updated according to the type of information processing of the coincidence input data 62.

出力部70は情報処理部60から供給される抽出された属性データを画像表示部80により携帯電話機の画面に表示する。また,スケジュール内容126の属性データが音声データである場合は,音声出力部90により音声を再生する。   The output unit 70 displays the extracted attribute data supplied from the information processing unit 60 on the screen of the mobile phone by the image display unit 80. If the attribute data of the schedule content 126 is audio data, the audio output unit 90 reproduces the audio.

別の実施形態において,携帯電話機を外部機器の入力装置として利用する場合は,辞書データ12とデータベース16のスケジュールデータ14の内容が,外部機器に対するコマンドの変数の辞書データや,前記変数にコマンドを対応させたアルゴリズムデータに置き換わる。ユーザの入力に基づき,情報処理部60により抽出されたコマンドが画像データなどとともに出力部70を介して,ケーブル接続された外部画像表示装置200に送信され,または外部画像形成装置220や外部ファイル装置240へアンテナ72から無線送信される。   In another embodiment, when a mobile phone is used as an input device for an external device, the contents of the dictionary data 12 and the schedule data 14 of the database 16 are dictionary data for command variables for the external device, and commands for the variables. Replaced with the corresponding algorithm data. Based on the user input, the command extracted by the information processing unit 60 is transmitted to the cable-connected external image display device 200 via the output unit 70 together with the image data or the like, or the external image forming device 220 or the external file device Radio is transmitted from the antenna 72 to 240.

図2は辞書データ12とスケジュールデータ14(データベース16)それぞれのデータ構造と,データ相互の関係を説明する図である。この例では,辞書データ12の時間情報辞書データ122と場所情報辞書データ124,及びスケジュールデータ14を便宜上テーブル形式で表現して説明する。時間情報辞書データ122と場所情報辞書データ124の辞書データは,それぞれC122−1,C124−1の列に索引データを有している。   FIG. 2 is a diagram illustrating the data structures of the dictionary data 12 and the schedule data 14 (database 16) and the relationship between the data. In this example, the time information dictionary data 122, the location information dictionary data 124, and the schedule data 14 of the dictionary data 12 are described in a table format for convenience. The dictionary data of the time information dictionary data 122 and the location information dictionary data 124 has index data in columns C122-1 and C124-1, respectively.

これら辞書データは,ユーザの発話音声の認識入力データ52と一致する索引データと対応する一致入力データ62を検索するために使用される。どの情報の辞書データを参照するかは,ユーザのボタン操作により特定される。すなわち,音声認識された認識入力データ52に一致するデータの検索を広範な辞書データに対して行うのではなく,一致入力データ62の属性をユーザが意図する情報処理に応じて予め分類し,その分類に対応する辞書データを特定して参照することにより,一致入力データの検索の効率化を図ることができる。例えばスケジュール管理などユーザの意図する情報処理に応じて分類した時間情報辞書データ122や場所情報辞書データ124の範囲内に特定することにより,音声認識の効率化を図ることができる。   These dictionary data are used to search the matching input data 62 corresponding to the index data that matches the recognition input data 52 of the user's speech. Which information dictionary data is to be referred to is specified by the user's button operation. That is, instead of searching for a wide range of dictionary data that matches the speech-recognized recognition input data 52, the attributes of the match input data 62 are classified in advance according to the information processing intended by the user. By specifying and referring to the dictionary data corresponding to the classification, it is possible to improve the efficiency of the search for matching input data. For example, by specifying within the range of the time information dictionary data 122 and the location information dictionary data 124 classified according to the information processing intended by the user such as schedule management, the efficiency of voice recognition can be improved.

スケジュールデータ14は,時間情報属性データ142,場所情報属性データ144,スケジュール内容属性データ146といった属性データを有しており,それぞれの属性に対応する属性データが相互に関係付けられ格納されている。これらの関連付けられた属性データは,いつ,どこで,何をするか,という情報を有するスケジュールデータを形成している。   The schedule data 14 has attribute data such as time information attribute data 142, location information attribute data 144, schedule content attribute data 146, and attribute data corresponding to each attribute is stored in association with each other. These associated attribute data form schedule data having information on when, where, and what to do.

辞書データ12における一致入力データ62は,スケジュールデータ14において関係付けられる属性データと同じ属性(データ型やデータ長)を有するデータであるので,一致入力データ62を用いてスケジュールデータ14への入力や,スケジュールデータ14における属性データとのマッチングを行うことができる。   Since the coincidence input data 62 in the dictionary data 12 has the same attributes (data type and data length) as the attribute data related in the schedule data 14, the coincidence input data 62 is used to input data to the schedule data 14. , Matching with the attribute data in the schedule data 14 can be performed.

時間情報辞書データ122を例に説明する。ユーザが発話し,音声認識部により認識された認識入力データ52が「なのか」という文字列であるとすると,時間情報辞書データ122において認識入力データに一致する「なのか」という索引データが行R122−2に存在し,「7日」という時間情報辞書データが対応しているので,この時間情報辞書データ「7日」が認識入力データ52「なのか」に一致する索引データと対応する一致入力データ62である。すると,スケジュールデータ14の時間情報属性データ142に対応する属性データ「7日」は図示したように複数存在しており,時刻の属性データ「PM3時」,「AM9時」,「AM12時」が関係付けられている。   The time information dictionary data 122 will be described as an example. Assuming that the user speaks and the recognition input data 52 recognized by the voice recognition unit is a character string “Nano”, index data “Nano” that matches the recognition input data is stored in the time information dictionary data 122. Since the time information dictionary data “7 days” exists in R122-2, this time information dictionary data “7 days” corresponds to the index data corresponding to the recognition input data 52 “Nano”. This is input data 62. Then, there are a plurality of attribute data “7 days” corresponding to the time information attribute data 142 of the schedule data 14 as shown in the figure, and the time attribute data “PM 3 o'clock”, “AM 9 o'clock”, and “AM 12 o'clock” are stored. It is related.

また,同様にして,上記の時刻の時間情報属性データの中から「PM3時」を選択してユーザが発話すると,認識入力データ52「さんじ」に一致する索引データと対応する一致入力データ62「PM3時」が行R122−1から抽出できる。ここで,「PM3時」は,先に抽出された一致入力データ「7日」とは別の一致入力データである。すると,先に抽出されたスケジュールデータ14の時間情報属性データ「7日」に関係付けられた属性データ「PM3時」は,図示したように複数存在している。ここで,「PM3時」が,先に抽出された時間情報属性データ「7日」とは別の属性データとして抽出される。なお,「7日」,「PM3時」には,場所情報属性データ「市役所」,「学校」,「自宅」がさらに関係付けられている。   Similarly, when “PM3 o'clock” is selected from the time information attribute data at the above time and the user speaks, the matching input data 62 corresponding to the index data matching the recognition input data 52 “Sanji”. “PM3 o'clock” can be extracted from the row R122-1. Here, “PM3 o'clock” is coincident input data different from the previously extracted coincident input data “7 days”. Then, there are a plurality of attribute data “PM3 o'clock” related to the time information attribute data “7 days” of the schedule data 14 extracted earlier as shown in the figure. Here, “PM 3 o'clock” is extracted as attribute data different from the previously extracted time information attribute data “7 days”. The location information attribute data “city hall”, “school”, and “home” are further related to “7 days” and “PM 3 o'clock”.

次に,ユーザの発話に基づく認識入力データ52「しやくしょ」と一致する場所情報辞書データ124における一致入力データ62「市役所」が抽出できる(行R124)。すると,スケジュールデータ14の時間情報属性データ「7日」,「PM3時」に関係付けられた場所情報属性データ「市役所」には,スケジュール内容属性データ「住民票の取得」と「戸籍謄本の取得」がさらに関係付けられているのがわかる。   Next, the matching input data 62 “city hall” in the location information dictionary data 124 that matches the recognition input data 52 “Shiyakusho” based on the user's utterance can be extracted (line R124). Then, in the place information attribute data “city hall” related to the time information attribute data “7 days” and “PM 3 o'clock” in the schedule data 14, the schedule content attribute data “acquire resident's card” and “acquire family register copy” "Is further related.

上記のように,時間情報辞書データ122,場所情報辞書データ124から抽出される一致入力データ62は,それぞれスケジュールデータ14における時間情報属性データ142,場所情報属性データ144に対応し,これらの属性データには,スケジュール内容属性データ146が対応付けられるという関係にある。よって,所望のスケジュール内容属性データを呼び出すためには,時間情報属性データ,場所情報属性データを順次絞り込めばよい。   As described above, the match input data 62 extracted from the time information dictionary data 122 and the location information dictionary data 124 correspond to the time information attribute data 142 and the location information attribute data 144 in the schedule data 14, respectively. Are associated with schedule content attribute data 146. Therefore, in order to call up the desired schedule content attribute data, the time information attribute data and the location information attribute data may be narrowed down sequentially.

なお,辞書データ12,スケジュールデータ14(データベース16)は,いずれも図示したようなテーブル構造を有していなくてもよい。辞書データ12においては,認識入力データ52に一致する索引データと対応する一致入力データ62が関連付けられて格納されていればよく。スケジュールデータ14も,属性データが相互に関係付けられていればよい。   Note that neither the dictionary data 12 nor the schedule data 14 (database 16) need have a table structure as shown. In the dictionary data 12, it is only necessary that index data matching the recognition input data 52 and matching input data 62 corresponding thereto are stored in association with each other. The schedule data 14 may also be associated with attribute data.

図3は,本実施の形態におけるスケジュール情報の呼び出し処理の全体を説明するフローチャート図である。図4〜図9では,図3を参照しながら,スケジュール機能を有する携帯電話機における情報の入力手順を説明する。   FIG. 3 is a flowchart for explaining the entire schedule information calling process according to the present embodiment. 4 to 9, an information input procedure in a mobile phone having a schedule function will be described with reference to FIG.

図4は,操作ボタンの配列と辞書データ12の分類,スケジュールデータ14,および一致入力データ62の情報処理種別判断の対応関係を説明する図である。ボタン入力部30には「1」〜「9」までの操作ボタンが縦横に3個ずつ行列状に配置されており,押下する操作ボタンの位置に基づき,一致入力データ62の属性を判断し,さらにその属性に対応する辞書データ12の種類と,一致入力データ62に基づく情報処理の種別が判断される。具体的には,かかる各操作ボタンに対し,横の行BR1〜BR3には選択する辞書データ12の分類とスケジュールデータの属性を,縦の列BC1〜BC3には一致入力データ62に基づく情報処理の種別TPをそれぞれ対応させている。よって,1個のボタンには,選択する辞書データ12の分類と,一致入力データ62に基づく情報処理の種別の2次元の選択肢が割り当てられている。   FIG. 4 is a diagram for explaining the correspondence relationship between the arrangement of the operation buttons and the classification of the dictionary data 12, the schedule data 14, and the information processing type determination of the matching input data 62. The button input unit 30 has three operation buttons “1” to “9” arranged in rows and columns in the vertical and horizontal directions. Based on the position of the operation button to be pressed, the attribute of the match input data 62 is determined. Further, the type of dictionary data 12 corresponding to the attribute and the type of information processing based on the matching input data 62 are determined. Specifically, for each of the operation buttons, the horizontal rows BR1 to BR3 indicate the classification and schedule data attributes of the dictionary data 12 to be selected, and the vertical columns BC1 to BC3 indicate information processing based on the matching input data 62. The types TP are associated with each other. Therefore, the two-dimensional options of the classification of the dictionary data 12 to be selected and the information processing type based on the matching input data 62 are assigned to one button.

例えば,ボタン「1」,「2」,「3」は時間情報辞書データ122を選択するボタンの行BR1に対応しており,ボタン「3」「6」,「9」は,一致入力データ62に基づく処理「呼び出し」を行う列BC3に対応している。よって,ボタン「3」には,時間情報辞書データ122を参照し,一致入力データ62について処理「呼び出し」を行うという機能が割り当てられている。   For example, the buttons “1”, “2”, “3” correspond to the row BR1 of buttons for selecting the time information dictionary data 122, and the buttons “3”, “6”, “9” correspond to the matching input data 62. This corresponds to the column BC3 that performs the process “calling” based on. Therefore, a function of “calling” the matching input data 62 with reference to the time information dictionary data 122 is assigned to the button “3”.

具体的な処理としては,ユーザがボタン「3」を押下しながら発話した場合は,ボタン入力部30から同入力を受けた情報処理部60は,押下されたボタンの位置に基づき,参照する辞書データ12の分類が時間情報辞書データ122であることを判断する(ステップS10)。一方,音声認識部50は,音声入力部40から供給された音声データ42を認識し,認識入力データ52に変換する(ステップS20)。さらに情報処理部60は,認識入力データ52と一致する一致入力データ62に基づく処理の種別が「呼び出し」であることを判断する。   Specifically, when the user speaks while pressing the button “3”, the information processing unit 60 that receives the input from the button input unit 30 refers to the dictionary to be referred to based on the position of the pressed button. It is determined that the classification of the data 12 is the time information dictionary data 122 (step S10). On the other hand, the voice recognition unit 50 recognizes the voice data 42 supplied from the voice input unit 40 and converts it into recognition input data 52 (step S20). Further, the information processing unit 60 determines that the type of processing based on the matching input data 62 that matches the recognition input data 52 is “calling”.

同様にして,行BR2は場所情報辞書データ124に,行BR3はスケジュール内容属性データ146に対応し,列BC1は認識入力データ52に基づく処理「育成」に,列BC2は処理「入力」に対応している。 なお,処理「呼び出し」とは,一致入力データ62に基づき,既存のスケジュール情報をスケジュールデータ14から取得して出力する処理を言い,処理「入力」とは,一致入力データ62に基づき,新規のスケジュール情報をスケジュールデータ14へ登録する処理を言い,処理「育成」とは,認識入力データ52に基づき,辞書データ12へ抽出可能な新規の登録を行う処理を言う。   Similarly, the row BR2 corresponds to the location information dictionary data 124, the row BR3 corresponds to the schedule content attribute data 146, the column BC1 corresponds to the process “growth” based on the recognition input data 52, and the column BC2 corresponds to the process “input”. is doing. The process “call” refers to a process of acquiring and outputting the existing schedule information from the schedule data 14 based on the match input data 62, and the process “input” refers to a new process based on the match input data 62. The process of registering schedule information in the schedule data 14 is referred to as the process “nurturing” refers to a process of performing new registration that can be extracted into the dictionary data 12 based on the recognition input data 52.

以上のように,一致入力データの属性に対応する情報処理とは,「時間」の属性を有する一致入力データと一致する属性データをスケジュールデータ14から検索したり,「場所」の属性を有する一致入力データと一致する属性データを検索したりというように,一致入力データの異なる属性に応じて異なる情報処理がなされることを言う。さらに,情報処理の種別とは,これら異なる情報処理のそれぞれにおいて,一致入力データと一致する属性データの検索・抽出(呼び出し)や,入力(登録)などを行うことを言う。このように,辞書データの分類を2次元配列された操作ボタンの行に,一致入力データに基づく情報処理の種別を操作ボタンの列に対応付けることにより,ユーザは情報処理の目的に応じた辞書選択を直感的に行うことができる。また,辞書分類と処理種別といった異なる2次元の選択肢に対する選択が1の操作ボタンを押下することにより同時に行うことができるので,ボタン操作が簡略化される。さらに,ボタン操作と同時に発話を行うので,辞書の分類,処理の種別,発話内容と3次元の異なる入力を同時に携帯電話機に与えることができ,簡便な操作性を実現できる。なお,1つの操作ボタンに複数次元の選択肢を割り当てられていれば,必ずしも操作ボタンは行列状に配置されていなくてもよい。   As described above, the information processing corresponding to the attribute of the matched input data refers to searching for the attribute data matching the matched input data having the “time” attribute from the schedule data 14 or the matching having the “location” attribute. This means that different information processing is performed according to different attributes of the matched input data, such as searching for attribute data that matches the input data. Furthermore, the type of information processing refers to searching / extracting (calling) or inputting (registering) attribute data matching the matched input data in each of these different information processings. In this way, the user can select a dictionary according to the purpose of information processing by associating dictionary data classifications with two-dimensionally arranged operation button rows and information processing types based on matched input data with operation button columns. Can be done intuitively. In addition, selection of different two-dimensional options such as dictionary classification and processing type can be performed simultaneously by pressing one operation button, so that the button operation is simplified. Furthermore, since the utterance is performed simultaneously with the button operation, the dictionary classification, processing type, utterance content and three-dimensional different inputs can be given to the mobile phone at the same time, and simple operability can be realized. Note that the operation buttons do not necessarily have to be arranged in a matrix as long as a plurality of options are assigned to one operation button.

上述したようなボタン入力部30の列BC3に位置するボタン「3」,「6」,「9」の操作により,処理「呼び出し」を行う場合の画像表示部80が表示する画面遷移例を図5〜7を用いて説明する。   A screen transition example displayed by the image display unit 80 when the process “call” is performed by operating the buttons “3”, “6”, and “9” positioned in the column BC3 of the button input unit 30 as described above. 5 to 7 will be used for explanation.

図5は,画像表示部80が表示する,携帯電話機のスケジュール機能を呼び出した場合の,入力待ち画面を説明する図である。初期画面としてカレンダーを表示し,カレンダー上に「いつ?」と表示することにより,ユーザに時間情報属性データ142に関する入力を促す。   FIG. 5 is a diagram for explaining an input waiting screen when the schedule function of the mobile phone displayed by the image display unit 80 is called. By displaying a calendar as an initial screen and displaying “when?” On the calendar, the user is prompted to input regarding the time information attribute data 142.

図6は,図5の指示待ち画面に対する入力操作,データの対応関係,及び表示画面例を関連付けて説明する図である。まず,図6(A)では,時間情報辞書データ122について日付を入力する場合を説明している。ユーザはボタン「3」を押下しながら「なのか」と発話すると,プッシュボタン押下信号32がボタン入力部30に,音声データ42が音声入力部40に供給される(図3のステップIN32,IN42)。ボタン「3」の押下信号32を受けて情報処理部60は時間情報辞書データ122を選択し(ステップS10),音声認識部50が認識した(ステップS20)認識入力データ52「なのか」と一致する索引データと対応する一致入力データ62を前記辞書から抽出する(ステップS30)。なお,ステップS10とステップS20の後先は逆でもよく,同時でもよい。   FIG. 6 is a diagram illustrating the input operation on the instruction waiting screen in FIG. 5, the correspondence between data, and a display screen example in association with each other. First, FIG. 6A illustrates a case where a date is input for the time information dictionary data 122. When the user speaks “What?” While pressing the button “3”, the push button pressing signal 32 is supplied to the button input unit 30 and the voice data 42 is supplied to the voice input unit 40 (steps IN32 and IN42 in FIG. 3). ). In response to the push signal 32 of the button “3”, the information processing unit 60 selects the time information dictionary data 122 (step S10) and matches the recognition input data 52 “Nano” recognized by the voice recognition unit 50 (step S20). The matching input data 62 corresponding to the index data to be extracted is extracted from the dictionary (step S30). Note that the steps after step S10 and step S20 may be reversed or simultaneous.

図2で説明したように時間情報辞書データ122には「7日」という一致入力データ62が存在するので,情報処理部60は時間情報辞書データ「7日」を抽出する。そして,スケジュールデータ14の時間情報属性データ142を検索すると(図3のステップS40),属性データ「7日」が複数存在しており,それぞれに時刻を表す時間情報属性データ,場所情報属性データ,スケジュール内容属性データが関係付けられている。   As described with reference to FIG. 2, since the coincidence input data 62 “7 days” exists in the time information dictionary data 122, the information processing unit 60 extracts the time information dictionary data “7 days”. When the time information attribute data 142 of the schedule data 14 is searched (step S40 in FIG. 3), there are a plurality of attribute data “seven days”, each of which includes time information attribute data, location information attribute data, Schedule content attribute data is related.

よって,図6(A)のように,画像表示部80には「7日」に関係付けられた時刻,場所のリストが表示され(ステップS42),さらに「何時?」と表示しユーザに選択入力を促している。よって,ユーザはスケジュールデータを絞り込むために時刻を入力する際は,再度操作ボタンを押下しながら上記リストのなかから選択した時刻を発話すればよい(ステップS50のYES)。   Therefore, as shown in FIG. 6A, the image display unit 80 displays a list of times and places related to “7 days” (step S42), and further displays “What time?” And is selected by the user. Prompt for input. Therefore, when inputting time to narrow down the schedule data, the user may speak the time selected from the list while pressing the operation button again (YES in step S50).

次に図6(B)では,時間情報辞書データ122について時刻を入力する場合を説明している。上記同様,ユーザはボタン「3」を押下しながら「さんじ」と発話する。ボタン「3」の押下信号32を受けて情報処理部60は時間情報辞書データ122を選択し(図3のステップS10),音声認識部50が認識した(ステップS20)認識入力データ52「さんじ」と一致する索引データと対応する一致入力データ62を前記辞書から抽出する(ステップS30)。すると,時間情報「PM3時」が抽出される。   Next, FIG. 6B illustrates a case where time is input for the time information dictionary data 122. As described above, the user speaks “Sanji” while pressing the button “3”. In response to the push signal 32 for the button “3”, the information processing section 60 selects the time information dictionary data 122 (step S10 in FIG. 3), and the speech recognition section 50 recognizes (step S20). The matching input data 62 corresponding to the index data matching "" is extracted from the dictionary (step S30). Then, time information “PM3 o'clock” is extracted.

そして,スケジュールデータ14の時間情報属性データ142を検索すると(ステップS40),図2に示すように属性データ「PM3時」が複数存在しており,それぞれに場所を表す場所情報属性データ144,スケジュール内容属性データ146が関係付けられている。よって,図6(B)に示すように,画像表示部80には「7日」の「PM3時」に関係付けられた場所が表示され,さらに「どこで?」と表示しユーザに場所の選択入力を促している(図3のステップS42)。よって,ユーザは場所の入力においては,再度操作ボタンを押下しながら上記リストのなかから選択した場所を発話すればよい(ステップS50のYES)。   Then, when the time information attribute data 142 of the schedule data 14 is searched (step S40), a plurality of attribute data “PM3 o'clock” exists as shown in FIG. Content attribute data 146 is associated. Therefore, as shown in FIG. 6 (B), the location related to “3 o'clock” of “7 days” is displayed on the image display unit 80, and further “Where?” Is displayed and the user selects the location. The input is prompted (step S42 in FIG. 3). Therefore, the user only has to speak the place selected from the list while pressing the operation button again when inputting the place (YES in step S50).

図7は,場所情報の入力操作,データの対応関係,及び表示画面例を関連付けて説明する図である。ユーザはボタン「6」を押下しながら「しやくしょ」と発話する。ボタン「6」の押下信号32を受けて情報処理部60は場所情報辞書データ124を選択し(図3のステップS10),音声認識部50が認識した(ステップS20)認識入力データ52「しやくしょ」と一致する索引データと対応する一致入力データ62を前記辞書から抽出する(ステップS30)。すると「市役所」という一致入力データ62が抽出される。   FIG. 7 is a diagram illustrating the location information input operation, data correspondence, and a display screen example in association with each other. The user speaks “Yakusoku” while pressing the button “6”. In response to the push signal 32 of the button “6”, the information processing unit 60 selects the location information dictionary data 124 (step S10 in FIG. 3), and the speech recognition unit 50 recognizes (step S20). The matching input data 62 corresponding to the index data matching "" is extracted from the dictionary (step S30). Then, the coincidence input data 62 “city hall” is extracted.

そして,スケジュールデータ14の場所情報144を検索すると(ステップS40),図2に示すように属性データ「市役所」が複数存在しており,それぞれにはスケジュール内容属性データ「住民票の取得」,「戸籍謄本の取得」が関係付けられている。よって,図7に示すとおり,画像表示部80には「7日」,「市役所」に関係付けられたスケジュール内容に関する語をユーザに入力させるよう「何を?」と表示しユーザに選択入力を促している(図3のステップS42)。また,場所情報144の「市役所」に関係付けられたスケジュール内容属性データ146の存在を,図7の図形P1により表現することもできる。   Then, when the location information 144 of the schedule data 14 is searched (step S40), there are a plurality of attribute data “city halls” as shown in FIG. Acquired certified copy of family register ”. Therefore, as shown in FIG. 7, “What?” Is displayed on the image display unit 80 so that the user inputs words related to the schedule contents related to “7th” and “City Hall”, and the user inputs a selection. (Step S42 in FIG. 3). Further, the existence of the schedule content attribute data 146 related to the “city hall” of the location information 144 can be expressed by the graphic P1 of FIG.

図8は,スケジュール内容の入力を促された場合の入力操作,データの対応関係,及び出力を関連付けて説明する図である。ユーザは,すでに抽出されたスケジュール内容属性データ146を出力するための入力を行う(ステップS50のNO,S60)。そこで,ユーザはボタン「9」を押下しながら「じゅうみんひょう」と発話する。ボタン「9」の押下信号32を受けて情報処理部60はスケジュール内容に関する発話がなされ音声データ42が入力されたことを判断する。   FIG. 8 is a diagram for explaining the input operation, the data correspondence, and the output in a case where the input of the schedule content is prompted. The user performs input for outputting the schedule content attribute data 146 already extracted (NO in step S50, S60). Therefore, the user speaks “Juminhyo” while pressing the button “9”. In response to the press signal 32 of the button “9”, the information processing section 60 determines that the speech regarding the schedule contents has been made and the voice data 42 has been input.

本実施の形態では,スケジュール内容属性データ146は音声データとして格納されているので,情報処理部60は,前記音声データ42と,格納された音声データであるスケジュール内容属性データ146を比較し,スケジュール内容属性データ146から音声データ42と近似する順番に抽出し,音声出力部90から出力する。すなわち,音声データ42の「じゅうみんひょう」に最も近似するのは,スケジュール内容属性データ「住民票の取得」であるので,「じゅうみんひょうのしゅとく」と音声が再生される(ステップS60)。または,発話をせずに,スケジュール内容属性データ146の存在を表現した図形P1(図7)をボタン操作により選択して,音声データを再生することもできる。   In this embodiment, since the schedule content attribute data 146 is stored as audio data, the information processing unit 60 compares the audio data 42 with the schedule content attribute data 146 that is the stored audio data, and schedule The content attribute data 146 is extracted in the order approximate to the audio data 42 and is output from the audio output unit 90. That is, since the voice data 42 most closely resembles “Juminhyo” is the schedule content attribute data “acquisition of resident's card”, the voice “Juminhyo no Shutoku” is reproduced (step S60). . Alternatively, the voice data can be reproduced by selecting the figure P1 (FIG. 7) expressing the existence of the schedule content attribute data 146 by operating the button without speaking.

上述した入力手順によれば,ユーザは「時間」や「場所」を音声入力する際にこれらの属性に対応する辞書データを直感的に配置されたボタン操作により選択できるので,例えば50音のいずれかを入力する場合に比べると,操作が簡便に行える。また,一致入力データの属性別に分類した辞書データを参照するので,音声認識の精度が向上し,スケジュールデータへの入出力を効率的に行うことができる。さらに,スケジュールデータ内の所望の「スケジュール内容」については音声により入出力をすることができ,従来のボタンによる文字入力に比べ,多くの情報量であっても容易に入出力することができる。   According to the input procedure described above, the user can select dictionary data corresponding to these attributes by an intuitive button operation when inputting “time” or “location” by voice. Compared with the case of inputting K, the operation can be performed easily. In addition, since dictionary data classified by attribute of coincident input data is referred to, the accuracy of speech recognition is improved, and input / output to schedule data can be performed efficiently. Furthermore, the desired “schedule contents” in the schedule data can be input / output by voice, and can be easily input / output even with a large amount of information compared to character input using conventional buttons.

図5〜図8では,時間,場所,スケジュール内容という順番にスケジュールデータの呼び出しを行う場合を示したが,上記入力例の変形例を図9で説明する。   5 to 8 show a case where schedule data is called in the order of time, place, and schedule content, a modified example of the above input example will be described with reference to FIG.

図9は,場所情報から入力する場合の表示画面例を説明する図である。まず,ユーザが携帯電話機のスケジュール機能を起動した時には図9(A)のようなカレンダーを表示する。すると,カレンダーの一部を拡大した図9(B)のように,例えば時間情報「14日」には場所情報「学校」と「市役所」に関係付けられたスケジュール内容が格納されていることが図形P1を用いて表示される。すなわち,時間情報は絞り込みを行わずに一覧表示し,時間情報に関係付けされた場所情報とスケジュール情報を表示する画面例である。   FIG. 9 is a diagram for explaining an example of a display screen when inputting from location information. First, when the user activates the schedule function of the mobile phone, a calendar as shown in FIG. 9A is displayed. Then, as shown in FIG. 9B, which is an enlarged view of a part of the calendar, for example, the time information “14th” may contain schedule information related to the location information “school” and “city hall”. It is displayed using the figure P1. That is, the time information is a screen example that displays a list without narrowing down and displays location information and schedule information related to the time information.

ここで,ユーザは上述した場所情報142の入力手順に従って,例えば「市役所」という場所情報を操作ボタンを押下しながら発話して入力すると,「市役所」に関係付けされたスケジュール内容の音声再生をすることができる。   Here, when the user utters and inputs, for example, the location information “City Hall” while pressing the operation button in accordance with the input procedure of the location information 142 described above, the audio of the schedule content related to “City Hall” is reproduced. be able to.

また,スケジュール機能の起動時に図9(C)に示すように地図を表示させることもできる。この場合,時間情報は,ユーザがスケジュール機能を起動した日付が用いられる。同図の一部を拡大した図9(D)には,地図上の市役所の位置に,場所情報「市役所」に関係付けられたスケジュール内容が格納されていることが図形P1を用いて表示される。ここで,ユーザは上述した場所情報142の入力手順に従って,例えば「市役所」という場所情報を操作ボタンを押下しながら発話して入力すると,「市役所」に関係付けされたスケジュール内容の音声再生をすることができる。   Further, a map can be displayed as shown in FIG. 9C when the schedule function is activated. In this case, the date when the user activates the schedule function is used as the time information. FIG. 9D, which is an enlarged view of the same figure, shows that the schedule contents related to the place information “city hall” are stored at the location of the city hall on the map using the graphic P1. The Here, when the user utters and inputs, for example, the location information “City Hall” while pressing the operation button in accordance with the input procedure of the location information 142 described above, the audio of the schedule content related to “City Hall” is reproduced. be able to.

上記のような変形例によれば,カレンダーや地図といった直感的な表示形態を用い,より短縮された手順でスケジュール内容を確認することが可能となる。   According to the modified example as described above, it is possible to confirm the schedule contents by a more shortened procedure using an intuitive display form such as a calendar or a map.

図10〜図14は,一致入力データ62に基づく処理の種別が「入力」である場合の手順を説明している。   10 to 14 illustrate a procedure when the type of processing based on the coincidence input data 62 is “input”.

図10は,入力手順の全体の流れを説明するフローチャート図である。図3におけるステップS10〜S30と共通する手順の後,ステップS30から続く手順を説明している。本フローチャート図を参照しながら,図11〜図13の入力手順の画面遷移を説明する。   FIG. 10 is a flowchart for explaining the overall flow of the input procedure. A procedure following step S30 after step S10 to step S30 in FIG. 3 is described. Screen transition of the input procedure of FIGS. 11 to 13 will be described with reference to the flowchart.

図11は,時間情報属性データ142について日付を入力する場合の入力操作,データの対応関係,及び表示画面例を関連付けて説明する図である。ユーザはボタン「2」を押下しながら「ようか」と発話する。ボタン「2」の押下信号32を受けて情報処理部60は時間情報辞書データ122を選択し(図3のステップS10),音声認識部50が認識した(ステップS20)認識入力データ52「ようか」と一致する索引データと対応する一致入力データ62「8日」を前記辞書から抽出する(ステップS30)。   FIG. 11 is a diagram illustrating the input operation, the data correspondence, and the display screen example in association with each other when inputting the date for the time information attribute data 142. The user speaks “Yoka” while pressing the button “2”. In response to the pressing signal 32 of the button “2”, the information processing unit 60 selects the time information dictionary data 122 (step S10 in FIG. 3), and the speech recognition unit 50 recognizes (step S20). The matching input data 62 “8 days” corresponding to the index data matching “” is extracted from the dictionary (step S30).

また,情報処理部60は,ボタン「2」の位置する列は処理「入力」に対応する列BC2(図4)であることから,前記一致入力データ62「8日」をスケジュールデータ14に格納する処理を実行する(図10のステップS140)。このような処理の結果,画像表示部80には,図11のように時間情報属性データ「8日」が格納されたことが表示され,さらに「どこで?」と表示しユーザに「8日」に関係付けられた場所の入力を促している。   The information processing section 60 stores the coincidence input data 62 “8 days” in the schedule data 14 because the column in which the button “2” is located is the column BC2 (FIG. 4) corresponding to the process “input”. Is executed (step S140 in FIG. 10). As a result of such processing, the image display unit 80 displays that the time information attribute data “8 days” is stored as shown in FIG. 11, and further displays “Where?” To the user and “8 days”. Prompt for the location associated with the.

図12は,場所情報属性データ144について場所情報を入力する場合の入力操作,データの対応関係,及び表示画面例を関連付けて説明する図である。ユーザはボタン「5」を押下しながら「がっこう」と発話する。ボタン「5」の押下信号32を受けて情報処理部60は場所情報辞書データ124を選択し(図3のステップS10),音声認識部50が認識した(ステップS20)認識入力データ52「がっこう」と一致する索引データと対応する一致入力データ62「学校」を前記辞書から抽出する(ステップS30)。  FIG. 12 is a diagram illustrating the input operation, the data correspondence, and the display screen example when inputting location information for the location information attribute data 144. The user speaks “Gakukko” while pressing the button “5”. In response to the pressing signal 32 of the button “5”, the information processing section 60 selects the location information dictionary data 124 (step S10 in FIG. 3), and the speech recognition section 50 recognizes (step S20). The matching input data 62 “school” corresponding to the index data matching “Kou” is extracted from the dictionary (step S30).

情報処理部60は,前記時間情報属性データ142の新規の属性データ「8日」に関係付けて,場所情報属性データ144に対する新規の属性データとして「学校」をスケジュールデータ14に登録する処理を実行する(図10のステップS140)。このような処理の結果,画像表示部80には,時間情報属性データ「8日」に続いて場所情報属性データ「学校」が登録されたことが表示され,さらに「何を?」と表示しユーザに「8日」と「学校」に関係付けられたスケジュール内容の入力を促している。   The information processing unit 60 performs processing for registering “school” in the schedule data 14 as new attribute data for the location information attribute data 144 in association with the new attribute data “8 days” of the time information attribute data 142. (Step S140 in FIG. 10). As a result of such processing, the image display unit 80 displays that the location information attribute data “school” is registered after the time information attribute data “8 days”, and further displays “What?”. The user is prompted to input schedule contents related to “8 days” and “school”.

図13は,スケジュール内容属性データ146について音声入力する場合の入力操作,データの対応関係,及び表示画面例を関連付けて説明する図である。ユーザはボタン「8」を押下しながら「じゅぎょうさんかん」と発話する。ボタン「8」の押下信号32を受けて情報処理部60は入力された音声データの属性はスケジュールデータ14におけるスケジュール内容属性データ146に対応していると判断し,すでに関係付けられた時間情報属性データ「8日」と場所情報属性データ「学校」に関係付けて,スケジュール内容属性データ146として音声データ「じゅぎょうさんかん(授業参観)」をスケジュールデータ14に登録する(図10のステップS140)。   FIG. 13 is a diagram illustrating the schedule content attribute data 146 in association with input operations, data correspondences, and display screen examples in association with each other. The user speaks “Juyosankan” while pressing the button “8”. In response to the press signal 32 of the button “8”, the information processing unit 60 determines that the attribute of the input voice data corresponds to the schedule content attribute data 146 in the schedule data 14, and the already associated time information attribute In association with the data “8 days” and the place information attribute data “school”, the voice data “Juyosankan (visiting class)” is registered in the schedule data 14 as the schedule content attribute data 146 (step S140 in FIG. 10).

このような処理の結果,図13で示すように画像表示部80には,時間情報属性データ「8日」,場所情報属性データ「学校」に関係づけられてスケジュール内容属性データ146に「授業参観」が音声データとして登録されたことが図P1で表示される。そして,スケジュールデータとして必要な属性データの入力が完了したら終了する(図10のステップS150のNO)。   As a result of such processing, as shown in FIG. 13, the image display unit 80 is associated with the time information attribute data “8 days” and the location information attribute data “school” in the schedule content attribute data 146 as “class visit”. "Is registered as voice data in FIG. P1. Then, when the input of attribute data necessary as schedule data is completed, the process ends (NO in step S150 of FIG. 10).

以上の手順により,ユーザは入力する情報の属性に応じた辞書選択を直感的に行うことができるので,ボタン操作が簡略化されるとともに,発話した音声データの音声認識も精度よく行うことができ,効率よくスケジュールデータの登録を行うことができる。   Through the above procedure, the user can intuitively select a dictionary according to the attribute of the information to be input, so that the button operation is simplified and the speech recognition of the spoken speech data can be performed with high accuracy. , Schedule data can be registered efficiently.

図14は,認識入力データ52に基づく情報処理の種別が「育成」である場合の入力操作と,データの対応関係,及び画面の表示例を関連付けて説明する図である。例えば,ユーザが「呼び出し」や「入力」の処理を行った際に,「はつか」という発話に対応する認識入力データ52と一致する索引データと対応する一致入力データ62が時間情報辞書データ122に存在しなかったとする。そのような場合に,「はつか」という発話に一致する時間情報を入力し,辞書を育成することができる。   FIG. 14 is a diagram illustrating the input operation when the type of information processing based on the recognition input data 52 is “nurturing”, the correspondence relationship between the data, and a display example of the screen. For example, when the user performs a “calling” or “input” process, the matching input data 62 corresponding to the index data matching the recognition input data 52 corresponding to the speech “Hatsuka” is the time information dictionary data 122. Is not present. In such a case, the dictionary can be trained by inputting time information that matches the utterance “Hatsuka”.

ユーザはボタン「1」を押下しながら,「はつか」と発話すると,ボタン「1」の押下信号32を受けて情報処理部60は入力された音声データの属性は時間情報辞書データ122に対応しており,当該認識入力データ52に対する育成処理を行うことを判断する。よって,画像表示部80は,カレンダーを表示し,ユーザが「20日」をボタン操作で特定したら,「はつか」という認識入力データ52には時間情報「20日」が対応するということを時間情報辞書データ122に登録することができる。よって,ユーザは,一致入力データ62の候補となる辞書データを適宜増加させることにより,以後の音声認識の精度を向上させることができる。   When the user speaks “Hatsuka” while pressing the button “1”, the information processing unit 60 receives the pressing signal 32 of the button “1” and the attribute of the input voice data corresponds to the time information dictionary data 122 It is determined that the training process for the recognition input data 52 is performed. Therefore, the image display unit 80 displays a calendar, and if the user specifies “20 days” by a button operation, the time information “20 days” corresponds to the recognition input data 52 “Hatsuka”. It can be registered in the information dictionary data 122. Therefore, the user can improve the accuracy of subsequent speech recognition by appropriately increasing the dictionary data as candidates for the matching input data 62.

図15〜図19では,携帯電話機を外部機器の入力装置として利用し,携帯電話機の記憶部10に格納された画像データとともに,同画像データに対する加工処理のコマンドを外部機器に送信する場合の実施形態を説明している。図1で説明したように,本実施形態では,辞書データ12の内容は,外部機器に対するコマンドを特定する変数の辞書データに,データベース16の内容は,前記変数にコマンドを対応させたアルゴリズムデータに置き換わる。   In FIGS. 15 to 19, when a mobile phone is used as an input device for an external device, a processing command for the image data is transmitted to the external device together with the image data stored in the storage unit 10 of the mobile phone. Explains the form. As described with reference to FIG. 1, in this embodiment, the contents of the dictionary data 12 are dictionary data of variables that specify commands for external devices, and the contents of the database 16 are algorithm data in which commands are associated with the variables. Replace.

図15は,ボタン入力部30,辞書データ12の分類,および一致入力データ62に基づく情報処理種別の対応関係を説明する図である。押下する操作ボタンの位置に基づき,一致入力データ62の属性を判断し,さらにその属性に対応する辞書データ12の種類と,一致入力データ62に基づく情報処理の種別が判断される。すなわち,ボタン「1」,「2」,「3」は辞書データ12の被写体情報辞書データ123を選択するボタンの行BR11に対応しており,行BR21は色加工情報辞書データ125に対応しており,行BR31は印刷時の枚数情報辞書データ127に対応している。たとえば,被写体情報辞書データ123の内容は,「人物」,「スポーツ」,「屋内」,「風景」といった変数である。   FIG. 15 is a diagram for explaining the correspondence relationship between the button input unit 30, the classification of the dictionary data 12, and the information processing type based on the coincidence input data 62. Based on the position of the operation button to be pressed, the attribute of the matching input data 62 is determined, and the type of the dictionary data 12 corresponding to the attribute and the type of information processing based on the matching input data 62 are determined. That is, the buttons “1”, “2”, and “3” correspond to the row BR11 of the button for selecting the subject information dictionary data 123 of the dictionary data 12, and the row BR21 corresponds to the color processing information dictionary data 125. The row BR31 corresponds to the number information dictionary data 127 at the time of printing. For example, the contents of the subject information dictionary data 123 are variables such as “person”, “sports”, “indoor”, and “landscape”.

一方,縦の列BC11は,使用する外部機器がPCなどの外部ファイル装置240である場合,BC21は使用する外部機器がテレビジョン装置などの外部映像表示装置200である場合,そしてBC31は使用する外部機器がプリンタなどの外部画像形成装置220である場合の処理の種別TPに対応している。   On the other hand, the vertical column BC11 is used when the external device used is an external file device 240 such as a PC, BC21 is used when the external device used is the external video display device 200 such as a television device, and BC31 is used. This corresponds to the processing type TP when the external device is the external image forming apparatus 220 such as a printer.

なお,1つの操作ボタンに複数次元の選択肢を割り当てられていれば,必ずしも操作ボタンは行列状に配置されていなくてもよい。     Note that the operation buttons do not necessarily have to be arranged in a matrix as long as a plurality of options are assigned to one operation button.

図16は,入力する変数にコマンドを対応させたアルゴリズムデータを説明する図である。図16(A)は,被写体情報辞書データ123の変数を列123aに,前記変数に対応する画像加工コマンドを列123bに関係付けたアルゴリズムデータ15Aをテーブル形式に表現したものである。たとえば,被写体「人物」が入力された場合には,「顔を認識し,肌色を所定の色になるように色調整」する画像加工が施されるコマンドが抽出される(行R123)。図16(B)は,色加工情報辞書データ125の各変数を列125aに,前記変数に対応する色加工コマンドを列125bに関係付けたアルゴリズムデータ15Bをテーブル形式に表現したものである。たとえば,色加工「明るく」が選択された場合には,「明度を高く補正」する色加工が施されるコマンドが抽出される(行R125)。これらアルゴリズムデータは,便宜上テーブル形式で表現しているが,変数と各コマンドが関係付けられていればテーブル形式でなくてもよい。   FIG. 16 is a diagram for explaining algorithm data in which a command is associated with an input variable. FIG. 16A is a table format of the algorithm data 15A in which the variable of the subject information dictionary data 123 is associated with the column 123a and the image processing command corresponding to the variable is associated with the column 123b. For example, when the subject “person” is input, a command for performing image processing for “recognizing the face and adjusting the skin color to a predetermined color” is extracted (line R123). FIG. 16B represents the algorithm data 15B in the form of a table in which each variable of the color processing information dictionary data 125 is associated with the column 125a and the color processing command corresponding to the variable is associated with the column 125b. For example, when color processing “bright” is selected, a command to be subjected to color processing for “correcting the brightness high” is extracted (line R125). These algorithm data are expressed in a table format for convenience, but may not be in a table format as long as variables and commands are associated with each other.

図17は,使用する外部機器に対応する処理の種別の種類を列129aに,前記種別に対応する画像加工コマンドを列129bに関係付けたアルゴリズムデータ16を説明する図である。便宜上,テーブル形式で表現しているが,外部機器の種類と画像加工コマンドが関係付けられていればテーブル形式でなくてもよい。例えば,PCなどの外部ファイル装置240に画像データを転送する場合は,「圧縮率が高くなるように画像加工」するコマンドが抽出されることを示している(行T11)。   FIG. 17 is a diagram for explaining the algorithm data 16 in which the type of processing corresponding to the external device to be used is related to the column 129a and the image processing command corresponding to the type is related to the column 129b. For convenience, the table format is used. However, the table format may not be used as long as the external device type and the image processing command are associated with each other. For example, when image data is transferred to an external file device 240 such as a PC, a command for “image processing so as to increase the compression rate” is extracted (line T11).

画像データを外部画像形成装置220に転送する処理の手順を例とした画面遷移を図18〜19により説明する。また,処理手順のフローチャートは,図3が適用される。   Screen transitions taking as an example a processing procedure for transferring image data to the external image forming apparatus 220 will be described with reference to FIGS. Further, FIG. 3 is applied to the flowchart of the processing procedure.

図18は,画像表示装置に表示される初期画面の画面例を説明する図である。まず,図18(A)の表示画面例では,「被写体?」などと表示することにより,ユーザの入力を促す。図18(B)は,被写体情報の入力操作,データの対応関係,及び表示画面例を関連付けて説明している。ユーザはボタン「3」を押下しながら「じんぶつ」と発話する。ボタン「3」の押下信号32を受けて情報処理部60は被写体情報辞書データ123を選択し(図3のステップS10),音声認識部50が認識した(ステップS20)認識入力データ52「じんぶつ」と一致する索引データと対応する一致入力データ62「人物」を前記辞書から抽出する(ステップS30)。   FIG. 18 is a diagram illustrating an example of an initial screen displayed on the image display device. First, in the display screen example of FIG. 18A, “Subject?” Or the like is displayed to prompt the user to input. FIG. 18B illustrates the subject information input operation, data correspondence, and display screen example in association with each other. The user utters “Jimbutsu” while pressing the button “3”. Upon receipt of the button “3” pressing signal 32, the information processing section 60 selects the subject information dictionary data 123 (step S10 in FIG. 3), and the speech recognition section 50 recognizes (step S20). The matching input data 62 “person” corresponding to the index data matching “” is extracted from the dictionary (step S30).

そして,図16(A)のアルゴリズムデータ15Aの被写体情報123から一致入力データ62「人物」と一致する属性データ「人物」を検索し(図3のステップS40),同属性データに対応付けられた画像加工コマンドを抽出する。また,情報処理部60は,使用する対象機器が外部画像形成装置220であることをボタン「3」の列から判断し,図17のアルゴリズムデータ16において対応する「印刷向けの画像加工」を施すコマンドを抽出する。さらに,図18(B)に示すように画像表示装置80に「色加工?」などと表示することにより,ユーザの入力を促す。   Then, the attribute data “person” that matches the match input data 62 “person” is searched from the subject information 123 of the algorithm data 15A of FIG. 16A (step S40 in FIG. 3), and is associated with the attribute data. Extract image processing commands. Further, the information processing section 60 determines from the column of the button “3” that the target device to be used is the external image forming apparatus 220, and performs the corresponding “image processing for printing” in the algorithm data 16 of FIG. Extract commands. Further, as shown in FIG. 18B, the user is prompted to input by displaying “color processing?” Or the like on the image display device 80.

図19は,色加工情報の入力操作,データの対応関係,及び表示画面例を関連付けて説明する図である。ユーザはボタン「6」を押下しながら「あかるく」と発話する。ボタン「6」の押下信号32を受けて情報処理部60は色加工情報辞書データ125を選択し(図3のステップS10),音声認識部50が認識した(ステップS20)認識入力データ52「あかるく」と一致する索引データと対応する一致入力データ62「明るく」を前記辞書から抽出する(ステップS30)。そして,アルゴリズムデータ15Bの色加工情報125aから属性データ「明るく」を検索し(ステップS40),同属性データに対応付けられた色加工コマンド「明度を高く補正する」を抽出する。さらに,図19に示すように画像表示装置80に「何枚?」などと表示することにより,ユーザの入力を促す。   FIG. 19 is a diagram illustrating the color processing information input operation, data correspondence, and a display screen example in association with each other. The user speaks “Akaruku” while pressing the button “6”. In response to the pressing signal 32 of the button “6”, the information processing section 60 selects the color processing information dictionary data 125 (step S10 in FIG. 3), and the speech recognition section 50 recognizes (step S20). The matching input data 62 “bright” corresponding to the index data matching “” is extracted from the dictionary (step S30). Then, the attribute data “bright” is searched from the color processing information 125a of the algorithm data 15B (step S40), and the color processing command “correct lightness” associated with the attribute data is extracted. Further, as shown in FIG. 19, “how many?” Is displayed on the image display device 80 to prompt the user to input.

図20は,枚数情報の入力操作,データの対応関係,及び出力を関連付けて説明する図である。ユーザはボタン「9」を押下しながら「ごまい」と発話する。ボタン「9」の押下信号32を受けて情報処理部60は枚数情報辞書データ127を選択し(図3のステップS10),音声認識部50が認識した(ステップS20)認識入力データ52「ごまい」と一致する索引データと対応する一致入力データ62「5枚」を前記辞書から抽出し(ステップS30),前記抽出済みの,被写体「人物」についての画像加工コマンド,色加工方法「明るく」についての色加工コマンド,印刷機向けの画像加工コマンドとともに一連のコマンドとして,画像データとともに外部画像形成装置220に送信する。   FIG. 20 is a diagram for explaining the number information input operation, data correspondence, and output in association with each other. The user utters “Sweet” while pressing the button “9”. In response to the pressing signal 32 of the button “9”, the information processing section 60 selects the number information dictionary data 127 (step S10 in FIG. 3), and the speech recognition section 50 recognizes (step S20). The matching input data 62 “5 sheets” corresponding to the index data matching “” is extracted from the dictionary (step S 30), and the extracted image processing command for the subject “person” and the color processing method “bright” are extracted. Are transmitted to the external image forming apparatus 220 together with the image data as a series of commands together with the color processing command and the image processing command for the printing press.

上記の手順により,ユーザは外部のプリンタや画像表示装置などに対する画像加工コマンドを音声入力とボタン操作により入力し,画像データとともに一連のコマンドをプリンタ等に送信できるので,携帯電話機などを外部機器の入力装置として利用することができる。   According to the above procedure, the user can input image processing commands to an external printer or image display device by voice input and button operation, and can send a series of commands to the printer together with the image data. It can be used as an input device.

以上のとおり,複数の異なる次元の入力情報に基づき出力を得るような情報処理装置において,複数次元の選択肢が割り当てられた操作ボタンと音声入力を組み合わせることにより,操作を簡便化しつつ音声認識の精度を向上させ,入力を効率よく行うことができる。   As described above, in an information processing apparatus that obtains output based on input information of a plurality of different dimensions, the accuracy of voice recognition is simplified while simplifying the operation by combining operation buttons assigned with multi-dimensional options and voice input. And input can be performed efficiently.

本実施の形態におけるシステムの概略構成図である。It is a schematic block diagram of the system in this Embodiment. 辞書データ12とスケジュールデータ14(データベース16)それぞれのデータ構造と,データ相互の関係を説明する図である。It is a figure explaining the data structure of each of the dictionary data 12 and the schedule data 14 (database 16), and the relationship between data. 本実施の形態におけるスケジュール情報の呼び出し処理の全体を説明するフローチャート図である。It is a flowchart figure explaining the whole calling process of the schedule information in this Embodiment. 操作ボタンの配列と辞書データ12の分類,スケジュールデータ14,および一致入力データ62の情報処理種別判断の対応関係を説明する図である。It is a figure explaining the correspondence of the information processing classification judgment of the arrangement | sequence of an operation button, the classification | category of the dictionary data 12, the schedule data 14, and the coincidence input data 62. FIG. 画像表示部80が表示する,携帯電話機のスケジュール機能を呼び出した場合の,入力待ち画面を説明する図である。It is a figure explaining the input waiting screen at the time of calling the schedule function of a mobile telephone which the image display part 80 displays. 図5の指示待ち画面に対する入力操作,データの対応関係,及び表示画面例を関連付けて説明する図である。FIG. 6 is a diagram illustrating an input operation on the instruction waiting screen in FIG. 5, a correspondence relationship between data, and a display screen example in association with each other. 場所情報の入力操作,データの対応関係,及び表示画面例を関連付けて説明する図である。It is a figure explaining in association with an input operation of place information, data correspondence, and a display screen example. スケジュール内容の入力を促された場合の入力操作,データの対応関係,及び出力を関連付けて説明する図である。FIG. 5 is a diagram illustrating an input operation, a data correspondence relationship, and an output when an input of a schedule content is prompted. 場所情報から入力する場合の表示画面例を説明する図である。It is a figure explaining the example of a display screen in the case of inputting from place information. 入力手順の全体の流れを説明するフローチャート図である。It is a flowchart figure explaining the whole flow of an input procedure. 時間情報属性データ142について日付を入力する場合の入力操作,データの対応関係,及び表示画面例を関連付けて説明する図である。FIG. 6 is a diagram illustrating an input operation when inputting a date for time information attribute data 142, data correspondence, and a display screen example in association with each other. 場所情報属性データ144について場所情報を入力する場合の入力操作,データの対応関係,及び表示画面例を関連付けて説明する図である。It is a figure explaining in association with the input operation, the data correspondence, and the display screen example when inputting the location information for the location information attribute data 144. スケジュール内容属性データ146について音声入力する場合の入力操作,データの対応関係,及び表示画面例を関連付けて説明する図である。It is a figure explaining in association with an input operation, data correspondence, and a display screen example when inputting voice for schedule content attribute data. 認識入力データ52に基づく処理の種別が「育成」である場合の入力操作と,データの対応関係,及び画面の表示例を関連付けて説明する図である。It is a figure explaining in association with the input operation in the case where the type of processing based on the recognition input data 52 is “nurturing”, the correspondence between the data, and the display example of the screen. ボタン入力部30,辞書データ12の分類,および一致入力データ62に基づく処理種別の対応関係を説明する図である。6 is a diagram for explaining a correspondence relationship between a button input unit 30, classification of dictionary data 12, and processing types based on matching input data 62. FIG. 入力する変数にコマンドを対応させたアルゴリズムデータを説明する図である。It is a figure explaining the algorithm data which matched the command with the variable to input. 使用する外部機器に対応する処理の種別の種類を列127aに,前記種別に対応する画像加工コマンドを列127bに関係付けたアルゴリズムデータ16を説明する図である。It is a figure explaining the algorithm data 16 which linked | related the kind of process type corresponding to the external apparatus to be used to the column 127a, and the image process command corresponding to the said type to the column 127b. 画像表示装置に表示される初期画面の画面例を説明する図である。It is a figure explaining the example of a screen of the initial screen displayed on an image display device. 色加工情報の入力操作,データの対応関係,及び表示画面例を関連付けて説明する図である。It is a figure explaining in association with input operation of color processing information, data correspondence, and a display screen example. 枚数情報の入力操作,データの対応関係,及び出力を関連付けて説明する図である。FIG. 5 is a diagram illustrating an association between an input operation of sheet number information, data correspondence, and output.

符号の説明Explanation of symbols

12 :辞書データ 122:時間情報辞書データ
14 :スケジュールデータ 142:時間情報属性データ
30 :ボタン入力部 15A:アルゴリズムデータ
12: Dictionary data 122: Time information dictionary data 14: Schedule data 142: Time information attribute data 30: Button input unit 15A: Algorithm data

Claims (9)

操作ボタンの押下と音声入力に応答して,前記入力音声を音声認識装置が認識した認識入力データに一致する一致入力データを辞書データから抽出し,前記一致入力データに基づいて当該一致入力データの属性に対応する情報処理を行う携帯情報処理装置において,
前記情報処理は,前記一致入力データの属性に対応して複数の情報処理を有し,
複数配置された操作ボタンのうち押下された操作ボタンの位置に基づき,前記一致入力データの属性を判断し,前記判断した属性に対応する前記辞書データから,当該認識入力データに一致する一致入力データを抽出する一致入力データ抽出手段を有する携帯情報処理装置。
In response to pressing of the operation button and voice input, matching input data matching the recognition input data recognized by the voice recognition device is extracted from the dictionary data, and the matching input data is extracted based on the matching input data. In a portable information processing device that performs information processing corresponding to attributes,
The information processing has a plurality of information processing corresponding to the attribute of the coincidence input data,
Based on the position of the pressed operation button among a plurality of operation buttons, the attribute of the match input data is determined, and the match input data matching the recognition input data is determined from the dictionary data corresponding to the determined attribute. A portable information processing apparatus having matching input data extraction means for extracting.
請求項1において,
前記複数の操作ボタンは行列状に配置されており,
前記一致入力データ抽出手段は,前記押下されたボタンが位置する行または列に基づき前記一致入力データの属性および前記一致入力データに基づく情報処理の種別を判断することを特徴とする携帯情報処理装置。
In claim 1,
The plurality of operation buttons are arranged in a matrix,
The coincidence input data extracting means judges the attribute of the coincidence input data and the type of information processing based on the coincidence input data based on the row or column where the pressed button is located. .
請求項2において,
属性データが相互に関係付けられたデータベースと,
前記判断した情報処理の種別が出力である場合は,前記データベースにおいて前記一致入力データと等しい属性データを検索し,検索された属性データと関係付けられた別の属性データを抽出し出力する属性データ出力手段とをさらに備える携帯情報処理装置。
In claim 2,
A database of attribute data associated with each other;
If the determined type of information processing is output, search the attribute data equal to the matched input data in the database, and extract and output another attribute data related to the searched attribute data A portable information processing apparatus further comprising output means.
請求項3において,
前記属性データ出力手段は,前記出力された属性データについてユーザに選択入力を促し,前記一致入力データ抽出手段により抽出される,前記一致入力データとは別の一致入力データに基づいて,前記出力された属性データとは別の属性データをさらに出力することを特徴とする携帯情報処理装置。
In claim 3,
The attribute data output means prompts the user to select and input the output attribute data, and is output based on match input data different from the match input data extracted by the match input data extraction means. A portable information processing apparatus that further outputs attribute data different from the attribute data.
請求項3において,
前記データベースはスケジュールデータのデータベースであって,当該属性データは「時間」,「場所」,および音声データである「スケジュール内容」であり,
前記属性データ出力手段は,抽出された属性データが「スケジュール内容」である場合は,当該音声データを再生することを特徴とする,携帯情報処理装置。
In claim 3,
The database is a database of schedule data, and the attribute data is “time”, “location”, and “schedule content” which is voice data,
The attribute information output means reproduces the audio data when the extracted attribute data is "schedule content".
請求項5において,
前記属性データ出力手段は,前記入力音声と類似する音声データである「スケジュール内容」を再生することを特徴とする,携帯情報処理装置。
In claim 5,
The portable information processing apparatus, wherein the attribute data output means reproduces “schedule content” which is voice data similar to the input voice.
請求項3において,
前記データベースの属性データは外部機器に対する制御コマンドであって,
前記判断された情報処理の種別は前記外部機器の種別であり,
前記属性データ出力手段は,前記判断された外部機器に対して,前記抽出された制御コマンドを出力することを特徴とする,携帯情報処理装置。
In claim 3,
The attribute data of the database is a control command for an external device,
The determined type of information processing is the type of the external device,
The portable information processing apparatus, wherein the attribute data output means outputs the extracted control command to the determined external device.
請求項2において,
属性データが相互に関係付けられたデータベースと,
前記判断された情報処理の種別が入力である場合は,前記データベースの属性に前記一致入力データの属性を対応させて当該一致入力データを前記データベースに入力する属性データ入力手段とをさらに有し,
前記属性データ入力手段は,前記入力音声を前記データベースに入力する手段を備えた携帯情報処理装置。
In claim 2,
A database of attribute data associated with each other;
If the determined type of information processing is an input, it further comprises attribute data input means for associating the attribute of the match input data with the attribute of the database and inputting the match input data to the database,
The attribute data input means is a portable information processing apparatus comprising means for inputting the input voice into the database.
操作ボタンの押下と音声入力に応答して,前記入力音声を音声認識装置が認識した認識入力データに一致する一致入力データを辞書データから抽出し,前記一致入力データに基づいて,属性データが相互に関係付けられたデータベースに対し前記一致入力データの属性に対応した複数の情報処理を行う携帯情報処理装置の入出力方法において,
行列状に配置された操作ボタンのうち押下された操作ボタンが位置する行または列に基づき,前記一致入力データの属性と,前記一致入力データに基づく情報処理の種別とを判断し,前記判断した属性に対応する前記辞書データから当該認識入力データに一致する一致入力データを抽出する一致入力データ抽出工程と,
前記判断された情報処理の種別が出力である場合は,前記データベースにおいて前記一致入力データと等しい属性データを検索し,検索された属性データと関係付けられた別の属性の属性データを抽出し出力する属性データ出力工程とを有する携帯情報処理装置の入出力方法。
In response to pressing of the operation button and voice input, matched input data that matches the input voice with the recognized input data recognized by the voice recognition device is extracted from the dictionary data. In the input / output method of the portable information processing apparatus for performing a plurality of information processing corresponding to the attribute of the matched input data with respect to the database related to
Based on the row or column where the pressed operation button is located among the operation buttons arranged in a matrix, the attribute of the matched input data and the type of information processing based on the matched input data are determined, and the determined A matching input data extraction step of extracting matching input data that matches the recognition input data from the dictionary data corresponding to the attribute;
If the determined type of information processing is output, the attribute data equal to the matched input data is searched in the database, and attribute data of another attribute related to the searched attribute data is extracted and output And an input / output method for a portable information processing apparatus.
JP2005257762A 2005-09-06 2005-09-06 Portable information processing device Pending JP2007072671A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005257762A JP2007072671A (en) 2005-09-06 2005-09-06 Portable information processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005257762A JP2007072671A (en) 2005-09-06 2005-09-06 Portable information processing device

Publications (1)

Publication Number Publication Date
JP2007072671A true JP2007072671A (en) 2007-03-22

Family

ID=37934063

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005257762A Pending JP2007072671A (en) 2005-09-06 2005-09-06 Portable information processing device

Country Status (1)

Country Link
JP (1) JP2007072671A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015011634A (en) * 2013-07-01 2015-01-19 オリンパス株式会社 Electronic device, electronic device control method and electronic device control program
JPWO2013015364A1 (en) * 2011-07-27 2015-02-23 三菱電機株式会社 User interface device, information processing method, and information processing program
WO2021192991A1 (en) * 2020-03-23 2021-09-30 ソニーグループ株式会社 Information processing device, information processing method, and program

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2013015364A1 (en) * 2011-07-27 2015-02-23 三菱電機株式会社 User interface device, information processing method, and information processing program
JP2015011634A (en) * 2013-07-01 2015-01-19 オリンパス株式会社 Electronic device, electronic device control method and electronic device control program
WO2021192991A1 (en) * 2020-03-23 2021-09-30 ソニーグループ株式会社 Information processing device, information processing method, and program
JPWO2021192991A1 (en) * 2020-03-23 2021-09-30

Similar Documents

Publication Publication Date Title
US7162412B2 (en) Multilingual conversation assist system
CN100559463C (en) Dictionary compiling device for voice recognition and voice recognition device
KR100790700B1 (en) Character specification method and character selection device
US20050267761A1 (en) Information transmission system and information transmission method
EP2682931B1 (en) Method and apparatus for recording and playing user voice in mobile terminal
CN107885482B (en) Audio playback method, device, storage medium and electronic device
JP7540058B2 (en) Work support system, work support method, and work support device
EP1851757A1 (en) Selecting an order of elements for a speech synthesis
CN101170757A (en) A method and device for controlling text input in mobile device
CN107577358A (en) Dummy keyboard input method, device and computer-readable recording medium
US20070038456A1 (en) Text inputting device and method employing combination of associated character input method and automatic speech recognition method
CN115879440A (en) Natural language processing method, natural language processing device, natural language model training equipment and storage medium
US20090094018A1 (en) Flexible Phrasebook
CN111488744A (en) Multi-modal language information AI translation method, system and terminal
JP3927800B2 (en) Voice recognition apparatus and method, program, and storage medium
EP2851891B1 (en) Mobile user terminal and method for controlling such a terminal
JP2003280683A (en) Voice recognition device, voice recognition control method of the device, and dictionary controller related to voice processing
JP2007072671A (en) Portable information processing device
TWI260531B (en) Communications terminal apparatus, reception apparatus, and method therefor
KR100919227B1 (en) The method and apparatus for recognizing speech for navigation system
JP2012226220A (en) Speech recognition device, speech recognition method, and speech recognition program
JP2002014956A (en) Character string predicting method and device therefor
JP2000305702A (en) Character input system for electronic devices
JP2003202890A (en) Speech recognition device, and method and program thereof
CN112764601B (en) Information display method and device and electronic equipment