JP5150035B2 - Mobile terminal, information processing method, and information processing program - Google Patents
Mobile terminal, information processing method, and information processing program Download PDFInfo
- Publication number
- JP5150035B2 JP5150035B2 JP2004269950A JP2004269950A JP5150035B2 JP 5150035 B2 JP5150035 B2 JP 5150035B2 JP 2004269950 A JP2004269950 A JP 2004269950A JP 2004269950 A JP2004269950 A JP 2004269950A JP 5150035 B2 JP5150035 B2 JP 5150035B2
- Authority
- JP
- Japan
- Prior art keywords
- recognition
- dictionary
- translation
- recognition dictionary
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Character Discrimination (AREA)
- Machine Translation (AREA)
- Document Processing Apparatus (AREA)
Description
本発明は、例えば、携帯電話、PHS(Personal Handy-phone
System)、PDA(Personal Digital Assistant)、PC(Personal Computer)やデジタルカメラ等に係り、読み取った画像データから文字列のイメージを認識して文字列に変換したり、変換した文字列を所定の言語に翻訳する携帯端末、情報処理方法及び情報処理プログラムに関する。
The present invention is, for example, a mobile phone, PHS (Personal Handy-phone).
System), PDA (Personal Digital Assistant), PC (Personal Computer), digital camera, etc., recognizes the image of the character string from the read image data and converts it into a character string, or converts the converted character string into a predetermined language The present invention relates to a portable terminal , an information processing method, and an information processing program.
従来より、紙面上に印刷された文字列のイメージを読み取り、OCR(Optical Character Recognition)機能を利用して、そのイメージから文字列を認識して文字情報に変換し、翻訳辞書を参照して、その文字列に対応する翻訳を表示部に表示する電子辞書が提案されている(例えば特許文献1参照)。
しかしながら、上述した従来技術では、一種類の翻訳辞書を搭載した場合の処理については記載されているが、複数の翻訳辞書を搭載した場合の処理については記載されていない。そのため、読み取った文字列のイメージを、OCR機能を用いて文字情報に変換する際に、複数の認識辞書の中から使用すべき認識辞書を選択する方法などについて何ら記載されていない。同様に、文字認識により読み取った単語の翻訳を取得する際に、複数の翻訳辞書の中から使用すべき翻訳辞書を選択する方法などについても何ら記載されていない。 However, in the above-described conventional technology, the process when one type of translation dictionary is installed is described, but the process when a plurality of translation dictionaries is installed is not described. Therefore, there is no description about a method for selecting a recognition dictionary to be used from among a plurality of recognition dictionaries when an image of a read character string is converted into character information using the OCR function. Similarly, there is no description of a method for selecting a translation dictionary to be used from a plurality of translation dictionaries when acquiring translation of a word read by character recognition.
すなわち、上述した従来技術では、複数言語対応の文字認識、または複数言語対応の翻訳を実現する上での課題や使い勝手については十分な検討がされていない。このため、複数言語対応とした場合、読み取った文字列のイメージに応じて適切な認識辞書を選択することができず、また、読み取った文字列のイメージを、正しい文字情報に変換することができないという問題があった。同様に、認識した文字列に応じて適切な翻訳辞書を選択することができず、また、認識した文字列を正しい言語に翻訳することができないという問題があった。 That is, in the above-described conventional technology, sufficient consideration has not been given to problems and usability in realizing character recognition corresponding to a plurality of languages or translation corresponding to a plurality of languages. For this reason, when multiple languages are supported, an appropriate recognition dictionary cannot be selected according to the read character string image, and the read character string image cannot be converted into correct character information. There was a problem. Similarly, there is a problem that an appropriate translation dictionary cannot be selected according to the recognized character string, and the recognized character string cannot be translated into a correct language.
そこで本発明は、複数言語対応とした場合であっても、読み取った文字列の言語に応じて複数の認識辞書の中から適切な認識辞書を容易に選択することができるとともに、読み取った文字列のイメージを正しい文字情報に変換することができ、また、認識した文字列に応じて複数の翻訳辞書の中から適切な翻訳辞書を容易に選択することができるとともに、認識した文字列を正しい言語に翻訳することができる携帯端末、情報処理方法及び情報処理プログラムを提供することを目的とする。 Therefore, the present invention can easily select an appropriate recognition dictionary from a plurality of recognition dictionaries according to the language of the read character string, even when the read character string is used. Can be converted into correct character information, and an appropriate translation dictionary can be easily selected from multiple translation dictionaries according to the recognized character string. An object of the present invention is to provide a portable terminal , an information processing method, and an information processing program that can be translated into Japanese.
また、上記目的達成のため、請求項1記載の発明による携帯端末は、画像情報を撮像する撮像手段と、前記撮像手段により撮像された画像情報に含まれる識別情報を認識する際に用いられ、複数の言語に対応した認識辞書と、前記複数の言語に対応した認識辞書の使用履歴を記載した認識辞書使用履歴表とを記憶する記憶手段と、前記認識辞書使用履歴表に記載された使用履歴から得られる順番(昇降順)に従った認識辞書を用いて、前記撮像手段により撮像された画像情報に含まれる識別情報を認識する認識手段とを具備することを特徴とする。 In order to achieve the above object, the portable terminal according to the first aspect of the present invention is used when recognizing image capturing means for capturing image information and identification information included in the image information captured by the image capturing means. a recognition dictionary corresponding to a plurality of languages, storage means for storing a recognition dictionary used history table describing the use history of the recognition dictionary corresponding to the plurality of languages, history of use described in the recognition dictionary using the history table Recognition means for recognizing identification information included in the image information captured by the imaging means using a recognition dictionary according to the order obtained from the above (in ascending / descending order) .
また、好ましい態様として、例えば請求項2記載のように、請求項1に記載の携帯端末において、前記認識辞書の使用履歴は、それぞれの認識辞書の使用回数であり、前記認識手段は、前記認識辞書の使用回数順に従った認識辞書を用いてもよい。
As a preferred aspect, for example, as in
また、好ましい態様として、例えば請求項3記載のように、請求項1に記載の携帯端末において、前記認識辞書の使用履歴は、それぞれの認識辞書の最新使用時刻であり、前記認識手段は、前記認識辞書の最新使用時刻の若い順に従った認識辞書を用いてもよい。
As a preferred embodiment, for example, as in
また、好ましい態様として、例えば請求項4記載のように、請求項1に記載の携帯端末において、前記複数の言語に対応した認識辞書のうち、どの認識辞書を用いるかを指示する認識辞書指示手段を更に具備し、前記認識手段は、前記認識辞書指示手段による指示があった場合には、前記認識辞書指示手段による指示に従った認識辞書を用いて、前記撮像手段により撮像された画像情報に含まれる識別情報を認識するようにしてもよい。
In a preferable embodiment, for example, good urchin according to
また、好ましい態様として、例えば請求項5記載のように、請求項1に記載の携帯端末において、前記識別情報に関連する関連情報が記載され、複数の言語に対応した翻訳辞書と、前記認識手段によって用いられた認識辞書に基づいて、前記複数の言語に対応した翻訳辞書の中から、使用する翻訳辞書を決定する翻訳辞書決定手段と、前記翻訳辞書決定手段により決定された翻訳辞書を用いて、前記認識手段により認識された画像情報に含まれる識別情報を翻訳する翻訳手段とを具備するようにしてもよい。
Moreover, as a preferable aspect, for example, as in
また、好ましい態様として、例えば請求項6記載のように、請求項5に記載の携帯端末において、翻訳言語を特定する翻訳言語特定手段を更に具備し、前記翻訳辞書決定手段は、前記認識辞書に代えて、前記翻訳言語特定手段によって特定された翻訳言語に基づいて、前記複数の言語に対応した翻訳辞書の中から、使用する翻訳辞書を決定するようにしてもよい。
In a preferable embodiment, for example, good urchin of
また、好ましい態様として、例えば請求項7記載のように、請求項6に記載の携帯端末において、位置情報を取得する位置情報取得手段を具備し、前記翻訳言語特定手段は、前記位置情報取得手段により取得された位置情報に基づいて使用する翻訳言語を特定するようにしてもよい。
Further, as a preferred aspect, for example, as in
また、好ましい態様として、例えば請求項8記載のように、請求項6に記載の携帯端末において、前記複数の言語に対応した翻訳辞書のうち、どの翻訳辞書を用いるかを指示する翻訳辞書指示手段を更に具備し、前記翻訳手段は、前記翻訳辞書指示手段による指示があった場合には、前記翻訳辞書指示手段による指示に従った翻訳辞書を用いて、前記認識手段により認識された画像情報に含まれる識別情報を翻訳するようにしてもよい。
Further, as a preferred aspect, for example, as in
また、好ましい態様として、例えば請求項9記載のように、請求項6ないし8のいずれかに記載の携帯端末において、通信手段と、前記認識手段により認識された識別情報に関連した関連情報の参照を指示する関連情報参照指示部と、前記関連情報参照指示部により前記関連情報の参照が指示された場合、前記認識手段により認識された識別情報に基づいて、前記関連情報を前記通信手段を介して取得する関連情報取得手段とを更に具備するようにしてもよい。
Further, as a preferred aspect, for example, as in
また、上記目的達成のため、請求項10記載の発明による情報処理方法は、画像情報を撮像する撮像ステップと、複数の言語に対応した認識辞書の使用履歴が記載された認識辞書使用履歴表の前記使用履歴から得られる順番(昇降順)に従った認識辞書を用いて、前記撮像手段により撮像された画像情報に含まれる識別情報を認識する認識ステップと、前記認識辞書使用履歴表に記載されている、前記複数の言語に対応した認識辞書の使用履歴を更新する更新ステップとを含むことを特徴とする。 In order to achieve the above object, an information processing method according to claim 10 includes an imaging step for capturing image information and a recognition dictionary usage history table in which usage histories of recognition dictionaries corresponding to a plurality of languages are described . A recognition step of recognizing identification information included in image information captured by the imaging means using a recognition dictionary according to the order obtained from the usage history (in ascending / descending order), and the recognition dictionary usage history table An update step of updating a use history of the recognition dictionary corresponding to the plurality of languages.
また、上記目的達成のため、請求項11記載の発明による情報処理プログラムは、コンピュータに、画像情報を撮像する撮像機能、複数の言語に対応した認識辞書の使用履歴が記載された認識辞書使用履歴表の前記使用履歴から得られる順番(昇降順)に従った認識辞書を用いて、前記撮像手段により撮像された画像情報に含まれる識別情報を認識する認識機能、前記認識辞書使用履歴表に記載されている、前記複数の言語に対応した認識辞書の使用履歴を更新する更新機能を実行させることを特徴とする。
To achieve the above object, an information processing program according to an eleventh aspect of the present invention is a recognition dictionary usage history in which a computer has an imaging function for capturing image information and a recognition dictionary usage history corresponding to a plurality of languages. A recognition function for recognizing identification information included in image information captured by the imaging unit using a recognition dictionary according to an order (ascending / descending order) obtained from the use history of the table, the recognition dictionary use history table An update function for updating a use history of the recognition dictionary corresponding to the plurality of languages is executed.
この発明によれば、複数言語対応とした場合であっても、読み取った文字列の言語に応じて複数の認識辞書の中から適切な認識辞書を容易に選択することができるとともに、読み取った文字列のイメージを正しい文字情報に変換することができるという利点が得られる。 According to this invention, even when the multiple language support, it is possible to easily select an appropriate recognition dictionary from a plurality of recognition dictionaries in accordance with the language of the read character string, read The advantage is that the character string image can be converted into correct character information.
以下、本発明の実施の形態を、図面を参照して説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings.
A.第1実施形態
A−1.第1実施形態の構成
図1は、本第1実施形態に係る携帯電話の外観を示す模式図である。また、図2は、本発明の第1実施形態に係る携帯電話の構成を示すブロック図である。本第1実施形態においては、携帯電話に搭載された画像認識機能(OCR機能)を利用して、紙面などに記載された英単語を認識して読み取り、その認識結果を出力する場合について説明する。
A. First embodiment A-1. Configuration of First Embodiment FIG. 1 is a schematic diagram showing an appearance of a mobile phone according to the first embodiment. FIG. 2 is a block diagram showing the configuration of the mobile phone according to the first embodiment of the present invention. In the first embodiment, a case will be described in which an image recognition function (OCR function) mounted on a mobile phone is used to recognize and read an English word written on a paper surface and output the recognition result. .
図1に示すように、携帯電話100は、入力部101などが設けられた本体部と表示部107などが設けられた蓋部とからなる。該携帯電話100は、図2に示すように、入力部101、CPU102、撮像部103、記憶部104、画像認識部105、通信部106、表示部107からなる。
As shown in FIG. 1, a
入力部101は、キーボード等の電話番号その他の情報を入力する入力部であり、携帯電話の電源をON/OFFするとき、被写体を撮像するときなど、ユーザが携帯電話に入力を与える際に使用するものである。
The
CPU102は、記憶部104に記憶されたプログラムに基づいて動作し、例えば、入力部101からの入力に応じて各部を制御するものである。撮像部103は、例えば、カメラなどで構成されたものであり、被写体である人の顔や、景色、文字などを撮像し、CPU102で扱える画像情報に変換し、変換された画像情報は必要に応じて表示部107等に出力する。ユーザは、表示部107に出力された画像情報をモニタしながら撮像したい画像を選んで、例えば、シャッターキーとして割り当てられた操作キー(以下、シャッターキー)等を押下することにより撮像の指示を行う。シャッターキーが押下されれば、撮像された画像情報は記憶部104に記憶される。
The
また、記憶部104は、例えば、ROM(Read Only Memory)やRAM(Random Access Memory)等で構成され、上記画像情報以外に、携帯電話100で扱うデータやソフトウェアなども記憶する。また、該記憶部104は、認識辞書108および言語−認識辞書対応表109を備えている。これら認識辞書108および言語−認識辞書対応表109については後述する。
The
画像認識部105は、画像情報に含まれる文字や記号等の識別情報を認識する。ここで、識別情報とは、文字、記号等で表された情報であり、例えば、ホームページのアドレス、メールアドレス、住所、電話番号、地図情報あるいは英語の単語等のように文字や記号等で表現されたものであり、事物を識別できる情報であれば上記例以外のものでも構わない。すなわち、画像認識部105は、OCR機能を備えており、OCR機能を実現する具体的な構成は、例えば、特許文献1に記されている。
The
ここで、認識とは、撮像部103により撮像された画像情報に含まれる識別情報を抽出し、その識別情報を所定の領域ごとに分割し、分割された領域を所定のパラメータ値に変換し、そのパラメータ値に基づいて分割された領域がどのような情報であるかを決定することをいう。
Here, recognition refers to extracting identification information included in image information captured by the
より具体的にいえば、例えば、画像情報内の「abc」という文字を「認識」する場合を考えると、まず、「abc」が画像情報内のどの位置の情報であるかを特定し(文字列抽出)、次に、「a」「b」「c」に分割し、「a」を所定のパラメータ値(例えば、その文字を縦、横、斜めからの見た線分の構成を、文字の白色部分を「0」、黒色部分を「1」としてパラメータ化された値)に変換する。そして、変換されたパラメータ値に最も類似したパラメータ値に対応付けされた文字(文字コード)を認識辞書108から選び出す。
More specifically, for example, considering the case of “recognizing” the character “abc” in the image information, first, the position of “abc” in the image information is specified (character Column extraction), and then divided into “a”, “b”, and “c”, and “a” is a predetermined parameter value (for example, the structure of the line segment as viewed from the vertical, horizontal, and diagonal lines) The white portion is converted to a parameterized value with “0” and the black portion “1”. Then, the character (character code) associated with the parameter value most similar to the converted parameter value is selected from the
認識辞書108とは、パラメータ値とそのパラメータ値に対応したアルファベット等の文字(文字コード)とが記述されている表であり、記憶部104に記憶されている。ところで、本発明の携帯電話100は、英語や韓国語、日本語といった複数の言語に対応するために、それぞれの言語に対応した認識辞書を備えている。そして、英語を認識する場合には、アルファベットに対応した認識辞書(英語認識辞書)を用いて認識し、また、韓国語を認識する場合にはハングル文字に対応した認識辞書(韓国語認識辞書)を用いて認識する。
The
なお、日本語やハングル文字などのように文字数が多い場合、1つの認識辞書に全ての文字について格納してしまうと、ファイルサイズが増大してしまう。そのため、複数の認識辞書に分割して格納してもよいし、例えば日本語の場合には、JISで定められた第1水準の文字だけを格納してもよい。 If the number of characters is large, such as Japanese or Korean characters, the file size increases if all characters are stored in one recognition dictionary. Therefore, it may be divided and stored in a plurality of recognition dictionaries. For example, in the case of Japanese, only the first level characters defined by JIS may be stored.
ところで、例えば、携帯電話100で、英語認識辞書を用いて認識するように設定していた場合、韓国語は認識できない。そのため、ユーザは、携帯電話100を、韓国語認識辞書を用いて認識するように設定し、もう一度認識し直す必要がある。
By the way, for example, if the
このように、認識する言語が変わるたびに認識辞書を変更し直す必要があるため、例えば、韓国と日本を頻繁に行き来するようなユーザは、韓国に行ったら韓国語認識辞書に設定し、日本に行ったら日本語認識辞書に設定する必要があり、非常に手間がかかる。そこで、本第1実施形態では、携帯電話100の位置情報を取得し、その位置情報から使用されている言語を特定し、当該言語に対応した認識辞書を用いて、撮像部103により撮像された画像情報に含まれる識別情報を認識するように自動的に設定するようにする。なお、携帯電話100の位置情報の取得方法については後述する。
In this way, it is necessary to change the recognition dictionary every time the language to be recognized changes. For example, a user who frequently goes back and forth between Korea and Japan sets the Korean language recognition dictionary when going to Korea. If you go to, you need to set it in the Japanese recognition dictionary, which is very time consuming. Therefore, in the first embodiment, the location information of the
そこで、本第1実施形態では、特定された言語に対して認識に用いるべき認識辞書を自動的に設定するために、前述した言語−認識辞書対応表109を記憶部104に備えている。言語−認識辞書対応表109は、図3に示すように、言語301と該言語に対する認識辞書のファイル名302との対応関係を示した表である。すなわち、言語が特定された場合、言語−認識辞書対応表109を参照することにより、認識に用いるべき認識辞書を一意に決定することができる。
Therefore, in the first embodiment, the
また、認識する前に認識対象となる識別情報を特定する必要があるが、特定する手段として、例えば、表示部107の中心に表示された「+」マークを識別情報の上に持っていけば、「+」マークの位置から近傍のスペース情報からスペース情報までの部分を一区切りの単語として自動的に特定するようにしてもよい。
Further, it is necessary to specify identification information to be recognized before recognition. As a means for specifying, for example, if a “+” mark displayed at the center of the
また、ユーザが入力部101を利用して認識対象部分をカーソル等で直接指定できるようにしても構わないし、複数の認識対象を同時に選択できるようにしても構わない。更に、動画の場合には、動画を静止画でコマ送りできるように設定しておき、そのコマ送り画面で認識対象となる識別情報を選択できるようにしても構わない。
In addition, the user may be able to directly specify the recognition target portion with a cursor or the like using the
更に、認識対象を決定するために、ひとまず対象を決定する「仮決定」と仮決定された対象が間違っていない場合に「本決定」を行うように構成すれば、仮決定の段階で認識対象の特定に誤りがある場合に、容易に対象文字等の変更を行うことができるため、使い勝手を向上させることができる。 Furthermore, in order to determine the recognition target, if the “provisional determination” for determining the target for the time being and “mainly determined” when the target temporarily determined is not wrong, the recognition target is determined at the temporary determination stage. When there is an error in the identification, it is possible to easily change the target character and the like, so that usability can be improved.
次に、表示部107は、例えば、LCD(Liquid Crystal Display)や有機EL(Electroluminescence)等で構成され、撮像部103により撮像された画像や画像認識部105により認識された識別情報を表示する。その他、表示部107に、例えば、電源状態、電波強度、電池残量、サーバ接続状態もしくは未読メール等の動作状態、入力した電話番号、メール宛先、メール送信文書等や、動画および静止画、着信時の発呼者の電話番号、着信メール文書、接続されたインターネット画面等の受信データの表示、また、携帯電話の機能を利用するために必要な画面を表示する。
Next, the
通信部106は、他の情報処理装置とデータのやり取りを行う。基地局、ロケーションサーバおよびGPS(Global Positioning System)衛星と情報のやり取りを行い、携帯電話の位置座標を緯度・経度で取得する場合にも利用する。また、携帯電話100がインターネットや他の情報処理装置などにアクセスするための通信処理等も行う。また、通信部106は、図1に示すように1つのみを使用する場合に限らず、例えば、CDMA、EV−DO、無線LAN等の複数の通信方式を利用可能にするために複数備えても良い。
The
言語設定部110は、通信部106によって取得された携帯電話の位置座標を用いて、その場所(国や地域)で使用されている言語を特定し、記憶部104に保存されたソフトウェアプログラム中に存在する言語を表す変数に保存する。言語設定部110は、位置座標と、その位置座標の場所で使用されている言語との対応関係が記載された「位置−言語対応表」を保持している。
The
図4(a)に示すように、位置−言語対応表200は、言語201、位置座標(東経)202、位置座標(北緯)203などから構成される。例えば、取得した位置座標が(東経255°20′10″、北緯41°39′10″)であった場合、当該位置座標は位置座標(東経)205と位置座標(北緯)206の範囲内であるから、この場所で使用されている言語は英語204ということになる。なお、この方法だと、細かい長方形の領域で地球上の全ての領域を表現する必要があり、データサイズが大きくなってしまう。そこで、領域を多角形で表現することにより、それぞれ多角形の頂点の位置座標だけあれば地球上全ての領域を表現できるため、データサイズを削減することができる。例えば、図4(b)に示すように、頂点A、B、E、Dで囲まれた領域では独語、頂点B、C、Dで囲まれた領域では仏語というようになる。
As shown in FIG. 4A, the position-language correspondence table 200 includes a
また、言語を特定する方法としては、上記以外にも、携帯電話基地局から送信されてくるLAI(Location Area Identity)信号に基づいて携帯電話の位置を取得し、該携帯電話の位置に基づいて、そこで使用されている言語を特定する方法があり、特開2002−247646号公報に開示されている。 In addition to the above method, the language can be specified by acquiring the location of the mobile phone based on an LAI (Location Area Identity) signal transmitted from the mobile phone base station, and based on the location of the mobile phone. Therefore, there is a method for specifying the language used there, which is disclosed in Japanese Patent Application Laid-Open No. 2002-247646.
また、CPU102は、モード判定フラグを利用して、撮像モードが通常の静止画又は動画を撮像する通常撮像モードであるか、画像認識部105を利用して識別情報を認識する認識モードであるかを判定する。ここで、モード判定フラグは、例えば、記憶部104に記憶されたソフトウェアのプログラム中に存在する変数で、認識モードの場合と通常撮像モードとでは異なる値になるようにし、CPU102は、この変数に基づいて認識モードと通常撮像モードとを、例えば、入力部101による操作により切り換える。
In addition, the
以下、本第1実施形態では、「認識モード」と「通常撮像モード」との2種類を有する場合を考えるが、これに限定されるものではなく、それ以外にモードがあっても構わない。 Hereinafter, in the first embodiment, a case where there are two types of “recognition mode” and “normal imaging mode” is considered, but the present invention is not limited to this, and there may be other modes.
A−2.第1実施形態の動作
次に、本第1実施形態における携帯電話100の処理手順を図5に示すフローチャートを参照して説明する。
A-2. Operation of the First Embodiment Next, the processing procedure of the
まず、携帯電話100がキー入力を待つ状態(ステップS501)において、カメラ機能を起動するキー入力をCPU102が検出すると(ステップS502)、記憶部104に保存されているカメラ機能に関する変数の初期化等といったカメラ起動処理を行う(ステップS503)。その後、CPU102は、撮像モードが、「認識モード」、「通常撮像モード」のいずれかであるかを判定する。そして、「認識モード」である場合には、ステップS503において、撮像部103を起動させた後にシャッターキー等が押下されると、撮像対象物の画像データを取得し、取得された画像データを記憶部104に一時的に保存する(ステップS504)。
First, when the
次に、画像認識部105が上記画像データを読み取る(ステップS505)。その後、言語設定部110が、通信部106によって取得された携帯電話の位置座標を用いて、その場所(国や地域)で使用されている言語を特定し、記憶部104に保存された言語を表す変数に言語種別情報を設定する(ステップS506)。次に、CPU102が変数から言語種別情報を読み取り、言語−認識辞書対応表109を参照して認識辞書ファイル名を特定し、当該認識辞書ファイル名を画像認識部105に渡す(ステップS507)。
Next, the
次に、画像データに含まれる単語の中から、認識対象とする単語を選択すべく、表示部107の中心に表示された「+」マークに最も近接している単語を認識対象単語とする(ステップS508)。そして、CPU102は、認識対象単語として特定された単語の周囲に枠表示を行い、現在認識対象として特定されている単語が何であるかをユーザに明示する(ステップS509)。その後、画像認識部105が文字認識処理を行う。
Next, in order to select a word to be recognized from words included in the image data, a word closest to the “+” mark displayed at the center of the
文字認識処理では、まず、文字行抽出処理によって、画像データのどこに文字行があるかを抽出する。そして、文字行の範囲が決定したら、その文字行の中で黒画素の集合と集合との間隔が所定値以上である場合には、それらの集合はスペースによって区切られた文字列とする。すなわち、単語であると認識される。このように抽出された文字列の範囲の座標は記憶部104に保存される。
In the character recognition process, first, where the character line is in the image data is extracted by the character line extraction process. When the range of the character line is determined, if the interval between the set of black pixels in the character line is greater than or equal to a predetermined value, the set is a character string delimited by a space. That is, it is recognized as a word. The coordinates of the range of the character string extracted in this way are stored in the
次に、画像認識部105がステップS107で取得した認識辞書ファイル名の認識辞書を用いて、指定された認識対象部分(枠内)の文字認識処理を行い(ステップS510)、認識結果を表示部107に表示する(ステップS511)。
Next, the
このように、言語設定部110が特定した言語に従って、認識辞書を選択するため、ユーザが改めて認識辞書を設定する必要がなくなり、読み取った文字列の言語に応じて複数の認識辞書の中から適切な認識辞書を容易に選択することができるとともに、読み取った文字列のイメージを正しい文字情報に変換することができ、使い勝手が向上する。
Thus, since the recognition dictionary is selected according to the language specified by the
なお、上述した第1実施形態では、例えば、韓国で英単語を認識する場合、自動的に韓国語の認識辞書を用いて認識することになるが、韓国語認識辞書を用いて認識できなかったら、その後に英語認識辞書などの他の言語の認識辞書を用いて認識するようにしてもよい。このようにすれば、ユーザは認識辞書の設定を変更することなく、韓国でも韓国語以外の文字が認識できるため、さらに使い勝手を向上させることができる。 In the first embodiment described above, for example, when an English word is recognized in Korea, it is automatically recognized using a Korean recognition dictionary. However, if recognition is not possible using the Korean recognition dictionary, Then, recognition may be performed using a recognition dictionary of another language such as an English recognition dictionary. In this way, since the user can recognize characters other than Korean in Korea without changing the setting of the recognition dictionary, the usability can be further improved.
B.第2実施形態
次に、本発明の第2実施形態について説明する。本第2実施形態では、図6に示すように、画像認識部105が認識辞書108の各言語に対応する認識辞書を使用した回数303や、使用時刻304を、言語−認識辞書対応表109に記載し、例えば、CPU102は、回数303を参照し、使用回数が多い順番に認識辞書を用いるよう画像認識部105に命令することもできる。同様に、使用時刻304の新しい順番に認識辞書108の各言語に対応する認識辞書を使用するようにしてもよい。こうすることにより、ユーザに最適な認識辞書の選択が可能になり、使い勝手が向上する。
B. Second Embodiment Next, a second embodiment of the present invention will be described. In the second embodiment, as shown in FIG. 6, the
C.第3実施形態
次に、本発明の第3実施形態について説明する。上述した第2実施形態では、回数303や使用時刻304に従って、認識辞書108の各言語に対応する認識辞書の使用順番を設定するようにしたが、この場合、CPU102が言語−認識辞書対応表109の回数303や使用時刻304から決定した、認識辞書108の各言語に対応する認識辞書の使用順番によっては、認識する文字によって認識時間が長くなる可能性がある。例えば、認識辞書108の各言語に対応する認識辞書の使用順番が、1.英語、2.韓国語、3.アラビア語、4.日本語、となっていた場合に、日本語を認識するためには、英語認識辞書、韓国語認識辞書、アラビア語認識辞書を用いて認識が試みられた後に、日本語認識辞書を用いて認識が行われる。
C. Third Embodiment Next, a third embodiment of the present invention will be described. In the second embodiment described above, the use order of the recognition dictionary corresponding to each language of the
このような余計な処理を省くために、入力部101のキーに、それぞれどの認識辞書を用いて認識するかを予め設定しておくこともできる。すなわち、入力部101のキー入力があった場合には、上記回数303や使用時刻304により設定された使用順番より、キー入力を優先して、使用すべき認識辞書を決定してもよい。例えば、入力部101のうち「1」キーには英語、「2」キーには韓国語、「3」キーには日本語などと設定しておく。具体的には、図6に示すように、言語−認識辞書対応表109にキー割当て305の欄を設け、当該欄にキーの種類を表す番号などの識別子を記載しておく。
In order to omit such extra processing, it is possible to previously set which recognition dictionary is used for each key of the
ここで、図7は、キー割当て305欄を設けた言語−認識辞書対応表109を用いて、読み取った文字列のイメージを認識する場合の処理を説明するためのフローチャートである。
Here, FIG. 7 is a flowchart for explaining processing when recognizing an image of a read character string using the language-recognition dictionary correspondence table 109 provided with a
まず、図5に示すステップS501〜ステップS503までと同様の処理を行い、カメラを起動する。この状態で、ユーザによって「1」キーが押下されると、CPU102が「1」キーが押下されたことを検出し(ステップS601)、CPU102は、言語−認識辞書対応表109を参照し(ステップS602)、キー割当て305の欄から「1」キーを表す識別子を検索する(ステップS603)。「1」キーを表す識別子が見つかると、当該識別子に対応付けられた認識辞書ファイル名「OCR_eng.dat」を記憶部104に保存する(ステップS604)。そして、図5のステップS504〜ステップS505と同様の処理を行った後、CPU102は、ステップS605で記憶部104に保存しておいた認識辞書ファイル名を画像認識部105に渡す。その後、図5のステップS508〜ステップS511と同様の処理を行い、認識結果を表示する。
First, processing similar to that in steps S501 to S503 shown in FIG. 5 is performed, and the camera is activated. In this state, when the “1” key is pressed by the user, the
このように、キー割当てを行うことで、認識辞書108の各言語に対応する認識辞書のうち、画像認識部105に使用させる認識辞書をユーザが特定することができる。よって、異なる言語に対応した認識辞書を使用することがないため、認識時間が短縮され、使い勝手が向上する。
Thus, by assigning keys, the user can specify a recognition dictionary to be used by the
なお、上述した第3実施形態において、キー割当以外にも、音声認識技術を用いて利用者の発した言葉を検出し、言語を特定するようにしてもよい。 Note that in the third embodiment described above, in addition to key assignment, a language spoken by a user may be detected using voice recognition technology to specify a language.
D.第4実施形態
D−1.第4実施形態の構成
次に、本発明の第4実施形態について説明する。ここで、図8は、本発明の第4実施形態による携帯電話の構成を示すブロック図である。なお、図2に対応する部分には同一の符号を付けて説明を省略する。これまでは、文字を認識してその認識結果を表示することについて述べてきたが、本第4実施形態では、図8に示すように、携帯電話100の記憶部104に、複数の言語のそれぞれに対応する翻訳辞書111を備えることで、認識して読み取った英単語などの外国語を日本語に翻訳して表示させる。
D. Fourth Embodiment D-1. Configuration of Fourth Embodiment Next, a fourth embodiment of the present invention will be described. Here, FIG. 8 is a block diagram showing a configuration of a mobile phone according to the fourth embodiment of the present invention. It should be noted that parts corresponding to those in FIG. So far, it has been described that characters are recognized and the recognition result is displayed. In the fourth embodiment, as shown in FIG. 8, each of a plurality of languages is stored in the
ここでいう、翻訳辞書111には、例えば、外国語(英語やフランス語など)の単語等といった識別情報、該識別情報の日本語訳が含まれる。また、該識別情報の様々な日本語訳や使い方・用例等について詳しく書かれたホームページのURL等が含まれていてもよい。さらに、識別情報の説明であることがわかれば、絵や音などのデータでもよい。
The
本第2実施形態では、画像認識部105が使用する認識辞書と、認識した単語を翻訳するために使用する翻訳辞書との対応関係を示した「認識辞書−翻訳辞書対応表」を記憶部104に保存しておく。
In the second embodiment, the “recognition dictionary-translation dictionary correspondence table” indicating the correspondence between the recognition dictionary used by the
図9に、認識辞書−翻訳辞書対応表400の内容を示す。当該認識辞書−翻訳辞書対応表400には、認識辞書ファイル名302、翻訳辞書ファイル名306の欄が設けられており、例えば、認識辞書ファイル名「OCR_eng.dat」と翻訳辞書ファイル名「TRANS_eng_jap.dic」が対応関係にあることを示している。ここで、「OCR_eng.dat」は、英語の文字(アルファベット)に対応した認識辞書であり、「TRANS_eng_jap.dic」は、英単語とその日本語訳が記載された和辞書である。画像認識部105は、認識した後に当該対応表を参照し、翻訳に使用する翻訳辞書を決定することができ、ユーザの手間を省くことができる。
FIG. 9 shows the contents of the recognition dictionary-translation dictionary correspondence table 400. The recognition dictionary-translation dictionary correspondence table 400 includes columns of a recognition
D−2.第4実施形態の動作
次に、本第4実施形態における携帯電話の処理手順を図10に示すフローチャートを参照して説明する。まず、図5のステップS501〜ステップS509までと同様の処理を行い、撮像した画像中に含まれる文字の中から認識対象を決定する。その後、画像認識部105が文字認識処理を行い(ステップS701)、認識が成功したかどうかを判定する(ステップS702)。
D-2. Operation of Fourth Embodiment Next, the processing procedure of the mobile phone in the fourth embodiment will be described with reference to the flowchart shown in FIG. First, processing similar to that in steps S501 to S509 in FIG. 5 is performed, and a recognition target is determined from characters included in the captured image. Thereafter, the
判定する方法としては、例えば、認識対象となった文字に対する上述した所定のパラメータ値と、認識辞書108に格納されたパラメータ値との値の差が、予め定められた範囲内であった場合にその文字に対しては認識成功とするなどの方法がある。そして、認識対象として選択された文字列のうち、全ての文字に対して認識成功となれば、ステップS702において認識成功とする。なお、全ての文字が認識成功にならなくても、文字列全体の例えば8割以上の文字が認識成功となればステップS702で認識成功としてもよい。
As a determination method, for example, when the difference between the predetermined parameter value for the character to be recognized and the parameter value stored in the
ステップS702で認識成功とならなかった場合には、まだ使用していない認識辞書が他にもあるかどうかをCPU102が検索し(ステップS711)、見つかった場合には、その認識辞書を用いて再度文字認識処理を行う(ステップS701)。一方、使用していない認識辞書がなかった場合には、「認識失敗しました。」などといった表示を表示部107に表示する(ステップS712)。
If the recognition is not successful in step S702, the
一方、ステップS702で認識成功となった場合には、CPU102が認識結果を記憶部104に保存する(ステップS703)。また、使用した認識辞書ファイル名をCPU102が記憶部104に保存する(ステップS704)。そして、CPU102は、認識辞書−翻訳辞書対応表400の認識辞書ファイル名302の欄を参照し、記憶部104に保存された認識辞書ファイル名と一致するファイル名を検索し、一致するファイル名が見つかった場合には、当該認識辞書ファイル名に対応付けられた翻訳辞書ファイル名を取得する(ステップS705)。
On the other hand, when the recognition is successful in step S702, the
次に、画像認識部105によって認識された認識結果をCPU102が記憶部104から読み取り、CPU102は、ステップS705において取得した翻訳辞書ファイル名のファイルにアクセスする。そして、当該翻訳辞書に含まれる単語データの中から、認識結果と一致する単語を検索する(ステップS706)。
Next, the
単語を検索する方法としては、まず文字列が完全に一致するものを探し出し、完全に一致するものがなかった場合には、一文字だけ異なるがその他の文字は一致している単語を探し出すという方法が好ましい。この方法を採用することで、画像認識部105が紙面上の文字を誤って認識した場合でも、その文字列に一番近い単語を探し出すことができ、何度も撮像して文字認識をやり直す手間が省くことができる。また、一文字だけ異なる単語もない場合には、二文字だけ異なる単語、三文字だけ異なる単語、というように異なる文字数をだんだん増やして検索してもよく、この場合、認識率が低くても該当する単語を探し出すことができる。
As a method of searching for a word, first, a search is made for a word that matches exactly the character string, and when there is no match, a word that is different by one character but matches the other characters is searched. preferable. By adopting this method, even when the
上記検索によって翻訳辞書内に一致する単語が見つかった場合には、CPU102は、その単語に対応する日本語訳を、翻訳辞書111の対応する言語の翻訳辞書から読み取って(ステップS708)、表示部107に日本語訳を表示する(ステップS709)。一方、翻訳辞書内に一致する単語が見つからなかった場合には、「該当する単語が見つかりません」などといった表示を表示部107に表示する(ステップS712)。
If a matching word is found in the translation dictionary by the search, the
このようにして、本第4実施形態における携帯電話では、ユーザがいちいち翻訳辞書を設定し直すことなく、複数の言語に対する日本語訳を連続して表示することができる。 In this way, the mobile phone in the fourth embodiment can continuously display Japanese translations for a plurality of languages without the user having to reset the translation dictionary one by one.
なお、認識辞書−翻訳辞書対応表400の翻訳辞書ファイル名331の欄は、言語−認識辞書対応表109に欄を追加して記載してもよい。こうすることで、CPU102が参照する表が少なくなり、記憶部104の容量の削減や、ソフトウェア構造の簡単化ができる。
The translation
また、認識辞書−翻訳辞書対応表400は、携帯電話100の記憶部104に新たに翻訳辞書が保存された際に、翻訳辞書ファイル名331、認識辞書ファイル名302のそれぞれの欄に値が入力されることが好ましい。値の入力は、ユーザによって入力部101から入力されるようにしてもよい。その際、表示部107には、ユーザへの入力を促すメッセージを表示することが好ましい。例えば、図11(a)のように、記憶部104に保存されている認識辞書のファイル名一覧802を表示しておく。ユーザは、ファイル名に対応する番号の数字キーを押下することで、認識辞書を選択できるようにする。ユーザによって、例えば「1」キーが押下されると、図11(b)のように、「TRANS_eng_jap.dic」と「OCR_eng.dat」とを対応付けたことをユーザに知らせるメッセージを表示する。
The recognition dictionary-translation dictionary correspondence table 400 has values entered in the respective fields of the translation
また、翻訳辞書のフォーマットを決めて、予め定められた場所(例えばファイルの先頭など)に対応する認識辞書を現す認識辞書識別子を格納しておく。そして、新たな翻訳辞書が記憶部104に保存された際に、翻訳辞書に格納された当該認識辞書識別子をCPU102が参照し、認識辞書−翻訳辞書対応表400に値の入力を行うようにしてもよい。
Also, the format of the translation dictionary is determined, and a recognition dictionary identifier representing a recognition dictionary corresponding to a predetermined location (for example, the beginning of a file) is stored. Then, when a new translation dictionary is stored in the
E.第5実施形態
次に、本発明の第5実施形態について説明する。上述した第4実施形態では、1つの認識辞書に対して1つの翻訳辞書が決定される場合を考えてきたが、本第5実施形態では、それぞれの認識言語に対して、複数の言語の各々に対応する複数の翻訳辞書を設け、認識した文字列を、複数の翻訳辞書のいずれか1つを用いて翻訳する場合について説明する。どの翻訳辞書を用いるか、すなわちどの言語に翻訳するかは、位置情報に基づいてその場所で用いられる言語を特定し、該言語に対応する翻訳辞書を用いて、認識した文字列を翻訳するようになっている。
E. Fifth Embodiment Next, a fifth embodiment of the present invention will be described. In the fourth embodiment described above, the case where one translation dictionary is determined for one recognition dictionary has been considered. However, in the fifth embodiment, each of a plurality of languages is defined for each recognition language. A case will be described in which a plurality of translation dictionaries corresponding to is provided and the recognized character string is translated using any one of the plurality of translation dictionaries. Which translation dictionary is used, that is, in which language is translated, the language used in the place is specified based on the position information, and the recognized character string is translated using the translation dictionary corresponding to the language. It has become.
例えば、英語を認識した場合には、英語から日本語に翻訳する英和辞書、英語から韓国語に翻訳する英韓辞書、英語からドイツ語に翻訳する英独辞書などがある。そのため、ユーザは、翻訳する際にどの翻訳辞書を用いて翻訳するかを選択する必要がある。また、予め使用する翻訳辞書を設定しておけば、認識する毎に選択する手間は省けるが、上述したように、例えば、韓国・日本間を頻繁に行き来するユーザがいて、頻繁に英韓辞書と英和辞書を使用する場合には、使用する翻訳辞書を頻繁に設定する必要があり、手間がかかってしまう。 For example, when English is recognized, there are an English-Japanese dictionary that translates English to Japanese, an English-Korean dictionary that translates English to Korean, and an English-German dictionary that translates English to German. Therefore, the user needs to select which translation dictionary is used for translation when translating. Also, if you set a translation dictionary to use in advance, you can save time and effort to select it every time you recognize it. However, as mentioned above, for example, there are users who frequently travel between Korea and Japan, and frequently use English-Korean dictionaries. When using an English-Japanese dictionary, it is necessary to frequently set the translation dictionary to be used, which is troublesome.
そこで本第5実施形態では、携帯電話100の位置情報を取得し、該位置情報からその場所で使用されている言語を特定し、認識した文字列を特定した言語に翻訳する。そのために、図12に示すように、翻訳辞書ファイル名901、被翻訳言語902、翻訳言語903を対応付けた対応表900を記憶部104に保持する。そして、CPU102は、言語設定部110によって設定された言語に基づいて対応表900を参照し、使用する翻訳辞書を設定する。ここで、被翻訳言語902とは、翻訳される単語の言語を表す識別子であり、例えば、「英語」905である。また、翻訳言語903とは、翻訳する際に使用する言語を表す識別子であり、例えば、「日本語」906である。翻訳辞書ファイル名901は、被翻訳言語902から翻訳言語903へ翻訳するための翻訳辞書のファイル名であり、例えば、「TRANS_eng_jap.dic」904は、「英語」905の単語と、当該単語に対応する「日本語」906の意味とが記載された辞書である。
Therefore, in the fifth embodiment, the location information of the
本第5実施形態では、画像認識部105がユーザ指定による言語に対応する認識辞書を用いて、読み込んだ文字列のイメージを認識した後、使用した認識辞書と言語−認識辞書対応表109とから、被翻訳言語を決定する。具体的には、被翻訳言語を表すプログラム上の変数Lang_inに認識対象の単語の言語を代入する。例えば、使用した認識辞書がOCR_eng.datであった場合、言語−認識辞書対応表109から言語は「英語」となり、変数Lang_inには英語が代入される。次に、言語設定部110が位置情報に従って設定した言語を、翻訳言語を表すプログラム上の変数Lang_outに代入する。そして、CPU102は、変数Lang_inと変数Lang_outを読み取り、それぞれが対応表900の被翻訳言語902、翻訳言語903と等しくなる翻訳辞書ファイル名を検索する。検索の結果見つかった場合には、その翻訳辞書ファイル名のファイルにアクセスし、単語の翻訳を検索する。こうすることで、ユーザはいちいち設定する手間が省けて、使い勝手が向上する。
In the fifth embodiment, the
なお、対応表900は、携帯電話100の記憶部104に新たに翻訳辞書が保存された際に、翻訳辞書ファイル名901、認識文字言語902、翻訳言語903のそれぞれの欄に値が入力されることが好ましい。値の入力は、ユーザによって入力部101から入力されるようにしてもよい。その際、表示部107にはユーザへの入力を促すメッセージを表示することが好ましい。また、翻訳辞書のフォーマットを決めて、翻訳辞書の予め定められた場所、例えばファイルの先頭などに被翻訳言語と翻訳言語を格納するようにしておき、当該場所をCPU102が参照して、対応表900に値の入力を行うようにしてもよい。
In the correspondence table 900, when a translation dictionary is newly stored in the
図13(a)は、本第5実施形態の携帯電話100で日本語が話されている場所において、英単語を認識し、その翻訳を表示した際の画面表示例である。枠1001によって囲まれた「thank」という英単語が、認識対象の単語であることを示しており、その翻訳結果が結果表示部1002に表示されている。日本語圏であるので、「ありがとう」1003と表示されている。また、図13(b)は、携帯電話100で中国語が話されている場所において、図13(a)と同様に翻訳結果を表示した際の画面表示例である。翻訳結果は、中国語で「謝謝」と表示されている。
FIG. 13A is a screen display example when an English word is recognized and its translation is displayed in a place where Japanese is spoken in the
また、地域によっては、複数の言語が使用されている。例えば、カナダでは英語とフランス語、インドでは英語とヒンズー語などが使用されている。その場合、どの言語で翻訳するかをユーザに選択させるようにすれば、さらに使い勝手が向上する。なお、この場合、図3に示す位置―言語対応表200において、位置情報に対して、その場所で使用されている少なくとも1つ以上の言語が設定されているものとする。すなわち、複数の言語が使用されている場所を示す位置情報には、複数の言語を設定しておく。 In some regions, a plurality of languages are used. For example, English and French are used in Canada, and English and Hindu are used in India. In that case, if the user selects which language to translate, the usability is further improved. In this case, in the position-language correspondence table 200 shown in FIG. 3, it is assumed that at least one or more languages used in the place are set for the position information. That is, a plurality of languages are set in the position information indicating a place where a plurality of languages are used.
図14にその画面表示例を示す。図14(a)は、「now」という単語が認識対象単語になったことを示している。この状態でユーザが「選択」キーを押下すると、図14(b)に遷移する。図14(b)は、ユーザにどの言語で翻訳するかを選択させる画面である。この状態で、例えば「1」キーを押下すると、日本語に翻訳するように設定され、図14(c)に遷移する。図14(c)は、認識対象の単語「now」を日本語に翻訳した結果を示した画面である。翻訳結果表示部1104に認識対象単語「now」の訳が日本語で表示されている。
FIG. 14 shows an example of the screen display. FIG. 14A shows that the word “now” has become a recognition target word. When the user presses the “select” key in this state, the screen transitions to FIG. FIG. 14B is a screen that allows the user to select which language to translate. In this state, for example, when the “1” key is pressed, the setting is made so as to translate into Japanese, and a transition is made to FIG. FIG. 14C is a screen showing the result of translating the word “now” to be recognized into Japanese. The translation
また、認識した単語の翻訳結果を表示したあと、辞書アプリケーションなどのサイトに接続し、認識単語の詳細な意味や様々な使用方法などを閲覧するようにしてもよい。具体的には、翻訳結果が表示部107に表示された状態において、ユーザによって入力部101に入力があったら、サイトに接続してサイトの内容を表示部107に表示する。この場合、接続するサイトのURLを決定する際に、携帯電話100の位置情報を使用してもよい。
In addition, after displaying the translation result of the recognized word, the user may connect to a site such as a dictionary application and browse the detailed meaning of the recognized word and various usages. Specifically, in a state where the translation result is displayed on the
具体的には、対応表900に、サイトURL(図示せず)の欄を追加して、それぞれの翻訳辞書ファイルに対応したURL(の一部)を記載しておく。例えば、翻訳辞書ファイルTRANS_eng_jpa.dicに対応するサイトのURL(の一部)は、「http://xxx.???.com/english-japanese/」とする。そして、当該サイトのURL(の一部)と画像認識部105が認識した単語とを用いて、接続するURLをCPU102が作成する。CPU102によって作成されたURLに通信部106が接続し、当該URLの内容を表示部107に表示する。例えば、「mobile」という単語を認識した場合は、接続するURLは「http://xxx.???.com/english-japanese/mobile.html」などのようになる。
Specifically, a site URL (not shown) column is added to the correspondence table 900, and URLs (parts) corresponding to the respective translation dictionary files are described. For example, the URL (part) of the site corresponding to the translation dictionary file TRANS_eng_jpa.dic is “http://xxx.???.com/english-japanese/”. Then, the
なお、上述した実施形態では、認識辞書、翻訳辞書は、1ファイルにつき1つの言語として説明してきたが、複数の言語をまとめて1つのファイルにしてもよい。例えば、先頭から英語認識辞書、日本語認識辞書、韓国語認識辞書、といったようにまとめて1つのファイルとして格納する。そして、対応表には認識辞書の代わりに、ファイルのどの部分に認識辞書が格納されているかを表すデータを記載しておく。例えば、日本語認識辞書がファイルの先頭から1500バイト目から格納されている場合、対応表には、ファイル名と共に「1500」と記載しておく。これで、日本語認識辞書を使用したい場合は、ファイルの1500バイト目からアクセスすればよい。これにより、複数の認識辞書や翻訳辞書がまとめられたファイルにも対応でき、使い勝手が向上する。 In the above-described embodiment, the recognition dictionary and the translation dictionary are described as one language per file, but a plurality of languages may be combined into one file. For example, an English recognition dictionary, a Japanese recognition dictionary, and a Korean recognition dictionary are collectively stored as one file from the top. Then, instead of the recognition dictionary, data indicating in which part of the file the recognition dictionary is stored is described in the correspondence table. For example, when the Japanese recognition dictionary is stored from the 1500th byte from the beginning of the file, “1500” is described in the correspondence table together with the file name. If you want to use the Japanese language recognition dictionary, you can access it from the 1500th byte of the file. As a result, it is possible to handle a file in which a plurality of recognition dictionaries and translation dictionaries are collected, and usability is improved.
なお、上述してきた種々の機能をソフトウェアで実現してもよく、ユーザは、例えば、CD―ROM等の記録媒体やサーバから当該ソフトウェアを受信して当該種々の機能を実現できる。これにより、必要な機能だけを搭載したり、また、好みに応じて色々な機能を追加もしくは削除、あるいは更新したりすることが容易となる。
更に、上述した実施例を組み合わせて新しく実施形態を構成することができることは言うまでもない。
また、本発明は、上記に示された実施例に限定されるものではなく、ここに開示された原理及び特性を用いた多様な実施例が存在する。
Note that the various functions described above may be realized by software, and the user can realize the various functions by receiving the software from a recording medium such as a CD-ROM or a server, for example. This makes it easy to install only necessary functions, and to add, delete, or update various functions according to preference.
Furthermore, it goes without saying that a new embodiment can be configured by combining the above-described examples.
Further, the present invention is not limited to the above-described embodiments, and there are various embodiments using the principles and characteristics disclosed herein.
100 携帯電話
101 入力部(指示手段)
102 CPU(認識辞書決定手段、翻訳辞書決定手段、翻訳手段)
103 撮像部(撮像手段)
104 記憶部
105 画像認識部(認識手段)
106 通信部(位置情報取得手段)
107 表示部
108 認識辞書
109 言語−認識辞書対応表(認識辞書使用順番表)
110 言語設定部(言語特定手段)
111 翻訳辞書
200 位置−言語対応表
400 認識辞書−翻訳辞書対応表
100
102 CPU (recognition dictionary determination means, translation dictionary determination means, translation means)
103 Imaging unit (imaging means)
104
106 Communication unit (location information acquisition means)
107
110 Language setting part (language identification means)
111
Claims (11)
前記撮像手段により撮像された画像情報に含まれる識別情報を認識する際に用いられ、複数の言語に対応した認識辞書と、前記複数の言語に対応した認識辞書の使用履歴を記載した認識辞書使用履歴表とを記憶する記憶手段と、
前記認識辞書使用履歴表に記載された使用履歴から得られる順番(昇降順)に従った認識辞書を用いて、前記撮像手段により撮像された画像情報に含まれる識別情報を認識する認識手段と
を具備することを特徴とする携帯端末。 Imaging means for imaging image information;
Use of a recognition dictionary that is used when recognizing identification information included in image information captured by the imaging unit, and that describes a recognition dictionary corresponding to a plurality of languages and a use history of the recognition dictionary corresponding to the plurality of languages Storage means for storing a history table;
Recognizing means for recognizing identification information included in image information picked up by the image pickup means using a recognition dictionary according to an order (ascending / descending order) obtained from use histories described in the recognition dictionary use history table ; A portable terminal comprising:
前記認識手段は、前記認識辞書の使用回数順に従った認識辞書を用いることを特徴とする請求項1に記載の携帯端末。 The recognition dictionary usage history is the number of times each recognition dictionary is used ,
The mobile terminal according to claim 1, wherein the recognition unit uses a recognition dictionary according to the order in which the recognition dictionary is used .
前記認識手段は、前記認識辞書の最新使用時刻の若い順に従った認識辞書を用いることを特徴とする請求項1に記載の携帯端末。 The use history of the recognition dictionary is the latest use time of each recognition dictionary ,
The mobile terminal according to claim 1, wherein the recognition unit uses a recognition dictionary that follows the youngest use time of the recognition dictionary .
前記認識手段は、前記認識辞書指示手段による指示があった場合には、前記認識辞書指示手段による指示に従った認識辞書を用いて、前記撮像手段により撮像された画像情報に含まれる識別情報を認識することを特徴とする請求項1に記載の携帯端末。 A recognition dictionary instructing unit for instructing which recognition dictionary to use among the recognition dictionaries corresponding to the plurality of languages;
When there is an instruction from the recognition dictionary instruction means, the recognition means uses the recognition dictionary according to the instruction from the recognition dictionary instruction means to identify identification information included in the image information captured by the imaging means. The mobile terminal according to claim 1, wherein the mobile terminal is recognized.
前記認識手段によって用いられた認識辞書に基づいて、前記複数の言語に対応した翻訳辞書の中から、使用する翻訳辞書を決定する翻訳辞書決定手段と、
前記翻訳辞書決定手段により決定された翻訳辞書を用いて、前記認識手段により認識された画像情報に含まれる識別情報を翻訳する翻訳手段と
を具備することを特徴とする請求項1に記載の携帯端末。 Related information related to the identification information is described, a translation dictionary corresponding to a plurality of languages,
A translation dictionary determining means for determining a translation dictionary to be used from translation dictionaries corresponding to the plurality of languages based on the recognition dictionary used by the recognition means;
The mobile unit according to claim 1, further comprising: a translation unit that translates identification information included in the image information recognized by the recognition unit using the translation dictionary determined by the translation dictionary determination unit. Terminal.
前記翻訳辞書決定手段は、前記認識辞書に代えて、前記翻訳言語特定手段によって特定された翻訳言語に基づいて、前記複数の言語に対応した翻訳辞書の中から、使用する翻訳辞書を決定することを特徴とする請求項5に記載の携帯端末。 A translation language specifying means for specifying the translation language;
The translation dictionary determining means determines a translation dictionary to be used from among translation dictionaries corresponding to the plurality of languages based on the translation language specified by the translation language specifying means instead of the recognition dictionary. The mobile terminal according to claim 5.
前記翻訳言語特定手段は、前記位置情報取得手段により取得された位置情報に基づいて使用する翻訳言語を特定することを特徴とする請求項6に記載の携帯端末。 Comprising position information acquisition means for acquiring position information;
The portable terminal according to claim 6, wherein the translation language specifying unit specifies a translation language to be used based on the position information acquired by the position information acquisition unit.
前記翻訳手段は、前記翻訳辞書指示手段による指示があった場合には、前記翻訳辞書指示手段による指示に従った翻訳辞書を用いて、前記認識手段により認識された画像情報に含まれる識別情報を翻訳することを特徴とする請求項6に記載の携帯端末。 A translation dictionary instruction means for instructing which translation dictionary to use among the translation dictionaries corresponding to the plurality of languages;
When there is an instruction from the translation dictionary instruction means, the translation means uses the translation dictionary according to the instruction from the translation dictionary instruction means to identify the identification information included in the image information recognized by the recognition means. The mobile terminal according to claim 6, wherein the mobile terminal is translated.
前記認識手段により認識された識別情報に関連した関連情報の参照を指示する関連情報参照指示部と、
前記関連情報参照指示部により前記関連情報の参照が指示された場合、前記認識手段により認識された識別情報に基づいて、前記関連情報を前記通信手段を介して取得する関連情報取得手段と
を更に具備することを特徴とする請求項6ないし8のいずれかに記載の携帯端末。 Communication means;
A related information reference instruction unit for instructing reference of related information related to the identification information recognized by the recognition unit;
A related information acquisition unit configured to acquire the related information via the communication unit based on the identification information recognized by the recognition unit when the reference of the related information is instructed by the related information reference instruction unit; The mobile terminal according to claim 6, further comprising:
複数の言語に対応した認識辞書の使用履歴が記載された認識辞書使用履歴表の前記使用履歴から得られる順番(昇降順)に従った認識辞書を用いて、前記撮像手段により撮像された画像情報に含まれる識別情報を認識する認識ステップと、
前記認識辞書使用履歴表に記載されている、前記複数の言語に対応した認識辞書の使用履歴を更新する更新ステップと
を含むことを特徴とする情報処理方法。 An imaging step for imaging image information;
Image information picked up by the image pickup means using a recognition dictionary according to the order (in ascending / descending order) obtained from the use history of the recognition dictionary use history table in which use histories of recognition dictionaries corresponding to a plurality of languages are described A recognition step for recognizing the identification information contained in
An information processing method comprising: an update step of updating a use history of a recognition dictionary corresponding to the plurality of languages described in the recognition dictionary use history table.
画像情報を撮像する撮像機能、
複数の言語に対応した認識辞書の使用履歴が記載された認識辞書使用履歴表の前記使用履歴から得られる順番(昇降順)に従った認識辞書を用いて、前記撮像手段により撮像された画像情報に含まれる識別情報を認識する認識機能、
前記認識辞書使用履歴表に記載されている、前記複数の言語に対応した認識辞書の使用履歴を更新する更新機能
を実行させることを特徴とする情報処理プログラム。 On the computer,
An imaging function for imaging image information;
Image information picked up by the image pickup means using a recognition dictionary according to the order (in ascending / descending order) obtained from the use history of the recognition dictionary use history table in which use histories of recognition dictionaries corresponding to a plurality of languages are described Recognition function for recognizing identification information contained in
An information processing program for executing an update function for updating a use history of a recognition dictionary corresponding to the plurality of languages described in the recognition dictionary use history table.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004269950A JP5150035B2 (en) | 2004-09-16 | 2004-09-16 | Mobile terminal, information processing method, and information processing program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004269950A JP5150035B2 (en) | 2004-09-16 | 2004-09-16 | Mobile terminal, information processing method, and information processing program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2006085461A JP2006085461A (en) | 2006-03-30 |
JP5150035B2 true JP5150035B2 (en) | 2013-02-20 |
Family
ID=36163919
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004269950A Expired - Fee Related JP5150035B2 (en) | 2004-09-16 | 2004-09-16 | Mobile terminal, information processing method, and information processing program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5150035B2 (en) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5223739B2 (en) * | 2009-03-13 | 2013-06-26 | オムロン株式会社 | Portable character recognition device, character recognition program, and character recognition method |
JP5316386B2 (en) * | 2009-12-01 | 2013-10-16 | ブラザー工業株式会社 | Head mounted display and program thereof |
JP2011141750A (en) * | 2010-01-07 | 2011-07-21 | Nec Corp | Device, system, method and program for translating data |
JP4923134B2 (en) * | 2010-06-08 | 2012-04-25 | 株式会社スクウェア・エニックス | Real-time camera dictionary |
JP4790080B1 (en) * | 2010-10-01 | 2011-10-12 | 株式会社スクウェア・エニックス | Information processing apparatus, information display method, information display program, and recording medium |
US8738355B2 (en) * | 2011-01-06 | 2014-05-27 | Qualcomm Incorporated | Methods and apparatuses for providing predictive translation information services to mobile stations |
CA2906399A1 (en) * | 2013-03-15 | 2014-10-09 | Translate Abroad, Inc. | Systems and methods for displaying foreign character sets and their translations in real time on resource-constrained mobile devices |
JP7493256B2 (en) | 2022-07-27 | 2024-05-31 | アスエネ株式会社 | Greenhouse gas emissions management method |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2662404B2 (en) * | 1986-12-19 | 1997-10-15 | 株式会社リコー | Dictionary creation method for optical character reader |
JPH05274346A (en) * | 1991-09-13 | 1993-10-22 | Casio Comput Co Ltd | Electronic dictionary |
JP2004050585A (en) * | 2002-07-19 | 2004-02-19 | Canon Inc | Printer with built-in gps, and data server |
JP4116852B2 (en) * | 2002-09-24 | 2008-07-09 | 株式会社富士通ソーシアルサイエンスラボラトリ | Extracted character string dictionary search apparatus and method, and program |
-
2004
- 2004-09-16 JP JP2004269950A patent/JP5150035B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2006085461A (en) | 2006-03-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20050052558A1 (en) | Information processing apparatus, information processing method and software product | |
US7305435B2 (en) | Internet access via smartphone camera | |
JP4038771B2 (en) | Portable information terminal device, information processing method, recording medium, and program | |
US20030120478A1 (en) | Network-based translation system | |
JP2006325185A (en) | Wireless telecommunications terminal comprising digital camera for character recognition, and network therefor | |
JP2008046893A (en) | Portable communication terminal, method for acquiring information and information acquisition program | |
KR20050007160A (en) | Information processing apparatus, information processing method and software product | |
JP5150035B2 (en) | Mobile terminal, information processing method, and information processing program | |
JP2016058057A (en) | Translation system, translation method, computer program, and storage medium readable by computer | |
JP2010205121A (en) | Information processor and portable terminal | |
JP2008310571A (en) | Character string input device, character string input method and program | |
JP2013113882A (en) | Comment notation conversion device, comment notation conversion method, and comment notation conversion program | |
US8509749B2 (en) | Mobile communication apparatus and operating method thereof | |
JP2007018166A (en) | Information search device, information search system, information search method, and information search program | |
JP4703259B2 (en) | Information processing device | |
JP5670030B2 (en) | Portable terminal, car navigation device setting system, and car navigation setting method | |
JP2016024410A (en) | Guide map and guide assist system | |
JP4802502B2 (en) | Word recognition device and word recognition method | |
JP4404704B2 (en) | Multilingual mobile communication terminal | |
JP2006215654A (en) | Character information display system and character information display method | |
KR100594432B1 (en) | Mobile communication terminal for searching text information and its operation method | |
JP2006106947A (en) | Dictionary retrieval system, portable information terminal and method of retrieving dictionary | |
US20030009462A1 (en) | Computer-readable designators and methods and systems of using the same | |
JP6874988B2 (en) | How to provide link information | |
JP2005115750A (en) | Japanese sentence creation system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20070528 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100506 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100607 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20100723 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20101110 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110107 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20110629 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110922 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20110930 |
|
A912 | Re-examination (zenchi) completed and case transferred to appeal board |
Free format text: JAPANESE INTERMEDIATE CODE: A912 Effective date: 20111202 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20121019 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20121203 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20151207 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20151207 Year of fee payment: 3 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313113 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20151207 Year of fee payment: 3 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313113 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
LAPS | Cancellation because of no payment of annual fees |