[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2008160852A - Information processing apparatus, information processing method, and software - Google Patents

Information processing apparatus, information processing method, and software Download PDF

Info

Publication number
JP2008160852A
JP2008160852A JP2007335602A JP2007335602A JP2008160852A JP 2008160852 A JP2008160852 A JP 2008160852A JP 2007335602 A JP2007335602 A JP 2007335602A JP 2007335602 A JP2007335602 A JP 2007335602A JP 2008160852 A JP2008160852 A JP 2008160852A
Authority
JP
Japan
Prior art keywords
information
unit
word
display
recognition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2007335602A
Other languages
Japanese (ja)
Inventor
Masahiro Yamazaki
正裕 山崎
Hideki Kuwamoto
英樹 桑本
Yuzo Okano
祐三 岡野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2007335602A priority Critical patent/JP2008160852A/en
Publication of JP2008160852A publication Critical patent/JP2008160852A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Information Transfer Between Computers (AREA)
  • Machine Translation (AREA)
  • Telephone Function (AREA)
  • Telephonic Communication Services (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a mobile phone with a means capable of reducing a data size of translation data for translating a foreign language and displaying both summarized and detailed translations. <P>SOLUTION: The information processing apparatus is provided with: a communication unit for communicating with another apparatus; an imaging unit for outputting image information; a recognition unit for recognizing identification information contained in the image information outputted by the imaging unit; an associated information acquisition instruction unit for instructing the acquisition of associated information associated with the identification information recognized by the recognition unit; and a control unit which controls to acquire and display the associated information via the communication unit in a case where the acquisition of the associated information is instructed by the associated information acquisition instruction unit. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、例えば、携帯電話、PHS(Personal Handy-phone System)、PDA(Personal Digital Assistant)やPC(Personal Computer)等の情報処理装置に関するものである。   The present invention relates to an information processing apparatus such as a mobile phone, PHS (Personal Handy-phone System), PDA (Personal Digital Assistant), and PC (Personal Computer).

特開2002−252691号公報には、OCR(Optical Character Recognition)機能により、撮像した画像情報に含まれる文字を文字情報に変換し、印刷物に掲載された住所や名前、電話番号、URL(Uniform Resource Locator)などを入力できる携帯電話が提案されている。また、特開平5−274346号公報には、紙面上に印刷された文字列のイメージを読み取り、OCR機能を利用してそのイメージから文字列を認識して文字情報に変換し、翻訳辞書を参照してその文字列に対応する翻訳を表示部に表示する電子辞書が提案されている。   Japanese Patent Laid-Open No. 2002-252691 discloses that characters included in captured image information are converted into character information by an OCR (Optical Character Recognition) function, and an address, name, telephone number, URL (Uniform Resource) posted on a printed matter is disclosed. Mobile phones that can input Locator) have been proposed. Japanese Patent Application Laid-Open No. 5-274346 discloses an image of a character string printed on paper, uses the OCR function to recognize the character string from the image, converts it into character information, and refers to a translation dictionary. An electronic dictionary that displays a translation corresponding to the character string on a display unit has been proposed.

特開2002−252691号公報JP 2002-252691 A 特開平5−274346号公報JP-A-5-274346

しかしながら、上記特許文献1では、印刷物に掲載された住所等の情報を入力できるOCR機能を搭載した携帯電話が開示されているものの、その入力された情報をどのように使うかといった使い勝手の面での検討が不十分であった。また、上記特許文献2では、例えば、OCR機能により入力された単語の翻訳を表示する際、簡単な翻訳しか表示されず、より詳しい翻訳やその単語の使い方などを知りたい場合は、別途英和辞書を引き直さなければならず、使い勝手が悪いといった問題があった。   However, although the above-mentioned patent document 1 discloses a mobile phone equipped with an OCR function that can input information such as an address posted on a printed material, it is easy to use such input information. The examination of was insufficient. In Patent Document 2, for example, when displaying a translation of a word input by the OCR function, only a simple translation is displayed. If you want to know more detailed translation and how to use the word, a separate English-Japanese dictionary is available. There was a problem that it was difficult to use.

そこで、本発明は、使い勝手の向上した情報処理装置、情報処理方法及びソフトウェアを提供することを目的とする。   SUMMARY An advantage of some aspects of the invention is that it provides an information processing apparatus, an information processing method, and software with improved usability.

上記課題を解決するために、例えば、請求項1記載の如く、他の装置と通信する通信部と、画像情報を出力する撮像部と、該撮像部により出力された画像情報に含まれる識別情報を認識する認識部と、該認識部により認識された識別情報に関連した関連情報の取得を指示する関連情報取得指示部と、該関連情報取得指示部により該関連情報の取得が指示された場合に該関連情報を該通信部を介して取得し表示するように制御する制御部とを備えればよい。   In order to solve the above problem, for example, as described in claim 1, a communication unit that communicates with another device, an imaging unit that outputs image information, and identification information included in the image information output by the imaging unit A recognition unit that recognizes the information, a related information acquisition instruction unit that instructs acquisition of related information related to the identification information recognized by the recognition unit, and an instruction to acquire the related information by the related information acquisition instruction unit And a control unit that controls to acquire and display the related information via the communication unit.

本発明によれば、使い勝手の向上した情報処理装置、情報処理方法及びソフトウェアを提供することができる。   According to the present invention, it is possible to provide an information processing apparatus, an information processing method, and software with improved usability.

以下、本発明の実施の形態を、図面を用いて説明する。なお、以下の図面において、同一の構成部については同符号を用いる。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. In the following drawings, the same symbols are used for the same components.

図1は、本実施例(第1の実施例)に係る携帯電話の構成ブロック図である。本実施例においては、携帯電話に搭載された画像認識機能(OCR機能)を利用して、紙面等に掲載された英単語の日本語訳を出力する場合を想定する。   FIG. 1 is a configuration block diagram of a mobile phone according to the present embodiment (first embodiment). In this embodiment, it is assumed that a Japanese translation of English words posted on paper or the like is output using an image recognition function (OCR function) installed in a mobile phone.

携帯電話100は、入力部101、CPU102、撮像部103、記憶部104、画像認識部105、辞書データ106、表示部107、通信部108、検索部109などを含んだものとして構成される。   The cellular phone 100 is configured to include an input unit 101, a CPU 102, an imaging unit 103, a storage unit 104, an image recognition unit 105, dictionary data 106, a display unit 107, a communication unit 108, a search unit 109, and the like.

入力部101は、電話番号その他の情報を入力する入力部であり、携帯電話の電源をON/OFFするとき、被写体を撮像するときなど、ユーザが携帯電話に入力を与える際に使用するものである。CPU102は、記憶部104に記憶されたプログラムに基づいて動作し、例えば、入力部101からの入力に応じて各部を制御するものである。   The input unit 101 is an input unit for inputting a telephone number and other information. The input unit 101 is used when a user gives an input to the mobile phone, such as when turning on / off the power of the mobile phone or capturing an image of a subject. is there. The CPU 102 operates based on a program stored in the storage unit 104, and controls each unit according to an input from the input unit 101, for example.

撮像部103は、例えば、カメラなどで構成されたものであり、被写体である人の顔や、景色、文字などを撮像し、CPU102で扱える画像情報に変換し、変換された画像情報は必要に応じて表示部107等に出力する。ユーザは、表示部107に出力された画像情報をモニタしながら撮像したい画像を選んでシャッター等により撮像の指示を行う。シャッターが押下されれば、撮像された画像情報は記憶部104に記憶される。また、記憶部104は、携帯電話100で扱うデータやソフトウェアなども記憶する。   The imaging unit 103 is configured by, for example, a camera, and captures a human face, a scene, characters, and the like as a subject, converts the image into image information that can be handled by the CPU 102, and the converted image information is necessary. In response, the data is output to the display unit 107 or the like. The user selects an image to be captured while monitoring the image information output to the display unit 107 and gives an instruction for imaging using a shutter or the like. When the shutter is pressed, the captured image information is stored in the storage unit 104. The storage unit 104 also stores data and software handled by the mobile phone 100.

画像認識部105は、画像情報に含まれる文字や記号等の識別情報を認識する。ここで、識別情報とは、文字、記号等で表された情報であり、例えば、ホームページのアドレス、メールアドレス、住所、電話番号、地図情報あるいは英語の単語等のように文字や記号等で表現されたものであり、事物を識別できる情報であれば上記例以外のものでも構わない。   The image recognition unit 105 recognizes identification information such as characters and symbols included in the image information. Here, the identification information is information represented by characters, symbols, etc., and is represented by characters, symbols, etc., such as homepage addresses, e-mail addresses, addresses, telephone numbers, map information, or English words. Any information other than the above example may be used as long as the information can identify the thing.

また、ここで、認識とは、撮像部103により撮像された画像情報に含まれる識別情報を抽出し、その識別情報を所定の領域ごとに分割し、分割された領域を所定のパラメータ値に変換し、そのパラメータ値に基づいて分割された領域がどのような情報であるかを決定することをいう。   Here, recognition refers to extracting identification information included in the image information captured by the imaging unit 103, dividing the identification information into predetermined areas, and converting the divided areas into predetermined parameter values. In addition, it means determining what kind of information the divided area is based on the parameter value.

より具体的にいえば、例えば、画像情報内の「abc」という文字を「認識」する場合を考えると、まず、「abc」が画像情報内のどの位置の情報であるかを特定し、次に、「a」「b」「c」に分割し、「a」を所定のパラメータ値(例えば、その文字を縦、横、斜めからの見た線分の構成を、文字の白色部分を「0」、黒色部分を「1」としてパラメータ化された値)に変換する。そして、変換されたパラメータ値に最も類似したパラメータ値と対応付けされた文字を文字パターンデータ表より選び出す。文字パターンデータ表とは、パラメータ値とそのパラメータ値に対応したアルファベット等の文字とが記述されている表であり、予め記憶されているものである。なお、画像認識部105はOCR機能を備えており、OCR機能を実現する具体的な構成は、例えば、特許文献1に記されている。   More specifically, for example, considering the case of “recognizing” the character “abc” in the image information, first, the position of “abc” in the image information is specified, and then Are divided into “a”, “b”, and “c”, and “a” is divided into predetermined parameter values (for example, the composition of a line segment when the character is viewed vertically, horizontally, and diagonally, and the white portion of the character 0 ”, the black part is converted to a parameterized value as“ 1 ”). Then, the character associated with the parameter value most similar to the converted parameter value is selected from the character pattern data table. The character pattern data table is a table in which parameter values and characters such as alphabets corresponding to the parameter values are described and stored in advance. Note that the image recognition unit 105 has an OCR function, and a specific configuration for realizing the OCR function is described in Patent Document 1, for example.

記憶部104に記憶された辞書データ106には、例えば、外国語の単語等といった識別情報、該識別情報の日本語訳及び該識別情報の様々な日本語訳や使い方・用例等について詳しく書かれたホームページのURL等が含まれる。なお、翻訳言語としては、日本語訳に限定されるものではなく、英語やフランス語などでもよい。さらに、識別情報の説明であることがわかれば、絵や音などのデータでもよい。   In the dictionary data 106 stored in the storage unit 104, for example, identification information such as words in a foreign language, etc., a Japanese translation of the identification information, various Japanese translations of the identification information, usage / examples, etc. are written in detail. URL of homepage etc. included. The translation language is not limited to the Japanese translation, and may be English or French. Furthermore, data such as pictures and sounds may be used as long as it is understood that the information is identification information.

表示部107は、撮像部103により撮像された画像や画像認識部105により認識された識別情報を表示する。その他、表示部107に、例えば、電源状態、電波強度、電池残量、サーバ接続状態、未読メール等の動作状態、入力した電話番号、メール宛先、メール送信文書等や、動画および静止画、着信時の発呼者の電話番号、着信メール文書、接続されたインターネット画面等の受信データの表示、また、携帯電話の機能を利用するために必要な画面を表示する。通信部108は、携帯電話100がインターネットや他の情報処理装置などにアクセスするための通信処理を行う。検索部109は、辞書データ106を参照し、画像認識部105により得られた識別情報と一致する識別情報を検索する。   The display unit 107 displays the image captured by the imaging unit 103 and the identification information recognized by the image recognition unit 105. In addition, the display unit 107 displays, for example, power status, radio wave intensity, remaining battery level, server connection status, operating status such as unread mail, input phone number, mail destination, mail transmission document, video, still image, incoming call, etc. Display the received data such as the telephone number of the calling party, the incoming mail document, the connected internet screen, and the screen necessary for using the functions of the mobile phone. The communication unit 108 performs communication processing for the mobile phone 100 to access the Internet or other information processing apparatus. The search unit 109 searches the identification data that matches the identification information obtained by the image recognition unit 105 with reference to the dictionary data 106.

また、CPU102は、モード判定フラグを利用して、撮像モードが通常の静止画又は動画を撮像する通常撮像モードであるか、画像認識部105を利用して識別情報を認識するモードである認識モードであるかを判定する。ここで、モード判定フラグは、例えば、記憶部104に記憶されたソフトウェアのプログラム中に存在する変数で、認識モードの場合と通常撮像モードとでは異なる値になるようにし、CPU102はこの変数に基づいて認識モードと通常撮像モードと、例えば、入力部101による操作により切り換える。以下、実施例では、「認識モード」と「通常撮像モード」との2種類を有する場合を考えるが、これに限定されるものではなく、それ以外にモードがあっても構わない。   In addition, the CPU 102 uses the mode determination flag, and the recognition mode is a normal imaging mode in which the imaging mode is a normal still image or moving image, or a mode in which the identification information is recognized using the image recognition unit 105. It is determined whether it is. Here, the mode determination flag is, for example, a variable that exists in the software program stored in the storage unit 104 and has a different value in the recognition mode and the normal imaging mode. The recognition mode and the normal imaging mode are switched by, for example, an operation by the input unit 101. Hereinafter, in the embodiment, a case where there are two types of “recognition mode” and “normal imaging mode” is considered, but the present invention is not limited to this, and there may be other modes.

図2は、辞書データ106の例を示している。列201は、外国語の単語が書かれた列であり、列202は、201の単語に対応した翻訳の概要が書かれた列である。列203は、列201の単語に対応した関連情報、例えば、翻訳の詳細が掲載されているホームページのURLが書かれた列である。なお、ここで、列201の列には例として英単語を記述したが、フランス語やドイツ語などどんな言語でもよいのは言うまでもない。 また、ここでは、列203にはURL全体を記述したが、URLの一部だけを記述してもよい。   FIG. 2 shows an example of the dictionary data 106. A column 201 is a column in which words in a foreign language are written, and a column 202 is a column in which a summary of translation corresponding to the words in 201 is written. A column 203 is a column in which related information corresponding to the words in the column 201, for example, a URL of a home page on which details of translation are posted, is written. Here, although English words are described in the column 201 as an example, it goes without saying that any language such as French or German may be used. Here, the entire URL is described in the column 203, but only a part of the URL may be described.

図3は、URLの一部だけが記述された場合の辞書データ106の例である。図2の場合は、”http://www.○○○.com”が共通であるので、この共通部分はURL共通部分204に記述しておき、”a”や”abacus”などのような固有の部分だけは列206にURL固有部分として記述しておく。また、URL作成方法205には、URL共通部分204とURL固有部分206とを組み合わせて、詳細翻訳が掲載されたホームページのURLを作成する方法を記述しておく。このように、URLの共通部分を辞書データ106内の予め定められた場所に代表して記述し、異なる部分だけを各英単語に対応して記述するようにしておくことで、辞書データ106のデータサイズを減らすことができ、携帯電話で保持すべきデータ量が削減できるというメリットがある。   FIG. 3 is an example of the dictionary data 106 when only a part of the URL is described. In the case of FIG. 2, since “http://www.xxx.com” is common, this common part is described in the URL common part 204, such as “a” or “abacus”. Only unique parts are described in the column 206 as URL-specific parts. The URL creation method 205 describes a method for creating a URL of a home page on which detailed translation is posted by combining the URL common part 204 and the URL specific part 206. In this way, the common part of the URL is described as a representative location in the dictionary data 106, and only the different part is described corresponding to each English word. There is an advantage that the data size can be reduced and the amount of data to be held by the mobile phone can be reduced.

さらに、図3のように、列206に記述される情報と列201の列に記述された単語と同じである場合は、URL固有部分が記述された列206を辞書データ1
06から省略するようにしても構わない。これにより、更に辞書データのデータサイズを減らすことができる。
Further, as shown in FIG. 3, when the information described in the column 206 is the same as the word described in the column 201, the column 206 describing the URL specific part is changed to the dictionary data 1.
It may be omitted from 06. As a result, the data size of the dictionary data can be further reduced.

次に、図4のフローチャートを用いて、本実施例における携帯電話の処理手順を説明する。まず、「認識モード」が入力部101を介してユーザにより選択された後、入力部101のうち撮像部103に撮像するように指示を出すスイッチ(以下、これをシャッターボタンと呼ぶ)が押下されれば、CPU102が撮像部103に対して撮像するように指示を出す(ステップS401)。そして、撮像部103により撮像(変換)された被写体である対象物の画像情報はCPU102を介して記憶部104に保存する(ステップS402)。   Next, the processing procedure of the mobile phone in the present embodiment will be described using the flowchart of FIG. First, after the “recognition mode” is selected by the user via the input unit 101, a switch (hereinafter referred to as a shutter button) that instructs the imaging unit 103 of the input unit 101 to capture an image is pressed. Then, the CPU 102 instructs the image capturing unit 103 to capture an image (step S401). Then, the image information of the object that is the subject imaged (converted) by the imaging unit 103 is stored in the storage unit 104 via the CPU 102 (step S402).

次に、画像認識部105が記憶部104に保存された画像情報を読み取り、該画像情報に含まれる識別情報、例えば、洋書の文中にある単語“recognition”を読み取って、認識結果を記憶部104に保存する(ステップS403)。この結果を、検索部109が読み取り、記憶部104により記憶された辞書データ106の列201にある単語の中から一致するものを検索する(ステップS404)。   Next, the image recognition unit 105 reads the image information stored in the storage unit 104, reads the identification information included in the image information, for example, the word “recognition” in the sentence of the foreign book, and stores the recognition result in the storage unit 104. (Step S403). The search unit 109 reads this result, and searches for a match from the words in the column 201 of the dictionary data 106 stored in the storage unit 104 (step S404).

検索する方法としては、まず識別情報が完全に一致するものを探し出し、完全に一致するものがなかった場合は一文字だけ異なるがその他の文字は一致している単語を探し出すという方法が好ましい。この方法を採用することで、画像認識部105が紙面上の文字を誤って認識した場合でも、その文字列に一番近い単語を探し出すことができ、何度も撮像して文字認識をやり直す手間が省くことができ、使い勝手がよい。   As a search method, it is preferable to first search for a completely matching identification information, and search for a word that is different by one character but does not match another character when there is no completely matching information. By adopting this method, even when the image recognition unit 105 mistakenly recognizes a character on the paper, it is possible to find the word closest to the character string, and it is time-consuming to repeat the character recognition by taking an image many times. Is easy to use.

また、一文字だけ異なる単語もない場合は、二文字異なる単語、三文字異なる単語、というふうに異なる文字数をだんだん増やして検索してもよく、この場合は認識率が低くても該当する単語を探し出すことができる。   If there is no word that differs only by one character, you can search by increasing the number of different characters such as two different characters, three different characters, etc. In this case, even if the recognition rate is low, find the corresponding word be able to.

ステップS405において、該当する単語が見つかった場合はステップS406に進む。もし該当する単語が見つからなかった場合はステップS410に進み、該当する単語が見つからなかったことをユーザに通知する画面を表示部107に表示して終了する。   If a corresponding word is found in step S405, the process proceeds to step S406. If the corresponding word is not found, the process proceeds to step S410, a screen for notifying the user that the corresponding word is not found is displayed on the display unit 107, and the process ends.

ステップS406では、ステップS404において検索部109により辞書データから検索され、当該検索された単語に対応する列202(翻訳の概要)をCPU102が読み取り、表示部107に表示する(ステップS406)。   In step S406, the search unit 109 searches in the dictionary data in step S404, and the CPU 102 reads the column 202 (translation outline) corresponding to the searched word and displays it on the display unit 107 (step S406).

この後、CPU102は、入力部101や表示部107を介して、より詳細な翻訳の要求が指示されたか否かを判断し(ステップS407)、要求指示がされた場合はステップS408に進む。   Thereafter, the CPU 102 determines whether or not a more detailed request for translation has been instructed via the input unit 101 or the display unit 107 (step S407). If the request is instructed, the process proceeds to step S408.

ステップS408では、ステップS404において検索部109により検索された単語に対応するURLをCPU102が読み取り、CPU102は、通信部108に対して該URLに接続するように指示信号を出力する。   In step S408, the CPU 102 reads the URL corresponding to the word searched by the search unit 109 in step S404, and the CPU 102 outputs an instruction signal to the communication unit 108 so as to connect to the URL.

ステップS409で、CPU102が通信部108を介して上記ホームページに記された内容を読み取り、記憶部104に保存する。その後、その内容をCPU102が表示部107に表示する。   In step S409, the CPU 102 reads the content written on the home page via the communication unit 108 and stores it in the storage unit 104. Thereafter, the CPU 102 displays the contents on the display unit 107.

以上のように、簡単な翻訳だけでなく詳細な翻訳を参照したい場合に、詳細な翻訳が記載されたホームページ等を表示させることができるため、わざわざ英和辞書等を引き直さなくてもその単語の詳細な意味を知ることができ、使い勝手がよい。   As described above, when you want to refer to detailed translations as well as simple translations, you can display a homepage that contains detailed translations, so you can search for the word without having to redraw the English-Japanese dictionary. You can know the detailed meaning and it is easy to use.

また、携帯電話などの携帯端末では、大容量のメモリを搭載することができないため、本実施例のように、端末内では必要最低限の情報(簡単な訳や代表的な訳等)を記憶させて置き、詳細な情報が欲しいときはインターネットなどのような別の情報処理装置上に保存された情報を取得して参照できるようにすることは非常に有効である。   In addition, since a large-capacity memory cannot be installed in a mobile terminal such as a mobile phone, the minimum necessary information (simple translation, representative translation, etc.) is stored in the terminal as in this embodiment. When detailed information is desired, it is very effective to acquire and refer to information stored on another information processing apparatus such as the Internet.

図5は、本実施例の表示画面例であり、紙面などの上に書かれた文字列が撮像され、その画像を文字認識により文字情報に変換し、辞書データ106の保持する概要翻訳を表示部に表示した後、詳細翻訳の表示を要求する入力があった場合は、辞書データ106の保持するURLに接続し、そのURLに記された内容を表示部107に表示する際の表示画面の例を示している。なお、表示部107の下部に表示された「メニュー」等の機能に対応したボタンは、入力部101のうち、例えば、上部に配置されたボタンなどであり、当該ボタン等がユーザにより押下されると、「メニュー」等の機能に対応した表示画面が表示部107に表示される。同様に、表示画面が遷移される度に、当該ボタン等は各表示画面の下部に表示された機能を実行するためのボタンとして割り当てられる。以下、表示画面の下部に表示された機能を実行するためのボタンは、本明細書において便宜上、当該表示された機能名と対応付けて呼ぶことにする。例えば、「メニュー」機能に対応したボタンを「メニューボタン」、あるいは、「戻る」機能に対応したボタンを「戻るボタン」と呼ぶ。なお、上述した実行ボタンは、右下や左下等の各機能が表示される位置に応じて各ボタンを割り当てるようにしても構わないし、一つのボタンで実現しても構わない。   FIG. 5 is an example of a display screen of the present embodiment, where a character string written on a sheet or the like is imaged, the image is converted into character information by character recognition, and a summary translation held in the dictionary data 106 is displayed. If there is an input requesting the display of the detailed translation after being displayed on the screen, the display screen when the content stored in the URL is displayed on the display unit 107 is connected to the URL held in the dictionary data 106 An example is shown. A button corresponding to a function such as “menu” displayed at the bottom of the display unit 107 is, for example, a button arranged at the top of the input unit 101, and the button is pressed by the user. Then, a display screen corresponding to a function such as “menu” is displayed on the display unit 107. Similarly, each time the display screen is changed, the button or the like is assigned as a button for executing a function displayed at the bottom of each display screen. Hereinafter, for convenience, a button for executing a function displayed at the bottom of the display screen is referred to in association with the displayed function name. For example, a button corresponding to the “menu” function is referred to as a “menu button”, or a button corresponding to the “return” function is referred to as a “return button”. Note that the execution button described above may be assigned to each button according to the position where each function such as lower right or lower left is displayed, or may be realized by one button.

画面501は、撮像モードとして「認識モード」が選択され、例えば、英文中の「Recognition」という単語を特定し、認識することを試みている画面例である。なお、ここで、上記英単語「「Recognition」を特定する手段として、例えば、表示部107の中心に表示された「+」マークを識別情報である「Recognition」の上に持っていけば、「+」マークの位置から近傍のスペース情報からスペース情報までの部分を一区切りの単語として「Recognition」という単語を自動的に特定するようにしてもよいし、ユーザが入力部104を利用して、例えば、上記メールアドレス情報等の認識部分をカーソル等で指定できるようにしても構わない。認識対象を決定する方法が複数ある場合に、選択できるようにしても構わない。また、動画の場合は、動画を静止画でコマ送りできるように設定しておき、そのコマ送り画面で認識対象部を選択できるようにしても構わない。   A screen 501 is a screen example in which “recognition mode” is selected as an imaging mode, and for example, the word “Recognition” in English is identified and tried to be recognized. Here, as a means for specifying the English word “Recognition”, for example, if the “+” mark displayed at the center of the display unit 107 is brought on the identification information “Recognition”, “ The word “Recognition” may be automatically specified with the portion from the space information to the space information in the vicinity from the position of the “+” mark as a single word, or the user may use the input unit 104 to, for example, The recognition part such as the mail address information may be designated with a cursor or the like. If there are a plurality of methods for determining the recognition target, the recognition target may be selected. In the case of a moving image, the moving image may be set so that it can be frame-fed as a still image, and the recognition target portion may be selected on the frame-advancing screen.

また、ここでは、認識対象である英単語「Recognition」を点線等で囲み明確化したが、画像編集部において認識対象となる「Recognition」を拡大または縮小した画像を作成し、その画像を表示してもよい。拡大するには、例えば、1×1画素で表示していたところを2×2画素で表示する。さらに、画像編集部で認識対象となる文字の画像部分を白黒に変換したものやセピア色に変換したり、または、白黒反転したものを作成しその画像を表示したりしてもよく、画像内でどれが認識対象であるかが明確に分かるように表示すれば、上記例に限定されるものではない。   Also, here, the English word “Recognition” that is the recognition target is clarified by surrounding it with a dotted line etc., but the image editing unit creates an image that enlarges or reduces the “Recognition” that is the recognition target, and displays the image May be. In order to enlarge, for example, what is displayed with 1 × 1 pixel is displayed with 2 × 2 pixels. In addition, the image editing unit may convert the image part of the character to be recognized to black and white, convert it to sepia, or create a reversed black and white image and display the image. However, the display is not limited to the above example as long as it is clearly displayed which is the recognition target.

待受状態からこの画面501の状態にするには、例えば、「認識モード」ボタンを押下したり、または待受状態からメニュー画面に進み、そのメニュー画面に沿ってボタン操作を行うことにより画面501に移行してもよい。画面501において、画面下部の「認識」ボタンを押下すると、画面502に遷移する。   In order to change from the standby state to the state of the screen 501, for example, by pressing the “recognition mode” button or proceeding from the standby state to the menu screen and performing a button operation along the menu screen, You may move to. When a “recognition” button at the bottom of the screen 501 is pressed, the screen transitions to the screen 502.

画面502は、撮像した画像の中でURLなどの認識可能な部分を文字認識部103が検出し、認識処理を行っている最中であることを表す画面である。認識処理が終了すると、画面503に遷移する。   A screen 502 is a screen indicating that the character recognition unit 103 detects a recognizable portion such as a URL in a captured image and is performing a recognition process. When the recognition process ends, the screen transitions to a screen 503.

画面503は、画像認識部105が認識した結果と、その文字列に対応した概要翻訳202を表示部107に表示した画面である。認識対象となる文字以外の部分の画像は、例えば、認識対象が何であるかを明確化するために、黒色で塗りつぶしたり、撮像した画像やアイコンなどが表示されていない部分の色と同じ色で塗りつぶしたりしている。ユーザが、単語の意味や使い方をもっと詳しく知りたい場合は、画面503の左下部に表示された詳細表示に対応したボタンを押すと、画面504に遷移する。   A screen 503 is a screen on which the result recognized by the image recognition unit 105 and the outline translation 202 corresponding to the character string are displayed on the display unit 107. For example, in order to clarify what the recognition target is, the image of the part other than the character to be recognized is the same color as the color of the part where the captured image or icon is not displayed. It is painted. When the user wants to know the meaning and usage of the word in more detail, when the user presses a button corresponding to the detailed display displayed in the lower left portion of the screen 503, the screen transitions to the screen 504.

画面504は、通信部108が列203に接続する処理を実行していることを表した画面である。列203に接続できると、画面505に遷移する。   A screen 504 is a screen indicating that the communication unit 108 is executing processing for connecting to the column 203. When connection to the column 203 is possible, the screen transitions to the screen 505.

画面505は、列203のホームページの内容を表示した画面を表している。   A screen 505 represents a screen displaying the contents of the home page in the column 203.

以上のような表示画面を利用することで、ユーザは簡単な翻訳を知った後、簡単な操作で、単語の詳細な意味やその使い方・用例を知ることができ、使い勝手がよい。   By using the display screen as described above, after the user knows a simple translation, the user can know the detailed meaning of the word and its usage / examples with a simple operation, which is convenient.

なお、上記実施例では、詳細な単語の意味や使い方を参照するために1種類のホームページのURLを利用することを想定したが、特段これに限定するものではなく、例えば、複数のURL情報を記憶部104に記憶させておき、詳細な訳等を要求する際にその複数のURLの中から好みのURLを選択できるようにしても構わない。これにより、ユーザは、単語に関する詳細な訳等を豊富な情報源から選択することができ、使い勝手がよい。当然、単語に関して詳細な情報を参照するための情報としてURL情報に限定する必要もない。
更にまた、上記例において、英単語の翻訳に関する詳細な情報として、単語の翻訳に関して詳細に記載されたホームページのURLを想定したが、これに限定するものではなく、単語の訳に関して詳細な情報を参照できるものであれば、なんでもよい。
In the above embodiment, it is assumed that the URL of one type of homepage is used to refer to the meaning and usage of a detailed word. However, the present invention is not limited to this. You may make it memorize | store in the memory | storage part 104, and when selecting a detailed translation etc., you may enable it to select favorite URL from the some URL. Thereby, the user can select a detailed translation related to the word from abundant information sources, which is easy to use. Of course, it is not necessary to limit to URL information as information for referring to detailed information regarding words.
Furthermore, in the above example, as the detailed information regarding the translation of the English word, the URL of the home page described in detail regarding the translation of the word is assumed. However, the present invention is not limited to this. Anything can be used as long as it can be referred to.

また、上記例では詳細な情報を入手するためにホームページを利用したが、携帯電話の記憶部104に訳の詳細な情報を記憶しておくようにすればよい。この場合、単語の簡単な訳と詳細な訳とで区別して記憶するようにし、通常の認識結果は簡単な訳で表示し、更に、ユーザにより詳細な情報の要求指示がなされた場合は、記憶部104に記憶された詳細な情報を表示する。これにより、携帯電話内に訳の詳細な情報が記憶されているためにホームページと接続することなく、速やかに該詳細な情報を表示することができるため、無駄な時間を節約することができ、また、通信圏外においても詳細情報を参照できる。   In the above example, the homepage is used to obtain detailed information. However, the translated detailed information may be stored in the storage unit 104 of the mobile phone. In this case, the simple translation and the detailed translation of the word are distinguished and stored, the normal recognition result is displayed in a simple translation, and if the user requests detailed information, the memory is stored. Detailed information stored in the unit 104 is displayed. Thereby, since detailed information of the translation is stored in the mobile phone, it is possible to quickly display the detailed information without connecting to the homepage, so that wasted time can be saved, Detailed information can be referred to even outside the communication range.

また、詳細な情報が蓄えられたPC(Personal computer)等の装置を利用して詳細な情報を取得できるようにしても構わない。   Further, detailed information may be acquired using a device such as a PC (Personal computer) in which detailed information is stored.

この場合、携帯電話と辞書データ106の列206には、PCに記憶された翻訳等の詳細情報を読み取るために必要な情報を記載しておく。ここで、翻訳の詳細な情報を参照するために必要な情報(以下、参照必要情報)とは、例えば、翻訳の詳細情報を保持するPCを特定するための情報(IPアドレスなどの識別子)、翻訳の詳細が記載されたファイルのパス名及びファイル名、あるいは、PCの記憶部における詳細翻訳が記載された部分を示すアドレスなどである。   In this case, information necessary for reading detailed information such as translation stored in the PC is written in the column 206 of the mobile phone and dictionary data 106. Here, information necessary for referring to detailed translation information (hereinafter referred to as reference required information) is, for example, information (identifier such as an IP address) for identifying a PC that holds detailed translation information, A path name and file name of a file in which details of translation are described, or an address indicating a portion in which detailed translation is described in the storage unit of the PC.

そして、例えば、「abalone」という単語を認識する場合に、より詳細な翻訳情報が欲しいときは、ユーザは図5(3)のような表示画面例等を利用して詳細情報の要求指示を行い、要求指示信号を受信したCPU102は、記憶部104に記憶された辞書データの「abalone」に対応した参照必要情報を通信部108を介してPCに送信する。PCが参照必要情報を受信すれば、参照必要情報に基づいて外部情報処理装置の記憶部に蓄えられた単語の訳等の詳細な情報を携帯電話に送信する。単語の訳等の詳細な情報を受信した携帯電話のCPU102は、それを表示部107に表示する。なお、携帯電話とPCとを接続する手段としては、有線であっても無線であっても構わない。   For example, when recognizing the word “abalone” and wanting more detailed translation information, the user uses a display screen example as shown in FIG. Upon receiving the request instruction signal, the CPU 102 transmits necessary reference information corresponding to “abalone” of the dictionary data stored in the storage unit 104 to the PC via the communication unit 108. When the PC receives the reference necessary information, it transmits detailed information such as word translations stored in the storage unit of the external information processing apparatus to the mobile phone based on the reference necessary information. The CPU 102 of the mobile phone that has received the detailed information such as the word translation displays it on the display unit 107. Note that the means for connecting the mobile phone and the PC may be wired or wireless.

これによれば、携帯電話内に単語訳等の詳細な情報をPCの記憶部を利用して参照できるため、記憶部104における記憶容量を低減できる。また、通信圏外においても詳細な情報を参照でき、使い勝手がよい。また、同様に、詳細な情報が記憶されている記憶媒体を介して参照できるようにしても構わない。この場合は、携帯電話に記録媒体の情報を読み取るための記録媒体読取部を設けるようにする。処理は前述と同様にすればよい。   According to this, since detailed information such as word translation can be referred to in the mobile phone using the storage unit of the PC, the storage capacity in the storage unit 104 can be reduced. In addition, detailed information can be referred to even outside the communication range, which is convenient. Similarly, reference may be made via a storage medium in which detailed information is stored. In this case, the mobile phone is provided with a recording medium reading unit for reading information on the recording medium. The processing may be the same as described above.

また、英単語等の詳細な情報自体をユーザ自らが作成や編集ができるようにしても構わない。この場合、詳細な情報をユーザが作成や編集(追加や削除等)するための設定画面などを表示部107に表示させる。そうした設定画面を介して入力された情報は、辞書データの列203に記憶されるようにする。そして、認識した単語の詳細な情報を参照する際には、詳細情報要求指示を受けたCPU102は、記憶部104に記憶された辞書データに基づいて詳細な情報を表示部107に表示する。   Further, detailed information itself such as English words may be created and edited by the user himself / herself. In this case, a setting screen for the user to create or edit (addition or deletion) detailed information is displayed on the display unit 107. Information input via such a setting screen is stored in the dictionary data column 203. When referring to the detailed information of the recognized word, the CPU 102 that has received the detailed information request instruction displays detailed information on the display unit 107 based on the dictionary data stored in the storage unit 104.

これにより、自分オリジナルの辞書を作成や編集することができ、さらに、作成されたオリジナル辞書で単語の詳細な情報を参照することができるため、予め設定された詳細な情報には記載されていない情報を追加もしくは削除等することができ、更に使い勝手が向上する。   This allows you to create and edit your own original dictionary, and because you can refer to the detailed information of the word in the original dictionary that has been created, it is not described in the preset detailed information Information can be added or deleted, which further improves usability.

更にまた、上記では、簡易な情報を知りたい場合は携帯電話内に記憶された情報を利用し、詳細な情報を知りたい場合はPCや記憶媒体を利用するようにしたが、簡易な情報を参照する際もPCや記憶媒体に記憶された情報を利用するようにしても構わない。   Furthermore, in the above, the information stored in the mobile phone is used to obtain simple information, and the PC or storage medium is used to obtain detailed information. When referring, information stored in a PC or a storage medium may be used.

次に、第2の実施例について説明する。上記第1の実施例は、英単語を認識して日本語訳を表示する例であるが、これだと、フランス語やドイツ語などの他言語は翻訳できないといった問題がある。本実施例は、この点に留意してなされた実施例である。   Next, a second embodiment will be described. The first embodiment is an example in which an English word is recognized and a Japanese translation is displayed. However, there is a problem that other languages such as French and German cannot be translated. The present embodiment has been made with this point in mind.

第1の実施例と異なる点は、記憶部104に記憶される辞書データに、辞書データaと辞書データbの2つに増えた点と、辞書フラグが含まれる点である。   The difference from the first embodiment is that the dictionary data stored in the storage unit 104 is increased to two dictionary data a and dictionary data b, and a dictionary flag is included.

例えば、辞書データaは英和辞書で、辞書データbは独和辞書である。なお、ここでは、辞書データとして2種類の言語(英語とドイツ語)を想定したが、3種類以上の言語を想定してそれぞれに対応した辞書データを記憶するようにしてもよい。   For example, the dictionary data a is an English-Japanese dictionary and the dictionary data b is a German-Japanese dictionary. Here, two types of languages (English and German) are assumed as the dictionary data, but dictionary data corresponding to each of them may be stored assuming three or more types of languages.

辞書フラグは、CPU102がどの辞書データを使用するかを選択するために使うフラグである。辞書フラグは、例えば、記憶部104に記憶されたソフトウェアのプログラム中に存在する変数であり、辞書データに割り当てられた識別番号を代入するようにし、CPU102はこの変数に基づいて使用する辞書データを選択する。辞書フラグの値は、入力部101を介したユーザの操作によって変更が可能となるようにしておくことで、ユーザは多言語の単語に対して翻訳を得ることができ、使い勝手がよい。   The dictionary flag is a flag used by the CPU 102 to select which dictionary data is used. The dictionary flag is, for example, a variable that exists in a software program stored in the storage unit 104, and an identification number assigned to the dictionary data is substituted. The CPU 102 stores dictionary data to be used based on the variable. select. The dictionary flag value can be changed by the user's operation via the input unit 101, so that the user can obtain translations for multilingual words and is easy to use.

図6は、ユーザが使用する辞書を選択する際の、携帯電話100の画面表示例を示している。画面601は、携帯電話が撮像部103による撮像を行なえる状態を表した画面である。待ち受け状態からこの状態にするには、例えば携帯電話の側面についているスイッチを押下したり、または待ち受け状態からメニュー画面に進みボタンを数回押下するといった操作を行なう。画面601において、画面右下の「メニュー」に対応したボタンを押下すると、画面602に遷移する。   FIG. 6 shows a screen display example of the mobile phone 100 when the user selects a dictionary to be used. A screen 601 is a screen representing a state in which the mobile phone can perform imaging by the imaging unit 103. In order to change from the standby state to this state, for example, a switch on the side of the mobile phone is pressed, or an operation such as going from the standby state to the menu screen and pressing the button several times is performed. When a button corresponding to the “menu” at the lower right of the screen is pressed on the screen 601, the screen transitions to the screen 602.

画面602は、撮像および文字認識に関するメニューを選択する画面である。この状態で、「(1)辞書選択」が入力部101を介して選択されると画面603に遷移する。   A screen 602 is a screen for selecting a menu related to imaging and character recognition. In this state, when “(1) dictionary selection” is selected via the input unit 101, the screen transitions to the screen 603.

画面603は、使用する辞書を選択する画面である。この状態で、「(3)△△△和英」が入力部101を介して選択されると画面604に遷移する。   A screen 603 is a screen for selecting a dictionary to be used. In this state, when “(3) ΔΔΔ Japanese and English” is selected via the input unit 101, the screen transitions to the screen 604.

画面604は、使用する辞書が△△△和英辞書になったことをユーザに知らせる画面である。ここで「確認」に対応したボタンを押下すると画面605に遷移し、再び携帯電話が撮像部103による撮像を行なえる状態になる。   A screen 604 is a screen that informs the user that the dictionary to be used is a ΔΔΔ Japanese-English dictionary. Here, when the button corresponding to “confirm” is pressed, the screen transitions to a screen 605, and the mobile phone is again in a state in which imaging by the imaging unit 103 can be performed.

このように、辞書データを複数持つことで、多言語に対応した電子辞書機能を有することができ、使い勝手よい。   Thus, by having a plurality of dictionary data, it is possible to have an electronic dictionary function corresponding to multiple languages, which is easy to use.

また、使用する辞書データが、例えば、英和辞書に設定されている場合、ドイツ語の単語を認識したときは、該当する単語を見つけることができない。こういった場合に、携帯電話が保持する辞書データ全てを検索させるように構成することで、英和辞書以外に独和辞書を保持していればドイツ語の単語に対しても翻訳を表示することが可能となる。全ての辞書データを検索する方法としては、全ての辞書データの識別番号を入れた配列を用意し、CPU102が辞書フラグに設定された辞書データを検索した後、該配列の第1番目の要素に格納された識別番号に対応する辞書データを検索し、この中でも見つからない場合は、第2番目、第3番目といったように辞書データを変更して検索していく。このようにすることで、ユーザがわざわざ辞書データを選択する手間を省け、使い勝手のよい辞書機能を実現できる。   For example, when the dictionary data to be used is set in an English-Japanese dictionary, when a German word is recognized, the corresponding word cannot be found. In such a case, if you have a German-Japanese dictionary in addition to the English-Japanese dictionary, you can display translations for German words by searching all the dictionary data held by the mobile phone. Is possible. As a method of searching all dictionary data, an array including all dictionary data identification numbers is prepared, and after the CPU 102 searches the dictionary data set in the dictionary flag, the first element of the array is set as the first element. The dictionary data corresponding to the stored identification number is searched. If the dictionary data is not found, the dictionary data is changed and searched for the second and third. By doing so, it is possible to realize a user-friendly dictionary function that saves the user from having to manually select dictionary data.

また、上記第2の実施例は、辞書データを複数保持することで多言語の翻訳を出力できるようにした例であるが、これは画像認識部105が認識できる言語に限られてしまう。例えば、英語だけを認識できる画像認識部105では、タイ語やアラビア語は認識できない。よって、タイ語やアラビア語の辞書データを保持しても、認識ができないために翻訳を出力できないという問題がある。   The second embodiment is an example in which multilingual translation can be output by holding a plurality of dictionary data, but this is limited to languages that the image recognition unit 105 can recognize. For example, the image recognition unit 105 that can recognize only English cannot recognize Thai or Arabic. Therefore, there is a problem that even if Thai or Arabic dictionary data is held, the translation cannot be output because it cannot be recognized.

こうした問題を解決するために、通信部108を介してインターネットに接続し、多言語の文字パターンデータをダウンロードし、上記文字パターンデータ表に追加するようにすればよい。この場合の処理を以下に説明する。   In order to solve these problems, it is only necessary to connect to the Internet via the communication unit 108, download multilingual character pattern data, and add it to the character pattern data table. Processing in this case will be described below.

図10のフローチャートを用いて、本実施例に係る携帯電話がインターネットから文字パターンデータをダウンロードする際の処理手順を説明する。   A processing procedure when the mobile phone according to this embodiment downloads character pattern data from the Internet will be described with reference to the flowchart of FIG.

まず、文字パターンデータ表のダウンロード指示を受けたCPU102は、通信部108を介してインターネット上に存在する上記文字パターンデータが書かれたサイトに接続する(ステップS1001)。このサイトを表示した状態で、ユーザが文字パターンのダウンロードを指示するために入力部101のボタンを押下する(S1002)。これを受けてCPU102は、通信部108を介して、上記サイトから文字パターンデータをダウンロードし、記憶部104に保存する(ステップS1003)。   First, the CPU 102 having received the instruction to download the character pattern data table connects to the site on the Internet where the character pattern data is written via the communication unit 108 (step S1001). With this site displayed, the user presses a button on the input unit 101 to instruct the downloading of the character pattern (S1002). In response to this, the CPU 102 downloads character pattern data from the site via the communication unit 108 and stores it in the storage unit 104 (step S1003).

この後、CPU102は、上記文字パターンデータを文字パターンデータ表に追加する(ステップS1004)。   Thereafter, the CPU 102 adds the character pattern data to the character pattern data table (step S1004).

図11は、本実施形態の携帯電話帯が、文字パターンデータをダウンロードできるサイトに接続し、アラビア語の文字パターンデータをダウンロードする画面の例を示している。   FIG. 11 shows an example of a screen on which the mobile phone band of this embodiment connects to a site where character pattern data can be downloaded and downloads Arabic character pattern data.

画面1101は、文字パターンをダウンロードできるインターネット上のサイトを表示した画面である。ここで、「アラビア語」を選択すると、画面1102に遷移する。画面1102は、アラビア語の文字パターンデータをダウンロードするかどうかをユーザに確認する画面である。ここで、「はい」を選択すると、画面1103に遷移する。画面1103は、アラビア語の文字パターンをダウンロードしていることを表す画面である。この状態でしばらく待ち、ダウンロードが終了すると画面1104に遷移する。画面1104は、アラビア語の文字パターンデータをダウンロードしたことを表す画面である。同様にして、各言語の文字パターンに対応した辞書データをダウンロードする。   A screen 1101 displays a site on the Internet where character patterns can be downloaded. Here, when “Arabic” is selected, the screen changes to a screen 1102. A screen 1102 is a screen for confirming with the user whether or not to download Arabic character pattern data. If “yes” is selected here, the screen changes to a screen 1103. A screen 1103 is a screen indicating that an Arabic character pattern is being downloaded. In this state, it waits for a while, and when the download is completed, the screen transitions to a screen 1104. A screen 1104 is a screen indicating that Arabic character pattern data has been downloaded. Similarly, dictionary data corresponding to the character pattern of each language is downloaded.

このように、文字パターンデータ及び種々の言語の辞書をダウンロードできるように構成したことにより、多言語に対して文字認識及び翻訳参照を行うことができるため、使い勝手が向上する。   As described above, since the character pattern data and dictionaries of various languages can be downloaded, character recognition and translation reference can be performed for multiple languages, so that usability is improved.

なお、予め記憶部104に記憶されていた文字パターンデータ表以外の文字を認識する際に、認識不可能であることをユーザに通知し、その場合に文字パターンデータ表のダウンロードをするように促す画面を表示部107に表示させるようにしてもよい。これにより、たとえ認識対象の文字が認識不可能であったとしても、速やかに認識できるようになり、使い勝手が向上する。   In addition, when recognizing characters other than the character pattern data table stored in the storage unit 104 in advance, the user is notified that recognition is impossible, and in that case, the user is prompted to download the character pattern data table. The screen may be displayed on the display unit 107. As a result, even if the character to be recognized cannot be recognized, it can be quickly recognized and the usability is improved.

更に、例えば、辞書データとして英単語に関するものしかない場合に英単語以外の単語を認識しようとしたときに、翻訳不可能であることをユーザに通知し、その場合に辞書データをダウンロードするように促す画面を表示部107に表示させるようにしてもよい。   Furthermore, for example, when there is only dictionary data related to English words, when trying to recognize words other than English words, the user is notified that translation is impossible, and in that case, dictionary data is downloaded. A screen for prompting may be displayed on the display unit 107.

第1の実施例と異なる点は、記憶部104に記憶される辞書データに、辞書データaと辞書データbの2つに増えた点と、辞書フラグが含まれる点である。   The difference from the first embodiment is that the dictionary data stored in the storage unit 104 is increased to two dictionary data a and dictionary data b, and a dictionary flag is included.

例えば、辞書データaは英和辞書で、辞書データbは独和辞書である。なお、ここでは、辞書データとして2種類の言語(英語とドイツ語)を想定したが、3種類以上の言語を想定してそれぞれに対応した辞書データを記憶するようにしてもよい。   For example, the dictionary data a is an English-Japanese dictionary and the dictionary data b is a German-Japanese dictionary. Here, two types of languages (English and German) are assumed as the dictionary data, but dictionary data corresponding to each of them may be stored assuming three or more types of languages.

また、インターネット上には英和辞書などのホームページが複数あり、誰でも閲覧可能なホームページと、登録されたユーザのみが閲覧できるホームページがある。登録されたユーザのみが閲覧できるホームページは、ユーザIDとパスワードをユーザが入力することで閲覧できる。詳細な翻訳の要求が指示された場合に、登録されたユーザのみが閲覧できるサイトを表示してもよい。しかし、この場合は詳細な翻訳を表示するたびにユーザがユーザIDとパスワードを入力しなければならず、使い勝手が悪い。そこで、ユーザIDとパスワードを辞書データの予め定められた部分に記載しておく、という工夫を施す。図12に、複数の辞書データを保持し、その辞書データに含まれる詳細な翻訳のホームページがユーザ認証の必要なものである場合の具体例を示す。携帯端末は、辞書提供者から辞書データを取得することができる。その辞書データには、IDとパスワードが付属している。そのIDとパスワードは、辞書データに記載された詳細な翻訳が書かれたホームページにアクセスする際、ユーザ認証に使用する。   In addition, there are a plurality of homepages such as English-Japanese dictionaries on the Internet, and there are homepages that can be browsed by anyone and homepages that can be browsed only by registered users. A homepage that can be browsed only by registered users can be browsed by the user entering a user ID and password. When a detailed translation request is instructed, a site that can be browsed only by registered users may be displayed. However, in this case, every time a detailed translation is displayed, the user must input a user ID and a password, which is inconvenient. Therefore, a contrivance is provided in which the user ID and password are described in a predetermined part of the dictionary data. FIG. 12 shows a specific example in the case where a plurality of dictionary data is held and a detailed translation homepage included in the dictionary data requires user authentication. The portable terminal can acquire dictionary data from the dictionary provider. The dictionary data is accompanied by an ID and a password. The ID and password are used for user authentication when accessing a home page on which a detailed translation written in the dictionary data is written.

図13に、本実施例の辞書データを用いて詳細な翻訳が記載されたホームページを表示する際のフローチャートを示す。   FIG. 13 shows a flowchart for displaying a homepage on which detailed translation is described using the dictionary data of this embodiment.

ステップS1301で、携帯電話が辞書データを取得する。その方法としては、インターネット上に存在する辞書データファイルを、通信部108を介してダウンロードしてもよいし、記憶媒体に記憶された辞書データを携帯電話に接続させることで取得してもよい。   In step S1301, the mobile phone acquires dictionary data. As the method, a dictionary data file existing on the Internet may be downloaded via the communication unit 108, or dictionary data stored in a storage medium may be acquired by connecting to a mobile phone.

このように辞書データを保持した状態で、文字認識を行ない(ステップS1302)、概要翻訳を表示する(ステップS1303)。   Character recognition is performed with the dictionary data held in this manner (step S1302), and summary translation is displayed (step S1303).

詳細翻訳を表示するように要求する信号をCPU102が受信すると(ステップS1304)、CPU102は辞書データからサーバにアクセスするために必要なユーザIDとパスワードを取得する。取得する方法としては、辞書データの中のユーザIDとパスワードが記載されている場所を予め定めておき、CPU102がその場所を読み取るという方法が考えられる。また、ユーザIDとパスワードが記載されている場所を辞書データのヘッダ部分に記載しておき、CPU102がヘッダ部分を読み取ってユーザIDとパスワードの記載された場所を取得し、ユーザIDとパスワードを読み取る、という方法も考えられる
ステップS1306では、CPU102が通信部108を介してサーバにアクセス信号を送信する。この際、ユーザIDとパスワードも一緒に送信する。アクセス信号、ユーザID、パスワードを受信したサーバでは、ユーザ認証を行ない、認証が成功すると詳細翻訳データを端末に送信する。
When the CPU 102 receives a signal requesting to display the detailed translation (step S1304), the CPU 102 acquires a user ID and a password necessary for accessing the server from the dictionary data. As a method of obtaining, it is conceivable that a place where the user ID and password in the dictionary data are described in advance is determined and the CPU 102 reads the place. Further, the location where the user ID and password are described is described in the header portion of the dictionary data, and the CPU 102 reads the header portion to acquire the location where the user ID and password are described, and reads the user ID and password. In step S1306, the CPU 102 transmits an access signal to the server via the communication unit 108. At this time, the user ID and password are also transmitted together. The server that receives the access signal, the user ID, and the password performs user authentication, and transmits the detailed translation data to the terminal when the authentication is successful.

ステップS1307では、CPU102が通信部108を介して詳細翻訳データを取得し、記憶部に記憶する。ステップS1308では、CPU102が記憶部に記憶された詳細翻訳データを読み取り、表示部に表示させる。   In step S1307, the CPU 102 acquires detailed translation data via the communication unit 108 and stores it in the storage unit. In step S1308, the CPU 102 reads the detailed translation data stored in the storage unit and displays it on the display unit.

このように、ユーザIDとパスワードが必要なホームページにアクセスする際にも、ユーザは入力操作をせずにユーザ認証が行われ、使い勝手がよい。   In this way, when accessing a home page that requires a user ID and password, the user is authenticated without performing an input operation, which is convenient.

次に、第3の実施例について説明する。人間の記憶容量には限界があり、以前調べた英語の単語でも時間が経てばその意味等を忘れてしまうことも多いにあり得る。そうした場合に再度認識し直すのは手間がかかって面倒である。   Next, a third embodiment will be described. There is a limit to human memory capacity, and it is often possible to forget the meaning of English words that have been examined before. In such a case, re-recognition is troublesome and troublesome.

本実施例は、こうした問題に対して検討されたものであり、認識された単語の翻訳等の履歴情報を残す点に特徴がある。以下、このような履歴情報を作成していく処理と、履歴情報を利用する処理に分けて説明する。   This embodiment has been studied for such a problem, and is characterized in that history information such as translation of recognized words is left. Hereinafter, the process of creating such history information and the process of using history information will be described separately.

まず、履歴情報を作成する処理について説明する。図7は、検索された結果が履歴情報として記憶部104に記憶される場合の1例であり、例えば、図7のように、検索部109により検索された単語、検索したときの時刻などの履歴が記されてある。   First, processing for creating history information will be described. FIG. 7 shows an example of the case where the search result is stored as history information in the storage unit 104. For example, as shown in FIG. 7, the word searched by the search unit 109, the time when the search was performed, etc. The history is written.

列701は、辞書データの列201のうち文字認識された単語である。列702は、各単語が認識された回数を表している。列703は、今までに認識された時刻のうちで最新の時刻を表している。列704は、履歴情報を利用して英単語等の意味を確認した回数を示すものであり、列705は、最後に確認した時刻を表している。   A column 701 is a word whose character is recognized in the column 201 of the dictionary data. Column 702 represents the number of times each word has been recognized. A column 703 represents the latest time among the times recognized so far. A column 704 indicates the number of times the meaning of an English word or the like has been confirmed using history information, and a column 705 represents the last confirmed time.

図8は、本発明の第3の実施例に係る携帯電話が、文字認識をした後、例えば、図7のような履歴表を作成する際のフローチャートを表した図である。ステップS406、ステップS407はそれぞれ図4のステップS406、ステップS407を表しており、その間にステップS801〜ステップS804の処理がなされるフローになる。   FIG. 8 is a diagram showing a flowchart when the mobile phone according to the third embodiment of the present invention creates a history table as shown in FIG. 7, for example, after character recognition. Step S406 and step S407 represent step S406 and step S407 in FIG. 4, respectively, and the flow of steps S801 to S804 is performed during that time.

ステップS406は、辞書データ106の概要翻訳、すなわち代表的な訳や簡単な訳を表示した状態である。ここで、検索部109が検索した結果の単語が記憶部104に記憶された履歴情報に存在するかどうかを判定し(ステップS801)、存在した場合はステップS802に進む。ステップS802では、CPU102は、履歴情報の認識回数702を1つ増やす更新処理を行う。ステップS803では、CPU102によりなされる処理がステップS803に到達した時点の時刻を時刻取得部902が取得し、その時刻を履歴情報の最終認識時刻703に記載する。   Step S406 is a state in which the outline translation of the dictionary data 106, that is, a representative translation or a simple translation is displayed. Here, it is determined whether or not the word as a result of search by the search unit 109 exists in the history information stored in the storage unit 104 (step S801), and if it exists, the process proceeds to step S802. In step S802, the CPU 102 performs an update process for incrementing the history information recognition count 702 by one. In step S803, the time acquisition unit 902 acquires the time when the processing performed by the CPU 102 reaches step S803, and describes the time in the final recognition time 703 of the history information.

ステップS801で単語が履歴情報に存在しなかった場合は、ステップS804に進み、履歴情報に単語、最終認識時刻を追加記載する。最終認識時刻は、ステップS804に処理が到達した時点の時刻を記憶部104に記載する。以上の処理を経ることにより、履歴表に新たな認識結果の履歴情報を更新していく。なお、この場合、後述するように、履歴を利用して単語の意味等を再度確認するようなことを考えると、記憶部104に記憶された履歴表データと辞書データとを対応付けて記憶するのが望ましい。対応付けて記憶する方法としては、例えば、辞書データ内に履歴情報を追加できるスペースを設けて、そのスペースに履歴情報を次々書き込む方法などが考えられる。   If the word does not exist in the history information in step S801, the process proceeds to step S804, and the word and the last recognition time are additionally described in the history information. As the final recognition time, the time at which the process reaches step S804 is described in the storage unit 104. Through the above processing, the history information of new recognition results is updated in the history table. In this case, the history table data stored in the storage unit 104 and the dictionary data are stored in association with each other when considering the meaning of the word again using the history, as will be described later. Is desirable. As a method of storing the information in association with each other, for example, a method of providing a space where history information can be added in the dictionary data and writing the history information in the space one after another can be considered.

次に、作成された履歴情報を利用する場合の処理を説明する。まず、記憶部104により記憶された履歴情報の参照指示がユーザの入力部101による操作を介してなされれば、履歴参照指示信号がCPU102に入力される。履歴参照指示信号が入力されたCPU102は、記憶部104に記憶された履歴表データや辞書データに基づいて英単語の意味を表示部107に表示するように処理する。   Next, processing when using the created history information will be described. First, when an instruction to refer to history information stored in the storage unit 104 is made through an operation by the user input unit 101, a history reference instruction signal is input to the CPU. The CPU 102 to which the history reference instruction signal is input processes to display the meaning of English words on the display unit 107 based on the history table data and dictionary data stored in the storage unit 104.

図9は、本実施形態の携帯電話が、履歴情報を用いて文字認識をせずに単語の翻訳を表示する画面の例を示している。   FIG. 9 shows an example of a screen on which the mobile phone of the present embodiment displays word translations without performing character recognition using history information.

画面901において、画面右下の「メニュー」に対応したボタンを押下すると、画面902に遷移する。画面902は、撮像および文字認識に関するメニューを選択する画面である。この状態で、「(5)履歴表」を選択すると画面903に遷移する。画面903は、履歴情報のうち、単語、その単語に対する認識回数、その単語に対する確認回数などを表示した画面である。この状態で、“recognition”を選択すると画面904に遷移する。   When a button corresponding to “Menu” in the lower right of the screen is pressed on the screen 901, the screen transitions to the screen 902. A screen 902 is a screen for selecting a menu related to imaging and character recognition. In this state, when “(5) History table” is selected, the screen transitions to a screen 903. A screen 903 is a screen that displays a word, the number of times of recognition for the word, the number of times of confirmation for the word, etc. in the history information. If “recognition” is selected in this state, the screen transitions to the screen 904.

画面904は、“recognition”の翻訳を表示した画面である。この状態で、「確認」に対応したボタンを押下すると、画面905に遷移する。   A screen 904 is a screen displaying the translation of “recognition”. In this state, when a button corresponding to “confirm” is pressed, the screen transitions to a screen 905.

画面905は、画面903と同じく、履歴表901のうちの単語、その単語に対する認識回数、その単語に対する確認回数などを表示した画面である。画面903では“recognition”に対する確認回数が0であったのに対し、画面904で“recognition”の訳を確認したため、画面905では“recognition”に対する確認回数が1に増えている。   A screen 905 displays a word in the history table 901, the number of times of recognition for the word, the number of confirmations for the word, and the like, similar to the screen 903. While the number of confirmations for “recognition” is 0 on the screen 903, the number of confirmations for “recognition” is increased to 1 on the screen 905 because the translation of “recognition” is confirmed on the screen 904.

以上により、ユーザは、一度認識した単語の意味等を再度認識する操作を行うことなくいつでも、どこでも、更に何度でも確認できるために使い勝手が向上する。   As described above, the user can check anytime, anywhere and any number of times without performing an operation for re-recognizing the meaning of the word once recognized, thereby improving usability.

また、図9のような表示画面を表示することにより、認識回数、確認回数をユーザは容易に通知することができる。さらに、ユーザが何度も調べた単語が一目瞭然となるために、この認識回数や確認回数が多い順に上から表示すれば、なかなか覚えられない単語が容易に理解できるため、意識して覚えることができ、更に使い勝手がよい。   Further, by displaying the display screen as shown in FIG. 9, the user can easily notify the number of times of recognition and the number of times of confirmation. Furthermore, since the words that the user has looked at many times are obvious, if they are displayed from the top in the order of the number of recognitions and confirmations, the words that are difficult to remember can be easily understood, so they can be remembered consciously. Yes, it's even easier to use.

なお、第1の実施例のように、更なる操作で訳や用例などの詳細な情報(例えば、詳細な情報が記載されたホームページのアドレス等)を参照できるように構成した場合には、簡単な訳と詳細な訳とを区別するように記憶部104に履歴情報として記憶し、ユーザが履歴情報を利用して英単語等の意味を確認する場合に、「簡単な訳」と「詳細な訳」とのいずれかを選択できるようにすれば、使い勝手は更に向上する。また、ここで履歴情報としては、図7に列挙されるような情報に限定されるものではなく、履歴に関する情報であれば何でもよい。   In addition, as in the first embodiment, when it is configured to be able to refer to detailed information such as translations and examples (for example, the address of a home page where detailed information is described) by further operations, it is easy. When the user confirms the meaning of an English word or the like using the history information, it stores “simple translation” and “detailed”. If one of “translation” can be selected, the usability is further improved. Further, here, the history information is not limited to the information listed in FIG. 7, and any information regarding the history may be used.

更にまた、撮像部103により表示部107に出力された画像情報のうち画像認識部105により識別情報を認識する際に、履歴情報があるか否かをユーザに通知するように構成してもよい。例えば、認識対象を決定するためにひとまず対象を決定する仮決定と仮決定された対象でいい場合に本決定を行うように構成した場合では、仮決定の段階で、記憶部104に記憶された履歴情報の有無を表示部107に表示するようにすれば、わざわざ再度認識することなく、履歴情報を参照して識別情報の意味等を確認することができるため、使い勝手がよい。また、カーソルを認識対象の上に移動させるだけで、例えば、「履歴あり」といった簡易な表示でユーザに通知しても構わない。認識対象の英単語等の識別情報が今までに認識された情報である場合にその履歴の有無を通知する形態としては、文字、アイコンあるいはマークなどを用いた表示だけでなく、音声出力部(図示せず)などを介して音で通知してもよいのは言うまでもない。   Furthermore, when the identification information is recognized by the image recognition unit 105 among the image information output to the display unit 107 by the imaging unit 103, it may be configured to notify the user whether there is history information. . For example, when it is configured to perform the main determination when the provisional determination for deciding the target for the time being and the provisionally determined target are sufficient, it is stored in the storage unit 104 at the temporary determination stage. If the presence / absence of history information is displayed on the display unit 107, the meaning of the identification information and the like can be confirmed with reference to the history information without recognizing it again. Alternatively, the user may be notified with a simple display such as “with history” by simply moving the cursor over the recognition target. When the identification information such as English words to be recognized is information that has been recognized so far, not only the display using characters, icons, marks, etc., but also a voice output unit ( Needless to say, the notification may be made by sound via a not shown).

更にまた、GPSなどの携帯電話に位置情報取得部を備えて、当該位置取得部により取得された位置情報を履歴情報として記憶部104に記憶するように構成してもよい。これによれば、どこで単語を認識したかを容易に確認できる。   Furthermore, a position information acquisition unit may be provided in a mobile phone such as a GPS, and the position information acquired by the position acquisition unit may be stored in the storage unit 104 as history information. According to this, it is possible to easily confirm where the word is recognized.

また、履歴情報として記憶された場所に再度訪れた場合に、その旨及びそのときに認識した単語やその意味をユーザに通知するようにしても構わない。   Further, when the user revisits a place stored as history information, the user may be notified of the fact, the word recognized at that time, and its meaning.

次に、第4の実施例について説明する。図14は、第4の実施例に係る携帯電話の外観を表した図である。本実施例の携帯電話は、図14に示されるように、表示部107を有する筐体200と入力部101を有する筐体300とがヒンジ部1403を介して折畳み可能であり、ヒンジ部に回転可能な撮像部を備えた携帯電話を考える。   Next, a fourth embodiment will be described. FIG. 14 is a diagram illustrating the appearance of a mobile phone according to the fourth embodiment. As shown in FIG. 14, in the mobile phone of this embodiment, a housing 200 having a display unit 107 and a housing 300 having an input unit 101 can be folded via a hinge unit 1403, and rotate to the hinge unit. Consider a mobile phone with a possible imaging unit.

本実施例の携帯電話は、携帯電話が図14(1)のように開いた状態であるか図14(2)のように閉じた状態であるかを検出する折畳検出部を備えている。折畳検出部は、例えば、筐体200に磁石、筐体300にホール素子を備え、磁石により磁界を加えられたホール素子の電圧値のHiレベル or Lowレベルに基づいて開閉状態の検出を行う。なお、折畳検出部は、開閉状態の検出ができれば、センサー又は凹凸係合等を利用したものであっても構わない。なお、表示部107は、主に開いた状態で利用される表示部(メイン表示部)であるが、本実施例の携帯電話は、メイン表示部以外に携帯電話が折り畳まれた(閉じた)状態においても視認可能なサブ表示部1407を備える。   The mobile phone of this embodiment includes a fold detection unit that detects whether the mobile phone is open as shown in FIG. 14 (1) or closed as shown in FIG. 14 (2). . The fold detection unit includes, for example, a magnet in the housing 200 and a Hall element in the housing 300, and detects the open / closed state based on the Hi level or Low level of the voltage value of the Hall element to which a magnetic field is applied by the magnet. . Note that the fold detection unit may use a sensor or a concavo-convex engagement as long as the open / closed state can be detected. The display unit 107 is a display unit (main display unit) that is mainly used in an open state, but the mobile phone of this embodiment is folded (closed) in addition to the main display unit. A sub-display unit 1407 that is visible even in a state is provided.

撮像モードの選択を容易にするために、通常撮像ボタン1401と認識撮像ボタン1402とが、例えば、筐体の側面に備えている。   In order to facilitate selection of the imaging mode, a normal imaging button 1401 and a recognition imaging button 1402 are provided, for example, on the side surface of the housing.

通常撮像ボタン1401が押下されると、撮像部104で撮像対象物を撮像し、撮像した画像を記憶部104に保存し、必要に応じて撮像画像を表示する。認識撮像ボタン1402を押下すると、撮像部104で撮像対象物を撮像し、画像認識部105が文字認識を行った後、CPU102は、認識結果を表示部107もしくはサブ表示部1407に表示する処理を行う。   When the normal imaging button 1401 is pressed, the imaging unit 104 captures an imaging target, stores the captured image in the storage unit 104, and displays the captured image as necessary. When the recognition imaging button 1402 is pressed, the imaging unit 104 captures an imaging target, and the image recognition unit 105 performs character recognition, and then the CPU 102 performs processing for displaying the recognition result on the display unit 107 or the sub display unit 1407. Do.

以上のように、認識モードと通常撮像モードのそれぞれ専用ボタンを設けることで、ユーザは簡単に各モードを選択でき、使い勝手がよい。また、図14(1)に示すように、筐体300の側面に配置すれば、携帯電話が開いた状態でも折畳まれた状態でも操作が同様なものとなり、わざわざ開閉時で操作を変えることがないため使い勝手が向上する。更に、図14のように、筐体の側面等の携帯電話が閉じた状態で視認できる位置に操作キーを配置すると、閉じた状態においても認識モードを実行可能になるため、わざわざ携帯電話を開くことなく文字認識等を行うことができ、使い勝手はよい。   As described above, by providing dedicated buttons for the recognition mode and the normal imaging mode, the user can easily select each mode, which is easy to use. Also, as shown in FIG. 14 (1), if it is arranged on the side surface of the housing 300, the operation is the same whether the cellular phone is opened or folded, and the operation can be changed when opening and closing. Because there is not, usability improves. Further, as shown in FIG. 14, when the operation key is arranged at a position where the mobile phone can be viewed in the closed state such as the side of the housing, the recognition mode can be executed even in the closed state, so the mobile phone is purposely opened. Character recognition and the like can be performed without any problem, and it is easy to use.

なお、通常撮像ボタン1401と認識撮像ボタン1402とは異なるボタンであることが好ましいが、同一のボタンでもよい。ただし、この場合、同一のボタンである場合は、撮像するためのボタン操作と認識するためのボタン操作を区別させる必要がある。この場合、例えば、ボタンを押下する時間に応じて、あるいは、ボタンを押下する回数に応じて(ダブルクリック等)撮像モードと認識モードとを切り換えたりして区別すればよい。また、このようにボタンを同一にすることで、スペースを取らず、携帯電話を小さくすることができる。通常撮像ボタン1401と認識撮像ボタン1402とは、携帯電話100に付属するセンサのうち、ユーザが取り扱うことのできるものならばどれでもよい。   The normal imaging button 1401 and the recognition imaging button 1402 are preferably different buttons, but the same button may be used. However, in this case, when the buttons are the same, it is necessary to distinguish between a button operation for imaging and a button operation for recognition. In this case, for example, the imaging mode and the recognition mode may be switched according to the time when the button is pressed or the number of times the button is pressed (double click or the like). In addition, by making the buttons the same in this way, it is possible to reduce the size of the mobile phone without taking up space. The normal imaging button 1401 and the recognition imaging button 1402 may be any sensor that can be handled by the user among the sensors attached to the mobile phone 100.

また、上記では、通常撮像ボタン1401と認識撮像ボタン1402とを筐体側面に備える場合について説明したが、これに限定するものではなく、閉じた状態で操作可能な位置に配置されたボタンであれば、例えば、携帯電話の背面に配置されているような構成をとっても構わない。ここで、携帯電話の背面とは、図14(2)の1407に示されているように、携帯電話が折り畳まれた(閉じた)状態で視認可能な表示部107に対向するような面であり、主としてバッテリにより構成される面とは異なる面である。   In the above description, the case where the normal imaging button 1401 and the recognition imaging button 1402 are provided on the side surface of the housing has been described. However, the present invention is not limited to this, and the button may be a button that can be operated in a closed state. For example, you may take the structure arrange | positioned on the back surface of a mobile telephone, for example. Here, the back surface of the mobile phone is a surface facing the display unit 107 that can be viewed in a folded (closed) state as shown in 1407 of FIG. 14 (2). Yes, it is a surface different from the surface mainly constituted by the battery.

次に、第5の実施例について説明する。本実施例の携帯電話の外観は、第4の実施例と同様に図14のように折畳み可能な携帯電話を考える。以下、認識結果に対する概要翻訳等をメインの表示部107に表示しておき、携帯電話が開かれた場合には、該認識結果に対する詳細翻訳等をサブ表示部1407に表示する例について説明する。   Next, a fifth embodiment will be described. As for the appearance of the mobile phone of this embodiment, consider a mobile phone that can be folded as shown in FIG. 14 as in the fourth embodiment. Hereinafter, an example will be described in which summary translation or the like for the recognition result is displayed on the main display unit 107, and when the mobile phone is opened, detailed translation or the like for the recognition result is displayed on the sub display unit 1407.

図15のフローチャートを用いて、本実施例における携帯電話の処理手順を説明する。   The processing procedure of the mobile phone in the present embodiment will be described using the flowchart of FIG.

まず、ステップS1501は、携帯電話が入力部101からのキー入力を待ち受けている状態である。この状態で、携帯電話のカメラ機能を起動させるための信号をCPU102が検出する(ステップS1502)と、携帯電話が折畳み状態であるかどうかを折畳検出部によって検出する。   First, step S1501 is a state in which the mobile phone is waiting for a key input from the input unit 101. In this state, when the CPU 102 detects a signal for starting the camera function of the mobile phone (step S1502), the fold detection unit detects whether the mobile phone is in a folded state.

携帯電話が折畳み状態であった場合には、折畳検出部によって携帯電話が折畳み状態であることを伝える信号がCPU102に入力され(ステップS1503)、これを受けてCPU102は静止画モニタ表示をサブ表示部1407に表示する(ステップS1504)。次に、ユーザなどによってシャッターボタンが押下されると、撮像を指示する信号がCPU102に入力され(ステップS1505)、撮像部103により撮像(変換)された被写体の画像情報がCPU102を介して記憶部104に保存される(ステップS1506)。   If the mobile phone is in a folded state, a signal indicating that the mobile phone is in a folded state is input to the CPU 102 by the fold detection unit (step S1503). The information is displayed on the display unit 1407 (step S1504). Next, when the shutter button is pressed by the user or the like, a signal for instructing imaging is input to the CPU 102 (step S1505), and the image information of the subject imaged (converted) by the imaging unit 103 is stored via the CPU 102. It is stored in 104 (step S1506).

次に、画像認識部105が記憶部104に保存された画像情報を読み取り、該画像情報に含まれる識別情報、例えば、洋書の文中にある単語“recognition”を読み取って、認識結果を記憶部104に保存する(ステップS1507)。この結果を、検索部109が読み取り、記憶部104に記憶された辞書データ106の列201にある単語の中から一致するものを検索する。再び、携帯電話が折畳み状態であるかどうかを折畳検出部が検出し、CPU102に開閉状態の情報を信号として入力する。該開閉状態情報をCPU102が参照し(ステップS1508)、ステップS1509において、携帯電話が閉じた状態であると判断された場合は、ステップS1510に進む。ステップS1510では当該検索された単語に対応する列202(翻訳の概要)をCPU102が辞書データから読み取り、サブ表示部1407に表示する。   Next, the image recognition unit 105 reads the image information stored in the storage unit 104, reads the identification information included in the image information, for example, the word “recognition” in the sentence of the foreign book, and stores the recognition result in the storage unit 104. (Step S1507). The search unit 109 reads this result, and searches for a matching word from the words in the column 201 of the dictionary data 106 stored in the storage unit 104. Again, the folding detection unit detects whether or not the mobile phone is in a folded state, and inputs information on the open / close state to the CPU 102 as a signal. The CPU 102 refers to the opening / closing state information (step S1508), and if it is determined in step S1509 that the mobile phone is in a closed state, the process proceeds to step S1510. In step S1510, the CPU 102 reads the column 202 (translation summary) corresponding to the searched word from the dictionary data and displays it on the sub display unit 1407.

また、ステップS1509において、携帯電話が開いた状態であると判断された場合は、当該検索された単語に対応するURLをCPU102が辞書データから読み取り(ステップS1511)、CPU102は通信部108に対して該URLに接続するように指示信号を出す。ステップS1512で、CPU102が通信部108を介して上記URLのホームページに記された内容を読み取り、記憶部104に保存する。その後、その内容をCPU102が表示部107に表示する。   If it is determined in step S1509 that the mobile phone is open, the CPU 102 reads the URL corresponding to the searched word from the dictionary data (step S1511), and the CPU 102 An instruction signal is issued to connect to the URL. In step S 1512, the CPU 102 reads the content written on the homepage of the URL via the communication unit 108 and stores it in the storage unit 104. Thereafter, the CPU 102 displays the contents on the display unit 107.

図16は、本実施例の表示画面例であり、ユーザによって携帯電話が閉じた状態から開いた状態になった場合に、辞書データ106の保持する詳細な翻訳が記載されたURLのホームページの内容(記載情報)を表示部107に表示する画面の例を示している。なお、画面1601〜1603では、画面左下に表示された「メニュー」などといった表示はボタン1408a、画面右下に表示された「認識」などといった表示はボタン1408bに関連付けされ、ユーザが携帯電話に入力をする際にはそれぞれ関連付けされたボタンを押下することにより、画面が遷移する。これらのボタンを、例えば、画面左下に「メニュー」と表示されていた場合は、ボタン1408aのことを「メニュー」ボタンと呼ぶことにする。   FIG. 16 is an example of a display screen of the present embodiment, and the contents of the homepage of the URL describing the detailed translation held in the dictionary data 106 when the mobile phone is opened from the closed state by the user. The example of the screen which displays (description information) on the display part 107 is shown. In screens 1601 to 1603, the display such as “menu” displayed at the lower left of the screen is associated with button 1408a, and the display such as “recognition” displayed at the lower right of the screen is associated with button 1408b. When the user presses the associated button, the screen changes. For example, when “menu” is displayed at the lower left of the screen, the button 1408a is referred to as a “menu” button.

画面1601は、携帯電話が折畳まれた状態において、撮像モードとして「認識モード」が選択され、例えば、英文中の「Recognition」という単語を特定し、認識することを試みている場合の、サブ表示部1407に表示された画面例である。この状態で、「認識」ボタンを押下すると、画面1602に遷移する。   The screen 1601 is displayed when the mobile phone is folded, when “recognition mode” is selected as the imaging mode, for example, when the word “Recognition” in English is identified and attempted to be recognized. It is an example of a screen displayed on the display unit 1407. When the “recognition” button is pressed in this state, the screen transitions to a screen 1602.

画面1602は、認識対象として「Recognition」が選択されたことを示している。この画面では、画面中の「Recognition」以外の画像部分が黒く塗りつぶされて表示されており、「Recognition」が強調される。また、文字以外の部分を黒く塗りつぶすことで、盗撮も防止できる。この状態で「決定」ボタンを押下すると、画面1603に遷移する。   A screen 1602 indicates that “Recognition” has been selected as a recognition target. In this screen, image portions other than “Recognition” on the screen are displayed in black, and “Recognition” is emphasized. Also, sneak shots can be prevented by painting the parts other than letters black. When the “OK” button is pressed in this state, the screen changes to a screen 1603.

画面1603は、認識対象となった「Recognition」の概要翻訳がサブ表示部1407に表示されている画面を表している。この状態で携帯電話を開くと、表示部107に画面1604が表示される。   A screen 1603 represents a screen on which a summary translation of “Recognition” as a recognition target is displayed on the sub display unit 1407. When the mobile phone is opened in this state, a screen 1604 is displayed on the display unit 107.

画面1604は、携帯電話を開いた状態で表示部107に詳細な翻訳を表示した画面例である。   A screen 1604 is a screen example in which detailed translation is displayed on the display unit 107 in a state where the mobile phone is opened.

このように、携帯電話を折畳んだ状態でも文字認識ができるため、いちいち携帯電話を開く手間も省け、手軽に文字認識ができる。さらに、ユーザが詳細な翻訳を知りたい場合は、概要翻訳が表示されている状態で携帯電話を開くだけで、詳細な翻訳を表示部107に表示できるため、非常に使い勝手がよい。   In this way, since character recognition can be performed even when the mobile phone is folded, it is possible to easily perform character recognition without having to open the mobile phone one by one. Furthermore, when the user wants to know detailed translation, the detailed translation can be displayed on the display unit 107 simply by opening the mobile phone in a state where the summary translation is displayed, which is very convenient.

次に、第6の実施例について説明する。本実施例の携帯電話は、撮像部103が撮像した画像や、該画像に含まれる文字などの識別情報を画像認識部105が認識した結果や、該認識結果に対する概要翻訳等を表示部107に表示した場合、認識結果の各文字を異なる文字に変換する認識結果編集手段を備えたものとする。
図17は、本実施例の携帯電話が、例えば、紙面上に書かれた“Recognition”という文字列を撮像し、画像認識部105が認識した結果が“Reconifiom”であった場合に、該認識結果を編集する画面例を表したものである。
Next, a sixth embodiment will be described. The mobile phone according to the present embodiment displays on the display unit 107 the result of the image recognition unit 105 recognizing the image captured by the image capturing unit 103, the identification information such as characters included in the image, the summary translation for the recognition result, and the like. It is assumed that when displayed, a recognition result editing means for converting each character of the recognition result into a different character is provided.
FIG. 17 illustrates a case where the mobile phone of the present embodiment captures a character string “Recognition” written on a paper surface and the image recognition unit 105 recognizes the result “Reconifiom”. The example of a screen which edits a result is represented.

画面1701は、撮像部103が被写体である対象物を撮像し、該画像に含まれる文字列“Recognition”を画像認識部105が誤って、例えば“Reconifiom”と認識してしまい、“Reconifiom”に一番近い単語を検索部109が辞書データ106から検索し、検索した結果が“reconfirm”であった場合に、認識結果である“Reconifiom”、検索結果である“reconfirm”と、その概要翻訳“[動詞] 再確認する”を表示部107に表示した画面例である。ここで、「メニュー」ボタンを押下すると、画面1702に遷移する。   On the screen 1701, the imaging unit 103 captures an object that is a subject, and the character string “Recognition” included in the image is erroneously recognized as “Reconifiom”, for example, by “Reconifiom”. When the search unit 109 searches for the closest word from the dictionary data 106 and the search result is “reconfirm”, the recognition result “Reconifiom”, the search result “reconfirm”, and the outline translation “ [Verb] Reconfirmation is an example of a screen displayed on the display unit 107. If the “Menu” button is pressed here, the screen changes to a screen 1702.

画面1702は、撮像機能や認識機能に関するメニューを表示した画面である。ここで、「(1)結果編集」を選択して「決定」ボタンを押下すると、認識結果を編集できる画面に遷移する。   A screen 1702 is a screen that displays a menu related to the imaging function and the recognition function. Here, when “(1) Edit result” is selected and the “OK” button is pressed, the screen transitions to a screen where the recognition result can be edited.

画面1703は、認識結果を編集できる画面において、“Reconifiom”の“Reco”と“nifiom”の間に“g”を追記した画面を表している。認識結果を編集できる画面では、認識結果の文字が表示される領域1705内に、カーソル1706が表示される。このカーソル1706を使って編集する位置を選択し、入力部101のうち文字を入力に関するボタンを数回押下することで、文字を入力・削除することができる。このようにして編集した認識結果の文字は、CPU102によって記憶部104に記憶される。この状態で、「検索」ボタンを押下すると、入力部101によりCPU102に検索するように指示する入力信号が入力される。これを受けてCPU102は、記憶部104を参照して編集された認識結果文字を読み取り、検索部109に渡す。検索部109はこれを受けて、辞書データ106の中から一致する単語を検索し、検索結果表示領域に表示する。   A screen 1703 represents a screen in which “g” is added between “Reco” and “nifiom” of “Reconifiom” on a screen where the recognition result can be edited. On the screen on which the recognition result can be edited, a cursor 1706 is displayed in an area 1705 where characters of the recognition result are displayed. Characters can be input / deleted by selecting a position to be edited using the cursor 1706 and pressing a button related to character input in the input unit 101 several times. The character of the recognition result edited in this way is stored in the storage unit 104 by the CPU 102. When the “Search” button is pressed in this state, an input signal for instructing the CPU 102 to perform a search is input by the input unit 101. In response to this, the CPU 102 reads the recognition result character edited with reference to the storage unit 104 and passes it to the search unit 109. In response to this, the search unit 109 searches the dictionary data 106 for a matching word and displays it in the search result display area.

その画面例が画面1704である。画面1704は、認識結果を編集できる画面において、認識結果の文字を“Recognitiom”に編集した後、「検索」ボタンを押下した場合に表示される画面例である。検索結果として“Recognition”が表示されている。   An example of the screen is a screen 1704. A screen 1704 is an example of a screen that is displayed when the “search” button is pressed after editing the character of the recognition result to “Recognitiom” on the screen where the recognition result can be edited. “Recognition” is displayed as a search result.

このようにして、認識結果が誤認識であり、ユーザが認識させたかった英単語とは異なる文字が検索結果として表示されてしまった場合、もう一度撮像し直して認識させる必要がなく、使い勝手がよい。   In this way, when the recognition result is misrecognition and a character different from the English word that the user wanted to recognize is displayed as the search result, it is not necessary to re-image and recognize it, which is convenient. .

なお、上記では、「検索」ボタンが押下されたことで、認識結果と一番近い単語を辞書データ106から検索部109が検索するようにしたが、認識結果を編集できる画面において、認識結果の文字を編集したら、認識結果編集手段がCPU102に検索をするように指示する入力信号を入力し、検索部109によって検索をするようにしてもよい。この場合、ユーザは検索結果を表示させたいときにいちいち「検索」ボタンを押さなくて済み、使い勝手がよい。   In the above description, when the “search” button is pressed, the search unit 109 searches the dictionary data 106 for the word closest to the recognition result. However, in the screen where the recognition result can be edited, After editing the character, the recognition result editing means may input an input signal for instructing the CPU 102 to perform a search, and the search unit 109 may perform the search. In this case, the user does not have to press the “search” button every time the user wants to display the search result, which is convenient.

次に、第7の実施例について説明する。本実施例は、携帯電話等に予め備わっているメール機能等を利用して画像認識部105により認識された結果、つまり、簡易情報あるいは詳細情報を送信する場合を想定する。   Next, a seventh embodiment will be described. This embodiment assumes a case where a result recognized by the image recognition unit 105 using a mail function or the like provided in advance in a mobile phone or the like, that is, simple information or detailed information is transmitted.

この場合、例えば、入力部101により所定の操作がなされ、その入力信号を受信したCPU102は、認識モードに移行するように処理する。ユーザが認識モードにおいて、認識対象である文字等を認識した後にメール機能を起動するための操作を入力部101を介して行えば(例えば、メール起動キーを押下)、その入力信号を受信したCPU102は、表示部107に記憶部104に予め記憶されているメールソフトを起動し、メール送信できるようにメール作成画面を表示する。その際、CPU102は、認識され、例えば、「abalone」といった英単語の代表的な訳「あわび」を表示する場合、「abalone→あわび」といったようにメール作成の本文欄に自動的に挿入するように処理する。また、第1の実施例のように、簡易な情報のみならず、詳細な情報、例えば、用例や類似後のような詳細な情報が記載されたURL情報などを取得できる場合には、その詳細な情報を自動的に本文欄に挿入するように処理する。   In this case, for example, a predetermined operation is performed by the input unit 101, and the CPU 102 that has received the input signal performs processing to shift to the recognition mode. If the user performs an operation for activating the mail function after recognizing characters or the like to be recognized in the recognition mode via the input unit 101 (for example, pressing the mail activation key), the CPU 102 that has received the input signal. Starts mail software stored in the storage unit 104 in advance on the display unit 107 and displays a mail creation screen so that mail can be transmitted. At that time, when the CPU 102 recognizes and displays, for example, a typical translation of the English word “abalone” such as “abalone”, the CPU 102 automatically inserts it into the text field of the mail composition such as “abalone → abalone”. To process. In addition, as in the first embodiment, not only simple information but also detailed information such as URL information in which detailed information such as an example or similar information is described can be acquired. Correct information is automatically inserted into the text field.

また、記憶部104に記憶されたアドレス情報(名前、電話番号あるいはメールアドレスの情報)からユーザが選択して送信相手の宛先欄に挿入できるように構成しても構わない。   The address information (name, telephone number, or mail address information) stored in the storage unit 104 may be selected by the user and inserted into the destination field of the transmission partner.

以上により、画像認識部105による認識結果を簡単な操作で送信したい相手に伝えることができ、使い勝手が向上する。さらに、件名の欄も「OCR結果」等の件名を自動的に挿入記載するようにすれば、更に入力の手間が省け、使い勝手がよい。   As described above, the recognition result obtained by the image recognition unit 105 can be transmitted to a partner to be transmitted by a simple operation, and the usability is improved. Furthermore, if a subject such as “OCR result” is automatically inserted and described in the subject column, it is possible to save further input and improve usability.

また、認識結果を利用してメールを作成する際に、メールアドレスを認識した場合は自動的に当該メールアドレスを宛先として宛先欄に設定する方法も考えられる。しかし、この方法では、例えば、メールアドレスを認識してそのメールアドレスをメールの本文欄に記載したい場合においても、メールの宛先として設定されてしまうため、認識結果を利用することはできない。   Also, when creating a mail using the recognition result, if a mail address is recognized, a method of automatically setting the mail address as a destination in the destination column is also conceivable. However, with this method, for example, even when an e-mail address is recognized and the e-mail address is to be written in the mail text field, the recognition result cannot be used because the e-mail address is set.

こういった問題を解決するために、例えば、メール作成の場合は、メールの宛先、件名、本文欄等といった項目うち、どの項目に認識結果を挿入するかを選択できるようにする。この機能を、図18を使って説明する。   In order to solve these problems, for example, in the case of creating a mail, it is possible to select which item to insert the recognition result out of items such as a mail destination, a subject, and a text field. This function will be described with reference to FIG.

画面(1)は、認識対象である“yamazaki@xxx.jp”を認識した際に、認識画像と認識結果を表示した画面である。この状態で「メニュー」ボタンを押下すると、画面(2)に遷移する。画面(2)は、認識結果である“yamazaki@xxx.jp”を使ってどの機能に利用するかを選択する画面である。メールを作成する場合は、「(2)メール作成」を選択すると、画面(3)に遷移する。画面(3)は、認識結果をメール作成の項目のうちどの項目に挿入するかを選択する画面である。この画面で、「(3)本文」を選択すると、メールの本文に“yamazaki@xxx.jp”が代入されたメールの作成画面へと遷移する(画面(4))。   The screen (1) is a screen that displays a recognized image and a recognition result when the recognition target “yamazaki@xxx.jp” is recognized. When the “menu” button is pressed in this state, the screen transitions to the screen (2). Screen (2) is a screen for selecting which function to use using “yamazaki@xxx.jp” as the recognition result. When creating a mail, if “(2) Create mail” is selected, the screen changes to screen (3). The screen (3) is a screen for selecting the item into which the recognition result is inserted among the items for creating the mail. When “(3) Body” is selected on this screen, a transition is made to a mail creation screen in which “yamazaki@xxx.jp” is substituted for the body of the mail (screen (4)).

このように、認識結果をメールのどの項目に挿入するかをユーザが選択できるようにすれば、認識結果を表示してから数回の入力操作を行うだけで、メールの本文中に認識結果を挿入したメールの作成画面へと移行することができ、使い勝手が向上する。   In this way, if the user can select which item in the email the recognition result is inserted into, the recognition result can be displayed in the body of the email just by performing a few input operations after displaying the recognition result. You can move to the creation screen of the inserted mail, improving usability.

さらに、画面(2)のメニューを表示する際に、認識結果である文字列の種類によってカーソルの位置を決定することもできる。その方法は、例えば、認識結果に“@”が含まれていればメールアドレス、“http”が含まれていればURLであるとCPU102によって判定させ、メールアドレスであると判定された場合は、画面(2)を表示する際にカーソルの位置を「(2)メール作成」、URLであると判定された場合はカーソルの位置を「(1)インターネット」等に合わせて表示部107に表示させればよい。このようにすれば、画面(2)においてメニューを選択する操作が省けるので、使い勝手がさらに向上する。   Furthermore, when the menu of the screen (2) is displayed, the position of the cursor can be determined by the type of character string that is the recognition result. For example, if the recognition result includes “@” in the recognition result, the CPU 102 determines that it is a mail address, and if “http” is included, the CPU 102 determines that it is a mail address. When the screen (2) is displayed, the cursor position is displayed on the display unit 107 in accordance with “(2) Create Mail”, and when it is determined that the URL is a URL, the cursor position is aligned with “(1) Internet”, etc. Just do it. In this way, since the operation of selecting the menu on the screen (2) can be omitted, the usability is further improved.

また、認識結果がメールアドレスであった場合に、当該メールアドレスをアドレス帳に登録したいときは、画面(2)で「(4)アドレス帳登録」を選択すればよい。この場合も同様に、認識結果のメールアドレスをアドレス帳のどの項目に挿入するかを選択できるようにすれば、上述と同じ効果が得られる。   Further, when the recognition result is an e-mail address, if it is desired to register the e-mail address in the address book, “(4) Address book registration” may be selected on the screen (2). In this case as well, the same effect as described above can be obtained by making it possible to select in which item of the address book the mail address of the recognition result is to be inserted.

なお、上記では、メールソフトの作成画面の欄として、「宛先」「件名」「本文」欄を考えたが、これに限定されるものではない。そのほかに欄を設けたとしても自動的に関係した情報を挿入するようにすれば、入力手間が省け、使い勝手がよい。   In the above description, the “address”, “subject”, and “text” fields are considered as the fields of the mail software creation screen. However, the present invention is not limited to this. In addition to this, even if a column is provided, if the related information is automatically inserted, it is possible to save the input and to improve the usability.

また、上記では、自動的にメール作成画面欄に認識結果(例:URL情報)が挿入されるような構成をとったが、それだけでなく、ユーザ自らが入力部101を介してコメント等を入力できるようにしても構わない。これにより、OCR機能を行い、その結果を通話相手先に送信する際に、ユーザが単に結果のみを送信するだけでなく、その結果に対するコメント等を添えることができる。なお、その際に、予め記憶部104に記憶された定型文や絵文字等を利用すれば更に使い勝手はよくなる。   In the above, the configuration is such that the recognition result (eg, URL information) is automatically inserted in the mail creation screen column. However, the user himself / herself inputs a comment or the like via the input unit 101. You can make it possible. As a result, when the OCR function is performed and the result is transmitted to the call partner, the user can not only simply transmit the result but also add a comment to the result. At that time, if a fixed sentence or pictograph stored in advance in the storage unit 104 is used, the usability is further improved.

なお、上記実施例においては、英語等の単語に関して、意味や用例等を詳細に知りたいといった利用シーンを想定したが、これに限定されるものではなく、例えば、スポーツ、映画、歴史、レストラン、科学、恐竜、動植物、芸能人等といった様々なジャンルの単語に関する情報を参照できるようにしても構わない。これにより、参照可能なカテゴリが増えて、ユーザの使い勝手は向上する。このように、参照可能である情報が多いと、例えば、ユーザが雑誌や新聞等の記事を見ているときや、街を何気なく歩いている場合に、興味のある単語が目にとまり、その詳細な情報を参照したいと思った状況などにおいても、速やかにその単語の意味等を参照できるため非常に使い勝手がよい。   In the above embodiment, a usage scene in which the user wants to know the meaning and examples in detail is assumed for words such as English, but the present invention is not limited to this. For example, sports, movies, history, restaurants, Information regarding words of various genres such as science, dinosaurs, animals and plants, and entertainers may be referred to. As a result, the categories that can be referred to increase and the usability of the user improves. In this way, when there is a lot of information that can be referred to, for example, when a user is looking at an article such as a magazine or a newspaper, or when casually walking in the city, a word of interest is noticeable, and its details Even in situations where you want to refer to other information, you can quickly refer to the meaning of the word and so on, which is very convenient.

また、例えば、「ガメラン」といった恐竜の詳細情報を参照したいのに、植物の「ガメラン」の詳細情報を取得したところでユーザの満足度は低い。そこで、詳細情報の要求を行う際に、例えば、表示部107に「どのジャンルの詳細情報が欲しいですか?」などの通知がされ、ユーザが表示画面等を介して種々のジャンルを選択できるようにすれば、更に使い勝手はよい。   In addition, for example, when the user wants to refer to the detailed information of the dinosaur such as “gamelan”, the user's satisfaction is low when the detailed information of the “gamelan” of the plant is acquired. Therefore, when requesting detailed information, for example, a notification such as “Which genre do you want detailed information?” Is displayed on the display unit 107 so that the user can select various genres via the display screen or the like. If it is, it will be even easier to use.

次に、第8の実施例について説明する。本実施例は、認識した英単語の的確な意味を通知するために、単語の共起関係を利用するものである。共起とは、複数の単語が同一の文書に出現することである。   Next, an eighth embodiment will be described. In the present embodiment, the co-occurrence relationship of words is used in order to notify the exact meaning of the recognized English word. Co-occurrence means that a plurality of words appear in the same document.

そもそも単語は、同一の単語でも複数の異なる意味を持っている場合が多く、予め用意された辞書の日本語訳をそのまま表示させた場合、認識させた英単語がどの意味で使われているのかを、ユーザが文脈を読み取る等して考えなければならない。その際、もし間違った意味で捉えてしまうと、その英単語を含んだ文章自体も間違った意味で捉えてしまう、という問題がある。本実施例は、この点に留意してなされた実施例である。   In the first place, the same word often has a plurality of different meanings even if it is the same word, and if the Japanese translation of the dictionary prepared in advance is displayed as it is, what meaning is the recognized English word used? Must be considered by the user reading the context. At that time, if it is caught in the wrong meaning, there is a problem that the sentence itself including the English word is caught in the wrong meaning. The present embodiment has been made with this point in mind.

図19は、本発明の第8の実施例に係る構成例を示す図である。本実施例は、携帯電話100、サーバ1900で構成される。   FIG. 19 is a diagram showing a configuration example according to the eighth embodiment of the present invention. This embodiment includes a mobile phone 100 and a server 1900.

サーバ1900は、SV-CPU1902、共起関係データベース1903、SV記憶部1904、SV画像認識部1905、SV辞書データ1906、SV通信部1908、SV検索部1909、ユーザ登録データベース1910などを含んだものとして構成される。   The server 1900 includes an SV-CPU 1902, a co-occurrence relation database 1903, an SV storage unit 1904, an SV image recognition unit 1905, an SV dictionary data 1906, an SV communication unit 1908, an SV search unit 1909, a user registration database 1910, and the like. Composed.

SV通信部1908は、サーバ1900がインターネットや他の情報処理装置などとアクセスするための通信処理を行う。   The SV communication unit 1908 performs communication processing for the server 1900 to access the Internet or other information processing apparatuses.

SV-CPU1902は、SV記憶部1904に記憶されたプログラムに基づいて動作し、例えば、SV通信部1908からの信号に応じて各部を制御するものである。   The SV-CPU 1902 operates based on a program stored in the SV storage unit 1904, and controls each unit according to a signal from the SV communication unit 1908, for example.

共起関係データベースは、共起関係に関するデータであり、例えば、図20に示すように、単語、その単語の訳、共起する単語(以下、共起単語と呼ぶ)及び共起されている単語に対応した訳になる割合等を含んだものとして構成される。なお、図20は、単語が「character」であり、その「character」の訳として「文字」、「登場人物」を想定した例である。   The co-occurrence relation database is data relating to the co-occurrence relation. For example, as shown in FIG. 20, a word, a translation of the word, a co-occurrence word (hereinafter referred to as a co-occurrence word), and a co-occurrence word It is configured to include a ratio that corresponds to FIG. 20 is an example in which the word is “character” and “character” and “character” are assumed as the translation of the “character”.

共起関係データベース1903は複数の単語に対するデータを保持し、それぞれの単語についてその訳とその訳として使われる確率値などを保持するものとする。   The co-occurrence relation database 1903 holds data for a plurality of words, and holds a translation of each word and a probability value used as the translation.

認識した単語と当該単語と共起する単語があった場合に、共起関係データベース1903を使って、当該単語に対する値a、値bを比べることで、認識した単語に対する最も適切な訳を得ることができる。例えば、「character」の日本語訳には「文字」や「登場人物」などがあるが、「recognition」という単語が共起した場合、「character」の日本語訳として「文字」が適切である割合が0.95、また、「登場人物」が適切である割合が0.05とする。この場合、「character」の日本語訳としてはその適切な割合を表す値が大きい「文字」を選択すればよい。   When there is a recognized word and a word that co-occurs with the word, the most appropriate translation for the recognized word is obtained by comparing the value a and the value b for the word using the co-occurrence relation database 1903. Can do. For example, the Japanese translation of “character” includes “character” and “character”, but if the word “recognition” co-occurs, “character” is appropriate as the Japanese translation of “character” Assume that the ratio is 0.95 and that the ratio of “characters” is 0.05. In this case, as a Japanese translation of “character”, a “character” having a large value indicating an appropriate ratio may be selected.

SV記憶部1904は、通信部から受信するデータなど、サーバ1900で扱うデータを記憶しておく。SV画像認識部1905は、画像情報に含まれる文字や記号等の識別情報を認識する。   The SV storage unit 1904 stores data handled by the server 1900 such as data received from the communication unit. The SV image recognition unit 1905 recognizes identification information such as characters and symbols included in the image information.

記憶部104に記憶されたSV辞書データ1906には、例えば、外国語の単語等といった識別情報、当該識別情報の日本語訳及び当該識別情報の様々な日本語訳や使い方・用例等について詳しく書かれたホームページのURL、当該識別情報に関する画像や音声等が含まれる。   In the SV dictionary data 1906 stored in the storage unit 104, for example, identification information such as words in a foreign language, a Japanese translation of the identification information, various Japanese translations of the identification information, usage / examples, and the like are described in detail. URL of the homepage that has been posted, and images and sounds related to the identification information.

SV検索部1909は、単語および当該単語と共起する単語を用い、共起関係データベース1903を参照して、単語2001の適切な日本語訳を選択する。   The SV search unit 1909 selects an appropriate Japanese translation of the word 2001 with reference to the co-occurrence relation database 1903 using the word and the word co-occurring with the word.

ユーザ登録データベース1910は、サーバ1900に接続できるユーザであることを証明するためのユーザIDやパスワードを記録しているデータベースである。   The user registration database 1910 is a database that records a user ID and password for proving that the user can connect to the server 1900.

次に、図21のフローチャートを用いて、本実施例における携帯電話の処理手順を説明する。   Next, the processing procedure of the mobile phone in the present embodiment will be described using the flowchart of FIG.

図15のステップS1501〜ステップS1507と同様の処理を行うことにより、モニタ表示をしている状態(ステップS2101)から、画像を撮像して文字認識した結果を記憶部104に保存した状態になる(ステップS1502〜ステップS1504)。ステップS2105では、記憶された認識結果から認識位置データ及び認識単語データを抽出する。ここで、認識位置データとは、撮像部103により撮像された画像に含まれる認識対象となる単語の画像上の位置に関するデータのことであり、また、認識単語データとは、ステップS2105において検索部109により検索された結果見つけられた単語のことである。   By performing the same processing as in steps S1501 to S1507 in FIG. 15, the result of capturing the image and recognizing the characters from the monitor display state (step S2101) is stored in the storage unit 104 ( Step S1502 to Step S1504). In step S2105, recognition position data and recognition word data are extracted from the stored recognition results. Here, the recognition position data is data related to the position on the image of the word to be recognized included in the image captured by the image capturing unit 103, and the recognized word data is the search unit in step S2105. This is a word found as a result of the search by 109.

次に、サーバ1900と接続するように指示を出すアクセス信号が入力部101などを介してCPU102に入力されると、CPU102は、通信部108を介して所定のサーバにアクセス信号を送信する(ステップS2107)。   Next, when an access signal that instructs to connect to the server 1900 is input to the CPU 102 via the input unit 101 or the like, the CPU 102 transmits the access signal to a predetermined server via the communication unit 108 (step S2107).

次に、アクセス信号を受信したサーバ1900よりユーザID及びユーザIDに対応したパスワードの入力要求信号が送信される。その要求信号を携帯電話100が受信すれば(ステップS2108)、CPU102は、表示部107にユーザID及びパスワードの入力用画面を表示する。入力画面等を介してユーザID及びパスワードが入力されれば、それをサーバ1900に送信する(ステップS2109)。ここで、ユーザID及びパスワードをユーザが入力する認証する形態を考えたが、ユーザの認証が行うことができればこれに限定されるものではない。例えば、声紋、指紋、虹彩などを用いて認証を行ってもよい。   Next, the server 1900 that received the access signal transmits a user ID and a password input request signal corresponding to the user ID. If the mobile phone 100 receives the request signal (step S2108), the CPU 102 displays a screen for inputting a user ID and password on the display unit 107. If the user ID and password are input via the input screen or the like, they are transmitted to the server 1900 (step S2109). Here, although the form which authenticates a user who inputs a user ID and a password was considered, if authentication of a user can be performed, it will not be limited to this. For example, authentication may be performed using a voiceprint, fingerprint, iris, or the like.

CPU102は、サーバから受信した信号が認証成功データか認証失敗データのいずれであるかを判定し(ステップS2110)、当該信号が認証失敗データの場合は、入力用画面を再度表示部107に表示し、当該信号が認証成功データの場合は、撮像部103により撮像された画像、認識位置データ及び認識単語データなどをサーバ1900に送信する(ステップS2111)。   The CPU 102 determines whether the signal received from the server is authentication success data or authentication failure data (step S2110). If the signal is authentication failure data, the input screen is displayed again on the display unit 107. If the signal is authentication success data, the image captured by the imaging unit 103, recognition position data, recognition word data, and the like are transmitted to the server 1900 (step S2111).

その後、サーバ1900から認識単語データに対する訳を示す最適翻訳データを受信すると、CPU102は(ステップS2112)、最適翻訳データを表示部107に表示する(ステップS2113)。   Thereafter, upon receiving optimum translation data indicating a translation for the recognized word data from the server 1900 (step S2112), the CPU 102 displays the optimum translation data on the display unit 107 (step S2113).

次に、図22のフローチャートを用いて、本実施例におけるサーバ1900の処理手順を説明する。   Next, the processing procedure of the server 1900 in the present embodiment will be described using the flowchart of FIG.

サーバ1900が携帯電話100などの端末からのアクセス信号を受信する(ステップS2201)と、続いて携帯電話100にユーザIDとパスワードの入力を要求する(ステップS2201)、携帯電話100からユーザIDとパスワードを受信すると(ステップS2202)、SV-CPU1902がユーザ登録データ1910を参照する。ユーザ登録データ1910に登録されているユーザIDとパスワードに一致するものが見つかれば、SV-CPU1902は、SV通信部1908を介してユーザ認証が確認できたことを携帯電話100に通知し(ステップS2204)、携帯電話100から画像、認識位置データ及び認識単語データを受信する(ステップS2205)。   When the server 1900 receives an access signal from a terminal such as the mobile phone 100 (step S2201), the server 1900 requests the mobile phone 100 to input a user ID and password (step S2201). Is received (step S2202), the SV-CPU 1902 refers to the user registration data 1910. If a match with the user ID and password registered in the user registration data 1910 is found, the SV-CPU 1902 notifies the mobile phone 100 that the user authentication has been confirmed via the SV communication unit 1908 (step S2204). ), The image, the recognition position data, and the recognition word data are received from the mobile phone 100 (step S2205).

次に、SV画像認識部1905は、受信した画像に含まれる文字を認識する。図23は、受信した画像の例を示している。SV画像認識部1905は認識処理を行う際に、まず、画像に含まれる全部の単語を抽出し、その認識位置データを求める。このうち、抽出領域の一辺が画像の端にかかる単語は認識対象外の単語としてみなされる。   Next, the SV image recognition unit 1905 recognizes characters included in the received image. FIG. 23 shows an example of a received image. When performing the recognition process, the SV image recognition unit 1905 first extracts all the words included in the image and obtains recognition position data thereof. Among these, a word whose one side of the extraction region is at the edge of the image is regarded as a word not to be recognized.

図23の画像例では、単語2301のように網掛けの四角で囲んだ単語は認識対象外の単語としてみなされる。それ以外の単語、図23の画像例では、単語2303「The」のように抽出領域が画像の端にかからない単語を認識し、認識結果と一致する、もしくは、一番類似する単語をSV辞書データ1906からSV検索部1909が検索する(ステップS2206)。   In the image example of FIG. 23, a word surrounded by a shaded square such as the word 2301 is regarded as a word that is not a recognition target. In the example of the image of FIG. 23, other words such as the word 2303 “The” are recognized and the extracted word does not reach the end of the image. The SV search unit 1909 searches from 1906 (step S2206).

ここで、ユーザが認識したい単語を「認識対象単語」、実際に携帯電話が認識した対象の単語を「認識単語」と定義する。通常は、認識対象単語と認識単語は一致するが、認識精度が低いなどの理由で両者が異なる場合がある。例えば、「abalone」の翻訳をユーザが欲する場合に「abalone」ではなく誤って認識してしまい、認識対象単語は「abalone」、認識単語は「abalome」となる場合がある。その場合は、誤って認識された「abalome」が辞書データにあるかどうかが検索され、もし無ければ辞書データが有する単語の中で一番類似した単語(例えば、abalone)を認識単語とみなすような処理が行われる。   Here, a word that the user wants to recognize is defined as a “recognition target word”, and a target word that is actually recognized by the mobile phone is defined as a “recognition word”. Usually, the recognition target word matches the recognition word, but the two may be different due to low recognition accuracy or the like. For example, when a user desires a translation of “abalone”, it may be mistakenly recognized instead of “abalone”, and the recognition target word may be “abalone” and the recognition word may be “abalome”. In that case, it is searched whether or not “abalome” recognized in error is in the dictionary data, and if not, the most similar word (for example, abalone) among the words included in the dictionary data is regarded as the recognized word. Processing is performed.

次に、携帯電話から受信した認識位置データおよび認識単語データに基づいて確定される単語(以後、翻訳対象単語)以外の認識対象単語(以後、共起単語)の数nを計測する(ステップS2207)。ステップS2208において、共起単語数nが1つ以上ある場合は、共起関係データベース1903に翻訳対象単語があるかどうかを判定し(ステップS2209)、あった場合は、共起関係データベース1903の列2004に共起単語と一致する単語があるかどうかを判定する(ステップS2210)。   Next, the number n of recognition target words (hereinafter referred to as co-occurrence words) other than words (hereinafter referred to as translation target words) determined based on the recognition position data and recognition word data received from the mobile phone is measured (step S2207). ). In step S2208, if the number n of co-occurrence words is one or more, it is determined whether or not there is a translation target word in the co-occurrence relation database 1903 (step S2209). It is determined whether there is a word that matches the co-occurrence word in 2004 (step S2210).

共起単語と一致した単語が共起関係データベースにあった場合は、翻訳対象単語の訳のうちで最も適切な訳を決定する(ステップS2211)。   If a word that coincides with the co-occurrence word is found in the co-occurrence relation database, the most appropriate translation of the translation target word translations is determined (step S2211).

決定方法としては、共起関係データベース1903の共起単語に対するそれぞれの訳に基づいて確率を計算する。例えば、翻訳対象単語が「character」、共起単語が「string」と「recognition」であった場合を考える。共起単語に「string」が存在した場合の訳が「文字」となる割合は0.90、また共起単語に「recognition」が存在した場合の訳が「文字」となる割合は0.95、これらの値を足し合わせると1.85となる。また、同様の計算を訳「登場人物」に対して行なうと、合計の値は0.08となる。これらの値が最大となる訳を、最も適切な訳として扱うことができる。なお、上記では、割合値を足し合わせて最適な訳を決定したが、これに限定するものではなく、乗算、割算又は除算等を組合せたりして決定してもよい。最後に、最適翻訳データを端末に送信するステップ(S2212)。   As a determination method, the probability is calculated based on the respective translations for the co-occurrence words in the co-occurrence relation database 1903. For example, consider a case where the translation target word is “character” and the co-occurrence words are “string” and “recognition”. The ratio that the translation is “character” when “string” exists in the co-occurrence word is 0.90, and the ratio that the translation is “character” when “recognition” exists in the co-occurrence word is 0.95, these values The sum is 1.85. If the same calculation is performed on the translated “character”, the total value is 0.08. The translation that maximizes these values can be treated as the most appropriate translation. In the above description, the optimal translation is determined by adding the ratio values. However, the present invention is not limited to this, and may be determined by combining multiplication, division, division, or the like. Finally, the step of transmitting the optimum translation data to the terminal (S2212).

また、ステップS2208において共起単語数nが0であった場合、ステップS2213に進み、代表となる訳をSV辞書データ1906から検索する。ステップS2214で、その訳を端末に送信する。   If the number n of co-occurrence words is 0 in step S2208, the process proceeds to step S2213, and a representative translation is searched from the SV dictionary data 1906. In step S2214, the translation is transmitted to the terminal.

また、ステップS2209において共起関係データベース1903に翻訳対象単語がなかった場合と、ステップS2210において共起関係データベース1903に共起単語と一致する単語がなかった場合は、同様にステップS2213に進み、代表訳を端末に送信する。   If there is no translation target word in the co-occurrence relation database 1903 in step S2209 and there is no word matching the co-occurrence word in the co-occurrence relation database 1903 in step S2210, the process similarly proceeds to step S2213. Send the translation to the terminal.

なお、上記フローではステップS2211で最適翻訳データを決定したが、複数の訳の候補を決定してもよい。共起単語に対応した割合の合計値を、大きい順に、例えば、6個求める。このデータを翻訳表示順序データと呼ぶ。図25(1)は、「character」の訳を並び替える前の状態であり、(2)は訳の意味として適切な順に並び替えた後の状態である。   In the above flow, the optimal translation data is determined in step S2211, but a plurality of translation candidates may be determined. For example, six total values of ratios corresponding to the co-occurrence words are obtained in descending order. This data is called translation display order data. FIG. 25 (1) shows a state before the translation of “character” is rearranged, and FIG. 25 (2) shows a state after the order is sorted in an appropriate order as the meaning of the translation.

この翻訳表示順序データに基づいて訳を端末に送信する。翻訳表示順序データを受信した携帯電話のCPU102は、当該翻訳表示順序データに基いて翻訳を並び替えて表示部107に表示するように制御する。   A translation is transmitted to the terminal based on the translation display order data. The CPU 102 of the mobile phone that has received the translation display order data controls to rearrange the translations based on the translation display order data and display them on the display unit 107.

これにより、ユーザは、認識対象単語の意味を知ることができるうえ、その認識対象単語が文脈上どのような意味を持つ可能性が高いかを容易に知ることができ、使い勝手がよい
また、サーバにより選択された最適な訳が間違っている場合も想定されるが、そうした場合でも、図25のように最適な訳だけでなく、その他の訳の候補を並べて列挙することにより、ユーザ自身が文脈上から判断する際の大きな手助けとなり得る。
As a result, the user can know the meaning of the recognition target word and can easily know what the recognition target word is likely to have in context, which is easy to use. It is assumed that the optimal translation selected by the user is wrong, but even in such a case, the user himself / herself can select not only the optimal translation as shown in FIG. It can be a great help when judging from above.

次に、携帯電話とサーバとのやり取りに係る処理例を図24を用いて説明する。ここでは、携帯電話である単語を文字認識してその最適な訳をサーバから受信する場合を想定する。   Next, a processing example related to the exchange between the mobile phone and the server will be described with reference to FIG. Here, it is assumed that a word that is a cellular phone is recognized and an optimal translation is received from the server.

まず、ある単語(以下、認識対象単語)を撮像部103及び画像認識部105により認識すると(ステップS2401)、CPU102は、撮像した画像データ、画像データに含まれる認識対象単語をデータ化した認識単語データ及び当該認識対象単語の位置を示す認識位置データを抽出する(ステップS2402)。次に、ユーザが当該認識対象単語の詳細な訳を参照する指示を入力部101等を介して行うと、CPU102は、サーバと接続するためのアクセス信号を送信する(ステップS2403)。   First, when a certain word (hereinafter referred to as a recognition target word) is recognized by the imaging unit 103 and the image recognition unit 105 (step S2401), the CPU 102 recognizes the captured image data and a recognition word obtained by converting the recognition target word included in the image data into data. Recognition position data indicating the position of the data and the recognition target word is extracted (step S2402). Next, when the user gives an instruction to refer to the detailed translation of the recognition target word via the input unit 101 or the like, the CPU 102 transmits an access signal for connecting to the server (step S2403).

アクセス信号を受信したサーバは、携帯電話にユーザIDとパスワードを要求するためにID・パスワード要求信号を送信し(ステップS2404、ステップS2405)、ID・パスワード要求信号を受信した携帯電話のCPU102は、ユーザによりID及びパスワードを入力画面等を介して入力された後にサーバにID及びパスワードを送信する(ステップS2406)。   The server that has received the access signal transmits an ID / password request signal for requesting the user ID and password to the mobile phone (steps S2404 and S2405), and the CPU 102 of the mobile phone that has received the ID / password request signal After the user inputs the ID and password via the input screen or the like, the ID and password are transmitted to the server (step S2406).

次に、サーバは受信したユーザID及びパスワードに基づいて正規の登録者か否かの認証を行う。認証を行った結果、正規の登録者と認められた場合(有効)には、サーバ1900は認証成功データを送信し、正規の登録者と認められない場合(無効)には認証失敗データを送信する(ステップS2407〜ステップS2409)。ここでは、認証が有効であった場合を考える。   Next, the server authenticates whether or not the user is a regular registrant based on the received user ID and password. As a result of authentication, the server 1900 transmits authentication success data when it is recognized as a regular registrant (valid), and transmits authentication failure data when it is not recognized as a regular registrant (invalid). (Steps S2407 to S2409). Here, consider a case where authentication is valid.

認証成功データを受信した携帯電話は、撮像した画像データ、画像データに含まれる認識対象単語をデータ化した認識単語データ及び当該認識対象単語の位置を示す認識位置データをサーバに送信する(ステップS2410、ステップS2411)。   The mobile phone that has received the authentication success data transmits the captured image data, the recognition word data obtained by converting the recognition target word included in the image data into data, and the recognition position data indicating the position of the recognition target word to the server (step S2410). Step S2411).

画像データ、認識単語データ及び認識位置データを受信したサーバは、前述したように、認識単語データから画像データ内に含まれる認識対象単語を特定し(ステップS2413)、画像データ内に含まれる認識単語データ以外の単語で、かつ、画像データの上下左右の端などで単語の途中で途切れて画像データの枠からはみ出した単語(共起単語)を抽出し、認識処理を行う(ステップS2412〜ステップS2414)。その後、サーバが所有する共起関係データベースを参照して、認識対象単語の最適な訳を示す最適翻訳データを携帯電話に送信する(ステップS2415、ステップS2416)。   As described above, the server that has received the image data, the recognition word data, and the recognition position data specifies the recognition target word included in the image data from the recognition word data (step S2413), and the recognition word included in the image data. A word other than data and a word (co-occurrence word) that is cut off in the middle of the word at the top, bottom, left, and right edges of the image data and protrudes from the frame of the image data are extracted, and recognition processing is performed (steps S2412 to S2414). ). Thereafter, referring to the co-occurrence relation database owned by the server, the optimum translation data indicating the optimum translation of the recognition target word is transmitted to the mobile phone (steps S2415 and S2416).

最適翻訳データを受信した携帯電話は、最適翻訳データを表示部107に表示する(ステップS2417、ステップS2418)。   The mobile phone that has received the optimal translation data displays the optimal translation data on the display unit 107 (steps S2417 and S2418).

以上により、ユーザは、ある単語の翻訳をその文脈に沿った最適な訳を参照することができ、使い勝手がよい。また、処理能力及び記憶容量が通常携帯電話より優れているサーバに共起関係データベースの蓄積及び共起データベースから最適な翻訳を決定する処理等を負担させることにより、携帯電話の処理負担及び記憶容量の軽減に貢献するとともに、処理能力や記憶容量の面でバランスのとれたシステムを実現できる。   As described above, the user can refer to an optimal translation in accordance with the context of translation of a certain word, and is convenient. In addition, the processing load and the storage capacity of the mobile phone are borne by causing the server, which has a processing capacity and a storage capacity, to be superior to that of the mobile phone, to store the co-occurrence database and to determine the optimal translation from the co-occurrence database This contributes to a reduction in the amount of data and a system that is balanced in terms of processing capacity and storage capacity.

更に、サーバの立場から見ると、上述したような情報処理を行うサーバを利用して、「最適翻訳サービス」等のサービスを想定すれば、例えば、毎月定額の収入を得られて経済的な面でも効果的である。   Further, from the standpoint of the server, if a service such as the “optimal translation service” is assumed using the server that performs the information processing as described above, for example, a fixed amount of income can be obtained every month. But it is effective.

また、ユーザには無料又は低額で提供する代わりに広告会社と契約してその広告会社から広告代としての収入を得るようにしても構わない。この場合、サーバは、その広告に関するデータを最適翻訳データに付加して携帯電話に送信し、その広告データ及び最適翻訳データを受信した携帯電話は、最適翻訳データとともに広告データも表示するようにすればよい。その際に、広告データを最適翻訳データと重ならないように両者を表示するための位置データもサーバが送信し、その位置データを受信した携帯電話がその位置データに基いて表示するようにすれば、ユーザは、最適な翻訳と広告が混在せずに見ることができる。   In addition, instead of providing the user for free or at a low price, the user may contract with an advertising company to obtain income as an advertising fee from the advertising company. In this case, the server adds the data related to the advertisement to the optimum translation data and transmits it to the mobile phone, and the mobile phone that has received the advertisement data and the optimum translation data displays the advertisement data together with the optimum translation data. That's fine. At that time, if the server also sends location data for displaying both so that the advertisement data does not overlap with the optimal translation data, the mobile phone that received the location data will display based on the location data The user can view the optimal translation and advertisement without mixing.

なお、上述してきた種々の機能をソフトウェアで実現してもよく、ユーザは、例えば、記録媒体やサーバから当該ソフトウェアを受信して当該種々の機能を実現できる。これにより、必要な機能だけを搭載したり、また、好みに応じて色々な機能を追加もしくは削除、あるいは更新することが容易となる。   The various functions described above may be realized by software, and the user can realize the various functions by receiving the software from, for example, a recording medium or a server. This makes it easy to install only necessary functions and to add, delete, or update various functions according to preference.

なお、携帯電話及びサーバが有する画像認識部および検索部はCPUで構成してもよい。更に、上述してきた実施例を組み合わせて構成することができることは言うまでもない。   Note that the image recognition unit and the search unit included in the mobile phone and the server may be configured by a CPU. Furthermore, it goes without saying that the embodiments described above can be combined.

また、本発明は、上記に示された実施例に限定されるものではなく、ここに開示された原理及び新しい特性は広範囲の技術的範囲を含むものである。   Further, the present invention is not limited to the above-described embodiments, and the principles and new characteristics disclosed herein include a wide technical scope.

第1の実施例に係る携帯電話の構成ブロック図である。1 is a configuration block diagram of a mobile phone according to a first embodiment. 辞書データの内容例を示した図である。It is the figure which showed the example of the content of dictionary data. 辞書データの内容例を示した図である。It is the figure which showed the example of the content of dictionary data. 第1の実施例における処理手順を示すフローチャートである。It is a flowchart which shows the process sequence in a 1st Example. 第1の実施例における表示画面例である。It is an example of the display screen in a 1st Example. 第2の実施例における表示画面例である。It is an example of the display screen in a 2nd Example. 第3の実施例に係る履歴表の例である。It is an example of the history table which concerns on a 3rd Example. 第3の実施例における処理手順を示すフローチャートである。It is a flowchart which shows the process sequence in a 3rd Example. 第3の実施例における表示画面例である。It is an example of the display screen in a 3rd Example. 文字パターンデータをダウンロードする実施例の処理フロー図である。It is a processing flow figure of the Example which downloads character pattern data. 文字パターンデータをダウンロードする実施例の表画面例である。It is a table | surface screen example of the Example which downloads character pattern data. 辞書データにID・パスワードが関連付けされている実施例のイメージ図である。It is an image figure of the Example by which ID and a password are linked | related with dictionary data. 辞書データにID・パスワードが関連付けされている実施例の処理フロー図である。It is a processing flow figure of the Example by which ID and a password are linked | related with dictionary data. 第4又は第5の実施例における携帯電話の概観図である。It is a general-view figure of the mobile phone in the 4th or 5th Example. 第5の実施例における処理手順を示すフローチャートである。It is a flowchart which shows the process sequence in a 5th Example. 第5の実施例における携帯電話の表示画面例である。It is an example of a display screen of a mobile phone in the fifth embodiment. 第6の実施例における携帯電話の表示画面例である。It is an example of the display screen of the mobile phone in the sixth embodiment. 第7の実施例における携帯電話の表示画面例である。It is an example of the display screen of the mobile phone in the seventh embodiment. 第8の実施例における全体システム図である。It is a whole system figure in an 8th Example. 共起関係データベース例である。It is an example of a co-occurrence relation database. 第8の実施例の携帯電話の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of the mobile telephone of an 8th Example. 第8の実施例のサーバの処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of the server of an 8th Example. 第8の実施例において撮像画像、認識対象単語、共起単語との位置関係を説明する図である。It is a figure explaining the positional relationship with a captured image, the recognition object word, and a co-occurrence word in the 8th Example. 第8の実施例における携帯電話とサーバの処理シーケンス図であるIt is a processing sequence figure of the mobile telephone and server in an 8th Example. 第8の実施例における携帯電話の表示画面例である。It is an example of a display screen of a mobile phone in the eighth embodiment.

符号の説明Explanation of symbols

100 携帯電話
101 入力部
102 CPU
103 撮像部
104 記憶部
105 画像認識部
106 辞書データ
107 表示部
108 通信部
109 検索部
110 辞書フラグ
200 メイン表示部を有する筐体
300 入力部を有する筐体
201 外国語
202 概要翻訳
203 詳細翻訳URL
204 URL共通部分
205 URL作成方法
701 単語
702 認識回数
703 最終認識時刻
704 確認回数
705 最終確認時刻
1401 通常撮像ボタン
1402 認識撮像ボタン
1403 ヒンジ部
1407 サブ表示部
1408a 入力部
1408b 入力部
1900 サーバ
1902 SV-CPU
1903 共起関係データベース
1904 SV記憶部
1905 SV画像認識部
1906 SV辞書データ
1908 SV通信部
1909 SV検索部
1910 ユーザ登録データベース
2301 認識対象外の単語
2303 認識対象単語
100 mobile phone 101 input unit 102 CPU
DESCRIPTION OF SYMBOLS 103 Image pick-up part 104 Memory | storage part 105 Image recognition part 106 Dictionary data 107 Display part 108 Communication part 109 Search part 110 Dictionary flag 200 Case 300 which has a main display part Case 201 which has an input part Foreign language 202 Summary translation 203 Detailed translation URL
204 URL common part 205 URL creation method 701 Word 702 Recognition frequency 703 Final recognition time 704 Confirmation frequency 705 Final confirmation time 1401 Normal imaging button 1402 Recognition imaging button 1403 Hinge unit 1407 Sub display unit 1408a Input unit 1408b Input unit 1900 Server 1902 SV- CPU
1903 Co-occurrence relation database 1904 SV storage unit 1905 SV image recognition unit 1906 SV dictionary data 1908 SV communication unit 1909 SV search unit 1910 User registration database 2301 Non-recognition word 2303 Recognition target word

Claims (36)

他の装置と通信する通信部と、
画像情報を出力する撮像部と、
該撮像部により出力された画像情報に含まれる識別情報を認識する認識部と、
該認識部により認識された識別情報に関連した関連情報の取得を指示する関連情報取得指示部と、
該関連情報取得指示部により該関連情報の取得が指示された場合に該関連情報を該通信部を介して取得し表示するように制御する制御部とを備えることを特徴とする情報処理装置。
A communication unit that communicates with other devices;
An imaging unit that outputs image information;
A recognition unit for recognizing identification information included in the image information output by the imaging unit;
A related information acquisition instruction unit for instructing acquisition of related information related to the identification information recognized by the recognition unit;
An information processing apparatus comprising: a control unit that controls to acquire and display the related information via the communication unit when the related information acquisition instruction unit is instructed to acquire the related information.
請求項1記載の情報処理装置において、
前記関連情報の取得を行うためのID及びパスワードを受信する受信部を備え、
前記制御部は、前記関連情報取得指示部により前記関連情報の取得が指示された場合に該受信部により受信されたID及びパスワードを送信するように制御することを特徴とする情報処理装置。
The information processing apparatus according to claim 1,
A receiving unit for receiving an ID and a password for acquiring the related information;
The information processing apparatus according to claim 1, wherein the control unit controls to transmit the ID and password received by the receiving unit when the related information acquisition instructing unit instructs acquisition of the related information.
請求項2記載の情報処理装置において、
前記関連情報が外国語の翻訳が記載されたホームページアドレスであることを特徴とする情報処理装置。
The information processing apparatus according to claim 2,
The information processing apparatus according to claim 1, wherein the related information is a homepage address where translation in a foreign language is described.
請求項1記載の情報処理装置において、
前記識別情報が外国語の単語であり、前記関連情報が該外国語の単語に関する情報であることを特徴とする情報処理装置。
The information processing apparatus according to claim 1,
The information processing apparatus, wherein the identification information is a foreign language word, and the related information is information related to the foreign language word.
請求項4記載の情報処理装置において、
前記関連情報が、前記外国語の用例もしくは翻訳を含むことを特徴とする情報処理装置。
The information processing apparatus according to claim 4.
The information processing apparatus, wherein the related information includes an example or translation of the foreign language.
請求項4記載の情報処理装置において、
前記関連情報が、複数の外国語の辞書情報を含み、該辞書情報を選択する辞書選択部を備えることを特徴とする情報処理装置。
The information processing apparatus according to claim 4.
An information processing apparatus comprising: a dictionary selection unit for selecting the dictionary information, wherein the related information includes a plurality of foreign language dictionary information.
請求項4記載の情報処理装置において、
複数の言語を認識するための文字パターンを受信する受信部と、
該受信部により受信された該文字パターンを記憶する言語パターン記憶部とを備え、
前記認識部は、該言語パターン記憶部により記憶された該文字パターンに基いて前記外国語の単語を認識することを特徴とする情報処理装置。
The information processing apparatus according to claim 4.
A receiving unit for receiving a character pattern for recognizing a plurality of languages;
A language pattern storage unit for storing the character pattern received by the reception unit,
The information processing apparatus, wherein the recognition unit recognizes the foreign language word based on the character pattern stored in the language pattern storage unit.
画像情報を出力する撮像部と、
該撮像部により出力された該画像情報を表示する表示部と、
単語情報と該単語情報に関する情報とを対応付けて記憶する記憶部と、
該表示部により表示された画像情報に含まれる単語情報を認識する認識部と、
該認識部により認識された単語情報に関する情報の取得を指示する詳細情報取得指示部と、
該詳細情報取得指示部により該単語情報に関する情報の取得が指示された場合に該記憶部により記憶された該単語情報に関する情報を該表示部に表示するように制御する制御部とを備えることを特徴とする情報処理装置。
An imaging unit that outputs image information;
A display unit for displaying the image information output by the imaging unit;
A storage unit that stores word information and information related to the word information in association with each other;
A recognition unit for recognizing word information included in the image information displayed by the display unit;
A detailed information acquisition instruction unit for instructing acquisition of information related to word information recognized by the recognition unit;
A control unit that controls to display information on the word information stored in the storage unit on the display unit when acquisition of information on the word information is instructed by the detailed information acquisition instruction unit. A characteristic information processing apparatus.
請求項8記載の情報処理装置において、
前記記憶部に記憶された前記単語情報に関する情報を作成もしくは編集する編集部とを備えることを特徴とする情報処理装置。
The information processing apparatus according to claim 8.
An information processing apparatus comprising: an editing unit that creates or edits information related to the word information stored in the storage unit.
他の装置と通信を行う通信部と、
画像情報を出力する撮像部と、
該撮像部により出力された画像情報に含まれる単語情報を認識する認識部と、
単語情報に関する詳細な情報が記載されたホームページのアドレスの情報を記憶する記憶部と、
該認識部により認識された該単語情報に関する詳細な情報を表示する指示を行う詳細情報表示指示部と、
該詳細情報表示指示部により該詳細な情報を表示する指示がなされた場合に、
該通信部を介して該記憶部により記憶された該ホームページのアドレスに基づいて該ホームページにアクセスし、該ホームページの内容を表示するように制御する制御部とを備えることを特徴とする情報処理装置。
A communication unit for communicating with other devices;
An imaging unit that outputs image information;
A recognition unit for recognizing word information included in the image information output by the imaging unit;
A storage unit for storing information on the address of a home page on which detailed information on word information is described;
A detailed information display instruction unit for instructing to display detailed information on the word information recognized by the recognition unit;
When an instruction to display the detailed information is given by the detailed information display instruction unit,
An information processing apparatus comprising: a control unit that controls to access the home page based on the address of the home page stored in the storage unit via the communication unit and to display the content of the home page .
請求項10記載の情報処理装置において、
前記記憶部は、前記ホームページのアドレスにおいて共通する部分と前記単語
情報ごとに固有の部分とを区別して記憶することを特徴とする情報処理装置。
The information processing apparatus according to claim 10.
The information processing apparatus, wherein the storage unit distinguishes and stores a common part in the address of the home page and a unique part for each word information.
他の装置と通信を行う通信部と、
画像情報を出力する撮像部と、
該撮像部により出力された該画像情報を表示する表示部と、
単語と該単語に関する簡易な情報と該単語に関する詳細な情報が記載されたホームページのアドレスの情報とを対応付けて記憶する記憶部と、
該表示部により表示された画像情報に含まれる単語を認識する認識部と、
該認識部により認識された該単語に関する詳細な情報の表示を指示する詳細情報表示指示部と、
該認識部により該単語の認識を行う場合に該認識された結果と該単語に関する簡易な情報を該表示部に表示し、さらに該詳細情報表示指示部により該詳細な情報の表示の指示がなされた場合に該通信部を介して該記憶部により記憶された該ホームページにアクセスし、該ホームページの内容を該表示部に表示するように制御する制御部とを備えることを特徴とする情報処理装置。
A communication unit for communicating with other devices;
An imaging unit that outputs image information;
A display unit for displaying the image information output by the imaging unit;
A storage unit that stores a word, simple information related to the word, and address information of a homepage on which detailed information related to the word is described;
A recognition unit for recognizing a word included in the image information displayed by the display unit;
A detailed information display instruction unit for instructing display of detailed information regarding the word recognized by the recognition unit;
When the recognition unit recognizes the word, the recognition result and simple information about the word are displayed on the display unit, and the detailed information display instruction unit instructs the display of the detailed information. And a control unit that controls to access the homepage stored in the storage unit via the communication unit and display the contents of the homepage on the display unit. .
画像情報を出力する撮像部と、
該撮像部により出力された該画像情報を認識する認識部と、
識別情報と識別情報に関連した関連情報とを対応付けて記憶する記憶部と、
該認識部により認識された識別情報を履歴情報として記憶する履歴記憶部と、
該履歴記憶部により記憶された履歴情報の取得を指示する履歴取得指示部と、
該履歴取得指示部により指示された履歴情報のうち少なくとも1つを選択する履歴選択部と、
該履歴選択部により該履歴情報を選択すると該履歴情報に対応した該関連情報を表示するように制御する制御部とを備えることを特徴とする情報処理装置。
An imaging unit that outputs image information;
A recognition unit for recognizing the image information output by the imaging unit;
A storage unit that stores the identification information and related information related to the identification information in association with each other;
A history storage unit that stores identification information recognized by the recognition unit as history information;
A history acquisition instruction unit for instructing acquisition of history information stored by the history storage unit;
A history selection unit that selects at least one of the history information instructed by the history acquisition instruction unit;
An information processing apparatus comprising: a control unit that controls to display the related information corresponding to the history information when the history information is selected by the history selection unit.
請求項13記載の情報処理装置において、
前記記憶部により記憶された前記関連情報は、前記識別情報の簡易な情報と前記識別情報の詳細な情報とに区別されて記憶されていることを特徴とする情報処理装置。
The information processing apparatus according to claim 13,
The related information stored by the storage unit is distinguished and stored as simple information of the identification information and detailed information of the identification information.
請求項13記載の情報処理装置において、
前記履歴選択部により履歴情報を選択した場合に該履歴情報の簡易な情報あるいは該履歴情報の詳細な情報のいずれを前記表示部に表示するかを選択する関連情報選択部を有することを特徴とする情報処理装置。
The information processing apparatus according to claim 13,
When the history information is selected by the history selection unit, the history selection unit includes a related information selection unit that selects whether to display simple information of the history information or detailed information of the history information on the display unit. Information processing apparatus.
請求項13記載の情報処理装置において、
前記関連情報は、前記識別情報に関して詳細に記載されたホームページのアドレス情報を少なくとも含むことを特徴とする情報処理装置。
The information processing apparatus according to claim 13,
The information processing apparatus, wherein the related information includes at least address information of a homepage described in detail with respect to the identification information.
請求項13記載の情報処理装置において、
前記制御部は、前記認識部により認識された前記識別情報が前記記憶部により記憶されていた場合にその旨を通知するように制御することを特徴とする情報処理装置。
The information processing apparatus according to claim 13,
The information processing apparatus according to claim 1, wherein the control unit performs control so as to notify when the identification information recognized by the recognition unit is stored in the storage unit.
画像情報を出力する撮像部と、
該撮像部により出力された該画像情報を表示する表示部と、
該表示部により表示された画像情報に含まれる単語を認識する認識部と、
該認識部により認識された単語を履歴情報として記憶する履歴記憶部と、
該履歴記憶部により記憶された該単語の表示を指示する履歴表示指示部と、
該履歴表示指示部により表示の指示がされた場合、該単語を選択するための表示画面を該表示部に表示し、選択された該単語の関連情報を該表示部に表示するように制御する制御部とを備えることを特徴とする情報処理装置。
An imaging unit that outputs image information;
A display unit for displaying the image information output by the imaging unit;
A recognition unit for recognizing a word included in the image information displayed by the display unit;
A history storage unit that stores words recognized by the recognition unit as history information;
A history display instruction unit for instructing display of the word stored by the history storage unit;
When a display instruction is given by the history display instruction unit, a display screen for selecting the word is displayed on the display unit, and related information of the selected word is controlled to be displayed on the display unit. An information processing apparatus comprising a control unit.
請求項13又は18記載の情報処理装置において
前記履歴記憶部は、前記認識部により認識された前記識別情報もしくは前記単語の認識回数を記憶することを特徴とする情報処理装置。
The information processing device according to claim 13 or 18, wherein the history storage unit stores the identification information recognized by the recognition unit or the number of times the word is recognized.
第1の表示部を有する第1の筐体と第1の操作部を有する第2の筐体を有し、ヒンジ部を介して該第1の表示部と該第1の操作部とが対向するように折畳み可能である情報処理装置において、
画像情報を出力する撮像部と、
該情報処理装置が折畳まれた状態で参照可能な位置に配置され、該撮像部により出力された画像情報を表示する第2の表示部と、
該情報処理装置が折畳まれた状態で押下可能な位置に配置された第2の操作部と、
該第2の表示部に表示された画像情報に含まれる識別情報を認識する認識部と、
該第2の操作部を介して該第2の表示部に表示された該識別情報の認識を行う指示をした場合に、該第2の表示部に表示された該識別情報を該認識部により認識するように制御する制御部とを備えることを特徴とする情報処理装置。
A first casing having a first display section and a second casing having a first operation section are provided, and the first display section and the first operation section are opposed to each other via a hinge section. In the information processing apparatus that can be folded as
An imaging unit that outputs image information;
A second display unit that is arranged at a position that can be referred to when the information processing apparatus is folded, and that displays image information output by the imaging unit;
A second operation unit disposed at a position where the information processing apparatus can be pressed in a folded state;
A recognition unit for recognizing identification information included in the image information displayed on the second display unit;
When an instruction to recognize the identification information displayed on the second display unit is given via the second operation unit, the identification information displayed on the second display unit is displayed by the recognition unit. An information processing apparatus comprising: a control unit that performs control so as to be recognized.
請求項20記載の情報処理装置において、
前記情報処理装置が折畳まれた状態であるか否かを検出する折畳検出部と、
前記識別情報に関連する関連情報を記憶する記憶部とを備え、
前記制御部は、前記該第2の操作部を介して前記第2の表示部に表示された前記識別情報を認識した後に、該折畳検出部により開いた状態であると検出された場合に該関連情報を前記第1の表示部に表示するように制御することを特徴とする情報処理装置。
The information processing apparatus according to claim 20,
A fold detection unit for detecting whether or not the information processing apparatus is in a folded state;
A storage unit that stores related information related to the identification information;
The control unit recognizes the identification information displayed on the second display unit via the second operation unit, and then detects that the folding detection unit is open. An information processing apparatus that controls to display the related information on the first display unit.
請求項21記載の情報処理装置において、
他の装置と通信する通信部とを備え、
前記関連情報が前記識別情報の詳細な情報が記載されたホームページアドレスを含み、
前記制御部は、前記折畳検出部により開いた状態であると検出された場合に該通信部を介して該ホームページにアクセスして該ホームページの内容を前記メイン表示部に表示するように制御することを特徴とする情報処理装置。
The information processing apparatus according to claim 21, wherein
A communication unit that communicates with other devices,
The related information includes a homepage address where detailed information of the identification information is described,
The control unit controls to display the contents of the home page on the main display unit by accessing the home page via the communication unit when the folding detection unit detects the open state. An information processing apparatus characterized by that.
メイン表示部を有する第1の筐体とメイン操作部を有する第2の筐体を有し、ヒンジ部を介して該メイン表示部と該メイン操作部とが対向するように折畳み可能であり、画像情報を出力する撮像部が該ヒンジ部に備わって回転可能である情報処理装置において、
該情報処理装置が折畳まれた状態で参照可能な位置に配置され、該撮像部により出力された画像情報を表示するサブ表示部と、
該情報処理装置が折畳まれた状態で押下可能な位置に配置されたサブ操作部と、
該サブ表示部に表示された画像情報に含まれる単語を認識する認識部と、
該サブ操作部を介して該第2の表示部に表示された該単語の認識を行う指示をした場合に、該サブ表示部に表示された該単語を該認識部により認識するように制御する制御部とを備えることを特徴とする情報処理装置。
It has a first casing having a main display section and a second casing having a main operation section, and can be folded so that the main display section and the main operation section face each other via a hinge section. In the information processing apparatus in which the imaging unit that outputs image information is provided in the hinge unit and is rotatable,
A sub-display unit that is arranged at a position that can be referred to when the information processing apparatus is folded, and that displays image information output by the imaging unit;
A sub operation unit disposed at a position where the information processing apparatus can be pressed in a folded state;
A recognition unit for recognizing a word included in the image information displayed on the sub display unit;
Control is performed so that the recognition unit recognizes the word displayed on the sub display unit when an instruction to recognize the word displayed on the second display unit is issued via the sub operation unit. An information processing apparatus comprising a control unit.
他の装置と通信する通信部と、
該通信部を介してメールの送受信を行うためのソフトウェアを記憶するメールソフトウェア記憶部と、
画像情報を出力する撮像部と、
該撮像部により出力された該画像情報を表示する表示部と、
該表示部により表示された画像情報に含まれる識別情報を認識する認識部と、
該認識部により認識された識別情報に関連した関連情報の取得を指示する関連情報取得指示部と、
該関連情報取得指示部により該関連情報の取得が指示され該関連情報を該表示部に表示した後に該メールソフトウェア記憶部により記憶された該ソフトウェアを起動するか否かを選択するソフトウェア起動選択部と、
該認識部により該識別情報を認識した後に該メールソフトウェア起動選択部により該ソフトウェアの起動が選択されるとメール作成用の表示画面を少なくとも送信相手先を入力するための宛先欄及び送信したい文字を入力するための本文欄とから構成されるメール作成画面を該表示部に表示するとともに、該本文欄には該認識部により認識された該識別情報と該関連情報のうち少なくともいずれか一方を挿入するように制御する制御部とを備えることを特徴とする情報処理装置。
A communication unit that communicates with other devices;
A mail software storage unit for storing software for sending and receiving mail via the communication unit;
An imaging unit that outputs image information;
A display unit for displaying the image information output by the imaging unit;
A recognition unit for recognizing identification information included in the image information displayed by the display unit;
A related information acquisition instruction unit for instructing acquisition of related information related to the identification information recognized by the recognition unit;
Software activation selection unit for selecting whether to activate the software stored in the mail software storage unit after the acquisition of the related information is instructed by the related information acquisition instruction unit and the related information is displayed on the display unit When,
When activation of the software is selected by the mail software activation selection unit after the identification information is recognized by the recognition unit, a mail creation display screen is displayed with at least a destination column for inputting a transmission destination and a character to be transmitted. A mail creation screen composed of a text field for input is displayed on the display unit, and at least one of the identification information recognized by the recognition unit and the related information is inserted in the text field An information processing apparatus comprising: a control unit that performs control so as to perform.
他の装置と通信する通信部と、
画像情報を出力する撮像部と、
該撮像部により出力された該画像情報を表示する表示部と、
該表示部により表示された画像情報に含まれる単語情報を認識する認識部と、
該認識部により認識された単語情報がメールアドレスか否かを判定するメールアドレス判定部と、
該通信部を介してメールの送受信を行うためのソフトウェアを記憶するメールソフトウェア記憶部と、
該メールソフトウェア記憶部により記憶された該ソフトウェアを起動するか否かを選択するメールソフトウェア起動選択部と、
該認識部により該単語情報を認識した後に該メールソフトウェア起動選択部により該ソフトウェアの起動が選択されると少なくとも送信相手の相手先を入力するための宛先欄及び送信したい文字を入力するための本文欄とから構成されるメール作成画面を該表示部に表示するとともに、該認識部により認識された単語情報が該メールアドレス判定部によりメールアドレスであると判定された場合は該宛先欄に該単語情報を挿入し、一方、該認識部により認識された単語情報が該メールアドレス判定部によりメールアドレスでないと判定された場合は該宛先欄以外の欄に該単語情報を挿入するように制御する制御部とを備えることを特徴とする情報処理装置。
A communication unit that communicates with other devices;
An imaging unit that outputs image information;
A display unit for displaying the image information output by the imaging unit;
A recognition unit for recognizing word information included in the image information displayed by the display unit;
An email address determination unit that determines whether the word information recognized by the recognition unit is an email address;
A mail software storage unit for storing software for sending and receiving mail via the communication unit;
A mail software activation selection unit for selecting whether to activate the software stored in the email software storage unit;
When activation of the software is selected by the mail software activation selection unit after the word information is recognized by the recognition unit, at least a destination field for inputting a destination of a transmission partner and a text for inputting characters to be transmitted A mail composing screen composed of a field and a word information recognized by the recognizing unit when the word information recognized by the recognizing unit is an e-mail address. Control for inserting information, and on the other hand, if the word information recognized by the recognizing unit is determined not to be an e-mail address by the e-mail address determining unit, control is performed so that the word information is inserted in a column other than the destination column An information processing apparatus comprising a unit.
他の装置と通信する通信部と、
画像情報を出力する撮像部と、
該撮像部により出力された該画像情報を表示する表示部と、
該表示部により表示された画像情報に含まれる単語情報を認識する認識部と、
該通信部を介してメールの送受信を行うためのソフトウェアを記憶するメールソフトウェア記憶部と、
該メールソフトウェア記憶部により記憶された該ソフトウェアを起動するか否かを選択するメールソフトウェア起動選択部と、
該認識部により該単語情報を認識した後に該メールソフトウェア起動選択部により該ソフトウェアの起動が選択されると少なくとも送信相手の相手先を入力するための宛先欄及び送信したい文字を入力するための本文欄とから構成されるメール作成画面を該表示部に表示するとともに、該認識部により認識された単語情報が該メールアドレスである場合は該宛先欄に該単語情報を挿入し、該認識部により認識された単語情報がメールアドレスでない場合は該宛先欄以外の欄に該単語情報を挿入するように制御する制御部とを備えることを特徴とする情報処理装置。
A communication unit that communicates with other devices;
An imaging unit that outputs image information;
A display unit for displaying the image information output by the imaging unit;
A recognition unit for recognizing word information included in the image information displayed by the display unit;
A mail software storage unit for storing software for sending and receiving mail via the communication unit;
A mail software activation selection unit for selecting whether to activate the software stored in the email software storage unit;
When activation of the software is selected by the mail software activation selection unit after the word information is recognized by the recognition unit, at least a destination field for inputting a destination of a transmission partner and a text for inputting characters to be transmitted A mail composing screen composed of a field and a display section. When the word information recognized by the recognition section is the mail address, the word information is inserted into the destination field, and the recognition section An information processing apparatus comprising: a control unit that controls to insert the word information into a field other than the destination field when the recognized word information is not an email address.
他の装置と通信する通信部と、
画像情報を出力する撮像部と、
該撮像部により出力された該画像情報を表示する表示部と、
該表示部により表示された画像情報に含まれる識別情報を認識する認識部と、
該通信部を介してメールの送受信を行うためのソフトウェアを少なくとも記憶するソフトウェア記憶部と、
該ソフト記憶部により記憶された該ソフトウェアを起動するか否かを選択するメールソフトウェア起動選択部と、
該認識部により該識別情報を認識した後で該メールソフトウェア起動選択部により該ソフトウェアの起動が選択されると少なくとも送信相手の相手先を入力するための宛先欄び送信したい文字を入力するための本文欄とから構成されるメール作成画面のうちどの欄に該認識部により認識された該識別情報を挿入するかを選択できる表示画面を該表示部に表示するように制御する制御部とを備えることを特徴とする情報処理装置。
A communication unit that communicates with other devices;
An imaging unit that outputs image information;
A display unit for displaying the image information output by the imaging unit;
A recognition unit for recognizing identification information included in the image information displayed by the display unit;
A software storage unit that stores at least software for sending and receiving mail via the communication unit;
A mail software activation selection unit for selecting whether to activate the software stored in the software storage unit;
When the activation of the software is selected by the mail software activation selection unit after the identification information is recognized by the recognition unit, at least a destination column for inputting a destination of a transmission destination and a character to be transmitted A control unit that controls to display on the display unit a display screen on which the identification information recognized by the recognition unit can be inserted into which of the mail composition screens composed of a body field. An information processing apparatus characterized by that.
画像情報を出力する撮像部と、
該撮像部により出力された画像情報に含まれる識別情報を認識する認識部と、
該認識部により認識された該識別情報の位置情報を抽出する認識位置抽出部と、
該認識位置抽出部により抽出された位置情報、該認識部により認識された識別情報、該撮像部により出力された画像情報を送信する送信部とを備えることを特徴とする情報処理装置。
An imaging unit that outputs image information;
A recognition unit for recognizing identification information included in the image information output by the imaging unit;
A recognition position extraction unit that extracts position information of the identification information recognized by the recognition unit;
An information processing apparatus comprising: a transmission unit that transmits position information extracted by the recognition position extraction unit, identification information recognized by the recognition unit, and image information output by the imaging unit.
請求項28記載の情報処理装置において
前記送信部により前記位置情報、前記識別情報及び前記画像情報を送信した後に前記識別情報に関連する関連情報を受信する受信部とを備えることを特徴とする情報処理装置。
The information processing apparatus according to claim 28, further comprising: a receiving unit that receives related information related to the identification information after transmitting the position information, the identification information, and the image information by the transmission unit. Processing equipment.
請求項29記載の情報処理装置において
前記識別情報が外国語の単語であり、前記関連情報が該外国語の翻訳であることを特徴とする情報処理装置。
30. The information processing apparatus according to claim 29, wherein the identification information is a foreign language word and the related information is a translation of the foreign language.
少なくとも1つ以上の単語を含む画像情報と該画像情報に含まれる所定の単語を特定するための単語特定情報とを受信し、
該画像情報及び該単語特定情報に基づいて該受信した画像情報に含まれる該所定の単語を特定し、
該画像情報に含まれる単語のうちで該特定された単語以外の単語を抽出し、
予め記憶された第1の単語と第2の単語との組み合わせに応じて該第1の単語の関連情報を決定するためのデータベースを参照して該特定された単語の関連情報を決定し、該決定された関連情報を送信することを特徴とする情報処理方法。
Receiving image information including at least one word and word specifying information for specifying a predetermined word included in the image information;
Specifying the predetermined word included in the received image information based on the image information and the word specifying information;
Extracting words other than the identified word from the words included in the image information;
Determining related information of the identified word with reference to a database for determining related information of the first word according to a combination of the first word and the second word stored in advance; An information processing method characterized by transmitting the determined related information.
請求項31記載の情報処理方法において、
前記単語特定情報が、前記所定の単語の位置情報を含むことを特徴とする情報処理方法。
The information processing method according to claim 31,
The information processing method, wherein the word specifying information includes position information of the predetermined word.
請求項31又は32記載の情報処理方法において、
前記単語が外国語の単語であり、前記関連情報が該外国語の単語の翻訳であることを特徴とする情報処理方法。
The information processing method according to claim 31 or 32,
An information processing method, wherein the word is a foreign language word and the related information is a translation of the foreign language word.
請求項31記載の情報処理方法において、
前記画像情報に含まれる単語のうちで前記特定された単語以外の単語を抽出する際に、
前記画像情報に含まれる単語のうちで前記特定された単語以外の単語の領域を指定し、
該指定された領域と前記画像情報の端とが重ならない場合にその単語を前記画像情報に含まれる単語として抽出することを特徴とする情報処理方法。
The information processing method according to claim 31,
When extracting words other than the identified word among the words included in the image information,
Specify an area of a word other than the identified word among the words included in the image information,
An information processing method comprising: extracting the word as a word included in the image information when the designated area does not overlap an edge of the image information.
英単語の翻訳を要求する翻訳要求データを受信し、
該受信した翻訳要求データに含まれる翻訳対象となる単語及び翻訳対象以外の単語とから当該単語情報の意味を、予め記憶された、第1の単語と第2の単語との組み合わせに応じて該第1の単語の意味を決定するための統計データが含まれるデータベースから抽出し、
該抽出した意味を該データベースに基づいて並び替え、該並び替えられた意味を表示するための翻訳表示順序データを送信することを特徴とする情報処理方法。
Receive translation request data requesting translation of English words,
The meaning of the word information from the word to be translated and the word other than the translation target included in the received translation request data is stored in advance according to the combination of the first word and the second word. Extracting from a database containing statistical data for determining the meaning of the first word;
An information processing method comprising rearranging the extracted meanings based on the database and transmitting translation display order data for displaying the rearranged meanings.
他の装置と通信する通信部と、画像情報を出力する撮像部と、該撮像部により出力された画像情報に含まれる識別情報を認識する認識部とを有した情報処理装置を実行させるソフトウェアにおいて、
該認識部により認識された識別情報に関連した関連情報の取得が指示された場合に該関連情報を該通信部を介して取得し表示するように該情報処理装置を実行させることを特徴とするソフトウェア。
Software for executing an information processing apparatus having a communication unit that communicates with another device, an imaging unit that outputs image information, and a recognition unit that recognizes identification information included in the image information output by the imaging unit ,
When the acquisition of related information related to the identification information recognized by the recognition unit is instructed, the information processing apparatus is executed to acquire and display the related information via the communication unit software.
JP2007335602A 2007-12-27 2007-12-27 Information processing apparatus, information processing method, and software Withdrawn JP2008160852A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007335602A JP2008160852A (en) 2007-12-27 2007-12-27 Information processing apparatus, information processing method, and software

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007335602A JP2008160852A (en) 2007-12-27 2007-12-27 Information processing apparatus, information processing method, and software

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2003194007A Division JP4269811B2 (en) 2003-07-09 2003-07-09 mobile phone

Publications (1)

Publication Number Publication Date
JP2008160852A true JP2008160852A (en) 2008-07-10

Family

ID=39661147

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007335602A Withdrawn JP2008160852A (en) 2007-12-27 2007-12-27 Information processing apparatus, information processing method, and software

Country Status (1)

Country Link
JP (1) JP2008160852A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011164538A (en) * 2010-02-15 2011-08-25 Alpine Electronics Inc Navigation device
JP2012138706A (en) * 2010-12-24 2012-07-19 Kyocera Corp Portable electronic apparatus

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011164538A (en) * 2010-02-15 2011-08-25 Alpine Electronics Inc Navigation device
JP2012138706A (en) * 2010-12-24 2012-07-19 Kyocera Corp Portable electronic apparatus
US8902129B2 (en) 2010-12-24 2014-12-02 Kyocera Corporation Portable electronic apparatus

Similar Documents

Publication Publication Date Title
KR100698986B1 (en) Information processing apparatus
JP4924721B2 (en) Mobile terminal and material bank management system
CN101094301B (en) Image-forming apparatus and image-processing method
JP4803373B2 (en) Operation history blog automatic generation system, portable terminal, and program
KR100819263B1 (en) Apparatus and method of management vcard
EP2402860A2 (en) Data processing apparatus
EP1691542A1 (en) Information processing apparatus, information processing method, and information processing system
JP4935658B2 (en) Browser program and information processing apparatus
US8630852B2 (en) Image processing apparatus, speech recognition processing apparatus, control method for speech recognition processing apparatus, and computer-readable storage medium for computer program
US20110131529A1 (en) Information Processing Apparatus, Information Processing Method, Computer Program, and Information Processing Server
US20070192702A1 (en) Document processing apparatus, document processing system and data structure of document file
KR101871779B1 (en) Terminal Having Application for taking and managing picture
JP3935889B2 (en) Data processing apparatus, data processing method, data processing program, and recording medium on which data processing program is recorded
US20080123973A1 (en) Executing functions using image code
JP2005174027A (en) Information processing device and control method therefor, information processing system, and program therefor
CN100426827C (en) Portable radio communication terminal and its representation style processing method thereof
JP2008160852A (en) Information processing apparatus, information processing method, and software
KR20060096943A (en) Method and apparatus for processing information and computer program
US20050178821A1 (en) Manual providing apparatus, multi function printer, server, electronic manual presentation method, and computer program
JP4766135B2 (en) Information providing apparatus, information providing method, and information providing program
JP2007058532A (en) Information processing system, information processor and method, program, and recording medium
JP2008139942A (en) Information processing apparatus, information processing method and program
JP2018072985A (en) Image scan system, image scanner, information acquisition method and information acquisition program
JPH11122589A (en) Video telephone system
JP2009135715A (en) Content activation portable terminal device

Legal Events

Date Code Title Description
A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20090512