[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP5754218B2 - SEARCH DEVICE, SEARCH METHOD, AND PROGRAM - Google Patents

SEARCH DEVICE, SEARCH METHOD, AND PROGRAM Download PDF

Info

Publication number
JP5754218B2
JP5754218B2 JP2011086910A JP2011086910A JP5754218B2 JP 5754218 B2 JP5754218 B2 JP 5754218B2 JP 2011086910 A JP2011086910 A JP 2011086910A JP 2011086910 A JP2011086910 A JP 2011086910A JP 5754218 B2 JP5754218 B2 JP 5754218B2
Authority
JP
Japan
Prior art keywords
information
event
imaging
image
search
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2011086910A
Other languages
Japanese (ja)
Other versions
JP2012221265A (en
Inventor
喜多 一記
一記 喜多
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2011086910A priority Critical patent/JP5754218B2/en
Publication of JP2012221265A publication Critical patent/JP2012221265A/en
Application granted granted Critical
Publication of JP5754218B2 publication Critical patent/JP5754218B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Television Signal Processing For Recording (AREA)
  • Studio Devices (AREA)

Description

本発明は、検索装置、この検索装置を用いた検索方法及びプログラムに関する。   The present invention relates to a search device, a search method using the search device, and a program.

従来、撮影された画像の画像情報に対応付けて、撮影日時や撮影場所の位置などに関する属性情報を記録しておき、当該属性情報を利用してユーザにより指定された日時や場所で撮影された画像を検索可能とした情報管理技術が知られている(例えば、特許文献1参照)。また、所望の画像の検索を容易にするために、撮影日時や撮影場所に基づいて、所定数の画像をグループ化して分類する技術も知られている。   Conventionally, attribute information related to the shooting date and time, the location of the shooting location, etc. is recorded in association with the image information of the shot image, and the image was shot at the date and location specified by the user using the attribute information. An information management technique that makes it possible to search for an image is known (for example, see Patent Document 1). Also, a technique for grouping and classifying a predetermined number of images based on the shooting date and the shooting location in order to facilitate the search for a desired image is also known.

特開2006−127525号公報JP 2006-127525 A

しかしながら、上記特許文献1等の技術では、検索対象が遠い過去に撮影された画像である場合などでは、当該画像をいつどこで撮影したかを正確に思い出すことができない虞がある。このように、画像の撮影日時や撮影場所の位置だけでは、検索対象の画像の検索を適正に行うことができないといった問題がある。   However, in the technique disclosed in Patent Document 1 or the like, when the search target is an image taken in the past, there is a possibility that it is impossible to accurately remember when and where the image was taken. As described above, there is a problem that the search target image cannot be properly searched only by the shooting date and time of the image and the position of the shooting location.

本発明は、このような問題に鑑みてなされたものであり、本発明の課題は、所望の画像情報の検索を適正に行うことができる検索装置、検索方法及びプログラムを提供することである。   The present invention has been made in view of such problems, and an object of the present invention is to provide a search device, a search method, and a program that can appropriately search for desired image information.

上記課題を解決するため、本発明の検索装置は、
撮像手段により撮像された画像の画像情報を、当該画像の撮像に関連する撮像関連情報と対応付けて少なくとも一つ記録する第1記録手段と、前記撮像手段による画像の撮像指示タイミングとは非同期のタイミングで発生する当該画像の撮像以外のイベントに係るイベント情報を、当該イベントの発生に関連するイベント関連情報と対応付けて少なくとも一つ記録する第2記録手段と、検索対象を検索するための検索条件を入力する入力手段と、前記画像情報を検索対象として検索する場合に、前記入力手段により前記検索条件として前記撮像関連情報以外の他の情報が入力されると、当該他の情報と関連するイベント情報を前記第2記録手段に記録されているイベント情報の中から検索し、この検索されたイベント情報と対応付けられているイベント関連情報と関連する撮像関連情報を特定する特定手段と、前記第1記録手段に記録されている画像情報の中で、前記入力手段により入力された撮像関連情報或いは前記特定手段により特定された撮像関連情報と対応付けられている画像情報を検索する検索手段と、この検索手段による前記検索対象の検索結果を出力する出力手段と、を備えることを特徴としている。
In order to solve the above problems, the search device of the present invention provides:
First recording means for recording image information of an image taken by the imaging means in association with imaging-related information related to imaging of the image, and imaging instruction timing of the image by the imaging means are asynchronous A second recording means for recording at least one event information related to an event other than the image capturing that occurs at the timing in association with the event related information related to the occurrence of the event; and a search for searching for a search target When searching for the image information as a search target and an input means for inputting a condition, if other information other than the imaging related information is input as the search condition by the input means, the information is related to the other information. Event information is retrieved from the event information recorded in the second recording means, and is associated with the retrieved event information. Identification means for specifying imaging-related information related to event-related information, and imaging-related information input by the input means or specified by the specification means among the image information recorded in the first recording means The image processing apparatus includes a search unit that searches for image information associated with imaging related information, and an output unit that outputs a search result of the search target by the search unit.

また、本発明の検索方法は、
撮像手段により撮像された画像の画像情報を、当該画像の撮像に関連する撮像関連情報と対応付けて少なくとも一つ記録する第1記録手段と、前記撮像手段による画像の撮像指示タイミングとは非同期のタイミングで発生する当該画像の撮像以外のイベントに係るイベント情報を、当該イベントの発生に関連するイベント関連情報と対応付けて少なくとも一つ記録する第2記録手段と、を備える検索装置を用いた検索方法であって、検索対象を検索するための検索条件を入力する処理と、前記画像情報を検索対象として検索する場合に、前記検索条件として前記撮像関連情報以外の他の情報が入力されると、当該他の情報と関連するイベント情報を前記第2記録手段に記録されているイベント情報の中から検索し、この検索されたイベント情報と対応付けられているイベント関連情報と関連する撮像関連情報を特定する処理と、前記第1記録手段に記録されている画像情報の中で、前記入力手段により入力された撮像関連情報或いは特定された撮像関連情報と対応付けられている画像情報を検索する処理と、前記検索対象の検索結果を出力する処理と、を含むことを特徴としている。
In addition, the search method of the present invention includes:
First recording means for recording image information of an image taken by the imaging means in association with imaging-related information related to imaging of the image, and imaging instruction timing of the image by the imaging means are asynchronous Search using a search device comprising: second recording means for recording at least one event information related to an event other than imaging of the image that occurs at the timing in association with event related information related to the occurrence of the event A method of inputting a search condition for searching for a search target, and when searching for the image information as a search target, when information other than the imaging related information is input as the search condition Event information related to the other information is searched from the event information recorded in the second recording means, and the searched event information Among the image information recorded in the first recording means, the imaging related information input by the input means or the specified information is specified. And a process of searching for image information associated with the imaging-related information and a process of outputting a search result of the search target.

また、本発明のプログラムは、
撮像手段により撮像された画像の画像情報を、当該画像の撮像に関連する撮像関連情報と対応付けて少なくとも一つ記録する第1記録手段と、前記撮像手段による画像の撮像指示タイミングとは非同期のタイミングで発生する当該画像の撮像以外のイベントに係るイベント情報を、当該イベントの発生に関連するイベント関連情報と対応付けて少なくとも一つ記録する第2記録手段と、を備える検索装置のコンピュータを、検索対象を検索するための検索条件を入力する入力手段、前記画像情報を検索対象として検索する場合に、前記入力手段により前記検索条件として前記撮像関連情報以外の他の情報が入力されると、当該他の情報と関連するイベント情報を前記第2記録手段に記録されているイベント情報の中から検索し、この検索されたイベント情報と対応付けられているイベント関連情報と関連する撮像関連情報を特定する特定手段、前記第1記録手段に記録されている画像情報の中で、前記入力手段により入力された撮像関連情報或いは前記特定手段により特定された撮像関連情報と対応付けられている画像情報を検索する検索手段、この検索手段による前記検索対象の検索結果を出力する出力手段、として機能させることを特徴としている。
The program of the present invention is
First recording means for recording image information of an image taken by the imaging means in association with imaging-related information related to imaging of the image, and imaging instruction timing of the image by the imaging means are asynchronous A second recording unit that records at least one event information related to an event other than imaging of the image that occurs at a timing in association with event-related information related to the occurrence of the event; Input means for inputting a search condition for searching for a search target, and when searching for the image information as a search target, when other information other than the imaging related information is input as the search condition by the input means, Event information related to the other information is searched from the event information recorded in the second recording means, Identification means for specifying imaging-related information related to event-related information associated with event information, imaging-related information input by the input means among image information recorded in the first recording means, or It is characterized by functioning as search means for searching image information associated with the imaging related information specified by the specifying means, and output means for outputting the search result of the search object by the search means.

本発明によれば、検索対象の画像をいつどこで撮影したかを正確に思い出すことができない場合であっても、所望の画像情報の検索を適正に行うことができる。   According to the present invention, it is possible to appropriately search for desired image information even when it is impossible to accurately remember when and where the image to be searched was taken.

本発明を適用した実施形態1の携帯端末の概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the portable terminal of Embodiment 1 to which this invention is applied. 図1の携帯端末にイベント情報として記録されるイベントの一例を示す図である。It is a figure which shows an example of the event recorded as event information in the portable terminal of FIG. 図1の携帯端末に記録されるイベント記録テーブルの一例を模式的に示す図である。It is a figure which shows typically an example of the event recording table recorded on the portable terminal of FIG. 図1の携帯端末による撮像処理に係る動作の一例を示すフローチャートである。3 is a flowchart illustrating an example of an operation related to an imaging process by the mobile terminal in FIG. 1. 図1の携帯端末によるイベント記録処理に係る動作の一例を示すフローチャートである。It is a flowchart which shows an example of the operation | movement which concerns on the event recording process by the portable terminal of FIG. 図1の携帯端末による画像検索処理に係る動作の一例を示すフローチャートである。3 is a flowchart illustrating an example of an operation related to an image search process by the mobile terminal of FIG. 1. 図1の携帯端末によるイベント検索処理に係る動作の一例を示すフローチャートである。It is a flowchart which shows an example of the operation | movement which concerns on the event search process by the portable terminal of FIG. 本発明を適用した実施形態2の検索システムの概略構成を示す図である。It is a figure which shows schematic structure of the search system of Embodiment 2 to which this invention is applied. 図8の検索システムを構成する撮像装置の概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the imaging device which comprises the search system of FIG. 図8の検索システムを構成する携帯電話機の概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the mobile telephone which comprises the search system of FIG. 図8の検索システムを構成する検索装置の概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the search device which comprises the search system of FIG.

以下に、本発明について、図面を用いて具体的な態様を説明する。ただし、発明の範囲は、図示例に限定されない。   Hereinafter, specific embodiments of the present invention will be described with reference to the drawings. However, the scope of the invention is not limited to the illustrated examples.

[実施形態1]
図1は、本発明を適用した実施形態1の携帯端末100の概略構成を示すブロック図である。
図1に示すように、携帯端末100は、中央制御部1、メモリ2、撮像部3、撮像制御部4、画像処理部5、操作入力部6、送受話部7、通信制御部8、位置取得部9、日時取得部10、検出センサ部11、イベント取得制御部12、記録部13、検索制御部14、表示部15等を備えている。
なお、携帯端末100は、例えば、通信機能を具備する撮像装置や、携帯電話やPHS(Personal Handy-phone System)などの移動体通信網で用いられる移動局、PDA(Personal Data Assistants)等から構成されている。
[Embodiment 1]
FIG. 1 is a block diagram showing a schematic configuration of a mobile terminal 100 according to the first embodiment to which the present invention is applied.
As shown in FIG. 1, the mobile terminal 100 includes a central control unit 1, a memory 2, an imaging unit 3, an imaging control unit 4, an image processing unit 5, an operation input unit 6, a transmission / reception unit 7, a communication control unit 8, a position An acquisition unit 9, a date acquisition unit 10, a detection sensor unit 11, an event acquisition control unit 12, a recording unit 13, a search control unit 14, a display unit 15 and the like are provided.
The mobile terminal 100 includes, for example, an imaging device having a communication function, a mobile station used in a mobile communication network such as a mobile phone or a PHS (Personal Handy-phone System), a PDA (Personal Data Assistants), and the like. Has been.

中央制御部1は、携帯端末100の各部を制御する。具体的には、中央制御部1は、携帯端末100の各部を制御するCPU(図示略)を具備し、各種処理プログラム(図示略)に従って各種の制御動作を行う。   The central control unit 1 controls each unit of the mobile terminal 100. Specifically, the central control unit 1 includes a CPU (not shown) that controls each part of the mobile terminal 100, and performs various control operations according to various processing programs (not shown).

メモリ2は、例えば、画像情報等を一時的に記録するバッファメモリや、中央制御部1などのワーキングメモリ、当該携帯端末100の機能に係る各種プログラムやデータが格納されたプログラムメモリ等(何れも図示略)を備えている。   The memory 2 includes, for example, a buffer memory that temporarily records image information and the like, a working memory such as the central control unit 1, a program memory that stores various programs and data related to the functions of the mobile terminal 100, etc. (Not shown).

撮像部3は、撮像手段を構成している。具体的には、撮像部3は、レンズ部3a、電子撮像部3b、ユニット回路部3cを具備している。   The imaging unit 3 constitutes an imaging unit. Specifically, the imaging unit 3 includes a lens unit 3a, an electronic imaging unit 3b, and a unit circuit unit 3c.

レンズ部3aは、例えば、図示は省略するが、ズームレンズ、フォーカスレンズ、絞り等を有し、これらレンズを通過した被写体の光学像を結像する。   For example, although not shown, the lens unit 3a includes a zoom lens, a focus lens, a diaphragm, and the like, and forms an optical image of a subject that has passed through these lenses.

電子撮像部3bは、レンズ部3aの光軸上に配置されている。また、電子撮像部3bは、例えば、CCD(Charge Coupled Device)やCMOS(Complementary Metal-oxide Semiconductor)等のイメージセンサから構成され、レンズ部3aの各種レンズを通過した光学像を所定の周期毎に二次元の画像信号(RGB画像データ)に変換して、ユニット回路部3cに出力する。   The electronic imaging unit 3b is disposed on the optical axis of the lens unit 3a. Further, the electronic imaging unit 3b is composed of, for example, an image sensor such as a charge coupled device (CCD) or a complementary metal-oxide semiconductor (CMOS), and an optical image that has passed through various lenses of the lens unit 3a is displayed at predetermined intervals. It is converted into a two-dimensional image signal (RGB image data) and output to the unit circuit unit 3c.

ユニット回路部3cは、例えば、図示は省略するが、CDS(Correlated Double Sampling:相関二重サンプリング回路)、AGC(Auto Gain Control:ゲイン調整アンプ)、ADC(Analog to Digital Converter:アナログ/デジタル変換器)等を具備している。このユニット回路部3cは、電子撮像部3bから出力されて入力される被写体の光学像に応じたアナログの画像信号を撮像フレームレートに応じた所定の周期毎にCDSにより保持し、当該画像信号をAGCにより増幅した後、増幅された画像信号をADCによりデジタルの画像信号に変換する。そして、ユニット回路部3cは、デジタルの画像信号を画像処理部5に送信する。   For example, the unit circuit unit 3c is not shown in the figure, but a CDS (Correlated Double Sampling), AGC (Auto Gain Control), ADC (Analog to Digital Converter) is an analog / digital converter. ) Etc. The unit circuit unit 3c holds an analog image signal corresponding to the optical image of the subject output and input from the electronic imaging unit 3b by the CDS at a predetermined period corresponding to the imaging frame rate, and stores the image signal. After amplification by AGC, the amplified image signal is converted into a digital image signal by ADC. Then, the unit circuit unit 3 c transmits a digital image signal to the image processing unit 5.

撮像制御部4は、中央制御部1からの指令に基づいて、被写体の撮像の際に、撮像部3を構成するレンズ部3a、電子撮像部3b及びユニット回路部3c等の動作を制御する。即ち、撮像制御部4は、所定の撮像条件(例えば、「絞り値」、「露光時間」、「ISO感度」、「測光方式」等)で被写体を撮像するように、レンズ部3a、電子撮像部3b及びユニット回路部3c等の動作を制御する。
具体的には、撮像制御部4は、例えば、モータ等の駆動源と、この駆動源を駆動するドライバ等(何れも図示略)を備え、レンズ部3aのズームレンズやフォーカスレンズを光軸方向に駆動させる。また、撮像制御部4は、例えば、レンズ部3aの絞りの拡径や縮径を行う絞り駆動部(図示略)を備え、絞り値に応じて絞りの拡径や縮径を行う。また、撮像制御部4は、例えば、TG(Timing Generator)、電子撮像部3bを駆動するドライバ等(何れも図示略)を備え、駆動フレームレートや露光時間等に従ってTG及びドライバを介して電子撮像部3bの動作タイミングを制御する。また、撮像制御部4は、撮像フレームレートに従ってユニット回路部3cの動作タイミングを制御する。
The imaging control unit 4 controls operations of the lens unit 3a, the electronic imaging unit 3b, the unit circuit unit 3c, and the like constituting the imaging unit 3 when imaging a subject based on a command from the central control unit 1. In other words, the imaging control unit 4 is configured so that the lens unit 3a and the electronic imaging so as to image the subject under predetermined imaging conditions (for example, “aperture value”, “exposure time”, “ISO sensitivity”, “photometry method”, etc.) The operations of the unit 3b and the unit circuit unit 3c are controlled.
Specifically, the imaging control unit 4 includes, for example, a drive source such as a motor and a driver (not shown) that drives the drive source, and the zoom lens and the focus lens of the lens unit 3a are arranged in the optical axis direction. To drive. In addition, the imaging control unit 4 includes, for example, a diaphragm driving unit (not shown) that increases or decreases the diameter of the aperture of the lens unit 3a, and increases or decreases the diameter of the aperture according to the aperture value. The imaging control unit 4 includes, for example, a TG (Timing Generator), a driver for driving the electronic imaging unit 3b, and the like (both not shown), and performs electronic imaging via the TG and driver according to the drive frame rate, exposure time, and the like. The operation timing of the unit 3b is controlled. The imaging control unit 4 controls the operation timing of the unit circuit unit 3c according to the imaging frame rate.

また、撮像制御部4は、ユーザによる操作入力部6のシャッタボタンの所定操作に基づいて中央制御部1により撮像が指示されたタイミングで、撮像部3により被写体を撮像させる構成であっても良いし、ユーザによる操作入力部6を介した撮像指示のタイミングとは同期させずに、所定のタイミング(例えば、所定の時間間隔等)で撮像部3により自動的に撮像させる構成であっても良い。つまり、この場合には、ユーザにより構図の調整が行われていないで画角内に所定の被写体を捉えていない可能性もある。   The imaging control unit 4 may be configured to cause the imaging unit 3 to image the subject at a timing when imaging is instructed by the central control unit 1 based on a predetermined operation of the shutter button of the operation input unit 6 by the user. However, the image capturing unit 3 may automatically capture images at a predetermined timing (for example, a predetermined time interval) without synchronizing with the timing of the imaging instruction via the operation input unit 6 by the user. . That is, in this case, there is a possibility that the composition is not adjusted by the user and a predetermined subject is not captured within the angle of view.

画像処理部5は、ユニット回路部3cから送られてきたA/D変換後の画像信号に対して、画素毎のR,G,Bの色成分データ(RGBデータ)を生成するRGB補間処理、RGBデータから輝度信号(Y)と色差信号(U、V)からなるYUVデータを画素毎に生成するYUV変換処理、さらに輪郭強調などの画品質向上のためのデジタル信号処理を行う。そして、画像処理部5は、変換後の各画像フレームのYUVデータをメモリ2に順次出力し、当該メモリ2に格納させる。   The image processing unit 5 performs RGB interpolation processing for generating R, G, and B color component data (RGB data) for each pixel with respect to the image signal after A / D conversion sent from the unit circuit unit 3c. YUV conversion processing for generating YUV data consisting of luminance signals (Y) and color difference signals (U, V) from RGB data for each pixel, and digital signal processing for improving image quality such as edge enhancement are performed. Then, the image processing unit 5 sequentially outputs YUV data of each image frame after conversion to the memory 2 and stores it in the memory 2.

操作入力部6は、携帯端末100本体に対して各種指示を入力するためのものである。
具体的には、操作入力部6は、被写体の撮影指示に係るシャッタボタン、モードや機能等の選択指示に係る上下左右のカーソルボタンや決定ボタン、電話の発着信や電子メールの送受信等の実行指示に係る通信関連ボタン、テキスト(文書)の入力指示に係る数字ボタンや記号ボタン等の各種ボタン(何れも図示略)を備えている。
そして、ユーザにより各種ボタンが操作されると、操作入力部6は、操作されたボタンに応じた操作指示を中央制御部1に出力する。中央制御部1は、操作入力部6から出力され入力された操作指示に従って所定の動作(例えば、被写体の撮像、電話の発着信、電子メールの送受信等)を各部に実行させる。
The operation input unit 6 is for inputting various instructions to the mobile terminal 100 main body.
Specifically, the operation input unit 6 executes a shutter button related to a subject shooting instruction, up / down / left / right cursor buttons and a determination button related to a selection instruction of a mode, a function, etc., making / receiving a call, sending / receiving an e-mail, etc. Various buttons (not shown) such as communication related buttons related to instructions and numeric buttons and symbol buttons related to text (document) input instructions are provided.
When various buttons are operated by the user, the operation input unit 6 outputs an operation instruction corresponding to the operated button to the central control unit 1. The central control unit 1 causes each unit to execute a predetermined operation (for example, imaging of a subject, incoming / outgoing calls, transmission / reception of an e-mail, etc.) according to an operation instruction output from the operation input unit 6 and input.

また、操作入力部6は、入力手段として、画像情報やイベント情報等の検索対象を検索するための検索条件を入力する。
ここで、例えば、画像情報を検索対象とする場合、検索条件として、画像の撮像位置に関する撮像位置情報(例えば、地名や座標情報等)や当該画像の撮像日時に関する撮像日時情報(例えば、月、日、曜日、年、及びこれらの組み合わせ等)等の撮像関連情報、発生したイベントに付帯される付帯情報(後述)に関連するキーワード(例えば、名前、電子メールアドレス、体調、天候等)が挙げられる。また、例えば、イベント情報を検索対象とする場合、検索条件として、イベントの発生位置に関するイベント位置情報(例えば、地名や座標情報等)や当該イベントの発生日時に関するイベント日時情報(例えば、月、日、曜日、年、及びこれらの組み合わせ等)等のイベント関連情報、画像情報自体、画像内の被写体に関連するキーワード(例えば、ヒト、ペット、動物、名前、電子メールアドレス、体調、天候等)が挙げられる。
Further, the operation input unit 6 inputs a search condition for searching for a search target such as image information or event information as input means.
Here, for example, when image information is a search target, as the search condition, imaging position information (for example, place name and coordinate information) regarding the imaging position of the image and imaging date / time information (for example, month, Imaging related information such as day, day of the week, year, and combinations thereof), keywords related to incidental information (described later) attached to the event that occurred (for example, name, e-mail address, physical condition, weather, etc.) It is done. Further, for example, when event information is a search target, event position information (for example, place name and coordinate information) related to an event occurrence position and event date / time information (for example, month, day) related to the event occurrence date / time are used as search conditions. Event related information, image information itself, keywords related to the subject in the image (eg, human, pet, animal, name, e-mail address, physical condition, weather, etc.) Can be mentioned.

なお、操作入力部6は、表示部15と一体となって設けられたタッチパネルを有していても良く、ユーザによるタッチパネルの所定操作に基づいて、当該所定操作に応じた操作指示を中央制御部1に出力しても良い。   The operation input unit 6 may include a touch panel provided integrally with the display unit 15, and based on a predetermined operation of the touch panel by the user, an operation instruction corresponding to the predetermined operation is given to the central control unit. 1 may be output.

送受話部7は、通信ネットワークNを介して接続された外部機器の外部ユーザとの通話を行う。
具体的には、送受話部7は、マイク7a、スピーカ7b、データ変換部7c等を備えている。そして、送受話部7は、マイク7aから入力されるユーザの送話音声をデータ変換部7cによりA/D変換処理して送話音声データを中央制御部1に出力するとともに、中央制御部1の制御下にて、通信制御部8から出力されて入力される受話音声データ等の音声データをデータ変換部7cによりD/A変換処理してスピーカ7bから出力する。
The transmitter / receiver unit 7 performs a call with an external user of an external device connected via the communication network N.
Specifically, the transmission / reception unit 7 includes a microphone 7a, a speaker 7b, a data conversion unit 7c, and the like. The transmission / reception unit 7 performs A / D conversion processing on the user's transmission voice input from the microphone 7a by the data conversion unit 7c and outputs the transmission voice data to the central control unit 1. Under the control, voice data such as received voice data outputted and inputted from the communication control unit 8 is D / A converted by the data conversion unit 7c and outputted from the speaker 7b.

また、マイク7aは、集音手段として、ユーザによる操作入力部6を介した撮像指示のタイミングとは同期させずに、所定のタイミング(例えば、所定の時間間隔等)で自動的に集音する構成であっても良い。つまり、この場合には、ユーザが意識していない会話や外部の音(例えば、ユーザ近傍の友人や第三者の声、外部環境の音等)が集音される可能性もある。   The microphone 7a automatically collects sound at a predetermined timing (for example, a predetermined time interval) without being synchronized with the timing of an imaging instruction by the user via the operation input unit 6 as sound collection means. It may be a configuration. That is, in this case, there is a possibility that conversations and external sounds (for example, voices of friends and third parties near the user, sounds of the external environment, etc.) that are not conscious of the user are collected.

通信制御部8は、通信ネットワークN及び通信アンテナ8aを介してデータの送受信を行う。
即ち、通信アンテナ8aは、当該携帯端末100が無線基地局(図示略)との通信で採用している所定の通信方式(例えば、W−CDMA(Wideband Code Division Multiple Access)方式、CDMA2000方式、GSM(Global System for Mobile Communications)方式等)に対応したデータの送受信が可能なアンテナである。そして、通信制御部8は、所定の通信方式に対応する通信プロトコルに従って、この通信方式で設定される通信チャネルにより無線基地局との間で通信アンテナ8aを介してデータの送受信を行う。
即ち、通信制御部8は、中央制御部1から出力されて入力される指示信号に基づいて、通信相手の外部機器に対して、当該外部機器の外部ユーザとの通話中の音声の送受信や、電子メールのデータの送受信を行う。
なお、通信制御部8の構成は一例であってこれに限られるものではなく、適宜任意に変更可能であり、例えば、図示は省略するが、無線LANモジュールを搭載し、アクセスポイント(Access Point)を介して通信ネットワークNにアクセス可能な構成としても良い。
The communication control unit 8 transmits and receives data via the communication network N and the communication antenna 8a.
That is, the communication antenna 8a is connected to a predetermined communication method (for example, W-CDMA (Wideband Code Division Multiple Access) method, CDMA2000 method, GSM) adopted by the mobile terminal 100 for communication with a radio base station (not shown). (Global System for Mobile Communications), etc.). The communication control unit 8 transmits / receives data to / from the radio base station via the communication antenna 8a using a communication channel set in the communication method according to a communication protocol corresponding to a predetermined communication method.
That is, the communication control unit 8 transmits / receives voice during a call with an external user of the external device to the external device of the communication partner based on the instruction signal output from the central control unit 1 and input, Send and receive e-mail data.
Note that the configuration of the communication control unit 8 is an example and is not limited thereto, and can be arbitrarily changed as appropriate. For example, although not illustrated, a wireless LAN module is mounted and an access point (Access Point) is provided. The communication network N may be configured to be accessible via

なお、通信ネットワークNは、携帯端末100を無線基地局やゲートウェイサーバ(図示略)等を介して接続する通信ネットワークである。また、通信ネットワークNは、専用線や既存の一般公衆回線を利用して構築された通信ネットワークであり、LAN(Local Area Network)やWAN(Wide Area Network)等の様々な回線形態を適用することが可能である。また、通信ネットワークNには、例えば、電話回線網、ISDN回線網、専用線、移動体通信網、通信衛星回線、CATV回線網等の各種通信ネットワーク網と、IPネットワーク、VoIP(Voice over Internet Protocol)ゲートウェイ、インターネットサービスプロバイダ等が含まれる。   The communication network N is a communication network that connects the mobile terminal 100 via a wireless base station, a gateway server (not shown), or the like. The communication network N is a communication network constructed by using a dedicated line or an existing general public line, and applies various line forms such as a LAN (Local Area Network) and a WAN (Wide Area Network). Is possible. The communication network N includes, for example, various communication network networks such as a telephone line network, ISDN line network, dedicated line, mobile communication network, communication satellite line, CATV line network, IP network, VoIP (Voice over Internet Protocol). ) Gateways, Internet service providers, etc. are included.

位置取得部9は、GPS(Global Positioning System)アンテナ9aにより受信されたGPS信号に基づいて、携帯端末100本体の存する現在位置に係る位置情報を取得する。
即ち、GPSアンテナ9aは、地球低軌道に打ち上げられた複数のGPS衛星(図1には、一のGPS衛星Sのみを示す)から送信されるGPS信号(例えば、アルマナック(概略軌道情報)やエフェメリス(詳細軌道情報)など)を所定のタイミングで受信し、当該GPS信号を位置取得部9に出力する。位置取得部9は、GPSアンテナ9aから出力されたGPS信号に基づいて、当該端末本体の絶対的な2次元の現在位置(緯度、経度)を測位して当該位置に係る位置情報(例えば、緯度、経度の座標情報)を取得する。
また、位置取得部9は、携帯端末100本体の現在位置に係る位置情報をユーザによる操作入力部6の所定操作に基づいて指示されたタイミングで取得しても良いし、所定の時間間隔毎に取得しても良い。
The position acquisition unit 9 acquires position information related to the current position of the mobile terminal 100 main body based on a GPS signal received by a GPS (Global Positioning System) antenna 9a.
That is, the GPS antenna 9a is a GPS signal (for example, almanac (rough orbit information) or ephemeris) transmitted from a plurality of GPS satellites launched in a low earth orbit (only one GPS satellite S is shown in FIG. 1). (Detailed trajectory information) is received at a predetermined timing, and the GPS signal is output to the position acquisition unit 9. The position acquisition unit 9 measures the absolute two-dimensional current position (latitude, longitude) of the terminal body based on the GPS signal output from the GPS antenna 9a, and position information (for example, latitude) , Longitude coordinate information).
Further, the position acquisition unit 9 may acquire the position information related to the current position of the mobile terminal 100 main body at a timing instructed based on a predetermined operation of the operation input unit 6 by the user, or at every predetermined time interval. You may get it.

また、位置取得部9は、画像の撮像の際に生成した位置情報を記録部13に対して出力し、当該画像の撮像位置に関する撮像位置情報(撮像関連情報)として画像情報と対応付けられて画像記録部13a(後述)に記録される。同様に、位置取得部9は、イベントの発生の際に生成した位置情報を記録部13に対して出力し、当該イベントの発生位置に関するイベント位置情報(イベント関連情報)としてイベント情報と対応付けられてイベント記録部13b(後述)に記録される。   The position acquisition unit 9 outputs position information generated at the time of image capturing to the recording unit 13, and is associated with image information as image capturing position information (image capturing related information) regarding the image capturing position of the image. It is recorded in an image recording unit 13a (described later). Similarly, the position acquisition unit 9 outputs position information generated at the time of occurrence of an event to the recording unit 13, and is associated with event information as event position information (event related information) regarding the occurrence position of the event. Is recorded in the event recording unit 13b (described later).

なお、位置取得部9は、例えば、ユーザによる操作入力部6の所定操作に基づいて入力された現在位置に係る情報を位置情報として取得する構成であっても良い。即ち、ユーザによる操作入力部6の所定操作に基づいて入力された現在位置の地名や住所等に基づいて、位置取得部9は、所定のデータベース(図示略)を参照して当該携帯端末100の現在位置(緯度、経度)に係る位置情報を取得するようにしても良い。   The position acquisition unit 9 may be configured to acquire, for example, information related to the current position that is input based on a predetermined operation of the operation input unit 6 by the user as position information. That is, based on the place name or address of the current position input based on a predetermined operation of the operation input unit 6 by the user, the position acquisition unit 9 refers to a predetermined database (not shown) and the mobile terminal 100 You may make it acquire the positional information which concerns on the present position (latitude, longitude).

日時取得部10は、現在の日時を取得する。
即ち、日時取得部10は、例えば、タイマや計時回路等を備えて構成された計時部を具備し、この計時部により現在の時刻を計時する。また、日時取得部10は、計時部により計時された現在の時刻に基づいて、暦情報から今日の日付や曜日等を特定する。そして、日時取得部10は、現在の時刻及び今日の日付等に基づいて、現在の日時に係る日時情報を生成して取得する。
The date acquisition unit 10 acquires the current date and time.
That is, the date and time acquisition unit 10 includes, for example, a timer unit configured with a timer, a timer circuit, and the like, and clocks the current time with this timer unit. Further, the date acquisition unit 10 identifies today's date, day of the week, etc. from the calendar information based on the current time measured by the time measuring unit. Then, the date acquisition unit 10 generates and acquires date information related to the current date based on the current time and today's date.

また、日時取得部10は、画像の撮像の際に生成した日時情報を記録部13に対して出力し、当該画像の撮像日時に関する撮像日時情報(撮像関連情報)として画像情報と対応付けられて画像記録部13a(後述)に記録される。同様に、日時取得部10は、イベントの発生の際に生成した日時情報を記録部13に対して出力し、当該イベントの発生日時に関するイベント日時情報(イベント関連情報)としてイベント情報と対応付けられてイベント記録部13b(後述)に記録される。   Further, the date acquisition unit 10 outputs date information generated at the time of image capturing to the recording unit 13 and is associated with image information as imaging date information (imaging related information) regarding the image capturing date of the image. It is recorded in an image recording unit 13a (described later). Similarly, the date and time acquisition unit 10 outputs the date and time information generated at the time of occurrence of an event to the recording unit 13, and is associated with event information as event date and time information (event related information) regarding the date and time of occurrence of the event. Is recorded in the event recording unit 13b (described later).

検出センサ部11は、動き検出センサ11aと、身体状態検出センサ11bと、環境検出センサ11cとを具備している。
具体的には、動き検出センサ(動き検出手段)11aは、例えば、加速度検出センサ、角速度検出センサ、振動センサ、傾斜センサ等から構成され、端末本体の動きや姿勢を検出する。また、身体状態検出センサ11bは、例えば、体温センサ、心拍センサ、筋電位センサ等から構成され、ユーザの身体の状態を検出する。また、環境検出センサ11cは、例えば、明るさセンサ、温度センサ、湿度センサ、気圧センサ等から構成され、端末本体の外部環境を検出する。
そして、動き検出センサ11a、身体状態検出センサ11b及び環境検出センサ11cの各々は、各センサによる検出結果に応じた検出信号を出力する。即ち、動き検出センサ11a、身体状態検出センサ11b及び環境検出センサ11cの各々は、ユーザによる操作入力部6の所定操作に基づいて指示されたタイミングで作動して検出信号を出力しても良いし、ユーザによる操作入力部6を介した撮像指示のタイミングとは同期させずに、所定のタイミング(例えば、所定の時間間隔等)で作動して検出信号を出力しても良い。
The detection sensor unit 11 includes a motion detection sensor 11a, a body state detection sensor 11b, and an environment detection sensor 11c.
Specifically, the motion detection sensor (motion detection means) 11a includes, for example, an acceleration detection sensor, an angular velocity detection sensor, a vibration sensor, a tilt sensor, and the like, and detects the movement and posture of the terminal body. The body state detection sensor 11b is composed of, for example, a body temperature sensor, a heart rate sensor, a myoelectric potential sensor, and the like, and detects the state of the user's body. Moreover, the environment detection sensor 11c is comprised from a brightness sensor, a temperature sensor, a humidity sensor, an atmospheric | air pressure sensor etc., for example, and detects the external environment of a terminal main body.
And each of the motion detection sensor 11a, the body state detection sensor 11b, and the environment detection sensor 11c outputs the detection signal according to the detection result by each sensor. That is, each of the motion detection sensor 11a, the body state detection sensor 11b, and the environment detection sensor 11c may operate at a timing instructed based on a predetermined operation of the operation input unit 6 by the user and output a detection signal. The detection signal may be output by operating at a predetermined timing (for example, a predetermined time interval) without synchronizing with the timing of the imaging instruction by the user via the operation input unit 6.

なお、上記の動き検出センサ11a、身体状態検出センサ11b及び環境検出センサ11cの各々は、例えば、当該装置本体内に搭載されても良いし、所定の通信ケーブルにより外部接続されたものであっても良い。   Note that each of the motion detection sensor 11a, the body state detection sensor 11b, and the environment detection sensor 11c may be mounted in the apparatus body, for example, or connected externally by a predetermined communication cable. Also good.

イベント取得制御部12は、発生したイベントに係るイベント情報の取得を制御する。具体的には、イベント取得制御部12は、第1取得部12aと、判定部12bと、第2取得部12cとを具備している。
ここで、イベントとは、ユーザによる画像の撮像指示タイミングとは非同期のタイミングで発生する当該画像の撮像以外のイベントのことである。また、イベントには、ユーザによる操作入力部6の所定の実行指示操作に基づいて実行される動作(例えば、電話の発着信や、電子メールの送受信や、スケジュールや各種文書の入力等)に関連した操作イベントと、ユーザによる操作入力部6の所定の実行指示操作を必要とすることなく実行される動作(例えば、検出センサ部11による端末本体の動きや姿勢の検出や、ユーザの身体の状態の検出や、端末本体の外部環境(気象)の検出等)に関連した操作不要イベントがある(図2参照)。
なお、図2には、イベントの種類、イベントの発生タイミング、付帯情報とを対応付けてイベントの一例を示すが、これらに限られるものではなく、イベントの種類、イベントの発生タイミング、付帯情報等は適宜任意に変更可能である。
The event acquisition control unit 12 controls acquisition of event information related to the event that has occurred. Specifically, the event acquisition control unit 12 includes a first acquisition unit 12a, a determination unit 12b, and a second acquisition unit 12c.
Here, the event is an event other than the image capturing that occurs at a timing asynchronous with the image capturing instruction timing by the user. In addition, the event relates to an operation (for example, incoming / outgoing calls, transmission / reception of e-mail, input of schedules and various documents, etc.) executed based on a predetermined execution instruction operation of the operation input unit 6 by the user. Operation that is performed without requiring a predetermined execution instruction operation of the operation input unit 6 by the user (for example, detection of the movement and posture of the terminal body by the detection sensor unit 11 and the state of the user's body) And the operation-unnecessary event related to the detection of the external environment (meteorology) of the terminal body (see FIG. 2).
FIG. 2 shows an example of an event in association with an event type, an event occurrence timing, and incidental information. However, the present invention is not limited to these, and the event type, event occurrence timing, incidental information, etc. Can be arbitrarily changed as appropriate.

第1取得部12aは、イベント記録部13bのイベント記録テーブルT(図3参照;後述)に記録される、操作イベントに関連するイベント関連情報(付帯情報)を取得する。
即ち、操作イベントとして、例えば、送受話部7による通話の発信操作や着信操作等の実行操作が行われた場合に、第1取得部12aは、発信操作や着信操作等の動作の種類、並びに、当該発信操作や着信操作に係る通話相手に関連するキーワード、例えば、名前や住所や電話番号等をアドレス帳(図示略)を参照することで取得して、これらを当該イベントに関連するイベント関連情報として取得する。
また、操作イベントとして、例えば、通信制御部8による電子メールの送信操作や受信確認操作等の実行操作が行われた場合に、第1取得部12aは、送信操作や受信確認操作等の動作の種類、並びに、当該送信操作や受信確認操作に係る通信相手に関連するキーワード、例えば、名前や電子メールアドレスや電話番号等をアドレス帳(図示略)を参照することで取得して、これらを当該イベントに関連するイベント関連情報として取得する。
また、操作イベントとして、ユーザにより操作入力部6を介してスケジュールや文書の作成、編集、削除等の入力操作や閲覧操作等の実行操作が行われた場合に、第1取得部12aは、スケジュールや文書の種類、入力操作や閲覧操作等の動作の種類、並びに、当該スケジュールの内容や文書に関連するキーワード、例えば、タイトル等を取得して、これらを当該イベントに関連するイベント関連情報として取得する。
The first acquisition unit 12a acquires event-related information (accompanying information) related to the operation event recorded in the event recording table T (see FIG. 3; described later) of the event recording unit 13b.
That is, as an operation event, for example, when an execution operation such as an outgoing call operation or an incoming call operation by the transmission / reception unit 7 is performed, the first acquisition unit 12 a , Keywords related to the other party related to the call operation or the incoming call operation, for example, name, address, telephone number, etc. are obtained by referring to an address book (not shown), and these are related to the event related to the event. Obtain as information.
Further, as an operation event, for example, when an execution operation such as an email transmission operation or a reception confirmation operation is performed by the communication control unit 8, the first acquisition unit 12a performs an operation such as a transmission operation or a reception confirmation operation. The type and keywords related to the communication partner related to the transmission operation or the reception confirmation operation, for example, name, e-mail address, telephone number, etc. are obtained by referring to an address book (not shown), and these are Acquired as event-related information related to the event.
In addition, when an operation operation is performed by the user via the operation input unit 6 such as an input operation such as creation, editing, or deletion of a schedule or a document, or a browsing operation, the first acquisition unit 12 a And document type, operation type such as input operation and browsing operation, and the contents of the schedule and keywords related to the document, for example, title, etc., and these are acquired as event related information related to the event To do.

判定部12bは、判定手段として、動作の実行にユーザによる操作入力部6の所定の実行指示操作を必要としない操作不要イベントが発生したか否かを判定する。
即ち、判定部12bは、ユーザによる操作入力部6の所定の撮像指示操作を必要とすることなく所定のタイミングで撮像部3により自動的に撮像された画像の画像情報に基づいて、当該画像から所定の被写体(例えば、「ヒト」や「動物」等)を検出する被写体検出処理を行って所定の種類の被写体が検出されたか否かに応じて、操作不要イベントが発生したか否かを判定する。
また、判定部12bは、ユーザによる操作入力部6の所定の集音指示操作を必要とすることなく所定のタイミングでマイク7aにより自動的に集音された音データに基づいて、当該音から特定の言葉(例えば、単語や文節等の「言葉」、ヒトや法人の「名前」等)を検出する言葉検出処理を行って特定の言葉が検出されたか否かに応じて、操作不要イベントが発生したか否かを判定する。
また、判定部12bは、ユーザによる操作入力部6の所定の測位指示操作を必要とすることなく、所定のタイミングで位置取得部9により自動的に測位された当該装置本体の存する現在位置に基づいて、地図データベース(図示略)を参照することで特定の地名(現在位置の属する都道府県、都市、区、町等)や特定の建物(例えば、東京タワー等)の特定の場所が検出されたか否かに応じて、操作不要イベントが発生したか否かを判定する。
また、判定部12bは、ユーザによる操作入力部6の所定の動き検出指示操作を必要とすることなく、所定のタイミングで動き検出センサ11aにより自動的に検出されて出力された検出信号に基づいて、当該検出信号の変化や単位時間あたりの変動パターンなどから、所定の種類の動き(例えば、就寝中、勉強中、運動中、食事中、自動車運転中、散歩中、ジョギング中等)が検出されたか否かに応じて、操作不要イベントが発生したか否かを判定する。なお、判定部12bは、位置取得部9により測位された当該装置本体の存する現在位置の変移に基づいて、その速度から当該端末本体の種類の動き(例えば、散歩中、ジョギング中等、自動車移動中、電車移動中等)が検出されたか否かを判定するようにしても良い。
また、判定部12bは、ユーザによる操作入力部6の所定の検出指示操作を必要とすることなく、所定のタイミング或いは所定の時間間隔毎に身体状態検出センサ11bにより自動的に検出されて出力された検出信号に基づいて、当該端末本体のユーザの身体情報(例えば、体温、血圧、脈拍等)が検出されたか否かに応じて、操作不要イベントが発生したか否かを判定する。
また、判定部12bは、ユーザによる操作入力部6の所定の検出指示操作を必要とすることなく、所定のタイミングで環境検出センサ11cにより自動的に検出されて出力された検出信号に基づいて、当該端末本体の外部環境(例えば、天気、気温、気圧、湿度等)が変化したか否かに応じて、操作不要イベントが発生したか否かを判定する。
The determination unit 12b determines, as a determination unit, whether or not an operation unnecessary event that does not require a predetermined execution instruction operation of the operation input unit 6 by the user for execution of the operation has occurred.
In other words, the determination unit 12b determines from the image based on the image information of the image automatically captured by the imaging unit 3 at a predetermined timing without requiring a predetermined imaging instruction operation of the operation input unit 6 by the user. Subject detection processing for detecting a predetermined subject (for example, “human” or “animal”) is performed, and it is determined whether or not an operation unnecessary event has occurred depending on whether or not a predetermined type of subject has been detected. To do.
Further, the determination unit 12b is identified from the sound based on the sound data automatically collected by the microphone 7a at a predetermined timing without requiring a predetermined sound collection instruction operation of the operation input unit 6 by the user. An operation-free event occurs depending on whether or not a specific word is detected by performing a word detection process that detects words (for example, “words” such as words and phrases, “names” of people and corporations, etc.) Determine whether or not.
Further, the determination unit 12b does not require a predetermined positioning instruction operation of the operation input unit 6 by the user, and is based on the current position of the apparatus main body that is automatically positioned by the position acquisition unit 9 at a predetermined timing. Whether a specific place name (prefecture, city, ward, town, etc. to which the current position belongs) or a specific location of a specific building (for example, Tokyo Tower) is detected by referring to a map database (not shown) Whether or not an operation-unnecessary event has occurred is determined according to whether or not the event has occurred.
Further, the determination unit 12b does not require a predetermined motion detection instruction operation of the operation input unit 6 by the user, and is based on a detection signal that is automatically detected and output by the motion detection sensor 11a at a predetermined timing. Whether a predetermined type of movement (for example, sleeping, studying, exercising, eating, driving a car, taking a walk, jogging, etc.) was detected from the change of the detection signal and the fluctuation pattern per unit time. Whether or not an operation-unnecessary event has occurred is determined according to whether or not the event has occurred. The determination unit 12b determines the type of movement of the terminal main body based on the change in the current position of the apparatus main body measured by the position acquisition unit 9 (for example, while walking, jogging, etc.) It may be determined whether or not a train is moving).
Further, the determination unit 12b is automatically detected and output by the body state detection sensor 11b at a predetermined timing or a predetermined time interval without requiring a predetermined detection instruction operation of the operation input unit 6 by the user. Based on the detected signal, it is determined whether or not an operation-unnecessary event has occurred depending on whether or not physical information (for example, body temperature, blood pressure, pulse, etc.) of the user of the terminal main body has been detected.
Further, the determination unit 12b is based on a detection signal that is automatically detected and output by the environment detection sensor 11c at a predetermined timing without requiring a predetermined detection instruction operation of the operation input unit 6 by the user. It is determined whether or not an operation unnecessary event has occurred depending on whether or not the external environment (for example, weather, temperature, atmospheric pressure, humidity, etc.) of the terminal body has changed.

なお、被写体検出処理としては、例えば、顔検出処理、エッジ検出処理、特徴抽出処理等の各種画像処理によって所定の被写体の候補となる画像領域(候補領域)を抽出し、抽出された候補領域の中で所定の識別条件を満たすものを所定の被写体として検出する手法が挙げられるが、一例であってこれに限られるものではなく、適宜任意に変更可能である。
また、言葉検出処理としては、例えば、スペクトラムアナライザ等を用いて音データに対して音声分析処理を施して、所定の登録手段(例えば、メモリ2)に予め登録されている単語や文節等の言葉やヒトや法人の名前等の音データと比較判定して検出する手法が挙げられるが、一例であってこれに限られるものではなく、適宜任意に変更可能である。
As subject detection processing, for example, image regions (candidate regions) that are candidates for a predetermined subject are extracted by various image processing such as face detection processing, edge detection processing, and feature extraction processing, and the extracted candidate regions are extracted. Among them, there is a method of detecting a subject that satisfies a predetermined identification condition as a predetermined subject. However, this is an example, and the present invention is not limited to this.
As the word detection process, for example, a speech analysis process is performed on the sound data using a spectrum analyzer or the like, and words such as words or phrases registered in advance in predetermined registration means (for example, the memory 2). However, this is an example and is not limited to this, and can be arbitrarily changed as appropriate.

第2取得部12cは、イベント記録部13bのイベント記録テーブルTに記録される、操作不要イベントに関連するイベント関連情報(付帯情報)を取得する。
即ち、第2取得部12cは、判定部12bにより操作不要イベントが発生したと判定されると、当該操作不要イベント(例えば、動き検出イベント等)に関連するイベント関連情報を取得する。
具体的には、操作不要イベントとして、例えば、自動的に撮像された画像の画像情報から所定の種類の被写体が検出されて当該操作不要イベントが発生した場合に、第2取得部12cは、当該被写体の種類、例えば、「ヒト」や「動物」に係る情報等を当該イベントに関連するイベント関連情報として取得する。
また、操作不要イベントとして、例えば、自動的に集音された音データから特定の言葉が検出されて当該操作不要イベントが発生した場合に、第2取得部12cは、当該特定の言葉、例えば、単語や文節等の「言葉」、ヒトや法人の「名前」等に係る情報を当該イベントに関連するイベント関連情報として取得する。
また、操作不要イベントとして、例えば、位置取得部9により当該装置本体の存する現在位置が自動的に測位され特定の場所が検出されて当該操作不要イベントが発生した場合に、第2取得部12cは、当該特定の場所、例えば、「ハワイ」、「東京タワー」等に係る情報を当該イベントに関連するイベント関連情報として取得する。
また、操作不要イベントとして、例えば、動き検出センサ11aにより自動的に検出されて出力された検出信号に基づいて、所定の種類の動きが検出されて当該操作不要イベントが発生した場合に、第2取得部12cは、当該所定の種類の動き、例えば、「就寝中」、「勉強中」、「運動中」等、並びに、当該動きの時間や距離等に係る情報を当該イベントに関連するイベント関連情報として取得する。
また、操作不要イベントとして、例えば、身体状態検出センサ11bにより自動的に当該端末本体のユーザの身体情報が検出されて当該操作不要イベントが発生した場合に、第2取得部12cは、当該ユーザの身体情報、例えば、「体温」、「血圧」、「脈拍」等、並びに、当該身体情報の検出時等に係る情報を当該イベントに関連するイベント関連情報として取得する。
また、操作不要イベントとして、例えば、環境検出センサ11cにより自動的に検出されて出力された検出信号に基づいて、当該端末本体の外部環境(気象)の変化が検出されて当該操作不要イベントが発生した場合に、第2取得部12cは、当該外部環境、例えば、「天気」、「気温」、「気圧」、「湿度」等、並びに、当該外部環境の変化検出時や当該端末本体の存する地域等に係る情報を当該イベントに関連するイベント関連情報として取得する。
なお、第2取得部12cは、環境検出センサ11cの代わりに、Web(World Wide Web)サーバとしてインターネット上にWebページ(例えば、気象情報提供ページ等)を開設する機能を具備する気象サーバ(図示略)を利用して、イベントが発生した際の位置情報(例えば、緯度、経度の座標情報)及び日時情報(例えば、20△△年;○月○日;□曜日、**時等)に対応する気象(天候)を通信制御部8を介して取得しても良い。
The second acquisition unit 12c acquires event-related information (accompanying information) related to an operation unnecessary event recorded in the event recording table T of the event recording unit 13b.
That is, when the determination unit 12b determines that an operation unnecessary event has occurred, the second acquisition unit 12c acquires event related information related to the operation unnecessary event (for example, a motion detection event).
Specifically, as an operation unnecessary event, for example, when a predetermined type of subject is detected from image information of an automatically captured image and the operation unnecessary event occurs, the second acquisition unit 12c The type of subject, for example, information related to “human” or “animal” is acquired as event-related information related to the event.
In addition, as an operation unnecessary event, for example, when a specific word is detected from automatically collected sound data and the operation unnecessary event occurs, the second acquisition unit 12c performs the specific word, for example, Information related to “words” such as words and phrases, “names” of people and corporations, and the like is acquired as event-related information related to the event.
Further, as an operation unnecessary event, for example, when the position acquisition unit 9 automatically measures the current position of the apparatus main body and detects a specific place, the second acquisition unit 12c generates the operation unnecessary event. Information relating to the specific place, for example, “Hawaii”, “Tokyo Tower”, etc. is acquired as event-related information related to the event.
Further, as an operation unnecessary event, for example, when a predetermined type of motion is detected and the operation unnecessary event occurs based on a detection signal automatically detected and output by the motion detection sensor 11a, the second operation The acquisition unit 12c obtains information related to the predetermined type of movement, for example, “sleeping”, “study”, “exercising”, and information on the time and distance of the movement, Obtain as information.
Further, as the operation unnecessary event, for example, when the physical information of the user of the terminal body is automatically detected by the body state detection sensor 11b and the operation unnecessary event occurs, the second acquisition unit 12c The body information, for example, “body temperature”, “blood pressure”, “pulse”, etc., and information related to the detection of the body information are acquired as event related information related to the event.
Further, as an operation unnecessary event, for example, based on a detection signal automatically detected and output by the environment detection sensor 11c, a change in the external environment (weather) of the terminal body is detected and the operation unnecessary event occurs. In such a case, the second acquisition unit 12c displays the external environment, for example, “weather”, “temperature”, “barometric pressure”, “humidity”, etc. Etc. is acquired as event related information related to the event.
The second acquisition unit 12c is a weather server (not shown) having a function of opening a Web page (for example, a weather information providing page) on the Internet as a Web (World Wide Web) server instead of the environment detection sensor 11c. Abbreviations) for location information (for example, latitude and longitude coordinate information) and date and time information (for example, 20 △△ year; ○ month ○ day; □ day of the week, ** time, etc.) Corresponding weather (weather) may be acquired via the communication control unit 8.

記録部13は、画像記録部13aと、イベント記録部13bとを具備し、これら画像記録部13a及びイベント記録部13bからのデータの読み出しや当該画像記録部13a及びイベント記録部13bに対するデータの書き込みを行う。   The recording unit 13 includes an image recording unit 13a and an event recording unit 13b. The recording unit 13 reads data from the image recording unit 13a and the event recording unit 13b and writes data to the image recording unit 13a and the event recording unit 13b. I do.

画像記録部13aは、画像処理部5の符号化部(図示略)により所定の圧縮形式(例えば、JPEG形式等)で符号化された記録用の画像情報を少なくとも一つ記録する。具体的には、画像記録部13aは、画像情報をExif形式の画像ファイルとして記録し、画像の撮像に関連する撮像関連情報(撮影位置情報や撮像日時情報等)をExif情報として、画像情報と対応付けて記録する。即ち、画像記録部13aは、撮像部3による画像の撮像の際に、位置取得部9により取得された携帯端末100の現在位置に係る位置情報を当該画像の撮像位置に関する撮像位置情報(例えば、地名や座標情報等)として、当該画像の画像情報と対応付けて記録する。同様に、画像記録部13aは、撮像部3による画像の撮像の際に、日時取得部10により取得された現在の日時に係る日時情報を当該画像の撮像日時に関する撮像日時情報(例えば、20△△年;○月○日;□曜日等)として、当該画像の画像情報と対応付けて記録する。
なお、撮像関連情報として、画像の撮像位置に関する撮像位置情報及び当該画像の撮像日時に関する撮像日時情報を例示したが、一例であってこれに限られるものではなく、画像の撮像に関連する情報であれば適宜任意に変更可能である。即ち、撮像関連情報は、撮像位置情報或いは撮像日時情報と比較してイベント関連情報との関連性が低く、画像の撮像に特有の撮像特有関連情報、例えば、被写体に関連する各種のキーワード(ヒト、動物、風景等)を含んでいても良い。
このように、画像記録部13aは、撮像部3により撮像された画像の画像情報を、当該画像の撮像に関連する撮像関連情報と対応付けて少なくとも一つ記録する第1記録手段を構成している。
The image recording unit 13a records at least one image information for recording encoded in a predetermined compression format (for example, JPEG format) by an encoding unit (not shown) of the image processing unit 5. Specifically, the image recording unit 13a records image information as an Exif format image file, and captures imaging-related information (such as shooting position information and shooting date / time information) related to the image shooting as Exif information. Record in association. That is, the image recording unit 13a captures position information related to the current position of the mobile terminal 100 acquired by the position acquisition unit 9 when the image capturing unit 3 captures an image with respect to image capturing position information (for example, (Name of place, coordinate information, etc.) are recorded in association with the image information of the image. Similarly, when the image recording unit 13 captures an image, the image recording unit 13a obtains date / time information related to the current date / time acquired by the date / time acquisition unit 10 as imaging date / time information (for example, 20Δ) regarding the imaging date / time of the image. △ year; ○ month ○ day; □ day of week, etc.) and recorded in association with the image information of the image.
In addition, although the imaging position information regarding the imaging position of the image and the imaging date / time information regarding the imaging date / time of the image are illustrated as the imaging related information, it is an example and is not limited thereto, and is information related to the imaging of the image. Any change can be made as appropriate. That is, the imaging related information is less related to the event related information than the imaging position information or the imaging date and time information, and the imaging specific related information specific to the imaging of the image, for example, various keywords related to the subject (human , Animals, landscapes, etc.).
As described above, the image recording unit 13a constitutes a first recording unit that records at least one piece of image information of an image captured by the imaging unit 3 in association with imaging related information related to imaging of the image. Yes.

イベント記録部13bは、発生したイベントに係るイベント情報を、当該イベントの発生に関連するイベント関連情報(イベント位置情報やイベント日時情報等)と対応付けてイベント記録テーブルT(図3参照)に格納して少なくとも一つ記録する。即ち、画像記録部13aは、画像の撮像指示タイミングとは非同期のタイミングで所定のイベントが発生した際に、位置取得部9により取得された携帯端末100の現在位置に係る位置情報を当該イベントの発生位置に関するイベント位置情報(例えば、地名や座標情報等)として、当該イベントの付帯情報と対応付けて記録する。同様に、イベント記録部13bは、画像の撮像指示タイミングとは非同期のタイミングで所定のイベントが発生した際に、日時取得部10により取得された現在の日時に係る日時情報を当該イベントの発生日時に関するイベント日時情報(例えば、20△△年;○月○日;□曜日等)として、当該イベントの付帯情報と対応付けて記録する。
ここで、付帯情報は、イベントに関連する情報であれば如何なる情報であっても良いが、各々のイベントに特有の情報(イベント特有関連情報)が好ましい。即ち、イベント特有関連情報は、イベントの発生に関連する情報であるが、イベント位置情報或いはイベント日時情報と比較して撮像関連情報との関連性が低く、撮像以外のイベントに特有の情報であり、例えば、イベントに特有の各種のキーワードや情報等を含んでいても良い。
The event recording unit 13b stores the event information related to the generated event in the event recording table T (see FIG. 3) in association with event related information (event position information, event date information, etc.) related to the occurrence of the event. And record at least one. That is, when a predetermined event occurs at a timing asynchronous with the image capturing instruction timing, the image recording unit 13a displays the position information regarding the current position of the mobile terminal 100 acquired by the position acquisition unit 9 of the event. As event position information (for example, place name and coordinate information) related to the occurrence position, it is recorded in association with the incidental information of the event. Similarly, when a predetermined event occurs at a timing asynchronous with the image capturing instruction timing, the event recording unit 13b displays the date and time information related to the current date and time acquired by the date and time acquisition unit 10 Event date and time information (for example, 20 ΔΔ year; ○ month ○ day; □ day of week, etc.) is recorded in association with incidental information of the event.
Here, the incidental information may be any information as long as it is information related to the event, but information specific to each event (event-specific related information) is preferable. In other words, event-specific related information is information related to the occurrence of an event, but is less relevant to imaging-related information than event position information or event date information, and is information specific to an event other than imaging. For example, various keywords or information peculiar to the event may be included.

また、イベント記録部13bは、操作イベントの発生に基づいて第1取得部12aにより取得された操作イベントに関連するイベント関連情報(付帯情報)を取得し、当該操作イベントと対応付けてイベント記録テーブルTに記録する。
具体的には、イベント記録部13bは、操作イベントとして、例えば、送受話部7による通話の発信操作や着信操作等の実行操作が行われた場合に、第1取得部12aにより取得されたイベント関連情報、即ち、発信操作や着信操作等の動作の種類、並びに、当該発信操作や着信操作に係る通話相手に関連するキーワードを取得する。そして、イベント記録部13bは、取得したキーワードを当該操作イベントの付帯情報としてイベント記録テーブルTに記録する。
また、イベント記録部13bは、操作イベントとして、例えば、通信制御部8による電子メールの送信操作や受信確認操作等の実行操作が行われた場合に、第1取得部12aにより取得されたイベント関連情報、即ち、送信操作や受信確認操作等の動作の種類、並びに、当該送信操作や受信確認操作に係る通信相手に関連するキーワードを取得する。そして、イベント記録部13bは、取得したキーワードを当該操作イベントの付帯情報として、イベント記録テーブルTに記録する。
また、イベント記録部13bは、操作イベントとして、例えば、ユーザにより操作入力部6を介してスケジュールや文書の作成、編集、削除等の入力操作や閲覧操作等の実行操作が行われた場合に、第1取得部12aにより取得されたイベント関連情報、即ち、スケジュールや文書の種類、入力操作や閲覧操作等の動作の種類、並びに、当該スケジュールの内容や文書に関連するキーワードを取得する。そして、イベント記録部13bは、取得したキーワードを当該操作イベントの付帯情報として、イベント記録テーブルTに記録する。
In addition, the event recording unit 13b acquires event-related information (accompanying information) related to the operation event acquired by the first acquisition unit 12a based on the occurrence of the operation event, and associates with the operation event in the event recording table. Record in T.
Specifically, the event recording unit 13b is an event acquired by the first acquisition unit 12a as an operation event, for example, when an execution operation such as an outgoing call operation or an incoming call operation by the transmission / reception unit 7 is performed. Related information, that is, the type of operation such as a call operation or an incoming call operation, and a keyword related to a call partner related to the call operation or the incoming call operation are acquired. Then, the event recording unit 13b records the acquired keyword in the event recording table T as incidental information of the operation event.
In addition, the event recording unit 13b, for example, the event related acquired by the first acquisition unit 12a when an execution operation such as an email transmission operation or a reception confirmation operation by the communication control unit 8 is performed as an operation event. Information, that is, the type of operation such as a transmission operation or a reception confirmation operation, and a keyword related to a communication partner related to the transmission operation or the reception confirmation operation are acquired. Then, the event recording unit 13b records the acquired keyword in the event recording table T as incidental information of the operation event.
Further, the event recording unit 13b, for example, when an operation operation is performed by the user via the operation input unit 6, such as an input operation such as creation, editing, or deletion of a schedule or a document, or a browsing operation, etc. The event-related information acquired by the first acquisition unit 12a, that is, the schedule and the document type, the operation type such as the input operation and the browsing operation, and the keywords related to the schedule content and the document are acquired. Then, the event recording unit 13b records the acquired keyword in the event recording table T as incidental information of the operation event.

また、イベント記録部13bは、操作不要イベントの発生に基づいて第2取得部12cにより取得された操作不要イベントに関連するイベント関連情報(付帯情報)を取得し、当該操作不要イベントと対応付けてイベント記録テーブルTに記録する。
具体的には、例えば、自動的に撮像された画像の画像情報から所定の種類の被写体が検出されることで判定部12bにより操作不要イベントが発生したと判定された場合に、イベント記録部13bは、第2取得部12cにより取得されたイベント関連情報、即ち、当該被写体の種類に係る情報を取得し、取得した情報を当該操作不要イベントの付帯情報としてイベント記録テーブルTに記録する。
また、例えば、自動的に集音された音データから特定の言葉が検出されることで判定部12bにより操作不要イベントが発生したと判定された場合に、イベント記録部13bは、第2取得部12cにより取得されたイベント関連情報、即ち、当該特定の言葉に係る情報を取得し、取得した情報を当該操作不要イベントの付帯情報としてイベント記録テーブルTに記録する。
また、例えば、位置取得部9により当該装置本体の存する現在位置が自動的に測位され特定の場所が検出されることで判定部12bにより操作不要イベントが発生したと判定された場合に、イベント記録部13bは、第2取得部12cにより取得されたイベント関連情報、即ち、当該特定の場所に係る情報を取得し、取得した情報を当該操作不要イベントの付帯情報としてイベント記録テーブルTに記録する。
また、例えば、動き検出センサ11aにより自動的に検出されて出力された検出信号に基づいて所定の種類の動きが検出されることで判定部12bにより操作不要イベントが発生したと判定された場合に、イベント記録部13bは、第2取得部12cにより取得されたイベント関連情報、即ち、当該所定の種類の動き並びに当該動きの時間や距離等に係る情報を取得し、取得した情報を当該操作不要イベントの付帯情報としてイベント記録テーブルTに記録する。
また、例えば、身体状態検出センサ11bにより自動的に当該端末本体のユーザの身体情報が検出されることで判定部12bにより操作不要イベントが発生したと判定された場合に、イベント記録部13bは、第2取得部12cにより取得されたイベント関連情報、即ち、当該ユーザの身体情報並びに当該身体情報の検出時等に係る情報を取得し、取得した情報を当該操作不要イベントの付帯情報としてイベント記録テーブルTに記録する。
また、例えば、環境検出センサ11cにより自動的に検出されて出力された検出信号に基づいて、当該端末本体の外部環境(気象)の変化が検出されることで判定部12bにより操作不要イベントが発生したと判定された場合に、イベント記録部13bは、第2取得部12cにより取得されたイベント関連情報、即ち、当該外部環境並びに当該外部環境の変化検出時や当該端末本体の存する地域等に係る情報を取得し、取得した情報を当該操作不要イベントの付帯情報としてイベント記録テーブルTに記録する。
Further, the event recording unit 13b acquires event-related information (accompanying information) related to the operation unnecessary event acquired by the second acquisition unit 12c based on the occurrence of the operation unnecessary event, and associates it with the operation unnecessary event. Record in event record table T.
Specifically, for example, when the determination unit 12b determines that an operation unnecessary event has occurred by detecting a predetermined type of subject from the image information of the automatically captured image, the event recording unit 13b. Acquires the event related information acquired by the second acquisition unit 12c, that is, information related to the type of the subject, and records the acquired information in the event recording table T as incidental information of the operation unnecessary event.
In addition, for example, when the determination unit 12b determines that an operation-unnecessary event has occurred by detecting a specific word from the sound data collected automatically, the event recording unit 13b includes the second acquisition unit. The event related information acquired by 12c, that is, information related to the specific word is acquired, and the acquired information is recorded in the event recording table T as incidental information of the operation unnecessary event.
In addition, for example, when the position acquisition unit 9 automatically measures the current position of the apparatus main body and detects a specific location, the determination unit 12b determines that an operation unnecessary event has occurred. The unit 13b acquires the event related information acquired by the second acquisition unit 12c, that is, information related to the specific location, and records the acquired information in the event recording table T as incidental information of the operation unnecessary event.
Also, for example, when a predetermined type of motion is detected based on a detection signal automatically detected and output by the motion detection sensor 11a, and the determination unit 12b determines that an operation unnecessary event has occurred. The event recording unit 13b acquires the event-related information acquired by the second acquisition unit 12c, that is, the information related to the predetermined type of movement and the time and distance of the movement, and the acquired information does not require the operation. Recorded in the event recording table T as incidental information of the event.
In addition, for example, when the determination unit 12b determines that an operation-unnecessary event has occurred due to the body state detection sensor 11b automatically detecting the physical information of the user of the terminal body, the event recording unit 13b Event-related information acquired by the second acquisition unit 12c, that is, information related to the user's physical information and the time when the physical information is detected, is acquired, and the acquired information is used as incidental information for the operation-free event. Record in T.
Further, for example, an operation unnecessary event occurs by the determination unit 12b when a change in the external environment (weather) of the terminal body is detected based on a detection signal automatically detected and output by the environment detection sensor 11c. When it is determined that the event recording unit 13b has determined, the event recording unit 13b relates to the event related information acquired by the second acquisition unit 12c, that is, the external environment, the time when the change of the external environment is detected, the area where the terminal body exists, Information is acquired, and the acquired information is recorded in the event recording table T as incidental information of the operation unnecessary event.

具体的には、図3に示すように、イベント記録テーブルTには、発生日時(イベント日時情報)としての「8月3日11時12分」と、発生場所(イベント位置情報)としての「自宅」と、イベントの種類としての「通信」と、付帯情報としての「電子メール、受信、友人A、…」とが対応付けられ、また、発生日時としての「8月3日16時20分」と、発生場所としての「自宅」と、イベントの種類としての「身体情報取得」と、付帯情報としての「36.3℃、血圧123/82、脈拍87、…」とが対応付けられ、また、発生日時としての「8月5日16時20分」と、発生場所としての「会社」と、イベントの種類としての「文書入力」と、付帯情報としての「企画会議B議事録、作成、…」とが対応付けられ、また、発生日時としての「8月7日15時5分」と、発生場所としての「自宅周辺」と、イベントの種類としての「動き検出」と、付帯情報としての「ジョギング、30分、4km、…」とが対応付けられ、また、発生日時としての「9月1日14時8分」と、発生場所としての「埼玉県」と、イベントの種類としての「気象変化」と、付帯情報としての「雪、−3℃、…」とが対応付けられている。
なお、上記のイベント記録テーブルTは、一例であってこれに限られるものではなく、規定する「発生日時」や「発生場所」や「イベントの種類」や「付帯情報」の内容等は適宜任意に変更可能である。
Specifically, as shown in FIG. 3, the event record table T includes “August 3, 11:12” as the date and time of occurrence (event date information), and “ “Home”, “Communication” as an event type, and “E-mail, reception, friend A,...” As incidental information are associated with each other. ”,“ Home ”as the location of occurrence,“ Physical information acquisition ”as the type of event, and“ 36.3 ° C., blood pressure 123/82, pulse 87,... Also, “August 5, 16:20” as the date of occurrence, “Company” as the location of occurrence, “Document input” as the type of event, and “Plan meeting B minutes, creation as incidental information” , ... "and the date and time of occurrence “August 7, 15: 5”, “Home area” as the location of occurrence, “Motion detection” as the type of event, and “Jogging, 30 minutes, 4 km,... , “September 1st 14:08” as the date of occurrence, “Saitama Prefecture” as the location of occurrence, “weather change” as the type of event, and “snow as ancillary information” , −3 ° C.,... ”.
The event record table T is an example and is not limited to this. The contents of the “occurrence date and time”, “occurrence location”, “event type”, and “accompanying information” to be specified are arbitrarily selected. Can be changed.

このように、イベント記録部13bは、撮像部3による画像の撮像指示タイミングとは非同期のタイミングで発生する当該画像の撮像以外のイベントに係るイベント情報を、当該イベントの発生に関連するイベント関連情報と対応付けて少なくとも一つ記録する第2記録手段を構成している。   As described above, the event recording unit 13b uses the event related information related to the occurrence of the event as the event information related to the event other than the imaging of the image that occurs at a timing asynchronous with the imaging instruction timing of the image by the imaging unit 3. The second recording means is configured to record at least one in association with each other.

また、記録部13は、例えば、不揮発性メモリ(フラッシュメモリ)等の記録媒体を備えて構成されても良く、この場合、当該記録媒体の着脱機構を具備しても良い。   Moreover, the recording unit 13 may be configured to include a recording medium such as a nonvolatile memory (flash memory), and in this case, may include a mechanism for attaching and detaching the recording medium.

検索制御部14は、記録部13に記録されている画像情報やイベントの検索を制御する。具体的には、検索制御部14は、特定部14aと、検索部14bとを具備している。   The search control unit 14 controls the search for image information and events recorded in the recording unit 13. Specifically, the search control unit 14 includes a specifying unit 14a and a search unit 14b.

特定部(特定手段)14aは、画像情報を検索対象として検索する場合に、ユーザによる操作入力部6の所定操作に基づいて検索条件として撮像関連情報(撮影位置情報や撮像日時情報等)以外の他の情報が入力されると、当該他の情報と関連するイベント情報をイベント記録部13bのイベント記録テーブルTに記録されているイベント情報の中から検索し、この検索されたイベント情報と対応付けられているイベント関連情報と関連する撮像関連情報を特定する。
ここで、他の情報としては、例えば、画像の撮像に関連しないイベントに係る各種のキーワードが挙げられるが、イベント位置情報或いはイベント日時情報と比較して撮像関連情報との関連性が低いものの、撮像以外のイベントに特有の各種のキーワード等(イベント特有関連情報)であっても良い。
また、特定部14aは、イベント関連情報と撮像関連情報との関連性を、撮像位置情報で示される撮像位置とイベント位置情報で示されるイベントの発生位置との距離に係る近似性、或いは、撮像日時情報で示される撮像日時とイベント日時情報で示されるイベントの発生日時との時間に係る近似性に基づいて特定する。
When searching for image information as a search target, the specifying unit (specifying unit) 14a uses information other than imaging related information (such as shooting position information and imaging date / time information) as a search condition based on a predetermined operation of the operation input unit 6 by the user. When other information is input, event information related to the other information is searched from the event information recorded in the event recording table T of the event recording unit 13b, and is associated with the searched event information. The imaging related information related to the event related information being identified is specified.
Here, as other information, for example, various keywords related to events that are not related to image capturing may be mentioned, but although the relevance to imaging related information is low compared to event position information or event date information, Various keywords or the like (event-specific related information) unique to an event other than imaging may be used.
In addition, the specifying unit 14a determines the relevance between the event-related information and the imaging-related information by using the closeness related to the distance between the imaging position indicated by the imaging position information and the event occurrence position indicated by the event position information, or imaging It is specified based on the closeness related to the time between the imaging date / time indicated by the date / time information and the event occurrence date / time indicated by the event date / time information.

即ち、特定部14aは、検索条件として各種のキーワード(例えば、名前、電子メールアドレス、体調、天候等)が入力されると、イベント記録部13bのイベント記録テーブルTを参照して、当該キーワードと関連する付帯情報が付帯されているイベント情報を検索する。例えば、操作入力部6により検索条件としてキーワード「友人A」の名前が入力されると、イベント記録テーブルTを参照して、当該「友人A」が付帯情報として記録されているイベント「通信」を検索して特定する。
続けて、特定部14aは、検索されたイベント情報と対応付けられているイベント関連情報(イベント位置情報やイベント日時情報等)と関連する撮像関連情報(撮影位置情報や撮像日時情報等)を特定する。即ち、特定部14aは、検索されたイベント情報と対応付けられているイベント位置情報及びイベント日時情報のうちの少なくとも一方の情報に基づいて、イベントの発生位置に関連する撮像位置及びイベントの発生日時に関連する撮像日時のうちの少なくとも一方を特定する。
具体的には、特定部14aは、イベント記録テーブルTの中から検索されたイベント情報と対応付けられているイベント位置情報に基づいて、イベントの発生位置に関連する撮像位置、即ち、イベントの発生位置から所定の距離範囲内(例えば、近傍)の撮像位置を特定する。例えば、特定部14aは、付帯情報として「友人A」が付帯されているイベント「通信」が特定された場合に、当該イベント「通信」と対応付けられているイベント位置情報「自宅」に基づいて、イベントの発生位置の近傍の撮像位置として「自宅周辺」を特定する。
また、特定部14aは、イベント記録テーブルTの中から検索されたイベント情報と対応付けられているイベント日時情報に基づいて、イベントの発生日時に関連する撮像日時、即ち、イベントの発生日時から所定の時間範囲内の撮像日時を特定する。例えば、特定部14aは、付帯情報として「友人A」が付帯されているイベント「通信」が特定された場合に、当該イベント「通信」と対応付けられているイベント日時情報「8月3日11時12分」に基づいて、イベントの発生日時が近い撮像日時として「8月3日」を特定する。
That is, when various keywords (for example, name, e-mail address, physical condition, weather, etc.) are input as search conditions, the specifying unit 14a refers to the event recording table T of the event recording unit 13b and Search for event information with related incidental information. For example, when the name of the keyword “friend A” is input as a search condition by the operation input unit 6, the event “communication” in which the “friend A” is recorded as incidental information is referred to the event recording table T. Search and identify.
Subsequently, the specifying unit 14a specifies imaging related information (shooting position information, shooting date information, etc.) related to event related information (event position information, event date information, etc.) associated with the searched event information. To do. That is, the specifying unit 14a, based on at least one of event position information and event date information associated with the searched event information, captures an image position and event occurrence date related to the event occurrence position. At least one of the imaging dates and times related to is specified.
Specifically, the specifying unit 14a, based on the event position information associated with the event information searched from the event record table T, the imaging position related to the event occurrence position, that is, the occurrence of the event An imaging position within a predetermined distance range (for example, the vicinity) from the position is specified. For example, when the event “communication” accompanied by “friend A” as the incidental information is identified, the identification unit 14a is based on the event position information “home” associated with the event “communication”. Then, “home surroundings” is specified as an imaging position in the vicinity of the event occurrence position.
Further, the specifying unit 14a is predetermined based on the shooting date / time related to the event occurrence date / time, that is, the event occurrence date / time, based on the event date / time information associated with the event information searched from the event record table T. The imaging date and time within the time range is specified. For example, when the event “communication” accompanied by “friend A” as the incidental information is identified, the identification unit 14a identifies the event date / time information “August 3 11” associated with the event “communication”. Based on “time 12 minutes”, “August 3” is specified as an imaging date and time that is close to the event occurrence date and time.

また、特定部14aは、イベント情報を検索対象として検索する場合に、ユーザによる操作入力部6の所定操作に基づいて検索条件としてイベント関連情報以外の他の情報が入力されると、当該他の情報と関連する画像情報を画像記録部13aに記録されている画像情報の中から検索し、この検索された画像情報と対応付けられている撮像関連情報と関連するイベント関連情報を特定する。
ここで、他の情報としては、例えば、イベントの発生に関連しない画像の撮像に係る各種のキーワードが挙げられるが、撮像位置情報或いは撮像日時情報と比較してイベント関連情報との関連性が低いものの、画像の撮像に特有の各種のキーワード等(撮像特有関連情報)であっても良い。
即ち、特定部14aは、検索条件として各種のキーワード(例えば、ヒト、動物等)が入力されると、画像記録部13aに記録されている画像情報に対して所定の被写体検出処理(例えば、顔検出処理等)を施して、当該キーワードと関連する被写体が含まれる画像情報を検索する。ここで、被写体検出処理は、イベント取得制御部12の判定部12bにより行われる被写体検出処理と略同様であり、その詳細な説明は省略する。
続けて、特定部14aは、検索された画像情報と対応付けられている撮像関連情報(撮像位置情報や撮像日時情報等)と関連するイベント関連情報(イベント位置情報やイベント日時情報等)を特定する。即ち、特定部14aは、検索された画像情報と対応付けられている撮像位置情報及び撮像日時情報のうちの少なくとも一方の情報に基づいて、画像の撮像位置に関連するイベントの発生位置及び画像の撮像日時に関連するイベントの発生日時のうちの少なくとも一方を特定する。
具体的には、特定部14aは、画像記録部13aの中から検索された画像情報にExif情報として付帯されている撮像位置情報に基づいて、当該画像の撮像位置に関連するイベントの発生位置、即ち、画像の撮像位置から所定の距離範囲内(例えば、近傍)のイベントの発生位置を特定する。例えば、特定部14aは、撮像位置情報として「自宅」が付帯されている画像情報が入力された場合に、当該撮像位置情報「自宅」に基づいて、画像の撮像位置の近傍のイベントの発生位置として「自宅周辺」を特定する。
また、例えば、特定部14aは、画像記録部13aの中から検索された画像情報にExif情報として付帯されている撮像日時情報に基づいて、当該画像の撮像日時に関連するイベントの発生日時、即ち、画像の撮像日時から所定の時間範囲内のイベントの発生日時を特定する。例えば、特定部14aは、撮像日時情報として「8月3日10時5分」等が付帯されている画像情報が入力された場合に、当該撮像日時情報「8月3日10時5分」に基づいて、画像の撮像日時から所定の時間範囲内のイベントの発生日時として「8月3日」を特定する。
Further, when searching for event information as a search target, the specifying unit 14a receives other information other than event-related information as a search condition based on a predetermined operation of the operation input unit 6 by the user. Image information related to the information is searched from the image information recorded in the image recording unit 13a, and event related information related to the imaging related information associated with the searched image information is specified.
Here, as other information, for example, various keywords related to image capturing that are not related to the occurrence of an event can be cited, but the relevance to the event related information is lower than the image capturing position information or the image capturing date / time information. However, it may be various keywords or the like (imaging-specific related information) specific to image capturing.
That is, when various keywords (for example, humans, animals, etc.) are input as search conditions, the specifying unit 14a performs predetermined subject detection processing (for example, face detection) on the image information recorded in the image recording unit 13a. The image information including the subject related to the keyword is searched. Here, the subject detection process is substantially the same as the subject detection process performed by the determination unit 12b of the event acquisition control unit 12, and a detailed description thereof will be omitted.
Subsequently, the specifying unit 14a specifies event-related information (event position information, event date / time information, etc.) related to the image-related information (imaging position information, image date / time information, etc.) associated with the searched image information. To do. That is, the specifying unit 14a, based on at least one of the imaging position information and the imaging date / time information associated with the searched image information, the occurrence position of the event related to the imaging position of the image and the image At least one of the occurrence date and time of the event related to the imaging date and time is specified.
Specifically, the specifying unit 14a, based on the imaging position information attached as Exif information to the image information retrieved from the image recording unit 13a, the occurrence position of an event related to the imaging position of the image, That is, an event occurrence position within a predetermined distance range (for example, in the vicinity) from the image capturing position is specified. For example, when the image information with “home” attached thereto is input as the imaging position information, the specifying unit 14a generates an event occurrence position in the vicinity of the imaging position of the image based on the imaging position information “home”. As “Near home”.
Further, for example, the specifying unit 14a, based on the imaging date / time information attached as Exif information to the image information retrieved from the image recording unit 13a, the occurrence date / time of an event related to the imaging date / time of the image, The occurrence date and time of the event within a predetermined time range from the image capturing date and time is specified. For example, when the image information attached with “August 3 10:05” or the like is input as the imaging date / time information, the specifying unit 14a captures the imaging date / time information “August 3 10:05”. Based on the above, “August 3” is specified as the event occurrence date and time within a predetermined time range from the image capturing date and time.

また、特定部14aは、イベント情報を検索対象として検索する場合に、ユーザによる操作入力部6の所定操作に基づいて検索条件として、画像情報を指定する指定情報(例えば、画像情報自体のファイル名や当該画像情報に係る各種のキーワード等)が入力されると、当該指定情報で指定された画像情報と対応付けられている撮像関連情報(撮像位置情報や撮像日時情報等)と関連するイベント関連情報(イベント位置情報やイベント日時情報等等)を特定する。
具体的には、特定部14aは、画像記録部13aに記録されている画像情報の中から指定情報で指定された画像情報を検索する。このとき、検索条件として各種のキーワード(例えば、ヒト、動物の画像等)が入力されると、画像記録部13aに記録されている画像情報に対して所定の被写体検出処理(例えば、顔検出処理等)を施して、当該キーワードと関連する被写体が含まれる画像情報を特定する。
その後、特定部14aは、画像記録部13aの中から検索された画像情報と対応付けられている撮像位置情報及び撮像日時情報のうちの少なくとも一方の情報に基づいて、画像の撮像位置に関連するイベントの発生位置及び画像の撮像日時に関連するイベントの発生日時のうちの少なくとも一方を特定する。なお、イベントの発生位置や発生日時の特定方法は、ユーザによる操作入力部6の所定操作に基づいて検索条件として、イベント関連情報以外の他の情報が入力された場合と同様であり、その詳細な説明は省略する。
In addition, when searching for event information as a search target, the specifying unit 14a specifies designation information (for example, a file name of the image information itself) as a search condition based on a predetermined operation of the operation input unit 6 by the user. Or various keywords related to the image information), event related information related to imaging related information (imaging position information, imaging date information, etc.) associated with the image information specified by the specified information Specify information (event location information, event date information, etc.).
Specifically, the specifying unit 14a searches the image information specified by the specified information from the image information recorded in the image recording unit 13a. At this time, when various keywords (for example, human and animal images) are input as search conditions, a predetermined subject detection process (for example, face detection process) is performed on the image information recorded in the image recording unit 13a. Etc.) to identify image information including a subject related to the keyword.
Thereafter, the specifying unit 14a relates to the imaging position of the image based on at least one of the imaging position information and the imaging date / time information associated with the image information searched from the image recording unit 13a. At least one of an event occurrence position and an event occurrence date and time related to an image capturing date and time is specified. The method for specifying the event occurrence position and the date and time of occurrence is the same as when other information other than event related information is input as a search condition based on a predetermined operation of the operation input unit 6 by the user. The detailed explanation is omitted.

また、特定部14aは、イベント情報を検索対象として検索する場合に、ユーザによる操作入力部6の所定操作に基づいて検索条件として、イベント関連情報、画像情報を指定する指定情報及び撮像関連情報以外の情報(例えば、検索対象となるイベントを連想させるような各種のキーワードや情報等)が入力されると、当該情報と関連する被写体が含まれる画像情報を画像記録部13aに記録されている画像情報の中から検索する。具体的には、検索条件として各種のキーワードや情報が入力されると、特定部14aは、画像記録部13aに記録されている画像情報に対して所定の被写体検出処理(例えば、顔検出処理等)を施して、当該キーワードや情報と関連する被写体が含まれる画像情報を特定する。
そして、特定部14aは、画像記録部13aの中から検索された画像情報と対応付けられている撮像位置情報及び撮像日時情報のうちの少なくとも一方の情報に基づいて、画像の撮像位置に関連するイベントの発生位置及び画像の撮像日時に関連するイベントの発生日時のうちの少なくとも一方を特定する。なお、イベントの発生位置や発生日時の特定方法は、ユーザによる操作入力部6の所定操作に基づいて検索条件として、イベント関連情報以外の他の情報が入力された場合と同様であり、その詳細な説明は省略する。
In addition, when searching for event information as a search target, the specifying unit 14a is other than event-related information, designation information specifying image information, and imaging-related information as a search condition based on a predetermined operation of the operation input unit 6 by the user. Information (for example, various keywords and information associated with an event to be searched) is input, image information including a subject related to the information is recorded in the image recording unit 13a. Search from information. Specifically, when various keywords and information are input as search conditions, the specifying unit 14a performs predetermined subject detection processing (for example, face detection processing, etc.) on the image information recorded in the image recording unit 13a. ) To identify image information including a subject related to the keyword or information.
The specifying unit 14a relates to the imaging position of the image based on at least one of the imaging position information and the imaging date / time information associated with the image information retrieved from the image recording unit 13a. At least one of an event occurrence position and an event occurrence date and time related to an image capturing date and time is specified. The method for specifying the event occurrence position and the date and time of occurrence is the same as when other information other than event related information is input as a search condition based on a predetermined operation of the operation input unit 6 by the user. The detailed explanation is omitted.

検索部(検索手段)14bは、画像情報を検索対象として検索する場合に、画像記録部13aに記録されている画像情報の中で、ユーザによる操作入力部6の所定操作に基づいて検索条件として入力された撮像関連情報(撮影位置情報や撮像日時情報等)或いは特定部14aにより特定された撮像関連情報と対応付けられている画像情報を検索する。
即ち、検索部14bは、ユーザによる操作入力部6の所定操作に基づいて、画像情報を検索対象とする検索条件として撮像関連情報が入力された場合には、画像記録部13aに記録されている画像情報の中で、入力された撮像関連情報と対応付けられている画像情報を検索する一方で、検索条件として撮像関連情報以外の他の情報(例えば、イベントに特有の各種のキーワード等)が入力された場合には、画像記録部13aに記録されている画像情報の中で、特定部14aにより特定された撮像関連情報と対応付けられている画像情報を検索する。具体的には、検索部14bは、画像記録部13aに記録されている画像情報の中で、撮像関連情報(撮影位置情報や撮像日時情報等)に基づいて、撮像位置及び撮像日時のうちの少なくとも一方と対応付けられている画像情報、即ち、撮像位置情報に係る撮像位置と対応付けられている画像情報及び撮像日時情報に係る撮像日時と対応付けられている画像情報のうちの少なくとも一方の画像情報を検索する。
例えば、検索部14bは、撮像位置情報に基づいて、当該撮像位置に係る撮像位置情報をExif情報として付帯している画像情報を画像記録部13aの中で検索する。また、検索部14bは、撮像日時情報に基づいて、当該撮像日時に係る撮像日時情報をExif情報として付帯している画像情報を画像記録部13aの中で検索する。
When searching for image information as a search target, the search unit (search means) 14b uses a search condition based on a predetermined operation of the operation input unit 6 by the user in the image information recorded in the image recording unit 13a. Image information associated with the input imaging-related information (imaging position information, imaging date / time information, etc.) or the imaging-related information specified by the specifying unit 14a is searched.
That is, the search unit 14b is recorded in the image recording unit 13a when imaging related information is input as a search condition for searching image information based on a predetermined operation of the operation input unit 6 by the user. While searching for image information associated with the input imaging-related information in the image information, information other than the imaging-related information (for example, various keywords specific to the event) is used as a search condition. When the image is input, the image information associated with the imaging related information specified by the specifying unit 14a is searched from the image information recorded in the image recording unit 13a. Specifically, the search unit 14b, based on the imaging related information (imaging position information, imaging date information, etc.) in the image information recorded in the image recording unit 13a, At least one of the image information associated with at least one of the image information, that is, the image information associated with the imaging position according to the imaging position information and the image information associated with the imaging date / time according to the imaging date / time information. Search for image information.
For example, the search unit 14b searches the image recording unit 13a for image information associated with the imaging position information related to the imaging position as Exif information based on the imaging position information. In addition, the search unit 14b searches the image recording unit 13a for image information associated with the imaging date / time information related to the imaging date / time as Exif information based on the imaging date / time information.

また、検索部14bは、イベント情報を検索対象として検索する場合に、イベント記録部13bのイベント情報テーブルTに記録されているイベント情報の中で、ユーザによる操作入力部6の所定操作に基づいて検索条件として入力されたイベント関連情報(イベント位置情報やイベント日時情報等)或いは特定部14aにより特定されたイベント関連情報と対応付けられているイベント情報を検索する。
即ち、検索部14bは、ユーザによる操作入力部6の所定操作に基づいて、イベント情報を検索対象とする検索条件としてイベント関連情報が入力された場合には、イベント記録部13bのイベント情報テーブルTに記録されているイベント情報の中で、入力されたイベント関連情報と対応付けられているイベント情報を検索する一方で、検索条件としてイベント関連情報以外の他の情報(画像内の被写体に関連する各種のキーワード等)が入力された場合には、イベント記録部13bのイベント情報テーブルTに記録されているイベント情報の中で、特定部14aにより特定されたイベント関連情報と対応付けられているイベント情報を検索する。また、検索部14bは、検索条件として画像情報を指定する指定情報(例えば、画像情報自体のファイル名や当該画像情報に係る各種のキーワード等)が入力された場合や、イベント関連情報、画像情報を指定する指定情報及び撮像関連情報以外の情報(例えば、検索対象となるイベントを連想させるような各種のキーワード等)が入力された場合にも、同様に、イベント記録部13bのイベント情報テーブルTに記録されているイベント情報の中で、特定部14aにより特定されたイベント関連情報と対応付けられているイベント情報を検索する。
具体的には、検索部14bは、イベント記録部13bに記録されているイベント情報の中で、イベント関連情報(イベント位置情報やイベント日時情報等)に基づいて、発生位置及び発生日時のうちの少なくとも一方と対応付けられている画像情報、即ち、イベント位置情報に係る発生位置と対応付けられているイベント情報及びイベント日時情報に係る発生日時と対応付けられているイベント情報のうちの少なくとも一方のイベント情報を検索する。
例えば、検索部14bは、イベント位置情報に基づいて、当該発生位置(例えば、「自宅周辺」等)に係るイベント位置情報(発生場所)が対応付けられているイベント(例えば、「通信」、「身体情報取得」等)をイベント記録テーブルTの中で検索する。また、検索部14bは、イベント日時情報に基づいて、当該発生日時(例えば、「8月3日」等)に係るイベント日時情報(発生日時)が対応付けられているイベント(例えば、「通信」等)をイベント記録テーブルTの中で検索する。
Further, when searching for event information as a search target, the search unit 14b is based on a predetermined operation of the operation input unit 6 by the user among the event information recorded in the event information table T of the event recording unit 13b. Event related information (event location information, event date information, etc.) input as a search condition or event information associated with event related information specified by the specifying unit 14a is searched.
That is, when the event related information is input as a search condition for searching for event information based on a predetermined operation of the operation input unit 6 by the user, the search unit 14b stores the event information table T of the event recording unit 13b. While searching for event information associated with the input event-related information in the event information recorded in, other information other than event-related information (related to the subject in the image) as a search condition In the event information table T of the event recording unit 13b, the event associated with the event related information specified by the specifying unit 14a is input. Search for information. In addition, the search unit 14b receives the designation information (for example, the file name of the image information itself, various keywords related to the image information, etc.) for specifying the image information as a search condition, event related information, image information Similarly, when information other than designation information for designating and imaging related information (for example, various keywords reminiscent of an event to be searched) is input, the event information table T of the event recording unit 13b is also input. The event information associated with the event related information specified by the specifying unit 14a is searched from among the event information recorded in the event information.
Specifically, the search unit 14b, based on event related information (event location information, event date information, etc.) among event information recorded in the event recording unit 13b, At least one of image information associated with at least one, that is, event information associated with an occurrence position related to event position information and event information associated with an occurrence date related to event date information Search event information.
For example, the search unit 14b, based on the event position information, associates event location information (occurrence location) related to the occurrence location (eg, “home neighborhood”) with an event (eg, “communication”, “ “Physical information acquisition” or the like) is searched in the event record table T. In addition, the search unit 14b, based on the event date / time information, associates event date / time information (occurrence date / time) related to the occurrence date / time (for example, “August 3”, etc.) (for example, “communication”). Etc.) in the event record table T.

表示部15は、表示パネル15aと、表示制御部15bとを具備している。
即ち、表示制御部15bは、バッファメモリに一時的に記憶されている表示用の画像情報を読み出して表示パネル15aの表示画面に表示させる制御を行う。具体的には、表示制御部15bは、VRAM(Video Random Access Memory)、VRAMコントローラ、デジタルビデオエンコーダなどを備えている。そして、デジタルビデオエンコーダは、バッファメモリから読み出されてVRAM(図示略)に記憶されている各フレーム画像の輝度信号Y及び色差信号Cb,Crを、VRAMコントローラを介してVRAMから所定の再生フレームレート(例えば、30fps)で読み出して、これらのデータを元にビデオ信号を発生して表示パネル15aに出力する。
The display unit 15 includes a display panel 15a and a display control unit 15b.
That is, the display control unit 15b performs control to read display image information temporarily stored in the buffer memory and display it on the display screen of the display panel 15a. Specifically, the display control unit 15b includes a VRAM (Video Random Access Memory), a VRAM controller, a digital video encoder, and the like. Then, the digital video encoder reads the luminance signal Y and the color difference signals Cb and Cr of each frame image read from the buffer memory and stored in the VRAM (not shown) from the VRAM through the VRAM controller to a predetermined reproduction frame. The data is read at a rate (for example, 30 fps), and a video signal is generated based on these data and output to the display panel 15a.

表示パネル15aは、例えば、液晶表示パネルであり、表示制御部15bからのビデオ信号に基づいて電子撮像部3bにより撮像された画像などを表示画面に表示する。即ち、表示パネル15aは、被写体の撮像により生成された複数のフレーム画像を所定のフレームレートで逐次更新しながらライブビュー画像を表示する。また、表示パネル15aは、動画として記録中の複数のフレーム画像を表示したり、静止画として記録される画像のレックビュー画像を表示する。   The display panel 15a is, for example, a liquid crystal display panel, and displays an image captured by the electronic imaging unit 3b on the display screen based on a video signal from the display control unit 15b. That is, the display panel 15a displays a live view image while sequentially updating a plurality of frame images generated by imaging a subject at a predetermined frame rate. In addition, the display panel 15a displays a plurality of frame images being recorded as moving images, or displays a rec view image of an image recorded as a still image.

また、表示部15は、出力手段として、検索制御部14の検索部14bによる検索対象、即ち、画像情報やイベント情報の検索結果を出力する。即ち、表示制御部15bは、検索部14bによる検索対象の検索結果に応じて候補画像や候補イベントが表された検索結果画面(図示略)の画像情報を生成して表示パネル15aに出力する。表示パネル15aは、表示制御部15bから出力され入力された画像情報に応じた検索結果画面を表示する。
ここで、検索結果画面における候補画像や候補イベントの表示順序は、例えば、現在位置からの距離を優先する順序や、現在位置からの時間を優先する順序等をユーザによる操作入力部6の所定操作に基づいて切り替え表示可能となっている。
Further, the display unit 15 outputs a search target of the search unit 14b of the search control unit 14, that is, a search result of image information or event information, as an output unit. That is, the display control unit 15b generates image information on a search result screen (not shown) on which candidate images and candidate events are represented according to the search result of the search target by the search unit 14b, and outputs the image information to the display panel 15a. The display panel 15a displays a search result screen corresponding to the image information output and input from the display control unit 15b.
Here, the display order of candidate images and candidate events on the search result screen is, for example, a predetermined operation of the operation input unit 6 by the user such as an order in which priority is given to the distance from the current position, an order in which time from the current position is to be given priority, or the like. Switching display is possible based on.

次に、携帯端末100による撮像処理について図4を参照して説明する。
図4は、撮像処理に係る動作の一例を示すフローチャートである。
Next, imaging processing by the mobile terminal 100 will be described with reference to FIG.
FIG. 4 is a flowchart illustrating an example of an operation related to the imaging process.

図4に示すように、先ず、中央制御部1のCPUは、複数の動作モードの中から、ユーザによる操作入力部6の所定操作に基づいて撮像モードが選択されて当該撮像モードに応じた動作状態に各部を設定した後(ステップS1)、ユーザによる操作入力部6のシャッタボタンの所定操作に基づいて撮像指示が入力されたか否かを判定する(ステップS2)。
ステップS2における判定は、撮像指示が入力されたと判定されるまで(ステップS2;YES)、繰り返し実行される。
As shown in FIG. 4, first, the CPU of the central control unit 1 selects an imaging mode based on a predetermined operation of the operation input unit 6 by a user from a plurality of operation modes, and operates according to the imaging mode. After setting each part in the state (step S1), it is determined whether an imaging instruction is input based on a predetermined operation of the shutter button of the operation input unit 6 by the user (step S2).
The determination in step S2 is repeatedly executed until it is determined that an imaging instruction has been input (step S2; YES).

そして、ステップS2にて、撮像指示が入力されたと判定されると(ステップS2;YES)、撮像制御部4は、撮像部3の撮像条件を所定の撮像条件(例えば、「絞り値」、「露光時間」、「ISO感度」、「測光方式」等)に設定し(ステップS3)、当該撮像条件に従ってレンズ部3a、電子撮像部3b及びユニット回路部3cの動作を制御して被写体を撮像させ、画像処理部5は、被写体の撮像画像の画像情報を生成する(ステップS4)。
続けて、位置取得部9は、GPSアンテナ9aから出力されたGPS信号に基づいて、当該装置本体の絶対的な2次元の現在位置(緯度、経度)を測位して当該位置に係る位置情報(例えば、緯度、経度の座標情報)を取得するとともに(ステップS5)、日時取得部10は、計時部により計時された現在の時刻に基づいて、暦情報から今日の日付や曜日等を特定し、現在の時刻及び今日の日付等に基づいて、現在の日時に係る日時情報を生成して取得する(ステップS6)。
なお、ステップS5における現在位置の取得処理と、ステップS6における現在の日時の取得処理の順序は逆であっても良い。
When it is determined in step S2 that an imaging instruction has been input (step S2; YES), the imaging control unit 4 changes the imaging condition of the imaging unit 3 to a predetermined imaging condition (for example, “aperture value”, “ (Exposure time ”,“ ISO sensitivity ”,“ photometry method ”, etc.) (step S3), and controls the operations of the lens unit 3a, electronic imaging unit 3b, and unit circuit unit 3c according to the imaging conditions to image the subject. The image processing unit 5 generates image information of a captured image of the subject (step S4).
Subsequently, the position acquisition unit 9 measures the absolute two-dimensional current position (latitude, longitude) of the apparatus main body based on the GPS signal output from the GPS antenna 9a, and acquires position information ( For example, latitude and longitude coordinate information) is acquired (step S5), and the date acquisition unit 10 specifies today's date, day of the week, etc. from the calendar information based on the current time measured by the time measurement unit, Based on the current time, today's date, and the like, date information relating to the current date is generated and acquired (step S6).
Note that the order of the current position acquisition process in step S5 and the current date acquisition process in step S6 may be reversed.

その後、画像記録部13aは、画像処理部5により生成された画像情報と、撮像制御部4により設定された撮像条件と、位置取得部9により取得された現在位置(撮像位置)と、日時取得部10により取得された現在の日時(撮像日時)とを対応付けてExif形式の画像ファイルとして記録する(ステップS7)。
即ち、画像記録部13aは、撮像部3による画像の撮像の際に位置取得部9により取得された位置情報を当該画像の撮像位置に関する撮像位置情報(例えば、地名や座標情報等)とするとともに、日時取得部10により取得された日時情報を当該画像の撮像日時に関する撮像日時情報(例えば、20△△年;○月○日;□曜日等)として、当該画像の画像情報と対応付けて記録する。
これにより、撮像処理を終了する。
Thereafter, the image recording unit 13a acquires the image information generated by the image processing unit 5, the imaging conditions set by the imaging control unit 4, the current position (imaging position) acquired by the position acquisition unit 9, and the date and time acquisition. The current date and time (imaging date and time) acquired by the unit 10 is associated and recorded as an Exif format image file (step S7).
That is, the image recording unit 13a sets the position information acquired by the position acquisition unit 9 when the image is captured by the imaging unit 3 as imaging position information (for example, place name and coordinate information) regarding the imaging position of the image. The date and time information acquired by the date and time acquisition unit 10 is recorded in association with the image information of the image as imaging date and time information (for example, 20ΔΔ year; To do.
Thereby, the imaging process is terminated.

次に、携帯端末100によるイベント記録処理について図5を参照して説明する。
図5は、イベント記録処理に係る動作の一例を示すフローチャートである。
Next, event recording processing by the mobile terminal 100 will be described with reference to FIG.
FIG. 5 is a flowchart showing an example of an operation related to the event recording process.

図5に示すように、先ず、中央制御部1のCPUは、ユーザによる画像の撮像指示タイミングとは非同期のタイミングで発生するイベントを記録するイベント記録機能が有効であるか否かを判定する(ステップS11)。即ち、中央制御部1のCPUは、ユーザによる操作入力部6の所定操作に基づいて、例えば、「イベント記録モード」が設定されてイベント記録機能が実行されているか否かを判定する。
ステップS11における判定は、イベント記録機能が有効であると判定されるまで(ステップS11;YES)、繰り返し実行される。
As shown in FIG. 5, first, the CPU of the central control unit 1 determines whether or not the event recording function for recording an event that occurs at a timing asynchronous with the image capturing instruction timing by the user is effective ( Step S11). That is, the CPU of the central control unit 1 determines, for example, whether the “event recording mode” is set and the event recording function is executed based on a predetermined operation of the operation input unit 6 by the user.
The determination in step S11 is repeatedly executed until it is determined that the event recording function is valid (step S11; YES).

ステップS11にて、イベント記録機能が有効であると判定されると(ステップS11;YES)、イベント取得制御部12は、各種のイベントのうち、何れか一のイベントが発生したか否かを判定する(ステップS12)。
具体的には、イベント取得制御部12は、ユーザによる操作入力部6の所定の実行指示操作に基づいて、例えば、電話の発着信や、電子メールの送受信や、スケジュールや各種文書の入力等の動作に関連した操作イベントや、ユーザによる操作入力部6の所定の実行指示操作を必要とすることなく実行される動作、例えば、検出センサ部11による端末本体の動きや姿勢の検出や、ユーザの身体の状態の検出や、端末本体の外部環境(気象)の検出等の動作に関連した操作不要イベントが発生したか否かを判定する。
If it is determined in step S11 that the event recording function is valid (step S11; YES), the event acquisition control unit 12 determines whether any one of various events has occurred. (Step S12).
Specifically, the event acquisition control unit 12 performs, for example, incoming / outgoing calls, transmission / reception of e-mails, input of schedules and various documents, based on a predetermined execution instruction operation of the operation input unit 6 by the user. An operation event related to the operation, an operation executed without requiring a predetermined execution instruction operation of the operation input unit 6 by the user, for example, detection of the movement and posture of the terminal body by the detection sensor unit 11, It is determined whether or not an operation-unnecessary event related to an operation such as detection of a physical state or detection of an external environment (weather) of the terminal body has occurred.

ステップS12にて、何れか一のイベントが発生していないと判定されると(ステップS12;NO)、中央制御部1のCPUは、処理をステップS11に戻し、それ以降の処理の実行を制御する。
そして、ステップS12にて、何れか一のイベントが発生したと判定されると(ステップS12;YES)、イベント取得制御部12は、操作入力部6からの出力信号や、撮像部3のユニット回路部3cからの出力信号や、送受話部7のデータ変換部7cからの出力信号や、検出センサ部11の動き検出センサ11a、身体状態検出センサ11b及び環境検出センサ11cからの出力信号に基づいて、イベントの種類を特定する(ステップS13)。
If it is determined in step S12 that any one event has not occurred (step S12; NO), the CPU of the central control unit 1 returns the process to step S11 and controls the execution of the subsequent processes. To do.
When it is determined in step S12 that any one event has occurred (step S12; YES), the event acquisition control unit 12 outputs an output signal from the operation input unit 6 or a unit circuit of the imaging unit 3. Based on the output signal from the unit 3c, the output signal from the data conversion unit 7c of the transmission / reception unit 7, and the output signals from the motion detection sensor 11a, the body condition detection sensor 11b, and the environment detection sensor 11c of the detection sensor unit 11. The type of event is specified (step S13).

続けて、イベント取得制御部12の第1取得部12a及び第2取得部12cは、特定されたイベントに関連するイベント関連情報を付帯情報として取得する(ステップS14)。
具体的には、第1取得部12aは、操作イベントに関連するイベント関連情報(付帯情報)を取得する。例えば、操作イベントとして、送受話部7による通話の発信操作や着信操作等の実行操作が行われた場合に、第1取得部12aは、発信操作や着信操作等の動作の種類、並びに、当該発信操作や着信操作に係る通話相手に関連するキーワード(例えば、名前や住所や電話番号等)をアドレス帳(図示略)を参照することで取得する。
また、第2取得部12cは、操作不要イベントに関連するイベント関連情報(付帯情報)を取得する。即ち、第2取得部12cは、判定部12bにより操作不要イベントが発生したと判定されると、当該操作不要イベント(例えば、動き検出イベント等)に関連するイベント関連情報を当該イベントの付帯情報として取得する。例えば、判定部12bにより、操作不要イベントとして、検出センサ部11の動き検出センサ11aにより所定のタイミングで自動的に検出されて出力された検出信号に基づいて、所定の種類の動きが検出されて当該操作不要イベントが発生したと判定された場合に、第2取得部12cは、当該所定の種類の動き(例えば、「就寝中」、「勉強中」、「運動中」等)、並びに、当該動きの時間や距離等に係る情報を取得する。
なお、動きの時間としては、例えば、タイマにより計時された開始時間、終了時間、経過時間等が挙げられる。また、動きの距離としては、例えば、経過時間に応じて所定の換算レートで換算された距離や、位置取得部9により取得された当該動きの開始時及び終了時の現在位置から演算された距離等が挙げられる。
Subsequently, the first acquisition unit 12a and the second acquisition unit 12c of the event acquisition control unit 12 acquire event-related information related to the identified event as incidental information (step S14).
Specifically, the first acquisition unit 12a acquires event related information (accompanying information) related to the operation event. For example, when an operation operation such as an outgoing call operation or an incoming call operation by the transmission / reception unit 7 is performed as an operation event, the first acquisition unit 12a displays the type of operation such as an outgoing call operation or an incoming call operation, A keyword (for example, a name, an address, a telephone number, etc.) related to a call partner related to a call operation or an incoming call operation is acquired by referring to an address book (not shown).
The second acquisition unit 12c acquires event-related information (accompanying information) related to the operation unnecessary event. That is, when the determination unit 12b determines that an operation unnecessary event has occurred, the second acquisition unit 12c uses event-related information related to the operation unnecessary event (for example, a motion detection event) as incidental information of the event. get. For example, a predetermined type of motion is detected by the determination unit 12b based on a detection signal that is automatically detected and output at a predetermined timing by the motion detection sensor 11a of the detection sensor unit 11 as an operation unnecessary event. When it is determined that the operation-unnecessary event has occurred, the second acquisition unit 12c determines the predetermined type of movement (eg, “sleeping”, “study”, “exercising”, etc.) Information related to the time and distance of movement is acquired.
The movement time includes, for example, a start time, an end time, an elapsed time, etc. measured by a timer. Moreover, as the distance of movement, for example, the distance converted at a predetermined conversion rate according to the elapsed time, or the distance calculated from the current position at the start and end of the movement acquired by the position acquisition unit 9 Etc.

次に、位置取得部9は、GPSアンテナ9aから出力されたGPS信号に基づいて、当該装置本体の絶対的な2次元の現在位置(緯度、経度)を測位して当該位置に係る位置情報(例えば、緯度、経度の座標情報)を取得するとともに(ステップS15)、日時取得部10は、計時部により計時された現在の時刻に基づいて、暦情報から今日の日付や曜日等を特定し、現在の時刻及び今日の日付等に基づいて、現在の日時に係る日時情報を生成して取得する(ステップS16)。
なお、ステップS15における現在位置の取得処理と、ステップS16における現在の日時の取得処理の順序は逆であっても良い。
Next, the position acquisition unit 9 measures the absolute two-dimensional current position (latitude, longitude) of the apparatus body based on the GPS signal output from the GPS antenna 9a, and position information ( For example, the coordinate information of latitude and longitude) is acquired (step S15), and the date and time acquisition unit 10 specifies today's date and day of the week from the calendar information based on the current time measured by the clock unit, Based on the current time and today's date, date information related to the current date is generated and acquired (step S16).
Note that the order of the current position acquisition process in step S15 and the current date acquisition process in step S16 may be reversed.

その後、イベント記録部13bは、イベントの種類と、第1取得部12a或いは第2取得部12cにより取得された付帯情報と、位置取得部9により取得された現在位置(発生位置)と、日時取得部10により取得された現在の日時(発生日時)とを対応付けてイベント記録テーブルTに記録する(ステップS17)。
即ち、イベント記録部13bは、所定のイベント(操作イベントや操作不要イベント等)が発生した際に位置取得部9により取得された位置情報を当該イベントの発生位置に関するイベント位置情報(例えば、地名や座標情報等)とするとともに、日時取得部10により取得された日時情報を当該イベントの発生日時に関するイベント日時情報(例えば、20△△年;○月○日;□曜日等)として、当該イベントに係る付帯情報と対応付けて記録する。
これにより、イベント記録処理を終了する。
Thereafter, the event recording unit 13b acquires the event type, the incidental information acquired by the first acquisition unit 12a or the second acquisition unit 12c, the current position (occurrence position) acquired by the position acquisition unit 9, and the date and time acquisition. The current date and time (occurrence date and time) acquired by the unit 10 is associated and recorded in the event recording table T (step S17).
That is, the event recording unit 13b uses the position information acquired by the position acquisition unit 9 when a predetermined event (such as an operation event or an operation unnecessary event) occurs, as event position information (for example, a place name or The date / time information acquired by the date / time acquisition unit 10 as event date / time information (for example, 20ΔΔ year; It records in association with such incidental information.
As a result, the event recording process ends.

次に、携帯端末100による画像検索処理について図6を参照して説明する。
図6は、画像検索処理に係る動作の一例を示すフローチャートである。
以下に説明する画像検索処理は、ユーザによる操作入力部6の所定操作に基づいて画像検索モードが設定された場合に実行される処理である。
Next, image search processing by the portable terminal 100 will be described with reference to FIG.
FIG. 6 is a flowchart illustrating an example of an operation related to the image search process.
The image search process described below is a process executed when the image search mode is set based on a predetermined operation of the operation input unit 6 by the user.

図6に示すように、先ず、中央制御部1のCPUは、ユーザによる操作入力部6の所定操作に基づいて、検索対象を検索するための検索条件が入力されると(ステップS21)、検索制御部14は、検索条件として、撮像日時、撮像位置及び撮像条件のうちの少なくとも一が指定されているか否かを判定する(ステップS22)。
ここで、撮像日時、撮像位置及び撮像条件のうちの少なくとも一が指定されていると判定されると(ステップS22;YES)、検索部14bは、画像記録部13aに記録されている画像情報の中で、検索条件として指定された撮像日時、撮像位置及び撮像条件のうちの何れか一に基づいて、当該検索条件に合致する画像情報を候補画像として検索して特定する(ステップS23)。
As shown in FIG. 6, first, the CPU of the central control unit 1 receives a search condition for searching for a search object based on a predetermined operation of the operation input unit 6 by the user (step S21). The control unit 14 determines whether or not at least one of the imaging date and time, the imaging position, and the imaging condition is specified as the search condition (step S22).
Here, if it is determined that at least one of the imaging date and time, the imaging position, and the imaging condition is designated (step S22; YES), the search unit 14b searches for the image information recorded in the image recording unit 13a. In particular, based on any one of the imaging date / time, the imaging position, and the imaging condition specified as the search condition, image information that matches the search condition is searched and specified as a candidate image (step S23).

次に、検索制御部14は、検索条件として、撮像日時、撮像位置及び撮像条件以外のキーワードが指定されているか否かを判定する(ステップS24)。また、ステップS22にて、撮像日時、撮像位置及び撮像条件のうちの少なくとも一が指定されていると判定されていないと判定された場合にも(ステップS22;NO)、検索制御部14は、処理をステップS24に移行して、キーワードが指定されているか否かを判定する(ステップS24)。
ここで、キーワードが指定されていると判定されると(ステップS24;YES)、特定部14aは、指定されたキーワードと関連するイベント及びその付帯情報を特定する。具体的には、特定部14aは、検索条件として各種のキーワード(例えば、名前、電子メールアドレス、体調、天候等)が入力されると、イベント記録部13bのイベント記録テーブルTを参照して、当該キーワード(例えば、「友人A」等)と関連するイベント(例えば、「通信」等)及びその付帯情報を特定する(ステップS25)。
続けて、特定部14aは、特定されたイベント(例えば、「通信」等)及び付帯情報と対応付けられているイベント位置情報に係る発生位置(例えば、「自宅」等)やイベント日時情報に係る発生日時(例えば、「8月3日11時12分」等)を特定する(ステップS26)。さらに、特定部14aは、イベントの発生位置から所定の距離範囲内の撮像位置(例えば、「自宅周辺」等)及びイベントの発生日時から所定の時間範囲内の撮像日時(例えば、「8月3日」等)のうちの少なくとも一方を特定する(ステップS27)。
Next, the search control unit 14 determines whether keywords other than the imaging date, imaging position, and imaging conditions are specified as the search conditions (step S24). Even when it is determined in step S22 that it is not determined that at least one of the imaging date and time, the imaging position, and the imaging condition is designated (step S22; NO), the search control unit 14 The process proceeds to step S24 to determine whether or not a keyword is specified (step S24).
If it is determined that a keyword is specified (step S24; YES), the specifying unit 14a specifies an event associated with the specified keyword and its accompanying information. Specifically, when various keywords (for example, name, e-mail address, physical condition, weather, etc.) are input as search conditions, the specifying unit 14a refers to the event recording table T of the event recording unit 13b, An event (for example, “communication” or the like) related to the keyword (for example, “friend A”) and its accompanying information are specified (step S25).
Subsequently, the specifying unit 14a relates to the specified event (for example, “communication” or the like) and the occurrence position (for example, “home” or the like) related to the event position information associated with the incidental information or the event date / time information. The date and time of occurrence (for example, “August 3, 11:12” or the like) is specified (step S26). Furthermore, the specifying unit 14a captures an imaging position within a predetermined distance range from the event occurrence position (eg, “around home”) and an imaging date / time within a predetermined time range from the event occurrence date (eg, “August 3”). At least one of “day” or the like) (step S27).

その後、検索部14bは、画像記録部13aに記録されている画像情報の中で、特定部14aにより特定された撮像位置に係る撮像位置情報をExif情報として付帯している画像情報、特定された撮像日時に係る撮像日時情報をExif情報として付帯している画像情報を候補画像として検索して特定する(ステップS28)。   After that, the search unit 14b identifies the image information attached to the imaging position information related to the imaging position specified by the specifying unit 14a as Exif information among the image information recorded in the image recording unit 13a. Image information associated with the imaging date and time information related to the imaging date and time as Exif information is searched and specified as a candidate image (step S28).

次に、表示制御部15bは、検索部14bによる検索対象の検索結果に応じて候補画像が表された検索結果画面の画像情報を生成して表示パネル15aに出力して、検索結果画面を表示させる(ステップS29)。また、ステップS24にて、キーワードが指定されていないと判定された場合にも(ステップS24;NO)、中央制御部1のCPUは、処理をステップS29に移行して、表示制御部15bは、表示パネル15aに検索結果画面を表示させる(ステップS29)。
即ち、ステップS24にて、キーワードが指定されていると判定された場合には(ステップS24;YES)、表示部15は、ステップS25〜S28の処理により、キーワードに基づいて検索された画像情報を候補画像とする検索結果画面を表示し、その一方で、ステップS24にて、キーワードが指定されていないと判定された場合には(ステップS24;NO)、表示部15は、ステップS25〜S28の処理を経由することなく、検索条件として指定された撮像日時、撮像位置及び撮像条件のうちの何れか一に基づいて検索された画像情報を候補画像とする検索結果画面を表示する(ステップS29)。
Next, the display control unit 15b generates image information of a search result screen on which candidate images are represented according to the search result of the search target by the search unit 14b, outputs the image information to the display panel 15a, and displays the search result screen. (Step S29). Even when it is determined in step S24 that no keyword is specified (step S24; NO), the CPU of the central control unit 1 moves the process to step S29, and the display control unit 15b A search result screen is displayed on the display panel 15a (step S29).
That is, when it is determined in step S24 that a keyword is designated (step S24; YES), the display unit 15 displays the image information searched based on the keyword by the processing in steps S25 to S28. On the other hand, when a search result screen as a candidate image is displayed and it is determined in step S24 that no keyword is specified (step S24; NO), the display unit 15 performs steps S25 to S28. Without passing through the processing, a search result screen is displayed in which the image information searched based on any one of the imaging date / time, the imaging position and the imaging condition specified as the search condition is used as a candidate image (step S29). .

続けて、中央制御部1のCPUは、ユーザによる操作入力部6の所定操作に基づいて、画像検索処理の終了指示が入力されたか否かを判定する(ステップS30)。
ここで、画像検索処理の終了指示が入力されてないと判定されると(ステップS30;NO)、中央制御部1のCPUは、処理をステップS21に戻し、上記と同様に、ステップS21以降の処理の実行を制御する。
一方、画像検索処理の終了指示が入力されたと判定されると(ステップS30;YES)、中央制御部1のCPUは、当該画像検索処理を終了させる。
Subsequently, the CPU of the central control unit 1 determines whether an instruction to end the image search process is input based on a predetermined operation of the operation input unit 6 by the user (step S30).
Here, if it is determined that the image search processing end instruction has not been input (step S30; NO), the CPU of the central control unit 1 returns the processing to step S21. Control execution of processing.
On the other hand, if it is determined that an instruction to end the image search process has been input (step S30; YES), the CPU of the central control unit 1 ends the image search process.

次に、携帯端末100によるイベント検索処理について図7を参照して説明する。
図7は、イベント検索処理に係る動作の一例を示すフローチャートである。
以下に説明するイベント検索処理は、ユーザによる操作入力部6の所定操作に基づいてイベント検索モードが設定された場合に実行される処理である。
Next, event search processing by the mobile terminal 100 will be described with reference to FIG.
FIG. 7 is a flowchart illustrating an example of an operation related to event search processing.
The event search process described below is a process executed when an event search mode is set based on a predetermined operation of the operation input unit 6 by the user.

図7に示すように、先ず、中央制御部1のCPUは、ユーザによる操作入力部6の所定操作に基づいて、検索対象を検索するための検索条件が入力されると(ステップS31)、検索制御部14は、検索条件として、イベント種類、付帯情報、発生日時及び発生位置のうちの少なくとも一が指定されているか否かを判定する(ステップS32)。
ここで、イベント種類、付帯情報、発生日時及び発生位置のうちの少なくとも一が指定されていると判定されると(ステップS32;YES)、検索部14bは、イベント記録部13bのイベント記録テーブルTを参照して、検索条件として指定されたイベント種類、付帯情報、発生日時及び発生位置のうちの何れか一に基づいて、当該検索条件に合致するイベントを候補イベントとして検索して特定する(ステップS33)。
As shown in FIG. 7, first, the CPU of the central control unit 1 receives a search condition for searching for a search object based on a predetermined operation of the operation input unit 6 by the user (step S31). The control unit 14 determines whether or not at least one of the event type, the incidental information, the occurrence date and time, and the occurrence position is designated as the search condition (step S32).
Here, if it is determined that at least one of the event type, the incidental information, the occurrence date and time, and the occurrence position is designated (step S32; YES), the search unit 14b searches the event recording table T of the event recording unit 13b. , Based on any one of the event type, incidental information, occurrence date / time, and occurrence position specified as the search condition, the event that matches the search condition is searched and identified as a candidate event (step S33).

次に、検索制御部14は、検索条件として、画像情報やキーワード等の指定情報に基づいて画像が指定されているか否かを判定する(ステップS34)。また、ステップS32にて、イベント種類、付帯情報、発生日時及び発生位置のうちの少なくとも一が指定されていると判定されていないと判定された場合にも(ステップS32;NO)、検索制御部14は、処理をステップS34に移行して、画像が指定されているか否かを判定する(ステップS34)。
ここで、画像が指定されていると判定されると(ステップS34;YES)、特定部14aは、画像記録部13aに記録されている画像情報の中で、指定された画像の画像情報にExif情報として付帯されている撮像位置情報に係る撮像位置(例えば、「自宅」等)及び撮像日時情報に係る撮像日時(例えば、「8月3日10時5分」等)を特定する(ステップS35)。さらに、特定部14aは、画像の撮像位置から所定の距離範囲内のイベントの発生位置(例えば、「自宅周辺」等)及び画像の撮像日時から所定の時間範囲内のイベントの発生日時(例えば、「8月3日」等)のうちの少なくとも一方を特定する(ステップS36)。
Next, the search control unit 14 determines whether an image is designated based on designation information such as image information and keywords as a search condition (step S34). In addition, when it is determined in step S32 that it is not determined that at least one of the event type, the incidental information, the occurrence date and time, and the occurrence position is specified (step S32; NO), the search control unit 14 shifts the processing to step S34, and determines whether or not an image is designated (step S34).
If it is determined that an image is designated (step S34; YES), the specifying unit 14a adds Exif to the image information of the designated image among the image information recorded in the image recording unit 13a. The imaging position (for example, “home”, etc.) related to the imaging position information attached as information and the imaging date / time (for example, “August 3, 10: 5”, etc.) related to the imaging date / time information are specified (step S35). ). Furthermore, the specifying unit 14a generates an event occurrence position (for example, “around the home”) within a predetermined distance range from the image capturing position and an event occurrence date / time (for example, a predetermined time range from the image capturing date / time). At least one of “August 3” or the like) is identified (step S36).

その後、検索部14bは、イベント記録部13bのイベント記録テーブルTを参照して、特定部14aにより特定された発生位置に係るイベント位置情報が対応付けられているイベント、特定された発生日時に係るイベント日時情報が対応付けられているイベントを候補イベントとして検索して特定する(ステップS37)。   Thereafter, the search unit 14b refers to the event recording table T of the event recording unit 13b, relates to the event associated with the event position information related to the occurrence position identified by the identification unit 14a, and the identified occurrence date and time. The event associated with the event date information is searched and specified as a candidate event (step S37).

次に、表示制御部15bは、検索部14bによる検索対象の検索結果に応じて候補イベントが表された検索結果画面の画像情報を生成して表示パネル15aに出力して、検索結果画面を表示させる(ステップS38)。また、ステップS34にて、画像が指定されていないと判定された場合にも(ステップS34;NO)、中央制御部1のCPUは、処理をステップS38に移行して、表示制御部15bは、表示パネル15aに検索結果画面を表示させる(ステップS38)。
即ち、ステップS34にて、画像が指定されていると判定された場合には(ステップS34;YES)、表示部15は、ステップS35〜S37の処理により、画像に基づいて検索されたイベントを候補イベントとする検索結果画面を表示し、その一方で、ステップS34にて、キーワードが指定されていないと判定された場合には(ステップS34;NO)、表示部15は、ステップS35〜S37の処理を経由することなく、検索条件として指定されたイベント種類、付帯情報、発生日時及び発生位置のうちの何れか一に基づいて検索されたイベントを候補イベントとする検索結果画面を表示する(ステップS38)。
Next, the display control unit 15b generates image information of a search result screen in which candidate events are represented according to the search result of the search target by the search unit 14b, outputs the image information to the display panel 15a, and displays the search result screen. (Step S38). In addition, when it is determined in step S34 that an image is not designated (step S34; NO), the CPU of the central control unit 1 moves the process to step S38, and the display control unit 15b A search result screen is displayed on the display panel 15a (step S38).
That is, if it is determined in step S34 that an image has been designated (step S34; YES), the display unit 15 selects an event searched based on the image through the processing in steps S35 to S37. On the other hand, when the search result screen as an event is displayed and it is determined in step S34 that no keyword is specified (step S34; NO), the display unit 15 performs the processing of steps S35 to S37. A search result screen is displayed in which the event searched based on any one of the event type, incidental information, occurrence date and time and occurrence position specified as the search condition without passing through is set as a candidate event (step S38). ).

続けて、中央制御部1のCPUは、ユーザによる操作入力部6の所定操作に基づいて、イベント検索処理の終了指示が入力されたか否かを判定する(ステップS39)。
ここで、イベント検索処理の終了指示が入力されてないと判定されると(ステップS39;NO)、中央制御部1のCPUは、処理をステップS31に戻し、上記と同様に、ステップS31以降の処理の実行を制御する。
一方、イベント検索処理の終了指示が入力されたと判定されると(ステップS39;YES)、中央制御部1のCPUは、当該イベント検索処理を終了させる。
Subsequently, the CPU of the central control unit 1 determines whether or not an instruction to end the event search process has been input based on a predetermined operation of the operation input unit 6 by the user (step S39).
Here, if it is determined that the end instruction for the event search process has not been input (step S39; NO), the CPU of the central control unit 1 returns the process to step S31, and after step S31, as described above. Control execution of processing.
On the other hand, if it is determined that an instruction to end the event search process has been input (step S39; YES), the CPU of the central control unit 1 ends the event search process.

以上のように、実施形態1の携帯端末100によれば、画像情報を検索対象として検索する場合に、ユーザによる操作入力部6の所定操作に基づいて検索条件として撮像関連情報以外の他の情報が入力されると、特定部14aが、当該他の情報と関連するイベント情報をイベント記録部13bに記録されているイベント情報の中から検索し、この検索されたイベント情報と対応付けられているイベント関連情報と関連する撮像関連情報を特定し、検索部14bが、画像記録部13aに記録されている画像情報の中で、ユーザによる操作入力部6の所定操作に基づいて入力された検索条件としての撮像関連情報或いは特定部14aにより特定された撮像関連情報と対応付けられている画像情報を検索して、当該検索結果を表示部15から出力するので、検索条件として撮像関連情報が入力された場合には、画像記録部13aに記録されている画像情報の中で、入力された撮像関連情報と対応付けられている画像情報を検索することができる一方で、検索条件として撮像関連情報以外の他の情報が入力された場合であっても、画像記録部13aに記録されている画像情報の中で、特定部14aにより特定された撮像関連情報と対応付けられている画像情報を検索することができる。
つまり、検索対象の画像をいつどこで撮影したか覚えている場合には、撮像位置や撮像日時等の撮像関連情報を検索条件として画像情報を検索することができるだけでなく、検索対象の画像をいつどこで撮影したかを正確に思い出すことができない場合にも、画像情報とは関係のないような検索条件(例えば、各種のキーワード)を入力することで、当該検索条件に関連するイベント情報を検索することができ、画像記録部13aに記録されている撮像関連情報とイベント記録部13bに記録されているイベント関連情報とを相互に利用して、検索されたイベント情報と対応付けられているイベント関連情報と関連する撮像関連情報を特定することができる。これにより、特定された撮像関連情報と対応付けられている画像情報の検索を適正に行うことができる。
このように、画像情報のタイトル名や撮像日時や撮像場所などを思い出せないような場合でも、関連情報のどれか一部でも思い出すことができれば、それをキーワードにして所望の画像情報を連想的に多種の方法で検索することができ、画像情報の検索処理における操作性を向上させて当該検索処理の高速化を図ることができる。特に、例えば、人生の一生分の画像や動画像のほぼ全部を記録するようなライフレコーダ的用途の膨大な容量の画像やメディア情報を記録するような装置であっても、記録された膨大な量の古い過去の画像情報の中からでも、ユーザ所望の画像を比較的容易に検索することができる。
従って、撮像関連情報だけでなく、当該撮像関連情報とは関係のない検索条件を利用することで、所望の画像情報の検索を適正に行うことができる。
As described above, according to the mobile terminal 100 of the first embodiment, when searching for image information as a search target, other information other than imaging related information as a search condition based on a predetermined operation of the operation input unit 6 by the user. Is input, the identifying unit 14a searches for event information related to the other information from the event information recorded in the event recording unit 13b, and is associated with the retrieved event information. A search condition that specifies imaging-related information related to event-related information, and is input by the search unit 14b based on a predetermined operation of the operation input unit 6 by the user in the image information recorded in the image recording unit 13a. Image information associated with the imaging related information specified by the specifying unit 14a or the imaging related information specified by the specifying unit 14a, and the search result is output from the display unit 15. Therefore, when imaging related information is input as a search condition, image information associated with the input imaging related information can be searched from the image information recorded in the image recording unit 13a. On the other hand, even when information other than the imaging related information is input as the search condition, the imaging related information specified by the specifying unit 14a in the image information recorded in the image recording unit 13a. It is possible to search for image information associated with.
In other words, when remembering when and where the search target image was taken, not only can the image information be searched using the imaging related information such as the imaging position and the imaging date and time as a search condition, but also when the search target image is Even when it is impossible to accurately remember where the image was taken, a search condition (for example, various keywords) that is not related to the image information is input to search for event information related to the search condition. Event-related information that is associated with the retrieved event information by using the imaging-related information recorded in the image recording unit 13a and the event-related information recorded in the event recording unit 13b. The imaging related information related to the information can be specified. Thereby, the search of the image information matched with the specified imaging related information can be performed appropriately.
In this way, even if you cannot remember the title name, imaging date and time, location, etc. of the image information, if you can remember any part of the related information, you can use it as a keyword to associate the desired image information The search can be performed by various methods, and the operability in the search process of the image information can be improved to speed up the search process. In particular, even a device that records an enormous amount of images and media information for life recorder use, such as recording almost all of life's images and moving images, is recorded. A user-desired image can be searched relatively easily even from among a large amount of past image information.
Therefore, it is possible to appropriately search for desired image information by using a search condition that is not related to the imaging related information as well as the imaging related information.

また、イベント関連情報と撮像関連情報との関連性を、撮像位置情報で示される撮像位置とイベント位置情報で示されるイベントの発生位置との距離に係る近似性、撮像日時情報で示される撮像日時とイベント日時情報で示されるイベントの発生日時との時間に係る近似性に基づいて特定するので、イベント関連情報と関連する撮像関連情報の特定、即ち、イベントの発生位置から所定の距離範囲内の撮像位置の特定や、イベントの発生日時から所定の時間範囲内の撮像日時の特定を適性に行うことができる。
さらに、イベント記録部13bの中から検索されたイベント情報と対応付けられているイベント位置情報及びイベント日時情報のうちの少なくとも一方の情報に基づいて、イベントの発生位置に関連する撮像位置及びイベントの発生日時に関連する撮像日時のうちの少なくとも一方を特定して、画像記録部13aに記録されている画像情報の中で、特定された撮像位置及び撮像日時のうちの少なくとも一方と対応付けられている画像情報を検索するので、画像記録部13aに記録されている撮像位置情報や撮像日時情報とイベント記録部13bに記録されているイベント位置情報やイベント日時情報とを相互に利用して、画像情報の検索を効率良く行うことができる。
Further, the relevance between the event related information and the imaging related information is the approximation of the distance between the imaging position indicated by the imaging position information and the event occurrence position indicated by the event position information, and the imaging date and time indicated by the imaging date information. And the occurrence date and time of the event indicated by the event date and time information are specified based on the closeness related to the time, so that the imaging related information related to the event related information is specified, that is, within a predetermined distance range from the event occurrence position. It is possible to appropriately specify the imaging position and the imaging date and time within a predetermined time range from the event occurrence date and time.
Further, based on at least one of the event position information and event date / time information associated with the event information retrieved from the event recording unit 13b, the imaging position and the event At least one of the imaging date and time related to the occurrence date and time is specified, and the image information recorded in the image recording unit 13a is associated with at least one of the specified imaging position and imaging date and time. Since the image position information and image date / time information recorded in the image recording unit 13a and the event position information and event date / time information recorded in the event recording unit 13b are mutually used, the image information is searched. Information can be searched efficiently.

また、画像情報を検索対象として検索する場合に、検索条件としてイベント特有関連情報(例えば、イベントに特有の各種のキーワード等)が入力されると、当該イベント特有関連情報と関連するイベント情報をイベント記録部13bに記録されているイベント情報の中から検索し、この検索されたイベント情報と対応付けられているイベント関連情報と関連する撮像関連情報を特定するので、イベント位置情報或いはイベント日時情報と比較して撮像関連情報との関連性が低く、撮像以外のイベントに特有のイベント特有関連情報が検索条件として入力されても、当該イベント特有関連情報と関連するイベント情報を検索することができる。この結果、画像記録部13aに記録されている撮像関連情報とイベント記録部13bに記録されているイベント関連情報とを相互に利用して、検索されたイベント情報と対応付けられているイベント関連情報と関連する撮像関連情報を特定することができ、特定された撮像関連情報と対応付けられている画像情報の検索を適正に行うことができる。   Further, when searching for image information as a search target, if event-specific related information (for example, various keywords specific to an event) is input as a search condition, event information related to the event-specific related information is Since the event information recorded in the recording unit 13b is searched and the imaging related information related to the event related information associated with the searched event information is specified, the event position information or the event date / time information Even if event-specific related information unique to an event other than imaging is input as a search condition, the event information related to the event-specific related information can be searched even if the relationship with the imaging-related information is low. As a result, event-related information associated with the retrieved event information by mutually using the imaging-related information recorded in the image recording unit 13a and the event-related information recorded in the event recording unit 13b. Imaging-related information related to the image information can be specified, and image information associated with the specified imaging-related information can be appropriately searched.

また、イベント情報を検索対象として検索する場合に、検索条件としてイベント関連情報以外の他の情報が入力されると、特定部14aが、当該他の情報と関連する画像情報を画像記録部13aの中から検索し、この検索された画像情報と対応付けられている撮像関連情報と関連するイベント関連情報を特定し、検索部14bが、イベント記録部13bのイベント情報テーブルTに記録されているイベント情報の中で、ユーザによる操作入力部6の所定操作に基づいて入力された検索条件としてのイベント関連情報或いは特定部14aによりー特定されたイベント関連情報と対応付けられているイベント情報を検索して、当該検索結果を表示部15から出力するので、検索条件としてイベント関連情報が入力された場合には、イベント記録部13bに記録されているイベント情報の中で、入力されたイベント関連情報と対応付けられているイベント情報を検索することができる一方で、検索条件としてイベント関連情報以外の他の情報が入力された場合であっても、イベント記録部13bに記録されているイベント情報の中で、特定部14aにより特定されたイベント関連情報と対応付けられているイベント情報を検索することができる。
つまり、検索対象のイベントがいつどこで発生したか覚えている場合には、発生位置や発生日時等のイベント関連情報を検索条件としてイベント情報を検索することができるだけでなく、検索対象のイベントがいつどこで発生したかを正確に思い出すことができない場合にも、イベント情報とは関係のないような検索条件(例えば、各種のキーワード)を入力することで、当該検索条件に関連する画像情報を検索することができ、画像記録部13aに記録されている撮像関連情報とイベント記録部13bに記録されているイベント関連情報とを相互に利用して、検索された画像情報と対応付けられている撮像関連情報と関連するイベント関連情報を特定することができる。これにより、特定されたイベント関連情報と対応付けられているイベント情報の検索を適正に行うことができる。
従って、イベント関連情報だけでなく、当該イベント関連情報とは関係のない検索条件を利用することで、所望のイベント情報の検索を適正に行うことができる。
Further, when searching for event information as a search target, if information other than event-related information is input as a search condition, the specifying unit 14a displays image information related to the other information in the image recording unit 13a. The event related information related to the imaging related information associated with the searched image information is identified from the inside, and the event recorded in the event information table T of the event recording unit 13b by the search unit 14b In the information, search for event related information as a search condition input based on a predetermined operation of the operation input unit 6 by the user or event information associated with the event related information specified by the specifying unit 14a. Since the search result is output from the display unit 15, when event-related information is input as a search condition, the event recording unit While it is possible to search the event information associated with the input event related information among the event information recorded in 3b, other information other than the event related information is input as a search condition. Even in this case, the event information associated with the event-related information specified by the specifying unit 14a can be searched from the event information recorded in the event recording unit 13b.
In other words, if you remember when and where the search target event occurred, you can search for event information using event-related information such as the location and date of the search as search criteria, and when the search target event Even if you cannot remember exactly where it occurred, you can search for image information related to the search condition by entering search conditions that are not related to the event information (for example, various keywords). The imaging-related information that is associated with the searched image information by using the imaging-related information recorded in the image recording unit 13a and the event-related information recorded in the event recording unit 13b. Event related information related to the information can be specified. Thereby, it is possible to appropriately search for event information associated with the specified event-related information.
Therefore, it is possible to appropriately search for desired event information by using not only the event related information but also search conditions that are not related to the event related information.

また、画像記録部13aの中から検索された画像情報と対応付けられている撮像位置情報及び撮像日時情報のうちの少なくとも一方の情報に基づいて、画像の撮像位置に関連するイベントの発生位置及び画像の撮像日時に関連するイベントの発生日時のうちの少なくとも一方を特定して、イベント記録部13bに記録されているイベント情報の中で、特定された発生位置及び発生日時のうちの少なくとも一方と対応付けられているイベント情報を検索するので、画像記録部13aに記録されている撮像位置情報や撮像日時情報とイベント記録部13bに記録されているイベント位置情報やイベント日時情報とを相互に利用して、画像情報の検索を効率良く行うことができる。   In addition, based on at least one of the imaging position information and the imaging date / time information associated with the image information retrieved from the image recording unit 13a, the occurrence position of the event related to the imaging position of the image and At least one of the event occurrence dates and times related to the image capturing date and time is specified, and at least one of the specified occurrence position and occurrence date and time in the event information recorded in the event recording unit 13b Since the associated event information is searched, the imaging position information and imaging date / time information recorded in the image recording unit 13a and the event position information and event date / time information recorded in the event recording unit 13b are mutually used. Thus, the image information can be searched efficiently.

また、イベント情報を検索対象として検索する場合に、検索条件として画像情報を指定する指定情報が入力されると、イベント記録部13bに記録されているイベント情報の中で、入力された指定情報で指定された画像情報と対応付けられている撮像関連情報と関連するイベント関連情報を特定するので、検索対象のイベントがいつどこで発生したかを正確に思い出すことができない場合であっても、イベント情報とは関係のないような画像情報を指定する指定情報を検索条件として入力することで、画像記録部13aに記録されている撮像関連情報とイベント記録部13bに記録されているイベント関連情報とを相互に利用して、指定情報で指定された画像情報と対応付けられている撮像関連情報と関連するイベント関連情報を特定することができる。
具体的には、入力された指定情報で指定された画像情報と対応付けられている撮像位置情報及び撮像日時情報のうちの少なくとも一方の情報に基づいて、画像の撮像位置に関連するイベントの発生位置及び画像の撮像日時に関連するイベントの発生日時のうちの少なくとも一方を特定して、イベント記録部13bに記録されているイベント情報の中で、特定されたイベントの発生位置及び発生日時のうちの少なくとも一方と対応付けられているイベント情報を検索するので、画像記録部13aに記録されている撮像位置情報や撮像日時情報とイベント記録部13bに記録されているイベント位置情報やイベント日時情報とを相互に利用して、イベント情報の検索を効率良く行うことができる。
In addition, when searching for event information as a search target, if specification information specifying image information is input as a search condition, the specified specification information entered in the event information recorded in the event recording unit 13b is used. Event-related information related to the imaging-related information associated with the specified image information is identified, so even if you cannot remember exactly when and where the search target event occurred, event information The image-related information recorded in the image recording unit 13a and the event-related information recorded in the event recording unit 13b are input by specifying designation information for designating image information that is not related to the image as a search condition. The event-related information related to the imaging-related information associated with the image information specified by the specified information is used mutually. Can.
Specifically, the occurrence of an event related to the imaging position of the image based on at least one of imaging position information and imaging date / time information associated with the image information specified by the input specification information At least one of the event occurrence date and time related to the position and the image capturing date and time is specified, and among the event occurrence date and occurrence date and time specified in the event information recorded in the event recording unit 13b Event information associated with at least one of the image capturing position information and image capturing date / time information recorded in the image recording unit 13a, and event position information and event date / time information recorded in the event recording unit 13b. It is possible to efficiently search for event information by mutually using.

また、イベント情報を検索対象として検索する場合に、検索条件としてイベント関連情報、画像情報を指定する指定情報及び撮像関連情報以外の情報(例えば、検索対象となるイベントを連想させるような各種のキーワード等)が入力されると、当該情報と関連する被写体が含まれる画像情報を画像記録部13aの中から検索し、特定された画像情報と対応付けられている撮像位置情報及び撮像日時情報のうちの少なくとも一方の情報に基づいて、画像の撮像位置に関連するイベントの発生位置及び画像の撮像日時に関連するイベントの発生日時のうちの少なくとも一方を特定して、イベント記録部13bに記録されているイベント情報の中で、特定されたイベントの発生位置及び発生日時のうちの少なくとも一方と対応付けられているイベント情報を検索するので、イベント情報とは関係のない情報が検索条件として入力されても、当該情報と関連する被写体が含まれる画像情報を特定した後、画像記録部13aに記録されている撮像位置情報や撮像日時情報とイベント記録部13bに記録されているイベント位置情報やイベント日時情報とを相互に利用して、イベント情報の検索を効率良く行うことができる。   In addition, when searching for event information as a search target, information other than event-related information, designation information specifying image information, and imaging-related information as search conditions (for example, various keywords associated with an event to be searched) Or the like) is input, image information including a subject related to the information is searched from the image recording unit 13a, and among the imaging position information and imaging date / time information associated with the specified image information. Based on at least one of the information, at least one of the event occurrence position related to the image capture position and the event occurrence date related to the image capture date is specified and recorded in the event recording unit 13b. Event information associated with at least one of the occurrence position and the occurrence date and time of the identified event Therefore, even if information unrelated to the event information is input as a search condition, the image information recorded in the image recording unit 13a is specified after specifying the image information including the subject related to the information. The event information can be efficiently searched by mutually using the position information and imaging date / time information and the event position information and event date / time information recorded in the event recording unit 13b.

さらに、イベント情報を検索対象として検索する場合に、検索条件として撮像特有関連情報(例えば、画像の撮像に特有の各種のキーワード等)が入力されると、当該撮像特有関連情報と関連する画像情報を画像記録部13aに記録されている画像情報の中から検索し、この検索された画像情報と対応付けられている撮像関連情報と関連するイベント関連情報を特定するので、撮像位置情報或いは撮像日時情報と比較してイベント関連情報との関連性が低く、画像の撮像に特有の撮像特有関連情報が検索条件として入力されても、当該撮像特有関連情報と関連する画像情報を検索することができる。この結果、画像記録部13aに記録されている撮像関連情報とイベント記録部13bに記録されているイベント関連情報とを相互に利用して、検索された画像情報と対応付けられている撮像関連情報と関連するイベント関連情報を特定することができ、特定されたイベント関連情報と対応付けられているイベント情報の検索を適正に行うことができる。   Furthermore, when searching for event information as a search target, if imaging-specific related information (for example, various keywords specific to image capturing) is input as a search condition, image information related to the imaging-specific related information Is retrieved from the image information recorded in the image recording unit 13a, and event-related information related to imaging-related information associated with the searched image information is specified. Image information related to the imaging-related related information can be searched even if imaging-related related information specific to imaging of an image is input as a search condition. . As a result, the imaging related information associated with the searched image information by mutually using the imaging related information recorded in the image recording unit 13a and the event related information recorded in the event recording unit 13b. Event-related information related to the event information can be specified, and event information associated with the specified event-related information can be appropriately searched.

また、ユーザによる操作入力部6の所定の実行指示操作に基づいて実行される動作に関連した操作イベントに関連するイベント関連情報が取得されてイベント記録部13bに記録されるので、当該イベント関連情報を利用して、画像情報の検索を適正に行うことができる。
具体的には、画像情報を検索対象とする場合に、操作イベントとしての通話の実行操作及び当該通話相手に関連するキーワード、操作イベントとしての通信の実行操作及び当該通信相手に関連するキーワード、操作イベントとしてのスケジュールの入力操作及び当該スケジュールの内容に含まれるキーワード、操作イベントとしての文書の入力操作及び当該文書に関連するキーワードのうち、少なくとも一のキーワードをイベント関連情報として利用することができ、画像情報とは関係のない操作イベントに関連する各種のキーワードに基づいて、所望の画像情報やイベント情報の検索を適正に行うことができる。
In addition, since event related information related to an operation event related to an operation executed based on a predetermined execution instruction operation of the operation input unit 6 by the user is acquired and recorded in the event recording unit 13b, the event related information The image information can be properly searched by using.
Specifically, when image information is a search target, a call execution operation as an operation event and a keyword related to the call partner, a communication execution operation as an operation event, a keyword and an operation related to the communication partner Of the input operation of the schedule as an event and the keywords included in the contents of the schedule, the input operation of the document as an operation event and the keywords related to the document, at least one keyword can be used as the event related information, Searching for desired image information and event information can be performed appropriately based on various keywords related to operation events not related to image information.

また、ユーザによる操作入力部6の所定の実行指示操作を必要とすることなく実行される動作に関連した操作不要イベントが発生した場合に、当該操作不要イベントに関連するイベント関連情報が取得されてイベント記録部13bに記録されるので、当該イベント関連情報を利用して、画像情報の検索を適正に行うことができる。
具体的には、所定のタイミングで撮像された画像の画像情報から所定の種類の被写体が検出された場合に、当該被写体の種類に係る情報を当該イベントに関連するイベント関連情報として取得することができる。
また、所定のタイミングで集音された音情報から特定の言葉が検出された場合に、当該特定の言葉に係る情報を当該イベントに関連するイベント関連情報として取得することができる。
また、所定のタイミングで測位された当該端末本体の存する現在位置に基づいて特定の場所が検出された場合に、当該特定の場所に関連する名称に係る情報を当該イベントに関連するイベント関連情報として取得することができる。
また、自動的に検出された動き情報に基づいて所定の種類の動きが検出された場合に、当該所定の動きの種類に係る情報を当該イベントに関連するイベント関連情報として取得することができる。
従って、イベント関連情報として取得された上記の各種の情報を利用して、所望の画像情報やイベント情報の検索を適正に行うことができる。
Further, when an operation unnecessary event related to an operation that is executed without requiring a predetermined execution instruction operation of the operation input unit 6 by the user occurs, event related information related to the operation unnecessary event is acquired. Since it is recorded in the event recording unit 13b, it is possible to appropriately search for image information using the event-related information.
Specifically, when a predetermined type of subject is detected from image information of an image captured at a predetermined timing, information related to the type of the subject may be acquired as event related information related to the event. it can.
In addition, when a specific word is detected from sound information collected at a predetermined timing, information related to the specific word can be acquired as event-related information related to the event.
In addition, when a specific location is detected based on the current position of the terminal body measured at a predetermined timing, information related to the name related to the specific location is used as event related information related to the event. Can be acquired.
In addition, when a predetermined type of motion is detected based on the automatically detected motion information, information related to the predetermined type of motion can be acquired as event related information related to the event.
Therefore, it is possible to appropriately search for desired image information and event information using the above-described various information acquired as event-related information.

[実施形態2]
図8は、本発明を適用した実施形態2の検索システム200の概略構成を示す図である。
図8に示すように、検索システム200は、撮像装置300と、携帯電話機400と、検索装置500と、地図サーバ600と、気象サーバ700とが所定の通信ネットワークNを介して接続されている。そして、検索装置500は、撮像装置300及び携帯電話機400により取得された画像情報及びイベント情報を記録して、当該画像情報及びイベント情報の中でユーザ所望の検索対象を検索する。
[Embodiment 2]
FIG. 8 is a diagram showing a schematic configuration of a search system 200 according to the second embodiment to which the present invention is applied.
As illustrated in FIG. 8, in the search system 200, an imaging device 300, a mobile phone 400, a search device 500, a map server 600, and a weather server 700 are connected via a predetermined communication network N. Then, the search device 500 records the image information and event information acquired by the imaging device 300 and the mobile phone 400, and searches the search information desired by the user in the image information and event information.

先ず、撮像装置300について図9を参照して説明する。
図9は、撮像装置300の概略構成を示すブロック図である。
図9に示すように、撮像装置300は、中央制御部301、メモリ302、撮像部303、撮像制御部304、画像処理部305、操作入力部306、表示部307、通信制御部308、位置取得部309、日時取得部310、記録部311等を備えている。
なお、中央制御部301、メモリ302、撮像部303、撮像制御部304、画像処理部305、操作入力部306、表示部307、通信制御部308、位置取得部309、日時取得部310、記録部311は、上記実施形態1の携帯端末100の対応する各部と略同様の構成をなし、上記実施形態1と異なる部分についてのみ詳細に説明する。
First, the imaging apparatus 300 will be described with reference to FIG.
FIG. 9 is a block diagram illustrating a schematic configuration of the imaging apparatus 300.
As illustrated in FIG. 9, the imaging apparatus 300 includes a central control unit 301, a memory 302, an imaging unit 303, an imaging control unit 304, an image processing unit 305, an operation input unit 306, a display unit 307, a communication control unit 308, and position acquisition. A unit 309, a date acquisition unit 310, a recording unit 311, and the like.
The central control unit 301, the memory 302, the imaging unit 303, the imaging control unit 304, the image processing unit 305, the operation input unit 306, the display unit 307, the communication control unit 308, the position acquisition unit 309, the date acquisition unit 310, and the recording unit 311 has substantially the same configuration as each corresponding part of the mobile terminal 100 of the first embodiment, and only different parts from the first embodiment will be described in detail.

中央制御部301は、撮像装置300の各部を制御する。具体的には、中央制御部301は、撮像装置300の各部を制御するCPU(図示略)を具備し、各種処理プログラム(図示略)に従って各種の制御動作を行う。   The central control unit 301 controls each unit of the imaging device 300. Specifically, the central control unit 301 includes a CPU (not shown) that controls each part of the imaging apparatus 300, and performs various control operations according to various processing programs (not shown).

メモリ302は、例えば、画像情報等を一時的に記録するバッファメモリや、中央制御部301などのワーキングメモリ、当該撮像装置300の機能に係る各種プログラムやデータが格納されたプログラムメモリ等(何れも図示略)を備えている。   The memory 302 includes, for example, a buffer memory that temporarily records image information and the like, a working memory such as the central control unit 301, a program memory that stores various programs and data related to the functions of the imaging device 300, and the like (all of which (Not shown).

撮像部303、撮像制御部304、画像処理部305は、上記実施形態1の携帯端末100の撮像部3、撮像制御部4、画像処理部5と略同様の構成をなし、詳細な説明は省略する。   The imaging unit 303, the imaging control unit 304, and the image processing unit 305 have substantially the same configuration as the imaging unit 3, the imaging control unit 4, and the image processing unit 5 of the mobile terminal 100 of the first embodiment, and detailed description thereof is omitted. To do.

操作入力部306は、撮像装置300本体に対して各種指示を入力するためのものである。
具体的には、操作入力部306は、被写体の撮影指示に係るシャッタボタン、モードや機能等の選択指示に係る上下左右のカーソルボタンや決定ボタン等の各種ボタン(何れも図示略)を備えている。
そして、ユーザにより各種ボタンが操作されると、操作入力部306は、操作されたボタンに応じた操作指示を中央制御部301に出力する。中央制御部301は、操作入力部306から出力され入力された操作指示に従って所定の動作(例えば、被写体の撮像等)を各部に実行させる。
The operation input unit 306 is for inputting various instructions to the imaging apparatus 300 main body.
Specifically, the operation input unit 306 includes a shutter button related to an instruction to shoot a subject, various buttons (not shown) such as up / down / left / right cursor buttons and a determination button related to a selection instruction of a mode, a function, and the like. Yes.
When various buttons are operated by the user, the operation input unit 306 outputs an operation instruction corresponding to the operated button to the central control unit 301. The central control unit 301 causes each unit to execute a predetermined operation (for example, imaging of a subject) in accordance with an operation instruction output from the operation input unit 306 and input.

表示部307は、上記実施形態1の携帯端末100の表示部15と同様に、表示パネル15aと、表示制御部15bとを具備している。   The display unit 307 includes a display panel 15a and a display control unit 15b, similar to the display unit 15 of the mobile terminal 100 of the first embodiment.

通信制御部308は、通信ネットワークN及び通信アンテナ308aを介してデータの送受信を行う。
即ち、通信制御部308は、例えば、無線LANモジュールから構成され、通信アンテナ308aを介して通信ネットワークNに接続されているアクセスポイント(図示略)との間でデータの送受信を行う。即ち、通信制御部308は、中央制御部301から出力されて入力される指示信号に基づいて、通信相手の検索装置500に対して、画像記録部311aに記録されているExif形式の画像ファイルの送信を行う。
なお、通信制御部308は、上記実施形態1の携帯端末100の通信制御部8と同様に、所定の通信方式に従ってデータの送受信を行っても良い。
The communication control unit 308 transmits and receives data via the communication network N and the communication antenna 308a.
That is, the communication control unit 308 includes, for example, a wireless LAN module, and transmits and receives data to and from an access point (not shown) connected to the communication network N via the communication antenna 308a. That is, the communication control unit 308 sends an Exif format image file recorded in the image recording unit 311 a to the communication partner search device 500 based on the instruction signal output from the central control unit 301 and input. Send.
Note that the communication control unit 308 may transmit and receive data according to a predetermined communication method, similarly to the communication control unit 8 of the mobile terminal 100 of the first embodiment.

位置取得部309は、上記実施形態1の携帯端末100の位置取得部9と同様に、GPSアンテナ9aにより受信されたGPS信号に基づいて、撮像装置300本体の存する現在位置に係る位置情報を取得する。
また、位置取得部309は、画像の撮像の際に生成した位置情報を記録部311に対して出力し、当該画像の撮像位置に関する撮像位置情報(撮像関連情報)として画像情報と対応付けられて画像記録部311aに記録される。
Similar to the position acquisition unit 9 of the mobile terminal 100 of the first embodiment, the position acquisition unit 309 acquires position information related to the current position of the imaging apparatus 300 main body based on the GPS signal received by the GPS antenna 9a. To do.
Further, the position acquisition unit 309 outputs position information generated at the time of image capturing to the recording unit 311, and is associated with image information as imaging position information (imaging related information) regarding the image capturing position of the image. It is recorded in the image recording unit 311a.

日時取得部310は、上記実施形態1の携帯端末100の日時取得部10と同様に、現在の日時に係る日時情報を生成して取得する。
また、日時取得部310は、画像の撮像の際に生成した日時情報を記録部311に対して出力し、当該画像の撮像日時に関する撮像日時情報(撮像関連情報)として画像情報と対応付けられて画像記録部311aに記録される。
The date acquisition unit 310 generates and acquires date information related to the current date, similar to the date acquisition unit 10 of the mobile terminal 100 of the first embodiment.
Further, the date acquisition unit 310 outputs date information generated at the time of image capturing to the recording unit 311, and is associated with image information as image capturing date information (imaging related information) regarding the image capturing date of the image. It is recorded in the image recording unit 311a.

記録部311は、画像記録部311aを具備し、画像記録部311aからのデータの読み出しや当該画像記録部311aに対するデータの書き込みを行う。
画像記録部311aは、上記実施形態1の携帯端末100と同様に、画像情報をExif形式の画像ファイルとして少なくとも一つ記録し、画像の撮像に関連する撮像関連情報(撮影位置情報や撮像日時情報等)をExif情報として画像情報と対応付けて記録する。
The recording unit 311 includes an image recording unit 311a, and reads data from the image recording unit 311a and writes data to the image recording unit 311a.
Similar to the portable terminal 100 of the first embodiment, the image recording unit 311a records at least one piece of image information as an Exif format image file, and captures image-related information (capturing position information and imaging date / time information related to image capturing). Etc.) is recorded in correspondence with the image information as Exif information.

このように構成された撮像装置300は、撮像処理(図4参照)を行う。
なお、撮像処理は、上記実施形態1の携帯端末100による撮像処理の内容と略同様であり、その詳細な説明は省略する。
The imaging apparatus 300 configured as described above performs an imaging process (see FIG. 4).
The imaging process is substantially the same as the contents of the imaging process performed by the mobile terminal 100 of the first embodiment, and a detailed description thereof is omitted.

次に、携帯電話機400について図10を参照して説明する。
図10は、携帯電話機400の概略構成を示すブロック図である。
図10に示すように、携帯電話機400は、中央制御部401、メモリ402、送受話部403、通信制御部404、操作入力部405、表示部406、検出センサ部407、イベント取得制御部408、位置取得部409、日時取得部410、記録部411等を備えている。
なお、中央制御部401、メモリ402、送受話部403、通信制御部404、操作入力部405、表示部406、検出センサ部407、イベント取得制御部408、位置取得部409、日時取得部410、記録部411は、上記実施形態1の携帯端末100の対応する各部と略同様の構成をなし、上記実施形態1と異なる部分についてのみ詳細に説明する。
Next, the mobile phone 400 will be described with reference to FIG.
FIG. 10 is a block diagram showing a schematic configuration of the mobile phone 400.
As shown in FIG. 10, a mobile phone 400 includes a central control unit 401, a memory 402, a transmission / reception unit 403, a communication control unit 404, an operation input unit 405, a display unit 406, a detection sensor unit 407, an event acquisition control unit 408, A position acquisition unit 409, a date acquisition unit 410, a recording unit 411, and the like are provided.
The central control unit 401, the memory 402, the transmission / reception unit 403, the communication control unit 404, the operation input unit 405, the display unit 406, the detection sensor unit 407, the event acquisition control unit 408, the position acquisition unit 409, the date acquisition unit 410, The recording unit 411 has substantially the same configuration as the corresponding units of the mobile terminal 100 of the first embodiment, and only the parts different from the first embodiment will be described in detail.

中央制御部401は、携帯電話機400の各部を制御する。具体的には、中央制御部401は、携帯電話機400の各部を制御するCPU(図示略)を具備し、各種処理プログラム(図示略)に従って各種の制御動作を行う。   The central control unit 401 controls each unit of the mobile phone 400. Specifically, the central control unit 401 includes a CPU (not shown) that controls each part of the mobile phone 400, and performs various control operations according to various processing programs (not shown).

メモリ402は、例えば、画像情報等を一時的に記録するバッファメモリや、中央制御部401などのワーキングメモリ、当該携帯電話機400の機能に係る各種プログラムやデータが格納されたプログラムメモリ等(何れも図示略)を備えている。   The memory 402 is, for example, a buffer memory that temporarily records image information, a working memory such as the central control unit 401, a program memory that stores various programs and data related to the functions of the mobile phone 400, etc. (Not shown).

送受話部403は、上記実施形態1の携帯端末100の送受話部7と略同様の構成をなし、詳細な説明は省略する。   The transmitter / receiver unit 403 has substantially the same configuration as the transmitter / receiver unit 7 of the portable terminal 100 of the first embodiment, and a detailed description thereof is omitted.

通信制御部404は、上記実施形態1の携帯端末100の通信制御部8と同様に、通信ネットワークN及び通信アンテナ8aを介してデータの送受信を行う。
即ち、通信制御部404は、当該携帯電話機400が無線基地局(図示略)との通信で採用している所定の通信方式に対応する通信プロトコルに従って、この通信方式で設定される通信チャネルにより無線基地局との間で通信アンテナ8aを介してデータの送受信を行う。即ち、通信制御部404は、中央制御部401から出力されて入力される指示信号に基づいて、通信相手の検索装置500に対してイベント記録テーブルTに記録されている各種のイベントの付帯情報、イベント関連情報の送信を行う。
なお、通信制御部404は、例えば、無線LANモジュールから構成され、通信アンテナ8aを介して通信ネットワークNに接続されているアクセスポイント(図示略)との間でデータの送受信を行っても良い。
Similar to the communication control unit 8 of the mobile terminal 100 of the first embodiment, the communication control unit 404 transmits and receives data through the communication network N and the communication antenna 8a.
That is, the communication control unit 404 wirelessly uses a communication channel set in this communication method according to a communication protocol corresponding to a predetermined communication method adopted by the mobile phone 400 for communication with a wireless base station (not shown). Data is transmitted to and received from the base station via the communication antenna 8a. That is, the communication control unit 404, based on the instruction signal output from the central control unit 401 and input, incidental information of various events recorded in the event record table T for the communication partner search device 500, Send event related information.
Note that the communication control unit 404 may be configured by, for example, a wireless LAN module, and may exchange data with an access point (not shown) connected to the communication network N via the communication antenna 8a.

操作入力部405は、携帯電話機400本体に対して各種指示を入力するためのものである。
具体的には、操作入力部405は、モードや機能等の選択指示に係る上下左右のカーソルボタンや決定ボタン、電話の発着信や電子メールの送受信等の実行指示に係る通信関連ボタン、テキスト(文書)の入力指示に係る数字ボタンや記号ボタン等の各種ボタン(何れも図示略)を備えている。
そして、ユーザにより各種ボタンが操作されると、操作入力部405は、操作されたボタンに応じた操作指示を中央制御部401に出力する。中央制御部401は、操作入力部405から出力され入力された操作指示に従って所定の動作(例えば、電話の発着信、電子メールの送受信等)を各部に実行させる。
The operation input unit 405 is used to input various instructions to the mobile phone 400 main body.
Specifically, the operation input unit 405 includes up / down / left / right cursor buttons and a determination button related to a mode / function selection instruction, a communication-related button related to an execution instruction such as incoming / outgoing calls, transmission / reception of an e-mail, text ( Various buttons (none of which are shown) such as numeric buttons and symbol buttons related to the input instruction of (document).
When various buttons are operated by the user, the operation input unit 405 outputs an operation instruction corresponding to the operated button to the central control unit 401. The central control unit 401 causes each unit to execute a predetermined operation (for example, incoming / outgoing calls, transmission / reception of e-mails, etc.) in accordance with an operation instruction output from the operation input unit 405 and input.

表示部406は、上記実施形態1の携帯端末100の表示部15と同様に、表示パネル15aと、表示制御部15bとを具備している。   The display unit 406 includes a display panel 15a and a display control unit 15b, like the display unit 15 of the mobile terminal 100 of the first embodiment.

検出センサ部407は、上記実施形態1の携帯端末100の検出センサ部11と同様に、動き検出センサ11aと、身体状態検出センサ11bと、環境検出センサ11cとを具備している。   The detection sensor unit 407 includes a motion detection sensor 11a, a body state detection sensor 11b, and an environment detection sensor 11c, similarly to the detection sensor unit 11 of the mobile terminal 100 of the first embodiment.

イベント取得制御部408は、上記実施形態1の携帯端末100のイベント取得制御部12と同様に、第1取得部12aと、判定部12bと、第2取得部12cとを具備している。
なお、本実施形態2に係る携帯電話機400は、撮像手段を備えない構成であるので、例えば、ユーザによる操作入力部405の所定の撮像指示操作を必要とすることなく所定のタイミングで自動的に画像を撮像する操作不要イベントは行われず、当該操作不要イベントに関連する処理は判定部12b及び第2取得部12cによって行われることはない。
The event acquisition control unit 408 includes a first acquisition unit 12a, a determination unit 12b, and a second acquisition unit 12c, similar to the event acquisition control unit 12 of the mobile terminal 100 of the first embodiment.
Note that since the mobile phone 400 according to the second embodiment is configured not to include an imaging unit, for example, it is automatically performed at a predetermined timing without requiring a predetermined imaging instruction operation of the operation input unit 405 by the user. An operation unnecessary event for capturing an image is not performed, and processing related to the operation unnecessary event is not performed by the determination unit 12b and the second acquisition unit 12c.

位置取得部409は、上記実施形態1の携帯端末100の位置取得部9と同様に、GPSアンテナ9aにより受信されたGPS信号に基づいて、携帯電話機400本体の存する現在位置に係る位置情報を取得する。
また、位置取得部409は、イベントの発生の際に生成した位置情報を記録部411に対して出力し、当該イベントの発生位置に関するイベント位置情報(イベント関連情報)としてイベント情報と対応付けられてイベント記録部411bに記録される。
Similar to the position acquisition unit 9 of the mobile terminal 100 of the first embodiment, the position acquisition unit 409 acquires position information related to the current position of the mobile phone 400 based on the GPS signal received by the GPS antenna 9a. To do.
Further, the position acquisition unit 409 outputs the position information generated at the time of occurrence of the event to the recording unit 411, and is associated with the event information as event position information (event related information) regarding the occurrence position of the event. It is recorded in the event recording unit 411b.

日時取得部410は、上記実施形態1の携帯端末100の日時取得部10と同様に、現在の日時に係る日時情報を生成して取得する。
また、日時取得部410は、イベントの発生の際に生成した日時情報を記録部411に対して出力し、当該イベントの発生日時に関するイベント日時情報(イベント関連情報)としてイベント情報と対応付けられてイベント記録部411bに記録される。
The date acquisition unit 410 generates and acquires date information related to the current date, similar to the date acquisition unit 10 of the mobile terminal 100 of the first embodiment.
Further, the date acquisition unit 410 outputs the date information generated when the event occurs to the recording unit 411, and is associated with the event information as event date information (event related information) related to the event occurrence date. It is recorded in the event recording unit 411b.

記録部411は、イベント記録部411bを具備し、イベント記録部411bからのデータの読み出しや当該イベント記録部411bに対するデータの書き込みを行う。
イベント記録部411bは、上記実施形態1の携帯端末100と同様に、イベント記録テーブルTに、イベント情報と当該イベントの発生に関連するイベント関連情報(イベント位置情報やイベント日時情報等)と対応付けて少なくとも一つ記録する。
The recording unit 411 includes an event recording unit 411b, and reads data from the event recording unit 411b and writes data to the event recording unit 411b.
Similar to the portable terminal 100 of the first embodiment, the event recording unit 411b associates event information with event-related information (event position information, event date / time information, etc.) related to the occurrence of the event in the event recording table T. Record at least one.

このように構成された携帯電話機400は、イベント記録処理(図5参照)を行う。
なお、イベント記録処理は、上記実施形態1の携帯端末100によるイベント記録処理の内容と略同様であり、その詳細な説明は省略する。
The mobile phone 400 configured as described above performs an event recording process (see FIG. 5).
The event recording process is substantially the same as the content of the event recording process performed by the mobile terminal 100 of the first embodiment, and a detailed description thereof is omitted.

次に、検索装置500について図11を参照して説明する。
図11は、検索装置500の概略構成を示すブロック図である。
検索装置500は、例えば、パーソナルコンピュータ等から構成され、具体的には、図11に示すように、中央制御部501、メモリ502、通信制御部503、記録部504、操作入力部505、検索制御部506、表示部507等を備えている。
なお、中央制御部501、メモリ502、通信制御部503、記録部504、操作入力部505、検索制御部506、表示部507は、上記実施形態1の携帯端末100の対応する各部と略同様の構成をなし、上記実施形態1と異なる部分についてのみ詳細に説明する。
Next, the search device 500 will be described with reference to FIG.
FIG. 11 is a block diagram illustrating a schematic configuration of the search device 500.
The search device 500 is composed of, for example, a personal computer, and specifically, as shown in FIG. 11, a central control unit 501, a memory 502, a communication control unit 503, a recording unit 504, an operation input unit 505, search control. A unit 506, a display unit 507, and the like.
The central control unit 501, the memory 502, the communication control unit 503, the recording unit 504, the operation input unit 505, the search control unit 506, and the display unit 507 are substantially the same as the corresponding units of the mobile terminal 100 of the first embodiment. Only the parts different from those of the first embodiment will be described in detail.

中央制御部501は、検索装置500の各部を制御する。具体的には、中央制御部501は、検索装置500の各部を制御するCPU(図示略)を具備し、各種処理プログラム(図示略)に従って各種の制御動作を行う。   The central control unit 501 controls each unit of the search device 500. Specifically, the central control unit 501 includes a CPU (not shown) that controls each part of the search device 500, and performs various control operations according to various processing programs (not shown).

メモリ502は、例えば、画像情報等を一時的に記録するバッファメモリや、中央制御部501などのワーキングメモリ、当該検索装置500の機能に係る各種プログラムやデータが格納されたプログラムメモリ等(何れも図示略)を備えている。   The memory 502 includes, for example, a buffer memory that temporarily records image information and the like, a working memory such as the central control unit 501, a program memory that stores various programs and data related to the functions of the search device 500, etc. (Not shown).

通信制御部503は、通信ネットワークN及び通信アンテナ503aを介してデータの送受信を行う。
即ち、通信制御部503は、例えば、無線LANモジュールから構成され、通信アンテナ503aを介して通信ネットワークNに接続されているアクセスポイント(図示略)との間でデータの送受信を行う。即ち、通信制御部503は、通信相手の撮像装置300から送信されたExif形式の画像ファイルの受信を行う。
さらに、通信制御部503は、当該検索装置500が無線基地局(図示略)との通信で採用している所定の通信方式に対応する通信プロトコルに従って、この通信方式で設定される通信チャネルにより無線基地局との間で通信アンテナ503aを介してデータの送受信を行う。即ち、通信制御部503は、通信相手の携帯電話機400から送信されたイベント記録テーブルTに記録されている各種のイベントの付帯情報、イベント関連情報の受信を行う。
The communication control unit 503 transmits and receives data via the communication network N and the communication antenna 503a.
That is, the communication control unit 503 includes, for example, a wireless LAN module, and transmits and receives data to and from an access point (not shown) connected to the communication network N via the communication antenna 503a. That is, the communication control unit 503 receives an Exif format image file transmitted from the imaging device 300 of the communication partner.
Further, the communication control unit 503 wirelessly uses a communication channel set by this communication method according to a communication protocol corresponding to a predetermined communication method adopted by the search device 500 for communication with a wireless base station (not shown). Data is transmitted to and received from the base station via the communication antenna 503a. That is, the communication control unit 503 receives incidental information and event related information of various events recorded in the event recording table T transmitted from the mobile phone 400 of the communication partner.

記録部504は、上記実施形態1の携帯端末100の記録部13と同様に、画像記録部13aと、イベント記録部13bとを具備し、これら画像記録部13a及びイベント記録部13bからのデータの読み出しや当該画像記録部13a及びイベント記録部13bに対するデータの書き込みを行う。
即ち、記録部504は、通信制御部503により受信された画像ファイルを画像記録部13aに記録させ、また、通信制御部503により受信された各種のイベントの付帯情報、イベント関連情報をイベント記録部13bのイベント記録テーブルTに記録させる。
Similar to the recording unit 13 of the portable terminal 100 of the first embodiment, the recording unit 504 includes an image recording unit 13a and an event recording unit 13b, and data from these image recording unit 13a and event recording unit 13b is recorded. Reading and writing of data to the image recording unit 13a and the event recording unit 13b are performed.
In other words, the recording unit 504 causes the image recording unit 13a to record the image file received by the communication control unit 503, and also adds incidental information and event related information of various events received by the communication control unit 503 to the event recording unit. It is recorded in the event record table T of 13b.

検索制御部506、表示部507は、上記実施形態1の携帯端末100の検索制御部14、表示部15と略同様の構成をなし、詳細な説明は省略する。   The search control unit 506 and the display unit 507 have substantially the same configuration as the search control unit 14 and the display unit 15 of the mobile terminal 100 of the first embodiment, and detailed description thereof is omitted.

このように構成された検索装置500は、画像検索処理(図6参照)及びイベント検索処理(図7参照)を行う。
なお、画像検索処理及びイベント検索処理は、上記実施形態1の携帯端末100による画像検索処理及びイベント検索処理の内容と略同様であり、その詳細な説明は省略する。
The search device 500 configured as described above performs image search processing (see FIG. 6) and event search processing (see FIG. 7).
The image search process and the event search process are substantially the same as the contents of the image search process and the event search process performed by the mobile terminal 100 according to the first embodiment, and a detailed description thereof is omitted.

なお、地図サーバ600は、撮像装置300や携帯電話機400や検索装置500に、地図データベース(図示略)が搭載されていない場合に、画像情報やイベント情報の位置情報に対応する特定の地名(現在位置の属する都道府県、都市、区、町等)や特定の建物(例えば、東京タワー等)等の情報を検索装置500に提供する。
即ち、地図サーバ600は、Webサーバとしてインターネット上にWebページ(例えば、地名情報提供ページ等)を開設する機能を具備するものであり、検索装置500からのアクセスに応じて当該検索装置500にWebページのページ情報を送信する。具体的には、地図サーバ600は、検索装置500からの画像情報やイベント情報の位置情報(例えば、緯度、経度の座標情報)に対応する地名の送信要求に対して、当該地名を記憶部602内で検索して特定し、当該地名情報を検索装置500に送信する。
Note that the map server 600 has a specific place name corresponding to the position information of the image information and the event information (currently) when the imaging device 300, the mobile phone 400, and the search device 500 are not equipped with a map database (not shown) The search apparatus 500 is provided with information such as the prefecture, city, ward, town, etc. to which the position belongs and a specific building (for example, Tokyo Tower).
That is, the map server 600 has a function of opening a Web page (for example, a place name information providing page) on the Internet as a Web server, and the search device 500 receives the Web from the search device 500 in response to access. Send page information for the page. Specifically, the map server 600 stores the location name in response to the location name transmission request corresponding to the location information (for example, latitude and longitude coordinate information) of the image information and event information from the search device 500. The place name information is transmitted to the search device 500.

地図サーバ600の通信制御部601は、例えば、モデム(MODEM:Modulater/DEModulater)、ターミナルアダプタ(Terminal Adapter)等によって構成され、通信ネットワークNを介して検索装置500等の外部機器との間で情報の通信制御を行うためのものである。具体的には、通信制御部601は、例えば、検索装置500からのアクセスにより位置情報に対応する地名の送信要求を受診する。また、通信制御部601は、記憶部602から取得された送信要求に係る地名情報を通信ネットワークNや無線基地局等を介して検索装置500に送信する。   The communication control unit 601 of the map server 600 includes, for example, a modem (MODEM: Modulator / DEModulater), a terminal adapter (Terminal Adapter), and the like, and communicates information with an external device such as the search device 500 via the communication network N. It is for performing communication control. Specifically, for example, the communication control unit 601 receives a request for transmitting a place name corresponding to position information through access from the search device 500. Further, the communication control unit 601 transmits the place name information related to the transmission request acquired from the storage unit 602 to the search device 500 via the communication network N, the wireless base station, or the like.

記憶部602は、例えば、半導体の不揮発性メモリやHDD(Hard Disc Drive)等により構成され、検索装置500に送信される地名情報やWebページのアドレス情報等を記憶する。具体的には、記憶部は、特定の地名(現在位置の属する都道府県、都市、区、町等)や特定の建物と位置情報(例えば、緯度、経度の座標情報)とを対応付けて複数記憶する。   The storage unit 602 is configured by, for example, a semiconductor nonvolatile memory, HDD (Hard Disc Drive), or the like, and stores place name information, Web page address information, and the like transmitted to the search device 500. Specifically, the storage unit associates a specific place name (prefecture, city, ward, town, etc. to which the current position belongs) or a specific building with a plurality of position information (for example, latitude and longitude coordinate information). Remember.

また、気象サーバ700は、携帯電話機400や検索装置500により気象を特定できない場合に、イベントが発生した際の位置情報(例えば、緯度、経度の座標情報)及び日時情報(例えば、20△△年;○月○日;□曜日、**時等)に対応する気象(天候)を検索装置500に提供する。
即ち、気象サーバ700は、Webサーバとしてインターネット上にWebページ(例えば、気象情報提供ページ等)を開設する機能を具備するものであり、検索装置500からのアクセスに応じて当該検索装置500にWebページのページ情報を送信する。具体的には、気象サーバ700は、検索装置500からのイベント情報の位置情報(例えば、緯度、経度の座標情報)及び日時情報(例えば、20△△年;○月○日;□曜日、**時等)に対応する気象(天候)の送信要求に対して、当該位置及び日時における気象を記憶部702内で検索して特定し、当該気象情報を検索装置500に送信する。
In addition, when the weather cannot be identified by the mobile phone 400 or the search device 500, the weather server 700 has location information (for example, latitude and longitude coordinate information) and date / time information (for example, 20ΔΔ year) when the event occurs. ; Month, day, □ day of week, ** hour, etc.) are provided to the search device 500.
In other words, the weather server 700 has a function of opening a Web page (for example, a weather information providing page) on the Internet as a Web server. Send page information for the page. Specifically, the weather server 700 includes the position information (for example, latitude and longitude coordinate information) and date / time information (for example, 20ΔΔ year; ○ month ○ day; □ day of the week, * In response to a weather (weather) transmission request corresponding to * time, etc., the weather at the position and date / time is searched and specified in the storage unit 702, and the weather information is transmitted to the search device 500.

気象サーバ700の通信制御部701は、例えば、モデム、ターミナルアダプタ等によって構成され、通信ネットワークNを介して検索装置500等の外部機器との間で情報の通信制御を行うためのものである。具体的には、通信制御部701は、例えば、検索装置500からのアクセスにより位置情報及び日時情報に対応する気象の送信要求を受診する。また、通信制御部701は、記憶部702から取得された送信要求に係る気象情報を通信ネットワークNや無線基地局等を介して検索装置500に送信する。   The communication control unit 701 of the weather server 700 includes, for example, a modem, a terminal adapter, and the like, and is for performing communication control of information with an external device such as the search device 500 via the communication network N. Specifically, for example, the communication control unit 701 receives a meteorological transmission request corresponding to position information and date / time information through access from the search device 500. Further, the communication control unit 701 transmits the weather information related to the transmission request acquired from the storage unit 702 to the search device 500 via the communication network N, the wireless base station, or the like.

記憶部702は、例えば、半導体の不揮発性メモリやHDD等により構成され、検索装置500に送信される気象情報やWebページのアドレス情報等を記憶する。具体的には、記憶部は、特定の気象(例えば、「晴れ」、「雨」等)と位置情報(例えば、緯度、経度の座標情報)と日時情報(例えば、20△△年;○月○日;□曜日、**時等)とを対応付けて複数記憶する。   The storage unit 702 includes, for example, a semiconductor non-volatile memory, an HDD, and the like, and stores weather information transmitted to the search device 500, Web page address information, and the like. Specifically, the storage unit stores specific weather (for example, “sunny”, “rain”, etc.), position information (for example, latitude and longitude coordinate information), and date and time information (for example, 20ΔΔ year; ○ Day; □ day of week, ** hour, etc.) are stored in association with each other.

以上のように、実施形態2の検索システム200によれば、上記実施形態1の携帯端末100と同様に、検索対象の画像をいつどこで撮影したか覚えている場合には、撮像位置や撮像日時等の撮像関連情報を検索条件として画像情報を検索することができるだけでなく、検索対象の画像をいつどこで撮影したかを正確に思い出すことができない場合にも、画像情報とは関係のないような検索条件(例えば、各種のキーワード)を検索装置500に入力することで、当該検索条件に関連するイベント情報を検索することができ、画像記録部13aに記録されている撮像関連情報とイベント記録部13bに記録されているイベント関連情報とを相互に利用して、検索されたイベント情報と対応付けられているイベント関連情報と関連する撮像関連情報を特定することができる。これにより、特定された撮像関連情報と対応付けられている画像情報の検索を適正に行うことができる。
従って、撮像関連情報だけでなく、当該撮像関連情報とは関係のない検索条件を利用することで、所望の画像情報の検索を適正に行うことができる。
As described above, according to the search system 200 of the second embodiment, as with the mobile terminal 100 of the first embodiment, when remembering when and where the search target image was taken, the imaging position and the imaging date and time It is possible not only to search for image information using image-related information as a search condition, but also when it is impossible to remember exactly when and where the image to be searched was taken, it does not relate to image information. By inputting a search condition (for example, various keywords) to the search device 500, event information related to the search condition can be searched, and imaging-related information and an event recording unit recorded in the image recording unit 13a. The imaging related information related to the event related information associated with the searched event information by mutually using the event related information recorded in 13b It is possible to identify the broadcast. Thereby, the search of the image information matched with the specified imaging related information can be performed appropriately.
Therefore, it is possible to appropriately search for desired image information by using a search condition that is not related to the imaging related information as well as the imaging related information.

なお、本発明は、上記実施形態に限定されることなく、本発明の趣旨を逸脱しない範囲において、種々の改良並びに設計の変更を行っても良い。
例えば、操作イベントや操作不要イベントとして例示したものは、一例であってこれらに限られるものではなく、適宜任意に変更可能である。さらに、操作イベントや操作不要イベントに係る付帯情報も一例であってこれらに限られるものではなく、適宜任意に変更可能である。
The present invention is not limited to the above-described embodiment, and various improvements and design changes may be made without departing from the spirit of the present invention.
For example, what is illustrated as an operation event or an operation unnecessary event is an example and is not limited thereto, and can be arbitrarily changed as appropriate. Further, the incidental information related to the operation event and the operation unnecessary event is an example, and is not limited to these, and can be arbitrarily changed as appropriate.

また、上記実施形態では、位置取得部9(309)として、GPS情報を利用して現在の位置(画像の撮像位置、イベントの発生位置)に係る位置情報を取得する構成を例示したが、現在の位置の取得方法は一例であってこれに限られるものではなく、適宜任意に変更可能である。例えば、所定の場所(例えば、自宅、勤務先、道路標識、車等)や持ち物(例えば、鞄やアクセサリー等)などに貼付されたRF-ID無線情報タグや可視光通信情報タグ、或いは、Bluetooth(登録商標)やTransferJet(登録商標)等を搭載した近距離無線機器などから、場所や持ち物、人物、機器などの識別情報を受信識別して、現在の位置を特定するようにしても良い。   Moreover, in the said embodiment, although the position acquisition part 9 (309) illustrated the structure which acquires the positional information which concerns on the present position (image pick-up position, event occurrence position) using GPS information, The method of acquiring the position is an example, and is not limited to this, and can be arbitrarily changed as appropriate. For example, an RF-ID wireless information tag or a visible light communication information tag attached to a predetermined place (for example, home, office, road sign, car, etc.) or belongings (for example, bag or accessory), or Bluetooth The current position may be specified by receiving and identifying identification information such as a place, belongings, person, and device from a short-range wireless device equipped with (Registered Trademark), TransferJet (Registered Trademark), or the like.

また、出力手段として、表示部15(507)を例示したが、これに限られるものではなく、例えば、出力された画像を表示する表示装置(図示略)と情報通信可能に接続して、当該表示装置に対して検索結果のデータを出力して当該検索結果を表示可能なものや、スクリーンや壁面(図示略)等に対して検索結果のデータを投影して当該検索結果を表示可能なものであれば如何なる構成であっても良い。   In addition, the display unit 15 (507) is exemplified as the output unit, but the display unit 15 (507) is not limited thereto. For example, the output unit is connected to a display device (not shown) that displays the output image so as to be able to communicate with the information. The search result data can be output to a display device and the search result can be displayed, or the search result data can be projected on a screen or a wall surface (not shown) to display the search result Any configuration may be used.

さらに、携帯端末100、検索システム200の構成は、上記実施形態1、2に例示したものは一例であり、これに限られるものではなく、少なくとも第1記録手段、第2記録手段、入力手段、特定手段、検索手段、出力手段を備える構成であれば適宜任意に変更することができる。   Further, the configurations of the mobile terminal 100 and the search system 200 are merely examples illustrated in the first and second embodiments, and are not limited thereto. At least the first recording unit, the second recording unit, the input unit, Any configuration that includes an identification unit, a search unit, and an output unit can be arbitrarily changed.

加えて、上記実施形態1、2にあっては、入力手段、特定手段、検索手段、出力手段としての機能を、携帯端末100の中央制御部1或いは検索装置500の中央制御部501の制御下にて、操作入力部6(505)、特定部14a、検索部14b、表示部15(507)が駆動することにより実現される構成としたが、これに限られるものではなく、中央制御部1(501)のCPUによって所定のプログラム等が実行されることにより実現される構成としても良い。
即ち、プログラムを記憶するプログラムメモリに、入力処理ルーチン、特定処理ルーチン、検索処理ルーチン、出力処理ルーチンを含むプログラムを記憶しておく。そして、入力処理ルーチンにより中央制御部1(501)のCPUを、検索対象を検索するための検索条件を入力する入力手段として機能させるようにしても良い。また、特定処理ルーチンにより中央制御部1(501)のCPUを、画像情報を検索対象として検索する場合に、入力手段により検索条件として撮像関連情報以外の他の情報が入力されると、当該他の情報と関連するイベント情報を第2記録手段に記録されているイベント情報の中から検索し、この検索されたイベント情報と対応付けられているイベント関連情報と関連する撮像関連情報を特定する特定手段として機能させるようにしても良い。また、検索処理ルーチンにより中央制御部1(501)のCPUを、第1記録手段に記録されている画像情報の中で、入力手段により入力された撮像関連情報或いは特定手段により特定された撮像関連情報と対応付けられている画像情報を検索する検索手段として機能させるようにしても良い。また、出力処理ルーチンにより中央制御部1(301)のCPUを、検索手段による検索対象の検索結果を出力する出力手段として機能させるようにしても良い。
In addition, in the first and second embodiments, the functions as the input unit, the identification unit, the search unit, and the output unit are controlled by the central control unit 1 of the mobile terminal 100 or the central control unit 501 of the search device 500. The operation input unit 6 (505), the specifying unit 14a, the search unit 14b, and the display unit 15 (507) are driven. However, the configuration is not limited to this, and the central control unit 1 is not limited thereto. (501) It is good also as a structure implement | achieved when a predetermined | prescribed program etc. are performed by CPU.
That is, a program including an input processing routine, a specific processing routine, a search processing routine, and an output processing routine is stored in a program memory that stores the program. Then, the CPU of the central control unit 1 (501) may function as an input means for inputting a search condition for searching for a search target by an input processing routine. Further, when the CPU of the central control unit 1 (501) searches for image information as a search target by the specific processing routine, if other information other than the imaging related information is input as a search condition by the input means, the other The event information related to the event information is searched from the event information recorded in the second recording means, and the imaging related information related to the event related information associated with the searched event information is specified. You may make it function as a means. Further, the CPU of the central control unit 1 (501) by the search processing routine causes the imaging related information input by the input means or the imaging related specified by the specifying means in the image information recorded in the first recording means. You may make it function as a search means to search the image information matched with information. Further, the CPU of the central control unit 1 (301) may function as an output unit that outputs a search result of a search target by the search unit by an output processing routine.

同様に、判定手段についても、中央制御部1(501)のCPUによって所定のプログラム等が実行されることにより実現される構成としても良い。   Similarly, the determination unit may be realized by a predetermined program or the like being executed by the CPU of the central control unit 1 (501).

さらに、上記の各処理を実行するためのプログラムを格納したコンピュータ読み取り可能な媒体として、ROMやハードディスク等の他、フラッシュメモリ等の不揮発性メモリ、CD−ROM等の可搬型記録媒体を適用することも可能である。また、プログラムのデータを所定の通信回線を介して提供する媒体としては、キャリアウェーブ(搬送波)も適用される。   Furthermore, as a computer-readable medium storing a program for executing each of the above processes, a non-volatile memory such as a flash memory or a portable recording medium such as a CD-ROM is applied in addition to a ROM or a hard disk. Is also possible. A carrier wave is also used as a medium for providing program data via a predetermined communication line.

〔付記〕
本発明のいくつかの実施形態を説明したが、本発明の範囲は、上述の実施の形態に限定するものではなく、特許請求の範囲に記載された発明の範囲とその均等の範囲を含む。
以下に、この出願の願書に最初に添付した特許請求の範囲に記載した発明を付記する。付記に記載した請求項の項番は、この出願の願書に最初に添付した特許請求の範囲の通りである。
<請求項1>
撮像手段により撮像された画像の画像情報を、当該画像の撮像に関連する撮像関連情報と対応付けて少なくとも一つ記録する第1記録手段と、
前記撮像手段による画像の撮像指示タイミングとは非同期のタイミングで発生する当該画像の撮像以外のイベントに係るイベント情報を、当該イベントの発生に関連するイベント関連情報と対応付けて少なくとも一つ記録する第2記録手段と、
検索対象を検索するための検索条件を入力する入力手段と、
前記画像情報を検索対象として検索する場合に、前記入力手段により前記検索条件として前記撮像関連情報以外の他の情報が入力されると、当該他の情報と関連するイベント情報を前記第2記録手段に記録されているイベント情報の中から検索し、この検索されたイベント情報と対応付けられているイベント関連情報と関連する撮像関連情報を特定する特定手段と、
前記第1記録手段に記録されている画像情報の中で、前記入力手段により入力された撮像関連情報或いは前記特定手段により特定された撮像関連情報と対応付けられている画像情報を検索する検索手段と、
この検索手段による前記検索対象の検索結果を出力する出力手段と、
を備えることを特徴とする検索装置。
<請求項2>
前記検索手段は、更に、
前記画像情報を検索対象とする検索条件として、前記入力手段により前記撮像関連情報が入力された場合には、前記第1記録手段に記録されている画像情報の中で、前記入力手段により入力された撮像関連情報と対応付けられている画像情報を検索する一方で、前記入力手段により前記撮像関連情報以外の他の情報が入力された場合には、前記第1記録手段に記録されている画像情報の中で、前記特定手段により特定された撮像関連情報と対応付けられている画像情報を検索することを特徴とする請求項1に記載の検索装置。
<請求項3>
前記撮像関連情報は、画像の撮像位置に関する撮像位置情報及び当該画像の撮像日時に関する撮像日時情報のうちの少なくとも一方の情報を含み、
前記イベント関連情報は、イベントの発生位置に関するイベント位置情報及び当該イベントの発生日時に関するイベント日時情報のうちの少なくとも一方の情報を含み、
前記特定手段は、更に、
前記イベント関連情報と前記撮像関連情報との関連性を、前記撮像位置情報で示される撮像位置と前記イベント位置情報で示されるイベントの発生位置との距離に係る近似性、或いは、前記撮像日時情報で示される撮像日時と前記イベント日時情報で示されるイベントの発生日時との時間に係る近似性に基づいて特定することを特徴とする請求項2に記載の検索装置。
<請求項4>
前記特定手段は、更に、
前記入力手段により前記検索条件として前記撮像関連情報以外の他の情報が入力された場合に、前記第2記録手段に記録されているイベント情報の中から検索されたイベント情報と対応付けられている前記イベント位置情報及び前記イベント日時情報のうちの少なくとも一方の情報に基づいて、イベントの発生位置に関連する撮像位置及びイベントの発生日時に関連する撮像日時のうちの少なくとも一方を特定し、
前記検索手段は、更に、
前記特定手段により特定された撮像位置及び撮像日時のうちの少なくとも一方と対応付けられている画像情報を検索することを特徴とする請求項3に記載の検索装置。
<請求項5>
前記イベント関連情報は、前記イベント位置情報或いは前記イベント日時情報と比較して前記撮像関連情報との関連性が低く、撮像以外のイベントに特有のイベント特有関連情報を含み、
前記特定手段は、更に、
前記画像情報を検索対象とする前記検索条件として、前記入力手段により前記イベント特有関連情報が入力されると、当該イベント特有関連情報と関連するイベント情報を前記第2記録手段に記録されているイベント情報の中から検索し、この検索されたイベント情報と対応付けられているイベント関連情報と関連する撮像関連情報を特定することを特徴とする請求項3又は4に記載の検索装置。
<請求項6>
前記特定手段は、
前記イベント情報を検索対象として検索する場合に、前記入力手段により前記検索条件としてイベント関連情報以外の他の情報が入力されると、当該他の情報と関連する画像情報を前記第1記録手段に記録されている画像情報の中から検索し、この検索された画像情報と対応付けられている撮像関連情報と関連するイベント関連情報を特定し、
前記検索手段は、更に、
前記第2記録手段に記録されているイベント情報の中で、前記入力手段により入力されたイベント関連情報或いは前記特定手段により特定されたイベント関連情報と対応付けられているイベント情報を検索することを特徴とする請求項3に記載の検索装置。
<請求項7>
前記検索手段は、更に、
前記イベント情報を検索対象とする検索条件として、前記入力手段により前記イベント関連情報が入力された場合には、前記第2記録手段に記録されているイベント情報の中で、前記入力手段により入力されたイベント関連情報と対応付けられているイベント情報を検索する一方で、前記入力手段により前記イベント関連情報以外の他の情報が入力された場合には、前記第2記録手段に記録されているイベント情報の中で、前記特定手段により特定されたイベント関連情報と対応付けられているイベント情報を検索することを特徴とする請求項6に記載の検索装置。
<請求項8>
前記特定手段は、更に、
前記入力手段により前記検索条件としてイベント関連情報以外の他の情報が入力された場合に、前記第1記録手段に記録されている画像情報の中から検索された画像情報と対応付けられている前記撮像位置情報及び前記撮像日時情報のうちの少なくとも一方の情報に基づいて、画像の撮像位置に関連するイベントの発生位置及び画像の撮像日時に関連するイベントの発生日時のうちの少なくとも一方を特定し、
前記検索手段は、更に、
前記特定手段により特定されたイベントの発生位置及びイベントの発生日時のうちの少なくとも一方と対応付けられているイベント情報を検索することを特徴とする請求項6又は7に記載の検索装置。
<請求項9>
前記特定手段は、更に、
前記イベント情報を検索対象として検索する場合に、前記入力手段により前記検索条件として画像情報を指定する指定情報が入力されると、当該指定情報で指定された画像情報と対応付けられている撮像関連情報と関連するイベント関連情報を特定することを特徴とする請求項6〜8の何れか一項に記載の検索装置。
<請求項10>
前記特定手段は、更に、
前記第1記録手段に記録されている画像情報の中から検索された、前記指定情報で指定された画像情報と対応付けられている前記撮像位置情報及び前記撮像日時情報のうちの少なくとも一方の情報に基づいて、画像の撮像位置に関連するイベントの発生位置及び画像の撮像日時に関連するイベントの発生日時のうちの少なくとも一方を特定し、
前記検索手段は、更に、
前記特定手段により特定されたイベントの発生位置及び発生日時のうちの少なくとも一方と対応付けられているイベント情報を検索することを特徴とする請求項9に記載の検索装置。
<請求項11>
前記特定手段は、更に、
前記イベント情報を検索対象として検索する場合に、前記入力手段により前記検索条件として前記イベント関連情報、画像情報を指定する指定情報及び前記撮像関連情報以外の情報が入力されると、当該情報と関連する被写体が含まれる画像情報を前記第1記録手段に記録されている画像情報の中から検索し、この検索された画像情報と対応付けられている前記撮像位置情報及び前記撮像日時情報のうちの少なくとも一方の情報に基づいて、画像の撮像位置に関連するイベントの発生位置及び画像の撮像日時に関連するイベントの発生日時のうちの少なくとも一方を特定し、
前記検索手段は、更に、
前記特定手段により特定されたイベントの発生位置及び発生日時のうちの少なくとも一方と対応付けられているイベント情報を検索することを特徴とする請求項6〜8の何れか一項に記載の検索装置。
<請求項12>
前記撮像関連情報は、前記撮像位置情報或いは前記撮像日時情報と比較してイベント関連情報との関連性が低く、画像の撮像に特有の撮像特有関連情報を含み、
前記特定手段は、更に、
前記イベント情報を検索対象とする前記検索条件として、前記入力手段により前記撮像特有関連情報が入力されると、前記第1記録手段に記録されている画像情報の中で、前記撮像特有関連情報と関連する画像情報を検索し、この検索された画像情報と対応付けられている撮像関連情報と関連するイベント関連情報を特定することを特徴とする請求項6〜11の何れか一項に記載の検索装置。
<請求項13>
前記イベントは、ユーザによる操作入力部の所定の実行指示操作に基づいて実行される動作に関連した操作イベントを含み、
前記第2記録手段は、更に、
前記操作イベントの発生に基づいて、当該操作イベントに関連するイベント関連情報を取得して記録することを特徴とする請求項1〜12の何れか一項に記載の検索装置。
<請求項14>
前記イベント関連情報は、前記操作イベントとしての通話の実行操作及び当該通話相手に関連するキーワード、前記操作イベントとしての通信の実行操作及び当該通信相手に関連するキーワード、前記操作イベントとしてのスケジュールの入力操作及び当該スケジュールの内容に含まれるキーワード、前記操作イベントとしての文書の入力操作及び当該文書に関連するキーワードのうち、少なくとも一のキーワードを含むことを特徴とする請求項13に記載の検索装置。
<請求項15>
前記イベントは、ユーザによる操作入力部の所定の実行指示操作を必要とすることなく実行される動作に関連した操作不要イベントを含み、
前記操作不要イベントが発生したか否かを判定する判定手段を更に備え、
前記第2記録手段は、更に、
前記判定手段により前記操作不要イベントが発生したと判定されると、当該操作不要イベントに関連するイベント関連情報を取得して記録することを特徴とする請求項1〜12の何れか一項に記載の検索装置。
<請求項16>
前記判定手段は、更に、
前記操作不要イベントが発生したか否かを、所定のタイミングで前記撮像手段により撮像された画像の画像情報から所定の種類の被写体が検出されたか否かに応じて判定し、
前記第2記録手段は、更に、
前記判定手段により前記操作不要イベントが発生したと判定されると、検出された被写体の種類を前記イベント関連情報として取得して記録することを特徴とする請求項15に記載の検索装置。
<請求項17>
前記判定手段は、更に、
前記操作不要イベントが発生したか否かを、所定のタイミングで集音手段により集音された音情報から特定の言葉が検出されたか否かに応じて判定し、
前記第2記録手段は、更に、
前記判定手段により前記操作不要イベントが発生したと判定されると、検出された特定の言葉を前記イベント関連情報として取得して記録することを特徴とする請求項15に記載の検索装置。
<請求項18>
前記判定手段は、更に、
前記操作不要イベントが発生したか否かを、所定のタイミングで測位手段により測位された当該装置本体の存する現在位置に基づいて特定の場所が検出されたか否かに応じて判定し、
前記第2記録手段は、更に、
前記判定手段により前記操作不要イベントが発生したと判定されると、検出された特定の場所に関連する名称を前記イベント関連情報として取得して記録することを特徴とする請求項15に記載の検索装置。
<請求項19>
前記判定手段は、更に、
前記操作不要イベントが発生したか否かを、動き検出手段により自動的に検出された動き情報に基づいて所定の種類の動きが検出されたか否かに応じて判定し、
前記第2記録手段は、更に、
前記判定手段により前記操作不要イベントが発生したと判定されると、検出された所定の動きの種類を前記イベント関連情報として取得して記録することを特徴とする請求項15に記載の検索装置。
<請求項20>
撮像手段により撮像された画像の画像情報を、当該画像の撮像に関連する撮像関連情報と対応付けて少なくとも一つ記録する第1記録手段と、前記撮像手段による画像の撮像指示タイミングとは非同期のタイミングで発生する当該画像の撮像以外のイベントに係るイベント情報を、当該イベントの発生に関連するイベント関連情報と対応付けて少なくとも一つ記録する第2記録手段と、を備える検索装置を用いた検索方法であって、
検索対象を検索するための検索条件を入力する処理と、
前記画像情報を検索対象として検索する場合に、前記検索条件として前記撮像関連情報以外の他の情報が入力されると、当該他の情報と関連するイベント情報を前記第2記録手段に記録されているイベント情報の中から検索し、この検索されたイベント情報と対応付けられているイベント関連情報と関連する撮像関連情報を特定する処理と、
前記第1記録手段に記録されている画像情報の中で、前記入力手段により入力された撮像関連情報或いは特定された撮像関連情報と対応付けられている画像情報を検索する処理と、
前記検索対象の検索結果を出力する処理と、
を含むことを特徴とする検索方法。
<請求項21>
撮像手段により撮像された画像の画像情報を、当該画像の撮像に関連する撮像関連情報と対応付けて少なくとも一つ記録する第1記録手段と、前記撮像手段による画像の撮像指示タイミングとは非同期のタイミングで発生する当該画像の撮像以外のイベントに係るイベント情報を、当該イベントの発生に関連するイベント関連情報と対応付けて少なくとも一つ記録する第2記録手段と、を備える検索装置のコンピュータを、
検索対象を検索するための検索条件を入力する入力手段、
前記画像情報を検索対象として検索する場合に、前記入力手段により前記検索条件として前記撮像関連情報以外の他の情報が入力されると、当該他の情報と関連するイベント情報を前記第2記録手段に記録されているイベント情報の中から検索し、この検索されたイベント情報と対応付けられているイベント関連情報と関連する撮像関連情報を特定する特定手段、
前記第1記録手段に記録されている画像情報の中で、前記入力手段により入力された撮像関連情報或いは前記特定手段により特定された撮像関連情報と対応付けられている画像情報を検索する検索手段、
この検索手段による前記検索対象の検索結果を出力する出力手段、
として機能させることを特徴とするプログラム。
[Appendix]
Although several embodiments of the present invention have been described, the scope of the present invention is not limited to the above-described embodiments, but includes the scope of the invention described in the claims and equivalents thereof.
The invention described in the scope of claims attached to the application of this application will be added below. The item numbers of the claims described in the appendix are as set forth in the claims attached to the application of this application.
<Claim 1>
First recording means for recording image information of an image captured by the imaging means in association with imaging-related information related to imaging of the image;
Recording at least one event information related to an event other than the image capturing of the image that occurs at a timing asynchronous with the imaging instruction timing of the image by the imaging unit in association with the event related information related to the occurrence of the event; Two recording means;
An input means for inputting a search condition for searching the search target;
When searching for the image information as a search target, if information other than the imaging related information is input as the search condition by the input unit, event information related to the other information is stored in the second recording unit. A means for searching for event-related information associated with the event-related information associated with the searched event information;
Search means for searching for image information associated with the imaging-related information input by the input means or the imaging-related information specified by the specifying means among the image information recorded in the first recording means When,
Output means for outputting a search result of the search object by the search means;
A search device comprising:
<Claim 2>
The search means further includes:
When the imaging related information is input by the input unit as a search condition for the image information as a search target, the input unit inputs the image information recorded in the first recording unit. When the image information associated with the imaging related information is searched and information other than the imaging related information is input by the input means, the image recorded in the first recording means 2. The search apparatus according to claim 1, wherein image information associated with the imaging related information specified by the specifying means is searched for in the information.
<Claim 3>
The imaging related information includes at least one information of imaging position information related to the imaging position of the image and imaging date information related to the imaging date and time of the image,
The event related information includes information on at least one of event position information on an event occurrence position and event date information on an occurrence date of the event,
The specifying means further includes:
The relationship between the event-related information and the imaging-related information is the approximation of the distance between the imaging position indicated by the imaging position information and the event occurrence position indicated by the event position information, or the imaging date / time information. The search device according to claim 2, wherein the image is identified based on a closeness related to a time between an imaging date and time indicated by the event and an event occurrence date and time indicated by the event date and time information.
<Claim 4>
The specifying means further includes:
When other information other than the imaging-related information is input as the search condition by the input unit, the information is associated with event information searched from event information recorded in the second recording unit. Based on at least one of the event position information and the event date / time information, specify at least one of an imaging position related to the event occurrence position and an imaging date / time related to the event occurrence date / time,
The search means further includes:
The search apparatus according to claim 3, wherein image information associated with at least one of an imaging position and an imaging date / time specified by the specifying unit is searched.
<Claim 5>
The event related information is low in relevance with the imaging related information compared to the event position information or the event date and time information, and includes event specific related information specific to an event other than imaging,
The specifying means further includes:
When the event-specific related information is input by the input unit as the search condition for the image information as a search target, event information related to the event-specific related information is recorded in the second recording unit The search device according to claim 3 or 4, wherein information is searched from information and imaging related information related to event related information associated with the searched event information is specified.
<Claim 6>
The specifying means is:
When searching for the event information as a search target, if information other than event related information is input as the search condition by the input means, image information related to the other information is stored in the first recording means. Search from the recorded image information, identify event related information related to imaging related information associated with the searched image information,
The search means further includes:
Searching the event information recorded in the second recording means for event related information input by the input means or event information associated with the event related information specified by the specifying means. The search device according to claim 3, wherein
<Claim 7>
The search means further includes:
When the event related information is input by the input unit as a search condition for the event information as a search target, the event information recorded in the second recording unit is input by the input unit. When the event information associated with the event related information is searched and information other than the event related information is input by the input means, the event recorded in the second recording means The search device according to claim 6, wherein event information associated with the event related information specified by the specifying means is searched for in the information.
<Claim 8>
The specifying means further includes:
When information other than event related information is input as the search condition by the input means, the image information associated with the image information searched from the image information recorded in the first recording means Based on at least one of the imaging position information and the imaging date and time information, at least one of the event occurrence position related to the image imaging position and the event occurrence date related to the image imaging date is specified. ,
The search means further includes:
The search device according to claim 6 or 7, wherein event information associated with at least one of an event occurrence position and an event occurrence date and time specified by the specifying means is searched.
<Claim 9>
The specifying means further includes:
When searching for the event information as a search target, if designation information for specifying image information is input as the search condition by the input means, an imaging-related item associated with the image information specified by the specification information The search device according to any one of claims 6 to 8, wherein event-related information related to information is specified.
<Claim 10>
The specifying means further includes:
Information of at least one of the imaging position information and the imaging date / time information associated with the image information designated by the designation information retrieved from the image information recorded in the first recording means And at least one of the event occurrence position related to the image capture position and the event occurrence date related to the image capture date and time,
The search means further includes:
The search apparatus according to claim 9, wherein event information associated with at least one of an event occurrence position and an occurrence date and time specified by the specifying unit is searched.
<Claim 11>
The specifying means further includes:
When searching for the event information as a search target, if information other than the event related information, designation information specifying image information and the imaging related information is input as the search condition by the input means, The image information including the subject to be searched is searched from the image information recorded in the first recording means, and the image capturing position information and the image capturing date / time information associated with the searched image information are searched for. Based on at least one of the information, specify at least one of an event occurrence position related to the image capturing position and an event occurrence date related to the image capturing date and time,
The search means further includes:
The search device according to any one of claims 6 to 8, wherein event information associated with at least one of an event occurrence position and an occurrence date and time specified by the specifying means is searched. .
<Claim 12>
The imaging-related information is less related to event-related information than the imaging position information or the imaging date / time information, and includes imaging-specific related information specific to imaging of an image,
The specifying means further includes:
As the search condition with the event information as a search target, when the imaging-specific related information is input by the input unit, the imaging-specific related information in the image information recorded in the first recording unit 12. The related image information is searched, and event related information related to imaging related information associated with the searched image information is specified. Search device.
<Claim 13>
The event includes an operation event related to an operation executed based on a predetermined execution instruction operation of the operation input unit by the user,
The second recording means further includes
The search device according to any one of claims 1 to 12, wherein event-related information related to the operation event is acquired and recorded based on the occurrence of the operation event.
<Claim 14>
The event related information includes a call execution operation as the operation event and a keyword related to the communication partner, a communication execution operation as the operation event and a keyword related to the communication partner, and a schedule input as the operation event. The search device according to claim 13, comprising at least one keyword among a keyword included in the contents of the operation and the schedule, a document input operation as the operation event, and a keyword related to the document.
<Claim 15>
The event includes an operation unnecessary event related to an operation executed without requiring a predetermined execution instruction operation of the operation input unit by the user,
A determination means for determining whether or not the operation unnecessary event has occurred;
The second recording means further includes
The event-related information related to the operation unnecessary event is acquired and recorded when the determination unit determines that the operation unnecessary event has occurred. Search device.
<Claim 16>
The determination means further includes:
It is determined whether or not the operation unnecessary event has occurred according to whether or not a predetermined type of subject is detected from image information of an image captured by the imaging unit at a predetermined timing,
The second recording means further includes
16. The search device according to claim 15, wherein when the determination unit determines that the operation unnecessary event has occurred, the type of the detected subject is acquired and recorded as the event related information.
<Claim 17>
The determination means further includes:
Whether or not the operation unnecessary event has occurred is determined according to whether or not a specific word is detected from the sound information collected by the sound collecting means at a predetermined timing,
The second recording means further includes
16. The search device according to claim 15, wherein when the determination unit determines that the operation unnecessary event has occurred, the detected specific word is acquired and recorded as the event related information.
<Claim 18>
The determination means further includes:
Whether or not the operation unnecessary event has occurred is determined according to whether or not a specific location is detected based on the current position of the device main body measured by the positioning means at a predetermined timing,
The second recording means further includes
The search according to claim 15, wherein when the determination unit determines that the operation unnecessary event has occurred, a name related to the detected specific place is acquired and recorded as the event related information. apparatus.
<Claim 19>
The determination means further includes:
Whether or not the operation unnecessary event has occurred is determined according to whether or not a predetermined type of motion is detected based on motion information automatically detected by the motion detection means,
The second recording means further includes
16. The search apparatus according to claim 15, wherein when the determination unit determines that the operation unnecessary event has occurred, the type of the detected predetermined movement is acquired and recorded as the event related information.
<Claim 20>
First recording means for recording image information of an image taken by the imaging means in association with imaging-related information related to imaging of the image, and imaging instruction timing of the image by the imaging means are asynchronous Search using a search device comprising: second recording means for recording at least one event information related to an event other than imaging of the image that occurs at the timing in association with event related information related to the occurrence of the event A method,
A process of entering search conditions for searching the search target;
When searching for the image information as a search target, if other information other than the imaging related information is input as the search condition, event information related to the other information is recorded in the second recording means. A process of searching for event-related information associated with the event-related information associated with the searched event information,
A process of searching for image information associated with the imaging-related information input by the input unit or the specified imaging-related information among the image information recorded in the first recording unit;
A process of outputting the search result of the search target;
The search method characterized by including.
<Claim 21>
First recording means for recording image information of an image taken by the imaging means in association with imaging-related information related to imaging of the image, and imaging instruction timing of the image by the imaging means are asynchronous A second recording unit that records at least one event information related to an event other than imaging of the image that occurs at a timing in association with event-related information related to the occurrence of the event;
An input means for inputting a search condition for searching a search target;
When searching for the image information as a search target, if information other than the imaging related information is input as the search condition by the input unit, event information related to the other information is stored in the second recording unit. A specifying means for searching from event information recorded in the event information and specifying imaging related information related to event related information associated with the searched event information;
Search means for searching for image information associated with the imaging-related information input by the input means or the imaging-related information specified by the specifying means among the image information recorded in the first recording means ,
Output means for outputting the search result of the search object by the search means;
A program characterized by functioning as

100 携帯端末
1 中央制御部
3 撮像部
6 操作入力部
7 送受話部
7a マイク
9 位置取得部
10 日時取得部
11 検出センサ部
11a 動き検出センサ
12 イベント取得制御部
12b 判定部
13 記録部
13a 画像記録部
13b イベント記録部
14 検索制御部
14a 特定部
14b 検索部
15 表示部
200 検索システム
300 撮像装置
400 携帯電話機
500 検索装置
DESCRIPTION OF SYMBOLS 100 Mobile terminal 1 Central control part 3 Imaging part 6 Operation input part 7 Transmission / reception part 7a Microphone 9 Position acquisition part 10 Date acquisition part 11 Detection sensor part 11a Motion detection sensor 12 Event acquisition control part 12b Determination part 13 Recording part 13a Image recording Unit 13b event recording unit 14 search control unit 14a specifying unit 14b search unit 15 display unit 200 search system 300 imaging device 400 mobile phone 500 search device

Claims (21)

撮像手段により撮像された画像の画像情報を、当該画像の撮像に関連する撮像関連情報と対応付けて少なくとも一つ記録する第1記録手段と、
前記撮像手段による画像の撮像指示タイミングとは非同期のタイミングで発生する当該画像の撮像以外のイベントに係るイベント情報を、当該イベントの発生に関連するイベント関連情報と対応付けて少なくとも一つ記録する第2記録手段と、
検索対象を検索するための検索条件を入力する入力手段と、
前記画像情報を検索対象として検索する場合に、前記入力手段により前記検索条件として前記撮像関連情報以外の他の情報が入力されると、当該他の情報と関連するイベント情報を前記第2記録手段に記録されているイベント情報の中から検索し、この検索されたイベント情報と対応付けられているイベント関連情報と関連する撮像関連情報を特定する特定手段と、
前記第1記録手段に記録されている画像情報の中で、前記入力手段により入力された撮像関連情報或いは前記特定手段により特定された撮像関連情報と対応付けられている画像情報を検索する検索手段と、
この検索手段による前記検索対象の検索結果を出力する出力手段と、
を備えることを特徴とする検索装置。
First recording means for recording image information of an image captured by the imaging means in association with imaging-related information related to imaging of the image;
Recording at least one event information related to an event other than the image capturing of the image that occurs at a timing asynchronous with the imaging instruction timing of the image by the imaging unit in association with the event related information related to the occurrence of the event; Two recording means;
An input means for inputting a search condition for searching the search target;
When searching for the image information as a search target, if information other than the imaging related information is input as the search condition by the input unit, event information related to the other information is stored in the second recording unit. A means for searching for event-related information associated with the event-related information associated with the searched event information;
Search means for searching for image information associated with the imaging-related information input by the input means or the imaging-related information specified by the specifying means among the image information recorded in the first recording means When,
Output means for outputting a search result of the search object by the search means;
A search device comprising:
前記検索手段は、更に、
前記画像情報を検索対象とする検索条件として、前記入力手段により前記撮像関連情報が入力された場合には、前記第1記録手段に記録されている画像情報の中で、前記入力手段により入力された撮像関連情報と対応付けられている画像情報を検索する一方で、前記入力手段により前記撮像関連情報以外の他の情報が入力された場合には、前記第1記録手段に記録されている画像情報の中で、前記特定手段により特定された撮像関連情報と対応付けられている画像情報を検索することを特徴とする請求項1に記載の検索装置。
The search means further includes:
When the imaging related information is input by the input unit as a search condition for the image information as a search target, the input unit inputs the image information recorded in the first recording unit. When the image information associated with the imaging related information is searched and information other than the imaging related information is input by the input means, the image recorded in the first recording means 2. The search apparatus according to claim 1, wherein image information associated with the imaging related information specified by the specifying means is searched for in the information.
前記撮像関連情報が少なくとも画像の撮像位置に関する撮像位置情報を含み、かつ、前記イベント関連情報が少なくともイベントの発生位置に関するイベント位置情報を含むか、或いは、前記撮像関連情報が少なくとも画像の撮像日時に関する撮像日時情報を含み、かつ、前記イベント関連情報が少なくともイベントの発生日時に関するイベント日時情報を含み、
前記特定手段は、更に、
前記イベント関連情報と前記撮像関連情報との関連性を、前記撮像位置情報で示される撮像位置と前記イベント位置情報で示されるイベントの発生位置との距離に係る近似性、或いは、前記撮像日時情報で示される撮像日時と前記イベント日時情報で示されるイベントの発生日時との時間に係る近似性に基づいて特定することを特徴とする請求項2に記載の検索装置。
The imaging related information includes at least imaging position information related to the imaging position of the image , and the event related information includes at least event position information related to the event occurrence position , or the imaging related information relates to at least the imaging date and time of the image. Including imaging date and time information, and the event related information includes at least event date and time information related to an event occurrence date and time,
The specifying means further includes:
The relationship between the event-related information and the imaging-related information is the approximation of the distance between the imaging position indicated by the imaging position information and the event occurrence position indicated by the event position information, or the imaging date / time information. The search device according to claim 2, wherein the image is identified based on a closeness related to a time between an imaging date and time indicated by the event and an event occurrence date and time indicated by the event date and time information.
前記特定手段は、更に、
前記入力手段により前記検索条件として前記撮像関連情報以外の他の情報が入力された場合に、前記第2記録手段に記録されているイベント情報の中から検索されたイベント情報と対応付けられている前記イベント位置情報及び前記イベント日時情報のうちの少なくとも一方の情報に基づいて、イベントの発生位置に関連する撮像位置及びイベントの発生日時に関連する撮像日時のうちの少なくとも一方を特定し、
前記検索手段は、更に、
前記特定手段により特定された撮像位置及び撮像日時のうちの少なくとも一方と対応付けられている画像情報を検索することを特徴とする請求項3に記載の検索装置。
The specifying means further includes:
When other information other than the imaging-related information is input as the search condition by the input unit, the information is associated with event information searched from event information recorded in the second recording unit. Based on at least one of the event position information and the event date / time information, specify at least one of an imaging position related to the event occurrence position and an imaging date / time related to the event occurrence date / time,
The search means further includes:
The search apparatus according to claim 3, wherein image information associated with at least one of an imaging position and an imaging date / time specified by the specifying unit is searched.
前記イベント関連情報は、前記イベント位置情報或いは前記イベント日時情報と比較して前記撮像関連情報との関連性が低く、撮像以外のイベントに特有のイベント特有関連情報を含み、
前記特定手段は、更に、
前記画像情報を検索対象とする前記検索条件として、前記入力手段により前記イベント特有関連情報が入力されると、当該イベント特有関連情報と関連するイベント情報を前記第2記録手段に記録されているイベント情報の中から検索し、この検索されたイベント情報と対応付けられているイベント関連情報と関連する撮像関連情報を特定することを特徴とする請求項3又は4に記載の検索装置。
The event related information is low in relevance with the imaging related information compared to the event position information or the event date and time information, and includes event specific related information specific to an event other than imaging,
The specifying means further includes:
When the event-specific related information is input by the input unit as the search condition for the image information as a search target, event information related to the event-specific related information is recorded in the second recording unit The search device according to claim 3 or 4, wherein information is searched from information and imaging related information related to event related information associated with the searched event information is specified.
前記特定手段は、
前記イベント情報を検索対象として検索する場合に、前記入力手段により前記検索条件としてイベント関連情報以外の他の情報が入力されると、当該他の情報と関連する画像情報を前記第1記録手段に記録されている画像情報の中から検索し、この検索された画像情報と対応付けられている撮像関連情報と関連するイベント関連情報を特定し、
前記検索手段は、更に、
前記第2記録手段に記録されているイベント情報の中で、前記入力手段により入力されたイベント関連情報或いは前記特定手段により特定されたイベント関連情報と対応付けられているイベント情報を検索することを特徴とする請求項3に記載の検索装置。
The specifying means is:
When searching for the event information as a search target, if information other than event related information is input as the search condition by the input means, image information related to the other information is stored in the first recording means. Search from the recorded image information, identify event related information related to imaging related information associated with the searched image information,
The search means further includes:
Searching the event information recorded in the second recording means for event related information input by the input means or event information associated with the event related information specified by the specifying means. The search device according to claim 3, wherein
前記検索手段は、更に、
前記イベント情報を検索対象とする検索条件として、前記入力手段により前記イベント関連情報が入力された場合には、前記第2記録手段に記録されているイベント情報の中で、前記入力手段により入力されたイベント関連情報と対応付けられているイベント情報を検索する一方で、前記入力手段により前記イベント関連情報以外の他の情報が入力された場合には、前記第2記録手段に記録されているイベント情報の中で、前記特定手段により特定されたイベント関連情報と対応付けられているイベント情報を検索することを特徴とする請求項6に記載の検索装置。
The search means further includes:
When the event related information is input by the input unit as a search condition for the event information as a search target, the event information recorded in the second recording unit is input by the input unit. When the event information associated with the event related information is searched and information other than the event related information is input by the input means, the event recorded in the second recording means The search device according to claim 6, wherein event information associated with the event related information specified by the specifying means is searched for in the information.
前記特定手段は、更に、
前記入力手段により前記検索条件としてイベント関連情報以外の他の情報が入力された場合に、前記第1記録手段に記録されている画像情報の中から検索された画像情報と対応付けられている前記撮像位置情報及び前記撮像日時情報のうちの少なくとも一方の情報に基づいて、画像の撮像位置に関連するイベントの発生位置及び画像の撮像日時に関連するイベントの発生日時のうちの少なくとも一方を特定し、
前記検索手段は、更に、
前記特定手段により特定されたイベントの発生位置及びイベントの発生日時のうちの少なくとも一方と対応付けられているイベント情報を検索することを特徴とする請求項6又は7に記載の検索装置。
The specifying means further includes:
When information other than event related information is input as the search condition by the input means, the image information associated with the image information searched from the image information recorded in the first recording means Based on at least one of the imaging position information and the imaging date and time information, at least one of the event occurrence position related to the image imaging position and the event occurrence date related to the image imaging date is specified. ,
The search means further includes:
The search device according to claim 6 or 7, wherein event information associated with at least one of an event occurrence position and an event occurrence date and time specified by the specifying means is searched.
前記特定手段は、更に、
前記イベント情報を検索対象として検索する場合に、前記入力手段により前記検索条件として画像情報を指定する指定情報が入力されると、当該指定情報で指定された画像情報と対応付けられている撮像関連情報と関連するイベント関連情報を特定することを特徴とする請求項6〜8の何れか一項に記載の検索装置。
The specifying means further includes:
When searching for the event information as a search target, if designation information for specifying image information is input as the search condition by the input means, an imaging-related item associated with the image information specified by the specification information The search device according to any one of claims 6 to 8, wherein event-related information related to information is specified.
前記特定手段は、更に、
前記第1記録手段に記録されている画像情報の中から検索された、前記指定情報で指定された画像情報と対応付けられている前記撮像位置情報及び前記撮像日時情報のうちの少なくとも一方の情報に基づいて、画像の撮像位置に関連するイベントの発生位置及び画像の撮像日時に関連するイベントの発生日時のうちの少なくとも一方を特定し、
前記検索手段は、更に、
前記特定手段により特定されたイベントの発生位置及び発生日時のうちの少なくとも一方と対応付けられているイベント情報を検索することを特徴とする請求項9に記載の検索装置。
The specifying means further includes:
Information of at least one of the imaging position information and the imaging date / time information associated with the image information designated by the designation information retrieved from the image information recorded in the first recording means And at least one of the event occurrence position related to the image capture position and the event occurrence date related to the image capture date and time,
The search means further includes:
The search apparatus according to claim 9, wherein event information associated with at least one of an event occurrence position and an occurrence date and time specified by the specifying unit is searched.
前記特定手段は、更に、
前記イベント情報を検索対象として検索する場合に、前記入力手段により前記検索条件として前記イベント関連情報、画像情報を指定する指定情報及び前記撮像関連情報以外の情報が入力されると、当該情報と関連する被写体が含まれる画像情報を前記第1記録手段に記録されている画像情報の中から検索し、この検索された画像情報と対応付けられている前記撮像位置情報及び前記撮像日時情報のうちの少なくとも一方の情報に基づいて、画像の撮像位置に関連するイベントの発生位置及び画像の撮像日時に関連するイベントの発生日時のうちの少なくとも一方を特定し、
前記検索手段は、更に、
前記特定手段により特定されたイベントの発生位置及び発生日時のうちの少なくとも一方と対応付けられているイベント情報を検索することを特徴とする請求項6〜8の何れか一項に記載の検索装置。
The specifying means further includes:
When searching for the event information as a search target, if information other than the event related information, designation information specifying image information and the imaging related information is input as the search condition by the input means, The image information including the subject to be searched is searched from the image information recorded in the first recording means, and the image capturing position information and the image capturing date / time information associated with the searched image information are searched for. Based on at least one of the information, specify at least one of an event occurrence position related to the image capturing position and an event occurrence date related to the image capturing date and time,
The search means further includes:
The search device according to any one of claims 6 to 8, wherein event information associated with at least one of an event occurrence position and an occurrence date and time specified by the specifying means is searched. .
前記撮像関連情報は、前記撮像位置情報或いは前記撮像日時情報と比較してイベント関連情報との関連性が低く、画像の撮像に特有の撮像特有関連情報を含み、
前記特定手段は、更に、
前記イベント情報を検索対象とする前記検索条件として、前記入力手段により前記撮像特有関連情報が入力されると、前記第1記録手段に記録されている画像情報の中で、前記撮像特有関連情報と関連する画像情報を検索し、この検索された画像情報と対応付けられている撮像関連情報と関連するイベント関連情報を特定することを特徴とする請求項6〜11の何れか一項に記載の検索装置。
The imaging-related information is less related to event-related information than the imaging position information or the imaging date / time information, and includes imaging-specific related information specific to imaging of an image,
The specifying means further includes:
As the search condition with the event information as a search target, when the imaging-specific related information is input by the input unit, the imaging-specific related information in the image information recorded in the first recording unit 12. The related image information is searched, and event related information related to imaging related information associated with the searched image information is specified. Search device.
前記イベントは、ユーザによる操作入力部の所定の実行指示操作に基づいて実行される動作に関連した操作イベントを含み、
前記第2記録手段は、更に、
前記操作イベントの発生に基づいて、当該操作イベントに関連するイベント関連情報を取得して記録することを特徴とする請求項1〜12の何れか一項に記載の検索装置。
The event includes an operation event related to an operation executed based on a predetermined execution instruction operation of the operation input unit by the user,
The second recording means further includes
The search device according to any one of claims 1 to 12, wherein event-related information related to the operation event is acquired and recorded based on the occurrence of the operation event.
前記イベント関連情報は、前記操作イベントとしての通話の実行操作及び当該通話相手に関連するキーワード、前記操作イベントとしての通信の実行操作及び当該通信相手に関連するキーワード、前記操作イベントとしてのスケジュールの入力操作及び当該スケジュールの内容に含まれるキーワード、前記操作イベントとしての文書の入力操作及び当該文書に関連するキーワードのうち、少なくとも一のキーワードを含むことを特徴とする請求項13に記載の検索装置。   The event related information includes a call execution operation as the operation event and a keyword related to the communication partner, a communication execution operation as the operation event and a keyword related to the communication partner, and a schedule input as the operation event. The search device according to claim 13, comprising at least one keyword among a keyword included in the contents of the operation and the schedule, a document input operation as the operation event, and a keyword related to the document. 前記イベントは、ユーザによる操作入力部の所定の実行指示操作を必要とすることなく実行される動作に関連した操作不要イベントを含み、
前記操作不要イベントが発生したか否かを判定する判定手段を更に備え、
前記第2記録手段は、更に、
前記判定手段により前記操作不要イベントが発生したと判定されると、当該操作不要イベントに関連するイベント関連情報を取得して記録することを特徴とする請求項1〜12の何れか一項に記載の検索装置。
The event includes an operation unnecessary event related to an operation executed without requiring a predetermined execution instruction operation of the operation input unit by the user,
A determination means for determining whether or not the operation unnecessary event has occurred;
The second recording means further includes
The event-related information related to the operation unnecessary event is acquired and recorded when the determination unit determines that the operation unnecessary event has occurred. Search device.
前記判定手段は、更に、
前記操作不要イベントが発生したか否かを、所定のタイミングで前記撮像手段により撮像された画像の画像情報から所定の種類の被写体が検出されたか否かに応じて判定し、
前記第2記録手段は、更に、
前記判定手段により前記操作不要イベントが発生したと判定されると、検出された被写体の種類を前記イベント関連情報として取得して記録することを特徴とする請求項15に記載の検索装置。
The determination means further includes:
It is determined whether or not the operation unnecessary event has occurred according to whether or not a predetermined type of subject is detected from image information of an image captured by the imaging unit at a predetermined timing,
The second recording means further includes
16. The search device according to claim 15, wherein when the determination unit determines that the operation unnecessary event has occurred, the type of the detected subject is acquired and recorded as the event related information.
前記判定手段は、更に、
前記操作不要イベントが発生したか否かを、所定のタイミングで集音手段により集音された音情報から特定の言葉が検出されたか否かに応じて判定し、
前記第2記録手段は、更に、
前記判定手段により前記操作不要イベントが発生したと判定されると、検出された特定の言葉を前記イベント関連情報として取得して記録することを特徴とする請求項15に記載の検索装置。
The determination means further includes:
Whether or not the operation unnecessary event has occurred is determined according to whether or not a specific word is detected from the sound information collected by the sound collecting means at a predetermined timing,
The second recording means further includes
16. The search device according to claim 15, wherein when the determination unit determines that the operation unnecessary event has occurred, the detected specific word is acquired and recorded as the event related information.
前記判定手段は、更に、
前記操作不要イベントが発生したか否かを、所定のタイミングで測位手段により測位された当該装置本体の存する現在位置に基づいて特定の場所が検出されたか否かに応じて判定し、
前記第2記録手段は、更に、
前記判定手段により前記操作不要イベントが発生したと判定されると、検出された特定の場所に関連する名称を前記イベント関連情報として取得して記録することを特徴とする請求項15に記載の検索装置。
The determination means further includes:
Whether or not the operation unnecessary event has occurred is determined according to whether or not a specific location is detected based on the current position of the device main body measured by the positioning means at a predetermined timing,
The second recording means further includes
The search according to claim 15, wherein when the determination unit determines that the operation unnecessary event has occurred, a name related to the detected specific place is acquired and recorded as the event related information. apparatus.
前記判定手段は、更に、
前記操作不要イベントが発生したか否かを、動き検出手段により自動的に検出された動き情報に基づいて所定の種類の動きが検出されたか否かに応じて判定し、
前記第2記録手段は、更に、
前記判定手段により前記操作不要イベントが発生したと判定されると、検出された所定の動きの種類を前記イベント関連情報として取得して記録することを特徴とする請求項15に記載の検索装置。
The determination means further includes:
Whether or not the operation unnecessary event has occurred is determined according to whether or not a predetermined type of motion is detected based on motion information automatically detected by the motion detection means,
The second recording means further includes
16. The search apparatus according to claim 15, wherein when the determination unit determines that the operation unnecessary event has occurred, the type of the detected predetermined movement is acquired and recorded as the event related information.
撮像手段により撮像された画像の画像情報を、当該画像の撮像に関連する撮像関連情報と対応付けて少なくとも一つ記録する第1記録手段と、前記撮像手段による画像の撮像指示タイミングとは非同期のタイミングで発生する当該画像の撮像以外のイベントに係るイベント情報を、当該イベントの発生に関連するイベント関連情報と対応付けて少なくとも一つ記録する第2記録手段と、を備える検索装置を用いた検索方法であって、
検索対象を検索するための検索条件を入力する処理と、
前記画像情報を検索対象として検索する場合に、前記検索条件として前記撮像関連情報以外の他の情報が入力されると、当該他の情報と関連するイベント情報を前記第2記録手段に記録されているイベント情報の中から検索し、この検索されたイベント情報と対応付けられているイベント関連情報と関連する撮像関連情報を特定する処理と、
前記第1記録手段に記録されている画像情報の中で、前記入力手段により入力された撮像関連情報或いは特定された撮像関連情報と対応付けられている画像情報を検索する処理と、
前記検索対象の検索結果を出力する処理と、
を含むことを特徴とする検索方法。
First recording means for recording image information of an image taken by the imaging means in association with imaging-related information related to imaging of the image, and imaging instruction timing of the image by the imaging means are asynchronous Search using a search device comprising: second recording means for recording at least one event information related to an event other than imaging of the image that occurs at the timing in association with event related information related to the occurrence of the event A method,
A process of entering search conditions for searching the search target;
When searching for the image information as a search target, if other information other than the imaging related information is input as the search condition, event information related to the other information is recorded in the second recording means. A process of searching for event-related information associated with the event-related information associated with the searched event information,
A process of searching for image information associated with the imaging-related information input by the input unit or the specified imaging-related information among the image information recorded in the first recording unit;
A process of outputting the search result of the search target;
The search method characterized by including.
撮像手段により撮像された画像の画像情報を、当該画像の撮像に関連する撮像関連情報と対応付けて少なくとも一つ記録する第1記録手段と、前記撮像手段による画像の撮像指示タイミングとは非同期のタイミングで発生する当該画像の撮像以外のイベントに係るイベント情報を、当該イベントの発生に関連するイベント関連情報と対応付けて少なくとも一つ記録する第2記録手段と、を備える検索装置のコンピュータを、
検索対象を検索するための検索条件を入力する入力手段、
前記画像情報を検索対象として検索する場合に、前記入力手段により前記検索条件として前記撮像関連情報以外の他の情報が入力されると、当該他の情報と関連するイベント情報を前記第2記録手段に記録されているイベント情報の中から検索し、この検索されたイベント情報と対応付けられているイベント関連情報と関連する撮像関連情報を特定する特定手段、
前記第1記録手段に記録されている画像情報の中で、前記入力手段により入力された撮像関連情報或いは前記特定手段により特定された撮像関連情報と対応付けられている画像情報を検索する検索手段、
この検索手段による前記検索対象の検索結果を出力する出力手段、
として機能させることを特徴とするプログラム。
First recording means for recording image information of an image taken by the imaging means in association with imaging-related information related to imaging of the image, and imaging instruction timing of the image by the imaging means are asynchronous A second recording unit that records at least one event information related to an event other than imaging of the image that occurs at a timing in association with event-related information related to the occurrence of the event;
An input means for inputting a search condition for searching a search target;
When searching for the image information as a search target, if information other than the imaging related information is input as the search condition by the input unit, event information related to the other information is stored in the second recording unit. A specifying means for searching from event information recorded in the event information and specifying imaging related information related to event related information associated with the searched event information;
Search means for searching for image information associated with the imaging-related information input by the input means or the imaging-related information specified by the specifying means among the image information recorded in the first recording means ,
Output means for outputting the search result of the search object by the search means;
A program characterized by functioning as
JP2011086910A 2011-04-11 2011-04-11 SEARCH DEVICE, SEARCH METHOD, AND PROGRAM Expired - Fee Related JP5754218B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011086910A JP5754218B2 (en) 2011-04-11 2011-04-11 SEARCH DEVICE, SEARCH METHOD, AND PROGRAM

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011086910A JP5754218B2 (en) 2011-04-11 2011-04-11 SEARCH DEVICE, SEARCH METHOD, AND PROGRAM

Publications (2)

Publication Number Publication Date
JP2012221265A JP2012221265A (en) 2012-11-12
JP5754218B2 true JP5754218B2 (en) 2015-07-29

Family

ID=47272681

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011086910A Expired - Fee Related JP5754218B2 (en) 2011-04-11 2011-04-11 SEARCH DEVICE, SEARCH METHOD, AND PROGRAM

Country Status (1)

Country Link
JP (1) JP5754218B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6234688B2 (en) * 2013-03-28 2017-11-22 日本電信電話株式会社 Event recording device
JP2021009564A (en) * 2019-07-01 2021-01-28 キヤノン株式会社 Information processing system, imaging device, information processing device and control method

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4283080B2 (en) * 2003-10-06 2009-06-24 株式会社メガチップス Image search system
JP2006338097A (en) * 2005-05-31 2006-12-14 Hitachi Ltd Photographic device and management center computer
JP2007164269A (en) * 2005-12-09 2007-06-28 Olympus Imaging Corp Retrieval device, retrieval/reproducing device, and image reproducing device
JP4270404B2 (en) * 2007-01-16 2009-06-03 ソニー・エリクソン・モバイルコミュニケーションズ株式会社 Portable terminal device, display control device, display control method, and display control program
JP4367663B2 (en) * 2007-04-10 2009-11-18 ソニー株式会社 Image processing apparatus, image processing method, and program
JP2010004173A (en) * 2008-06-18 2010-01-07 Fuji Xerox Co Ltd Sound image recorder, program, and sound image recording/reproducing system

Also Published As

Publication number Publication date
JP2012221265A (en) 2012-11-12

Similar Documents

Publication Publication Date Title
US8643729B2 (en) Image search device, image search method, and image search program
US9665597B2 (en) Method and system for processing images using time and location filters
JP5287465B2 (en) Imaging apparatus, shooting setting method and program thereof
JP6231387B2 (en) Server, client terminal, system, and recording medium
US20080133697A1 (en) Auto-blog from a mobile device
EP2169938A2 (en) Terminal device, connectable position information display method and program
US20080129835A1 (en) Method for processing image files using non-image applications
US20130201216A1 (en) Server, client terminal, system, and program
KR20060101245A (en) Time-shift image data distribution system, time-shift image data distribution method, time-shift image data requesting apparatus, and image data server
JP5045776B2 (en) Camera, camera control program, photographing method, and subject information transmission / reception system
US20120046042A1 (en) Apparatus and method for power control in geo-tagging in a mobile terminal
JP2013110569A (en) Image processing system, position information addition method and program
JP2008072228A (en) Camera, camera system, portable equipment, recording method of position information, and program
JP5754218B2 (en) SEARCH DEVICE, SEARCH METHOD, AND PROGRAM
JP2009225279A (en) Photographing system, server, and photographing method
JP5019228B2 (en) Image photographing apparatus and program
JP2010176287A (en) Portable equipment, method for controlling portable equipment, and program for controlling portable equipment
JP2006338553A (en) Content reproducing device
JP5924474B2 (en) Portable electronic device, its control method and program
JP5668025B2 (en) Mobile terminal device
JP2008165373A (en) Image processing method, image processor and image processing system
US20070284450A1 (en) Image handling
JP2010130039A (en) Information classifying system and information classifying method
JP2005236729A (en) Digital image storage system
JP2008011346A (en) Imaging system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140319

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140912

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20141007

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141203

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150428

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150511

R150 Certificate of patent or registration of utility model

Ref document number: 5754218

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees