[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP5185150B2 - Portable device and operation control method - Google Patents

Portable device and operation control method Download PDF

Info

Publication number
JP5185150B2
JP5185150B2 JP2009023869A JP2009023869A JP5185150B2 JP 5185150 B2 JP5185150 B2 JP 5185150B2 JP 2009023869 A JP2009023869 A JP 2009023869A JP 2009023869 A JP2009023869 A JP 2009023869A JP 5185150 B2 JP5185150 B2 JP 5185150B2
Authority
JP
Japan
Prior art keywords
display
image
locus
imaging
touch panel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2009023869A
Other languages
Japanese (ja)
Other versions
JP2010182023A (en
Inventor
孝志 中山
大介 四方
修司 野瀬
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2009023869A priority Critical patent/JP5185150B2/en
Publication of JP2010182023A publication Critical patent/JP2010182023A/en
Application granted granted Critical
Publication of JP5185150B2 publication Critical patent/JP5185150B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Indication In Cameras, And Counting Of Exposures (AREA)
  • Input From Keyboards Or The Like (AREA)
  • Position Input By Displaying (AREA)
  • Studio Devices (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、タッチパネルディスプレイを用いた携帯機器および操作制御方法に関し、特に、画像を表示した状態におけるタッチ入力の操作性が良い携帯機器および操作制御方法に関する。   The present invention relates to a portable device and an operation control method using a touch panel display, and more particularly to a portable device and an operation control method with good touch input operability in a state where an image is displayed.

近年、画像表示可能なタッチパネルディスプレイを備えた携帯機器が普及している。タッチパネルディスプレイは、一般に、表示を行うLCD(液晶ディスプレイ)などの表示デバイスと、透光性を有し、タッチ入力を検出するタッチセンサによって構成されている。以下では、表示デバイスを「ディスプレイ」といい、タッチセンサを「タッチパネル」という。   In recent years, portable devices equipped with touch panel displays capable of displaying images have become widespread. The touch panel display is generally composed of a display device such as an LCD (Liquid Crystal Display) that performs display, and a touch sensor that has translucency and detects touch input. Hereinafter, the display device is referred to as “display”, and the touch sensor is referred to as “touch panel”.

特許文献1には、タッチパネルディスプレイに画像を表示した状態で、フォーカスおよび測光をしたい所にタッチすると、タッチ位置を検出し、被写界の対応する場所にフォーカスを合わせて測光する構成が記載されている。   Patent Document 1 describes a configuration in which, when an image is displayed on a touch panel display, when a place where focus and metering are desired is touched, the touch position is detected and the focus is adjusted to a corresponding place in the object scene. ing.

特許文献2には、タッチパネルディスプレイに線分や三角形のような線画を指で描くと、その線画を認識し、対応するコマンドを実行する構成が記載されている。   Patent Document 2 describes a configuration in which when a line drawing such as a line segment or a triangle is drawn with a finger on a touch panel display, the line drawing is recognized and a corresponding command is executed.

特許文献3には、タッチパネルディスプレイに画像を表示した状態で、フォーカスおよび測光したい所にタッチすると、タッチ位置および押圧力を検出し、被写界の対応する場所にフォーカスを合わせて測光するとともに、強く押された場合には撮影動作を行う構成が記載されている。   In Patent Literature 3, when an image is displayed on a touch panel display and a place where focus and metering are desired is touched, the touch position and the pressing force are detected, the focus is adjusted to a corresponding place in the object field, and metering is performed. A configuration is described in which a shooting operation is performed when pressed strongly.

特許文献4には、個人毎にカスタマイズした画面を表示するディスプレイと、ディスプレイに表示された画面上で複数の電気機器を遠隔操作するために必要なコントロールデータを入力可能なタッチパネルとを有し、他の人に操作されたくない電気機器が操作されてしまうことを防止するようにした構成が記載されている。   Patent Document 4 has a display that displays a customized screen for each individual, and a touch panel that can input control data necessary for remotely operating a plurality of electrical devices on the screen displayed on the display. A configuration is described in which an electric device that is not operated by another person is prevented from being operated.

特許文献5には、マルチメディア再生装置の操作ボタンの配列をユーザが希望するようにカスタマイズし、個々のユーザ毎にタッチパネルディスプレイの操作を自分の好みに合わせて任意に設定できるようにした構成が記載されている。   Patent Document 5 has a configuration in which the operation button arrangement of the multimedia playback device is customized as desired by the user, and the operation of the touch panel display can be arbitrarily set for each user according to his / her preference. Have been described.

特許文献6には、メニューの選択により表示を切り換える構成において、タッチパネルを用いた指によるジェスチャーにより表示の切り換えを受け付ける構成が記載されている。   Patent Document 6 describes a configuration in which display switching is performed by a finger gesture using a touch panel in a configuration in which display is switched by menu selection.

特許文献7には、タッチパネルディスプレイの操作ボタンのカスタマイズをファームウエアの更新によって行う構成が記載されている。   Patent Document 7 describes a configuration in which operation buttons on a touch panel display are customized by updating firmware.

特許文献8には、指によるジェスチャーに割り付けられているコマンドを呼び出す構成が記載されている。   Patent Document 8 describes a configuration for calling a command assigned to a finger gesture.

特許文献9には、タッチパネルディスプレイに画像を表示した状態で、フォーカスしたい所にタッチすると、被写界の対応する物体にフォーカスを合わせる構成が記載されている。   Patent Document 9 describes a configuration in which, when an image is displayed on a touch panel display, when a place to be focused is touched, a corresponding object in the object scene is focused.

特許文献10には、画像から顔を検出し、顔領域内の画像データに基づいて、オートフォーカスや自動露光を行う構成が記載されている。   Patent Document 10 describes a configuration in which a face is detected from an image, and autofocus and automatic exposure are performed based on image data in the face area.

特許文献11には、画像から顔を検出したら、自動的にレリーズボタンを押す構成が記載されている。   Patent Document 11 describes a configuration in which a release button is automatically pressed when a face is detected from an image.

特許文献12には、タッチパネルディスプレイを備え、タッチされた箇所にAF(Auto focus)枠およびAE(Auto Exposure)領域の中心を移動させる構成が記載されている。   Patent Document 12 describes a configuration in which a touch panel display is provided and the center of an AF (Auto focus) frame and an AE (Auto Exposure) area is moved to a touched location.

特許文献13には、画像から顔を検出し、検出した顔の大きさに基づいて被写体距離を算出してオートフォーカスする構成が記載されている。   Patent Document 13 describes a configuration in which a face is detected from an image, subject distance is calculated based on the detected face size, and autofocus is performed.

特許文献14には、画像から顔を検出し、検出した顔位置を示す顔検出枠を画像とともにタッチパネルディスプレイに表示して、顔位置にタッチさせることでオートフォーカスする顔を選択させる構成が記載されている。   Patent Document 14 describes a configuration in which a face is detected from an image, a face detection frame indicating the detected face position is displayed on a touch panel display together with the image, and a face to be autofocused is selected by touching the face position. ing.

特開平6−70206号公報JP-A-6-70206 特開平11−85398号公報Japanese Patent Laid-Open No. 11-85398 特開平11−355617号公報JP-A-11-355617 特開2002−152863号公報JP 2002-152863 A 特開2004−172695号公報JP 2004-172695 A 特開2005−339420号公報JP 2005-339420 A 特開2006−293678号公報JP 2006-293678 A 特開2006−331210号公報JP 2006-331210 A 特開2004−48526号公報JP 2004-48526 A 特開2007−81732号公報JP 2007-81732 A 特開2003−92700号公報JP 2003-92700 A 特開2004−205885号公報Japanese Patent Laid-Open No. 2004-20585 特開2007−328212号公報JP 2007-328212 A 特開2008−85737号公報JP 2008-85737 A

しかし、タッチパネルディスプレイに画像を表示した状態におけるタッチ入力の操作性が良くないという課題がある。   However, there is a problem that the operability of touch input is not good when an image is displayed on the touch panel display.

画像を表示した状態でその画像に操作ボタンを合成して表示すると、その操作ボタンは、タッチパネルディスプレイの画面全体を観察したいユーザにとって画像観察の邪魔になる。また、いわゆるジェスチャーコマンドを採用することで操作ボタンを表示しないようにすることも考えられるが、操作ボタンが表示されないまま処理が実行されてしまうと、ユーザの意図に合わない処理が実行されてしまう誤動作の問題がある。例えば、カメラ付き携帯機器にて、スルー画像を表示した状態では、画面全体を観察したいユーザにとって、操作ボタンは邪魔である。最良の写真を撮影するためには、スルー画像の全体を見ながら、画角を決め、焦点、露出を合わせたい。しかし、ジェスチャーだけで、直ぐに撮影が実行されてしまうと、どうしても誤って撮影処理が起動される場合があり、その場合には取消処理などの余分な操作が必要になってくる。また、一旦、画角が決まり、所望の被写体に焦点や露光が合った状態では、シャッターチャンスを逃すことなく、好機に速やかに撮影したい。例えば、目的の人物の顔に焦点や露光が合った後、その人物の顔と背景とが好ましい状態になった瞬間を写真に残したい。   When an operation button is combined with the image in a state where the image is displayed, the operation button interferes with image observation for a user who wants to observe the entire screen of the touch panel display. In addition, it may be possible not to display the operation button by adopting a so-called gesture command, but if the process is executed without the operation button being displayed, a process that does not match the user's intention is executed. There is a problem of malfunction. For example, when a through image is displayed on a camera-equipped mobile device, the operation button is an obstacle for a user who wants to observe the entire screen. In order to take the best picture, we want to determine the angle of view and adjust the focus and exposure while looking through the entire through image. However, if shooting is performed immediately with a gesture, the shooting process may be erroneously started, and in such a case, an extra operation such as a cancellation process is required. In addition, once the angle of view is determined and the desired subject is in focus and exposure, it is desirable to quickly take a picture in an opportunity without missing a photo opportunity. For example, after focusing on the face of a target person and exposure, it is desirable to leave a photograph of the moment when the face and background of the person become favorable.

特許文献1〜14には、タッチパネルディスプレイに表示された画像全体を観察したいという要求と、意図した処理を確実に実行させたいという要求とを、両立させるという課題を解決することができる構成が記載されていない。   Patent Documents 1 to 14 describe a configuration that can solve the problem of reconciling the request for observing the entire image displayed on the touch panel display and the request for surely executing the intended processing. It has not been.

また、特許文献1、3、9記載の構成では、タッチすることでフォーカスおよび測光をさせることは可能だが、フォーカス・測光以外のモードや処理を指示可能にするためには、操作ボタンを予め表示させておく必要がある。   In the configurations described in Patent Documents 1, 3, and 9, it is possible to perform focus and metering by touching, but in order to be able to instruct modes and processing other than focus and metering, operation buttons are displayed in advance. It is necessary to keep it.

また、特許文献3記載の構成では、撮影指示の際に強くボタンを押すと、押圧によって手ブレを起こし易いという別の課題もある。   Further, in the configuration described in Patent Document 3, there is another problem that camera shake is likely to occur due to pressing when a button is strongly pressed during a shooting instruction.

特許文献2、6、8に記載の構成では、線画や軌跡を描くことで各種の処理を実行させることは可能だが、一般に、処理が実行されてはじめて、タッチ入力の認識結果が判るので、意図した処理を確実に実行させることが困難である。   In the configurations described in Patent Documents 2, 6, and 8, it is possible to execute various processes by drawing a line drawing or a trajectory. However, in general, the recognition result of touch input is known only after the process is executed. It is difficult to reliably execute the process.

特許文献4、5、7には、操作ボタンのカスタマイズが記載されているにすぎず、軌跡入力をカスタマイズすることについて記載がない。   Patent Documents 4, 5, and 7 only describe customization of operation buttons, and do not describe customization of a trajectory input.

特許文献10、13には、タッチパネルをどのように用いるかについて記載がない。   Patent Documents 10 and 13 do not describe how to use the touch panel.

特許文献11に記載の構成では、自動的に撮影が開始されるが、ユーザの意図に反して撮影が開始されてしまう場合がある。   In the configuration described in Patent Document 11, shooting is automatically started, but shooting may be started against the user's intention.

特許文献12には、操作ボタンの移動に関する記載がない。   Japanese Patent Application Laid-Open No. 2004-228561 does not describe the movement of the operation button.

特許文献14に記載の構成では、検出対象が顔に限定されている場合には、スルー画像の全体から複数の検出対象を容易に検出できるにしても、検出対象が顔に限定されない場合には、その検出対象の検出処理がどうしても複雑となり、処理時間を要してしまうという課題がある。   In the configuration described in Patent Document 14, when the detection target is limited to the face, a plurality of detection targets can be easily detected from the entire through image, but the detection target is not limited to the face. However, there is a problem that the detection process of the detection target is inevitably complicated and requires processing time.

本発明はこのような事情に鑑みてなされたもので、特に、タッチパネルディスプレイに画像を表示した状態におけるタッチ入力の操作性が良い携帯機器および操作制御方法を提供することを目的とする。   The present invention has been made in view of such circumstances, and in particular, an object of the present invention is to provide a portable device and an operation control method with good operability of touch input in a state where an image is displayed on a touch panel display.

前記目的を達成するために、本発明は、表示を行うディスプレイとタッチ入力を検出するタッチパネルとを有するタッチパネルディスプレイと、前記ディスプレイに画像を表示した状態で前記タッチパネルにタッチして描かれた軌跡を認識する認識手段と、認識された前記軌跡に対応する操作ボタンを前記ディスプレイに表示させる表示制御手段と、前記操作ボタンがタッチされたとき、該操作ボタンに対応する処理を実行する実行制御手段と、を備えたことを特徴とする携帯機器を提供する。   To achieve the above object, the present invention provides a touch panel display having a display for displaying and a touch panel for detecting touch input, and a locus drawn by touching the touch panel in a state where an image is displayed on the display. Recognizing recognition means, display control means for displaying an operation button corresponding to the recognized locus on the display, and execution control means for executing processing corresponding to the operation button when the operation button is touched. A portable device characterized by comprising:

これによれば、ディスプレイに画像を表示した状態でタッチパネルに軌跡が描かれると、その軌跡に対応した操作ボタンが表示されるので、軌跡を描く前には、ユーザの画像観察が操作ボタンで邪魔されることが無いようにすることができ、且つ、軌跡を描いたときには、ユーザは操作ボタンの表示を視認することで意図した処理が実行されるか否かを確実に把握することができる。また、操作ボタンが表示された状態では、ユーザは操作ボタンにタッチすることで意図した処理を迅速に実行させることができる。したがって、タッチパネルディスプレイに画像を表示した状態において、表示された画像全体を観察したいという要求と、意図した処理を確実に実行させたいという要求とを満たすことができるので、操作性が良い。   According to this, when a trajectory is drawn on the touch panel with an image displayed on the display, an operation button corresponding to the trajectory is displayed. Therefore, before the trajectory is drawn, the user's image observation is obstructed by the operation button. In addition, when the locus is drawn, the user can surely grasp whether or not the intended processing is executed by visually recognizing the display of the operation button. In the state where the operation button is displayed, the user can quickly execute the intended process by touching the operation button. Therefore, in a state where an image is displayed on the touch panel display, a request for observing the entire displayed image and a request for surely executing an intended process can be satisfied, and thus operability is good.

本発明の一態様では、被写体を撮像する撮像手段と、前記撮像手段により撮像して得られた撮像画像を記録媒体に記録する記録手段と、を備え、前記表示制御手段は、前記撮像手段から連続して出力されるスルー画像を前記ディスプレイに表示した状態で前記タッチパネルに特定の軌跡が描かれたとき、撮影指示を入力するためのレリーズボタンを前記ディスプレイに表示し、前記実行制御手段は、前記レリーズボタンがタッチされたとき、前記撮像手段により撮像を行い該撮像で得られた前記撮像画像を前記記録手段により前記記録媒体に記録することを特徴とする。   In one aspect of the present invention, the image processing apparatus includes: an imaging unit that captures an image of a subject; and a recording unit that records a captured image obtained by imaging with the imaging unit on a recording medium. When a specific trajectory is drawn on the touch panel in a state where a continuously output through image is displayed on the display, a release button for inputting a shooting instruction is displayed on the display, and the execution control unit includes: When the release button is touched, imaging is performed by the imaging unit, and the captured image obtained by the imaging is recorded on the recording medium by the recording unit.

本発明の一態様では、前記表示制御手段は、前記レリーズボタンを前記ディスプレイの端部に表示させることを特徴とする。   In one aspect of the present invention, the display control means displays the release button on an end portion of the display.

これによれば、携帯機器にて、一般にタッチパネルディスプレイの周辺が把持されるので、端部に表示された操作ボタンにタッチしても携帯機器の動きが小さく、いわゆる手ブレが防止されることになる。   According to this, since the periphery of the touch panel display is generally gripped by the mobile device, the movement of the mobile device is small even when the operation button displayed on the end is touched, and so-called camera shake is prevented. Become.

本発明の一態様では、前記認識手段は、前記タッチパネルにタッチして描かれた時計回りに囲む軌跡および反時計回りに囲む軌跡を識別し、前記表示制御手段は、前記時計回りに囲む軌跡の場合と前記反時計回りに囲む軌跡の場合とで、前記ディスプレイの端部のうちいずれの端部に前記レリーズボタンを表示させるかを切り替えることを特徴とする。   In one aspect of the present invention, the recognizing unit identifies a clockwise encircling locus and a counterclockwise encircling locus drawn by touching the touch panel, and the display control unit is configured to detect the clockwise encircling locus. It is characterized in that the release button is displayed on which of the end portions of the display, depending on the case and the case of the locus surrounding the counterclockwise direction.

これによれば、囲む軌跡の方向(時計回り/反時計回り)に基づいてレリーズボタンの表示位置を切り替えることにより、手ブレを更に小さくすること、操作性を更に向上させること等が可能となる。   According to this, it is possible to further reduce camera shake, further improve operability, and the like by switching the display position of the release button based on the direction of the surrounding locus (clockwise / counterclockwise). .

本発明の一態様では、前記認識手段は、前記タッチパネルにタッチして描かれた囲む軌跡を認識し、前記表示制御手段は、前記ディスプレイに前記スルー画像を表示した状態で前記認識手段により前記囲む軌跡が認識されたとき、前記スルー画像中の前記囲む軌跡により指定された領域の縮小画像を前記ディスプレイ上の前記レリーズボタン内に表示することを特徴とする。   In one aspect of the present invention, the recognition unit recognizes a surrounding locus drawn by touching the touch panel, and the display control unit surrounds the surrounding by the recognition unit in a state where the through image is displayed on the display. When a locus is recognized, a reduced image of an area designated by the surrounding locus in the through image is displayed in the release button on the display.

本発明の一態様では、前記撮像手段はフォーカスレンズを有し、前記認識手段は、前記タッチパネルにタッチして描かれた囲む軌跡を認識し、前記ディスプレイにスルー画像を表示した状態で前記認識手段により前記囲む軌跡が認識されたとき、前記スルー画像中の前記囲む軌跡により指定された被写界上の特定対象を検出する特定対象検出手段と、前記撮影レンズの前記フォーカスレンズを被写界上の前記特定対象に合焦させる合焦制御手段と、を備え、前記表示制御手段は、前記スルー画像中の前記特定対象の縮小画像を前記ディスプレイ上の前記レリーズボタン内に表示することを特徴とする。   In one aspect of the present invention, the imaging unit includes a focus lens, and the recognition unit recognizes a surrounding locus drawn by touching the touch panel and displays the through image on the display. When the surrounding trajectory is recognized by the above, the specific target detecting means for detecting the specific target on the object scene designated by the surrounding trajectory in the through image, and the focus lens of the photographing lens on the object scene Focusing control means for focusing on the specific target, wherein the display control means displays a reduced image of the specific target in the through image in the release button on the display. To do.

これによれば、ユーザは、意図した特定対象(主要被写体)が検出されていることや、焦点および露出が合わされていることを、的確に把握することができる。   According to this, the user can accurately grasp that the intended specific target (main subject) is detected and that the focus and exposure are adjusted.

本発明の一態様では、前記認識手段は、前記ディスプレイに前記操作ボタンが表示された状態で前記タッチパネル上の任意の位置がタッチされたとき、該タッチされた位置を前記操作ボタンの移動先と認識し、前記表示制御手段は、前記ディスプレイ上の前記操作ボタンの表示位置を前記移動先に変更することを特徴とする。   In one aspect of the present invention, when an arbitrary position on the touch panel is touched in a state where the operation button is displayed on the display, the recognition unit uses the touched position as a movement destination of the operation button. Recognizing, the display control means changes the display position of the operation button on the display to the movement destination.

これによれば、ユーザは操作ボタンを不快なき場所に自在に移動させることができる。   According to this, the user can freely move the operation button to an uncomfortable place.

本発明の一態様では、前記認識手段は、前記ディスプレイに前記操作ボタンが表示された状態で前記タッチパネル上で前記操作ボタンに触れたまま移動させる操作を認識したとき、前記操作ボタンが離された位置を前記操作ボタンの移動先と認識し、前記表示制御手段は、前記ディスプレイ上の前記ボタンの表示位置を前記移動先に変更することを特徴とする。   In one aspect of the present invention, when the recognizing unit recognizes an operation of moving while touching the operation button on the touch panel while the operation button is displayed on the display, the operation button is released. The position is recognized as a movement destination of the operation button, and the display control means changes the display position of the button on the display to the movement destination.

これによれば、ユーザは操作ボタンを不快なき場所に自在に移動させることができるとともに、画像と操作ボタンとの干渉をチェックしながら操作ボタンの配置を変更することができる。   According to this, the user can freely move the operation button to an uncomfortable place, and can change the arrangement of the operation button while checking the interference between the image and the operation button.

本発明の一態様では、前記タッチパネル上で自在に描かれた軌跡、および、該軌跡と前記実行制御手段により実行する処理との対応関係を登録する登録手段を備えたことを特徴とする。   One aspect of the present invention is characterized by comprising registration means for registering a locus freely drawn on the touch panel and a correspondence relationship between the locus and processing executed by the execution control means.

これによれば、ユーザが操作ボタンによらない自在な軌跡入力を登録することができるので、簡易的な操作が可能になる。   According to this, since the user can register a free trajectory input that does not depend on the operation buttons, a simple operation can be performed.

本発明の一態様では、前記表示制御手段は、前記撮像手段から連続して出力されるスルー画像が前記ディスプレイに表示された状態で前記タッチパネルに第1の軌跡が描かれたときには撮影指示を入力するためのレリーズボタンを前記ディスプレイに表示し、前記レリーズボタンがタッチされたときには、前記撮像画像を前記記録媒体に記録する画像記録処理の開始を示す画像記録表示を前記ディスプレイに表示させ、前記実行制御手段は、前記画像記録表示の表示中に、前記認識手段により前記第1の軌跡とは形状が異なる第2の軌跡が認識されたとき、前記記録媒体の前記撮像画像を記録状態から未記録状態に戻す。 In one aspect of the present invention, the display control unit inputs a shooting instruction when a first trajectory is drawn on the touch panel in a state where a through image continuously output from the imaging unit is displayed on the display. A release button for displaying the image is displayed on the display. When the release button is touched, an image recording display indicating the start of an image recording process for recording the captured image on the recording medium is displayed on the display, and the execution is performed. When the second track whose shape is different from the first track is recognized by the recognizing unit during display of the image recording display, the control unit unrecords the captured image of the recording medium from the recorded state. Return to the state.

これによれば、画像記録中止用の操作ボタンが無くても、操作で画像記録処理の中止を容易に指示できる。   According to this, even if there is no operation button for canceling image recording, it is possible to easily instruct to stop the image recording process by operation.

本発明の一態様では、前記表示制御手段は、前記認識手段により第1の軌跡が認識されたとき、記録媒体に記録された画像を記録された状態から未記録状態に変更する画像消去処理の開始を示す画像消去表示を前記ディスプレイに表示させ、前記実行制御手段は、前記認識手段により前記第1の軌跡が認識されたときには、前記記録媒体に記録された前記画像を記録状態から未記録状態に変更する前記画像消去処理を実行し、前記画像消去表示の表示中に、前記認識手段により前記第1の軌跡とは形状が異なる第2の軌跡が認識されたときには、前記記録媒体の前記画像を未記録状態から記録された状態に戻す。 In one aspect of the present invention, the display control means performs an image erasing process for changing an image recorded on a recording medium from a recorded state to an unrecorded state when the first locus is recognized by the recognition means. An image erasure display indicating the start is displayed on the display, and the execution control means, when the recognition means recognizes the first locus, the image recorded on the recording medium from the recorded state to the unrecorded state. The image erasing process is changed to, and when the second locus having a shape different from the first locus is recognized by the recognition means during the display of the image erasure display, the image of the recording medium is displayed. Is returned from the unrecorded state to the recorded state.

これによれば、画像消去中止用の操作ボタンが無くても、画像消去処理の中止を容易に指示できる。   According to this, even if there is no operation button for canceling image erasure, it is possible to easily instruct to cancel the image erasure processing.

また、本発明は、表示を行うディスプレイとタッチ入力を検出するタッチパネルとを有するタッチパネルディスプレイを用いた操作制御方法であって、前記ディスプレイに画像を表示した状態で前記タッチパネルにタッチして描かれた軌跡を認識するステップと、認識された前記軌跡に対応する操作ボタンを前記ディスプレイに表示させるステップと、前記操作ボタンがタッチされたとき、該操作ボタンに対応する処理を実行するステップと、を含むことを特徴とする操作制御方法を提供する。   Further, the present invention is an operation control method using a touch panel display having a display for displaying and a touch panel for detecting touch input, and is drawn by touching the touch panel in a state where an image is displayed on the display. Recognizing a locus, displaying an operation button corresponding to the recognized locus on the display, and executing a process corresponding to the operation button when the operation button is touched. An operation control method is provided.

本発明によれば、タッチパネルディスプレイに画像を表示した状態におけるタッチ入力の操作性を良くすることができる。   ADVANTAGE OF THE INVENTION According to this invention, the operativity of the touch input in the state which displayed the image on the touchscreen display can be improved.

本発明を適用したデジタルカメラの外観を示す正面図The front view which shows the external appearance of the digital camera to which this invention is applied 本発明を適用したデジタルカメラの外観を示す背面図The rear view which shows the external appearance of the digital camera to which this invention is applied 本発明を適用したデジタルカメラの内部構成例を示すブロック図The block diagram which shows the internal structural example of the digital camera to which this invention is applied 第1実施形態から第3実施形態までのCPUの要部機能構成例を示すブロック図The block diagram which shows the principal part function structural example of CPU from 1st Embodiment to 3rd Embodiment. 第1実施形態における撮影処理例の流れを示すフローチャートThe flowchart which shows the flow of the imaging | photography process example in 1st Embodiment. (A)は囲む軌跡の一例を示す説明図、(B)はレリーズボタン表示の一例を示す説明図(A) is explanatory drawing which shows an example of the locus | trajectory which surrounds, (B) is explanatory drawing which shows an example of a release button display. (A)は囲む軌跡の一例を示す説明図、(B)はレリーズボタン表示の他の例を示す説明図(A) is explanatory drawing which shows an example of the locus | trajectory which surrounds, (B) is explanatory drawing which shows the other example of a release button display. (A)はひとつの特定対象を囲む軌跡の一例を示す説明図、(B)はひとつの特定対象を囲む軌跡に対応するレリーズボタンの表示例を示す説明図、(C)は複数の特定対象を囲む軌跡の一例を示す説明図、(D)は複数の特定対象を囲む軌跡に対応するレリーズボタンの表示例を示す説明図(A) is explanatory drawing which shows an example of the locus | trajectory surrounding one specific object, (B) is explanatory drawing which shows the example of a display of the release button corresponding to the locus | trajectory surrounding one specific object, (C) is a some specific object. Explanatory drawing which shows an example of the locus | trajectory which surrounds, (D) is explanatory drawing which shows the example of a display of the release button corresponding to the locus | trajectory surrounding a some specific object (A)、(B)および(C)は各種の囲む軌跡を示す説明図(A), (B) and (C) are explanatory drawings showing various enclosing trajectories. (A)は囲む軌跡内に特定対象画像が完全に入っている場合の説明に用いる説明図、(B)は囲む軌跡内から特定対象画像がはみ出している場合の説明に用いる説明図(A) is explanatory drawing used for description when the specific target image is completely within the surrounding trajectory, and (B) is explanatory drawing used for description when the specific target image is protruding from the surrounding trajectory. (A)は囲む軌跡の一例を示す説明図、(B)はレリーズボタン内に特定対象の縮小画像を表示した場合の説明に用いる説明図(A) is explanatory drawing which shows an example of the locus | trajectory which surrounds, (B) is explanatory drawing used for description at the time of displaying the reduction | decrease image of a specific object in a release button. (A)は時計回りに囲む軌跡の一例を示す説明図、(B)は反時計回りに囲む軌跡の一例を示す説明図、(C)は囲む軌跡に対応するレリーズボタンの表示例を示す説明図、(D)は囲む軌跡に対応するレリーズボタンの他の表示例を示す説明図(A) is explanatory drawing which shows an example of the locus | trajectory enclosed clockwise, (B) is explanatory drawing which shows an example of the locus | trajectory enclosed counterclockwise, (C) is the description which shows the example of a display of the release button corresponding to the surrounding locus | trajectory. FIG. 4D is an explanatory diagram showing another display example of the release button corresponding to the surrounding locus. 第2実施形態における操作ボタン移動処理例の流れを示すフローチャートThe flowchart which shows the flow of the example of an operation button movement process in 2nd Embodiment. (A)は操作ボタン選択の説明に用いる説明図、(B)は操作ボタンの点滅表示状態を示す説明図、(C)は操作ボタンの移動先指定の説明に用いる説明図、(D)は移動先確定後の表示状態を示す説明図(A) is explanatory drawing used for description of operation button selection, (B) is explanatory drawing which shows the blinking display state of an operation button, (C) is explanatory drawing used for description of the movement destination designation | designated of an operation button, (D) is shown. Explanatory drawing showing the display state after the destination is confirmed 第3実施形態における操作ボタン移動処理例の流れを示すフローチャートThe flowchart which shows the flow of the example of an operation button movement process in 3rd Embodiment. (A)は操作ボタンのドラッグの説明に用いる説明図、(B)は操作ボタンのドロップの説明に用いる説明図(A) is explanatory drawing used for description of operation button drag, (B) is explanatory drawing used for description of operation button drop. 第4実施形態のCPUの要部機能構成例を示すブロック図The block diagram which shows the principal part function structural example of CPU of 4th Embodiment. 第4実施形態におけるタッチ入力登録処理例の流れを示すフローチャートThe flowchart which shows the flow of the touch input registration process example in 4th Embodiment. ズーム動作選択のタッチ入力例を示す説明図Explanatory drawing showing an example of touch input for zoom operation selection (A)は画像消去指示前の表示状態を示す説明図、(B)は画像消去指示のタッチ入力例を示す説明図、(C)は画像消去表示の一例を示す説明図(A) is an explanatory view showing a display state before an image erasure instruction, (B) is an explanatory view showing an example of touch input of the image erasure instruction, and (C) is an explanatory view showing an example of an image erasure display. (A)は画像消去表示の一例を示す説明図、(B)は画像消去中止指示のタッチ入力例を示す説明図、(C)は画像消去指示前へ復帰した表示状態を示す説明図(A) is an explanatory view showing an example of an image erasure display, (B) is an explanatory view showing an example of touch input of an image erasure stop instruction, and (C) is an explanatory view showing a display state returned to before the image erasure instruction.

以下、添付図面に従って、本発明の実施形態について、詳細に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.

図1は、本発明を適用したデジタルカメラ100の外観を示す正面図である。図2は、図1のデジタルカメラ100の外観を示す背面図である。   FIG. 1 is a front view showing an appearance of a digital camera 100 to which the present invention is applied. FIG. 2 is a rear view showing an appearance of the digital camera 100 of FIG.

図1に示すように、カメラボディ70の正面には、撮影レンズ24、フラッシュ60、レリーズスイッチ71等が設けられている。また、図2に示すように、カメラボディ70の背面には、タッチパネルディスプレイ47等が設けられている。   As shown in FIG. 1, a photographing lens 24, a flash 60, a release switch 71 and the like are provided on the front surface of the camera body 70. In addition, as shown in FIG. 2, a touch panel display 47 and the like are provided on the back surface of the camera body 70.

本例の撮影レンズ24は、沈胴式であり、後述するズームレンズ(図3の24z)を含んで構成されている。この撮影レンズ24は、デジタルカメラ100の電源をオンすると、カメラボディ70から繰り出される。なお、撮影レンズにおける沈胴機構は公知技術なので、ここでは具体的な構成についての説明を省略する。   The photographing lens 24 of this example is a retractable type, and includes a zoom lens (24z in FIG. 3) described later. The taking lens 24 is extended from the camera body 70 when the power of the digital camera 100 is turned on. In addition, since the retracting mechanism in the photographic lens is a known technique, a description of a specific configuration is omitted here.

フラッシュ60は、被写界に撮影用の光を照射する。本例のフラッシュ60は、キセノン管で構成されており、暗い被写体を撮影する場合や逆光時などに必要に応じて発光される。   The flash 60 irradiates the object scene with light for photographing. The flash 60 of this example is composed of a xenon tube, and emits light as necessary when photographing a dark subject or when backlit.

レリーズスイッチ71は、いわゆる「半押し」と「全押し」とが可能な二段ストローク式のハードウェアスイッチで構成されている。レリーズスイッチ71を半押しすると撮影準備処理、すなわち、AE(Automatic Exposure:自動露出)、AF(Auto Focus:自動焦点合わせ)、AWB(Automatic White Balance:自動ホワイトバランス)の各処理を行い、全押しすると、撮像画像の記録処理を行う。   The release switch 71 is a two-stage stroke type hardware switch capable of so-called “half-pressing” and “full-pressing”. When the release switch 71 is pressed halfway, shooting preparation processing is performed, that is, AE (Automatic Exposure), AF (Auto Focus), AWB (Automatic White Balance) processing is performed, and then fully pressed. Then, a captured image recording process is performed.

タッチパネルディスプレイ47は、表示およびタッチ入力が可能なデバイスである。このタッチパネルディスプレイ47については、後に詳説する。   The touch panel display 47 is a device capable of display and touch input. The touch panel display 47 will be described in detail later.

なお、正面図および背面図のみ示し上面図、側面図および底面図を省略したが、電源オンおよび電源オフを指示入力する電源スイッチ、撮影モードおよび再生モードの切り換えを指示入力するモード切替スイッチ、メニュー表示を指示入力するメニュースイッチ等のハードウェアスイッチが、カメラボディ70の上面等に設けられている。   Although only the front view and the rear view are shown, the top view, the side view, and the bottom view are omitted, the power switch for inputting the power-on and power-off instructions, the mode selector switch for inputting the instructions for switching between the shooting mode and the playback mode, the menu A hardware switch such as a menu switch for instructing display input is provided on the upper surface of the camera body 70 or the like.

図3は、図1および図2に示したデジタルカメラ100の内部構成例を示すブロック図である。   FIG. 3 is a block diagram illustrating an internal configuration example of the digital camera 100 illustrated in FIGS. 1 and 2.

図3において、デジタルカメラ100は、画像を電子的に記録するデジタルカメラであり、CPU(中央処理装置)10、操作部12、ROM14、SDRAM16、VRAM18、EEPROM20、撮影レンズ24、撮像素子30、タイミングジェネレータ32、アナログ信号処理部34、A/Dコンバータ36、画像入力コントローラ38、画像信号処理部40、圧縮/伸張処理部42、メディアコントローラ44、メモリカード46、タッチパネルディスプレイ47(ディスプレイ48およびタッチパネル49)、ディスプレイドライバ50、タッチパネルドライバ51、AE検出部52、AF検出部54、フラッシュ制御部58、フラッシュ60、電源制御部62、バッテリ64等を備えて構成されている。   In FIG. 3, a digital camera 100 is a digital camera that electronically records an image, and includes a CPU (central processing unit) 10, an operation unit 12, a ROM 14, an SDRAM 16, a VRAM 18, an EEPROM 20, a photographing lens 24, an image sensor 30, a timing. Generator 32, analog signal processing unit 34, A / D converter 36, image input controller 38, image signal processing unit 40, compression / decompression processing unit 42, media controller 44, memory card 46, touch panel display 47 (display 48 and touch panel 49 ), A display driver 50, a touch panel driver 51, an AE detector 52, an AF detector 54, a flash controller 58, a flash 60, a power controller 62, a battery 64, and the like.

CPU10は、デジタルカメラ100の全体の動作を統括制御する制御手段として機能し、操作部12およびタッチパネル49からの入力に基づきプログラムに従ってデジタルカメラ100の各部を制御する。また、CPU10は、デジタルカメラ100の制御に必要な各種制御値を算出するための演算処理手段として機能し、プログラムに従って各種演算処理を実行する。デジタルカメラ100の各部は、バス22を介してCPU10と接続されている。   The CPU 10 functions as a control unit that performs overall control of the entire operation of the digital camera 100, and controls each unit of the digital camera 100 according to a program based on inputs from the operation unit 12 and the touch panel 49. Further, the CPU 10 functions as an arithmetic processing unit for calculating various control values necessary for controlling the digital camera 100, and executes various arithmetic processes according to a program. Each unit of the digital camera 100 is connected to the CPU 10 via the bus 22.

ROM14には、このCPU10が実行するプログラム及び制御に必要な各種データ等が格納されている。SDRAM16は、CPU10の作業用領域として利用されるとともに、画像データの一時記憶領域として利用される。VRAM18は、表示用の画像データ専用の一時記憶領域として利用される。また、EEPROM20には、ユーザ固有の各種設定情報等が格納される。   The ROM 14 stores programs executed by the CPU 10 and various data necessary for control. The SDRAM 16 is used as a work area for the CPU 10 and also as a temporary storage area for image data. The VRAM 18 is used as a temporary storage area dedicated to display image data. The EEPROM 20 stores various setting information unique to the user.

操作部12は、レリーズスイッチ、電源スイッチ、モード切替スイッチ、メニュースイッチ等の各種のハードウェアスイッチで構成され、これらハードウェアスイッチの操作に応じた信号をCPU10に出力する。デジタルカメラ100は、画像を撮影する撮影機能に加えて、撮影した画像を再生する再生機能を備えており、この撮影と再生のモードの切り替えが、図示を省略したモード切替スイッチによって行われる。   The operation unit 12 includes various hardware switches such as a release switch, a power switch, a mode switch, and a menu switch, and outputs a signal corresponding to the operation of these hardware switches to the CPU 10. The digital camera 100 has a reproduction function for reproducing a photographed image in addition to a photographing function for photographing an image, and switching between the photographing and reproduction modes is performed by a mode changeover switch (not shown).

撮影レンズ24は、ズームを行うズームレンズ24zと、焦点合わせを行うフォーカスレンズ24fと、光量調節を行う絞り24iを含んで構成される。   The photographing lens 24 includes a zoom lens 24z that performs zooming, a focus lens 24f that performs focusing, and a diaphragm 24i that performs light amount adjustment.

ズームレンズ24zは、ズームモータ26zにより駆動されて、光軸上を前後移動する。これにより、撮像素子30の受光面上に結像される被写体像が光学的に変倍される。CPU10は、ズームモータドライバ28zを介してズームモータ26zの駆動を制御することにより、ズームレンズ24zの移動を制御し、ズームを制御する。   The zoom lens 24z is driven by a zoom motor 26z and moves back and forth on the optical axis. Thereby, the subject image formed on the light receiving surface of the image sensor 30 is optically scaled. The CPU 10 controls the movement of the zoom lens 24z and the zoom by controlling the driving of the zoom motor 26z via the zoom motor driver 28z.

フォーカスレンズ24fは、フォーカスモータ26fにより駆動されて、光軸上を前後移動する。これにより、焦点合わせが行われる。CPU10は、フォーカスモータドライバ28fを介してフォーカスモータ26fの駆動を制御することにより、フォーカスレンズ24fの移動を制御し、焦点合わせを行う。   The focus lens 24f is driven by the focus motor 26f and moves back and forth on the optical axis. Thereby, focusing is performed. The CPU 10 controls the movement of the focus lens 24f by controlling the drive of the focus motor 26f via the focus motor driver 28f, and performs focusing.

絞り24iは、例えば、アイリス絞りで構成され、アイリスモータ26iにより駆動されて、その開口量(絞り値)が変化する。CPU10は、アイリスモータドライバ28iを介してアイリスモータ26iの駆動を制御することにより、絞り24iの開口量を制御し、撮像素子30の受光面に入射する被写体光の光量を制御する。   The diaphragm 24i is constituted by, for example, an iris diaphragm, and is driven by an iris motor 26i to change its opening amount (aperture value). The CPU 10 controls the opening amount of the diaphragm 24i by controlling the driving of the iris motor 26i via the iris motor driver 28i, and controls the amount of subject light incident on the light receiving surface of the image sensor 30.

撮像素子30は、RGBのカラーフィルタ配列を有するカラーCCDで構成されており、タイミングジェネレータ(TG)32により駆動されて動作する。すなわち、タイミングジェネレータ32から与えられる駆動パルスによって、各画素(フォトセンサ)に蓄積された信号電荷を読み出し、RGBの画像信号として出力する。CPU10は、このタイミングジェネレータ32の駆動を制御することにより、撮像素子30の電荷蓄積時間(シャッタスピード)、画像信号の読み出しを制御する。   The image sensor 30 is composed of a color CCD having an RGB color filter array, and is driven by a timing generator (TG) 32 to operate. That is, the signal charge accumulated in each pixel (photosensor) is read out by the drive pulse supplied from the timing generator 32 and output as an RGB image signal. The CPU 10 controls the driving of the timing generator 32 to control the charge accumulation time (shutter speed) of the image sensor 30 and the reading of the image signal.

アナログ信号処理部34は、撮像素子30から出力されたアナログの画像信号に対して相関二重サンプリング処理を行い、増幅して出力する。   The analog signal processing unit 34 performs correlated double sampling processing on the analog image signal output from the image sensor 30, and amplifies and outputs it.

A/Dコンバータ36は、アナログ信号処理部34から出力されたアナログの画像信号をデジタルの画像信号に変換して出力する。   The A / D converter 36 converts the analog image signal output from the analog signal processing unit 34 into a digital image signal and outputs the digital image signal.

画像入力コントローラ38は、所定容量のラインバッファを内蔵しており、CPU10の制御の下、A/Dコンバータ36から出力された1コマ分の画像信号を取り込んで、SDRAM16に格納する。   The image input controller 38 has a built-in line buffer having a predetermined capacity. Under the control of the CPU 10, the image input controller 38 captures an image signal for one frame output from the A / D converter 36 and stores it in the SDRAM 16.

画像信号処理部40は、CPU10による制御の下、SDRAM16に格納された画像信号を取り込み、所要の信号処理を施して、輝度信号(Y)と色差信号(Cr,Cb)とからなる画像信号(Y/C信号)を生成して、VRAM18に書き込む。   The image signal processing unit 40 takes in an image signal stored in the SDRAM 16 under the control of the CPU 10 and performs a required signal processing to obtain an image signal (Y) and a color signal (Cr, Cb). Y / C signal) is generated and written to the VRAM 18.

圧縮/伸張処理部42は、CPU10による制御の下、画像信号(Y/C信号)を取り込み、所定の圧縮処理を施して、圧縮画像データ(例えば、JPEG)を生成する。また、CPU10による制御の下、圧縮画像データを取り込み、所定の伸張処理を施して、非圧縮の画像信号(Y/C信号)を生成する。   The compression / decompression processing unit 42 takes in an image signal (Y / C signal) under the control of the CPU 10 and performs predetermined compression processing to generate compressed image data (for example, JPEG). Further, under the control of the CPU 10, the compressed image data is captured and subjected to a predetermined expansion process to generate an uncompressed image signal (Y / C signal).

メディアコントローラ44は、CPU10による制御の下、メモリカード46にデータを読み/書きする。例えば、CPU10からの記録指示に応じて、撮影により得られた画像データをメモリカード46に記録する。また、CPU10からの読み出し指示に応じて、メモリカード46から該当する画像データを読み出す。メモリカード46は、撮影装置本体に設けられたカードスロットに着脱自在に装填される。   The media controller 44 reads / writes data to / from the memory card 46 under the control of the CPU 10. For example, in response to a recording instruction from the CPU 10, image data obtained by photographing is recorded on the memory card 46. Also, corresponding image data is read from the memory card 46 in response to a read instruction from the CPU 10. The memory card 46 is detachably loaded in a card slot provided in the photographing apparatus main body.

タッチパネルディスプレイ47は、表示を行うディスプレイ48と、透光性を有し、タッチ入力を検出するタッチパネル49によって、構成されている。ディスプレイ48は、「表示デバイス」ということもある。また、タッチパネル49は、「タッチセンサ」ということもある。   The touch panel display 47 includes a display 48 that performs display and a touch panel 49 that has translucency and detects touch input. The display 48 may be referred to as a “display device”. The touch panel 49 may also be referred to as a “touch sensor”.

ディスプレイ48としては、公知の各種の表示デバイスを用いることができるが、携帯機器用としては、一般に、LCD(液晶表示デバイス)、有機EL(エレクトロルミネッセンス)表示デバイスなど、薄型の表示デバイスが用いられる。このディスプレイ48は、再生モード時には記録済み画像の再生表示部として使用されるほか、撮影モード時には撮像素子30で生成されて画像入力コントローラ38によりSDRAM16に取り込んだ画像を、時系列に連続したスルー画像として表示する。   Various known display devices can be used as the display 48, but generally thin display devices such as LCD (liquid crystal display device) and organic EL (electroluminescence) display devices are used for portable devices. . The display 48 is used as a playback display unit for recorded images in the playback mode, and in the shooting mode, images generated by the image sensor 30 and taken into the SDRAM 16 by the image input controller 38 are time-sequential through images. Display as.

タッチパネル49としては、公知の各種のタッチセンサを用いることができるが、携帯機器用としては、指と導電膜との間で発生する静電容量の変化を検出する静電容量方式のタッチセンサ、複数枚の抵抗膜を用いて電圧を検知する抵抗膜方式のタッチセンサなど、薄型のタッチセンサを用いる。また、指やペンでタッチして描いた軌跡を認識するため、多点検出のタッチセンサが好ましい。   Various known touch sensors can be used as the touch panel 49, but for a portable device, a capacitive touch sensor that detects a change in capacitance generated between a finger and a conductive film, A thin touch sensor such as a resistive film type touch sensor that detects a voltage using a plurality of resistive films is used. A multipoint detection touch sensor is preferable in order to recognize a locus drawn by touching with a finger or a pen.

ディスプレイドライバ50は、CPU10による制御の下、ディスプレイ48の表示を制御する。本例では、画像信号(Y/C信号)をVRAM18から取り込み、表示用の信号形式に変換して、ディスプレイ48に出力する。   The display driver 50 controls display on the display 48 under the control of the CPU 10. In this example, an image signal (Y / C signal) is taken from the VRAM 18, converted into a display signal format, and output to the display 48.

タッチパネルドライバ51は、CPU10による制御の下、タッチパネル49のタッチ入力検出を制御する。本例では、タッチパネル49上で指やペンでタッチされた位置を示す位置情報を時系列でSDRAM16に格納する。   The touch panel driver 51 controls touch input detection of the touch panel 49 under the control of the CPU 10. In this example, position information indicating a position touched with a finger or a pen on the touch panel 49 is stored in the SDRAM 16 in time series.

また、デジタルカメラ100の各種設定は、タッチパネルディスプレイ47を用いて行われる。図示を省略したメニュースイッチが押下されると、デジタルカメラ100の各種設定を行うための設定画面がディスプレイ48に表示される。タッチパネル49上に特定の軌跡を描いた時に設定画面を表示させてもよい。ユーザは、このディスプレイ48の画面表示に従い、タッチパネル49からデジタルカメラ100の各種設定を行う。   Various settings of the digital camera 100 are performed using the touch panel display 47. When a menu switch (not shown) is pressed, a setting screen for performing various settings of the digital camera 100 is displayed on the display 48. The setting screen may be displayed when a specific locus is drawn on the touch panel 49. The user performs various settings of the digital camera 100 from the touch panel 49 in accordance with the screen display on the display 48.

AE検出部52は、CPU10による制御の下、SDRAM16に格納されたR、G、Bの画像信号を取り込み、AE制御に必要な積算値をAE評価値として算出し、CPU10に出力する。本実施の形態のデジタルカメラ100では、1画面を複数のエリアに分割し、分割したエリアごとにR、G、Bごとの画像信号の積算値を算出する。CPU10は、AE制御として、AE検出部52にて算出されたAE評価値に基づいて、撮影シーンの明るさを求め、絞り値とシャッタスピードを決定する。例えば、プログラム線図を利用して決定する。   The AE detection unit 52 takes in R, G, and B image signals stored in the SDRAM 16 under the control of the CPU 10, calculates an integrated value necessary for AE control as an AE evaluation value, and outputs the integrated value to the CPU 10. In the digital camera 100 of the present embodiment, one screen is divided into a plurality of areas, and an integrated value of image signals for each of R, G, and B is calculated for each divided area. As the AE control, the CPU 10 obtains the brightness of the shooting scene based on the AE evaluation value calculated by the AE detection unit 52, and determines the aperture value and the shutter speed. For example, it is determined using a program diagram.

AF検出部54は、CPU10による制御の下、SDRAM16に格納されたR、G、Bの画像信号を取り込み、AF制御に必要なAF評価値を算出する。このAF検出部54は、G信号の高周波成分のみを通過させるハイパスフィルタ、絶対値化処理部、タッチパネルディスプレイ47にて設定された所定のフォーカスエリア内の信号を切り出すフォーカスエリア抽出部、及び、そのフォーカスエリア内の絶対値データを積算する積算部を含み、積算部で積算されたフォーカスエリア内の絶対値データをAF評価値としてCPU10に出力する。CPU10は、AF制御として、フォーカスレンズ24fを至近から無限遠に移動させて小刻みにAF評価値を取得し、そのAF評価値がピークとなるレンズ位置を合焦レンズ位置(主要被写体に合焦するフォーカスレンズ24fの位置)と決定する焦点検出処理を行う。そして、決定した合焦レンズ位置にフォーカスレンズ24fを移動させる。   The AF detection unit 54 takes in R, G, and B image signals stored in the SDRAM 16 under the control of the CPU 10 and calculates an AF evaluation value necessary for AF control. The AF detection unit 54 includes a high-pass filter that passes only a high-frequency component of the G signal, an absolute value processing unit, a focus area extraction unit that extracts a signal within a predetermined focus area set by the touch panel display 47, and An integration unit for integrating the absolute value data in the focus area is included, and the absolute value data in the focus area integrated by the integration unit is output to the CPU 10 as an AF evaluation value. As the AF control, the CPU 10 moves the focus lens 24f from the closest distance to the infinity to acquire an AF evaluation value in small increments, and sets the lens position at which the AF evaluation value reaches a peak to a focus lens position (focus on the main subject). A focus detection process for determining the position of the focus lens 24f) is performed. Then, the focus lens 24f is moved to the determined focus lens position.

フラッシュ制御部58は、CPU10による制御の下、フラッシュ60の発光を制御する。すなわち、CPU10から指示された発光タイミング、発光量でフラッシュ60を発光させる。   The flash control unit 58 controls light emission of the flash 60 under the control of the CPU 10. That is, the flash 60 is caused to emit light at the light emission timing and the light emission amount instructed from the CPU 10.

フラッシュ60は、例えば、キセノン管で構成される。この他、LEDを用いて構成することもできる。   The flash 60 is composed of, for example, a xenon tube. In addition, it can also comprise using LED.

電源制御部62は、CPU10からの指令に従い、装置本体に装填されたバッテリ64からデジタルカメラ100の各部への電源の供給を制御する。   The power control unit 62 controls the supply of power from the battery 64 loaded in the apparatus main body to each unit of the digital camera 100 in accordance with a command from the CPU 10.

(第1実施形態)
図4は、第1実施形態におけるデジタルカメラ100のCPU10の要部機能構成例を示すブロック図である。
(First embodiment)
FIG. 4 is a block diagram illustrating an exemplary functional configuration of the main part of the CPU 10 of the digital camera 100 according to the first embodiment.

タッチ入力認識部101は、タッチパネルドライバ51と連携して、タッチパネル49に指やペンでタッチされた位置をディスプレイ48に表示した画像上の位置に対応付けて画像上のどの位置が指定されたかを認識する指定位置認識や、タッチパネル49に指やペンでタッチして描かれた軌跡を認識する軌跡認識を行う。本例にて、タッチ入力には、点入力、軌跡入力、および、これらの組み合わせ入力がある。点入力は、タップ入力(コンコンと叩く操作)を含む。タッチ入力認識部101は、点入力の場合には、認識結果として、タッチされた点の画像上の位置を示す座標情報を生成する。軌跡入力の場合には、認識結果として、タッチして描かれた軌跡の形状情報、その軌跡の画像上の位置を示す座標情報を生成する。例えば、軌跡が線形状の場合には、画像上の線の始点、終点などの座標情報を生成する。また、軌跡が囲む形状(以下「囲む軌跡」ともいう)の場合には、画像上の囲み領域の座標情報と、時計回り方向に囲む軌跡であるか反時計回り方向に囲む軌跡であるかを示す囲み方向情報を生成する。   The touch input recognition unit 101 cooperates with the touch panel driver 51 to determine which position on the image is specified by associating the position touched on the touch panel 49 with a finger or pen with the position on the image displayed on the display 48. The designated position is recognized, and the locus recognition is performed to recognize the locus drawn by touching the touch panel 49 with a finger or a pen. In this example, the touch input includes a point input, a locus input, and a combination input thereof. Point input includes tap input (operation to tap with a control). In the case of point input, the touch input recognition unit 101 generates coordinate information indicating the position of the touched point on the image as a recognition result. In the case of trajectory input, as the recognition result, the shape information of the trajectory drawn by touching and the coordinate information indicating the position of the trajectory on the image are generated. For example, when the locus is a line shape, coordinate information such as the start point and end point of the line on the image is generated. Further, in the case of a shape that the locus encloses (hereinafter also referred to as “enclosing locus”), the coordinate information of the enclosing area on the image and whether the locus is a locus enclosing in the clockwise direction or the locus enclosing in the counterclockwise direction. The enclosing direction information shown is generated.

表示制御部102は、ディスプレイ48に画像や操作ボタンを表示させる。本例にて、画像表示には、撮像素子30から連続して出力されるスルー画像を表示させるスルー画像表示、メモリカード46に記録した撮像画像(記録画像)を表示させる再生表示などがある。また、本例の表示制御部102は、タッチパネル49に描かれた軌跡の形状に対応する操作ボタンを、ディスプレイ48に表示させる。   The display control unit 102 displays images and operation buttons on the display 48. In this example, the image display includes a through image display for displaying a through image continuously output from the image sensor 30 and a reproduction display for displaying a captured image (recorded image) recorded in the memory card 46. In addition, the display control unit 102 of this example causes the display 48 to display operation buttons corresponding to the shape of the locus drawn on the touch panel 49.

実行制御部103は、カメラボディ70に設けられたハードウェアスイッチ(例えば図1のレリーズスイッチ71)が押されたとき、その押されたスイッチに対応する処理を実行する。また、実行制御部103は、ディスプレイ48にソフトウェアスイッチとして表示した操作ボタンがタッチされたとき、そのタッチされた操作ボタンに対応する処理を実行する。   When a hardware switch (for example, release switch 71 in FIG. 1) provided in the camera body 70 is pressed, the execution control unit 103 executes processing corresponding to the pressed switch. Further, when an operation button displayed as a software switch on the display 48 is touched, the execution control unit 103 executes processing corresponding to the touched operation button.

特定対象検出部104は、撮像素子30により得られた撮像画像(スルー画像や本画像)から特定対象(例えば人の顔、動物など)を検出する。   The specific target detection unit 104 detects a specific target (for example, a human face or an animal) from a captured image (through image or main image) obtained by the image sensor 30.

AF制御部105は、AF検出部54によって算出されるAF評価値に基づいて、フォーカスレンズ24fが被写界上の特定対象に合焦するレンズ位置(合焦レンズ位置)を決定し、フォーカスモータドライバ28fを制御して、フォーカスレンズ24fを合焦レンズ位置に移動させる。   The AF control unit 105 determines a lens position (focusing lens position) at which the focus lens 24f focuses on a specific target on the object field based on the AF evaluation value calculated by the AF detection unit 54, and a focus motor. The driver 28f is controlled to move the focus lens 24f to the focus lens position.

AE制御部106は、AE検出部52によって算出されるAE評価値に基づいて、露出設定を行う。つまり、感度、絞り値、シャッタ速度、フラッシュ発光の要否などを設定する。   The AE control unit 106 performs exposure setting based on the AE evaluation value calculated by the AE detection unit 52. That is, sensitivity, aperture value, shutter speed, necessity of flash emission, etc. are set.

図5は、本発明を適用した撮影処理例の流れを示すフローチャートである。本処理は図3のCPU10により、プログラムに従って実行される。   FIG. 5 is a flowchart showing the flow of an example of photographing processing to which the present invention is applied. This process is executed according to the program by the CPU 10 of FIG.

ステップS1にて、表示制御部102により、スルー画像の表示を開始する。つまり、撮像素子30から時系列で連続して出力される撮像画像を、スルー画像として、ディスプレイドライバ50を介してディスプレイ48に表示させる。   In step S1, the display control unit 102 starts displaying a through image. That is, the captured images continuously output in time series from the image sensor 30 are displayed on the display 48 through the display driver 50 as a through image.

ステップS2にて、レリーズスイッチ(図1の71)が半押しされたか否かを判定する。レリーズスイッチ71が半押しされた場合にはステップS14に進み、レリーズスイッチ71が半押しされていない場合にはステップS3に進む。   In step S2, it is determined whether or not the release switch (71 in FIG. 1) is half-pressed. If the release switch 71 is half-pressed, the process proceeds to step S14. If the release switch 71 is not half-pressed, the process proceeds to step S3.

ステップS3にて、タッチ入力認識部101は、タッチパネル49に触れられているか否かを判定する。つまり、スルー画像をディスプレイ48に表示した状態で、タッチパネル49がタッチされたか否かを判定する。タッチパネル49に触れられている場合にはステップS4に進み、タッチパネル49に触れられていない場合にはステップS2に戻る。   In step S <b> 3, the touch input recognition unit 101 determines whether or not the touch panel 49 is touched. That is, it is determined whether or not the touch panel 49 is touched while the through image is displayed on the display 48. If the touch panel 49 is touched, the process proceeds to step S4. If the touch panel 49 is not touched, the process returns to step S2.

ステップS4にて、タッチ入力認識部101により、タッチパネル49上の触れられた位置を、ディスプレイ48に表示した画像上の位置に対応付けて、画像上のどの位置が指定されたかを認識する指定位置認識や、タッチパネル49にタッチして描かれた軌跡を認識する軌跡認識を行う。本例のタッチ入力認識部101は、図6(A)に示すような、タッチパネル49にタッチして任意の領域を囲むように円弧状に描かれた囲む軌跡90を認識する。   In step S4, the touch input recognition unit 101 associates the touched position on the touch panel 49 with the position on the image displayed on the display 48 to recognize which position on the image is specified. Recognizing or recognizing a locus by touching the touch panel 49 and recognizing a locus drawn. The touch input recognition unit 101 of this example recognizes a surrounding locus 90 drawn in an arc shape so as to surround an arbitrary region by touching the touch panel 49 as shown in FIG.

ステップS5にて、囲む軌跡であるか否かを判定する。囲む軌跡である場合にはステップS6に進み、囲む軌跡でない場合にはステップS13に進む。   In step S5, it is determined whether or not the trajectory is a surrounding trajectory. If it is an enclosing locus, the process proceeds to step S6, and if it is not an enclosing locus, the process proceeds to step S13.

ステップS6にて、撮影準備処理を行う。この撮影準備処理では、第1に、特定対象検出部104により、特定対象検出処理を行う。本例では、スルー画像中の囲む軌跡で指定された領域に在る人の顔、動物等の特定対象(「主要被写体」ともいう)を検出する。第2に、AF制御部105により、AF(自動焦点)処理を行う。本例では、撮影レンズ24のフォーカスレンズ24fを被写界上の特定対象に合焦させる。第3に、AE制御部106により、AE(自動露出)処理を行う。本例では、スルー画像中の囲む軌跡で指定された領域およびその周辺の測光値(AE評価値)に基づいて、感度、絞り値、シャッタ速度、フラッシュ発光の要否などを設定する。   In step S6, shooting preparation processing is performed. In this shooting preparation process, first, the specific target detection unit 104 performs a specific target detection process. In this example, a specific target (also referred to as a “main subject”) such as a human face or an animal in an area designated by a trajectory enclosed in the through image is detected. Second, the AF control unit 105 performs AF (automatic focus) processing. In this example, the focus lens 24f of the photographing lens 24 is focused on a specific target on the object scene. Third, the AE control unit 106 performs AE (automatic exposure) processing. In this example, the sensitivity, aperture value, shutter speed, necessity of flash emission, and the like are set based on the area specified by the trajectory enclosed in the through image and the surrounding photometric values (AE evaluation values).

このように、本例では、タッチ入力認識部101によって、ディスプレイ48にスルー画像を表示した状態で、囲む軌跡が認識されたとき、特定対象検出部104によって、スルー画像中の囲む軌跡の指定領域に存在する被写界上の特定対象を検出する。また、AF制御部105によって、撮影レンズ24のフォーカスレンズ24fを検出された被写界上の特定対象に合焦させる。また、AE制御部106によって、スルー画像中の囲む軌跡の指定領域にて測光を行う。   As described above, in this example, when the surrounding trajectory is recognized by the touch input recognition unit 101 in a state where the through image is displayed on the display 48, the specified target detection unit 104 specifies the surrounding trajectory designation region in the through image. To detect a specific object on the object scene. Further, the AF control unit 105 focuses the focus lens 24f of the photographing lens 24 on the detected specific object on the object scene. Further, the AE control unit 106 performs photometry in the designated region of the trajectory enclosed in the through image.

ステップS7にて、表示制御部102により、図6(B)に示すようにディスプレイ48上にレリーズボタン81を表示する。レリーズボタン81は、レリーズスイッチ(図1の71)の全押しに対応しており、撮影指示を入力するためのソフトウェアスイッチである。図6(B)に示す例では、ディスプレイ48上の囲む軌跡上にレリーズボタン81を表示させている。その他の表示例については後に説明する。   In step S7, the display control unit 102 displays the release button 81 on the display 48 as shown in FIG. The release button 81 is a software switch that corresponds to full-pressing of the release switch (71 in FIG. 1) and is used to input a shooting instruction. In the example shown in FIG. 6B, the release button 81 is displayed on a trajectory enclosed on the display 48. Other display examples will be described later.

ステップS8にて、タッチ入力認識部101により、レリーズボタン81がタッチされたか否かを判定する。つまり、レリーズボタン81の表示位置に対応するタッチパネル49上のタッチ領域に、指やペンが触れられたか否かを判定する。レリーズボタン81がタッチされた場合にはステップS9に進む。   In step S8, the touch input recognition unit 101 determines whether or not the release button 81 has been touched. That is, it is determined whether or not a finger or a pen has touched the touch area on the touch panel 49 corresponding to the display position of the release button 81. If the release button 81 is touched, the process proceeds to step S9.

ステップS9にて、撮像素子30により、本撮像を行う。つまり、被写界上の特定対象に焦点および露出が合っている状態で、特定対象を含む被写界を撮像する。   In step S9, the image pickup device 30 performs the main image pickup. That is, the object scene including the specific object is imaged in a state where the specific object on the object field is in focus and exposure.

ステップS10にて、メディアコントローラ44により、撮像素子30により撮像して得られた撮像画像をメモリカード46に記録する。   In step S <b> 10, the media controller 44 records the captured image obtained by capturing with the image sensor 30 in the memory card 46.

ステップS11にて、撮影モード終了であるか否かを判定する。例えばモード切替スイッチにより再生モードに切り替えられた場合には、撮影モード終了と判定する。撮影モード終了である場合にはステップS12にて撮影モード終了処理を行い、撮影モードを終了しない場合には、ステップS2に戻る。   In step S11, it is determined whether or not the shooting mode is ended. For example, when the mode is switched to the playback mode by the mode switch, it is determined that the photographing mode is finished. If the shooting mode is ended, the shooting mode end process is performed in step S12. If the shooting mode is not ended, the process returns to step S2.

なお、ステップS13では、ディスプレイ48上に既に操作ボタンが表示されており、その操作ボタンがタッチされた場合には、その操作ボタンに対応する処理を実行するようになっている。本例では、囲む軌跡が未入力の状態では、ディスプレイ48上に操作ボタンを何も表示せず、ステップS13にて何も行わない。   In step S13, an operation button is already displayed on the display 48, and when the operation button is touched, processing corresponding to the operation button is executed. In this example, when no surrounding locus is input, no operation button is displayed on the display 48, and nothing is performed in step S13.

また、ステップS2にて、ハードウェアスイッチとしてのレリーズスイッチ71の半押し(撮影準備指示)と判定した場合には、ステップS14にて撮影準備処理を行う。この場合には、特定対象検出部104によってスルー画像の全体領域にて被写界上の特定対象を検出し、AF制御部105によるAF処理およびAE制御部106によるAE処理を行う。   If it is determined in step S2 that the release switch 71 as a hardware switch is half-pressed (shooting preparation instruction), a shooting preparation process is performed in step S14. In this case, the specific object detection unit 104 detects a specific object on the object scene in the entire region of the through image, and performs AF processing by the AF control unit 105 and AE processing by the AE control unit 106.

なお、ハードウェアスイッチとしてのレリーズスイッチ71を用いないで、前述のようにタッチパネル49上で囲む軌跡を描くことで撮影準備指示を入力した場合には、囲む軌跡により特定対象の検出領域が限定される利点がある。   Note that when the shooting preparation instruction is input by drawing a locus enclosed on the touch panel 49 as described above without using the release switch 71 as a hardware switch, the detection area of the specific target is limited by the enclosed locus. There are advantages.

なお、軌跡入力およびレリーズボタン81の利点の理解を容易にするため、その対比としてハードウェアスイッチであるレリーズスイッチ71を設けた場合を例に説明したが、本発明にて、ハードウェアスイッチを省略することも可能である。   In order to facilitate understanding of the advantages of the locus input and the release button 81, the case where the release switch 71, which is a hardware switch, is provided as an example has been described. However, in the present invention, the hardware switch is omitted. It is also possible to do.

また、図6(B)を用いてレリーズボタン81を囲む軌跡上に表示した場合を例に説明したが、手ブレを防止するためには、図7(B)に示すようにレリーズボタン81をディスプレイ48の端部に表示させることが、好ましい。携帯機器のボディの下端部が把持される場合、レリーズボタン81をディスプレイ48の端部に表示させる。   In addition, the case where the image is displayed on the locus surrounding the release button 81 has been described as an example with reference to FIG. 6B. However, in order to prevent camera shake, the release button 81 is set as shown in FIG. It is preferable to display at the end of the display 48. When the lower end portion of the body of the portable device is gripped, the release button 81 is displayed on the end portion of the display 48.

また、ディスプレイ48にスルー画像を表示した状態でタッチ入力認識部101によりタッチパネル49上の囲む軌跡が認識されたとき、スルー画像中の囲む軌跡により指定された領域の縮小画像をディスプレイ48のレリーズボタン81内に表示させるようにしてもよい。   Further, when the touch input recognition unit 101 recognizes the locus enclosed on the touch panel 49 while the through image is displayed on the display 48, a reduced image of the area designated by the enclosed locus in the through image is displayed on the release button of the display 48. 81 may be displayed.

また、単に囲む軌跡90内の縮小画像を表示するのではなく、囲む軌跡90内の領域で特定対象を検出し、その特定対象の画像をスルー画像から抽出して、抽出した特定対象の画像を縮小してレリーズボタン81内に表示させてもよい。例えば、図8(A)に示すように、特定対象が人の顔である場合には、スルー画像の囲む軌跡90内から顔画像91を抽出し、図8(B)に示すように、レリーズボタン81内に、スルー画像中の顔画像91を縮小したサムネイル画像92(縮小画像)を表示する。   In addition, instead of simply displaying a reduced image in the surrounding locus 90, a specific object is detected in an area in the surrounding locus 90, and the image of the specific object is extracted from the through image. The image may be reduced and displayed in the release button 81. For example, as shown in FIG. 8A, when the specific target is a human face, a face image 91 is extracted from the locus 90 surrounded by the through image, and as shown in FIG. 8B, the release is performed. A thumbnail image 92 (reduced image) obtained by reducing the face image 91 in the through image is displayed in the button 81.

また、図8(C)に示すように、スルー画像中の囲む軌跡90内に複数の人の顔画像91a、91b、91cが存在する場合には、そのスルー画像の囲む軌跡90内から複数の顔画像91a、91b、91cをそれぞれ抽出し、図8(D)に示すように、複数のレリーズボタン81a、81b、81cを表示して、各レリーズボタン81内にスルー画像中の各顔画像91a、91b、91cをそれぞれ縮小したサムネイル画像92a、92b、92cを表示させる。この場合、複数のレリーズボタン81a、81b、81cのうちタッチ操作されたレリーズボタンに対応する特定対象(本例では顔)に合焦および露光を合わせる。   Further, as shown in FIG. 8C, when there are a plurality of human face images 91a, 91b, 91c in the trajectory 90 enclosed in the through image, a plurality of face images 90a are enclosed from the trajectory 90 surrounded by the through image. The face images 91a, 91b, 91c are extracted, respectively, and a plurality of release buttons 81a, 81b, 81c are displayed as shown in FIG. 8D, and each face image 91a in the through image is displayed in each release button 81. , 91b and 91c are displayed as thumbnail images 92a, 92b and 92c, respectively. In this case, focusing and exposure are performed on a specific target (a face in this example) corresponding to the release button that is touch-operated among the plurality of release buttons 81a, 81b, and 81c.

なお、特定対象は特に人の顔に限定されない。例えば、犬、猫、鳥などの人以外の動物、花などの植物、車、建物などでもよい。本例では、囲む軌跡によりスルー画像中で特定対象を検出する領域が限定されるため、スルー画像の全領域から多様な特定対象を抽出する場合と比較して、特定対象の抽出が容易である。特定対象が人の顔であるか他の動物であるかまで識別しなくてもよい。特定対象の検出および抽出は、公知の認識技術にて可能な方法でよい。例えば、スルー画像中の囲む軌跡内にて、色、輝度などにより特定対象画像のエッジを検出することで、特定対象画像をスルー画像から抽出する。例えば、囲む軌跡内に肌色成分が多い場合、肌色領域のエッジを検出することで、人の顔画像が抽出される。また、背景領域を検出して特定対象画像を抽出してもよい。   The specific target is not particularly limited to a human face. For example, animals other than humans such as dogs, cats and birds, plants such as flowers, cars, buildings, etc. may be used. In this example, since the region for detecting the specific target in the through image is limited by the surrounding trajectory, it is easier to extract the specific target compared to the case where various specific targets are extracted from the entire region of the through image. . It is not necessary to identify whether the specific object is a human face or another animal. The detection and extraction of the specific object may be a method that can be performed by a known recognition technique. For example, the specific target image is extracted from the through image by detecting the edge of the specific target image based on the color, brightness, or the like in the trajectory enclosed in the through image. For example, when there are many skin color components in the surrounding trajectory, a human face image is extracted by detecting the edge of the skin color region. Further, the specific target image may be extracted by detecting the background region.

なお、囲む軌跡の認識は、図9(A)に示すように、囲む軌跡の始点と終点とが一致している場合や、図9(B)に示すように、始点近傍部分と終点近傍部分とが交差している場合には、特に限定されない。図9(C)に示すように、開いた軌跡である場合でも、タッチ入力認識部101は、図9(C)の点線部分を推定することで、開いた囲む軌跡として認識する。   The recognition of the surrounding trajectory is performed when the start point and the end point of the surrounding trajectory coincide with each other as shown in FIG. 9A, or when the start point neighborhood and the end point neighborhood appear as shown in FIG. 9B. Is not particularly limited. As shown in FIG. 9C, even in the case of an open trajectory, the touch input recognition unit 101 recognizes it as an open surrounding trajectory by estimating the dotted line portion in FIG. 9C.

また、特定対象検出部104は、図10(A)に示すように、囲む軌跡90内に特定対象画像91が完全に入っている場合でなくても、特定対象画像91を抽出する。つまり、図10(B)に示すように、囲む軌跡90内から特定対象画像91がはみ出している場合でも、特定対象画像91を抽出する。例えば、囲む軌跡内に白色成分が多く、囲む軌跡内から囲む軌跡外に白色領域のエッジが連続している場合、囲む軌跡外にわたる白色領域を検出することで、白色の鳥画像をスルー画像から抽出する。   Further, as illustrated in FIG. 10A, the specific target detection unit 104 extracts the specific target image 91 even when the specific target image 91 is not completely within the surrounding trajectory 90. That is, as illustrated in FIG. 10B, the specific target image 91 is extracted even when the specific target image 91 protrudes from the surrounding trajectory 90. For example, if there are many white components in the surrounding trajectory, and the edge of the white region is continuous from the surrounding trajectory to the outside of the surrounding trajectory, the white bird image outside the surrounding trajectory is detected, so that the white bird image is extracted from the through image. Extract.

例えば、図11(A)に示すように、ディスプレイ48に表示されたスルー画像中に鳥画像が現れた場合、その鳥画像の少なくとも一部を囲む軌跡90を指で描く。そうすると、特定対象検出部104により、囲む軌跡90の内外にわたる鳥画像が抽出される。また、表示制御部102により、図11(B)に示すように、ディスプレイ48上にはレリーズボタン81が表示されるとともに、そのレリーズボタン81内には鳥画像を縮小したサムネイル画像が表示される。また、AF制御部105により、被写界上の鳥にフォーカスレンズ24fの焦点が合わされ、AE制御部106により、スルー画像中の鳥画像およびその周辺の測光領域にて測光されて露光が合わされる。ユーザは、ディスプレイ48にレリーズボタン81が表示され且つレリーズボタン81内に鳥のサムネイル画像が表示されたことを視認することで、鳥が検出されて、その鳥に焦点および露光が合ったことを、把握した上で、スルー画像を見ながら、好機を見計らってレリーズボタン81にタッチすることで、撮影指示を入力することができる。   For example, as shown in FIG. 11A, when a bird image appears in a through image displayed on the display 48, a trajectory 90 surrounding at least a part of the bird image is drawn with a finger. Then, the bird image extending inside and outside the surrounding trajectory 90 is extracted by the specific target detection unit 104. Further, as shown in FIG. 11B, the display control unit 102 displays a release button 81 on the display 48, and a thumbnail image obtained by reducing the bird image is displayed in the release button 81. . The AF control unit 105 focuses the focus lens 24f on the bird on the object scene, and the AE control unit 106 performs photometry in the bird image in the through image and the surrounding photometry area, and the exposure is adjusted. . The user visually recognizes that the release button 81 is displayed on the display 48 and that the thumbnail image of the bird is displayed in the release button 81, so that the bird is detected, and that the bird is in focus and exposure. Then, the user can input a shooting instruction by touching the release button 81 while looking at the opportunity while viewing the through image.

また、レリーズボタン81の表示位置を、囲む軌跡の方向に基づいて切り替えてもよい。図12(A)に示すように時計回りに囲む軌跡90Rを描いた場合、タッチ入力認識部101は時計回りに囲む軌跡90Rを認識し、図12(B)に示すように反時計回りに囲む軌跡90Lを描いた場合には、タッチ入力認識部101は反時計回りに囲む軌跡90Lを認識する。表示制御部102は時計回りに囲む軌跡90Rの場合とおよび反時計回りに囲む軌跡90Lの場合とで、ディスプレイ48の端部のうちいずれの端部にレリーズボタン81を表示させるかを切り替える。   Further, the display position of the release button 81 may be switched based on the direction of the surrounding locus. When a trajectory 90R that surrounds clockwise as shown in FIG. 12A is drawn, the touch input recognition unit 101 recognizes the trajectory 90R that surrounds clockwise and surrounds it counterclockwise as shown in FIG. 12B. When the locus 90L is drawn, the touch input recognition unit 101 recognizes the locus 90L surrounded counterclockwise. The display control unit 102 switches between which end of the display 48 the release button 81 is displayed depending on whether the locus 90R is clockwise or the locus 90L is counterclockwise.

ここで、右利きの人は右手で時計回りに囲む軌跡90Rを描き、左利きの人は左手で反時計回りに囲む軌跡を描くものと仮定する。また、左および右は、ディスプレイ48に向ったユーザから見た左右である。   Here, it is assumed that the right-handed person draws a trajectory 90R that is clockwise with the right hand, and the left-handed person draws a trajectory that is counterclockwise with the left hand. Left and right are left and right as viewed from the user facing the display 48.

まず、カメラボディ70が片手で把持する構造である場合の一例について説明する。   First, an example in which the camera body 70 is structured to be held with one hand will be described.

手ブレ防止の観点からは、カメラボディ70の片手で把持される下端部であって、且つ、右端部および左端部のうち把持する手の方に、レリーズボタン81を表示する。つまり、図12(A)に示す時計回りに囲む軌跡90Rの場合には、右利きの人が左手でカメラボディ70を把持して右手で描いたものと判断して、図12(C)に示すようにディスプレイ48の下左端部にレリーズボタン81を表示し、図12(B)に示す反時計回りに囲む軌跡90Lの場合には、左利きの人が右手でカメラボディ70を把持して左手で描いたものとして、図12(D)に示すようにディスプレイ48の下右端部にレリーズボタン81を表示する。   From the viewpoint of preventing camera shake, the release button 81 is displayed on the lower end of the camera body 70 that is gripped with one hand and on the gripped hand of the right end and the left end. That is, in the case of the trajectory 90R that is clockwise as shown in FIG. 12A, it is determined that a right-handed person has drawn the camera body 70 with the left hand and drawn with the right hand, and FIG. As shown in FIG. 12B, a release button 81 is displayed on the lower left end of the display 48, and in the case of a locus 90L surrounding counterclockwise as shown in FIG. 12B, a left-handed person holds the camera body 70 with the right hand and moves the left hand. As shown in FIG. 12, a release button 81 is displayed at the lower right end of the display 48 as shown in FIG.

一方で、操作性向上の観点からは、カメラボディ70の片手で把持される下端部であって、且つ、右端部および左端部のうちフリーである利き手の方に、レリーズボタン81を表示する。つまり、図12(A)に示す時計回りに囲む軌跡90Rの場合には、図12(D)に示すようにディスプレイ48の下右端部にレリーズボタン81を表示し、図12(B)に示す反時計回りに囲む軌跡90Lの場合には、図12(C)に示すようにディスプレイ48の下左端部にレリーズボタン81を表示する。   On the other hand, from the viewpoint of improving operability, the release button 81 is displayed on the lower end of the camera body 70 that is gripped with one hand and the free hand of the right end and the left end. That is, in the case of the trajectory 90R clockwise surrounded as shown in FIG. 12A, the release button 81 is displayed at the lower right end of the display 48 as shown in FIG. 12D, and shown in FIG. In the case of the locus 90L that is counterclockwise, a release button 81 is displayed at the lower left end of the display 48 as shown in FIG.

次に、カメラボディ80が両手で把持する構造である場合の一例について説明する。手ブレ防止の観点からは、カメラボディ70の片手で把持される下端部にレリーズボタン81を表示し、且つ、操作性向上の観点からは、フリーである利き手の方に、レリーズボタン81を表示する。つまり、図12(A)に示す時計回りに囲む軌跡90Rの場合には、図12(D)に示すようにディスプレイ48の下右端部にレリーズボタン81を表示し、図12(B)に示す反時計回りに囲む軌跡90Rの場合には、図12(C)に示すようにディスプレイ48の下左端部にレリーズボタン81を表示する。   Next, an example in the case where the camera body 80 is structured to be held with both hands will be described. From the viewpoint of preventing camera shake, the release button 81 is displayed on the lower end of the camera body 70 held by one hand, and from the viewpoint of improving operability, the release button 81 is displayed on the free hand. To do. That is, in the case of the trajectory 90R clockwise surrounded as shown in FIG. 12A, the release button 81 is displayed at the lower right end of the display 48 as shown in FIG. 12D, and shown in FIG. In the case of the trajectory 90R encircling counterclockwise, a release button 81 is displayed at the lower left end of the display 48 as shown in FIG.

なお、右利きの人は右手で時計回りに囲む軌跡90Rを描き、左利きの人は左手で反時計回りに囲む軌跡を描くものと仮定したが、異なる場合があるので、メニュー画面等にて、囲む軌跡の方向とレリーズボタン81の表示位置との対応関係を変更可能にする。   It is assumed that the right-handed person draws a trajectory 90R that is clockwise with the right hand, and the left-handed person is to draw a trajectory that is counterclockwise with the left hand. The correspondence relationship between the direction of the surrounding locus and the display position of the release button 81 can be changed.

本実施形態では、ユーザがスルー画像上にて自在に囲む軌跡で領域指定を行うことができる。これにより、主要被写体としての特定対象の検出領域、合焦領域および測光領域を自在に指定することができる。また、タッチパネルディスプレイに軌跡入力に対応する操作ボタンが表示されるので、ラフな入力でも、タッチ入力の認識結果を確認した上で、操作ボタンにタッチして所望の処理を実行させることができる。また、タッチパネルディスプレイの端部にレリーズボタンを表示させることで、手ブレを防止することができる。また、レリーズボタン内に、スルー画像中の囲む軌跡で指定された領域の縮小画像、または、特定対象の縮小画像が表示されるので、ユーザは検出された特定対象や、合焦および露出が合わされたことを、スルー画像とレリーズボタンとを観察しながら、容易に把握することができる。   In the present embodiment, the area can be designated by a trajectory freely enclosed on the through image by the user. Thereby, it is possible to freely specify the detection area, the focusing area, and the photometry area of the specific target as the main subject. In addition, since the operation button corresponding to the locus input is displayed on the touch panel display, it is possible to execute a desired process by touching the operation button after confirming the recognition result of the touch input even with rough input. Moreover, camera shake can be prevented by displaying a release button at the end of the touch panel display. Further, since the reduced image of the area specified by the trajectory enclosed in the through image or the reduced image of the specific target is displayed in the release button, the user can adjust the detected specific target, focus and exposure. This can be easily grasped while observing the through image and the release button.

(第2実施形態)
第2実施形態におけるデジタルカメラ100の内部構成は図3に示した通りであり、既に説明したので、ここで説明を省略する。また、CPU10の要部機能構成は、図4に示した通りであり、ここでは第1実施形態と異なる点のみ説明する。
(Second Embodiment)
The internal configuration of the digital camera 100 according to the second embodiment is as shown in FIG. 3 and has already been described. Moreover, the principal part functional structure of CPU10 is as having shown in FIG. 4, and only a different point from 1st Embodiment is demonstrated here.

本実施形態にて、タッチ入力認識部101は、ディスプレイ48に操作ボタンが表示された状態でタッチパネル49上の任意の位置がタッチされたとき、そのタッチされた位置を操作ボタンの移動先と認識する。また、表示制御部102は、ディスプレイ48上の操作ボタンの表示位置を、タッチ入力認識部101にて認識された移動先に変更する。   In the present embodiment, when an arbitrary position on the touch panel 49 is touched while the operation button is displayed on the display 48, the touch input recognition unit 101 recognizes the touched position as the movement destination of the operation button. To do. In addition, the display control unit 102 changes the display position of the operation button on the display 48 to the movement destination recognized by the touch input recognition unit 101.

図13は、本実施形態での操作ボタン移動処理例の流れを示すフローチャートである。本処理は図3のCPU10により、プログラムに従って実行される。   FIG. 13 is a flowchart showing a flow of an example of operation button movement processing in the present embodiment. This process is executed according to the program by the CPU 10 of FIG.

ステップS21にて、タッチ入力認識部101により、タッチパネルディスプレイ47上の操作ボタンをダブルクリックする操作、または、操作ボタンを囲む軌跡を描く操作が行われたか否かを検出する。図14(A)に示すようにペン先で操作ボタンをダブルクリックしてもよい。ステップS22にて、検出したか否かを判定し、検出した場合にはステップS23に進み、検出しない場合にはステップS21に戻る。   In step S21, the touch input recognition unit 101 detects whether an operation of double-clicking an operation button on the touch panel display 47 or an operation of drawing a locus surrounding the operation button has been performed. As shown in FIG. 14A, the operation button may be double-clicked with the pen tip. In step S22, it is determined whether or not it is detected. If it is detected, the process proceeds to step S23, and if not detected, the process returns to step S21.

ステップS23にて、移動対象の操作ボタンを確定する。   In step S23, the operation button to be moved is determined.

ステップS24にて、操作ボタン移動モードを設定する。   In step S24, an operation button movement mode is set.

ステップS25にて、表示制御部102により、図14(B)に示すように、操作ボタンを点滅表示する。   In step S25, the display control unit 102 causes the operation button to blink as shown in FIG.

ステップS26にて、移動対象の操作ボタンの移動先位置を検出する。本例では、タッチ入力認識部101により、図14(C)に示すように、タッチパネルディスプレイ47上でクリックする操作を検出する。   In step S26, the movement destination position of the operation button to be moved is detected. In this example, the touch input recognition unit 101 detects an operation of clicking on the touch panel display 47 as shown in FIG.

ステップS27にて、表示制御部102により、移動対象の操作ボタンを移動先に表示する。   In step S27, the display control unit 102 displays the operation button to be moved at the movement destination.

ステップS28にて、位置確定指示の入力を受け付ける。例えば、タッチ入力認識部101により、操作ボタンを囲む軌跡を描く操作が行われたか否かを検出する。   In step S28, an input of a position confirmation instruction is accepted. For example, the touch input recognition unit 101 detects whether or not an operation for drawing a locus surrounding the operation button has been performed.

ステップS29にて、位置確定指示を受け付けたか否かを判定する。位置確定指示を受け付けた場合にはステップS30に進み、位置確定指示でない場合(例えば“×”印の軌跡を描く事で取消指示を入力した場合)にはステップS25に戻る。   In step S29, it is determined whether a position determination instruction has been accepted. If a position confirmation instruction is accepted, the process proceeds to step S30. If it is not a position confirmation instruction (for example, when a cancel instruction is input by drawing a trajectory marked “x”), the process returns to step S25.

ステップS30にて、ディスプレイ48上の操作ボタンの移動先位置を確定する
ステップS31にて、ディスプレイ48上で移動対象ボタンの点滅を終了する。そうすると、図14(D)に示す表示状態となる。
In step S30, the movement destination position of the operation button on the display 48 is determined. In step S31, the blinking of the movement target button on the display 48 is terminated. Then, the display state shown in FIG.

ステップS32にて、操作ボタンの移動設定を終了するか否かを判定し、終了する場合にはステップS33にて操作ボタン移動モードを終了し、終了しない場合にはステップS21に戻る。   In step S32, it is determined whether or not the operation button movement setting is to be ended. If the operation button is to be ended, the operation button movement mode is ended in step S33, and otherwise the process returns to step S21.

第2実施形態では、ユーザが使い勝手をよくするために、タッチパネルディスプレイ47上の操作ボタンの配置を変更できる。例えば、画像の撮影時または再生時に、操作ボタンが邪魔だと思ったら、好みの位置に操作ボタンを移動させることができる。   In the second embodiment, the arrangement of operation buttons on the touch panel display 47 can be changed in order for the user to improve usability. For example, when an operation button is considered to be an obstacle during image shooting or reproduction, the operation button can be moved to a desired position.

(第3実施形態)
第3実施形態におけるデジタルカメラ100の内部構成は図3に示した通りであり、既に説明したので、ここで説明を省略する。また、CPU10の要部機能構成は、図4に示した通りであり、ここでは第1実施形態と異なる点のみ説明する。
(Third embodiment)
The internal configuration of the digital camera 100 according to the third embodiment is as shown in FIG. 3 and has already been described. Moreover, the principal part functional structure of CPU10 is as having shown in FIG. 4, and only a different point from 1st Embodiment is demonstrated here.

本実施形態にて、タッチ入力認識部101は、ディスプレイ48に操作ボタンが表示された状態でタッチパネル49上で操作ボタンに触れたまま移動させる操作を認識したとき、操作ボタンが離された位置を操作ボタンの移動先と認識する。また、表示制御部102は、ディスプレイ48上の操作ボタンの表示位置を、タッチ入力認識部101にて認識された移動先に変更する。   In the present embodiment, when the touch input recognition unit 101 recognizes an operation to move while touching the operation button on the touch panel 49 in a state where the operation button is displayed on the display 48, the position where the operation button is released is determined. Recognized as the destination of the operation button. In addition, the display control unit 102 changes the display position of the operation button on the display 48 to the movement destination recognized by the touch input recognition unit 101.

図15は、本実施形態での操作ボタン移動処理例の流れを示すフローチャートである。本処理は図3のCPU10により、プログラムに従って実行される。   FIG. 15 is a flowchart showing a flow of an example of operation button movement processing in the present embodiment. This process is executed according to the program by the CPU 10 of FIG.

ステップS41〜S45は、第2実施形態における図13のステップS21〜25と同様であり、ここでは説明を省略する。   Steps S41 to S45 are the same as steps S21 to 25 of FIG. 13 in the second embodiment, and a description thereof is omitted here.

ステップS46にて、タッチパネルディスプレイ47上で操作ボタンをドラッグする操作を検出する。つまり、タッチ入力認識部101により、図16(A)に示すように、操作ボタンに指などでタッチして離さない状態を検出する。   In step S46, an operation of dragging the operation button on the touch panel display 47 is detected. That is, the touch input recognition unit 101 detects a state where the operation button is not touched and released with a finger or the like, as shown in FIG.

ステップS47にて、タッチパネルディスプレイ47上で操作ボタンをドラッグしたまま移動させる操作(ドロー操作)を検出する。つまり、タッチ入力認識部101により、操作ボタンを指でタッチした状態で線状の軌跡が描かれたことを検出する。   In step S47, an operation for moving the operation button while dragging it on the touch panel display 47 (draw operation) is detected. That is, the touch input recognition unit 101 detects that a linear trajectory has been drawn while the operation button is touched with a finger.

ステップS48にて、タッチパネルディスプレイ47上で操作ボタンをドロップする操作を検出する。つまり、タッチ入力認識部101により、図16(B)に示すように、操作ボタンから指などが離されたことを検出する。   In step S48, an operation of dropping the operation button on the touch panel display 47 is detected. That is, the touch input recognition unit 101 detects that a finger or the like has been released from the operation button as shown in FIG.

ステップS49にて、位置確定指示を受け付けたか否かを判定する。位置確定指示を受け付けた場合にはステップS50に進み、位置確定指示でない場合(例えば“×”印の軌跡を描く事で取消指示を入力した場合)にはステップS45に戻る。   In step S49, it is determined whether a position confirmation instruction has been accepted. If a position confirmation instruction has been accepted, the process proceeds to step S50, and if it is not a position confirmation instruction (for example, if a cancel instruction is input by drawing a trajectory marked with “×”), the process returns to step S45.

ステップS50〜S53は、第2実施形態における図13のステップS30〜33と同様であり、ここでは説明を省略する。   Steps S50 to S53 are the same as steps S30 to 33 in FIG. 13 in the second embodiment, and a description thereof is omitted here.

第3実施形態では、第2実施形態と同様な効果が得られる。また、ドラッグ・ドロー・ドロップという簡易的なタッチ入力により、タッチパネルディスプレイ47上の操作ボタンの表示位置を移動させることができる。   In the third embodiment, the same effect as in the second embodiment can be obtained. In addition, the display position of the operation button on the touch panel display 47 can be moved by simple touch input such as drag, draw, and drop.

なお、第2実施形態および第3実施形態にて、移動可能な操作ボタンは任意である。例えば、前述のレリーズボタン81を移動させてもよい。   In the second embodiment and the third embodiment, the movable operation button is arbitrary. For example, the release button 81 described above may be moved.

(第4実施形態)
図17は、第4実施形態におけるデジタルカメラ100のCPU10の要部機能構成の一例を示すブロック図である。図17において、図4に示した構成要素には同じ符号を付してあり、既に説明した事項については、ここではその説明を省略する。
(Fourth embodiment)
FIG. 17 is a block diagram illustrating an example of a main functional configuration of the CPU 10 of the digital camera 100 according to the fourth embodiment. In FIG. 17, the same reference numerals are given to the components shown in FIG. 4, and the description of the matters already described is omitted here.

図17にて、タッチ入力登録部107は、タッチ入力を登録する。本例のタッチ入力認識部101は、タッチパネル49にユーザが指やペンでタッチして自在に描いた軌跡を認識し、タッチ入力登録部107は、タッチ入力認識部101により認識された軌跡、および、その軌跡と実行制御部103により実行する処理の対応関係を登録する。   In FIG. 17, a touch input registration unit 107 registers a touch input. In this example, the touch input recognition unit 101 recognizes a locus freely drawn by the user touching the touch panel 49 with a finger or a pen, and the touch input registration unit 107 detects the locus recognized by the touch input recognition unit 101, and The correspondence relationship between the locus and the process executed by the execution control unit 103 is registered.

図18は、本実施形態でのタッチ入力登録処理例の流れを示すフローチャートである。本処理は図3のCPUにより、プログラムに従って実行される。   FIG. 18 is a flowchart showing the flow of the touch input registration processing example in the present embodiment. This process is executed according to the program by the CPU of FIG.

ステップS61にて、タッチ入力登録モードを開始する。例えば、メニューの中からタッチ入力登録モードを選択する。   In step S61, the touch input registration mode is started. For example, the touch input registration mode is selected from the menu.

ステップS62にて、入力形態選択表示を行う。つまり、表示制御部102は、タッチ入力の形態を選択するようディスプレイ48に案内を表示する。   In step S62, input form selection display is performed. That is, the display control unit 102 displays guidance on the display 48 so as to select a touch input form.

ステップS63にて、入力形態選択を受け付ける。つまり、タッチ入力認識部101は、タッチ入力の形態の選択を検出する。   In step S63, input mode selection is accepted. That is, the touch input recognition unit 101 detects selection of a touch input form.

本例では、タッチ入力の形態として、点入力、軌跡入力、および、これらの組み合わせ入力がある。本例では、タッチパネルディスプレイ47の操作ボタンにより形態を選択させる。   In this example, there are a point input, a locus input, and a combination input thereof as touch input forms. In this example, the form is selected by an operation button of the touch panel display 47.

ステップS64にて、タッチ入力指示表示を行う。つまり、表示制御部102は、タッチ入力を行うようディスプレイ48に案内を表示する。   In step S64, a touch input instruction display is performed. That is, the display control unit 102 displays guidance on the display 48 so as to perform touch input.

ステップS65にて、ユーザがタッチ入力を行う。必要に応じて第2回目のタッチ入力を行ってもよい。   In step S65, the user performs touch input. A second touch input may be performed as necessary.

ステップS67にて、タッチ入力認識を行う。つまり、タッチ入力認識部101は、タッチパネル49にユーザが指やペンでタッチして自在に描いた軌跡を認識する。   In step S67, touch input recognition is performed. That is, the touch input recognition unit 101 recognizes a locus freely drawn by the user touching the touch panel 49 with a finger or a pen.

ステップS68にて、認識結果表示を行う。つまり、表示制御部102は、タッチ入力認識部101による認識結果をディスプレイ48に表示する。また、タッチパネル49によりユーザの内容確認結果の入力を受け付ける。本例では、認識結果がOKであるか否かを、タッチパネルディスプレイ47の操作ボタンにより選択させる。   In step S68, a recognition result is displayed. That is, the display control unit 102 displays the recognition result by the touch input recognition unit 101 on the display 48. In addition, the touch panel 49 accepts input of a user content confirmation result. In this example, whether or not the recognition result is OK is selected by an operation button on the touch panel display 47.

ステップS69にて、内容確認結果がOKであるか否かを判定し、OKである場合にはステップS71に進み、NGである場合にはS70にてタッチ入力のリセットを行ってステップS64に戻る。   In step S69, it is determined whether or not the content confirmation result is OK. If it is OK, the process proceeds to step S71. If it is NG, the touch input is reset in S70 and the process returns to step S64. .

ステップS71にて、対応処理選択表示を行う。つまり、表示制御部102は、タッチ入力に対応して実行制御部103で実行する処理を選択するよう案内を表示する。本例では、予め決められた複数の処理の中から、希望する処理を、タッチパネルディスプレイ47の操作ボタンにより選択させる。   In step S71, response processing selection display is performed. That is, the display control unit 102 displays guidance so as to select a process to be executed by the execution control unit 103 in response to the touch input. In this example, a desired process is selected from a plurality of predetermined processes by operating buttons on the touch panel display 47.

ステップS72にて、対応処理選択を受け付ける。つまり、タッチ入力認識部101は、タッチ入力の形態の選択を受け付ける。また、タッチパネル49によりユーザの確定指示の入力を受け付ける。   In step S72, response processing selection is accepted. That is, the touch input recognition unit 101 accepts selection of a touch input form. In addition, the touch panel 49 receives an input of a user's confirmation instruction.

ステップS73にて、確定したか否かを判定し、確定した場合にはステップS74に進み、確定しない場合にはステップS72に戻る。   In step S73, it is determined whether or not it is confirmed. If it is confirmed, the process proceeds to step S74. If not confirmed, the process returns to step S72.

ステップS74にて、登録を行う。つまり、タッチ入力登録部107は、タッチ入力認識部101により認識されたタッチ入力、および、タッチ入力と実行制御部103により実行する処理の対応関係をEEPROM20に登録する。例えば、タッチ入力形態が軌跡入力である場合には、タッチパネル49上で自在に描かれた軌跡、および、その軌跡と処理の対応関係を登録する。また、例えば、タッチ入力形態が組み合わせ入力である場合には、点とタッチパネル49上で自在に描かれた軌跡との組み合わせ、および、その組み合わせと処理の対応関係を登録する。   In step S74, registration is performed. That is, the touch input registration unit 107 registers the correspondence relationship between the touch input recognized by the touch input recognition unit 101 and the process executed by the touch input and the execution control unit 103 in the EEPROM 20. For example, when the touch input form is a locus input, a locus freely drawn on the touch panel 49 and a correspondence relationship between the locus and the process are registered. For example, when the touch input form is a combination input, a combination of a point and a locus freely drawn on the touch panel 49 and a correspondence relationship between the combination and the process are registered.

ステップS75にて、設定終了であるか否かを判定し、終了する場合にはステップS76にてタッチ入力登録モードを終了し、終了しない場合にはステップS62に戻る。   In step S75, it is determined whether or not the setting is completed. If the setting is to be ended, the touch input registration mode is ended in step S76, and if not, the process returns to step S62.

また、デジタルカメラ100の起動時には、EEPROM20から登録した内容がタッチ入力登録部107により読み出される。   Further, when the digital camera 100 is activated, the contents registered from the EEPROM 20 are read out by the touch input registration unit 107.

図19は、ズーム動作選択のタッチ入力例を示す説明図である。タッチパネル49上のタッチされた位置(点入力位置)によって、ズーム動作を指定する。例えば、第1番の円をコンコンと叩くように2回連続して短くタッチ(タップ入力)を行うと、速いWIDE動作を行う。また、第2番の円を2回連続タッチすると、速いTELE動作を行う。また、第3番の円を2回連続タッチすると、遅いWIDE動作を行う。また、第4番の円を2回連続タッチすると、遅いTELE動作を行う。また、第5番の円を2回連続タッチすると、標準動作にリセットする。このように点入力位置によって、ズームの速度と、ズームレンズ24zのWIDE(広角側)およびTELE(望遠側)の選択とを切り替えることができる。このような点入力位置と、点入力位置に対応したズーム動作(処理)は、図18に示したタッチ入力登録処理にて登録することができる。すなわち、予めタッチ入力と対処理を学習させておく。   FIG. 19 is an explanatory diagram illustrating an example of touch input for selecting a zoom operation. The zoom operation is designated by the touched position (point input position) on the touch panel 49. For example, when a short touch (tap input) is performed twice in succession so that the first circle is hit with a konkon, a fast WIDE operation is performed. Further, when the second circle is touched twice continuously, a fast TELE operation is performed. Further, when the third circle is touched twice continuously, a slow WIDE operation is performed. Further, when the fourth circle is touched twice continuously, a slow TELE operation is performed. In addition, when the fifth circle is continuously touched twice, the standard operation is reset. Thus, the zoom speed and selection of WIDE (wide angle side) and TELE (telephoto side) of the zoom lens 24z can be switched depending on the point input position. Such a point input position and a zoom operation (process) corresponding to the point input position can be registered by the touch input registration process shown in FIG. That is, the touch input and the pairing process are learned in advance.

また、タッチ回数を変えることで、光学ズームからデジタルズームに切り替えることができる。このような学習も前述のタッチ入力登録処理にて行う。   In addition, the optical zoom can be switched to the digital zoom by changing the number of touches. Such learning is also performed by the touch input registration process described above.

図20(A)〜(C)は、画像消去指示のタッチ入力例を示す説明図である。本例では、図20(A)に示すように、メモリカード46に記録されていた画像をディスプレイ48に表示した状態で、図20(B)に示すように、タッチパネル49上で指をタッチしながらぐるぐる回すことで画像消去指示をタッチ入力すると、図20(C)に示すように、ディスプレイ48に画像消去表示を行って、画像消去処理を実行する。また、ぐるぐる回す速さを変えると、画像消去処理が切り替わる。例えば、ゆっくり回すと、1コマ削除を行い、早く回すとフォルダ内の削除を行う。   20A to 20C are explanatory diagrams illustrating examples of touch input of an image erasing instruction. In this example, with the image recorded on the memory card 46 displayed on the display 48 as shown in FIG. 20A, a finger is touched on the touch panel 49 as shown in FIG. When the image erasing instruction is touch-input by turning around, the image erasing display is performed on the display 48 as shown in FIG. 20C, and the image erasing process is executed. Also, the image erasing process is switched when the speed of turning is changed. For example, when it is turned slowly, one frame is deleted, and when it is turned quickly, the contents in the folder are deleted.

図21(A)〜(C)は、画像消去中止指示(画像消去指示前の状態に復帰させる指示をいう)のタッチ入力例を示す説明図である。本例では、画像消去指示がタッチ入力されると、図21(A)に示すようにディスプレイ48にて画像消去表示を行う。この画像消去表示は、メモリカード46に記録されている画像を消去する画像消去処理を開始したことを示す。また、図21(A)に示す画像消去表示中に、すなわち画像消去処理中に、図21(B)に示すようにタッチパネル49に軌跡で“×”がタッチ入力されると、図21(C)に示すように画像消去指示前の状態に復帰する。すなわち、画像がメモリカード46に記録された状態に戻す。 FIGS. 21A to 21C are explanatory diagrams illustrating touch input examples of an image erasure stop instruction (referred to as an instruction to return to a state before the image erasure instruction) . In this example, when an image erasure instruction is touch-inputted, an image erasure display is performed on the display 48 as shown in FIG. This image erasure display indicates that image erasure processing for erasing an image recorded on the memory card 46 has started. Further, during the image erasure display shown in FIG. 21A, that is, during the image erasure processing, when “x” is touched on the touch panel 49 as shown in FIG. ) To return to the state before the image erasure instruction. That is, the image is returned to the state recorded on the memory card 46.

なお、画像消去処理では、通常、メモリカード46から画像を完全に消去するわけではなく、メモリカード46の画像記録領域を開放する処理を行う。そこで、画像消去指示前の状態に復帰させる場合には、画像記録領域を開放した状態から未開放の状態に戻す処理を行う。また、メモリカード46から画像を完全に消去する態様では、メモリカード46内の画像を一時的にSDRAM16に退避した後にメモリカード46上の画像を消去し、画像消去指示前の状態に復帰させる場合には、SDRAM16に退避した画像をメモリカード46に戻すようにすればよい。 In the image erasing process, normally, the image is not completely erased from the memory card 46, but the image recording area of the memory card 46 is released. Therefore, when returning to the state before the image erasing instruction , processing for returning the image recording area from the open state to the unopened state is performed. In the mode of completely erasing the image from the memory card 46, the image in the memory card 46 is temporarily saved in the SDRAM 16 and then the image on the memory card 46 is erased to return to the state before the image erasure instruction. For this purpose, the image saved in the SDRAM 16 may be returned to the memory card 46.

また、図20(B)に示した時計回りの渦巻きを描いた後に、反時計回りの渦巻きを描かれたとき、すなわち、ぐるぐる回す方向が反転したことを認識したときに、画像消去指示前の状態に復帰するようにしてもよい。   Also, after the clockwise spiral shown in FIG. 20B is drawn, when the counterclockwise spiral is drawn, that is, when it is recognized that the rotating direction is reversed, the image before the image erasing instruction is displayed. You may make it return to a state.

また、本例では、レリーズボタン81により撮影指示がタッチ入力されると、ディスプレイ48にて画像記録表示を行う。この画像記録表示は、撮像素子30にて撮像された画像をメモリカード46に記録する画像記録処理を開始したことを示す。また、画像記録表示中に、すなわち画像記録処理中に、タッチパネル49に軌跡で“×”がタッチ入力されると、撮影指示入力前の状態に復帰する。すなわち、撮像画像を未記録の状態に戻すとともに、ディスプレイ48にスルー画像およびレリーズボタン81が表示された状態に戻す。 In this example, when a shooting instruction is touch-input by the release button 81, the image recording display is performed on the display 48. This image recording display indicates that an image recording process for recording an image captured by the image sensor 30 on the memory card 46 has started. Also, during the image recording, that is, during the image recording process, "×" in the trajectory on the touch panel 49 is touched input, return to the shooting instruction input previous state. That is, the captured image is returned to an unrecorded state, and the through image and the release button 81 are displayed on the display 48.

なお、画像記録処理、画像消去処理などの処理の中止指示を、“×”軌跡の入力により行う場合を例に説明したが、このような場合に本発明は特に限定されない。例えば、“=”(二重取消線)軌跡により中止指示入力を行ってもよい。   In addition, although the case where the instruction to stop the processing such as the image recording processing and the image erasing processing is performed by inputting the “×” locus has been described as an example, the present invention is not particularly limited to such a case. For example, a stop instruction may be input by a “=” (double cancellation line) locus.

また、中止指示を軌跡入力により行う場合を例に説明したが、このような場合に本発明は特に限定されない。例えば、“レ”(チェック)軌跡により確定指示入力(あるいはOK指示入力)を行ってもよい。   Moreover, although the case where the stop instruction is performed by trajectory input has been described as an example, the present invention is not particularly limited to such a case. For example, a confirmation instruction input (or an OK instruction input) may be performed using a “re” (check) locus.

第4実施形態のデジタルカメラによれば、ユーザが操作ボタンによらない自在な軌跡入力を登録することができるので、簡易的に操作することができる。また、ユーザは軌跡入力による操作の楽しみを体感することができる。また、画像記録処理、画像消去処理などの処理の中止指示を、瞬時の軌跡入力で行うことができるので、ユーザが意図しないタッチ入力が認識されて処理が開始されてしまった場合でも、“×”などの軌跡入力により、誤動作を防ぐことが可能になる。   According to the digital camera of the fourth embodiment, the user can register a free trajectory input that does not depend on the operation buttons, and thus can be operated easily. In addition, the user can experience the enjoyment of the operation by the locus input. In addition, since an instruction to stop processing such as image recording processing and image erasing processing can be performed by instantaneous trajectory input, even when a touch input unintended by the user is recognized and processing is started, “× It is possible to prevent malfunctions by inputting a locus such as “”.

なお、本発明の理解を容易にするため、第1実施形態から第4実施形態まで分けて説明したが、本発明は複数の実施形態を組み合わせて実施してよいことは言うまでもない。   In addition, in order to make an understanding of this invention easy, although it demonstrated separately from 1st Embodiment to 4th Embodiment, it cannot be overemphasized that this invention may be implemented combining several embodiment.

また、本発明をデジタルカメラに適用した場合を例に説明したが、このような場合に本発明は特に限定されず、タッチパネルディスプレイを備えた各種の機器に適用可能である。本発明は、デジタルカメラのほかに、例えば、携帯電話、PDA、ゲーム機器等、各種の携帯機器に適用できる。   Moreover, although the case where this invention was applied to the digital camera was demonstrated to the example, this invention is not specifically limited in such a case, It is applicable to the various apparatuses provided with the touchscreen display. In addition to a digital camera, the present invention can be applied to various portable devices such as a mobile phone, a PDA, and a game device.

本発明は、本明細書において説明した例や図面に図示された例には限定されず、本発明の要旨を逸脱しない範囲において、各種の設計変更や改良を行ってよいのはもちろんである。   The present invention is not limited to the examples described in the present specification and the examples illustrated in the drawings, and various design changes and improvements may be made without departing from the spirit of the present invention.

10…CPU、24…撮影レンズ、24f…フォーカスレンズ、30…撮像素子、38…画像入力コントローラ、44…メディアコントローラ(記録手段)、46…メモリカード(記録媒体)、47…タッチパネルディスプレイ、48…ディスプレイ、49…タッチパネル、50…ディスプレイドライバ、51…タッチパネルドライバ、81…レリーズボタン(操作ボタン)、90…囲む軌跡、91…特定対象、92…サムネイル画像(縮小画像)、100…デジタルカメラ、101…タッチ入力認識部(認識手段)、102…表示制御部、103…実行制御部、104…特定対象検出部、105…AF制御部、106…AE制御部、107…タッチ入力登録部(登録手段)   DESCRIPTION OF SYMBOLS 10 ... CPU, 24 ... Shooting lens, 24f ... Focus lens, 30 ... Image sensor, 38 ... Image input controller, 44 ... Media controller (recording means), 46 ... Memory card (recording medium), 47 ... Touch panel display, 48 ... Display 49, touch panel, 50 ... display driver, 51 ... touch panel driver, 81 ... release button (operation button), 90 ... surrounding locus, 91 ... specific target, 92 ... thumbnail image (reduced image), 100 ... digital camera, 101 ... Touch input recognition unit (recognition unit), 102 ... Display control unit, 103 ... Execution control unit, 104 ... Specific target detection unit, 105 ... AF control unit, 106 ... AE control unit, 107 ... Touch input registration unit (registration unit) )

Claims (19)

表示を行うディスプレイとタッチ入力を検出するタッチパネルとを有するタッチパネルディスプレイと、
フォーカスレンズを有し、被写体を撮像する撮像手段と、
前記撮像手段から連続して出力されるスルー画像が前記ディスプレイに表示された状態で前記タッチパネルにタッチして描かれた囲む軌跡を認識する認識手段と、
前記撮像手段の前記フォーカスレンズを前記囲む軌跡で指定された前記被写体に合焦させる合焦制御手段と、
前記スルー画像が前記ディスプレイに表示された状態で前記認識手段により前記囲む軌跡が認識されたとき、撮影指示を入力するためのレリーズボタンを前記ディスプレイに表示し、かつ、前記スルー画像中の前記囲む軌跡により指定された領域の画像を前記スルー画像から抽出して前記ディスプレイ上の前記レリーズボタン内に表示する表示制御手段と、
前記撮像手段により撮像して得られた撮像画像を記録媒体に記録する記録手段と、
前記レリーズボタンがタッチされたとき、前記撮像手段により撮像を行い該撮像で得られた前記撮像画像を前記記録手段により前記記録媒体に記録する実行制御手段と、
を備えたことを特徴とする携帯機器。
A touch panel display having a display for displaying and a touch panel for detecting touch input;
An imaging means having a focus lens and imaging a subject;
Recognizing means for recognizing a surrounding locus drawn by touching the touch panel in a state where a through image continuously output from the imaging means is displayed on the display ;
Focusing control means for focusing the subject specified by the trajectory surrounding the focus lens of the imaging means;
When the surrounding trajectory is recognized by the recognition means in a state where the through image is displayed on the display, a release button for inputting a shooting instruction is displayed on the display, and the surrounding in the through image is displayed. Display control means for extracting an image of an area designated by a locus from the through image and displaying it in the release button on the display;
Recording means for recording a captured image obtained by imaging by the imaging means on a recording medium;
Execution control means for capturing an image by the imaging means when the release button is touched, and recording the captured image obtained by the imaging on the recording medium by the recording means;
A portable device comprising:
前記ディスプレイに前記スルー画像が表示された状態で前記認識手段により前記囲む軌跡が認識されたとき、前記スルー画像中の前記囲む軌跡により指定された被写界上の1または複数の特定対象を検出する特定対象検出手段を備え、When the surrounding trajectory is recognized by the recognition means in a state where the through image is displayed on the display, one or more specific objects on the object scene specified by the surrounding trajectory in the through image are detected. Specific object detection means for
前記合焦制御手段は、前記撮像手段の前記フォーカスレンズを被写界上の前記特定対象に合焦させ、The focusing control unit focuses the focus lens of the imaging unit on the specific object on the object field,
前記表示制御手段は、前記スルー画像を前記ディスプレイに表示した状態で前記認識手段により前記囲む軌跡が認識されたとき、前記スルー画像中の前記特定対象の画像を前記スルー画像から抽出して前記ディスプレイ上の前記レリーズボタン内に表示することを特徴とする請求項1に記載の携帯機器。The display control unit extracts the image of the specific target in the through image from the through image when the recognizing unit recognizes the surrounding locus while the through image is displayed on the display. The portable device according to claim 1, wherein the portable device is displayed in the release button.
表示を行うディスプレイとタッチ入力を検出するタッチパネルとを有するタッチパネルディスプレイと、
前記ディスプレイに画像が表示された状態で前記タッチパネルにタッチして描かれた軌跡を認識する認識手段と、
被写体を撮像する撮像手段と、
前記撮像手段から連続して出力されるスルー画像が前記ディスプレイに表示された状態で前記タッチパネルに囲む軌跡が描かれたとき、撮影指示を入力するためのレリーズボタンを前記ディスプレイに表示する表示制御手段と、
前記撮像手段により撮像して得られた撮像画像を記録媒体に記録する記録手段と、
前記レリーズボタンがタッチされたとき、前記撮像手段により撮像を行い該撮像で得られた前記撮像画像を前記記録手段により前記記録媒体に記録する実行制御手段と、
を備え、
前記認識手段は、前記タッチパネルにタッチして描かれた時計回りに囲む軌跡および反時計回りに囲む軌跡を識別し、
前記表示制御手段は、前記時計回りに囲む軌跡の場合と前記反時計回りに囲む軌跡の場合とで、前記ディスプレイの複数の端部のうちいずれの端部に前記レリーズボタンを表示させるかを切り替えることを特徴とする携帯機器
A touch panel display having a display for displaying and a touch panel for detecting touch input;
Recognizing means for recognizing a locus drawn by touching the touch panel in a state where an image is displayed on the display;
Imaging means for imaging a subject;
Display control means for displaying on the display a release button for inputting a photographing instruction when a trajectory surrounding the touch panel is drawn in a state where through images continuously output from the imaging means are displayed on the display. When,
Recording means for recording a captured image obtained by imaging by the imaging means on a recording medium;
Execution control means for capturing an image by the imaging means when the release button is touched, and recording the captured image obtained by the imaging on the recording medium by the recording means;
With
The recognizing means identifies a trajectory that is clockwise and drawn counterclockwise drawn by touching the touch panel,
The display control means switches between which of the plurality of end portions of the display the release button is displayed depending on the clockwise encircling locus and the counterclockwise encircling locus. A portable device characterized by that .
表示を行うディスプレイとタッチ入力を検出するタッチパネルとを有するタッチパネルディスプレイと、
前記ディスプレイに画像を表示した状態で前記タッチパネルにタッチして描かれた軌跡を認識する認識手段と、
認識された前記軌跡に対応する操作ボタンを前記ディスプレイに表示可能な表示制御手段と、
前記操作ボタンがタッチされたとき、該操作ボタンに対応する処理を実行する実行制御手段と、
被写体を撮像する撮像手段と、
前記撮像手段により撮像して得られた撮像画像を記録媒体に記録する記録手段と、
を備え、
前記表示制御手段は、前記撮像手段から連続して出力されるスルー画像が前記ディスプレイに表示された状態で前記タッチパネルに第1の軌跡が描かれたときには撮影指示を入力するためのレリーズボタンを前記ディスプレイに表示し、前記レリーズボタンがタッチされたときには、前記撮像画像を前記記録媒体に記録する画像記録処理の開始を示す画像記録表示を前記ディスプレイに表示させ、
前記実行制御手段は、前記画像記録表示の表示中に、前記認識手段により前記第1の軌跡とは形状が異なる第2の軌跡が認識されたとき、前記記録媒体の前記撮像画像を記録状態から未記録状態に戻すことを特徴とする携帯機器
A touch panel display having a display for displaying and a touch panel for detecting touch input;
Recognizing means for recognizing a locus drawn by touching the touch panel in a state where an image is displayed on the display;
Display control means capable of displaying an operation button corresponding to the recognized locus on the display;
Execution control means for executing processing corresponding to the operation button when the operation button is touched;
Imaging means for imaging a subject;
Recording means for recording a captured image obtained by imaging by the imaging means on a recording medium;
With
The display control means includes a release button for inputting a shooting instruction when a first locus is drawn on the touch panel in a state where a through image continuously output from the imaging means is displayed on the display. When displayed on the display and the release button is touched, an image recording display indicating the start of an image recording process for recording the captured image on the recording medium is displayed on the display,
The execution control means, when the second locus having a shape different from the first locus is recognized by the recognition means during the display of the image recording display, the captured image of the recording medium from the recording state. A portable device characterized by returning to an unrecorded state .
前記表示制御手段は、前記認識手段により第3の軌跡が認識されたとき、記録媒体に記録された前記撮像画像を記録された状態から未記録状態に変更する画像消去処理の開始を示す画像消去表示を前記ディスプレイに表示させ、The display control means, when the third locus is recognized by the recognition means, image erasure indicating the start of image erasure processing for changing the captured image recorded on the recording medium from the recorded state to the unrecorded state Display on the display,
前記実行制御手段は、前記認識手段により前記第3の軌跡が認識されたときには、前記記録媒体に記録された前記撮像画像を記録状態から未記録状態に変更する前記画像消去処理を実行し、前記画像消去表示の表示中に、前記認識手段により前記第3の軌跡とは形状が異なる第4の軌跡が認識されたときには、前記記録媒体の前記撮像画像を未記録状態から記録された状態に戻すことを特徴とする請求項4に記載の携帯機器。The execution control means executes the image erasing process for changing the captured image recorded on the recording medium from a recorded state to an unrecorded state when the recognizing means recognizes the third locus, When the fourth track whose shape is different from the third track is recognized by the recognizing unit during the image erasure display, the captured image of the recording medium is returned from the unrecorded state to the recorded state. The portable device according to claim 4.
前記撮像手段はフォーカスレンズを有し
前記タッチパネルにタッチして描かれた囲む軌跡で指定された前記被写体に前記撮像手段の前記フォーカスレンズを合焦させる合焦制御手段を備え、
前記表示制御手段は、前記撮像手段から連続して出力されるスルー画像を前記ディスプレイに表示した状態で前記認識手段により前記囲む軌跡が前記第1の軌跡として認識されたとき、前記スルー画像中の前記囲む軌跡により指定された領域の画像を前記スルー画像から抽出して前記ディスプレイ上の前記レリーズボタン内に表示することを特徴とする請求項4または5に記載の携帯機器
The imaging means has a focus lens
Focusing control means for focusing the focus lens of the imaging means on the subject specified by an enclosing locus drawn by touching the touch panel;
The display control means is configured to display a through image continuously output from the imaging means on the display when the surrounding trajectory is recognized as the first trajectory by the recognition means. The mobile device according to claim 4 or 5, wherein an image of an area designated by the surrounding locus is extracted from the through image and displayed in the release button on the display .
表示を行うディスプレイとタッチ入力を検出するタッチパネルとを有するタッチパネルディスプレイと、
前記ディスプレイに画像を表示した状態で前記タッチパネルにタッチして描かれた軌跡を認識する認識手段と、
認識された前記軌跡に対応する操作ボタンを前記ディスプレイに表示可能な表示制御手段と、
前記操作ボタンがタッチされたとき、該操作ボタンに対応する処理を実行する実行制御手段と、
を備え、
前記表示制御手段は、前記認識手段により第1の軌跡が認識されたとき、記録媒体に記録された画像を記録された状態から未記録状態に変更する画像消去処理の開始を示す画像消去表示を前記ディスプレイに表示させ、
前記実行制御手段は、前記認識手段により前記第1の軌跡が認識されたときには、前記記録媒体に記録された前記画像を記録状態から未記録状態に変更する前記画像消去処理を実行し、前記画像消去表示の表示中に、前記認識手段により前記第1の軌跡とは形状が異なる第2の軌跡が認識されたときには、前記記録媒体の前記画像を未記録状態から記録された状態に戻すことを特徴とする携帯機器
A touch panel display having a display for displaying and a touch panel for detecting touch input;
Recognizing means for recognizing a locus drawn by touching the touch panel in a state where an image is displayed on the display;
Display control means capable of displaying an operation button corresponding to the recognized locus on the display;
Execution control means for executing processing corresponding to the operation button when the operation button is touched;
With
The display control means displays an image erasure display indicating the start of an image erasure process for changing an image recorded on a recording medium from a recorded state to an unrecorded state when the first locus is recognized by the recognition means. Display on the display,
The execution control unit executes the image erasing process for changing the image recorded on the recording medium from a recorded state to an unrecorded state when the first locus is recognized by the recognizing unit, and the image When the second track whose shape is different from the first track is recognized by the recognition means during the display of the erase display, the image on the recording medium is returned from the unrecorded state to the recorded state. Features portable devices .
フォーカスレンズを有し、被写体を撮像する撮像手段と、
前記撮像手段により撮像して得られた撮像画像を記録媒体に記録する記録手段と、
前記撮像手段の前記フォーカスレンズを、前記タッチパネルにタッチして描かれた囲む軌跡で指定された前記被写体に合焦させる合焦制御手段を備え、
を備え、
前記表示制御手段は、前記撮像手段から連続して出力されるスルー画像を前記ディスプレイに表示した状態で前記認識手段により前記囲む軌跡が認識されたとき、撮影指示を入力するためのレリーズボタンを前記ディスプレイに表示し、かつ、前記スルー画像中の前記囲む軌跡により指定された領域の画像を前記スルー画像から抽出して前記ディスプレイ上の前記レリーズボタン内に表示し、
前記実行制御手段は、前記レリーズボタンがタッチされたとき、前記撮像手段により撮像を行い該撮像で得られた前記撮像画像を前記記録手段により前記記録媒体に記録することを特徴とする請求項7に記載の携帯機器
An imaging means having a focus lens and imaging a subject;
Recording means for recording a captured image obtained by imaging by the imaging means on a recording medium;
Focusing control means for focusing the focus lens of the imaging means on the subject specified by an enclosing locus drawn by touching the touch panel;
With
The display control means includes a release button for inputting a shooting instruction when the recognizing means recognizes the surrounding trajectory while the through image continuously output from the imaging means is displayed on the display. Displaying on the display, and extracting an image of the area specified by the surrounding locus in the through image from the through image and displaying it in the release button on the display;
8. The execution control means, when the release button is touched, takes an image by the imaging means and records the captured image obtained by the imaging on the recording medium by the recording means. The portable device as described in .
前記ディスプレイに前記スルー画像が表示された状態で前記認識手段により前記囲む軌跡が認識されたとき、前記スルー画像中の前記囲む軌跡により指定された被写界上の特定対象を検出する特定対象検出手段を備え、A specific target detection for detecting a specific target on the object scene designated by the surrounding trajectory in the through image when the surrounding trajectory is recognized by the recognition means in a state where the through image is displayed on the display. With means,
前記合焦制御手段は、前記撮像手段の前記フォーカスレンズを前記特定対象に合焦させ、The focusing control unit focuses the focus lens of the imaging unit on the specific target,
前記表示制御手段は、前記スルー画像を前記ディスプレイに表示した状態で前記認識手段により前記囲む軌跡が認識されたとき、撮影指示を入力するためのレリーズボタンを前記ディスプレイに表示し、かつ、前記スルー画像中の前記特定対象の画像を前記スルー画像から抽出して前記ディスプレイ上の前記レリーズボタン内に表示することを特徴とする請求項6または8に記載の携帯機器。The display control means displays a release button for inputting a photographing instruction on the display when the surrounding locus is recognized by the recognition means in a state where the through image is displayed on the display, and the through 9. The portable device according to claim 6, wherein the image of the specific target in the image is extracted from the through image and displayed in the release button on the display.
前記表示制御手段は、前記レリーズボタンを前記ディスプレイの端部に表示させることを特徴とする請求項1、2、4、5、6、8および9のうちいずれか1項に記載の携帯機器。 The portable device according to any one of claims 1, 2, 4, 5, 6, 8, and 9, wherein the display control means displays the release button on an end portion of the display. 前記認識手段は、前記タッチパネルにタッチして描かれた時計回りに囲む軌跡および反時計回りに囲む軌跡を識別し、
前記表示制御手段は、前記時計回りに囲む軌跡の場合と前記反時計回りに囲む軌跡の場合とで、前記ディスプレイの複数の端部のうちいずれの端部に前記レリーズボタンを表示させるかを切り替えることを特徴とする請求項10に記載の携帯機器。
The recognizing means identifies a trajectory that is clockwise and drawn counterclockwise drawn by touching the touch panel,
The display control means switches between which of the plurality of end portions of the display the release button is displayed depending on the clockwise encircling locus and the counterclockwise encircling locus. The portable device according to claim 10 .
前記認識手段は、前記ディスプレイに前記レリーズボタンが表示された状態で前記タッチパネル上の任意の位置がタッチされたとき、該タッチされた位置を前記レリーズボタンの移動先と認識し、
前記表示制御手段は、前記ディスプレイ上の前記レリーズボタンの表示位置を前記移動先に変更することを特徴とする請求項1から6及び8から11のうちいずれか1項に記載の携帯機器。
The recognizing means recognizes the touched position as the movement destination of the release button when an arbitrary position on the touch panel is touched in a state where the release button is displayed on the display,
The portable device according to any one of claims 1 to 6 and 8 to 11 , wherein the display control means changes a display position of the release button on the display to the movement destination.
前記認識手段は、前記ディスプレイに前記レリーズボタンが表示された状態で前記タッチパネル上で前記レリーズボタンに触れたまま移動させる操作を認識したとき、前記レリーズボタンが離された位置を前記レリーズボタンの移動先と認識し、
前記表示制御手段は、前記ディスプレイ上の前記レリーズボタンの表示位置を前記移動先に変更することを特徴とする請求項1から6及び8から11のうちいずれか1項に記載の携帯機器。
The recognizing unit recognizes an operation of moving the release button while touching the release button on the touch panel while the release button is displayed on the display, and moves the release button to a position where the release button is released. Recognize the destination,
The portable device according to any one of claims 1 to 6 and 8 to 11 , wherein the display control means changes a display position of the release button on the display to the movement destination.
前記タッチパネル上で自在に描かれた軌跡、および、該軌跡と前記実行制御手段により実行する処理との対応関係を登録する登録手段を備えたことを特徴とする請求項1ないし13のうちいずれか1項に記載の携帯機器。 Freely trail drawn on the touch panel, and any one of claims 1, characterized in that it comprises a registration means for registering a correspondence relationship between the processing executed by the execution control means and the trajectory 13 Item 1. A portable device according to item 1. 表示を行うディスプレイとタッチ入力を検出するタッチパネルとを有するタッチパネルディスプレイと、フォーカスレンズを有し、被写体を撮像する撮像手段と、前記撮像手段により撮像して得られた撮像画像を記録媒体に記録する記録手段とを用いた操作制御方法であって、
前記撮像手段から連続して出力されるスルー画像が前記ディスプレイに表示された状態で前記タッチパネルにタッチして描かれた囲む軌跡を認識するステップと、
前記撮像手段の前記フォーカスレンズを前記囲む軌跡で指定された前記被写体に合焦させるステップと、
前記スルー画像を前記ディスプレイに表示した状態で前記囲む軌跡が認識されたとき、撮影指示を入力するためのレリーズボタンを前記ディスプレイに表示し、かつ、前記スルー画像中の前記囲む軌跡により指定された領域の画像を前記スルー画像から抽出して前記ディスプレイ上の前記レリーズボタン内に表示するステップと、
前記レリーズボタンがタッチされたとき、前記撮像手段により撮像を行い該撮像で得られた前記撮像画像を前記記録手段により前記記録媒体に記録するステップと、
を含むことを特徴とする操作制御方法。
A touch panel display having a display for displaying and a touch panel for detecting touch input, an imaging unit having a focus lens and imaging a subject, and a captured image obtained by imaging by the imaging unit is recorded on a recording medium. An operation control method using recording means ,
Recognizing a surrounding locus drawn by touching the touch panel in a state where a through image continuously output from the imaging means is displayed on the display ;
Focusing the subject specified by the trajectory surrounding the focus lens of the imaging means;
When the surrounding locus is recognized in a state where the through image is displayed on the display, a release button for inputting a shooting instruction is displayed on the display , and designated by the surrounding locus in the through image Extracting an image of a region from the through image and displaying it in the release button on the display;
When the release button is touched, imaging by the imaging unit and recording the captured image obtained by the imaging on the recording medium by the recording unit;
The operation control method characterized by including.
前記ディスプレイに前記スルー画像が表示された状態で前記囲む軌跡が認識されたとき、前記スルー画像中の前記囲む軌跡により指定された被写界上の1または複数の特定対象を検出するステップを含み、Detecting the one or more specific objects on the object field specified by the surrounding locus in the through image when the surrounding locus is recognized in a state where the through image is displayed on the display. ,
前記スルー画像を前記ディスプレイに表示した状態で前記囲む軌跡が認識されたとき、前記撮像手段の前記フォーカスレンズを前記特定対象に合焦させると共に、撮影指示を入力するためのレリーズボタンを前記ディスプレイに表示し、かつ、前記スルー画像中の前記特定対象の画像を前記スルー画像から抽出して前記ディスプレイ上の前記レリーズボタン内に表示することを特徴とする請求項15に記載の操作制御方法。When the surrounding trajectory is recognized with the through image displayed on the display, the focus lens of the imaging unit is focused on the specific target, and a release button for inputting a shooting instruction is displayed on the display. 16. The operation control method according to claim 15, wherein the operation control method is displayed and the image of the specific target in the through image is extracted from the through image and displayed in the release button on the display.
表示を行うディスプレイとタッチ入力を検出するタッチパネルとを有するタッチパネルディスプレイと、フォーカスレンズを有し、被写体を撮像する撮像手段と、前記撮像手段により撮像して得られた撮像画像を記録媒体に記録する記録手段とを用いた操作制御方法であって、A touch panel display having a display for displaying and a touch panel for detecting touch input, an imaging unit having a focus lens and imaging a subject, and a captured image obtained by imaging by the imaging unit is recorded on a recording medium. An operation control method using recording means,
前記ディスプレイに画像が表示された状態で前記タッチパネルにタッチして描かれた軌跡を認識するステップと、Recognizing a locus drawn by touching the touch panel with an image displayed on the display;
前記撮像手段から連続して出力されるスルー画像が前記ディスプレイに表示された状態で前記タッチパネルに囲む軌跡が描かれたとき、撮影指示を入力するためのレリーズボタンを前記ディスプレイに表示させるステップと、Displaying a release button for inputting a photographing instruction on the display when a locus surrounding the touch panel is drawn in a state where a through image continuously output from the imaging unit is displayed on the display;
前記レリーズボタンがタッチされたとき、前記撮像手段により撮像を行い該撮像で得られた前記撮像画像を前記記録手段により前記記録媒体に記録する処理を実行するステップと、When the release button is touched, performing a process of capturing an image by the imaging unit and recording the captured image obtained by the imaging on the recording medium by the recording unit;
を含み、Including
前記タッチパネルにタッチして描かれた時計回りに囲む軌跡および反時計回りに囲む軌跡を識別し、前記時計回りに囲む軌跡の場合と前記反時計回りに囲む軌跡の場合とで、前記ディスプレイの複数の端部のうちいずれの端部に前記レリーズボタンを表示させるかを切り替えることを特徴とする操作制御方法。Identifying a clockwise and counterclockwise trajectory drawn by touching the touch panel, and a plurality of the displays in the clockwise encircling trajectory and the counterclockwise enclosing trajectory An operation control method for switching between which one of the ends of the shutter button the display of the release button is performed.
表示を行うディスプレイとタッチ入力を検出するタッチパネルとを有するタッチパネルディスプレイと、フォーカスレンズを有し、被写体を撮像する撮像手段と、前記撮像手段により撮像して得られた撮像画像を記録媒体に記録する記録手段とを用いた操作制御方法であって、
前記ディスプレイに画像を表示した状態で前記タッチパネルにタッチして描かれた軌跡を認識するステップと、
前記撮像手段から連続して出力されるスルー画像を前記ディスプレイに表示した状態で前記タッチパネルに第1の軌跡が描かれたとき、撮影指示を入力するためのレリーズボタンを前記ディスプレイに表示させるステップと、
前記レリーズボタンがタッチされたとき、前記撮像画像を前記記録媒体に記録する処理である画像記録処理の開始を示す画像記録表示を前記ディスプレイに表示させるステップと、
前記撮像手段により撮像を行い該撮像で得られた前記撮像画像を前記記録手段により前記記録媒体に記録するステップであって、前記画像記録表示の表示中に、前記第1の軌跡とは形状が異なる第2の軌跡が認識されたとき、前記記録媒体の前記撮像画像を記録状態から未記録状態に戻すステップと、
を含むことを特徴とする操作制御方法
A touch panel display having a display for displaying and a touch panel for detecting touch input, an imaging unit having a focus lens and imaging a subject, and a captured image obtained by imaging by the imaging unit is recorded on a recording medium. An operation control method using recording means,
Recognizing a locus drawn by touching the touch panel in a state where an image is displayed on the display;
Displaying a release button for inputting a shooting instruction on the display when a first locus is drawn on the touch panel in a state where a through image continuously output from the imaging unit is displayed on the display; ,
When the release button is touched, causing the display to display an image recording display indicating the start of an image recording process that is a process of recording the captured image on the recording medium;
The step of taking an image by the imaging unit and recording the captured image obtained by the imaging on the recording medium by the recording unit, wherein the first locus has a shape during display of the image recording display. Returning a captured image of the recording medium from a recorded state to an unrecorded state when a different second locus is recognized;
The operation control method characterized by including .
表示を行うディスプレイとタッチ入力を検出するタッチパネルとを有するタッチパネルディスプレイを用いた操作制御方法であって、
前記ディスプレイに画像を表示した状態で前記タッチパネルにタッチして描かれた軌跡を認識するステップと、
認識された前記軌跡に対応する操作ボタンを前記ディスプレイに表示させるステップと、
前記操作ボタンがタッチされたとき、該操作ボタンに対応する処理を実行するステップと、
記録媒体に記録された画像を消去する画像消去処理の開始を指示する第1の軌跡が認識されたとき、記録媒体に記録された画像を消去する処理である画像消去処理の開始を示す画像消去表示を前記ディスプレイに表示させるステップと、
前記記録媒体に記録された画像を記録状態から未記録状態に変更することで前記画像消去処理を実行するステップであって、前記画像消去表示の表示中に、前記第1の軌跡とは形状が異なる第2の軌跡が認識されたとき、前記記録媒体の前記画像を未記録状態から記録状態に戻すステップと、
を含むことを特徴とする操作制御方法
An operation control method using a touch panel display having a display for displaying and a touch panel for detecting touch input,
Recognizing a locus drawn by touching the touch panel in a state where an image is displayed on the display;
Displaying an operation button corresponding to the recognized locus on the display;
Executing a process corresponding to the operation button when the operation button is touched;
Image erasure indicating the start of an image erasure process, which is a process of erasing an image recorded on a recording medium when a first locus for instructing the start of an image erasure process for erasing an image recorded on the recording medium is recognized Displaying a display on the display;
Executing the image erasing process by changing an image recorded on the recording medium from a recorded state to an unrecorded state, wherein the first locus has a shape during display of the image erasure display. Returning the image of the recording medium from an unrecorded state to a recorded state when a different second trajectory is recognized;
The operation control method characterized by including .
JP2009023869A 2009-02-04 2009-02-04 Portable device and operation control method Expired - Fee Related JP5185150B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009023869A JP5185150B2 (en) 2009-02-04 2009-02-04 Portable device and operation control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009023869A JP5185150B2 (en) 2009-02-04 2009-02-04 Portable device and operation control method

Publications (2)

Publication Number Publication Date
JP2010182023A JP2010182023A (en) 2010-08-19
JP5185150B2 true JP5185150B2 (en) 2013-04-17

Family

ID=42763579

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009023869A Expired - Fee Related JP5185150B2 (en) 2009-02-04 2009-02-04 Portable device and operation control method

Country Status (1)

Country Link
JP (1) JP5185150B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9137437B2 (en) * 2012-09-03 2015-09-15 Lg Electronics Inc. Method for changing displayed characteristics of a preview image

Families Citing this family (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5871473B2 (en) * 2011-02-09 2016-03-01 キヤノン株式会社 Target selection device, control method thereof, and control program
JP5853406B2 (en) * 2011-04-25 2016-02-09 カシオ計算機株式会社 Electronic device, icon display method, program
JP6008076B2 (en) * 2011-10-13 2016-10-19 セイコーエプソン株式会社 Projector and image drawing method
JP2013127692A (en) * 2011-12-19 2013-06-27 Kyocera Corp Electronic apparatus, delete program, and method for control delete
US20150301635A1 (en) * 2013-01-15 2015-10-22 Hitachi Maxell, Ltd. Information processing device, information processing method, and program
WO2014129127A1 (en) * 2013-02-21 2014-08-28 Necカシオモバイルコミュニケーションズ株式会社 Image processing device, image processing method and permanent computer-readable medium
JP2015142317A (en) * 2014-01-30 2015-08-03 シャープ株式会社 Electronic apparatus
AU2016252993B2 (en) 2015-04-23 2018-01-04 Apple Inc. Digital viewfinder user interface for multiple cameras
US10009536B2 (en) 2016-06-12 2018-06-26 Apple Inc. Applying a simulated optical effect based on data received from multiple camera sensors
DK180859B1 (en) 2017-06-04 2022-05-23 Apple Inc USER INTERFACE CAMERA EFFECTS
CN110999283B (en) * 2017-08-01 2023-02-03 索尼公司 Image forming apparatus, image forming method, and storage medium
US11112964B2 (en) 2018-02-09 2021-09-07 Apple Inc. Media capture lock affordance for graphical user interface
US10375313B1 (en) 2018-05-07 2019-08-06 Apple Inc. Creative camera
US11722764B2 (en) 2018-05-07 2023-08-08 Apple Inc. Creative camera
US11770601B2 (en) 2019-05-06 2023-09-26 Apple Inc. User interfaces for capturing and managing visual media
US10645294B1 (en) 2019-05-06 2020-05-05 Apple Inc. User interfaces for capturing and managing visual media
US11321857B2 (en) 2018-09-28 2022-05-03 Apple Inc. Displaying and editing images with depth information
US11128792B2 (en) 2018-09-28 2021-09-21 Apple Inc. Capturing and displaying images with multiple focal planes
US11706521B2 (en) 2019-05-06 2023-07-18 Apple Inc. User interfaces for capturing and managing visual media
JP7357534B2 (en) * 2019-12-17 2023-10-06 シャープ株式会社 Information processing system, information processing method, and information processing program
US11039074B1 (en) 2020-06-01 2021-06-15 Apple Inc. User interfaces for managing media
US11212449B1 (en) 2020-09-25 2021-12-28 Apple Inc. User interfaces for media capture and management
US11539876B2 (en) 2021-04-30 2022-12-27 Apple Inc. User interfaces for altering visual media
US11778339B2 (en) 2021-04-30 2023-10-03 Apple Inc. User interfaces for altering visual media
US12112024B2 (en) 2021-06-01 2024-10-08 Apple Inc. User interfaces for managing media styles

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3389452B2 (en) * 1997-05-09 2003-03-24 株式会社ジャストシステム Window display control device, window display control method, and computer-readable recording medium storing a program for causing a computer to execute the method
JPH11136568A (en) * 1997-10-31 1999-05-21 Fuji Photo Film Co Ltd Touch panel operation-type camera
JP2000123114A (en) * 1998-10-15 2000-04-28 Casio Comput Co Ltd Handwritten character input device and storage medium
JP2000347784A (en) * 1999-06-08 2000-12-15 Nec Commun Syst Ltd Display controller and buttonless telephone set
JP2003131528A (en) * 2001-10-24 2003-05-09 Kyocera Mita Corp Image forming apparatus
JP4008299B2 (en) * 2002-07-25 2007-11-14 富士フイルム株式会社 Operation panel consisting of an imaging device and touch panel
JP2007052795A (en) * 2006-08-21 2007-03-01 Fujifilm Holdings Corp Operation device of apparatus provided with screen display part, and digital camera
JP2008118301A (en) * 2006-11-01 2008-05-22 Canon Inc Electronic blackboard system
JP2008257427A (en) * 2007-04-04 2008-10-23 Nikon Corp Electronic device and camera
JP4897577B2 (en) * 2007-06-06 2012-03-14 富士フイルム株式会社 Imaging device

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9137437B2 (en) * 2012-09-03 2015-09-15 Lg Electronics Inc. Method for changing displayed characteristics of a preview image

Also Published As

Publication number Publication date
JP2010182023A (en) 2010-08-19

Similar Documents

Publication Publication Date Title
JP5185150B2 (en) Portable device and operation control method
JP6748582B2 (en) Imaging device, control method thereof, program, and recording medium
JP5775659B2 (en) Imaging apparatus and mode switching method in imaging apparatus
US9699389B2 (en) Image displaying apparatus and image displaying method
KR101624218B1 (en) Digital photographing apparatus and controlling method thereof
US9778767B2 (en) Display control apparatus and control method of display control apparatus
KR101653602B1 (en) Display control apparatus and control method therefor
JP6799475B2 (en) Imaging device and its control method
JP5956836B2 (en) Imaging apparatus, display control method, and program
JP2013009189A (en) Imaging device and imaging method
JP6777091B2 (en) Controls, control methods, and programs
JP5830564B2 (en) Imaging apparatus and mode switching method in imaging apparatus
JPWO2016006149A1 (en) Imaging control apparatus, imaging control method, and program
KR101599871B1 (en) Photographing apparatus and photographing method
JP2014017665A (en) Display control unit, control method for display control unit, program, and recording medium
JP5959215B2 (en) Imaging device
JP2010181968A (en) Camera
JP4490888B2 (en) Imaging device
CN117714869A (en) Image pickup apparatus, control method thereof, and storage medium
JP6017656B2 (en) Imaging apparatus and mode switching method in imaging apparatus
JP2019086701A (en) Imaging control apparatus and control method thereof
JP6061715B2 (en) Imaging apparatus, control method thereof, and program
JP6393296B2 (en) IMAGING DEVICE AND ITS CONTROL METHOD, IMAGING CONTROL DEVICE, PROGRAM, AND STORAGE MEDIUM
JP6708516B2 (en) Electronic device, control method thereof, and program
JP2020106770A (en) Information processing device, information processing method, imaging device, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110801

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120621

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120627

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120817

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130108

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130117

R150 Certificate of patent or registration of utility model

Ref document number: 5185150

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160125

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees