[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP5711296B2 - Imaging method and imaging apparatus - Google Patents

Imaging method and imaging apparatus Download PDF

Info

Publication number
JP5711296B2
JP5711296B2 JP2013097875A JP2013097875A JP5711296B2 JP 5711296 B2 JP5711296 B2 JP 5711296B2 JP 2013097875 A JP2013097875 A JP 2013097875A JP 2013097875 A JP2013097875 A JP 2013097875A JP 5711296 B2 JP5711296 B2 JP 5711296B2
Authority
JP
Japan
Prior art keywords
facial expression
image
face
image data
head
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013097875A
Other languages
Japanese (ja)
Other versions
JP2013157030A (en
Inventor
孝子 花井
孝子 花井
野中 修
修 野中
敏 宮崎
敏 宮崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Olympus Imaging Corp
Original Assignee
Olympus Corp
Olympus Imaging Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp, Olympus Imaging Corp filed Critical Olympus Corp
Priority to JP2013097875A priority Critical patent/JP5711296B2/en
Publication of JP2013157030A publication Critical patent/JP2013157030A/en
Application granted granted Critical
Publication of JP5711296B2 publication Critical patent/JP5711296B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Description

本発明は、撮影者と被写体の両方の好みの表情の画像を撮影するための撮像方法及び撮像装置に関する。   The present invention relates to an imaging method and an imaging apparatus for capturing images of favorite expressions of both a photographer and a subject.

近年、ユーザが自身で撮影して得られたデジタルの写真画像を、ネットワークを介して広く公開できるようにしたシステムが各種提案されている。このようなネットワーク上で写真公開ができるシステムにおいては、公開した写真画像が多くの人に見られる可能性があるため、ユーザはなるべくならば見栄えの良い写真画像を撮影して公開したいと考えると思われる。   In recent years, various systems have been proposed in which digital photographic images obtained by users themselves can be widely disclosed via a network. In a system that can publish photos on such a network, the published photo image may be seen by many people, so if the user wants to take a photo image that looks good and publish it as much as possible Seem.

ここで、撮影者の好みに応じた表情の被写体を撮影するための技術に関する提案として、例えば特許文献1においては、撮影者が好みとする表情の顔画像の特徴量(目や鼻の分布等)を所定の記憶部に記憶させておき、撮影時においては1回の撮影指示で複数回の撮影を行って複数枚の画像を取得し、その中で先に記憶しておいて顔画像の特徴量と最も類似する画像を選択して記録するようにしている。   Here, as a proposal regarding a technique for photographing a subject with a facial expression according to a photographer's preference, for example, in Patent Document 1, the feature amount of facial images with a facial expression desired by the photographer (such as eye and nose distribution) ) Is stored in a predetermined storage unit, and at the time of shooting, a plurality of images are acquired by one shooting instruction, and a plurality of images are acquired, and stored in advance in the face image An image most similar to the feature amount is selected and recorded.

特開2006−115406号公報JP 2006-115406 A

ここで、特許文献1においては、撮影前に被写体が好みの表情をしているかを確認することができないため、1回の撮影指示で複数枚の画像を撮影するようにしている。このため、撮影時間が長くなりやすく、また複数枚の画像を1度に保持しておく必要があるため、メモリの容量も増大しやすい。   Here, in Patent Document 1, since it is not possible to confirm whether the subject has a favorite expression before shooting, a plurality of images are shot with one shooting instruction. For this reason, the photographing time tends to be long, and it is necessary to hold a plurality of images at a time, so that the memory capacity tends to increase.

本発明は、上記の事情に鑑みてなされたもので、1回の撮影によって撮影者と被写体の両方の好みの表情の画像を得ることが可能な撮像方法及び撮像装置を提供することを目的とする。   The present invention has been made in view of the above circumstances, and an object thereof is to provide an imaging method and an imaging apparatus capable of obtaining images of favorite expressions of both a photographer and a subject by one shooting. To do.

上記の目的を達成するために、本発明の第1の態様の撮像方法は、撮像素子を連続動作させてスルー画像データを取得し、取得したスルー画像データを逐次表示させ、上記取得したスルー画像データから顔部の目部と口部と頭部とを検出し、予め格納してあった比較用の複数の表情画像に対して被写体によって点数が指定されている場合には、上記検出した目部、口部及び頭部の検出結果と上記複数の表情画像とのマッチングによって上記顔部の表情及び首の傾げ方又は顔の向きに応じた数値をマッチングされた表情画像に対応付けられた点数として演算し、点数が指定されていない場合には、上記検出した目部、口部及び頭部の検出結果と上記複数の表情画像とのマッチングによって上記顔部の表情及び首の傾げ方又は顔の向きに応じた数値をマッチングされた表情画像に対応付けられた笑顔を表す点数として演算し、上記演算した上記顔部の表情及び首の傾げ方又は顔の向きに応じた数値に応じた表情レベルを上記スルー画像データに重畳表示させることを特徴とする。 In order to achieve the above object, the imaging method according to the first aspect of the present invention acquires through image data by continuously operating an image sensor, sequentially displays the acquired through image data, and acquires the through image acquired above. When the eyes, mouth, and head of the face are detected from the data, and the score is specified by the subject for a plurality of comparison facial expression images stored in advance, the detected eyes The number of points associated with the facial expression image matched with the facial expression and the direction of the neck tilt or the face orientation by matching the detection results of the head, mouth and head with the plurality of facial expression images When the score is not specified, the facial expression and the neck tilt or face by matching the detection results of the detected eyes, mouth and head with the plurality of facial expression images Number according to the direction of Was calculated as the number that represents the smile associated with the matched expression image, the computed the face portion of the expressions and neck tilted way or the through image data expression level corresponding to the numerical value corresponding to the orientation of the face It is characterized by being displayed in a superimposed manner.

上記の目的を達成するために、本発明の第2の態様の撮像装置は、スルー画像データを取得する撮像素子と、上記取得されたスルー画像データを逐次表示する表示部と、
上記取得したスルー画像データから顔部の目部と口部と頭部とを検出し、予め格納してあった比較用の複数の表情画像に対して被写体によって点数が指定されている場合には、上記検出した目部、口部及び頭部の検出結果と上記複数の表情画像とのマッチングによって上記顔部の表情及び首の傾げ方又は顔の向きに応じた数値をマッチングされた表情画像に対応付けられた点数として演算し、点数が指定されていない場合には、上記検出した目部、口部及び頭部の検出結果と上記複数の表情画像とのマッチングによって上記顔部の表情及び首の傾げ方又は顔の向きに応じた数値をマッチングされた表情画像に対応付けられた笑顔を表す点数として演算する表情レベル演算回路と、上記演算された上記顔部の表情及び首の傾げ方又は顔の向きに応じた数値に応じた表情レベルを上記スルー画像データに重畳表示させる制御部とを具備することを特徴とする。
In order to achieve the above object, an imaging device according to a second aspect of the present invention includes an imaging element that acquires through image data, a display unit that sequentially displays the acquired through image data,
When the eyes, mouth, and head of the face are detected from the acquired through image data , and points are specified by the subject for a plurality of facial expression images for comparison stored in advance. , By matching the detected results of the detected eyes, mouth and head with the plurality of facial expression images, the facial expression and the numerical value corresponding to the manner of tilting the neck or the direction of the face are matched to the facial expression image When the score is calculated and the score is not designated, the facial expression and neck of the face are matched by matching the detected eye, mouth and head detection results with the plurality of facial expression images. A facial expression level calculation circuit that calculates a numerical value according to how to tilt or the direction of the face as a score representing a smile associated with the matched facial expression image, and the calculated facial expression and the method of tilting the neck or Face orientation The expression level according to numerical values Flip characterized by comprising a control unit for superimposing displayed on the through image data.

本発明によれば、1回の撮影によって撮影者と被写体の両方の好みの表情の画像を得ることが可能な撮像方法及び撮像装置を提供することができる。   ADVANTAGE OF THE INVENTION According to this invention, the imaging method and imaging device which can obtain the image of the favorite expression of both a photographer and a to-be-photographed object by one imaging | photography can be provided.

本発明の一実施形態に係るカメラの構成を示すブロック図である。It is a block diagram which shows the structure of the camera which concerns on one Embodiment of this invention. 図1に示すカメラにおける動作の概要について示す図である。It is a figure shown about the outline | summary of operation | movement in the camera shown in FIG. R値を算出する際の処理の流れについて示すフローチャートである。It is a flowchart shown about the flow of a process at the time of calculating R value. 図4(a)はR値の高い表情の例を示す図であり、図4(b)はR値の低い表情の例を示す図である。FIG. 4A is a diagram showing an example of a facial expression with a high R value, and FIG. 4B is a diagram showing an example of a facial expression with a low R value. R値と採点結果との関係を示した分布曲線を示す図である。It is a figure which shows the distribution curve which showed the relationship between R value and a scoring result. 本発明の一実施形態に係るカメラのメイン動作制御について示すフローチャートである。It is a flowchart shown about the main operation control of the camera which concerns on one Embodiment of this invention. 表情画像の採点処理について示すフローチャートである。It is a flowchart shown about the scoring process of a facial expression image.

以下、図面を参照して本発明の実施形態を説明する。
図1は、本発明の一実施形態に係るカメラ100の構成を示すブロック図である。図1に示すカメラ100は、マイクロプロセッシングユニット(MPU)101と、操作部102と、撮影レンズ103と、オートフォーカス(AF)回路104と、絞り機構105と、絞り制御回路106と、撮像素子107と、アナログフロントエンド(AFE)回路108と、画像処理回路109と、表示制御回路110と、表示パネル111と、ピント判定回路112と、顔検出回路113と、表情レベル演算回路114と、圧縮/伸張部115と、記録制御部116と、表情データベース116aと、記録メディア117と、補助光発光回路118とを有している。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
FIG. 1 is a block diagram showing a configuration of a camera 100 according to an embodiment of the present invention. A camera 100 shown in FIG. 1 includes a microprocessing unit (MPU) 101, an operation unit 102, a photographing lens 103, an autofocus (AF) circuit 104, an aperture mechanism 105, an aperture control circuit 106, and an image sensor 107. An analog front end (AFE) circuit 108, an image processing circuit 109, a display control circuit 110, a display panel 111, a focus determination circuit 112, a face detection circuit 113, an expression level calculation circuit 114, a compression / The decompression unit 115, the recording control unit 116, the facial expression database 116 a, the recording medium 117, and the auxiliary light emitting circuit 118 are included.

MPU101は、ユーザからの操作部102の操作に応じてカメラ100を構成する各ブロックをシーケンシャルに制御する。操作部102は、カメラ100による撮影を実行させるためのレリーズスイッチや、カメラ100の動作モードを撮影モードや再生モード等の間で切り替えるための切り替えスイッチ等が含まれる。また、詳細は後述するが、操作部102は、被写体となる人物に、好みの表情を指定させるための指定部の機能を有する操作部も含まれる。   The MPU 101 sequentially controls each block constituting the camera 100 according to the operation of the operation unit 102 from the user. The operation unit 102 includes a release switch for causing the camera 100 to perform shooting, a changeover switch for switching the operation mode of the camera 100 between a shooting mode, a playback mode, and the like. Although details will be described later, the operation unit 102 includes an operation unit having a function of a designation unit for causing a person who is a subject to designate a favorite facial expression.

また、MPU101は、ユーザによって写真撮影がなされた時刻を計測するためのタイマを有している。これにより、撮影によって得られる画像データに対して撮影時刻が関連付けられる。   The MPU 101 also has a timer for measuring the time when the user took a picture. Thereby, the photographing time is associated with the image data obtained by photographing.

撮影レンズ103は、被写体200からの像を撮像素子107に結像させる。この撮影レンズ103は、オートフォーカス(ピント合わせ)用のレンズを含んでいる。オートフォーカスの際に、MPU101は、ピント合わせレンズのレンズ位置をモニタしつつ、AF回路104を制御してピント合わせレンズのレンズ位置を切り替えて撮影レンズ103のピント合わせを行う。また、撮影レンズ103はズームレンズも含んでおり、ズームレンズの位置を切り替えることで撮影時の画角を切り替えることもできる。絞り機構105は、撮影レンズ103内又はその近傍に設けられ、シャッタや絞りの効果を奏する機構である。絞り機構105は、撮影開始時に絞り制御回路106によって所定の口径まで開かれ、撮影終了時に閉じられるものである。撮影時においては、撮影レンズ103のズームレンズや絞り機構105等を駆動することで、撮影者は自身の好みの撮影効果(構図、背景処理、動きの描写等)での写真撮影を行うことができる。   The taking lens 103 forms an image from the subject 200 on the image sensor 107. The photographing lens 103 includes a lens for autofocus (focusing). During autofocus, the MPU 101 controls the AF circuit 104 while switching the lens position of the focusing lens while monitoring the lens position of the focusing lens, and performs focusing of the photographing lens 103. The photographing lens 103 also includes a zoom lens, and the angle of view at the time of photographing can be switched by switching the position of the zoom lens. The aperture mechanism 105 is a mechanism that is provided in the vicinity of the photographing lens 103 or has an effect of a shutter or an aperture. The aperture mechanism 105 is opened to a predetermined aperture by the aperture control circuit 106 at the start of shooting and closed at the end of shooting. At the time of shooting, by driving the zoom lens of the shooting lens 103, the aperture mechanism 105, etc., the photographer can take a photograph with his / her favorite shooting effect (composition, background processing, motion description, etc.). it can.

撮像素子107は、多数の画素が配列されて構成される受光面を有し、撮影レンズ103を介して受光した被写体200からの像を電気的な信号に変換する。本実施形態においては、撮像素子107にはCCD方式及びCMOS方式の何れを用いても良い。   The image sensor 107 has a light receiving surface configured by arranging a large number of pixels, and converts an image from the subject 200 received through the photographing lens 103 into an electrical signal. In the present embodiment, the image sensor 107 may use either a CCD system or a CMOS system.

AFE回路108は、CDS回路、ゲイン調整回路、AD変換回路等を含み、撮像素子107において得られるアナログ電気信号に対し相関二重サンプリング処理、ゲイン調整処理といったアナログ処理を行った後、これによって得られる画像信号をデジタルデータ化して画像処理回路109に入力する。また、AFE回路108には、撮像素子107を構成する複数の画素からの信号を一括して読み出す機能も設けられている。例えば、AFE回路108によって、4画素(2×2画素)や9画素(3×3画素)の信号をまとめて読み出し、これら読み出した電気信号を加算することでS/Nを向上させることが出来る。このような処理によって、撮像素子107の見かけ上の感度を上げること等が出来る。   The AFE circuit 108 includes a CDS circuit, a gain adjustment circuit, an AD conversion circuit, and the like, and is obtained by performing analog processing such as correlated double sampling processing and gain adjustment processing on the analog electric signal obtained in the image sensor 107. The obtained image signal is converted into digital data and input to the image processing circuit 109. The AFE circuit 108 is also provided with a function of reading signals from a plurality of pixels constituting the image sensor 107 at a time. For example, the SFE can be improved by collectively reading out signals of 4 pixels (2 × 2 pixels) and 9 pixels (3 × 3 pixels) by the AFE circuit 108 and adding the read electrical signals. . By such processing, the apparent sensitivity of the image sensor 107 can be increased.

さらに、AFE回路108は、撮像素子107からの出力信号を取捨選択する機能も有し、撮像素子107の全有効画素のうち、限られた範囲の画素からの信号のみを抽出するとも出来る。一般に、撮像素子107は間引きを行うことで高速で信号を読み出すことが出来る。この機能を利用して、撮像素子107を連続動作させて得られる構図確認用のスルー画像を高速で読み出して画像処理回路109において処理してから表示パネル111に表示すれば、ユーザは表示パネル111上に表示されるスルー画像を利用してフレーミングを行うことが可能である。   Further, the AFE circuit 108 also has a function of selecting an output signal from the image sensor 107, and can extract only signals from a limited range of pixels among all effective pixels of the image sensor 107. In general, the image sensor 107 can read signals at high speed by performing thinning. By using this function, if a through image for composition confirmation obtained by continuously operating the image sensor 107 is read out at high speed and processed by the image processing circuit 109 and then displayed on the display panel 111, the user can display the display panel 111. It is possible to perform framing using the through image displayed above.

画像処理回路109は、AFE回路108から入力される画像データにおける色や階調、シャープネス等を補正処理したり、画像データのレベルを所定のレベルに増幅して、正しい濃淡及び正しい灰色レベルに調整したりする各種画像処理を行う。   The image processing circuit 109 corrects the color, gradation, sharpness, etc. in the image data input from the AFE circuit 108, or amplifies the level of the image data to a predetermined level to adjust it to the correct shading and the correct gray level. Various image processing is performed.

また、上述したようなフレーミング用の画像等の各種の画像を表示するために、画像処理回路109は、AFE回路108から入力される画像データを表示パネル111に表示可能なようにリサイズ(縮小)する機能も有する。   Further, in order to display various images such as the framing image as described above, the image processing circuit 109 resizes (reduces) the image data input from the AFE circuit 108 so that the image data can be displayed on the display panel 111. It also has a function to

表示制御回路110は、画像処理回路109で得られた画像データや記録メディア117に記録されている画像データを映像信号に変換し、変換した映像信号に基づいて画像を表示パネル111に表示させる。表示パネル111は液晶表示パネルや有機EL表示パネル等の表示パネルである。また、表示制御回路110は、表示パネル111に複数の画像を重畳して表示させるマルチ画面表示機能も有している。このマルチ画面表示機能によって、撮影した画像や撮影する画像の上に、モード設定の文字表示やいろいろな警告表示を重畳表示することも可能である。   The display control circuit 110 converts the image data obtained by the image processing circuit 109 and the image data recorded on the recording medium 117 into a video signal, and causes the display panel 111 to display an image based on the converted video signal. The display panel 111 is a display panel such as a liquid crystal display panel or an organic EL display panel. The display control circuit 110 also has a multi-screen display function for displaying a plurality of images superimposed on the display panel 111. With this multi-screen display function, it is also possible to superimpose a character display of mode setting and various warning displays on the captured image or the captured image.

ピント判定回路112は、画像処理回路109によって得られる画像のコントラストを検出する。このピント判定回路112によって検出されるコントラストはオートフォーカスの際に用いられる。即ち、AF回路104によって撮影レンズ103のピント合わせレンズのレンズ位置を変化させながら、ピント判定回路112によって画像のコントラストを逐次検出し、検出されるコントラストが最大となるレンズ位置でピント合わせレンズを停止させることで、撮影レンズ103のピント合わせを行うことができる。   The focus determination circuit 112 detects the contrast of the image obtained by the image processing circuit 109. The contrast detected by the focus determination circuit 112 is used during autofocus. That is, while the AF circuit 104 changes the lens position of the focusing lens of the photographing lens 103, the focus determination circuit 112 sequentially detects the contrast of the image, and stops the focusing lens at the lens position where the detected contrast is maximized. By doing so, the photographing lens 103 can be focused.

顔検出回路113は、画像処理回路109によって得られる画像内の特徴点(例えば、被写体が人物等であれば、目や鼻、口等)の分布から、画像内における被写体の特に顔に相当する部分を検出する。表情レベル演算回路114は、顔検出回路113によって検出される顔画像から被写体の表情レベルを求めるための値であるR値(詳細は後述する)を算出する。   The face detection circuit 113 corresponds to a particular face of the subject in the image from the distribution of feature points in the image obtained by the image processing circuit 109 (for example, if the subject is a person, eyes, nose, mouth, etc.). Detect part. The expression level calculation circuit 114 calculates an R value (details will be described later) that is a value for obtaining the expression level of the subject from the face image detected by the face detection circuit 113.

圧縮/伸張部115は、撮影時に、画像処理回路109において処理された画像データを圧縮する。また、圧縮/伸張部115は記録メディア117に圧縮記録された画像データを伸張する。記録制御部116は、圧縮/伸張部115で圧縮された画像データに付随データを付随させて記録メディア117に記録する。   The compression / decompression unit 115 compresses the image data processed by the image processing circuit 109 at the time of shooting. The compression / decompression unit 115 decompresses image data compressed and recorded on the recording medium 117. The recording control unit 116 records the image data compressed by the compression / expansion unit 115 on the recording medium 117 with accompanying data.

格納部としての表情データベース116aは、被写体200となる人物によって指定されたその人物の好みの表情の画像に対応するR値と、その画像に対応して被写体200によって指定された点数とを格納する。   The facial expression database 116a as a storage unit stores an R value corresponding to an image of a favorite facial expression of the person designated by the person who is the subject 200, and a score designated by the subject 200 corresponding to the image. .

補助光発光回路118は、撮影時の状況に応じて被写体200に補助光を照射する。これによって、撮影時の明るさの不足や不均一を防止する。   The auxiliary light emitting circuit 118 irradiates the subject 200 with auxiliary light according to the situation at the time of shooting. This prevents insufficient brightness and unevenness during shooting.

図2は、図1に示すカメラにおける動作の概要について示す図である。撮影前には、まず、被写体200に、各種表情の画像を呈示し、それぞれの表情の画像に点数を付けさせる。このとき呈示する各種の表情の画像は、例えば表情のサンプル集のような画像を予め撮影して表情データベース116aに格納しておくようにしても良いし、実際に、被写体200に各種の表情をさせた状態で撮影を行って得るようにしても良い。ここで、本実施形態においては、被写体200に呈示する表情の画像には、詳細は後述するR値(図2のRa〜Rd)が対応付けられている。そして、被写体200によって採点がなされると、その採点結果がR値と対応付けられて表情データベース116aに格納される。図2の例では、被写体200が画像A、画像B、画像C、画像Dの4枚の表情の画像について10段階評価の採点を行った例を示している。採点を行う画像の枚数は4枚に限らず、また、採点も10段階評価に限るものではない。   FIG. 2 is a diagram showing an outline of the operation of the camera shown in FIG. Before shooting, first, various facial expressions are presented on the subject 200, and each facial expression is scored. The images of various facial expressions to be presented at this time may be pre-photographed, for example, as a collection of facial expression samples, and stored in the facial expression database 116a. You may make it obtain by image | photographing in the state made to do. Here, in the present embodiment, the expression value presented to the subject 200 is associated with R values (Ra to Rd in FIG. 2), which will be described in detail later. Then, when scoring is performed by the subject 200, the scoring result is associated with the R value and stored in the facial expression database 116a. In the example of FIG. 2, an example is shown in which the subject 200 performs scoring of 10-level evaluation on the four facial expression images of the image A, the image B, the image C, and the image D. The number of images to be scored is not limited to four, and the scoring is not limited to 10-level evaluation.

撮影前のフレーミング時において、カメラ100は逐次被写体200を撮像してスルー画像を取得し、このスルー画像を逐次表示パネル111に表示させる。本実施形態ではフレーミング時に逐次取得されるスルー画像における人物の顔部の画像のR値に対応する点数を表情データベース116aから抽出し、この点数に基づいて、現在の表情が、被写体200がどの程度好む表情であるかを判定する。そして、この判定結果を、例えば参照符号111aに示すようなレベル表示(バー表示)の形式等で撮影者に提供する。   During framing before shooting, the camera 100 sequentially captures the subject 200 to acquire a through image, and sequentially displays the through image on the display panel 111. In the present embodiment, the score corresponding to the R value of the human face image in the through image sequentially acquired during framing is extracted from the facial expression database 116a, and based on this score, the current facial expression is the extent of the subject 200. Judge whether the facial expression you like. Then, this determination result is provided to the photographer in the form of a level display (bar display) as indicated by reference numeral 111a, for example.

次に、R値について説明する。図3は、R値を算出する際の処理の流れについて示すフローチャートである。図3において、表情レベル演算回路114は、顔検出回路113によって検出された顔部の画像における陰影分布から画像内の顔部における目部、口部を検出する(ステップS101)。より具体的には画像のコントラストを強調した状態で画像内において略円形をしている顔部を顔検出回路113によって検出する。そして、表情レベル演算回路114において顔部内の陰影の分布から目部及び鼻部を検出する。   Next, the R value will be described. FIG. 3 is a flowchart showing the flow of processing when calculating the R value. In FIG. 3, the expression level calculation circuit 114 detects the eyes and mouth of the face in the image from the shadow distribution in the image of the face detected by the face detection circuit 113 (step S101). More specifically, the face detection circuit 113 detects a face portion that is substantially circular in the image while enhancing the contrast of the image. Then, the expression level calculation circuit 114 detects the eyes and nose from the distribution of shadows in the face.

ステップS101において目部、鼻部を検出した後、表情レベル演算回路114は、両目の瞳を結ぶ直線Aの上側の白眼部分の面積EA(図4(a)参照)を求める(ステップS102)。次に、表情レベル演算回路114は、両目の瞳を結ぶ直線Aの下側の白眼部分の面積EB(図4(a)参照)を求める(ステップS103)。EA及びEBを求めた後、表情レベル演算回路114は、EAとEBの差をEAとEBの和で正規化した値REを求める(ステップS104)。ここで、被写体200が他人に見せたい笑顔の場合には図4(a)に示すようにEBが0に近くなるため、結果REが大きくなる。逆に、被写体200が他人に見せたくない困った顔の場合には図4(b)に示すようにEAが0に近くなるため、結果REが小さくなる。したがって、REの大小から表情を判定することが可能である。   After detecting the eyes and nose in step S101, the facial expression level calculation circuit 114 obtains the area EA (see FIG. 4A) of the white-eye portion above the straight line A connecting the eyes of both eyes (step S102). Next, the facial expression level calculation circuit 114 obtains the area EB (see FIG. 4A) of the white-eye portion below the straight line A connecting the eyes of both eyes (step S103). After obtaining EA and EB, the facial expression level calculation circuit 114 obtains a value RE obtained by normalizing the difference between EA and EB by the sum of EA and EB (step S104). Here, when the subject 200 is a smile that he wants to show to others, the EB becomes close to 0 as shown in FIG. On the contrary, when the subject 200 has a troubled face that he / she does not want to show to others, the EA becomes close to 0 as shown in FIG. Therefore, it is possible to determine the facial expression from the magnitude of RE.

REを求めた後、表情レベル演算回路114は、口の両端を結ぶ直線Bの上側の唇部分の面積LA(図4(b)参照)を求める(ステップS105)。次に、表情レベル演算回路114は、口の両端を結ぶ直線Bの下側の唇部分の面積LB(図4(b)参照)を求める(ステップS106)。LA及びLBを求めた後、表情レベル演算回路114は、LBとLAの差をLAとLBの和で正規化した値RLを求める(ステップS107)。ここで、笑顔の場合には図4(a)に示すようにLAが0に近くなるため、結果RLが大きくなる。逆に、困った顔の場合には図4(b)に示すようにLBが小さくなるため、結果RLが小さくなる。したがって、RLの大小からも表情を判定することが可能である。   After obtaining RE, the facial expression level calculation circuit 114 obtains the area LA (see FIG. 4B) of the upper lip portion of the straight line B connecting both ends of the mouth (step S105). Next, the facial expression level calculation circuit 114 obtains the area LB (see FIG. 4B) of the lower lip portion of the straight line B connecting both ends of the mouth (step S106). After obtaining LA and LB, the facial expression level calculation circuit 114 obtains a value RL obtained by normalizing the difference between LB and LA by the sum of LA and LB (step S107). Here, in the case of a smile, since LA is close to 0 as shown in FIG. 4A, the result RL increases. On the contrary, in the case of a troubled face, LB becomes small as shown in FIG. 4B, and therefore the result RL becomes small. Therefore, it is possible to determine the facial expression from the size of RL.

RE及びRLを求めた後、表情レベル演算回路114はREとRLの和Rを求める(ステップS108)。このR値は大きいほどそのときの表情は笑顔(良好な表情)に近いものとなる。さらに、図4(a)の矢印Cで示したように口の端部に影があったり、歯が見えていたりすると笑顔の確率が高い。そこで、表情レベル演算回路114は口部分に歯(白部分)が検出され、かつ口端部に影があるか否かを判定する(ステップS109)。ステップS109の判定において、口部分に歯が検出され、かつ口端部に影がある場合に、表情レベル演算回路114はRに1を加算する(ステップS110)。   After obtaining RE and RL, the facial expression level calculation circuit 114 obtains the sum R of RE and RL (step S108). The larger the R value, the closer the expression at that time is to a smile (good expression). Furthermore, as shown by the arrow C in FIG. 4A, if there is a shadow on the edge of the mouth or teeth are visible, the probability of smile is high. Therefore, the facial expression level calculation circuit 114 determines whether teeth (white portions) are detected in the mouth portion and whether there is a shadow on the mouth end portion (step S109). If it is determined in step S109 that teeth are detected at the mouth and there is a shadow at the mouth edge, the facial expression level calculation circuit 114 adds 1 to R (step S110).

一方、ステップS109の判定において、口部分に歯が検出され、かつ口端部に影がない場合、若しくはステップS110の後、表情レベル演算回路114は眉間部分(目の間部分)に矢印Dで示すような皺があるか否かを判定する(ステップS111)。ステップS111の判定において、眉間部分に皺がある場合に、表情レベル演算回路114はRから1を減算する(ステップS112)。即ち、眉間に皺が検出されるような表情では笑顔とは言えないのでステップS111の判定を行う。   On the other hand, if it is determined in step S109 that teeth are detected in the mouth portion and there is no shadow at the mouth end portion, or after step S110, the facial expression level calculation circuit 114 uses the arrow D in the eyebrows portion (between eyes). It is determined whether there is a wrinkle as shown (step S111). If it is determined in step S111 that there is a wrinkle in the portion between the eyebrows, the facial expression level calculation circuit 114 subtracts 1 from R (step S112). That is, a facial expression in which a wrinkle is detected between the eyebrows cannot be said to be a smile, so the determination in step S111 is performed.

以上のようにして求められるR値は笑顔に近いほど高い数値となる。一般的にはR値が高いほど、良い表情であると考えられるが、被写体200となる人物が必ずしもR値の高い表情を好むとは限らないので、被写体200となる人物に各種表情の画像を採点させるようにし、この採点結果を、被写体毎の表情の嗜好として表情データベース116aに格納する。図5は、R値と採点結果との関係を示した分布曲線を示す図である。なお、採点してもらっていないR値に対応する点数については、例えば補間演算によって算出することが望ましい。   The R value obtained as described above is higher as the smile is closer. In general, it is considered that the higher the R value, the better the expression. However, since the person who becomes the subject 200 does not always like the expression with the higher R value, images of various expressions are given to the person who becomes the subject 200. The scoring result is stored, and the scoring result is stored in the facial expression database 116a as a facial expression preference for each subject. FIG. 5 is a diagram showing a distribution curve showing the relationship between the R value and the scoring result. It should be noted that the score corresponding to the R value that has not been scored is preferably calculated by, for example, interpolation calculation.

例えば、図5の例において、被写体Aは、カメラ100によって呈示された表情の画像のうち、R値がほどほどであるR1の表情の画像が最高だと思っていることが分かる。一方、被写体Bは、R1よりも高いR値であるR2の表情の画像が最高だと思っていることが分かる。このような被写体200の表情の嗜好を、撮影前に、撮影者に分かるように呈示することにより、撮影者は、被写体毎の表情の嗜好を考慮しつつ、また自身の嗜好も加味しながら撮影を行うことが可能である。   For example, in the example of FIG. 5, it can be seen that the subject A thinks that the facial expression image of R1 having a moderate R value among the facial expression images presented by the camera 100 is the best. On the other hand, it can be seen that the subject B thinks that the image of the expression of R2, which has an R value higher than R1, is the highest. By presenting such a facial expression preference of the subject 200 so as to be understood by the photographer before shooting, the photographer takes a picture while taking into account the preference of the facial expression for each subject and taking into account his own preference. Can be done.

以下、具体的なカメラの動作について説明する。図6は本一実施形態に係るカメラのメイン動作制御について示すフローチャートである。   Hereinafter, specific operation of the camera will be described. FIG. 6 is a flowchart showing the main operation control of the camera according to the present embodiment.

撮影前に、MPU101は、表情画像の採点処理を行う(ステップS201)。この採点処理の詳細については後述する。ステップS201の表情画像の採点処理の後、MPU101は、撮影者による操作部102の操作によって撮影指示がなされたか否かを判定する(ステップS202)。ステップS202の判定において、撮影指示がなされていない場合に、MPU101は表示パネル111にフレーミング用のスルー画像を表示させるための各種の制御を実行する(ステップS203)。即ち、MPU101は撮像素子107を連続動作させてスルー画像データを逐次取得し、取得したスルー画像データを画像処理回路109において処理してからこのスルー画像データに基づいて表示パネル111にスルー画像を表示させる。スルー画像を表示させた後、MPU101は、顔検出回路113によってスルー画像中の顔部の画像を検出する。顔部の画像が検出された後、MPU101は、表情レベル演算回路114によってスルー画中の顔部の表情に対するR値を図3で示したようにして算出する(ステップS204)。そして、MPU101は、表情レベル演算回路114によって演算されたR値に対応する点数を、表情データベース116aに格納されている被写体200に対応した表情の嗜好の分布曲線を参照して抽出する(ステップS205)。スルー画表示中の表情(R値)に対応した点数を抽出した後、MPU101は、この点数を、例えば図2に示すようなレベル表示(バー表示)111aのような形態で、表示パネル111に表示されているスルー画像に重畳表示させる(ステップS206)。その後にステップS202に戻る。   Before photographing, the MPU 101 performs a facial expression image scoring process (step S201). Details of the scoring process will be described later. After the scoring process of the facial expression image in step S201, the MPU 101 determines whether or not a photographing instruction is given by the operation of the operation unit 102 by the photographer (step S202). If it is determined in step S202 that a shooting instruction has not been issued, the MPU 101 executes various controls for displaying a through image for framing on the display panel 111 (step S203). That is, the MPU 101 operates the image sensor 107 continuously to sequentially acquire through image data, and the acquired through image data is processed by the image processing circuit 109, and then a through image is displayed on the display panel 111 based on the through image data. Let After displaying the through image, the MPU 101 detects the face image in the through image by the face detection circuit 113. After the face image is detected, the MPU 101 uses the expression level calculation circuit 114 to calculate an R value for the expression of the face in the through image as shown in FIG. 3 (step S204). Then, the MPU 101 extracts the score corresponding to the R value calculated by the facial expression level calculation circuit 114 with reference to the facial expression preference distribution curve corresponding to the subject 200 stored in the facial expression database 116a (step S205). ). After extracting the score corresponding to the facial expression (R value) during the through image display, the MPU 101 displays the score on the display panel 111 in a form such as a level display (bar display) 111a as shown in FIG. The displayed through image is superimposed and displayed (step S206). Thereafter, the process returns to step S202.

また、ステップS202の判定において、撮影指示がなされた場合に、MPU101は撮影動作を実行する(ステップS207)。即ち、MPU101は撮影レンズ103のピント調整を実行させた後、絞り機構105を所定の開口まで絞った状態で撮像素子107を動作させ、これによって得られた撮影画像データを画像処理回路109において処理させる。その後、画像処理回路109において処理した撮影画像データを圧縮/伸張部115において圧縮し、この圧縮画像データを記録メディア117に記録させる。その後に図6の処理を終了させる。   In the determination in step S202, when a shooting instruction is given, the MPU 101 performs a shooting operation (step S207). That is, after the MPU 101 performs focus adjustment of the photographing lens 103, the image pickup device 107 is operated with the diaphragm mechanism 105 being squeezed to a predetermined opening, and the photographed image data obtained thereby is processed in the image processing circuit 109. Let Thereafter, the captured image data processed by the image processing circuit 109 is compressed by the compression / decompression unit 115, and the compressed image data is recorded on the recording medium 117. Thereafter, the processing in FIG. 6 is terminated.

図7は、図6のステップS201の表情画像の採点処理について示すフローチャートである。図7において、MPU101は、被写体200に好みの表情の点数をつけさせるために、表示制御回路110を介して各種の表情の画像を表示パネル111に表示させる(ステップS301)。なお、ここで表示させる表情の画像は1枚ずつ表示パネル111に表示させるようにしても良いし、複数枚を同時に表示させるようにしても良い。その後、MPU101は、被写体200による操作部102の操作によって点数の指定操作がなされたか否かを判定する(ステップS302)。   FIG. 7 is a flowchart showing the scoring process of the facial expression image in step S201 of FIG. In FIG. 7, the MPU 101 displays various facial expression images on the display panel 111 via the display control circuit 110 in order to give the subject 200 a desired facial expression score (step S <b> 301). The facial expression images to be displayed here may be displayed one by one on the display panel 111, or a plurality of images may be displayed simultaneously. Thereafter, the MPU 101 determines whether or not a point designation operation has been performed by the operation of the operation unit 102 by the subject 200 (step S302).

ステップS302の判定において、表情の画像に対して点数が指定された場合に、MPU101は、表情の画像のR値と点数とを対応付けする(ステップS303)。次に、MPU101は、補間演算によって各R値に対応した点数を順次算出する(ステップS304)。一方、ステップS302の判定において、表情の画像に対して点数が指定されない場合(例えば、表情の画像の表示から所定時間が経過した後等)には、各表情の画像のうち、R値の高いものから高得点を割り当てる(ステップS305)。これは、上述したように、R値の高い表情は、笑顔に近く、皆が良い表情と感じる可能性が高いためである。   When the score is specified for the facial expression image in the determination in step S302, the MPU 101 associates the R value of the facial expression image with the score (step S303). Next, the MPU 101 sequentially calculates the number of points corresponding to each R value by interpolation calculation (step S304). On the other hand, in the determination in step S302, when the score is not specified for the facial expression image (for example, after a predetermined time has elapsed since the facial expression image is displayed), the R value of each facial expression image is high. A high score is assigned from the one (step S305). This is because, as described above, an expression with a high R value is close to a smile and everyone is likely to feel a good expression.

ステップS304又はステップS305において表情の画像の採点が行われた後、MPU101は、被写体毎に各表情の画像のR値と点数とを対応付けて表情データベース116aに格納する(ステップS306)。その後、図7の処理を抜ける。   After the facial expression image is scored in step S304 or step S305, the MPU 101 stores the R value and the score of each facial expression image in association with each facial expression in the facial expression database 116a (step S306). Thereafter, the process of FIG. 7 is exited.

以上説明したように、本実施形態によれば、撮影者は、撮影前のスルー画表示時に被写体200の表情のレベルを確認しつつ、自身の好みのタイミングで撮影を行うことができる。また、例えば、レベルが低いときには、撮影者が被写体にアドバイス(「もっと笑って」、「まじめな顔をして」、「口を閉じて」)や刺激(ジョークやギャグを言う)を与えて被写体の好む表情を作り出すこともできる。このように、本実施形態では、実際に撮影を行う前に撮影者が被写体の撮影して欲しい表情のレベルを見ながら、自身の好きなタイミングで撮影することにより、1回の撮影で撮影者と被写体の両方の好みを反映した表情の写真を撮影することができる。   As described above, according to the present embodiment, the photographer can take a picture at his / her favorite timing while confirming the expression level of the subject 200 when displaying a through image before photographing. Also, for example, when the level is low, the photographer gives advice (“laugh more”, “make a serious face”, “close your mouth”) or stimulus (say a joke or gag) to the subject. You can also create a facial expression that the subject likes. As described above, in this embodiment, the photographer takes a picture at one time by photographing at his / her favorite timing while looking at the level of the facial expression that the photographer wants to photograph before actually photographing. You can take a photo with a facial expression that reflects the taste of both the subject and the subject.

また、一般にはR値の高い表情のほうが笑顔であると考えられるが、被写体によっては必ずしもそうとは限らないので、各種の表情の画像を実際に被写体に採点してもらうことにより、より被写体の嗜好を反映させることが可能である。   In general, a facial expression with a high R value is considered to be a smile, but depending on the subject, this is not necessarily the case, so by actually scoring images of various facial expressions, It is possible to reflect the preference.

以上実施形態に基づいて本発明を説明したが、本発明は上述した実施形態に限定されるものではなく、本発明の要旨の範囲内で種々の変形や応用が可能なことは勿論である。例えば、上述した実施形態では、R値と点数とを対応付けて表情データベース116aに格納するようにしているが、表情の画像と点数とを直接対応付けても良い。この場合には、スルー画像における顔部と表情の画像の顔部とのマッチングをとることで対応する点数を抽出することが可能である。また、このようなマッチングの場合には、表情のみならず、首の傾げ方や、顔の向きなども含めて点数を判定できるようにしても良い。   Although the present invention has been described above based on the embodiments, the present invention is not limited to the above-described embodiments, and various modifications and applications are naturally possible within the scope of the gist of the present invention. For example, in the above-described embodiment, the R value and the score are associated with each other and stored in the facial expression database 116a, but the facial expression image and the score may be directly associated with each other. In this case, it is possible to extract the corresponding score by matching the face part of the through image with the face part of the expression image. In the case of such matching, the score may be determined including not only the expression but also how the neck is tilted and the direction of the face.

さらに、上記した実施形態には種々の段階の発明が含まれており、開示される複数の構成要件の適当な組合せにより種々の発明が抽出され得る。例えば、実施形態に示される全構成要件からいくつかの構成要件が削除されても、上述したような課題を解決でき、上述したような効果が得られる場合には、この構成要件が削除された構成も発明として抽出され得る。   Further, the above-described embodiments include various stages of the invention, and various inventions can be extracted by appropriately combining a plurality of disclosed constituent elements. For example, even if some configuration requirements are deleted from all the configuration requirements shown in the embodiment, the above-described problem can be solved, and this configuration requirement is deleted when the above-described effects can be obtained. The configuration can also be extracted as an invention.

100…カメラ、101…マイクロプロセッシングユニット(MPU)、102…操作部、103…撮影レンズ、104…オートフォーカス(AF)回路、105…絞り機構、106…絞り制御回路、107…撮像素子、108…アナログフロントエンド(AFE)回路、109…画像処理回路、110…表示制御回路、111…表示パネル、112…ピント判定回路、113…顔検出回路、114…表情レベル演算回路、115…圧縮/伸張部、116…記録制御部、116a…表情データベース、117…記録メディア   DESCRIPTION OF SYMBOLS 100 ... Camera, 101 ... Micro processing unit (MPU), 102 ... Operation part, 103 ... Shooting lens, 104 ... Auto-focus (AF) circuit, 105 ... Aperture mechanism, 106 ... Aperture control circuit, 107 ... Imaging element, 108 ... Analog front end (AFE) circuit 109 ... Image processing circuit 110 ... Display control circuit 111 ... Display panel 112 ... Focus determination circuit 113 ... Face detection circuit 114 ... Expression level calculation circuit 115 ... Compression / decompression unit 116 ... Recording control unit, 116a ... Facial expression database, 117 ... Recording medium

Claims (3)

撮像素子を連続動作させてスルー画像データを取得し、
取得したスルー画像データを逐次表示させ、
上記取得したスルー画像データから顔部の目部と口部と頭部とを検出し、
予め格納してあった比較用の複数の表情画像に対して被写体によって点数が指定されている場合には、上記検出した目部、口部及び頭部の検出結果と上記複数の表情画像とのマッチングによって上記顔部の表情及び首の傾げ方又は顔の向きに応じた数値をマッチングされた表情画像に対応付けられた点数として演算し、点数が指定されていない場合には、上記検出した目部、口部及び頭部の検出結果と上記複数の表情画像とのマッチングによって上記顔部の表情及び首の傾げ方又は顔の向きに応じた数値をマッチングされた表情画像に対応付けられた笑顔を表す点数として演算し、
上記演算した上記顔部の表情及び首の傾げ方又は顔の向きに応じた数値に応じた表情レベルを上記スルー画像データに重畳表示させる、
ことを特徴とする撮像方法。
Through image data is obtained by continuously operating the image sensor,
Display the acquired through image data sequentially,
Detecting the eyes, mouth and head of the face from the acquired through image data,
When a score is specified by a subject for a plurality of facial expression images for comparison stored in advance, the detection result of the detected eyes, mouth and head and the plurality of facial expression images matching the calculated as the number associated with the numeric matched expression image corresponding to the direction of the tilted way or facial expressions and neck of the face portion, when the number is not specified, and the detected eye A smile associated with a facial expression image in which numerical values according to facial expression and neck tilt or face orientation are matched by matching the detection results of the head, mouth and head with the plurality of facial expression images Is calculated as a point representing
The expression level of the face and the expression level corresponding to the numerical value corresponding to the way of tilting the head or the face are superimposed and displayed on the through image data .
An imaging method characterized by the above.
上記表情レベルは、複数段階に分けてバー表示されることを特徴とする請求項1に記載の撮像方法。   The imaging method according to claim 1, wherein the expression level is displayed as a bar in a plurality of stages. スルー画像データを取得する撮像素子と、
上記取得されたスルー画像データを逐次表示する表示部と、
上記取得したスルー画像データから顔部の目部と口部と頭部とを検出し、予め格納してあった比較用の複数の表情画像に対して被写体によって点数が指定されている場合には、上記検出した目部、口部及び頭部の検出結果と上記複数の表情画像とのマッチングによって上記顔部の表情及び首の傾げ方又は顔の向きに応じた数値をマッチングされた表情画像に対応付けられた点数として演算し、点数が指定されていない場合には、上記検出した目部、口部及び頭部の検出結果と上記複数の表情画像とのマッチングによって上記顔部の表情及び首の傾げ方又は顔の向きに応じた数値をマッチングされた表情画像に対応付けられた笑顔を表す点数として演算する表情レベル演算回路と、
上記演算された上記顔部の表情及び首の傾げ方又は顔の向きに応じた数値に応じた表情レベルを上記スルー画像データに重畳表示させる制御部と、
を具備することを特徴とする撮像装置。
An image sensor for obtaining through image data;
A display unit for sequentially displaying the acquired through image data;
When the eyes, mouth, and head of the face are detected from the acquired through image data , and points are specified by the subject for a plurality of facial expression images for comparison stored in advance. , By matching the detected results of the detected eyes, mouth and head with the plurality of facial expression images, the facial expression and the numerical value corresponding to the manner of tilting the neck or the direction of the face are matched to the facial expression image When the score is calculated and the score is not designated, the facial expression and neck of the face are matched by matching the detected eye, mouth and head detection results with the plurality of facial expression images. A facial expression level computation circuit that computes a numerical value according to the tilting direction or face orientation as a score representing a smile associated with the matched facial expression image ;
A control unit that superimposes and displays on the through image data a facial expression level corresponding to a numerical value corresponding to the calculated facial expression and neck tilt or face orientation;
An imaging apparatus comprising:
JP2013097875A 2013-05-07 2013-05-07 Imaging method and imaging apparatus Active JP5711296B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013097875A JP5711296B2 (en) 2013-05-07 2013-05-07 Imaging method and imaging apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013097875A JP5711296B2 (en) 2013-05-07 2013-05-07 Imaging method and imaging apparatus

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2011243630A Division JP5270744B2 (en) 2011-11-07 2011-11-07 Imaging apparatus and imaging method

Publications (2)

Publication Number Publication Date
JP2013157030A JP2013157030A (en) 2013-08-15
JP5711296B2 true JP5711296B2 (en) 2015-04-30

Family

ID=49052068

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013097875A Active JP5711296B2 (en) 2013-05-07 2013-05-07 Imaging method and imaging apparatus

Country Status (1)

Country Link
JP (1) JP5711296B2 (en)

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000350123A (en) * 1999-06-04 2000-12-15 Fuji Photo Film Co Ltd Picture selection device, camera, picture selection method and recording medium
JP2001043345A (en) * 1999-07-28 2001-02-16 Mitsubishi Electric Corp Expression recognition device, dosing control system using the same, awaking level evaluation system and restoration evaluation system
JP2004312493A (en) * 2003-04-09 2004-11-04 Nippon Telegr & Teleph Corp <Ntt> Method, device and program for generating moving image, and recording medium recorded with moving image generation program
JP2005045601A (en) * 2003-07-23 2005-02-17 Casio Comput Co Ltd Image photographing apparatus and program
JP2005056175A (en) * 2003-08-05 2005-03-03 Konica Minolta Photo Imaging Inc Image estimation device
JP2005094133A (en) * 2003-09-12 2005-04-07 Fuji Photo Film Co Ltd Photographing apparatus
JP2005234686A (en) * 2004-02-17 2005-09-02 Fuji Xerox Co Ltd Expression recognition device, expression recognition method and program
JP2007067560A (en) * 2005-08-29 2007-03-15 Canon Inc Imaging apparatus and its control method, computer program and recording medium
JP2007097090A (en) * 2005-09-30 2007-04-12 Fujifilm Corp Image display apparatus, method and program, and photo print order accepting device
WO2007043712A1 (en) * 2005-10-14 2007-04-19 Nagasaki University Emotion evaluating method and emotion indicating method, and program, recording medium, and system for the methods
JP4197019B2 (en) * 2006-08-02 2008-12-17 ソニー株式会社 Imaging apparatus and facial expression evaluation apparatus

Also Published As

Publication number Publication date
JP2013157030A (en) 2013-08-15

Similar Documents

Publication Publication Date Title
JP2012199675A (en) Image processing apparatus, image processing method, and program
TW201202828A (en) Image-processing apparatus and method, and program
JP2004040712A (en) Imaging apparatus
US9253406B2 (en) Image capture apparatus that can display review image, image capture method, and storage medium
JP5228354B2 (en) Digital camera
JP4127521B2 (en) Digital camera and control method thereof
JP2010171797A (en) Imaging apparatus and program
TWI477887B (en) Image processing device, image processing method and recording medium
JP2009089220A (en) Imaging apparatus
JP5530548B2 (en) Facial expression database registration method and facial expression database registration apparatus
JP5370555B2 (en) Imaging apparatus, imaging method, and program
JP2011135527A (en) Digital camera
JP2014068081A (en) Imaging apparatus and control method of the same, program and storage medium
JP4865631B2 (en) Imaging device
JP2019169985A (en) Image processing apparatus
JP2008172395A (en) Imaging apparatus and image processing apparatus, method, and program
JP2009253925A (en) Imaging apparatus and imaging method, and imaging control program
JP4632417B2 (en) Imaging apparatus and control method thereof
JP5711296B2 (en) Imaging method and imaging apparatus
JP2008182369A (en) Imaging device
JP5270744B2 (en) Imaging apparatus and imaging method
JP2013081136A (en) Image processing apparatus, and control program
JP2012257100A (en) Electronic camera
JP5029765B2 (en) Image data generation apparatus and image data generation method
JP4844073B2 (en) Imaging device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130507

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131219

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140107

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140310

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140708

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140905

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20141021

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150121

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20150129

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150210

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150305

R150 Certificate of patent or registration of utility model

Ref document number: 5711296

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313115

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250