JP5711296B2 - Imaging method and imaging apparatus - Google Patents
Imaging method and imaging apparatus Download PDFInfo
- Publication number
- JP5711296B2 JP5711296B2 JP2013097875A JP2013097875A JP5711296B2 JP 5711296 B2 JP5711296 B2 JP 5711296B2 JP 2013097875 A JP2013097875 A JP 2013097875A JP 2013097875 A JP2013097875 A JP 2013097875A JP 5711296 B2 JP5711296 B2 JP 5711296B2
- Authority
- JP
- Japan
- Prior art keywords
- facial expression
- image
- face
- image data
- head
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000003384 imaging method Methods 0.000 title claims description 16
- 230000008921 facial expression Effects 0.000 claims description 97
- 230000014509 gene expression Effects 0.000 claims description 32
- 210000003128 head Anatomy 0.000 claims description 15
- 238000001514 detection method Methods 0.000 claims description 13
- 210000000214 mouth Anatomy 0.000 claims description 2
- 238000012545 processing Methods 0.000 description 22
- 230000000875 corresponding effect Effects 0.000 description 12
- 238000000034 method Methods 0.000 description 10
- 230000008569 process Effects 0.000 description 8
- 230000006870 function Effects 0.000 description 7
- 230000007246 mechanism Effects 0.000 description 7
- 230000006835 compression Effects 0.000 description 6
- 238000007906 compression Methods 0.000 description 6
- 238000010586 diagram Methods 0.000 description 6
- 230000006837 decompression Effects 0.000 description 5
- 238000009432 framing Methods 0.000 description 5
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 210000004709 eyebrow Anatomy 0.000 description 3
- 230000037303 wrinkles Effects 0.000 description 3
- 241001469893 Oxyzygonectes dovii Species 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 239000000203 mixture Substances 0.000 description 2
- 230000008901 benefit Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
Images
Landscapes
- Image Processing (AREA)
- Studio Devices (AREA)
- Image Analysis (AREA)
Description
本発明は、撮影者と被写体の両方の好みの表情の画像を撮影するための撮像方法及び撮像装置に関する。 The present invention relates to an imaging method and an imaging apparatus for capturing images of favorite expressions of both a photographer and a subject.
近年、ユーザが自身で撮影して得られたデジタルの写真画像を、ネットワークを介して広く公開できるようにしたシステムが各種提案されている。このようなネットワーク上で写真公開ができるシステムにおいては、公開した写真画像が多くの人に見られる可能性があるため、ユーザはなるべくならば見栄えの良い写真画像を撮影して公開したいと考えると思われる。 In recent years, various systems have been proposed in which digital photographic images obtained by users themselves can be widely disclosed via a network. In a system that can publish photos on such a network, the published photo image may be seen by many people, so if the user wants to take a photo image that looks good and publish it as much as possible Seem.
ここで、撮影者の好みに応じた表情の被写体を撮影するための技術に関する提案として、例えば特許文献1においては、撮影者が好みとする表情の顔画像の特徴量(目や鼻の分布等)を所定の記憶部に記憶させておき、撮影時においては1回の撮影指示で複数回の撮影を行って複数枚の画像を取得し、その中で先に記憶しておいて顔画像の特徴量と最も類似する画像を選択して記録するようにしている。
Here, as a proposal regarding a technique for photographing a subject with a facial expression according to a photographer's preference, for example, in
ここで、特許文献1においては、撮影前に被写体が好みの表情をしているかを確認することができないため、1回の撮影指示で複数枚の画像を撮影するようにしている。このため、撮影時間が長くなりやすく、また複数枚の画像を1度に保持しておく必要があるため、メモリの容量も増大しやすい。
Here, in
本発明は、上記の事情に鑑みてなされたもので、1回の撮影によって撮影者と被写体の両方の好みの表情の画像を得ることが可能な撮像方法及び撮像装置を提供することを目的とする。 The present invention has been made in view of the above circumstances, and an object thereof is to provide an imaging method and an imaging apparatus capable of obtaining images of favorite expressions of both a photographer and a subject by one shooting. To do.
上記の目的を達成するために、本発明の第1の態様の撮像方法は、撮像素子を連続動作させてスルー画像データを取得し、取得したスルー画像データを逐次表示させ、上記取得したスルー画像データから顔部の目部と口部と頭部とを検出し、予め格納してあった比較用の複数の表情画像に対して被写体によって点数が指定されている場合には、上記検出した目部、口部及び頭部の検出結果と上記複数の表情画像とのマッチングによって上記顔部の表情及び首の傾げ方又は顔の向きに応じた数値をマッチングされた表情画像に対応付けられた点数として演算し、点数が指定されていない場合には、上記検出した目部、口部及び頭部の検出結果と上記複数の表情画像とのマッチングによって上記顔部の表情及び首の傾げ方又は顔の向きに応じた数値をマッチングされた表情画像に対応付けられた笑顔を表す点数として演算し、上記演算した上記顔部の表情及び首の傾げ方又は顔の向きに応じた数値に応じた表情レベルを上記スルー画像データに重畳表示させることを特徴とする。 In order to achieve the above object, the imaging method according to the first aspect of the present invention acquires through image data by continuously operating an image sensor, sequentially displays the acquired through image data, and acquires the through image acquired above. When the eyes, mouth, and head of the face are detected from the data, and the score is specified by the subject for a plurality of comparison facial expression images stored in advance, the detected eyes The number of points associated with the facial expression image matched with the facial expression and the direction of the neck tilt or the face orientation by matching the detection results of the head, mouth and head with the plurality of facial expression images When the score is not specified, the facial expression and the neck tilt or face by matching the detection results of the detected eyes, mouth and head with the plurality of facial expression images Number according to the direction of Was calculated as the number that represents the smile associated with the matched expression image, the computed the face portion of the expressions and neck tilted way or the through image data expression level corresponding to the numerical value corresponding to the orientation of the face It is characterized by being displayed in a superimposed manner.
上記の目的を達成するために、本発明の第2の態様の撮像装置は、スルー画像データを取得する撮像素子と、上記取得されたスルー画像データを逐次表示する表示部と、
上記取得したスルー画像データから顔部の目部と口部と頭部とを検出し、予め格納してあった比較用の複数の表情画像に対して被写体によって点数が指定されている場合には、上記検出した目部、口部及び頭部の検出結果と上記複数の表情画像とのマッチングによって上記顔部の表情及び首の傾げ方又は顔の向きに応じた数値をマッチングされた表情画像に対応付けられた点数として演算し、点数が指定されていない場合には、上記検出した目部、口部及び頭部の検出結果と上記複数の表情画像とのマッチングによって上記顔部の表情及び首の傾げ方又は顔の向きに応じた数値をマッチングされた表情画像に対応付けられた笑顔を表す点数として演算する表情レベル演算回路と、上記演算された上記顔部の表情及び首の傾げ方又は顔の向きに応じた数値に応じた表情レベルを上記スルー画像データに重畳表示させる制御部とを具備することを特徴とする。
In order to achieve the above object, an imaging device according to a second aspect of the present invention includes an imaging element that acquires through image data, a display unit that sequentially displays the acquired through image data,
When the eyes, mouth, and head of the face are detected from the acquired through image data , and points are specified by the subject for a plurality of facial expression images for comparison stored in advance. , By matching the detected results of the detected eyes, mouth and head with the plurality of facial expression images, the facial expression and the numerical value corresponding to the manner of tilting the neck or the direction of the face are matched to the facial expression image When the score is calculated and the score is not designated, the facial expression and neck of the face are matched by matching the detected eye, mouth and head detection results with the plurality of facial expression images. A facial expression level calculation circuit that calculates a numerical value according to how to tilt or the direction of the face as a score representing a smile associated with the matched facial expression image, and the calculated facial expression and the method of tilting the neck or Face orientation The expression level according to numerical values Flip characterized by comprising a control unit for superimposing displayed on the through image data.
本発明によれば、1回の撮影によって撮影者と被写体の両方の好みの表情の画像を得ることが可能な撮像方法及び撮像装置を提供することができる。 ADVANTAGE OF THE INVENTION According to this invention, the imaging method and imaging device which can obtain the image of the favorite expression of both a photographer and a to-be-photographed object by one imaging | photography can be provided.
以下、図面を参照して本発明の実施形態を説明する。
図1は、本発明の一実施形態に係るカメラ100の構成を示すブロック図である。図1に示すカメラ100は、マイクロプロセッシングユニット(MPU)101と、操作部102と、撮影レンズ103と、オートフォーカス(AF)回路104と、絞り機構105と、絞り制御回路106と、撮像素子107と、アナログフロントエンド(AFE)回路108と、画像処理回路109と、表示制御回路110と、表示パネル111と、ピント判定回路112と、顔検出回路113と、表情レベル演算回路114と、圧縮/伸張部115と、記録制御部116と、表情データベース116aと、記録メディア117と、補助光発光回路118とを有している。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
FIG. 1 is a block diagram showing a configuration of a
MPU101は、ユーザからの操作部102の操作に応じてカメラ100を構成する各ブロックをシーケンシャルに制御する。操作部102は、カメラ100による撮影を実行させるためのレリーズスイッチや、カメラ100の動作モードを撮影モードや再生モード等の間で切り替えるための切り替えスイッチ等が含まれる。また、詳細は後述するが、操作部102は、被写体となる人物に、好みの表情を指定させるための指定部の機能を有する操作部も含まれる。
The MPU 101 sequentially controls each block constituting the
また、MPU101は、ユーザによって写真撮影がなされた時刻を計測するためのタイマを有している。これにより、撮影によって得られる画像データに対して撮影時刻が関連付けられる。 The MPU 101 also has a timer for measuring the time when the user took a picture. Thereby, the photographing time is associated with the image data obtained by photographing.
撮影レンズ103は、被写体200からの像を撮像素子107に結像させる。この撮影レンズ103は、オートフォーカス(ピント合わせ)用のレンズを含んでいる。オートフォーカスの際に、MPU101は、ピント合わせレンズのレンズ位置をモニタしつつ、AF回路104を制御してピント合わせレンズのレンズ位置を切り替えて撮影レンズ103のピント合わせを行う。また、撮影レンズ103はズームレンズも含んでおり、ズームレンズの位置を切り替えることで撮影時の画角を切り替えることもできる。絞り機構105は、撮影レンズ103内又はその近傍に設けられ、シャッタや絞りの効果を奏する機構である。絞り機構105は、撮影開始時に絞り制御回路106によって所定の口径まで開かれ、撮影終了時に閉じられるものである。撮影時においては、撮影レンズ103のズームレンズや絞り機構105等を駆動することで、撮影者は自身の好みの撮影効果(構図、背景処理、動きの描写等)での写真撮影を行うことができる。
The taking lens 103 forms an image from the
撮像素子107は、多数の画素が配列されて構成される受光面を有し、撮影レンズ103を介して受光した被写体200からの像を電気的な信号に変換する。本実施形態においては、撮像素子107にはCCD方式及びCMOS方式の何れを用いても良い。
The image sensor 107 has a light receiving surface configured by arranging a large number of pixels, and converts an image from the
AFE回路108は、CDS回路、ゲイン調整回路、AD変換回路等を含み、撮像素子107において得られるアナログ電気信号に対し相関二重サンプリング処理、ゲイン調整処理といったアナログ処理を行った後、これによって得られる画像信号をデジタルデータ化して画像処理回路109に入力する。また、AFE回路108には、撮像素子107を構成する複数の画素からの信号を一括して読み出す機能も設けられている。例えば、AFE回路108によって、4画素(2×2画素)や9画素(3×3画素)の信号をまとめて読み出し、これら読み出した電気信号を加算することでS/Nを向上させることが出来る。このような処理によって、撮像素子107の見かけ上の感度を上げること等が出来る。
The
さらに、AFE回路108は、撮像素子107からの出力信号を取捨選択する機能も有し、撮像素子107の全有効画素のうち、限られた範囲の画素からの信号のみを抽出するとも出来る。一般に、撮像素子107は間引きを行うことで高速で信号を読み出すことが出来る。この機能を利用して、撮像素子107を連続動作させて得られる構図確認用のスルー画像を高速で読み出して画像処理回路109において処理してから表示パネル111に表示すれば、ユーザは表示パネル111上に表示されるスルー画像を利用してフレーミングを行うことが可能である。
Further, the
画像処理回路109は、AFE回路108から入力される画像データにおける色や階調、シャープネス等を補正処理したり、画像データのレベルを所定のレベルに増幅して、正しい濃淡及び正しい灰色レベルに調整したりする各種画像処理を行う。
The
また、上述したようなフレーミング用の画像等の各種の画像を表示するために、画像処理回路109は、AFE回路108から入力される画像データを表示パネル111に表示可能なようにリサイズ(縮小)する機能も有する。
Further, in order to display various images such as the framing image as described above, the
表示制御回路110は、画像処理回路109で得られた画像データや記録メディア117に記録されている画像データを映像信号に変換し、変換した映像信号に基づいて画像を表示パネル111に表示させる。表示パネル111は液晶表示パネルや有機EL表示パネル等の表示パネルである。また、表示制御回路110は、表示パネル111に複数の画像を重畳して表示させるマルチ画面表示機能も有している。このマルチ画面表示機能によって、撮影した画像や撮影する画像の上に、モード設定の文字表示やいろいろな警告表示を重畳表示することも可能である。
The
ピント判定回路112は、画像処理回路109によって得られる画像のコントラストを検出する。このピント判定回路112によって検出されるコントラストはオートフォーカスの際に用いられる。即ち、AF回路104によって撮影レンズ103のピント合わせレンズのレンズ位置を変化させながら、ピント判定回路112によって画像のコントラストを逐次検出し、検出されるコントラストが最大となるレンズ位置でピント合わせレンズを停止させることで、撮影レンズ103のピント合わせを行うことができる。
The
顔検出回路113は、画像処理回路109によって得られる画像内の特徴点(例えば、被写体が人物等であれば、目や鼻、口等)の分布から、画像内における被写体の特に顔に相当する部分を検出する。表情レベル演算回路114は、顔検出回路113によって検出される顔画像から被写体の表情レベルを求めるための値であるR値(詳細は後述する)を算出する。
The
圧縮/伸張部115は、撮影時に、画像処理回路109において処理された画像データを圧縮する。また、圧縮/伸張部115は記録メディア117に圧縮記録された画像データを伸張する。記録制御部116は、圧縮/伸張部115で圧縮された画像データに付随データを付随させて記録メディア117に記録する。
The compression /
格納部としての表情データベース116aは、被写体200となる人物によって指定されたその人物の好みの表情の画像に対応するR値と、その画像に対応して被写体200によって指定された点数とを格納する。
The
補助光発光回路118は、撮影時の状況に応じて被写体200に補助光を照射する。これによって、撮影時の明るさの不足や不均一を防止する。
The auxiliary
図2は、図1に示すカメラにおける動作の概要について示す図である。撮影前には、まず、被写体200に、各種表情の画像を呈示し、それぞれの表情の画像に点数を付けさせる。このとき呈示する各種の表情の画像は、例えば表情のサンプル集のような画像を予め撮影して表情データベース116aに格納しておくようにしても良いし、実際に、被写体200に各種の表情をさせた状態で撮影を行って得るようにしても良い。ここで、本実施形態においては、被写体200に呈示する表情の画像には、詳細は後述するR値(図2のRa〜Rd)が対応付けられている。そして、被写体200によって採点がなされると、その採点結果がR値と対応付けられて表情データベース116aに格納される。図2の例では、被写体200が画像A、画像B、画像C、画像Dの4枚の表情の画像について10段階評価の採点を行った例を示している。採点を行う画像の枚数は4枚に限らず、また、採点も10段階評価に限るものではない。
FIG. 2 is a diagram showing an outline of the operation of the camera shown in FIG. Before shooting, first, various facial expressions are presented on the subject 200, and each facial expression is scored. The images of various facial expressions to be presented at this time may be pre-photographed, for example, as a collection of facial expression samples, and stored in the
撮影前のフレーミング時において、カメラ100は逐次被写体200を撮像してスルー画像を取得し、このスルー画像を逐次表示パネル111に表示させる。本実施形態ではフレーミング時に逐次取得されるスルー画像における人物の顔部の画像のR値に対応する点数を表情データベース116aから抽出し、この点数に基づいて、現在の表情が、被写体200がどの程度好む表情であるかを判定する。そして、この判定結果を、例えば参照符号111aに示すようなレベル表示(バー表示)の形式等で撮影者に提供する。
During framing before shooting, the
次に、R値について説明する。図3は、R値を算出する際の処理の流れについて示すフローチャートである。図3において、表情レベル演算回路114は、顔検出回路113によって検出された顔部の画像における陰影分布から画像内の顔部における目部、口部を検出する(ステップS101)。より具体的には画像のコントラストを強調した状態で画像内において略円形をしている顔部を顔検出回路113によって検出する。そして、表情レベル演算回路114において顔部内の陰影の分布から目部及び鼻部を検出する。
Next, the R value will be described. FIG. 3 is a flowchart showing the flow of processing when calculating the R value. In FIG. 3, the expression
ステップS101において目部、鼻部を検出した後、表情レベル演算回路114は、両目の瞳を結ぶ直線Aの上側の白眼部分の面積EA(図4(a)参照)を求める(ステップS102)。次に、表情レベル演算回路114は、両目の瞳を結ぶ直線Aの下側の白眼部分の面積EB(図4(a)参照)を求める(ステップS103)。EA及びEBを求めた後、表情レベル演算回路114は、EAとEBの差をEAとEBの和で正規化した値REを求める(ステップS104)。ここで、被写体200が他人に見せたい笑顔の場合には図4(a)に示すようにEBが0に近くなるため、結果REが大きくなる。逆に、被写体200が他人に見せたくない困った顔の場合には図4(b)に示すようにEAが0に近くなるため、結果REが小さくなる。したがって、REの大小から表情を判定することが可能である。
After detecting the eyes and nose in step S101, the facial expression
REを求めた後、表情レベル演算回路114は、口の両端を結ぶ直線Bの上側の唇部分の面積LA(図4(b)参照)を求める(ステップS105)。次に、表情レベル演算回路114は、口の両端を結ぶ直線Bの下側の唇部分の面積LB(図4(b)参照)を求める(ステップS106)。LA及びLBを求めた後、表情レベル演算回路114は、LBとLAの差をLAとLBの和で正規化した値RLを求める(ステップS107)。ここで、笑顔の場合には図4(a)に示すようにLAが0に近くなるため、結果RLが大きくなる。逆に、困った顔の場合には図4(b)に示すようにLBが小さくなるため、結果RLが小さくなる。したがって、RLの大小からも表情を判定することが可能である。
After obtaining RE, the facial expression
RE及びRLを求めた後、表情レベル演算回路114はREとRLの和Rを求める(ステップS108)。このR値は大きいほどそのときの表情は笑顔(良好な表情)に近いものとなる。さらに、図4(a)の矢印Cで示したように口の端部に影があったり、歯が見えていたりすると笑顔の確率が高い。そこで、表情レベル演算回路114は口部分に歯(白部分)が検出され、かつ口端部に影があるか否かを判定する(ステップS109)。ステップS109の判定において、口部分に歯が検出され、かつ口端部に影がある場合に、表情レベル演算回路114はRに1を加算する(ステップS110)。
After obtaining RE and RL, the facial expression
一方、ステップS109の判定において、口部分に歯が検出され、かつ口端部に影がない場合、若しくはステップS110の後、表情レベル演算回路114は眉間部分(目の間部分)に矢印Dで示すような皺があるか否かを判定する(ステップS111)。ステップS111の判定において、眉間部分に皺がある場合に、表情レベル演算回路114はRから1を減算する(ステップS112)。即ち、眉間に皺が検出されるような表情では笑顔とは言えないのでステップS111の判定を行う。
On the other hand, if it is determined in step S109 that teeth are detected in the mouth portion and there is no shadow at the mouth end portion, or after step S110, the facial expression
以上のようにして求められるR値は笑顔に近いほど高い数値となる。一般的にはR値が高いほど、良い表情であると考えられるが、被写体200となる人物が必ずしもR値の高い表情を好むとは限らないので、被写体200となる人物に各種表情の画像を採点させるようにし、この採点結果を、被写体毎の表情の嗜好として表情データベース116aに格納する。図5は、R値と採点結果との関係を示した分布曲線を示す図である。なお、採点してもらっていないR値に対応する点数については、例えば補間演算によって算出することが望ましい。
The R value obtained as described above is higher as the smile is closer. In general, it is considered that the higher the R value, the better the expression. However, since the person who becomes the subject 200 does not always like the expression with the higher R value, images of various expressions are given to the person who becomes the subject 200. The scoring result is stored, and the scoring result is stored in the
例えば、図5の例において、被写体Aは、カメラ100によって呈示された表情の画像のうち、R値がほどほどであるR1の表情の画像が最高だと思っていることが分かる。一方、被写体Bは、R1よりも高いR値であるR2の表情の画像が最高だと思っていることが分かる。このような被写体200の表情の嗜好を、撮影前に、撮影者に分かるように呈示することにより、撮影者は、被写体毎の表情の嗜好を考慮しつつ、また自身の嗜好も加味しながら撮影を行うことが可能である。
For example, in the example of FIG. 5, it can be seen that the subject A thinks that the facial expression image of R1 having a moderate R value among the facial expression images presented by the
以下、具体的なカメラの動作について説明する。図6は本一実施形態に係るカメラのメイン動作制御について示すフローチャートである。 Hereinafter, specific operation of the camera will be described. FIG. 6 is a flowchart showing the main operation control of the camera according to the present embodiment.
撮影前に、MPU101は、表情画像の採点処理を行う(ステップS201)。この採点処理の詳細については後述する。ステップS201の表情画像の採点処理の後、MPU101は、撮影者による操作部102の操作によって撮影指示がなされたか否かを判定する(ステップS202)。ステップS202の判定において、撮影指示がなされていない場合に、MPU101は表示パネル111にフレーミング用のスルー画像を表示させるための各種の制御を実行する(ステップS203)。即ち、MPU101は撮像素子107を連続動作させてスルー画像データを逐次取得し、取得したスルー画像データを画像処理回路109において処理してからこのスルー画像データに基づいて表示パネル111にスルー画像を表示させる。スルー画像を表示させた後、MPU101は、顔検出回路113によってスルー画像中の顔部の画像を検出する。顔部の画像が検出された後、MPU101は、表情レベル演算回路114によってスルー画中の顔部の表情に対するR値を図3で示したようにして算出する(ステップS204)。そして、MPU101は、表情レベル演算回路114によって演算されたR値に対応する点数を、表情データベース116aに格納されている被写体200に対応した表情の嗜好の分布曲線を参照して抽出する(ステップS205)。スルー画表示中の表情(R値)に対応した点数を抽出した後、MPU101は、この点数を、例えば図2に示すようなレベル表示(バー表示)111aのような形態で、表示パネル111に表示されているスルー画像に重畳表示させる(ステップS206)。その後にステップS202に戻る。
Before photographing, the
また、ステップS202の判定において、撮影指示がなされた場合に、MPU101は撮影動作を実行する(ステップS207)。即ち、MPU101は撮影レンズ103のピント調整を実行させた後、絞り機構105を所定の開口まで絞った状態で撮像素子107を動作させ、これによって得られた撮影画像データを画像処理回路109において処理させる。その後、画像処理回路109において処理した撮影画像データを圧縮/伸張部115において圧縮し、この圧縮画像データを記録メディア117に記録させる。その後に図6の処理を終了させる。
In the determination in step S202, when a shooting instruction is given, the
図7は、図6のステップS201の表情画像の採点処理について示すフローチャートである。図7において、MPU101は、被写体200に好みの表情の点数をつけさせるために、表示制御回路110を介して各種の表情の画像を表示パネル111に表示させる(ステップS301)。なお、ここで表示させる表情の画像は1枚ずつ表示パネル111に表示させるようにしても良いし、複数枚を同時に表示させるようにしても良い。その後、MPU101は、被写体200による操作部102の操作によって点数の指定操作がなされたか否かを判定する(ステップS302)。
FIG. 7 is a flowchart showing the scoring process of the facial expression image in step S201 of FIG. In FIG. 7, the
ステップS302の判定において、表情の画像に対して点数が指定された場合に、MPU101は、表情の画像のR値と点数とを対応付けする(ステップS303)。次に、MPU101は、補間演算によって各R値に対応した点数を順次算出する(ステップS304)。一方、ステップS302の判定において、表情の画像に対して点数が指定されない場合(例えば、表情の画像の表示から所定時間が経過した後等)には、各表情の画像のうち、R値の高いものから高得点を割り当てる(ステップS305)。これは、上述したように、R値の高い表情は、笑顔に近く、皆が良い表情と感じる可能性が高いためである。
When the score is specified for the facial expression image in the determination in step S302, the
ステップS304又はステップS305において表情の画像の採点が行われた後、MPU101は、被写体毎に各表情の画像のR値と点数とを対応付けて表情データベース116aに格納する(ステップS306)。その後、図7の処理を抜ける。
After the facial expression image is scored in step S304 or step S305, the
以上説明したように、本実施形態によれば、撮影者は、撮影前のスルー画表示時に被写体200の表情のレベルを確認しつつ、自身の好みのタイミングで撮影を行うことができる。また、例えば、レベルが低いときには、撮影者が被写体にアドバイス(「もっと笑って」、「まじめな顔をして」、「口を閉じて」)や刺激(ジョークやギャグを言う)を与えて被写体の好む表情を作り出すこともできる。このように、本実施形態では、実際に撮影を行う前に撮影者が被写体の撮影して欲しい表情のレベルを見ながら、自身の好きなタイミングで撮影することにより、1回の撮影で撮影者と被写体の両方の好みを反映した表情の写真を撮影することができる。 As described above, according to the present embodiment, the photographer can take a picture at his / her favorite timing while confirming the expression level of the subject 200 when displaying a through image before photographing. Also, for example, when the level is low, the photographer gives advice (“laugh more”, “make a serious face”, “close your mouth”) or stimulus (say a joke or gag) to the subject. You can also create a facial expression that the subject likes. As described above, in this embodiment, the photographer takes a picture at one time by photographing at his / her favorite timing while looking at the level of the facial expression that the photographer wants to photograph before actually photographing. You can take a photo with a facial expression that reflects the taste of both the subject and the subject.
また、一般にはR値の高い表情のほうが笑顔であると考えられるが、被写体によっては必ずしもそうとは限らないので、各種の表情の画像を実際に被写体に採点してもらうことにより、より被写体の嗜好を反映させることが可能である。 In general, a facial expression with a high R value is considered to be a smile, but depending on the subject, this is not necessarily the case, so by actually scoring images of various facial expressions, It is possible to reflect the preference.
以上実施形態に基づいて本発明を説明したが、本発明は上述した実施形態に限定されるものではなく、本発明の要旨の範囲内で種々の変形や応用が可能なことは勿論である。例えば、上述した実施形態では、R値と点数とを対応付けて表情データベース116aに格納するようにしているが、表情の画像と点数とを直接対応付けても良い。この場合には、スルー画像における顔部と表情の画像の顔部とのマッチングをとることで対応する点数を抽出することが可能である。また、このようなマッチングの場合には、表情のみならず、首の傾げ方や、顔の向きなども含めて点数を判定できるようにしても良い。
Although the present invention has been described above based on the embodiments, the present invention is not limited to the above-described embodiments, and various modifications and applications are naturally possible within the scope of the gist of the present invention. For example, in the above-described embodiment, the R value and the score are associated with each other and stored in the
さらに、上記した実施形態には種々の段階の発明が含まれており、開示される複数の構成要件の適当な組合せにより種々の発明が抽出され得る。例えば、実施形態に示される全構成要件からいくつかの構成要件が削除されても、上述したような課題を解決でき、上述したような効果が得られる場合には、この構成要件が削除された構成も発明として抽出され得る。 Further, the above-described embodiments include various stages of the invention, and various inventions can be extracted by appropriately combining a plurality of disclosed constituent elements. For example, even if some configuration requirements are deleted from all the configuration requirements shown in the embodiment, the above-described problem can be solved, and this configuration requirement is deleted when the above-described effects can be obtained. The configuration can also be extracted as an invention.
100…カメラ、101…マイクロプロセッシングユニット(MPU)、102…操作部、103…撮影レンズ、104…オートフォーカス(AF)回路、105…絞り機構、106…絞り制御回路、107…撮像素子、108…アナログフロントエンド(AFE)回路、109…画像処理回路、110…表示制御回路、111…表示パネル、112…ピント判定回路、113…顔検出回路、114…表情レベル演算回路、115…圧縮/伸張部、116…記録制御部、116a…表情データベース、117…記録メディア
DESCRIPTION OF
Claims (3)
取得したスルー画像データを逐次表示させ、
上記取得したスルー画像データから顔部の目部と口部と頭部とを検出し、
予め格納してあった比較用の複数の表情画像に対して被写体によって点数が指定されている場合には、上記検出した目部、口部及び頭部の検出結果と上記複数の表情画像とのマッチングによって上記顔部の表情及び首の傾げ方又は顔の向きに応じた数値をマッチングされた表情画像に対応付けられた点数として演算し、点数が指定されていない場合には、上記検出した目部、口部及び頭部の検出結果と上記複数の表情画像とのマッチングによって上記顔部の表情及び首の傾げ方又は顔の向きに応じた数値をマッチングされた表情画像に対応付けられた笑顔を表す点数として演算し、
上記演算した上記顔部の表情及び首の傾げ方又は顔の向きに応じた数値に応じた表情レベルを上記スルー画像データに重畳表示させる、
ことを特徴とする撮像方法。 Through image data is obtained by continuously operating the image sensor,
Display the acquired through image data sequentially,
Detecting the eyes, mouth and head of the face from the acquired through image data,
When a score is specified by a subject for a plurality of facial expression images for comparison stored in advance, the detection result of the detected eyes, mouth and head and the plurality of facial expression images matching the calculated as the number associated with the numeric matched expression image corresponding to the direction of the tilted way or facial expressions and neck of the face portion, when the number is not specified, and the detected eye A smile associated with a facial expression image in which numerical values according to facial expression and neck tilt or face orientation are matched by matching the detection results of the head, mouth and head with the plurality of facial expression images Is calculated as a point representing
The expression level of the face and the expression level corresponding to the numerical value corresponding to the way of tilting the head or the face are superimposed and displayed on the through image data .
An imaging method characterized by the above.
上記取得されたスルー画像データを逐次表示する表示部と、
上記取得したスルー画像データから顔部の目部と口部と頭部とを検出し、予め格納してあった比較用の複数の表情画像に対して被写体によって点数が指定されている場合には、上記検出した目部、口部及び頭部の検出結果と上記複数の表情画像とのマッチングによって上記顔部の表情及び首の傾げ方又は顔の向きに応じた数値をマッチングされた表情画像に対応付けられた点数として演算し、点数が指定されていない場合には、上記検出した目部、口部及び頭部の検出結果と上記複数の表情画像とのマッチングによって上記顔部の表情及び首の傾げ方又は顔の向きに応じた数値をマッチングされた表情画像に対応付けられた笑顔を表す点数として演算する表情レベル演算回路と、
上記演算された上記顔部の表情及び首の傾げ方又は顔の向きに応じた数値に応じた表情レベルを上記スルー画像データに重畳表示させる制御部と、
を具備することを特徴とする撮像装置。 An image sensor for obtaining through image data;
A display unit for sequentially displaying the acquired through image data;
When the eyes, mouth, and head of the face are detected from the acquired through image data , and points are specified by the subject for a plurality of facial expression images for comparison stored in advance. , By matching the detected results of the detected eyes, mouth and head with the plurality of facial expression images, the facial expression and the numerical value corresponding to the manner of tilting the neck or the direction of the face are matched to the facial expression image When the score is calculated and the score is not designated, the facial expression and neck of the face are matched by matching the detected eye, mouth and head detection results with the plurality of facial expression images. A facial expression level computation circuit that computes a numerical value according to the tilting direction or face orientation as a score representing a smile associated with the matched facial expression image ;
A control unit that superimposes and displays on the through image data a facial expression level corresponding to a numerical value corresponding to the calculated facial expression and neck tilt or face orientation;
An imaging apparatus comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013097875A JP5711296B2 (en) | 2013-05-07 | 2013-05-07 | Imaging method and imaging apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013097875A JP5711296B2 (en) | 2013-05-07 | 2013-05-07 | Imaging method and imaging apparatus |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011243630A Division JP5270744B2 (en) | 2011-11-07 | 2011-11-07 | Imaging apparatus and imaging method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2013157030A JP2013157030A (en) | 2013-08-15 |
JP5711296B2 true JP5711296B2 (en) | 2015-04-30 |
Family
ID=49052068
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013097875A Active JP5711296B2 (en) | 2013-05-07 | 2013-05-07 | Imaging method and imaging apparatus |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5711296B2 (en) |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000350123A (en) * | 1999-06-04 | 2000-12-15 | Fuji Photo Film Co Ltd | Picture selection device, camera, picture selection method and recording medium |
JP2001043345A (en) * | 1999-07-28 | 2001-02-16 | Mitsubishi Electric Corp | Expression recognition device, dosing control system using the same, awaking level evaluation system and restoration evaluation system |
JP2004312493A (en) * | 2003-04-09 | 2004-11-04 | Nippon Telegr & Teleph Corp <Ntt> | Method, device and program for generating moving image, and recording medium recorded with moving image generation program |
JP2005045601A (en) * | 2003-07-23 | 2005-02-17 | Casio Comput Co Ltd | Image photographing apparatus and program |
JP2005056175A (en) * | 2003-08-05 | 2005-03-03 | Konica Minolta Photo Imaging Inc | Image estimation device |
JP2005094133A (en) * | 2003-09-12 | 2005-04-07 | Fuji Photo Film Co Ltd | Photographing apparatus |
JP2005234686A (en) * | 2004-02-17 | 2005-09-02 | Fuji Xerox Co Ltd | Expression recognition device, expression recognition method and program |
JP2007067560A (en) * | 2005-08-29 | 2007-03-15 | Canon Inc | Imaging apparatus and its control method, computer program and recording medium |
JP2007097090A (en) * | 2005-09-30 | 2007-04-12 | Fujifilm Corp | Image display apparatus, method and program, and photo print order accepting device |
WO2007043712A1 (en) * | 2005-10-14 | 2007-04-19 | Nagasaki University | Emotion evaluating method and emotion indicating method, and program, recording medium, and system for the methods |
JP4197019B2 (en) * | 2006-08-02 | 2008-12-17 | ソニー株式会社 | Imaging apparatus and facial expression evaluation apparatus |
-
2013
- 2013-05-07 JP JP2013097875A patent/JP5711296B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2013157030A (en) | 2013-08-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2012199675A (en) | Image processing apparatus, image processing method, and program | |
TW201202828A (en) | Image-processing apparatus and method, and program | |
JP2004040712A (en) | Imaging apparatus | |
US9253406B2 (en) | Image capture apparatus that can display review image, image capture method, and storage medium | |
JP5228354B2 (en) | Digital camera | |
JP4127521B2 (en) | Digital camera and control method thereof | |
JP2010171797A (en) | Imaging apparatus and program | |
TWI477887B (en) | Image processing device, image processing method and recording medium | |
JP2009089220A (en) | Imaging apparatus | |
JP5530548B2 (en) | Facial expression database registration method and facial expression database registration apparatus | |
JP5370555B2 (en) | Imaging apparatus, imaging method, and program | |
JP2011135527A (en) | Digital camera | |
JP2014068081A (en) | Imaging apparatus and control method of the same, program and storage medium | |
JP4865631B2 (en) | Imaging device | |
JP2019169985A (en) | Image processing apparatus | |
JP2008172395A (en) | Imaging apparatus and image processing apparatus, method, and program | |
JP2009253925A (en) | Imaging apparatus and imaging method, and imaging control program | |
JP4632417B2 (en) | Imaging apparatus and control method thereof | |
JP5711296B2 (en) | Imaging method and imaging apparatus | |
JP2008182369A (en) | Imaging device | |
JP5270744B2 (en) | Imaging apparatus and imaging method | |
JP2013081136A (en) | Image processing apparatus, and control program | |
JP2012257100A (en) | Electronic camera | |
JP5029765B2 (en) | Image data generation apparatus and image data generation method | |
JP4844073B2 (en) | Imaging device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20130507 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20131219 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140107 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140310 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140708 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140905 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20141021 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150121 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20150129 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20150210 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20150305 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5711296 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313115 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313113 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |