[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2014048767A - Image generating device, image generating method, and program - Google Patents

Image generating device, image generating method, and program Download PDF

Info

Publication number
JP2014048767A
JP2014048767A JP2012189408A JP2012189408A JP2014048767A JP 2014048767 A JP2014048767 A JP 2014048767A JP 2012189408 A JP2012189408 A JP 2012189408A JP 2012189408 A JP2012189408 A JP 2012189408A JP 2014048767 A JP2014048767 A JP 2014048767A
Authority
JP
Japan
Prior art keywords
image
face
unit
feature information
contour
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012189408A
Other languages
Japanese (ja)
Inventor
Shigeru Kafuku
滋 加福
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2012189408A priority Critical patent/JP2014048767A/en
Publication of JP2014048767A publication Critical patent/JP2014048767A/en
Pending legal-status Critical Current

Links

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To generate a more appropriate portrait image in consideration of a shape of main component of a face.SOLUTION: An imaging device 100 includes: a feature information extracting part 6f which extracts feature information for each predetermined region on main components of a face in a source image acquired by an image acquiring part 6a; an outline specification part 6g which specifies a face configuration part image corresponding to the feature information for each predetermined region extracted by the feature information extracting part from a face configuration part image that shows a configuration part of a face and is recorded in an image recording section 5 in association with feature information for each predetermined region; and a portrait picture generation part 6h which generates a portrait image of the face using the face configuration part image specified by the outline specification part.

Description

本発明は、画像生成装置、画像生成方法及びプログラムに関する。   The present invention relates to an image generation apparatus, an image generation method, and a program.

従来、目、鼻、口、耳、顔輪郭等の顔部品の特徴点を用いて似顔絵を作成する似顔絵作成装置が知られている(例えば、特許文献1参照)。
また、各部位ごとに予め用意されているパーツオブジェクトを組み合わせてキャラクタを作成するゲーム装置が知られている(例えば、特許文献2参照)。
2. Description of the Related Art Conventionally, there is known a portrait creation device that creates a portrait using feature points of facial parts such as eyes, nose, mouth, ears, and face contour (see, for example, Patent Document 1).
There is also known a game device that creates a character by combining part objects prepared in advance for each part (see, for example, Patent Document 2).

特開2004−145625号公報JP 2004-145625 A 特開2008−61896号公報JP 2008-61896 A

ところで、似顔絵の生成に用いられる、顔輪郭等の主要な構成部に対応する構成部画像を特定する場合、予め多数の構成部画像を用意しておいても、構成部の形状によっては最も似ている構成部画像を精度良く特定することができない虞がある。この結果、適正な似顔絵画像を生成できないといった問題があった。   By the way, when specifying a component image corresponding to a main component such as a face outline, which is used to generate a portrait, even if a large number of component images are prepared in advance, the most similar depending on the shape of the component. There is a possibility that the constituent image is not accurately identified. As a result, there is a problem that an appropriate portrait image cannot be generated.

そこで、本発明の課題は、顔の主要な構成部の形状を考慮して、より適正な似顔絵画像を生成することができる画像生成装置、画像生成方法及びプログラムを提供することである。   Accordingly, an object of the present invention is to provide an image generation apparatus, an image generation method, and a program that can generate a more appropriate portrait image in consideration of the shape of the main constituent parts of the face.

上記課題を解決するため、本発明に係る画像生成装置は、
元画像を取得する第1取得手段と、前記第1取得手段により取得された元画像内の顔の主要な構成部について、所定領域毎に特徴情報を抽出する抽出手段と、記録手段に前記所定領域毎の特徴情報と関連付けて記録されている顔の構成部を表した顔構成部画像から、前記抽出手段により抽出された前記所定領域毎の特徴情報に対応する顔構成部画像を特定する特定手段と、前記特定手段により特定された顔構成部画像を用いて、前記顔の似顔絵画像を生成する第1生成手段と、を備えたことを特徴としている。
In order to solve the above problems, an image generation apparatus according to the present invention provides:
A first acquisition unit that acquires an original image; an extraction unit that extracts feature information for each predetermined region with respect to main constituent parts of the face in the original image acquired by the first acquisition unit; A specification for identifying a face component image corresponding to the feature information for each predetermined region extracted by the extraction unit from a face component image representing a face component recorded in association with feature information for each region And a first generation means for generating a portrait image of the face using the face component image specified by the specifying means.

また、本発明に係る画像生成方法は、
画像生成装置を用いた画像生成方法であって、元画像を取得する処理と、取得された元画像内の顔の主要な構成部について、所定領域毎に特徴情報を抽出する処理と、記録手段に前記所定領域毎の特徴情報と関連付けて記録されている顔の構成部を表した顔構成部画像から、抽出された前記所定領域毎の特徴情報に対応する顔構成部画像を特定する処理と、特定された顔構成部画像を用いて、前記顔の似顔絵画像を生成する処理と、を含むことを特徴としている。
An image generation method according to the present invention includes:
An image generation method using an image generation apparatus, a process for acquiring an original image, a process for extracting feature information for each predetermined region for main constituent parts of a face in the acquired original image, and a recording unit Processing for identifying a face component image corresponding to the extracted feature information for each predetermined region from the face component image representing the face component recorded in association with the feature information for each predetermined region. And a process of generating a portrait image of the face using the identified face component image.

また、本発明に係るプログラムは、
画像生成装置のコンピュータを、元画像を取得する第1取得手段、前記第1取得手段により取得された元画像内の顔の主要な構成部について、所定領域毎に特徴情報を抽出する抽出手段、記録手段に前記所定領域毎の特徴情報と関連付けて記録されている顔の構成部を表した顔構成部画像から、前記抽出手段により抽出された前記所定領域毎の特徴情報に対応する顔構成部画像を特定する特定手段、前記特定手段により特定された顔構成部画像を用いて、前記顔の似顔絵画像を生成する第1生成手段、として機能させることを特徴としている。
The program according to the present invention is
A first acquisition unit for acquiring an original image, an extraction unit for extracting feature information for each predetermined region of a main component of a face in the original image acquired by the first acquisition unit; A face component corresponding to the feature information for each predetermined region extracted by the extraction unit from the face component image representing the face component recorded in association with the feature information for each predetermined region on the recording unit It is characterized by functioning as a specifying means for specifying an image and a first generating means for generating a portrait image of the face using the face component image specified by the specifying means.

本発明によれば、顔の主要な構成部の形状を考慮して、より適正な似顔絵画像を生成することができる。   According to the present invention, it is possible to generate a more appropriate portrait image in consideration of the shape of the main constituent parts of the face.

本発明を適用した一実施形態の撮像装置の概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the imaging device of one Embodiment to which this invention is applied. 図1の撮像装置による似顔絵画像生成処理に係る顔輪郭画像の一例を模式的に示す図である。It is a figure which shows typically an example of the face outline image which concerns on the portrait image generation process by the imaging device of FIG. 図1の撮像装置による似顔絵画像生成処理に係る動作の一例を示すフローチャートである。3 is a flowchart illustrating an example of an operation related to a portrait image generation process performed by the imaging apparatus of FIG. 1. 図2の似顔絵画像生成処理における特徴抽出処理に係る動作の一例を示すフローチャートである。3 is a flowchart illustrating an example of an operation related to a feature extraction process in the portrait image generation process of FIG. 2. 図2の似顔絵画像生成処理に係る画像の一例を模式的に示す図である。It is a figure which shows typically an example of the image which concerns on the portrait image generation process of FIG. 図2の似顔絵画像生成処理における特徴抽出処理を説明するための図である。It is a figure for demonstrating the feature extraction process in the portrait image generation process of FIG. 図2の似顔絵画像生成処理に係る画像の一例を模式的に示す図である。It is a figure which shows typically an example of the image which concerns on the portrait image generation process of FIG.

以下に、本発明について、図面を用いて具体的な態様を説明する。ただし、発明の範囲は、図示例に限定されない。   Hereinafter, specific embodiments of the present invention will be described with reference to the drawings. However, the scope of the invention is not limited to the illustrated examples.

図1は、本発明を適用した一実施形態の撮像装置100の概略構成を示すブロック図である。
図1に示すように、本実施形態の撮像装置100は、具体的には、撮像部1と、撮像制御部2と、画像データ生成部3と、メモリ4と、画像記録部5と、画像処理部6と、表示制御部7と、表示部8と、操作入力部9と、中央制御部10とを備えている。
また、撮像部1、撮像制御部2、画像データ生成部3、メモリ4、画像記録部5、画像処理部6、表示制御部7及び中央制御部10は、バスライン11を介して接続されている。
FIG. 1 is a block diagram illustrating a schematic configuration of an imaging apparatus 100 according to an embodiment to which the present invention is applied.
As shown in FIG. 1, the imaging device 100 according to the present embodiment specifically includes an imaging unit 1, an imaging control unit 2, an image data generation unit 3, a memory 4, an image recording unit 5, and an image. A processing unit 6, a display control unit 7, a display unit 8, an operation input unit 9, and a central control unit 10 are provided.
The imaging unit 1, the imaging control unit 2, the image data generation unit 3, the memory 4, the image recording unit 5, the image processing unit 6, the display control unit 7, and the central control unit 10 are connected via a bus line 11. Yes.

撮像部1は、撮像手段として、所定の被写体を撮像してフレーム画像を生成する。
具体的には、撮像部1は、レンズ部1aと、電子撮像部1bと、レンズ駆動部1cとを備えている。
The imaging unit 1 captures a predetermined subject and generates a frame image as an imaging unit.
Specifically, the imaging unit 1 includes a lens unit 1a, an electronic imaging unit 1b, and a lens driving unit 1c.

レンズ部1aは、例えば、ズームレンズやフォーカスレンズ等の複数のレンズから構成されている。
電子撮像部1bは、例えば、CCD(Charge Coupled Device)やCMOS(Complementary Metal-oxide Semiconductor)等のイメージセンサ(撮像素子)から構成されている。そして、電子撮像部1bは、レンズ部1aの各種レンズを通過した光学像を二次元の画像信号に変換する。
レンズ駆動部1cは、例えば、図示は省略するが、ズームレンズを光軸方向に移動させるズーム駆動部、フォーカスレンズを光軸方向に移動させる合焦駆動部等を備えている。
なお、撮像部1は、レンズ部1a、電子撮像部1b及びレンズ駆動部1cに加えて、レンズ部1aを通過する光の量を調整する絞り(図示略)を備えても良い。
The lens unit 1a includes a plurality of lenses such as a zoom lens and a focus lens, for example.
The electronic imaging unit 1b includes, for example, an image sensor (imaging device) such as a charge coupled device (CCD) or a complementary metal-oxide semiconductor (CMOS). Then, the electronic imaging unit 1b converts the optical image that has passed through the various lenses of the lens unit 1a into a two-dimensional image signal.
For example, although not shown, the lens driving unit 1c includes a zoom driving unit that moves the zoom lens in the optical axis direction, a focusing driving unit that moves the focus lens in the optical axis direction, and the like.
The imaging unit 1 may include a diaphragm (not shown) that adjusts the amount of light passing through the lens unit 1a in addition to the lens unit 1a, the electronic imaging unit 1b, and the lens driving unit 1c.

撮像制御部2は、撮像部1による被写体の撮像を制御する。即ち、撮像制御部2は、図示は省略するが、タイミング発生器、ドライバなどを備えている。そして、撮像制御部2は、タイミング発生器、ドライバにより電子撮像部1bを走査駆動して、レンズ部1aを通過した光学像を電子撮像部1bにより所定周期毎に二次元の画像信号に変換させ、当該電子撮像部1bの撮像領域から1画面分ずつフレーム画像を読み出して画像データ生成部3に出力させる。   The imaging control unit 2 controls the imaging of the subject by the imaging unit 1. That is, the imaging control unit 2 includes a timing generator, a driver, and the like, although not illustrated. Then, the imaging control unit 2 scans and drives the electronic imaging unit 1b with a timing generator and a driver, and converts the optical image that has passed through the lens unit 1a into a two-dimensional image signal for each predetermined period by the electronic imaging unit 1b. Then, the frame image is read out from the imaging region of the electronic imaging unit 1b for each screen and is output to the image data generation unit 3.

なお、撮像制御部2は、レンズ部1aのフォーカスレンズに代えて、電子撮像部1bを光軸方向に移動させてレンズ部1aの合焦位置を調整するようにしても良い。
また、撮像制御部2は、AF(自動合焦処理)、AE(自動露出処理)、AWB(自動ホワイトバランス)等の被写体を撮像する際の条件の調整制御を行っても良い。
The imaging control unit 2 may adjust the in-focus position of the lens unit 1a by moving the electronic imaging unit 1b in the optical axis direction instead of the focus lens of the lens unit 1a.
Further, the imaging control unit 2 may perform adjustment control of conditions when imaging an object such as AF (automatic focusing process), AE (automatic exposure process), AWB (automatic white balance), and the like.

画像データ生成部3は、電子撮像部1bから転送されたフレーム画像のアナログ値の信号に対してRGBの各色成分毎に適宜ゲイン調整した後に、サンプルホールド回路(図示略)でサンプルホールドしてA/D変換器(図示略)でデジタルデータに変換し、カラープロセス回路(図示略)で画素補間処理及びγ補正処理を含むカラープロセス処理を行った後、デジタル値の輝度信号Y及び色差信号Cb,Cr(YUVデータ)を生成する。
カラープロセス回路から出力される輝度信号Y及び色差信号Cb,Crは、図示しないDMAコントローラを介して、バッファメモリとして使用されるメモリ4にDMA転送される。
The image data generation unit 3 appropriately adjusts the gain for each RGB color component with respect to the analog value signal of the frame image transferred from the electronic imaging unit 1b, and then performs sample holding by a sample hold circuit (not shown). The digital signal is converted into digital data by a / D converter (not shown), color processing including pixel interpolation processing and γ correction processing is performed by a color process circuit (not shown), and then a digital luminance signal Y and color difference signal Cb , Cr (YUV data).
The luminance signal Y and the color difference signals Cb and Cr output from the color process circuit are DMA-transferred to a memory 4 used as a buffer memory via a DMA controller (not shown).

メモリ4は、例えば、DRAM(Dynamic Random Access Memory)等により構成され、画像処理部6や中央制御部10等によって処理されるデータ等を一時的に格納する。   The memory 4 is composed of, for example, a DRAM (Dynamic Random Access Memory) or the like, and temporarily stores data processed by the image processing unit 6 or the central control unit 10.

画像記録部5は、例えば、不揮発性メモリ(フラッシュメモリ)等により構成され、画像処理部6の符号化部(図示略)により所定の圧縮形式(例えば、JPEG形式等)で符号化された記録用の画像データを記録する。   The image recording unit 5 is configured by, for example, a non-volatile memory (flash memory) or the like, and is recorded by a coding unit (not shown) of the image processing unit 6 in a predetermined compression format (for example, JPEG format). Record image data for use.

また、画像記録部(記録手段)5は、所定数の顔輪郭画像P1(図2参照)の画像データを記録している。
顔輪郭画像P1の画像データは、例えば、ヒトの正面顔に対応する顔輪郭Wの形状を模式的に表した画像であり、当該顔輪郭Wの特徴情報と対応付けられている。
ここで、顔輪郭画像P1の画像データは、例えば、顔検出処理(後述)により検出された顔領域F1に対してAAM(Active Appearance Model)を用いた処理(詳細後述)を行って、顔の顎の輪郭よりも内側に存する顔構成部(例えば、目、鼻、口、眉等)及び髪型部分を消去した後、顔の輪郭に沿って線を描画し、顔の輪郭の内側の肌部分を所定の色で塗り潰すことにより形成される方法が挙げられる。なお、顔の輪郭に沿った線の描画は、ユーザによる操作入力部9の所定操作に基づいて手動で行われても良いし、中央制御部10のCPUの制御下にて自動で行われても良い。
また、顔輪郭Wの特徴情報としては、例えば、当該顔輪郭Wを構成する各画素の座標に基づいて特定された所定の角度範囲(例えば、45°毎)に対応する方向コードが挙げられる(詳細後述)。
また、顔輪郭画像P1の画像データの各々は、例えば、当該顔輪郭画像P1の生成元の画像の耳の画像を含んでいるが、さらに、当該生成元の画像の髪型画像P7と対応付けられていても良い。
The image recording unit (recording unit) 5 records image data of a predetermined number of face contour images P1 (see FIG. 2).
The image data of the face contour image P1 is, for example, an image that schematically represents the shape of the face contour W corresponding to the front face of a human, and is associated with the feature information of the face contour W.
Here, the image data of the face contour image P1 is obtained by, for example, performing a process (details will be described later) using an AAM (Active Appearance Model) on the face area F1 detected by the face detection process (described later). After erasing the facial components (for example, eyes, nose, mouth, eyebrows, etc.) and hairstyle that are inside the jaw contour, draw a line along the facial contour, and the skin portion inside the facial contour The method of forming by painting with a predetermined color. The line drawing along the contour of the face may be performed manually based on a predetermined operation of the operation input unit 9 by the user, or automatically performed under the control of the CPU of the central control unit 10. Also good.
The feature information of the face contour W includes, for example, a direction code corresponding to a predetermined angle range (for example, every 45 °) specified based on the coordinates of each pixel constituting the face contour W ( Details will be described later).
Each of the image data of the face contour image P1 includes, for example, an ear image of the image that is the generation source of the face contour image P1, and is further associated with the hairstyle image P7 of the image of the generation source. May be.

なお、画像記録部5は、例えば、記録媒体(図示略)が着脱自在に構成され、装着された記録媒体からのデータの読み出しや記録媒体に対するデータの書き込みを制御する構成であっても良い。   The image recording unit 5 may be configured, for example, such that a recording medium (not shown) is detachable, and controls reading of data from the loaded recording medium and writing of data to the recording medium.

画像処理部6は、画像取得部6aと、顔検出部6bと、構成部画像生成部6cと、二値画像生成部6dと、座標取得部6eと、特徴情報抽出部6fと、輪郭特定部6gと、似顔絵画像生成部6hとを具備している。
なお、画像処理部6の各部は、例えば、所定のロジック回路から構成されているが、当該構成は一例であってこれに限られるものではない。
The image processing unit 6 includes an image acquisition unit 6a, a face detection unit 6b, a configuration unit image generation unit 6c, a binary image generation unit 6d, a coordinate acquisition unit 6e, a feature information extraction unit 6f, and an outline specifying unit. 6g and a portrait image generating unit 6h.
Note that each unit of the image processing unit 6 is configured by, for example, a predetermined logic circuit, but the configuration is an example and is not limited thereto.

画像取得部6aは、似顔絵画像生成処理の処理対象となる画像を取得する。
即ち、画像取得部(取得手段)6aは、元画像(例えば、写真画像等)P2の画像データを取得する。具体的には、画像取得部6aは、撮像部1及び撮像制御部2による被写体の撮像によって画像データ生成部3により生成された元画像P2の画像データ(RGBデータやYUVデータ)の複製をメモリ4から取得したり、画像記録部5に記録されている元画像P2の画像データの複製を取得する(図5(a)参照)。
なお、後述する画像処理部6による各処理は、元画像P2の画像データ自体に対して行われても良いし、必要に応じて元画像P2の画像データを所定の比率で縮小した所定サイズ(例えば、VGAサイズ等)の縮小画像データに対して行われても良い。
The image acquisition unit 6a acquires an image to be processed in the portrait image generation process.
That is, the image acquisition unit (acquisition means) 6a acquires image data of the original image (for example, a photographic image) P2. Specifically, the image acquisition unit 6a stores a copy of the image data (RGB data or YUV data) of the original image P2 generated by the image data generation unit 3 by imaging the subject by the imaging unit 1 and the imaging control unit 2. 4 or a copy of the image data of the original image P2 recorded in the image recording unit 5 (see FIG. 5A).
Each process by the image processing unit 6 to be described later may be performed on the image data itself of the original image P2, or a predetermined size (reduced by a predetermined ratio) of the image data of the original image P2 as necessary. For example, it may be performed on reduced image data of VGA size or the like.

顔検出部6bは、処理対象となる元画像P2から顔領域F1(図5(a)参照)を検出する。
即ち、顔検出部6bは、画像取得部6aにより取得された元画像P2から顔が含まれる顔領域F1を検出する。具体的には、顔検出部6bは、画像取得部6aにより似顔絵画像生成処理の処理対象の画像として取得された元画像P2の画像データを取得して、当該画像データに対して所定の顔検出処理を行って顔領域F1を検出する。そして、顔検出部6bは、顔領域F1を囲繞する所定の大きさの領域A(図5(a)参照)を切り出して顔領域画像とする。
なお、顔検出処理は、公知の技術であるので、ここでは詳細な説明を省略する。
The face detection unit 6b detects a face area F1 (see FIG. 5A) from the original image P2 to be processed.
That is, the face detection unit 6b detects a face area F1 including a face from the original image P2 acquired by the image acquisition unit 6a. Specifically, the face detection unit 6b acquires the image data of the original image P2 acquired as the processing target image of the portrait image generation process by the image acquisition unit 6a, and performs predetermined face detection on the image data. Processing is performed to detect the face area F1. Then, the face detection unit 6b cuts out a region A (see FIG. 5A) having a predetermined size surrounding the face region F1 to obtain a face region image.
Since the face detection process is a known technique, detailed description thereof is omitted here.

構成部画像生成部6cは、顔の主要な顔構成部を表した顔構成部画像P4(図5(c)参照)を生成する。
即ち、構成部画像生成部6cは、画像取得部6aにより取得された元画像P2(図5(a)参照)内の顔の主要な顔構成部に係る顔構成部画像P4を生成する。具体的には、構成部画像生成部6cは、元画像P2の顔領域F1が含まれる顔領域画像に対して微細部抽出処理を施して、例えば、目、鼻、口、眉、髪の毛、顔輪郭W等の顔構成部を線で表した顔微細部画像P3(図5(b)参照)を生成する。例えば、構成部画像生成部6cは、微細部抽出処理として、AAMを用いた処理により顔微細部画像P3を生成する。また、構成部画像生成部6cは、顔検出部6bにより元画像P2の画像データから検出された顔領域F1に対して微細部抽出処理を施す。
ここで、AAMとは、視覚的事象のモデル化の一手法であり、任意の顔領域F1の画像のモデル化を行う処理である。例えば、構成部画像生成部6cは、複数のサンプル顔画像における所定の特徴部位(例えば、目じりや鼻頭やフェイスライン等)の位置や画素値(例えば、輝度値)の統計的分析結果を所定の登録手段に登録しておく。そして、構成部画像生成部6cは、上記の特徴部位の位置を基準として、顔の形状を表す形状モデルや平均的な形状における「Appearance」を表すテクスチャーモデルを設定し、これらのモデルを用いて顔領域F1の画像(顔領域画像)をモデル化する。これにより、構成部画像生成部6cは、元画像P2内の主要な構成を抽出して線で表した顔微細部画像P3を生成する。
The component image generation unit 6c generates a face component image P4 (see FIG. 5C) representing the main face component of the face.
That is, the component image generation unit 6c generates a face component image P4 related to the main face component of the face in the original image P2 (see FIG. 5A) acquired by the image acquisition unit 6a. Specifically, the component image generation unit 6c performs a fine part extraction process on the face area image including the face area F1 of the original image P2, for example, eyes, nose, mouth, eyebrows, hair, face, etc. A fine face portion image P3 (see FIG. 5B) in which a face component such as the contour W is represented by a line is generated. For example, the constituent part image generation unit 6c generates the face fine part image P3 by the process using AAM as the fine part extraction process. Further, the component image generation unit 6c performs a fine portion extraction process on the face region F1 detected from the image data of the original image P2 by the face detection unit 6b.
Here, AAM is a technique for modeling a visual event, and is a process for modeling an image of an arbitrary face region F1. For example, the component image generation unit 6c obtains statistical analysis results of positions and pixel values (for example, luminance values) of predetermined feature parts (for example, eyes, nasal head, face line, etc.) in a plurality of sample face images. Register in the registration means. Then, the component image generation unit 6c sets a shape model that represents the shape of the face and a texture model that represents “Appearance” in the average shape with reference to the position of the feature part, and uses these models. An image of the face area F1 (face area image) is modeled. As a result, the component image generation unit 6c extracts the main components in the original image P2 and generates a fine face image P3 represented by lines.

また、構成部画像生成部6cは、微細部抽出処理により顔領域F1内の顔輪郭Wを特定して、顔輪郭W内に存する顔構成部及び当該顔輪郭Wと接する顔構成部を線で表した顔構成部画像P4(図5(c)参照)を生成する。
具体的には、構成部画像生成部6cは、顔微細部画像P3内で顔輪郭Wと接する画素を特定し、当該画素と連続する画素のうち、顔輪郭Wよりも外側に存する画素を消去する。つまり、構成部画像生成部6cは、顔微細部画像P3のうち、顔輪郭Wよりも外側に存する部分を消去するとともに、顔輪郭Wよりも内側に存し、且つ、当該顔輪郭Wと接する部分を残して、例えば、目、鼻、口、眉等の顔輪郭W以外の主要な顔構成部のパーツ画像を含む顔構成部画像P4を生成する。
ここで、構成部画像生成部6cは、各顔構成部のパーツ画像のXY平面空間での相対的な位置関係に係る情報や、座標位置に係る情報を抽出して取得しても良い。
Further, the component image generation unit 6c identifies the face contour W in the face region F1 by the fine portion extraction process, and the face component existing in the face contour W and the face component in contact with the face contour W with lines. The represented face component image P4 (see FIG. 5C) is generated.
Specifically, the component image generation unit 6c identifies a pixel in contact with the face contour W in the face fine portion image P3, and erases pixels existing outside the face contour W among pixels continuous with the pixel. To do. That is, the component image generation unit 6c erases a portion existing outside the face contour W in the face fine portion image P3, exists inside the face contour W, and is in contact with the face contour W. For example, a face component image P4 including part images of main face components other than the face contour W such as eyes, nose, mouth, and eyebrows is generated while leaving the portion.
Here, the component image generation unit 6c may extract and acquire information related to the relative positional relationship of the part images of each face component in the XY plane space and information related to the coordinate position.

なお、微細部抽出処理として、AAMを用いた処理を例示したが、一例であってこれに限られるものではなく、適宜任意に変更可能である。
例えば、微細部抽出処理として、エッジ抽出処理や非等方拡散処理を行って、顔構成部のパーツ画像を含む顔構成部画像P4を生成しても良い。具体的には、構成部画像生成部6cは、例えば、元画像P2の画像データに対して所定の微分フィルタ(例えば、ハイパスフィルタ等)を用いて微分演算を行って、輝度値や色や濃度に急峻な変化があるところをエッジとして検出するエッジ検出処理を行っても良い。また、構成部画像生成部6cは、例えば、元画像P2の画像データに対して所定の非等方拡散フィルタを用いて、線状のエッジの接線方向とエッジの垂直方向とで重みを異ならせて平滑化する非等方拡散処理を行っても良い。
In addition, although the process using AAM was illustrated as a fine part extraction process, it is an example and it is not restricted to this, It can change arbitrarily arbitrarily.
For example, as the fine part extraction process, an edge extraction process or an anisotropic diffusion process may be performed to generate the face constituent part image P4 including the part image of the face constituent part. Specifically, the component image generation unit 6c performs, for example, a differentiation operation on the image data of the original image P2 using a predetermined differential filter (for example, a high-pass filter) to obtain a luminance value, a color, or a density. Edge detection processing may be performed in which a sharp change is detected as an edge. In addition, the component image generation unit 6c uses a predetermined anisotropic diffusion filter for the image data of the original image P2, for example, to change the weight between the tangential direction of the linear edge and the vertical direction of the edge. An anisotropic diffusion process for smoothing may be performed.

二値画像生成部6dは、顔輪郭Wに係る二値画像P5を生成する。
即ち、二値画像生成部(第2生成手段)6dは、画像取得部6aにより取得された元画像P2内の顔輪郭Wに係る二値画像P5(図6(a)参照)を生成する。具体的には、二値画像生成部6dは、構成部画像生成部6cにより生成された顔微細部画像P3の複製を取得して、当該顔微細部画像P3の顔輪郭Wよりも外側に存する画素を消去した後、x軸方向(水平方向)及びy軸方向(垂直方向)の最小値及び最大値を算出する。ここでの最小値及び最大値によって、顔輪郭Wを囲繞する領域が規定される。
そして、二値画像生成部6dは、当該顔微細部画像P3が所定の大きさ(例えば、x軸方向及びy軸方向の画素数が256画素等)となるように正規化する。続けて、二値画像生成部6dは、顔輪郭Wの左右のこめかみに対応する部分どうしを結んだ後、当該顔輪郭Wよりも内側の画素を一の色に対応する画素値(例えば、白色;RGBの各画素値が「255」)とし、外側の画素を他の色に対応する画素値(例えば、黒色;RGBの各画素値が「0」)とする二値画像(輝度画像)P5の画像データを生成する。生成された二値画像P5の画像データは、白黒の画素値が反転された後、所定の格納手段(例えば、メモリ等)に一時的に格納される。
なお、二値画像P5の生成手法は、一例であってこれに限られるものではなく、適宜任意に変更可能である。
The binary image generation unit 6d generates a binary image P5 related to the face outline W.
That is, the binary image generation unit (second generation unit) 6d generates a binary image P5 (see FIG. 6A) related to the face outline W in the original image P2 acquired by the image acquisition unit 6a. Specifically, the binary image generation unit 6d acquires a copy of the face fine part image P3 generated by the component part image generation unit 6c, and exists outside the face outline W of the face fine part image P3. After erasing the pixels, the minimum and maximum values in the x-axis direction (horizontal direction) and the y-axis direction (vertical direction) are calculated. The area surrounding the face contour W is defined by the minimum value and the maximum value.
Then, the binary image generation unit 6d normalizes the face fine portion image P3 so as to have a predetermined size (for example, the number of pixels in the x-axis direction and the y-axis direction is 256 pixels). Subsequently, the binary image generation unit 6d connects the portions corresponding to the left and right temples of the face outline W, and then sets the pixels inside the face outline W to pixel values corresponding to one color (for example, white Each pixel value of RGB is “255”), and a binary image (luminance image) P5 in which the outer pixel is a pixel value corresponding to another color (for example, black; each pixel value of RGB is “0”). Image data is generated. The generated image data of the binary image P5 is temporarily stored in a predetermined storage unit (for example, a memory) after the black and white pixel values are inverted.
Note that the method of generating the binary image P5 is an example and is not limited to this, and can be arbitrarily changed as appropriate.

座標取得部6eは、顔輪郭Wの各画素の座標を取得する。
即ち、座標取得部(第2取得手段)6eは、二値画像生成部6dにより生成された二値画像P5に基づいて、当該顔輪郭Wの各画素の座標を取得する。具体的には、座標取得部6eは、二値画像生成部6dにより生成され白黒反転された二値画像P5の画像データを所定の格納手段から取得して、顔輪郭Wを構成する白画素と黒画素との境界部分の所定位置を始点(例えば、図6(a)における向かって右側のこめかみに対応する部分等)として、隣接する各画素を当該始点に戻るまで追跡して全ての画素の座標を取得する。取得された顔輪郭Wの各画素の座標は、所定の格納手段(例えば、メモリ等)に一時的に格納される。
なお、各画素の座標の取得手法は、一例であってこれに限られるものではなく、適宜任意に変更可能である。
The coordinate acquisition unit 6e acquires the coordinates of each pixel of the face outline W.
That is, the coordinate acquisition unit (second acquisition unit) 6e acquires the coordinates of each pixel of the face contour W based on the binary image P5 generated by the binary image generation unit 6d. Specifically, the coordinate acquisition unit 6e acquires the image data of the binary image P5 generated by the binary image generation unit 6d and reversed in black and white from a predetermined storage unit, and the white pixels constituting the face contour W Using a predetermined position of the boundary with the black pixel as a starting point (for example, a part corresponding to the temple on the right side in FIG. 6A), each adjacent pixel is traced until returning to the starting point, and all pixels are Get the coordinates. The acquired coordinates of each pixel of the face contour W are temporarily stored in a predetermined storage means (for example, a memory).
Note that the method of acquiring the coordinates of each pixel is an example and is not limited to this, and can be arbitrarily changed as appropriate.

特徴情報抽出部6fは、元画像P2の顔の輪郭から特徴情報を抽出する。
即ち、特徴情報抽出部(抽出手段)6fは、画像取得部6aにより取得された元画像P2内P2の顔の主要な構成部(例えば、顔輪郭W等)について、所定領域毎に特徴情報を抽出する(図6(c)参照)。具体的には、特徴情報抽出部6fは、座標取得部6eにより取得された顔輪郭Wの各画素の座標を所定の格納手段から取得し、当該各画素の座標に基づいて、各画素毎に所定の角度範囲に対応する方向コードを特徴情報として抽出する。このとき、特徴情報抽出部6fは、顔輪郭Wの各画素のうち、左右のこめかみどうしを結ぶ画素以外の画素に対応する方向コードを特徴情報として抽出しても良い。
例えば、特徴情報抽出部6fは、顔輪郭Wの各画素の座標の移動の推移を45°毎の8方向コード(図6(b)参照)に変換する。このとき、左右のこめかみに対応する部分どうしを結ぶ直線部分の各画素については、顔輪郭Wとは関係ないため、特徴情報抽出部6fは、当該画素の方向コードを算出しないか、或いは、方向コードを算出後に削除する。例えば、特徴情報抽出部6fは、左右のこめかみに対応する部分どうしを結ぶ直線部分の各画素に対応する、「1」〜「3」で表される方向コードを削除する。その後、特徴情報抽出部6fは、特徴情報として抽出された方向コード(例えば、「0」、「4」〜「7」で表される方向コード)を、例えば、ニアレストネイバーを利用した間引き処理によって所定数(例えば、64点等)に正規化して、特徴量(特徴情報)として抽出する。
ここで、特徴情報抽出部6fは、例えば、64点に正規化された方向コードのうち、始点及び終点の画素に対応する方向コードについては、比較照合の際の画素のずれを考慮して一画素ずらすことで二重化して全体が66点の方向コードとしても良い。
正規化後の方向コードは、所定の格納手段(例えば、メモリ等)に一時的に格納される。
The feature information extraction unit 6f extracts feature information from the face outline of the original image P2.
In other words, the feature information extraction unit (extraction means) 6f obtains feature information for each predetermined region with respect to main constituent parts (for example, the face outline W) of the face in the original image P2 acquired by the image acquisition unit 6a. Extract (see FIG. 6C). Specifically, the feature information extraction unit 6f acquires the coordinates of each pixel of the face outline W acquired by the coordinate acquisition unit 6e from a predetermined storage unit, and for each pixel based on the coordinates of each pixel. A direction code corresponding to a predetermined angle range is extracted as feature information. At this time, the feature information extraction unit 6f may extract a direction code corresponding to a pixel other than a pixel connecting the left and right temples among the pixels of the face outline W as the feature information.
For example, the feature information extraction unit 6f converts the transition of the movement of the coordinates of each pixel of the face outline W into an 8-direction code (see FIG. 6B) every 45 °. At this time, since each pixel of the straight line portion connecting the portions corresponding to the left and right temples is not related to the face contour W, the feature information extraction unit 6f does not calculate the direction code of the pixel or the direction Delete code after calculation. For example, the feature information extraction unit 6f deletes the direction codes represented by “1” to “3” corresponding to the pixels of the straight line portion connecting the portions corresponding to the left and right temples. After that, the feature information extraction unit 6f thins out the direction code (for example, the direction code represented by “0”, “4” to “7”) extracted as the feature information using, for example, a nearest neighbor. Is normalized to a predetermined number (for example, 64 points) and extracted as a feature amount (feature information).
Here, for example, among the direction codes normalized to 64 points, the feature information extraction unit 6f considers the pixel shift at the time of comparison and collation for the direction codes corresponding to the start point and end point pixels. The direction code of 66 points as a whole may be obtained by duplicating by shifting pixels.
The normalized direction code is temporarily stored in a predetermined storage means (for example, a memory).

なお、方向コードを算出する特徴抽出処理は、公知の技術であるので、ここでは詳細な説明を省略する。また、方向コードの算出手法は、一例であってこれに限られるものではなく、適宜任意に変更可能である。   Note that the feature extraction processing for calculating the direction code is a known technique, and thus detailed description thereof is omitted here. Further, the method of calculating the direction code is an example, and is not limited to this, and can be arbitrarily changed as appropriate.

輪郭特定部6gは、元画像P2内の顔輪郭Wに対応する顔輪郭画像P1を特定する。
即ち、輪郭特定部(特定手段)6gは、画像記録部5に所定領域毎の特徴情報(例えば、方向コード等)と関連付けて記録されている顔輪郭Wを表した顔輪郭画像P1(顔構成部画像)から、特徴情報抽出部6fにより抽出された所定領域毎の特徴情報に対応する顔輪郭画像P1(顔構成部画像)を特定する。具体的には、輪郭特定部6gは、特徴情報抽出部6fにより正規化された顔輪郭Wの各画素に対応する方向コードを用いて、画像記録部5内で顔輪郭画像P1を特定する。
例えば、輪郭特定部6gは、画像記録部5に記録されている複数の顔輪郭画像P1、…の各々に対応する方向コードと、特徴情報抽出部6fにより抽出された方向コードとを比較し、ずれ量を算出する。方向コードどうしのずれ量としては、例えば、全ての画素について、対応する画素どうしの距離の二乗を加算した総和が挙げられる。そして、輪郭特定部6gは、画像記録部5に記録されている各顔輪郭画像P1に対応するずれ量を基準として、当該ずれ量の小さい方から順に所定の順位(例えば、7位等)までの顔輪郭画像P1を特定する。
ここで、輪郭特定部6gは、一致度の最も高い一の顔輪郭画像P1(図7(a)参照)を自動的に特定しても良いし、所定の順位までの顔輪郭画像P1の中で、ユーザによる操作入力部9の所定操作に基づいてユーザ所望の顔輪郭画像P1を特定するようにしても良い。
The contour specifying unit 6g specifies the face contour image P1 corresponding to the face contour W in the original image P2.
That is, the contour specifying unit (specifying unit) 6g represents a face contour image P1 (face configuration) representing the face contour W recorded in the image recording unit 5 in association with feature information (for example, a direction code) for each predetermined region. A facial contour image P1 (face component image) corresponding to the feature information for each predetermined area extracted by the feature information extraction unit 6f. Specifically, the contour specifying unit 6g specifies the face contour image P1 in the image recording unit 5 using the direction code corresponding to each pixel of the face contour W normalized by the feature information extracting unit 6f.
For example, the contour specifying unit 6g compares the direction code corresponding to each of the plurality of face contour images P1, ... recorded in the image recording unit 5 with the direction code extracted by the feature information extracting unit 6f, The amount of deviation is calculated. As the amount of deviation between the direction codes, for example, for all the pixels, the total sum of the squares of the distances between the corresponding pixels can be cited. Then, the contour specifying unit 6g uses the shift amount corresponding to each face contour image P1 recorded in the image recording unit 5 as a reference, in order from a smaller shift amount to a predetermined rank (for example, 7th place). The face contour image P1 is specified.
Here, the contour specifying unit 6g may automatically specify the one face contour image P1 (see FIG. 7A) having the highest degree of coincidence, or among the face contour images P1 up to a predetermined order. Thus, the user-desired face contour image P1 may be specified based on a predetermined operation of the operation input unit 9 by the user.

似顔絵画像生成部6hは、顔輪郭画像P1に基づいて似顔絵画像P6を生成する。
即ち、似顔絵画像生成部(第1生成手段)6hは、輪郭特定部6gにより特定された顔輪郭画像P1の画像データを用いて似顔絵画像P6を生成する。具体的には、似顔絵画像生成部6hは、顔輪郭画像P1の顔輪郭Wよりも内側にて、例えば、目、鼻、口、眉等の各顔構成部のパーツ画像を重畳させる位置を特定し、当該位置に各顔構成部のパーツ画像を重畳させる。さらに、似顔絵画像生成部6hは、所定の髪型画像P7を取得して、顔輪郭Wの外側における当該髪型画像P7を重畳させる位置を特定した後、特定された位置に当該髪型画像P7を配置して元画像P2を似顔絵で表した似顔絵画像P6の画像データを生成する(図7(b)参照)。
なお、髪型画像P7は、ユーザによる操作入力部9の所定操作に基づいて指定された髪型画像P7が取得されても良いし、或いは、顔輪郭画像P1と対応付けられた髪型画像P7が自動的に取得されても良い。また、髪型画像P7の画像データは、顔輪郭画像P1の大きさに合わせて当該髪型画像P7の大きさが予め調整されているものが好ましい。
また、似顔絵画像生成部6hは、似顔絵画像P6の所定の部分(例えば、目、口、眉等の顔構成部等)に所定の色を付けて表した画像を生成しても良い。
The portrait image generating unit 6h generates a portrait image P6 based on the face outline image P1.
That is, the portrait image generation unit (first generation unit) 6h generates the portrait image P6 using the image data of the face outline image P1 specified by the outline specifying unit 6g. Specifically, the caricature image generation unit 6h specifies the position where the part images of the respective facial component parts such as eyes, nose, mouth, and eyebrows are superimposed on the inner side of the face outline W of the face outline image P1. Then, the part image of each face constituting unit is superimposed on the position. Further, the portrait image generation unit 6h acquires a predetermined hairstyle image P7, specifies a position where the hairstyle image P7 is superimposed outside the face outline W, and then places the hairstyle image P7 at the specified position. Then, image data of a portrait image P6 representing the original image P2 as a portrait is generated (see FIG. 7B).
As the hairstyle image P7, the hairstyle image P7 designated based on a predetermined operation of the operation input unit 9 by the user may be acquired, or the hairstyle image P7 associated with the face contour image P1 is automatically obtained. May be acquired. Further, the image data of the hairstyle image P7 is preferably one in which the size of the hairstyle image P7 is adjusted in advance according to the size of the face outline image P1.
In addition, the portrait image generation unit 6h may generate an image represented by adding a predetermined color to a predetermined portion of the portrait image P6 (for example, a face component such as eyes, mouth, and eyebrows).

表示制御部7は、メモリ4に一時的に格納されている表示用の画像データを読み出して表示部8に表示させる制御を行う。
具体的には、表示制御部7は、VRAM(Video Random Access Memory)、VRAMコントローラ、デジタルビデオエンコーダなどを備えている。そして、デジタルビデオエンコーダは、中央制御部10の制御下にてメモリ4から読み出されてVRAM(図示略)に格納されている輝度信号Y及び色差信号Cb,Crを、VRAMコントローラを介してVRAMから定期的に読み出して、これらのデータを元にビデオ信号を発生して表示部8に出力する。
The display control unit 7 performs control to read display image data temporarily stored in the memory 4 and display it on the display unit 8.
Specifically, the display control unit 7 includes a VRAM (Video Random Access Memory), a VRAM controller, a digital video encoder, and the like. The digital video encoder reads the luminance signal Y and the color difference signals Cb and Cr read from the memory 4 and stored in the VRAM (not shown) under the control of the central control unit 10 through the VRAM controller. Are periodically read out, and a video signal is generated based on these data and output to the display unit 8.

表示部8は、例えば、液晶表示パネルであり、表示制御部7からのビデオ信号に基づいて撮像部1により撮像された画像などを表示画面に表示する。具体的には、表示部8は、静止画撮像モードや動画撮像モードにて、撮像部1及び撮像制御部2による被写体の撮像により生成された複数のフレーム画像を所定のフレームレートで逐次更新しながらライブビュー画像を表示する。また、表示部8は、静止画として記録される画像(レックビュー画像)を表示したり、動画として記録中の画像を表示する。   The display unit 8 is, for example, a liquid crystal display panel, and displays an image captured by the imaging unit 1 based on a video signal from the display control unit 7 on a display screen. Specifically, the display unit 8 sequentially updates a plurality of frame images generated by imaging the subject by the imaging unit 1 and the imaging control unit 2 at a predetermined frame rate in the still image capturing mode and the moving image capturing mode. While displaying the live view image. The display unit 8 displays an image (rec view image) recorded as a still image or an image being recorded as a moving image.

操作入力部9は、当該撮像装置100の所定操作を行うためのものである。具体的には、操作入力部9は、被写体の撮像指示に係るシャッタボタン、撮像モードや機能等の選択指示に係る選択決定ボタン、ズーム量の調整指示に係るズームボタン等(何れも図示略)の操作部を備え、当該操作部の各ボタンの操作に応じて所定の操作信号を中央制御部10に出力する。   The operation input unit 9 is for performing a predetermined operation of the imaging apparatus 100. Specifically, the operation input unit 9 includes a shutter button related to an imaging instruction of a subject, a selection determination button related to an instruction to select an imaging mode and a function, a zoom button related to an instruction to adjust the zoom amount, and the like (all not shown). And outputs a predetermined operation signal to the central control unit 10 in accordance with the operation of each button of the operation unit.

中央制御部10は、撮像装置100の各部を制御するものである。具体的には、中央制御部10は、図示は省略するが、CPU(Central Processing Unit)等を備え、撮像装置100用の各種処理プログラム(図示略)に従って各種の制御動作を行う。   The central control unit 10 controls each unit of the imaging device 100. Specifically, although not shown, the central control unit 10 includes a CPU (Central Processing Unit) and the like, and performs various control operations according to various processing programs (not shown) for the imaging apparatus 100.

次に、撮像装置100による似顔絵画像生成処理について、図3〜図7を参照して説明する。
図3は、似顔絵画像生成処理に係る動作の一例を示すフローチャートである。
Next, a portrait image generation process performed by the imaging apparatus 100 will be described with reference to FIGS.
FIG. 3 is a flowchart illustrating an example of an operation related to the portrait image generation process.

似顔絵画像生成処理は、ユーザによる操作入力部9の選択決定ボタンの所定操作に基づいて、メニュー画面に表示された複数の動作モードの中から似顔絵画像生成モードが選択指示された場合に、中央制御部10の制御下にて当該撮像装置100の各部、特に画像処理部6により実行される処理である。
また、似顔絵画像生成処理の処理対象となる元画像P2の画像データ及び似顔絵画像P6の生成に用いられる顔輪郭画像P1の画像データは、予め画像記録部5に記録されているものとする。
The portrait image generation processing is performed when the portrait image generation mode is instructed to be selected from a plurality of operation modes displayed on the menu screen based on a predetermined operation of the selection determination button of the operation input unit 9 by the user. This process is executed by each unit of the imaging apparatus 100, particularly the image processing unit 6, under the control of the unit 10.
In addition, it is assumed that the image data of the original image P2 and the image data of the face contour image P1 used to generate the portrait image P6 that are the processing target of the portrait image generation process are recorded in the image recording unit 5 in advance.

図3に示すように、先ず、画像記録部5は、記録されている画像データの中で、ユーザによる操作入力部9の所定操作に基づいて指定された元画像P2(図5(a)参照)の画像データを読み出し、画像処理部6の画像取得部6aは、読み出された画像データを当該似顔絵画像生成処理の処理対象として取得する(ステップS1)。   As shown in FIG. 3, first, the image recording unit 5 selects the original image P2 designated based on a predetermined operation of the operation input unit 9 by the user in the recorded image data (see FIG. 5A). ) And the image acquisition unit 6a of the image processing unit 6 acquires the read image data as a processing target of the portrait image generation process (step S1).

次に、顔検出部6bは、処理対象として画像取得部6aにより取得された元画像P2の画像データに対して所定の顔検出処理を行って顔領域F1を検出する(ステップS2)。
続けて、構成部画像生成部6cは、検出された顔領域F1を含む顔領域画像に対して微細部抽出処理(例えば、AAMを用いた処理等)を行って、例えば、目、鼻、口、眉、髪の毛、顔輪郭W等の顔構成部を線で表した顔微細部画像P3(図5(b)参照)を生成する(ステップS3)。そして、構成部画像生成部6cは、微細部抽出処理により顔領域F1内の顔輪郭Wを特定して、顔の輪郭内に存する顔構成部及び当該輪郭と接する顔構成部、即ち、例えば、目、鼻、口、眉等の顔輪郭W以外の主要な顔構成部の主要な顔構成部のパーツ画像を含む顔構成部画像P4を生成する(ステップS4;図5(c)参照)。
Next, the face detection unit 6b performs a predetermined face detection process on the image data of the original image P2 acquired by the image acquisition unit 6a as a processing target to detect the face region F1 (step S2).
Subsequently, the component image generation unit 6c performs a fine part extraction process (for example, a process using AAM) on the face area image including the detected face area F1, for example, eyes, nose, mouth, and the like. Then, a fine face portion image P3 (see FIG. 5B) in which the face constituting portions such as the eyebrows, the hair, and the face contour W are represented by lines is generated (step S3). Then, the component image generation unit 6c identifies the face contour W in the face region F1 by the fine portion extraction process, and the face component existing in the face contour and the face component in contact with the contour, that is, for example, A face component image P4 including part images of main face components other than the face contour W such as eyes, nose, mouth, and eyebrows is generated (step S4; see FIG. 5C).

次に、画像処理部6は、特徴抽出処理(図4参照)を実行する(ステップS5)。
以下に、特徴抽出処理について図4を参照して詳細に説明する。図4は、特徴抽出処理に係る動作の一例を示すフローチャートである。
Next, the image processing unit 6 executes feature extraction processing (see FIG. 4) (step S5).
The feature extraction process will be described in detail below with reference to FIG. FIG. 4 is a flowchart illustrating an example of an operation related to the feature extraction process.

図4に示すように、二値画像生成部6dは、顔微細部画像P3の画像データの複製を取得して、当該顔微細部画像P3の顔輪郭Wよりも外側に存する画素を消去して、当該顔微細部画像P3のx軸方向及びy軸方向の画素数が256画素となるように正規化する(ステップS11)。続けて、二値画像生成部6dは、顔輪郭Wの左右のこめかみに対応する部分どうしを結んだ後、当該顔輪郭Wよりも内側の画素を白色に対応する画素値とし、外側の画素を黒色に対応する画素値とする二値画像P5の画像データを生成する(ステップS12)。   As shown in FIG. 4, the binary image generation unit 6d acquires a copy of the image data of the face fine part image P3 and erases pixels existing outside the face outline W of the face fine part image P3. Then, normalization is performed so that the number of pixels in the x-axis direction and the y-axis direction of the face fine portion image P3 is 256 pixels (step S11). Subsequently, the binary image generation unit 6d connects the portions corresponding to the left and right temples of the face contour W, then sets the pixels inside the face contour W as pixel values corresponding to white, and sets the outer pixels as pixels. Image data of a binary image P5 having a pixel value corresponding to black is generated (step S12).

次に、座標取得部6eは、二値画像生成部6dにより生成され白黒反転された二値画像P5の画像データを取得して、当該二値画像P5の各画素を追跡して各画素の座標を取得する(ステップS13)。例えば、座標取得部6eは、白黒反転された二値画像P5の顔輪郭Wを構成する白画素と黒画素との境界部分の一方のこめかみ(例えば、図6における右側のこめかみ等)に対応する部分を始点として、隣接する各画素を当該始点に戻るまで追跡して全ての画素の座標を取得する。
続けて、特徴情報抽出部6fは、座標取得部6eにより取得された顔輪郭Wの各画素の座標を取得し、各画素の座標に基づいて方向コードを抽出する(ステップS14)。例えば、特徴情報抽出部6fは、顔輪郭Wの各画素の座標に基づいて、各画素の座標の移動の推移を45°毎の8方向コード(図6(b)参照)に変換する。
そして、特徴情報抽出部6fは、顔輪郭Wの画素のうち、左右のこめかみに対応する部分どうしを結ぶ直線部分の各画素に対応する方向コード(例えば、「1」〜「3」で表される方向コード)を削除した後、残りの方向コード(例えば、「0」、「4」〜「7」で表される方向コード)を所定の間引き処理によって所定数(例えば、64点等)に正規化して、特徴量(特徴情報)として抽出する(ステップS15)。このとき、特徴情報抽出部6fは、例えば、64点に正規化された方向コードのうち、始点及び終点の画素に対応する方向コードについては二重化して全体が66点の方向コードとする。
これにより、特徴抽出処理を終了する。
Next, the coordinate acquisition unit 6e acquires the image data of the binary image P5 generated by the binary image generation unit 6d and reversed in black and white, tracks each pixel of the binary image P5, and coordinates each pixel. Is acquired (step S13). For example, the coordinate acquisition unit 6e corresponds to one temple (for example, the temple on the right side in FIG. 6) at the boundary between the white pixel and the black pixel constituting the face contour W of the binary image P5 that is reversed in black and white. The coordinates of all the pixels are obtained by tracking each adjacent pixel until the portion returns to the start point, starting from the portion.
Subsequently, the feature information extraction unit 6f acquires the coordinates of each pixel of the face outline W acquired by the coordinate acquisition unit 6e, and extracts the direction code based on the coordinates of each pixel (step S14). For example, based on the coordinates of each pixel of the face outline W, the feature information extraction unit 6f converts the movement of the coordinate of each pixel into an 8-direction code (see FIG. 6B) every 45 °.
Then, the feature information extraction unit 6f is represented by direction codes (for example, “1” to “3”) corresponding to the pixels of the straight line portion connecting the portions corresponding to the left and right temples among the pixels of the face outline W. Are deleted, and the remaining direction codes (for example, direction codes represented by “0”, “4” to “7”) are reduced to a predetermined number (for example, 64 points) by a predetermined thinning process. It is normalized and extracted as a feature amount (feature information) (step S15). At this time, for example, among the direction codes normalized to 64 points, the feature information extraction unit 6f duplicates the direction codes corresponding to the start point and end point pixels to obtain a total of 66 point direction codes.
Thereby, the feature extraction process is terminated.

図3に戻り、輪郭特定部6gは、特徴情報抽出部6fにより抽出された顔輪郭Wの各画素に対応する方向コードを用いて、元画像P2内の顔輪郭Wに対応する顔輪郭画像P1を画像記録部5内で特定する(ステップS6)。例えば、輪郭特定部6gは、画像記録部5から複数の顔輪郭画像P1、…の各々に対応する顔輪郭Wの方向コードを取得するとともに、特徴情報抽出部6fにより抽出された元画像P2の顔輪郭Wの方向コードを取得した後、これらを比較して対応する画素どうしのずれ量を算出する。そして、輪郭特定部6gは、算出されたずれ量の最も小さい顔輪郭画像P1(図7(a)参照)を自動的に特定する。このとき、特定部g2は、ずれ量の小さい方から順に所定の順位(例えば、7位等)まで顔輪郭画像P1を並べ替えた後、これらの顔輪郭画像P1の中で、ユーザによる操作入力部9の所定操作に基づいてユーザ所望の顔輪郭画像P1を特定するようにしても良い。   Returning to FIG. 3, the contour specifying unit 6g uses the direction code corresponding to each pixel of the face contour W extracted by the feature information extracting unit 6f to use the face contour image P1 corresponding to the face contour W in the original image P2. Is specified in the image recording unit 5 (step S6). For example, the contour specifying unit 6g acquires the direction code of the face contour W corresponding to each of the plurality of face contour images P1,... From the image recording unit 5, and the original image P2 extracted by the feature information extracting unit 6f. After obtaining the direction code of the face contour W, these are compared to calculate the shift amount between corresponding pixels. Then, the contour specifying unit 6g automatically specifies the face contour image P1 (see FIG. 7A) having the smallest calculated shift amount. At this time, the specifying unit g2 rearranges the face contour images P1 in order from the smallest deviation amount to a predetermined order (for example, seventh), and then inputs an operation input by the user in the face contour images P1. The face contour image P1 desired by the user may be specified based on a predetermined operation of the unit 9.

その後、似顔絵画像生成部6hは、顔輪郭画像P1と顔構成部画像P4と髪型画像P7とを用いて似顔絵画像P6(図7(b)参照)を生成する(ステップS7)。具体的には、似顔絵画像生成部6hは、輪郭特定部6gにより特定された顔輪郭画像P1の顔輪郭Wよりも内側にて、例えば、目、鼻、口、眉等の各顔構成部のパーツ画像を重畳させる位置を特定し、当該位置に各顔構成部のパーツ画像を重畳させる。さらに、似顔絵画像生成部6hは、例えば、顔輪郭画像P1と対応付けられた髪型画像P7を取得して、顔輪郭Wの外側における所定位置に当該髪型画像P7を配置して元画像P2を似顔絵で表した似顔絵画像P6の画像データを生成する。
これにより、似顔絵画像生成処理を終了する。
Thereafter, the portrait image generation unit 6h generates a portrait image P6 (see FIG. 7B) using the face outline image P1, the face component image P4, and the hairstyle image P7 (step S7). Specifically, the caricature image generation unit 6h is arranged on the inner side of the face contour W of the face contour image P1 specified by the contour specifying unit 6g, for example, each face constituent unit such as eyes, nose, mouth, and eyebrows. The position where the part image is superimposed is specified, and the part image of each face constituting unit is superimposed at the position. Furthermore, the portrait image generation unit 6h acquires, for example, a hairstyle image P7 associated with the face contour image P1, places the hairstyle image P7 at a predetermined position outside the face contour W, and renders the original image P2 as a portrait. The image data of the portrait image P6 expressed by
This completes the portrait image generation process.

以上のように、本実施形態の撮像装置100によれば、画像記録部5に所定領域毎の特徴情報と対応付けて記録されている顔の構成部を表した顔構成部画像(例えば、顔輪郭Wを表した顔輪郭画像P1等)から、所定領域毎の特徴情報に対応する顔構成部画像を特定して、当該顔構成部画像を用いて顔の似顔絵画像P6を生成するので、元画像P2の顔の主要な構成部の所定領域毎の形状の特徴を考慮して当該顔の構成部に対応する顔構成部画像を特定することができ、より適正な似顔絵画像P6を生成することができる。
即ち、予め多数の顔構成部画像を用意しておいても、顔輪郭W等の顔の主要な構成部の形状によっては最も似ている顔構成部画像を精度良く特定することができない虞があるが、本実施形態では、顔の構成部の所定領域毎の形状の特徴を考慮して当該顔の構成部を特徴的に表した顔構成部画像(例えば、顔輪郭画像P1等)を特定することができ、当該顔構成部画像を用いることで、より適正な似顔絵画像P6を生成することができる。
As described above, according to the imaging apparatus 100 of the present embodiment, the face component image (for example, the face) representing the face component recorded in the image recording unit 5 in association with the feature information for each predetermined area. Since the face component image corresponding to the feature information for each predetermined region is specified from the face contour image P1 representing the contour W and the like and the facial portrait image P6 is generated using the face component image, the original image Considering the feature of the shape of each predetermined region of the main constituent part of the face of the image P2, the face constituent part image corresponding to the constituent part of the face can be specified, and a more appropriate portrait image P6 is generated Can do.
That is, even if a large number of face component images are prepared in advance, there is a possibility that the most similar face component image cannot be accurately identified depending on the shape of the main component of the face such as the face contour W. However, in the present embodiment, a face component image (for example, face contour image P1 or the like) that uniquely represents the face component is specified in consideration of the shape characteristics of each predetermined region of the face component. By using the face component image, a more appropriate portrait image P6 can be generated.

具体的には、元画像P2内の顔輪郭Wに係る二値画像P5に基づいて、この顔輪郭Wの各画素の座標を取得し、取得された各画素の座標に基づいて、当該各画素毎に所定の角度範囲に対応する方向コードを特徴情報として抽出するので、例えば、顔輪郭Wと対応付けられた当該顔輪郭Wの概略の形状を規定する楕円を用いて顔輪郭画像P1を特定する場合に比べて、顔輪郭Wの所定領域毎の形状を特徴的に表した顔輪郭画像P1の特定をより精度良く行うことができる。
このとき、顔輪郭Wの各画素のうち、左右のこめかみどうしを結ぶ画素以外の画素に対応する方向コードを特徴情報として抽出するので、顔輪郭W、即ち、左右のこめかみどうしを顎を経由して結ぶような略「U」字形状の各画素について方向コードを抽出することができる。また、特徴情報として抽出され正規化された方向コードを用いることで、画像記録部5に記録されている顔輪郭画像P1と対応付けられている方向コードと、元画像P2の顔輪郭Wから抽出された方向コードとの比較を簡便に、且つ、適正に行うことができ、顔輪郭画像P1の特定をより精度良く行うことができる。
Specifically, the coordinates of each pixel of the face contour W are acquired based on the binary image P5 related to the face contour W in the original image P2, and each pixel is determined based on the acquired coordinates of each pixel. Since a direction code corresponding to a predetermined angle range is extracted as feature information every time, for example, the face contour image P1 is specified using an ellipse that defines the approximate shape of the face contour W associated with the face contour W. Compared with the case where it does, specification of the face outline image P1 which characteristically represented the shape for every predetermined area | region of the face outline W can be performed more accurately.
At this time, the direction code corresponding to the pixels other than the pixels connecting the left and right temples among the pixels of the face outline W is extracted as the feature information, so that the face outline W, that is, the left and right temples are passed through the jaws. A direction code can be extracted for each pixel having a substantially “U” shape. Further, by using the direction code extracted and normalized as the feature information, the direction code associated with the face outline image P1 recorded in the image recording unit 5 and the face outline W of the original image P2 are extracted. The comparison with the direction code thus performed can be performed easily and appropriately, and the face contour image P1 can be specified more accurately.

なお、本発明は、上記実施形態に限定されることなく、本発明の趣旨を逸脱しない範囲において、種々の改良並びに設計の変更を行っても良い。
例えば、上記実施形態にあっては、特徴情報として、顔輪郭Wの各画素毎に所定の角度範囲に対応する方向コードを抽出するようにしたが、一例であってこれに限られるものではなく、所定領域毎に抽出可能な特徴情報であれば適宜任意に変更可能である。
The present invention is not limited to the above-described embodiment, and various improvements and design changes may be made without departing from the spirit of the present invention.
For example, in the above-described embodiment, the direction code corresponding to a predetermined angle range is extracted for each pixel of the face contour W as the feature information. However, this is an example, and the present invention is not limited to this. Any feature information that can be extracted for each predetermined region can be arbitrarily changed.

また、上記実施形態にあっては、顔構成部画像P4の生成後に特徴抽出処理を行うようにしたが、これらの処理の順序は一例であってこれに限られるものではなく、順序を逆、即ち、特徴抽出処理後に顔構成部画像P4の生成処理を行うようにしても良い。   In the above embodiment, the feature extraction process is performed after the generation of the face component image P4. However, the order of these processes is only an example, and the order is not limited to this. That is, the generation process of the face component image P4 may be performed after the feature extraction process.

さらに、上記実施形態にあっては、顔輪郭画像P1や顔構成部画像P4の生成元となる画像は、正面顔を表した画像である必要はなく、例えば、所定の軸を中心として斜めを向くように顔が傾いた元画像P2の場合には、当該傾きの角度に応じて顔輪郭画像P1を用意しておいても良いし、或いは、当該元画像P2の顔が正面を向くように変形させた画像を生成して用いても良い。   Furthermore, in the above-described embodiment, the image that is the generation source of the face contour image P1 and the face component image P4 does not have to be an image representing the front face. For example, the image is slanted around a predetermined axis. In the case of the original image P2 in which the face is inclined so as to face, the face outline image P1 may be prepared according to the angle of the inclination, or the face of the original image P2 faces the front. A deformed image may be generated and used.

また、上記実施形態にあっては、顔輪郭画像P1を記録する画像記録部5を備える構成としたが、これに限られず、例えば、当該装置本体と所定の通信ネットワークを介して接続可能な所定のサーバに顔輪郭画像P1を記録しておく構成とし、図示しない通信処理部から通信ネットワークを介して所定のサーバにアクセスして、画像取得部6aは、当該サーバから顔輪郭画像P1を取得する構成としても良い。   In the above embodiment, the image recording unit 5 that records the face contour image P1 is provided. However, the present invention is not limited to this. For example, a predetermined connection that can be connected to the apparatus main body via a predetermined communication network. The face contour image P1 is recorded in the server, and a predetermined server is accessed via a communication network from a communication processing unit (not shown), and the image acquisition unit 6a acquires the face contour image P1 from the server. It is good also as a structure.

さらに、撮像装置100の構成は、上記実施形態に例示したものは一例であり、これに限られるものではない。また、画像生成装置として、撮像装置100を例示したが、これに限られるものではなく、本発明に係る画像生成処理を実行可能なものであれば如何なる構成であっても良い。   Furthermore, the configuration of the imaging apparatus 100 is merely an example illustrated in the above embodiment, and is not limited thereto. Further, although the imaging apparatus 100 is illustrated as an image generation apparatus, the present invention is not limited to this, and any configuration may be used as long as the image generation process according to the present invention can be performed.

加えて、上記実施形態にあっては、第1取得手段、抽出手段、特定手段、第1生成手段としての機能を、中央制御部10の制御下にて、画像取得部6a、特徴情報抽出部6f、輪郭特定部6g、似顔絵画像生成部6hが駆動することにより実現される構成としたが、これに限られるものではなく、中央制御部10によって所定のプログラム等が実行されることにより実現される構成としても良い。
即ち、プログラムを記憶するプログラムメモリ(図示略)に、取得処理ルーチン、抽出処理ルーチン、特定処理ルーチン、生成処理ルーチンを含むプログラムを記憶しておく。そして、取得処理ルーチンにより中央制御部10のCPUを、元画像P2を取得する手段として機能させるようにしても良い。また、抽出処理ルーチンにより中央制御部10のCPUを、取得された元画像P2内の顔の主要な構成部について、所定領域毎に特徴情報を抽出する手段として機能させるようにしても良い。また、抽出処理ルーチンにより中央制御部10のCPUを、記録手段に所定領域毎の特徴情報と関連付けて記録されている顔の構成部を表した顔構成部画像P4から、抽出された所定領域毎の特徴情報に対応する顔構成部画像P4を特定する手段として機能させるようにしても良い。また、抽出処理ルーチンにより中央制御部10のCPUを、特定された顔構成部画像P4を用いて、顔の似顔絵画像P6を生成する手段として機能させるようにしても良い。
In addition, in the above-described embodiment, the functions of the first acquisition unit, the extraction unit, the specifying unit, and the first generation unit are controlled under the control of the central control unit 10, and the image acquisition unit 6a, the feature information extraction unit 6f, the contour specifying unit 6g, and the portrait image generating unit 6h are configured to be driven. However, the configuration is not limited to this, and is realized by executing a predetermined program or the like by the central control unit 10. It is good also as a structure.
That is, a program memory (not shown) that stores a program stores a program including an acquisition processing routine, an extraction processing routine, a specific processing routine, and a generation processing routine. Then, the CPU of the central control unit 10 may function as means for acquiring the original image P2 by the acquisition processing routine. Further, the CPU of the central control unit 10 may function as a means for extracting feature information for each predetermined region with respect to the main constituent parts of the face in the acquired original image P2 by the extraction processing routine. In addition, the CPU of the central control unit 10 by the extraction processing routine makes each predetermined area extracted from the face component image P4 representing the face component recorded in the recording means in association with the feature information for each predetermined area. You may make it function as a means to specify the face structure part image P4 corresponding to the feature information. Further, the CPU of the central control unit 10 may function as a means for generating a facial portrait image P6 using the specified face component image P4 by the extraction processing routine.

同様に、第2生成手段、第2取得手段についても、中央制御部10のCPUによって所定のプログラム等が実行されることにより実現される構成としても良い。   Similarly, the second generation unit and the second acquisition unit may be realized by executing a predetermined program or the like by the CPU of the central control unit 10.

さらに、上記の各処理を実行するためのプログラムを格納したコンピュータ読み取り可能な媒体として、ROMやハードディスク等の他、フラッシュメモリ等の不揮発性メモリ、CD−ROM等の可搬型記録媒体を適用することも可能である。また、プログラムのデータを所定の通信回線を介して提供する媒体としては、キャリアウェーブ(搬送波)も適用される。   Furthermore, as a computer-readable medium storing a program for executing each of the above processes, a non-volatile memory such as a flash memory or a portable recording medium such as a CD-ROM is applied in addition to a ROM or a hard disk. Is also possible. A carrier wave is also used as a medium for providing program data via a predetermined communication line.

本発明のいくつかの実施形態を説明したが、本発明の範囲は、上述の実施の形態に限定するものではなく、特許請求の範囲に記載された発明の範囲とその均等の範囲を含む。
以下に、この出願の願書に最初に添付した特許請求の範囲に記載した発明を付記する。付記に記載した請求項の項番は、この出願の願書に最初に添付した特許請求の範囲の通りである。
〔付記〕
<請求項1>
元画像を取得する第1取得手段と、
前記第1取得手段により取得された元画像内の顔の主要な構成部について、所定領域毎に特徴情報を抽出する抽出手段と、
記録手段に前記所定領域毎の特徴情報と関連付けて記録されている顔の構成部を表した顔構成部画像から、前記抽出手段により抽出された前記所定領域毎の特徴情報に対応する顔構成部画像を特定する特定手段と、
前記特定手段により特定された顔構成部画像を用いて、前記顔の似顔絵画像を生成する第1生成手段と、
を備えたことを特徴とする画像生成装置。
<請求項2>
前記顔の主要な構成部は、顔の輪郭を含み、
前記第1取得手段により取得された元画像内の顔の輪郭に係る二値画像を生成する第2生成手段と、
前記第2生成手段により生成された前記二値画像に基づいて、当該顔の輪郭の各画素の座標を取得する第2取得手段とを更に備え、
前記抽出手段は、前記第2取得手段により取得された前記各画素の座標に基づいて、当該各画素毎に所定の角度範囲に対応する方向コードを前記特徴情報として抽出することを特徴とする請求項1に記載の画像生成装置。
<請求項3>
前記抽出手段は、更に、前記顔の輪郭の各画素のうち、左右のこめかみどうしを結ぶ画素以外の画素に対応する方向コードを前記特徴情報として抽出することを特徴とする請求項2に記載の画像生成装置。
<請求項4>
前記抽出手段は、更に、前記特徴情報として抽出された前記方向コードを正規化し、
前記特定手段は、更に、前記抽出手段により正規化された前記方向コードを用いて、前記顔構成部画像を特定することを特徴とする請求項3に記載の画像生成装置。
<請求項5>
画像生成装置を用いた画像生成方法であって、
元画像を取得する処理と、
取得された元画像内の顔の主要な構成部について、所定領域毎に特徴情報を抽出する処理と、
記録手段に前記所定領域毎の特徴情報と関連付けて記録されている顔の構成部を表した顔構成部画像から、抽出された前記所定領域毎の特徴情報に対応する顔構成部画像を特定する処理と、
特定された顔構成部画像を用いて、前記顔の似顔絵画像を生成する処理と、
を含むことを特徴とする画像生成方法。
<請求項6>
画像生成装置のコンピュータを、
元画像を取得する第1取得手段、
前記第1取得手段により取得された元画像内の顔の主要な構成部について、所定領域毎に特徴情報を抽出する抽出手段、
記録手段に前記所定領域毎の特徴情報と関連付けて記録されている顔の構成部を表した顔構成部画像から、前記抽出手段により抽出された前記所定領域毎の特徴情報に対応する顔構成部画像を特定する特定手段、
前記特定手段により特定された顔構成部画像を用いて、前記顔の似顔絵画像を生成する第1生成手段、
として機能させることを特徴とするプログラム。
Although several embodiments of the present invention have been described, the scope of the present invention is not limited to the above-described embodiments, but includes the scope of the invention described in the claims and equivalents thereof.
The invention described in the scope of claims attached to the application of this application will be added below. The item numbers of the claims described in the appendix are as set forth in the claims attached to the application of this application.
[Appendix]
<Claim 1>
First acquisition means for acquiring an original image;
Extraction means for extracting feature information for each predetermined region with respect to main constituent parts of the face in the original image acquired by the first acquisition means;
A face component corresponding to the feature information for each predetermined region extracted by the extraction unit from the face component image representing the face component recorded in association with the feature information for each predetermined region on the recording unit An identification means for identifying an image;
First generating means for generating a portrait image of the face using the face component image specified by the specifying means;
An image generation apparatus comprising:
<Claim 2>
The main components of the face include the outline of the face,
Second generation means for generating a binary image related to the contour of the face in the original image acquired by the first acquisition means;
Second acquisition means for acquiring the coordinates of each pixel of the contour of the face based on the binary image generated by the second generation means;
The extraction means extracts, as the feature information, a direction code corresponding to a predetermined angle range for each pixel based on the coordinates of each pixel acquired by the second acquisition means. Item 2. The image generation device according to Item 1.
<Claim 3>
The extraction means further extracts a direction code corresponding to a pixel other than a pixel connecting the left and right temples among the pixels of the facial contour as the feature information. Image generation device.
<Claim 4>
The extraction means further normalizes the direction code extracted as the feature information,
The image generation apparatus according to claim 3, wherein the specifying unit further specifies the face component image using the direction code normalized by the extracting unit.
<Claim 5>
An image generation method using an image generation apparatus,
Processing to acquire the original image;
A process of extracting feature information for each predetermined area for the main constituent parts of the face in the acquired original image;
A face component image corresponding to the extracted feature information for each predetermined region is identified from the face component image representing the face component recorded in association with the feature information for each predetermined region on the recording means Processing,
A process of generating a portrait image of the face using the identified face component image;
An image generation method comprising:
<Claim 6>
The computer of the image generation device
First acquisition means for acquiring an original image;
Extraction means for extracting feature information for each predetermined region with respect to main constituent parts of the face in the original image acquired by the first acquisition means;
A face component corresponding to the feature information for each predetermined region extracted by the extraction unit from the face component image representing the face component recorded in association with the feature information for each predetermined region on the recording unit Identification means for identifying an image,
First generating means for generating a portrait image of the face using the face component image specified by the specifying means;
A program characterized by functioning as

100 撮像装置
1 撮像部
5 画像記録部
6 画像処理部
6a 画像取得部
6b 顔検出部
6c 構成部画像生成部
6d 二値画像生成部
6e 座標取得部
6f 特徴情報抽出部
6g 輪郭特定部
6h 似顔絵画像生成部
10 中央制御部
DESCRIPTION OF SYMBOLS 100 Imaging device 1 Imaging part 5 Image recording part 6 Image processing part 6a Image acquisition part 6b Face detection part 6c Structure part Image generation part 6d Binary image generation part 6e Coordinate acquisition part 6f Feature information extraction part 6g Contour specification part 6h Caricature image Generation unit 10 Central control unit

Claims (6)

元画像を取得する第1取得手段と、
前記第1取得手段により取得された元画像内の顔の主要な構成部について、所定領域毎に特徴情報を抽出する抽出手段と、
記録手段に前記所定領域毎の特徴情報と関連付けて記録されている顔の構成部を表した顔構成部画像から、前記抽出手段により抽出された前記所定領域毎の特徴情報に対応する顔構成部画像を特定する特定手段と、
前記特定手段により特定された顔構成部画像を用いて、前記顔の似顔絵画像を生成する第1生成手段と、
を備えたことを特徴とする画像生成装置。
First acquisition means for acquiring an original image;
Extraction means for extracting feature information for each predetermined region with respect to main constituent parts of the face in the original image acquired by the first acquisition means;
A face component corresponding to the feature information for each predetermined region extracted by the extraction unit from the face component image representing the face component recorded in association with the feature information for each predetermined region on the recording unit An identification means for identifying an image;
First generating means for generating a portrait image of the face using the face component image specified by the specifying means;
An image generation apparatus comprising:
前記顔の主要な構成部は、顔の輪郭を含み、
前記第1取得手段により取得された元画像内の顔の輪郭に係る二値画像を生成する第2生成手段と、
前記第2生成手段により生成された前記二値画像に基づいて、当該顔の輪郭の各画素の座標を取得する第2取得手段とを更に備え、
前記抽出手段は、前記第2取得手段により取得された前記各画素の座標に基づいて、当該各画素毎に所定の角度範囲に対応する方向コードを前記特徴情報として抽出することを特徴とする請求項1に記載の画像生成装置。
The main components of the face include the outline of the face,
Second generation means for generating a binary image related to the contour of the face in the original image acquired by the first acquisition means;
Second acquisition means for acquiring the coordinates of each pixel of the contour of the face based on the binary image generated by the second generation means;
The extraction means extracts, as the feature information, a direction code corresponding to a predetermined angle range for each pixel based on the coordinates of each pixel acquired by the second acquisition means. Item 2. The image generation device according to Item 1.
前記抽出手段は、更に、前記顔の輪郭の各画素のうち、左右のこめかみどうしを結ぶ画素以外の画素に対応する方向コードを前記特徴情報として抽出することを特徴とする請求項2に記載の画像生成装置。   The extraction means further extracts a direction code corresponding to a pixel other than a pixel connecting the left and right temples among the pixels of the facial contour as the feature information. Image generation device. 前記抽出手段は、更に、前記特徴情報として抽出された前記方向コードを正規化し、
前記特定手段は、更に、前記抽出手段により正規化された前記方向コードを用いて、前記顔構成部画像を特定することを特徴とする請求項3に記載の画像生成装置。
The extraction means further normalizes the direction code extracted as the feature information,
The image generation apparatus according to claim 3, wherein the specifying unit further specifies the face component image using the direction code normalized by the extracting unit.
画像生成装置を用いた画像生成方法であって、
元画像を取得する処理と、
取得された元画像内の顔の主要な構成部について、所定領域毎に特徴情報を抽出する処理と、
記録手段に前記所定領域毎の特徴情報と関連付けて記録されている顔の構成部を表した顔構成部画像から、抽出された前記所定領域毎の特徴情報に対応する顔構成部画像を特定する処理と、
特定された顔構成部画像を用いて、前記顔の似顔絵画像を生成する処理と、
を含むことを特徴とする画像生成方法。
An image generation method using an image generation apparatus,
Processing to acquire the original image;
A process of extracting feature information for each predetermined area for the main constituent parts of the face in the acquired original image;
A face component image corresponding to the extracted feature information for each predetermined region is identified from the face component image representing the face component recorded in association with the feature information for each predetermined region on the recording means Processing,
A process of generating a portrait image of the face using the identified face component image;
An image generation method comprising:
画像生成装置のコンピュータを、
元画像を取得する第1取得手段、
前記第1取得手段により取得された元画像内の顔の主要な構成部について、所定領域毎に特徴情報を抽出する抽出手段、
記録手段に前記所定領域毎の特徴情報と関連付けて記録されている顔の構成部を表した顔構成部画像から、前記抽出手段により抽出された前記所定領域毎の特徴情報に対応する顔構成部画像を特定する特定手段、
前記特定手段により特定された顔構成部画像を用いて、前記顔の似顔絵画像を生成する第1生成手段、
として機能させることを特徴とするプログラム。
The computer of the image generation device
First acquisition means for acquiring an original image;
Extraction means for extracting feature information for each predetermined region with respect to main constituent parts of the face in the original image acquired by the first acquisition means;
A face component corresponding to the feature information for each predetermined region extracted by the extraction unit from the face component image representing the face component recorded in association with the feature information for each predetermined region on the recording unit Identification means for identifying an image,
First generating means for generating a portrait image of the face using the face component image specified by the specifying means;
A program characterized by functioning as
JP2012189408A 2012-08-30 2012-08-30 Image generating device, image generating method, and program Pending JP2014048767A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012189408A JP2014048767A (en) 2012-08-30 2012-08-30 Image generating device, image generating method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012189408A JP2014048767A (en) 2012-08-30 2012-08-30 Image generating device, image generating method, and program

Publications (1)

Publication Number Publication Date
JP2014048767A true JP2014048767A (en) 2014-03-17

Family

ID=50608420

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012189408A Pending JP2014048767A (en) 2012-08-30 2012-08-30 Image generating device, image generating method, and program

Country Status (1)

Country Link
JP (1) JP2014048767A (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06187351A (en) * 1993-08-01 1994-07-08 Toshiba Corp Schedule management system
JPH06203128A (en) * 1992-12-28 1994-07-22 Casio Comput Co Ltd Display device
JPH0744725A (en) * 1993-08-02 1995-02-14 Casio Comput Co Ltd Face picture generation device and data storage device for face picture
JPH10255017A (en) * 1996-03-25 1998-09-25 Omron Corp Method and device for generating likeness

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06203128A (en) * 1992-12-28 1994-07-22 Casio Comput Co Ltd Display device
JPH06187351A (en) * 1993-08-01 1994-07-08 Toshiba Corp Schedule management system
JPH0744725A (en) * 1993-08-02 1995-02-14 Casio Comput Co Ltd Face picture generation device and data storage device for face picture
JPH10255017A (en) * 1996-03-25 1998-09-25 Omron Corp Method and device for generating likeness

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
JPN6016006280; 山路 憲: '顔画像を用いた人物カラーイラスト作成システム' 電気学会論文誌C Vol.122-C No.5 Vol.122-C, No.5, 2002, 20020501, P.792-798, (社)電気学会 *
JPN6016006281; 金澤 慧: '形状と配置の特徴及び全体的な印象を考慮した類似顔検索' 映像情報メディア学会技術報告 Vol.32 No.8 ME2008-18, 20080216, P.63-66, (社)映像情報メディア学会 *

Similar Documents

Publication Publication Date Title
JP5949331B2 (en) Image generating apparatus, image generating method, and program
JP5880182B2 (en) Image generating apparatus, image generating method, and program
JP5949030B2 (en) Image generating apparatus, image generating method, and program
JP6961797B2 (en) Methods and devices for blurring preview photos and storage media
KR101679290B1 (en) Image processing method and apparatus
JP6111723B2 (en) Image generating apparatus, image generating method, and program
KR101642402B1 (en) Apparatus and method for capturing digital image for guiding photo composition
JP6098133B2 (en) Face component extraction device, face component extraction method and program
JP5966657B2 (en) Image generating apparatus, image generating method, and program
JP2015184701A (en) Image processing apparatus, image processing method, and program
JP2014048767A (en) Image generating device, image generating method, and program
JP2014174855A (en) Image processor, image processing method and program
JP6354118B2 (en) Image processing apparatus, image processing method, and program
JP6070098B2 (en) Threshold setting device, threshold setting method and program
JP6260094B2 (en) Image processing apparatus, image processing method, and program
JP5927972B2 (en) Image generating apparatus, image generating method, and program
JP5962268B2 (en) Image processing apparatus, image processing method, image generation method, and program
JP6668646B2 (en) Image processing apparatus, image processing method, and program
JP6142604B2 (en) Image processing apparatus, image processing method, and program
JP2014182722A (en) Image processing device, image processing method, and program
JP6476811B2 (en) Image generating apparatus, image generating method, and program
JP2014186404A (en) Image processing apparatus, image processing method, and program
JP2017021393A (en) Image generator, image generation method, and program
JP2014099077A (en) Face component extraction device, face component extraction method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150428

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160215

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160223

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20160823