[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2018173885A - Image processing device, image processing method, and computer program - Google Patents

Image processing device, image processing method, and computer program Download PDF

Info

Publication number
JP2018173885A
JP2018173885A JP2017072482A JP2017072482A JP2018173885A JP 2018173885 A JP2018173885 A JP 2018173885A JP 2017072482 A JP2017072482 A JP 2017072482A JP 2017072482 A JP2017072482 A JP 2017072482A JP 2018173885 A JP2018173885 A JP 2018173885A
Authority
JP
Japan
Prior art keywords
image
color
area
hair
specified
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017072482A
Other languages
Japanese (ja)
Inventor
石田 裕之
Hiroyuki Ishida
裕之 石田
英里香 沖
Erika Oki
英里香 沖
佳代子 竹内
Kayoko Takeuchi
佳代子 竹内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Make Software Co Ltd
Original Assignee
Make Software Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Make Software Co Ltd filed Critical Make Software Co Ltd
Priority to JP2017072482A priority Critical patent/JP2018173885A/en
Publication of JP2018173885A publication Critical patent/JP2018173885A/en
Pending legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an image processing device, an image processing method, and a computer program capable of changing a color of a portion for each portion in a region of a person to be photographed with abundant expressions without being affected by parameters such as hue, brightness and saturation of an original color of the photographed image of the person.SOLUTION: An image processing device includes identifying means that identifies for each one of a plurality of images, a region corresponding to a portion of a photographed person in the one image; receiving means that receives a color for a region identified by the identifying means; first creating means that creates a uniformed image where the color in the region has been changed to a predefined color; second creating means that creates a colored image where a range corresponding to the identified area has been colored with the color selected by the receiving means; first synthesizing means that synthesizes the colored image with the uniformed image; and second synthesizing means that synthesizes the image synthesized by the synthesizing means with the one image.SELECTED DRAWING: Figure 11

Description

本発明は、人物であるユーザを被写体として写真撮影し、撮影結果が出力された所定の写真シールシート又は写真データを得ることができる撮影遊戯機における画像処理装置、画像処理方法及びコンピュータプログラムに関する。   The present invention relates to an image processing apparatus, an image processing method, and a computer program in a shooting game machine that can take a photograph of a user who is a person as a subject and obtain a predetermined photo sticker sheet or photo data in which the shooting result is output.

ユーザが自身を撮影して得られる写真シールシートを排出する装置が撮影遊戯機として提供されている。撮影遊戯機のユーザは、普段の自分とは異なる自分となった写真画像をゲーム感覚で得たいという要望を有している。実際の生活ではできないようなヘアメイクを施して変身した自分をデジタル画像の中で気軽に得ることができる機能が期待されている。   An apparatus for discharging a photo sticker sheet obtained by a user photographing himself / herself is provided as a photographing game machine. A user of a photographing amusement machine has a desire to obtain a photographic image that is different from the usual self as if it were a game. It is expected to have a function that allows you to easily get yourself in a digital image by applying hair and makeup that you cannot do in real life.

昨今の撮影遊戯機では、その多くにおいて顔にメイク(化粧)が施される画像処理が実施されている(特許文献1,2等)。いずれにおいても、ユーザ自身がその変身した結果に高揚感を得られるような画像としつつも、ユーザ自身を写した人物領域との馴染みをよくして違和感を生じさせない画像とすることを狙うものである。   In many of today's photographing amusement machines, image processing is performed in which makeup (makeup) is applied to the face (Patent Documents 1, 2, etc.). In any case, it aims to make the image that does not cause a sense of incongruity by improving the familiarity with the person area in which the user himself / herself is photographed while making the image so that the user himself / herself can get an uplifting feeling as a result of the transformation. is there.

特開2016−110416号公報JP 2016-110416 A 特開2014−131160号公報JP, 2014-131160, A

メイクを施したような画像を得るための画像処理では、メイクの対象となる目、眉、唇等、異なる顔のパーツ毎に処理を行なう。処理後に残りの領域との馴染みをよくし違和感を生じさせないようにするために、目、眉、唇などは元の画像の質感をそのまま利用したり、色を変更させた透過画像を重畳させたり、元の色と変更させたい色とを合成させたりする処理が行なわれる。透過画像の重畳処理、元の色との合成処理を行なう場合には、その対象の部分の元の色によっては、元の色の影響が強く出現して色変更の効果が弱まることがある。特に髪の毛のような明度が低い範囲に対する加工では、元の色に透過画像を重畳させたり、元の色に基づいて変更後の色を算出する加工を行なったりする場合には、演出通りの結果が得られない可能性が高い。例えば黒髪のユーザの髪色を薄いピンクなどの淡色に変化させる処理は困難であった。   In image processing for obtaining an image with makeup applied, processing is performed for each part of a different face such as an eye, eyebrows, lips and the like to be applied. In order to improve the familiarity with the rest of the area after processing and avoid creating a sense of incongruity, the eyes, eyebrows, lips, etc. use the texture of the original image as it is or superimpose a transparent image with a changed color. A process of combining the original color with the color to be changed is performed. When a transparent image superimposing process and a composition process with the original color are performed, depending on the original color of the target portion, the influence of the original color may appear strongly and the effect of the color change may be weakened. In particular, when processing for low-lightness areas such as hair, if a transparent image is superimposed on the original color, or if the modified color is calculated based on the original color, the result as directed Is likely not to be obtained. For example, it has been difficult to change the hair color of a black hair user to a light color such as light pink.

本発明は斯かる事情に鑑みてなされたものであり、ユーザを撮影した撮影画像の元の色の色相、明度及び彩度等のパラメータの影響を受けることなく、被写体人物領域の部分毎に、該部分の色を豊かな表現で変更させることが可能な画像処理装置、画像処理方法、及びコンピュータプログラムを提供することを目的とする。   The present invention has been made in view of such circumstances, and without being affected by parameters such as hue, brightness, and saturation of the original color of a captured image obtained by photographing the user, for each portion of the subject person area, An object of the present invention is to provide an image processing device, an image processing method, and a computer program capable of changing the color of the portion with rich expressions.

本発明に係る画像処理装置は、一連の複数の画像を取得する手段と、取得された複数の画像から撮影されている人物被写体の顔及び該顔内の器官の領域を特定する特定手段とを備え、前記人物被写体に対応する領域に対する加工処理を行なう画像処理装置において、
前記複数の画像の内の1つの画像毎に、該1つの画像内の前記人物被写体の一部に対応する領域を特定する特定手段と、該特定手段により特定された領域に対する色を受け付ける受付手段と、前記特定された領域内の色を、予め規定された色へ変更した均一化画像を作成する第1作成手段と、前記受付手段にて選択された色で前記特定された領域に対応する範囲を着色した着色画像を作成する第2作成手段と、前記均一化画像に対し、前記着色画像を合成する第1合成手段と、合成手段により合成した後の画像を、前記1つの画像へ合成する第2合成手段とを備える。
The image processing apparatus according to the present invention includes means for acquiring a series of a plurality of images, and specifying means for specifying a face of a human subject imaged from the acquired images and an organ region within the face. An image processing apparatus for performing processing on an area corresponding to the person subject,
A specifying unit that specifies a region corresponding to a part of the person subject in the one image for each one of the plurality of images, and a receiving unit that receives a color for the region specified by the specifying unit A first creating unit that creates a uniform image in which the color in the identified region is changed to a predetermined color, and the region selected by the color selected by the receiving unit A second creation means for creating a colored image with a colored range, a first synthesis means for synthesizing the colored image with the uniformized image, and an image synthesized by the synthesis means are synthesized into the one image. Second synthesizing means.

本発明に係る画像処理装置では、前記特定手段は、前記人物被写体の一部として髪の毛の領域を特定し、前記第2作成手段は、髪色の選択を受け付けて着色画像としてヘアカラー画像を作成する。   In the image processing apparatus according to the present invention, the specifying unit specifies a hair region as a part of the human subject, and the second generation unit receives a selection of a hair color and generates a hair color image as a colored image. To do.

本発明に係る画像処理装置では、前記規定された色は淡い茶色である。   In the image processing apparatus according to the present invention, the specified color is light brown.

本発明に係る画像処理装置では、前記規定された色は前記第2作成手段にて受け付ける色の選択肢毎に異なり、前記第1作成手段は、前記受付手段にて受け付けた色に対応する規定の色を決定し、決定した色にて前記均一化画像を作成する。   In the image processing apparatus according to the present invention, the specified color is different for each color option received by the second generation unit, and the first generation unit has a predetermined color corresponding to the color received by the reception unit. A color is determined, and the uniform image is created with the determined color.

本発明に係る画像処理装置では、前記第2作成手段は、前記画像上の複数箇所を含む軌跡の入力を受け付け、前記特定された領域内で、受け付けた軌跡に対応する範囲を前記選択された色で描画する。   In the image processing apparatus according to the present invention, the second creating unit receives an input of a trajectory including a plurality of locations on the image, and the range corresponding to the accepted trajectory is selected in the specified area. Draw in color.

本発明に係る画像処理装置では、前記第1合成手段は、前記均一化画像上に前記着色画像を配置した場合に対応する画素同士について、画素値同士で所定の演算を行なうブレンド合成を実行する。   In the image processing apparatus according to the present invention, the first synthesizing unit performs blend synthesis for performing a predetermined calculation between pixel values for pixels corresponding to the case where the colored image is arranged on the uniform image. .

本発明に係る画像処理装置では、前記第1作成手段は、前記特定された領域内の色を示す色情報と、前記領域内におけるテクスチャを表わすテクスチャ情報とに分離し、分離後の色情報が示す色を前記規定された色へ変更し、前記第1合成手段は、前記均一化画像の色変更後の色情報に基づく画像上に、前記着色画像、テクスチャ情報に基づく画像を順に重ねて合成する。   In the image processing apparatus according to the present invention, the first creating unit separates color information indicating a color in the specified area and texture information indicating a texture in the area, and the color information after the separation is The color to be displayed is changed to the specified color, and the first combining unit sequentially combines the colored image and the image based on the texture information on the image based on the color information after the color change of the uniformized image. To do.

本発明に係る画像処理装置では、複数の人物から各々操作を受け付けるべく分別された画面上にて夫々、前記複数の画像の内の1つの画像毎に、該画像内で特定された複数の顔領域の内の1つ、及び前記複数の顔領域全ての内のいずれかにおける髪の毛の領域に対し、前記第1及び第2作成手段、並びに、第1及び第2合成手段による処理を実行する。   In the image processing apparatus according to the present invention, a plurality of faces specified in each of the plurality of images on a screen separated to receive operations from a plurality of persons, respectively. The processing by the first and second creating means and the first and second synthesizing means is executed for one of the areas and the hair area in any of the plurality of face areas.

本発明に係る画像処理方法は、一連の複数の画像を取得するプロセッサが、取得した複数の画像に撮影されている人物被写体の顔及び該顔内の器官の領域を特定し、前記人物被写体に対応する領域に対する加工処理を行なう画像処理方法において、前記複数の画像の内の1つの画像毎に、該1つの画像内の前記人物被写体の一部に対応する領域を特定し、特定された領域に対する色を受け付け、特定された領域内の色を、予め規定された色へ変更した均一化画像を作成し、受け付けられた色で前記領域に対応する領域を着色した着色画像を作成し、前記均一化画像に対し、前記着色画像を合成し、合成後の画像を更に、前記1つの画像へ合成する。   In the image processing method according to the present invention, a processor for acquiring a series of a plurality of images specifies a face of a human subject photographed in the acquired plurality of images and an area of an organ in the face, and In the image processing method for performing processing on a corresponding region, for each image of the plurality of images, a region corresponding to a part of the person subject in the one image is specified, and the specified region Create a uniform image in which the color in the specified area is changed to a predetermined color, create a colored image in which the area corresponding to the area is colored with the received color, The colored image is combined with the uniform image, and the combined image is further combined into the one image.

本発明に係るコンピュータプログラムは、コンピュータに、一連の複数の画像を取得させ、取得された複数の画像に対する加工処理を実行させるコンピュータプログラムにおいて、前記コンピュータに、前記複数の画像の内の1つの画像毎に、該1つの画像内の前記人物被写体の一部に対応する領域を特定し、特定された領域に対する色を受け付け、特定された領域内の色を、予め規定された色へ変更した均一化画像を作成し、受け付けられた色で前記領域に対応する領域を着色した着色画像を作成し、前記均一化画像に対し、前記着色画像を合成し、合成後の画像を更に、前記1つの画像へ合成する処理を実行させる。   A computer program according to the present invention is a computer program that causes a computer to acquire a series of a plurality of images and to perform processing on the acquired plurality of images. Each time an area corresponding to a part of the person subject in the one image is specified, a color for the specified area is accepted, and the color in the specified area is changed to a predetermined color. Creating a colored image, coloring a region corresponding to the region with the received color, combining the colored image with the uniformized image, and further combining the combined image with the one image A process of combining the image is executed.

本発明では、人物被写体の一部に対応する範囲を規定された色へ変更した均一化画像に対して、選択された色で対応範囲が着色された着色画像を重ねて第1の合成を行ない、第1の合成後の画像を加工対象の画像上に重ねて合成する。これにより、元の色の影響を弱めて選択された色へ変更することが可能となり、加工対象の領域が比較的高彩度又は低明度の色を有した部分であっても色の変更が効果的になる。   In the present invention, the first synthesis is performed by superimposing a colored image in which the corresponding range is colored with the selected color on the uniform image obtained by changing the range corresponding to a part of the human subject to the specified color. The first combined image is superimposed on the image to be processed and combined. As a result, it becomes possible to change to the selected color by weakening the influence of the original color, and the color change is effective even if the region to be processed has a relatively high saturation or low brightness color. become.

本発明では、人物被写体の一部として特に髪の毛の領域について、規定された色へ変更した均一化画像を用いた合成を行なうことにより、従前では困難であった淡く明るい色への変更が可能になる。なお均一化画像の作成と、着色画像の作成とでは順序は限定されない。   In the present invention, by combining with a uniform image that has been changed to a specified color, particularly for a hair region as a part of a human subject, it is possible to change to a lighter and brighter color that was difficult in the past. Become. Note that the order of creation of the uniform image and creation of the colored image is not limited.

本発明では、規定された色とは白のような無彩色ではなく淡い茶色とすることで、選択される色が、薄いピンク、薄いブルー、又は薄い紫のような淡色であっても馴染の良い色表現が可能となる。なお淡い茶色とは例えば画素値で表せば(R=155、G=110、B=80)である。なおHSL値で表した場合には例えば、H(色相)=16〜30/360、S(彩度)=30〜50/100、L(輝度)=36〜50/100程度の範囲であれば淡い茶色となり得る。   In the present invention, the specified color is not an achromatic color such as white but a light brown color, so that even if the selected color is a light color such as light pink, light blue, or light purple, it is familiar. Good color expression is possible. Note that light brown is, for example, a pixel value (R = 155, G = 110, B = 80). In the case of the HSL value, for example, H (hue) = 16 to 30/360, S (saturation) = 30 to 50/100, and L (luminance) = 36 to 50/100. Can be light brown.

本発明では、規定された色とは、選択される色に応じて異なり、均一化画像は選択された色に応じた規定色に変更されて作成される。これにより、従前では困難であった淡色への変更に限らず、元の画像の色に影響されない豊かな色表現が可能になる。   In the present invention, the specified color differs depending on the selected color, and the uniformized image is created by changing to the specified color corresponding to the selected color. This enables rich color expression that is not affected by the color of the original image, but is not limited to the light color change that has been difficult in the past.

本発明では、手書き操作に基づく画像上の軌跡を選択された色で描画した着色画像を用いることで、特定された人物被写体の一部内の任意の箇所の色を、淡い色へ変更することが可能になる。   In the present invention, by using a colored image in which a locus on an image based on a handwriting operation is drawn with a selected color, it is possible to change the color of an arbitrary place in a part of the specified human subject to a light color. It becomes possible.

本発明では、均一化画像に着色画像を合成する処理は、ソフトライト合成、オーバーレイ合成等の所謂ブレンド合成と呼ばれる合成処理によって実現する。上に重ねる画像の色を反映させつつ明度を適切に上げる合成によって着色が効果的になる。   In the present invention, the process for synthesizing the colored image with the uniform image is realized by a so-called blend synthesis such as soft light synthesis or overlay synthesis. Coloring becomes effective by combining the lightness appropriately while reflecting the color of the image to be overlaid.

本発明では、均一化画像はフーリエ変換の周波数により、又はウェーブレット変換に基づき、色情報(低周波数成分)とテクスチャ情報(高周波数成分)とに分離し、色情報の色を規定された色へ変更して作成される。これにより、高周波数成分として抽出されるエッジ部分など元の質感が消失することなく色のみを変更させることが可能である。合成する際にテクスチャ情報を最も上にして画像を重ねるようにして合成することにより、質感を生かしつつ色が効果的に変更された合成画像が得られる。   In the present invention, the uniformized image is separated into color information (low frequency component) and texture information (high frequency component) based on the frequency of Fourier transform or based on wavelet transform, and the color of the color information is changed to a prescribed color. Created by changing. Thereby, it is possible to change only the color without losing the original texture such as the edge portion extracted as the high frequency component. When the images are combined, the images are overlapped with the texture information at the top, so that a combined image in which the color is effectively changed while utilizing the texture can be obtained.

本発明では、1つの画像に複数の人物被写体が写っている場合には、画像毎に、色の変更対象として複数の顔領域の内の1つずつと、全顔領域を選択する場合とが選択可能であり、選択された変更対象に対して処理が実行される。ユーザの好みに応じて色の変更をお揃いにしたり、個別に変更したり操作の自由度が向上する。   In the present invention, when a plurality of human subjects are captured in one image, one of a plurality of face areas and a whole face area may be selected as a color change target for each image. Selection is possible, and the process is executed for the selected change target. The degree of freedom of operation is improved by making color changes uniform or changing individually according to user preferences.

本発明による場合、撮影画像中のユーザの人物被写体領域の内、例えば眉毛、又は髪の毛の領域等、他よりも比較的高彩度又は低明度の色の部分に、処理を行なった場合でも従来は困難であった色の表現が元の質感を生かしつつ可能になった。これにより、ユーザが実際にヘアメイクを施されて変身したような画像を得ることができ、撮影遊戯機に設定されている演出通りの結果が得られ、その撮影遊戯機を選んだユーザの満足度を向上させることができる。   According to the present invention, it is difficult in the past even when processing is performed on a portion of a person subject area of a user in a photographed image, such as an eyebrow or a hair region, which has a color with relatively higher saturation or lightness than others. The expression of the color that has been made possible while taking advantage of the original texture. As a result, it is possible to obtain an image as if the user was actually subjected to hair and make-up, and the result as produced in the shooting game machine was obtained, and the satisfaction of the user who selected the shooting game machine Can be improved.

本実施の形態における撮影遊戯機の外観を示す斜視図である。It is a perspective view which shows the external appearance of the imaging | photography game machine in this Embodiment. 本実施の形態における撮影遊戯機の構成を模式的に示すブロック図である。It is a block diagram which shows typically the structure of the imaging | photography game machine in this Embodiment. 本実施の形態の撮影遊戯機にて実行される全体処理の一例を示すフローチャートである。It is a flowchart which shows an example of the whole process performed with the imaging | photography game machine of this Embodiment. 本実施の形態の撮影遊戯機にて実行される全体処理の一例を示すフローチャートである。It is a flowchart which shows an example of the whole process performed with the imaging | photography game machine of this Embodiment. 髪の毛の領域のマスク画像の内容例を模式的に示す説明図である。It is explanatory drawing which shows typically the example of the content of the mask image of the area | region of the hair. 髪色均一化画像の作成処理手順の一例を示すフローチャートである。It is a flowchart which shows an example of the creation processing procedure of a hair color uniform image. 撮像画像の一例を模式的に示す説明図である。It is explanatory drawing which shows an example of a captured image typically. 図7の画像から作成される髪色均一化画像の一例を模式的に示す説明図である。It is explanatory drawing which shows typically an example of the hair color equalization image produced from the image of FIG. 落書き操作画面の一例を模式的に示す説明図である。It is explanatory drawing which shows an example of a graffiti operation screen typically. ワンタッチメイク時の髪色を変更する処理手順の一例を示すフローチャートである。It is a flowchart which shows an example of the process sequence which changes the hair color at the time of one-touch makeup. ワンタッチメイク時の髪色を変更する処理の概要を示す説明図である。It is explanatory drawing which shows the outline | summary of the process which changes the hair color at the time of one-touch makeup. ヘアカラーメイク時の髪色を変更する処理手順の一例を示すフローチャートである。It is a flowchart which shows an example of the process sequence which changes the hair color at the time of hair color makeup. ヘアカラーメイク時の髪色を変更する処理の概要を示す説明図である。It is explanatory drawing which shows the outline | summary of the process which changes the hair color at the time of hair color makeup. 髪色変更後の画像の一例を模式的に示す説明図である。It is explanatory drawing which shows an example of the image after a hair color change typically.

以下、本発明をその実施の形態を示す図面に基づいて具体的に説明する。   Hereinafter, the present invention will be specifically described with reference to the drawings showing embodiments thereof.

図1は、本実施の形態における撮影遊戯機の外観を示す斜視図である。撮影遊戯機は全体として、複数のユーザが入り込むことが可能な略直方体形状の箱型の装置である。撮影遊戯機は、おおまかに撮影エリアA及び編集エリアBに分けることができ、夫々のエリアA,Bに複数の機器が設けられて構成される。   FIG. 1 is a perspective view showing an external appearance of a photographing amusement machine according to the present embodiment. A photographing amusement machine as a whole is a box-shaped device having a substantially rectangular parallelepiped shape that a plurality of users can enter. A shooting game machine can be roughly divided into a shooting area A and an editing area B, and a plurality of devices are provided in each of the areas A and B.

撮影エリアAには、事前接客部1及び撮影部2に係る機器が設けられている。事前接客部1は撮影エリアAの外側に向けて設けられているコイン投入口、タッチパネル式のディスプレイ及びスピーカ等を含んで構成されており、ユーザの撮影前のコインの投入、名前の登録等の操作を受け付ける。撮影部2は、撮影エリアA内部の壁面に内側に向けて設置されているカメラ21、ディスプレイ22、照明装置群23、及びスピーカ24(図2参照)を含んで構成されており、ユーザに撮影ガイドを表示し、音声で案内しながら複数回に分けて画像を撮影し、撮影された画像を編集部へ出力する処理を行なう。   In the shooting area A, devices related to the pre-service section 1 and the shooting section 2 are provided. The pre-service section 1 includes a coin slot, a touch panel display, a speaker, and the like that are provided toward the outside of the shooting area A. Accept the operation. The photographing unit 2 is configured to include a camera 21, a display 22, a lighting device group 23, and a speaker 24 (see FIG. 2) installed on the wall surface inside the photographing area A so as to photograph the user. A guide is displayed, and an image is taken in a plurality of times while being guided by voice, and processing for outputting the taken image to the editing unit is performed.

編集エリアBには、第1編集部3a、第2編集部3b(図2参照)及び印刷部4に係る機器が設けられている。第1編集部3aは編集エリアBの中央部に操作画面表示用のマルチタッチパネル式のディスプレイ30aをユーザが操作しやすい高さに露出させた装置を含んで構成されている。第1編集部3aは更にスピーカ33a及び照明装置、並びにディスプレイ30a用のタッチペン31a,32a(図2参照)を備えている。第1編集部3aは、ユーザを撮影した撮影画像に基づく画像への落書き操作をディスプレイ30a及びタッチペン31a,32aにて受け付け、受け付けられた操作に対応する画像処理を実行する。第2編集部3bは第1編集部3a同様に構成され(図示省略)、第1編集部3aと背中合わせの位置に設けられている。印刷部4は、編集エリアBの第1編集部3a、第2編集部3bを含む装置の筐体内に設けられるプリンタを含んで構成され、画像処理後の画像が印刷された写真シールシートを筐体の表面に設けられている吐出口から吐き出す。   In the editing area B, devices related to the first editing unit 3a, the second editing unit 3b (see FIG. 2), and the printing unit 4 are provided. The first editing unit 3a is configured to include a device in which a multi-touch panel display 30a for displaying an operation screen is exposed at a central portion of the editing area B at a height that is easy for a user to operate. The first editing unit 3a further includes a speaker 33a, a lighting device, and touch pens 31a and 32a (see FIG. 2) for the display 30a. The first editing unit 3a accepts a graffiti operation on an image based on a photographed image taken by the user using the display 30a and the touch pens 31a and 32a, and executes image processing corresponding to the accepted operation. The second editing unit 3b is configured in the same manner as the first editing unit 3a (not shown), and is provided back to back with the first editing unit 3a. The printing unit 4 includes a printer provided in a housing of an apparatus including the first editing unit 3a and the second editing unit 3b in the editing area B, and includes a photo sticker sheet on which an image after image processing is printed. It exhales from the outlet provided on the surface of the body.

図2は、本実施の形態における撮影遊戯機の構成を示すブロック図である。撮影遊戯機は、撮影エリアA及び編集エリアBにおけるユーザから視認可能な範囲に上述の事前接客部1、撮影部2、第1編集部3a、第2編集部3b及び印刷部4を備えている。また撮影遊戯機は、撮影エリアA内の壁面に隠された箇所、又は編集エリアBの装置の筐体内部等のユーザから視認不可能な位置に、通信部5と制御機構とを備えている。   FIG. 2 is a block diagram illustrating a configuration of the shooting game machine according to the present embodiment. The shooting game machine includes the above-described pre-serving section 1, the shooting section 2, the first editing section 3a, the second editing section 3b, and the printing section 4 in a range that is visible to the user in the shooting area A and the editing area B. . In addition, the shooting game machine includes the communication unit 5 and a control mechanism at a location hidden on the wall surface in the shooting area A, or a position that cannot be seen by the user, such as inside the housing of the device in the editing area B. .

通信部5は、インターネット等の外部ネットワークに接続して撮影された画像を含むデータの送受信を実現する。通信部5は制御機構に接続されており、制御機構は通信部5を介して外部ネットワーク上のサーバ装置と通信し、データの送受信を行なうことが可能である。本実施の形態における撮影遊戯機では、通信部5が撮影によって得られた画像データを撮影遊戯機のメーカが管理するサーバ装置へ送信する。これによりユーザはサーバ装置から自身の撮影画像を、所謂スマートフォン、タブレット端末、PC(Personal Computer )等の情報端末装置にダウンロードし、情報端末装置内の記憶装置に記憶させることが可能である。   The communication unit 5 is connected to an external network such as the Internet and realizes transmission / reception of data including images taken. The communication unit 5 is connected to a control mechanism, and the control mechanism can communicate with a server device on an external network via the communication unit 5 to transmit and receive data. In the shooting game machine in the present embodiment, the communication unit 5 transmits the image data obtained by shooting to a server device managed by the manufacturer of the shooting game machine. As a result, the user can download the captured image from the server device to an information terminal device such as a so-called smartphone, tablet terminal, PC (Personal Computer), etc., and store it in a storage device in the information terminal device.

制御機構は、上述した各ハードウェアを制御するPCと、各ハードウェアが接続されているバス100を含む制御基板と、各ハードウェアに電力を供給する図示しない電源部とにより構成される。PCは1つのPCで構成されてもよいが、処理を円滑化するために、事前接客部1を制御するPC、撮影部2を制御するPC、第1編集部3aを制御するPC、第2編集部3bを制御するPC、並びに印刷部4及び通信部5を制御するPC、のように制御対象毎に異なるPCを用いてもよい。なお以下の説明では第1編集部3a及び第2編集部3bにおける落書き操作に基づく画像処理について主に説明する。このため、仮想的に第1PCと第2PCとに分別して説明する。第1PCは、事前接客部1及び撮影部2における処理を制御する制御部6に対応する。第2PCは、撮影部2により得られた画像に対する所定の加工処理、第1編集部3a及び第2編集部3bによる編集の受け付け、及び、これらに基づく合成を含む画像処理を制御し、印刷部4における印刷出力、及び通信部5からのデータ送信を指示する画像処理部7に対応する。   The control mechanism includes a PC that controls each hardware described above, a control board including the bus 100 to which each hardware is connected, and a power supply unit (not shown) that supplies power to each hardware. The PC may be composed of a single PC, but in order to facilitate processing, the PC that controls the pre-serving section 1, the PC that controls the photographing section 2, the PC that controls the first editing section 3a, the second Different PCs may be used for each control target, such as a PC that controls the editing unit 3b and a PC that controls the printing unit 4 and the communication unit 5. In the following description, image processing based on graffiti operations in the first editing unit 3a and the second editing unit 3b will be mainly described. For this reason, the description will be made by virtually separating the first PC and the second PC. The first PC corresponds to the control unit 6 that controls the processes in the prior customer service unit 1 and the photographing unit 2. The second PC controls image processing including predetermined processing for the image obtained by the photographing unit 2, acceptance of editing by the first editing unit 3a and the second editing unit 3b, and synthesis based on these, and printing unit 4 corresponds to the image processing unit 7 instructing the print output in 4 and the data transmission from the communication unit 5.

制御部6は、第1PCに備えられたCPU(Central Processing Unit )60と、メモリ61と、HDD(Hard Disk Drive)62と、キャプチャ・クロマキーボード63とを含む。メモリ61はDRAM(Dynamic Random Access Memory)又はSDRAM(Synchronous DRAM)等のRAMを用い、HDD62に替えてフラッシュメモリ、又はSSD(Solid State Drive )等の他の不揮発性記憶装置を用いてもよい。   The control unit 6 includes a CPU (Central Processing Unit) 60, a memory 61, an HDD (Hard Disk Drive) 62, and a capture / chroma keyboard 63 provided in the first PC. The memory 61 may be a RAM such as a DRAM (Dynamic Random Access Memory) or an SDRAM (Synchronous DRAM), and may be a flash memory or another nonvolatile storage device such as an SSD (Solid State Drive) instead of the HDD 62.

CPU60は、HDD62に記憶されている制御プログラム6Pを読み出し、メモリ61に各種情報を読み書きしながら前記制御プログラム6Pを実行することにより、以下の各機能を実現する。   The CPU 60 reads the control program 6P stored in the HDD 62, and executes the control program 6P while reading / writing various information in the memory 61, thereby realizing the following functions.

CPU60は、事前接客部1のコイン投入口にて所定料金の投入を受け付けた場合に事前接客部1から出力される制御信号を入力し、タッチパネル式のディスプレイに操作画面を出力させ、スピーカから案内音声を出力させる。また、CPU60は、事前接客部1のディスプレイに表示されている操作画面上の操作に対応する情報を事前接客部1から入力する。具体的にはCPU60は、タッチパネル式のディスプレイ上の操作により、ユーザの名前、通信部5からの送信先アドレスに係る情報等を入力する。   The CPU 60 inputs a control signal output from the pre-service unit 1 when receiving a predetermined charge at the coin insertion slot of the pre-service unit 1, causes the touch panel display to output an operation screen, and guides from the speaker. Output audio. Further, the CPU 60 inputs information corresponding to the operation on the operation screen displayed on the display of the pre-service unit 1 from the pre-service unit 1. Specifically, the CPU 60 inputs a user name, information related to a transmission destination address from the communication unit 5, and the like by an operation on a touch panel display.

CPU60は、撮影部2にてカメラ21から得られるモニタ用の映像信号をキャプチャ・クロマキーボード63が入力するように制御し、キャプチャ・クロマキーボード63から映像信号に含まれる各フレームの画像データを取得し、取得したフレームの画像データに基づいてライブ画面用の画像の映像信号を作成し、作成した画像信号をディスプレイ22へ出力する。またCPU60は、撮影開始及び案内をユーザに通知するための撮影ガイドの画像信号をディスプレイ22へ出力し、音声信号をスピーカ24へ出力する。   The CPU 60 controls the capture unit 2 to input the monitor video signal obtained from the camera 21 to the capture / chroma keyboard 63 and acquires the image data of each frame included in the video signal from the capture / chroma keyboard 63. Then, a video signal of an image for a live screen is created based on the acquired frame image data, and the created image signal is output to the display 22. Further, the CPU 60 outputs an image signal of a shooting guide for notifying the user of shooting start and guidance to the display 22 and outputs an audio signal to the speaker 24.

CPU60は、撮影部2のカメラ21による撮影と照明装置群23によるフラッシュ点灯とを同期させて撮影を行なう。なおCPU60は、カメラ21による撮影を複数回実行する。CPU60は、撮影により得られる画像の複数の画像データをカメラ21から取得し、夫々を区別できるように識別情報を付与してHDD62に記憶すると共に、複製して画像処理部7へ出力する。   The CPU 60 performs photographing by synchronizing photographing by the camera 21 of the photographing unit 2 and flash lighting by the lighting device group 23. The CPU 60 executes photographing with the camera 21 a plurality of times. The CPU 60 acquires a plurality of image data of an image obtained by photographing from the camera 21, assigns identification information so that each can be distinguished, stores it in the HDD 62, duplicates it, and outputs it to the image processing unit 7.

HDD62は、CPU60が参照する各種情報を記憶する。HDD62は、CPU60が実行する制御プログラム6Pを予め記憶している。HDD62は、制御プログラム6Pのほかに、事前接客部1のディスプレイ及び撮影部2のディスプレイ22に表示する画像及びフォントデータ、事前接客部1のスピーカ及び撮影部2のスピーカ24から出力させる音声及び音楽等のデータを予め記憶している。また、HDD62には、撮影部2における写真撮影で得られる画像データが記憶される。   The HDD 62 stores various information referred to by the CPU 60. The HDD 62 stores a control program 6P executed by the CPU 60 in advance. In addition to the control program 6P, the HDD 62 displays images and font data to be displayed on the display of the pre-service section 1 and the display 22 of the photographing section 2, and sounds and music output from the speaker of the pre-service section 1 and the speaker 24 of the photographing section 2. Such data is stored in advance. The HDD 62 stores image data obtained by taking a picture in the photographing unit 2.

キャプチャ・クロマキーボード63は、キャプチャ機能及びクロマキー機能を有する回路基板である。キャプチャ・クロマキーボード63は、映像信号から毎秒30(29.97)枚のフレームの画像データを取得して静止画像として出力するキャプチャ機能を有する。またキャプチャ・クロマキーボード63は、静止画像から一定の範囲で所定の色調及び明度を有すると判断される画素を抽出し、抽出した画素に対してα値(透明度)を設定することにより一部の色を透明化して出力するクロマキー機能を有する。キャプチャ・クロマキーボード63は、カメラ21からのモニタ用の映像信号から順次フレームをキャプチャし、キャプチャして得られた静止画像に必要に応じてクロマキー処理を実行し、内蔵するメモリに書き込む。CPU60は、キャプチャ・クロマキーボード63内蔵のメモリから静止画像を順次読み出して、撮影部2のディスプレイ22に表示するライブ画面用の画像の画像信号を作成する。   The capture / chroma keyboard 63 is a circuit board having a capture function and a chroma key function. The capture / chroma keyboard 63 has a capture function of acquiring image data of 30 (29.97) frames per second from a video signal and outputting the image data as a still image. The capture / chroma keyboard 63 extracts pixels determined to have a predetermined color tone and brightness within a certain range from a still image, and sets an α value (transparency) for the extracted pixels. It has a chroma key function to make the color transparent and output. The capture / chroma keyboard 63 sequentially captures frames from the video signal for monitoring from the camera 21, executes chroma key processing on the still image obtained by the capture as necessary, and writes it in the built-in memory. The CPU 60 sequentially reads still images from a memory built in the capture / chroma keyboard 63 and creates an image signal of an image for a live screen to be displayed on the display 22 of the photographing unit 2.

画像処理部7は、第2PCに備えられたCPU70と、メモリ71と、HDD72と、グラフィックボード73とを備える。メモリ71は、DRAM又はSDRAM等のRAMを用いる。   The image processing unit 7 includes a CPU 70, a memory 71, an HDD 72, and a graphic board 73 provided in the second PC. The memory 71 uses a RAM such as DRAM or SDRAM.

CPU70は、HDD72に記憶されている画像処理プログラム7Pを読み出し、メモリ71に各種情報を読み書きしながら前記画像処理プログラム7Pに基づく画像処理を実行する。またCPU70は、制御部6から出力された画像データを、付与されている識別情報と共にメモリ71又はHDD72に記憶し、該画像データを基に加工処理を行なう。加工処理には、画像中の人物の顔を小顔にする加工、顔の頬部分の色味を明るくする(チーク)加工、髪に艶を出す加工、髪色を明るくする加工、目を大きくする加工、体のラインを細く見せるための加工、脚を長く見えるようにする加工等、種々の加工が含まれる。CPU70は、加工の種類毎に複製した画像データをメモリ71又はHDD72に記憶し、各画像データに加工処理を実行し、加工後の複数の画像データをメモリ71又はHDD72に記憶する。   The CPU 70 reads the image processing program 7P stored in the HDD 72, and executes image processing based on the image processing program 7P while reading / writing various information from / to the memory 71. Further, the CPU 70 stores the image data output from the control unit 6 in the memory 71 or the HDD 72 together with the assigned identification information, and performs processing based on the image data. The processing includes processing to make the face of the person in the image a small face, brightening the color of the cheeks of the face (blushing), processing to gloss the hair, processing to brighten the hair color, large eyes Various processes are included, such as a process for making the body line appear thin, and a process for making the leg look longer. The CPU 70 stores the image data copied for each type of processing in the memory 71 or the HDD 72, executes the processing on each image data, and stores the plurality of processed image data in the memory 71 or the HDD 72.

更にCPU70は、メモリ71又はHDD72に記憶してある撮影により得られた上述の加工処理前及び加工処理後の複数の画像データに基づき、第1編集部3a又は第2編集部3bにて落書き操作を受け付ける。CPU70は、落書き操作として受け付けた操作の内容に応じて、後述する落書き操作画面のプレビュー表示部に表示する手書き文字又はメイクを含むスタンプ等の画像データを作成する。CPU70は、作成した画像データを第1編集部3a又は第2編集部3bのディスプレイへ出力する。更にCPU70は、落書き操作画面のプレビュー表示部に表示されている確定した編集内容に応じて合成画像データを作成する。落書き操作の受け付け及び合成画像データの作成については詳細を後述する。更にCPU70は、作成された合成画像データに基づき画像を写真シールシートに印刷出力する処理、合成画像データ又は合成処理前の画像データを通信部5から外部サーバ装置へ送信する処理を実行する。   Further, the CPU 70 performs a graffiti operation in the first editing unit 3a or the second editing unit 3b based on a plurality of image data before and after the above-described processing processing obtained by photographing stored in the memory 71 or the HDD 72. Accept. The CPU 70 creates image data such as a handwritten character or a stamp including makeup to be displayed on a preview display portion of a graffiti operation screen, which will be described later, according to the content of the operation accepted as the graffiti operation. The CPU 70 outputs the created image data to the display of the first editing unit 3a or the second editing unit 3b. Further, the CPU 70 creates composite image data according to the confirmed editing content displayed in the preview display section of the graffiti operation screen. Details of the acceptance of the graffiti operation and the creation of the composite image data will be described later. Further, the CPU 70 executes processing for printing out an image on a photographic sticker sheet based on the generated composite image data, and processing for transmitting the composite image data or image data before the composite processing from the communication unit 5 to the external server device.

HDD72は、CPU70が参照する各種情報を記憶する。HDD72は、CPU70が実行する画像処理プログラム7Pを予め記憶している。HDD72は、第1編集部3a及び第2編集部3bのディスプレイに表示する案内用の文字画像、合成用の素材である文字、フォントデータ又は画像、スピーカから出力させる音楽及び音声等のデータを予め記憶している。合成用の素材である画像の中には、メイクを施す機能を実現するべくメイク用情報720が予め記憶されている。メイク用情報720には、リップパターン情報、チーク用画像、カラコン画像、アイライン画像、つけまつげ画像、及びヘアカラー用パターン情報、ヘアアクセサリ画像等の素材画像が含まれる。メイク用情報720は書き換え可能である。またHDD72には、受け付けた編集に基づく画像処理により得られた画像データ、合成後の画像の画像データが記憶される。   The HDD 72 stores various information referred to by the CPU 70. The HDD 72 stores an image processing program 7P executed by the CPU 70 in advance. The HDD 72 stores in advance data such as guidance character images to be displayed on the displays of the first editing unit 3a and the second editing unit 3b, characters, font data or images that are composition materials, music and voices to be output from a speaker, and the like. I remember it. In an image that is a composition material, makeup information 720 is stored in advance so as to realize a function of applying makeup. The makeup information 720 includes material images such as lip pattern information, cheek images, colored contact images, eyeline images, false eyelash images, hair color pattern information, and hair accessory images. The makeup information 720 can be rewritten. Also, the HDD 72 stores image data obtained by image processing based on the accepted editing and image data of the combined image.

グラフィックボード73は、入力した画像データ及び描画命令に基づいて画像を描画し、描画した画像の画像データを出力するハードウェアである。CPU70は、制御部6から取得して記憶した画像データに対する画像処理を、グラフィックボード73を用いて行なう。具体的には、CPU70は画像データと、目的の画像を得るための描画命令とをグラフィックボード73に与えて処理を行なわせ、描画処理によって得られた画像データをグラフィックボード73内蔵のメモリから入力する。描画処理には、拡縮、回転、移動、クロマキー機能、トリミング機能、α化機能、明度又は色調等の調整機能、フィルタ機能、合成機能等が含まれる。   The graphic board 73 is hardware that draws an image based on input image data and a drawing command and outputs image data of the drawn image. The CPU 70 uses the graphic board 73 to perform image processing on the image data acquired and stored from the control unit 6. Specifically, the CPU 70 gives image data and a drawing command for obtaining a target image to the graphic board 73 to perform processing, and inputs the image data obtained by the drawing processing from a memory built in the graphic board 73. To do. The drawing process includes enlargement / reduction, rotation, movement, chroma key function, trimming function, alpha function, brightness or color tone adjustment function, filter function, composition function, and the like.

図3及び図4は、本実施の形態の撮影遊戯機にて実行される全体処理の一例を示すフローチャートである。なお、制御部6にて行なわれる処理手順と、画像処理部7にて行なわれる処理手順とに分けて説明する。図3は、制御部6により実行される撮影の処理手順の一例を示すフローチャートである。   FIG. 3 and FIG. 4 are flowcharts showing an example of the overall processing executed in the shooting game machine of the present embodiment. The processing procedure performed by the control unit 6 and the processing procedure performed by the image processing unit 7 will be described separately. FIG. 3 is a flowchart illustrating an example of a shooting processing procedure executed by the control unit 6.

図3のフローチャートに示す処理手順は、事前接客部1のタッチパネル式のディスプレイにおける操作及びコイン投入を制御部6のCPU60によって検知した場合に開始される。   The processing procedure shown in the flowchart of FIG. 3 is started when the CPU 60 of the control unit 6 detects an operation and a coin insertion on the touch panel type display of the pre-service unit 1.

CPU60は、事前接客部1のタッチパネル式のディスプレイにて、ユーザの名前の入力、撮影コースの選択、又は出力されるシートデザインの選択等を受け付ける(ステップS101)。CPU60は、撮影エリアAの空き状況を確認した上で、撮影エリアAが空いている場合には移動を促す移動案内画面をディスプレイに表示させると共に案内音声を出力する(ステップS102)。   The CPU 60 accepts input of a user name, selection of a shooting course, selection of an output sheet design, and the like on the touch panel type display of the customer service section 1 (step S101). The CPU 60 confirms the availability of the shooting area A. If the shooting area A is empty, the CPU 60 displays a movement guidance screen for prompting movement on the display and outputs a guidance voice (step S102).

次にCPU60は、撮影エリアA内にて撮影部2のディスプレイ22に、撮影内容の案内画面を表示させ、案内音声及びBGMをスピーカ24から出力させる(ステップS103)。このとき表示される案内画面には、撮影部2のカメラ21のモニタ出力に基づくライブ映像と、各撮影回のポーズ見本とが含まれるとよい。なおこのとき表示されるライブ映像にて、ステップS101で選択された撮影コース、シートデザインによっては、後述する髪色加工処理をリアルタイムに行なって加工処理後の画像が映像として表示されるようにしてもよい。   Next, the CPU 60 causes the display 22 of the photographing unit 2 to display a guidance screen for photographing contents in the photographing area A, and outputs guidance voice and BGM from the speaker 24 (step S103). The guidance screen displayed at this time may include a live image based on the monitor output of the camera 21 of the photographing unit 2 and a pose sample for each photographing time. Depending on the shooting course and sheet design selected in step S101, the hair color processing described later is performed in real time on the live video displayed at this time so that the processed image is displayed as a video. Also good.

CPU60は、ステップS101で選択された撮影モード又はシートデザインに応じて、撮影部2のカメラ21及び照明装置群23を制御して複数回の撮影を実行する(ステップS104)。CPU60は、各回の撮影により得られる画像データを相互に識別することが可能にHDD62に記憶する(ステップS105)。ステップS104における複数回の撮影では、ステップS101で選択された撮影モード又はシートデザインに応じて、腰から上のアップ撮影と足先も含む全身撮影とが区別されて実行されるとよい。   The CPU 60 controls the camera 21 and the illuminating device group 23 of the photographing unit 2 according to the photographing mode or the sheet design selected in Step S101, and executes plural times of photographing (Step S104). The CPU 60 stores the image data obtained by each shooting in the HDD 62 so as to be mutually distinguishable (step S105). In the multiple shootings in step S104, it is preferable that the up-up shooting from the waist and the whole-body shooting including the toes are distinguished and executed according to the shooting mode or the seat design selected in step S101.

撮影が完了するとCPU60は、編集エリアBの空き状況を確認した上で、空いている場合には編集エリアBの第1編集部3a又は第2編集部3bのいずれかへの移動を促す案内画面をディスプレイ22に表示させると共に、案内音声をスピーカ24から出力させ(ステップS106)、制御部6における処理を終了する。   When shooting is completed, the CPU 60 confirms the availability of the editing area B, and if it is available, the guidance screen prompts the user to move the editing area B to either the first editing unit 3a or the second editing unit 3b. Is displayed on the display 22 and a guidance voice is output from the speaker 24 (step S106), and the process in the control unit 6 is terminated.

次に画像処理部7における処理へ移行する。図4は、画像処理部7にて実行される画像処理、落書き操作受付及び印刷の処理手順の一例を示すフローチャートである。なお以下の説明はユーザが、第1編集部3a及び第2編集部3bの内、第1編集部3aへ移動を促されて落書き操作を行なう場合を例とするが、第2編集部3bにおいて落書き操作が行なわれる場合も同様の処理であるから詳細な説明を省略する。   Next, the process proceeds to the processing in the image processing unit 7. FIG. 4 is a flowchart illustrating an example of a processing procedure of image processing, graffiti operation reception, and printing executed by the image processing unit 7. In the following description, the user is urged to move to the first editing unit 3a out of the first editing unit 3a and the second editing unit 3b to perform a graffiti operation. However, in the second editing unit 3b, Since the same process is performed when a graffiti operation is performed, detailed description thereof is omitted.

画像処理部7のCPU70は、制御部6のCPU60によりHDD62に記憶された画像データを取得する(ステップS201)。CPU70は、取得した複数の画像データ夫々に対し、1又は複数の人物被写体領域を抽出する処理を実行する(ステップS202)。ステップS202における抽出処理は詳細には、画像データを与えられたグラフィックボード73が、画像データに基づく画像から人物被写体領域に対応する画素をα化(透明化)したマスク画像の画像データを作成することで実現される。   The CPU 70 of the image processing unit 7 acquires the image data stored in the HDD 62 by the CPU 60 of the control unit 6 (step S201). The CPU 70 executes a process of extracting one or a plurality of person subject areas for each of the acquired plurality of image data (step S202). Specifically, in the extraction process in step S202, the graphic board 73 given the image data creates image data of a mask image in which pixels corresponding to the person subject area are α (transparent) from the image based on the image data. This is realized.

CPU70は、複数の画像データ別に、ステップS202の抽出処理によって抽出された1又は複数の人物被写体領域夫々に対し、顔認識技術に基づいて顔領域(輪郭)、並びに顔領域内の目、鼻、及び口などの各器官領域の特徴点を特定する処理を実行する(ステップS203)。ステップS203の処理は、肌色検出、テンプレートマッチング等の種々の既存技術を利用して行なえばよい。そしてステップS203においてCPU70は、顔領域及び器官領域の特徴点を、夫々の輪郭に対応する画像中の画素の座標の情報で特定する。具体的には、顔であれば、こめかみ、額の頂点、顎下、頬の輪郭上の複数の座標が夫々特定される。目であれば目頭、目尻、上瞼輪郭上の複数の箇所、及び下瞼輪郭上の複数の箇所の座標が夫々特定される。また口であれば、両端即ち口角と、口領域の中心と、上唇及び下唇別の輪郭上の複数の箇所の画像内における座標が夫々特定される。特定された座標情報がメモリ71又はHDD72に画像データ夫々と対応付けて記憶される。他には、鼻の輪郭及び鼻頭、眉の眉頭及び眉尻の位置等を特定する座標の情報が記憶される。   For each of a plurality of image data, the CPU 70 applies a face area (contour) to each of one or a plurality of person subject areas extracted by the extraction process in step S202, as well as the eyes, noses, And the process which specifies the feature point of each organ area | region, such as a mouth, is performed (step S203). The processing in step S203 may be performed using various existing techniques such as skin color detection and template matching. In step S203, the CPU 70 specifies the feature points of the face area and the organ area using information on the coordinates of the pixels in the image corresponding to the respective contours. Specifically, in the case of a face, a plurality of coordinates on the temple, the apex of the forehead, the chin, and the cheek outline are specified. In the case of an eye, the coordinates of the head, the corner of the eye, a plurality of locations on the upper eyelid contour, and a plurality of locations on the lower eyelid contour are specified. In the case of the mouth, both ends, that is, the mouth angle, the center of the mouth area, and the coordinates in the image of a plurality of locations on the contours of the upper and lower lips are specified. The identified coordinate information is stored in the memory 71 or the HDD 72 in association with each image data. In addition, information of coordinates specifying the outline of the nose and the position of the nose head, the eyebrows of the eyebrows, the buttocks, and the like is stored.

そしてCPU70は、1又は複数の人物被写体領域夫々に対し、髪の毛の領域を特定する処理を実行する(ステップS204)。髪の毛の領域の特定方法は種々の方法が想定されるが、例えばCPU70は、ステップS203で特定された顔領域及び各器官領域の特徴点を用いるとよい。具体的には、特定された顔領域の特徴点の内、額の頂点の情報に基づいて、CPU70は、額の頂点から数画素分上方に位置する特定画素における色情報を取得し、特定画素を基準として隣接する注目画素の色情報を順に参照する。注目画素の色情報が示す色が、特定画素の色情報が示す色から所定の範囲内で類似する色(一致する色であると判断できる)である場合、注目画素は特定画素を含む髪の毛の領域内であると認定し、これを繰り返して色が類似すると判断された注目画素の集合を髪の毛の領域を特定するとよい。なお髪の毛の領域として特定される領域は、類似すると判断された注目画素の集合に対応する範囲から0.0〜2.0画素等の所定の画素分内側の範囲とするとよい。これは、肌の部分との境界付近の肌部分側を髪の毛の領域として誤って特定することを回避するためである。そして特定された髪の毛の領域は、輪郭を示す座標情報、又はその領域内に対応する画素をα化(透明化)することにより得られるマスク画像として、画像中の人物被写体領域を識別する情報と対応付けて記憶するとよい。図5は、髪の毛の領域のマスク画像の内容例を模式的に示す説明図である。図5中の白い領域がα化された領域である。   Then, the CPU 70 executes a process of specifying a hair region for each of one or a plurality of person subject regions (step S204). Various methods are envisaged for specifying the hair region. For example, the CPU 70 may use the feature points of the face region and each organ region specified in step S203. Specifically, based on the information on the vertex of the forehead among the feature points of the identified face area, the CPU 70 acquires color information on a specific pixel located several pixels above the vertex of the forehead, and the specific pixel Are used to refer to the color information of adjacent pixels of interest in turn. When the color indicated by the color information of the target pixel is a color that is similar within a predetermined range from the color indicated by the color information of the specific pixel (can be determined to be a matching color), the target pixel is the hair of the hair including the specific pixel. The region of the hair may be identified as a set of pixels of interest that are recognized as being within the region and repeated to determine that the colors are similar. Note that the area specified as the hair area may be a range inside a predetermined pixel such as 0.0 to 2.0 pixels from the range corresponding to the set of target pixels determined to be similar. This is to avoid erroneously specifying the skin part side near the boundary with the skin part as the hair region. Then, the identified hair region is coordinate information indicating an outline, or information for identifying a human subject region in the image as a mask image obtained by alpha-changing (transparenting) the corresponding pixels in the region. It is good to store in association. FIG. 5 is an explanatory diagram schematically showing an example of the contents of a mask image of a hair region. The white area in FIG.

図4に戻り、説明を続ける。CPU70は、特定した髪の毛の領域に基づき、髪色を均一化させた髪色均一化画像を作成する(ステップS205)。髪色均一化画像の作成については詳細を後述する。   Returning to FIG. 4, the description will be continued. The CPU 70 creates a hair color uniform image in which the hair color is uniformed based on the identified hair region (step S205). Details of the creation of the hair color uniform image will be described later.

次にCPU70は、複数の画像データ別に、抽出された人物被写体領域、特定された顔領域、並びに顔領域内の各器官領域に対する加工処理を実行する(ステップS206)。ステップS206にてCPU70は、複数回の撮影で得られた画像データ夫々に対し、撮影の方法(アップ撮影又は全身撮影等)に適した加工処理を行なう。加工処理には上述したように、顔を小顔にする加工、目を大きくする加工、身体のラインを細く見せるための加工、脚を長くみせる加工等が含まれる。   Next, the CPU 70 executes processing for the extracted human subject area, the specified face area, and each organ area in the face area for each of a plurality of image data (step S206). In step S <b> 206, the CPU 70 performs processing suitable for the shooting method (up-shooting, whole-body shooting, etc.) on each of the image data obtained by a plurality of shootings. As described above, the processing includes processing to make the face small, processing to enlarge the eyes, processing to make the body line appear thin, processing to make the legs look longer, and the like.

ステップS206までの処理は、図3のフローチャートにおけるステップS104の複数回の撮影処理が行なわれる都度、各撮影に対して記憶される画像データに対してバックグラウンド的に開始される。そしてステップS106における編集エリアBへの案内画面の表示中に処理が進むように実行されてもよい。   The processing up to step S206 is started in the background with respect to the image data stored for each photographing each time a plurality of photographing processes in step S104 in the flowchart of FIG. 3 are performed. Then, the process may be executed so as to proceed while the guidance screen is displayed in the editing area B in step S106.

次にCPU70は、落書き操作画面を第1編集部3aのディスプレイ30aに表示させると共に、案内音声及びBGMをスピーカ33aから出力させる(ステップS207)。そしてCPU70は、落書き操作画面上でディスプレイ30a及びタッチペン31a,32aによりスタンプ貼付け、文字追加、及びメイクを含む落書き操作を受け付ける(ステップS208)。落書き操作の受け付け処理についても、詳細を後述する。   Next, the CPU 70 displays a graffiti operation screen on the display 30a of the first editing unit 3a, and outputs a guidance voice and BGM from the speaker 33a (step S207). Then, the CPU 70 accepts a graffiti operation including stamping, character addition, and makeup using the display 30a and the touch pens 31a and 32a on the graffiti operation screen (step S208). Details of the graffiti operation acceptance process will be described later.

CPU70は更に、合成後の写真シールシートにおけるレイアウト等の選択を受け付ける(ステップS209)。CPU70は、ステップS208で受け付けた落書き操作、ステップS209で受け付けたレイアウトに基づき、合成処理を実行する(ステップS210)。ステップS210において具体的には、CPU70は各画像データに基づく画像に対する加工処理後の画像に、落書き操作にて受け付けたスタンプ、手書き文字、重畳用メイク画像等の画像を合成し、写真シールシートにレイアウトする合成処理を実行する。   Further, the CPU 70 accepts selection of a layout or the like in the composite photo sticker sheet (step S209). The CPU 70 executes the composition process based on the graffiti operation accepted in step S208 and the layout accepted in step S209 (step S210). Specifically, in step S210, the CPU 70 synthesizes an image such as a stamp, a handwritten character, a superimposing makeup image, etc. received by a graffiti operation with an image after the processing on the image based on each image data, and forms a photo sticker sheet Execute the composition process to lay out.

CPU70は、合成処理後の写真シールシートのプレビュー画面を含む画面をディスプレイ30aに表示させる(ステップS211)。CPU70は、印刷部4のプリンタが使用中であるか否かを確認した上で、使用中でない場合に印刷部4のプリンタにて写真シールシートの印刷出力を開始させる(ステップS212)。印刷出力処理が行なわれている間にCPU70は、撮影された複数の画像の内、ユーザが所持する情報端末装置から入手可能とする画像の選択、情報の送信先アドレスの入力等の操作を第1編集部3aのディスプレイ30aにて受け付ける(ステップS213)。CPU70は、受け付けた操作に応じて選択された画像の画像データを外部サーバ装置へ送信する(ステップS214)。CPU70は、印刷出力処理が終了するまで、第1編集部3aのディスプレイ30aに待機中画面を表示し、印刷出力処理が完了した場合には印刷部4の前への移動を促す案内画面を表示させると共に、案内音声を出力させ(ステップS215)、処理を終了する。   The CPU 70 displays a screen including a preview screen of the photo sticker sheet after the composition processing on the display 30a (step S211). The CPU 70 confirms whether or not the printer of the printing unit 4 is in use, and if it is not in use, causes the printer of the printing unit 4 to start printing the photo sticker sheet (step S212). While the print output process is being performed, the CPU 70 performs operations such as selecting an image that can be obtained from the information terminal device possessed by the user from among a plurality of photographed images and inputting an information destination address. Accepted by the display 30a of the first editing unit 3a (step S213). The CPU 70 transmits the image data of the image selected according to the accepted operation to the external server device (step S214). The CPU 70 displays a standby screen on the display 30a of the first editing unit 3a until the print output process is completed. When the print output process is completed, the CPU 70 displays a guidance screen that prompts the user to move to the front of the print unit 4. At the same time, a guidance voice is output (step S215), and the process is terminated.

図6は、髪色均一化画像の作成処理手順の一例を示すフローチャートである。以下の処理は、一連の撮影で得られる複数の画像データに対して行なわれる。   FIG. 6 is a flowchart showing an example of a procedure for creating a hair color uniform image. The following processing is performed on a plurality of image data obtained by a series of photographing.

CPU70は、1の画像データを選択し(ステップS51)、選択した画像データに基づく画像中の1の顔領域を選択する(ステップS52)。CPU70は、選択した顔領域に対応して図4のフローチャートのステップS204で特定した髪の毛の領域の情報(マスク画像)を抽出する(ステップS53)。CPU70は、選択した画像データに基づく画像中のステップS53で抽出した髪の毛の領域に対応する部分を、グラフィックボード73を用いて色情報の画像とテクスチャ情報の画像とに分離し、夫々を記憶する(ステップS54)。色情報とテクスチャ情報との分離は、例えばフーリエ変換を用いた周波数分離によって分離してもよいし、ウェーブレット変換等他の手段を用いてもよい。   The CPU 70 selects one image data (step S51), and selects one face area in the image based on the selected image data (step S52). The CPU 70 extracts information (mask image) of the hair region identified in step S204 in the flowchart of FIG. 4 corresponding to the selected face region (step S53). The CPU 70 separates the portion corresponding to the hair region extracted in step S53 in the image based on the selected image data into a color information image and a texture information image using the graphic board 73, and stores each of them. (Step S54). The color information and texture information may be separated by frequency separation using Fourier transform, for example, or other means such as wavelet transform may be used.

CPU70は、ステップS54で記憶した色情報の画像における髪色の部分の色を、所定の色に変更し(ステップS55)、変更後の色情報の画像及び分離したテクスチャ情報の画像を夫々画像データ及び顔領域に対応付けて記憶する(ステップS56)。なおステップS56では、変更後の色情報の画像と分離したテクスチャ情報の画像とを合成して戻しておいてもよい。   The CPU 70 changes the color of the hair color portion in the color information image stored in step S54 to a predetermined color (step S55), and the changed color information image and the separated texture information image are respectively converted into image data. And stored in association with the face area (step S56). In step S56, the changed color information image and the separated texture information image may be combined and returned.

CPU70は、全ての顔領域を選択したか否かを判断し(ステップS57)、全てを選択していないと判断した場合(S57:NO)、処理をステップS52へ戻す。ステップS57で全ての顔領域を選択したと判断された場合(S57:YES)、CPU70は、一連の複数の撮影画像の全ての画像データを選択したか否かを判断する(ステップS58)。全ての画像データを選択していないと判断された場合(S58:NO)、CPU70は処理をステップS51へ戻し、全ての画像データを選択したと判断された場合(S58:YES)、CPU70は髪色均一化画像の作成処理を終了し、図4のステップS206へ処理を戻す。   The CPU 70 determines whether or not all face areas have been selected (step S57), and if it is determined that all have not been selected (S57: NO), the process returns to step S52. If it is determined in step S57 that all the face areas have been selected (S57: YES), the CPU 70 determines whether or not all the image data of the series of captured images has been selected (step S58). If it is determined that all image data has not been selected (S58: NO), the CPU 70 returns the process to step S51. If it is determined that all image data has been selected (S58: YES), the CPU 70 returns to hair. The process for creating the color uniform image is terminated, and the process returns to step S206 in FIG.

図6のフローチャートに示した処理手順について、具体例を挙げて説明する。図7は、撮像画像の一例を模式的に示す説明図であり、図8は、図7の画像から作成される髪色均一化画像の一例を模式的に示す説明図である。いずれも写真画像を線図により模式的に示している。図7の説明図に示されている画像例では、2人の人物被写体が撮影されており、2人分の人物被写体における髪色領域の色は一方が暗めで他方が明るめである。図7の画像を線図により模式的に示す例では、ハッチングの密度が濃い方が髪色の明度が他方よりも低い即ち暗い色、黒髪に近いことを示しており、密度が薄い方が髪色の明度が他方よりも高い即ち明るめの所謂茶髪に近いことを示している。図8の説明図に示されている髪色均一化画像は、色変更後の色情報とテクスチャ情報とを合成した画像を示している。図8の説明図に示されている画像例では、図7の説明図に示されている画像例と比較した場合に明らかなように、髪色の明度が統一されつつ、髪の毛の流れを表わすテクスチャがそのまま維持されていることが分かる。なお色相及び彩度についても元の色に寄らずに規定色としてあり、例えば画像信号における三原色(赤:R、緑:G、青:B)の画素値で表せば淡い茶色(R=155、G=110、B=80)である。なおHSL値で表した場合にH(色相)=16〜30/360、S(彩度)=30〜50/100、L(輝度)=36〜50/100程度の範囲であれば淡い茶色となり得る。このとき無彩色である白ではなく、明るい茶色とすることで、後述する淡い色への変更時に演出通りの結果が得られる。なおこの規定色は、後述する髪色変更処理における髪色均一化画像とヘアカラー画像との合成処理の種類によって異なる可能性がある。また、この規定色は、変更後の色を淡い色としたいのか、鮮やかな色にしたのかによって異なる可能性があるから、選択される色に応じて規定色が異なる設定としてもよい。   The processing procedure shown in the flowchart of FIG. 6 will be described with a specific example. FIG. 7 is an explanatory diagram schematically illustrating an example of a captured image, and FIG. 8 is an explanatory diagram schematically illustrating an example of a hair color uniform image created from the image of FIG. In either case, a photographic image is schematically shown by a diagram. In the image example shown in the explanatory diagram of FIG. 7, two human subjects are photographed, and one of the hair color regions of the human subjects for two people is darker and the other is brighter. In the example schematically showing the image of FIG. 7 by a diagram, the darker the density of the hatching, the lower the lightness of the hair color, that is, the darker the color, the closer to the black hair, and the lower the density is the hair. It shows that the lightness of the color is higher than the other, that is, it is close to so-called light brown hair. The hair color uniform image shown in the explanatory diagram of FIG. 8 shows an image in which color information after color change and texture information are combined. In the image example shown in the explanatory diagram of FIG. 8, as is clear when compared with the image example shown in the explanatory diagram of FIG. 7, the lightness of the hair color is unified and the flow of the hair is represented. It can be seen that the texture is maintained as it is. The hue and saturation are also defined colors without depending on the original color. For example, if expressed by pixel values of the three primary colors (red: R, green: G, blue: B) in the image signal, light brown (R = 155, G = 110, B = 80). When expressed in terms of HSL values, the color is light brown if H (hue) = 16 to 30/360, S (saturation) = 30 to 50/100, and L (luminance) = 36 to 50/100. obtain. At this time, by setting the color to light brown instead of the achromatic color white, a result as the effect can be obtained when changing to a light color described later. Note that this specified color may differ depending on the type of synthesis process of the hair color uniform image and the hair color image in the hair color changing process described later. Further, since the specified color may vary depending on whether the color after change is a light color or a bright color, the specified color may be set differently depending on the selected color.

なお図6〜図8で説明した髪色均一化画像の作成は、図4のフローチャートにおけるステップS205で予め実施しておくことには限定されない。後述するように、落書き操作を受け付ける際に、髪色を変更する操作が行なわれた時点で実行されてもよい。落書き操作を受け付ける際に髪色均一化画像を作成する場合は、選択された色に対応付けて設定されている規定色にて均一化された髪色均一化画像を作成するようにしてもよい。   The creation of the hair color uniform image described with reference to FIGS. 6 to 8 is not limited to being performed in advance in step S205 in the flowchart of FIG. As will be described later, when a graffiti operation is accepted, it may be executed when an operation for changing the hair color is performed. When creating a hair color uniform image when accepting a graffiti operation, a hair color uniform image uniformed with a specified color set in association with the selected color may be created. .

次に、落書き操作の受け付けについて詳細を説明する。図9は、落書き操作画面の一例を模式的に示す説明図である。落書き操作画面は、第1編集部3aのディスプレイ30aに表示され、ユーザはタッチペンによって落書き操作画面上で各種の選択、画像の移動及び拡縮又は回転、手書き入力、並びに描画等の操作を行なうことができる。第2編集部3bにおける落書き操作についても同様であるので詳細な説明を省略する。   Next, details of acceptance of the graffiti operation will be described. FIG. 9 is an explanatory diagram schematically illustrating an example of a graffiti operation screen. The graffiti operation screen is displayed on the display 30a of the first editing unit 3a, and the user can perform various selections, image movement and enlargement / reduction or rotation, handwriting input, drawing, and the like on the graffiti operation screen with the touch pen. it can. Since the same applies to the graffiti operation in the second editing unit 3b, detailed description thereof is omitted.

落書き操作画面は、ユーザを人物被写体として撮影した画像のプレビュー表示部301,302を左右に有している。プレビュー表示部301,302に表示されている画像は夫々、所定の加工処理(図4におけるステップS206)後の画像であり、プレビュー表示部301,302上で手書き入力等の操作がタッチペン31a,32aにより格別に受け付けられる。2つのプレビュー表示部301,302に対して夫々、複数の画像データに基づく複数の画像からいずれの画像の画像データを編集対象とするかを選択するための選択部3011,3012を有している。   The graffiti operation screen has preview display sections 301 and 302 for images taken with a user as a human subject on the left and right. The images displayed on the preview display units 301 and 302 are images after a predetermined processing (step S206 in FIG. 4), and operations such as handwriting input on the preview display units 301 and 302 are performed by the touch pens 31a and 32a. It is accepted specially. Each of the two preview display sections 301 and 302 has selection sections 3011 and 3012 for selecting which image data to edit from a plurality of images based on a plurality of image data. .

落書き操作画面は、プレビュー表示部301とプレビュー表示部302との間の中央部に、手書き入力用のペンの色、ペン種、ペンの太さを夫々選択するためのペンパレット部303を有する。ペンパレット部303においては、プレビュー表示部301上で操作するためのタッチペン31aからの選択操作と、プレビュー表示部302上で操作するためのタッチペン32aからの選択操作とを夫々識別して受け付ける。またペンパレット部303には、選択されたペンの色、ペン種及び太さによる手書き文文字のサンプルを表示するためのペンプレビュー部3031及びペンプレビュー部3032が含まれる。   The graffiti operation screen has a pen palette section 303 for selecting a pen color, pen type, and pen thickness for handwriting input at the center between the preview display section 301 and the preview display section 302. The pen pallet unit 303 identifies and accepts a selection operation from the touch pen 31 a for operation on the preview display unit 301 and a selection operation from the touch pen 32 a for operation on the preview display unit 302. The pen palette unit 303 includes a pen preview unit 3031 and a pen preview unit 3032 for displaying a sample of handwritten text according to the selected pen color, pen type, and thickness.

落書き操作画面には、プレビュー表示部301及びプレビュー表示部302の下方に夫々対応するように、予め記憶されているスタンプ画像及びメッセージ画像などの素材画像を選択するためのスタンプパレット304が含まれる。スタンプパレット304は夫々、プレビュー表示部301,302に表示されている2つのプレビュー画像に対して重畳させるスタンプ等の画像のカテゴリーを選択するためのタブ選択部101を有している。タブ選択部101には実施の形態1においては「SPECIAL」「STAMP」「MESSAGE」及び「MAKE」の例えば4種類のタブが選択可能に表示されている。「SPECIAL」は特別なイベント期間又は季節に関連付けられている特別な素材の選択を受け付ける画面を表示するためのタブである。「STAMP」は予め記憶してあるイラスト等の画像を選択する画面を表示するためのタブである。「MESSAGE」は予め記憶してある文字を含むメッセージ画像を選択する画面を表示するためのタブである。「MAKE」はHDD72に記憶されているメイク用情報に基づく画像の選択を受け付ける画面を表示するためのタブである。   The graffiti operation screen includes a stamp palette 304 for selecting a pre-stored material image such as a stamp image and a message image so as to correspond to the preview display unit 301 and the preview display unit 302, respectively. The stamp palette 304 includes a tab selection unit 101 for selecting a category of an image such as a stamp to be superimposed on two preview images displayed on the preview display units 301 and 302, respectively. In the tab selection unit 101, for example, four types of tabs of “SPECIAL”, “STAMP”, “MESSAGE”, and “MAKE” are displayed so as to be selectable. “SPECIAL” is a tab for displaying a screen for accepting selection of a special material associated with a special event period or season. “STAMP” is a tab for displaying a screen for selecting an image such as an illustration stored in advance. “MESSAGE” is a tab for displaying a screen for selecting a message image including characters stored in advance. “MAKE” is a tab for displaying a screen for accepting selection of an image based on makeup information stored in the HDD 72.

図9に示す落書き操作画面では、プレビュー表示部301,302と対応する両方のタブ選択部101で「MAKE」のタブが選択されている場合の内容例が示されている。「MAKE」のタブが選択されている場合のスタンプパレット304は、各プレビュー表示部301,302に夫々対応するメイクパレット310を有している。   The graffiti operation screen shown in FIG. 9 shows an example of the contents when the “MAKE” tab is selected in both the tab selection units 101 corresponding to the preview display units 301 and 302. The stamp palette 304 when the “MAKE” tab is selected has a makeup palette 310 corresponding to each of the preview display portions 301 and 302.

メイクパレット310は上部に、メイク選択部102を含む。メイク選択部102は、メイクパレット310の上部に位置する複数のメイクの種類に応じた複数のボタンから構成される。図9に示す例では、メイクの種類は「ワンタッチ」、「リップ」、「チーク」、「カラコン」、及び「ヘアカラー」がある。   Makeup palette 310 includes makeup selection unit 102 at the top. Makeup selection unit 102 includes a plurality of buttons corresponding to a plurality of makeup types located at the top of makeup palette 310. In the example shown in FIG. 9, the types of makeup are “one touch”, “lip”, “blush”, “color control”, and “hair color”.

図9に示すようにプレビュー表示部301に対応するメイクパレット310には、メイク選択部102で「ワンタッチ」が選択された場合に表示される内容例が示されている。プレビュー表示部302に対応するメイクパレット310には、メイク選択部102で「ヘアカラー」が選択された場合に表示される内容例が示されている。メイクパレット310の下部には、いずれのメイクの種類が選択された場合も、メイク対象表示部103、メイク対象切替ボタン104が表示される。   As shown in FIG. 9, a makeup palette 310 corresponding to the preview display unit 301 shows an example of contents displayed when “one touch” is selected by the makeup selection unit 102. A makeup palette 310 corresponding to the preview display unit 302 shows an example of contents displayed when “hair color” is selected by the makeup selection unit 102. At the bottom of makeup palette 310, makeup target display section 103 and makeup target switching button 104 are displayed when any makeup type is selected.

メイク対象表示部103は、複数の画像データに対して抽出された顔領域を含む矩形領域の画像が表示される画像である。メイク対象切替ボタン104は、プレビュー表示部301(又はプレビュー表示部302)に表示されている画像中に複数の顔領域が含まれるとき、メイク対象として該複数の顔領域の内の1つずつと、全顔領域を選択する場合とを巡回的に切り替えるボタンである。例えば、画像中に2人分の顔領域が含まれる場合、当該メイク対象切替ボタン104を選択する都度に、メイク対象の顔領域は、1人目の顔領域、2人目の顔領域、両方の顔領域、1人目の顔領域、…と巡回的に切り替わる。   The makeup target display unit 103 is an image in which an image of a rectangular area including a face area extracted for a plurality of image data is displayed. When a plurality of face areas are included in the image displayed on the preview display section 301 (or the preview display section 302), the makeup target switching button 104 is selected as a makeup target one by one from the plurality of face areas. This button is used to cyclically switch between selecting the entire face area. For example, if two face areas are included in the image, each time the makeup target switching button 104 is selected, the makeup target face area is the first face area, the second face area, or both faces. The area is cyclically switched to the area, the first person's face area, and so on.

メイクの種類として「ワンタッチ」が選択されている場合、図9に示すように、異なるテーマに夫々対応したテーマ選択アイコン711、及びワンタッチメイクを消去するOFFボタン712が配置される。テーマ選択アイコン711は、本実施の形態においては「MILKY PINK」、「FANCY BLUE」及び「FAIRY PURPLE」の3つテーマに夫々対応するメイク及び装飾画像の選択ボタンである。「MILKY PINK」が選択された場合には、「MILKY PINK」のテーマに対応付けられて髪色の変更を含む暖色を基調としたヘアメイクが自動的に施される。「FANCY BLUE」の場合も同様にして、テーマ名と合致する寒色を基調とした淡い色を基調としたヘアメイクが自動的に施される。このように「ワンタッチ」ではテーマに対応付けられたメイクが施される。ヘアアクセサリ画像の配置が行なわれてもよい。   When “one touch” is selected as the makeup type, as shown in FIG. 9, a theme selection icon 711 corresponding to each different theme and an OFF button 712 for erasing the one-touch makeup are arranged. The theme selection icon 711 is a makeup and decoration image selection button corresponding to each of the three themes “MILKY PINK”, “FANCY BLUE”, and “FAIRY PURPLE” in the present embodiment. When “MILKY PINK” is selected, hair makeup based on a warm color including a change in hair color is automatically performed in association with the theme of “MILKY PINK”. Similarly, in the case of “FANCY BLUE”, hair makeup based on a light color based on a cold color matching the theme name is automatically applied. In this way, “one touch” applies makeup associated with a theme. The arrangement of the hair accessory image may be performed.

図9のプレビュー表示部301に対応するメイクパレット310にてメイク選択部102にて「ワンタッチ」が選択されている状態で、複数のテーマ選択アイコン711の内のいずれかが選択された場合の処理について説明する。図10は、ワンタッチメイク時の髪色を変更する処理手順の一例を示すフローチャートである。なお図10のフローチャートに示す処理は、プレビュー表示部301に対して行なわれる処理として説明するが、プレビュー表示部302においても同様であることは勿論であるから詳細な説明を省略する。   Processing when one of the plurality of theme selection icons 711 is selected in a state where “one touch” is selected by the makeup selecting unit 102 in the makeup palette 310 corresponding to the preview display unit 301 of FIG. Will be described. FIG. 10 is a flowchart illustrating an example of a processing procedure for changing the hair color during one-touch makeup. The process shown in the flowchart of FIG. 10 will be described as a process performed on the preview display unit 301. However, the same applies to the preview display unit 302, and a detailed description thereof will be omitted.

CPU70は、メイク対象切替ボタン104における選択状態に基づきメイク対象の顔領域を特定し(ステップS301)、特定されたメイク対象の顔領域に対応する髪の毛の領域を抽出する(ステップS302)。CPU70はグラフィックボード73を用いて抽出した髪の毛の領域の範囲全てを、選択されたテーマ選択アイコン711に対応する髪色に着色したヘアカラー画像を作成する(ステップS303)。ヘアカラー画像は、髪の毛領域以外は透明化されているとよい。   The CPU 70 specifies the face area to be made based on the selection state of the make object switching button 104 (step S301), and extracts the hair area corresponding to the specified face area to be made (step S302). The CPU 70 creates a hair color image in which the entire range of the hair region extracted using the graphic board 73 is colored with the hair color corresponding to the selected theme selection icon 711 (step S303). The hair color image may be transparent except for the hair region.

次にCPU70は、特定されたメイク対象の顔領域に対応する髪色均一化画像を抽出する(ステップS304)。図4のステップS205にて事前に髪色均一化画像を作成しない場合、CPU70はこの時点で図6の処理手順の内のステップS53〜S56を実行する。つまりステップS303のヘアカラー画像の作成と、髪色均一化画像の作成との順序は、いずれが先であってもよい。そしてステップS304において髪色均一化画像を作成する場合、選択されたテーマに対応するヘアカラー用パターン情報によって異なる色へ均一化させる髪色均一化画像を作成するようにしてもよい。このときCPU70はグラフィックボード73を用いてステップS55にて対応する色へ髪色を変更する。   Next, the CPU 70 extracts a hair color uniform image corresponding to the specified face area to be made (step S304). When the hair color uniform image is not created in advance in step S205 of FIG. 4, the CPU 70 executes steps S53 to S56 in the processing procedure of FIG. 6 at this time. That is, the order of the creation of the hair color image in step S303 and the creation of the hair color uniform image may be any first. When creating a hair color uniform image in step S304, a hair color uniform image that is uniformized to different colors according to the hair color pattern information corresponding to the selected theme may be created. At this time, the CPU 70 uses the graphic board 73 to change the hair color to the corresponding color in step S55.

CPU70はグラフィックボード73を用い、ステップS303で作成したヘアカラー画像を、ステップS304で抽出した髪色均一化画像に対して合成する(ステップS305)。ステップS305における合成処理は、例えばソフトライト合成と呼ばれる処理を行なう。即ちステップS305は、髪色均一化画像(分離した色情報及びテクスチャ情報を合成した)上にヘアカラー画像を重畳させ、重畳させたときに対応する画素(同一座標の画素)同士について、所定の演算を行なう。例えばグラフィックボード73はソフトライト合成として、色成分(R,G,B)毎に、髪色均一化画像の画素の最大値(例えば255)に対する画素値の割合を底とし、ヘアカラー画像の画素値の最大値に対する割合に基づく値を冪指数とする冪演算を行なう等する。ステップS305の合成では、ソフトライト合成のみならず例えば画素値同士の乗算値に基づく演算を行なうオーバーレイ合成等の他のブレンド処理等、ヘアカラー画像の色を髪色均一化画像に反映させるための合成を行なうようにしてもよい。   The CPU 70 uses the graphic board 73 to synthesize the hair color image created in step S303 with the hair color uniform image extracted in step S304 (step S305). The synthesis process in step S305 performs, for example, a process called soft light synthesis. That is, in step S305, a hair color image is superimposed on a hair color uniformized image (combined separated color information and texture information), and corresponding pixels (pixels having the same coordinates) when they are superimposed are predetermined. Perform the operation. For example, the graphic board 73 performs the soft light composition, for each color component (R, G, B), the ratio of the pixel value to the maximum value (for example, 255) of the pixel of the hair color uniform image is the bottom, and the pixel of the hair color image For example, a 冪 operation using a value based on a ratio of the value to the maximum value as a 冪 index is performed. In the composition in step S305, not only the soft light composition but also other blending processing such as overlay composition for performing an operation based on the multiplication value of pixel values, etc., for reflecting the color of the hair color image in the hair color uniform image. You may make it perform a synthesis | combination.

次にCPU70はグラフィックボード73を用い、ステップS305で得られた髪色を変更した合成画像を、元の画像(図4のステップS206の加工処理後の画像)に重ねて合成を行なう(ステップS306)。CPU70は、合成後画像をプレビュー表示部301にて表示させ(ステップS307)、処理を終了する。   Next, the CPU 70 uses the graphic board 73 to superimpose the synthesized image obtained by changing the hair color obtained in step S305 on the original image (the image after the processing in step S206 in FIG. 4) (step S306). ). The CPU 70 displays the combined image on the preview display unit 301 (step S307), and ends the process.

図11は、ワンタッチメイク時の髪色を変更する処理の概要を示す説明図である。図11中の各矩形はレイヤを示しており、画像の重なりを表わしている。なお図11中の下部に従来の髪色の合成の仕方を比較例として示している。本実施の形態における画像処理部7では、CPU70は元の画像よりも上のレイヤに、髪色均一化画像の内の色情報に対応する画像、髪色の領域の範囲を全て選択されたテーマの色に着色したヘアカラー画像、髪色均一化画像の内のテクスチャ情報に対応する画像が重ねられる。従来であれば、元の画像にヘアカラー画像をソフトライト合成していたところ、本実施の形態における画像処理部7では、CPU70は髪色均一化画像の色情報に対応する画像に対してヘアカラー画像をソフトライト合成し、テクスチャ情報を加算により合成し、その合成後の画像を元の画像に対して合成処理する。   FIG. 11 is an explanatory diagram showing an outline of processing for changing the hair color during one-touch makeup. Each rectangle in FIG. 11 represents a layer and represents an overlap of images. A conventional method for synthesizing hair color is shown as a comparative example in the lower part of FIG. In the image processing unit 7 according to the present embodiment, the CPU 70 selects all the images corresponding to the color information in the hair color uniformized image and the range of the hair color region in the layer above the original image. The images corresponding to the texture information of the hair color image colored in the color and the hair color uniform image are superimposed. Conventionally, when a hair color image is soft-light synthesized with the original image, in the image processing unit 7 according to the present embodiment, the CPU 70 applies hair to the image corresponding to the color information of the hair color uniformized image. The color image is synthesized by soft light, the texture information is synthesized by addition, and the synthesized image is synthesized with the original image.

従来では図11に示す通り、「ワンタッチ」メイクに設定されている例えば「MILKY PINK」のような淡い色の髪色表現は困難であった。しかしながら、本実施の形態の画像処理部7における処理により、図11に示すように、元の画像における髪の毛の領域の色の色相、明度及び彩度等の影響を受けることなく髪色を表現することが可能となった。   Conventionally, as shown in FIG. 11, it is difficult to express a light hair color such as “MILKY PINK” set for “one touch” makeup. However, by the processing in the image processing unit 7 of the present embodiment, as shown in FIG. 11, the hair color is expressed without being affected by the hue, lightness, saturation, etc. of the color of the hair region in the original image. It became possible.

次に、図9のメイク選択部102にて「ヘアカラー」がされている状態における処理について説明する。図9にてメイクの種類として「ヘアカラー」が選択されている場合、図9に示すように、プレビュー表示部302に対応するメイクパレット310のメイク選択部102の下方には複数種類のヘアカラーに対応したヘアカラー選択アイコン751と、「ヘアカラー」のメイクを消去するOFFボタン753、一部を消去する消しゴム選択ボタン754が配置される。   Next, processing in a state where “hair color” is applied in makeup selecting section 102 in FIG. 9 will be described. When “hair color” is selected as the makeup type in FIG. 9, a plurality of types of hair colors are displayed below the makeup selection section 102 of the makeup palette 310 corresponding to the preview display section 302 as shown in FIG. , An OFF button 753 for erasing makeup of “hair color”, and an eraser selection button 754 for erasing a part thereof.

画像処理部7のHDD72に記憶されているメイク用情報720は、図9に手示されているようなヘアカラー選択アイコン751に夫々対応するヘアカラー用の色、テクスチャ及びグラデーションパターンを識別するヘアカラー用パターン情報を複数種類含む。複数種類のヘアカラー用パターン情報は図9に示すように、パープル、シルバーブルー、ブロンド、ピンク等の髪色の情報を含む。また色のイメージを表わす「FAIRLY」「MILKY PINK」、又は「SODA」等に対応付けて具体的な色の情報と頭頂部と毛先部とで色味又は濃淡を変化させるグラデーションパターンの情報が含まれてもよい。グラデーションパターンの情報は例えば、混合される複数の色の情報と、色を変化させる位置、各色の透明度等の情報を含む。   The makeup information 720 stored in the HDD 72 of the image processing unit 7 is a hair color for identifying the color, texture, and gradation pattern for hair color corresponding to the hair color selection icon 751 as shown in FIG. Includes multiple types of color pattern information. As shown in FIG. 9, the plurality of types of hair color pattern information include information on hair colors such as purple, silver blue, blonde, and pink. In addition, specific color information and gradation pattern information that changes the color tone or shading between the top and the tip of the hair in association with “FAIRLY”, “MILKY PINK”, or “SODA” representing a color image are displayed. May be included. The information on the gradation pattern includes, for example, information on a plurality of colors to be mixed, information on a position where the color is changed, transparency of each color, and the like.

このように示されるメイクパレット310にて、図9のメイク選択部102にて「ヘアカラー」が選択されている状態で、複数のヘアカラー選択アイコン751の内のいずれかが選択された場合の処理について説明する。図12は、ヘアカラーメイク時の髪色を変更する処理手順の一例を示すフローチャートである。なお図12のフローチャートに示す処理は、プレビュー表示部302に対して行なわれる処理として説明するが、プレビュー表示部301においても同様であることは勿論であるから詳細な説明を省略する。   When “hair color” is selected in makeup selecting section 102 in FIG. 9 in makeup palette 310 shown in this manner, one of a plurality of hair color selection icons 751 is selected. Processing will be described. FIG. 12 is a flowchart illustrating an example of a processing procedure for changing the hair color during hair color makeup. The processing shown in the flowchart of FIG. 12 will be described as processing performed on the preview display unit 302, but the same applies to the preview display unit 301, and detailed description thereof will be omitted.

CPU70は、メイク対象切替ボタン104における選択状態に基づきメイク対象の顔領域を特定し(ステップS401)、特定されたメイク対象の顔領域に対応する髪の毛の領域を抽出する(ステップS402)。   The CPU 70 specifies a face area to be made based on the selection state of the make object switching button 104 (step S401), and extracts a hair area corresponding to the specified face area to be made (step S402).

そしてCPU70は、選択されたヘアカラー選択アイコン751に対応するヘアカラー用パターン情報を識別する(ステップS403)。CPU70は、識別したヘアカラー用パターン情報に基づき、描画ブラシの線種、色及び太さを決定し(ステップS404)、タッチペン32aのプレビュー表示部302への接触を検知し(ステップS405)、決定した線種、色及び太さの描画ブラシで接触箇所を描画する(ステップS406)。   Then, the CPU 70 identifies hair color pattern information corresponding to the selected hair color selection icon 751 (step S403). The CPU 70 determines the line type, color, and thickness of the drawing brush based on the identified hair color pattern information (step S404), detects contact of the touch pen 32a with the preview display unit 302 (step S405), and determines it. The contact portion is drawn with the drawn line type, color, and thickness drawing brush (step S406).

CPU70は、ステップS402で抽出している髪の毛の領域のマスク画像に対応する範囲内で、ステップS406で描画した箇所をステップS404で決定した線種、色及び太さで描画したヘアカラー画像を作成する(ステップS407)。CPU70は、ステップS407で描画した範囲にて、ステップS401で特定された顔領域に対応する髪色均一化画像から一部を抽出する(ステップS408)。   The CPU 70 creates a hair color image in which the portion drawn in step S406 is drawn with the line type, color, and thickness determined in step S404 within the range corresponding to the mask image of the hair region extracted in step S402. (Step S407). The CPU 70 extracts a part from the hair color uniform image corresponding to the face area specified in step S401 within the range drawn in step S407 (step S408).

CPU70は、ステップS407で作成したヘアカラー画像を、ステップS408で抽出した髪色均一化画像の一部に対して合成する(ステップS409)。ステップS409における合成処理は、図10のフローチャート中のステップS305と同一である。   The CPU 70 combines the hair color image created in step S407 with a part of the hair color uniform image extracted in step S408 (step S409). The composition process in step S409 is the same as step S305 in the flowchart of FIG.

CPU70は、ステップS409で得られた髪色を変更した合成画像を、元の画像に重ねて合成を行ない(ステップS410)、合成後画像をプレビュー表示部302にて表示させ(ステップS411)、処理を終了する。   The CPU 70 superimposes the synthesized image obtained by changing the hair color obtained in step S409 on the original image (step S410), displays the synthesized image on the preview display unit 302 (step S411), and performs processing. Exit.

なお図12に示す処理手順は、メイク選択部102にて「ヘアカラー」が選択されている間は継続して例えば所定の時間の経過の都度、繰り返し実行される。「ヘアカラー」が選択されている状態で、タッチペン32aを用いた落書き操作が行なわれている間は、リアルタイムに髪色が変更される処理が実行され、プレビュー表示部302に表示される。   Note that the processing procedure shown in FIG. 12 is continuously executed while “hair color” is selected by the makeup selecting unit 102, for example, every time a predetermined time elapses. While the graffiti operation using the touch pen 32 a is being performed in a state where “hair color” is selected, processing for changing the hair color in real time is executed and displayed on the preview display unit 302.

図13は、ヘアカラーメイク時の髪色を変更する処理の概要を示す説明図である。図13中の各矩形はレイヤを示しており、画像の重なりを表わしている。ヘアカラーメイク時の処理では、図11に示したワンタッチメイク時の処理と異なり、タッチペン32aを用いた操作に基づく描画範囲のみで、ソフトライト合成、及び元の画像に対する合成処理が行なわれる。描画範囲に絞られている点以外は、図11を参照した説明と同一の処理である。   FIG. 13 is an explanatory diagram showing an outline of a process for changing the hair color during hair color makeup. Each rectangle in FIG. 13 represents a layer and represents an overlap of images. In the process at the time of hair color makeup, unlike the process at the time of one-touch makeup shown in FIG. 11, the soft light composition and the composition process for the original image are performed only in the drawing range based on the operation using the touch pen 32a. The processing is the same as that described with reference to FIG. 11 except that the drawing range is limited.

図14は、髪色変更後の画像の一例を模式的に示す説明図である。図14に示す画面例は、図7に示した元の画像に対し、髪色が淡い色に変更されている状態を示している。図14においても写真画像を線図により模式的に示している。図14中左側の人物被写体に対しては、「ワンタッチメイク」にて髪の毛の領域全体の色が変更されていることが示されており、図14中右側の人物被写体に対しては、「ヘアカラーメイク」にて描画範囲のみ色が変更されていることが示されている。このように本実施の形態における画像処理部7の処理により、元の画像における髪の毛の領域の色の色相、明度及び彩度等の影響を受けることなく淡い色、明度の高い色、また元の髪色とは色相が全く異なる髪色を表現することが可能となった。   FIG. 14 is an explanatory diagram schematically illustrating an example of an image after the hair color is changed. The screen example shown in FIG. 14 shows a state in which the hair color is changed to a light color with respect to the original image shown in FIG. Also in FIG. 14, a photographic image is schematically shown by a diagram. For the human subject on the left side in FIG. 14, it is shown that the color of the entire hair region has been changed by “one-touch makeup”, and for the human subject on the right side in FIG. "Color make" shows that the color is changed only in the drawing range. As described above, by the processing of the image processing unit 7 in the present embodiment, the color of the hair region in the original image is not affected by the hue, lightness, saturation, etc. It has become possible to express hair colors that are completely different from the hair color.

上述の髪色均一化画像を用いた髪色変更に係る合成処理は、図4のフローチャートにおけるステップS210でも実行される。CPU70は、「ワンタッチメイク」で選択されたテーマ選択アイコン711に対応する髪色、又は「ヘアカラーメイク」で選択されたヘアカラー選択アイコン751に対応するヘアカラー用パターン情報、描画範囲を記憶しておく。CPU70は、落書き操作が終了した時点でプレビュー表示部301,302に表示されている画像と同一となるように、それらの記憶されている情報を用い、図10又は図12のフローチャートに示した処理手順を実行して髪色を変更する合成処理を実行する。   The above-described synthesis process related to the hair color change using the hair color uniform image is also executed in step S210 in the flowchart of FIG. The CPU 70 stores hair color pattern information and drawing range corresponding to the hair color corresponding to the theme selection icon 711 selected by “one-touch makeup” or the hair color selection icon 751 selected by “hair color makeup”. Keep it. The CPU 70 uses the stored information so as to be the same as the image displayed on the preview display sections 301 and 302 when the graffiti operation is finished, and the processing shown in the flowchart of FIG. 10 or FIG. A synthesis process for changing the hair color by executing the procedure is executed.

本実施の形態においては、髪の毛の領域を対象として均一化画像を作成し、色を決めるカラー画像とソフトライト合成をしてから元の画像へ合成を行なう構成とした。しかしながら色の変更対象は髪の毛の領域に限定されない。人物被写体の一部に対応する領域として例えば、眉毛等の毛髪の部分、更には元の画像にて口紅が塗られている唇部分、チークが施されている頬部分、アイシャドウが施されている目の部分などでも、元の色を異なる他の色へ変更するために同様の処理が行なわれてもよい。   In this embodiment, a uniform image is created for a hair region, and a color image for determining a color and a soft light are combined, and then the original image is combined. However, the color change target is not limited to the hair region. As a region corresponding to a part of a human subject, for example, a portion of hair such as eyebrows, a lip portion painted with lipstick in the original image, a cheek portion subjected to teak, an eye shadow The same processing may be performed to change the original color to another different color even at the eye portion.

なお、上述のように開示された本実施の形態はすべての点で例示であって、制限的なものではないと考えられるべきである。本発明の範囲は、上記した意味ではなく、特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。   It should be understood that the embodiment disclosed above is illustrative in all respects and not restrictive. The scope of the present invention is defined by the terms of the claims, rather than the meanings described above, and is intended to include any modifications within the scope and meaning equivalent to the terms of the claims.

7 画像処理部
70 CPU(コンピュータ、プロセッサ)
71 メモリ
72 HDD
720 メイク用情報
73 グラフィックボード(第1及び第2作成手段、第1及び第2合成手段)
7P 画像処理プログラム
7 Image processing unit 70 CPU (computer, processor)
71 Memory 72 HDD
720 information for makeup 73 graphic board (first and second creation means, first and second synthesis means)
7P image processing program

Claims (10)

一連の複数の画像を取得する手段と、取得された複数の画像から撮影されている人物被写体の顔及び該顔内の器官の領域を特定する特定手段とを備え、前記人物被写体に対応する領域に対する加工処理を行なう画像処理装置において、
前記複数の画像の内の1つの画像毎に、該1つの画像内の前記人物被写体の一部に対応する領域を特定する特定手段と、
該特定手段により特定された領域に対する色を受け付ける受付手段と、
前記特定された領域内の色を、予め規定された色へ変更した均一化画像を作成する第1作成手段と、
前記受付手段にて選択された色で前記特定された領域に対応する範囲を着色した着色画像を作成する第2作成手段と、
前記均一化画像に対し、前記着色画像を合成する第1合成手段と、
合成手段により合成した後の画像を、前記1つの画像へ合成する第2合成手段と
を備えることを特徴とする画像処理装置。
An area corresponding to the person subject, comprising: means for acquiring a series of images; and specifying means for specifying a face of a human subject photographed from the acquired images and an area of an organ in the face. In an image processing apparatus that performs processing on
Specifying means for specifying an area corresponding to a part of the person subject in the one image for each one of the plurality of images;
Receiving means for receiving a color for the area specified by the specifying means;
First creating means for creating a uniform image in which the color in the specified region is changed to a predetermined color;
Second creation means for creating a colored image in which a range corresponding to the specified area is colored with the color selected by the reception means;
First combining means for combining the colored image with the uniformed image;
An image processing apparatus comprising: a second combining unit configured to combine the image combined by the combining unit into the one image.
前記特定手段は、前記人物被写体の一部として髪の毛の領域を特定し、
前記第2作成手段は、髪色の選択を受け付けて着色画像としてヘアカラー画像を作成する
ことを特徴とする請求項1に記載の画像処理装置。
The specifying means specifies a hair region as a part of the person subject,
The image processing apparatus according to claim 1, wherein the second creation unit accepts selection of a hair color and creates a hair color image as a colored image.
前記規定された色は淡い茶色である
ことを特徴とする請求項2に記載の画像処理装置。
The image processing apparatus according to claim 2, wherein the specified color is light brown.
前記規定された色は前記第2作成手段にて受け付ける色の選択肢毎に異なり、
前記第1作成手段は、
前記受付手段にて受け付けた色に対応する規定の色を決定し、
決定した色にて前記均一化画像を作成する
ことを特徴とする請求項1又は2に記載の画像処理装置。
The specified color is different for each color option received by the second creating means,
The first creation means includes
Determining a prescribed color corresponding to the color received by the receiving means;
The image processing apparatus according to claim 1, wherein the uniformized image is created with the determined color.
前記第2作成手段は、前記画像上の複数箇所を含む軌跡の入力を受け付け、
前記特定された領域内で、受け付けた軌跡に対応する範囲を前記選択された色で描画する
ことを特徴とする請求項1から4のいずれかに記載の画像処理装置。
The second creation means receives an input of a trajectory including a plurality of locations on the image,
5. The image processing apparatus according to claim 1, wherein a range corresponding to a received trajectory is drawn with the selected color within the specified region.
前記第1合成手段は、前記均一化画像上に前記着色画像を配置した場合に対応する画素同士について、画素値同士で所定の演算を行なうブレンド合成を実行する
ことを特徴とする請求項1から5のいずれかに記載の画像処理装置。
The first synthesis unit performs blend synthesis in which a predetermined calculation is performed on pixel values for pixels corresponding to the case where the colored image is arranged on the uniformized image. 6. The image processing apparatus according to any one of 5 above.
前記第1作成手段は、前記特定された領域内の色を示す色情報と、前記領域内におけるテクスチャを表わすテクスチャ情報とに分離し、分離後の色情報が示す色を前記規定された色へ変更し、
前記第1合成手段は、前記均一化画像の色変更後の色情報に基づく画像上に、前記着色画像、テクスチャ情報に基づく画像を順に重ねて合成する
ことを特徴とする請求項6に記載の画像処理装置。
The first creation means separates color information indicating a color in the specified area into texture information indicating a texture in the area, and changes the color indicated by the color information after separation to the specified color. change,
The said 1st synthetic | combination means superimposes the said color image and the image based on texture information on the image based on the color information after the color change of the said uniform image in order, and synthesize | combines them. Image processing device.
複数の人物から各々操作を受け付けるべく分別された画面上にて夫々、前記複数の画像の内の1つの画像毎に、該画像内で特定された複数の顔領域の内の1つ、及び前記複数の顔領域全ての内のいずれかにおける髪の毛の領域に対し、前記第1及び第2作成手段、並びに、第1及び第2合成手段による処理を実行する
ことを特徴とする請求項1から7のいずれかに記載の画像処理装置。
On each of the screens separated to accept operations from a plurality of persons, for each one of the plurality of images, one of a plurality of face regions specified in the image, and the The processing by the first and second creating means and the first and second synthesizing means is executed on the hair area in any of the plurality of face areas. An image processing apparatus according to any one of the above.
一連の複数の画像を取得するプロセッサが、取得した複数の画像に撮影されている人物被写体の顔及び該顔内の器官の領域を特定し、前記人物被写体に対応する領域に対する加工処理を行なう画像処理方法において、
前記複数の画像の内の1つの画像毎に、該1つの画像内の前記人物被写体の一部に対応する領域を特定し、
特定された領域に対する色を受け付け、
特定された領域内の色を、予め規定された色へ変更した均一化画像を作成し、
受け付けられた色で前記領域に対応する領域を着色した着色画像を作成し、
前記均一化画像に対し、前記着色画像を合成し、
合成後の画像を更に、前記1つの画像へ合成する
ことを特徴とする画像処理方法。
An image in which a processor that acquires a series of images specifies a face of a human subject and an area of an organ in the face captured in the acquired images, and performs processing on the area corresponding to the human subject In the processing method,
For each one of the plurality of images, an area corresponding to a part of the person subject in the one image is specified,
Accept colors for the identified area,
Create a uniform image that changes the color in the specified area to a predefined color,
Create a colored image by coloring the area corresponding to the area with the accepted color,
The colored image is synthesized with the uniform image,
An image processing method, further comprising combining the combined image into the one image.
コンピュータに、一連の複数の画像を取得させ、取得された複数の画像に対する加工処理を実行させるコンピュータプログラムにおいて、
前記コンピュータに、
前記複数の画像の内の1つの画像毎に、該1つの画像内の前記人物被写体の一部に対応する領域を特定し、
特定された領域に対する色を受け付け、
特定された領域内の色を、予め規定された色へ変更した均一化画像を作成し、
受け付けられた色で前記領域に対応する領域を着色した着色画像を作成し、
前記均一化画像に対し、前記着色画像を合成し、
合成後の画像を更に、前記1つの画像へ合成する
処理を実行させることを特徴とするコンピュータプログラム。
In a computer program for causing a computer to acquire a series of a plurality of images and executing processing on the acquired plurality of images,
In the computer,
For each one of the plurality of images, an area corresponding to a part of the person subject in the one image is specified,
Accept colors for the identified area,
Create a uniform image that changes the color in the specified area to a predefined color,
Create a colored image by coloring the area corresponding to the area with the accepted color,
The colored image is synthesized with the uniform image,
A computer program for executing a process of further combining a combined image into the one image.
JP2017072482A 2017-03-31 2017-03-31 Image processing device, image processing method, and computer program Pending JP2018173885A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017072482A JP2018173885A (en) 2017-03-31 2017-03-31 Image processing device, image processing method, and computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017072482A JP2018173885A (en) 2017-03-31 2017-03-31 Image processing device, image processing method, and computer program

Publications (1)

Publication Number Publication Date
JP2018173885A true JP2018173885A (en) 2018-11-08

Family

ID=64108715

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017072482A Pending JP2018173885A (en) 2017-03-31 2017-03-31 Image processing device, image processing method, and computer program

Country Status (1)

Country Link
JP (1) JP2018173885A (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007257165A (en) * 2006-03-22 2007-10-04 Kao Corp Makeup simulation method
JP2013243648A (en) * 2012-04-25 2013-12-05 Furyu Kk Photograph seal machine, and processing method and program for photograph seal machine
JP2015130589A (en) * 2014-01-07 2015-07-16 株式会社メイクソフトウェア image editing apparatus, image editing method, and control program
JP2016046623A (en) * 2014-08-21 2016-04-04 株式会社メイクソフトウェア Photographing game device, picture sticker creation device, photographing game device control method, and photographing game device control program
JP2016110416A (en) * 2014-12-08 2016-06-20 株式会社メイクソフトウェア Image processing device, image processing method and computer program

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007257165A (en) * 2006-03-22 2007-10-04 Kao Corp Makeup simulation method
JP2013243648A (en) * 2012-04-25 2013-12-05 Furyu Kk Photograph seal machine, and processing method and program for photograph seal machine
JP2015130589A (en) * 2014-01-07 2015-07-16 株式会社メイクソフトウェア image editing apparatus, image editing method, and control program
JP2016046623A (en) * 2014-08-21 2016-04-04 株式会社メイクソフトウェア Photographing game device, picture sticker creation device, photographing game device control method, and photographing game device control program
JP2016110416A (en) * 2014-12-08 2016-06-20 株式会社メイクソフトウェア Image processing device, image processing method and computer program

Similar Documents

Publication Publication Date Title
JP5418708B2 (en) Photo sealing machine, photo sealing machine processing method and program
JP6086112B2 (en) Image processing apparatus, image processing method, and computer program
JP4715964B2 (en) Photo sticker creation apparatus, photo sticker creation method, and program
JP2017147621A (en) Image processing apparatus, image processing method and computer program
JP6314322B2 (en) Image processing apparatus, image processing method, and computer program
JP2017120660A (en) Image processing device, image processing method and computer program
JP6614644B2 (en) Photo shooting game device, photo sticker creating device, photo shooting game device control method, and photo shooting game device control program
JP6754229B2 (en) Image processing equipment and computer programs
JP2018107515A (en) Photograph formation game machine and image processing method
JP5799381B1 (en) Photography game machine and its control program
JP6477780B2 (en) Photo sticker creation apparatus, photo sticker creation method, and photo sticker creation processing program
JP2023164461A (en) Image processing apparatus, image processing method, and program
JP7152687B2 (en) Display control device, display control method, program
JP2018173885A (en) Image processing device, image processing method, and computer program
JP6685094B2 (en) Image processing apparatus, image processing method, and computer program
JP7560711B2 (en) IMAGE PROCESSING APPARATUS, IMAGE PROCESSING METHOD, AND IMAGE PROCESSING
JP7140962B2 (en) Image processing device, control method, and program
KR20010102873A (en) Method and system for generating an avatar of real-picture using finite image templates
JP6969622B2 (en) Shooting game equipment and programs
JP2018064220A (en) Photograph preparation game machine and display method
JP7074994B2 (en) Photographing game console and image processing method
JP7121256B2 (en) PHOTO-CREATION GAME MACHINE, IMAGE PROCESSING METHOD, AND PROGRAM
JP2019186903A (en) Photo creation game machine, image display method, and program
JP7575657B2 (en) IMAGE PROCESSING APPARATUS, IMAGE PROCESSING METHOD, IMAGE PROCESSING PROGRAM, REGION SPECIFICATION MODEL, AND MODEL GENERATION METHOD
JP7293834B2 (en) Image processing device, photography device, program

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20190515

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200131

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20200131

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20201118

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210406

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210420

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20210420

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220222

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20220405