[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2024097787A - Image processing device, makeup simulation device, image processing method and program - Google Patents

Image processing device, makeup simulation device, image processing method and program Download PDF

Info

Publication number
JP2024097787A
JP2024097787A JP2024066340A JP2024066340A JP2024097787A JP 2024097787 A JP2024097787 A JP 2024097787A JP 2024066340 A JP2024066340 A JP 2024066340A JP 2024066340 A JP2024066340 A JP 2024066340A JP 2024097787 A JP2024097787 A JP 2024097787A
Authority
JP
Japan
Prior art keywords
contact
image
unit
face
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2024066340A
Other languages
Japanese (ja)
Inventor
元基 熊崎
Motoki Kumazaki
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2024066340A priority Critical patent/JP2024097787A/en
Publication of JP2024097787A publication Critical patent/JP2024097787A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

To provide an image processing device, a makeup simulation device, an image processing method, and a program capable of more realistically simulating a state of a face after makeup.SOLUTION: A display unit 15 displays a captured image in which a face of a user is photographed. A touch panel 16 displays a cosmetic image. An operation acceptance unit 140 accepts operation due to contact with a surface of the touch panel 16 by an instruction device 30. A contact position specification unit 170 specifies, after the operation acceptance unit 140 accepts the operation, if the instruction device 30 contacts with a user's face, a contact position of the instruction device 30 on the user's face. A display control unit 120 displays a makeup image in which a part corresponding to the specified contact position in the captured image is processed based on at least one of a first value related to the contact with the surface of the touch panel 16 by the instruction device 30 and a second value related to the contact with the user's face by the instruction device 30.SELECTED DRAWING: Figure 4

Description

本発明は、画像処理装置、メイクシミュレーション装置、画像処理方法及びプログラムに関する。 The present invention relates to an image processing device, a makeup simulation device, an image processing method, and a program.

ユーザが化粧品によりメイクアップ(以下、「メイク」と呼ぶ。)した後の状態をシミュレーションするメイクシミュレーションの技術が知られている。例えば、特許文献1は、人物の顔画像にメイクパーツを重畳して表示装置に表示させるメイクシミュレーション装置を開示している。 There is known a makeup simulation technique that simulates the appearance of a user after applying makeup using cosmetics (hereinafter referred to as "makeup"). For example, Patent Document 1 discloses a makeup simulation device that displays makeup parts superimposed on a face image of a person on a display device.

国際公開第2018/159231号International Publication No. 2018/159231

実際のメイクにおいて化粧ブラシ等のメイク道具を用いて顔に化粧品を塗布する場合、メイク道具に付着した化粧品の量や、顔に対するメイク道具の接触のさせ方等に応じて、顔に対する化粧品の塗布のされ方は変化する。そのため、メイクシミュレーションによってメイク後の顔の状態をシミュレーションしても、実際のメイクとは異なる仕上がりになることがある。このような状況のもと、メイク道具を用いて顔に化粧品を塗布する場合におけるメイク後の顔の状態をよりリアルにシミュレーションすることが求められている。 When applying makeup to the face using makeup tools such as makeup brushes in real makeup applications, the way in which the makeup is applied to the face varies depending on factors such as the amount of makeup attached to the makeup tool and the way in which the makeup tool is brought into contact with the face. As a result, even if the state of the face after makeup is applied is simulated using a makeup simulation, the finished product may differ from the actual makeup. Under these circumstances, there is a demand for a more realistic simulation of the state of the face after makeup is applied to the face using makeup tools.

本発明は、以上のような課題を解決するためのものであり、メイク後の顔の状態をよりリアルにシミュレーションすることが可能な画像処理装置、メイクシミュレーション装置、画像処理方法及びプログラムを提供することを目的とする。 The present invention is intended to solve the above problems, and aims to provide an image processing device, a makeup simulation device, an image processing method, and a program that can more realistically simulate the state of a face after makeup is applied.

上記目的を達成するため、本発明に係る画像処理装置は、
ユーザの顔が撮像された撮像画像を表示する第1の表示領域と、化粧品を表現する化粧品画像を表示する第2の表示領域とを有する表示部と、
前記第2の表示領域に前記化粧品画像が表示されている時に、指示体が前記第2の表示領域の表面に接触することによる操作を受け付ける操作受付部と、
前記操作受付部が前記操作を受け付けた後において、前記指示体が前記ユーザの顔に接触した場合、前記ユーザの顔における前記指示体が接触した接触位置を特定する接触位置特定部と、
前記撮像画像における、前記接触位置特定部により特定された前記接触位置に対応する部分が、前記指示体による前記第2の表示領域の表面への接触に関する第1の値と、前記指示体による前記ユーザの顔への接触に関する第2の値と、のうちの少なくとも一方に基づいて加工されたメイク画像を前記第1の表示領域に表示する表示制御部と、
を備えることを特徴とする。
In order to achieve the above object, the image processing device according to the present invention comprises:
a display unit having a first display area for displaying a captured image of a user's face and a second display area for displaying a cosmetic product image representing the cosmetic product;
an operation receiving unit that receives an operation when a pointer comes into contact with a surface of the second display area while the cosmetic image is displayed in the second display area;
a contact position identification unit that identifies a contact position on the user's face that is contacted by the indicator when the indicator comes into contact with the user's face after the operation acceptance unit accepts the operation;
a display control unit that displays, in the first display area, a makeup image in which a portion of the captured image corresponding to the contact position identified by the contact position identification unit is processed based on at least one of a first value related to a contact of the indicator with a surface of the second display area and a second value related to a contact of the indicator with a face of the user; and
The present invention is characterized by comprising:

本発明によれば、メイク後の顔の状態をよりリアルにシミュレーションすることができる。 The present invention allows for a more realistic simulation of the state of the face after makeup is applied.

本発明の実施形態1に係るメイクシミュレーション装置の外観模式図である。1 is a schematic diagram illustrating an external appearance of a makeup simulation apparatus according to a first embodiment of the present invention. 実施形態1に係る画像処理装置のハードウェア構成を示すブロック図である。1 is a block diagram showing a hardware configuration of an image processing apparatus according to a first embodiment. 実施形態1に係る指示装置のハードウェア構成を示すブロック図である。1 is a block diagram showing a hardware configuration of an instruction device according to a first embodiment. 実施形態1に係るメイクシミュレーション装置の機能的な構成を示すブロック図である。1 is a block diagram showing a functional configuration of a makeup simulation apparatus according to a first embodiment. 実施形態1に係る画像処理装置をユーザが使用している状態を示す図である。1 is a diagram showing a state in which a user is using an image processing apparatus according to a first embodiment. 実施形態1に係る画像処理装置に撮像画像と化粧品画像とが表示された例を示す図である。5A and 5B are diagrams illustrating an example in which a captured image and a cosmetic image are displayed on the image processing device according to the first embodiment. 実施形態1においてユーザが指示装置をタッチパネルに接触させた例を示す図である。5A to 5C are diagrams illustrating an example in which a user touches a pointing device to a touch panel in the first embodiment. 実施形態1においてユーザが指示装置を顔に接触させた例を示す図である。1A to 1C are diagrams illustrating an example in which a user brings the pointing device into contact with a face in the first embodiment 実施形態1においてユーザが指示装置を振る動作を行った例を示す図である。11A to 11C are diagrams illustrating an example in which a user performs an action of shaking the pointing device in the first embodiment. 実施形態1における保持データの例を示す図である。FIG. 4 is a diagram showing an example of retained data in the first embodiment. 実施形態1においてユーザが指示装置を顔に接触させた場合における撮像画像の表示例を示す図である。5A to 5C are diagrams showing an example of a display of a captured image when a user brings the pointing device into contact with a face in the first embodiment. 実施形態1においてメイク画像が表示された第1の例を示す図である。FIG. 11 is a diagram showing a first example in which a makeup image is displayed in the first embodiment. 実施形態1においてメイク画像が表示された第2の例を示す図である。FIG. 13 is a diagram showing a second example in which a makeup image is displayed in the first embodiment. 実施形態1に係る指示装置によって実行される処理の流れを示すフローチャートである。5 is a flowchart showing the flow of a process executed by the instruction device according to the first embodiment. 実施形態1に係る画像処理装置によって実行される処理の流れを示すフローチャートである。5 is a flowchart showing the flow of processing executed by the image processing apparatus according to the first embodiment. 本発明の実施形態2に係る画像処理装置の機能的な構成を示すブロック図である。FIG. 11 is a block diagram showing a functional configuration of an image processing device according to a second embodiment of the present invention.

以下、本発明の実施形態について、図面を参照して説明する。なお、図中同一又は相当する部分には同一符号を付す。 Embodiments of the present invention will be described below with reference to the drawings. Note that the same or corresponding parts in the drawings are given the same reference numerals.

(実施形態1)
図1に、本発明の実施形態1に係るメイクシミュレーション装置1の外観を模式的に示す。メイクシミュレーション装置1は、ユーザが化粧品によりメイクした後の状態をコンピュータ上でシミュレーションする装置である。メイクシミュレーション装置1を用いることで、ユーザは、本物の化粧品を用いることなく気軽にメイクの練習をすることや、メイク後の状態を事前に確認することができる。
(Embodiment 1)
1 shows a schematic external view of a makeup simulation device 1 according to a first embodiment of the present invention. The makeup simulation device 1 is a device that simulates, on a computer, the state after a user applies makeup using cosmetics. By using the makeup simulation device 1, a user can easily practice applying makeup without using real cosmetics and can check in advance what the user's state after applying makeup will be.

図1に示すように、メイクシミュレーション装置1は、画像処理装置10と、指示装置30と、を備える。画像処理装置10は、ユーザの顔が撮像された撮像画像に対して、メイク後の状態を表す画像をシミュレーションにより生成して表示する装置である。画像処理装置10は、メイク用のパレットを模擬した形状をしている。 As shown in FIG. 1, the makeup simulation device 1 includes an image processing device 10 and an instruction device 30. The image processing device 10 is a device that generates and displays an image representing the state after makeup is applied by simulating an image of a captured image of a user's face. The image processing device 10 has a shape that mimics a makeup palette.

図2に、画像処理装置10のハードウェア構成を示す。画像処理装置10は、制御部11と、記憶部12と、操作部13と、撮像部14と、表示部15と、タッチパネル16と、通信部17と、を備える。 Figure 2 shows the hardware configuration of the image processing device 10. The image processing device 10 includes a control unit 11, a storage unit 12, an operation unit 13, an imaging unit 14, a display unit 15, a touch panel 16, and a communication unit 17.

制御部11は、CPU(Central Processing Unit)、ROM(Read Only Memory)及びRAM(Random Access Memory)を備える。CPUは、例えばマイクロプロセッサ等を備え、様々な処理及び演算を実行する中央演算処理部として機能する。制御部11において、CPUは、システムバスを介して画像処理装置10の各部に接続されており、ROMに記憶されている制御プログラムを読み出して、RAMをワークメモリとして用いながら、画像処理装置10全体の動作を制御する。 The control unit 11 includes a CPU (Central Processing Unit), a ROM (Read Only Memory), and a RAM (Random Access Memory). The CPU includes, for example, a microprocessor, and functions as a central processing unit that executes various processes and calculations. In the control unit 11, the CPU is connected to each part of the image processing device 10 via a system bus, and reads out the control programs stored in the ROM and controls the operation of the entire image processing device 10 while using the RAM as a work memory.

また、制御部11は、DSP(Digital Signal Processor)、GPU(Graphics Processing Unit)等のような画像処理用のプロセッサと、処理される画像を一時的に保存するバッファメモリと、を備える。制御部11は、画像処理用のプロセッサにより、周知の画像処理の手法を用いて、撮像部14により得られた撮像画像を処理する。 The control unit 11 also includes an image processing processor, such as a DSP (Digital Signal Processor) or a GPU (Graphics Processing Unit), and a buffer memory for temporarily storing the image to be processed. The control unit 11 uses the image processing processor to process the captured image obtained by the imaging unit 14 using a well-known image processing method.

記憶部12は、フラッシュメモリ、ハードディスク等の不揮発性メモリを備える。記憶部12は、制御部11が各種処理を行うために使用するプログラム及びデータを記憶する。また、記憶部12は、制御部11が各種処理を行うことにより生成又は取得するデータを記憶する。 The storage unit 12 includes a non-volatile memory such as a flash memory or a hard disk. The storage unit 12 stores programs and data used by the control unit 11 to perform various processes. The storage unit 12 also stores data generated or acquired by the control unit 11 performing various processes.

操作部13は、入力キー、ボタン、スイッチ等を備え、ユーザから操作指示を受け付ける。 The operation unit 13 includes input keys, buttons, switches, etc., and accepts operation instructions from the user.

撮像部14は、いわゆるカメラであって、被写体から射出された光を集光するレンズと、集光した光を受けて被写体の画像を取得するCCD(Charge Coupled Device)、CMOS(Complementary Metal Oxide Semiconductor)等の撮像素子と、撮像素子から電気信号として送られた撮像データをデジタルデータに変換するA/D(Analog/Digital)変換器と、を備える。撮像部14は、図1に示すように、表示部15の近傍に配置されており、表示部15を見ながら画像処理装置10を使用しているユーザの顔を撮像する。 The imaging unit 14 is a so-called camera, and includes a lens that collects light emitted from a subject, an imaging element such as a CCD (Charge Coupled Device) or a CMOS (Complementary Metal Oxide Semiconductor) that receives the collected light and obtains an image of the subject, and an A/D (Analog/Digital) converter that converts the imaging data sent from the imaging element as an electrical signal into digital data. As shown in FIG. 1, the imaging unit 14 is disposed near the display unit 15, and captures an image of the face of a user who is using the image processing device 10 while looking at the display unit 15.

図2に戻って、表示部15は、液晶ディスプレイ、有機EL(Electro Luminescence)ディスプレイ等の表示デバイスである。表示部15は、図1に示すように、画像処理装置10の上側の面に配置されており、撮像部14の撮像により得られた撮像画像を表示する。表示部15は、本発明における「第1の表示領域」として機能する。 Returning to FIG. 2, the display unit 15 is a display device such as a liquid crystal display or an organic EL (Electro Luminescence) display. As shown in FIG. 1, the display unit 15 is disposed on the upper surface of the image processing device 10, and displays the captured image obtained by the imaging unit 14. The display unit 15 functions as the "first display area" in the present invention.

タッチパネル16は、タッチスクリーン等とも呼ばれ、画像を表示する表示装置と位置の入力を受け付ける位置入力装置とが互いに重畳して配置されたデバイスである。タッチパネル16は、図1に示すように、画像処理装置10の下側の面に配置されており、メイクシミュレーションにおいてユーザの顔に仮想的に塗布される化粧品を表現する化粧品画像を表示する。タッチパネル16は、本発明における「第2の表示領域」として機能する。また、タッチパネル16は、表示装置に画像が表示されている時に、タッチパネル16の表面に対する接触による操作を位置入力装置により受け付ける。なお、表示部15とタッチパネル16とが本発明における「表示部」として機能する。 The touch panel 16, also called a touch screen, is a device in which a display device for displaying an image and a position input device for accepting position input are arranged superimposed on each other. As shown in FIG. 1, the touch panel 16 is arranged on the lower surface of the image processing device 10, and displays a cosmetic image representing the cosmetic to be virtually applied to the user's face in the makeup simulation. The touch panel 16 functions as a "second display area" in the present invention. In addition, when an image is displayed on the display device, the touch panel 16 accepts an operation by touching the surface of the touch panel 16 through the position input device. The display unit 15 and the touch panel 16 function as a "display unit" in the present invention.

通信部17は、画像処理装置10が指示装置30を含む外部の機器と通信するためのインタフェースを備える。通信部17は、例えば、無線LAN(Local Area Network)、Bluetooth(登録商標)等の無線通信、又はUSB(Universal Serial Bus)ケーブル等の有線通信を介して外部の機器と通信する。 The communication unit 17 has an interface for the image processing device 10 to communicate with external devices including the instruction device 30. The communication unit 17 communicates with external devices via wireless communication such as a wireless LAN (Local Area Network) or Bluetooth (registered trademark), or wired communication such as a USB (Universal Serial Bus) cable.

図1に戻って、指示装置30は、メイクシミュレーションにおいて化粧品を選択し、選択した化粧品を仮想的に塗布する顔の位置を指示するための装置である。指示装置30は、スティック状をしており、いわゆる化粧筆(化粧ブラシ、メイクブラシ)のような、顔に化粧品を塗布するために用いられる塗布ツールを模擬する部材である。ユーザは、指示装置30を手で把持し、画像処理装置10に表示された化粧品画像及びユーザの顔を、指示装置30の端部で指し示すようにして使用する。指示装置30は、本発明における「指示体」として機能する。 Returning to FIG. 1, the pointing device 30 is a device for selecting cosmetics in a makeup simulation and indicating the position on the face where the selected cosmetics is virtually applied. The pointing device 30 is stick-shaped and is a component that simulates an application tool used to apply cosmetics to the face, such as a makeup brush. The user holds the pointing device 30 in their hand and uses it by pointing the end of the pointing device 30 at the cosmetic image and the user's face displayed on the image processing device 10. The pointing device 30 functions as an "indicator" in the present invention.

指示装置30は、図示を省略するが、タッチパネル16の表面やユーザの顔等に接触する側の先端部に、取り外し可能なアタッチメント(取り付け部材)を備える。アタッチメントは、仮想的に化粧品を付着させて塗布するための部品である。アタッチメントとして、ペン状、ブラシ状等の様々な形状のものを指示装置30に取り付けることができる。指示装置30に取り付けられるアタッチメントに応じて、メイクシミュレーションにおける化粧品の塗布の態様が変化する。ユーザは、指示装置30に所望の形状のアタッチメントを付け替えてメイクをシミュレーションすることができる。 Although not shown, the instruction device 30 has a removable attachment (mounting member) at the tip of the side that comes into contact with the surface of the touch panel 16, the user's face, etc. The attachment is a part for virtually applying and applying cosmetics. Attachments of various shapes, such as pen-shaped or brush-shaped, can be attached to the instruction device 30. The manner in which the cosmetics are applied in the makeup simulation changes depending on the attachment attached to the instruction device 30. The user can simulate makeup by attaching an attachment of the desired shape to the instruction device 30.

図3に、指示装置30のハードウェア構成を示す。指示装置30は、制御部31と、記憶部32と、種別識別部33と、接触検知部34と、加速度検知部35と、通信部37と、を備える。 Figure 3 shows the hardware configuration of the instruction device 30. The instruction device 30 includes a control unit 31, a memory unit 32, a type identification unit 33, a contact detection unit 34, an acceleration detection unit 35, and a communication unit 37.

制御部31は、CPU、ROM及びRAMを備える。CPUは、例えばマイクロプロセッサ等を備え、様々な処理及び演算を実行する中央演算処理部として機能する。制御部11において、CPUは、システムバスを介して指示装置30の各部に接続されており、ROMに記憶されている制御プログラムを読み出して、RAMをワークメモリとして用いながら、指示装置30全体の動作を制御する。 The control unit 31 includes a CPU, a ROM, and a RAM. The CPU includes, for example, a microprocessor, and functions as a central processing unit that executes various processes and calculations. In the control unit 11, the CPU is connected to each part of the indication device 30 via a system bus, reads out the control programs stored in the ROM, and controls the operation of the entire indication device 30 while using the RAM as a work memory.

記憶部32は、フラッシュメモリ、ハードディスク等の不揮発性メモリを備える。記憶部32は、制御部31が各種処理を行うために使用するプログラム及びデータを記憶する。また、記憶部32は、制御部31が各種処理を行うことにより生成又は取得するデータを記憶する。 The storage unit 32 includes a non-volatile memory such as a flash memory or a hard disk. The storage unit 32 stores programs and data used by the control unit 31 to perform various processes. The storage unit 32 also stores data generated or acquired by the control unit 31 as a result of performing various processes.

種別識別部33は、指示装置30に取り付けられたアタッチメントの種別を識別する。例えば、指示装置30は、アタッチメントが取り付けられた場合に押圧されるスイッチであって、種別が異なるアタッチメントが取り付けられると押圧のされ方が異なるスイッチを備える。種別識別部33は、アタッチメントが取り付けられた場合におけるスイッチの押圧のされ方によって、取り付けられたアタッチメントの種別を識別する。 The type identification unit 33 identifies the type of attachment attached to the instruction device 30. For example, the instruction device 30 includes a switch that is pressed when an attachment is attached, and that is pressed differently when an attachment of a different type is attached. The type identification unit 33 identifies the type of the attached attachment based on the way the switch is pressed when an attachment is attached.

接触検知部34は、指示装置30の端部に対する接触を検知する。接触検知部34は、静電容量式、歪みゲージ式等の周知の方式で圧力を検知する圧力センサを備える。接触検知部34は、指示装置30に取り付けられたアタッチメントに、タッチパネル16の表面やユーザの顔等の物体が接触した場合、その接触によってアタッチメントに加えられる圧力を圧力センサにより検知する。これにより、接触検知部34は、指示装置30の端部に対する接触を検知する。 The contact detection unit 34 detects contact with the end of the pointing device 30. The contact detection unit 34 is equipped with a pressure sensor that detects pressure using well-known methods such as capacitance and strain gauge. When an object such as the surface of the touch panel 16 or the user's face comes into contact with an attachment attached to the pointing device 30, the contact detection unit 34 detects the pressure applied to the attachment by the contact using the pressure sensor. In this way, the contact detection unit 34 detects contact with the end of the pointing device 30.

加速度検知部35は、機械式、振動式、半導体式等の周知の方式で加速度を検知する加速度センサを備えており、指示装置30の全体に加えられる加速度を検知する。加速度検知部35は、例えば指示装置30がユーザに把持された状態で振り払われた場合のように、指示装置30に加速度が加えられた場合に、その加速度を検知する。 The acceleration detection unit 35 is equipped with an acceleration sensor that detects acceleration using known methods such as mechanical, vibration, and semiconductor, and detects the acceleration applied to the entire pointing device 30. The acceleration detection unit 35 detects the acceleration when acceleration is applied to the pointing device 30, for example, when the pointing device 30 is swung away while being held by a user.

通信部37は、指示装置30が画像処理装置10と通信するためのインタフェースを備える。通信部37は、例えば、無線LAN、Bluetooth(登録商標)等の無線通信、又はUSBケーブル等の有線通信を介して画像処理装置10と通信する。 The communication unit 37 has an interface for the instruction device 30 to communicate with the image processing device 10. The communication unit 37 communicates with the image processing device 10, for example, via wireless communication such as a wireless LAN or Bluetooth (registered trademark), or via wired communication such as a USB cable.

次に、図4を参照して、メイクシミュレーション装置1の機能的な構成について説明する。図4に示すように、画像処理装置10の制御部11は、機能的に、画像取得部110と、表示制御部120と、顔検出部130と、操作受付部140、情報取得部150と、保持量設定部160と、接触位置特定部170と、を備える。制御部11において、CPUがROMに記憶されたプログラムをRAMに読み出して実行することにより、これら各部として機能する。 Next, the functional configuration of the makeup simulation device 1 will be described with reference to FIG. 4. As shown in FIG. 4, the control unit 11 of the image processing device 10 functionally comprises an image acquisition unit 110, a display control unit 120, a face detection unit 130, an operation reception unit 140, an information acquisition unit 150, a retention amount setting unit 160, and a contact position identification unit 170. In the control unit 11, the CPU reads out a program stored in the ROM into the RAM and executes it, thereby functioning as each of these units.

また、指示装置30は、機能的に、情報送信部310を備える。制御部31において、CPUがROMに記憶されたプログラムをRAMに読み出して実行することにより、情報送信部310として機能する。 Functionally, the instruction device 30 also includes an information transmission unit 310. In the control unit 31, the CPU reads out a program stored in the ROM into the RAM and executes it, thereby functioning as the information transmission unit 310.

画像処理装置10において、画像取得部110は、撮像部14による撮像により得られた撮像画像を取得する。図5に、ユーザUがメイクシミュレーション装置1を用いてメイクのシミュレーションを行うために、画像処理装置10の表示部15に向かい合っている状態を示す。撮像部14は、図5において破線で示す視野の内側、具体的には表示部15に向かい合っているユーザUの顔を含む範囲を撮像する。 In the image processing device 10, the image acquisition unit 110 acquires an image obtained by imaging using the imaging unit 14. FIG. 5 shows a state in which a user U faces the display unit 15 of the image processing device 10 to perform a makeup simulation using the makeup simulation device 1. The imaging unit 14 captures an image of the inside of the field of view indicated by the dashed line in FIG. 5, specifically, a range including the face of the user U facing the display unit 15.

このように、撮像部14の設置位置及び光軸の向きは、ユーザUが表示部15に向かい合っている場合にユーザUの顔が撮像部14の視野に含まれるように、調整されている。そのため、ユーザUが表示部15に向かい合っている場合、画像取得部110は、ユーザUの顔が撮像された撮像画像を取得する。画像取得部110は、画像処理装置10がユーザUにより使用されている間、このような撮像部14によりユーザUの顔が撮像された撮像画像を継続的に取得する。画像取得部110は、制御部11が撮像部14等と協働することにより実現される。 In this way, the installation position and the direction of the optical axis of the imaging unit 14 are adjusted so that the face of the user U is included in the field of view of the imaging unit 14 when the user U faces the display unit 15. Therefore, when the user U faces the display unit 15, the image acquisition unit 110 acquires an image in which the face of the user U is captured. While the image processing device 10 is being used by the user U, the image acquisition unit 110 continuously acquires an image in which the face of the user U is captured by such an imaging unit 14. The image acquisition unit 110 is realized by the control unit 11 cooperating with the imaging unit 14, etc.

表示制御部120は、画像取得部110により取得された撮像画像を、第1の表示領域である表示部15に表示する。例えば図5に示したように撮像部14の視野内にユーザUの顔が含まれている場合、表示制御部120は、ユーザの顔が撮像された撮像画像を表示部15に表示する。これにより、表示制御部120は、表示部15に向かい合っているユーザUの顔の様子をリアルタイムで表示する。このように撮像されたユーザの顔画像が表示部15に表示されることで、ユーザは、表示部15に表示された自分の顔画像を鏡に映った顔のように見ながら、メイクをシミュレーションすることができる。 The display control unit 120 displays the captured image acquired by the image acquisition unit 110 on the display unit 15, which is the first display area. For example, as shown in FIG. 5, when the face of the user U is included within the field of view of the imaging unit 14, the display control unit 120 displays the captured image of the user's face on the display unit 15. As a result, the display control unit 120 displays in real time the appearance of the face of the user U facing the display unit 15. By displaying the captured image of the user's face on the display unit 15 in this manner, the user can simulate makeup application while looking at the image of their own face displayed on the display unit 15 as if they were looking at their face in a mirror.

更に、表示制御部120は、化粧品を表現する化粧品画像を、第2の表示領域であるタッチパネル16に表示する。化粧品画像は、メイクシミュレーションにおいてユーザUの顔に仮想的に塗布される化粧品を視覚的に表現する画像である。表示制御部120は、化粧品画像として、複数の化粧品を表現する画像を表示する。 Furthermore, the display control unit 120 displays a cosmetic image representing the cosmetic product on the touch panel 16, which is the second display area. The cosmetic image is an image that visually represents the cosmetic product that is virtually applied to the face of the user U in the makeup simulation. The display control unit 120 displays images representing multiple cosmetic products as the cosmetic product images.

具体的に説明すると、表示制御部120は、例えば図6に示すように、タッチパネル16上の表示領域を縦方向及び横方向に複数に区切ることで、複数の部分領域に分割する。そして、表示制御部120は、化粧品画像として、複数の部分領域のそれぞれに異なる化粧品を表現する画像を表示する。 Specifically, as shown in FIG. 6, for example, the display control unit 120 divides the display area on the touch panel 16 into a plurality of partial areas by dividing the area vertically and horizontally. Then, the display control unit 120 displays, as the cosmetic image, an image that represents a different cosmetic product in each of the plurality of partial areas.

ここで、複数の部分領域のそれぞれに表示される化粧品は、色、光沢、質感等の少なくとも1つの特徴が異なる化粧品であって、ユーザUの顔に仮想的に塗布してメイク後の状態をシミュレーションすることが可能な化粧品である。色、光沢、質感等が異なる複数の化粧品を表現する化粧品画像がタッチパネル16に表示されることにより、ユーザUは、複数の化粧品のうちからメイクシミュレーションを望む化粧品を選択して使用することができる。 Here, the cosmetics displayed in each of the multiple partial regions are cosmetics that differ in at least one characteristic, such as color, gloss, texture, etc., and can be virtually applied to the face of user U to simulate the state after makeup is applied. By displaying cosmetic images representing multiple cosmetics with different colors, gloss, textures, etc. on touch panel 16, user U can select and use the cosmetic for which he/she wishes to perform a makeup simulation from among the multiple cosmetics.

このような複数の化粧品を表現する化粧品画像は、記憶部12に予め記憶されている。表示制御部120は、画像処理装置10の使用時に化粧品画像を記憶部12から読み出してタッチパネル16に表示する。 Cosmetic images representing multiple such cosmetics are pre-stored in the storage unit 12. When the image processing device 10 is in use, the display control unit 120 reads out the cosmetic images from the storage unit 12 and displays them on the touch panel 16.

このようにユーザUの顔が撮像された撮像画像がリアルタイムで表示部15に表示され、且つ、化粧品画像がタッチパネル16に表示されることにより、ユーザは、画像処理装置10を、化粧用のパレットのように取り扱うことができる。表示制御部120は、制御部11が表示部15、タッチパネル16等と協働することにより実現される。 In this way, the captured image of the user U's face is displayed in real time on the display unit 15, and the cosmetic image is displayed on the touch panel 16, allowing the user to use the image processing device 10 like a makeup palette. The display control unit 120 is realized by the control unit 11 working in cooperation with the display unit 15, the touch panel 16, etc.

図4に戻って、顔検出部130は、画像取得部110により取得された撮像画像のうちから顔画像を検出する。具体的に説明すると、顔検出部130は、画像取得部110により撮像画像が取得されると、周知の顔認識の手法を用いて、撮像画像に目、鼻、眉等の顔部位が含まれているか否かを判定する。判定の結果、撮像画像に顔部位が含まれている場合、顔検出部130は、撮像画像における顔部位の座標及びサイズを検出する。 Returning to FIG. 4, the face detection unit 130 detects a facial image from the captured image acquired by the image acquisition unit 110. Specifically, when the captured image is acquired by the image acquisition unit 110, the face detection unit 130 uses a well-known face recognition technique to determine whether or not the captured image contains facial features such as eyes, nose, eyebrows, etc. If the result of the determination is that the captured image contains facial features, the face detection unit 130 detects the coordinates and size of the facial features in the captured image.

また、顔検出部130は、検出した顔部位に基づいて顔の輪郭部分を識別し、顔全体の領域を検出する。そして、顔検出部130は、撮像画像における顔全体の領域を、仮想的に化粧品が塗布される対象となるバーチャルメイク領域として決定する。顔検出部130は、制御部11が記憶部12等と協働することにより実現される。 Furthermore, the face detection unit 130 identifies the contour of the face based on the detected facial features, and detects the area of the entire face. The face detection unit 130 then determines the area of the entire face in the captured image as a virtual makeup area to which cosmetics will be virtually applied. The face detection unit 130 is realized by the control unit 11 working in cooperation with the memory unit 12, etc.

操作受付部140は、タッチパネル16に化粧品画像が表示されている時に、指示装置30がタッチパネル16の表面に接触することによる操作を受け付ける。図7に、指示装置30の先端部がタッチパネル16の表面に接触した例を示す。ユーザUは、メイクシミュレーション装置1を用いてメイク後の状態をシミュレーションする場合、図7に示すように、指示装置30を手で把持し、その先端部を化粧品画像が表示されているタッチパネル16の表面に接触させる。 The operation reception unit 140 receives an operation by the pointing device 30 touching the surface of the touch panel 16 when a cosmetic image is displayed on the touch panel 16. FIG. 7 shows an example of the tip of the pointing device 30 touching the surface of the touch panel 16. When a user U uses the makeup simulation device 1 to simulate a state after makeup application, as shown in FIG. 7, the user holds the pointing device 30 in his/her hand and touches its tip to the surface of the touch panel 16 on which the cosmetic image is displayed.

このような指示装置30をタッチパネル16の表面に接触させる動作は、化粧用のパレットに収納されている化粧品を化粧筆の先端部に保持(付着)させる動作を模擬したものである。操作受付部140は、指示装置30によるタッチパネル16の表面に対する接触を検知することにより、ユーザからの操作を受け付ける。 The action of touching such an instruction device 30 to the surface of the touch panel 16 simulates the action of holding (applying) cosmetics stored in a makeup palette to the tip of a makeup brush. The operation reception unit 140 detects the contact of the instruction device 30 with the surface of the touch panel 16, and thereby receives operations from the user.

より詳細には、操作受付部140は、指示装置30がタッチパネル16の表面に接触すると、タッチパネル16の位置入力装置の機能により、その接触の位置座標を検知する。そして、操作受付部140は、タッチパネル16に化粧品画像として表示されている複数の化粧品のうちの、検知された位置座標に表示されている化粧品を、ユーザUの顔に仮想的に塗布される化粧品として選択する。 More specifically, when the instruction device 30 touches the surface of the touch panel 16, the operation reception unit 140 detects the position coordinates of the contact using the function of the position input device of the touch panel 16. Then, the operation reception unit 140 selects the cosmetic product displayed at the detected position coordinates from among the multiple cosmetics products displayed as cosmetic product images on the touch panel 16 as the cosmetic product to be virtually applied to the face of the user U.

このように、ユーザUは、指示装置30を化粧筆のように用いてタッチパネル16の表面に接触させることにより、複数の化粧品のうちから、ユーザUの顔に仮想的に塗布する化粧品を選択する。操作受付部140は、制御部11がタッチパネル16等と協働することにより実現される。 In this way, the user U uses the instruction device 30 like a makeup brush to touch the surface of the touch panel 16, thereby selecting from among a number of cosmetics a cosmetic to virtually apply to the user U's face. The operation reception unit 140 is realized by the control unit 11 working in cooperation with the touch panel 16, etc.

図4に戻って、指示装置30において、情報送信部310は、通信部37を介して画像処理装置10と通信することにより、種別情報、接触情報及び加速度情報を画像処理装置10に送信する。情報送信部310は、制御部31が通信部37等と協働することにより実現される。 Returning to FIG. 4, in the instruction device 30, the information transmission unit 310 transmits type information, contact information, and acceleration information to the image processing device 10 by communicating with the image processing device 10 via the communication unit 37. The information transmission unit 310 is realized by the control unit 31 cooperating with the communication unit 37, etc.

第1に、情報送信部310は、指示装置30に取り付けられたアタッチメントの種別を示す種別情報を画像処理装置10に送信する。例えば、指示装置30に取り付けられているアタッチメントをブラシ状のものからペン状のものに交換する場合のように、新たなアタッチメントが指示装置30に取り付けられた場合、種別識別部33は、そのアタッチメントの種別を識別する。このように指示装置30に新たなアタッチメントが取り付けられた場合、情報送信部310は、種別識別部33により識別された新たなアタッチメントの種別を示す種別情報を画像処理装置10に送信する。 First, the information transmission unit 310 transmits type information indicating the type of the attachment attached to the instruction device 30 to the image processing device 10. For example, when a new attachment is attached to the instruction device 30, such as when replacing a brush-shaped attachment attached to the instruction device 30 with a pen-shaped attachment, the type identification unit 33 identifies the type of the attachment. When a new attachment is attached to the instruction device 30 in this manner, the information transmission unit 310 transmits type information indicating the type of the new attachment identified by the type identification unit 33 to the image processing device 10.

第2に、情報送信部310は、接触検知部34により検知された接触の強さを示す接触情報を画像処理装置10に送信する。ここで、接触の強さは、その接触の際に指示装置30の先端部に加えられた圧力の大きさに相当し、指示装置30の先端部に設けられている圧力センサにより検知される。情報送信部310は、接触検知部34により検知された指示装置30の先端部に対する接触の強さを示す接触情報を、予め定められた一定の時間間隔で画像処理装置10に送信する。 Secondly, the information transmission unit 310 transmits contact information indicating the strength of the contact detected by the contact detection unit 34 to the image processing device 10. Here, the strength of the contact corresponds to the amount of pressure applied to the tip of the pointing device 30 at the time of the contact, and is detected by a pressure sensor provided at the tip of the pointing device 30. The information transmission unit 310 transmits the contact information indicating the strength of the contact with the tip of the pointing device 30 detected by the contact detection unit 34 to the image processing device 10 at a predetermined regular time interval.

より詳細には、接触検知部34により接触が検知される場合として、主に2つの場合が挙げられる。第1の場合は、例えば図7に示したように、ユーザUが、タッチパネル16に表示された化粧品画像から化粧品を選択するために、指示装置30の先端部をタッチパネル16の表面に接触させる場合である。第2の場合は、図8に示すように、ユーザUが、選択した化粧品を顔に仮想的に塗布するために、指示装置30の先端部をユーザUの顔に接触させる場合である。ユーザUは、指示装置30の先端部をタッチパネル16の表面に接触させた後、図8に示すように、化粧筆を顔に当てて化粧品を塗布する動作を模擬するために、指示装置30の先端部を顔に接触させる。 More specifically, there are mainly two cases in which contact is detected by the contact detection unit 34. In the first case, as shown in FIG. 7, for example, the user U contacts the tip of the pointing device 30 with the surface of the touch panel 16 in order to select a cosmetic product from the cosmetic product image displayed on the touch panel 16. In the second case, as shown in FIG. 8, the user U contacts the tip of the pointing device 30 with the face of the user U in order to virtually apply the selected cosmetic product to the face. After contacting the tip of the pointing device 30 with the surface of the touch panel 16, the user U contacts the tip of the pointing device 30 with the face in order to simulate the action of applying the cosmetic product by placing a makeup brush on the face, as shown in FIG. 8.

以下では、第1の場合における接触を「第1の接触」と呼び、第2の場合における接触を「第2の接触」と呼ぶ。第1の接触において接触検知部34により検知された接触の強さは、本発明における「第1の値」の一例であり、第2の接触において接触検知部34により検知された接触の強さは、本発明における「第2の値」の一例である。 Hereinafter, the contact in the first case will be referred to as the "first contact," and the contact in the second case will be referred to as the "second contact." The strength of the contact detected by the contact detection unit 34 in the first contact is an example of the "first value" in the present invention, and the strength of the contact detected by the contact detection unit 34 in the second contact is an example of the "second value" in the present invention.

第3に、情報送信部310は、加速度検知部35により検知された加速度を示す加速度情報を画像処理装置10に送信する。具体的に説明すると、加速度検知部35は、指示装置30の全体に対して加えられた加速度を検知する。 Thirdly, the information transmission unit 310 transmits acceleration information indicating the acceleration detected by the acceleration detection unit 35 to the image processing device 10. Specifically, the acceleration detection unit 35 detects the acceleration applied to the entire pointing device 30.

ここで、指示装置30の全体に対して加速度が加えられる場合とは、具体的には図9に示すように、ユーザUが指示装置30に仮想的に保持されている化粧品の保持量を減らすために、手で把持している指示装置30を空中で振る動作を行った場合である。このような動作は、化粧筆の先端部に付着した化粧品を空中に飛散させる動作を模擬したものである。情報送信部310は、このように指示装置30の全体に加えられた加速度を示す加速度情報を、予め定められた一定の時間間隔で画像処理装置10に送信する。 Here, a case where acceleration is applied to the entire pointing device 30 refers specifically to a case where the user U shakes the pointing device 30 held in his/her hand in the air in order to reduce the amount of makeup virtually held by the pointing device 30, as shown in FIG. 9. This type of action simulates the action of scattering makeup attached to the tip of a makeup brush into the air. The information transmitting unit 310 transmits acceleration information indicating the acceleration thus applied to the entire pointing device 30 to the image processing device 10 at a predetermined fixed time interval.

画像処理装置10において、情報取得部150は、通信部17を介して指示装置30と通信し、情報送信部310により送信された種別情報、接触情報及び加速度情報を取得する。情報取得部150は、制御部11が通信部17等と協働することにより実現される。 In the image processing device 10, the information acquisition unit 150 communicates with the instruction device 30 via the communication unit 17, and acquires the type information, contact information, and acceleration information transmitted by the information transmission unit 310. The information acquisition unit 150 is realized by the control unit 11 working in cooperation with the communication unit 17, etc.

保持量設定部160は、指示装置30に仮想的に保持される化粧品の保持量を、第1の接触及び第2の接触における接触の強さに基づいて設定する。指示装置30に仮想的に保持される化粧品の保持量は、記憶部12に保持データ21として記憶されている。保持量設定部160は、制御部11が記憶部12等と協働することにより実現される。 The retention amount setting unit 160 sets the retention amount of the cosmetic virtually held in the indicating device 30 based on the strength of the contact in the first contact and the second contact. The retention amount of the cosmetic virtually held in the indicating device 30 is stored in the memory unit 12 as retention data 21. The retention amount setting unit 160 is realized by the control unit 11 working in cooperation with the memory unit 12, etc.

図10に、記憶部12に記憶されている保持データ21の例を示す。図10に示すように、保持データ21は、指示装置30の先端部に保持されている化粧品の種類と、その化粧品の保持量(付着量)と、指示装置30に取り付けられているアタッチメントの種別と、を示すデータである。 Figure 10 shows an example of the retained data 21 stored in the memory unit 12. As shown in Figure 10, the retained data 21 is data indicating the type of cosmetic product held at the tip of the indicating device 30, the amount of the cosmetic product held (amount of applied cosmetic product), and the type of attachment attached to the indicating device 30.

保持量設定部160は、操作受付部140により操作が受け付けられた場合、保持データ21に記憶されている化粧品の種類を更新する。例えば、操作受付部140により受け付けられた操作により、タッチパネル16に表示された複数の化粧品のうちから「化粧品A」の種類の化粧品が選択された場合、保持量設定部160は、保持データ21に記憶されている化粧品の種類を「化粧品A」に更新する。 When an operation is accepted by the operation acceptance unit 140, the retention amount setting unit 160 updates the type of cosmetic product stored in the retention data 21. For example, when a cosmetic product of the type "Cosmetic A" is selected from among multiple cosmetics displayed on the touch panel 16 by an operation accepted by the operation acceptance unit 140, the retention amount setting unit 160 updates the type of cosmetic product stored in the retention data 21 to "Cosmetic A."

更に、保持量設定部160は、情報取得部150により指示装置30から取得された種別情報、接触情報又は加速度情報に基づいて、保持データ21を更新する。 Furthermore, the retention amount setting unit 160 updates the retention data 21 based on the type information, contact information, or acceleration information acquired from the indicator device 30 by the information acquisition unit 150.

第1に、保持量設定部160は、情報取得部150が指示装置30から種別情報を取得すると、保持データ21に記憶されているアタッチメントの種別を、取得された種別情報に示される種別に更新する。例えば指示装置30に「ブラシB」の種別のアタッチメントが取り付けられた場合、保持量設定部160は、保持データ21に記憶されているアタッチメントの種別を「ブラシB」に更新する。これにより、指示装置30に新たなアタッチメントが取り付けられた場合、保持データ21に記憶されているアタッチメントの種別が最新の情報に更新される。 First, when the information acquisition unit 150 acquires type information from the instruction device 30, the retention amount setting unit 160 updates the attachment type stored in the retention data 21 to the type indicated in the acquired type information. For example, when an attachment of type "brush B" is attached to the instruction device 30, the retention amount setting unit 160 updates the attachment type stored in the retention data 21 to "brush B". As a result, when a new attachment is attached to the instruction device 30, the attachment type stored in the retention data 21 is updated to the latest information.

第2に、保持量設定部160は、第1の接触又は第2の接触の際に情報取得部150が指示装置30から接触情報を取得すると、取得された接触情報に基づいて、保持データ21に記憶されている化粧品の保持量を設定する。具体的に説明すると、保持量設定部160は、指示装置30がタッチパネル16の表面に接触した時に情報取得部150により取得された接触情報により示される接触の強さに応じて、保持データ21に記憶されている保持量を設定する。また、保持量設定部160は、指示装置30がユーザUの顔に接触した時に情報取得部150により取得された接触情報により示される接触の強さに応じて、保持データ21に記憶されている保持量を設定する。 Secondly, when the information acquisition unit 150 acquires contact information from the instruction device 30 at the time of the first contact or the second contact, the retention amount setting unit 160 sets the retention amount of the cosmetic stored in the retention data 21 based on the acquired contact information. Specifically, the retention amount setting unit 160 sets the retention amount stored in the retention data 21 according to the strength of contact indicated by the contact information acquired by the information acquisition unit 150 when the instruction device 30 contacts the surface of the touch panel 16. In addition, the retention amount setting unit 160 sets the retention amount stored in the retention data 21 according to the strength of contact indicated by the contact information acquired by the information acquisition unit 150 when the instruction device 30 contacts the face of the user U.

一般的に、ユーザUがパレットから化粧品を付着させるために化粧筆をパレットに接触させた場合、その接触が強いほど、化粧筆により多くの量の化粧品が付着される。このような特徴を模擬するため、保持量設定部160は、指示装置30がタッチパネル16の表面に接触した場合、情報取得部150により取得された接触情報により示される接触の強さがより大きいほど、保持量をより大きく増加させる。 Generally, when a user U touches a makeup brush to a palette to apply cosmetics from the palette, the stronger the contact, the greater the amount of cosmetics that is applied to the makeup brush. To simulate this characteristic, when the instruction device 30 touches the surface of the touch panel 16, the retention amount setting unit 160 increases the retention amount by a greater amount the greater the contact strength indicated by the contact information acquired by the information acquisition unit 150.

同様に、ユーザUが顔に化粧品を塗布するために化粧筆を顔に接触させた場合、その接触が強いほど、ユーザUの顔により多くの量の化粧品が塗布される。このような特徴を模擬するため、保持量設定部160は、指示装置30がユーザUの顔に接触した場合、情報取得部150により取得された接触情報に示される接触の強さがより大きいほど、保持量をより大きく減少させる。 Similarly, when user U touches a makeup brush to his/her face to apply makeup to the face, the stronger the contact, the greater the amount of makeup applied to user U's face. In order to mimic such a characteristic, when the instruction device 30 touches user U's face, the retention amount setting unit 160 reduces the retention amount to a greater extent the greater the contact strength indicated in the contact information acquired by the information acquisition unit 150.

第3に、保持量設定部160は、情報取得部150が指示装置30から加速度情報を取得すると、取得された加速度情報に基づいて、保持データ21に記憶されている化粧品の保持量を更新する。具体的に説明すると、保持量設定部160は、情報取得部150により取得された加速度情報に示される加速度が予め定められた閾値よりも大きいか否かを判定する。判定の結果、取得された加速度情報に示される加速度が閾値よりも大きい場合、保持量設定部160は、保持データ21に記憶されている化粧品の保持量を減少させる。その際、保持量設定部160は、取得された加速度情報に示される加速度がより大きいほど、保持データ21に記憶されている化粧品の保持量をより大きく減少させる。このように加速度に応じて化粧品の保持量を減少させることにより、ユーザUは、図9に示したように指示装置30を振るという自然な動作で化粧品の保持量を調整することができる。 Thirdly, when the information acquisition unit 150 acquires acceleration information from the instruction device 30, the retention amount setting unit 160 updates the retention amount of cosmetics stored in the retention data 21 based on the acquired acceleration information. Specifically, the retention amount setting unit 160 determines whether the acceleration indicated in the acceleration information acquired by the information acquisition unit 150 is greater than a predetermined threshold value. If the result of the determination is that the acceleration indicated in the acquired acceleration information is greater than the threshold value, the retention amount setting unit 160 reduces the retention amount of cosmetics stored in the retention data 21. At that time, the retention amount setting unit 160 reduces the retention amount of cosmetics stored in the retention data 21 to a greater extent the greater the acceleration indicated in the acquired acceleration information. By reducing the retention amount of cosmetics in accordance with the acceleration in this manner, the user U can adjust the retention amount of cosmetics with a natural action of shaking the instruction device 30 as shown in FIG. 9.

図4に戻って、接触位置特定部170は、図7に示したように指示装置30がタッチパネル16の表面に接触することによる操作が受け付けられた後において、図8に示したように指示装置30がユーザUの顔に接触した場合、画像取得部110により取得された撮像画像に基づいて、ユーザUの顔における指示装置30が接触した接触位置を特定する。接触位置特定部170は、制御部11が記憶部12等と協働することにより実現される。 Returning to FIG. 4, after an operation is accepted in which the instruction device 30 touches the surface of the touch panel 16 as shown in FIG. 7, when the instruction device 30 touches the face of the user U as shown in FIG. 8, the contact position identification unit 170 identifies the contact position on the face of the user U where the instruction device 30 has touched, based on the captured image acquired by the image acquisition unit 110. The contact position identification unit 170 is realized by the control unit 11 working in cooperation with the memory unit 12, etc.

具体的に説明すると、接触位置特定部170は、第1に、ユーザUが指示装置30を顔に近付けたか否かを、画像取得部110により取得された撮像画像に基づいて判定する。ユーザUが指示装置30を顔に近付けた場合、撮像部14の視野内に指示装置30が入るため、図11に示すように、撮像画像に指示装置30の画像が含まれる。接触位置特定部170は、撮像画像における、顔検出部130により検出されたユーザUの顔領域(すなわちバーチャルメイク領域)の内側に、指示装置30の画像が含まれているか否かを判定する。 To be more specific, the contact position identification unit 170 first determines whether or not the user U has brought the pointing device 30 closer to his/her face based on the captured image acquired by the image acquisition unit 110. When the user U brings the pointing device 30 closer to his/her face, the pointing device 30 comes within the field of view of the imaging unit 14, and so an image of the pointing device 30 is included in the captured image, as shown in FIG. 11. The contact position identification unit 170 determines whether or not an image of the pointing device 30 is included inside the face area of the user U (i.e., the virtual makeup area) detected by the face detection unit 130 in the captured image.

ユーザUの顔領域の内側に指示装置30の画像が含まれている場合、第2に、接触位置特定部170は、情報取得部150が指示装置30から取得した接触情報に基づいて、ユーザUの顔領域の内側に指示装置30の画像が含まれている時に接触検知部34により接触が検知されたか否かを判定する。そして、接触位置特定部170は、ユーザUの顔領域の内側に指示装置30の画像が含まれている時に接触検知部34により接触が検知された場合、指示装置30の先端部がユーザUの顔に接触したと判定する。このように、接触位置特定部170は、画像取得部110により取得された撮像画像と、情報取得部150により取得された接触情報と、に基づいて、指示装置30がユーザUの顔に接触したか否かを判定する。 When the image of the pointing device 30 is included inside the face region of the user U, secondly, the contact position identification unit 170 determines whether or not contact is detected by the contact detection unit 34 when the image of the pointing device 30 is included inside the face region of the user U, based on the contact information acquired by the information acquisition unit 150 from the pointing device 30. Then, when contact is detected by the contact detection unit 34 when the image of the pointing device 30 is included inside the face region of the user U, the contact position identification unit 170 determines that the tip of the pointing device 30 has contacted the face of the user U. In this way, the contact position identification unit 170 determines whether or not the pointing device 30 has contacted the face of the user U, based on the captured image acquired by the image acquisition unit 110 and the contact information acquired by the information acquisition unit 150.

指示装置30がユーザUの顔に接触したと判定した場合、接触位置特定部170は、撮像画像におけるその接触位置を特定する。具体的に説明すると、接触位置特定部170は、撮像画像に撮像された指示装置30の先端部の座標を接触位置として特定する。例えばユーザUが目の周囲に指示装置30の先端部を接触させた場合、接触位置特定部170は、目の周囲の位置を接触位置として特定する。これにより、接触位置特定部170は、指示装置30の先端部がユーザUの顔のどの位置に接触したかを特定し、化粧品が仮想的に塗布される位置を決定する。 When it is determined that the pointing device 30 has come into contact with the face of the user U, the contact position identification unit 170 identifies the contact position in the captured image. Specifically, the contact position identification unit 170 identifies the coordinates of the tip of the pointing device 30 captured in the captured image as the contact position. For example, when the user U touches the tip of the pointing device 30 around the eye, the contact position identification unit 170 identifies the position around the eye as the contact position. In this way, the contact position identification unit 170 identifies which position on the face of the user U the tip of the pointing device 30 has come into contact with, and determines the position where the cosmetic product will be virtually applied.

表示制御部120は、表示部15に表示された撮像画像における、接触位置特定部170により特定された接触位置に対応する部分が加工されたメイク画像を表示する。ここで、メイク画像とは、ユーザUの顔のメイク後の状態をシミュレーションするための画像であって、化粧品がユーザUの顔に実際に塗布された場合にどのように塗布されるかを表現する画像である。 The display control unit 120 displays a makeup image in which a portion of the captured image displayed on the display unit 15 that corresponds to the contact position identified by the contact position identification unit 170 has been processed. Here, the makeup image is an image for simulating the state of the user U's face after makeup is applied, and is an image that represents how the cosmetic product will be applied when it is actually applied to the user U's face.

具体的には、メイク画像は、ユーザUの顔が撮像された撮像画像における、接触位置特定部170により特定された接触位置に、化粧品がユーザUの顔に塗布された状態を表現するメイクパーツが重ねられることにより加工された画像である。例えばユーザUが目の周囲に指示装置30の先端部を接触させた場合、表示制御部120は、図12に示すように、メイク画像として、ユーザUの目の周囲にメイクパーツ41が重ねられることにより加工された画像を表示する。なお、メイク画像におけるメイクパーツ41以外の部分は、撮像画像と同じであって、撮像画像から加工が加えられていない。このようなメイク画像により、表示制御部120は、メイク後のユーザUの顔の状態を表現する。 Specifically, the makeup image is an image that has been processed by superimposing makeup parts that represent the state in which cosmetics have been applied to the face of the user U on the contact position identified by the contact position identification unit 170 in the captured image in which the face of the user U has been captured. For example, when the user U touches the tip of the instruction device 30 around the eyes, the display control unit 120 displays an image that has been processed by superimposing makeup parts 41 around the eyes of the user U as a makeup image, as shown in FIG. 12. Note that the parts of the makeup image other than the makeup parts 41 are the same as the captured image, and no processing has been added to the captured image. With such a makeup image, the display control unit 120 represents the state of the face of the user U after makeup has been applied.

表示制御部120は、操作受付部140により受け付けられた操作により複数の化粧品のうちから選択された化粧品に対応するメイクパーツ41を撮像画像に重ねる。言い換えると、表示制御部120は、ユーザUにより選択された化粧品の色、光沢、質感等の特徴と同様の特徴を有するメイクパーツ41を、ユーザUの顔画像に重ねて表示する。これにより、表示制御部120は、ユーザUにより選択された化粧品が実際に塗布された状態を忠実に表現する。 The display control unit 120 superimposes makeup parts 41 corresponding to a cosmetic selected from among multiple cosmetics by an operation received by the operation receiving unit 140 onto the captured image. In other words, the display control unit 120 displays makeup parts 41 having similar characteristics to the color, gloss, texture, and other characteristics of the cosmetic selected by the user U superimposed on the facial image of the user U. In this way, the display control unit 120 faithfully represents the state in which the cosmetic selected by the user U is actually applied.

更に、表示制御部120は、メイク画像として、画像取得部110により取得された撮像画像における、接触位置特定部170により特定された接触位置に対応する部分が、第1の接触における接触の強さと第2の接触における接触の強さとに基づいて加工された画像を表示部15に表示する。ここで、撮像画像における接触位置に対応する部分は、撮像画像に含まれるユーザUの顔画像内における、指示装置30の先端部が接触した位置に相当する部分である。例えば、撮像画像における接触位置に対応する部分は、指示装置30の先端部がユーザUの右目の上側に接触した場合には、撮像画像内におけるユーザUの右目の上側の部分に相当し、指示装置30の先端部がユーザUの右側の頬に接触した場合には、撮像画像内におけるユーザUの右側の頬の部分に相当する。 Furthermore, the display control unit 120 displays, as a makeup image, on the display unit 15, an image in which a portion of the captured image acquired by the image acquisition unit 110 corresponding to the contact position identified by the contact position identification unit 170 is processed based on the contact strength of the first contact and the contact strength of the second contact. Here, the portion corresponding to the contact position in the captured image is a portion in the face image of the user U included in the captured image that corresponds to the position contacted by the tip of the pointing device 30. For example, when the tip of the pointing device 30 contacts the upper side of the right eye of the user U, the portion corresponding to the contact position in the captured image corresponds to the upper part of the right eye of the user U in the captured image, and when the tip of the pointing device 30 contacts the right cheek of the user U, the portion corresponds to the right cheek of the user U in the captured image.

表示制御部120は、このような撮像画像に含まれるユーザUの顔画像における接触位置に対応する部分を、指示装置30によるタッチパネル16の表面及びユーザUの顔への接触の強さに基づいて加工することにより、メイク画像を生成する。具体的に説明すると、表示制御部120は、指示装置30によるタッチパネル16の表面及びユーザUの顔への接触の強さに基づいて、メイクパーツの濃度を変化させる。ここで、メイクパーツの濃度は、メイクパーツが表示部15に表示された際における色の濃さを意味する。 The display control unit 120 processes the portion of the face image of the user U included in such a captured image that corresponds to the contact position, based on the strength of the contact made by the instruction device 30 to the surface of the touch panel 16 and the face of the user U, to generate a makeup image. Specifically, the display control unit 120 changes the density of the makeup parts based on the strength of the contact made by the instruction device 30 to the surface of the touch panel 16 and the face of the user U. Here, the density of the makeup parts refers to the color intensity of the makeup parts when they are displayed on the display unit 15.

具体的に図13に、図12よりも高い濃度のメイクパーツ42が、ユーザUの顔が撮像された撮像画像に重ねて表示された例を示す。一般的に、ユーザUが顔に化粧品を塗布するために化粧筆を顔に接触させた場合、その接触が強いほど、ユーザUの顔により多くの量の化粧品が塗布される。このような特徴を模擬するため、表示制御部120は、指示装置30がユーザUの顔に接触した時に情報取得部150が指示装置30から取得した接触情報を参照し、接触情報により示される接触の強さがより大きいほど、メイクパーツの濃度をより高くする。 Specifically, FIG. 13 shows an example in which makeup parts 42 with a higher density than that in FIG. 12 are superimposed on a captured image of the face of user U. Generally, when user U touches a makeup brush to his or her face to apply makeup, the stronger the contact, the more makeup is applied to user U's face. To simulate this characteristic, the display control unit 120 refers to the contact information acquired by the information acquisition unit 150 from the instruction device 30 when the instruction device 30 touches user U's face, and increases the density of the makeup parts the greater the strength of the contact indicated by the contact information.

更には、接触の強さ等が同じであっても、化粧筆に保持されている化粧品の量が大きいほど、ユーザUの顔により多くの量の化粧品が塗布される。そのため、表示制御部120は、保持データ21に記憶されている保持量を参照して、保持量がより大きいほど、メイクパーツの濃度をより高くする。 Furthermore, even if the strength of contact, etc. is the same, the greater the amount of makeup held on the makeup brush, the greater the amount of makeup applied to the face of user U. Therefore, the display control unit 120 refers to the amount held stored in the held data 21, and increases the concentration of the makeup parts the greater the amount held.

このように、表示制御部120は、指示装置30に仮想的に保持されている化粧品の保持量と、指示装置30によるユーザUの顔への接触の強さと、のそれぞれがより大きくなると、図13に示すように、図12に示したメイクパーツ41よりも濃度が高いメイクパーツ42が撮像画像に重ねられたメイク画像を表示する。これにより、タッチパネル16の表面又はユーザUの顔に対する接触の強さによって実際のメイクとは異なる仕上がりになることを抑制することができる。そのため、メイク後の状態をよりリアルにシミュレーションすることができる。 In this way, when the amount of makeup virtually held in the instruction device 30 and the strength of the contact of the instruction device 30 with the face of the user U become larger, the display control unit 120 displays a makeup image in which makeup parts 42 with a higher density than the makeup parts 41 shown in FIG. 12 are superimposed on the captured image, as shown in FIG. 13. This makes it possible to prevent the finish from differing from the actual makeup depending on the strength of the contact on the surface of the touch panel 16 or the face of the user U. This makes it possible to more realistically simulate the state after makeup is applied.

以上のように構成されるメイクシミュレーション装置1において実行される処理の流れについて、図14及び図15を参照して説明する。 The flow of processing executed in the makeup simulation device 1 configured as above will be described with reference to Figures 14 and 15.

まず、図14に示すフローチャートを参照して、指示装置30において実行される処理の流れについて説明する。図14に示す処理は、指示装置30の電源が投入されており、指示装置30が正常な処理が実行可能な状態において、随時実行される。 First, the flow of processing executed by the indicating device 30 will be described with reference to the flowchart shown in FIG. 14. The processing shown in FIG. 14 is executed whenever the indicating device 30 is powered on and is in a state in which the indicating device 30 is capable of executing normal processing.

図14に示す処理を開始すると、指示装置30において、制御部31は、第1に、指示装置30にアタッチメントが新たに取り付けられたか否かを判定する(ステップS11)。具体的に説明すると、制御部31は、例えば指示装置30に取り付けられているアタッチメントが交換された場合のように、アタッチメントの種別が新たに種別識別部33により識別されたか否かを判定する。 When the process shown in FIG. 14 is started, the control unit 31 in the instruction device 30 first determines whether or not a new attachment has been attached to the instruction device 30 (step S11). Specifically, the control unit 31 determines whether or not a new type of attachment has been identified by the type identification unit 33, for example, when an attachment attached to the instruction device 30 has been replaced.

アタッチメントが新たに取り付けられた場合(ステップS11;YES)、制御部31は、情報送信部310として機能し、種別識別部33により識別されたアタッチメントの種別を示す種別情報を画像処理装置10に送信する(ステップS12)。一方で、アタッチメントが新たに取り付けられていない場合(ステップS11;NO)、制御部31は、ステップS12の処理をスキップする。 If a new attachment has been attached (step S11; YES), the control unit 31 functions as the information transmission unit 310 and transmits type information indicating the type of the attachment identified by the type identification unit 33 to the image processing device 10 (step S12). On the other hand, if a new attachment has not been attached (step S11; NO), the control unit 31 skips the processing of step S12.

第2に、制御部31は、接触検知部34により検知された接触に関する接触情報の送信タイミングが到来したか否か判定する(ステップS13)。接触情報の送信タイミングは、予め定められた一定の時間間隔で繰り返し到来する。 Second, the control unit 31 determines whether or not the timing for transmitting contact information regarding the contact detected by the contact detection unit 34 has arrived (step S13). The timing for transmitting the contact information arrives repeatedly at a predetermined fixed time interval.

接触情報の送信タイミングが到来した場合(ステップS13;YES)、制御部31は、情報送信部310として機能し、接触検知部34により検知された指示装置30の先端部に対する接触の強さを示す接触情報を画像処理装置10に送信する(ステップS14)。例えば、ユーザUが化粧品を選択するために、指示装置30の先端部をタッチパネル16の表面に接触させた場合、制御部31は、その接触の強さを示す接触情報を画像処理装置10に送信する。或いは、ユーザUが化粧品を顔に仮想的に塗布するために、指示装置30の先端部をユーザUの顔に接触させた場合、制御部31は、その接触の強さを示す接触情報を画像処理装置10に送信する。なお、制御部31は、接触検知部34により検知された接触の強さの値がゼロであっても、すなわち指示装置30の先端部に何も接触していない場合であっても、送信タイミングが到来した時点における接触の強さの値を示す接触情報を画像処理装置10に送信する。一方で、接触情報の送信タイミングが到来していない場合(ステップS13;NO)、制御部31は、ステップS14の処理をスキップする。 When the timing for transmitting the contact information arrives (step S13; YES), the control unit 31 functions as the information transmission unit 310 and transmits contact information indicating the strength of the contact with the tip of the instruction device 30 detected by the contact detection unit 34 to the image processing device 10 (step S14). For example, when the user U touches the tip of the instruction device 30 to the surface of the touch panel 16 to select a cosmetic product, the control unit 31 transmits contact information indicating the strength of the contact to the image processing device 10. Alternatively, when the user U touches the tip of the instruction device 30 to the face of the user U to virtually apply the cosmetic product to the face, the control unit 31 transmits contact information indicating the strength of the contact to the image processing device 10. Note that even if the value of the contact strength detected by the contact detection unit 34 is zero, that is, even if nothing is touching the tip of the instruction device 30, the control unit 31 transmits contact information indicating the value of the contact strength at the time when the transmission timing arrives to the image processing device 10. On the other hand, if the timing to transmit contact information has not arrived (step S13; NO), the control unit 31 skips the process of step S14.

第3に、制御部31は、加速度検知部35により検知された加速度を示す加速度情報の送信タイミングが到来したか否かを判定する(ステップS15)。加速度情報の送信タイミングは、予め定められた一定の時間間隔で繰り返し到来する。ここで、加速度情報の送信タイミングは、接触情報の送信タイミングと同じであっても良いし、異なっていても良い。 Thirdly, the control unit 31 determines whether or not the timing for transmitting acceleration information indicating the acceleration detected by the acceleration detection unit 35 has arrived (step S15). The timing for transmitting the acceleration information arrives repeatedly at a predetermined fixed time interval. Here, the timing for transmitting the acceleration information may be the same as or different from the timing for transmitting the contact information.

加速度情報の送信タイミングが到来した場合(ステップS15;YES)、制御部31は、情報送信部310として機能し、加速度検知部35により検知された加速度を示す加速度情報を画像処理装置10に送信する(ステップS16)。ここで、制御部31は、加速度検知部35により検知された加速度の値がゼロであっても、すなわち指示装置30に加速度が加えられていない場合であっても、送信タイミングが到来した時点における加速度の値を示す加速度情報を画像処理装置10に送信する。一方で、加速度情報の送信タイミングが到来していない場合(ステップS15;NO)、制御部31は、ステップS16の処理をスキップする。 When the timing to transmit the acceleration information has arrived (step S15; YES), the control unit 31 functions as the information transmission unit 310 and transmits acceleration information indicating the acceleration detected by the acceleration detection unit 35 to the image processing device 10 (step S16). Here, even if the value of the acceleration detected by the acceleration detection unit 35 is zero, i.e., even if no acceleration is being applied to the instruction device 30, the control unit 31 transmits acceleration information indicating the value of the acceleration at the time when the transmission timing has arrived to the image processing device 10. On the other hand, if the timing to transmit the acceleration information has not arrived (step S15; NO), the control unit 31 skips the processing of step S16.

その後、制御部31は、処理をステップS11に戻し、ステップS11からステップS16の処理を繰り返す。すなわち、制御部31は、アタッチメントが新たに取り付けられた場合に種別情報を送信し、接触を検知した場合に接触情報を送信し、加速度を検知した場合に加速度情報を送信する処理を繰り返す。 Then, the control unit 31 returns the process to step S11 and repeats the processes from step S11 to step S16. That is, the control unit 31 repeats the process of transmitting type information when a new attachment is attached, transmitting contact information when contact is detected, and transmitting acceleration information when acceleration is detected.

次に、図15に示すフローチャートを参照して、画像処理装置10において実行される処理について説明する。図15に示す処理は、画像処理装置10の電源が投入されて正常な処理が可能な状態になると、開始する。 Next, the process executed in the image processing device 10 will be described with reference to the flowchart shown in FIG. 15. The process shown in FIG. 15 starts when the image processing device 10 is powered on and enters a state in which normal processing is possible.

なお、画像処理装置10において、制御部11は、図15に示す処理を実行している間、情報取得部150として機能し、指示装置30から種別情報、接触情報又は加速度情報が送信される毎に、送信された種別情報、接触情報又は加速度情報を取得する。 In addition, in the image processing device 10, the control unit 11 functions as an information acquisition unit 150 while executing the process shown in FIG. 15, and acquires the transmitted type information, contact information, or acceleration information each time the type information, contact information, or acceleration information is transmitted from the instruction device 30.

図15に示す処理を開始すると、画像処理装置10において、制御部11は、表示制御部120として機能し、タッチパネル16に化粧品画像を表示する(ステップS101)。具体的に説明すると、制御部11は、例えば図6に示したように、タッチパネル16上に区分けされた複数の領域にそれぞれ異なる種類の化粧品を表現する化粧品画像をタッチパネル16に表示する。 When the process shown in FIG. 15 is started, in the image processing device 10, the control unit 11 functions as the display control unit 120 and displays a cosmetic image on the touch panel 16 (step S101). Specifically, the control unit 11 displays, on the touch panel 16, a cosmetic image that represents a different type of cosmetic in a plurality of areas divided on the touch panel 16, for example as shown in FIG. 6.

タッチパネル16に化粧品画像を表示すると、制御部11は、画像取得部110として機能し、撮像を開始する(ステップS102)。具体的に説明すると、制御部11は、撮像部14による撮像を開始し、表示部15の正面の空間の様子を表す撮像画像を取得する。例えば図5に示したようにユーザUが表示部15の方を向いている場合、制御部11は、ユーザUの顔が撮像された撮像画像を取得する。 When the cosmetic image is displayed on the touch panel 16, the control unit 11 functions as the image acquisition unit 110 and starts capturing an image (step S102). Specifically, the control unit 11 starts capturing an image using the imaging unit 14, and acquires an image showing the state of the space in front of the display unit 15. For example, as shown in FIG. 5, when the user U faces the display unit 15, the control unit 11 acquires an image showing the face of the user U.

撮像を開始すると、制御部11は、表示制御部120として機能し、撮像により得られた撮像画像を表示部15に表示する(ステップS103)。具体的に説明すると、制御部11は、例えば図6に示したように、表示部15に向かい合っているユーザUの顔画像を含む撮像画像を表示部15に表示する。 When imaging starts, the control unit 11 functions as the display control unit 120 and displays the captured image obtained by imaging on the display unit 15 (step S103). To be more specific, the control unit 11 displays on the display unit 15 a captured image including a facial image of the user U facing the display unit 15, for example, as shown in FIG. 6.

撮像画像を表示すると、制御部11は、タッチパネル16の表面に対する接触を検知したか否かを判定する(ステップS104)。例えば図7に示したように、ユーザUは、タッチパネル16に表示された化粧品画像のうちから化粧品を選択するために、指示装置30の先端部をタッチパネル16の表面に接触させる。制御部11は、このような指示装置30によるタッチパネル16の表面に対する接触の有無を判定する。 When the captured image is displayed, the control unit 11 determines whether or not contact with the surface of the touch panel 16 has been detected (step S104). For example, as shown in FIG. 7, the user U touches the tip of the pointing device 30 to the surface of the touch panel 16 in order to select a cosmetic product from among the cosmetic product images displayed on the touch panel 16. The control unit 11 determines whether or not such contact with the surface of the touch panel 16 has been made by the pointing device 30.

タッチパネル16の表面に対する接触を検知した場合(ステップS104;YES)、制御部11は、操作受付部140として機能し、化粧品を選択する(ステップS105)。具体的に説明すると、制御部11は、タッチパネル16に表示されている複数の化粧品のうちから、ステップS104で検知された接触の位置に表示されている化粧品を、メイクシミュレーションに用いられる化粧品として選択する。 When contact with the surface of the touch panel 16 is detected (step S104; YES), the control unit 11 functions as the operation reception unit 140 and selects a cosmetic product (step S105). Specifically, the control unit 11 selects, from among the multiple cosmetics products displayed on the touch panel 16, the cosmetic product displayed at the position of the contact detected in step S104 as the cosmetic product to be used in the makeup simulation.

化粧品を選択すると、制御部11は、保持量設定部160として機能し、指示装置30に仮想的に保持される化粧品の保持量を算出する(ステップS106)。具体的に説明すると、ステップS104で指示装置30によるタッチパネル16の表面に対する接触が検知された際、指示装置30でも、接触検知部34によりその接触が検知される。制御部11は、ステップS104で指示装置30によるタッチパネル16の表面に対する接触が検知された時に指示装置30から送信された接触情報により示される接触の強さに応じて、指示装置30に仮想的に保持される化粧品の保持量を算出する。 When the cosmetic product is selected, the control unit 11 functions as a retention amount setting unit 160 and calculates the retention amount of the cosmetic product virtually held in the instruction device 30 (step S106). Specifically, when contact with the surface of the touch panel 16 by the instruction device 30 is detected in step S104, the contact is also detected in the instruction device 30 by the contact detection unit 34. The control unit 11 calculates the retention amount of the cosmetic product virtually held in the instruction device 30 according to the strength of contact indicated by the contact information transmitted from the instruction device 30 when contact with the surface of the touch panel 16 by the instruction device 30 is detected in step S104.

保持量を算出すると、制御部11は、保持データ21を更新する(ステップS107)。具体的に説明すると、制御部11は、保持データ21に記憶されている化粧品の種類を、ステップS105で選択された化粧品の種類に更新する。また、制御部11は、保持データ21に記憶されている化粧品の保持量を、ステップS106で算出した保持量に更新する。 After calculating the retained amount, the control unit 11 updates the retained data 21 (step S107). Specifically, the control unit 11 updates the type of cosmetic product stored in the retained data 21 to the type of cosmetic product selected in step S105. The control unit 11 also updates the retained amount of cosmetic product stored in the retained data 21 to the retained amount calculated in step S106.

これに対して、ステップS104でタッチパネル16の表面に対する接触を検知していない場合(ステップS104;NO)、制御部11は、ステップS105~S107の処理をスキップする。 On the other hand, if no contact with the surface of the touch panel 16 is detected in step S104 (step S104; NO), the control unit 11 skips the processing of steps S105 to S107.

次に、制御部11は、顔検出部130として機能し、撮像画像から顔画像を検出する(ステップS108)。具体的に説明すると、制御部11は、周知の顔認識の手法を用いて、撮像部14により得られた撮像画像のうちから、ユーザUの目、鼻、眉等の顔部位、及び顔全体の領域を検出する。そして、制御部11は、撮像画像における顔全体の領域をバーチャルメイク領域として決定する。 Next, the control unit 11 functions as the face detection unit 130 and detects a face image from the captured image (step S108). Specifically, the control unit 11 uses a well-known face recognition technique to detect facial features such as the eyes, nose, eyebrows, etc. of the user U, as well as the entire face area, from the captured image obtained by the imaging unit 14. The control unit 11 then determines the entire face area in the captured image as the virtual makeup area.

顔画像を検出すると、制御部11は、指示装置30がユーザUの顔に接触したか否かを判定する(ステップS109)。具体的に説明すると、制御部11は、ステップS108で検出された顔領域の内側に指示装置30の画像が含まれ、且つ、その際に指示装置30から送信された接触情報に基づいて接触検知部34が接触を検知したと判定された場合に、指示装置30がユーザの顔に接触したと判定する。 When the face image is detected, the control unit 11 determines whether the pointing device 30 has contacted the face of the user U (step S109). Specifically, the control unit 11 determines that the pointing device 30 has contacted the user's face when the image of the pointing device 30 is included inside the face area detected in step S108 and the contact detection unit 34 has detected contact based on the contact information transmitted from the pointing device 30 at that time.

指示装置30がユーザUの顔に接触していない場合(ステップS109;NO)、制御部11は、処理をステップS103に戻す。すなわち、制御部11は、指示装置30によるユーザUの顔に対する接触を検知するまで、ステップS103~S108の処理を繰り返す。 If the pointing device 30 is not in contact with the face of the user U (step S109; NO), the control unit 11 returns the process to step S103. That is, the control unit 11 repeats the processes of steps S103 to S108 until it detects contact of the pointing device 30 with the face of the user U.

これに対して、指示装置30がユーザUの顔に接触した場合(ステップS109;YES)、制御部11は、接触位置特定部170として機能し、撮像画像における接触位置を特定する(ステップS110)。具体的に説明すると、制御部11は、指示装置30においてユーザUの顔への接触が検知されたタイミングでの、撮像画像における指示装置30の先端部の座標を、接触位置として特定する。 On the other hand, if the pointing device 30 touches the face of the user U (step S109; YES), the control unit 11 functions as the contact position identification unit 170 and identifies the contact position in the captured image (step S110). Specifically, the control unit 11 identifies, as the contact position, the coordinates of the tip of the pointing device 30 in the captured image at the time when the pointing device 30 detects contact with the face of the user U.

接触位置を特定すると、制御部11は、メイクパーツの濃度を設定する(ステップS111)。具体的に説明すると、制御部11は、保持データ21に記憶されている保持量と、ステップS109において指示装置30から取得した接触情報により示される接触の強さと、のそれぞれがより大きいほど、メイクパーツの濃度をより高く設定する。 Once the contact position is identified, the control unit 11 sets the density of the makeup parts (step S111). Specifically, the control unit 11 sets the density of the makeup parts higher the greater the retention amount stored in the retention data 21 and the contact strength indicated by the contact information acquired from the instruction device 30 in step S109.

メイクパーツの濃度を設定すると、制御部11は、表示制御部120として機能し、メイク画像を表示する(ステップS112)。具体的に説明すると、制御部11は、ユーザUの顔がリアルタイムで撮像された撮像画像におけるステップS110で特定した接触位置に、ステップS111で設定した濃度のメイクパーツを重ねることにより、メイク後のユーザUの顔の状態を表現するメイク画像を生成する。そして、制御部は、生成されたメイク画像を表示部15に表示する。 When the density of the makeup parts is set, the control unit 11 functions as the display control unit 120 and displays a makeup image (step S112). Specifically, the control unit 11 generates a makeup image expressing the state of the user U's face after makeup is applied by overlaying makeup parts of the density set in step S111 at the contact position identified in step S110 in the captured image in which the face of the user U is captured in real time. The control unit then displays the generated makeup image on the display unit 15.

メイク画像を表示すると、制御部11は、保持量設定部160として機能し、保持データ21を更新する(ステップS113)。具体的に説明すると、制御部11は、ステップS109において指示装置30から取得した接触情報により示される接触の強さに基づいて、保持データ21に記憶されている化粧品の保持量を減少させる。 When the makeup image is displayed, the control unit 11 functions as the retention amount setting unit 160 and updates the retention data 21 (step S113). Specifically, the control unit 11 reduces the retention amount of cosmetics stored in the retention data 21 based on the strength of contact indicated by the contact information acquired from the instruction device 30 in step S109.

保持データ21を更新すると、制御部11は、処理をステップS103に戻し、ステップS103からステップS113の処理を再び実行する。このように、制御部11は、ユーザUがメイクシミュレーション装置1を用いてメイクシミュレーションを継続している限り、ステップS103からステップS113の処理を繰り返し、ユーザUのメイク後の状態をシミュレーションする画像を生成して表示する処理を実行する。 After updating the retained data 21, the control unit 11 returns the process to step S103 and executes the processes from step S103 to step S113 again. In this way, as long as the user U continues the makeup simulation using the makeup simulation device 1, the control unit 11 repeats the processes from step S103 to step S113, and executes the process of generating and displaying an image that simulates the state of the user U after applying makeup.

なお、図15では省略したが、制御部11は、ステップS103からステップS113の処理を実行している間、指示装置30から加速度情報を取得したか否かを判定する。指示装置30から加速度情報を取得すると、制御部11は、取得した加速度情報により示される加速度が閾値よりも大きいか否かを判定する。そして、制御部11は、取得した加速度情報により示される加速度が閾値よりも大きい場合、加速度がより大きいほど、保持データ21に記憶されている保持量をより大きく減少させる。 Note that, although omitted in FIG. 15, while executing the processes from step S103 to step S113, the control unit 11 determines whether or not acceleration information has been acquired from the instruction device 30. When the acceleration information is acquired from the instruction device 30, the control unit 11 determines whether or not the acceleration indicated by the acquired acceleration information is greater than a threshold value. Then, when the acceleration indicated by the acquired acceleration information is greater than a threshold value, the control unit 11 reduces the retention amount stored in the retention data 21 to a greater extent the greater the acceleration.

以上説明したように、実施形態1に係る画像処理装置10は、ユーザUの顔が撮像された撮像画像を表示部15に表示し、指示装置30がタッチパネル16の表面に接触することによる操作が受け付けられた後において、指示装置30がユーザUの顔に接触した場合、表示部15に表示された撮像画像における接触位置に対応する部分が加工されたメイク画像を表示する。その際に、画像処理装置10は、メイク画像として、指示装置30によるタッチパネル16の表面への接触の強さと、指示装置30によるユーザUの顔への接触の強さと、に応じて濃度が調整されたメイクパーツが重ねられた画像を表示する。これにより、指示装置30によるタッチパネル16の表面又はユーザUの顔への接触の仕方によって、ユーザUの顔に化粧品がどのように塗布されるかを適切に表現することができる。その結果、化粧筆等を用いて顔に化粧品を塗布するメイクにおいて、メイク後の顔の状態をよりリアルにシミュレーションすることができる。 As described above, the image processing device 10 according to the first embodiment displays an image of the user U's face on the display unit 15, and when the instruction device 30 touches the user U's face after the instruction device 30 touches the surface of the touch panel 16 and receives an operation, displays a makeup image in which a portion corresponding to the contact position in the image displayed on the display unit 15 is processed. At that time, the image processing device 10 displays, as the makeup image, an image in which makeup parts are superimposed with a density adjusted according to the strength of the contact of the instruction device 30 on the surface of the touch panel 16 and the strength of the contact of the instruction device 30 on the face of the user U. This makes it possible to appropriately express how cosmetics are applied to the face of the user U depending on the way the instruction device 30 touches the surface of the touch panel 16 or the face of the user U. As a result, in makeup in which cosmetics are applied to the face using a makeup brush or the like, the state of the face after makeup can be more realistically simulated.

(実施形態2)
次に、本発明の実施形態2について説明する。実施形態1と同様の構成及び機能は適宜省略する。
(Embodiment 2)
Next, a second embodiment of the present invention will be described. Configurations and functions similar to those of the first embodiment will be omitted as appropriate.

実施形態1では、指示装置30が接触検知部34を備えており、画像処理装置10は、指示装置30がタッチパネル16の表面又はユーザUの顔に接触した場合に、指示装置30で検知された接触の強さを示す接触情報を取得した。これに対して、実施形態2では、指示装置30は接触検知部34を備えておらず、画像処理装置10aが、指示装置30がタッチパネル16の表面に接触した場合に、その接触の強さを示す接触情報を取得する。 In the first embodiment, the instruction device 30 includes a contact detection unit 34, and the image processing device 10 acquires contact information indicating the strength of the contact detected by the instruction device 30 when the instruction device 30 contacts the surface of the touch panel 16 or the face of the user U. In contrast, in the second embodiment, the instruction device 30 does not include a contact detection unit 34, and the image processing device 10a acquires contact information indicating the strength of the contact when the instruction device 30 contacts the surface of the touch panel 16.

図16に、実施形態2に係る画像処理装置10aの機能的な構成を示す。実施形態2において、画像処理装置10aの制御部11は、機能的に、画像取得部110と、表示制御部120と、顔検出部130と、操作受付部140、情報取得部150と、保持量設定部160と、接触位置特定部170と、を備える。 Figure 16 shows the functional configuration of an image processing device 10a according to embodiment 2. In embodiment 2, the control unit 11 of the image processing device 10a functionally includes an image acquisition unit 110, a display control unit 120, a face detection unit 130, an operation reception unit 140, an information acquisition unit 150, a retention amount setting unit 160, and a contact position identification unit 170.

実施形態2では、指示装置30は、実施形態1とは異なり、種別識別部33と接触検知部34と加速度検知部35とを備えていない。そのため、実施形態2では、指示装置30は、画像処理装置10aとの通信機能を備えるものでなくても良い。このように指示装置30に検知機能が備えられていない場合には、ユーザUの顔における仮想的に化粧品を塗布する位置を指示することができるものであれば、実際の化粧筆、ユーザUの指等を含む任意の物体を、本発明における「指示体」として扱うことができる。 In the second embodiment, unlike the first embodiment, the pointing device 30 does not include a type identification unit 33, a contact detection unit 34, and an acceleration detection unit 35. Therefore, in the second embodiment, the pointing device 30 does not need to include a communication function with the image processing device 10a. In this manner, when the pointing device 30 does not include a detection function, any object including an actual makeup brush, the user U's finger, etc., can be treated as the "pointer" in the present invention, as long as it can indicate a position on the user U's face where the cosmetic is virtually applied.

実施形態2では、指示装置30が接触検知部34を備えていない代わりに、画像処理装置10aのタッチパネル16が圧力センサを備えており、接触の有無及びその位置だけでなく、接触の強さを検知する。実施形態1において指示装置30に備えられていた接触検知部34を第1の接触検知部と呼ぶことができるのに対して、実施形態2におけるタッチパネル16は、本発明における「第2の接触検知部」として機能する。 In the second embodiment, the instruction device 30 does not include a contact detection unit 34, but instead the touch panel 16 of the image processing device 10a includes a pressure sensor that detects not only the presence or absence of contact and its position, but also the strength of the contact. While the contact detection unit 34 included in the instruction device 30 in the first embodiment can be called the first contact detection unit, the touch panel 16 in the second embodiment functions as the "second contact detection unit" in the present invention.

情報取得部150は、指示装置30がタッチパネル16の表面に接触することによる操作が操作受付部140により受け付けられた時に、その接触の強さを示す接触情報を、タッチパネル16から取得する。言い換えると、情報取得部150は、指示装置30がタッチパネル16の表面に接触した場合に、実施形態1のように指示装置30からではなく、タッチパネル16から接触情報を取得する。 When the operation reception unit 140 receives an operation by the instruction device 30 touching the surface of the touch panel 16, the information acquisition unit 150 acquires contact information indicating the strength of the contact from the touch panel 16. In other words, when the instruction device 30 touches the surface of the touch panel 16, the information acquisition unit 150 acquires the contact information from the touch panel 16, rather than from the instruction device 30 as in the first embodiment.

保持量設定部160は、情報取得部150により取得された接触情報により示される接触の強さに応じて、指示装置30に仮想的に保持される化粧品の保持量を設定し、保持データ21を更新する。具体的に説明すると、保持量設定部160は、情報取得部150がタッチパネル16の表面への接触の強さを示す接触情報を取得した場合、取得された接触情報により示される接触の強さがより大きいほど、保持量をより大きく増加させる。 The retention amount setting unit 160 sets the retention amount of the cosmetic virtually held in the instruction device 30 according to the strength of contact indicated by the contact information acquired by the information acquisition unit 150, and updates the retention data 21. Specifically, when the information acquisition unit 150 acquires contact information indicating the strength of contact with the surface of the touch panel 16, the retention amount setting unit 160 increases the retention amount to a greater extent the greater the strength of contact indicated by the acquired contact information.

接触位置特定部170は、指示装置30がユーザUの顔に接触した場合、接触位置を特定する。ここで、実施形態2では、指示装置30が接触検知部34を備えていないため、接触位置特定部170は、接触情報を用いずに、ユーザUの顔における指示装置30の先端部が接触した接触位置を特定する。具体的に説明すると、接触位置特定部170は、図11に示したように指示装置30が撮像された撮像画像に基づいて、指示装置30の先端部がユーザUの顔に接触したか否かを判定する。そして、指示装置30の先端部がユーザUの顔に接触した場合における指示装置30の先端部の座標を、接触位置として特定する。 When the pointing device 30 comes into contact with the face of the user U, the contact position identification unit 170 identifies the contact position. Here, in the second embodiment, since the pointing device 30 does not include a contact detection unit 34, the contact position identification unit 170 identifies the contact position on the face of the user U where the tip of the pointing device 30 comes into contact without using contact information. To be more specific, the contact position identification unit 170 determines whether or not the tip of the pointing device 30 has come into contact with the face of the user U based on a captured image of the pointing device 30 as shown in FIG. 11. Then, the contact position identification unit 170 identifies the coordinates of the tip of the pointing device 30 when the tip of the pointing device 30 comes into contact with the face of the user U as the contact position.

表示制御部120は、表示部15に表示された撮像画像における、接触位置特定部170により特定された接触位置に対応する部分が、保持データ21に記憶されている保持量に基づいて加工されたメイク画像を表示する。具体的に説明すると、表示制御部120は、実施形態1における図12及び図13と同様に、メイク画像として、保持量がより大きいほどより高い濃度のメイクパーツが重ねられた画像を表示する。 The display control unit 120 displays a makeup image in which the portion of the captured image displayed on the display unit 15 that corresponds to the contact position identified by the contact position identification unit 170 has been processed based on the retention amount stored in the retention data 21. To be more specific, the display control unit 120 displays an image in which makeup parts of higher density are superimposed as the retention amount increases, similar to Figs. 12 and 13 in the first embodiment.

以上説明したように、実施形態2では、タッチパネル16が接触の強さ等を検知する機能を備えており、画像処理装置10aは、指示装置30がタッチパネル16の表面に接触した場合における接触の強さ等の情報を、指示装置30からではなく、タッチパネル16から取得する。これにより、指示装置30が検知機能を備える必要がないため、実施形態1に比べてより簡略化された構成で、メイク後の顔の状態をシミュレーションすることができる。 As described above, in the second embodiment, the touch panel 16 has a function of detecting the strength of contact, etc., and the image processing device 10a obtains information such as the strength of contact when the instruction device 30 touches the surface of the touch panel 16 from the touch panel 16, not from the instruction device 30. As a result, the instruction device 30 does not need to have a detection function, and it is possible to simulate the state of the face after makeup is applied with a simpler configuration than in the first embodiment.

(実施形態3)
次に、本発明の実施形態3について説明する。実施形態1又は実施形態2と同様の構成及び機能は適宜省略する。
(Embodiment 3)
Next, a third embodiment of the present invention will be described. Configurations and functions similar to those of the first or second embodiment will be omitted as appropriate.

上記実施形態1,2では、表示制御部120は、ユーザUの顔が撮像された撮像画像が、指示装置30によるタッチパネル16の表面又はユーザUの顔への接触の強さに基づいて加工されたメイク画像を表示した。これに対して、実施形態3では、表示制御部120は、接触の強さに加えて、接触の時間長と接触の位置の移動距離とに基づいて撮像画像が加工されたメイク画像を表示する。 In the above-mentioned first and second embodiments, the display control unit 120 displayed a makeup image in which a captured image of the face of the user U was processed based on the strength of contact made by the instruction device 30 with the surface of the touch panel 16 or the face of the user U. In contrast, in the third embodiment, the display control unit 120 displays a makeup image in which a captured image was processed based on the duration of contact and the movement distance of the contact position in addition to the strength of contact.

ここで、接触の時間長は、指示装置30の先端部が物体に接触を開始してから、その接触が解除されるまでの時間の長さに相当する。 Here, the duration of contact corresponds to the length of time from when the tip of the pointing device 30 starts to contact the object until the contact is released.

具体的に説明すると、第1の接触において、指示装置30の先端部がタッチパネル16の表面に接触した際、保持量設定部160は、指示装置30の先端部がタッチパネル16の表面に接触を開始したタイミングと終了したタイミングとを特定する。そして、保持量設定部160は、接触を開始したタイミングから終了したタイミングまでの時間長を、第1の接触の時間長として導出する。このとき、保持量設定部160は、接触を開始したタイミングと終了したタイミングとを特定するために、指示装置30の接触検知部34による接触の検知結果とタッチパネル16による接触の検知結果とのどちらを用いても良いし、両方を用いても良い。 To be more specific, when the tip of the pointing device 30 comes into contact with the surface of the touch panel 16 in the first contact, the retention amount setting unit 160 identifies the timing at which the tip of the pointing device 30 starts and ends contact with the surface of the touch panel 16. The retention amount setting unit 160 then derives the length of time from when the contact starts to when it ends as the length of time of the first contact. At this time, the retention amount setting unit 160 may use either the contact detection result by the contact detection unit 34 of the pointing device 30 or the contact detection result by the touch panel 16, or may use both, to identify the timing at which the contact starts and ends.

また、第2の接触において、指示装置30の先端部がユーザUの顔に接触した際、保持量設定部160は、指示装置30の先端部がユーザUの顔に接触を開始したタイミングと終了したタイミングとを特定する。そして、保持量設定部160は、接触を開始したタイミングから終了したタイミングまでの時間長を、第2の接触の時間長として導出する。このとき、保持量設定部160は、接触を開始したタイミングと終了したタイミングとを特定するために、指示装置30の接触検知部34による接触の検知結果と指示装置30が撮像された撮像画像とのどちらを用いても良いし、両方を用いても良い。 Furthermore, in the second contact, when the tip of the pointing device 30 comes into contact with the face of the user U, the retention amount setting unit 160 identifies the timing when the tip of the pointing device 30 starts and ends contact with the face of the user U. Then, the retention amount setting unit 160 derives the time length from the timing when the contact starts to the timing when it ends as the time length of the second contact. At this time, in order to identify the timing when the contact starts and the timing when it ends, the retention amount setting unit 160 may use either the contact detection result by the contact detection unit 34 of the pointing device 30 or the captured image captured by the pointing device 30, or may use both.

接触の位置の移動距離は、指示装置30の先端部を物体に接触したまま滑らせるように移動させた場合における、その接触が開始された位置から接触が解除された位置までの距離に相当する。 The distance that the contact position moves corresponds to the distance from the position where contact begins to the position where contact is released when the tip of the pointing device 30 is moved in a sliding manner while still in contact with an object.

具体的に説明すると、第1の接触において、指示装置30の先端部がタッチパネル16の表面に接触した際、保持量設定部160は、指示装置30の先端部がタッチパネル16の表面に接触を開始したタイミングにおけるタッチパネル16上の接触位置と接触を終了したタイミングにおけるタッチパネル16上の接触位置とを特定する。そして、保持量設定部160は、接触を開始したタイミングにおける接触位置から接触を終了したタイミングにおける接触位置までの距離を、第1の接触の位置の移動距離として導出する。このとき、保持量設定部160は、接触位置を特定するために、タッチパネル16により検知された接触の位置情報を用いる。 To be more specific, when the tip of the pointing device 30 comes into contact with the surface of the touch panel 16 in the first contact, the retention amount setting unit 160 identifies the contact position on the touch panel 16 at the timing when the tip of the pointing device 30 starts to contact the surface of the touch panel 16 and the contact position on the touch panel 16 at the timing when the contact ends. Then, the retention amount setting unit 160 derives the distance from the contact position at the timing when the contact starts to the contact position at the timing when the contact ends as the movement distance of the first contact position. At this time, the retention amount setting unit 160 uses the position information of the contact detected by the touch panel 16 to identify the contact position.

また、第2の接触において、指示装置30の先端部がユーザUの顔に接触した際、保持量設定部160は、指示装置30の先端部がユーザUの顔に接触を開始したタイミングにおける顔内での接触位置と接触を終了したタイミングにおける顔内での接触位置とを特定する。そして、保持量設定部160は、接触を開始したタイミングにおける接触位置から接触を終了したタイミングにおける接触位置までの距離を、第2の接触の位置の移動距離として導出する。このとき、保持量設定部160は、接触位置を特定するために、指示装置30が撮像された撮像画像における指示装置30の位置情報を用いる。 Furthermore, in the second contact, when the tip of the pointing device 30 comes into contact with the face of the user U, the retention amount setting unit 160 identifies the contact position on the face at the timing when the tip of the pointing device 30 starts to contact the face of the user U and the contact position on the face at the timing when the contact ends. Then, the retention amount setting unit 160 derives the distance from the contact position at the timing when the contact starts to the contact position at the timing when the contact ends as the movement distance of the second contact position. At this time, the retention amount setting unit 160 uses position information of the pointing device 30 in the captured image in which the pointing device 30 is captured, in order to identify the contact position.

保持量設定部160は、第1の接触及び第2の接触の際、このように導出された接触の時間長及び接触の位置の移動距離と、接触の強さと、に基づいて、保持データ21に記憶されている化粧品の保持量を設定する。ここで、第1の接触における接触の強さ、接触の時間長及び接触の位置の移動距離を含めて、「第1の接触に関する第1の値」と呼び、第2の接触における接触の強さ、接触の時間長及び接触の位置の移動距離を含めて、「第2の接触に関する第2の値」と呼ぶ。言い換えると、保持量設定部160は、第1の接触の際には、第1の値に基づいて、保持データ21に記憶されている化粧品の保持量を設定し、第2の接触の際には、第2の値に基づいて、保持データ21に記憶されている化粧品の保持量を設定する。 The retention amount setting unit 160 sets the retention amount of cosmetics stored in the retention data 21 based on the thus derived contact duration and movement distance of the contact position, and contact strength, during the first contact and second contact. Here, the contact strength, contact duration, and movement distance of the contact position during the first contact are collectively referred to as the "first value related to the first contact," and the contact strength, contact duration, and movement distance of the contact position during the second contact are collectively referred to as the "second value related to the second contact." In other words, during the first contact, the retention amount setting unit 160 sets the retention amount of cosmetics stored in the retention data 21 based on the first value, and during the second contact, sets the retention amount of cosmetics stored in the retention data 21 based on the second value.

一般的に、ユーザUがパレットから化粧品を付着させるために化粧筆をパレットに接触させた場合、接触の時間が長いほど、そして接触状態での移動距離が長いほど、化粧筆により多くの量の化粧品が付着される。このような特徴を模擬するため、保持量設定部160は、指示装置30がタッチパネル16の表面に接触した場合、接触の時間長が長いほど保持量をより大きく増加させ、接触の位置の移動距離が大きいほど保持量をより大きく増加させる。また、実施形態1と同様に、保持量設定部160は、接触の強さがより大きいほど保持量をより大きく増加させる。 Generally, when a user U touches a makeup brush to a palette to apply cosmetics from the palette, the longer the contact time and the longer the distance traveled while in contact, the greater the amount of cosmetics that is applied to the makeup brush. To mimic this characteristic, when the instruction device 30 touches the surface of the touch panel 16, the retention amount setting unit 160 increases the retention amount to a greater extent the longer the contact time is, and the greater the distance traveled by the contact position is. Also, as in embodiment 1, the retention amount setting unit 160 increases the retention amount to a greater extent the stronger the contact is.

同様に、ユーザUが顔に化粧品を塗布するために化粧筆を顔に接触させた場合、その接触が強いほど、ユーザUの顔により多くの量の化粧品が塗布される。このような特徴を模擬するため、保持量設定部160は、指示装置30がユーザUの顔に接触した場合、接触の時間長が長いほど保持量をより大きく減少させ、接触の位置の移動距離が大きいほど保持量をより大きく減少させる。また、実施形態1と同様に、保持量設定部160は、接触の強さがより大きいほど保持量をより大きく減少させる。 Similarly, when user U touches a makeup brush to his or her face to apply makeup to the face, the stronger the contact, the greater the amount of makeup applied to user U's face. To mimic such a characteristic, when the instruction device 30 touches user U's face, the retention amount setting unit 160 reduces the retention amount to a greater extent the longer the contact duration is, and the greater the movement distance of the contact position is. Also, similar to embodiment 1, the retention amount setting unit 160 reduces the retention amount to a greater extent the greater the contact strength is.

表示制御部120は、メイク画像として、画像取得部110により取得された撮像画像における、接触位置特定部170により特定された接触位置に対応する部分が、第1の接触に関する第1の値(接触の強さ、接触の時間長、及び接触の位置の移動距離)と第2の接触に関する第2の値(接触の強さ、接触の時間長、及び接触の位置の移動距離)とに基づいて加工された画像を表示部15に表示する。具体的に説明すると、表示制御部120は、第1の接触に関する第1の値と第2の接触に関する第2の値とに応じて、撮像画像に重ねられるメイクパーツの濃度を変化させる。 The display control unit 120 displays, as a makeup image, on the display unit 15, an image in which a portion of the captured image acquired by the image acquisition unit 110 that corresponds to the contact position identified by the contact position identification unit 170 has been processed based on a first value related to the first contact (the strength of the contact, the duration of the contact, and the distance the contact position has moved) and a second value related to the second contact (the strength of the contact, the duration of the contact, and the distance the contact position has moved). Specifically, the display control unit 120 changes the density of the makeup parts superimposed on the captured image according to the first value related to the first contact and the second value related to the second contact.

一般的に、ユーザUが顔に化粧品を塗布するために化粧筆を顔に接触させた場合、その接触の時間が長いほど、そして接触状態での移動距離が長いほど、ユーザUの顔により多くの量の化粧品が塗布される。このような特徴を模擬するため、表示制御部120は、指示装置30がユーザUの顔に接触した時における接触の時間長がより長いほどメイクパーツの濃度をより高くし、接触の位置の移動距離がより大きいほどメイクパーツの濃度をより高くする。また、実施形態1と同様に、表示制御部120は、接触の強さがより大きいほどメイクパーツの濃度をより高くする。 Generally, when user U touches a makeup brush to his or her face to apply makeup to the face, the longer the contact time and the longer the distance traveled in contact, the more makeup will be applied to the user U's face. To mimic this characteristic, the display control unit 120 increases the density of the makeup parts the longer the contact time when the instruction device 30 touches the user U's face, and increases the density of the makeup parts the greater the distance traveled by the contact position. Also, as in embodiment 1, the display control unit 120 increases the density of the makeup parts the greater the strength of the contact.

更には、接触の強さ等が同じであっても、化粧筆に保持されている化粧品の量が大きいほど、ユーザUの顔により多くの量の化粧品が塗布される。そのため、表示制御部120は、保持データ21に記憶されている保持量を参照して、保持量がより大きいほど、メイクパーツの濃度をより高くする。 Furthermore, even if the strength of contact, etc. is the same, the greater the amount of makeup held on the makeup brush, the greater the amount of makeup applied to the face of user U. Therefore, the display control unit 120 refers to the amount held stored in the held data 21, and increases the concentration of the makeup parts the greater the amount held.

以上説明したように、実施形態3では、表示制御部120は、接触の強さに加えて、接触の時間長と接触の位置の移動距離とに基づいて撮像画像が加工されたメイク画像を表示する。これにより、指示装置30によるタッチパネル16の表面又はユーザUの顔への接触の仕方によって、ユーザUの顔に化粧品がどのように塗布されるかを更に適切に表現することができる。その結果、化粧筆等を用いて顔に化粧品を塗布するメイクにおいて、メイク後の顔の状態をよりリアルにシミュレーションすることができる。 As described above, in the third embodiment, the display control unit 120 displays a makeup image in which the captured image has been processed based on the strength of the contact as well as the duration of the contact and the movement distance of the contact position. This makes it possible to more appropriately express how the cosmetics are applied to the face of the user U, depending on the manner in which the instruction device 30 contacts the surface of the touch panel 16 or the face of the user U. As a result, in makeup in which cosmetics are applied to the face using a makeup brush or the like, it is possible to more realistically simulate the state of the face after makeup is applied.

(変形例)
以上に本発明の実施形態について説明したが、上記実施形態は一例であり、本発明の適用範囲はこれに限られない。すなわち、本発明の実施形態は種々の応用が可能であり、あらゆる実施の形態が本発明の範囲に含まれる。
(Modification)
Although the embodiment of the present invention has been described above, the above embodiment is merely an example, and the scope of application of the present invention is not limited to this. In other words, the embodiment of the present invention can be applied in various ways, and all embodiments are included in the scope of the present invention.

例えば、上記実施形態では、画像処理装置10,10aは、表示部15とタッチパネル16とを備えており、表示部15に撮像画像を表示し、タッチパネル16に化粧品画像を表示した。しかしながら、本発明において、画像処理装置10,10aは、タッチパネル16とは独立した表示部15を備えていなくても良い。言い換えると、本発明に係る画像処理装置10,10aは、表示部として1つのタッチパネル16のみを備える一般的なスマートフォンやタブレット端末等にも適用することができる。タッチパネル16とは独立した表示部15を備えていない場合、画像処理装置10,10aは、1つのタッチパネル16の表示領域を2つに分割し、そのうちの一方の表示領域に撮像画像を表示し、他方の表示領域に化粧品画像を表示する。この場合、撮像画像が表示される一方の表示領域が本発明における「第1の表示領域」として機能し、化粧品画像が表示される他方の表示領域が本発明における「第2の表示領域」として機能する。また、タッチパネル16が本発明における「表示部」として機能する。 For example, in the above embodiment, the image processing device 10, 10a includes a display unit 15 and a touch panel 16, and displays the captured image on the display unit 15 and the cosmetic image on the touch panel 16. However, in the present invention, the image processing device 10, 10a does not need to include a display unit 15 independent of the touch panel 16. In other words, the image processing device 10, 10a according to the present invention can also be applied to a general smartphone or tablet terminal that includes only one touch panel 16 as a display unit. When the image processing device 10, 10a does not include a display unit 15 independent of the touch panel 16, the image processing device 10, 10a divides the display area of one touch panel 16 into two, displays the captured image in one display area, and displays the cosmetic image in the other display area. In this case, one display area in which the captured image is displayed functions as the "first display area" in the present invention, and the other display area in which the cosmetic image is displayed functions as the "second display area" in the present invention. In addition, the touch panel 16 functions as the "display unit" in the present invention.

上記実施形態では、表示制御部120は、複数の化粧品を表現する化粧品画像をタッチパネル16に表示した。しかしながら、本発明において、表示制御部120は、化粧品画像として1種類のみの化粧品を表現する画像を表示しても良い。また、構成をより簡略化するために、例えば指示装置30から種別識別部33、加速度検知部35等を省略することも可能である。 In the above embodiment, the display control unit 120 displayed a cosmetic image representing multiple cosmetic products on the touch panel 16. However, in the present invention, the display control unit 120 may display an image representing only one type of cosmetic product as the cosmetic image. In addition, in order to further simplify the configuration, it is also possible to omit, for example, the type identification unit 33, the acceleration detection unit 35, etc. from the indication device 30.

第1の接触に関する第1の値及び第2の接触に関する第2の値として、上記実施形態1,2では接触の強さが用いられ、上記実施形態3では接触の強さと時間長と移動距離との3つのパラメータが用いられた。しかしながら、本発明において、第1の値及び第2の値として、これら3つのパラメータのうちの一部のみが用いられても良いし、これら3つのパラメータ以外のパラメータが用いられても良い。 In the above-mentioned first and second embodiments, the strength of the contact is used as the first value for the first contact and the second value for the second contact, while in the above-mentioned third embodiment, three parameters, the strength of the contact, the time length, and the movement distance, are used. However, in the present invention, only some of these three parameters may be used as the first value and the second value, or parameters other than these three parameters may be used.

なお、第1の値及び第2の値として接触の強さが用いられない場合、指示装置30の接触検知部34又は画像処理装置10aのタッチパネル16は、接触の有無さえ検知できれば良いため、接触の強さを検知する圧力センサを備えていなくても良い。この場合、情報取得部150は、接触情報として、接触の強さを示す情報に代えて、接触の有無を示す情報を指示装置30又はタッチパネル16から取得する。 When the strength of contact is not used as the first value and the second value, the contact detection unit 34 of the instruction device 30 or the touch panel 16 of the image processing device 10a need only be able to detect the presence or absence of contact, and therefore may not need to be equipped with a pressure sensor that detects the strength of contact. In this case, the information acquisition unit 150 acquires information indicating the presence or absence of contact from the instruction device 30 or the touch panel 16 as the contact information, instead of information indicating the strength of contact.

上記実施形態では、制御部11において、CPUがROMに記憶されたプログラムを実行することによって、図4に示した各部として機能した。しかしながら、本発明において、制御部11は、CPUの代わりに、例えばASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)、各種制御回路等の専用のハードウェアを備え、専用のハードウェアが、図4に示した各部として機能しても良い。この場合、各部の機能それぞれを個別のハードウェアで実現しても良いし、各部の機能をまとめて単一のハードウェアで実現しても良い。また、各部の機能のうち、一部を専用のハードウェアによって実現し、他の一部をソフトウェア又はファームウェアによって実現しても良い。 In the above embodiment, the control unit 11 functions as each unit shown in FIG. 4 by having the CPU execute a program stored in the ROM. However, in the present invention, instead of a CPU, the control unit 11 may include dedicated hardware such as an ASIC (Application Specific Integrated Circuit), an FPGA (Field-Programmable Gate Array), or various control circuits, and the dedicated hardware may function as each unit shown in FIG. 4. In this case, the functions of each unit may be realized by individual hardware, or the functions of each unit may be realized together by a single piece of hardware. Also, some of the functions of each unit may be realized by dedicated hardware, and the other parts may be realized by software or firmware.

なお、本発明に係る機能を実現するための構成を予め備えた画像処理装置として提供できることはもとより、プログラムの適用により、既存の情報処理装置等を、本発明に係る画像処理装置として機能させることもできる。すなわち、上記実施形態で例示した画像処理装置10,10aによる各機能構成を実現させるためのプログラムを、既存の情報処理装置等を制御するCPU等が実行できるように適用することで、本発明に係る塗布装置として機能させることができる。 In addition to being able to provide an image processing device that is already equipped with the configuration for realizing the functions of the present invention, by applying a program, an existing information processing device or the like can be made to function as an image processing device of the present invention. In other words, by applying a program for realizing each functional configuration of the image processing device 10, 10a exemplified in the above embodiment so that it can be executed by a CPU or the like that controls the existing information processing device, it can be made to function as a coating device of the present invention.

また、このようなプログラムの適用方法は任意である。プログラムを、例えば、フレキシブルディスク、CD(Compact Disc)-ROM、DVD(Digital Versatile Disc)-ROM、メモリカード等のコンピュータ読み取り可能な記憶媒体に格納して適用できる。さらに、プログラムを搬送波に重畳し、インターネットなどの通信媒体を介して適用することもできる。例えば、通信ネットワーク上の掲示板(BBS:Bulletin Board System)にプログラムを掲示して配信してもよい。そして、このプログラムを起動し、OS(Operating System)の制御下で、他のアプリケーションプログラムと同様に実行することにより、上記の処理を実行できるように構成してもよい。 The method of applying such a program is arbitrary. The program can be applied by storing it on a computer-readable storage medium, such as a flexible disk, a CD (Compact Disc)-ROM, a DVD (Digital Versatile Disc)-ROM, or a memory card. Furthermore, the program can be superimposed on a carrier wave and applied via a communication medium such as the Internet. For example, the program can be posted and distributed on a bulletin board system (BBS) on a communication network. The program can then be started and executed under the control of an OS (Operating System) in the same way as other application programs, thereby enabling the above processing to be performed.

以上、本発明の好ましい実施形態について説明したが、本発明は係る特定の実施形態に限定されるものではなく、本発明には、特許請求の範囲に記載された発明とその均等の範囲とが含まれる。以下に、本願出願の当初の特許請求の範囲に記載された発明を付記する。
(付記1)
ユーザの顔が撮像された撮像画像を表示する第1の表示領域と、化粧品を表現する化粧品画像を表示する第2の表示領域とを有する表示部と、
前記第2の表示領域に前記化粧品画像が表示されている時に、指示体が前記第2の表示領域の表面に接触することによる操作を受け付ける操作受付部と、
前記操作受付部が前記操作を受け付けた後において、前記指示体が前記ユーザの顔に接触した場合、前記ユーザの顔における前記指示体が接触した接触位置を特定する接触位置特定部と、
前記撮像画像における、前記接触位置特定部により特定された前記接触位置に対応する部分が、前記指示体による前記第2の表示領域の表面への接触に関する第1の値と、前記指示体による前記ユーザの顔への接触に関する第2の値と、のうちの少なくとも一方に基づいて加工されたメイク画像を前記第1の表示領域に表示する表示制御部と、
を備えることを特徴とする画像処理装置。
(付記2)
前記第1の値は、前記指示体による前記第2の表示領域の表面への接触の強さと、当該接触の時間長と、当該接触の位置の移動距離と、のうちの少なくとも1つを示す値であり、
前記第2の値は、前記指示体による前記ユーザの顔への接触の強さと、当該接触の時間長と、当該接触の位置の移動距離と、のうちの少なくとも1つを示す値である、
ことを特徴とする付記1に記載の画像処理装置。
(付記3)
前記指示体は、前記指示体の先端部に対する接触を検知する接触検知部、を備え、
前記メイク画像は、前記第1の表示領域に表示された前記撮像画像における、前記接触位置特定部により特定された前記接触位置に対応する部分が、前記指示体が前記第2の表示領域の表面に接触した時に前記接触検知部により検知された前記接触に関する前記第1の値と、前記指示体が前記ユーザの顔に接触した時に前記接触検知部により検知された前記接触に関する前記第2の値と、のうちの少なくとも一方に基づいて加工された画像である、
ことを特徴とする付記1又は2に記載の画像処理装置。
(付記4)
前記画像処理装置は、前記操作受付部が前記操作を受け付けた時に、前記指示体による前記第2の表示領域の表面への接触を検知する第2の接触検知部、を更に備え、
前記メイク画像は、前記第1の表示領域に表示された前記撮像画像における、前記接触位置特定部により特定された前記接触位置に対応する部分が、前記第2の接触検知部により検知された前記接触に関する前記第1の値に基づいて加工された画像である、
ことを特徴とする付記1から3のいずれか1つに記載の画像処理装置。
(付記5)
前記メイク画像は、前記第1の表示領域に表示された前記撮像画像における、前記接触位置特定部により特定された前記接触位置に、前記化粧品が前記ユーザの顔に塗布された状態を表現するメイクパーツが重ねられた画像である、
ことを特徴とする付記1から4のいずれか1つに記載の画像処理装置。
(付記6)
前記表示制御部は、前記第1の値又は前記第2の値がより大きいほど、前記メイクパーツの濃度をより高くする、
ことを特徴とする付記5に記載の画像処理装置。
(付記7)
前記指示体に仮想的に保持される前記化粧品の保持量を、前記第1の値に応じて設定する保持量設定部、を更に備え、
前記メイク画像は、前記第1の表示領域に表示された前記撮像画像における、前記接触位置特定部により特定された前記接触位置に対応する部分が、前記保持量設定部により設定された前記保持量に基づいて加工された画像である、
ことを特徴とする付記5又は6に記載の画像処理装置。
(付記8)
前記保持量設定部は、前記第1の値がより大きいほど、前記保持量をより大きく増加させ、
前記表示制御部は、前記保持量設定部により設定された前記保持量がより大きいほど、前記メイクパーツの濃度をより高くする、
ことを特徴とする付記7に記載の画像処理装置。
(付記9)
前記メイク画像は、前記第1の表示領域に表示された前記撮像画像における、前記接触位置特定部により特定された前記接触位置に対応する部分が、前記保持量設定部により設定された前記保持量と、前記第2の値と、に基づいて加工された画像である、
ことを特徴とする付記7又は8に記載の画像処理装置。
(付記10)
前記表示制御部は、前記第2の値がより大きいほど、前記メイクパーツの濃度をより高くする、
ことを特徴とする付記9に記載の画像処理装置。
(付記11)
前記保持量設定部は、前記第2の値がより大きいほど、前記保持量をより大きく減少させる、
ことを特徴とする付記7から10のいずれか1つに記載の画像処理装置。
(付記12)
前記指示体は、前記指示体に加えられる加速度を検知する加速度検知部、を備え、
前記保持量設定部は、前記加速度検知部により検知された前記加速度に応じて、前記保持量を減少させる、
ことを特徴とする付記7から11のいずれか1つに記載の画像処理装置。
(付記13)
前記撮像画像を取得する画像取得部、を更に備え、
前記第1の表示領域は、前記画像取得部により取得された前記撮像画像を表示する、
ことを特徴とする請求項1から12のいずれか1項に記載の画像処理装置。
(付記14)
請求項1から13のいずれか1項に記載の画像処理装置と、前記指示体と、を備えることを特徴とするメイクシミュレーション装置。
(付記15)
ユーザの顔が撮像された撮像画像を第1の表示領域に表示し、
化粧品を表現する化粧品画像を第2の表示領域に表示し、
前記第2の表示領域に前記化粧品画像が表示されている時に、指示体が前記第2の表示領域の表面に接触することによる操作を受け付け、
前記操作を受け付けた後において、前記指示体が前記ユーザの顔に接触した場合、前記ユーザの顔における前記指示体が接触した接触位置を特定し、
前記撮像画像における、特定された前記接触位置に対応する部分が、前記指示体による前記第2の表示領域の表面への接触に関する第1の値と、前記指示体による前記ユーザの顔への接触に関する第2の値と、のうちの少なくとも一方に基づいて加工されたメイク画像を前記第1の表示領域に表示する、
ことを特徴とする画像処理方法。
(付記16)
コンピュータを、
ユーザの顔が撮像された撮像画像を第1の表示領域に表示し、化粧品を表現する化粧品画像を第2の表示領域に表示する表示部、
前記第2の表示領域に前記化粧品画像が表示されている時に、指示体が前記第2の表示領域の表面に接触することによる操作を受け付ける操作受付部、
前記操作受付部が前記操作を受け付けた後において、前記指示体が前記ユーザの顔に接触した場合、前記ユーザの顔における前記指示体が接触した接触位置を特定する接触位置特定部、
前記撮像画像における、前記接触位置特定部により特定された前記接触位置に対応する部分が、前記指示体による前記第2の表示領域の表面への接触に関する第1の値と、前記指示体による前記ユーザの顔への接触に関する第2の値と、のうちの少なくとも一方に基づいて加工されたメイク画像を前記第1の表示領域に表示する表示制御部、
として機能させるためのプログラム。
Although the preferred embodiment of the present invention has been described above, the present invention is not limited to the specific embodiment, and the present invention includes the inventions described in the claims and their equivalents. The inventions described in the original claims of this application are listed below.
(Appendix 1)
a display unit having a first display area for displaying a captured image of a user's face and a second display area for displaying a cosmetic product image representing the cosmetic product;
an operation receiving unit that receives an operation when a pointer comes into contact with a surface of the second display area while the cosmetic image is displayed in the second display area;
a contact position identification unit that identifies a contact position on the user's face that is contacted by the indicator when the indicator comes into contact with the user's face after the operation acceptance unit accepts the operation;
a display control unit that displays, in the first display area, a makeup image in which a portion of the captured image corresponding to the contact position identified by the contact position identification unit is processed based on at least one of a first value related to a contact of the indicator with a surface of the second display area and a second value related to a contact of the indicator with a face of the user; and
An image processing device comprising:
(Appendix 2)
the first value is a value indicating at least one of a strength of a contact made by the indicator on a surface of the second display area, a duration of the contact, and a movement distance of a position of the contact;
The second value is a value indicating at least one of a strength of a contact with the user's face by the indicator, a duration of the contact, and a moving distance of a position of the contact.
2. The image processing device according to claim 1 .
(Appendix 3)
the indicator includes a contact detection unit that detects contact with a tip of the indicator,
the makeup image is an image in which a portion of the captured image displayed in the first display area, which corresponds to the contact position identified by the contact position identifying unit, is processed based on at least one of the first value related to the contact detected by the contact detecting unit when the indicator contacts a surface of the second display area and the second value related to the contact detected by the contact detecting unit when the indicator contacts a face of the user.
3. The image processing device according to claim 1 or 2.
(Appendix 4)
the image processing device further includes a second contact detection unit configured to detect contact of the indicator with a surface of the second display area when the operation reception unit receives the operation,
the makeup image is an image in which a portion of the captured image displayed in the first display area, which corresponds to the contact position identified by the contact position identifying unit, is processed based on the first value related to the contact detected by the second contact detecting unit.
4. The image processing device according to claim 1,
(Appendix 5)
the makeup image is an image in which makeup parts expressing a state in which the cosmetic product is applied to the face of the user are superimposed on the contact position identified by the contact position identifying unit in the captured image displayed in the first display area;
5. The image processing device according to claim 1,
(Appendix 6)
The display control unit increases the density of the makeup part as the first value or the second value increases.
6. The image processing device according to claim 5,
(Appendix 7)
a holding amount setting unit that sets a holding amount of the cosmetic virtually held on the indicator in accordance with the first value,
the makeup image is an image in which a portion of the captured image displayed in the first display area, which corresponds to the contact position identified by the contact position identifying unit, is processed based on the retention amount set by the retention amount setting unit.
7. The image processing device according to claim 5 or 6.
(Appendix 8)
the retention amount setting unit increases the retention amount by a larger amount as the first value is larger;
the display control unit increases the density of the makeup part as the retention amount set by the retention amount setting unit increases.
8. The image processing device according to claim 7.
(Appendix 9)
the makeup image is an image in which a portion of the captured image displayed in the first display area, which corresponds to the contact position identified by the contact position identifying unit, is processed based on the retention amount set by the retention amount setting unit and the second value.
9. The image processing device according to claim 7 or 8.
(Appendix 10)
The display control unit increases the density of the makeup part as the second value increases.
10. The image processing device according to claim 9.
(Appendix 11)
The retention amount setting unit reduces the retention amount to a greater extent as the second value is greater.
11. The image processing device according to claim 7,
(Appendix 12)
The indicator includes an acceleration detection unit that detects acceleration applied to the indicator,
The retention amount setting unit reduces the retention amount in response to the acceleration detected by the acceleration detection unit.
12. The image processing device according to claim 7,
(Appendix 13)
An image acquisition unit that acquires the captured image,
the first display area displays the captured image acquired by the image acquisition unit;
13. The image processing device according to claim 1,
(Appendix 14)
A makeup simulation device comprising: the image processing device according to claim 1 ; and the indicator.
(Appendix 15)
Displaying an image of the user's face in a first display area;
Displaying a cosmetic image representing the cosmetic product in a second display area;
receiving an operation by a pointer touching a surface of the second display area while the cosmetic image is being displayed in the second display area;
When the indicator touches a face of the user after the operation is received, a contact position on the face of the user touched by the indicator is identified;
a makeup image in which a portion of the captured image corresponding to the identified contact position is processed based on at least one of a first value related to the contact of the indicator with the surface of the second display area and a second value related to the contact of the indicator with the face of the user is displayed in the first display area;
13. An image processing method comprising:
(Appendix 16)
Computer,
a display unit that displays a captured image of a user's face in a first display area and displays a cosmetic image representing the cosmetic product in a second display area;
an operation receiving unit that receives an operation when a pointer comes into contact with a surface of the second display area while the cosmetic image is being displayed in the second display area;
a contact position specifying unit that specifies a contact position on the user's face where the indicator has come into contact after the operation accepting unit has accepted the operation, when the indicator has come into contact with the user's face;
a display control unit that displays, in the first display area, a makeup image in which a portion of the captured image corresponding to the contact position identified by the contact position identifying unit is processed based on at least one of a first value related to a contact of the indicator with a surface of the second display area and a second value related to a contact of the indicator with a face of the user;
A program to function as a

1…メイクシミュレーション装置、10,10a…画像処理装置、11…制御部、12…記憶部、13…操作部、14…撮像部、15…表示部、16…タッチパネル、17…通信部、21…保持データ、30…指示装置、31…制御部、32…記憶部、33…種別識別部、34…接触検知部、35…加速度検知部、37…通信部、41,42…メイクパーツ、110…画像取得部、120…表示制御部、130…顔検出部、140…操作受付部、150…情報取得部、160…保持量設定部、170…接触位置特定部、310…情報送信部、U…ユーザ 1...makeup simulation device, 10, 10a...image processing device, 11...control unit, 12...storage unit, 13...operation unit, 14...imaging unit, 15...display unit, 16...touch panel, 17...communication unit, 21...retained data, 30...instruction device, 31...control unit, 32...storage unit, 33...type identification unit, 34...contact detection unit, 35...acceleration detection unit, 37...communication unit, 41, 42...makeup parts, 110...image acquisition unit, 120...display control unit, 130...face detection unit, 140...operation reception unit, 150...information acquisition unit, 160...retained amount setting unit, 170...contact position identification unit, 310...information transmission unit, U...user

上記目的を達成するため、本発明に係る画像処理装置は、
ユーザの顔が撮像された撮像画像を表示する表示部と、
前記ユーザに対するメイクシミュレーションで用いられる仮想的な化粧品に係る仮想化粧品情報について前記ユーザによる選択を受け付ける受付部と、
記受付部が前記選択を受け付けた後において、指示体が前記ユーザの顔に接触した場合、前記ユーザの顔における前記指示体が接触した接触位置を特定する接触位置特定部と、
前記撮像画像における、前記接触位置特定部により特定された前記接触位置に対応する部分が、前記指示体による前記ユーザの顔への接触の強さと当該接触の時間長と当該接触の位置の移動距離とのうちの少なくとも1つを示すメイク情報と、前記受け付けられた仮想化粧品情報と、に基づいて加工されたメイク画像を前記表示部に表示する表示制御部と、
備えることを特徴とする。
In order to achieve the above object, the image processing device according to the present invention comprises:
a display unit that displays a captured image of a user's face;
a reception unit that receives a selection by the user of virtual cosmetic information related to virtual cosmetics used in a makeup simulation for the user ;
a contact position identification unit that, when a pointer comes into contact with a face of the user after the reception unit has received the selection , identifies a contact position on the user's face that is contacted by the pointer;
a display control unit that displays, on the display unit, a makeup image that has been processed based on makeup information indicating at least one of a strength of a contact made by the indicator on the user's face , a duration of the contact, and a moving distance of the contact position, in a portion of the captured image that corresponds to the contact position identified by the contact position identifying unit , and the received virtual cosmetic information;
The present invention is characterized by comprising :

Claims (16)

ユーザの顔が撮像された撮像画像を表示する第1の表示領域と、化粧品を表現する化粧品画像を表示する第2の表示領域とを有する表示部と、
前記第2の表示領域に前記化粧品画像が表示されている時に、指示体が前記第2の表示領域の表面に接触することによる操作を受け付ける操作受付部と、
前記操作受付部が前記操作を受け付けた後において、前記指示体が前記ユーザの顔に接触した場合、前記ユーザの顔における前記指示体が接触した接触位置を特定する接触位置特定部と、
前記撮像画像における、前記接触位置特定部により特定された前記接触位置に対応する部分が、前記指示体による前記第2の表示領域の表面への接触に関する第1の値と、前記指示体による前記ユーザの顔への接触に関する第2の値と、のうちの少なくとも一方に基づいて加工されたメイク画像を前記第1の表示領域に表示する表示制御部と、
を備えることを特徴とする画像処理装置。
a display unit having a first display area for displaying a captured image of a user's face and a second display area for displaying a cosmetic product image representing the cosmetic product;
an operation receiving unit that receives an operation when a pointer comes into contact with a surface of the second display area while the cosmetic image is displayed in the second display area;
a contact position identification unit that identifies a contact position on the user's face that is contacted by the indicator when the indicator comes into contact with the user's face after the operation acceptance unit accepts the operation;
a display control unit that displays, in the first display area, a makeup image in which a portion of the captured image corresponding to the contact position identified by the contact position identification unit is processed based on at least one of a first value related to a contact of the indicator with a surface of the second display area and a second value related to a contact of the indicator with a face of the user; and
An image processing device comprising:
前記第1の値は、前記指示体による前記第2の表示領域の表面への接触の強さと、当該接触の時間長と、当該接触の位置の移動距離と、のうちの少なくとも1つを示す値であり、
前記第2の値は、前記指示体による前記ユーザの顔への接触の強さと、当該接触の時間長と、当該接触の位置の移動距離と、のうちの少なくとも1つを示す値である、
ことを特徴とする請求項1に記載の画像処理装置。
the first value is a value indicating at least one of a strength of a contact made by the indicator on a surface of the second display area, a duration of the contact, and a movement distance of a position of the contact;
The second value is a value indicating at least one of a strength of a contact with the user's face by the indicator, a duration of the contact, and a moving distance of a position of the contact.
2. The image processing device according to claim 1,
前記指示体は、前記指示体の先端部に対する接触を検知する接触検知部、を備え、
前記メイク画像は、前記第1の表示領域に表示された前記撮像画像における、前記接触位置特定部により特定された前記接触位置に対応する部分が、前記指示体が前記第2の表示領域の表面に接触した時に前記接触検知部により検知された前記接触に関する前記第1の値と、前記指示体が前記ユーザの顔に接触した時に前記接触検知部により検知された前記接触に関する前記第2の値と、のうちの少なくとも一方に基づいて加工された画像である、
ことを特徴とする請求項1又は2に記載の画像処理装置。
the indicator includes a contact detection unit that detects contact with a tip of the indicator,
the makeup image is an image in which a portion of the captured image displayed in the first display area, which corresponds to the contact position identified by the contact position identifying unit, is processed based on at least one of the first value related to the contact detected by the contact detecting unit when the indicator contacts a surface of the second display area and the second value related to the contact detected by the contact detecting unit when the indicator contacts a face of the user.
3. The image processing device according to claim 1, wherein the first and second inputs are input to the image processing device.
前記画像処理装置は、前記操作受付部が前記操作を受け付けた時に、前記指示体による前記第2の表示領域の表面への接触を検知する第2の接触検知部、を更に備え、
前記メイク画像は、前記第1の表示領域に表示された前記撮像画像における、前記接触位置特定部により特定された前記接触位置に対応する部分が、前記第2の接触検知部により検知された前記接触に関する前記第1の値に基づいて加工された画像である、
ことを特徴とする請求項1から3のいずれか1項に記載の画像処理装置。
the image processing device further includes a second contact detection unit configured to detect contact of the indicator with a surface of the second display area when the operation reception unit receives the operation,
the makeup image is an image in which a portion of the captured image displayed in the first display area, which corresponds to the contact position identified by the contact position identifying unit, is processed based on the first value related to the contact detected by the second contact detecting unit.
4. The image processing device according to claim 1, wherein the image processing device is a digital camera.
前記メイク画像は、前記第1の表示領域に表示された前記撮像画像における、前記接触位置特定部により特定された前記接触位置に、前記化粧品が前記ユーザの顔に塗布された状態を表現するメイクパーツが重ねられた画像である、
ことを特徴とする請求項1から4のいずれか1項に記載の画像処理装置。
the makeup image is an image in which makeup parts expressing a state in which the cosmetic product is applied to the face of the user are superimposed on the contact position identified by the contact position identifying unit in the captured image displayed in the first display area;
5. The image processing device according to claim 1, wherein the image processing device is a computer.
前記表示制御部は、前記第1の値又は前記第2の値がより大きいほど、前記メイクパーツの濃度をより高くする、
ことを特徴とする請求項5に記載の画像処理装置。
The display control unit increases the density of the makeup part as the first value or the second value increases.
6. The image processing device according to claim 5,
前記指示体に仮想的に保持される前記化粧品の保持量を、前記第1の値に応じて設定する保持量設定部、を更に備え、
前記メイク画像は、前記第1の表示領域に表示された前記撮像画像における、前記接触位置特定部により特定された前記接触位置に対応する部分が、前記保持量設定部により設定された前記保持量に基づいて加工された画像である、
ことを特徴とする請求項5又は6に記載の画像処理装置。
a holding amount setting unit that sets a holding amount of the cosmetic virtually held on the indicator in accordance with the first value,
the makeup image is an image in which a portion of the captured image displayed in the first display area, which corresponds to the contact position identified by the contact position identifying unit, is processed based on the retention amount set by the retention amount setting unit.
7. The image processing device according to claim 5, wherein the image processing device is a digital camera.
前記保持量設定部は、前記第1の値がより大きいほど、前記保持量をより大きく増加させ、
前記表示制御部は、前記保持量設定部により設定された前記保持量がより大きいほど、前記メイクパーツの濃度をより高くする、
ことを特徴とする請求項7に記載の画像処理装置。
the retention amount setting unit increases the retention amount by a larger amount as the first value is larger;
the display control unit increases the density of the makeup part as the retention amount set by the retention amount setting unit increases.
8. The image processing device according to claim 7,
前記メイク画像は、前記第1の表示領域に表示された前記撮像画像における、前記接触位置特定部により特定された前記接触位置に対応する部分が、前記保持量設定部により設定された前記保持量と、前記第2の値と、に基づいて加工された画像である、
ことを特徴とする請求項7又は8に記載の画像処理装置。
the makeup image is an image in which a portion of the captured image displayed in the first display area, which corresponds to the contact position identified by the contact position identifying unit, is processed based on the retention amount set by the retention amount setting unit and the second value.
9. The image processing device according to claim 7, wherein the first and second inputs are input to the image processing apparatus.
前記表示制御部は、前記第2の値がより大きいほど、前記メイクパーツの濃度をより高くする、
ことを特徴とする請求項9に記載の画像処理装置。
The display control unit increases the density of the makeup part as the second value increases.
10. The image processing device according to claim 9,
前記保持量設定部は、前記第2の値がより大きいほど、前記保持量をより大きく減少させる、
ことを特徴とする請求項7から10のいずれか1項に記載の画像処理装置。
The retention amount setting unit reduces the retention amount to a greater extent as the second value is greater.
11. The image processing device according to claim 7,
前記指示体は、前記指示体に加えられる加速度を検知する加速度検知部、を備え、
前記保持量設定部は、前記加速度検知部により検知された前記加速度に応じて、前記保持量を減少させる、
ことを特徴とする請求項7から11のいずれか1項に記載の画像処理装置。
The indicator includes an acceleration detection unit that detects acceleration applied to the indicator,
The retention amount setting unit reduces the retention amount in response to the acceleration detected by the acceleration detection unit.
12. The image processing device according to claim 7, wherein the image processing device is a computer.
前記撮像画像を取得する画像取得部、を更に備え、
前記第1の表示領域は、前記画像取得部により取得された前記撮像画像を表示する、
ことを特徴とする請求項1から12のいずれか1項に記載の画像処理装置。
An image acquisition unit that acquires the captured image,
the first display area displays the captured image acquired by the image acquisition unit;
13. The image processing device according to claim 1,
請求項1から13のいずれか1項に記載の画像処理装置と、前記指示体と、を備えることを特徴とするメイクシミュレーション装置。 A makeup simulation device comprising the image processing device according to any one of claims 1 to 13 and the indicator. ユーザの顔が撮像された撮像画像を第1の表示領域に表示し、
化粧品を表現する化粧品画像を第2の表示領域に表示し、
前記第2の表示領域に前記化粧品画像が表示されている時に、指示体が前記第2の表示領域の表面に接触することによる操作を受け付け、
前記操作を受け付けた後において、前記指示体が前記ユーザの顔に接触した場合、前記ユーザの顔における前記指示体が接触した接触位置を特定し、
前記撮像画像における、特定された前記接触位置に対応する部分が、前記指示体による前記第2の表示領域の表面への接触に関する第1の値と、前記指示体による前記ユーザの顔への接触に関する第2の値と、のうちの少なくとも一方に基づいて加工されたメイク画像を前記第1の表示領域に表示する、
ことを特徴とする画像処理方法。
Displaying an image of the user's face in a first display area;
Displaying a cosmetic image representing the cosmetic product in a second display area;
receiving an operation by a pointer touching a surface of the second display area while the cosmetic image is being displayed in the second display area;
When the indicator touches a face of the user after the operation is received, a contact position on the face of the user touched by the indicator is identified;
a makeup image in which a portion of the captured image corresponding to the identified contact position is processed based on at least one of a first value related to the contact of the indicator with the surface of the second display area and a second value related to the contact of the indicator with the face of the user is displayed in the first display area;
13. An image processing method comprising:
コンピュータを、
ユーザの顔が撮像された撮像画像を第1の表示領域に表示し、化粧品を表現する化粧品画像を第2の表示領域に表示する表示部、
前記第2の表示領域に前記化粧品画像が表示されている時に、指示体が前記第2の表示領域の表面に接触することによる操作を受け付ける操作受付部、
前記操作受付部が前記操作を受け付けた後において、前記指示体が前記ユーザの顔に接触した場合、前記ユーザの顔における前記指示体が接触した接触位置を特定する接触位置特定部、
前記撮像画像における、前記接触位置特定部により特定された前記接触位置に対応する部分が、前記指示体による前記第2の表示領域の表面への接触に関する第1の値と、前記指示体による前記ユーザの顔への接触に関する第2の値と、のうちの少なくとも一方に基づいて加工されたメイク画像を前記第1の表示領域に表示する表示制御部、
として機能させるためのプログラム。
Computer,
a display unit that displays a captured image of a user's face in a first display area and displays a cosmetic image representing the cosmetic product in a second display area;
an operation receiving unit that receives an operation when a pointer comes into contact with a surface of the second display area while the cosmetic image is being displayed in the second display area;
a contact position specifying unit that specifies a contact position on the user's face where the indicator has come into contact after the operation accepting unit has accepted the operation, when the indicator has come into contact with the user's face;
a display control unit that displays, in the first display area, a makeup image in which a portion of the captured image corresponding to the contact position identified by the contact position identifying unit is processed based on at least one of a first value related to a contact of the indicator with a surface of the second display area and a second value related to a contact of the indicator with a face of the user;
A program to function as a
JP2024066340A 2019-09-24 2024-04-16 Image processing device, makeup simulation device, image processing method and program Pending JP2024097787A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2024066340A JP2024097787A (en) 2019-09-24 2024-04-16 Image processing device, makeup simulation device, image processing method and program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019173555A JP7476505B2 (en) 2019-09-24 2019-09-24 IMAGE PROCESSING DEVICE, MAKEUP SIMULATION DEVICE, IMAGE PROCESSING METHOD, AND PROGRAM
JP2024066340A JP2024097787A (en) 2019-09-24 2024-04-16 Image processing device, makeup simulation device, image processing method and program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2019173555A Division JP7476505B2 (en) 2019-09-24 2019-09-24 IMAGE PROCESSING DEVICE, MAKEUP SIMULATION DEVICE, IMAGE PROCESSING METHOD, AND PROGRAM

Publications (1)

Publication Number Publication Date
JP2024097787A true JP2024097787A (en) 2024-07-19

Family

ID=75157946

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2019173555A Active JP7476505B2 (en) 2019-09-24 2019-09-24 IMAGE PROCESSING DEVICE, MAKEUP SIMULATION DEVICE, IMAGE PROCESSING METHOD, AND PROGRAM
JP2024066340A Pending JP2024097787A (en) 2019-09-24 2024-04-16 Image processing device, makeup simulation device, image processing method and program

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2019173555A Active JP7476505B2 (en) 2019-09-24 2019-09-24 IMAGE PROCESSING DEVICE, MAKEUP SIMULATION DEVICE, IMAGE PROCESSING METHOD, AND PROGRAM

Country Status (1)

Country Link
JP (2) JP7476505B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023038136A1 (en) * 2021-09-13 2023-03-16 ヤーマン株式会社 Information processing device, program, and information processing method

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005044283A (en) * 2003-07-25 2005-02-17 Seiko Epson Corp Cosmetics guidance system, server apparatus, terminal device and program
WO2015029371A1 (en) * 2013-08-30 2015-03-05 パナソニックIpマネジメント株式会社 Makeup assistance device, makeup assistance method, and makeup assistance program
WO2018047287A1 (en) * 2016-09-09 2018-03-15 株式会社オプティム Image processing system, image processing device, image processing method, and program

Also Published As

Publication number Publication date
JP7476505B2 (en) 2024-05-01
JP2021051518A (en) 2021-04-01

Similar Documents

Publication Publication Date Title
KR101791366B1 (en) Enhanced virtual touchpad and touchscreen
US8553049B2 (en) Information-processing apparatus and information-processing method
CN110456907A (en) Control method, device, terminal device and the storage medium of virtual screen
US20140022171A1 (en) System and method for controlling an external system using a remote device with a depth sensor
CN108292448A (en) Information processing apparatus, information processing method, and program
CN111344663B (en) Rendering device and rendering method
JP6589038B1 (en) Wearable terminal, information processing terminal, program, and product information display method
JP2004078977A (en) Interface device
JP2024097787A (en) Image processing device, makeup simulation device, image processing method and program
JP6716028B2 (en) Control device, information processing system, control method, and program
KR101719927B1 (en) Real-time make up mirror simulation apparatus using leap motion
JP7547875B2 (en) Information processing device and program
KR102572675B1 (en) Method and electronic device for adaptively configuring user interface
US11500453B2 (en) Information processing apparatus
JP2023164494A (en) Image processing device, image processing method, and program
US11409369B2 (en) Wearable user interface control system, information processing system using same, and control program
JP7351165B2 (en) Image processing device, makeup simulation device, image processing method and program
JP6761407B2 (en) Physical information analyzer and facial shape diagnosis method
CN117784926A (en) Control device, control method, and computer-readable storage medium
CN113703577A (en) Drawing method and device, computer equipment and storage medium
JP2019046472A (en) Image processing device and image processing method
KR20210108080A (en) Electronic device and method for providing visual effect using the same
JP7413691B2 (en) Image processing device, image processing method and program
JP7397282B2 (en) Stationary determination system and computer program
US11360632B2 (en) Information processing system

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240515

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20240515