[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2018055619A - Image display device - Google Patents

Image display device Download PDF

Info

Publication number
JP2018055619A
JP2018055619A JP2016194361A JP2016194361A JP2018055619A JP 2018055619 A JP2018055619 A JP 2018055619A JP 2016194361 A JP2016194361 A JP 2016194361A JP 2016194361 A JP2016194361 A JP 2016194361A JP 2018055619 A JP2018055619 A JP 2018055619A
Authority
JP
Japan
Prior art keywords
subject
image
unit
posture
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016194361A
Other languages
Japanese (ja)
Inventor
孝也 井部
Takaya Ibe
孝也 井部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
V Sync Co Ltd
Original Assignee
V Sync Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by V Sync Co Ltd filed Critical V Sync Co Ltd
Priority to JP2016194361A priority Critical patent/JP2018055619A/en
Publication of JP2018055619A publication Critical patent/JP2018055619A/en
Pending legal-status Critical Current

Links

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an image display device capable of accurately displaying operation of a display object and also displaying an image model suitable for the display object.SOLUTION: An image display device includes: a display part displaying an image; an imaging part imaging a subject and acquiring a subject image; an operation detection part detecting operation of the subject by using the subject image and acquiring attitude information of the subject; a face recognition part performing face recognition of the subject by using the subject image and acquiring attribute information of the subject; and a control part creating an image model of the subject and displaying the image model at the display part. The control part determines based on the attribute information whether or not the subject is a display object at the display part, and upon determination that the subject is the display object at the display part, in accordance with the operation of the subject based on the attitude information, causes the display part to display the image model created based on the attribute information.SELECTED DRAWING: Figure 1

Description

本発明は、画像表示装置に関する。   The present invention relates to an image display device.

試着者が実際に衣服を試着しなくても、仮想的に衣服を試着した試着者の画像を生成して、表示手段に表示する仮想試着装置が知られている。   There is known a virtual try-on device that generates an image of a try-on who virtually tried on clothes and displays the image on a display means even if the try-on does not actually try on clothes.

特許文献1には、動画像撮影手段と、試着者の三次元体型データ及び様々な姿勢データから動画像に映る試着者の姿勢を推定する姿勢推定手段と、時系列の推定姿勢から滑らかで自然な姿勢時系列データを生成する姿勢修正手段と、衣服の動きを計算する衣服運動生成手段と、試着者が衣服を試着した状態を表示する表示手段と、から構成された仮想試着装置が開示されている。   Patent Document 1 discloses a moving image photographing means, a posture estimating means for estimating a fitting person's posture reflected in a moving image from the fitting person's three-dimensional body shape data and various posture data, and a smooth and natural image from the time-series estimated posture. Disclosed is a virtual try-on device comprising posture correcting means for generating correct posture time-series data, clothes movement generating means for calculating movement of clothes, and display means for displaying a state in which a wearer has tried on clothes. ing.

特開2006−249618号公報JP 2006-249618 A

特許文献1の仮想試着装置は、試着者の3次元人体形状を予め計測して記憶しておいた3次元人体形状データと、様々な姿勢データを予め計測して記憶しておいた姿勢辞書とを用いて、試着者の現在の動作や姿勢を推定する。すなわち、特許文献1の仮想試着装置は、試着者の動作を推定するためには、予め膨大な計測が必要になると共に、推定の計算量も膨大な量となる。また、特許文献1の仮想試着装置は、この計算量を減らすために姿勢辞書に記憶された姿勢データを減らすと、推定の精度が低下する。このため、特許文献1の仮想試着装置は、簡易な構成で試着者の動作を精度よく表現することが困難であり、容易に導入され難い。   The virtual try-on device of Patent Document 1 includes three-dimensional human body shape data that has been measured and stored in advance, and a posture dictionary that has been previously measured and stored various posture data. Is used to estimate the current motion and posture of the try-on. In other words, the virtual try-on device of Patent Document 1 requires a huge amount of measurement in advance in order to estimate the movement of the try-on, and the amount of calculation is also a huge amount. Further, in the virtual try-on device of Patent Document 1, if the posture data stored in the posture dictionary is reduced in order to reduce the amount of calculation, the accuracy of estimation decreases. For this reason, it is difficult for the virtual try-on device of Patent Document 1 to accurately represent the operation of the try-on with a simple configuration, and it is difficult to easily introduce it.

また、特許文献1の仮想試着装置は、動画像撮影手段から得られた動画像中の試着者の画像上に試着する衣服の画像を重ねる表示する。すなわち、特許文献1の仮想試着装置では、表示手段に表示される画像には試着者が現在着用している衣服の画像が写り込み、試着する衣服の画像と現在着用している衣服の画像とが干渉してしまうことがある。このため、特許文献1の仮想試着装置は、真に試着者に適した試着画像を表示することが難しい。   In addition, the virtual try-on device of Patent Document 1 displays an image of clothes to be tried on an image of a try-on person in the moving image obtained from the moving image photographing means. That is, in the virtual try-on device of Patent Document 1, the image displayed on the display means includes an image of clothes currently worn by the try-on, and an image of clothes to be tried on and an image of clothes currently being worn. May interfere. For this reason, it is difficult for the virtual try-on device of Patent Document 1 to display a try-on image that is truly suitable for a try-on.

また、特許文献1の仮想試着装置は、試着者が単数であることが前提であり、従来の試着室の代替品としての使用を想定している。すなわち、特許文献1の仮想試着装置は、複数の試着者が動画像撮影手段に同時に撮像された場合の処理を実行できように構成されていない。このため、特許文献1の仮想試着装置は、複数の試着者が動画像撮影手段に同時に撮像されることが想定される状況で使用することは難しい。   In addition, the virtual try-on device of Patent Document 1 is based on the premise that there is only one try-on, and is assumed to be used as a substitute for a conventional fitting room. That is, the virtual try-on device of Patent Document 1 is not configured to execute processing when a plurality of try-onrs are simultaneously imaged by the moving image photographing means. For this reason, it is difficult to use the virtual try-on device of Patent Document 1 in a situation where a plurality of try-onrs are assumed to be simultaneously imaged by the moving image photographing means.

本発明は、上述の事情に鑑みてなされたものであり、上述のような問題点を解決することを課題の一例とする。すなわち、本発明の課題の一例は、表示対象の動作を精度よく表示できると共に、表示対象に適した画像モデルを表示できる画像表示装置を提供することである。   This invention is made | formed in view of the above-mentioned situation, and makes it an example of a subject to solve the above problems. That is, an example of the subject of this invention is providing the image display apparatus which can display the operation | movement of a display object accurately and can display the image model suitable for a display object.

本発明の1つの観点に係る画像表示装置は、画像を表示する表示部と、被写体を撮像し、被写体画像を取得する撮像部と、前記被写体画像を用いて前記被写体の動作を検出し、前記被写体の姿勢情報を取得する動作検出部と、前記被写体画像を用いて前記被写体の顔認識を行い、前記被写体の属性情報を取得する顔認識部と、前記被写体の画像モデルを作成し、前記表示部に表示させる制御部と、を備え、前記制御部は、前記被写体が前記表示部の表示対象であるかを前記属性情報に基づいて判断し、前記被写体が前記表示部の表示対象であると判断されると、前記属性情報に基づいて作成された前記画像モデルを、前記姿勢情報による前記被写体の動作に応じて前記表示部に表示させる。   An image display device according to an aspect of the present invention includes a display unit that displays an image, an imaging unit that captures a subject and acquires a subject image, detects an operation of the subject using the subject image, and A motion detection unit that acquires subject posture information, a face recognition unit that performs face recognition of the subject using the subject image, acquires attribute information of the subject, creates an image model of the subject, and displays the display A control unit that displays on the display unit, wherein the control unit determines whether the subject is a display target of the display unit based on the attribute information, and the subject is the display target of the display unit. When the determination is made, the image model created based on the attribute information is displayed on the display unit in accordance with the movement of the subject based on the posture information.

好適には、前記制御部は、前記属性情報を用いて、前記画像モデルとして3次元CGモデルを作成するモデル作成部と、前記被写体の動作に応じた前記姿勢情報の変化に合わせて前記3次元CGモデルを動かして前記表示部に表示させる表示制御部と、を含む。   Preferably, the control unit uses the attribute information to create a three-dimensional CG model as the image model, and the three-dimensional according to the change of the posture information according to the motion of the subject. A display control unit that moves the CG model and displays the CG model on the display unit.

好適には、前記動作検出部は、前記被写体の姿勢特徴点の位置を検出し、前記顔認識部は、前記被写体の顔特徴点の位置を検出し、前記制御部は、前記姿勢特徴点の位置と前記顔特徴点の位置とに基づいて、前記姿勢情報と前記属性情報とを関連付ける関連付け部を更に含み、前記モデル作成部は、前記関連付け部によって関連付けられた前記姿勢情報と前記属性情報とを用いて、前記3次元CGモデルを作成する。   Preferably, the motion detection unit detects the position of the posture feature point of the subject, the face recognition unit detects the position of the face feature point of the subject, and the control unit detects the position of the posture feature point of the subject. An association unit that associates the posture information with the attribute information based on the position and the position of the face feature point, and the model creation unit includes the posture information and the attribute information associated with the association unit; Is used to create the three-dimensional CG model.

好適には、前記関連付け部は、前記姿勢特徴点の位置の座標系と前記顔特徴点の位置の座標系とを共通座標系にそれぞれ変換し、前記共通座標系において、前記姿勢特徴点の位置と前記顔特徴点の位置とを照合することによって、前記姿勢情報と前記属性情報とを関連付ける。   Preferably, the association unit converts a coordinate system of the position of the posture feature point and a coordinate system of the position of the face feature point into a common coordinate system, respectively, and the position of the posture feature point in the common coordinate system Is matched with the position of the face feature point to associate the posture information with the attribute information.

また、好適には、前記制御部は、前記被写体が前記表示対象であるかを前記属性情報を用いて判断する判断部を更に含み、前記撮像部は、複数の被写体が写り込んだ前記被写体画像を取得し、前記動作検出部は、前記複数の被写体に対応する複数の前記姿勢情報を取得し、前記顔認識部は、前記複数の被写体に対応する複数の前記属性情報を取得し、前記関連付け部は、前記複数の姿勢情報と前記複数の属性情報とをそれぞれ関連付け、前記判断部は、前記関連付け部によって関連付けられた複数の前記姿勢情報及び前記属性情報のうち、所定条件に適合した前記姿勢情報及び前記属性情報を選定し、選定された前記姿勢情報及び前記属性情報に対応する被写体を、前記表示対象であると判断し、前記モデル作成部は、前記判断部によって選定された前記姿勢情報及び前記属性情報を用いて、前記判断部によって前記表示対象であると判断された前記被写体の前記3次元CGモデルを作成し、前記表示制御部は、前記判断部によって前記表示対象であると判断された前記被写体の動作に応じた前記姿勢情報の変化に合わせて、前記モデル作成部によって作成された前記3次元CGモデルを動かして前記表示部に表示させる。   Preferably, the control unit further includes a determination unit that determines whether the subject is the display target using the attribute information, and the imaging unit includes the subject image in which a plurality of subjects are reflected. The motion detection unit acquires a plurality of the posture information corresponding to the plurality of subjects, the face recognition unit acquires a plurality of the attribute information corresponding to the plurality of subjects, and the association A unit associates the plurality of posture information and the plurality of attribute information, respectively, and the determination unit includes the posture that meets a predetermined condition among the plurality of posture information and the attribute information associated by the association unit. The information and the attribute information are selected, the subject corresponding to the selected posture information and the attribute information is determined to be the display target, and the model creation unit is selected by the determination unit. The three-dimensional CG model of the subject determined to be the display target by the determination unit is created using the posture information and the attribute information, and the display control unit is configured to display the display by the determination unit. The three-dimensional CG model created by the model creation unit is moved and displayed on the display unit in accordance with the change in the posture information according to the movement of the subject determined to be a subject.

本発明の1つの観点に係る画像表示装置は、簡易な構成であっても表示対象の動作を精度よく表示できると共に、真に表示対象に適した画像モデルを表示できる。   The image display apparatus according to one aspect of the present invention can display the operation of the display object with high accuracy even with a simple configuration, and can display an image model that is truly suitable for the display object.

本発明のいくつかの実施形態を、単なる例として、添付の図面を参照して以下に説明する。
本発明の実施形態に係る画像表示装置の外観構成を示す図である。 本発明の実施形態に係る画像表示装置の機能的構成を示すブロック図である 本発明の実施形態に係る画像表示装置で取得される被写体画像及び姿勢特徴点を示す図である。 本発明の実施形態に係る画像表示装置で取得される被写体画像に含まれる顔画像及び顔特徴点を示す図である。 本発明の実施形態に係る画像表示装置において行われる画像表示処理の詳細な流れを示すフローチャートである。 本発明の実施形態に係る画像表示装置で表示される表示画像を示す図である。 本発明の実施形態に係る画像表示装置において行われる関連付け処理の詳細な流れを示すフローチャートである。 本発明の実施形態に係る画像表示装置において行われる表示対象判断処理の詳細な流れを示すフローチャートである。
Several embodiments of the present invention will now be described, by way of example only, with reference to the accompanying drawings.
It is a figure which shows the external appearance structure of the image display apparatus which concerns on embodiment of this invention. It is a block diagram which shows the functional structure of the image display apparatus which concerns on embodiment of this invention. It is a figure which shows the to-be-photographed image and attitude | position feature point which are acquired with the image display apparatus which concerns on embodiment of this invention. It is a figure which shows the face image and face feature point which are contained in the to-be-photographed image acquired with the image display apparatus which concerns on embodiment of this invention. It is a flowchart which shows the detailed flow of the image display process performed in the image display apparatus which concerns on embodiment of this invention. It is a figure which shows the display image displayed with the image display apparatus which concerns on embodiment of this invention. It is a flowchart which shows the detailed flow of the correlation process performed in the image display apparatus which concerns on embodiment of this invention. It is a flowchart which shows the detailed flow of the display target judgment process performed in the image display apparatus which concerns on embodiment of this invention.

以下、本発明の実施形態について、図面を参照しながら詳しく説明する。以下に説明される実施形態は、本発明のいくつかの例を示すものであって、本発明の内容を限定するものではない。また、各実施形態で説明される構成及び動作の全てが本発明の構成及び動作として必須であるとは限らない。なお、同一の構成要素には同一の参照符号を付して、重複する説明を省略する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. Embodiment described below shows some examples of the present invention, and does not limit the contents of the present invention. In addition, all the configurations and operations described in the embodiments are not necessarily essential as the configurations and operations of the present invention. In addition, the same referential mark is attached | subjected to the same component and the overlapping description is abbreviate | omitted.

[1.画像表示装置の構成]
図1は、本発明の実施形態に係る画像表示装置1の外観構成を示す図である。図2は、本発明の実施形態に係る画像表示装置1の機能的構成を示すブロック図である。図3は、本発明の実施形態に係る画像表示装置1で取得される被写体画像及び姿勢特徴点を示す図である。図3(a)は、被写体画像を示す。図3(b)は、姿勢特徴点を示す。図4は、本発明の実施形態に係る画像表示装置1で取得される被写体画像に含まれる顔画像及び顔特徴点を示す図である。図4(a)は、顔画像を示す。図4(b)は、顔特徴点を示す。
[1. Configuration of image display apparatus]
FIG. 1 is a diagram showing an external configuration of an image display device 1 according to an embodiment of the present invention. FIG. 2 is a block diagram showing a functional configuration of the image display apparatus 1 according to the embodiment of the present invention. FIG. 3 is a diagram showing subject images and posture feature points acquired by the image display device 1 according to the embodiment of the present invention. FIG. 3A shows a subject image. FIG. 3B shows posture feature points. FIG. 4 is a diagram showing face images and face feature points included in the subject image acquired by the image display device 1 according to the embodiment of the present invention. FIG. 4A shows a face image. FIG. 4B shows facial feature points.

画像表示装置1は、画像及び情報を表示する装置である。画像表示装置1は、画像及び情報を表示することで通行人等に広告を宣伝するデジタルサイネージ装置と、通行人等が衣服等の服飾品を仮想的に試着した画像を表示するバーチャルフィッティング装置とを兼ねた装置であってもよい。画像表示装置1は、例えば、マネキン等が配置されるショーウインドウ内の陳列スペースに設置されてもよい。   The image display device 1 is a device that displays images and information. The image display device 1 includes a digital signage device that advertises advertisements to passers-by by displaying images and information, and a virtual fitting device that displays images in which passers-by virtually try on clothing and other clothing items It may be a device that also serves as The image display device 1 may be installed in a display space in a show window where a mannequin or the like is arranged, for example.

なお、画像には、静止画像と動画像との両方が含まれる。また、画像表示装置1によって表示される画像には、必要に応じて、画像に関連するテキスト等の情報も含まれるとする。   The image includes both a still image and a moving image. In addition, it is assumed that the image displayed by the image display apparatus 1 includes information such as text related to the image as necessary.

画像表示装置1は、図1及び図2に示されるように、表示部10と、モーションセンサ20と、情報機器30とを備える。表示部10とモーションセンサ20と情報機器30とは、互いに有線又は無線で各種情報を通信可能に接続されている。   As shown in FIGS. 1 and 2, the image display device 1 includes a display unit 10, a motion sensor 20, and an information device 30. The display unit 10, the motion sensor 20, and the information device 30 are connected to each other so that various types of information can be communicated with each other by wire or wirelessly.

表示部10は、情報機器30からの制御に基づいて画像を表示するディスプレイである。表示部10は、例えば、液晶ディスプレイ又は有機ELディスプレイ等の各種ディスプレイで構成されてもよい。   The display unit 10 is a display that displays an image based on control from the information device 30. The display unit 10 may be configured by various displays such as a liquid crystal display or an organic EL display, for example.

モーションセンサ20は、通行人等の被写体を撮像し、被写体の動作をリアルタイムで検出可能なセンサである。モーションセンサ20は、モーションキャプチャシステムに用いられる市販のモーションセンサによって構成されてもよい。なお、被写体には、通行人等の人物の他、通行人に同伴するペット等の動物が含まれる。   The motion sensor 20 is a sensor that captures an image of a subject such as a passerby and can detect the operation of the subject in real time. The motion sensor 20 may be configured by a commercially available motion sensor used in a motion capture system. The subject includes animals such as pets accompanied by passers-by as well as persons such as passers-by.

モーションセンサ20は、画像表示装置1は表示部10の上部中央に設置されてもよい。モーションセンサ20は、表示部10と一体的に設置されてもよい。また、表示部10と分離して設置されてもよい。   The motion sensor 20 may be installed in the upper center of the display unit 10 in the image display device 1. The motion sensor 20 may be installed integrally with the display unit 10. Further, it may be installed separately from the display unit 10.

モーションセンサ20は、撮像部21と、動作検出部22とを備える。   The motion sensor 20 includes an imaging unit 21 and an operation detection unit 22.

撮像部21は、被写体を撮像する1又は複数台のカメラである。撮像部21は、撮像された被写体の画像である被写体画像を取得する。被写体画像は、好適には、被写体の全身(全体)が写り込んだ画像であり、被写体の顔画像を含んでいる。撮像部21は、取得された被写体画像を、動作検出部22、及び、情報機器30の後述する顔認識部40に出力する。   The imaging unit 21 is one or a plurality of cameras that capture an image of a subject. The imaging unit 21 acquires a subject image that is a captured subject image. The subject image is preferably an image in which the whole body (whole body) of the subject is reflected, and includes a face image of the subject. The imaging unit 21 outputs the acquired subject image to the motion detection unit 22 and the face recognition unit 40 described later of the information device 30.

また、撮像部21は、深度センサ等の被写体との距離を計測するセンサを含んでおり、被写体の位置を検出することができる。撮像部21は、検出された被写体の位置情報を、取得された被写体画像と共に、動作検出部22及び顔認識部40に出力する。   The imaging unit 21 includes a sensor that measures a distance from the subject, such as a depth sensor, and can detect the position of the subject. The imaging unit 21 outputs the detected position information of the subject to the motion detection unit 22 and the face recognition unit 40 together with the acquired subject image.

動作検出部22は、被写体画像に基づいて被写体の動作を検出する機能を有する。動作検出部22は、モーションキャプチャシステムの動作解析プログラム等によって構成されてもよい。   The motion detection unit 22 has a function of detecting the motion of the subject based on the subject image. The motion detection unit 22 may be configured by a motion analysis system motion analysis program or the like.

動作検出部22は、撮像部21によって取得された被写体画像を用いて、被写体の姿勢に関する情報である姿勢情報を取得する。姿勢情報には、姿勢特徴点の位置を示す情報が含まれる。姿勢特徴点は、頭部、胴体部、四肢部、各関節部等の、被写体の体型及び姿勢を特徴付ける部位(ノード)である。動作検出部22は、撮像部21によって取得された被写体画像から姿勢情報をリアルタイムに取得し、情報機器30の後述する関連付け部51に出力する。   The motion detection unit 22 uses the subject image acquired by the imaging unit 21 to acquire posture information that is information regarding the posture of the subject. The posture information includes information indicating the position of the posture feature point. Posture feature points are parts (nodes) that characterize the body shape and posture of the subject, such as the head, trunk, limbs, and joints. The motion detection unit 22 acquires posture information from the subject image acquired by the imaging unit 21 in real time, and outputs the posture information to the association unit 51 described later of the information device 30.

例えば、図3(a)に示されるように、被写体Aの被写体画像Ga及び被写体Bの被写体画像Gbを含む撮像画像Gが撮像部21によって取得されたとする。この場合、動作検出部22は、被写体画像Gaを解析して、図3(b)に示されるように、被写体Aの姿勢特徴点Pa1、Pa2、・・・、Pan(n個)を抽出し、これらを含む姿勢情報Paを取得する。また、動作検出部22は、被写体画像Gbを解析して、被写体Bの姿勢特徴点Pb1、Pb2、・・・・、Pbn(n個)を抽出し、これらを含む姿勢情報Pbを取得する。なお、nは2以上の正の整数であって、動作検出部22の解析能力に応じて予め定められた数である。nは、例えば25であってもよい。   For example, it is assumed that a captured image G including a subject image Ga of the subject A and a subject image Gb of the subject B is acquired by the imaging unit 21 as illustrated in FIG. In this case, the motion detection unit 22 analyzes the subject image Ga, and extracts posture feature points Pa1, Pa2,..., Pan (n pieces) of the subject A as shown in FIG. , Posture information Pa including these is acquired. The motion detection unit 22 analyzes the subject image Gb, extracts posture feature points Pb1, Pb2,..., Pbn (n pieces) of the subject B, and obtains posture information Pb including these. Note that n is a positive integer equal to or greater than 2, and is a number determined in advance according to the analysis capability of the motion detection unit 22. For example, n may be 25.

なお、モーションセンサ20は、上述のように、撮像部21によって取得された被写体画像が動作検出部22と顔認識部40との両方に出力可能なように構成されている。すなわち、モーションセンサ20は、顔認識部40で用いられる被写体画像と、動作検出部22で用いられる被写体画像とが、1つの撮像部21によって取得されるように構成されている。しかしながら、画像表示装置1はこれに限定されず、顔認識部40で用いられる被写体画像と、動作検出部22で用いられる被写体画像とが、別々の撮像部によって取得されるように構成されてもよい。すなわち、画像表示装置1は、モーションセンサ20とは別に、顔認識部40で用いられる被写体画像を取得する専用の顔認識カメラを備えるように構成されてもよい。そして、画像表示装置1は、顔認識カメラによって取得された被写体画像は顔認識部40に出力され、モーションセンサ20の撮像部21によって取得された被写体画像は動作検出部22に出力されるように構成されてもよい。   As described above, the motion sensor 20 is configured so that the subject image acquired by the imaging unit 21 can be output to both the motion detection unit 22 and the face recognition unit 40. That is, the motion sensor 20 is configured such that the subject image used by the face recognition unit 40 and the subject image used by the motion detection unit 22 are acquired by one imaging unit 21. However, the image display device 1 is not limited to this, and the subject image used in the face recognition unit 40 and the subject image used in the motion detection unit 22 may be acquired by separate imaging units. Good. That is, the image display device 1 may be configured to include a dedicated face recognition camera that acquires a subject image used in the face recognition unit 40, separately from the motion sensor 20. Then, the image display device 1 outputs the subject image acquired by the face recognition camera to the face recognition unit 40, and outputs the subject image acquired by the imaging unit 21 of the motion sensor 20 to the motion detection unit 22. It may be configured.

情報機器30は、被写体画像及び姿勢情報等のモーションセンサ20から出力された情報に基づいて、表示部10への画像表示を制御する機器である。情報機器30は、パーソナルコンピュータで構成されてもよい。   The information device 30 is a device that controls image display on the display unit 10 based on information output from the motion sensor 20 such as a subject image and posture information. The information device 30 may be configured with a personal computer.

情報機器30は、顔認識部40と、制御部50とを備える。   The information device 30 includes a face recognition unit 40 and a control unit 50.

顔認識部40は、被写体画像に基づいて被写体の顔認識を行う機能を有する。顔認識部40は、情報機器30に含まれる不図示のプロセッサによって実行される顔認識アプリケーションプログラムによって構成されてもよい。   The face recognition unit 40 has a function of performing face recognition of a subject based on the subject image. The face recognition unit 40 may be configured by a face recognition application program executed by a processor (not shown) included in the information device 30.

顔認識部40は、撮像部21によって取得された被写体画像に含まれる顔画像を用いて顔認識を行い、被写体の属性に関する情報である属性情報を取得する。属性情報は、被写体の年齢及び性別等の情報である。また、属性情報には、顔特徴点の位置を示す情報が含まれる。顔特徴点は、目、鼻、口、眉等の、被写体の顔を特徴付ける部位である。顔認識部40は、取得された属性情報を、制御部50の関連付け部51に出力する。   The face recognition unit 40 performs face recognition using a face image included in the subject image acquired by the imaging unit 21, and acquires attribute information that is information regarding the attribute of the subject. The attribute information is information such as the age and sex of the subject. The attribute information includes information indicating the position of the face feature point. The face feature points are parts characterizing the face of the subject such as eyes, nose, mouth, and eyebrows. The face recognition unit 40 outputs the acquired attribute information to the association unit 51 of the control unit 50.

例えば、図4(a)に示されるように、被写体Aの被写体画像Ga及び被写体Bの被写体画像Gbを含む撮像画像Gが撮像部21によって取得されたとする。この場合、顔認識部40は、被写体画像Gaに含まれる顔画像Fa、及び、被写体画像Gbに含まれる顔画像Fbを特定する。そして、顔認識部40は、顔画像Faを解析して、図4(b)に示されるように、被写体Aの顔特徴点Qa1、Qa2、・・・、Qam(m個)を抽出し、これらを含む属性情報Qaを取得する。また、顔認識部40は、顔画像Fbを解析して、被写体Bの顔特徴点Qb1、Qb2、・・・、Qbm(m個)を抽出し、これらを含む属性情報Qbを取得する。なお、mは2以上の正の整数であって、顔認識部40の解析能力に応じて予め定められた数である。mは、例えば14であってもよい。   For example, as illustrated in FIG. 4A, it is assumed that a captured image G including a subject image Ga of the subject A and a subject image Gb of the subject B is acquired by the imaging unit 21. In this case, the face recognition unit 40 identifies the face image Fa included in the subject image Ga and the face image Fb included in the subject image Gb. Then, the face recognition unit 40 analyzes the face image Fa and extracts the face feature points Qa1, Qa2,..., Qam (m pieces) of the subject A, as shown in FIG. Attribute information Qa including these is acquired. Further, the face recognition unit 40 analyzes the face image Fb, extracts the face feature points Qb1, Qb2,..., Qbm (m pieces) of the subject B, and acquires attribute information Qb including these. Note that m is a positive integer equal to or greater than 2, and is a number determined in advance according to the analysis capability of the face recognition unit 40. For example, m may be 14.

制御部50は、少なくとも属性情報に基づいて被写体の画像モデルを作成し、表示部10に表示させる機能を有する。具体的には、制御部50は、撮像部21によって取得された被写体画像に示された被写体が表示部10の表示対象であるかを、その属性情報に基づいて判断する。そして、制御部50は、この被写体が表示部10の表示対象であると判断されると、その属性情報に基づいて作成された画像モデルを、この被写体の動作に応じて、表示部10に表示させる。画像モデルは、表示対象であると判断された被写体の属性情報に基づいて作成可能であるが、表示対象であると判断された被写体の姿勢情報と属性情報との両方に基づいて作成される方が好適である。制御部50は、情報機器30に含まれる不図示のプロセッサによって実行される3次元CG(computer graphics)アプリケーションプログラムによって構成されてもよい。   The control unit 50 has a function of creating an image model of a subject based on at least attribute information and causing the display unit 10 to display the image model. Specifically, the control unit 50 determines based on the attribute information whether the subject indicated in the subject image acquired by the imaging unit 21 is a display target of the display unit 10. When the control unit 50 determines that the subject is a display target of the display unit 10, the control unit 50 displays the image model created based on the attribute information on the display unit 10 according to the operation of the subject. Let An image model can be created based on the attribute information of a subject that is determined to be a display target, but is created based on both the posture information and attribute information of a subject that is determined to be a display target Is preferred. The control unit 50 may be configured by a three-dimensional CG (computer graphics) application program that is executed by a processor (not shown) included in the information device 30.

制御部50は、関連付け部51と、判断部52と、モデル作成部53と、服飾決定部54と、モデル合成部55と、シーン決定部56と、表示制御部57とを備える。   The control unit 50 includes an association unit 51, a determination unit 52, a model creation unit 53, a costume determination unit 54, a model synthesis unit 55, a scene determination unit 56, and a display control unit 57.

関連付け部51は、姿勢情報に含まれる姿勢特徴点の位置と、属性情報に含まれる顔特徴点の位置とに基づいて、姿勢情報と属性情報とを関連付ける機能を有する。なお、姿勢情報と属性情報とを関連付ける処理を、「関連付け処理」とも称する。   The associating unit 51 has a function of associating the posture information with the attribute information based on the position of the posture feature point included in the posture information and the position of the face feature point included in the attribute information. Note that the process of associating the posture information with the attribute information is also referred to as “association process”.

撮像部21によって取得された画像には複数の被写体画像が含まれていることがある。この場合、動作検出部22によって取得される姿勢情報は同時に複数の姿勢情報で構成され、顔認識部40によって取得された属性情報は同時に複数の姿勢情報で構成されることがある。そして、制御部50には、動作検出部22から出力された複数の姿勢情報と、顔認識部40から出力された複数の属性情報とが、互いに異なるデータ形式であり、互いに関連付けられていない状態で入力されることがある。すなわち、制御部50には、動作検出部22から出力された複数の姿勢情報と、顔認識部40から出力された複数の属性情報との対応関係が明らかでない状態で、入力されることがある。このため、関連付け部51は、動作検出部22から出力された複数の姿勢情報と、顔認識部40から出力された複数の属性情報とをそれぞれ関連付ける処理を行う。そして、関連付け部51は、関連付けられた複数の姿勢情報及び複数の属性情報を、判断部52に出力する。   The image acquired by the imaging unit 21 may include a plurality of subject images. In this case, the posture information acquired by the motion detection unit 22 may be composed of a plurality of posture information at the same time, and the attribute information acquired by the face recognition unit 40 may be composed of a plurality of posture information at the same time. In the control unit 50, the plurality of posture information output from the motion detection unit 22 and the plurality of attribute information output from the face recognition unit 40 have different data formats and are not associated with each other. May be entered. That is, the control unit 50 may be input in a state where the correspondence between the plurality of posture information output from the motion detection unit 22 and the plurality of attribute information output from the face recognition unit 40 is not clear. . For this reason, the associating unit 51 performs a process of associating the plurality of posture information output from the motion detecting unit 22 and the plurality of attribute information output from the face recognizing unit 40. Then, the associating unit 51 outputs the plurality of associated posture information and the plurality of attribute information to the determining unit 52.

なお、関連付け部51を用いて行われる関連付け処理の詳細については、図7を用いて後述する。   Details of the associating process performed using the associating unit 51 will be described later with reference to FIG.

判断部52は、属性情報を用いて、この属性情報に対応する被写体が表示部10の表示対象であるかを判断する機能を有する。なお、表示部10の表示対象となる被写体の有無を判断すると共に、どの被写体が表示対象となるかを判断する処理を、「表示対象判断処理」とも称する。   The determination unit 52 has a function of determining whether a subject corresponding to the attribute information is a display target of the display unit 10 using the attribute information. The process of determining whether or not there is a subject to be displayed on the display unit 10 and determining which subject is to be displayed is also referred to as “display target determination process”.

上述のように、撮像部21によって取得された画像には複数の被写体画像が含まれることがある。この場合、制御部50は、判断部52を用いて、複数の被写体画像に示された複数の被写体の中から、1又は複数の被写体を表示部10の表示対象とし、その被写体の画像モデルを表示部10に表示させる。この際、判断部52は、関連付け部51によって関連付けられた複数の姿勢情報及び複数の属性情報の中から、所定条件に適合した姿勢情報及び属性情報を選定する。そして、判断部52は、選定された姿勢情報及び属性情報に対応する被写体を、表示部10の表示対象であると判断する。そして、判断部52は、表示対象と判断された被写体の姿勢情報及び属性情報を、モデル作成部53、服飾決定部54及びシーン決定部56に出力する。   As described above, the image acquired by the imaging unit 21 may include a plurality of subject images. In this case, the control unit 50 uses the determination unit 52 to set one or a plurality of subjects as display targets of the display unit 10 from among a plurality of subjects indicated in the plurality of subject images, and select an image model of the subject. It is displayed on the display unit 10. At this time, the determination unit 52 selects posture information and attribute information that meet a predetermined condition from the plurality of posture information and the plurality of attribute information associated by the associating unit 51. Then, the determination unit 52 determines that the subject corresponding to the selected posture information and attribute information is the display target of the display unit 10. Then, the determination unit 52 outputs the posture information and attribute information of the subject determined to be a display target to the model creation unit 53, the clothing determination unit 54, and the scene determination unit 56.

なお、判断部52を用いて行われる表示対象判断処理の詳細については、図8を用いて後述する。   The details of the display object determination process performed using the determination unit 52 will be described later with reference to FIG.

モデル作成部53は、表示部10に表示させる被写体の画像モデルを作成する機能を有する。モデル作成部53によって作成される画像モデルは、3次元CGモデルであってもよい。被写体が人物であれば、モデル作成部53によって作成される3次元CGモデルは、被写体の体型、姿勢及び属性に即した人体モデルであって、人体の形状モデルと、この形状モデルに付加される肌の色等の色彩を含む。なお、モデル作成部53において3次元CGモデルを作成する処理を、「モデル作成処理」とも称する。   The model creation unit 53 has a function of creating an image model of a subject to be displayed on the display unit 10. The image model created by the model creation unit 53 may be a three-dimensional CG model. If the subject is a person, the three-dimensional CG model created by the model creation unit 53 is a human body model that conforms to the body shape, posture, and attributes of the subject, and is added to the human body shape model and this shape model. Includes colors such as skin color. Note that the process of creating a three-dimensional CG model in the model creation unit 53 is also referred to as “model creation process”.

モデル作成部53は、判断部52によって選定された姿勢情報及び属性情報を用いて、判断部52によって表示対象であると判断された被写体に適合する3次元CGモデルを作成する。すなわち、モデル作成部53は、表示対象と判断された被写体の姿勢情報及び属性情報を用いて、表示対象と判断された被写体の体型、姿勢及び属性に即した3次元CGモデルを作成する。そして、モデル作成部53は、作成された3次元CGモデルをモデル合成部55に出力する。   The model creation unit 53 creates a three-dimensional CG model that matches the subject determined to be a display target by the determination unit 52 using the posture information and attribute information selected by the determination unit 52. That is, the model creation unit 53 creates a three-dimensional CG model according to the body shape, posture, and attributes of the subject determined as the display target, using the posture information and attribute information of the subject determined as the display target. Then, the model creation unit 53 outputs the created 3D CG model to the model synthesis unit 55.

服飾決定部54は、モデル作成部53によって作成された3次元CGモデルに合成する服飾モデルを決定する機能を有する。服飾モデルは、衣服、靴、装身具等の服飾品の形状モデルと、この形状モデルに付加される模様及び色彩等とを含む3次元CGモデルである。なお、服飾モデルを決定する処理を、「服飾決定処理」とも称する。   The clothing determination unit 54 has a function of determining a clothing model to be combined with the three-dimensional CG model created by the model creation unit 53. The clothing model is a three-dimensional CG model including a shape model of clothing such as clothes, shoes, and accessories, and patterns and colors added to the shape model. Note that the process of determining a clothing model is also referred to as “clothing determination processing”.

情報機器30が備える不図示の記憶部には、予め複数の服飾モデルが記憶されている。記憶部に記憶された複数の服飾モデルは、例えば、お薦め商品に係る服飾モデルが含まれており、日付、時間帯、季節、イベント、ロケーション、企画等に合わせて分類されている。服飾決定部54は、記憶部に記憶された複数の服飾モデルの中から、所定の服飾決定条件に適合した服飾モデルを選定し、モデル作成部53によって作成された3次元CGモデルに合成する服飾モデルに決定する。この所定の服飾決定条件は、表示対象と判断された被写体の属性情報に基づいて設定される。そして、服飾決定部54は、決定された服飾モデルを、モデル合成部55及びシーン決定部56に出力する。   A plurality of clothing models are stored in advance in a storage unit (not shown) included in the information device 30. The plurality of clothing models stored in the storage unit include, for example, clothing models related to recommended products, and are classified according to date, time zone, season, event, location, plan, and the like. The clothing determination unit 54 selects a clothing model that matches a predetermined clothing determination condition from a plurality of clothing models stored in the storage unit, and combines the clothing model with the three-dimensional CG model created by the model creation unit 53. Decide on a model. This predetermined clothing determination condition is set based on the attribute information of the subject determined to be a display target. Then, the clothing determination unit 54 outputs the determined clothing model to the model synthesis unit 55 and the scene determination unit 56.

モデル合成部55は、服飾決定部54によって決定された服飾モデルを、モデル作成部53によって作成された3次元CGモデルに合成する機能を有する。モデル合成部55は、服飾決定部54によって決定された服飾モデルを、モデル作成部53によって作成された3次元CGモデルに即して変形させて合成する。そして、モデル合成部55は、服飾モデルが合成された3次元CGモデルを、表示制御部57に出力する。なお、モデル作成部53において作成された3次元CGモデルに服飾モデルを合成する処理を、「モデル合成処理」とも称する。   The model synthesis unit 55 has a function of synthesizing the clothing model determined by the clothing determination unit 54 with the three-dimensional CG model created by the model creation unit 53. The model synthesizing unit 55 synthesizes the clothing model determined by the clothing determining unit 54 according to the three-dimensional CG model created by the model creating unit 53. Then, the model synthesis unit 55 outputs the three-dimensional CG model in which the clothing model is synthesized to the display control unit 57. The process of synthesizing the clothing model with the three-dimensional CG model created by the model creation unit 53 is also referred to as “model synthesis process”.

シーン決定部56は、表示部10に表示させるシーン情報を決定する機能を有する。シーン情報は、モデル合成部55によって合成された3次元CGモデルが配置される仮想的な3次元空間を形成可能な空間情報である。シーン情報には、背景画像やシーンオブジェクトが含まれる。シーンオブジェクトは、モデル合成部55によって合成された3次元CGモデル以外のオブジェクトである。なお、シーン情報を決定する処理を、「シーン決定処理」とも称する。   The scene determination unit 56 has a function of determining scene information to be displayed on the display unit 10. The scene information is space information that can form a virtual three-dimensional space in which the three-dimensional CG model synthesized by the model synthesis unit 55 is arranged. The scene information includes a background image and a scene object. The scene object is an object other than the three-dimensional CG model synthesized by the model synthesis unit 55. The process for determining scene information is also referred to as “scene determination process”.

情報機器30が備える記憶部には、予め複数のシーン情報が記憶されている。記憶部に記憶された複数のシーン情報は、例えば、日付、時間帯、季節、イベント、ロケーション、企画テーマ等に合わせて分類されており、複数の服飾モデルに対応付けられて記憶されている。シーン決定部56は、記憶部に記憶された複数のシーン情報の中から、服飾決定部54によって決定された服飾モデルに対応するシーン情報を選定し、表示部10に表示させるシーン情報に決定する。そして、シーン決定部56は、決定されたシーン情報を、表示制御部57に出力する。   A plurality of scene information is stored in advance in a storage unit included in the information device 30. The plurality of pieces of scene information stored in the storage unit are classified according to, for example, date, time zone, season, event, location, planning theme, etc., and are stored in association with a plurality of clothing models. The scene determination unit 56 selects scene information corresponding to the clothing model determined by the clothing determination unit 54 from the plurality of scene information stored in the storage unit, and determines the scene information to be displayed on the display unit 10. . Then, the scene determination unit 56 outputs the determined scene information to the display control unit 57.

表示制御部57は、表示部10の表示画像を生成し、表示部10への表示制御を行う機能を有する。すなわち、表示制御部57は、モデル合成部55によって合成された3次元CGモデルと、シーン決定部56によって決定されたシーン情報とを用いてレンダリングを行って、表示部10の表示画像を生成する。そして、表示制御部57は、生成された表示画像を示す画像信号を表示部10に出力し、生成された表示画像を表示部10に表示させる。なお、表示部10の表示画像を生成し表示部10への表示制御を行う処理を、「表示制御処理」とも称する。   The display control unit 57 has a function of generating a display image of the display unit 10 and performing display control on the display unit 10. That is, the display control unit 57 performs rendering using the three-dimensional CG model synthesized by the model synthesis unit 55 and the scene information determined by the scene determination unit 56 to generate a display image of the display unit 10. . Then, the display control unit 57 outputs an image signal indicating the generated display image to the display unit 10 and causes the display unit 10 to display the generated display image. The process of generating a display image of the display unit 10 and performing display control on the display unit 10 is also referred to as “display control process”.

表示制御部57は、表示対象と判断された被写体の画像モデルを、その被写体の動作に応じて表示部10に表示させる。具体的には、表示制御部57は、表示対象と判断された被写体の姿勢情報を判断部52から受け取り、この被写体の動作に応じた姿勢情報の変化に合わせて、モデル合成部55によって合成された3次元CGモデルを動かして、表示部10に表示させる。それにより、表示部10に表示される被写体及び服飾品の3次元CGモデルの画像は、表示対象と判断された被写体の動作に追従して動くこととなる。   The display control unit 57 causes the display unit 10 to display the image model of the subject determined as the display target in accordance with the operation of the subject. Specifically, the display control unit 57 receives the posture information of the subject determined to be a display target from the determination unit 52, and is synthesized by the model synthesis unit 55 in accordance with the change of the posture information according to the motion of the subject. The three-dimensional CG model is moved and displayed on the display unit 10. Thereby, the image of the subject and the three-dimensional CG model of the clothing displayed on the display unit 10 moves following the movement of the subject determined as the display target.

なお、情報機器30は、画像表示装置1を管理するサーバ装置及び他の画像表示装置1との間で双方向通信が可能な通信部を備えてもよい。例えば、情報機器30は、通信部を用いて、サーバ装置から服飾モデル及びシーン情報並びにアプリケーションプログラム等をダウンロードし、情報機器30の記憶部に記憶させることができる。それにより、情報機器30は、服飾モデル及びシーン情報並びに各種アプリケーションプログラム等を適宜アップデートすることができる。   Note that the information device 30 may include a communication unit capable of bidirectional communication with a server device that manages the image display device 1 and another image display device 1. For example, the information device 30 can download the clothing model, the scene information, the application program, and the like from the server device using the communication unit, and store them in the storage unit of the information device 30. Thereby, the information device 30 can appropriately update the clothing model, the scene information, various application programs, and the like.

[2.各種処理の詳細な流れ]
図5は、本発明の実施形態に係る画像表示装置1において行われる画像表示処理の詳細な流れを示すフローチャートである。図6は、本発明の実施形態に係る画像表示装置1で表示される表示画像を示す図である。図6(a)は、デモ画像を示す。図6(b)は、姿勢情報及び属性情報に基づいて表示される、被写体の3次元CGモデルの画像を示す。図6(c)は、被写体の動作に応じて動く3次元CGモデルの画像を示す。図6(d)は、服飾モデルが変更された画像を示す。
[2. Detailed flow of various processes]
FIG. 5 is a flowchart showing a detailed flow of image display processing performed in the image display apparatus 1 according to the embodiment of the present invention. FIG. 6 is a diagram showing a display image displayed on the image display device 1 according to the embodiment of the present invention. FIG. 6A shows a demo image. FIG. 6B shows a three-dimensional CG model image of the subject displayed based on the posture information and the attribute information. FIG. 6C shows an image of a three-dimensional CG model that moves according to the movement of the subject. FIG. 6D shows an image in which the clothing model is changed.

図5に示された画像表示処理は、画像表示装置1の起動後に所定の周期で行われる処理であってもよい。   The image display process shown in FIG. 5 may be a process performed at a predetermined cycle after the image display device 1 is activated.

ステップS501において、画像表示装置1は、表示部10にデモ画像を表示させる。デモ画像は、被写体が撮像部21の画角内に存在しない場合に表示部10に表示される画像である。デモ画像は、図6(a)に示されるように、例えば、人体モデルの画像が静止画像であってもよい。図6(a)に示された人体モデルの画像は、マネキンを3次元CGモデルで表した画像であってもよい。図6(a)に示された服飾モデルの画像は、例えば、お薦め商品に係る服飾モデルの画像であってもよい。   In step S <b> 501, the image display device 1 displays a demonstration image on the display unit 10. The demo image is an image displayed on the display unit 10 when the subject does not exist within the angle of view of the imaging unit 21. As shown in FIG. 6A, the demo image may be, for example, a still image of a human body model. The image of the human body model shown in FIG. 6A may be an image representing the mannequin with a three-dimensional CG model. The image of the clothing model shown in FIG. 6A may be, for example, an image of the clothing model related to the recommended product.

ステップS502において、画像表示装置1は、被写体が撮像部21の画角内に進入すると、撮像部21を用いて被写体画像を取得する。被写体画像は、上述の図3(a)のように示される。   In step S <b> 502, when the subject enters the angle of view of the imaging unit 21, the image display apparatus 1 acquires a subject image using the imaging unit 21. The subject image is shown as shown in FIG.

ステップS503において、画像表示装置1は、動作検出部22を用いて、被写体画像に基づいて被写体の動作を検出し、姿勢特徴点を含む姿勢情報を取得する。図3(a)及び図3(b)の例では、画像表示装置1は、被写体画像Gaの姿勢情報Pa及び被写体画像Gbの姿勢情報Pbを取得する。姿勢情報Paには、姿勢特徴点Pa1〜Panが含まれる。姿勢情報Pbには、姿勢特徴点Pb1〜Pbnが含まれる。   In step S503, the image display device 1 uses the motion detection unit 22 to detect the motion of the subject based on the subject image, and acquires posture information including posture feature points. In the example of FIGS. 3A and 3B, the image display device 1 acquires the posture information Pa of the subject image Ga and the posture information Pb of the subject image Gb. The posture information Pa includes posture feature points Pa1 to Pan. The posture information Pb includes posture feature points Pb1 to Pbn.

ステップS504において、画像表示装置1は、顔認識部40を用いて、被写体画像から顔認識を行い、顔特徴点を含む属性情報を取得する。図4(a)及び図4(b)の例では、画像表示装置1は、被写体画像Gaに含まれる顔画像Faから被写体Aの属性情報Qaを取得すると共に、被写体画像Gbに含まれる顔画像Fbから被写体Bの属性情報Qbを取得する。属性情報Qaには、顔特徴点Qa1〜Qamが含まれる。属性情報Qbには、顔特徴点Qb1〜Qbmが含まれる。   In step S504, the image display device 1 performs face recognition from the subject image using the face recognition unit 40, and acquires attribute information including face feature points. 4A and 4B, the image display apparatus 1 acquires the attribute information Qa of the subject A from the face image Fa included in the subject image Ga, and at the same time the face image included in the subject image Gb. The attribute information Qb of the subject B is acquired from Fb. The attribute information Qa includes face feature points Qa1 to Qam. The attribute information Qb includes face feature points Qb1 to Qbm.

ステップS505において、画像表示装置1は、関連付け部51を用いて、関連付け処理を行う。関連付け処理の実行により、画像表示装置1は、姿勢情報と属性情報との対応関係を明らかにし、姿勢情報及び属性情報を互いに関連付けることができる。   In step S <b> 505, the image display apparatus 1 performs association processing using the association unit 51. By executing the association process, the image display device 1 can clarify the correspondence between the posture information and the attribute information and associate the posture information and the attribute information with each other.

なお、関連付け処理の詳細な流れについては、図7を用いて後述する。   The detailed flow of the association process will be described later with reference to FIG.

ステップS506において、画像表示装置1は、判断部52を用いて、表示対象判断処理を行う。表示対象判断処理の実行により、画像表示装置1は、表示対象となる被写体の有無を判断すると共に、どの被写体が表示対象であるかを判断し、表示対象と判断された被写体の姿勢情報及び属性情報を選定することができる。   In step S <b> 506, the image display device 1 uses the determination unit 52 to perform display target determination processing. By executing the display target determination process, the image display apparatus 1 determines whether or not there is a subject to be displayed, determines which subject is the display target, and posture information and attributes of the subject determined to be the display target. Information can be selected.

なお、表示対象判断処理の詳細な流れについては、図8を用いて後述する。   The detailed flow of the display target determination process will be described later with reference to FIG.

ステップS507において、画像表示装置1は、表示対象判断処理によって表示対象の被写体が無いと判断されたか否かを判定する。表示対象の被写体が無いと判断されなかった場合、画像表示装置1は、ステップS508に移行する。一方、表示対象の被写体が無いと判断された場合、画像表示装置1は、本処理を終了する。   In step S507, the image display apparatus 1 determines whether it is determined by the display target determination process that there is no subject to be displayed. If it is not determined that there is no subject to be displayed, the image display device 1 proceeds to step S508. On the other hand, when it is determined that there is no subject to be displayed, the image display device 1 ends this process.

ステップS508において、画像表示装置1は、モデル作成部53を用いて、モデル作成処理を行う。画像表示装置1は、表示対象判断処理によって選定された姿勢情報及び属性情報を用いて、表示対象と判断された被写体の体型、姿勢及び属性に即した3次元CGモデルを作成する。   In step S <b> 508, the image display apparatus 1 performs model creation processing using the model creation unit 53. The image display device 1 uses the posture information and attribute information selected by the display target determination process to create a three-dimensional CG model that conforms to the body shape, posture, and attributes of the subject determined to be a display target.

ステップS509において、画像表示装置1は、服飾決定部54を用いて、服飾決定処理を行う。画像表示装置1は、情報機器30の記憶部に記憶された複数の服飾モデルの中から、表示対象判断処理によって選定された属性情報に基づいて設定された所定の服飾決定条件に適合した服飾モデルを選定する。そして、画像表示装置1は、選定された服飾モデルを、モデル作成処理によって作成された3次元CGモデルに合成する服飾モデルに決定する。   In step S <b> 509, the image display apparatus 1 performs a clothing determination process using the clothing determination unit 54. The image display device 1 is a clothing model that conforms to a predetermined clothing determination condition set based on attribute information selected by the display target determination process from among a plurality of clothing models stored in the storage unit of the information device 30. Is selected. Then, the image display device 1 determines the selected clothing model as a clothing model to be combined with the three-dimensional CG model created by the model creation processing.

ステップS510において、画像表示装置1は、モデル合成部55を用いて、モデル合成処理を行う。画像表示装置1は、服飾決定処理によって決定された服飾モデルを、モデル作成処理によって作成された3次元CGモデルに即して変形させて合成する。   In step S <b> 510, the image display device 1 performs model synthesis processing using the model synthesis unit 55. The image display device 1 synthesizes the clothing model determined by the clothing determination processing in accordance with the three-dimensional CG model created by the model creation processing.

ステップS511において、画像表示装置1は、シーン決定部56を用いて、シーン決定処理を行う。画像表示装置1は、情報機器30の記憶部に記憶された複数のシーン情報の中から、服飾決定処理によって決定された服飾モデルに対応するシーン情報を選定する。そして、画像表示装置1は、選定されたシーン情報を、モデル合成処理によって合成された3次元CGモデルと共に表示させるシーン情報に決定する。   In step S <b> 511, the image display apparatus 1 performs a scene determination process using the scene determination unit 56. The image display device 1 selects scene information corresponding to the clothing model determined by the clothing determination process from the plurality of scene information stored in the storage unit of the information device 30. Then, the image display device 1 determines the selected scene information as scene information to be displayed together with the three-dimensional CG model synthesized by the model synthesis process.

ステップS512において、画像表示装置1は、表示制御部57を用いて、表示制御処理を行う。画像表示装置1は、モデル合成処理によって合成された3次元CGモデルと、シーン決定処理よって決定されたシーン情報とを用いてレンダリングを行って、表示部10の表示画像を生成する。そして、画像表示装置1は、生成された表示画像を示す画像信号を表示部10に出力し、生成された表示画像を表示部10に表示させる。   In step S <b> 512, the image display apparatus 1 performs display control processing using the display control unit 57. The image display device 1 performs rendering using the three-dimensional CG model synthesized by the model synthesis process and the scene information determined by the scene determination process, and generates a display image of the display unit 10. Then, the image display device 1 outputs an image signal indicating the generated display image to the display unit 10 and causes the display unit 10 to display the generated display image.

例えば、図6(b)に示されるように、表示対象と判断された被写体が、20歳代後半のスリム体型の男性である被写体Aであるとする。そして、表示対象と判断された被写体Aの姿勢が、腰に手を当てた状態で立っている姿勢である。そして、サッカー場付近等のサッカーに興味がある人物が通行し易いロケーションに画像表示装置1があるとする。そして、服飾決定処理において、20歳代後半のスリム体型の男性にお薦めの商品としてサッカーのトレーニングウェアに係る服飾モデルが決定されたとする。この場合、図6(b)に示されるように、表示部10には、被写体Aの体型、姿勢及び属性に即した3次元CGモデルに、被写体の属性に即したサッカーのトレーニングウェアに係る服飾モデルを合成した画像が表示される。また、例えば、表示部10には、決定された服飾モデルに対応するサッカー場を示すシーン情報の画像が表示される。   For example, as shown in FIG. 6B, it is assumed that the subject determined to be a display target is subject A, which is a slim male in the late 20s. Then, the posture of the subject A determined to be a display target is a posture standing with a hand on the hip. Assume that the image display device 1 is in a location where a person interested in soccer such as the vicinity of a soccer field can easily pass. Then, in the clothing determination process, it is assumed that a clothing model related to soccer training wear is determined as a recommended product for a slim-type man in his late 20s. In this case, as shown in FIG. 6 (b), the display unit 10 has a three-dimensional CG model that conforms to the body shape, posture, and attributes of the subject A, and clothing related to soccer training wear that conforms to the subject attributes. The combined image is displayed. For example, the display unit 10 displays an image of scene information indicating a soccer field corresponding to the determined clothing model.

ステップS513において、画像表示装置1は、表示対象と判断された被写体の姿勢が変化したか否かを判定する。画像表示装置1は、表示対象と判断された被写体の姿勢情報に含まれるに姿勢特徴点の位置が変化したか否かを確認することによって、表示対象と判断された被写体の姿勢が変化したか否かを判定してもよい。被写体の姿勢が変化していない場合、画像表示装置1は、ステップS512に移行し、表示部10に表示された画像を継続して表示部10に表示させる。一方、被写体の姿勢が変化した場合、画像表示装置1は、ステップS514に移行する。   In step S513, the image display device 1 determines whether or not the posture of the subject determined to be a display target has changed. Whether the image display device 1 has changed the posture of the subject determined to be the display target by checking whether the position of the posture feature point has been changed in the posture information of the subject determined to be the display target. It may be determined whether or not. When the posture of the subject has not changed, the image display device 1 proceeds to step S512, and continuously displays the image displayed on the display unit 10 on the display unit 10. On the other hand, when the posture of the subject has changed, the image display device 1 proceeds to step S514.

ステップS514において、画像表示装置1は、表示部10の表示を終了するか否かを判定する。画像表示装置1は、表示対象と判断された被写体の動作が、予め定められた表示終了動作であるか否かを判定する。表示終了動作は、例えば、画像表示装置1の前から立ち去るような動作であってもよい。画像表示装置1は、表示対象と判断された被写体の姿勢情報に含まれるに姿勢特徴点の位置が、表示終了動作を示すように変化したか否かを確認することによって、表示部10の表示を終了するか否かを判定してもよい。姿勢特徴点の位置が表示終了動作を示すように変化することとは、例えば、この姿勢特徴点の位置が一定時間に亘って一定速度以上で変化することであってもよい。表示部10の表示を終了する場合、画像表示装置1は、本処理を終了する。一方、表示部10の表示を終了しない場合、画像表示装置1は、ステップS515に移行する。   In step S514, the image display device 1 determines whether or not to end the display on the display unit 10. The image display device 1 determines whether or not the motion of the subject determined as the display target is a predetermined display end motion. The display end operation may be, for example, an operation of leaving from the front of the image display device 1. The image display device 1 confirms whether or not the position of the posture feature point has been changed so as to indicate the display end operation included in the posture information of the subject determined to be a display target. It may be determined whether or not to end. The change of the position of the posture feature point so as to indicate the display end operation may be, for example, that the position of the posture feature point changes at a certain speed or more over a certain time. When the display on the display unit 10 is ended, the image display device 1 ends the present process. On the other hand, when the display on the display unit 10 is not terminated, the image display device 1 proceeds to step S515.

ステップS515において、画像表示装置1は、表示部10に表示された服飾モデルを変更するか否かを判定する。画像表示装置1は、表示対象と判断された被写体の動作が、予め定められた服飾モデルの変更動作であるか否かを判定する。服飾モデルの変更動作は、例えば、衣服を脱ぐような動作であってもよい。画像表示装置1は、表示対象と判断された被写体の姿勢情報に含まれるに姿勢特徴点の位置が、服飾モデルの変更動作を示すように変化したか否かを確認することによって、表示部10に表示された服飾モデルを変更するか否かを判定してもよい。   In step S515, the image display device 1 determines whether to change the clothing model displayed on the display unit 10. The image display device 1 determines whether or not the motion of the subject that is determined as a display target is a predetermined clothing model changing operation. The change operation of the clothing model may be, for example, an operation of taking off clothes. The image display device 1 confirms whether or not the position of the posture feature point is included in the posture information of the subject determined to be a display target so as to indicate the change operation of the clothing model, thereby displaying the display unit 10. It may be determined whether to change the clothing model displayed on the screen.

服飾モデルを変更する場合、画像表示装置1は、ステップS509に移行し、再び服飾決定処理を行う。その際、画像表示装置1は、現在表示された服飾モデルとは異なる服飾モデルが選定されるよう服飾決定条件を修正する。   When changing the clothing model, the image display device 1 proceeds to step S509 and performs the clothing determination process again. At that time, the image display device 1 corrects the clothing determination condition so that a clothing model different from the currently displayed clothing model is selected.

一方、服飾モデルを変更しない場合、画像表示装置1は、ステップS512に移行し、再び表示制御処理を行う。その際、画像表示装置1は、表示対象と判断された被写体の姿勢情報に含まれる姿勢特徴点の位置の変化に合わせて、モデル合成部55によって合成された3次元CGモデルを動かすように、表示制御処理を行う。 On the other hand, when the clothing model is not changed, the image display device 1 proceeds to step S512 and performs display control processing again. At that time, the image display device 1 moves the three-dimensional CG model synthesized by the model synthesis unit 55 in accordance with the change in the position of the posture feature point included in the posture information of the subject determined as the display target. Display control processing is performed.

例えば、図6(c)に示されるように、表示対象と判断された被写体Aが、図6(b)に示されるような腰に手を当てた状態で立っている姿勢から、サッカーボールを蹴るような姿勢へと変化するような動作を行ったとする。そして、この動作が、表示終了動作にも、服飾モデルの変更動作にも該当しないとする。この場合、図6(c)に示されるように、表示部10には、図6(b)に示されたサッカーのトレーニングウェアのままで、腰に手を当てた状態で立っている姿勢から、サッカーボールを蹴るような姿勢へと変化するように動作する3次元CGモデルの画像が表示される。   For example, as shown in FIG. 6 (c), a subject A determined to be a display target is placed with a soccer ball from a posture standing with his / her hand on his / her waist as shown in FIG. 6 (b). Suppose that an action that changes to a kicking posture is performed. It is assumed that this operation does not correspond to the display end operation or the clothing model change operation. In this case, as shown in FIG. 6 (c), the display unit 10 has the soccer training wear shown in FIG. Then, an image of a three-dimensional CG model that operates so as to change to a posture of kicking a soccer ball is displayed.

また、例えば、図6(d)に示されるように、表示対象と判断された被写体Aが、図6(b)に示されるような腰に手を当てた状態で立っている姿勢から、衣服を脱ぐような姿勢へと変化するような動作を行ったとする。そして、この動作が服飾モデルの変更動作に該当するとする。この場合、例えば、図6(d)に示されるように、表示部10には、図6(b)に示されたトレーニングウェアとは異なる色のトレーニングウェアに変更された3次元CGモデルの画像が表示される。   Further, for example, as shown in FIG. 6 (d), the subject A determined to be a display object is in a posture standing with his / her hand on the waist as shown in FIG. 6 (b). Suppose you perform an action that changes your posture to take off. It is assumed that this operation corresponds to a clothing model change operation. In this case, for example, as shown in FIG. 6D, the display unit 10 has an image of a three-dimensional CG model that has been changed to training wear of a color different from the training wear shown in FIG. Is displayed.

その後、例えば、表示対象と判断された被写体Aが上述の表示終了動作を行うと、表示部10には、図6(a)に示されるようなデモ画像が表示される。   Thereafter, for example, when the subject A determined to be displayed performs the above-described display end operation, a demo image as shown in FIG. 6A is displayed on the display unit 10.

図7は、本発明の実施形態に係る画像表示装置1において行われる関連付け処理の詳細な流れを示すフローチャートである。   FIG. 7 is a flowchart showing a detailed flow of the associating process performed in the image display apparatus 1 according to the embodiment of the present invention.

被写体が単数である場合、取得された姿勢情報と属性情報との対応関係は、1対1の関係で明らかであるため、自ずと関連付けられる。一方、被写体が複数である場合には、取得された複数の姿勢情報と複数の属性情報との対応関係は明らかではない。そこで、図7及び図8の説明では、被写体が被写体A及び被写体Bの2人であった場合を例に挙げて説明する。   When there is a single subject, the correspondence relationship between the acquired posture information and the attribute information is obvious as a one-to-one relationship, and thus is naturally associated. On the other hand, when there are a plurality of subjects, the correspondence between the acquired plurality of posture information and the plurality of attribute information is not clear. Therefore, in the description of FIG. 7 and FIG. 8, a case where the subject is two people, the subject A and the subject B, will be described as an example.

ステップS701において、画像表示装置1の関連付け部51には、図5のステップS503において取得された姿勢情報Pa及びPbと、図5のステップS504において取得された属性情報Qa及びQbとが入力される。   In step S701, the posture information Pa and Pb acquired in step S503 in FIG. 5 and the attribute information Qa and Qb acquired in step S504 in FIG. 5 are input to the associating unit 51 of the image display device 1. .

ステップS702−1において、画像表示装置1は、姿勢情報Paに含まれる姿勢特徴点Pa1〜Panの位置、姿勢情報Pbに含まれる姿勢特徴点Pb1〜Pbnの位置、及び、これらの位置座標系XPを確認する。   In step S702-1, the image display apparatus 1 determines the positions of the posture feature points Pa1 to Pan included in the posture information Pa, the positions of the posture feature points Pb1 to Pbn included in the posture information Pb, and these position coordinate systems XP. Confirm.

ステップS702−2において、画像表示装置1は、属性情報Qaに含まれる顔特徴点Qa1〜Qamの位置、属性情報Qbに含まれる顔特徴点Qb1〜Qbmの位置、及び、これらの位置座標系XQを確認する。なお、ステップS702−1とステップS702−2とは、並列的に処理されてもよい。   In step S702-2, the image display apparatus 1 determines the positions of the face feature points Qa1 to Qam included in the attribute information Qa, the positions of the face feature points Qb1 to Qbm included in the attribute information Qb, and the position coordinate system XQ. Confirm. Note that step S702-1 and step S702-2 may be processed in parallel.

ステップS703において、画像表示装置1は、姿勢特徴点の位置座標系XP及び顔特徴点の位置座標系XQを、共通座標系Xに座標変換する。なお、位置座標系XPで表された姿勢特徴点Pa1〜Panは、共通座標系Xへの座標変換によって、姿勢特徴点Pa1’〜Pan’にそれぞれ変換されたとする。同様に、位置座標系XPで表された姿勢特徴点Pb1〜Pbnは、共通座標系Xへの座標変換によって、姿勢特徴点Pb1’〜Pbn’にそれぞれ変換されたとする。また、位置座標系XQで表された顔特徴点Qa1〜Qamは、共通座標系Xへの座標変換によって、顔特徴点Qa1’〜Qam’にそれぞれ変換されたとする。同様に、位置座標系XQで表された顔特徴点Qb1〜Qbmは、共通座標系Xへの座標変換によって、顔特徴点Qb1’〜Qbm’にそれぞれ変換されたとする。   In step S <b> 703, the image display apparatus 1 performs coordinate conversion of the position coordinate system XP of the posture feature points and the position coordinate system XQ of the face feature points into the common coordinate system X. It is assumed that the posture feature points Pa1 to Pan expressed in the position coordinate system XP are converted into posture feature points Pa1 'to Pan' by coordinate conversion to the common coordinate system X, respectively. Similarly, it is assumed that the posture feature points Pb1 to Pbn represented in the position coordinate system XP are converted into posture feature points Pb1 'to Pbn' by coordinate conversion to the common coordinate system X, respectively. Further, it is assumed that the face feature points Qa1 to Qam expressed in the position coordinate system XQ are converted into face feature points Qa1 'to Qam' by the coordinate conversion to the common coordinate system X, respectively. Similarly, it is assumed that the face feature points Qb1 to Qbm expressed in the position coordinate system XQ are converted into face feature points Qb1 'to Qbm' by coordinate conversion to the common coordinate system X, respectively.

ステップS704−1において、画像表示装置1は、共通座標系Xでの姿勢特徴点Pa1’〜Pan’の位置、及び、姿勢特徴点Pb1’〜Pbn’の位置を確認する。   In step S704-1, the image display apparatus 1 confirms the positions of the posture feature points Pa1 'to Pan' and the positions of the posture feature points Pb1 'to Pbn' in the common coordinate system X.

ステップS704−2において、画像表示装置1は、共通座標系Xでの顔特徴点Qa1’〜Qam’の位置、及び、顔特徴点Qb1’〜Qbm’の位置を確認する。なお、ステップS704−1とステップS704−2とは、並列的に処理されてもよい。   In step S704-2, the image display apparatus 1 checks the positions of the face feature points Qa1 'to Qam' and the positions of the face feature points Qb1 'to Qbm' in the common coordinate system X. Note that step S704-1 and step S704-2 may be processed in parallel.

ステップS705において、画像表示装置1は、姿勢特徴点Pa1’〜Pan’の平均位置、姿勢特徴点Pb1’〜Pbn’の平均位置、顔特徴点Qa1’〜Qam’の平均位置、及び、顔特徴点Qb1’〜Qbm’の平均位置を算出する。   In step S705, the image display device 1 determines the average position of the posture feature points Pa1 ′ to Pan ′, the average position of the posture feature points Pb1 ′ to Pbn ′, the average position of the face feature points Qa1 ′ to Qam ′, and the face feature. The average position of the points Qb1 ′ to Qbm ′ is calculated.

ステップS706において、画像表示装置1は、姿勢特徴点Pa1’〜Pan’の平均位置、及び、姿勢特徴点Pb1’〜Pbn’の平均位置と、顔特徴点Qa1’〜Qam’の平均位置、及び、顔特徴点Qb1’〜Qbm’の平均位置とを照合する。   In step S706, the image display apparatus 1 determines the average position of the posture feature points Pa1 ′ to Pan ′, the average position of the posture feature points Pb1 ′ to Pbn ′, the average position of the face feature points Qa1 ′ to Qam ′, and The face feature points Qb1 ′ to Qbm ′ are collated with the average position.

例えば、画像表示装置1は、姿勢特徴点Pa1’〜Pan’の平均位置と、顔特徴点Qa1’〜Qam’の平均位置との距離を算出する。画像表示装置1は、姿勢特徴点Pa1’〜Pan’の平均位置と、顔特徴点Qb1’〜Qbm’の平均位置との距離を算出する。同様に、画像表示装置1は、姿勢特徴点Pb1’〜Pbn’の平均位置と、顔特徴点Qa1’〜Qam’の平均位置との距離を算出する。画像表示装置1は、姿勢特徴点Pb1’〜Pbn’の平均位置と、顔特徴点Qb1’〜Qbm’の平均位置との距離を算出する。そして、画像表示装置1は、姿勢特徴点の平均位置と顔特徴点の平均位置との距離が最も短い組み合せを求める。この距離が最も短い姿勢特徴点と顔特徴点との組み合わせは、姿勢特徴点の平均位置と顔特徴点の平均位置とが最も近い。このため、画像表示装置1は、この距離が最も短い姿勢特徴点と顔特徴点との組み合わせを、同一の被写体画像から特徴点が抽出された組み合わせであると推定する。   For example, the image display device 1 calculates the distance between the average position of the posture feature points Pa1 'to Pan' and the average position of the face feature points Qa1 'to Qam'. The image display device 1 calculates the distance between the average position of the posture feature points Pa1 'to Pan' and the average position of the face feature points Qb1 'to Qbm'. Similarly, the image display device 1 calculates the distance between the average position of the posture feature points Pb1 'to Pbn' and the average position of the face feature points Qa1 'to Qam'. The image display device 1 calculates the distance between the average position of the posture feature points Pb1 'to Pbn' and the average position of the face feature points Qb1 'to Qbm'. Then, the image display device 1 obtains a combination having the shortest distance between the average position of the posture feature points and the average position of the face feature points. In the combination of the posture feature point and the face feature point with the shortest distance, the average position of the posture feature point and the average position of the face feature point are the closest. For this reason, the image display apparatus 1 estimates that the combination of the posture feature point and the face feature point with the shortest distance is a combination in which the feature point is extracted from the same subject image.

ここでは、姿勢特徴点Pa1’〜Pan’の平均位置は、顔特徴点Qb1’〜Qbm’の平均位置よりも、顔特徴点Qa1’〜Qam’の平均位置に近いとする。姿勢特徴点Pb1’〜Pbn’の平均位置は、顔特徴点Qa1’〜Qam’の平均位置よりも、顔特徴点Qb1’〜Qbm’の平均位置に近いとする。   Here, it is assumed that the average position of the posture feature points Pa1 'to Pan' is closer to the average position of the face feature points Qa1 'to Qam' than the average position of the face feature points Qb1 'to Qbm'. Assume that the average positions of the posture feature points Pb1 'to Pbn' are closer to the average positions of the face feature points Qb1 'to Qbm' than the average positions of the face feature points Qa1 'to Qam'.

ステップS707−1において、画像表示装置1は、互いの平均位置が近い、姿勢特徴点Pa1’〜Pan’に対応する姿勢特徴点Pa1〜Panを含む姿勢情報Paと、顔特徴点Qa1’〜Qam’に対応する顔特徴点Qa1〜Qamを含む属性情報Qaとを、関連付ける。   In step S707-1, the image display apparatus 1 includes posture information Pa including posture feature points Pa1 to Pan corresponding to posture feature points Pa1 ′ to Pan ′ and face feature points Qa1 ′ to Qam that are close to each other in average position. The attribute information Qa including the face feature points Qa1 to Qam corresponding to 'is associated.

ステップS707−2において、画像表示装置1は、互いの平均位置が近い、姿勢特徴点Pb1’〜Pbn’に対応する姿勢特徴点Pb1〜Pbnを含む姿勢情報Pbと、顔特徴点Qb1’〜Qbm’に対応する顔特徴点Qb1〜Qbmを含む属性情報Qbとを、関連付ける。なお、ステップS707−1とステップS707−2とは、並列的に処理されてもよい。   In step S707-2, the image display apparatus 1 includes posture information Pb including posture feature points Pb1 to Pbn corresponding to posture feature points Pb1 ′ to Pbn ′ and face feature points Qb1 ′ to Qbm that are close to each other in average position. The attribute information Qb including the face feature points Qb1 to Qbm corresponding to 'is associated. Step S707-1 and step S707-2 may be processed in parallel.

ステップS708−1において、画像表示装置1は、関連付けられた姿勢情報Pa及び属性情報Qaを、被写体Aの被写体情報Taとして記憶する。   In step S708-1, the image display device 1 stores the associated posture information Pa and attribute information Qa as subject information Ta of the subject A.

ステップS708−2において、画像表示装置1は、関連付けられた姿勢情報Pb及び属性情報Qbを、被写体Bの被写体情報Tbとして記憶する。なお、ステップS708−1とステップS708−2とは、並列的に処理されてもよい。その後、画像表示装置1は、本処理を終了し、図5のステップS506に移行する。   In step S708-2, the image display device 1 stores the associated posture information Pb and attribute information Qb as subject information Tb of the subject B. Note that step S708-1 and step S708-2 may be processed in parallel. Thereafter, the image display device 1 ends the process, and proceeds to step S506 in FIG.

なお、画像表示装置1は、ステップS705において姿勢特徴点の平均位置及び顔特徴点の平均位置を算出し、ステップS706において姿勢特徴点の平均位置と顔特徴点の平均位置とを照合した。しかしながら、画像表示装置1はこれに限定されず、ステップS705において姿勢特徴点の代表位置及び顔特徴点の代表位置を特定し、ステップS706において姿勢特徴点の代表位置と顔特徴点の代表位置とを照合してもよい。姿勢特徴点の代表位置は、例えば、頭部を示す姿勢特徴点の位置であってもよい。顔特徴点の代表位置は、例えば、鼻部を示す顔特徴点の位置であってもよい。   Note that the image display device 1 calculates the average position of the posture feature points and the average position of the face feature points in step S705, and collates the average position of the posture feature points and the average position of the face feature points in step S706. However, the image display device 1 is not limited to this. In step S705, the representative position of the posture feature point and the representative position of the face feature point are specified. In step S706, the representative position of the posture feature point and the representative position of the face feature point are determined. May be matched. The representative position of the posture feature point may be, for example, the position of the posture feature point indicating the head. The representative position of the face feature point may be, for example, the position of the face feature point indicating the nose.

図8は、本発明の実施形態に係る画像表示装置1において行われる表示対象判断処理の詳細な流れを示すフローチャートである。   FIG. 8 is a flowchart showing a detailed flow of the display target determination process performed in the image display apparatus 1 according to the embodiment of the present invention.

ステップS801において、画像表示装置1は、姿勢情報Pa及び属性情報Qaを含む被写体Aの被写体情報Taと、姿勢情報Pb及び属性情報Qbを含む被写体Bの被写体情報Tbとを確認する。   In step S801, the image display apparatus 1 confirms subject information Ta of the subject A including the posture information Pa and the attribute information Qa, and subject information Tb of the subject B including the posture information Pb and the attribute information Qb.

ステップS802において、画像表示装置1は、条件1に適合する属性情報を含む被写体情報を検索する。条件1は、被写体が表示対象となり得る条件を示す表示対象条件の1つであって、属性情報に関係した条件であってもよい。例えば、条件1は、被写体の属性情報に含まれる年齢が30歳代以下であると設定されてもよい。属性情報Qaの年齢に関する情報が20歳代後半であり、属性情報Qbの年齢に関する情報が20歳代前半であれば、条件1に係る検索結果の中には、属性情報Qaを含む被写体情報Ta及び属性情報Qbを含む被写体情報Tbが共に含まれる。   In step S <b> 802, the image display device 1 searches for subject information including attribute information that satisfies the condition 1. Condition 1 is one of the display target conditions indicating the conditions under which the subject can be a display target, and may be a condition related to attribute information. For example, the condition 1 may be set such that the age included in the subject attribute information is 30 years old or lower. If the information about the age of the attribute information Qa is in the late 20s and the information about the age of the attribute information Qb is in the early 20s, the search result according to the condition 1 includes subject information Ta including the attribute information Qa. And subject information Tb including attribute information Qb.

ステップS803において、画像表示装置1は、条件1に係る検索結果の中に、条件1に適合する属性情報を含む被写体情報が有るか否かを判定する。条件1に適合する属性情報を含む被写体情報が無い場合、画像表示装置1は、ステップS808に移行する。一方、条件1に適合する属性情報を含む被写体情報が有る場合、画像表示装置1は、ステップS804に移行する。   In step S <b> 803, the image display device 1 determines whether or not subject information including attribute information that satisfies the condition 1 is present in the search result according to the condition 1. If there is no subject information including attribute information that satisfies condition 1, the image display apparatus 1 proceeds to step S808. On the other hand, when there is subject information including attribute information that satisfies the condition 1, the image display device 1 proceeds to step S804.

ステップS804において、画像表示装置1は、条件1に係る検索結果の中から、条件2に適合する属性情報を含む被写体情報を検索する。条件2も、条件1と同様に、被写体が表示対象となり得る条件を示す表示対象条件の1つであって、属性情報に関係した条件であってもよい。例えば、条件2は、被写体の属性情報に含まれる性別が男性であると設定されてもよい。属性情報Qaの性別に関する情報が男性であり、属性情報Qbの性別に関する情報が女性であれば、条件2に係る検索結果の中には、属性情報Qaを含む被写体情報Taだけが含まれる。   In step S <b> 804, the image display device 1 searches the subject information including the attribute information matching the condition 2 from the search results related to the condition 1. Similarly to condition 1, condition 2 is one of the display target conditions indicating the conditions under which the subject can be a display target, and may be a condition related to attribute information. For example, the condition 2 may be set so that the gender included in the subject attribute information is male. If the information regarding the gender of the attribute information Qa is male and the information regarding the gender of the attribute information Qb is female, the search result according to the condition 2 includes only subject information Ta including the attribute information Qa.

ステップS805において、画像表示装置1は、条件2に係る検索結果の中に、条件2に適合する属性情報を含む被写体情報が有るか否かを判定する。条件2に適合する属性情報を含む被写体情報が無い場合、画像表示装置1は、ステップS808に移行する。一方、条件2に適合する属性情報を含む被写体情報が有る場合、画像表示装置1は、ステップS806に移行する。   In step S <b> 805, the image display apparatus 1 determines whether or not subject information including attribute information that satisfies the condition 2 is present in the search result according to the condition 2. If there is no subject information including attribute information that meets condition 2, the image display device 1 proceeds to step S808. On the other hand, when there is subject information including attribute information that satisfies the condition 2, the image display device 1 proceeds to step S806.

ステップS806において、画像表示装置1は、条件2に係る検索結果の中から、条件3に適合する姿勢情報を含む被写体情報を検索する。条件3は、条件1及び条件2と同様に、被写体が表示対象となり得る条件を示す表示対象条件の1つであるが、条件1及び条件2とは異なり、姿勢情報に関係した条件であってもよい。例えば、条件3は、被写体の姿勢情報に含まれる姿勢特徴点の位置が、変化しない、又は、所定速度以下で変化すると設定されてもよい。すわなち、条件3は、被写体の移動速度が、ゼロ以上所定速度以下であると設定されてもよい。この条件3は、画像表示装置1の前に立ち止まっていたり、画像表示装置1に注目しながら通行したり等、画像表示装置1に興味を抱き易い被写体を表示対象とするための条件である。被写体Aは、画像表示装置1の前に立ち止まっていれば、姿勢情報Paに含まれる姿勢特徴点Pa1〜Panの位置が変化する速度は、少なくとも所定速度以下であり、条件3に係る検索結果の中には、姿勢情報Paを含む被写体情報Taが含まれる。   In step S <b> 806, the image display device 1 searches subject information including posture information that satisfies the condition 3 from the search results according to the condition 2. Condition 3 is one of the display target conditions indicating the conditions under which the subject can be a display target, similar to Condition 1 and Condition 2. However, unlike Condition 1 and Condition 2, the condition 3 is a condition related to posture information. Also good. For example, the condition 3 may be set so that the position of the posture feature point included in the posture information of the subject does not change or changes at a predetermined speed or less. In other words, the condition 3 may be set such that the moving speed of the subject is not less than zero and not more than a predetermined speed. The condition 3 is a condition for setting a subject that is interested in the image display device 1 as a display target, such as stopping in front of the image display device 1 or passing while paying attention to the image display device 1. If the subject A is stopped in front of the image display device 1, the speed at which the position of the posture feature points Pa <b> 1 to Pan included in the posture information Pa changes is at least a predetermined speed or less. This includes subject information Ta including posture information Pa.

ステップS807において、画像表示装置1は、条件3に適合する被写体情報に対応する被写体を表示対象の被写体に選定する。画像表示装置1は、被写体Aの被写体情報Taに含まれる姿勢情報Paが条件3に適合するため、被写体Aを表示対象の被写体に選定する。その後、画像表示装置1は、本処理を終了し、図5のステップS507に移行する。   In step S807, the image display device 1 selects a subject corresponding to the subject information that satisfies the condition 3 as a subject to be displayed. The image display device 1 selects the subject A as the subject to be displayed because the posture information Pa included in the subject information Ta of the subject A meets the condition 3. Thereafter, the image display device 1 ends the process, and proceeds to step S507 in FIG.

ステップS808において、画像表示装置1は、表示対象の被写体が無いと判断する。そして、画像表示装置1は、表示対象の被写体が無いと判断したことを記憶した後、本処理を終了し、図5のステップS507に移行する。   In step S808, the image display device 1 determines that there is no subject to be displayed. Then, the image display device 1 stores that it is determined that there is no subject to be displayed, and then ends this processing, and proceeds to step S507 in FIG.

なお、画像表示装置1は、被写体が表示対象となり得る条件を示す表示対象条件に適合する被写体情報を検索するにあたって、上述の条件1〜3の順番で検索した。しかしながら、画像表示装置1はこれに限定されず、例えば、最初に姿勢情報に関係する条件3で検索してもよい。また、表示対象条件の数も上述の条件1〜3に限定されない。また、表示対象条件は、全て属性情報に関係する条件であってもよいし、その内容も上述の条件1〜3に限定されない。   Note that the image display apparatus 1 searches in the order of the above-described conditions 1 to 3 when searching for subject information that matches a display target condition indicating a condition that the subject can be a display target. However, the image display device 1 is not limited to this. For example, the image display device 1 may first be searched with the condition 3 related to the posture information. Further, the number of display target conditions is not limited to the above conditions 1 to 3. Further, the display target conditions may all be conditions related to the attribute information, and the contents thereof are not limited to the above conditions 1 to 3.

[3.作用効果]
以上のように、本実施形態に係る画像表示装置1は、被写体を撮像して被写体画像を取得する撮像部21と、この被写体画像を用いて被写体の動作をリアルタイムに検出し姿勢情報を取得する動作検出部22とを備える。このため、本実施形態に係る画像表示装置1は、被写体の3次元人体形状データや姿勢データを予め膨大に計測して記憶していなくてもよく、被写体の姿勢や動作を推定するために計算量が膨大になることもない。よって、本実施形態に係る画像表示装置1は、簡易な構成であっても、表示対象の被写体の姿勢及び動作を精度よく表現することができるため、低コスト化が図れ、容易な導入が可能となる。
[3. Effect]
As described above, the image display apparatus 1 according to the present embodiment captures a subject and obtains a subject image, and uses the subject image to detect the motion of the subject in real time to obtain posture information. And an operation detection unit 22. For this reason, the image display apparatus 1 according to the present embodiment does not need to measure and store the three-dimensional human body shape data and posture data of the subject in advance, and performs calculations to estimate the posture and motion of the subject. The amount does not become enormous. Therefore, the image display apparatus 1 according to the present embodiment can accurately represent the posture and motion of the subject to be displayed even with a simple configuration, so that the cost can be reduced and easy introduction is possible. It becomes.

また、本実施形態に係る画像表示装置1は、撮像部21によって取得された被写体画像に、服飾モデルを合成して表示させるのではなく、被写体の3次元CGモデルの画像を表示させる。このため、本実施形態に係る画像表示装置1は、表示部10の表示画像において、試着させたい服飾品の画像と、被写体が現在着用している服飾品の画像とが干渉することがない。しかも、本実施形態に係る画像表示装置1は、姿勢情報と属性情報とに基づいて、被写体の3次元CGモデルを作成し、被写体の姿勢及び動作に応じて表示することができる。その上、本実施形態に係る画像表示装置1は、被写体の3次元CGモデルには、被写体の属性情報に基づいて決定された服飾モデルが合成される。このため、本実施形態に係る画像表示装置1は、被写体の体型、姿勢及び属性に即した3次元CGモデル及び服飾モデルの画像を、被写体の姿勢及び動作に合わせて動かして表示させることができる。よって、本実施形態に係る画像表示装置1は、真に表示対象の被写体に適した試着画像を表示することができる。   In addition, the image display device 1 according to the present embodiment displays a 3D CG model image of the subject instead of combining and displaying the clothing model on the subject image acquired by the imaging unit 21. For this reason, in the image display device 1 according to the present embodiment, in the display image of the display unit 10, the image of the clothing item to be tried on does not interfere with the image of the clothing item currently worn by the subject. Moreover, the image display device 1 according to the present embodiment can create a three-dimensional CG model of the subject based on the posture information and the attribute information and display it according to the posture and motion of the subject. Moreover, in the image display device 1 according to the present embodiment, a clothing model determined based on the attribute information of the subject is combined with the three-dimensional CG model of the subject. For this reason, the image display apparatus 1 according to the present embodiment can display the images of the 3D CG model and the clothing model in accordance with the body shape, posture, and attributes of the subject according to the posture and motion of the subject. . Therefore, the image display apparatus 1 according to the present embodiment can display a try-on image that is truly suitable for the subject to be displayed.

更に、本実施形態に係る画像表示装置1は、姿勢情報と属性情報とを関連付ける関連付け部51を備える。このため、本実施形態に係る画像表示装置1は、姿勢情報を取得する動作検出部22と属性情報を取得する顔認識部40とが別個に開発されて、姿勢情報と属性情報とのデータ形式が異なっても、両者を関連付けて3次元CGモデルを作成することができる。それにより、本実施形態に係る画像表示装置1は、例えば、姿勢情報を取得する市販のモーションセンサをそのまま導入しても、被写体の体型、姿勢及び属性に即した3次元CGモデルを容易に作成することができる。よって、本実施形態に係る画像表示装置1では、表示対象の被写体の姿勢及び動作を精度よく表現できると共に、真に表示対象の被写体に適した試着画像を表示できる画像表示装置を、簡易な構成で実現し容易な導入が可能となる。   Furthermore, the image display device 1 according to the present embodiment includes an associating unit 51 that associates posture information and attribute information. For this reason, in the image display device 1 according to the present embodiment, the motion detection unit 22 that acquires posture information and the face recognition unit 40 that acquires attribute information are separately developed, and the data format of posture information and attribute information Even if they are different, a three-dimensional CG model can be created by associating the two. Thereby, the image display device 1 according to the present embodiment can easily create a three-dimensional CG model that conforms to the body shape, posture, and attributes of a subject even if a commercially available motion sensor that acquires posture information is introduced as it is, for example. can do. Therefore, in the image display device 1 according to the present embodiment, an image display device that can accurately represent the posture and motion of the subject to be displayed and can display a try-on image that is truly suitable for the subject to be displayed has a simple configuration. This makes it easy to implement.

更に、本実施形態に係る画像表示装置1は、複数の被写体が同時に撮像され、複数の姿勢情報と複数の属性情報とが取得されても、関連付け部51によってこれらを適切に関連付け、判断部52によって意図的に表示対象の被写体を選定し、表示させることができる。よって、本実施形態に係る画像表示装置1は、複数の被写体が同時に撮像されることが想定される状況であっても使用することができる。特に、本実施形態に係る画像表示装置1は、従来の試着室の代替品としてだけでなく、複数の通行人等が往来するショーウインドウにおいて真に表示対象の被写体に適した試着画像を表示するという新しい使用形態を提供することができる。   Furthermore, the image display apparatus 1 according to the present embodiment appropriately associates the plurality of subjects even when the plurality of subjects are captured and the plurality of posture information and the plurality of attribute information are acquired, and determines the determination unit 52. The object to be displayed can be selected intentionally and displayed. Therefore, the image display apparatus 1 according to the present embodiment can be used even in a situation where a plurality of subjects are assumed to be imaged simultaneously. In particular, the image display device 1 according to the present embodiment displays not only a substitute for a conventional fitting room but also a fitting image that is truly suitable for a subject to be displayed in a show window where a plurality of passersby come and go. New usage forms can be provided.

また、本実施形態に係る画像表示装置1は、被写体が撮像部21に撮像されない状況では、画像表示装置1の提供側が薦める服飾品が装着されたマネキンの3次元CGモデル画像をデモ画像として表示させることができる。そして、本実施形態に係る画像表示装置1は、被写体が撮像部21に撮像される状況では、画像表示装置1の提供側が薦め、且つ、被写体に適した服飾品の服飾モデルを被写体の3次元CGモデルに合成させて表示させることができる。このため、本実施形態に係る画像表示装置1は、表示対象の被写体が服飾品を仮想的に試着した画像を表示するバーチャルフィッティング装置としてだけでなく、通行人等に服飾品の広告を宣伝するデジタルサイネージ装置としての役割をも果たすことができる。よって、本実施形態に係る画像表示装置1は、バーチャルフィッティング装置とデジタルサイネージ装置とを兼用する画像表示装置の新しい用途を提供することができる。   Further, the image display device 1 according to the present embodiment displays a three-dimensional CG model image of the mannequin with the clothing recommended by the provider of the image display device 1 as a demo image in a situation where the subject is not imaged by the imaging unit 21. Can be made. The image display device 1 according to the present embodiment recommends a clothing model of clothing suitable for the subject in a three-dimensional manner of the subject in a situation where the subject is imaged by the imaging unit 21 and recommended by the provider of the image display device 1. It can be combined with a CG model and displayed. For this reason, the image display device 1 according to the present embodiment advertises clothing accessories to passers-by as well as a virtual fitting device that displays an image in which a subject to be displayed virtually tries on clothing. It can also serve as a digital signage device. Therefore, the image display device 1 according to the present embodiment can provide a new application of an image display device that serves as both a virtual fitting device and a digital signage device.

特に、本実施形態に係る画像表示装置1は、デモ画像の表示中には、服飾品が装着されたマネキンの静止画像を表示させておき、表示対象の被写体が出現した際には、この被写体の姿勢及び動作に合わせて動く3次元CGモデルの画像を表示させることができる。このため、本実施形態に係る画像表示装置1は、表示対象の被写体を含む通行人等に対し、表示部10に表示された3次元CGモデルの画像が突然動き出すように感じさせることができる。よって、本実施形態に係る画像表示装置1は、従来のデジタルサイネージ装置よりも、宣伝効果の高い広告媒体として機能することができる。   In particular, the image display device 1 according to the present embodiment displays a still image of a mannequin on which clothing items are worn while displaying a demo image, and when the subject to be displayed appears, this subject An image of a three-dimensional CG model that moves according to the posture and motion of the user can be displayed. For this reason, the image display apparatus 1 according to the present embodiment can make a passerby including a subject to be displayed feel that the image of the three-dimensional CG model displayed on the display unit 10 suddenly starts to move. Therefore, the image display device 1 according to the present embodiment can function as an advertising medium having a higher advertising effect than the conventional digital signage device.

[4.その他]
上述の実施形態において、画像表示装置1は、特許請求の範囲に記載された「画像表示装置」の一例に該当する。表示部10は、特許請求の範囲に記載された「表示部」の一例に該当する。撮像部21は、特許請求の範囲に記載された「撮像部」の一例に該当する。動作検出部22は、特許請求の範囲に記載された「動作検出部」の一例に該当する。顔認識部40は、特許請求の範囲に記載された「顔認識部」の一例に該当する。制御部50は、特許請求の範囲に記載された「制御部」の一例に該当する。モデル作成部53は、特許請求の範囲に記載された「モデル作成部」の一例に該当する。表示制御部57は、特許請求の範囲に記載された「表示制御部」の一例に該当する。関連付け部51は、特許請求の範囲に記載された「関連付け部」の一例に該当する。
[4. Others]
In the above-described embodiment, the image display device 1 corresponds to an example of an “image display device” recited in the claims. The display unit 10 corresponds to an example of a “display unit” recited in the claims. The imaging unit 21 corresponds to an example of an “imaging unit” recited in the claims. The motion detection unit 22 corresponds to an example of an “motion detection unit” recited in the claims. The face recognition unit 40 corresponds to an example of a “face recognition unit” recited in the claims. The control unit 50 corresponds to an example of a “control unit” recited in the claims. The model creation unit 53 corresponds to an example of a “model creation unit” described in the claims. The display control unit 57 corresponds to an example of a “display control unit” recited in the claims. The associating unit 51 corresponds to an example of an “associating unit” described in the claims.

上述の実施形態は、変形例を含めて各実施形態同士で互いの技術を適用し得ることは、当業者には明らかであろう。   It will be apparent to those skilled in the art that the above-described embodiments can be applied to each other, including modifications.

上述の説明は、制限ではなく単なる例示を意図している。従って、特許請求の範囲を逸脱することなく本発明の実施形態に変更を加えることができることは、当業者には明らかであろう。   The above description is intended to be illustrative rather than limiting. Thus, it will be apparent to one skilled in the art that modifications may be made to the embodiments of the present invention without departing from the scope of the claims.

本明細書及び特許請求の範囲全体で使用される用語は、「限定的でない」用語と解釈されるべきである。例えば、「含む」及び「含まれる」という用語は、「含まれるものとして記載されたものに限定されない」と解釈されるべきである。「有する」という用語は、「有するものとして記載されたものに限定されない」と解釈されるべきである。   Terms used throughout the specification and claims are to be interpreted as “non-limiting” terms. For example, the terms “include” and “included” should be interpreted as “not limited to those described as included”. The term “comprising” should be interpreted as “not limited to what is described as having”.

1 画像表示装置
10 表示部
20 モーションセンサ
21 撮像部
22 動作検出部
30 情報機器
40 顔認識部
50 制御部
51 関連付け部
52 判断部
53 モデル作成部
54 服飾決定部
55 モデル合成部
56 シーン決定部
57 表示制御部
A 被写体
B 被写体
Fa 顔画像
Fb 顔画像
G 撮像画像
Ga 被写体画像
Gb 被写体画像
Pa 姿勢情報
Pa1〜Pan 姿勢特徴点
Pb 姿勢情報
Pb1〜Pbn 姿勢特徴点
Qa 属性情報
Qa1〜Qam 顔特徴点
Qb 属性情報
Qb1〜Qbm 顔特徴点
Ta 被写体情報
Tb 被写体情報
DESCRIPTION OF SYMBOLS 1 Image display apparatus 10 Display part 20 Motion sensor 21 Image pick-up part 22 Motion detection part 30 Information equipment 40 Face recognition part 50 Control part 51 Association part 52 Judgment part 53 Model creation part 54 Costume determination part 55 Model composition part 56 Scene determination part 57 Display control unit A Subject B Subject Fa Facial image Fb Facial image G Captured image Ga Subject image Gb Subject image Pa Posture information Pa1-Pan Posture feature point Pb Posture information Pb1-Pbn Posture feature point Qa Attribute information Qa1-Qam Facial feature point Qb Attribute information Qb1 to Qbm Face feature points Ta Subject information Tb Subject information

Claims (4)

画像を表示する表示部と、
被写体を撮像し、被写体画像を取得する撮像部と、
前記被写体画像を用いて前記被写体の動作を検出し、前記被写体の姿勢情報を取得する動作検出部と、
前記被写体画像を用いて前記被写体の顔認識を行い、前記被写体の属性情報を取得する顔認識部と、
前記被写体の画像モデルを作成し、前記表示部に表示させる制御部と、
を備え、
前記制御部は、
前記被写体が前記表示部の表示対象であるかを前記属性情報に基づいて判断し、
前記被写体が前記表示部の表示対象であると判断されると、前記属性情報に基づいて作成された前記画像モデルを、前記姿勢情報による前記被写体の動作に応じて前記表示部に表示させる、
画像表示装置。
A display for displaying an image;
An imaging unit that images a subject and obtains a subject image;
A motion detector that detects motion of the subject using the subject image and acquires posture information of the subject;
A face recognition unit that performs face recognition of the subject using the subject image and acquires attribute information of the subject;
A control unit that creates an image model of the subject and displays the image model on the display unit;
With
The controller is
Determining whether the subject is a display target of the display unit based on the attribute information;
When it is determined that the subject is a display target of the display unit, the image model created based on the attribute information is displayed on the display unit according to the motion of the subject based on the posture information.
Image display device.
前記制御部は、
前記属性情報を用いて、前記画像モデルとして3次元CGモデルを作成するモデル作成部と、
前記被写体の動作に応じた前記姿勢情報の変化に合わせて前記3次元CGモデルを動かして前記表示部に表示させる表示制御部と、
を含む請求項1に記載の画像表示装置。
The controller is
A model creation unit that creates a three-dimensional CG model as the image model using the attribute information;
A display control unit that moves the three-dimensional CG model in accordance with a change in the posture information according to the movement of the subject and displays the display unit on the display unit;
The image display device according to claim 1, comprising:
前記動作検出部は、前記被写体の姿勢特徴点の位置を検出し、
前記顔認識部は、前記被写体の顔特徴点の位置を検出し、
前記制御部は、前記姿勢特徴点の位置と前記顔特徴点の位置とに基づいて、前記姿勢情報と前記属性情報とを関連付ける関連付け部を更に含み、
前記モデル作成部は、前記関連付け部によって関連付けられた前記姿勢情報と前記属性情報とを用いて、前記3次元CGモデルを作成する、
請求項2に記載の画像表示装置。
The motion detection unit detects the position of the posture feature point of the subject,
The face recognition unit detects a position of a face feature point of the subject;
The control unit further includes an association unit that associates the posture information and the attribute information based on the position of the posture feature point and the position of the face feature point,
The model creation unit creates the three-dimensional CG model using the posture information and the attribute information associated by the association unit.
The image display device according to claim 2.
前記関連付け部は、
前記姿勢特徴点の位置の座標系と前記顔特徴点の位置の座標系とを共通座標系にそれぞれ変換し、
前記共通座標系において、前記姿勢特徴点の位置と前記顔特徴点の位置とを照合することによって、前記姿勢情報と前記属性情報とを関連付ける、
請求項3に記載の画像表示装置。
The association unit includes
The coordinate system of the position of the posture feature point and the coordinate system of the position of the face feature point are respectively converted into a common coordinate system,
In the common coordinate system, by comparing the position of the posture feature point and the position of the face feature point, the posture information and the attribute information are associated with each other.
The image display device according to claim 3.
JP2016194361A 2016-09-30 2016-09-30 Image display device Pending JP2018055619A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016194361A JP2018055619A (en) 2016-09-30 2016-09-30 Image display device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016194361A JP2018055619A (en) 2016-09-30 2016-09-30 Image display device

Publications (1)

Publication Number Publication Date
JP2018055619A true JP2018055619A (en) 2018-04-05

Family

ID=61836858

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016194361A Pending JP2018055619A (en) 2016-09-30 2016-09-30 Image display device

Country Status (1)

Country Link
JP (1) JP2018055619A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021518626A (en) * 2018-04-05 2021-08-02 ページ インターナショナル エフゼッド エルエルシーPage International Fz Llc Methods and devices for virtual fitting of garments based on augmented reality with multiple detection
JPWO2020178957A1 (en) * 2019-03-04 2021-10-21 日本電気株式会社 Image processing equipment, image processing methods and programs

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11175765A (en) * 1997-12-11 1999-07-02 Alpine Electron Inc Method and device for generating three-dimensional model and storage medium
JP2001034785A (en) * 1999-07-16 2001-02-09 Atr Media Integration & Communications Res Lab Virtual transformation device
JP2007193292A (en) * 2005-12-19 2007-08-02 Ricoh Co Ltd Content display system and information display device
WO2010023963A1 (en) * 2008-09-01 2010-03-04 日本電気株式会社 Avatar display method, avatar display device, and recording medium
JP2011070623A (en) * 2009-08-31 2011-04-07 Sony Corp Image processor, image processing method, and program
JP2011198135A (en) * 2010-03-19 2011-10-06 Brother Industries Ltd Comic creation support device, comic creation support method, and program
JP2013164431A (en) * 2012-02-09 2013-08-22 Nikon Corp Display device and display system
JP2014010605A (en) * 2012-06-29 2014-01-20 Toshiba Corp Information processing apparatus, information display device, and information processing method and program
JP2014206837A (en) * 2013-04-12 2014-10-30 埼玉日本電気株式会社 Electronic equipment, control method therefor and program
JP2015105987A (en) * 2013-11-29 2015-06-08 カシオ計算機株式会社 Display system, display device, imaging apparatus, display method, and program

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11175765A (en) * 1997-12-11 1999-07-02 Alpine Electron Inc Method and device for generating three-dimensional model and storage medium
JP2001034785A (en) * 1999-07-16 2001-02-09 Atr Media Integration & Communications Res Lab Virtual transformation device
JP2007193292A (en) * 2005-12-19 2007-08-02 Ricoh Co Ltd Content display system and information display device
WO2010023963A1 (en) * 2008-09-01 2010-03-04 日本電気株式会社 Avatar display method, avatar display device, and recording medium
JP2011070623A (en) * 2009-08-31 2011-04-07 Sony Corp Image processor, image processing method, and program
JP2011198135A (en) * 2010-03-19 2011-10-06 Brother Industries Ltd Comic creation support device, comic creation support method, and program
JP2013164431A (en) * 2012-02-09 2013-08-22 Nikon Corp Display device and display system
JP2014010605A (en) * 2012-06-29 2014-01-20 Toshiba Corp Information processing apparatus, information display device, and information processing method and program
JP2014206837A (en) * 2013-04-12 2014-10-30 埼玉日本電気株式会社 Electronic equipment, control method therefor and program
JP2015105987A (en) * 2013-11-29 2015-06-08 カシオ計算機株式会社 Display system, display device, imaging apparatus, display method, and program

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021518626A (en) * 2018-04-05 2021-08-02 ページ インターナショナル エフゼッド エルエルシーPage International Fz Llc Methods and devices for virtual fitting of garments based on augmented reality with multiple detection
JP7228025B2 (en) 2018-04-05 2023-02-22 ページ インターナショナル エフゼッド エルエルシー Methods and Devices for Augmented Reality-Based Virtual Garment Try-On with Multiple Detections
JPWO2020178957A1 (en) * 2019-03-04 2021-10-21 日本電気株式会社 Image processing equipment, image processing methods and programs
JP7294402B2 (en) 2019-03-04 2023-06-20 日本電気株式会社 Image processing device, image processing method and program
US11803615B2 (en) 2019-03-04 2023-10-31 Nec Corporation Generating 3D training data from 2D images

Similar Documents

Publication Publication Date Title
Viswakumar et al. Human gait analysis using OpenPose
US11182599B2 (en) Motion state evaluation system, motion state evaluation device, motion state evaluation server, motion state evaluation method, and motion state evaluation program
Zhang et al. Ergonomic posture recognition using 3D view-invariant features from single ordinary camera
Auvinet et al. Detection of gait cycles in treadmill walking using a Kinect
JP5579014B2 (en) Video information processing apparatus and method
JP5863423B2 (en) Information processing apparatus, information processing method, and program
US10152829B2 (en) Virtual fitting device and virtual fitting method thereof
KR102377561B1 (en) Apparatus and method for providing taekwondo movement coaching service using mirror dispaly
KR101118654B1 (en) rehabilitation device using motion analysis based on motion capture and method thereof
JP2008173250A (en) Walking movement analyzer
WO2020203656A1 (en) Information processing device, information processing method, and program
US9218794B2 (en) Image processing apparatus, image processing method, and non-transitory computer readable medium
JP2016054450A (en) Image processing device, image processing system, image processing method, and program
JP6109288B2 (en) Information processing apparatus, information processing method, and program
US20210286983A1 (en) Estimation method, and computer-readable recording medium recording estimation program
JPWO2018087853A1 (en) Stereoscopic image generation system, stereoscopic image generation method, and stereoscopic image generation program
CN104598012B (en) A kind of interactive advertising equipment and its method of work
KR101187773B1 (en) advertisement system using motion cognition.
JP2018055619A (en) Image display device
JP2015230616A (en) Image processing method and image processor
US20220044038A1 (en) User attribute estimation device and user attribute estimation method
JP7482471B2 (en) How to generate a learning model
KR20220065495A (en) Method and apparatus for evaluating physical exercise ability of patient using avatar
Kempfle et al. Quaterni-On: Calibration-free Matching of Wearable IMU Data to Joint Estimates of Ambient Cameras
WO2022208859A1 (en) Skill recognition method, skill recognition apparatus, and gymnastics scoring support system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190819

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200819

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200908

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20210309