JP6697573B2 - Hairstyle simulation device, hairstyle simulation method, and computer program - Google Patents
Hairstyle simulation device, hairstyle simulation method, and computer program Download PDFInfo
- Publication number
- JP6697573B2 JP6697573B2 JP2018549075A JP2018549075A JP6697573B2 JP 6697573 B2 JP6697573 B2 JP 6697573B2 JP 2018549075 A JP2018549075 A JP 2018549075A JP 2018549075 A JP2018549075 A JP 2018549075A JP 6697573 B2 JP6697573 B2 JP 6697573B2
- Authority
- JP
- Japan
- Prior art keywords
- face
- image data
- hairstyle
- node
- deformation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000000034 method Methods 0.000 title claims description 52
- 238000004088 simulation Methods 0.000 title claims description 48
- 238000004590 computer program Methods 0.000 title claims description 18
- 210000004209 hair Anatomy 0.000 claims description 61
- 239000002131 composite material Substances 0.000 claims description 36
- 230000008569 process Effects 0.000 claims description 28
- 230000008859 change Effects 0.000 claims description 26
- 238000004364 calculation method Methods 0.000 claims description 10
- 230000001131 transforming effect Effects 0.000 claims description 9
- 238000003384 imaging method Methods 0.000 claims description 6
- 238000001514 detection method Methods 0.000 claims description 3
- 238000000605 extraction Methods 0.000 claims 1
- 238000009877 rendering Methods 0.000 description 24
- 238000012545 processing Methods 0.000 description 13
- 238000010586 diagram Methods 0.000 description 12
- 230000006870 function Effects 0.000 description 9
- 230000009466 transformation Effects 0.000 description 6
- 210000004709 eyebrow Anatomy 0.000 description 5
- 239000000284 extract Substances 0.000 description 4
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 3
- 238000005452 bending Methods 0.000 description 3
- 238000004891 communication Methods 0.000 description 3
- 230000009467 reduction Effects 0.000 description 3
- 238000006073 displacement reaction Methods 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 230000005477 standard model Effects 0.000 description 2
- 230000003796 beauty Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000008602 contraction Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
Classifications
-
- A—HUMAN NECESSITIES
- A45—HAND OR TRAVELLING ARTICLES
- A45D—HAIRDRESSING OR SHAVING EQUIPMENT; EQUIPMENT FOR COSMETICS OR COSMETIC TREATMENTS, e.g. FOR MANICURING OR PEDICURING
- A45D44/00—Other cosmetic or toiletry articles, e.g. for hairdressers' rooms
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/80—Creating or modifying a manually drawn or painted image using a manual input device, e.g. mouse, light pen, direction keys on keyboard
Landscapes
- Business, Economics & Management (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Tourism & Hospitality (AREA)
- Health & Medical Sciences (AREA)
- Economics (AREA)
- General Health & Medical Sciences (AREA)
- Human Resources & Organizations (AREA)
- Marketing (AREA)
- Primary Health Care (AREA)
- Strategic Management (AREA)
- General Business, Economics & Management (AREA)
- Processing Or Creating Images (AREA)
Description
本発明は、ユーザが選択したヘアスタイルを、所望の形状に変形させてシミュレーションすることが可能なヘアスタイルシミュレーション装置、ヘアスタイルシミュレーション方法、及びコンピュータプログラムに関する。 The present invention relates to a hairstyle simulation device, a hairstyle simulation method, and a computer program that can simulate a hairstyle selected by a user by transforming the hairstyle into a desired shape.
ユーザが自分に似合うヘアスタイルであるか否かを目視で確認するために、画像を用いたシミュレーションシステムが多数開発されている。例えば、特許文献1では、メイクアップやヘアスタイルをシミュレーションし、シミュレーション後の結果を並べて表示することができる美容シミュレーションシステムが開示されている。 A large number of simulation systems using images have been developed in order to visually confirm whether or not a user has a hairstyle that suits him / herself. For example, Patent Document 1 discloses a beauty simulation system capable of simulating makeup and hairstyle and displaying the results after the simulation side by side.
また、特許文献2では、シミュレーションしたヘアスタイルを自然な仕上がりとなるように調整することが可能なヘアシミュレーション装置が開示されている。特許文献2では、ヘアスタイル画像を複数の層構造の画像としておき、層構造ごとのポリゴンを変形することによりヘアスタイル画像を調整することが可能となっている。 In addition, Patent Document 2 discloses a hair simulation device capable of adjusting a simulated hairstyle so as to have a natural finish. In Patent Document 2, it is possible to adjust the hairstyle image by setting the hairstyle image as an image of a plurality of layer structures and deforming the polygon for each layer structure.
しかし、特許文献2では、層構造ごとにポリゴンを変形するので、例えばヘアスタイル画像の一部だけを変形したい場合であっても、同じ層構造に属する部分のヘアスタイル画像も変形する。したがって、既に調整不要であるヘアスタイル画像の一部についても変形する可能性があり、全体として所望の形状にヘアスタイル画像を調整することが困難になる場合が生じるという問題点があった。 However, in Patent Document 2, since the polygon is deformed for each layer structure, even if it is desired to deform only a part of the hairstyle image, the hairstyle image of the part belonging to the same layer structure is also deformed. Therefore, there is a possibility that a part of the hairstyle image that does not need adjustment may be deformed, and it may be difficult to adjust the hairstyle image to a desired shape as a whole.
本発明は上記事情に鑑みてなされたものであり、ユーザが選択したヘアスタイルを、所望の形状に変形させてシミュレーションすることが可能なヘアスタイルシミュレーション装置、ヘアスタイルシミュレーション方法、及びコンピュータプログラムを提供することを目的とする。 The present invention has been made in view of the above circumstances, and provides a hairstyle simulation device, a hairstyle simulation method, and a computer program capable of simulating a hairstyle selected by a user by transforming the hairstyle into a desired shape. The purpose is to do.
上記目的を達成するために第1発明に係るヘアスタイルシミュレーション装置は、ユーザによる指定を受け付けたヘアスタイルを示すモデル画像の一部だけを変形することが可能なヘアスタイルシミュレーション装置において、ユーザ自身の顔を撮像する撮像手段と、撮像された顔の画像データから顔の部分の輪郭線を抽出する輪郭抽出手段と、抽出した顔の部分の輪郭線を、ヘアスタイルを示すモデル画像データから抽出した顔の部分の輪郭線とマッチング処理するマッチング手段と、輪郭線を合わせることで、撮像された顔の画像データの顔の部分と、モデル画像データの髪の部分とを重ね合わせて合成画像を生成して、タッチディスプレイに表示する合成画像表示手段とを有し、前記モデル画像データの髪の部分は、四角形プリミティブによるノード・リンク構造で表現されたテクスチャ付きのポリゴンとして表示されており、前記タッチディスプレイに表示されている合成画像の前記髪の部分の一部に対する所定の操作を検出する操作検出手段と、検出された所定の操作に応じて、前記髪の部分の形状を変形させる画像変形手段とを備え、前記操作検出手段は、前記所定の操作として変更領域、移動方向及び移動量を検出し、前記画像変形手段は、検出された変更領域について、検出された移動方向及び移動量に基づいて、四角形プリミティブによるノード・リンク構造で表現されたテクスチャ付きのポリゴンの変形方向と変形量を算出する変形算出手段を備え、前記変形算出手段は、四角形プリミティブの内部に補助点を設け、該補助点を頂点とした4つの三角形プリミティブによるノード・リンク構造で表現されたテクスチャ付きのポリゴンを、互いに連動させながら漸次変形させることを特徴とする。 In order to achieve the above object, a hairstyle simulation device according to a first aspect of the present invention is a hairstyle simulation device capable of transforming only a part of a model image showing a hairstyle that is designated by a user. An image capturing unit that captures a face, a contour extracting unit that extracts a contour line of a face portion from the image data of the captured face, and a contour line of the extracted face portion are extracted from model image data indicating a hairstyle. By matching the contour line with the contour line of the face portion and the contour line, the face portion of the image data of the imaged face and the hair portion of the model image data are superposed to generate a composite image. And a composite image display means for displaying on a touch display, wherein the hair portion of the model image data is displayed as a polygon with texture represented by a node / link structure of a quadrangle primitive. Operation detecting means for detecting a predetermined operation on a part of the hair part of the composite image displayed on the display, and image deforming means for deforming the shape of the hair part according to the detected predetermined operation. And the operation detecting means detects a change area, a moving direction and a movement amount as the predetermined operation, and the image deforming means, based on the detected moving direction and the movement amount, for the detected change area. And a deformation calculation means for calculating a deformation direction and a deformation amount of a polygon with a texture represented by a node / link structure using a quadrilateral primitive, and the deformation calculation means provides an auxiliary point inside the quadrilateral primitive. A feature is that a textured polygon represented by a node-link structure of four triangular primitives having points as vertices is gradually deformed while interlocking with each other .
また、第2発明に係るヘアスタイルシミュレーション装置は、第1発明において、前記操作検出手段は、前記タッチディスプレイに表示されている合成画像の座標位置から所定の範囲を変更領域として検出することが好ましい。 Further, hairstyle simulation apparatus according to the second invention, have you the first invention, the operation detecting means to detect a predetermined range from the coordinate position of the synthetic image displayed on the touch display as a change region Is preferred.
また、第3発明に係るヘアスタイルシミュレーション装置は、第1又は第2発明において、前記変形算出手段は、各プリミティブを構成するノードの最大変形量を、各ノードの顔の部分の輪郭線からの距離に応じて、距離が短いほど小さくなるように設定することが好ましい。 Also, in the hairstyle simulation device according to the third aspect of the present invention, in the first or second aspect of the present invention , the deformation calculation means calculates the maximum amount of deformation of the node forming each primitive from the contour line of the face portion of each node. Depending on the distance, it is preferable that the shorter the distance, the smaller the setting.
次に、上記目的を達成するために第4発明に係るヘアスタイルシミュレーション方法は、ユーザによる指定を受け付けたヘアスタイルを示すモデル画像の一部だけを変形することが可能なコンピュータで実行することが可能なヘアスタイルシミュレーション方法において、前記コンピュータは、ユーザ自身の顔を撮像する工程と、撮像された顔の画像データから顔の部分の輪郭線を抽出する工程と、抽出した顔の部分の輪郭線を、ヘアスタイルを示すモデル画像データから抽出した顔の部分の輪郭線とマッチング処理する工程と、輪郭線を合わせることで、撮像された顔の画像データの顔の部分と、モデル画像データの髪の部分とを重ね合わせて合成画像を生成して、タッチディスプレイに表示する工程とを含み、前記モデル画像データの髪の部分は、四角形プリミティブによるノード・リンク構造で表現されたテクスチャ付きのポリゴンとして表示されており、前記タッチディスプレイに表示されている合成画像の前記髪の部分の一部に対する所定の操作を検出する工程と、検出された所定の操作に応じて、前記髪の部分の形状を変形させる工程とを含み、前記所定の操作を検出する工程において、前記所定の操作として変更領域、移動方向及び移動量を検出し、前記髪の部分の形状を変形させる工程において、検出された変更領域について、検出された移動方向及び移動量に基づいて、四角形プリミティブによるノード・リンク構造で表現されたテクスチャ付きのポリゴンの変形方向と変形量を算出し、前記ポリゴンの変形方法と変形量を算出する工程において、四角形プリミティブの内部に補助点を設け、該補助点を頂点とした4つの三角形プリミティブによるノード・リンク構造で表現されたテクスチャ付きのポリゴンを、互いに連動させながら漸次変形させることを特徴とする。 Next, in order to achieve the above object, the hairstyle simulation method according to the fourth aspect of the present invention can be executed by a computer capable of deforming only a part of a model image showing a hairstyle that is designated by a user. In a possible hairstyle simulation method, the computer includes a step of capturing an image of a user's own face, a step of extracting a contour line of a face portion from the image data of the captured face, and a contour line of the extracted face portion. And a process of matching the contour line of the face portion extracted from the model image data indicating the hairstyle with the contour line, and matching the contour line to the face portion of the image data of the captured face and the hair of the model image data. And a composite image is generated by superimposing the same on the touch display, and the hair part of the model image data is a polygon with texture represented by a node-link structure by a quadrangle primitive. A step of detecting a predetermined operation on a part of the hair part of the composite image which is displayed and displayed on the touch display, and a shape of the hair part is determined according to the detected predetermined operation. a step of deforming seen including, in the step of detecting the predetermined operation, change area as the predetermined operation, detects a moving direction and a moving amount, in the step of deforming the shape of the portion of the hair was detected For the changed area, the deformation direction and deformation amount of the textured polygon represented by the node-link structure of the quadrangle primitive are calculated based on the detected movement direction and movement amount, and the polygon deformation method and deformation amount are calculated. In the calculation step, auxiliary points are provided inside the quadrilateral primitive, and textured polygons represented by a node-link structure of four triangular primitives having the auxiliary points as vertices are gradually deformed while interlocking with each other. Characterize.
また、第5発明に係るヘアスタイルシミュレーション方法は、第4発明において、前記コンピュータは、前記タッチディスプレイに表示されている合成画像の座標位置から所定の範囲を変更領域として検出することが好ましい。 In the hairstyle simulation method according to a fifth aspect of the present invention, in the fourth aspect of the present invention, it is preferable that the computer detect a predetermined range from a coordinate position of the composite image displayed on the touch display as a change area.
また、第6発明に係るヘアスタイルシミュレーション方法は、第4又は第5発明において、前記コンピュータは、各プリミティブを構成するノードの最大変形量を、各ノードの顔の部分の輪郭線からの距離に応じて、距離が短いほど小さくなるように設定することが好ましい。 Also, in the hairstyle simulation method according to the sixth invention, in the fourth or fifth invention , the computer sets a maximum deformation amount of a node forming each primitive to a distance from a contour line of a face portion of each node. Accordingly, it is preferable to set such that the shorter the distance, the smaller the distance.
次に、上記目的を達成するために第7発明に係るコンピュータプログラムは、ユーザによる指定を受け付けたヘアスタイルを示すモデル画像の一部だけを変形することが可能なコンピュータで実行することが可能なコンピュータプログラムにおいて、前記コンピュータを、ユーザ自身の顔を撮像する撮像手段、撮像された顔の画像データから顔の部分の輪郭線を抽出する輪郭抽出手段、抽出した顔の部分の輪郭線を、ヘアスタイルを示すモデル画像データから抽出した顔の部分の輪郭線とマッチング処理するマッチング手段、及び輪郭線を合わせることで、撮像された顔の画像データの顔の部分と、モデル画像データの髪の部分とを重ね合わせて合成画像を生成して、タッチディスプレイに表示する合成画像表示手段として機能させ、前記モデル画像データの髪の部分は、四角形プリミティブによるノード・リンク構造で表現されたテクスチャ付きのポリゴンとして表示されており、前記コンピュータを、前記タッチディスプレイに表示されている合成画像の前記髪の部分の一部に対する所定の操作を検出する操作検出手段、及び検出された所定の操作に応じて、前記髪の部分の形状を変形させる画像変形手段として機能させ、前記操作検出手段を、前記所定の操作として変更領域、移動方向及び移動量を検出する手段として機能させ、前記画像変形手段を、検出された変更領域について、検出された移動方向及び移動量に基づいて、四角形プリミティブによるノード・リンク構造で表現されたテクスチャ付きのポリゴンの変形方向と変形量を算出する変形算出手段として機能させ、前記変形算出手段を、四角形プリミティブの内部に補助点を設け、該補助点を頂点とした4つの三角形プリミティブによるノード・リンク構造で表現されたテクスチャ付きのポリゴンを、互いに連動させながら漸次変形させる手段として機能させることを特徴とする。 Next, in order to achieve the above object, the computer program according to the seventh invention can be executed by a computer capable of transforming only a part of a model image showing a hairstyle which is designated by a user. In the computer program, the computer controls the image capturing means for capturing the face of the user himself, the contour extracting means for extracting the contour line of the face portion from the image data of the captured face, and the contour line of the extracted face portion for the hair. Matching means for performing matching processing with the contour line of the face part extracted from the model image data indicating the style, and the face part of the image data of the captured face and the hair part of the model image data by matching the contour line And the composite image are generated by superimposing them on the touch display to function as a composite image display means, and the hair portion of the model image data is a polygon with a texture represented by a node / link structure by a quadrangle primitive. Is displayed as, the computer, in accordance with the operation detection means for detecting a predetermined operation on a part of the hair portion of the composite image displayed on the touch display, and the detected predetermined operation, The operation detecting means is caused to function as an image deforming means for deforming the shape of the hair portion, the operation detecting means is caused to function as a means for detecting a change region, a moving direction and a moving amount as the predetermined operation, and the image deforming means is detected. With respect to the changed area, based on the detected movement direction and movement amount, it is caused to function as deformation calculation means for calculating the deformation direction and the deformation amount of the polygon with texture represented by the node-link structure of the quadrangle primitive, The deformation calculating means is a means for providing auxiliary points inside a quadrilateral primitive, and gradually deforming textured polygons represented by a node-link structure of four triangular primitives having the auxiliary points as vertices while interlocking with each other. and wherein the Rukoto to function.
また、第8発明に係るコンピュータプログラムは、第7発明において、前記操作検出手段を、前記タッチディスプレイに表示されている合成画像の座標位置から所定の範囲を変更領域として検出する手段として機能させることが好ましい。 Further, the computer program according to the eighth invention, in the seventh invention , causes the operation detecting means to function as a means for detecting a predetermined range from a coordinate position of the composite image displayed on the touch display as a change area. Is preferred.
また、第9発明に係るコンピュータプログラムは、第7又は第8発明において、前記変形算出手段を、各プリミティブを構成するノードの最大変形量を、各ノードの顔の部分の輪郭線からの距離に応じて、距離が短いほど小さくなるように設定する手段として機能させることが好ましい。 Further, a computer program according to a ninth invention is the computer program according to the seventh or eighth invention , wherein the deformation calculating means sets a maximum deformation amount of a node constituting each primitive to a distance from a contour line of a face portion of each node. Accordingly, it is preferable to function as a means for setting such that it becomes smaller as the distance becomes shorter.
第1発明、第4発明及び第7発明では、ユーザ自身の顔を撮像し、撮像された顔の画像データから顔の部分の輪郭線を抽出して、抽出した顔の部分の輪郭線を、ヘアスタイルを示すモデル画像データから抽出した顔の部分の輪郭線とマッチング処理する。輪郭線を合わせることで、撮像された顔の画像データの顔の部分と、モデル画像データの髪の部分とを重ね合わせて合成画像を生成して、タッチディスプレイに表示する。モデル画像データの髪の部分は、四角形プリミティブによるノード・リンク構造で表現されたテクスチャ付きのポリゴンとして表示されており、タッチディスプレイに表示されている合成画像の髪の部分の一部に対する所定の操作を検出して、検出された所定の操作に応じて、髪の部分の形状を変形させる。これにより、モデル画像データの髪の部分の一部だけを不自然さのない形状に変形させることができるので、調整する必要がない部分については現状を維持したまま、気になる部分だけをシミュレーションすることができ、ユーザの所望の形状にヘアスタイルを調整することが可能となる。
また、所定の操作として変更領域、移動方向及び移動量を検出し、検出された変更領域について、検出された移動方向及び移動量に基づいて、四角形プリミティブによるノード・リンク構造で表現されたテクスチャ付きのポリゴンの変形方向と変形量を算出するので、合成画像の髪の部分をどの方向にどの程度変形させるのかを検出することができ、変形が不要な領域にまで大きな変形を生じないようにすることが可能となる。
さらに、四角形プリミティブの内部に補助点を設け、補助点を頂点とした4つの三角形プリミティブによるノード・リンク構造で表現されたテクスチャ付きのポリゴンを、互いに連動させながら漸次変形させるので、いわゆる三角形プリミティブによるノード・リンク構造で表現されたテクスチャ付きのポリゴンを変形した場合のように、変形後のテクスチャに屈曲部が生じることがなく、テクスチャの表示に不自然な部分が生じないので、自然な表示のままで変形させることが可能となる。
In the first invention, the fourth invention, and the seventh invention, the face of the user himself is imaged, the contour line of the face part is extracted from the image data of the imaged face, and the contour line of the extracted face part is extracted. Matching processing is performed with the contour line of the face portion extracted from the model image data indicating the hairstyle. By matching the contour lines, the face part of the imaged face image data and the hair part of the model image data are overlapped to generate a composite image, which is displayed on the touch display. The hair part of the model image data is displayed as a textured polygon expressed by a node-link structure with a quadrangle primitive, and a predetermined operation is performed on a part of the hair part of the composite image displayed on the touch display. Is detected, and the shape of the hair portion is deformed in accordance with the detected predetermined operation. As a result, only a part of the hair of the model image data can be transformed into a shape that does not have any unnaturalness. The hairstyle can be adjusted to the desired shape of the user.
In addition, the change area, the moving direction, and the movement amount are detected as a predetermined operation, and the detected change area is provided with a texture represented by a node / link structure using a quadrangle primitive based on the detected moving direction and the movement amount. Since the deformation direction and the amount of deformation of the polygon are calculated, it is possible to detect in which direction and to what extent the hair part of the composite image is deformed, and to prevent large deformation even in an unnecessary area. It becomes possible.
Further, since auxiliary points are provided inside the quadrilateral primitive and the textured polygons represented by the node-link structure of four triangular primitives with the auxiliary points as vertices are gradually deformed while interlocking with each other, so-called triangular primitives are used. As in the case of deforming a polygon with a texture represented by a node / link structure, there is no bend in the texture after deformation, and there is no unnatural part in the texture display. It is possible to deform it.
第2発明、第5発明及び第8発明では、タッチディスプレイに表示されている合成画像の座標位置から所定の範囲を変更領域として検出する。これにより、タッチディスプレイ上での合成画像の髪の部分の変更領域を容易に把握することができ、変形が不要な領域にまで大きな変形を生じないようにすることが可能となる。 In the second invention, the fifth invention, and the eighth invention, a predetermined range is detected as a change area from the coordinate position of the composite image displayed on the touch display. As a result, it is possible to easily grasp the changed area of the hair portion of the composite image on the touch display, and it is possible to prevent a large deformation even in an area where the deformation is unnecessary.
第3発明、第6発明及び第9発明では、各プリミティブを構成するノードの最大変形量を、各ノードの顔の部分の輪郭線からの距離に応じて、距離が短いほど小さくなるように設定する。これにより、髪の部分を顔の部分の方向に変形させた場合であっても、髪の部分が顔の部分の輪郭線を超えて変形することがなく、ヘアスタイルを自然な形状に変形することが可能となる。 In the third invention, the sixth invention, and the ninth invention, the maximum deformation amount of the node forming each primitive is set to be smaller as the distance is shorter, according to the distance from the contour line of the face part of each node. To do. As a result, even when the hair part is deformed in the direction of the face part, the hair part is not deformed beyond the contour line of the face part, and the hairstyle is deformed into a natural shape. It becomes possible.
本発明によれば、モデル画像データの髪の部分の一部だけを不自然さのない形状に変形させることができるので、調整する必要がない部分については現状を維持したまま、気になる部分だけをシミュレーションすることができ、ユーザの所望の形状にヘアスタイルを調整することが可能となる。 According to the present invention, only a part of the hair part of the model image data can be transformed into a shape without unnaturalness, so that the part that does not need to be adjusted is kept in the current state, Only, it is possible to adjust the hairstyle to the desired shape of the user.
以下、本発明の実施の形態に係るヘアスタイルシミュレーション装置について、図面を参照しながら説明する。なお、参照する図面を通じて、同一又は同様の構成又は機能を有する要素については、同一又は同様の符号を付して、詳細な説明を省略する。 Hereinafter, a hairstyle simulation device according to an embodiment of the present invention will be described with reference to the drawings. Throughout the drawings to be referred to, elements having the same or similar configurations or functions are designated by the same or similar reference numerals, and detailed description thereof will be omitted.
図1は、本発明の実施の形態に係るヘアスタイルシミュレーション装置の構成を示す模式図である。図1に示すように、本実施の形態に係るヘアスタイルシミュレーション装置1は、タッチディスプレイ16を有するタブレット等の端末装置である。 FIG. 1 is a schematic diagram showing the configuration of a hairstyle simulation device according to an embodiment of the present invention. As shown in FIG. 1, the hairstyle simulation device 1 according to the present embodiment is a terminal device such as a tablet having a touch display 16.
本発明の実施の形態に係るヘアスタイルシミュレーション装置1は、少なくともCPU(中央演算装置)11、メモリ12、記憶装置13、I/Oインタフェース14、ビデオインタフェース15、タッチディスプレイ16、撮像手段17、通信インタフェース18及び上述したハードウェアを接続する内部バス19で構成されている。 The hairstyle simulation device 1 according to the embodiment of the present invention includes at least a CPU (central processing unit) 11, a memory 12, a storage device 13, an I / O interface 14, a video interface 15, a touch display 16, an imaging unit 17, and communication. It is composed of an interface 18 and an internal bus 19 that connects the above hardware.
CPU11は、内部バス19を介してヘアスタイルシミュレーション装置1の上述したようなハードウェア各部と接続されており、上述したハードウェア各部の動作を制御するとともに、記憶装置13に記憶されたコンピュータプログラム100に従って、種々のソフトウェア的機能を実行する。メモリ12は、SRAM、SDRAM等の揮発性メモリで構成され、コンピュータプログラム100の実行時にロードモジュールが展開され、コンピュータプログラム100の実行時に発生する一時的なデータ等を記憶する。 The CPU 11 is connected to each of the above-described hardware parts of the hairstyle simulation device 1 via the internal bus 19, controls the operation of each of the above-mentioned hardware parts, and stores the computer program 100 stored in the storage device 13. To perform various software functions. The memory 12 is composed of a volatile memory such as SRAM or SDRAM, and a load module is expanded when the computer program 100 is executed, and temporary data or the like generated when the computer program 100 is executed is stored.
記憶装置13は、内蔵される固定型記憶装置(ハードディスク)、ROM等で構成されている。記憶装置13に記憶しているコンピュータプログラム100は、通信インタフェース18を介して接続されている外部コンピュータからダウンロードされ、実行時には記憶装置13からメモリ12へ展開して実行される。もちろん、プログラム及びデータ等の情報を記録したSDカード等の可搬型記録媒体からのリーダ/ライタを備えている場合には、可搬型記録媒体からコンピュータプログラムを読み出しても良い。 The storage device 13 includes a built-in fixed storage device (hard disk), ROM, and the like. The computer program 100 stored in the storage device 13 is downloaded from an external computer connected via the communication interface 18, and is expanded from the storage device 13 to the memory 12 and executed at the time of execution. Of course, the computer program may be read from the portable recording medium when the reader / writer is provided from the portable recording medium such as an SD card in which information such as programs and data is recorded.
記憶装置13には、ヘアスタイルを示すモデル画像データが記憶されている。モデル画像データには、標準的な顔の部分の輪郭線データが含まれており、撮像されたユーザの顔の画像データから抽出する顔の部分の輪郭線データとの間でマッチング処理を実行することにより、ユーザの所望の形状にヘアスタイルを変形(調整)した顔の合成画像を生成することができる。 The storage device 13 stores model image data indicating a hairstyle. The model image data includes the contour data of the standard face portion, and the matching processing is executed with the contour data of the face portion extracted from the image data of the captured user's face. As a result, it is possible to generate a composite image of a face in which the hairstyle is deformed (adjusted) into a shape desired by the user.
通信インタフェース18は内部バス19に接続されており、外部のネットワーク網に接続されることにより、外部のコンピュータ等とデータ送受信を行うことが可能となっている。 The communication interface 18 is connected to the internal bus 19, and by connecting to an external network, it is possible to perform data transmission / reception with an external computer or the like.
I/Oインタフェース14及びビデオインタフェース15は、液晶ディスプレイで構成されたタッチディスプレイ16と接続され、ヘアスタイルを示すモデル画像データの顔の部分と、撮像されたユーザの顔の画像データの顔の部分との間で輪郭線データのマッチング処理を実行することにより、ユーザの顔の画像データの顔の部分とモデル画像データの髪の部分とを重ね合わせて生成された合成画像を表示する。表示された合成画像に対して、スワイプ操作等をすることにより、合成画像の髪の部分の一部を変形させる。 The I / O interface 14 and the video interface 15 are connected to the touch display 16 composed of a liquid crystal display, and the face portion of the model image data showing the hairstyle and the face portion of the image data of the captured user's face. By executing the matching processing of the contour line data between and, the composite image generated by superimposing the face portion of the image data of the user's face and the hair portion of the model image data is displayed. By performing a swipe operation or the like on the displayed combined image, a part of the hair portion of the combined image is deformed.
なお、撮像手段17は、CCDカメラ等であり、備えていてもいなくても良い。撮像手段17を備えている場合、ユーザの顔を撮像して、撮像した顔の画像データの顔の部分にヘアスタイルを示すモデル画像データの髪の部分を合成することにより、所望のヘアスタイルの形状に変形した状態を確認してもらうことができる。 The image pickup means 17 is a CCD camera or the like and may or may not be provided. When the image pickup unit 17 is provided, a user's face is imaged, and a hair portion of the model image data indicating the hairstyle is combined with the face portion of the image data of the captured face to obtain a desired hairstyle. You can check the deformed state.
以下、上記構成のヘアスタイルシミュレーション装置1の動作について説明する。図2は、本発明の実施の形態に係るヘアスタイルシミュレーション装置1の構成を示す機能ブロック図である。 The operation of the hairstyle simulation device 1 having the above configuration will be described below. FIG. 2 is a functional block diagram showing the configuration of the hairstyle simulation device 1 according to the embodiment of the present invention.
図2において、本実施の形態に係るヘアスタイルシミュレーション装置1の撮像部(撮像手段)201は、ヘアスタイルをシミュレーションするユーザ自身の顔を撮像する。撮像部201で撮像された顔の画像データは、記憶装置13に記憶される。撮像部201としては、CCDイメージセンサ、CMOSイメージセンサ等を採用する。 In FIG. 2, the imaging unit (imaging unit) 201 of the hairstyle simulation device 1 according to the present embodiment images the face of the user who simulates the hairstyle. The image data of the face captured by the image capturing unit 201 is stored in the storage device 13. A CCD image sensor, a CMOS image sensor, or the like is used as the image pickup unit 201.
モデル画像読出部202は、記憶装置13に記憶されているモデル画像データを読み出す。モデル画像データは、ヘアスタイルを識別するヘアスタイルIDに対応付けて、標準的なモデルを当該ヘアスタイルにした場合を示す画像データである。 The model image reading unit 202 reads the model image data stored in the storage device 13. The model image data is image data indicating a case where a standard model is set to the hairstyle ID in association with the hairstyle ID for identifying the hairstyle.
輪郭抽出部203は、撮像部201で撮像された顔の画像データから顔の部分の輪郭線を抽出する。輪郭線の抽出方法は特に限定されるものではない。例えば所定の画素の画素値が、周囲の画素の画素値と所定値以上離れている場合に輪郭線として抽出する方法であっても良い。同様に、読み出したモデル画像データについても顔の部分の輪郭線を抽出する。なお、モデル画像データについては、事前に顔の部分の輪郭線を抽出しておき、抽出した輪郭線に関する情報をモデル画像データと併せて記憶しておいても良い。 The contour extracting unit 203 extracts the contour line of the face portion from the image data of the face captured by the image capturing unit 201. The method of extracting the contour line is not particularly limited. For example, a method of extracting a contour line when the pixel value of a predetermined pixel is separated from the pixel values of surrounding pixels by a predetermined value or more may be used. Similarly, with respect to the read model image data, the contour line of the face portion is extracted. As for the model image data, the contour line of the face portion may be extracted in advance, and the information regarding the extracted contour line may be stored together with the model image data.
マッチング部204は、抽出した顔の部分の輪郭線を、ヘアスタイルを示すモデル画像データから抽出した顔の部分の輪郭線とマッチング処理する。図3は、本発明の実施の形態に係るヘアスタイルシミュレーション装置1のCPU11の輪郭マッチング処理の手順を示すフローチャートである。 The matching unit 204 performs matching processing on the contour line of the extracted face portion with the contour line of the face portion extracted from the model image data indicating the hairstyle. FIG. 3 is a flowchart showing a procedure of contour matching processing of the CPU 11 of the hairstyle simulation device 1 according to the embodiment of the present invention.
図3において、本実施の形態に係るヘアスタイルシミュレーション装置1のCPU11は、撮像された顔の画像データ及びモデル画像データの中から顔の部分の中心座標を算出する(ステップS301)。具体的には、画素値が一定範囲内である連続領域を検出して、連続領域の縦方向及び横方向の中心として中心位置を算出する。 In FIG. 3, the CPU 11 of the hairstyle simulation device 1 according to the present embodiment calculates the center coordinates of the face portion from the imaged face image data and model image data (step S301). Specifically, a continuous area having a pixel value within a certain range is detected, and the center position is calculated as the vertical and horizontal centers of the continuous area.
CPU11は、モデル画像データの顔の部分の中心座標に、撮像された顔の画像データの顔の部分の中心座標を重ね合わせるように、撮像された顔の画像データの顔の部分を移動する(ステップS302)。図4は、本発明の実施の形態に係るヘアスタイルシミュレーション装置1の顔部分の画像の重ね合わせのイメージ図である。図4(a)に示す、撮像された顔の画像データの顔の部分の中心座標G1を、図4(b)に示すモデル画像データの顔の部分の中心座標G0に重ね合わせるように、撮像された顔の画像データの顔の部分を移動させる。 The CPU 11 moves the face part of the image data of the captured face so that the center coordinates of the face part of the image data of the captured face are superimposed on the center coordinates of the face part of the model image data ( Step S302). FIG. 4 is an image diagram of superimposing images of a face portion of the hairstyle simulation device 1 according to the embodiment of the present invention. Image pickup is performed so that the center coordinates G1 of the face portion of the imaged face image data shown in FIG. 4A is superimposed on the center coordinates G0 of the face portion of the model image data shown in FIG. 4B. The face portion of the image data of the face thus formed is moved.
図3に戻って、CPU11は、モデル画像データの顔の部分の高さに合わせて、撮像された顔の画像データの顔の部分を拡大・縮小する(ステップS303)。例えば、モデル画像データの顔の部分の眉とアゴとの間の距離と、撮像された顔の画像データの顔の部分の眉とアゴとの間の距離が一致するように拡大・縮小する。このとき拡大・縮小の中心は、算出してある顔の部分の中心座標である。また、拡大・縮小時に縦横比は一定とする。 Returning to FIG. 3, the CPU 11 enlarges / reduces the face portion of the image data of the captured face in accordance with the height of the face portion of the model image data (step S303). For example, enlargement / reduction is performed so that the distance between the eyebrow and the jaw of the face portion of the model image data and the distance between the eyebrow and the jaw of the face portion of the imaged face image data match. At this time, the center of enlargement / reduction is the center coordinate of the calculated face portion. Also, the aspect ratio should be constant when enlarging / reducing.
図5は、本発明の実施の形態に係るヘアスタイルシミュレーション装置1の顔部分の画像の拡大・縮小のイメージ図である。図5に示すように、撮像された顔の画像データの顔の部分(破線部分)を、中心座標を重ね合わせて、モデル画像データの顔の部分(実線部分)に合わせている。 FIG. 5 is an image diagram of enlargement / reduction of the image of the face portion of the hairstyle simulation device 1 according to the embodiment of the present invention. As shown in FIG. 5, the face portion (broken line portion) of the imaged face image data is aligned with the face portion (solid line portion) of the model image data by superimposing the center coordinates.
図5の例では、撮像された顔の画像データの顔の部分(破線部分)の眉とアゴとの間の距離H1の方が、モデル画像データの顔の部分(実線部分)の眉とアゴとの間の距離H0よりも長いので、距離H1が距離H0になるまで、撮像された顔の画像データの顔の部分を、縦横比を維持した状態で縮小する。これにより、高さ方向についてはマッチング処理が完了する。 In the example of FIG. 5, the distance H1 between the eyebrow and the jaw of the face portion (broken line portion) of the imaged face image data is closer to the eyebrow and jaw of the face portion (solid line portion) of the model image data. Since the distance is longer than the distance H0 between H and H, the face portion of the image data of the imaged face is reduced while maintaining the aspect ratio until the distance H1 becomes the distance H0. This completes the matching process in the height direction.
図3に戻って、CPU11は、拡大・縮小した、撮像された顔の画像データの顔の部分の幅に合わせて、今度はモデル画像データの顔の部分を横方向に拡大・縮小する(ステップS304)。縦方向のズレより横方向のズレの方が小さく、しかも縦方向について拡大・縮小して眉とアゴとの距離を一致させているので、厳密に縦横比を維持する必要がない。むしろ、モデル画像データのヘアスタイルを、撮像された顔の画像データの顔部分と自然な状態で合成することが可能となる。 Returning to FIG. 3, the CPU 11 horizontally expands / reduces the face part of the model image data according to the width of the face part of the image data of the imaged face that has been enlarged / reduced (step S304). The horizontal displacement is smaller than the vertical displacement, and since the distance between the eyebrows and the jaws is matched by enlarging / reducing in the vertical direction, it is not necessary to strictly maintain the aspect ratio. Rather, the hairstyle of the model image data can be naturally combined with the face portion of the image data of the imaged face.
CPU11は、撮像された顔の画像データの顔の部分及びモデル画像データの顔の部分の輪郭線を、スプライン補間等により算出し(ステップS305)、顔の輪郭線の横方向差分を算出する(ステップS306)。CPU11は、モデル画像データの髪の部分のノードを、算出した横方向差分だけ移動する(ステップS307)。これにより、顔の輪郭が相違する場合であっても不自然さのないヘアスタイルの形状にシミュレーションを行うことが可能となる。 The CPU 11 calculates the contour lines of the face portion of the imaged face image data and the face portion of the model image data by spline interpolation or the like (step S305), and calculates the lateral difference between the face contour lines ( Step S306). The CPU 11 moves the node of the hair part of the model image data by the calculated lateral difference (step S307). As a result, even if the contours of the face are different, it is possible to perform a simulation on a hairstyle shape that is not unnatural.
図2に戻って、合成画像表示部205は、マッチング処理後の撮像された顔の画像データの顔の部分とモデル画像データの髪の部分との合成画像を生成して、タッチディスプレイに表示する。髪の部分の画像については、髪を表示するテクスチャを用いた、四角形プリミティブによるノード・リンク構造で表現されたテクスチャ付きのポリゴンとして表示している。これにより、以下の操作で髪の部分だけを変形表示させることができる。 Returning to FIG. 2, the composite image display unit 205 generates a composite image of the face portion of the captured image data of the face after the matching processing and the hair portion of the model image data, and displays the composite image on the touch display. .. The image of the hair portion is displayed as a polygon with a texture represented by a node-link structure using a quadrilateral primitive that uses a texture for displaying the hair. As a result, only the hair portion can be deformed and displayed by the following operation.
操作検出部206は、ユーザにより受け付けた所定の操作を検出する。具体的には、タッチディスプレイ16上で、スワイプ操作等を検知することにより、一定の範囲内の四角形プリミティブによるノード・リンク構造で表現されたテクスチャ付きのポリゴンを変形させる。これにより、髪の部分の一部だけを変形させることで、ヘアスタイルの形状の微調整を行うことができる。 The operation detection unit 206 detects a predetermined operation accepted by the user. Specifically, by detecting a swipe operation or the like on the touch display 16, the polygon with texture represented by the node / link structure of the quadrilateral primitive within a certain range is deformed. Thereby, the shape of the hairstyle can be finely adjusted by deforming only a part of the hair.
検出する所定の操作としては、スワイプ操作による変更領域、移動方向及び移動量を検出する。変更領域は、指の接触を検出した画素群の中心からの一定範囲内の領域を変更領域として検出する。画素群の数に応じて、段階的に変更領域を拡大・縮小させても良い。移動方向は、スワイプしている間の指の移動方向に基づいて算出し、移動量は、スワイプしている間の指が接触しながら移動した移動量に基づいて算出する。 As the predetermined operation to be detected, the changed area, the moving direction and the moving amount by the swipe operation are detected. As the change area, an area within a certain range from the center of the pixel group in which the contact of the finger is detected is detected as the change area. The changed area may be enlarged / reduced stepwise according to the number of pixel groups. The moving direction is calculated based on the moving direction of the finger while swiping, and the moving amount is calculated based on the moving amount that the finger moves while touching while swiping.
画像変形部207は、検出された所定の操作に応じて、合成画像の髪の部分の形状を変形させる。また、検出された変更領域について、検出された移動方向及び移動量に基づいて、四角形プリミティブに対して、レンダリング処理を実行することによりポリゴンの変形を算出して、付随するテクスチャを変形させる。 The image transformation unit 207 transforms the shape of the hair portion of the composite image according to the detected predetermined operation. Further, with respect to the detected changed area, the polygon deformation is calculated by performing the rendering process on the quadrangle primitive based on the detected moving direction and moving amount, and the accompanying texture is deformed.
図6は、髪の部分のポリゴン変形の例示図である。図6に示すように、格子状の互いにリンクされているノード61を形成し、その上にテクスチャとして合成画像を貼り付ける。検出される操作によって、格子状のノードそれぞれが変形し、それに伴いリンクされているノードも順次変形していくことで、変更領域内全体が変形する。例えば変更領域62、63に示すように、ノード61が変形して、付随する髪の部分のテクスチャが変形することで、ヘアスタイルを自由に変更することができる。 FIG. 6 is a view showing an example of polygon deformation of a hair part. As shown in FIG. 6, grid-shaped nodes 61 that are linked to each other are formed, and a composite image is pasted thereon as a texture. By the detected operation, each of the grid-like nodes is deformed, and the linked nodes are sequentially deformed accordingly, so that the entire changed region is deformed. For example, as shown in the change areas 62 and 63, the node 61 is deformed, and the texture of the attached hair portion is deformed, so that the hair style can be freely changed.
つまり、画像変形部207は、検出された変更領域について、検出された移動方向及び移動量に基づいて、四角形プリミティブによるノード・リンク構造で表現されたテクスチャ付きのポリゴンの変形方向及び変形量を算出する変形算出部208を備える。これにより、ポリゴンの変形方向及び変形量を求めることで、テクスチャとして付随している髪の部分の画像を変形させることができる。合成画像表示部205は、算出した変形方向及び変形量に基づいて合成画像を更新して、タッチディスプレイ16に表示する。 That is, the image transforming unit 207 calculates the transforming direction and the transforming amount of the textured polygon represented by the node-link structure by the quadrangle primitive, based on the detected moving direction and the moving amount for the detected changed region. The transformation calculation unit 208 is provided. Accordingly, by obtaining the deformation direction and the deformation amount of the polygon, it is possible to deform the image of the hair part that is attached as a texture. The composite image display unit 205 updates the composite image based on the calculated deformation direction and deformation amount, and displays it on the touch display 16.
なお、本実施の形態では、格子状にノードが形成されているので、四角形プリミティブに対してレンダリング処理が実行されている。図7は、四角形プリミティブに対するレンダリング処理の実行前後の比較イメージ図である。図7(a)は、レンダリング処理の実行前の四角形プリミティブの状態を、図7(b)は、レンダリング処理の実行後の四角形プリミティブの状態を、それぞれ示す。 In addition, in this embodiment, since the nodes are formed in a grid pattern, the rendering process is executed on the quadrilateral primitive. FIG. 7 is a comparison image diagram before and after performing the rendering process on the quadrangle primitive. FIG. 7A shows the state of the quadrilateral primitive before the execution of the rendering process, and FIG. 7B shows the state of the quadrilateral primitive after the execution of the rendering process.
図7(a)の例では、3つの四角形プリミティブを直列に配置している。3つの四角形プリミティブの上にはテクスチャとして直線T0−T2が描かれている。そして、ノードN1をノードN2になるようレンダリング処理を実行する。 In the example of FIG. 7A, three quadrilateral primitives are arranged in series. Straight lines T0-T2 are drawn as textures on the three quadrilateral primitives. Then, the rendering process is executed so that the node N1 becomes the node N2.
この場合、四角形プリミティブの内部においては、直線は直線として変形される。したがって、図7(b)に示すように、ノードN1がノードN2の位置まで引っ張られることにより、テクスチャ位置T1がT1’へ、テクスチャ位置T2がT2’へ、それぞれ移動する。その結果として、比較的角張ったテクスチャとしてテクスチャマッピングが行われる。 In this case, the straight line is transformed into a straight line inside the square primitive. Therefore, as shown in FIG. 7B, when the node N1 is pulled to the position of the node N2, the texture position T1 moves to T1 'and the texture position T2 moves to T2'. As a result, texture mapping is performed as a relatively angular texture.
これに対して、スマートホン等ではハードウェアに制約が生じるため、OpenGLを使用することができず、OpenGL ES 2.0を使用する場合も想定される。この場合、四角形プリミティブに対してレンダリング処理を実行することができない。 On the other hand, in a smart phone or the like, hardware is restricted, so that OpenGL cannot be used and OpenGL ES 2.0 may be used. In this case, the rendering process cannot be executed on the rectangular primitive.
そこで、四角形プリミティブを複数の三角形プリミティブに分割してレンダリング処理を実行しても良い。この場合、1つの対角線で二分割する方法と、2つの対角線を用いて四分割する方法とが考えられる。図8は、レンダリング処理の対象となるプリミティブの例示図である。 Therefore, the rendering process may be executed by dividing the quadrilateral primitive into a plurality of triangle primitives. In this case, a method of dividing into two with one diagonal line and a method of dividing into four with two diagonal lines can be considered. FIG. 8 is an exemplary diagram of primitives that are the target of the rendering process.
図8(a)では、四角形プリミティブを1つの対角線で二分割し、2つの三角形プリミティブとしている。図8(b)では、四角形プリミティブの内部で、2つの対角線の交点を補助点Pとして、補助点Pを頂点とした4つの三角形プリミティブに分割している。 In FIG. 8A, the quadrilateral primitive is divided into two by one diagonal to form two triangle primitives. In FIG. 8B, the inside of the quadrilateral primitive is divided into four triangular primitives having the auxiliary point P at the intersection of two diagonal lines and the auxiliary point P as a vertex.
いずれの方法でも三角形プリミティブに対してレンダリング処理は実行できるものの、結果に相違が生じる。図9は、レンダリング処理の結果の比較図である。図9(a)は、図8(a)の三角形プリミティブに対して、図9(b)は、図8(b)の三角形プリミティブに対して、それぞれレンダリング処理を実行した結果を模式的に示した説明図である。 Although either method can perform the rendering process on the triangle primitive, the result is different. FIG. 9 is a comparison diagram of the results of the rendering process. FIG. 9A schematically shows the result of rendering processing performed on the triangle primitive of FIG. 8A, and FIG. 9B schematically shows the result of rendering processing performed on the triangle primitive of FIG. 8B. FIG.
図9(a)と図9(b)とを比較すればわかるように、図9(a)では、テクスチャに明確な折り目が生じ、全体として変形後のテクスチャに違和感が生じている。それに対して、図9(b)では、テクスチャに折り目が生じにくく、全体として変形後のテクスチャに違和感が生じにくい。したがって、変形後のヘアスタイルが、より自然な形状になることがわかる。 As can be seen by comparing FIG. 9A and FIG. 9B, in FIG. 9A, a clear crease is generated in the texture, and the texture after deformation as a whole is uncomfortable. On the other hand, in FIG. 9B, creases are unlikely to occur in the texture, and the texture after deformation is unlikely to feel unnatural as a whole. Therefore, it can be seen that the deformed hairstyle has a more natural shape.
簡単な例で、テクスチャマッピング結果の違いを説明する。図10は、2つの三角形プリミティブに対するレンダリング処理の実行後の状態を示す図(図8(a)に対応)である。図10(a)と図10(b)とでは、四角形プリミティブの2本の対角線のそれぞれで分割した三角形プリミティブに対するレンダリング処理の実行後の違いがわかる。 A simple example explains the difference in the texture mapping results. FIG. 10 is a diagram (corresponding to FIG. 8A) showing a state after the rendering process is performed on the two triangular primitives. 10A and FIG. 10B, the difference after the rendering process is executed for the triangle primitive divided by each of the two diagonal lines of the quadrangle primitive can be seen.
すなわち、図10(a)では、四角形プリミティブの右上から左下への対角線で2つの三角形プリミティブに分割されており、対角線の方向が、ノードN1からノードN2への移動方向(図7参照)とは交差する方向になっている。この場合、三角形変形によるアフィン変換後のテクスチャの曲がり方は比較的大きくなり(テクスチャ位置T3、T4参照)、テクスチャに急峻な折り目が生じている。 That is, in FIG. 10A, the quadrilateral primitive is divided into two triangular primitives by diagonal lines from the upper right to the lower left, and the direction of the diagonal line is the moving direction from the node N1 to the node N2 (see FIG. 7). The directions are intersecting. In this case, the bending of the texture after the affine transformation due to the triangular deformation is relatively large (see texture positions T3 and T4), and sharp folds are generated in the texture.
一方、図10(b)では、四角形プリミティブの左上から右下への対角線で2つの三角形プリミティブに分割されており、対角線の方向が、ノードN1からノードN2への移動方向(図7参照)と略一致する方向になっている。この場合、三角形変形によるアフィン変換後のテクスチャの曲がり方は比較的小さくなり(テクスチャ位置T5参照)、テクスチャに折り目が生じにくい。 On the other hand, in FIG. 10B, the quadrangle primitive is divided into two triangular primitives by diagonal lines from the upper left to the lower right, and the direction of the diagonal line is the moving direction from the node N1 to the node N2 (see FIG. 7). The directions are almost the same. In this case, the amount of bending of the texture after affine transformation due to the triangular deformation is relatively small (see texture position T5), and creases are unlikely to occur in the texture.
このように2つの三角形プリミティブに分割する場合には、対角線の方向と変形する方向との相対関係によって、テクスチャに大きな折り目が生じる場合もあれば生じない場合もあるという結果になる。したがって、不自然なテクスチャが生じる可能性が残されている。 In the case of dividing into two triangle primitives in this way, a result may be that a large crease may or may not occur in the texture depending on the relative relationship between the diagonal direction and the deforming direction. Therefore, there is a possibility that an unnatural texture will occur.
それに対して、図11は、補助点Pを頂点とした4つの三角形プリミティブに対するレンダリング処理の実行後の状態を示す図(図8(b)に対応)である。図11では、2つの対角線の交点を新たなノード(補助点P)として追加し、4つの三角形プリミティブに分割している。 On the other hand, FIG. 11 is a diagram (corresponding to FIG. 8B) showing a state after the rendering process is executed for the four triangular primitives having the auxiliary point P as a vertex. In FIG. 11, the intersection of two diagonal lines is added as a new node (auxiliary point P) and divided into four triangular primitives.
そして、4つの三角形プリミティブに対してレンダリング処理を実行する。この場合、四角形プリミティブの分割方法が左右対称であることから、移動するノードやノードの移動方向に左右されることなく、三角形変形によるアフィン変換後のテクスチャの曲がり方は一定の範囲内に収束する(テクスチャ位置T6、T7参照)。したがって、テクスチャに急峻な折り目が生じにくく、自然な変形を行うことが可能となる。 Then, the rendering process is executed on the four triangular primitives. In this case, since the method of dividing the quadrilateral primitive is symmetrical, the bending of the texture after affine transformation due to the triangular deformation converges within a certain range without being influenced by the moving node or the moving direction of the node. (See texture positions T6 and T7). Therefore, sharp folds are unlikely to occur in the texture, and natural deformation can be performed.
なお、四角形プリミティブあるいは三角形プリミティブを構成するノードの最大変形量を、各ノードの顔の部分の輪郭線からの距離に応じて、距離が短いほど小さくなるように設定することが好ましい。この場合、顔の部分の輪郭線上のノードについては、変形量は0(ゼロ)になる。これにより、髪の部分を顔の部分の方向に変形させた場合であっても、髪の部分が顔の部分の輪郭線を超えて変形することがなく、ヘアスタイルを自然な形状に変形することが可能となる。 It is preferable to set the maximum deformation amount of the nodes forming the quadrangle primitive or the triangle primitive such that it becomes smaller as the distance is shorter, according to the distance from the contour line of the face portion of each node. In this case, the deformation amount is 0 (zero) for the node on the contour line of the face portion. As a result, even when the hair part is deformed in the direction of the face part, the hair part is not deformed beyond the contour line of the face part, and the hairstyle is deformed into a natural shape. It becomes possible.
図12は、本発明の実施の形態に係るヘアスタイルシミュレーション装置1のCPU11の髪画像変形処理の手順を示すフローチャートである。本実施の形態に係るヘアスタイルシミュレーション装置1のCPU11は、ヘアスタイルをシミュレーションするユーザ自身の顔を撮像する(ステップS1201)。撮像された顔の画像データは、記憶装置13に記憶される。 FIG. 12 is a flowchart showing the procedure of the hair image transformation process of the CPU 11 of the hairstyle simulation device 1 according to the embodiment of the present invention. The CPU 11 of the hairstyle simulation device 1 according to the present embodiment images the face of the user who simulates the hairstyle (step S1201). The image data of the captured face is stored in the storage device 13.
CPU11は、記憶装置13に記憶されているモデル画像データを読み出す(ステップS1202)。モデル画像データは、ヘアスタイルを識別するヘアスタイルIDに対応付けて、標準的なモデルを当該ヘアスタイルにした場合を示す画像データである。 The CPU 11 reads out the model image data stored in the storage device 13 (step S1202). The model image data is image data indicating a case where a standard model is set to the hairstyle ID in association with the hairstyle ID for identifying the hairstyle.
CPU11は、撮像された顔の画像データから顔の輪郭線を抽出し(ステップS1203)、読み出したモデル画像データについても顔の部分の輪郭線を抽出する(ステップS1204)。なお、モデル画像データについては、事前に顔の部分の輪郭線を抽出しておき、抽出した輪郭線に関する情報をモデル画像データと併せて記憶しておいても良い。 The CPU 11 extracts a contour line of the face from the imaged face image data (step S1203), and also extracts a contour line of the face portion from the read model image data (step S1204). As for the model image data, the contour line of the face portion may be extracted in advance, and the information regarding the extracted contour line may be stored together with the model image data.
CPU11は、抽出した顔の部分の輪郭線を、ヘアスタイルを示すモデル画像データの顔の部分の輪郭線とマッチング処理して(ステップS1205)、マッチング処理後の撮像された顔の画像データの顔の部分とモデル画像データの髪の部分との合成画像を生成して、タッチディスプレイ16に表示する(ステップS1206)。髪の部分の画像については、髪を表示するテクスチャを用いた、四角形プリミティブによるノード・リンク構造で表現されたテクスチャ付きのポリゴンとして表示している。 The CPU 11 performs matching processing on the extracted contour line of the face portion with the contour line of the face portion of the model image data indicating the hairstyle (step S1205), and the face of the image data of the imaged face after the matching processing is performed. A composite image of the portion of (1) and the hair portion of the model image data is generated and displayed on the touch display 16 (step S1206). The image of the hair portion is displayed as a polygon with a texture represented by a node-link structure using a quadrilateral primitive that uses a texture for displaying the hair.
CPU11は、ユーザにより受け付けた所定の操作を検出する(ステップS1207)。具体的には、タッチディスプレイ16上で、スワイプ操作等を検知することにより、一定の範囲内の四角形プリミティブによるノード・リンク構造で表現されたテクスチャ付きのポリゴンを変形させる。 The CPU 11 detects a predetermined operation accepted by the user (step S1207). Specifically, by detecting a swipe operation or the like on the touch display 16, the polygon with texture represented by the node / link structure of the quadrilateral primitive within a certain range is deformed.
検出する所定の操作としては、スワイプ操作による変更領域、移動方向及び移動量を検出する。変更領域は、指の接触を検出した画素群の中心からの一定範囲内の領域を変更領域として検出する。画素群の数に応じて、段階的に変更領域を拡大・縮小させても良い。移動方向は、スワイプしている間の指の移動方向として、移動量は、スワイプしている間の指の移動量として検出する。 As the predetermined operation to be detected, the changed area, the moving direction and the moving amount by the swipe operation are detected. As the change area, an area within a certain range from the center of the pixel group in which the contact of the finger is detected is detected as the change area. The changed area may be enlarged / reduced stepwise according to the number of pixel groups. The moving direction is detected as the moving direction of the finger while swiping, and the moving amount is detected as the moving amount of the finger while swiping.
CPU11は、検出された変更領域について、検出された移動方向及び移動量に基づいて、四角形プリミティブによるノード・リンク構造で表現されたテクスチャ付きのポリゴンの変形方向及び変形量を算出する(ステップS1208)。具体的には、四角形プリミティブに対して、レンダリング処理を実行することによりポリゴンの変形を算出して、付随するテクスチャを変形させる。CPU11は、算出した変形方向及び変形量に基づいて合成画像を更新して、タッチディスプレイ16に表示する(ステップS1209)。 The CPU 11 calculates the deformation direction and the deformation amount of the textured polygon represented by the node-link structure of the quadrangle primitive, based on the detected movement direction and movement amount of the detected change area (step S1208). .. Specifically, a polygon deformation is calculated by performing a rendering process on a quadrilateral primitive, and the associated texture is deformed. The CPU 11 updates the composite image based on the calculated deformation direction and the calculated deformation amount and displays it on the touch display 16 (step S1209).
以上のように本実施の形態によれば、モデル画像データの髪の部分の一部だけを不自然さのない形状に変形させることができるので、調整する必要がない部分については現状を維持したまま、気になる部分だけをシミュレーションすることができ、ユーザの所望の形状にヘアスタイルを調整することが可能となる。 As described above, according to the present embodiment, only a part of the hair part of the model image data can be deformed into a shape without unnaturalness, so that the current condition is maintained for the part that does not need to be adjusted. As it is, it is possible to simulate only the part of interest, and it becomes possible to adjust the hairstyle to the shape desired by the user.
なお、本発明は上記実施例に限定されるものではなく、本発明の趣旨の範囲内であれば多種の変更、改良等が可能である。例えば、変更領域の検出方法は特に限定されるものではなく、例えば複数の指の接触を検知して、接触領域を両方含む領域を変更領域として算出しても良い。 It should be noted that the present invention is not limited to the above-described embodiments, and various modifications and improvements can be made within the scope of the gist of the present invention. For example, the method of detecting the changed area is not particularly limited, and, for example, contact with a plurality of fingers may be detected, and an area including both contact areas may be calculated as the changed area.
1 ヘアスタイルシミュレーション装置
11 CPU
12 メモリ
13 記憶装置
17 撮像手段
100 コンピュータプログラム
P 補助点1 Hairstyle simulation device 11 CPU
12 memory 13 storage device 17 imaging means 100 computer program P auxiliary point
Claims (9)
ユーザ自身の顔を撮像する撮像手段と、
撮像された顔の画像データから顔の部分の輪郭線を抽出する輪郭抽出手段と、
抽出した顔の部分の輪郭線を、ヘアスタイルを示すモデル画像データから抽出した顔の部分の輪郭線とマッチング処理するマッチング手段と、
輪郭線を合わせることで、撮像された顔の画像データの顔の部分と、モデル画像データの髪の部分とを重ね合わせて合成画像を生成して、タッチディスプレイに表示する合成画像表示手段と
を有し、
前記モデル画像データの髪の部分は、四角形プリミティブによるノード・リンク構造で表現されたテクスチャ付きのポリゴンとして表示されており、
前記タッチディスプレイに表示されている合成画像の前記髪の部分の一部に対する所定の操作を検出する操作検出手段と、
検出された所定の操作に応じて、前記髪の部分の形状を変形させる画像変形手段と
を備え、
前記操作検出手段は、前記所定の操作として変更領域、移動方向及び移動量を検出し、
前記画像変形手段は、
検出された変更領域について、検出された移動方向及び移動量に基づいて、四角形プリミティブによるノード・リンク構造で表現されたテクスチャ付きのポリゴンの変形方向と変形量を算出する変形算出手段
を備え、
前記変形算出手段は、四角形プリミティブの内部に補助点を設け、該補助点を頂点とした4つの三角形プリミティブによるノード・リンク構造で表現されたテクスチャ付きのポリゴンを、互いに連動させながら漸次変形させることを特徴とするヘアスタイルシミュレーション装置。 In a hairstyle simulation device capable of deforming only a part of the model image showing the hairstyle that has been specified by the user,
Imaging means for imaging the user's own face,
A contour extracting means for extracting a contour line of a face portion from the imaged face image data;
Matching means for matching the contour line of the extracted face portion with the contour line of the face portion extracted from the model image data indicating the hairstyle,
By combining the contour lines, the face part of the captured image data of the face and the hair part of the model image data are overlapped to generate a composite image, and the composite image display means is displayed on the touch display. Have,
The hair part of the model image data is displayed as a polygon with a texture represented by a node / link structure using a quadrangle primitive,
Operation detecting means for detecting a predetermined operation on a part of the hair portion of the composite image displayed on the touch display;
Image deforming means for deforming the shape of the hair portion according to a predetermined operation detected ,
The operation detecting means detects a change area, a moving direction and a moving amount as the predetermined operation,
The image transforming means,
Deformation calculation means for calculating the deformation direction and the deformation amount of the textured polygon represented by the node-link structure of the quadrilateral primitive, based on the detected movement direction and movement amount of the detected change area.
Equipped with
The deformation calculating means provides auxiliary points inside a quadrilateral primitive, and gradually deforms textured polygons represented by a node-link structure of four triangular primitives having the auxiliary points as vertices while interlocking with each other. Hairstyle simulation device featuring.
前記コンピュータは、
ユーザ自身の顔を撮像する工程と、
撮像された顔の画像データから顔の部分の輪郭線を抽出する工程と、
抽出した顔の部分の輪郭線を、ヘアスタイルを示すモデル画像データから抽出した顔の部分の輪郭線とマッチング処理する工程と、
輪郭線を合わせることで、撮像された顔の画像データの顔の部分と、モデル画像データの髪の部分とを重ね合わせて合成画像を生成して、タッチディスプレイに表示する工程と
を含み、
前記モデル画像データの髪の部分は、四角形プリミティブによるノード・リンク構造で表現されたテクスチャ付きのポリゴンとして表示されており、
前記タッチディスプレイに表示されている合成画像の前記髪の部分の一部に対する所定の操作を検出する工程と、
検出された所定の操作に応じて、前記髪の部分の形状を変形させる工程と
を含み、
前記所定の操作を検出する工程において、前記所定の操作として変更領域、移動方向及び移動量を検出し、
前記髪の部分の形状を変形させる工程において、検出された変更領域について、検出された移動方向及び移動量に基づいて、四角形プリミティブによるノード・リンク構造で表現されたテクスチャ付きのポリゴンの変形方向と変形量を算出し、
前記ポリゴンの変形方法と変形量を算出する工程において、四角形プリミティブの内部に補助点を設け、該補助点を頂点とした4つの三角形プリミティブによるノード・リンク構造で表現されたテクスチャ付きのポリゴンを、互いに連動させながら漸次変形させることを特徴とするヘアスタイルシミュレーション方法。 In a hairstyle simulation method that can be executed by a computer that can deform only a part of a model image showing a hairstyle that has been specified by the user,
The computer is
Capturing the user's own face,
A step of extracting a contour line of a face portion from the imaged face image data;
A process of matching the contour line of the extracted face portion with the contour line of the face portion extracted from the model image data indicating the hairstyle,
A step of superimposing the face part of the image data of the imaged face and the hair part of the model image data by matching the contour lines to generate a composite image, and displaying the composite image on the touch display.
Including,
The hair part of the model image data is displayed as a polygon with a texture represented by a node / link structure using a quadrangle primitive,
Detecting a predetermined operation on a part of the hair portion of the composite image displayed on the touch display;
A step of deforming the shape of the hair part according to a predetermined operation detected;
Including,
In the step of detecting the predetermined operation, the change area, the moving direction and the moving amount are detected as the predetermined operation,
In the step of deforming the shape of the hair part, with respect to the detected change area, the deformation direction of the textured polygon expressed by the node / link structure by the quadrangle primitive is detected based on the detected movement direction and movement amount. Calculate the amount of deformation,
In the step of calculating the deformation method and the deformation amount of the polygon, an auxiliary point is provided inside the quadrilateral primitive, and a polygon with a texture represented by a node-link structure by four triangular primitives having the auxiliary point as a vertex, It features and to Ruhe a style simulation method to be gradually deformed while interlocked with each other.
前記コンピュータを、
ユーザ自身の顔を撮像する撮像手段、
撮像された顔の画像データから顔の部分の輪郭線を抽出する輪郭抽出手段、
抽出した顔の部分の輪郭線を、ヘアスタイルを示すモデル画像データから抽出した顔の部分の輪郭線とマッチング処理するマッチング手段、及び
輪郭線を合わせることで、撮像された顔の画像データの顔の部分と、モデル画像データの髪の部分とを重ね合わせて合成画像を生成して、タッチディスプレイに表示する合成画像表示手段
として機能させ、
前記モデル画像データの髪の部分は、四角形プリミティブによるノード・リンク構造で表現されたテクスチャ付きのポリゴンとして表示されており、
前記コンピュータを、
前記タッチディスプレイに表示されている合成画像の前記髪の部分の一部に対する所定の操作を検出する操作検出手段、及び
検出された所定の操作に応じて、前記髪の部分の形状を変形させる画像変形手段
として機能させ、
前記操作検出手段を、前記所定の操作として変更領域、移動方向及び移動量を検出する手段として機能させ、
前記画像変形手段を、検出された変更領域について、検出された移動方向及び移動量に基づいて、四角形プリミティブによるノード・リンク構造で表現されたテクスチャ付きのポリゴンの変形方向と変形量を算出する変形算出手段として機能させ、
前記変形算出手段を、四角形プリミティブの内部に補助点を設け、該補助点を頂点とした4つの三角形プリミティブによるノード・リンク構造で表現されたテクスチャ付きのポリゴンを、互いに連動させながら漸次変形させる手段として機能させることを特徴とするコンピュータプログラム。 In a computer program that can be executed by a computer capable of transforming only a part of a model image showing a hairstyle that has been designated by the user,
The computer ,
An image capturing means for capturing the user's own face,
Contour extraction means for extracting the contour line of the face portion from the imaged face image data,
Matching means for performing a matching process on the contour line of the extracted face portion with the contour line of the face portion extracted from the model image data indicating the hairstyle;
Synthetic image display means for generating a synthetic image by superimposing the face portion of the imaged face image data and the hair portion of the model image data by matching the contour lines, and displaying the synthesized image on the touch display.
Function as
The hair part of the model image data is displayed as a polygon with a texture represented by a node / link structure using a quadrangle primitive,
The computer,
Operation detecting means for detecting a predetermined operation on a part of the hair portion of the composite image displayed on the touch display, and
Image deforming means for deforming the shape of the hair portion in accordance with the detected predetermined operation
Function as
Causing the operation detecting means to function as a means for detecting a change area, a moving direction and a moving amount as the predetermined operation,
Deformation for calculating the deformation direction and the deformation amount of the textured polygon represented by the node-link structure by the quadrangle primitive based on the detected movement direction and movement amount of the detected change area with respect to the detected change region. Make it function as a calculation means,
The deformation calculating means is for providing auxiliary points inside a quadrilateral primitive, and gradually deforming textured polygons represented by a node-link structure of four triangular primitives having the auxiliary points as vertices while interlocking with each other. computer program that is characterized in that to function as a.
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016216952 | 2016-11-07 | ||
JP2016216952 | 2016-11-07 | ||
PCT/JP2017/039733 WO2018084241A1 (en) | 2016-11-07 | 2017-11-02 | Hair style simulation device, hair style simulation method, and computer program |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2018084241A1 JPWO2018084241A1 (en) | 2019-09-26 |
JP6697573B2 true JP6697573B2 (en) | 2020-05-20 |
Family
ID=62076884
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018549075A Expired - Fee Related JP6697573B2 (en) | 2016-11-07 | 2017-11-02 | Hairstyle simulation device, hairstyle simulation method, and computer program |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP6697573B2 (en) |
WO (1) | WO2018084241A1 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111899159B (en) | 2020-07-31 | 2023-12-22 | 北京百度网讯科技有限公司 | Method, device, apparatus and storage medium for changing hairstyle |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2603445B2 (en) * | 1994-11-10 | 1997-04-23 | インターナショナル・ビジネス・マシーンズ・コーポレイション | Hair image adaptation method and computer system |
JP4706849B2 (en) * | 2006-03-23 | 2011-06-22 | 花王株式会社 | Method for forming hairstyle simulation image |
FR2981254A1 (en) * | 2011-10-18 | 2013-04-19 | Pierre Ollivier | METHOD OF SIMULATING A VARIABLE COLORIMETRY HAIR AND DEVICE FOR IMPLEMENTING THE METHOD |
JP5422033B1 (en) * | 2012-11-02 | 2014-02-19 | 株式会社 資生堂 | Hair simulation apparatus, hair simulation method, and hair simulation program |
JP2013178789A (en) * | 2013-04-01 | 2013-09-09 | Kao Corp | Beauty simulation system |
-
2017
- 2017-11-02 WO PCT/JP2017/039733 patent/WO2018084241A1/en active Application Filing
- 2017-11-02 JP JP2018549075A patent/JP6697573B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JPWO2018084241A1 (en) | 2019-09-26 |
WO2018084241A1 (en) | 2018-05-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4473754B2 (en) | Virtual fitting device | |
US10366533B2 (en) | Image processing device and image processing method | |
KR101707707B1 (en) | Method for fiiting virtual items using human body model and system for providing fitting service of virtual items | |
JP4829141B2 (en) | Gaze detection apparatus and method | |
CN107484428B (en) | Method for displaying objects | |
JP5709440B2 (en) | Information processing apparatus and information processing method | |
US20140168217A1 (en) | Method of fitting virtual item using human body model and system for providing fitting service of virtual item | |
WO2019035155A1 (en) | Image processing system, image processing method, and program | |
JP4359784B2 (en) | Face image synthesis method and face image synthesis apparatus | |
CN107452049B (en) | Three-dimensional head modeling method and device | |
JP6697573B2 (en) | Hairstyle simulation device, hairstyle simulation method, and computer program | |
JP4541537B2 (en) | Drawing device | |
JP4689548B2 (en) | Image processing apparatus, image processing method, recording medium, computer program, semiconductor device | |
US20170161918A1 (en) | Recording medium, information processing apparatus, and depth definition method | |
JP2015114949A (en) | Image processor, image processing method, program for image processor, and recording medium | |
JP7031047B1 (en) | Image processing methods, computer programs and image processing equipment | |
CN111768476A (en) | Expression animation redirection method and system based on grid deformation | |
JP3642923B2 (en) | Video generation processing apparatus and structured data creation apparatus for creating structured data used in the apparatus | |
US11120606B1 (en) | Systems and methods for image texture uniformization for multiview object capture | |
JP2005339363A (en) | Device and method for automatically dividing human body part | |
JP7031048B1 (en) | Image processing methods, computer programs and image processing equipment | |
JP2015184838A (en) | Image processing device, method, and program | |
JP6104223B2 (en) | Image processing apparatus, image processing method, and image processing program | |
WO2023048018A1 (en) | Display device, method for controlling display device, and program | |
JP2005122558A (en) | Device, method and program for image display and computer readable recording medium with image display program thereon |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190423 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190423 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200414 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200424 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6697573 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |