KR100982171B1 - Facial imaging equipment - Google Patents
Facial imaging equipment Download PDFInfo
- Publication number
- KR100982171B1 KR100982171B1 KR1020080116691A KR20080116691A KR100982171B1 KR 100982171 B1 KR100982171 B1 KR 100982171B1 KR 1020080116691 A KR1020080116691 A KR 1020080116691A KR 20080116691 A KR20080116691 A KR 20080116691A KR 100982171 B1 KR100982171 B1 KR 100982171B1
- Authority
- KR
- South Korea
- Prior art keywords
- camera
- image
- reference information
- calibration reference
- information
- Prior art date
Links
- 230000001815 facial effect Effects 0.000 title claims abstract description 24
- 238000003384 imaging method Methods 0.000 title claims description 14
- 210000005069 ears Anatomy 0.000 claims abstract description 18
- 210000000744 eyelid Anatomy 0.000 claims abstract description 10
- 238000000034 method Methods 0.000 claims description 12
- 238000003745 diagnosis Methods 0.000 abstract description 5
- 230000000694 effects Effects 0.000 abstract description 2
- 238000010586 diagram Methods 0.000 description 9
- 210000001747 pupil Anatomy 0.000 description 6
- 238000005516 engineering process Methods 0.000 description 3
- 210000003128 head Anatomy 0.000 description 3
- 238000010191 image analysis Methods 0.000 description 3
- 238000000605 extraction Methods 0.000 description 2
- 230000005856 abnormality Effects 0.000 description 1
- 210000000887 face Anatomy 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/61—Control of cameras or camera modules based on recognised objects
- H04N23/611—Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/165—Detection; Localisation; Normalisation using facial parts and geometric relationships
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
- G06T2207/30201—Face
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Theoretical Computer Science (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Multimedia (AREA)
- General Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Geometry (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Signal Processing (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
- Studio Devices (AREA)
Abstract
본 발명은 안면 영상 촬영장치에 관한 것으로서, 대상 인물의 정면 영상을 실시간으로 획득하는 카메라, 상기 카메라에 의해 촬영된 영상이 저장되는 메모리, 상기 카메라에 의해 촬영된 영상이 출력되는 디스플레이부, 정면 영상 촬영시에는 상기 카메라에 의해 획득된 정면 영상을 양쪽 눈동자의 중심점의 위치정보, 양쪽 귀의 면적정보, 눈동자 중심점 위의 눈꺼풀의 위치정보 및 귀의 정점의 위치정보를 포함하는 특징점 정보를 이용하여 교정참조정보를 생성하는 영상 분석부 및 상기 교정참조정보가 설정된 기준범위를 만족하는 경우에 상기 정면 영상을 메모리에 저장하는 제어부를 포함하여, 얼굴의 특징점을 이용하여 정확한 자세의 안면 영상을 획득할 수 있으며, 바른 자세의 영상 정보를 통해 특징점 정보를 추출할 수 있어, 영상을 이용한 진단시 정확한 진단이 가능한 효과가 있다.The present invention relates to a face image photographing apparatus, comprising: a camera for acquiring a front image of a target person in real time, a memory in which the image photographed by the camera is stored, a display unit for outputting the image photographed by the camera, and a front image At the time of shooting, the front image obtained by the camera is calibrated by using feature point information including the position information of the center point of both eyes, the area information of both ears, the position information of the eyelid on the center point of the eye, and the position information of the apex of the ear. And a control unit configured to store the front image in a memory when the calibration reference information satisfies the set reference range, and obtain a face image of an accurate posture using a feature point of a face. Feature point information can be extracted through the image information of the correct posture, Short-term accurate diagnosis is possible effect.
안면 영상, 정면, 교정, 축 회전, 카메라, 구동, 자세, 진단 Facial image, frontal, correction, axis rotation, camera, drive, posture, diagnosis
Description
본 발명은 안면 영상 촬영장치에 관한 것으로서, 특히 특징점 추출이 용이하도록 정면 영상을 촬영하여 보정하는 안면 영상 촬영장치에 관한 것이다.BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a facial imaging apparatus, and more particularly, to a facial imaging apparatus for photographing and correcting a front image to facilitate feature point extraction.
일반적으로 특정한 인물의 영상에서 특징점은 다양한 기술분야에서 사용된다. 특히 대상 인물의 안면 영상에서 추출된 특징점은 안면 인식 기술에서 유용하게 사용되어 영상을 통하여 대상 인물의 동일성을 판별하는데 사용되기도 한다.In general, feature points in images of a specific person are used in various technical fields. In particular, the feature points extracted from the face image of the target person may be usefully used in facial recognition technology to determine the identity of the target person through the image.
이러한 안면 영상에서의 특징점은 의학분야에서도 이용될 수 있다. 현재 과학기술이 발전함에 따라 의사와 환자가 직접 대면하지 않고 원거리에서 환자의 영상만을 분석하여 건강의 정도나 이상 유무를 어느 정도 측정할 수 있는 기술들이 개발되고 있다. 또한 홈-케어(Home-Care) 시스템이나 유비쿼터스-헬스케어 시스템에서 안면 진단의 적용이 가능하다.Feature points in these facial images can also be used in the medical field. With the development of current science and technology, technologies are being developed that can measure the degree of health or abnormality by analyzing images of patients at a distance without facing doctors and patients directly. It is also possible to apply facial diagnosis in home-care systems or ubiquitous-healthcare systems.
상기와 같이 환자의 얼굴 영상을 통해 진단이 이루어지기 위해서는 특징점을 정확하게 추출하는 것이 중요하다. 만약 사진 촬영시 얼굴이 기울어져 있으면 특징점 추출의 정확도가 저하된다. 이러한 경우에는 안면 영상을 통한 진단이 제대로 이루어지기 힘든 문제점이 있다. 따라서, 대상 인물의 자세를 교정하여 정확한 자 세의 안면 영상을 획득할 수 있는 안면 영상 촬영장치가 필요하다.As described above, it is important to accurately extract the feature points in order to perform diagnosis through the face image of the patient. If the face is tilted when taking a picture, the accuracy of feature point extraction is degraded. In this case, there is a problem that it is difficult to properly diagnose through facial images. Accordingly, there is a need for a face image photographing apparatus capable of correcting a posture of a target person to obtain a face image having an accurate posture.
또한 사람의 정면 얼굴 영상을 이용하여 2차원 영상 기반 3차원 개인 얼굴 모델 생성 및 애니메이션[1]에도 적용이 가능하여 휴대폰과 같은 곳에서의 3차원 얼굴을 이용한 게임 및 엔터테인먼트에도 쓸 수 있다. In addition, it can be applied to the generation and animation of two-dimensional image-based three-dimensional personal face model using a human face image [1], and can be used for games and entertainment using three-dimensional faces in places such as mobile phones.
[참고문헌][references]
[1] 김진우; 고한석; 김형곤; 안상철, “2차원 영상 기반 3차원 개인 얼굴 모델 생성 및 애니메이션”, 한국방송공학회 99 학술대회, 15-20(6), 1999.[1] Jin-Woo Kim; Han Seok Ko; Hyung-Kon Kim; Ahn, Sang-Chul, “Creation and Animation of 3D Personal Face Model Based on 2D Image,” Korean Society of Broadcast Engineers 99, 15-20 (6), 1999.
본 발명은 상기한 종래 기술의 문제점을 해결하기 위하여 안출된 것으로서, 대상인물의 자세를 수동 또는 자동으로 교정하여 설정된 기준에 적합한 자세의 안면 영상을 획득하는 안면 영상 촬영장치를 제공하는데 그 목적이 있다.SUMMARY OF THE INVENTION The present invention has been made to solve the above-mentioned problems of the prior art, and an object thereof is to provide a facial imaging apparatus for acquiring a face image of a posture suitable for a set standard by correcting a posture of a target person manually or automatically. .
상기한 과제를 해결하기 위한 본 발명의 제 1 특징에 따른 안면 영상 촬영장치는 대상 인물의 정면 영상을 실시간으로 획득하는 카메라, 상기 카메라에 의해 촬영된 영상이 저장되는 메모리, 상기 카메라에 의해 촬영된 영상이 출력되는 디스플레이부, 정면 영상 촬영시에는 상기 카메라에 의해 획득된 정면 영상을 양쪽 눈동자의 중심점의 위치정보, 양쪽 귀의 면적정보, 눈동자 중심점 위의 눈꺼풀의 위치정보 및 귀의 정점의 위치정보를 포함하는 특징점 정보를 이용하여 교정참조정보를 생성하는 영상 분석부 및 상기 교정참조정보가 설정된 기준범위를 만족하는 경우에 상기 정면 영상을 메모리에 저장하는 제어부를 포함한다.The face image photographing apparatus according to the first aspect of the present invention for solving the above problems is a camera for acquiring a front image of a target person in real time, a memory in which the image captured by the camera is stored, the image captured by the camera Display unit for outputting an image, when photographing the front image includes the position information of the center point of both eyes, the area information of both ears, the position information of the eyelid above the center point of the pupil and the position information of the apex of the ear And an image analyzer configured to generate calibration reference information using the feature point information, and a controller configured to store the front image in a memory when the calibration reference information satisfies a set reference range.
여기서, 상기 영상 분석부는 상기 정면 영상에서 양쪽 눈동자의 중심점의 좌표를 찾아 두 눈동자의 중심점을 연결하는 직선과 가상의 수평선이 이루는 각도인 제 1 교정참조정보를 계산한다.Here, the image analyzer calculates first calibration reference information that is an angle formed by a straight line connecting the center points of both eyes and an imaginary horizontal line by finding the coordinates of the center points of both eyes in the front image.
또한, 상기 영상 분석부는 상기 정면 영상에서 양쪽 귀의 면적비인 제 2 교정참조정보를 계산한다.The image analyzer calculates second calibration reference information which is an area ratio of both ears in the front image.
또한, 상기 영상 분석부는 상기 정면 영상에서 양쪽 눈동자의 중심점 위의 눈꺼풀을 연결한 직선과 양쪽 귀의 정점을 연결한 직선 간의 수직방향의 거리인 제 3 교정참조정보를 계산한다.In addition, the image analyzer calculates third calibration reference information which is a vertical distance between a straight line connecting eyelids on a center point of both eyes and a straight line connecting vertices of both ears in the front image.
상기 영상 분석부는 상기 제 1 내지 제 3 교정참조정보를 순차적으로 계산하되, 상기 제 1 내지 제 3 교정참조정보가 각각의 설정된 기준범위를 만족하는 경우에 다음 순서의 교정참조정보를 계산한다.The image analyzer sequentially calculates the first to third calibration reference information, and calculates calibration reference information in the following order when the first to third calibration reference information satisfy each set reference range.
상기 영상 분석부는 상기 제 1 내지 제 3 교정참조정보가 각각의 설정된 기준범위를 만족하는 경우 상기 디스플레이부로 녹색 표시등을 출력하고, 각각의 설정된 기준범위를 만족하지 않는 경우에는 상기 디스플레이부로 적색 표시등을 출력한 후 상기 카메라에 의해 새롭게 획득된 정면 영상에 대해 해당 교정참조정보를 다시 계산한다.The image analyzer outputs a green indicator to the display unit when the first to third calibration reference information satisfy each set reference range, and outputs a red indicator to the display unit when the first to third calibration reference information do not satisfy each set reference range. Then, the calibration reference information is recalculated for the front image newly acquired by the camera.
또한, 상기한 과제를 해결하기 위한 본 발명의 제 2 특징에 따른 안면 영상 촬영장치는 대상 인물의 정면 영상을 실시간으로 획득하는 카메라, 상기 카메라의 위치 또는 촬영각도를 변경시키는 구동모듈, 상기 카메라에 의해 촬영된 영상이 출력되는 디스플레이부, 정면 영상 촬영시에는 상기 카메라에 의해 획득된 정면 영상을 양쪽 눈동자의 중심점의 위치정보, 양쪽 귀의 면적정보, 눈동자 중심점 위의 눈꺼풀의 위치정보 및 귀의 정점의 위치정보를 포함하는 특징점 정보를 이용하여 교정참조정보를 생성하는 영상 분석부 및 상기 교정참조정보가 설정된 기준범위를 만족하지 않는 경우에는 상기 설정된 기준범위와의 오차만큼 상기 카메라의 위치 또는 촬영각도를 보정하여 재촬영하도록 상기 구동모듈 또는 카메라를 제어하고, 상 기 교정참조정보가 설정된 기준범위를 만족하는 경우에는 상기 정면 영상을 메모리에 저장하는 제어부를 포함한다.In addition, the face image photographing apparatus according to the second aspect of the present invention for solving the above problems is a camera for acquiring a front image of a target person in real time, a drive module for changing the position or angle of the camera, the camera The display unit outputs the image captured by the camera, and when the front image is photographed, the front image obtained by the camera includes the position information of the center point of both eyes, the area information of both ears, the position information of the eyelid on the center point of the pupil, and the position of the apex of the ear. The image analyzer for generating calibration reference information using the feature point information including the information and if the calibration reference information does not satisfy the set reference range, correct the position or the photographing angle of the camera by an error from the set reference range. Control the drive module or camera to retake the image, and the calibration reference information. When satisfied with the set reference range, and a controller for storing the face image in the memory.
여기서, 상기 제어부는 상기 카메라와 상기 대상 인물 사이의 거리를 반경으로 하는 가상의 구면을 따라 상기 카메라가 이동하도록 상기 구동모듈을 제어한다.Here, the controller controls the driving module to move the camera along a virtual sphere having a radius of the distance between the camera and the target person.
상기와 같이 구성되는 본 발명에 따른 안면 영상 촬영장치는 얼굴의 특징점을 이용하여 정확한 자세의 안면 영상을 획득할 수 있으며, 실시간으로 안면 영상 취득 자세를 보여 주어 촬영시 바로 자세교정이 가능하며, 2차원 영상뿐만 아니라 3차원적으로 바른 자세의 영상 획득이 가능하고, 바른 자세의 영상 정보를 통해 특징점 정보를 추출할 수 있어, 영상을 이용한 진단시 정확한 진단이 가능한 효과가 있다. 또한 2차원 영상 기반 3차원 개인 얼굴 모델 생성 및 애니메이션을 이용하여 게임 및 엔터테인먼트에 사용 가능한 효과가 있어 응용 범위가 넓다.The facial imaging apparatus according to the present invention configured as described above can acquire the facial image of the correct posture by using the feature points of the face, show the facial image acquisition posture in real time, and can immediately correct the posture when shooting. In addition to the dimensional image, it is possible to acquire the image of the correct posture in three dimensions, and feature point information can be extracted through the image information of the correct posture, thereby making it possible to accurately diagnose the diagnosis using the image. In addition, it has a wide range of applications as it can be used for games and entertainment by using two-dimensional image-based three-dimensional personal face model generation and animation.
이하, 첨부된 도면을 참조하여 본 발명의 구체적인 내용 및 실시예를 설명하면 다음과 같다.Hereinafter, with reference to the accompanying drawings will be described specific details and embodiments of the present invention.
도 1은 본 발명의 제 1 실시예에 따른 안면 영상 촬영장치의 구성이 도시된 블럭도이다.1 is a block diagram showing the configuration of a facial imaging apparatus according to a first embodiment of the present invention.
도 1을 참조하면, 본 발명의 제 1 실시예에 따른 안면 영상 촬영장치는 대상 인물의 정면 영상을 실시간으로 획득하는 카메라(10), 상기 카메라에 의해 촬영된 영상이 출력되는 디스플레이부(20), 상기 카메라에 의해 획득된 영상을 분석하여 대상 인물에게 자세교정 메시지를 출력하는 영상 분석부(30) 및 최종적으로 자세교정이 이루어진 영상이 판별된 경우에는 메모리에 저장하는 제어부(40)를 포함하여 구성된다.Referring to FIG. 1, a facial image capturing apparatus according to a first exemplary embodiment of the present invention may include a
상기 카메라(10)는 대상 인물의 영상을 획득하여 전기적인 신호로 변환하여 영상 분석부(30)로 전송한다. 카메라의 종류는 제한이 없으며 일반적으로 디지털 카메라가 사용될 수 있다.The
상기 디스플레이부(20)는 상기 카메라에 의해 획득된 영상이 실시간으로 출력한다. 일반적으로 LCD 디스플레이 장치가 사용될 수 있다.The
또한, 상기 디스플레이부(20)는 상기 영상 분석부에 의해 분석된 영상에 따라 대상인물에게 자세교정이 필요한지 여부, 즉 설정된 기준에 맞는지 여부를 출력하며, 사용자의 영상에 교정이 필요한 부분이나 위치를 표시하여 사용자로 하여금 자세를 어떻게 교정할지 가이드하는 기능도 수행한다.In addition, the
이하, 도 2a 내지 2c를 이용하여 교정된 자세의 정면 영상을 획득하는 과정을 설명한다.Hereinafter, a process of obtaining a front image of a corrected posture using FIGS. 2A to 2C will be described.
상기 영상 분석부(30)는 정면 영상 촬영시에는 상기 카메라에 의해 획득된 정면 영상을 양쪽 눈동자의 중심점의 위치정보, 양쪽 귀의 면적정보, 눈동자 중심점 위의 눈꺼풀의 위치정보 및 귀의 정점의 위치정보를 포함하는 특징점 정보를 이용하여 교정참조정보를 생성한다.When the front image is taken, the
상기 영상 분석부(30)는 대상 인물의 정면 영상을 분석하여 Z축 교정, Y축 교정, X축 교정이 순자적으로 이루어지도록 상기 디스플레이부를 통해 대상인물의 영상에 자세교정에 필요한 정보를 표시하고, 대상인물에게 교정이 적합한지 여부에 관한 메시지를 출력한다.The
여기서, Z축은 카메라의 촬영방향을 가리키는 축을 말하며, Y축은 지면과 수직인 축 또는 카메라의 영상 내에서 수직인 축을 말하며, X축은 지면과 수평인 축 또는 카메라의 영상 내에서 수평인 축을 말한다. 즉, Y축 및 X축은 카메라가 지면과 수평으로 설치된 경우에는 지면을 기준으로 하지만, 카메라가 지면과 수평이 아닌 경우에는 카메라에 의해 획득된 영상에서 각각 수직인 축과 수평인 축을 의미한다.Here, the Z-axis refers to the axis indicating the shooting direction of the camera, the Y-axis refers to the axis perpendicular to the ground or the image perpendicular to the image of the camera, the X-axis refers to the axis horizontal to the ground or the axis of the image of the camera. That is, the Y-axis and the X-axis are based on the ground when the camera is installed horizontally with the ground, but when the camera is not horizontal with the ground, the Y-axis and the X-axis are the vertical and horizontal axes respectively in the image acquired by the camera.
상기 영상 분석부(30)는 상기 정면 영상을 교정하기 위해 제1 내지 제3의 교정참조정보를 계산한다.The
도 2a는 본 발명에 따라 제 1 교정참조정보를 계산하는 방법이 도시된 도이다.2A is a diagram illustrating a method of calculating first calibration reference information according to the present invention.
상기 영상 분석부(30)는 상기 정면 영상에서 양쪽 눈동자의 중심점을 좌표를 찾아 두 눈동자의 중심점을 연결하는 직선(L1)과 가상의 수평선(L2)이 이루는 각도인 제 1 교정참조정보(θ1)를 계산한다.The image analyzer 30 first coordinate reference information θ1 which is an angle formed by a straight line L1 connecting the center points of both eyes in the front image and connecting the center points of the two eyes with a virtual horizontal line L2. Calculate
또한, 상기 영상 분석부(30)는 상기 두 눈동자의 중심점을 연결하는 직선(L1)과 가상의 수평선(L2) 또는 제 1 교정참조정보를 디스플레이부(20)를 통해 출력하여 사용자가 이를 보고 교정이 용이하도록 도움을 줄 수 있다.In addition, the image analyzer 30 outputs a straight line L1 and a virtual horizontal line L2 or first calibration reference information connecting the center points of the two eyes through the
상기 영상 분석부(30)는 상기 제 1 교정참조정보(θ1)가 0인지, 즉 양쪽 눈동자가 수평을 이루는지 판단하여 양쪽 눈동자가 수평을 이루는 경우에는 설정된 기준범위(T1)를 만족한 것으로 보고, 상기 디스플레이부(20)를 통해 녹색의 표시등을 출력한다. 이 경우 기준범위(T1)는 0과 가까운 특정한 범위로 설정될 수 있다.The
만약, 상기 영상 분석부(30)는 상기 제 1 교정참조정보(θ1)가 설정된 기준범위를 만족하지 못하는 경우, 즉 각도가 0이 아닌 경우에는 상기 디스플레이부(20)를 통해 적색의 표시등을 출력한다. 이 경우, 사용자인 대상 인물은 디스플레이부를 통해 자신의 자세를 교정하여 상기 제 1 교정참조정보(θ1)가 0이 되도록 한다. 즉, 사용자는 Z축을 기준으로 머리를 좌우로 기울여 교정하는 것이다.If the first calibration reference information θ1 does not satisfy the set reference range, that is, the angle is not 0, the
상기 영상 분석부(30)는 상기 제 1 교정참조정보(θ1)가 0을 만족하는 경우에는 Y축 교정을 위해 제 2 교정참조정보를 생성하지만, 만족하지 못하는 경우에는 자세가 교정된 대상 인물로부터 새롭게 영상을 획득하여 다시 제 1 교정참조정보(θ1)를 재계산하고, 설정된 기준범위를 만족하는지 판별한다.The
도 2b는 본 발명에 따라 제 2 교정참조정보를 계산하는 방법이 도시된 도이다.2B is a diagram illustrating a method of calculating second calibration reference information according to the present invention.
도 2b를 참조하면, 먼저 상기 영상 분석부(30)는 상기 정면 영상에서 양쪽 귀의 면적비인 제 2 교정참조정보를 계산한다.Referring to FIG. 2B, first, the
상기 영상 분석부(30)는 상기 정면 영상에서 귀를 검출하여 양쪽 귀의 면적(A, B)를 계산한다. 제 2 교정참조정보인 양쪽 귀의 면적비(A/B)를 계산하여 설 정된 기준범위(T2)와 비교하게 되는데, 상기 제 2 교정참조정보가 1이 아닌 경우, 즉 양쪽 귀의 면적이 다른 경우에는 대상 인물의 자세가 비뚤어진 것을 의미하므로, 상기 제 2 교정참조정보, 즉 양쪽 귀의 면적비를 디스플레이부에 출력하여 대상 인물로 하여금 자세를 교정하게 한 후 새롭게 입수한 영상을 통해 다시 제 2 교정참조정보를 계산한다. 이 경우 양쪽 귀의 면적을 시각적으로 볼 수 있도록 디스플레이부에 표시할 수도 있다.The
이 경우, 디스플레이부(20)에 적색의 표시등을 출력하여 사용자로 하여금 자세가 틀렸다는 것을 알린다. 이 경우 사용자는 디스플레이 장치를 보면서 Y축을 기준으로 머리를 회전시켜 좌우 귀의 면적이 동일하도록 자세를 교정할 수 있다.In this case, a red indicator is output to the
상기 영상 분석부(30)는 만약, 상기 제 2 교정참조정보가 1인 경우 혹은 그와 아주 가깝게 설정된 특정의 범위 이내인 경우에는 디스플레이부(20)를 통해 녹색의 표시등을 출력하여 자세를 유지하도록 하고 X축 교정을 위해 제 3 교정참조정보를 계산한다. If the second calibration reference information is 1 or within a specific range set very close thereto, the
도 2c는 본 발명에 따라 제 3 교정참조정보를 계산하는 방법이 도시된 도이다.2C is a diagram illustrating a method of calculating third calibration reference information according to the present invention.
도 2c를 참조하면, 먼저 상기 영상 분석부(30)는 상기 정면 영상에서 양쪽 귀의 면적비인 제 2 교정참조정보를 계산한다.Referring to FIG. 2C, first, the
상기 영상 분석부(30)는 상기 정면 영상에서 양쪽 눈동자의 중심점 위의 눈꺼풀을 연결한 직선(L3)과 양쪽 귀의 정점을 연결한 직선(L4) 간의 수직방향의 거 리인 제 3 교정참조정보(D1)를 계산하여 설정된 기준범위(T3)와 비교하게 되는데, 상기 제 3 교정참조정보가 0이 아닌 경우, 즉 눈동자 위의 눈꺼풀의 높이와 귀의 정점의 높이가 일치하지 않는 경우에는 대상 인물의 자세가 비뚤어진 것을 의미하므로, 상기 두 직선(L3, L4) 또는 두 직선간의 거리(D1)를 디스플레이부에 출력하여 대상 인물로 하여금 자세를 교정하게 한 후 새롭게 입수한 영상을 통해 다시 제 3 교정참조정보를 계산한다.In the front image, the
이 경우, 디스플레이부(20)에 적색의 표시등을 출력하여 사용자로 하여금 자세가 틀렸다는 것을 알린다. 이 경우 사용자는 디스플레이 장치를 보면서 X축을 기준으로 고개를 숙이거나 고개를 들어 눈동자 위의 눈꺼풀의 높이와 귀의 정점의 높이가 일치하도록 자세를 교정할 수 있다.In this case, a red indicator is output to the
상기 영상 분석부(30)는 만약, 상기 제 3 교정참조정보가 0인 경우 혹은 그와 아주 가깝게 설정된 특정의 범위 이내인 경우에는 디스플레이부(20)를 통해 녹색의 표시등을 출력하여 자세를 유지하도록 한다.If the third calibration reference information is 0 or within a specific range set very close thereto, the
상기 제어부(40)는 제 1 내지 제 3 교정참조정보가 각각의 설정된 기준(T1, T2, T3)를 순차적으로 모두 만족하는 경우에는 상기 대상 인물의 정면 영상을 최종적으로 메모리에 저장한다.The
도 3은 본 발명의 제 2 실시예에 따른 안면 영상 촬영장치의 구성이 도시된 블럭도이다.3 is a block diagram showing the configuration of a facial imaging apparatus according to a second embodiment of the present invention.
본 발명의 제 2 실시예에 따른 안면 영상 촬영장치는 대상 인물의 정면 영상 을 실시간으로 획득하는 카메라(10), 상기 카메라에 의해 촬영된 영상이 출력되는 디스플레이부(20), 상기 카메라의 위치 또는 촬영각도를 변경시키는구동모듈(60), 상기 카메라에 의해 획득된 영상을 분석하여 교정참조정보를 계산하는 영상 분석부(30) 및 상기 교정참조정보에 따라 상기 카메라 또는 구동모듈의 동작을 제어하는 제어부(40)를 포함하여 구성된다.In the face image photographing apparatus according to the second embodiment of the present invention, a
본 발명의 제 1 실시예에서는 영상 분석부(30)가 획득된 영상을 분석하여 디스플레이부(20)를 통해 메시지를 출력하여 대상 인물로 하여금 자세를 교정하도록 하였으나, 본 발명의 제 2 실시예에서는 카메라(10)에 설치된 구동모듈(60)을 통해 상기 영상 분석부(30)에서 계산한 교정참조정보를 고려하여 제어부(40)가 카메라 또는 구동모듈을 구동시켜 촬영각도나 위치를 조정하도록 구성된다.In the first exemplary embodiment of the present invention, the
상기 구동모듈(60)은 하나 이상의 구동모터를 포함하는데, 제어부(40)에 의해 제어되며 카메라의 촬영각도나 카메라의 위치등을 조정한다. The
상기 영상 분석부(30)는 앞서 상기 제 1 실시예와 동일한 방식으로 제 1 내지 제 6 교정참조정보를 생성하며, 제어부(40)는 상기 제 1 내지 제 6 교정참조정보가 설정된 기준범위를 만족하지 않는 경우에는 상기 설정된 기준범위와의 오차만큼 상기 카메라의 위치 또는 촬영각도를 보정한다.The
상기 제어부(40)는 상기 카메라와 상기 대상 인물 사이의 거리를 반경으로 하는 가상의 구면을 따라 상기 카메라가 이동하도록 상기 구동모듈을 제어한다. 따라서, 카메라가 상기와 같이 가상의 구면을 따라 이동할 수 있도록 카메라의 동작을 가이드하는 지지대 등이 상기 카메라에 설치될 수 있다.The
상기 카메라가 가상의 구면을 따라 움직이면서 촬영이 이루어져야, 상기 제 1 실시예에서 대상 인물이 자세를 교정하는 것과 동일한 효과를 얻을 수 있다.When the camera is photographed while moving along a virtual spherical surface, the same effect as that of the subject correcting the posture may be obtained in the first embodiment.
이하, 도 4a 내지 도 4c를 참조하여 본 발명의 제 2 실시예에 따른 안면 영상 촬영장치의 동작을 설명한다.Hereinafter, an operation of the facial imaging apparatus according to the second exemplary embodiment of the present invention will be described with reference to FIGS. 4A to 4C.
도 4a 내지 도 4c는 본 발명의 제 2 실시예에 따라 정면 영상의 경우 카메라의 동작을 도시한 것이다.4A to 4C illustrate the operation of the camera in the case of the front image according to the second embodiment of the present invention.
도 4a의 경우 정면 영상에서 Z축을 기준으로 교정이 이루어지는 모습이 도시된 도이다.4A illustrates a state in which calibration is performed based on the Z axis in the front image.
도 4a를 참조하면, 상기 제어부(40)는 상기 제 1 교정참조정보가 0°가 아닌 경우에는 상기 제 1 교정참조정보가 0°가 되도록 상기 카메라(10)의 촬영방향은 상기 대상인물(1)을 향하도록 고정한 채 상기 카메라를 촬영방향 축(Z축)을 기준으로 회전시킨다. 즉, 정면 영상에서 대상 인물의 두 눈동자의 중심을 연결하는 직선이 카메라의 영상 내에서 수평이 되도록 카메라의 촬영각도를 조절하는 것이다. 카메라의 움직임은 구동모듈(60)에 의해 수행된다.Referring to FIG. 4A, when the first calibration reference information is not 0 °, the
도 4b의 경우 정면 영상에서 Y축을 기준으로 교정이 이루어지는 모습이 도시된 도이다.In the case of Figure 4b is a view showing the correction is made based on the Y axis in the front image.
도 4b를 참조하면, 상기 제어부(40)는 상기 제 2 교정참조정보가 1이 아닌 경우에는 상기 제 2 교정참조정보가 1이 되도록 상기 카메라의 촬영방향은 상기 대 상인물을 향하도록 고정한 채 상기 카메라를 좌우로 이동시킨다. 즉, 정면 영상에서 양쪽 귀의 면적이 동일하게 보이는 위치로 카메라(10)를 이동시키는 것이다. 마찬가지로 카메라의 움직임은 구동모듈(60)에 의해 수행된다. 이때 카메라는 직선으로 움직이는 것이 아니라, 대상 인물을 중심으로 반원의 곡률을 이루며 움직인다.Referring to FIG. 4B, when the second calibration reference information is not 1, the
도 4c의 경우 정면 영상에서 X축을 기준으로 교정이 이루어지는 모습이 도시된 도이다.In the case of Figure 4c is a view showing the correction is made based on the X-axis in the front image.
도 4c를 참조하면, 상기 제어부는 상기 제 3 교정참조정보가 0이 아닌 경우에는 상기 제 3 교정참조정보가 0이 되도록 상기 카메라(10)의 촬영방향은 상기 대상인물을 향하도록 고정한 채 상기 카메라를 상하로 이동시킨다. 즉, 눈동자 중심 바로 위의 눈꺼풀의 높이와 귀의 정점의 높이가 같아지는 위치로 카메라(10)를 이동시키는 것이다. 마찬가지로 카메라의 움직임은 구동모듈(60)에 의해 수행되며, 이때 카메라는 직선으로 움직이는 것이 아니라, 대상 인물을 중심으로 반원의 곡률을 이루며 움직인다.Referring to FIG. 4C, when the third calibration reference information is not 0, the control unit fixes the photographing direction of the
상기 영상 분석부(30)는 상기 제 1 내지 제 3 교정참조정보를 순차적으로 계산하되, 상기 제 1 내지 제 3 교정참조정보가 각각의 설정된 기준범위를 만족하는 경우에 다음 순서의 교정참조정보를 계산한다. 제어부(40)는 최종적으로 제 1 내지 제 3 교정참조정보를 만족하는 정면 영상을 메모리에 저장한다.The
상기 영상 분석부(30)는 상기 제 1 내지 제 3 교정참조정보가 각각의 설정된 기준범위를 만족하는 경우 상기 디스플레이부로 녹색 표시등을 출력하고, 각각의 설정된 기준범위를 만족하지 않는 경우에는 상기 디스플레이부로 적색 표시등을 출력한 후 상기 카메라에 의해 새롭게 획득된 정면 영상에 대해 해당 교정참조정보를 다시 계산한다. 이하 나머지 구성요소의 동작은 상기 제 1 실시예와 실질적으로 동일하므로 설명을 생략한다.The
도 5는 본 발명에 따른 안면 영상 촬영장치가 교정된 자세의 정면 영상을 획득하는 방법이 도시된 순서도이다.5 is a flowchart illustrating a method of acquiring a front image of a corrected posture by a facial imaging apparatus according to the present invention.
각 단계에서 구체적인 과정은 앞서 설명한 제 1 실시예 및 제 2 실시예에 포함되어 있는 내용과 동일하므로 있으므로, 상세한 설명은 생략한다.Since the detailed process in each step is the same as the contents included in the above-described first and second embodiments, a detailed description thereof will be omitted.
도 5를 참조하면, 본 발명에 따른 안면 영상 촬영방법은 먼저 카메라를 이용하여 정면 영상을 일차적으로 획득한다(S10). Referring to FIG. 5, in the facial image capturing method according to the present invention, a front image is first obtained using a camera (S10).
다음으로, 제 1 교정참조정보를 생성하여 설정된 기준범위와 맞는지 검토하여 설정된 기준범위를 만족하는 경우에는 제 2 교정참조정보를 생성하되, 맞지 않는 경우에는 사용자로 하여금 Z축을 기준으로 자세를 교정하도록 하거나, 카메라를 움직여 Z축 방향의 교정을 한 후 영상을 재촬영하고, 재촬영된 영상을 기준으로 제 1 교정참조정보를 새로 생성하여 설정된 기준범위와 맞는지 비교하며 만족할때까지 반복한다(S20).Next, the first calibration reference information is generated to examine whether it meets the set reference range, and if it satisfies the set reference range, the second calibration reference information is generated. Or, recalibrate the image after calibrating in the Z-axis direction by moving the camera, and generate new first calibration reference information based on the re-photographed image, compare with the set reference range, and repeat until satisfied (S20). .
마찬가지로 제 2 교정참조정보를 이용하여 Y축 회전 교정을 수행하며(S30), 제 3 교정참조정보를 이용하여 X축 회전 교정을 수행한다(S40). Similarly, Y-axis rotation calibration is performed using the second calibration reference information (S30), and X-axis rotation calibration is performed using the third calibration reference information (S40).
상기 제 1 내지 제 3 교정참조정보가 각각의 설정된 기준범위를 모두 만족하는 정면 영상을 메모리에 저장한다(S50).The first to third calibration reference information stores the front image satisfying each set reference range in a memory (S50).
이상과 같이 본 발명에 의한 안면 영상 촬영장치를 예시된 도면을 참조로 설명하였으나, 본 명세서에 개시된 실시예와 도면에 의해 본 발명은 한정되지 않고, 기술사상이 보호되는 범위 이내에서 응용될 수 있다. As described above, the apparatus for photographing a facial image according to the present invention has been described with reference to the illustrated drawings, but the present invention is not limited by the embodiments and drawings disclosed herein, and may be applied within a range in which technical thoughts are protected. .
도 1은 본 발명의 제 1 실시예에 따른 안면 영상 촬영장치의 구성이 도시된 블럭도,1 is a block diagram showing the configuration of a facial imaging apparatus according to a first embodiment of the present invention;
도 2a 내지 2c는 본 발명에 따라 제 1 내지 제 3 교정참조정보를 계산하는 방법이 도시된 도,2A to 2C are diagrams illustrating a method for calculating first to third calibration reference information according to the present invention;
도 3은 본 발명의 제 2 실시예에 따른 안면 영상 촬영장치의 구성이 도시된 블럭도,3 is a block diagram showing the configuration of a facial imaging apparatus according to a second embodiment of the present invention;
도 4a 내지 도 4c는 본 발명의 제 2 실시예에 따라 정면 영상의 경우 카메라의 동작이 도시된 도,4A to 4C are diagrams illustrating operations of a camera in the case of a front image according to the second embodiment of the present invention.
도 5는 본 발명에 따른 안면 영상 촬영장치가 교정된 자세의 정면 영상을 획득하는 방법이 도시된 순서도이다.5 is a flowchart illustrating a method of acquiring a front image of a corrected posture by a facial imaging apparatus according to the present invention.
<도면의 주요 부분에 관한 부호의 설명><Explanation of symbols on main parts of the drawings>
10: 카메라10: camera
20: 디스플레이부20: display unit
30: 영상 분석부30: image analysis unit
40: 제어부40: control unit
50: 메모리50: memory
60: 구동모듈60: drive module
Claims (16)
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020080116691A KR100982171B1 (en) | 2008-11-24 | 2008-11-24 | Facial imaging equipment |
PCT/KR2009/006676 WO2010058927A2 (en) | 2008-11-24 | 2009-11-13 | Device for photographing face |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020080116691A KR100982171B1 (en) | 2008-11-24 | 2008-11-24 | Facial imaging equipment |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20100058031A KR20100058031A (en) | 2010-06-03 |
KR100982171B1 true KR100982171B1 (en) | 2010-09-15 |
Family
ID=42198635
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020080116691A KR100982171B1 (en) | 2008-11-24 | 2008-11-24 | Facial imaging equipment |
Country Status (2)
Country | Link |
---|---|
KR (1) | KR100982171B1 (en) |
WO (1) | WO2010058927A2 (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101381134B1 (en) | 2013-01-03 | 2014-04-04 | 계명대학교 산학협력단 | Vestibular rehabilitation training system and rehabilitation training method using motion games |
WO2017039220A1 (en) * | 2015-08-31 | 2017-03-09 | 오스템임플란트 주식회사 | Image processing method for orthodontic plan, device and recording medium therefor |
KR20210000782A (en) * | 2019-06-25 | 2021-01-07 | 고려대학교 산학협력단 | Rehabilitation apparatus for improving vestibulo-ocular reflex based on virtual reality games and multiple bio-signal sensors |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101331055B1 (en) * | 2010-08-18 | 2013-11-26 | 한국전자통신연구원 | Visual aid system based on the analysis of visual attention and visual aiding method for using the analysis of visual attention |
KR101660596B1 (en) * | 2014-12-05 | 2016-09-27 | 한국 한의학 연구원 | Method for modifying gradient of facial shape, and system for the same |
KR102203618B1 (en) * | 2018-09-27 | 2021-01-15 | 오스템임플란트 주식회사 | Method and Apparatus for generating x-ray image, computer-readable recording medium |
WO2020130691A1 (en) * | 2018-12-21 | 2020-06-25 | Samsung Electronics Co., Ltd. | Electronic device and method for providing information thereof |
CN112932407B (en) * | 2021-01-29 | 2022-11-15 | 上海市内分泌代谢病研究所 | Face front calibration method and system |
CN117968766B (en) * | 2024-02-02 | 2024-07-26 | 北京中讯四方科技股份有限公司 | Product quality analysis system for detecting microwave component |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100783482B1 (en) * | 2006-11-06 | 2007-12-07 | 현대정보기술주식회사 | Digital imaging system, method, and recording medium capable of photographing passport |
JP2008227906A (en) * | 2007-03-13 | 2008-09-25 | Aisin Seiki Co Ltd | Shooting range adjusting device, shooting range adjusting method, and computer program |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100587430B1 (en) * | 2004-09-23 | 2006-06-09 | 전자부품연구원 | System and method for shooting by correcting face pose |
-
2008
- 2008-11-24 KR KR1020080116691A patent/KR100982171B1/en not_active IP Right Cessation
-
2009
- 2009-11-13 WO PCT/KR2009/006676 patent/WO2010058927A2/en active Application Filing
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100783482B1 (en) * | 2006-11-06 | 2007-12-07 | 현대정보기술주식회사 | Digital imaging system, method, and recording medium capable of photographing passport |
JP2008227906A (en) * | 2007-03-13 | 2008-09-25 | Aisin Seiki Co Ltd | Shooting range adjusting device, shooting range adjusting method, and computer program |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101381134B1 (en) | 2013-01-03 | 2014-04-04 | 계명대학교 산학협력단 | Vestibular rehabilitation training system and rehabilitation training method using motion games |
WO2017039220A1 (en) * | 2015-08-31 | 2017-03-09 | 오스템임플란트 주식회사 | Image processing method for orthodontic plan, device and recording medium therefor |
US10874484B2 (en) | 2015-08-31 | 2020-12-29 | Osstemimplant Co., Ltd. | Image processing method for orthodontic plan, device and recording medium therefor |
KR20210000782A (en) * | 2019-06-25 | 2021-01-07 | 고려대학교 산학협력단 | Rehabilitation apparatus for improving vestibulo-ocular reflex based on virtual reality games and multiple bio-signal sensors |
KR102255342B1 (en) | 2019-06-25 | 2021-05-26 | 고려대학교 산학협력단 | Rehabilitation apparatus for improving vestibulo-ocular reflex based on virtual reality games and multiple bio-signal sensors |
Also Published As
Publication number | Publication date |
---|---|
WO2010058927A3 (en) | 2010-08-12 |
WO2010058927A2 (en) | 2010-05-27 |
KR20100058031A (en) | 2010-06-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR100982171B1 (en) | Facial imaging equipment | |
US11928838B2 (en) | Calibration system and method to align a 3D virtual scene and a 3D real world for a stereoscopic head-mounted display | |
US11223820B2 (en) | Augmented reality displays with active alignment and corresponding methods | |
US10869024B2 (en) | Augmented reality displays with active alignment and corresponding methods | |
JP6353214B2 (en) | Image generating apparatus and image generating method | |
JP5858433B2 (en) | Gaze point detection method and gaze point detection device | |
KR102039281B1 (en) | Oral Endoscopy System and Test Method | |
CN113252309B (en) | Testing method, testing device and storage medium for near-eye display equipment | |
JP2010259605A (en) | Gaze measurement apparatus and gaze measurement program | |
US12064186B2 (en) | Systems and methods for simulating three-dimensional orientations of surgical hardware devices about an insertion point of an anatomy | |
CN101779460A (en) | Electronic mirror device | |
JP2016173313A (en) | Visual line direction estimation system, visual line direction estimation method and visual line direction estimation program | |
US20180070816A1 (en) | System and method for capturing spatially and temporally coherent eye gaze and hand data during performance of a manual task | |
JP6324119B2 (en) | Rotation angle calculation method, gazing point detection method, information input method, rotation angle calculation device, gazing point detection device, information input device, rotation angle calculation program, gazing point detection program, and information input program | |
JP2017194301A (en) | Face shape measuring device and method | |
CN111491159B (en) | Augmented reality display system and method | |
CN106251323A (en) | Method, device and the electronic equipment of a kind of bore hole three-dimensional tracking | |
KR100930594B1 (en) | Facial imaging device and facial feature point detection method | |
WO2021237952A1 (en) | Augmented reality display system and method | |
JP2018101211A (en) | On-vehicle device | |
TWI664576B (en) | Head mounted device and control method | |
JP2011118767A (en) | Facial expression monitoring method and facial expression monitoring apparatus | |
CN116918322A (en) | Calibration method of portable electronic equipment | |
CN114724200A (en) | Method, device and storage medium for detecting face rigid body model and fixation point | |
JP5522799B2 (en) | Gaze position estimation system and gaze position estimation program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
PA0109 | Patent application |
Patent event code: PA01091R01D Comment text: Patent Application Patent event date: 20081124 |
|
PA0201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
PE0902 | Notice of grounds for rejection |
Comment text: Notification of reason for refusal Patent event date: 20100305 Patent event code: PE09021S01D |
|
PG1501 | Laying open of application | ||
E701 | Decision to grant or registration of patent right | ||
PE0701 | Decision of registration |
Patent event code: PE07011S01D Comment text: Decision to Grant Registration Patent event date: 20100907 |
|
GRNT | Written decision to grant | ||
PR0701 | Registration of establishment |
Comment text: Registration of Establishment Patent event date: 20100908 Patent event code: PR07011E01D |
|
PR1002 | Payment of registration fee |
Payment date: 20100909 End annual number: 3 Start annual number: 1 |
|
PG1601 | Publication of registration | ||
FPAY | Annual fee payment |
Payment date: 20130805 Year of fee payment: 4 |
|
PR1001 | Payment of annual fee |
Payment date: 20130805 Start annual number: 4 End annual number: 4 |
|
FPAY | Annual fee payment |
Payment date: 20150904 Year of fee payment: 6 |
|
PR1001 | Payment of annual fee |
Payment date: 20150904 Start annual number: 6 End annual number: 6 |
|
FPAY | Annual fee payment |
Payment date: 20160829 Year of fee payment: 7 |
|
PR1001 | Payment of annual fee |
Payment date: 20160829 Start annual number: 7 End annual number: 7 |
|
FPAY | Annual fee payment |
Payment date: 20170703 Year of fee payment: 8 |
|
PR1001 | Payment of annual fee |
Payment date: 20170703 Start annual number: 8 End annual number: 8 |
|
LAPS | Lapse due to unpaid annual fee | ||
PC1903 | Unpaid annual fee |
Termination category: Default of registration fee Termination date: 20190619 |