[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

KR102460659B1 - Method and Apparatus FOR obtaining DEPTH IMAGE USING TOf(Time-of-flight) sensor - Google Patents

Method and Apparatus FOR obtaining DEPTH IMAGE USING TOf(Time-of-flight) sensor Download PDF

Info

Publication number
KR102460659B1
KR102460659B1 KR1020160019783A KR20160019783A KR102460659B1 KR 102460659 B1 KR102460659 B1 KR 102460659B1 KR 1020160019783 A KR1020160019783 A KR 1020160019783A KR 20160019783 A KR20160019783 A KR 20160019783A KR 102460659 B1 KR102460659 B1 KR 102460659B1
Authority
KR
South Korea
Prior art keywords
images
image
original
degrees
motion blur
Prior art date
Application number
KR1020160019783A
Other languages
Korean (ko)
Other versions
KR20170088259A (en
Inventor
원 쬬우
원 ?c우
하이타오 왕
박용화
지 쨔오
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to US15/410,127 priority Critical patent/US10516875B2/en
Publication of KR20170088259A publication Critical patent/KR20170088259A/en
Application granted granted Critical
Publication of KR102460659B1 publication Critical patent/KR102460659B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/73Deblurring; Sharpening
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/207Image signal generators using stereoscopic image cameras using a single 2D image sensor
    • H04N13/211Image signal generators using stereoscopic image cameras using a single 2D image sensor using temporal multiplexing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/271Image signal generators wherein the generated image signals comprise depth maps or disparity maps
    • H04N5/225
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/04Indexing scheme for image data processing or generation, in general involving 3D image data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10048Infrared image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20172Image enhancement details
    • G06T2207/20201Motion blur correction

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Studio Devices (AREA)
  • Image Processing (AREA)

Abstract

ToF(Time-of-Flight) 센서를 이용하여 깊이 영상을 생성하는 방법 및 장치는, 피사체의 움직임에 의한 모션 블러 영역이 보정된 복수의 영상들을 이용하여 깊이 영상을 생성할 수 있다. 이때 조사광의 초기 위상 차이를 보상한 후, 모션 블러 영역을 보정하기 때문에, 깊이 영상의 정확도가 향상될 수 있다.A method and apparatus for generating a depth image using a Time-of-Flight (ToF) sensor may generate a depth image using a plurality of images in which a motion blur region due to a movement of a subject is corrected. In this case, since the motion blur region is corrected after compensating for the initial phase difference of the irradiated light, the accuracy of the depth image may be improved.

Description

ToF 센서를 이용하여 깊이 영상을 획득하는 방법 및 장치 {Method and Apparatus FOR obtaining DEPTH IMAGE USING TOf(Time-of-flight) sensor}Method and apparatus for obtaining a depth image using a ToF sensor {Method and Apparatus FOR obtaining DEPTH IMAGE USING TOf (Time-of-flight) sensor}

개시된 실시 예들은 ToF 센서를 이용하여 깊이 영상을 획득하는 방법 및 장치에 관한 것이다.The disclosed embodiments relate to a method and apparatus for acquiring a depth image using a ToF sensor.

피사체(object)와의 거리 정보를 획득할 수 있는 3D 카메라, 모션 캡처 센서(motion sensor), 레이저 레이더(Laser Radar; LADAR) 등에 관한 연구가 최근 증가하는 추세이다. 특히, 깊이감 있는 영상을 표시할 수 있는 3D 디스플레이 장치의 발전 및 수요 증가와 함께 3D 컨텐츠의 중요성이 부각되고 있다. 이에 따라, 일반 사용자가 3D 컨텐츠를 직접 제작할 수 있는 다양한 깊이 영상 획득 장치가 연구되고 있다.Research on a 3D camera, a motion sensor, and a laser radar (LADAR) capable of acquiring distance information from an object is on the rise in recent years. In particular, the importance of 3D content is being emphasized with the development and increase in demand for 3D display devices capable of displaying images with a sense of depth. Accordingly, various depth image acquisition devices that allow general users to directly produce 3D content are being studied.

피사체의 표면들과 3차원 영상 획득 장치 사이의 거리에 관한 깊이 정보는, 두 대의 카메라를 이용한 양안 입체시(Stereo Vision) 방법이나 구조광(Structured Light)과 카메라를 이용한 삼각 측량법(Triangulation)을 이용하여 얻을 수 있다. 그러나 이러한 방법은 피사체의 거리가 멀어질수록 깊이 정보에 대한 정확도가 급격히 저하되고 피사체의 표면 상태에 의존적이어서 정밀한 깊이 정보를 얻기 어려울 수 있다.The depth information on the distance between the surfaces of the subject and the 3D image acquisition device is obtained by using the stereo vision method using two cameras or the triangulation method using structured light and a camera. can be obtained by However, in this method, it may be difficult to obtain precise depth information because the accuracy of the depth information rapidly decreases as the distance of the subject increases, and it is dependent on the surface state of the subject.

한편, 최근에 깊이 영상 획득 장치에 광시간비행법(Time-of-Flight; ToF)이 도입되었다. ToF 기술은 조명광을 피사체에 조사한 후, 피사체로부터 반사되는 광이 수광부에서 수광되기까지의 광 비행시간을 측정하는 방법이다. ToF 기술에 따르면, 발광 다이오드(LED) 또는 레이저 다이오드(LD)를 포함하는 조명 광학계를 이용하여 특정 파장의 빛(예컨대, 850nm의 근적외선)을 피사체에 투사하고, 피사체로부터 반사된 동일한 파장의 빛을 수광부에서 수광한 후, 광 셔터로 수광된 빛을 변조하는 등 깊이 정보를 추출하기 위한 일련의 처리 과정을 거치게 된다. 이러한 일련의 광 처리 과정에 따라 다양한 ToF 기술이 개발되고 있다.Meanwhile, a time-of-flight (ToF) method has been recently introduced in a depth image acquisition device. ToF technology is a method of measuring the light flight time until the light reflected from the subject is received by the light receiving unit after irradiating the illumination light to the subject. According to the ToF technology, light of a specific wavelength (for example, near infrared rays of 850 nm) is projected onto a subject using an illumination optical system including a light emitting diode (LED) or a laser diode (LD), and the light of the same wavelength reflected from the subject is emitted. After light is received by the light receiving unit, a series of processing steps are performed to extract depth information, such as modulating the light received by the optical shutter. Various ToF technologies are being developed according to this series of light processing processes.

ToF 센서를 이용하여, 피사체의 움직임에 의한 모션 블러 현상이 보정된 깊이 영상을 획득하는 방법 및 장치를 제공하는 데 있다. 본 실시예가 이루고자 하는 기술적 과제는 상기된 바와 같은 기술적 과제들로 한정되지 않으며, 이하의 실시예들로부터 또 다른 기술적 과제들이 유추될 수 있다.An object of the present invention is to provide a method and an apparatus for acquiring a depth image in which motion blur caused by movement of a subject is corrected by using a ToF sensor. The technical problems to be achieved by the present embodiment are not limited to the technical problems as described above, and other technical problems may be inferred from the following embodiments.

일 측면에 따른, ToF(Time-of-Flight) 센서를 이용하여 깊이 영상을 생성하는 방법은 위상이 다른 조사광들을 통해 획득된 복수의 원본 영상들에서 피사체의 움직임에 의해 발생된 모션 블러 영역을 감지하는 단계; 상기 원본 영상들에 대하여, 상기 피사체로부터 반사된 반사광들의 초기 위상에 따른 세기 차이를 보상하는 단계; 상기 보상에 의해 생성된 보상 영상들에서 상기 모션 블러 영역을 보정하는 단계; 및 상기 보정에 의해 생성된 보정 영상들에 기초하여 깊이 영상을 생성하는 단계;를 포함할 수 있다.According to one aspect, a method of generating a depth image using a Time-of-Flight (ToF) sensor is a method of generating a motion blur region generated by a movement of a subject in a plurality of original images obtained through irradiation lights having different phases. detecting; compensating for a difference in intensity according to initial phases of reflected lights reflected from the subject with respect to the original images; correcting the motion blur region in the compensation images generated by the compensation; and generating a depth image based on the corrected images generated by the correction.

또한, 상기 세기 차이를 보상하는 단계는, 상기 복수의 원본 영상들 중 기준 영상을 선택하는 단계; 및 상기 기준 영상에 대응되는 반사광의 세기에 관한 누적 분포 함수에 근접하도록 나머지 원본 영상들에 대응되는 반사광의 세기에 관한 누적 분포 함수를 조정하는 단계;를 포함할 수 있다.The compensating for the intensity difference may include: selecting a reference image from among the plurality of original images; and adjusting the cumulative distribution function regarding the intensity of the reflected light corresponding to the remaining original images to approximate the cumulative distribution function with respect to the intensity of the reflected light corresponding to the reference image.

또한, 상기 모션 블러 영역을 보정하는 단계는, 상기 보상 영상들에서 패치매치(PatchMatch) 기법을 이용하여 상기 모션 블러 영역을 보정할 수 있다.Also, in the step of correcting the motion blur region, the motion blur region may be corrected by using a patchMatch technique in the compensated images.

또한, 상기 위상이 다른 상기 조사광들은 상기 피사체에 순차적으로 조사되고, 상기 복수의 원본 영상들은 광 셔터를 통해 상기 반사광들을 변조하여 획득되는 것일 수 있다.Also, the irradiated lights having different phases may be sequentially irradiated to the subject, and the plurality of original images may be obtained by modulating the reflected lights through an optical shutter.

또한, 상기 조사광들의 초기 위상은 0도, 180도, 90도 및 270도이고, 상기 복수의 원본 영상들은, 상기 0도에 상응하는 제 1 원본 영상, 상기 180도에 상응하는 제 2 원본 영상, 상기 90도에 상응하는 제 3 원본 영상 및 상기 270도에 상응하는 제 4 원본 영상을 포함할 수 있다.In addition, initial phases of the irradiated lights are 0 degrees, 180 degrees, 90 degrees and 270 degrees, and the plurality of original images include a first original image corresponding to 0 degrees and a second original image corresponding to 180 degrees. , a third original image corresponding to the 90 degrees and a fourth original image corresponding to the 270 degrees.

또한, 상기 깊이 영상을 생성하는 단계는, 상기 제 1 원본 영상에 대응하는 반사광과, 제 2 보정 영상 내지 제 4 보정 영상에 대응하는 반사광들을 이용하여 획득된 위상 정보 및 변조 주파수에 기초하여, 깊이 정보를 계산하는 단계;를 포함할 수 있다.In addition, the generating of the depth image may include: based on the phase information and modulation frequency obtained by using the reflected light corresponding to the first original image and the reflected light corresponding to the second corrected image to the fourth corrected image, the depth It may include; calculating the information.

또한, 상기 모션 블러 영역을 감지하는 단계는, 상기 제 1 원본 영상 및 상기 제 2 원본 영상에 대응되는 상기 반사광들의 세기의 합을 의미하는 제 1 그룹과, 상기 제 3 원본 영상 및 상기 제 4 원본 영상에 대응되는 상기 반사광들의 세기의 합을 의미하는 제 2 그룹의 차이가 임계값 이상일 때, 상기 복수의 원본 영상들로부터 상기 모션 블러 영역을 감지할 수 있다.In addition, the detecting of the motion blur region includes: a first group indicating a sum of intensities of the reflected lights corresponding to the first original image and the second original image; and the third original image and the fourth original image. When the difference between the second group, which means the sum of the intensity of the reflected lights corresponding to the image, is equal to or greater than a threshold value, the motion blur region may be detected from the plurality of original images.

또한, 상기 모션 블러 영역을 감지하는 단계는, 상기 복수의 원본 영상들 중 두 원본 영상들을 선택하는 단계;를 포함하고, 상기 두 원본 영상들에 포함된 제 1 영역과 대응되는 상기 반사광의 세기의 차이가 상기 피사체의 움직임에 기인한 것으로 판단되는 경우, 상기 제 1 영역을 상기 모션 블러 영역으로 감지할 수 있다.In addition, the detecting of the motion blur region includes selecting two original images from among the plurality of original images, and the intensity of the reflected light corresponding to the first region included in the two original images is When it is determined that the difference is due to the movement of the subject, the first area may be detected as the motion blur area.

또한, 상기 모션 블러 영역은, 상기 모션 블러 영역은 상기 복수의 원본 영상들에서 동일한 영역으로 결정될 수 있다.Also, the motion blur region may be determined to be the same region in the plurality of original images.

다른 일측면에 따라, 컴퓨터에서 실행시키기 위한 프로그램을 기록한 기록매체는 ToF(Time-of-Flight) 센서를 이용하여 깊이 영상을 생성하는 방법을 컴퓨터에서 실행시키기 위한 프로그램으로 기록한다.According to another aspect, a recording medium recording a program to be executed in a computer records a method for generating a depth image using a Time-of-Flight (ToF) sensor as a program for executing in the computer.

또 다른 일 측면에 따라, ToF 센서를 이용하여 깊이 영상을 생성하는 장치는 위상이 다른 조사광들을 통해 획득된 복수의 원본 영상들에서 피사체의 움직임에 의해 발생된 모션 블러 영역을 감지하는, 감지부; 상기 원본 영상들에 대하여, 상기 피사체로부터 반사된 반사광들의 초기 위상 차이에 따른 상기 반사광들의 세기 차이를 보상하고, 상기 보상에 의해 생성된 복수의 보상 영상들에서 상기 모션 블러 영역을 보정하는, 보정부; 및 상기 보정에 의해 생성된 보정 영상들에 기초하여, 깊이 영상을 생성하는, 깊이 영상 처리부;를 포함할 수 있다.According to another aspect, an apparatus for generating a depth image using a ToF sensor includes a sensing unit configured to detect a motion blur region generated by a movement of a subject in a plurality of original images obtained through irradiation lights having different phases. ; Compensating unit for compensating for a difference in intensity of the reflected lights according to an initial phase difference of the reflected lights reflected from the subject with respect to the original images, and correcting the motion blur region in the plurality of compensation images generated by the compensation ; and a depth image processor configured to generate a depth image based on the corrected images generated by the correction.

또한, 상기 보정부는 상기 복수의 원본 영상들 중 기준 영상을 선택하고, 상기 기준 영상에 대응되는 반사광의 세기에 관한 누적 분포 함수에 근접하도록 나머지 원본 영상들에 대응되는 반사광의 세기에 관한 누적 분포 함수를 조정할 수 있다.In addition, the compensator selects a reference image from among the plurality of original images, and has a cumulative distribution function with respect to the intensity of reflected light corresponding to the remaining original images to approximate the cumulative distribution function for the intensity of reflected light corresponding to the reference image. can be adjusted.

또한, 상기 보정부는 상기 보상 영상들에서 패치매치(PatchMatch) 기법을 이용하여 상기 모션 블러 영역을 보정할 수 있다.Also, the compensator may correct the motion blur region in the compensation images by using a PatchMatch technique.

또한, ToF 센서를 이용하여 깊이 영상을 생성하는 장치는 상기 위상이 다른 조사광들을 생성하여 상기 피사체를 향해 순차적으로 조사하는 광원; 상기 피사체로부터 반사된 반사광들의 투과율을 변화시켜서 상기 반사광들의 파형을 변조하는 광 셔터; 및 상기 광 셔터에 의해 변조된 반사광으로 복수의 원본 영상들을 생성하는 촬상부;를 더 포함할 수 있다.In addition, an apparatus for generating a depth image using a ToF sensor may include: a light source that generates irradiated lights having different phases and sequentially irradiates them toward the subject; an optical shutter modulating a waveform of the reflected lights by changing the transmittance of the reflected lights reflected from the subject; and an imaging unit generating a plurality of original images using the reflected light modulated by the optical shutter.

또한, ToF 센서를 이용하여 깊이 영상을 생성하는 장치는 상기 광원 및 상기 광 셔터에 구동 전압들을 인가하는 구동부; 및 상기 구동부 및 상기 촬상부의 동작을 제어하는 제어부;를 더 포함할 수 있다.In addition, the apparatus for generating a depth image using the ToF sensor includes: a driver applying driving voltages to the light source and the optical shutter; and a control unit for controlling operations of the driving unit and the imaging unit.

또한, 상기 제어부는 상기 초기 위상이 각각 0도, 180도, 90도, 270도인 상기 조사광들이 순서대로 조사되도록 상기 구동부를 제어하고, 상기 복수의 원본 영상들은, 상기 0도에 상응하는 제 1 원본 영상, 상기 180도에 상응하는 제 2 원본 영상, 상기 90도에 상응하는 제 3 원본 영상 및 상기 270도에 상응하는 제 4 원본 영상을 포함할 수 있다.In addition, the controller controls the driving unit to sequentially irradiate the irradiated lights having the initial phase of 0 degrees, 180 degrees, 90 degrees, and 270 degrees, respectively, and the plurality of original images are first images corresponding to 0 degrees. It may include an original image, a second original image corresponding to the 180 degrees, a third original image corresponding to the 90 degrees, and a fourth original image corresponding to the 270 degrees.

또한, 상기 깊이 영상 처리부는 상기 제 1 원본 영상에 대응하는 반사광과, 제 2 보정 영상 내지 제 4 보정 영상에 대응하는 반사광들을 이용하여 획득된 위상 정보 및 변조 주파수에 기초하여, 깊이 정보를 계산할 수 있다.In addition, the depth image processing unit may calculate depth information based on the phase information and modulation frequency obtained by using the reflected light corresponding to the first original image and the reflected light corresponding to the second corrected image to the fourth corrected image. have.

또한, 상기 감지부는 상기 제 1 원본 영상 및 상기 제 2 원본 영상에 대응되는 상기 반사광들의 세기의 합을 의미하는 제 1 그룹과, 상기 제 3 원본 영상 및 상기 제 4 원본 영상에 대응되는 상기 반사광들의 세기의 합을 의미하는 제 2 그룹의 차이가 임계값 이상일 때, 상기 복수의 원본 영상들로부터 상기 모션 블러 영역을 감지할 수 있다.In addition, the sensing unit includes a first group indicating the sum of intensities of the reflected lights corresponding to the first original image and the second original image, and the third original image and the reflected lights corresponding to the fourth original image. When the difference between the second group, which means the sum of intensities, is equal to or greater than a threshold, the motion blur region may be detected from the plurality of original images.

또한, 상기 감지부는 상기 복수의 원본 영상들 중 두 원본 영상들을 선택하고, 상기 두 원본 영상들에 포함된 제 1 영역과 대응되는 상기 반사광의 세기의 차이가 상기 피사체의 움직임에 기인한 것으로 판단되는 경우, 상기 제 1 영역을 상기 모션 블러 영역으로 감지할 수 있다.In addition, the sensing unit selects two original images from among the plurality of original images, and it is determined that the difference in intensity of the reflected light corresponding to the first region included in the two original images is due to the movement of the subject. In this case, the first area may be detected as the motion blur area.

또한, 상기 모션 블러 영역은, 상기 복수의 원본 영상들에서 동일한 영역으로 결정될 수 있다.Also, the motion blur region may be determined to be the same region in the plurality of original images.

상기된 바에 따르면, 피사체의 움직임에 의한 모션 블러 영역이 보정된 복수의 영상을 이용하여 깊이 영상이 생성될 수 있으므로, 정확한 깊이 영상을 획득할 수 있다.As described above, since a depth image may be generated using a plurality of images in which a motion blur region due to a movement of a subject is corrected, an accurate depth image may be obtained.

도 1은 예시적인 실시예에 따른 깊이 깊이 영상 획득 장치를 대략적으로 나타낸 도면이다.
도 2는 예시적인 실시예에 따른 깊이 영상 획득 장치의 작동 방식을 설명하기 위한 도면이다.
도 3은 일 실시예에 따라 획득된 복수의 영상들을 도시한 도면이다.
도 4는 일 실시예에 따라, 모션 블러 영역을 보정하는 방법을 설명하기 위한 도면이다.
도 5는 일 실시예에 따라, 복수의 영상들에서 감지된 모션 블러 영역을 도시한 도면이다.
도 6a는 일 실시예에 따른, 기준 영상에 대응하는 CIS 출력 신호와 나머지 영상들에 대응하는 CIS 출력 신호의 세기를 비교하는 히스토그램이다.
도 6b는 일 실시예에 따른, 기준 영상에 대응하는 CIS 출력 신호와 나머지 영상들에 대응하는 CIS 출력 신호의 세기에 관한 누적 분포 함수를 나타내는 그래프이다.
도 7는 일 실시예에 따른, 모션 블러 영역을 패치매치 기법에 기초하여 보정한 영상을 도시한 도면이다.
도 8은 일 실시예에 따른, 원본 깊이 영상과 모션 블러 영역이 보정된 영상을 이용하여 획득된 깊이 영상을 나타내는 도면이다.
도 9는 일 실시예에 따른, 모션 블러 현상을 제거한 후 깊이 영상을 생성하는 알고리즘을 나타내는 도면이다.
도 10은 일 실시예에 따라, 깊이 영상 획득 장치를 나타내는 블록도이다.
도 11은 다른 일 실시예에 따라, 깊이 영상 획득 장치를 나타내는 블록도이다.
도 12는 일 실시예에 따라, ToF 센서를 이용하여 깊이 영상을 획득하는 방법을 도시한 흐름도이다.
도 13a 내지 도 13b는 일 실시예에 따라, ToF 센서를 이용하여 깊이 영상을 획득하는 방법을 구체적으로 도시한 상세 흐름도이다.
1 is a diagram schematically illustrating an apparatus for acquiring a depth image according to an exemplary embodiment.
2 is a diagram for explaining an operation method of the apparatus for acquiring a depth image according to an exemplary embodiment.
3 is a diagram illustrating a plurality of images obtained according to an exemplary embodiment.
4 is a diagram for explaining a method of correcting a motion blur region, according to an embodiment.
5 is a diagram illustrating a motion blur area detected in a plurality of images, according to an exemplary embodiment.
6A is a histogram comparing intensities of a CIS output signal corresponding to a reference image and a CIS output signal corresponding to other images, according to an exemplary embodiment.
6B is a graph illustrating a cumulative distribution function with respect to intensities of a CIS output signal corresponding to a reference image and a CIS output signal corresponding to other images, according to an exemplary embodiment.
7 is a diagram illustrating an image in which a motion blur region is corrected based on a patch match technique, according to an exemplary embodiment.
8 is a diagram illustrating a depth image obtained by using an original depth image and an image in which a motion blur region is corrected, according to an exemplary embodiment.
9 is a diagram illustrating an algorithm for generating a depth image after removing motion blur, according to an exemplary embodiment.
10 is a block diagram illustrating an apparatus for acquiring a depth image, according to an embodiment.
11 is a block diagram illustrating an apparatus for acquiring a depth image, according to another exemplary embodiment.
12 is a flowchart illustrating a method of acquiring a depth image using a ToF sensor, according to an exemplary embodiment.
13A to 13B are detailed flowcharts specifically illustrating a method of acquiring a depth image using a ToF sensor, according to an exemplary embodiment.

본 실시예들에서 사용되는 용어는 본 실시예들에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 당 기술분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 임의로 선정된 용어도 있으며, 이 경우 해당 실시예의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서, 본 실시예들에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 실시예들의 전반에 걸친 내용을 토대로 정의되어야 한다.The terms used in the present embodiments are selected as currently widely used general terms as possible while considering the functions in the present embodiments, which may vary depending on the intention or precedent of a person skilled in the art, the emergence of new technology, etc. can In addition, there are also arbitrarily selected terms in a specific case, and in this case, the meaning will be described in detail in the description of the embodiment. Therefore, the terms used in the present embodiments should be defined based on the meaning of the term and the overall contents of the present embodiments, rather than the simple name of the term.

실시예들에 대한 설명들에서, 어떤 부분이 다른 부분과 연결되어 있다고 할 때, 이는 직접적으로 연결되어 있는 경우뿐 아니라, 그 중간에 다른 구성요소를 사이에 두고 전기적으로 연결되어 있는 경우도 포함한다. 또한 어떤 부분이 어떤 구성요소를 포함한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다. 또한, 실시예들에 기재된 "...부", "...모듈"의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다.In the descriptions of the embodiments, when it is said that a part is connected to another part, this includes not only a case in which it is directly connected, but also a case in which it is electrically connected with another component interposed therebetween. . Also, when it is said that a part includes a certain component, this means that other components may be further included, rather than excluding other components, unless otherwise stated. In addition, the terms "... unit" and "... module" described in the embodiments mean a unit that processes at least one function or operation, which is implemented as hardware or software, or is a combination of hardware and software. can be implemented.

본 실시예들에서 사용되는 "구성된다" 또는 "포함한다" 등의 용어는 명세서 상에 기재된 여러 구성 요소들, 또는 여러 단계들을 반드시 모두 포함하는 것으로 해석되지 않아야 하며, 그 중 일부 구성 요소들 또는 일부 단계들은 포함되지 않을 수도 있고, 또는 추가적인 구성 요소 또는 단계들을 더 포함할 수 있는 것으로 해석되어야 한다.Terms such as “consisting of” or “comprising” used in the present embodiments should not be construed as necessarily including all of the various components or various steps described in the specification, and some components or It should be construed that some steps may not be included, or may further include additional components or steps.

또한, 본 실시예들에서 사용되는 "제 1" 또는 "제 2" 등과 같이 서수를 포함하는 용어는 다양한 대상들을 설명하는데 사용할 수 있지만, 상기 대상들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 대상을 다른 대상과 구별하는 목적으로만 사용된다.Also, terms including an ordinal number such as “first” or “second” used in the present embodiments may be used to describe various objects, but the objects should not be limited by the terms. These terms are used only for the purpose of distinguishing one object from another.

하기 실시예들에 대한 설명은 권리범위를 제한하는 것으로 해석되지 말아야 하며, 해당 기술분야의 당업자가 용이하게 유추할 수 있는 것은 실시예들의 권리범위에 속하는 것으로 해석되어야 할 것이다. 이하 첨부된 도면들을 참조하면서 오로지 예시를 위한 실시예들을 상세히 설명하기로 한다.The description of the following embodiments should not be construed as limiting the scope of rights, and what can be easily inferred by those skilled in the art should be construed as belonging to the scope of the embodiments. Hereinafter, exemplary embodiments will be described in detail with reference to the accompanying drawings.

도 1은 예시적인 실시예에 따른 깊이 영상 획득 장치를 대략적으로 나타낸 도면이다.1 is a diagram schematically illustrating an apparatus for obtaining a depth image according to an exemplary embodiment.

도 1을 참조하면, 깊이 영상 획득 장치(100)는 피사체(10)에 광을 조사하는 광원(120)과, 피사체(10)에서 반사된 반사광이 진행하는 경로에 마련되어 반사광의 투과율을 변화시킴으로써 반사광의 파형을 변조하는 광 셔터(optical shutter; 130)와, 광원(120) 및 광 셔터(130)에 구동 전압들을 인가하는 구동부(140) 및 구동부(140)를 제어하는 제어부(110)를 포함할 수 있다. 또한, 깊이 영상 획득 장치(100)는 광 셔터(130)를 통과한 반사광을 수광하여, 광원(120)으로부터 피사체(10)에 조사되는 광과 반사광 사이의 위상 차이를 추출하고, 위상 차이에 근거하여 피사체(10)의 깊이 정보를 획득하는 촬상부(160)를 포함할 수 있다.Referring to FIG. 1 , the depth image obtaining apparatus 100 includes a light source 120 irradiating light to a subject 10 and a reflected light provided in a path through which reflected light reflected from the subject 10 travels by changing the transmittance of the reflected light. an optical shutter 130 that modulates a waveform of can In addition, the depth image acquisition apparatus 100 receives the reflected light passing through the optical shutter 130 , extracts a phase difference between the light irradiated to the subject 10 from the light source 120 and the reflected light, and based on the phase difference to obtain the depth information of the subject 10 may include an imaging unit 160 .

광원(120)은 피사체(10)를 향해 광을 조사할 수 있다. 광원(120)은 800nm ~ 1000nm의 근 적외선(Near Infrared; NIR) 영역의 파장을 가지는 광을 조사할 수 있으나, 광원(120)이 조사할 수 있는 광의 종류는 이에 제한되지 않는다. 또한, 파장의 광을 조사함으로써 광원(120)에서 조사되는 광이 사람의 눈에는 보이지 않을 수 있다. 광원(120)은 발광 다이오드(Light Emitting Diode; LED) 또는 레이저 다이오드(Laser Diode; LD)로 구성될 수 있다. 광원(120)은 구동부(140)와 연결될 수 있다. The light source 120 may irradiate light toward the subject 10 . The light source 120 may irradiate light having a wavelength in a near-infrared (NIR) region of 800 nm to 1000 nm, but the type of light that the light source 120 may radiate is not limited thereto. In addition, by irradiating light of a wavelength, the light irradiated from the light source 120 may not be visible to the human eye. The light source 120 may include a light emitting diode (LED) or a laser diode (LD). The light source 120 may be connected to the driving unit 140 .

구동부(140)는 광원(120)에 구동 전압(Vd1)을 인가하여 광원(120)을 작동시킬 수 있다. 구동부(140)가 인가하는 구동 전압(Vd1)의 크기에 따라 광원(120)에서 조사되는 광의 세기와 파장이 변할 수 있다. 예를 들어, 광원(120)에 인가되는 구동 전압(Vd1)의 크기가 커지면 광원(120)으로부터 조사되는 광의 파장과 출력이 커질 수 있다. The driving unit 140 may apply the driving voltage V d1 to the light source 120 to operate the light source 120 . The intensity and wavelength of the light irradiated from the light source 120 may vary according to the magnitude of the driving voltage V d1 applied by the driving unit 140 . For example, when the magnitude of the driving voltage V d1 applied to the light source 120 increases, the wavelength and output of the light irradiated from the light source 120 may increase.

또한 광원(120)에서 조사되는 광은 소정의 모양을 가지는 펄스파일 수 있다. 예를 들어 광원(120)에서 조사되는 광은 사인파, 램프파, 사각파와 같은 파형을 가질 수 있다. 또한 광원(120)에서 조사된 광은 피사체(10)에서 반사될 수 있다. 따라서 피사체(10)와 광원(120) 사이의 거리에 따라 광원(120)에서 조사되는 광의 위상과 피사체(10)에서 반사되어 광 셔터(130)에 입사되는 광 사이에 위상의 차이가 달라질 수 있다.In addition, the light irradiated from the light source 120 may be a pulse wave having a predetermined shape. For example, the light irradiated from the light source 120 may have a waveform such as a sine wave, a ramp wave, or a square wave. In addition, the light irradiated from the light source 120 may be reflected from the subject 10 . Therefore, depending on the distance between the subject 10 and the light source 120 , the phase difference may vary between the phase of the light irradiated from the light source 120 and the light reflected from the subject 10 and incident on the optical shutter 130 . .

광 셔터(130)는 피사체(10)로부터 반사된 반사광의 투과 정도를 달리하여, 반사광의 파형을 변조할 수 있다. 이때 광 셔터(130)에 의해서 반사광이 변조되는 모양은 광 셔터(130)에 입사하는 반사광의 위상에 따라 달라질 수 있다. 즉, 피사체(10)와 광원(120) 사이의 거리에 따라 광 셔터(130)에 입사되는 반사광의 위상이 달라지고, 이로 인해 광 셔터(130)에 의해서 변조된 반사광의 파형이 달라질 수 있다. 광 셔터(130)의 투과율은 구동부(140)가 광 셔터(130)에 인가하는 구동전압(Vd2)에 따라 달라질 수 있다. The optical shutter 130 may modulate a waveform of the reflected light by varying the degree of transmission of the reflected light reflected from the subject 10 . In this case, the shape in which the reflected light is modulated by the optical shutter 130 may vary depending on the phase of the reflected light incident on the optical shutter 130 . That is, the phase of the reflected light incident on the optical shutter 130 varies according to the distance between the subject 10 and the light source 120 , and thus the waveform of the reflected light modulated by the optical shutter 130 may vary. The transmittance of the optical shutter 130 may vary depending on the driving voltage V d2 applied by the driving unit 140 to the optical shutter 130 .

촬상부(160)는 광 셔터(130)를 통과한 반사광을 수광하여 피사체(10)의 깊이 정보를 획득할 수 있다. 촬상부(160)는 촬상 소자(162)와 깊이 정보를 계산하는 계산 모듈(164)을 포함할 수 있다. 촬상 소자(162)는 광 셔터(130)에 의해 변조된 반사광을 검출할 수 있다. 만약 피사체(10)의 어느 한 점까지의 거리만을 측정하고자 하는 경우, 촬상 소자(162)는 예를 들어 포토 다이오드나 하나의 광센서로 구성될 수 있다. 그러나 피사체(10) 상의 다수의 점(P1, P2, P3, P4, P5)들까지의 거리를 동시에 측정하고자 하는 경우, 촬상 소자(162)는 다수의 포토 다이오드 또는 다수의 광센서들의 2차원 또는 1차원 어레이(array)를 가질 수도 있다. 예를 들어, 촬상 소자(162)는 2차원 어레이를 갖는 CCD(Charge Coupled Device) 이미지 센서 또는 CIS(CMOS Image Sensor) 센서일 수도 있으나, 이에 제한되지 않는다. 촬상 소자(162)는 광 셔터(130)를 통과한 반사광의 세기를 측정할 수 있다. 촬상 소자(162)에서 측정된 광의 세기는 광이 변조된 파형에 의존할 수 있다.The imaging unit 160 may acquire depth information of the subject 10 by receiving the reflected light passing through the optical shutter 130 . The imaging unit 160 may include an imaging device 162 and a calculation module 164 for calculating depth information. The imaging device 162 may detect the reflected light modulated by the optical shutter 130 . If it is desired to measure only the distance to any one point of the subject 10 , the imaging device 162 may include, for example, a photodiode or a single optical sensor. However, when it is desired to simultaneously measure the distances to a plurality of points P1, P2, P3, P4, and P5 on the subject 10, the imaging device 162 may be a two-dimensional or one-dimensional method of a plurality of photodiodes or a plurality of photosensors. It may also have a dimensional array. For example, the imaging device 162 may be a CCD (Charge Coupled Device) image sensor or a CIS (CMOS Image Sensor) sensor having a two-dimensional array, but is not limited thereto. The imaging device 162 may measure the intensity of the reflected light passing through the optical shutter 130 . The intensity of light measured by the imaging device 162 may depend on a waveform in which the light is modulated.

계산 모듈(164)은 촬상 소자(162)에서 측정된 영상 정보로부터 피사체(10)의 깊이 정보를 계산할 수 있다. 계산 모듈(164)은 촬상 소자(162)에서 측정된 반사광의 세기를 이용하여 반사광과 광원(120)에서 조사되는 광의 위상 차이를 계산할 수 있다. 또한, 계산 모듈(164)은 위상 차이를 이용하여 광원(120)과 피사체(10) 사이의 거리를 계산함으로써 피사체(10)의 깊이 정보를 획득할 수 있다.The calculation module 164 may calculate depth information of the subject 10 from image information measured by the imaging device 162 . The calculation module 164 may calculate a phase difference between the reflected light and the light emitted from the light source 120 by using the intensity of the reflected light measured by the imaging device 162 . Also, the calculation module 164 may obtain depth information of the subject 10 by calculating the distance between the light source 120 and the subject 10 using the phase difference.

제어부(110)는 광 셔터(130)의 투과율을 변화시키기 위해 구동부(140)를 제어할 수 있다. 구체적으로, 구동부(140)가 광원(120)에 인가하는 구동전압(Vd1) 및 광 셔터(130)에 인가하는 구동전압(Vd2)을 제어할 수 있다. 예를 들어, 광원(120)과 피사체(10) 사이의 거리가 먼 경우 광원(120)은 높은 출력으로 광을 조사할 수 있다. 하지만, 광원(120)과 피사체(10) 사이의 거리가 가까운 경우, 광원(120)이 낮은 출력으로 광을 조사하더라도 피사체(10)의 깊이 정보를 획득할 수 있다. 따라서, 광원(120)과 피사체(10) 사이의 거리가 가까운 경우에는 광원(120)의 광 출력량을 줄이는 것이 전력 소비 효율 면에서 좋을 수 있다. 또한, 광원(120) 광 출력량을 조절함으로써 촬상부(160)의 촬상 소자(162)에서 광의 포화상태(saturation)가 일어나는 것을 방지할 수 있다.The controller 110 may control the driving unit 140 to change the transmittance of the optical shutter 130 . Specifically, the driving unit 140 may control the driving voltage V d1 applied to the light source 120 and the driving voltage V d2 applied to the optical shutter 130 . For example, when the distance between the light source 120 and the subject 10 is long, the light source 120 may emit light with high output. However, when the distance between the light source 120 and the subject 10 is close, even if the light source 120 irradiates light with a low output, depth information of the subject 10 may be obtained. Therefore, when the distance between the light source 120 and the subject 10 is close, reducing the light output amount of the light source 120 may be good in terms of power consumption efficiency. In addition, by adjusting the light output amount of the light source 120 , it is possible to prevent light saturation from occurring in the imaging device 162 of the imaging unit 160 .

도 2는 예시적인 실시예에 따른 깊이 영상 획득 장치의 작동 방식을 설명하기 위한 도면이다.2 is a diagram for explaining an operation method of the apparatus for acquiring a depth image according to an exemplary embodiment.

도 2에서 (a) 그래프는 광원(120)에서 조사되는 광의 시간에 따른 세기(intensity) 변화를 나타낸 그래프이다. 또한, 도 2에서 (b) 그래프는 광 셔터(130)에 입사되는 반사광의 시간에 따른 세기 변화를 나타낸 그래프이다. 또한, 도 2에서 (c) 그래프는 광 셔터(130)의 투과율이 시간에 따라 변하는 정도를 나타낸 그래프이다. In FIG. 2 (a), the graph is a graph showing the change in intensity according to time of the light irradiated from the light source 120 . In addition, the graph (b) of FIG. 2 is a graph showing the change in intensity over time of the reflected light incident on the optical shutter 130 . In addition, the graph (c) of FIG. 2 is a graph showing the degree to which the transmittance of the optical shutter 130 changes with time.

도 2를 참조하면, 광원(120)은 복수의 조사광(210)을 피사체(10)에 순차적으로 투사할 수 있다. 복수의 조사광(210)은 소정의 유휴시간(Idle time)을 두고 피사체(10)에 조사될 수 있다. 또한, 복수의 조사광(210)은 각각 서로 상이한 위상을 가지고 광원(120)으로부터 조사될 수 있다. 예를 들어, 광원(120)이 N개의 조사광을 피사체(10)에 조사하는 경우, 조사광들 중 인접한 시간대에 조사되는 광의 위상차는 360도를 N등분 한 값일 수 있다. 즉, N이 4인 경우, 조사되는 광들의 위상은 0도, 90도, 180도, 270도 일 수 있으나, 이에 제한되지 않는다.Referring to FIG. 2 , the light source 120 may sequentially project a plurality of irradiation lights 210 onto the subject 10 . The plurality of irradiation lights 210 may be irradiated to the subject 10 with a predetermined idle time. In addition, the plurality of irradiation lights 210 may have different phases from each other and may be irradiated from the light source 120 . For example, when the light source 120 irradiates N irradiated lights to the subject 10 , the phase difference between irradiated lights at an adjacent time period among the irradiated lights may be a value obtained by dividing 360 degrees into N equal parts. That is, when N is 4, the phase of the irradiated lights may be 0 degrees, 90 degrees, 180 degrees, or 270 degrees, but is not limited thereto.

광원(120)이 복수의 조사광(210)을 유휴시간을 두고 피사체(10)에 투사하면, 피사체(10)에 반사된 반사광(220)들은 서로 독립적으로 광 셔터(130)를 통과하여 촬상부(160)에 입사될 수 있다. 광 셔터(130)의 투과율은 도 2의 (c)에서 나타낸 바와 같이 시간에 따라 변할 수 있다. 따라서, 반사광들(220)이 광 셔터(130)를 투과하면 반사광들(220)의 파형이 변조될 수 있다. 변조된 반사광들(220)의 파형은 반사광들(220)의 위상 및 광 셔터(130)의 시간에 따른 투과율 변화에 의존할 수 있다. 촬상부(160)는 광 셔터(130)에 의해 변조된 반사광들(220)을 이용하여 반사광들(220)과 조사광들(210) 사이의 위상 차이를 추출할 수 있다.When the light source 120 projects the plurality of irradiated lights 210 onto the subject 10 with an idle time, the reflected light 220 reflected by the subject 10 passes through the optical shutter 130 independently of each other and passes through the imaging unit. (160) may be incident. The transmittance of the optical shutter 130 may change with time as shown in FIG. 2C . Accordingly, when the reflected light 220 passes through the optical shutter 130 , the waveform of the reflected light 220 may be modulated. A waveform of the modulated reflected lights 220 may depend on a phase of the reflected lights 220 and a change in transmittance of the optical shutter 130 over time. The imaging unit 160 may extract a phase difference between the reflected lights 220 and the irradiated lights 210 using the reflected lights 220 modulated by the optical shutter 130 .

도 3은 일 실시예에 따라 획득된 복수의 영상들을 도시한 도면이다. 3 is a diagram illustrating a plurality of images obtained according to an exemplary embodiment.

전술한 바와 같이, 깊이 영상 획득 장치(100)는 위상이 다른 복수의 조사광을 조사한 후, 획득한 반사광을 통해 복수의 영상들을 순차적으로 얻어 1장의 깊이 영상을 생성할 수 있다. 이하 도면에서는 복수의 영상을 IR 영상인 것으로 가정하였으나, 다른 유형의 영상을 획득할 수 있음은 본 실시예와 관련된 기술분야에서 통상의 지식을 가진 자라면 이해할 수 있다.As described above, the depth image acquiring apparatus 100 may generate a single depth image by irradiating a plurality of irradiated lights having different phases, and then sequentially acquiring a plurality of images through the acquired reflected lights. In the following drawings, it is assumed that the plurality of images are IR images, but it can be understood by those of ordinary skill in the art related to the present embodiment that other types of images can be acquired.

도 3을 참조하면, 깊이 영상 획득 장치(100)는 초기 위상이 각각 0도, 90도, 180도, 270도인 복수의 조사광에 대응되는 4개 IR 영상들을 순차적으로 획득할 수 있다. 이때, 4개의 IR 영상들의 촬영 시점이 서로 다르면, 모션 블러(Motion Blur)가 발생할 수 있다. 예를 들어, 4개의 IR 영상들을 순차적으로 촬영하는 동안, 피사체가 이동하거나, 깊이 영상 획득 장치(100)가 서로 다른 물체를 동일한 피사체로 인식하여 촬영하는 경우가 발생한다. 이러한 모션 블러 현상은 움직이는 물체의 경계 면에서 빈번하게 발생하고, 물체가 빨리 움직이거나, 촬영을 천천히 하는 경우에도 자주 발생한다. Referring to FIG. 3 , the depth image acquisition apparatus 100 may sequentially acquire four IR images corresponding to a plurality of irradiation lights having initial phases of 0 degrees, 90 degrees, 180 degrees, and 270 degrees, respectively. In this case, when the four IR images have different shooting times, motion blur may occur. For example, while sequentially photographing four IR images, a subject moves or the depth image acquisition apparatus 100 recognizes different objects as the same subject and captures the same. Such a motion blur phenomenon frequently occurs at the boundary of a moving object, and also occurs frequently when the object moves quickly or when the image is taken slowly.

도 3을 참조하면, 촬상부(160)에서 획득된 CIS 출력 신호

Figure 112016016740414-pat00001
,
Figure 112016016740414-pat00002
,
Figure 112016016740414-pat00003
,
Figure 112016016740414-pat00004
를 통해 생성된 복수의 영상(310 내지 340)에서 피사체의 움직임에 의한 모션 블러 현상이 발생되었다. 구체적으로, 사람이 손을 흔드는 동안, 영상 310 내지 340이 촬영 되었으므로, 모션 블러 현상이 발생되었다. Referring to FIG. 3 , the CIS output signal acquired by the imaging unit 160 .
Figure 112016016740414-pat00001
,
Figure 112016016740414-pat00002
,
Figure 112016016740414-pat00003
,
Figure 112016016740414-pat00004
In the plurality of images 310 to 340 generated through , motion blur caused by the movement of the subject occurred. Specifically, since images 310 to 340 were captured while a person waved a hand, motion blur occurred.

이때 모션 블러 현상은, 통상적인 영상보다 깊이 영상에서 더 큰 영향을 끼칠 수 있다. 예를 들어, 통상적인 영상을 촬영할 때 모션 블러 현상이 발생하면, 움직이는 물체의 경계면은 인접한 다른 물체와의 평균적인 이미지, 예를 들면 평균적인 밝기 또는 색상에 기초하여 결정될 수 있다. 그러나 깊이 영상의 경우, 깊이 영상을 계산하는 과정에서 모션 블러 현상에 의해 완전히 다른 결과가 도출될 수 있다. 따라서, 깊이 영상을 생성할 때 모션 블러 영역을 제거하는 것이 매우 중요하다.In this case, the motion blur phenomenon may have a greater effect on the depth image than on a normal image. For example, when a motion blur phenomenon occurs when capturing a normal image, the boundary surface of a moving object may be determined based on an average image with other adjacent objects, for example, average brightness or color. However, in the case of a depth image, completely different results may be derived due to motion blur in the process of calculating the depth image. Therefore, it is very important to remove the motion blur region when generating a depth image.

이하, 피사체의 움직임에 의해 발생된 모션 블러 영역을 효과적으로 제거하기 위해, 4개의 영상들(예를 들어, 0도에 상응하는 제 1 영상, 180도에 상응하는 제 2 영상, 90도에 상응하는 제 3 영상 및 270도에 상응하는 제 4 영상)에서 모션 블러 영역을 감지하는 방법 및 모션 블러가 발생된 경우, 모션 블러가 발생된 영상 또는 픽셀을 보정하는 방법을 상세하게 설명한다. 한편 이하 도면에서, 복수의 영상들을 생성하기 위해 촬상부(160)에서 획득한 신호를 CIS 출력 신호로 표시하였지만, 촬상 소자(164)는 CIS로 한정되지 않는다.Hereinafter, in order to effectively remove the motion blur region generated by the movement of the subject, four images (eg, a first image corresponding to 0 degrees, a second image corresponding to 180 degrees, and a second image corresponding to 90 degrees) A method of detecting a motion blur region in the third image and the fourth image corresponding to 270 degrees) and a method of correcting an image or pixel in which motion blur is generated when motion blur is generated will be described in detail. Meanwhile, in the following drawings, a signal obtained by the imaging unit 160 to generate a plurality of images is displayed as a CIS output signal, but the imaging device 164 is not limited to CIS.

도 4는 일 실시예에 따라, 모션 블러 영역을 보정하는 방법을 설명하기 위한 도면이다.4 is a diagram for explaining a method of correcting a motion blur region, according to an embodiment.

먼저 도 4를 참조하면, 깊이 영상 획득 장치는 복수의 영상들을 획득할 수 있다. 구체적으로, 깊이 영상 장치는 0도, 90도, 180도, 270도의 초기 위상을 갖는 조사광을 피사체에 조사한 후, 획득한 반사광을 통해 4개의 영상들(410)을 순차적으로 얻을 수 있다. First, referring to FIG. 4 , the apparatus for acquiring a depth image may acquire a plurality of images. Specifically, the depth imaging apparatus may sequentially obtain four images 410 through the obtained reflected light after irradiating the subject with irradiation light having an initial phase of 0 degrees, 90 degrees, 180 degrees, and 270 degrees.

만약 4개의 영상들(410)에 모션 블러 영역이 포함되어 있으면, 깊이 영상 획득 장치는 4개의 영상들(410)에 포함된 모션 블러 영역을 감지(420)할 수 있다. If the motion blur region is included in the four images 410 , the depth image acquisition apparatus may detect 420 the motion blur region included in the four images 410 .

예를 들어, 깊이 영상 획득 장치는 아래 식을 이용하여 모션 블러 영역을 감지할 수 있다.For example, the apparatus for acquiring a depth image may detect a motion blur region using the following equation.

Figure 112016016740414-pat00005
Figure 112016016740414-pat00005

이때, B1과 B2는 각각 복수의 CIS 출력 신호를 통해 구할 수 있고, 구체적으로 수학식 2 내지 수학식 3으로 정의된다. ε는 기결정된 임계값으로, 분석을 통해 획득될 수 있다.In this case, B 1 and B 2 may be obtained through a plurality of CIS output signals, respectively, and are specifically defined by Equations 2 to 3. ε is a predetermined threshold and may be obtained through analysis.

Figure 112016016740414-pat00006
Figure 112016016740414-pat00006

수학식 2를 참조하면,

Figure 112016016740414-pat00007
는 초기 위상이 0도인 조사광에 대응하는 CIS 출력 신호를 의미하고,
Figure 112016016740414-pat00008
는 초기 위상이 180도인 조사광에 대응하는 CIS 출력 신호를 의미한다. Referring to Equation 2,
Figure 112016016740414-pat00007
denotes a CIS output signal corresponding to the irradiation light having an initial phase of 0 degrees,
Figure 112016016740414-pat00008
denotes a CIS output signal corresponding to the irradiated light having an initial phase of 180 degrees.

Figure 112016016740414-pat00009
Figure 112016016740414-pat00009

수학식 3을 참조하면,

Figure 112016016740414-pat00010
는 초기 위상이 90도인 조사광에 대응하는 CIS 출력 신호를 의미하고,
Figure 112016016740414-pat00011
는 초기 위상이 270도인 조사광에 대응하는 CIS 출력 신호를 의미한다. CIS 출력 신호의 단위는 [v]이지만, 다른 유형의 신호일 수 있음은 본 실시예와 관련된 기술분야에서 통상의 지식을 가진 자라면 이해할 수 있다.Referring to Equation 3,
Figure 112016016740414-pat00010
denotes a CIS output signal corresponding to the irradiation light having an initial phase of 90 degrees,
Figure 112016016740414-pat00011
denotes a CIS output signal corresponding to the irradiated light having an initial phase of 270 degrees. Although the unit of the CIS output signal is [v], it can be understood by those of ordinary skill in the art related to the present embodiment that it may be another type of signal.

수학식 1 내지 수학식 3을 참조하면, 영상에 포함된 어느 영역에 대응하는 CIS 출력 신호를 이용하면, 해당 영역이 모션 블러 영역인지 감지할 수 있다. 또한, 수학식 1의 ε 값에 따라 모션 블러 영역을 조정할 수 있다.Referring to Equations 1 to 3, if a CIS output signal corresponding to a region included in an image is used, it is possible to detect whether the corresponding region is a motion blur region. Also, the motion blur region may be adjusted according to the ε value of Equation 1.

한편, 깊이 영상 획득 장치는 다른 일 실시예에 따라 모션 블러 영역을 감지할 수 있다. 구체적으로, 복수의 영상들간 CIS 출력 신호의 차이는 조사광의 초기 위상 또는 모션 블러 현상에 의해 발생할 수 있다. 따라서, 복수의 영상들간 CIS 출력 신호의 차이에서 조사광의 초기 위상 차이에 따른 신호 세기의 차이를 보상하면, 모션 블러 현상에 따른 CIS 출력 신호를 판단할 수 있으므로, 모션 블러 영역을 감지할 수 있게 된다. Meanwhile, the apparatus for obtaining a depth image may detect a motion blur region according to another exemplary embodiment. Specifically, the difference in the CIS output signal between the plurality of images may be caused by an initial phase of the irradiated light or a motion blur phenomenon. Accordingly, by compensating for the difference in signal strength according to the initial phase difference of the irradiated light in the difference of the CIS output signal between the plurality of images, the CIS output signal according to the motion blur phenomenon can be determined, so that the motion blur region can be detected. .

예를 들어, 깊이 영상 획득 장치는 복수의 영상들 중, 임의로 두 영상을 선택한 후 두 영상에 대응하는 CIS 출력 신호의 세기 차이를 분석할 수 있다. 그 후 두 영상에 대응하는 CIS 출력 신호의 세기 차이가 발생하는 원인 중 조사광의 초기 위상에 따른 차이를 보상하여 모션 블러 현상에 의해 CIS 출력 신호의 세기 차이가 발생된 영역을 판단할 수 있다. 이때 조사광의 초기 위상에 따른 차이를 보상하기 위해 CIS 출력 신호의 세기에 관한 누적 분포 함수를 이용하는 방법이 있을 수 있다. 만약 조사광의 초기 위상에 따른 차이를 보상한 후, 모션 블러 영역을 감지한다면, 모션 블러 영역을 감지하는 과정은 누적 분포 함수를 분석하는 과정 이후에 수행될 수 있음은 본 실시예와 관련된 기술분야에서 통상의 지식을 가진 자라면 이해할 수 있다. For example, the apparatus for acquiring a depth image may arbitrarily select two images from among a plurality of images and then analyze a difference in intensity of a CIS output signal corresponding to the two images. After that, it is possible to determine the region where the difference in the intensity of the CIS output signal is generated due to the motion blur phenomenon by compensating for the difference according to the initial phase of the irradiated light among the causes of the difference in the intensity of the CIS output signal corresponding to the two images. In this case, there may be a method of using a cumulative distribution function with respect to the intensity of the CIS output signal to compensate for the difference according to the initial phase of the irradiated light. If the motion blur region is detected after compensating for the difference according to the initial phase of the irradiated light, the process of detecting the motion blur region can be performed after the process of analyzing the cumulative distribution function is a technical field related to the present embodiment. Anyone with ordinary knowledge can understand.

한편, CIS 출력 신호의 세기에 관한 누적 분포 함수를 이용하여 조사광의 초기 위상에 따른 차이를 보상하는 방법은 이하 도면을 참조하여 상세하게 설명한다.Meanwhile, a method of compensating for a difference according to the initial phase of the irradiated light using the cumulative distribution function regarding the intensity of the CIS output signal will be described in detail with reference to the accompanying drawings.

한편, 조사광의 초기 위상에 따른 차이를 보상한 후, 깊이 영상 획득 장치는 모션 블러 영역을 보정(440)할 수 있다. 구체적으로, 감지된 모션 블러 영역과 대응되는 기준 영상(예를 들어, 제 1 영상)의 일 영역을, 기준 영상을 제외한 나머지 영상들(예를 들어, 제 2 영상 내지 제 4 영상)에서 대응되는 영역으로 대체할 수 있다. 모션 블러 영역을 보정하면, 복수의 영상들에서 서로 다르게 촬영된 피사체가 고정된 것처럼 보정되기 때문에, 원래 복수의 영상으로 깊이 정보를 계산할 때보다 정확도가 높은 깊이 정보를 계산할 수 있게 된다.Meanwhile, after compensating for the difference according to the initial phase of the irradiation light, the apparatus for obtaining a depth image may correct the motion blur region ( 440 ). Specifically, a region of the reference image (eg, the first image) corresponding to the detected motion blur region is selected from the images (eg, the second image to the fourth image) other than the reference image. area can be replaced. When the motion blur region is corrected, since the subjects photographed differently in the plurality of images are corrected as if they are fixed, depth information with higher accuracy than when depth information is calculated from the original plurality of images can be calculated.

모션 블러 영역을 보정한 후, 깊이 영상 획득 장치는 모션 블러 영역이 보정된 복수의 보정 영상(450)과, 기준 영상을 이용하여 깊이 정보를 계산(460)할 수 있다. 깊이 정보를 계산하는 방법은 이하 도면을 참조하여 상세하게 설명한다. After correcting the motion blur region, the apparatus for obtaining a depth image may calculate depth information using the plurality of corrected images 450 in which the motion blur region is corrected and the reference image ( 460 ). A method of calculating depth information will be described in detail with reference to the drawings below.

마지막으로 깊이 영상 획득 장치는 계산된 깊이 정보를 기초로 하여, 깊이 영상을 생성(470)할 수 있다.Finally, the apparatus for obtaining a depth image may generate ( 470 ) a depth image based on the calculated depth information.

도 5는 일 실시예에 따라, 복수의 영상들에서 감지된 모션 블러 영역을 도시한 도면이다. 5 is a diagram illustrating a motion blur area detected in a plurality of images, according to an exemplary embodiment.

도 5를 참조하면, 4개의 영상들(510 내지 540)에 포함된 모션 블러 영역이 감지될 수 있다. 이때 감지되는 모션 블러 영역(550)은 복수의 영상들에서 동일한 영역일 수 있다.Referring to FIG. 5 , a motion blur region included in four images 510 to 540 may be detected. In this case, the detected motion blur region 550 may be the same region in the plurality of images.

모션 블러 영역을 감지한 후, 깊이 영상 획득 장치는 복수의 영상들을 생성하는데 기초가 된 반사광에 대하여, 초기 위상 차이에 따른 반사광들의 세기 차이를 보상할 수 있다. 이때 깊이 영상 획득 장치는 반사광의 세기에 관한 누적 분포 함수를 이용하여 초기 위상에 따른 세기 차이를 보상할 수 있다. 초기 위상에 따른 세기 차이를 보상하는 방법을 도 6a 내지 도 6b를 참조하여 상세하게 설명한다.After detecting the motion blur region, the apparatus for obtaining a depth image may compensate for a difference in intensity of the reflected light according to the initial phase difference with respect to the reflected light used as a basis for generating a plurality of images. In this case, the apparatus for obtaining a depth image may compensate for an intensity difference according to an initial phase by using a cumulative distribution function with respect to the intensity of the reflected light. A method of compensating for an intensity difference according to an initial phase will be described in detail with reference to FIGS. 6A to 6B .

도 6a는 일 실시예에 따른, 기준 영상에 대응하는 CIS 출력 신호와 나머지 영상들에 대응하는 CIS 출력 신호의 세기를 비교하는 히스토그램이다.6A is a histogram comparing intensities of a CIS output signal corresponding to a reference image and a CIS output signal corresponding to other images, according to an exemplary embodiment.

도 6a를 참조하면, 제 1 히스토그램(610) 내지 제 3 히스토그램(630)에서 기준 신호는 초기 위상이 0도인 조사광에 대응하는 CIS 출력 신호이다. 본 실시예에서는 초기 위상이 0도인 조사광에 대응하는 CIS 출력 신호가 기준 신호로 결정되었으나, 다른 CIS 출력 신호가 기준 신호로 결정될 수 있음은 본 실시예와 관련된 기술분야에서 통상의 지식을 가진 자라면 이해할 수 있다. Referring to FIG. 6A , the reference signal in the first histogram 610 to the third histogram 630 is a CIS output signal corresponding to the irradiated light having an initial phase of 0 degrees. In this embodiment, the CIS output signal corresponding to the irradiated light having an initial phase of 0 degrees is determined as the reference signal. If so, you can understand

구체적으로, 제 1 히스토그램(610)에는 초기 위상이 90도인 조사광에 대응하는 CIS 출력 신호의 세기와 기준 신호의 세기에 따른 히스토그램이 도시되었다. 제 2 히스토그램(620)에는 초기 위상이 180도인 조사광에 대응하는 CIS 출력 신호의 세기와 기준 신호의 세기에 따른 히스토그램이 도시되었다. 마지막으로, 제 3 히스토그램(630)에는 초기 위상이 270도인 조사광에 대응하는 CIS 출력 신호의 세기와 기준 신호의 세기에 따른 히스토그램이 도시되었다. Specifically, the first histogram 610 shows a histogram according to the intensity of the CIS output signal corresponding to the irradiation light having an initial phase of 90 degrees and the intensity of the reference signal. The second histogram 620 shows a histogram according to the intensity of the CIS output signal corresponding to the irradiated light having an initial phase of 180 degrees and the intensity of the reference signal. Finally, the third histogram 630 shows a histogram according to the intensity of the CIS output signal corresponding to the irradiation light having an initial phase of 270 degrees and the intensity of the reference signal.

이때 히스토그램의 X축은 CIS 출력 신호의 세기와 동일한 단위가 될 수 있고, Y축은 대응하는 CIS 출력 신호의 세기를 갖는 픽셀 수를 의미한다. 또한, CIS 출력 신호가 연속 함수이면, CIS 출력 신호를 양자화하여 히스토그램을 구할 수 있다. In this case, the X-axis of the histogram may be in the same unit as the intensity of the CIS output signal, and the Y-axis means the number of pixels having the intensity of the corresponding CIS output signal. Also, if the CIS output signal is a continuous function, a histogram can be obtained by quantizing the CIS output signal.

도 6a를 참조하면, 각 히스토그램(610 내지 630)에 도시된 각 CIS 출력 신호는 기준 신호와 다른 히스토그램을 갖는다. 각 CIS 출력 신호가 기준 신호와 다른 히스토그램을 갖는 원인 중에는 초기 위상의 차이 및 모션 블러 현상이 있을 수 있다. 따라서, 초기 위상 차이에 따른 CIS 출력 신호의 차이가 보상되면, 깊이 영상 획득 장치는 모션 블러 영역을 더 정확하게 감지할 수 있다.Referring to FIG. 6A , each CIS output signal shown in each histogram 610 to 630 has a different histogram from the reference signal. Among the causes of each CIS output signal having a different histogram from the reference signal, there may be an initial phase difference and motion blur. Accordingly, if the difference in the CIS output signal according to the initial phase difference is compensated, the depth image acquisition apparatus may more accurately detect the motion blur region.

도 6b는 일 실시예에 따른, 기준 영상에 대응하는 CIS 출력 신호와 나머지 영상들에 대응하는 CIS 출력 신호의 세기에 관한 누적 분포 함수를 나타내는 그래프이다. 6B is a graph illustrating a cumulative distribution function with respect to intensities of a CIS output signal corresponding to a reference image and a CIS output signal corresponding to other images, according to an exemplary embodiment.

구체적으로, 제 1 그래프(640) 내지 제 3 그래프(660)에서 기준 신호는 초기 위상이 0도인 조사광에 대응하는 CIS 출력 신호이다. 본 실시예에서는 초기 위상이 0도인 조사광에 대응하는 CIS 출력 신호가 기준 신호로 결정되었으나, 다른 CIS 출력 신호가 기준 신호로 결정될 수 있음은 본 실시예와 관련된 기술분야에서 통상의 지식을 가진 자라면 이해할 수 있다. 각 그래프의 X축은 CIS 출력 신호의 세기와 동일한 단위가 될 수 있고, Y축은 대응하는 CIS 출력 신호 세기의 누적 픽셀 수를 의미한다.Specifically, the reference signal in the first graph 640 to the third graph 660 is a CIS output signal corresponding to the irradiation light having an initial phase of 0 degrees. In this embodiment, the CIS output signal corresponding to the irradiated light having an initial phase of 0 degrees is determined as the reference signal. If so, you can understand The X-axis of each graph may have the same unit as the intensity of the CIS output signal, and the Y-axis means the number of accumulated pixels of the corresponding CIS output signal intensity.

구체적으로, 제 1 그래프(640)에는 초기 위상이 90도인 조사광에 대응하는 CIS 출력 신호의 세기와 기준 신호의 세기에 따른 누적 분포 함수가 도시되었다. 제 2 그래프(650)에는 초기 위상이 180도인 조사광에 대응하는 CIS 출력 신호의 세기와 기준 신호의 세기에 따른 누적 분포 함수가 도시되었다. 마지막으로, 제 3 그래프(660)에는 초기 위상이 270도인 조사광에 대응하는 CIS 출력 신호의 세기와 기준 신호의 세기에 따른 누적 분포 함수가 도시되었다.In detail, the first graph 640 shows the cumulative distribution function according to the intensity of the CIS output signal corresponding to the irradiation light having an initial phase of 90 degrees and the intensity of the reference signal. The second graph 650 shows the cumulative distribution function according to the intensity of the CIS output signal corresponding to the irradiation light having an initial phase of 180 degrees and the intensity of the reference signal. Finally, the third graph 660 shows a cumulative distribution function according to the intensity of the CIS output signal corresponding to the irradiated light having an initial phase of 270 degrees and the intensity of the reference signal.

6b를 참조하면, 각 누적 분포 함수는 기준 신호에 관한 누적 분포 함수와 다른 형태이다. 만약, 기준 신호와 대응하는 누적 분포 함수와 근접하도록 각 CIS 출력 신호와 대응하는 누적 분포 함수를 조정한다면, 초기 위상 차이에 의한 CIS 출력신호의 세기 차이가 보상된 영상을 획득할 수 있다. 즉, 깊이 영상 획득 장치는 초기 위상 차이를 누적 분포 함수를 기초로 하여 보상한 후, 모션 블러 영역을 보정할 수 있다.Referring to 6b, each cumulative distribution function is different from the cumulative distribution function with respect to the reference signal. If the cumulative distribution function corresponding to each CIS output signal is adjusted to approximate the cumulative distribution function corresponding to the reference signal, an image in which the difference in intensity of the CIS output signal due to the initial phase difference is compensated may be obtained. That is, after compensating for the initial phase difference based on the cumulative distribution function, the apparatus for obtaining a depth image may correct the motion blur region.

도 7는 일 실시예에 따른, 모션 블러 영역을 패치매치 기법에 기초하여 보정한 영상을 도시한 도면이다.7 is a diagram illustrating an image in which a motion blur region is corrected based on a patch match technique, according to an exemplary embodiment.

일 실시예에 따른, 모션 블러 영역을 보정하는 방법으로는 패치매치(PatchMatch) 기법을 기초로 한 보정 방법이 있을 수 있다. 영상 편집 기술 중 하나인 패치매치 기법은, 선택된 영역을 다수의 작은 영역(패치)으로 대체하여 영상을 편집하는 기법을 의미한다. 예를 들어, 패치매치 기법을 이용한다면 영상에 포함된 소정의 피사체를 배경화면과 대체하여, 소정의 피사체가 사라진 영상으로 편집할 수 있다. 따라서, 깊이 영상 획득 장치는 패치매치 기법을 통해 기준 영상을 제외한 나머지 영상들에 포함된 모션 블러 영역을, 기준 영상에 포함된 모션 블러 영역에 대응하는 영역으로 대체하여 복수의 영상에 포함된 모션 블러 영역을 보정할 수 있다. 본 실시예에서는 패치매치 기법을 통해 모션 블러 영역을 보정하였으나, 다른 영상 편집 기술로 모션 블러 영역을 보정할 수 있음은 본 실시예와 관련된 기술분야에서 통상의 지식을 가진 자라면 이해할 수 있다.According to an embodiment, as a method of correcting the motion blur region, there may be a correction method based on a patchMatch technique. The patch-match technique, which is one of image editing techniques, refers to a technique for editing an image by replacing a selected region with a plurality of small regions (patches). For example, if the patch match technique is used, a predetermined subject included in the image may be replaced with a background screen, and an image in which the predetermined subject has disappeared may be edited. Accordingly, the depth image acquisition apparatus replaces the motion blur region included in the remaining images except for the reference image with a region corresponding to the motion blur region included in the reference image through the patch-matching technique to obtain the motion blur included in the plurality of images. area can be corrected. In the present embodiment, the motion blur region is corrected through the patch match technique, but it can be understood by those skilled in the art related to the present embodiment that the motion blur region can be corrected using other image editing techniques.

도 7을 참조하면, 깊이 영상 획득 장치는 기준 영상(710)을 기초로 하여 나머지 영상(720 내지 740)의 모션 블러 영역을 보정할 수 있다. 구체적으로, 도 5에서 모션 블러 영역으로 감지된 사람의 팔부분(550)이 기준 영상(710)에 포함된 사람의 팔 부분과 유사해지도록 보정되었다. 따라서, 도 3과 비교하면 복수의 영상(710 내지 740)에서 모션 블러 영역이 보정된 것을 알 수 있다. Referring to FIG. 7 , the apparatus for obtaining a depth image may correct motion blur regions of the remaining images 720 to 740 based on the reference image 710 . Specifically, the human arm part 550 detected as the motion blur region in FIG. 5 is corrected to be similar to the human arm part included in the reference image 710 . Accordingly, compared with FIG. 3 , it can be seen that the motion blur region is corrected in the plurality of images 710 to 740 .

도 8은 일 실시예에 따른, 원본 깊이 영상과 모션 블러 영역이 보정된 영상을 이용하여 획득된 깊이 영상을 나타내는 도면이다.8 is a diagram illustrating a depth image obtained by using an original depth image and an image in which a motion blur region is corrected, according to an exemplary embodiment.

도 8을 참조하면, 모션 블러 영역을 보정하지 않은 복수의 영상들을 이용하여 생성된 깊이 영상(810)은 사람의 팔 부분의 깊이 정도가 부정확하게 표시되었다. 그러나, 일 실시예에 따라 모션 블러 영역이 보정된 보정 영상들을 이용하여 생성된 깊이 영상(820)은 사람의 팔 부분의 깊이 정도가 모션 블러 영역이 보정되지 않은 깊이 영상(810)보다 정확하게 표시된 것을 알 수 있다.Referring to FIG. 8 , in a depth image 810 generated using a plurality of images for which the motion blur region is not corrected, the depth level of the human arm is incorrectly displayed. However, according to an embodiment, the depth image 820 generated using the corrected images in which the motion blur region is corrected indicates that the depth of the human arm is more accurately displayed than the depth image 810 in which the motion blur region is not corrected. Able to know.

도 9는 일 실시예에 따른, 모션 블러 현상을 제거한 후 깊이 영상을 생성하는 알고리즘을 나타내는 도면이다.9 is a diagram illustrating an algorithm for generating a depth image after removing motion blur, according to an exemplary embodiment.

도 9에 도시된 알고리즘은 OpenCV(Open Computer Vision) 언어로 작성되었다. OpenCV(Open Computer Vision)는 오픈 소스 컴퓨터 비전 C 라이브러리로서, 실시간 이미지 프로세싱에 중점을 둔 라이브러리이다. 하지만, 본 개시의 일 실시예에 따른 모션 블러 현상을 제거한 후 깊이 영상을 생성하는 알고리즘이 다른 언어로 작성될 수 있음은 본 실시예와 관련된 기술분야에서 통상의 지식을 가진 자라면 이해할 수 있다. The algorithm shown in FIG. 9 was written in OpenCV (Open Computer Vision) language. OpenCV (Open Computer Vision) is an open source computer vision C library that focuses on real-time image processing. However, it can be understood by those of ordinary skill in the art related to the present embodiment that the algorithm for generating a depth image after removing the motion blur according to an embodiment of the present disclosure may be written in another language.

도 9를 참조하면, 일 실시예에 따른 알고리즘은, 0도, 90도, 180도, 270도의 초기 위상을 갖는 조사광을 통해 획득된 4개의 영상(Im0, Im90, Im180, Im270), 패치 크기(patchSize) 및 정규화 과정에 기초가 되는 최대 전압값(maxV) 및 최소 전압값(minV)을 입력 받아, 변환된 3개의 영상(Im90_new, Im180_new, Im270_new)과 깊이 영상(I_depth)을 출력할 수 있다.Referring to FIG. 9 , an algorithm according to an exemplary embodiment includes four images (Im0, Im90, Im180, Im270) obtained through irradiation light having an initial phase of 0 degrees, 90 degrees, 180 degrees, and 270 degrees, and a patch size. (patchSize) and the maximum voltage value (maxV) and minimum voltage value (minV), which are the basis of the normalization process, are received, and three converted images (Im90_new, Im180_new, Im270_new) and a depth image (I_depth) can be output. .

먼저, 일 실시예에 따라 개시된 알고리즘에 의하면, 입력된 4개의 영상을 이용하여 모션 블러 영역(blurMask)을 감지할 수 있다. 모션 블러 영역을 감지한 후, 기준 영상을 최대 전압값 및 최소 전압값 사이의 영상으로 정규화(normalizeImage)할 수 있다. 이후 정규화된 기준 영상에서 모션 블러 영역에 해당하는 부분의 히스토그램을 작성(imageHistgram)할 수 있다.First, according to the algorithm disclosed according to an embodiment, a motion blur region (blurMask) may be detected using four input images. After detecting the motion blur region, the reference image may be normalized to an image between the maximum voltage value and the minimum voltage value. Thereafter, a histogram of a portion corresponding to the motion blur region in the normalized reference image may be created (imageHistgram).

또한, 기준 영상에 대응하는 히스토그램을 작성한 후, 나머지 영상들에 대해서 정규화 과정 및 히스토그램을 작성하는 과정이 수행될 수 있다. 이때, 기준 영상을 제외한 나머지 복수의 영상들의 누적 분포 함수는 기준 영상에 대한 누적 분포 함수에 근접하도록 조정(performTransform)될 수 있다. 누적 분포 함수를 조정한 후, 패치매치 기법으로 모션 기준 영상을 제외한 나머지 복수의 영상들과, 기준 영상에서 모션 블러 영역과 대응되는 영역을 패치 크기를 고려하여 편집(patchMatch)함으로써 모션 블러 영역이 보정된 영상이 생성(reconstrctImage)될 수 있다.Also, after a histogram corresponding to the reference image is created, a normalization process and a process of creating a histogram for the remaining images may be performed. In this case, the cumulative distribution function of the plurality of images other than the reference image may be performed transform to approximate the cumulative distribution function of the reference image. After adjusting the cumulative distribution function, the motion blur area is corrected by patchMatching the rest of the plurality of images except the motion reference image and the area corresponding to the motion blur area in the reference image in consideration of the patch size using the patch matching technique. A reconstructed image may be created (reconstrctImage).

기준 영상을 제외한 나머지 복수의 영상들에서 모션 블러 영역이 보정된 영상을 생성하는 과정이 반복적으로 수행된 후, 모션 블러 영역이 제거된 영상(Im90_new, Im180_new, Im270_new) 및 기준 영상(Im0)을 통해 깊이 정보(I_depth)가 계산될 수 있다.After the process of generating an image in which the motion blur region is corrected from the plurality of images other than the reference image is repeatedly performed, the motion blur region is removed through the images (Im90_new, Im180_new, Im270_new) and the reference image Im0. Depth information (I_depth) may be calculated.

도 10은 일 실시예에 따라, 깊이 영상 획득 장치를 나타내는 블록도이다.10 is a block diagram illustrating an apparatus for acquiring a depth image, according to an embodiment.

깊이 영상 획득 장치(1000)는 감지부(1010), 보정부(1020) 및 깊이 영상 처리부(1030)를 포함할 수 있다. 도 10에 도시된 깊이 영상 획득 장치(1000)에는 실시예들과 관련된 구성요소들만이 도시되어 있다. 따라서, 도 10에 도시된 구성요소들 외에 다른 범용적인 구성요소들이 더 포함될 수 있음을 당해 기술분야의 통상의 기술자라면 이해할 수 있다. The depth image acquisition apparatus 1000 may include a sensing unit 1010 , a correcting unit 1020 , and a depth image processing unit 1030 . Only components related to the embodiments are shown in the apparatus 1000 for obtaining a depth image shown in FIG. 10 . Accordingly, it can be understood by those skilled in the art that other general-purpose components may be further included in addition to the components shown in FIG. 10 .

감지부(1010)는 위상이 다른 조사광들을 통해 획득된 복수의 원본 영상들에 기초하여 피사체의 움직임에 의해 발생된 모션 블러 영역을 감지할 수 있다. 이때 복수의 원본 영상들은 조사광의 초기 위상이 각각 0도에 상응하는 제 1 원본 영상, 180도에 상응하는 제 2 원본 영상, 90도에 상응하는 제 3 원본 영상 및 270도에 상응하는 제 4 원본 영상으로 정의될 수 있다.The sensing unit 1010 may detect a motion blur region generated by a movement of a subject based on a plurality of original images obtained through irradiation lights having different phases. In this case, the plurality of original images have a first original image corresponding to 0 degrees, a second original image corresponding to 180 degrees, a third original image corresponding to 90 degrees, and a fourth original image corresponding to 270 degrees, respectively, in which the initial phase of the irradiated light corresponds to 0 degrees. It can be defined as an image.

일 실시예에 따라, 감지부(1010)는 수학식 1에 기초하여 제 1 원본 영상 및 제 2 원본 영상에 대응되는 반사광들의 세기의 합을 의미하는 제 1 그룹과, 제 3 원본 영상 및 제 4 원본 영상에 대응되는 반사광들의 세기의 합을 의미하는 제 2 그룹의 차이가 기결정된 임계값 이상일 때, 복수의 원본 영상들로부터 모션 블러 영역을 감지할 수 있다.According to an embodiment, the sensing unit 1010 may include a first group indicating the sum of intensities of reflected lights corresponding to the first original image and the second original image, the third original image, and the fourth based on Equation (1). When the difference between the second group, which means the sum of intensities of reflected lights corresponding to the original image, is equal to or greater than a predetermined threshold, a motion blur region may be detected from the plurality of original images.

또 다른 일 실시예에 따르면, 감지부(1010)는 복수의 원본 영상들 중 두 원본 영상들을 선택하고, 두 원본 영상들에 포함된 제 1 영역과 대응되는 반사광의 세기의 차이가 피사체의 움직임에 기인한 것으로 판단되는 경우, 제 1 영역을 모션 블러 영역으로 감지할 수 있다.According to another exemplary embodiment, the sensing unit 1010 selects two original images from among a plurality of original images, and the difference between the intensity of reflected light corresponding to the first region included in the two original images affects the movement of the subject. If it is determined that the result is caused by the motion blur, the first area may be detected as a motion blur area.

이때 모션 블러 영역은 복수의 원본 영상들에서 동일한 영역을 의미할 수 있다.In this case, the motion blur region may mean the same region in the plurality of original images.

보정부(1020)는 원본 영상들에 대하여, 상기 피사체로부터 반사된 반사광들의 초기 위상 차이에 따른 세기 차이를 보상하고, 보상에 의해 생성된 보상 영상들에서 모션 블러 영역을 보정할 수 있다. 또한, 보정부(1020)는 복수의 원본 영상들 중 기준 영상을 선택하고, 기준 영상에 대응되는 반사광의 세기에 관한 누적 분포 함수에 근접하도록 나머지 원본 영상들에 대응되는 반사광의 세기에 관한 누적 분포 함수를 조정할 수 있다. 더불어 보정부(1020)는 세기 차이가 보상된 영상들을 생성할 수 있다. 한편, 보정부(1020)는 보상 영상들에서 패치매치(PatchMatch) 기법을 이용하여 모션 블러 영역을 보정할 수 있다.The compensator 1020 may compensate for an intensity difference according to an initial phase difference of reflected lights reflected from the subject with respect to the original images, and may correct a motion blur region in the compensated images generated by the compensation. Also, the compensator 1020 selects a reference image from among the plurality of original images, and a cumulative distribution regarding the intensity of reflected light corresponding to the remaining original images to approximate the cumulative distribution function with respect to the intensity of reflected light corresponding to the reference image. You can tweak the function. In addition, the compensator 1020 may generate images in which the intensity difference is compensated. Meanwhile, the compensator 1020 may correct the motion blur region in the compensation images by using a PatchMatch technique.

깊이 영상 처리부(1030)는 상기 보정에 의해 생성된 보정 영상들에 기초하여, 깊이 영상을 생성할 수 있다. 만약, 깊이 영상 생성 장치(1000)가 0도, 90도, 180도, 270도의 초기 위상을 갖는 조사광에 대응하는 4개의 원본 영상(제 1 원본 영상 내지 제 4 원본 영상) 및 보정 영상(제 2 보정 영상 내지 제 4 보정 영상)을 생성한 경우, 깊이 영상 처리부(1030)는 제 1 원본 영상에 대응하는 반사광과, 제 2 보정 영상 내지 제 4 보정 영상에 대응하는 반사광들을 이용하여 획득된 위상 정보 및 변조 주파수에 기초하여 깊이 정보를 계산할 수 있다. 구체적으로, 깊이 정보는 아래식을 통해 계산될 수 있다. The depth image processing unit 1030 may generate a depth image based on the corrected images generated by the correction. If the depth image generating apparatus 1000 receives four original images (first to fourth original images) and corrected images ( When generating the second corrected image to the fourth corrected image), the depth image processing unit 1030 generates a phase obtained by using reflected light corresponding to the first original image and reflected light corresponding to the second to fourth corrected image. Depth information may be calculated based on the information and the modulation frequency. Specifically, the depth information may be calculated through the following equation.

Figure 112016016740414-pat00012
Figure 112016016740414-pat00012

이때 c는 빛의 속도(3*108 m/s), f는 조사광의 주파수를 의미하고,

Figure 112016016740414-pat00013
는 초기 위상이 θ도인 CIS 출력 신호를 의미한다. 본 개시의 일 실시예에 따르면,
Figure 112016016740414-pat00014
는 모션 블러 영역을 보정하여 생성된 보정 영상에 대응하는 신호일 수 있다. In this case, c is the speed of light (3*10 8 m/s), f is the frequency of the irradiated light,
Figure 112016016740414-pat00013
denotes a CIS output signal having an initial phase of θ degrees. According to an embodiment of the present disclosure,
Figure 112016016740414-pat00014
may be a signal corresponding to a corrected image generated by correcting the motion blur region.

도 11은 다른 일 실시예에 따라, 깊이 영상 획득 장치를 나타내는 블록도이다. 개시된 일 실시예에 따르면, 깊이 영상 획득 장치(1100)는 감지부(1110), 보정부(1120), 깊이 영상 처리부(1130) 뿐 아니라, 광원(1140), 광 셔터(1150), 촬상부(1160), 구동부(1170) 및 제어부(1180)를 포함할 수 있다. 도 11에 도시된 깊이 영상 획득 장치(1100)에는 실시예들과 관련된 구성요소들만이 도시되어 있다. 따라서, 도 11에 도시된 구성요소들 외에 다른 범용적인 구성요소들이 더 포함될 수 있음을 당해 기술분야의 통상의 기술자라면 이해할 수 있다.11 is a block diagram illustrating an apparatus for acquiring a depth image, according to another exemplary embodiment. According to the disclosed embodiment, the depth image acquisition apparatus 1100 includes a detector 1110 , a corrector 1120 , and a depth image processing unit 1130 , as well as a light source 1140 , an optical shutter 1150 , and an imaging unit ( 1160 ), a driving unit 1170 , and a control unit 1180 may be included. In the depth image acquisition apparatus 1100 illustrated in FIG. 11 , only components related to the embodiments are illustrated. Accordingly, it can be understood by those skilled in the art that other general-purpose components may be further included in addition to the components shown in FIG. 11 .

감지부(1110), 보정부(1120) 및 깊이 영상 처리부(1130)는 도 10의 감지부(1010), 보정부(1020) 및 깊이 영상 처리부(1030)와 대응되므로, 구체적인 설명은 생략하기로 한다.The sensing unit 1110 , the correcting unit 1120 , and the depth image processing unit 1130 correspond to the sensing unit 1010 , the correcting unit 1020 , and the depth image processing unit 1030 of FIG. 10 , and thus a detailed description thereof will be omitted. do.

광원(1140), 광 셔터(1150), 촬상부(1160), 구동부(1170)는 도 1의 광원(120), 광 셔터(130), 촬상부(160) 및 구동부(140)와 대응되므로, 구체적인 설명은 생략하기로 한다.The light source 1140, the optical shutter 1150, the imaging unit 1160, and the driving unit 1170 correspond to the light source 120, the optical shutter 130, the imaging unit 160, and the driving unit 140 of FIG. A detailed description will be omitted.

제어부(1180)는 구동부(1170) 및 촬상부(1160)의 동작을 제어할 수 있다. 또한, 제어부(1180)는 초기 위상이 각각 0도, 180도, 90도, 270도인 조사광들이 순서대로 조사되도록 구동부(1170)를 제어할 수 있다. 이때, 복수의 원본 영상들은, 0도에 상응하는 제 1 원본 영상, 180도에 상응하는 제 2 원본 영상, 90도에 상응하는 제 3 원본 영상 및 270도에 상응하는 제 4 원본 영상일 수 있다.The controller 1180 may control the operation of the driving unit 1170 and the imaging unit 1160 . Also, the controller 1180 may control the driving unit 1170 to sequentially irradiate the irradiated lights having initial phases of 0 degrees, 180 degrees, 90 degrees, and 270 degrees, respectively. In this case, the plurality of original images may be a first original image corresponding to 0 degrees, a second original image corresponding to 180 degrees, a third original image corresponding to 90 degrees, and a fourth original image corresponding to 270 degrees. .

도 12는 일 실시예에 따라, ToF 센서를 이용하여 깊이 영상을 획득하는 방법을 도시한 흐름도이다.12 is a flowchart illustrating a method of acquiring a depth image using a ToF sensor, according to an exemplary embodiment.

단계 1210에서, 깊이 영상 획득 장치(1000)는 위상이 다른 조사광들을 통해 획득된 복수의 원본 영상들에서 피사체의 움직임에 의해 발생된 모션 블러 영역을 감지할 수 있다. 이때, 위상이 다른 조사광들은 피사체에 순차적으로 조사되고, 깊이 영상 획득 장치는 광 셔터를 통해 반사광들을 변조하여 획득한 복수의 원본 영상들을 이용할 수 있다. 이때, 조사광들의 초기 위상은 0도, 180도, 90도 및 270도이고, 복수의 원본 영상들은, 0도에 상응하는 제 1 원본 영상, 180도에 상응하는 제 2 원본 영상, 90도에 상응하는 제 3 원본 영상 및 270도에 상응하는 제 4 원본 영상을 포함할 수 있다.In operation 1210, the apparatus 1000 for obtaining a depth image may detect a motion blur region generated by a movement of a subject in a plurality of original images acquired through irradiation lights having different phases. In this case, the irradiated lights having different phases are sequentially irradiated onto the subject, and the apparatus for obtaining a depth image may use a plurality of original images obtained by modulating reflected lights through an optical shutter. In this case, the initial phases of the irradiated lights are 0 degrees, 180 degrees, 90 degrees, and 270 degrees, and the plurality of original images are at a first original image corresponding to 0 degrees, a second original image corresponding to 180 degrees, and 90 degrees. It may include a corresponding third original image and a fourth original image corresponding to 270 degrees.

일 실시예에 따라, 깊이 영상 획득 장치(1000)는 제 1 원본 영상 및 제 2 원본 영상에 대응되는 반사광들의 세기의 합을 의미하는 제 1 그룹과, 제 3 원본 영상 및 제 4 원본 영상에 대응되는 반사광들의 세기의 합을 의미하는 제 2 그룹의 차이가 기결정된 임계값 이상일 때, 복수의 원본 영상들로부터 모션 블러 영역을 감지할 수 있다.According to an embodiment, the apparatus 1000 for obtaining a depth image corresponds to a first group indicating a sum of intensities of reflected lights corresponding to the first original image and the second original image, and the third original image and the fourth original image. When the difference between the second group, which means the sum of the intensity of reflected lights, is greater than or equal to a predetermined threshold, a motion blur region may be detected from the plurality of original images.

또 다른 일 실시예에 따르면, 깊이 영상 획득 장치(1000)는 복수의 원본 영상들 중 임의의 두 원본 영상들을 선택하고, 두 원본 영상들에 포함된 제 1 영역과 대응되는 반사광의 세기의 차이가 피사체의 움직임에 기인한 것으로 판단되는 경우, 제 1 영역을 모션 블러 영역으로 감지할 수 있다.According to another exemplary embodiment, the depth image acquisition apparatus 1000 selects any two original images from among the plurality of original images, and determines the difference between the intensity of the reflected light corresponding to the first region included in the two original images. When it is determined that the movement of the subject is caused, the first area may be detected as a motion blur area.

이때 모션 블러 영역은 복수의 원본 영상들에서 동일한 영역을 의미할 수 있다.In this case, the motion blur region may mean the same region in the plurality of original images.

단계 1220에서, 깊이 영상 획득 장치(1000)는 원본 영상들에 대하여, 피사체로부터 반사된 반사광들의 초기 위상 차이에 따른 반사광들의 세기 차이를 보상할 수 있다. 예를 들어, 깊이 영상 획득 장치는 복수의 원본 영상들 중 기준 영상을 선택한 후, 기준 영상에 대한 반사광의 세기에 관한 누적 분포 함수에 근접하도록 나머지 원본 영상들에 대한 반사광의 세기에 관한 누적 분포 함수를 조정하여 반사광의 세기 차이를 보상할 수 있다.In operation 1220 , the depth image acquiring apparatus 1000 may compensate for a difference in intensity of reflected lights according to an initial phase difference between reflected lights reflected from a subject with respect to the original images. For example, after the depth image acquisition apparatus selects a reference image from among a plurality of original images, the cumulative distribution function regarding the intensity of reflected light with respect to the remaining original images is close to the cumulative distribution function with respect to the intensity of reflected light with respect to the reference image. can be adjusted to compensate for the difference in intensity of reflected light.

단계 1230에서, 깊이 영상 획득 장치(1000)는 보상에 의해 생성된 보상 영상들에서 모션 블러 영역을 보정할 수 있다. 보상 영상들에서 모션 블러 영역을 보정하기 위해, 패치매치 기법을 이용할 수 있으나, 이에 제한되지 않는다.In operation 1230, the apparatus 1000 for obtaining a depth image may correct a motion blur region in the compensation images generated by compensation. In order to correct the motion blur region in the compensation images, a patchmatch technique may be used, but is not limited thereto.

단계 1240에서, 깊이 영상 획득 장치(1000)는 모션 블러 영역의 보정에 의해 생성된 보정 영상들에 기초하여, 깊이 영상을 생성할 수 있다. 구체적으로, 깊이 영상 획득 장치(1000)는 수학식 4에 기초하여 깊이 영상을 생성할 수 있다. In operation 1240 , the depth image acquisition apparatus 1000 may generate a depth image based on corrected images generated by correction of the motion blur region. Specifically, the depth image acquisition apparatus 1000 may generate a depth image based on Equation (4).

도 13a 내지 도 13b는 일 실시예에 따라, ToF 센서를 이용하여 깊이 영상을 획득하는 방법을 구체적으로 도시한 상세 흐름도이다.13A to 13B are detailed flowcharts specifically illustrating a method of acquiring a depth image using a ToF sensor, according to an exemplary embodiment.

단계 1310에서, 광원(1140)은 초기 위상이 각각 0도, 180도, 90도 및 270도인 조사광들을 피사체에 순차적으로 조사할 수 있다. In operation 1310, the light source 1140 may sequentially irradiate the subject with irradiation lights having initial phases of 0 degrees, 180 degrees, 90 degrees, and 270 degrees, respectively.

단계 1320에서, 깊이 영상 획득 장치(1100)는 광 셔터(1150)를 이용하여 피사체에 반사된 반사광의 투과율을 변화시킴으로써 반사광의 파형을 변조할 수 있다. 또한, 촬상부(1160)는 변조된 반사광을 이용하여, 위상이 각각 0도, 180도, 90도 및 270도인 제 1 원본 영상 내지 제 4 원본 영상을 생성할 수 있다.In operation 1320 , the depth image obtaining apparatus 1100 may modulate the waveform of the reflected light by changing the transmittance of the reflected light reflected on the subject using the optical shutter 1150 . Also, the imaging unit 1160 may generate first to fourth original images having phases of 0 degrees, 180 degrees, 90 degrees, and 270 degrees, respectively, by using the modulated reflected light.

단계 1330에서 깊이 영상 획득 장치(1100)의 감지부(1110)는 모션 블러 영역을 감지하기 위해, 제 1 원본 영상 및 제 2 원본 영상에 대응하는 CIS 출력 신호의 합인 제 1 그룹(B1)과 제 3 원본 영상 및 제 4 원본 영상 에 대응하는 CIS 출력 신호의 합인 제 2 그룹(B2)을 계산할 수 있다. 구체적으로, 제 1 그룹(B1)과 제 2 그룹(B2)은 수학식 2 내지 수학식 3에 기초하여 계산될 수 있다.In step 1330 , the sensing unit 1110 of the depth image acquisition apparatus 1100 performs a first group B 1 that is a sum of CIS output signals corresponding to the first original image and the second original image to detect the motion blur region, and The second group B 2 that is the sum of the CIS output signals corresponding to the third original image and the fourth original image may be calculated. Specifically, the first group (B 1 ) and the second group (B 2 ) may be calculated based on Equations 2 to 3 .

단계 1340에서 깊이 영상 획득 장치(1100)의 감지부(1110)는 제 1 그룹과 제 2 그룹의 차이의 절대값과 기결정된 임계값을 비교할 수 있다. 만약, 임계값보다 절대값이 크면, 제 1 그룹 및 제 2 그룹에 포함된 CIS 출력 신호와 대응하는 영역이 모션 블러 영역인 것으로 판단할 수 있다. 그러나, 임계값보다 절대값이 작으면, 깊이 영상 획득 장치(1100)는 모션 블러 영역이 없는 것으로 판단할 수 있다.In operation 1340 , the detector 1110 of the apparatus 1100 for obtaining a depth image may compare the absolute value of the difference between the first group and the second group with a predetermined threshold value. If the absolute value is greater than the threshold value, it may be determined that the region corresponding to the CIS output signal included in the first group and the second group is the motion blur region. However, if the absolute value is smaller than the threshold value, the apparatus 1100 for obtaining a depth image may determine that there is no motion blur region.

단계 1350에서 깊이 영상 획득 장치(1100)의 보정부(1120)는 제 2 원본 영상 내지 제 4 원본 영상에 대응하는 CIS 출력 신호의 세기에 관한 누적 분포 함수를 제 1 영상에 대응하는 CIS 출력 신호의 세기에 관한 누적 분포 함수에 근접하도록 조정할 수 있다. 이때 깊이 영상 획득 장치(1100)의 보정부(1120)는 세기 차이를 보상된 영상들을 생성할 수 있다.In operation 1350, the correction unit 1120 of the depth image acquisition apparatus 1100 calculates the cumulative distribution function regarding the intensity of the CIS output signal corresponding to the second original image to the fourth original image of the CIS output signal corresponding to the first image. It can be adjusted to approximate the cumulative distribution function with respect to intensity. In this case, the corrector 1120 of the apparatus 1100 for obtaining a depth image may generate images in which the difference in intensity is compensated.

단계 1360에서 깊이 영상 획득 장치(1100)의 보정부(1120)는 패치매치(PatchMatch) 기법을 이용하여 보상 영상들에서 모션 블러 영역을 보정할 수 있다. 구체적으로 보정부(1120)는 기준 영상(제 1 보상 영상)의 모션 블러 영역을 기초로 하여, 나머지 보상 영상들(제 2 보상 영상 내지 제 4 보상 영상)에 포함된 모션 블러 영역을 패치매칭함으로써, 모션 블러 영역을 보정할 수 있다. 모션 블러 영역을 보정하는 방법은 패치매치 기법 이외에도 여러 영상 편집 기술이 활용될 수 있으나, 이에 제한되지 않는다.In operation 1360 , the corrector 1120 of the depth image acquisition apparatus 1100 may correct the motion blur region in the compensation images using a patchMatch technique. Specifically, the compensator 1120 patch-matches the motion blur region included in the remaining compensation images (the second compensation image to the fourth compensation image) based on the motion blur region of the reference image (the first compensation image). , the motion blur area can be corrected. As a method of correcting the motion blur region, various image editing techniques may be used in addition to the patch matching technique, but the present invention is not limited thereto.

단계 1370에서 깊이 영상 획득 장치(1100)의 보정부(1120)는 모션 블러 영역이 보정된 3개의 보정 영상들을 생성할 수 있다.In operation 1370 , the corrector 1120 of the apparatus 1100 for obtaining a depth image may generate three corrected images in which the motion blur region is corrected.

단계 1380에서 깊이 영상 획득 장치(1100)의 깊이 영상 처리부(1130)는 3개의 보정 영상과 기준 영상을 이용하여, 깊이 영상을 생성할 수 있다. 깊이 영상을 생성하는 방법은 도 12의 단계 1240과 대응되므로, 구체적인 설명은 생략하기로 한다.In operation 1380 , the depth image processing unit 1130 of the apparatus 1100 for obtaining a depth image may generate a depth image using three corrected images and a reference image. Since the method of generating the depth image corresponds to step 1240 of FIG. 12 , a detailed description thereof will be omitted.

본 실시예들은 컴퓨터에 의해 실행되는 프로그램 모듈과 같은 컴퓨터에 의해 실행 가능한 명령어를 포함하는 기록 매체의 형태로도 구현될 수 있다. 컴퓨터 판독 가능 매체는 컴퓨터에 의해 액세스될 수 있는 임의의 가용 매체일 수 있고, 휘발성 및 비휘발성 매체, 분리형 및 비분리형 매체를 모두 포함한다. 또한, 컴퓨터 판독가능 매체는 컴퓨터 저장 매체 및 통신 매체를 모두 포함할 수 있다. 컴퓨터 저장 매체는 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈 또는 기타 데이터와 같은 정보의 저장을 위한 임의의 방법 또는 기술로 구현된 휘발성 및 비휘발성, 분리형 및 비분리형 매체를 모두 포함한다. 통신 매체는 전형적으로 컴퓨터 판독가능 명령어, 데이터 구조, 또는 프로그램 모듈과 같은 변조된 데이터 신호의 기타 데이터, 또는 기타 전송 메커니즘을 포함하며, 임의의 정보 전달 매체를 포함한다. The present embodiments may also be implemented in the form of a recording medium including instructions executable by a computer, such as a program module executed by a computer. Computer-readable media can be any available media that can be accessed by a computer and includes both volatile and nonvolatile media, removable and non-removable media. In addition, computer-readable media may include both computer storage media and communication media. Computer storage media includes both volatile and nonvolatile, removable and non-removable media implemented in any method or technology for storage of information such as computer readable instructions, data structures, program modules or other data. Communication media typically includes computer readable instructions, data structures, or other data in modulated data signals, such as program modules, or other transport mechanisms, and includes any information delivery media.

본 실시예의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 포함되는 것으로 해석되어야 한다.The scope of the present embodiment is indicated by the claims to be described later rather than the above detailed description, and it should be construed as including all changes or modifications derived from the meaning and scope of the claims and their equivalents.

Claims (20)

ToF(Time-of-Flight) 센서를 이용하여 깊이 영상을 생성하는 방법에 있어서,
피사체를 향하여 복수의 위상들을 갖는 광을 순차적으로 조사하는 단계;
상기 피사체로부터 순차적으로 반사된 상기 광에 기초하여, 상기 복수의 위상들에 대응하는 복수의 원본 영상들을 생성하는 단계;
상기 복수의 원본 영상들 중 하나를 기준 영상으로 설정하고 다른 원본 영상들을 복수의 나머지 영상들로 설정하는 단계;
상기 기준 영상에 대응하는 위상과 상기 복수의 나머지 영상들에 대응하는 위상들 간의 차이에 기초하여, 상기 복수의 나머지 영상들에 대해 상기 기준 영상과 상기 복수의 나머지 영상들 간의 반사광의 세기 차이를 보상함으로써 상기 복수의 나머지 영상들에서 모션 블러 영역을 보정하는 단계; 및
상기 기준 영상과 상기 보정된 모션 블러 영역을 포함하는 상기 보상된 복수의 나머지 영상들에 기초하여 깊이 영상을 생성하는 단계;
를 포함하는 방법.
A method of generating a depth image using a Time-of-Flight (ToF) sensor, the method comprising:
sequentially irradiating light having a plurality of phases toward a subject;
generating a plurality of original images corresponding to the plurality of phases based on the light sequentially reflected from the subject;
setting one of the plurality of original images as a reference image and setting other original images as the plurality of remaining images;
Compensating for a difference in intensity of reflected light between the reference image and the plurality of remaining images with respect to the plurality of remaining images based on a difference between the phase corresponding to the reference image and phases corresponding to the plurality of remaining images correcting the motion blur region in the plurality of remaining images by doing so; and
generating a depth image based on the reference image and the plurality of compensated remaining images including the corrected motion blur region;
How to include.
제 1 항에 있어서,
상기 세기 차이를 보상하는 단계는,
상기 기준 영상에 대응되는 반사광의 세기에 관한 누적 분포 함수에 근접하도록 상기 나머지 영상들에 대응되는 반사광의 세기에 관한 누적 분포 함수를 조정하는 단계;
를 포함하는, 방법.
The method of claim 1,
Compensating for the intensity difference comprises:
adjusting the cumulative distribution function regarding the intensity of the reflected light corresponding to the remaining images to approximate the cumulative distribution function with respect to the intensity of the reflected light corresponding to the reference image;
A method comprising
제 1 항에 있어서,
상기 모션 블러 영역을 보정하는 단계는,
상기 보상 영상들에서 패치매치(PatchMatch) 기법을 이용하여 상기 모션 블러 영역을 보정하는, 방법.
The method of claim 1,
The step of correcting the motion blur region includes:
Compensating for the motion blur region using a patch match (PatchMatch) technique in the compensation images.
삭제delete 제 1 항에 있어서,
상기 조사광들의 초기 위상은 0도, 180도, 90도 및 270도이고,
상기 복수의 원본 영상들은, 상기 0도에 상응하는 제 1 원본 영상, 상기 180도에 상응하는 제 2 원본 영상, 상기 90도에 상응하는 제 3 원본 영상 및 상기 270도에 상응하는 제 4 원본 영상을 포함하는, 방법.
The method of claim 1,
The initial phases of the irradiation lights are 0 degrees, 180 degrees, 90 degrees and 270 degrees,
The plurality of original images may include a first original image corresponding to 0 degrees, a second original image corresponding to 180 degrees, a third original image corresponding to 90 degrees, and a fourth original image corresponding to 270 degrees. A method comprising
제 5 항에 있어서,
상기 깊이 영상을 생성하는 단계는,
상기 제 1 원본 영상에 대응하는 반사광과, 상기 제 2 보정 영상 내지 상기 제 4 보정 영상에 대응하는 반사광들을 이용하여 획득된 위상 정보 및 변조 주파수에 기초하여, 깊이 정보를 계산하는 단계;
를 포함하는, 방법.
6. The method of claim 5,
The step of generating the depth image comprises:
calculating depth information based on phase information and modulation frequencies obtained using the reflected light corresponding to the first original image and the reflected light corresponding to the second to fourth corrected images;
A method comprising
제 5 항에 있어서,
상기 모션 블러 영역을 감지하는 단계는,
상기 제 1 원본 영상 및 상기 제 2 원본 영상에 대응되는 상기 반사광들의 세기의 합을 의미하는 제 1 그룹과, 상기 제 3 원본 영상 및 상기 제 4 원본 영상에 대응되는 상기 반사광들의 세기의 합을 의미하는 제 2 그룹의 차이가 임계값 이상일 때, 상기 복수의 원본 영상들로부터 상기 모션 블러 영역을 감지하는, 방법.
6. The method of claim 5,
The step of detecting the motion blur region comprises:
The first group means the sum of the intensity of the reflected lights corresponding to the first original image and the second original image, and the sum of the intensity of the reflected lights corresponding to the third original image and the fourth original image The method of detecting the motion blur region from the plurality of original images when the difference between the second group is greater than or equal to a threshold value.
제 1 항에 있어서,
상기 복수의 원본 영상들 중 두 원본 영상들을 선택하는 단계;
를 더 포함하고,
상기 두 원본 영상들에 포함된 제 1 영역과 대응되는 상기 반사광의 세기의 차이가 상기 피사체의 움직임에 기인한 것으로 판단되는 경우, 상기 제 1 영역을 상기 모션 블러 영역으로 감지하는, 방법.
The method of claim 1,
selecting two original images from among the plurality of original images;
further comprising,
When it is determined that the difference in intensity of the reflected light corresponding to the first area included in the two original images is due to the movement of the subject, detecting the first area as the motion blur area.
제 1 항에 있어서,
상기 모션 블러 영역은 상기 복수의 원본 영상들에서 동일한 영역으로 결정되는, 방법.
The method of claim 1,
The method, wherein the motion blur region is determined to be the same region in the plurality of original images.
제 1 항 내지 제 3 항, 제 5 항 내지 제 9 항 중 어느 한 항의 방법을 컴퓨터에서 실행시키기 위한 방법을 기록한 컴퓨터로 읽을 수 있는 기록매체.A computer-readable recording medium recording a method for executing the method of any one of claims 1 to 3 and 5 to 9 on a computer. ToF 센서를 이용하여 깊이 영상을 생성하는 장치에 있어서,
피사체에 복수의 위상을 가지는 광을 순차적으로 방출하도록 설정된 광원;
상기 피사체로부터 순차적으로 반사된 광을 감지하는, 감지부; 및
상기 피사체로부터 순차적으로 반사된 상기 광에 기초하여 상기 복수의 위상들에 대응하는 복수의 원본 영상들을 생성하고, 상기 복수의 원본 영상들 중 하나를 기준 영상으로 설정하고 다른 원본 영상들을 복수의 나머지 영상들로 설정하고, 상기 기준 영상에 대응하는 위상과 상기 복수의 나머지 영상들에 대응하는 위상들 간의 차이에 기초하여 상기 복수의 나머지 영상들에 대해 상기 기준 영상과 상기 복수의 나머지 영상들 간의 반사광의 세기 차이를 보상함으로써 상기 복수의 나머지 영상들에서 모션 블러 영역을 보정하고, 상기 기준 영상과 상기 보정된 모션 블러 영역을 포함하는 상기 보상된 복수의 나머지 영상들에 기초하여 깊이 영상을 생성하는 처리부;
를 포함하는 장치.
In the apparatus for generating a depth image using a ToF sensor,
a light source configured to sequentially emit light having a plurality of phases to a subject;
a sensing unit for detecting the light sequentially reflected from the subject; and
A plurality of original images corresponding to the plurality of phases are generated based on the light sequentially reflected from the subject, one of the plurality of original images is set as a reference image, and the other original images are set as a plurality of remaining images. , and based on a difference between a phase corresponding to the reference image and phases corresponding to the plurality of remaining images, the amount of reflected light between the reference image and the plurality of remaining images for the plurality of remaining images a processing unit for correcting a motion blur region in the plurality of remaining images by compensating for an intensity difference, and generating a depth image based on the reference image and the plurality of compensated remaining images including the corrected motion blur region;
A device comprising a.
제 11 항에 있어서,
상기 처리부는,
상기 기준 영상에 대응되는 반사광의 세기에 관한 누적 분포 함수에 근접하도록 상기 복수의 나머지 영상들에 대응되는 반사광의 세기에 관한 누적 분포 함수를 조정하는, 장치.
12. The method of claim 11,
The processing unit,
and adjusting the cumulative distribution function regarding the intensity of the reflected light corresponding to the plurality of remaining images to approximate the cumulative distribution function with respect to the intensity of the reflected light corresponding to the reference image.
제 11 항에 있어서,
상기 처리부는,
상기 보상 영상들에서 패치매치(PatchMatch) 기법을 이용하여 상기 모션 블러 영역을 보정하는, 장치.
12. The method of claim 11,
The processing unit,
Compensating for the motion blur region using a patch match (PatchMatch) technique in the compensation images.
제 11 항에 있어서,
상기 피사체로부터 반사된 반사광들의 투과율을 변화시켜서 상기 반사광들의 파형을 변조하는 광 셔터; 및
상기 광 셔터에 의해 변조된 반사광으로 복수의 원본 영상들을 생성하는 촬상부;
를 더 포함하는, 장치.
12. The method of claim 11,
an optical shutter modulating a waveform of the reflected lights by changing the transmittance of the reflected lights reflected from the subject; and
an imaging unit generating a plurality of original images with the reflected light modulated by the optical shutter;
Further comprising, the device.
제 14 항에 있어서,
상기 광원 및 상기 광 셔터에 구동 전압들을 인가하는 구동부; 및
상기 구동부 및 상기 촬상부의 동작을 제어하는 제어부;
를 더 포함하는, 장치.
15. The method of claim 14,
a driver applying driving voltages to the light source and the optical shutter; and
a control unit controlling operations of the driving unit and the imaging unit;
Further comprising, the device.
제 15 항에 있어서,
상기 제어부는,
상기 초기 위상이 각각 0도, 180도, 90도, 270도인 상기 조사광들이 순서대로 조사되도록 상기 구동부를 제어하고,
상기 복수의 원본 영상들은, 상기 0도에 상응하는 제 1 원본 영상, 상기 180도에 상응하는 제 2 원본 영상, 상기 90도에 상응하는 제 3 원본 영상 및 상기 270도에 상응하는 제 4 원본 영상을 포함하는, 장치.
16. The method of claim 15,
The control unit is
controlling the driving unit so that the irradiated lights having the initial phase of 0 degrees, 180 degrees, 90 degrees, and 270 degrees are sequentially irradiated,
The plurality of original images may include a first original image corresponding to 0 degrees, a second original image corresponding to 180 degrees, a third original image corresponding to 90 degrees, and a fourth original image corresponding to 270 degrees. A device comprising a.
제 16 항에 있어서,
상기 처리부는,
상기 제 1 원본 영상에 대응하는 반사광과, 제 2 보정 영상 내지 제 4 보정 영상에 대응하는 반사광들을 이용하여 획득된 위상 정보 및 변조 주파수에 기초하여, 깊이 정보를 계산하는, 장치.
17. The method of claim 16,
The processing unit,
and calculating depth information based on phase information and modulation frequencies obtained using reflected light corresponding to the first original image and reflected light corresponding to second to fourth corrected images.
제 16 항에 있어서,
상기 감지부는,
상기 제 1 원본 영상 및 상기 제 2 원본 영상에 대응되는 상기 반사광들의 세기의 합을 의미하는 제 1 그룹과, 상기 제 3 원본 영상 및 상기 제 4 원본 영상에 대응되는 상기 반사광들의 세기의 합을 의미하는 제 2 그룹의 차이가 임계값 이상일 때, 상기 복수의 원본 영상들로부터 상기 모션 블러 영역을 감지하는, 장치.
17. The method of claim 16,
The sensing unit,
The first group means the sum of the intensity of the reflected lights corresponding to the first original image and the second original image, and the sum of the intensity of the reflected lights corresponding to the third original image and the fourth original image When the difference between the second group is greater than or equal to a threshold, detecting the motion blur region from the plurality of original images.
제 11 항에 있어서,
상기 감지부는,
상기 복수의 원본 영상들 중 두 원본 영상들을 선택하고,
상기 두 원본 영상들에 포함된 제 1 영역과 대응되는 상기 반사광의 세기의 차이가 상기 피사체의 움직임에 기인한 것으로 판단되는 경우, 상기 제 1 영역을 상기 모션 블러 영역으로 감지하는, 장치.
12. The method of claim 11,
The sensing unit,
selecting two original images from among the plurality of original images,
When it is determined that the difference in intensity of the reflected light corresponding to the first area included in the two original images is due to the movement of the subject, detecting the first area as the motion blur area.
제 11 항에 있어서,
상기 모션 블러 영역은 상기 복수의 원본 영상들에서 동일한 영역으로 결정되는, 장치.
12. The method of claim 11,
The motion blur region is determined to be the same region in the plurality of original images.
KR1020160019783A 2016-01-22 2016-02-19 Method and Apparatus FOR obtaining DEPTH IMAGE USING TOf(Time-of-flight) sensor KR102460659B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US15/410,127 US10516875B2 (en) 2016-01-22 2017-01-19 Method and apparatus for obtaining depth image by using time-of-flight sensor

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN201610044750.8 2016-01-22
CN201610044750.8A CN106997582A (en) 2016-01-22 2016-01-22 The motion blur removing method and equipment of flight time three-dimension sensor

Publications (2)

Publication Number Publication Date
KR20170088259A KR20170088259A (en) 2017-08-01
KR102460659B1 true KR102460659B1 (en) 2022-10-28

Family

ID=59428580

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160019783A KR102460659B1 (en) 2016-01-22 2016-02-19 Method and Apparatus FOR obtaining DEPTH IMAGE USING TOf(Time-of-flight) sensor

Country Status (2)

Country Link
KR (1) KR102460659B1 (en)
CN (1) CN106997582A (en)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102560397B1 (en) * 2018-09-28 2023-07-27 엘지이노텍 주식회사 Camera device and depth map extraction method of the same
CN111580117A (en) * 2019-02-19 2020-08-25 光宝电子(广州)有限公司 Control method of flight time distance measurement sensing system
KR20200125215A (en) * 2019-04-26 2020-11-04 엘지이노텍 주식회사 Camera module
CN110109133A (en) * 2019-05-05 2019-08-09 武汉市聚芯微电子有限责任公司 Compensated distance method and distance measuring method based on the flight time
US11552117B2 (en) 2019-09-06 2023-01-10 SK Hynix Inc. Image sensing device
KR102274033B1 (en) 2020-03-04 2021-07-08 (주)미래컴퍼니 Depth image acquisition apparatus reducing motion blur using multi frequency
CN111798506B (en) * 2020-06-30 2024-07-23 上海数迹智能科技有限公司 Image processing method, terminal and computer readable storage medium
CN112017609B (en) 2020-09-03 2021-07-23 Tcl华星光电技术有限公司 Control method of display panel, display panel and display device
KR20220081056A (en) 2020-12-08 2022-06-15 에스케이하이닉스 주식회사 Image sensing device and operating method thereof
CN114881894B (en) * 2022-07-07 2022-09-30 武汉市聚芯微电子有限责任公司 Pixel repairing method, device, equipment and computer storage medium

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100013928A1 (en) * 2005-07-20 2010-01-21 Robert Bosch Gmbh Image recording system
US20140267631A1 (en) 2013-03-15 2014-09-18 Occipital, Inc. Methods for reducing power consumption of a 3d image capture system
US20150116353A1 (en) * 2013-10-30 2015-04-30 Morpho, Inc. Image processing device, image processing method and recording medium

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101567044B (en) * 2009-05-22 2012-08-22 北京大学 Method for detecting quality of human face image
US8711206B2 (en) * 2011-01-31 2014-04-29 Microsoft Corporation Mobile camera localization using depth maps
US20120194642A1 (en) * 2011-02-01 2012-08-02 Wen-Nung Lie Motion picture depth information processing system and method
CN103181156B (en) * 2011-07-12 2017-09-01 三星电子株式会社 Fuzzy Processing device and method
KR101995340B1 (en) * 2013-01-02 2019-07-02 엘지이노텍 주식회사 Method for controlling ir source
US9083960B2 (en) * 2013-01-30 2015-07-14 Qualcomm Incorporated Real-time 3D reconstruction with power efficient depth sensor usage
KR102040152B1 (en) * 2013-04-08 2019-12-05 삼성전자주식회사 An 3D image apparatus and method for generating a depth image in the 3D image apparatus
CN103871029B (en) * 2014-01-28 2017-06-06 西安科技大学 A kind of image enhaucament and dividing method

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100013928A1 (en) * 2005-07-20 2010-01-21 Robert Bosch Gmbh Image recording system
US20140267631A1 (en) 2013-03-15 2014-09-18 Occipital, Inc. Methods for reducing power consumption of a 3d image capture system
US20150116353A1 (en) * 2013-10-30 2015-04-30 Morpho, Inc. Image processing device, image processing method and recording medium

Also Published As

Publication number Publication date
KR20170088259A (en) 2017-08-01
CN106997582A (en) 2017-08-01

Similar Documents

Publication Publication Date Title
KR102460659B1 (en) Method and Apparatus FOR obtaining DEPTH IMAGE USING TOf(Time-of-flight) sensor
US10516875B2 (en) Method and apparatus for obtaining depth image by using time-of-flight sensor
KR102040152B1 (en) An 3D image apparatus and method for generating a depth image in the 3D image apparatus
KR101652393B1 (en) Apparatus and Method for obtaining 3D image
KR102618542B1 (en) ToF (time of flight) capturing apparatus and method for processing image for decreasing blur of depth image thereof
US9194953B2 (en) 3D time-of-light camera and method
KR102561099B1 (en) ToF(time of flight) capturing apparatus and method for reducing of depth distortion caused by multiple reflection thereof
US20130222551A1 (en) Mapping detecting and tracking objects in an arbitrary outdoor scene using active vision
KR20130099735A (en) Method and fusion system of time-of-flight camera and stereo camera for reliable wide range depth acquisition
KR102056904B1 (en) 3D image acquisition apparatus and method of driving the same
US20150092017A1 (en) Method of decreasing noise of a depth image, image processing apparatus and image generating apparatus using thereof
KR20120071970A (en) 3d image acquisition apparatus and method of extractig depth information in the 3d image acquisition apparatus
US20210248719A1 (en) Image processing device and image processing method
US20150334372A1 (en) Method and apparatus for generating depth image
CN114930192B (en) Infrared imaging assembly
US20170070726A1 (en) Method and apparatus for generating a 3-d image
JP2014155033A (en) Exposure setting device, light emission intensity setting device, control method, program, and storage medium
KR20120067888A (en) Apparatus and method for processing stereo image
US9217670B2 (en) Object recognition apparatus using spectrometer and method thereof
US10748019B2 (en) Image processing method and electronic apparatus for foreground image extraction
US20190005671A1 (en) Three-dimensional imaging using frequency domain-based processing
JP2020052001A (en) Depth acquisition device, depth acquisition method, and program
KR102389380B1 (en) Apparatus and method of extracting depth information of the 3D image
JP2018073122A (en) Image processing device and image processing method
TWI441062B (en) Optical touch system and image processing method thereof

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant