KR102460659B1 - Method and Apparatus FOR obtaining DEPTH IMAGE USING TOf(Time-of-flight) sensor - Google Patents
Method and Apparatus FOR obtaining DEPTH IMAGE USING TOf(Time-of-flight) sensor Download PDFInfo
- Publication number
- KR102460659B1 KR102460659B1 KR1020160019783A KR20160019783A KR102460659B1 KR 102460659 B1 KR102460659 B1 KR 102460659B1 KR 1020160019783 A KR1020160019783 A KR 1020160019783A KR 20160019783 A KR20160019783 A KR 20160019783A KR 102460659 B1 KR102460659 B1 KR 102460659B1
- Authority
- KR
- South Korea
- Prior art keywords
- images
- image
- original
- degrees
- motion blur
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 86
- 230000033001 locomotion Effects 0.000 claims abstract description 139
- 230000003287 optical effect Effects 0.000 claims description 37
- 230000001186 cumulative effect Effects 0.000 claims description 31
- 238000005315 distribution function Methods 0.000 claims description 30
- 238000003384 imaging method Methods 0.000 claims description 29
- 238000012545 processing Methods 0.000 claims description 15
- 238000002834 transmittance Methods 0.000 claims description 9
- 230000001678 irradiating effect Effects 0.000 claims description 6
- 238000010586 diagram Methods 0.000 description 20
- 230000008569 process Effects 0.000 description 9
- 238000012937 correction Methods 0.000 description 6
- 230000008859 change Effects 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 5
- 238000004364 calculation method Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 238000004891 communication Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 238000005286 illumination Methods 0.000 description 2
- 238000010606 normalization Methods 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000007723 transport mechanism Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/73—Deblurring; Sharpening
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/207—Image signal generators using stereoscopic image cameras using a single 2D image sensor
- H04N13/211—Image signal generators using stereoscopic image cameras using a single 2D image sensor using temporal multiplexing
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/271—Image signal generators wherein the generated image signals comprise depth maps or disparity maps
-
- H04N5/225—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/04—Indexing scheme for image data processing or generation, in general involving 3D image data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10048—Infrared image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20172—Image enhancement details
- G06T2207/20201—Motion blur correction
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Studio Devices (AREA)
- Image Processing (AREA)
Abstract
ToF(Time-of-Flight) 센서를 이용하여 깊이 영상을 생성하는 방법 및 장치는, 피사체의 움직임에 의한 모션 블러 영역이 보정된 복수의 영상들을 이용하여 깊이 영상을 생성할 수 있다. 이때 조사광의 초기 위상 차이를 보상한 후, 모션 블러 영역을 보정하기 때문에, 깊이 영상의 정확도가 향상될 수 있다.A method and apparatus for generating a depth image using a Time-of-Flight (ToF) sensor may generate a depth image using a plurality of images in which a motion blur region due to a movement of a subject is corrected. In this case, since the motion blur region is corrected after compensating for the initial phase difference of the irradiated light, the accuracy of the depth image may be improved.
Description
개시된 실시 예들은 ToF 센서를 이용하여 깊이 영상을 획득하는 방법 및 장치에 관한 것이다.The disclosed embodiments relate to a method and apparatus for acquiring a depth image using a ToF sensor.
피사체(object)와의 거리 정보를 획득할 수 있는 3D 카메라, 모션 캡처 센서(motion sensor), 레이저 레이더(Laser Radar; LADAR) 등에 관한 연구가 최근 증가하는 추세이다. 특히, 깊이감 있는 영상을 표시할 수 있는 3D 디스플레이 장치의 발전 및 수요 증가와 함께 3D 컨텐츠의 중요성이 부각되고 있다. 이에 따라, 일반 사용자가 3D 컨텐츠를 직접 제작할 수 있는 다양한 깊이 영상 획득 장치가 연구되고 있다.Research on a 3D camera, a motion sensor, and a laser radar (LADAR) capable of acquiring distance information from an object is on the rise in recent years. In particular, the importance of 3D content is being emphasized with the development and increase in demand for 3D display devices capable of displaying images with a sense of depth. Accordingly, various depth image acquisition devices that allow general users to directly produce 3D content are being studied.
피사체의 표면들과 3차원 영상 획득 장치 사이의 거리에 관한 깊이 정보는, 두 대의 카메라를 이용한 양안 입체시(Stereo Vision) 방법이나 구조광(Structured Light)과 카메라를 이용한 삼각 측량법(Triangulation)을 이용하여 얻을 수 있다. 그러나 이러한 방법은 피사체의 거리가 멀어질수록 깊이 정보에 대한 정확도가 급격히 저하되고 피사체의 표면 상태에 의존적이어서 정밀한 깊이 정보를 얻기 어려울 수 있다.The depth information on the distance between the surfaces of the subject and the 3D image acquisition device is obtained by using the stereo vision method using two cameras or the triangulation method using structured light and a camera. can be obtained by However, in this method, it may be difficult to obtain precise depth information because the accuracy of the depth information rapidly decreases as the distance of the subject increases, and it is dependent on the surface state of the subject.
한편, 최근에 깊이 영상 획득 장치에 광시간비행법(Time-of-Flight; ToF)이 도입되었다. ToF 기술은 조명광을 피사체에 조사한 후, 피사체로부터 반사되는 광이 수광부에서 수광되기까지의 광 비행시간을 측정하는 방법이다. ToF 기술에 따르면, 발광 다이오드(LED) 또는 레이저 다이오드(LD)를 포함하는 조명 광학계를 이용하여 특정 파장의 빛(예컨대, 850nm의 근적외선)을 피사체에 투사하고, 피사체로부터 반사된 동일한 파장의 빛을 수광부에서 수광한 후, 광 셔터로 수광된 빛을 변조하는 등 깊이 정보를 추출하기 위한 일련의 처리 과정을 거치게 된다. 이러한 일련의 광 처리 과정에 따라 다양한 ToF 기술이 개발되고 있다.Meanwhile, a time-of-flight (ToF) method has been recently introduced in a depth image acquisition device. ToF technology is a method of measuring the light flight time until the light reflected from the subject is received by the light receiving unit after irradiating the illumination light to the subject. According to the ToF technology, light of a specific wavelength (for example, near infrared rays of 850 nm) is projected onto a subject using an illumination optical system including a light emitting diode (LED) or a laser diode (LD), and the light of the same wavelength reflected from the subject is emitted. After light is received by the light receiving unit, a series of processing steps are performed to extract depth information, such as modulating the light received by the optical shutter. Various ToF technologies are being developed according to this series of light processing processes.
ToF 센서를 이용하여, 피사체의 움직임에 의한 모션 블러 현상이 보정된 깊이 영상을 획득하는 방법 및 장치를 제공하는 데 있다. 본 실시예가 이루고자 하는 기술적 과제는 상기된 바와 같은 기술적 과제들로 한정되지 않으며, 이하의 실시예들로부터 또 다른 기술적 과제들이 유추될 수 있다.An object of the present invention is to provide a method and an apparatus for acquiring a depth image in which motion blur caused by movement of a subject is corrected by using a ToF sensor. The technical problems to be achieved by the present embodiment are not limited to the technical problems as described above, and other technical problems may be inferred from the following embodiments.
일 측면에 따른, ToF(Time-of-Flight) 센서를 이용하여 깊이 영상을 생성하는 방법은 위상이 다른 조사광들을 통해 획득된 복수의 원본 영상들에서 피사체의 움직임에 의해 발생된 모션 블러 영역을 감지하는 단계; 상기 원본 영상들에 대하여, 상기 피사체로부터 반사된 반사광들의 초기 위상에 따른 세기 차이를 보상하는 단계; 상기 보상에 의해 생성된 보상 영상들에서 상기 모션 블러 영역을 보정하는 단계; 및 상기 보정에 의해 생성된 보정 영상들에 기초하여 깊이 영상을 생성하는 단계;를 포함할 수 있다.According to one aspect, a method of generating a depth image using a Time-of-Flight (ToF) sensor is a method of generating a motion blur region generated by a movement of a subject in a plurality of original images obtained through irradiation lights having different phases. detecting; compensating for a difference in intensity according to initial phases of reflected lights reflected from the subject with respect to the original images; correcting the motion blur region in the compensation images generated by the compensation; and generating a depth image based on the corrected images generated by the correction.
또한, 상기 세기 차이를 보상하는 단계는, 상기 복수의 원본 영상들 중 기준 영상을 선택하는 단계; 및 상기 기준 영상에 대응되는 반사광의 세기에 관한 누적 분포 함수에 근접하도록 나머지 원본 영상들에 대응되는 반사광의 세기에 관한 누적 분포 함수를 조정하는 단계;를 포함할 수 있다.The compensating for the intensity difference may include: selecting a reference image from among the plurality of original images; and adjusting the cumulative distribution function regarding the intensity of the reflected light corresponding to the remaining original images to approximate the cumulative distribution function with respect to the intensity of the reflected light corresponding to the reference image.
또한, 상기 모션 블러 영역을 보정하는 단계는, 상기 보상 영상들에서 패치매치(PatchMatch) 기법을 이용하여 상기 모션 블러 영역을 보정할 수 있다.Also, in the step of correcting the motion blur region, the motion blur region may be corrected by using a patchMatch technique in the compensated images.
또한, 상기 위상이 다른 상기 조사광들은 상기 피사체에 순차적으로 조사되고, 상기 복수의 원본 영상들은 광 셔터를 통해 상기 반사광들을 변조하여 획득되는 것일 수 있다.Also, the irradiated lights having different phases may be sequentially irradiated to the subject, and the plurality of original images may be obtained by modulating the reflected lights through an optical shutter.
또한, 상기 조사광들의 초기 위상은 0도, 180도, 90도 및 270도이고, 상기 복수의 원본 영상들은, 상기 0도에 상응하는 제 1 원본 영상, 상기 180도에 상응하는 제 2 원본 영상, 상기 90도에 상응하는 제 3 원본 영상 및 상기 270도에 상응하는 제 4 원본 영상을 포함할 수 있다.In addition, initial phases of the irradiated lights are 0 degrees, 180 degrees, 90 degrees and 270 degrees, and the plurality of original images include a first original image corresponding to 0 degrees and a second original image corresponding to 180 degrees. , a third original image corresponding to the 90 degrees and a fourth original image corresponding to the 270 degrees.
또한, 상기 깊이 영상을 생성하는 단계는, 상기 제 1 원본 영상에 대응하는 반사광과, 제 2 보정 영상 내지 제 4 보정 영상에 대응하는 반사광들을 이용하여 획득된 위상 정보 및 변조 주파수에 기초하여, 깊이 정보를 계산하는 단계;를 포함할 수 있다.In addition, the generating of the depth image may include: based on the phase information and modulation frequency obtained by using the reflected light corresponding to the first original image and the reflected light corresponding to the second corrected image to the fourth corrected image, the depth It may include; calculating the information.
또한, 상기 모션 블러 영역을 감지하는 단계는, 상기 제 1 원본 영상 및 상기 제 2 원본 영상에 대응되는 상기 반사광들의 세기의 합을 의미하는 제 1 그룹과, 상기 제 3 원본 영상 및 상기 제 4 원본 영상에 대응되는 상기 반사광들의 세기의 합을 의미하는 제 2 그룹의 차이가 임계값 이상일 때, 상기 복수의 원본 영상들로부터 상기 모션 블러 영역을 감지할 수 있다.In addition, the detecting of the motion blur region includes: a first group indicating a sum of intensities of the reflected lights corresponding to the first original image and the second original image; and the third original image and the fourth original image. When the difference between the second group, which means the sum of the intensity of the reflected lights corresponding to the image, is equal to or greater than a threshold value, the motion blur region may be detected from the plurality of original images.
또한, 상기 모션 블러 영역을 감지하는 단계는, 상기 복수의 원본 영상들 중 두 원본 영상들을 선택하는 단계;를 포함하고, 상기 두 원본 영상들에 포함된 제 1 영역과 대응되는 상기 반사광의 세기의 차이가 상기 피사체의 움직임에 기인한 것으로 판단되는 경우, 상기 제 1 영역을 상기 모션 블러 영역으로 감지할 수 있다.In addition, the detecting of the motion blur region includes selecting two original images from among the plurality of original images, and the intensity of the reflected light corresponding to the first region included in the two original images is When it is determined that the difference is due to the movement of the subject, the first area may be detected as the motion blur area.
또한, 상기 모션 블러 영역은, 상기 모션 블러 영역은 상기 복수의 원본 영상들에서 동일한 영역으로 결정될 수 있다.Also, the motion blur region may be determined to be the same region in the plurality of original images.
다른 일측면에 따라, 컴퓨터에서 실행시키기 위한 프로그램을 기록한 기록매체는 ToF(Time-of-Flight) 센서를 이용하여 깊이 영상을 생성하는 방법을 컴퓨터에서 실행시키기 위한 프로그램으로 기록한다.According to another aspect, a recording medium recording a program to be executed in a computer records a method for generating a depth image using a Time-of-Flight (ToF) sensor as a program for executing in the computer.
또 다른 일 측면에 따라, ToF 센서를 이용하여 깊이 영상을 생성하는 장치는 위상이 다른 조사광들을 통해 획득된 복수의 원본 영상들에서 피사체의 움직임에 의해 발생된 모션 블러 영역을 감지하는, 감지부; 상기 원본 영상들에 대하여, 상기 피사체로부터 반사된 반사광들의 초기 위상 차이에 따른 상기 반사광들의 세기 차이를 보상하고, 상기 보상에 의해 생성된 복수의 보상 영상들에서 상기 모션 블러 영역을 보정하는, 보정부; 및 상기 보정에 의해 생성된 보정 영상들에 기초하여, 깊이 영상을 생성하는, 깊이 영상 처리부;를 포함할 수 있다.According to another aspect, an apparatus for generating a depth image using a ToF sensor includes a sensing unit configured to detect a motion blur region generated by a movement of a subject in a plurality of original images obtained through irradiation lights having different phases. ; Compensating unit for compensating for a difference in intensity of the reflected lights according to an initial phase difference of the reflected lights reflected from the subject with respect to the original images, and correcting the motion blur region in the plurality of compensation images generated by the compensation ; and a depth image processor configured to generate a depth image based on the corrected images generated by the correction.
또한, 상기 보정부는 상기 복수의 원본 영상들 중 기준 영상을 선택하고, 상기 기준 영상에 대응되는 반사광의 세기에 관한 누적 분포 함수에 근접하도록 나머지 원본 영상들에 대응되는 반사광의 세기에 관한 누적 분포 함수를 조정할 수 있다.In addition, the compensator selects a reference image from among the plurality of original images, and has a cumulative distribution function with respect to the intensity of reflected light corresponding to the remaining original images to approximate the cumulative distribution function for the intensity of reflected light corresponding to the reference image. can be adjusted.
또한, 상기 보정부는 상기 보상 영상들에서 패치매치(PatchMatch) 기법을 이용하여 상기 모션 블러 영역을 보정할 수 있다.Also, the compensator may correct the motion blur region in the compensation images by using a PatchMatch technique.
또한, ToF 센서를 이용하여 깊이 영상을 생성하는 장치는 상기 위상이 다른 조사광들을 생성하여 상기 피사체를 향해 순차적으로 조사하는 광원; 상기 피사체로부터 반사된 반사광들의 투과율을 변화시켜서 상기 반사광들의 파형을 변조하는 광 셔터; 및 상기 광 셔터에 의해 변조된 반사광으로 복수의 원본 영상들을 생성하는 촬상부;를 더 포함할 수 있다.In addition, an apparatus for generating a depth image using a ToF sensor may include: a light source that generates irradiated lights having different phases and sequentially irradiates them toward the subject; an optical shutter modulating a waveform of the reflected lights by changing the transmittance of the reflected lights reflected from the subject; and an imaging unit generating a plurality of original images using the reflected light modulated by the optical shutter.
또한, ToF 센서를 이용하여 깊이 영상을 생성하는 장치는 상기 광원 및 상기 광 셔터에 구동 전압들을 인가하는 구동부; 및 상기 구동부 및 상기 촬상부의 동작을 제어하는 제어부;를 더 포함할 수 있다.In addition, the apparatus for generating a depth image using the ToF sensor includes: a driver applying driving voltages to the light source and the optical shutter; and a control unit for controlling operations of the driving unit and the imaging unit.
또한, 상기 제어부는 상기 초기 위상이 각각 0도, 180도, 90도, 270도인 상기 조사광들이 순서대로 조사되도록 상기 구동부를 제어하고, 상기 복수의 원본 영상들은, 상기 0도에 상응하는 제 1 원본 영상, 상기 180도에 상응하는 제 2 원본 영상, 상기 90도에 상응하는 제 3 원본 영상 및 상기 270도에 상응하는 제 4 원본 영상을 포함할 수 있다.In addition, the controller controls the driving unit to sequentially irradiate the irradiated lights having the initial phase of 0 degrees, 180 degrees, 90 degrees, and 270 degrees, respectively, and the plurality of original images are first images corresponding to 0 degrees. It may include an original image, a second original image corresponding to the 180 degrees, a third original image corresponding to the 90 degrees, and a fourth original image corresponding to the 270 degrees.
또한, 상기 깊이 영상 처리부는 상기 제 1 원본 영상에 대응하는 반사광과, 제 2 보정 영상 내지 제 4 보정 영상에 대응하는 반사광들을 이용하여 획득된 위상 정보 및 변조 주파수에 기초하여, 깊이 정보를 계산할 수 있다.In addition, the depth image processing unit may calculate depth information based on the phase information and modulation frequency obtained by using the reflected light corresponding to the first original image and the reflected light corresponding to the second corrected image to the fourth corrected image. have.
또한, 상기 감지부는 상기 제 1 원본 영상 및 상기 제 2 원본 영상에 대응되는 상기 반사광들의 세기의 합을 의미하는 제 1 그룹과, 상기 제 3 원본 영상 및 상기 제 4 원본 영상에 대응되는 상기 반사광들의 세기의 합을 의미하는 제 2 그룹의 차이가 임계값 이상일 때, 상기 복수의 원본 영상들로부터 상기 모션 블러 영역을 감지할 수 있다.In addition, the sensing unit includes a first group indicating the sum of intensities of the reflected lights corresponding to the first original image and the second original image, and the third original image and the reflected lights corresponding to the fourth original image. When the difference between the second group, which means the sum of intensities, is equal to or greater than a threshold, the motion blur region may be detected from the plurality of original images.
또한, 상기 감지부는 상기 복수의 원본 영상들 중 두 원본 영상들을 선택하고, 상기 두 원본 영상들에 포함된 제 1 영역과 대응되는 상기 반사광의 세기의 차이가 상기 피사체의 움직임에 기인한 것으로 판단되는 경우, 상기 제 1 영역을 상기 모션 블러 영역으로 감지할 수 있다.In addition, the sensing unit selects two original images from among the plurality of original images, and it is determined that the difference in intensity of the reflected light corresponding to the first region included in the two original images is due to the movement of the subject. In this case, the first area may be detected as the motion blur area.
또한, 상기 모션 블러 영역은, 상기 복수의 원본 영상들에서 동일한 영역으로 결정될 수 있다.Also, the motion blur region may be determined to be the same region in the plurality of original images.
상기된 바에 따르면, 피사체의 움직임에 의한 모션 블러 영역이 보정된 복수의 영상을 이용하여 깊이 영상이 생성될 수 있으므로, 정확한 깊이 영상을 획득할 수 있다.As described above, since a depth image may be generated using a plurality of images in which a motion blur region due to a movement of a subject is corrected, an accurate depth image may be obtained.
도 1은 예시적인 실시예에 따른 깊이 깊이 영상 획득 장치를 대략적으로 나타낸 도면이다.
도 2는 예시적인 실시예에 따른 깊이 영상 획득 장치의 작동 방식을 설명하기 위한 도면이다.
도 3은 일 실시예에 따라 획득된 복수의 영상들을 도시한 도면이다.
도 4는 일 실시예에 따라, 모션 블러 영역을 보정하는 방법을 설명하기 위한 도면이다.
도 5는 일 실시예에 따라, 복수의 영상들에서 감지된 모션 블러 영역을 도시한 도면이다.
도 6a는 일 실시예에 따른, 기준 영상에 대응하는 CIS 출력 신호와 나머지 영상들에 대응하는 CIS 출력 신호의 세기를 비교하는 히스토그램이다.
도 6b는 일 실시예에 따른, 기준 영상에 대응하는 CIS 출력 신호와 나머지 영상들에 대응하는 CIS 출력 신호의 세기에 관한 누적 분포 함수를 나타내는 그래프이다.
도 7는 일 실시예에 따른, 모션 블러 영역을 패치매치 기법에 기초하여 보정한 영상을 도시한 도면이다.
도 8은 일 실시예에 따른, 원본 깊이 영상과 모션 블러 영역이 보정된 영상을 이용하여 획득된 깊이 영상을 나타내는 도면이다.
도 9는 일 실시예에 따른, 모션 블러 현상을 제거한 후 깊이 영상을 생성하는 알고리즘을 나타내는 도면이다.
도 10은 일 실시예에 따라, 깊이 영상 획득 장치를 나타내는 블록도이다.
도 11은 다른 일 실시예에 따라, 깊이 영상 획득 장치를 나타내는 블록도이다.
도 12는 일 실시예에 따라, ToF 센서를 이용하여 깊이 영상을 획득하는 방법을 도시한 흐름도이다.
도 13a 내지 도 13b는 일 실시예에 따라, ToF 센서를 이용하여 깊이 영상을 획득하는 방법을 구체적으로 도시한 상세 흐름도이다.1 is a diagram schematically illustrating an apparatus for acquiring a depth image according to an exemplary embodiment.
2 is a diagram for explaining an operation method of the apparatus for acquiring a depth image according to an exemplary embodiment.
3 is a diagram illustrating a plurality of images obtained according to an exemplary embodiment.
4 is a diagram for explaining a method of correcting a motion blur region, according to an embodiment.
5 is a diagram illustrating a motion blur area detected in a plurality of images, according to an exemplary embodiment.
6A is a histogram comparing intensities of a CIS output signal corresponding to a reference image and a CIS output signal corresponding to other images, according to an exemplary embodiment.
6B is a graph illustrating a cumulative distribution function with respect to intensities of a CIS output signal corresponding to a reference image and a CIS output signal corresponding to other images, according to an exemplary embodiment.
7 is a diagram illustrating an image in which a motion blur region is corrected based on a patch match technique, according to an exemplary embodiment.
8 is a diagram illustrating a depth image obtained by using an original depth image and an image in which a motion blur region is corrected, according to an exemplary embodiment.
9 is a diagram illustrating an algorithm for generating a depth image after removing motion blur, according to an exemplary embodiment.
10 is a block diagram illustrating an apparatus for acquiring a depth image, according to an embodiment.
11 is a block diagram illustrating an apparatus for acquiring a depth image, according to another exemplary embodiment.
12 is a flowchart illustrating a method of acquiring a depth image using a ToF sensor, according to an exemplary embodiment.
13A to 13B are detailed flowcharts specifically illustrating a method of acquiring a depth image using a ToF sensor, according to an exemplary embodiment.
본 실시예들에서 사용되는 용어는 본 실시예들에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 당 기술분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 임의로 선정된 용어도 있으며, 이 경우 해당 실시예의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서, 본 실시예들에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 실시예들의 전반에 걸친 내용을 토대로 정의되어야 한다.The terms used in the present embodiments are selected as currently widely used general terms as possible while considering the functions in the present embodiments, which may vary depending on the intention or precedent of a person skilled in the art, the emergence of new technology, etc. can In addition, there are also arbitrarily selected terms in a specific case, and in this case, the meaning will be described in detail in the description of the embodiment. Therefore, the terms used in the present embodiments should be defined based on the meaning of the term and the overall contents of the present embodiments, rather than the simple name of the term.
실시예들에 대한 설명들에서, 어떤 부분이 다른 부분과 연결되어 있다고 할 때, 이는 직접적으로 연결되어 있는 경우뿐 아니라, 그 중간에 다른 구성요소를 사이에 두고 전기적으로 연결되어 있는 경우도 포함한다. 또한 어떤 부분이 어떤 구성요소를 포함한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다. 또한, 실시예들에 기재된 "...부", "...모듈"의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다.In the descriptions of the embodiments, when it is said that a part is connected to another part, this includes not only a case in which it is directly connected, but also a case in which it is electrically connected with another component interposed therebetween. . Also, when it is said that a part includes a certain component, this means that other components may be further included, rather than excluding other components, unless otherwise stated. In addition, the terms "... unit" and "... module" described in the embodiments mean a unit that processes at least one function or operation, which is implemented as hardware or software, or is a combination of hardware and software. can be implemented.
본 실시예들에서 사용되는 "구성된다" 또는 "포함한다" 등의 용어는 명세서 상에 기재된 여러 구성 요소들, 또는 여러 단계들을 반드시 모두 포함하는 것으로 해석되지 않아야 하며, 그 중 일부 구성 요소들 또는 일부 단계들은 포함되지 않을 수도 있고, 또는 추가적인 구성 요소 또는 단계들을 더 포함할 수 있는 것으로 해석되어야 한다.Terms such as “consisting of” or “comprising” used in the present embodiments should not be construed as necessarily including all of the various components or various steps described in the specification, and some components or It should be construed that some steps may not be included, or may further include additional components or steps.
또한, 본 실시예들에서 사용되는 "제 1" 또는 "제 2" 등과 같이 서수를 포함하는 용어는 다양한 대상들을 설명하는데 사용할 수 있지만, 상기 대상들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 대상을 다른 대상과 구별하는 목적으로만 사용된다.Also, terms including an ordinal number such as “first” or “second” used in the present embodiments may be used to describe various objects, but the objects should not be limited by the terms. These terms are used only for the purpose of distinguishing one object from another.
하기 실시예들에 대한 설명은 권리범위를 제한하는 것으로 해석되지 말아야 하며, 해당 기술분야의 당업자가 용이하게 유추할 수 있는 것은 실시예들의 권리범위에 속하는 것으로 해석되어야 할 것이다. 이하 첨부된 도면들을 참조하면서 오로지 예시를 위한 실시예들을 상세히 설명하기로 한다.The description of the following embodiments should not be construed as limiting the scope of rights, and what can be easily inferred by those skilled in the art should be construed as belonging to the scope of the embodiments. Hereinafter, exemplary embodiments will be described in detail with reference to the accompanying drawings.
도 1은 예시적인 실시예에 따른 깊이 영상 획득 장치를 대략적으로 나타낸 도면이다.1 is a diagram schematically illustrating an apparatus for obtaining a depth image according to an exemplary embodiment.
도 1을 참조하면, 깊이 영상 획득 장치(100)는 피사체(10)에 광을 조사하는 광원(120)과, 피사체(10)에서 반사된 반사광이 진행하는 경로에 마련되어 반사광의 투과율을 변화시킴으로써 반사광의 파형을 변조하는 광 셔터(optical shutter; 130)와, 광원(120) 및 광 셔터(130)에 구동 전압들을 인가하는 구동부(140) 및 구동부(140)를 제어하는 제어부(110)를 포함할 수 있다. 또한, 깊이 영상 획득 장치(100)는 광 셔터(130)를 통과한 반사광을 수광하여, 광원(120)으로부터 피사체(10)에 조사되는 광과 반사광 사이의 위상 차이를 추출하고, 위상 차이에 근거하여 피사체(10)의 깊이 정보를 획득하는 촬상부(160)를 포함할 수 있다.Referring to FIG. 1 , the depth
광원(120)은 피사체(10)를 향해 광을 조사할 수 있다. 광원(120)은 800nm ~ 1000nm의 근 적외선(Near Infrared; NIR) 영역의 파장을 가지는 광을 조사할 수 있으나, 광원(120)이 조사할 수 있는 광의 종류는 이에 제한되지 않는다. 또한, 파장의 광을 조사함으로써 광원(120)에서 조사되는 광이 사람의 눈에는 보이지 않을 수 있다. 광원(120)은 발광 다이오드(Light Emitting Diode; LED) 또는 레이저 다이오드(Laser Diode; LD)로 구성될 수 있다. 광원(120)은 구동부(140)와 연결될 수 있다. The
구동부(140)는 광원(120)에 구동 전압(Vd1)을 인가하여 광원(120)을 작동시킬 수 있다. 구동부(140)가 인가하는 구동 전압(Vd1)의 크기에 따라 광원(120)에서 조사되는 광의 세기와 파장이 변할 수 있다. 예를 들어, 광원(120)에 인가되는 구동 전압(Vd1)의 크기가 커지면 광원(120)으로부터 조사되는 광의 파장과 출력이 커질 수 있다. The driving
또한 광원(120)에서 조사되는 광은 소정의 모양을 가지는 펄스파일 수 있다. 예를 들어 광원(120)에서 조사되는 광은 사인파, 램프파, 사각파와 같은 파형을 가질 수 있다. 또한 광원(120)에서 조사된 광은 피사체(10)에서 반사될 수 있다. 따라서 피사체(10)와 광원(120) 사이의 거리에 따라 광원(120)에서 조사되는 광의 위상과 피사체(10)에서 반사되어 광 셔터(130)에 입사되는 광 사이에 위상의 차이가 달라질 수 있다.In addition, the light irradiated from the
광 셔터(130)는 피사체(10)로부터 반사된 반사광의 투과 정도를 달리하여, 반사광의 파형을 변조할 수 있다. 이때 광 셔터(130)에 의해서 반사광이 변조되는 모양은 광 셔터(130)에 입사하는 반사광의 위상에 따라 달라질 수 있다. 즉, 피사체(10)와 광원(120) 사이의 거리에 따라 광 셔터(130)에 입사되는 반사광의 위상이 달라지고, 이로 인해 광 셔터(130)에 의해서 변조된 반사광의 파형이 달라질 수 있다. 광 셔터(130)의 투과율은 구동부(140)가 광 셔터(130)에 인가하는 구동전압(Vd2)에 따라 달라질 수 있다. The
촬상부(160)는 광 셔터(130)를 통과한 반사광을 수광하여 피사체(10)의 깊이 정보를 획득할 수 있다. 촬상부(160)는 촬상 소자(162)와 깊이 정보를 계산하는 계산 모듈(164)을 포함할 수 있다. 촬상 소자(162)는 광 셔터(130)에 의해 변조된 반사광을 검출할 수 있다. 만약 피사체(10)의 어느 한 점까지의 거리만을 측정하고자 하는 경우, 촬상 소자(162)는 예를 들어 포토 다이오드나 하나의 광센서로 구성될 수 있다. 그러나 피사체(10) 상의 다수의 점(P1, P2, P3, P4, P5)들까지의 거리를 동시에 측정하고자 하는 경우, 촬상 소자(162)는 다수의 포토 다이오드 또는 다수의 광센서들의 2차원 또는 1차원 어레이(array)를 가질 수도 있다. 예를 들어, 촬상 소자(162)는 2차원 어레이를 갖는 CCD(Charge Coupled Device) 이미지 센서 또는 CIS(CMOS Image Sensor) 센서일 수도 있으나, 이에 제한되지 않는다. 촬상 소자(162)는 광 셔터(130)를 통과한 반사광의 세기를 측정할 수 있다. 촬상 소자(162)에서 측정된 광의 세기는 광이 변조된 파형에 의존할 수 있다.The
계산 모듈(164)은 촬상 소자(162)에서 측정된 영상 정보로부터 피사체(10)의 깊이 정보를 계산할 수 있다. 계산 모듈(164)은 촬상 소자(162)에서 측정된 반사광의 세기를 이용하여 반사광과 광원(120)에서 조사되는 광의 위상 차이를 계산할 수 있다. 또한, 계산 모듈(164)은 위상 차이를 이용하여 광원(120)과 피사체(10) 사이의 거리를 계산함으로써 피사체(10)의 깊이 정보를 획득할 수 있다.The
제어부(110)는 광 셔터(130)의 투과율을 변화시키기 위해 구동부(140)를 제어할 수 있다. 구체적으로, 구동부(140)가 광원(120)에 인가하는 구동전압(Vd1) 및 광 셔터(130)에 인가하는 구동전압(Vd2)을 제어할 수 있다. 예를 들어, 광원(120)과 피사체(10) 사이의 거리가 먼 경우 광원(120)은 높은 출력으로 광을 조사할 수 있다. 하지만, 광원(120)과 피사체(10) 사이의 거리가 가까운 경우, 광원(120)이 낮은 출력으로 광을 조사하더라도 피사체(10)의 깊이 정보를 획득할 수 있다. 따라서, 광원(120)과 피사체(10) 사이의 거리가 가까운 경우에는 광원(120)의 광 출력량을 줄이는 것이 전력 소비 효율 면에서 좋을 수 있다. 또한, 광원(120) 광 출력량을 조절함으로써 촬상부(160)의 촬상 소자(162)에서 광의 포화상태(saturation)가 일어나는 것을 방지할 수 있다.The
도 2는 예시적인 실시예에 따른 깊이 영상 획득 장치의 작동 방식을 설명하기 위한 도면이다.2 is a diagram for explaining an operation method of the apparatus for acquiring a depth image according to an exemplary embodiment.
도 2에서 (a) 그래프는 광원(120)에서 조사되는 광의 시간에 따른 세기(intensity) 변화를 나타낸 그래프이다. 또한, 도 2에서 (b) 그래프는 광 셔터(130)에 입사되는 반사광의 시간에 따른 세기 변화를 나타낸 그래프이다. 또한, 도 2에서 (c) 그래프는 광 셔터(130)의 투과율이 시간에 따라 변하는 정도를 나타낸 그래프이다. In FIG. 2 (a), the graph is a graph showing the change in intensity according to time of the light irradiated from the
도 2를 참조하면, 광원(120)은 복수의 조사광(210)을 피사체(10)에 순차적으로 투사할 수 있다. 복수의 조사광(210)은 소정의 유휴시간(Idle time)을 두고 피사체(10)에 조사될 수 있다. 또한, 복수의 조사광(210)은 각각 서로 상이한 위상을 가지고 광원(120)으로부터 조사될 수 있다. 예를 들어, 광원(120)이 N개의 조사광을 피사체(10)에 조사하는 경우, 조사광들 중 인접한 시간대에 조사되는 광의 위상차는 360도를 N등분 한 값일 수 있다. 즉, N이 4인 경우, 조사되는 광들의 위상은 0도, 90도, 180도, 270도 일 수 있으나, 이에 제한되지 않는다.Referring to FIG. 2 , the
광원(120)이 복수의 조사광(210)을 유휴시간을 두고 피사체(10)에 투사하면, 피사체(10)에 반사된 반사광(220)들은 서로 독립적으로 광 셔터(130)를 통과하여 촬상부(160)에 입사될 수 있다. 광 셔터(130)의 투과율은 도 2의 (c)에서 나타낸 바와 같이 시간에 따라 변할 수 있다. 따라서, 반사광들(220)이 광 셔터(130)를 투과하면 반사광들(220)의 파형이 변조될 수 있다. 변조된 반사광들(220)의 파형은 반사광들(220)의 위상 및 광 셔터(130)의 시간에 따른 투과율 변화에 의존할 수 있다. 촬상부(160)는 광 셔터(130)에 의해 변조된 반사광들(220)을 이용하여 반사광들(220)과 조사광들(210) 사이의 위상 차이를 추출할 수 있다.When the
도 3은 일 실시예에 따라 획득된 복수의 영상들을 도시한 도면이다. 3 is a diagram illustrating a plurality of images obtained according to an exemplary embodiment.
전술한 바와 같이, 깊이 영상 획득 장치(100)는 위상이 다른 복수의 조사광을 조사한 후, 획득한 반사광을 통해 복수의 영상들을 순차적으로 얻어 1장의 깊이 영상을 생성할 수 있다. 이하 도면에서는 복수의 영상을 IR 영상인 것으로 가정하였으나, 다른 유형의 영상을 획득할 수 있음은 본 실시예와 관련된 기술분야에서 통상의 지식을 가진 자라면 이해할 수 있다.As described above, the depth
도 3을 참조하면, 깊이 영상 획득 장치(100)는 초기 위상이 각각 0도, 90도, 180도, 270도인 복수의 조사광에 대응되는 4개 IR 영상들을 순차적으로 획득할 수 있다. 이때, 4개의 IR 영상들의 촬영 시점이 서로 다르면, 모션 블러(Motion Blur)가 발생할 수 있다. 예를 들어, 4개의 IR 영상들을 순차적으로 촬영하는 동안, 피사체가 이동하거나, 깊이 영상 획득 장치(100)가 서로 다른 물체를 동일한 피사체로 인식하여 촬영하는 경우가 발생한다. 이러한 모션 블러 현상은 움직이는 물체의 경계 면에서 빈번하게 발생하고, 물체가 빨리 움직이거나, 촬영을 천천히 하는 경우에도 자주 발생한다. Referring to FIG. 3 , the depth
도 3을 참조하면, 촬상부(160)에서 획득된 CIS 출력 신호 ,,, 를 통해 생성된 복수의 영상(310 내지 340)에서 피사체의 움직임에 의한 모션 블러 현상이 발생되었다. 구체적으로, 사람이 손을 흔드는 동안, 영상 310 내지 340이 촬영 되었으므로, 모션 블러 현상이 발생되었다. Referring to FIG. 3 , the CIS output signal acquired by the
이때 모션 블러 현상은, 통상적인 영상보다 깊이 영상에서 더 큰 영향을 끼칠 수 있다. 예를 들어, 통상적인 영상을 촬영할 때 모션 블러 현상이 발생하면, 움직이는 물체의 경계면은 인접한 다른 물체와의 평균적인 이미지, 예를 들면 평균적인 밝기 또는 색상에 기초하여 결정될 수 있다. 그러나 깊이 영상의 경우, 깊이 영상을 계산하는 과정에서 모션 블러 현상에 의해 완전히 다른 결과가 도출될 수 있다. 따라서, 깊이 영상을 생성할 때 모션 블러 영역을 제거하는 것이 매우 중요하다.In this case, the motion blur phenomenon may have a greater effect on the depth image than on a normal image. For example, when a motion blur phenomenon occurs when capturing a normal image, the boundary surface of a moving object may be determined based on an average image with other adjacent objects, for example, average brightness or color. However, in the case of a depth image, completely different results may be derived due to motion blur in the process of calculating the depth image. Therefore, it is very important to remove the motion blur region when generating a depth image.
이하, 피사체의 움직임에 의해 발생된 모션 블러 영역을 효과적으로 제거하기 위해, 4개의 영상들(예를 들어, 0도에 상응하는 제 1 영상, 180도에 상응하는 제 2 영상, 90도에 상응하는 제 3 영상 및 270도에 상응하는 제 4 영상)에서 모션 블러 영역을 감지하는 방법 및 모션 블러가 발생된 경우, 모션 블러가 발생된 영상 또는 픽셀을 보정하는 방법을 상세하게 설명한다. 한편 이하 도면에서, 복수의 영상들을 생성하기 위해 촬상부(160)에서 획득한 신호를 CIS 출력 신호로 표시하였지만, 촬상 소자(164)는 CIS로 한정되지 않는다.Hereinafter, in order to effectively remove the motion blur region generated by the movement of the subject, four images (eg, a first image corresponding to 0 degrees, a second image corresponding to 180 degrees, and a second image corresponding to 90 degrees) A method of detecting a motion blur region in the third image and the fourth image corresponding to 270 degrees) and a method of correcting an image or pixel in which motion blur is generated when motion blur is generated will be described in detail. Meanwhile, in the following drawings, a signal obtained by the
도 4는 일 실시예에 따라, 모션 블러 영역을 보정하는 방법을 설명하기 위한 도면이다.4 is a diagram for explaining a method of correcting a motion blur region, according to an embodiment.
먼저 도 4를 참조하면, 깊이 영상 획득 장치는 복수의 영상들을 획득할 수 있다. 구체적으로, 깊이 영상 장치는 0도, 90도, 180도, 270도의 초기 위상을 갖는 조사광을 피사체에 조사한 후, 획득한 반사광을 통해 4개의 영상들(410)을 순차적으로 얻을 수 있다. First, referring to FIG. 4 , the apparatus for acquiring a depth image may acquire a plurality of images. Specifically, the depth imaging apparatus may sequentially obtain four
만약 4개의 영상들(410)에 모션 블러 영역이 포함되어 있으면, 깊이 영상 획득 장치는 4개의 영상들(410)에 포함된 모션 블러 영역을 감지(420)할 수 있다. If the motion blur region is included in the four
예를 들어, 깊이 영상 획득 장치는 아래 식을 이용하여 모션 블러 영역을 감지할 수 있다.For example, the apparatus for acquiring a depth image may detect a motion blur region using the following equation.
이때, B1과 B2는 각각 복수의 CIS 출력 신호를 통해 구할 수 있고, 구체적으로 수학식 2 내지 수학식 3으로 정의된다. ε는 기결정된 임계값으로, 분석을 통해 획득될 수 있다.In this case, B 1 and B 2 may be obtained through a plurality of CIS output signals, respectively, and are specifically defined by Equations 2 to 3. ε is a predetermined threshold and may be obtained through analysis.
수학식 2를 참조하면, 는 초기 위상이 0도인 조사광에 대응하는 CIS 출력 신호를 의미하고, 는 초기 위상이 180도인 조사광에 대응하는 CIS 출력 신호를 의미한다. Referring to Equation 2, denotes a CIS output signal corresponding to the irradiation light having an initial phase of 0 degrees, denotes a CIS output signal corresponding to the irradiated light having an initial phase of 180 degrees.
수학식 3을 참조하면, 는 초기 위상이 90도인 조사광에 대응하는 CIS 출력 신호를 의미하고, 는 초기 위상이 270도인 조사광에 대응하는 CIS 출력 신호를 의미한다. CIS 출력 신호의 단위는 [v]이지만, 다른 유형의 신호일 수 있음은 본 실시예와 관련된 기술분야에서 통상의 지식을 가진 자라면 이해할 수 있다.Referring to Equation 3, denotes a CIS output signal corresponding to the irradiation light having an initial phase of 90 degrees, denotes a CIS output signal corresponding to the irradiated light having an initial phase of 270 degrees. Although the unit of the CIS output signal is [v], it can be understood by those of ordinary skill in the art related to the present embodiment that it may be another type of signal.
수학식 1 내지 수학식 3을 참조하면, 영상에 포함된 어느 영역에 대응하는 CIS 출력 신호를 이용하면, 해당 영역이 모션 블러 영역인지 감지할 수 있다. 또한, 수학식 1의 ε 값에 따라 모션 블러 영역을 조정할 수 있다.Referring to
한편, 깊이 영상 획득 장치는 다른 일 실시예에 따라 모션 블러 영역을 감지할 수 있다. 구체적으로, 복수의 영상들간 CIS 출력 신호의 차이는 조사광의 초기 위상 또는 모션 블러 현상에 의해 발생할 수 있다. 따라서, 복수의 영상들간 CIS 출력 신호의 차이에서 조사광의 초기 위상 차이에 따른 신호 세기의 차이를 보상하면, 모션 블러 현상에 따른 CIS 출력 신호를 판단할 수 있으므로, 모션 블러 영역을 감지할 수 있게 된다. Meanwhile, the apparatus for obtaining a depth image may detect a motion blur region according to another exemplary embodiment. Specifically, the difference in the CIS output signal between the plurality of images may be caused by an initial phase of the irradiated light or a motion blur phenomenon. Accordingly, by compensating for the difference in signal strength according to the initial phase difference of the irradiated light in the difference of the CIS output signal between the plurality of images, the CIS output signal according to the motion blur phenomenon can be determined, so that the motion blur region can be detected. .
예를 들어, 깊이 영상 획득 장치는 복수의 영상들 중, 임의로 두 영상을 선택한 후 두 영상에 대응하는 CIS 출력 신호의 세기 차이를 분석할 수 있다. 그 후 두 영상에 대응하는 CIS 출력 신호의 세기 차이가 발생하는 원인 중 조사광의 초기 위상에 따른 차이를 보상하여 모션 블러 현상에 의해 CIS 출력 신호의 세기 차이가 발생된 영역을 판단할 수 있다. 이때 조사광의 초기 위상에 따른 차이를 보상하기 위해 CIS 출력 신호의 세기에 관한 누적 분포 함수를 이용하는 방법이 있을 수 있다. 만약 조사광의 초기 위상에 따른 차이를 보상한 후, 모션 블러 영역을 감지한다면, 모션 블러 영역을 감지하는 과정은 누적 분포 함수를 분석하는 과정 이후에 수행될 수 있음은 본 실시예와 관련된 기술분야에서 통상의 지식을 가진 자라면 이해할 수 있다. For example, the apparatus for acquiring a depth image may arbitrarily select two images from among a plurality of images and then analyze a difference in intensity of a CIS output signal corresponding to the two images. After that, it is possible to determine the region where the difference in the intensity of the CIS output signal is generated due to the motion blur phenomenon by compensating for the difference according to the initial phase of the irradiated light among the causes of the difference in the intensity of the CIS output signal corresponding to the two images. In this case, there may be a method of using a cumulative distribution function with respect to the intensity of the CIS output signal to compensate for the difference according to the initial phase of the irradiated light. If the motion blur region is detected after compensating for the difference according to the initial phase of the irradiated light, the process of detecting the motion blur region can be performed after the process of analyzing the cumulative distribution function is a technical field related to the present embodiment. Anyone with ordinary knowledge can understand.
한편, CIS 출력 신호의 세기에 관한 누적 분포 함수를 이용하여 조사광의 초기 위상에 따른 차이를 보상하는 방법은 이하 도면을 참조하여 상세하게 설명한다.Meanwhile, a method of compensating for a difference according to the initial phase of the irradiated light using the cumulative distribution function regarding the intensity of the CIS output signal will be described in detail with reference to the accompanying drawings.
한편, 조사광의 초기 위상에 따른 차이를 보상한 후, 깊이 영상 획득 장치는 모션 블러 영역을 보정(440)할 수 있다. 구체적으로, 감지된 모션 블러 영역과 대응되는 기준 영상(예를 들어, 제 1 영상)의 일 영역을, 기준 영상을 제외한 나머지 영상들(예를 들어, 제 2 영상 내지 제 4 영상)에서 대응되는 영역으로 대체할 수 있다. 모션 블러 영역을 보정하면, 복수의 영상들에서 서로 다르게 촬영된 피사체가 고정된 것처럼 보정되기 때문에, 원래 복수의 영상으로 깊이 정보를 계산할 때보다 정확도가 높은 깊이 정보를 계산할 수 있게 된다.Meanwhile, after compensating for the difference according to the initial phase of the irradiation light, the apparatus for obtaining a depth image may correct the motion blur region ( 440 ). Specifically, a region of the reference image (eg, the first image) corresponding to the detected motion blur region is selected from the images (eg, the second image to the fourth image) other than the reference image. area can be replaced. When the motion blur region is corrected, since the subjects photographed differently in the plurality of images are corrected as if they are fixed, depth information with higher accuracy than when depth information is calculated from the original plurality of images can be calculated.
모션 블러 영역을 보정한 후, 깊이 영상 획득 장치는 모션 블러 영역이 보정된 복수의 보정 영상(450)과, 기준 영상을 이용하여 깊이 정보를 계산(460)할 수 있다. 깊이 정보를 계산하는 방법은 이하 도면을 참조하여 상세하게 설명한다. After correcting the motion blur region, the apparatus for obtaining a depth image may calculate depth information using the plurality of corrected
마지막으로 깊이 영상 획득 장치는 계산된 깊이 정보를 기초로 하여, 깊이 영상을 생성(470)할 수 있다.Finally, the apparatus for obtaining a depth image may generate ( 470 ) a depth image based on the calculated depth information.
도 5는 일 실시예에 따라, 복수의 영상들에서 감지된 모션 블러 영역을 도시한 도면이다. 5 is a diagram illustrating a motion blur area detected in a plurality of images, according to an exemplary embodiment.
도 5를 참조하면, 4개의 영상들(510 내지 540)에 포함된 모션 블러 영역이 감지될 수 있다. 이때 감지되는 모션 블러 영역(550)은 복수의 영상들에서 동일한 영역일 수 있다.Referring to FIG. 5 , a motion blur region included in four
모션 블러 영역을 감지한 후, 깊이 영상 획득 장치는 복수의 영상들을 생성하는데 기초가 된 반사광에 대하여, 초기 위상 차이에 따른 반사광들의 세기 차이를 보상할 수 있다. 이때 깊이 영상 획득 장치는 반사광의 세기에 관한 누적 분포 함수를 이용하여 초기 위상에 따른 세기 차이를 보상할 수 있다. 초기 위상에 따른 세기 차이를 보상하는 방법을 도 6a 내지 도 6b를 참조하여 상세하게 설명한다.After detecting the motion blur region, the apparatus for obtaining a depth image may compensate for a difference in intensity of the reflected light according to the initial phase difference with respect to the reflected light used as a basis for generating a plurality of images. In this case, the apparatus for obtaining a depth image may compensate for an intensity difference according to an initial phase by using a cumulative distribution function with respect to the intensity of the reflected light. A method of compensating for an intensity difference according to an initial phase will be described in detail with reference to FIGS. 6A to 6B .
도 6a는 일 실시예에 따른, 기준 영상에 대응하는 CIS 출력 신호와 나머지 영상들에 대응하는 CIS 출력 신호의 세기를 비교하는 히스토그램이다.6A is a histogram comparing intensities of a CIS output signal corresponding to a reference image and a CIS output signal corresponding to other images, according to an exemplary embodiment.
도 6a를 참조하면, 제 1 히스토그램(610) 내지 제 3 히스토그램(630)에서 기준 신호는 초기 위상이 0도인 조사광에 대응하는 CIS 출력 신호이다. 본 실시예에서는 초기 위상이 0도인 조사광에 대응하는 CIS 출력 신호가 기준 신호로 결정되었으나, 다른 CIS 출력 신호가 기준 신호로 결정될 수 있음은 본 실시예와 관련된 기술분야에서 통상의 지식을 가진 자라면 이해할 수 있다. Referring to FIG. 6A , the reference signal in the
구체적으로, 제 1 히스토그램(610)에는 초기 위상이 90도인 조사광에 대응하는 CIS 출력 신호의 세기와 기준 신호의 세기에 따른 히스토그램이 도시되었다. 제 2 히스토그램(620)에는 초기 위상이 180도인 조사광에 대응하는 CIS 출력 신호의 세기와 기준 신호의 세기에 따른 히스토그램이 도시되었다. 마지막으로, 제 3 히스토그램(630)에는 초기 위상이 270도인 조사광에 대응하는 CIS 출력 신호의 세기와 기준 신호의 세기에 따른 히스토그램이 도시되었다. Specifically, the
이때 히스토그램의 X축은 CIS 출력 신호의 세기와 동일한 단위가 될 수 있고, Y축은 대응하는 CIS 출력 신호의 세기를 갖는 픽셀 수를 의미한다. 또한, CIS 출력 신호가 연속 함수이면, CIS 출력 신호를 양자화하여 히스토그램을 구할 수 있다. In this case, the X-axis of the histogram may be in the same unit as the intensity of the CIS output signal, and the Y-axis means the number of pixels having the intensity of the corresponding CIS output signal. Also, if the CIS output signal is a continuous function, a histogram can be obtained by quantizing the CIS output signal.
도 6a를 참조하면, 각 히스토그램(610 내지 630)에 도시된 각 CIS 출력 신호는 기준 신호와 다른 히스토그램을 갖는다. 각 CIS 출력 신호가 기준 신호와 다른 히스토그램을 갖는 원인 중에는 초기 위상의 차이 및 모션 블러 현상이 있을 수 있다. 따라서, 초기 위상 차이에 따른 CIS 출력 신호의 차이가 보상되면, 깊이 영상 획득 장치는 모션 블러 영역을 더 정확하게 감지할 수 있다.Referring to FIG. 6A , each CIS output signal shown in each
도 6b는 일 실시예에 따른, 기준 영상에 대응하는 CIS 출력 신호와 나머지 영상들에 대응하는 CIS 출력 신호의 세기에 관한 누적 분포 함수를 나타내는 그래프이다. 6B is a graph illustrating a cumulative distribution function with respect to intensities of a CIS output signal corresponding to a reference image and a CIS output signal corresponding to other images, according to an exemplary embodiment.
구체적으로, 제 1 그래프(640) 내지 제 3 그래프(660)에서 기준 신호는 초기 위상이 0도인 조사광에 대응하는 CIS 출력 신호이다. 본 실시예에서는 초기 위상이 0도인 조사광에 대응하는 CIS 출력 신호가 기준 신호로 결정되었으나, 다른 CIS 출력 신호가 기준 신호로 결정될 수 있음은 본 실시예와 관련된 기술분야에서 통상의 지식을 가진 자라면 이해할 수 있다. 각 그래프의 X축은 CIS 출력 신호의 세기와 동일한 단위가 될 수 있고, Y축은 대응하는 CIS 출력 신호 세기의 누적 픽셀 수를 의미한다.Specifically, the reference signal in the
구체적으로, 제 1 그래프(640)에는 초기 위상이 90도인 조사광에 대응하는 CIS 출력 신호의 세기와 기준 신호의 세기에 따른 누적 분포 함수가 도시되었다. 제 2 그래프(650)에는 초기 위상이 180도인 조사광에 대응하는 CIS 출력 신호의 세기와 기준 신호의 세기에 따른 누적 분포 함수가 도시되었다. 마지막으로, 제 3 그래프(660)에는 초기 위상이 270도인 조사광에 대응하는 CIS 출력 신호의 세기와 기준 신호의 세기에 따른 누적 분포 함수가 도시되었다.In detail, the
6b를 참조하면, 각 누적 분포 함수는 기준 신호에 관한 누적 분포 함수와 다른 형태이다. 만약, 기준 신호와 대응하는 누적 분포 함수와 근접하도록 각 CIS 출력 신호와 대응하는 누적 분포 함수를 조정한다면, 초기 위상 차이에 의한 CIS 출력신호의 세기 차이가 보상된 영상을 획득할 수 있다. 즉, 깊이 영상 획득 장치는 초기 위상 차이를 누적 분포 함수를 기초로 하여 보상한 후, 모션 블러 영역을 보정할 수 있다.Referring to 6b, each cumulative distribution function is different from the cumulative distribution function with respect to the reference signal. If the cumulative distribution function corresponding to each CIS output signal is adjusted to approximate the cumulative distribution function corresponding to the reference signal, an image in which the difference in intensity of the CIS output signal due to the initial phase difference is compensated may be obtained. That is, after compensating for the initial phase difference based on the cumulative distribution function, the apparatus for obtaining a depth image may correct the motion blur region.
도 7는 일 실시예에 따른, 모션 블러 영역을 패치매치 기법에 기초하여 보정한 영상을 도시한 도면이다.7 is a diagram illustrating an image in which a motion blur region is corrected based on a patch match technique, according to an exemplary embodiment.
일 실시예에 따른, 모션 블러 영역을 보정하는 방법으로는 패치매치(PatchMatch) 기법을 기초로 한 보정 방법이 있을 수 있다. 영상 편집 기술 중 하나인 패치매치 기법은, 선택된 영역을 다수의 작은 영역(패치)으로 대체하여 영상을 편집하는 기법을 의미한다. 예를 들어, 패치매치 기법을 이용한다면 영상에 포함된 소정의 피사체를 배경화면과 대체하여, 소정의 피사체가 사라진 영상으로 편집할 수 있다. 따라서, 깊이 영상 획득 장치는 패치매치 기법을 통해 기준 영상을 제외한 나머지 영상들에 포함된 모션 블러 영역을, 기준 영상에 포함된 모션 블러 영역에 대응하는 영역으로 대체하여 복수의 영상에 포함된 모션 블러 영역을 보정할 수 있다. 본 실시예에서는 패치매치 기법을 통해 모션 블러 영역을 보정하였으나, 다른 영상 편집 기술로 모션 블러 영역을 보정할 수 있음은 본 실시예와 관련된 기술분야에서 통상의 지식을 가진 자라면 이해할 수 있다.According to an embodiment, as a method of correcting the motion blur region, there may be a correction method based on a patchMatch technique. The patch-match technique, which is one of image editing techniques, refers to a technique for editing an image by replacing a selected region with a plurality of small regions (patches). For example, if the patch match technique is used, a predetermined subject included in the image may be replaced with a background screen, and an image in which the predetermined subject has disappeared may be edited. Accordingly, the depth image acquisition apparatus replaces the motion blur region included in the remaining images except for the reference image with a region corresponding to the motion blur region included in the reference image through the patch-matching technique to obtain the motion blur included in the plurality of images. area can be corrected. In the present embodiment, the motion blur region is corrected through the patch match technique, but it can be understood by those skilled in the art related to the present embodiment that the motion blur region can be corrected using other image editing techniques.
도 7을 참조하면, 깊이 영상 획득 장치는 기준 영상(710)을 기초로 하여 나머지 영상(720 내지 740)의 모션 블러 영역을 보정할 수 있다. 구체적으로, 도 5에서 모션 블러 영역으로 감지된 사람의 팔부분(550)이 기준 영상(710)에 포함된 사람의 팔 부분과 유사해지도록 보정되었다. 따라서, 도 3과 비교하면 복수의 영상(710 내지 740)에서 모션 블러 영역이 보정된 것을 알 수 있다. Referring to FIG. 7 , the apparatus for obtaining a depth image may correct motion blur regions of the remaining
도 8은 일 실시예에 따른, 원본 깊이 영상과 모션 블러 영역이 보정된 영상을 이용하여 획득된 깊이 영상을 나타내는 도면이다.8 is a diagram illustrating a depth image obtained by using an original depth image and an image in which a motion blur region is corrected, according to an exemplary embodiment.
도 8을 참조하면, 모션 블러 영역을 보정하지 않은 복수의 영상들을 이용하여 생성된 깊이 영상(810)은 사람의 팔 부분의 깊이 정도가 부정확하게 표시되었다. 그러나, 일 실시예에 따라 모션 블러 영역이 보정된 보정 영상들을 이용하여 생성된 깊이 영상(820)은 사람의 팔 부분의 깊이 정도가 모션 블러 영역이 보정되지 않은 깊이 영상(810)보다 정확하게 표시된 것을 알 수 있다.Referring to FIG. 8 , in a
도 9는 일 실시예에 따른, 모션 블러 현상을 제거한 후 깊이 영상을 생성하는 알고리즘을 나타내는 도면이다.9 is a diagram illustrating an algorithm for generating a depth image after removing motion blur, according to an exemplary embodiment.
도 9에 도시된 알고리즘은 OpenCV(Open Computer Vision) 언어로 작성되었다. OpenCV(Open Computer Vision)는 오픈 소스 컴퓨터 비전 C 라이브러리로서, 실시간 이미지 프로세싱에 중점을 둔 라이브러리이다. 하지만, 본 개시의 일 실시예에 따른 모션 블러 현상을 제거한 후 깊이 영상을 생성하는 알고리즘이 다른 언어로 작성될 수 있음은 본 실시예와 관련된 기술분야에서 통상의 지식을 가진 자라면 이해할 수 있다. The algorithm shown in FIG. 9 was written in OpenCV (Open Computer Vision) language. OpenCV (Open Computer Vision) is an open source computer vision C library that focuses on real-time image processing. However, it can be understood by those of ordinary skill in the art related to the present embodiment that the algorithm for generating a depth image after removing the motion blur according to an embodiment of the present disclosure may be written in another language.
도 9를 참조하면, 일 실시예에 따른 알고리즘은, 0도, 90도, 180도, 270도의 초기 위상을 갖는 조사광을 통해 획득된 4개의 영상(Im0, Im90, Im180, Im270), 패치 크기(patchSize) 및 정규화 과정에 기초가 되는 최대 전압값(maxV) 및 최소 전압값(minV)을 입력 받아, 변환된 3개의 영상(Im90_new, Im180_new, Im270_new)과 깊이 영상(I_depth)을 출력할 수 있다.Referring to FIG. 9 , an algorithm according to an exemplary embodiment includes four images (Im0, Im90, Im180, Im270) obtained through irradiation light having an initial phase of 0 degrees, 90 degrees, 180 degrees, and 270 degrees, and a patch size. (patchSize) and the maximum voltage value (maxV) and minimum voltage value (minV), which are the basis of the normalization process, are received, and three converted images (Im90_new, Im180_new, Im270_new) and a depth image (I_depth) can be output. .
먼저, 일 실시예에 따라 개시된 알고리즘에 의하면, 입력된 4개의 영상을 이용하여 모션 블러 영역(blurMask)을 감지할 수 있다. 모션 블러 영역을 감지한 후, 기준 영상을 최대 전압값 및 최소 전압값 사이의 영상으로 정규화(normalizeImage)할 수 있다. 이후 정규화된 기준 영상에서 모션 블러 영역에 해당하는 부분의 히스토그램을 작성(imageHistgram)할 수 있다.First, according to the algorithm disclosed according to an embodiment, a motion blur region (blurMask) may be detected using four input images. After detecting the motion blur region, the reference image may be normalized to an image between the maximum voltage value and the minimum voltage value. Thereafter, a histogram of a portion corresponding to the motion blur region in the normalized reference image may be created (imageHistgram).
또한, 기준 영상에 대응하는 히스토그램을 작성한 후, 나머지 영상들에 대해서 정규화 과정 및 히스토그램을 작성하는 과정이 수행될 수 있다. 이때, 기준 영상을 제외한 나머지 복수의 영상들의 누적 분포 함수는 기준 영상에 대한 누적 분포 함수에 근접하도록 조정(performTransform)될 수 있다. 누적 분포 함수를 조정한 후, 패치매치 기법으로 모션 기준 영상을 제외한 나머지 복수의 영상들과, 기준 영상에서 모션 블러 영역과 대응되는 영역을 패치 크기를 고려하여 편집(patchMatch)함으로써 모션 블러 영역이 보정된 영상이 생성(reconstrctImage)될 수 있다.Also, after a histogram corresponding to the reference image is created, a normalization process and a process of creating a histogram for the remaining images may be performed. In this case, the cumulative distribution function of the plurality of images other than the reference image may be performed transform to approximate the cumulative distribution function of the reference image. After adjusting the cumulative distribution function, the motion blur area is corrected by patchMatching the rest of the plurality of images except the motion reference image and the area corresponding to the motion blur area in the reference image in consideration of the patch size using the patch matching technique. A reconstructed image may be created (reconstrctImage).
기준 영상을 제외한 나머지 복수의 영상들에서 모션 블러 영역이 보정된 영상을 생성하는 과정이 반복적으로 수행된 후, 모션 블러 영역이 제거된 영상(Im90_new, Im180_new, Im270_new) 및 기준 영상(Im0)을 통해 깊이 정보(I_depth)가 계산될 수 있다.After the process of generating an image in which the motion blur region is corrected from the plurality of images other than the reference image is repeatedly performed, the motion blur region is removed through the images (Im90_new, Im180_new, Im270_new) and the reference image Im0. Depth information (I_depth) may be calculated.
도 10은 일 실시예에 따라, 깊이 영상 획득 장치를 나타내는 블록도이다.10 is a block diagram illustrating an apparatus for acquiring a depth image, according to an embodiment.
깊이 영상 획득 장치(1000)는 감지부(1010), 보정부(1020) 및 깊이 영상 처리부(1030)를 포함할 수 있다. 도 10에 도시된 깊이 영상 획득 장치(1000)에는 실시예들과 관련된 구성요소들만이 도시되어 있다. 따라서, 도 10에 도시된 구성요소들 외에 다른 범용적인 구성요소들이 더 포함될 수 있음을 당해 기술분야의 통상의 기술자라면 이해할 수 있다. The depth
감지부(1010)는 위상이 다른 조사광들을 통해 획득된 복수의 원본 영상들에 기초하여 피사체의 움직임에 의해 발생된 모션 블러 영역을 감지할 수 있다. 이때 복수의 원본 영상들은 조사광의 초기 위상이 각각 0도에 상응하는 제 1 원본 영상, 180도에 상응하는 제 2 원본 영상, 90도에 상응하는 제 3 원본 영상 및 270도에 상응하는 제 4 원본 영상으로 정의될 수 있다.The
일 실시예에 따라, 감지부(1010)는 수학식 1에 기초하여 제 1 원본 영상 및 제 2 원본 영상에 대응되는 반사광들의 세기의 합을 의미하는 제 1 그룹과, 제 3 원본 영상 및 제 4 원본 영상에 대응되는 반사광들의 세기의 합을 의미하는 제 2 그룹의 차이가 기결정된 임계값 이상일 때, 복수의 원본 영상들로부터 모션 블러 영역을 감지할 수 있다.According to an embodiment, the
또 다른 일 실시예에 따르면, 감지부(1010)는 복수의 원본 영상들 중 두 원본 영상들을 선택하고, 두 원본 영상들에 포함된 제 1 영역과 대응되는 반사광의 세기의 차이가 피사체의 움직임에 기인한 것으로 판단되는 경우, 제 1 영역을 모션 블러 영역으로 감지할 수 있다.According to another exemplary embodiment, the
이때 모션 블러 영역은 복수의 원본 영상들에서 동일한 영역을 의미할 수 있다.In this case, the motion blur region may mean the same region in the plurality of original images.
보정부(1020)는 원본 영상들에 대하여, 상기 피사체로부터 반사된 반사광들의 초기 위상 차이에 따른 세기 차이를 보상하고, 보상에 의해 생성된 보상 영상들에서 모션 블러 영역을 보정할 수 있다. 또한, 보정부(1020)는 복수의 원본 영상들 중 기준 영상을 선택하고, 기준 영상에 대응되는 반사광의 세기에 관한 누적 분포 함수에 근접하도록 나머지 원본 영상들에 대응되는 반사광의 세기에 관한 누적 분포 함수를 조정할 수 있다. 더불어 보정부(1020)는 세기 차이가 보상된 영상들을 생성할 수 있다. 한편, 보정부(1020)는 보상 영상들에서 패치매치(PatchMatch) 기법을 이용하여 모션 블러 영역을 보정할 수 있다.The
깊이 영상 처리부(1030)는 상기 보정에 의해 생성된 보정 영상들에 기초하여, 깊이 영상을 생성할 수 있다. 만약, 깊이 영상 생성 장치(1000)가 0도, 90도, 180도, 270도의 초기 위상을 갖는 조사광에 대응하는 4개의 원본 영상(제 1 원본 영상 내지 제 4 원본 영상) 및 보정 영상(제 2 보정 영상 내지 제 4 보정 영상)을 생성한 경우, 깊이 영상 처리부(1030)는 제 1 원본 영상에 대응하는 반사광과, 제 2 보정 영상 내지 제 4 보정 영상에 대응하는 반사광들을 이용하여 획득된 위상 정보 및 변조 주파수에 기초하여 깊이 정보를 계산할 수 있다. 구체적으로, 깊이 정보는 아래식을 통해 계산될 수 있다. The depth
이때 c는 빛의 속도(3*108 m/s), f는 조사광의 주파수를 의미하고, 는 초기 위상이 θ도인 CIS 출력 신호를 의미한다. 본 개시의 일 실시예에 따르면, 는 모션 블러 영역을 보정하여 생성된 보정 영상에 대응하는 신호일 수 있다. In this case, c is the speed of light (3*10 8 m/s), f is the frequency of the irradiated light, denotes a CIS output signal having an initial phase of θ degrees. According to an embodiment of the present disclosure, may be a signal corresponding to a corrected image generated by correcting the motion blur region.
도 11은 다른 일 실시예에 따라, 깊이 영상 획득 장치를 나타내는 블록도이다. 개시된 일 실시예에 따르면, 깊이 영상 획득 장치(1100)는 감지부(1110), 보정부(1120), 깊이 영상 처리부(1130) 뿐 아니라, 광원(1140), 광 셔터(1150), 촬상부(1160), 구동부(1170) 및 제어부(1180)를 포함할 수 있다. 도 11에 도시된 깊이 영상 획득 장치(1100)에는 실시예들과 관련된 구성요소들만이 도시되어 있다. 따라서, 도 11에 도시된 구성요소들 외에 다른 범용적인 구성요소들이 더 포함될 수 있음을 당해 기술분야의 통상의 기술자라면 이해할 수 있다.11 is a block diagram illustrating an apparatus for acquiring a depth image, according to another exemplary embodiment. According to the disclosed embodiment, the depth
감지부(1110), 보정부(1120) 및 깊이 영상 처리부(1130)는 도 10의 감지부(1010), 보정부(1020) 및 깊이 영상 처리부(1030)와 대응되므로, 구체적인 설명은 생략하기로 한다.The
광원(1140), 광 셔터(1150), 촬상부(1160), 구동부(1170)는 도 1의 광원(120), 광 셔터(130), 촬상부(160) 및 구동부(140)와 대응되므로, 구체적인 설명은 생략하기로 한다.The
제어부(1180)는 구동부(1170) 및 촬상부(1160)의 동작을 제어할 수 있다. 또한, 제어부(1180)는 초기 위상이 각각 0도, 180도, 90도, 270도인 조사광들이 순서대로 조사되도록 구동부(1170)를 제어할 수 있다. 이때, 복수의 원본 영상들은, 0도에 상응하는 제 1 원본 영상, 180도에 상응하는 제 2 원본 영상, 90도에 상응하는 제 3 원본 영상 및 270도에 상응하는 제 4 원본 영상일 수 있다.The
도 12는 일 실시예에 따라, ToF 센서를 이용하여 깊이 영상을 획득하는 방법을 도시한 흐름도이다.12 is a flowchart illustrating a method of acquiring a depth image using a ToF sensor, according to an exemplary embodiment.
단계 1210에서, 깊이 영상 획득 장치(1000)는 위상이 다른 조사광들을 통해 획득된 복수의 원본 영상들에서 피사체의 움직임에 의해 발생된 모션 블러 영역을 감지할 수 있다. 이때, 위상이 다른 조사광들은 피사체에 순차적으로 조사되고, 깊이 영상 획득 장치는 광 셔터를 통해 반사광들을 변조하여 획득한 복수의 원본 영상들을 이용할 수 있다. 이때, 조사광들의 초기 위상은 0도, 180도, 90도 및 270도이고, 복수의 원본 영상들은, 0도에 상응하는 제 1 원본 영상, 180도에 상응하는 제 2 원본 영상, 90도에 상응하는 제 3 원본 영상 및 270도에 상응하는 제 4 원본 영상을 포함할 수 있다.In
일 실시예에 따라, 깊이 영상 획득 장치(1000)는 제 1 원본 영상 및 제 2 원본 영상에 대응되는 반사광들의 세기의 합을 의미하는 제 1 그룹과, 제 3 원본 영상 및 제 4 원본 영상에 대응되는 반사광들의 세기의 합을 의미하는 제 2 그룹의 차이가 기결정된 임계값 이상일 때, 복수의 원본 영상들로부터 모션 블러 영역을 감지할 수 있다.According to an embodiment, the
또 다른 일 실시예에 따르면, 깊이 영상 획득 장치(1000)는 복수의 원본 영상들 중 임의의 두 원본 영상들을 선택하고, 두 원본 영상들에 포함된 제 1 영역과 대응되는 반사광의 세기의 차이가 피사체의 움직임에 기인한 것으로 판단되는 경우, 제 1 영역을 모션 블러 영역으로 감지할 수 있다.According to another exemplary embodiment, the depth
이때 모션 블러 영역은 복수의 원본 영상들에서 동일한 영역을 의미할 수 있다.In this case, the motion blur region may mean the same region in the plurality of original images.
단계 1220에서, 깊이 영상 획득 장치(1000)는 원본 영상들에 대하여, 피사체로부터 반사된 반사광들의 초기 위상 차이에 따른 반사광들의 세기 차이를 보상할 수 있다. 예를 들어, 깊이 영상 획득 장치는 복수의 원본 영상들 중 기준 영상을 선택한 후, 기준 영상에 대한 반사광의 세기에 관한 누적 분포 함수에 근접하도록 나머지 원본 영상들에 대한 반사광의 세기에 관한 누적 분포 함수를 조정하여 반사광의 세기 차이를 보상할 수 있다.In
단계 1230에서, 깊이 영상 획득 장치(1000)는 보상에 의해 생성된 보상 영상들에서 모션 블러 영역을 보정할 수 있다. 보상 영상들에서 모션 블러 영역을 보정하기 위해, 패치매치 기법을 이용할 수 있으나, 이에 제한되지 않는다.In
단계 1240에서, 깊이 영상 획득 장치(1000)는 모션 블러 영역의 보정에 의해 생성된 보정 영상들에 기초하여, 깊이 영상을 생성할 수 있다. 구체적으로, 깊이 영상 획득 장치(1000)는 수학식 4에 기초하여 깊이 영상을 생성할 수 있다. In
도 13a 내지 도 13b는 일 실시예에 따라, ToF 센서를 이용하여 깊이 영상을 획득하는 방법을 구체적으로 도시한 상세 흐름도이다.13A to 13B are detailed flowcharts specifically illustrating a method of acquiring a depth image using a ToF sensor, according to an exemplary embodiment.
단계 1310에서, 광원(1140)은 초기 위상이 각각 0도, 180도, 90도 및 270도인 조사광들을 피사체에 순차적으로 조사할 수 있다. In
단계 1320에서, 깊이 영상 획득 장치(1100)는 광 셔터(1150)를 이용하여 피사체에 반사된 반사광의 투과율을 변화시킴으로써 반사광의 파형을 변조할 수 있다. 또한, 촬상부(1160)는 변조된 반사광을 이용하여, 위상이 각각 0도, 180도, 90도 및 270도인 제 1 원본 영상 내지 제 4 원본 영상을 생성할 수 있다.In
단계 1330에서 깊이 영상 획득 장치(1100)의 감지부(1110)는 모션 블러 영역을 감지하기 위해, 제 1 원본 영상 및 제 2 원본 영상에 대응하는 CIS 출력 신호의 합인 제 1 그룹(B1)과 제 3 원본 영상 및 제 4 원본 영상 에 대응하는 CIS 출력 신호의 합인 제 2 그룹(B2)을 계산할 수 있다. 구체적으로, 제 1 그룹(B1)과 제 2 그룹(B2)은 수학식 2 내지 수학식 3에 기초하여 계산될 수 있다.In
단계 1340에서 깊이 영상 획득 장치(1100)의 감지부(1110)는 제 1 그룹과 제 2 그룹의 차이의 절대값과 기결정된 임계값을 비교할 수 있다. 만약, 임계값보다 절대값이 크면, 제 1 그룹 및 제 2 그룹에 포함된 CIS 출력 신호와 대응하는 영역이 모션 블러 영역인 것으로 판단할 수 있다. 그러나, 임계값보다 절대값이 작으면, 깊이 영상 획득 장치(1100)는 모션 블러 영역이 없는 것으로 판단할 수 있다.In
단계 1350에서 깊이 영상 획득 장치(1100)의 보정부(1120)는 제 2 원본 영상 내지 제 4 원본 영상에 대응하는 CIS 출력 신호의 세기에 관한 누적 분포 함수를 제 1 영상에 대응하는 CIS 출력 신호의 세기에 관한 누적 분포 함수에 근접하도록 조정할 수 있다. 이때 깊이 영상 획득 장치(1100)의 보정부(1120)는 세기 차이를 보상된 영상들을 생성할 수 있다.In
단계 1360에서 깊이 영상 획득 장치(1100)의 보정부(1120)는 패치매치(PatchMatch) 기법을 이용하여 보상 영상들에서 모션 블러 영역을 보정할 수 있다. 구체적으로 보정부(1120)는 기준 영상(제 1 보상 영상)의 모션 블러 영역을 기초로 하여, 나머지 보상 영상들(제 2 보상 영상 내지 제 4 보상 영상)에 포함된 모션 블러 영역을 패치매칭함으로써, 모션 블러 영역을 보정할 수 있다. 모션 블러 영역을 보정하는 방법은 패치매치 기법 이외에도 여러 영상 편집 기술이 활용될 수 있으나, 이에 제한되지 않는다.In
단계 1370에서 깊이 영상 획득 장치(1100)의 보정부(1120)는 모션 블러 영역이 보정된 3개의 보정 영상들을 생성할 수 있다.In
단계 1380에서 깊이 영상 획득 장치(1100)의 깊이 영상 처리부(1130)는 3개의 보정 영상과 기준 영상을 이용하여, 깊이 영상을 생성할 수 있다. 깊이 영상을 생성하는 방법은 도 12의 단계 1240과 대응되므로, 구체적인 설명은 생략하기로 한다.In
본 실시예들은 컴퓨터에 의해 실행되는 프로그램 모듈과 같은 컴퓨터에 의해 실행 가능한 명령어를 포함하는 기록 매체의 형태로도 구현될 수 있다. 컴퓨터 판독 가능 매체는 컴퓨터에 의해 액세스될 수 있는 임의의 가용 매체일 수 있고, 휘발성 및 비휘발성 매체, 분리형 및 비분리형 매체를 모두 포함한다. 또한, 컴퓨터 판독가능 매체는 컴퓨터 저장 매체 및 통신 매체를 모두 포함할 수 있다. 컴퓨터 저장 매체는 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈 또는 기타 데이터와 같은 정보의 저장을 위한 임의의 방법 또는 기술로 구현된 휘발성 및 비휘발성, 분리형 및 비분리형 매체를 모두 포함한다. 통신 매체는 전형적으로 컴퓨터 판독가능 명령어, 데이터 구조, 또는 프로그램 모듈과 같은 변조된 데이터 신호의 기타 데이터, 또는 기타 전송 메커니즘을 포함하며, 임의의 정보 전달 매체를 포함한다. The present embodiments may also be implemented in the form of a recording medium including instructions executable by a computer, such as a program module executed by a computer. Computer-readable media can be any available media that can be accessed by a computer and includes both volatile and nonvolatile media, removable and non-removable media. In addition, computer-readable media may include both computer storage media and communication media. Computer storage media includes both volatile and nonvolatile, removable and non-removable media implemented in any method or technology for storage of information such as computer readable instructions, data structures, program modules or other data. Communication media typically includes computer readable instructions, data structures, or other data in modulated data signals, such as program modules, or other transport mechanisms, and includes any information delivery media.
본 실시예의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 포함되는 것으로 해석되어야 한다.The scope of the present embodiment is indicated by the claims to be described later rather than the above detailed description, and it should be construed as including all changes or modifications derived from the meaning and scope of the claims and their equivalents.
Claims (20)
피사체를 향하여 복수의 위상들을 갖는 광을 순차적으로 조사하는 단계;
상기 피사체로부터 순차적으로 반사된 상기 광에 기초하여, 상기 복수의 위상들에 대응하는 복수의 원본 영상들을 생성하는 단계;
상기 복수의 원본 영상들 중 하나를 기준 영상으로 설정하고 다른 원본 영상들을 복수의 나머지 영상들로 설정하는 단계;
상기 기준 영상에 대응하는 위상과 상기 복수의 나머지 영상들에 대응하는 위상들 간의 차이에 기초하여, 상기 복수의 나머지 영상들에 대해 상기 기준 영상과 상기 복수의 나머지 영상들 간의 반사광의 세기 차이를 보상함으로써 상기 복수의 나머지 영상들에서 모션 블러 영역을 보정하는 단계; 및
상기 기준 영상과 상기 보정된 모션 블러 영역을 포함하는 상기 보상된 복수의 나머지 영상들에 기초하여 깊이 영상을 생성하는 단계;
를 포함하는 방법.A method of generating a depth image using a Time-of-Flight (ToF) sensor, the method comprising:
sequentially irradiating light having a plurality of phases toward a subject;
generating a plurality of original images corresponding to the plurality of phases based on the light sequentially reflected from the subject;
setting one of the plurality of original images as a reference image and setting other original images as the plurality of remaining images;
Compensating for a difference in intensity of reflected light between the reference image and the plurality of remaining images with respect to the plurality of remaining images based on a difference between the phase corresponding to the reference image and phases corresponding to the plurality of remaining images correcting the motion blur region in the plurality of remaining images by doing so; and
generating a depth image based on the reference image and the plurality of compensated remaining images including the corrected motion blur region;
How to include.
상기 세기 차이를 보상하는 단계는,
상기 기준 영상에 대응되는 반사광의 세기에 관한 누적 분포 함수에 근접하도록 상기 나머지 영상들에 대응되는 반사광의 세기에 관한 누적 분포 함수를 조정하는 단계;
를 포함하는, 방법.The method of claim 1,
Compensating for the intensity difference comprises:
adjusting the cumulative distribution function regarding the intensity of the reflected light corresponding to the remaining images to approximate the cumulative distribution function with respect to the intensity of the reflected light corresponding to the reference image;
A method comprising
상기 모션 블러 영역을 보정하는 단계는,
상기 보상 영상들에서 패치매치(PatchMatch) 기법을 이용하여 상기 모션 블러 영역을 보정하는, 방법. The method of claim 1,
The step of correcting the motion blur region includes:
Compensating for the motion blur region using a patch match (PatchMatch) technique in the compensation images.
상기 조사광들의 초기 위상은 0도, 180도, 90도 및 270도이고,
상기 복수의 원본 영상들은, 상기 0도에 상응하는 제 1 원본 영상, 상기 180도에 상응하는 제 2 원본 영상, 상기 90도에 상응하는 제 3 원본 영상 및 상기 270도에 상응하는 제 4 원본 영상을 포함하는, 방법.The method of claim 1,
The initial phases of the irradiation lights are 0 degrees, 180 degrees, 90 degrees and 270 degrees,
The plurality of original images may include a first original image corresponding to 0 degrees, a second original image corresponding to 180 degrees, a third original image corresponding to 90 degrees, and a fourth original image corresponding to 270 degrees. A method comprising
상기 깊이 영상을 생성하는 단계는,
상기 제 1 원본 영상에 대응하는 반사광과, 상기 제 2 보정 영상 내지 상기 제 4 보정 영상에 대응하는 반사광들을 이용하여 획득된 위상 정보 및 변조 주파수에 기초하여, 깊이 정보를 계산하는 단계;
를 포함하는, 방법.6. The method of claim 5,
The step of generating the depth image comprises:
calculating depth information based on phase information and modulation frequencies obtained using the reflected light corresponding to the first original image and the reflected light corresponding to the second to fourth corrected images;
A method comprising
상기 모션 블러 영역을 감지하는 단계는,
상기 제 1 원본 영상 및 상기 제 2 원본 영상에 대응되는 상기 반사광들의 세기의 합을 의미하는 제 1 그룹과, 상기 제 3 원본 영상 및 상기 제 4 원본 영상에 대응되는 상기 반사광들의 세기의 합을 의미하는 제 2 그룹의 차이가 임계값 이상일 때, 상기 복수의 원본 영상들로부터 상기 모션 블러 영역을 감지하는, 방법.6. The method of claim 5,
The step of detecting the motion blur region comprises:
The first group means the sum of the intensity of the reflected lights corresponding to the first original image and the second original image, and the sum of the intensity of the reflected lights corresponding to the third original image and the fourth original image The method of detecting the motion blur region from the plurality of original images when the difference between the second group is greater than or equal to a threshold value.
상기 복수의 원본 영상들 중 두 원본 영상들을 선택하는 단계;
를 더 포함하고,
상기 두 원본 영상들에 포함된 제 1 영역과 대응되는 상기 반사광의 세기의 차이가 상기 피사체의 움직임에 기인한 것으로 판단되는 경우, 상기 제 1 영역을 상기 모션 블러 영역으로 감지하는, 방법.The method of claim 1,
selecting two original images from among the plurality of original images;
further comprising,
When it is determined that the difference in intensity of the reflected light corresponding to the first area included in the two original images is due to the movement of the subject, detecting the first area as the motion blur area.
상기 모션 블러 영역은 상기 복수의 원본 영상들에서 동일한 영역으로 결정되는, 방법.The method of claim 1,
The method, wherein the motion blur region is determined to be the same region in the plurality of original images.
피사체에 복수의 위상을 가지는 광을 순차적으로 방출하도록 설정된 광원;
상기 피사체로부터 순차적으로 반사된 광을 감지하는, 감지부; 및
상기 피사체로부터 순차적으로 반사된 상기 광에 기초하여 상기 복수의 위상들에 대응하는 복수의 원본 영상들을 생성하고, 상기 복수의 원본 영상들 중 하나를 기준 영상으로 설정하고 다른 원본 영상들을 복수의 나머지 영상들로 설정하고, 상기 기준 영상에 대응하는 위상과 상기 복수의 나머지 영상들에 대응하는 위상들 간의 차이에 기초하여 상기 복수의 나머지 영상들에 대해 상기 기준 영상과 상기 복수의 나머지 영상들 간의 반사광의 세기 차이를 보상함으로써 상기 복수의 나머지 영상들에서 모션 블러 영역을 보정하고, 상기 기준 영상과 상기 보정된 모션 블러 영역을 포함하는 상기 보상된 복수의 나머지 영상들에 기초하여 깊이 영상을 생성하는 처리부;
를 포함하는 장치.In the apparatus for generating a depth image using a ToF sensor,
a light source configured to sequentially emit light having a plurality of phases to a subject;
a sensing unit for detecting the light sequentially reflected from the subject; and
A plurality of original images corresponding to the plurality of phases are generated based on the light sequentially reflected from the subject, one of the plurality of original images is set as a reference image, and the other original images are set as a plurality of remaining images. , and based on a difference between a phase corresponding to the reference image and phases corresponding to the plurality of remaining images, the amount of reflected light between the reference image and the plurality of remaining images for the plurality of remaining images a processing unit for correcting a motion blur region in the plurality of remaining images by compensating for an intensity difference, and generating a depth image based on the reference image and the plurality of compensated remaining images including the corrected motion blur region;
A device comprising a.
상기 처리부는,
상기 기준 영상에 대응되는 반사광의 세기에 관한 누적 분포 함수에 근접하도록 상기 복수의 나머지 영상들에 대응되는 반사광의 세기에 관한 누적 분포 함수를 조정하는, 장치.12. The method of claim 11,
The processing unit,
and adjusting the cumulative distribution function regarding the intensity of the reflected light corresponding to the plurality of remaining images to approximate the cumulative distribution function with respect to the intensity of the reflected light corresponding to the reference image.
상기 처리부는,
상기 보상 영상들에서 패치매치(PatchMatch) 기법을 이용하여 상기 모션 블러 영역을 보정하는, 장치.12. The method of claim 11,
The processing unit,
Compensating for the motion blur region using a patch match (PatchMatch) technique in the compensation images.
상기 피사체로부터 반사된 반사광들의 투과율을 변화시켜서 상기 반사광들의 파형을 변조하는 광 셔터; 및
상기 광 셔터에 의해 변조된 반사광으로 복수의 원본 영상들을 생성하는 촬상부;
를 더 포함하는, 장치.12. The method of claim 11,
an optical shutter modulating a waveform of the reflected lights by changing the transmittance of the reflected lights reflected from the subject; and
an imaging unit generating a plurality of original images with the reflected light modulated by the optical shutter;
Further comprising, the device.
상기 광원 및 상기 광 셔터에 구동 전압들을 인가하는 구동부; 및
상기 구동부 및 상기 촬상부의 동작을 제어하는 제어부;
를 더 포함하는, 장치.15. The method of claim 14,
a driver applying driving voltages to the light source and the optical shutter; and
a control unit controlling operations of the driving unit and the imaging unit;
Further comprising, the device.
상기 제어부는,
상기 초기 위상이 각각 0도, 180도, 90도, 270도인 상기 조사광들이 순서대로 조사되도록 상기 구동부를 제어하고,
상기 복수의 원본 영상들은, 상기 0도에 상응하는 제 1 원본 영상, 상기 180도에 상응하는 제 2 원본 영상, 상기 90도에 상응하는 제 3 원본 영상 및 상기 270도에 상응하는 제 4 원본 영상을 포함하는, 장치.16. The method of claim 15,
The control unit is
controlling the driving unit so that the irradiated lights having the initial phase of 0 degrees, 180 degrees, 90 degrees, and 270 degrees are sequentially irradiated,
The plurality of original images may include a first original image corresponding to 0 degrees, a second original image corresponding to 180 degrees, a third original image corresponding to 90 degrees, and a fourth original image corresponding to 270 degrees. A device comprising a.
상기 처리부는,
상기 제 1 원본 영상에 대응하는 반사광과, 제 2 보정 영상 내지 제 4 보정 영상에 대응하는 반사광들을 이용하여 획득된 위상 정보 및 변조 주파수에 기초하여, 깊이 정보를 계산하는, 장치.17. The method of claim 16,
The processing unit,
and calculating depth information based on phase information and modulation frequencies obtained using reflected light corresponding to the first original image and reflected light corresponding to second to fourth corrected images.
상기 감지부는,
상기 제 1 원본 영상 및 상기 제 2 원본 영상에 대응되는 상기 반사광들의 세기의 합을 의미하는 제 1 그룹과, 상기 제 3 원본 영상 및 상기 제 4 원본 영상에 대응되는 상기 반사광들의 세기의 합을 의미하는 제 2 그룹의 차이가 임계값 이상일 때, 상기 복수의 원본 영상들로부터 상기 모션 블러 영역을 감지하는, 장치.17. The method of claim 16,
The sensing unit,
The first group means the sum of the intensity of the reflected lights corresponding to the first original image and the second original image, and the sum of the intensity of the reflected lights corresponding to the third original image and the fourth original image When the difference between the second group is greater than or equal to a threshold, detecting the motion blur region from the plurality of original images.
상기 감지부는,
상기 복수의 원본 영상들 중 두 원본 영상들을 선택하고,
상기 두 원본 영상들에 포함된 제 1 영역과 대응되는 상기 반사광의 세기의 차이가 상기 피사체의 움직임에 기인한 것으로 판단되는 경우, 상기 제 1 영역을 상기 모션 블러 영역으로 감지하는, 장치.12. The method of claim 11,
The sensing unit,
selecting two original images from among the plurality of original images,
When it is determined that the difference in intensity of the reflected light corresponding to the first area included in the two original images is due to the movement of the subject, detecting the first area as the motion blur area.
상기 모션 블러 영역은 상기 복수의 원본 영상들에서 동일한 영역으로 결정되는, 장치.12. The method of claim 11,
The motion blur region is determined to be the same region in the plurality of original images.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US15/410,127 US10516875B2 (en) | 2016-01-22 | 2017-01-19 | Method and apparatus for obtaining depth image by using time-of-flight sensor |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610044750.8 | 2016-01-22 | ||
CN201610044750.8A CN106997582A (en) | 2016-01-22 | 2016-01-22 | The motion blur removing method and equipment of flight time three-dimension sensor |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20170088259A KR20170088259A (en) | 2017-08-01 |
KR102460659B1 true KR102460659B1 (en) | 2022-10-28 |
Family
ID=59428580
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020160019783A KR102460659B1 (en) | 2016-01-22 | 2016-02-19 | Method and Apparatus FOR obtaining DEPTH IMAGE USING TOf(Time-of-flight) sensor |
Country Status (2)
Country | Link |
---|---|
KR (1) | KR102460659B1 (en) |
CN (1) | CN106997582A (en) |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102560397B1 (en) * | 2018-09-28 | 2023-07-27 | 엘지이노텍 주식회사 | Camera device and depth map extraction method of the same |
CN111580117A (en) * | 2019-02-19 | 2020-08-25 | 光宝电子(广州)有限公司 | Control method of flight time distance measurement sensing system |
KR20200125215A (en) * | 2019-04-26 | 2020-11-04 | 엘지이노텍 주식회사 | Camera module |
CN110109133A (en) * | 2019-05-05 | 2019-08-09 | 武汉市聚芯微电子有限责任公司 | Compensated distance method and distance measuring method based on the flight time |
US11552117B2 (en) | 2019-09-06 | 2023-01-10 | SK Hynix Inc. | Image sensing device |
KR102274033B1 (en) | 2020-03-04 | 2021-07-08 | (주)미래컴퍼니 | Depth image acquisition apparatus reducing motion blur using multi frequency |
CN111798506B (en) * | 2020-06-30 | 2024-07-23 | 上海数迹智能科技有限公司 | Image processing method, terminal and computer readable storage medium |
CN112017609B (en) | 2020-09-03 | 2021-07-23 | Tcl华星光电技术有限公司 | Control method of display panel, display panel and display device |
KR20220081056A (en) | 2020-12-08 | 2022-06-15 | 에스케이하이닉스 주식회사 | Image sensing device and operating method thereof |
CN114881894B (en) * | 2022-07-07 | 2022-09-30 | 武汉市聚芯微电子有限责任公司 | Pixel repairing method, device, equipment and computer storage medium |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20100013928A1 (en) * | 2005-07-20 | 2010-01-21 | Robert Bosch Gmbh | Image recording system |
US20140267631A1 (en) | 2013-03-15 | 2014-09-18 | Occipital, Inc. | Methods for reducing power consumption of a 3d image capture system |
US20150116353A1 (en) * | 2013-10-30 | 2015-04-30 | Morpho, Inc. | Image processing device, image processing method and recording medium |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101567044B (en) * | 2009-05-22 | 2012-08-22 | 北京大学 | Method for detecting quality of human face image |
US8711206B2 (en) * | 2011-01-31 | 2014-04-29 | Microsoft Corporation | Mobile camera localization using depth maps |
US20120194642A1 (en) * | 2011-02-01 | 2012-08-02 | Wen-Nung Lie | Motion picture depth information processing system and method |
CN103181156B (en) * | 2011-07-12 | 2017-09-01 | 三星电子株式会社 | Fuzzy Processing device and method |
KR101995340B1 (en) * | 2013-01-02 | 2019-07-02 | 엘지이노텍 주식회사 | Method for controlling ir source |
US9083960B2 (en) * | 2013-01-30 | 2015-07-14 | Qualcomm Incorporated | Real-time 3D reconstruction with power efficient depth sensor usage |
KR102040152B1 (en) * | 2013-04-08 | 2019-12-05 | 삼성전자주식회사 | An 3D image apparatus and method for generating a depth image in the 3D image apparatus |
CN103871029B (en) * | 2014-01-28 | 2017-06-06 | 西安科技大学 | A kind of image enhaucament and dividing method |
-
2016
- 2016-01-22 CN CN201610044750.8A patent/CN106997582A/en active Pending
- 2016-02-19 KR KR1020160019783A patent/KR102460659B1/en active IP Right Grant
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20100013928A1 (en) * | 2005-07-20 | 2010-01-21 | Robert Bosch Gmbh | Image recording system |
US20140267631A1 (en) | 2013-03-15 | 2014-09-18 | Occipital, Inc. | Methods for reducing power consumption of a 3d image capture system |
US20150116353A1 (en) * | 2013-10-30 | 2015-04-30 | Morpho, Inc. | Image processing device, image processing method and recording medium |
Also Published As
Publication number | Publication date |
---|---|
KR20170088259A (en) | 2017-08-01 |
CN106997582A (en) | 2017-08-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102460659B1 (en) | Method and Apparatus FOR obtaining DEPTH IMAGE USING TOf(Time-of-flight) sensor | |
US10516875B2 (en) | Method and apparatus for obtaining depth image by using time-of-flight sensor | |
KR102040152B1 (en) | An 3D image apparatus and method for generating a depth image in the 3D image apparatus | |
KR101652393B1 (en) | Apparatus and Method for obtaining 3D image | |
KR102618542B1 (en) | ToF (time of flight) capturing apparatus and method for processing image for decreasing blur of depth image thereof | |
US9194953B2 (en) | 3D time-of-light camera and method | |
KR102561099B1 (en) | ToF(time of flight) capturing apparatus and method for reducing of depth distortion caused by multiple reflection thereof | |
US20130222551A1 (en) | Mapping detecting and tracking objects in an arbitrary outdoor scene using active vision | |
KR20130099735A (en) | Method and fusion system of time-of-flight camera and stereo camera for reliable wide range depth acquisition | |
KR102056904B1 (en) | 3D image acquisition apparatus and method of driving the same | |
US20150092017A1 (en) | Method of decreasing noise of a depth image, image processing apparatus and image generating apparatus using thereof | |
KR20120071970A (en) | 3d image acquisition apparatus and method of extractig depth information in the 3d image acquisition apparatus | |
US20210248719A1 (en) | Image processing device and image processing method | |
US20150334372A1 (en) | Method and apparatus for generating depth image | |
CN114930192B (en) | Infrared imaging assembly | |
US20170070726A1 (en) | Method and apparatus for generating a 3-d image | |
JP2014155033A (en) | Exposure setting device, light emission intensity setting device, control method, program, and storage medium | |
KR20120067888A (en) | Apparatus and method for processing stereo image | |
US9217670B2 (en) | Object recognition apparatus using spectrometer and method thereof | |
US10748019B2 (en) | Image processing method and electronic apparatus for foreground image extraction | |
US20190005671A1 (en) | Three-dimensional imaging using frequency domain-based processing | |
JP2020052001A (en) | Depth acquisition device, depth acquisition method, and program | |
KR102389380B1 (en) | Apparatus and method of extracting depth information of the 3D image | |
JP2018073122A (en) | Image processing device and image processing method | |
TWI441062B (en) | Optical touch system and image processing method thereof |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |