JP2015175752A - Distance image generating device, object detecting device, and object detecting method - Google Patents
Distance image generating device, object detecting device, and object detecting method Download PDFInfo
- Publication number
- JP2015175752A JP2015175752A JP2014053092A JP2014053092A JP2015175752A JP 2015175752 A JP2015175752 A JP 2015175752A JP 2014053092 A JP2014053092 A JP 2014053092A JP 2014053092 A JP2014053092 A JP 2014053092A JP 2015175752 A JP2015175752 A JP 2015175752A
- Authority
- JP
- Japan
- Prior art keywords
- distance image
- distance
- filter
- pixel
- value
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims description 29
- 238000001514 detection method Methods 0.000 claims abstract description 78
- 238000004364 calculation method Methods 0.000 claims description 54
- 238000006243 chemical reaction Methods 0.000 claims description 42
- 238000009499 grossing Methods 0.000 claims description 39
- 238000009825 accumulation Methods 0.000 claims description 23
- 238000012937 correction Methods 0.000 claims description 22
- 238000012545 processing Methods 0.000 claims description 19
- 230000002123 temporal effect Effects 0.000 description 17
- 238000003384 imaging method Methods 0.000 description 13
- 238000012935 Averaging Methods 0.000 description 12
- 230000000694 effects Effects 0.000 description 8
- 238000002366 time-of-flight method Methods 0.000 description 5
- 238000010586 diagram Methods 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 230000006870 function Effects 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 230000007423 decrease Effects 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
Landscapes
- Measurement Of Optical Distance (AREA)
- Image Processing (AREA)
- Optical Radar Systems And Details Thereof (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、光飛行時間型距離画像センサを用いた距離画像生成技術に関し、特に、距離値算出技術および物体検出技術に関する。 The present invention relates to a distance image generation technique using a time-of-flight distance image sensor, and more particularly to a distance value calculation technique and an object detection technique.
光飛行型距離画像センサを用いて、撮影対象空間の対象物体の、当該センサからの距離を画素値とする距離画像を生成する距離画像生成装置がある。その中で、光飛行時間型(TOF方式:Time Of Flight方式)距離画像センサは、変調光を出射する光源とそれを受光する受光素子(撮像素子)とからなり、変調光を出射し、画素毎に受光した反射光を元に距離値を算出する。 There is a distance image generation device that generates a distance image having a pixel value of a distance from a target object in an imaging target space using the optical flight distance image sensor. Among them, a time-of-flight type (TOF method: Time Of Flight method) distance image sensor is composed of a light source that emits modulated light and a light receiving element (imaging device) that receives the modulated light, and emits modulated light. The distance value is calculated based on the reflected light received every time.
このような距離画像センサでは、対象物体からの反射光で距離計測を行う。よって、距離画像センサから対象物体までの距離が遠い場合や、対象物体の反射率が低い場合、撮像素子に入射する光も微弱であるため、算出される距離にばらつきが出る。従って、精度のよい距離計測ができない。 In such a distance image sensor, distance measurement is performed using reflected light from a target object. Therefore, when the distance from the distance image sensor to the target object is long, or when the reflectance of the target object is low, the light incident on the image sensor is also weak, and the calculated distance varies. Therefore, accurate distance measurement cannot be performed.
このような場合、ノイズや時間的なばらつきを低減するため、得られた距離画像に空間フィルタや時間フィルタ等を適用し、平滑化を行う。空間フィルタは、対象画素の近傍画素を用いて平滑化を行うものである。また、時間フィルタは、対象画素の、所定の時間から過去にサンプルされた値を用いて平滑化を行うものである。 In such a case, in order to reduce noise and temporal variation, a spatial filter or a temporal filter is applied to the obtained distance image to perform smoothing. The spatial filter performs smoothing using the neighboring pixels of the target pixel. The time filter performs smoothing using values sampled in the past from a predetermined time of the target pixel.
例えば、検出目的の物体(対象物体)の大きさが既知の場合、空間フィルタに関しては、空間フィルタの大きさ(サイズ)が対象物体に対して大きすぎる場合、対象物体とその近傍の背景の距離までが平滑化される。このため、対象物体の正確な距離情報が消失してしまう。逆に、空間フィルタのサイズが対象物体に対して小さすぎる場合は、平滑効果が低くなるため、対象物体の距離値のノイズ低減効果は低くなる。 For example, when the size of the object to be detected (target object) is known, regarding the spatial filter, if the size of the spatial filter is too large for the target object, the distance between the target object and the background in the vicinity thereof Is smoothed. For this reason, the accurate distance information of the target object is lost. On the other hand, when the size of the spatial filter is too small for the target object, the smoothing effect is low, and the noise reduction effect of the distance value of the target object is low.
時間フィルタに関しては、対象物体が移動している場合、過去に遡るサンプル数(サイズ)が多すぎると、フィルタ適用時に対象物体が存在している画素に対象物体が存在していない時間までさかのぼることがあり得る。このような場合、対象物体の距離情報以外を含めて平滑化してしまうこととなり、正確な距離値が得られなくなる。逆に、時間フィルタのサンプル数が少なすぎる場合は、平滑効果が低くなるため、対象物体の距離値のノイズ低減効果が低くなる。 Regarding the time filter, if the target object is moving, if the number of samples going back in the past (size) is too large, the target object will be traced back to the time when the target object does not exist when the filter is applied. There can be. In such a case, smoothing is performed including information other than the distance information of the target object, and an accurate distance value cannot be obtained. On the other hand, when the number of samples of the time filter is too small, the smoothing effect is low, and the noise reduction effect of the distance value of the target object is low.
従って、所望の対象物体の検出に上記距離画像センサを用いる場合、距離画素毎に適用するフィルタの最適なサイズを定めることが重要である。各画素に対し、最適なフィルタサイズを定める技術に、当該画素の輝度値に応じて空間フィルタ、時間フィルタのサイズを決定するものがある(例えば、特許文献1参照)。 Therefore, when the distance image sensor is used for detecting a desired target object, it is important to determine an optimum size of a filter to be applied for each distance pixel. As a technique for determining an optimum filter size for each pixel, there is a technique for determining the size of a spatial filter and a temporal filter according to the luminance value of the pixel (see, for example, Patent Document 1).
特許文献1の技術は、輝度値を画素値とする画像の技術である。距離画像の画素値は距離値であるため、特許文献1の技術を距離画像に適用すると、平滑化対象の画素の距離値に応じて空間フィルタ、時間フィルタサイズが決定されることとなる。すなわち、特許文献1の技術では、対象物体の大きさや移動速度は考慮されずにフィルタのサイズが定まる。従って、対象が距離画像の場合、対象物体より過剰に大きいサイズになったり、過去に過剰に遡った時間フィルタとなったりすることがあり、必ずしも、最適なフィルタ性能が得られない。 The technique of Patent Document 1 is an image technique that uses a luminance value as a pixel value. Since the pixel value of the distance image is a distance value, when the technique of Patent Document 1 is applied to the distance image, the spatial filter and the temporal filter size are determined according to the distance value of the pixel to be smoothed. That is, in the technique of Patent Document 1, the size of the filter is determined without considering the size and moving speed of the target object. Accordingly, when the target is a distance image, the size may be excessively larger than that of the target object, or the time filter may be excessively traced back in the past, and the optimum filter performance is not necessarily obtained.
従って、大きさが既知の物体を、距離画像を用いて検出する場合、特許文献1の技術を適用したとしても、上述のように距離のばらつきの解消や距離値の精度の向上が望めない。このため、その結果、得られた平滑化後の距離画像からは、物体の正確な距離を算出できず、精度よく物体を検出できない。 Therefore, when an object having a known size is detected using a distance image, even if the technique of Patent Document 1 is applied, it is not possible to eliminate the variation in distance and improve the accuracy of the distance value as described above. For this reason, as a result, the accurate distance of the object cannot be calculated from the obtained distance image after smoothing, and the object cannot be detected with high accuracy.
本発明は上記事情に鑑みてなされたもので、光飛行時間型距離画像センサを用いた距離画像生成装置において、大きさが既知の検出対象の物体に関し、高精度な距離値を得、検出の精度を高める技術を提供することを目的とする。 The present invention has been made in view of the above circumstances, and in a distance image generation apparatus using an optical time-of-flight distance image sensor, a highly accurate distance value is obtained and detected with respect to an object to be detected whose size is known. It aims at providing the technology which raises accuracy.
本発明は、光飛行時間型距離画像センサにより算出した計算距離値に基づき、画素毎に、既知の大きさの物体を検出するために適用するフィルタの最適なパラメータを決定する。そして、決定したフィルタを、計算距離値に適用し、平滑化する。平滑化後の距離値を画素値とする距離画像上で、その極小値を検出することにより物体を検出する。なお、パラメータの決定は、計算距離値から背景情報を除去した補正値に基づいて算出してもよい。そして、この場合、フィルタの適用は、補正値を画素値とする補正距離画像であってもよい。 The present invention determines an optimum parameter of a filter to be applied to detect an object of a known size for each pixel based on a calculated distance value calculated by an optical time-of-flight distance image sensor. Then, the determined filter is applied to the calculated distance value and smoothed. The object is detected by detecting the minimum value on the distance image having the smoothed distance value as the pixel value. The parameter may be determined based on a correction value obtained by removing background information from the calculated distance value. In this case, the filter may be applied to a correction distance image having a correction value as a pixel value.
具体的には、対象空間に変調した変調光を照射する光源を備える光源部と、前記光源部から照射され、前記対象空間内の対象物の表面で反射した反射光を含む光を受光して電荷に変換する光電変換素子を複数の画素についてそれぞれ備えるセンサ部と、前記光電変換素子ごとに複数設けられた電荷蓄積部と、前記変調光の変調に同期して、前記光電変換素子により変換された電荷を前記複数の電荷蓄積部に振り分ける電荷振分部と、前記複数の電荷蓄積部に蓄積された蓄積電荷を用いて画素値が距離値である距離画像を生成する距離画像生成部と、を備え、前記距離画像生成部は、前記複数の電荷蓄積部の前記蓄積電荷に演算処理を施して画素毎に計算距離値を得、当該計算距離値を画素値とする計算距離画像を生成する計算距離画像生成部と、前記計算距離画像における前記対象物の計算距離値および予め保持する当該対象物の大きさの情報に応じて、平滑化に用いるフィルタのパラメータを画素毎に決定するフィルタパラメータ決定部と、前記決定したパラメータのフィルタを適用して平滑化した後の値を画素値とする平滑化距離画像を得る平滑化画像生成部と、を備え、前記平滑化距離画像を前記距離画像とすることを特徴とする距離画像生成装置を提供する。 Specifically, a light source unit including a light source that irradiates modulated light modulated into the target space, and light including reflected light that is irradiated from the light source unit and reflected by the surface of the target in the target space is received. Sensor units each including a plurality of photoelectric conversion elements for converting into charges, a plurality of charge storage units provided for each of the photoelectric conversion elements, and the photoelectric conversion elements in synchronization with the modulation of the modulated light. A charge distribution unit that distributes the charged charges to the plurality of charge storage units, a distance image generation unit that generates a distance image whose pixel value is a distance value using the accumulated charges stored in the plurality of charge storage units, The distance image generation unit performs calculation processing on the accumulated charges of the plurality of charge accumulation units to obtain a calculated distance value for each pixel, and generates a calculated distance image using the calculated distance value as a pixel value. Calculation distance image generator A filter parameter determining unit that determines, for each pixel, a parameter of a filter used for smoothing according to information on a calculated distance value of the object in the calculated distance image and a size of the object held in advance; A smoothed image generation unit that obtains a smoothed distance image having a pixel value as a value after being smoothed by applying a filter of the parameter, wherein the smoothed distance image is the distance image. Provided is a distance image generating apparatus.
上記距離画像生成装置と、前記平滑化距離画像を用いて物体の有無を検出する物体検出部と、を備えることを特徴とする物体検出装置を提供する。 An object detection apparatus comprising: the distance image generation apparatus; and an object detection unit that detects the presence or absence of an object using the smoothed distance image.
また、対象空間に変調した変調光を照射する光源部と、前記光源部から照射され、前記対象空間内の対象物の表面で反射した反射光を含む光を受光して電荷に変換する光電変換素子を複数の画素それぞれについて備えるセンサ部と、前記光電変換素子ごとに複数設けられた電荷蓄積部と、前記変調光の変調に同期して、前記光電変換素子により変換された電荷を前記複数の電荷蓄積部に振り分ける電荷振分部と、を備える物体検出装置における物体検出方法であって、前記複数の電荷蓄積部の前記蓄積電荷に演算処理を施して画素毎に計算距離値を得、当該計算距離値を画素値とする計算距離画像を生成する計算距離画像生成ステップと、前記計算距離画像における前記対象物の計算距離値および予め保持する当該対象物の大きさの情報に応じて、平滑化に用いるフィルタのパラメータを画素毎に決定するフィルタパラメータ決定ステップと、前記計算距離画像に前記パラメータのフィルタを適用して平滑化距離画像を得る平滑化ステップと、前記平滑化距離画像を用いて物体の有無を検出する物体検出ステップと、を含むことを特徴とする物体検出方法を提供する。 Also, a light source unit that irradiates modulated light that is modulated into the target space, and photoelectric conversion that receives light including reflected light that is irradiated from the light source unit and reflected from the surface of the target object in the target space and converts the light into charges. A sensor unit having an element for each of a plurality of pixels, a plurality of charge storage units provided for each of the photoelectric conversion elements, and a charge converted by the photoelectric conversion element in synchronization with modulation of the modulated light An object detection method in an object detection device comprising a charge distribution unit that distributes to a charge storage unit, wherein the accumulated charge of the plurality of charge storage units is subjected to arithmetic processing to obtain a calculated distance value for each pixel, A calculation distance image generation step for generating a calculation distance image having the calculation distance value as a pixel value, and a calculation distance value of the object in the calculation distance image and information on the size of the object held in advance; A filter parameter determining step for determining, for each pixel, a filter parameter used for smoothing, a smoothing step for obtaining a smoothed distance image by applying the filter of the parameter to the calculated distance image, and the smoothed distance image And an object detection step of detecting the presence / absence of the object by using an object.
また、対象空間に変調した変調光を照射する光源部と、前記光源部から照射され、前記対象空間内の対象物の表面で反射した反射光を含む光を受光して電荷に変換する光電変換素子を複数の画素それぞれについて備えるセンサ部と、前記光電変換素子ごとに複数設けられた電荷蓄積部と、前記変調光の変調に同期して、前記光電変換素子により変換された電荷を前記複数の電荷蓄積部に振り分ける電荷振分部と、を備える物体検出装置における物体検出方法であって、前記複数の電荷蓄積部の前記蓄積電荷に演算処理を施して画素毎に計算距離値を得、当該計算距離値を画素値とする計算距離画像を生成する計算距離画像生成ステップと、前記計算距離画像から予め保持する参照画像を減算し、補正距離画像を得る補正ステップと、前記補正距離画像の当該対象物の画素値および予め保持する当該対象物の大きさの情報に応じて、平滑化に用いるフィルタのパラメータを画素毎に決定するフィルタパラメータ決定ステップと、前記補正距離画像に前記パラメータのフィルタを適用して平滑化距離画像を得る平滑化ステップと、前記平滑化距離画像を用いて物体の有無を検出する物体検出ステップと、を含むことを特徴とする物体検出方法を提供する。 Also, a light source unit that irradiates modulated light that is modulated into the target space, and photoelectric conversion that receives light including reflected light that is irradiated from the light source unit and reflected from the surface of the target object in the target space and converts the light into charges. A sensor unit having an element for each of a plurality of pixels, a plurality of charge storage units provided for each of the photoelectric conversion elements, and a charge converted by the photoelectric conversion element in synchronization with modulation of the modulated light An object detection method in an object detection device comprising a charge distribution unit that distributes to a charge storage unit, wherein the accumulated charge of the plurality of charge storage units is subjected to arithmetic processing to obtain a calculated distance value for each pixel, A calculation distance image generation step of generating a calculation distance image having a calculation distance value as a pixel value; a correction step of subtracting a reference image held in advance from the calculation distance image to obtain a correction distance image; and the correction A filter parameter determining step for determining, for each pixel, a filter parameter used for smoothing according to the pixel value of the target object of the separated image and the size information of the target object held in advance; There is provided an object detection method comprising: a smoothing step of applying a parameter filter to obtain a smoothed distance image; and an object detecting step of detecting the presence or absence of an object using the smoothed distance image. .
本発明によれば、光飛行時間型距離画像センサを用いた距離画像生成装置において、大きさが既知の検出対象の物体に関し、高精度な距離値を得、検出の精度を高めることができる。 According to the present invention, in a distance image generation apparatus using a time-of-flight distance image sensor, it is possible to obtain a highly accurate distance value for a detection target object whose size is known, and to improve detection accuracy.
<<第一の実施形態>>
以下、本発明の第一の実施形態について説明する。以下、本発明の実施形態を説明するための全図において、同一機能を有するものは同一符号を付し、その繰り返しの説明は省略する。
<< First Embodiment >>
Hereinafter, a first embodiment of the present invention will be described. Hereinafter, in all the drawings for explaining the embodiments of the present invention, those having the same function are denoted by the same reference numerals, and repeated explanation thereof is omitted.
[距離画像生成物体検出装置構成]
まず、本実施形態の、距離画像を生成して物体を検出する、距離画像生成物体検出装置の構成を説明する。図1は、本実施形態の距離画像生成物体検出装置100の機能ブロック図である。
[Distance image generation object detection device configuration]
First, the configuration of a distance image generation object detection apparatus that generates a distance image and detects an object according to the present embodiment will be described. FIG. 1 is a functional block diagram of the distance image generation object detection device 100 of the present embodiment.
本図に示すように、本実施形態の距離画像生成物体検出装置100は、照射される変調光111と入射光112との位相差を用いて距離画像を生成するもので、光源部110と、光電変換部(センサ)120と、電荷振分部130と、制御部140と、電荷蓄積部150と、距離画像生成部170と、物体検出部180と、を備える。 As shown in the figure, the distance image generation object detection device 100 of the present embodiment generates a distance image using the phase difference between the irradiated modulated light 111 and the incident light 112, and includes a light source unit 110, A photoelectric conversion unit (sensor) 120, a charge distribution unit 130, a control unit 140, a charge storage unit 150, a distance image generation unit 170, and an object detection unit 180 are provided.
光源部110は、後述する制御部140の制御に従って、対象空間に変調光(例えば、正弦波もしくは矩形波等で高速に変調させた赤外光もしくは可視光)111を照射する光源を備える。光源には、LED等の高速変調が可能なデバイスが用いられる。 The light source unit 110 includes a light source that irradiates the target space with modulated light (for example, infrared light or visible light modulated at high speed with a sine wave or a rectangular wave) according to control of the control unit 140 described later. A device capable of high-speed modulation such as an LED is used as the light source.
光電変換部(センサ)120は、光源部110の光源から照射された変調光111が対象空間(距離画像生成物体検出装置100の視野)内の対象物(物体)113で反射された反射光を含む光(入射光)112を受光し、電荷に変換する。センサ120は、受光量に応じた電荷に変換する複数の光電変換素子を備える。この光電変換素子が画素を形成する。このため、各光電変換素子は、輝度画像および距離画像の各画素に対応づけて規則的に配列されるこの光電変換部120の前には、レンズが配置されてもよい。 The photoelectric conversion unit (sensor) 120 reflects the reflected light, which is reflected from the object (object) 113 in the target space (the field of view of the distance image generation object detection device 100) of the modulated light 111 emitted from the light source of the light source unit 110. Light (incident light) 112 is received and converted into electric charges. The sensor 120 includes a plurality of photoelectric conversion elements that convert charges according to the amount of received light. This photoelectric conversion element forms a pixel. Therefore, each photoelectric conversion element may be provided with a lens in front of the photoelectric conversion unit 120 that is regularly arranged in association with each pixel of the luminance image and the distance image.
電荷振分部130は、後述する制御部140の制御に従って、センサ120が変換した電荷を後述する電荷蓄積部150に振り分ける。振り分けは、光電変換素子毎に行う。 The charge distribution unit 130 distributes the charge converted by the sensor 120 to the charge storage unit 150 (to be described later) under the control of the control unit 140 (to be described later). The sorting is performed for each photoelectric conversion element.
電荷蓄積部150は、電荷振分部130が振り分けた電荷を蓄積する。距離情報である変調光111と入射光112との位相差は、電荷蓄積部150に蓄積された電荷(蓄積電荷)を用いて算出する。この位相差を算出するためには、少なくとも3つ以上の位相情報(蓄積電荷)が必要である。 The charge storage unit 150 stores the charge distributed by the charge distribution unit 130. The phase difference between the modulated light 111 and the incident light 112, which is distance information, is calculated using the charge (accumulated charge) accumulated in the charge accumulation unit 150. In order to calculate this phase difference, at least three pieces of phase information (accumulated charges) are required.
3つ以上の位相情報の取得は、1つの電荷蓄積部150により実現してもよいし、複数の電荷蓄積部150により実現してもよい。以下、本実施形態では、具体例は、この電荷蓄積部150を4つとして説明する。この4つ1組の電荷蓄積部150が、画素毎に設けられる。 The acquisition of three or more pieces of phase information may be realized by one charge storage unit 150 or may be realized by a plurality of charge storage units 150. Hereinafter, in this embodiment, a specific example will be described assuming that there are four charge storage units 150. This set of four charge storage units 150 is provided for each pixel.
位相情報を取得する1以上の電荷蓄積部150は、画素(光電変換素子)毎に設けられる。このため、以降、本明細書では、各電荷蓄積部150に蓄積された蓄積電荷を画素値とする画像を、蓄積電荷画像と呼ぶ。 One or more charge storage units 150 that acquire phase information are provided for each pixel (photoelectric conversion element). Therefore, hereinafter, in this specification, an image having the accumulated charge accumulated in each charge accumulation unit 150 as a pixel value is referred to as an accumulated charge image.
なお、電荷蓄積部150には、電荷そのものを蓄積してもよいし、この電荷量をAD変換後のデータを蓄積してもよい。以下、本実施形態では、電荷そのものも、AD変換後のデータも、特に区別することなく電荷蓄積部150に蓄積されるものを蓄積電荷と呼ぶ。 The charge storage unit 150 may store the charge itself, or may store data after AD conversion of this charge amount. Hereinafter, in the present embodiment, what is stored in the charge storage unit 150 without distinction between the charge itself and the data after AD conversion is referred to as stored charge.
制御部140は、光源部110と電荷振分部130とを同期制御する。制御は、変調信号とゲート信号とにより行う。 The control unit 140 controls the light source unit 110 and the charge distribution unit 130 in synchronization. Control is performed by the modulation signal and the gate signal.
変調信号は、変調光の変調および出力タイミングを指示する信号であり、光源部110に向けて出力される。光源部110は、変調信号により変調された変調光111を生成し、対象空間に照射する。照射された変調光111は、物体113により反射され、反射光となる。反射光は、入射光112としてセンサ120に入射し、電荷に変換されて電荷振分部130に送られる。 The modulation signal is a signal that instructs modulation and output timing of the modulated light, and is output toward the light source unit 110. The light source unit 110 generates modulated light 111 modulated by the modulation signal and irradiates the target space. The irradiated modulated light 111 is reflected by the object 113 and becomes reflected light. The reflected light enters the sensor 120 as incident light 112, is converted into electric charge, and is sent to the charge distribution unit 130.
ゲート信号は、各電荷蓄積部150への電荷の振り分けを指示する信号で、電荷振分部130に向けて出力される。電荷振分部130は、ゲート信号に応じて各電荷蓄積部150に電荷を振り分ける。 The gate signal is a signal for instructing the charge distribution to each charge storage unit 150 and is output toward the charge distribution unit 130. The charge distribution unit 130 distributes the charge to each charge storage unit 150 according to the gate signal.
制御部140は、光源部110の変調周期に同期し、変調周期と電荷振分部130の個数応じた時間だけずらしたゲート信号を生成する。例えば、変調周期が10MHzで電荷蓄積部が4つであれば、変調周期を4分割した時間(25ns)ずつずらしたタイミングでゲート信号を生成する。これにより、電荷は、ゲート信号に応じて、それぞれの電荷蓄積部150に振り分けられる。 The control unit 140 generates a gate signal that is synchronized with the modulation period of the light source unit 110 and is shifted by a time corresponding to the modulation period and the number of the charge distribution units 130. For example, if the modulation period is 10 MHz and there are four charge storage units, the gate signal is generated at a timing that is shifted by a time (25 ns) obtained by dividing the modulation period into four. As a result, the charge is distributed to each charge storage unit 150 in accordance with the gate signal.
本実施形態の変調信号およびゲート信号の出力タイミングの一例を図2に示す。ここでは、変調信号の1周期Tqを4等分した期間に、それぞれ、4つの電荷蓄積部150に順に電荷を振り分ける場合の、変調信号114およびゲート信号115を示す。 An example of the output timing of the modulation signal and the gate signal of this embodiment is shown in FIG. Here, the modulation signal 114 and the gate signal 115 in the case where charges are sequentially distributed to the four charge storage units 150 in a period obtained by dividing one period Tq of the modulation signal into four equal parts are shown.
また、制御部140は、距離画像生成部170に読出信号を送信し、電荷蓄積部150に蓄積された蓄積電荷を、それぞれ読みださせる。なお、変調光111の変調周波数は数十MHzである。従って、変調の1周期は数十ns程度となる。距離画像を得るためには、数百〜数十万周期の電荷蓄積時間を要する。 In addition, the control unit 140 transmits a read signal to the distance image generation unit 170 to read out the accumulated charges accumulated in the charge accumulation unit 150. Note that the modulation frequency of the modulated light 111 is several tens of MHz. Therefore, one modulation period is about several tens of ns. In order to obtain a distance image, a charge accumulation time of several hundred to several hundred thousand cycles is required.
本実施形態の制御部140は、この電荷蓄積時間Tf毎に、距離画像生成部170が、電荷蓄積部150から蓄積電荷を読み出すよう、読出信号を出力する。電荷蓄積時間Tf間隔毎に得られる1枚の距離画像をフレームと呼ぶ。また、電荷蓄積時間Tfを、1フレーム時間Tfと呼ぶ。 The control unit 140 according to the present embodiment outputs a read signal so that the distance image generation unit 170 reads the accumulated charge from the charge accumulation unit 150 at each charge accumulation time Tf. One distance image obtained at every charge accumulation time Tf interval is called a frame. The charge accumulation time Tf is referred to as 1 frame time Tf.
なお、変調信号114とゲート信号115と読出信号とを合わせて制御信号と呼ぶ。 The modulated signal 114, the gate signal 115, and the readout signal are collectively referred to as a control signal.
距離画像生成部170は、制御部140の読出信号に従って各電荷蓄積部150に蓄積された蓄積電荷を読出し、各蓄積電荷から画素毎に距離値を算出し、算出した距離値を画素値とする距離画像を生成する。距離値は、視野内の、物体113までの距離の値である。算出の詳細は、後述する。 The distance image generation unit 170 reads the accumulated charges accumulated in each charge accumulation unit 150 according to the readout signal of the control unit 140, calculates a distance value for each pixel from each accumulated charge, and uses the calculated distance value as a pixel value. Generate a distance image. The distance value is a value of the distance to the object 113 in the visual field. Details of the calculation will be described later.
物体検出部180は、距離画像生成部170が生成した距離画像上で、大きさが既知の物体113の有無を検出し、その結果を出力する。検出の詳細は後述する。 The object detection unit 180 detects the presence or absence of the object 113 having a known size on the distance image generated by the distance image generation unit 170, and outputs the result. Details of the detection will be described later.
[TOF方式の距離画像生成の原理]
ここで、光飛行時間型(TOF方式)の距離画像生成物体検出装置100における距離画像生成の原理を説明する。図3は、距離画像生成の原理を説明するための図である。
[Principle of TOF type distance image generation]
Here, the principle of distance image generation in the time-of-flight (TOF method) distance image generation object detection device 100 will be described. FIG. 3 is a diagram for explaining the principle of distance image generation.
光源部110から出射される変調光111の強度が本図のような正弦曲線を描くように変化する場合、センサ120への入射光112の強度も同様に正弦曲線を描くよう変化する。このとき、変調光111と入射光112とには、光が対象物まで往復する飛行時間による位相の遅延(位相差φ)が生じる。 When the intensity of the modulated light 111 emitted from the light source unit 110 changes to draw a sinusoidal curve as shown in the figure, the intensity of the incident light 112 to the sensor 120 also changes to draw a sinusoidal curve. At this time, the modulated light 111 and the incident light 112 have a phase delay (phase difference φ) due to the time of flight of the light traveling back and forth to the object.
光の速度cは既知であるため、この位相差φと変調周波数fとを用い、対象物までの計算距離値Dは、以下の式(1)で算出される。
従って、位相差φがわかれば、計算距離値Dは求めることができる。本実施形態では、変調光の1周期Tpを4等分し、それぞれの期間に電荷量を、それぞれ、4つの電荷蓄積部150に蓄積する。 Therefore, if the phase difference φ is known, the calculated distance value D can be obtained. In the present embodiment, one period Tp of the modulated light is divided into four equal parts, and the charge amount is accumulated in the four charge accumulation units 150 in each period.
変調光111と入射光112との位相差φは、変調光111の1周期を4等分した各期間をTq(T1、T2、T3、T4)とし、それぞれの期間に各電荷蓄積部150に蓄積される電荷量をC1、C2、C3、C4とすると、以下の式(2)で表される。
[距離画像生成部]
距離画像生成部170は、上述の電荷蓄積時間Tf間隔で蓄積された各電荷量C1、C2、C3、C4を用い、画素毎に、式(2)に従って位相差φを求める。そして、求めた位相差φを用いて、式(1)に従って、物体113までの計算距離値Dを求める。
[Distance image generator]
The distance image generation unit 170 uses the charge amounts C1, C2, C3, and C4 accumulated at the above-described charge accumulation time Tf interval to obtain the phase difference φ for each pixel according to the equation (2). Then, a calculated distance value D to the object 113 is obtained according to the equation (1) using the obtained phase difference φ.
本実施形態では、距離画像を用いて、特定の物体113を検出することを目的とする。ところが、上述のように、TOF型センサでは、光源部110と物体113との距離、物体113の表面態様などにより、得られる距離値にばらつきが生じる。これを補正し、当該物体113の距離値の精度を高めるため、フィルタ(空間フィルタおよび時間フィルタ)用いて平滑化を行う。 In the present embodiment, an object is to detect a specific object 113 using a distance image. However, as described above, in the TOF type sensor, the obtained distance value varies depending on the distance between the light source unit 110 and the object 113, the surface state of the object 113, and the like. In order to correct this and increase the accuracy of the distance value of the object 113, smoothing is performed using a filter (spatial filter and time filter).
本実施形態の距離画像生成部170は、この平滑化の効果を高め、その結果得られる各画素の距離値の精度を高めるために最適なフィルタサイズを決定する。フィルタサイズの決定は、計算距離値Dを画素値とする計算距離画像を用いて行う。そして、最適なサイズのフィルタを計算距離画像に適用して平滑化し、平滑化後の計算距離画像を出力する。なお、物体113の大きさは、既知とする。 The distance image generation unit 170 of this embodiment determines an optimal filter size in order to enhance the smoothing effect and increase the accuracy of the distance value of each pixel obtained as a result. The filter size is determined using a calculated distance image having the calculated distance value D as a pixel value. Then, the filter having the optimum size is applied to the calculated distance image to be smoothed, and the smoothed calculated distance image is output. It is assumed that the size of the object 113 is known.
上記処理を実現するため、本実施形態の距離画像生成部170は、図1に示すように、計算距離画像生成部171と、フィルタパラメータ決定部172と、平滑化画像生成部173と、を備える。 In order to implement the above processing, the distance image generation unit 170 of the present embodiment includes a calculation distance image generation unit 171, a filter parameter determination unit 172, and a smoothed image generation unit 173, as shown in FIG. .
[計算距離画像生成部]
計算距離画像生成部171は、複数の電荷蓄積部150に蓄積された蓄積電荷に演算処理を施し、画素毎の計算距離値を得、当該計算距離値を画素値とする計算距離画像を生成する。本実施形態では、1フレーム時間Tf毎に、上記式(1)を用いて計算距離値を算出する。
[Calculated distance image generator]
The calculated distance image generation unit 171 performs calculation processing on the accumulated charges accumulated in the plurality of charge accumulation units 150, obtains a calculated distance value for each pixel, and generates a calculated distance image using the calculated distance value as a pixel value. . In the present embodiment, the calculated distance value is calculated for each frame time Tf using the above equation (1).
[フィルタパラメータ決定部]
フィルタパラメータ決定部172は、前記計算距離画像における対象物113の計算距離値および予め保持する対象物113の大きさの情報に応じて、、平滑化に用いるフィルタのパラメータを画素毎に決定する。以下、本明細書では、画像上の物体113を表示する画素数を、占有画素数と呼ぶ。
[Filter parameter determination unit]
The filter parameter determination unit 172 determines a filter parameter for smoothing for each pixel according to the calculated distance value of the object 113 in the calculated distance image and the information on the size of the object 113 held in advance. Hereinafter, in this specification, the number of pixels for displaying the object 113 on the image is referred to as the number of occupied pixels.
本実施形態では、フィルタとして、図4に示す、二次元の空間フィルタ321と一次元の時間フィルタ322とを組み合わせた三次元フィルタを用いる場合を例にあげて説明する。なお、図4には、3×3画素の空間フィルタ321と、3フレームの時間フィルタ322とを組み合わせた三次元フィルタ323を例示する。なお、以下、本明細書では、空間フィルタ321の画素数、時間フィルタ322のフレーム数を、それぞれ、サイズと呼ぶ。 In the present embodiment, a case where a three-dimensional filter combining a two-dimensional spatial filter 321 and a one-dimensional temporal filter 322 shown in FIG. 4 is used as an example will be described. FIG. 4 illustrates a three-dimensional filter 323 in which a 3 × 3 pixel spatial filter 321 and a three-frame temporal filter 322 are combined. In the following description, the number of pixels of the spatial filter 321 and the number of frames of the temporal filter 322 are referred to as sizes.
本実施形態では、空間フィルタ321のパラメータ(サイズ(画素数)および係数)と、時間フィルタ322のパラメータ(サイズ(フレーム数)および係数)とを決定する。フィルタパラメータ決定部172は、それぞれ、まず、サイズを決定し、その後、各係数を決定する。以下、決定手法を説明する。 In the present embodiment, parameters (size (number of pixels) and coefficient) of the spatial filter 321 and parameters (size (number of frames) and coefficient) of the temporal filter 322 are determined. The filter parameter determination unit 172 first determines the size, and then determines each coefficient. Hereinafter, the determination method will be described.
[フィルタパラメータ決定手法]
次に、本実施形態のフィルタパラメータ決定部172による、フィルタパラメータ決定手法の詳細について説明する。
[Filter parameter determination method]
Next, details of a filter parameter determination method by the filter parameter determination unit 172 of the present embodiment will be described.
[空間フィルタ]
まず、距離画像を平滑化する空間フィルタ321の最適なサイズ(画素数)が、物体113が同一であれば、センサ120からの距離によって異なることを説明する。
[Spatial filter]
First, it will be described that the optimum size (number of pixels) of the spatial filter 321 for smoothing the distance image varies depending on the distance from the sensor 120 if the object 113 is the same.
図5(a)および図5(b)は、距離画像生成物体検出装置100を用いて、同一の物体113を、異なる距離において撮像して得た距離画像200aおよび200bである。ここでは、距離画像生成物体検出装置100のセンサ120は、天井から鉛直下向きに設置されているものとする。物体113は直立状態の人間とする。図5(a)および図5(b)には、頭部領域201と肩領域202とが写っている。ここでは、距離が近いものほど白く、遠いものほど黒く表示している。 5A and 5B are distance images 200a and 200b obtained by imaging the same object 113 at different distances using the distance image generation object detection device 100. FIG. Here, it is assumed that the sensor 120 of the distance image generation object detection device 100 is installed vertically downward from the ceiling. The object 113 is an upright person. 5A and 5B show a head region 201 and a shoulder region 202. FIG. Here, the closer the distance, the whiter, and the farther the distance, the black.
距離画像200aと距離画像200bとでは、物体113とセンサ120との距離が異なるため、同一の物体113の画像上の大きさも異なる。すなわち、距離画像では、同一の物体113であっても、センサ120からの距離によって、距離画像上で占める画素数(占有画素数)が異なる。 In the distance image 200a and the distance image 200b, since the distance between the object 113 and the sensor 120 is different, the size of the same object 113 on the image is also different. That is, in the distance image, even for the same object 113, the number of pixels occupied on the distance image (the number of occupied pixels) varies depending on the distance from the sensor 120.
例えば、センサ120の水平画角および垂直画角をそれぞれ全角60度とする。センサ120が備える画素数を128×128画素とし、人間の頭部の大きさを直径15cmと仮定する。物体113がセンサ120から1mの距離にある場合、画像上の頭部領域201は、約217画素の大きさに写る。すなわち、画像上の頭部領域201を表示する画素数は、約217画素である。一方、物体113がセンサ120から2mの距離にある場合、画像上の頭部領域201は、約54画素の大きさに写る。すなわち、画像上の頭部領域201を表示する画素数は、約54画素である。 For example, the horizontal angle of view and the vertical angle of view of the sensor 120 are each set to 60 degrees. Assume that the number of pixels of the sensor 120 is 128 × 128 pixels, and the size of the human head is 15 cm in diameter. When the object 113 is at a distance of 1 m from the sensor 120, the head region 201 on the image appears in a size of about 217 pixels. That is, the number of pixels for displaying the head region 201 on the image is about 217 pixels. On the other hand, when the object 113 is at a distance of 2 m from the sensor 120, the head region 201 on the image appears in a size of about 54 pixels. That is, the number of pixels for displaying the head region 201 on the image is about 54 pixels.
ここで、距離画像200aおよび距離画像200bそれぞれに、200画素のサイズを有する空間フィルタ321を適用するものとする。 Here, it is assumed that a spatial filter 321 having a size of 200 pixels is applied to each of the distance image 200a and the distance image 200b.
図6(a)に示すように、物体113が1mの距離にある場合、頭部領域201は約217画素であるため、空間フィルタ321は頭部領域201より小さくなり、頭部領域201の距離情報の消失なくフィルタ結果が得られる。 As shown in FIG. 6A, when the object 113 is at a distance of 1 m, since the head region 201 is about 217 pixels, the spatial filter 321 is smaller than the head region 201, and the distance of the head region 201 Filter results can be obtained without loss of information.
一方、図6(b)に示すように、物体113が2mの距離にある場合、頭部領域201は約54画素であるため、空間フィルタ321は頭部領域201より大きくなる。従って、頭部領域201とその周囲の領域も含めて平滑化されるため、頭部領域201の距離情報が消失する。 On the other hand, as shown in FIG. 6B, when the object 113 is at a distance of 2 m, the head region 201 is about 54 pixels, so the spatial filter 321 is larger than the head region 201. Therefore, since the head area 201 and the surrounding area are also smoothed, the distance information of the head area 201 disappears.
このように、空間フィルタ321は、距離画像上で物体113と略同等の大きさに設定しないと、ノイズ低減効果が低減したり、近傍の背景までを含めて平滑化し、距離情報を消失させてしまったりする。従って、物体113が距離画像で占める画素数に合致するサイズが最適である。同一の物体113であっても、センサ120からの距離によって距離画像上に表示される画素数が異なるため、適用する空間フィルタ321の最適なサイズは異なる。すなわち、同じ大きさの物体113が対象であれば、距離値が小さいほど、空間フィルタ321の最適なサイズは大きくなる。 Thus, if the spatial filter 321 is not set to a size substantially equal to that of the object 113 on the distance image, the noise reduction effect is reduced, or even the background in the vicinity is smoothed, and the distance information is lost. I'm sorry. Therefore, a size that matches the number of pixels that the object 113 occupies in the distance image is optimal. Even for the same object 113, the optimum size of the applied spatial filter 321 differs because the number of pixels displayed on the distance image differs depending on the distance from the sensor 120. That is, if the object 113 of the same size is the target, the optimum size of the spatial filter 321 increases as the distance value decreases.
本実施形態のフィルタパラメータ決定部172は、まず、計算距離値により、撮影対象とする物体113の、距離画像に占める画素数(占有画素数)を算出する。そして、空間フィルタ321の最適なサイズを決定する。なお、物体113の大きさは既知とする。 First, the filter parameter determination unit 172 of the present embodiment calculates the number of pixels (occupied pixels) in the distance image of the object 113 to be imaged based on the calculated distance value. Then, the optimum size of the spatial filter 321 is determined. It is assumed that the size of the object 113 is known.
距離画像生成物体検出装置100では、受光レンズの画角θや焦点距離Fが既知である。図7は、所定方向の、実際の物体113の長さ(実長)aと計算距離画像上の長さ(占有画素数)pとの関係を示し、実長aから、占有画素数pを算出する手法を説明するための図である。ここでは、計算距離値をDとし、距離画像生成物体検出装置100の焦点距離をFとする。実長aの物体113の、計算距離画像上の占有画素数pは、以下の式(3)で表される。
p=a/((D-F)/F) ・・・(3)
In the distance image generation object detection device 100, the angle of view θ and the focal length F of the light receiving lens are known. FIG. 7 shows the relationship between the length (actual length) a of the actual object 113 in a predetermined direction and the length (occupied pixel number) p on the calculated distance image. From the actual length a, the occupied pixel count p is calculated. It is a figure for demonstrating the method to calculate. Here, the calculated distance value is D, and the focal length of the distance image generation object detection apparatus 100 is F. The number of occupied pixels p on the calculated distance image of the object 113 of the actual length a is expressed by the following formula (3).
p = a / ((D−F) / F) (3)
本実施形態のフィルタパラメータ決定部172は、計算距離値Dと、物体113の、所定方向および当該方向に直交する方向の大きさaと、焦点距離Fとを用い、式(3)に従って、その物体113の両方向の画素数pをそれぞれ算出し、乗算することにより、物体113の、距離画像上での面積(占有画素数)を算出する。 The filter parameter determination unit 172 according to the present embodiment uses the calculated distance value D, the size a of the object 113 in the predetermined direction and the direction orthogonal to the direction, and the focal length F according to the equation (3). By calculating and multiplying the number of pixels p in both directions of the object 113, the area (number of occupied pixels) of the object 113 on the distance image is calculated.
フィルタパラメータ決定部172は、占有画素数から、最適な空間フィルタ321のサイズ(画素数)を決定する。上述のように、本実施形態では、当該占有画素数と略同等の大きさが最適であるため、この大きさ(占有画素数)を、空間フィルタ321のサイズと決定する。そして、サイズ決定後、係数を決定する。 The filter parameter determination unit 172 determines the optimum size (number of pixels) of the spatial filter 321 from the number of occupied pixels. As described above, in this embodiment, the size substantially equal to the number of occupied pixels is optimal, and thus this size (number of occupied pixels) is determined as the size of the spatial filter 321. Then, after determining the size, the coefficient is determined.
空間フィルタ321の種類には、平均化フィルタや重み付けフィルタなどある。本実施形態では、後述するように、空間フィルタ321のサイズ(画素数)や係数を、物体113の距離により可変することが目的であるため、フィルタの種類は問わない。 Examples of the spatial filter 321 include an averaging filter and a weighting filter. In the present embodiment, as will be described later, since the purpose is to vary the size (number of pixels) and the coefficient of the spatial filter 321 depending on the distance of the object 113, the type of filter is not limited.
空間フィルタ321の例を図8(a)〜図8(c)に示す。図8(a)は、3×3画素の平均化フィルタ321aの例であり、図8(b)は、3×3画素の重みづけフィルタ321bの例であり、図8(c)は、5×5画素の平均化フィルタ321cの例である。 An example of the spatial filter 321 is shown in FIGS. FIG. 8A shows an example of a 3 × 3 pixel averaging filter 321a, FIG. 8B shows an example of a 3 × 3 pixel weighting filter 321b, and FIG. It is an example of the averaging filter 321c of x5 pixels.
空間フィルタ321のサイズを決定後、フィルタパラメータ決定部172は、各係数を決定する。平均化フィルタ321a、321cでは、係数は、空間フィルタ321を構成する各画素において同じ値とする。 After determining the size of the spatial filter 321, the filter parameter determination unit 172 determines each coefficient. In the averaging filters 321a and 321c, the coefficient is set to the same value in each pixel constituting the spatial filter 321.
一方重み付けフィルタ321bでは、空間フィルタ321を構成する各画素で、係数が異なる。重み付けフィルタ321bでは、予め定めた規則に従って設定する。このとき、空間フィルタ内で値の重み付けの分布が、空間フィルタ321の大きさによらず一定となるように各空間フィルタ321の値を設定することが望ましい。 On the other hand, the weighting filter 321b has different coefficients for each pixel constituting the spatial filter 321. The weighting filter 321b is set according to a predetermined rule. At this time, it is desirable to set the value of each spatial filter 321 so that the distribution of value weighting in the spatial filter is constant regardless of the size of the spatial filter 321.
例えば、平均化フィルタを用いる場合、図5(a)に示すように、物体113までの計算距離が1mの場合、サイズが5×5画素と決定されるため、各係数は、図8(c)に示すように、それぞれ、1/25とする。一方、図5(b)に示すように、物体113までの計算距離が2mの場合、サイズが3×3画素と決定されるため、各係数は、図8(a)に示すように、それぞれ、1/9とする。 For example, when using an averaging filter, as shown in FIG. 5A, when the calculation distance to the object 113 is 1 m, the size is determined to be 5 × 5 pixels. As shown in FIG. On the other hand, as shown in FIG. 5B, when the calculation distance to the object 113 is 2 m, the size is determined to be 3 × 3 pixels. 1/9.
なお、空間フィルタ321の種類に関しては、距離に応じて、異なる種類の空間フィルタ321を用いるよう構成してもよい。 In addition, regarding the type of the spatial filter 321, different types of spatial filters 321 may be used depending on the distance.
[時間フィルタ]
次に、距離画像を平滑化する時間フィルタ322の最適なサイズ(フレーム数)が、物体113が同一(速度も同一)であれば、センサ120からの距離によって異なることを説明する。
[Time filter]
Next, it will be described that the optimum size (number of frames) of the time filter 322 for smoothing the distance image varies depending on the distance from the sensor 120 if the object 113 is the same (the speed is also the same).
図9(a)、図9(b)、および、図9(c)は、図5(a)と同一環境で、物体113が移動している場合の、時間的に連続する3つのフレームの距離画像210a、210b、210cである。ここでは、物体113は、距離画像の上方から下方に移動している。 9 (a), 9 (b), and 9 (c) show three temporally consecutive frames when the object 113 is moving in the same environment as FIG. 5 (a). Distance images 210a, 210b, and 210c. Here, the object 113 is moving from the upper side to the lower side of the distance image.
例えば、上述の、水平画角および垂直画角が全角60度で画素数128×128画素のセンサ120において、フレームレート30fpsで、水平方向に時速1.0km/hで移動する直径15cmの物体113を撮影すると仮定する。なお、以下において、センサ120と物体113との距離とは、画像中心付近の画素の視野範囲に物体113が来たときの距離とする。 For example, in the above-described sensor 120 having a horizontal field angle and a vertical field angle of 60 degrees and a pixel number of 128 × 128 pixels, the object 113 having a diameter of 15 cm and moving in the horizontal direction at a speed of 1.0 km / h at a frame rate of 30 fps. Assuming that In the following, the distance between the sensor 120 and the object 113 is a distance when the object 113 comes into the field of view of a pixel near the center of the image.
任意の画素(以後、対象画素と呼ぶ)(水平アドレスx、垂直アドレスy)の撮像視野内に物体113が差し掛かり、通り過ぎるまでのフレーム数は、センサ120から物体113までの距離が1mの場合、同フレーム数は、4.25となる。また、同距離が3mの場合、3.76となる。よって、距離が1mの場合は4フレーム、距離が3mの場合は、3フレームが、時間フィルタ322の最適なサイズである。 The number of frames until the object 113 reaches and passes through an imaging field of an arbitrary pixel (hereinafter referred to as a target pixel) (horizontal address x, vertical address y) is 1 m when the distance from the sensor 120 to the object 113 is 1 m. The number of frames is 4.25. Moreover, when the same distance is 3 m, it becomes 3.76. Therefore, the optimal size of the time filter 322 is 4 frames when the distance is 1 m, and 3 frames when the distance is 3 m.
このように、同一の物体113が同一速度で同一方向に移動している場合であっても、物体113の、センサ120からの距離によって、物体113の、距離画像上で占有する画素数が異なるため、それに伴い、最適な時間フィルタ322のフレーム数は異なる。 In this way, even when the same object 113 is moving in the same direction at the same speed, the number of pixels occupied on the distance image of the object 113 differs depending on the distance of the object 113 from the sensor 120. For this reason, the optimal number of frames of the time filter 322 differs accordingly.
センサ120の撮像範囲(撮像視野)は既知であるため、物体113の大きさ、距離、および移動速度とフレームレートとが分かれば、当該物体113が、当該画素の撮像視野内に存在する期間、すなわち、フレーム数を算出できる。 Since the imaging range (imaging field of view) of the sensor 120 is known, if the size, distance, moving speed, and frame rate of the object 113 are known, the period during which the object 113 exists in the imaging field of the pixel, That is, the number of frames can be calculated.
具体的には、任意の画素(以後、対象画素と呼ぶ)(水平アドレスx、垂直アドレスy)の撮像視野内に物体113が差し掛かり、通り過ぎるまでのフレーム数nは、下記の式(4)および式(5)で算出される。
本実施形態のフィルタパラメータ決定部172は、物体113の大きさ、移動速度、および計算距離値と、センサの画角および占有画素数と、フレームレートとを用い、上記式(4)および式(5)に従って、水平方向のフレーム数nHおよび垂直方向のフレーム数nVを算出する。そして、算出したnHおよびnVの、いずれか少ない値を時間フィルタ322の最適サイズ(フレーム数)とする。 The filter parameter determination unit 172 according to the present embodiment uses the size, the moving speed, and the calculated distance value of the object 113, the angle of view of the sensor, the number of occupied pixels, and the frame rate, and the above equations (4) and ( According to 5), the number of horizontal frames nH and the number of vertical frames nV are calculated. The smaller value of the calculated n H and n V is set as the optimum size (number of frames) of the time filter 322.
フィルタパラメータ決定部172は、最適な時間フィルタ322のサイズを決定後、その係数を決定する。 The filter parameter determination unit 172 determines the coefficient after determining the optimum size of the time filter 322.
所定の時間tに取得した距離画像の、所定の画素の画素値をP(t)とし、サイズがnフレームの時間フィルタ322を施す場合、平滑化後の当該画素の画素値P’(t)は、以下の数(6)で表される。
時間フィルタ322の種類には、平均化フィルタや重みづけフィルタなどがある。本実施形態では、後述するように、時間フィルタ322のサイズ(適用フレーム数)を、物体113の大きさ、速度、および物体113までの距離により可変することが目的であり、フィルタの種類は問わない。 Examples of the time filter 322 include an averaging filter and a weighting filter. In the present embodiment, as will be described later, the purpose is to vary the size (number of applied frames) of the time filter 322 according to the size and speed of the object 113 and the distance to the object 113, and the type of filter is not limited. Absent.
空間フィルタ321同様、平均化フィルタは、各フレームの係数が同一な時間フィルタ322である。また、重み付けフィルタは、フレーム毎に異なる係数を付すフィルタである。 Similar to the spatial filter 321, the averaging filter is a temporal filter 322 having the same coefficient for each frame. The weighting filter is a filter that assigns a different coefficient to each frame.
例えば、上記式(6)の時間フィルタ322において、例えば、n=3とすると、(F(t),F(t−1),F(t−2))=(1/3,1/3,1/3)であれば、平均化フィルタであり、(F(t),F(t−1),F(t−2))=(5/9,3/9,1/9)であれば、重みづけフィルタとなる。 For example, in the time filter 322 of the above equation (6), for example, if n = 3, (F (t), F (t−1), F (t−2)) = (1/3, 1/3) , 1/3) is an averaging filter, and (F (t), F (t-1), F (t-2)) = (5/9, 3/9, 1/9). If there is, it becomes a weighting filter.
フィルタパラメータ決定部172は、平均化フィルタであれば、各係数を同一のものとして設定する。一方、重み付けフィルタの場合、予め定めた規則に従って、設定する。このとき、時間フィルタ322内での値の重み付けの分布が、時間フィルタ322のフレーム数によらず一定になるように各時間フィルタ322の値を設定することが望ましい。 The filter parameter determination unit 172 sets each coefficient as the same if it is an averaging filter. On the other hand, in the case of a weighting filter, it is set according to a predetermined rule. At this time, it is desirable to set the value of each time filter 322 so that the distribution of weighting of values in the time filter 322 is constant regardless of the number of frames of the time filter 322.
例えば、平均化フィルタを用いる場合、物体113までの距離が1mの場合、最適なサイズが4フレームと決定される。このため、フィルタ係数は、(F(t),F(t−1),F(t−2),F(t−3))=(1/4,1/4,1/4,1/4)と決定される。一方、物体113までの距離が3mの場合、最適なサイズが3フレームと決定される。従って、フィルタ係数は、(F(t),F(t−1),F(t−2))=(1/3,1/3,1/3)と決定される。 For example, when using an averaging filter, if the distance to the object 113 is 1 m, the optimum size is determined to be 4 frames. Therefore, the filter coefficients are (F (t), F (t-1), F (t-2), F (t-3)) = (1/4, 1/4, 1/4, 1 / 4). On the other hand, when the distance to the object 113 is 3 m, the optimum size is determined as 3 frames. Therefore, the filter coefficient is determined as (F (t), F (t-1), F (t-2)) = (1/3, 1/3, 1/3).
[平滑化画像生成部]
平滑化画像生成部173は、決定したパラメータのフィルタ(空間フィルタ321および時間フィルタ322)を適用し、平滑化後の距離画像を得る。本実施形態では、フィルタを、計算距離値を画素値とする計算距離画像に適用し、平滑化する。距離画像生成部170は、平滑化画像生成部173において平滑化後の計算距離画像を平滑化距離画像として出力する。
[Smoothed image generator]
The smoothed image generation unit 173 applies the determined parameter filters (spatial filter 321 and temporal filter 322) to obtain a smoothed distance image. In the present embodiment, the filter is applied to a calculated distance image having a calculated distance value as a pixel value and smoothed. The distance image generation unit 170 outputs the calculated distance image smoothed by the smoothed image generation unit 173 as a smoothed distance image.
[フィルタ適用例]
図10に、図9(a)、図9(b)、図9(c)の時間的に連続した距離画像210a、210b、210cに、本実施形態のフィルタパラメータ決定部172が決定した最適なパラメータの空間フィルタ321と時間フィルタ322とを施した後の距離画像(平滑化距離画像)220を示す。
[Filter application example]
FIG. 10 shows the optimum time parameters determined by the filter parameter determination unit 172 of the present embodiment for the time-sequential distance images 210a, 210b, and 210c of FIGS. 9A, 9B, and 9C. A distance image (smoothed distance image) 220 after applying the parameter spatial filter 321 and the time filter 322 is shown.
一般に、空間フィルタ321を適用し、平滑化することで、領域のエッジ部の距離が、周囲の領域の距離値と混ざり合い、ボケたような画像となる。さらに、時間フィルタ322を施すことで、物体の移動方向に尾を引いたような画像となる。しかし、本実施形態では、これら空間フィルタ321と時間フィルタ322のパラメータを、上記に述べたような物体113の大きさ、距離、速度に応じた値とし、画素毎に異なる値とする。 In general, by applying the spatial filter 321 and smoothing, the distance between the edge portions of the region is mixed with the distance value of the surrounding region, resulting in a blurred image. Furthermore, by applying the time filter 322, an image having a tail in the moving direction of the object is obtained. However, in the present embodiment, the parameters of the spatial filter 321 and the temporal filter 322 are set to values corresponding to the size, distance, and speed of the object 113 as described above, and are set to different values for each pixel.
これにより、例えば、頭部領域201の中央部の画素は、頭部領域201内の画素のみを用いて平滑化される。従って、床など、頭部領域201以外の領域の距離の影響を受けずに平滑化でき、平滑化の効果を最大限得ることができる。すなわち、フィルタ効果により距離のバラつきが減少する。よって、物体113の距離を精度よく取得することが可能となる。 Thereby, for example, the central pixel of the head region 201 is smoothed using only the pixels in the head region 201. Accordingly, smoothing can be performed without being affected by the distance of the region other than the head region 201 such as the floor, and the smoothing effect can be obtained to the maximum. That is, the variation in distance is reduced by the filter effect. Therefore, the distance of the object 113 can be acquired with high accuracy.
[物体検出部]
次に、物体検出部180について説明する。物体検出部180は、平滑化距離画像220上で、大きさが既知の物体113を検出する。
[Object detection unit]
Next, the object detection unit 180 will be described. The object detection unit 180 detects the object 113 having a known size on the smoothed distance image 220.
空間フィルタ321および時間フィルタ322を施した平滑化距離画像220は、図10に示すように、物体113の形状を正確に表した画像ではない。しかし、本実施形態では、上述のように、計算距離値に応じて、すなわち、平滑化距離画像220上の、物体113が占める画素数に応じて、最適なパラメータを有する空間フィルタ321および時間フィルタ322を適用している。このため、特に物体113の中心部において、精度の良い距離値が得られる。従って、本実施形態の、物体検出部180では、この領域の距離値を物体の正確な距離値とし、物体を検出する。 The smoothed distance image 220 subjected to the spatial filter 321 and the time filter 322 is not an image that accurately represents the shape of the object 113 as shown in FIG. However, in the present embodiment, as described above, according to the calculated distance value, that is, according to the number of pixels occupied by the object 113 on the smoothed distance image 220, the spatial filter 321 and the temporal filter having optimum parameters. 322 is applied. For this reason, an accurate distance value can be obtained particularly in the center of the object 113. Therefore, the object detection unit 180 according to the present embodiment detects the object using the distance value of this region as the accurate distance value of the object.
具体的には、物体検出部180は、平滑化距離画像220上の極値の有無で、物体113の有無を判別する。すなわち、極値を検出し、極値があれば、物体113有りと判別する。また、物体113有りと判別した場合、その極値を取る画素の距離値を、物体113の距離値とする。 Specifically, the object detection unit 180 determines the presence or absence of the object 113 based on the presence or absence of extreme values on the smoothed distance image 220. That is, an extreme value is detected, and if there is an extreme value, it is determined that the object 113 is present. When it is determined that the object 113 is present, the distance value of the pixel taking the extreme value is set as the distance value of the object 113.
図10の例では、センサ120と背景との距離よりも、センサ120と物体113との距離の方が近くなるため、物体検出部180は、平滑化距離画像220上の極小値(極近値)の有無で物体検出とする。また、その極小値の距離値を、物体113の距離値とする。 In the example of FIG. 10, since the distance between the sensor 120 and the object 113 is closer than the distance between the sensor 120 and the background, the object detection unit 180 has a minimum value (local value) on the smoothed distance image 220. ) To detect an object. Further, the distance value of the minimum value is set as the distance value of the object 113.
なお、物体113の正確な形状を取得する場合は、物体検出部180で物体113と検出された画素、すなわち、極小値を有する画素の距離値と類似した距離値を持つ画素を、フィルタ適用前の距離画像から抽出する。抽出する画素は、例えば、予め閾値を決定しておき、極小値との差が当該閾値以内の画素とする。 In addition, when acquiring the exact shape of the object 113, the pixel detected with the object 113 by the object detection unit 180, that is, the pixel having a distance value similar to the distance value of the pixel having the minimum value, is applied before the filter is applied. Extract from the distance image. For the pixel to be extracted, for example, a threshold value is determined in advance, and the difference from the minimum value is a pixel within the threshold value.
これにより、エッジが鮮明な物体の形状を正確に取得することができる。 Thereby, the shape of an object with a clear edge can be acquired accurately.
本実施形態の距離画像生成部170による距離画像生成処理および物体検出処理の流れを図11に示す。 FIG. 11 shows the flow of distance image generation processing and object detection processing by the distance image generation unit 170 of the present embodiment.
本図に示すように、本実施形態の距離画像生成部170は、各電荷蓄積部150に蓄積された蓄積電荷(C1,C2,C3,C4)をそれぞれ画素値とする、蓄積電荷画像を、電荷蓄積部150毎に生成する(ステップS1101)。ここでは、4枚の蓄積電荷画像が生成される。 As shown in the figure, the distance image generation unit 170 according to the present embodiment generates an accumulated charge image with the accumulated charges (C1, C2, C3, C4) accumulated in the charge accumulation units 150 as pixel values, respectively. It is generated for each charge storage unit 150 (step S1101). Here, four stored charge images are generated.
距離画像生成部170は、蓄積電荷C1による蓄積電荷画像を第一の蓄積電荷画像IC1、蓄積電荷C2による蓄積電荷画像を第二の蓄積電荷画像IC2、蓄積電荷C3による蓄積電荷画像を第三の蓄積電荷画像IC3、蓄積された蓄積電荷C4による蓄積電荷画像を第四の蓄積電荷画像IC4とすると、上記式(2)に従って、第一の蓄積電荷画像IC1と第三の蓄積電荷画像IC3との差分蓄積電荷画像DI1と、第二の蓄積電荷画像IC2と第四の蓄積電荷画像IC4との差分蓄積電荷画像DI2とを算出する(ステップS1102、S1103)。 The distance image generation unit 170 converts the accumulated charge image by the accumulated charge C1 into the first accumulated charge image IC1, the accumulated charge image by the accumulated charge C2 as the second accumulated charge image IC2, and the accumulated charge image by the accumulated charge C3 as the third accumulated image. Assuming that the accumulated charge image IC3 and the accumulated charge image by the accumulated charge C4 are the fourth accumulated charge image IC4, the first accumulated charge image IC1 and the third accumulated charge image IC3 according to the above equation (2). The difference accumulated charge image DI1 and the difference accumulated charge image DI2 between the second accumulated charge image IC2 and the fourth accumulated charge image IC4 are calculated (steps S1102 and S1103).
その後、計算距離画像生成部171は、差分蓄積電荷画像DI1、DI2の各画素値を用いて、式(2)および式(1)に従って計算距離値を算出し、計算距離画像DDを算出する(ステップS1104)。 Thereafter, the calculated distance image generation unit 171 calculates the calculated distance value according to the equations (2) and (1) using the pixel values of the difference accumulated charge images DI1 and DI2, and calculates the calculated distance image DD ( Step S1104).
そして、フィルタパラメータ決定部172は、各画素の距離値から、空間フィルタ321および時間フィルタ322のパラメータを決定する(ステップS1105)。 Then, the filter parameter determination unit 172 determines the parameters of the spatial filter 321 and the temporal filter 322 from the distance value of each pixel (step S1105).
そして、平滑化画像生成部173は、決定したパラメータの空間フィルタ321および時間フィルタ322を、ステップS1104で算出した計算距離画像DDにそれぞれ適用し、平滑化距離画像FDDを得る(ステップS1106)。 Then, the smoothed image generation unit 173 applies the determined spatial filter 321 and temporal filter 322 to the calculated distance image DD calculated in step S1104 to obtain a smoothed distance image FDD (step S1106).
そして、物体検出部180は、平滑化距離画像FDD上で、上記演算により物体113を検出する(ステップS1107)。 Then, the object detection unit 180 detects the object 113 by the above calculation on the smoothed distance image FDD (step S1107).
なお、本実施形態の距離画像生成物体検出装置100は、CPUと、メモリと、記憶装置とを備える。電荷振分部130、制御部140、距離画像生成部170、および物体検出部180は、CPUが、予め記憶装置に格納されたプログラムを、メモリにロードして実行することにより実現される。 Note that the distance image generation object detection device 100 of the present embodiment includes a CPU, a memory, and a storage device. The charge distribution unit 130, the control unit 140, the distance image generation unit 170, and the object detection unit 180 are realized by a CPU loading a program stored in a storage device in advance into a memory and executing the program.
また、本実施形態の距離画像生成物体検出装置100は、物体検出部180が独立して構成されていてもよい。すなわち、光源部110と、光電変換部(センサ)120と、電荷振分部130と、制御部140と、電荷蓄積部150と、距離画像生成部170と、を備える距離画像生成装置と、物体検出部180を備える物体検出装置と、別箇独立の構成であってもよい。この場合、距離画像生成部170と物体検出部180とは、相互にデータを送受信可能な構成とする。 In the distance image generation object detection device 100 of the present embodiment, the object detection unit 180 may be configured independently. That is, a distance image generation device including a light source unit 110, a photoelectric conversion unit (sensor) 120, a charge distribution unit 130, a control unit 140, a charge storage unit 150, and a distance image generation unit 170, and an object A configuration independent of the object detection device including the detection unit 180 may be used. In this case, the distance image generation unit 170 and the object detection unit 180 are configured to be able to transmit / receive data to / from each other.
以上説明したように、本実施形態の距離画像生成装置は、対象空間に変調した変調光を照射する光源を備える光源部110と、前記光源部110から照射され、前記対象空間内の対象物113の表面で反射した反射光を含む光を受光して電荷に変換する光電変換素子を複数の画素についてそれぞれ備えるセンサ部120と、前記光電変換素子ごとに複数設けられた電荷蓄積部150と、前記変調光の変調に同期して、前記光電変換素子により変換された電荷を前記複数の電荷蓄積部に振り分ける電荷振分部130と、前記複数の電荷蓄積部150に蓄積された蓄積電荷を用いて画素値が距離値である距離画像を生成する距離画像生成部170と、を備え、前記距離画像生成部170は、前記複数の電荷蓄積部150の前記蓄積電荷に演算処理を施して画素毎に計算距離値を得、当該計算距離値を画素値とする計算距離画像を生成する計算距離画像生成部171と、前記計算距離画像における前記対象物113の計算距離値および予め保持する当該対象物113の大きさの情報に応じて、平滑化に用いるフィルタのパラメータを画素毎に決定するフィルタパラメータ決定部172と、前記決定したパラメータのフィルタを適用して平滑化した後の値を画素値とする平滑化距離画像を得る平滑化画像生成部173と、を備え、前記平滑化距離画像を前記距離画像とする。そして、前記平滑化画像生成部173は、前記計算距離画像に前記フィルタを適用する。 As described above, the distance image generating apparatus according to the present embodiment includes the light source unit 110 including the light source that irradiates the modulated light in the target space, and the target object 113 in the target space that is irradiated from the light source unit 110. A sensor unit 120 that includes a plurality of pixels, each of which includes photoelectric conversion elements that receive light including reflected light reflected by the surface of the light and converts the light into charges; a charge storage unit 150 that is provided for each of the photoelectric conversion elements; In synchronization with the modulation of the modulated light, the charge distribution unit 130 that distributes the charges converted by the photoelectric conversion element to the plurality of charge storage units, and the accumulated charges stored in the plurality of charge storage units 150 are used. A distance image generation unit 170 that generates a distance image whose pixel value is a distance value, and the distance image generation unit 170 performs arithmetic processing on the accumulated charges of the plurality of charge accumulation units 150. To obtain a calculated distance value for each pixel and generate a calculated distance image having the calculated distance value as a pixel value, a calculated distance value of the object 113 in the calculated distance image, and pre-stored A filter parameter determining unit 172 that determines, for each pixel, a filter parameter used for smoothing according to information on the size of the target object 113, and a value after smoothing by applying the filter of the determined parameter. And a smoothed image generation unit 173 that obtains a smoothed distance image having a pixel value as the pixel value, and the smoothed distance image is the distance image. Then, the smoothed image generation unit 173 applies the filter to the calculated distance image.
このように、本実施形態によれば、計算で得た距離値に応じて、各画素に最適なフィルタパラメータを決定する。そして、そのパラメータのフィルタを、計算距離画像に適用し、平滑化後の距離画像を得る。本実施形態では、距離画像上の、検出対象の物体113が占める画素数に応じて最適なパラメータを有するフィルタを適用して距離画像を補正しているため、補正後の距離画像は、ノイズやばらつきの低減された、物体検出に最適な距離画像となる。 Thus, according to the present embodiment, the optimum filter parameter for each pixel is determined according to the distance value obtained by calculation. The parameter filter is applied to the calculated distance image to obtain a smoothed distance image. In the present embodiment, the distance image is corrected by applying a filter having an optimum parameter according to the number of pixels occupied by the detection target object 113 on the distance image. The range image is optimal for object detection with reduced variation.
従って、本実施形態によれば、このような距離画像上で物体113を検出するため、タイムオブフライト方式の距離画像センサを用い、高い精度で物体113を検出できる。 Therefore, according to the present embodiment, since the object 113 is detected on such a distance image, the object 113 can be detected with high accuracy using a time-of-flight distance image sensor.
<<第二の実施形態>>
次に、本発明の第二の実施形態を説明する。第一の実施形態では、計算距離画像に基づいて、既知の物体113を検出するために最適なフィルタパラメータを決定している。本実施形態では、計算距離画像から、背景等の情報を除いた補正距離画像を用い、フィルタパラメータを決定する。
<< Second Embodiment >>
Next, a second embodiment of the present invention will be described. In the first embodiment, the optimum filter parameter for detecting the known object 113 is determined based on the calculated distance image. In this embodiment, a filter parameter is determined using a corrected distance image obtained by removing information such as the background from the calculated distance image.
各部の説明に先立ち、本実施形態の概要を説明する。本実施形態では、背景等の情報のみを参照画像として保持しておき、撮像により得た計算距離画像から、参照画像を差し引き、背景を除いた補正距離画像を得る。そして、補正距離画像を用いてフィルタのパラメータを決定し、平滑化を行い、物体を検出する。 Prior to description of each part, an outline of the present embodiment will be described. In the present embodiment, only information such as the background is stored as a reference image, and the reference image is subtracted from the calculated distance image obtained by imaging to obtain a corrected distance image excluding the background. Then, filter parameters are determined using the corrected distance image, smoothed, and an object is detected.
図12(a)は、参照画像400の一例である。これは、所定の部屋内を撮像視野とし、背景である床領域に凹凸部116がある場合の参照画像400である。また、図12(b)は、凹凸部116のある背景環境に物体113が入った場合の計算距離画像410の例である。また、図12(c)は、計算距離画像410から参照画像400を差し引いた画像(補正距離画像と呼ぶ)420である。 FIG. 12A is an example of the reference image 400. This is a reference image 400 when the inside of a predetermined room is an imaging visual field and the uneven portion 116 is present in the floor area as the background. FIG. 12B is an example of the calculated distance image 410 when the object 113 enters the background environment having the uneven portion 116. FIG. 12C shows an image 420 (referred to as a corrected distance image) obtained by subtracting the reference image 400 from the calculated distance image 410.
たとえ最適なフィルタを適用したとしても、計算距離画像410を平滑化した画像で物体の検出を行うと、物体検出部180は、物体113と凹凸部116との両方を物体と検出する可能性がある。 Even if an optimal filter is applied, if an object is detected with an image obtained by smoothing the calculated distance image 410, the object detection unit 180 may detect both the object 113 and the concavo-convex part 116 as objects. is there.
背景情報は既知である。そこで、本実施形態では、予め物体113がない状態で撮影を行うことにより、背景情報である参照画像400を得る。そして、計算距離画像生成部171が計算距離値を算出して計算距離画像410を得る毎に、参照画像400との差分を取り、補正距離画像420を得る。 Background information is known. Therefore, in the present embodiment, the reference image 400 that is background information is obtained by performing shooting in the absence of the object 113 in advance. Then, every time the calculated distance image generation unit 171 calculates the calculated distance value and obtains the calculated distance image 410, the difference from the reference image 400 is taken to obtain the corrected distance image 420.
補正距離画像420は、図12(c)に示すように、背景情報の凹凸部116を排除したものとなる。本実施形態では、以降の、フィルタサイズ決定処理、平滑化処理にこの背景情報を排除した補正距離画像420を用いることにより、より物体113の検出しやすい距離画像を得る。 As shown in FIG. 12C, the correction distance image 420 is obtained by removing the uneven portion 116 of the background information. In the present embodiment, a distance image in which the object 113 can be detected more easily is obtained by using the corrected distance image 420 excluding this background information in the subsequent filter size determination processing and smoothing processing.
本実施形態の距離画像生成物体検出装置100aの構成は、基本的に第一の実施形態と同様である。ただし、上述のように、本実施形態では、フィルタパラメータの決定、平滑化処理に、計算距離画像から背景等の情報を除いた補正距離画像を用いる。このため、図13に示すように、本実施形態の距離画像生成部170aは、参照画像格納部174と、補正距離画像生成部175と、をさらに備える。また、フィルタパラメータ決定部172および平滑化画像生成部173の機能も多少異なる。 The configuration of the distance image generation object detection device 100a of this embodiment is basically the same as that of the first embodiment. However, as described above, in this embodiment, a corrected distance image obtained by removing information such as the background from the calculated distance image is used for the determination of the filter parameter and the smoothing process. For this reason, as shown in FIG. 13, the distance image generation unit 170 a of this embodiment further includes a reference image storage unit 174 and a corrected distance image generation unit 175. Also, the functions of the filter parameter determination unit 172 and the smoothed image generation unit 173 are slightly different.
[参照画像格納部]
参照画像格納部174は、距離画像生成物体検出装置100の撮像視野の背景情報を、参照画像400として格納しておく。背景情報は、上述のように、距離画像生成物体検出装置100が検出対象とする物体113以外の、撮像視野内の距離画像である。なお、参照画像は、予め、物体113が存在しない状態で撮像し、格納しておく。
[Reference image storage]
The reference image storage unit 174 stores background information of the imaging field of view of the distance image generation object detection device 100 as a reference image 400. As described above, the background information is a distance image in the imaging field of view other than the object 113 to be detected by the distance image generation object detection device 100. The reference image is captured and stored in advance in the absence of the object 113.
本実施形態では、参照画像格納部174は、距離画像生成物体検出装置100aが備える記憶装置、メモリ等に構築される。 In the present embodiment, the reference image storage unit 174 is constructed in a storage device, a memory, or the like included in the distance image generation object detection device 100a.
補正距離画像生成部175は、計算距離画像生成部171が生成した計算距離画像410から、参照画像400を減算し、補正距離画像420を得る。補正距離画像420は、計算距離画像410から背景情報を除いた画像である。 The corrected distance image generation unit 175 subtracts the reference image 400 from the calculated distance image 410 generated by the calculated distance image generation unit 171 to obtain a corrected distance image 420. The corrected distance image 420 is an image obtained by removing background information from the calculated distance image 410.
フィルタパラメータ決定部172は、計算距離画像410ではなく、補正距離画像420の各画素値である補正距離値および物体113の大きさの情報に応じて、平滑化に用いるフィルタのパラメータを画素毎に決定する。なお、用いるフィルタの種類、パラメータの決定手法は第一の実施形態と同様である。 The filter parameter determination unit 172 sets the parameters of the filter used for smoothing for each pixel according to the correction distance value, which is each pixel value of the correction distance image 420, and the size of the object 113, instead of the calculation distance image 410. decide. The type of filter to be used and the method for determining parameters are the same as in the first embodiment.
平滑化画像生成部173は、決定したパラメータのフィルタ(空間フィルタ321および時間フィルタ322)を適用し、平滑化後の距離画像を得る。本実施形態では、フィルタを、計算距離画像410ではなく、補正距離画像420に適用し、平滑化する。距離画像生成部170は、平滑化画像生成部173において平滑化後の補正距離画像を、平滑化距離画像として出力する。 The smoothed image generation unit 173 applies the determined parameter filters (spatial filter 321 and temporal filter 322) to obtain a smoothed distance image. In the present embodiment, the filter is applied to the corrected distance image 420 instead of the calculated distance image 410 and smoothed. The distance image generation unit 170 outputs the corrected distance image smoothed by the smoothed image generation unit 173 as a smoothed distance image.
物体検出部180の処理も第一の実施形態と同様である。ただし、本実施形態の物体検出部180が物体を検出する際に用いる平滑化距離画像は、上述のように、背景情報が除かれた補正距離画像420平滑化したものである。 The processing of the object detection unit 180 is the same as in the first embodiment. However, the smoothed distance image used when the object detection unit 180 of the present embodiment detects an object is a smoothed corrected distance image 420 from which background information is removed as described above.
本実施形態の距離画像生成部170aによる距離画像生成処理および物体検出処理の流れを図14に示す。 FIG. 14 shows the flow of distance image generation processing and object detection processing by the distance image generation unit 170a of the present embodiment.
本図に示すように、本実施形態の距離画像生成部170aは、各電荷蓄積部150に蓄積された蓄積電荷(C1,C2,C3,C4)をそれぞれ画素値とする、蓄積電荷画像を、電荷蓄積部150毎に生成する(ステップS2101)。ここでは、4枚の蓄積電荷画像が生成される。 As shown in the figure, the distance image generation unit 170a of the present embodiment generates an accumulated charge image with the accumulated charges (C1, C2, C3, C4) accumulated in the charge accumulation units 150 as pixel values, respectively. It is generated for each charge storage unit 150 (step S2101). Here, four stored charge images are generated.
距離画像生成部170aは、蓄積電荷C1による蓄積電荷画像を第一の蓄積電荷画像IC1、蓄積電荷C2による蓄積電荷画像を第二の蓄積電荷画像IC2、蓄積電荷C3による蓄積電荷画像を第三の蓄積電荷画像IC3、蓄積された蓄積電荷C4による蓄積電荷画像を第四の蓄積電荷画像IC4とすると、上記式(2)に従って、第一の蓄積電荷画像IC1と第三の蓄積電荷画像IC3との差分蓄積電荷画像DI1と、第二の蓄積電荷画像IC2と第四の蓄積電荷画像IC4との差分蓄積電荷画像DI2とを算出する(ステップS2102、S2103)。 The distance image generation unit 170a converts the accumulated charge image by the accumulated charge C1 into the first accumulated charge image IC1, the accumulated charge image by the accumulated charge C2 as the second accumulated charge image IC2, and the accumulated charge image by the accumulated charge C3 as the third accumulated image. Assuming that the accumulated charge image IC3 and the accumulated charge image by the accumulated charge C4 are the fourth accumulated charge image IC4, the first accumulated charge image IC1 and the third accumulated charge image IC3 according to the above equation (2). The difference accumulated charge image DI1, and the difference accumulated charge image DI2 between the second accumulated charge image IC2 and the fourth accumulated charge image IC4 are calculated (steps S2102 and S2103).
その後、計算距離画像生成部171は、差分蓄積電荷画像DI1、DI2の各画素値を用いて、式(2)および式(1)から、計算距離画像DDを算出する(ステップS2104)。 Thereafter, the calculated distance image generation unit 171 calculates the calculated distance image DD from the expressions (2) and (1) using the pixel values of the difference accumulated charge images DI1 and DI2 (step S2104).
次に、補正距離画像生成部175は、計算距離画像DDから、参照画像REFを減算し、補正距離画像(CDD)を得る(ステップS2105)。 Next, the corrected distance image generation unit 175 subtracts the reference image REF from the calculated distance image DD to obtain a corrected distance image (CDD) (step S2105).
そして、フィルタパラメータ決定部172は、補正距離画像の各画素値から、空間フィルタ321および時間フィルタ322のパラメータを決定する(ステップS2106)。 Then, the filter parameter determination unit 172 determines parameters of the spatial filter 321 and the temporal filter 322 from each pixel value of the corrected distance image (step S2106).
そして、平滑化画像生成部173は、決定したパラメータの空間フィルタ321および時間フィルタ322を、ステップS2105で算出した補正距離画像CDDにそれぞれ適用し(ステップS2107)、平滑化距離画像FDDを得る。 Then, the smoothed image generating unit 173 applies the determined spatial filter 321 and temporal filter 322 to the corrected distance image CDD calculated in step S2105 (step S2107) to obtain a smoothed distance image FDD.
そして、物体検出部180は、平滑化距離画像FDD上で、上記演算により物体113を検出する(ステップS2108)。 Then, the object detection unit 180 detects the object 113 by the above calculation on the smoothed distance image FDD (step S2108).
なお、本実施形態の距離画像生成物体検出装置100aも、CPUと、メモリと、記憶装置とを備える。電荷振分部130、制御部140、距離画像生成部170a、および物体検出部180は、CPUが、予め記憶装置に格納されたプログラムを、メモリにロードして実行することにより実現される。 Note that the distance image generation object detection device 100a of the present embodiment also includes a CPU, a memory, and a storage device. The charge distribution unit 130, the control unit 140, the distance image generation unit 170a, and the object detection unit 180 are realized by the CPU loading a program stored in advance in the storage device and executing it.
また、本実施形態の距離画像生成物体検出装置100aも、物体検出部180が独立して構成されていてもよい。すなわち、光源部110と、光電変換部(センサ)120と、電荷振分部130と、制御部140と、電荷蓄積部150と、距離画像生成部170と、を備える距離画像生成装置と、物体検出部180を備える物体検出装置と、別箇独立の構成であってもよい。この場合、距離画像生成部170と物体検出部180とは、相互にデータを送受信可能な構成とする。 In the distance image generation object detection device 100a of this embodiment, the object detection unit 180 may be configured independently. That is, a distance image generation device including a light source unit 110, a photoelectric conversion unit (sensor) 120, a charge distribution unit 130, a control unit 140, a charge storage unit 150, and a distance image generation unit 170, and an object A configuration independent of the object detection device including the detection unit 180 may be used. In this case, the distance image generation unit 170 and the object detection unit 180 are configured to be able to transmit / receive data to / from each other.
以上説明したように、本実施形態の距離画像生成物体検出装置100aは、対象空間に変調した変調光を照射する光源を備える光源部110と、前記光源部から照射され、前記対象空間内の対象物113の表面で反射した反射光を含む光を受光して電荷に変換する光電変換素子を複数の画素についてそれぞれ備えるセンサ部120と、前記光電変換素子ごとに複数設けられた電荷蓄積部150と、前記変調光の変調に同期して、前記光電変換素子により変換された電荷を前記複数の電荷蓄積部に振り分ける電荷振分部130と、前記複数の電荷蓄積部150に蓄積された蓄積電荷を用いて画素値が距離値である距離画像を生成する距離画像生成部170と、を備え、前記距離画像生成部170は、前記複数の電荷蓄積部150の前記蓄積電荷に演算処理を施して画素毎に計算距離値を得、当該計算距離値を画素値とする計算距離画像を生成する計算距離画像生成部171と、前記計算距離画像における前記対象物113の計算距離値および予め保持する当該対象物113の大きさの情報に応じて、平滑化に用いるフィルタのパラメータを画素毎に決定するフィルタパラメータ決定部172と、前記決定したパラメータのフィルタを適用して平滑化した後の値を画素値とする平滑化距離画像を得る平滑化画像生成部173と、を備え、前記平滑化距離画像を前記距離画像とする。
そして、前記計算距離画像から予め保持する参照画像を減算して補正距離画像を生成する補正距離画像生成部175をさらに備え、前記フィルタパラメータ決定部172は、前記補正距離画像の当該対象物の画素値および前記大きさの情報に応じて、前記パラメータを決定し、前記平滑化画像生成部173は、前記補正距離画像に前記フィルタを適用する。
As described above, the distance image generation object detection device 100a of the present embodiment includes the light source unit 110 including the light source that irradiates the modulated light to the target space, and the target in the target space that is irradiated from the light source unit. A sensor unit 120 for each of a plurality of pixels that receives light including reflected light reflected by the surface of the object 113 and converts the light into a charge, and a charge storage unit 150 that is provided for each of the photoelectric conversion elements. The charge distribution unit 130 that distributes the charges converted by the photoelectric conversion elements to the plurality of charge storage units in synchronization with the modulation of the modulated light, and the accumulated charges stored in the plurality of charge storage units 150 And a distance image generation unit 170 that generates a distance image whose pixel value is a distance value, and the distance image generation unit 170 stores the accumulated charges of the plurality of charge accumulation units 150. A calculation distance value is generated for each pixel by performing arithmetic processing, a calculation distance image generation unit 171 that generates a calculation distance image using the calculation distance value as a pixel value, and a calculation distance value of the object 113 in the calculation distance image In addition, according to information on the size of the target object 113 held in advance, the filter parameter determination unit 172 that determines a filter parameter for smoothing for each pixel and the filter of the determined parameter are smoothed. A smoothed image generation unit 173 that obtains a smoothed distance image having a later value as a pixel value, and uses the smoothed distance image as the distance image.
The correction distance image generation unit 175 further generates a correction distance image by subtracting a reference image held in advance from the calculated distance image, and the filter parameter determination unit 172 includes a pixel of the target object of the correction distance image. The parameter is determined according to the value and the size information, and the smoothed image generation unit 173 applies the filter to the corrected distance image.
このように、本実施形態によれば、第一の実施形態同様、距離値に応じて決定されたフィルタパラメータを用いて、計算距離画像を平滑化する。従って、物体検出に最適な距離画像を得ることができ、それを用いて物体を検出するため、高い検出精度を得ることができる。 Thus, according to this embodiment, the calculated distance image is smoothed using the filter parameter determined according to the distance value, as in the first embodiment. Therefore, a distance image optimal for object detection can be obtained, and an object is detected using the distance image, so that high detection accuracy can be obtained.
さらに、本実施形態によれば、フィルタのパラメータを決定する際に用いる画像、フィルタを適用する画像として、背景情報を除いた補正距離画像420を用いる。そして、この補正距離画像を平滑化した平滑化距離画像を用いて物体を検出する。従って、背景情報を排除した画像上で物体113を検出するため、より高精度に物体113を検出できる。 Furthermore, according to the present embodiment, the correction distance image 420 excluding background information is used as an image used when determining filter parameters and an image to which the filter is applied. Then, an object is detected using the smoothed distance image obtained by smoothing the corrected distance image. Therefore, since the object 113 is detected on the image from which the background information is excluded, the object 113 can be detected with higher accuracy.
なお、上記各実施形態は、例えば、所定の領域への侵入者を検出、所定領域を通過する人数のカウント、工場のラインを流れる物体の位置や大きさの検出等に適用することができる。 Each of the above embodiments can be applied to, for example, detecting an intruder into a predetermined area, counting the number of persons passing through the predetermined area, and detecting the position and size of an object flowing through a factory line.
100:距離画像生成物体検出装置、100a:距離画像生成物体検出装置、110:光源部、111:変調光、112:入射光、113:物体、114:変調信号、115:ゲート信号、116:凹凸部、120:センサ、120:光電変換部、130:電荷振分部、140:制御部、150:電荷蓄積部、170:距離画像生成部、170a:距離画像生成部、171:計算距離画像生成部、172:フィルタパラメータ決定部、173:平滑化画像生成部、174:参照画像格納部、175:補正距離画像生成部、180:物体検出部、200a:距離画像、200b:距離画像、201:頭部領域、202:肩領域、210a:距離画像、210b:距離画像、210c;距離画像、220:平滑化距離画像、321:空間フィルタ、321a:平均化フィルタ、321b:重み付けフィルタ、321c:平均化フィルタ、322:時間フィルタ、323:三次元フィルタ、400:参照画像、410:計算距離画像、420:補正距離画像 DESCRIPTION OF SYMBOLS 100: Distance image generation object detection apparatus, 100a: Distance image generation object detection apparatus, 110: Light source part, 111: Modulation light, 112: Incident light, 113: Object, 114: Modulation signal, 115: Gate signal, 116: Concavity and convexity Unit: 120: sensor 120: photoelectric conversion unit 130: charge distribution unit 140: control unit 150: charge storage unit 170: distance image generation unit 170a: distance image generation unit 171: calculation distance image generation 172: Filter parameter determination unit, 173: Smoothed image generation unit, 174: Reference image storage unit, 175: Correction distance image generation unit, 180: Object detection unit, 200a: Distance image, 200b: Distance image, 201: Head region, 202: Shoulder region, 210a: Distance image, 210b: Distance image, 210c; Distance image, 220: Smoothed distance image, 321: Spatial filter 321a: averaging filter, 321b: weighting filter, 321c: averaging filter, 322: time filter, 323: three-dimensional filter 400: reference image 410: calculating the distance image, 420: correction range image
Claims (8)
前記光源部から照射され、前記対象空間内の対象物の表面で反射した反射光を含む光を受光して電荷に変換する光電変換素子を複数の画素についてそれぞれ備えるセンサ部と、
前記光電変換素子ごとに複数設けられた電荷蓄積部と、
前記変調光の変調に同期して、前記光電変換素子により変換された電荷を前記複数の電荷蓄積部に振り分ける電荷振分部と、
前記複数の電荷蓄積部に蓄積された蓄積電荷を用いて画素値が距離値である距離画像を生成する距離画像生成部と、を備え、
前記距離画像生成部は、
前記複数の電荷蓄積部の前記蓄積電荷に演算処理を施して画素毎に計算距離値を得、当該計算距離値を画素値とする計算距離画像を生成する計算距離画像生成部と、
前記計算距離画像における前記対象物の計算距離値および予め保持する当該対象物の大きさの情報に応じて、平滑化に用いるフィルタのパラメータを画素毎に決定するフィルタパラメータ決定部と、
前記決定したパラメータのフィルタを適用して平滑化した後の値を画素値とする平滑化距離画像を得る平滑化画像生成部と、を備え、前記平滑化距離画像を前記距離画像とすること
を特徴とする距離画像生成装置。 A light source unit including a light source that emits modulated light that is modulated into a target space;
Sensor units each including a plurality of pixels with photoelectric conversion elements that receive light including reflected light that is irradiated from the light source unit and reflected by the surface of the object in the target space, and converts the light into charges.
A plurality of charge storage portions provided for each photoelectric conversion element;
A charge distribution unit that distributes the charges converted by the photoelectric conversion elements to the plurality of charge storage units in synchronization with the modulation of the modulated light;
A distance image generation unit that generates a distance image whose pixel value is a distance value using accumulated charges accumulated in the plurality of charge accumulation units;
The distance image generation unit
A calculation distance image generation unit that performs calculation processing on the accumulated charges of the plurality of charge accumulation units to obtain a calculation distance value for each pixel, and generates a calculation distance image using the calculation distance value as a pixel value;
A filter parameter determining unit that determines, for each pixel, a parameter of a filter used for smoothing according to the calculated distance value of the object in the calculated distance image and the information of the size of the object to be held in advance;
A smoothed image generation unit that obtains a smoothed distance image using a value after smoothing by applying a filter of the determined parameter as a pixel value, and making the smoothed distance image the distance image. A featured distance image generation device.
前記平滑化画像生成部は、前記計算距離画像に前記フィルタを適用すること
を特徴とする距離画像生成装置。 The distance image generating device according to claim 1,
The distance image generation device, wherein the smoothed image generation unit applies the filter to the calculated distance image.
前記計算距離画像から予め保持する参照画像を減算して補正距離画像を生成する補正距離画像生成部をさらに備え、
前記フィルタパラメータ決定部は、前記補正距離画像の当該対象物の画素値および前記大きさの情報に応じて、前記パラメータを決定し、
前記平滑化画像生成部は、前記補正距離画像に前記フィルタを適用すること
を特徴とする距離画像生成装置。 The distance image generating device according to claim 1,
A correction distance image generation unit that generates a correction distance image by subtracting a reference image stored in advance from the calculated distance image;
The filter parameter determination unit determines the parameter according to the pixel value and the size information of the target object of the correction distance image,
The smoothed image generation unit applies the filter to the corrected distance image.
前記平滑化距離画像を用いて物体の有無を検出する物体検出部と、を備えること
を特徴とする物体検出装置。 The distance image generating device according to any one of claims 1 to 3,
An object detection unit that detects the presence or absence of an object using the smoothed distance image.
前記光源部から照射され、前記対象空間内の対象物の表面で反射した反射光を含む光を受光して電荷に変換する光電変換素子を複数の画素それぞれについて備えるセンサ部と、
前記光電変換素子ごとに複数設けられた電荷蓄積部と、
前記変調光の変調に同期して、前記光電変換素子により変換された電荷を前記複数の電荷蓄積部に振り分ける電荷振分部と、を備える物体検出装置における物体検出方法であって、
前記複数の電荷蓄積部の前記蓄積電荷に演算処理を施して画素毎に計算距離値を得、当該計算距離値を画素値とする計算距離画像を生成する計算距離画像生成ステップと、
前記計算距離画像における前記対象物の計算距離値および予め保持する当該対象物の大きさの情報に応じて、平滑化に用いるフィルタのパラメータを画素毎に決定するフィルタパラメータ決定ステップと、
前記計算距離画像に前記パラメータのフィルタを適用して平滑化距離画像を得る平滑化ステップと、
前記平滑化距離画像を用いて物体の有無を検出する物体検出ステップと、を含むこと
を特徴とする物体検出方法。 A light source unit that emits modulated light modulated into the target space;
A sensor unit that includes a photoelectric conversion element that receives light including reflected light that is irradiated from the light source unit and reflected by the surface of the object in the target space, and converts the light into electric charges for each of a plurality of pixels;
A plurality of charge storage portions provided for each photoelectric conversion element;
An object detection method in an object detection device comprising: a charge distribution unit that distributes the charge converted by the photoelectric conversion element to the plurality of charge storage units in synchronization with the modulation of the modulated light,
A calculation distance image generation step of performing calculation processing on the accumulated charges of the plurality of charge accumulation units to obtain a calculation distance value for each pixel, and generating a calculation distance image having the calculation distance value as a pixel value;
A filter parameter determining step for determining, for each pixel, a parameter of a filter used for smoothing according to the calculated distance value of the object in the calculated distance image and information on the size of the object to be held in advance;
A smoothing step of obtaining a smoothed distance image by applying a filter of the parameter to the calculated distance image;
An object detection step of detecting the presence or absence of an object using the smoothed distance image.
前記光源部から照射され、前記対象空間内の対象物の表面で反射した反射光を含む光を受光して電荷に変換する光電変換素子を複数の画素それぞれについて備えるセンサ部と、
前記光電変換素子ごとに複数設けられた電荷蓄積部と、
前記変調光の変調に同期して、前記光電変換素子により変換された電荷を前記複数の電荷蓄積部に振り分ける電荷振分部と、を備える物体検出装置における物体検出方法であって、
前記複数の電荷蓄積部の前記蓄積電荷に演算処理を施して画素毎に計算距離値を得、当該計算距離値を画素値とする計算距離画像を生成する計算距離画像生成ステップと、
前記計算距離画像から予め保持する参照画像を減算し、補正距離画像を得る補正ステップと、
前記補正距離画像の当該対象物の画素値および予め保持する当該対象物の大きさの情報に応じて、平滑化に用いるフィルタのパラメータを画素毎に決定するフィルタパラメータ決定ステップと、
前記補正距離画像に前記パラメータのフィルタを適用して平滑化距離画像を得る平滑化ステップと、
前記平滑化距離画像を用いて物体の有無を検出する物体検出ステップと、を含むこと
を特徴とする物体検出方法。 A light source unit that emits modulated light modulated into the target space;
A sensor unit that includes a photoelectric conversion element that receives light including reflected light that is irradiated from the light source unit and reflected by the surface of the object in the target space, and converts the light into electric charges for each of a plurality of pixels;
A plurality of charge storage portions provided for each photoelectric conversion element;
An object detection method in an object detection device comprising: a charge distribution unit that distributes the charge converted by the photoelectric conversion element to the plurality of charge storage units in synchronization with the modulation of the modulated light,
A calculation distance image generation step of performing calculation processing on the accumulated charges of the plurality of charge accumulation units to obtain a calculation distance value for each pixel, and generating a calculation distance image having the calculation distance value as a pixel value;
A correction step of subtracting a reference image stored in advance from the calculated distance image to obtain a corrected distance image;
A filter parameter determining step for determining, for each pixel, a parameter of a filter used for smoothing in accordance with the pixel value of the target object of the correction distance image and information on the size of the target object held in advance;
A smoothing step of applying a filter of the parameter to the corrected distance image to obtain a smoothed distance image;
An object detection step of detecting the presence or absence of an object using the smoothed distance image.
前記光源部から照射され、前記対象空間内の対象物の表面で反射した反射光を含む光を受光して電荷に変換する光電変換素子を複数の画素それぞれについて備えるセンサ部と、
前記光電変換素子ごとに複数設けられた電荷蓄積部と、
前記変調光の変調に同期して、前記光電変換素子により変換された電荷を前記複数の電荷蓄積部に振り分ける電荷振分部と、を備える物体検出装置のコンピュータに、
前記複数の電荷蓄積部の前記蓄積電荷に演算処理を施して画素毎に計算距離値を得、当該計算距離値を画素値とする計算距離画像を生成する計算距離画像生成手順、
前記計算距離画像における前記対象物の計算距離値および予め保持する当該対象物の大きさの情報に応じて、平滑化に用いるフィルタのパラメータを画素毎に決定するフィルタパラメータ決定手順、
前記計算距離画像に前記パラメータのフィルタを適用して平滑化距離画像を得る平滑化手順、
前記平滑化距離画像を用いて物体の有無を検出する物体検出手順、を実行させるためのプログラム。 A light source unit including a light source that emits modulated light that is modulated into a target space;
A sensor unit that includes a photoelectric conversion element that receives light including reflected light that is irradiated from the light source unit and reflected by the surface of the object in the target space, and converts the light into electric charges for each of a plurality of pixels;
A plurality of charge storage portions provided for each photoelectric conversion element;
In a computer of an object detection device comprising: a charge distribution unit that distributes charges converted by the photoelectric conversion elements to the plurality of charge storage units in synchronization with the modulation of the modulated light,
A calculation distance image generating procedure for performing calculation processing on the accumulated charges of the plurality of charge accumulation units to obtain a calculation distance value for each pixel, and generating a calculation distance image using the calculation distance value as a pixel value;
A filter parameter determination procedure for determining, for each pixel, a filter parameter used for smoothing according to the calculated distance value of the object in the calculated distance image and information on the size of the object held in advance;
A smoothing procedure for obtaining a smoothed distance image by applying the filter of the parameter to the calculated distance image;
A program for executing an object detection procedure for detecting the presence or absence of an object using the smoothed distance image.
前記光源部から照射され、前記対象空間内の対象物の表面で反射した反射光を含む光を受光して電荷に変換する光電変換素子を複数の画素それぞれについて備えるセンサ部と、
前記光電変換素子ごとに複数設けられた電荷蓄積部と、
前記変調光の変調に同期して、前記光電変換素子により変換された電荷を前記複数の電荷蓄積部に振り分ける電荷振分部と、を備える物体検出装置のコンピュータに、
前記複数の電荷蓄積部の前記蓄積電荷に演算処理を施して画素毎に計算距離値を得、当該計算距離値を画素値とする計算距離画像を生成する計算距離画像生成手順、
前記計算距離画像から予め保持する参照画像を減算し、補正距離画像を得る補正手順、
前記補正距離画像の当該対象物の画素値および予め保持する当該対象物の大きさの情報に応じて、平滑化に用いるフィルタのパラメータを画素毎に決定するフィルタパラメータ決定手順、
前記補正距離画像に前記パラメータのフィルタを適用して平滑化距離画像を得る平滑化手順、
前記平滑化距離画像を用いて物体の有無を検出する物体検出手順、を実行させるためのプログラム。 A light source unit including a light source that emits modulated light that is modulated into a target space;
A sensor unit that includes a photoelectric conversion element that receives light including reflected light that is irradiated from the light source unit and reflected by the surface of the object in the target space, and converts the light into electric charges for each of a plurality of pixels;
A plurality of charge storage portions provided for each photoelectric conversion element;
In a computer of an object detection device comprising: a charge distribution unit that distributes charges converted by the photoelectric conversion elements to the plurality of charge storage units in synchronization with the modulation of the modulated light,
A calculation distance image generating procedure for performing calculation processing on the accumulated charges of the plurality of charge accumulation units to obtain a calculation distance value for each pixel, and generating a calculation distance image using the calculation distance value as a pixel value;
A correction procedure for subtracting a reference image stored in advance from the calculated distance image to obtain a corrected distance image;
A filter parameter determination procedure for determining, for each pixel, a filter parameter used for smoothing according to the pixel value of the target object of the correction distance image and the information on the size of the target object held in advance;
A smoothing procedure for obtaining a smoothed distance image by applying the filter of the parameter to the corrected distance image;
A program for executing an object detection procedure for detecting the presence or absence of an object using the smoothed distance image.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014053092A JP6328966B2 (en) | 2014-03-17 | 2014-03-17 | Distance image generation device, object detection device, and object detection method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014053092A JP6328966B2 (en) | 2014-03-17 | 2014-03-17 | Distance image generation device, object detection device, and object detection method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2015175752A true JP2015175752A (en) | 2015-10-05 |
JP6328966B2 JP6328966B2 (en) | 2018-05-23 |
Family
ID=54255062
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014053092A Active JP6328966B2 (en) | 2014-03-17 | 2014-03-17 | Distance image generation device, object detection device, and object detection method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6328966B2 (en) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017106959A (en) * | 2015-12-07 | 2017-06-15 | 富士通株式会社 | Projection device, projection method, and computer program for projection |
WO2018042887A1 (en) * | 2016-08-30 | 2018-03-08 | ソニーセミコンダクタソリューションズ株式会社 | Distance measurement device and control method for distance measurement device |
JP2018066701A (en) * | 2016-10-21 | 2018-04-26 | ソニーセミコンダクタソリューションズ株式会社 | Distance measurement device and method for controlling distance measurement device |
CN110716210A (en) * | 2018-07-12 | 2020-01-21 | 发那科株式会社 | Distance measuring device with distance correction function |
JP2020193957A (en) * | 2019-05-30 | 2020-12-03 | ファナック株式会社 | Distance image generator which corrects abnormal distance measurement |
WO2020255598A1 (en) * | 2019-06-20 | 2020-12-24 | ヌヴォトンテクノロジージャパン株式会社 | Distance measurement imaging device |
JP2021032794A (en) * | 2019-08-28 | 2021-03-01 | パイオニア株式会社 | Measuring device, control method, program, and storage medium |
US11513221B2 (en) | 2018-04-17 | 2022-11-29 | Kabushiki Kaisha Toshiba | Distance measurement processing device, image processing method, and distance measuring system comprising a reliability-degree generation circuit |
WO2022270058A1 (en) * | 2021-06-24 | 2022-12-29 | パナソニックIpマネジメント株式会社 | Image processing device and image processing method |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP4014066A4 (en) | 2019-12-11 | 2023-01-25 | Samsung Electronics Co., Ltd. | Electronic apparatus and method for controlling thereof |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0620200A (en) * | 1992-05-07 | 1994-01-28 | Mitsubishi Electric Corp | Trigonometrical survey type range finder and inter-vehicle distance control device |
JP2006185166A (en) * | 2004-12-27 | 2006-07-13 | Matsushita Electric Works Ltd | Human detection method and human detector using depth map |
US20090190007A1 (en) * | 2008-01-30 | 2009-07-30 | Mesa Imaging Ag | Adaptive Neighborhood Filtering (ANF) System and Method for 3D Time of Flight Cameras |
JP2010164440A (en) * | 2009-01-16 | 2010-07-29 | Stanley Electric Co Ltd | Distance image processing device and photographing device |
WO2010119482A1 (en) * | 2009-04-16 | 2010-10-21 | トヨタ自動車株式会社 | Distance detecting apparatus and method employed therein |
US20110205522A1 (en) * | 2010-01-19 | 2011-08-25 | Microsoft Corporation | Charge equalizing clock driver and other enhancements for time-of-flight depth sensing and other systems |
JP2011185664A (en) * | 2010-03-05 | 2011-09-22 | Panasonic Electric Works Co Ltd | Object detector |
JP2014025804A (en) * | 2012-07-26 | 2014-02-06 | Sanyo Electric Co Ltd | Information acquisition device and object detection device |
-
2014
- 2014-03-17 JP JP2014053092A patent/JP6328966B2/en active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0620200A (en) * | 1992-05-07 | 1994-01-28 | Mitsubishi Electric Corp | Trigonometrical survey type range finder and inter-vehicle distance control device |
JP2006185166A (en) * | 2004-12-27 | 2006-07-13 | Matsushita Electric Works Ltd | Human detection method and human detector using depth map |
US20090190007A1 (en) * | 2008-01-30 | 2009-07-30 | Mesa Imaging Ag | Adaptive Neighborhood Filtering (ANF) System and Method for 3D Time of Flight Cameras |
JP2010164440A (en) * | 2009-01-16 | 2010-07-29 | Stanley Electric Co Ltd | Distance image processing device and photographing device |
WO2010119482A1 (en) * | 2009-04-16 | 2010-10-21 | トヨタ自動車株式会社 | Distance detecting apparatus and method employed therein |
US20110205522A1 (en) * | 2010-01-19 | 2011-08-25 | Microsoft Corporation | Charge equalizing clock driver and other enhancements for time-of-flight depth sensing and other systems |
JP2011185664A (en) * | 2010-03-05 | 2011-09-22 | Panasonic Electric Works Co Ltd | Object detector |
JP2014025804A (en) * | 2012-07-26 | 2014-02-06 | Sanyo Electric Co Ltd | Information acquisition device and object detection device |
Non-Patent Citations (1)
Title |
---|
岡本祐樹、北原格、大田友一: "遠隔協調型複合現実感における距離画像を用いた人物像の立体提示", 電子情報通信学会技術研究報告, vol. 第109巻、第215号, JPN6018010820, 1 October 2009 (2009-10-01), JP, ISSN: 0003767671 * |
Cited By (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017106959A (en) * | 2015-12-07 | 2017-06-15 | 富士通株式会社 | Projection device, projection method, and computer program for projection |
US11310411B2 (en) | 2016-08-30 | 2022-04-19 | Sony Semiconductor Solutions Corporation | Distance measuring device and method of controlling distance measuring device |
WO2018042887A1 (en) * | 2016-08-30 | 2018-03-08 | ソニーセミコンダクタソリューションズ株式会社 | Distance measurement device and control method for distance measurement device |
US10641606B2 (en) | 2016-08-30 | 2020-05-05 | Sony Semiconductor Solutions Corporation | Distance measuring device and method of controlling distance measuring device |
JP2018066701A (en) * | 2016-10-21 | 2018-04-26 | ソニーセミコンダクタソリューションズ株式会社 | Distance measurement device and method for controlling distance measurement device |
WO2018074085A1 (en) * | 2016-10-21 | 2018-04-26 | ソニーセミコンダクタソリューションズ株式会社 | Rangefinder and rangefinder control method |
US11454723B2 (en) | 2016-10-21 | 2022-09-27 | Sony Semiconductor Solutions Corporation | Distance measuring device and distance measuring device control method |
US11513221B2 (en) | 2018-04-17 | 2022-11-29 | Kabushiki Kaisha Toshiba | Distance measurement processing device, image processing method, and distance measuring system comprising a reliability-degree generation circuit |
CN110716210A (en) * | 2018-07-12 | 2020-01-21 | 发那科株式会社 | Distance measuring device with distance correction function |
US11536814B2 (en) | 2018-07-12 | 2022-12-27 | Fanuc Corporation | Distance measuring apparatus having distance correction function |
CN110716210B (en) * | 2018-07-12 | 2024-01-30 | 发那科株式会社 | Distance measuring device with distance correction function |
JP2020193957A (en) * | 2019-05-30 | 2020-12-03 | ファナック株式会社 | Distance image generator which corrects abnormal distance measurement |
JPWO2020255598A1 (en) * | 2019-06-20 | 2020-12-24 | ||
WO2020255598A1 (en) * | 2019-06-20 | 2020-12-24 | ヌヴォトンテクノロジージャパン株式会社 | Distance measurement imaging device |
JP7411656B2 (en) | 2019-06-20 | 2024-01-11 | ヌヴォトンテクノロジージャパン株式会社 | Distance imaging device |
JP2021032794A (en) * | 2019-08-28 | 2021-03-01 | パイオニア株式会社 | Measuring device, control method, program, and storage medium |
WO2022270058A1 (en) * | 2021-06-24 | 2022-12-29 | パナソニックIpマネジメント株式会社 | Image processing device and image processing method |
Also Published As
Publication number | Publication date |
---|---|
JP6328966B2 (en) | 2018-05-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6328966B2 (en) | Distance image generation device, object detection device, and object detection method | |
US11215700B2 (en) | Method and system for real-time motion artifact handling and noise removal for ToF sensor images | |
JP6125188B2 (en) | Video processing method and apparatus | |
KR102336064B1 (en) | Imaging apparatus and imaging method thereof, image processing apparatus and image processing method thereof, and program | |
JP5448617B2 (en) | Distance estimation device, distance estimation method, program, integrated circuit, and camera | |
KR101613133B1 (en) | Method and apparatus for processing 3-dimensional image | |
KR101815407B1 (en) | Parallax operation system, information processing apparatus, information processing method, and recording medium | |
JP6239594B2 (en) | 3D information processing apparatus and method | |
CN108463740A (en) | Use the depth map of structured light and flight time | |
KR102194233B1 (en) | Apparatus and method for generating a depth image | |
JP2016026521A5 (en) | ||
KR102490335B1 (en) | A method for binning time-of-flight data | |
JP6313617B2 (en) | Distance image generation device, object detection device, and object detection method | |
JP2016045240A5 (en) | ||
KR102194237B1 (en) | Method and apparatus for generating depth image | |
JP2020076619A (en) | Floodlight control system, floodlight control method | |
JP5452200B2 (en) | Distance image generating apparatus and distance image generating method | |
JP2015068748A (en) | Dynamic elevation measuring apparatus, dynamic elevation measuring method, and dynamic elevation measuring program | |
JP2014070936A (en) | Error pixel detecting apparatus, error pixel detecting method, and error pixel detecting program | |
JP2004301607A (en) | Moving object detection device, moving object detection method, and moving object detection program | |
KR20130082053A (en) | Method and apparatus for processing depth image | |
JP6273921B2 (en) | Image processing device | |
JP6379646B2 (en) | Information processing apparatus, measurement method, and program | |
JP6331789B2 (en) | Imaging system, image processing apparatus, and program | |
JP6369058B2 (en) | Image processing device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170203 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20171227 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180109 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180220 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180403 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180419 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6328966 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |