JP5978866B2 - Image capturing apparatus and image processing method for image capturing apparatus - Google Patents
Image capturing apparatus and image processing method for image capturing apparatus Download PDFInfo
- Publication number
- JP5978866B2 JP5978866B2 JP2012195892A JP2012195892A JP5978866B2 JP 5978866 B2 JP5978866 B2 JP 5978866B2 JP 2012195892 A JP2012195892 A JP 2012195892A JP 2012195892 A JP2012195892 A JP 2012195892A JP 5978866 B2 JP5978866 B2 JP 5978866B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- edge
- luminance
- synchronous detection
- detection
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Landscapes
- Studio Devices (AREA)
Description
本発明は、周囲の画像を同期検波処理により撮影する撮影装置、及び撮影装置の画像処理方法に関する。 The present invention relates to an imaging device that captures surrounding images by synchronous detection processing, and an image processing method of the imaging device.
従来より、同期検波処理を用いて周囲画像を撮影する撮影装置が用いられている(例えば、特許文献1参照)。同期検波処理は、複数の連続した画像データを用いて同期検波画像を生成するので、検波処理に使用する枚数分の画像を撮影し終える前に撮影対象に動きが生じた場合には、撮影対象の異なる部位の輝度値を使用して検波処理をしてしまう。 2. Description of the Related Art Conventionally, an imaging device that captures a surrounding image using synchronous detection processing has been used (see, for example, Patent Document 1). Since the synchronous detection process generates a synchronous detection image using a plurality of continuous image data, if there is a movement in the shooting target before the number of images to be used for the detection process has been shot, The detection processing is performed using the luminance values of different parts.
従って、例えば車両に搭載して周囲画像(例えば、走行路の白線等)を撮影する場合には、撮像対象に模様があると(画像輝度値が均一でないと)、撮影対象が動くことにより時間的な輝度変化が発生し、同期検波用の照射光の輝度変化と背景光の輝度変化とを区別することができない。 Therefore, for example, in the case where a surrounding image (for example, a white line on a traveling road) is photographed by being mounted on a vehicle, if there is a pattern on the object to be imaged (if the image luminance value is not uniform), the time taken by moving the object to be imaged Brightness change occurs, and the brightness change of the irradiation light for synchronous detection cannot be distinguished from the brightness change of the background light.
即ち、模様の動きによる輝度変化が照射光の輝度変化成分と混合してしまうため、撮影対象がある一定以上の速度で動いてしまうと、同期検波処理により撮影される同期検波画像にノイズが発生するという問題が発生する。 In other words, the luminance change due to the movement of the pattern is mixed with the luminance change component of the irradiated light, so if the subject moves at a certain speed, noise is generated in the synchronous detection image captured by the synchronous detection processing. Problem occurs.
上述したように、従来における撮影装置では、撮影対象物が移動する場合には、同期検波画像にノイズが発生してしまい、鮮明な画像を得ることができないという問題があった。 As described above, in the conventional photographing apparatus, when the photographing object moves, noise occurs in the synchronous detection image, and there is a problem that a clear image cannot be obtained.
本発明は、このような従来の課題を解決するためになされたものであり、その目的とするところは、ノイズの影響を低減した同期検波画像を生成することができる撮影装置及び撮影装置を用いた画像処理方法を提供することにある。 The present invention has been made to solve such a conventional problem, and an object of the present invention is to use an imaging apparatus and an imaging apparatus that can generate a synchronous detection image with reduced influence of noise. It is to provide an image processing method.
上記目的を達成するため、本発明は、一検波周期内に複数の参照信号を発信し、この一検波周期内の各参照信号により強度変調された光を投光する投光手段と、投光手段より投光された光が照射された撮影対象を、参照信号の発信タイミングと同期して撮影する撮影手段と、撮影手段にて撮影された撮影対象の画像を記憶する画像記憶手段とを有する。更に、画像記憶手段に記憶されている一検波周期内の画像データ、及び前記参照信号に基づいて同期検波処理を行い、一検波周期内に複数の同期検波画像を生成する同期検波処理手段と、複数の同期検波画像の各画像内において、所定の高輝度を有する高輝度部のエッジを検出する高輝度部エッジ検出手段と、高輝度部のエッジに基づいて、エッジ領域を生成するエッジ領域生成手段と、エッジ領域生成手段にて生成されたエッジ領域に、所望の輝度となる画素を代入して前記同期検波処理の結果を補正する同期検波補正手段とを備える。 In order to achieve the above object, the present invention provides a light projecting means for transmitting a plurality of reference signals within one detection period and projecting light whose intensity is modulated by each reference signal within the one detection period, and A photographing means for photographing a photographing target irradiated with light emitted from the means in synchronization with a reference signal transmission timing; and an image storage means for storing an image of the photographing target photographed by the photographing means. . Furthermore, synchronous detection processing means for performing synchronous detection processing based on image data within one detection cycle stored in the image storage means and the reference signal, and generating a plurality of synchronous detection images within one detection cycle; In each image of a plurality of synchronous detection images, a high-luminance portion edge detecting means for detecting an edge of a high-luminance portion having a predetermined high luminance, and an edge region generation for generating an edge region based on the edge of the high-luminance portion And synchronous detection correction means for correcting a result of the synchronous detection processing by substituting a pixel having a desired luminance into the edge region generated by the edge region generation unit.
本発明に係る撮影装置及び撮影装置の画像処理方法では、撮影手段で撮影された複数の画像から高輝度部のエッジを検出してエッジ領域を抽出し、更に、複数の画像に基づいて同期検波処理を行うことにより同期検波画像を生成する。そして、同期検波画像中のエッジ領域の輝度値を、同期検波補正手段により補正する。従って、撮影手段と撮影対象との相対的な動きに起因して同期検波画像にノイズが発生した場合に、これを補正して高精度な同期検波画像を得ることができる。 In the image capturing apparatus and the image processing method of the image capturing apparatus according to the present invention, the edge of the high luminance part is detected from a plurality of images captured by the image capturing unit to extract an edge region, and synchronous detection is performed based on the plurality of images. A synchronous detection image is generated by performing processing. Then, the luminance value of the edge region in the synchronous detection image is corrected by the synchronous detection correcting means. Therefore, when noise is generated in the synchronous detection image due to the relative movement between the imaging unit and the imaging target, it is possible to correct this and obtain a highly accurate synchronous detection image.
以下、本発明の実施形態を図面に基づいて説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings.
[第1実施形態の説明]
図1は、本発明の第1実施形態に係る撮影装置の構成を示すブロック図である。この撮影装置10は、例えば車両等の移動体に設けられるものであり、図1に示すように、投光部103と、撮影部101と、露光制御部102と、参照信号生成部105と、同期パルス生成部104と、を備えている。
[Description of First Embodiment]
FIG. 1 is a block diagram showing the configuration of the photographing apparatus according to the first embodiment of the present invention. The photographing apparatus 10 is provided in a moving body such as a vehicle, for example. As shown in FIG. 1, the light projecting unit 103, the photographing unit 101, the exposure control unit 102, the reference signal generating unit 105, A synchronization pulse generation unit 104.
投光部103は、一検波周期内に複数の参照信号を発信し、この一検波周期内の各参照信号により強度変調された光を、撮影対象Pに向けて投光する。撮影部101は、強度変調された光が投光された撮影対象Pを、参照信号の発信タイミングと同期して撮影する。 The light projecting unit 103 emits a plurality of reference signals within one detection period, and projects light that is intensity-modulated by each reference signal within the one detection period toward the imaging target P. The imaging unit 101 captures an image of the imaging target P onto which the intensity-modulated light is projected in synchronization with the transmission timing of the reference signal.
露光制御部102は、撮影部101の露光時間を制御する。参照信号生成部105は、正弦波等の参照信号を生成し、同期パルス生成部104に出力する。 The exposure control unit 102 controls the exposure time of the photographing unit 101. The reference signal generation unit 105 generates a reference signal such as a sine wave and outputs the reference signal to the synchronization pulse generation unit 104.
同期パルス生成部104は、参照信号生成部105で生成された参照信号からPWM信号等の同期パルスを生成する。更に、同期パルス生成部104で生成された同期パルス信号は、投光部103、及び露光制御部102に出力される。 The synchronization pulse generator 104 generates a synchronization pulse such as a PWM signal from the reference signal generated by the reference signal generator 105. Further, the synchronization pulse signal generated by the synchronization pulse generation unit 104 is output to the light projecting unit 103 and the exposure control unit 102.
更に、撮影装置10は、撮影部101で時系列的に撮影される画像を記憶する画像情報記憶部107と、該画像情報記憶部107に記憶されている一検波周期内の画像データと、参照信号生成部105より出力される参照信号に基づいて同期検波を行い、一検波周期での同期検波画像を生成する同期検波処理部108を備えている。同期検波処理部108で生成される同期検波画像は、同期検波出力補正部109に出力される。 Furthermore, the imaging apparatus 10 includes an image information storage unit 107 that stores images captured in time series by the imaging unit 101, image data within one detection period stored in the image information storage unit 107, and a reference It performs synchronous detection based on the reference signal outputted from the signal generator 105, and a synchronous detection processing unit 108 for generating a synchronous detection image in one detection cycle. The synchronous detection image generated by the synchronous detection processing unit 108 is output to the synchronous detection output correction unit 109.
また、撮影部101で撮影され、画像情報記憶部107に記憶された画像から、高輝度を有する高輝度部のエッジを検出する輝度画像エッジ検出部(高輝度部エッジ検出手段)106と、該輝度画像エッジ検出部106で検出された画像データから得られる高輝度エッジに基づいて所定のエッジ領域を生成し、これを記憶するエッジ領域記憶部(エッジ領域生成手段)110を備えている。ここで、エッジ領域記憶部110は、1回の同期検波処理を行うために必要な輝度画像のエッジ領域を記憶するように設定できる。この場合には、記憶容量を必要最小限とすることができる。そして、エッジ領域記憶部110に記憶されたエッジ領域のデータは、同期検波出力補正部109に出力される。 In addition, a luminance image edge detection unit (high luminance part edge detection unit) 106 that detects an edge of a high luminance part having high luminance from an image photographed by the photographing unit 101 and stored in the image information storage unit 107; An edge region storage unit (edge region generation unit) 110 is provided that generates a predetermined edge region based on the high luminance edge obtained from the image data detected by the luminance image edge detection unit 106 and stores the predetermined edge region. Here, the edge area storage unit 110 can be set so as to store an edge area of a luminance image necessary for performing one synchronous detection process. In this case, the storage capacity can be minimized. Then, the edge region data stored in the edge region storage unit 110 is output to the synchronous detection output correction unit 109.
同期検波出力補正部109は、後述する手順により、同期検波処理部108で検出される同期検波画像中の、エッジ領域記憶部110に記憶されているエッジ領域についての輝度データを補正し、検波画像生成部111にて補正された同期検波画像が生成され、下位システムに出力される。 The synchronous detection output correcting unit 109 corrects the luminance data for the edge region stored in the edge region storage unit 110 in the synchronous detection image detected by the synchronous detection processing unit 108 according to the procedure described later, and detects the detected image. A synchronous detection image corrected by the generation unit 111 is generated and output to the lower system.
次に、本実施形態に係る撮影装置10のエッジ領域記憶部110に記憶される画像について説明する。図2は、車両に搭載した撮影装置10により、時系列的に撮影される3枚の画像からエッジを抽出する手順を示す説明図である。図2に示すように、時刻t1,t2,t3の順に3枚の輝度画像a1,a2,a3が撮影されており、車両走行中に撮影しているので、3枚の各輝度画像a1,a2,a3に映る対象物は車両の進行方向(図中左右方向)に位置ずれが発生している。具体的には、車両が図中右方向に移動しているので、撮影対象である路面の画像は左方向に位置ずれして映ることになる。 Next, the image memorize | stored in the edge area | region memory | storage part 110 of the imaging device 10 which concerns on this embodiment is demonstrated. FIG. 2 is an explanatory diagram showing a procedure for extracting edges from three images photographed in time series by the photographing apparatus 10 mounted on the vehicle. As shown in FIG. 2, three luminance images a1, a2, and a3 are taken in the order of times t1, t2, and t3, and are taken while the vehicle is running. Therefore, each of the three luminance images a1, a2 is taken. , A3 is displaced in the vehicle traveling direction (left-right direction in the figure). Specifically, since the vehicle is moving in the right direction in the figure, the image of the road surface to be photographed is displayed with a position shift in the left direction.
そして、図1に示した輝度画像エッジ検出部106は、輝度画像のエッジを検出する。エッジ検出は、予め輝度の閾値を設定しておき、この閾値と画素値とを対比することにより、エッジを検出することができる。そして、時刻t1における輝度画像a1に対して、符号b1に示すエッジ画像が得られる。即ち、輝度画像a1には、車両の影q1、白線q2、及び、路面の傷q3が映し出されており、この輝度画像a1からエッジを抽出することにより、エッジ画像b1に示すように、符号q4,q5,q6のエッジ画像が得られる。上記と同様に時刻t2における輝度画像a2、及び時刻t3における輝度画像a3についてもエッジ画像が得られる。 Then, the luminance image edge detection unit 106 illustrated in FIG. 1 detects the edge of the luminance image. In edge detection, a threshold value for luminance is set in advance, and an edge can be detected by comparing the threshold value with a pixel value. Then, an edge image indicated by reference numeral b1 is obtained for the luminance image a1 at time t1. That is, in the luminance image a1, the shadow q1, the white line q2, and the road surface scratch q3 of the vehicle are projected, and by extracting an edge from the luminance image a1, as shown in the edge image b1, the symbol q4 , Q5, and q6 edge images are obtained. Similarly to the above, edge images are obtained for the luminance image a2 at time t2 and the luminance image a3 at time t3.
そして、エッジ領域記憶部110は、これらのエッジ画像からエッジ領域を求めて記憶する。この処理では、少なくとも1つの画像に含まれるエッジをエッジ領域として設定する。その結果、図2の符号Q1に示す如くのエッジ領域画像が得られることになる。 Then, the edge area storage unit 110 obtains and stores an edge area from these edge images. In this process, an edge included in at least one image is set as an edge region. As a result, an edge region image as indicated by reference numeral Q1 in FIG. 2 is obtained.
次に、同期検波処理部108における処理にて同期検波画像を生成する手順について、図3を参照して説明する。図3に示すように、時刻t1,t2,t3の順に3枚の輝度画像a1,a2,a3が撮影されている。なお、この輝度画像は、図2に示した輝度画像a1,a2,a3と同一である。これらの輝度画像は、一検波周期で撮影される画像である。即ち、図1に示した参照信号生成部105で用いる参照波が正弦波である場合には、この参照波の1周期を3等分した位相で得られる画像である。具体的には、120度位相がシフトした画像である。 Next, a procedure for generating a synchronous detection image by processing in the synchronous detection processing unit 108 will be described with reference to FIG. As shown in FIG. 3, three luminance images a1, a2, and a3 are taken in the order of times t1, t2, and t3. This luminance image is the same as the luminance images a1, a2, and a3 shown in FIG. These luminance images are images taken at one detection cycle. That is, when the reference wave used in the reference signal generation unit 105 shown in FIG. 1 is a sine wave, the image is obtained with a phase obtained by dividing one period of this reference wave into three equal parts. Specifically, it is an image whose phase is shifted by 120 degrees.
そして、同期検波処理部108では、3枚の画像に基づいて同期検波処理を実行することにより、図3の符号Q2に示す如くの同期検波画像が取得されることになる。この際、撮影対象である路面の画像は、左方向に位置ずれして検出されることになる。従って、同期検波画像Q2では、車両の影のエッジq11、白線のエッジq12,q13、及び路面の傷q14部分にノイズが発生し、不鮮明な画像として表示されることになる。 Then, the synchronous detection processing unit 108 executes the synchronous detection process based on the three images, thereby acquiring a synchronous detection image as indicated by reference sign Q2 in FIG. At this time, the image of the road surface to be photographed is detected by being shifted in the left direction. Therefore, in the synchronous detection image Q2, noise is generated at the shadow edge q11 of the vehicle, the white line edges q12 and q13, and the road surface scratch q14, and the image is displayed as a blurred image.
同期検波出力補正部109では、エッジ領域記憶部110に記憶されているエッジ領域、即ち、図2に示したエッジ領域画像Q1に基づいて、同期検波画像を補正する。具体的には、同期検波画像Q2中の、エッジ領域画像Q1に含まれるエッジ領域の出力を無効とし(即ち、この領域の輝度値を不採用とし)、このエッジ領域を予め設定した手法により設定した輝度値とすることにより、ノイズによる影響を除去し、補正処理後の同期検波画像Q3を生成する。 The synchronous detection output correction unit 109 corrects the synchronous detection image based on the edge region stored in the edge region storage unit 110, that is, the edge region image Q1 shown in FIG. Specifically, the output of the edge region included in the edge region image Q1 in the synchronous detection image Q2 is invalidated (that is, the luminance value of this region is not adopted), and this edge region is set by a preset method. By using the luminance value, the influence of noise is removed, and the corrected synchronous detection image Q3 is generated.
具体的には、同期検波画像Q3は、車両の影によるエッジq11、及び路面の傷によるエッジ領域が消去され、ノイズの影響を受けることのない白線領域y1のみが表示された画像となる。 Specifically, the synchronous detection image Q3 is an image in which the edge q11 caused by the shadow of the vehicle and the edge region caused by the scratch on the road surface are erased and only the white line region y1 that is not affected by noise is displayed.
次に、本実施形態に係る撮影装置10の処理手順を、図4に示すフローチャートを参照して説明する。初めに、ステップS101において、露光制御部102は、撮影部101を作動させ、同期パルス生成部104より出力されるPWM信号に同期して、該撮影部101による露光を開始する。 Next, a processing procedure of the photographing apparatus 10 according to the present embodiment will be described with reference to a flowchart shown in FIG. First, in step S <b> 101, the exposure control unit 102 activates the imaging unit 101 and starts exposure by the imaging unit 101 in synchronization with the PWM signal output from the synchronization pulse generation unit 104.
ステップS102において、投光部103は、同期パルス生成部104で生成されたPWM信号により変調した照射光(強度変調された照射光)を生成し、更に、ステップS103において、この照射光を撮影対象に向けて投光する。本実施形態では、車両走行中に走行路の路面に向けて投光する。 In step S102, the light projecting unit 103 generates irradiation light (intensity-modulated irradiation light) modulated by the PWM signal generated by the synchronization pulse generation unit 104. Further, in step S103, the light projection unit 103 generates the irradiation light. Lights toward In the present embodiment, the light is projected toward the road surface of the traveling road while the vehicle is traveling.
ステップS104において、設定した露光時間が経過したか否かを判断し、露光時間が経過した場合には(ステップS104でYES)、ステップS105において、露光制御部102による露光を終了する。即ち、1枚の画像が撮影される。 In step S104, it is determined whether or not the set exposure time has elapsed. If the exposure time has elapsed (YES in step S104), the exposure by the exposure control unit 102 is terminated in step S105. That is, one image is taken.
ステップS106において、撮影した画像に、照射光を照射したことを示す照射フラグ、及び周期情報を付加する。即ち、一検波周期で撮影される画像のうちの、何番目の画像であるかを示す情報を付加する。次いで、ステップS107において、撮影した画像を画像情報記憶部107に記憶し保存する。 In step S106, an irradiation flag indicating that irradiation light has been irradiated and period information are added to the captured image. In other words, information indicating what number of images are taken in one detection period is added. In step S107, the captured image is stored in the image information storage unit 107 and saved.
ステップS108において、輝度画像エッジ検出部106は、画像情報記憶部107に記憶されている輝度画像に基づき、該輝度画像に含まれるエッジを検出する。即ち、図2に示したエッジ画像b1を取得する。そして、ステップS109において、取得したエッジ画像をエッジ領域記憶部110に記憶する。 In step S108, the luminance image edge detection unit 106 detects an edge included in the luminance image based on the luminance image stored in the image information storage unit 107. That is, the edge image b1 shown in FIG. 2 is acquired. In step S109, the acquired edge image is stored in the edge region storage unit 110.
ステップS110において、一検波周期分の画像が撮影されたか否かが判断され、一検波周期分の画像が撮影されていない場合には(ステップS110でNO)、ステップS101の処理に戻って、次の画像を撮影する。一方、一検波周期分の画像(この例では3枚)が撮影されている場合には(ステップS110でYES)、ステップS111において、同期検波処理部108は、画像情報記憶部107に記憶されている一検波周期分の輝度画像を読み出す。即ち、図3に示した時刻t1,t2,t3において撮影した画像が読み出される。 In step S110, it is determined whether or not an image for one detection cycle has been taken. If an image for one detection cycle has not been taken (NO in step S110), the process returns to step S101, and the next step. Take a picture of. On the other hand, when an image for one detection period (three images in this example) is taken (YES in step S110), the synchronous detection processing unit 108 is stored in the image information storage unit 107 in step S111. A luminance image corresponding to one detection cycle is read out. That is, the images taken at times t1, t2, and t3 shown in FIG. 3 are read out.
ステップS112において、同期検波処理部108は、一検波周期分の輝度画像に基づいて、同期検波処理を行う。その結果、図3に示した同期検波画像Q2が得られる。 In step S112, the synchronous detection processing unit 108 performs synchronous detection processing based on the luminance image for one detection period. As a result, the synchronous detection image Q2 shown in FIG. 3 is obtained.
ステップS113において、同期検波出力補正部109は、エッジ領域記憶部110に記憶されているエッジ領域の情報を読み出す。即ち、図2,図3に示したエッジ領域画像Q1を読み出す。更に、ステップS114において、同期検波画像におけるエッジ領域の出力を補正する。 In step S <b> 113, the synchronous detection output correction unit 109 reads the edge region information stored in the edge region storage unit 110. That is, the edge area image Q1 shown in FIGS. 2 and 3 is read out. In step S114, the output of the edge region in the synchronous detection image is corrected.
エッジ領域の補正は、一例として、図5に示すように、エッジ領域q21,q22(出力が停止された領域)の外周部の領域x1,x2の輝度値を読み取り、各輝度値の平均値を補正輝度値として用いることができる。従って、図5に示すエッジ領域q21,q22には、外周部の領域x1,x2の平均輝度値が代入されるので、移動によりノイズが生じるエッジ領域を、周囲の輝度値と大きく乖離しない出力値に補正でき、違和感の少ない画像とすることができる。 For example, as shown in FIG. 5, the correction of the edge region is performed by reading the luminance values of the outer regions x1 and x2 of the edge regions q21 and q22 (regions where the output is stopped) and calculating the average value of the luminance values. It can be used as a corrected luminance value. Therefore, since the average luminance values of the outer peripheral regions x1 and x2 are assigned to the edge regions q21 and q22 shown in FIG. 5, the output value that does not greatly deviate from the peripheral luminance value in the edge region where noise occurs due to movement. Can be corrected to an image with little discomfort.
そして、ステップS115において、検波画像生成部111により補正した同期検波画像が生成され、この同期検波画像を後段の機器に出力する。その後、次工程の処理に移行する。また、ステップS116において、電源がオフと判断された場合には、本処理を終了する。こうして、撮影部101と撮影対象Pが相対的に移動する際に、同期検波画像にノイズが生じる場合であっても、この領域の輝度値を補正することにより、ノイズの少ない鮮明な同期検波画像を取得することができるのである。 Then, in step S115, a synchronous detection image corrected by the detection image generation unit 111 is generated, and the synchronous detection image is output to a subsequent device. Thereafter, the process proceeds to the next process. If it is determined in step S116 that the power is off, the process is terminated. Thus, even when noise occurs in the synchronous detection image when the imaging unit 101 and the imaging target P move relative to each other, a clear synchronous detection image with less noise can be obtained by correcting the luminance value in this region. Can be obtained.
このようにして、本実施形態に係る撮影装置10では、PWM変調(強度変調)された照射光を撮影対象Pに照射し、この照射光を撮影部101で撮影して同期検波画像を取得する際に、撮影部101で撮影される画像から高輝度部のエッジとなるエッジ領域を検出し、同期検波画像中のエッジ領域について、このエッジ領域の輝度値を採用せず、該エッジ領域の周囲画素の輝度値に基づいて補正している。 As described above, in the imaging apparatus 10 according to the present embodiment, the irradiation light subjected to PWM modulation (intensity modulation) is irradiated onto the imaging target P, and this irradiation light is captured by the imaging unit 101 to obtain a synchronous detection image. In this case, an edge region that is an edge of the high luminance portion is detected from the image captured by the imaging unit 101, and the brightness value of the edge region is not adopted for the edge region in the synchronous detection image, and the periphery of the edge region is detected. Correction is performed based on the luminance value of the pixel.
従って、車両が移動中に、該車両に搭載した撮影部101で路面の同期検波画像を撮影するような場合であっても、移動することによる発生するノイズを除去し、除去した領域を所望の輝度に補正することができるので、動きが生じる場合でも鮮明な同期検波画像を生成することができる。 Therefore, even when the vehicle is moving, the imaging unit 101 mounted on the vehicle captures a synchronous detection image of the road surface, noise generated by the movement is removed, and the removed region is obtained as desired. Since it can correct | amend to a brightness | luminance, even when a motion arises, a clear synchronous detection image can be produced | generated.
また、エッジ領域の周囲画像の画素に基づいてエッジ領域の輝度を設定するので、違和感のない鮮明な同期検波画像を生成することができる。 In addition, since the brightness of the edge region is set based on the pixels of the surrounding image of the edge region, it is possible to generate a clear synchronous detection image with no sense of incongruity.
更に、エッジ領域の周囲画像における平均輝度値を補正輝度値として、上記のエッジ領域の輝度値を補正するので、車両が移動中に、該車両に搭載した撮影部101で路面の同期検波画像を撮影するような場合であっても、移動することによる発生するノイズを除去し、除去した領域を所望の輝度に補正することができる。また、周囲の同期検波画像の出力値と大きく乖離することのない画像とすることができる。このため、動きが生じる場合でも鮮明な同期検波画像を生成することができる。 Further, since the brightness value of the edge region is corrected using the average brightness value in the surrounding image of the edge region as the corrected brightness value, the synchronous detection image of the road surface is captured by the photographing unit 101 mounted on the vehicle while the vehicle is moving. Even in the case of shooting, noise generated by movement can be removed, and the removed area can be corrected to a desired luminance. Moreover, it can be set as the image which does not largely diverge from the output value of the surrounding synchronous detection image. For this reason, a clear synchronous detection image can be generated even when movement occurs.
更に、エッジ領域記憶部110は、1回の同期検波処理で必要とする画像のエッジ領域を記憶するので、必要最小限の記憶容量とすることができる。 Furthermore, since the edge area storage unit 110 stores the edge area of the image necessary for one synchronous detection process, the necessary minimum storage capacity can be achieved.
また、上述した実施形態では、同期検波画像中のエッジ領域の出力を停止し、このエッジ領域の輝度値を、エッジ領域外周の輝度値の平均値とする例について説明したが、これ以外にも例えば、エッジ領域外周の最大輝度値、或いは最低輝度値とすることも可能である。更に、エッジ領域内周の輝度値の平均値とすることや、内周の輝度値と外周の輝度値の平均値を採用することも可能である。 In the above-described embodiment, the output of the edge region in the synchronous detection image is stopped and the luminance value of the edge region is set as the average value of the luminance values of the outer periphery of the edge region. For example, the maximum luminance value or the minimum luminance value at the outer periphery of the edge region can be set. Furthermore, it is also possible to adopt an average value of the luminance values of the inner periphery of the edge region, or an average value of the luminance values of the inner periphery and the outer periphery.
更に、内周の平均輝度値から外周の平均輝度値へ徐々に変化するようにエッジ領域の輝度値を設定することも可能である。こうすることにより、周囲の同期検波画像の出力値に適合した輝度値に設定でき、違和感の少ない同期検波画像を得ることができる。 Further, it is possible to set the luminance value of the edge region so as to gradually change from the average luminance value of the inner circumference to the average luminance value of the outer circumference. By doing so, it is possible to set a luminance value suitable for the output value of the surrounding synchronous detection image, and to obtain a synchronous detection image with less sense of incongruity.
また、輝度画像エッジ検出部106で用いるエッジ検出時の閾値を、同期検波出力画像の解像度(ビット階調)に応じて変化させることも可能である。具体的には、解像度が低い場合には、エッジ検出時の閾値を小さくするように設定することも可能である。このような構成により、ノイズの少ない同期検波画像に対して、必要以上に多くのエッジを検出することがなく、これとは反対にノイズの多い同期検波画像に対して、エッジ検出が少なすぎないように設定することができる。 In addition, the threshold for edge detection used by the luminance image edge detection unit 106 can be changed according to the resolution (bit gradation) of the synchronous detection output image. Specifically, when the resolution is low, it is possible to set the threshold value at the time of edge detection to be small. With such a configuration, more edges than necessary are not detected in a synchronous detection image with little noise, and on the contrary, there are not too many edge detections in a synchronous detection image with a lot of noise. Can be set as follows.
なお、上述した実施形態では、一検波周期に3枚の画像を撮影して同期検波処理を行う例について説明したが、本発明はこれに限定されるものではなく、一検波周期に2枚、或いは4以上の画像を撮影して同期検波処理を行うようにすることも可能である。 In the above-described embodiment, an example in which three images are captured in one detection cycle and synchronous detection processing is performed has been described. However, the present invention is not limited to this, and two images in one detection cycle. Alternatively, it is possible to capture four or more images and perform synchronous detection processing.
[第2実施形態の説明]
次に、第2実施形態について説明する。図6は第2実施形態に係る撮影装置の構成を示すブロック図である。図6に示すように、該撮影装置10aは、前述の図1に示した撮影装置10と対比して、同期検波出力補正部109の後段に反射率差分判定部112と、エッジ復元部113、及び画像出力部114を備えた点で相違する。それ以外の構成は、図1と同様であるので、同一符号を付して詳細な構成説明を省略する。
[Description of Second Embodiment]
Next, a second embodiment will be described. FIG. 6 is a block diagram showing a configuration of the photographing apparatus according to the second embodiment. As shown in FIG. 6, the imaging apparatus 10 a is different from the imaging apparatus 10 shown in FIG. 1 described above in that the reflectance difference determination unit 112, the edge restoration unit 113, and the subsequent stage of the synchronous detection output correction unit 109, And the image output unit 114 is provided. Since the other configuration is the same as that of FIG. 1, the same reference numerals are given and detailed description of the configuration is omitted.
反射率差分判定部112は、エッジ領域記憶部110に記憶されているエッジ領域の両側でそれぞれ光反射率を求め、更に、求めた各反射率の差分を演算し、この差分が予め設定した差分閾値よりも大きいか否かを判定する。以下、光反射率の測定方法について、図10を参照して説明する。 The reflectance difference determination unit 112 obtains the light reflectance on both sides of the edge region stored in the edge region storage unit 110, calculates the difference between the obtained reflectances, and the difference is a preset difference. It is determined whether or not it is larger than the threshold value. Hereinafter, a method for measuring the light reflectance will be described with reference to FIG.
図10は、投光部103より照射された光が、アスファルト(反射率Ra)、或いは白線(反射率RI)にて反射し、撮影部101にて撮影される様子を模式的に示す説明図である。投光部103より光が照射され、この光がアスファルトに照射されて反射すると、この反射光は撮影部101に入光して撮影される。そして、投光部103より照射される光量をIとし、拡散率をDaとすると、アスファルトへの入射光量はI・Daとなり、撮影部101で撮影される光量(反射光量)は、Ra・I・Daとなる。従って、入射光量I・Daと、反射光量Ra・I・Daとの比率により、反射率Raが求められる。従って、この反射率Raに基づいて、撮影部101で撮影された光は、アスファルトにて反射した光であることが認識される。 FIG. 10 is an explanatory diagram schematically showing how the light emitted from the light projecting unit 103 is reflected by asphalt (reflectance Ra) or white line (reflectance RI) and is photographed by the photographing unit 101. It is. When light is irradiated from the light projecting unit 103 and this light is applied to the asphalt and reflected, the reflected light enters the imaging unit 101 and is photographed. When the light amount irradiated from the light projecting unit 103 is I and the diffusion rate is Da, the incident light amount to the asphalt is I · Da, and the light amount (reflected light amount) photographed by the photographing unit 101 is Ra · I. -It becomes Da. Accordingly, the reflectance Ra is obtained from the ratio between the incident light quantity I · Da and the reflected light quantity Ra · I · Da. Therefore, based on this reflectance Ra, it is recognized that the light photographed by the photographing unit 101 is light reflected by asphalt.
同様に、投光部103より照射される光量をIとし、拡散率をDIとすると、白線への入射光量はI・DIとなり、撮影部101で撮影される光量(反射光量)は、RI・I・DIとなる。従って、入射光量I・DIと、反射光量RI・I・DIとの比率により、反射率RIが求められる。従って、撮影部101で撮影された光は、白線にて反射した光であることが認識される。つまり、撮影部101で撮影された画像の反射率を求めることにより、画像中に存在するアスファルトと白線を高精度に区分することができる。 Similarly, if the amount of light emitted from the light projecting unit 103 is I and the diffusivity is DI, the amount of light incident on the white line is I · DI, and the amount of light (reflected light amount) captured by the photographing unit 101 is RI · I / DI. Accordingly, the reflectance RI is obtained by the ratio of the incident light quantity I · DI and the reflected light quantity RI · I · DI. Therefore, it is recognized that the light photographed by the photographing unit 101 is light reflected by the white line. That is, asphalt and white lines existing in the image can be classified with high accuracy by obtaining the reflectance of the image photographed by the photographing unit 101.
図7は、反射率差分判定部112で、エッジと判定するか否かの判断を示す説明図であり、図7(a)はエッジ領域記憶部110に記憶されているエッジ画像を示しており、車両の動きによりエッジが移動している。具体的には、アスファルト上に投影される影の領域d1の周囲にエッジが存在し、且つ、白線d2の周囲にエッジが存在し、更に、路面の傷d3の部分にエッジが存在している。 FIG. 7 is an explanatory diagram showing whether the reflectance difference determination unit 112 determines whether or not to determine an edge, and FIG. 7A shows an edge image stored in the edge region storage unit 110. The edge is moved by the movement of the vehicle. Specifically, an edge is present around the shadow area d1 projected on the asphalt, an edge is present around the white line d2, and an edge is present at the portion of the scratch d3 on the road surface. .
また、図7(b)は、前述の第1実施形態で示した同期検波出力補正部109にて補正された後の検波画像を示しており、アスファルト上に存在する白線領域d4が表示されている。そして、反射率差分判定部112では、エッジ画像と検波画像との重畳画像(図7(a),(b)を重畳した画像)を作成する。その結果、図7(c)に示す画像が得られる。そして、この画像に含まれるエッジの両側にて反射率を測定し、この差分が予め設定した差分閾値(これを「Dth」とする)よりも大きい場合には、アスファルト上に存在する白線であるものと判断し、差分閾値Dthよりも小さい場合には、白線ではないものと判断する。 FIG. 7B shows a detection image after being corrected by the synchronous detection output correction unit 109 shown in the first embodiment, and a white line region d4 existing on the asphalt is displayed. Yes. Then, the reflectance difference determination unit 112 creates a superimposed image (an image in which FIGS. 7A and 7B are superimposed) of the edge image and the detected image. As a result, the image shown in FIG. 7C is obtained. Then, the reflectance is measured on both sides of the edge included in the image, and when this difference is larger than a preset difference threshold (this is referred to as “Dth”), it is a white line existing on the asphalt. If the difference is smaller than the difference threshold Dth, it is determined that the line is not a white line.
図7(c)に示す領域R1には、影によるエッジq31が存在しており、この領域ではエッジq31の両側(図中、上側と下側)において、反射率はほぼ同一であると判断される。即ち、エッジq31は、アスファルトに映し出された影であるから、エッジq31の両側で反射率は略同一となる。これに対して、領域R2には、白線によるエッジq32が存在しており、この領域ではエッジq32の両側において、反射率に大きな差が生じる。即ち、エッジq32の図中上側はアスファルトの領域であり、図中下側は白線の領域であるので、反射率に大きな差が生じる。そして、反射率の差分閾値を予めDthとして設定し、エッジq32両側の反射率の差分が差分閾値Dthよりも大きい場合には、このエッジ領域において、復元処理を実行する。 In the region R1 shown in FIG. 7C, there is an edge q31 due to a shadow, and in this region, the reflectance is determined to be substantially the same on both sides (upper and lower sides in the figure) of the edge q31. The That is, since the edge q31 is a shadow projected on the asphalt, the reflectance is substantially the same on both sides of the edge q31. On the other hand, an edge q32 due to a white line exists in the region R2, and in this region, a large difference in reflectance occurs on both sides of the edge q32. That is, the upper side of the edge q32 in the drawing is an asphalt region, and the lower side in the drawing is a white line region, so that there is a large difference in reflectance. Then, when the difference threshold of reflectance is set as Dth in advance, and the difference in reflectance between both sides of the edge q32 is larger than the difference threshold Dth, the restoration process is executed in this edge region.
即ち、領域R1に存在するエッジq31については復元処理を行わず、領域R2に存在するエッジq32では、復元処理を実行する。その結果、白線とアスファルトとの境界を、より高精度に区分することが可能となる。以下、図7(c)に示す領域R2の拡大図である図8を参照して復元処理の詳細について説明する。 That is, the restoration process is not performed on the edge q31 existing in the region R1, and the restoration process is performed on the edge q32 existing in the region R2. As a result, the boundary between the white line and the asphalt can be classified with higher accuracy. Details of the restoration process will be described below with reference to FIG. 8 which is an enlarged view of the region R2 shown in FIG.
ある程度の幅を持つエッジ領域が存在している場合には、第1実施形態の手法では、このエッジ領域は、周囲の画素に応じた画素データ(例えば、アスファルトの画素データや白線の画素データ)が代入されることになる。これに対して、第2実施形態では、エッジ領域内にて反射率の差分に基づいて、白線とアスファルトを区別する。例えば、図8中の折れ線L1で、反射率の変化が生じていると検出された場合、即ち、折れ線L1の上側にてアスファルトの反射率が測定され、下側にて白線の反射率が測定された場合には、この折れ線L1にて、白線とアスファルトの境界を設定する。その結果、白線とアスファルトの境界線をより高精度に検出することができる。 When an edge region having a certain width exists, in the method of the first embodiment, the edge region is pixel data corresponding to surrounding pixels (for example, asphalt pixel data or white line pixel data). Will be substituted. On the other hand, in the second embodiment, the white line and the asphalt are distinguished based on the difference in reflectance in the edge region. For example, when it is detected that a change in reflectance has occurred at the polygonal line L1 in FIG. 8, that is, the reflectance of asphalt is measured above the polygonal line L1, and the reflectance of the white line is measured below. If it is, the boundary between the white line and the asphalt is set at the broken line L1. As a result, the boundary line between the white line and the asphalt can be detected with higher accuracy.
以下、図9に示すフローチャートを参照して、第2実施形態に係る撮影装置10aの処理手順について説明する。図9において、ステップS101〜S114、S115の処理は前述した図4と同様であり、第2実施形態では、S114とS115の間にS121〜S125の処理が加えられている点で相違している。 Hereinafter, with reference to a flowchart shown in FIG. 9, a processing procedure of the photographing apparatus 10a according to the second embodiment will be described. In FIG. 9, the processes of steps S101 to S114 and S115 are the same as those of FIG. 4 described above, and the second embodiment is different in that the processes of S121 to S125 are added between S114 and S115. .
よって、ステップS101〜114の詳細な説明を省略する。以下、図9に示すステップS121〜S125の処理について説明する。 Therefore, detailed description of steps S101-114 is omitted. Hereinafter, the processing of steps S121 to S125 illustrated in FIG. 9 will be described.
ステップS121において、図6に示す反射率差分判定部112は、エッジ領域記憶部110に記憶されているエッジ画像と、同期検波出力補正部109で補正された同期検波画像を重畳した画像(図7(c)に示す画像)に基づき、エッジ領域の両側にて反射率の差分を演算する。具体的には、図7(c)に示すように、車両の進行方向を向くエッジである領域R1のエッジq31を挟む両側領域での反射率を求め、更に、求めた反射率の差分を演算する。同様に、領域R2のエッジq32を挟む両側領域での反射率を求め、更に、求めた反射率の差分を演算する。 In step S121, the reflectance difference determination unit 112 illustrated in FIG. 6 superimposes the edge image stored in the edge region storage unit 110 and the synchronous detection image corrected by the synchronous detection output correction unit 109 (FIG. 7). Based on the image shown in (c), the difference in reflectance is calculated on both sides of the edge region. Specifically, as shown in FIG. 7 (c), the reflectance in the both side regions sandwiching the edge q31 of the region R1, which is the edge facing the traveling direction of the vehicle, is calculated, and the calculated difference in reflectance is calculated. To do. Similarly, the reflectance in both side regions sandwiching the edge q32 of the region R2 is obtained, and further, the difference in the obtained reflectance is calculated.
ステップS122において、反射率差分判定部112は、エッジを挟む両側領域で測定した反射率の差分が、差分閾値Dth以上であるか否かを判断する。そして、差分閾値Dth以上である場合には(ステップS122でYES)、ステップS123において、エッジ復元部113は、図6に示した輝度画像エッジ検出部106で検出された輝度画像を読み込む。 In step S122, the reflectance difference determination unit 112 determines whether or not the difference in reflectance measured in both side regions sandwiching the edge is greater than or equal to the difference threshold value Dth. If the difference is greater than or equal to the difference threshold Dth (YES in step S122), in step S123, the edge restoration unit 113 reads the luminance image detected by the luminance image edge detection unit 106 shown in FIG.
その後、ステップS124において、エッジ復元部113は、エッジ領域において輝度画像を用いてエッジを復元する。即ち、図7(c)に示した領域R2のエッジq32のように、エッジを挟む両側領域での反射率の差分が差分閾値Dthよりも大きい場合には、このエッジq32は白線とアスファルトの境界のエッジであるものと認識することができるので、反射率が変化する境界を白線とアスファルトの境界であるものとして、白線側を白線の輝度とし、アスファルト側をアスファルトの輝度としてエッジ画像を復元する。 Thereafter, in step S124, the edge restoration unit 113 restores the edge using the luminance image in the edge region. That is, when the difference in reflectance between the two regions sandwiching the edge is larger than the difference threshold Dth as in the edge q32 of the region R2 shown in FIG. 7C, the edge q32 is the boundary between the white line and the asphalt. Since the boundary where the reflectance changes is the boundary between the white line and the asphalt, the white line side is set as the brightness of the white line, and the asphalt side is set as the asphalt brightness to restore the edge image. .
具体的には、図8に示すように、白線とアスファルトとの境界が折れ線L1とされた場合には、この折れ線L1の下側を白線の輝度とし、上側をアスファルトの輝度としてエッジ画像を復元する。その後、ステップS125に処理を進める。 Specifically, as shown in FIG. 8, when the boundary between the white line and the asphalt is a polygonal line L1, the edge image is restored by setting the lower side of the broken line L1 as the luminance of the white line and the upper side as the luminance of the asphalt. To do. Thereafter, the process proceeds to step S125.
一方、ステップS122の処理で、エッジを挟む両側領域での反射率の差分が、差分閾値Dth未満であると判断された場合には(ステップS122でNO)、エッジの復元処理を行わずに、ステップS125に処理を進める。具体的には、図7(c)に示した領域R1のエッジq 31のように、エッジを挟む両側領域で反射率の差分が差分閾値Dth未満である場合には、この領域はアスファルトに投影された影によるエッジである可能性が高いので、復元処理を行わずに、ステップS125に処理を進める。 On the other hand, if it is determined in step S122 that the difference in reflectance between the two regions sandwiching the edge is less than the difference threshold Dth (NO in step S122), the edge restoration process is not performed. The process proceeds to step S125. Specifically, as in the edge q31 of the region R1 shown in FIG. 7C, when the difference in reflectance is less than the difference threshold Dth in both side regions sandwiching the edge, this region is projected onto the asphalt. Since there is a high possibility that the edge is caused by the shadow, the process proceeds to step S125 without performing the restoration process.
ステップS125において、反射率差分判定部112は、全てのエッジにて判定が終了したか否かを判断し、終了した場合には、ステップS115に処理を進める。 In step S125, the reflectance difference determination unit 112 determines whether or not the determination has been completed for all edges. If the determination has been completed, the process proceeds to step S115.
そして、ステップS115において、エッジ復元部113で復元処理が行われた検波画像を、画像出力部114より後段の機器に出力する。その後、次工程の処理に移行する。また、ステップS116において、電源がオフと判断された場合には、本処理を終了する。こうして、エッジを挟む両側領域にて反射率を測定し、これらの差分に応じて白線とアスファルトとの境界であるか否かを判断することができ、白線とアスファルトとの境界であると判断された際には、このエッジ領域内を復元して白線の領域とアスファルトの領域をより詳細に区分することができるのである。 In step S115, the detection image subjected to the restoration process by the edge restoration unit 113 is output from the image output unit 114 to a subsequent device. Thereafter, the process proceeds to the next process. If it is determined in step S116 that the power is off, the process is terminated. In this way, the reflectance is measured in both side regions sandwiching the edge, and it can be determined whether or not it is the boundary between the white line and the asphalt according to the difference between them, and it is determined that the boundary is between the white line and the asphalt. In this case, the inside of the edge region can be restored and the white line region and the asphalt region can be divided in more detail.
このようにして、第2実施形態に係る撮影装置10aでは、前述した第1実施形態にて示した撮影装置10と同様の効果を達成できる。更に、エッジを挟む両側領域の反射率に基づいて、エッジ領域を白線の領域とアスファルトの領域に区分し、白線の領域を白線の輝度とし、アスファルトの領域をアスファルトの輝度とすることにより、エッジ領域を復元する。 In this way, the imaging apparatus 10a according to the second embodiment can achieve the same effects as those of the imaging apparatus 10 shown in the first embodiment described above. Furthermore, the edge area is divided into a white line area and an asphalt area based on the reflectance of the both side areas sandwiching the edge, the white line area is set as the white line brightness, and the asphalt area is set as the asphalt brightness. Restore space.
従って、エッジ領域をより細かくアスファルト領域と白線領域に区別することができ、アスファルト上に敷設された白線位置をより高精度に認識することができる。その結果、例えば、車両と白線との間の距離を測定しながら車両を白線に沿って走行させる制御を行う場合等に、車両走行の精度を向上させることが可能となる。 Therefore, the edge area can be more finely distinguished into the asphalt area and the white line area, and the position of the white line laid on the asphalt can be recognized with higher accuracy. As a result, for example, when the vehicle is controlled to travel along the white line while measuring the distance between the vehicle and the white line, the vehicle traveling accuracy can be improved.
また、エッジを挟む両側領域の同期検波出力に基づいて各側の反射率の差分を求め、この差分が予め設定した差分閾値Dthを超えた場合に、アスファルトと白線の境界であるものと判断するので、より高精度な境界認識が可能となる。 Also, a difference in reflectance on each side is obtained based on the synchronous detection output of both sides across the edge, and when this difference exceeds a preset difference threshold Dth, it is determined that the boundary is between asphalt and a white line. Therefore, more accurate boundary recognition is possible.
以上、本発明の撮影装置、及び撮影装置を用いた画像処理方法を図示の実施形態に基づいて説明したが、本発明はこれに限定されるものではなく、各部の構成は、同様の機能を有する任意の構成のものに置き換えることができる。 As described above, the image capturing apparatus and the image processing method using the image capturing apparatus of the present invention have been described based on the illustrated embodiment, but the present invention is not limited to this, and the configuration of each unit has the same function. It can be replaced with one having any configuration.
本発明は、同期検波処理画像に存在するノイズを除去することに利用することができる。 The present invention can be used to remove noise present in a synchronous detection processed image.
10,10a 撮影装置
101 撮影部
102 露光制御部
103 投光部
104 同期パルス生成部
105 参照信号生成部
106 輝度画像エッジ検出部
107 画像情報記憶部
108 同期検波処理部
109 同期検波出力補正部
110 エッジ領域記憶部
111 検波画像生成部
112 反射率差分判定部
113 エッジ復元部
114 画像出力部
P 撮影対象
DESCRIPTION OF SYMBOLS 10,10a Image pick-up apparatus 101 Image pick-up part 102 Exposure control part 103 Light projection part 104 Sync pulse generation part 105 Reference signal generation part 106 Luminance image edge detection part 107 Image information memory | storage part 108 Synchronous detection process part 109 Synchronous detection output correction part 110 Edge Area storage unit 111 Detection image generation unit 112 Reflectance difference determination unit 113 Edge restoration unit 114 Image output unit P Imaging target
Claims (10)
前記強度変調された光が投光された撮影対象を、前記参照信号の発信タイミングと同期して撮影する撮影手段と、
前記撮影手段にて撮影された撮影対象の画像を記憶する画像記憶手段と、
前記画像記憶手段に記憶されている一検波周期内の画像データ、及び前記参照信号に基づいて同期検波処理を行い、一検波周期での同期検波画像を生成する同期検波処理手段と、
前記一検波周期内の画像データの、所定の高輝度を有する高輝度部のエッジを検出する高輝度部エッジ検出手段と、
前記一検波周期内の少なくとも一つの画像データから得られる高輝度部のエッジに基づいて、所定のエッジ領域を生成するエッジ領域生成手段と、
前記同期検波画像中の、前記エッジ領域生成手段にて生成されたエッジ領域に、所望の輝度となる画素を代入して前記同期検波処理の結果を補正する同期検波補正手段と、
を有することを特徴とする撮影装置。 A plurality of reference signals within one detection period, and light projecting means for projecting light whose intensity is modulated by each reference signal within the one detection period;
An imaging means for imaging the imaging object projected with the intensity-modulated light in synchronization with the transmission timing of the reference signal;
Image storage means for storing an image of a subject to be photographed by the photographing means;
Image data for one detection cycle stored in the image storing means, and performs a synchronous detection processing based on the reference signal, and the synchronous detection processing means for generating a synchronous detection image in one detection cycle,
A high-luminance portion edge detecting means for detecting an edge of a high-luminance portion having a predetermined high luminance in the image data within the one detection cycle ;
Edge region generation means for generating a predetermined edge region based on the edge of the high-luminance portion obtained from at least one image data within the one detection period ;
In the synchronous detection image, synchronous detection correction means for correcting the result of the synchronous detection processing by substituting a pixel having a desired luminance into the edge region generated by the edge region generation means,
A photographing apparatus comprising:
前記反射率差分判定手段にて、光反射率の差分が所定の差分閾値よりも大きいと判定された場合に、この高輝度部のエッジに基づいて生成されたエッジ領域の画像を復元する画像復元手段と、
を更に備えたことを特徴とする請求項1〜請求項6のいずれか1項に記載の撮影装置。 The reflectance difference determination means for obtaining the light reflectance of both side regions sandwiching the edge detected by the high-luminance portion edge detection means, and obtaining the difference of each light reflectance;
Image restoration that restores the image of the edge region generated based on the edge of the high-intensity part when the difference in light reflectance is determined by the reflectance difference determination means to be larger than a predetermined difference threshold Means,
The photographing apparatus according to claim 1, further comprising:
撮影された前記撮影対象の画像を記憶するステップと、
記憶されている一検波周期内の画像データ、及び前記参照信号に基づいて同期検波処理を行い、一検波周期での同期検波画像を生成するステップと、
前記一検波周期内の画像データの、所定の高輝度を有する高輝度部のエッジを検出するステップと、
前記一検波周期内の少なくとも一つの画像データから得られる高輝度部のエッジに基づいて、所定のエッジ領域を生成するステップと、
前記同期検波画像中の、前記エッジ領域に、所望の輝度となる画素を代入して前記同期検波処理の結果を補正するステップと、
を有することを特徴とする撮影装置の画像処理方法。
Transmitting a plurality of reference signals within one detection period, and projecting light that has been intensity-modulated by each reference signal within the one detection period toward an object to be imaged; and the intensity-modulated light is projected Photographing the subject to be photographed in synchronization with the transmission timing of the reference signal;
Storing the photographed image of the photographing object;
Image data for one detection cycle stored, and performs a synchronous detection processing based on the reference signal, and generating a synchronous detection image in one detection cycle,
Detecting an edge of a high-luminance portion having a predetermined high luminance in the image data within the one detection cycle ;
Generating a predetermined edge region based on an edge of a high-luminance portion obtained from at least one image data within the one detection period ;
Substituting a pixel having a desired luminance into the edge region in the synchronous detection image and correcting the result of the synchronous detection processing;
An image processing method for a photographing apparatus, comprising:
光反射率の差分が所定の差分閾値よりも大きいと判定れた場合に、この高輝度部のエッジに基づいて生成されたエッジ領域の画像を復元するステップと、
を更に備えたことを特徴とする請求項9に記載の撮影装置の画像処理方法。 Obtaining the light reflectance of both side regions sandwiching the edge detected by the high-luminance part edge detecting means, and obtaining a difference between the light reflectances;
When it is determined that the difference in light reflectance is greater than a predetermined difference threshold, restoring the image of the edge region generated based on the edge of the high-intensity part; and
The image processing method of the photographing apparatus according to claim 9, further comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012195892A JP5978866B2 (en) | 2012-03-06 | 2012-09-06 | Image capturing apparatus and image processing method for image capturing apparatus |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012048779 | 2012-03-06 | ||
JP2012048779 | 2012-03-06 | ||
JP2012195892A JP5978866B2 (en) | 2012-03-06 | 2012-09-06 | Image capturing apparatus and image processing method for image capturing apparatus |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2013214938A JP2013214938A (en) | 2013-10-17 |
JP5978866B2 true JP5978866B2 (en) | 2016-08-24 |
Family
ID=49587969
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012195892A Expired - Fee Related JP5978866B2 (en) | 2012-03-06 | 2012-09-06 | Image capturing apparatus and image processing method for image capturing apparatus |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5978866B2 (en) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6244985B2 (en) * | 2014-03-05 | 2017-12-13 | 日産自動車株式会社 | Camera device |
JP6244984B2 (en) * | 2014-03-05 | 2017-12-13 | 日産自動車株式会社 | Camera device |
JP6244986B2 (en) * | 2014-03-05 | 2017-12-13 | 日産自動車株式会社 | Camera device |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003087644A (en) * | 2001-09-07 | 2003-03-20 | Matsushita Electric Ind Co Ltd | Device and method for picking up and displaying image and program |
-
2012
- 2012-09-06 JP JP2012195892A patent/JP5978866B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2013214938A (en) | 2013-10-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5800082B2 (en) | Distance measuring device and distance measuring method | |
JP5448617B2 (en) | Distance estimation device, distance estimation method, program, integrated circuit, and camera | |
US8339582B2 (en) | Apparatus and method to correct image | |
JP6269838B2 (en) | Self-position calculation device and self-position calculation method | |
US9767545B2 (en) | Depth sensor data with real-time processing of scene sensor data | |
JP2012198075A (en) | Stereoscopic camera device and image adjusting method | |
JP5978866B2 (en) | Image capturing apparatus and image processing method for image capturing apparatus | |
JP6353233B2 (en) | Image processing apparatus, imaging apparatus, and image processing method | |
JP2020193957A (en) | Distance image generator which corrects abnormal distance measurement | |
JP2014130086A (en) | Range image sensor, processor and program | |
KR101615381B1 (en) | Image acquisition method and digital camera system | |
JP2011053025A (en) | Distance measuring device and method of measuring distance | |
JP6369897B2 (en) | Self-position calculation device and self-position calculation method | |
JP6299319B2 (en) | Self-position calculation device and self-position calculation method | |
US10091404B2 (en) | Illumination apparatus, imaging system, and illumination method | |
WO2021084891A1 (en) | Movement amount estimation device, movement amount estimation method, movement amount estimation program, and movement amount estimation system | |
JP6459745B2 (en) | Self-position calculation device and self-position calculation method | |
JP2021164059A (en) | Image processing apparatus, image processing method, and program | |
JP2008058279A (en) | Apparatus and method for forming range image, and program | |
US9294686B2 (en) | Image capture apparatus and image capture method | |
JP6015692B2 (en) | Projector, projection state adjustment method, and projection state adjustment program | |
JP5772251B2 (en) | Camera system and image generation method | |
JP2013024636A (en) | Distance measuring apparatus | |
JP2018110299A (en) | Image processing method, image processing device, and imaging device | |
WO2021084892A1 (en) | Image processing device, image processing method, image processing program, and image processing system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20150729 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20160411 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20160421 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160607 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20160628 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20160711 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 5978866 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
LAPS | Cancellation because of no payment of annual fees |