[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2013016981A - Imaging display control system - Google Patents

Imaging display control system Download PDF

Info

Publication number
JP2013016981A
JP2013016981A JP2011147486A JP2011147486A JP2013016981A JP 2013016981 A JP2013016981 A JP 2013016981A JP 2011147486 A JP2011147486 A JP 2011147486A JP 2011147486 A JP2011147486 A JP 2011147486A JP 2013016981 A JP2013016981 A JP 2013016981A
Authority
JP
Japan
Prior art keywords
infrared light
subject
display control
pixel
vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011147486A
Other languages
Japanese (ja)
Other versions
JP5712821B2 (en
Inventor
Kazuyoshi Akiba
一芳 秋葉
Kazunari Hattori
和成 服部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2011147486A priority Critical patent/JP5712821B2/en
Publication of JP2013016981A publication Critical patent/JP2013016981A/en
Application granted granted Critical
Publication of JP5712821B2 publication Critical patent/JP5712821B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an imaging display control system capable of switching a brightness calculation method using signals of visible light and near infrared light, enabling the appropriate switching in accordance with a driving scene of a vehicle.SOLUTION: An imaging display control system comprises: a signal processing section 23 for calculating brightness of each pixel on the basis of intensity of visual light and near infrared light received by an image sensor 22; and an image recognition section 8 for allowing a display 9 to display an image in accordance with the brightness of each pixel, being calculated by the signal processing section 23. The image recognition section 8 searches for an object having been previously set as an object intensely reflecting or emitting the near infrared light, by image recognition on the basis of a video signal received from a camera 3 which outputs the video signal based on the visible light. When the image recognition section 8 does not find the object intensely reflecting or emitting the near infrared light as a result of the searching, the image recognition section 8 calculates the brightness of each pixel by a first calculation method. When it finds the object, the image recognition section 8 calculates the brightness of each pixel by a second calculation method in which the intensity of the near infrared light is less contributed to the brightness than the first method.

Description

本発明は、車載用撮影表示制御システムに関するものである。   The present invention relates to an in-vehicle photographing display control system.

従来、車載用の撮影表示制御システムにおいて、近赤外光を受光する複数個の近赤外光用撮像素子と可視光を受光する複数個の可視光用撮像素子とを有する撮像ユニットを備え、この撮像ユニットを用いて各画素の可視光強度および各画素の近赤外光強度を取得し、各画素の可視光強度に基づいて得られる各画素の輝度を、近赤外光強度に応じて増加させることで、夜間等の暗い環境でもユーザに見易い画像を提供する技術が知られている。   Conventionally, an in-vehicle imaging display control system includes an imaging unit having a plurality of near-infrared light imaging elements that receive near-infrared light and a plurality of visible light imaging elements that receive visible light, Using this imaging unit, the visible light intensity of each pixel and the near-infrared light intensity of each pixel are acquired, and the luminance of each pixel obtained based on the visible light intensity of each pixel is determined according to the near-infrared light intensity. A technique for providing an image that is easy for the user to see even in a dark environment such as at night is known.

また、このような車載用の撮影表示制御システムにおいて、近赤外光が強い場所を撮影するときと弱い場所を撮影する時とで、可視光および近赤外光の信号を用いた輝度の計算方法を切り替える技術が知られている(例えば、特許文献1、2参照)。   In such an on-vehicle imaging display control system, luminance calculation using visible light and near infrared light signals is performed when photographing a place where the near infrared light is strong and photographing a weak place. Techniques for switching methods are known (see, for example, Patent Documents 1 and 2).

特開2010−98358号公報JP 2010-98358 A 特開2008−289000号公報JP 2008-289000 A

しかし、上記のような技術は、車両周囲の環境が近赤外光の強い環境か弱い環境か(より典型的には昼か夜か)で輝度の計算方法を切り替えているに過ぎない。しかし、夜であっても、車両の走行シーンによっては、近赤外光を強く反射または放出する被写体も存在するので、計算方法の切り替え方法が必ずしも適切ではない。   However, the technique as described above merely switches the calculation method of the luminance depending on whether the environment around the vehicle is an environment where the near-infrared light is strong or weak (more typically day or night). However, even at night, depending on the driving scene of the vehicle, there is a subject that strongly reflects or emits near-infrared light, so that the calculation method switching method is not always appropriate.

本発明は上記点に鑑み、可視光および近赤外光の信号を用いた輝度の計算方法を切り替えることのできる撮影表示制御システムにおいて、車両の走行シーンに応じた適切な切り替えを行えるようにすることを目的とする。   In view of the above points, the present invention enables an appropriate switching according to a traveling scene of a vehicle in an imaging display control system capable of switching a luminance calculation method using visible light and near infrared light signals. For the purpose.

上記目的を達成するための請求項1に記載の発明は、可視光および近赤外光を受光する撮像素子(22)と、前記撮像素子(22)が受光した可視光および近赤外光の強度に基づいて、各画素の輝度を算出する信号処理手段(23)と、前記信号処理手段(23)が算出した前記各画素の輝度に基づいた画像をディスプレイ(9)に表示させる表示制御手段(8)と、を備え、前記表示制御手段(8)は、近赤外光と可視光のうち可視光のみに基づく映像信号を出力する可視光カメラ(3)から受けた前記映像信号に基づいて、近赤外光を強く反射または放出する被写体としてあらかじめ設定された被写体を画像認識によって探索し、探索の結果近赤外光を強く反射または放出する被写体が見つからなかった場合は、前記撮像素子(22)が受光した可視光および近赤外光の強度に基づいて、第1の算出方法で各画素の輝度を算出し、探索の結果近赤外光を強く反射または放出する被写体が見つかった場合は、前記撮像素子(22)が受光した可視光および近赤外光の強度に基づいて、前記第1の方法よりも輝度に対する近赤外光の強度の寄与が低くなるような第2の算出方法で、各画素の輝度を算出するよう、前記信号処理手段(23)を制御することを特徴とする車載用撮影表示制御システムである。   In order to achieve the above object, the invention according to claim 1 is directed to an imaging device (22) that receives visible light and near infrared light, and visible light and near infrared light received by the imaging device (22). Signal processing means (23) for calculating the brightness of each pixel based on the intensity, and display control means for displaying on the display (9) an image based on the brightness of each pixel calculated by the signal processing means (23) (8), wherein the display control means (8) is based on the video signal received from the visible light camera (3) that outputs a video signal based only on visible light out of near infrared light and visible light. If a subject preset as a subject that strongly reflects or emits near-infrared light is searched by image recognition, and the subject that strongly reflects or emits near-infrared light is not found as a result of the search, (22) is The brightness of each pixel is calculated by the first calculation method based on the intensity of the visible light and near-infrared light that has been radiated, and when a subject that strongly reflects or emits near-infrared light is found as a result of the search, Based on the intensity of visible light and near-infrared light received by the image sensor (22), a second calculation method in which the contribution of the intensity of near-infrared light to luminance is lower than that of the first method, The vehicle-mounted imaging display control system is characterized in that the signal processing means (23) is controlled so as to calculate the luminance of each pixel.

このように、近赤外光を強く反射または放出する被写体をあらかじめ設定しておき、そのような被写体が画像認識で見つかった場合と見つからなかった場合とで、輝度の計算方法を変えることで、車両の走行シーンに応じた適切な切り替えを行える。そして、近赤外光を強く反射または放出する被写体が見つかった場合は、輝度計算の際に近赤外光強度の寄与を低くするので、そのユーザは、ディスプレイ(9)上で、その被写体が明るすぎて見づらくなってしまう可能性が低下する。   In this way, by setting in advance a subject that strongly reflects or emits near-infrared light, and by changing the luminance calculation method between when such a subject is found by image recognition and when it is not found, Appropriate switching can be performed according to the driving scene of the vehicle. When a subject that strongly reflects or emits near-infrared light is found, the contribution of the near-infrared light intensity is reduced during the luminance calculation, so that the user can view the subject on the display (9). The possibility of being too bright and difficult to see decreases.

また、請求項2に記載の発明は、請求項1に記載の車載用撮影表示制御システムにおいて、前記あらかじめ設定された被写体は、道路標識を含むことを特徴とする。このように、近赤外光を強く反射または放出する被写体として道路標識をあらかじめ設定しておくことで、車両の走行時に、道路標識が明るすぎて見づらくなってしまう可能性が低下する。   According to a second aspect of the present invention, in the in-vehicle photographing display control system according to the first aspect, the preset subject includes a road sign. Thus, by setting the road sign as a subject that strongly reflects or emits near infrared light in advance, the possibility that the road sign becomes too bright and difficult to see when the vehicle is traveling is reduced.

また、請求項3に記載の発明は、請求項1または2に記載の車載用撮影表示制御システムにおいて、前記あらかじめ設定された被写体は、信号機、車両の前照灯、ブレーキランプ、およびウインカーのうち少なくとも1つを含むことを特徴とする。   According to a third aspect of the present invention, in the in-vehicle photographing display control system according to the first or second aspect, the preset subject is a traffic light, a vehicle headlamp, a brake lamp, or a blinker. It is characterized by including at least one.

このように、近赤外光を強く反射または放出する被写体として信号機、車両の前照灯、ブレーキランプ、およびウインカーのうち少なくとも1つをあらかじめ設定しておくことで、車両の走行時に、信号機または前照灯またはブレーキランプまたはウインカーのハレーション(色信号が飽和して白飛びすること)を低減することができる。   Thus, by setting in advance at least one of a traffic light, a vehicle headlamp, a brake lamp, and a turn signal as a subject that strongly reflects or emits near-infrared light, It is possible to reduce the halation of the headlight, the brake lamp, or the turn signal (the color signal is saturated and whiteout occurs).

また、請求項4に記載の発明は、請求項1ないし3のいずれか1つに記載の車載用撮影表示制御システムにおいて、前記信号処理手段(23)は更に、前記撮像素子(22)が受光した可視光の強度に基づいて各画素の色成分を算出し、前記表示制御手段(8)は、前記信号処理手段(23)が算出した前記各画素の輝度および色成分に基づいた画像をディスプレイ(9)に表示させ、更に前記表示制御手段(8)は、前記可視光カメラ(3)から受けた前記映像信号に基づいて、近赤外光を強く反射または放出する被写体を画像認識によって探索し、探索の結果近赤外光を強く反射または放出する被写体が見つからなかった場合に比べて見つかった場合は、同じ可視光強度に対して、各画素の色成分の絶対値を大きくすることを特徴とする。   According to a fourth aspect of the present invention, in the in-vehicle photographing display control system according to any one of the first to third aspects, the signal processing means (23) is further adapted to receive light by the imaging element (22). The color component of each pixel is calculated based on the intensity of the visible light, and the display control means (8) displays an image based on the luminance and color component of each pixel calculated by the signal processing means (23). Further, the display control means (8) searches for a subject that strongly reflects or emits near-infrared light by image recognition based on the video signal received from the visible light camera (3). However, if a subject that strongly reflects or emits near infrared light is not found as a result of the search, the absolute value of the color component of each pixel is increased for the same visible light intensity. Characterize

このようにすることで、そのユーザは、ディスプレイ(9)上で、その被写体の色をよりはっきりと確認することができる。例えば、その被写体の内部の文字等の確認も容易になる。   By doing in this way, the user can confirm the color of the subject more clearly on the display (9). For example, it is easy to check characters inside the subject.

また、請求項5に記載の発明は、請求項1ないし4のいずれか1つに記載の車載用撮影表示制御システムにおいて、当該車載用撮影表示制御システムが搭載される車両には、前記車両の前方に近赤外光を投射するIR投光部(7)があり、前記表示制御手段(8)は、探索の結果近赤外光を強く反射または放出する被写体が見つかった場合でも、その見つかった被写体の画素数が閾値以上である場合は、前記第1の方法で、各画素の輝度を算出するよう、前記信号処理手段(23)を制御することを特徴とする。   The invention described in claim 5 is the vehicle-mounted shooting display control system according to any one of claims 1 to 4, wherein the vehicle on which the vehicle-mounted shooting display control system is mounted includes: There is an IR light projecting unit (7) that projects near-infrared light in the front, and the display control means (8) is able to find the object that strongly reflects or emits near-infrared light as a result of the search. When the number of pixels of the subject is greater than or equal to a threshold value, the signal processing means (23) is controlled to calculate the luminance of each pixel by the first method.

このようにするのは、IR投光部(7)によって近赤外光が投光される位置が、車両からある程度前方に離れた部分であり、車両の近傍にはIR投光部(7)からの光が当たらないため、当該道路標識が近赤外光を強く反射しない可能性があるから、そのような道路標識のために輝度の計算方法を第2の方法にするよりは、全体の視認性を向上させた方がよい可能性が高いからである。   In this way, the position where the near-infrared light is projected by the IR projector (7) is a part far away from the vehicle to some extent, and the IR projector (7) is located in the vicinity of the vehicle. The road sign may not reflect strongly near-infrared light because it is not exposed to light from the light source. Therefore, rather than using the second method for calculating the brightness for such a road sign, This is because it is highly possible that the visibility should be improved.

なお、上記および特許請求の範囲における括弧内の符号は、特許請求の範囲に記載された用語と後述の実施形態に記載される当該用語を例示する具体物等との対応関係を示すものである。   In addition, the code | symbol in the bracket | parenthesis in the said and the claim shows the correspondence of the term described in the claim, and the concrete thing etc. which illustrate the said term described in embodiment mentioned later. .

車載用撮影表示制御システム1の構成図である。It is a block diagram of the imaging | photography display control system 1 for vehicle mounting. 画像認識部が実行する処理のフローチャートである。It is a flowchart of the process which an image recognition part performs. 周辺監視フロントカメラにIRの強い被写体51〜55が入った状態の画像の一例を示す図である。It is a figure which shows an example of the state in which the subjects 51-55 with strong IR entered the periphery monitoring front camera. 仮にIR係数がデフォルト値であった場合にディスプレイに表示される画像の一例を示す図である。It is a figure which shows an example of the image displayed on a display, when IR coefficient is a default value. IR係数が制限値である場合にディスプレイに表示される画像の一例を示す図である。It is a figure which shows an example of the image displayed on a display when IR coefficient is a limiting value.

以下、本発明の一実施形態について説明する。図1に、本実施形態に係る車載用撮影表示制御システム1の構成を示す。この車載用撮影表示制御システム1は、車両に搭載され、車室内の乗員(ドライバ等)に車外の撮影画像を表示するためのシステムであり、ナイトビジョンカメラ2、周辺監視フロントカメラ3、周辺監視リアカメラ4、周辺監視右サイドカメラ5、周辺監視左サイドカメラ6、車両の前方に近赤外光を投射するIR投光部7、画像認識部8、ディスプレイ9等を有している。   Hereinafter, an embodiment of the present invention will be described. FIG. 1 shows a configuration of an in-vehicle shooting display control system 1 according to the present embodiment. This in-vehicle shooting display control system 1 is a system that is mounted on a vehicle and displays a shot image outside the vehicle to passengers (drivers, etc.) in the vehicle interior. The night vision camera 2, the surrounding monitoring front camera 3, the surrounding monitoring. The rear camera 4, the surrounding monitoring right side camera 5, the surrounding monitoring left side camera 6, an IR projector 7 that projects near-infrared light in front of the vehicle, an image recognition unit 8, a display 9, and the like.

ナイトビジョンカメラ2は、可視光および近赤外光を受光し、受光した可視光および近赤外光に基づいた輝度および色成分の映像信号を画像認識部8に出力するカメラである。このナイトビジョンカメラ2は、車両から見て前方を撮影するように車両に取り付けられており、レンズ21、撮像素子22、信号処理部23、メモリ24、D/A変換部25を備える。このナイトビジョンカメラ2においては、レンズ21から撮像素子22に入射した可視光および近赤外光が撮像素子22で受光され、撮像素子22は受光した可視光および近赤外光の強度の信号を信号処理部23に出力する。   The night vision camera 2 is a camera that receives visible light and near-infrared light, and outputs video signals of luminance and color components based on the received visible light and near-infrared light to the image recognition unit 8. The night vision camera 2 is attached to the vehicle so as to photograph the front as viewed from the vehicle, and includes a lens 21, an image sensor 22, a signal processing unit 23, a memory 24, and a D / A conversion unit 25. In the night vision camera 2, visible light and near-infrared light incident on the image pickup device 22 from the lens 21 are received by the image pickup device 22, and the image pickup device 22 receives signals of the intensity of the received visible light and near-infrared light. Output to the signal processing unit 23.

撮像素子22は、マトリックス状に配列された複数の画素を有している。画素の配列としては、本実施形態では、特許文献1と同様、赤領域の波長(R)および近赤外領域の波長(I)に感度を有するR+I画素、緑領域の波長(G)および近赤外領域の波長(I)に感度を有するG+I画素、青領域の波長(B)および近赤外領域の波長(I)に感度を有するB+I画素、および、近赤外領域の波長(I)のみに感度を有するI画素が、4個1組で矩形の頂点を構成するように並び、そのような組が複数個縦横に配列されるような構成を有しているが、他の配列構成を有していてもよい。   The image sensor 22 has a plurality of pixels arranged in a matrix. In this embodiment, as in the case of Patent Document 1, the pixel arrangement is an R + I pixel having sensitivity to the wavelength (R) in the red region and the wavelength (I) in the near infrared region, the wavelength (G) in the green region, and the near region. G + I pixel sensitive to wavelength (I) in infrared region, B + I pixel sensitive to wavelength (B) in blue region and wavelength (I) in near infrared region, and wavelength (I) in near infrared region The I pixels that are sensitive only to each other are arranged so as to form a rectangular vertex with a set of four, and a plurality of such sets are arranged vertically and horizontally. You may have.

信号処理部23(信号処理手段の一例に相当する)は、撮像素子22が受光した可視光および近赤外光の強度を一定周期(例えば1秒に60回)で取得し、取得する度に、取得した強度に基づいて、各画素の輝度および色成分を算出し、算出した各画素の輝度および色成分をD/A変換部25に出力する。輝度および色成分の算出の際には、メモリ24を作業領域として使用する。   The signal processing unit 23 (corresponding to an example of signal processing means) acquires the intensity of visible light and near-infrared light received by the image sensor 22 at a constant period (for example, 60 times per second), and each time it acquires it. Based on the acquired intensity, the luminance and color components of each pixel are calculated, and the calculated luminance and color components of each pixel are output to the D / A converter 25. When calculating luminance and color components, the memory 24 is used as a work area.

信号処理部23が各画素の輝度および色成分を算出する方法について、以下説明する。まず信号処理部23は、撮像素子22が受光した可視光(R、G、B)および近赤外光(I)の強度を撮像素子22から取得し、取得した強度に基づいて、画素毎に、Rの強度、Gの強度、Bの強度、およびIの強度を算出する。   A method by which the signal processing unit 23 calculates the luminance and color components of each pixel will be described below. First, the signal processing unit 23 acquires the intensities of visible light (R, G, B) and near-infrared light (I) received by the image sensor 22 from the image sensor 22 and, for each pixel, based on the acquired intensity. , R intensity, G intensity, B intensity, and I intensity are calculated.

より具体的には、各画素のIの強度の算出方法は、以下の通りである。I画素については、その画素で受けたIの強度をそのまま用い、他の画素については、複数個のI画素で受けたIの強度を用いて、当該他の画素におけるIの強度を算出する。   More specifically, a method for calculating the intensity of I for each pixel is as follows. For the I pixel, the intensity of I received at that pixel is used as it is, and for the other pixels, the intensity of I received at a plurality of I pixels is used to calculate the intensity of I at the other pixel.

また、各画素のRの強度の算出方法は、以下の通りである。R+I画素については、そのR+I画素で受けたRの強度とIの強度の和(R+I)から、上記のようにして算出した当該R+I画素のIの強度を減算した結果を用いる。また、他の画素については、複数個のR+I画素について算出したRの強度を用いて、当該他の画素におけるRの強度を算出する。各画素のG、Bの強度の算出方法も、この方法でRをG、Bに置き換えた算出方法を用いればよい。   The calculation method of the R intensity of each pixel is as follows. For the R + I pixel, the result obtained by subtracting the I intensity of the R + I pixel calculated as described above from the sum of the R intensity and the I intensity (R + I) received at the R + I pixel is used. For the other pixels, the R intensity calculated for a plurality of R + I pixels is used to calculate the R intensity for the other pixels. As a calculation method of the intensity of G and B of each pixel, a calculation method in which R is replaced with G and B by this method may be used.

各画素のRの強度(Rと記す)、Gの強度(Gと記す)、Bの強度(Bと記す)、およびIの強度を算出した後は、算出したそれら強度を用いて、各画素の輝度Yおよび色成分U、Vを算出する。算出式は、例えば
(1) Y=0.2・R’+0.4・G’+0.1B’+0.3・α・I
(2) U=−0.15・(R/α)−0.35・(G/α)+0.5・(B/α)
(3) V=0.5・(R/α)−0.35・(G/α)−0.15・(B/α)
という3つの式を用いる。ただし、R’=R+I、G’=G+I、B’=B+Iである。このように、本実施形態の輝度および色成分は、YUV形式における輝度および色成分であるが、他の形式の輝度および色成分を採用してもよい。
After calculating the intensity of R (denoted as R), intensity of G (denoted as G), intensity of B (denoted as B), and intensity of I of each pixel, Luminance Y and color components U and V are calculated. The calculation formula is, for example, (1) Y = 0.2 · R ′ + 0.4 · G ′ + 0.1B ′ + 0.3 · α · I
(2) U = −0.15 · (R / α) −0.35 · (G / α) + 0.5 · (B / α)
(3) V = 0.5 · (R / α) −0.35 · (G / α) −0.15 · (B / α)
These three expressions are used. However, R ′ = R + I, G ′ = G + I, and B ′ = B + I. As described above, the luminance and color components of the present embodiment are the luminance and color components in the YUV format, but other types of luminance and color components may be adopted.

なお、上記の式におけるIR係数αは、デフォルト値は1であるが、画像認識部8からの指令に従って変化するようなパラメータである。IR係数αが1の場合、輝度Yは、R、G、Bの強度から通常算出される輝度Yの値(すなわち、0.2・R+0.4・G+0.1・B)に、近赤外光の強度Iに比例して大きくなる増加量(1.0・I)を加えた値となっている。つまり、近赤外光を強く反射または放出している撮影対象ほど、その撮影対象を表す画素の輝度の通常からの増大量が、高くなっている。このようにすることで、夜間等の暗い環境でもユーザに見易い画像を提供することができる。   Note that the IR coefficient α in the above equation is a parameter that has a default value of 1 but changes according to a command from the image recognition unit 8. When the IR coefficient α is 1, the luminance Y is set to the value of the luminance Y that is normally calculated from the intensities of R, G, and B (that is, 0.2 · R + 0.4 · G + 0.1 · B). It is a value obtained by adding an increase amount (1.0 · I) that increases in proportion to the light intensity I. That is, the normal increase amount of the luminance of the pixel representing the imaging target is higher as the imaging target strongly reflects or emits near infrared light. By doing so, it is possible to provide an image that is easy for the user to see even in a dark environment such as at night.

また、各画素の色成分U、Vは、当該画素の近赤外光強度Iに無関係に決まるようになっているが、他の例としては、近赤外光強度Iを加味して色成分U、Vを補正してもよい。   The color components U and V of each pixel are determined independently of the near-infrared light intensity I of the pixel. However, as another example, the color components with the near-infrared light intensity I taken into account. U and V may be corrected.

D/A変換部25は、D/A変換部25が逐次算出して出力した各画素の輝度Y、色成分U、Vをアナログ信号に変換し、画像認識部8に出力する。   The D / A conversion unit 25 converts the luminance Y and color components U and V of each pixel sequentially calculated and output by the D / A conversion unit 25 into analog signals and outputs the analog signals to the image recognition unit 8.

画像認識部8(表示制御手段の一例に相当する)は、ナイトビジョンカメラ2とは別体で構成された装置であり、信号処理部23が算出、出力し、D/A変換部25がアナログ信号に変換した各画素の輝度Yおよび色成分U、Vに基づいた画像を逐次ディスプレイ9に表示させる。   The image recognition unit 8 (corresponding to an example of display control means) is a device that is configured separately from the night vision camera 2, and is calculated and output by the signal processing unit 23, and the D / A conversion unit 25 is analog. Images based on the luminance Y and the color components U and V of each pixel converted into signals are sequentially displayed on the display 9.

なお、画像認識部8および信号処理部23のそれぞれは、専用の回路構成を有する集積回路として構成されていてもよいし、プログラムを実行することで所望の処理を実現するマイクロコンピュータとして実現されていてもよい。   Each of the image recognition unit 8 and the signal processing unit 23 may be configured as an integrated circuit having a dedicated circuit configuration, or as a microcomputer that realizes desired processing by executing a program. May be.

ディスプレイ9は、車室内において、ドライバー等の乗員がディスプレイ9の表示画面を視認可能なように設置されている。したがって、乗員は、車両が移動しているときも、時々刻々と変化する車両の前方の風景が撮影された画像をディスプレイ9で見ることができる。   The display 9 is installed in the vehicle interior so that a passenger such as a driver can visually recognize the display screen of the display 9. Therefore, even when the vehicle is moving, the occupant can view on the display 9 an image of the scenery in front of the vehicle that changes every moment.

周辺監視フロントカメラ3、周辺監視リアカメラ4、周辺監視右サイドカメラ5、周辺監視左サイドカメラ6は、それぞれ、車両から見て前方、後方、右側方、左側方を逐次撮影し、撮影結果の映像信号を画像認識部8に出力するカメラである。これらのカメラ3〜6は、近赤外光と可視光のうち可視光のみを受光し、可視光のみに基づく映像信号を出力する可視光カメラである。画像認識部8は、可視光カメラ3〜6の出力に基づいた画像をディスプレイ9(または同じ車内に搭載された別のディスプレイ)に表示させることもできるようになっている。その場合、乗員は、車両の周囲の4方の撮影画像を一度に見ることができるが、夜間の視認性は悪くなる。   The perimeter monitoring front camera 3, the perimeter monitoring rear camera 4, the perimeter monitoring right side camera 5, and the perimeter monitoring left side camera 6 sequentially photograph the front, rear, right side, and left side as viewed from the vehicle, respectively. It is a camera that outputs a video signal to the image recognition unit 8. These cameras 3 to 6 are visible light cameras that receive only visible light out of near-infrared light and visible light, and output a video signal based only on the visible light. The image recognition unit 8 can also display an image based on the outputs of the visible light cameras 3 to 6 on the display 9 (or another display mounted in the same vehicle). In that case, the occupant can see the captured images of the four directions around the vehicle at a time, but the visibility at night deteriorates.

周辺監視カメラ3〜6の撮影画像をディスプレイに表示させるか否かは、車速によって決まる。具体的には、画像認識部8は、車両から車速信号を取得して車速を特定し、特定した車速が基準速度(例えば時速10km)以下である場合に限り、周辺監視カメラ3〜6の撮影画像をディスプレイに表示させるようにする。したがって、車両が基準速度以上で走行している場合は、周辺監視カメラ3〜6の撮影画像はディスプレイに表示されていない状態である。本実施形態では、車両が基準速度以上で走行している場合でも、周辺監視フロントカメラ3の撮影画像を利用するようになっている。   Whether to display the captured images of the peripheral monitoring cameras 3 to 6 on the display depends on the vehicle speed. Specifically, the image recognition unit 8 acquires a vehicle speed signal from the vehicle to identify the vehicle speed, and only when the identified vehicle speed is equal to or less than a reference speed (for example, 10 km / h), the image capturing by the peripheral monitoring cameras 3 to 6 is performed. Make the image appear on the display. Therefore, when the vehicle is traveling at the reference speed or higher, the captured images of the peripheral monitoring cameras 3 to 6 are not displayed on the display. In the present embodiment, even when the vehicle is traveling at a reference speed or higher, the captured image of the periphery monitoring front camera 3 is used.

ナイトビジョンカメラ2の出力に基づいた画像をディスプレイ9に表示させるか否かは、例えば、車内のスイッチ(図示せず)に対する乗員の操作に応じて画像認識部8が決定する。   Whether or not to display an image based on the output of the night vision camera 2 on the display 9 is determined by the image recognition unit 8 in accordance with, for example, an occupant's operation on a switch (not shown) in the vehicle.

なお、ナイトビジョンカメラ2の撮影範囲と周辺監視フロントカメラ3の撮影範囲は、少なくとも一部が重複している。例えば、ナイトビジョンカメラ2の撮影範囲と周辺監視フロントカメラ3の撮影範囲は、完全に一致していてもよいし、周辺監視フロントカメラ3の撮影範囲の90%がナイトビジョンカメラ2の撮影範囲と重複していてもよい。ただし、周辺監視フロントカメラ3の撮影範囲は、ナイトビジョンカメラ2の撮影範囲全体をカバーしている。   The shooting range of the night vision camera 2 and the shooting range of the periphery monitoring front camera 3 are at least partially overlapped. For example, the shooting range of the night vision camera 2 and the shooting range of the periphery monitoring front camera 3 may completely coincide with each other, and 90% of the shooting range of the periphery monitoring front camera 3 is the shooting range of the night vision camera 2. It may be duplicated. However, the shooting range of the peripheral monitoring front camera 3 covers the entire shooting range of the night vision camera 2.

以下、夜間において車両が基準速度以上で走行中に、画像認識部8がナイトビジョンカメラ2の出力に基づいた画像をディスプレイ9に表示させている場合における、車載用撮影表示制御システム1の作動について説明する。この場合、画像認識部8はIR投光部7を作動させることで、IR投光部7が車両の前方に近赤外光を投射している。   Hereinafter, the operation of the in-vehicle photographing display control system 1 when the image recognition unit 8 displays an image based on the output of the night vision camera 2 on the display 9 while the vehicle is traveling at a reference speed or higher at night. explain. In this case, the image recognizing unit 8 operates the IR projector 7 so that the IR projector 7 projects near-infrared light in front of the vehicle.

また、周辺監視フロントカメラ3は、車速が基準速度以上の場合は、周辺監視フロントカメラ3内においてAE(Auto Exposure)補正を行うことで、夜間でも物体の画像認識が容易になるように撮影画像を調整したのち出力する。なお、AE補正を行う部分は、道路標識や信号機が写る可能性が高い画素位置(例えば撮影画像中の中央上から右下までの帯状の部分領域内、および、撮影画像中の中央上から左までの帯状の部分領域内)のみについて行うようになっていてもよい。   In addition, when the vehicle speed is equal to or higher than the reference speed, the periphery monitoring front camera 3 performs AE (Auto Exposure) correction in the periphery monitoring front camera 3 so that an image of the object can be easily recognized even at night. Output after adjusting. It should be noted that the portion where AE correction is performed is a pixel position where a road sign or a traffic light is highly likely to be captured (for example, in a band-shaped partial region from the upper center to the lower right in the captured image and from the upper center to the left in the captured image) It is also possible to carry out only within the band-like partial region).

このとき、画像認識部8は、D/A変換部25から出力された信号に基づく画像をディスプレイ9に表示させると共に、周辺監視フロントカメラ3から受けた映像信号に基づいて、近赤外光を強く反射または放出する被写体としてあらかじめ設定された被写体を画像認識によって探索し、探索の結果そのような被写体が見つかったか見つからなかったかに応じて、上述のIR係数αを切り替えるよう信号処理部23を制御する。   At this time, the image recognizing unit 8 displays an image based on the signal output from the D / A converting unit 25 on the display 9 and generates near-infrared light based on the video signal received from the peripheral monitoring front camera 3. A subject set in advance as a strongly reflecting or emitting subject is searched by image recognition, and the signal processing unit 23 is controlled to switch the IR coefficient α according to whether or not such a subject is found as a result of the search. To do.

このような作動のため、画像認識部8は、図2に示す処理を実行する。この処理において画像認識部8は、まずステップ110で、周辺監視フロントカメラ3から映像信号を取得し、取得した映像信号から構成した撮影画像に対して、周知の画像認識技術(具体的にはパターンマッチング)を用いて、近赤外光を強く反射または放出する被写体(以下、IRの強い被写体ともいう)の探索を行う。このとき、パターンマッチングにおいて上記撮影画像と比較するために、IRの強い被写体の画像の特徴情報を用いるが、この特徴情報は、あらかじめ画像認識部8の記憶媒体(例えば、ROM、フラッシュメモリ)に記憶させてあるものを読み出して使用する。   Due to such an operation, the image recognition unit 8 executes the processing shown in FIG. In this process, the image recognition unit 8 first acquires a video signal from the surrounding monitoring front camera 3 in step 110, and applies a known image recognition technique (specifically, a pattern) to a captured image composed of the acquired video signal. Using (matching), a subject that strongly reflects or emits near-infrared light (hereinafter also referred to as a subject with strong IR) is searched. At this time, feature information of an image of a subject with strong IR is used for comparison with the above-described captured image in pattern matching. This feature information is stored in advance in a storage medium (for example, ROM, flash memory) of the image recognition unit 8. Read and use what is stored.

特徴情報をあらかじめ記憶させる被写体としては、各種道路標識、信号機、および、車両の前照灯(ヘッドライト)、ブレーキランプ、ウインカー等がある。道路標識は、IR投光部7から投射された近赤外光等の近赤外光を強く反射する傾向がある。信号機および車両の前照灯等は、自ら強い近赤外光を放出する傾向がある。   Examples of subjects that store characteristic information in advance include various road signs, traffic lights, vehicle headlamps, brake lamps, turn signals, and the like. The road sign tends to strongly reflect near infrared light such as near infrared light projected from the IR light projecting unit 7. Traffic lights and vehicle headlamps tend to emit strong near-infrared light.

各種道路標識の特徴情報は、その道路標識をあらかじめ正面から撮影した画像から作成してもよい。このようにして作成した特徴情報には、道路標識の形状の特徴のみならず、道路標識に記載された文字の特徴も含まれている。しかし、夜間においては、周辺監視フロントカメラ3では標識内の文字が区別できるように撮影できない場合もあるので、各種道路標識の特徴情報は、その道路標識と形状は同じだが無地の物体を正面から撮影した画像から作成したものを用いてもよい。信号機、車両の前照灯、ブレーキランプ、ウインカーの特徴情報は、その信号機または前照灯等をあらかじめ正面から撮影した画像から作成する。   The feature information of various road signs may be created from images obtained by photographing the road signs from the front in advance. The feature information created in this way includes not only the feature of the shape of the road sign but also the feature of the characters described on the road sign. However, at night, the surrounding surveillance front camera 3 may not be able to shoot so that the characters in the sign can be distinguished. Therefore, the feature information of various road signs is the same as that road sign but a plain object from the front. You may use what was created from the imaged image. The characteristic information of the traffic light, the vehicle headlamp, the brake lamp, and the blinker is created from an image obtained by photographing the traffic light or the headlamp from the front in advance.

そして画像認識部8は、その探索の結果、IRの強い被写体が周辺監視フロントカメラ3の撮影画像中に見つかったか否かを判定し、見つからなかった場合は、ステップ120に進む。   Then, as a result of the search, the image recognizing unit 8 determines whether or not a subject with strong IR is found in the captured image of the peripheral monitoring front camera 3. If not found, the process proceeds to step 120.

そしてステップ120では、IR係数をデフォルト値である1に設定する指令をナイトビジョンカメラ2の信号処理部23に出力する。これにより、信号処理部23は、すべての画素について、IR係数αを1として上記式(1)、(2)、(3)を用いる方法(第1の方法の一例に相当する)で、撮像素子22が受光した可視光および近赤外光の強度に基づいて、各画素の輝度Yおよび色成分U、Vを算出し、画像認識部8は、続いてステップ130で、信号処理部23で算出されD/A変換部25でD/A変換された当該輝度Yおよび色成分U、Vの信号に基づき、画像をディスプレイ9に表示させる。   In step 120, a command for setting the IR coefficient to 1 which is a default value is output to the signal processing unit 23 of the night vision camera 2. As a result, the signal processing unit 23 captures images of all the pixels by a method (corresponding to an example of the first method) using the above equations (1), (2), and (3) with the IR coefficient α being 1. Based on the intensities of visible light and near-infrared light received by the element 22, the luminance Y and color components U and V of each pixel are calculated, and the image recognition unit 8 continues with step 130 in the signal processing unit 23. An image is displayed on the display 9 based on the signal of the luminance Y and the color components U and V calculated and D / A converted by the D / A converter 25.

続いてステップ140では、ナイトビジョンカメラ2の出力に基づいた画像をディスプレイ9に表示させる作動を終了するか否かを(例えば乗員の操作に基づいて)判定し、終了すると判定した場合は図2の処理を終了し、終了しないと判定した場合はステップ110に戻る。   Subsequently, in step 140, it is determined whether or not to end the operation of displaying an image based on the output of the night vision camera 2 on the display 9 (for example, based on the operation of the occupant). If it is determined that the process is not completed, the process returns to step 110.

このように、周辺監視フロントカメラ3の撮影画像中にIRの強い被写体が見つからない間は、ステップ110、120、130、140の処理がこの順に繰り返されることで、信号処理部23は、IR係数αを1として上記式(1)、(2)、(3)を用いる方法で算出された各画素の輝度Yおよび色成分U、Vに基づくディスプレイ9の画像表示が継続する。   As described above, while the subject with strong IR is not found in the captured image of the periphery monitoring front camera 3, the processing of steps 110, 120, 130, and 140 is repeated in this order, so that the signal processing unit 23 can obtain the IR coefficient. Image display on the display 9 based on the luminance Y and the color components U and V of each pixel calculated by the method using the above formulas (1), (2), and (3) with α being 1 continues.

そして、図3に示すように、道路標識51、53、信号機52、車両の前照灯54、車両のブレーキランプ55、車両のウインカー56等のIRの強い被写体が周辺監視フロントカメラ3の撮影範囲内に入って来ると、画像認識部8は、ステップ130で、探索の結果、IRの強い被写体が見つかり、その結果、処理をステップ125に進める。   Then, as shown in FIG. 3, subjects with strong IR such as road signs 51, 53, traffic lights 52, vehicle headlamps 54, vehicle brake lamps 55, vehicle turn signals 56, etc. are captured by the peripheral monitoring front camera 3. When entering, the image recognition unit 8 finds a subject with strong IR as a result of the search in step 130, and as a result, advances the process to step 125.

ステップ125では、IR係数を制限値である0.02に設定する指令をナイトビジョンカメラ2の信号処理部23に出力する。これにより、信号処理部23は、すべての画素について、IR係数αを0.02として上記式(1)、(2)、(3)を用いる方法(第2の方法の一例に相当する)で、撮像素子22が受光した可視光および近赤外光の強度に基づいて、各画素の輝度Yおよび色成分U、Vを算出し、画像認識部8は、続いてステップ130で、信号処理部23で算出されD/A変換部25でD/A変換された当該輝度Yおよび色成分U、Vの信号に基づき、画像をディスプレイ9に表示させる。   In step 125, a command for setting the IR coefficient to 0.02 which is the limit value is output to the signal processing unit 23 of the night vision camera 2. Thereby, the signal processing unit 23 uses a method (corresponding to an example of the second method) using the above equations (1), (2), and (3) with an IR coefficient α of 0.02 for all pixels. The luminance Y and the color components U and V of each pixel are calculated based on the intensities of the visible light and near infrared light received by the image sensor 22, and the image recognition unit 8 subsequently proceeds to step 130 in the signal processing unit. The image is displayed on the display 9 based on the luminance Y and the color components U and V signals calculated at 23 and D / A converted by the D / A converter 25.

ここで、IR係数αをデフォルト値の1として輝度等を計算する場合と、IR係数を制限値の0.02として輝度等を計算する場合の違いについて、図4、図5を用いて説明する。   Here, the difference between the case where the brightness etc. is calculated with the IR coefficient α as the default value 1 and the case where the brightness etc. is calculated with the IR coefficient as the limit value 0.02 will be described with reference to FIGS. .

輝度Yの計算式(1)においては、IR係数αを0.02とした場合は、IR係数αを1とした場合に比べ、輝度に対する近赤外光の強度の寄与が低くなるようになっている。つまり、R、G、Bの強度から通常算出される輝度Yの値(すなわち、0.2・R+0.4・G+0.1・B)に対する、近赤外光の強度Iに比例して大きくなる増加量(すなわち、(0、7+0.3・α)・I)は、αが0.02の場合の方が1の場合よりも小さい。   In the calculation formula (1) for the luminance Y, when the IR coefficient α is 0.02, the contribution of the intensity of near-infrared light to the luminance is lower than when the IR coefficient α is 1. ing. That is, it increases in proportion to the intensity I of near-infrared light with respect to the value of luminance Y normally calculated from the intensities of R, G, and B (that is, 0.2 · R + 0.4 · G + 0.1 · B). The amount of increase (ie, (0, 7 + 0.3 · α) · I) is smaller when α is 0.02 than when it is 1.

また、色成分Uの計算式(2)および色成分Vの計算式(3)においては、αの値が大きいほど、同じR、G、Bの値に対してU、Vの絶対値が大きくなるようになっている。したがって、αが0.02の場合はαが1の場合に比べて、同じ可視光強度R、G、Bに対して、各画素の色成分U、Vの絶対値が大きくなる。   In addition, in the calculation formula (2) for the color component U and the calculation formula (3) for the color component V, as the value of α increases, the absolute values of U and V increase with respect to the same R, G, and B values. It is supposed to be. Therefore, when α is 0.02, the absolute values of the color components U and V of each pixel are larger for the same visible light intensity R, G, and B than when α is 1.

例えば、一時停止の道路標識上の画素について、R’、G’、B’、Iの各強度が、R’=255、G’=250、B’=250、I=245で、IR係数αが1の場合を仮定する。なお、R、G、B、R’、G’、B’、I、Y、U、Vが取り得る値の範囲は、0から255までであるとする。この場合、R、G、B値は、R=10、G=5、B=5、I=245となり、これをα=1として上記式(1)、(2)、(3)に適用すると、輝度Y=249.5、色成分U=−0.75、色成分V=2.5となり、色は、ほとんど表示されず、図4に示すように、一時停止の道路標識は、ディスプレイ9上で、逆三角形の真っ白な形状のみが表示されることになる。   For example, with respect to pixels on a temporary stop road sign, the intensity of R ′, G ′, B ′, I is R ′ = 255, G ′ = 250, B ′ = 250, I = 245, and the IR coefficient α Is assumed to be 1. Note that the range of values that R, G, B, R ′, G ′, B ′, I, Y, U, and V can take is 0 to 255. In this case, the R, G, and B values are R = 10, G = 5, B = 5, and I = 245, and when this is applied to the above equations (1), (2), and (3) with α = 1. , Luminance Y = 249.5, color component U = −0.75, color component V = 2.5, and almost no color is displayed. As shown in FIG. Above, only the white shape of the inverted triangle will be displayed.

一方、同じ画素についてα=0.02として上記式(1)、(2)、(3)に適用すると、輝度Y=117.47、色成分U=−37.5、色成分V=125となり、図4に示すように、輝度Yが下がり、かつ赤色が強調されたことにより、道路標識内の文字「止まれ」がディスプレイ9上で見えるようになる。   On the other hand, when α = 0.02 for the same pixel and applied to the above equations (1), (2), (3), luminance Y = 117.47, color component U = -37.5, and color component V = 125. As shown in FIG. 4, the luminance “Y” decreases and the red color is emphasized, so that the character “stop” in the road sign becomes visible on the display 9.

このように、周辺監視フロントカメラ3の撮影画像中にIRの強い被写体が見つかっている間は、ステップ110、125、130、140の処理がこの順に繰り返されることで、信号処理部23は、IR係数αを0.02として上記式(1)、(2)、(3)を用いる方法で算出された各画素の輝度Yおよび色成分U、Vに基づくディスプレイ9の画像表示が継続する。   As described above, while a strong IR subject is found in the captured image of the peripheral monitoring front camera 3, the processing of steps 110, 125, 130, and 140 is repeated in this order, so that the signal processing unit 23 The image display on the display 9 continues based on the luminance Y and the color components U and V of each pixel calculated by the method using the above formulas (1), (2), and (3) with the coefficient α set to 0.02.

以上説明した通り、近赤外光を強く反射または放出する被写体をあらかじめ設定しておき、そのような被写体が画像認識で見つかった場合と見つからなかった場合とで、輝度の計算方法を変えることで、車両の走行シーンに応じた適切な切り替えを行えるようにすることができる。そして、近赤外光を強く反射または放出する被写体が見つかった場合は、輝度計算の際に近赤外光強度の寄与を低くするので、そのユーザは、ディスプレイ9上で、その被写体が明るすぎて見づらくなってしまう可能性が低下する。   As described above, a subject that strongly reflects or emits near-infrared light is set in advance, and the luminance calculation method is changed depending on whether such a subject is found by image recognition or not. Thus, it is possible to perform appropriate switching according to the traveling scene of the vehicle. If a subject that strongly reflects or emits near-infrared light is found, the contribution of the near-infrared light intensity is reduced during the luminance calculation, so that the user is too bright on the display 9. The possibility of becoming difficult to see decreases.

また、探索の結果近赤外光を強く反射または放出する被写体が見つからなかった場合に比べて見つかった場合は、同じ可視光強度に対して、各画素の色成分の絶対値を大きくする。このようにすることで、そのユーザは、ディスプレイ(9)上で、その被写体の色をよりはっきりと確認することができる。例えば、その被写体の内部の文字等の確認も容易になる。   In addition, if a subject that strongly reflects or emits near infrared light is not found as a result of the search, the absolute value of the color component of each pixel is increased with respect to the same visible light intensity. By doing in this way, the user can confirm the color of the subject more clearly on the display (9). For example, it is easy to check characters inside the subject.

また、近赤外光を強く反射または放出する被写体として道路標識をあらかじめ設定しておくことで、車両の走行時に、道路標識が明るすぎて見づらくなってしまう可能性が低下する。   In addition, by setting a road sign in advance as a subject that strongly reflects or emits near-infrared light, the possibility that the road sign becomes too bright and difficult to see when the vehicle is traveling is reduced.

なお、IRの強い被写体を探索するのに、周辺監視フロントカメラ3の撮影画像を用いるのは、ナイトビジョンカメラ2の撮影画像は、R、G、B、Iの強度から輝度Y、色成分U、Vへの変換(式(1)、(2)、(3)を用いた変換)が行われた後のデータなので、変換によって輝度が飽和してしまう可能性があるからである。   Note that the photographed image of the peripheral monitoring front camera 3 is used to search for a subject with strong IR. The photographed image of the night vision camera 2 is based on the intensity of R, G, B, and I, the luminance Y, and the color component U. This is because the data after the conversion to V (conversion using the formulas (1), (2), and (3)) may be saturated by the conversion.

また、近赤外光を強く反射または放出する被写体として信号機、車両の前照灯、ブレーキランプ、ウインカー等をあらかじめ設定しておくことで、車両の走行時に、信号機または前照灯等のハレーション(色信号が飽和して白飛びすること)を低減することができる。   In addition, by setting traffic lights, vehicle headlamps, brake lamps, turn signals, etc. as subjects that strongly reflect or emit near-infrared light, halation (such as traffic lights or headlamps) (Saturation of the color signal and whiteout) can be reduced.

(他の実施形態)
以上、本発明の実施形態について説明したが、本発明の範囲は、上記実施形態のみに限定されるものではなく、本発明の各発明特定事項の機能を実現し得る種々の形態を包含するものである。例えば、以下のような形態も許容される。
(Other embodiments)
As mentioned above, although embodiment of this invention was described, the scope of the present invention is not limited only to the said embodiment, The various form which can implement | achieve the function of each invention specific matter of this invention is included. It is. For example, the following forms are also acceptable.

(a)上記実施形態では、画像認識部8は、図2のステップ125で、すべての画素について、IR係数αを0.02として上記式(1)、(2)、(3)を用いる方法で、撮像素子22が受光した可視光および近赤外光の強度に基づいて、各画素の輝度Yおよび色成分U、Vを算出するよう指令を出力している。   (A) In the above embodiment, the image recognizing unit 8 uses the above formulas (1), (2), and (3) in step 125 in FIG. Thus, a command is output to calculate the luminance Y and the color components U and V of each pixel based on the intensities of visible light and near infrared light received by the image sensor 22.

しかし、必ずしもこのようになっておらずともよく、画像認識部8は、図2のステップ125で、全画素のうち、見つかったIRが強い被写体が写った画素を含む部分(例えば、見つかったIRが強い被写体が写った画素のみから成る部分、見つかったIRが強い被写体が写った画素およびその近傍のみから成る部分)を対象とし、その対象の画素について、IR係数αを0.02として上記式(1)、(2)、(3)を用いる方法で、撮像素子22が受光した可視光および近赤外光の強度に基づいて、各画素の輝度Yおよび色成分U、Vを算出し、その対象以外の画素について、IR係数αをデフォルトの1として上記式(1)、(2)、(3)を用いる方法で、撮像素子22が受光した可視光および近赤外光の強度に基づいて、各画素の輝度Yおよび色成分U、Vを算出するよう指令を出力するようになっていてもよい。   However, this need not always be the case, and the image recognizing unit 8 may include a portion (for example, a found IR) including a pixel in which a subject with a strong IR found is captured in step 125 of FIG. (A portion consisting only of pixels in which a strong subject is captured, a portion including only pixels found in a subject having a strong IR and its vicinity), and the IR coefficient α is set to 0.02 for the target pixel. Based on the intensity of visible light and near-infrared light received by the image sensor 22 by the method using (1), (2), and (3), the luminance Y and color components U and V of each pixel are calculated, Based on the intensities of visible light and near-infrared light received by the image sensor 22 by using the above formulas (1), (2), and (3) with the IR coefficient α as default 1 for the pixels other than the target pixel. The brightness of each pixel A command may be output so as to calculate the degree Y and the color components U and V.

このようにすることで、夜間において、ナイトビジョンカメラ2に基づく画像の視認性を向上しつつ、IRの強い被写体についても明るすぎて却って見え難くなってしまう可能性も低減することができる。   By doing so, it is possible to improve the visibility of the image based on the night vision camera 2 at night and also reduce the possibility that a subject with strong IR will be too bright and difficult to see.

なお、周辺監視フロントカメラ3で撮影された撮影画像中において見つかったIRが強い被写体の画素位置と、ナイトビジョンカメラ2で撮影された画像中の当該IRが強い被写体の画素位置との位置関係は、ナイトビジョンカメラ2と周辺監視フロントカメラ3の設置位置等に応じて、車載用撮影表示制御システム1の設置時にあらかじめ調べ、その結果の位置関係の情報を画像認識部8の記憶媒体に記憶しておき、その記憶しておいた情報を必要時に使用するようになっていればよい。   It should be noted that the positional relationship between the pixel position of a subject with a strong IR found in the photographed image taken by the peripheral monitoring front camera 3 and the pixel position of the subject with a strong IR in the image photographed by the night vision camera 2 is Depending on the installation position of the night vision camera 2 and the peripheral monitoring front camera 3, etc., it is checked in advance when the in-vehicle shooting display control system 1 is installed, and the positional relationship information is stored in the storage medium of the image recognition unit 8. The stored information only needs to be used when necessary.

(b)また、上記実施形態では、画像認識部8は、周辺監視フロントカメラ3の撮影画像内にIRの強い被写体があるときには、常にナイトビジョンカメラ2の信号処理部23に対して全画素についてIR係数を制限値にするよう指令を出力しているが、必ずしもこのようになっておらずともよい。   (B) In the above embodiment, the image recognizing unit 8 always applies all pixels to the signal processing unit 23 of the night vision camera 2 when there is a subject with strong IR in the photographed image of the peripheral monitoring front camera 3. Although the command is output to set the IR coefficient to the limit value, this need not always be the case.

例えば、画像認識部8は、画像認識によってIRの強い被写体として1つの被写体のみを見つけ、その1つの被写体が周辺監視フロントカメラ3の撮影画像中に占める画素数を算出し、算出した画素数が所定の閾値以上であれば、IRの強い被写体が見つからなかった場合と同じように、全画素についてIR係数をデフォルト値にするよう信号処理部23に指令してもよい。   For example, the image recognition unit 8 finds only one subject as a subject having a strong IR by image recognition, calculates the number of pixels that the one subject occupies in the captured image of the peripheral monitoring front camera 3, and the calculated number of pixels is If the threshold value is equal to or greater than the predetermined threshold, the signal processing unit 23 may be instructed to set the IR coefficient to the default value for all pixels, as in the case where a subject with strong IR is not found.

このようにすることで、車両の走行中に前方からIRの強い被写体が近づいて来て、画像認識によってそのIRの強い被写体(ここでは道路標識とする)が周辺監視フロントカメラ3の撮影画像中で見つかった後、当該被写体についてはIR係数を制限値として計算した輝度および色成分でディスプレイ9の表示が行われるが、当該被写体が更に車両に近づいて、画素数が上記閾値以上となった段階で、全画素のIR係数がデフォルト値に戻る。   In this way, a subject with strong IR approaches from the front while the vehicle is traveling, and the subject with strong IR (here, a road sign) is captured in the captured image of the peripheral monitoring front camera 3 by image recognition. After that, the display 9 is displayed with the luminance and color components calculated using the IR coefficient as the limit value for the subject, but the subject further approaches the vehicle and the number of pixels is equal to or greater than the threshold value. Thus, the IR coefficients of all the pixels return to the default values.

これは、IR投光部7によって近赤外光が投光される位置が、車両からある程度前方に離れた部分であり、車両の近傍にはIR投光部7からの光が当たらないため、当該道路標識が近赤外光を強く反射しない可能性があるから、そのような道路標識のためにIR係数を低くするよりは、全体の視認性を向上させた方がよい可能性が高いからである。   This is because the position where the near infrared light is projected by the IR projector 7 is a part far away from the vehicle to some extent, and the light from the IR projector 7 does not hit the vicinity of the vehicle. Since the road sign may not reflect near infrared light strongly, it is more likely to improve the overall visibility than to lower the IR coefficient for such a road sign. It is.

したがって、上記閾値は、近赤外光を強く反射または放出する被写体としてあらかじめ設定された被写体毎に、IR投光部7が当たらなくなるときに周辺監視フロントカメラ3から見える大きさに応じて、それぞれ異なる値が設定されるようになっていてもよいし、大まかに同じ値が設定されるようになっていてもよい。   Therefore, the threshold value is determined according to the size that can be seen from the peripheral monitoring front camera 3 when the IR light projecting unit 7 is not applied to each of the subjects set in advance as subjects that strongly reflect or emit near infrared light. Different values may be set, or roughly the same value may be set.

(c)また、上記実施形態では、IR係数の値として、デフォルト値が1で、制限値が0.02となっているが、このような値に限らず、制限値がデフォルト値より小さい正数となっていればよい。   (C) In the above embodiment, as the IR coefficient value, the default value is 1 and the limit value is 0.02. However, the present invention is not limited to this value, and the limit value is a positive value smaller than the default value. It only has to be a number.

(d)また、上記実施形態では、周辺監視フロントカメラ3の撮影画像からパターン認識によって見つけたIRの強い被写体が、道路標識であっても、信号機であっても、前照灯であっても、ブレーキランプであっても、ウインカーであっても、信号処理部23に指令する制限値は同じ0.02となっている。しかし、見つけたIRの強い被写体の種類に応じて、信号処理部23に指令する制限値を変化させてもよい。   (D) In the above embodiment, the subject with strong IR found by pattern recognition from the image taken by the peripheral monitoring front camera 3 may be a road sign, a traffic light, or a headlamp. The limit value commanded to the signal processing unit 23 is 0.02 which is the same whether it is a brake lamp or a blinker. However, the limit value commanded to the signal processing unit 23 may be changed according to the type of the subject with the strong IR found.

例えば、IRの強い被写体を撮影画像内で1つだけ見つけ、その見つけた被写体が道路標識である場合は、IR係数の値として、第1の制限値(例えば0.02)を信号処理部23に指令し、また、その見つけた被写体が信号機、前照灯、ブレーキランプ、およびウインカーのいずれかである場合は、IR係数の値として、第1の制限値よりも大きくデフォルト値よりも小さい第2の制限値(例えば0.1)を信号処理部23に指令するようになっていてもよい。このようにするのは、信号機、前照灯、ブレーキランプ、およびウインカーは、その中の文字を読み取りたいわけではなく、ディスプレイ9の表示における信号機、前照灯、ブレーキランプ、およびウインカーの膨張を防ぎ、さらにランプの色が分かる程度に輝度を抑えればよいからである。   For example, when only one subject with strong IR is found in the captured image and the found subject is a road sign, the signal processing unit 23 uses the first limit value (for example, 0.02) as the value of the IR coefficient. If the detected subject is any one of a traffic light, a headlamp, a brake lamp, and a turn signal, the IR coefficient value is larger than the first limit value and smaller than the default value. A limit value of 2 (for example, 0.1) may be commanded to the signal processing unit 23. This is because the traffic lights, headlamps, brake lamps, and turn signals do not want to read the characters in them, and the expansion of the traffic lights, headlamps, brake lights, and turn signals in the display 9 display. This is because the brightness should be suppressed to such an extent that it can be prevented and the color of the lamp can be recognized.

また例えば、IRの強い被写体を撮影画像内で1つだけ見つけ、その見つけた被写体が信号機である場合、前照灯である場合、ブレーキランプである場合、ウインカーである場合のそれぞれで、IR係数の値として、異なる値を信号処理部23に指令するようになっていてもよい。   Further, for example, only one subject having a strong IR is found in the photographed image, and when the found subject is a traffic light, a headlamp, a brake lamp, or a blinker, the IR coefficient A different value may be commanded to the signal processing unit 23 as the value of.

(e)また、上記実施形態では、パターンマッチングによって前照灯と信号機とを区別して認識するようになっているが、周辺監視フロントカメラ3から受けた映像信号のRの強度、Gの強度、Bの強度に基づいて、前照灯と信号機とを区別するようになっていてもよい。具体的には、パターンマッチングによって前照灯または信号機である被写体を見つけ、見つけた被写体の参照値R/G(Rの強度をGの強度で除算した値)および参照値B/G(Bの強度をGの強度で除算した値)を算出し、これら参照値R/G、B/Gと閾値との比較に基づいて信号機であるか前照灯であるかを判定する。   (E) In the above embodiment, the headlamp and the traffic light are distinguished and recognized by pattern matching. However, the intensity of R, the intensity of G of the video signal received from the peripheral monitoring front camera 3, Based on the intensity of B, the headlamp and the traffic light may be distinguished. Specifically, a subject that is a headlamp or a traffic light is found by pattern matching, and a reference value R / G (a value obtained by dividing the intensity of R by the intensity of G) and a reference value B / G (of B A value obtained by dividing the intensity by the intensity of G) is calculated, and it is determined whether it is a traffic light or a headlamp based on a comparison between the reference values R / G and B / G and a threshold value.

具体的には、赤信号の場合、例えば、R、G、Bそれぞれの強度が、R=100、G=20、B=20になり、この時、ホワイトバランス制御の参照値R/G、B/Gはそれぞれ、R/G=5、B/G=1となる。   Specifically, in the case of a red signal, for example, the intensities of R, G, and B are R = 100, G = 20, and B = 20. At this time, reference values R / G, B for white balance control / G is R / G = 5 and B / G = 1, respectively.

また、緑信号の場合、例えば、R、G、Bそれぞれの強度が、R=20、G=100、B=20になり、この時、ホワイトバランス制御の参照値R/G、B/Gはそれぞれ、R/G=0.2、B/G=0.2となる。   In the case of a green signal, for example, the intensities of R, G, and B are R = 20, G = 100, and B = 20. At this time, the reference values R / G and B / G for white balance control are R / G = 0.2 and B / G = 0.2, respectively.

一方、前照灯の場合、例えば、R、G、Bそれぞれの強度が、R=100、G=100、B=100、となる。この時、ホワイトバランス制御の参照値R/G、B/Gはそれぞれ、R/G=1、B/G=1となる。   On the other hand, in the case of the headlamp, for example, the intensities of R, G, and B are R = 100, G = 100, and B = 100. At this time, the reference values R / G and B / G for white balance control are R / G = 1 and B / G = 1, respectively.

従って、R/G、B/Gの値が共に1付近(例えば、0.9以上1.1以下)の場合は、着色しない光源(前照灯)が光っている場合であり、R/G、B/Gどちらかが1より非常に大きい場合(例えば、閾値3以上)は、赤、または青に着色した光源(信号機)が光っている場合であり、R/G、B/Gが共に1より非常に小さい場合(閾値として例えば0.3以下)の場合は、緑に着色した光源(信号機)が光っている場合であると判定できる。   Therefore, when the values of R / G and B / G are both near 1 (for example, 0.9 or more and 1.1 or less), the light source (headlight) that is not colored is shining, and R / G , B / G is much larger than 1 (for example, threshold 3 or more), the light source (signal) colored red or blue is shining, and both R / G and B / G are If it is much smaller than 1 (for example, 0.3 or less as a threshold), it can be determined that the light source (signal) colored green is shining.

(f)また、上記実施形態では、信号処理部23はナイトビジョンカメラ2の一部としてナイトビジョンカメラ2内に組み込まれており、画像認識部8はナイトビジョンカメラ2とは別体の部品として構成されている。しかし、かならずしもこのようになっておらずともよく、例えば、信号処理部23の機能は画像認識部8に組み込まれていてもよい。   (F) In the above embodiment, the signal processing unit 23 is incorporated in the night vision camera 2 as a part of the night vision camera 2, and the image recognition unit 8 is a separate component from the night vision camera 2. It is configured. However, this need not always be the case. For example, the function of the signal processing unit 23 may be incorporated in the image recognition unit 8.

1 車載用撮影表示制御システム
2 ナイトビジョンカメラ
3 周辺監視フロントカメラ
4 周辺監視リアカメラ
5 周辺監視右サイドカメラ
6 周辺監視左サイドカメラ
7 IR投光部
8 画像認識部
9 ディスプレイ
21 レンズ
22 撮像素子
23 信号処理部
24 メモリ
25 D/A変換部
51〜56 IRの強い被写体
DESCRIPTION OF SYMBOLS 1 In-vehicle imaging | photography display control system 2 Night vision camera 3 Perimeter surveillance front camera 4 Perimeter surveillance rear camera 5 Perimeter surveillance right side camera 6 Perimeter surveillance left side camera 7 IR light projection part 8 Image recognition part 9 Display 21 Lens 22 Image sensor 23 Signal processor 24 Memory 25 D / A converter 51 to 56 Subject with strong IR

Claims (5)

可視光および近赤外光を受光する撮像素子(22)と、
前記撮像素子(22)が受光した可視光および近赤外光の強度に基づいて、各画素の輝度を算出する信号処理手段(23)と、
前記信号処理手段(23)が算出した前記各画素の輝度に基づいた画像をディスプレイ(9)に表示させる表示制御手段(8)と、を備え、
前記表示制御手段(8)は、近赤外光と可視光のうち可視光のみに基づく映像信号を出力する可視光カメラ(3)から受けた前記映像信号に基づいて、近赤外光を強く反射または放出する被写体としてあらかじめ設定された被写体を画像認識によって探索し、探索の結果近赤外光を強く反射または放出する被写体が見つからなかった場合は、前記撮像素子(22)が受光した可視光および近赤外光の強度に基づいて、第1の算出方法で各画素の輝度を算出し、探索の結果近赤外光を強く反射または放出する被写体が見つかった場合は、前記撮像素子(22)が受光した可視光および近赤外光の強度に基づいて、前記第1の方法よりも輝度に対する近赤外光の強度の寄与が低くなるような第2の算出方法で、各画素の輝度を算出するよう、前記信号処理手段(23)を制御することを特徴とする車載用撮影表示制御システム。
An image sensor (22) that receives visible light and near infrared light;
Signal processing means (23) for calculating the luminance of each pixel based on the intensity of visible light and near-infrared light received by the image sensor (22);
Display control means (8) for displaying on the display (9) an image based on the luminance of each pixel calculated by the signal processing means (23),
The display control means (8) strongly strengthens near infrared light based on the video signal received from the visible light camera (3) that outputs a video signal based only on visible light out of near infrared light and visible light. When a subject preset as a subject to be reflected or emitted is searched by image recognition, and a subject that strongly reflects or emits near-infrared light is not found as a result of the search, visible light received by the imaging element (22) is detected. The luminance of each pixel is calculated by the first calculation method based on the intensity of the near infrared light, and if an object that strongly reflects or emits near infrared light is found as a result of the search, the imaging element (22 ) In the second calculation method in which the contribution of the intensity of the near-infrared light to the luminance is lower than that in the first method based on the intensities of the visible light and the near-infrared light received by To calculate Automotive shooting display control system and controls the No. processing means (23).
前記あらかじめ設定された被写体は、道路標識を含むことを特徴とする請求項1に記載の車載用撮影表示制御システム。   The in-vehicle photographing display control system according to claim 1, wherein the preset subject includes a road sign. 前記あらかじめ設定された被写体は、信号機、車両の前照灯、ブレーキランプ、およびウインカーのうち少なくとも1つを含むことを特徴とする請求項1または2に記載の車載用撮影表示制御システム。   The vehicle-mounted shooting display control system according to claim 1, wherein the preset subject includes at least one of a traffic light, a vehicle headlamp, a brake lamp, and a winker. 前記信号処理手段(23)は更に、前記撮像素子(22)が受光した可視光の強度に基づいて各画素の色成分を算出し、
前記表示制御手段(8)は、前記信号処理手段(23)が算出した前記各画素の輝度および色成分に基づいた画像をディスプレイ(9)に表示させ、
更に前記表示制御手段(8)は、前記可視光カメラ(3)から受けた前記映像信号に基づいて、近赤外光を強く反射または放出する被写体を画像認識によって探索し、探索の結果近赤外光を強く反射または放出する被写体が見つからなかった場合に比べて見つかった場合は、同じ可視光強度に対して、各画素の色成分の絶対値を大きくすることを特徴とする請求項1ないし3のいずれか1つに記載の車載用撮影表示制御システム。
The signal processing means (23) further calculates a color component of each pixel based on the intensity of visible light received by the image sensor (22),
The display control means (8) causes the display (9) to display an image based on the luminance and color components of the pixels calculated by the signal processing means (23),
Further, the display control means (8) searches for a subject that strongly reflects or emits near-infrared light by image recognition based on the video signal received from the visible light camera (3). The absolute value of the color component of each pixel is increased for the same visible light intensity when it is found compared to a case where a subject that strongly reflects or emits external light is not found. 4. The vehicle-mounted imaging display control system according to any one of 3 above.
当該車載用撮影表示制御システムが搭載される車両には、前記車両の前方に近赤外光を投射するIR投光部(7)があり、
前記表示制御手段(8)は、探索の結果近赤外光を強く反射または放出する被写体が見つかった場合でも、その見つかった被写体の画素数が閾値以上である場合は、前記第1の方法で、各画素の輝度を算出するよう、前記信号処理手段(23)を制御することを特徴とする請求項1ないし4のいずれか1つに記載の車載用撮影表示制御システム。
The vehicle on which the in-vehicle imaging display control system is mounted has an IR light projecting unit (7) that projects near-infrared light in front of the vehicle,
Even if a subject that strongly reflects or emits near-infrared light is found as a result of the search, the display control means (8) uses the first method if the number of pixels of the found subject is equal to or greater than a threshold value. The in-vehicle imaging display control system according to any one of claims 1 to 4, wherein the signal processing means (23) is controlled so as to calculate the luminance of each pixel.
JP2011147486A 2011-07-01 2011-07-01 Shooting display control system Expired - Fee Related JP5712821B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011147486A JP5712821B2 (en) 2011-07-01 2011-07-01 Shooting display control system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011147486A JP5712821B2 (en) 2011-07-01 2011-07-01 Shooting display control system

Publications (2)

Publication Number Publication Date
JP2013016981A true JP2013016981A (en) 2013-01-24
JP5712821B2 JP5712821B2 (en) 2015-05-07

Family

ID=47689229

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011147486A Expired - Fee Related JP5712821B2 (en) 2011-07-01 2011-07-01 Shooting display control system

Country Status (1)

Country Link
JP (1) JP5712821B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103673977A (en) * 2013-11-07 2014-03-26 沈阳师范大学 Method and device for detecting rear dead zone of vehicle
WO2014122928A1 (en) * 2013-02-08 2014-08-14 株式会社デンソー Image processing apparatus
CN104301623A (en) * 2014-10-28 2015-01-21 浙江宇视科技有限公司 Mixed light supplementing method and device
JP2019194034A (en) * 2018-05-01 2019-11-07 クラリオン株式会社 On-vehicle camera device

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108616703A (en) * 2018-04-23 2018-10-02 Oppo广东移动通信有限公司 Electronic device and its control method, computer equipment and readable storage medium storing program for executing

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11243538A (en) * 1998-02-25 1999-09-07 Nissan Motor Co Ltd Visually recognizing device for vehicle
JP2005249529A (en) * 2004-03-03 2005-09-15 Nissan Motor Co Ltd Heat source detection device
JP2008193504A (en) * 2007-02-06 2008-08-21 Toyota Motor Corp Night vision device
JP2009201064A (en) * 2008-02-25 2009-09-03 Pioneer Electronic Corp Method and apparatus for specifying related region, and method and apparatus for recognizing image
JP2010097410A (en) * 2008-10-16 2010-04-30 Toyota Motor Corp Vehicle detection device

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11243538A (en) * 1998-02-25 1999-09-07 Nissan Motor Co Ltd Visually recognizing device for vehicle
JP2005249529A (en) * 2004-03-03 2005-09-15 Nissan Motor Co Ltd Heat source detection device
JP2008193504A (en) * 2007-02-06 2008-08-21 Toyota Motor Corp Night vision device
JP2009201064A (en) * 2008-02-25 2009-09-03 Pioneer Electronic Corp Method and apparatus for specifying related region, and method and apparatus for recognizing image
JP2010097410A (en) * 2008-10-16 2010-04-30 Toyota Motor Corp Vehicle detection device

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014122928A1 (en) * 2013-02-08 2014-08-14 株式会社デンソー Image processing apparatus
US10063788B2 (en) 2013-02-08 2018-08-28 Denso Corporation Night-vision image processing apparatus
CN103673977A (en) * 2013-11-07 2014-03-26 沈阳师范大学 Method and device for detecting rear dead zone of vehicle
CN103673977B (en) * 2013-11-07 2016-07-27 沈阳师范大学 The method and apparatus of rear dead zone of vehicle detection
CN104301623A (en) * 2014-10-28 2015-01-21 浙江宇视科技有限公司 Mixed light supplementing method and device
JP2019194034A (en) * 2018-05-01 2019-11-07 クラリオン株式会社 On-vehicle camera device

Also Published As

Publication number Publication date
JP5712821B2 (en) 2015-05-07

Similar Documents

Publication Publication Date Title
EP2637150B1 (en) Vehicle peripheral area observation system
KR102135427B1 (en) Systems and methods for processing streamed video images to correct flicker of amplitude-modulated light
US10348975B2 (en) Light system for a motor vehicle
US9497395B2 (en) Night-vision device
JP4927647B2 (en) Vehicle periphery monitoring device
JP5712821B2 (en) Shooting display control system
JP6627866B2 (en) Imaging device, imaging method, signal processing device, signal processing method, and program
US10455159B2 (en) Imaging setting changing apparatus, imaging system, and imaging setting changing method
US10735667B1 (en) Vehicle surroundings monitoring apparatus
JP5179428B2 (en) Vehicle periphery monitoring device
JP2013009041A (en) Vehicle photographing display control system
JP6168024B2 (en) Captured image display device, captured image display method, and captured image display program
JP7176447B2 (en) light monitor
JP4731177B2 (en) Infrared imaging display device and infrared imaging display method for vehicle
WO2013157250A1 (en) Image processing device and driving assisting method
JP2008193504A (en) Night vision device
JP4782491B2 (en) Imaging device
JP6866212B2 (en) Display control device, display control method and camera monitoring system
JP6327388B2 (en) Captured image display device, captured image display method, and captured image display program
JP2019197948A (en) Imaging device and method for controlling the same
JP6311826B2 (en) Captured image display device, captured image display method, and captured image display program
JP2007245970A (en) Vehicular lighting device
JP2018074440A (en) Vehicle rear image display device
KR20100033715A (en) A method for improving night pthotographing condition for a side camera
JP2020036165A (en) Image display device and image display system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140326

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150129

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150210

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150223

R151 Written notification of patent or utility model registration

Ref document number: 5712821

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees