JP2013172224A - Video processing device and video display device - Google Patents
Video processing device and video display device Download PDFInfo
- Publication number
- JP2013172224A JP2013172224A JP2012033527A JP2012033527A JP2013172224A JP 2013172224 A JP2013172224 A JP 2013172224A JP 2012033527 A JP2012033527 A JP 2012033527A JP 2012033527 A JP2012033527 A JP 2012033527A JP 2013172224 A JP2013172224 A JP 2013172224A
- Authority
- JP
- Japan
- Prior art keywords
- video
- unit
- image quality
- environment
- quality correction
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012545 processing Methods 0.000 title claims abstract description 43
- 238000012937 correction Methods 0.000 claims abstract description 88
- 238000004458 analytical method Methods 0.000 claims abstract description 57
- 230000007613 environmental effect Effects 0.000 claims description 5
- 238000001514 detection method Methods 0.000 claims description 4
- 230000002194 synthesizing effect Effects 0.000 claims description 4
- 238000010191 image analysis Methods 0.000 claims 2
- 230000002349 favourable effect Effects 0.000 abstract 1
- 238000000034 method Methods 0.000 description 32
- 238000003908 quality control method Methods 0.000 description 32
- 238000003384 imaging method Methods 0.000 description 6
- 239000000203 mixture Substances 0.000 description 4
- 239000011521 glass Substances 0.000 description 2
- 230000005484 gravity Effects 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000003702 image correction Methods 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000001629 suppression Effects 0.000 description 1
Images
Landscapes
- Closed-Circuit Television Systems (AREA)
Abstract
Description
本発明は撮像された映像を補正する技術に関する。 The present invention relates to a technique for correcting a captured image.
近年、自動車にカメラを装備し、自動車の周囲の画像を車内のディスプレイに表示することで自動車を運転するうえでの安全確認に活用したり、或は映像から障害物などを検知し、運転者への注意喚起や自動車の動きの制御に使われたりするものが登場している。自動車の周囲の環境は、昼夜などの時間帯の違い、天候の違いなどにより常時変化するため、カメラで撮影される映像の明るさや色あいなどの映像内容も変化する。一方、車内に表示される映像は自動車の周囲がどんな環境であっても常に視認しやすい映像の表示が求められることは言うまでもない。 In recent years, a car is equipped with a camera, and images around the car are displayed on the display in the car, which can be used for safety confirmation when driving the car, or obstacles are detected from the video, and the driver Some of them have been used to alert people and control the movement of cars. Since the environment around the vehicle changes constantly due to differences in time zones such as day and night, and weather, the video content such as the brightness and color of the video shot by the camera also changes. On the other hand, it is needless to say that the image displayed in the vehicle is required to be displayed so that it is always easy to see regardless of the environment around the vehicle.
一般的なカメラの機能として、撮影環境の明るさなどに応じてコントラスト補正を行う機能は備えているが、これに加えて表示装置の機能として、例えば、特許文献1に示されるように、夜間/夕方/雨天/降雪などの画質補正モードを設けるとともに、各モード用の画質補正テーブルを備えることで周囲の環境に応じた表示を実現するようなものや、特許文献2に示されるように、カメラの制御値と撮影された画素値から周囲の環境を推定して路面の車線検出を行うようなものが考えられている。
As a general camera function, a contrast correction function according to the brightness of the shooting environment is provided. In addition to this, as a display device function, for example, as shown in
特許文献1に記載の技術では、夜間や昼間などの大まかな表示モードの変更はできるものの、時々刻々と変化する周囲環境への対応については述べられておらず、モードの切り替えも運転者が行う必要がある。また、特許文献2に記載の技術では、カメラで撮影された映像の照度を基準として、周囲環境を推定して映像補正することで車線検出などの精度を向上するに過ぎず、表示のための好適な処理については述べられていない。
In the technique described in
本発明は、上記課題を鑑みてなされたものであり、その目的は、撮影環境に応じたより好適な映像表示を可能とすることにある。 The present invention has been made in view of the above problems, and an object of the present invention is to enable more suitable video display according to the shooting environment.
前記課題を解決するために、本発明の一実施の形態では、例えば、入力される映像の信号成分を分析する映像分析部と、映像の分析結果に基づき撮影された環境を推定する環境推定部と、推定された環境に基づき入力される映像の補正を行う画質補正部とを備え、環境推定部における環境推定結果に応じて、画質補正部が入力映像の画質を補正するように構成する。 In order to solve the above-described problem, in one embodiment of the present invention, for example, a video analysis unit that analyzes a signal component of an input video and an environment estimation unit that estimates a captured environment based on the video analysis result And an image quality correction unit that corrects the input video based on the estimated environment, and the image quality correction unit corrects the image quality of the input video according to the environment estimation result in the environment estimation unit.
撮影環境に応じたより好適な映像表示が可能となる。 More suitable video display according to the shooting environment is possible.
以下、本発明の実施の形態について図面に基づいて説明するが、本発明は必ずしもこれらの実施形態に限定されるものではない。また、実施形態を説明するための図において、同一機能の部分には原則として同一の符号を付し、その繰り返しの説明は省略する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings. However, the present invention is not necessarily limited to these embodiments. Also, in the drawings for describing the embodiments, the same reference numerals are given to components having the same function, and the repeated description thereof is omitted.
まず、本発明の実施例1の構成について図1から図3を用いて説明する。 First, the configuration of the first embodiment of the present invention will be described with reference to FIGS.
図1は本発明の実施例1のシステム全体構成を示す図である。100は本発明の実施例1のシステムを搭載する車両、1は映像分析部、2は環境推定部、3は画質制御部、4は画質補正部、5は画像合成部、6は映像処理装置、7は表示装置、8はカメラ部である。カメラ部8で撮影された映像9は映像分析部1で映像の成分を分析し、分析情報10として環境推定部2へ入力する。環境推定部2は分析情報10を元に撮影された環境を推定し、環境情報11として画質制御部3へ入力する。画質制御部3では環境情報11を元に画質の制御値12を出力し、画質補正部4で映像9の補正を行う。画像合成部5は画質が補正された映像13と、例えばナビゲーション画像やOSD表示などのグラフィック映像を合成して出力し、表示部7で表示を行う。
FIG. 1 is a diagram showing the overall system configuration of a first embodiment of the present invention. 100 is a vehicle equipped with the system of the first embodiment of the present invention, 1 is a video analysis unit, 2 is an environment estimation unit, 3 is an image quality control unit, 4 is an image quality correction unit, 5 is an image composition unit, and 6 is a video processing device. , 7 is a display device, and 8 is a camera unit. The
図2に映像分析部1の構成例を示す。1aは輝度成分分析部、1bは色成分分析部、1cは輪郭成分分析部である。本構成例では輝度成分、色成分、輪郭成分の3種類の分析を行う構成としているが、これに限ったわけではなく、最低1種類の映像成分を分析するように構成すれば良い。図3に画質補正部4の構成例を示す。4aはノイズ低減部、4bは輝度補正部、4cは輪郭補正部、4dは色補正部である。本構成例でも4種類の画質補正機能により構成しているが特にこれに限ったわけではない。
FIG. 2 shows a configuration example of the
次に上記構成の動作の一例を図4から図6を用いて説明する。図4は映像の1フレーム分の輝度成分の一例を示している。横軸は輝度レベル、縦軸は各輝度レベルの分布度数を示している。表示部7の表示可能な輝度レベル、つまりダイナミックレンジは、横軸の最低輝度レベルから最高輝度レベルの範囲であるとする。表示部7に視認性が高く見やすい映像を表示するためには、前述のダイナミックレンジの全体を利用するのが望ましい。つまり、表示される映像が図1の斜線で示すような映像の成分であることが理想的である。
Next, an example of the operation of the above configuration will be described with reference to FIGS. FIG. 4 shows an example of the luminance component for one frame of the video. The horizontal axis indicates the luminance level, and the vertical axis indicates the distribution frequency of each luminance level. The displayable luminance level of the
一方、輝度成分に偏りがある一例を図5(a)に示す。図5(a)の例では、最高輝度レベルの輝度が低い方向にあり、映像成分全体のレベルも低い方向に偏っている。このような映像を表示すると全体的に暗く、視認性も悪い表示となってしまう。 On the other hand, an example in which the luminance component is biased is shown in FIG. In the example of FIG. 5A, the luminance of the highest luminance level is in the lower direction, and the level of the entire video component is also biased in the lower direction. When such an image is displayed, the display is dark overall and poorly visible.
逆に図5(b)に示すように最低輝度レベルの輝度が高い方向に、映像全体のレベルも高い方向に偏っていると、表示した映像は明るいものの、全体として白っぽい映像となり視認性の悪い映像となる。 On the other hand, as shown in FIG. 5B, if the luminance of the lowest luminance level is high and the level of the whole video is also high, the displayed video is bright, but the whole image becomes whitish and has poor visibility. It becomes a picture.
そこで、上述した本発明の映像分析部1は、映像の最高輝度レベル、最低輝度レベル、平均輝度レベルを検出する。環境推定部2は、この最高輝度レベル、最低輝度レベル、平均輝度レベルなどを用いて、車両外の環境の判定を行う。
Therefore, the
例えば、図5(a)の例では、映像の最高輝度レベルと閾値S1(最高輝度レベルによる暗環境判定用の閾値)を比較し、最高輝度レベルが閾値S1よりも低い場合に、「暗環境」と判定すればよい。また、別の判定処理例として、例えば、図5(a)の例において、映像の平均輝度レベルと閾値S2(平均輝度レベルによる暗環境判定用の閾値)を比較し、平均輝度レベルが閾値S2よりも低い場合に、「暗環境」と判定してもよい。さらに、別の判定処理例として、例えば、図5(a)の例において、上述の2例の判定基準を組み合わせて、最高輝度レベルが閾値S1よりも低く、かつ映像の平均輝度レベルが閾値S2よりも低い場合に、「暗環境」と判定してもよい。 For example, in the example of FIG. 5A, the highest luminance level of the video is compared with the threshold S1 (threshold for determining the dark environment based on the highest luminance level), and when the highest luminance level is lower than the threshold S1, the “dark environment” ”Can be determined. As another determination processing example, for example, in the example of FIG. 5A, the average luminance level of the video is compared with a threshold S2 (threshold for determining dark environment based on the average luminance level), and the average luminance level is the threshold S2. If it is lower than that, it may be determined as “dark environment”. Furthermore, as another example of determination processing, for example, in the example of FIG. 5A, the above-described two determination criteria are combined, the maximum luminance level is lower than the threshold value S1, and the average luminance level of the video is the threshold value S2. If it is lower than that, it may be determined as “dark environment”.
環境推定部2が上述のように「暗環境」と判定した場合、画質制御部3の制御により、画質補正部4は、図4に示す分布により近づくようにダイナミックレンジ全体に映像成分が広げる補正を行う。
When the
次に、例えば、図5(b)の例では、映像の最低輝度レベルと閾値S3(最低輝度レベルによる明環境判定用の閾値)を比較し、最低輝度レベルが閾値S3よりも高い場合に、「明環境」と判定すればよい。また、別の判定処理例として、例えば、図5(b)の例において、映像の平均輝度レベルと閾値S4(平均輝度レベルによる明環境判定用の閾値)を比較し、平均輝度レベルが閾値S4よりも高い場合に、「明環境」と判定してもよい。さらに、別の判定処理例として、例えば、図5(b)の例において、上述の2例の判定基準を組み合わせて、最低輝度レベルが閾値S3よりも高く、かつ映像の平均輝度レベルが閾値S4よりも高い場合に、「明環境」と判定してもよい。 Next, for example, in the example of FIG. 5B, the lowest luminance level of the video is compared with the threshold S3 (the threshold for determining the bright environment based on the lowest luminance level), and when the lowest luminance level is higher than the threshold S3, What is necessary is just to determine with "bright environment". As another determination processing example, for example, in the example of FIG. 5B, the average luminance level of the video is compared with a threshold S4 (threshold for determining bright environment based on the average luminance level), and the average luminance level is the threshold S4. If it is higher, the “bright environment” may be determined. Furthermore, as another example of determination processing, for example, in the example of FIG. 5B, the above-described two determination criteria are combined, the minimum luminance level is higher than the threshold value S3, and the average luminance level of the video is the threshold value S4. If it is higher, the “bright environment” may be determined.
環境推定部2が上述のように「明環境」と判定した場合、画質制御部3の制御により、画質補正部4は、図4に示す分布により近づくようにダイナミックレンジ全体に映像成分が広げる補正を行う。
When the
また、例えば、図6のように、映像の最高輝度レベルが閾値S1以上であり、映像の最低輝度レベルが閾値S3以下である場合や、平均輝度レベルが閾値S2以上閾値S4以下の場合など、上述の「明環境」でも「暗環境」でもないと判定された場合は、画質補正を行わないように構成しても良い。このような映像分布の場合は、映像の視認性はさほど悪くないと考えられるため、画像補正処理をOFFとすることで、映像処理装置の動作の省電力化が図れる。 Further, for example, as shown in FIG. 6, when the highest luminance level of the video is equal to or higher than the threshold S1 and the lowest luminance level of the video is equal to or lower than the threshold S3, or when the average luminance level is equal to or higher than the threshold S2 and lower than the threshold S4. If it is determined that neither the above-described “bright environment” nor “dark environment” is determined, the image quality correction may not be performed. In the case of such a video distribution, it is considered that the visibility of the video is not so bad. Therefore, the power of the video processing apparatus can be saved by turning off the image correction processing.
以上の判定制御及び画質補正制御は、例えば映像の毎フレーム行えばよい。上述の制御によれば、時々刻々と撮影された映像が変化した場合にも、必要に応じて撮像時よりも広いダイナミックレンジを使った映像表示が可能となり、視認性の良好な映像表示が可能になる。 The above determination control and image quality correction control may be performed, for example, every frame of the video. According to the above-mentioned control, even when the captured image changes from moment to moment, it is possible to display an image using a wider dynamic range than when imaging, and display an image with good visibility. become.
なお、上述の説明において、図5(a)の例において、最低輝度レベルと閾値S3による判定及び平均輝度レベルとS4による判定の説明は省略した。しかし、図5(a)と図5(b)を比較すれば明らかなように、図5(a)における最低輝度レベルは閾値S3以下であり、平均輝度レベルは閾値S4以下であるため、「明環境」とは判定されない。 In the above description, in the example of FIG. 5A, descriptions of the determination based on the minimum luminance level and the threshold S3 and the determination based on the average luminance level and S4 are omitted. However, as apparent from a comparison between FIG. 5A and FIG. 5B, the minimum luminance level in FIG. 5A is equal to or lower than the threshold value S3, and the average luminance level is equal to or lower than the threshold value S4. It is not determined as “bright environment”.
また、上述の説明において、図5(b)の例において、最高輝度レベルと閾値S1による判定及び平均輝度レベルとS2による判定の説明は省略した。しかし、図5(a)と図5(b)を比較すれば明らかなように、図5(b)における最高輝度レベルは閾値S1以上であり、平均輝度レベルは閾値S2以上であるため、「暗環境」とは判定されない。 Further, in the above description, in the example of FIG. 5B, description of the determination based on the maximum luminance level and the threshold value S1 and the determination based on the average luminance level and S2 is omitted. However, as apparent from a comparison between FIG. 5A and FIG. 5B, the maximum luminance level in FIG. 5B is equal to or higher than the threshold value S1, and the average luminance level is equal to or higher than the threshold value S2. It is not determined to be “dark environment”.
なお、上述の一例で、環境推定部3では「暗環境」「明環境」の推定を行うように説明したが、輝度レベルを判定する値を複数設けることで細分化し、例えば「夜間」「朝夕」「昼間(曇天)」「昼間(晴天)」のように推定してもよい。例えば、「夜間」と判定した場合に、上述の「暗環境」と同様な処理を行うこうに構成しても良い。また、「昼間(晴天)」と判定した場合は、上述の「明環境」と同様な処理を行うこうに構成しても良い。また、「昼間(曇天)」と判定した場合は、上述の画質補正を行わないように構成しても良い。また、「朝夕」と判定した場合は、後述の色補正を行うように構成しても良い。
In the above example, the
また、映像分析部1は、環境の推定のために、映像の最高輝度レベル、最低輝度レベル、平均輝度レベルを検出して、環境の推定に使用するものとして説明した。ここで、他の例として、輝度ヒストグラムとして検出して、する場合の一例を図7、図8を用いて説明する。図7は入力される映像9の輝度ヒストグラムの一例であり、横軸は輝度レベル、縦軸は各輝度レベルの分布度数を示している。このように映像分析部1で映像ヒストグラムを検出した場合、環境推定部2は例えばヒストグラムの重心と所定値を基準に、上述の実施例と同様な環境の推定を行うとともに、画質制御部3を介して画質補正部4で映像9の補正を行う。補正後の映像の輝度ヒストグラム例を図8に示す。
In addition, the
画質補正部4では、ヒストグラムの重心が輝度の高い方向に補正するとともに、図7に示した度数が所定値よりも大きな輝度レベルの領域を拡張するように補正を加える。輝度ヒストグラムの度数が大きな輝度レベルは画面中を占める面積も大きいので、その領域の輝度差を大きくするよう制御することで、視認性の高い映像表示が可能となる。
The image
次に映像分析部1における色成分分析部1bの動作例を説明する。色成分分析部1bは、映像の色成分のうち色相、彩度のうち少なくとも一方をヒストグラム情報として検出する。環境推定部2では、色相の赤色成分が所定値よりも大きかった場合に「朝夕」であると判定するとともに、画質制御部3を介して画質補正部4において映像9の補正を行う。例えば、朝夕の映像に赤みがかった映像の赤成分のレベルを下げるとともに、前述した輝度情報での補正と併用することで、昼間と同様に視認性の良好な映像表示が実現できる。また、彩度情報は、所定の彩度よりも低かった場合に、彩度を高くするように制御を行う。例えば、自動車の周囲の映像は道路などが多く色成分が少ないのに対して、人、車などの物体は色成分が多いので、彩度を高くするように補正することで注意すべき物体の視認性を向上させることができる。
Next, an operation example of the color component analysis unit 1b in the
次に図9から図11を用いて映像分析部1における輪郭成分分析部1cの動作例を説明する。まず図9において横軸はエッジ成分(輪郭成分)の振幅レベル、縦軸はそれぞれのレベルにおける度数分布を示している。映像成分において、比較的エッジの振幅レベルが小さい領域は映像中のノイズ成分、比較的エッジの振幅レベルが大きい領域は映像中の物体の輪郭である場合が多い。本実施例では、図10に示すようにエッジの振幅レベルが所定値よりも小さい領域に対してエッジ振幅を下げるように画質制御部3を介して画質補正部4で映像9の画質補正を行う。この処理は画質補正部4におけるノイズ低減部4aにて行う。これによりノイズ成分を抑制し、注視すべき物体の視認性を向上することができる。
Next, an operation example of the contour component analysis unit 1c in the
また、上記制御に加えエッジの振幅レベルが所定値よりも大きな領域に対してエッジの振幅を大きくするように制御してもよい。この処理は画質補正部4における輪郭補正部4cで行う。この処理によればノイズを抑制し、さらに注視すべき物体の輪郭が鮮明にできるので視認性の高い表示が可能となる。この制御は、ノイズの抑制は行わず、所定値よりも大きな領域に対してエッジの振幅を大きくする制御のみを行っても良い。
In addition to the above control, control may be performed so that the edge amplitude is increased in a region where the edge amplitude level is larger than a predetermined value. This processing is performed by the contour correction unit 4c in the image
以上説明した本発明の実施例1に係る映像処理技術によれば、毎フレームの映像の分析に基づき、環境を推定したうえで画質を補正することができるので、時々刻々と変化する撮影環境に応じてより好適な映像の表示を実現できる。すなわち、撮影環境に応じたより好適な映像表示が可能となる。 According to the video processing technique according to the first embodiment of the present invention described above, the image quality can be corrected after estimating the environment based on the analysis of the video of each frame, so that the shooting environment changes from moment to moment. Accordingly, more suitable video display can be realized. That is, a more suitable video display according to the shooting environment is possible.
実施例2について図12を用いて説明する。実施例1では、1つの映像入力に対する構成例と動作を説明したが、本実施例では2つの映像入力の場合の構成例を示している。 A second embodiment will be described with reference to FIG. In the first embodiment, the configuration example and the operation for one video input have been described, but in this embodiment, a configuration example in the case of two video inputs is shown.
1200は本発明の実施例2のシステムを搭載する車両、8bはカメラ部、3bは画質制御部、4bは画質補正部である。カメラ部8からの映像9が接続される映像分析部1、環境推定部2、画質制御部3、画質補正部4の動作は実施例1と同一であるため、ここでの説明は省略する。
なお、カメラ部8及びカメラ部8bの、車両における設置方向は様々な例が考えられる。一方を車両の前方を撮像する方向に設置し、他方を車両の後方を撮像する方向に設置してもよい。この場合フロントビューカメラと、リアビューカメラとして用いることができる。また、他の構成例としては、両者をともに車両の前方(必要であれば後方でもよい)を撮像する方向に設置し、視差のある2視点の映像を撮影するように構成してもよい。この場合は、距離測定や3D映像表示のための撮像システムを構成することができる。
Various examples of the installation direction of the camera unit 8 and the
以下、カメラ部8bからの映像が接続される部分と、画像合成部5の動作について説明する。カメラ部8bの映像9bは、画質補正部4bで補正されるが、この制御は、カメラ部8の撮像映像を用いて環境推定を行う環境推定部2の推定結果に基づき画質制御部3bを介して行うように構成する。なぜならば、カメラ部8、カメラ部8bがそれぞれ車両1200の外部を撮影するとした場合、近い環境を撮影していることになり、映像内容の類似性が高いためである。したがって、環境推定部2の推定結果での補正しても実用上問題ない。このように、1台のカメラで撮像した映像を用いて車両外の環境推定を行い、その環境推定結果を複数台のカメラで撮像した映像の画質補正に共通に用いることで、複数台のカメラそれぞれの撮像映像でぞれぞれの環境推定処理を行うよりも安価に映像処理装置を構成することができる。
Hereinafter, the part to which the video from the
次に、画像合成部5には、画質補正部4bの出力映像13bと画質補正部4の出力映像13が入力され、処理が行われる。当該画像合成部5における処理は、例えばナビゲーション画像やOSD表示などのグラフィック映像を合成する以外にも様々な処理が考えられる。
Next, the
まず、一方のカメラを車両の前方を撮像する方向に設置(フロントビュー用)し、他方のカメラを車両の後方を撮像する方向に設置(リヤビュー用)する場合は、図示しないユーザからの指示情報入力部により、どちらか一方の映像を選択して出力してもよい。また、両者の映像をリサイジング変換処理等を行って表示部7の表示画面のそれぞれの領域に表示できるように出力映像を生成してもよい。出力映像は表示部7へ入力され表示される。この場合、映像を合成して表示する方法としては、画面上に左右に並べて表示する方法や上下に並べて表示する方法などがあるがどちらでも問題ない。また、車両を俯瞰する視点からの映像に見えるように、それぞれの映像を変換する既存の技術を用いて出力映像を生成するように構成してもよい。
First, when one camera is installed in the direction of imaging the front of the vehicle (for front view) and the other camera is installed in the direction of imaging the rear of the vehicle (for rear view), instruction information from a user (not shown) Either one of the videos may be selected and output by the input unit. Further, an output video may be generated so that both videos can be displayed in respective areas of the display screen of the
また、両方のカメラを車両の前方を撮像する方向に設置し、視差のある2視点の映像を撮影するように構成する場合は、どちらか一方の映像を選択して2D映像として出力してもよく、両者の映像を用いて3D映像を生成して3D映像として表示してもよい。この場合、表示部7は3D映像が可能な表示装置を用いる必要がある。表示部7における3D映像表示方式は、裸眼立体視方式でもよく、偏光メガネや液晶シャッター式メガネを必要とする方式でも構わない。これらはいずれも既存技術で実現できる。表示部7と映像処理装置6を一体システムとして構成する場合は、映像処理装置6から表示部7へ出力する3D映像のフォーマットは独自フォーマットで構わない。表示部7と映像処理装置6を別体としてインタフェースで接続して構成する場合は、映像処理装置6から表示部7へ出力する3D映像は、例えばHDMIインタフェースなどを用いて、規格で規定された3Dフォーマットで伝送すればよい。
Also, when both cameras are installed in the direction to capture the front of the vehicle and configured to shoot two viewpoint images with parallax, either one of the images may be selected and output as a 2D image. Alternatively, a 3D image may be generated using both images and displayed as a 3D image. In this case, the
本実施例によれば、一方のカメラで撮影した画像に基づき環境を推定し、2つのカメラ映像を補正して視認性の良好な映像として表示するこができる。 According to the present embodiment, it is possible to estimate the environment based on an image captured by one camera, correct two camera images, and display them as images with good visibility.
本実施例では2台のカメラを用いる構成例を説明したが、カメラは何台でも問題なく、複数台の中の1台の映像による環境推定結果を元に、その他のカメラ映像を補正制御するように構成すれば、1台のカメラ以外の環境推定機能が不用になるので、より安価により視認性の高い複数カメラ映像の表示技術を提供することが可能となる。 In this embodiment, a configuration example using two cameras has been described. However, there is no problem with any number of cameras, and other camera videos are corrected and controlled based on the environment estimation result of one of the plurality of cameras. With this configuration, since the environment estimation function other than one camera is unnecessary, it is possible to provide a technique for displaying a plurality of camera images with high visibility at a lower cost.
以上説明した本発明の実施例2に係る映像処理技術によれば、カメラを複数台備える構成てあっても、より安価な構成で撮影環境に応じたより好適な映像表示が可能となる。 According to the video processing technique according to the second embodiment of the present invention described above, even if the configuration includes a plurality of cameras, a more preferable video display according to the shooting environment is possible with a lower-cost configuration.
実施例3について図13を用いて説明する。本実施例では、実施例2と同様に2台のカメラを用いているが、映像分析部1b、環境推定部2b、差分解析部20を設けている。1300は本発明の実施例3のシステムを搭載する車両である。図13において、カメラ部8及びカメラ部8bは、ともに車両の前方(必要であれば後方でもよい)を撮像する方向に設置し、視差のある2視点の映像を撮影するように構成している。
A third embodiment will be described with reference to FIG. In the present embodiment, two cameras are used as in the second embodiment, but a video analysis section 1b, an environment estimation section 2b, and a
以下、動作例を説明する。カメラ部8bの映像9bは映像分析部1bで映像成分を分析する。映像分析部1bの動作は、実施例1と同様の動作でありここでの説明は省略する。差分分析部20は、映像分析部1bと映像分析部1の分析結果を入力し、両者の差分を分析し、差分情報を出力する。画質制御部3bではその差分情報と環境推定部2の分析結果を用いて画質補正部4bを制御する。この構成によれば実施例2と同様に2つの映像の視認性を向上できるとともに、例えばカメラ8とカメラ8bの両者の出力映像に差があった場合にも、その差分を差分解析部20で検出し、差分を無くすように画質制御部4bで補正できるので、補正後の2つの映像の画質差を小さくすることができる。このようにすることで、例えば、撮影した2視点の映像を下に、3D映像を表示する際に、右目用の映像と左目用の映像の画質の差を低減することが可能となり、ユーザにとってより視認性の高い映像表示を実現できる。
Hereinafter, an operation example will be described. The video component of the video 9b of the
本実施例では2台のカメラを用いる構成例を説明したが、カメラはそれより多い台数でもよい。映像分析部、差分解析部を同様に増やし、複数台の中の1台の映像による環境推定結果と差分分析結果を元に、その他のカメラ映像を補正制御するように構成すれば、同様に視認性の高い複数カメラ映像の表示が可能となる。 In the present embodiment, a configuration example using two cameras has been described, but a larger number of cameras may be used. If the number of video analysis units and difference analysis units are increased in the same way, and other camera images are corrected and controlled based on the environment estimation results and difference analysis results from one of the multiple images, they will be visible as well. It is possible to display high-quality images from multiple cameras.
以上説明した本発明の実施例3に係る映像処理技術によれば、カメラを複数台備える構成てあっても、それぞれのカメラで撮影した映像の画質差を低減でき、より好適な映像表示が可能となる。 According to the video processing technique according to the third embodiment of the present invention described above, even when a plurality of cameras are provided, it is possible to reduce the difference in image quality between videos taken by the cameras and to display more suitable video. It becomes.
実施例4の構成例について図14を用いて説明する。1400は本発明の実施例4のシステムを搭載する車両である。21は車内情報の信号を示しており、画質制御部は、実施例1で説明した環境推定結果とともに、この車内情報を用いて画質補正部の制御を行うよう構成している。
A configuration example of the fourth embodiment will be described with reference to FIG.
例えば、車両1400に、日時情報や時刻情報を管理する日時情報管理部1412を設け、車内情報21として時刻情報を画質制御部3cに入力した場合の動作を説明する。なお、日時情報管理部1412は、車両内1400内の時計表示に用いる時刻情報を管理する部と共通でも構わない。実施例1では映像分析を元に昼夜などの推定を行ったが、本実施例では時刻情報を用いて環境推定を行う。例えば、時刻により昼夜の判別は可能であるので、大まかな判定を時刻を元に行ない、その間の朝夕の判定を映像を元に行う。これにより季節などの違いで明るさが異なる時間帯でも精度の高い画質補正が可能となる。
For example, the operation when the
また、例えば、画質制御部3cが、日時情報管理部1412から画質制御部3cとして時刻情報に加えて日時情報を取得する構成としてもよい。画質制御部3cは、取得した日付情報を用いて、図示しない記憶部に予め記憶した日付毎の日の出時刻情報、日の入り時刻情報を参照して、上記昼夜の判別処理に用いることも可能である。なお、記憶部に記憶する日の出時刻情報、日の入り時刻情報については、夏は日の出時刻が早く、日の入り時刻が遅く、冬は日の出時刻が遅く、日の入り時刻が早くなるように設定すればよい。
Further, for example, the image
また、車両1400に、天候情報を管理する天候情報管理部1414を設けて、車内情報21に天候情報を含めて画質制御部3cに入力してもよい。この場合、画質制御部3cは取得した天候情報を用いて晴天/雨天/降雪などの判別を行い、画質制御のモードを変更することも可能である。なお、天候情報管理部1414は、車両1400が備える無線情報取得部1413を介して天候情報を取得すればよい。無線情報取得部1413による情報取得方式は、FM放送波、地上波、衛星放送などの放送波を介して情報を取得する方式でもよく、携帯電話網通信を介して情報を取得する方式でもよく、道路周辺に設置された電波ビーコン、光ビーコン等の装置から情報を受信する方式でも良い。
Further, the
また、車両1400に、ワイパーの動作状態を管理するワイパー動作状態管理部1415を設けて、車内情報21にワイパーの動作情報を含めて画質制御部3cに入力してもよい。この場合、画質制御部3cは、取得したワイパーの操作情報に基づいて晴天/雨天を判別してもよい。ワイパーの操作情報がワイパーが動作している状態を示す場合には、雨天と判別すればよい。
Further, the
また、車両1400に、ライト(前照灯)の点灯状態を管理するライト点灯状態管理部1416を設けて、車内情報21にライト(前照灯)の点灯状態情報を含めて画質制御部3cに入力してもよい。この場合、画質制御部3cは、取得したライトの点灯状態に基づいて上述の「暗環境」判別をおこなってもよい。すなわち、ライトの点灯状態情報が「ライト点灯」を示している場合には、「暗環境」と判定してもよい。
Further, the
また、車両1400が備える照度センサー1411によって取得する車外の環境光の照度情報を車内情報21に含めて画質制御部3cに入力してもよい。この場合、画質制御部3cは、取得した環境光の照度情報に基づいて上述の「明環境」/「暗環境」判別をおこなえばよい。例えば、環境光の照度情報に格納される照度が所定値以上の場合には「明環境」と判断してもよい。また、環境光の照度情報に格納される照度が所定値より小さいの場合には「暗環境」と判断してもよい。
Further, the illuminance information of the ambient light outside the vehicle acquired by the illuminance sensor 1411 provided in the
以上のとおり、車内情報21に含める判別基準となる情報について、複数種類の例を説明したが、これらの情報を複数組み合わせた判別処理を行ってもよい。例えば、上述の複数種類の判別規準のうち、一つでも「暗環境」(または「明環境」)を示せば、「暗環境」との判別(または「明環境」との判別)を確定してもよい。または、所定の数以上の判別規準が「暗環境」(または「明環境」)を示して、初めて「暗環境」との判別(または「明環境」との判別)を確定してもよい。
As described above, a plurality of types of examples have been described with respect to information serving as a determination criterion included in the in-
また、車内情報21に含める判別基準となる情報と実施例1に示した入力映像に基づく環境推定処理の結果を併用して判別結果を確定してもよい。例えば、車内情報21による判別結果と入力映像に基づく環境推定処理の結果とがともに「暗環境」(または「明環境」)を示した場合に、「暗環境」との判別(または「明環境」との判別)を確定してもよい。例えば、具体的には、例えば、入力映像に基づく環境推定処理の結果と車内情報21に含まれる時刻情報による判別結果を組み合わせて判別してもよい。また、入力映像に基づく環境推定処理の結果と車内情報21に含まれるライト(前照灯)の点灯状態情報による判別結果を組み合わせて判別してもよい。また、入力映像に基づく環境推定処理の結果と車内情報21に含まれる照度センサー1411が取得した車外の環境光の照度情報による判別結果を組み合わせて判別してもよい。
Further, the discrimination result may be determined by using the information as the discrimination criterion included in the in-
また、環境推定部2が、「夜間」「朝夕」「昼間(曇天)」「昼間(晴天)」など細分化した判定をお行う場合には、この推定結果と、時刻情報の内容、天候情報の内容が一致した場合に、判別結果を確定しても良い。
When the
以上説明した本発明の実施例4に係る映像処理技術によれば、車両装置からの情報を用いて、より好適な映像表示が可能となる。 According to the video processing technique according to the fourth embodiment of the present invention described above, more suitable video display can be performed using information from the vehicle device.
実施例5の構成例について図15を用いて説明する。1500は本発明の実施例5のシステムを搭載する車両である。図15において、カメラ部8及びカメラ部8bは、ともに車両の前方(必要であれば後方でもよい)を撮像する方向に設置し、視差のある2視点の映像を撮影するように構成している。距離推定部22は距離推定部であり、2つの視差映像から映像の領域毎のカメラからの距離を推定する。2つの視差映像から距離を推定する方式は現存する技術を用いて構わない。その距離推定結果は、画質制御部3、画質制御部3bへ入力され、映像9および映像9bの画質補正制御に用いる。その際、映像中の距離が遠い領域と推定された領域は輪郭補正量を小さく、映像中の距離が近い領域と推定された領域は輪郭補正量を大きくするように制御する。この制御によれば、近い物体の輪郭を鮮明にすることができ、注意すべき物体の視認性を向上させることが可能となる。
A configuration example of the fifth embodiment will be described with reference to FIG. Reference numeral 1500 denotes a vehicle equipped with the system of the fifth embodiment of the present invention. In FIG. 15, the camera unit 8 and the
以上説明した本発明の実施例5に係る映像処理技術によれば、入力映像を用いた距離推定結果を用いて、より好適な映像表示が可能となる。 According to the video processing technique according to the fifth embodiment of the present invention described above, a more preferable video display can be performed using the distance estimation result using the input video.
1 映像解析部
1a 輝度成分分析部
1b 色成分分析部
1c 輪郭成分分析部
2 環境推定部
3 画質制御部
4 画質補正部
4a ノイズ低減部
4b 輝度補正部
4c 輪郭補正部
4d 色補正部
5 画像合成部
6 映像処理装置
7 表示部
8 カメラ部
9 映像
10 映像分析結果
11 環境推定結果
12 画質制御信号
13 補正映像
14 合成映像
20 差分解析部
21 情報信号
22 距離推定部
100 車両
1200 車両
1300 車両
1400 車両
1411 照度センサ
1412 日時情報管理部
1413 ワイパー動作状態管理部
1414 ライト点灯状態管理部
1415 無線情報取得部
1416 天候情報管理部
1500 車両
DESCRIPTION OF
Claims (21)
前記N個の画質補正部は、前記環境推定部で推定された環境に基づき映像補正を行なうことを特徴とする映像表示装置。 N video signals (N is an integer equal to or greater than 1) are input, and a video analysis unit that analyzes a component of a predetermined video among the N video images, and an estimated environment based on the video analysis result And an N image quality correction unit that corrects the video, and a video switching unit that selects a desired one of the N image quality corrected videos or synthesizes and outputs the N videos. And a video display unit for displaying video,
The N image quality correction units perform video correction based on the environment estimated by the environment estimation unit.
前記N個の画質補正部は、環境推定に用いた映像の補正を前記環境推定部で推定された環境に基づき行ない、その他の映像については、推定された環境と前記映像差分解析部の差分解析結果に基づき補正することを特徴とする映像表示装置。 N video signals (N is an integer equal to or greater than 1) are input and shot based on a video analysis unit that analyzes the components of N video images and a predetermined video analysis result among the N video analysis units. An environment estimation unit for estimating the environment, (N-1) video difference analysis units for detecting a difference between the video component used for the environment estimation and other video components, and N for video correction An image quality correction unit, a video switching unit that selects a desired one of N video quality-corrected videos or synthesizes and outputs N videos, and a video display unit that displays a video,
The N image quality correction units correct the video used for the environment estimation based on the environment estimated by the environment estimation unit, and for other videos, the difference analysis between the estimated environment and the video difference analysis unit. An image display device, wherein correction is performed based on the result.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012033527A JP5865726B2 (en) | 2012-02-20 | 2012-02-20 | Video display device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012033527A JP5865726B2 (en) | 2012-02-20 | 2012-02-20 | Video display device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2013172224A true JP2013172224A (en) | 2013-09-02 |
JP5865726B2 JP5865726B2 (en) | 2016-02-17 |
Family
ID=49265922
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012033527A Active JP5865726B2 (en) | 2012-02-20 | 2012-02-20 | Video display device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5865726B2 (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017039278A1 (en) * | 2015-08-31 | 2017-03-09 | (주)큐알온텍 | Device and method for controlling images of vehicular black box |
JP2017220876A (en) * | 2016-06-10 | 2017-12-14 | アイシン精機株式会社 | Periphery monitoring device |
WO2018003937A1 (en) * | 2016-06-30 | 2018-01-04 | アイキューブド研究所株式会社 | Video signal processing device, video signal processing method, and program |
JP2018006943A (en) * | 2016-06-30 | 2018-01-11 | アイシン精機株式会社 | Vehicle periphery monitoring device |
JP2020155827A (en) * | 2019-03-18 | 2020-09-24 | 本田技研工業株式会社 | Visible device and visible method |
Citations (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000123165A (en) * | 1998-10-19 | 2000-04-28 | Canon Inc | Image processor and its method |
JP2001008195A (en) * | 1999-06-24 | 2001-01-12 | Mitsubishi Motors Corp | Device for monitoring rear part of vehicle |
JP2001320616A (en) * | 2000-02-29 | 2001-11-16 | Matsushita Electric Ind Co Ltd | Image pickup system |
JP2002216125A (en) * | 2001-01-23 | 2002-08-02 | Toshiba Corp | Image correcting device and its method |
JP2005202878A (en) * | 2004-01-19 | 2005-07-28 | Toyota Motor Corp | Object detector |
JP2006311031A (en) * | 2005-04-27 | 2006-11-09 | Sanyo Electric Co Ltd | Imaging apparatus for moving body |
JP2007156792A (en) * | 2005-12-05 | 2007-06-21 | Nissan Motor Co Ltd | Vehicle peripheral image display device |
JP2007263669A (en) * | 2006-03-28 | 2007-10-11 | Denso It Laboratory Inc | Three-dimensional coordinates acquisition system |
JP2007329762A (en) * | 2006-06-08 | 2007-12-20 | Fujitsu Ten Ltd | Apparatus and method for detecting object candidate area, walker recognition apparatus, and vehicle controller |
JP2008035069A (en) * | 2006-07-27 | 2008-02-14 | Matsushita Electric Ind Co Ltd | Video signal processor |
JP2009017457A (en) * | 2007-07-09 | 2009-01-22 | Fujifilm Corp | Compound eye photographic apparatus and method of adjusting the same |
JP2009031874A (en) * | 2007-07-24 | 2009-02-12 | Toyota Motor Corp | Warning apparatus |
JP2011160019A (en) * | 2010-01-29 | 2011-08-18 | Fujitsu Ten Ltd | Image compositing device and image compositing method |
JP2011160117A (en) * | 2010-01-29 | 2011-08-18 | Fujitsu Ten Ltd | Image processor and image processing method |
JP2011254311A (en) * | 2010-06-02 | 2011-12-15 | Aisin Seiki Co Ltd | Vehicle peripheral image processor |
JP2011254339A (en) * | 2010-06-03 | 2011-12-15 | Hitachi Ltd | Imaging apparatus |
JP2012019399A (en) * | 2010-07-08 | 2012-01-26 | For-A Co Ltd | Stereoscopic image correction device, stereoscopic image correction method, and stereoscopic image correction system |
-
2012
- 2012-02-20 JP JP2012033527A patent/JP5865726B2/en active Active
Patent Citations (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000123165A (en) * | 1998-10-19 | 2000-04-28 | Canon Inc | Image processor and its method |
JP2001008195A (en) * | 1999-06-24 | 2001-01-12 | Mitsubishi Motors Corp | Device for monitoring rear part of vehicle |
JP2001320616A (en) * | 2000-02-29 | 2001-11-16 | Matsushita Electric Ind Co Ltd | Image pickup system |
JP2002216125A (en) * | 2001-01-23 | 2002-08-02 | Toshiba Corp | Image correcting device and its method |
JP2005202878A (en) * | 2004-01-19 | 2005-07-28 | Toyota Motor Corp | Object detector |
JP2006311031A (en) * | 2005-04-27 | 2006-11-09 | Sanyo Electric Co Ltd | Imaging apparatus for moving body |
JP2007156792A (en) * | 2005-12-05 | 2007-06-21 | Nissan Motor Co Ltd | Vehicle peripheral image display device |
JP2007263669A (en) * | 2006-03-28 | 2007-10-11 | Denso It Laboratory Inc | Three-dimensional coordinates acquisition system |
JP2007329762A (en) * | 2006-06-08 | 2007-12-20 | Fujitsu Ten Ltd | Apparatus and method for detecting object candidate area, walker recognition apparatus, and vehicle controller |
JP2008035069A (en) * | 2006-07-27 | 2008-02-14 | Matsushita Electric Ind Co Ltd | Video signal processor |
JP2009017457A (en) * | 2007-07-09 | 2009-01-22 | Fujifilm Corp | Compound eye photographic apparatus and method of adjusting the same |
JP2009031874A (en) * | 2007-07-24 | 2009-02-12 | Toyota Motor Corp | Warning apparatus |
JP2011160019A (en) * | 2010-01-29 | 2011-08-18 | Fujitsu Ten Ltd | Image compositing device and image compositing method |
JP2011160117A (en) * | 2010-01-29 | 2011-08-18 | Fujitsu Ten Ltd | Image processor and image processing method |
JP2011254311A (en) * | 2010-06-02 | 2011-12-15 | Aisin Seiki Co Ltd | Vehicle peripheral image processor |
JP2011254339A (en) * | 2010-06-03 | 2011-12-15 | Hitachi Ltd | Imaging apparatus |
JP2012019399A (en) * | 2010-07-08 | 2012-01-26 | For-A Co Ltd | Stereoscopic image correction device, stereoscopic image correction method, and stereoscopic image correction system |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017039278A1 (en) * | 2015-08-31 | 2017-03-09 | (주)큐알온텍 | Device and method for controlling images of vehicular black box |
JP2017220876A (en) * | 2016-06-10 | 2017-12-14 | アイシン精機株式会社 | Periphery monitoring device |
WO2018003937A1 (en) * | 2016-06-30 | 2018-01-04 | アイキューブド研究所株式会社 | Video signal processing device, video signal processing method, and program |
JP2018006943A (en) * | 2016-06-30 | 2018-01-11 | アイシン精機株式会社 | Vehicle periphery monitoring device |
CN109417647A (en) * | 2016-06-30 | 2019-03-01 | I<sup>3</sup>研究所股份有限公司 | Image signal processor, video-signal processing method and program |
JPWO2018003937A1 (en) * | 2016-06-30 | 2019-05-23 | アイキューブド研究所株式会社 | Video signal processing apparatus, video signal processing method, and program |
US11025833B2 (en) | 2016-06-30 | 2021-06-01 | I-Cubed Research Center Inc. | Video signal processing apparatus, video signal processing method, and program for performing video signal processing in consideration of behavior of light in nature |
JP2020155827A (en) * | 2019-03-18 | 2020-09-24 | 本田技研工業株式会社 | Visible device and visible method |
Also Published As
Publication number | Publication date |
---|---|
JP5865726B2 (en) | 2016-02-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11910123B2 (en) | System for processing image data for display using backward projection | |
US20070263090A1 (en) | Method and Apparatus for Automatic Exposure of an In-Vehicle Camera | |
US8515196B1 (en) | Systems and methods for processing infrared images | |
JP5865726B2 (en) | Video display device | |
US8077995B1 (en) | Infrared camera systems and methods using environmental information | |
US10704957B2 (en) | Imaging device and imaging method | |
KR102392221B1 (en) | An image processing apparatus, and an imaging apparatus, and an image processing system | |
JP2009157087A (en) | Exposure control apparatus and exposure control program | |
US9214034B2 (en) | System, device and method for displaying a harmonized combined image | |
JP2011203342A (en) | On-board display device | |
US10455159B2 (en) | Imaging setting changing apparatus, imaging system, and imaging setting changing method | |
US20200154083A1 (en) | Image processing device, image processing method, program, and imaging device | |
JP2011250376A (en) | Vehicle periphery image display device | |
US10516848B2 (en) | Image processing device | |
WO2011000392A1 (en) | Method and camera system for improving the contrast of a camera image | |
US20200304752A1 (en) | Method and apparatus for enhanced video display | |
JP2004312402A (en) | System and apparatus for road monitoring | |
KR20120055824A (en) | Image acquiring method of vehicle camera system | |
US20170364765A1 (en) | Image processing apparatus, image processing system, vehicle, imaging apparatus and image processing method | |
JP2013026950A (en) | Image processing device and image processing program | |
JP2016166794A (en) | Image creating apparatus, image creating method, program for image creating apparatus, and image creating system | |
JP6593581B2 (en) | Image quality adjusting device and camera unit | |
CN113840123B (en) | Image processing device of vehicle-mounted image and automobile | |
WO2011155228A1 (en) | Image display device | |
US10102436B2 (en) | Image processing device, warning device and method for processing image |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20140310 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20140317 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20140318 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20140319 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20140723 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20140911 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20150324 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150518 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20150714 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150903 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20151215 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20151228 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5865726 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313111 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313111 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |