JP6662388B2 - 画像処理装置、撮像装置、機器制御システム、分布データ生成方法、及びプログラム - Google Patents
画像処理装置、撮像装置、機器制御システム、分布データ生成方法、及びプログラム Download PDFInfo
- Publication number
- JP6662388B2 JP6662388B2 JP2017552307A JP2017552307A JP6662388B2 JP 6662388 B2 JP6662388 B2 JP 6662388B2 JP 2017552307 A JP2017552307 A JP 2017552307A JP 2017552307 A JP2017552307 A JP 2017552307A JP 6662388 B2 JP6662388 B2 JP 6662388B2
- Authority
- JP
- Japan
- Prior art keywords
- area
- road surface
- distribution data
- distance
- distance image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012545 processing Methods 0.000 title claims description 122
- 238000009826 distribution Methods 0.000 title claims description 97
- 238000000034 method Methods 0.000 title claims description 97
- 238000003384 imaging method Methods 0.000 title claims description 58
- 238000004364 calculation method Methods 0.000 claims description 39
- 238000000605 extraction Methods 0.000 claims description 35
- 239000000284 extract Substances 0.000 claims description 15
- 238000001514 detection method Methods 0.000 description 91
- 238000010586 diagram Methods 0.000 description 51
- 238000013075 data extraction Methods 0.000 description 42
- 238000010191 image analysis Methods 0.000 description 18
- 238000000926 separation method Methods 0.000 description 9
- 238000002372 labelling Methods 0.000 description 7
- 230000007423 decrease Effects 0.000 description 6
- 238000005516 engineering process Methods 0.000 description 4
- 238000004458 analytical method Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 230000002093 peripheral effect Effects 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 2
- 238000004422 calculation algorithm Methods 0.000 description 2
- 238000012937 correction Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 238000009499 grossing Methods 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 239000000758 substrate Substances 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 230000002411 adverse Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000000052 comparative effect Effects 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 230000001747 exhibiting effect Effects 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 230000006641 stabilisation Effects 0.000 description 1
- 238000011105 stabilization Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/02—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B62—LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
- B62D—MOTOR VEHICLES; TRAILERS
- B62D6/00—Arrangements for automatically controlling steering depending on driving conditions sensed and responded to, e.g. control circuits
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C3/00—Measuring distances in line of sight; Optical rangefinders
- G01C3/02—Details
- G01C3/06—Use of electric means to obtain final indication
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T1/00—General purpose image data processing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/593—Depth or shape recovery from multiple images from stereo images
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
- G08G1/166—Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/128—Adjusting depth or disparity
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
- G06T2207/30261—Obstacle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
- G06V20/584—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of vehicle lights or traffic lights
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N2013/0074—Stereoscopic image analysis
- H04N2013/0081—Depth or disparity estimation from stereoscopic image signals
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Transportation (AREA)
- Mechanical Engineering (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Electromagnetism (AREA)
- Automation & Control Theory (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Chemical & Material Sciences (AREA)
- Combustion & Propulsion (AREA)
- Mathematical Physics (AREA)
- Signal Processing (AREA)
- Aviation & Aerospace Engineering (AREA)
- Traffic Control Systems (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Measurement Of Optical Distance (AREA)
- Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
Description
図1は、本発明の実施形態に係る移動体機器制御システムとしての車載機器制御システムの構成を示す図である。
図2は、撮像ユニット101及び画像解析ユニット102の構成を示す図である。
図4は、物体検出処理に係る機能的構成例を示すブロック図である。この機能ブロックは、図2における処理ハードウェア部120及び画像解析ユニット102で実現される。以下、本実施形態における物体検出処理について説明する。
《平行化画像生成処理》
輝度画像データに対して、まず、平行化画像生成部131で平行化画像生成処理が実行される。この平行化画像生成処理は、撮像部110a,110bにおける光学系の歪みや撮像部110a,110bの相対的な位置関係から、各撮像部110a,110bから出力される輝度画像データ(基準画像と比較画像)を、2つのピンホールカメラが平行に取り付けられたときに得られる理想的な平行化ステレオ画像となるように変換する。これは、各画素での歪み量を、Δx=f(x,y)、Δy=g(x,y)という多項式を用いて計算し、その計算結果を用いて、各撮像部110a,110bから出力される輝度画像データ(基準画像と比較画像)の各画素を変換する。多項式は、例えば、x(画像の横方向位置)、y(画像の縦方向位置)に関する4次多項式を用いる構成としてもよい。また、多項式を用いて各画素での歪み量を計算する代わりに、各画素での歪み量が予め設定されたテーブルを用いて決定する構成としてもよい。
平行化画像処理を行った後、次に、視差演算部121(図2)によって構成される視差画像生成部132において、視差画像データを生成する視差画像生成処理を行う。視差画像生成処理では、まず、2つの撮像部110a,110bのうちの一方の撮像部110aの輝度画像データを基準画像データとし、他方の撮像部110bの輝度画像データを比較画像データとし、これらを用いて両者の視差を演算して、視差画像データを生成して出力する。この視差画像データは、基準画像データの各画素について算出される視差値dに応じて定まる値を当該画素の画素値とした視差画像を示すものである。
次に、オブジェクトトラッキング部133は、過去の撮像フレームの画像検出処理で検出されたオブジェクトを追跡する処理を実行する。
視差画像生成処理を行ったら、次に画像解析ユニット102によって構成される視差補間部136において、視差画像補間処理を行う。
<<視差値の頻度分布画像の生成処理>>
次に、視差画像データに基づいて、視差値の頻度分布画像が生成される。ここでは、以下の処理が行われる。
路面高さテーブル算出部140による、事前に路面の高さを算出する処理は、例えば以下のような処理でもよい。
次に、上述した視差画素データ抽出処理の詳細例について説明する。
視差画素データ抽出部137は、垂直方向の各部分の抽出割合を、水平方向の領域に応じて変える構成としてもよい。その場合、視差画素データ抽出部137は、例えば、自車両100の左右両側にある障害物や子供等を確実に検出できるように、右下部分および左下部分の抽出割合を比較的大きくする構成としてもよい。
次に、上述したVマップ生成処理の詳細例について説明する。
次に、上述した路面形状検出処理の詳細例について説明する。
次に、上述した路面高さテーブル算出処理の詳細例について説明する。
《Uマップ生成処理》
次に、上述したUマップ生成処理の詳細例について説明する。
次に、リアルUマップ生成部142について説明する。リアルUマップ生成部142では、リアルUマップ(Real U-disparity map)を生成するUマップ生成処理として、リアル頻度Uマップ生成処理及びリアル高さUマップ生成処理を実行する。
次に、孤立領域検出部143について説明する。図28は、孤立領域検出部143で行う孤立領域検出処理の流れを示すフローチャートである。孤立領域検出部143では、まずリアルUマップ生成部142で生成された頻度リアルUマップの情報の平滑化を行う(ステップS111)。
次に、視差画像の対応領域検出部144及びオブジェクト領域抽出部145について説明する。図29は、孤立領域検出部で検出された孤立領域が内接する矩形領域を設定したリアル頻度Uマップを示す図である。図30は、図29における矩形領域に対応する走査範囲を設定した視差画像を示す図である。図31は、図30における走査範囲を探索してオブジェクト領域を設定した視差画像を示す図である。
次に、オブジェクトタイプ分類部146について説明する。
同様に、オブジェクト領域抽出部145で抽出されるオブジェクト領域の幅(xomax−xomin)から、下記の式〔4〕より、そのオブジェクト領域に対応する物体の実際の幅Woを計算できる。
また、当該オブジェクト領域に対応する物体の奥行きDoは、当該オブジェクト領域に対応した孤立領域内の最大視差dmaxと最小視差dminから、下記の式〔5〕より計算することができる。
オブジェクトタイプ分類部146は、このようにして計算できるオブジェクト領域に対応するオブジェクトの高さ、幅、奥行きの情報から、そのオブジェクトタイプを分類する。図33に示す表は、オブジェクトタイプの分類を行うためのテーブルの一例を示すものである。これによれば、自車両前方に存在する物体が、歩行者なのか、自転車なのか、小型車なのか、トラックなどか等を区別して認識することが可能となる。
次に、3次元位置決定部147について説明する。検出されたオブジェクト領域に対応するオブジェクトまでの距離を算出することができる。また、視差画像の中心位置と視差画像中のオブジェクト領域の中心位置との画像上の距離も把握されることから、オブジェクトの3次元位置を決定することができる。
Yo=Z×(region_centerY−image_centerY)/f …式〔7〕
《オブジェクトマッチング》
次に、オブジェクトマッチング部148について説明する。オブジェクトマッチング部148では、ある1つの撮像フレームから検出された各オブジェクト領域について、オブジェクトデータリスト135内の、安定化フラグSの値が0(S=0)であって追跡対象となっていないデータリストと比較マッチングを実行する。この比較マッチングによりマッチしたオブジェクト領域については、オブジェクトデータリスト135のオブジェクト(過去(例えば直前の撮像フレーム)に検出されたオブジェクト)と同一のものであるとして、”Matched”に分類される。一方、オブジェクトデータリスト135内のオブジェクトとはマッチしなかったオブジェクト領域については、新規に検出されたオブジェクトとして、”NewObject”に分類される。”NewObject”に分類されたオブジェクト領域についての各種情報は、新たに、オブジェクトデータリスト135内に追加される。
第1の実施形態では、路面を事前に算出しておき、Vマップを生成する処理と、当該路面に基づいてUマップを生成する処理とを並列に行う例について説明した。
次に、第2の実施形態に係る視差値の頻度分布画像の生成処理について説明する。
100 自車両
101 撮像ユニット
102 画像解析ユニット(「画像処理装置」の一例)
103 表示モニタ
106 車両走行制御ユニット(「制御部」の一例)
110a,110b 撮像部
120 処理ハードウェア部
131 平行化画像生成部
132 視差画像生成部
137 視差画素データ抽出部(「抽出部」の一例)
138 Vマップ生成部(「第1の生成部」の一例)
139 路面形状検出部
140 路面高さテーブル算出部
141 Uマップ生成部(「第2の生成部」の一例)
142 リアルUマップ生成部(「第2の生成部」の他の一例)
145 オブジェクト領域抽出部(「認識部」の一例)
2 撮像装置
Claims (8)
- 路面上の物体を撮像した複数の撮影画像における物体の距離に応じた画素値を有する距離画像を取得し、前記距離画像から画素値を抽出する抽出部と、
前記抽出された画素値に基づいて、前記距離画像の垂直方向の距離値の頻度分布を示す垂直方向分布データを生成する第1の生成部と、
前記距離画像に対応する垂直方向分布データの生成が完了する前に、前記距離画像における路面の高さを算出する算出部と、
前記抽出された画素値と、前記算出された路面の高さに基づいて、前記距離画像の水平方向の距離値の頻度分布を示す水平方向分布データを生成する第2の生成部と、
を備え、
前記抽出部は、前記距離画像における前記路面が写るエリア、及び前記距離画像における前記物体の距離値が大きいエリアのうちの少なくとも一方である第1のエリアから、第1の割合で画素値を抽出し、前記距離画像の第2のエリアから、前記第1の割合よりも低い第2の割合で画素値を抽出し、
前記第1の生成部は、前記第1のエリアの垂直方向分布データを生成した後、前記第2のエリアの垂直方向分布データを生成し、
前記算出部は、前記第2のエリアの垂直方向分布データの生成が完了する前に、前記第1のエリアの垂直方向分布データに基づいて、前記路面の高さを算出する、
画像処理装置。 - 前記算出部は、前記抽出部により前回取得された距離画像から生成された垂直方向分布データに基づいて、前記路面の高さを算出する、
請求項1記載の画像処理装置。 - 前記算出部は、前記抽出部により以前に取得された複数の距離画像からそれぞれ生成された複数の垂直方向分布データに基づいて、前記路面の高さを算出する、
請求項1記載の画像処理装置。 - 前記第2の生成部は、前記第1のエリアの水平方向分布データを生成した後、前記第2のエリアの水平方向分布データを生成し、
前記第1のエリアの水平方向分布データに基づいて、前記物体を認識した後、前記第2のエリアの水平方向分布データに基づいて、前記物体を認識する認識部を備える、
請求項1から3のいずれか一項に記載の画像処理装置。 - 複数の撮像部と、
前記複数の撮像部により路面上の物体を撮像した複数の撮影画像から、前記複数の撮影画像における物体の距離に応じた画素値を有する距離画像を生成する距離画像生成部と、
前記距離画像から画素値を抽出する抽出部と、
前記抽出された画素値に基づいて、前記距離画像の垂直方向の距離値の頻度分布を示す垂直方向分布データを生成する第1の生成部と、
前記距離画像に対応する垂直方向分布データの生成が完了する前に、前記距離画像における路面の高さを算出する算出部と、
前記抽出された画素値と、前記算出された路面の高さに基づいて、前記距離画像の水平方向の距離値の頻度分布を示す水平方向分布データを生成する第2の生成部と、
を備え、
前記抽出部は、前記距離画像における前記路面が写るエリア、及び前記距離画像における前記物体の距離値が大きいエリアのうちの少なくとも一方である第1のエリアから、第1の割合で画素値を抽出し、前記距離画像の第2のエリアから、前記第1の割合よりも低い第2の割合で画素値を抽出し、
前記第1の生成部は、前記第1のエリアの垂直方向分布データを生成した後、前記第2のエリアの垂直方向分布データを生成し、
前記算出部は、前記第2のエリアの垂直方向分布データの生成が完了する前に、前記第1のエリアの垂直方向分布データに基づいて、前記路面の高さを算出する、
撮像装置。 - 移動体に搭載され、前記移動体の前方を撮像する複数の撮像部と、
前記複数の撮像部により路面上の物体を撮像した複数の撮影画像から、前記複数の撮影画像における物体の距離に応じた画素値を有する距離画像を生成する距離画像生成部と、
前記距離画像から画素値を抽出する抽出部と、
前記抽出された画素値に基づいて、前記距離画像の垂直方向の距離値の頻度分布を示す垂直方向分布データを生成する第1の生成部と、
前記距離画像に対応する垂直方向分布データの生成が完了する前に、前記距離画像における路面の高さを算出する算出部と、
前記抽出された画素値と、前記算出された路面の高さに基づいて、前記距離画像の水平方向の距離値の頻度分布を示す水平方向分布データを生成する第2の生成部と、
前記水平方向分布データに基づいて、前記移動体の制御を行う制御部と、
を備え、
前記抽出部は、前記距離画像における前記路面が写るエリア、及び前記距離画像における前記物体の距離値が大きいエリアのうちの少なくとも一方である第1のエリアから、第1の割合で画素値を抽出し、前記距離画像の第2のエリアから、前記第1の割合よりも低い第2の割合で画素値を抽出し、
前記第1の生成部は、前記第1のエリアの垂直方向分布データを生成した後、前記第2のエリアの垂直方向分布データを生成し、
前記算出部は、前記第2のエリアの垂直方向分布データの生成が完了する前に、前記第1のエリアの垂直方向分布データに基づいて、前記路面の高さを算出する、
る移動体機器制御システム。 - 画像処理装置が、
路面上の物体を撮像した複数の撮影画像における物体の距離に応じた画素値を有する距離画像を取得し、前記距離画像から画素値を抽出するステップと、
前記抽出された画素値に基づいて、前記距離画像の垂直方向の距離値の頻度分布を示す垂直方向分布データを生成するステップと、
前記距離画像に対応する垂直方向分布データの生成が完了する前に、前記距離画像における路面の高さを算出するステップと、
前記抽出された画素値と、前記算出された路面の高さに基づいて、前記距離画像の水平方向の距離値の頻度分布を示す水平方向分布データを生成するステップと、
を実行し、
前記抽出するステップでは、前記距離画像における前記路面が写るエリア、及び前記距離画像における前記物体の距離値が大きいエリアのうちの少なくとも一方である第1のエリアから、第1の割合で画素値を抽出し、前記距離画像の第2のエリアから、前記第1の割合よりも低い第2の割合で画素値を抽出し、
前記生成するステップでは、前記第1のエリアの垂直方向分布データを生成した後、前記第2のエリアの垂直方向分布データを生成し、
前記算出するステップでは、前記第2のエリアの垂直方向分布データの生成が完了する前に、前記第1のエリアの垂直方向分布データに基づいて、前記路面の高さを算出する、
分布データ生成方法。 - 画像処理装置に、
路面上の物体を撮像した複数の撮影画像における物体の距離に応じた画素値を有する距離画像を取得し、前記距離画像から画素値を抽出するステップと、
前記抽出された画素値に基づいて、前記距離画像の垂直方向の距離値の頻度分布を示す垂直方向分布データを生成するステップと、
前記距離画像に対応する垂直方向分布データの生成が完了する前に、前記距離画像における路面の高さを算出するステップと、
前記抽出された画素値と、前記算出された路面の高さに基づいて、前記距離画像の水平方向の距離値の頻度分布を示す水平方向分布データを生成するステップと、
を実行させ、
前記抽出するステップでは、前記距離画像における前記路面が写るエリア、及び前記距離画像における前記物体の距離値が大きいエリアのうちの少なくとも一方である第1のエリアから、第1の割合で画素値を抽出し、前記距離画像の第2のエリアから、前記第1の割合よりも低い第2の割合で画素値を抽出し、
前記生成するステップでは、前記第1のエリアの垂直方向分布データを生成した後、前記第2のエリアの垂直方向分布データを生成し、
前記算出するステップでは、前記第2のエリアの垂直方向分布データの生成が完了する前に、前記第1のエリアの垂直方向分布データに基づいて、前記路面の高さを算出する、
プログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015232200 | 2015-11-27 | ||
JP2015232200 | 2015-11-27 | ||
PCT/JP2016/079794 WO2017090326A1 (ja) | 2015-11-27 | 2016-10-06 | 画像処理装置、撮像装置、機器制御システム、分布データ生成方法、及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2017090326A1 JPWO2017090326A1 (ja) | 2018-11-01 |
JP6662388B2 true JP6662388B2 (ja) | 2020-03-11 |
Family
ID=58763824
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017552307A Active JP6662388B2 (ja) | 2015-11-27 | 2016-10-06 | 画像処理装置、撮像装置、機器制御システム、分布データ生成方法、及びプログラム |
Country Status (4)
Country | Link |
---|---|
US (1) | US10755116B2 (ja) |
EP (1) | EP3382639B1 (ja) |
JP (1) | JP6662388B2 (ja) |
WO (1) | WO2017090326A1 (ja) |
Families Citing this family (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105740802A (zh) * | 2016-01-28 | 2016-07-06 | 北京中科慧眼科技有限公司 | 基于视差图的障碍物检测方法和装置及汽车驾驶辅助系统 |
WO2017154389A1 (ja) | 2016-03-10 | 2017-09-14 | 株式会社リコー | 画像処理装置、撮像装置、移動体機器制御システム、画像処理方法、及びプログラム |
JP2017199178A (ja) * | 2016-04-27 | 2017-11-02 | Kyb株式会社 | 路面状態検出装置 |
JP6794243B2 (ja) * | 2016-12-19 | 2020-12-02 | 日立オートモティブシステムズ株式会社 | 物体検出装置 |
JP6761828B2 (ja) * | 2018-03-05 | 2020-09-30 | 日本電信電話株式会社 | 柱状物体状態検出装置、柱状物体状態検出方法、柱状物体状態検出処理プログラム |
DE102018216417A1 (de) * | 2018-09-26 | 2020-03-26 | Robert Bosch Gmbh | Ortsvorhersage für dynamische Objekte |
KR102616205B1 (ko) * | 2018-10-08 | 2023-12-21 | 주식회사 에이치엘클레무브 | 후방 경보 장치, 그 방법 및 제어 시스템 |
US11809613B2 (en) * | 2018-11-12 | 2023-11-07 | Magic Leap, Inc. | Event-based camera with high-resolution frame output |
US11985440B2 (en) | 2018-11-12 | 2024-05-14 | Magic Leap, Inc. | Depth based dynamic vision sensor |
JP7255259B2 (ja) | 2019-03-19 | 2023-04-11 | 株式会社リコー | 検出装置、測距装置、時間測定方法、プログラム、移動体 |
JP7209198B2 (ja) * | 2019-03-27 | 2023-01-20 | パナソニックIpマネジメント株式会社 | 距離測定装置および画像生成方法 |
JP7283268B2 (ja) * | 2019-06-28 | 2023-05-30 | 株式会社デンソー | 情報処理装置及び車載システム |
JP7229129B2 (ja) * | 2019-09-05 | 2023-02-27 | 京セラ株式会社 | 物体検出装置、物体検出システム、移動体及び物体検出方法 |
JP7278915B2 (ja) * | 2019-09-19 | 2023-05-22 | 京セラ株式会社 | 物体検出装置、物体検出システム、移動体及び物体検出方法 |
JP7308112B2 (ja) * | 2019-09-19 | 2023-07-13 | 京セラ株式会社 | 物体検出装置、物体検出システム、移動体及び物体検出方法 |
JP7308115B2 (ja) * | 2019-09-24 | 2023-07-13 | 京セラ株式会社 | 物体検出装置、物体検出システム、移動体及び物体検出方法 |
CN111539279B (zh) * | 2020-04-14 | 2023-08-15 | 杭州鸿泉物联网技术股份有限公司 | 道路限高高度检测方法、装置、设备及存储介质 |
CN112417967B (zh) * | 2020-10-22 | 2021-12-14 | 腾讯科技(深圳)有限公司 | 障碍物检测方法、装置、计算机设备和存储介质 |
DE102021107904A1 (de) * | 2021-03-29 | 2022-09-29 | Conti Temic Microelectronic Gmbh | Verfahren und System zur Bestimmung der Bodenebene mit einem künstlichen neuronalen Netz |
US20230351769A1 (en) * | 2022-04-29 | 2023-11-02 | Nvidia Corporation | Detecting hazards based on disparity maps using machine learning for autonomous machine systems and applications |
Family Cites Families (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4575829B2 (ja) * | 2005-03-30 | 2010-11-04 | 財団法人エヌエイチケイエンジニアリングサービス | 表示画面上位置解析装置及び表示画面上位置解析プログラム |
JP5316805B2 (ja) | 2009-03-16 | 2013-10-16 | 株式会社リコー | 車載カメラ装置の画像調整装置及び車載カメラ装置 |
JP5376313B2 (ja) | 2009-09-03 | 2013-12-25 | 株式会社リコー | 画像処理装置及び画像撮像装置 |
JP5440927B2 (ja) | 2009-10-19 | 2014-03-12 | 株式会社リコー | 測距カメラ装置 |
JP5664152B2 (ja) | 2009-12-25 | 2015-02-04 | 株式会社リコー | 撮像装置、車載用撮像システム及び物体識別装置 |
JP5776173B2 (ja) | 2010-03-01 | 2015-09-09 | 株式会社リコー | 撮像装置及び距離測定装置 |
DE102011111440A1 (de) * | 2011-08-30 | 2012-06-28 | Daimler Ag | Verfahren zur Umgebungsrepräsentation |
JP6102088B2 (ja) | 2011-09-01 | 2017-03-29 | 株式会社リコー | 画像投影装置、画像処理装置、画像投影方法、画像投影方法のプログラム及びそのプログラムを記録した記録媒体 |
JP6197291B2 (ja) | 2012-03-21 | 2017-09-20 | 株式会社リコー | 複眼カメラ装置、及びそれを備えた車両 |
JP2014131257A (ja) | 2012-11-27 | 2014-07-10 | Ricoh Co Ltd | 画像補正システム、画像補正方法及びプログラム |
JP6274557B2 (ja) | 2013-02-18 | 2018-02-07 | 株式会社リコー | 移動面情報検出装置、及びこれを用いた移動体機器制御システム並びに移動面情報検出用プログラム |
JP6398347B2 (ja) | 2013-08-15 | 2018-10-03 | 株式会社リコー | 画像処理装置、認識対象物検出方法、認識対象物検出プログラム、および、移動体制御システム |
JP6151150B2 (ja) * | 2013-10-07 | 2017-06-21 | 日立オートモティブシステムズ株式会社 | 物体検出装置及びそれを用いた車両 |
JP6565188B2 (ja) | 2014-02-28 | 2019-08-28 | 株式会社リコー | 視差値導出装置、機器制御システム、移動体、ロボット、視差値導出方法、およびプログラム |
JP6519262B2 (ja) | 2014-04-10 | 2019-05-29 | 株式会社リコー | 立体物検出装置、立体物検出方法、立体物検出プログラム、及び移動体機器制御システム |
JP2016001170A (ja) | 2014-05-19 | 2016-01-07 | 株式会社リコー | 処理装置、処理プログラム、及び、処理方法 |
JP2016001464A (ja) | 2014-05-19 | 2016-01-07 | 株式会社リコー | 処理装置、処理システム、処理プログラム、及び、処理方法 |
JP6417729B2 (ja) | 2014-06-09 | 2018-11-07 | 株式会社リコー | 画像処理装置、画像処理方法、プログラム、視差データの生産方法、機器制御システム |
JP6550881B2 (ja) | 2014-07-14 | 2019-07-31 | 株式会社リコー | 立体物検出装置、立体物検出方法、立体物検出プログラム、及び移動体機器制御システム |
US20160019429A1 (en) | 2014-07-17 | 2016-01-21 | Tomoko Ishigaki | Image processing apparatus, solid object detection method, solid object detection program, and moving object control system |
US9726604B2 (en) | 2014-11-12 | 2017-08-08 | Ricoh Company, Ltd. | Adhering detection apparatus, adhering substance detection method, storage medium, and device control system for controlling vehicle-mounted devices |
US9794543B2 (en) | 2015-03-02 | 2017-10-17 | Ricoh Company, Ltd. | Information processing apparatus, image capturing apparatus, control system applicable to moveable apparatus, information processing method, and storage medium of program of method |
JP6657789B2 (ja) | 2015-10-29 | 2020-03-04 | 株式会社リコー | 画像処理装置、撮像装置、機器制御システム、頻度分布画像生成方法、及びプログラム |
-
2016
- 2016-10-06 JP JP2017552307A patent/JP6662388B2/ja active Active
- 2016-10-06 EP EP16868275.5A patent/EP3382639B1/en active Active
- 2016-10-06 WO PCT/JP2016/079794 patent/WO2017090326A1/ja active Application Filing
-
2018
- 2018-05-22 US US15/986,113 patent/US10755116B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
EP3382639B1 (en) | 2024-02-21 |
US20180268229A1 (en) | 2018-09-20 |
JPWO2017090326A1 (ja) | 2018-11-01 |
US10755116B2 (en) | 2020-08-25 |
EP3382639A4 (en) | 2018-12-05 |
EP3382639A1 (en) | 2018-10-03 |
WO2017090326A1 (ja) | 2017-06-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6662388B2 (ja) | 画像処理装置、撮像装置、機器制御システム、分布データ生成方法、及びプログラム | |
JP6657789B2 (ja) | 画像処理装置、撮像装置、機器制御システム、頻度分布画像生成方法、及びプログラム | |
US10984509B2 (en) | Image processing apparatus, imaging device, moving body device control system, image information processing method, and program product | |
US10860867B2 (en) | Image processing apparatus, imaging apparatus, mobile device control system, and recording medium | |
JP6550881B2 (ja) | 立体物検出装置、立体物検出方法、立体物検出プログラム、及び移動体機器制御システム | |
JP6733225B2 (ja) | 画像処理装置、撮像装置、移動体機器制御システム、画像処理方法、及びプログラム | |
US11004215B2 (en) | Image processing apparatus, imaging device, moving body device control system, image information processing method, and program product | |
US11064177B2 (en) | Image processing apparatus, imaging apparatus, mobile device control system, image processing method, and recording medium | |
JP2015207281A (ja) | 立体物検出装置、立体物検出方法、立体物検出プログラム、及び移動体機器制御システム | |
JP6340850B2 (ja) | 立体物検出装置、立体物検出方法、立体物検出プログラム、及び移動体機器制御システム | |
US10776633B2 (en) | Image processing apparatus, imaging apparatus, mobile device control system, and recording medium | |
JP6753134B2 (ja) | 画像処理装置、撮像装置、移動体機器制御システム、画像処理方法、及び画像処理プログラム | |
JP2018088233A (ja) | 情報処理装置、撮像装置、機器制御システム、移動体、情報処理方法、及びプログラム | |
JP6340849B2 (ja) | 画像処理装置、画像処理方法、画像処理プログラム、及び移動体機器制御システム | |
JP6812701B2 (ja) | 画像処理装置、移動体機器制御システム、画像処理方法、及びプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180518 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190716 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190911 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200114 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200127 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6662388 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |