JP6906011B2 - オブジェクトの二次元境界枠を自動運転車両の三次元位置に転換するための方法[method for transforming 2d bounding boxes of objects into 3d positions for autonomous driving vehicles (advs)] - Google Patents
オブジェクトの二次元境界枠を自動運転車両の三次元位置に転換するための方法[method for transforming 2d bounding boxes of objects into 3d positions for autonomous driving vehicles (advs)] Download PDFInfo
- Publication number
- JP6906011B2 JP6906011B2 JP2019073584A JP2019073584A JP6906011B2 JP 6906011 B2 JP6906011 B2 JP 6906011B2 JP 2019073584 A JP2019073584 A JP 2019073584A JP 2019073584 A JP2019073584 A JP 2019073584A JP 6906011 B2 JP6906011 B2 JP 6906011B2
- Authority
- JP
- Japan
- Prior art keywords
- image frame
- adv
- size
- module
- projected
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 42
- 230000001131 transforming effect Effects 0.000 title 1
- 238000012545 processing Methods 0.000 claims description 44
- 238000010801 machine learning Methods 0.000 claims description 28
- 230000015654 memory Effects 0.000 claims description 21
- 230000008569 process Effects 0.000 claims description 16
- 238000010845 search algorithm Methods 0.000 claims description 16
- 238000004590 computer program Methods 0.000 claims description 4
- 238000001514 detection method Methods 0.000 description 37
- 238000010586 diagram Methods 0.000 description 15
- 238000005259 measurement Methods 0.000 description 14
- 238000004891 communication Methods 0.000 description 12
- 238000009472 formulation Methods 0.000 description 10
- 239000000203 mixture Substances 0.000 description 10
- 230000006870 function Effects 0.000 description 9
- 230000001133 acceleration Effects 0.000 description 6
- 230000003287 optical effect Effects 0.000 description 5
- 238000013528 artificial neural network Methods 0.000 description 4
- 238000007405 data analysis Methods 0.000 description 4
- 230000000007 visual effect Effects 0.000 description 4
- 230000001413 cellular effect Effects 0.000 description 3
- 230000008859 change Effects 0.000 description 3
- 238000003491 array Methods 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000007613 environmental effect Effects 0.000 description 2
- 230000033001 locomotion Effects 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 238000004513 sizing Methods 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 1
- 239000003990 capacitor Substances 0.000 description 1
- 230000010267 cellular communication Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000009429 electrical wiring Methods 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000012417 linear regression Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000010076 replication Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000004043 responsiveness Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000010897 surface acoustic wave method Methods 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/536—Depth or shape recovery from perspective effects, e.g. by using vanishing points
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
- G05D1/0221—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving a learning process
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/33—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
- G06T7/344—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods involving models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
- G06T7/62—Analysis of geometric attributes of area, perimeter, diameter or volume
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/74—Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/75—Determining position or orientation of objects or cameras using feature-based methods involving models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/04—Inference or reasoning models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
- G06T2207/30261—Obstacle
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- Software Systems (AREA)
- Multimedia (AREA)
- Evolutionary Computation (AREA)
- Automation & Control Theory (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Aviation & Aerospace Engineering (AREA)
- Medical Informatics (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Geometry (AREA)
- Electromagnetism (AREA)
- Databases & Information Systems (AREA)
- Molecular Biology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computational Linguistics (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Traffic Control Systems (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
- Image Analysis (AREA)
Description
Claims (22)
- 自動運転車両(ADV)を動作させるためのコンピュータに実装された方法であって、
複数のオブジェクト毎に、各方向毎の3Dサイズを、前記ADVと通信接続可能なサーバ内及び/又は前記ADV内に予め格納するステップと、
前記ADVに取り付けられた画像取得装置により、前記ADVから見た立体図からオブジェクトを検知するステップと、
前記画像取得装置により取得された前記オブジェクトの取得画像に基いて、前記オブジェクトの2D境界枠を生成するステップと、
前記オブジェクトの前記取得画像に基いて、前記オブジェクトの方向と3Dサイズを測定するステップと、
前記測定された前記オブジェクトの方向と3Dサイズに基いて、前記予め格納された各方向毎の3Dサイズに基づいて生成される前記オブジェクトの三次元(3D)画像枠を前記取得画像に投影して、前記取得画像において3D投影オブジェクト画像枠を形成させるステップと、
前記3D投影オブジェクト画像枠と前記生成された2D境界枠に基いて、前記3D投影オブジェクト画像枠のサイズが前記2D境界枠の幅又は高さの所定閾値内になるまで、前記3D投影オブジェクト画像枠のサイズを検索するステップと、
前記3D投影オブジェクト画像枠のサイズに基づいて、前記ADVから前記オブジェクトまでの距離を測定するステップと、
前記ADVの運転を制御して前記オブジェクトを回避して操縦できるように、測定された前記ADVから前記オブジェクトまでの距離に基いて軌道を生成するステップと、を含むコンピュータに実装された方法。 - 前記オブジェクトの2D境界枠は、
前記オブジェクトの前記取得画像を取得するのに機械学習モデルを適用するステップと、
前記機械学習モデルに基いて、前記オブジェクトを囲む2D境界枠の長さ、幅又は面積を測定するステップと、
により生成される請求項1に記載のコンピュータに実装された方法。 - 前記3D投影オブジェクト画像枠のサイズが前記2D境界枠の幅又は高さの所定閾値内になるまで、貪欲法による検索アルゴリズムにより前記3D投影オブジェクト画像枠のサイズを検索するステップと、
前記3D投影オブジェクト画像枠のサイズに基いて、前記ADVから前記オブジェクトまでの距離を測定するステップと、を更に含む請求項2に記載のコンピュータに実装された方法。 - 前記3D投影オブジェクト画像枠のサイズが前記2D境界枠の幅、高さ又は面積の所定閾値内になるまで、二分探索アルゴリズムにより前記3D投影オブジェクト画像枠のサイズを検索するステップと、
前記3D投影オブジェクト画像枠のサイズに基いて、前記ADVから前記オブジェクトまでの距離を測定するステップと、を更に含む請求項2に記載のコンピュータに実装された方法。 - 前記測定された前記オブジェクトまでの距離に基いて、前記オブジェクトまでのセンターベクトルを決定するステップを更に含み、前記センターベクトルは、3D投影オブジェクト画像枠のオブジェクト中心位置に投影された画像取得装置からの斜線を示すベクトルであって、前記ADVを制御するように運転軌道を生成するために使用できるものである請求項1に記載のコンピュータに実装された方法。
- 前記オブジェクトまでのセンターベクトルを決定するステップは、
前記投影されたオブジェクト画像枠の中心が前記2D境界枠の2D中心における水平軸の中央に位置するまで、前記投影されたオブジェクト画像枠を左か右へシフトするステップと、
前記投影されたオブジェクト画像枠の中心が前記2D境界枠の2D中心における垂直軸の中央に位置するまで、前記投影されたオブジェクト画像枠を上か下へシフトするステップと、
前記投影されたオブジェクト画像枠のシフトと前記測定された前記オブジェクトまでの距離とに基いて、前記センターベクトルを決定するステップと、を含む請求項5に記載のコンピュータに実装された方法。 - 前記決定された前記オブジェクトまでのセンターベクトルに基いて、前記ADVを制御するステップを更に含む請求項6に記載のコンピュータに実装された方法。
- 命令が記憶された不揮発性の機械可読記憶媒体であって、
前記命令が一つ以上のプロセッサにより実行されると、前記一つ以上のプロセッサに処理を実行させ、前記処理は、
複数のオブジェクト毎に、各方向毎の3Dサイズを、前記ADVと通信接続可能なサーバ内及び/又は前記ADV内に予め格納するステップと、
ADVに取り付けられた画像取得装置により、前記ADVから見た立体図からオブジェクトを検知するステップと、
前記画像取得装置により取得された前記オブジェクトの取得画像に基いて、前記オブジェクトの2D境界枠を生成するステップと、
前記オブジェクトの前記取得画像に基いて、前記オブジェクトの方向と3Dサイズを測定するステップと、
前記測定された前記オブジェクトの方向と3Dサイズに基いて、前記予め格納された各方向毎の3Dサイズに基づいて生成される前記オブジェクトの三次元(3D)画像枠を前記取得画像に投影して、前記取得画像において3D投影オブジェクト画像枠を形成させるステップと、
前記3D投影オブジェクト画像枠と前記生成された2D境界枠に基いて、前記3D投影オブジェクト画像枠のサイズが前記2D境界枠の幅又は高さの所定閾値内になるまで、前記3D投影オブジェクト画像枠のサイズを検索するステップと、
前記3D投影オブジェクト画像枠のサイズに基づいて、前記ADVから前記オブジェクトまでの距離を測定するステップと、
前記ADVの運転を制御して前記オブジェクトを回避して操縦できるように、測定された前記ADVから前記オブジェクトまでの距離に基いて軌道を生成するステップと、を含む不揮発性の機械可読記憶媒体。 - 前記オブジェクトの2D境界枠は、
前記オブジェクトの前記取得画像を取得するのに機械学習モデルを適用するステップと、
前記機械学習モデルに基いて、前記オブジェクトを囲む2D境界枠の長さ、幅又は面積を測定するステップと、
により生成される請求項8に記載の不揮発性の機械可読記憶媒体。 - 前記処理は、
前記3D投影オブジェクト画像枠のサイズが前記2D境界枠の幅又は高さの所定閾値内になるまで、貪欲法による検索アルゴリズムにより前記3D投影オブジェクト画像枠のサイズを検索するステップと、
前記3D投影オブジェクト画像枠のサイズに基いて、前記ADVから前記オブジェクトまでの距離を測定するステップと、を更に含む請求項9に記載の不揮発性の機械可読記憶媒体。 - 前記処理は、
前記3D投影オブジェクト画像枠のサイズが前記2D境界枠の幅、高さ又は面積の所定閾値内になるまで、二分探索アルゴリズムにより前記3D投影オブジェクト画像枠のサイズを検索するステップと、
前記3D投影オブジェクト画像枠のサイズに基いて、前記ADVから前記オブジェクトまでの距離を測定するステップと、を更に含む請求項9に記載の不揮発性の機械可読記憶媒体。 - 前記処理は、前記測定された前記オブジェクトまでの距離に基いて、前記オブジェクトまでのセンターベクトルを決定するステップを更に含み、前記センターベクトルは、3D投影オブジェクト画像枠のオブジェクト中心位置に投影された画像取得装置からの斜線を示すベクトルであって、前記ADVを制御するように運転軌道を生成するために使用できるものである請求項8に記載の不揮発性の機械可読記憶媒体。
- 前記オブジェクトまでのセンターベクトルを決定するステップは、
前記投影されたオブジェクト画像枠の中心が前記2D境界枠の2D中心における水平軸の中央に位置するまで、前記投影されたオブジェクト画像枠を左か右へシフトするステップと、
前記投影されたオブジェクト画像枠の中心が前記2D境界枠の2D中心における垂直軸の中央に位置するまで、前記投影されたオブジェクト画像枠を上か下へシフトするステップと、
前記投影されたオブジェクト画像枠のシフトと前記測定された前記オブジェクトまでの距離とに基いて、前記センターベクトルを決定するステップと、を含む請求項12に記載の不揮発性の機械可読記憶媒体。 - 前記処理は、
前記決定された前記オブジェクトまでのセンターベクトルに基いて前記ADVを制御することを更に含む請求項13に記載の不揮発性の機械可読記憶媒体。 - データ処理システムであって、
一つ以上のプロセッサと、
前記一つ以上のプロセッサに接続されて命令を記憶するメモリと、を備え、
前記命令が前記一つ以上のプロセッサにより実行されると、前記一つ以上のプロセッサに処理を実行させ、前記処理を実行するモジュールは、
複数のオブジェクト毎に、各方向毎の3Dサイズを、ADVと通信接続可能なサーバ及び/又は前記ADVに予め格納するモジュールと、
前記ADVに取り付けられた画像取得装置により、前記ADVから見た立体図からオブジェクトを検知するモジュールと、
前記画像取得装置により取得された前記オブジェクトの取得画像に基いて、前記オブジェクトの2D境界枠を生成するモジュールと、
前記オブジェクトの前記取得画像に基いて、前記オブジェクトの方向と3Dサイズを測定するモジュールと、
前記測定された前記オブジェクトの方向と3Dサイズに基いて、前記予め格納された各方向毎の3Dサイズに基づいて生成される前記オブジェクトの三次元(3D)画像枠を前記取得画像に投影して、前記取得画像において3D投影オブジェクト画像枠を形成させるモジュールと、
前記3D投影オブジェクト画像枠と前記生成された2D境界枠に基いて、前記3D投影オブジェクト画像枠のサイズが前記2D境界枠の幅又は高さの所定閾値内になるまで、前記3D投影オブジェクト画像枠のサイズを検索するモジュールと、
前記3D投影オブジェクト画像枠のサイズに基づいて、前記ADVから前記オブジェクトまでの距離を測定するモジュールと、
前記ADVの運転を制御して前記オブジェクトを回避して操縦できるように、測定された前記ADVから前記オブジェクトまでの距離に基いて軌道を生成するモジュールと、を含むシステム。 - 前記オブジェクトの2D境界枠は、
前記オブジェクトの前記取得画像を取得するのに機械学習モデルを適用するモジュールと、
前記機械学習モデルに基いて、前記オブジェクトを囲む2D境界枠の長さ、幅又は面積を測定するモジュールと、
により生成される請求項15に記載のシステム。 - 前記処理を実行するモジュールは、
前記3D投影オブジェクト画像枠のサイズが前記2D境界枠の幅又は高さの所定閾値内になるまで、貪欲法による検索アルゴリズムにより前記3D投影オブジェクト画像枠のサイズを検索するモジュールと、
前記3D投影オブジェクト画像枠のサイズに基いて、前記ADVから前記オブジェクトまでの距離を測定するモジュールと、を更に含む請求項16に記載のシステム。 - 前記処理を実行するモジュールは、
前記3D投影オブジェクト画像枠のサイズが前記2D境界枠の幅、高さ又は面積の所定閾値内になるまで、二分探索アルゴリズムにより前記3D投影オブジェクト画像枠のサイズを検索するモジュールと、
前記3D投影オブジェクト画像枠のサイズに基いて、前記ADVから前記オブジェクトまでの距離を測定するモジュールと、を更に含む請求項16に記載のシステム。 - 前記処理を実行するモジュールは、前記測定された前記オブジェクトまでの距離に基いて、前記オブジェクトまでのセンターベクトルを決定するモジュールを更に含み、前記センターベクトルは、3D投影オブジェクト画像枠のオブジェクト中心位置に投影された画像取得装置からの斜線を示すベクトルであって、前記ADVを制御するように運転軌道を生成するために使用できるものである請求項15に記載のシステム。
- 前記オブジェクトまでのセンターベクトルを決定するモジュールは、
前記投影されたオブジェクト画像枠の中心が前記2D境界枠の2D中心における水平軸の中央に位置するまで、前記投影されたオブジェクト画像枠を左か右へシフトするモジュールと、
前記投影されたオブジェクト画像枠の中心が前記2D境界枠の2D中心における垂直軸の中央に位置するまで、前記投影されたオブジェクト画像枠を上か下へシフトするモジュールと、
前記投影されたオブジェクト画像枠のシフトと前記測定された前記オブジェクトまでの距離とに基いて、前記センターベクトルを決定するモジュールと、を含む請求項19に記載のシステム。 - 前記処理を実行するモジュールは、
前記決定された前記オブジェクトまでのセンターベクトルに基いて前記ADVを制御することを更に含む請求項20に記載のシステム。 - コンピュータプログラムであって、
前記コンピュータプログラムがプロセッサにより実行される場合、請求項1ないし請求項7のいずれか一項に記載の方法を実行するコンピュータプログラム。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US15/955,634 US10816992B2 (en) | 2018-04-17 | 2018-04-17 | Method for transforming 2D bounding boxes of objects into 3D positions for autonomous driving vehicles (ADVs) |
US15/955,634 | 2018-04-17 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019182411A JP2019182411A (ja) | 2019-10-24 |
JP6906011B2 true JP6906011B2 (ja) | 2021-07-21 |
Family
ID=68161730
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019073584A Active JP6906011B2 (ja) | 2018-04-17 | 2019-04-08 | オブジェクトの二次元境界枠を自動運転車両の三次元位置に転換するための方法[method for transforming 2d bounding boxes of objects into 3d positions for autonomous driving vehicles (advs)] |
Country Status (3)
Country | Link |
---|---|
US (1) | US10816992B2 (ja) |
JP (1) | JP6906011B2 (ja) |
CN (1) | CN110388931B (ja) |
Families Citing this family (67)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10678244B2 (en) | 2017-03-23 | 2020-06-09 | Tesla, Inc. | Data synthesis for autonomous control systems |
US11893393B2 (en) | 2017-07-24 | 2024-02-06 | Tesla, Inc. | Computational array microprocessor system with hardware arbiter managing memory requests |
US11409692B2 (en) | 2017-07-24 | 2022-08-09 | Tesla, Inc. | Vector computational unit |
US11157441B2 (en) | 2017-07-24 | 2021-10-26 | Tesla, Inc. | Computational array microprocessor system using non-consecutive data formatting |
US10671349B2 (en) | 2017-07-24 | 2020-06-02 | Tesla, Inc. | Accelerated mathematical engine |
US11561791B2 (en) | 2018-02-01 | 2023-01-24 | Tesla, Inc. | Vector computational unit receiving data elements in parallel from a last row of a computational array |
US10839139B2 (en) | 2018-04-17 | 2020-11-17 | Adobe Inc. | Glyph aware snapping |
US11373411B1 (en) * | 2018-06-13 | 2022-06-28 | Apple Inc. | Three-dimensional object estimation using two-dimensional annotations |
US11215999B2 (en) | 2018-06-20 | 2022-01-04 | Tesla, Inc. | Data pipeline and deep learning system for autonomous driving |
EP3594902B1 (en) * | 2018-07-09 | 2021-04-07 | Argo AI GmbH | Method for estimating a relative position of an object in the surroundings of a vehicle and electronic control unit for a vehicle and vehicle |
US11361457B2 (en) | 2018-07-20 | 2022-06-14 | Tesla, Inc. | Annotation cross-labeling for autonomous control systems |
US11636333B2 (en) | 2018-07-26 | 2023-04-25 | Tesla, Inc. | Optimizing neural network structures for embedded systems |
KR102615196B1 (ko) * | 2018-08-21 | 2023-12-18 | 삼성전자주식회사 | 객체 검출 모델 트레이닝 장치 및 방법 |
US11562231B2 (en) | 2018-09-03 | 2023-01-24 | Tesla, Inc. | Neural networks for embedded devices |
AU2019357615B2 (en) | 2018-10-11 | 2023-09-14 | Tesla, Inc. | Systems and methods for training machine models with augmented data |
US11196678B2 (en) | 2018-10-25 | 2021-12-07 | Tesla, Inc. | QOS manager for system on a chip communications |
US11816585B2 (en) | 2018-12-03 | 2023-11-14 | Tesla, Inc. | Machine learning models operating at different frequencies for autonomous vehicles |
US11188765B2 (en) * | 2018-12-04 | 2021-11-30 | Here Global B.V. | Method and apparatus for providing real time feature triangulation |
US11537811B2 (en) | 2018-12-04 | 2022-12-27 | Tesla, Inc. | Enhanced object detection for autonomous vehicles based on field view |
US11475576B2 (en) * | 2018-12-07 | 2022-10-18 | Thinkware Corporation | Method for detecting vehicle and device for executing the same |
US11610117B2 (en) | 2018-12-27 | 2023-03-21 | Tesla, Inc. | System and method for adapting a neural network model on a hardware platform |
US10887582B2 (en) | 2019-01-22 | 2021-01-05 | Fyusion, Inc. | Object damage aggregation |
US11783443B2 (en) | 2019-01-22 | 2023-10-10 | Fyusion, Inc. | Extraction of standardized images from a single view or multi-view capture |
US11176704B2 (en) | 2019-01-22 | 2021-11-16 | Fyusion, Inc. | Object pose estimation in visual data |
US11338807B2 (en) * | 2019-01-30 | 2022-05-24 | Allstate Insurance Company | Dynamic distance estimation output generation based on monocular video |
US11150664B2 (en) | 2019-02-01 | 2021-10-19 | Tesla, Inc. | Predicting three-dimensional features for autonomous driving |
US10997461B2 (en) | 2019-02-01 | 2021-05-04 | Tesla, Inc. | Generating ground truth for machine learning from time series elements |
US11567514B2 (en) | 2019-02-11 | 2023-01-31 | Tesla, Inc. | Autonomous and user controlled vehicle summon to a target |
US10956755B2 (en) | 2019-02-19 | 2021-03-23 | Tesla, Inc. | Estimating object properties using visual image data |
US10846878B2 (en) * | 2019-03-28 | 2020-11-24 | Adobe Inc. | Multi-axis equal spacing smart guides |
US10832442B2 (en) * | 2019-03-28 | 2020-11-10 | Adobe Inc. | Displaying smart guides for object placement based on sub-objects of reference objects |
US11482011B2 (en) * | 2019-03-28 | 2022-10-25 | Intel Corporation | Acceleration of data processing for object detection |
EP3745310A1 (en) * | 2019-05-28 | 2020-12-02 | Robert Bosch GmbH | Method for calibrating a multi-sensor system using an artificial neural network |
US11778934B2 (en) * | 2019-07-02 | 2023-10-10 | Bear Flag Robotics, Inc. | Agricultural lane following |
CN110807431A (zh) * | 2019-11-06 | 2020-02-18 | 上海眼控科技股份有限公司 | 对象定位方法、装置、电子设备及存储介质 |
US11703869B2 (en) * | 2019-11-26 | 2023-07-18 | Zoox, Inc. | Latency accommodation in trajectory generation |
CN113348466A (zh) * | 2019-12-26 | 2021-09-03 | 谷歌有限责任公司 | 用于移动计算设备的方位确定 |
WO2021132758A1 (ko) * | 2019-12-26 | 2021-07-01 | (주) 로탈 | 스테레오 카메라를 이용한 객체 위치 결정 시스템 |
RU2757038C2 (ru) * | 2019-12-30 | 2021-10-11 | Общество с ограниченной ответственностью "Яндекс Беспилотные Технологии" | Способ и система для предсказания будущего события в беспилотном автомобиле (sdc) |
US11776142B2 (en) | 2020-01-16 | 2023-10-03 | Fyusion, Inc. | Structuring visual data |
US11562474B2 (en) | 2020-01-16 | 2023-01-24 | Fyusion, Inc. | Mobile multi-camera multi-view capture |
DE102020103741A1 (de) * | 2020-02-13 | 2021-08-19 | Car.Software Estonia As | Verfahren zur räumlichen Charakterisierung wenigstens einer Fahrzeugabbildung |
KR20210111557A (ko) * | 2020-03-03 | 2021-09-13 | 현대자동차주식회사 | 심층 학습 기반의 객체 분류 장치 및 그 방법 |
CN113470067A (zh) * | 2020-03-31 | 2021-10-01 | 阿里巴巴集团控股有限公司 | 数据处理方法、装置、存储介质和处理器 |
CN113591518B (zh) * | 2020-04-30 | 2023-11-03 | 华为技术有限公司 | 一种图像的处理方法、网络的训练方法以及相关设备 |
US11180162B1 (en) | 2020-05-07 | 2021-11-23 | Argo AI, LLC | Systems and methods for controlling vehicles using an amodal cuboid based algorithm |
CN111674388B (zh) * | 2020-05-19 | 2022-02-22 | 阿波罗智联(北京)科技有限公司 | 用于车辆弯道行驶的信息处理方法和装置 |
CN111626241B (zh) * | 2020-05-29 | 2023-06-23 | 北京华捷艾米科技有限公司 | 一种人脸检测方法及装置 |
CN112141087A (zh) * | 2020-06-24 | 2020-12-29 | 上汽通用五菱汽车股份有限公司 | 自动泊车过程的安全防护方法、装置、设备及存储介质 |
US11628856B2 (en) | 2020-06-29 | 2023-04-18 | Argo AI, LLC | Systems and methods for estimating cuboids from LiDAR, map and image data |
CN111860227B (zh) * | 2020-06-30 | 2024-03-08 | 阿波罗智能技术(北京)有限公司 | 训练轨迹规划模型的方法、装置和计算机存储介质 |
US11527084B2 (en) * | 2020-07-10 | 2022-12-13 | Huawei Technologies Co., Ltd. | Method and system for generating a bird's eye view bounding box associated with an object |
US20220026917A1 (en) * | 2020-07-22 | 2022-01-27 | Motional Ad Llc | Monocular 3d object detection from image semantics network |
US11210533B1 (en) | 2020-08-09 | 2021-12-28 | Phantom AI, Inc. | Method of predicting trajectory of vehicle |
DE102020210188A1 (de) | 2020-08-12 | 2022-02-17 | Hitachi Astemo, Ltd. | Fahrzeugumgebungserkennungseinrichtung |
US11987236B2 (en) * | 2020-08-31 | 2024-05-21 | Nec Corporation | Monocular 3D object localization from temporal aggregation |
US11393184B2 (en) | 2020-11-13 | 2022-07-19 | Denso International America, Inc. | Systems and methods for adaptive bounding box selection |
CN112509126B (zh) * | 2020-12-18 | 2024-07-12 | 南京模数智芯微电子科技有限公司 | 三维物体检测的方法、装置、设备及存储介质 |
US11738772B1 (en) * | 2020-12-18 | 2023-08-29 | Zoox, Inc. | Object avoidance with perceived safety subgoal |
US11972612B2 (en) * | 2021-02-18 | 2024-04-30 | Fca Us Llc | Techniques to automatically verify object detection, classification, and depth for automated driving systems |
US11605151B2 (en) | 2021-03-02 | 2023-03-14 | Fyusion, Inc. | Vehicle undercarriage imaging |
US11557129B2 (en) | 2021-04-27 | 2023-01-17 | Argo AI, LLC | Systems and methods for producing amodal cuboids |
CN113190003B (zh) * | 2021-05-06 | 2024-05-31 | 珠海格力智能装备有限公司 | Agv避障方法、装置、计算机可读存储介质和处理器 |
CN113312992A (zh) * | 2021-05-18 | 2021-08-27 | 中山方显科技有限公司 | 一种基于多源传感器信息融合的动态物体感知及预测方法 |
US11842544B2 (en) * | 2021-06-04 | 2023-12-12 | Fujitsu Limited | Automatic perspective transformation |
US11978259B2 (en) | 2021-07-09 | 2024-05-07 | Ford Global Technologies, Llc | Systems and methods for particle filter tracking |
CN114926534A (zh) * | 2022-05-16 | 2022-08-19 | 地平线(上海)人工智能技术有限公司 | 障碍物感知方法、装置、可读存储介质及电子设备 |
Family Cites Families (44)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004145660A (ja) | 2002-10-24 | 2004-05-20 | Fuji Heavy Ind Ltd | 障害物検出装置 |
US8878927B2 (en) | 2010-10-28 | 2014-11-04 | Raytheon Company | Method and apparatus for generating infrastructure-based basic safety message data |
US8842163B2 (en) * | 2011-06-07 | 2014-09-23 | International Business Machines Corporation | Estimation of object properties in 3D world |
US8736463B1 (en) * | 2012-01-30 | 2014-05-27 | Google Inc. | Object bounding box estimation |
US8718861B1 (en) * | 2012-04-11 | 2014-05-06 | Google Inc. | Determining when to drive autonomously |
US8527199B1 (en) * | 2012-05-17 | 2013-09-03 | Google Inc. | Automatic collection of quality control statistics for maps used in autonomous driving |
US8706417B2 (en) * | 2012-07-30 | 2014-04-22 | GM Global Technology Operations LLC | Anchor lane selection method using navigation input in road change scenarios |
US9221461B2 (en) * | 2012-09-05 | 2015-12-29 | Google Inc. | Construction zone detection using a plurality of information sources |
US9495602B2 (en) * | 2013-10-23 | 2016-11-15 | Toyota Motor Engineering & Manufacturing North America, Inc. | Image and map-based detection of vehicles at intersections |
US9767366B1 (en) * | 2014-08-06 | 2017-09-19 | Waymo Llc | Using obstacle clearance to measure precise lateral |
US20160091325A1 (en) * | 2014-09-25 | 2016-03-31 | Nissan North America, Inc. | Method and system of assisting a driver of a vehicle |
US9904855B2 (en) * | 2014-11-13 | 2018-02-27 | Nec Corporation | Atomic scenes for scalable traffic scene recognition in monocular videos |
US9347779B1 (en) * | 2014-12-10 | 2016-05-24 | Here Global B.V. | Method and apparatus for determining a position of a vehicle based on driving behavior |
CN111351495B (zh) * | 2015-02-10 | 2024-05-28 | 御眼视觉技术有限公司 | 服务器系统、方法及机器可读介质 |
JP2016224501A (ja) | 2015-05-27 | 2016-12-28 | トヨタ自動車株式会社 | 衝突予測装置 |
US20160357262A1 (en) * | 2015-06-05 | 2016-12-08 | Arafat M.A. ANSARI | Smart vehicle |
US10121082B2 (en) * | 2015-10-07 | 2018-11-06 | Honda Motor Co., Ltd. | System and method for providing laser camera fusion for identifying and tracking a traffic participant |
US9958864B2 (en) * | 2015-11-04 | 2018-05-01 | Zoox, Inc. | Coordination of dispatching and maintaining fleet of autonomous vehicles |
US9916703B2 (en) * | 2015-11-04 | 2018-03-13 | Zoox, Inc. | Calibration for autonomous vehicle operation |
US9632502B1 (en) * | 2015-11-04 | 2017-04-25 | Zoox, Inc. | Machine-learning systems and techniques to optimize teleoperation and/or planner decisions |
US9606539B1 (en) * | 2015-11-04 | 2017-03-28 | Zoox, Inc. | Autonomous vehicle fleet service and system |
US9734455B2 (en) * | 2015-11-04 | 2017-08-15 | Zoox, Inc. | Automated extraction of semantic information to enhance incremental mapping modifications for robotic vehicles |
US9910441B2 (en) * | 2015-11-04 | 2018-03-06 | Zoox, Inc. | Adaptive autonomous vehicle planner logic |
US10242455B2 (en) * | 2015-12-18 | 2019-03-26 | Iris Automation, Inc. | Systems and methods for generating a 3D world model using velocity data of a vehicle |
JP6270227B2 (ja) | 2016-03-14 | 2018-01-31 | 本田技研工業株式会社 | 車両制御装置、車両制御方法、および車両制御プログラム |
US20170297488A1 (en) * | 2016-04-19 | 2017-10-19 | GM Global Technology Operations LLC | Surround view camera system for object detection and tracking |
US10015537B2 (en) * | 2016-06-30 | 2018-07-03 | Baidu Usa Llc | System and method for providing content in autonomous vehicles based on perception dynamically determined at real-time |
WO2018009552A1 (en) * | 2016-07-05 | 2018-01-11 | Nauto Global Limited | System and method for image analysis |
US10209081B2 (en) * | 2016-08-09 | 2019-02-19 | Nauto, Inc. | System and method for precision localization and mapping |
EP3549044A4 (en) * | 2016-12-02 | 2020-07-22 | Starsky Robotics, Inc. | VEHICLE CONTROL SYSTEM AND METHOD OF USE |
CN106709568B (zh) * | 2016-12-16 | 2019-03-22 | 北京工业大学 | 基于深层卷积网络的rgb-d图像的物体检测和语义分割方法 |
US10318827B2 (en) * | 2016-12-19 | 2019-06-11 | Waymo Llc | Object detection neural networks |
US10077047B2 (en) * | 2017-02-10 | 2018-09-18 | Waymo Llc | Using wheel orientation to determine future heading |
US10318822B2 (en) * | 2017-04-06 | 2019-06-11 | GM Global Technology Operations LLC | Object tracking |
US10460180B2 (en) * | 2017-04-20 | 2019-10-29 | GM Global Technology Operations LLC | Systems and methods for visual classification with region proposals |
JP6653381B2 (ja) * | 2017-05-22 | 2020-02-26 | バイドゥドットコム タイムズ テクノロジー (ベイジン) カンパニー リミテッドBaidu.com Times Technology (Beijing) Co., Ltd. | 自律走行車の制御フィードバックに基づくマップ更新方法およびシステム |
US10310087B2 (en) * | 2017-05-31 | 2019-06-04 | Uber Technologies, Inc. | Range-view LIDAR-based object detection |
CN107316001A (zh) * | 2017-05-31 | 2017-11-03 | 天津大学 | 一种自动驾驶场景中小且密集的交通标志检测方法 |
US10474157B2 (en) * | 2017-06-06 | 2019-11-12 | Baidu Usa Llc | Data-based control error detection and parameter compensation system |
US10031526B1 (en) * | 2017-07-03 | 2018-07-24 | Baidu Usa Llc | Vision-based driving scenario generator for autonomous driving simulation |
US20190079526A1 (en) * | 2017-09-08 | 2019-03-14 | Uber Technologies, Inc. | Orientation Determination in Object Detection and Tracking for Autonomous Vehicles |
US10438371B2 (en) * | 2017-09-22 | 2019-10-08 | Zoox, Inc. | Three-dimensional bounding box from two-dimensional image and point cloud data |
US11062461B2 (en) * | 2017-11-16 | 2021-07-13 | Zoox, Inc. | Pose determination from contact points |
US10769793B2 (en) * | 2018-04-17 | 2020-09-08 | Baidu Usa Llc | Method for pitch angle calibration based on 2D bounding box and its 3D distance for autonomous driving vehicles (ADVs) |
-
2018
- 2018-04-17 US US15/955,634 patent/US10816992B2/en active Active
- 2018-12-25 CN CN201811591235.7A patent/CN110388931B/zh active Active
-
2019
- 2019-04-08 JP JP2019073584A patent/JP6906011B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
US20190317519A1 (en) | 2019-10-17 |
JP2019182411A (ja) | 2019-10-24 |
US10816992B2 (en) | 2020-10-27 |
CN110388931A (zh) | 2019-10-29 |
CN110388931B (zh) | 2023-11-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6906011B2 (ja) | オブジェクトの二次元境界枠を自動運転車両の三次元位置に転換するための方法[method for transforming 2d bounding boxes of objects into 3d positions for autonomous driving vehicles (advs)] | |
JP6975512B2 (ja) | 自動運転車両の周辺車両の挙動に基づくリアルタイム感知調整と運転調整 | |
JP6845894B2 (ja) | 自動運転車両におけるセンサー故障を処理するための方法 | |
CN111076732B (zh) | 基于车辆行驶的轨迹标记和生成高清地图的标记方案 | |
JP6722312B2 (ja) | 自動運転に用いられる感知と計画のコラボレーションフレームワーク | |
JP6892464B2 (ja) | 自動運転車両に用いられる検知支援 | |
US10520319B2 (en) | Data driven map updating system for autonomous driving vehicles | |
US10816984B2 (en) | Automatic data labelling for autonomous driving vehicles | |
KR102279078B1 (ko) | 자율 주행 차량의 v2x 통신 기반의 차량 차로 시스템 | |
US10569651B2 (en) | Speed control and steering control assistant based on pitch status and roll status of autonomous driving vehicle | |
JP6975775B2 (ja) | 自動運転車両の高速道路における自動運転に用いる、地図及びポジショニングなしで車線に沿う走行方法 | |
US10054945B2 (en) | Method for determining command delays of autonomous vehicles | |
JP2019204509A (ja) | 移動障害物を回避する自動運転のための運転経路の決定 | |
JP2019182415A (ja) | 自動運転車両(adv)に用いるピッチ角の補正方法 | |
JP2020514145A (ja) | シミュレーションに基づく自動運転車の感知要求の評価方法 | |
JP2020523552A (ja) | 自動運転車両の経路計画のための運転シナリオに基づく車線ガイドライン | |
US10438074B2 (en) | Method and system for controlling door locks of autonomous driving vehicles based on lane information | |
EP3659884B1 (en) | Predetermined calibration table-based method for operating an autonomous driving vehicle | |
JP2021511999A (ja) | 自動運転車両の3ポイントターンの最適プランナー切り替え方法 | |
CN111629947B (zh) | 自动驾驶车辆的用于生成参考线的方法和系统 | |
US10788839B2 (en) | Planning-control collaboration design for low cost autonomous driving technology |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190520 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190520 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200713 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200721 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20201019 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201216 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210601 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210628 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6906011 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |