JP6942712B2 - コンテキスト及び深さ順序を用いる、部分的に遮られた物体の検出 - Google Patents
コンテキスト及び深さ順序を用いる、部分的に遮られた物体の検出 Download PDFInfo
- Publication number
- JP6942712B2 JP6942712B2 JP2018540453A JP2018540453A JP6942712B2 JP 6942712 B2 JP6942712 B2 JP 6942712B2 JP 2018540453 A JP2018540453 A JP 2018540453A JP 2018540453 A JP2018540453 A JP 2018540453A JP 6942712 B2 JP6942712 B2 JP 6942712B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- distance
- detection window
- detection
- vehicle
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000001514 detection method Methods 0.000 title claims description 87
- 238000000034 method Methods 0.000 claims description 62
- 238000005259 measurement Methods 0.000 claims description 14
- 238000004891 communication Methods 0.000 claims description 12
- 241001465754 Metazoa Species 0.000 claims description 2
- 241000282412 Homo Species 0.000 claims 1
- 238000012795 verification Methods 0.000 description 43
- 230000006870 function Effects 0.000 description 8
- 238000012546 transfer Methods 0.000 description 6
- 230000009471 action Effects 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 230000000903 blocking effect Effects 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000001360 synchronised effect Effects 0.000 description 2
- 230000001052 transient effect Effects 0.000 description 2
- 239000013598 vector Substances 0.000 description 2
- 230000003044 adaptive effect Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000010200 validation analysis Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/13—Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/42—Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20112—Image segmentation details
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Data Mining & Analysis (AREA)
- Computing Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- General Engineering & Computer Science (AREA)
- Geometry (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
Description
一般に、本明細書で開示されたシステム及び方法は、特に、車両近傍において、部分的に遮られた物体(例えば、歩行者、オートバイ運転者、自転車運転者、及び/又は動物)を検出し、偽陽性検出結果を減少させるために、部分的に遮られた物体の検出が正確であるかどうかを検証するものである。以下で示されるものは、1つ以上の例示的な態様を説明するためのものであり、限定する目的ではないが、図面を参照すると、図1は、部分的に遮蔽された物体の検出のためのシステム及び方法を実施するための動作環境100の概略図である。環境100の構成要素、並びに本明細書で記載される他のシステム、ハードウェアアーキテクチャ、及びソフトウェアアーキテクチャの構成要素は、組み合わされたり、省略されたり、組織化されたりすることで、種々の実施例のために異なるアーキテクチャとして構成されてよい。さらに、動作環境100の構成要素は、例えば、先進運転者支援システム(Advanced Driver Assistance System)(ADAS)による部分的に遮られた歩行者の検出のための車両(図示せず)と共に実装されてもよいし、関連付けられてもよい。
図3を参照して、本開示の例示的な態様による、部分的に遮られた物体及び他の物体の検出を検証する方法について説明する。図3は、図1及び図2の構成要素を参照して説明される。さらに、これらの方法は、図1に示されるシステムや他のシステムや方法で実現されるアルゴリズムを参照して説明される。ブロック302において、該方法は、画像入力装置132(図1)から入力画像を受け取ることを含む。入力画像は、I: Λ ⊂ Z(Zは整数全体の集合を表す)→[0,255]として表現されるグレースケール画像であってよい。ここで、Λは格子である。入力画像は、例えば、画像入力装置132(図1)によって取り込まれた運転シーンの一部を含むことができる。さらに、入力画像は、1つ又は複数の部分的に遮られた物体を含むことができる。例えば、図2に示す入力画像202は、2つの歩行者(ボックス204、206参照)を含むことができ、各歩行者は、車両によって部分的に遮られている。
Claims (18)
- 第1の物体の検出を検証する方法であって、前記第1の物体は車両に関連する第2の物体によって部分的に遮られており、該方法は、
画像入力装置を介して画像情報を受け取るステップと、
前記第1の物体に対応する前記画像情報における第1画像の境界を示す第1検出ウィンドウを決定するステップと、
前記第2の物体に対応する前記画像情報における第2画像の境界を示す第2検出ウィンドウを決定するステップと、
前記第1検出ウィンドウと前記第2検出ウィンドウとが重なっているか否かを判断するステップと、
前記第1検出ウィンドウまでの第1距離と前記第2検出ウィンドウまでの第2距離とを決定するステップと、
前記第1距離と前記第2距離とを比較するステップと、
前記第1距離が前記第2距離よりも大きい場合、前記第1の物体は前記第2の物体によって部分的に遮られていると確証するステップと、
を有し、
前記第1検出ウィンドウと前記第2検出ウィンドウとが重なっているか否かを判断する前記ステップは、前記第1画像は部分的な画像であるかどうかを判定するステップを含む、
方法。 - 請求項1記載の方法において、
前記第1の物体は前記第2の物体によって部分的に遮られていると確証する前記ステップは、
深度センサから、前記深度センサと前記第2の物体との間の測定距離に対応する入力を受け取るステップと、
前記第1距離と前記測定距離とを比較するステップと、
前記第1距離が前記測定距離よりも大きいことを確証するステップと、
をさらに有する、
方法。 - 請求項1記載の方法において、
前記第1の物体はヒトである、
方法。 - 請求項1記載の方法において、
前記第1の物体は、ヒト、自転車、オートバイ、動物からなる群から選択される、
方法。 - 請求項1記載の方法において、
前記画像入力装置はカメラである、
方法。 - 請求項5記載の方法において、
前記カメラは前記車両に搭載される、
方法。 - 請求項1記載の方法において、
前記第1画像はヒトであり、
前記第1画像は部分的な画像であるかどうかを判定する前記ステップは、
前記第1画像の少なくとも一部に対して、ヒト認識を適用するステップを含む、
方法。 - 請求項2記載の方法において、
前記深度センサは、LIDAR装置、RADAR装置、ステレオカメラシステムからなる群から選択される、
方法。 - 第1の物体の検出を検証する方法であって、前記第1の物体は車両に関連する第2の物体によって部分的に遮られ、該方法は、
画像入力装置を介して画像情報を受け取るステップと、
前記第1の物体に対応する前記画像情報における第1画像の境界を示す第1検出ウィンドウを決定するステップと、
前記第2の物体に対応する前記画像情報における第2画像の境界を示す第2検出ウィンドウを決定するステップと、
前記第1検出ウィンドウと前記第2検出ウィンドウとが重なっているかどうかを判断するステップと、
前記第1検出ウィンドウまでの第1距離を決定するステップと、
深度センサから、前記深度センサと前記第2の物体との間の測定距離に対応する入力を受け取るステップと、
前記第1距離と前記測定距離とを比較するステップと、
前記第1距離が前記測定距離よりも大きい場合、前記第1の物体は前記第2の物体によって部分的に遮られていると確証するステップと、
有し、
前記第1検出ウィンドウと前記第2検出ウィンドウとが重なっているかどうかを判断する前記ステップは、前記第1画像は部分的な画像であるかどうかを判定するステップを含む、方法。 - 第1の物体の検出を検証するシステムであって、前記第1の物体は車両に関連する第2の物体によって部分的に遮られ、該システムは、
画像情報を受け取る画像入力装置と、
前記第1の物体に対応する前記画像情報における第1画像の境界を示す第1検出ウィンドウを決定し、また前記第2の物体に対応する前記画像情報における第2画像の境界を示す第2検出ウィンドウを決定する物体検出器と、
コンピュータ通信可能に、前記画像入力装置及び前記物体検出器に動作可能に接続されたプロセッサと、
を備え、
前記プロセッサは、
前記第1検出ウィンドウと前記第2検出ウィンドウとが重なっているかどうかを判断し、
前記第1検出ウィンドウと前記第2検出ウィンドウとが重なっている場合、前記第1の物体までの第1距離と前記第2の物体までの第2距離とを決定し、
前記第1距離が前記第2距離よりも大きい場合、前記第1の物体は部分的に遮られていると確証し、
前記第1検出ウィンドウと前記第2検出ウィンドウとが重なっているかどうかを判断する際、前記第1画像は部分的な画像であるかどうかを判定する、
システム。 - 請求項10記載のシステムにおいて、
前記第1の物体までの第1距離と前記第2の物体までの第2距離とを決定する際、前記プロセッサは、
前記第1検出ウィンドウのための位置情報と受け取った前記画像情報とを用いて、前記第1の物体までの第1距離を決定する、
システム。 - 請求項11記載のシステムにおいて、
前記第1の物体までの第1距離と前記第2の物体までの第2距離とを決定する際、前記プロセッサは、
前記第2検出ウィンドウのための位置情報と受け取った前記画像情報とを用いて、前記第2の物体までの第2距離を決定する、
システム。 - 請求項11記載のシステムにおいて、
該システムはさらに深度センサを備え、
前記第1の物体までの第1距離と前記第2の物体までの第2距離とを決定する際、前記プロセッサは、
前記深度センサと前記第2の物体との間の距離に対応する深度センサ入力を、前記第2距離として受け取る、
システム。 - 請求項10記載のシステムにおいて、
前記第1の物体はヒトである、
システム。 - 請求項10記載のシステムにおいて、
前記画像入力装置はカメラである、
システム。 - 請求項15記載のシステムにおいて、
前記カメラは前記車両に搭載される、
システム。 - 請求項10記載のシステムにおいて、
前記第1画像はヒトであり、
前記第1画像は部分的な画像であるかどうかを判定する際、
前記第1画像の少なくとも一部に対して、ヒト認識を適用する、
システム。 - 請求項13記載のシステムにおいて、
前記深度センサは、LIDAR装置、RADAR装置、ステレオカメラシステムからなる群から選択される、
システム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US15/015,033 | 2016-02-03 | ||
US15/015,033 US9805274B2 (en) | 2016-02-03 | 2016-02-03 | Partially occluded object detection using context and depth ordering |
PCT/US2017/016254 WO2017136578A1 (en) | 2016-02-03 | 2017-02-02 | Partially occluded object detection using context and depth ordering |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019509552A JP2019509552A (ja) | 2019-04-04 |
JP6942712B2 true JP6942712B2 (ja) | 2021-09-29 |
Family
ID=59386887
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018540453A Active JP6942712B2 (ja) | 2016-02-03 | 2017-02-02 | コンテキスト及び深さ順序を用いる、部分的に遮られた物体の検出 |
Country Status (5)
Country | Link |
---|---|
US (1) | US9805274B2 (ja) |
JP (1) | JP6942712B2 (ja) |
CN (1) | CN108604405A (ja) |
DE (1) | DE112017000643T5 (ja) |
WO (1) | WO2017136578A1 (ja) |
Families Citing this family (30)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107025642B (zh) * | 2016-01-27 | 2018-06-22 | 百度在线网络技术(北京)有限公司 | 基于点云数据的车辆轮廓检测方法和装置 |
JP6649178B2 (ja) * | 2016-05-24 | 2020-02-19 | 株式会社東芝 | 情報処理装置、および、情報処理方法 |
JP6536521B2 (ja) * | 2016-09-22 | 2019-07-03 | 株式会社デンソー | 物体検知装置及び物体検知方法 |
US10248872B2 (en) * | 2016-10-19 | 2019-04-02 | Texas Instruments Incorporated | Estimation of time to collision in a computer vision system |
KR20180060784A (ko) * | 2016-11-29 | 2018-06-07 | 삼성전자주식회사 | 비정상 객체 판단 방법 및 장치 |
US10331960B2 (en) * | 2017-05-10 | 2019-06-25 | Fotonation Limited | Methods for detecting, identifying and displaying object information with a multi-camera vision system |
US10509413B2 (en) * | 2017-09-07 | 2019-12-17 | GM Global Technology Operations LLC | Ground reference determination for autonomous vehicle operations |
US10788585B2 (en) | 2017-09-15 | 2020-09-29 | Toyota Research Institute, Inc. | System and method for object detection using a probabilistic observation model |
US10445597B2 (en) * | 2017-10-17 | 2019-10-15 | Toyota Research Institute, Inc. | Systems and methods for identification of objects using audio and sensor data |
WO2019092874A1 (ja) * | 2017-11-13 | 2019-05-16 | 三菱電機株式会社 | 物体認識装置および物体認識方法 |
CN109978950B (zh) * | 2017-12-26 | 2023-05-09 | 中国船舶重工集团公司七五0试验场 | 一种应用于海上油田安防三维虚拟显示的视点控制方法 |
US10642269B2 (en) * | 2018-01-03 | 2020-05-05 | Denso International America, Inc. | Vehicle localization system |
SG11201909815RA (en) | 2018-03-12 | 2019-11-28 | Jayant Ratti | On-demand artificial intelligence and roadway stewardship system |
US10884424B2 (en) * | 2018-09-07 | 2021-01-05 | GM Global Technology Operations LLC | Traffic light occlusion detection for autonomous vehicle |
US10495476B1 (en) * | 2018-09-27 | 2019-12-03 | Phiar Technologies, Inc. | Augmented reality navigation systems and methods |
US11448518B2 (en) | 2018-09-27 | 2022-09-20 | Phiar Technologies, Inc. | Augmented reality navigational overlay |
US10474930B1 (en) * | 2018-10-05 | 2019-11-12 | StradVision, Inc. | Learning method and testing method for monitoring blind spot of vehicle, and learning device and testing device using the same |
US11693423B2 (en) * | 2018-12-19 | 2023-07-04 | Waymo Llc | Model for excluding vehicle from sensor field of view |
RU2769921C2 (ru) | 2019-11-21 | 2022-04-08 | Общество с ограниченной ответственностью "Яндекс Беспилотные Технологии" | Способы и системы для автоматизированного определения присутствия объектов |
EP4078088A2 (en) * | 2020-01-03 | 2022-10-26 | Mobileye Vision Technologies Ltd. | Vehicle navigation with pedestrians and determining vehicle free space |
US11481913B2 (en) * | 2020-03-11 | 2022-10-25 | Gm Cruise Holdings Llc | LiDAR point selection using image segmentation |
DE102020209983A1 (de) * | 2020-08-06 | 2022-02-10 | Robert Bosch Gesellschaft mit beschränkter Haftung | Verfahren zum Erkennen eines Objekts aus Eingabedaten unter Verwendung von relationalen Attributen |
US11977165B2 (en) | 2020-08-10 | 2024-05-07 | Waymo Llc | Self-reflection filtering |
US10969491B1 (en) * | 2020-08-14 | 2021-04-06 | Aeva, Inc. | LIDAR window blockage detection |
US12030522B2 (en) | 2020-12-30 | 2024-07-09 | Zoox, Inc. | Collision avoidance using an object contour |
US11960009B2 (en) * | 2020-12-30 | 2024-04-16 | Zoox, Inc. | Object contour determination |
DE102021200923A1 (de) | 2021-02-02 | 2022-08-04 | Robert Bosch Gesellschaft mit beschränkter Haftung | Computerimplementiertes Verfahren und System zum Berechnen einer Abmessung einer Bounding Box und Trainingsverfahren |
CN113221739B (zh) * | 2021-05-12 | 2023-04-14 | 中国科学技术大学 | 基于单目视觉的车距测量方法 |
CN113657277A (zh) * | 2021-08-18 | 2021-11-16 | 南京佑驾科技有限公司 | 一种车辆被遮挡状态判断系统及方法 |
CN118056228A (zh) * | 2021-10-22 | 2024-05-17 | 深圳市速腾聚创科技有限公司 | 遮挡关系判断方法、装置、存储介质及电子设备 |
Family Cites Families (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004069328A (ja) * | 2002-08-01 | 2004-03-04 | Nissan Motor Co Ltd | 前方環境認識装置及び前方環境認識方法 |
US7242460B2 (en) | 2003-04-18 | 2007-07-10 | Sarnoff Corporation | Method and apparatus for automatic registration and visualization of occluded targets using ladar data |
US6956469B2 (en) * | 2003-06-13 | 2005-10-18 | Sarnoff Corporation | Method and apparatus for pedestrian detection |
US8009871B2 (en) * | 2005-02-08 | 2011-08-30 | Microsoft Corporation | Method and system to segment depth images and to detect shapes in three-dimensionally acquired data |
US20090041297A1 (en) | 2005-05-31 | 2009-02-12 | Objectvideo, Inc. | Human detection and tracking for security applications |
JP4715579B2 (ja) * | 2006-03-23 | 2011-07-06 | 株式会社豊田中央研究所 | 潜在危険度推定装置 |
JP4789745B2 (ja) | 2006-08-11 | 2011-10-12 | キヤノン株式会社 | 画像処理装置および方法 |
US8086071B2 (en) | 2007-10-30 | 2011-12-27 | Navteq North America, Llc | System and method for revealing occluded objects in an image dataset |
JP4956452B2 (ja) * | 2008-01-25 | 2012-06-20 | 富士重工業株式会社 | 車両用環境認識装置 |
CN100595792C (zh) * | 2008-04-01 | 2010-03-24 | 东南大学 | 基于视频技术的车辆检测与跟踪方法 |
US8611604B2 (en) * | 2009-06-03 | 2013-12-17 | Chubu University Educational Foundation | Object detection device |
US8446492B2 (en) * | 2009-12-10 | 2013-05-21 | Honda Motor Co., Ltd. | Image capturing device, method of searching for occlusion region, and program |
US8933884B2 (en) | 2010-01-15 | 2015-01-13 | Microsoft Corporation | Tracking groups of users in motion capture system |
EP2395452A1 (en) | 2010-06-11 | 2011-12-14 | Toyota Motor Europe NV/SA | Detection of objects in an image using self similarities |
WO2012029058A1 (en) | 2010-08-30 | 2012-03-08 | Bk-Imaging Ltd. | Method and system for extracting three-dimensional information |
US8744123B2 (en) | 2011-08-29 | 2014-06-03 | International Business Machines Corporation | Modeling of temporarily static objects in surveillance video data |
US9111147B2 (en) | 2011-11-14 | 2015-08-18 | Massachusetts Institute Of Technology | Assisted video surveillance of persons-of-interest |
DE102013100569A1 (de) * | 2013-01-21 | 2014-07-24 | Krauss-Maffei Wegmann Gmbh & Co. Kg | Verfahren und Vorrichtung zur Anzeige einer Fahrzeugumgebung |
US9904852B2 (en) | 2013-05-23 | 2018-02-27 | Sri International | Real-time object detection, tracking and occlusion reasoning |
CN104573612B (zh) * | 2013-10-16 | 2019-10-22 | 北京三星通信技术研究有限公司 | 估计深度图像中重叠的多个人体对象的姿态的设备和方法 |
CN104408689B (zh) | 2014-12-10 | 2017-10-24 | 武汉大学 | 基于全景影像的街景面片优化方法 |
CN205132567U (zh) | 2015-10-27 | 2016-04-06 | 浩通国际货运代理有限公司 | 一种带装卸漏斗的装卸机 |
CN205174534U (zh) | 2015-11-30 | 2016-04-20 | 河南福泉健康科技实业有限公司 | 一种温灸药熨保健型暖手宝 |
-
2016
- 2016-02-03 US US15/015,033 patent/US9805274B2/en active Active
-
2017
- 2017-02-02 WO PCT/US2017/016254 patent/WO2017136578A1/en active Application Filing
- 2017-02-02 CN CN201780009981.8A patent/CN108604405A/zh active Pending
- 2017-02-02 DE DE112017000643.0T patent/DE112017000643T5/de not_active Ceased
- 2017-02-02 JP JP2018540453A patent/JP6942712B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
JP2019509552A (ja) | 2019-04-04 |
US20170220874A1 (en) | 2017-08-03 |
US9805274B2 (en) | 2017-10-31 |
CN108604405A (zh) | 2018-09-28 |
WO2017136578A1 (en) | 2017-08-10 |
DE112017000643T5 (de) | 2018-10-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6942712B2 (ja) | コンテキスト及び深さ順序を用いる、部分的に遮られた物体の検出 | |
US10466714B2 (en) | Depth map estimation with stereo images | |
US10861176B2 (en) | Systems and methods for enhanced distance estimation by a mono-camera using radar and motion data | |
CN112292711B (zh) | 关联lidar数据和图像数据 | |
US10949684B2 (en) | Vehicle image verification | |
CN112997187B (zh) | 基于鸟瞰图点云的二维对象边界框信息估计 | |
JP6799169B2 (ja) | マルチモーダル融合による3dオブジェクト検出と配向推定の結合 | |
US20200057897A1 (en) | Obstacle sensing device | |
US11620837B2 (en) | Systems and methods for augmenting upright object detection | |
JP4420011B2 (ja) | 物体検知装置 | |
US9483700B1 (en) | System and method for lane vehicle localization with lane marking detection and likelihood scoring | |
JP6021689B2 (ja) | 車両諸元計測処理装置、車両諸元計測方法及びプログラム | |
US11299169B2 (en) | Vehicle neural network training | |
US20160180192A1 (en) | System and method for partially occluded object detection | |
KR101694837B1 (ko) | 주행 차량에서 촬영된 영상에서의 차량 정보 검출 장치 및 그 방법 | |
EP3620818A1 (en) | Annotation of radar-profiles of objects | |
JP6579144B2 (ja) | 障害物検知装置 | |
JPWO2019123582A1 (ja) | 物体情報生成装置及び物体情報生成プログラム | |
JP7452374B2 (ja) | 物体検知装置および物体検知プログラム | |
EP4336466A2 (en) | Method and apparatus for modeling object, storage medium, and vehicle control method | |
US20240078814A1 (en) | Method and apparatus for modeling object, storage medium, and vehicle control method | |
WO2024004325A1 (ja) | 外界認識装置及び外界認識方法 | |
US20230033243A1 (en) | Systems and methods for object proximity monitoring around a vehicle | |
EP4437502A1 (en) | Systems and methods for automatic camera calibration |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200109 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210209 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210324 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210824 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210908 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6942712 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |