JP2022508157A - 場面理解および高度な運転者支援システムのためのアプリケーションを有するマルチタスク感知ネットワーク - Google Patents
場面理解および高度な運転者支援システムのためのアプリケーションを有するマルチタスク感知ネットワーク Download PDFInfo
- Publication number
- JP2022508157A JP2022508157A JP2021528363A JP2021528363A JP2022508157A JP 2022508157 A JP2022508157 A JP 2022508157A JP 2021528363 A JP2021528363 A JP 2021528363A JP 2021528363 A JP2021528363 A JP 2021528363A JP 2022508157 A JP2022508157 A JP 2022508157A
- Authority
- JP
- Japan
- Prior art keywords
- sensing tasks
- multitasking
- different
- cnn
- computer
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000013527 convolutional neural network Methods 0.000 claims abstract description 63
- 238000000034 method Methods 0.000 claims abstract description 50
- 238000012545 processing Methods 0.000 claims abstract description 33
- 238000001514 detection method Methods 0.000 claims abstract description 23
- 230000004044 response Effects 0.000 claims abstract description 13
- 238000004590 computer program Methods 0.000 claims description 15
- 230000011218 segmentation Effects 0.000 claims description 13
- 230000004807 localization Effects 0.000 claims description 11
- 238000012549 training Methods 0.000 claims description 9
- 230000008569 process Effects 0.000 claims description 5
- 230000015654 memory Effects 0.000 description 16
- 238000010586 diagram Methods 0.000 description 9
- 238000000605 extraction Methods 0.000 description 9
- 230000006870 function Effects 0.000 description 4
- 230000009471 action Effects 0.000 description 3
- 238000003491 array Methods 0.000 description 3
- 238000004891 communication Methods 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000013459 approach Methods 0.000 description 2
- 238000012512 characterization method Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 241000473391 Archosargus rhomboidalis Species 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000032258 transport Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
- G08G1/166—Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W10/00—Conjoint control of vehicle sub-units of different type or different function
- B60W10/18—Conjoint control of vehicle sub-units of different type or different function including control of braking systems
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W10/00—Conjoint control of vehicle sub-units of different type or different function
- B60W10/20—Conjoint control of vehicle sub-units of different type or different function including control of steering systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
- G06V10/451—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
- G06V10/454—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
- G08G1/161—Decentralised systems, e.g. inter-vehicle communication
- G08G1/162—Decentralised systems, e.g. inter-vehicle communication event-triggered
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- General Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Life Sciences & Earth Sciences (AREA)
- Molecular Biology (AREA)
- Biomedical Technology (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- General Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Mechanical Engineering (AREA)
- Chemical & Material Sciences (AREA)
- Combustion & Propulsion (AREA)
- Transportation (AREA)
- Biodiversity & Conservation Biology (AREA)
- Image Analysis (AREA)
- Traffic Control Systems (AREA)
- Image Processing (AREA)
- Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
Abstract
Description
本出願は、2020年2月11日に出願された米国特許出願第16/787,727号の優先権を主張し、この出願は、2019年3月7日に出願された米国仮特許出願第62/814,886号の優先権を主張し、その内容は、その全体が参照により本明細書に組み込まれる。
関連技術の説明
Claims (20)
- 高度な運転者支援システム(ADAS)におけるコンピュータによって実現される方法であって、
ハードウェアプロセッサによって、マルチタスク畳込みニューラルネットワーク(CNN)を用いて、複数の画像を含む入力映像ストリームから、物体検出および他の感知タスクを含む、異なる感知タスク間で共有される特徴を抽出すること(505)と、
前記ハードウェアプロセッサによって、前記マルチタスクCNNを用いて、複数の異なる感知タスクの出力を提供するための、前記マルチタスクCNNのそれぞれの異なる分岐によって、前記共有される特徴の対応するものを同時に処理することによって、単一の経路で前記異なる感知タスクを同時に解決すること(510)であって、前記それぞれ異なる分岐のそれぞれが、前記異なる感知タスクのそれぞれの1つに対応することと、
前記複数の異なる感知タスクの出力に応答する少なくとも1つのトップビューマップとして運転場面のパラメトリック表現を形成すること(530)と、
差し迫っている衝突を示す前記少なくとも1つのトップビューマップに応答する衝突回避のために、車両の操作を制御することとを含む方法。 - 請求項1に記載のコンピュータによって実現される方法において、
前記他の感知タスクは、意味的セグメンテーション、奥行き推定および遮蔽推論を含む方法。 - 請求項1に記載のコンピュータによって実現される方法において、
前記ハードウェアプロセッサは、単一のGPUからなる方法。 - 請求項1に記載のコンピュータによって実現される方法において、
物体追跡を取得するために、異なる画像にわたってバウンディングボックスを関連付けることと、
前記バウンディングボックスを処理してカメラポーズを判定することと、
前記少なくとも1つのトップビューマップを形成するための洗練された物体追跡を提供するために、前記物体追跡および前記カメラポーズに応答して前記バウンディングボックスによってカプセル化された物体を定位することとをさらに含む方法。 - 請求項4に記載のコンピュータによって実現される方法において、
前記洗練された物体追跡は、所与の期間にわたって一貫性があるように提供される方法。 - 請求項4に記載のコンピュータによって実現される方法において、
前記バウンディングボックスの各々について信頼スコアを生成することをさらに含み、前記信頼スコアは、前記物体追跡を取得するために使用される方法。 - 請求項1に記載のコンピュータによって実現される方法において、
前記マルチタスクCNNは、複数のサブCNNを含み、前記複数のサブCNNの各々は、前記異なる感知タスクのそれぞれ異なる1つを処理する方法。 - 請求項1に記載のコンピュータによって実現される方法において、
2次元物体ボックス、3次元物体ボックス、まばらな3次元ポイントおよび意味的画素を含む訓練データを用いて前記マルチタスクCNNを訓練することをさらに含む方法。 - 請求項8に記載のコンピュータによって実現される方法において、
前記訓練データは、前記異なる感知タスクのそれぞれについて注釈が付けられている方法。 - 請求項1に記載のコンピュータによって実現される方法において、
前記意味的画素の各々は、複数の利用可能な意味的カテゴリのうちの1つに割り当てられる方法。 - 請求項1に記載のコンピュータによって実現される方法において、
遮蔽推論を使用して前記トップビューマップを形成することをさらに含み、前記遮蔽推論は、前景物体によって遮蔽された前記入力映像ストリーム内の任意の画素についての意味論および距離を推定する方法。 - 請求項1に記載のコンピュータによって実現される方法において、
前記入力映像ストリームのフレーム内の場面の遮蔽領域は、前記遮蔽推論のために注釈付けされない方法。 - 請求項1に記載のコンピュータによって実現される方法において、
前記衝突回避は、ブレーキングおよびステアリングからなるグループから選択された車両入力を制御することを含む方法。 - 請求項1に記載のコンピュータによって実現される方法において、
前記衝突回避を支援するために、前記トップビューマップに応答して場面理解タスクを実行することをさらに含む方法。 - 高度な運転者支援のためのコンピュータプログラム製品であって、前記コンピュータプログラム製品は、共に実施されるプログラム命令を有する非一時的なコンピュータ可読記憶媒体を備え、該プログラム命令は方法をコンピュータにより実行可能であり、前記方法は、
マルチタスク畳込みニューラルネットワーク(CNN)を用いて、複数の画像を含む入力映像ストリームから、物体検出および他の感知タスクを含む異なる感知タスク間で共有される特徴を抽出すること(505)と、
前記マルチタスクCNNを用いて、複数の異なる感知タスクの出力を提供するための、前記マルチタスクCNNのそれぞれの異なる分岐によって、前記共有される特徴の対応するものを同時に処理することによって、単一の経路で前記異なる感知タスクを同時に解決すること(510)であって、前記それぞれ異なる分岐のそれぞれが、前記異なる感知タスクのそれぞれの1つに対応することと、
前記複数の異なる感知タスクの出力に応答する少なくとも1つのトップビューマップとして運転場面のパラメトリック表現を形成すること(530)と、
差し迫っている衝突を示す前記少なくとも1つのトップビューマップに応答する衝突回避のために、車両の操作を制御することとを含むコンピュータプログラム製品。 - 請求項15に記載のコンピュータプログラム製品において、
前記他の感知タスクは、意味的セグメンテーション、奥行き推定および遮蔽推論を含むコンピュータプログラム製品。 - 請求項15に記載のコンピュータプログラム製品において、
前記ハードウェアプロセッサは、単一のGPUからなるコンピュータプログラム製品。 - 請求項15に記載のコンピュータプログラム製品において、
物体追跡を取得するために、異なる画像にわたってバウンディングボックスを関連付けることと、
前記バウンディングボックスを処理してカメラポーズを判定することと、
前記少なくとも1つのトップビューマップを形成するための洗練された物体追跡を提供するために、前記物体追跡および前記カメラポーズに応答して前記バウンディングボックスによってカプセル化された物体を定位することとをさらに含むコンピュータプログラム製品。 - 請求項15に記載のコンピュータプログラム製品において、
前記マルチタスクCNNは、複数のサブCNNを含み、前記複数のサブCNNの各々は、前記異なる感知タスクのそれぞれ異なる1つを処理するコンピュータプログラム製品。 - 高度な運転者支援のためのコンピュータ処理システムであって、
記憶されたプログラムコードを含むメモリデバイス(103)と、
前記メモリデバイスに動作可能に結合され、前記メモリデバイスに記憶された前記プログラムコードを実行するように構成されたハードウェアプロセッサ(102)とを有し、前記ハードウェアプロセッサは、
マルチタスク畳込みニューラルネットワーク(CNN)を用いて、複数の画像を含む入力映像ストリームから、物体検出および他の感知タスクを含む異なる感知タスク間で共有される特徴を抽出し、
前記マルチタスクCNNを用いて、複数の異なる感知タスクの出力を提供するための、前記マルチタスクCNNのそれぞれの異なる分岐によって、前記共有される特徴の対応するものを同時に処理することによって、単一の経路で前記異なる感知タスクを同時に解決し、前記それぞれ異なる分岐のそれぞれが、前記異なる感知タスクのそれぞれの1つに対応し、
前記複数の異なる感知タスクの出力に応答する少なくとも1つのトップビューマップとして運転場面のパラメトリック表現を形成し、
差し迫っている衝突を示す前記少なくとも1つのトップビューマップに応答する衝突回避のために、車両の操作を制御するコンピュータ処理システム。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201962814886P | 2019-03-07 | 2019-03-07 | |
US62/814,886 | 2019-03-07 | ||
US16/787,727 US11462112B2 (en) | 2019-03-07 | 2020-02-11 | Multi-task perception network with applications to scene understanding and advanced driver-assistance system |
US16/787,727 | 2020-02-11 | ||
PCT/US2020/017877 WO2020180469A1 (en) | 2019-03-07 | 2020-02-12 | Multi-task perception network with applications to scene understanding and advanced driver-assistance system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022508157A true JP2022508157A (ja) | 2022-01-19 |
JP7181402B2 JP7181402B2 (ja) | 2022-11-30 |
Family
ID=72335405
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021528363A Active JP7181402B2 (ja) | 2019-03-07 | 2020-02-12 | 場面理解および高度な運転者支援システムのためのアプリケーションを有するマルチタスク感知ネットワーク |
Country Status (4)
Country | Link |
---|---|
US (1) | US11462112B2 (ja) |
JP (1) | JP7181402B2 (ja) |
DE (1) | DE112020001103T5 (ja) |
WO (1) | WO2020180469A1 (ja) |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP4081982A4 (en) * | 2019-12-23 | 2023-08-16 | A^3 By Airbus, LLC | SYSTEMS AND PROCEDURES FOR EFFECTIVE DETECTION OF COLLISION HAZARDS |
JP7391784B2 (ja) * | 2020-07-06 | 2023-12-05 | 株式会社東芝 | 情報処理装置、情報処理方法およびプログラム |
TWI812888B (zh) | 2020-10-14 | 2023-08-21 | 財團法人工業技術研究院 | 影像辨識方法及影像辨識系統 |
US20220121953A1 (en) * | 2020-10-21 | 2022-04-21 | Nec Laboratories America, Inc. | Multi-task learning via gradient split for rich human analysis |
US11688090B2 (en) | 2021-03-16 | 2023-06-27 | Toyota Research Institute, Inc. | Shared median-scaling metric for multi-camera self-supervised depth evaluation |
CN113240723A (zh) * | 2021-05-18 | 2021-08-10 | 中德(珠海)人工智能研究院有限公司 | 一种单目深度估计方法、装置以及深度评估设备 |
US11527074B1 (en) * | 2021-11-24 | 2022-12-13 | Continental Automotive Technologies GmbH | Systems and methods for deep multi-task learning for embedded machine vision applications |
CN114519381B (zh) * | 2021-12-31 | 2024-09-17 | 上海仙途智能科技有限公司 | 基于多任务学习网络的感知方法及装置、存储介质、终端 |
CN114332590B (zh) * | 2022-03-08 | 2022-06-17 | 北京百度网讯科技有限公司 | 联合感知模型训练、联合感知方法、装置、设备和介质 |
CN115984827B (zh) * | 2023-03-06 | 2024-02-02 | 安徽蔚来智驾科技有限公司 | 点云感知方法、计算机设备及计算机可读存储介质 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008238927A (ja) * | 2007-03-27 | 2008-10-09 | Denso Corp | 車両周辺画像表示装置 |
JP2017211799A (ja) * | 2016-05-25 | 2017-11-30 | キヤノン株式会社 | 情報処理装置および情報処理方法 |
JP2018055377A (ja) * | 2016-09-28 | 2018-04-05 | 日本電信電話株式会社 | マルチタスク処理装置、マルチタスクモデル学習装置、及びプログラム |
JP2018190332A (ja) * | 2017-05-11 | 2018-11-29 | キヤノン株式会社 | 画像認識装置および学習装置 |
US20190049970A1 (en) * | 2017-08-08 | 2019-02-14 | Uber Technologies, Inc. | Object Motion Prediction and Autonomous Vehicle Control |
US20190050648A1 (en) * | 2017-08-09 | 2019-02-14 | Ydrive, Inc. | Object localization within a semantic domain |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100389004B1 (ko) * | 2001-05-17 | 2003-06-25 | 삼성전자주식회사 | 신경망을 이용한 영상 인식 장치 및 그 방법 |
US8712156B2 (en) * | 2010-01-10 | 2014-04-29 | Bronstein Bronstein Kimmel Technologies Ltd. | Comparison of visual information |
US9700219B2 (en) * | 2013-10-17 | 2017-07-11 | Siemens Healthcare Gmbh | Method and system for machine learning based assessment of fractional flow reserve |
US9922272B2 (en) * | 2014-09-25 | 2018-03-20 | Siemens Healthcare Gmbh | Deep similarity learning for multimodal medical images |
US10539669B2 (en) * | 2014-10-08 | 2020-01-21 | Texas Instruments Incorporated | Three dimensional (3D) tracking of objects in a radar system |
US9880551B2 (en) * | 2015-03-06 | 2018-01-30 | Robotic Research, Llc | Point-and-click control of unmanned, autonomous vehicle using omni-directional visors |
US10289934B2 (en) * | 2016-11-08 | 2019-05-14 | Nec Corporation | Landmark localization on objects in images using convolutional neural networks |
KR20180071031A (ko) * | 2016-12-19 | 2018-06-27 | 엘지전자 주식회사 | 공기조화기 및 그 제어방법 |
CN108230291B (zh) * | 2017-03-30 | 2020-09-29 | 北京市商汤科技开发有限公司 | 物体识别系统训练方法、物体识别方法、装置和电子设备 |
US10884433B2 (en) * | 2017-08-28 | 2021-01-05 | Nec Corporation | Aerial drone utilizing pose estimation |
US10489126B2 (en) * | 2018-02-12 | 2019-11-26 | Oracle International Corporation | Automated code generation |
US11189171B2 (en) * | 2018-03-13 | 2021-11-30 | Nec Corporation | Traffic prediction with reparameterized pushforward policy for autonomous vehicles |
CN110298262B (zh) * | 2019-06-06 | 2024-01-02 | 华为技术有限公司 | 物体识别方法及装置 |
-
2020
- 2020-02-11 US US16/787,727 patent/US11462112B2/en active Active
- 2020-02-12 WO PCT/US2020/017877 patent/WO2020180469A1/en active Application Filing
- 2020-02-12 DE DE112020001103.8T patent/DE112020001103T5/de active Pending
- 2020-02-12 JP JP2021528363A patent/JP7181402B2/ja active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008238927A (ja) * | 2007-03-27 | 2008-10-09 | Denso Corp | 車両周辺画像表示装置 |
JP2017211799A (ja) * | 2016-05-25 | 2017-11-30 | キヤノン株式会社 | 情報処理装置および情報処理方法 |
JP2018055377A (ja) * | 2016-09-28 | 2018-04-05 | 日本電信電話株式会社 | マルチタスク処理装置、マルチタスクモデル学習装置、及びプログラム |
JP2018190332A (ja) * | 2017-05-11 | 2018-11-29 | キヤノン株式会社 | 画像認識装置および学習装置 |
US20190049970A1 (en) * | 2017-08-08 | 2019-02-14 | Uber Technologies, Inc. | Object Motion Prediction and Autonomous Vehicle Control |
US20190050648A1 (en) * | 2017-08-09 | 2019-02-14 | Ydrive, Inc. | Object localization within a semantic domain |
Also Published As
Publication number | Publication date |
---|---|
JP7181402B2 (ja) | 2022-11-30 |
DE112020001103T5 (de) | 2021-12-23 |
US11462112B2 (en) | 2022-10-04 |
WO2020180469A1 (en) | 2020-09-10 |
US20200286383A1 (en) | 2020-09-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7181402B2 (ja) | 場面理解および高度な運転者支援システムのためのアプリケーションを有するマルチタスク感知ネットワーク | |
US11893682B1 (en) | Method for rendering 2D and 3D data within a 3D virtual environment | |
CN111133447B (zh) | 适于自主驾驶的对象检测和检测置信度的方法和系统 | |
CN113767389B (zh) | 从用于自主机器应用的经变换的真实世界传感器数据模拟逼真的测试数据 | |
CN111095291B (zh) | 由自动驾驶车辆实时检测车道和边界 | |
US20230110116A1 (en) | Advanced driver assist system, method of calibrating the same, and method of detecting object in the same | |
JP2023507695A (ja) | 自律運転アプリケーションのための3次元交差点構造予測 | |
JP2023531330A (ja) | マシン学習を使用した自律マシン・アプリケーションのためのセンサ融合 | |
CN113950702A (zh) | 在视频分析应用中使用相关滤波器的多对象跟踪 | |
CN113496290A (zh) | 使用采用模拟对象增强的图像训练机器学习模型 | |
CN113811886A (zh) | 自主机器应用中的路口检测和分类 | |
CN113632095A (zh) | 使用适合停车位检测的倾斜多边形进行对象检测 | |
WO2019182974A2 (en) | Stereo depth estimation using deep neural networks | |
JP5782088B2 (ja) | 歪みのあるカメラ画像を補正するシステム及び方法 | |
CN115315709A (zh) | 自主系统中用于行为预测的基于模型的增强学习及应用 | |
JP7135665B2 (ja) | 車両制御システム、車両の制御方法及びコンピュータプログラム | |
CN114332907A (zh) | 包括使用神经网络进行鲁棒预测的背景修改的数据增强 | |
US10867390B2 (en) | Computer vision processing | |
WO2021133956A1 (en) | Systems and methods for computer-based labeling of sensor data captured by a vehicle | |
JP2022132075A (ja) | 自律運転アプリケーションにおけるディープ・ニューラル・ネットワーク知覚のためのグラウンド・トゥルース・データ生成 | |
WO2022198175A1 (en) | Systems and methods for generating object detection labels using foveated image magnification for autonomous driving | |
CN113609888A (zh) | 利用平面单应性和自监督的场景结构理解进行对象检测 | |
US12008743B2 (en) | Hazard detection ensemble architecture system and method | |
Aditya et al. | Collision detection: An improved deep learning approach using SENet and ResNext | |
JP2023082647A (ja) | 自律システム及びアプリケーションのためのカメラベースの入力を使用した深層学習ベースの動作領域検証 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210520 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220802 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221019 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20221108 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20221117 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7181402 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313113 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |