JP2020123334A - 自律走行モードとマニュアル走行モードとの間の走行モードを変更するために自律走行の安全を確認するためのrnnの学習方法及び学習装置、そしてテスト方法及びテスト装置 - Google Patents
自律走行モードとマニュアル走行モードとの間の走行モードを変更するために自律走行の安全を確認するためのrnnの学習方法及び学習装置、そしてテスト方法及びテスト装置 Download PDFInfo
- Publication number
- JP2020123334A JP2020123334A JP2020007151A JP2020007151A JP2020123334A JP 2020123334 A JP2020123334 A JP 2020123334A JP 2020007151 A JP2020007151 A JP 2020007151A JP 2020007151 A JP2020007151 A JP 2020007151A JP 2020123334 A JP2020123334 A JP 2020123334A
- Authority
- JP
- Japan
- Prior art keywords
- learning
- test
- feature map
- feature vector
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 147
- 238000013528 artificial neural network Methods 0.000 title claims abstract description 11
- 238000012360 testing method Methods 0.000 title claims description 425
- 230000000306 recurrent effect Effects 0.000 title abstract description 5
- 239000013598 vector Substances 0.000 claims abstract description 278
- 238000012549 training Methods 0.000 claims abstract description 223
- 238000013527 convolutional neural network Methods 0.000 claims abstract description 93
- 230000006403 short-term memory Effects 0.000 claims abstract description 10
- 230000008569 process Effects 0.000 claims description 115
- 230000015654 memory Effects 0.000 claims description 18
- 238000005070 sampling Methods 0.000 claims description 10
- 238000002372 labelling Methods 0.000 claims description 8
- 238000004364 calculation method Methods 0.000 claims description 6
- 238000004422 calculation algorithm Methods 0.000 claims description 5
- 231100001261 hazardous Toxicity 0.000 claims description 3
- 230000008859 change Effects 0.000 description 9
- 238000012545 processing Methods 0.000 description 4
- 238000007796 conventional method Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 238000004519 manufacturing process Methods 0.000 description 3
- 238000010998 test method Methods 0.000 description 3
- 241001465754 Metazoa Species 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 238000007792 addition Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 230000007257 malfunction Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
- B60W30/08—Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/02—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/08—Interaction between the driver and the control system
- B60W50/082—Selecting or switching between different modes of propelling
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W60/00—Drive control systems specially adapted for autonomous road vehicles
- B60W60/001—Planning or execution of driving tasks
- B60W60/0015—Planning or execution of driving tasks specially adapted for safety
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W60/00—Drive control systems specially adapted for autonomous road vehicles
- B60W60/005—Handover processes
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/0088—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/211—Selection of the most significant subset of features
- G06F18/2115—Selection of the most significant subset of features by evaluating different subsets according to an optimisation criterion, e.g. class separability, forward selection or backward elimination
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
- G06F18/2148—Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the process organisation or structure, e.g. boosting cascade
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/217—Validation; Performance evaluation; Active pattern learning techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W2050/0001—Details of the control system
- B60W2050/0019—Control system elements or transfer functions
- B60W2050/0026—Lookup tables or parameter maps
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W2050/0001—Details of the control system
- B60W2050/0043—Signal treatments, identification of variables or parameters, parameter estimation or state estimation
- B60W2050/005—Sampling
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo, light or radio wave sensitive means, e.g. infrared sensors
- B60W2420/403—Image sensing, e.g. optical camera
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60Y—INDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
- B60Y2300/00—Purposes or special features of road vehicle drive control systems
- B60Y2300/08—Predicting or avoiding probable or impending collision
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
- G05D1/0214—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory in accordance with safety or protection criteria, e.g. avoiding hazardous areas
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Automation & Control Theory (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Transportation (AREA)
- Mechanical Engineering (AREA)
- Evolutionary Biology (AREA)
- Multimedia (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Human Computer Interaction (AREA)
- Medical Informatics (AREA)
- Aviation & Aerospace Engineering (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Databases & Information Systems (AREA)
- Business, Economics & Management (AREA)
- Game Theory and Decision Science (AREA)
- Electromagnetism (AREA)
- Image Analysis (AREA)
- Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
- Traffic Control Systems (AREA)
Abstract
Description
その他にも、本発明の方法を実行するためのコンピュータプログラムを記録するためのコンピュータ読取り可能な記録媒体がさらに提供される。
110:メモリ
120:プロセッサ
200:テスト装置
210:メモリ
220:プロセッサ
Claims (22)
- 自律走行自動車の走行モード変更のために使用される、自律走行の安全性を確認するRNN(Recurrent Neural Network)を学習する方法において、
(a)学習用自律走行自動車の学習用前方カメラと学習用後方カメラとにそれぞれ対応するシーケンスイメージである第1_1トレーニングイメージないし第1_nトレーニングイメージと第2_1トレーニングイメージないし第2_nトレーニングイメージとが取得されると、学習装置が、第1_kトレーニングイメージと第2_kトレーニングイメージ(前記kは整数(integer)であり、シーケンスはnから1に進行する)とで構成されたペア(Pair)それぞれを、前記ペアそれぞれのシーケンスに対応する第1CNN(Convolutional Neural Network)ないし第nCNNにそれぞれ入力して、第kCNNをもって、前記第1_kトレーニングイメージと前記第2_kトレーニングイメージとをコンカチネート(Concatenating)させた後、前記第1_kトレーニングイメージと前記第2_kトレーニングイメージとのコンカチネーティング結果に対してコンボリューション演算を適用して学習用第1特徴マップ(Feature Map)ないし学習用第n特徴マップを生成させる段階;
(b)前記学習装置が、(i)前記学習用第1特徴マップないし前記学習用第n特徴マップをフォワードRNN(Forward RNN)のそれぞれのシーケンスに対応する第1_1LSTM(Long Short−Term Memory)モデルないし第1_nLSTMモデルそれぞれに入力し、バックワードRNN(Backward RNN)のそれぞれのシーケンスに対応する第2_1LSTMモデルないし第2_nLSTMモデルそれぞれに入力して、(i−1)第1_kLSTMモデルをもって、(i−1−a)第1_(k+1)LSTMモデルから出力される学習用第1_(k+1)アップデート特徴マップ(Updated Feature Map)と前記第kCNNから出力される学習用第k特徴マップとをいずれも参照して前記学習用第k特徴マップをアップデートした結果である学習用第1_kアップデート特徴マップを生成させ、(i−1−b)前記学習用第1_kアップデート特徴マップに対してFC演算(Fully Connected Operation)を適用した結果である学習用第1_1特徴ベクトルないし学習用第1_n特徴ベクトルを生成させ、(i−2)第2_kLSTMモデルをもって、(i−2−a)第2_(k−1)LSTMモデルから出力される学習用第2_(k−1)アップデート特徴マップと前記第kCNNから出力される前記学習用第k特徴マップとをいずれも参照して前記学習用第k特徴マップをアップデートした結果である学習用第2_kアップデート特徴マップを生成させ、(i−2−b)前記学習用第2_kアップデート特徴マップに対してFC演算を適用した結果である学習用第2_1特徴ベクトルないし学習用第2_n特徴ベクトルを生成させるプロセス、及び(ii)前記学習用第1_1特徴ベクトルないし前記学習用第1_n特徴ベクトルと前記学習用第2_1特徴ベクトルないし前記学習用第2_n特徴ベクトルとをアテンションレイヤ(Attention Layer)に入力して、前記アテンションレイヤをもって、前記学習用第1_1特徴ベクトルないし前記学習用第1_n特徴ベクトルと前記学習用第2_1特徴ベクトルないし前記学習用第2_n特徴ベクトルとを参照して、前記第1_1トレーニングイメージないし前記第1_nトレーニングイメージと前記第2_1トレーニングイメージないし前記第2_nトレーニングイメージとのすべてのシーケンスにおける学習用自律走行モード値(Autonomous−Driving Mode Value)を生成させるプロセスを遂行する段階;及び
(c)前記学習装置が、ロスレイヤ(Loss Layer)をもって、前記学習用自律走行モード値とこれに対応する原本正解(Ground Truth)とを参照して少なくとも一つのロスを算出させるプロセス、及び前記ロスを利用したバックプロパゲーションを通じて前記ロスを最小化するように前記第1_1LSTMモデルないし前記第1_nLSTMモデルと前記第2_1LSTMモデルないし前記第2_nLSTMモデルとを学習するプロセスを遂行する段階;
を含むことを特徴とする方法。 - 前記(b)段階で、
前記学習装置は、前記アテンションレイヤをもって、(i)学習用第1_k特徴ベクトルと学習用第2_k特徴ベクトルとをコンカチネートさせて、学習用第1コンカチネート済み特徴ベクトルないし学習用第nコンカチネート済み特徴ベクトルを生成させ、(ii)前記学習用第1コンカチネート済み特徴ベクトルないし前記学習用第nコンカチネート済み特徴ベクトルに対して加重平均(Weighted Average)させて、前記学習用自律走行モード値を生成させることを特徴とする請求項1に記載の方法。 - 前記(a)段階で、
前記学習装置は、前記第1CNNないし前記第nCNNそれぞれをもって、(i)前記第1_kトレーニングイメージと前記第2_kトレーニングイメージとをそれぞれコンカチネートさせて第kコンカチネート済みトレーニングイメージを生成させ、(ii)前記第kコンカチネート済みトレーニングイメージに対してコンボリューション演算を適用させて前記学習用第1特徴マップないし前記学習用第n特徴マップを生成させる請求項1に記載の方法。 - 前記(b)段階で、
前記学習装置は、(i)前記第1_kLSTMモデルをもって、前記学習用第1_(k+1)アップデート特徴マップと前記学習用第1_k特徴マップとを参照して、学習用走行環境が危険状況(Hazard Situation)であるかを前記第1_kトレーニングイメージと前記第2_kトレーニングイメージとの前記ペアを参照して確認するのに使用される特徴に対応する前記学習用第1_1特徴ベクトルないし前記学習用第1_n特徴ベクトルを生成させるプロセス、及び(ii)前記第2_kLSTMモデルをもって、前記学習用第2_(k−1)アップデート特徴マップと前記学習用第2_k特徴マップとを参照して、前記学習用走行環境が危険状況であるかを前記第1_kトレーニングイメージと前記第2_kトレーニングイメージとの前記ペアを参照して確認するのに使用される特徴に対応する前記学習用第2_1特徴ベクトルないし前記学習用第2_n特徴ベクトルを生成させるプロセスを遂行することを特徴とする請求項1に記載の方法。 - 前記(c)段階で、
前記学習装置は、前記ロスレイヤをもって、ソフトマックス(Softmax)アルゴリズムを利用して前記学習用自律走行モード値を正規化(Normalize)するプロセス、及び正規化された前記学習用自律走行モード値と前記原本正解とを参照して前記ロスを算出するプロセスを遂行することを特徴とする請求項1に記載の方法。 - 前記第1_1トレーニングイメージないし前記第1_nトレーニングイメージと前記第2_1トレーニングイメージないし前記第2_nトレーニングイメージとは、(i)(i−1)前記学習用自律走行自動車の前記学習用前方カメラから撮影される映像を予め設定された時間間隔でサンプリングして第1シーケンスイメージを抽出するプロセス、及び(i−2)抽出された前記第1シーケンスイメージそれぞれに対して自律走行が可能であるか否かをラベリングするプロセス、及び(ii)(ii−1)前記学習用自律走行自動車の前記学習用後方カメラから撮影される映像を前記予め設定された時間間隔でサンプリングして第2シーケンスイメージを抽出するプロセス、及び(ii−2)サンプリングされた前記第2シーケンスイメージそれぞれに対して自律走行が可能であるか否かをラベリングするプロセスを遂行して生成されることを特徴とする請求項1に記載の方法。
- 前記(c)段階で、
前記原本正解は、前記シーケンスイメージのうち前記第1_1トレーニングイメージないし前記第1_nトレーニングイメージのネクストシーケンスに対応する第1ネクストシーケンスイメージ(Next Sequence Image)と、前記第2_1トレーニングイメージないし前記第2_nトレーニングイメージとの前記ネクストシーケンスに対応する第2ネクストシーケンスイメージから取得されることを特徴とする請求項1に記載の方法。 - 自律走行自動車の走行モード変更のために使用される、自律走行の安全性を確認するRNN(Recurrent Neural Network)をテストする方法において、
(a)学習用自律走行自動車の学習用前方カメラと学習用後方カメラとにそれぞれ対応するシーケンスイメージである第1_1トレーニングイメージないし第1_nトレーニングイメージと第2_1トレーニングイメージないし第2_nトレーニングイメージとが取得されると、学習装置が、(i)第1_kトレーニングイメージと第2_kトレーニングイメージ(前記kは整数であり、シーケンスはnから1に進行する)とで構成されたペア(Pair)それぞれを、前記ペアそれぞれのシーケンスに対応する第1CNN(Convolutional Neural Network)ないし第nCNNにそれぞれ入力して、第kCNNをもって、前記第1_kトレーニングイメージと前記第2_kトレーニングイメージとをコンカチネート(Concatenating)させた後、前記第1_kトレーニングイメージと前記第2_kトレーニングイメージとのコンカチネーティング結果に対してコンボリューション演算を適用して学習用第1特徴マップ(Feature Map)ないし学習用第n特徴マップを生成させるプロセス、(ii)前記学習用第1特徴マップないし前記学習用第n特徴マップをフォワードRNN(Forward RNN)のそれぞれのシーケンスに対応する第1_1LSTM(Long Short−Term Memory)モデルないし第1_nLSTMモデルそれぞれに入力し、バックワードRNN(Backward RNN)のそれぞれのシーケンスに対応する第2_1LSTMモデルないし第2_nLSTMモデルそれぞれに入力して、(ii−1)第1_kLSTMモデルをもって、(ii−1−a)第1_(k+1)LSTMモデルから出力される学習用第1_(k+1)アップデート特徴マップ(Updated Feature Map)と前記第kCNNから出力される学習用第k特徴マップとをいずれも参照して前記学習用第k特徴マップをアップデートした結果である学習用第1_kアップデート特徴マップを生成させ、(ii−1−b)前記学習用第1_kアップデート特徴マップに対してFC演算(Fully Connected Operation)を適用した結果である学習用第1_1特徴ベクトルないし学習用第1_n特徴ベクトルを生成させ、(ii−2)第2_kLSTMモデルをもって、(ii−2−a)第2_(k−1)LSTMモデルから出力される学習用第2_(k−1)アップデート特徴マップと前記第kCNNから出力される前記学習用第k特徴マップとをいずれも参照して前記学習用第k特徴マップをアップデートした結果である学習用第2_kアップデート特徴マップを生成させ、(ii−2−b)前記学習用第2_kアップデート特徴マップに対してFC演算を適用した結果である学習用第2_1特徴ベクトルないし学習用第2_n特徴ベクトルを生成させるプロセス、(iii)前記学習用第1_1特徴ベクトルないし前記学習用第1_n特徴ベクトルと、前記学習用第2_1特徴ベクトルないし前記学習用第2_n特徴ベクトルとをアテンションレイヤ(Attention Layer)に入力して、前記アテンションレイヤをもって、前記学習用第1_1特徴ベクトルないし前記学習用第1_n特徴ベクトルと前記学習用第2_1特徴ベクトルないし前記学習用第2_n特徴ベクトルとを参照して、前記第1_1トレーニングイメージないし前記第1_nトレーニングイメージと前記第2_1トレーニングイメージないし前記第2_nトレーニングイメージとのすべてのシーケンスにおける学習用自律走行モード値(Autonomous−Driving Mode Value)を生成させるプロセス、及び(iv)ロスレイヤ(Loss Layer)をもって、前記学習用自律走行モード値とこれに対応する原本正解(Ground Truth)とを参照して少なくとも一つのロスを算出させるプロセス、及び前記ロスを利用したバックプロパゲーションを通じて前記ロスを最小化するように前記第1_1LSTMモデルないし前記第1_nLSTMモデルと前記第2_1LSTMモデルないし前記第2_nLSTMモデルとを学習するプロセスを遂行した状態で、走行中であるテスト用自律走行自動車のテスト用前方カメラとテスト用後方カメラとから前記テスト用自律走行自動車のテスト用前方映像とテスト用後方映像とが取得されると、テスト装置が、前記テスト用前方映像の現在フレームに対応する第1テストイメージと前記テスト用後方映像の前記現在フレームに対応する第2テストイメージとを前記第1CNNに入力して、前記第1CNNをもって、前記第1テストイメージと前記第2テストイメージとのコンカチネーティング結果に対してコンボリューション演算を適用してテスト用第1特徴マップを生成させる段階;及び
(b)前記テスト装置が、(i)前記テスト用第1特徴マップないし前記テスト用第n特徴マップを前記フォワードRNNのそれぞれのシーケンスに対応する前記第1_1LSTMモデルないし前記第1_nLSTMモデルそれぞれに入力し、前記バックワードRNNのそれぞれのシーケンスに対応する前記第2_1LSTMモデルないし前記第2_nLSTMモデルそれぞれに入力して、(i−1)前記第1_kLSTMモデルをもって、(i−1−a)前記第1_(k+1)LSTMモデルから出力されるテスト用第1_(k+1)アップデート特徴マップ(Updated Feature Map)と前記第kCNNから出力されるテスト用第k特徴マップとをいずれも参照して、前記テスト用第k特徴マップをアップデートした結果であるテスト用第1_kアップデート特徴マップを生成させ、(i−1−b)前記テスト用第1_kアップデート特徴マップに対してFC演算を適用した結果であるテスト用第1_1特徴ベクトルないしテスト用第1_n特徴ベクトルを生成させ、(i−2)前記第2_kLSTMモデルをもって、(i−2−a)前記第2_(k−1)LSTMモデルから出力されるテスト用第2_(k−1)アップデート特徴マップと前記第kCNNから出力される前記テスト用第k特徴マップとをいずれも参照して、前記テスト用第k特徴マップをアップデートした結果であるテスト用第2_kアップデート特徴マップを生成させ、(i−2−b)前記テスト用第2_kアップデート特徴マップに対してFC演算を適用した結果であるテスト用第2_1特徴ベクトルないしテスト用第2_n特徴ベクトルを生成させるプロセス、及び(ii)前記テスト用第1_1特徴ベクトルないし前記テスト用第1_n特徴ベクトルと前記テスト用第2_1特徴ベクトルないし前記テスト用第2_n特徴ベクトルとを前記アテンションレイヤに入力して、前記アテンションレイヤをもって、前記テスト用第1_1特徴ベクトルないし前記テスト用第1_n特徴ベクトルと前記テスト用第2_1特徴ベクトルないし前記テスト用第2_n特徴ベクトルとを参照して前記第1_1テストイメージないし前記第1_nテストイメージと前記第2_1テストイメージないし前記第2_nテストイメージとのすべてのシーケンスにおけるテスト用自律走行モード値を生成させる段階;
を含むことを特徴とする方法。 - 前記(b)段階で、
前記テスト装置は、前記アテンションレイヤをもって、(i)テスト用第1_k特徴ベクトルとテスト用第2_k特徴ベクトルとをコンカチネートさせて、テスト用第1コンカチネート済み特徴ベクトルないしテスト用第nコンカチネート済み特徴ベクトルを生成させ、(ii)前記テスト用第1コンカチネート済み特徴ベクトルないし前記テスト用第nコンカチネート済み特徴ベクトルに対して加重平均(Weighted Average)させて、前記テスト用自律走行モード値を生成させるプロセスを遂行することを特徴とする請求項8に記載の方法。 - 前記(a)段階で、
前記テスト装置は、前記第1CNNをもって、(i)前記第1テストイメージと前記第2テストイメージとをコンカチネートさせて第1コンカチネート済みテストイメージを生成させ、(ii)前記第1コンカチネート済みテストイメージに対してコンボリューション演算を適用させて前記テスト用第1特徴マップを生成させるプロセスを遂行することを特徴とする請求項8に記載の方法。 - 前記(b)段階で、
前記テスト装置は、(i)前記第1_1LSTMモデルをもって、前記テスト用第1_2アップデート特徴マップと前記テスト用第1特徴マップとを参照して、テスト用走行環境が危険状況(Hazard Situation)であるかを前記第1テストイメージと前記第2テストイメージとのペアを参照して確認するのに使用される特徴に対応する前記テスト用第1_1特徴ベクトルを生成させるプロセス、(ii)前記第2_1LSTMモデルをもって、前記テスト用第2_1アップデート特徴マップを参照して、前記テスト用走行環境が危険状況であるかを前記第1テストイメージと前記第2テストイメージとの前記ペアを参照して確認するのに使用される特徴に対応する前記テスト用第2_1特徴ベクトルを生成させるプロセス、及び(iii)前記第2_mLSTMモデルをもって、前記テスト用第2_(m−1)アップデート特徴マップと前記テスト用第m特徴マップとを参照して、前記テスト用走行環境が危険状況であるかを前記第1テストイメージと前記第2テストイメージとの前記ペアを参照して確認するのに使用される特徴に対応するテスト用第2_2特徴ベクトルないし前記テスト用第2_n特徴ベクトルを生成させるプロセスを遂行することを特徴とする請求項8に記載の方法。 - 自律走行自動車の走行モード変更のために使用される、自律走行の安全性を確認するRNN(Recurrent Neural Network)を学習する学習装置において、
インストラクションを格納する少なくとも一つのメモリと、
(I)学習用自律走行自動車の学習用前方カメラと学習用後方カメラとにそれぞれ対応するシーケンスイメージである第1_1トレーニングイメージないし第1_nトレーニングイメージと第2_1トレーニングイメージないし第2_nトレーニングイメージとが取得されると、第1_kトレーニングイメージと第2_kトレーニングイメージ(前記kは整数であり、シーケンスはnから1に進行する)とで構成されたペア(Pair)それぞれを、前記ペアそれぞれのシーケンスに対応する第1CNN(Convolutional Neural Network)ないし第nCNNにそれぞれ入力して、第kCNNをもって、前記第1_kトレーニングイメージと前記第2_kトレーニングイメージとをコンカチネート(Concatenating)させた後、前記第1_kトレーニングイメージと前記第2_kトレーニングイメージとのコンカチネーティング結果に対してコンボリューション演算を適用して学習用第1特徴マップ(Feature Map)ないし学習用第n特徴マップを生成させるプロセス、(II)(i)前記学習用第1特徴マップないし前記学習用第n特徴マップをフォワードRNN(Forward RNN)のそれぞれのシーケンスに対応する第1_1LSTM(Long Short−Term Memory)モデルないし第1_nLSTMモデルそれぞれに入力し、バックワードRNN(Backward RNN)のそれぞれのシーケンスに対応する第2_1LSTMモデルないし第2_nLSTMモデルそれぞれに入力して、(i−1)第1_kLSTMモデルをもって、(i−1−a)第1_(k+1)LSTMモデルから出力される学習用第1_(k+1)アップデート特徴マップ(Updated Feature Map)と前記第kCNNから出力される学習用第k特徴マップとをいずれも参照して前記学習用第k特徴マップをアップデートした結果である学習用第1_kアップデート特徴マップを生成させ、(i−1−b)前記学習用第1_kアップデート特徴マップに対してFC演算(Fully Connected Operation)を適用した結果である学習用第1_1特徴ベクトルないし学習用第1_n特徴ベクトルを生成させ、(i−2)第2_kLSTMモデルをもって、(i−2−a)第2_(k−1)LSTMモデルから出力される学習用第2_(k−1)アップデート特徴マップと前記第kCNNから出力される前記学習用第k特徴マップとをいずれも参照して前記学習用第k特徴マップをアップデートした結果である学習用第2_kアップデート特徴マップを生成させ、(i−2−b)前記学習用第2_kアップデート特徴マップに対してFC演算を適用した結果である学習用第2_1特徴ベクトルないし学習用第2_n特徴ベクトルを生成させるプロセス、及び(ii)前記学習用第1_1特徴ベクトルないし前記学習用第1_n特徴ベクトルと前記学習用第2_1特徴ベクトルないし前記学習用第2_n特徴ベクトルとをアテンションレイヤ(Attention Layer)に入力して、前記アテンションレイヤをもって、前記学習用第1_1特徴ベクトルないし前記学習用第1_n特徴ベクトルと前記学習用第2_1特徴ベクトルないし前記学習用第2_n特徴ベクトルとを参照して、前記第1_1トレーニングイメージないし前記第1_nトレーニングイメージと前記第2_1トレーニングイメージないし前記第2_nトレーニングイメージとのすべてのシーケンスにおける学習用自律走行モード値(Autonomous−Driving Mode Value)を生成させるプロセス、及び(III)ロスレイヤ(Loss Layer)をもって、前記学習用自律走行モード値とこれに対応する原本正解(Ground Truth)とを参照して少なくとも一つのロスを算出させるプロセス、及び前記ロスを利用したバックプロパゲーションを通じて前記ロスを最小化するように前記第1_1LSTMモデルないし前記第1_nLSTMモデルと前記第2_1LSTMモデルないし前記第2_nLSTMモデルとを学習するプロセスを遂行するための前記インストラクションを実行するように構成された少なくとも一つのプロセッサと、
を含むことを特徴とする装置。 - 前記(II)プロセスで、
前記プロセッサは、前記アテンションレイヤをもって、(i)学習用第1_k特徴ベクトルと学習用第2_k特徴ベクトルとをコンカチネートさせて、学習用第1コンカチネート済み特徴ベクトルないし学習用第nコンカチネート済み特徴ベクトルを生成させ、(ii)前記学習用第1コンカチネート済み特徴ベクトルないし前記学習用第nコンカチネート済み特徴ベクトルに対して加重平均(Weighted Average)させて、前記学習用自律走行モード値を生成させることを特徴とする請求項12に記載の装置。 - 前記(I)プロセスで、
前記プロセッサは、前記第1CNNないし前記第nCNNそれぞれをもって、(i)前記第1_kトレーニングイメージと前記第2_kトレーニングイメージとをそれぞれコンカチネートさせて第kコンカチネート済みトレーニングイメージを生成させ、(ii)前記第kコンカチネート済みトレーニングイメージに対してコンボリューション演算を適用させて前記学習用第1特徴マップないし前記学習用第n特徴マップを生成させる請求項12に記載の装置。 - 前記(II)プロセスで、
前記プロセッサは、(i)前記第1_kLSTMモデルをもって、前記学習用第1_(k+1)アップデート特徴マップと前記学習用第1_k特徴マップとを参照して、学習用走行環境が危険状況(Hazard Situation)であるかを前記第1_kトレーニングイメージと前記第2_kトレーニングイメージとの前記ペアを参照して確認するのに使用される特徴に対応する前記学習用第1_1特徴ベクトルないし前記学習用第1_n特徴ベクトルを生成させるプロセス、及び(ii)前記第2_kLSTMモデルをもって、前記学習用第2_(k−1)アップデート特徴マップと前記学習用第2_k特徴マップとを参照して、前記学習用走行環境が危険状況であるかを前記第1_kトレーニングイメージと前記第2_kトレーニングイメージとの前記ペアを参照して確認するのに使用される特徴に対応する前記学習用第2_1特徴ベクトルないし前記学習用第2_n特徴ベクトルを生成させるプロセスを遂行することを特徴とする請求項12に記載の装置。 - 前記(III)プロセスで、
前記プロセッサは、前記ロスレイヤをもって、ソフトマックス(Softmax)アルゴリズムを利用して前記学習用自律走行モード値を正規化(Normalize)するプロセス、及び正規化された前記学習用自律走行モード値と前記原本正解とを参照して前記ロスを算出するプロセスを遂行することを特徴とする請求項12に記載の装置。 - 前記第1_1トレーニングイメージないし前記第1_nトレーニングイメージと前記第2_1トレーニングイメージないし前記第2_nトレーニングイメージとは、(i)(i−1)前記学習用自律走行自動車の前記学習用前方カメラから撮影される映像を予め設定された時間間隔でサンプリングして第1シーケンスイメージを抽出するプロセス、及び(i−2)抽出された前記第1シーケンスイメージそれぞれに対して自律走行が可能であるか否かをラベリングするプロセス、及び(ii)(ii−1)前記学習用自律走行自動車の前記学習用後方カメラから撮影される映像を前記予め設定された時間間隔でサンプリングして第2シーケンスイメージを抽出するプロセス、及び(ii−2)サンプリングされた前記第2シーケンスイメージそれぞれに対して自律走行が可能であるか否かをラベリングするプロセスを遂行して生成されることを特徴とする請求項12に記載の装置。
- 前記(III)プロセスで、
前記原本正解は、前記シーケンスイメージのうち前記第1_1トレーニングイメージないし前記第1_nトレーニングイメージのネクストシーケンスに対応する第1ネクストシーケンスイメージ(Next Sequence Image)と、前記第2_1トレーニングイメージないし前記第2_nトレーニングイメージとの前記ネクストシーケンスに対応する第2ネクストシーケンスイメージから取得されることを特徴とする請求項12に記載の装置。 - 自律走行自動車の走行モード変更のために使用される、自律走行の安全性を確認するRNN(Recurrent Neural Network)をテストするテスト装置において、
インストラクションを格納する少なくとも一つのメモリと、
(I)学習用自律走行自動車の学習用前方カメラと学習用後方カメラとにそれぞれ対応するシーケンスイメージである第1_1トレーニングイメージないし第1_nトレーニングイメージと第2_1トレーニングイメージないし第2_nトレーニングイメージとが取得されると、学習装置が、(i)第1_kトレーニングイメージと第2_kトレーニングイメージ(前記kは整数であり、シーケンスはnから1に進行する)とで構成されたペア(Pair)それぞれを、前記ペアそれぞれのシーケンスに対応する第1CNN(Convolutional Neural Network)ないし第nCNNにそれぞれ入力して、第kCNNをもって、前記第1_kトレーニングイメージと前記第2_kトレーニングイメージとをコンカチネート(Concatenating)させた後、前記第1_kトレーニングイメージと前記第2_kトレーニングイメージとのコンカチネーティング結果に対してコンボリューション演算を適用して学習用第1特徴マップ(Feature Map)ないし学習用第n特徴マップを生成させるプロセス、(ii)前記学習用第1特徴マップないし前記学習用第n特徴マップをフォワードRNN(Forward RNN)のそれぞれのシーケンスに対応する第1_1LSTM(Long Short−Term Memory)モデルないし第1_nLSTMモデルそれぞれに入力し、バックワードRNN(Backward RNN)のそれぞれのシーケンスに対応する第2_1LSTMモデルないし第2_nLSTMモデルそれぞれに入力して、(ii−1)第1_kLSTMモデルをもって、(ii−1−a)第1_(k+1)LSTMモデルから出力される学習用第1_(k+1)アップデート特徴マップ(Updated Feature Map)と前記第kCNNから出力される学習用第k特徴マップとをいずれも参照して前記学習用第k特徴マップをアップデートした結果である学習用第1_kアップデート特徴マップを生成させ、(ii−1−b)前記学習用第1_kアップデート特徴マップに対してFC演算(Fully Connected Operation)を適用した結果である学習用第1_1特徴ベクトルないし学習用第1_n特徴ベクトルを生成させ、(ii−2)第2_kLSTMモデルをもって、(ii−2−a)第2_(k−1)LSTMモデルから出力される学習用第2_(k−1)アップデート特徴マップと前記第kCNNから出力される前記学習用第k特徴マップとをいずれも参照して前記学習用第k特徴マップをアップデートした結果である学習用第2_kアップデート特徴マップを生成させ、(ii−2−b)前記学習用第2_kアップデート特徴マップに対してFC演算を適用した結果である学習用第2_1特徴ベクトルないし学習用第2_n特徴ベクトルを生成させるプロセス、(iii)前記学習用第1_1特徴ベクトルないし前記学習用第1_n特徴ベクトルと前記学習用第2_1特徴ベクトルないし前記学習用第2_n特徴ベクトルとをアテンションレイヤ(Attention Layer)に入力して、前記アテンションレイヤをもって、前記学習用第1_1特徴ベクトルないし前記学習用第1_n特徴ベクトルと前記学習用第2_1特徴ベクトルないし前記学習用第2_n特徴ベクトルとを参照して、前記第1_1トレーニングイメージないし前記第1_nトレーニングイメージと前記第2_1トレーニングイメージないし前記第2_nトレーニングイメージとのすべてのシーケンスにおける学習用自律走行モード値(Autonomous−Driving Mode Value)を生成させるプロセス、及び(iv)ロスレイヤ(Loss Layer)をもって、前記学習用自律走行モード値とこれに対応する原本正解(Ground Truth)とを参照して少なくとも一つのロスを算出させるプロセス、及び前記ロスを利用したバックプロパゲーションを通じて前記ロスを最小化するように前記第1_1LSTMモデルないし前記第1_nLSTMモデルと前記第2_1LSTMモデルないし前記第2_nLSTMモデルとを学習するプロセスを遂行した状態で、走行中であるテスト用自律走行自動車のテスト用前方カメラとテスト用後方カメラとから前記テスト用自律走行自動車のテスト用前方映像とテスト用後方映像とが取得されると、前記テスト用前方映像の現在フレームに対応する第1テストイメージと前記テスト用後方映像の前記現在フレームに対応する第2テストイメージとを前記第1CNNに入力して、前記第1CNNをもって、前記第1テストイメージと前記第2テストイメージとのコンカチネーティング結果に対してコンボリューション演算を適用してテスト用第1特徴マップを生成させるプロセス、及び(II)(i)前記テスト用第1特徴マップないし前記テスト用第n特徴マップを前記フォワードRNNのそれぞれのシーケンスに対応する前記第1_1LSTMモデルないし前記第1_nLSTMモデルそれぞれに入力し、前記バックワードRNNのそれぞれのシーケンスに対応する前記第2_1LSTMモデルないし前記第2_nLSTMモデルそれぞれに入力して、(i−1)前記第1_kLSTMモデルをもって、(i−1−a)前記第1_(k+1)LSTMモデルから出力されるテスト用第1_(k+1)アップデート特徴マップ(Updated Feature Map)と前記第kCNNから出力されるテスト用第k特徴マップとをいずれも参照して、前記テスト用第k特徴マップをアップデートした結果であるテスト用第1_kアップデート特徴マップを生成させ、(i−1−b)前記テスト用第1_kアップデート特徴マップに対してFC演算を適用した結果であるテスト用第1_1特徴ベクトルないしテスト用第1_n特徴ベクトルを生成させ、(i−2)前記第2_kLSTMモデルをもって、(i−2−a)前記第2_(k−1)LSTMモデルから出力されるテスト用第2_(k−1)アップデート特徴マップと前記第kCNNから出力される前記テスト用第k特徴マップとをいずれも参照して、前記テスト用第k特徴マップをアップデートした結果であるテスト用第2_kアップデート特徴マップを生成させ、(i−2−b)前記テスト用第2_kアップデート特徴マップに対してFC演算を適用した結果であるテスト用第2_1特徴ベクトルないしテスト用第2_n特徴ベクトルを生成させるプロセス、及び(ii)前記テスト用第1_1特徴ベクトルないし前記テスト用第1_n特徴ベクトルと前記テスト用第2_1特徴ベクトルないし前記テスト用第2_n特徴ベクトルとを前記アテンションレイヤに入力して、前記アテンションレイヤをもって、前記テスト用第1_1特徴ベクトルないし前記テスト用 第1_n特徴ベクトルと前記テスト用第2_1特徴ベクトルないし前記テスト用第2_n特徴ベクトルとを参照して前記第1_1テストイメージないし前記第1_nテストイメージと前記第2_1テストイメージないし前記第2_nテストイメージとのすべてのシーケンスにおけるテスト用自律走行モード値を生成させるプロセスを遂行するための前記インストラクションを実行するように構成された少なくとも一つのプロセッサと、
を含むことを特徴とする装置。 - 前記(II)プロセスで、
前記プロセッサは、前記アテンションレイヤをもって、(i)テスト用第1_k特徴ベクトルとテスト用第2_k特徴ベクトルとをコンカチネートさせて、テスト用第1コンカチネート済み特徴ベクトルないしテスト用第nコンカチネート済み特徴ベクトルを生成させ、(ii)前記テスト用第1コンカチネート済み特徴ベクトルないし前記テスト用第nコンカチネート済み特徴ベクトルに対して加重平均(Weighted Average)させて、前記テスト用自律走行モード値を生成させるプロセスを遂行することを特徴とする請求項19に記載の装置。 - 前記(I)プロセスで、
前記プロセッサは、前記第1CNNをもって、(i)前記第1テストイメージと前記第2テストイメージとをコンカチネートさせて第1コンカチネート済みテストイメージを生成させ、(ii)前記第1コンカチネート済みテストイメージに対してコンボリューション演算を適用させて、前記テスト用第1特徴マップを生成させるプロセスを遂行することを特徴とする請求項19に記載の装置。 - 前記(II)プロセスで、
前記プロセッサは、(i)前記第1_1LSTMモデルをもって、前記テスト用第1_2アップデート特徴マップと前記テスト用第1特徴マップとを参照して、テスト用走行環境が危険状況(Hazard Situation)であるかを前記第1テストイメージと前記第2テストイメージとのペアを参照して確認するのに使用される特徴に対応する前記テスト用第1_1特徴ベクトルを生成させるプロセス、(ii)前記第2_1LSTMモデルをもって、前記テスト用第2_1アップデート特徴マップを参照して、前記テスト用走行環境が危険状況であるかを前記第1テストイメージと前記第2テストイメージとの前記ペアを参照して確認するのに使用される特徴に対応する前記テスト用第2_1特徴ベクトルを生成させるプロセス、及び(iii)前記第2_mLSTMモデルをもって、前記テスト用第2_(m−1)アップデート特徴マップと前記テスト用第m特徴マップとを参照して、前記テスト用走行環境が危険状況であるかを前記第1テストイメージと前記第2テストイメージとの前記ペアを参照して確認するのに使用される特徴に対応するテスト用第2_2特徴ベクトルないし前記テスト用第2_n特徴ベクトルを生成させるプロセスを遂行することを特徴とする請求項19に記載の装置。
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201962798946P | 2019-01-30 | 2019-01-30 | |
US62/798,946 | 2019-01-30 | ||
US16/723,753 US11087175B2 (en) | 2019-01-30 | 2019-12-20 | Learning method and learning device of recurrent neural network for autonomous driving safety check for changing driving mode between autonomous driving mode and manual driving mode, and testing method and testing device using them |
US16/723,753 | 2019-12-20 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020123334A true JP2020123334A (ja) | 2020-08-13 |
JP6850047B2 JP6850047B2 (ja) | 2021-03-31 |
Family
ID=69167685
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020007151A Active JP6850047B2 (ja) | 2019-01-30 | 2020-01-20 | 自律走行モードとマニュアル走行モードとの間の走行モードを変更するために自律走行の安全を確認するためのrnnの学習方法及び学習装置、そしてテスト方法及びテスト装置 |
Country Status (5)
Country | Link |
---|---|
US (1) | US11087175B2 (ja) |
EP (1) | EP3690709B1 (ja) |
JP (1) | JP6850047B2 (ja) |
KR (1) | KR102396267B1 (ja) |
CN (1) | CN111507163B (ja) |
Families Citing this family (26)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10678244B2 (en) | 2017-03-23 | 2020-06-09 | Tesla, Inc. | Data synthesis for autonomous control systems |
US11409692B2 (en) | 2017-07-24 | 2022-08-09 | Tesla, Inc. | Vector computational unit |
US10671349B2 (en) | 2017-07-24 | 2020-06-02 | Tesla, Inc. | Accelerated mathematical engine |
US11157441B2 (en) | 2017-07-24 | 2021-10-26 | Tesla, Inc. | Computational array microprocessor system using non-consecutive data formatting |
US11893393B2 (en) | 2017-07-24 | 2024-02-06 | Tesla, Inc. | Computational array microprocessor system with hardware arbiter managing memory requests |
US11561791B2 (en) | 2018-02-01 | 2023-01-24 | Tesla, Inc. | Vector computational unit receiving data elements in parallel from a last row of a computational array |
US11215999B2 (en) | 2018-06-20 | 2022-01-04 | Tesla, Inc. | Data pipeline and deep learning system for autonomous driving |
US11361457B2 (en) | 2018-07-20 | 2022-06-14 | Tesla, Inc. | Annotation cross-labeling for autonomous control systems |
US11636333B2 (en) | 2018-07-26 | 2023-04-25 | Tesla, Inc. | Optimizing neural network structures for embedded systems |
US11562231B2 (en) | 2018-09-03 | 2023-01-24 | Tesla, Inc. | Neural networks for embedded devices |
SG11202103493QA (en) | 2018-10-11 | 2021-05-28 | Tesla Inc | Systems and methods for training machine models with augmented data |
US11196678B2 (en) | 2018-10-25 | 2021-12-07 | Tesla, Inc. | QOS manager for system on a chip communications |
US11816585B2 (en) | 2018-12-03 | 2023-11-14 | Tesla, Inc. | Machine learning models operating at different frequencies for autonomous vehicles |
US11537811B2 (en) | 2018-12-04 | 2022-12-27 | Tesla, Inc. | Enhanced object detection for autonomous vehicles based on field view |
US11610117B2 (en) | 2018-12-27 | 2023-03-21 | Tesla, Inc. | System and method for adapting a neural network model on a hardware platform |
US10997461B2 (en) | 2019-02-01 | 2021-05-04 | Tesla, Inc. | Generating ground truth for machine learning from time series elements |
US11150664B2 (en) | 2019-02-01 | 2021-10-19 | Tesla, Inc. | Predicting three-dimensional features for autonomous driving |
US11567514B2 (en) | 2019-02-11 | 2023-01-31 | Tesla, Inc. | Autonomous and user controlled vehicle summon to a target |
US10956755B2 (en) | 2019-02-19 | 2021-03-23 | Tesla, Inc. | Estimating object properties using visual image data |
US11772671B2 (en) * | 2019-06-03 | 2023-10-03 | Toyota Research Institute, Inc. | Systems and methods for predicting control handback |
EP3915851B1 (en) * | 2020-05-28 | 2024-05-01 | Zenuity AB | System and method for estimating take-over time |
CN112622929A (zh) * | 2020-12-12 | 2021-04-09 | 王伟伟 | 一种带有速度调控旋钮的急停式自动驾驶系统 |
KR20220150096A (ko) | 2021-05-03 | 2022-11-10 | 현대모비스 주식회사 | 딥러닝 머신 및 그 운용방법 |
KR102531838B1 (ko) * | 2021-05-06 | 2023-05-12 | 대한민국 | 극자외선 태양 영상을 사용하여 지자기 교란 지수를 예측하는 학습 방법 및 학습 장치, 그리고 이를 이용한 테스트 방법 및 테스트 장치 |
US12066920B2 (en) * | 2022-05-13 | 2024-08-20 | Microsoft Technology Licensing, Llc | Automated software testing with reinforcement learning |
CN116483059B (zh) * | 2023-06-20 | 2023-10-03 | 卡斯柯信号(北京)有限公司 | 一种全自动无人驾驶的蠕动模式测试方法及装置 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017159884A (ja) * | 2016-03-10 | 2017-09-14 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America | 運転制御装置、運転制御方法及び運転制御プログラム |
WO2017209225A1 (ja) * | 2016-06-02 | 2017-12-07 | オムロン株式会社 | 状態推定装置、状態推定方法、及び状態推定プログラム |
WO2018158642A1 (en) * | 2017-03-01 | 2018-09-07 | Mobileye Vision Technologies Ltd. | Systems and methods for navigating with sensing uncertainty |
WO2018168040A1 (ja) * | 2017-03-14 | 2018-09-20 | オムロン株式会社 | 運転者監視装置、運転者監視方法、学習装置及び学習方法 |
Family Cites Families (27)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8825258B2 (en) | 2012-11-30 | 2014-09-02 | Google Inc. | Engaging and disengaging for autonomous driving |
KR102137213B1 (ko) | 2015-11-16 | 2020-08-13 | 삼성전자 주식회사 | 자율 주행을 위한 모델 학습 장치 및 방법과 자율 주행 장치 |
US9802599B2 (en) * | 2016-03-08 | 2017-10-31 | Ford Global Technologies, Llc | Vehicle lane placement |
US10402653B2 (en) * | 2016-03-30 | 2019-09-03 | Nec Corporation | Large margin high-order deep learning with auxiliary tasks for video-based anomaly detection |
WO2017208529A1 (ja) | 2016-06-02 | 2017-12-07 | オムロン株式会社 | 運転者状態推定装置、運転者状態推定システム、運転者状態推定方法、運転者状態推定プログラム、対象者状態推定装置、対象者状態推定方法、対象者状態推定プログラム、および記録媒体 |
US10438493B2 (en) | 2016-08-24 | 2019-10-08 | Uber Technologies, Inc. | Hybrid trip planning for autonomous vehicles |
US11308350B2 (en) * | 2016-11-07 | 2022-04-19 | Qualcomm Incorporated | Deep cross-correlation learning for object tracking |
US20180203457A1 (en) * | 2017-01-13 | 2018-07-19 | Ford Global Technologies, Llc | System and Method for Avoiding Interference with a Bus |
US10198655B2 (en) * | 2017-01-24 | 2019-02-05 | Ford Global Technologies, Llc | Object detection using recurrent neural network and concatenated feature map |
KR20180094725A (ko) * | 2017-02-16 | 2018-08-24 | 삼성전자주식회사 | 자율 주행을 위한 차량 제어 방법, 차량 제어 장치 및 자율 주행을 위한 학습 방법 |
US10593042B1 (en) * | 2017-04-11 | 2020-03-17 | Zoox, Inc. | Perspective conversion for multi-dimensional data analysis |
US20180299841A1 (en) * | 2017-04-17 | 2018-10-18 | Intel Corporation | Autonomous vehicle neural network optimization |
US10922566B2 (en) * | 2017-05-09 | 2021-02-16 | Affectiva, Inc. | Cognitive state evaluation for vehicle navigation |
US10543853B2 (en) | 2017-07-05 | 2020-01-28 | Toyota Motor Engineering & Manufacturing North America, Inc. | Systems and methods for providing collaborative control of a vehicle |
US10402995B2 (en) * | 2017-07-27 | 2019-09-03 | Here Global B.V. | Method, apparatus, and system for real-time object detection using a cursor recurrent neural network |
US11741354B2 (en) * | 2017-08-25 | 2023-08-29 | Ford Global Technologies, Llc | Shared processing with deep neural networks |
US10691962B2 (en) * | 2017-09-22 | 2020-06-23 | Toyota Motor Engineering & Manufacturing North America, Inc. | Systems and methods for rear signal identification using machine learning |
US10438371B2 (en) * | 2017-09-22 | 2019-10-08 | Zoox, Inc. | Three-dimensional bounding box from two-dimensional image and point cloud data |
US9934440B1 (en) * | 2017-10-04 | 2018-04-03 | StradVision, Inc. | Method for monitoring blind spot of monitoring vehicle and blind spot monitor using the same |
US10169679B1 (en) * | 2017-10-13 | 2019-01-01 | StradVision, Inc. | Learning method and learning device for adjusting parameters of CNN by using loss augmentation and testing method and testing device using the same |
CN108052512B (zh) * | 2017-11-03 | 2021-05-11 | 同济大学 | 一种基于深度注意力机制的图像描述生成方法 |
US10908614B2 (en) * | 2017-12-19 | 2021-02-02 | Here Global B.V. | Method and apparatus for providing unknown moving object detection |
US10657391B2 (en) * | 2018-01-05 | 2020-05-19 | Uatc, Llc | Systems and methods for image-based free space detection |
CN108875807B (zh) * | 2018-05-31 | 2022-05-27 | 陕西师范大学 | 一种基于多注意力多尺度的图像描述方法 |
CN108944930B (zh) * | 2018-07-05 | 2020-04-21 | 合肥工业大学 | 一种基于lstm的模拟驾驶员特性的自动跟车方法及系统 |
US11600006B2 (en) * | 2018-10-26 | 2023-03-07 | Here Global B.V. | Deep neural network architecture for image segmentation |
US10691133B1 (en) * | 2019-11-26 | 2020-06-23 | Apex Artificial Intelligence Industries, Inc. | Adaptive and interchangeable neural networks |
-
2019
- 2019-12-20 US US16/723,753 patent/US11087175B2/en active Active
-
2020
- 2020-01-06 KR KR1020200001714A patent/KR102396267B1/ko active IP Right Grant
- 2020-01-14 EP EP20151660.6A patent/EP3690709B1/en active Active
- 2020-01-20 JP JP2020007151A patent/JP6850047B2/ja active Active
- 2020-01-21 CN CN202010071988.6A patent/CN111507163B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017159884A (ja) * | 2016-03-10 | 2017-09-14 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America | 運転制御装置、運転制御方法及び運転制御プログラム |
WO2017209225A1 (ja) * | 2016-06-02 | 2017-12-07 | オムロン株式会社 | 状態推定装置、状態推定方法、及び状態推定プログラム |
WO2018158642A1 (en) * | 2017-03-01 | 2018-09-07 | Mobileye Vision Technologies Ltd. | Systems and methods for navigating with sensing uncertainty |
WO2018168040A1 (ja) * | 2017-03-14 | 2018-09-20 | オムロン株式会社 | 運転者監視装置、運転者監視方法、学習装置及び学習方法 |
Also Published As
Publication number | Publication date |
---|---|
US20200242408A1 (en) | 2020-07-30 |
EP3690709C0 (en) | 2023-11-01 |
CN111507163B (zh) | 2023-10-17 |
KR102396267B1 (ko) | 2022-05-11 |
EP3690709B1 (en) | 2023-11-01 |
KR20200095355A (ko) | 2020-08-10 |
US11087175B2 (en) | 2021-08-10 |
EP3690709A1 (en) | 2020-08-05 |
JP6850047B2 (ja) | 2021-03-31 |
CN111507163A (zh) | 2020-08-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2020123334A (ja) | 自律走行モードとマニュアル走行モードとの間の走行モードを変更するために自律走行の安全を確認するためのrnnの学習方法及び学習装置、そしてテスト方法及びテスト装置 | |
KR102373456B1 (ko) | 자동 주차 시스템을 제공하기 위해 결정 지점 간의 관계 및 결정 지점에 대한 리그레션 결과를 이용하여 주차 공간을 검출하는 학습 방법 및 학습 장치, 그리고 이를 이용한 테스팅 방법 및 테스팅 장치 | |
JP6857371B2 (ja) | 安全な自律走行を支援する学習方法、そしてこれを利用した学習装置、テスト方法、及びテスト装置 | |
US10943148B2 (en) | Inspection neural network for assessing neural network reliability | |
US20200239029A1 (en) | Learning method and learning device for determining whether to switch mode of vehicle from manual driving mode to autonomous driving mode by performing trajectory-based behavior analysis on recent driving route | |
US10832140B2 (en) | Method and device for providing information for evaluating driving habits of driver by detecting driving scenarios occurring during driving | |
CN109598184B (zh) | 一种多分割任务的处理方法和装置 | |
JP6849932B2 (ja) | 高精密度のイメージを分析するためのディープラーニングネットワークを使用するためにトレーニングイメージをオートラベリングするオートラベルリング装置のハイパーパラメータを最適化する方法、及びこれを利用した最適化装置 | |
EP3686798B1 (en) | Learning method and learning device for objet detector based on cnn | |
JP2020123330A (ja) | ニューラルネットワーク学習に利用されるオートラベリングされたイメージのうちでラベル検収のためのサンプルイメージを取得する方法、及びそれを利用したサンプルイメージ取得装置 | |
KR102301631B1 (ko) | 협업 주행을 수행하는 자동차들로부터 획득된 주행 이미지들을 통합하는 방법 및 이를 이용한 주행 이미지 통합 장치 | |
JP2020119522A (ja) | 物体検出器の学習方法及びテスト方法、それを利用した学習装置及びテスト装置 | |
CN112307978B (zh) | 目标检测方法、装置、电子设备及可读存储介质 | |
KR102320995B1 (ko) | 객체의 스케일에 따라 모드 전환이 가능한 cnn 기반의 감시용 객체 검출기의 학습 방법 및 학습 장치, 이를 이용한 테스트 방법 및 테스트 장치 | |
JP2020126618A (ja) | 自律走行ネットワークの検出プロセスを検証する説明可能な人工知能を利用して運転者に潜在的リスクの状況について警告することにより機能的安全性を提供する学習方法及び学習装置、そしてこれを用いたテスティング方法及びテスティング装置{learning method and learning device for providing functional safety by warning driver about potential dangerous situation by using explainable ai which verifies detection processes of autonomous driving network, and testing method and testing device using the same} | |
US20200349369A1 (en) | Method and apparatus for training traffic sign idenfication model, and method and apparatus for identifying traffic sign | |
US10872297B2 (en) | Learning method and learning device for generating training data from virtual data on virtual world by using generative adversarial network, to thereby reduce annotation cost required in training processes of neural network for autonomous driving, and a testing method and a testing device using the same | |
JP2020123336A (ja) | 多数の車両によるセンサーフュージョン、v2x通信可能なアプリケーションを利用した協業走行のために周囲に位置するカメラそれぞれに対応するそれぞれの物体検出器によって検出される物体検出情報を統合する方法及び装置 | |
CN112597996A (zh) | 基于任务驱动的自然场景中交通标志显著性检测方法 | |
JP2020126621A (ja) | 自律走行に対する論理的根拠を提示するために、管理者が物体検出器の検出プロセスを評価できるように支援する方法及び装置 | |
CN111738046A (zh) | 对用于基于深度学习的装置的学习的虚拟世界模拟器的物理引擎进行标定的方法及装置 | |
KR102224778B1 (ko) | 횡 필터 마스크를 이용하여 자율 주행 차량의 주행 경로를 계획하기 위해 차선 요소를 검출하는 방법 및 장치 | |
Valeja et al. | Speed Limit Sign Detection using Deep Learning | |
CN113031600B (zh) | 一种轨迹生成方法、装置、存储介质及电子设备 | |
KR20230056250A (ko) | 인공지능 기반 차선 손상 상태 평가 방법 및 장치 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200120 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200122 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210202 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210226 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6850047 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |