[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2020123334A - 自律走行モードとマニュアル走行モードとの間の走行モードを変更するために自律走行の安全を確認するためのrnnの学習方法及び学習装置、そしてテスト方法及びテスト装置 - Google Patents

自律走行モードとマニュアル走行モードとの間の走行モードを変更するために自律走行の安全を確認するためのrnnの学習方法及び学習装置、そしてテスト方法及びテスト装置 Download PDF

Info

Publication number
JP2020123334A
JP2020123334A JP2020007151A JP2020007151A JP2020123334A JP 2020123334 A JP2020123334 A JP 2020123334A JP 2020007151 A JP2020007151 A JP 2020007151A JP 2020007151 A JP2020007151 A JP 2020007151A JP 2020123334 A JP2020123334 A JP 2020123334A
Authority
JP
Japan
Prior art keywords
learning
test
feature map
feature vector
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020007151A
Other languages
English (en)
Other versions
JP6850047B2 (ja
Inventor
ゲヒョン キム
Kye-Hyeon Kim
ゲヒョン キム
ヨンジュン キム
Yong-Jun Kim
ヨンジュン キム
ハクギョン キム
Hak Kyoung Kim
ハクギョン キム
ウンヒョン ナム
Woonhyun Nam
ウンヒョン ナム
ソクフン ブ
Sukhoon Boo
ソクフン ブ
ミョンチョル ソン
Myungchul Sung
ミョンチョル ソン
ドンス シン
Dongsoo Shin
ドンス シン
ドンフン ヨ
Donghun Yeo
ドンフン ヨ
ウジュ リュ
Wooju Ryu
ウジュ リュ
ミョンチユン イ
Myeong-Chun Lee
ミョンチユン イ
ヒョンス イ
Hyungsoo Lee
ヒョンス イ
テウン ジャン
Taewoong Jang
テウン ジャン
ギョンジュン ジョン
Kyungjoong Jeong
ギョンジュン ジョン
ホンモ ジェ
Hongmo Je
ホンモ ジェ
ホジン ジョ
Hojin Cho
ホジン ジョ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Stradvision Inc
Original Assignee
Stradvision Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Stradvision Inc filed Critical Stradvision Inc
Publication of JP2020123334A publication Critical patent/JP2020123334A/ja
Application granted granted Critical
Publication of JP6850047B2 publication Critical patent/JP6850047B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/082Selecting or switching between different modes of propelling
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • B60W60/0015Planning or execution of driving tasks specially adapted for safety
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/005Handover processes
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0088Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/211Selection of the most significant subset of features
    • G06F18/2115Selection of the most significant subset of features by evaluating different subsets according to an optimisation criterion, e.g. class separability, forward selection or backward elimination
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • G06F18/2148Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the process organisation or structure, e.g. boosting cascade
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/217Validation; Performance evaluation; Active pattern learning techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0001Details of the control system
    • B60W2050/0019Control system elements or transfer functions
    • B60W2050/0026Lookup tables or parameter maps
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0001Details of the control system
    • B60W2050/0043Signal treatments, identification of variables or parameters, parameter estimation or state estimation
    • B60W2050/005Sampling
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60YINDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
    • B60Y2300/00Purposes or special features of road vehicle drive control systems
    • B60Y2300/08Predicting or avoiding probable or impending collision
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0214Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory in accordance with safety or protection criteria, e.g. avoiding hazardous areas

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Automation & Control Theory (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Evolutionary Biology (AREA)
  • Multimedia (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Human Computer Interaction (AREA)
  • Medical Informatics (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Databases & Information Systems (AREA)
  • Business, Economics & Management (AREA)
  • Game Theory and Decision Science (AREA)
  • Electromagnetism (AREA)
  • Image Analysis (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
  • Traffic Control Systems (AREA)

Abstract

【課題】自律走行モードとマニュアル走行モードとの間のモード変更のためのRNN(Recurrent Neural Network)を学習する方法及び装置を提供する。【解決手段】学習装置は、自律走行自動車の前方及び後方カメラに対応するトレーニングイメージが取得されると、トレーニングイメージのそれぞれのペアを対応するCNNに入力して、トレーニングイメージをコンカチネートして学習用特徴マップを生成する段階と、学習用特徴マップをフォワードRNNのシーケンスに対応するLSTM(Long Short−Term Memory)モデルとバックワードRNNのシーケンスに対応するLSTMに入力して、学習用アップデート特徴マップを生成し、学習用特徴ベクトルをアテンションレイヤに入力して学習用自動走行モード値を生成する段階と、ロスレイヤをもって、ロスを算出させてLSTMモデルを学習させる段階と、を含む。【選択図】図2

Description

本発明は、自律走行モードとマニュアル走行モードとの間のモード変更のためのRNN(Recurrent Neural Network)を学習する方法及び装置、そしてこれを利用してテストする方法及び装置に関し、より詳細には、統合された多数のカメラ情報を利用して自律走行自動車の危険状況を認識して、自律走行モードとマニュアル走行モードとの間の走行モードを変更するために少なくとも一つの自律走行の安全を確認するRNNを学習する方法及び装置、そしてこれを利用してテストする方法及び装置に関する。
自律走行自動車は、一つの場所から他の場所に乗客を輸送するのに役立つ様々なコンピューティングシステムを使用する。一部の自律走行自動車は、パイロット、運転者または乗客のような運営者から一部の初期入力または連続入力を取得することができる。他のシステム、例えばオートパイロットシステムは、運営者がマニュアル走行モードから自動走行モードに変更し得るようにすることができる。
特に、米国登録特許US8818608号には、特定の条件下で自律走行モードをマニュアル走行モードに変更する方法が開示されている。
しかしながら、従来の自律走行自動車において走行モードを変更するためには様々な走行情報が必要である。このために、様々なセンサが従来の自律走行自動車に設置されなければならないため、従来の自律走行自動車の製造費用を増加させる問題点がある。
また、従来の自律走行自動車では、走行モードを変更するために様々なセンサから大量のセンサ情報を処理しなければならないため、莫大なコンピューティングソース(Computing Source)が必要である。
本発明は、上述した問題点を全て解決することをその目的とする。
本発明は、自律走行自動車の製造費用を増加させずに、走行モード変更のための自律走行の安全を確認し得るようにすることを他の目的とする。
本発明は、自律走行自動車の走行モード変更のための走行情報を取得することができるセンサの数を従来の方法に比べて最小化し得るようにすることをまた他の目的とする。
本発明は、自律走行自動車の走行モード変更のための走行情報を取得するために、センサ情報処理をより少ないコンピューティングソース(Computing Source)で可能にすることをまた他の目的とする。
前記のような本発明の目的を達成し、後述する本発明の特徴的な効果を実現するための本発明の特徴的な構成は下記のとおりである。
本発明の一態様によると、自律走行自動車の走行モードを変更するために使用される、自律走行の安全性を確認するRNN(Recurrent Neural Network)を学習する方法において、(a)学習用自律走行自動車の学習用前方カメラと学習用後方カメラとにそれぞれ対応するシーケンスイメージである第1_1トレーニングイメージないし第1_nトレーニングイメージと第2_1トレーニングイメージないし第2_nトレーニングイメージとが取得されると、学習装置が、第1_kトレーニングイメージと第2_kトレーニングイメージ(前記kは整数(integer)であり、シーケンスはnから1に進行する)とで構成されたペア(Pair)それぞれを、前記ペアそれぞれのシーケンスに対応する第1CNN(Convolutional Neural Network)ないし第nCNNにそれぞれ入力して、第kCNNをもって、前記第1_kトレーニングイメージと前記第2_kトレーニングイメージとをコンカチネート(Concatenating)させた後、前記第1_kトレーニングイメージと前記第2_kトレーニングイメージとのコンカチネーティング結果に対してコンボリューション演算を適用して学習用第1特徴マップ(Feature Map)ないし学習用第n特徴マップを生成させる段階;(b)前記学習装置が、(i)前記学習用第1特徴マップないし前記学習用第n特徴マップをフォワードRNN(Forward RNN)のそれぞれのシーケンスに対応する第1_1LSTM(Long Short−Term Memory)モデルないし第1_nLSTMモデルそれぞれに入力し、バックワードRNN(Backward RNN)のそれぞれのシーケンスに対応する第2_1LSTMモデルないし第2_nLSTMモデルそれぞれに入力して、(i−1)第1_kLSTMモデルをもって、(i−1−a)第1_(k+1)LSTMモデルから出力される学習用第1_(k+1)アップデート特徴マップ(Updated Feature Map)と前記第kCNNから出力される学習用第k特徴マップとをいずれも参照して前記学習用第k特徴マップをアップデートした結果である学習用第1_kアップデート特徴マップを生成させ、(i−1−b)前記学習用第1_kアップデート特徴マップに対してFC演算(Fully Connected Operation)を適用した結果である学習用第1_1特徴ベクトルないし学習用第1_n特徴ベクトルを生成させ、(i−2)第2_kLSTMモデルをもって、(i−2−a)第2_(k−1)LSTMモデルから出力される学習用第2_(k−1)アップデート特徴マップと前記第kCNNから出力される前記学習用第k特徴マップとをいずれも参照して前記学習用第k特徴マップをアップデートした結果である学習用第2_kアップデート特徴マップを生成させ、(i−2−b)前記学習用第2_kアップデート特徴マップに対してFC演算を適用した結果である学習用第2_1特徴ベクトルないし学習用第2_n特徴ベクトルを生成させるプロセス、及び(ii)前記学習用第1_1特徴ベクトルないし前記学習用第1_n特徴ベクトルと前記学習用第2_1特徴ベクトルないし前記学習用第2_n特徴ベクトルとをアテンションレイヤ(Attention Layer)に入力して、前記アテンションレイヤをもって、前記学習用第1_1特徴ベクトルないし前記学習用第1_n特徴ベクトルと前記学習用第2_1特徴ベクトルないし前記学習用第2_n特徴ベクトルとを参照して、前記第1_1トレーニングイメージないし前記第1_nトレーニングイメージと前記第2_1トレーニングイメージないし前記第2_nトレーニングイメージとのすべてのシーケンスにおける学習用自律走行モード値(Autonomous−Driving Mode Value)を生成させるプロセスを遂行する段階;及び(c)前記学習装置が、ロスレイヤ(Loss Layer)をもって、前記学習用自律走行モード値とこれに対応する原本正解(Ground Truth)とを参照して少なくとも一つのロスを算出させるプロセス、及び前記ロスを利用したバックプロパゲーションを通じて前記ロスを最小化するように前記第1_1LSTMモデルないし前記第1_nLSTMモデルと前記第2_1LSTMモデルないし前記第2_nLSTMモデルとを学習するプロセスを遂行する段階;を含むことを特徴とする。
一実施例において、前記(b)段階で、前記学習装置は、前記アテンションレイヤをもって、(i)学習用第1_k特徴ベクトルと学習用第2_k特徴ベクトルとをコンカチネートさせて、学習用第1コンカチネート済み特徴ベクトルないし学習用第nコンカチネート済み特徴ベクトルを生成させ、(ii)前記学習用第1コンカチネート済み特徴ベクトルないし前記学習用第nコンカチネート済み特徴ベクトルに対して加重平均(Weighted Average)させて、前記学習用自律走行モード値を生成させることを特徴とする。
一実施例において、前記(a)段階で、前記学習装置は、前記第1CNNないし前記第nCNNそれぞれをもって、(i)前記第1_kトレーニングイメージと前記第2_kトレーニングイメージとをそれぞれコンカチネートさせて第kコンカチネート済みトレーニングイメージを生成させ、(ii)前記第kコンカチネート済みトレーニングイメージに対してコンボリューション演算を適用させて前記学習用第1特徴マップないし前記学習用第n特徴マップを生成させる。
一実施例において、前記(b)段階で、前記学習装置は、(i)前記第1_kLSTMモデルをもって、前記学習用第1_(k+1)アップデート特徴マップと前記学習用第1_k特徴マップとを参照して、学習用走行環境が危険状況(Hazard Situation)であるかを前記第1_kトレーニングイメージと前記第2_kトレーニングイメージとの前記ペアを参照して確認するのに使用される特徴に対応する前記学習用第1_1特徴ベクトルないし前記学習用第1_n特徴ベクトルを生成させるプロセス、及び(ii)前記第2_kLSTMモデルをもって、前記学習用第2_(k−1)アップデート特徴マップと前記学習用第2_k特徴マップとを参照して、前記学習用走行環境が危険状況であるかを前記第1_kトレーニングイメージと前記第2_kトレーニングイメージとの前記ペアを参照して確認するのに使用される特徴に対応する前記学習用第2_1特徴ベクトルないし前記学習用第2_n特徴ベクトルを生成させるプロセスを遂行することを特徴とする。
一実施例において、前記(c)段階で、前記学習装置は、前記ロスレイヤをもって、ソフトマックス(Softmax)アルゴリズムを利用して前記学習用自律走行モード値を正規化(Normalize)するプロセス、及び正規化された前記学習用自律走行モード値と前記原本正解とを参照して前記ロスを算出するプロセスを遂行することを特徴とする。
一実施例において、前記第1_1トレーニングイメージないし前記第1_nトレーニングイメージと前記第2_1トレーニングイメージないし前記第2_nトレーニングイメージとは、(i)(i−1)前記学習用自律走行自動車の前記学習用前方カメラから撮影される映像を予め設定された時間間隔でサンプリングして第1シーケンスイメージを抽出するプロセス、及び(i−2)抽出された前記第1シーケンスイメージそれぞれに対して自律走行が可能であるか否かをラベリングするプロセス、及び(ii)(ii−1)前記学習用自律走行自動車の前記学習用後方カメラから撮影される映像を前記予め設定された時間間隔でサンプリングして第2シーケンスイメージを抽出するプロセス、及び(ii−2)サンプリングされた前記第2シーケンスイメージそれぞれに対して自律走行が可能であるか否かをラベリングするプロセスを遂行して生成されることを特徴とする。
一実施例において、前記(c)段階で、前記原本正解は、前記シーケンスイメージのうち前記第1_1トレーニングイメージないし前記第1_nトレーニングイメージのネクストシーケンスに対応する第1ネクストシーケンスイメージ(Next Sequence Image)と、前記第2_1トレーニングイメージないし前記第2_nトレーニングイメージとの前記ネクストシーケンスに対応する第2ネクストシーケンスイメージから取得されることを特徴とする。
本発明の他の態様によると、自律走行自動車の走行モード変更のために使用される、自律走行の安全性を確認するRNN(Recurrent Neural Network)をテストする方法において、(a)学習用自律走行自動車の学習用前方カメラと学習用後方カメラとにそれぞれ対応するシーケンスイメージである第1_1トレーニングイメージないし第1_nトレーニングイメージと第2_1トレーニングイメージないし第2_nトレーニングイメージとが取得されると、学習装置が、(i)第1_kトレーニングイメージと第2_kトレーニングイメージ(前記kは整数であり、シーケンスはnから1に進行する)とで構成されたペア(Pair)それぞれを、前記ペアそれぞれのシーケンスに対応する第1CNN(Convolutional Neural Network)ないし第nCNNにそれぞれ入力して、第kCNNをもって、前記第1_kトレーニングイメージと前記第2_kトレーニングイメージとをコンカチネート(Concatenating)させた後、前記第1_kトレーニングイメージと前記第2_kトレーニングイメージとのコンカチネーティング結果に対してコンボリューション演算を適用して学習用第1特徴マップ(Feature Map)ないし学習用第n特徴マップを生成させるプロセス、(ii)前記学習用第1特徴マップないし前記学習用第n特徴マップをフォワードRNN(Forward RNN)のそれぞれのシーケンスに対応する第1_1LSTM(Long Short−Term Memory)モデルないし第1_nLSTMモデルそれぞれに入力し、バックワードRNN(Backward RNN)のそれぞれのシーケンスに対応する第2_1LSTMモデルないし第2_nLSTMモデルそれぞれに入力して、(ii−1)第1_kLSTMモデルをもって、(ii−1−a)第1_(k+1)LSTMモデルから出力される学習用第1_(k+1)アップデート特徴マップ(Updated Feature Map)と前記第kCNNから出力される学習用第k特徴マップとをいずれも参照して前記学習用第k特徴マップをアップデートした結果である学習用第1_kアップデート特徴マップを生成させ、(ii−1−b)前記学習用第1_kアップデート特徴マップに対してFC演算(Fully Connected Operation)を適用した結果である学習用第1_1特徴ベクトルないし学習用第1_n特徴ベクトルを生成させ、(ii−2)第2_kLSTMモデルをもって、(ii−2−a)第2_(k−1)LSTMモデルから出力される学習用第2_(k−1)アップデート特徴マップと前記第kCNNから出力される前記学習用第k特徴マップとをいずれも参照して前記学習用第k特徴マップをアップデートした結果である学習用第2_kアップデート特徴マップを生成させ、(ii−2−b)前記学習用第2_kアップデート特徴マップに対してFC演算を適用した結果である学習用第2_1特徴ベクトルないし学習用第2_n特徴ベクトルを生成させるプロセス、(iii)前記学習用第1_1特徴ベクトルないし前記学習用第1_n特徴ベクトルと、前記学習用第2_1特徴ベクトルないし前記学習用第2_n特徴ベクトルとをアテンションレイヤ(Attention Layer)に入力して、前記アテンションレイヤをもって、前記学習用第1_1特徴ベクトルないし前記学習用第1_n特徴ベクトルと前記学習用第2_1特徴ベクトルないし前記学習用第2_n特徴ベクトルとを参照して、前記第1_1トレーニングイメージないし前記第1_nトレーニングイメージと前記第2_1トレーニングイメージないし前記第2_nトレーニングイメージとのすべてのシーケンスにおける学習用自律走行モード値(Autonomous−Driving Mode Value)を生成させるプロセス、及び(iv)ロスレイヤ(Loss Layer)をもって、前記学習用自律走行モード値とこれに対応する原本正解(Ground Truth)とを参照して少なくとも一つのロスを算出させるプロセス、及び前記ロスを利用したバックプロパゲーションを通じて前記ロスを最小化するように前記第1_1LSTMモデルないし前記第1_nLSTMモデルと前記第2_1LSTMモデルないし前記第2_nLSTMモデルとを学習するプロセスを遂行した状態で、走行中であるテスト用自律走行自動車のテスト用前方カメラとテスト用後方カメラとから前記テスト用自律走行自動車のテスト用前方映像とテスト用後方映像とが取得されると、テスト装置が、前記テスト用前方映像の現在フレームに対応する第1テストイメージと前記テスト用後方映像の前記現在フレームに対応する第2テストイメージとを前記第1CNNに入力して、前記第1CNNをもって、前記第1テストイメージと前記第2テストイメージとのコンカチネーティング結果に対してコンボリューション演算を適用してテスト用第1特徴マップを生成させる段階;及び(b)前記テスト装置が、(i)前記テスト用第1特徴マップないし前記テスト用第n特徴マップを前記フォワードRNNのそれぞれのシーケンスに対応する前記第1_1LSTMモデルないし前記第1_nLSTMモデルそれぞれに入力し、前記バックワードRNNのそれぞれのシーケンスに対応する前記第2_1LSTMモデルないし前記第2_nLSTMモデルそれぞれに入力して、(i−1)前記第1_kLSTMモデルをもって、(i−1−a)前記第1_(k+1)LSTMモデルから出力されるテスト用第1_(k+1)アップデート特徴マップ(Updated Feature Map)と前記第kCNNから出力されるテスト用第k特徴マップとをいずれも参照して、前記テスト用第k特徴マップをアップデートした結果であるテスト用第1_kアップデート特徴マップを生成させ、(i−1−b)前記テスト用第1_kアップデート特徴マップに対してFC演算を適用した結果であるテスト用第1_1特徴ベクトルないしテスト用第1_n特徴ベクトルを生成させ、(i−2)前記第2_kLSTMモデルをもって、(i−2−a)前記第2_(k−1)LSTMモデルから出力されるテスト用第2_(k−1)アップデート特徴マップと前記第kCNNから出力される前記テスト用第k特徴マップとをいずれも参照して、前記テスト用第k特徴マップをアップデートした結果であるテスト用第2_kアップデート特徴マップを生成させ、(i−2−b)前記テスト用第2_kアップデート特徴マップに対してFC演算を適用した結果であるテスト用第2_1特徴ベクトルないしテスト用第2_n特徴ベクトルを生成させるプロセス、及び(ii)前記テスト用第1_1特徴ベクトルないし前記テスト用第1_n特徴ベクトルと前記テスト用第2_1特徴ベクトルないし前記テスト用第2_n特徴ベクトルとを前記アテンションレイヤに入力して、前記アテンションレイヤをもって、前記テスト用第1_1特徴ベクトルないし前記テスト用第1_n特徴ベクトルと前記テスト用第2_1特徴ベクトルないし前記テスト用第2_n特徴ベクトルとを参照して前記第1_1テストイメージないし前記第1_nテストイメージと前記第2_1テストイメージないし前記第2_nテストイメージとのすべてのシーケンスにおけるテスト用自律走行モード値を生成させる段階;を含むことを特徴とする。
一実施例において、前記(b)段階で、前記テスト装置は、前記アテンションレイヤをもって、(i)テスト用第1_k特徴ベクトルとテスト用第2_k特徴ベクトルとをコンカチネートさせて、テスト用第1コンカチネート済み特徴ベクトルないしテスト用第nコンカチネート済み特徴ベクトルを生成させ、(ii)前記テスト用第1コンカチネート済み特徴ベクトルないし前記テスト用第nコンカチネート済み特徴ベクトルに対して加重平均(Weighted Average)させて、前記テスト用自律走行モード値を生成させるプロセスを遂行することを特徴とする。
一実施例において、前記(a)段階で、前記テスト装置は、前記第1CNNをもって、(i)前記第1テストイメージと前記第2テストイメージとをコンカチネートさせて第1コンカチネート済みテストイメージを生成させ、(ii)前記第1コンカチネート済みテストイメージに対してコンボリューション演算を適用させて前記テスト用第1特徴マップを生成させるプロセスを遂行することを特徴とする。
一実施例において、前記(b)段階で、前記テスト装置は、(i)前記第1_1LSTMモデルをもって、前記テスト用第1_2アップデート特徴マップと前記テスト用第1特徴マップとを参照して、テスト用走行環境が危険状況(Hazard Situation)であるかを前記第1テストイメージと前記第2テストイメージとのペアを参照して確認するのに使用される特徴に対応する前記テスト用第1_1特徴ベクトルを生成させるプロセス、(ii)前記第2_1LSTMモデルをもって、前記テスト用第2_1アップデート特徴マップを参照して、前記テスト用走行環境が危険状況であるかを前記第1テストイメージと前記第2テストイメージとの前記ペアを参照して確認するのに使用される特徴に対応する前記テスト用第2_1特徴ベクトルを生成させるプロセス、及び(iii)前記第2_mLSTMモデルをもって、前記テスト用第2_(m−1)アップデート特徴マップと前記テスト用第m特徴マップとを参照して、前記テスト用走行環境が危険状況であるかを前記第1テストイメージと前記第2テストイメージとの前記ペアを参照して確認するのに使用される特徴に対応するテスト用第2_2特徴ベクトルないし前記テスト用第2_n特徴ベクトルを生成させるプロセスを遂行することを特徴とする。
本発明のまた他の態様によると、自律走行自動車の走行モード変更のために使用される、自律走行の安全性を確認するRNN(Recurrent Neural Network)を学習する学習装置において、インストラクションを格納する少なくとも一つのメモリと、(I)学習用自律走行自動車の学習用前方カメラと学習用後方カメラとにそれぞれ対応するシーケンスイメージである第1_1トレーニングイメージないし第1_nトレーニングイメージと第2_1トレーニングイメージないし第2_nトレーニングイメージとが取得されると、第1_kトレーニングイメージと第2_kトレーニングイメージ(前記kは整数であり、シーケンスはnから1に進行する)とで構成されたペア(Pair)それぞれを、前記ペアそれぞれのシーケンスに対応する第1CNN(Convolutional Neural Network)ないし第nCNNにそれぞれ入力して、第kCNNをもって、前記第1_kトレーニングイメージと前記第2_kトレーニングイメージとをコンカチネート(Concatenating)させた後、前記第1_kトレーニングイメージと前記第2_kトレーニングイメージとのコンカチネーティング結果に対してコンボリューション演算を適用して学習用第1特徴マップ(Feature Map)ないし学習用第n特徴マップを生成させるプロセス、(II)(i)前記学習用第1特徴マップないし前記学習用第n特徴マップをフォワードRNN(Forward RNN)のそれぞれのシーケンスに対応する第1_1LSTM(Long Short−Term Memory)モデルないし第1_nLSTMモデルそれぞれに入力し、バックワードRNN(Backward RNN)のそれぞれのシーケンスに対応する第2_1LSTMモデルないし第2_nLSTMモデルそれぞれに入力して、(i−1)第1_kLSTMモデルをもって、(i−1−a)第1_(k+1)LSTMモデルから出力される学習用第1_(k+1)アップデート特徴マップ(Updated Feature Map)と前記第kCNNから出力される学習用第k特徴マップとをいずれも参照して前記学習用第k特徴マップをアップデートした結果である学習用第1_kアップデート特徴マップを生成させ、(i−1−b)前記学習用第1_kアップデート特徴マップに対してFC演算(Fully Connected Operation)を適用した結果である学習用第1_1特徴ベクトルないし学習用第1_n特徴ベクトルを生成させ、(i−2)第2_kLSTMモデルをもって、(i−2−a)第2_(k−1)LSTMモデルから出力される学習用第2_(k−1)アップデート特徴マップと前記第kCNNから出力される前記学習用第k特徴マップとをいずれも参照して前記学習用第k特徴マップをアップデートした結果である学習用第2_kアップデート特徴マップを生成させ、(i−2−b)前記学習用第2_kアップデート特徴マップに対してFC演算を適用した結果である学習用第2_1特徴ベクトルないし学習用第2_n特徴ベクトルを生成させるプロセス、及び(ii)前記学習用第1_1特徴ベクトルないし前記学習用第1_n特徴ベクトルと前記学習用第2_1特徴ベクトルないし前記学習用第2_n特徴ベクトルとをアテンションレイヤ(Attention Layer)に入力して、前記アテンションレイヤをもって、前記学習用第1_1特徴ベクトルないし前記学習用第1_n特徴ベクトルと前記学習用第2_1特徴ベクトルないし前記学習用第2_n特徴ベクトルとを参照して、前記第1_1トレーニングイメージないし前記第1_nトレーニングイメージと前記第2_1トレーニングイメージないし前記第2_nトレーニングイメージとのすべてのシーケンスにおける学習用自律走行モード値(Autonomous−Driving Mode Value)を生成させるプロセス、及び(III)ロスレイヤ(Loss Layer)をもって、前記学習用自律走行モード値とこれに対応する原本正解(Ground Truth)とを参照して少なくとも一つのロスを算出させるプロセス、及び前記ロスを利用したバックプロパゲーションを通じて前記ロスを最小化するように前記第1_1LSTMモデルないし前記第1_nLSTMモデルと前記第2_1LSTMモデルないし前記第2_nLSTMモデルとを学習するプロセスを遂行するための前記インストラクションを実行するように構成された少なくとも一つのプロセッサと、を含むことを特徴とする。
一実施例において、前記(II)プロセスで、前記プロセッサは、前記アテンションレイヤをもって、(i)学習用第1_k特徴ベクトルと学習用第2_k特徴ベクトルとをコンカチネートさせて、学習用第1コンカチネート済み特徴ベクトルないし学習用第nコンカチネート済み特徴ベクトルを生成させ、(ii)前記学習用第1コンカチネート済み特徴ベクトルないし前記学習用第nコンカチネート済み特徴ベクトルに対して加重平均(Weighted Average)させて、前記学習用自律走行モード値を生成させることを特徴とする。
一実施例において、前記(I)プロセスで、前記プロセッサは、前記第1CNNないし前記第nCNNそれぞれをもって、(i)前記第1_kトレーニングイメージと前記第2_kトレーニングイメージとをそれぞれコンカチネートさせて第kコンカチネート済みトレーニングイメージを生成させ、(ii)前記第kコンカチネート済みトレーニングイメージに対してコンボリューション演算を適用させて前記学習用第1特徴マップないし前記学習用第n特徴マップを生成させる。
一実施例において、前記(II)プロセスで、前記プロセッサは、(i)前記第1_kLSTMモデルをもって、前記学習用第1_(k+1)アップデート特徴マップと前記学習用第1_k特徴マップとを参照して、学習用走行環境が危険状況(Hazard Situation)であるかを前記第1_kトレーニングイメージと前記第2_kトレーニングイメージとの前記ペアを参照して確認するのに使用される特徴に対応する前記学習用第1_1特徴ベクトルないし前記学習用第1_n特徴ベクトルを生成させるプロセス、及び(ii)前記第2_kLSTMモデルをもって、前記学習用第2_(k−1)アップデート特徴マップと前記学習用第2_k特徴マップとを参照して、前記学習用走行環境が危険状況であるかを前記第1_kトレーニングイメージと前記第2_kトレーニングイメージとの前記ペアを参照して確認するのに使用される特徴に対応する前記学習用第2_1特徴ベクトルないし前記学習用第2_n特徴ベクトルを生成させるプロセスを遂行することを特徴とする。
一実施例において、前記(III)プロセスで、前記プロセッサは、前記ロスレイヤをもって、ソフトマックス(Softmax)アルゴリズムを利用して前記学習用自律走行モード値を正規化(Normalize)するプロセス、及び正規化された前記学習用自律走行モード値と前記原本正解とを参照して前記ロスを算出するプロセスを遂行することを特徴とする。
一実施例において、前記第1_1トレーニングイメージないし前記第1_nトレーニングイメージと前記第2_1トレーニングイメージないし前記第2_nトレーニングイメージとは、(i)(i−1)前記学習用自律走行自動車の前記学習用前方カメラから撮影される映像を予め設定された時間間隔でサンプリングして第1シーケンスイメージを抽出するプロセス、及び(i−2)抽出された前記第1シーケンスイメージそれぞれに対して自律走行が可能であるか否かをラベリングするプロセス、及び(ii)(ii−1)前記学習用自律走行自動車の前記学習用後方カメラから撮影される映像を前記予め設定された時間間隔でサンプリングして第2シーケンスイメージを抽出するプロセス、及び(ii−2)サンプリングされた前記第2シーケンスイメージそれぞれに対して自律走行が可能であるか否かをラベリングするプロセスを遂行して生成されることを特徴とする。
一実施例において、前記(III)プロセスで、前記原本正解は、前記シーケンスイメージのうち前記第1_1トレーニングイメージないし前記第1_nトレーニングイメージのネクストシーケンスに対応する第1ネクストシーケンスイメージ(Next Sequence Image)と、前記第2_1トレーニングイメージないし前記第2_nトレーニングイメージとの前記ネクストシーケンスに対応する第2ネクストシーケンスイメージから取得されることを特徴とする。
本発明のまた他の態様によると、自律走行自動車の走行モード変更のために使用される、自律走行の安全性を確認するRNN(Recurrent Neural Network)をテストするテスト装置において、インストラクションを格納する少なくとも一つのメモリと、(I)学習用自律走行自動車の学習用前方カメラと学習用後方カメラとにそれぞれ対応するシーケンスイメージである第1_1トレーニングイメージないし第1_nトレーニングイメージと第2_1トレーニングイメージないし第2_nトレーニングイメージとが取得されると、学習装置が、(i)第1_kトレーニングイメージと第2_kトレーニングイメージ(前記kは整数であり、シーケンスはnから1に進行する)とで構成されたペア(Pair)それぞれを、前記ペアそれぞれのシーケンスに対応する第1CNN(Convolutional Neural Network)ないし第nCNNにそれぞれ入力して、第kCNNをもって、前記第1_kトレーニングイメージと前記第2_kトレーニングイメージとをコンカチネート(Concatenating)させた後、前記第1_kトレーニングイメージと前記第2_kトレーニングイメージとのコンカチネーティング結果に対してコンボリューション演算を適用して学習用第1特徴マップ(Feature Map)ないし学習用第n特徴マップを生成させるプロセス、(ii)前記学習用第1特徴マップないし前記学習用第n特徴マップをフォワードRNN(Forward RNN)のそれぞれのシーケンスに対応する第1_1LSTM(Long Short−Term Memory)モデルないし第1_nLSTMモデルそれぞれに入力し、バックワードRNN(Backward RNN)のそれぞれのシーケンスに対応する第2_1LSTMモデルないし第2_nLSTMモデルそれぞれに入力して、(ii−1)第1_kLSTMモデルをもって、(ii−1−a)第1_(k+1)LSTMモデルから出力される学習用第1_(k+1)アップデート特徴マップ(Updated Feature Map)と前記第kCNNから出力される学習用第k特徴マップとをいずれも参照して前記学習用第k特徴マップをアップデートした結果である学習用第1_kアップデート特徴マップを生成させ、(ii−1−b)前記学習用第1_kアップデート特徴マップに対してFC演算(Fully Connected Operation)を適用した結果である学習用第1_1特徴ベクトルないし学習用第1_n特徴ベクトルを生成させ、(ii−2)第2_kLSTMモデルをもって、(ii−2−a)第2_(k−1)LSTMモデルから出力される学習用第2_(k−1)アップデート特徴マップと前記第kCNNから出力される前記学習用第k特徴マップとをいずれも参照して前記学習用第k特徴マップをアップデートした結果である学習用第2_kアップデート特徴マップを生成させ、(ii−2−b)前記学習用第2_kアップデート特徴マップに対してFC演算を適用した結果である学習用第2_1特徴ベクトルないし学習用第2_n特徴ベクトルを生成させるプロセス、(iii)前記学習用第1_1特徴ベクトルないし前記学習用第1_n特徴ベクトルと前記学習用第2_1特徴ベクトルないし前記学習用第2_n特徴ベクトルとをアテンションレイヤ(Attention Layer)に入力して、前記アテンションレイヤをもって、前記学習用第1_1特徴ベクトルないし前記学習用第1_n特徴ベクトルと前記学習用第2_1特徴ベクトルないし前記学習用第2_n特徴ベクトルとを参照して、前記第1_1トレーニングイメージないし前記第1_nトレーニングイメージと前記第2_1トレーニングイメージないし前記第2_nトレーニングイメージとのすべてのシーケンスにおける学習用自律走行モード値(Autonomous−Driving Mode Value)を生成させるプロセス、及び(iv)ロスレイヤ(Loss Layer)をもって、前記学習用自律走行モード値とこれに対応する原本正解(Ground Truth)とを参照して少なくとも一つのロスを算出させるプロセス、及び前記ロスを利用したバックプロパゲーションを通じて前記ロスを最小化するように前記第1_1LSTMモデルないし前記第1_nLSTMモデルと前記第2_1LSTMモデルないし前記第2_nLSTMモデルとを学習するプロセスを遂行した状態で、走行中であるテスト用自律走行自動車のテスト用前方カメラとテスト用後方カメラとから前記テスト用自律走行自動車のテスト用前方映像とテスト用後方映像とが取得されると、前記テスト用前方映像の現在フレームに対応する第1テストイメージと前記テスト用後方映像の前記現在フレームに対応する第2テストイメージとを前記第1CNNに入力して、前記第1CNNをもって、前記第1テストイメージと前記第2テストイメージとのコンカチネーティング結果に対してコンボリューション演算を適用してテスト用第1特徴マップを生成させるプロセス、及び(II)(i)前記テスト用第1特徴マップないし前記テスト用第n特徴マップを前記フォワードRNNのそれぞれのシーケンスに対応する前記第1_1LSTMモデルないし前記第1_nLSTMモデルそれぞれに入力し、前記バックワードRNNのそれぞれのシーケンスに対応する前記第2_1LSTMモデルないし前記第2_nLSTMモデルそれぞれに入力して、(i−1)前記第1_kLSTMモデルをもって、(i−1−a)前記第1_(k+1)LSTMモデルから出力されるテスト用第1_(k+1)アップデート特徴マップ(Updated Feature Map)と前記第kCNNから出力されるテスト用第k特徴マップとをいずれも参照して、前記テスト用第k特徴マップをアップデートした結果であるテスト用第1_kアップデート特徴マップを生成させ、(i−1−b)前記テスト用第1_kアップデート特徴マップに対してFC演算を適用した結果であるテスト用第1_1特徴ベクトルないしテスト用第1_n特徴ベクトルを生成させ、(i−2)前記第2_kLSTMモデルをもって、(i−2−a)前記第2_(k−1)LSTMモデルから出力されるテスト用第2_(k−1)アップデート特徴マップと前記第kCNNから出力される前記テスト用第k特徴マップとをいずれも参照して、前記テスト用第k特徴マップをアップデートした結果であるテスト用第2_kアップデート特徴マップを生成させ、(i−2−b)前記テスト用第2_kアップデート特徴マップに対してFC演算を適用した結果であるテスト用第2_1特徴ベクトルないしテスト用第2_n特徴ベクトルを生成させるプロセス、及び(ii)前記テスト用第1_1特徴ベクトルないし前記テスト用第1_n特徴ベクトルと前記テスト用第2_1特徴ベクトルないし前記テスト用第2_n特徴ベクトルとを前記アテンションレイヤに入力して、前記アテンションレイヤをもって、前記テスト用第1_1特徴ベクトルないし前記テスト用 第1_n特徴ベクトルと前記テスト用第2_1特徴ベクトルないし前記テスト用第2_n特徴ベクトルとを参照して前記第1_1テストイメージないし前記第1_nテストイメージと前記第2_1テストイメージないし前記第2_nテストイメージとのすべてのシーケンスにおけるテスト用自律走行モード値を生成させるプロセスを遂行するための前記インストラクションを実行するように構成された少なくとも一つのプロセッサと、を含むことを特徴とする。
一実施例において、前記(II)プロセスで、前記プロセッサは、前記アテンションレイヤをもって、(i)テスト用第1_k特徴ベクトルとテスト用第2_k特徴ベクトルとをコンカチネートさせて、テスト用第1コンカチネート済み特徴ベクトルないしテスト用第nコンカチネート済み特徴ベクトルを生成させ、(ii)前記テスト用第1コンカチネート済み特徴ベクトルないし前記テスト用第nコンカチネート済み特徴ベクトルに対して加重平均(Weighted Average)させて、前記テスト用自律走行モード値を生成させるプロセスを遂行することを特徴とする。
一実施例において、前記(I)プロセスで、前記プロセッサは、前記第1CNNをもって、(i)前記第1テストイメージと前記第2テストイメージとをコンカチネートさせて第1コンカチネート済みテストイメージを生成させ、(ii)前記第1コンカチネート済みテストイメージに対してコンボリューション演算を適用させて、前記テスト用第1特徴マップを生成させるプロセスを遂行することを特徴とする。
一実施例において、前記(II)プロセスで、前記プロセッサは、(i)前記第1_1LSTMモデルをもって、前記テスト用第1_2アップデート特徴マップと前記テスト用第1特徴マップとを参照して、テスト用走行環境が危険状況(Hazard Situation)であるかを前記第1テストイメージと前記第2テストイメージとのペアを参照して確認するのに使用される特徴に対応する前記テスト用第1_1特徴ベクトルを生成させるプロセス、(ii)前記第2_1LSTMモデルをもって、前記テスト用第2_1アップデート特徴マップを参照して、前記テスト用走行環境が危険状況であるかを前記第1テストイメージと前記第2テストイメージとの前記ペアを参照して確認するのに使用される特徴に対応する前記テスト用第2_1特徴ベクトルを生成させるプロセス、及び(iii)前記第2_mLSTMモデルをもって、前記テスト用第2_(m−1)アップデート特徴マップと前記テスト用第m特徴マップとを参照して、前記テスト用走行環境が危険状況であるかを前記第1テストイメージと前記第2テストイメージとの前記ペアを参照して確認するのに使用される特徴に対応するテスト用第2_2特徴ベクトルないし前記テスト用第2_n特徴ベクトルを生成させるプロセスを遂行することを特徴とする。
その他にも、本発明の方法を実行するためのコンピュータプログラムを記録するためのコンピュータ読取り可能な記録媒体がさらに提供される。
本発明は、RNN(Recurrent Neural Network)を利用して、多数の統合カメラ情報を分析して危険状況(Hazardous Situation)を認知し、自律走行の安全性を確認して自律走行自動車の自動走行モードとマニュアル走行モードとの間の走行モード変更によって、従来の多様なセンサを利用することとは異なり、自律走行自動車の製造費用の増加を防止する効果がある。
本発明は、RNNを利用して、多数の統合カメラ情報を分析して危険状況を認知し、自律走行の安全性を確認して自律走行自動車の自動走行モードとマニュアル走行モードとの間の走行モード変更によって、従来の方法に比べてセンサの個数を最少化することができる他の効果がある。
本発明は、RNNを利用して、多数の統合カメラ情報を分析して危険状況を認知し、自律走行の安全性を確認して自律走行自動車の自動走行モードとマニュアル走行モードとの間の走行モード変更によって、多数の統合カメラ情報が処理されるため、従来の方法に比べてより少ないコンピューティングソース(Computing Source)で自律走行自動車の走行モードを変更することができる、また他の効果がある。
本発明の実施例の説明に利用されるために添付された以下の各図面は、本発明の実施例のうち単に一部であるに過ぎず、本発明の属する技術分野において通常の知識を有する者(以下「通常の技術者」)にとっては、発明的作業が行われずにこれらの図面に基づいて他の各図面が得られ得る。
図1は、本発明の一実施例にしたがって、自律走行モードとマニュアル走行モードとの間における走行モード変更のための自律走行の安全性を確認するために使用されるRNN(Recurrent Neural Network)を学習する学習装置を簡略に示したものである。 図2は、本発明の一実施例にしたがって、自律走行モードとマニュアル走行モードとの間における走行モード変更のための自律走行の安全性を確認するために使用されるRNNを学習する方法を簡略に示したものである。 図3は、本発明の一実施例にしたがって、自律走行モードとマニュアル走行モードとの間における走行モード変更のための自律走行の安全性を確認するために使用されるRNNを学習するためのトレーニングデータを生成するプロセスを簡略に示したものである。 図4は、本発明の一実施例にしたがって、自律走行モードとマニュアル走行モードとの間における走行モード変更のための自律走行の安全性を確認するために使用されるRNNをテストするテスト装置を簡略に示したものである。 図5は、本発明の一実施例にしたがって、自律走行モードとマニュアル走行モードとの間における走行モード変更のための自律走行の安全性を確認するために使用されるRNNを適用した自律走行自動車の走行状態を簡略に示したものである。 図6は、本発明の一実施例にしたがって、自律走行モードとマニュアル走行モードとの間における走行モード変更のための自律走行の安全性を確認するために使用されるRNNのためのテスト方法を簡略に示したものである。
後述する本発明に関する詳細な説明は、本発明の各目的、各技術的解法、及び各長所を明らかにするために本発明が実施され得る特定の実施例を例示として示す添付図面を参照する。これらの実施例は、当業者が本発明を実施することができるように十分詳細に説明される。
また、本発明の詳細な説明及び各請求項にわたって、「含む」という単語及びそれらの変形は、他の技術的各特徴、各付加物、構成要素又は段階を除外することを意図したものではない。通常の技術者にとって本発明の他の各目的、長所及び各特性が、一部は、本説明書から、また一部は、本発明の実施から明らかになるであろう。以下の例示及び図面は実例として提供され、本発明を限定することを意図したものではない。
さらに、本発明は、本明細書に示された実施例のすべての可能な組合せを網羅する。本発明の多様な実施例は互いに異なるが、相互に排他的である必要はないことが理解されるべきである。例えば、ここに記載されている特定の形状、構造及び特性は、一実施例に関連して本発明の精神及び範囲を逸脱せず、かつ他の実施例で具現され得る。また、それぞれの開示された実施例内の個別の構成要素の位置又は配置は、本発明の精神及び範囲を逸脱せず、かつ変更され得ることが理解されるべきである。したがって、後述の詳細な説明は、限定的な意味として受け取ろうとするものではなく、本発明の範囲は適切に説明されるのであれば、その請求項が主張することと均等な全ての範囲とともに添付された請求項によってのみ限定される。図面において類似の参照符号は、様々な側面にわたって同一であるか、又は類似の機能を指す。
本発明で言及している各種イメージは、舗装または非舗装道路関連のイメージを含み得、この場合、道路環境で登場し得る物体(例えば、自動車、人、動物、植物、物、建物、飛行機やドローンのような飛行体、その他の障害物)を想定し得るが、必ずしもこれに限定されるものではなく、本発明で言及している各種イメージは、道路と関係のないイメージ(例えば、非舗装道路、路地、空き地、海、湖、川、山、森、砂漠、空、室内と関連したイメージ)でもあり得、この場合、非舗装道路、路地、空き地、海、湖、川、山、森、砂漠、空、室内環境で登場し得る物体(例えば、自動車、人、動物、植物、物、建物、飛行機やドローンのような飛行体、その他の障害物)を想定し得るが、必ずしもこれに限定されるものではない。
以下、本発明の属する技術分野において通常の知識を有する者が本発明を容易に実施し得るようにするために、本発明の好ましい実施例について、添付された図面を参照して詳細に説明することにする。
図1は、本発明の一実施例にしたがって、自律走行モードとマニュアル走行モードとの間における走行モード変更のための自律走行の安全性を確認するために使用されるRNN(Recurrent Neural Network)を学習する学習装置を簡略に示したものである。図1を参照すると、学習装置100は、自律走行モードとマニュアル走行モードとの間における走行モード変更のための自律走行の安全性を確認するために使用されるRNNを学習するためのインストラクション(Instruction)を格納するメモリ110と、メモリ110に格納されたインストラクションに対応して自律走行モードとマニュアル走行モードとの間における走行モード変更のための自律走行の安全性を確認するために使用されるRNNを学習するプロセッサ120とを含むことができる。
具体的に、学習装置100は、典型的に少なくとも一つのコンピューティング装置(例えば、コンピュータプロセッサ、メモリ、ストレージ、入力装置及び出力装置、その他既存のコンピューティング装置の構成要素を含むことができる装置;ルータ、スイッチなどのような電子通信装置;ネットワーク接続ストレージ(NAS)及びストレージ領域ネットワーク(SAN)のような電子情報ストレージシステム)と少なくとも一つのコンピュータソフトウェア(すなわち、コンピューティング装置をもって特定の方式で機能させるインストラクション)との組み合わせを利用して所望のシステム性能を達成するものであり得る。
また、コンピューティング装置のプロセッサは、MPU(Micro Processing Unit)またはCPU(Central Processing Unit)キャッシュメモリ(Cache Memory)データバス(Data Bus)などのハードウェア構成を含むことができる。また、コンピューティング装置は、オペレーティングシステム、特定の目的を遂行するアプリケーションのソフトウェア構成をさらに含むこともできる。
しかし、コンピューティング装置が、本発明を実施するためのプロセッサ、メモリ、ミディアム又は他のコンピューティング構成要素の何らかの組み合わせを含む統合プロセッサ(Integrated Processor)を排除するものではない。
このように構成された本発明の一実施例による学習装置100を利用して、自律走行モードとマニュアル走行モードとの間における走行モード変更のための自律走行の安全性を確認するためのRNNを学習する方法を、図2を参照して説明すると次のとおりである。
まず、学習装置100は、学習用自律走行自動車における少なくとも一つの学習用前方カメラと少なくとも一つの学習用後方カメラとに対応する学習用シーケンスイメージを含むトレーニングデータを取得することができる。本発明全般にわたって、「シーケンス(Sequence)」または「各シーケンス(Sequences)」は、その次の名詞が現れずに単独で使用される場合に「タイムシーケンス(Sequence In Time)」または「各タイムシーケンス(Sequences In Time)」を表す。すなわち、「シーケンスイメージ(Sequence Image)」などに使用されている「シーケンス」は、時間の概念を示さないことがあり得る。
この場合、図3を参照すると、トレーニングデータは、学習用自律走行自動車における学習用前方カメラに対応する学習用シーケンスイメージである1_1トレーニングイメージないし第1_nトレーニングイメージと、学習用自律走行自動車における学習用後方カメラに対応する学習用シーケンスイメージである第2_1トレーニングイメージないし第2_nトレーニングイメージとを含むことができる。この場合、nは整数(integer)であり、シーケンスはnから1に進行し得る。
一例として、トレーニングデータを生成するために、学習用自律走行自動車における学習用前方カメラから撮影される映像を予め設定された時間間隔で(一例として1秒ごと)サンプリングして学習用シーケンスイメージを生成し、それぞれの学習用シーケンスイメージに対して自律走行が可能であるか否かをラベリングして第1_1イメージないし第1_nイメージを生成することができる。そして、学習用自律走行自動車における学習用後方カメラから撮影される映像を予め設定された時間間隔でサンプリングして学習用シーケンスイメージを生成し、それぞれの学習用シーケンスイメージに対して自律走行が可能であるか否かをラベリングして第2_1イメージないし第2_nイメージを生成する。そして、kを1以上であり、n以下の整数であるとする場合、シーケンスに対応する第1_kイメージと第2_kイメージとで構成されたそれぞれのペア(Pair)を含む少なくとも一つのトレーニングデータを生成することができる。そして、上記のような方法により学習に必要かつ十分なトレーニングデータを生成することができる。
この際、トレーニングデータに含まれる第1_kイメージと第2_kイメージとのペアの個数は、RNNにおけるLSTM(Long Short−Term Memory Network)の個数に対応するように設定できる。
一方、自律走行が不可能な状況は、自律走行自動車を継続的に自律走行モードで走行させる場合、事故や誤作動が発生する可能性のある走行環境であり得、一例として、トンネル内の走行、豪雨、豪雪、低照度の場合、カメラレンズに異物が付いた場合などのように自律走行のために必要な情報の検出が難しい走行環境と、道路上で事故が発生した場合、加速した自動車が接近する場合、非正常な走行をする近隣の自動車がある場合などのような危険状況であり得る。しかし、本発明がこれに限定されるわけではない。
したがって、自律走行が可能な状況に対応するシーケンスイメージと、自律走行が不可能な状況に対応するシーケンスイメージとを収集して、トレーニングデータを生成することができる。
次に、学習装置100は、トレーニングデータ上の第1_kトレーニングイメージと第2_kトレーニングイメージとのそれぞれのペアをそれぞれのシーケンスに対応する第1CNN(Convolutional Neural Network)ないし第nCNNに入力して、kが1からnまでである場合、第kCNN、すなわち、第1CNNないし第nCNNそれぞれをもって、それ自体のシーケンスに対応するペア上の第1_kトレーニングイメージと第2_kトレーニングイメージとをコンカチネート(Concatenating)させた後、第1_kトレーニングイメージと第2_kトレーニングイメージとのコンカチネーティング結果に対してコンボリューション演算を適用して学習用第1特徴マップないし学習用第n特徴マップを生成させることができる。この際、学習装置100は、第1CNNないし第nCNNそれぞれをもって、(i)第1_kトレーニングイメージと第2_kトレーニングイメージとをそれぞれコンカチネートさせて第kコンカチネート済みトレーニングイメージを生成させ、(ii)第kコンカチネート済みトレーニングイメージに対してコンボリューション演算を適用して学習用第1特徴マップないし学習用第n特徴マップを生成させることができる。すなわち、第1CNNないし第nCNNは、多数のカメラ情報をそれぞれ融合して一つの情報として出力することができる。この場合、第1CNNないし第nCNNは予め学習された状態であり得る。
次に、学習装置100は、学習用第1特徴マップないし学習用第n特徴マップをフォワード(Forward)RNNのそれぞれのシーケンスに対応する第1_1LSTMモデルないし第1_nLSTMモデルに入力して、第1_kLSTMモデルをもって、(i)第1_(k+1)LSTMモデルから出力される学習用第1_(k+1)アップデート特徴マップ(Updated Feature Map)と第kCNNから出力される学習用第k特徴マップとをいずれも参照して学習用第k特徴マップをアップデートした結果である学習用第1_kアップデート特徴マップを生成させ、(ii)第1_kアップデート特徴マップに対してFC演算(Fully Connected Operation)を適用して学習用第1_1特徴ベクトルないし学習用第1_n特徴ベクトルを生成させるプロセスを遂行することができる。
すなわち、学習装置100は、第1_kLSTMモデルをもって、学習用第1_(k+1)アップデート特徴マップと学習用第1_k特徴マップとを参照して、学習用走行環境が危険状況(Hazard Situation)であるかを第1_kトレーニングイメージと第2_kトレーニングイメージとのペアを参照して確認するのに使用される特徴に対応する学習用第1_1特徴ベクトルないし学習用第1_n特徴ベクトルを生成させるプロセスを遂行することができる。
また、学習装置100は、学習用第1特徴マップないし学習用第n特徴マップをバックワード(Backward)RNNのそれぞれのシーケンスに対応する第2_1LSTMモデルないし第2_nLSTMモデルに入力して、第2_kLSTMモデルをもって、(i)(i−1)第2_(k−1)LSTMモデルから出力される学習用第2_(k−1)アップデート特徴マップと(i−2)第kCNNから出力される学習用第k特徴マップとをいずれも参照して学習用第k特徴マップをアップデートした結果である学習用第2_kアップデート特徴マップを生成させ、(ii)第2_kアップデート特徴マップに対してFC演算(Fully Connected Operation)を適用して学習用第2_1特徴ベクトルないし学習用第2_n特徴ベクトルを生成させるプロセスを遂行することができる。
すなわち、学習装置100は、第2_kLSTMモデルをもって、学習用第2_(k−1)アップデート特徴マップと学習用第2_k特徴マップとを参照して、学習用走行環境が危険状況であるかを第1_kトレーニングイメージと第2_kトレーニングイメージとのペアを参照して確認するのに使用される特徴に対応する学習用第2_1特徴ベクトルないし学習用第2_n特徴ベクトルを生成させるプロセスを遂行することができる。
次に、学習装置100は、学習用第1_1特徴ベクトルないし学習用1_n特徴ベクトルと学習用2_1特徴ベクトルないし学習用2_n特徴ベクトルとをアテンションレイヤ(Attention Layer)に入力して、アテンションレイヤをもって、学習用第1_1特徴ベクトルないし学習用第1_n特徴ベクトルと学習用第2_1特徴ベクトルないし学習用第2_n特徴ベクトルとを参照して学習用第1_1イメージないし学習用第1_nイメージと学習用第2_1イメージないし学習用第2_nイメージとの全体シーケンスにおける学習用自律走行モード値(Autonomous−Driving Mode Value)を生成させることができる。
すなわち、学習装置100は、第1_kLSTMと第2_kLSTMとからそれぞれ出力される自律走行が可能な学習用走行環境であるかを示す学習用特徴ベクトルをコンカチネートし、学習用特徴ベクトルのコンカチネーティング結果を加重平均(Weighed Average)して、学習用第1_1イメージないし学習用第1_nイメージと学習用第2_1イメージないし学習用第2_nイメージとのそれぞれのペアに対する一定時間の間の走行情報を参照して学習用自律走行自動車が現時点で自律走行が可能であるか否かを示す学習用自律走行モード値を出力させることができる。
次に、学習装置100は、少なくとも一つのロスレイヤをもって、(i)アテンションレイヤから出力される、自律走行が可能であるか否かについての学習用自律走行モード値と(ii)これに対応する原本正解とを参照して少なくとも一つのロスを算出させることによって、ロスを利用したバックプロパゲーションを通じてロスが最小化されるようにバックワードRNNの第2_1LSTMないし第2_nLSTM及びフォワードRNNの第1_1LSTMないし第1_nLSTMのうち少なくとも一つのパラメータの少なくとも一部を学習することができる。
この場合、学習装置100は、ロスレイヤをもって、アテンションレイヤから出力される学習用自律走行モード値をソフトマックス(Softmax)アルゴリズムを利用して正規化するプロセス、及び正規化された学習用自律走行モード値とこれに対応する原本正解とを参照してロスを算出するプロセスを遂行することができる。そして、学習用自律走行モード値に対応する原本正解は、第1_1トレーニングイメージないし第1_nトレーニングイメージのネクストシーケンスに対応する第1ネクストシーケンスイメージ(Next Sequence Image)と、第2_1トレーニングイメージないし第2_nトレーニングイメージのネクストシーケンスに対応する第2ネクストシーケンスイメージとから取得され得る。
図4は、本発明の一実施例にしたがって、自律走行モードとマニュアル走行モードとの間における走行モード変更のための自律走行の安全性を確認するために使用されるRNNをテストするテスト装置を簡略に示したものである。図4を参照すると、テスト装置200は、自律走行モードとマニュアル走行モードとの間の走行モードを変更するために自律走行の安全性を確認するためのRNNをテストするためのインストラクションを格納するメモリ210と、メモリ210に格納されたインストラクションに対応して自律走行モードとマニュアル走行モードとの間の走行モードを変更するために自律走行の安全性を確認するためのRNNをテストするプロセッサ220を含むことができる。
具体的に、テスト装置200は、典型的に少なくとも一つのコンピューティング装置(例えば、コンピュータプロセッサ、メモリ、ストレージ、入力装置及び出力装置、その他既存のコンピューティング装置の構成要素を含むことができる装置;ルータ、スイッチなどのような電子通信装置;ネットワーク接続ストレージ(NAS)及びストレージ領域ネットワーク(SAN)のような電子情報ストレージシステム)と少なくとも一つのコンピュータソフトウェア(すなわち、コンピューティング装置をもって特定の方式で機能させるインストラクション)との組み合わせを利用して所望のシステム性能を達成するものであり得る。
また、コンピューティング装置のプロセッサは、MPU(Micro Processing Unit)またはCPU(Central Processing Unit)、キャッシュメモリ(Cache Memory)、データバス(Data Bus)などのハードウェア構成を含むことができる。また、コンピューティング装置は、オペレーティングシステム、特定の目的を遂行するアプリケーションのソフトウェア構成をさらに含むこともできる。
しかし、コンピューティング装置が、本発明を実施するためのプロセッサ、メモリ、ミディアム又はその他のコンピューティング構成要素の何らかの組み合わせを含む統合プロセッサ(Integrated Device)を排除するわけではない。
このように構成された本発明の一実施例によるテスト装置200を利用して、自律走行モードとマニュアル走行モードとの間における走行モード変更のための自律走行の安全性を確認するのに使用されるRNNをテストする方法を、図5と図6とを参照して説明すると次のとおりである。
図5を参照すると、図2を参照して説明した学習方法により、自律走行モードとマニュアル走行モードとの間における走行モード変更のための自律走行の安全性を確認するのに使用されるRNNが学習された状態であり得る。
すなわち、学習用自律走行自動車の学習用前方カメラと学習用後方カメラとにそれぞれ対応するシーケンスイメージである第1_1トレーニングイメージないし第1_nトレーニングイメージと第2_1トレーニングイメージないし第2_nトレーニングイメージとが取得されると、学習装置は、第1_kトレーニングイメージと第2_kトレーニングイメージとで構成されたそれぞれのペアをそれぞれのペアのシーケンスに対応する第1CNNないし第nCNNにそれぞれ入力して、第kCNNをもって、第1_kトレーニングイメージと第2_kトレーニングイメージとをコンカチネートさせた後、第1_kトレーニングイメージと第2_kトレーニングイメージとのコンカチネーティング結果に対してコンボリューション演算を適用して学習用第1特徴マップないし学習用第n特徴マップを生成させるプロセスを遂行することができる。そして、学習装置は、学習用第1特徴マップないし学習用第n特徴マップをフォワードRNNのそれぞれのシーケンスに対応する第1_1LSTMモデルないし第1_nLSTMモデルに入力し、バックワードRNNのそれぞれのシーケンスに対応する第2_1LSTMモデルないし第2_nLSTMモデルそれぞれに入力して、(i)第1_kLSTMモデルをもって、(i−1)第1_(k+1)LSTMモデルから出力される学習用第1_(k+1)アップデート特徴マップと第1_kCNNから出力される学習用第1_k特徴マップとをいずれも参照して学習用第k特徴マップをアップデートした結果である学習用第1_kアップデート特徴マップを生成させ、(i−2)第1_kアップデート特徴マップに対してFC演算を適用して学習用第1_1特徴ベクトルないし学習用第1_n特徴ベクトルを生成させ、(ii)第2_kLSTMモデルをもって、(ii−1)第2_(k−1)LSTMモデルから出力される学習用第2_(k−1)アップデート特徴マップと第2_kCNNから出力される学習用第2_k特徴マップとをいずれも参照して学習用第2_k特徴マップをアップデートした結果である学習用第2_kアップデート特徴マップを生成させ、(ii−2)第2_kアップデート特徴マップに対してFC演算を適用して学習用第2_1特徴ベクトルないし学習用第2_n特徴ベクトルを生成させるプロセスを遂行することができる。以後、学習装置は、学習用第1_1特徴ベクトルないし学習用第1_n特徴ベクトルと学習用第2_1特徴ベクトルないし学習用第2_n特徴ベクトルとをアテンションレイヤに入力して、アテンションレイヤをもって、学習用第1_1特徴ベクトルないし学習用第1_n特徴ベクトルと学習用第2_1特徴ベクトルないし学習用第2_n特徴ベクトルとを参照して第1_1トレーニングイメージないし第1_nトレーニングイメージと第2_1トレーニングイメージないし第2_nトレーニングイメージとのすべてのシーケンスにおける学習用自律走行モード値を生成させるプロセス、ロスレイヤをもって、学習用自律走行モード値とこれに対応する原本正解とを参照して少なくとも一つのロスを算出させるプロセス、及びロスを利用したバックプロパゲーションを通じてロスを最小化するように第1_1LSTMモデルないし第1_nLSTMモデルと第2_1LSTMモデルないし第2_nLSTMモデルとを学習するプロセスを遂行した状態であり得る。
このようにRNNが学習された状態で、テスト用自律走行自動車が走行する間、テスト用自律走行自動車のテスト用前方カメラからテスト用前方映像が取得され、テスト用自律走行自動車のテスト用後方カメラからテスト用後方映像が取得されると、テスト装置200は、テスト用前方映像の現在フレームに対応する第1テストイメージとテスト用後方映像の現在フレームに対応する第2テストイメージとを取得することができる。この際、第1テストイメージと第2テストイメージとは、テスト用自律走行自動車のテスト用前方カメラとテスト用後方カメラとにより撮影されるそれぞれの映像を予め設定された時間間隔(例えば、1秒ごとに1枚ずつ)でサンプリングして生成された現時点におけるテストイメージであり得る。
次に、図6を参照すると、テスト装置200は、第1テストイメージと第2テストイメージとのペアを第1CNNに入力して、第1CNNをもって、第1テストイメージと第2テストイメージとのコンカチネーティング結果に対してコンボリューション演算を適用して少なくとも一つのテスト用第1特徴マップを出力させることができる。
この場合、図2における学習方法では第1CNNないし第nCNNを使用したが、テストプロセスでは以前のフレーム、すなわち、第1イメージと第2イメージとに対応する以前のサンプリングイメージを利用して生成されたテスト用以前特徴マップ、すなわち、テスト用第2特徴マップないしテスト用第n特徴マップが格納されているので、テストプロセスは現時点に対応する一つのCNNを利用して遂行され得る。
また、テスト装置200は、第1CNNをもって、(i)第1テストイメージと第2テストイメージとをコンカチネートさせて第1コンカチネート済みテストイメージを生成させ、(ii)第1コンカチネート済みテストイメージに対してコンボリューション演算を適用させてテスト用第1特徴マップを生成させることができる。
次に、テスト装置200は、テスト用第1特徴マップを第1_1LSTMモデルに入力して、第1_1LSTMモデルをもって、(i)以前のフレームで生成されたテスト用第1_2アップデート特徴マップと(ii)テスト用第1特徴マップとをいずれも参照して前記テスト用第1特徴マップをアップデートした結果であるテスト用第1_1アップデート特徴マップを生成させ、テスト用第1_1アップデート特徴マップに対してFC演算を適用してテスト用第1_1特徴ベクトルを生成させるプロセスを遂行することができる。
すなわち、テスト装置200は、第1_1LSTMモデルをもって、テスト用第1_2アップデート特徴マップとテスト用第1特徴マップとを参照して、テスト用走行環境が危険状況(Hazard Situation)であるかを第1テストイメージと第2テストイメージとのペアを参照して確認するのに使用されるテスト用第1_1特徴ベクトルを生成させることができる。
また、テスト装置200は、テスト用第1特徴マップを第2_1LSTMモデルに入力して、第2_1LSTMモデルをもって、第1CNNから出力されるテスト用第1特徴マップを参照して、テスト用第1特徴マップをアップデートした結果であるテスト用第2_1アップデート特徴マップを生成させた後、テスト用第2_1アップデート特徴マップに対してFC演算を適用してテスト用第2_1特徴ベクトルを出力させ、第2_mLSTMモデルをもって、第2_(m−1)LSTMモデルで生成されたテスト用第2_(m−1)アップデート特徴マップと以前のフレームで第1CNNにより生成されたテスト用第m特徴マップとをいずれも参照して、テスト用第m特徴マップをアップデートした結果であるテスト用第2_mアップデート特徴マップを生成させた後、テスト用第2_mアップデート特徴マップに対してFC演算を適用してテスト用第2_2特徴ベクトルないしテスト用第2_n特徴ベクトルを出力させることができる。この際、mは2以上でありn以下である整数であり得る。
すなわち、テスト装置200は、(i)第2_1LSTMモデルをもって、テスト用第2_1アップデート特徴マップを参照して、テスト用走行環境が危険状況であるかを第1テストイメージと第2テストイメージとのペアを参照して確認するのに使用される特徴に対応するテスト用第2_1特徴ベクトルを生成させるプロセス、及び(ii)第2_mLSTMモデルをもって、テスト用第2_(m−1)アップデート特徴マップとテスト用第m特徴マップとを参照して、テスト用走行環境が危険状況であるかを第1テストイメージと第2テストイメージとのペアを参照して確認するのに使用される特徴に対応するテスト用第2_2特徴ベクトルないし前記テスト用第2_n特徴ベクトルを生成させるプロセスを遂行することができる。
この場合、図2における学習方法では第1_1LSTMないし第1_nLSTMを使用したが、テストプロセスでは以前のフレーム、すなわち、以前のテスト用特徴ベクトルを利用した第1_1LSTMにより生成された以前のテスト用特徴ベクトルが格納されているので、テストプロセスは現時点に対応する一つの第1_1LSTMを利用して遂行され得る。
次に、テスト装置200は、(i)テスト用第1_1特徴ベクトル及び(ii)以前のフレームからの第1_1LSTMモデルにより出力されたテスト用第1_2特徴ベクトルないしテスト用第1_n特徴ベクトルとテスト用第2_1特徴ベクトルないしテスト用第2_m特徴ベクトルとをアテンションレイヤに入力して、アテンションレイヤをもって、テスト用第1_1特徴ベクトルないしテスト用第1_n特徴ベクトルとテスト用第2_1特徴ベクトルないしテスト用第2_n特徴ベクトルとを参照して、第1テストイメージと第2テストイメージとに対するテスト用自律走行モード値、すなわち、自律走行モードで自律走行自動車を走行させるのかマニュアル走行モードで自律走行自動車を走行させるのかについて確認する値を出力させることができる。
この際、テスト装置200は、アテンションレイヤをもって、(i)テスト用第1_k特徴ベクトルとテスト用第2_k特徴ベクトルとをコンカチネートさせて、テスト用第1コンカチネート済み特徴ベクトルないしテスト用第nコンカチネート済み特徴ベクトルを生成させ、(ii)テスト用第1コンカチネート済み特徴ベクトルないしテスト用第nコンカチネート済み特徴ベクトルを加重平均させて、テスト用自律走行モード値を生成させるプロセスを遂行することができる。
前記で説明したように、本発明は、自律走行自動車の前方カメラと後方カメラから取得される多重視点情報を融合するための方法に関し、RNNをもって、走行環境が危険状況であるかを判断して自律走行の安全性を確認させて、それに応じて自律走行自動車の走行モードの変更を遂行させるものである。
また、以上にて説明された本発明による各実施例は、多様なコンピュータの構成要素を通じて遂行することができるプログラム命令語の形態で具現されて、コンピュータ読取り可能な記録媒体に格納され得る。前記コンピュータ読取り可能な記録媒体は、プログラム命令語、データファイル、データ構造などを単独で又は組み合わせて含むことができる。前記コンピュータ読取り可能な記録媒体に格納されるプログラム命令語は、本発明のために特別に設計され、構成されたものであるか、コンピュータソフトウェア分野の当業者に公知にされて使用可能なものであり得る。コンピュータ読取り可能な記録媒体の例には、ハードディスク、フロッピーディスク及び磁気テープのような磁気媒体、CD−ROM、DVDのような光記録媒体、フロプティカルディスク(Floptical Disk)のような磁気−光メディア(Magneto−Optical Media)及びROM、RAM、フラッシュメモリなどのようなプログラム命令語を格納して遂行するように特別に構成されたハードウェア装置が含まれる。プログラム命令語の例には、コンパイラによって作られるもののような機械語コードだけでなく、インタープリターなどを使用してコンピュータによって実行され得る高級言語コードも含まれる。前記ハードウェア装置は、本発明による処理を実行するために一つ以上のソフトウェアモジュールとして作動するように構成され得、その反対も同様である。
以上にて本発明が具体的な構成要素などのような特定事項と限定された実施例及び図面によって説明されたが、これは、本発明のより全般的な理解の一助とするために提供されたものであるに過ぎず、本発明が前記実施例に限定されるではなく、本発明が属する技術分野において通常の知識を有する者であれば、かかる記載から多様な修正及び変形が行われ得る。
したがって、本発明の思想は、前記説明された実施例に局限されて定められてはならず、後述する特許請求の範囲だけでなく、本特許請求の範囲と均等または等価的に変形されたものすべては、本発明の思想の範囲に属するといえる。
100:学習装置
110:メモリ
120:プロセッサ
200:テスト装置
210:メモリ
220:プロセッサ

Claims (22)

  1. 自律走行自動車の走行モード変更のために使用される、自律走行の安全性を確認するRNN(Recurrent Neural Network)を学習する方法において、
    (a)学習用自律走行自動車の学習用前方カメラと学習用後方カメラとにそれぞれ対応するシーケンスイメージである第1_1トレーニングイメージないし第1_nトレーニングイメージと第2_1トレーニングイメージないし第2_nトレーニングイメージとが取得されると、学習装置が、第1_kトレーニングイメージと第2_kトレーニングイメージ(前記kは整数(integer)であり、シーケンスはnから1に進行する)とで構成されたペア(Pair)それぞれを、前記ペアそれぞれのシーケンスに対応する第1CNN(Convolutional Neural Network)ないし第nCNNにそれぞれ入力して、第kCNNをもって、前記第1_kトレーニングイメージと前記第2_kトレーニングイメージとをコンカチネート(Concatenating)させた後、前記第1_kトレーニングイメージと前記第2_kトレーニングイメージとのコンカチネーティング結果に対してコンボリューション演算を適用して学習用第1特徴マップ(Feature Map)ないし学習用第n特徴マップを生成させる段階;
    (b)前記学習装置が、(i)前記学習用第1特徴マップないし前記学習用第n特徴マップをフォワードRNN(Forward RNN)のそれぞれのシーケンスに対応する第1_1LSTM(Long Short−Term Memory)モデルないし第1_nLSTMモデルそれぞれに入力し、バックワードRNN(Backward RNN)のそれぞれのシーケンスに対応する第2_1LSTMモデルないし第2_nLSTMモデルそれぞれに入力して、(i−1)第1_kLSTMモデルをもって、(i−1−a)第1_(k+1)LSTMモデルから出力される学習用第1_(k+1)アップデート特徴マップ(Updated Feature Map)と前記第kCNNから出力される学習用第k特徴マップとをいずれも参照して前記学習用第k特徴マップをアップデートした結果である学習用第1_kアップデート特徴マップを生成させ、(i−1−b)前記学習用第1_kアップデート特徴マップに対してFC演算(Fully Connected Operation)を適用した結果である学習用第1_1特徴ベクトルないし学習用第1_n特徴ベクトルを生成させ、(i−2)第2_kLSTMモデルをもって、(i−2−a)第2_(k−1)LSTMモデルから出力される学習用第2_(k−1)アップデート特徴マップと前記第kCNNから出力される前記学習用第k特徴マップとをいずれも参照して前記学習用第k特徴マップをアップデートした結果である学習用第2_kアップデート特徴マップを生成させ、(i−2−b)前記学習用第2_kアップデート特徴マップに対してFC演算を適用した結果である学習用第2_1特徴ベクトルないし学習用第2_n特徴ベクトルを生成させるプロセス、及び(ii)前記学習用第1_1特徴ベクトルないし前記学習用第1_n特徴ベクトルと前記学習用第2_1特徴ベクトルないし前記学習用第2_n特徴ベクトルとをアテンションレイヤ(Attention Layer)に入力して、前記アテンションレイヤをもって、前記学習用第1_1特徴ベクトルないし前記学習用第1_n特徴ベクトルと前記学習用第2_1特徴ベクトルないし前記学習用第2_n特徴ベクトルとを参照して、前記第1_1トレーニングイメージないし前記第1_nトレーニングイメージと前記第2_1トレーニングイメージないし前記第2_nトレーニングイメージとのすべてのシーケンスにおける学習用自律走行モード値(Autonomous−Driving Mode Value)を生成させるプロセスを遂行する段階;及び
    (c)前記学習装置が、ロスレイヤ(Loss Layer)をもって、前記学習用自律走行モード値とこれに対応する原本正解(Ground Truth)とを参照して少なくとも一つのロスを算出させるプロセス、及び前記ロスを利用したバックプロパゲーションを通じて前記ロスを最小化するように前記第1_1LSTMモデルないし前記第1_nLSTMモデルと前記第2_1LSTMモデルないし前記第2_nLSTMモデルとを学習するプロセスを遂行する段階;
    を含むことを特徴とする方法。
  2. 前記(b)段階で、
    前記学習装置は、前記アテンションレイヤをもって、(i)学習用第1_k特徴ベクトルと学習用第2_k特徴ベクトルとをコンカチネートさせて、学習用第1コンカチネート済み特徴ベクトルないし学習用第nコンカチネート済み特徴ベクトルを生成させ、(ii)前記学習用第1コンカチネート済み特徴ベクトルないし前記学習用第nコンカチネート済み特徴ベクトルに対して加重平均(Weighted Average)させて、前記学習用自律走行モード値を生成させることを特徴とする請求項1に記載の方法。
  3. 前記(a)段階で、
    前記学習装置は、前記第1CNNないし前記第nCNNそれぞれをもって、(i)前記第1_kトレーニングイメージと前記第2_kトレーニングイメージとをそれぞれコンカチネートさせて第kコンカチネート済みトレーニングイメージを生成させ、(ii)前記第kコンカチネート済みトレーニングイメージに対してコンボリューション演算を適用させて前記学習用第1特徴マップないし前記学習用第n特徴マップを生成させる請求項1に記載の方法。
  4. 前記(b)段階で、
    前記学習装置は、(i)前記第1_kLSTMモデルをもって、前記学習用第1_(k+1)アップデート特徴マップと前記学習用第1_k特徴マップとを参照して、学習用走行環境が危険状況(Hazard Situation)であるかを前記第1_kトレーニングイメージと前記第2_kトレーニングイメージとの前記ペアを参照して確認するのに使用される特徴に対応する前記学習用第1_1特徴ベクトルないし前記学習用第1_n特徴ベクトルを生成させるプロセス、及び(ii)前記第2_kLSTMモデルをもって、前記学習用第2_(k−1)アップデート特徴マップと前記学習用第2_k特徴マップとを参照して、前記学習用走行環境が危険状況であるかを前記第1_kトレーニングイメージと前記第2_kトレーニングイメージとの前記ペアを参照して確認するのに使用される特徴に対応する前記学習用第2_1特徴ベクトルないし前記学習用第2_n特徴ベクトルを生成させるプロセスを遂行することを特徴とする請求項1に記載の方法。
  5. 前記(c)段階で、
    前記学習装置は、前記ロスレイヤをもって、ソフトマックス(Softmax)アルゴリズムを利用して前記学習用自律走行モード値を正規化(Normalize)するプロセス、及び正規化された前記学習用自律走行モード値と前記原本正解とを参照して前記ロスを算出するプロセスを遂行することを特徴とする請求項1に記載の方法。
  6. 前記第1_1トレーニングイメージないし前記第1_nトレーニングイメージと前記第2_1トレーニングイメージないし前記第2_nトレーニングイメージとは、(i)(i−1)前記学習用自律走行自動車の前記学習用前方カメラから撮影される映像を予め設定された時間間隔でサンプリングして第1シーケンスイメージを抽出するプロセス、及び(i−2)抽出された前記第1シーケンスイメージそれぞれに対して自律走行が可能であるか否かをラベリングするプロセス、及び(ii)(ii−1)前記学習用自律走行自動車の前記学習用後方カメラから撮影される映像を前記予め設定された時間間隔でサンプリングして第2シーケンスイメージを抽出するプロセス、及び(ii−2)サンプリングされた前記第2シーケンスイメージそれぞれに対して自律走行が可能であるか否かをラベリングするプロセスを遂行して生成されることを特徴とする請求項1に記載の方法。
  7. 前記(c)段階で、
    前記原本正解は、前記シーケンスイメージのうち前記第1_1トレーニングイメージないし前記第1_nトレーニングイメージのネクストシーケンスに対応する第1ネクストシーケンスイメージ(Next Sequence Image)と、前記第2_1トレーニングイメージないし前記第2_nトレーニングイメージとの前記ネクストシーケンスに対応する第2ネクストシーケンスイメージから取得されることを特徴とする請求項1に記載の方法。
  8. 自律走行自動車の走行モード変更のために使用される、自律走行の安全性を確認するRNN(Recurrent Neural Network)をテストする方法において、
    (a)学習用自律走行自動車の学習用前方カメラと学習用後方カメラとにそれぞれ対応するシーケンスイメージである第1_1トレーニングイメージないし第1_nトレーニングイメージと第2_1トレーニングイメージないし第2_nトレーニングイメージとが取得されると、学習装置が、(i)第1_kトレーニングイメージと第2_kトレーニングイメージ(前記kは整数であり、シーケンスはnから1に進行する)とで構成されたペア(Pair)それぞれを、前記ペアそれぞれのシーケンスに対応する第1CNN(Convolutional Neural Network)ないし第nCNNにそれぞれ入力して、第kCNNをもって、前記第1_kトレーニングイメージと前記第2_kトレーニングイメージとをコンカチネート(Concatenating)させた後、前記第1_kトレーニングイメージと前記第2_kトレーニングイメージとのコンカチネーティング結果に対してコンボリューション演算を適用して学習用第1特徴マップ(Feature Map)ないし学習用第n特徴マップを生成させるプロセス、(ii)前記学習用第1特徴マップないし前記学習用第n特徴マップをフォワードRNN(Forward RNN)のそれぞれのシーケンスに対応する第1_1LSTM(Long Short−Term Memory)モデルないし第1_nLSTMモデルそれぞれに入力し、バックワードRNN(Backward RNN)のそれぞれのシーケンスに対応する第2_1LSTMモデルないし第2_nLSTMモデルそれぞれに入力して、(ii−1)第1_kLSTMモデルをもって、(ii−1−a)第1_(k+1)LSTMモデルから出力される学習用第1_(k+1)アップデート特徴マップ(Updated Feature Map)と前記第kCNNから出力される学習用第k特徴マップとをいずれも参照して前記学習用第k特徴マップをアップデートした結果である学習用第1_kアップデート特徴マップを生成させ、(ii−1−b)前記学習用第1_kアップデート特徴マップに対してFC演算(Fully Connected Operation)を適用した結果である学習用第1_1特徴ベクトルないし学習用第1_n特徴ベクトルを生成させ、(ii−2)第2_kLSTMモデルをもって、(ii−2−a)第2_(k−1)LSTMモデルから出力される学習用第2_(k−1)アップデート特徴マップと前記第kCNNから出力される前記学習用第k特徴マップとをいずれも参照して前記学習用第k特徴マップをアップデートした結果である学習用第2_kアップデート特徴マップを生成させ、(ii−2−b)前記学習用第2_kアップデート特徴マップに対してFC演算を適用した結果である学習用第2_1特徴ベクトルないし学習用第2_n特徴ベクトルを生成させるプロセス、(iii)前記学習用第1_1特徴ベクトルないし前記学習用第1_n特徴ベクトルと、前記学習用第2_1特徴ベクトルないし前記学習用第2_n特徴ベクトルとをアテンションレイヤ(Attention Layer)に入力して、前記アテンションレイヤをもって、前記学習用第1_1特徴ベクトルないし前記学習用第1_n特徴ベクトルと前記学習用第2_1特徴ベクトルないし前記学習用第2_n特徴ベクトルとを参照して、前記第1_1トレーニングイメージないし前記第1_nトレーニングイメージと前記第2_1トレーニングイメージないし前記第2_nトレーニングイメージとのすべてのシーケンスにおける学習用自律走行モード値(Autonomous−Driving Mode Value)を生成させるプロセス、及び(iv)ロスレイヤ(Loss Layer)をもって、前記学習用自律走行モード値とこれに対応する原本正解(Ground Truth)とを参照して少なくとも一つのロスを算出させるプロセス、及び前記ロスを利用したバックプロパゲーションを通じて前記ロスを最小化するように前記第1_1LSTMモデルないし前記第1_nLSTMモデルと前記第2_1LSTMモデルないし前記第2_nLSTMモデルとを学習するプロセスを遂行した状態で、走行中であるテスト用自律走行自動車のテスト用前方カメラとテスト用後方カメラとから前記テスト用自律走行自動車のテスト用前方映像とテスト用後方映像とが取得されると、テスト装置が、前記テスト用前方映像の現在フレームに対応する第1テストイメージと前記テスト用後方映像の前記現在フレームに対応する第2テストイメージとを前記第1CNNに入力して、前記第1CNNをもって、前記第1テストイメージと前記第2テストイメージとのコンカチネーティング結果に対してコンボリューション演算を適用してテスト用第1特徴マップを生成させる段階;及び
    (b)前記テスト装置が、(i)前記テスト用第1特徴マップないし前記テスト用第n特徴マップを前記フォワードRNNのそれぞれのシーケンスに対応する前記第1_1LSTMモデルないし前記第1_nLSTMモデルそれぞれに入力し、前記バックワードRNNのそれぞれのシーケンスに対応する前記第2_1LSTMモデルないし前記第2_nLSTMモデルそれぞれに入力して、(i−1)前記第1_kLSTMモデルをもって、(i−1−a)前記第1_(k+1)LSTMモデルから出力されるテスト用第1_(k+1)アップデート特徴マップ(Updated Feature Map)と前記第kCNNから出力されるテスト用第k特徴マップとをいずれも参照して、前記テスト用第k特徴マップをアップデートした結果であるテスト用第1_kアップデート特徴マップを生成させ、(i−1−b)前記テスト用第1_kアップデート特徴マップに対してFC演算を適用した結果であるテスト用第1_1特徴ベクトルないしテスト用第1_n特徴ベクトルを生成させ、(i−2)前記第2_kLSTMモデルをもって、(i−2−a)前記第2_(k−1)LSTMモデルから出力されるテスト用第2_(k−1)アップデート特徴マップと前記第kCNNから出力される前記テスト用第k特徴マップとをいずれも参照して、前記テスト用第k特徴マップをアップデートした結果であるテスト用第2_kアップデート特徴マップを生成させ、(i−2−b)前記テスト用第2_kアップデート特徴マップに対してFC演算を適用した結果であるテスト用第2_1特徴ベクトルないしテスト用第2_n特徴ベクトルを生成させるプロセス、及び(ii)前記テスト用第1_1特徴ベクトルないし前記テスト用第1_n特徴ベクトルと前記テスト用第2_1特徴ベクトルないし前記テスト用第2_n特徴ベクトルとを前記アテンションレイヤに入力して、前記アテンションレイヤをもって、前記テスト用第1_1特徴ベクトルないし前記テスト用第1_n特徴ベクトルと前記テスト用第2_1特徴ベクトルないし前記テスト用第2_n特徴ベクトルとを参照して前記第1_1テストイメージないし前記第1_nテストイメージと前記第2_1テストイメージないし前記第2_nテストイメージとのすべてのシーケンスにおけるテスト用自律走行モード値を生成させる段階;
    を含むことを特徴とする方法。
  9. 前記(b)段階で、
    前記テスト装置は、前記アテンションレイヤをもって、(i)テスト用第1_k特徴ベクトルとテスト用第2_k特徴ベクトルとをコンカチネートさせて、テスト用第1コンカチネート済み特徴ベクトルないしテスト用第nコンカチネート済み特徴ベクトルを生成させ、(ii)前記テスト用第1コンカチネート済み特徴ベクトルないし前記テスト用第nコンカチネート済み特徴ベクトルに対して加重平均(Weighted Average)させて、前記テスト用自律走行モード値を生成させるプロセスを遂行することを特徴とする請求項8に記載の方法。
  10. 前記(a)段階で、
    前記テスト装置は、前記第1CNNをもって、(i)前記第1テストイメージと前記第2テストイメージとをコンカチネートさせて第1コンカチネート済みテストイメージを生成させ、(ii)前記第1コンカチネート済みテストイメージに対してコンボリューション演算を適用させて前記テスト用第1特徴マップを生成させるプロセスを遂行することを特徴とする請求項8に記載の方法。
  11. 前記(b)段階で、
    前記テスト装置は、(i)前記第1_1LSTMモデルをもって、前記テスト用第1_2アップデート特徴マップと前記テスト用第1特徴マップとを参照して、テスト用走行環境が危険状況(Hazard Situation)であるかを前記第1テストイメージと前記第2テストイメージとのペアを参照して確認するのに使用される特徴に対応する前記テスト用第1_1特徴ベクトルを生成させるプロセス、(ii)前記第2_1LSTMモデルをもって、前記テスト用第2_1アップデート特徴マップを参照して、前記テスト用走行環境が危険状況であるかを前記第1テストイメージと前記第2テストイメージとの前記ペアを参照して確認するのに使用される特徴に対応する前記テスト用第2_1特徴ベクトルを生成させるプロセス、及び(iii)前記第2_mLSTMモデルをもって、前記テスト用第2_(m−1)アップデート特徴マップと前記テスト用第m特徴マップとを参照して、前記テスト用走行環境が危険状況であるかを前記第1テストイメージと前記第2テストイメージとの前記ペアを参照して確認するのに使用される特徴に対応するテスト用第2_2特徴ベクトルないし前記テスト用第2_n特徴ベクトルを生成させるプロセスを遂行することを特徴とする請求項8に記載の方法。
  12. 自律走行自動車の走行モード変更のために使用される、自律走行の安全性を確認するRNN(Recurrent Neural Network)を学習する学習装置において、
    インストラクションを格納する少なくとも一つのメモリと、
    (I)学習用自律走行自動車の学習用前方カメラと学習用後方カメラとにそれぞれ対応するシーケンスイメージである第1_1トレーニングイメージないし第1_nトレーニングイメージと第2_1トレーニングイメージないし第2_nトレーニングイメージとが取得されると、第1_kトレーニングイメージと第2_kトレーニングイメージ(前記kは整数であり、シーケンスはnから1に進行する)とで構成されたペア(Pair)それぞれを、前記ペアそれぞれのシーケンスに対応する第1CNN(Convolutional Neural Network)ないし第nCNNにそれぞれ入力して、第kCNNをもって、前記第1_kトレーニングイメージと前記第2_kトレーニングイメージとをコンカチネート(Concatenating)させた後、前記第1_kトレーニングイメージと前記第2_kトレーニングイメージとのコンカチネーティング結果に対してコンボリューション演算を適用して学習用第1特徴マップ(Feature Map)ないし学習用第n特徴マップを生成させるプロセス、(II)(i)前記学習用第1特徴マップないし前記学習用第n特徴マップをフォワードRNN(Forward RNN)のそれぞれのシーケンスに対応する第1_1LSTM(Long Short−Term Memory)モデルないし第1_nLSTMモデルそれぞれに入力し、バックワードRNN(Backward RNN)のそれぞれのシーケンスに対応する第2_1LSTMモデルないし第2_nLSTMモデルそれぞれに入力して、(i−1)第1_kLSTMモデルをもって、(i−1−a)第1_(k+1)LSTMモデルから出力される学習用第1_(k+1)アップデート特徴マップ(Updated Feature Map)と前記第kCNNから出力される学習用第k特徴マップとをいずれも参照して前記学習用第k特徴マップをアップデートした結果である学習用第1_kアップデート特徴マップを生成させ、(i−1−b)前記学習用第1_kアップデート特徴マップに対してFC演算(Fully Connected Operation)を適用した結果である学習用第1_1特徴ベクトルないし学習用第1_n特徴ベクトルを生成させ、(i−2)第2_kLSTMモデルをもって、(i−2−a)第2_(k−1)LSTMモデルから出力される学習用第2_(k−1)アップデート特徴マップと前記第kCNNから出力される前記学習用第k特徴マップとをいずれも参照して前記学習用第k特徴マップをアップデートした結果である学習用第2_kアップデート特徴マップを生成させ、(i−2−b)前記学習用第2_kアップデート特徴マップに対してFC演算を適用した結果である学習用第2_1特徴ベクトルないし学習用第2_n特徴ベクトルを生成させるプロセス、及び(ii)前記学習用第1_1特徴ベクトルないし前記学習用第1_n特徴ベクトルと前記学習用第2_1特徴ベクトルないし前記学習用第2_n特徴ベクトルとをアテンションレイヤ(Attention Layer)に入力して、前記アテンションレイヤをもって、前記学習用第1_1特徴ベクトルないし前記学習用第1_n特徴ベクトルと前記学習用第2_1特徴ベクトルないし前記学習用第2_n特徴ベクトルとを参照して、前記第1_1トレーニングイメージないし前記第1_nトレーニングイメージと前記第2_1トレーニングイメージないし前記第2_nトレーニングイメージとのすべてのシーケンスにおける学習用自律走行モード値(Autonomous−Driving Mode Value)を生成させるプロセス、及び(III)ロスレイヤ(Loss Layer)をもって、前記学習用自律走行モード値とこれに対応する原本正解(Ground Truth)とを参照して少なくとも一つのロスを算出させるプロセス、及び前記ロスを利用したバックプロパゲーションを通じて前記ロスを最小化するように前記第1_1LSTMモデルないし前記第1_nLSTMモデルと前記第2_1LSTMモデルないし前記第2_nLSTMモデルとを学習するプロセスを遂行するための前記インストラクションを実行するように構成された少なくとも一つのプロセッサと、
    を含むことを特徴とする装置。
  13. 前記(II)プロセスで、
    前記プロセッサは、前記アテンションレイヤをもって、(i)学習用第1_k特徴ベクトルと学習用第2_k特徴ベクトルとをコンカチネートさせて、学習用第1コンカチネート済み特徴ベクトルないし学習用第nコンカチネート済み特徴ベクトルを生成させ、(ii)前記学習用第1コンカチネート済み特徴ベクトルないし前記学習用第nコンカチネート済み特徴ベクトルに対して加重平均(Weighted Average)させて、前記学習用自律走行モード値を生成させることを特徴とする請求項12に記載の装置。
  14. 前記(I)プロセスで、
    前記プロセッサは、前記第1CNNないし前記第nCNNそれぞれをもって、(i)前記第1_kトレーニングイメージと前記第2_kトレーニングイメージとをそれぞれコンカチネートさせて第kコンカチネート済みトレーニングイメージを生成させ、(ii)前記第kコンカチネート済みトレーニングイメージに対してコンボリューション演算を適用させて前記学習用第1特徴マップないし前記学習用第n特徴マップを生成させる請求項12に記載の装置。
  15. 前記(II)プロセスで、
    前記プロセッサは、(i)前記第1_kLSTMモデルをもって、前記学習用第1_(k+1)アップデート特徴マップと前記学習用第1_k特徴マップとを参照して、学習用走行環境が危険状況(Hazard Situation)であるかを前記第1_kトレーニングイメージと前記第2_kトレーニングイメージとの前記ペアを参照して確認するのに使用される特徴に対応する前記学習用第1_1特徴ベクトルないし前記学習用第1_n特徴ベクトルを生成させるプロセス、及び(ii)前記第2_kLSTMモデルをもって、前記学習用第2_(k−1)アップデート特徴マップと前記学習用第2_k特徴マップとを参照して、前記学習用走行環境が危険状況であるかを前記第1_kトレーニングイメージと前記第2_kトレーニングイメージとの前記ペアを参照して確認するのに使用される特徴に対応する前記学習用第2_1特徴ベクトルないし前記学習用第2_n特徴ベクトルを生成させるプロセスを遂行することを特徴とする請求項12に記載の装置。
  16. 前記(III)プロセスで、
    前記プロセッサは、前記ロスレイヤをもって、ソフトマックス(Softmax)アルゴリズムを利用して前記学習用自律走行モード値を正規化(Normalize)するプロセス、及び正規化された前記学習用自律走行モード値と前記原本正解とを参照して前記ロスを算出するプロセスを遂行することを特徴とする請求項12に記載の装置。
  17. 前記第1_1トレーニングイメージないし前記第1_nトレーニングイメージと前記第2_1トレーニングイメージないし前記第2_nトレーニングイメージとは、(i)(i−1)前記学習用自律走行自動車の前記学習用前方カメラから撮影される映像を予め設定された時間間隔でサンプリングして第1シーケンスイメージを抽出するプロセス、及び(i−2)抽出された前記第1シーケンスイメージそれぞれに対して自律走行が可能であるか否かをラベリングするプロセス、及び(ii)(ii−1)前記学習用自律走行自動車の前記学習用後方カメラから撮影される映像を前記予め設定された時間間隔でサンプリングして第2シーケンスイメージを抽出するプロセス、及び(ii−2)サンプリングされた前記第2シーケンスイメージそれぞれに対して自律走行が可能であるか否かをラベリングするプロセスを遂行して生成されることを特徴とする請求項12に記載の装置。
  18. 前記(III)プロセスで、
    前記原本正解は、前記シーケンスイメージのうち前記第1_1トレーニングイメージないし前記第1_nトレーニングイメージのネクストシーケンスに対応する第1ネクストシーケンスイメージ(Next Sequence Image)と、前記第2_1トレーニングイメージないし前記第2_nトレーニングイメージとの前記ネクストシーケンスに対応する第2ネクストシーケンスイメージから取得されることを特徴とする請求項12に記載の装置。
  19. 自律走行自動車の走行モード変更のために使用される、自律走行の安全性を確認するRNN(Recurrent Neural Network)をテストするテスト装置において、
    インストラクションを格納する少なくとも一つのメモリと、
    (I)学習用自律走行自動車の学習用前方カメラと学習用後方カメラとにそれぞれ対応するシーケンスイメージである第1_1トレーニングイメージないし第1_nトレーニングイメージと第2_1トレーニングイメージないし第2_nトレーニングイメージとが取得されると、学習装置が、(i)第1_kトレーニングイメージと第2_kトレーニングイメージ(前記kは整数であり、シーケンスはnから1に進行する)とで構成されたペア(Pair)それぞれを、前記ペアそれぞれのシーケンスに対応する第1CNN(Convolutional Neural Network)ないし第nCNNにそれぞれ入力して、第kCNNをもって、前記第1_kトレーニングイメージと前記第2_kトレーニングイメージとをコンカチネート(Concatenating)させた後、前記第1_kトレーニングイメージと前記第2_kトレーニングイメージとのコンカチネーティング結果に対してコンボリューション演算を適用して学習用第1特徴マップ(Feature Map)ないし学習用第n特徴マップを生成させるプロセス、(ii)前記学習用第1特徴マップないし前記学習用第n特徴マップをフォワードRNN(Forward RNN)のそれぞれのシーケンスに対応する第1_1LSTM(Long Short−Term Memory)モデルないし第1_nLSTMモデルそれぞれに入力し、バックワードRNN(Backward RNN)のそれぞれのシーケンスに対応する第2_1LSTMモデルないし第2_nLSTMモデルそれぞれに入力して、(ii−1)第1_kLSTMモデルをもって、(ii−1−a)第1_(k+1)LSTMモデルから出力される学習用第1_(k+1)アップデート特徴マップ(Updated Feature Map)と前記第kCNNから出力される学習用第k特徴マップとをいずれも参照して前記学習用第k特徴マップをアップデートした結果である学習用第1_kアップデート特徴マップを生成させ、(ii−1−b)前記学習用第1_kアップデート特徴マップに対してFC演算(Fully Connected Operation)を適用した結果である学習用第1_1特徴ベクトルないし学習用第1_n特徴ベクトルを生成させ、(ii−2)第2_kLSTMモデルをもって、(ii−2−a)第2_(k−1)LSTMモデルから出力される学習用第2_(k−1)アップデート特徴マップと前記第kCNNから出力される前記学習用第k特徴マップとをいずれも参照して前記学習用第k特徴マップをアップデートした結果である学習用第2_kアップデート特徴マップを生成させ、(ii−2−b)前記学習用第2_kアップデート特徴マップに対してFC演算を適用した結果である学習用第2_1特徴ベクトルないし学習用第2_n特徴ベクトルを生成させるプロセス、(iii)前記学習用第1_1特徴ベクトルないし前記学習用第1_n特徴ベクトルと前記学習用第2_1特徴ベクトルないし前記学習用第2_n特徴ベクトルとをアテンションレイヤ(Attention Layer)に入力して、前記アテンションレイヤをもって、前記学習用第1_1特徴ベクトルないし前記学習用第1_n特徴ベクトルと前記学習用第2_1特徴ベクトルないし前記学習用第2_n特徴ベクトルとを参照して、前記第1_1トレーニングイメージないし前記第1_nトレーニングイメージと前記第2_1トレーニングイメージないし前記第2_nトレーニングイメージとのすべてのシーケンスにおける学習用自律走行モード値(Autonomous−Driving Mode Value)を生成させるプロセス、及び(iv)ロスレイヤ(Loss Layer)をもって、前記学習用自律走行モード値とこれに対応する原本正解(Ground Truth)とを参照して少なくとも一つのロスを算出させるプロセス、及び前記ロスを利用したバックプロパゲーションを通じて前記ロスを最小化するように前記第1_1LSTMモデルないし前記第1_nLSTMモデルと前記第2_1LSTMモデルないし前記第2_nLSTMモデルとを学習するプロセスを遂行した状態で、走行中であるテスト用自律走行自動車のテスト用前方カメラとテスト用後方カメラとから前記テスト用自律走行自動車のテスト用前方映像とテスト用後方映像とが取得されると、前記テスト用前方映像の現在フレームに対応する第1テストイメージと前記テスト用後方映像の前記現在フレームに対応する第2テストイメージとを前記第1CNNに入力して、前記第1CNNをもって、前記第1テストイメージと前記第2テストイメージとのコンカチネーティング結果に対してコンボリューション演算を適用してテスト用第1特徴マップを生成させるプロセス、及び(II)(i)前記テスト用第1特徴マップないし前記テスト用第n特徴マップを前記フォワードRNNのそれぞれのシーケンスに対応する前記第1_1LSTMモデルないし前記第1_nLSTMモデルそれぞれに入力し、前記バックワードRNNのそれぞれのシーケンスに対応する前記第2_1LSTMモデルないし前記第2_nLSTMモデルそれぞれに入力して、(i−1)前記第1_kLSTMモデルをもって、(i−1−a)前記第1_(k+1)LSTMモデルから出力されるテスト用第1_(k+1)アップデート特徴マップ(Updated Feature Map)と前記第kCNNから出力されるテスト用第k特徴マップとをいずれも参照して、前記テスト用第k特徴マップをアップデートした結果であるテスト用第1_kアップデート特徴マップを生成させ、(i−1−b)前記テスト用第1_kアップデート特徴マップに対してFC演算を適用した結果であるテスト用第1_1特徴ベクトルないしテスト用第1_n特徴ベクトルを生成させ、(i−2)前記第2_kLSTMモデルをもって、(i−2−a)前記第2_(k−1)LSTMモデルから出力されるテスト用第2_(k−1)アップデート特徴マップと前記第kCNNから出力される前記テスト用第k特徴マップとをいずれも参照して、前記テスト用第k特徴マップをアップデートした結果であるテスト用第2_kアップデート特徴マップを生成させ、(i−2−b)前記テスト用第2_kアップデート特徴マップに対してFC演算を適用した結果であるテスト用第2_1特徴ベクトルないしテスト用第2_n特徴ベクトルを生成させるプロセス、及び(ii)前記テスト用第1_1特徴ベクトルないし前記テスト用第1_n特徴ベクトルと前記テスト用第2_1特徴ベクトルないし前記テスト用第2_n特徴ベクトルとを前記アテンションレイヤに入力して、前記アテンションレイヤをもって、前記テスト用第1_1特徴ベクトルないし前記テスト用 第1_n特徴ベクトルと前記テスト用第2_1特徴ベクトルないし前記テスト用第2_n特徴ベクトルとを参照して前記第1_1テストイメージないし前記第1_nテストイメージと前記第2_1テストイメージないし前記第2_nテストイメージとのすべてのシーケンスにおけるテスト用自律走行モード値を生成させるプロセスを遂行するための前記インストラクションを実行するように構成された少なくとも一つのプロセッサと、
    を含むことを特徴とする装置。
  20. 前記(II)プロセスで、
    前記プロセッサは、前記アテンションレイヤをもって、(i)テスト用第1_k特徴ベクトルとテスト用第2_k特徴ベクトルとをコンカチネートさせて、テスト用第1コンカチネート済み特徴ベクトルないしテスト用第nコンカチネート済み特徴ベクトルを生成させ、(ii)前記テスト用第1コンカチネート済み特徴ベクトルないし前記テスト用第nコンカチネート済み特徴ベクトルに対して加重平均(Weighted Average)させて、前記テスト用自律走行モード値を生成させるプロセスを遂行することを特徴とする請求項19に記載の装置。
  21. 前記(I)プロセスで、
    前記プロセッサは、前記第1CNNをもって、(i)前記第1テストイメージと前記第2テストイメージとをコンカチネートさせて第1コンカチネート済みテストイメージを生成させ、(ii)前記第1コンカチネート済みテストイメージに対してコンボリューション演算を適用させて、前記テスト用第1特徴マップを生成させるプロセスを遂行することを特徴とする請求項19に記載の装置。
  22. 前記(II)プロセスで、
    前記プロセッサは、(i)前記第1_1LSTMモデルをもって、前記テスト用第1_2アップデート特徴マップと前記テスト用第1特徴マップとを参照して、テスト用走行環境が危険状況(Hazard Situation)であるかを前記第1テストイメージと前記第2テストイメージとのペアを参照して確認するのに使用される特徴に対応する前記テスト用第1_1特徴ベクトルを生成させるプロセス、(ii)前記第2_1LSTMモデルをもって、前記テスト用第2_1アップデート特徴マップを参照して、前記テスト用走行環境が危険状況であるかを前記第1テストイメージと前記第2テストイメージとの前記ペアを参照して確認するのに使用される特徴に対応する前記テスト用第2_1特徴ベクトルを生成させるプロセス、及び(iii)前記第2_mLSTMモデルをもって、前記テスト用第2_(m−1)アップデート特徴マップと前記テスト用第m特徴マップとを参照して、前記テスト用走行環境が危険状況であるかを前記第1テストイメージと前記第2テストイメージとの前記ペアを参照して確認するのに使用される特徴に対応するテスト用第2_2特徴ベクトルないし前記テスト用第2_n特徴ベクトルを生成させるプロセスを遂行することを特徴とする請求項19に記載の装置。
JP2020007151A 2019-01-30 2020-01-20 自律走行モードとマニュアル走行モードとの間の走行モードを変更するために自律走行の安全を確認するためのrnnの学習方法及び学習装置、そしてテスト方法及びテスト装置 Active JP6850047B2 (ja)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US201962798946P 2019-01-30 2019-01-30
US62/798,946 2019-01-30
US16/723,753 US11087175B2 (en) 2019-01-30 2019-12-20 Learning method and learning device of recurrent neural network for autonomous driving safety check for changing driving mode between autonomous driving mode and manual driving mode, and testing method and testing device using them
US16/723,753 2019-12-20

Publications (2)

Publication Number Publication Date
JP2020123334A true JP2020123334A (ja) 2020-08-13
JP6850047B2 JP6850047B2 (ja) 2021-03-31

Family

ID=69167685

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020007151A Active JP6850047B2 (ja) 2019-01-30 2020-01-20 自律走行モードとマニュアル走行モードとの間の走行モードを変更するために自律走行の安全を確認するためのrnnの学習方法及び学習装置、そしてテスト方法及びテスト装置

Country Status (5)

Country Link
US (1) US11087175B2 (ja)
EP (1) EP3690709B1 (ja)
JP (1) JP6850047B2 (ja)
KR (1) KR102396267B1 (ja)
CN (1) CN111507163B (ja)

Families Citing this family (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10678244B2 (en) 2017-03-23 2020-06-09 Tesla, Inc. Data synthesis for autonomous control systems
US11409692B2 (en) 2017-07-24 2022-08-09 Tesla, Inc. Vector computational unit
US10671349B2 (en) 2017-07-24 2020-06-02 Tesla, Inc. Accelerated mathematical engine
US11157441B2 (en) 2017-07-24 2021-10-26 Tesla, Inc. Computational array microprocessor system using non-consecutive data formatting
US11893393B2 (en) 2017-07-24 2024-02-06 Tesla, Inc. Computational array microprocessor system with hardware arbiter managing memory requests
US11561791B2 (en) 2018-02-01 2023-01-24 Tesla, Inc. Vector computational unit receiving data elements in parallel from a last row of a computational array
US11215999B2 (en) 2018-06-20 2022-01-04 Tesla, Inc. Data pipeline and deep learning system for autonomous driving
US11361457B2 (en) 2018-07-20 2022-06-14 Tesla, Inc. Annotation cross-labeling for autonomous control systems
US11636333B2 (en) 2018-07-26 2023-04-25 Tesla, Inc. Optimizing neural network structures for embedded systems
US11562231B2 (en) 2018-09-03 2023-01-24 Tesla, Inc. Neural networks for embedded devices
SG11202103493QA (en) 2018-10-11 2021-05-28 Tesla Inc Systems and methods for training machine models with augmented data
US11196678B2 (en) 2018-10-25 2021-12-07 Tesla, Inc. QOS manager for system on a chip communications
US11816585B2 (en) 2018-12-03 2023-11-14 Tesla, Inc. Machine learning models operating at different frequencies for autonomous vehicles
US11537811B2 (en) 2018-12-04 2022-12-27 Tesla, Inc. Enhanced object detection for autonomous vehicles based on field view
US11610117B2 (en) 2018-12-27 2023-03-21 Tesla, Inc. System and method for adapting a neural network model on a hardware platform
US10997461B2 (en) 2019-02-01 2021-05-04 Tesla, Inc. Generating ground truth for machine learning from time series elements
US11150664B2 (en) 2019-02-01 2021-10-19 Tesla, Inc. Predicting three-dimensional features for autonomous driving
US11567514B2 (en) 2019-02-11 2023-01-31 Tesla, Inc. Autonomous and user controlled vehicle summon to a target
US10956755B2 (en) 2019-02-19 2021-03-23 Tesla, Inc. Estimating object properties using visual image data
US11772671B2 (en) * 2019-06-03 2023-10-03 Toyota Research Institute, Inc. Systems and methods for predicting control handback
EP3915851B1 (en) * 2020-05-28 2024-05-01 Zenuity AB System and method for estimating take-over time
CN112622929A (zh) * 2020-12-12 2021-04-09 王伟伟 一种带有速度调控旋钮的急停式自动驾驶系统
KR20220150096A (ko) 2021-05-03 2022-11-10 현대모비스 주식회사 딥러닝 머신 및 그 운용방법
KR102531838B1 (ko) * 2021-05-06 2023-05-12 대한민국 극자외선 태양 영상을 사용하여 지자기 교란 지수를 예측하는 학습 방법 및 학습 장치, 그리고 이를 이용한 테스트 방법 및 테스트 장치
US12066920B2 (en) * 2022-05-13 2024-08-20 Microsoft Technology Licensing, Llc Automated software testing with reinforcement learning
CN116483059B (zh) * 2023-06-20 2023-10-03 卡斯柯信号(北京)有限公司 一种全自动无人驾驶的蠕动模式测试方法及装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017159884A (ja) * 2016-03-10 2017-09-14 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 運転制御装置、運転制御方法及び運転制御プログラム
WO2017209225A1 (ja) * 2016-06-02 2017-12-07 オムロン株式会社 状態推定装置、状態推定方法、及び状態推定プログラム
WO2018158642A1 (en) * 2017-03-01 2018-09-07 Mobileye Vision Technologies Ltd. Systems and methods for navigating with sensing uncertainty
WO2018168040A1 (ja) * 2017-03-14 2018-09-20 オムロン株式会社 運転者監視装置、運転者監視方法、学習装置及び学習方法

Family Cites Families (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8825258B2 (en) 2012-11-30 2014-09-02 Google Inc. Engaging and disengaging for autonomous driving
KR102137213B1 (ko) 2015-11-16 2020-08-13 삼성전자 주식회사 자율 주행을 위한 모델 학습 장치 및 방법과 자율 주행 장치
US9802599B2 (en) * 2016-03-08 2017-10-31 Ford Global Technologies, Llc Vehicle lane placement
US10402653B2 (en) * 2016-03-30 2019-09-03 Nec Corporation Large margin high-order deep learning with auxiliary tasks for video-based anomaly detection
WO2017208529A1 (ja) 2016-06-02 2017-12-07 オムロン株式会社 運転者状態推定装置、運転者状態推定システム、運転者状態推定方法、運転者状態推定プログラム、対象者状態推定装置、対象者状態推定方法、対象者状態推定プログラム、および記録媒体
US10438493B2 (en) 2016-08-24 2019-10-08 Uber Technologies, Inc. Hybrid trip planning for autonomous vehicles
US11308350B2 (en) * 2016-11-07 2022-04-19 Qualcomm Incorporated Deep cross-correlation learning for object tracking
US20180203457A1 (en) * 2017-01-13 2018-07-19 Ford Global Technologies, Llc System and Method for Avoiding Interference with a Bus
US10198655B2 (en) * 2017-01-24 2019-02-05 Ford Global Technologies, Llc Object detection using recurrent neural network and concatenated feature map
KR20180094725A (ko) * 2017-02-16 2018-08-24 삼성전자주식회사 자율 주행을 위한 차량 제어 방법, 차량 제어 장치 및 자율 주행을 위한 학습 방법
US10593042B1 (en) * 2017-04-11 2020-03-17 Zoox, Inc. Perspective conversion for multi-dimensional data analysis
US20180299841A1 (en) * 2017-04-17 2018-10-18 Intel Corporation Autonomous vehicle neural network optimization
US10922566B2 (en) * 2017-05-09 2021-02-16 Affectiva, Inc. Cognitive state evaluation for vehicle navigation
US10543853B2 (en) 2017-07-05 2020-01-28 Toyota Motor Engineering & Manufacturing North America, Inc. Systems and methods for providing collaborative control of a vehicle
US10402995B2 (en) * 2017-07-27 2019-09-03 Here Global B.V. Method, apparatus, and system for real-time object detection using a cursor recurrent neural network
US11741354B2 (en) * 2017-08-25 2023-08-29 Ford Global Technologies, Llc Shared processing with deep neural networks
US10691962B2 (en) * 2017-09-22 2020-06-23 Toyota Motor Engineering & Manufacturing North America, Inc. Systems and methods for rear signal identification using machine learning
US10438371B2 (en) * 2017-09-22 2019-10-08 Zoox, Inc. Three-dimensional bounding box from two-dimensional image and point cloud data
US9934440B1 (en) * 2017-10-04 2018-04-03 StradVision, Inc. Method for monitoring blind spot of monitoring vehicle and blind spot monitor using the same
US10169679B1 (en) * 2017-10-13 2019-01-01 StradVision, Inc. Learning method and learning device for adjusting parameters of CNN by using loss augmentation and testing method and testing device using the same
CN108052512B (zh) * 2017-11-03 2021-05-11 同济大学 一种基于深度注意力机制的图像描述生成方法
US10908614B2 (en) * 2017-12-19 2021-02-02 Here Global B.V. Method and apparatus for providing unknown moving object detection
US10657391B2 (en) * 2018-01-05 2020-05-19 Uatc, Llc Systems and methods for image-based free space detection
CN108875807B (zh) * 2018-05-31 2022-05-27 陕西师范大学 一种基于多注意力多尺度的图像描述方法
CN108944930B (zh) * 2018-07-05 2020-04-21 合肥工业大学 一种基于lstm的模拟驾驶员特性的自动跟车方法及系统
US11600006B2 (en) * 2018-10-26 2023-03-07 Here Global B.V. Deep neural network architecture for image segmentation
US10691133B1 (en) * 2019-11-26 2020-06-23 Apex Artificial Intelligence Industries, Inc. Adaptive and interchangeable neural networks

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017159884A (ja) * 2016-03-10 2017-09-14 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 運転制御装置、運転制御方法及び運転制御プログラム
WO2017209225A1 (ja) * 2016-06-02 2017-12-07 オムロン株式会社 状態推定装置、状態推定方法、及び状態推定プログラム
WO2018158642A1 (en) * 2017-03-01 2018-09-07 Mobileye Vision Technologies Ltd. Systems and methods for navigating with sensing uncertainty
WO2018168040A1 (ja) * 2017-03-14 2018-09-20 オムロン株式会社 運転者監視装置、運転者監視方法、学習装置及び学習方法

Also Published As

Publication number Publication date
US20200242408A1 (en) 2020-07-30
EP3690709C0 (en) 2023-11-01
CN111507163B (zh) 2023-10-17
KR102396267B1 (ko) 2022-05-11
EP3690709B1 (en) 2023-11-01
KR20200095355A (ko) 2020-08-10
US11087175B2 (en) 2021-08-10
EP3690709A1 (en) 2020-08-05
JP6850047B2 (ja) 2021-03-31
CN111507163A (zh) 2020-08-07

Similar Documents

Publication Publication Date Title
JP2020123334A (ja) 自律走行モードとマニュアル走行モードとの間の走行モードを変更するために自律走行の安全を確認するためのrnnの学習方法及び学習装置、そしてテスト方法及びテスト装置
KR102373456B1 (ko) 자동 주차 시스템을 제공하기 위해 결정 지점 간의 관계 및 결정 지점에 대한 리그레션 결과를 이용하여 주차 공간을 검출하는 학습 방법 및 학습 장치, 그리고 이를 이용한 테스팅 방법 및 테스팅 장치
JP6857371B2 (ja) 安全な自律走行を支援する学習方法、そしてこれを利用した学習装置、テスト方法、及びテスト装置
US10943148B2 (en) Inspection neural network for assessing neural network reliability
US20200239029A1 (en) Learning method and learning device for determining whether to switch mode of vehicle from manual driving mode to autonomous driving mode by performing trajectory-based behavior analysis on recent driving route
US10832140B2 (en) Method and device for providing information for evaluating driving habits of driver by detecting driving scenarios occurring during driving
CN109598184B (zh) 一种多分割任务的处理方法和装置
JP6849932B2 (ja) 高精密度のイメージを分析するためのディープラーニングネットワークを使用するためにトレーニングイメージをオートラベリングするオートラベルリング装置のハイパーパラメータを最適化する方法、及びこれを利用した最適化装置
EP3686798B1 (en) Learning method and learning device for objet detector based on cnn
JP2020123330A (ja) ニューラルネットワーク学習に利用されるオートラベリングされたイメージのうちでラベル検収のためのサンプルイメージを取得する方法、及びそれを利用したサンプルイメージ取得装置
KR102301631B1 (ko) 협업 주행을 수행하는 자동차들로부터 획득된 주행 이미지들을 통합하는 방법 및 이를 이용한 주행 이미지 통합 장치
JP2020119522A (ja) 物体検出器の学習方法及びテスト方法、それを利用した学習装置及びテスト装置
CN112307978B (zh) 目标检测方法、装置、电子设备及可读存储介质
KR102320995B1 (ko) 객체의 스케일에 따라 모드 전환이 가능한 cnn 기반의 감시용 객체 검출기의 학습 방법 및 학습 장치, 이를 이용한 테스트 방법 및 테스트 장치
JP2020126618A (ja) 自律走行ネットワークの検出プロセスを検証する説明可能な人工知能を利用して運転者に潜在的リスクの状況について警告することにより機能的安全性を提供する学習方法及び学習装置、そしてこれを用いたテスティング方法及びテスティング装置{learning method and learning device for providing functional safety by warning driver about potential dangerous situation by using explainable ai which verifies detection processes of autonomous driving network, and testing method and testing device using the same}
US20200349369A1 (en) Method and apparatus for training traffic sign idenfication model, and method and apparatus for identifying traffic sign
US10872297B2 (en) Learning method and learning device for generating training data from virtual data on virtual world by using generative adversarial network, to thereby reduce annotation cost required in training processes of neural network for autonomous driving, and a testing method and a testing device using the same
JP2020123336A (ja) 多数の車両によるセンサーフュージョン、v2x通信可能なアプリケーションを利用した協業走行のために周囲に位置するカメラそれぞれに対応するそれぞれの物体検出器によって検出される物体検出情報を統合する方法及び装置
CN112597996A (zh) 基于任务驱动的自然场景中交通标志显著性检测方法
JP2020126621A (ja) 自律走行に対する論理的根拠を提示するために、管理者が物体検出器の検出プロセスを評価できるように支援する方法及び装置
CN111738046A (zh) 对用于基于深度学习的装置的学习的虚拟世界模拟器的物理引擎进行标定的方法及装置
KR102224778B1 (ko) 횡 필터 마스크를 이용하여 자율 주행 차량의 주행 경로를 계획하기 위해 차선 요소를 검출하는 방법 및 장치
Valeja et al. Speed Limit Sign Detection using Deep Learning
CN113031600B (zh) 一种轨迹生成方法、装置、存储介质及电子设备
KR20230056250A (ko) 인공지능 기반 차선 손상 상태 평가 방법 및 장치

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200120

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200122

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210202

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210226

R150 Certificate of patent or registration of utility model

Ref document number: 6850047

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250