JP6548690B2 - シミュレーションシステム、シミュレーションプログラム及びシミュレーション方法 - Google Patents
シミュレーションシステム、シミュレーションプログラム及びシミュレーション方法 Download PDFInfo
- Publication number
- JP6548690B2 JP6548690B2 JP2017092949A JP2017092949A JP6548690B2 JP 6548690 B2 JP6548690 B2 JP 6548690B2 JP 2017092949 A JP2017092949 A JP 2017092949A JP 2017092949 A JP2017092949 A JP 2017092949A JP 6548690 B2 JP6548690 B2 JP 6548690B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- position information
- vehicle
- unit
- recognition
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000004088 simulation Methods 0.000 title claims description 69
- 238000000034 method Methods 0.000 title description 32
- 230000006870 function Effects 0.000 claims description 47
- 238000013135 deep learning Methods 0.000 claims description 38
- 238000004364 calculation method Methods 0.000 claims description 37
- 230000005540 biological transmission Effects 0.000 claims description 30
- 230000011218 segmentation Effects 0.000 claims description 23
- 238000001514 detection method Methods 0.000 claims description 14
- 230000001360 synchronised effect Effects 0.000 claims description 9
- 238000006073 displacement reaction Methods 0.000 claims description 7
- 238000013528 artificial neural network Methods 0.000 claims description 5
- 230000002194 synthesizing effect Effects 0.000 claims description 2
- 238000004891 communication Methods 0.000 description 34
- 238000012545 processing Methods 0.000 description 20
- 238000005516 engineering process Methods 0.000 description 19
- 238000012360 testing method Methods 0.000 description 14
- 238000010586 diagram Methods 0.000 description 12
- 230000010365 information processing Effects 0.000 description 11
- 238000012986 modification Methods 0.000 description 10
- 230000004048 modification Effects 0.000 description 10
- 239000002131 composite material Substances 0.000 description 9
- 238000010801 machine learning Methods 0.000 description 7
- 230000008569 process Effects 0.000 description 7
- 239000000284 extract Substances 0.000 description 5
- 239000010410 layer Substances 0.000 description 5
- 230000003287 optical effect Effects 0.000 description 5
- 238000002310 reflectometry Methods 0.000 description 5
- 230000001965 increasing effect Effects 0.000 description 4
- 101150012579 ADSL gene Proteins 0.000 description 3
- 102100020775 Adenylosuccinate lyase Human genes 0.000 description 3
- 108700040193 Adenylosuccinate lyases Proteins 0.000 description 3
- 230000008901 benefit Effects 0.000 description 3
- 230000008859 change Effects 0.000 description 3
- 230000009467 reduction Effects 0.000 description 3
- 238000009877 rendering Methods 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 230000006399 behavior Effects 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 230000033001 locomotion Effects 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 239000003973 paint Substances 0.000 description 2
- 238000002366 time-of-flight method Methods 0.000 description 2
- 239000013598 vector Substances 0.000 description 2
- 238000012795 verification Methods 0.000 description 2
- 244000025254 Cannabis sativa Species 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000003542 behavioural effect Effects 0.000 description 1
- 230000001680 brushing effect Effects 0.000 description 1
- 230000003920 cognitive function Effects 0.000 description 1
- 239000012792 core layer Substances 0.000 description 1
- 230000001934 delay Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 230000005855 radiation Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
- 238000001356 surgical procedure Methods 0.000 description 1
- 230000002195 synergetic effect Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
- G05D1/0251—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means extracting 3D information from a plurality of images taken from different locations, e.g. stereo vision
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0268—Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/217—Validation; Performance evaluation; Active pattern learning techniques
- G06F18/2178—Validation; Performance evaluation; Active pattern learning techniques based on feedback of a supervisor
- G06F18/2185—Validation; Performance evaluation; Active pattern learning techniques based on feedback of a supervisor the supervisor being an automated module, e.g. intelligent oracle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
- G06F18/24133—Distances to prototypes
- G06F18/24143—Distances to neighbourhood prototypes, e.g. restricted Coulomb energy networks [RCEN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F30/00—Computer-aided design [CAD]
- G06F30/20—Design optimisation, verification or simulation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/005—General purpose rendering architectures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/05—Geographic models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/778—Active pattern-learning, e.g. online learning of image or video features
- G06V10/7784—Active pattern-learning, e.g. online learning of image or video features based on feedback from supervisors
- G06V10/7788—Active pattern-learning, e.g. online learning of image or video features based on feedback from supervisors the supervisor being a human, e.g. interactive learning with a human teacher
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/94—Hardware or software architectures specially adapted for image or video understanding
- G06V10/95—Hardware or software architectures specially adapted for image or video understanding structured as a network, e.g. client-server architectures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/23—Recognition of whole body movements, e.g. for sport training
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo, light or radio wave sensitive means, e.g. infrared sensors
- B60W2420/403—Image sensing, e.g. optical camera
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2552/00—Input parameters relating to infrastructure
- B60W2552/53—Road markings, e.g. lane marker or crosswalk
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
- B60W2554/20—Static objects
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
- B60W2554/40—Dynamic objects, e.g. animals, windblown objects
- B60W2554/402—Type
- B60W2554/4026—Cycles
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
- B60W2554/40—Dynamic objects, e.g. animals, windblown objects
- B60W2554/402—Type
- B60W2554/4029—Pedestrians
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0242—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using non-visible light signals, e.g. IR or UV signals
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F30/00—Computer-aided design [CAD]
- G06F30/10—Geometric CAD
- G06F30/15—Vehicle, aircraft or watercraft design
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Evolutionary Computation (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Databases & Information Systems (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- Computing Systems (AREA)
- Medical Informatics (AREA)
- General Engineering & Computer Science (AREA)
- Remote Sensing (AREA)
- Life Sciences & Earth Sciences (AREA)
- Geometry (AREA)
- Automation & Control Theory (AREA)
- Radar, Positioning & Navigation (AREA)
- Aviation & Aerospace Engineering (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Graphics (AREA)
- Human Computer Interaction (AREA)
- Social Psychology (AREA)
- Psychiatry (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Electromagnetism (AREA)
- Mathematical Physics (AREA)
- Computer Hardware Design (AREA)
- Traffic Control Systems (AREA)
- Processing Or Creating Images (AREA)
- Business, Economics & Management (AREA)
- Game Theory and Decision Science (AREA)
Description
前記車両の位置情報を取得する位置情報取得手段と、
前記位置情報取得手段によって取得された前記位置情報に基づいて、前記位置情報で特定された領域を再現したシミュレーション用画像を生成する画像生成手段と、
前記画像生成手段によって生成されたシミュレーション用画像の中から特定の対象物を、前記認識機能モジュールを用いて認識し、検出する画像認識手段と、
前記画像認識手段おける上記認識結果を用いて前記車両の動作を制御する制御信号を生成し、生成された前記制御信号に基づいて自車両の位置情報を変更・修正する位置情報計算手段と、
位置情報取得手段と、前記画像生成手段と、前記画像認識手段と、前記位置情報計算手段とを同期制御する同期制御手段と
を備える。
前記車両の位置情報を取得する位置情報取得手段と、
前記位置情報取得手段によって取得された前記位置情報に基づいて、前記位置情報で特定された領域を再現したシミュレーション用画像を生成する画像生成手段と、
前記画像生成手段によって生成されたシミュレーション用画像の中から特定の対象物を、前記認識機能モジュールを用いて認識し、検出する画像認識手段と、
前記画像認識手段おける上記認識結果を用いて前記車両の動作を制御する制御信号を生成し、生成された前記制御信号に基づいて自車両の位置情報を変更・修正する位置情報計算手段と、
位置情報取得手段と、前記画像生成手段と、前記画像認識手段と、前記位置情報計算手段とを同期制御する同期制御手段として
機能させる。
位置情報取得手段によって、前記車両の位置情報を取得する位置情報取得ステップと、
前記位置情報取得ステップによって取得された前記位置情報に基づいて、前記位置情報で特定された領域を再現したシミュレーション用画像を、画像生成手段が生成する画像生成ステップと、
前記画像生成ステップによって生成されたシミュレーション用画像の中から特定の対象物を、画像認識手段が前記認識機能モジュールを用いて認識し、検出する画像認識ステップと、
前記画像認識ステップおける上記認識結果を用いて、位置情報計算手段が、前記車両の動作を制御する制御信号を生成し、生成された前記制御信号に基づいて自車両の位置情報を変更・修正する位置情報計算ステップと、
位置情報取得手段と、前記画像生成手段と、前記画像認識手段と、前記位置情報計算手段とを、同期制御手段が同期制御する同期制御ステップと
を備えたことを特徴とする。
前記位置情報を特定のフォーマットにパケット化して送出する手段と、
パケット化データをネットワーク又は特定の装置内の伝送バスを経由して伝送する手段と、
上記パケット化データを受信してデ・パケット化する手段と、
上記デ・パケット化されたデータを入力して画像を生成する手段と
を備えることが好ましい。
上記発明において、前記車両の位置情報には、前記車両の路面絶対位置座標のXYZ座標、タイヤの路面絶対位置座標XYZ座標、車両のオイラー角度、車輪の回転角に関する情報のいずれかが含まれる。
上記発明において前記画像生成手段は、前記車両の3次元形状をコンピューターグラフィックスにより合成することが好ましい。
前記位置情報計算手段は、前記認識手段による認識結果の情報を用いて、各車両の位置情報を複数台の車両分だけ変更・修正し、
前記同期制御手段は、位置情報取得手段と、前記画像生成手段と、前記画像認識手段と、前記位置情報計算手段とについて前記複数台の車両分の同期制御を実行することが好ましい。
上記発明において、前記画像認識手段は、前記画像生成手段が生成した前記シミュレーション用画像について、認識対象となる画像中の特定物に応じた領域分割を行うセグメンテーション部と、
前記セグメンテーション部によって領域分割された画像に基づく学習用の教師データを作成する教師データ作成手段と
をさらに備えることが好ましい。
上記発明において、前記請求項10記載のセンサー手段は、イメージセンサー手段、LiDARセンサー、ミリ波センサー、赤外線センサーのいずれか、又は全てを備えていることが好ましい。
前記画像認識手段は、前記3Dグラフィックス画像がそれぞれ入力されてディープラーニング認識を行い、各ディープラーニング認識結果を前記センサーごとに出力し、
前記同期制御手段は、前記センサーごとのディープラーニング認識結果に基づいて前記同期制御を行う
ことが好ましい。
(車両同期シミュレーターシステムの全体構成)
以下に添付図面を参照して、本発明に係る車両同期シミュレーターシステムの実施形態を詳細に説明する。本実施形態では、本発明のシミュレーターシステムを、自動車の自動運転走行システムにおける画像認識機能モジュールの機械学習及びテストに適用した場合を例示する。ここで、自動運転システムとは、事故などの可能性を事前に検知し回避するADAS(先進運転システム:advanced driver assistance system)等のシステムであり、自動車の自動運転走行を実現するため、実際に車両に搭載したカメラ等のセンサー手段により取得された映像(実画像)を、画像認識技術を用いて認識して、他の車両や歩行者、信号機などのオブジェクトを検出し、自動で速度低下、回避などの制御を行う。
次いで、各装置の構成について具体的に説明する。図2は、本実施形態に係るクライアント装置の内部構成を示すブロック図であり、図3は、本実施形態に係るシミュレーターサーバーの内部構成を示すブロック図である。なお、説明中で用いられる「モジュール」とは、装置や機器等のハードウェア、或いはその機能を持ったソフトウェア、又はこれらの組み合わせなどによって構成され、所定の動作を達成するための機能単位を示す。
情報処理端末1aは、パーソナルコンピュータ等の汎用的なコンピューターや専用の装置で実現することができ、一方、車載装置1bは、パーソナルコンピュータ等の汎用コンピューターの他、車載される自動運転走行システムなどの専用装置(カーナビゲーションシステムと捉えることもできる)とすることができ、図2に示すように、具体的には、CPU102と、メモリ103と、入力インターフェース104と、ストレージ装置101と、出力インターフェース105と、通信インターフェース106とを備えている。なお、本実施形態では、これらの各デバイスは、CPUバスを介して接続されており、相互にデータの受渡しが可能となっている。
本実施形態に係るシミュレーターサーバー2は、通信ネットワーク3を通じて車両同期シミュレーターサービスを提供するサーバー装置群であり、各サーバー装置の機能は、各種情報処理を実行するサーバーコンピューター或いはその機能を持ったソフトウェアで実現される。具体的にシミュレーターサーバー2は、図3に示すように、通信インターフェース201と、UDP同期制御部202と、シミュレーション実行部205と、UDP情報送受信部206と、各種データベース210〜213とを備えている。
以上の構成を有する車両同期シミュレーターシステムを動作させることによって、本発明の車両同期シミュレーション方法を実施することができる。図4は、本実施形態における画像生成・画像認識に係る構成及び動作を示すブロック図である。図5は、本実施形態における同期シミュレーターの処理手順を示したフローチャート図である。
・自車の位置情報(路面絶対位置座標の3次元座標(X,Y,Z)等)
・自車のオイラー角度
・タイヤの位置情報(路面絶対位置座標の3次元座標(X,Y,Z)等)
・車輪回転角
・ハンドル、ブレーキの踏みしろ
等の情報が挙げられる。
さらに、認識機能モジュール204aであるディープラーニング認識部には、学習部204bが接続されており、この学習部204bには、図10に示すような、学習用の教師データである教師学習データD73を提供する教師データ作成手段が備えられている。具体的に学習部204bの教師データ提供機能は、セグメンテーション部71と、アノテーション生成部72と、教師データ作成部73とを備えている。
以下に添付図面を参照して、本発明に係るシステムの第2実施形態を詳細に説明する。図14は、本実施形態に係るシステムの全体構成を示す概念図である。図15は、本実施形態に係る装置の内部構成を示すブロック図である。上記第1実施形態では、主に自車両の台数が1台の場合に限った実施形態であった。第2実施形態では、多数の車両分の位置情報を同時並列的に処理する場合を例示している。なお、本実施形態において、上述した第1実施形態と同一の構成要素には同一の符号を付し、その機能等は特に言及しない限り同一であり、その説明は省略する。
なお、上述した実施形態の説明は、本発明の一例である。このため、本発明は上述した実施形態に限定されることなく、本発明に係る技術的思想を逸脱しない範囲であれば、設計等に応じて種々の変更が可能である。
例えば、上述した実施形態では、車載カメラ104aが単一のカメラで構成されていた場合を例に説明したが、図16に示すように、複数個のカメラやセンサーで構成してもよい。
次いで、複数種のセンサーを使った別の変更例について説明する。上述した変更例1では、同一種類のセンサー、例えば同一種類のイメージセンサー手段を想定していたのに対し、本変更例では、異なる種類のセンサーを複数搭載した場合を示している。
L=(c×t)/2
により算出される。
D02(D02c〜f)…車両位置情報
D03(D03c〜f)…制御信号
D04…パケット情報
D05(D05c〜f)…データ
D06(D06c〜f)…認識結果情報
D61…シミュレーション用画像
D60…実写映像
D62(D621〜D62n)…認識結果
D71…セグメンテーション画像
D72…アノテーション情報
D73…教師学習データ
G1〜G3…CG画像
1…クライアント装置
1a…情報処理端末
1b…車載装置
2…シミュレーターサーバー
3…通信ネットワーク
4…車両同期シミュレーター・プログラム
5…クライアントプログラム
6…ディープラーニング認識部
51(51c〜f)…車両位置情報計算部
61〜6n…ディープラーニング認識部
71…セグメンテーション部
72…教師データ作成部
73…アノテーション生成部
84…学習結果同期部
85…分析部
101…ストレージ装置
102…CPU
102a…クライアント側実行部
103…メモリ
104…入力インターフェース
104a…車載カメラ(イメージセンサー)
104b…センサー
105…出力インターフェース
106…通信インターフェース
114…LiDARスキャン装置
114a…レーザードライバー
114b…発光素子
114c…照射レンズ
114d…受光レンズ
114e…受光素子
114f…信号受光回路
114g…ミラー
201…通信インターフェース
202…UDP同期制御部
203…画像生成部
204…画像認識部
204a…認識機能モジュール
204b…学習部
205(205c〜f)…シミュレーション実行部
206…UDP情報送受信部
210…地図データベース
211…車両データベース
212…描画用データベース
402…CPU
501…オブジェクト
502…特徴ベクトル
507…入力ユニット
508…第1重み係数
509…ユニット
510…第2重み係数
511…出力ユニット
Claims (12)
- 車両の位置情報の変位に伴って変化する実画像に対する認識機能モジュールのシミュレーションシステムであって、
前記車両の位置情報を取得する位置情報取得手段と、
前記位置情報取得手段によって取得された前記位置情報に基づいて、前記位置情報で特定された領域を再現したシミュレーション用画像を生成する画像生成手段と、
前記画像生成手段によって生成されたシミュレーション用画像の中から特定の対象物を、前記認識機能モジュールを用いて認識し、検出する画像認識手段と、
前記画像認識手段おける認識結果を用いて前記車両の動作を制御する制御信号を生成し、生成された前記制御信号に基づいて自車両の位置情報を変更・修正する位置情報計算手段と、
位置情報取得手段と、前記画像生成手段と、前記画像認識手段と、前記位置情報計算手段とを同期制御する同期制御手段と
を備え、
前記車両は複数台の車両分だけ設定されるとともに、前記認識機能モジュールは前記車両ごとに動作され、
前記位置情報計算手段は、前記認識手段による認識結果の情報を用いて、各車両の位置情報を複数台の車両分だけ変更・修正し、
前記同期制御手段は、位置情報取得手段と、前記画像生成手段と、前記画像認識手段と、前記位置情報計算手段とについて前記複数台の車両分の同期制御を実行する
ことを特徴とするシミュレーションシステム。 - 車両の位置情報の変位に伴って変化する実画像に対する認識機能モジュールのシミュレーションシステムであって、
前記車両の位置情報を取得する位置情報取得手段と、
前記位置情報取得手段によって取得された前記位置情報に基づいて、前記位置情報で特定された領域を再現したシミュレーション用画像を生成する画像生成手段と、
前記画像生成手段によって生成されたシミュレーション用画像の中から特定の対象物を、前記認識機能モジュールを用いて認識し、検出する画像認識手段と、
前記画像認識手段おける認識結果を用いて前記車両の動作を制御する制御信号を生成し、生成された前記制御信号に基づいて自車両の位置情報を変更・修正する位置情報計算手段と、
位置情報取得手段と、前記画像生成手段と、前記画像認識手段と、前記位置情報計算手段とを同期制御する同期制御手段と
を備え、
前記画像生成手段は、複数個のセンサー手段に対応した3Dグラフィックス画像を生成し、
前記画像認識手段は、前記3Dグラフィックス画像がそれぞれ入力されてディープラーニング認識を行い、各ディープラーニング認識結果を前記センサー手段ごとに出力し、
前記同期制御手段は、前記センサー手段ごとのディープラーニング認識結果に基づいて前記同期制御を行う
ことを特徴とするシミュレーションシステム。 - 前記同期制御手段は、
前記位置情報を特定のフォーマットにパケット化して送出する手段と、
パケット化データをネットワーク又は特定の装置内の伝送バスを経由して伝送する手段と、
前記パケット化データを受信してデ・パケット化する手段と、
前記デ・パケット化されたデータを入力して画像を生成する手段と
を備えたことを特徴とする請求項1又は2に記載のシミュレーションシステム。 - 前記同期制御手段は、各手段間で送受信される信号を、UDP(User Datagram Protocol)を用いて送受信することを特徴とする請求項1又は2に記載のシミュレーションシステム。
- 前記車両の位置情報には、前記車両の路面絶対位置座標のXYZ座標、タイヤの路面絶対位置座標XYZ座標、車両のオイラー角度、車輪の回転角に関する情報のいずれかが含まれることを特徴とする請求項1又は2に記載のシミュレーションシステム。
- 前記画像生成手段は、前記車両の3次元形状をコンピューターグラフィックスにより合成して前記シミュレーション用画像を生成する手段を備えていることを特徴とする請求項1又は2に記載のシミュレーションシステム。
- 前記画像認識手段は、ニューラルネットを多段に構成したディープラーニング認識手段であることを特徴とする請求項1又は2に記載のシミュレーションシステム。
- 前記画像認識手段は、
前記画像生成手段が生成した前記シミュレーション用画像について、認識対象となる画像中の特定物に応じた領域分割を行うセグメンテーション部と、
前記セグメンテーション部によって領域分割された画像に基づく学習用の教師データを作成する教師データ作成手段と
をさらに備えることを特徴とする請求項1又は2に記載のシミュレーションシステム。 - 前記実画像を取得するセンサー手段として少なくとも1つのLiDARセンサーが含まれる場合、前記教師データには、人物、車両、信号機、路上障害物などの対象物ごとに、複数個設定した反射率の値を検出対象として設定することを特徴とする請求項8に記載のシミュレーションシステム。
- 前記画像生成手段は、前記実画像を取得するセンサー手段ごとに異なる画像を生成する手段を備えていることを特徴とする請求項1又は2に記載のシミュレーションシステム。
- 前記実画像を取得するセンサー手段は、イメージセンサー手段、LiDARセンサー、ミリ波センサー、赤外線センサーのいずれか、又は全てを備えていることを特徴とする請求項1又は2に記載のシミュレーションシステム。
- 前記センサー手段に少なくとも1つのLiDARセンサーが含まれる場合に、前記画像認識手段は、人物、車両、信号機、路上障害物などの対象物ごとに複数個設定した反射率の値を検出対象とすることを特徴とする請求項2に記載のシミュレーションシステム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2017/033728 WO2018066351A1 (ja) | 2016-10-06 | 2017-09-19 | シミュレーションシステム、シミュレーションプログラム及びシミュレーション方法 |
US16/367,257 US10565458B2 (en) | 2016-10-06 | 2019-03-28 | Simulation system, simulation program and simulation method |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016197999 | 2016-10-06 | ||
JP2016197999 | 2016-10-06 |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2018060511A JP2018060511A (ja) | 2018-04-12 |
JP2018060511A5 JP2018060511A5 (ja) | 2019-05-09 |
JP6548690B2 true JP6548690B2 (ja) | 2019-07-24 |
Family
ID=61908533
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017092949A Active JP6548690B2 (ja) | 2016-10-06 | 2017-05-09 | シミュレーションシステム、シミュレーションプログラム及びシミュレーション方法 |
JP2017092950A Active JP6548691B2 (ja) | 2016-10-06 | 2017-05-09 | 画像生成システム、プログラム及び方法並びにシミュレーションシステム、プログラム及び方法 |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017092950A Active JP6548691B2 (ja) | 2016-10-06 | 2017-05-09 | 画像生成システム、プログラム及び方法並びにシミュレーションシステム、プログラム及び方法 |
Country Status (2)
Country | Link |
---|---|
US (2) | US10565458B2 (ja) |
JP (2) | JP6548690B2 (ja) |
Families Citing this family (83)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10769453B2 (en) * | 2017-05-16 | 2020-09-08 | Samsung Electronics Co., Ltd. | Electronic device and method of controlling operation of vehicle |
JP6540482B2 (ja) * | 2015-12-04 | 2019-07-10 | 株式会社デンソー | 情報処理システム、情報処理装置及び出力制御方法 |
US10803323B2 (en) * | 2017-05-16 | 2020-10-13 | Samsung Electronics Co., Ltd. | Electronic device and method of detecting driving event of vehicle |
EP3644293B1 (en) * | 2017-06-20 | 2021-08-04 | Nissan Motor Co., Ltd. | Travel control method and travel control device |
JP6904849B2 (ja) * | 2017-08-14 | 2021-07-21 | 本田技研工業株式会社 | 車両制御装置、車両制御方法、およびプログラム。 |
KR101989995B1 (ko) * | 2017-09-25 | 2019-06-17 | 엘지전자 주식회사 | 보행자에 대한 정보 획득 방법 및 차량용 통신 장치 |
US11365976B2 (en) * | 2018-03-02 | 2022-06-21 | Nvidia Corporation | Semantic label based filtering of objects in an image generated from high definition map data |
US10877152B2 (en) | 2018-03-27 | 2020-12-29 | The Mathworks, Inc. | Systems and methods for generating synthetic sensor data |
US10816984B2 (en) * | 2018-04-13 | 2020-10-27 | Baidu Usa Llc | Automatic data labelling for autonomous driving vehicles |
JP6863596B6 (ja) * | 2018-04-24 | 2021-06-02 | シンメトリー・ディメンションズ・インク | データ処理装置及びデータ処理方法 |
WO2019244516A1 (ja) * | 2018-06-22 | 2019-12-26 | 日立オートモティブシステムズ株式会社 | 電子制御ユニットの評価装置 |
KR102130596B1 (ko) * | 2018-06-25 | 2020-07-06 | 군산대학교 산학협력단 | Yuv 기반 세그먼테이션 및 오그먼테이션에 따른 자율 주행 시스템 및 그 방법 |
SG10201807451WA (en) * | 2018-08-30 | 2020-03-30 | Astropreneurs Hub Pte Ltd | System and method for simulating a network of vehicles |
DE102018214878A1 (de) * | 2018-08-31 | 2020-03-05 | Robert Bosch Gmbh | Verfahren und Vorrichtung zum Betreiben eines automatisierten Fahrzeugs |
US10565476B1 (en) * | 2018-09-04 | 2020-02-18 | StradVision, Inc. | Method and computing device for generating image data set for learning to be used for detection of obstruction in autonomous driving circumstances and learning method and learning device using the same |
CN109117825B (zh) | 2018-09-04 | 2020-01-17 | 百度在线网络技术(北京)有限公司 | 车道线处理方法和装置 |
CN109215135B (zh) | 2018-09-07 | 2019-11-08 | 百度在线网络技术(北京)有限公司 | 一种基于统计的障碍物位置仿真方法、装置以及终端 |
CN109146898B (zh) * | 2018-09-07 | 2020-07-24 | 百度在线网络技术(北京)有限公司 | 一种仿真数据量增强方法、装置以及终端 |
CN109255181B (zh) | 2018-09-07 | 2019-12-24 | 百度在线网络技术(北京)有限公司 | 一种基于多模型的障碍物分布仿真方法、装置以及终端 |
CN109143242B (zh) | 2018-09-07 | 2020-04-14 | 百度在线网络技术(北京)有限公司 | 障碍物绝对速度估计方法、系统、计算机设备和存储介质 |
CN109215136B (zh) | 2018-09-07 | 2020-03-20 | 百度在线网络技术(北京)有限公司 | 一种真实数据增强方法、装置以及终端 |
CN109059780B (zh) | 2018-09-11 | 2019-10-15 | 百度在线网络技术(北京)有限公司 | 检测障碍物高度的方法、装置、设备及存储介质 |
CN109165629B (zh) | 2018-09-13 | 2019-08-23 | 百度在线网络技术(北京)有限公司 | 多焦距视觉障碍物感知方法、装置、设备及存储介质 |
US20200097021A1 (en) * | 2018-09-19 | 2020-03-26 | Continental Automotive Systems, Inc. | Autonomous Farm Equipment Hitching To A Tractor |
US10902279B2 (en) * | 2018-09-25 | 2021-01-26 | Honda Motor Co., Ltd. | Training saliency |
US11428817B2 (en) * | 2018-10-11 | 2022-08-30 | Baidu Usa Llc | Automatic LIDAR calibration based on cross validation for autonomous driving |
KR102164950B1 (ko) * | 2018-10-26 | 2020-10-13 | 계명대학교 산학협력단 | 교사-학생 랜덤 펀을 이용한 다수의 보행자 추적 방법 및 시스템 |
US11120297B2 (en) | 2018-11-30 | 2021-09-14 | International Business Machines Corporation | Segmentation of target areas in images |
US20190138848A1 (en) * | 2018-12-29 | 2019-05-09 | Intel Corporation | Realistic sensor simulation and probabilistic measurement correction |
KR102181355B1 (ko) * | 2019-01-17 | 2020-11-20 | 주식회사 엠제이비전테크 | 인공지능 기반 차량 검색 시스템 |
JP7056592B2 (ja) | 2019-01-17 | 2022-04-19 | Jfeスチール株式会社 | 金属材料の製造仕様決定方法、製造方法、および製造仕様決定装置 |
JP6995068B2 (ja) * | 2019-01-21 | 2022-01-14 | 先進モビリティ株式会社 | 自動運転車両の軌跡設計走行制御検証方法 |
KR102103450B1 (ko) * | 2019-01-30 | 2020-04-22 | 한국기술교육대학교 산학협력단 | 분산 시뮬레이션 기반 첨단 운전자 지원 시스템 |
US11150664B2 (en) * | 2019-02-01 | 2021-10-19 | Tesla, Inc. | Predicting three-dimensional features for autonomous driving |
CN109703568B (zh) | 2019-02-19 | 2020-08-18 | 百度在线网络技术(北京)有限公司 | 自动驾驶车辆行驶策略实时学习的方法、装置和服务器 |
JP2020131248A (ja) | 2019-02-21 | 2020-08-31 | Jfeスチール株式会社 | 圧延荷重予測方法、圧延荷重予測装置、及び圧延制御方法 |
CN109712421B (zh) | 2019-02-22 | 2021-06-04 | 百度在线网络技术(北京)有限公司 | 自动驾驶车辆的速度规划方法、装置和存储介质 |
WO2020189081A1 (ja) * | 2019-03-19 | 2020-09-24 | 日立オートモティブシステムズ株式会社 | カメラシステムの評価装置及び評価方法 |
JP2020164045A (ja) * | 2019-03-29 | 2020-10-08 | マツダ株式会社 | 車両走行制御装置 |
JP7319094B2 (ja) * | 2019-06-06 | 2023-08-01 | 日野自動車株式会社 | 運転支援制御装置 |
EP3985615A4 (en) | 2019-06-14 | 2022-08-10 | FUJIFILM Corporation | DEVICE, METHOD AND PROGRAM FOR PROCESSING POINT CLOUD DATA |
KR102256644B1 (ko) * | 2019-07-26 | 2021-05-27 | 서울시립대학교 산학협력단 | Bim 객체 모델을 이용한 인공지능 교통신호 호스트 서버 및 이를 포함하는 제어 시스템 및 제어 방법 |
DE112020003708T5 (de) * | 2019-08-06 | 2022-06-09 | Sony Group Corporation | Informationsverarbeitungsvorrichtung, Informationsverarbeitungsverfahren und Programm |
CN114286772B (zh) * | 2019-09-02 | 2024-11-19 | 三菱电机株式会社 | 自动驾驶控制装置以及自动驾驶控制方法 |
JP7414434B2 (ja) | 2019-09-10 | 2024-01-16 | 株式会社日立製作所 | 認識モデル配信システム及び認識モデルの更新方法 |
KR20210031269A (ko) | 2019-09-11 | 2021-03-19 | 삼성전자주식회사 | 영상 인식 모델을 학습하는 전자 장치 및 그 동작 방법 |
EP3800581A1 (en) * | 2019-10-03 | 2021-04-07 | Axis AB | A method and apparatus for generating an object classification for an object |
JP7454353B2 (ja) * | 2019-10-18 | 2024-03-22 | 日立Astemo株式会社 | 処理装置、及びそれを用いた外界認識装置 |
US11454978B2 (en) * | 2019-11-07 | 2022-09-27 | Naver Corporation | Systems and methods for improving generalization in visual navigation |
US10816993B1 (en) * | 2019-11-23 | 2020-10-27 | Ha Q Tran | Smart vehicle |
KR102240403B1 (ko) * | 2019-12-24 | 2021-04-14 | 아주대학교 산학협력단 | 이미지 평활화 방법 및 이미지 평활화 장치 |
JP6992099B2 (ja) * | 2020-01-16 | 2022-01-13 | 本田技研工業株式会社 | 情報処理装置、車両、車両の制御方法、プログラム、情報処理サーバ、情報処理方法 |
EP4085424A4 (en) * | 2020-01-30 | 2024-03-27 | Intrinsic Innovation LLC | SYSTEMS AND METHODS OF DATA SYNTHESIS FOR TRAINING STATISTICAL MODELS ON DIFFERENT IMAGING MODALITIES INCLUDING POLARIZED IMAGES |
US11644331B2 (en) | 2020-02-28 | 2023-05-09 | International Business Machines Corporation | Probe data generating system for simulator |
US11702101B2 (en) | 2020-02-28 | 2023-07-18 | International Business Machines Corporation | Automatic scenario generator using a computer for autonomous driving |
US11814080B2 (en) | 2020-02-28 | 2023-11-14 | International Business Machines Corporation | Autonomous driving evaluation using data analysis |
JP7596360B2 (ja) * | 2020-03-24 | 2024-12-09 | ソニーセミコンダクタソリューションズ株式会社 | レンダリングシステム及び自動運転検証システム |
DE112020007044T5 (de) * | 2020-04-09 | 2023-08-17 | Mitsubishi Electric Corporation | Lehrdaten-Erzeugungsvorrichtung und Lehrdaten-Erzeugungsverfahren |
US20210356570A1 (en) | 2020-05-13 | 2021-11-18 | National Instruments Corporation | System for Emulating an Environment for Testing a Frequency Modulated Continuous Wave (FMCW) Light Detection and Ranging (LiDAR) System |
CN111505965B (zh) * | 2020-06-17 | 2020-09-29 | 深圳裹动智驾科技有限公司 | 自动驾驶车辆仿真测试的方法、装置、计算机设备及存储介质 |
DE112021003088T5 (de) * | 2020-09-07 | 2023-04-27 | Hitachi Astemo, Ltd. | Bilderkennungs-simulatorvorrichtung |
JP7422043B2 (ja) * | 2020-09-25 | 2024-01-25 | 日立Geニュークリア・エナジー株式会社 | 作業シミュレーション装置および学習装置 |
CN114429569A (zh) * | 2020-10-14 | 2022-05-03 | 台达电子工业股份有限公司 | 训练影像的自动生成系统及其方法 |
JP7510842B2 (ja) * | 2020-10-21 | 2024-07-04 | 株式会社Subaru | 車両の制御装置のための周辺空間情報提供システム |
CN112464373B (zh) * | 2020-11-25 | 2023-06-06 | 中汽研(天津)汽车工程研究院有限公司 | 多循环制动工况车辆盘式制动器温度变化高精度仿真方法 |
DE102020215657A1 (de) | 2020-12-10 | 2022-06-15 | Robert Bosch Gesellschaft mit beschränkter Haftung | Verfahren und System zum Testen eines Steuergeräts eines Fahrzeugs |
JP2022099651A (ja) * | 2020-12-23 | 2022-07-05 | ソニーセミコンダクタソリューションズ株式会社 | 画像生成装置、画像生成方法、およびプログラム |
CN114846515A (zh) * | 2020-12-30 | 2022-08-02 | 深圳市大疆创新科技有限公司 | 仿真测试方法、系统、仿真器、存储介质及程序产品 |
CN112926381B (zh) * | 2021-01-08 | 2022-06-21 | 浙江大学 | 一种基于激光检测技术的水下目标识别系统 |
US20220269937A1 (en) * | 2021-02-24 | 2022-08-25 | Nvidia Corporation | Generating frames for neural simulation using one or more neural networks |
JP7571669B2 (ja) | 2021-06-15 | 2024-10-23 | 株式会社デンソー | ドライバ監視モニタの設計支援装置、設計支援プログラム及び記憶媒体 |
JP7653317B2 (ja) | 2021-07-01 | 2025-03-28 | 株式会社竹中工務店 | 情報処理装置 |
CN113807184B (zh) * | 2021-08-17 | 2024-06-21 | 北京百度网讯科技有限公司 | 障碍物检测方法、装置、电子设备及自动驾驶车辆 |
JP7691351B2 (ja) * | 2021-11-17 | 2025-06-11 | 株式会社日立製作所 | 画像認識システム |
CN113820694B (zh) * | 2021-11-24 | 2022-03-01 | 腾讯科技(深圳)有限公司 | 一种仿真测距的方法、相关装置、设备以及存储介质 |
KR102625974B1 (ko) * | 2021-11-29 | 2024-01-18 | 주식회사 오비고 | 자율주행차량의 운행 검증에 필요한 검증 시나리오를 편집하는 방법 및 이를 이용한 서버 |
DE102022103940A1 (de) * | 2022-02-18 | 2023-08-24 | Dspace Gmbh | Prüfaufbau und Verfahren zum Testen einer Stereokamera |
US20230278589A1 (en) * | 2022-03-07 | 2023-09-07 | Woven By Toyota, Inc. | Autonomous driving sensor simulation |
US12008681B2 (en) * | 2022-04-07 | 2024-06-11 | Gm Technology Operations Llc | Systems and methods for testing vehicle systems |
KR102578324B1 (ko) | 2022-08-31 | 2023-09-14 | 한국전자기술연구원 | Vil 시스템 기반 자율주행 기능 검증 방법 |
WO2024095572A1 (ja) * | 2022-11-04 | 2024-05-10 | 日本ペイント・インダストリアルコーティングス株式会社 | 塗料組成物及び塗膜 |
CN116110235A (zh) * | 2023-02-10 | 2023-05-12 | 南京慧尔视智能科技有限公司 | 信号机相位数据的模拟方法与系统 |
WO2025017780A1 (ja) * | 2023-07-14 | 2025-01-23 | 日立Astemo株式会社 | 電子制御ユニットの評価装置及び電子制御ユニットの評価方法 |
Family Cites Families (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004355272A (ja) * | 2003-05-28 | 2004-12-16 | Toyota Motor Corp | 緊急車両の接近通知システム |
JP2007066045A (ja) | 2005-08-31 | 2007-03-15 | Hitachi Ltd | シミュレーション装置 |
US9639748B2 (en) | 2013-05-20 | 2017-05-02 | Mitsubishi Electric Research Laboratories, Inc. | Method for detecting persons using 1D depths and 2D texture |
JP6266238B2 (ja) | 2013-07-03 | 2018-01-24 | クラリオン株式会社 | 接近物検出システム、及び車両 |
US9493170B2 (en) * | 2014-01-29 | 2016-11-15 | Continental Automotive Systems, Inc. | Method for reducing false activations in reverse collision avoidance systems |
JP6462328B2 (ja) * | 2014-11-18 | 2019-01-30 | 日立オートモティブシステムズ株式会社 | 走行制御システム |
US9733342B1 (en) * | 2015-01-29 | 2017-08-15 | Waymo Llc | Radar target simulation using a high speed tunable short |
US9811756B2 (en) | 2015-02-23 | 2017-11-07 | Mitsubishi Electric Research Laboratories, Inc. | Method for labeling images of street scenes |
US9910441B2 (en) * | 2015-11-04 | 2018-03-06 | Zoox, Inc. | Adaptive autonomous vehicle planner logic |
US9754490B2 (en) * | 2015-11-04 | 2017-09-05 | Zoox, Inc. | Software application to request and control an autonomous vehicle service |
US9734455B2 (en) * | 2015-11-04 | 2017-08-15 | Zoox, Inc. | Automated extraction of semantic information to enhance incremental mapping modifications for robotic vehicles |
US10496766B2 (en) * | 2015-11-05 | 2019-12-03 | Zoox, Inc. | Simulation system and methods for autonomous vehicles |
US10248119B2 (en) * | 2015-11-04 | 2019-04-02 | Zoox, Inc. | Interactive autonomous vehicle command controller |
US9632502B1 (en) * | 2015-11-04 | 2017-04-25 | Zoox, Inc. | Machine-learning systems and techniques to optimize teleoperation and/or planner decisions |
US9606539B1 (en) * | 2015-11-04 | 2017-03-28 | Zoox, Inc. | Autonomous vehicle fleet service and system |
US10334050B2 (en) * | 2015-11-04 | 2019-06-25 | Zoox, Inc. | Software application and logic to modify configuration of an autonomous vehicle |
US9720415B2 (en) * | 2015-11-04 | 2017-08-01 | Zoox, Inc. | Sensor-based object-detection optimization for autonomous vehicles |
CN115686005A (zh) * | 2016-06-28 | 2023-02-03 | 柯尼亚塔有限公司 | 训练自动驾驶系统的虚拟模型的系统及计算机执行方法 |
US10592805B2 (en) * | 2016-08-26 | 2020-03-17 | Ford Global Technologies, Llc | Physics modeling for radar and ultrasonic sensors |
-
2017
- 2017-05-09 JP JP2017092949A patent/JP6548690B2/ja active Active
- 2017-05-09 JP JP2017092950A patent/JP6548691B2/ja active Active
-
2019
- 2019-03-28 US US16/367,257 patent/US10565458B2/en active Active
- 2019-03-28 US US16/367,258 patent/US20190236380A1/en not_active Abandoned
Also Published As
Publication number | Publication date |
---|---|
US20190220029A1 (en) | 2019-07-18 |
US10565458B2 (en) | 2020-02-18 |
JP6548691B2 (ja) | 2019-07-24 |
JP2018060512A (ja) | 2018-04-12 |
JP2018060511A (ja) | 2018-04-12 |
US20190236380A1 (en) | 2019-08-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6548690B2 (ja) | シミュレーションシステム、シミュレーションプログラム及びシミュレーション方法 | |
WO2018066351A1 (ja) | シミュレーションシステム、シミュレーションプログラム及びシミュレーション方法 | |
US11593950B2 (en) | System and method for movement detection | |
CN112801124B (zh) | 用于运载工具的方法和系统 | |
US12020476B2 (en) | Data synthesis for autonomous control systems | |
JP6275362B1 (ja) | 3dグラフィック生成、人工知能の検証・学習システム、プログラム及び方法 | |
WO2018066352A1 (ja) | 画像生成システム、プログラム及び方法並びにシミュレーションシステム、プログラム及び方法 | |
US11574462B1 (en) | Data augmentation for detour path configuring | |
CN113359709B (zh) | 一种基于数字孪生的无人驾驶运动规划方法 | |
CN116830164A (zh) | LiDAR去相关对象检测系统与方法 | |
CN114821507A (zh) | 一种用于自动驾驶的多传感器融合车路协同感知方法 | |
US11798289B2 (en) | Streaming object detection and segmentation with polar pillars | |
US12154320B2 (en) | Data augmentation for vehicle control | |
KR102657921B1 (ko) | 융합된 이미지를 사용한 엔드 투 엔드 시스템 트레이닝 | |
CN117591847B (zh) | 基于车况数据的模型指向评测方法和装置 | |
US20220371606A1 (en) | Streaming object detection and segmentation with polar pillars | |
KR20230023530A (ko) | 신뢰할 수 없는 맵 주석 입력들을 사용하는 센서 데이터의 시맨틱 주석 달기 | |
EP4341894A1 (en) | Streaming object detection and segmentation with polar pillars | |
Xia et al. | Enhancing 3D object detection through multi-modal fusion for cooperative perception | |
CN118570749A (zh) | 一种多模态道路感知方法、系统、终端设备及存储介质 | |
Wang et al. | Cooperative perception of roadside unit and onboard equipment with edge artificial intelligence for driving assistance | |
KR102787707B1 (ko) | 주석이 달린 센서 데이터의 자동화된 검증 | |
CN117593686B (zh) | 基于车况真值数据的模型评测方法和装置 | |
Hossain et al. | RGB2BEV-Net: A PyTorch-Based End-to-End Pipeline for RGB to BEV Segmentation Using an Extended Dataset for Autonomous Driving | |
Chen | Multi-agent Collaborative Perception for Autonomous Driving: Unsettled Aspects |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190313 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190313 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20190313 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20190405 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190618 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190625 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6548690 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |