JP2019124537A - 情報処理装置及びその制御方法及びプログラム、並びに、車両の運転支援システム - Google Patents
情報処理装置及びその制御方法及びプログラム、並びに、車両の運転支援システム Download PDFInfo
- Publication number
- JP2019124537A JP2019124537A JP2018004467A JP2018004467A JP2019124537A JP 2019124537 A JP2019124537 A JP 2019124537A JP 2018004467 A JP2018004467 A JP 2018004467A JP 2018004467 A JP2018004467 A JP 2018004467A JP 2019124537 A JP2019124537 A JP 2019124537A
- Authority
- JP
- Japan
- Prior art keywords
- distance
- distance information
- image
- information
- reliability
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims description 70
- 238000003384 imaging method Methods 0.000 claims abstract description 37
- 230000010365 information processing Effects 0.000 claims description 38
- 238000004364 calculation method Methods 0.000 claims description 21
- 230000008569 process Effects 0.000 claims description 21
- 238000005259 measurement Methods 0.000 description 21
- 238000012545 processing Methods 0.000 description 16
- 238000010586 diagram Methods 0.000 description 12
- 230000004048 modification Effects 0.000 description 11
- 238000012986 modification Methods 0.000 description 11
- 230000000694 effects Effects 0.000 description 6
- 230000010354 integration Effects 0.000 description 3
- 238000012935 Averaging Methods 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 230000000737 periodic effect Effects 0.000 description 2
- 235000004522 Pentaglottis sempervirens Nutrition 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000004140 cleaning Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000000691 measurement method Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0268—Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
- G05D1/0274—Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C3/00—Measuring distances in line of sight; Optical rangefinders
- G01C3/02—Details
- G01C3/06—Use of electric means to obtain final indication
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/02—Systems using the reflection of electromagnetic waves other than radio waves
- G01S17/06—Systems determining position data of a target
- G01S17/08—Systems determining position data of a target for measuring distance only
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/86—Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/89—Lidar systems specially adapted for specific applications for mapping or imaging
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/93—Lidar systems specially adapted for specific applications for anti-collision purposes
- G01S17/931—Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/4808—Evaluating distance, position or velocity data
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/481—Constructional features, e.g. arrangements of optical elements
- G01S7/4814—Constructional features, e.g. arrangements of optical elements of transmitters alone
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
- G05D1/0251—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means extracting 3D information from a plurality of images taken from different locations, e.g. stereo vision
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/20—Control system inputs
- G05D1/24—Arrangements for determining position or orientation
- G05D1/243—Means capturing signals occurring naturally from the environment, e.g. ambient optical, acoustic, gravitational or magnetic signals
- G05D1/2435—Extracting 3D information
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/521—Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/579—Depth or shape recovery from multiple images from motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/593—Depth or shape recovery from multiple images from stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
- G08G1/166—Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
- G06T2207/10012—Stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
- G06T2207/10021—Stereoscopic video; Stereoscopic image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20076—Probabilistic image processing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30244—Camera pose
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Electromagnetism (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computer Networks & Wireless Communication (AREA)
- Theoretical Computer Science (AREA)
- Automation & Control Theory (AREA)
- Aviation & Aerospace Engineering (AREA)
- Multimedia (AREA)
- Optics & Photonics (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
Description
距離センサから第1の距離情報の取得する第1の取得手段と、
撮像装置から画像を取得する第2の取得手段と、
画像から距離情報を推定するための学習モデルを保持する保持手段と、
前記学習モデルを用いて、前記第2の取得手段で取得した画像に対する第2の距離情報を推定する推定手段と、
前記第1の距離情報と前記第2の距離情報に基づいて第3の距離情報を生成する生成手段とを備える。
[概要及び具体的なユースケース]
第1の実施形態では、LIDAR(Light Detection and Ranging;光による検知と測距)による距離計測と、単眼のカラーカメラで撮影した画像からCNN(Convolutional Neural Network)を用いた距離推定とを行い、距離計測結果と距離推定結果とを統合してひとつの距離情報を生成する。生成した距離画像を用いて周囲環境認識を行い、自動車の運転制御を行う運転制御システム(又は運転支援システム)について説明する。雨や雪といった天候、あるいは周囲に物体がない場合や、物体との距離が近すぎる場合など、LiDARで距離計測が困難な状況においても、単眼カメラの画像からCNNを用いて距離推定を行ったものと統合することで距離を取得でき、安定した自動車の運転制御が実現できる。また、環境にテクスチャが少ない場合や、周期的な模様があるような場合などの複数視点による距離計測が困難な状況においても同様に距離を取得でき、安定した自動車の運転制御が実現できる。
図1のシステム構成図、及び、図2のブロック図により、本実施形態の情報処理装置10を備える自動車1000の運転制御システムの構成例を示す。
距離センサ1は距離計測装置100の第一距離情報取得部101に接続され、第一距離情報取得部101からの要求に応じて周囲環境の距離計測を行い、その計測結果を第一距離情報取得部101に供給する。本実施形態における距離センサ1は、LiDARセンサとして説明するが、例えばToF(Time of Flight)センサでも良い。
次に以上のような構成を備えた第1の実施形態における情報処理装置10及び運転制御システムの処理手順について図3のフローチャートを用いて説明する。
ステップS1010にて、制御部15はシステムの初期化を行う。情報処置装置10に接続された各機器の起動や、パラメータ設定、学習モデルの読み込み、センサ及び撮像装置のキャリブレーション値の読み込みを行う。
ステップS1020にて、制御部15は第一距離情報取得部101を制御し、距離センサ1への撮像命令を出力させる。距離センサ1はこの命令に従ってシーンの距離センシングを行うことになる。第一距離情報取得部101は距離センサ1で距離センシングして得た情報を距離画像としてを取得する。
ステップS1030にて、制御部15は画像取得部102を制御し、撮像装置2に撮像命令を出力させる。撮像装置2はこの命令に従ってシーンの画像を撮像する。画像取得部102は、撮像装置2が撮像した画像を取得する。本実施形態における撮像装置2により得られる画像は1画素につきRGBの3成分で構成される画像とする。
ステップS1040にて、制御部15は第二距離情報推定部104を制御し、ステップS1030で画像取得部102が取得した画像から、学習モデル保持部103の保持する学習モデルを用いて距離画像を推定する。画像から学習モデルを用いて距離画像を推定できれば良いのでその方法は特に問わないが、例えば非特許文献1に記載の方法で行うものとする。もちろん他の公知の方法を用いても構わない。
ステップS1050にて、制御部15は信頼度決定部105を制御し、第一距離情報取得部101が取得した第一の距離画像と、第二距離情報推定部104が推定した第二の距離画像の信頼度を決定する。信頼度は各画像の各画素に対して0〜1の範囲の実数値として決定する。
ステップS1060にて、制御部15は第三距離情報生成部106を制御し、信頼度決定部105が算出した信頼度に基づいて、第一の距離画像と第二の距離画像を統合し、第三の距離画像を生成する。
D3(x,y)={W1×D1(x,y)+W2×D2(x,y)}/(W1+W2)
ステップS1070にて、制御部15は周囲環境認識部12を制御し、画像取得部102が取得した画像と、第三距離情報生成部106が生成した距離画像に基づいて、周囲環境を認識する。具体的には、周囲環境認識部12は、撮像画像から深層学習等を用いて周囲の物体及び状態を認識し、距離画像からその物体までの距離を取得する。周辺環境の認識方法は、この限りではなく、運転制御に用いる距離情報と画像を用いたものであれば公知のいかなる方法を用いてもよい。
ステップS1080にて、制御部15は位置姿勢取得部11を制御し、GPS3から現在の自動車1000の位置を取得し、位置の推移から姿勢を推測する。
ステップS1090にて、制御部15は画面表示制御部61を制御し、周囲環境認識部12が処理した結果と、位置姿勢取得部11が取得及び推定した位置姿勢に基づく表示すべき画像を生成させる。画面表示制御部61は、生成した画像を画面表示部62に出力する。この結果、画面表示部62は、自動車に搭乗した人物に向けて、画像を表示することになる。なお、画面表示制御部61が生成する画像は、例えば第三の距離画像を白黒の距離画像とし、第一の距離情報の信頼度を赤チャンネル、第二の距離情報の信頼度を青チャンネとし、それぞれの値を0から255に正規化した画像とする。この結果、どちらの距離情報を用いて計測されたのかを可視化できる。
ステップS1100にて、制御部15は運転制御部4を制御し、周囲環境認識部12が処理した結果と、位置姿勢取得部11が取得及び推定した位置姿勢に基づいて、アクチュエータ部5を介して自動車1000を制御する。
ステップS1110にて、制御部15は、システムを終了するか否かを判定する。目的地に到達した場合や、不図示の入力部を介してユーザから終了命令が入力された場合には終了し、そうでなければステップS1020に戻り処理を続ける。
以上に述べたように、第1の実施形態では、入力画像に対して学習モデルを用いて距離画像を推定し、距離センサ(LiDAR)の距離と統合することで、距離センサだけ、あるいは複数視点による距離計測だけ、あるいはそれらを単に組み合わせただけでは距離を取得できない環境及び部分においても距離を取得でき、より様々な環境で自動車の運転制御が可能になる。
上記第1の実施形態では、第一の距離画像の信頼度を画素ごとにレーザーの反射強度を正規化した値としてが、距離画像の信頼度の決定方法はこれに限るものではない。距離値を取得できなかった画素の信頼度を0、取得できた画素にあらかじめ設定しておいた値を一様に、例えば0.5と設定しても良い。
第1の実施形態では、第三距離情報生成において、画素ごとに信頼度を重みとした加重平均によって第三の距離画像の距離値を算出したが、第三の距離画像の生成方法は、第一及び第二の距離情報を信頼度に基づいて統合していれば、これに限定するものではない。画素ごとに信頼度が高いほうの値を採用しても良いし、あらかじめ設定した閾値以下の信頼度となる距離値は除去したうえで加重平均をとっても良い。
第1の実施形態では、距離センサとしてLiDARを用いたが、距離センサはLiDARに限定するものではなく、複数台のカメラによるパッシブステレオ方式のものを利用しても良いし、投光器とカメラによるアクティブステレオ方式のものでもよい。
第1の実施形態では、第一の距離情報と第二の距離情報の座標変換は、事前に校正した情報を用いて実現した。しかし、位置合わせ方法はこれに限ったものではなく、距離情報が最も一致するように最適化計算をおこなって位置合わせをしても良いし、境界部分が一致するように最適化計算してもよい。これらの距離情報の位置合わせは初回だけ行っても良いし、毎回行っても良いし、ズレを検知した場合にのみ行っても良いし、あらかじめ設定された間隔で行っても良い。
第1の実施形態では、距離センサで取得した距離情報と撮像装置で撮像した画像に対してCNNを用いて推定した距離情報とを統合して、第三の距離情報を生成した。そして、その第三の距離情報を自動車の運転制御に用いた。しかし、これに限定されるものではない。例えばAR(Augmented Reality)などの画像合成時時の奥行き判定に用いても良いし、移動ロボットの自己位置姿勢推定や、HMD(Head Mounted Display)及びモバイル端末の自己位置姿勢推定に用いてもよい。室内を清掃するロボット・空中を飛行するドローン・水中を移動する装置などの制御に用いても良い。
第2の実施形態における情報処置装置及び運転制御システムは、第1の実施形態と同様に、距離センサ(LiDAR)から取得した距離情報と、1つの撮像装置(カメラ)からCNNを用いて推定した距離情報とを統合して、第三の距離情報を生成し、生成した距離情報に基づいて自動車の運転制御を行う。第1の実施形態では、距離センサで取得した距離情報と、撮像装置で撮像した画像からCNNを用いて距離情報とを直接統合したが、本第2の実施形態では、非特許文献1に記載のように、自己位置推定と環境地図作成を同時に行うSLAM(Simultaneous Localization and Mapping)技術を用いて構築した地図情報を用いることを特徴とする。
図4は、本第2の実施形態における情報処理装置10及び運転制御システムのモジュール構成を示すブロック図である。第1の実施形態(図2)と同様の構成には同一の参照番号を付し、その説明は省略する。本第2の実施形態では、第1の実施形態の構成に、位置姿勢算出部207、三次元マップ更新部208、三次元マップ保持部209が追加される。画像取得部102は、第二距離情報推定部104と周囲環境認識部12に加え、位置姿勢算出部207に対しても、撮像装置2から取得した画像を供給する。第二距離情報推定部104は、信頼度決定部105とは切断され、新たに三次元マップ更新部208に接続される。信頼度決定部105は、第二距離情報推定部104とは切断され、三次元マップ保持部209と接続される。
図5は、本第2の実施形態における運転制御システムの処理手順を示すフローチャートである。なお、第1の実施形態(図3)と同様の処理には同一のステップ番号を付して記載してあり、同一の処理であるものに関する説明は省略する。また、ステップS1030からステップS2045までの処理は、非特許文献1に記載の撮像装置の位置姿勢算出手法の処理である。本実施形態における三次元マップは、位置姿勢及び距離画像の組をキーフレームとしたキーフレームの集合である。
ステップS2035にて、制御部15は位置姿勢算出部207を制御し、三次元マップ保持部209の保持する三次元マップに基づいて、S1030で取得した画像を撮像した際の撮像装置1の位置姿勢を算出する。初回の処理で三次元マップが存在しない場合には、撮像装置の位置を原点とする。
ステップS2036にて、制御部15は、現在のフレームをキーフレームとして三次元マップに追加するか否かを判定する。三次元マップ保持部209が保持するキーフレームの位置から変化が大きい場合などに追加処理を行う。現在のフレームをキーフレームとして追加する場合にはステップS2040へ、追加しない場合にはステップS2045に処理を移行する。
ステップS2040にて、制御部15は第二距離情報推定部104を制御し、ステップS1030で画像取得部102が取得した画像から、学習モデル保持部103の保持する学習モデルを用いて距離画像を推定する。
ステップS2045にて、制御部15は三次元マップ更新部208を制御し、ステップS2035の位置姿勢算出結果、もしくはステップS2040の第二距離情報推定結果に基づいて三次元マップを更新する。具体的な更新手法は非特許文献1に記載のとおりである。
ステップS2050にて、制御部16は、第1の実施形態と同様に、信頼度決定部105を制御し、ステップS1020で第一距離情報取得部101が取得した第一の距離画像と、三次元マップ保持部209が保持する三次元マップの信頼度を決定させる。
以上に述べたように、本第2の実施形態では、距離センサによって取得した距離情報と、非特許文献1に記載のCNN−SLAMの手法によって生成した三次元マップとを統合して、より信頼度の高い距離情報を生成する。CNN−SLAMを用いることで、CNNで距離推定した結果を時系列に精錬でき、より高精度な三次元情報を取得できる。また、撮像装置の位置姿勢を画像から推定することでGPSを用いて位置姿勢を取得するより高精度に位置姿勢を取得できる。三次元情報及び位置姿勢が高精度になるため、より安定した自動車の運転制御が可能になる。
本第3の実施形態において説明する情報処理装置及び運転制御システムは、CNN−SLAMにおける撮像装置の位置姿勢推定に、距離センサによる距離計測結果とCNN−SLAMで推定した三次元マップ情報を統合して生成した第三の距離情報を用いる。
図6は、本第3の実施形態における情報処理装置10及び運転制御システムのモジュール構成を示すブロック図である。第1の実施形態(図2)、及び、第2の実施形態(図4)と同様の構成には同一の参照番号を付してある。第2の実施形態との差異は、位置姿勢算出部207の入力が三次元マップ保持部209の保持する三次元マップではなく、第三距離情報生成部106で生成した三次元情報になる点である。
図7は、本第3の実施形態における運転制御システムの処理手順を示すフローチャートである。なお、第1の実施形態(図3)及び第2の実施形態(図5)と同様の処理には同一のステップ番号を付し、その処理の説明は省略する。
ステップS3031にて、第2の実施形態のステップS2050と同様、制御部15は信頼度決定部105を制御し、ステップS1020にて第一距離情報取得部101が取得した第一の距離画像と三次元マップ保持部209が保持する三次元マップの信頼度を決定する。
ステップS3032にて、第1の実施形態のステップS1060と同様に、制御部15は第三距離情報生成部106を制御し、ステップS3031で算出した信頼度に基づいて第一の距離情報と、三次元マップから生成した距離画像を統合して第三の距離画像を生成させる。
ステップS3035にて、制御部15は位置姿勢算出部207を制御し、ステップS3032で生成した第三の距離画像に基づいて、S1030で取得した画像を撮像した際の撮像装置2の位置姿勢を算出する。算出の具体的な方法は第2の実施形態2のステップS2035と同様である。
以上に述べたように、本第3の実施形態では、CNN−SLAM(非特許文献1)において、距離センサによって取得した距離情報をSLAMの三次元マップと統合して位置姿勢推定に用いる。これにより、位置姿勢算出時に参照する三次元マップが高精度になり、より精度よく頑健な位置姿勢算出及び距離情報生成が可能になり、より安定した自動車の運転制御が可能になる。
上記第3の実施形態では、第2の実施形態と同様に非特許文献1に記載の方法で三次元マップを保持し、位置姿勢推定を行ったが、本発明はこれに限定するものではなく、第一の距離情報と第二の距離情報を統合して生成した第三の距離情報を用いて撮像装置1の位置姿勢を推定する方法であればいかなる方法でも良い。例えば、非特許文献3に記載の方法でも良い。
第3の実施形態では、位置姿勢算出部で算出した撮像装置2の位置姿勢と、第三距離情報生成部106で生成した第三の距離情報を周囲環境認識及び自動車の運転制御に用いたが、距離計測装置100の構成を、距離センサと単眼カメラと搭載した移動ロボットの自己位置姿勢推定や、HMD及びモバイル端末の自己位置姿勢推定に用いてもよい。
第4の実施形態における情報処理装置及び運転制御システムは、撮像装置2が撮像した画像に対して、距離推定を行うと同時に意味的領域分割を行い、意味領域ごとに信頼度を決定する。なお、非特許文献1に記載のように、第二距離情報推定と、意味的領域分割を同時に同一の学習モデルを用いて行っても良い。
図8は、本第4の実施形態における情報処理装置10及び運転制御システムのモジュール構成を示すブロック図である。第1の実施形態(図2)と同様の構成には同一の参照番号を付してある。
図9は、本第4の実施形態における運転制御システムの処理手順を示すフローチャートである。なお、第1の実施形態(図3)と同様の処理には同一の参照番号を付してある。そして、第1の実施形態との差異は、ステップS1040とステップS1050の間にステップS4041として意味的領域分割の処理が加わる点、及び、図3のステップS1050の信頼度決定処理が、ステップS4042として「意味領毎の信頼度決定」となった点である。
以上に述べたように、本第4の実施形態では、画像から意味領域に分割し、意味領域ごとに信頼度を決定し、距離センサで取得する距離情報と、CNNを用いて推定する距離情報とを統合して距離情報を生成する。これにより、距離計測の対象ごとに重きをおく距離情報を変更でき、苦手な対象物の計測をCNNによる距離推定で補完でき、より安定した自動車の運転制御が可能になる。
第4の実施形態では、意味的領域分割処理で、学習モデルを用いてCNNで画像を意味領域に分割したが、意味領域に分割できれば、CNNによるものに限ったものではなく、例えば非特許文献4のような公知の領域分割手法や認識手法を用いてもよい。
第4の実施形態では、第1の実施形態の構成を用いて説明したが、第2の実施形態、又は、第3の実施形態の構成に適用しても良い。
第5の実施形態における情報処理装置及び運転制御システムは、第三距離情報を生成せず、第一及び第二の距離情報を統合する際に、第一もしくは第二距離情報を更新し、その更新後の距離情報を第三の距離情報とする例を説明する。
図10は、本第5の実施形態における情報処理装置10及び運転制御システムのモジュール構成を示すブロック図である。第1の実施形態(図2)と同様の構成には同一の参照番号を付してある。本第5の実施形態と第1の実施形態との差異は、第三距離情報生成部106が距離情報更新部506に置き換わっている点である。
図11は、本第5の実施形態における運転制御システムの処理手順を示すフローチャートである。なお、第1の実施形態(図3)と同様の処理には同一の参照番号を付してある。そして、第1の実施形態との差異は、ステップS1060の代わりに、ステップS5010の「距離情報更新」となった点である。
以上に述べたように、第三距離情報を生成せず、第一及び第二の距離情報を統合する際に、第一もしくは第二距離情報を更新する。これにより、計算用のメモリ領域を削減できる。
Claims (17)
- 距離センサから第1の距離情報の取得する第1の取得手段と、
撮像装置から画像を取得する第2の取得手段と、
画像から距離情報を推定するための学習モデルを保持する保持手段と、
前記学習モデルを用いて、前記第2の取得手段で取得した画像に対する第2の距離情報を推定する推定手段と、
前記第1の距離情報と前記第2の距離情報に基づいて第3の距離情報を生成する生成手段と
を備えることを特徴とする情報処理装置。 - 三次元マップを保持するマップ保持手段と、
前記三次元マップと前記画像に基づいて、前記撮像装置の位置及び姿勢を算出する位置姿勢算出手段と、
前記位置及び姿勢に基づいて前記三次元マップを更新するマップ更新手段とを更に有し、
前記生成手段は、前記第1の距離情報と、前記三次元マップに基づいて前記第3の距離情報を生成する
ことを特徴とする請求項1に記載の情報処理装置。 - 前記マップ更新手段は、さらに、前記第1距離情報に基づいて前記三次元マップを更新することを特徴とする請求項2に記載の情報処理装置。
- 前記第1、第2の距離情報の少なくとも一方の距離情報の信頼度を決定する信頼度決定手段を有し、
前記生成手段は、前記信頼度に基づいて統合することを特徴とする請求項1乃至3に記載の情報処理装置。 - 前記信頼度決定手段は、前記第1の距離情報の有無に基づいて信頼度を決定することを特徴とする請求項4に記載の情報処理装置。
- 前記距離センサは、LIDARに基づくセンサであって、
前記信頼度決定手段は、対象物からのレーザーの反射強度に応じて前記第1の距離情報の信頼度を決定することを特徴とする請求項4に記載の情報処理装置。 - 前記信頼度決定手段は、センサの有効距離に基づいて信頼度を決定することを特徴とする請求項4に記載の情報処理装置。
- 前記信頼度決定手段は、距離情報の連続性に基づいて信頼度を決定することを特徴とする請求項4に記載の情報処理装置。
- 前記距離センサはステレオ方式の距離センサであり、
前記信頼度決定手段は、前記距離センサが距離情報を取得する際のステレオマッチングの類似度に基づいて決定することを特徴とする請求項4に記載の情報処理装置。 - 前記画像取得手段により取得した画像を意味領域に分割する意味的領域分割手段を更に有し、
前記生成手段は、前記意味的領域に基づいて第1距離情報と第2距離情報を統合することを特徴とする請求項1乃至3のいずれか1項に記載の情報処置装置。 - 前記生成手段は、前記第1、第2の距離情報の一方を、他方の前記信頼度決定手段で決定した信頼度に基づいて更新し、当該更新後の距離情報を前記第3の距離情報として生成することを特徴とする請求項4に記載の情報処理装置。
- 前記第3の距離情報もしくは前記更新した第3の距離情報を用いて、情報処理装置の位置姿勢を推定することを特徴とする請求項11に記載の情報処理装置。
- 前記第3の距離画像もしくは前記更新した第3の距離情報、及び、前記第2の取得手段で取得した画像に基づいて周囲環境を認識する環境認識手段と、
環境に対する装置の位置姿勢を取得する位置姿勢取得手段を更に有することを特徴とする請求項11に記載の情報処置装置。 - 前記距離センサ及び前記撮像装置と、請求項1乃至13のいずれか1項に記載の情報処理装置とを有することを特徴とする車両の運転支援システム。
- 車両の動きを制御するためのアクチュエータと、
前記周囲環境及び位置姿勢に基づいて前記アクチュエータを制御する運転制御手段と
を有することを特徴とする請求項14に記載の車両の運転支援システム。 - 画像から距離情報を推定するための学習モデルを保持する保持手段を有する情報処理装置の制御方法であって、
距離センサから第1の距離情報を取得する第1の取得工程と、
撮像装置から画像を取得する第2の取得工程と、
前記学習モデルを用いて、前記第2の取得工程で取得した画像に対する第2の距離情報を推定する推定工程と、
前記第1の距離情報と前記第2の距離情報に基づいて第3の距離情報を生成する生成工程と
を備えることを特徴とする情報処理装置の制御方法。 - 画像から距離情報を推定するための学習モデルを保持する保持手段を有するコンピュータに読み込ませ実行させることで、前記コンピュータを、請求項16に記載の各工程を実行させるためのプログラム。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018004467A JP7204326B2 (ja) | 2018-01-15 | 2018-01-15 | 情報処理装置及びその制御方法及びプログラム、並びに、車両の運転支援システム |
PCT/JP2018/041668 WO2019138678A1 (ja) | 2018-01-15 | 2018-11-09 | 情報処理装置及びその制御方法及びプログラム、並びに、車両の運転支援システム |
US16/921,977 US12008778B2 (en) | 2018-01-15 | 2020-07-07 | Information processing apparatus, control method for same, non-transitory computer-readable storage medium, and vehicle driving support system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018004467A JP7204326B2 (ja) | 2018-01-15 | 2018-01-15 | 情報処理装置及びその制御方法及びプログラム、並びに、車両の運転支援システム |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2019124537A true JP2019124537A (ja) | 2019-07-25 |
JP2019124537A5 JP2019124537A5 (ja) | 2021-02-04 |
JP7204326B2 JP7204326B2 (ja) | 2023-01-16 |
Family
ID=67218556
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018004467A Active JP7204326B2 (ja) | 2018-01-15 | 2018-01-15 | 情報処理装置及びその制御方法及びプログラム、並びに、車両の運転支援システム |
Country Status (3)
Country | Link |
---|---|
US (1) | US12008778B2 (ja) |
JP (1) | JP7204326B2 (ja) |
WO (1) | WO2019138678A1 (ja) |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021043486A (ja) * | 2019-09-06 | 2021-03-18 | 株式会社東芝 | 位置推定装置 |
JPWO2021084915A1 (ja) * | 2019-10-29 | 2021-05-06 | ||
WO2021090535A1 (ja) * | 2019-11-08 | 2021-05-14 | ソニーグループ株式会社 | 情報処理装置及び情報処理方法 |
JP2021110620A (ja) * | 2020-01-09 | 2021-08-02 | いすゞ自動車株式会社 | 距離画像生成装置及び距離画像生成方法 |
JP2021117130A (ja) * | 2020-01-28 | 2021-08-10 | アルパイン株式会社 | 3次元位置推定装置および3次元位置推定方法 |
JP2022039719A (ja) * | 2020-08-28 | 2022-03-10 | 株式会社東芝 | 位置姿勢推定装置、位置姿勢推定方法及びプログラム |
JP2022094636A (ja) * | 2020-12-15 | 2022-06-27 | 株式会社東芝 | 学習方法、プログラム及び画像処理装置 |
WO2023106118A1 (ja) * | 2021-12-09 | 2023-06-15 | ソニーグループ株式会社 | 情報処理装置、情報処理方法、およびプログラム |
WO2024024556A1 (ja) * | 2022-07-28 | 2024-02-01 | 株式会社小糸製作所 | データ生成方法、データ生成システム、制御装置及びプログラム |
US12069382B2 (en) | 2020-05-21 | 2024-08-20 | Samsung Electronics Co., Ltd. | Electronic device and method for generating images by performing auto white balance |
WO2024202752A1 (ja) * | 2023-03-30 | 2024-10-03 | ソニーグループ株式会社 | 情報処理装置、情報処理方法、および、コンピュータ読み取り可能な非一時的記憶媒体 |
JP7585173B2 (ja) | 2021-10-04 | 2024-11-18 | 株式会社東芝 | 実スケール奥行算出装置、実スケール奥行算出方法、および実スケール奥行算出プログラム |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11386671B2 (en) | 2019-06-25 | 2022-07-12 | Zoox, Inc. | Refining depth from an image |
JP2022041219A (ja) * | 2020-08-31 | 2022-03-11 | エスゼット ディージェイアイ テクノロジー カンパニー リミテッド | 制御装置、測距センサ、撮像装置、制御方法、及びプログラム |
US20240114119A1 (en) * | 2021-03-05 | 2024-04-04 | Sony Group Corporation | Image processing device, image processing method, and program |
JP7439006B2 (ja) * | 2021-03-18 | 2024-02-27 | 株式会社東芝 | 距離推定装置及び距離推定方法 |
US20240144506A1 (en) * | 2021-03-22 | 2024-05-02 | Sony Semiconductor Solutions Corporation | Information processing device |
DE102022204770A1 (de) * | 2022-05-16 | 2023-11-16 | Robert Bosch Gesellschaft mit beschränkter Haftung | Verfahren zum Steuern einer Robotervorrichtung |
WO2024062540A1 (ja) * | 2022-09-20 | 2024-03-28 | 日立Astemo株式会社 | 画像処理装置 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001108434A (ja) * | 1999-10-13 | 2001-04-20 | Matsushita Electric Ind Co Ltd | 距離測定方法及び距離測定装置 |
JP2003168197A (ja) * | 2001-11-30 | 2003-06-13 | Hitachi Ltd | 走行環境認識方法および装置 |
JP2012123296A (ja) * | 2010-12-10 | 2012-06-28 | Sanyo Electric Co Ltd | 電子機器 |
WO2017057016A1 (ja) * | 2015-09-29 | 2017-04-06 | ソニー株式会社 | 計測装置および方法、並びにプログラム |
JP2017092983A (ja) * | 2017-01-25 | 2017-05-25 | キヤノン株式会社 | 画像処理装置、画像処理方法、画像処理プログラム、および撮像装置 |
US20170267177A1 (en) * | 2016-03-17 | 2017-09-21 | Ford Global Technologies, Llc | Vehicle Lane Boundary Position |
JP6246411B1 (ja) * | 2017-07-21 | 2017-12-13 | Dmg森精機株式会社 | クーラント供給装置 |
Family Cites Families (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3905410B2 (ja) * | 2002-04-12 | 2007-04-18 | 富士重工業株式会社 | 車両用運転支援装置 |
JP2006038775A (ja) * | 2004-07-29 | 2006-02-09 | Pioneer Electronic Corp | フラットパネルディスプレイ用透明基板の画像検査装置及び画像検査方法 |
US8970680B2 (en) * | 2006-08-01 | 2015-03-03 | Qualcomm Incorporated | Real-time capturing and generating stereo images and videos with a monoscopic low power mobile device |
JP5262879B2 (ja) * | 2009-03-18 | 2013-08-14 | 株式会社Jvcケンウッド | 再符号化装置および再符号化方法 |
CN104755874B (zh) * | 2013-04-01 | 2018-08-28 | 松下知识产权经营株式会社 | 具有多个光源的运动传感器装置 |
JP2015049200A (ja) * | 2013-09-03 | 2015-03-16 | 株式会社東芝 | 計測装置、方法及びプログラム |
US9495755B2 (en) * | 2013-10-22 | 2016-11-15 | Nokia Technologies Oy | Apparatus, a method and a computer program for image processing |
JP2016085694A (ja) * | 2014-10-28 | 2016-05-19 | キヤノン株式会社 | 画像処理装置及びその制御方法、プログラム |
CN105654458A (zh) * | 2014-11-14 | 2016-06-08 | 华为技术有限公司 | 图像处理的方法及装置 |
JP6652065B2 (ja) * | 2014-12-01 | 2020-02-19 | ソニー株式会社 | 画像処理装置と画像処理方法 |
JP6719945B2 (ja) * | 2016-03-31 | 2020-07-08 | キヤノン株式会社 | 情報処理装置、情報処理方法、情報処理システム及びプログラム |
US10803592B2 (en) * | 2017-05-09 | 2020-10-13 | Heartflow, Inc. | Systems and methods for anatomic structure segmentation in image analysis |
JP6833630B2 (ja) * | 2017-06-22 | 2021-02-24 | 株式会社東芝 | 物体検出装置、物体検出方法およびプログラム |
EP3688182B1 (en) * | 2017-09-28 | 2024-03-20 | BD Kiestra B.V. | Methods and systems for automated assessment of antibiotic sensitivity |
JP7346401B2 (ja) * | 2017-11-10 | 2023-09-19 | エヌビディア コーポレーション | 安全で信頼できる自動運転車両のためのシステム及び方法 |
DE112019000070T5 (de) * | 2018-01-07 | 2020-03-12 | Nvidia Corporation | Führen von fahrzeugen durch fahrzeugmanöver unter verwendung von modellen für maschinelles lernen |
-
2018
- 2018-01-15 JP JP2018004467A patent/JP7204326B2/ja active Active
- 2018-11-09 WO PCT/JP2018/041668 patent/WO2019138678A1/ja active Application Filing
-
2020
- 2020-07-07 US US16/921,977 patent/US12008778B2/en active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001108434A (ja) * | 1999-10-13 | 2001-04-20 | Matsushita Electric Ind Co Ltd | 距離測定方法及び距離測定装置 |
JP2003168197A (ja) * | 2001-11-30 | 2003-06-13 | Hitachi Ltd | 走行環境認識方法および装置 |
JP2012123296A (ja) * | 2010-12-10 | 2012-06-28 | Sanyo Electric Co Ltd | 電子機器 |
WO2017057016A1 (ja) * | 2015-09-29 | 2017-04-06 | ソニー株式会社 | 計測装置および方法、並びにプログラム |
US20170267177A1 (en) * | 2016-03-17 | 2017-09-21 | Ford Global Technologies, Llc | Vehicle Lane Boundary Position |
JP2017092983A (ja) * | 2017-01-25 | 2017-05-25 | キヤノン株式会社 | 画像処理装置、画像処理方法、画像処理プログラム、および撮像装置 |
JP6246411B1 (ja) * | 2017-07-21 | 2017-12-13 | Dmg森精機株式会社 | クーラント供給装置 |
Cited By (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021043486A (ja) * | 2019-09-06 | 2021-03-18 | 株式会社東芝 | 位置推定装置 |
JPWO2021084915A1 (ja) * | 2019-10-29 | 2021-05-06 | ||
WO2021084915A1 (ja) * | 2019-10-29 | 2021-05-06 | 日立Astemo株式会社 | 画像認識装置 |
JP7379523B2 (ja) | 2019-10-29 | 2023-11-14 | 日立Astemo株式会社 | 画像認識装置 |
WO2021090535A1 (ja) * | 2019-11-08 | 2021-05-14 | ソニーグループ株式会社 | 情報処理装置及び情報処理方法 |
JP2021110620A (ja) * | 2020-01-09 | 2021-08-02 | いすゞ自動車株式会社 | 距離画像生成装置及び距離画像生成方法 |
JP7306275B2 (ja) | 2020-01-09 | 2023-07-11 | いすゞ自動車株式会社 | 距離画像生成装置及び距離画像生成方法 |
JP7337458B2 (ja) | 2020-01-28 | 2023-09-04 | アルパイン株式会社 | 3次元位置推定装置および3次元位置推定方法 |
JP2021117130A (ja) * | 2020-01-28 | 2021-08-10 | アルパイン株式会社 | 3次元位置推定装置および3次元位置推定方法 |
US12069382B2 (en) | 2020-05-21 | 2024-08-20 | Samsung Electronics Co., Ltd. | Electronic device and method for generating images by performing auto white balance |
JP7379299B2 (ja) | 2020-08-28 | 2023-11-14 | 株式会社東芝 | 位置姿勢推定装置、位置姿勢推定方法及びプログラム |
US11710253B2 (en) | 2020-08-28 | 2023-07-25 | Kabushiki Kaisha Toshiba | Position and attitude estimation device, position and attitude estimation method, and storage medium |
JP2022039719A (ja) * | 2020-08-28 | 2022-03-10 | 株式会社東芝 | 位置姿勢推定装置、位置姿勢推定方法及びプログラム |
JP2022094636A (ja) * | 2020-12-15 | 2022-06-27 | 株式会社東芝 | 学習方法、プログラム及び画像処理装置 |
JP7446985B2 (ja) | 2020-12-15 | 2024-03-11 | 株式会社東芝 | 学習方法、プログラム及び画像処理装置 |
JP7585173B2 (ja) | 2021-10-04 | 2024-11-18 | 株式会社東芝 | 実スケール奥行算出装置、実スケール奥行算出方法、および実スケール奥行算出プログラム |
WO2023106118A1 (ja) * | 2021-12-09 | 2023-06-15 | ソニーグループ株式会社 | 情報処理装置、情報処理方法、およびプログラム |
WO2024024556A1 (ja) * | 2022-07-28 | 2024-02-01 | 株式会社小糸製作所 | データ生成方法、データ生成システム、制御装置及びプログラム |
WO2024202752A1 (ja) * | 2023-03-30 | 2024-10-03 | ソニーグループ株式会社 | 情報処理装置、情報処理方法、および、コンピュータ読み取り可能な非一時的記憶媒体 |
Also Published As
Publication number | Publication date |
---|---|
JP7204326B2 (ja) | 2023-01-16 |
US20200334843A1 (en) | 2020-10-22 |
WO2019138678A1 (ja) | 2019-07-18 |
US12008778B2 (en) | 2024-06-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2019138678A1 (ja) | 情報処理装置及びその制御方法及びプログラム、並びに、車両の運転支援システム | |
CN112567201B (zh) | 距离测量方法以及设备 | |
EP3283843B1 (en) | Generating 3-dimensional maps of a scene using passive and active measurements | |
CN113870343B (zh) | 相对位姿标定方法、装置、计算机设备和存储介质 | |
JP2019125116A (ja) | 情報処理装置、情報処理方法、およびプログラム | |
KR101598385B1 (ko) | 직선 정보 기반 장소 인식을 이용한 로봇의 자율주행 방법 및 자율 주행 로봇 | |
JP7133927B2 (ja) | 情報処理装置及びその制御方法及びプログラム | |
CN108544494B (zh) | 一种基于惯性和视觉特征的定位装置、方法及机器人 | |
JP2022016908A (ja) | 俯瞰画像生成装置、俯瞰画像生成システム及び自動駐車装置 | |
CN110260866A (zh) | 一种基于视觉传感器的机器人定位与避障方法 | |
CN117367427A (zh) | 一种适用于室内环境中的视觉辅助激光融合IMU的多模态slam方法 | |
CN117727011A (zh) | 基于图像融合的目标识别方法、装置、设备及存储介质 | |
US11775577B2 (en) | Estimation device, movable body, estimation method, and computer program product | |
WO2022004333A1 (ja) | 情報処理装置、情報処理システム、および情報処理方法、並びにプログラム | |
JP2020149186A (ja) | 位置姿勢推定装置、学習装置、移動ロボット、位置姿勢推定方法、学習方法 | |
KR102213310B1 (ko) | 이동 로봇 및 이의 사람 인식 및 추적 방법 | |
CN212044739U (zh) | 一种基于惯性数据和视觉特征的定位装置及机器人 | |
CN111553342A (zh) | 一种视觉定位方法、装置、计算机设备和存储介质 | |
JP2017182564A (ja) | 位置合わせ装置、位置合わせ方法及び位置合わせ用コンピュータプログラム | |
AU2020317303B2 (en) | Information processing device, data generation method, and program | |
WO2021210492A1 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
JP2020076714A (ja) | 位置姿勢推定装置 | |
Leishman et al. | Robust Motion Estimation with RBG-D Cameras | |
KR101639264B1 (ko) | 무인 단말기 제어 방법 및 장치 | |
JP2018116147A (ja) | 地図作成装置、地図作成方法及び地図作成用コンピュータプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201215 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201215 |
|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7421 Effective date: 20210103 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210113 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220121 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220309 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220722 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220920 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20221202 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20221228 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7204326 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |