JP7149707B2 - 情報処理装置及びその制御方法及びプログラム、並びに、運転制御システム - Google Patents
情報処理装置及びその制御方法及びプログラム、並びに、運転制御システム Download PDFInfo
- Publication number
- JP7149707B2 JP7149707B2 JP2018004469A JP2018004469A JP7149707B2 JP 7149707 B2 JP7149707 B2 JP 7149707B2 JP 2018004469 A JP2018004469 A JP 2018004469A JP 2018004469 A JP2018004469 A JP 2018004469A JP 7149707 B2 JP7149707 B2 JP 7149707B2
- Authority
- JP
- Japan
- Prior art keywords
- unit
- image
- geometric information
- information
- dimensional shape
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/74—Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/521—Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
- G06T7/85—Stereo camera calibration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
- G06T2207/10012—Stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10048—Infrared image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30168—Image quality inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30244—Camera pose
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Geometry (AREA)
- Optics & Photonics (AREA)
- Quality & Reliability (AREA)
- Image Analysis (AREA)
- Length Measuring Devices By Optical Means (AREA)
Description
撮像視野の少なくとも一部が重複するように移動体に配置された第1の撮像装置及び第2の撮像装置における、前記第1の撮像装置が得た第1の画像、及び、前記第2の撮像装置が得た第2の画像を入力する入力手段と、
画像と該画像を撮影したシーンの三次元形状を表す距離情報とを教師データとして用いて、入力された画像に対応する撮影したシーンの三次元形状を表す距離情報を出力するように学習済みの学習済みモデルを学習モデル保持手段から取得する取得手段と、
前記第1の画像及び前記第2の画像から第1の撮影したシーンの三次元形状を表す距離情報を推定する第1の推定手段と、
前記第1の画像に対応する第2の撮影したシーンの三次元形状を表す距離情報を、前記学習済みモデルを用いて推定する第2の推定手段と、
前記第2の画像に対応する第3の撮影したシーンの三次元形状を表す距離情報を、前記学習済みモデルを用いて推定する第3の推定手段と、
前記第1、第2、第3の撮影したシーンの三次元形状を表す距離情報の少なくとも一つに基づいて、前記第1の撮像装置及び前記第2の撮像装置を含む撮像部の位置情報、当該撮像部が撮像した画像が表す撮影したシーンの三次元形状を表す距離情報の少なくとも一方を生成する生成手段とを有する。
第1の実施形態では、情報処理装置が、車などの自動運転または運転アシストのため、車体の自己位置を推定する例を説明する。車体に取り付けた撮像装置の位置姿勢を安定的に求めるために複数のセンサ情報を用いることがしばしば行われるが、本実施形態では、2つの撮像装置を用いたステレオ構成のセンサを用いて、3系統の仮の幾何情報、3系統の仮の位置姿勢情報を推定し、それらの推定結果から安定的な幾何情報、及び、位置姿勢情報を求める。図1は本実施形態における自動車10000の運転制御システムの構成を示した図である。本実施形態では、自動車10000に取り付けられた撮像部10の位置姿勢を安定的に求め、求めた位置姿勢に従って運転制御を行うことで、自動運転または運転アシストを行う。そのために、情報処理装置1を用いて周囲の幾何情報や撮像部10の位置姿勢を算出する。算出した幾何情報および位置姿勢は運転処理装置12に供給される。そして、運転処理装置12は、それらに基づいてアクチュエータ部13を動作させることによって自動車10000を制御する。尚、仮の幾何情報とは、最終的に決定する幾何情報の候補、材料、参考となる幾何情報である。
図2は、主として、本実施形態における情報処理装置1と運転処理装置12のブロック構成図である。
次に、本実施形態における処理手順について説明する。図4は、本実施形態における情報処理装置1及び運転処理装置12を含む情報処理システムが実施する処理手順を示すフローチャートである。同図において、ステップS1000~S1050、S1090が情報処理装置1(制御部15)の処理を示し、ステップS1000、S1060~S1080が運転処理装置12(運転制御部108)の処理を表すことになる。
図5は、本実施形態におけるステップS1050の処理、すなわち、計測結果処理部104の手順を示すフローチャートである。以下、同図を参照して、計測結果処理部104の処理内容を説明する。
E=k*f(PI,PO)+c1*f(P1,PO)+c2*f(P2,PO)+c3*f(P3,PO) …(1)
ここで、kは調整パラメータである。ただし、POの求め方はこの方法に限るものではなく、カルマンフィルタを用いてPI、P1、P2、P3を入力として真の状態POを求めてもよい。
以上に述べたように、本第1の実施形態では、複数の計測系統から複数の幾何情報および複数の位置姿勢を推定する。それぞれの計測結果は画像を入力された後、独立して処理を行っているため、いずれかの計測結果に大きなノイズが生じていたとしても、他の計測結果に影響を及ぼすことは無い。そのため、複数の計測結果の全てが大きなノイズを生じる可能性は低く、時系列情報から予測される位置姿勢に対して誤差の少ない計測結果の重みを大きくすることによって、計測結果に何らかのノイズが紛れ込んだ場合であっても、安定的に位置姿勢を推定することができる。さらに、安定的な位置姿勢に基づいて幾何情報を更新することによって、より精度の高い幾何情報を求めることができる。
第1の実施形態においては、図4に示すフローチャートに従って処理を行う例について述べたが、これに限るものではない。ここで本実施形態における変形例の機能構成例および処理手順について説明する。変形例の機能構成例は図2に示す第1の実施形態と同様であるため、違いのある幾何情報推定部102、位置姿勢算出部103、計測結果処理部104についてのみ説明する。
ここで、図7は、図6のステップS1041の計測結果処理部104の処理手順を示すフローチャートである。
第1の実施形態では、計測結果処理部104は複数の幾何情報または位置姿勢から、より正しい幾何情報または位置姿勢を算出した。これに対して、第2の実施形態では、計測結果処理部104は幾何情報または位置姿勢に対して判定を行い、幾何情報または位置姿勢に不具合が生じていれば、別の幾何情報または位置姿勢を用いるように切り替えを行う。このようにして、最適な幾何情報または位置姿勢を得られるセンサおよび計算結果を用いて自動運転または運転アシストを行う。本第2の実施形態における自動車の構成は第1の実施形態に示した図1と同様であるため、その説明は省略する。
本実施形態における情報処理装置2の機能構成例は第1の実施形態に示した図2と略同様である。異なる点は、幾何情報推定部102、位置姿勢算出部103、計測結果処理部104における処理内容である。よって、以下では、これらについて説明する。他の構成要素については第1の実施形態を参照されたい。
次に、本第2の実施形態における処理手順について説明する。図8は、第2の実施形態における情報処理装置1を含む情報処理システムが実施する処理手順を示すフローチャートである。
ここで、図9は、本第2の実施形態におけるステップS2050において計測結果処理部104が位置姿勢の不具合の有無を判定する手順を示すフローチャートである。
S=k1*|ti-t|+k2*||qi-q|| …(2)
ここで、k1、k2は調整パラメータであり、tiとtはそれぞれ初期位置姿勢と位置姿勢の位置を表す3次元のベクトル、qiとqはそれぞれ初期位置姿勢と位置姿勢の姿勢を表す四元数であり、|x|は実数3次元ベクトルxのノルムを表しており、||y||は四元数yのノルムを表している。ここでは、類似度の計算方法として式(2)について述べたが、これに限るものではない。位置姿勢が似ているほど高く、異なるほど低い値になるように計算されるものであれば、類似度はどのような計算式で求めてもよい。
以上に述べたように、第2の実施形態では、複数の幾何情報の中から一つを選んで幾何情報および位置姿勢の推定を行い、得られた位置姿勢の不具合の有無を判定することによって、その位置姿勢を用いるか、別の幾何情報を推定し直すかを決める。計算処理中はどれか一つの幾何情報および位置姿勢を計算するだけでよいため、第1の実施形態で説明した複数の幾何情報や複数の位置姿勢を計算する場合と比較して、同時に処理するべき計算コストが低いため、比較的小規模な計算リソースであっても処理を行うことができる。また、計算した位置姿勢の不具合の有無を判定することによって、間違った位置姿勢を用いる可能性が低くなり、自動運転や運転アシストにおける安全性が高まる。
第2の実施形態においては、図8に示すフローチャートに従って処理を行う例について述べたが、これに限るものではない。ここで本実施形態における変形例の機能構成例および処理手順について説明する。変形例の機能構成例は第2の実施形態と同様であるため、違いのある幾何情報推定部102、位置姿勢算出部103、計測結果処理部104についてのみ説明する。
ここで、図11は、本第2の実施形態の変形例における、S2041の計測結果処理部104における幾何情報の不具合の有無を判定する手順を示すフローチャートである。
上記第2の実施形態では、計測結果処理部は幾何情報または位置姿勢における不具合の有無を判定し、不具合の無い推定結果を用いて幾何情報または位置姿勢を算出していた。これに対して、第3の実施形態では、計測結果処理部は幾何情報または位置姿勢に対して判定を行うだけでなく、不具合が有る場合には、不具合の原因の解消や、不具合の回避によって、不具合の解決を図る。このようにして、不具合が有る場合でもロバストに幾何情報または位置姿勢を推定して自動運転または運転アシストを行う。本第3の実施形態における自動車の構成は第1の実施形態に示した図1と同様であるため省略する。
図12は、本第3の実施形態における情報処理装置1と運転処理装置12の機器構成例を示す図である。情報処理装置1は、画像入力部300、学習モデル保持部301、幾何情報推定部302、位置姿勢算出部303、計測結果処理部304、表示情報生成部305、校正算出部309、及び、装置全体の制御を司る制御部35を備えている。また、運転処理装置12は、周囲環境取得部306、目的地取得部307、及び、装置全体の制御を司る運転制御部308を備えている。画像入力部300、学習モデル保持部301、幾何情報推定部302、位置姿勢算出部303、表示情報生成部305、周囲環境取得部306、目的地取得部307、運転制御部308、並びに、制御部35は、第1の実施形態における画像入力部100、学習モデル保持部101、幾何情報推定部102、位置姿勢算出部103、表示情報生成部105、周囲環境取得部106、目的地取得部107、運転制御部108、及び、制御部15に対応する。同様の機能については説明を省略し、違いのある計測結果処理部304、校正算出部309について説明を行う。
次に、本第3の実施形態における処理手順について説明する。図13は、本実施形態における情報処理装置3を含む情報処理システムが実施する処理手順を示すフローチャートである。
ここで、図14は、本第3の実施形態におけるステップS3051における、計測結果処理部304が不具合を解消する手順を示すフローチャートである。
以上に述べたように、第3の実施形態によれば、推定した幾何情報や位置姿勢に不具合が有った場合には、それを解消するための対処を行うことによって、より安全かつ安定してシステムを連続的に動作させることができる。また、不具合の状況を表示してユーザに知らせることによって、ユーザは安心して自動運転や運転アシストの機能を用いることができる。
第3の実施形態においては、図13に示すフローチャートに従って処理を行う例について述べたが、これに限るものではない。第3の実施形態ではステップS3040で位置姿勢を算出した後で、ステップS3050で不具合の有無を判定して、その対処を行う例について述べたが、第1の実施形態の変形例や第2の実施形態の変形例で示した例と同様にして、ステップS3030で算出した幾何情報を用いて不具合の有無を判定し、その対処を行い、その後で位置姿勢を算出してもよい。
第1、第2、第3の実施形態における幾何情報推定部は、既存の学習モデルを用いて幾何情報を推定する例について述べた。これに対して、第4の実施形態では、学習モデルを学習するための教師データを取得して学習を行い、学習モデルを生成する。このようにして、既存の学習モデルでは幾何情報を推定できないような未知のシーンに対しても、幾何情報の推定が可能となる新たな学習モデルを生成して自動運転または運転アシストを行う。本第4の実施形態における自動車の構成は第1の実施形態に示した図1と同様であるため省略する。
<情報処理装置の構成>
図15は本実施形態における情報処理装置1と運転処理装置12の機器構成例を示す図である。情報処理装置1は、画像入力部400、学習モデル保持部401、幾何情報推定部402、位置姿勢算出部403、計測結果処理部404、表示情報生成部405、学習部409、並びに制御部25を備えている。また、運転処理装置12は、周囲環境取得部406、目的地取得部407、運転制御部408を備えている。画像入力部400、学習モデル保持部401、幾何情報推定部402、位置姿勢算出部403、計測結果処理部404、表示情報生成部405、周囲環境取得部406、目的地取得部407、運転制御部408、アクチュエータ部43、及び、制御部45は、第3の実施形態における画像入力部300、学習モデル保持部301、幾何情報推定部302、位置姿勢算出部303、計測結果処理部304、表示情報生成部305、周囲環境取得部306、目的地取得部307、運転制御部308、アクチュエータ部33、及び、制御部35に対応する。同様の機能については説明を省略し、違いのある学習モデル保持部401、計測結果処理部404、学習部409について説明を行う。
次に、本第4の実施形態における処理手順について説明する。本第4の実施形態における処理手順は、第3の実施形態において図13を用いて説明したフローチャートに一部処理を追加するだけで、その他は同様であるため、説明を省略する。本第4の実施形態において教師データを取得して学習を行う処理手順は、第3の実施形態における図13のステップS3060の後に並行して行われる。ここで、図16は、この教師データを取得して学習を行う処理手順を示すフローチャートである。
以上に述べたように第4の実施形態によれば、学習モデルを生成することによって、既存の学習モデルでは幾何情報を推定できなかったシーンに対して、生成した学習モデルを用いて幾何情報を推定し、安定した位置姿勢の推定を行い、より安全に自動運転または運転アシストを行うことができる。また、本情報処理装置が処理を行う中で教師データを自動的に生成することによって、学習モデルを学習するために必要となる膨大な教師データを別途作成したり、ラベル付けを行ったりする手間を省くことができる。
第4の実施形態において、計測結果処理部404は第3の実施形態における図13のステップS3060の後に教師データを取得する例について述べたが、これに限るものではない。例えば、第3の実施形態における図14のステップS3111の前後もしくは並行して画像を取得リストに保持してもよい。すなわち、学習モデルを用いて幾何情報を推定する第二、第三の幾何情報、およびそれらに対応する第二、第三の位置姿勢に不具合が生じている場合に限定して、画像を取得リストに保存してもよい。これにより、既存の学習モデルでは幾何情報を推定できないシーンの画像群を取得できるため、それらに基づいて生成した教師データで学習を行うことによって、より効率良く幾何情報を推定できるシーンを拡大することができる。
第1、第2、第3、第4の実施形態では、三角測量に基づく幾何情報を推定する方法として、撮像装置を二つ用いたステレオによる推定方法について述べた。これに対して、第5の実施形態では、撮像部が撮像する空間に向けて、所定のパターンを投影する投影部を備え、撮像装置一つと投影部によるアクティブステレオによって幾何情報を推定する。本実施形態における自動車の構成を図17に示す。本第5の実施形態では、自動車50000に取り付けられた撮像部50の位置姿勢を求めるために、投影部54と撮像部50によるアクティブステレオによる幾何情報と、第1の実施形態で既に説明した学習モデルを用いて推定する幾何情報の2系統の幾何情報と、それに対応する位置姿勢から、安定的な幾何情報および位置姿勢を求める。
<情報処理装置の構成>
図18は、本第5の実施形態における情報処理装置5と運転処理装置52の機能構成例を示す図である。情報処理装置5は、画像入力部500、学習モデル保持部501、幾何情報推定部502、位置姿勢算出部503、計測結果処理部504、表示情報生成部505、投影制御部509、及び、装置全体の制御を司る制御部55を備えている。また、運転処理装置52は、周囲環境取得部506、目的地取得部507、及び装置全体の制御を司る運転制御部508を備えている。画像入力部500、学習モデル保持部501、幾何情報推定部502、位置姿勢算出部503、計測結果処理部504、表示情報生成部505、周囲環境取得部506、目的地取得部507、運転制御部508、撮像部50、表示部51、運転処理装置52、アクチュエータ部53、並びに制御部55は、第1の実施形態における画像入力部100、学習モデル保持部101、幾何情報推定部102、位置姿勢算出部103、計測結果処理部104、表示情報生成部105、周囲環境取得部106、目的地取得部107、運転制御部108、撮像部10、表示部11、運転処理部12、アクチュエータ部13、並びに制御部15に対応する。同様の機能については説明を省略し、違いのある投影制御部509、画像入力部500、幾何情報推定部502について説明を行う。なお、位置姿勢算出部503、計測結果処理部504については、第1の実施形態における位置姿勢算出部103と計測結果処理部104と同様で、第1の実施形態では第一、第二、第三と3系統の幾何情報や位置姿勢を扱っていたのに対して、本実施形態では第一と第二の2系統の幾何情報と位置姿勢を扱うという違いだけであるため、説明を省略する。また、撮像部50は撮像装置一つで構成されており、撮像部50の撮像装置と投影部54の間の位置姿勢関係は予めキャリブレーションによって求めておき、図示しない校正パラメータ保持部に校正パラメータが保持されているものとする。
次に、本第5の実施形態における処理手順について説明する。図19は、本第5の実施形態における情報処理装置5を含む情報処理システムが実施する処理手順を示すフローチャートである。
以上に述べたように第5の実施形態によれば、パターン投影によるアクティブステレオを用いて幾何情報を推定する機能を有する。そのため、特徴の少ない未知のシーンにおいても、幾何情報を安定して求めることができるため、自動運転や運転アシストにおける安全性が高まる。
第5の実施形態において、画像入力部500は赤外光と可視光の2チャネルで分離を行う例を述べたが、第一の画像と第二の画像に分離する方法はこれに限らない。例えば、投影部54は赤外光のランダムドットパターンを投影するものとし、撮像部50は赤外光のモノクロ画像を撮像できるものとした場合、撮像した画像を第一の画像、ガウシアンブラーやフィルタ処理によってランダムドットパターンの影響が見えなくなるようにブラーさせた画像を第二の画像としてもよい。または、投影部54と撮像部50が高速に制御され、投影パターンが有る状態で撮像した画像を第一の画像、投影パターンが無い状態で撮像した画像を第二の画像としてもよい。
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
Claims (16)
- 撮像視野の少なくとも一部が重複するように移動体に配置された第1の撮像装置及び第2の撮像装置における、前記第1の撮像装置が得た第1の画像、及び、前記第2の撮像装置が得た第2の画像を入力する入力手段と、
画像と該画像を撮影したシーンの三次元形状を表す距離情報とを教師データとして用いて、入力された画像に対応する撮影したシーンの三次元形状を表す距離情報を出力するように学習済みの学習済みモデルを学習モデル保持手段から取得する取得手段と、
前記第1の画像及び前記第2の画像から第1の撮影したシーンの三次元形状を表す距離情報を推定する第1の推定手段と、
前記第1の画像に対応する第2の撮影したシーンの三次元形状を表す距離情報を、前記学習済みモデルを用いて推定する第2の推定手段と、
前記第2の画像に対応する第3の撮影したシーンの三次元形状を表す距離情報を、前記学習済みモデルを用いて推定する第3の推定手段と、
前記第1、第2、第3の撮影したシーンの三次元形状を表す距離情報の少なくとも一つに基づいて、前記第1の撮像装置及び前記第2の撮像装置を含む撮像部の位置情報、当該撮像部が撮像した画像が表す撮影したシーンの三次元形状を表す距離情報の少なくとも一方を生成する生成手段と、
を有することを特徴とする情報処理装置。 - 前記生成手段は、
前記第1の撮影したシーンの三次元形状を表す距離情報に基づいて前記撮像部の第1の位置情報を算出する第1の算出手段と、
前記第2の撮影したシーンの三次元形状を表す距離情報に基づいて前記撮像部の第2の位置情報を算出する第2の算出手段と、
前記第3の撮影したシーンの三次元形状を表す距離情報に基づいて前記撮像部の第3の位置情報を算出する第3の算出手段と、
前記第1、第2、第3の位置情報の少なくとも一つに基づいて、前記撮像部の位置情報を出力するための処理を行う処理手段と
を含むことを特徴とする請求項1に記載の情報処理装置。 - 前記生成手段は、
前記第1、第2、第3の撮影したシーンの三次元形状を表す距離情報に基づいて、前記撮像部における基準となる撮像装置で撮像した画像が表す奥行き情報を生成する
ことを特徴とする請求項1に記載の情報処理装置。 - 前記生成手段は、
前記第1、第2、第3の撮影したシーンの三次元形状を表す距離情報の1つを前記撮像部の奥行き情報として出力する出力手段と、
該出力手段で出力する撮影したシーンの三次元形状を表す距離情報の適正、非適正を判定する判定手段と、
該判定手段が非適正であるとの判定をした場合、他の撮影したシーンの三次元形状を表す距離情報を前記出力手段の出力の対象として設定する設定手段と
を含むことを特徴とする請求項1に記載の情報処理装置。 - 前記生成手段は、生成した撮影したシーンの三次元形状を表す距離情報に基づいて前記撮像部の位置情報を算出するとともに、撮影したシーンの三次元形状を表す距離情報の更新を行う
ことを特徴とする請求項1乃至4のいずれか1項に記載の情報処理装置。 - 更に、前記生成手段が生成した情報に基づいて、ユーザへの表示情報を生成する表示情報生成手段を有することを特徴とする請求項1乃至5のいずれか1項に記載の情報処理装置。
- 更に、前記位置情報に基づいて、撮像部に関する異常を検出する検出手段を有する
ことを特徴とする請求項1乃至5のいずれか1項に記載の情報処理装置。 - 更に、前記第2、第3の撮影したシーンの三次元形状を表す距離情報に基づいて前記撮像部が有する前記第1、第2の撮像装置間の校正を行う校正算出手段を備え、
前記検出手段が、前記第1の撮像装置と第2の撮像装置との間のキャリブレーションに異常が生じたことを検出した場合に、前記校正算出手段が校正を行う
ことを特徴とする請求項7に記載の情報処理装置。 - 前記第1の撮影したシーンの三次元形状を表す距離情報に異常が生じたことを前記検出手段が検出した場合、前記生成手段は、前記第2、第3の撮影したシーンの三次元形状を表す距離情報の少なくとも一つに基づいて位置情報を生成する
ことを特徴とする請求項7に記載の情報処理装置。 - 前記第1の撮影したシーンの三次元形状を表す距離情報に異常が生じたことを前記検出手段が検出した場合、前記生成手段は、前記第2、第3の撮影したシーンの三次元形状を表す距離情報の少なくとも一つに基づいて撮影したシーンの三次元形状を表す距離情報を生成する
ことを特徴とする請求項7に記載の情報処理装置。 - 更に、前記撮影したシーンの三次元形状を表す距離情報に基づいて、前記取得手段が新たに取得すべきモデルを学習する学習手段を備えることを特徴とする請求項7乃至10のいずれか1項に記載の情報処理装置。
- 前記第2、第3の撮影したシーンの三次元形状を表す距離情報に異常が生じたことを前記検出手段が検出した場合、前記学習手段は、学習に用いるための追加の教師データを取得することを特徴とする請求項11に記載の情報処理装置。
- 更に、前記生成手段が生成した情報に基づき表示情報を生成する表示情報生成手段と、
前記表示情報を表示する表示手段と
を有すること特徴とする請求項1乃至12のいずれか1項に記載の情報処理装置。 - 撮像視野の少なくとも一部が重複するように移動体に配置された第1の撮像装置及び第2の撮像装置における、前記第1の撮像装置が得た第1の画像、及び、前記第2の撮像装置が得た第2の画像を入力する入力工程と、
画像と該画像を撮影したシーンの三次元形状を表す距離情報とを教師データとして用いて、入力された画像に対応する撮影したシーンの三次元形状を表す距離情報を出力するように学習済みの学習済みモデルを学習モデル保持手段から取得する取得する取得工程と、
前記第1の画像及び前記第2の画像から第1の撮影したシーンの三次元形状を表す距離情報を推定する第1の推定工程と、
前記第1の画像に対応する第2の撮影したシーンの三次元形状を表す距離情報を、前記学習済みモデルを用いて推定する第2の推定工程と、
前記第2の画像に対応する第3の撮影したシーンの三次元形状を表す距離情報を、前記学習済みモデルを用いて推定する第3の推定工程と、
前記第1、第2、第3の撮影したシーンの三次元形状を表す距離情報の少なくとも一つに基づいて、前記第1の撮像装置及び前記第2の撮像装置を含む撮像部の位置情報、当該撮像部が撮像した画像が表す撮影したシーンの三次元形状を表す距離情報の少なくとも一方を生成する生成工程と、
を有することを特徴とする情報処理装置の制御方法。 - コンピュータが読み込み実行することで、前記コンピュータを、請求項1乃至13のいずれか1項に記載の情報処理装置として機能させるためのプログラム。
- 請求項1乃至13のいずれか1項に記載の情報処理装置と、
前記情報処理装置における前記生成手段が生成した情報に基づいて前記移動体の運転を制御する運転制御手段と、
当該運転制御手段によって動作するアクチュエータ部とを有する
ことを特徴とする運転制御システム。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018004469A JP7149707B2 (ja) | 2018-01-15 | 2018-01-15 | 情報処理装置及びその制御方法及びプログラム、並びに、運転制御システム |
PCT/JP2018/041667 WO2019138677A1 (ja) | 2018-01-15 | 2018-11-09 | 情報処理装置及びその制御方法及びコンピュータ可読記憶媒体、並びに、運転制御システム |
US16/921,389 US11393123B2 (en) | 2018-01-15 | 2020-07-06 | Information processing device, control method therefor, non-transitory computer-readable storage medium, and driving control system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018004469A JP7149707B2 (ja) | 2018-01-15 | 2018-01-15 | 情報処理装置及びその制御方法及びプログラム、並びに、運転制御システム |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2019125112A JP2019125112A (ja) | 2019-07-25 |
JP2019125112A5 JP2019125112A5 (ja) | 2021-01-28 |
JP7149707B2 true JP7149707B2 (ja) | 2022-10-07 |
Family
ID=67218581
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018004469A Active JP7149707B2 (ja) | 2018-01-15 | 2018-01-15 | 情報処理装置及びその制御方法及びプログラム、並びに、運転制御システム |
Country Status (3)
Country | Link |
---|---|
US (1) | US11393123B2 (ja) |
JP (1) | JP7149707B2 (ja) |
WO (1) | WO2019138677A1 (ja) |
Families Citing this family (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10816984B2 (en) * | 2018-04-13 | 2020-10-27 | Baidu Usa Llc | Automatic data labelling for autonomous driving vehicles |
US11900258B2 (en) * | 2018-05-23 | 2024-02-13 | Sony Interactive Entertainment Inc. | Learning device, image generating device, learning method, image generating method, and program |
JPWO2020209144A1 (ja) * | 2019-04-09 | 2020-10-15 | ||
JP7249919B2 (ja) * | 2019-09-17 | 2023-03-31 | 株式会社東芝 | 推定装置、推定方法及びプログラム |
US11127164B2 (en) * | 2019-10-04 | 2021-09-21 | Mitsubishi Electric Research Laboratories, Inc. | Image processing system and method for landmark location estimation with uncertainty |
JP7264268B2 (ja) * | 2019-10-04 | 2023-04-25 | 日本電気株式会社 | 表面性状推定システム |
JP7498651B2 (ja) | 2020-02-21 | 2024-06-12 | 浜松ホトニクス株式会社 | 三次元計測装置 |
JP7298562B2 (ja) | 2020-07-20 | 2023-06-27 | トヨタ自動車株式会社 | 車両の周辺検知装置 |
JP7389729B2 (ja) * | 2020-09-10 | 2023-11-30 | 株式会社日立製作所 | 障害物検知装置、障害物検知システム及び障害物検知方法 |
JP7127901B1 (ja) | 2021-05-24 | 2022-08-30 | Necプラットフォームズ株式会社 | 情報処理端末、制御方法、及びプログラム |
CN113487684B (zh) * | 2021-07-23 | 2024-08-06 | 浙江华睿科技股份有限公司 | 一种标定参数确定方法、装置、存储介质及电子装置 |
US20240330537A1 (en) * | 2021-07-26 | 2024-10-03 | Nippon Telegraph And Telephone Corporation | Device, method and program for generating point cloud data |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013142991A (ja) | 2012-01-10 | 2013-07-22 | Nippon Telegr & Teleph Corp <Ntt> | 物体領域検出装置、方法、及びプログラム |
JP2015203680A (ja) | 2014-04-16 | 2015-11-16 | キヤノン株式会社 | 情報処理装置、方法、プログラム |
WO2017213052A1 (ja) | 2016-06-08 | 2017-12-14 | パナソニックIpマネジメント株式会社 | 測距システム及び測距方法 |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3436074B2 (ja) * | 1997-06-10 | 2003-08-11 | トヨタ自動車株式会社 | 車載ステレオカメラ |
JP4985166B2 (ja) | 2007-07-12 | 2012-07-25 | トヨタ自動車株式会社 | 自己位置推定装置 |
DE102009049849B4 (de) | 2009-10-19 | 2020-09-24 | Apple Inc. | Verfahren zur Bestimmung der Pose einer Kamera, Verfahren zur Erkennung eines Objekts einer realen Umgebung und Verfahren zur Erstellung eines Datenmodells |
JP5496008B2 (ja) * | 2010-08-06 | 2014-05-21 | キヤノン株式会社 | 位置姿勢計測装置、位置姿勢計測方法、およびプログラム |
JP5440461B2 (ja) * | 2010-09-13 | 2014-03-12 | 株式会社リコー | 校正装置、距離計測システム、校正方法および校正プログラム |
JP5644468B2 (ja) * | 2010-12-20 | 2014-12-24 | 株式会社ニコン | 撮像装置および撮像装置の制御プログラム |
US9254846B2 (en) | 2013-05-03 | 2016-02-09 | Google Inc. | Predictive reasoning for controlling speed of a vehicle |
WO2016084926A1 (ja) * | 2014-11-28 | 2016-06-02 | 日立マクセル株式会社 | 撮像システム |
JP2017027520A (ja) * | 2015-07-27 | 2017-02-02 | キヤノン株式会社 | 3dデータ生成装置及び方法、プログラム、記憶媒体 |
JP6747044B2 (ja) * | 2016-05-11 | 2020-08-26 | 株式会社豊田中央研究所 | 走行経路生成装置、モデル学習装置、及びプログラム |
US9940729B1 (en) * | 2016-11-18 | 2018-04-10 | Here Global B.V. | Detection of invariant features for localization |
US10957068B2 (en) * | 2017-01-06 | 2021-03-23 | Canon Kabushiki Kaisha | Information processing apparatus and method of controlling the same |
-
2018
- 2018-01-15 JP JP2018004469A patent/JP7149707B2/ja active Active
- 2018-11-09 WO PCT/JP2018/041667 patent/WO2019138677A1/ja active Application Filing
-
2020
- 2020-07-06 US US16/921,389 patent/US11393123B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013142991A (ja) | 2012-01-10 | 2013-07-22 | Nippon Telegr & Teleph Corp <Ntt> | 物体領域検出装置、方法、及びプログラム |
JP2015203680A (ja) | 2014-04-16 | 2015-11-16 | キヤノン株式会社 | 情報処理装置、方法、プログラム |
WO2017213052A1 (ja) | 2016-06-08 | 2017-12-14 | パナソニックIpマネジメント株式会社 | 測距システム及び測距方法 |
Also Published As
Publication number | Publication date |
---|---|
US20200334855A1 (en) | 2020-10-22 |
US11393123B2 (en) | 2022-07-19 |
WO2019138677A1 (ja) | 2019-07-18 |
JP2019125112A (ja) | 2019-07-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7149707B2 (ja) | 情報処理装置及びその制御方法及びプログラム、並びに、運転制御システム | |
US11216673B2 (en) | Direct vehicle detection as 3D bounding boxes using neural network image processing | |
JP6586532B2 (ja) | ロボットの把持のための深層機械学習方法および装置 | |
CN111683193B (zh) | 图像处理装置 | |
WO2019149061A1 (en) | Gesture-and gaze-based visual data acquisition system | |
US9330472B2 (en) | System and method for distorted camera image correction | |
EP2887315B1 (en) | Camera calibration device, method for implementing calibration, program and camera for movable body | |
US9630322B2 (en) | Information processing apparatus, method therefor, measurement apparatus, and working apparatus for estimating a position/orientation of a three-dimensional object based on relative motion | |
JP6840697B2 (ja) | 視線方向推定装置、視線方向推定方法、及び視線方向推定プログラム | |
JP2015114722A (ja) | 情報処理装置、情報処理装置の制御方法、情報処理システムおよびプログラム | |
CN111091038A (zh) | 训练方法、计算机可读介质和检测消失点的方法及装置 | |
CN113012219A (zh) | 信息处理装置、信息处理方法及计算机可读介质 | |
JP2019124539A (ja) | 情報処理装置及びその制御方法及びプログラム | |
CN114252071A (zh) | 自走车导航装置及其方法 | |
Morales et al. | Image generation for efficient neural network training in autonomous drone racing | |
US12061481B2 (en) | Robot navigation using a high-level policy model and a trained low-level policy model | |
US11080562B1 (en) | Key point recognition with uncertainty measurement | |
CN112513931A (zh) | 用于创建单视角合成图像的系统和方法 | |
US11559888B2 (en) | Annotation device | |
JP7547045B2 (ja) | 情報処理装置、情報処理方法およびプログラム | |
JP7536442B2 (ja) | 情報処理装置、情報処理方法およびプログラム | |
JP7358108B2 (ja) | 情報処理装置、情報処理方法及びプログラム | |
US20240046659A1 (en) | Method for detecting an environment by means of images from at least two image sensors | |
JP7508288B2 (ja) | 情報処理装置、情報処理装置の制御方法なおよびプログラム | |
Crnokić et al. | Fusion of infrared sensors and camera for mobile robot navigation system-simulation scenario |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201214 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201214 |
|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7421 Effective date: 20210103 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210113 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220218 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220411 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220829 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220927 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7149707 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |