[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP6557973B2 - 地図生成装置、地図生成方法およびプログラム - Google Patents

地図生成装置、地図生成方法およびプログラム Download PDF

Info

Publication number
JP6557973B2
JP6557973B2 JP2015001708A JP2015001708A JP6557973B2 JP 6557973 B2 JP6557973 B2 JP 6557973B2 JP 2015001708 A JP2015001708 A JP 2015001708A JP 2015001708 A JP2015001708 A JP 2015001708A JP 6557973 B2 JP6557973 B2 JP 6557973B2
Authority
JP
Japan
Prior art keywords
image
coordinates
unit
time
series
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015001708A
Other languages
English (en)
Other versions
JP2016126662A (ja
Inventor
賢 青木
賢 青木
多聞 貞末
多聞 貞末
康宏 梶原
康宏 梶原
和寛 ▲高▼澤
和寛 ▲高▼澤
和史 松下
和史 松下
康子 橋本
康子 橋本
靖子 白鷹
靖子 白鷹
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2015001708A priority Critical patent/JP6557973B2/ja
Priority to US14/967,761 priority patent/US9846043B2/en
Publication of JP2016126662A publication Critical patent/JP2016126662A/ja
Application granted granted Critical
Publication of JP6557973B2 publication Critical patent/JP6557973B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3804Creation or updating of map data
    • G01C21/3807Creation or updating of map data characterised by the type of data
    • G01C21/3811Point data, e.g. Point of Interest [POI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/215Motion-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • G06T2207/10021Stereoscopic video; Stereoscopic image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30241Trajectory
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30261Obstacle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/50Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
    • G06V10/507Summing image-intensity values; Histogram projection analysis

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Automation & Control Theory (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Processing Or Creating Images (AREA)

Description

本発明は、地図生成装置、地図生成方法およびプログラムに関する。
従来、自動車の走行時に現在位置や目的地への経路案内を行なうカーナビゲーションシステム(Automotive Navigation System)は、自車位置の特定をGPS(Global Positioning System:全地球測位システム)衛星からの位置情報により基本的に行っている。GPSの電波は直進性が強く、トンネルの中、高層ビルの間、高架道路の下、樹木の間などでは電波が受信しづらく、GPSだけでは誤差があることから、カーナビゲーションシステム内の加速度センサとジャイロ、タイヤの回転に伴う車速信号などの情報による自立航法と併用することで自車位置を特定することが行われている。
また、自立航法では、路面やタイヤの状況などにより誤差が生じてしまうため、マップマッチングと呼ばれるソフトウェア技術で、地図上の道路データに自車位置を当てはめることでGPSやジャイロセンサなどの誤差を補うという方法も用いられている。
また、レーザーレンジセンサ(測域センサ)、カメラ、エンコーダなどを利用して自己位置を数〜数十cm精度で把握できる技術として、SLAM(Simultaneous Localization And Mapping:自己位置推定と環境地図作成を同時に行う技術)が知られている。特に、カメラを利用したSLAMは、Visual SLAMと呼ばれている。Visual SLAM技術では、上記のセンサにより局所的な地図を作成し、地図情報から自車位置を特定するため、GPSの電波が受信しづらい状況下においても精度良く自車位置を特定することができる。また、ジャイロセンサや加速度センサと異なり、外界の情報を利用しているため、路面やタイヤの状況によらず自車位置を特定することができる。
特許文献1には、Visual SLAM技術を使って被写体を撮影したカメラの被写体に対する位置及び姿勢を示す回転角(カメラポーズ)の推定精度を向上させることができるカメラポーズ推定装置が開示されている。特許文献1に記載のカメラポーズ推定装置は、テンプレート画像に対応する領域の三次元位置を推定する際に、当該領域に含まれる特徴点から外れ値を除去してからテンプレート画像の三次元位置を推定するので、外れ値の影響を抑えて三次元位置の精度を向上させることができるものである。
Visual SLAM技術を使って自車位置を特定しながら走行するには、初期の自己位置を推定するための地図を初期化しておく必要がある。この地図には、建物や道路、標識などの静止物体の3次元点情報のみが必要であり、人や車などの移動物体の3次元点情報は含まないようにする必要がある。
しかしながら、特許文献1に記載のカメラポーズ推定装置では、移動物体の3次元点情報を含まない地図を事前に作成する際に、人や車などの移動物体の有無にかかわらず、任意のタイミングで地図を初期化することができない、という問題があった。
本発明は、上記に鑑みてなされたものであって、自己位置の推定に適用可能な初期の地図を生成することができる地図生成装置、地図生成方法およびプログラムを提供することを目的とする。
上述した課題を解決し、目的を達成するために、本発明に係る地図生成装置は、移動中の画像を時系列に入力する画像入力部と、前記画像入力部から入力された時系列画像から物体を示す画像領域を抽出して、世界座標系における前記物体の座標を算出する第1の算出部と、順に入力された前記時系列画像で、抽出した前記画像領域の前記物体を追跡して前記物体のオプティカルフローを算出する第2の算出部と、前記第2の算出部で算出された前記オプティカルフローに基づいて、前記画像入力部の移動により生成した第1の消失点の座標と、前記物体の移動により生成した第2の消失点の座標との差を算出し、算出した前記差に基づいて前記物体が移動物体であると判定した場合、前記物体の画像領域を前記時系列画像から除去する移動物体除去部と、前記移動物体除去部で除去されなかった前記物体の前記世界座標系における前記座標を含む地図情報を記憶部に記憶させる記憶制御部と、前記第1の算出部で新たに抽出した物体と、前記第2の算出部で追跡している前記物体とが同じ物体であると判定した場合に、前記新たに抽出した物体を除去して前記追跡を中止する重複点除去部と、前記画像入力部を基準とした座標系を示すカメラ座標系における前記物体の座標と、前記地図情報の前記世界座標系における前記物体の座標を前記カメラ座標系に再投影した座標との誤差を算出し、算出した前記誤差が予め設定された閾値以上である場合、前記記憶部に記憶されている前記物体の前記地図情報を削除して前記地図情報を更新する更新部と、を備えることを特徴とする。
本発明によれば、初期の地図を生成することができる、という有利な効果を奏する。
図1は、本実施形態に係る自己位置推定装置のハードウェア構成の一例を示す図である。 図2は、本実施形態に係る自己位置推定装置の機能構成の一例を示すブロック図である。 図3は、視差画像から3次元点を算出する方法の一例について説明する図である。 図4は、視差画像から3次元点を算出する方法の一例について説明する図である。 図5は、オプティカルフローの一例について説明する図である。 図6は、動き消失点の一例について説明する図である。 図7は、動き消失点の一例について説明する図である。 図8は、世界座標系における物体の座標をカメラ座標系に再投影した座標について説明する図である。 図9は、時系列画像の画像領域の分割とオプティカルフローの統合について説明する図である。 図10は、動き消失点の座標について説明する図である。 図11は、動き消失点の座標について説明する図である。 図12は、ステレオ距離画像と障害物マスク画像の一例について説明する図である。 図13は、本実施形態の自己位置推定装置の処理動作の一例について説明するフローチャート図である。 図14は、地図情報の更新処理の一例について説明するフローチャート図である。
以下、添付図面を参照しながら、本発明に係る地図生成装置、地図生成方法およびプログラムの一実施形態を詳細に説明する。なお、以下の実施形態により本発明が限定されるものではない。また、各実施形態は、内容を矛盾させない範囲で、適宜組み合わせることができる。
本実施形態の地図生成装置は、画像入力部から入力された時系列画像から物体を示す画像領域を抽出して、世界座標系における物体の座標を算出する。次に、地図生成装置は、順に入力された前記時系列画像で、抽出した前記画像領域の前記物体を追跡して前記物体のオプティカルフローを算出する。次に、算出されたオプティカルフロー(物体の移動ベクトル)に基づいて、画像入力部の移動により生成した第1の消失点の座標と、物体の移動により生成した第2の消失点の座標との差を算出する。次に、算出した差に基づいて物体が移動物体であると判定した場合、物体の画像領域を時系列画像から除去する。また、地図生成装置は、新たに抽出した物体と、追跡している物体とが同じ物体であると判定した場合に、新たに抽出した物体を除去して追跡を中止する。地図生成装置は、除去されなかった物体の世界座標系における座標を含む地図情報を更新して記憶する。これにより、Visual SLAMに適用可能な初期の地図を生成することができる。
以下では、本実施形態の地図生成装置を、Visual SLAMを用いる自己位置推定装置の一部の装置として実現する例を説明する。本実施形態の地図生成装置が適用可能な装置は、このような自己位置推定装置に限られるものではない。
最初に、図1を用いて、自己位置推定装置100のハードウェア構成例について説明する。図1は、本実施形態の自己位置推定装置のハードウェア構成の一例を示す図である。
図1に示すように、自己位置推定装置100は、システムバス120に接続された、入力装置101と、表示装置102と、ドライブ装置103と、RAM(Random Access Memory)104と、ROM(Read Only Memory)105と、CPU(Central Processing Unit)106と、インタフェース装置107と、HDD(Hard Disk Drive)108とを備える。ドライブ装置103には記録媒体109が接続される。
入力装置101は、自己位置推定装置100に各操作信号、各種データを入力する入力インタフェースである。入力装置101は、例えば、移動中の画像を時系列に入力するカメラである。本実施形態において、カメラは、例えば、視差による距離画像が取得可能な複数台のカメラ(ステレオカメラなど)である。なお、カメラは、複数台のカメラに限ることはなく、時系列に撮影された複数フレームの画像から距離画像を取得することができる単眼カメラでもよい。
また、入力装置101は、キーボード、マウス、ディスプレイ等で構成され、ユーザの様々な操作指示を受け付けるユーザインタフェースである。入力装置101は、例えば、タッチパネルや音声入力装置を入力装置101とすることもできる。
表示装置102は、プログラムによるGUI(Graphical User Interface)等を表示する。表示装置102は、例えば、画像などを表示するディスプレイなどを含み、自己位置推定装置100による処理結果などを表示する。ディスプレイは、例えば、液晶や有機ELなどのFPD(Flat Panel Display)である。
ドライブ装置103は、着脱可能な記録媒体109とのインタフェースである。自己位置推定装置100は、ドライブ装置103を介して、記録媒体109の読み取り及び/又は書き込みを行うことができる。記録媒体109には、例えば、フロッピー(登録商標)ディスク、CD(Compact Disk)、DVD(Digital Versatile Disk)、SDメモリカード(SD memory card)、USBメモリ(Universal Serial Bus memory)などがある。
RAM104は、各種プログラムやデータを一時記憶する揮発性の半導体メモリ(記憶装置)である。また、RAM104は、CPU106がデータ処理時に使用するメモリでもある。なお、RAM104の代わりに、SDRAM、DRAM、SRAMなどを使用してもよい。
ROM105は、電源を切っても内部データを保持することができる不揮発性の半導体メモリ(記憶装置)である。ROM105には、自己位置推定装置100の起動時に実行されるBIOS(Basic Input/Output System)、情報処理システム設定、及びネットワーク設定などのプログラムやデータが格納されている。
CPU106は、自己位置推定装置100の動作を統括的に制御する。CPU106は、ROM105やHDD108に格納されたプログラムやデータをRAM(メモリ)104上に読み出し、処理を実行することで、自己位置推定装置100全体の動作を制御する。また、CPU106は、各種機能を実現する。
インタフェース装置107は、例えば、ネットワークに接続するためのインタフェースである。自己位置推定装置100は、インタフェース装置107を介して、ネットワークに接続された外部装置とデータ通信を行うことができる。
HDD108は、自己位置推定装置100で実行される各種のプログラムやデータを格納する不揮発性の記憶装置である。また、HDD108は、自己位置推定装置100の各種機能を実現するために必要なプログラムやデータ等を格納する。格納されるプログラムやデータには、自己位置推定装置100全体を制御する情報処理システム(例えば「Windows(登録商標)」や「UNIX(登録商標)」などの基本ソフトウェアであるOS(Operating System))、及びシステム上において各種機能を提供するアプリケーションなどがある。また、HDD108は、格納しているプログラムやデータを、所定のファイルシステム及び/又はDB(Data Base)により管理している。
なお、上記の自己位置推定装置100用プログラムは、インストール可能な形式又は実行可能な形式のファイルで、記録メディア等のコンピュータで読み取り可能な記録媒体に記録して流通させるようにしてもよい。
なお、後述する地図生成装置10のハードウェア構成は、上記の自己位置推定装置100と同様であるため、以下では詳細な説明は省略する。
次に、図2を用いて、自己位置推定装置100の機能構成について説明する。図2は、自己位置推定装置の機能構成の一例を示すブロック図である。
図2に示すように、自己位置推定装置100は、画像入力部11と、第1の算出部12と、第2の算出部13と、移動物体除去部14と、重複点除去部15と、記憶制御部16と、更新部17と、推定部18とを備える。また、移動物体除去部14及び記憶制御部16と連携する各機能部として、統合部21と、消失点算出部22と、移動情報算出部23と、動き消失点取得部24と、記憶部25と、距離画像算出部26と、路面特定部27とを備えている。上記各部については、これらの一部がソフトウェア(プログラム)であってもよいし、これらの一部又は全部がハードウェア回路であってもよい。
画像入力部11は、移動中の画像を時系列に入力する。画像入力部11は、例えば、移動中の画像を時系列に入力するデジタルカメラやビデオカメラ等の画像センサを有する撮像装置(カメラ)である。本実施形態において、カメラは、例えば、視差による距離画像が取得可能な複数台のカメラ(ステレオカメラなど)である。なお、カメラは、複数台のカメラに限ることはなく、時系列に撮影された複数フレームの画像から距離画像を取得することができる単眼カメラでもよい。また、画像入力部11は、映像データを構成する一連の画像データを取得できればよく、予め撮影された映像データを取得する装置などであってもよい。
第1の算出部12は、画像入力部(カメラ)11から入力された時系列画像から物体を示す画像領域を抽出して、世界座標系における物体の3次元位置座標を算出する。以下では、画像入力部を「カメラ」とも表記する。第1の算出部12は、具体的には、連続して入力される時系列画像から物体(静止物体及び移動物体)を抽出し、抽出した物体の特徴点を抽出する。そして、複数の画像入力部(カメラ)11から入力された時系列画像の視差画像から特徴点の世界座標系における3次元位置座標(3次元点:X,Y,Z)を算出する。なお、特徴点は、例えば、建物の角などの画像上の特徴(コーナー)のことを指す。
また、画像から確実といえる特徴点を抽出し画像の中身を推測するために、特徴点を抽出する手法としては、例えば、特徴点をコーナーとしたMravecのコーナー検出、Harrisのコーナー検出、FAST(Features from Accelerated Segment Test)などが例示される。
また、スケールと特徴点を同時に検出するDifference−of−Gaussian(DoG)、近似Hessian−Laplaceなどが例示される。また、局所特徴量は局所領域の勾配情報を実数で表現するScale−Invariant Feature Transform (SIFT)、Speeded−Up Robust Features(SURF)などが例示される。また、輝度の大小関係をバイナリで表現するBinary Robust Independent Elementary Features(BRIEF)、Oriented FAST and Rotated BRIEF(ORB)などが例示される。
ここで、時系列画像の視差画像から特徴点の世界座標系における3次元位置座標(3次元点)の算出方法について説明する。図3及び図4は、視差画像から3次元点を算出する方法の一例について説明する図である。図3に示すように、2台のカメラ(ステレオカメラ)があるとする。X座標における左カメラのレンズ中心はxl、右カメラのレンズ中心はxrで、カメラ間の距離はDである。また、図4に示すように、左カメラと右カメラとの視差はEである。この場合、3次元点(X、Y、Z)は下記式(1)〜(3)により算出される。
Z=Df/(xl−xr) ・・・(1)
X=(Z/f)×xr ・・・(2)
Y=(Z/f)×yr ・・・(3)
なお、上記式(1)〜(3)中、Dはカメラ間の距離、fはカメラの焦点距離、xl−xrは視差Eを表す。
図2に戻って説明を続ける。第2の算出部13は、画像入力部(カメラ)11から順に入力された時系列画像で、第1の算出部12で抽出した物体を追跡して物体のオプティカルフローを算出する。具体的には、第2の算出部13は、第1の算出部12で抽出した物体の特徴点について、例えば、最初に入力された時系列画像(フレーム)を探索画像として順に入力された時系列画像で物体の特徴点の位置を追跡し、物体の特徴点が移動した移動ベクトル(オプティカルフロー)を算出する。なお、オプティカルフローとは、デジタル画像中の物体の動きをベクトルで表したものである。主に移動物体の検出や、その動作の解析などに用いられる。
なお、各特徴点は、例えば、特徴点を識別する識別情報(ID)、特徴点を追跡した追跡回数、画像上の座標(x,y)などの情報が付与されている。すなわち、複数の特徴点は、例えば、識別情報(ID)により識別されている。なお、追跡回数の一例として、例えば「0」を追跡失敗、「1」を新規な特徴点、「2」以上を追跡成功回数などと定義してもよい。
ここで、図5を用いて、オプティカルフローの移動ベクトルについて説明する。図5は、オプティカルフローの一例について説明する図である。図5に示すように、例えば、時間軸tである前の画像の特徴点の画素A(特徴点)が、時間軸t+Δtである次の画像において別の場所、画素Bに動いたとき、その移動を表すベクトル(AからBに向かうベクトル)が、この特徴点の移動ベクトルである。このように、オプティカルフローとは、動画像の時間的、そして空間的な例えば、輝度分布の変化を用いて画素ごとに移動ベクトルを求めてできた結果である。なお、時間軸のtは任意の時刻を表す。
図2に戻って説明を続ける。移動物体除去部14は、第2の算出部13で算出されたオプティカルフロー(物体の移動ベクトル)に基づいて、画像入力部11の移動により生成した第1の消失点(動き消失点)の座標と、物体の移動により生成した第2の消失点(移動物体消失点)の座標との差を算出し、算出した差に基づいて物体が移動物体であると判定した場合に、物体の画像領域を時系列画像から除去する。
具体的には、移動物体除去部14は、第2の算出部13で得られた移動ベクトルの情報から画像入力部(カメラ)11の移動により生成した第1の消失点(動き消失点)の座標と、移動物体により生成した第2の消失点(移動物体消失点)の座標を求める。そして、それぞれの消失点の座標の差分が予め設定した閾値の範囲内であるか否かを判定し、静止物体であるのか、又は移動物体であるのかを判定する。そして、移動物体除去部14は、画像入力部(カメラ)11から入力された時系列画像から抽出した物体が移動物体であると判定した場合に、物体を示す画像領域を時系列画像から除去する。すなわち、例えば、人や車などの移動物体の世界座標系における3次元位置座標(3次元点)情報を含まない初期の地図を生成することができる。
また、移動物体除去部14は、消失点の座標の距離が予め設定した閾値以下であるグループ同士をさらに統合し、統合されたグループについて、消失点を算出するためのオプティカルフロー(移動ベクトル)の数が少ないものを移動物体と判定して物体の画像領域を時系列画像から除去する。
具体的には、まず、統合部21で、時系列画像を画像の種類ごとの画像領域に分割し、分割した画像領域に含まれるオプティカルフロー(移動ベクトル)を1つのグループとする。次に、消失点算出部22で、それぞれのグループごとに、オプティカルフローの物体の移動ベクトルに基づいて消失点の座標を算出する。その後、移動物体除去部14は、消失点の座標の距離が予め設定した閾値以下であるグループ同士をさらに統合し、統合されたグループについて、消失点を算出するためのオプティカルフローの移動ベクトルの数が少ないものを移動物体と判定して物体の画像領域を時系列画像から除去する。
また、複数カメラの距離画像の情報を用いて、例えば、画像領域の距離が近い場合には危険と判断して無条件で移動物体と判断してもよい。なお、詳細については、後述の図9を用いて、統合部21、消失点算出部22にて説明する。
また、移動物体除去部14は、順に入力された時系列画像における物体の座標(追跡中の特徴点)と取得した第1の消失点(動き消失点)の座標とを結んだ方向のベクトルと、第2の算出部13で算出されたオプティカルフローの移動ベクトルとの内積を計算した値に基づき、移動物体を判定して物体の画像領域を時系列画像から除去する。
詳細には、後述する図11を用いて説明するが、移動物体除去部14は、動き消失点と追跡中の特徴点とを結んだ方向のベクトルと、実際に特徴点の追跡により求められたオプティカルフローの移動ベクトルの差を、ベクトルの内積からcosθを算出し、算出したcosθが予め設定した閾値を超える場合(差が大きい場合、ズレが大きい場合)、物体を移動物体と判定して物体の画像領域を時系列画像から除去する。
ここで、図6及び図7を用いて、動き消失点について説明する。図6及び図7は、動き消失点の一例について説明する図である。図6に示すように、例えば、自動車に搭載されたカメラ(画像入力部)11が進行方向に向かって進んでいる場合、移動中の画像が時系列に入力される。図6の例では、時刻tでの画像と、時刻t+Δtでの画像が時系列に入力されることになる。つまり、進行方向に向かって連続画像が入力される。
また、図7に示すように、カメラ(画像入力部)11が移動するので、時刻tでの物体の画像は小さく(遠くにある)、時刻t+Δtでの物体の画像は大きく(近くにある)なる。図7において、カメラ11から得られる時刻tでの物体の画像のコーナーと、時刻t+Δtでの物体の画像のコーナーのオプティカルフローを延長した直線による交点を用いて、動きの消失点を求めることができる。なお、図7に示した消失点は画像上の消失点ではなく、動き消失点のことであり、画像上の消失点とは違うものである。図7に示した、動き消失点の軌跡を用いることによりカメラ11自体の動きを推定することができる。
図2に戻って説明を続ける。移動物体除去部14は、後述の図12を用いて説明する記憶部25に記憶されている障害物マスク画像に、距離画像算出部26で算出した距離画像に含まれる障害物画像が重なり、かつ距離画像から障害物画像との距離が予め設定した距離以下の場合に、障害物画像を移動物体と判定して物体の画像領域を時系列画像から除去する。
また、移動物体除去部14は、路面特定部27から受け付けた路面の画像領域に基づいて、路面の画像領域と接する画像領域を移動物体と判定して物体の画像領域を時系列画像から除去する。
また、移動物体除去部14は、RANSAC(RANDdom Sample Consensus)アルゴリズムを用いて、時系列画像に含まれる背景領域の特徴点を2次曲線に近似して、2次曲線から離れた特徴点を移動物体と判定し、特徴点に対応する物体の画像領域を時系列画像から除去する。すなわち、RANSAC(RANdom SAmple Consensus)アルゴリズムを用いて、背景領域のオプティカルフローはx方向に対して滑らかに変化する特性を2次曲線に近似して2次曲線の外れ値を移動物体と判断して物体を除去する。
重複点除去部15は、第1の算出部12で新たに抽出した物体と、第2の算出部13で追跡している物体と同じ物体であるか否かの対応付けを行う。
また、重複点除去部15は、第1の算出部12で新たに抽出した物体と、第2の算出部13で追跡している物体とが同じ物体であると判定した場合に、新たに抽出した物体を除去して物体の追跡を中止する。すなわち、新たに抽出した物体と、現在追跡している物体とが同じである場合には重複している新たに抽出した物体を除去して、オプティカルフローを算出するための追跡を止める。
記憶制御部16は、移動物体除去部14、及び重複点除去部15で除去されなかった物体の世界座標系における座標を含む地図情報を記憶部25に記憶させる制御を行う。すなわち、地図生成装置10で生成した初期の地図情報を記憶部25に記憶させる。また、記憶制御部16は、更新部17で地図情報が更新された場合、更新後の地図情報を記憶部25に記憶させる制御を行う。なお、記憶制御部16は、地図情報を地図データベースとして記憶させるようにしてもよい。さらに、地図データベースは、記憶部25が備えることに限ることはなく、例えば、通信可能な外部装置(サーバ装置)に備えるように構成することもできる。
また、記憶制御部16は、現在の地図情報だけではなく過去に走行した際の地図情報を記憶させておくことで、例えば、雨や雪、夜間など不利な環境下においてもロバスト性を向上させることができる。
更新部17は、画像入力部11を基準とした座標系を示すカメラ座標系における物体の座標と、記憶部25に記憶されている地図情報の世界座標系における物体の座標をカメラ座標系に再投影した座標との誤差を算出し、算出した誤差が予め設定された閾値以上である場合、記憶部25に記憶されている物体の地図情報(世界座標系における物体の座標)を削除して地図情報を更新する。
すなわち、更新部17が更新した地図情報は、移動物体を除去した初期の地図情報である。従って、更新部17は、時系列画像から移動物体を除去した、静止物体(ランドマーク)の世界座標系における物体の座標の情報を含んだ、自己位置推定に適用可能な初期の地図情報を生成することができる。
ここで、図8を用いて、世界座標系における物体の座標と、カメラ座標系に再投影した座標との誤差について説明する。図8は、世界座標系における物体の座標をカメラ座標系に再投影した座標について説明する図である。図8に示した3次元点Xp(X,Y,Z)の座標は、第1の算出部12で算出された、画像入力部(カメラ)11から入力された時系列画像から物体を示す画像領域を抽出して、算出した世界座標系における物体(特徴点)の3次元位置(3次元点)の座標に対応する。
まず、更新部17は、画像入力部11から入力された時系列画像から抽出した物体(特徴点)のカメラ座標系における座標xp(x,y)を取得する。次に、更新部17は、記憶部25に記憶されている地図情報から物体(特徴点)の世界座標系における座標Xp(X,Y,Z)を取得する。そして、座標Xp(X,Y,Z)をカメラ座標系の座標に変換し、変換した座標x′p(x′,y′)をカメラ座標系に再投影する。
すなわち、物体(特徴点)の世界座標系における3次元の座標Xp(X,Y,Z)を、変換行列を用いて、カメラ座標系の2次元の座標x′p(x′,y′)に変換する。なお、3次元座標から2次元座標に変換するための変換行列は任意の式を適用できる。
図8の例では、時系列画像から抽出した物体(特徴点)の座標xp(x,y)と、記憶部25に記憶されている地図情報から物体(特徴点)の座標Xp(X,Y,Z)を変換して投影した座標x′p(x′,y′)とが同一の座標でなく誤差(投影誤差)がある場合を示している。
更新部17は、図8に示した、座標xp(x,y)と、座標x′p(x′,y′)との誤差(投影誤差)を算出する。そして、更新部17は、算出した誤差(投影誤差)が予め設定された閾値以上である場合、記憶部25に記憶されている物体の地図情報(世界座標系における物体の座標)を削除(初期化)して地図情報を更新する。なお、誤差(投影誤差)の閾値は任意に設定できる。
なお、時系列画像における物体(特徴点)のカメラ座標系での座標xp(x,y)を、世界座標系における座標Xp(X,Y,Z)に変換する場合は、上記で説明した変換行列の逆変換によって、世界座標系における物体の座標Xp(X,Y,Z)を取得することができる。
また、更新部17は、画像入力部(カメラ)11から入力された時系列画像から新たに物体を抽出した場合、時系列画像における物体(特徴点)のカメラ座標系での座標xp(x,y)と、第1の算出部12で算出された世界座標系における物体(特徴点)の3次元位置(3次元点)の座標を変換してカメラ座標系に投影した座標x′p(x′,y′)との誤差(投影誤差)が予め設定された閾値以上であり、かつ時系列画像の視差画像から得られる視差が予め設定された閾値以上である場合に、新たな物体(特徴点)を地図情報に追加して地図情報を更新する。なお、移動しながら物体(特徴点)の世界座標系における座標を地図情報に追加することで初期の地図を生成することができる。なお、誤差(投影誤差)の閾値、及び視差の閾値は任意に設定できる。
図2に戻って説明を続ける。推定部18は、世界座標系における物体の座標(特徴点の3次元点)に基づいて、世界座標系からカメラ(画像入力部)11を基準とした座標系を示すカメラ座標系への変換行列を推定し、該変換行列に基づいて画像を入力したカメラ(画像入力部)11の物体(特徴点)に対する位置及び姿勢を示す回転角を推定する。
つまり、推定部18は、物体に対するカメラ(画像入力部)11の位置及び向きを算出する。具体的には、推定部18は、世界座標系における物体の位置座標を、カメラ座標系へ投影するための変換を行う変換パラメータ[R|t]行列を算出する。なお、Rは回転行列のことを表し、tは並進ベクトルのことを表す。
すなわち、図8を用いて説明したように、推定部18は、記憶部25に記憶されている物体(特徴点)の世界座標系における座標Xp(X,Y,Z)と、時系列画像における物体(特徴点)のカメラ座標系での座標xp(x,y)とを用いて、世界座標系をカメラ座標系へと線形変換するための変換パラメータ[R|t]行列を算出する。なお、上記で説明したように、3次元座標から2次元座標に変換するための変換パラメータ[R|t]行列は任意の式を適用できる。
次に、移動物体除去部14及び記憶制御部16と連携する各機能部について説明する。
統合部21は、時系列画像を画像の種類ごとの画像領域に分割し、分割した画像領域ごとにオプティカルフローを1つのグループに統合する。すなわち、第1の算出部12で、時系列画像から複数の物体の特徴点を抽出し、複数の画像入力部11から入力された視差画像から世界座標系における複数の物体の特徴点の座標を算出している。また、第2の算出部13で、順に入力された時系列画像で、抽出した複数の物体の特徴点を追跡して複数の物体のオプティカルフローを算出している。そこで、統合部21は、入力された時系列画像を、例えば、空、背景(左)、背景(右)、人、路面などといった画像の種類ごとに画像領域を分割する。次に統合部21は、分割した画像領域ごとに、第2の算出部13で算出したオプティカルフローを1つのグループに統合する。
ここで、時系列画像を画像の種類ごとの画像領域に分割し、分割した画像領域ごとにオプティカルフローを統合する流れについて説明する。図9は、時系列画像の画像領域の分割とオプティカルフローの統合について説明する図である。
図9に示すように、統合部21は、例えば、空、背景(左)、背景(右)、人、路面といった画像領域に分割し、図9の例では、例えば、空の領域に含まれるオプティカルフロー(移動ベクトル)を1つのグループとし、背景(左)に含まれるオプティカルフロー(移動ベクトル)を1つのグループとし、背景(右)に含まれるオプティカルフロー(移動ベクトル)を1つのグループとする。また、人のオプティカルフロー(移動ベクトル)を1つのグループとし、路面のオプティカルフロー(移動ベクトル)を1つのグループとする。
なお、画像領域の分割の方法は、複数カメラによる距離画像により領域分割する方法や、画像の輝度値の勾配(エッジ)で領域分割する方法がある。領域がきれいに分割できない場合には、ノイズ除去や膨張・収縮などといった処理を必要に応じて行うものとする。この後に、後述する消失点算出部22で、オプティカルフロー(移動ベクトル)を統合したグループごとに、消失点を算出する。
図2に戻って説明を続ける。消失点算出部22は、上記の統合部21で、画像領域ごとに、第2の算出部13で算出したオプティカルフローを1つのグループに統合し、それぞれのグループごとに、オプティカルフロー(物体の移動ベクトル)に基づいて消失点の座標を算出する。そして、移動物体除去部14は、消失点の座標が近いものについてはグループ同士を、さらに1つのグループに統合する。なお、グループ同士をさらに統合する機能は、移動物体除去部14に限ることはなく、消失点算出部22が機能を有してもよい。
なお、座標が近いか否かの判断は、消失点の座標の距離が予め設定した閾値以下である場合に近いと判断し、閾値を超える場合に遠いと判断するようにする。なお、閾値の設定は任意である。
消失点算出部22で、消失点を算出した後に、移動物体除去部14は、統合されたグループについて、移動物体に対して背景が占める割合が高いという条件から、消失点を算出するための移動ベクトルの数が少ないものを移動物体と判定して物体の画像領域を時系列画像から除去する。
図9の例では、例えば、人の移動物体消失点を算出するためのオプティカルフロー(移動ベクトル)は3つで示されているので、他のオプティカルフローより数が少ないと判断し、人を移動物体と判定して人(物体)の画像領域を時系列画像から除去する。
また、複数カメラの距離画像の情報を用いて、例えば、画像領域(人)の距離が近い場合には危険と判断して無条件で、人を移動物体と判断してもよい。
図2に戻って説明を続ける。移動情報算出部23は、画像入力部(カメラ)11が移動する速度及び車輪の操舵角を少なくとも用いて、画像入力部11の移動速度と移動方向とを含む移動情報を算出する。具体的には、移動情報算出部23は、車載ネットワークの基幹プロトコルとなっているCAN(Controller Area Network)などから得られた車両の速度情報及びタイヤの操舵角情報を少なくとも用いて、車両の移動速度と移動方向を算出する。
動き消失点取得部24は、移動情報算出部23で算出された移動情報に基づいて、順に入力された時系列画像から画像入力部(カメラ)11の移動により生成した第1の消失点(動き消失点)の座標を取得する。図10及び図11は、動き消失点の座標について説明する図である。動き消失点取得部24は、移動情報算出部23で算出した、例えば、車両の移動速度と移動方向の移動情報に基づいて、図10に示した動き消失点パターンから、例えば、車両自身の移動によって画像上に生成される動き消失点を検索して取得する。
動き消失点パターンとして、図10に一例を示す。図10の例では、画像入力部(カメラ)11が直進する場合は、動き消失点は画像の中心部にある。また、画像入力部11が左カーブする場合は、動き消失点は画像の中心から左側にある。また、画像入力部11が右カーブする場合は、動き消失点は画像の中心から右側にある。なお、左折及び右折の場合には、動き消失点が画像上にないが、移動ベクトルの方向が左か右に一定となるため、その移動ベクトルの向きと異なる動きをしている移動ベクトルは、移動物体のオプティカルフロー(移動ベクトル)であると判断することができる。
また、図11に示すように、移動物体除去部14は、順に入力された時系列画像における物体の座標(追跡中の特徴点)と取得した第1の消失点(動き消失点)の座標とを結んだ方向のベクトルと、第2の算出部13で算出されたオプティカルフローの移動ベクトルとの内積を計算した値に基づき、移動物体を判定して物体の画像領域を時系列画像から除去する。
図11の例では、動き消失点と追跡中の特徴点を結んだ方向のベクトルと、実際に特徴点の追跡により求められたオプティカルフローのベクトルの差を、ベクトルの内積からcosθとして求めている。そして、移動物体除去部14は、求めたcosθが予め設定した閾値を超える(差が大きい、ズレが大きい)場合、物体を移動物体と判定して物体の画像領域を時系列画像から除去する。なお、閾値は任意に設定できる。
図2に戻って説明を続ける。記憶部25は、物体の世界座標系における座標を含む地図情報を記憶する。また、記憶部25は、第1の算出部12で時系列画像から抽出された物体で、移動物体除去部14で除去されなかった物体の世界座標系における座標を含む地図情報を記憶する。
記憶部25は、画像入力部(カメラ)11の移動により生成した第1の消失点(動き消失点)の座標の移動ベクトルのパターン(動き消失点パターン)を記憶する。なお、動き消失点パターンについては、上記の図10を用いて説明したものと同様である。
記憶部25は、後述の図12を用いて説明する、障害物の画像領域を示す障害物マスク画像を記憶する。なお、記憶部25は、予め障害物マスク画像を記憶するようにしてもよい。なお、記憶部25は、障害物マスク画像を、障害物エリア予測マスクのデータベースとして記憶するようにしてもよい。さらに、障害物エリア予測マスクのデータベースは、記憶部25が備えることに限ることはなく、例えば、通信可能な外部装置(サーバ装置)に備えるように構成することもできる。
距離画像算出部26は、画像入力部11から入力された時系列画像の視差画像から求められる視差を用いて、障害物の画像領域を示す障害物画像の領域を含む距離画像を算出する。図12は、ステレオ距離画像と障害物マスク画像の一例について説明する図である。距離画像算出部26は、図12に示すように、例えば、複数のカメラ(画像入力部)11から入力された時系列画像の視差画像の視差から得られるステレオ距離画像を算出する。その際に、距離画像算出部26では、例えば、車両や人、その他の障害物があった場合に、障害物領域を生成する。
次に、移動物体除去部14は、上記の障害物マスク画像に、生成した障害物領域が重なり、かつステレオ距離画像から障害物領域との距離が予め設定した距離以下の場合に、障害物領域を移動物体と判定し、判定した移動物体の画像領域(障害物領域)を時系列画像から除去する。すなわち、移動物体除去部14は、距離画像算出部26で算出された上記の距離画像の情報と、記憶部25に予め記憶されている障害物マスク画像との情報から、障害物マスク画像に障害物領域が一致し、かつ障害物領域との距離が近い画像領域を移動物体と判断する。
図12の例では、移動情報算出部23で、画像入力部11の移動速度と移動方向とを含む移動情報を算出し、動き消失点取得部24で、移動情報算出部23で算出された移動情報に基づいて、画像入力部(カメラ)11の移動により生成した第1の消失点(動き消失点)の座標を取得する。次に、距離画像算出部26は、障害物の画像領域を示す障害物領域を含むステレオ距離画像を生成し、記憶部25に記憶されている障害物マスク画像(図12の例では路面の距離画像)に、距離画像算出部26で生成したステレオ距離画像(路面の距離画像)に含まれる障害物領域が重なり、かつ距離画像から障害物領域との距離が予め設定した距離以下の場合に、障害物領域を移動物体と判定し、物体の画像領域を時系列画像から除去する。すなわち、距離画像算出部26で生成したステレオ距離画像(路面の距離画像)と障害物マスク画像が一致し、ステレオ距離画像に含まれる障害物領域との距離が近いと判断された場合、障害物領域を移動物体と判定して物体の画像領域を時系列画像から除去する。
図2に戻って説明を続ける。路面特定部27は、順に入力された時系列画像から路面の画像領域を特定する。路面特定部27は、特定した路面の画像領域を移動物体除去部14に受け渡すと共に記憶部25に記憶させる。その後、移動物体除去部14は、路面特定部27から受け付けた路面の画像領域に基づいて、路面の画像領域と接する画像領域を移動物体と判定して物体の画像領域を時系列画像から除去する。これにより、例えば、路面上に静止している移動物体を判定して物体を除去することができる。
次に、図13を用いて、本実施形態の自己位置推定装置100の処理動作について説明する。図13は、本実施形態の自己位置推定装置の処理動作の一例について説明するフローチャート図である。
まず、自己位置推定装置100の第1の算出部12は、画像入力部(カメラ)11から入力された時系列画像から物体を示す画像領域(特徴点(x,y))を抽出して、世界座標系における物体の3次元位置座標(X,Y,Z)を算出する(ステップS1)。それと並行して、第2の算出部13は、画像入力部(カメラ)11から順に入力された時系列画像で、抽出した物体を追跡して物体のオプティカルフローを算出する(ステップS2)。ここで、最初に入力される時系列画像(フレーム)では、追跡対象の物体(特徴点)の情報が無いので次に入力される時系列画像(2フレーム)以降に物体のオプティカルフローの算出処理が開始される。
次に、重複点除去部15は、第1の算出部12で新たに抽出した物体(特徴点)と、第2の算出部13で追跡している物体(特徴点)との対応付けを行って、物体(特徴点)が同じ物体であると判定した場合に、重複している新たに抽出した物体の画像領域を時系列画像から除去し(ステップS3)、物体の追跡を中止する。すなわち、新たに抽出した物体と、追跡している物体とが重複している場合、物体のオプティカルフローの算出を中止することで、自己位置推定装置100の処理の負荷を軽減させることができる。
次に、推定部18は、世界座標系における物体(特徴点)の3次元位置座標(X,Y,Z)と、カメラ(画像入力部)11を基準とした座標系を示すカメラ座標系の物体(特徴点)の座標(x,y)から、画像を入力したカメラ(画像入力部)11の物体(特徴点)に対する位置及び姿勢を示す回転角を推定する(ステップS4)。
次に、推定部18は、カメラ(画像入力部)11の位置及び姿勢の推定が成功したか否かを判定する(ステップS5)。推定に成功しない場合(ステップS5:No)、ステップS1、S2に戻り処理を継続する。
推定に成功した場合(ステップS5:Yes)、更新部17は、推定したカメラ(画像入力部)11の位置及び姿勢に基づき、地図情報を更新する(ステップS6)。すなわち、更新部17は、カメラ座標系における物体(特徴点)の座標(x,y)と、記憶部25に記憶されている地図情報の世界座標系における物体(特徴点)の3次元位置座標(X,Y,Z)をカメラ座標系に再投影した座標(x′,y′)との誤差を算出し、算出した誤差が予め設定された閾値以上である場合、記憶部25に記憶されている物体(特徴点)の地図情報(世界座標系における物体の座標)を削除して地図情報を更新する。その後、処理を終了する。
次に、図14を用いて、図13のステップS6の処理の詳細について説明する。図14は、地図情報の更新処理の一例について説明するフローチャート図である。更新部17は、上記で推定したカメラ(画像入力部)11の位置及び姿勢に基づき、物体(特徴点)が新たな物体(特徴点)であるか否かを判定する(ステップS11)。新たな物体(特徴点)である場合(ステップS11:Yes)、更新部17は、時系列画像における物体(特徴点)のカメラ座標系での座標(x,y)と、世界座標系の3次元座標からカメラ座標系の2次元座標に変換する変換パラメータ[R|t]とから物体(特徴点)の3次元位置座標(X,Y,Z)を算出する(ステップS12)。
次に、更新部17は、カメラ座標系における物体(特徴点)の座標(x,y)と、記憶部25に記憶されている地図情報の世界座標系における物体(特徴点)の3次元位置座標(X,Y,Z)を変換パラメータ[R|t]を用いてカメラ座標系に再投影した座標(x′,y′)との投影誤差、及び視差画像から視差を算出し(ステップS13)、算出した投影誤差、及び視差が予め設定された閾値を満たすか否かを判断する(ステップS14)。
投影誤差が閾値以上(閾値を満たさない)である場合(ステップS14:No)、処理を終了する。投影誤差が閾値以下(閾値を満たす)である場合(ステップS14:Yes)、記憶部25に記憶されている地図情報に新たな物体(特徴点)の3次元位置座標(X,Y,Z)を追加して地図情報を更新(ステップS15)して処理を終了する。
ステップS11に戻り、新たな物体(特徴点)でない場合(ステップS11:No)、更新部17は、ステップS13で説明した投影誤差を再度算出する(ステップS16)。次に、更新部17は、再度算出した投影誤差が予め設定された閾値を満たすか否かを判断する(ステップS17)。
投影誤差が閾値以下(閾値を満たす)である場合(ステップS17:Yes)、処理を終了する。投影誤差が閾値以上(閾値を満たさない)である場合(ステップS17:No)、記憶部25に記憶されている地図情報の物体(特徴点)の3次元位置座標(X,Y,Z)を削除して地図情報を更新(ステップS18)して処理を終了する。
以上に説明したように、本実施形態では、自己位置推定装置100に上記の処理を実行させることで、例えば、画像入力部(カメラ)11から順に入力された時系列画像から物体(特徴点)を抽出して、抽出した物体を追跡して物体のオプティカルフローを算出する。そして、算出されたオプティカルフローに基づいて、順に入力された時系列画像から画像入力部(カメラ)11の移動により生成した第1の消失点(動き消失点)の座標を取得し、第1の消失点(動き消失点)の座標と、オプティカルフロー(物体の移動ベクトル)に基づいて算出した第2の消失点(移動体消失点)の座標との差を算出する。そして、算出した差が大きい物体を移動物体と判定して時系列画像から除去し、除去されなかった物体の世界座標系における座標を含む地図情報を更新して記憶する。これにより、本実施形態によれば、自己位置の推定に適用可能な初期の地図を生成することができる、という有利な効果を達成できる。
以上、本発明に係る実施形態について説明したが、本発明は、上述の実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上述の実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施の形態に示される全構成要素から幾つかの構成要素を削除してもよい。さらに、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。
また、上述した各実施形態の自己位置推定装置100及び地図生成装置10で実行されるプログラムは、インストール可能な形式または実行可能な形式のファイルでフロッピー(登録商標)ディスク、CD(Compact Disk)、CD−R(Compact Disk−Recordable)、CD−ROM(Compact Disc Read Only Memory)、DVD(Digital Versatile Disk)、SDメモリカード(SD memory card)、USBメモリ(Universal Serial Bus memory)等のコンピュータで読み取り可能な記録媒体に記録して提供するように構成してもよいし、インターネット等のネットワーク経由で提供または配布するように構成してもよい。また、各種プログラムを、ROM等に予め組み込んで提供するように構成してもよい。
なお、本実施形態の地図生成装置10を備えた自己位置推定装置100の構成は一例であり、用途や目的に応じて様々な装置構成例があることは言うまでもない。
10 地図生成装置
11 画像入力部(カメラ)
12 第1の算出部
13 第2の算出部
14 移動物体除去部
15 重複点除去部
16 記憶制御部
17 更新部
18 推定部
21 統合部
22 消失点算出部
23 移動情報算出部
24 動き消失点取得部
25 記憶部
26 距離画像算出部
27 路面特定部
100 自己位置推定装置
101 入力装置
102 表示装置
103 ドライブ装置
104 RAM
105 ROM
106 CPU
107 インタフェース装置
108 HDD
109 記録媒体
特開2014−095553号公報

Claims (11)

  1. 移動中の画像を時系列に入力する画像入力部と、
    前記画像入力部から入力された時系列画像から物体を示す画像領域を抽出して、世界座標系における前記物体の座標を算出する第1の算出部と、
    順に入力された前記時系列画像で、抽出した前記画像領域の前記物体を追跡して前記物体のオプティカルフローを算出する第2の算出部と、
    前記第2の算出部で算出された前記オプティカルフローに基づいて、前記画像入力部の移動により生成した第1の消失点の座標と、前記物体の移動により生成した第2の消失点の座標との差を算出し、算出した前記差に基づいて前記物体が移動物体であると判定した場合、前記物体の画像領域を前記時系列画像から除去する移動物体除去部と、
    前記移動物体除去部で除去されなかった前記物体の前記世界座標系における前記座標を含む地図情報を記憶部に記憶させる記憶制御部と、
    前記第1の算出部で新たに抽出した物体と、前記第2の算出部で追跡している前記物体とが同じ物体であると判定した場合に、前記新たに抽出した物体を除去して前記追跡を中止する重複点除去部と、
    前記画像入力部を基準とした座標系を示すカメラ座標系における前記物体の座標と、前記地図情報の前記世界座標系における前記物体の座標を前記カメラ座標系に再投影した座標との誤差を算出し、算出した前記誤差が予め設定された閾値以上である場合、前記記憶部に記憶されている前記物体の前記地図情報を削除して前記地図情報を更新する更新部と、
    を備えることを特徴とする地図生成装置。
  2. 移動中の画像を時系列に入力する画像入力部と、
    前記画像入力部から入力された時系列画像から物体を示す画像領域を抽出して、前記時系列画像から複数の物体の特徴点を抽出し、複数の前記画像入力部から入力された視差画像から世界座標系における前記物体の特徴点の座標を算出する第1の算出部と、
    順に入力された前記時系列画像で、抽出した前記画像領域の前記複数の物体の特徴点を追跡して前記複数の物体のオプティカルフローを算出する第2の算出部と、
    前記第2の算出部で算出された前記オプティカルフローに基づいて、前記画像入力部の移動により生成した第1の消失点の座標と、前記物体の移動により生成した第2の消失点の座標との差を算出し、算出した前記差に基づいて前記物体が移動物体であると判定した場合、前記物体の画像領域を前記時系列画像から除去する移動物体除去部と、
    前記移動物体除去部で除去されなかった前記物体の前記世界座標系における前記座標を含む地図情報を記憶部に記憶させる記憶制御部と、
    前記時系列画像を画像の種類ごとの画像領域に分割し、分割した画像領域ごとに前記オプティカルフローを1つのグループに統合する統合部と、
    前記グループごとに、前記オプティカルフローに基づいて消失点の座標を算出する消失点算出部と、
    を備え、
    前記移動物体除去部は、前記消失点の座標の距離が予め設定した閾値以下である前記グループ同士をさらに統合し、統合された前記グループについて、前記消失点を算出するための前記オプティカルフローの移動ベクトルの数が少ないものを移動物体と判定して前記物体の画像領域を前記時系列画像から除去する、
    ことを特徴とする地図生成装置。
  3. 移動中の画像を時系列に入力する画像入力部と、
    前記画像入力部から入力された時系列画像から物体を示す画像領域を抽出して、世界座標系における前記物体の座標を算出する第1の算出部と、
    順に入力された前記時系列画像で、抽出した前記画像領域の前記物体を追跡して前記物体のオプティカルフローを算出する第2の算出部と、
    前記第2の算出部で算出された前記オプティカルフローに基づいて、前記画像入力部の移動により生成した第1の消失点の座標と、前記物体の移動により生成した第2の消失点の座標との差を算出し、算出した前記差に基づいて前記物体が移動物体であると判定した場合、前記物体の画像領域を前記時系列画像から除去する移動物体除去部と、
    前記移動物体除去部で除去されなかった前記物体の前記世界座標系における前記座標を含む地図情報を記憶部に記憶させる記憶制御部と、
    前記画像入力部が移動する速度及び車輪の操舵角を少なくとも用いて、前記画像入力部の移動速度と移動方向とを含む移動情報を算出する移動情報算出部と、
    前記移動情報に基づいて、順に入力された前記時系列画像から前記画像入力部の移動により生成した前記第1の消失点の座標を取得する動き消失点取得部と、
    を備え、
    前記移動物体除去部は、順に入力された前記時系列画像における前記物体の座標と取得した前記第1の消失点の座標とを結んだ方向のベクトルと、前記第2の算出部で算出された前記オプティカルフローの移動ベクトルとの内積を計算した値に基づき、移動物体を判定して前記物体の画像領域を前記時系列画像から除去する、
    ことを特徴とする地図生成装置。
  4. 障害物の画像領域を示す障害物マスク画像を記憶する記憶部と、
    前記画像入力部から入力された前記時系列画像の視差画像から求められる視差を用いて、障害物の画像領域を示す障害物画像を含む距離画像を算出する距離画像算出部と、をさらに備え、
    前記移動物体除去部は、前記障害物マスク画像に前記障害物画像が重なり、かつ前記距離画像から前記障害物画像との距離が予め設定した距離以下の場合に、前記障害物画像を移動物体と判定して前記物体の画像領域を前記時系列画像から除去する、
    ことを特徴とする請求項に記載の地図生成装置。
  5. 前記時系列画像から路面の画像領域を特定する路面特定部を、さらに備え、
    前記移動物体除去部は、特定した前記路面の画像領域に接する画像領域を移動物体と判定して前記物体の画像領域を前記時系列画像から除去する、
    ことを特徴とする請求項に記載の地図生成装置。
  6. 移動中の画像を時系列に入力する画像入力ステップと、
    前記画像入力ステップで入力された時系列画像から物体を示す画像領域を抽出して、世界座標系における前記物体の座標を算出する第1の算出ステップと、
    順に入力された前記時系列画像で、抽出した前記画像領域の前記物体を追跡して前記物体のオプティカルフローを算出する第2の算出ステップと、
    前記第2の算出ステップで算出された前記オプティカルフローに基づいて、画像入力部の移動により生成した第1の消失点の座標と、前記物体の移動により生成した第2の消失点の座標との差を算出し、算出した前記差に基づいて前記物体が移動物体であると判定した場合、前記物体の画像領域を前記時系列画像から除去する移動物体除去ステップと、
    前記移動物体除去ステップで除去されなかった前記物体の前記世界座標系における前記座標を含む地図情報を記憶部に記憶させる記憶制御ステップと、
    前記第1の算出ステップで新たに抽出した物体と、前記第2の算出ステップで追跡している前記物体とが同じ物体であると判定した場合に、前記新たに抽出した物体を除去して前記追跡を中止する重複点除去ステップと、
    前記画像入力ステップを基準とした座標系を示すカメラ座標系における前記物体の座標と、前記地図情報の前記世界座標系における前記物体の座標を前記カメラ座標系に再投影した座標との誤差を算出し、算出した前記誤差が予め設定された閾値以上である場合、前記記憶部に記憶されている前記物体の前記地図情報を削除して前記地図情報を更新する更新ステップと、
    を含む、
    ことを特徴とする地図生成方法。
  7. 移動中の画像を時系列に入力する画像入力ステップと、
    前記画像入力ステップで入力された時系列画像から物体を示す画像領域を抽出して、前記時系列画像から複数の物体の特徴点を抽出し、複数の画像入力部から入力された視差画像から世界座標系における前記物体の特徴点の座標を算出する第1の算出ステップと、
    順に入力された前記時系列画像で、抽出した前記画像領域の前記複数の物体の特徴点を追跡して前記複数の物体のオプティカルフローを算出する第2の算出ステップと、
    前記第2の算出ステップで算出された前記オプティカルフローに基づいて、画像入力部の移動により生成した第1の消失点の座標と、前記物体の移動により生成した第2の消失点の座標との差を算出し、算出した前記差に基づいて前記物体が移動物体であると判定した場合、前記物体の画像領域を前記時系列画像から除去する移動物体除去ステップと、
    前記移動物体除去ステップで除去されなかった前記物体の前記世界座標系における前記座標を含む地図情報を記憶部に記憶させる記憶制御ステップと、
    前記時系列画像を画像の種類ごとの画像領域に分割し、分割した画像領域ごとに前記オプティカルフローを1つのグループに統合する統合ステップと、
    前記グループごとに、前記オプティカルフローに基づいて消失点の座標を算出する消失点算出ステップと、
    を含み、
    前記移動物体除去ステップは、前記消失点の座標の距離が予め設定した閾値以下である前記グループ同士をさらに統合し、統合された前記グループについて、前記消失点を算出するための前記オプティカルフローの移動ベクトルの数が少ないものを移動物体と判定して前記物体の画像領域を前記時系列画像から除去する、
    ことを特徴とする地図生成方法。
  8. 前記第1の算出ステップで新たに抽出した物体と、前記第2の算出ステップで追跡している前記物体とが同じ物体であると判定した場合に、前記新たに抽出した物体を除去して前記追跡を中止する重複点除去ステップと、
    前記画像入力部を基準とした座標系を示すカメラ座標系における前記物体の座標と、前記地図情報に記憶されている前記世界座標系における前記物体の座標を前記カメラ座標系に再投影した座標との誤差を算出し、算出した前記誤差が予め設定された閾値以上である場合、前記記憶部に記憶されている前記物体の前記地図情報を削除して前記地図情報を更新する更新ステップと、をさらに含む、
    ことを特徴とする請求項6または7に記載の地図生成方法。
  9. 地図生成装置に、
    移動中の画像を時系列に入力する画像入力ステップと、
    前記画像入力ステップで入力された時系列画像から物体を示す画像領域を抽出して、世界座標系における前記物体の座標を算出する第1の算出ステップと、
    順に入力された前記時系列画像で、抽出した前記画像領域の前記物体を追跡して前記物体のオプティカルフローを算出する第2の算出ステップと、
    前記第2の算出ステップで算出された前記オプティカルフローに基づいて、画像入力部の移動により生成した第1の消失点の座標と、前記物体の移動により生成した第2の消失点の座標との差を算出し、算出した前記差に基づいて前記物体が移動物体であると判定した場合、前記物体の画像領域を前記時系列画像から除去する移動物体除去ステップと、
    前記移動物体除去ステップで除去されなかった前記物体の前記世界座標系における前記座標を含む地図情報を記憶部に記憶させる記憶制御ステップと、
    前記第1の算出ステップで新たに抽出した物体と、前記第2の算出ステップで追跡している前記物体とが同じ物体であると判定した場合に、前記新たに抽出した物体を除去して前記追跡を中止する重複点除去ステップと、
    前記画像入力ステップを基準とした座標系を示すカメラ座標系における前記物体の座標と、前記地図情報の前記世界座標系における前記物体の座標を前記カメラ座標系に再投影した座標との誤差を算出し、算出した前記誤差が予め設定された閾値以上である場合、前記記憶部に記憶されている前記物体の前記地図情報を削除して前記地図情報を更新する更新ステップと、
    を実行させるためのプログラム。
  10. 地図生成装置に、
    移動中の画像を時系列に入力する画像入力ステップと、
    前記画像入力ステップで入力された時系列画像から物体を示す画像領域を抽出して、前記時系列画像から複数の物体の特徴点を抽出し、複数の画像入力部から入力された視差画像から世界座標系における前記物体の特徴点の座標を算出する第1の算出ステップと、
    順に入力された前記時系列画像で、抽出した前記画像領域の前記複数の物体の特徴点を追跡して前記複数の物体のオプティカルフローを算出する第2の算出ステップと、
    前記第2の算出ステップで算出された前記オプティカルフローに基づいて、画像入力部の移動により生成した第1の消失点の座標と、前記物体の移動により生成した第2の消失点の座標との差を算出し、算出した前記差に基づいて前記物体が移動物体であると判定した場合、前記物体の画像領域を前記時系列画像から除去する移動物体除去ステップと、
    前記移動物体除去ステップで除去されなかった前記物体の前記世界座標系における前記座標を含む地図情報を記憶部に記憶させる記憶制御ステップと、
    前記時系列画像を画像の種類ごとの画像領域に分割し、分割した画像領域ごとに前記オプティカルフローを1つのグループに統合する統合ステップと、
    前記グループごとに、前記オプティカルフローに基づいて消失点の座標を算出する消失点算出ステップと、
    を実行させ、
    前記移動物体除去ステップは、前記消失点の座標の距離が予め設定した閾値以下である前記グループ同士をさらに統合し、統合された前記グループについて、前記消失点を算出するための前記オプティカルフローの移動ベクトルの数が少ないものを移動物体と判定して前記物体の画像領域を前記時系列画像から除去する、
    ことを特徴とするプログラム。
  11. 前記第1の算出ステップで新たに抽出した物体と、前記第2の算出ステップで追跡している前記物体とが同じ物体であると判定した場合に、前記新たに抽出した物体を除去して前記追跡を中止する重複点除去ステップと、
    前記画像入力部を基準とした座標系を示すカメラ座標系における前記物体の座標と、前記地図情報に記憶されている前記世界座標系における前記物体の座標を前記カメラ座標系に再投影した座標との誤差を算出し、算出した前記誤差が予め設定された閾値以上である場合、前記記憶部に記憶されている前記物体の前記地図情報を削除して前記地図情報を更新する更新ステップと、をさらに含む、
    ことを特徴とする請求項9または10に記載のプログラム。
JP2015001708A 2015-01-07 2015-01-07 地図生成装置、地図生成方法およびプログラム Active JP6557973B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2015001708A JP6557973B2 (ja) 2015-01-07 2015-01-07 地図生成装置、地図生成方法およびプログラム
US14/967,761 US9846043B2 (en) 2015-01-07 2015-12-14 Map creation apparatus, map creation method, and computer-readable recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015001708A JP6557973B2 (ja) 2015-01-07 2015-01-07 地図生成装置、地図生成方法およびプログラム

Publications (2)

Publication Number Publication Date
JP2016126662A JP2016126662A (ja) 2016-07-11
JP6557973B2 true JP6557973B2 (ja) 2019-08-14

Family

ID=56286777

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015001708A Active JP6557973B2 (ja) 2015-01-07 2015-01-07 地図生成装置、地図生成方法およびプログラム

Country Status (2)

Country Link
US (1) US9846043B2 (ja)
JP (1) JP6557973B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102325119B1 (ko) * 2021-04-27 2021-11-12 주식회사 모빌테크 라이다 좌표를 이용한 점군 지도 업데이트를 수행하는 차량

Families Citing this family (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6465982B2 (ja) * 2015-08-31 2019-02-06 三菱電機株式会社 画像処理装置、画像処理方法及びプログラム
US10764561B1 (en) 2016-04-04 2020-09-01 Compound Eye Inc Passive stereo depth sensing
US9996752B2 (en) * 2016-08-30 2018-06-12 Canon Kabushiki Kaisha Method, system and apparatus for processing an image
JP2018036901A (ja) * 2016-08-31 2018-03-08 富士通株式会社 画像処理装置、画像処理方法および画像処理プログラム
CN106548486B (zh) * 2016-11-01 2024-02-27 浙江大学 一种基于稀疏视觉特征地图的无人车位置跟踪方法
KR102749006B1 (ko) * 2016-11-29 2025-01-02 삼성전자주식회사 비정상 객체 판단 방법 및 장치
WO2018159467A1 (ja) * 2017-02-28 2018-09-07 Necソリューションイノベータ株式会社 移動体検知装置、移動体検知方法、及びコンピュータ読み取り可能な記録媒体
DE102017214921A1 (de) * 2017-08-25 2019-02-28 Robert Bosch Gmbh Mobiles Gerät, Server und Verfahren zum Aktualisieren und Bereitstellen einer hochgenauen Karte
KR102472767B1 (ko) * 2017-09-14 2022-12-01 삼성전자주식회사 신뢰도에 기초하여 깊이 맵을 산출하는 방법 및 장치
CN109145860B (zh) * 2018-09-04 2019-12-13 百度在线网络技术(北京)有限公司 车道线跟踪方法和装置
US11188763B2 (en) * 2019-10-25 2021-11-30 7-Eleven, Inc. Topview object tracking using a sensor array
US11100346B2 (en) * 2018-12-26 2021-08-24 Here Global B.V. Method and apparatus for determining a location of a shared vehicle park position
KR102198187B1 (ko) * 2018-12-28 2021-01-04 엘지전자 주식회사 이동 로봇
CN109711363B (zh) * 2018-12-29 2021-02-19 百度在线网络技术(北京)有限公司 车辆定位方法、装置、设备和存储介质
CN109895100B (zh) * 2019-03-29 2020-10-16 深兰科技(上海)有限公司 一种导航地图的生成方法、装置及机器人
JP7327992B2 (ja) * 2019-05-10 2023-08-16 フォルシアクラリオン・エレクトロニクス株式会社 立体物検出装置、及び立体物検出方法
WO2020236624A1 (en) * 2019-05-17 2020-11-26 Magic Leap, Inc. Methods and apparatuses for corner detection using neural network and corner detector
JP7206172B2 (ja) * 2019-09-19 2023-01-17 京セラ株式会社 物体検出装置、物体検出システム、移動体及び物体検出方法
KR102238522B1 (ko) 2019-09-27 2021-04-09 주식회사 서울로보틱스 3차원 공간에 대응되는 맵을 생성하는 차량 및 방법
GB201914100D0 (en) 2019-09-30 2019-11-13 Tomtom Global Int B V Methods and systems using digital map data
JP2021064237A (ja) * 2019-10-16 2021-04-22 ソニー株式会社 情報処理装置と情報処理方法およびプログラム
WO2021108626A1 (en) 2019-11-27 2021-06-03 Compound Eye Inc. System and method for correspondence map determination
US11069071B1 (en) * 2020-01-21 2021-07-20 Compound Eye, Inc. System and method for egomotion estimation
US11270467B2 (en) 2020-01-21 2022-03-08 Compound Eye, Inc. System and method for camera calibration
JP7457574B2 (ja) * 2020-05-21 2024-03-28 株式会社Subaru 画像処理装置
JP7362053B2 (ja) * 2020-07-10 2023-10-17 学校法人五島育英会 落下物検知システム
US20220163346A1 (en) * 2020-11-23 2022-05-26 Electronics And Telecommunications Research Institute Method and apparatus for generating a map for autonomous driving and recognizing location
JP7256835B2 (ja) * 2021-03-24 2023-04-12 本田技研工業株式会社 画像処理装置
DE102021107904A1 (de) * 2021-03-29 2022-09-29 Conti Temic Microelectronic Gmbh Verfahren und System zur Bestimmung der Bodenebene mit einem künstlichen neuronalen Netz
CN113110466B (zh) * 2021-04-22 2021-12-21 深圳市井智高科机器人有限公司 一种用于agv机器人的高灵敏度避障系统及方法
JP2022175900A (ja) * 2021-05-14 2022-11-25 ソニーグループ株式会社 情報処理装置、情報処理方法、およびプログラム
CN117999499A (zh) 2021-10-13 2024-05-07 松下知识产权经营株式会社 数据处理装置及数据处理方法
WO2023170927A1 (ja) * 2022-03-11 2023-09-14 三菱電機株式会社 移動方向判定装置、移動方向判定方法、及び移動方向判定プログラム
CN115984335B (zh) * 2023-03-20 2023-06-23 华南农业大学 基于图像处理的获取雾滴特征参数方法

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4203389B2 (ja) 2003-09-17 2008-12-24 株式会社リコー 光学的形状計測装置
US20050129324A1 (en) * 2003-12-02 2005-06-16 Lemke Alan P. Digital camera and method providing selective removal and addition of an imaged object
JP4919036B2 (ja) * 2007-01-30 2012-04-18 アイシン精機株式会社 移動物体認識装置
KR100988568B1 (ko) * 2008-04-30 2010-10-18 삼성전자주식회사 로봇 및 그 지도작성방법
JP5267330B2 (ja) * 2009-05-27 2013-08-21 コニカミノルタ株式会社 画像処理装置および方法
US8498448B2 (en) * 2011-07-15 2013-07-30 International Business Machines Corporation Multi-view object detection using appearance model transfer from similar scenes
JP5944781B2 (ja) * 2012-07-31 2016-07-05 株式会社デンソーアイティーラボラトリ 移動体認識システム、移動体認識プログラム、及び移動体認識方法
JP5965293B2 (ja) 2012-11-07 2016-08-03 日本電信電話株式会社 カメラポーズ推定装置、及びカメラポーズ推定プログラム
JP2014203429A (ja) * 2013-04-10 2014-10-27 トヨタ自動車株式会社 地図生成装置、地図生成方法及び制御プログラム
KR102090105B1 (ko) * 2013-07-16 2020-03-17 삼성전자 주식회사 카메라를 구비하는 장치의 이미지 처리장치 및 방법
JP6176541B2 (ja) * 2014-03-28 2017-08-09 パナソニックIpマネジメント株式会社 情報表示装置、情報表示方法及びプログラム
WO2016076449A1 (en) * 2014-11-11 2016-05-19 Movon Corporation Method and system for detecting an approaching obstacle based on image recognition

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102325119B1 (ko) * 2021-04-27 2021-11-12 주식회사 모빌테크 라이다 좌표를 이용한 점군 지도 업데이트를 수행하는 차량

Also Published As

Publication number Publication date
US9846043B2 (en) 2017-12-19
JP2016126662A (ja) 2016-07-11
US20160196654A1 (en) 2016-07-07

Similar Documents

Publication Publication Date Title
JP6557973B2 (ja) 地図生成装置、地図生成方法およびプログラム
US12298404B2 (en) Ground intensity LIDAR localizer
JP2016157197A (ja) 自己位置推定装置、自己位置推定方法およびプログラム
JP6562607B2 (ja) 物体の自己運動推定方法
JP6644742B2 (ja) 頑健で効率的な車両測位用のアルゴリズム及びインフラ
US20210149022A1 (en) Systems and methods for 3d object detection
KR102508843B1 (ko) 서라운드 뷰 영상에서 차량의 자차 동작을 산정하는 방법 및 장치
KR102218881B1 (ko) 차량 위치 결정 방법 및 시스템
US20210174139A1 (en) Systems and methods for transforming coordinates between distorted and undistorted coordinate systems
CN110895826A (zh) 图像处理的训练数据生成方法、图像处理方法及其装置
US12158352B2 (en) Vehicle and method for generating map corresponding to three-dimensional space
WO2021254019A1 (zh) 协同构建点云地图的方法、设备和系统
Tripathi et al. Trained trajectory based automated parking system using visual SLAM on surround view cameras
KR20190030474A (ko) 신뢰도에 기초하여 깊이 맵을 산출하는 방법 및 장치
US20200160033A1 (en) System and method for lifting 3d representations from monocular images
JP6901386B2 (ja) 勾配推定装置、勾配推定方法、プログラムおよび制御システム
WO2020156923A2 (en) Map and method for creating a map
CN111105695B (zh) 地图制作方法、装置、电子设备及计算机可读存储介质
KR20180059188A (ko) 딥 러닝을 이용한 동적 장애물이 없는 배경 위주의 3차원 지도 생성 방법
US20220075387A1 (en) Electronic device and control method thereof
US20190293444A1 (en) Lane level accuracy using vision of roadway lights and particle filter
KR102677731B1 (ko) GNSS/INS와 HD Map를 이용한 단안카메라의 위치측정 및 맵핑 처리를 향상시키기 위한 시스템 및 방법
CN117635721A (zh) 目标定位方法及相关系统、存储介质
Wang et al. Landmarks based human-like guidance for driving navigation in an urban environment
Schleicher et al. Low-cost GPS sensor improvement using stereovision fusion

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171215

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181109

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181120

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190121

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190618

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190701

R151 Written notification of patent or utility model registration

Ref document number: 6557973

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151