[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP7073315B2 - 乗物、乗物測位システム、及び乗物測位方法 - Google Patents

乗物、乗物測位システム、及び乗物測位方法 Download PDF

Info

Publication number
JP7073315B2
JP7073315B2 JP2019136998A JP2019136998A JP7073315B2 JP 7073315 B2 JP7073315 B2 JP 7073315B2 JP 2019136998 A JP2019136998 A JP 2019136998A JP 2019136998 A JP2019136998 A JP 2019136998A JP 7073315 B2 JP7073315 B2 JP 7073315B2
Authority
JP
Japan
Prior art keywords
vehicle
dimensional
static object
image data
point cloud
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019136998A
Other languages
English (en)
Other versions
JP2020085886A (ja
Inventor
博鈞 許
為博 粘
依玲 ▲呉▼
修宇 林
世▲シン▼ 陳
安凱 鄭
宗賢 楊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Industrial Technology Research Institute ITRI
Original Assignee
Industrial Technology Research Institute ITRI
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from TW108112604A external-priority patent/TWI754808B/zh
Application filed by Industrial Technology Research Institute ITRI filed Critical Industrial Technology Research Institute ITRI
Publication of JP2020085886A publication Critical patent/JP2020085886A/ja
Application granted granted Critical
Publication of JP7073315B2 publication Critical patent/JP7073315B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/28Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
    • G01C21/30Map- or contour-matching
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/42Simultaneous measurement of distance and other co-ordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4817Constructional features, e.g. arrangements of optical elements relating to scanning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/06Topological mapping of higher dimensional structures onto lower dimensional surfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/156Mixing image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/293Generating mixed stereoscopic images; Generating mixed monoscopic and stereoscopic images, e.g. a stereoscopic image overlay window on a monoscopic image background
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30261Obstacle
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/271Image signal generators wherein the generated image signals comprise depth maps or disparity maps
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2213/00Details of stereoscopic systems
    • H04N2213/003Aspects relating to the "2D+depth" image format

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Electromagnetism (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Automation & Control Theory (AREA)
  • Traffic Control Systems (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Image Analysis (AREA)
  • Navigation (AREA)
  • Image Processing (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Description

本発明は、乗物、乗物測位システム、及び乗物測位方法に関するものである。
自動運転技術は、運転の安全と利便を改善し、運転の負荷を軽減することが期待されている。自動運転としては、衝突の発生を回避するため、環境検知の機能が必要であり、また、正確な測位も重要である。特に都市環境において複雑なオブジェクトが複数存在しているため、乗物の都市道路での運転は、測位の誤差が容易に生じる。センサの種類に基づいた乗物測位方法として、一般的には、能動型センサによるものと受動型センサによるものとがある。受動型センサとしては、例えばカメラ(Camera)またはグローバル・ポジショニング・システム(Global Positioning System、GPS)等が挙げられる。能動型センサとしては、例えばライダー(LiDAR)等のセンサが挙げられる。しかしながら、カメラは画像オブジェクト検出モジュールにより画像画面における物体を識別できるが、三次元空間において正確な測位を行うことができない。よって、乗物の位置を正確に測位できず、測位の誤差が生じてしまう。通常のGPS測位方法において、乗物がトンネルまたは室内駐車場等の領域にある場合、センサは遮蔽され、信号を受信できないことがあり、乗物の位置を正確に測位できない等といった課題がある。LiDARセンサは、物体を検出するとともに三次元空間における測位ができるが、検出された物体の種類を識別することができない。
従来、自動運転には予め確立された地図情報の使用が必要である。この地図情報には、例えば道路境界、交通信号、速度制限信号等、多種多様の道路情報が含まれる。こうすることにより、自動運転アルゴリズムは、指定路線及び交通ルールに基づいて自動運転乗物を正確に運転させるようになる。地図情報の確立方法として、基本的には乗物にライダー、GPSを搭載し、道路を巡回した後、ライダーポイントクラウド(point clouds)データ(即ちライダーポイントクラウド地図)とGPS座標データ(即ちGPS座標地図)とをオフラインでスタック・統合する方法がある。しかしながら、自動運転車の測位精度は、誤差が10cm以下であることが求められる。自動運転車の走行時に、ライダーセンサから得られたリアルタイムなポイントクラウドデータデータを内蔵のライダーポイントクラウド地図と照合することで、測位データを取得する。ただし、大量のポイントクラウドデータデータには、余分な情報、例えば走行している乗物、歩行者または道側に駐車する乗物等の情報が含まれるため、照合の誤差、演算量の増加が生じやすい。
従って、現在の測位技術において、カメラの画像オブジェクト検出の測位誤差およびライダーセンサにおける大量のポイントクラウドデータの演算量の課題を解決することは極めて重要な課題となっている。
本発明は、上記の課題を解決するための、乗物、乗物測位システム及び乗物測位方法を提供することを目的とする。
本発明は、乗物測位システムであって、二次元画像データを取得する二次元画像センサと、三次元ポイントクラウドデータを取得する三次元センサと、該二次元画像センサ及び該三次元センサに接続されたプロセッサーであって、該二次元画像データと該三次元ポイントクラウドデータとを融合することで、三次元画像データを生成する整列モジュールと、該二次元画像データから少なくとも1つの静的オブジェクトを識別し、該少なくとも1つの静的オブジェクトの各静的オブジェクトに基づいて、該三次元画像データから該静的オブジェクトの三次元ポイントクラウドデータを取得する静的オブジェクト識別モジュールと、該静的オブジェクトの該三次元ポイントクラウドデータに基づいて、該乗物の乗物相対座標を算出する測位モジュールと、に少なくとも適用するように構成されたプロセッサーと、を備えることを特徴とする乗物測位システムを提供する。
本発明は、乗物測位システムに適用する乗物測位方法であって、二次元画像データを取得する工程と、三次元ポイントクラウドデータを取得する工程と、該二次元画像データと該三次元ポイントクラウドデータとを融合することで、三次元画像データを生成する工程と、該二次元画像データから少なくとも1つの静的オブジェクトを識別する工程と、該少なくとも1つの静的オブジェクトの各静的オブジェクトに基づいて該三次元画像データから該静的オブジェクトの三次元ポイントクラウドデータを取得する工程と、該静的オブジェクトの該三次元ポイントクラウドデータに基づいて、該乗物の乗物相対座標を算出する工程と、を備えることを特徴とする乗物測位方法をも提供する。
本発明は、乗物測位システムが配置された乗物であって、二次元画像センサと、三次元センサと、該二次元画像センサ及び該三次元センサに接続されたプロセッサーであって、該二次元画像データと該三次元ポイントクラウドデータとを融合することで、三次元画像データを生成する整列モジュールと、該二次元画像データから少なくとも1つの静的オブジェクトを識別し、該少なくとも1つの静的オブジェクトの各静的オブジェクトに基づいて、該三次元画像データから該静的オブジェクトの三次元ポイントクラウドデータを取得する静的オブジェクト識別モジュールと、該静的オブジェクトの該三次元ポイントクラウドデータに基づいて、該乗物の乗物相対座標を算出する測位モジュールと、に少なくとも適用するように構成されたプロセッサーと、を備えることを特徴とする乗物をも提供する。
上記のように、本発明に係る乗物、乗物測位システム及び乗物測位方法によれば、乗物が二次元画像センサ及び三次元センサの2つの異質センサと組み合わせることで、三次元画像データを取得し、二次元画像データの静的オブジェクトを識別した後、三次元画像データから各静的オブジェクトの三次元ポイントクラウドデータを取得するとともに乗物と静的オブジェクトとの乗物相対座標を算出することができ、乗物の測位を達成することができる。
上記の特徴と利点がより明確になるように、以下、実施例について、図面を参照しながら詳細に説明する。
図1は、本発明の実施例に係る乗物測位システムの模式図である。 図2は、本発明の実施例に基づいて、二次元画像データと三次元ポイントクラウドデータとを整列処理することを説明する模式図である。 図3は、本発明の実施例に基づいて、二次元画像データから静的オブジェクトを識別することを説明する模式図である。 図4は、図3の実施例に基づいて、各静的オブジェクトを識別した後、三次元画像データから各静的オブジェクトの三次元ポイントクラウドデータを取得する模式図である。 図5は、本発明の実施例に基づいて、乗物測位システムの作動フローを説明するフローである。 図6は、本発明の実施例に基づいて、乗物が乗物測位システムと直接または間接に通信可能な模式図である。
図1は、本発明の実施例に係る乗物測位システムの模式図である。図1の実施例1を参照すると、乗物測位システム100は、乗物に配置され実行されるが、本発明はこれに限定されるものではない。本発明に係る乗物測位システム100、方法等は、車の流れ、視野等におけるオブジェクトを検出するように、代替的な環境において実施されてもよい。一つの例として、明細書に記載された一つまたは複数の機能は、電子デバイス、携帯デバイス、ゲーム機、自動車システムコンソール(例えばADAS)、装着型デバイス(例えばパーソナル装着型カメラ)、ヘッドマウント型ディスプレイ等で実施することができる。さらに他の実施例として、ロボットまたはロボットデバイス、無人航空機(UAV)及びリモコン飛行機を含むが、それらに限定されるものではない。図1の実施例において、乗物測位システム100の乗物は、モーター乗物(例えば自動車、トラック、バイク、バスまたは汽車)、船舶(例えば船またはボート)、航空機(例えば飛行機またはヘリコプター)、宇宙船(例えばスペースシャトル)、自転車または他の運搬器具であってもよい。説明のための実施例として、乗物は、輪型運搬器具、キャタピラ型運搬器具、軌道型運搬器具、空中運搬器具またはソリ型搭載器具であってもよい。乗物は、一人または複数人が操作してもよい。一つの例として、乗物は、補助のとして乗物の運転者に提供されるように構成されている先進運転支援システム(ADAS)を有しても良い。また、乗物は、コンピュータにより制御されてもよい。また、図1の実施例における乗物測位システム100は、乗物において実行されるが、その他の実施例において、明細書に記載された乗物測位システム100は、「クラウド」または乗物の外部において実行されてもよい。一つの例として、乗物またはその他の電子デバイスは、位置データまたは画像データまたはその両方を乗物の測位として別のデバイスに提供して乗物の測位を実行させてもよい。
乗物測位システム100は、一つまたは複数の二次元画像センサ102と、一つまたは複数の三次元センサ104と、プロセッサー106と、記憶回路108とを含む。以下の実施例において、図1の乗物測位システム100は、乗物に配置されるが、本発明はこれに限定されるものではない。また、記憶回路108は、必ずしも乗物測位システム100に含まれるとは限らない。
二次元画像センサ102は、画像を抽出可能な画像抽出装置、カメラ装置またはカメラ、例えば、CCD(Charge Coupled Device)カメラまたはCMOS(Complementary Metal-Oxide Semiconductor)カメラまたはその両方である。二次元画像センサ102は、乗物の異なる位置にそれぞれ設置可能であるため、異なる角度、異なる視野範囲の画像を抽出することができる。例えば、必要に応じてフロント撮像装置、サイド撮像装置、リア撮像装置を設置することができる。
二次元画像センサ102は、二次元画像データを取得する。二次元画像センサ102は、二次元画像データをプロセッサー106に送信することができる。二次元画像センサ102は、画像を継続的、周期的またはときどき抽出し、画像(例えば二次元画像データ)を記憶回路108にロードすることができる。
三次元センサ104は、乗物と外部物体との間の距離を検出可能なセンサ、例えばライダーセンサである。三次元センサ104は、走査範囲内において反射物体に関する光信号を取得し、三次元ポイントクラウドデータを取得することができる。三次元センサ104は、三次元ポイントクラウドデータを継続的、周期的または不定期的に抽出して記憶回路108にロードすることができる。三次元センサ104は、三次元ポイントクラウドデータをプロセッサー106に送信することができる。それぞれの三次元ポイントクラウドデータは、乗物と反射物体との距離情報を含んでもよい。それぞれの三次元ポイントクラウドデータは、空間の位置(X,Y,Z)情報を含んでもよい。三次元センサ104、例えばLiDARセンサは、光照射の影響を受けることなく、乗物と反射物体/オブジェクトとの距離情報を測定することができる。
プロセッサー106は、二次元画像センサ102及び三次元センサ104に接続され、二次元画像データ及び三次元ポイントクラウドデータを受信する。一つの実施例として、プロセッサー106は、記憶回路108から二次元画像データ及び三次元ポイントクラウドデータを抽出することができる。説明のために、記憶回路108またはその一部は、二次元画像センサ102及び三次元センサ104がデータを受信する循環式バッファーとして、二次元画像センサ102から受信した二次元画像データと三次元センサ104から受信した三次元ポイントクラウドデータとを記憶できるように構成されている。
一つの実施例として、プロセッサー106は、整列モジュール110と、静的オブジェクト識別モジュール112と、測位モジュール114とを含んでもよい。整列モジュール110、静的オブジェクト識別モジュール112及び測位モジュール114は、乗物に対応するハードウェアパーツ、プロセッサー106により実行されるソフトウェア(例えばコマンド)、または前記ハードウェアとソフトウェアとの組み合わせであってもよい。
乗物測位システム100は、所定の地図情報を記憶回路108に予め記憶することができる。該所定の地図情報は、道路の始点、終点座標、車道幅、車道数、道路進路角度、道路曲がり率、道路長さ等の道路情報を含む。該所定の地図情報は、三次元センサ104、例えばLiDARセンサにより取得された三次元ポイントクラウドデータと、GPSにより取得されたGPS絶対座標(absolute coordinate)データとを含む。所定の地図情報は、さらに、国土測定センターのRTK(Real-Time Kinematic、リアルタイムキネマティック)により補正された後、座標変換さを行い絶対座標システムに投影することができる。
記憶回路108は、例えば、メモリ、ハードディスクまたはその他データを記憶可能な任意の素子であり、複数のモジュールを記録、記憶することができる。それぞれのモジュールは、一つまたは複数のプログラムコードセグメントからなる。プロセッサー106は、記憶回路108に接続され、記憶回路108に記憶されているモジュールにアクセスすることにより、本発明に係る乗物測位方法の各工程をそれぞれ実行することができる。異なる実施例において、プロセッサー106は、一般用途のプロセッサー、特殊用途のプロセッサー、従来のプロセッサー、デジタル信号プロセッサー、複数のマイクロプロセッサー(microprocessor)、デジタル信号プロセッサーコアに結合される1つまたは複数のマイクロプロセッサー、コントローラ、マイクロコントローラ、特定用途向け集積回路(Application Specific Integrated Circuit,ASIC)、フィールドプログラマブルゲートアレイ(FPGA)、その他任意の種類の集積回路、状態機器、上級RISCマシン(Advanced RISC Machine,ARM)ベースのプロセッサー、及びその類似品であってもよい。
整列モジュール110は、二次元画像センサ102で取得された二次元画像データと三次元センサ104で取得された三次元ポイントクラウドデータとを整列アルゴリズムにより融合させることで、三次元画像データを取得する。三次元画像データは、各画像画素の色情報(例えばRGBデータ)、ディープデータ(例えば位置(X、Y、Z)データ)を含む。このため、この三次元画像データは、RGBXYZの画像データを含む。一つの実施例において、二次元画像データと三次元ポイントクラウドデータとを融合させる整列アルゴリズムを説明する。三次元ポイントクラウドデータを(x、y、z)とし、二次元画像データの画素点(u、v)とすると、下記の整列アルゴリズムの式に基づいて三次元ポイントクラウドデータ(x、y、z)を二次元画像データの画素点(u、v)にマッピングする。
Figure 0007073315000001
ただし、f、fはそれぞれ水平と垂直方向の焦点距離であり、u、vはそれぞれ画像平面の中心点である。三次元ポイントクラウドデータ(x、y、z)を二次元画像データの画素点(u、v)にマッピングする変換マトリックスMを求める。RとTはそれぞれ回転マトリックスと平行移動ベクトルである。
図2は、本発明の一実施例に基づいて、二次元画像データと三次元ポイントクラウドデータとの整列処理を説明する模式図である。図1、2を同時に参照すると、図2に示すように、二次元画像センサ102で取得された二次元画像データ(図2の背景画像)、および三次元センサ104で取得された三次元ポイントクラウドデータ(図2の点状画像)を、整列アルゴリズムにより融合して生成した三次元画像データ画像である。
二次元画像センサ102で取得された二次元画像データについて、静的オブジェクト識別モジュール112は、二次元画像データの少なくとも1つの静的オブジェクトを判定や識別することができる。一つの例として、静的オブジェクト識別モジュール112は、静的オブジェクトの検出に特化したディープ学習モジュールを含み、静的オブジェクトの種類、例えば道路標識、建物、変圧器ボックス、道路、歩道、橋梁、樹木、電柱、ジャージーバリア等を識別することができる。静的オブジェクト識別モジュール112のディープ学習モジュールまたはディープニューラルネットワーク(Deep Neural Network)は、画像識別アルゴリズムにより画像内の静的オブジェクトを識別する。現在、従来のオブジェクト識別アルゴリズム、例えばオブジェクト輪郭追跡アルゴリズムが知られており、ここでは詳細を省略する。静的オブジェクト識別モジュール112が静的オブジェクトを検出するサーチウィンドー(search window)は、オブジェクトのモデル、フレームまたは境界ボックス(bounding box、BB)等に対応することができる。図3は、本発明の一実施例に基づいて、二次元画像センサから静的オブジェクトを識別することを説明する模式図である。図3に示すように、静的オブジェクト識別アルゴリズムに基づいて二次元画像データにおける各静的オブジェクトを識別し、二次元画像データにおける各静的オブジェクトを境界ボックスで標示する。図3の境界ボックスのように、境界ボックス毎に静的オブジェクト毎の情報が含まれている。例えば、オブジェクトの種類、オブジェクトの長さ、オブジェクトの幅、および二次元画像データにおける位置等の情報が標示されている。
二次元画像データにおける各静的オブジェクトを得た後、上記各静的オブジェクトの情報(例えば種類、長さ、幅、位置等の情報)に基づいて、三次元画像データから各静的オブジェクトの三次元ポイントクラウドデータ(X、Y、Zデータ)を取得することができる。静的オブジェクトのそれぞれは、三次元画像データにおけるオブジェクトの大きさに対応する。このため、それぞれの静的オブジェクトは、複数の三次元ポイントクラウドデータ(ディープ情報)を含んでもよい。図4は、図3の実施例に基づいて、各静的オブジェクトを識別した後、三次元画像データから各静的オブジェクトの三次元ポイントクラウドデータを取得したことを説明する模式図である。図3、4を参照すると、図3の境界ボックスで標示された各静的オブジェクト(交通信号、街灯及び道路)の情報に基づいて、対応する三次元画像データにおける各静的オブジェクトの三次元ポイントクラウドデータを取得する。
次に、乗物上の乗物測位システム100が各静的オブジェクトの三次元ポイントクラウドデータを取得すると、乗物測位システム100の測位モジュール114は、静的オブジェクトの三次元ポイントクラウドデータに基づいて、測位アルゴリズム、例えば三点測位アルゴリズム、若しくは現在の三次元ポイントクラウドデータと地図ポイントクラウドデータとを反復比較し、乗物ポイントクラウドデータと少なくとも1つの静的オブジェクトの三次元ポイントクラウドデータとの最小平均二乗距離(mean squared distances;MSD)の最適化算出により、乗物と静的オブジェクトとの乗物相対座標を算出し、乗物の測位を達成する。一つの実施例において、上記の乗物相対座標を予め記憶された所定の地図情報にマッピングすることができる。該所定の地図情報は、3DポイントクラウドデータとGPS絶対座標情報とを含むため、乗物相対座標と所定の地図情報とにより座標の定義と変換を行うことで、乗物の三次元乗物絶対座標を取得することができる。
他の実施例において、各静的オブジェクトの三次元ポイントクラウドデータを予め記憶された地図情報にマッピングすることができる。該所定の地図情報は、3DポイントクラウドデータとGPS絶対座標とを含むため、静的オブジェクトの三次元ポイントクラウドデータと所定の地図情報の静的三次元オブジェクトとを比較することにより、静的オブジェクトの三次元オブジェクト絶対座標を取得する。このように、乗物の所定の地図情報での位置を推定することができ、乗物の三次元乗物絶対座標を取得することができる。
本発明に係る実施例において、二次元画像センサ102で取得された二次元画像データは、一般的に、物体表面の反射特性のみに基づいて、実際の世界が画像平面に投影されてなる情報を提供して、物体の輪郭、境界、テクスチャー等の特徴を取得する。このため、二次元情報を基にした識別アルゴリズムにより実際の三次元物体を識別した場合、オブジェクトの三次元空間での正確な位置に位置決めすることができず、乗物位置を正確に測位できない。三次元センサ104は、オブジェクトの三次元ポイントクラウドデータを取得することができるが、オブジェクトの種類を識別することができない。従って、二次元画像センサ102及び三次元センサ104という2種の異質センサの特性と利点を組み合わせて、静的オブジェクトの三次元ポイントクラウドデータを検出することにより、乗物のリアルタイム測位を行うことができる。
本発明において、動的オブジェクトではなく、静的オブジェクトを静的オブジェクト識別モジュール112により識別する理由は、動的オブジェクトに対して、静的オブジェクトのほうがより容易に検出や識別でき、形状と色の変化も動的オブジェクトと比べて少なくなるため、静的オブジェクト識別モジュール112では、少ないトレーニングデータと低いモデル複雑性で、良好な静的オブジェクト識別率を達成できるからである。
このように、二次元画像センサ102の二次元画像データと三次元センサ104の三次元ポイントクラウドデータとを組み合わせて、静的オブジェクト識別モジュール112により各静的オブジェクトを識別し、各静的オブジェクトの三次元ポイントクラウドデータを取得することにより、乗物と静的オブジェクトの乗物相対座標を算出でき、乗物の測位を達成できる。
図5は、本発明の一実施例に基づいて乗物測位システムの作動フローを説明する模式図である。
図5に示すように、ステップS501において、二次元画像センサ102は、二次元画像データを取得する。この二次元画像データは、少なくとも1つの静的オブジェクトのシーンを含む。ステップS503において、三次元センサ104は、三次元ポイントクラウドデータを取得する。ステップS505において、整列モジュール110は整列アルゴリズムにより二次元画像データと三次元ポイントクラウドデータとを融合させることで三次元画像データを取得する。ステップS507において、静的オブジェクト識別モジュール112は、二次元画像データから少なくとも1つの静的オブジェクトを識別する。ステップS509において、各静的オブジェクトに基づいて三次元画像データから各静的オブジェクトの三次元ポイントクラウドデータを取得する。ステップS511において、測位モジュール114は、静的オブジェクトの三次元ポイントクラウドデータに基づいて乗物の乗物相対座標を算出する。測位アルゴリズムにより、静的オブジェクトの三次元ポイントクラウドデータに基づいて乗物の三次元画像データでの三次元乗物相対座標を算出することができる。
図6は、本発明の一実施例に基づいて、乗物600が乗物測位システムと直接(direct)または間接(indirect)に通信可能なシステム通信を説明する模式図である。図6に示すように、乗物測位システムのプロセッサー606と記憶装置608は、乗物600に搭載、または乗物600より遠隔する他の地点/場所に設置することができる。乗物測位システムのプロセッサー606と記憶装置608とを遠隔地に設置すると、乗物600は、遠隔地のプロセッサー606及び記憶装置608と通信する能力を有する。この実施例において、乗物600は自動車であるが、本発明はこれに限定されるものではない。
一つまたは複数の二次元画像センサ602、及び一つまたは複数の三次元センサ604は乗物600に設けられる。この実施例において、乗物測位システムは、上記図1~4の機能と演算を実行し、乗物600の二次元画像センサ602で取得された二次元画像データを三次元センサ604で取得された三次元ポイントクラウドデータと整列させることで三次元画像データを取得し、二次元画像データの各静的オブジェクトに基づいて三次元画像データから各静的オブジェクトの三次元ポイントクラウドデータを取得し、静的オブジェクトの三次元ポイントクラウドデータにより乗物の乗物相対座標を算出し、乗物の測位を達成できる。
上記のように、本発明に係る乗物、乗物測位システム及び乗物測位方法によれば、乗物に二次元画像センサ及び三次元センサという2種の異質センサと組み合わせて三次元画像データを取得するとともに、二次元画像データの静的オブジェクトを識別した後、三次元画像データから各静的オブジェクトの三次元ポイントクラウドデータを取得し、乗物と静的オブジェクトとの乗物相対座標を算出して、所定の地図情報にマッピングすることで乗物相対座標を得ることができ、乗物の測位を達成する。これにより、乗物が静的オブジェクトの検出に特化したディープ学習モジュールにより、静的オブジェクト画像識別時間を短縮し、さらに静的オブジェクトの三次元ポイントクラウドデータだけで済むため、三次元ポイントクラウドデータの演算量を低減することができ、乗物の正確な測位を達成することができる。
上述したものは、本発明の実施例に過ぎず、本発明の実施の範囲を限定するためのものではなく、所属する技術分野において通常知識を有する者であれば、本発明の主旨を逸脱しない範囲でいくつの修正や変更することが可能であり、本発明の特許請求の範囲は添付の請求の範囲により限定されているものである。
100 乗物測位システム
102 二次元画像センサ
104 三次元センサ
106 プロセッサー
108 記憶回路
110 整列モジュール
112 静的オブジェクト識別モジュール
114 測位モジュール
600 乗物
602 二次元画像センサ
604 三次元センサ
606 プロセッサー
608 記憶装置
S501、S503、S505、S507、S509、S511 乗物測位システム作動のステップ

Claims (16)

  1. 乗物測位システムであって、
    二次元画像データを取得する二次元画像センサと、
    三次元ポイントクラウドデータを取得する三次元センサと、
    該二次元画像センサ及び該三次元センサに接続されたプロセッサーであって、
    該三次元ポイントクラウドデータを該二次元画像データの画素点にマッピングして、該二次元画像データと該三次元ポイントクラウドデータとを融合することで、三次元画像データを生成する整列モジュールと、
    該二次元画像データから少なくとも1つの静的オブジェクトを識別し、該二次元画像データから識別された該少なくとも1つの静的オブジェクトの各静的オブジェクトに基づいて、該三次元画像データから該静的オブジェクトの三次元ポイントクラウドデータを取得する静的オブジェクト識別モジュールと、
    該静的オブジェクトの該三次元ポイントクラウドデータに基づいて、乗物の乗物相対座標を算出する測位モジュールと、
    に、少なくとも適用するように構成されたプロセッサーと、
    を備えることを特徴とする乗物測位システム。
  2. 記憶回路に予め記憶された所定の地図情報に該乗物相対座標をマッピングさせることで、該乗物の三次元乗物絶対座標を取得することを特徴とする請求項1に記載の乗物測位システム。
  3. 記憶回路に予め記憶された所定の地図情報に該静的オブジェクトの該三次元ポイントクラウドデータをマッピングさせることで、該静的オブジェクトの三次元乗物絶対座標を取得することを特徴とする請求項1に記載の乗物測位システム。
  4. 該測位モジュールは、該静的オブジェクトの三次元絶対座標に基づいて、該乗物の三次元乗物絶対座標を算出することを特徴とする請求項3に記載の乗物測位システム。
  5. 該二次元画像センサはCCDカメラまたはCMOSカメラであることを特徴とする請求項1に記載の乗物測位システム。
  6. 該三次元センサはライダーセンサであることを特徴とする請求項1に記載の乗物測位システム。
  7. 乗物測位システムに適用する乗物測位方法であって、
    前記乗物測位システムは、二次元画像センサと、三次元センサと、プロセッサーとを備え、
    前記プロセッサーは、整列モジュールと、静的オブジェクト識別モジュールと、測位モジュールとに適用するように構成され、
    前記乗物測位方法は、
    前記二次元画像センサにより、二次元画像データを取得する工程と、
    前記三次元センサにより、三次元ポイントクラウドデータを取得する工程と、
    前記整列モジュールにより、該三次元ポイントクラウドデータを該二次元画像データの画素点にマッピングして、該二次元画像データと該三次元ポイントクラウドデータとを融合し、三次元画像データを生成する工程と、
    前記静的オブジェクト識別モジュールにより、該二次元画像データから少なくとも1つの静的オブジェクトを識別、該二次元画像データから識別された該静的オブジェクトに基づいて該三次元画像データから該静的オブジェクトの三次元ポイントクラウドデータを取得する工程と、
    前記測位モジュールにより、該静的オブジェクトの該三次元ポイントクラウドデータに基づいて、乗物の乗物相対座標を算出する工程と、
    を備えることを特徴とする乗物測位方法。
  8. 記憶回路に予め記憶された所定の地図情報に該乗物相対座標をマッピングさせることで、該乗物の三次元乗物絶対座標を取得する工程をさらに備えることを特徴とする請求項7に記載の乗物測位方法。
  9. 記憶回路に予め記憶された所定の地図情報に該静的オブジェクトの該三次元ポイントクラウドデータをマッピングさせることで、該静的オブジェクトの三次元オブジェクト絶対座標を取得する工程をさらに備えることを特徴とする請求項7に記載の乗物測位方法。
  10. 前記測位モジュールにより、該静的オブジェクトの該三次元オブジェクト絶対座標に基づいて、該乗物の三次元乗物絶対座標を算出することを特徴とする請求項9に記載の乗物測位方法。
  11. 乗物測位システムが配置された乗物であって、
    二次元画像データを取得する二次元画像センサと、
    三次元ポイントクラウドデータを取得する三次元センサと、
    該二次元画像センサ及び該三次元センサに接続されたプロセッサーであって、
    該三次元ポイントクラウドデータを該二次元画像データの画素点にマッピングして、該二次元画像データと該三次元ポイントクラウドデータとを融合することで、三次元画像データを生成する整列モジュールと、
    該二次元画像データから少なくとも1つの静的オブジェクトを識別し、該二次元画像データから識別された該少なくとも1つの静的オブジェクトの各静的オブジェクトに基づいて、該三次元画像データから該静的オブジェクトの三次元ポイントクラウドデータを取得する静的オブジェクト識別モジュールと、
    該静的オブジェクトの該三次元ポイントクラウドデータに基づいて、該乗物の乗物相対座標を算出するための測位モジュールと、
    に、少なくとも適用するように構成されたプロセッサーと、
    を備えることを特徴とする乗物。
  12. 記憶回路に予め記憶された所定の地図情報に該乗物相対座標をマッピングさせることで、該乗物の三次元乗物絶対座標を取得することを特徴とする請求項11に記載の乗物。
  13. 記憶回路に予め記憶された所定の地図情報に該静的オブジェクトの該三次元ポイントクラウドデータをマッピングさせることで、該静的オブジェクトの三次元オブジェクト絶対座標を取得することを特徴とする請求項11に記載の乗物。
  14. 該測位モジュールは、該静的オブジェクトの三次元絶対座標に基づいて、該乗物の三次元乗物絶対座標を算出することを特徴とする請求項13に記載の乗物。
  15. 該二次元画像センサはCCDカメラまたはCMOSカメラであることを特徴とする請求項11に記載の乗物。
  16. 該三次元センサはライダーセンサであることを特徴とする請求項11に記載の乗物。
JP2019136998A 2018-11-29 2019-07-25 乗物、乗物測位システム、及び乗物測位方法 Active JP7073315B2 (ja)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US201862773124P 2018-11-29 2018-11-29
US62/773,124 2018-11-29
TW108112604A TWI754808B (zh) 2018-11-29 2019-04-11 載具、載具定位系統及載具定位方法
TW108112604 2019-04-11

Publications (2)

Publication Number Publication Date
JP2020085886A JP2020085886A (ja) 2020-06-04
JP7073315B2 true JP7073315B2 (ja) 2022-05-23

Family

ID=70849764

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019136998A Active JP7073315B2 (ja) 2018-11-29 2019-07-25 乗物、乗物測位システム、及び乗物測位方法

Country Status (3)

Country Link
US (1) US11024055B2 (ja)
JP (1) JP7073315B2 (ja)
CN (1) CN111238494B (ja)

Families Citing this family (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102018209607A1 (de) * 2018-06-14 2019-12-19 Volkswagen Aktiengesellschaft Verfahren und Vorrichtung zum Bestimmen einer Position eines Kraftfahrzeugs
CN110148196B (zh) * 2018-09-12 2022-03-25 腾讯大地通途(北京)科技有限公司 一种图像处理方法、装置以及相关设备
DE102018221625A1 (de) * 2018-12-13 2020-06-18 Robert Bosch Gmbh Transfer von Zusatzinformation zwischen Kamerasystemen
WO2020154970A1 (en) * 2019-01-30 2020-08-06 Baidu.Com Times Technology (Beijing) Co., Ltd. Deep learning–based feature extraction for lidar localization of autonomous driving vehicles
CA3148404A1 (en) * 2019-07-22 2021-01-28 Nec Corporation Information processing device, data generation method, and non-transitory computer-readable medium storing program
KR20210061722A (ko) * 2019-11-20 2021-05-28 팅크웨어(주) 고정밀 지도 제작 방법, 고정밀 지도 제작 장치, 컴퓨터 프로그램 및 컴퓨터 판독 가능한 기록 매체
KR20210071584A (ko) * 2019-12-06 2021-06-16 팅크웨어(주) 위성 항법 시스템 측정 위치의 보정을 통해 위치를 판단하는 위치 측정 방법, 위치 측정 장치 및 이를 수행하는 전자 기기
US11790555B2 (en) * 2020-01-17 2023-10-17 Electronics And Telecommunications Research Institute System and method for fusion recognition using active stick filter
WO2021253149A1 (zh) * 2020-06-15 2021-12-23 广东朗呈医疗器械科技有限公司 镜头、三维成像模组、设备、方法、装置及存储介质
CN111787301A (zh) * 2020-06-15 2020-10-16 广东朗呈医疗器械科技有限公司 镜头、三维成像方法、装置、设备及存储介质
US11222215B1 (en) * 2020-07-13 2022-01-11 Toyota Motor Engineering & Manufacturing North America, Inc. Identifying a specific object in a two-dimensional image of objects
CN112200868A (zh) * 2020-09-30 2021-01-08 深兰人工智能(深圳)有限公司 定位方法、装置和车辆
TWI758980B (zh) * 2020-11-30 2022-03-21 財團法人金屬工業研究發展中心 移動載具的環境感知裝置與方法
CN112666569B (zh) * 2020-12-01 2023-03-24 天津优控智行科技有限公司 一种无人驾驶系统激光雷达连续点云的压缩方法
US11995157B2 (en) * 2020-12-04 2024-05-28 Caterpillar Inc. Intelligent LiDAR scanning
AU2021102368A4 (en) * 2021-01-22 2021-06-24 4AI Systems Holdings Pty Ltd A Sensor Device for Vehicles
CN112800159B (zh) * 2021-01-25 2023-10-31 北京百度网讯科技有限公司 地图数据处理方法及装置
CN113064193B (zh) * 2021-03-25 2022-12-16 上海智能新能源汽车科创功能平台有限公司 一种基于车路云协同的组合定位系统
KR102656646B1 (ko) * 2021-08-26 2024-04-12 (주)서울로보틱스 센싱 장치의 설치 이상을 감지하는 방법 및 이를 수행하는 센싱 장치
US20230126833A1 (en) * 2021-10-21 2023-04-27 Argo AI, LLC System and method for simultaneous online lidar intensity calibration and road marking change detection
US12046049B2 (en) * 2021-12-01 2024-07-23 Motional Ad Llc Automatically detecting traffic signals using sensor data
US20230230260A1 (en) * 2022-01-18 2023-07-20 Pony Ai Inc. Hardware-based point-cloud matching
CN114473309A (zh) * 2022-03-18 2022-05-13 南京欧睿三维科技有限公司 用于自动焊接系统的焊接位置识别方法及自动焊接系统
CN115330923B (zh) * 2022-08-10 2023-11-14 小米汽车科技有限公司 点云数据渲染方法、装置、车辆、可读存储介质及芯片

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018038131A1 (ja) 2016-08-26 2018-03-01 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 三次元情報処理方法及び三次元情報処理装置
WO2018159168A1 (en) 2017-02-28 2018-09-07 Mitsubishi Electric Corporation System and method for virtually-augmented visual simultaneous localization and mapping
JP2018180181A (ja) 2017-04-10 2018-11-15 凸版印刷株式会社 レーザ走査装置

Family Cites Families (42)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010024212A1 (ja) * 2008-08-29 2010-03-04 三菱電機株式会社 俯瞰画像生成装置、俯瞰画像生成方法および俯瞰画像生成プログラム
TW201110928A (en) 2009-09-16 2011-04-01 Univ Chang Gung Optical tracking apparatus and its positioning method
TWI403690B (zh) 2009-10-26 2013-08-01 Ind Tech Res Inst 自我定位裝置及其方法
CN102072725B (zh) * 2010-12-16 2012-11-07 唐粮 一种基于激光点云和实景影像进行空间三维测量的方法
TWI431250B (zh) 2011-03-01 2014-03-21 Navigation device for integrating traffic image recording and navigation information
JP6233706B2 (ja) 2013-04-02 2017-11-22 パナソニックIpマネジメント株式会社 自律移動装置及び自律移動装置の自己位置推定方法
KR20190125517A (ko) 2013-04-11 2019-11-06 웨이모 엘엘씨 차량 온보드 센서들을 사용하여 날씨 상태들을 검출하는 방법들 및 시스템들
TWI535589B (zh) 2013-09-24 2016-06-01 Active automatic driving assistance system and method
JP6381100B2 (ja) * 2013-11-07 2018-08-29 株式会社環境総合テクノス 3次元路面下診断システムおよび3次元路面下診断方法
TWI534764B (zh) 2014-01-10 2016-05-21 財團法人工業技術研究院 車輛定位裝置與方法
US10061027B2 (en) 2014-02-25 2018-08-28 Adsys Controls, Inc. Laser navigation system and method
GB201409625D0 (en) 2014-05-30 2014-07-16 Isis Innovation Vehicle localisation
US20160047888A1 (en) 2014-08-15 2016-02-18 Richard D. Roberts Vehicle positioning
CN104268935A (zh) * 2014-09-18 2015-01-07 华南理工大学 一种基于特征的机载激光点云与影像数据融合系统及方法
US9378554B2 (en) * 2014-10-09 2016-06-28 Caterpillar Inc. Real-time range map generation
JP6284240B2 (ja) * 2015-02-03 2018-02-28 国立大学法人 東京大学 構造物情報提供システム
US9715016B2 (en) * 2015-03-11 2017-07-25 The Boeing Company Real time multi dimensional image fusing
KR101928689B1 (ko) * 2015-05-20 2018-12-12 미쓰비시덴키 가부시키가이샤 점군 화상 생성 장치 및 표시 시스템
US10121082B2 (en) 2015-10-07 2018-11-06 Honda Motor Co., Ltd. System and method for providing laser camera fusion for identifying and tracking a traffic participant
JP6682833B2 (ja) 2015-12-04 2020-04-15 トヨタ自動車株式会社 物体認識アルゴリズムの機械学習のためのデータベース構築システム
CN105512646B (zh) * 2016-01-19 2019-03-01 腾讯科技(深圳)有限公司 一种数据处理方法、装置及终端
CN105676643B (zh) 2016-03-02 2018-06-26 厦门大学 一种智能汽车转向和制动自适应协调控制方法
US20190004178A1 (en) 2016-03-16 2019-01-03 Sony Corporation Signal processing apparatus and signal processing method
JP6368959B2 (ja) 2016-05-19 2018-08-08 本田技研工業株式会社 車両制御システム、車両制御方法、および車両制御プログラム
CN106097348B (zh) * 2016-06-13 2019-03-05 大连理工大学 一种三维激光点云与二维图像的融合方法
CN105928457B (zh) * 2016-06-21 2019-10-11 大连理工大学 一种全向三维激光彩色扫描系统及其方法
CN106407947B (zh) 2016-09-29 2019-10-22 百度在线网络技术(北京)有限公司 用于无人驾驶车辆的目标物体识别方法和装置
CN106707293B (zh) 2016-12-01 2019-10-29 百度在线网络技术(北京)有限公司 用于车辆的障碍物识别方法和装置
US10078334B2 (en) 2016-12-07 2018-09-18 Delphi Technologies, Inc. Vision sensing compensation
US10754035B2 (en) 2017-01-17 2020-08-25 Aptiv Technologies Limited Ground classifier system for automated vehicles
US20180211119A1 (en) 2017-01-23 2018-07-26 Ford Global Technologies, Llc Sign Recognition for Autonomous Vehicles
EP4414748A3 (en) * 2017-01-26 2024-11-13 Mobileye Vision Technologies Ltd. Vehicle navigation based on aligned image and lidar information
CN106932780A (zh) * 2017-03-14 2017-07-07 北京京东尚科信息技术有限公司 物体定位方法、装置和系统
CN107194983B (zh) * 2017-05-16 2018-03-09 华中科技大学 一种基于点云与影像数据的三维可视化方法和系统
CN108196535B (zh) * 2017-12-12 2021-09-07 清华大学苏州汽车研究院(吴江) 基于增强学习和多传感器融合的自动驾驶系统
CN108151750B (zh) * 2017-12-13 2020-04-14 西华大学 定位方法及装置
CN108225334B (zh) * 2018-01-17 2020-10-16 泰瑞天际科技(北京)有限公司 一种基于三维实景数据的定位方法及装置
US10854011B2 (en) * 2018-04-09 2020-12-01 Direct Current Capital LLC Method for rendering 2D and 3D data within a 3D virtual environment
US10726567B2 (en) * 2018-05-03 2020-07-28 Zoox, Inc. Associating LIDAR data and image data
CN108622093B (zh) 2018-05-04 2020-08-04 奇瑞汽车股份有限公司 智能车辆的车道保持控制方法及装置
CN108830159A (zh) 2018-05-17 2018-11-16 武汉理工大学 一种前方车辆单目视觉测距系统及方法
DE102018209607A1 (de) * 2018-06-14 2019-12-19 Volkswagen Aktiengesellschaft Verfahren und Vorrichtung zum Bestimmen einer Position eines Kraftfahrzeugs

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018038131A1 (ja) 2016-08-26 2018-03-01 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 三次元情報処理方法及び三次元情報処理装置
WO2018159168A1 (en) 2017-02-28 2018-09-07 Mitsubishi Electric Corporation System and method for virtually-augmented visual simultaneous localization and mapping
JP2018180181A (ja) 2017-04-10 2018-11-15 凸版印刷株式会社 レーザ走査装置

Also Published As

Publication number Publication date
JP2020085886A (ja) 2020-06-04
US20200175720A1 (en) 2020-06-04
CN111238494A (zh) 2020-06-05
CN111238494B (zh) 2022-07-19
US11024055B2 (en) 2021-06-01

Similar Documents

Publication Publication Date Title
JP7073315B2 (ja) 乗物、乗物測位システム、及び乗物測位方法
US11675084B2 (en) Determining yaw error from map data, lasers, and cameras
US11474247B2 (en) Methods and systems for color point cloud generation
EP3283843B1 (en) Generating 3-dimensional maps of a scene using passive and active measurements
CN111986506B (zh) 基于多视觉系统的机械式停车位泊车方法
US20200250837A1 (en) Systems and Methods for Detecting an Object Velocity
CN111856491B (zh) 用于确定车辆的地理位置和朝向的方法和设备
JP2020525809A (ja) 両眼画像に基づき高解像度地図を更新するためのシステムおよび方法
US20180273031A1 (en) Travel Control Method and Travel Control Apparatus
JP2021508815A (ja) 妨害物体の検出に基づいて高精細度マップを補正するためのシステムおよび方法
CN107246868A (zh) 一种协同导航定位系统及导航定位方法
TWI754808B (zh) 載具、載具定位系統及載具定位方法
KR20200001471A (ko) 차선 정보 검출 장치, 방법 및 이러한 방법을 수행하도록 프로그램된 컴퓨 프로그램을 저장하는 컴퓨터 판독가능한 기록매체
US20210180958A1 (en) Graphic information positioning system for recognizing roadside features and method using the same
US11842440B2 (en) Landmark location reconstruction in autonomous machine applications
CN116802581A (zh) 基于航测数据的自动驾驶感知系统测试方法、系统及存储介质
US12135565B2 (en) Adaptive sensor control
JP7337617B2 (ja) 推定装置、推定方法及びプログラム
WO2022133986A1 (en) Accuracy estimation method and system
JP7302966B2 (ja) 移動体
AU2018102199A4 (en) Methods and systems for color point cloud generation
Jarnea et al. Advanced driver assistance system for overtaking maneuver on a highway
RU2775817C2 (ru) Способ и система для обучения алгоритма машинного обучения с целью обнаружения объектов на расстоянии
TW202248963A (zh) 複眼攝像系統,使用複眼攝像系統的車輛及其影像處理方法
TWM618998U (zh) 複眼攝像系統及使用複眼攝像系統的車輛

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190725

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201005

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210510

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210803

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220104

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220401

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220411

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220511

R150 Certificate of patent or registration of utility model

Ref document number: 7073315

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150