[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP6675448B2 - 車両位置検出方法及び装置 - Google Patents

車両位置検出方法及び装置 Download PDF

Info

Publication number
JP6675448B2
JP6675448B2 JP2018146866A JP2018146866A JP6675448B2 JP 6675448 B2 JP6675448 B2 JP 6675448B2 JP 2018146866 A JP2018146866 A JP 2018146866A JP 2018146866 A JP2018146866 A JP 2018146866A JP 6675448 B2 JP6675448 B2 JP 6675448B2
Authority
JP
Japan
Prior art keywords
coordinate system
real
image
vehicle
virtual
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018146866A
Other languages
English (en)
Other versions
JP2019196164A (ja
Inventor
威 劉
威 劉
▲てぃん▼ 周
▲てぃん▼ 周
淮 袁
淮 袁
晋 呂
晋 呂
浩 陳
浩 陳
邑中 樊
邑中 樊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Neusoft Reach Automotive Technology Shanghai Co Ltd
Original Assignee
Neusoft Reach Automotive Technology Shanghai Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Neusoft Reach Automotive Technology Shanghai Co Ltd filed Critical Neusoft Reach Automotive Technology Shanghai Co Ltd
Publication of JP2019196164A publication Critical patent/JP2019196164A/ja
Application granted granted Critical
Publication of JP6675448B2 publication Critical patent/JP6675448B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q9/00Arrangement or adaptation of signal devices not provided for in one of main groups B60Q1/00 - B60Q7/00, e.g. haptic signalling
    • B60Q9/008Arrangement or adaptation of signal devices not provided for in one of main groups B60Q1/00 - B60Q7/00, e.g. haptic signalling for anti-collision purposes
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/095Predicting travel path or likelihood of collision
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/80Geometric correction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Mechanical Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)
  • Geometry (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Processing (AREA)

Description

本願は、2018年5月9日に中国特許庁に提出された、出願番号が201810438659.3であり、発明の名称が「車両位置検出方法及び装置」である中国出願に基づく優先権を主張する。
本出願は、検出技術分野に関し、特に、車両位置検出方法及び装置に関する。
運転者が車両を運転する過程で、運転者の自車に前方衝突警報(Forward Collision Warning、FCWと略称される)システム又はアダプティブクルーズコントロール(Adaptive Cruise Control、ACCと略称される)システムが取り付けられていると、当該システムは、自車の前方車両を検出でき、自車と前方車両との衝突を避けることを可能にする。
なお、FCWシステムは、タイムリーに自車の前方領域の車両を検出することができ、具体的に、自車の前方領域に車両がある場合に、FCWシステムは、自車の運転安全を確保するために、光、音、振動などの形で運転者に警告する。ACCシステムは、交通状況に適応するように車速を調整し、運転者の介入なしに自律的な減速または加速を実現することができ、具体的に、自車の前方に取り付けられたレーダにより、自車が進行している道路に速度がより遅い車両があるかどうかを検出し、速度がより遅い車両がある場合に、ACCシステムは、速度を低下させつつ、前方車両との間隙又は時間的間隙を制御することで、自車の運転安全を確保する。
しかしながら、運転者による実際の運転中に、車両が自車の側方から自車の前方に挿入することがしばしばあり、従来のFCWシステムとACCシステムは、前方車両しか検出できず、自車の側方から挿入する車両をタイムリーに検出できず、これにより、自車と挿入車両との追突事故を引き起こす可能性がある。
本願の実施例は、側前方車両の位置情報を検出することができる車両位置検出方法及び装置を提供することを主たる目的とする。
本願の実施例は、車両位置検出方法を提供し、
目標車両に取り付けられた画像採集装置が前記目標車両の前方領域を撮像した現実画像を取得し、
前記現実画像に応じて仮想画像を生成し、前記仮想画像に応じて前記目標車両の側方車両の位置情報を確定する、ことを含み、
前記現実画像は、前記画像採集装置が現時点に固定視角で撮像した画像であり、
前記仮想画像は、現時点で前記画像採集装置のプリセット視角での画像であり、前記プリセット視角は前記固定視角が水平方向にプリセット角度だけ回転された視角である。
前記プリセット角度は第1の角度又は第2の角度であり、第1の視角は前記固定視角が水平方向に反時計回りに前記第1の角度だけ回転された視角であり、第2の視角は前記固定視角が水平方向に時計回りに前記第2の角度だけ回転された視角であり、
対応するように、前記プリセット角度が前記第1の角度であると、前記目標車両の側方車両は前記目標車両の左側車両であり、前記プリセット角度が前記第2の角度であると、前記目標車両の側方車両は前記目標車両の右側車両であってもよい。
前記方法は、
現実平面座標系と仮想平面座標系との間の座標変換関係を構築することをさらに含み、前記現実平面座標系は前記固定視角でのイメージング平面に対応する2次元座標系であり、前記仮想平面座標系は前記プリセット視角でのイメージング平面に対応する2次元座標系であり、
前記した前記現実画像に応じて仮想画像を生成することは、
前記現実平面座標系と前記仮想平面座標系との間の座標変換関係に応じて、前記現実画像を仮想画像へ変換することを含んでもよい。
前記した現実平面座標系と仮想平面座標系との間の座標変換関係を構築することは、
前記現実平面座標系と、前記画像採集装置が前記固定視角に対応する場合に前記画像採集装置に対して構築された3次元座標系である現実装置座標系との間の座標変換関係を構築し、
前記現実装置座標系と、前記画像採集装置が前記固定視角に対応する場合に構築された世界座標系である現実世界座標系との間の座標変換関係を構築し、
前記現実世界座標系と、前記画像採集装置が前記プリセット視角に対応する場合に構築された世界座標系である仮想世界座標系との間の座標変換関係を構築し、
前記仮想世界座標系と、前記画像採集装置が前記プリセット視角に対応する場合に前記画像採集装置に対して構築された3次元座標系である仮想装置座標系との間の座標変換関係を構築し、
前記仮想装置座標系と前記仮想平面座標系との間の座標変換関係を構築する、ことを含んでもよい。
前記した前記仮想画像に応じて前記目標車両の側方車両の位置情報を確定することは、
前記仮想画像で車輪を検出して、仮想車輪領域を取得し、
前記現実平面座標系と前記仮想平面座標系との間の座標変換関係に応じて、前記仮想車輪領域を前記現実平面座標系に変換することで、変換された現実車輪領域を取得し、
前記現実平面座標系と前記現実世界座標系との間の座標変換関係に応じて、前記現実車輪領域を前記現実世界座標系に変換することで、前記目標車両の側方車両車輪の位置情報を取得することを、含んでもよい。
前記方法は、
大量の車両サンプル画像中の車輪特徴に対して学習を行うことで、車輪を認識するための車輪認識モデルを得ることをさらに含み、
前記した前記仮想画像で車輪を検出することは、
前記車輪認識モデルを利用して、前記仮想画像に車輪を検出することを含んでもよい。
前記方法は、
前記目標車両の側方車両車輪に対してオプティカルフロー追跡を行うことで、前記現時点での現実車輪領域を取得することをさらに含み、
前記した変換された現実車輪領域を取得した後に、
変換された現実車輪領域とオプティカルフロー追跡された現実車輪領域とをフュージョンすることで、フュージョンされた現実車輪領域を取得することをさらに含んでもよい。
前記した前記現時点での現実車輪領域を取得することは、
前記現時点でのオプティカルフロー追跡画像に対してエッジ補完を行い、
補完されたオプティカルフロー追跡画像に応じて、前記側方車両車輪の現実車輪領域を取得する、ことを含んでもよい。
前記したフュージョンされた現実車輪領域を取得する後に、
前記現時点よりも前の一つの歴史時点又は複数の連続歴史時点について、前記歴史時点に対応する最終的現実車輪領域を取得し、
前記歴史時点に対応する最終的現実車輪領域に応じて、前記フュージョンされた現実車輪領域に非車輪領域があるかどうかを判断し、非車輪領域があれば、前記非車輪領域を除去することをさらに含んでもよい。
本願の実施例はさらに車両位置検出装置を提供し、
目標車両に取り付けられた画像採集装置が前記目標車両の前方領域を撮像した現実画像を取得するための現実画像取得ユニットと、
前記現実画像に応じて仮想画像を生成するための仮想画像生成ユニットと、
前記仮想画像に応じて前記目標車両の側方車両の位置情報を確定するための車両位置確定ユニットとを含み、
前記現実画像は、前記画像採集装置が現時点に固定視角で撮像した画像であり、
前記仮想画像は、現時点で前記画像採集装置のプリセット視角での画像であり、前記プリセット視角は前記固定視角が水平方向に所定の角度だけ回転された視角である。
前記プリセット角度は第1の角度又は第2の角度であり、第1の視角は前記固定視角が水平方向に反時計回りに前記第1の角度だけ回転された視角であり、第2の視角は前記固定視角が水平方向に時計回りに前記第2の角度だけ回転された視角であり、
対応するように、前記プリセット角度が前記第1の角度であると、前記目標車両の側方車両は前記目標車両の左側車両であり、前記プリセット角度が前記第2の角度であると、前記目標車両の側方車両は前記目標車両の右側車両であってもよい。
前記装置は、
現実平面座標系と仮想平面座標系との間の座標変換関係を構築するための変換関係構築ユニットをさらに含み、前記現実平面座標系は前記固定視角でのイメージング平面に対応する2次元座標系であり、前記仮想平面座標系は前記プリセット視角でのイメージング平面に対応する2次元座標系であり、
前記仮想画像生成ユニットは、具体的に、前記現実平面座標系と前記仮想平面座標系との間の座標変換関係に応じて、前記現実画像を仮想画像へ変換してもよい。
前記変換関係構築ユニットは、
前記現実平面座標系と、前記画像採集装置が前記固定視角に対応する場合に前記画像採集装置に対して構築された3次元座標系である現実装置座標系との間の座標変換関係を構築するための第1の構築サブユニットと、
前記現実装置座標系と、前記画像採集装置が前記固定視角に対応する場合に構築された世界座標系である現実世界座標系との間の座標変換関係を構築するための第2の構築サブユニットと、
前記現実世界座標系と、前記画像採集装置が前記プリセット視角に対応する場合に構築された世界座標系である仮想世界座標系との間の座標変換関係を構築するための第3の構築サブユニットと、
前記仮想世界座標系と、前記画像採集装置が前記プリセット視角に対応する場合に前記画像採集装置に対して構築された3次元座標系である仮想装置座標系との間の座標変換関係を構築するための第4の構築サブユニットと、
前記仮想装置座標系と前記仮想平面座標系との間の座標変換関係を構築するための第5の構築サブユニットとを含んでもよい。
前記車両位置確定ユニットは、
前記仮想画像で車輪を検出して、仮想車輪領域を取得するための仮想車輪検出サブユニットと、
前記現実平面座標系と前記仮想平面座標系との間の座標変換関係に応じて、前記仮想車輪領域を前記現実平面座標系に変換することで、変換された現実車輪領域を取得するための現実車輪取得サブユニットと、
前記現実平面座標系と前記現実世界座標系との間の座標変換関係に応じて、前記現実車輪領域を前記現実世界座標系に変換することで、前記目標車両の側方車両車輪の位置情報を取得するための車輪位置確定サブユニットとを含んでもよい。
前記装置は、
大量の車両サンプル画像中の車輪特徴に対して学習を行うことで、車輪を認識するための車輪認識モデルを取得するための認識モデル作成ユニットをさらに含み、
前記仮想車輪検出サブユニットは、具体的に、前記車輪認識モデルを利用して、前記仮想画像で車輪を検出してもよい。
前記装置は、
前記目標車両の側方車両車輪に対してオプティカルフロー追跡を行うことで、前記現時点での現実車輪領域を取得するためのオプティカルフロー追跡ユニットをさらに含み、
前記車両位置確定ユニットは、
変換された現実車輪領域を取得した後、変換された現実車輪領域とオプティカルフロー追跡された現実車輪領域とをフュージョンすることで、フュージョンされた現実車輪領域を取得するための車輪フュージョンサブユニットをさらに含んでもよい。
前記オプティカルフロー追跡ユニットは、
前記目標車両の側方車両車輪に対してオプティカルフロー追跡を行うためのオプティカルフロー追跡サブユニットと、
前記現時点でのオプティカルフロー追跡画像に対してエッジ補完を行うためのエッジ補完サブユニットと、
補完されたオプティカルフロー追跡画像に応じて、前記側方車両車輪の現実車輪領域を取得するための領域取得サブユニットとを含んでもよい。
前記車両位置確定ユニットは、
フュージョンされた実車輪領域を取得した後、前記現時点よりも前の一つの歴史時点又は複数の連続歴史時点について、前記歴史時点に対応する最終的現実車輪領域を取得するための歴史車輪取得サブユニットと、
前記歴史時点に対応する最終的現実車輪領域に応じて、前記フュージョンされた現実車輪領域に非車輪領域があるかどうかを判断し、非車輪領域があれば、前記非車輪領域を除去するための領域除去サブユニットとをさらに含んでもよい。
本願の実施例は車両位置検出装置をさらに提供し、プロセッサー、メモリ、システムバスを含み、
前記プロセッサー及び前記メモリは、前記システムバスを介して互いに接続し、
前記メモリは、コマンドを含む一つ又は複数のプログラムを記憶するためのものであり、前記コマンドが前記プロセッサーによって実行される場合に前記プロセッサーに上記車両位置検出方法のいずれかの実現方法を実行させることを特徴とする。
本願の実施例はコンピュータ読み取り可能な記憶媒体をさらに提供し、前記コンピュータ読み取り可能な記憶媒体にコマンドが記憶されており、前記コマンドが端末装置で実行される場合に、前記端末装置に上記車両位置検出方法のいずれかの実現方法を実行させることを特徴とする。
本願の実施例はコンピュータープログラム製品をさらに提供し、前記コンピュータープログラム製品が端末装置で実行される場合に、前記端末装置に上記車両位置検出方法のいずれかの実現方法を実行させることを特徴とする。
本実施例が提供する車両位置検出方法及び装置は、目標車両に取り付けられた画像採集装置を利用して、現時点に固定視角で目標車両の前方領域を撮像し、一つの現実画像を取得し、そして、当該現実画像に応じてプリセット視角での仮想画像を生成し、当該仮想画像に側方車両の有効な特徴含ませることにより、これらの特徴に基づいて側方車両を正確に認識し、ひいては、側方車両の位置情報を確定し、目標車両と側方車両との衝突などの事故を避けることを可能にする。
本出願の実施例又は従来技術における技術案をより明確に説明するために、以下で実施例又は従来技術の記述において使用する必要がある図面を簡単に紹介し、もちろん、以下に記述の図面が本出願のいくつかの実施例に過ぎず、当業者にとって、創造的な労力をしない前提で、これらの図面に応じて他の図面を得ることもできる。
本願の実施例が提供する車両位置検出方法のフロー模式図である。 本願の実施例が提供する画像採集装置が固定視角を有している場合における位置模式図である。 本願の実施例が提供する異なる第1の視角の模式図である。 本願の実施例が提供する画像採集装置が第1の視角を有している場合における位置模式図である。 本願の実施例が提供する異なる第2の視角の模式図である。 本願の実施例が提供する画像採集装置が第2の視角を有している場合における位置模式図である。 本願の実施例が提供する現実画像と仮想画像の模式図である。 本願の実施例が提供する現実画像と仮想画像の模式図である。 本願の実施例が提供する現実画像と仮想画像の模式図である。 本願の実施例が提供する現実画像と仮想画像の模式図である。 本願の実施例が提供する左側車両位置情報の確定方法のフロー模式図である。 本願の実施例が提供する車輪検出領域の模式図である。 本願の実施例が提供する車輪検出結果の模式図である。 本願の実施例が提供する車輪検出結果の模式図である。 本願の実施例が提供する車輪検出結果の模式図である。 本願の実施例が提供する車輪検出結果の模式図である。 本願の実施例が提供する車輪検出結果の模式図である。 本願の実施例が提供する車輪検出結果の模式図である。 本願の実施例が提供する機械学習とオプティカルフロートラッキングとのフュージョン結果の模式図である。 本願の実施例が提供する右側車両位置情報の確定方法のフロー模式図である。 本願の実施例が提供する車両位置検出装置の構成模式図である。
本願の実施例の目的、技術案及び利点をより明確にするために、以下、本願の実施例における図面を結合して、本願の実施例における技術案を明確かつ完全に記述する。明らかに、記述された実施例は、本願の一部の実施例に過ぎず、全ての実施例ではない。本願の実施例に基づいて、当業者が創造的な労働をしない前提で得られた全ての他の実施例は本願の保護範囲に属するものである。
第一実施例
図1を参照して、本実施例が提供する車両位置検出方法のフロー模式図であり、当該車両位置検出方法は、以下のステップを含んでいる。
S101において、目標車両に取り付けられた画像採集装置が前記目標車両の前方領域を撮像した現実画像を取得し、前記現実画像は前記画像採集装置が現時点に固定視角で撮像した画像である。
記述の便宜上、本実施例において、運転者が運転する車両を目標車両と称する。
本実施例において、予め一つの画像採集装置を目標車両に取り付けておいてもよく、例えば、当該画像採集装置は、カメラであってもよく、具体的に、単眼平面カメラであってもよい。図2に示すように、一つの画像採集装置を目標車両のフロント位置に取り付けてもよく、もちろん、車両ルーフに取り付けてもよく、当該画像採集装置は目標車両の前方領域を撮像できるようになり、なお、当該前方領域は、目標車両の真正面領域と側前方領域とを含み、当該側前方領域は、左側前方領域と右側前方領域とをさらに含む。撮影時には、具体的に、プリセット時間間隔に従って(0.5秒ごとに)、又はプリセット前進間隔に従って(例えば目標車両が前へ0.3メートル進行する当たり)、目標車両の前方領域を撮像することにより、時刻毎に撮像された現実画像を取得し、本実施例は、現在の撮像時点を現時点と定義する。
なお、予め画像採集装置の取り付け位置と画像採集装置パラメーターとを設置しておき、画像採集装置の視角が撮像範囲に対する要求を満たすようにすることができ、このようにすれば、画像採集装置の使用中、画像採集装置に、図2に示すように、設置された固定視角で前方領域を撮像させる。
本実施例において、目標車両の走行車線に基づいて、目標車両のどの側の車両に対して位置検出を行うかを選択することができる。具体的に、運転者が目標車両を運転して左側車線を走行している場合に、即ち、目標車両の左側に車線がなく右側に車線がある場合に、この際、S102を実行することで目標車両の右側車両の位置情報を検出することができ、運転者が目標車両を運転して右側車線を走行している場合、即ち、目標車両の右側に車線がなく左側に車線がある場合に、この際、S102を実行することで目標車両の左側車線の位置情報を検出することができ、運転者が目標車両を運転して中央車線を走行している場合に、即ち、目標車両の左右側に車線がある場合に、この際、S102を実行することで目標車両の両側の車両の位置情報を同時に検出することができる。
S102において、前記現実画像に応じて仮想画像を生成し、前記仮想画像に応じて前記目標車両の側方車両の位置情報を確定し、なお、前記仮想画像は現時点で前記画像採集装置のプリセット視角での画像であり、前記プリセット視角は前記固定視角が水平方向にプリセット角度だけ回転された視角である。
本実施例において、このステップにより、目標車両の左側前方車両の位置情報を検出することができ、具体的には、以下の通りである。
ここで、目標車両の左側前方に車両が走行していると、画像採集装置が固定視角で前方領域を撮像した現実画像について、固定視角は前向きの視角であるので、当該現実画像に目標車両の左側前方領域の物体が含まれるが、撮像の視角によって、当該現実画像は、例えば、車輪のような代表的特徴を捕捉できない又は明瞭に捕捉できないなど、左側前方車両の有効な特徴を捕捉できない可能性があり、これにより、当該左側前方車両を正確に認識できず、ひいては、当該左側前方車両の位置情報を確定できない。
そのために、本実施例では、固定視角で撮影された現実画像を、固定視角と異なる左側視角で示し、即ち、固定視角を左にプリセット角度だけ回転させ、回転させて得られた左側視角は前記プリセット視角であり、なお、ここで実際に画像採集装置の視角を回転させることではなく、理論上、それを回転させることである。このようにすれば、左側視角での仮想画像を生成した後、視角の変換によって、仮想画像に左側前方車両の有効な特徴を含ませることができ、これにより、これらの特徴に基づいて左側前方車両を正確に認識し、さらに、左側前方車両の位置情報を確定することができる。
本実施例において、このステップにより、目標車両の右側前方車両の位置情報を検出することができ、具体的には、以下の通りである。
なお、目標車両の右側前方に車両が走行していると、画像採集装置が固定視角で前方領域を撮像した現実画像について、固定視角は前向きの視角であるので、当該現実画像に目標車両の右側前方領域の物体が含まれるが、撮像の視角によって、当該現実画像は、例えば、車輪のような代表的特徴を捕捉できない又は明瞭に捕捉できないなど、右側前方車両の有効な特徴を捕捉できない可能性があり、これにより、当該右側前方車両を正確に認識できず、ひいては、当該右側前方車両の位置情報を確定できない。
そのために、本実施例では、固定視角で撮影された現実画像を、固定視角と異なる右側視角で示し、即ち、固定視角を右にプリセット角度だけ回転させ、回転させて得られた右側視角は前記プリセット視角であり、なお、ここで実際に画像採集装置の視角を回転させることではなく、理論上、それを回転させることである。このようにすれば、右側視角での仮想画像を生成した後、視角の変換によって、仮想画像に右側前方車両の有効な特徴を含ませることができ、これにより、これらの特徴に基づいて右側前方車両を正確に認識し、さらに、右側前方車両の位置情報を確定することができる。
以上より、本実施例が提供する車両位置検出方法は、目標車両に取り付けられた画像採集装置を利用して、現時点に固定視角で目標車両の前方領域を撮像し、現実画像を取得し、次に、当該現実画像に応じてプリセット視角での仮想画像を生成し、当該仮想画像に側方車両の有効な特徴を含ませることにより、これらの特徴に基づいて側方車両を正確に認識し、さらに、側方車両の位置情報を確定し、目標車両と側方車両との衝突などの事故を避けることを可能にする。
第二実施例
本実施例は、第一実施例におけるステップS102の具体的な実現形態について紹介し、具体的には、どのように目標車両の左側前方車両の位置情報を検出するかについて紹介する。
本実施例において、上記ステップS102における前記プリセット角度は第1の角度であってもよく、前記第1の視角は前記固定視角が水平方向に反時計回りに第1の角度だけ回転された視角であってもよく、これに基づいて、前記プリセット角度が前記第1の角度であれば、前記目標車両の側方車両は前記目標車両の左側車両である。
本実施例では、固定視角で撮像された現実画像を、固定視角と異なる左側視角で示し、本実施例において、当該左側視角を第1の視角と称する。当該第1の視角の理解を容易にするために、例を挙げて説明し、当該第1の視角は、図2に示す固定視角を左へ一定の角度だけ回転させた視角であってもよく、つまり、固定視角を水平方向に反時計回りに一定の角度だけ回転させた視角であり、本実施例において、回転する一定の角度を第1の角度と称する。
本実施例は第1の角度を限定しない。例えば、当該第1の角度は、図3aの左側図に示す90度であってもよく、第1の角度が90度である場合に、画像採集装置が目標車両に取り付けられる際に、図3bに示すように、この際、画像採集装置の視角方向は左向きであり、即ち、視角方向と目標車両の進行方向とが90度をなす。また、例えば、当該第1の角度は、図3a右側図に示す30度であってもよく、第1の角度が30度である場合、画像採集装置の視角方向と目標車両の進行方向とが30度をなす。
なお、本実施例では、画像採集装置の固定視角について、実際に回転させることではないので、固定視角に対応する画像採集装置は現実画像採集装置であり、第1の視角に対応する画像採集装置は仮想画像採集装置である。
本実施例において、固定視角で撮像された現実画像に基づいて、当該現実画像に対して画像変換を行うことで、第1の視角での画像を取得し、本実施例では、当該画像を仮想画像と称する。理解できることは、第1の視角が異なると、異なる仮想画像に対応し、左側前方車両の有効な特徴を捕捉するために、リアルタイムで第1の視角を調整し、仮想画像に左側前方車両の有効な特徴を含ませることにより、これらの特徴に基づいて左側前方車両を正確に認識し、ひいては、左側前方車両の位置情報を確定してもよい。
S102を実現するために、予め現実平面座標系と仮想平面座標系との間の座標変換関係を構築する必要があり、なお、現実平面座標系は固定視角でのイメージング平面に対応する2次元座標系であり、仮想平面座標系はプリセット視角でのイメージング平面に対応する2次元座標系であり、なお、当該プリセット視角は第1の視角であってもよい。
図2と図3bに基づいて現実平面座標系と仮想平面座標系について説明し、具体的に、図2に示す現実画像採集装置の固定視角は一つのイメージング平面に対応し、当該イメージング平面に対して一つの2次元座標系uovを作成し、当該2次元座標系uovが現実平面座標系であり、同様に、図3bに示す仮想画像採集装置の第1の視角も一つのイメージング平面に対応し、当該イメージング平面に対して一つの2次元座標系uを作成し、当該2次元座標系uが仮想平面座標系である。
区分を容易にするために、本実施例では、固定視角に対応する画像採集装置を現実画像採集装置と称し、第1の視角に対応する画像採集装置を仮想画像採集装置と称する。単純化のために、本実施例では、後続の内容において、目標車両の左側前方車両を左側車両と略称する。
本実施例の一実現形態において、前記現実平面座標系と仮想平面座標系との間の座標変換関係を構築することは、具体的に、ステップA1〜E1を含むことができるが、ステップA1−E1の順序を限定しない。
ステップA1:現実平面座標系と現実装置座標系との間の座標変換関係を構築し、なお、現実装置座標系は画像採集装置が固定視角に対応する場合に画像採集装置に対して構築した3次元座標系である。
以上のように、図2に示す2次元座uovは現実平面座標系である。
本実施例において、また、現実画像採集装置に対して3次元座標系Oを設置し、当該3次元座標系Oを現実装置座標系と定義し、本実施例では、現実装置座標系Oの原点位置と座標軸方向を限定せず、目標車両の走行中、現実装置座標系Oと現実画像採集装置との相対的位置が不変であればよい。例えば、図2に示すように、現実画像採集装置の光学的中心を原点Oとして現実装置座標系Oを構成し、Z軸は現実画像採集装置の光軸と重なり合い、X軸とY軸とはイメージング平面のou軸とov軸にそれぞれ平行する。
3D実空間のいずれかの点pについて、当該点の現実装置座標系Oにおける座標がp(x,y,z)であり、P点が現実画像採集装置に撮像されると、現実平面座標系uovにおいてそれに対応する唯一の点p(u,v)が存在し、対応関係は、以下のように記述することができる。
Figure 0006675448
なお、Fは現実画像採集装置の投影モデルであり、投影モデルは当該現実画像採集装置の内部パラメーターによって決まり、現実画像採集装置の内部パラメーターはオフラインキャリブレーションアルゴリズムにより得ることができる。
当該式(1)は現実平面座標系uovと現実装置座標系Oとの間の座標変換関係を記述する。式(1)において、現実画像採集装置に対応する投影モデルFは、
Figure 0006675448
である。なお、f=f/dx、f=f/dy、fは現実画像採集装置の焦点距離であり、dxとdyとはそれぞれ現実画像採集装置の単一の画素の幅と高さの物理的サイズであり、uとvは現実画像採集装置の内部パラメーターであり、(u,v)は現実画像採集装置の光軸とイメージング平面との交点の画素座標である。
ステップB1において、現実装置座標系と現実世界座標系との間の座標変換関係を構築し、なお、現実世界座標系は、画像採集装置が固定視角に対応する場合に構築された世界座標系である。
本実施例において、また、現実画像採集装置に対して世界座標系OXYZを構築し、当該世界座標系OXYZは現実世界座標系であり、本実施例は現実世界座標系OXYZの原点位置と座標軸方向を限定せず、目標車両の走行中、当該現実世界座標系OXYZと目標車両との相対的位置が不変であればよい。例えば、図2に示すように、現実画像採集装置上のある点Aを取り、仮に、当該現実画像採集装置がカメラである場合に、当該カメラの光学的中心を取って点Aとして、点Aを通る垂線(即ち、点Aを通り且つ地面に垂直な直線)と地面との交点を現実世界座標系OXYZの原点Owとし、現実世界座標系OXYZのX軸、Y軸、Z軸について、Z軸は目標車両のフロント前方に指向し、X軸は目標車両の右側に指向し、Y軸は、X軸とZ軸に垂直であり且つ地面に指向してもよい。また、例えば、図2に示す原点Owの位置、X軸方向、Y軸方向及びZ軸方向の四つの座標要素について、その中の一つ又は複数の座標要素を変えてもよく、例えば、目標車両上のある点を上記点Aとしてもよく、また、図2に示すX軸、Y軸、Z軸の方向を変え、即ち、その反対方向を取ってもよく、変えた座標系を現実世界座標系OXYZとする。
本実施例において、予め現実装置座標系Oの原点Oの地面からの高さhを測定してもよく、現実装置座標系Oは現実世界座標系OXYZが順にX軸、Y軸、Z軸周りにα、β、γ角度だけ回転したものであると見なすことができ、画像採集装置が目標車両に取り付けられた後に、α、β、γは固定値であり、外部パラメーターキャリブレーションアルゴリズムにより確定される。
3D実空間におけるいずれかの点Pについて、現実装置座標系Oにおける座標p(x,y,z)と現実世界座標系OXYZにおける座標
Figure 0006675448
とは、以下の変換関係を有する。
Figure 0006675448
なお、Rは、回転行列であり、R行列は上記α、β、γ角度によって確定されることができる。
当該式(2)は、現実装置座標系Oと現実世界座標系OXYZとの間の座標変換関係を記述する。
ステップC1において、現実世界座標系と仮想世界座標系との間の座標変換関係を構築し、なお、仮想世界座標系は、画像採集装置がプリセット視角に対応する場合に構築された世界座標系である。
本実施例において、仮想画像採集装置に対して世界座標系
Figure 0006675448
を構築し、当該世界座標系
Figure 0006675448
を仮想世界座標系と定義し、本実施例は仮想世界座標系
Figure 0006675448
の原点位置と座標軸方向を限定せず、目標車両の走行中、当該仮想世界座標系
Figure 0006675448
と目標車両との相対的位置が不変であればよい。例えば、図3bに示すように、仮想画像採集装置上のある点Aを取り、仮に、当該仮想画像採集装置がカメラである場合に、当該カメラの光学的中心を取って点Aとして、点Aを通る垂線(即ち当該点を通り且つ地面に垂直な直線)と地面との交点を仮想世界座標系
Figure 0006675448
の原点
Figure 0006675448
としてもよく、仮想世界座標系
Figure 0006675448

Figure 0006675448
軸、
Figure 0006675448
軸、
Figure 0006675448
軸について、その中、
Figure 0006675448
軸は目標車両のフロント前方に指向し、
Figure 0006675448
軸は目標車両の左側に指向し、
Figure 0006675448
軸は
Figure 0006675448
軸と
Figure 0006675448
軸に垂直であり地面に指向してもよい。また、例えば、図3bに示す原点
Figure 0006675448
の位置、
Figure 0006675448
軸方向、
Figure 0006675448
軸方向及び
Figure 0006675448
軸方向の四つの座標要素について、その中の一つ又は複数の座標要素を変えてもよく、例えば、目標車両上のある点を上記点Aとしてもよく、また、図3bに示す
Figure 0006675448
軸、
Figure 0006675448
軸、
Figure 0006675448
軸の方向を変えて、即ち、その反対方向を取ってもよく、変えた座標系を仮想世界座標系
Figure 0006675448
とする。
なお、仮想画像採集装置は現実画像採集装置に対してフロント方向へS(S>0)メートルだけ前に移動すべきであり、その目的は、仮想画像に出来るだけ現実画像の左側領域までカバーさせるためである。
図2に示す現実世界座標系OXYZ及び図3bに示す仮想世界座標系O を例として、3D実空間におけるいずれかの点Pについて、当該点の現実世界座標系OXYZにおける座標はp(x,y,z)であり、x<0となると、当該点が目標車両の左側領域の空間点であり、当該点を仮想世界座標系
Figure 0006675448
に変換した座標は
Figure 0006675448
となり、座標変換式は、
Figure 0006675448
である。当該式(3)は現実世界座標系OXYZと仮想世界座標系
Figure 0006675448
との間の座標変換関係を記述する。
ステップD1において、仮想世界座標系と仮想装置座標系との間の座標変換関係を構築し、なお、仮想装置座標系は、画像採集装置がプリセット視角に対応する場合に画像採集装置に対して構築された3次元座標系である。
本実施例において、仮想画像採集装置に対して3次元座標系
Figure 0006675448
を設置し、当該3次元座標系
Figure 0006675448
を仮想装置座標系と定義し、本実施例は仮想装置座標系
Figure 0006675448
の原点位置と座標軸方向を限定せず、目標車両の走行中、仮想装置座標系
Figure 0006675448
と仮想画像採集装置との相対的位置は不変であればよい。例えば、図3bに示すように、仮想画像採集装置の光学的中心を原点
Figure 0006675448
として仮想装置座標系
Figure 0006675448
を構築し、
Figure 0006675448
軸と仮想画像採集装置の光軸とが重なり合い、
Figure 0006675448
は目標車両のフロント方向に指向し、
Figure 0006675448
は地面に指向する。
3D実空間におけるいずれかの点Pについて、仮想装置座標系
Figure 0006675448
における座標
Figure 0006675448
と、仮想世界座標系
Figure 0006675448
における座標
Figure 0006675448
は以下の変換関係を有する。
Figure 0006675448
なお、Rは回転行列である。
当該式(4)は、仮想世界座標系
Figure 0006675448
と仮想装置座標系
Figure 0006675448
との間の座標変換関係を記述する。
ステップE1において、仮想装置座標系と仮想平面座標系との間の座標変換関係を構築する。
図3bに示すように、3D実空間におけるいずれかの点Pについて、当該点の仮想装置座標系
Figure 0006675448
における座標は
Figure 0006675448
であり、P点が仮想画像に位置すれば、仮想平面座標系uに当該点に対応する唯一の点p(u,v)が存在し、対応関係は、以下のように記述する。
Figure 0006675448
なお、Fは仮想画像採集装置の投影モデルであり、仮想画像採集装置は現実画像採集装置が視角を変えた画像採集装置であるので、投影モデルは現実画像採集装置の内部パラメーターによって決まり、現実画像採集装置の内部パラメーターは、オフラインキャリブレーションアルゴリズムにより得ることができる。
当該式(5)は仮想装置座標系
Figure 0006675448
と仮想平面座標系uとの間の座標変換関係を記述する。式(5)において、投影モデルFは、
Figure 0006675448
である。なお、
Figure 0006675448

Figure 0006675448
、fは仮想画像採集装置の焦点距離であり、
Figure 0006675448

Figure 0006675448
とはそれぞれ仮想画像採集装置の単一の画素の幅と高さの物理的サイズであり、
Figure 0006675448

Figure 0006675448
は仮想画像採集装置の内部パラメーターであり、
Figure 0006675448
は仮想画像採集装置の光軸とイメージング平面との交点の画素座標である。
本実施例において、予め仮想装置座標系
Figure 0006675448
の原点
Figure 0006675448
の地面からの高さhを測定しておいてもよく、仮想装置座標系
Figure 0006675448
は、仮想世界座標系
Figure 0006675448
を順に
Figure 0006675448
軸、
Figure 0006675448
軸、
Figure 0006675448
軸周りにα、β、γ角度だけそれぞれ回転させたものであると見なすことができ、仮想画像採集装置と目標車両との相対的位置が固定されると、α、β、γは固定値となり、外部パラメーターキャリブレーションアルゴリズムにより確定でき、これらのパラメーターは式(4)のR行列を確定するために用いられることができる。
なお、仮想画像採集装置により2D画像と3D画像の相互変換を実現する場合、仮想画像のイメージング効果を確保するために、本実施例では、目標車両の近距離範囲内の画像をより明瞭にする必要があるので、小さい焦点距離を設置する必要があり、例えば、仮想画像採集装置の焦点距離fを1にし、さらに画像の明晰さを確保するために、単一の画素の幅と高さの物理的サイズを大きくする必要があり、例えば、
Figure 0006675448

Figure 0006675448
とを100にし、そして、さらに小さい3D深度を設置してもよく、例えば3D深度Zを1にする。
すると、上記の一連の座標変換関係を構築することで、現実平面座標系と仮想平面座標系との座標変換関係を構築する。
これに基づいて、本実施例の一実現形態では、第1の実施例のS102における「前記現実画像に応じて仮想画像を生成する」ことは、具体的に、前記現実平面座標系と前記仮想平面座標系との間の座標変換関係に応じて、前記現実画像を仮想画像へ変換することを含んでもよい。この実現形態において、現実画像中の各画素点の現実平面座標系における座標を確定し、次に上記式(1)〜(5)により各画素点の仮想平面座標系における座標を算出し、現実画像中の画素点に対して座標位置変換を行うことにより、仮想画像を生成できる。
目標車両と左側車両とが異なる相対的位置に位置する場合、左側車両の車輪が現実画像で異なる形状となり、特に、左側車両が目標車両に近すぎると、左側車両の車輪が現実画像でわずかな特徴しかなく、当該車輪が仮想画像で多くの特徴を有し、そして、異なる第1の視角が採用される場合に、異なる相対的位置の車輪は類似する形状を示し、つまり、本実施例は目標車両と左側車両との間の相対的位置関係の制限を受けず、適切な第1の視角を採用すれば、左側車両の類似車輪形状を検出することができ、これにより左側車両の位置の確定を容易にすることと理解される。
直観的に理解するために、例を挙げて現実画像から仮想画像への変換効果について説明する。図5a〜図5dに示すように、図5aと図5bはいずれも現実画像であり、この二つの図に示すものは同一の左側車両であるが、目標車両との相対的位置は異なり、図5cは図5aに示す現実画像に対応する仮想画像であり、図3aの左側図(即ち図3b)に示す第1の視角での仮想画像であり、図5dは図5bに示す現実画像に対応する仮想画像であり、図3aの右側図に示す第1の視角での仮想画像であり、図5bに示す車輪が図3aの左側図に示す第1の視角を採用して仮想画像を生成する場合に、車輪は当該仮想画像に示されない。
これに基づいて、本実施例の一実現形態では、第1の実施例のS102における「前記仮想画像に応じて前記目標車両の側方車両の位置情報を確定する」ことは、具体的に、左側車両車輪の検出結果により、左側車両の位置情報を確定してもよい。図6に示すように、具体的には、以下のステップを含んでいる。
S601において、前記仮想画像で車輪を検出して、仮想車輪領域を取得する。
仮想画像中の車輪を関心領域(region of interest、ROIと略称する)として検出し、本実施例では、検出された車輪ROIを仮想車輪領域と称する。
一の具体的実施形態では、S601は、具体的に、車輪認識モデルを利用して、仮想画像で車輪を検出することを含んでもよい。本実施形態において、予め大量の車輪を含む車両サンプル画像を収集する必要があり、大量の車両サンプル画像中の車輪特徴に対して学習を行うことで、車輪を認識するための車輪認識モデルを取得し、このように、仮想画像を生成した後、当該車輪認識モデルを利用して仮想画像中の車輪を検出することができる。
具体的実現の際、仮想画像の検出領域内でスライディングウィンドウを用いて車輪サンプルを採集し、検出する。例えば、検出領域は、図7に示すように、左前、右前の二つの領域に区分し、それぞれの領域のサイズは3.5メートル×(15−r)メートルであり、なお、rは現実画像採集装置が見ることができる最も近い距離であり、現実画像採集装置の取り付け位置と外部パラメーターに相関する。本実施例では、左前領域を検出する必要があり、横方向と縦方向に0.3メートル又は他の長さをステップサイズとし、スライディングウィンドウが採集した車輪サンプルを取得し、前記車輪認識モデルにより、1フレームごとの採集画像中の車輪の検出結果を得ることができる。
例を挙げて仮想画像中の車輪検出結果について説明し、図8a〜図8fに示すように、図8aと図8dは現実画像であり、この二つの図に示すものは同一の左側車両であるが、目標車両との相対的位置は異なり、図8bは図8aに示す現実画像に対応する仮想画像であり、図3aの左側図(即ち図3b)に示す第1の視角での仮想画像であり、図8cも図8aに示す現実画像に対応する仮想画像であり、図3aの右側図に示す第1の視角での仮想画像であり、図8eは図8dに示す現実画像に対応する仮想画像であり、図3aの左側図(即ち図3b)に示す第1の視角での仮想画像であり、図8fも図8dに示す現実画像に対応する仮想画像であり、図3aの右側図に示す第1の視角での仮想画像である。なお、各仮想画像において、一つ又は複数のボックスによって選択される領域は、車輪認識モデルにより検出された車輪領域であり、ただし、左側車両の位置によって、図8eに車輪を示すことができず、故に、図8fから車輪領域を検出する。
S602において、前記現実平面座標系と前記仮想平面座標系との間の座標変換関係に応じて、前記仮想車輪領域を前記現実平面座標系に変換することで、変換後の現実車輪領域を取得する。
この実現形態では、仮想車輪領域中の各画素点の仮想平面座標系における座標を確定し、次に、上記式(1)〜(5)により各画素点の現実平面座標系における座標を算出し、仮想画像中の画素点に対して座標位置変換を行うことにより、変換後の現実車輪領域を得ることができる。
S603において、前記現実平面座標系と前記現実世界座標系との間の座標変換関係に応じて、前記現実車輪領域を前記現実世界座標系に変換することで、前記目標車両の側方車両車輪の位置情報を取得し、なお、当該側方車両は左側車両である。
本実現形態において、現実車輪領域中の各画素点の現実平面座標系における座標を確定し、次に、上記式(1)〜(5)における相関式により、各画素点の現実世界座標系における座標を算出してもよく、即ち、左側車両車輪の現実世界系における座標を確定し、左側車両車輪の現実世界座標系における座標を確定すると、左側車両とその車輪との位置関係に応じて、左側車両の目標車両に対する位置を確定することができる。
実際の応用において、当該実施例が目標車両のFCWシステムに応用されると、左側車両と目標車両との距離が近いと確定された場合、光、音、振動などの形で運転者に警告することができ、当該実施例が目標車両のACCシステムに応用されると、左側車両と目標車両との距離が近いと確定された場合、目標車両と左側車両との間隙を制御することで目標車両の運転安全を確保することができる。
さらに、上記ステップS601において、車輪認識モデルを採用して仮想画像で車輪を検出する場合に、検出結果に一部の誤認識がある可能性があり、ステップS602にて得られた領域画像に非車輪領域が存在してしまう。従って、本実施例では、リアルタイムに目標車両の側方車両車輪に対してオプティカルフロー追跡を行うことで、現時点での現実車輪領域を取得し、即ち、オプティカルフロー追跡された現実車輪領域を取得し、オプティカルフロー追跡された現実車輪領域を利用して、ステップS602での非車輪領域を除去するようにする。
なお、前記した前記現時点での現実車輪領域を取得し、即ちオプティカルフロー追跡された現実車輪領域を取得することは、具体的に、現時点でのオプティカルフロー追跡画像に対してエッジ補完を行い、補完されたオプティカルフロー追跡画像に応じて、側方車両車輪の現実車輪領域を得ることを含んでもよい。具体的には、既存のオプティカルフロー追跡方法は、追跡画像エッジの目標物体の追跡効果が理想的ではなく、本実施例における目標物体が左側車両車輪であり、左側車両車輪はほとんどの時間追跡画像の左側に現れるので、本実施例は追跡画像に対してエッジ補完を行い、例えば、画像のエッジに白い領域を増加し、次に、ピラミッドLK(Lucas Kanade)オプティカルフロー方法を採用して、補完画像において車輪追跡を行うことにより、追跡結果の精度を向上させることができる。
上記の内容に基づいて、本実施例の一実現形態において、上記ステップS602の後は、変換された現実車輪領域とオプティカルフロー追跡された現実車輪領域とをフュージョンすることで、フュージョンされた現実車輪領域を取得することをさらに含んでもよい。本実現形態において、オプティカルフロー追跡の結果を取得した後、それとステップS602における画像変換結果とをフュージョンすることで画像変換結果における非車輪領域を除去することができ、例えば、図9に示すように、ボックス選択領域がフュージョン結果であり、次に、フュージョンされた現実車輪領域を利用して後続するステップS603を実行する。
さらに、フュージョンされた現実車輪領域について、非車輪領域が存在する可能性があり、車輪検出結果の精度を確保するために、本実施例の一実現形態において、フュージョンされた現実車輪領域を取得した後には、現時点よりも前の一つの歴史時点又は複数の連続歴史時点について各歴史時点に対応する最終的現実車輪領域を取得し、歴史時点に対応する最終的現実車輪領域に応じて、フュージョンされた現実車輪領域に非車輪領域があるかどうかを判断し、非車輪領域があれば、当該非車輪領域を除去することをさらに含んでもよい。本実現形態において、フォワード関連の方式を採用して、現時点よりも前の最も近い検出時点又は複数の最も近い連続時刻を取得し、これらの検出時点はいずれも歴史時点であり、各歴史時点を前記現時点とすると、いずれも現実画像に基づいて左側車両の車輪を検出し、最終的現実車輪領域を取得し、現時点とこれらの歴史時点とが連続時間点を構成するので、検出された車輪領域に基づいて、この一連の時点における車輪の変化状況を確定でき、車輪変化位置が連続するはずであり、故に、これを基に現時点に対応するフュージョンされた現実車輪領域に非車輪領域があるかどうかを判断し、これにより、非車輪領域を除去でき、そして、除去操作を経て得られた現実車輪領域を利用して後続のステップS603を実行する。
以上より、本実施例は、座標変換関係により、現実画像を仮想画像へ変換してもよく、仮想画像で車輪を検出し、車輪検出結果によって目標車両の左側車両の位置情報を確定してもよい。具体的に、機械学習、オプティカルフロー追跡、及びマルチ時点画像関連付けなどの結合方式により、車輪領域を検出することで、車輪検出結果の精度を向上させ、これにより、左側車両の位置検出結果の精度を向上させる。
第三実施例
本実施例では、第1の実施例のステップS102の具体的実現形態について紹介し、具体的には、どのように目標車両の右側前方車両の位置情報を検出するかのことについて紹介する。
本実施例において、上記ステップS102における前記プリセット角度は第2の角度であってもよく、前記第2の視角は前記固定視角が水平方向に時計回りに第2の角度だけ回転された視角であり、これに基づいて、前記プリセット角度が前記第2の角度であると、前記目標車両の側方車両は前記目標車両の右側車両である。
本実施例では、固定視角で撮像された現実画像を、固定視角と異なる右側視角で示し、本実施例において、当該右側視角を第2の視角と称する。当該第2の視角の理解を容易にするために、例を挙げて説明し、当該第2の視角は、図2に示す固定視角を右へ一定の角度だけ回転させた視角であってもよく、つまり、固定視角を水平方向に時計回りに一定の角度だけ回転させ、本実施例において、回転させる一定の角度を第2の角度と称する。
本実施例は第2の角度を限定しない。例えば、当該第2の角度は、図4aの左側図に示す90度であってもよく、第2の角度が90度である場合に、画像採集装置が目標車両に取り付けられる際に、図4bに示すように、この際、画像採集装置の視角方向は右向きであり、即ち、視角方向と目標車両の進行方向とが90度をなす。また、例えば、当該第2の角度は、図4a右側図に示す30度であってもよく、第2の角度が30度である場合、画像採集装置の視角方向と目標車両の進行方向とが30度をなす。
なお、本実施例では、画像採集装置の固定視角について、実際に回転させることではないので、固定視角に対応する画像採集装置は現実画像採集装置であり、第2の視角に対応する画像採集装置は仮想画像採集装置である。
また、第2の実施例における第1の視角、本実施例における第2の視角及び固定視角の方向については、地面に平行であってもよく、地面に対して一定の角度をなしてもよく、実際の応用において、経験に応じて設定できる。
本実施例において、固定視角で撮像された現実画像に基づいて、当該現実画像に対して画像変換を行うことで、第2の視角での画像を取得し、本実施例では、当該画像を仮想画像と称する。理解できることは、第2の視角が異なると、異なる仮想画像に対応し、右側前方車両の有効な特徴を捕捉するために、リアルタイムで第2の視角を調整して、仮想画像に右側前方車両の有効な特徴を含ませることにより、これらの特徴に基づいて右側前方車両を正確に認識し、ひいては、右側前方車両の位置情報を確定することができる。
S102を実現するために、予め現実平面座標系と仮想平面座標系との間の座標変換関係を構築する必要があり、なお、現実平面座標系は固定視角でのイメージング平面に対応する2次元座標系であり、仮想平面座標系はプリセット視角でのイメージング平面に対応する2次元座標系であり、なお、当該プリセット視角は第2の視角であってもよい。
図2と図4bに基づいて現実平面座標系と仮想平面座標系について説明し、具体的に、図2示す現実画像採集装置の固定視角は一つのイメージング平面に対応し、当該イメージング平面に対して一つの2次元座標系uovを作成し、当該2次元座標系uovは現実平面座標系であり、同様に、図4bに示す仮想画像採集装置の第2の視角も一つのイメージング平面に対応し、当該イメージング平面に対して一つの2次元座標系uを作成し、当該2次元座標系uは仮想平面座標系である。
なお、第2の実施例における現実平面座標系と本実施例における現実平面座標系が同一の座標系であると、一回だけ作成すればよい。
区分を容易にするために、本実施例では、固定視角に対応する画像採集装置を現実画像採集装置と称し、第2の視角に対応する画像採集装置を仮想画像採集装置と称する。単純化のために、本実施例では、後続の内容において、目標車両の右側前方車両を右側車両と略称する。
本実施例の一実現形態において、前記現実平面座標系と仮想平面座標系との間の座標変換関係を構築することは、具体的に、ステップA2〜E2を含むことができるが、ステップA2〜E2の順序を限定しない。
ステップA2において、現実平面座標系と現実装置座標系との間の座標変換関係を構築し、なお、現実装置座標系は画像採集装置が固定視角に対応する場合に画像採集装置に対して構築した3次元座標系である。
なお、このステップA2は、第2の実施例におけるステップA1と同じであるので、相関する内容については、ステップA1を参照し、ここで重複しない。そして、ステップA1とステップA2は、一回だけ実行されてもよい。
ステップB2において、現実装置座標系と現実世界座標系との間の座標変換関係を構築し、現実世界座標系は、画像採集装置が固定視角に対応する場合に構築された世界座標系である。
このステップB2は、第2の実施例におけるステップB1と同じであるので、相関する内容については、ステップB1を参照し、ここで重複しない。そして、ステップB1とステップB2は、一回だけ実行されてもよい。
ステップC2において、現実世界座標系と仮想世界座標系との間の座標変換関係を構築し、仮想世界座標系は画像採集装置がプリセット視角に対応する場合に構築された世界座標系である。
本実施例において、仮想画像採集装置に対して世界座標系
Figure 0006675448
を構築し、当該世界座標系
Figure 0006675448
を仮想世界座標系と定義し、本実施例は仮想世界座標系
Figure 0006675448
の原点位置と座標軸方向を限定せず、目標車両の走行中、当該仮想世界座標系
Figure 0006675448
と目標車両との相対的位置は不変であればよい。例えば、図4bに示すように、仮想画像採集装置上のある点Aを取り、仮に、当該仮想画像採集装置がカメラである場合、当該カメラの光学的中心を取って点Aとしてもよく、点Aを通る垂線(即ち当該点を通り且つ地面に垂直な直線)と地面との交点を仮想世界座標系
Figure 0006675448
の原点
Figure 0006675448
とし、仮想世界座標系
Figure 0006675448

Figure 0006675448
軸、
Figure 0006675448
軸、
Figure 0006675448
軸について、
Figure 0006675448
軸は目標車両のリアに指向し、
Figure 0006675448
軸は目標車両の右方に指向し、
Figure 0006675448
軸は
Figure 0006675448
軸と
Figure 0006675448
軸に垂直であり地面に指向してもよい。また、例えば、4bに示す原点
Figure 0006675448
位置、
Figure 0006675448
軸方向、
Figure 0006675448
軸方向及び
Figure 0006675448
軸方向の四つの座標要素について、その中の一つ又は複数の座標要素を変えてもよく、例えば、目標車両上のある点を上記点Aとしてもよく、また、図4bに示す
Figure 0006675448
軸、
Figure 0006675448
軸、
Figure 0006675448
軸の向きを変えて、即ちその反対方向を取ってもよく、変えた座標系を仮想世界座標系
Figure 0006675448
とする。
なお、仮想画像採集装置は現実画像採集装置に対してフロント方向へS(S>0)メートルだけ前に移動すべきであり、その目的は、仮想画像に出来るだけ現実画像の右側領域までカバーさせるためである。
図2に示す現実世界座標系OXYZ及び図4bに示す仮想世界座標系
Figure 0006675448
を例として、3D実空間におけるいずれかの点Pについて、当該点の現実世界座標系OXYZにおける座標は
Figure 0006675448
であり、
Figure 0006675448
となると、当該点は目標車両の右側領域の空間点であり、当該点を仮想世界座標系
Figure 0006675448
に変換した座標は
Figure 0006675448
であり、座標変換式は
Figure 0006675448
である。当該式(6)は現実世界座標系OXYZと仮想世界座標系
Figure 0006675448
との間の座標変換関係を記述する。
ステップD2において、仮想世界座標系と仮想装置座標系との間の座標変換関係を構築し、なお、仮想装置座標系は画像採集装置がプリセット視角に対応する場合に画像採集装置に対して構築された3次元座標系である。
本実施例において、仮想画像採集装置に対して3次元座標系
Figure 0006675448
を設置し、当該3次元座標系
Figure 0006675448
を仮想装置座標系と定義し、本実施例は仮想装置座標系
Figure 0006675448
の原点位置と座標軸方向を限定せず、目標車両の走行中、仮想装置座標系
Figure 0006675448
と仮想画像採集装置との相対的位置は不変であればよい。例えば、図4bに示すように、仮想画像採集装置の光学的中心を原点
Figure 0006675448
として仮想装置座標系
Figure 0006675448
を構築し、
Figure 0006675448
軸と仮想画像採集装置の光軸とが重なり合い、
Figure 0006675448
は目標車両のリアに指向し、
Figure 0006675448
は地面に指向する。
3D実空間におけるいずれかの点Pについて、仮想装置座標系
Figure 0006675448
における座標
Figure 0006675448
と仮想世界座標系
Figure 0006675448
における座標
Figure 0006675448
とは以下の変換関係を有する。
Figure 0006675448
なお、Rは回転行列である。当該式(7)は仮想世界座標系
Figure 0006675448
と仮想装置座標系
Figure 0006675448
との間の座標変換関係を記述する。
ステップE2において、仮想装置座標系と仮想平面座標系との間の座標変換関係を構築する。図4bに示すように、3D実空間にいずれかの点Pについて、当該点の仮想装置座標系
Figure 0006675448
における座標は
Figure 0006675448
であり、P点が仮想画像に位置すれば、仮想平面座標系uに当該点に対応する唯一の点p(u2,v2)が存在し、対応関係は、以下のように記述する。
Figure 0006675448
なお、Fは仮想画像採集装置の投影モデルであり、仮想画像採集装置は現実画像採集装置が視角を変えた画像採集装置であるので、投影モデルは現実画像採集装置の内部パラメーターによって決まり、現実画像採集装置の内部パラメーターはオフラインキャリブレーションアルゴリズムにより得ることができる。
当該式(8)は、仮想装置座標系
Figure 0006675448
と仮想平面座標系uとの間の座標変換関係を記述する。式(8)において、投影モデルFは、
Figure 0006675448
である。なお、
Figure 0006675448

Figure 0006675448
、fは仮想画像採集装置の焦点距離であり、
Figure 0006675448

Figure 0006675448
はそれぞれ仮想画像採集装置の単一の画素の幅と高さの物理的サイズであり、
Figure 0006675448

Figure 0006675448
は仮想画像採集装置の内部パラメーターであり、
Figure 0006675448
は仮想画像採集装置の光軸とイメージング平面との交点の画素座標である。
本実施例において、予め仮想装置座標系
Figure 0006675448
の原点
Figure 0006675448
の地面からの高さhを測定してもよく、仮想装置座標系
Figure 0006675448
は、仮想世界座標系が順に
Figure 0006675448
軸、
Figure 0006675448
軸、
Figure 0006675448
軸周りにα、β、γ角度だけ回転されたものであると見なすことができ、仮想画像採集装置と目標車両との相対的位置が固定されると、α、β、γは固定値となり、外部パラメーターキャリブレーションアルゴリズムによって確定でき、これらのパラメーターは、式(7)のR行列を確定するために用いられる。
なお、仮想画像採集装置により2D画像と3D画像の相互変換を実現する場合、仮想画像のイメージング効果を確保するために、本実施例において、目標車両の近距離範囲内の画像をより明晰にする必要があるので、小さい焦点距離を設置する必要があり、例えば、仮想画像採集装置の焦点距離fを1に設置し、さらに画像の明晰度を確保するために、単一の画素の幅と高さの物理的サイズを大きくする必要があり、例えば、
Figure 0006675448

Figure 0006675448
を100とし、そして、さらに小さい3D深度を設置し、例えば、3D深度Zを1にする。
すると、上記の一連の座標変換関係を構築することで、現実平面座標系と仮想平面座標系との座標変換関係を構築する。
これに基づいて、本実施例の一実現形態では、第1の実施例のS102における「前記現実画像に応じて仮想画像を生成する」ことは、具体的に、前記現実平面座標系と前記仮想平面座標系との間の座標変換関係に応じて、前記現実画像を仮想画像に変換することを含んでもよい。この実現形態では、現実画像中の各画素点の現実平面座標系における座標を確定し、次に上記式(1)〜(2)及び(6)〜(8)により各画素点の仮想平面座標系における座標を算出し、現実画像中の画素点に対して座標位置変換を行うことにより、仮想画像を生成する。
目標車両と左側車両とが異なる相対的位置に位置する場合、右側車両の車輪が現実画像で異なる形状となり、特に右側車両が目標車両に近すぎると、右側車両の車輪が現実画像でわずかな特徴しかなく、当該車輪が仮想画像に多くの特徴を有し、そして、異なる第2の視角が採用される場合に、異なる相対的位置の車輪は、類似する形状を示し、つまり、本実施例は目標車両と右側車両との間の相対的位置関係の制限を受けず、適切な第2の視角を採用すれば、右側車両の類似車輪形状を検出することができ、これにより右側車両の位置の確定を容易にすることと理解される。
これに基づいて、本実施例の一実現形態において、第1の実施例のS102における「前記仮想画像に応じて前記目標車両の側方車両の位置情報を確定する」ことは、具体的に、右側車両の車輪の検出結果により、右側車両の位置情報を確定してもよい。図10に示すように、具体的に、以下のステップを含むことができる。
S1001において、前記仮想画像で車輪を検出して、仮想車輪領域を取得する。
仮想画像における車輪を関心領域(region of interest、ROIと略称する)として検出し、本実施例では、検出された車輪ROIを仮想車輪領域と称する。
一つの具体的実施形態において、S1001は、具体的に、車輪認識モデルを利用して、前記仮想画像で車輪を検出することを含んでもよい。この実施形態において、予め大量の車輪を含む車両サンプル画像を収集する必要があり、大量の車両サンプル画像中の車輪特徴に対して学習を行って、車輪を認識するための車輪認識モデルを取得し、このように、仮想画像を生成した後、当該車輪認識モデルにより仮想画像中の車輪を検出することができる。
なお、上記第2の実施例及び本実施例はともに車輪認識モデルを用いる必要があり、上記第2の実施例及び本実施例の車輪認識モデルが同一のモデルであると、一回だけトレーニングすればよく、もちろん、左側車両と右側車両とにそれぞれ車輪認識モデルをトレーニングしてもよい。
具体的実現の際、仮想画像の検出領域内でスライディングウィンドウを用いて車輪サンプルを採集し、検出する。図7に示すように、本実施例において右前の領域を検出する必要があり、横方向と縦方向に0.3メートル又は他の長さをステップサイズとし、スライディングウィンドウが採集した車輪サンプルを取得し、前記車輪認識モデルにより、1フレームごとの採集画像中の車輪の検出結果を得る。
S1002において、前記現実平面座標系と前記仮想平面座標系との間の座標変換関係に応じて、前記仮想車輪領域を前記現実平面座標系に変換することで、変換された現実車輪領域を取得する。
本実現形態では、仮想車輪領域中の各画素点の仮想平面座標系における座標を確定し、次に上記式(1)〜(2)及び(6)〜(8)により各画素点の現実平面座標系における座標を算出し、仮想画像中の画素点に対して座標位置変換を行うことで、変換された現実車輪領域を取得することができる。
S1003において、前記現実平面座標系と前記現実世界座標系との間の座標変換関係に応じて、前記現実車輪領域を前記現実世界座標系に変換することで、前記目標車両の側方車両車輪の位置情報を取得し、なお、当該側方車両は右側車両である。
この実現形態において、現実車輪領域中の各画素点の現実平面座標系における座標を確定し、次に、上記式(1)〜(2)及び(6)〜(8)における相関式により、各画素点の現実世界座標系における座標を算出でき、即ち、右側車両車輪の現実世界系における座標を確定し、右側車両車輪の現実世界座標系における座標を確定すると、右側車両とその車輪との位置関係に応じて、右側車両の目標車両に対する位置を確定することができる。
実際の応用において、当該実施例が目標車両のFCWシステムに応用されると、右側車両と目標車両との距離が近いと確定された場合、光、音、振動などの形で運転者に警告でき、当該実施例が目標車両のACCシステムに応用されると、右側車両と目標車両との距離が近いと確定された場合、目標車両と右側車両との間隙を制御することで目標車両の運転安全を確保できる。
さらに、上記ステップS1001において、車輪認識モデルは仮想画像で車輪を検出する場合に、検出結果に一部の誤認識ある可能性があり、これにより、ステップS1002にて得た領域画像に非車輪領域が存在してしまう。従って、本実施例では、リアルタイムに目標車両の側方車両車輪に対してオプティカルフロー追跡を行って、現時点での現実車輪領域を取得し、即ち、オプティカルフロー追跡された現実車輪領域を取得することで、オプティカルフロー追跡した現実車輪領域を利用して、ステップS1002での非車輪領域を除去するようにする。
なお、前記した現時点での現実車輪領域を取得する、即ちオプティカルフロー追跡された現実車輪領域を取得することは、具体的に、現時点でのオプティカルフロー追跡画像に対してエッジ補完を行い、補完されたオプティカルフロー追跡画像に応じて、側方車両車輪の現実車輪領域を得ることを含んでもよい。具体的には、既存のオプティカルフロー追跡方法は、追跡画像のエッジに位置する目標物体の追跡効果が理想的ではなく、本実施例における目標物体が右側車両車輪であり、右側車両車輪はほとんどの時間追跡画像の右側に現れるので、本実施例は追跡画像に対してエッジ補完を行い、例えば、画像のエッジに白い領域を増加し、次にピラミッドLK(Lucas Kanade)オプティカルフロー方を採用して、補完画像において車輪追跡を行うことにより、追跡結果の精度を向上させることができる。
上記内容に基づいて、本実施例の一実現形態において、上記ステップS1002の後には、変換された現実車輪領域とオプティカルフロー追跡された現実車輪領域とをフュージョンすることで、フュージョンされた現実車輪領域を取得することをさらに含んでもよい。本実施形態において、オプティカルフロー追跡結果を取得した後、それとステップS1002での画像変換結果とをフュージョンすることで、画像変換結果における非車輪領域を除去し、そして、フュージョンされた現実車輪領域を利用して後続するステップS1003を実行する。
さらに、フュージョンされた現実車輪領域について、非車輪領域が存在する可能性があり、車輪検出結果の精度を確保するために、本実施例の一実現形態において、フュージョンされた現実車輪領域を取得した後には、現時点よりも前の一つの歴史時点又は複数の連続歴史時点について各歴史時点に対応する最終的現実車輪領域を取得し、歴史時点に対応する最終的現実車輪領域に応じて、フュージョンされた現実車輪領域に非車輪領域があるかどうかを判断し、非車輪領域があれば、当該非車輪領域を除去することをさらに含んでもよい。本実現形態において、フォワード関連の方式を採用して、現時点よりも前の最も近い検出時点又は複数の最も近い連続時刻を取得し、これらの検出時点はいずれも歴史時点であり、各歴史時点を前記現時点とすると、現実画像に基づいて右側車両の車輪を検出し、最終的現実車輪領域を取得し、現時点とこれらの歴史時点とが連続時間点を構成するので、検出された車輪領域に基づいて、この一連の時点における車輪の変化状況を確定してもよく、車輪変化位置が連続するはずであり、故に、これを基に現時点に対応するフュージョンされた現実車輪領域に非車輪領域があるかどうかを判断し、これにより、非車輪領域を除去し、そして、除去操作を経て得られた現実車輪領域を利用して後続のステップS1003を実行してもよい。
以上より、本実施例は、座標変換関係により、現実画像を仮想画像へ変換してもよく、仮想画像で車輪を検出し、車輪検出結果によって目標車両の右側車両の位置情報を確定してもよい。具体的に、機械学習、オプティカルフロー追跡、及びマルチ時点画像関連付けなどの結合方式により、車輪領域を検出することで、車輪検出結果の精度を向上させ、これにより、左側車両の位置検出結果の精度を向上させることができる。
第四実施例
図11を参照して、本実施例が提供する車両位置検出装置の構成模式図であり、当該装置は、
目標車両に取り付けられた画像採集装置が前記目標車両の前方領域を撮像した現実画像を取得するための現実画像取得ユニット1101と、
前記現実画像に応じて仮想画像を生成するための仮想画像生成ユニット1102と、
前記仮想画像に応じて前記目標車両の側方車両の位置情報を確定するための車両位置確定ユニット1103とを含み、
前記現実画像は、前記画像採集装置が現時点に固定視角で撮像した画像であり、
前記仮想画像は、現時点で前記画像採集装置のプリセット視角での画像であり、前記プリセット視角は前記固定視角が水平方向で所定の角度だけ回転された視角である。
実施例の一実現形態において、前記プリセット角度は第1の角度又は第2の角度であり、前記第1の視角は前記固定視角が水平方向に反時計回りに第1の角度だけ回転された視角であり、前記第2の視角は前記固定視角が水平方向に時計回りに第2の角度だけ回転された視角であり、
それに対応して、前記プリセット角度が前記第1の角度であると、前記目標車両の側方車両は前記目標車両の左側車両であり、前記プリセット角度が前記第2の角度であると、前記目標車両の側方車両は前記目標車両の右側車両であってもよい。
実施例の一実現形態において、前記装置は、
現実平面座標系と仮想平面座標系との間の座標変換関係を構築するための変換関係構築ユニットをさらに含み、前記現実平面座標系は前記固定視角でのイメージング平面に対応する2次元座標系であり、前記仮想平面座標系は前記プリセット視角でのイメージング平面に対応する2次元座標系であり、
前記仮想画像生成ユニット1102は、具体的に、前記現実平面座標系と前記仮想平面座標系との間の座標変換関係に応じて、前記現実画像を仮想画像へ変換するために用いられてもよい。
実施例の一実現形態において、前記変換関係構築ユニットは、
前記現実平面座標系と、前記画像採集装置が前記固定視角に対応する場合に前記画像採集装置に対して構築された3次元座標系である現実装置座標系との間の座標変換関係を構築するための第1の構築サブユニットと、
前記現実装置座標系と、前記画像採集装置が前記固定視角に対応する場合に構築された世界座標系である現実世界座標系との間の座標変換関係を構築するための第2の構築サブユニットと、
前記現実世界座標系と、前記画像採集装置が前記プリセット視角に対応する場合に構築された世界座標系である仮想世界座標系との間の座標変換関係を構築するための第3の構築サブユニットと、
前記仮想世界座標系と、前記画像採集装置が前記プリセット視角に対応する場合に前記画像採集装置に対して構築された3次元座標系である仮想装置座標系との間の座標変換関係を構築するための第4の構築サブユニットと、
前記仮想装置座標系と前記仮想平面座標系との間の座標変換関係を構築するための第5の構築サブユニットとを含む。
実施例の一実現形態において、前記車両位置確定ユニット1103は、
前記仮想画像で車輪を検出して、仮想車輪領域を取得するための仮想車輪検出サブユニットと、
前記現実平面座標系と前記仮想平面座標系との間の座標変換関係に応じて、前記仮想車輪領域を前記現実平面座標系に変換することで、変換された現実車輪領域を取得するための現実車輪取得サブユニットと、
前記現実平面座標系と前記現実世界座標系との間の座標変換関係に応じて、前記現実車輪領域を前記現実世界座標系に変換することで、前記目標車両の側方車両車輪の位置情報を取得するための車輪位置確定サブユニットとを含んでもよい。
実施例の一実現形態において、前記装置は、
大量の車両サンプル画像中の車輪特徴に対して学習を行うことで、車輪を認識するための車輪認識モデルを取得するための認識モデル作成ユニットをさらに含み、
前記仮想車輪検出サブユニットは、具体的に、前記車輪認識モデルを利用して、前記仮想画像で車輪を検出するために用いられてもよい。
実施例の一実現形態において、前記装置は、
前記目標車両の側方車両車輪に対してオプティカルフロー追跡を行うことで、前記現時点での現実車輪領域を取得するためのオプティカルフロー追跡ユニットをさらに含み、
前記車両位置確定ユニット1103は、
変換された現実車輪領域を取得した後、変換された現実車輪領域とオプティカルフロー追跡された現実車輪領域とをフュージョンすることで、フュージョンされた現実車輪領域を取得するための車輪フュージョンサブユニットをさらに含んでもよい。
実施例の一実現形態において、前記オプティカルフロー追跡ユニットは、
前記目標車両の側方車両車輪に対してオプティカルフロー追跡を行うためのオプティカルフロー追跡サブユニットと、
前記現時点でのオプティカルフロー追跡画像に対してエッジ補完を行うためのエッジ補完サブユニットと、
補完されたオプティカルフロー追跡画像に応じて、前記側方車両車輪の現実車輪領域を取得するための領域取得サブユニットとを含む。
実施例の一実現形態において、前記車両位置確定ユニット1103は、
フュージョンされた現実車輪領域を取得した後、前記現時点よりも前の一つの歴史時点又は複数の連続歴史時点について、前記歴史時点に対応する最終的現実車輪領域を取得するための歴史車輪取得サブユニットと、
前記歴史時点に対応する最終的現実車輪領域に応じて、前記フュージョンされた現実車輪領域に非車輪領域があるかどうかを判断し、非車輪領域があれば、前記非車輪領域を除去するための領域除去サブユニットとをさらに含んでもよい。
さらに、本願の実施例は、プロセッサー、メモリ、システムバスを含む車両位置検出装置を提供し、
前記プロセッサー及び前記メモリは前記システムバスを介して互いに接続し、
前記メモリは、コマンドを含む一つ又は複数のプログラムを記憶するためのものであり、前記コマンドが前記プロセッサーに実行される場合に前記プロセッサーに上記車両位置検出方法のいずれかの実現方法を実行させる。
さらに、本願の実施例は、コンピュータ読み取り可能な記憶媒体をさらに提供し、前記コンピュータ読み取り可能な記憶媒体にコマンドが記憶されており、前記コマンドが端末装置で実行される場合に、前記端末装置に上記車両位置検出方法のいずれかの実現方法を実行させる。
さらに、本願の実施例は、また、コンピュータープログラム製品を提供し、前記コンピュータープログラム製品が端末で実行される場合に、前記端末装置に上記車両位置検出方法のいずれかの実現方法を実行させる。
上記実施形態の記述により、当業者であれば、上記実施例に係る方法のステップの全部または一部がソフトウェアと必要な汎用ハードウェアプラットフォームにより実現されてもよいことを容易に理解可能である。 このような理解に基づいて、本発明の技術案は、本質的又は従来技術に寄与する部分がコンピュータソフトウェア製品として具現化されてもよく、このコンピュータソフトウェア製品は、ROM/RAM、磁気ディスク、及び光ディスク等の記憶媒体に格納されていてもよく、一台のコンピュータ機器(パーソナルコンピュータ、サーバ、又はメディアゲートウェイ等のネットワーク通信装置であってもよい)に本願の各実施例又は実施例の一部を実行させることを可能にするように、複数のコマンドを含む。
なお、本明細書の各実施例は、プログレッシブ方式で記述しており、各実施例は、他の実施例との差異に重点を置いている。各実施例間で同一又は同様の部分については、相互に参照すればよい。実施例に開示されている装置については、実施例に開示されている方法に対応するため、相関するところについて、方法の説明を参照すればよい。
また、なお、本明細書において、各例の「第1」と「第2」等などの関係用語は、ただ一つの実体又は操作と他の一つの実体又は操作と区分するための用語であり、これらの実体又は操作同士にこのような実際の関係又は順序が存在することが示唆されていない。且つ、用語である「含む」や「包含」又は他の変更用語は、非排他的包含もカバーする。一連の要素を含む過程、方法、物品又はデバイスは、それらの要素だけでなく、明確に記載されていない他の要素や、この過程、方法、物品又はデバイスに固有された要素を含んでもよい。さらに限定されていない場合、「一つの…を含む」で限定された要素は、前記要素の過程、方法、物品又はデバイスにその他の同じ要素も含まれることを排除しない。
開示されている実施例についての上記説明は、当業者に、本願を実現又は使用できるようにする。これらの実施例についての各種の修正は、当業者にとって自明であり、この明細書に定義している一般的原理は、本願の精神又は範囲から逸脱しない場合に、他の実施例において実現されることができる。従って、本願はこの明細書に示すこれらの実施例に限定されず、この明細書に開示されている原理と新規な特点に一致する最も広い範囲に合わせる。

Claims (15)

  1. 車両位置検出方法であって、
    目標車両に取り付けられた画像採集装置が前記目標車両の前方領域を撮像した、現実画像を取得し、
    前記現実画像に応じて仮想画像を生成し、前記仮想画像に応じて前記目標車両の側方車両の位置情報を確定する、ことを含み、
    前記現実画像は、前記画像採集装置が現時点に固定視角で撮像した画像であり
    前記仮想画像は、現時点で前記画像採集装置のプリセット視角での画像であり、前記プリセット視角は前記固定視角が水平方向にプリセット角度だけ回転された視角であり、
    前記方法は、
    現実平面座標系と仮想平面座標系との間の座標変換関係を構築することをさらに含み、前記現実平面座標系は、前記固定視角でのイメージング平面に対応する2次元座標系であり、前記仮想平面座標系は、前記プリセット視角でのイメージング平面に対応する2次元座標系であり、
    前記現実画像に応じて前記仮想画像を生成することは、
    前記現実平面座標系と前記仮想平面座標系との間の座標変換関係に応じて、前記現実画像を仮想画像へ変換することを含み、
    現実平面座標系と、仮想平面座標系との間の座標変換関係を構築することは、
    前記現実平面座標系と、前記画像採集装置が前記固定視角に対応する場合に前記画像採集装置に対して構築された3次元座標系である現実装置座標系との間の座標変換関係を構築し、
    前記現実装置座標系と、前記画像採集装置が前記固定視角に対応する場合に構築された世界座標系である現実世界座標系との間の座標変換関係を構築し、
    前記現実世界座標系と、前記画像採集装置が前記プリセット視角に対応する場合に構築された世界座標系である仮想世界座標系との間の座標変換関係を構築し、
    前記仮想世界座標系と、前記画像採集装置が前記プリセット視角に対応する場合に前記画像採集装置に対して構築された3次元座標系である仮想装置座標系との間の座標変換関係を構築し、
    前記仮想装置座標系と前記仮想平面座標系との間の座標変換関係を構築する、ことを含み、
    前記仮想画像に応じて前記目標車両の側方車両の位置情報を確定することは、
    前記仮想画像で車輪を検出して、仮想車輪領域を取得し、
    前記現実平面座標系と前記仮想平面座標系との間の座標変換関係に応じて、前記仮想車輪領域を前記現実平面座標系に変換することで、変換された現実車輪領域を取得し、
    前記現実平面座標系と前記現実世界座標系との間の座標変換関係に応じて、前記現実車輪領域を前記現実世界座標系に変換することで、前記目標車両の側方車両車輪の位置情報を取得することを含むことを特徴とする、
    方法。
  2. 前記プリセット角度は第1の角度又は第2の角度であり、第1の視角は前記固定視角が水平方向に反時計回りに前記第1の角度だけ回転された視角であり、第2の視角は前記固定視角が水平方向に時計回りに前記第2の角度だけ回転された視角であり、
    対応するように、前記プリセット角度が前記第1の角度であると、前記目標車両の側方車両は前記目標車両の左側車両であり、前記プリセット角度が前記第2の角度であると、前記目標車両の側方車両は前記目標車両の右側車両であることを特徴とする請求項1に記載の方法。
  3. 前記方法は、
    大量の車両サンプル画像中の車輪特徴に対して学習を行うことで、車輪を認識するための車輪認識モデルを得ることをさらに含み、
    前記仮想画像で車輪を検出することは、
    前記車輪認識モデルを利用して、前記仮想画像で車輪を検出することを含むことを特徴とする請求項に記載の方法。
  4. 前記方法は、
    前記目標車両の側方車両車輪に対してオプティカルフロー追跡を行うことで、前記現時点での現実車輪領域を取得することをさらに含み、
    変換された前記現実車輪領域を取得した後に、
    変換された前記現実車輪領域とオプティカルフロー追跡された現実車輪領域とをフュージョンすることで、フュージョンされた前記現実車輪領域を取得することをさらに含むことを特徴とする請求項に記載の方法。
  5. 現時点での前記現実車輪領域を取得することは、
    前記現時点でのオプティカルフロー追跡画像に対してエッジ補完を行い、
    補完されたオプティカルフロー追跡画像に応じて、前記側方車両車輪の現実車輪領域を取得する、ことを含むことを特徴とする請求項に記載の方法。
  6. フュージョンされた前記現実車輪領域を取得する後に、
    前記現時点よりも前の一つの歴史時点又は複数の連続歴史時点について、前記歴史時点に対応する最終的現実車輪領域を取得し、
    前記歴史時点に対応する最終的現実車輪領域に応じて、前記フュージョンされた現実車輪領域に非車輪領域があるかどうかを判断し、非車輪領域があれば、前記非車輪領域を除去することをさらに含むことを特徴とする請求項又はに記載の方法。
  7. 車両位置検出装置であって、
    目標車両に取り付けられた画像採集装置が前記目標車両の前方領域を撮像した現実画像を取得するための現実画像取得ユニットと、
    前記現実画像に応じて仮想画像を生成するための仮想画像生成ユニットと、
    前記仮想画像に応じて前記目標車両の側方車両の位置情報を確定するための車両位置確定ユニットとを含み、
    前記現実画像は、前記画像採集装置が現時点に固定視角で撮像した画像であり、
    前記仮想画像は、現時点で前記画像採集装置のプリセット視角での画像であり、前記プリセット視角は前記固定視角が水平方向にプリセット角度だけ回転された視角であり、
    前記装置は、
    現実平面座標系と仮想平面座標系との間の座標変換関係を構築するための変換関係構築ユニットをさらに含み、前記現実平面座標系は前記固定視角でのイメージング平面に対応する2次元座標系であり、前記仮想平面座標系は前記プリセット視角でのイメージング平面に対応する2次元座標系であり、
    前記仮想画像生成ユニットは、具体的に、前記現実平面座標系と前記仮想平面座標系との間の座標変換関係に応じて、前記現実画像を仮想画像へ変換し、
    前記変換関係構築ユニットは、
    前記現実平面座標系と、前記画像採集装置が前記固定視角に対応する場合に前記画像採集装置に対して構築された3次元座標系である現実装置座標系との間の座標変換関係を構築するための第1の構築サブユニットと、
    前記現実装置座標系と、前記画像採集装置が前記固定視角に対応する場合に構築された世界座標系である現実世界座標系との間の座標変換関係を構築するための第2の構築サブユニットと
    前記現実世界座標系と、前記画像採集装置が前記プリセット視角に対応する場合に構築された世界座標系である仮想世界座標系との間の座標変換関係を構築するための第3の構築サブユニットと、
    前記仮想世界座標系と、前記画像採集装置が前記プリセット視角に対応する場合に前記画像採集装置に対して構築された3次元座標系である仮想装置座標系との間の座標変換関係を構築するための第4の構築サブユニットと、
    前記仮想装置座標系と前記仮想平面座標系との間の座標変換関係を構築するための第5の構築サブユニットとを含み、
    前記車両位置確定ユニットは、
    前記仮想画像で車輪を検出して、仮想車輪領域を取得するための仮想車輪検出サブユニットと、
    前記現実平面座標系と前記仮想平面座標系との間の座標変換関係に応じて、前記仮想車輪領域を前記現実平面座標系に変換することで、変換された現実車輪領域を取得するための現実車輪取得サブユニットと、
    前記現実平面座標系と前記現実世界座標系との間の座標変換関係に応じて、前記現実車輪領域を前記現実世界座標系に変換することで、前記目標車両の側方車両車輪の位置情報を取得するための車輪位置確定サブユニットとを含むことを特徴とする
    装置。
  8. 前記プリセット角度は第1の角度又は第2の角度であり、第1の視角は前記固定視角が水平方向に反時計回りに前記第1の角度だけ回転された視角であり、第2の視角は前記固定視角が水平方向に時計回りに前記第2の角度だけ回転された視角であり、
    対応するように、前記プリセット角度が前記第1の角度であると、前記目標車両の側方車両は前記目標車両の左側車両であり、前記プリセット角度が前記第2の角度であると、前記目標車両の側方車両は前記目標車両の右側車両であることを特徴とする請求項に記載の装置。
  9. 前記装置は、
    大量の車両サンプル画像中の車輪特徴に対して学習を行うことで、車輪を認識するための車輪認識モデルを取得するための認識モデル作成ユニットをさらに含み、
    前記仮想車輪検出サブユニットは、具体的に、前記車輪認識モデルを利用して、前記仮想画像で車輪を検出することを特徴とする請求項に記載の装置。
  10. 前記装置は、
    前記目標車両の側方車両車輪に対してオプティカルフロー追跡を行うことで、前記現時点での現実車輪領域を取得するためのオプティカルフロー追跡ユニットをさらに含み、
    前記車両位置確定ユニットは、
    変換された現実車輪領域を取得した後、変換された現実車輪領域とオプティカルフロー追跡された現実車輪領域とをフュージョンすることで、フュージョンされた現実車輪領域を取得するための車輪フュージョンサブユニットをさらに含むことを特徴とする請求項に記載の装置。
  11. 前記オプティカルフロー追跡ユニットは、
    前記目標車両の側方車両車輪に対してオプティカルフロー追跡を行うためのオプティカルフロー追跡サブユニットと、
    前記現時点でのオプティカルフロー追跡画像に対してエッジ補完を行うためのエッジ補完サブユニットと、
    補完されたオプティカルフロー追跡画像に応じて、前記側方車両車輪の現実車輪領域を取得するための領域取得サブユニットとを含むことを特徴とする請求項10に記載の装置。
  12. 前記車両位置確定ユニットは、
    フュージョンされた現実車輪領域を取得した後、前記現時点よりも前の一つの歴史時点又は複数の連続歴史時点について、前記歴史時点に対応する最終的現実車輪領域を取得するための歴史車輪取得サブユニットと、
    前記歴史時点に対応する最終的現実車輪領域に応じて、前記フュージョンされた現実車輪領域に非車輪領域があるかどうかを判断し、非車輪領域があれば、前記非車輪領域を除去するための領域除去サブユニットとをさらに含むことを特徴とする請求項10又は11に記載の装置。
  13. プロセッサー、メモリ、システムバスを含む車両位置検出装置であって、
    前記プロセッサー及び前記メモリは、前記システムバスを介して互いに接続し、
    前記メモリは、コマンドを含む一つ又は複数のプログラムを記憶するためのものであり、前記コマンドが前記プロセッサーによって実行される場合に前記プロセッサーに請求項1〜のいずれか一項に記載の方法を実行させることを特徴とする車両位置検出装置。
  14. コンピュータ読み取り可能な記憶媒体であって、
    前記コンピュータ読み取り可能な記憶媒体にコマンドが記憶されており、前記コマンドが端末装置で実行される場合に、前記端末装置に請求項1〜のいずれか一項に記載の方法を実行させることを特徴とするコンピュータ読み取り可能な記憶媒体。
  15. コンピュータープログラム製品であって、
    前記コンピュータープログラム製品が端末装置で実行される場合に、前記端末装置に請求項1〜のいずれか一項に記載の方法を実行させることを特徴とするコンピュータープログラム製品。
JP2018146866A 2018-05-09 2018-08-03 車両位置検出方法及び装置 Active JP6675448B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN201810438659.3 2018-05-09
CN201810438659.3A CN108647638B (zh) 2018-05-09 2018-05-09 一种车辆位置检测方法及装置

Publications (2)

Publication Number Publication Date
JP2019196164A JP2019196164A (ja) 2019-11-14
JP6675448B2 true JP6675448B2 (ja) 2020-04-01

Family

ID=63047113

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018146866A Active JP6675448B2 (ja) 2018-05-09 2018-08-03 車両位置検出方法及び装置

Country Status (4)

Country Link
US (1) US10783657B2 (ja)
EP (1) EP3566903B1 (ja)
JP (1) JP6675448B2 (ja)
CN (1) CN108647638B (ja)

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110059393A (zh) * 2019-04-11 2019-07-26 东软睿驰汽车技术(沈阳)有限公司 一种车辆的仿真测试方法、装置及系统
CN111860074B (zh) * 2019-04-30 2024-04-12 北京市商汤科技开发有限公司 目标对象检测方法及装置、驾驶控制方法及装置
CN110363819B (zh) * 2019-06-25 2023-03-03 华为技术有限公司 智能汽车中图像采集设备标定的方法和相关设备
CN110853366B (zh) * 2019-11-20 2021-04-16 浙江大华技术股份有限公司 一种检测车辆停放位置方法及装置
CN111126336B (zh) * 2019-12-31 2023-07-21 潍柴动力股份有限公司 样本采集方法、装置及设备
US20230085455A1 (en) * 2020-02-20 2023-03-16 Nippon Telegraph And Telephone Corporation Vehicle condition estimation method, vehicle condition estimation device, and vehicle condition estimation program
CN111753663B (zh) * 2020-05-25 2023-12-12 上海欧菲智能车联科技有限公司 目标检测方法及装置
CN111898491B (zh) * 2020-07-15 2024-06-04 上海高德威智能交通系统有限公司 一种车辆逆向行驶的识别方法、装置及电子设备
CN112037159B (zh) * 2020-07-29 2023-06-23 中天智控科技控股股份有限公司 一种跨相机道路空间融合及车辆目标检测跟踪方法及系统
WO2022033652A1 (en) * 2020-08-12 2022-02-17 Dr. Ing. H.C. F. Porsche Aktiengesellschaft Device for and method of image signal processing in a vehicle
JP2022048454A (ja) * 2020-09-15 2022-03-28 マツダ株式会社 車両用表示装置
CN112389459B (zh) * 2020-10-16 2022-04-12 爱驰汽车(上海)有限公司 基于全景环视的人机交互方法及装置
CN112308899B (zh) * 2020-11-09 2024-05-07 北京经纬恒润科技股份有限公司 一种挂车角度识别方法及装置
CN112686209B (zh) * 2021-01-25 2024-07-02 深圳市艾为智能有限公司 基于车轮识别的车后盲区监测方法
CN113781796B (zh) * 2021-08-18 2023-04-07 青岛图灵科技有限公司 基于视频虚拟线圈的车流量检测方法及装置
CN113538317B (zh) * 2021-08-24 2023-12-15 北京奇艺世纪科技有限公司 图像处理方法、装置、终端设备以及可读存储介质
CN113824880B (zh) * 2021-08-26 2023-05-19 国网浙江省电力有限公司双创中心 一种基于目标检测和uwb定位的车辆跟踪方法
CN113534214B (zh) * 2021-09-09 2021-12-21 北斗天下卫星导航有限公司 一种车辆定位方法及装置
CN114399399B (zh) * 2022-03-25 2022-07-12 青岛慧拓智能机器有限公司 矿区车辆的卸载停靠方法、装置、计算机设备及存储介质
CN114705121B (zh) * 2022-03-29 2024-05-14 智道网联科技(北京)有限公司 车辆位姿测量方法、装置及电子设备、存储介质
CN116168271A (zh) * 2023-03-02 2023-05-26 上海安亭地平线智能交通技术有限公司 图像的处理方法、模型的训练方法、装置、设备和介质

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5666227A (en) 1994-05-02 1997-09-09 Ben-Ghiath; Yehoshua Passive panoramic viewing systems
JP2004157999A (ja) 2002-10-18 2004-06-03 D Link Corp 空間画像の画像変換方法及びリアルタイム送信方法
FI125167B (en) * 2013-10-03 2015-06-30 Jc Inertial Oy Measurement of angular information with inertia unit arranged on wheels
CN103631698B (zh) * 2013-12-20 2017-04-19 中安消技术有限公司 一种用于目标跟踪的摄像机ptz控制方法和装置
JP6550690B2 (ja) * 2014-05-15 2019-07-31 株式会社リコー 表示装置、車両
JP6159905B2 (ja) * 2015-05-27 2017-07-05 京セラ株式会社 演算装置、カメラ装置、車両及びキャリブレーション方法
JP6443236B2 (ja) * 2015-06-16 2018-12-26 株式会社Jvcケンウッド 虚像提示システム、画像投射装置および虚像提示方法
CN105488454B (zh) * 2015-11-17 2019-04-23 天津工业大学 基于单目视觉的前方车辆检测与测距
CN106991649A (zh) 2016-01-20 2017-07-28 富士通株式会社 对摄像装置所捕获的文档图像进行校正的方法和装置
CN105711501B (zh) * 2016-04-19 2017-10-31 深圳市航盛电子股份有限公司 一种基于汽车环视相机的盲区中车辆监测方法及系统
KR102493878B1 (ko) * 2016-06-27 2023-01-31 모빌아이 비젼 테크놀로지스 엘티디. 검출된 주차 차량의 특징에 기반을 둔 호스트 차량의 제어
CN106203398B (zh) 2016-07-26 2019-08-13 东软集团股份有限公司 一种检测车道边界的方法、装置和设备
CN109690652A (zh) 2016-09-16 2019-04-26 索尼公司 图像处理设备和方法以及图像处理系统
CN107248156A (zh) * 2017-05-27 2017-10-13 广州地铁集团有限公司 分段点自动提取的踏面轮廓拟合方法
CN107577988B (zh) * 2017-08-03 2020-05-26 东软集团股份有限公司 实现侧方车辆定位的方法、装置及存储介质、程序产品

Also Published As

Publication number Publication date
CN108647638A (zh) 2018-10-12
JP2019196164A (ja) 2019-11-14
US10783657B2 (en) 2020-09-22
EP3566903A1 (en) 2019-11-13
EP3566903B1 (en) 2021-12-01
US20190347819A1 (en) 2019-11-14
CN108647638B (zh) 2021-10-12

Similar Documents

Publication Publication Date Title
JP6675448B2 (ja) 車両位置検出方法及び装置
KR102275310B1 (ko) 자동차 주변의 장애물 검출 방법
KR102267562B1 (ko) 무인자동주차 기능 지원을 위한 장애물 및 주차구획 인식 장치 및 그 방법
JP4676373B2 (ja) 周辺認識装置、周辺認識方法、プログラム
JP6910973B2 (ja) 車両制御装置及びその制御方法並びに車両制御システム
JP6003673B2 (ja) 3次元位置推定装置、車両制御装置、および3次元位置推定方法
WO2019192145A1 (zh) 全景图的视野调整方法及装置、存储介质、电子设备
US20140267415A1 (en) Road marking illuminattion system and method
JP6450294B2 (ja) 物体検出装置、物体検出方法、及びプログラム
CN110555407B (zh) 路面车辆空间识别方法及电子设备
JP2022517940A (ja) ポットホール検出システム
US10896542B2 (en) Moving body image generation recording display device and program product
EP3594902B1 (en) Method for estimating a relative position of an object in the surroundings of a vehicle and electronic control unit for a vehicle and vehicle
JP2008219063A (ja) 車両周辺監視装置及び方法
KR102056147B1 (ko) 자율주행차량을 위한 거리 데이터와 3차원 스캔 데이터의 정합 방법 및 그 장치
JP2019511780A (ja) 自動車両の道路付近の物体を検出するための方法、コンピュータデバイス、運転者支援システム、及び、自動車両
KR20170118077A (ko) 차량 주변을 왜곡 없이 보여주는 방법 및 장치
KR102003387B1 (ko) 조감도 이미지를 이용한 교통 장애물의 검출 및 거리 측정 방법, 교통 장애물을 검출하고 거리를 측정하는 프로그램을 저장한 컴퓨터 판독가능 기록매체
CN109895697B (zh) 一种行车辅助提示系统及方法
JP7081098B2 (ja) 走行環境認識装置、走行環境認識方法、プログラム
JP7236849B2 (ja) 外界認識装置
Shan et al. Probabilistic egocentric motion correction of lidar point cloud and projection to camera images for moving platforms
JP7047291B2 (ja) 情報処理装置、撮像装置、機器制御システム、移動体、情報処理方法およびプログラム
JP5773334B2 (ja) オプティカルフロー処理装置及び表示半径マップ生成装置
JP7436331B2 (ja) 画像処理装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180803

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190903

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191202

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200218

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200310

R150 Certificate of patent or registration of utility model

Ref document number: 6675448

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313117

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250