JP7293931B2 - Position measurement data generation device, position measurement data generation method, and position measurement data generation program - Google Patents
Position measurement data generation device, position measurement data generation method, and position measurement data generation program Download PDFInfo
- Publication number
- JP7293931B2 JP7293931B2 JP2019131900A JP2019131900A JP7293931B2 JP 7293931 B2 JP7293931 B2 JP 7293931B2 JP 2019131900 A JP2019131900 A JP 2019131900A JP 2019131900 A JP2019131900 A JP 2019131900A JP 7293931 B2 JP7293931 B2 JP 7293931B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- measurement
- dimensional
- road
- dimensional position
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Length Measuring Devices By Optical Means (AREA)
- Image Analysis (AREA)
Description
本開示は、位置計測用データ生成装置、位置計測用データ生成方法、及び位置計測用データ生成プログラムに関する。 The present disclosure relates to a position measurement data generation device, a position measurement data generation method, and a position measurement data generation program.
特許文献1には、地上の計測エリアに対してカメラ視線の傾斜した画像を取り込み、画像処理によって認識した物体の位置を計測する方法において、カメラの設置位置に基づく世界座標系(地上座標系)と前記カメラの撮像面に対応する画像座標系の間を2次元的に結び付ける中間座標面を仮定し、この中間座標面に対する前記世界座標系と前記画像座標系それぞれの位置的関係を定めた幾何学モデルを作成し、このモデルを使用して前記物体の画像上の位置から地上の位置を求めることを特徴とする画像処理による位置計測方法が開示されている。 Patent Document 1 describes a method of capturing an image in which the line of sight of a camera is tilted with respect to a measurement area on the ground, and measuring the position of an object recognized by image processing. and the image coordinate system corresponding to the imaging plane of the camera are assumed to be two-dimensionally connected, and the positional relationship between the world coordinate system and the image coordinate system with respect to this intermediate coordinate plane is defined. A position measurement method based on image processing is disclosed, which is characterized by creating a physical model and using this model to determine the position on the ground from the position of the object on the image.
しかしながら、上記特許文献1に記載された技術では、カメラの撮影範囲である地表面が水平であるものと仮定しているため、起伏のある地形や坂道等の平坦ではない地表面の位置の計測精度が低下する場合がある、という問題があった。 However, the technique described in Patent Document 1 assumes that the ground surface, which is the imaging range of the camera, is horizontal. There is a problem that the accuracy may decrease.
本開示は、平坦ではない地表面における位置の計測精度が低下するのを抑制することができる位置計測用データ生成装置、位置計測用データ生成方法、及び位置計測用データ生成プログラムを提供することを目的とする。 The present disclosure provides a position measurement data generation device, a position measurement data generation method, and a position measurement data generation program that can suppress a decrease in position measurement accuracy on an uneven ground surface. With the goal.
本開示の第1態様に係る位置計測用データ生成装置は、三次元位置を測定する測定部を備えた測定車両が走行する道路を撮影可能な位置に設置されたカメラにより前記測定車両が撮影された撮影画像と、前記測定車両が前記道路を走行したときに前記測定部により測定された前記測定車両の三次元位置と、を取得する取得部(64)と、前記撮影画像から前記測定車両の画像位置を検出する検出部(66)と、前記画像位置と前記三次元位置とを対応付けた対応付け情報を生成する対応付け情報生成部(68)と、前記検出部により検出された前記画像位置を、前記三次元位置の座標系において三角形を構成する頂点を表す前記三次元位置に対応付けた頂点情報を生成する頂点情報生成部(70)と、を備える。 A position measurement data generating device according to a first aspect of the present disclosure is provided with a measuring unit that measures a three-dimensional position. and a three-dimensional position of the measurement vehicle measured by the measurement unit when the measurement vehicle travels on the road; A detection unit (66) for detecting an image position, a correspondence information generation unit (68) for generating correspondence information in which the image position and the three-dimensional position are associated with each other, and the image detected by the detection unit. and a vertex information generation unit (70) for generating vertex information in which positions are associated with the three-dimensional positions representing vertices forming a triangle in the coordinate system of the three-dimensional positions.
本開示の第2態様に係る位置計測装置は、第1~4の何れか1つの態様に記載の位置計測用データ生成装置により生成された対応付け情報及び頂点情報に基づいて、前記撮影画像上における任意の画像位置を、前記三次元位置に変換する変換部(62)を備える。 A position measurement device according to a second aspect of the present disclosure, based on the correspondence information and vertex information generated by the position measurement data generation device according to any one of the first to fourth aspects, on the captured image. a conversion unit (62) for converting an arbitrary image position in the above into the three-dimensional position.
本開示の第3態様に係る位置計測用データ生成方法は、コンピュータ(30A)が、三次元位置を測定する測定部を備えた測定車両が走行する道路を撮影可能な位置に設置されたカメラにより前記測定車両が撮影された撮影画像と、前記測定車両が前記道路を走行したときに前記測定部により測定された前記測定車両の三次元位置と、を取得し、前記撮影画像から前記測定車両の画像位置を検出し、前記画像位置と前記三次元位置とを対応付けた対応付け情報を生成し、検出された前記画像位置を、前記三次元位置の座標系において三角形を構成する頂点を表す前記三次元位置に対応付けた頂点情報を生成する。 A method for generating position measurement data according to a third aspect of the present disclosure includes: a computer (30A) having a measuring unit that measures a three-dimensional position; A photographed image of the measurement vehicle and a three-dimensional position of the measurement vehicle measured by the measurement unit when the measurement vehicle travels on the road are obtained, and the position of the measurement vehicle is acquired from the photographed image. detecting an image position, generating correspondence information in which the image position and the three-dimensional position are associated with each other, and representing the detected image position as a vertex forming a triangle in the coordinate system of the three-dimensional position; Generate vertex information associated with three-dimensional positions.
本開示の第4態様に係る位置計測用データ生成プログラム(40)は、コンピュータに、三次元位置を測定する測定部を備えた測定車両が走行する道路を撮影可能な位置に設置されたカメラにより前記測定車両が撮影された撮影画像と、前記測定車両が前記道路を走行したときに前記測定部により測定された前記測定車両の三次元位置と、を取得し、前記撮影画像から前記測定車両の画像位置を検出し、前記画像位置と前記三次元位置とを対応付けた対応付け情報を生成し、検出された前記画像位置を、前記三次元位置の座標系において三角形を構成する頂点を表す前記三次元位置に対応付けた頂点情報を生成することを含む処理を実行させるための位置計測用データ生成プログラムである。 A position measurement data generation program (40) according to a fourth aspect of the present disclosure includes a computer provided with a measurement unit for measuring a three-dimensional position, and a camera installed at a position capable of photographing a road on which a measurement vehicle travels. A photographed image of the measurement vehicle and a three-dimensional position of the measurement vehicle measured by the measurement unit when the measurement vehicle travels on the road are obtained, and the position of the measurement vehicle is acquired from the photographed image. detecting an image position, generating correspondence information in which the image position and the three-dimensional position are associated with each other, and representing the detected image position as a vertex forming a triangle in the coordinate system of the three-dimensional position; A position measurement data generation program for executing processing including generation of vertex information associated with a three-dimensional position.
本開示によれば、平坦ではない地表面における位置の計測精度が低下するのを抑制することができる、という効果を有する。 ADVANTAGE OF THE INVENTION According to this indication, it has the effect that it can suppress that the measurement accuracy of the position in the ground surface which is not flat can fall.
以下、図面を参照して、本発明を実施するための形態を詳細に説明する。 BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, embodiments for carrying out the present invention will be described in detail with reference to the drawings.
図1は、本実施形態に係る位置計測システム1の構成図である。位置計測システム1は、位置計測装置10、撮影装置14、及び車載装置12がネットワーク16を介して接続された構成である。
FIG. 1 is a configuration diagram of a position measurement system 1 according to this embodiment. The position measurement system 1 has a configuration in which a
車載装置12は、例えば図2に示すような測定車両Sに搭載される。図1に示すように、車載装置12は、三次元位置を測定する測定部18を備えている。測定部18は、例えばGNSS(Global Navigation Satellite System:全地球航法衛星システム)を用いて、三次元空間における車載装置12の三次元位置、すなわち測定車両Sの三次元位置を測定する。なお、実空間である三次元空間における三次元位置は、図2に示すように、x軸、y軸、及びz軸が互いに直交する世界座標系における座標として表される。
The in-
撮影装置14は、カメラ20及び画角調整装置22を備える。カメラ20は、CCD(Charge-coupled devices)センサ又はCMOS(Complementary metal-oxide-semiconductor)センサ等の撮像素子を備えた単眼のカメラである。カメラ20は、例えば図2に示すように、測定車両Sが走行する道路RDを撮影可能な位置に設置される。本実施形態では、道路RDが一例として片側2車線の合計4つの車線L1~L4からなる道路である場合について説明する。また、道路RDは、本実施形態においては、カメラ20の撮影範囲に含まれる道路を指すものとする。
The photographing
カメラ20は、予め定めた撮影間隔で測定車両Sや他の車両が走行する道路RDを撮影する。カメラ20で撮影された撮影画像の撮影画像データは、ネットワーク16を介して位置計測装置10に送信され、位置計測装置10において記憶される。ここで、撮影画像データとは、一例として、撮影画像と撮影時刻とが対応付けられたデータである。なお、撮影間隔は、測定車両Sが道路RDを走行中に複数回撮影される間隔に設定される。また、カメラ20は、道路RDを動画として撮影してもよい。この場合、撮影間隔はフレームレートで規定される。
The
測定車両Sは、カメラ20が撮影する道路RDを予め走行し、予め定めた測定間隔で世界座標系における三次元位置を測定する。なお、測定間隔が撮影間隔よりも短い方が、変換精度が高くなる。このため、測定間隔を撮影間隔よりも短くすることが好ましい。
The measurement vehicle S travels in advance on the road RD photographed by the
測定車両Sの三次元位置を測定した三次元位置測定データは、ネットワーク16を介して位置計測装置10に送信され、位置計測装置10において記憶される。ここで、三次元位置測定データとは、一例として、測定した三次元位置と、三次元位置を測定した測定時刻と、測定時刻における測定車両Sの移動ベクトルと、測定時刻における測定車両Sの移動速度と、が対応付けられたデータである。
Three-dimensional position measurement data obtained by measuring the three-dimensional position of the measurement vehicle S is transmitted to the
画角調整装置22は、位置計測装置10からの指示に基づいて、カメラ20の画角を任意の画角に調整する機能を有する。なお、本実施形態では、撮影装置14が画角調整装置22を備えている場合について説明するが、カメラ20の画角を固定とし、画角調整装置22を省略してもよい。
The angle-of-view adjusting
なお、詳細は後述するが、位置計測装置10は、カメラ20で撮影された撮影画像を画像処理することにより撮影画像上における測定車両Sの画像位置を検出する。従って、測定車両Sを検出しやすくするためのマーカーを例えば測定車両Sのルーフ部分等に設けておくことが好ましい。マーカーとしては、例えば、チェスボードパターン等の予め定めた特定のパターンが挙げられるが、これに限られるものではない。
Although the details will be described later, the
図3は、位置計測装置10の構成図である。位置計測装置10は、一般的なコンピュータを含む装置で構成される。
FIG. 3 is a configuration diagram of the
図3に示すように、位置計測装置10は、コントローラ30を備える。コントローラ30は、コンピュータの一例としてのCPU(Central Processing Unit)30A、ROM(Read Only Memory)30B、RAM(Random Access Memory)30C、不揮発性メモリ30D、及び入出力インターフェース(I/O)30Eを備える。そして、CPU30A、ROM30B、RAM30C、不揮発性メモリ30D、及びI/O30Eがバス30Fを介して各々接続されている。
As shown in FIG. 3 , the
また、I/O30Eには、操作部32、表示部34、通信部36、及び記憶部38が接続されている。
Also, the
操作部32は、例えばマウス及びキーボードを含んで構成される。
The
表示部34は、例えば液晶ディスプレイ等で構成される。
The
通信部36は、車載装置12及び撮影装置14等の外部装置とデータ通信を行うためのインターフェースである。
The
記憶部38は、ハードディスク等の不揮発性の記憶装置で構成される。記憶部38は、後述する位置計測用データ生成プログラム40、位置計測プログラム42、三次元位置測定データ44、撮影画像データ46、対応付け情報48、及び頂点情報50等を記憶する。CPU30Aは、記憶部38に記憶された位置計測用データ生成プログラム40及び位置計測プログラム42を読み込んで実行する。
The
次に、位置計測装置10のCPU30の機能構成について説明する。
Next, the functional configuration of the
図4に示すように、CPU30Aは、機能的には、位置計測用データ生成装置60及び変換部62を備える。位置計測用データ生成装置60は、取得部64、検出部66、対応付け情報生成部68、及び頂点情報生成部70を備える。
As shown in FIG. 4 , the
取得部64は、三次元位置を測定する測定部18を備えた測定車両Sが走行する道路RDを撮影可能な位置に設置されたカメラ20により測定車両Sが撮影された撮影画像と、測定車両Sが道路RDを走行したときに測定部18により測定された測定車両Sの三次元位置と、を取得する。
The
なお、本実施形態では、一例として、測定車両Sの三次元位置は、道路RDの対向車線の各々を走行したときに測定した三次元位置である場合について説明する。 In this embodiment, as an example, the three-dimensional position of the vehicle S to be measured is the three-dimensional position measured when traveling in each of the oncoming lanes of the road RD.
検出部66は、カメラ20が撮影した撮影画像から測定車両Sの画像位置を検出する。
The
対応付け情報生成部68は、撮影画像における測定車両Sの画像位置と三次元位置とを対応付けた対応付け情報48を生成する。生成した対応付け情報48は、記憶部38に記憶される。
The association
頂点情報生成部70は、検出部66により検出された画像位置を、三次元位置の座標系、すなわち世界座標系において三角形を構成する頂点を表す三次元位置に対応付けた頂点情報50を生成する。生成した頂点情報50は、記憶部38に記憶される。
The vertex
変換部62は、位置計測用データ生成装置60により生成された対応付け情報48及び頂点情報50からなる位置計測用データに基づいて、撮影画像上における任意の画像位置を、世界座標系における三次元位置に変換する。具体的には、変換部62は、変換対象の画像位置を領域内に含む三角形の頂点情報に基づいて変換パラメータを算出し、算出した変換パラメータを用いて変換対象の画像位置を三次元位置に変換する。
The
次に、本実施の形態に係る位置計測装置10の作用を説明する。まず、位置計測用データ生成処理について説明する。図3に示すように、位置計測用データ生成プログラム40は記憶部38に記憶されている。CPU30Aが位置計測用データ生成プログラム40を読み出して実行することにより、図5に示す位置計測用データ生成処理が実行される。なお、図5に示す位置計測用データ生成処理は、オペレータが操作部32を操作して位置計測用データ生成処理の実行を指示した場合に実行される。なお、オペレータの操作を介さすに、所定時間経過する毎に図5に示す処理が繰り返し自動的に実行されるようにしてもよい。
Next, the operation of the
なお、道路RDを測定車両Sが走行した際にカメラ20により撮影された撮影画像データ46及び道路RDを測定車両Sが走行した際に車載装置12の測定部18により測定された三次元位置の三次元位置測定データ44は、既に記憶部38に記憶されているものとする。また、本実施形態では、説明を簡単にするため、測定車両Sが1台の場合について説明する。
In addition, the
また、カメラ20及び測定部18は、各々時刻同期機能を備えており、カメラ20で撮影された撮影画像の撮影時刻と、測定部18で測定された測定車両Sの三次元位置を測定した測定時刻とは、同期しているものとする。なお、時刻同期の手法としては、種々公知の手法を用いることができ、例えばNTP(Network Time Protocol)等の手法を用いることができるが、これに限られるものではない。
In addition, the
ステップS100では、CPU30Aが、道路RDを測定車両Sが走行した際にカメラ20により撮影された撮影画像データ46を記憶部38から読み出すことにより取得する。
In step S100, the
ステップS102では、CPU30Aが、撮影画像データに基づいて、撮影画像から測定車両Sの画像位置を検出する。具体的には、まず撮影画像からパターンマッチング等の手法を用いて車両を検出する。そして、例えば測定車両Sを検出しやすくするためのマーカーが測定車両Sのルーフ部分等に設けられている場合には、検出された車両のうち、マーカーが設けられた車両を測定車両として抽出する。なお、測定車両Sにマーカーが設けられていない場合には、測定車両Sのフロント側の形状やリア側の形状の形状画像を記憶部38に予め記憶しておき、撮影画像から形状画像を抽出することで測定車両Sを特定してもよい。
In step S102, the
そして、図6に示すように、撮影画像Gから検出された測定車両SのバウンディングボックスBBの左下隅の点の座標を測定車両Sの画像位置とする。図6では、或る時刻に撮影された撮影画像Gから検出された車線L1を走行する測定車両Sの画像位置をp1(u1、v1)として表している。なお、撮影画像Gにおける画像座標系は、図6に示すように、互いに直交するu軸及びv軸からなる二次元の座標系である。また、画像座標系の原点Omは、撮影画像Gの左上隅の点となっている。 Then, as shown in FIG. 6, the coordinates of the point at the lower left corner of the bounding box BB of the measurement vehicle S detected from the photographed image G are taken as the image position of the measurement vehicle S. FIG. In FIG. 6, the image position of the measurement vehicle S traveling on the lane L1 detected from the captured image G captured at a certain time is represented as p 1 (u 1 , v 1 ). It should be noted that the image coordinate system in the photographed image G is a two-dimensional coordinate system composed of mutually orthogonal u-axis and v-axis, as shown in FIG. The origin Om of the image coordinate system is the point at the upper left corner of the captured image G. As shown in FIG.
また、道路RDを走行する測定車両Sは、カメラ20により複数回撮影されるので、道路RDを走行中の測定車両Sが連続して撮影された複数の撮影画像の各々について測定車両Sを検出する。図6の撮影画像Gでは、撮影画像Gにおいて検出された車線L1を走行する測定車両Sが、少し前に撮影された撮影画像から検出された場合の画像位置をp3(u3、v3)として表している。また、測定車両Sが反対車線の車線L4を走行した場合に撮影された撮影画像から検出された場合の画像位置をp2(u2、v2)として表している。
In addition, since the measurement vehicle S traveling on the road RD is photographed a plurality of times by the
このように、複数の撮影画像から測定車両Sの画像位置を検出することにより、車線L1、L4を走行する測定車両Sの画像位置が車線L1、L4毎に複数個検出される。 By detecting the image positions of the measurement vehicle S from a plurality of captured images in this manner, a plurality of image positions of the measurement vehicle S traveling in the lanes L1 and L4 are detected for each of the lanes L1 and L4.
ステップS104では、CPU30Aが、ステップS102で検出した測定車両Sの複数の画像位置の各々に対応する三次元位置測定データを記憶部38から読み出すことにより取得する。ここで、測定車両Sの画像位置に対応する三次元位置測定データとは、測定車両Sの画像位置が撮影された撮影画像の撮影時刻と最も近い時刻に測定された三次元位置の測定データである。
In step S104, the
これにより、例えば図7に示すように、画像位置p1(u1、v1)に対応する三次元位置P1(x1、y1、z1)、画像位置p2(u2、v2)に対応する三次元位置P2(x2、y2、z2)、画像位置p3(u3、v3)に対応する三次元位置P3(x3、y3、z3)が得られる。 As a result, for example, as shown in FIG. 7, three-dimensional position P 1 (x 1 , y 1 , z 1 ) corresponding to image position p 1 (u 1 , v 1 ), image position p 2 (u 2 , v 2 ) corresponding to the three-dimensional position P 2 (x 2 , y 2 , z 2 ), and the three-dimensional position P 3 (x 3 , y 3 , z 3 ) corresponding to the image position p 3 (u 3 , v 3 ). is obtained.
ところで、例えば画像位置p1(u1、v1)が検出された撮影画像の撮影時刻と、三次元位置P1(x1、y1、z1)が測定された測定時刻とが一致するとは限らない。従って、測定車両Sの三次元位置を補正する必要がある。 By the way, for example, if the photographing time of the photographed image at which the image position p 1 (u 1 , v 1 ) was detected coincides with the measurement time at which the three-dimensional position P 1 (x 1 , y 1 , z 1 ) was measured, is not limited. Therefore, the three-dimensional position of the measuring vehicle S needs to be corrected.
そこで、ステップS106では、CPU30Aが、撮影時刻を基準時刻として、三次元位置を補正する。すなわち、基準時刻における測定車両Sの三次元位置を算出する。具体的には、例えば三次元位置測定データに含まれる測定車両Sの測定時刻における移動ベクトル及び移動速度と、撮影時刻と測定時刻との差分と、に基づいて、基準時刻における三次元位置を算出する。
Therefore, in step S106, the
ステップS108では、CPU30Aが、ステップS102で検出した測定車両Sの画像位置と、ステップS106で補正した三次元位置と、を対応付けた対応付け情報を生成して記憶部38に記憶する。例えば図7の例では、画像位置p1(u1、v1)と、補正後の三次元位置P1(x1、y1、z1)と、を対応付ける。同様に、画像位置p2(u2、v2)と、補正後の三次元位置P2(x2、y2、z2)と、を対応付ける。また、画像位置p3(u3、v3)と、補正後の三次元位置P3(x3、y3、z3)と、を対応付ける。
In step S108,
ステップS110では、CPU30Aが、ステップS102で検出された画像位置を、三次元位置の世界座標系において三角形を構成する頂点を表す三次元位置に対応付けた頂点情報を生成し、記憶部38に記憶する。例えば図8の例では、撮影画像Gにおいて三角形TGの頂点を表す画像位置p1、p2、p3を、世界座標系において三角形TWを構成する頂点を表す三次元位置P1、P2、P3に対応付けた頂点情報を生成する。
In step S110,
なお、実際には、撮影画像から多数の画像位置が検出される場合があり、頂点の選び方が問題となる。以下では、頂点の選び方について説明する。また、以下では、三次元位置を区別しない場合は単に三次元位置Pと称する。 In practice, a large number of image positions may be detected from a photographed image, and how to select vertices poses a problem. How to select vertices will be described below. Further, hereinafter, when the three-dimensional position is not distinguished, it is simply referred to as a three-dimensional position P.
例えば図9に示すように、測定車両Sが車線L1を走行した際に複数の三次元位置Pが測定され、車線L1の対向車線である車線L4を測定車両Sが走行した際に複数の三次元位置Pが検出されたとする。 For example, as shown in FIG. 9, a plurality of three-dimensional positions P are measured when the measurement vehicle S travels on the lane L1, and a plurality of three-dimensional positions P are measured when the measurement vehicle S travels on the opposite lane L4 of the lane L1. Assume that the original position P is detected.
この場合、車線L1に沿って測定された複数の三次元位置Pのうち隣り合う2つの三次元位置Pa、Pbを選択する。次に、選択された2つの三次元位置Pa、Pbを結ぶ線分の垂直二等分線Nを車線L4に向けて描画したと仮定した場合に、垂直二等分線Nから最短距離の三次元位置Pcを選択する。そして、車線L1上で測定された三次元位置Pa、Pbと、車線L4上で測定された三次元位置Pcと、を三角形の頂点として関連付けた頂点情報を生成する。この頂点情報の生成処理を、車線L1上で測定された隣り合う三次元位置Pの全てについて実行する。また、対向車線である車線L4上で測定された隣り合う三次元位置Pについても同じ処理を実行する。 In this case, two adjacent three-dimensional positions Pa and Pb are selected from the plurality of three-dimensional positions P measured along the lane L1. Next, assuming that the perpendicular bisector N of the line segment connecting the two selected three-dimensional positions Pa and Pb is drawn toward the lane L4, the shortest cubic line from the perpendicular bisector N is drawn. Select the original position Pc. Then, vertex information is generated in which the three-dimensional positions Pa and Pb measured on the lane L1 and the three-dimensional position Pc measured on the lane L4 are associated as vertices of triangles. This vertex information generation processing is executed for all adjacent three-dimensional positions P measured on the lane L1. In addition, the same processing is performed for the adjacent three-dimensional position P measured on the lane L4, which is the oncoming lane.
次に、上記の処理を実行することにより生成された対応付け情報及び頂点情報に基づいて、撮影画像上における任意の画像位置を、三次元位置に変換する処理について説明する。 Next, processing for converting an arbitrary image position on the captured image into a three-dimensional position based on the correspondence information and vertex information generated by executing the above processing will be described.
まず、画像座標系における二次元の画像位置を、世界座標系における三次元位置に変換する際に、線形近似を用いて変換する近似原理について説明する。 First, an approximation principle for converting a two-dimensional image position in the image coordinate system into a three-dimensional position in the world coordinate system using linear approximation will be described.
図10に示すように、二次元の画像座標系C2の任意の画像位置に対応する三次元の世界座標系C3の三次元位置は、画像座標系C2の任意の画像位置が含まれる三角形TGの頂点の画像位置p1~p3と、三角形TGの頂点p1~p3に対応付けられた世界座標系C3における三角形TWの頂点の三次元位置P1~P3と、に基づいて座標変換することで求められる。 As shown in FIG. 10, the three-dimensional position of the three-dimensional world coordinate system C3 corresponding to the arbitrary image position of the two-dimensional image coordinate system C2 is the triangle TG containing the arbitrary image position of the image coordinate system C2. It is obtained by coordinate transformation based on the image positions p1 to p3 of the vertices and the three-dimensional positions P1 to P3 of the vertices of the triangle TW in the world coordinate system C3 associated with the vertices p1 to p3 of the triangle TG.
説明を簡単にするため、図11に示すように、世界座標系におけるX軸及びZ軸からなるX-Z平面がカメラ20の光軸Zcamと平行になるように空間座標系をとる。この場合、図11に示すように、Y軸方向からX-Z平面を見た場合、撮影画像におけるv方向の単位画素当たりの世界座標系におけるX方向の長さ、すなわちカメラ20から見て奥行き方向の長さは、v方向の画素位置によって異なる。例えば、画像座標系C2において画像位置p1から画像位置p3までの距離をv方向に4等分に分割した場合、それぞれの距離d1~d4は全て同じ距離となる。これに対して、画像座標系C2における距離d1~d4に対応する世界座標系C3における距離D1~D4は、同じ距離とはならない。すなわち、カメラ20から近距離側の距離D1が最も短く、カメラ20から遠距離側の距離D4が最も長くなる。このように、画像座標系C2におけるカメラ20から見て奥行き方向の長さと、世界座標系C3におけるカメラ20から見て奥行き方向の長さとは、非線形の関係にある。すなわち、世界座標系C3においてY軸方向からX-Z平面を見た場合における画像座標系C2の三角形と世界座標系C3における三角形とは相似にならない。このため、画像座標系C2の任意の点の座標を世界座標系C3の座標に座標変換する際に、線形近似により変換した場合は、カメラ20から見て奥行き方向の誤差が生じることとなる。
For simplicity of explanation, a spatial coordinate system is adopted such that the XZ plane consisting of the X and Z axes in the world coordinate system is parallel to the optical axis Zcam of the
一方、図12に示すように、Z軸方向からX-Y平面を見た場合、画像座標系C2におけるu方向の単位画素当たりの世界座標系C3におけるY軸方向の長さは、u方向の画素位置によって異なることはなく同じである。例えば、画像座標系C2において画像位置p1から画像位置p3までの距離をu方向に2等分に分割した場合、それぞれの距離d1、d2は全て同じ距離となる。また、画像座標系C2における距離d1、d2に対応する世界座標系C3における距離D1、D2も同じ距離となる。すなわち、Z軸方向からX-Y平面を見た場合における画像座標系C2の三角形と世界座標系C3における三角形とは相似となる。このため、画像座標系C2の任意の点の座標を世界座標系の座標に座標変換する際に線形近似により変換した場合は誤差が生じない。 On the other hand, as shown in FIG. 12, when the XY plane is viewed from the Z-axis direction, the length in the Y-axis direction in the world coordinate system C3 per unit pixel in the u-direction in the image coordinate system C2 is They are the same and do not differ depending on the pixel position. For example, when the distance from the image position p1 to the image position p3 in the image coordinate system C2 is divided into two equal parts in the u direction, the respective distances d1 and d2 are all the same distance. Also, the distances D1 and D2 in the world coordinate system C3 corresponding to the distances d1 and d2 in the image coordinate system C2 are the same. That is, when the XY plane is viewed from the Z-axis direction, the triangle in the image coordinate system C2 and the triangle in the world coordinate system C3 are similar. Therefore, no error occurs when the coordinates of an arbitrary point in the image coordinate system C2 are transformed into the coordinates of the world coordinate system by linear approximation.
従って、線形近似による変換により生じるカメラ20から見て奥行き方向の長さの誤差が許容できれば、画像座標系C2の任意の点の座標を世界座標系の座標に座標変換することができる。例えば図6に示すように、カメラ20から見て奥行き方向に道路RDが沿っている場合は、例えば図13に示すように、カメラ20の光軸方向が道路RDの車線幅方向Aに沿う場合と比較して、カメラ20から見て奥行き方向の長さの誤差は許容できる場合が多い。これは、カメラ20から見て奥行き方向に道路RDが沿っている場合は、道路RDに沿って測定車両Sの三次元位置が多数測定されるため、道路RDに沿って隣り合う三次元位置の距離が短くなり、誤差の影響が小さくなるためである。なお、三次元位置の測定間隔やカメラ20の撮影間隔を短くするほど誤差は小さくなるが、誤差を許容できるか否かは、位置計測装置10の位置計測結果を利用するアプリケーションが求める精度による。カメラ20から見て奥行方向に道路RDが沿っている場合でも、三次元位置の測定間隔やカメラ20の撮影間隔が、アプリケーションが求める精度を満たす間隔でない場合には、誤差を許容できないこととなる。従って、アプリケーションが求める精度に応じて測定間隔及び撮影間隔を調整することが好ましい。
Therefore, if an error in the depth direction as seen from the
以下では、まず図6に示すように、カメラ20から見て奥行き方向に道路RDが沿っている場合について説明する。一方、図13に示すように、カメラ20の光軸方向が道路RDの車線幅方向Aに沿う場合は、例えば図6に示すように、カメラ20から見て奥行き方向に道路RDが沿っている場合と比較して、カメラ20から見て奥行き方向の長さの誤差は許容できない場合が多い。これは、カメラ20の光軸方向が道路RDの車線幅方向Aに沿う場合は、道路RDの車線幅方向Aに沿って測定される測定車両Sの三次元位置が少ないため、車線幅方向のいて隣り合う三次元位置の距離が長くなり、誤差の影響が大きくなるためである。従って、道路RDの車線と三角形とが交差する位置を新たな頂点として頂点情報を生成する必要があるが、この処理についての詳細は後述する。
In the following, as shown in FIG. 6, the case where the road RD extends in the depth direction when viewed from the
以下、具体的な変換方法について説明する。 A specific conversion method will be described below.
例えば図14に示すように、画像座標系C2における三角形TG内の任意の画像位置pi(ui、vi)を、図15に示す世界座標系C3における三次元位置Pi(xi、yi、zi)に変換する場合について説明する。 For example, as shown in FIG. 14, an arbitrary image position p i (u i , v i ) within the triangle TG in the image coordinate system C2 is converted to a three-dimensional position P i (x i , v i ) in the world coordinate system C3 shown in FIG. y i , z i ) will be described.
前述した近似原理が成り立つとすると、画像座標系C2における三角形TG内の任意の画像位置pi(ui、vi)は、画像座標系C2における三角形TGに対応した世界座標系C3における二次元の三角形TW内の点に変換できると考えられる。 Assuming that the approximation principle described above holds, an arbitrary image position p i (u i , v i ) within the triangle TG in the image coordinate system C2 is a two-dimensional can be transformed into a point in the triangle TW of .
従って、画像座標系C2における三角形TGの頂点である画像位置p1(u1、v1)、p2(u2、v2)、p3(u3、v3)に基づいて画像位置pi(ui、vi)を算出する第1の算出式と、画像座標系C2における三角形TGに対応した世界座標系C3における二次元の三角形TWの頂点である三次元位置P1(x1、y1、z1)、P2(x2、y2、z2)、P3(x3、y3、z3)に基づいて三次元位置Pi(xi、yi、zi)を算出する第2の算出式と、は同一となる。すなわち、両者の算出式は、係数が同一で、変数の次元のみ異なる。 Therefore , the image position p _ _ _ A first calculation formula for calculating i (u i , v i ) and a three-dimensional position P 1 (x 1 , y 1 , z 1 ), P 2 (x 2 , y 2 , z 2 ), P 3 (x 3 , y 3 , z 3 ) based on the three-dimensional position P i (x i , y i , zi ) is the same as the second calculation formula. That is, both calculation formulas have the same coefficients, but differ only in the dimensions of the variables.
まず、画像座標系C2における第1の算出式は、次式で表される。 First, the first calculation formula in the image coordinate system C2 is represented by the following formula.
pi=p1+αi(p2-p1)+βi(p3-p1)
={1-(αi+βi)}p1+αi×p2+βi×p3 ・・・(1)
p i =p 1 +α i (p 2 −p 1 )+β i (p 3 −p 1 )
={1−(α i +β i )}p 1 +α i ×p 2 +β i ×p 3 (1)
ただし、αi+βi≦1、0≦αi、0≦βi ・・・(2) However, α i + β i ≤ 1, 0 ≤ α i , 0 ≤ β i (2)
なお、上記(1)式において、pi、p1、p2、p3はベクトルを表す。 In the above equation (1), p i , p 1 , p 2 and p 3 represent vectors.
上記(1)、(2)式より、変換パラメータαi、βiが算出される。 Conversion parameters α i and β i are calculated from the above equations (1) and (2).
そして、世界座標系C3における第2の算出式は、第1の算出式と同様に次式で表される。 Then, the second calculation formula in the world coordinate system C3 is expressed by the following formula like the first calculation formula.
Pi={1-(αi+βi)}P1+αi×P2+βi×P3 ・・・(3) P i ={1−(α i +β i )}P 1 +α i ×P 2 +β i ×P 3 (3)
なお、上記(3)式において、Pi、P1、P2、P3はベクトルを表す。 In the above equation (3), P i , P 1 , P 2 and P 3 represent vectors.
上記(1)、(2)式から算出された変換パラメータαi、βiを上記(3)式に代入することにより、三次元位置Piが算出される。 The three-dimensional position P i is calculated by substituting the conversion parameters α i and β i calculated from the equations (1) and (2) into the equation (3).
次に、上記の変換方法を用いて撮影画像上における任意の画像位置を三次元位置に変換する位置計測処理について、図16に示すフローチャートを参照して説明する。 Position measurement processing for converting an arbitrary image position on a captured image into a three-dimensional position using the conversion method described above will now be described with reference to the flowchart shown in FIG.
図16に示す位置計測処理は、オペレータが位置計測処理の実行を指示することにより実行される。 The position measurement process shown in FIG. 16 is executed when the operator instructs execution of the position measurement process.
まずステップS200では、CPU30Aが、カメラ20が撮影した撮影画像を表示部34に表示させる。
First, in step S200, the
ステップS202では、CPU30Aが、オペレータによる変換対象の画像位置piの指定を受け付ける。オペレータは、操作部32を操作して変換対象の画像位置pi、例えば道路を走行している車両等を指定する。
In step S202, the
ステップS204では、CPU30Aが、指定された画像位置piを世界座標系における三次元位置Piに変換する。具体的には、記憶部38に記憶された頂点情報を参照し、ステップS202で指定された画像位置piが含まれる三角形の頂点の頂点情報を抽出する。なお、抽出された頂点情報が表す頂点の画像位置をp1、p2、p3とする。
In step S204, the
次に、記憶部38に記憶された対応付け情報を参照し、検出した頂点情報で表される3つの頂点の画像位置p1、p2、p3に対応する三次元位置P1、P2、P3を各々抽出する。
Next, referring to the correspondence information stored in the
そして、上記(1)式に画像位置p1、p2、p3を代入し、上記(1)、(2)式により変換パラメータαi、βiを算出する。次に、算出した変換パラメータαi、βiを、抽出された三次元位置P1、P2、P3を上記(3)式に代入することにより、ステップS202で指定された画像位置piに対応する三次元位置Piを算出する。 Then, the image positions p 1 , p 2 and p 3 are substituted into the equation (1), and the conversion parameters α i and β i are calculated by the equations (1) and (2). Next, by substituting the calculated transformation parameters α i and β i and the extracted three-dimensional positions P 1 , P 2 and P 3 into the above equation (3), the image position p i specified in step S202 Calculate the three-dimensional position P i corresponding to .
ステップS206では、CPU30Aが、ステップS204で算出した三次元位置Piを表示部34に表示させる。これにより、例えばオペレータが指定した車両の三次元位置を知ることができる。なお、図16の処理では、撮影画像を表示し、オペレータが指定した画像位置を世界座標系における三次元位置に変換する場合について説明したが、これに限られない。例えば、パターンマッチング等の公知の手法を用いて撮影画像から車両を検出し、検出した車両の画像位置を世界座標系における三次元位置に変換する処理を所定時間毎に自動で実行するようにしてもよい。
In step S206, the
このように、本実施形態では、カメラ20で撮影された道路を、撮影画像から検出した測定車両Sの画像位置を頂点とする三角形の集合で表し、頂点の画像座標系C2における画像位置と世界座標系C3における測定車両の三次元位置とを対応付けておく。そして、画像座標系C2における三角形内の任意の画像位置を世界座標系C3における三次元位置に変換する。これにより、カメラの撮影範囲である地表面が水平であるものと仮定する場合と比較して、位置の検出対象の地表面が平坦ではない場合であっても、位置の検出精度が低下するのを抑制することができる。また、カメラの設置位置情報が不要のため、カメラの設置作業が容易となる。
Thus, in this embodiment, the road photographed by the
ところで、前述したように、図13に示すように、カメラ20の光軸方向が道路RDの車線幅方向Aに沿う場合は、カメラ20から見て奥行き方向の長さの誤差は許容できない。この場合、道路RDの車線と三角形とが交差する位置を新たな頂点として頂点情報を生成する。具体的には、図17に示すように、まず、画像位置p1~p3を、測定車両Sが道路と設置する面の画素となるように補正する。また、画像位置p1~p3に対応する三次元位置P1~P3が、補正後の画像位置p1~p3と一致するように三次元位置P1~P3を補正する。例えば、測定部18の設置位置に関する設置位置情報及び測定車両Sの形状に関する形状情報を記憶部38に予め記憶しておき、設置位置情報及び形状情報に基づいて、画像位置p1~p3に対応する三次元位置P1~P3が、補正後の画像位置p1~p3と一致するように三次元位置P1~P3を補正する。なお、形状情報としては、例えば測定車両Sの種類(セダン、ワゴン、トラック、バス)等に応じた三次元モデル等を用意しておくことが好ましい。
By the way, as described above, when the optical axis direction of the
また、隣り合う車線の境界線上に頂点を追加する。具体的には、例えば図18に示すように、車線L1~L4のそれぞれ隣り合う車線の境界線K1~K3を公知の手法を用いて検出する。ここで、世界座標系C3における境界線K1~K3の座標情報を予め記憶部38に記憶しておく。そして、画像位置p1、p2、p3を頂点とする三角形TGの各辺と、境界線K1~K3との交点を新たな頂点として追加する。また、世界座標系C3における境界線K1~K3の座標情報に基づいて、新たに追加した頂点を表す画像位置に対応する三次元位置を算出し、両者を対応付ける。なお、新たに追加した頂点を表す画像位置に対応する三次元位置を算出する際には、各車線の車線幅は既知であり、境界線と測定車両Sの走行経路とは平行であると仮定して算出する。
It also adds vertices on the boundaries of adjacent lanes. Specifically, for example, as shown in FIG. 18, boundary lines K1 to K3 of adjacent lanes of lanes L1 to L4 are detected using a known method. Here, the coordinate information of the boundary lines K1 to K3 in the world coordinate system C3 is stored in the
図18の例では、車線L1とL2との境界線K1上に頂点として三次元位置P4、P5が追加され、車線L2とL3との境界線K2上に頂点として三次元位置P6、P7が追加され、車線L3とL4との境界線K3上に頂点として三次元位置P8、P9が追加されている。 In the example of FIG. 18, three-dimensional positions P 4 and P 5 are added as vertices on the boundary line K1 between the lanes L1 and L2, and three-dimensional positions P 6 and P 6 are added as vertices on the boundary line K2 between the lanes L2 and L3. P7 is added, and three-dimensional positions P8 and P9 are added as vertices on the boundary line K3 between the lanes L3 and L4.
そして、新たに追加した頂点を新たな三角形の頂点として頂点情報を生成する。例えば同じ境界線上に追加した2つの三次元位置を三角形の底辺の頂点として選択し、この底辺の両隣の境界線上に追加された三次元位置又は隣に境界線が存在しない場合は測定車両Sの走行経路上の三次元位置から3つ目の頂点を選択する。このとき、同じ境界線上に追加した2つの三次元位置を結ぶ線の垂直二等分線に近い方の頂点を3つ目の頂点として選択する。 Then, vertex information is generated with the newly added vertex as the vertex of a new triangle. For example, two three-dimensional positions added on the same boundary line are selected as the vertices of the base of the triangle, and three-dimensional positions added on the boundary lines on both sides of this base, or if there is no boundary line next to the three-dimensional position of the measurement vehicle S Select the third vertex from the three-dimensional position on the travel path. At this time, the vertex closer to the perpendicular bisector of the line connecting the two three-dimensional positions added on the same boundary line is selected as the third vertex.
例えば図19に示すように、新しく追加した三次元位置P4、P5を例に説明する。この場合、三次元位置P4、P5を結ぶ線の垂直二等分線Nを車線幅方向に描画したと仮定した場合に、三次元位置P4、P5が存在する境界線K1と隣り合う境界線K2上に新たに追加された三次元位置P6、P7のうち、垂直二等分線Nに近い方の三次元位置P7が頂点として選択される。また、境界線K1に対して境界線K2と反対側については、隣り合う境界線が存在しないため、走行経路線SK1上の頂点P1、P3のうち、垂直二等分線Nに近い方の三次元位置P1が頂点として選択される。これにより、三次元位置P4、P5、P7を頂点とする三角形T1と、三次元位置P4、P5、P1を頂点とする三角形T2と、が新たに定義される。他の三次元位置P1、P3、P6、P7、P8、P9についても同様の処理を行うことにより、新たな三角形が定義される。これにより、車線幅方向Aに沿って頂点が増加するため、画像座標系C2の任意の画像位置を世界座標系C3の三次元位置に変換する際に変換精度が低下するのを抑制することができる。 For example, as shown in FIG. 19, newly added three-dimensional positions P 4 and P 5 will be described as an example. In this case, assuming that the perpendicular bisector N of the line connecting the three-dimensional positions P4 and P5 is drawn in the lane width direction, the boundary line K1 where the three-dimensional positions P4 and P5 exist is adjacent to Of the three-dimensional positions P6 and P7 newly added on the matching boundary line K2, the three-dimensional position P7 closer to the perpendicular bisector N is selected as the vertex. On the opposite side of the boundary line K2 to the boundary line K1 , there is no adjacent boundary line. is selected as the vertex . As a result, a triangle T1 whose vertices are the three-dimensional positions P 4 , P 5 and P 7 and a triangle T2 whose vertices are the three-dimensional positions P 4 , P 5 and P 1 are newly defined. New triangles are defined by performing similar processing for the other three-dimensional positions P 1 , P 3 , P 6 , P 7 , P 8 and P 9 . As a result, since the number of vertices increases along the lane width direction A, it is possible to suppress deterioration in conversion accuracy when converting an arbitrary image position in the image coordinate system C2 to a three-dimensional position in the world coordinate system C3. can.
なお、本実施形態では、測定車両Sが車線L1及び車線L4を走行して三次元位置を測定して得られた三次元位置測定データを用いて座標変換する場合について説明したが、頂点情報で定義される三角形は、道路RDの路肩までカバーされない。そこで、図20に示すように、車道を越えて歩道や建物まで三角形TW1を拡大した拡大三角形TW2の頂点情報を生成するようにしてもよい。具体的には、エッジ検出等の公知の手法を用いて車道と歩道の境界や車道と建物との境界を検出し、検出した境界まで三角形を拡大した拡大三角形の頂点情報を生成すればよい。 In this embodiment, a case has been described in which coordinate transformation is performed using the three-dimensional position measurement data obtained by measuring the three-dimensional position of the measurement vehicle S traveling in lanes L1 and L4. The defined triangle does not cover the shoulder of the road RD. Therefore, as shown in FIG. 20, vertex information of an enlarged triangle TW2 may be generated by enlarging the triangle TW1 beyond the roadway to the sidewalk or building. Specifically, a well-known technique such as edge detection is used to detect the boundary between the roadway and the sidewalk and the boundary between the roadway and the building, and the vertex information of the enlarged triangle is generated by enlarging the triangle to the detected boundary.
また、座標変換の精度は、三角形の頂点に近い位置ほど良くなる。例えば図21に示すように、三次元位置P1の近傍領域R1、三次元位置P2の近傍領域R2、及び三次元位置P3の近傍領域R3は、他の領域と比較して座標変換の精度が良くなる。従って、頂点付近で座標変換される割合が多くなるように、図22に示すように、車線L1~L4の全ての車線に測定車両Sを走行させて三次元位置Pを測定することが好ましい。これにより、座標変換の精度が高くなる頂点付近の領域Rの数が多くなり、頂点付近で座標変換される割合が高くなる。 Also, the accuracy of coordinate transformation is better at positions closer to the vertices of the triangle. For example, as shown in FIG. 21, the neighboring region R1 of the three-dimensional position P1, the neighboring region R2 of the three-dimensional position P2, and the neighboring region R3 of the three-dimensional position P3 have higher accuracy of coordinate conversion than other regions. Become. Therefore, it is preferable to measure the three-dimensional position P by driving the measurement vehicle S in all the lanes L1 to L4 as shown in FIG. As a result, the number of regions R near the vertices where the precision of coordinate transformation is high increases, and the rate of coordinate transformation near the vertices increases.
また、本実施形態では、カメラ20の画角が固定の場合について説明したが、複数の異なる画角で道路RDを撮影した撮影画像データを取得し、様々な画角に対応した対応付け情報及び頂点情報を生成するようにしてもよい。
Further, in the present embodiment, the case where the angle of view of the
また、対応付け情報及び頂点情報を一度生成した後も測定車両Sを走行させて三次元位置測定データを取得し、対応付け情報及び頂点情報を更新することが好ましい。これにより、カメラ20の画角が外乱等の影響によりずれた場合でも座標変換の精度が低下するのを抑制することができる。
Moreover, it is preferable to run the measurement vehicle S to acquire the three-dimensional position measurement data even after the correspondence information and the vertex information are once generated, and to update the correspondence information and the vertex information. As a result, even when the angle of view of the
また、本実施形態では、位置計測装置10が位置計測用データ生成装置60及び変換部62を備えた場合について説明したが、位置計測用データ生成装置60と、変換部62を備えた位置計測装置10と、を別個の構成としてもよい。
Further, in the present embodiment, the case where the
また、本実施形態では、測定車両Sが走行する道路RDが片側2車線の合計4車線の道路である場合について説明したが、道路は、片側1車線の合計2車線の道路でもよいし、一方通行の1車線の道路でもよい。すなわち車線の数は限定されない。 In this embodiment, the road RD on which the measurement vehicle S travels has been described as a four-lane road with two lanes on each side. It may be a one-lane road for traffic. That is, the number of lanes is not limited.
以上、実施の形態を説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。発明の要旨を逸脱しない範囲で上記実施の形態に多様な変更又は改良を加えることができ、当該変更又は改良を加えた形態も本発明の技術的範囲に含まれる。 Although the embodiments have been described above, the technical scope of the present invention is not limited to the scope described in the above embodiments. Various changes or improvements can be made to the above embodiments without departing from the gist of the invention, and the forms with such changes or improvements are also included in the technical scope of the present invention.
また、上記実施の形態は、クレーム(請求項)にかかる発明を限定するものではなく、また実施の形態の中で説明されている特徴の組み合わせの全てが発明の解決手段に必須であるとは限らない。前述した実施の形態には種々の段階の発明が含まれており、開示される複数の構成要件の組み合わせにより種々の発明が抽出される。実施の形態に示される全構成要件から幾つかの構成要件が削除されても、効果が得られる限りにおいて、この幾つかの構成要件が削除された構成が発明として抽出され得る。 In addition, the above embodiments do not limit the claimed invention, and all combinations of features described in the embodiments are essential to the solution of the invention. Not exclusively. Inventions at various stages are included in the embodiments described above, and various inventions can be extracted by combining a plurality of disclosed constituent elements. Even if some constituent elements are deleted from all the constituent elements shown in the embodiments, as long as an effect is obtained, a configuration in which these several constituent elements are deleted can be extracted as an invention.
また、上記実施の形態では、位置計測用データ生成プログラム40及び位置計測プログラム42が記憶部38に予めインストールされている場合について説明したが、本発明はこれに限定されるものではない。例えば、位置計測用データ生成プログラム40及び位置計測プログラム42が、CD-ROM(Compact Disc Read Only Memory)等の記憶媒体に格納されて提供される形態、又はネットワークを介して提供される形態としてもよい。
Further, in the above embodiment, the case where the position measurement
さらに、上記実施の形態では、位置計測用データ生成処理及び位置計測処理を、プログラムを実行することにより、コンピュータを利用してソフトウェア構成により実現する場合について説明したが、本発明はこれに限定されるものではない。例えば、位置計測用データ生成処理及び位置計測処理を、ハードウェア構成や、ハードウェア構成とソフトウェア構成の組み合わせによって実現する形態としてもよい。 Furthermore, in the above embodiment, the case where the position measurement data generation process and the position measurement process are realized by a computer using a software configuration by executing a program has been described, but the present invention is limited to this. not something. For example, the position measurement data generation process and the position measurement process may be realized by a hardware configuration or a combination of hardware and software configurations.
その他、上記実施の形態で説明した位置計測装置10の構成(図3参照。)は一例であり、本発明の主旨を逸脱しない範囲内において不要な部分を削除したり、新たな部分を追加したりしてもよいことは言うまでもない。
In addition, the configuration of the
また、上記実施の形態で説明した位置計測用データ生成プログラム40及び位置計測プログラム42の処理の流れ(図5、16参照)も一例であり、本発明の主旨を逸脱しない範囲内において不要なステップを削除したり、新たなステップを追加したり、処理順序を入れ替えたりしてもよいことは言うまでもない。
In addition, the processing flow of the position measurement
62 変換部、64 取得部、66 検出部、68 対応付け情報生成部、70 頂点情報生成部 62 conversion unit, 64 acquisition unit, 66 detection unit, 68 correspondence information generation unit, 70 vertex information generation unit
Claims (9)
前記撮影画像から前記測定車両の画像位置を検出する検出部(66)と、
前記画像位置と前記三次元位置とを対応付けた対応付け情報を生成する対応付け情報生成部(66)と、
前記検出部により検出された前記画像位置の中から、前記道路に沿って隣り合う2つの画像位置と、前記2つの画像位置を結ぶ線分の垂直二等分線を前記道路の対向車線に向けて描画したと仮定した場合に、前記対向車線上において前記垂直二等分線から最短距離の画像位置とから成る3つの画像位置を三角形の頂点として選択し、選択した前記3つの画像位置を、前記対応付け情報に基づいて、前記三次元位置の座標系における3つの前記三次元位置に対応付けた頂点情報を生成する頂点情報生成部(70)と、
前記対応付け情報及び変換対象の画像位置を含む三角形の前記頂点情報に基づいて変換パラメータを算出し、算出した変換パラメータを用いて変換対象の画像位置を前記三次元位置に変換する変換部(62)と、
を備えた位置計測用データ生成装置(60)。 A photographed image of the measurement vehicle taken by a camera equipped with a measurement unit for measuring a three-dimensional position and installed at a position capable of photographing a road on which the measurement vehicle travels; an acquisition unit (64) for acquiring a three-dimensional position of the measurement vehicle measured by the measurement unit;
a detection unit (66) for detecting the image position of the measurement vehicle from the captured image;
an association information generating unit (66) for generating association information in which the image position and the three-dimensional position are associated;
From among the image positions detected by the detection unit, two image positions adjacent to each other along the road and a perpendicular bisector of a line segment connecting the two image positions are directed to the oncoming lane of the road. and the image position of the shortest distance from the perpendicular bisector on the oncoming traffic lane as vertices of a triangle, and the selected three image positions are: a vertex information generation unit (70) for generating vertex information associated with the three three-dimensional positions in the coordinate system of the three-dimensional position based on the correspondence information;
A conversion unit (62) for calculating a conversion parameter based on the vertex information of the triangle including the correspondence information and the image position to be converted, and converting the image position to be converted into the three-dimensional position using the calculated conversion parameter. )and,
Position measurement data generation device (60).
請求項1記載の位置計測用データ生成装置。 2. The position measurement data generation device according to claim 1, wherein the three-dimensional position of the measurement vehicle is a three-dimensional position measured when traveling in each of the oncoming lanes of the road.
請求項1又は請求項2記載の位置計測用データ生成装置。 3. The position measurement data generation device according to claim 1, wherein the vertex information generator generates vertex information of an enlarged triangle obtained by enlarging the triangle.
請求項1~3の何れか1項に記載の位置計測用データ生成装置。 When the optical axis direction of the camera is along the lane width direction of the road, the vertex information generation unit generates vertex information using the three-dimensional position where the lane of the road and the triangle intersect as a new vertex. The position measurement data generation device according to any one of claims 1 to 3.
三次元位置を測定する測定部を備えた測定車両が走行する道路を撮影可能な位置に設置されたカメラにより前記測定車両が撮影された撮影画像と、前記測定車両が前記道路を走行したときに前記測定部により測定された前記測定車両の三次元位置と、を取得し、
前記撮影画像から前記測定車両の画像位置を検出し、
前記画像位置と前記三次元位置とを対応付けた対応付け情報を生成し、
検出された前記画像位置の中から、前記道路に沿って隣り合う2つの画像位置と、前記2つの画像位置を結ぶ線分の垂直二等分線を前記道路の対向車線に向けて描画したと仮定した場合に、前記対向車線上において前記垂直二等分線から最短距離の画像位置とから成る3つの画像位置を三角形の頂点として選択し、選択した前記3つの画像位置を、前記対応付け情報に基づいて、前記三次元位置の座標系における3つの前記三次元位置に対応付けた頂点情報を生成し、
前記対応付け情報及び変換対象の画像位置を含む三角形の前記頂点情報に基づいて変換パラメータを算出し、算出した変換パラメータを用いて変換対象の画像位置を前記三次元位置に変換する
位置計測用データ生成方法。 A computer (30A)
A photographed image of the measurement vehicle taken by a camera equipped with a measurement unit for measuring a three-dimensional position and installed at a position capable of photographing a road on which the measurement vehicle travels; obtaining a three-dimensional position of the measurement vehicle measured by the measurement unit;
detecting the image position of the measurement vehicle from the captured image;
generating association information that associates the image position with the three-dimensional position;
Two image positions adjacent to each other along the road and a perpendicular bisector of a line connecting the two image positions are drawn from among the detected image positions toward the oncoming lane of the road. Assuming that three image positions are selected as the vertices of a triangle consisting of the image position of the shortest distance from the perpendicular bisector on the oncoming lane , and the selected three image positions are stored in the correspondence information Based on, generating vertex information associated with the three three-dimensional positions in the coordinate system of the three-dimensional position ,
calculating a conversion parameter based on the vertex information of the triangle including the correspondence information and the image position to be converted, and converting the image position to be converted into the three-dimensional position using the calculated conversion parameter;
Position measurement data generation method.
請求項5記載の位置計測用データ生成方法。 6. The position measurement data generating method according to claim 5 , wherein the three-dimensional position of the measurement vehicle is a three-dimensional position measured when traveling in each of the oncoming lanes of the road.
請求項5又は請求項6記載の位置計測用データ生成方法。 7. The method of generating position measurement data according to claim 5 , further comprising generating vertex information of an enlarged triangle obtained by enlarging said triangle.
請求項5~7の何れか1項に記載の位置計測用データ生成方法。 When the optical axis direction of the camera is along the lane width direction of the road , vertex information is generated with a three-dimensional position where the lane of the road and the triangle intersect as a new vertex. 2. The method for generating position measurement data according to item 1.
三次元位置を測定する測定部を備えた測定車両が走行する道路を撮影可能な位置に設置されたカメラにより前記測定車両が撮影された撮影画像と、前記測定車両が前記道路を走行したときに前記測定部により測定された前記測定車両の三次元位置と、を取得し、
前記撮影画像から前記測定車両の画像位置を検出し、
前記画像位置と前記三次元位置とを対応付けた対応付け情報を生成し、
検出された前記画像位置の中から、前記道路に沿って隣り合う2つの画像位置と、前記2つの画像位置を結ぶ線分の垂直二等分線を前記道路の対向車線に向けて描画したと仮定した場合に、前記対向車線上において前記垂直二等分線から最短距離の画像位置とから成る3つの画像位置を三角形の頂点として選択し、選択した前記3つの画像位置を、前記対応付け情報に基づいて、前記三次元位置の座標系における3つの前記三次元位置に対応付けた頂点情報を生成し、
前記対応付け情報及び変換対象の画像位置を含む三角形の前記頂点情報に基づいて変換パラメータを算出し、算出した変換パラメータを用いて変換対象の画像位置を前記三次元位置に変換する
ことを含む処理を実行させるための位置計測用データ生成プログラム(40)。 to the computer,
A photographed image of the measurement vehicle taken by a camera equipped with a measurement unit for measuring a three-dimensional position and installed at a position capable of photographing a road on which the measurement vehicle travels; obtaining a three-dimensional position of the measurement vehicle measured by the measurement unit;
detecting the image position of the measurement vehicle from the captured image;
generating association information that associates the image position with the three-dimensional position;
From among the detected image positions, two image positions adjacent to each other along the road and a perpendicular bisector of a line segment connecting the two image positions are drawn toward the oncoming lane of the road. Assuming that three image positions are selected as vertices of a triangle consisting of the image position of the shortest distance from the perpendicular bisector on the oncoming traffic lane , and the selected three image positions are stored in the correspondence information Based on, generating vertex information associated with the three three-dimensional positions in the coordinate system of the three-dimensional position ,
calculating a conversion parameter based on the vertex information of the triangle including the correspondence information and the image position to be converted, and converting the image position to be converted into the three-dimensional position using the calculated conversion parameter;
A position measurement data generation program (40) for executing processing including:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019131900A JP7293931B2 (en) | 2019-07-17 | 2019-07-17 | Position measurement data generation device, position measurement data generation method, and position measurement data generation program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019131900A JP7293931B2 (en) | 2019-07-17 | 2019-07-17 | Position measurement data generation device, position measurement data generation method, and position measurement data generation program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021018068A JP2021018068A (en) | 2021-02-15 |
JP7293931B2 true JP7293931B2 (en) | 2023-06-20 |
Family
ID=74564198
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019131900A Active JP7293931B2 (en) | 2019-07-17 | 2019-07-17 | Position measurement data generation device, position measurement data generation method, and position measurement data generation program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7293931B2 (en) |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014137321A (en) | 2013-01-18 | 2014-07-28 | Nec Corp | Position coordinate conversion system, position coordinate conversion method, on-vehicle device, global coordinate measurement device and position coordinate conversion program |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10332334A (en) * | 1997-06-04 | 1998-12-18 | Hitachi Ltd | Position measuring method by image processing and its device |
JP2003042760A (en) * | 2001-07-27 | 2003-02-13 | Sumitomo Electric Ind Ltd | Instrument, method, and system for measurement |
-
2019
- 2019-07-17 JP JP2019131900A patent/JP7293931B2/en active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014137321A (en) | 2013-01-18 | 2014-07-28 | Nec Corp | Position coordinate conversion system, position coordinate conversion method, on-vehicle device, global coordinate measurement device and position coordinate conversion program |
Also Published As
Publication number | Publication date |
---|---|
JP2021018068A (en) | 2021-02-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4619962B2 (en) | Road marking measurement system, white line model measurement system, and white line model measurement device | |
US8571265B2 (en) | Measurement apparatus, measurement method, and feature identification apparatus | |
JP4767578B2 (en) | High-precision CV calculation device, CV-type three-dimensional map generation device and CV-type navigation device equipped with this high-precision CV calculation device | |
CN108692719B (en) | Object detection device | |
JP4406381B2 (en) | Obstacle detection apparatus and method | |
WO2018225446A1 (en) | Map points-of-change detection device | |
JP5363752B2 (en) | Road marking map generation method | |
EP3032818B1 (en) | Image processing device | |
JP2009237901A (en) | Method of creating road marker map | |
JP2016057108A (en) | Arithmetic device, arithmetic system, arithmetic method and program | |
JP6515650B2 (en) | Calibration apparatus, distance measuring apparatus and calibration method | |
EP3324359A1 (en) | Image processing device and image processing method | |
JP2019003606A (en) | Map change point detection device | |
JP5281424B2 (en) | Road marking map generation method | |
JP7010535B2 (en) | Information processing equipment | |
JP2019163624A (en) | Information processing device, information processing method and display device | |
JP5396585B2 (en) | Feature identification method | |
JP5814620B2 (en) | POSITION CORRECTION DATA GENERATION DEVICE, POSITION LOCATION DEVICE, POSITION CORRECTION DATA GENERATION DEVICE POSITION CORRECTION DATA GENERATION METHOD, POSITION POSITION DEVICE POSITION POSITIONING METHOD, POSITION CORRECTION DATA GENERATION PROGRAM, AND POSITION POSITION PROGRAM | |
JP2007147458A (en) | Location detector, location detection method, location detection program, and recording medium | |
JP7315216B2 (en) | Corrected Distance Calculation Device, Corrected Distance Calculation Program, and Corrected Distance Calculation Method | |
JP7293931B2 (en) | Position measurement data generation device, position measurement data generation method, and position measurement data generation program | |
JP5285311B2 (en) | Road marking map generation method | |
JP5339753B2 (en) | Road marking map generation method | |
US10859377B2 (en) | Method for improving position information associated with a collection of images | |
JP5964093B2 (en) | Vehicle size measuring device, vehicle size measuring method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20211116 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220823 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220824 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221020 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230207 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230327 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230509 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230522 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7293931 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |