[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP6195915B2 - 画像計測装置 - Google Patents

画像計測装置 Download PDF

Info

Publication number
JP6195915B2
JP6195915B2 JP2015515850A JP2015515850A JP6195915B2 JP 6195915 B2 JP6195915 B2 JP 6195915B2 JP 2015515850 A JP2015515850 A JP 2015515850A JP 2015515850 A JP2015515850 A JP 2015515850A JP 6195915 B2 JP6195915 B2 JP 6195915B2
Authority
JP
Japan
Prior art keywords
measurement
image
region
distance
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015515850A
Other languages
English (en)
Other versions
JPWO2014181725A1 (ja
Inventor
真一 有田
真一 有田
徳井 圭
圭 徳井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Publication of JPWO2014181725A1 publication Critical patent/JPWO2014181725A1/ja
Application granted granted Critical
Publication of JP6195915B2 publication Critical patent/JP6195915B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • G06T7/337Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods involving reference images or patches
    • EFIXED CONSTRUCTIONS
    • E01CONSTRUCTION OF ROADS, RAILWAYS, OR BRIDGES
    • E01BPERMANENT WAY; PERMANENT-WAY TOOLS; MACHINES FOR MAKING RAILWAYS OF ALL KINDS
    • E01B35/00Applications of measuring apparatus or devices for track-building purposes
    • E01B35/02Applications of measuring apparatus or devices for track-building purposes for spacing, for cross levelling; for laying-out curves
    • EFIXED CONSTRUCTIONS
    • E01CONSTRUCTION OF ROADS, RAILWAYS, OR BRIDGES
    • E01BPERMANENT WAY; PERMANENT-WAY TOOLS; MACHINES FOR MAKING RAILWAYS OF ALL KINDS
    • E01B35/00Applications of measuring apparatus or devices for track-building purposes
    • E01B35/06Applications of measuring apparatus or devices for track-building purposes for measuring irregularities in longitudinal direction
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/02Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/04Indexing scheme for image data processing or generation, in general involving 3D image data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • G06T2207/10021Stereoscopic video; Stereoscopic image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Architecture (AREA)
  • Civil Engineering (AREA)
  • Structural Engineering (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Geometry (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Measurement Of Optical Distance (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)

Description

本発明は、両眼視差を有する撮像装置を用いて、2つの物体の任意の箇所の距離を簡単に計測することが可能な画像計測装置に関するものである。
所望の領域間の距離を測りたい場合には、物差しや巻尺のような計測器を直接計測箇所に押し当てて計測する方法が一般的である。しかし、広範囲に渡る物体間の距離を計測する場合や、計測対象が動いている場合には直接計測することが困難である。例えば、電車の乗り心地や安全性を確保するため、左右のレール間の距離(軌間)をレール上の多数の箇所で計測し、規定の距離に収まっているかの検査を行う場合があるが、計測箇所が広大であるため作業が煩雑になり、全体を計測するのに膨大な時間がかかる。また、例えばスポーツにおけるフォーム確認のため、走行者の腰の高さ、つまり地面と腰の距離の変位を解析したい場合などでは、計測対象が動いているため直接計測することは困難である。そこで、非接触で所望の対象の距離を計測することが望まれている。非接触で計測する方法の一つとして、画像を用いて計測箇所を視覚的に確認しつつ計測する技術が提案されている。
下記特許文献1は、2つの撮像部を備える撮像装置を用い、両眼視差を有するペア画像から被写体の3次元モデルを生成し、ユーザーの指定する2点間の長さを算出する技術に関して開示されており、画像上で指定する2点間の実際の長さの計測が可能となる。
特開2011−232330号公報
しかしながら、上記特許文献1に記載の技術では被写体の3次元モデルを生成する必要があるため、カメラに対して動いている計測対象の場合には3次元モデルの生成が困難なことや被写体上の多数の点に渡り3次元位置を計算する必要があるため処理量が大きくなりシステムが大規模化するという問題がある。また、生成した3次元モデル上の2点間での距離の計測は可能であるが、曲線や平面など領域を有する対象間の距離を計測する場合には距離が最小となる計測点を抽出する作業をユーザー自身がする必要があるため、作業が煩雑になる問題がある。さらに、画角に入りきらない対象との距離の計測や、被写体とカメラの位置関係が動的に変位し、それに合わせて計測点が変位する場合は考慮されていない。
本発明は、上述の実情を鑑みてなされたもので、簡単な操作によって曲線や平面など広範囲に領域を有する対象との距離を計測することを目的とする。
本発明の一観点によれば、画像上から第1の計測領域を取得する第1の計測領域取得部と、前記画像上から前記第1の計測領域とは異なる第2の計測領域を取得する第2の計測領域取得部と、を有し、前記第1の計測領域、および、前記第2の計測領域に対応した距離情報から、前記第1の計測領域と前記第2の計測領域との距離を算出する画像計測装置であって、前記第1計測領域が画像上で変位させる入力部からの操作に応じて、前記第2計測領域において、前記第2計測領域が位置する前記画像上の輪郭、または、平面上を変位させる線領域追従部または平面領域判定部と、前記変位後の前記第1計測領域と前記線領域追従部または平面領域判定部により変位させた変位後の前記第2計測領域の距離を算出する距離算出部と、を有することを特徴とする画像計測装置が提供される。
本明細書は本願の優先権の基礎である日本国特許出願2013−097837号の明細書および/または図面に記載される内容を包含する。
本発明によれば、画像上で2つの領域を指定することで、非接触で簡単に2領域間の距離を得ることができる。カメラとの相対位置が変わった場合や指定した被写体がカメラの画角に入りきらないほど広範囲の対象であっても、計測箇所を追従して自動で検出するため、所望の領域間の距離を計測することが可能という効果が得られる。
本発明の一実施形態による画像計測装置を用いた画像計測システムの一構成例を示す機能ブロック図である。 本発明の一実施形態による画像計測装置と撮像装置とを用いた画像計測システ の一構成例を示す機能ブロック図である。 本発明の一実施形態による画像計測装置の計測部の一構成例を示す機能ブロック図である。 本実施形態の画像計測装置を用い、計測したい領域を計測する場合の、撮影から計測結果確認までの測定方法を示した図である。 図2の計測作業において、本実施形態の画像計測装置の各構成部で実行される処理の流れを示しており、撮影画像の取得から計測領域の算出までの処理の概要を示したフローチャート図である。 (a)は、計測時における撮影画像を示した図であり、(b)は、計測箇所の断面を示した図であり、(c)は、計測位置を変更した一例を示した図であり、(d)は距離計測結果の変位を示した一例である。 (a)(b)は、撮影位置が変わった場合での撮影画像を示した図である。 本発明の一実施形態による画像計測装置の計測部の一構成例を示す機能ブロック図である。 計測における操作手順を示しており、計測対象の撮影から計測結果の確認までの流れを示したフローチャート図である。 (a)は、計測時における撮影画像を示した図であり、(b)は、撮影位置が変わった場合での撮影画像を示した図である。 距離計測結果の変位を示した一例である。 異なる位置から撮影した場合の概要図及びブロックマッチングを説明する概要図である。 第1または第2の3次元計測領域取得部が算出する3次元位置に関する図である。
<第1の実施形態>
以下、本発明に係わる画像計測技術について各実施形態を挙げ図面を参照しながら説明する。
図1Aは、本発明の一実施形態における画像計測装置を備えた画像計測システムの概略構成例を示す機能ブロック図である。画像計測システム10は、映像入力装置11と画像計測装置12とを有している。映像入力装置11は、例えば、撮像装置13、再生装置14、通信・ネットワーク15などであり、計測対象となる被写体の映像データを取得し、画像計測装置12へ出力する。画像計測装置12は入力された映像データから所望の2領域間の距離を算出する。本実施形態では、撮像装置13と画像計測装置12から構成される画像計測システムを例にして説明する。その概要構成例を示す機能ブロック図を図1Bに示す。なお、画像計測装置12への映像データの入力方法はこれに制限されないものとする。
本実施形態における画像計測システム10は、撮像装置13と、画像計測装置12とから構成され、画像計測装置12は、画像処理部102と、記録部103と、表示部104と、入力部105と、計測部106と、を有している。
撮像装置13は、少なくとも2つの撮像部である第1撮像部101a、第2撮像部101bを有し、それぞれの撮像部101a・101bは、レンズとCCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)などの撮像素子、それらの動作を制御する制御部、メモリなどから構成される撮像装置の一般的な構成を有する。2つの撮像部101a・101bは、それぞれの撮像部101a・101bで撮影された2つの画像が視差を有するように、互いに左右方向に平行にずれた位置に配置される。
ここで、ある被写体上のある点は、2つの画像上では撮影位置、すなわち視点位置が異なるため、水平方向にずれた場所に位置し、このずれ量を視差という。この場合、平行に配置して撮影された画像の視差は、被写体が撮像装置に近いほど視差が大きく、逆に遠いほど視差が小さくなり、撮像部間の長さに対して非常に遠い、すなわち無限遠領域での視差はほぼ0となる。ある距離における視差は、撮像部101a・101b間の距離である基線長や光学系、解像度などの撮像素子に関連するパラメータによって決まる。本実施形態では、2つの撮像部101a・101bは同等の特性(仕様)を有し、レンズ、撮像素子などは同じものを使用しているものとして説明する。仕様が異なる場合には、基準となる撮像部に対してもう一方の撮像部の各パラメータを正規化すれば良い。このようにして、撮像部101で撮影された撮影画像データは、画像処理部102に出力される。この時、撮影時の基線長や焦点距離情報など必要な撮影情報をカメラパラメータ取得部113に出力する。なお、カメラパラメータ取得部113は別途カメラパラメータを事前に保持することで、撮像部101から直接出力しない構成も取り得る。
なお、以降、1回の撮影において取得される撮像部101で撮影された視差を有する画像を、それぞれ画像a、bと表記するものとする。
画像処理部102は撮像部101によって撮影された画像データの明るさの調整や色の調整などの処理、表示部104に合わせたデータ形式への変換、記録部103とのデータ出力処理や読み出し処理などを行う。また、後述する計測部106への画像データを出力したり、計測部106から得られた情報を基に撮影画像に文字やマークや図などの情報を重畳して出力したりするなどの処理を行う。本実施形態では、撮像装置13からの撮影画像データは視差値の調整がされていないものとするが、例えば、立体映像の立体感調整のために、画像a、bの視差値を調整して出力される場合には、元の配置の状態に戻すよう処理をして計測部106へと出力する。
記録部103はハードディスクやフラッシュメモリなどで構成され、画像処理部102から出力された画像データの記録を行う。
表示部104は画像処理部102から受け取った画像などを表示する装置であり、例えば液晶ディスプレイなどで構成される。表示部104は、タッチパネル液晶のように後述する入力部105と一体型となった構成でも構わない。
入力部105は、ユーザーによる選択や決定のコマンドを入力するものであり、例えば画像上のポインタを動かすための十字キーやタッチパネルによる入力である。本実施形態においては、表示部104と一体型となったタッチパネル液晶によって構成され、画像上の計測領域を選択する場合には、指定したい箇所をタッチすることで計測したい部分などの選択ができる。計測部106は、ユーザーによって指定された2つの計測領域間の距離を算出する。
図2は、計測部106の詳細な構成例を示す図である。計測部106は、第1の計測領域取得部111と第2の計測領域取得部112と、カメラパラメータ取得部113と、距離情報取得部114と、第1の3次元計測領域取得部115と、第2の3次元計測領域取得部116と、距離算出部117と、線領域追従部118と、から構成され、撮影された画像データからユーザーの計測したい2領域間の距離を算出する。算出された計測結果は表示部104に表示させることができる。
図3は、計測における操作手順を示しており、計測対象の撮影から計測結果の確認までの流れを示したフローチャート図である。また、図4は、計測時の処理の流れを示したフローチャート図であり、計測処理において、本実施形態の画像計測装置12の各構成部で実行される処理の流れを示しており、撮影画像の取得から計測領域の入力、2領域間の距離算出までの処理の概要を表す。
まず、図3を用いて計測手順に関して説明する。ここでは、図5(a)に示すような線路の2つのレール間の距離である軌間を広範囲に渡って計測する際に、線路上から本撮像装置によって計測する事例で説明する。
画像計測システム10の計測モードの起動を検知すると、撮像装置13により、計測対象の領域が撮影される(S301)。この時、計測対象を撮影した画像を図5(a)に示す。図5(a)には2つのレール501L、501Rと前方の方に別の被写体502が撮影されている。次に、距離の計測箇所を指定するため、2つの計測領域を指定する。ここでは、2つのレール501L、501Rの内側の距離を計測するため、第1の計測領域の指定ではレール501Lのエッジ503L上の計測点P1Lを指定する(S302)。計測領域の指定は表示された画像上の領域を指定することで選択できる。例えば、エッジ503L上の点を指定したい場合には、エッジ503Lを画面上でなぞるようにして計測領域のエッジを選択し、次にエッジ503L上の点を指定することで第1の計測点P1Lを指定できるなど簡単な方法で指定できるのが望ましい。これは、直感的に分かりやすいだけでなく、所望のエッジを検出する精度を高める効果を有するためである。通常、画像中には複数のエッジが検出されるが、エッジをなぞるようにして選択するようにすることで、ユーザーの選択したいエッジの方向が判断できる。そのため、選択領域付近に計測対象でない他のエッジが検出される場合でも、入力されたエッジ方向から不要なエッジを判別できるため、検出精度を上げることができる。特に表示画面が小さい場合にはより有効である。例えば、タッチパネルに指で入力する場合に、画面が小さいほど指定される領域が広くなってしまい、不要なエッジも含まれる可能性が高くなるためである。
次に第2の計測領域を指定する(S303)。第2の計測領域指定では対象のレール501R上のエッジ503Rを指定する。同様に画像上でエッジ近傍をなぞることでエッジ503Rが指定されるようにすることで簡単にエッジの指定ができる。第1の計測領域と第2の計測領域が指定されると2領域間の3次元空間(実空間)での距離が計測され、画面上に計測箇所と距離の数値が表示され、計測箇所とその計測値が確認できる(S304)。この時、3次元空間で計測点P1Lと最小の距離をとるエッジ503R上の点P1Rが自動で検出され、計測点P1Lと計測点P1Rの距離の算出値504が表示される。図5(b)は2点P1L,P1Rを通り、レールに対して垂直方向の断面を示したものであり、2つのレール上方の内側2点(P1L、P1R)間の距離504が計測される。
次に、軌間を広範囲に渡って計測する際に、計測箇所を移動させる必要があるが、ここでは画像上で計測箇所を移動させる場合(S306)と、撮影位置を移動しながら計測する場合(S307)の2通りの方法で説明する。
撮影画像上で計測箇所を移動させながら2点間の距離を計測することが可能なため、撮像装置を移動しなくても撮影範囲の中であれば広範囲の領域で計測することができる(S305のyes)。撮影画像上で計測箇所を移動させる場合には第1の計測点をエッジ503Lに沿って移動させるだけでエッジ503Rとの距離が算出される。図5(c)は図5(a)から画像上でP1Lの位置をエッジ503L上の異なる点P2Lの位置に変更した場合の計測結果を示している。第1の計測点をP1LからP2Lの位置に変更した場合に、P2Lに対してエッジ503R上の3次元空間上で最小距離となる新たな第2の計測点P2Rが検出され、P2LとP2R間の距離が算出される。そのため、第1の計測点の位置を変更するだけで、変更後の計測点の位置を基準に所望の曲線(エッジ503R)との距離を計測することができる。ここで、例えばP1LからP2Lまでの区間での軌間の変位を確認したい場合には、P1LをP2Lの位置まで移動させることで2領域間の距離の変化情報を得ることができる(S306)。この時、P1LからP2Lまでの移動に伴って計測点も変位しながら都度距離計測が行われ、それら距離データが記録される。このようにして第1の計測点を移動させるだけでその区間中の距離計測が簡単に行え、その変化の情報が確認できる(S308)。
この時、例えば図5(d)のように計測した範囲の距離(軌間)変位結果をグラフ化して表示することで変化具合を容易に確認できる。計測箇所の確認や継続して計測する必要がなければ計測モードを終了する(S309のno)。図5(d)に示すように、軌間の基準として基準値507と508の間に収まっている必要があるものとし、計測値509はこの基準値を超えているものとする。計測値509の計測箇所を確認したい場合(S309のyes)には、計測値509の箇所を選択すれば(S310)、その計測値が得られた箇所が撮影画像上に表示され、計測箇所の確認ができる(S311)。これは計測値と画像上の座標との対応付けが簡単にできるためである。このように、第1の計測点を画像上で移動させるだけで、第2の計測領域から対応する計測点を自動で検出されるため、広範囲に渡って簡単に2領域間の距離を計測することが可能である。また、得られた計測値からそれが算出された箇所が瞬時に画像で確認できるため、計測値と計測箇所の管理が容易である。
上記では撮影位置を固定して画像内で計測位置を変更しながらその計測値の変化を確認したが、画角に入りきらないほど広範囲に渡って2領域間の距離変化を計測するためには移動しながら計測する必要がある。この時、図5(a)に示す初期の撮影画像上で計測領域を指定した後、撮影しながら移動すればよい(S307)。
本実施の形態では、レールに沿って前方へ移動しながら計測する場合で説明する。上述では計測点P1Lを画像内で移動させて広範囲に渡る計測値を算出したが、この場合には撮像装置の移動に伴ってP1Lの位置を変化させることで広範囲の距離とその変位を計測する。図6(a)は図5(a)の撮影位置から前方に移動した際の撮影画像を示している。同じ記号は同一の被写体である。レール501Lの内側のエッジ503L上の計測点P4Lが得られて、それに対応するようにエッジ503R上の第2の計測点P4Rが検出され、その2点間の距離510が算出されている。この場合、P1LとP4Lの画像縦方向の画素位置を同じ位置として固定し、エッジ503Lの位置を追従して、エッジ503L上の位置となるように横方向の画素位置を補正して第1の計測点位置が自動で設定される。撮影位置が前方に移動するに伴って、第1の計測点もエッジ上の位置を確保したまま移動する方向に第1の計測点の位置が変更され、その位置ごとにレールの軌間の計測がされる。このように、第1の計測領域上の計測点を撮像装置の移動量と方向を加味して設定することで広範囲の計測が可能となる。
計測された距離データは同様に記録されているのでP1LからP4Lまでの範囲に渡って軌間の計測値を得ることができ、図5(d)に示すようにその変化と該当の計測箇所の確認が簡単にできる(S308)。
このようにして、撮影と簡単な計測領域の指定だけで広範囲に渡たって2領域間の距離の計測が可能となる。また、計測値と画像データの対応が容易に管理できるため、どのような個所の計測値であるか確認したい場合には対応する撮影画像を簡単に抽出でき、さらには実際の撮影画像上に重畳表示することで容易に詳細な計測箇所の認識ができる。
本実施の形態では先に計測領域を指定してから、撮影、計測を行った処理の例について示したが、これに限定されることはなく、まず、撮影をした後に、所望の2領域間の距離を指定する処理でも良い。画像データを記録しておけば、後からでも確認できるため、計測忘れや遠隔地での計測も可能であるという効果がある。
次に、上記操作手順に沿って図4を用いて各構成部の処理の流れを説明する。計測モードが起動して計測対象を撮影し、撮影画像が記録される(S401)。この時、撮像部101で取得された視差を有する画像a、bは画像処理部102へ受け渡され、明るさの調整やJPEGなどの静止画ファイルやMPEGなどの動画ファイルなど各種データ形式に変換され、記録部103に記録される。また、撮影された画像は表示部104に表示される。ここでは基準画像を左側に配置された撮像部101aでの撮影画像とし、この基準画像を表示部104に表示するものとする。次に表示された画像からユーザーは計測したい箇所を入力部105によって指定し、第1の画像計測領域取得部111と第2の計測領域取得部112によって撮影画像上の計測領域情報を取得する(S402、S403)。本実施形態では、表示部104は例えば静電容量式のタッチパネル液晶で構成され、入力部105と一体となった構成を例とするが、画像上に表示されたカーソルを動かすキーによって選択するなど、画像を視認しながら所望の計測したい領域を選択する方法であれば上記の方法に限定されない。
第1の計測領域の取得に関して説明する。第1の計測領域取得部111では、画像aにエッジ検出処理を行い、入力されたエッジ領域情報を参照して検出されたエッジの中から最も近い領域、方向のエッジを第1の計測領域として選択する。計測部106の入力はエッジ方向になぞるように入力する手段とし、入力の動く方向を検出することで、ユーザーの計測したいエッジ方向を識別する。入力する手段による入力座標と入力方向とを用いることで、より精度よくユーザーの選択したいエッジを抽出することができる。
エッジ選択後には、抽出されたエッジを画像上に重畳表示してユーザーに通知することで、ユーザーが選択したかったエッジ領域であるのか確認させるのが望ましい。また、ユーザーの選びたいエッジとは異なった場合には再度選択させるように面上に通知するコーションを表示するのが望ましい。これは、後で説明するように、初期に設定された計測領域を基にその後自動で追従しながら広範囲の距離の計測処理を行うため、事前に確認することで目的の計測が確実に行えるようになるためである。画像のエッジを検出する法はSobel、Canny、Laplacianなど様々な手法があるが、同一被写体上の特徴のあるエッジ領域が検出できればよく、ここでは特にエッジ検出法の制限されないものとする。
次に、選択されたエッジに対してさらに計測点が画面上で入力され、その画像上の座標情報を取得して第1の計測領域上の計測点を取得する(S402)。
エッジやエッジ上の計測点の選択では、例えばユーザーが図5のエッジ503Lから少しずれた位置を指定しても、最も近いエッジ503Lが選択されるようにしたり、該当するエッジ上の点が選択されたりするなど自動で位置を補正して選択されるようにすることが望ましい。表示画面サイズが小さな場合には、撮影画像を縮小表示することになり、表示画面上で、1画素単位で指定しても撮影画像データ上では数画素分の領域を有することになる。また、タッチパネルに指を使って指定する場合など細かな領域での指定が難しい場合がある。そのような時に上記のように自動で位置を補正することで目的の計測箇所が簡単に選択できるようになる。さらには、取得した計測点の位置が計測したい箇所であるか画面上に重畳表示してユーザーに確認するのが望ましい。
次に、第2の計測領域であるエッジが画像上で指定され、第2の計測領域取得部によりその座標情報を取得する(S403)。この場合も第1の計測領域の指定の際に説明したように、目的の計測領域が精度よく指定できるようにするため、入力されたエッジ方向や指定された領域に近いエッジ位置情報を抽出して座標位置を補正する方が望ましい。
本実施形態では指定領域に対して近傍のエッジや点を選択するようにしたが、これに限定されることなく、例えば、事前に検出されたエッジを画面上に重畳表示し、その中からユーザーに選択させるのでも良い。
取得された第1の計測領域の座標情報、第2の計測領域の座標情報は距離情報取得部114へと出力され、選択された計測領域に対する距離情報を取得する(S404)。
距離情報取得部114では、指定された計測領域に対して3次元空間上(実空間上)での距離情報を取得する。ここでは、視差を有する2つの画像から計測領域に対する視差値を算出し、それを距離情報とする例で説明する。
距離情報取得部114では、入力された基準画像a上の計測箇所A、Bの座標における対応点を撮像部101bの画像b上から求めて視差値を算出する。対応点とは、画像a、画像bに写る被写体上の同じ特徴点を示し、この場合、画像a、bは異なる位置に配置された撮像部によって撮影された画像であるため、上記の同じ特徴点は2つの画像上で異なった座標位置に配置される。例えば、2つの撮像部が水平方向に配置されているのであれば、対応点は水平方向にずれた位置に検出される。
視差値算出には、例えばブロックマッチング法を用いることができる。ブロックマッチング法による視差値算出は、ブロック単位での類似度により2つの画像間で同じ被写体の特徴点位置を検出し、そのずれ量(視差量)を検出する。この特徴点に係る2つの画像中の共通の点を上述したように対応点と呼ぶ。対応点の探索を行うために評価関数としてSAD(Sum of Absolute Difference)を用いる。SADでは画像1、画像2のそれぞれで注目画素を中心にウィンドウを設定し、設定したウィンドウ間の各画素の輝度の差を求め、その各画素間から得られた輝度の差の総和を算出する。同様な処理を画像2側の注目画素を変えながら行い、値が最も小さい注目画素が対応点であるとする。
図11(a)には被写体Oを水平方向に視点の異なる位置から撮影した場合の概要図を示している。左視点から撮影された画像は画像1であり、右視点から撮影された画像は画像2のようになる。このとき、撮影された画像を図11(b)に示している。図11(b)では視点位置が異なることで、被写体Oの位置がそれぞれの画像で異なる位置に存在することが分かる。
図11(c)と図11(d)とを用いて、画像1を基準に視差値を算出する場合において、被写体O上の一つの頂点を特徴点とした際のブロックマッチングの説明をする。この特徴点が画像1上の画素aに存在するとした場合に、画素aを中心とした3×3の大きさのウィンドウM1を設定する。次に、画像2において画素aと同一の位置にある画素a’を探索開始点として設定し、3×3のウィンドウM2を設定する。次に設定したウィンドウ間の各画素の輝度の差を求め、その各画素間から得られた輝度の差の総和を算出する。例えば、図11(d)のように、それぞれの設定したウィンドウの画素の値をX1〜X9、X’1〜X’9とすると、
Figure 0006195915
式(1)のような計算を行い、SAD値を求める。平行配置された撮像部で撮影された視差を有する画像は無限遠が視差0であり、近くの被写体になるほど視差が大きくなる。このとき、画像1を基準として画像2が右視点の場合には、画像2上の特徴点は左側に移動する。そこで、探索方向を左側として画素a’から左方向に注目画素を変更していき、上述したSAD値を順次求め、得られたSAD値の中で最小値をとる注目画素を対応点とする。この場合、対応点である画像2上の画素a’が最も値が小さい結果となれば、この画素を対応点とする。
対応点を求めたい画素に対し、このような処理を行うことでその画素に対する視差値を取得することができる。本実施形態では、画像1と画像2のサイズは1920×1080、ウィンドウサイズは注目画素を中心に25×25として設定し視差値の算出を行っている。尚、ここでは上記の画像やブロックサイズを設定したが、これに限定されるものではなく精度や処理量を考慮し、適宜設定すればよい。また、本実施形態ではSADを用いたブロックマッチングによって求めたが、他の評価関数でも構わない。
また、ブロックマッチングのように領域ベースのマッチング方法に制限されず、その他の特徴点を検出する方法でも構わない。視差を算出する他の方法は、画像上の濃淡値の変化が大きい点や領域を抽出し、その点や領域に対して特徴量を規定する処理を行い、類似性を識別する。特徴点を抽出し、その類似性を識別するための方法としては、例えば、SIFT(Scale−Invariant Feature Transform)を用いた特徴量検出方法がある。SIFTは特徴点の周辺を数画素のブロックに分割し、ブロックごとに8方向の勾配ヒストグラムを求めて128次元の特徴ベクトルで示すものである。また、その他の特徴量検出にはSURF(Speeded-Up Robust Features)やGLOH(Gradient Location−Orientation Histogram)といった手法もある。視差値は撮影位置からの距離と相対関係があり、距離が近いほど視差値は大きく、遠いほど視差値は小さく、無限遠で0になる。そのため視差値を距離情報として扱うことができる。
次に、得られた計測領域上の距離情報はそれぞれ第1の3次元計測領域取得部115と第2の3次元計測領域取得部116に出力される。第1の3次元計測領域取得部115では計測点の撮像部101を基準とした3次元位置座標が算出される(S405)。
ここでは、基準画像中心を原点とするため、前記3次元座標の原点は第1撮像部101aの光学中心となる。第1の3次元計測領域取得部115によって得られた3次元座標は距離算出部117に出力される。
第1の3次元計測領域取得部115は、入力された各点の距離情報とカメラパラメータ取得部113から入力された情報を基に、各点の実際の3次元位置情報を算出する。ここで、カメラパラメータ取得部113によって入力された情報とは、撮像部101の外部カメラパラメータや内部カメラパラメータを示す。カメラパラメータ取得部113は撮像部101からこのようなパラメータを取得したり、データベースなどの記憶部に保持する。記憶部は、距離算出部が算出した距離情報を、変位に依存させて記憶する。距離情報を、操作時間に依存させて記憶するようにしても良い。
ここで、撮像部の外部カメラパラメータとは2つの画像がどのような配置の撮像部によって撮影されたかを示す情報であり、例えば2つの撮像101a、101b間の距離である基線長や撮像部間の光軸の相対的角度を示す輻輳角などである。また、内部カメラパラメータは撮影における撮像部の焦点距離情報、撮像素子の画素ピッチなどの情報である。カメラパラメータ取得部113はこのようなパラメータ情報を第1の3次元計測領域取得部115、第2の3次元計測領域取得部116へ出力する。
第1の3次元計測領域取得部115は、入力された座標情報に対応する実際の3次元位置情報を算出する。各撮影位置において、ここでの3次元位置は、視差値算出時の基準画像を撮影した撮像部の光学中心を基準とした実空間座標位置であり、撮像装置から被写体までの距離や左右上下方向の位置を表す。
第1の3次元計測領域取得部115が算出する3次元位置に関して図12(a)、(b)を用いて説明する。図12(a)は図中のX軸、Y軸、Z軸で形成される3次元空間と各撮像部との配置の関係を概念的に示したものであり、基準となる撮像部101aの光軸とZ軸が一致している。また、撮像部101bは撮像部101aに対して基線長Bだけ平行に移動した位置に配置されるものとする。この時、撮像部の焦点距離を焦点距離fとすると、2つの撮像部のセンサー面1201a、1201bは、Z=fの平面位置に配置される。
ここで、3次元空間上に位置する被写体上の点Kの座標を(X、Y、Z)とすると、点Kは2つのセンサー面1201a、1201b上に投影され、投影されたセンサー面上の点をそれぞれka,kbとする。各センサー面1201a、1201b上に投影されたKの座標はピクセル単位で示すことができ、例えば基準画像上の左上を原点とした場合では、ka,kbの座標はそれぞれ(xa,ya)、(xb,yb)とする。
また、図12(b)は図12(a)をY軸方向から見た図を示している。図12(b)の撮像部101aの光軸1202aはZ軸に一致し、撮像部101bの光軸1202bとは平行である。センサー面1201aでは点Kは3次元座標原点と点Kとを結ぶ直線1203との交点上の座標xaに投影される。同様にセンサー面1201bでも直線1204との交点上の座標xbの位置に投影される。視差Dはこの同一の点Kの投影位置の差であるので、D=|xa−xb|と示すことができる。仮想的には、xbの位置はセンサー面1201aでは直線1204が原点を通るように位置した際の交点xb’との差ともいえる。
ここで、点K(X,Y,Z)を求める。画像上の座標kaを画像の中心を原点として表した場合の座標ka’を(x’,y’)とする。この時、点Kに対する視差値D、撮影時の焦点距離f、基線長B、センサーの画素ピッチPを用いて、点Kまでの実空間上の距離Zは下記のように表すことができる。
Z=(B×f)/(D×P)
また、センサー1画素あたりの大きさは距離Zの平面上ではZ*P/fと示せるので基準画像中心を基準とした3次元位置情報(X,Y,Z)のXとYは下記のように表せる。
X=x’×B/D
Y=y’×B/D
上記のように計測点の実際の空間上の3次元位置情報を求めることができる。
このようにして、エッジ503L上の計測点P1Lの実空間上の3次元位置情報が得られる。
同様に第2の3次元計測領域取得部116においても、入力された第2の計測領域情報と視差値からエッジ503R上の点に対する実空間上の3次元位置座標を求める(S406)。ここで、第2の3次元計測領域取得部116内の3次元線領域算出部によって直線か曲線かの判定がされ、第2の計測領域が直線であれば直線上にある2点を抽出し、第2の計測領域が曲線などで構成されて直線でない場合には、エッジ上の3点以上の3次元位置情報を算出する。曲線の場合にはその曲率や形状によって算出点の間隔や数が制御される。複雑な形状の場合に抽出した点が少ないと実際のエッジ位置とのずれが発生するため計測誤差が大きくなるため抽出する点の数を増やす必要がある。
次に算出された第1の計測領域の3次元座標情報と第2の計測領域の3次元座標情報は距離算出部117に入力され、第1の計測領域と第2の計測領域との3次元空間上での距離を算出する(S407)。第2の計測領域が直線である場合には、直線上の2点の3次元座標から3次元直線方程式を求めることができ、第1の計測点の3次元座標と得られた第2の計測領域の3次元直線方程式との最小距離と第2の計測点の3次元座標を算出する。第2の計測領域が直線でない場合には、第2の計測領域上の複数点との距離を算出して比較し、最小となる距離が得られる3次元座標とその距離値を計測値として出力する。例えば、第1の計測点の3次元座標をA(Xa,Ya,Za)とし、第2の計測領域上のある点の3次元座標をB(Xb,Yb,Zb)とすると、2点A,B間の距離Lは下記のように算出することができる。
L=√(|Xa−Xb’|+|Yb−Yb’| +|Za−Zb’|
点Bの座標を入力された複数の第2の計測領域上の座標で実行することで、第1の計測点と第2の計測領域上の各点と距離が得られるので、その中の最小の距離Lとなる3次元座標Bを第2の計測点とする。算出された距離を表示部104に出力して距離と計測点を表示する(S408)。
本実施の形態では第1の計測点と第2の計測領域との距離が最小となるように第2の計測点を算出したが、これに制限されることはなく、例えば第1の計測点を通り、第1の計測領域であるエッジ503Lに垂直となる方向での距離を求めるものでもよい。この場合、第1の計測点P1Lを通り、エッジ503Lに垂直となる平面と第2の計測領域であるエッジ503Rとの交点を第2の計測点P1Rとして2つの計測点間の距離を算出する。第1の計測領域に対して同じ方向の距離を検出し続けたい場合などでは、角度を指定した計測方法が扱いやすい。
線領域追従部118は計測対象のエッジ位置を追従し、画像内から同一エッジの位置を検出する。前述したように、撮影画像内で計測箇所を移動してその範囲の距離情報を取得したい場合には(S409のyes)、移動後の指定座標に合わせて初期に設定したエッジと同一のエッジ上の点となるように計測位置を補正する(S410)。ここでは同一のエッジかの判断はエッジの連続性を判定して、連続したエッジ成分であれば同一とみなす。移動しないで撮影画像内において計測位置を変更する場合には初めに選択されたエッジを連続したエッジとする。ここで、画像上にはエッジが多数検出される場合があり、計測点の変位途中で別のエッジと正確に区別することが必要となる。例えば、背景領域のエッジを混在した場合には2次元画像だけでは判定が難しい。そのため、計測点の変位時において、同領域に複数のエッジ成分が検出された場合には、第1の3次元計測領域取得部115と第2の3次元計測領域取得部116から得られた3次元情報を基に空間的に近いエッジを抽出して連続したエッジであると判断する。このように、撮影画像のエッジ情報だけでなく、3次元位置情報も用いることで、計測対象外のエッジとの分離を行い目的のエッジ位置精度良く取得する。
また、撮影位置を移動しながら計測を行う場合には、各フレーム間でエッジの位置が変位するが、各フレームでエッジ検出を行い、その移動量を検知して同一のエッジ上の点となるように計測点の位置を補正する。この時、各フレーム間で共通するエッジが存在する場合にはエッジ位置の移動方向とずれ量検出する。撮影位置の移動により、前フレームで撮影されなかった領域が発生する場合には、移動方向側の画像領域において、計測対象のエッジ位置との近いエッジを連続したエッジとして検出する。また、複数のエッジが検出され、2次元画像から判別が困難な場合は同様に3次元情報を基に空間的に近いエッジを検出して連続したエッジとする。
補正した計測位置情報は第1の計測領域取得部111と第2の計測領域取得部112に入力されて、距離算出処理が実行される。
このようにして、広範囲に渡って計測された距離情報は記録部103に保存され、表示部にてその変位情報が確認できる。画像と計測箇所と計測された距離の対応関係が容易に管理できるため、ユーザーの目的に応じた計測結果の表示が可能である。
例えば計測された距離とその計測位置を記録しておき、前述したように図5(d)に示すような実空間上の計測箇所と計測値の関係をグラフで表示することで、全体の変位の傾向を容易に把握することができる。また、事前に計測許容値のようなものを設定しておき、それを超える距離が算出された場合のみ知りたい場合には、該当する距離とその画像データのみ表示することで、どの箇所で問題があるのかのみを簡単に管理できる。
また、動画で移動しながら撮影して計測を行う場合には、計測値がどのフレームから算出したかを記録しておくことで、該当するフレームの画像データを抽出して提示することで膨大な画像データから対象の画像をユーザー自ら探す必要はなくなる。
また、より広範囲に渡る計測の場合には画像データと供にGPS情報を記録しておくことでその画像がどの場所で撮影されたか容易に分かる。
ここで別の効果として、移動しながら撮影して計測する場合に、複数フレームに渡って同じ位置の距離を計測することで計測精度を向上させることができる。例えば、図6(b)は図5(a)の撮影位置から前方に移動して撮影した画像を示し、計測点P1Lと計測点P1Rは被写体の同一箇所の点とする。ここで、視差を有する画像から3次元位置を算出する場合には、撮像装置から対象までの距離精度が計測精度に影響する。撮像装置から対象までの距離を算出する際には基本的には1画素内の範囲に対応する距離は判別することができず、この値を距離分解能という。撮像装置の基線長と撮像装置との距離の条件を変えた複数の画像を用いることで上記距離分解能を向上させることが可能である。一般的には対象までの距離を固定にして複数の異なる基線長で撮影した画像データ群から1画素以下の精度で距離を検出するが、基線長を固定として対象までの距離を変えることと同意である。ここではその方法の詳細に関しては記載しないものとするが、上記のような基線長と対象までの距離の条件を変えた複数の画像を得ることができれば高精度化が可能である。本発明では移動しながら撮影した場合においても計測箇所が検知でき、複数フレームの画像で同一箇所の計測点の抽出が可能であり、上記のような高精度化手法が適用できる。撮影位置の移動に応じて位置を変えた距離の計測と複数フレーム内での同一箇所の距離の計測を並列して行うことでより高精度で広範囲に渡る2領域間の計測が可能である。
このように、本実施形態の撮像装置によれば計測箇所が広範囲に渡る場合であってもユーザーからの簡単な操作によって領域を指定することで所望の領域の距離を取得することができる。
<第2の実施形態>
本発明の第2の実施形態による画像計測装置を説明する。第2の実施の形態は、平面領域との距離を簡単に計測できる装置であり、第1の計測領域で指定された計測対象を追従し、第2の計測領域として指定された平面との距離を時系列的に計測することで、平面上を移動する物体と平面との距離(高さ)の変化を計測することができる。
第2の実施形態における撮像装置の構成は、図1に示す構成とほぼ同様であり、撮像装置13は、撮像部101と、画像処理部102と、記録部103と、表示部104と、入力部105と、計測部106と、を有している。各部の詳細な説明は同様のため省略する。次に、計測部106の構成を図7に示す。第2の実施形態における計測部106は、第1の計測領域取得部701と第2の計測領域取得部702と、カメラパラメータ取得部113と、距離情報取得部114と、第1の3次元位置取得部115と、第2の3次元領域取得部703と、距離情報算出部117、計測領域追従部704、平面領域判定部705とから構成され、計測領域1と平面領域との距離を算出する。算出された計測結果は表示部104に表示される。図2と同じ図番の構成部は同様の処理を行うものとする。
以下に、本実施形態における計測全体の流れを説明しながら各動作について詳述する。本実施形態ではスポーツのフォーム解析の一部を事例として、走行中のランナーの腰の上下動、つまりランナーの腰と地面との距離を計測する例で説明する。図8は計測における操作手順を示しており、計測対象の撮影から計測結果の確認までの流れを示したフローチャート図である。
ここで対象の走行中のランナーを撮影し、撮影後に計測部を指定して距離を計測するものとして説明する。撮像装置の計測モードの起動を検知すると、撮像装置13により、計測対象の領域が撮影される(S801)。この時、計測対象を撮影した画像の一部を図9(a)に示す。図9(a)にはランナー901、地面903a、背景に被写体902が撮影されている。腰と地面との距離が必要なため2つの領域が画角内に入るように撮影する。そのような条件の基で走行するランナー901を撮影する。また、ランナー901が大きく移動する場合にはランナー901に合わせて撮像装置を移動させて撮影する。仮にランナー901が大きく移動して画角外に出てしまった場合でも、画角内に入った際に自動で追従される。図9(b)はt秒後のランナーを撮影した画像であり、図9(a)に対してランナーが右方向に移動したため、それに合わせて撮影位置を移動した様子を示している。ここで図9(a)(b)で同じ番号の対象は同一のものとみなす。
撮影が終了したら、距離の計測箇所を指定するため、まず第1の計測領域を指定する。ここでは、人物901の腰位置と地面903aの距離を計測するため、第1の計測領域の指定では人物901の腰位置領域を指定する(S802)。計測領域の指定は表示された画像上の領域を指定することで選択できる。
次に第2の計測領域を指定するため地面903aを指定する(S803)。地面の指定方法は例えば、地面903aの一部を円で囲むように指定すれば囲まれた領域と連続する同じ平面領域が抽出され、簡単に平面領域を指定することができる。第1の計測領域と第2の計測領域が指定されると2領域間の距離が計測され、画面上に計測箇所と距離の数値が表示され、計測箇所とその計測値が確認できる(S804)。計測対象が目的の対象となっていれば撮影画像全体へ同様の処理を実行する(S805)。動画で撮影した場合にはそれぞれのフレームごとに地面との距離が計測され、その統計データが確認できる(S806)。ここでは、フレームごとに距離計測が自動で行われて、図10に示すように撮影時間ごとに計測された距離データの推移がグラフ化されて表示部にされる。計測箇所を確認する必要がなければ計測モードを終了する(S807のno)。もし、確認したい計測結果箇所がある場合(S807でyes)には、簡単に計測結果から対応する映像を表示することができる。例えば、図10に示すように時間tを境に2つの上下動のパターン1001、1002が確認できたとする。上下動パターン1002の時のフォームが確認したい場合には、計測値と撮影データが対応づけられているためすぐに対応する映像を呼び出すことができ(S808)、パターン1002の映像を計測値と供に映像を再生することもできる(S809)。また、距離計測の結果からパターン1001と1002の比較を行いたい場合においてもそれぞれの対応する映像は簡単に検索できるため、簡単に両映像を比較して確認することもできる。このように、本画像計測装置では撮影データと計測値の対応関係が容易に分かるため、映像と計測値を視覚的に分かりやすく示すことが可能である。また、計測対象も撮影後に自由に変更できるため、一度の撮影で複数個所の距離計測も可能である。例えば、腰の重心位置だけではなく、頭部の上下動も同時に確認したい場合など、計測対象箇所も複数あっても構わない。
このようにして、撮影と簡単な計測領域の指定だけで広範囲に渡たって2領域間の距離の計測が可能となる。また、どの個所の計測値であるか実際の撮影画像上に重畳表示することで容易に認識できる。
本実施の形態では先に計測領域を撮影してから計測を行った場合で示したが、これに制限される事はなく、撮影開始時に対象を指定し、撮影しながらリアルタイムで計測結果を得ることも可能である。
次に、上記操作手順に沿って図4を用いて各構成部の処理の流れを説明する。計測モードが起動して計測対象を撮影し、撮影画像が記録される(S401)。この時、撮像部101で取得された視差を有する画像a、bは画像処理部102へ受け渡され、明るさの調整やJPEGなど静止画ファイルやMPEGなど動画ファイルなどの各種データ形式に変換され、記録部103に記録される。また、撮影された画像は表示部104に表示される。ここでは基準画像を左側に配置された撮像部101aでの撮影画像とし、この基準画像を表示部104に表示するものとする。次に表示された画像からユーザーは計測したい箇所を入力部105によって指定し、第1の計測領域取得部701と第2の計測領域部702によって撮影画像上の計測領域情報を取得する(S402、S403)。本実施形態では、表示部104は静電容量式のタッチパネル液晶で構成され、入力部105と一体となった構成とするが、画像上に表示されたカーソルを動かすキーによって選択するなど、画像を視認しながら所望の計測したい領域を選択する方法であれば上記の方法に限定されない。
S402では、第1の計測領域取得部701により画像aに特徴点検出処理を行い、入力計測領域における特徴量の取得を行う。得られた特徴量は計測領域追従部704へ出力し、計測領域の座標情報を視差値算出部と第1の3次元計測領域取得部115に出力する。この時、選択された計測領域を画像上に重畳表示してユーザーに通知することで、ユーザーが選択したかった計測領域であるのか確認させるのが望ましい。
次に、距離を計測したい対象となる第2の計測領域である平面領域が画像上で指定される(S403)。ここでは、平面の指定は平面領域を囲むような操作をすることで平面領域の特徴のある点を抽出し、その3次元位置から平面領域を検出する。例えば、図9(a)でランナー901が走っている地面903aを指定したい場合、指定領域906のように、地面上の領域を指定される。指定された領域を含む範囲で特徴点検出を行い、特徴を有する点を複数算出する。次に、算出された地面903a上の複数の特徴点から3点以上の特徴点を抽出する。ここでは、図9(a)の点907、908、909の3点を含む複数点が抽出された。抽出された平面上の特徴点座標を平面領域判定部705、距離情報取得部114、第2の3次元計測領域取得部703に出力する。距離情報取得部114では入力された計測領域に係る座標情報から視差値を算出する(S404)。視差値算出の方法は第1の実施の形態と同様であるので詳細は記載しない。
平面領域の指定は上記の方法以外でもよく、例えば、あらかじめ特徴点を表示しておいて、計測対象の平面領域上にある特徴点を選択させるなど簡単に入力できる方法であれば上記に制約されない。また、入力する領域の大きさや形状に制約はなく、平面内の領域であればどこでも良い。
通常、撮影画像には多くの平面領域が存在するため、計測領域を含む平面領域を識別することは困難であるが、ユーザーによって簡単な入力で指定できるようにすることで、失敗することなく適切な平面領域を取得できる。
距離情報取得部114で算出された各計測領域に係る座標に対応する視差値は第1の3次元計測領域取得部115と第2の3次元計測領域取得部703に入力される。第1の3次元計測領域取得部115では第1の計測点の画像上の座標と視差値から撮像装置を基準とした3次元位置情報を算出して距離算出部117に出力する。第2の3次元計測領域取得部703では入力された平面領域(地面903a)上の複数の座標情報と視差値から平面を形成するための3点を抽出する。ここでは、視差値が正確に算出されているかの判定を行い、3点がそれぞれ並行に配置されない組合せの点を抽出する。視差値算の判定は、例えば、SADを用いたブロックマッチングであればSAD値の最小値を算出する際に周辺画素のSAD値との差分の比較によって行う。SADを用いたブロックマッチングの場合には前述したように順にSAD値を求めて、その中で最小値をとる注目画素を対応点とするが、特徴の少ない領域や繰り返しパターンの領域では周辺画素のSAD値との差が付きにくくなる。
つまり、明確に判別できる場合には、周辺画素に比べて最小値のピークが強く発生するが、周辺に類似性の高い領域や特徴が少ない場合には周辺画素とのSAD値と対応点のSAD値が近い値となり、差分が少なくなる。そのため、ある閾値ρを設けて周辺画素とのSAD値の差分が閾値ρ以下であれば特徴が少ないとみなし、視差が算出できないと判定し、閾値ρ以上であれば視差値が正確に算出できたと判定する。
ここでは、図9の点907、908、909が抽出され、その3点907、908、909に対して、3次元平面領域算出部703aが3次元位置の算出を行い、3次元位置を、距離算出部117と平面領域判定部705に出力する。距離算出部117では入力された第2の計測領域である平面上の3点の3次元情報から3次元平面方程式を算出し、第1の計測領域の3次元座標との距離を算出する。3次元平面方程式と直交し、かつ、第1の計測領域の3次元座標を通る直線と3次元平面との交点を算出し、交点と該第1の計測領域の3次元座標との距離を求めればよい。
このようにして、第1の計測領域と第2の計測領域である平面(地面903a)との距離L1が算出され、画像上に重畳表示されて確認を行うことができる。
次に、ランナー901が、時間経過とともに移動する場合について説明する。まず、図9(a)の撮影範囲内で移動する場合を説明する。
この場合、第1の計測領域の対象と平面を形成する3点907、908、909は画角内に収まったままである。計測領域追従部704は第1の計測領域取得部701から入力された特徴量をもとに、画像データから計測領域の移動量を検出し、その座標位置を取得する。計測領域追従部704はこのように常に第1の計測領域となる被写体位置を追従してその位置を第1の計測領域取得部701へと出力する。平面領域判定部705は撮影画像内に平面を形成する3点907、908、909を追従し、その座標位置を検出する。この場合は撮像装置位置を移動させていないので画角内に3点が配置されている。この時には平面位置は再度この3点の位置情報を用いて第1の計測領域との距離を算出する。
ここで、ランナー901が大きく移動した場合を考える。図9(b)はランナーが右方向に大きく移動した後の撮影画像であるが、ランナー901に合わせて撮像装置の撮影方向を移動したため、平面を形成する3点の内、点907(図9(a))が撮影範囲外となっている。この場合、そのままでは平面位置を算出することはできない。そこで、平面領域判定部705は撮影位置の移動によって平面を形成する点が撮影範囲外となる場合には同一平面上に配置される新たな特徴点を検出して連続する平面領域を取得する。例えば、図9(a)から図9(b)へ撮影位置を移動させた場合に、点907が撮影範囲外となる。平面領域判定部705は3点の座標位置を検出しており、点907が撮影範囲の端から閾値n以内となった時点で移動方向(この場合には右側)の領域から特徴点を検出し、その3次元位置を算出して3点907、908、909で形成される平面と同じ平面上に存在する特徴点910を抽出する。点907が撮影範囲外となった場合には、点907を、新たに平面算出のための点910に置き換え、前述した処理と同様に3点908、909、910で形成される3次元平面(地面903b)と第1の計測領域との距離L2を算出する。このように、指定された第2の計測領域と同一の平面であるかの判定を自動で行うことで撮影位置が変わっても同じ平面との距離を広範囲に渡って計測することができ、ユーザーによる作業が発生しない。
上記のようにして一度計測領域を指定できれば各フレームから同一の被写体と平面の距離を得ることができ、かつその変位を容易に確認できる。また、距離情報を対応する画像上に重畳表示することで、どのシーンでどのような計測結果が出たのか容易に確認できる。
本実施の形態では第1の計測領域を指定された被写体位置としたが、第1の実施の形態で記載したような領域を有する線分でも良い。この場合には、線分上の第1の計測点と平面との距離を広範囲に渡って計測することが可能となる。
第1、第2の実施の形態において、添付図面に図示されている構成等については、これらに限定されるものではなく、本発明の効果を発揮する範囲内で適宜変更することが可能である。その他、本発明の目的の範囲を逸脱しない限りにおいて適宜変更して実施することが可能である。
<第3の実施形態>
本実施の形態1、2では距離情報取得部114での距離情報を取得する場合に視差を有する画像から距離情報を算出したが、撮影画像領域に対応する距離情報を得る手段であればこれに制限されない。例えば、1つの撮影画像と撮影画像の領域ごとの実空間上での距離情報を示したデータを入力するのでもよい。距離情報を示したデータの一例としては各画素の実空間上の距離の相対値を示した距離画像がある。この場合、距離情報取得部114は距離画像から抽出された計測領域に対応する距離情報を該距離画像データから抽出して、距離情報として出力する。距離算出部117は得られた距離情報とそれを実空間上の距離へ変換するパラメータを用いて3次元空間の距離に変換を行う。
本発明は、撮像装置として特定した場合に、撮像装置を有する携帯端末(スマートフォン、携帯電話機、PCなど)や、カメラ、撮像装置から撮像データを主張して2領域間の距離を取得する情報処理装置などの種々の装置を含むものであり、機器の名称により限定されるものではない。
また、本実施の形態で説明した機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより各部の処理を行ってもよい。尚、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。
また、「コンピュータシステム」は、WWWシステムを利用している場合であれば、ホームページ提供環境(あるいは表示環境)も含むものとする。
また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含むものとする。また前記プログラムは、前述した機能の一部を実現するためのものであっても良く、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであっても良い。機能の少なくとも一部は、集積回路などのハードウェアで実現しても良い。
(付記) 本発明は、以下の開示を含む。
(1)
画像上から第1の計測領域を取得する第1の計測領域取得部と、前記画像上から前記第1の計測領域とは異なる第2の計測領域を取得する第2の計測領域取得部と、を有し、前記第1の計測領域、および、前記第2の計測領域に対応した距離情報から、前記第1の計測領域と前記第2の計測領域との距離を算出する画像計測装置であって、
前記第1計測領域が画像上で変位させる入力部からの操作に応じて、前記第2計測領域において、前記第2計測領域が位置する前記画像上の輪郭、または、平面上を変位させる線領域追従部または平面領域判定部と、前記変位後の前記第1計測領域と前記線領域追従部または平面領域判定部により変位させた変位後の前記第2計測領域の距離を算出する距離算出部と
を有することを特徴とする画像計測装置。
(2)
異なる時間で撮影された第1の画像と第2の画像において、
前記第1の画像上で取得した前記第1の計測領域と同じ被写体を前記第2の画像上から検出して第2の計測領域とし、
前記第2の画像上で前記第2の計測領域を新たな第1の計測領域として距離を算出することを特徴とする(1)に記載の画像計測装置。
(3)
前記距離算出部が算出した距離情報を、変位に依存させて記憶する記憶部を有することを特徴とする(1)に記載の画像計測装置。
広範囲に渡って計測された距離情報は記録部に保存され、表示部にてその変位情報が確認できる。画像と計測箇所と計測された距離の対応関係が容易に管理できるため、ユーザーの目的に応じた計測結果の表示が可能である。
(4)
前記距離算出部が算出した距離情報を、操作時間に依存させて記憶する記憶部を有することを特徴とする(1)に記載の画像計測装置。
(5)
計測点の変位時において、同領域に複数のエッジ成分が検出された場合には、第1の3次元計測領域取得部と第2の3次元計測領域取得部から得られた3次元情報を基に空間的に近いエッジを抽出して連続したエッジであると判断することを特徴とする(1)から(4)までのいずれか1に記載の画像計測装置。
このように、撮影画像のエッジ情報だけでなく、3次元位置情報も用いることで、計測対象外のエッジとの分離を行い目的のエッジ位置精度良く取得する。
(6)
画像上から第1の計測領域を取得する第1の計測領域取得部と、前記画像上から前記第1の計測領域とは異なる第2の計測領域を取得する第2の計測領域取得部と、を有し、前記第1の計測領域、および、前記第2の計測領域に対応した距離情報から、前記第1の計測領域と前記第2の計測領域との距離を算出する画像計測装置であって、
前記第1計測領域が画像上で変位させる入力部からの操作に応じて、
前記第1の計測領域取得部から入力された特徴量をもとに、画像データから計測領域の移動量を検出し、その座標位置を取得する計測領域追従部と、
を有することを特徴とする画像計測装置。
計測領域追従部はこのように常に第1の計測領域となる被写体位置を追従してその位置を第1の計測領域取得部へと出力する。
(7)
さらに、
撮影画像内に平面を形成する少なくとも3点を追従し、その座標位置を検出する平面領域判定部を有することを特徴とする(6)に記載の画像計測装置。
(8)
画像上から第1の計測領域を取得する第1の計測領域取得部と、前記画像上から前記第1の計測領域とは異なる第2の計測領域を取得する第2の計測領域取得部と、前記第1の計測領域、および、前記第2の計測領域に対応した距離情報から、前記第1の計測領域と前記第2の計測領域との距離を算出する画像計測装置による計測方法であって、
入力部からの操作に応じて前記第1計測領域を画像上で変位させたときに、前記第2計測領域を、前記第2計測領域が位置する前記画像上の輪郭、または、平面上を変位させ、変位後の前記第1計測領域と変位後の前記第2計測領域の距離を算出する距離算出ステップを有することを特徴とする計測方法。
(9)
画像上から第1の計測領域を取得する第1の計測領域取得部と、前記画像上から前記第1の計測領域とは異なる第2の計測領域を取得する第2の計測領域取得部と、を有し、前記第1の計測領域、および、前記第2の計測領域に対応した距離情報から、前記第1の計測領域と前記第2の計測領域との距離を算出する画像計測装置において、
前記第1計測領域が画像上で変位させる入力部からの操作に応じて、
前記第1の計測領域取得部から入力された特徴量をもとに、画像データから計測領域の移動量を検出し、その座標位置を取得する計測領域追従ステップと、を有することを特徴とする画像計測方法
(10)
コンピュータに(8)又は(9)に記載の計測方法を実行させるためのプログラム。
(11)
(10)に記載のプログラムを記憶するコンピュータ読み取り可能な記録媒体。
本発明は、測長装置に利用できる。
10 画像計測システム
11 映像入力装置
12 画像計測装置
13 撮像装置
14 再生装置
15 通信・ネットワーク
101 撮像部
102 画像処理部
103 記録部
104 表示部
105 入力部
106 計測部
111 第1の計測領域取得部
112 第2の計測領域取得部
113 カメラパラメータ取得部
114 距離情報取得部
115 第1の3次元計測領域取得部
116 第2の3次元計測領域取得部
117 距離算出部
118 線領域追従部
本明細書で引用した全ての刊行物、特許および特許出願をそのまま参考として本明細書にとり入れるものとする。

Claims (6)

  1. 画像の領域を指定する入力部と、
    前記入力部により指定された第1の領域から、第1の計測領域を取得する第1の計測領域取得部と、
    前記入力部により指定された第2の領域から、第2の計測領域を取得する第2の計測領域取得部と、
    前記第1の計測領域と前記第2の計測領域との実空間上の距離を算出する距離算出部と、
    を備えた画像計測装置であって、
    前記入力部からの第1の計測領域への変位操作に応じて、
    前記第1の計測領域取得部は、変位後の第1の計測領域を取得し、
    前記第2の計測領域取得部は、変位後の第2の計測領域を取得し、
    前記第2の計測領域取得部は、前記第2の計測領域と同じ被写体上を変位させて、前記変位後の第2の計測領域を取得し、
    前記画像のエッジを検出して追従する線領域追従部をさらに備え、
    前記入力部からの第1の計測領域への変位操作に応じて、前記第2の計測領域は前記線領域追従部によって追従された連続するエッジ上を変位する
    ことを特徴とする画像計測装置。
  2. 前記連続するエッジの追従において、前記線領域追従部は、前記画像上の同領域に複数のエッジ成分が検出された場合には、第2の3次元計測領域取得部から得られた3次元情報を基に空間的に近いエッジを連続したエッジであると判断して追従することを特徴とする請求項に記載の画像計測装置。
  3. 画像の領域を指定する入力部と、
    前記入力部により指定された第1の領域から、第1の計測領域を取得する第1の計測領域取得部と、
    前記入力部により指定された第2の領域から、第2の計測領域を取得する第2の計測領域取得部と、
    前記第1の計測領域と前記第2の計測領域との実空間上の距離を算出する距離算出部と、
    を備えた画像計測装置であって、
    前記入力部からの第1の計測領域への変位操作に応じて、
    前記第1の計測領域取得部は、変位後の第1の計測領域を取得し、
    前記第2の計測領域取得部は、変位後の第2の計測領域を取得し、
    前記第2の計測領域取得部は、前記第2の計測領域と同じ被写体上を変位させて、前記変位後の第2の計測領域を取得し、
    前記画像の平面領域を判定する平面領域判定部をさらに備え、
    前記入力部からの第1の計測領域への変位操作に応じて、前記第2の計測領域は前記平面領域判定部によって判定された連続する平面上を変位することを特徴とする画像計測装置。
  4. 異なる時間で撮影された第1の画像と第2の画像において、
    前記第1の画像から取得した前記第1の計測領域と同じ被写体の領域を前記第2の画像から検出し、新たな第1の計測領域として距離を算出することを特徴とする請求項1から請求項のいずれか1つに記載の画像計測装置。
  5. 前記距離算出部が算出した距離情報を、変位に依存させて記憶する記憶部を有することを特徴とする請求項1から請求項のいずれか1つに記載の画像計測装置。
  6. 前記距離算出部が算出した距離情報を、操作時間に依存させて記憶する記憶部を有することを特徴とする請求項1から請求項のいずれか1つに記載の画像計測装置。
JP2015515850A 2013-05-07 2014-04-28 画像計測装置 Active JP6195915B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2013097837 2013-05-07
JP2013097837 2013-05-07
PCT/JP2014/061823 WO2014181725A1 (ja) 2013-05-07 2014-04-28 画像計測装置

Publications (2)

Publication Number Publication Date
JPWO2014181725A1 JPWO2014181725A1 (ja) 2017-02-23
JP6195915B2 true JP6195915B2 (ja) 2017-09-13

Family

ID=51867206

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015515850A Active JP6195915B2 (ja) 2013-05-07 2014-04-28 画像計測装置

Country Status (3)

Country Link
US (1) US10074179B2 (ja)
JP (1) JP6195915B2 (ja)
WO (1) WO2014181725A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019100985A (ja) * 2017-12-07 2019-06-24 コニカミノルタ株式会社 3次元情報取得システム

Families Citing this family (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6376873B2 (ja) * 2014-07-16 2018-08-22 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
US10063840B2 (en) * 2014-12-31 2018-08-28 Intel Corporation Method and system of sub pixel accuracy 3D measurement using multiple images
KR102298652B1 (ko) * 2015-01-27 2021-09-06 삼성전자주식회사 시차 결정 방법 및 장치
JP6552221B2 (ja) * 2015-03-02 2019-07-31 キヤノン株式会社 情報処理装置、情報処理方法
CN106705837B (zh) * 2015-11-17 2019-12-06 华为技术有限公司 一种基于手势的物体测量方法及装置
JP6730029B2 (ja) * 2015-12-28 2020-07-29 シャープ株式会社 画像処理装置、画像処理方法、画像処理プログラム、および撮像装置
CN107092430B (zh) * 2016-02-18 2020-03-24 纬创资通(中山)有限公司 空间绘画计分方法、用于进行空间绘画计分的装置及系统
US10062176B2 (en) * 2016-02-24 2018-08-28 Panasonic Intellectual Property Management Co., Ltd. Displacement detecting apparatus and displacement detecting method
JP6842039B2 (ja) * 2017-03-02 2021-03-17 富士通株式会社 カメラ位置姿勢推定装置、方法およびプログラム
JP7023613B2 (ja) * 2017-05-11 2022-02-22 キヤノン株式会社 画像認識装置および学習装置
WO2018211127A1 (en) * 2017-05-19 2018-11-22 Movidius Ltd. Methods, systems and apparatus to optimize pipeline execution
CN111052062A (zh) * 2017-09-08 2020-04-21 三菱电机株式会社 位置校正装置和位置校正方法
JP2019084955A (ja) * 2017-11-07 2019-06-06 株式会社東芝 線路検査装置
EP3486607B1 (de) * 2017-11-20 2021-09-01 Leica Geosystems AG Bildbasierte kantenvermessung
DK180640B1 (en) 2018-05-07 2021-11-09 Apple Inc Devices and methods of measurement using augmented reality
CN109974581B (zh) * 2018-05-07 2021-07-13 苹果公司 使用增强现实进行测量的设备和方法
US10785413B2 (en) 2018-09-29 2020-09-22 Apple Inc. Devices, methods, and graphical user interfaces for depth-based annotation
CN109658452B (zh) * 2018-12-11 2021-01-26 中科(徐州)人工智能研究院有限公司 一种轨距检测方法及装置
JP6892461B2 (ja) * 2019-02-05 2021-06-23 ファナック株式会社 機械制御装置
JP7168526B2 (ja) * 2019-06-28 2022-11-09 Line株式会社 プログラム、情報処理方法、端末
US11227446B2 (en) * 2019-09-27 2022-01-18 Apple Inc. Systems, methods, and graphical user interfaces for modeling, measuring, and drawing using augmented reality
US11080879B1 (en) 2020-02-03 2021-08-03 Apple Inc. Systems, methods, and graphical user interfaces for annotating, measuring, and modeling environments
US11490021B2 (en) * 2020-02-25 2022-11-01 Pixart Imaging Inc. Image capturing device and distance measuring device
US11727650B2 (en) 2020-03-17 2023-08-15 Apple Inc. Systems, methods, and graphical user interfaces for displaying and manipulating virtual objects in augmented reality environments
KR20210147405A (ko) * 2020-05-28 2021-12-07 삼성전자주식회사 객체 인식을 수행하는 전자 장치 및 이의 동작 방법
CN112214872B (zh) * 2020-09-09 2023-07-07 中铁第五勘察设计院集团有限公司 铁路线路纵断面标尺信息的自动计算方法及装置
US11615595B2 (en) 2020-09-24 2023-03-28 Apple Inc. Systems, methods, and graphical user interfaces for sharing augmented reality environments
US11941764B2 (en) 2021-04-18 2024-03-26 Apple Inc. Systems, methods, and graphical user interfaces for adding effects in augmented reality environments
EP4341900A1 (en) * 2021-05-18 2024-03-27 Snap Inc. Continuous surface and depth estimation
CN113865488B (zh) * 2021-09-24 2023-10-27 北京京东方技术开发有限公司 一种距离测量方法、电子设备及计算机可读存储介质

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09318369A (ja) * 1996-05-30 1997-12-12 Omron Corp レーン幅計測装置およびこの装置を用いた位置関係検出装置、ならびにこの位置関係検出装置が搭載された車輌
JPH09329420A (ja) * 1996-06-11 1997-12-22 Topcon Corp 微小寸法の測定方法
JPH1079034A (ja) * 1996-09-03 1998-03-24 Nippon Telegr & Teleph Corp <Ntt> 血管計測方法
JP3853507B2 (ja) * 1998-03-30 2006-12-06 株式会社ミツトヨ 線幅測定方法及び装置
JP2001004348A (ja) * 1999-06-25 2001-01-12 Toyo Glass Co Ltd ガラス容器外周面の凹凸検査方法及び装置
JP2002002485A (ja) * 2000-06-21 2002-01-09 Fuji Heavy Ind Ltd 軌道認識装置及び軌道認識装置を用いた鉄道車両
JP2002296761A (ja) * 2001-03-29 2002-10-09 Toshiba Corp パターン測定方法、及びパターン測定装置
JP2003035518A (ja) * 2001-07-19 2003-02-07 Hitachi Kokusai Electric Inc パターン線幅の測定方法
US8934702B2 (en) * 2003-12-02 2015-01-13 The Boeing Company System and method for determining cumulative tow gap width
US7769222B2 (en) * 2006-10-27 2010-08-03 Mitutoyo Corporation Arc tool user interface
JP5018980B2 (ja) 2010-04-08 2012-09-05 カシオ計算機株式会社 撮像装置、長さ測定方法、及びプログラム
US20140340498A1 (en) * 2012-12-20 2014-11-20 Google Inc. Using distance between objects in touchless gestural interfaces

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019100985A (ja) * 2017-12-07 2019-06-24 コニカミノルタ株式会社 3次元情報取得システム
JP7064163B2 (ja) 2017-12-07 2022-05-10 コニカミノルタ株式会社 3次元情報取得システム

Also Published As

Publication number Publication date
JPWO2014181725A1 (ja) 2017-02-23
US10074179B2 (en) 2018-09-11
US20160086322A1 (en) 2016-03-24
WO2014181725A1 (ja) 2014-11-13

Similar Documents

Publication Publication Date Title
JP6195915B2 (ja) 画像計測装置
JP5951043B2 (ja) 画像計測装置
US10277889B2 (en) Method and system for depth estimation based upon object magnification
JP5715735B2 (ja) 3次元測定方法、装置、及びシステム、並びに画像処理装置
US20150369593A1 (en) Orthographic image capture system
US10506225B2 (en) Method of calibrating a camera
KR101506610B1 (ko) 증강현실 제공 장치 및 그 방법
JP6502511B2 (ja) 計算装置、計算装置の制御方法および計算プログラム
JP6589636B2 (ja) 3次元形状計測装置、3次元形状計測方法及び3次元形状計測プログラム
JP2019114103A (ja) 物体認識処理装置、物体認識処理方法及びプログラム
KR101703013B1 (ko) 3차원 스캐너 및 스캐닝 방법
CN105387847A (zh) 非接触式测量方法、测量设备及其测量系统
JP2016217944A (ja) 計測装置、および計測方法
JP2017003525A (ja) 三次元計測装置
JP2023029441A (ja) 計測装置、計測システムおよび車両
KR20090090983A (ko) 복수의 카메라 영상을 이용한 공간좌표 추출방법
JP2018009927A (ja) 画像処理装置、画像処理方法及びプログラム
JP2014102183A (ja) 画像処理装置および画像処理システム
JP6198104B2 (ja) 3次元物体認識装置及び3次元物体認識方法
JP6625654B2 (ja) 投影装置、投影方法、および、プログラム
JP6161874B2 (ja) 撮像装置、長さ計測方法及びプログラム
KR20170001448A (ko) 스테레오 카메라를 이용한 카메라 위치 측정 장치 및 방법
JP2007127478A (ja) 追跡対象物速度検出装置および追跡対象物速度検出方法
JP4351090B2 (ja) 画像処理装置および画像処理方法
KR102498028B1 (ko) 감시 카메라 시스템 및 그 시스템 사용 방법

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170117

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170309

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170808

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170816

R150 Certificate of patent or registration of utility model

Ref document number: 6195915

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150