[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP4166993B2 - Stereoscopic image display apparatus and method - Google Patents

Stereoscopic image display apparatus and method Download PDF

Info

Publication number
JP4166993B2
JP4166993B2 JP2002064094A JP2002064094A JP4166993B2 JP 4166993 B2 JP4166993 B2 JP 4166993B2 JP 2002064094 A JP2002064094 A JP 2002064094A JP 2002064094 A JP2002064094 A JP 2002064094A JP 4166993 B2 JP4166993 B2 JP 4166993B2
Authority
JP
Japan
Prior art keywords
image
stereo
unit
stereo image
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2002064094A
Other languages
Japanese (ja)
Other versions
JP2003264852A (en
Inventor
仁志 大谷
伸夫 高地
弘幸 青木
光晴 山田
宏一 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Topcon Corp
Original Assignee
Topcon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority to JP2002064094A priority Critical patent/JP4166993B2/en
Application filed by Topcon Corp filed Critical Topcon Corp
Priority to AT03004930T priority patent/ATE375687T1/en
Priority to AT05004317T priority patent/ATE466454T1/en
Priority to DE60316738T priority patent/DE60316738T2/en
Priority to EP05004317A priority patent/EP1534021B1/en
Priority to US10/383,260 priority patent/US7193626B2/en
Priority to DE60332353T priority patent/DE60332353D1/en
Priority to EP03004930A priority patent/EP1343334B1/en
Publication of JP2003264852A publication Critical patent/JP2003264852A/en
Application granted granted Critical
Publication of JP4166993B2 publication Critical patent/JP4166993B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Description

【0001】
【産業上の利用分野】
本発明は、ステレオ撮影された画像から撮影対象物の三次元画像を作成して、立体表示できる立体画像表示装置及び方法に関する。また、本発明は、作成された三次元画像からステレオ画像計測を行える立体画像表示装置に関する。
【0002】
【従来の技術】
ステレオ計測するためのステレオカメラは、各カメラが相対的に動かないように固定されている。そこで、カメラ間隔に対応する基線長は不変であり、カメラの撮影距離も各カメラ間で正確に一致させる必要があるため、焦点距離を可変にしたズームレンズではなく、固定焦点距離式のレンズが使用されている。また、カメラの分解能に依存して、ステレオカメラの計測精度が定まるため、収差の少ない高精度レンズが使用されている。
【0003】
また、ステレオ撮影された画像を立体視する立体画像表示装置として、液晶シャッター方式と液晶フィルターシャッター方式が存在している。液晶シャッター方式は、1枚の画面に左右画像を交互に表示させ、それら画像を液晶眼鏡によって同期させて左右画像を切り替えるものである。液晶フィルターシャッター方式は、画面上に液晶偏向フィルターを取り付け、左右画像を切り替え表示しながら液晶偏向フィルターも同時に切り替え、偏向眼鏡で観察するものである。
【0004】
【発明が解決しようとする課題】
そこで、従来のステレオカメラには、以下のような課題がある。
▲1▼各カメラが相対的に動かないように固定されているため持ち運びがしにくい。
▲2▼基線長と撮影距離の選択範囲が少ないため、ステレオカメラの計測対象物の寸法が限定される。
▲3▼高精度レンズを使用した専用カメラは高価で、一般の人には利用しにくい。
【0005】
また、従来の立体画像表示装置では、液晶眼鏡、液晶フィルターなどを用いて、左右画像を時分割で切り替えて表示して、立体視を可能としているが、以下に示す課題がある。
▲4▼切り替えた画像を人間の左右の目に時分割でそれぞれ表示し、脳で左右画像を融合させているため、左右画像の切り替えがちらつきとなって、立体視をとても疲労の伴う難しいものとしている。
▲5▼液晶シャッター方式では、液晶眼鏡の左右の切り替えをセンサーで行っているため、蛍光灯のノイズにより左右の切り替えに誤動作が起こる場合がある。そこで、蛍光灯のもとでは使用(立体視)が困難である。
【0006】
本発明は、上述する課題を解決したもので、第1の目的は、デジタルカメラやデジタルビデオ画像を利用して立体視可能な三次元画像を作成できる立体画像表示装置及び方法を提供することである。
本発明の第2の目的は、作成された三次元画像からステレオ画像計測を行える立体画像表示装置を提供することである。
本発明の第3の目的は、ステレオ撮影された画像を立体視する場合に、長時間立体視しても疲労の伴わない立体画像表示装置を提供することである。
【0007】
【課題を解決するための手段】
第1の目的を達成する本発明の立体画像表示装置は、図1に示すように、ステレオ画像取得部10で取得された一対のステレオ画像に含まれている特徴要素を指定する特徴要素指定部40と、特徴要素指定部40で指定された特徴要素の前記ステレオ画像中の位置に基づき前記ステレオ画像の標定を行う画像標定部30と、標定の済んだステレオ画像を立体表示する表示部60とを備えている。
【0008】
このように構成された装置においては、特徴要素指定部40によってステレオ画像に含まれている特徴要素が指定されるので、画像標定部30によるステレオ画像の標定が容易に行える。標定されたステレオ画像は、表示部60によって立体表示される。好ましくは、ステレオ画像取得部10で取得された一対のステレオ画像を格納する画像データ記憶部20を設けると、特徴要素指定部40での特徴要素を指定する処理を画像データ記憶部20に格納されたステレオ画像を用いて行える。
【0009】
好ましくは、特徴要素指定部40は、画像内でカーソルを移動させるカーソル移動手段を含み、当該カーソル移動手段により前記特徴要素を指示するように構成されていると、オペレータによるステレオ画像の標定作業が容易に行える。カーソル移動手段には、典型的にはマウス、ポインタ、タッチパッド、キースイッチ等の電子機器用入力装置が用いられる。
【0010】
好ましくは、特徴要素指定部40は、ステレオ画像内での特徴要素となる特徴要素候補画像を捜索し、当該特徴要素候補画像に前記カーソルを移動させる自動捜索処理部44を有するように構成されていると、オペレータによるステレオ画像の標定作業が容易に行える。特徴要素候補画像を捜索するために、典型的にはテンプレート画像を用いた相互相関係数法を用いるとよく、相互相関係数が極大化された画像位置が特徴要素候補画像の位置である。
【0011】
好ましくは、特徴要素指定部40は、オペレータの操作により前記ステレオ画像における対応点が指定される対応点指示部42と、前記ステレオ画像上の対応点の画像位置に基づき、前記対応点の位置データを計測する演算処理部48とを備えるように構成されていると、ステレオ画像の三次元計測作業が容易に行える。
【0012】
好ましくは、画像標定部30が、前記ステレオ画像中の標定処理において更に偏位修正作業を行うように構成されていると、標定処理によりカメラの位置と傾きが計算されると共に、偏位修正作業により左右の画像を立体視可能な画像に変換して、基準となる縮尺が与えられていれば、立体視可能な三次元画像からステレオ画像計測が行える。
【0013】
好ましくは、画像標定部30は、ステレオ画像取得部10の撮影基線長を用いて、前記ステレオ画像に対して作成されたステレオモデルに適切な縮尺を与えるように構成されていると、ステレオ画像取得部10と被写体の距離に応じた被写体の概括的な大きさが提示できる。
【0014】
第2の目的を達成する本発明の立体画像表示装置は、図1に示すように、好ましくは、さらに前記指定された特徴要素の寸法決定に用いられるデータを入力するデータ入力部50を備えるように構成されていると、データ入力部50で入力された寸法決定に用いられるデータに基づき、画像標定部30により立体視可能に偏位修正されたステレオ画像から、当該ステレオ画像に写し込まれた被写体の実寸が計測可能な状態となる。
【0015】
好ましくは、データ入力部50で入力されるデータは、特徴要素の位置、長さ、方向の少なくとも何れか一つを含む構成とすると、画像標定部30におけるステレオ画像中の標定処理が容易に行える。
【0016】
第3の目的を達成する本発明の立体画像表示装置は、図2に示すように、表示部60として、前記標定の済んだステレオ画像を構成する左右画像を2枚の偏光ディスプレイ662、664にそれぞれ表示させて、ハーフミラー666によって前記2枚の偏光ディスプレイに表示された左右画像を合成し、偏光眼鏡668によって当該ステレオ画像を左右画像に分離した状態で視聴可能に構成されるデュアルディスプレイ方式とするとよい。デュアルディスプレイ方式は、左右画像を同時に観察しているため、蛍光灯や照明条件等の外部環境ノイズに影響されず、オペレータは安定して長時間立体視できる。
【0017】
第1の目的を達成する本発明の立体画像表示方法は、図3に示すように、ステレオ画像取得部で取得された一対のステレオ画像を読み込む工程(S102)と、当該一対のステレオ画像に含まれている特徴要素を指定する工程(S110)と前記指定された特徴要素の前記ステレオ画像中の位置に基づき、前記ステレオ画像の標定を行なう工程(S112、S114)と、標定の済んだステレオ画像を立体表示する工程(S116)を備えている。
【0018】
【発明の実施の形態】
以下図面を用いて本発明を説明する。図1は本発明の第1の実施の形態を説明する全体構成ブロック図である。立体画像表示装置は、ステレオ画像取得部10、画像データ記憶部20、画像標定部30、特徴要素指定部40、データ入力部50並びに表示部60を備えている。
【0019】
ステレオ画像取得部10は、ステレオカメラのような精密機器でも良く、またデジタルカメラやデジタルビデオカメラ等のような簡易なレンズを用いた機器でもよい。ステレオカメラは、ステレオ計測するためのもので、各カメラが相対的に動かないように固定されている。そこで、カメラ間隔に対応する基線長は不変であり、カメラの撮影距離も各カメラ間で正確に一致させる必要があるため、固定焦点距離式のレンズが使用されている。また、カメラの分解能に依存して、ステレオカメラの撮影作業領域が定まるため、収差の少ない高精度レンズを使用して、撮影作業領域を拡大している。
【0020】
他方、デジタルカメラやデジタルビデオカメラは、同じ光学的性質を有するレンズを用いた2台の機器をステレオバーに取り付けて、ステレオカメラとすることが可能である。あるいは、デジタルカメラやデジタルビデオカメラを一台として、測定対象物に対して右撮影方向と左撮影方向から撮影しても良い。一台で右撮影方向と左撮影方向から撮影する場合には、左右撮影のカメラ間隔が一定になるように留意する。デジタルカメラやデジタルビデオカメラでは、レンズ収差がステレオカメラのレンズ収差に比較して大きいので、レンズ収差を補償して画像データ記憶部20に格納するとよい。レンズ収差が大きいので、レンズの視野はステレオカメラよりも狭くして、精度を確保するとよい。
【0021】
画像データ記憶部20は、ステレオ画像取得部10にて取得した画像を記憶するもので、デジタルカメラやデジタルビデオカメラであればデジタル画像情報を記憶するフレキシブルディスク、CD−ROM、ハードディスク等を用いるとよい。ステレオカメラとしてフィルムに焼付けたアナログ画像情報を用いる場合には、アナログ画像情報をスキャナー等でデジタル化してデジタル画像情報化して、記憶するとよい。
【0022】
画像標定部30は、特徴要素指定部40で指定された画像の位置を用いてカメラの位置と傾き(外部標定要素)を計算し、偏位修正作業により立体視可能なステレオ画像(偏位修正画像)を作成するもので、典型的には航空写真測量でいうところの内部標定、相互標定、絶対標定のうち相互標定と絶対標定を行う機能に相当している。画像標定部30はパソコン上のソフトウェアとしても良いし、あるいはマイコン等の組込み型ソフトとして表示部60に組み込んでも良い。あるいはハードウェアで構成しても良い。なお、立体画像作成の原理に関しては後で詳細に説明する。
【0023】
さらに、画像標定部30は、特徴要素指定部40で指示する画像の特徴点に対して、データ入力部50より実際又は仮想の座標又は寸法を入力することにより、立体視可能なステレオ画像において実際又は仮想の縮尺又は寸法になったステレオ画像に変換する。このように立体視可能なステレオ画像を作成して、絶対標定に必要な寸法を与えれば、ステレオ法の原理に従って三次元計測が可能となる。
【0024】
特徴要素指定部40は、ステレオ画像を立体視可能なように修正する際に、左右画像上で特徴要素としての画像の特徴点を指示するものである。画像の特徴点とは、標定を可能とするために左右画像上で重なった領域に少なくとも6点設ける必要のあるもので、特徴点の分布密度は左右画像上の重なった領域で概ね均等になるように定めるとよい。画像の特徴点は、オペレータや自動捜索処理部44で認識しやすい形状や模様であることが好ましく、例えばターゲットと呼ばれる標識を被写体に設けると良い。
【0025】
特徴要素指定部40は、立体画像を作成する際や計測する際に左右画像の対応点を指示する対応点指示部42、自動で対応点を探索するための自動捜索処理部44、三次元計測をする際の演算を施す演算処理部48を備えている。ここで、対応点とは、画像の特徴点の中で左画像と右画像の双方で認識された同一の特徴点をいう。対応点指示部42は、画像上の平面方向としてのXY方向の指示や奥行き方向の指示をするもので、PCのマウスや奥行きを指示するダイヤルをつけたものなどを使用する。対応点指示部42には、表示部60のカーソル位置が対応点位置に対して近傍になると、表示部60に表示されているカーソルマーク表示を変更する機能を持たせるとよい。
【0026】
自動捜索処理部44での対応点探索には、例えば画像相関処理を用いて行う。即ち、左画像上で特徴点として指示した点をテンプレートとして、右画像上を探索する。画像相関処理は、相互相関係数法や残差逐次検定法(SSDA法)などどれを用いても良い。
【0027】
対応点指示部42や自動捜索処理部44により左右画像の対応点を定めているので、ステレオ画像取得部10として、ステレオアタッチメント等に2台のカメラを取り付けステレオカメラ撮影した場合も、ステレオ撮影における対応点を求めることができる。さらに、画像標定部30により外部標定要素を用いて、ステレオ撮影に対応するステレオモデルを作成できる。すると、オペレータの熟練度に依存せず安定したステレオ撮影とステレオモデル作成が可能となる。ステレオカメラの場合には、基線長やカメラの傾きが既知なので、該当するパラメータを用いればステレオモデルが一義的に得られる。
【0028】
データ入力部50は、実際の寸法と合わせるのに基準量等を入力する。なお、立体画像を作成するだけであれば、データ入力部50を設ける必要はない。データ入力部50により、立体視可能なように修正されたステレオ画像に寸法をいれれば、絶対標定に必要なパラメータとして入力された寸法を用いて、立体画像の作成が可能となる。
【0029】
表示部60は、取得された画像や立体視可能になった画像を表示するもので、操作表示部64と立体画像表示部66を備えている。操作表示部64には、画像標定部30に用いるパソコン用モニタを用いるとよい。立体画像表示部66には、偏向眼鏡をかけて立体視可能とするデュアルディスプレイ方式の立体ディスプレイを用いるとよい。
【0030】
図2はデュアルディスプレイ方式の立体画像表示部を説明する構成斜視図である。デュアルディスプレイ方式は、左右画像を2枚の偏光ディスプレイ662、664にそれぞれ表示させ、ハーフミラー666によって合成する。ハーフミラー666によって合成された画像は、偏光眼鏡668によって左右それぞれの画像を分離できる偏光状態となっている。即ち、偏光ディスプレイ662、664で表示される画像の偏光状態は光学的に直交していて、偏光眼鏡668による分離が可能となっている。観察者が偏光眼鏡668を用いて立体画像表示部66に表示された画面を観察すると、左右の目に左右画像を同時に表示する状態が実現される。そこで、観察者は左右画像を立体的に観察できる。デュアルディスプレイ方式は、従来の液晶シャッター方式や液晶フィルターシャッター方式と比較して、左右画像を同時に観察しているため、蛍光灯や照明条件等の外部環境ノイズに影響されず、安定して長時間立体視できるという利点がある。
【0031】
表示部60には、立体画像だけでなく、計測点の指示、装置の操作用の表示、取得された生画像等も表示するとよい。これら表示は、立体画像表示部66にあわせて表示しても良いし、あるいは操作表示部64に表示させても良い。
【0032】
次に、このように構成された装置の使用について説明する。図3は図1の装置におけるステレオ画像計測の手続きの流れを説明するフローチャートである。まず、市販のデジタルカメラやデジタルビデオカメラを用いて、立体表示したい対象物のステレオ撮影を行う(S100)。ステレオ撮影に用いるカメラは1台として撮影方向を右方向と左方向で撮影してもよく、またカメラを2台固定して右方向と左方向からステレオ撮影してもよい。
【0033】
次に、ステレオ撮影した左右画像を画像データ記憶部20に読み込む(S102)。そして、画像データ記憶部20に読み込まれた画像を表示部60に表示する(S104)。ここで、表示部60には左右2枚の画像を並べて表示すると、その後の操作が容易になる。表示部60に操作表示部64が設けられている場合には、操作表示部64に表示するとよい。この状態であっても、固定されたステレオアッタチメントで被写体となる対象物に対し平行に撮影した画像であれば、表示部60に表示すれば、立体視することも可能である。
【0034】
続いて、ステレオ撮影した左右画像上で対応点の座標値や特徴点において関連する寸法がある場合は、該関連する寸法をデータ入力部50から入力する(S106)。例えば、実際の座標として3点が既知であれば、データ入力部50から既知の3点の座標値を入力することができる。すると、S110で処理される左右画像の対応点決定において既知の座標系に変換可能でき、三次元計測が可能となる。データ入力部50から入力する他のデータとしては、撮影したカメラの傾き(方向)、既知の画像上の寸法、ステレオ撮影した際のカメラ間距離(基線長)がある。これら画像中の6点以上の対応点によりカメラの相対的な位置と傾きを求める相互標定や絶対座標でその位置と傾き求める絶対標定に必要とされるデータとしてデータ入力部50から既知の3点の座標値等の実際の寸法と合わせる基準量となるデータを入力すれば、相互標定や絶対標定を通して作成された偏位修正されたステレオ画像に写し込まれた被写体の実寸を計測することが可能となる。なお、上記標定は、ステレオ撮影した左右画像上の多数の特徴要素としての特徴点から6点以上の対応点を選択して行なわれる。また、既知の3点の座標値は予め行なった三次元計測値等を使用する。なお、データ入力部50からのデータ入力に代えて、ステレオ画像取得部10を用いて基準となる寸法となる部位を予めステレオ画像として写し込んでおいてもよい。
【0035】
また、データ入力部50から入力するデータは実際の寸法でなくとも、仮想値を入力して仮想寸法のステレオモデルを作成することも可能である。あるいは、S106にて、データ入力部50からデータを何もいれないくても、ステレオモデルを作成することは可能であり、立体画像表示部66に立体視可能なステレオ画像を表示することが可能である。ただし寸法は、基準となる寸法を別途定めないと、現実の寸法に対して相似のステレオ画像が得られるだけとなり、絶対値は得られない。
なお、データ入力部50へのデータ入力は、S106の位置に代えて、初期設定値として予め入力しても良く、S110で処理される左右画像の対応点決定の際に入力しても良く、あるいは、左右画像の対応点決定処理の後に入力してもよい。
【0036】
続いて、主画像と従画像の選択を行う(S108)。ここで、主画像とは、自動相関処理の際に、基準カーソルが現れる画像をいう。また、従画像とは、自動相関処理の際に、基準カーソルの位置に対応した相関値の高い位置にカーソルが自動的に移動する従カーソルが現れる画像をいう。
【0037】
ステレオ撮影した左右画像のどちらを主画像とするかは、使用者に任せられる。主画面とする画像は、使用者が物の形を認識するための利き目側の画像を選択することが望ましい。何故なら、人間の目は両眼で立体視をしているが、物の形を認識するために、左右の何れかが利き目となっているからである。なお、両眼のうち何れが利き目か判断するためには、立体視をしている状態で所定のマークを指差し、一方の目を閉じても所定のマークを指差している側の目を求める。以下の説明においては、主画像は左画像とし、従画像を右画像とする場合を例に説明する。
【0038】
次に、立体画像を作成するために特徴要素指定部40の対応点指示部42により左右画像の対応点を指示決定する(S110)。左右画像上の同一点を最低6点以上対応付けすることによって、先に説明した立体視の原理を適用し、相互標定をする画像標定部30により、後述する(4)式の共面条件式を用い、さらにモデル座標系XYZとカメラ座標系xyzとの変換式(6)、(7)を用いて、各パラメータを求め、カメラの相対的な位置と傾き(外部標定要素)を求めることができる。以上により、カメラの相対的な3次元位置ならびに3軸の傾きが求まり、偏位修正された立体視可能なステレオ画像(ステレオモデル)が作成できるようになる。また、ステレオ撮影したカメラ間の距離(基線長)を入力してやれば、実寸のステレオモデルとすることができる。さらに、6点のうち3点のXYZ座標を与えてやることができれば、実際の座標系変換し、実座標における三次元計測が可能となる。すなわち、相互標定で用いた上記3点以外のステレオ画像の被写体の対応点の実座標が求まる。対応点決定は、画像上で特徴のあるところを左右画像上で決定すれば良いが、明確なターゲットを対象物周辺にプリンタ等で印刷、配置しておけば作業自体は楽なものになる。明確なターゲットマークとしては、黒丸”●”、四角”■”、菱形”◆”、三角形”▲”などがある。なお、この対応点決定から外部標定要素計算までの一連の作業は標定と呼ばれている。
【0039】
続いて、左右画像の対応点を決定する具体的な処理過程を、図4を参照して説明する。図4は、対応点決定処理を説明するフローチャートである。対応点決定処理に入ると(S200)、対応点決定処理としてのマニュアルモード、半自動モード、自動モードと3つのモードの何れか一つを選択する(S202)。なお、以下に説明する左画像と右画像は、その逆の右画像と左画像と逆に置き換えても処理は全く同様であり、そのように読替えて処理してもよい。
【0040】
マニュアルモードが選択されると、マニュアルモードでの処理が開始される(S210)。まず、表示部上の左画像の特徴となるところを対応点指示部42のマウスによって指示し、確定する(S212)。確定は、例えばマウスのボタンを押すことなどに行う。確定処理により左画像座標が読み込まれる。次に、左画像と同じ特徴点を表示部の右画像上で対応点指示部42のマウスにより指示・確定する(S214)。これにより、右画像座標が読み込まれる。このようにマニュアルモードでは、左右画像上で別々に対応点指示部42により指示、確定させる。そして、対応点として6点以上対応付けをしたか判断し(S216)、6点未満であればS202のモード選択に戻る。なお、S212に戻ってマニュアルモードによる対応点決定処理を継続するようにプログラムを作成してもよい。6点以上対応付けしていれば、戻しとする。
【0041】
半自動モードが選択されると、半自動モードでの処理が開始される(S220)。半自動モードでは、特徴要素指定部40の自動捜索処理部44にうつる(S222)。次に、表示部60の左画像上で特徴点を対応点指示部42のマウスにより指示する(S224)。すると、自動捜索処理部44は、右画像上の対応点を自動で探索する(S226)。
【0042】
そして、オペレータは自動捜索処理部44にて検索された右画像上の対応点が適切であるか、判断する(S228)。この場合、自動捜索処理部44にて演算された相互相関係数が、ある閾値以上であればOKと決定する(例えば0.7以上等)。表示部60には、対応点指示部42により、例えば右画像上で左画像上に対応した探索位置にOKなら緑表示の点、NGなら赤表示の点を表示したり、カーソルマークの図形を変えたり(例えば、矢印”⇒”から二重丸”◎”にカーソルマーク表示を変更する)、相互相関係数値を表示させたりすることに、オペレータが判定する。右画像探索OKか否かの表示は、オペレータが判断容易であればどのような表示によっても良い。
【0043】
OKでなかった場合、対応点が他の位置でもよいか判断し(S230)、他の位置でもよければS224へもどり他の点を指示する。他方、どうしてもその位置を特徴点としたい場合は、右画像上のカーソルをマニュアルにて移動させて指示する(S232)。即ち、例えば対応点指示部42の奥行き方向を合わせるダイヤル等を回せば、等価的に右画像上のカーソルが動くことになるので、それを調整して、左画像と同じ特徴点のところへ持って行き、あわせる。
【0044】
そして、S228で右画像探索OKの場合、あるいはS232にて右画像を指示した場合は、その点の画像座標を読み込む(S234)。例えばマウスのボタンを押すなどして確定させる。そして、対応点として6点以上対応付けをしたか判断し(S236)、6点未満であればS202のモード選択に戻る。なお、S222に戻って半自動モードによる対応点決定処理を継続するようにプログラムを作成してもよい。6点以上の対応付けしていれば、戻しとする。
【0045】
上述した半自動モードは、左画像上で特徴点をマウスにより指示することにより、自動で右画像の対応点を探索し、OKかどうか表示している。そこで、オペレータはカーソルマーク表示の表示を見て、自動捜索処理部44にて検索された右画像上の対応点が適切であれば、検索された対応点を対応点として確定させる((例えば矢印”⇒”から”◎”に変更されている場合)。半自動モードを用いることにより、オペレータは片方の画像を指示するだけでよいので、対応点決定処理を簡単に処理できる。なお、マウスによる指示と確認のための判定は、ボタンを押すことによっても良いが、更にマウスカーソルを移動して左画像上をなぞるだけで、右画像上の対応点を常に判定表示させるように構成しても良い。左画像上のマウスカーソルに対応する右画像上の対応点を判定表示させると、対応点決定処理をさらに容易に処理できる。
【0046】
自動モードが選択されると、自動モードでの処理が開始される(S240)。自動モードは、対応点となるターゲットを予め対象物周辺に配置することで、自動でターゲットを検出するモードである。ターゲットとなるものは、予め特徴点として認識しやすいものを対象物周辺に配置する。ターゲットは認識しやすいものであればなんでもよい。例えば、前述した”●”ようなターゲットマークをプリンタにより印刷したり、作成したりして配置する。この場合、ターゲットの正確な位置が予めわかっていれば、正確な三次元計測がその後可能となる。
【0047】
まず、オペレータは、表示部60により左右画像上に6点以上のターゲットが含まれているか確認する(S242)。もし左右画像上で6点以上のターゲットが含まれていなければ、マニュアルもしくは半自動モードへ行く(S244)。なお、左右画像に対応する6点以上のターゲットが撮影されていない場合には、ターゲットが6点以上入るように撮影しなおす。そして、特徴要素指定部40を用いた自動モード処理に移行する(S246)。
【0048】
自動モード処理では、自動ターゲット検出を行うために、配置したターゲット画像の一つを対応点指示部42により指示し、特徴要素指定部40にテンプレート画像として登録する(S248)。そして、自動捜索処理部44によりテンプレート画像を元に、左画像と右画像の各々のターゲット位置を探索する(S250)。このターゲット位置の探索処理は、例えば先に説明した相互相関係数法等を利用して自動検出させる。そして、探索されたターゲット位置を表示部60上に表示する(S252)。
【0049】
オペレータは、探索されたターゲット位置がOKであるか判断し(S254)、OKであれば戻しとする。NGであれば、ターゲット位置の修正を行う(S256)。この修正には、マニュアルモードあるいは半自動モードによる処理を用いる。仮に、NGであった場合でも、ターゲットを配置してあるので修正は容易である。
【0050】
そして、修正されたターゲット位置を用いて、左右画像上での対応点を検出する(S258)。この作業は、特徴要素指定部40の対応点指示部42により左右画像の対応点を表示部60を見ながら指示することにより行う。あるいは、図5(A)のように予めターゲットの配置を決めて、概略平行にステレオ撮影する。すると、ターゲットの配置は撮影した画像上でも保たれるため、対応付けを自動で行うことも可能である。更には、6点以上のターゲットマークを別々に決め、予めテンプレート指定しておいても、対応付けを自動で行うことが可能である。左右画像上での対応点の点数は、最小6点なので作業はマニュアルで行っても簡単にできる。
【0051】
図3にもどり、S110にて左右画像の対応点の対応付けが終了したら、該対応点を元に画像標定部30にて外部標定要素(カメラの位置、傾き)を計算する(S112)。外部標定要素の詳細については、後述する立体画像作成の原理の該当箇所に説明されている。
【0052】
S112にて外部標定要素が求まったら、求めた外部標定要素値により画像の偏位修正(ステレオ画像作成)を行う(S114)。そして、表示部60にステレオ画像を表示する(S116)。以上のようにして、ステレオ画像が作成される。
【0053】
さらに表示されたステレオ画像から計測をするか判断し(S118)、Yesであれば、計測位置指定を行う(S120)。次に、ステレオ画像における計測位置指定をする具体的な処理過程を図6を参照して説明する。図6は、計測位置指定処理を説明するフローチャートである。計測位置指定処理に入ると(S400)、計測位置指定処理としてのマニュアルモード、半自動計測モード、自動計測モードの3モードのうち何れか一つを選択する(S402)。
【0054】
なお、計測位置指定処理の各モードにおいて、入力データ部により入力されたデータによって、指定された点の三次元座標値、あるいは2点間の距離等が計測できる。ここでは、立体画像表示部66にて、立体画像が表示されているので、それを見て、確認しながら計測することが可能となる。更に、操作表示部64上に左右画像別々に表示し、それを見ながら計測することも可能であるが、立体画像表示部66にて確認しながら行えば、さらに確実な計測が可能になる。
また、対応点指示部42の立体画像上における奥行き方向の指示は、マウスについたダイヤルや、あるいはダイヤル単体等により指示する。
【0055】
マニュアルモードが選択されると、マニュアルモードでの計測位置指定の処理が開始される(S410)。ここでは、オペレータが立体画像表示部66を見ながら操作表示部64を用いて計測点を指示する手順を説明する。オペレータは、立体画像表示部66を見ながら、操作表示部64で表示されている左画像について、計測したい位置を特徴点として指示する(S412)。次に、操作表示部64で表示されている右画像について、同一点と思われる位置を特徴点として指示する(S414)。そして、立体画像表示部66を見て、左画像の特徴点と右画像の特徴点がカーソルの指し示す計測したい点として、一致する特徴点の上にあるか確認する(S416)。このカーソルが計測したい点の位置には、画面の平面方向の他に、奥行き方向も含まれる。もし違っていれば、対応点指示部42のマウスを利用して計測したい位置を指示する(S418)。
【0056】
オペレータが立体画像表示部66を見ていると、奥行き方向も同時に観察できるため、奥行き方向の位置も合わせる(S420)。即ち、奥行き方向があっていなければカーソルが対象点より浮いたり沈んだりして見える。この場合、奥行き方向を合わせるダイヤルがあれば、それらを利用して対象点の上にカーソル位置を合わせることができる。このカーソル位置合わせ作業は、実質的には、左右画像の位置あわせをしていることと同じであるが、立体視をしながら行っているので間違いがないのと同時に確実である。即ち、特徴が少ないところでも、左右画像の位置あわせをすることができる。そして、左画像の特徴点と右画像の特徴点が一致していてOKであれば、マウスのボタンなどにより位置確定して、座標位置を読み込ませる(S422)。
【0057】
半自動計測モードが選択されると、半自動計測モードでの計測位置指定の処理が開始される(S430)。半自動計測モードでは、操作表示部64もしくは立体画像表示部66どちらを見ながら行ってもよい。半自動計測モードでは、特徴要素指定部40は、自動捜索処理部44に移行する(S432)。そして、オペレータは左画像上の計測点をマウスにより指示する(S434)。すると、自動捜索処理部44によって、左画像上の計測点と同一計測点を右画像上で探索する(S436)。なお、この自動捜索処理部44による左画像上の計測点と同一計測点を右画像上で探索は、S226にて説明した内容と全く同様である。そして、右画像の探索位置がOKか確認する(S438)。
【0058】
もし右画像の探索位置が左画像上の計測点と違っていれば、マニュアルモードと同様に対応点指示部42のマウスを利用して計測したい位置を指示する(S440)。この時、オペレータは立体画像表示部66上で奥行き方向と画像平面方向と同時に観察できるため、奥行き方向の位置も一致させる(S442)。そして、左画像の特徴点と右画像の特徴点が一致していてOKであれば、マウスのボタンなどにより位置確定して、座標位置を読み込ませる(S444)。この時、操作表示部64上には、OKであれば対応する右画像の位置にOK表示をするとよい。また、立体画像表示部66上であれば、OK表示もカーソルの色、形状をかえることなどにより確認できるが、実際にあっているかどうかも本人の目で確認することができる。
【0059】
自動計測モードが選択されると、自動計測モードでの計測位置指定の処理が開始される(S450)。自動計測モードでは、指定した領域の三次元座標値を一括して計測することが可能である。そこで、計測したい領域について指定する計測領域指定処理を行う(S452)。即ち、計測領域の一番外側となる左右画像の境界点を指示する。例えば、大略五角形の領域を一括計測したい場合は、図5(B)のように対応境界となる境界点を5点指示する。ここでは、オペレータによって指示された境界点を黒丸で表している。そして、オペレータは境界点の表示を参照して、左右画像の境界点を指示する点が適切か判断し(S454)、指定した境界点を間違えたり、気に入らなければS452に戻り指示しなおす。
【0060】
左右画像の境界点の指定が適切であれば、各指定点を結線し、立体画像表示部66に表示して計測領域を明確にする(S456)。すると、図5(B)のように立体画像表示部66の表示は、対応境界となる境界点を結線した表示となる。そして、オペレータは境界点及び結線表示を参照して、計測領域の指定が適切であるかを確認する(S458)。適切でない場合は、不適切な指定点と対応する結線をクリアして(S460)、S452に戻り指示しなおす。計測領域の指定が適切であれば、計測領域として確定する(S462)。このようにして、計測領域を決めれば、その領域において左右画像の対応点が間違いなく決まっているので、確実な一括計測が可能となる。また、一括計測において、これらの左右画像の対応点を利用すれば、信頼性、速度ともにあげることが可能となる。
【0061】
次に、計測領域指定された領域内の対応点に対して、自動捜索処理部44により自動で対応点検出を一括処理する(S464)。ここでは、画像相関処理により行う。例えば先に説明した、相互相関係数法を利用して、左画像をテンプレート、右画像をその探索領域として各点の対応点検出を行えばよい。なお、画像相関処理として、粗密探索相関法やその他の画像相関処理として利用される通常の処理方法を用いても良い。
【0062】
図3にもどり、対応点の左右座標値から計測値を演算処理部48によって算出する(S122)。演算は、先に説明したステレオ法の原理により計算される。自動計測モードで、計測領域の対応点を自動検出した場合は、その対応点検出したすべての点について計算する。そして、計測値を表示部60上に表示する(S124)。そして、S118に戻り、さらに計測を続けるか判断し(S118)、続けるのであれば繰り返し測定する。計測を続けない場合は、終了する。
【0063】
なお、自動計測により領域を計測した場合であれば、表示は、数値でなく鳥瞰図や等高線図等で表示することも可能である。また、これら領域の計測値データを他のCAD(Computer Aided Design)装置等にわたして、CAD側で処理してもよい。
【0064】
次に、上記の実施の形態において用いたステレオ画像計測における基本原理を項目毎に説明する。
1.[ステレオ法の原理]
ステレオ法の原理について以下説明する。図7はステレオ法の原理の説明図である。図7に示すように、2台のカメラ1、2が、光軸が平行で、カメラレンズの主点から撮像面としてのCCD面までの距離aが等しく、CCDは光軸に直角に置かれているものとする。また、カメラ1、2の間隔と等しい、2つの光軸間距離(基線長)をlとする。
【0065】
このとき、物体上の点P1(x1、y1)、P2(x2、y2)の座標の間には、以下のような関係がある。
x1=ax/z −−−(1)
y1=y2=ay/z −−−(2)
x2−x1=al/z −−−(3)
但し、全体の座標系(x、y、z)の原点をカメラ1のレンズ主点にとるものとする。(3)式よりzを求め、これを用いて(1)式、(2)式よりx、yが求められる。以上で、左右画像の対応点を求めれば、その位置の三次元座標を計測することが可能となる。
【0066】
2.[立体画像作成の原理]
次に立体画像作成についての原理を説明する。立体画像作成の原理は、ステレオ法が成立するように画像を修正すれば、立体視が可能になるということである。立体視可能な画像とは、対象物に対して2枚の画像が平行でありかつ縦視差が除去されているものである。例えば、図8に示されている画像では、左右の画像間でいくらオーバーラップしている領域があっても、左右画像の縮尺が異なり、さらに回転や縦視差があるために、人間の目では立体視することができない。しかしながら、図9のように左右画像の倍率をあわせ、回転を補正し縦視差を除去すれば、人間が立体視可能な画像とすることができ、ステレオ法を成り立たせることができる。
【0067】
ステレオ画像(ステレオモデル)は、左右画像中に6点以上の同一の対応点を求めることにより作成することができる。即ち、左右の画像上で6点対応する点の画像座標があれば、二つのカメラの相対的な位置と傾きを求めることができるので、それにより左右画像の縮尺、回転、縦視差を補正し、立体視可能なステレオ画像(ステレオモデル)を作成することができる。
【0068】
2.1[相互標定]
相互標定は、画像中の6点以上の対応点によりカメラの相対的な位置と傾きを求める原理である。図10は相互標定の説明図である。相互標定では、以下の共面条件式により各パラメータを求める。
【数1】

Figure 0004166993
【0069】
図10に示すように、モデル座標系の原点を左側の投影中心にとり、右側の投影中心を結ぶ線をX軸にとるようにする。縮尺は、基線長を単位長さにとる。このとき求めるパラメータは、左側のカメラのZ軸の回転角κ1、Y軸の回転角φ1、右側のカメラのZ軸の回転角κ2、Y軸の回転角φ2、X軸の回転角ω2の5つの回転角となる。この場合左側のカメラのX軸の回転角ω1は0なので、考慮する必要ない。
このような条件にすると、▲4▼の共面条件式は式▲5▼のようになり、この式を解けば各パラメータが求まる。
【数2】
Figure 0004166993
【0070】
ここで、モデル座標系XYZとカメラ座標系xyzの間には、次に示すような座標変換の関係式が成り立つ。
【数3】
Figure 0004166993
【0071】
これらの式を用いて、次の手順により、未知パラメータを求める。
2−▲1▼:初期近似値は通常0とする。
2−▲2▼:共面条件式▲5▼を近似値のまわりにテーラー展開し、線形化したときの微分係数の値を▲6▼、▲7▼式により求め、観測方程式をたてる。
2−▲3▼:最小二乗法をあてはめ、近似値に対する補正量を求める。
2−▲4▼:近似値を補正する。
2−▲5▼:補正された近似値を用いて、2−▲2▼〜2−▲5▼までの操作を収束するまで繰り返す。
【0072】
以上により、カメラの相対的な3次元位置ならびに3軸の傾きが求まり、立体視可能なステレオ画像(ステレオモデル)が作成できるようになる。また、ステレオ撮影したカメラ間の距離(基線長)を入力してやれば、実寸のステレオモデルとすることができる。さらに、6点のうち3点のXYZ座標を与えてやることができれば、実際の座標系変換し、実座標における三次元計測が可能となる。
【0073】
3.[相互相関係数法]
相互相関係数による方法では、次式を用いた以下の手順による。
【数4】
Figure 0004166993
3−▲1▼:例えば、特徴要素指定部40の対応点指示部42により指示された特徴点となる点を中心とした、N1×N1画素の画像をテンプレート画像として左画像から切出す。図11は左右画像における探索範囲とテンプレート画像の一例を示す図である。
3−▲2▼:テンプレート画像より大きい右画像中のM1×M1画素を探索範囲(M1−N1+1)として、探索範囲上でテンプレート画像を動かす。
3−▲3▼:上式の相互相関係数C(a,b)が最大になるような画像位置を求めて、テンプレート画像に対し探索されたとみなす。完全に左画像と右画像が一致していれば、相互相関係数値C(a,b)が1.0となる。
一般的には、標定作業により撮影カメラの位置と傾きを求めて、その結果を用いて偏位修正画像を作成する作業が行われる。本実施の形態においては、画像標定部30により、偏位修正画像を作成する処理を行わせている。
【0074】
【発明の効果】
以上説明したように、本発明のステレオ画像用処理装置によれば、ステレオ画像取得部で取得された一対のステレオ画像に含まれている特徴要素を指定する特徴要素指定部と、特徴要素指定部で指定された特徴要素の前記ステレオ画像中の位置に基づき前記ステレオ画像の標定を行う画像標定部と、標定の済んだステレオ画像を立体表示する表示部とを備えているので、オペレータは特徴要素指定部を用いてステレオ画像中の特徴要素を指定すれば、画像標定部と表示部によりステレオ画像が作成されて、表示される。
【0075】
また、さらに指定された特徴要素の寸法決定に用いられるデータを入力するデータ入力部を備えるステレオ画像用処理装置によれば、データ入力部で入力された寸法決定に用いられるデータに基づき、画像標定部により立体視可能に偏位修正されたステレオ画像から、当該ステレオ画像に写し込まれた被写体の実寸が計測可能な状態となる。
【図面の簡単な説明】
【図1】 本発明の第1の実施の形態を説明する全体構成ブロック図である。
【図2】 デュアルディスプレイ方式の立体ディスプレイを説明する構成斜視図である。
【図3】 図1の装置におけるステレオ画像計測の手続きの流れを説明するフローチャートである。
【図4】 対応点決定処理を説明するフローチャートである。
【図5】 (A)はターゲットの配置の一例、(B)は対応境界の指示及び結線の表示例を説明する図である。
【図6】 計測位置指定処理を説明するフローチャートである。
【図7】 ステレオ法の原理の説明図である。
【図8】 人間の目では立体視することができない画像の一例を示す図である。
【図9】 人間が立体視可能な画像の一例を示す図である。
【図10】 相互標定の説明図である。
【図11】 左右画像における探索範囲とテンプレート画像の一例を示す図である。
【符号の説明】
10 ステレオ画像取得部
20 画像データ記憶部
30 画像標定部
40 特徴要素指定部
42 対応点指示部
44 自動捜索処理部
50 データ入力部
60 表示部
66 立体画像表示部[0001]
[Industrial application fields]
The present invention relates to a stereoscopic image display apparatus and method capable of creating a three-dimensional image of an object to be photographed from a stereo image and stereoscopically displaying it. The present invention also relates to a stereoscopic image display apparatus that can perform stereo image measurement from a created three-dimensional image.
[0002]
[Prior art]
Stereo cameras for stereo measurement are fixed so that the cameras do not move relatively. Therefore, the baseline length corresponding to the camera interval is invariant, and the shooting distance of the camera needs to be accurately matched between the cameras, so a fixed focal length lens is used instead of a zoom lens with a variable focal length. in use. In addition, since the measurement accuracy of a stereo camera is determined depending on the resolution of the camera, a high-precision lens with less aberration is used.
[0003]
In addition, there are a liquid crystal shutter system and a liquid crystal filter shutter system as stereoscopic image display devices for stereoscopically viewing a stereo image. In the liquid crystal shutter method, left and right images are alternately displayed on a single screen, and the left and right images are switched by synchronizing the images with liquid crystal glasses. In the liquid crystal filter shutter system, a liquid crystal deflection filter is attached on the screen, and the liquid crystal deflection filter is switched at the same time while switching and displaying the left and right images, and observation is performed with deflecting glasses.
[0004]
[Problems to be solved by the invention]
Therefore, the conventional stereo camera has the following problems.
(1) It is difficult to carry because each camera is fixed so as not to move relatively.
(2) Since the selection range of the baseline length and the shooting distance is small, the size of the measurement object of the stereo camera is limited.
(3) Dedicated cameras using high-precision lenses are expensive and difficult to use for ordinary people.
[0005]
Further, in the conventional stereoscopic image display device, the left and right images are switched and displayed in a time division manner using liquid crystal glasses, a liquid crystal filter, and the like, and stereoscopic viewing is possible. However, there are the following problems.
(4) Switched images are displayed in a time-sharing manner in the left and right eyes of the human, and the left and right images are fused in the brain, so the switching of the left and right images flickers, making stereoscopic viewing very difficult with fatigue It is said.
(5) In the liquid crystal shutter method, the right and left switching of the liquid crystal glasses is performed by a sensor. Therefore, it is difficult to use (stereoscopic view) under a fluorescent lamp.
[0006]
The present invention solves the above-described problems, and a first object is to provide a stereoscopic image display apparatus and method capable of creating a stereoscopically viewable three-dimensional image using a digital camera or a digital video image. is there.
A second object of the present invention is to provide a stereoscopic image display apparatus capable of measuring a stereo image from a created three-dimensional image.
A third object of the present invention is to provide a stereoscopic image display device that does not cause fatigue even when viewed stereoscopically for a long time when stereoscopically captured images are stereoscopically viewed.
[0007]
[Means for Solving the Problems]
As shown in FIG. 1, the stereoscopic image display apparatus of the present invention that achieves the first object is a feature element designating unit that designates a feature element included in a pair of stereo images acquired by the stereo image acquiring unit 10. 40, an image orientation unit 30 that locates the stereo image based on the position of the feature element designated by the feature element designation unit 40 in the stereo image, and a display unit 60 that stereoscopically displays the stereo image after orientation It has.
[0008]
In the apparatus configured as described above, since the feature elements included in the stereo image are designated by the feature element designation unit 40, the stereo orientation of the stereo image by the image orientation unit 30 can be easily performed. The determined stereo image is stereoscopically displayed by the display unit 60. Preferably, when the image data storage unit 20 that stores a pair of stereo images acquired by the stereo image acquisition unit 10 is provided, the process of specifying the feature element by the feature element specifying unit 40 is stored in the image data storage unit 20. This can be done using stereo images.
[0009]
Preferably, the feature element designating unit 40 includes a cursor moving unit that moves a cursor in the image. When the feature element specifying unit 40 is configured to instruct the feature element by the cursor moving unit, a stereo image is standardized by an operator. Easy to do. Typically, an input device for an electronic device such as a mouse, a pointer, a touch pad, or a key switch is used as the cursor moving means.
[0010]
Preferably, the feature element specifying unit 40 is configured to include an automatic search processing unit 44 that searches for a feature element candidate image to be a feature element in a stereo image and moves the cursor to the feature element candidate image. If so, the stereo image orientation work by the operator can be easily performed. In order to search for a feature element candidate image, a cross-correlation coefficient method using a template image is typically used, and the image position where the cross-correlation coefficient is maximized is the position of the feature element candidate image.
[0011]
Preferably, the feature element specifying unit 40 is based on the corresponding point indicating unit 42 in which a corresponding point in the stereo image is specified by an operator's operation and the image data of the corresponding point on the stereo image. If it is configured to include the arithmetic processing unit 48 that measures the stereo image, the three-dimensional measurement work of the stereo image can be easily performed.
[0012]
Preferably, when the image orientation unit 30 is configured to further perform a displacement correction operation in the orientation processing in the stereo image, the position and inclination of the camera are calculated by the orientation processing, and the displacement correction operation is performed. Thus, if the left and right images are converted into stereoscopically viewable images and a reference scale is given, stereo image measurement can be performed from a stereoscopically viewable three-dimensional image.
[0013]
Preferably, when the image orientation unit 30 is configured to give an appropriate scale to the stereo model created for the stereo image using the imaging baseline length of the stereo image acquisition unit 10, the stereo image acquisition is performed. The general size of the subject according to the distance between the unit 10 and the subject can be presented.
[0014]
As shown in FIG. 1, the stereoscopic image display apparatus of the present invention that achieves the second object preferably further includes a data input unit 50 for inputting data used for determining the dimensions of the designated feature element. If the stereo image is configured to be shifted by the image orientation unit 30 so as to be stereoscopically viewed based on the data used for determining the dimensions input by the data input unit 50, the stereo image is imprinted on the stereo image. The actual size of the subject can be measured.
[0015]
Preferably, when the data input by the data input unit 50 includes at least one of the position, length, and direction of the feature element, the image orientation unit 30 can easily perform the orientation process in the stereo image. .
[0016]
As shown in FIG. 2, the stereoscopic image display device of the present invention that achieves the third object, as a display unit 60, displays left and right images constituting the above-mentioned stereo image on two polarized displays 662 and 664. A dual display system configured such that the left and right images displayed on the two polarizing displays are combined by the half mirror 666 and can be viewed in a state where the stereo image is separated into the left and right images by the polarizing glasses 668; Good. In the dual display system, the left and right images are observed simultaneously, so that the operator can stably view stereoscopically for a long time without being affected by external environmental noise such as a fluorescent lamp and illumination conditions.
[0017]
As shown in FIG. 3, the stereoscopic image display method of the present invention that achieves the first object includes a step of reading a pair of stereo images acquired by the stereo image acquisition unit (S102) and the pair of stereo images. A designated feature element (S110), a stereo image orientation step based on the position of the designated feature element in the stereo image (S112, S114), and a stereo image after orientation Is provided in a three-dimensional display (S116).
[0018]
DETAILED DESCRIPTION OF THE INVENTION
The present invention will be described below with reference to the drawings. FIG. 1 is a block diagram showing the overall configuration of a first embodiment of the present invention. The stereoscopic image display device includes a stereo image acquisition unit 10, an image data storage unit 20, an image orientation unit 30, a feature element designation unit 40, a data input unit 50, and a display unit 60.
[0019]
The stereo image acquisition unit 10 may be a precision device such as a stereo camera, or may be a device using a simple lens such as a digital camera or a digital video camera. The stereo camera is for stereo measurement, and is fixed so that each camera does not move relatively. Therefore, since the base line length corresponding to the camera interval is not changed and the shooting distance of the camera needs to be accurately matched between the cameras, a fixed focal length type lens is used. In addition, since the shooting work area of the stereo camera is determined depending on the resolution of the camera, the shooting work area is enlarged using a high-precision lens with less aberration.
[0020]
On the other hand, a digital camera or a digital video camera can be a stereo camera by attaching two devices using lenses having the same optical properties to a stereo bar. Alternatively, a digital camera or a digital video camera may be used as one unit to shoot the measurement object from the right shooting direction and the left shooting direction. When shooting from the right shooting direction and the left shooting direction with a single camera, care should be taken so that the left and right camera intervals are constant. In digital cameras and digital video cameras, the lens aberration is larger than the lens aberration of the stereo camera, so it is preferable to compensate the lens aberration and store it in the image data storage unit 20. Since lens aberration is large, the field of view of the lens should be narrower than that of a stereo camera to ensure accuracy.
[0021]
The image data storage unit 20 stores the image acquired by the stereo image acquisition unit 10, and if a digital camera or a digital video camera is used, a flexible disk, a CD-ROM, a hard disk, or the like that stores digital image information is used. Good. When using analog image information printed on a film as a stereo camera, the analog image information may be digitized by a scanner or the like to be converted into digital image information and stored.
[0022]
The image orientation unit 30 calculates the position and inclination of the camera (external orientation element) using the position of the image specified by the feature element specification unit 40, and is a stereo image (displacement correction) that can be viewed stereoscopically by a displacement correction operation. Image), and typically corresponds to the function of performing relative orientation and absolute orientation among internal orientation, relative orientation, and absolute orientation in aerial photogrammetry. The image orientation unit 30 may be software on a personal computer, or may be incorporated in the display unit 60 as embedded software such as a microcomputer. Or you may comprise by hardware. The principle of creating a stereoscopic image will be described later in detail.
[0023]
Further, the image orientation unit 30 inputs actual or virtual coordinates or dimensions from the data input unit 50 to the feature points of the image designated by the feature element designating unit 40, so that the stereo image can be actually viewed in a stereoscopic image. Alternatively, the image is converted into a stereo image having a virtual scale or size. If a stereoscopically viewable stereo image is created in this way and given the dimensions necessary for absolute orientation, three-dimensional measurement can be performed according to the principle of the stereo method.
[0024]
The feature element designating unit 40 instructs a feature point of an image as a feature element on the left and right images when the stereo image is corrected so as to be stereoscopically viewed. The feature points of the image need to be provided at least 6 points in the overlapped area on the left and right images in order to enable orientation, and the distribution density of the feature points is almost uniform in the overlapped area on the left and right images. It is good to define as follows. The feature point of the image is preferably a shape or pattern that can be easily recognized by the operator or the automatic search processing unit 44. For example, a sign called a target may be provided on the subject.
[0025]
The feature element designation unit 40 includes a corresponding point designating unit 42 that designates corresponding points of the left and right images when creating and measuring a stereoscopic image, an automatic search processing unit 44 for automatically searching for corresponding points, and a three-dimensional measurement. An arithmetic processing unit 48 is provided for performing an arithmetic operation when performing the operation. Here, the corresponding points are the same feature points recognized in both the left image and the right image among the feature points of the image. The corresponding point instruction unit 42 instructs the XY direction and the depth direction as a planar direction on the image, and uses a PC mouse or a dial with a depth instruction. The corresponding point instruction unit 42 may have a function of changing the cursor mark display displayed on the display unit 60 when the cursor position on the display unit 60 is close to the corresponding point position.
[0026]
The corresponding point search in the automatic search processing unit 44 is performed using, for example, image correlation processing. That is, the right image is searched using the point designated as the feature point on the left image as a template. For the image correlation processing, any of a cross-correlation coefficient method, a residual sequential test method (SSDA method), or the like may be used.
[0027]
Since the corresponding points of the left and right images are determined by the corresponding point instructing unit 42 and the automatic search processing unit 44, even when two cameras are attached to a stereo attachment or the like as the stereo image acquiring unit 10, stereo shooting is performed. Corresponding points can be obtained. Furthermore, a stereo model corresponding to stereo shooting can be created by the image orientation unit 30 using external orientation elements. Then, stable stereo shooting and stereo model creation are possible without depending on the skill level of the operator. In the case of a stereo camera, since the baseline length and camera tilt are known, a stereo model can be uniquely obtained by using the corresponding parameters.
[0028]
The data input unit 50 inputs a reference amount and the like to match the actual dimensions. Note that the data input unit 50 need not be provided if only a stereoscopic image is to be created. If the data input unit 50 puts dimensions into a stereo image that has been modified so that it can be viewed stereoscopically, a stereoscopic image can be created using the dimensions input as parameters necessary for absolute orientation.
[0029]
The display unit 60 displays an acquired image or an image that can be stereoscopically viewed, and includes an operation display unit 64 and a stereoscopic image display unit 66. The operation display unit 64 may be a personal computer monitor used for the image orientation unit 30. The stereoscopic image display unit 66 may be a dual display type stereoscopic display that can be viewed stereoscopically with deflecting glasses.
[0030]
FIG. 2 is a perspective view illustrating a dual display type stereoscopic image display unit. In the dual display method, left and right images are displayed on two polarization displays 662 and 664, respectively, and are combined by a half mirror 666. The image synthesized by the half mirror 666 is in a polarization state in which the left and right images can be separated by the polarizing glasses 668. In other words, the polarization states of the images displayed on the polarization displays 662 and 664 are optically orthogonal and can be separated by the polarizing glasses 668. When the observer observes the screen displayed on the stereoscopic image display unit 66 using the polarized glasses 668, a state in which the left and right images are displayed simultaneously on the left and right eyes is realized. Therefore, the observer can observe the left and right images three-dimensionally. Compared with the conventional liquid crystal shutter method and liquid crystal filter shutter method, the dual display method observes the left and right images at the same time, so it is not affected by external environmental noise such as fluorescent lamps and lighting conditions, and is stable for a long time. There is an advantage that stereoscopic viewing is possible.
[0031]
The display unit 60 may display not only a stereoscopic image, but also an indication of measurement points, a display for operating the apparatus, an acquired raw image, and the like. These displays may be displayed in accordance with the stereoscopic image display unit 66 or may be displayed on the operation display unit 64.
[0032]
Next, the use of the apparatus configured as described above will be described. FIG. 3 is a flowchart for explaining the flow of a procedure for stereo image measurement in the apparatus of FIG. First, using a commercially available digital camera or digital video camera, stereo shooting of an object to be stereoscopically displayed is performed (S100). One camera may be used for stereo shooting, and shooting may be performed in the right and left directions. Alternatively, two cameras may be fixed and stereo shooting may be performed from the right and left directions.
[0033]
Next, the left and right images taken in stereo are read into the image data storage unit 20 (S102). Then, the image read into the image data storage unit 20 is displayed on the display unit 60 (S104). Here, when the left and right images are displayed side by side on the display unit 60, the subsequent operation becomes easy. When the operation display unit 64 is provided in the display unit 60, the operation display unit 64 may display the operation display unit 64. Even in this state, if the image is taken in parallel to the target object as a subject with a fixed stereo attachment, the image can be stereoscopically displayed by being displayed on the display unit 60.
[0034]
Subsequently, if there is a dimension related to the coordinate value or feature point of the corresponding point on the left and right images taken in stereo, the relevant dimension is input from the data input unit 50 (S106). For example, if three points are known as actual coordinates, the coordinate values of three known points can be input from the data input unit 50. Then, in the determination of the corresponding points of the left and right images processed in S110, conversion to a known coordinate system is possible, and three-dimensional measurement is possible. Other data input from the data input unit 50 includes the tilt (direction) of the captured camera, the dimensions on the known image, and the inter-camera distance (baseline length) at the time of stereo shooting. these Find the relative position and tilt of the camera using 6 or more corresponding points in the image Mutual orientation and Find the position and tilt in absolute coordinates Data required for absolute orientation As a reference amount to be combined with actual dimensions such as the coordinate values of three known points from the data input unit 50 If you enter Through mutual orientation and absolute orientation Created Deviation corrected Stereo image Actual size of the subject Can be measured. The orientation is performed by selecting six or more corresponding points from a large number of feature points on the left and right images taken in stereo. In addition, the coordinate values of the known three points use a three-dimensional measurement value or the like performed in advance. Instead of data input from the data input unit 50, the stereo image acquisition unit 10 may be used to copy in advance a part having a reference size as a stereo image.
[0035]
Further, even if the data input from the data input unit 50 is not an actual dimension, it is possible to input a virtual value and create a stereo model of the virtual dimension. Alternatively, in S106, a stereo model can be created without inputting any data from the data input unit 50, and a stereoscopically viewable stereo image can be displayed on the stereoscopic image display unit 66. It is. However, unless a dimension serving as a reference is separately determined, a stereo image similar to the actual dimension can be obtained, and an absolute value cannot be obtained.
The data input to the data input unit 50 may be input in advance as an initial setting value instead of the position of S106, or may be input when determining the corresponding points of the left and right images processed in S110. Or you may input after the corresponding point determination process of a right-and-left image.
[0036]
Subsequently, the main image and the sub image are selected (S108). Here, the main image refers to an image in which a reference cursor appears during automatic correlation processing. The slave image refers to an image in which a slave cursor in which the cursor automatically moves to a position having a high correlation value corresponding to the position of the reference cursor during the automatic correlation process.
[0037]
It is left to the user to decide which of the left and right images taken in stereo is the main image. As the main screen image, it is desirable to select a dominant-side image for the user to recognize the shape of the object. This is because human eyes are stereoscopic with both eyes, but either the left or right side is dominant in order to recognize the shape of an object. In order to determine which of the two eyes is dominant, the eye on the side pointing at the predetermined mark even when one eye is closed and one eye is closed Ask for. In the following description, a case where the main image is the left image and the sub image is the right image will be described as an example.
[0038]
Next, in order to create a stereoscopic image, the corresponding point instruction unit 42 of the feature element specifying unit 40 determines the corresponding points of the left and right images (S110). By associating at least 6 or more identical points on the left and right images, the principle of stereoscopic vision described above is applied, Mutual orientation The image orientation unit 30 Each parameter is obtained using a coplanar conditional expression (4) described later, and further using conversion expressions (6) and (7) between the model coordinate system XYZ and the camera coordinate system xyz, Camera Relative The position and inclination (external orientation element) can be obtained. As described above, the relative three-dimensional position of the camera and the inclination of the three axes can be obtained, and a stereo image (stereo model) with a corrected displacement can be created. Moreover, if a distance (baseline length) between cameras that have taken a stereo image is input, an actual stereo model can be obtained. Furthermore, if three XYZ coordinates of the six points can be given, the actual coordinate system can be converted, and three-dimensional measurement in actual coordinates can be performed. That is, the actual coordinates of the corresponding points of the subject of the stereo image other than the three points used in the relative orientation are obtained. Corresponding points may be determined on the left and right images by determining where the features are on the image. However, if a clear target is printed and arranged around the object using a printer or the like, the operation itself becomes easy. Clear target marks include black circle “●”, square “■”, rhombus “◆”, triangle “▲” and the like. A series of operations from determining corresponding points to calculating external orientation elements is called orientation.
[0039]
Next, a specific process for determining the corresponding points of the left and right images will be described with reference to FIG. FIG. 4 is a flowchart for explaining the corresponding point determination process. When the corresponding point determination process is entered (S200), one of the three modes, the manual mode, the semi-automatic mode, and the automatic mode, is selected as the corresponding point determination process (S202). It should be noted that the processing for the left image and the right image described below is exactly the same even if they are replaced with the opposite right image and the left image, and may be read and processed in that way.
[0040]
When manual mode is selected, processing in manual mode is started (S210). First, the feature of the left image on the display unit is designated with the mouse of the corresponding point designating unit 42 and determined (S212). Confirmation is performed, for example, by pressing a mouse button. The left image coordinates are read by the confirmation process. Next, the same feature point as that of the left image is designated / determined on the right image of the display unit by the mouse of the corresponding point designation unit 42 (S214). Thereby, the right image coordinates are read. As described above, in the manual mode, the corresponding point instruction unit 42 instructs and confirms the left and right images separately. Then, it is determined whether or not 6 points or more are associated as corresponding points (S216), and if it is less than 6 points, the mode selection returns to S202. Note that the program may be created so as to return to S212 and continue the corresponding point determination process in the manual mode. If 6 or more points are associated, it is returned.
[0041]
When the semi-automatic mode is selected, processing in the semi-automatic mode is started (S220). In the semi-automatic mode, the process proceeds to the automatic search processing unit 44 of the feature element specifying unit 40 (S222). Next, feature points are designated on the left image of the display unit 60 by the mouse of the corresponding point designating unit 42 (S224). Then, the automatic search processing unit 44 automatically searches for corresponding points on the right image (S226).
[0042]
Then, the operator determines whether or not the corresponding point on the right image searched by the automatic search processing unit 44 is appropriate (S228). In this case, if the cross-correlation coefficient calculated by the automatic search processing unit 44 is equal to or greater than a certain threshold value, it is determined as OK (for example, 0.7 or higher). On the display unit 60, the corresponding point instruction unit 42 displays a green display point if OK, a red display point if NG, or a cursor mark figure on the search position corresponding to the left image on the right image, for example. The operator determines to change (for example, change the cursor mark display from an arrow “⇒” to a double circle “” ”) or to display a cross-correlation coefficient value. Whether the right image search is OK or not may be displayed as long as the operator can easily make a determination.
[0043]
If it is not OK, it is determined whether the corresponding point may be another position (S230). If it is acceptable to return to another position, the process returns to S224 to indicate another point. On the other hand, if it is absolutely necessary to use the position as a feature point, the cursor on the right image is manually moved and instructed (S232). That is, for example, if the dial or the like for adjusting the depth direction of the corresponding point indicating unit 42 is turned, the cursor on the right image is equivalently moved, so that it is adjusted and brought to the same feature point as the left image. Go and match.
[0044]
If the right image search is OK in S228 or if the right image is designated in S232, the image coordinates of that point are read (S234). For example, confirm by pressing a mouse button. Then, it is determined whether or not 6 points or more are associated as corresponding points (S236), and if it is less than 6 points, the mode selection returns to S202. Note that the program may be created so as to return to S222 and continue the corresponding point determination process in the semi-automatic mode. If 6 or more points are associated, it is returned.
[0045]
In the semi-automatic mode described above, the corresponding point of the right image is automatically searched by indicating the feature point on the left image with the mouse, and whether or not it is OK is displayed. Therefore, the operator looks at the display of the cursor mark display, and if the corresponding point on the right image searched by the automatic search processing unit 44 is appropriate, the searched corresponding point is determined as the corresponding point (for example, an arrow) (If changed from “⇒” to “◎”.) By using the semi-automatic mode, the operator only has to specify one of the images, so the corresponding point determination process can be processed easily. The determination for confirmation may be performed by pressing a button, but the corresponding point on the right image may always be determined and displayed only by moving the mouse cursor and tracing the left image. If the corresponding point on the right image corresponding to the mouse cursor on the left image is determined and displayed, the corresponding point determination process can be further easily performed.
[0046]
When the automatic mode is selected, processing in the automatic mode is started (S240). The automatic mode is a mode in which a target is automatically detected by arranging a target as a corresponding point around the object in advance. As a target, an object that is easily recognized as a feature point is arranged around the object in advance. Any target can be used as long as it is easy to recognize. For example, a target mark such as “●” described above is printed by a printer or created. In this case, if the exact position of the target is known in advance, accurate three-dimensional measurement is possible thereafter.
[0047]
First, the operator confirms whether or not six or more targets are included on the left and right images by the display unit 60 (S242). If six or more targets are not included in the left and right images, the process goes to manual or semi-automatic mode (S244). If six or more targets corresponding to the left and right images have not been photographed, photographing is performed again so that six or more targets are included. Then, the process shifts to an automatic mode process using the feature element specifying unit 40 (S246).
[0048]
In the automatic mode process, in order to perform automatic target detection, one of the arranged target images is instructed by the corresponding point instruction unit 42 and registered as a template image in the feature element specifying unit 40 (S248). Then, the automatic search processing unit 44 searches each target position of the left image and the right image based on the template image (S250). This target position search process is automatically detected using, for example, the cross-correlation coefficient method described above. Then, the searched target position is displayed on the display unit 60 (S252).
[0049]
The operator determines whether the searched target position is OK (S254). If it is NG, the target position is corrected (S256). For this correction, processing in manual mode or semi-automatic mode is used. Even if it is NG, correction is easy because the target is arranged.
[0050]
Then, corresponding points on the left and right images are detected using the corrected target position (S258). This operation is performed by instructing corresponding points of the left and right images while viewing the display unit 60 by the corresponding point instruction unit 42 of the feature element specifying unit 40. Alternatively, as shown in FIG. 5A, the arrangement of the target is determined in advance, and stereo photography is performed approximately in parallel. Then, since the arrangement of the target is maintained on the captured image, it is possible to automatically perform the association. Furthermore, even if six or more target marks are separately determined and a template is designated in advance, it is possible to automatically perform association. Since the number of corresponding points on the left and right images is a minimum of 6, it can be done easily even if it is done manually.
[0051]
Returning to FIG. 3, when the correspondence between the corresponding points of the left and right images is completed in S110, the image orientation unit 30 calculates external orientation elements (camera position and inclination) based on the corresponding points (S112). Details of the external orientation element are described in the corresponding part of the principle of creating a stereoscopic image described later.
[0052]
When the external orientation element is obtained in S112, image displacement correction (stereo image creation) is performed based on the obtained external orientation element value (S114). Then, a stereo image is displayed on the display unit 60 (S116). A stereo image is created as described above.
[0053]
Further, it is determined whether to perform measurement from the displayed stereo image (S118). If Yes, the measurement position is designated (S120). Next, a specific process for specifying a measurement position in a stereo image will be described with reference to FIG. FIG. 6 is a flowchart for explaining the measurement position designation process. When the measurement position designation process is started (S400), any one of three modes of a manual mode, a semi-automatic measurement mode, and an automatic measurement mode as the measurement position designation process is selected (S402).
[0054]
In each mode of the measurement position designation process, it is possible to measure the three-dimensional coordinate value of the designated point, the distance between the two points, or the like based on the data input from the input data section. Here, since a stereoscopic image is displayed on the stereoscopic image display unit 66, it is possible to perform measurement while viewing and confirming the stereoscopic image. Further, it is possible to display the left and right images separately on the operation display unit 64 and perform the measurement while looking at the images. However, if the measurement is performed while confirming with the stereoscopic image display unit 66, more reliable measurement is possible.
Further, the instruction in the depth direction on the stereoscopic image of the corresponding point instruction unit 42 is instructed by a dial attached to the mouse or a dial alone.
[0055]
When the manual mode is selected, the measurement position designation process in the manual mode is started (S410). Here, a procedure will be described in which the operator designates measurement points using the operation display unit 64 while viewing the stereoscopic image display unit 66. The operator instructs the position to be measured as a feature point for the left image displayed on the operation display unit 64 while viewing the stereoscopic image display unit 66 (S412). Next, for the right image displayed on the operation display unit 64, a position that is considered to be the same point is designated as a feature point (S414). Then, the stereoscopic image display unit 66 is checked to check whether the feature point of the left image and the feature point of the right image are on the matching feature point as the point to be measured indicated by the cursor (S416). In addition to the plane direction of the screen, the position of the point to be measured by the cursor includes the depth direction. If they are different, a position to be measured is instructed using the mouse of the corresponding point instructing unit 42 (S418).
[0056]
When the operator looks at the stereoscopic image display unit 66, the depth direction can be observed at the same time, so the position in the depth direction is also adjusted (S420). That is, if there is no depth direction, the cursor appears to float or sink from the target point. In this case, if there is a dial for adjusting the depth direction, the cursor position can be adjusted on the target point using them. This cursor alignment operation is substantially the same as the alignment of the left and right images, but since it is performed while stereoscopically viewing, there is no mistake and at the same time. That is, the left and right images can be aligned even where there are few features. If the feature point of the left image matches the feature point of the right image and is OK, the position is fixed by using a mouse button or the like, and the coordinate position is read (S422).
[0057]
When the semi-automatic measurement mode is selected, measurement position designation processing in the semi-automatic measurement mode is started (S430). In the semi-automatic measurement mode, the operation display unit 64 or the stereoscopic image display unit 66 may be viewed while viewing. In the semi-automatic measurement mode, the feature element specifying unit 40 proceeds to the automatic search processing unit 44 (S432). Then, the operator designates the measurement point on the left image with the mouse (S434). Then, the automatic search processing unit 44 searches the right image for the same measurement point as the measurement point on the left image (S436). The search for the same measurement point as the measurement point on the left image by the automatic search processing unit 44 on the right image is exactly the same as the content described in S226. Then, it is confirmed whether the search position of the right image is OK (S438).
[0058]
If the search position of the right image is different from the measurement point on the left image, the position to be measured is instructed using the mouse of the corresponding point instruction unit 42 as in the manual mode (S440). At this time, since the operator can observe the depth direction and the image plane direction at the same time on the stereoscopic image display unit 66, the positions in the depth direction are also matched (S442). If the feature point of the left image matches the feature point of the right image and is OK, the position is fixed by using a mouse button or the like, and the coordinate position is read (S444). At this time, if it is OK on the operation display unit 64, it is preferable to display OK at the position of the corresponding right image. On the three-dimensional image display unit 66, OK display can be confirmed by changing the color and shape of the cursor, but it can also be confirmed with the eyes of the person whether or not the display is actually true.
[0059]
When the automatic measurement mode is selected, a process for specifying a measurement position in the automatic measurement mode is started (S450). In the automatic measurement mode, it is possible to collectively measure the three-dimensional coordinate values of the designated area. Therefore, a measurement area specifying process for specifying an area to be measured is performed (S452). That is, the boundary point of the left and right images that is the outermost side of the measurement area is designated. For example, when it is desired to collectively measure a substantially pentagonal region, five boundary points serving as corresponding boundaries are designated as shown in FIG. Here, the boundary points designated by the operator are represented by black circles. Then, the operator refers to the display of the boundary point and determines whether or not the point for indicating the boundary point of the left and right images is appropriate (S454). If the specified boundary point is incorrect or the user does not like it, the process returns to S452 and instructs again.
[0060]
If the right and left image boundary points are designated appropriately, the designated points are connected and displayed on the stereoscopic image display unit 66 to clarify the measurement region (S456). Then, as shown in FIG. 5B, the display of the stereoscopic image display unit 66 is a display in which the boundary points serving as the corresponding boundaries are connected. Then, the operator refers to the boundary points and the connection display, and confirms whether the measurement area is specified appropriately (S458). If it is not appropriate, the connection corresponding to the inappropriate designated point is cleared (S460), and the process returns to S452 to give an instruction again. If the measurement area is properly designated, the measurement area is determined (S462). If the measurement area is determined in this way, the corresponding points of the left and right images are definitely determined in the area, so that reliable collective measurement is possible. Further, if the corresponding points of these left and right images are used in batch measurement, both reliability and speed can be improved.
[0061]
Next, corresponding points in the measurement area designated area are automatically processed by the automatic search processing unit 44 for corresponding point detection (S464). Here, the image correlation processing is performed. For example, using the cross-correlation coefficient method described above, the corresponding points of each point may be detected using the left image as a template and the right image as a search region. Note that as the image correlation process, a coarse / dense search correlation method or a normal processing method used as another image correlation process may be used.
[0062]
Returning to FIG. 3, the measurement value is calculated by the arithmetic processing unit 48 from the left and right coordinate values of the corresponding points (S122). The calculation is performed according to the principle of the stereo method described above. When the corresponding points in the measurement area are automatically detected in the automatic measurement mode, the calculation is performed for all the points detected in the corresponding points. Then, the measured value is displayed on the display unit 60 (S124). Then, the process returns to S118 to determine whether or not to continue the measurement (S118). If the measurement is not continued, the process is terminated.
[0063]
Note that if the area is measured by automatic measurement, the display can be displayed as a bird's-eye view, a contour map, or the like instead of a numerical value. Further, the measurement value data of these areas may be transferred to another CAD (Computer Aided Design) apparatus or the like and processed on the CAD side.
[0064]
Next, the basic principle in stereo image measurement used in the above embodiment will be described for each item.
1. [Principle of stereo method]
The principle of the stereo method will be described below. FIG. 7 is an explanatory diagram of the principle of the stereo method. As shown in FIG. 7, the two cameras 1 and 2 are parallel in the optical axis, the distance a from the principal point of the camera lens to the CCD surface as the imaging surface is equal, and the CCD is placed perpendicular to the optical axis. It shall be. Further, the distance between the two optical axes (base line length), which is equal to the interval between the cameras 1 and 2, is assumed to be l.
[0065]
At this time, there is the following relationship between the coordinates of the points P1 (x1, y1) and P2 (x2, y2) on the object.
x1 = ax / z --- (1)
y1 = y2 = ay / z --- (2)
x2-x1 = al / z --- (3)
However, the origin of the entire coordinate system (x, y, z) is taken as the lens principal point of the camera 1. Z is obtained from the equation (3), and x and y are obtained from the equations (1) and (2) using this. As described above, if the corresponding points of the left and right images are obtained, the three-dimensional coordinates of the position can be measured.
[0066]
2. [Principle of stereoscopic image creation]
Next, the principle of creating a stereoscopic image will be described. The principle of creating a stereoscopic image is that stereoscopic viewing is possible if the image is corrected so that the stereo method is established. A stereoscopically viewable image is an image in which two images are parallel to an object and vertical parallax is removed. For example, in the image shown in FIG. 8, even if there is an overlapping area between the left and right images, the scales of the left and right images are different, and there are rotation and vertical parallax. It cannot be stereoscopically viewed. However, if the left and right image magnifications are adjusted as shown in FIG. 9, the rotation is corrected and the vertical parallax is removed, an image that can be viewed stereoscopically by a human can be obtained, and the stereo method can be realized.
[0067]
A stereo image (stereo model) can be created by obtaining six or more identical corresponding points in the left and right images. That is, if there are image coordinates of points corresponding to 6 points on the left and right images, the relative position and inclination of the two cameras can be obtained, thereby correcting the scale, rotation, and vertical parallax of the left and right images. A stereoscopically viewable stereo image (stereo model) can be created.
[0068]
2.1 [mutual orientation]
The relative orientation is a principle for obtaining the relative position and inclination of the camera from six or more corresponding points in the image. FIG. 10 is an explanatory diagram of relative orientation. In relative orientation, each parameter is obtained by the following coplanar conditional expression.
[Expression 1]
Figure 0004166993
[0069]
As shown in FIG. 10, the origin of the model coordinate system is taken as the left projection center, and the line connecting the right projection centers is taken as the X axis. For the scale, the base line length is taken as the unit length. The parameters to be obtained at this time are 5 of the left camera Z-axis rotation angle κ1, the Y-axis rotation angle φ1, the right-hand camera Z-axis rotation angle κ2, the Y-axis rotation angle φ2, and the X-axis rotation angle ω2. One rotation angle. In this case, since the rotation angle ω1 of the X axis of the left camera is 0, there is no need to consider it.
Under such conditions, the coplanar conditional expression (4) becomes the expression (5), and each parameter can be obtained by solving this expression.
[Expression 2]
Figure 0004166993
[0070]
Here, the following relational expression for coordinate transformation is established between the model coordinate system XYZ and the camera coordinate system xyz.
[Equation 3]
Figure 0004166993
[0071]
Using these equations, unknown parameters are obtained by the following procedure.
2- (1): The initial approximate value is normally 0.
2- (2): The coplanar conditional expression (5) is Taylor-expanded around the approximate value, and the value of the differential coefficient when linearized is obtained by the expressions (6) and (7) to form an observation equation.
2- (3): A least square method is applied to obtain a correction amount for the approximate value.
2- (4): The approximate value is corrected.
2- (5): Using the corrected approximate value, the operations from 2- (2) to 2- (5) are repeated until convergence.
[0072]
As described above, the relative three-dimensional position of the camera and the inclination of the three axes are obtained, and a stereoscopically viewable stereo image (stereo model) can be created. Moreover, if a distance (baseline length) between cameras that have taken a stereo image is input, an actual stereo model can be obtained. Furthermore, if three XYZ coordinates of the six points can be given, the actual coordinate system can be converted, and three-dimensional measurement in actual coordinates can be performed.
[0073]
3. [Correlation coefficient method]
In the method using the cross correlation coefficient, the following procedure using the following equation is used.
[Expression 4]
Figure 0004166993
3- (1): For example, an image of N1 × N1 pixels centering on a point that is a feature point designated by the corresponding point designating unit 42 of the feature element designating unit 40 is cut out from the left image as a template image. FIG. 11 is a diagram illustrating an example of a search range and a template image in the left and right images.
3- (2): Search range for M1 × M1 pixels in the right image larger than the template image (M1-N1 + 1) 2 The template image is moved on the search range.
3- (3): An image position where the cross-correlation coefficient C (a, b) in the above equation is maximized is obtained, and it is considered that the template image has been searched. If the left image and the right image completely match, the cross-correlation coefficient value C (a, b) becomes 1.0.
In general, the position and inclination of the photographing camera are obtained by the orientation work, and the work for creating the deviation corrected image is performed using the result. In the present embodiment, the image orientation unit 30 performs a process of creating a deviation corrected image.
[0074]
【The invention's effect】
As described above, according to the stereo image processing device of the present invention, the feature element designating unit that designates the feature elements included in the pair of stereo images acquired by the stereo image acquiring unit, and the feature element specifying unit Since the operator includes the image locating unit for locating the stereo image based on the position in the stereo image of the feature element specified in (2), and the display unit for stereoscopically displaying the stereo image after locating. If a feature element in a stereo image is designated using the designation unit, a stereo image is created and displayed by the image orientation unit and the display unit.
[0075]
Further, according to the stereo image processing apparatus including a data input unit for inputting data used for determining the dimension of the designated feature element, the image orientation is based on the data used for the dimension determination input by the data input unit. From the stereo image whose displacement is corrected so as to be stereoscopically viewed by the unit, the actual size of the subject imaged in the stereo image can be measured.
[Brief description of the drawings]
FIG. 1 is an overall configuration block diagram for explaining a first embodiment of the present invention;
FIG. 2 is a configuration perspective view illustrating a dual display type stereoscopic display.
FIG. 3 is a flowchart for explaining a flow of a procedure for stereo image measurement in the apparatus of FIG. 1;
FIG. 4 is a flowchart for explaining corresponding point determination processing;
5A is a diagram for explaining an example of target arrangement, and FIG. 5B is a diagram for explaining an example of correspondence boundary indication and connection display;
FIG. 6 is a flowchart for explaining measurement position designation processing.
FIG. 7 is an explanatory diagram of the principle of the stereo method.
FIG. 8 is a diagram illustrating an example of an image that cannot be stereoscopically viewed by human eyes.
FIG. 9 is a diagram illustrating an example of an image that can be stereoscopically viewed by a human.
FIG. 10 is an explanatory diagram of relative orientation.
FIG. 11 is a diagram illustrating an example of a search range and a template image in left and right images.
[Explanation of symbols]
10 Stereo image acquisition unit
20 Image data storage unit
30 Image orientation part
40 Feature element specification part
42 Corresponding point indicator
44 Automatic search processing unit
50 Data input section
60 Display section
66 3D image display

Claims (6)

ステレオ画像取得部で取得された一対のステレオ画像に含まれている特徴要素を指定する特徴要素指定部と;
前記指定された特徴要素の前記ステレオ画像中の位置に基づき、前記ステレオ画像を撮影したカメラの外部標定要素を求め、求めた前記外部標定要素を用いて前記ステレオ画像の偏位修正を行う画像標定部と;
前記偏位修正の済んだステレオ画像を立体表示する立体画像表示部と、前記ステレオ画像の両画像を表示する操作表示部とを有する表示部とを備え;
前記特徴要素指定部は、前記ステレオ画像内でカーソルを移動させ、前記特徴要素を指示するカーソル移動手段と、前記ステレオ画像内での対応点を自動で探索し、当該探索した対応点に前記カーソルを移動させる自動捜索処理部と、前記操作表示部で表示された前記ステレオ画像の一方の画像でのオペレータによる前記特徴要素の指示により前記ステレオ画像の他方の画像における前記特徴要素のうちから対応点が指定される対応点指示部とを有し;
前記表示部は、前記一方の画像で前記オペレータにより前記カーソル移動手段を用いて指示された特徴要素と、前記他方の画像で前記自動捜索処理部により探索された対応点が同一の特徴要素であることを示す表示をする
立体画像表示装置。
A feature element designating unit for designating a feature element included in the pair of stereo images acquired by the stereo image acquiring unit;
Based on the position of the designated feature element in the stereo image, an external orientation element of a camera that has captured the stereo image is obtained, and an image orientation that corrects the displacement of the stereo image using the obtained external orientation element is used. Part;
A display unit including a stereoscopic image display unit that stereoscopically displays the stereo image after the displacement correction and an operation display unit that displays both images of the stereo image;
The feature element designation unit moves a cursor in the stereo image, automatically moves a cursor moving means for designating the feature element, and searches for a corresponding point in the stereo image, and moves the cursor to the searched corresponding point. A corresponding point from among the feature elements in the other image of the stereo image according to an instruction of the feature element by an operator in one image of the stereo image displayed on the operation display unit A corresponding point designating unit for which is designated;
In the display unit, the feature element instructed by the operator using the cursor moving unit in the one image and the corresponding point searched by the automatic search processing unit in the other image are the same feature element. Display to indicate ;
Stereoscopic image display device.
前記表示部は、前記自動捜索処理部にて演算された相互相関係数がある閾値以上であれば、前記同一の特徴要素であることを示す表示をする
請求項1に記載の立体画像表示装置。
Wherein the display unit, if the automatic search process is equal to or more than the threshold there is a correlation coefficient computed by unit, the display indicating that the identical features elements;
The stereoscopic image display apparatus according to claim 1.
前記画像標定部は、前記ステレオ画像取得部の撮影基線長を用いて、前記ステレオ画像に対して作成されたステレオモデルに適切な縮尺を与えるように構成されている;
請求項1又は請求項2に記載の立体画像表示装置。
The image orientation unit is configured to give an appropriate scale to the stereo model created for the stereo image using the imaging baseline length of the stereo image acquisition unit;
The stereoscopic image display apparatus according to claim 1 or 2 .
さらに、前記指定された特徴要素の寸法決定に用いられるデータとして、実際の寸法と合わせる基準量となる、既知の3点の座標値、撮影したカメラの傾き、既知の画像上の寸法又はステレオ撮影した際のカメラ間距離を含むデータを入力するデータ入力部を備え;
前記画像標定部は、前記データ入力部で入力された寸法決定に用いられるデータに基づき、前記ステレオ画像に写し込まれた被写体の実寸を計測可能とする;
請求項1乃至請求項3に記載の立体画像表示装置。
Further, as data used for determining the dimensions between the specified feature elements , the coordinate values of three known points, the tilt of the photographed camera, the known image dimensions, or stereo, which are reference amounts to be matched with the actual dimensions. A data input unit for inputting data including the distance between cameras at the time of shooting ;
The image orientation unit is capable of measuring the actual size of the subject imaged in the stereo image based on the data used for dimension determination input by the data input unit;
The stereoscopic image display apparatus according to claim 1.
前記表示部は、前記標定の済んだステレオ画像を構成する左右画像を2枚の偏光ディスプレイにそれぞれ表示させて、ハーフミラーによって前記2枚の偏光ディスプレイに表示された左右画像を合成し、偏光眼鏡によって当該ステレオ画像を左右画像に分離した状態で視聴可能に構成された;
請求項1乃至請求項4に記載の立体画像表示装置。
The display unit displays left and right images constituting the stereo image after the orientation on two polarization displays, and combines the left and right images displayed on the two polarization displays by a half mirror, thereby polarizing glasses. The stereo image can be viewed in a state where the stereo image is separated into left and right images;
The three-dimensional image display apparatus according to claim 1.
ステレオ画像取得部で取得された一対のステレオ画像に含まれている特徴要素を指定する工程と;
前記指定された特徴要素の前記ステレオ画像中の位置に基づき、前記ステレオ画像を撮影したカメラの外部標定要素を求める工程と;
求めた前記外部標定要素を用いて前記ステレオ画像の偏位修正を行う工程と;
前記偏位修正の済んだステレオ画像を立体表示する工程と、前記ステレオ画像の両画像を表示する工程とを有する表示工程とを備え;
前記特徴要素を指定する工程は、前記ステレオ画像内でカーソルを移動させ、前記特徴要素を指示するカーソル移動工程と、前記ステレオ画像内での対応点を自動で探索し、当該探索した対応点に前記カーソルを移動させる自動捜索処理工程と、前記ステレオ画像の一方の画像でのオペレータの操作による前記特徴要素の指示により前記ステレオ画像の他方の画像おける前記特徴要素のうちから対応点が指定される対応点指示工程とを有し;
前記表示工程は、前記一方の画像で前記オペレータにより前記カーソル移動工程において指示された特徴要素と、前記他方の画像で前記自動捜索処理工程において探索された対応点が同一の特徴要素であることを示す表示をする
立体画像表示方法。
Designating feature elements included in a pair of stereo images acquired by the stereo image acquisition unit;
Obtaining an external orientation element of a camera that has captured the stereo image based on a position of the designated feature element in the stereo image;
Correcting the displacement of the stereo image using the obtained external orientation element;
A display step including a step of stereoscopically displaying the stereo image after the displacement correction and a step of displaying both images of the stereo image;
The step of designating the feature element includes moving a cursor in the stereo image, automatically searching for a corresponding point in the stereo image, and a cursor moving step for designating the feature element. Corresponding points are designated from among the feature elements in the other image of the stereo image by an automatic search processing step of moving the cursor and an instruction of the feature element by an operator's operation on one image of the stereo image A corresponding point indicating process;
In the display step, the feature element instructed in the cursor movement step by the operator in the one image and the corresponding point searched in the automatic search processing step in the other image are the same feature element. Display to indicate ;
3D image display method.
JP2002064094A 2002-03-08 2002-03-08 Stereoscopic image display apparatus and method Expired - Fee Related JP4166993B2 (en)

Priority Applications (8)

Application Number Priority Date Filing Date Title
JP2002064094A JP4166993B2 (en) 2002-03-08 2002-03-08 Stereoscopic image display apparatus and method
AT05004317T ATE466454T1 (en) 2002-03-08 2003-03-07 DEVICE AND METHOD FOR STEREOSCOPIC IMAGE REPRODUCTION
DE60316738T DE60316738T2 (en) 2002-03-08 2003-03-07 Apparatus and method for stereoscopic image reproduction
EP05004317A EP1534021B1 (en) 2002-03-08 2003-03-07 Device and method for displaying stereo image
AT03004930T ATE375687T1 (en) 2002-03-08 2003-03-07 DEVICE AND METHOD FOR STEREOSCOPIC IMAGE REPRODUCTION
US10/383,260 US7193626B2 (en) 2002-03-08 2003-03-07 Device and method for displaying stereo image
DE60332353T DE60332353D1 (en) 2002-03-08 2003-03-07 Apparatus and method for stereoscopic image reproduction
EP03004930A EP1343334B1 (en) 2002-03-08 2003-03-07 Device and method for displaying stereo image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002064094A JP4166993B2 (en) 2002-03-08 2002-03-08 Stereoscopic image display apparatus and method

Publications (2)

Publication Number Publication Date
JP2003264852A JP2003264852A (en) 2003-09-19
JP4166993B2 true JP4166993B2 (en) 2008-10-15

Family

ID=29197044

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002064094A Expired - Fee Related JP4166993B2 (en) 2002-03-08 2002-03-08 Stereoscopic image display apparatus and method

Country Status (1)

Country Link
JP (1) JP4166993B2 (en)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005130312A (en) * 2003-10-24 2005-05-19 Sony Corp Stereoscopic vision image processing device, computer program, and parallax correction method
EP1796039B1 (en) 2005-12-08 2018-11-28 Topcon Corporation Device and method for image processing
JP4889351B2 (en) 2006-04-06 2012-03-07 株式会社トプコン Image processing apparatus and processing method thereof
JP5362189B2 (en) 2006-05-10 2013-12-11 株式会社トプコン Image processing apparatus and processing method thereof
JP4800163B2 (en) 2006-09-29 2011-10-26 株式会社トプコン Position measuring apparatus and method
JP2008096118A (en) * 2006-10-05 2008-04-24 Keyence Corp Optical displacement gauge, optical displacement measurement method, optical displacement measurement program, computer readable recording medium and recording equipment
JP5052254B2 (en) * 2007-08-07 2012-10-17 セイコータイムシステム株式会社 Three-dimensional measurement system and three-dimensional measurement method
US10922841B2 (en) * 2016-05-30 2021-02-16 Sharp Kabushiki Kaisha Image processing device, image processing method, and image processing program

Also Published As

Publication number Publication date
JP2003264852A (en) 2003-09-19

Similar Documents

Publication Publication Date Title
US7193626B2 (en) Device and method for displaying stereo image
JP4979928B2 (en) Three-dimensional shape calculation device and three-dimensional shape calculation method
JP4147059B2 (en) Calibration data measuring device, measuring method and measuring program, computer-readable recording medium, and image data processing device
JP4224260B2 (en) Calibration apparatus, method, result diagnosis apparatus, and calibration chart
JP4015051B2 (en) Camera correction device
JP4593730B2 (en) Stereo image measuring device
JP4540322B2 (en) Inter-image corresponding point detection apparatus and inter-image corresponding point detection method
JP4005395B2 (en) Stereoscopic image display apparatus and method
JP2001075019A (en) Endoscope device
JP4166993B2 (en) Stereoscopic image display apparatus and method
JP2003065737A (en) System and method for measuring surface shape and system for illustrating surface condition
JPH09329418A (en) Calibrating method for camera
JP4359084B2 (en) Surveying system
JP4166988B2 (en) Stereo image processing apparatus and method
JPH08147497A (en) Picture processing method and device therefor
JP2000205821A (en) Instrument and method for three-dimensional shape measurement
JP2010243827A (en) Apparatus for supporting design of eyeglasses
JPH09210649A (en) Three dimensional measurement device
JP2000020580A (en) System for supporting spectacles layout and lens selecting work
JP4167509B2 (en) Surveying system
JP4276900B2 (en) Automatic survey system
JP2004340753A (en) Calibration chart image display device
KR100395773B1 (en) Apparatus for measuring coordinate based on optical triangulation using the images
CN112424566B (en) Distance measuring camera
JP2006017633A (en) Stereoscopic photograph analyzer

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050304

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070507

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070515

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070713

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070911

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070928

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080422

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080619

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080715

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080731

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110808

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110808

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120808

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120808

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130808

Year of fee payment: 5

LAPS Cancellation because of no payment of annual fees