[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2004361222A - System and method for measuring three-dimensional position - Google Patents

System and method for measuring three-dimensional position Download PDF

Info

Publication number
JP2004361222A
JP2004361222A JP2003159444A JP2003159444A JP2004361222A JP 2004361222 A JP2004361222 A JP 2004361222A JP 2003159444 A JP2003159444 A JP 2003159444A JP 2003159444 A JP2003159444 A JP 2003159444A JP 2004361222 A JP2004361222 A JP 2004361222A
Authority
JP
Japan
Prior art keywords
light
marker
emitting
markers
distance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2003159444A
Other languages
Japanese (ja)
Inventor
Takashi Sakaguchi
貴司 坂口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2003159444A priority Critical patent/JP2004361222A/en
Publication of JP2004361222A publication Critical patent/JP2004361222A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Measurement Of Optical Distance (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To use measurement information of other luminescent markers effectively by specifying a marker by causing a measuring error, in a three-dimensional position measuring system. <P>SOLUTION: This three-dimensional position measuring system 2 is provided with luminescent markers 4a, 4b attached to a measuring object, a first and second moving image cameras 6A, 6B for imaging the luminescent markers, and a measuring instrument 8. In the measuring instrument, plane coordinates of the respective luminescent markers within the first and second images imaged respectively by the first and second moving image cameras are calculated, and then spatial coordinates of the markers are calculated according to a principle of stero-view. A distance between the luminescent markers is calculated thereafter based on the spatial coordinates to determine the propriety of the intermarker distance. When the intermarker distance is determined to be not proper, a marker moving distance from a front side by one frame of the camera image is calculated, and the marker having the marker moving distance larger than a predetermined threshold is determined to cause the measuring error. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

【0001】
【発明の属する技術分野】
本発明は、一般に三次元位置計測システムおよび方法に関し、特に、例えば人などの計測対象の複数の部位に取り付けた複数の発光マーカの三次元位置を計測するためのシステムおよび方法に関する。
【0002】
【従来の技術】
従来、人などの計測対象の複数の部位にマーカを取り付け、これらマーカの三次元位置を計測することで、対象の動作を解析する三次元計測システムが知られている。このような三次元位置計測システムは、一般的に、複数の動画像カメラでマーカを撮影し、ステレオ視の原理を用いてマーカの三次元位置を算出する。
【0003】
このような三次元位置計測システムで計測を行う場合、各種ノイズ、光環境の変化(例えば、日が差すなどして、カメラの視野内に直接光や反射光が混入する。)などが原因で計測エラー(例えば、光環境の変化で生じた画像内の光をマーカと誤認識する。)が発生する可能性がある。
【0004】
そこで、例えば、特許文献1に開示された動作解析装置(三次元位置計測システム)では、マーカ位置を計測すると同時にマーカ間の距離を算出し、算出距離を予め決められた基準距離と比較して、算出距離が適正であれば、算出したマーカ三次元位置を適切な三次元位置と判断する。
【0005】
【特許文献1】
特開2002−8043号公報
【0006】
【発明が解決しようとする課題】
しかしながら、上記動作解析装置では、マーカ間距離が不適正と判定すると以後の計測を中止するように設定されているため、安定した位置計測を行うことができない。また、マーカ間距離が不適正と判定した場合であっても、一方のマーカの位置情報は正しい可能性が高いにもかかわらず、正しい位置情報を有効に利用していない。
【0007】
そこで、本発明は、マーカ間距離情報を利用して計測エラーを判定する三次元計測システムおよび方法であって、マーカ間距離が不適正と判定した場合に、正しい位置情報を有効に利用できるものを提供することを特徴とする。
【0008】
【課題を解決するための手段】
上記目的を達成するために、本発明に係る三次元位置計測システムは、
計測対象に装着された複数の発光マーカと、
上記複数の発光マーカを撮像する第1および第2の動画像カメラと、
第1および第2の動画像カメラでそれぞれ撮像した第1および第2の画像内における上記各発光マーカの平面座標を算出する二次元位置算出部と、
二次元位置算出部で算出された第1および第2の画像内の上記各発光マーカの平面座標に基づいて、ステレオ視の原理により上記各発光マーカの空間座標(第1の空間座標)を算出するステレオ視演算部と、
ステレオ視演算部で算出した空間座標に基づいて、上記各発光マーカ間の距離を算出するマーカ間距離算出部と、
マーカ間距離算出部で算出した上記マーカ間距離が適正か否かを判定する計測エラー判定部と、
計測エラー判定部でマーカ間距離が不適正と判定された発光マーカペアを構成する各発光マーカについて、対応する上記第1および第2の画像と、不適正と判定される直前の上記第1および第2の画像とに基づいて、マーカ移動距離を算出するマーカ移動距離算出部と、
上記マーカ移動距離に基づいて、不適正なマーカ間距離であるとの判定の原因となった発光マーカを判定する計測エラーマーカ判定部とを備えたことを特徴とする。
【0009】
本発明に係る三次元位置計測方法は、
計測対象に装着された複数の発光マーカを第1および第2の動画像カメラで撮像するステップと、
第1および第2の動画像カメラでそれぞれ撮像した第1および第2の画像内における上記各発光マーカの平面座標を算出するステップと、
各画像内における上記各発光マーカの上記算出した二次元位置に基づいて、ステレオ視の原理により上記各発光マーカの空間座標(第1の空間座標)を算出するステップと、
空間座標に基づいて、上記各発光マーカ間の距離を算出するステップと、
算出したマーカ間距離が適正か否かを判定する計測エラー判定ステップと、
計測エラー判定ステップで算出したマーカ間距離が不適正と判定された場合に、該マーカ間距離に対応する発光マーカペアを構成する各発光マーカのいずれかが、不適正なマーカ間距離であるとの判定の原因となったかを判定するステップとを含むことを特徴とする。
【0010】
【発明の実施の形態】
以下、添付図面を参照して本発明の実施の形態を説明する。
【0011】
実施の形態1.
図1,2は、本発明に係る三次元位置計測システム(以下、計測システムという。)の実施の形態1を示す概略構成図である。この計測システム2は、概略、所定の範囲内で移動(運動)する計測対象(例えば人)の所定の部位に装着する一対の発光マーカ4(4a,4b)(本実施形態ではLED)と、計測対象部位が動く範囲を視野内に捉える第1および第2の動画像カメラ(本実施形態ではCCDカメラで、以下、カメラという。)6(6A,6B)と、第1および第2のカメラ6A,6Bで撮像した時系列画像データに基づいて、発光マーカ4a,4bの三次元位置を適当な時間間隔(この間隔は、撮像手段であるCCDの垂直駆動(VD)信号の周期の整数倍である。)で計測するための計測装置8とを備える。
【0012】
計測装置8は、計測システム2全体を制御する制御部10、カメラ6A,6Bでそれぞれ撮像した第1および第2の時系列画像データを記憶するための画像メモリ12、LED4a,4bの発光を制御するための発光制御部14、予め決められたカメラ6A,6Bの位置・姿勢や発光マーカ4a,4b間距離等の情報を管理するためのカメラ/マーカ情報管理部16、発光マーカ4a,4bの各時刻での三次元位置を算出するための三次元位置算出部18、該算出部18で算出した三次元位置を記録するための三次元位置記録部20等を備えている。
【0013】
図2に示すように、三次元位置算出部18は、ローカル位置算出部(二次元位置算出部)22、ステレオ視演算部24、マーカ間距離算出部26、計測エラー判定部28、マーカ移動距離算出部30、計測エラーマーカ判定部32、および三次元位置出力部34を備える。
【0014】
ローカル位置算出部22は、第1の時系列画像データを構成する各画像フレーム内および第2の時系列画像データを構成する各画像フレーム内での発光マーカ4a,4bのローカル位置(平面座標)を算出するものである。例えば、ある画像フレームに関し、水平走査線毎に輝度が所定の閾値を超えている画素部分を、マーカ存在部分(線分)として切り出す。そして、隣り合う水平走査線において水平方向に関し略同じ位置にマーカ存在部分があれば同一のマーカのものと判断することで、水平方向に関して水平駆動(HD)信号の数および垂直方向に関して水平走査線数に基づいて、発光マーカ4a,4bの平面座標を求めることができる。例えば、発光マーカ4a,4bの重心座標をそれぞれ求めて、これを各発光マーカ4a,4bのローカル位置とする。
【0015】
ステレオ視演算部24は、ローカル位置算出部22で算出した平面座標と、カメラ/マーカ情報管理部16で管理されたカメラの位置・姿勢等のデータに基づき、ステレオ視の原理を用いて、発光マーカ4a,4bの三次元位置(第1の空間座標)を求めるようになっている。マーカ間距離算出部26は、ステレオ視演算部24で算出した各発光マーカ4a,4bの第1の空間座標から、マーカ間の距離Dを算出するようになっている。計測エラー判定部28は、マーカ間距離算出部26で算出した発光マーカ4a,4b間の距離Dと、カメラ/マーカ情報管理部16で管理された既知の発光マーカ4a,4b間の距離Dとを比較し、両者の距離の差の絶対値|D−D|が予め設定した閾値より大きいか否かを判定するためのもので、上記絶対値が閾値より大きければ、少なくとも一方の発光マーカ4a,4bに関する第1の空間座標が計測エラーであるとして、マーカ移動距離算出部30にエラー信号を出力するようになっている。
【0016】
マーカ移動距離算出部30は、計測エラー判定部28からエラー信号を受けると、「直前」(例えば、VD信号1周期または2周期前)の画像フレームを利用して算出した三次元位置(第2の空間座標)と、三次元位置算出の対象となる画像フレームを利用して算出した第1の空間座標とから、各発光マーカ4a,4bの移動距離を算出するようになっている。第2の空間座標のデータは、三次元位置記録部20から適宜読み出されるが、代わりに、三次元位置算出部18は、第2の空間座標のデータを一時的に記憶するメモリを別に備えていてもよい。計測エラーマーカ判定部32は、各発光マーカ4a,4bの移動距離が予め設定した閾値より大きいか否かを判定するようになっている。すなわち、ある発光マーカ4に関して、1または2周期(1周期が例えば1/60秒)の間に移動する距離が閾値(発光マーカ4a,4bを装着する部位が1または2周期で移動できる距離として妥当な値の限界値)以上であると(移動速度が大きいと)、第1の空間座標は、発光マーカ4以外の光を発光マーカと誤認識して算出された可能性が高い。
【0017】
詳細は後述するが、三次元位置出力部34は、計測エラーマーカ判定部32での判定に基づいて、三次元位置記録部20に出力すべき各マーカ4a,4bの三次元位置情報を決定するようになっている。
【0018】
次に、図3,4のフローチャートを用いて、本実施形態に係る計測システム2による三次元計測処理を説明する。
【0019】
まず、ステップS301で、制御部10は発光制御部14を制御してLED4a,4bを発光させる。ステップS302で、第1および第2のカメラ6A,6Bによる計測対象の撮像を行い、時系列的に並んだ第1および第2の時系列画像データを取得して画像メモリ12に記憶させる。ステップS303で、インデックスnを0に設定する。インデックスnは、各発光マーカ4a,4bの三次元位置の計測回数に対応する。ステップS304で、第1および第2のカメラ6A,6Bで撮像した第1および第2の時系列画像データの中から、撮像初期の画像フレームをそれぞれ選択する。そして、三次元位置算出部18のローカル位置算出部22は、各画像フレーム上の発光マーカ4a,4bの平面座標を算出する。ステップS305で、ステレオ視演算部24は、各発光マーカ4a,4bの平面座標から、ステレオ視の原理により各発光マーカ4a,4bの第1の空間座標を算出する。ステップS306で、マーカ間距離算出部26は、発光マーカ4a,4b間の距離Dを算出する。ステップS307で、計測エラー判定部28は、この距離Dと、カメラ/マーカ情報管理部16に記憶された発光マーカ4a,4bの実際の距離Dとの差を算出する。
【0020】
ステップS308で、差の絶対値|D−D|が予め決められた閾値より小さければ、ステップS309に進み、計測エラー判定部28は、ステップS305で算出した各発光マーカ4a,4bの第1の空間座標は適正と判断し、三次元位置出力部34に適正信号を出力する。三次元位置出力部34は、この第1の空間座標のデータを三次元位置記録部20に出力し記録する。その後、フローはステップS310に進む。
【0021】
ステップS310で、インデックスnをインクリメントする。ステップS311で、インデックスnがN(これは、各発光マーカ4a,4bの計測総回数に等しい。)より小さければ、フローはステップS304に戻り、次に古い計測時刻に関して、ステップS304〜S310のプロセスを繰り返す。ステップS311でnがNに等しくなれば、フローを終了する。
【0022】
ステップS308で、絶対値|D−D|が予め決められた閾値以上であれば、フローはステップS312に進む。ステップS312以下のフローでは、発光マーカ4a,4bのいずれかの第1の空間座標が不適切かの判定を行っている(なお、可能性は低いが、発光マーカ4a,4bの両方について不適正な三次元位置が算出されることも判定できる。)。具体的に、ステップS312でインデックスrを0に設定する。rは発光マーカ4の数に対応する。ステップS313で、発光マーカ4a,4bのいずれか一方、例えば発光マーカ4aについて、マーカ移動距離算出部30は、直前の時刻と対象となる時刻との間で発光マーカ4aが移動した距離Dを算出する。
【0023】
ステップS314で、移動距離Dが予め設定された閾値より小さければ、ステップS315に進み、計測エラーマーカ判定部32は、発光マーカ4aに関してステップS305で求めた第1の空間座標は適正なものと判断し、三次元位置出力部34に適正信号を出力する。三次元位置出力部34は、第1の空間座標のデータを三次元位置記録部20に出力し記録する。フローはその後ステップS316に進む。
【0024】
ステップS314で、移動距離Dが予め設定された閾値以上であれば、ステップS317に進み、計測エラーマーカ判定部32は、発光マーカ4aに関してステップS305で求めた第1の空間座標は不適正なものと判断し、三次元位置出力部34にエラー信号を出力する。そして、三次元位置出力部34は、(第1の空間座標の代わりに)直前の画像フレームに基づいて求めた第2の空間座標のデータを、三次元位置記録部20に出力し記録する。このように、時系列の直前の三次元位置を利用してマーカ移動距離を求めることで、計測エラーを起こした発光マーカを特定することができ、その結果、他方の発光マーカに関する有効な計測データを最大限利用することが可能となり、安定したマーカ位置計測が可能となる。フローはその後ステップS316に進む。
【0025】
ステップS316では、インデックスrをインクリメントする。ステップS318で、インデックスrが2より小さければ、ステップS313に戻り、残りの発光マーカ4bに関し、ステップS313〜S317のプロセスを繰り返す。ステップS317でrが2に等しくなると、ステップS310に戻る。
【0026】
発光マーカ4a,4bを識別する方法としては、例えば、発光制御部14を制御してVD信号に同期させて発光マーカ4a,4bを交互に点灯させる方法や、計測対象の時刻での画像フレームと直前の画像フレームで発光マーカ位置が近いものを同一のマーカとする方法などが例示できる。
【0027】
動画像カメラの数は3つ以上でもよい。この場合、ステレオ視演算部24は、各発光マーカ4a,4bを撮像する任意の一対のカメラ毎にステレオ視の原理により第1の空間座標を求めた後、算出した複数の第1の空間座標の平均を求め、マーカ間距離算出部26は、上記平均した第1の空間座標からマーカ間距離を求めるようにしてもよい。
【0028】
発光マーカは3つ以上でもよい。この場合、マーカ間距離算出部26は複数のマーカ間距離を算出してもよく、計測エラー判定部28は、算出した各マーカ間距離について計測エラーの判定を行う。
【0029】
また、本実施形態では、時系列画像データを先に取得した後で位置計測を行っているが、各計測時刻の画像データを取得すると同時に(すなわち、リアルタイムで)位置計測を行うようにしてもよい。
【0030】
実施の形態2.
図5,6は、本発明に係る三次元位置計測システムの実施の形態2を示す概略構成図である。以下の説明では、実施の形態1と同一または類似の構成要素は同一の符号または同一の符号に適当な添字を付して表す。本実施形態に係る計測システム2aは、実施の形態1に係る計測システム2と類似しているが、3つの発光マーカ4a,4b,4cを備えている点、および、三次元位置算出部18aの計測エラーマーカ判定部32aは、マーカ移動距離でなくマーカ間距離を利用して、計測エラーを引き起こした発光マーカを特定する点で異なる。
【0031】
具体的には、本実施形態に係る計測システム2aによる三次元計測処理のフローチャートである図7,8を参照して、まず、ステップS701で、制御部10は発光制御部14を制御してLED4a,4b,4cを発光させる。ステップS702で、第1および第2のカメラ6A,6Bによる計測対象の撮像を行い、時系列的に並んだ第1および第2の時系列画像データを取得して画像メモリ12に記憶させる。ステップS703で、インデックスnを0に設定する。ステップS704で、第1および第2のカメラ6A,6Bで撮像した第1および第2の時系列画像データの中から、撮像初期の画像フレームをそれぞれ選択する。そして、三次元位置算出部18のローカル位置算出部22は、各画像フレーム上の発光マーカ4a,4b,4cの平面座標を算出する。ステップS705で、ステレオ視演算部24は、各発光マーカ4a,4b,4cの平面座標からステレオ視の原理により第1の空間座標を算出する。
【0032】
ステップS706で、マーカ間距離算出部26は、発光マーカペア毎、すなわち、発光マーカ4a,4b間の距離D(a,b)、発光マーカ4b,4c間の距離D(b,c)、および発光マーカ4c,4a間の距離D(c,a)を算出する。ステップS707で、計測エラー判定部28は、距離D(a,b)と発光マーカペア4a,4bの実際の距離D(a,b)との差、距離D(b,c)と発光マーカペア4b,4cの実際の距離D(b,c)との差、および、距離D(c,a)と発光マーカペア4c,4aの実際の距離D(c,a)との差を算出する。実際の距離D(a,b),D(b,c),D(c,a)は、カメラ/マーカ情報管理部16に記憶されている。
【0033】
ステップS708で、全てのペアに関し差の絶対値|D−D|が予め決められた閾値より小さければ、ステップS709に進み、計測エラー判定部28は、ステップS705で算出した各発光マーカ4a,4b,4cの第1の空間座標は適正と判断し、三次元位置出力部34に適正信号を出力する。三次元位置出力部34は、この第1の空間座標のデータを三次元位置記録部20に出力し記録する。その後、フローはステップS710に進む。
【0034】
ステップS710で、インデックスnをインクリメントする。ステップS711で、インデックスnが各発光マーカ4a,4b,4cの計測総回数であるNより小さければ、フローはステップS704に戻り、次に古い計測時刻に関して、ステップS704〜S710のプロセスを繰り返す。ステップS711でnがNに等しくなれば、フローを終了する。
【0035】
ステップS708で、絶対値|D−D|が予め決められた閾値以上のマーカペアが一つ存在すると、フローはステップS712に進む。以下の説明では、発光マーカペア4a,4bがエラーマーカペアであるとする。
【0036】
ステップS712でインデックスrを0に設定する。そして、発光マーカ4a,4bのいずれか一方、例えば発光マーカ4aについて、計測エラーマーカ判定部32aは、発光マーカ4aと、発光マーカ4b以外の発光マーカである発光マーカ4cとに関する距離差の絶対値|D(c,a)−D(c,a)|が予め設定した閾値より小さいか否かを確認する(ステップS713,S714)。差が閾値より小さければ、ステップS715に進み、計測エラーマーカ判定部32aは、発光マーカ4aに関してステップS705で求めた第1の空間座標は適正なものと判断し、三次元位置出力部34に適正信号を出力する。三次元位置出力部34は、第1の空間座標のデータを三次元位置記録部20に出力し記録する。フローはその後ステップS716に進む。
【0037】
ステップS713,S714で、絶対値|D(c,a)−D(c,a)|が予め設定された閾値以上であれば、ステップS717に進み、計測エラーマーカ判定部32は、発光マーカ4aに関してステップS705で求めた第1の空間座標は不適正なものと判断し、三次元位置出力部34にエラー信号を出力する。そして、三次元位置出力部34は、(第1の空間座標の代わりに)直前の画像フレームに基づいて求めた第2の空間座標のデータを三次元位置記録部20に出力し記録する。このように、エラーマーカペアを構成する各マーカに関して複数のマーカ間距離情報を利用することで、計測エラーマーカを特定することができ、その結果、他方の発光マーカに関する有効な計測データを最大限利用することが可能となり、安定したマーカ位置計測が可能となる。フローはその後ステップS716に進む。
【0038】
ステップS716では、インデックスrをインクリメントする。ステップS718で、インデックスrが2より小さければ、ステップS713に戻り、残りの発光マーカ4bに関し、ステップS713〜S717のプロセスを繰り返す。ステップS718でrが2に等しくなると、ステップS710に戻る。
【0039】
本実施形態では、発光マーカは4つ以上でもよい。この場合、エラーマーカペアが発光マーカ4a,4bとすると、ステップS713,S714で、発光マーカ4a,4bのいずれか一方、例えば発光マーカ4aについて、計測エラーマーカ判定部32aは、発光マーカ4aと、発光マーカ4b以外の全ての発光マーカ(例えば、発光マーカを5つ用いる場合、3つ)とについて、距離差|D−D|が予め設定した閾値より小さいか否かを確認する。このとき、計測エラーマーカ判定部32aは、発光マーカ4aに関してステップS705で求めた第1の空間座標が適正なものと判断する基準は、距離差が閾値より小さいものが一つでもある場合としてもよいし、全ての距離差が閾値より小さい場合にのみとしてもよいし、その中間でもよい。
【0040】
実施の形態3.
図9,10は、本発明に係る三次元位置計測システムの実施の形態3を示す概略構成図である。本実施形態に係る計測システム2bは、時系列的画像データを取得した後で位置計測を行うのではなく、各計測時刻の画像データを取得すると同時に位置計測を行うものである。また、三次元位置算出部18bの計測エラーマーカ判定部32bが計測エラーと判断した場合に、計測エラーマーカペアに対し再度ステレオ視法による計測を行った上で、三次元位置出力部34に三次元位置を記録するようになっている。
【0041】
具体的には、本実施形態に係る計測システム2bによる三次元計測処理のフローチャートである図11,12を参照して、まず、ステップS1101で、制御部10は発光制御部14を制御してLED4a,4bを発光させる。ステップS1103で、インデックスnを0に設定する。ステップS1103で、第1および第2のカメラ6A,6Bによる計測対象の撮像を行い、最初の計測時刻の画像フレームが画像メモリ12に記憶される。ステップS1104で、最初の計測時刻の画像フレームに関して、三次元位置算出部18のローカル位置算出部22は、各画像フレーム上の発光マーカ4a,4bの平面座標を算出する。ステップS1105で、ステレオ視演算部24は、各発光マーカ4a,4bの平面座標からステレオ視の原理により第1の空間座標を算出する。ステップS1106で、マーカ間距離算出部26は、発光マーカ4a,4b間の距離Dを算出する。ステップS1107で、計測エラー判定部28は、この距離Dと、発光マーカ4a,4bの実際の距離Dとの差を算出する。
【0042】
ステップS1108で、差の絶対値|D−D|が予め決められた閾値より小さければ、ステップS1109に進み、計測エラー判定部28は、ステップS1105で算出した各発光マーカ4a,4bの第1の空間座標は適正と判断し、三次元位置出力部34に適正信号を出力する。三次元位置出力部34は、この第1の空間座標のデータを三次元位置記録部20に出力し記録する。その後、フローはステップS1110に進む。
【0043】
ステップS1110で、インデックスnをインクリメントする。ステップS1111で、インデックスnがNより小さければ、フローはステップS1103に戻り、次の計測時刻の画像フレームに関し、ステップS1104〜S1110のプロセスを行う。ステップS1111でnがNに等しくなれば(すなわち、N枚分の画像フレームに関し、発光マーカ3a,3bの三次元位置の計測を終了する。)、フローを終了する。
【0044】
ステップS1108で、絶対値|D−D|が予め決められた閾値以上であれば、フローはステップS1112に進む。ステップS1112以下のフローでは、各発光マーカ4a,4bの三次元位置を再計測する。具体的に、ステップS1112でインデックスrを0に設定する。ステップS1113で、発光制御部14を制御して、発光マーカ4a,4bのいずれか一方、例えば発光マーカ4aをVD信号に同期させて1周期分発光させる。このとき、発光マーカ4bは発光させない。
【0045】
ステップS1114で、第1および第2のカメラ6A,6Bからそれぞれ画像フレームを取得して画像メモリ12に記憶させる。ステップS1115で、第1および第2のカメラ6A,6Bで撮像した画像フレームに関して、三次元位置算出部18のローカル位置算出部22は、各画像フレーム上の発光マーカ4aの平面座標を算出する。ステップS1116で、ステレオ視演算部24は、発光マーカ4aの平面座標からステレオ視法により第1の空間座標を再度算出する。その後、フローはステップS1117に進む。
【0046】
ステップS1117では、インデックスrをインクリメントする。ステップS1118で、インデックスrが2より小さければ、ステップS1113に戻り、残りの発光マーカ4bに関し、ステップS1113〜S1117のプロセスを繰り返して、発光マーカ4bの第1の空間座標を再度算出する。ステップS1118でrが2に等しくなると、フローはステップS1119に進む。
【0047】
ステップS1119で、マーカ間距離算出部26は、ステップS1116で再度算出した第1の空間座標から、発光マーカ4a,4b間の距離D’を算出する。ステップS1120で、計測エラー判定部28は、この距離D’と、発光マーカ4a,4bの実際の距離Dとの差を算出する。
【0048】
ステップS1121で、差の絶対値|D’−D|が予め決められた閾値より小さければ、ステップS1122に進み、計測エラー判定部28は、ステップS1116で再度算出した各発光マーカ4a,4bの第1の空間座標は適正と判断し、三次元位置出力部34に適正信号を出力する。三次元位置出力部34は、この第1の空間座標のデータを三次元位置記録部20に出力し記録する。その後、フローはステップS1110に戻る。
【0049】
ステップS1121で、絶対値|D’−D|が予め設定された閾値以上であれば、ステップS1123に進み、計測エラーマーカ判定部32は、発光マーカ4aに関してステップS1116で求めた第1の空間座標に関しても不適正なものと判断し、三次元位置出力部34にエラー信号を出力する。そして、三次元位置出力部34は、(計測時刻の画像フレームの)直前の画像フレームに基づいて求めた第2の空間座標のデータを三次元位置記録部20に出力し記録する。その後、フローはステップS1110に戻る。
【0050】
このように、計測マーカ距離と実際のマーカ間距離とが整合しない場合に、各LED4a,4bをVD信号に同期させて順次発光させた上で、各発光マーカ4a,4bの三次元位置を再計測しているので、一方の発光マーカの発光による生じる反射光などにより他方の発光マーカの位置の計測エラーが生じることがなく、また、マーカの識別エラーの影響を減らすことができるので、高精度の位置計測を行うことができる。
【0051】
なお、本実施形態では、エラーマーカペアを構成する両発光マーカ4a,4bに対しそれぞれ同期発光処理を行ったが、特定の発光マーカのみ、例えば、以前に計測エラーを引き起こした発光マーカのみ、同期発光処理を行うようにしてもよい。
【0052】
実施の形態4.
図13,14は、本発明に係る三次元位置計測システムの実施の形態4を示す概略構成図である。本実施形態に係る計測システム2cの三次元位置算出部18cは、実施の形態1の三次元位置算出部18のマーカ移動距離算出部30の代わりに、発光面積算出部36、マーカ・カメラ間距離算出部38および発光面積演算部40を備えている。発光面積算出部36は、画像内の発光マーカの発光面積を算出するものである。マーカ・カメラ間距離算出部38は、カメラ/マーカ情報管理部16に記憶された、予め設定された発光面積と距離との関係情報から、発光面積算出部36で算出した発光面積に基づいて、発光マーカ4とカメラ6の撮像面との距離を算出するものである。発光面積演算部40は、マーカ・カメラ間距離算出部38で算出した距離と、カメラ/マーカ情報管理部16に記憶された一つのカメラ6の位置・姿勢等の情報とに基づいて、発光マーカ4の三次元位置(第3の空間座標)を算出するものである。
【0053】
次に、図15〜17のフローチャートを用いて、本実施形態に係る計測システム2cによる三次元計測処理を説明する。但し、ステップS1501〜S1511については、図3のステップS301〜S311と同一であり、特に必要でない限り説明を省略する。
【0054】
ステップS1508で、ステップS1505で算出した第1の空間座標から求めた発光マーカ4a,4bの距離Dと、基準距離Dとの差の絶対値|D−D|が予め決められた閾値以上であれば、フローはステップS1512に進む。
【0055】
ステップS1512で、インデックスqを0に設定する。qはカメラ6の数に対応する。ステップS1513で、発光面積算出部36は、各発光マーカ4a,4bに関し、一方のカメラ、例えば第1のカメラ6Aで撮像した画像フレームでのマーカ発光面積を算出する。ステップS1514で、マーカ・カメラ間距離算出部38は、ステップS1513で算出したマーカ発光面積に基づいて、各発光マーカ4a,4bとCCDカメラ6Aの撮像面との距離を算出する。ステップS1515で、発光面積演算部40は、ステップS1514で算出した距離と、ステップS1504で算出したカメラ6Aで画像フレーム内の発光マーカ4a,4bの平面座標と、カメラ/マーカ情報管理部16に記憶されたカメラ位置・姿勢等の情報とに基づいて、第1のカメラ6Aで撮像した画像フレームに基づく発光マーカ4a,4bの第3の空間座標を算出する。その後、フローはステップS1516に進む。
【0056】
ステップS1516で、インデックスqをインクリメントする。ステップS1517で、インデックスqが2より小さければ、ステップS1513に戻り、残りの第2のカメラ6Bに関し、ステップS1513〜S1516のプロセスを繰り返して、第2のカメラ6Bで撮像した画像フレームに基づく発光マーカ4a,4bの第3の空間座標を算出する。ステップS1517でqが2に等しくなると、ステップS1518に進み、第1のカメラ6Aに対応する発光マーカ4a,4b間の距離と、第2のカメラ6Bに対応する発光マーカ4a,4b間の距離とを算出する。ステップS1519で、ステップS1520で算出した各距離Dと、実際のマーカ間距離Dとの差を算出する。
【0057】
ステップS1520では、差の絶対値|D−D|が予め設定された閾値より小さくなるカメラ6が存在するか否かを確認する。このようなカメラ6が存在すれば、フローはステップS1521に進む。そして、ステップS1521以下のフローでは、計測エラーを引き起こした発光マーカを特定し該発光マーカに関しては発光面積を利用して算出した第3の空間座標を三次元位置記録部20に出力し記録する。
【0058】
より詳しくは、ステップS1521でインデックスrを0に設定する。ステップS1522で、一方の発光マーカ、例えば発光マーカ4aに関し、ステップS1505で算出したステレオ視の原理による第1の空間座標と、ステップS1515で算出した発光面積を利用した第3の空間座標とのずれを算出する。
【0059】
ステップS1523で、上記ずれが予め設定された閾値より小さければ、ステップS1524に進み、計測エラー判定部28は、発光マーカ4aに関してステップS1504で求めた第1の空間座標は適正と判断し(通常、第1の空間座標は、第3の空間座標より高精度に求まる。)、三次元位置出力部34に適正信号を出力する。三次元位置出力部34は、この第1の空間座標のデータを三次元位置記録部20に出力し記録する。その後、フローはステップS1525に進む。
【0060】
ステップS1523で、上記ずれが予め設定された閾値以上であれば、ステップS1526に進み、計測エラー判定部28は、発光マーカ4aに関してステップS1504で求めた第1の空間座標は不適正と判断し、三次元位置出力部34に所定の信号を出力する。三次元位置出力部34は、(第1の空間座標の代わり)に第3の空間座標を三次元位置記録部20に出力し記録する。その後、フローはステップS1525に進む。
【0061】
ステップS1525で、インデックスrはインクリメントされる。ステップS1527で、インデックスrが2より小さければ、ステップS1522に戻り、残りの発光マーカ4bに関し、ステップS1522〜S1526のプロセスを繰り返して、第1または第3の空間座標を三次元位置記録部20に記録する。
【0062】
ステップS1520で、絶対値|D−D|が予め設定された閾値より小さくなるカメラ6が存在しなければ、ステップS1528に進み、計測エラーマーカ判定部32は、(ステップS1505で算出した第1の空間座標のみならず)発光面積を利用してステップS1515で算出した第3の空間座標も不適当と判断し、三次元位置出力部34にエラー信号を出力する。そして、三次元位置出力部34は、直前の画像フレームに基づいて求めた発光マーカ4a,4bに関する第2の空間座標のデータを三次元位置記録部20に出力し記録する。その後、フローはステップS1510に戻る。
【0063】
このように、本実施形態では、マーカ発光面積を利用して算出した三次元位置情報を利用して計測エラーマーカを特定することにより、他方の発光マーカに関する有効な計測データを最大限利用することが可能となり、連続的なマーカ位置計測が可能となる。
【0064】
実施の形態5.
本実施形態に係る三次元位置計測システム(図示省略)は、上記実施の形態1〜4に係る計測システムとは異なり、一つまたはそれ以上の計測用の発光マーカ(例えば、実施の形態1の発光マーカ4a,4bに相当)以外に、計測用発光マーカと一定距離にある、光環境の変化やオクルージョンなどの影響を受けない一つまたはそれ以上の基準用発光マーカ(図示せず)を計測対象(例えば人)に装着させる。この場合、基準用発光マーカと計測用発光マーカとの距離を算出することで、計測エラーが生じれば(計測エラーマーカの判定を行うことなく)直ちにエラーマーカを特定できる。
【0065】
以上、本発明の具体的な実施形態について説明したが、本発明はこれらに限らず種々改変可能である。例えば、上記実施形態では、計測エラーを引き起こした発光マーカについては、直前の画像フレームを利用して求めた第2の空間座標のデータを三次元位置記録部20に記録したが、代わりに、動画像カメラをさらに別に用意して発光マーカを撮像しておき、当該動画像カメラで撮像した画像フレームと、該画像フレームと別の動画像カメラで撮像した画像フレームとを利用して、ステレオ視の原理により計測エラーマーカの三次元位置を算出するようにしてもよい。
【0066】
【発明の効果】
本発明によれば、計測エラーが発生した場合に、該エラーを引き起こした発光マーカを特定することで、計測エラー発生時に計測した他の発光マーカの位置情報を有効に利用できる。
【図面の簡単な説明】
【図1】本発明に係る三次元位置計測システムの実施の形態1を示す概略構成図。
【図2】図1の三次元位置算出部を示すブロック図。
【図3】図1の三次元位置計測システムによる計測プロセスの第1の部分を示すフローチャート。
【図4】図1の三次元位置計測システムによる計測プロセスの第2の部分を示すフローチャート。
【図5】本発明に係る三次元位置計測システムの実施の形態2を示す概略構成図。
【図6】図5の三次元位置算出部を示すブロック図。
【図7】図5の三次元位置計測システムによる計測プロセスの第1の部分を示すフローチャート。
【図8】図5の三次元位置計測システムによる計測プロセスの第2の部分を示すフローチャート。
【図9】本発明に係る三次元位置計測システムの実施の形態3を示す概略構成図。
【図10】図9の三次元位置算出部を示すブロック図。
【図11】図9の三次元位置計測システムによる計測プロセスの第1の部分を示すフローチャート。
【図12】図9の三次元位置計測システムによる計測プロセスの第2の部分を示すフローチャート。
【図13】本発明に係る三次元位置計測システムの実施の形態4を示す概略構成図。
【図14】図13の三次元位置算出部を示すブロック図。
【図15】図13の三次元位置計測システムによる計測プロセスの第1の部分を示すフローチャート。
【図16】図13の三次元位置計測システムによる計測プロセスの第2の部分を示すフローチャート。
【図17】図13の三次元位置計測システムによる計測プロセスの第3の部分を示すフローチャート。
【符号の説明】
2:三次元計測システム
4a,4b:発光マーカ
6A,6B:動画像カメラ
8:計測装置
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates generally to a three-dimensional position measurement system and method, and more particularly to a system and method for measuring a three-dimensional position of a plurality of luminescent markers attached to a plurality of sites to be measured, such as a person.
[0002]
[Prior art]
2. Description of the Related Art Conventionally, there has been known a three-dimensional measurement system in which markers are attached to a plurality of portions of a measurement target such as a person, and three-dimensional positions of the markers are measured to analyze the operation of the target. Such a three-dimensional position measurement system generally captures a marker with a plurality of moving image cameras and calculates the three-dimensional position of the marker using the principle of stereo vision.
[0003]
When measurement is performed by such a three-dimensional position measurement system, various kinds of noise, changes in the light environment (for example, direct light or reflected light is mixed in the field of view of the camera due to the sun, etc.) are caused. There is a possibility that a measurement error (for example, light in an image generated due to a change in light environment is erroneously recognized as a marker).
[0004]
Therefore, for example, in a motion analysis device (three-dimensional position measurement system) disclosed in Patent Document 1, a distance between markers is calculated at the same time as measuring a marker position, and the calculated distance is compared with a predetermined reference distance. If the calculated distance is appropriate, the calculated marker three-dimensional position is determined as an appropriate three-dimensional position.
[0005]
[Patent Document 1]
JP-A-2002-8043
[0006]
[Problems to be solved by the invention]
However, in the above-described motion analysis device, if the distance between the markers is determined to be inappropriate, the subsequent measurement is set to be stopped, so that stable position measurement cannot be performed. In addition, even when it is determined that the distance between the markers is inappropriate, the correct position information is not effectively used although the position information of one marker is likely to be correct.
[0007]
Therefore, the present invention is a three-dimensional measurement system and method for determining a measurement error using marker distance information, which can effectively use correct position information when the marker distance is determined to be inappropriate. Is provided.
[0008]
[Means for Solving the Problems]
In order to achieve the above object, the three-dimensional position measurement system according to the present invention,
A plurality of light-emitting markers attached to the measurement target,
First and second moving image cameras for imaging the plurality of light emitting markers,
A two-dimensional position calculation unit that calculates planar coordinates of each of the light emitting markers in the first and second images captured by the first and second moving image cameras, respectively;
Based on the planar coordinates of each of the luminescent markers in the first and second images calculated by the two-dimensional position calculator, the spatial coordinates (first spatial coordinates) of each of the luminescent markers are calculated based on the principle of stereo vision. A stereo vision calculation unit that performs
A marker distance calculating unit that calculates a distance between the light emitting markers based on the spatial coordinates calculated by the stereo visual calculation unit;
A measurement error determination unit that determines whether the marker distance calculated by the marker distance calculation unit is appropriate,
For each of the light-emitting markers constituting the light-emitting marker pair for which the distance between the markers has been determined to be inappropriate by the measurement error determination unit, the corresponding first and second images and the first and second images immediately before being determined to be incorrect. A marker moving distance calculation unit that calculates a marker moving distance based on the two images;
A measurement error marker determining unit that determines a light emitting marker that has caused the determination that the distance between the markers is incorrect based on the marker moving distance.
[0009]
The three-dimensional position measuring method according to the present invention,
Imaging the plurality of light-emitting markers attached to the measurement target with the first and second moving image cameras;
Calculating the plane coordinates of each of the light emitting markers in the first and second images captured by the first and second moving image cameras, respectively;
Calculating spatial coordinates (first spatial coordinates) of each of the light-emitting markers based on the stereoscopic principle based on the calculated two-dimensional position of each of the light-emitting markers in each image;
Calculating a distance between the respective light-emitting markers based on spatial coordinates;
A measurement error determination step of determining whether the calculated distance between markers is appropriate,
When it is determined that the distance between the markers calculated in the measurement error determination step is inappropriate, one of the light-emitting markers constituting the light-emitting marker pair corresponding to the distance between the markers is determined to be an inappropriate distance between the markers. Determining whether the determination has been caused.
[0010]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, embodiments of the present invention will be described with reference to the accompanying drawings.
[0011]
Embodiment 1 FIG.
1 and 2 are schematic configuration diagrams showing a first embodiment of a three-dimensional position measurement system (hereinafter, referred to as a measurement system) according to the present invention. The measurement system 2 generally includes a pair of light-emitting markers 4 (4a, 4b) (LEDs in the present embodiment) mounted on a predetermined portion of a measurement target (for example, a person) moving (moving) within a predetermined range, First and second moving image cameras (CCD cameras in the present embodiment, hereinafter referred to as cameras) 6 (6A, 6B) for capturing the range in which the measurement target moves in the field of view, and the first and second cameras Based on the time-series image data picked up by 6A and 6B, the three-dimensional positions of the light emitting markers 4a and 4b are set at appropriate time intervals (this interval is an integral multiple of the period of the vertical drive (VD) signal of the CCD as the image pickup means). And a measuring device 8 for performing the measurement.
[0012]
The measuring device 8 controls a control unit 10 that controls the entire measuring system 2, an image memory 12 for storing first and second time-series image data captured by the cameras 6A and 6B, and controls light emission of the LEDs 4a and 4b. A light / emission control unit 14, a camera / marker information management unit 16 for managing information such as predetermined positions and orientations of the cameras 6A and 6B, and a distance between the light emission markers 4a and 4b, and a light emission marker 4a and 4b. A three-dimensional position calculator 18 for calculating a three-dimensional position at each time, a three-dimensional position recorder 20 for recording the three-dimensional position calculated by the calculator 18 and the like are provided.
[0013]
As shown in FIG. 2, the three-dimensional position calculation unit 18 includes a local position calculation unit (two-dimensional position calculation unit) 22, a stereo visual calculation unit 24, a marker distance calculation unit 26, a measurement error determination unit 28, a marker movement distance. A calculation unit 30, a measurement error marker determination unit 32, and a three-dimensional position output unit 34 are provided.
[0014]
The local position calculation unit 22 determines the local positions (planar coordinates) of the light emitting markers 4a and 4b in each image frame forming the first time-series image data and in each image frame forming the second time-series image data. Is calculated. For example, regarding a certain image frame, a pixel portion whose luminance exceeds a predetermined threshold value for each horizontal scanning line is cut out as a marker existing portion (line segment). Then, if there is a marker existing portion at substantially the same position in the horizontal direction in the adjacent horizontal scanning lines, it is determined that the marker is the same, so that the number of horizontal drive (HD) signals in the horizontal direction and the horizontal scanning line in the vertical direction are determined. The plane coordinates of the light emitting markers 4a and 4b can be obtained based on the numbers. For example, the coordinates of the center of gravity of the light emitting markers 4a and 4b are obtained, and these are set as local positions of the light emitting markers 4a and 4b.
[0015]
The stereo vision calculation unit 24 emits light based on the plane coordinates calculated by the local position calculation unit 22 and data such as the position and orientation of the camera managed by the camera / marker information management unit 16 using the principle of stereo vision. The three-dimensional positions (first spatial coordinates) of the markers 4a and 4b are obtained. The marker distance calculation unit 26 calculates the distance D between the markers from the first spatial coordinates of each of the light-emitting markers 4a and 4b calculated by the stereo vision calculation unit 24. 1 Is calculated. The measurement error determination unit 28 calculates the distance D between the light emitting markers 4a and 4b calculated by the marker distance calculation unit 26. 1 And a distance D between the known light emitting markers 4a and 4b managed by the camera / marker information management unit 16. 0 And the absolute value of the difference between the distances | D 1 -D 0 Is larger than a predetermined threshold value. If the absolute value is larger than the threshold value, it is determined that the first spatial coordinate of at least one of the light emitting markers 4a and 4b is a measurement error, and An error signal is output to the moving distance calculation unit 30.
[0016]
When receiving the error signal from the measurement error determination unit 28, the marker moving distance calculation unit 30 calculates the three-dimensional position (second position) calculated using the image frame “just before” (for example, one cycle or two cycles before the VD signal). The spatial distance of each of the light emitting markers 4a and 4b is calculated from the first spatial coordinates calculated using the image frame to be subjected to the three-dimensional position calculation. The data of the second spatial coordinates is appropriately read from the three-dimensional position recording unit 20, but instead, the three-dimensional position calculating unit 18 is separately provided with a memory for temporarily storing the data of the second spatial coordinates. You may. The measurement error marker determination unit 32 determines whether the moving distance of each of the light emitting markers 4a and 4b is larger than a preset threshold. That is, with respect to a certain light emitting marker 4, the distance that moves during one or two cycles (one cycle is, for example, 1/60 second) is a threshold (the distance at which the part to which the light emitting markers 4a and 4b are mounted can move in one or two cycles) If the value is equal to or more than (the limit value of an appropriate value) (the moving speed is high), it is highly likely that the first spatial coordinates are calculated by erroneously recognizing light other than the light emitting marker 4 as the light emitting marker.
[0017]
Although the details will be described later, the three-dimensional position output unit 34 determines the three-dimensional position information of each of the markers 4 a and 4 b to be output to the three-dimensional position recording unit 20 based on the determination by the measurement error marker determination unit 32. It has become.
[0018]
Next, three-dimensional measurement processing by the measurement system 2 according to the present embodiment will be described with reference to the flowcharts of FIGS.
[0019]
First, in step S301, the control unit 10 controls the light emission control unit 14 to cause the LEDs 4a and 4b to emit light. In step S302, the measurement object is imaged by the first and second cameras 6A and 6B, and first and second time-series image data arranged in time series are acquired and stored in the image memory 12. In step S303, the index n is set to 0. The index n corresponds to the number of times of measuring the three-dimensional position of each of the light emitting markers 4a and 4b. In step S304, an image frame at the time of initial imaging is selected from the first and second time-series image data captured by the first and second cameras 6A and 6B, respectively. Then, the local position calculator 22 of the three-dimensional position calculator 18 calculates the plane coordinates of the light emitting markers 4a and 4b on each image frame. In step S305, the stereo vision calculation unit 24 calculates the first spatial coordinates of each of the light emitting markers 4a, 4b from the plane coordinates of each of the light emitting markers 4a, 4b according to the principle of stereo vision. In step S306, the marker distance calculating unit 26 calculates the distance D between the light emitting markers 4a and 4b. 1 Is calculated. In step S307, the measurement error determination unit 28 determines the distance D 1 And the actual distance D between the light emitting markers 4a and 4b stored in the camera / marker information management unit 16. 0 Is calculated.
[0020]
In step S308, the absolute value of the difference | D 1 -D 0 If | is smaller than the predetermined threshold, the process proceeds to step S309, where the measurement error determination unit 28 determines that the first spatial coordinates of each of the light emitting markers 4a and 4b calculated in step S305 are appropriate, and outputs the three-dimensional position. An appropriate signal is output to the unit 34. The three-dimensional position output unit 34 outputs and records the data of the first spatial coordinates to the three-dimensional position recording unit 20. Thereafter, the flow proceeds to step S310.
[0021]
In step S310, the index n is incremented. In step S311, if the index n is smaller than N (this is equal to the total number of measurements of each of the light emitting markers 4a and 4b), the flow returns to step S304, and the process of steps S304 to S310 is performed for the next oldest measurement time. repeat. If n becomes equal to N in step S311, the flow ends.
[0022]
In step S308, the absolute value | D 1 -D 0 If | is equal to or greater than the predetermined threshold, the flow proceeds to step S312. In the flow after step S312, it is determined whether any of the first spatial coordinates of the light-emitting markers 4a and 4b is inappropriate (although the possibility is low, it is inappropriate for both the light-emitting markers 4a and 4b). It can also be determined that a three-dimensional position is calculated.) Specifically, the index r is set to 0 in step S312. r corresponds to the number of light-emitting markers 4. In step S313, for one of the light-emitting markers 4a and 4b, for example, the light-emitting marker 4a, the marker moving distance calculation unit 30 determines the distance D that the light-emitting marker 4a has moved between the immediately preceding time and the target time. 2 Is calculated.
[0023]
In step S314, the moving distance D 2 If is smaller than the preset threshold value, the process proceeds to step S315, where the measurement error marker determining unit 32 determines that the first spatial coordinates of the light emitting marker 4a obtained in step S305 are appropriate, and outputs the three-dimensional position output unit. An appropriate signal is output to 34. The three-dimensional position output unit 34 outputs and records the data of the first spatial coordinates to the three-dimensional position recording unit 20. The flow then proceeds to step S316.
[0024]
In step S314, the moving distance D 2 Is greater than or equal to the preset threshold, the process proceeds to step S317, where the measurement error marker determination unit 32 determines that the first spatial coordinates of the light emitting marker 4a obtained in step S305 are inappropriate, and determines the three-dimensional position. An error signal is output to the output unit 34. Then, the three-dimensional position output unit 34 outputs, to the three-dimensional position recording unit 20, the data of the second spatial coordinates obtained based on the immediately preceding image frame (instead of the first spatial coordinates), and records the data. As described above, by determining the marker moving distance by using the three-dimensional position immediately before the time series, it is possible to identify the luminescent marker causing the measurement error, and as a result, the effective measurement data regarding the other luminescent marker is obtained. Can be used to the maximum, and stable marker position measurement can be performed. The flow then proceeds to step S316.
[0025]
In step S316, the index r is incremented. If the index r is smaller than 2 in step S318, the process returns to step S313, and the processes of steps S313 to S317 are repeated for the remaining light emitting markers 4b. When r becomes equal to 2 in step S317, the process returns to step S310.
[0026]
As a method of identifying the light-emitting markers 4a and 4b, for example, a method of controlling the light-emitting control unit 14 to alternately light the light-emitting markers 4a and 4b in synchronization with the VD signal, or a method of detecting the image frame at the time of the measurement target For example, a method in which an image frame in which the position of the light emitting marker is close in the immediately preceding image frame is set to be the same marker can be exemplified.
[0027]
The number of moving image cameras may be three or more. In this case, the stereo vision calculation unit 24 calculates the first spatial coordinates for each of a pair of cameras capturing the light-emitting markers 4a and 4b based on the principle of stereo vision, and then calculates the plurality of calculated first spatial coordinates. And the inter-marker distance calculation unit 26 may obtain the inter-marker distance from the averaged first spatial coordinates.
[0028]
The number of luminescent markers may be three or more. In this case, the marker distance calculating unit 26 may calculate a plurality of marker distances, and the measurement error determining unit 28 determines a measurement error for each calculated marker distance.
[0029]
In the present embodiment, the position measurement is performed after the time-series image data is obtained first. However, the position measurement may be performed at the same time as the image data at each measurement time is obtained (that is, in real time). Good.
[0030]
Embodiment 2 FIG.
FIGS. 5 and 6 are schematic configuration diagrams showing Embodiment 3 of the three-dimensional position measurement system according to the present invention. In the following description, components that are the same as or similar to those of the first embodiment are denoted by the same reference numerals or the same reference numerals with appropriate subscripts. The measurement system 2a according to the present embodiment is similar to the measurement system 2 according to the first embodiment, but includes three light-emitting markers 4a, 4b, and 4c, and a three-dimensional position calculation unit 18a. The difference is that the measurement error marker determination unit 32a specifies the light emitting marker that caused the measurement error by using the distance between the markers instead of the marker moving distance.
[0031]
Specifically, with reference to FIGS. 7 and 8 which are flowcharts of the three-dimensional measurement processing by the measurement system 2a according to the present embodiment, first, in step S701, the control unit 10 controls the light emission control unit 14 to control the LED 4a , 4b, 4c. In step S702, the measurement object is imaged by the first and second cameras 6A and 6B, and first and second time-series image data arranged in time series are acquired and stored in the image memory 12. In step S703, the index n is set to 0. In step S704, an initial image frame is selected from the first and second time-series image data captured by the first and second cameras 6A and 6B, respectively. Then, the local position calculator 22 of the three-dimensional position calculator 18 calculates the plane coordinates of the light emitting markers 4a, 4b, 4c on each image frame. In step S705, the stereo vision calculation unit 24 calculates first spatial coordinates from the plane coordinates of each of the light emitting markers 4a, 4b, 4c based on the principle of stereo vision.
[0032]
In step S706, the inter-marker distance calculation unit 26 determines the distance D between the light-emitting markers 4a and 4b for each light-emitting marker pair. 1 (A, b), distance D between luminescent markers 4b, 4c 1 (B, c) and the distance D between the light emitting markers 4c, 4a 1 (C, a) is calculated. In step S707, the measurement error determination unit 28 determines that the distance D 1 (A, b) and the actual distance D between the light emitting marker pair 4a, 4b 0 Difference from (a, b), distance D 1 (B, c) and the actual distance D between the light emitting marker pair 4b, 4c 0 Difference from (b, c) and distance D 1 (C, a) and the actual distance D between the light emitting marker pair 4c, 4a 0 The difference from (c, a) is calculated. Actual distance D 0 (A, b), D 0 (B, c), D 0 (C, a) is stored in the camera / marker information management unit 16.
[0033]
In step S708, the absolute value of the difference | D for all pairs 1 -D 0 If | is smaller than the predetermined threshold value, the process proceeds to step S709, and the measurement error determination unit 28 determines that the first spatial coordinates of each of the light-emitting markers 4a, 4b, and 4c calculated in step S705 are appropriate. An appropriate signal is output to the position output unit 34. The three-dimensional position output unit 34 outputs and records the data of the first spatial coordinates to the three-dimensional position recording unit 20. Thereafter, the flow proceeds to step S710.
[0034]
In step S710, the index n is incremented. In step S711, if the index n is smaller than N, which is the total number of times of measurement of each of the light emitting markers 4a, 4b, 4c, the flow returns to step S704, and the processes of steps S704 to S710 are repeated for the next oldest measurement time. If n is equal to N in step S711, the flow ends.
[0035]
In step S708, the absolute value | D 1 -D 0 If there is one marker pair where | is equal to or greater than the predetermined threshold, the flow proceeds to step S712. In the following description, it is assumed that the light emitting marker pair 4a, 4b is an error marker pair.
[0036]
In step S712, the index r is set to 0. For one of the light-emitting markers 4a and 4b, for example, the light-emitting marker 4a, the measurement error marker determining unit 32a determines the absolute value of the distance difference between the light-emitting marker 4a and the light-emitting marker 4c other than the light-emitting marker 4b. | D 1 (C, a) -D 0 It is checked whether (c, a) | is smaller than a preset threshold (steps S713 and S714). If the difference is smaller than the threshold value, the process proceeds to step S715, where the measurement error marker determination unit 32a determines that the first spatial coordinates obtained in step S705 for the light-emitting marker 4a are appropriate, and the three-dimensional position output unit 34 determines Output a signal. The three-dimensional position output unit 34 outputs and records the data of the first spatial coordinates to the three-dimensional position recording unit 20. The flow then proceeds to step S716.
[0037]
In steps S713 and S714, the absolute value | D 1 (C, a) -D 0 If (c, a) | is equal to or larger than the preset threshold value, the process proceeds to step S717, and the measurement error marker determination unit 32 determines that the first spatial coordinates obtained in step S705 for the light emitting marker 4a are inappropriate. Judge, and output an error signal to the three-dimensional position output unit 34. Then, the three-dimensional position output unit 34 outputs and records the data of the second space coordinates obtained based on the immediately preceding image frame (instead of the first space coordinates) to the three-dimensional position recording unit 20. As described above, the measurement error marker can be specified by using the plurality of marker distance information for each marker constituting the error marker pair, and as a result, the effective measurement data for the other luminescent marker can be maximized. The marker can be used, and stable marker position measurement can be performed. The flow then proceeds to step S716.
[0038]
In step S716, the index r is incremented. If the index r is smaller than 2 in step S718, the process returns to step S713, and the processes of steps S713 to S717 are repeated for the remaining light emitting markers 4b. When r becomes equal to 2 in step S718, the process returns to step S710.
[0039]
In the present embodiment, the number of light emitting markers may be four or more. In this case, assuming that the error marker pair is the light-emitting markers 4a and 4b, in steps S713 and S714, for one of the light-emitting markers 4a and 4b, for example, for the light-emitting marker 4a, the measurement error marker determination unit 32a sets the light-emitting marker 4a and The distance difference | D from all the light-emitting markers other than the light-emitting marker 4b (for example, three when using five light-emitting markers) 1 -D 0 Is checked if | is smaller than a preset threshold. At this time, the measurement error marker determination unit 32a determines whether the first spatial coordinates obtained in step S705 for the light-emitting marker 4a are appropriate, even if there is at least one of the distance differences smaller than the threshold. It may be good, only when all distance differences are smaller than the threshold value, or in the middle.
[0040]
Embodiment 3 FIG.
9 and 10 are schematic configuration diagrams showing Embodiment 3 of the three-dimensional position measurement system according to the present invention. The measurement system 2b according to the present embodiment does not perform position measurement after acquiring time-series image data, but performs position measurement at the same time as acquiring image data at each measurement time. When the measurement error marker determination unit 32b of the three-dimensional position calculation unit 18b determines that the measurement error has occurred, the measurement error marker pair is again measured by the stereoscopic method, and then the three-dimensional position output unit 34 outputs The original position is recorded.
[0041]
Specifically, with reference to FIGS. 11 and 12 which are flowcharts of the three-dimensional measurement processing by the measurement system 2b according to the present embodiment, first, in step S1101, the control unit 10 controls the light emission control unit 14 to control the LED 4a. , 4b emit light. In step S1103, the index n is set to 0. In step S1103, the measurement target is imaged by the first and second cameras 6A and 6B, and the image frame at the first measurement time is stored in the image memory 12. In step S1104, with respect to the image frame at the first measurement time, the local position calculator 22 of the three-dimensional position calculator 18 calculates the plane coordinates of the light emitting markers 4a and 4b on each image frame. In step S1105, the stereo vision calculation unit 24 calculates the first spatial coordinates from the plane coordinates of the light emitting markers 4a and 4b based on the principle of stereo vision. In step S1106, the marker distance calculating unit 26 calculates the distance D between the light emitting markers 4a and 4b. 1 Is calculated. In step S1107, the measurement error determination unit 28 determines the distance D 1 And the actual distance D between the light emitting markers 4a and 4b 0 Is calculated.
[0042]
In step S1108, the absolute value of the difference | D 1 -D 0 If | is smaller than the predetermined threshold value, the process proceeds to step S1109, where the measurement error determination unit 28 determines that the first spatial coordinates of each of the light emitting markers 4a and 4b calculated in step S1105 are appropriate, and outputs the three-dimensional position. An appropriate signal is output to the unit 34. The three-dimensional position output unit 34 outputs and records the data of the first spatial coordinates to the three-dimensional position recording unit 20. Thereafter, the flow proceeds to step S1110.
[0043]
In step S1110, the index n is incremented. If it is determined in step S1111 that the index n is smaller than N, the flow returns to step S1103, and the processes in steps S1104 to S1110 are performed for the image frame at the next measurement time. If n is equal to N in step S1111 (that is, the measurement of the three-dimensional positions of the light emitting markers 3a and 3b is completed for the N image frames), the flow ends.
[0044]
In step S1108, the absolute value | D 1 -D 0 If | is equal to or greater than the predetermined threshold, the flow proceeds to step S1112. In the flow after step S1112, the three-dimensional positions of the light emitting markers 4a and 4b are measured again. Specifically, the index r is set to 0 in step S1112. In step S1113, the light emission control unit 14 is controlled so that one of the light emission markers 4a and 4b, for example, the light emission marker 4a emits light for one cycle in synchronization with the VD signal. At this time, the light emitting marker 4b does not emit light.
[0045]
In step S1114, image frames are acquired from the first and second cameras 6A and 6B, respectively, and stored in the image memory 12. In step S1115, with respect to the image frames captured by the first and second cameras 6A and 6B, the local position calculator 22 of the three-dimensional position calculator 18 calculates the plane coordinates of the light emitting marker 4a on each image frame. In step S1116, the stereo vision calculation unit 24 re-calculates the first spatial coordinates from the plane coordinates of the light emitting marker 4a by the stereo vision method. Thereafter, the flow proceeds to step S1117.
[0046]
In step S1117, the index r is incremented. If the index r is smaller than 2 in step S1118, the process returns to step S1113, and the processes of steps S1113 to S1117 are repeated for the remaining light emitting markers 4b to calculate the first spatial coordinates of the light emitting markers 4b again. When r becomes equal to 2 in step S1118, the flow proceeds to step S1119.
[0047]
In step S1119, the marker distance calculation unit 26 calculates the distance D between the light emitting markers 4a and 4b from the first spatial coordinates calculated again in step S1116. 1 'Is calculated. In step S1120, measurement error determination unit 28 determines this distance D 1 'And the actual distance D between the light emitting markers 4a and 4b. 0 Is calculated.
[0048]
In step S1121, the absolute value of the difference | D 1 '-D 0 If | is smaller than the predetermined threshold, the process proceeds to step S1122, where the measurement error determination unit 28 determines that the first spatial coordinates of each of the light emitting markers 4a and 4b calculated again in step S1116 are appropriate, and An appropriate signal is output to the output unit 34. The three-dimensional position output unit 34 outputs and records the data of the first spatial coordinates to the three-dimensional position recording unit 20. Thereafter, the flow returns to step S1110.
[0049]
In step S1121, the absolute value | D 1 '-D 0 If | is equal to or greater than the preset threshold value, the process proceeds to step S1123, where the measurement error marker determination unit 32 determines that the first spatial coordinates of the light-emitting marker 4a obtained in step S1116 are also inappropriate, and An error signal is output to the original position output unit 34. Then, the three-dimensional position output unit 34 outputs and records the data of the second space coordinates obtained based on the immediately preceding image frame (the image frame at the measurement time) to the three-dimensional position recording unit 20. Thereafter, the flow returns to step S1110.
[0050]
As described above, when the measured marker distance does not match the actual distance between the markers, the LEDs 4a and 4b are sequentially lit in synchronization with the VD signal, and the three-dimensional positions of the luminescent markers 4a and 4b are re-established. Since measurement is performed, there is no occurrence of a measurement error in the position of the other light-emitting marker due to reflected light generated by light emission of one light-emitting marker, and the effect of marker identification error can be reduced, so that high accuracy can be achieved. Can be measured.
[0051]
In the present embodiment, the synchronous light-emitting process is performed on both the light-emitting markers 4a and 4b constituting the error marker pair. However, only a specific light-emitting marker, for example, only a light-emitting marker that previously caused a measurement error is synchronized. Light emission processing may be performed.
[0052]
Embodiment 4 FIG.
13 and 14 are schematic configuration diagrams showing Embodiment 3 of the three-dimensional position measurement system according to the present invention. The three-dimensional position calculator 18c of the measurement system 2c according to the present embodiment includes a light emitting area calculator 36, a marker-camera distance, instead of the marker moving distance calculator 30 of the three-dimensional position calculator 18 of the first embodiment. A calculation unit 38 and a light emission area calculation unit 40 are provided. The light emitting area calculation unit 36 calculates a light emitting area of a light emitting marker in an image. The marker-camera distance calculating unit 38 calculates the distance between the light emitting area and the distance stored in the camera / marker information managing unit 16 based on the light emitting area calculated by the light emitting area calculating unit 36. The distance between the light emitting marker 4 and the imaging surface of the camera 6 is calculated. The luminous area calculation unit 40 calculates the luminous marker based on the distance calculated by the marker / camera distance calculation unit 38 and the information such as the position and orientation of one camera 6 stored in the camera / marker information management unit 16. Fourth three-dimensional positions (third spatial coordinates) are calculated.
[0053]
Next, three-dimensional measurement processing by the measurement system 2c according to the present embodiment will be described using the flowcharts of FIGS. However, steps S1501 to S1511 are the same as steps S301 to S311 in FIG. 3, and the description will not be repeated unless particularly necessary.
[0054]
In step S1508, the distance D between the light emitting markers 4a and 4b calculated from the first spatial coordinates calculated in step S1505. 1 And the reference distance D 0 Absolute value of difference from | D 1 -D 0 If | is equal to or greater than the predetermined threshold, the flow proceeds to step S1512.
[0055]
In step S1512, the index q is set to 0. q corresponds to the number of cameras 6. In step S1513, the light emitting area calculation unit 36 calculates the marker light emitting area in each of the light emitting markers 4a and 4b in an image frame captured by one camera, for example, the first camera 6A. In step S1514, the marker-camera distance calculator 38 calculates the distance between each of the light-emitting markers 4a and 4b and the imaging surface of the CCD camera 6A based on the marker light-emitting area calculated in step S1513. In step S1515, the light emitting area calculation unit 40 stores the distance calculated in step S1514, the plane coordinates of the light emitting markers 4a and 4b in the image frame by the camera 6A calculated in step S1504, and the camera / marker information management unit 16. The third spatial coordinates of the light-emitting markers 4a and 4b based on the image frame captured by the first camera 6A are calculated based on the information on the camera position and posture, etc. thus obtained. Thereafter, the flow proceeds to step S1516.
[0056]
In step S1516, the index q is incremented. If the index q is smaller than 2 in step S1517, the process returns to step S1513, and the processes of steps S1513 to S1516 are repeated for the remaining second camera 6B, and the light emitting marker based on the image frame captured by the second camera 6B The third spatial coordinates of 4a and 4b are calculated. When q becomes equal to 2 in step S1517, the process proceeds to step S1518, where the distance between the light emitting markers 4a and 4b corresponding to the first camera 6A and the distance between the light emitting markers 4a and 4b corresponding to the second camera 6B are determined. Is calculated. In step S1519, each distance D calculated in step S1520 3 And the actual distance D between the markers 0 Is calculated.
[0057]
In step S1520, the absolute value of the difference | D 3 -D 0 It is determined whether or not there is a camera 6 in which | is smaller than a preset threshold. If such a camera 6 exists, the flow proceeds to step S1521. Then, in the flow after step S1521, the light emitting marker that caused the measurement error is specified, and the third spatial coordinates calculated using the light emitting area for the light emitting marker are output to the three-dimensional position recording unit 20 and recorded.
[0058]
More specifically, the index r is set to 0 in step S1521. In step S1522, with respect to one of the light-emitting markers, for example, the light-emitting marker 4a, a deviation between the first space coordinate based on the stereoscopic principle calculated in step S1505 and the third space coordinate using the light-emitting area calculated in step S1515. Is calculated.
[0059]
If the deviation is smaller than the preset threshold value in step S1523, the process proceeds to step S1524, and the measurement error determination unit 28 determines that the first spatial coordinates obtained in step S1504 for the light emitting marker 4a are appropriate (normally, The first space coordinates are obtained with higher accuracy than the third space coordinates.), And an appropriate signal is output to the three-dimensional position output unit 34. The three-dimensional position output unit 34 outputs and records the data of the first spatial coordinates to the three-dimensional position recording unit 20. Thereafter, the flow proceeds to step S1525.
[0060]
If the deviation is equal to or larger than the preset threshold value in step S1523, the process proceeds to step S1526, where the measurement error determination unit 28 determines that the first spatial coordinates obtained in step S1504 for the light emitting marker 4a are inappropriate, A predetermined signal is output to the three-dimensional position output unit 34. The three-dimensional position output unit 34 outputs and records the third spatial coordinates to the three-dimensional position recording unit 20 (instead of the first spatial coordinates). Thereafter, the flow proceeds to step S1525.
[0061]
In step S1525, the index r is incremented. If the index r is smaller than 2 in step S1527, the process returns to step S1522, and the processes of steps S1522 to S1526 are repeated for the remaining light emitting markers 4b, and the first or third spatial coordinates are stored in the three-dimensional position recording unit 20. Record.
[0062]
In step S1520, the absolute value | D 3 -D 0 If there is no camera 6 whose | is smaller than the preset threshold value, the process proceeds to step S1528, where the measurement error marker determination unit 32 uses the light emission area (not only the first spatial coordinates calculated in step S1505). Then, the third spatial coordinates calculated in step S1515 are also determined to be inappropriate, and an error signal is output to the three-dimensional position output unit 34. Then, the three-dimensional position output unit 34 outputs and records the data of the second spatial coordinates regarding the light-emitting markers 4a and 4b obtained based on the immediately preceding image frame to the three-dimensional position recording unit 20. Thereafter, the flow returns to step S1510.
[0063]
As described above, in the present embodiment, the measurement error marker is specified using the three-dimensional position information calculated using the marker light emission area, so that the effective measurement data regarding the other light emission marker is maximally used. Becomes possible, and continuous marker position measurement becomes possible.
[0064]
Embodiment 5 FIG.
The three-dimensional position measurement system (not shown) according to the present embodiment is different from the measurement systems according to the first to fourth embodiments, and is different from the measurement systems according to the first to fourth embodiments in that one or more light-emitting markers for measurement (for example, in the first embodiment) In addition to the light-emitting markers 4a and 4b), one or more reference light-emitting markers (not shown) which are at a certain distance from the measurement light-emitting marker and are not affected by changes in the light environment or occlusion are measured. Attach to an object (for example, a person). In this case, by calculating the distance between the reference light-emitting marker and the measurement light-emitting marker, the error marker can be immediately specified if a measurement error occurs (without determining the measurement error marker).
[0065]
The specific embodiments of the present invention have been described above, but the present invention is not limited thereto, and various modifications can be made. For example, in the above-described embodiment, for the light-emitting marker that caused the measurement error, the data of the second spatial coordinates obtained using the immediately preceding image frame was recorded in the three-dimensional position recording unit 20. An image camera is further prepared and an image of the luminescent marker is taken, and an image frame taken by the moving image camera and an image frame taken by another moving image camera are used for stereo vision. The three-dimensional position of the measurement error marker may be calculated based on the principle.
[0066]
【The invention's effect】
According to the present invention, when a measurement error occurs, the position information of another light-emitting marker measured when the measurement error occurs can be effectively used by specifying the light-emitting marker that caused the error.
[Brief description of the drawings]
FIG. 1 is a schematic configuration diagram showing a first embodiment of a three-dimensional position measurement system according to the present invention.
FIG. 2 is a block diagram illustrating a three-dimensional position calculating unit in FIG. 1;
FIG. 3 is a flowchart showing a first part of a measurement process by the three-dimensional position measurement system of FIG. 1;
FIG. 4 is a flowchart showing a second part of the measurement process by the three-dimensional position measurement system of FIG. 1;
FIG. 5 is a schematic configuration diagram showing Embodiment 3 of a three-dimensional position measurement system according to the present invention.
FIG. 6 is a block diagram showing a three-dimensional position calculator of FIG. 5;
FIG. 7 is a flowchart showing a first part of a measurement process by the three-dimensional position measurement system in FIG. 5;
FIG. 8 is a flowchart showing a second part of the measurement process by the three-dimensional position measurement system of FIG. 5;
FIG. 9 is a schematic configuration diagram showing Embodiment 3 of a three-dimensional position measurement system according to the present invention.
FIG. 10 is a block diagram showing a three-dimensional position calculator of FIG. 9;
FIG. 11 is a flowchart showing a first part of a measurement process by the three-dimensional position measurement system of FIG. 9;
FIG. 12 is a flowchart showing a second part of the measurement process by the three-dimensional position measurement system of FIG. 9;
FIG. 13 is a schematic configuration diagram showing Embodiment 3 of a three-dimensional position measurement system according to the present invention.
FIG. 14 is a block diagram showing a three-dimensional position calculator of FIG. 13;
FIG. 15 is a flowchart showing a first part of a measurement process by the three-dimensional position measurement system in FIG. 13;
FIG. 16 is a flowchart showing a second part of the measurement process by the three-dimensional position measurement system in FIG. 13;
FIG. 17 is a flowchart showing a third part of the measurement process by the three-dimensional position measurement system in FIG. 13;
[Explanation of symbols]
2: 3D measurement system
4a, 4b: luminescence marker
6A, 6B: Video camera
8: Measuring device

Claims (6)

計測対象に装着された複数の発光マーカと、
上記複数の発光マーカを撮像する第1および第2の動画像カメラと、
上記第1および第2の動画像カメラでそれぞれ撮像した第1および第2の画像内における上記各発光マーカの平面座標を算出する二次元位置算出部と、
上記二次元位置算出部で算出された第1および第2の画像内における上記各発光マーカの平面座標に基づいて、ステレオ視の原理により上記各発光マーカの空間座標を算出するステレオ視演算部と、
上記ステレオ視演算部で算出した空間座標に基づいて、上記各発光マーカ間の距離を算出するマーカ間距離算出部と、
上記マーカ間距離算出部で算出した上記マーカ間距離が適正か否かを判定する計測エラー判定部と、
上記計測エラー判定部でマーカ間距離が不適正と判定された発光マーカペアを構成する各発光マーカについて、対応する上記第1および第2の画像と、不適正と判定される直前の上記第1および第2の画像とに基づいて、マーカ移動距離を算出するマーカ移動距離算出部と、
上記マーカ移動距離に基づいて、不適正なマーカ間距離であるとの判定の原因となった発光マーカを判定する計測エラーマーカ判定部と、
を備えた三次元位置計測システム。
A plurality of light-emitting markers attached to the measurement target,
First and second moving image cameras for imaging the plurality of light emitting markers,
A two-dimensional position calculating unit that calculates planar coordinates of each of the light emitting markers in the first and second images captured by the first and second moving image cameras, respectively;
A stereo vision calculation unit that calculates spatial coordinates of each of the light-emitting markers based on the principle of stereo vision based on the plane coordinates of each of the light-emitting markers in the first and second images calculated by the two-dimensional position calculation unit; ,
A marker distance calculating unit that calculates a distance between the light emitting markers based on the spatial coordinates calculated by the stereo visual calculation unit;
A measurement error determination unit that determines whether the marker distance calculated by the marker distance calculation unit is appropriate,
For each of the light-emitting markers constituting the light-emitting marker pair for which the distance between markers has been determined to be incorrect by the measurement error determination unit, the corresponding first and second images and the first and second images immediately before being determined to be incorrect. A marker moving distance calculating unit that calculates a marker moving distance based on the second image;
A measurement error marker determination unit that determines a light emitting marker that has caused the determination that the distance between the markers is incorrect based on the marker movement distance;
3D position measurement system equipped with.
計測対象に装着された少なくとも3つの発光マーカと、
上記少なくとも3つの発光マーカを撮像する第1および第2の動画像カメラと、
上記第1および第2の動画像カメラでそれぞれ撮像した第1および第2の画像内における上記各発光マーカの平面座標を算出する二次元位置算出部と、
上記二次元位置算出部で算出された第1および第2の画像内における上記各発光マーカの平面座標に基づいて、ステレオ視の原理により上記各発光マーカの空間座標を算出するステレオ視演算部と、
上記ステレオ視演算部で算出した空間座標に基づいて上記各発光マーカ間の距離を算出するマーカ間距離算出部であって、上記各発光マーカについて複数のマーカ間距離を算出するものと、
上記マーカ間距離算出部で算出した上記マーカ間距離が適正か否かを判定する計測エラー判定部と、
上記計測エラー判定部でマーカ間距離が不適正と判定された発光マーカペアを構成する各発光マーカについて、不適正と判定された上記マーカ間距離以外のマーカ間距離に基づいて、不適正なマーカ間距離であるとの判定の原因となった発光マーカを判定する計測エラーマーカ判定部と、
を備えた三次元位置計測システム。
At least three luminescent markers attached to the measurement target;
First and second moving image cameras for imaging the at least three light emitting markers,
A two-dimensional position calculating unit that calculates planar coordinates of each of the light emitting markers in the first and second images captured by the first and second moving image cameras, respectively;
A stereo vision calculation unit that calculates spatial coordinates of each of the light-emitting markers based on the principle of stereo vision based on the plane coordinates of each of the light-emitting markers in the first and second images calculated by the two-dimensional position calculation unit; ,
An inter-marker distance calculation unit that calculates a distance between the light-emitting markers based on the spatial coordinates calculated by the stereo vision calculation unit, and calculates a plurality of inter-marker distances for each of the light-emitting markers.
A measurement error determination unit that determines whether the marker distance calculated by the marker distance calculation unit is appropriate,
For each of the light-emitting markers constituting the light-emitting marker pair for which the inter-marker distance is determined to be incorrect by the measurement error determination unit, an incorrect marker-to-marker distance A measurement error marker determination unit that determines a light-emitting marker that has caused the determination that the distance is present;
3D position measurement system equipped with.
計測対象に装着された複数の発光マーカと、
上記複数の発光マーカの発光を制御する発光制御部と、
上記複数の発光マーカを撮像する第1および第2の動画像カメラと、
上記第1および第2の動画像カメラでそれぞれ撮像した第1および第2の画像内における上記各発光マーカの平面座標を算出する二次元位置算出部と、
上記二次元位置算出部で算出された各画像内における上記各発光マーカの平面座標に基づいて、ステレオ視の原理により上記各発光マーカの空間座標を算出するステレオ視演算部と、
上記ステレオ視演算部で算出した空間座標に基づいて、上記各発光マーカ間の距離を算出するマーカ間距離算出部と、
上記マーカ間距離算出部で算出した上記マーカ間距離が適正か否かを判定する計測エラー判定部とを備え、
上記計測エラー判定部でマーカ間距離が不適正と判定された場合に、上記発光制御部は、該マーカ間距離に対応する発光マーカペアを構成する各発光マーカを、第1および第2の動画像カメラの撮像素子を駆動する信号に同期させて順次発光させるとともに第1および第2の動画像カメラで撮像し、上記二次元位置算出部は、上記第1および第2の動画像カメラでそれぞれ撮像した第1および第2の画像内における各発光マーカの別の平面座標を算出するとともに、上記ステレオ視算出部は、各発光マーカについて、上記二次元位置算出部で算出された各画像内における上記別の平面座標に基づいて、別の空間座標を算出することを特徴とする三次元位置計測システム。
A plurality of light-emitting markers attached to the measurement target,
A light emission control unit that controls light emission of the plurality of light emission markers,
First and second moving image cameras for imaging the plurality of light emitting markers,
A two-dimensional position calculating unit that calculates planar coordinates of each of the light emitting markers in the first and second images captured by the first and second moving image cameras, respectively;
Based on the planar coordinates of each light-emitting marker in each image calculated by the two-dimensional position calculating unit, a stereo visual calculation unit that calculates the spatial coordinates of each light-emitting marker based on the principle of stereo vision,
A marker distance calculating unit that calculates a distance between the light emitting markers based on the spatial coordinates calculated by the stereo visual calculation unit;
A measurement error determination unit that determines whether the marker distance calculated by the marker distance calculation unit is appropriate or not,
When the measurement error determination unit determines that the distance between the markers is inappropriate, the light emission control unit replaces each of the light emission markers constituting the light emission marker pair corresponding to the distance between the markers with the first and second moving images. The first and second moving image cameras sequentially emit light in synchronization with a signal for driving an image pickup device of the camera, and the two-dimensional position calculation unit performs image pickup with the first and second moving image cameras, respectively. And calculating different plane coordinates of each light-emitting marker in the first and second images, and the stereo vision calculation unit calculates, for each light-emitting marker, the light-emitting marker in each image calculated by the two-dimensional position calculation unit. A three-dimensional position measurement system, wherein another spatial coordinate is calculated based on another plane coordinate.
計測対象に装着された複数の発光マーカと、
上記複数の発光マーカを撮像する第1および第2の動画像カメラと、
上記第1および第2の動画像カメラでそれぞれ撮像した第1および第2の画像内における上記各発光マーカの平面座標を算出する二次元位置算出部と、
上記二次元位置算出部で算出された各画像内における上記各発光マーカの平面座標に基づいて、ステレオ視の原理により上記各発光マーカの空間座標を算出するステレオ視演算部と、
上記ステレオ視演算部で算出した空間座標に基づいて、上記各発光マーカ間の距離を算出するマーカ間距離算出部と、
上記マーカ間距離算出部で算出した上記マーカ間距離が適正か否かを判定する計測エラー判定部と、
上記計測エラー判定部でマーカ間距離が不適正と判定された発光マーカペアを構成する各発光マーカについて、上記第1および第2の動画像カメラでそれぞれ撮像された第1および第2の画像内における発光面積を算出する発光面積算出部と、
上記発光面積算出部で算出した発光面積を利用して、マーカ間距離が不適正と判断された発光マーカペアを構成する各発光マーカの別の空間座標を算出する演算部と、
上記演算部で算出した別の空間座標に基づいて、不適正なマーカ間距離であるとの判定の原因となった発光マーカを判定する計測エラーマーカ判定部と、
を備えた三次元位置計測システム。
A plurality of light-emitting markers attached to the measurement target,
First and second moving image cameras for imaging the plurality of light emitting markers,
A two-dimensional position calculating unit that calculates planar coordinates of each of the light emitting markers in the first and second images captured by the first and second moving image cameras, respectively;
Based on the planar coordinates of each light-emitting marker in each image calculated by the two-dimensional position calculating unit, a stereo visual calculation unit that calculates the spatial coordinates of each light-emitting marker based on the principle of stereo vision,
A marker distance calculating unit that calculates a distance between the light emitting markers based on the spatial coordinates calculated by the stereo visual calculation unit;
A measurement error determination unit that determines whether the marker distance calculated by the marker distance calculation unit is appropriate,
For each of the light-emitting markers constituting the light-emitting marker pair for which the distance between markers has been determined to be inappropriate by the measurement error determination unit, the light-emitting markers in the first and second images respectively captured by the first and second moving image cameras are described. A light emitting area calculation unit for calculating a light emitting area,
A calculating unit that calculates another spatial coordinate of each of the light-emitting markers constituting the light-emitting marker pair in which the distance between the markers is determined to be inappropriate by using the light-emitting area calculated by the light-emitting area calculation unit;
A measurement error marker determination unit that determines a light-emitting marker that has caused the determination that the distance between markers is incorrect based on another spatial coordinate calculated by the calculation unit;
3D position measurement system equipped with.
計測対象に装着された、一つまたはそれ以上の計測用発光マーカ、および、計測用発光マーカとの距離が一定の基準用発光マーカと、
上記発光マーカを撮像する第1および第2の動画像カメラと、
上記第1および第2の動画像カメラでそれぞれ撮像した第1および第2の画像内における上記各発光マーカの平面座標を算出する二次元位置算出部と、
上記二次元位置算出部で算出された各画像内における上記各発光マーカの平面座標に基づいて、ステレオ視の原理により上記各発光マーカの空間座標を算出するステレオ視演算部と、
上記ステレオ視演算部で算出した空間座標に基づいて、基準用発光マーカと各計測用発光マーカ間の距離を算出するマーカ間距離算出部と、
各計測用発光マーカについて、マーカ間距離算出部で算出した上記マーカ間距離が適正か否かを判定し、これにより該計測用発光マーカがエラーを引き起こしたか否かを判定する計測エラー判定部と、
を備えた三次元位置計測システム。
One or more measurement light-emitting markers attached to the measurement target, and a reference light-emitting marker having a constant distance from the measurement light-emitting marker,
First and second moving image cameras for imaging the light emitting marker,
A two-dimensional position calculating unit that calculates planar coordinates of each of the light emitting markers in the first and second images captured by the first and second moving image cameras, respectively;
Based on the planar coordinates of each light-emitting marker in each image calculated by the two-dimensional position calculating unit, a stereo visual calculation unit that calculates the spatial coordinates of each light-emitting marker based on the principle of stereo vision,
Based on the spatial coordinates calculated by the stereo vision calculation unit, an inter-marker distance calculation unit that calculates the distance between the reference light-emitting marker and each measurement light-emitting marker,
A measurement error determination unit that determines whether or not the marker distance calculated by the marker distance calculation unit is appropriate for each measurement light-emitting marker, and thereby determines whether the measurement light-emitting marker has caused an error. ,
3D position measurement system equipped with.
計測対象に装着された複数の発光マーカを第1および第2の動画像カメラで撮像するステップと、
上記第1および第2の動画像カメラでそれぞれ撮像した第1および第2の画像内における上記各発光マーカの平面座標を算出するステップと、
各画像内における上記各発光マーカの上記算出した二次元位置に基づいて、ステレオ視の原理により上記各発光マーカの空間座標を算出するステップと、
上記算出した空間座標に基づいて、上記各発光マーカ間の距離を算出するステップと、
上記算出したマーカ間距離が適正か否かを判定する計測エラー判定ステップと、
計測エラー判定ステップで算出したマーカ間距離が不適正と判定された場合に、該マーカ間距離に対応する発光マーカペアを構成する各発光マーカのいずれかが、不適正なマーカ間距離であるとの判定の原因となったかを判定するステップと、
を含む三次元位置計測方法。
Imaging the plurality of light-emitting markers attached to the measurement target with the first and second moving image cameras;
Calculating plane coordinates of each of the light emitting markers in the first and second images captured by the first and second moving image cameras, respectively;
Based on the calculated two-dimensional position of each of the light-emitting markers in each image, calculating spatial coordinates of each of the light-emitting markers by the principle of stereo vision,
Calculating a distance between the light-emitting markers based on the calculated spatial coordinates;
A measurement error determination step of determining whether the calculated distance between markers is appropriate,
When it is determined that the distance between the markers calculated in the measurement error determination step is inappropriate, one of the light-emitting markers constituting the light-emitting marker pair corresponding to the distance between the markers is determined to be an inappropriate distance between the markers. A step of determining whether the determination has been caused;
Three-dimensional position measurement method.
JP2003159444A 2003-06-04 2003-06-04 System and method for measuring three-dimensional position Pending JP2004361222A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003159444A JP2004361222A (en) 2003-06-04 2003-06-04 System and method for measuring three-dimensional position

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003159444A JP2004361222A (en) 2003-06-04 2003-06-04 System and method for measuring three-dimensional position

Publications (1)

Publication Number Publication Date
JP2004361222A true JP2004361222A (en) 2004-12-24

Family

ID=34052501

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003159444A Pending JP2004361222A (en) 2003-06-04 2003-06-04 System and method for measuring three-dimensional position

Country Status (1)

Country Link
JP (1) JP2004361222A (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100657542B1 (en) 2005-01-20 2006-12-15 대한민국 Height measuring apparatus,method through distortion calibration of monitoring camera, recording media recorded the method and reference point setting apparatus
JP2007187524A (en) * 2006-01-12 2007-07-26 Shimadzu Corp Magnetic mapping device
JP2008065416A (en) * 2006-09-05 2008-03-21 Shimadzu Corp Head motion tracker device
RU2492420C2 (en) * 2011-08-18 2013-09-10 Федеральное государственное бюджетное образовательное учреждение высшего профессионального образования "Санкт-Петербургский национальный исследовательский университет информационных технологий, механики и оптики" Method of determining spatial position of object and apparatus for implementing said method
CN104880176A (en) * 2015-04-15 2015-09-02 大连理工大学 Moving object posture measurement method based on prior knowledge model optimization
EP3480791A1 (en) 2017-11-07 2019-05-08 Casio Computer Co., Ltd. System, device, method and computer program for obtaining the location and shooting direction of at least two cameras
JP2019109174A (en) * 2017-12-20 2019-07-04 カシオ計算機株式会社 Position calculation system, position calculation device, position calculation method, and program
JP2020152546A (en) * 2019-03-20 2020-09-24 東芝エレベータ株式会社 Image processing device

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100657542B1 (en) 2005-01-20 2006-12-15 대한민국 Height measuring apparatus,method through distortion calibration of monitoring camera, recording media recorded the method and reference point setting apparatus
JP2007187524A (en) * 2006-01-12 2007-07-26 Shimadzu Corp Magnetic mapping device
JP2008065416A (en) * 2006-09-05 2008-03-21 Shimadzu Corp Head motion tracker device
RU2492420C2 (en) * 2011-08-18 2013-09-10 Федеральное государственное бюджетное образовательное учреждение высшего профессионального образования "Санкт-Петербургский национальный исследовательский университет информационных технологий, механики и оптики" Method of determining spatial position of object and apparatus for implementing said method
CN104880176A (en) * 2015-04-15 2015-09-02 大连理工大学 Moving object posture measurement method based on prior knowledge model optimization
EP3480791A1 (en) 2017-11-07 2019-05-08 Casio Computer Co., Ltd. System, device, method and computer program for obtaining the location and shooting direction of at least two cameras
US10922839B2 (en) 2017-11-07 2021-02-16 Casio Computer Co., Ltd. Location obtaining system, location obtaining device, location obtaining method, and non-transitory computer-readable recording medium
JP2019109174A (en) * 2017-12-20 2019-07-04 カシオ計算機株式会社 Position calculation system, position calculation device, position calculation method, and program
JP7069691B2 (en) 2017-12-20 2022-05-18 カシオ計算機株式会社 Position calculation system, position calculation device, position calculation method and program
JP2022090130A (en) * 2017-12-20 2022-06-16 カシオ計算機株式会社 Position calculation system, position calculation device, position calculation method, and program
JP7409425B2 (en) 2017-12-20 2024-01-09 カシオ計算機株式会社 Position calculation system, position calculation device, position calculation method and program
JP2020152546A (en) * 2019-03-20 2020-09-24 東芝エレベータ株式会社 Image processing device

Similar Documents

Publication Publication Date Title
JP6983837B2 (en) How to combine views from multiple cameras and camera system
EP3248374B1 (en) Method and apparatus for multiple technology depth map acquisition and fusion
US7825948B2 (en) 3D video conferencing
CN104717481B (en) Photographic device, image processing apparatus, image capture method
CN102598652B (en) Messaging device and method
CN100562103C (en) object tracking device, object tracking system and object tracking method
KR101364874B1 (en) A method for determining the relative position of a first and a second imaging device and devices therefore
EP3527935A1 (en) Context-based depth sensor control
US8730302B2 (en) Method and system for enhancing 3D effects for 3D video rendering
US20140241614A1 (en) System for 2D/3D Spatial Feature Processing
JP2005167517A (en) Image processor, calibration method thereof, and image processing program
WO2011118066A1 (en) Imaging device and control method therefor
JP4813628B1 (en) Imaging apparatus, control method therefor, and three-dimensional information measuring apparatus
JP2012222386A (en) Display control apparatus and method, and program
CN103004178B (en) Image capture device, program, and image capture method
JP2004361222A (en) System and method for measuring three-dimensional position
KR102683309B1 (en) Method of configuring camera position suitable for localization and robot implementing thereof
JP2008015815A (en) Image processor and image processing program
US20090245584A1 (en) Image processing apparatus, image processing method, and program
JP2006013851A (en) Imaging display device, and imaging display method
JP2004045321A (en) Position measuring system
KR20160031464A (en) System for tracking the position of the shooting camera for shooting video films
WO2021210403A1 (en) Image processing device, calibration board, and method of generating 3d model data
KR102298047B1 (en) Method of recording digital contents and generating 3D images and apparatus using the same
JP2002022444A (en) System and method for collecting coordinate information and mark member