JP3953450B2 - 3D object posture operation method and program - Google Patents
3D object posture operation method and program Download PDFInfo
- Publication number
- JP3953450B2 JP3953450B2 JP2003314335A JP2003314335A JP3953450B2 JP 3953450 B2 JP3953450 B2 JP 3953450B2 JP 2003314335 A JP2003314335 A JP 2003314335A JP 2003314335 A JP2003314335 A JP 2003314335A JP 3953450 B2 JP3953450 B2 JP 3953450B2
- Authority
- JP
- Japan
- Prior art keywords
- posture
- dimensional
- operation mode
- virtual work
- work area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- User Interface Of Digital Computer (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Length Measuring Devices With Unspecified Measuring Means (AREA)
- Processing Or Creating Images (AREA)
- Position Input By Displaying (AREA)
Description
本発明は3次元オブジェクトの姿勢を操作する方法に関する。 The present invention relates to a method for manipulating the attitude of a three-dimensional object.
上記の技術に関連する特許出願として、特許文献1があるが、この特許出願では、操作者が指示する3次元位置や方向を検出するだけであり、対象物の姿勢を操作する方法については述べられていない。また、特許文献2があるが、様々な姿勢の手先画像をテンプレートとしたマッチング方式であるため、検出される姿勢は離散的であり、かつ計算コストがかかる。
掌や拳などの姿勢を検出し、この姿勢情報により3次元オブジェクトの姿勢を操作することは原理的には可能であるが、掌や拳などの姿勢を十分な精度で検出するためには計算コストがかかり実時間での処理は不可能であり、実用的ではなく、逆に実時間での処理を可能にするには、掌や拳などの姿勢検出の精度をおとさなければならないが、検出される姿勢の離散度が大きく、実用的ではない。 Although it is possible in principle to detect the posture of a palm or fist and manipulate the posture of a three-dimensional object using this posture information, calculation is necessary to detect the posture of a palm or fist with sufficient accuracy. Expensive and real-time processing is impossible and impractical. Conversely, in order to enable real-time processing, the accuracy of posture detection such as palms and fists must be reduced. The degree of discreteness of the posture is large and impractical.
本発明の目的は、計算機内の3次元オブジェクトの姿勢を実時間で操作する3次元オブジェクト姿勢操作方法およびプログラムを提供することにある。 An object of the present invention is to provide a three-dimensional object posture operation method and program for manipulating the posture of a three-dimensional object in a computer in real time.
本発明の第1の態様によれば、位置検出手段、領域判定手段、動作モード判定手段、および姿勢算出手段を有する装置が、実空間内の所定の物体の3次元位置により、計算機内の3次元オブジェクトの姿勢を操作するための3次元オブジェクト姿勢操作方法であって、位置検出手段が所定の物体の3次元位置を継続的に検出し、位置検出手段で検出される3次元位置が、固定された基準点を含む、空間座標系に固定された仮想作業領域の内部にあるか外部にあるかを、領域判定手段が判定し、動作モード判定手段が、領域判定手段の判定結果から、所定の物体が仮想作業領域の外部から内部に入ったとき動作モードをアイドルモードから姿勢操作モードに遷移させ、所定の物体が仮想作業領域の内部から外部に出たとき動作モードを姿勢操作モードからアイドルモードに遷移させ、アイドルモードから姿勢操作モードへの遷移時に、動作モード判定手段が、基準点から、所定の物体の仮想作業領域に入ったときの3次元位置に向かう第1の単位ベクトルと、3次元オブジェクトの姿勢とを記録し、姿勢操作モードである間に限り、姿勢算出手段が、第1の単位ベクトルを、基準点から現在の所定の物体の3次元位置に向かう第2の単位ベクトルに重ね合わせるような回転方向および回転角度の回転変換を、3次元オブジェクトに対して施し、回転変換を施した3次元オブジェクトの姿勢を現在の3次元オブジェクトの姿勢とする。 According to the first aspect of the present invention, an apparatus having a position detection unit, a region determination unit, an operation mode determination unit, and an attitude calculation unit is configured so that a three-dimensional position of a predetermined object in real space A three-dimensional object posture operation method for manipulating the posture of a three-dimensional object, wherein the position detection means continuously detects the three-dimensional position of a predetermined object, and the three-dimensional position detected by the position detection means is fixed The area determination means determines whether the virtual work area is fixed inside the space coordinate system including the reference point, or is outside, and the operation mode determination means determines whether the operation mode determination means is a predetermined value from the determination result of the area determination means. When an object enters the virtual work area from the inside to the inside, the operation mode is changed from the idle mode to the posture operation mode, and when a predetermined object comes from the inside of the virtual work area to the outside, the operation mode is changed to the posture operation. From the reference mode to the three-dimensional position when entering the virtual work area of the predetermined object from the reference point. As long as the unit vector and the posture of the three-dimensional object are recorded and the posture operation mode is in effect, the posture calculation means moves the first unit vector from the reference point to the three-dimensional position of the current predetermined object. The rotation direction and rotation angle that are superimposed on the unit vector of 2 are subjected to rotation conversion on the three-dimensional object, and the posture of the three-dimensional object subjected to the rotation conversion is set as the current three-dimensional object posture.
本発明の第2の態様によれば、位置検出手段、領域判定手段、動作モード判定手段、および姿勢算出手段を有する装置が、実空間内の所定の物体の3次元位置により、計算機内の3次元オブジェクトの姿勢を操作するための3次元オブジェクト姿勢操作方法であって、位置検出手段が所定の物体の3次元位置を継続的に検出し、位置検出手段で検出される3次元位置が、固定された基準点を含む、空間座標系に固定された仮想作業領域の内部にあるか外部にあるかと、仮想作業領域に含まれかつ実空間に固定された内部仮想作業領域の内部にあるか外部にあるかとを、領域判定手段が判定し、動作モード判定手段が、領域判定手段の判定結果から、所定の物体が内部仮想作業領域の外部から内部に入ったとき動作モードをアイドルモードから姿勢操作モードに遷移させ、所定の物体が内部仮想作業領域の内部から仮想作業領域の外部に出たとき動作モードを姿勢操作モードからアイドルモードに遷移させ、アイドルモードから姿勢操作モードへの遷移時に、動作モード判定手段が、基準点から、所定の物体の内部仮想作業領域に入ったときの3次元位置に向かう第1の単位ベクトルと、3次元オブジェクトの姿勢とを記録し、姿勢操作モードである間に限り、姿勢算出手段が、第1の単位ベクトルを、基準点から現在の所定の物体の3次元位置に向かう第2の単位ベクトルに重ね合わせるような回転方向および回転角度の回転変換を、3次元オブジェクトに対して施し、回転変換を施した3次元オブジェクトの姿勢を現在の3次元オブジェクトの姿勢とする。 According to the second aspect of the present invention, an apparatus having a position detection unit, a region determination unit, an operation mode determination unit, and an attitude calculation unit is configured so that a three-dimensional position of a predetermined object in real space A three-dimensional object posture operation method for manipulating the posture of a three-dimensional object, wherein the position detection means continuously detects the three-dimensional position of a predetermined object, and the three-dimensional position detected by the position detection means is fixed Inside or outside the virtual work area fixed in the space coordinate system, including the specified reference point, and inside or outside the internal virtual work area included in the virtual work area and fixed in the real space Is determined by the area determination means, and the operation mode determination means determines from the determination result of the area determination means that the operation mode is changed from the idle mode when a predetermined object enters the inside of the internal virtual work area. When a predetermined object comes out of the internal virtual work area from the inside of the virtual work area, the operation mode is changed from the posture operation mode to the idle mode, and at the transition from the idle mode to the posture operation mode. The operation mode determination unit records the first unit vector from the reference point toward the three-dimensional position when entering the internal virtual work area of the predetermined object, and the posture of the three-dimensional object. For a certain period of time, the posture calculation means performs rotation conversion of the rotation direction and rotation angle so as to superimpose the first unit vector on the second unit vector directed from the reference point to the current three-dimensional position of the predetermined object. The posture of the three-dimensional object that has been applied to the three-dimensional object and subjected to the rotation transformation is set as the current posture of the three-dimensional object .
本発明の第3の態様によれば、位置検出手段、領域判定手段、動作モード判定手段、および姿勢算出手段を有する装置が、実空間内の所定の物体の3次元位置により、計算機内の2個以上の3次元オブジェクトからひとつを選択し、3次元オブジェクトの姿勢を操作するための3次元オブジェクト姿勢操作方法であって、位置検出手段が所定の物体の3次元位置を継続的に検出し、位置検出手段で検出される3次元位置が、3次元オブジェクトの個数と同数で、3次元オブジェクトに一対一に対応する、実空間に固定された仮想作業領域のそれぞれの内部にあるか外部にあるかと、それぞれの仮想作業領域に含まれかつ実空間に固定された、3次元オブジェクトの個数と同数の、互いに交わりのない内部仮想作業領域のそれぞれの内部にあるか外部にあるかとを、領域判定手段が判定し、動作モード判定手段が、領域判定手段の判定結果から、所定の物体が全ての3次元オブジェクトの前記仮想作業領域の外部から、1つ目の3次元オブジェクトの前記内部仮想作業領域の内部に入ったとき、動作モードをアイドルモードからその3次元オブジェクトの姿勢操作モードに遷移させ、所定の物体がその3次元オブジェクトの内部仮想作業領域の内部から仮想作業領域の外部に出たとき、動作モードを姿勢操作モードからアイドルモードに遷移させ、アイドルモードから姿勢操作モードへの遷移時に、動作モード判定手段が、その3次元オブジェクトに関する、実空間に固定された基準点から、所定の物体の内部仮想作業領域に入ったときの3次元位置に向かう第1の単位ベクトルと、その3次元オブジェクトの姿勢とを記録し、姿勢操作モードである間に限り、姿勢算出手段が、第1の単位ベクトルを、基準点から現在の所定の物体の3次元位置に向かう第2の単位ベクトルに重ね合わせるような回転方向および回転角度の回転変換を、その3次元オブジェクトに対して施し、回転変換を施した3次元オブジェクトの姿勢を現在の3次元オブジェクトの姿勢とする。 According to the third aspect of the present invention, an apparatus having a position detection unit, a region determination unit, an operation mode determination unit, and a posture calculation unit is configured so that a predetermined object in a real space can be A three-dimensional object posture operation method for selecting one of three or more three-dimensional objects and manipulating the posture of the three-dimensional object, wherein the position detection means continuously detects the three-dimensional position of a predetermined object, The number of three-dimensional positions detected by the position detection means is the same as the number of three-dimensional objects, and corresponds to the three-dimensional object one-to-one, and is inside or outside each virtual work area fixed in real space. And the number of three-dimensional objects included in each virtual work area and fixed in the real space, and inside each non-intersecting internal virtual work area The area determination means determines whether the area is outside, and the operation mode determination means determines from the determination result of the area determination means that the predetermined object is the first 3 from outside the virtual work area of all three-dimensional objects. When entering the inside of the internal virtual work area of the three-dimensional object, the operation mode is changed from the idle mode to the posture operation mode of the three-dimensional object, and the predetermined object is virtualized from the inside of the internal virtual work area of the three-dimensional object. When moving outside the work area, the operation mode is changed from the posture operation mode to the idle operation mode, and at the time of transition from the idle mode to the posture operation mode, the operation mode determination means is fixed in the real space for the three-dimensional object. A first unit vector from the reference point toward the three-dimensional position when entering the internal virtual work area of the predetermined object; Only when the posture operation mode is in the posture operation mode, the posture calculation means sends the first unit vector from the reference point to the current three-dimensional position of the predetermined object. The rotation direction and rotation angle that are superimposed on the vector are subjected to rotation conversion on the three-dimensional object, and the posture of the three-dimensional object subjected to the rotation conversion is set as the current three-dimensional object posture.
本発明は、指先などの位置を動かすことにより、仮想対象物の把持およびリリースを容易に指定したり、仮想対象物の姿勢を容易に操作することができる。 According to the present invention, by moving the position of a fingertip or the like, it is possible to easily specify gripping and releasing of a virtual object or to easily operate the posture of the virtual object.
次に、本発明の実施の形態について図面を参照して説明する。
[第1の実施形態]
Next, embodiments of the present invention will be described with reference to the drawings.
[First Embodiment]
本実施形態では、指先に取り付けたマーカーを撮像したカメラ画像を解析することで、空間内での指先の3次元的動きを捉え、計算機内の3次元オブジェクトの姿勢を操作する。図1から図5に、空間内での指先の3次元位置を検出する方法を示す。 In the present embodiment, by analyzing a camera image obtained by imaging a marker attached to the fingertip, the three-dimensional movement of the fingertip in the space is captured, and the posture of the three-dimensional object in the computer is manipulated. 1 to 5 show a method for detecting the three-dimensional position of the fingertip in the space.
図1において、カメラ104およびカメラ105は空間座標系190に固定されており、それぞれのカメラ104、105の中心軸は、空間座標系190のZ軸上の基準点102で交差している。表示用モニター103は、カメラ104とカメラ105の間に置かれている。指先に取り付けられたマーカー101は蛍光赤色で塗装された球であるが、波長900ナノメートル程度の発光ダイオードをマーカーとして用いることも可能である。
In FIG. 1, the
図2において、画像200,201は指先マーカー101をそれぞれ撮像したカメラ104,105の赤チャネル画像全体をガウシアンフィルターにより処理した画像である。指先マーカー像202,203が輝度の高い領域として表示されている。
In FIG. 2,
図3(a)において、カメラ座標系110は空間座標系190に固定されており、そのZ軸はカメラ104の中心軸に一致している。直線113は、画像面111上の最も高輝度な画素112の位置とカメラ座標系110の原点とを結ぶ直線である。図3(b)において、カメラ座標系120は空間座標系190に固定されており、そのZ軸はカメラ105の中心軸に一致している。直線123は、画像面121上の最も高輝度な画素122の位置とカメラ座標系120の原点とを結ぶ直線である。
In FIG. 3A, the
図4に、空間座標系190における直線113および直線123を示す。カメラ座標系110およびカメラ座標系120が空間座標系190に固定されているので、それぞれのカメラ座標系110,120での位置姿勢が特定された直線113および直線123は、空間座標系190での位置も特定される。
FIG. 4 shows a
図5に、実空間内での指先の3次元位置を検出する方法を示す。空間座標系190での位置が特定された直線113および直線123とを最短で結ぶ直線と、直線113および直線123との交点をそれぞれP1およびP2とする。P1とP2の中点PMを、実空間内での指先の3次元位置100とする。
FIG. 5 shows a method for detecting the three-dimensional position of the fingertip in real space. Intersections between the
図6から図11に、実空間内での指先の3次元位置により計算機内の3次元オブジェクトを操作する方法を示す。 FIGS. 6 to 11 show a method of operating a three-dimensional object in the computer by the three-dimensional position of the fingertip in the real space.
図6に、基準点102を含むように空間座標系190に固定された仮想作業領域130を示す。
FIG. 6 shows a
図7に、動作モードが操作開始の前であるアイドルモードの状態を示す。図7(a)はモニター画面で、操作対象の3次元オブジェクト210、指先位置を示すカーソル211、および仮想作業領域130の境界131の像212が表示されている。図7(b)に、指先の3次元位置100が仮想作業領域130の外部にある状態を示す。
FIG. 7 shows a state of the idle mode in which the operation mode is before the start of operation. FIG. 7A is a monitor screen on which a three-
図8に、仮想作業領域130の外部にある指先の3次元位置100が、仮想作業領域130に侵入することで、動作モードが姿勢操作モードに遷移した状態を示す。その際に、図10に示す、基準点102から、指先の3次元位置100と仮想作業領域130の境界面131との接点140に向かう単位ベクトル141、および3次元オブジェクト210の姿勢を記憶しておく。このとき、動作モードの遷移をオペレータに知らせる方法として、3次元オブジェクト210の表示色を変化させる、仮想作業領域130の境界131の像212やカーソル211の表示色を変化させる、もしくはチャイムを鳴らすなどの方法がある。指先の3次元位置100が仮想作業領域130の内部もしくは境界131の上にある間は、姿勢操作モードが継続される。
FIG. 8 shows a state in which the operation mode is changed to the posture operation mode when the three-
図9に、姿勢操作中の状態を示す。3次元オブジェクト210の現在の姿勢については、動作モードが姿勢操作モードに遷移した際に記憶しておいた3次元オブジェクト210の姿勢を、図10(b)に示す軸143の周りに144で示す角度だけ回転させた姿勢を以って、その現在姿勢とする。ここで、軸143は、図10(a)に示す単位ベクトル141、および基準点102から指先の3次元位置100に向かう単位ベクトル142の両方を含む平面に垂直で、かつ基準点102を通る直線である。また、144で示す角度は、単位ベクトル142が単位ベクトル141に対してなす角度である。
FIG. 9 shows a state during posture operation. Regarding the current posture of the three-
図11に、指先の3次元位置100が仮想作業領域130から出ることにより、動作モードが姿勢操作モードからアイドルモードに遷移し、姿勢操作が完了した状態を示す。この状態は、図7に示す状態と同じである。
[第2の実施形態]
FIG. 11 shows a state where the posture operation is completed when the three-
[Second Embodiment]
第1の実施形態における、図8で説明したアイドルモードから姿勢操作モードへの動作モードの動作遷移の際や、図11で説明した姿勢操作モードからアイドルモードへの動作モードの遷移の際には、検出された指先の3次元位置100にノイズなどが畳重することで、チャタリングが生じることがある。
In the first embodiment, at the time of the operation mode transition from the idle mode to the posture operation mode described in FIG. 8 or at the time of the operation mode transition from the posture operation mode to the idle mode described in FIG. Chattering may occur when noise or the like overlaps with the detected three-
第2の実施形態として、図12から図16に、チャタリングを防止しつつ、実空間内での指先の3次元位置により計算機内の3次元オブジェクトを操作する方法を示す。 As a second embodiment, FIGS. 12 to 16 show a method of operating a three-dimensional object in a computer based on the three-dimensional position of a fingertip in real space while preventing chattering.
図12に動作モードがアイドルモードの状態を示す。図12(b)に示すように、図7に示す仮想作業領域130に加え、これに含まれる内部仮想作業領域150を用いる。両仮想作業領域130,150の境界面131と境界面151との距離の最小値は、指先の3次元位置100に畳重しているノイズのレベルと比較し十分に大きいとする。図12(a)に示す表示用モニター103には、仮想作業領域130の境界面131の像215は表示されないか、もしくは淡色で表示される一方、内部仮想作業領域150の境界面151の像213は濃色で表示され、傾注すべき境界面をオペレータに知らせている。
FIG. 12 shows a state where the operation mode is the idle mode. As shown in FIG. 12B, in addition to the
図13に動作モードアイドルモードから姿勢操作モードへの遷移の様子を示す。アイドルモード時に限り、内部仮想作業領域150の外部にある指先の3次元位置100が、内部仮想作業領域150に侵入する、もしくはその境界面151に接触すると、動作モードは姿勢操作モードに遷移する。その際に、図15に示す、基準点102から、指先の3次元位置100と仮想作業領域130の境界面131との接点140に向かう単位ベクトル141、および3次元オブジェクト210の姿勢を記憶しておく。このとき、カーソル211の表示色を変化させる、チャイムを鳴らす、もしくは、内部仮想作業領域150の境界面151の像213を消去、もしくは淡色表示に変更する一方で、仮想作業領域130の境界面131の像215を濃色表示に変更する、などすることで、動作モードの遷移をオペレータに知らせるとともに、傾注すべき境界面も知らせる。指先の3次元位置100が仮想作業領域130の内部にある間は、姿勢操作モードが継続される。
FIG. 13 shows a state of transition from the operation mode idle mode to the posture operation mode. Only in the idle mode, when the three-
図14に姿勢操作中の状態を示す。3次元オブジェクト210の現在の姿勢については、動作モード、姿勢操作モードに遷移した際に記憶しておいた3次元オブジェクト210の姿勢を、図15(b)に示す軸143の周りに144で示す角度だけ回転させた姿勢を以って、その現在姿勢とする。ここで、軸143は、図15(a)に示す単位ベクトル141、および基準点102から指先の3次元位置100に向かう単位ベクトル142の両方を含む平面に垂直で、かつ基準点102を通る直線である。また、144で示す角度は、単位ベクトル142が単位ベクトル141に対してなす角度である。
FIG. 14 shows a state during the posture operation. Regarding the current posture of the three-
図16に、姿勢操作モードからアイドルモードへの動作モードの遷移の様子を示す。姿勢操作モード時に限り、指先の3次元位置100が仮想作業領域130の外部に出るか、もしくはその境界面131に接触するとアイドルモードに遷移する。
[第3の実施形態]
FIG. 16 shows a transition of the operation mode from the posture operation mode to the idle mode. Only in the posture operation mode, when the three-
[Third Embodiment]
図17に示すように、第2の実施形態における内部仮想作業領域150の代わりに、3次元オブジェクト210と同一形状の領域である内部仮想作業領域160を用いる。
[第4の実施形態]
As shown in FIG. 17, instead of the internal
[Fourth Embodiment]
第4の実施形態では、第2の実施形態の図12に示す仮想作業領域と同様の仮想作業領域が2つあり、かつこれらの仮想作業領域が交わっている場合について説明する。 In the fourth embodiment, a case will be described in which there are two virtual work areas similar to the virtual work areas shown in FIG. 12 of the second embodiment, and these virtual work areas intersect.
図18に示すように、2つの内部仮想作業領域の交わり領域を、それぞれの内部仮想作業領域から取り除いた領域を、それぞれ内部仮想作業領域150と内部仮想作業領域550とすることで、第2の実施形態と同様の方法により、3次元オブジェクトの姿勢を操作する。
As shown in FIG. 18, the intersection area of the two internal virtual workspace, the area removed from the respective internal virtual workspace by respectively an internal
第1の実施形態では、指先の3次元位置を検出する手段として、マーカーを用いる方式の検出エンジンを利用していたが、このエンジンの代わりに、何もつけない指先の位置検出を行うエンジンを利用することもできる。このような指先の3次元位置検出エンジンとしては、「Robust Finger Tracking with Multiple Cameras」 Cullen Jennings、1999、などがある。 In the first embodiment, a detection engine using a marker is used as means for detecting the three-dimensional position of the fingertip. However, instead of this engine, an engine for detecting the position of the fingertip without anything is attached. It can also be used. As such a fingertip three-dimensional position detection engine, there is “Robust Finger Tracking with Multiple Cameras”, Cullen Jennings, 1999, and the like.
図19は以上説明した第1から第5の実施形態の3次元オブジェクト姿勢操作方法を実施する装置のブロック図である。 FIG. 19 is a block diagram of an apparatus that implements the three-dimensional object posture operation methods of the first to fifth embodiments described above.
指先もしくはマーカー位置検出部301は指先または指先に取り付けられたマーカー101の3次元位置100を検出する。領域判定部302は、指先またはマーカー101の3次元位置100が仮想作業領域130(第2の実施形態ではさらに内部仮想作業領域150)、仮想作業領域130の外部のいずれかにあるかを判定する。動作モード判定部304は領域判定部302の判定検索から動作モード(アイドルモード、姿勢操作モード)を判定し、判定した動作モードを動作モード記憶部303に記憶するとともに、動作モードがアイドルモードから姿勢操作モードに遷移したときに、単位ベクトル41と3次元オブジェクト210の姿勢を位置情報記憶部305に記憶する。姿勢算出部306は動作モードが姿勢操作モードのとき位置情報記憶部305に記憶した情報を用いて3次元オブジェクト210の姿勢を軸143の周りに角度144だけ回転させる計算を行なう。
The fingertip or marker
なお、以上説明した本発明の3次元オブジェクト姿勢操作方法は、その機能を実現するためのプログラムを、コンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することができる。コンピュータ読み取り可能な記録媒体とは、フロッピーディスク、光磁気ディスク、CD−ROM等の記録媒体、コンピュータシステムに内蔵されるハードディスク装置等の記憶装置を指す。さらに、コンピュータ読み取り可能な記録媒体は、インターネットを介してプログラムを送信する場合のように、短時間の間、動的にプログラムを保持するもの(伝送媒体もしくは伝送波)、その場合のサーバとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含む。 The three-dimensional object posture operation method of the present invention described above records a program for realizing the function on a computer-readable recording medium, and reads the program recorded on the recording medium into a computer system. Can be executed. The computer-readable recording medium refers to a recording medium such as a floppy disk, a magneto-optical disk, a CD-ROM, or a storage device such as a hard disk device built in the computer system. Furthermore, a computer-readable recording medium is a server that dynamically holds a program (transmission medium or transmission wave) for a short period of time as in the case of transmitting a program via the Internet, and a server in that case Some of them hold programs for a certain period of time, such as volatile memory inside computer systems.
100 実空間内での推定されたマーカー位置
101 実空間内でのマーカー位置
102 実空間座標系のZ軸上の姿勢操作基準点
103 表示用モニター
104 カメラ
105 カメラ
190 実空間座標系
200 カメラ画像
201 カメラ画像
202 カメラ画像上でのマーカー位置
203 カメラ画像上でのマーカー位置
110 カメラ座標系
111 カメラ撮像面
112 カメラ撮像面上でのマーカー位置
113 カメラ座標系の原点とカメラ撮像面上でのマーカー位置とを結ぶ直線
120 カメラ座標系
121 カメラ撮像面
122 カメラ撮像面上でのマーカー位置
123 カメラ座標系の原点とカメラ撮像面上でのマーカー位置とを結ぶ直線
130 仮想作業領域
131 仮想作業領域の境界面
132 仮想作業領域
151 内部仮想作業領域の境界面
210 モニターに表示された3次元オブジェクト
211 マーカー位置のカーソル
212 モニターに表示された仮想作業領域
140 推定されたマーカー位置と仮想作業領域の境界面との接点
141 姿勢操作基準点から接点に向かう単位ベクトル
142 姿勢操作基準点から推定されたマーカー位置に向かう単位ベクトル
143 2つの単位ベクトルを含む平面に垂直で姿勢操作基準点を通る直線
144 2つの単位ベクトルがなす角
108 3次元オブジェクト
109 3次元オブジェクト
301 指先もしくはマーカー位置検出部
302 領域判定部
303 動作モード記憶部
304 動作モード判定部
305 位置情報記憶部
306 姿勢算出部
100 Estimated Marker Position in Real Space 101 Marker Position in Real Space 102 Attitude Operation Reference Point on Z-axis of Real Space Coordinate System 103 Display Monitor 104 Camera 105 Camera 190 Real Space Coordinate System 200 Camera Image 201 Camera image 202 Marker position on camera image 203 Marker position on camera image 110 Camera coordinate system 111 Camera imaging surface 112 Marker position on camera imaging surface 113 Origin of camera coordinate system and marker position on camera imaging surface 120 Camera coordinate system 121 Camera imaging plane 122 Marker position on camera imaging plane 123 Straight line connecting origin of camera coordinate system and marker position on camera imaging plane 130 Virtual work area 131 Boundary of virtual work area Surface 132 Virtual work area 151 Internal virtual work area Boundary surface 210 Three-dimensional object displayed on monitor 211 Cursor at marker position 212 Virtual work area displayed on monitor 140 Contact point between estimated marker position and boundary surface of virtual work area 141 From posture operation reference point to contact point Heading unit vector 142 Unit vector heading to the marker position estimated from the posture operation reference point 143 Straight line passing through the posture operation reference point perpendicular to the plane including the two unit vectors 144 Angle formed by the two unit vectors 108 Three-dimensional object 109 3 Dimensional object 301 Fingertip or marker position detection unit 302 Area determination unit 303 Operation mode storage unit 304 Operation mode determination unit 305 Position information storage unit 306 Posture calculation unit
Claims (7)
前記位置検出手段が前記所定の物体の3次元位置を継続的に検出し、
前記位置検出手段で検出される前記3次元位置が、固定された基準点を含む、空間座標系に固定された仮想作業領域の内部にあるか外部にあるかを、前記領域判定手段が判定し、
前記動作モード判定手段が、前記領域判定手段の判定結果から、前記所定の物体が前記仮想作業領域の外部から内部に入ったとき動作モードをアイドルモードから姿勢操作モードに遷移させ、前記所定の物体が前記仮想作業領域の内部から外部に出たとき動作モードを前記姿勢操作モードから前記アイドルモードに遷移させ、
前記アイドルモードから前記姿勢操作モードへの遷移時に、
前記動作モード判定手段が、前記基準点から、前記所定の物体の前記仮想作業領域に入ったときの3次元位置に向かう第1の単位ベクトルと、前記3次元オブジェクトの姿勢とを記録し、
前記姿勢操作モードである間に限り、
前記姿勢算出手段が、前記第1の単位ベクトルを、前記基準点から現在の前記所定の物体の3次元位置に向かう第2の単位ベクトルに重ね合わせるような回転方向および回転角度の回転変換を、前記3次元オブジェクトに対して施し、前記回転変換を施した前記3次元オブジェクトの姿勢を現在の前記3次元オブジェクトの姿勢とする、3次元オブジェクト姿勢操作方法。 Position detecting means, region determination means, the operation mode determining means, and a device having the orientation calculation unit, the three-dimensional position of the predetermined object in the real space, three-dimensional for operating the attitude of the calculation machine of the three-dimensional object An object posture operation method,
The position detecting means continuously detects the three-dimensional position of the predetermined object;
The area determination means determines whether the three-dimensional position detected by the position detection means is inside or outside a virtual work area fixed in a spatial coordinate system including a fixed reference point. ,
When the predetermined object enters the inside of the virtual work area from outside the virtual work area based on the determination result of the area determination means, the operation mode determination means changes the operation mode from the idle mode to the posture operation mode, and the predetermined object When the operation mode is moved from the inside of the virtual work area to the outside, the operation mode is changed from the posture operation mode to the idle mode,
At the time of transition from the idle mode to the posture operation mode,
The operation mode determination means records a first unit vector from the reference point toward the three-dimensional position when entering the virtual work area of the predetermined object, and the posture of the three-dimensional object,
Only while in the posture operation mode,
Rotation conversion of a rotation direction and a rotation angle such that the posture calculation means superimposes the first unit vector on a second unit vector directed from the reference point toward the current three-dimensional position of the predetermined object. A three- dimensional object posture operation method , wherein the posture of the three-dimensional object applied to the three-dimensional object and subjected to the rotation transformation is set as the current posture of the three-dimensional object.
前記位置検出手段が前記所定の物体の3次元位置を継続的に検出し、
前記位置検出手段で検出される前記3次元位置が、固定された基準点を含む、空間座標系に固定された仮想作業領域の内部にあるか外部にあるかと、前記仮想作業領域に含まれかつ前記実空間に固定された内部仮想作業領域の内部にあるか外部にあるかとを、前記領域判定手段が判定し、
前記動作モード判定手段が、前記領域判定手段の判定結果から、前記所定の物体が前記内部仮想作業領域の外部から内部に入ったとき動作モードをアイドルモードから姿勢操作モードに遷移させ、前記所定の物体が前記内部仮想作業領域の内部から前記仮想作業領域の外部に出たとき動作モードを前記姿勢操作モードから前記アイドルモードに遷移させ、
前記アイドルモードから前記姿勢操作モードへの遷移時に、
前記動作モード判定手段が、前記基準点から、前記所定の物体の前記内部仮想作業領域に入ったときの3次元位置に向かう第1の単位ベクトルと、前記3次元オブジェクトの姿勢とを記録し、
前記姿勢操作モードである間に限り、
前記姿勢算出手段が、前記第1の単位ベクトルを、前記基準点から現在の前記所定の物体の3次元位置に向かう第2の単位ベクトルに重ね合わせるような回転方向および回転角度の回転変換を、前記3次元オブジェクトに対して施し、前記回転変換を施した前記3次元オブジェクトの姿勢を現在の前記3次元オブジェクトの姿勢とする、3次元オブジェクト姿勢操作方法。 Position detecting means, region determination means, the operation mode determining means, and a device having the orientation calculation unit, the three-dimensional position of the predetermined object in the real space, three-dimensional for operating the attitude of the calculation machine of the three-dimensional object An object posture operation method,
The position detecting means continuously detects the three-dimensional position of the predetermined object;
Whether the three-dimensional position detected by the position detecting means is inside or outside a virtual work area fixed in a spatial coordinate system including a fixed reference point, and is included in the virtual work area; The area determination means determines whether the internal virtual work area fixed in the real space is inside or outside, and
The operation mode determination means changes the operation mode from the idle mode to the posture operation mode when the predetermined object enters the inside of the internal virtual work area from the determination result of the area determination means, and When an object comes out of the virtual work area from the inside of the internal virtual work area, the operation mode is changed from the posture operation mode to the idle mode,
At the time of transition from the idle mode to the posture operation mode,
The operation mode determination means records a first unit vector from the reference point toward the three-dimensional position when entering the internal virtual work area of the predetermined object, and the posture of the three-dimensional object,
Only while in the posture operation mode,
Rotation conversion of a rotation direction and a rotation angle such that the posture calculation means superimposes the first unit vector on a second unit vector directed from the reference point toward the current three-dimensional position of the predetermined object. A three- dimensional object posture operation method , wherein the posture of the three-dimensional object applied to the three-dimensional object and subjected to the rotation transformation is set as the current posture of the three-dimensional object.
前記位置検出手段が前記所定の物体の3次元位置を継続的に検出し、
前記位置検出手段で検出される前記3次元位置が、前記3次元オブジェクトの個数と同数で、前記3次元オブジェクトに一対一に対応する、前記実空間に固定された仮想作業領域のそれぞれの内部にあるか外部にあるかと、それぞれの前記仮想作業領域に含まれかつ前記実空間に固定された、前記3次元オブジェクトの個数と同数の、互いに交わりのない内部仮想作業領域のそれぞれの内部にあるか外部にあるかとを、前記領域判定手段が判定し、
前記動作モード判定手段が、前記領域判定手段の判定結果から、前記所定の物体が全ての3次元オブジェクトの前記仮想作業領域の外部から、1つ目の3次元オブジェクトの前記内部仮想作業領域の内部に入ったとき、動作モードをアイドルモードから該3次元オブジェクトの姿勢操作モードに遷移させ、前記所定の物体が該3次元オブジェクトの前記内部仮想作業領域の内部から前記仮想作業領域の外部に出たとき、動作モードを前記姿勢操作モードから前記アイドルモードに遷移させ、
前記アイドルモードから前記姿勢操作モードへの遷移時に、
前記動作モード判定手段が、前記3次元オブジェクトに関する、前記実空間に固定された基準点から、前記所定の物体の前記内部仮想作業領域に入ったときの3次元位置に向かう第1の単位ベクトルと、前記3次元オブジェクトの姿勢とを記録し、
前記姿勢操作モードである間に限り、
前記姿勢算出手段が、前記第1の単位ベクトルを、前記基準点から現在の前記所定の物体の3次元位置に向かう第2の単位ベクトルに重ね合わせるような回転方向および回転角度の回転変換を、前記3次元オブジェクトに対して施し、前記回転変換を施した前記3次元オブジェクトの姿勢を現在の前記3次元オブジェクトの姿勢とする、3次元オブジェクト姿勢操作方法。 An apparatus having a position detection unit, a region determination unit, an operation mode determination unit, and an attitude calculation unit selects one of two or more three-dimensional objects in a computer according to the three-dimensional position of a predetermined object in real space. , A three-dimensional object posture operation method for manipulating the posture of the three-dimensional object ,
The position detecting means continuously detects the three-dimensional position of the predetermined object;
The three-dimensional positions detected by the position detecting means are the same as the number of the three-dimensional objects, and correspond to the three-dimensional objects on a one-to-one basis , in each of the virtual work areas fixed in the real space. Whether it is inside or outside each of the internal virtual work areas that are included in each virtual work area and are fixed in the real space, the same number as the number of the three-dimensional objects, that do not intersect each other. The area determination means determines whether it is outside,
From the determination result of the area determination means, the operation mode determination means determines that the predetermined object is outside the virtual work area of all the three-dimensional objects and inside the internal virtual work area of the first three-dimensional object. When entering, the operation mode is changed from the idle mode to the posture operation mode of the three-dimensional object, and the predetermined object comes out of the virtual work area from the inside of the internal virtual work area of the three-dimensional object. When the operation mode is changed from the posture operation mode to the idle mode,
At the time of transition from the idle mode to the posture operation mode,
A first unit vector directed to a three-dimensional position when the operation mode determination means enters the internal virtual work area of the predetermined object from a reference point fixed in the real space with respect to the three-dimensional object; , Record the posture of the three-dimensional object,
Only while in the posture operation mode,
Rotation conversion of a rotation direction and a rotation angle such that the posture calculation means superimposes the first unit vector on a second unit vector directed from the reference point toward the current three-dimensional position of the predetermined object. A three- dimensional object posture operation method , wherein the posture of the three-dimensional object applied to the three-dimensional object and subjected to the rotation transformation is set as the current posture of the three-dimensional object.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003314335A JP3953450B2 (en) | 2003-09-05 | 2003-09-05 | 3D object posture operation method and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003314335A JP3953450B2 (en) | 2003-09-05 | 2003-09-05 | 3D object posture operation method and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2005084817A JP2005084817A (en) | 2005-03-31 |
JP3953450B2 true JP3953450B2 (en) | 2007-08-08 |
Family
ID=34414982
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003314335A Expired - Fee Related JP3953450B2 (en) | 2003-09-05 | 2003-09-05 | 3D object posture operation method and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3953450B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009099042A (en) * | 2007-10-18 | 2009-05-07 | Maeda Jun | Apparatus for operating object and method of identifying marker from digital image frame data |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010086367A (en) * | 2008-10-01 | 2010-04-15 | Sony Corp | Positional information inputting device, positional information inputting method, program, information processing system, and electronic equipment |
KR101562827B1 (en) | 2008-10-23 | 2015-10-23 | 삼성전자주식회사 | Apparatus and method for manipulating virtual object |
JP5572576B2 (en) | 2010-04-30 | 2014-08-13 | 富士フイルム株式会社 | Planographic printing plate precursor and plate making method |
JP2012208705A (en) * | 2011-03-29 | 2012-10-25 | Nec Casio Mobile Communications Ltd | Image operation apparatus, image operation method and program |
JP6255954B2 (en) * | 2013-12-03 | 2018-01-10 | 富士通株式会社 | Motion input device, motion input program, and motion input method |
WO2023238663A1 (en) * | 2022-06-07 | 2023-12-14 | ソニーグループ株式会社 | Information processing device and information processing method |
-
2003
- 2003-09-05 JP JP2003314335A patent/JP3953450B2/en not_active Expired - Fee Related
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009099042A (en) * | 2007-10-18 | 2009-05-07 | Maeda Jun | Apparatus for operating object and method of identifying marker from digital image frame data |
Also Published As
Publication number | Publication date |
---|---|
JP2005084817A (en) | 2005-03-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3781896B1 (en) | System for locating and identifying an object in unconstrained environments | |
JP5122887B2 (en) | Control method, apparatus, and medium for live-action base mobile device | |
JP3859574B2 (en) | 3D visual sensor | |
KR100869447B1 (en) | Apparatus and method for indicating a target by image processing without three-dimensional modeling | |
JP4278979B2 (en) | Single camera system for gesture-based input and target indication | |
Tölgyessy et al. | Foundations of visual linear human–robot interaction via pointing gesture navigation | |
KR20190030197A (en) | System and method for initializing a robot to autonomously traverse a trained path | |
US20090271038A1 (en) | System and method for motion control of humanoid robot | |
JP2004198211A (en) | Apparatus for monitoring vicinity of mobile object | |
JP2008254150A (en) | Teaching method and teaching device of robot | |
JP7162079B2 (en) | A recording medium for recording a method, system and computer program for remotely controlling a display device via head gestures | |
JP6075888B2 (en) | Image processing method, robot control method | |
JP3953450B2 (en) | 3D object posture operation method and program | |
WO2021117479A1 (en) | Information processing device, method, and program | |
JP7448633B2 (en) | A three-dimensional measuring device that generates position information on the surface of an object based on images captured by multiple cameras. | |
JP5083715B2 (en) | 3D position and orientation measurement method and apparatus | |
JP4041060B2 (en) | Image processing apparatus and image processing method | |
JP4389663B2 (en) | Image processing method and image processing apparatus | |
JP2003280813A (en) | Pointing device, pointer controller, pointer control method and recording medium with the method recorded thereon | |
US11501459B2 (en) | Information processing apparatus, method of information processing, and information processing system | |
JPWO2005096129A1 (en) | Method and apparatus for detecting designated position of imaging apparatus, and program for detecting designated position of imaging apparatus | |
JP3763409B2 (en) | 3D position input device | |
CN115213894A (en) | Robot image display method, display system, and recording medium | |
Fabian et al. | One-point visual odometry using a RGB-depth camera pair | |
WO2023062792A1 (en) | Image processing device, image processing method, and storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20050621 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20050722 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20050722 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20070124 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20070201 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20070316 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20070411 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20070424 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100511 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110511 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120511 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130511 Year of fee payment: 6 |
|
LAPS | Cancellation because of no payment of annual fees |