[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2012164115A - Operation control device, operation control program and operation control method - Google Patents

Operation control device, operation control program and operation control method Download PDF

Info

Publication number
JP2012164115A
JP2012164115A JP2011023757A JP2011023757A JP2012164115A JP 2012164115 A JP2012164115 A JP 2012164115A JP 2011023757 A JP2011023757 A JP 2011023757A JP 2011023757 A JP2011023757 A JP 2011023757A JP 2012164115 A JP2012164115 A JP 2012164115A
Authority
JP
Japan
Prior art keywords
user
operation object
screen
hand
calculation unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011023757A
Other languages
Japanese (ja)
Other versions
JP5724422B2 (en
Inventor
Koki Hatada
晃希 畑田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2011023757A priority Critical patent/JP5724422B2/en
Publication of JP2012164115A publication Critical patent/JP2012164115A/en
Application granted granted Critical
Publication of JP5724422B2 publication Critical patent/JP5724422B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a technology capable of determining whether an intuitive gesture operation of a user is an operation accompanying a consecutive operation, or just a pointing operation.SOLUTION: In an operation control device 10, a position acquisition part 11 acquires a position of a specific object such as a hand accompanying a gesture operation of a user. A distance calculation part 12 calculates a distance between the specific object and an operation object. A speed calculation part 13 calculates a speed of the specific object. An action calculation part 14 calculates action quantitatively indicating an influence of a movement of the specific object on motion of the operation object. An action part 15 controls the motion of the operation object according to a calculation result of the action calculation part 14. An information display contents calculation part 16 calculates display contents such as scrolling on a screen according to the motion of the operation object. An information display part 17 displays information on a screen of a display device 30 according to a calculation result of the information display contents calculation part 16.

Description

本発明は,情報機器への操作に対する制御を行う操作制御装置,操作制御プログラムおよび操作制御方法に関するものである。   The present invention relates to an operation control device, an operation control program, and an operation control method for controlling operations on information equipment.

例えばパーソナルコンピュータやテレビジョン,携帯端末などの情報機器において,ユーザが画面やコンピュータから離れて操作する際のユーザインタフェースとして,ユーザが身振り・手振りによって操作を行う空間ジェスチャ技術が提案されている。   For example, in an information device such as a personal computer, a television, or a mobile terminal, a space gesture technique in which a user performs an operation by gesture or hand gesture has been proposed as a user interface when the user operates away from a screen or a computer.

なお,特許文献1において,画面のスクロールなど機器の送り操作を行うために,ユーザの送り動作と復帰動作とを区別する技術が知られている。この技術では,ユーザの現在の運動が高速運動であると検出されたとき,現在の高速運動と直前の高速運動とによって判定している。   In Patent Document 1, a technique for distinguishing between a user's feed operation and a return operation is known in order to perform device feed operations such as screen scrolling. In this technology, when it is detected that the user's current movement is a high speed movement, the determination is made based on the current high speed movement and the immediately preceding high speed movement.

また,特許文献2において円運動などの周期動作の身振りによって,画面上の項目選択が可能となる技術が知られている。この技術では,ユーザが周期動作を高速に行うと,画面上の選択項目が高速に切り替えられる。   Further, Japanese Patent Application Laid-Open No. 2004-133867 discloses a technique that enables selection of items on a screen by gesturing a periodic motion such as a circular motion. With this technology, when the user performs a periodic operation at high speed, the selection items on the screen can be switched at high speed.

また,特許文献3において距離画像で距離が極小かつ時間差分の変化の生じた点を指示点として検出して,画面上でのポインティング制御を行う技術が知られている。また,特許文献4において画像の速度ベクトルを用いて,ノイズに影響されないジェスチャ認識を行う技術が知られている。また,特許文献5においてユーザの首振り動作による入力を可能とする技術が知られている。   Further, Japanese Patent Laid-Open No. 2004-133830 discloses a technique for performing pointing control on a screen by detecting a point at which a distance is minimal and a change in time difference is detected as a designated point in a distance image. Also, Japanese Patent Application Laid-Open No. 2004-228667 discloses a technique for performing gesture recognition that is not affected by noise using an image velocity vector. Further, Japanese Patent Application Laid-Open No. H10-228667 discloses a technique that enables input by a user's swinging motion.

特開2010−182014号公報JP 2010-182014 A 特開2010−079848号公報JP 2010-0779848 A 特開平07−334299号公報JP 07-334299 A 特開2004−192150号公報JP 2004-192150 A 特開平10−105310号公報JP 10-105310 A

上記の技術では,ユーザが,ポインティングの操作と切り分けながら,連続的なスクロール,ズームなどの画面操作を行うことが困難であった。   With the above technology, it is difficult for the user to perform screen operations such as continuous scrolling and zooming while separating from the pointing operation.

例えば,上記のユーザが高速に手を動かしたときに画面のスクロール制御を行う技術では,手の高速な動作がスクロール操作となるため,ユーザは,手の速さを変えるなどの直感的な操作で,スクロールの速さを連続的に調整することができない。また,例えば,上記の周期動作の身振りによって画面上の項目を選択する技術は,ポインティングや他のジェスチャとの切り分けに関して考慮がなされていない。   For example, in the above-described technology that controls the scrolling of the screen when the user moves his / her hand at high speed, since the high-speed movement of the hand becomes the scrolling operation, the user can perform intuitive operations such as changing the speed of the hand. Thus, the scrolling speed cannot be adjusted continuously. In addition, for example, a technique for selecting an item on the screen by gestures of the above-described periodic motion does not take into consideration the separation from pointing and other gestures.

このように,ユーザの直感的なジェスチャ操作が,スクロールやズームなどの連続的な操作を伴うものであるか,単なるポインティングの操作であるかを切り分けることは,困難である。   As described above, it is difficult to determine whether the user's intuitive gesture operation involves a continuous operation such as scrolling or zooming or just a pointing operation.

一側面では,本発明は,ユーザの直感的なジェスチャ操作が,連続的な操作を伴うものであるか,単なるポインティングの操作であるかを切り分けることが可能となる技術を提供することを目的とする。   In one aspect, an object of the present invention is to provide a technique that can distinguish whether a user's intuitive gesture operation involves a continuous operation or a simple pointing operation. To do.

1態様では,操作制御装置は,特定の物体の位置を取得する位置取得部と,位置取得部で取得した位置から仮想空間内における特定の物体と操作オブジェクトとの間の距離を計算する距離計算部と,仮想空間内での特定の物体の速さを計算する速度計算部と,距離計算部と速度計算部の計算結果に従って操作オブジェクトの運動への影響の大きさを定量的に示す作用量を算出する作用量算出部と,作用量算出部の算出結果に従って操作オブジェクトの運動を制御する作用部と,操作オブジェクトの運動に従って画面の表示内容を計算する情報表示内容計算部と,情報表示内容計算部の計算結果に従って情報を画面に表示する情報表示部とを備える。   In one aspect, the operation control device includes a position acquisition unit that acquires the position of the specific object, and a distance calculation that calculates a distance between the specific object and the operation object in the virtual space from the position acquired by the position acquisition unit. A velocity calculation unit that calculates the speed of a specific object in the virtual space, and an action amount that quantitatively indicates the magnitude of the influence on the motion of the operation object according to the calculation results of the distance calculation unit and the velocity calculation unit An action amount calculation unit that calculates the action amount, an action unit that controls the movement of the operation object according to the calculation result of the action amount calculation unit, an information display content calculation unit that calculates the display content of the screen according to the movement of the operation object, and the information display content And an information display unit that displays information on the screen according to the calculation result of the calculation unit.

1態様では,ユーザの直感的なジェスチャ操作が,連続的な操作を伴うものであるか,単なるポインティングの操作であるかを切り分けることが可能となる。   In one aspect, it is possible to determine whether the user's intuitive gesture operation involves a continuous operation or a simple pointing operation.

本実施の形態による操作制御装置の構成例を示す図である。It is a figure which shows the structural example of the operation control apparatus by this Embodiment. 本実施の形態による操作制御装置を実現するハードウェアの構成例を示す図である。It is a figure which shows the structural example of the hardware which implement | achieves the operation control apparatus by this Embodiment. 本実施の形態によるユーザのジェスチャ操作の例を示す図である。It is a figure which shows the example of a user's gesture operation by this Embodiment. 本実施の形態による空間座標系の例を示す図である。It is a figure which shows the example of the spatial coordinate system by this Embodiment. 本実施の形態によるユーザのジェスチャ操作に応じた操作オブジェクトの動作の一例を説明する図である。It is a figure explaining an example of operation of an operation object according to a user's gesture operation by this embodiment. 本実施の形態によるユーザのジェスチャ操作に応じた操作オブジェクトの動作の一例を説明する図である。It is a figure explaining an example of operation of an operation object according to a user's gesture operation by this embodiment. 本実施の形態による特定の物体と操作オブジェクトとの位置関係に応じて作用量を変える例を説明する図である。It is a figure explaining the example which changes an action amount according to the positional relationship of the specific object and operation object by this Embodiment. 本実施の形態の操作制御装置による操作オブジェクト制御処理フローチャートである。It is an operation object control processing flowchart by the operation control apparatus of this Embodiment. 本実施の形態の操作制御装置による画面制御処理フローチャートである。It is a screen control processing flowchart by the operation control apparatus of this Embodiment. 本実施の形態によるユーザのジェスチャ操作の例を示す図である。It is a figure which shows the example of a user's gesture operation by this Embodiment. 操作オブジェクトの運動を摩擦力を考慮した物理モデルから求める例を説明する図である。It is a figure explaining the example which calculates | requires the motion of an operation object from the physical model which considered the frictional force. 本実施の形態による特定の物体の位置変化方向と操作オブジェクトの動作可能方向との間の角度に応じて作用量を変える例を説明する図である。It is a figure explaining the example which changes the amount of actions according to the angle between the position change direction of the specific object and the operation possible direction of an operation object by this Embodiment.

以下,本実施の形態について,図を用いて説明する。   Hereinafter, the present embodiment will be described with reference to the drawings.

図1は,本実施の形態による操作制御装置の構成例を示す図である。   FIG. 1 is a diagram illustrating a configuration example of an operation control apparatus according to the present embodiment.

図1に示す操作制御装置10は,ユーザが画面から離れてジェスチャによって画面操作を行う際に,そのユーザのジェスチャ操作を認識し,画面を制御する。ジェスチャとは,3次元空間中で,手や頭などの身体の一部を動かすことを指す。ユーザのジェスチャ操作には,画面上の位置を指示するポインティングの操作や,連続的な操作などがある。連続的な操作としては,例えば,画面に表示された情報のスクロール操作やズーム操作,動画の再生位置の指定操作,連続的なスライドの切り替え操作など,様々な操作がある。   The operation control apparatus 10 shown in FIG. 1 recognizes a user's gesture operation and controls the screen when the user performs a screen operation by a gesture away from the screen. A gesture refers to moving a part of the body such as a hand or head in a three-dimensional space. The user's gesture operation includes a pointing operation for indicating a position on the screen and a continuous operation. Examples of the continuous operation include various operations such as a scroll operation and zoom operation of information displayed on the screen, a designation operation of a moving image reproduction position, and a continuous slide switching operation.

図1に示す操作制御装置10は,連続的な操作に関する制御の実現に関わる機能部として,位置取得部11,距離計算部12,速度計算部13,作用量算出部14,作用部15,情報表示内容計算部16,情報表示部17,情報記憶部18を備える。本実施の形態では,操作制御装置10が備える各機能部は,ソフトウェアで実現されるものとするが,等価な働きをするハードウェアで実現されてもよい。なお,操作制御装置10は,ポインティングの操作に関する制御を実現する機能部も備えているが,図1の例では記載が省略されている。   The operation control apparatus 10 shown in FIG. 1 includes a position acquisition unit 11, a distance calculation unit 12, a speed calculation unit 13, an action amount calculation unit 14, an action unit 15, and information as functional units related to realizing control related to continuous operation. A display content calculation unit 16, an information display unit 17, and an information storage unit 18 are provided. In the present embodiment, each function unit included in the operation control apparatus 10 is realized by software, but may be realized by hardware that performs an equivalent function. The operation control device 10 also includes a functional unit that realizes control related to pointing operation, but is not shown in the example of FIG.

また,操作制御装置10には,位置取得用装置20,表示装置30が接続される。位置取得用装置20は,特定の物体の位置を取得するために使用する装置である。表示装置30は,情報を画面に表示する装置である。   In addition, a position acquisition device 20 and a display device 30 are connected to the operation control device 10. The position acquisition device 20 is a device used to acquire the position of a specific object. The display device 30 is a device that displays information on a screen.

本実施の形態による操作制御装置10の本質部分は,図1に示す操作制御装置10内の主にソフトウェアによって実現される各機能部であり,ハードウェアの機構に関しては特定のものに依存しない。   The essential part of the operation control apparatus 10 according to the present embodiment is each function unit realized mainly by software in the operation control apparatus 10 shown in FIG. 1, and the hardware mechanism does not depend on a specific one.

例えば,位置取得用装置20は,特定の物体の位置として,ジェスチャ操作を行うユーザの身体の一部の位置を得るための情報が取得できるものであればよい。位置取得用装置20としては,例えば,距離センサや単眼カメラ,ステレオカメラなどと,物体トラッキング装置とを組み合わせたものが考えられる。また,位置取得用装置20が,ジャイロセンサ,加速度センサ,超音波などを用いて位置取得が可能な,ユーザが身体に装着する端末機器を含む装置などであってもよい。   For example, the apparatus 20 for position acquisition should just be what can acquire the information for obtaining the position of a part of a user's body who performs gesture operation as a position of a specific object. As the position acquisition device 20, for example, a combination of a distance sensor, a monocular camera, a stereo camera, and an object tracking device can be considered. Further, the position acquisition device 20 may be a device including a terminal device worn by the user on the body, which can acquire the position using a gyro sensor, an acceleration sensor, an ultrasonic wave, or the like.

例えば,表示装置30は,後述する操作オブジェクトを,ユーザが画面で視認できるものであればよい。表示装置30としては,例えば,一般的な市場で入手できる家庭用PC(Personal computer )のモニタや,テレビジョン,プロジェクタ,携帯端末の液晶画面,HMD(Head Mounted Display)などが考えられる。   For example, the display device 30 only needs to allow the user to visually recognize an operation object described later on the screen. As the display device 30, for example, a monitor of a home PC (Personal computer) available in a general market, a television, a projector, a liquid crystal screen of a portable terminal, an HMD (Head Mounted Display), or the like can be considered.

操作制御装置10において,位置取得部11は,特定の物体の位置を取得する。特定の物体は,例えば,ジェスチャ操作を行うユーザの身体の一部や,ジェスチャ操作を行うユーザの身体に装着された位置取得用の端末機器などである。位置取得部11は,位置取得用装置20からの入力情報をもとに,特定の物体の位置の取得を行う。   In the operation control device 10, the position acquisition unit 11 acquires the position of a specific object. The specific object is, for example, a part of the body of the user who performs the gesture operation or a terminal device for position acquisition attached to the body of the user who performs the gesture operation. The position acquisition unit 11 acquires the position of a specific object based on input information from the position acquisition device 20.

距離計算部12は,位置取得部11で取得した位置から,仮想空間内における特定の物体と操作オブジェクトとの間の距離を計算する。本実施の形態において,操作制御装置10は,3次元空間を想定し,特定の物体と操作オブジェクトとの位置関係を把握する。   The distance calculation unit 12 calculates the distance between the specific object and the operation object in the virtual space from the position acquired by the position acquisition unit 11. In the present embodiment, the operation control device 10 assumes a three-dimensional space and grasps the positional relationship between a specific object and an operation object.

操作オブジェクトは,ユーザが表示装置30の画面に表示された操作対象の情報に対して連続的な操作を行いたいときに,ユーザがジェスチャ操作する表示装置30の画面に表示されたオブジェクトである。操作オブジェクトは,ユーザのジェスチャ操作に対して,連続的な動作を行う。操作オブジェクトとしては,板状のスクロールバー等の連続的な平行移動を行うオブジェクトや,車輪や球等の連続的な回転を行うオブジェクトなど,様々なオブジェクトが考えられる。   The operation object is an object displayed on the screen of the display device 30 on which the user performs a gesture operation when the user wants to perform a continuous operation on the operation target information displayed on the screen of the display device 30. The operation object performs a continuous operation in response to the user's gesture operation. As the operation object, various objects such as an object that performs continuous parallel movement such as a plate-like scroll bar and an object that performs continuous rotation such as a wheel and a sphere can be considered.

距離計算部12は,特定の物体の位置を,位置取得部11から取得する。距離計算部12は,操作オブジェクトの位置を,例えば作用部15から取得する。距離計算部12は,特定の物体の位置と操作オブジェクトの位置とから,仮想空間内における特定の物体と操作オブジェクトとの間の距離を計算する。   The distance calculation unit 12 acquires the position of a specific object from the position acquisition unit 11. The distance calculation unit 12 acquires the position of the operation object from, for example, the action unit 15. The distance calculation unit 12 calculates the distance between the specific object and the operation object in the virtual space from the position of the specific object and the position of the operation object.

速度計算部13は,仮想空間内での特定の物体の速さを計算する。速度計算部13は,例えば,特定の物体の位置を位置取得部11から取得すると,そのとき取得された特定の物体の位置と,前のタイミングで取得された特定の物体の位置とから,特定の物体の移動速度を計算する。このとき,速度計算部13が,特定の物体の移動速度に,特定の物体の移動方向も含めた速度ベクトルを求めるようにしてもよい。   The speed calculation unit 13 calculates the speed of a specific object in the virtual space. For example, when the speed calculation unit 13 acquires the position of a specific object from the position acquisition unit 11, the speed calculation unit 13 specifies the specific object from the position of the specific object acquired at that time and the position of the specific object acquired at the previous timing. Calculate the moving speed of the object. At this time, the speed calculator 13 may obtain a speed vector including the moving direction of the specific object in the moving speed of the specific object.

作用量算出部14は,距離計算部12と速度計算部13の計算結果に従って,操作オブジェクトの運動への影響の大きさを定量的に示す作用量を算出する。本実施の形態では,ユーザは,ジェスチャ操作による直感的な操作で,画面上の操作オブジェクトを操作する。作用量算出部14は,ユーザによるジェスチャ操作を表している特定の物体の移動が,操作オブジェクトに対してどのような影響を与えるかを,定量的に求める。本実施の形態において,作用量は,特定の物体の移動が操作オブジェクトの運動に及ぼす影響の大きさを定量的に表したものである。   The action amount calculation unit 14 calculates an action amount that quantitatively indicates the magnitude of the influence on the motion of the operation object according to the calculation results of the distance calculation unit 12 and the speed calculation unit 13. In the present embodiment, the user operates an operation object on the screen by an intuitive operation by a gesture operation. The action amount calculation unit 14 quantitatively determines how the movement of the specific object representing the gesture operation by the user affects the operation object. In the present embodiment, the action amount quantitatively represents the magnitude of the influence of the movement of a specific object on the movement of the operation object.

なお,作用量算出部14が,特定の物体と操作オブジェクトとの間の距離が大きくなるほど,作用量が小さくなるように計算を行ってもよい。また,作用量算出部14が,特定の物体の位置変化方向と操作オブジェクトの動作可能方向との間の角度が大きいほど,作用量を小さくなるように計算を行ってもよい。   The action amount calculation unit 14 may perform calculation so that the action amount decreases as the distance between the specific object and the operation object increases. Further, the action amount calculation unit 14 may perform calculation so that the action amount decreases as the angle between the position change direction of the specific object and the operable direction of the operation object increases.

作用部15は,作用量算出部14の算出結果に従って,操作オブジェクトの運動を制御する。このとき,作用部15が,操作オブジェクトの仮想的な動作に伴う摩擦力を含む式によって表される物理モデルに従って,操作オブジェクトの運動を制御するようにしてもよい。   The action unit 15 controls the movement of the operation object according to the calculation result of the action amount calculation unit 14. At this time, the action unit 15 may control the motion of the operation object according to a physical model represented by an expression including a frictional force accompanying a virtual motion of the operation object.

なお,作用量算出部14が作用量を求める際の計算や,作用部15が操作オブジェクトの運動を求める際の計算などの設計は,任意である。例えば,ユーザが直接に操作オブジェクトに触れて操作することを想定した物理モデルに従った式を理論的に求めて使用するようにしてもよい。また,様々な式を用いた実験の結果から,適切と考えられる式を選んで使用するようにしてもよい。   Designs such as calculation when the action amount calculation unit 14 obtains the action amount and calculation when the action unit 15 obtains the motion of the operation object are arbitrary. For example, an equation according to a physical model assuming that the user directly touches and operates the operation object may be theoretically obtained and used. In addition, an expression considered appropriate may be selected and used from the results of experiments using various expressions.

情報表示内容計算部16は,操作オブジェクトの運動に従って,画面の表示内容を計算する。例えば,操作対象の情報が文書であり,連続的な操作がスクロール操作であり,操作オブジェクトがスクロールバーであるものとする。このとき,情報表示内容計算部16は,スクロールバーの移動量に従って,文書のスクロール量を計算する。例えば,情報表示内容計算部16は,スクロールバーの移動量を定数倍した量を,文書のスクロール量とする。   The information display content calculation unit 16 calculates the display content of the screen according to the movement of the operation object. For example, it is assumed that the operation target information is a document, the continuous operation is a scroll operation, and the operation object is a scroll bar. At this time, the information display content calculation unit 16 calculates the scroll amount of the document according to the movement amount of the scroll bar. For example, the information display content calculation unit 16 sets an amount obtained by multiplying the amount of movement of the scroll bar by a constant as the document scroll amount.

情報表示部17は,情報表示内容計算部16の計算結果に従って,情報を画面に表示する。例えば,上述の文書のスクロールの例において,情報表示部17は,表示装置30の画面に表示された文書について,そのとき表示されている部分から,情報表示内容計算部16で計算されたスクロール量だけスクロールした部分を表示する。   The information display unit 17 displays information on the screen according to the calculation result of the information display content calculation unit 16. For example, in the above-described example of document scrolling, the information display unit 17 calculates the scroll amount calculated by the information display content calculation unit 16 from the currently displayed portion of the document displayed on the screen of the display device 30. Only the scrolled part is displayed.

情報表示部17は,文章,動画,画像,リスト等の情報を,表示装置30の画面に表示する。ここでは,表示装置30の画面に表示する情報は,情報記憶部18に記憶されているものとする。情報記憶部18は,情報を記憶する,コンピュータがアクセス可能な記憶部である。   The information display unit 17 displays information such as text, moving images, images, and lists on the screen of the display device 30. Here, it is assumed that information to be displayed on the screen of the display device 30 is stored in the information storage unit 18. The information storage unit 18 is a storage unit that stores information and is accessible by a computer.

情報表示部17は,表示装置30の画面に操作オブジェクトを表示する。このとき,情報表示部17は,操作オブジェクトを,操作対象の情報に重畳して表示するようにしてもよいし,操作対象の情報の周辺に表示するようにしてもよい。また,情報表示部17は,操作オブジェクトを,常に表示するようにしてもよいし,連続的な操作を行うときにだけ表示するようにしてもよい。   The information display unit 17 displays an operation object on the screen of the display device 30. At this time, the information display unit 17 may display the operation object superimposed on the operation target information, or may display the operation object around the operation target information. Further, the information display unit 17 may display the operation object at all times, or may display it only when continuous operation is performed.

図2は,本実施の形態による操作制御装置を実現するハードウェアの構成例を示す図である。   FIG. 2 is a diagram illustrating a configuration example of hardware for realizing the operation control apparatus according to the present embodiment.

図1に示す本実施の形態の操作制御装置10は,例えば,CPU(Central Processing Unit )2,主記憶となるメモリ3,記憶装置4,通信装置5,媒体読取・書込装置6,入力装置7,出力装置8等を備えるコンピュータ1によって実現される。記憶装置4は,例えばHDD(Hard Disk Drive )などである。媒体読取・書込装置6は,例えばCD−R(Compact Disc Recordable )ドライブやDVD−R(Digital Versatile Disc Recordable )ドライブなどである。入力装置7は,例えばキーボード・マウス等の機器や,カメラ・センサ等の位置取得用装置20などである。出力装置8は,例えばディスプレイ等の表示装置30などである。   1 includes, for example, a central processing unit (CPU) 2, a memory 3 serving as a main memory 3, a storage device 4, a communication device 5, a medium reading / writing device 6, and an input device. 7 and the computer 1 having the output device 8 and the like. The storage device 4 is, for example, an HDD (Hard Disk Drive). The medium reading / writing device 6 is, for example, a CD-R (Compact Disc Recordable) drive or a DVD-R (Digital Versatile Disc Recordable) drive. The input device 7 is, for example, a device such as a keyboard / mouse or a position acquisition device 20 such as a camera / sensor. The output device 8 is, for example, a display device 30 such as a display.

図1に示す操作制御装置10および操作制御装置10が備える各機能部は,コンピュータ1が備えるCPU2,メモリ3等のハードウェアと,ソフトウェアプログラムとによって実現することが可能である。コンピュータ1が実行可能なプログラムは,記憶装置4に記憶され,その実行時にメモリ3に読み出され,CPU2により実行される。   The operation control device 10 and each functional unit included in the operation control device 10 illustrated in FIG. 1 can be realized by hardware such as the CPU 2 and the memory 3 included in the computer 1 and a software program. A program that can be executed by the computer 1 is stored in the storage device 4, read into the memory 3 at the time of execution, and executed by the CPU 2.

コンピュータ1は,可搬型記録媒体から直接プログラムを読み取り,そのプログラムに従った処理を実行することもできる。また,コンピュータ1は,サーバコンピュータからプログラムが転送されるごとに,逐次,受け取ったプログラムに従った処理を実行することもできる。さらに,このプログラムは,コンピュータ1で読み取り可能な記録媒体に記録しておくことができる。   The computer 1 can also read a program directly from a portable recording medium and execute processing according to the program. The computer 1 can also sequentially execute processing according to the received program every time the program is transferred from the server computer. Further, this program can be recorded on a recording medium readable by the computer 1.

以下では,本実施の形態によるユーザのジェスチャ操作に応じた操作制御装置10の処理について,より具体的な例を用いて説明する。   Below, the process of the operation control apparatus 10 according to a user's gesture operation by this Embodiment is demonstrated using a more specific example.

図3は,本実施の形態によるユーザのジェスチャ操作の例を示す図である。   FIG. 3 is a diagram illustrating an example of a user's gesture operation according to the present embodiment.

図3(A)は,ユーザがハンドジェスチャで表示装置30の画面31の操作を行う例を示している。ハンドジェスチャでは,ユーザの手40が特定の物体となり,ユーザの手40の動作がジェスチャ操作となる。以下では,ハンドジェスチャを例として,本実施の形態によるジェスチャ操作の例を説明する。なお,ジェスチャ操作はハンドジェスチャによる操作に限らず,頭などユーザの手40以外の身体部位の動作をジェスチャ操作としてもよい。   FIG. 3A shows an example in which the user operates the screen 31 of the display device 30 with a hand gesture. In the hand gesture, the user's hand 40 is a specific object, and the operation of the user's hand 40 is a gesture operation. Hereinafter, an example of a gesture operation according to the present embodiment will be described using a hand gesture as an example. Note that the gesture operation is not limited to the operation by the hand gesture, and the movement of the body part other than the user's hand 40 such as the head may be the gesture operation.

図3(A)に示す例では,距離センサ等の位置取得用装置20は,表示装置30の上部に設置され,ユーザの手40の位置を取得する。以下では,位置取得用装置20として距離センサ等を用いて,ユーザの手40を直接に認識して位置の取得を行うものとする。なお,ユーザの手40に位置取得用の端末機器を装着し,その端末機器を用いて間接的にユーザの手40の位置の取得を行うようにしてもよい。   In the example shown in FIG. 3A, the position acquisition device 20 such as a distance sensor is installed on the upper part of the display device 30 and acquires the position of the user's hand 40. In the following description, it is assumed that a position sensor or the like is used as the position acquisition device 20 to directly recognize the user's hand 40 and acquire the position. Note that a terminal device for position acquisition may be attached to the user's hand 40, and the position of the user's hand 40 may be indirectly acquired using the terminal device.

なお,図3(A)では,図1に示す操作制御装置10を実現するコンピュータの記載を省略しているが,位置取得用装置20,表示装置30は,図示省略された操作制御装置10を実現するコンピュータに接続されて動作しているものとする。   In FIG. 3A, the description of the computer that realizes the operation control device 10 shown in FIG. 1 is omitted, but the position acquisition device 20 and the display device 30 are not shown in the drawing. It is assumed that it is connected to an operating computer and operating.

図3(A)に示す例において,表示装置30の画面31には,操作対象の情報として,リストビュー70が表示されている。図3(A)に示すリストビュー70では,一度にすべての“item”を画面31に表示することができない。そのため,ユーザは,表示されていない“item”を画面31に表示したい場合には,リストビュー70を上下方向にスクロールする必要がある。   In the example shown in FIG. 3A, a list view 70 is displayed on the screen 31 of the display device 30 as operation target information. In the list view 70 shown in FIG. 3A, all “items” cannot be displayed on the screen 31 at once. Therefore, when the user wants to display “item” that is not displayed on the screen 31, the user needs to scroll the list view 70 in the vertical direction.

図3(A)に示す例において,画面31上のカーソル60は,ユーザの手40によるポインティングの操作でユーザが指示した画面31上の位置を示す。このようなユーザの手40の位置に応じた画面31上のポインティングに関する処理は,ユーザの手40による連続的な操作の有無に関わらず,常時行われている。   In the example shown in FIG. 3A, a cursor 60 on the screen 31 indicates a position on the screen 31 that is instructed by the user by a pointing operation with the user's hand 40. Such processing related to pointing on the screen 31 in accordance with the position of the user's hand 40 is always performed regardless of whether or not the user's hand 40 is continuously operated.

図3(A)に示す例において,操作オブジェクト50は,ユーザにジェスチャ操作でリストビュー70のスクロール操作を行わせるために,画面31に表示された操作オブジェクト50である。図3(A)に示す例では,操作オブジェクト50の動作と,リストビュー70のスクロール動作とが連動している。   In the example shown in FIG. 3A, the operation object 50 is an operation object 50 displayed on the screen 31 in order to cause the user to perform a scroll operation of the list view 70 by a gesture operation. In the example shown in FIG. 3A, the operation of the operation object 50 and the scroll operation of the list view 70 are linked.

図3(B)は,図3(A)の画面31に表示された操作オブジェクト50の動作を示す。図3に示す操作オブジェクト50は,3次元の仮想空間で動作する車輪型の回転体である。図3(B)に示すように,この操作オブジェクト50の動作は,軸を中心とした車輪の回転となる。   FIG. 3B shows the operation of the operation object 50 displayed on the screen 31 of FIG. An operation object 50 shown in FIG. 3 is a wheel-type rotating body that operates in a three-dimensional virtual space. As shown in FIG. 3B, the operation of the operation object 50 is rotation of the wheel about the axis.

図3(A)において,ユーザは,画面31に向かって,操作オブジェクト50を回転させるハンドジェスチャを行う。操作制御装置10は,ユーザの手40の動きを認識し,ユーザの手40の動きに応じて,操作オブジェクト50を回転させる。操作制御装置10は,操作オブジェクト50の回転に対応させて,画面31上のリストビュー70をスクロールする。ユーザは,画面31から離れた場所で,画面31上の車輪型の操作オブジェクト50を回転させるように手40を動かすことで,リストビュー70をスクロールすることができる。   In FIG. 3A, the user performs a hand gesture that rotates the operation object 50 toward the screen 31. The operation control apparatus 10 recognizes the movement of the user's hand 40 and rotates the operation object 50 according to the movement of the user's hand 40. The operation control apparatus 10 scrolls the list view 70 on the screen 31 in accordance with the rotation of the operation object 50. The user can scroll the list view 70 by moving the hand 40 so as to rotate the wheel-type operation object 50 on the screen 31 at a place away from the screen 31.

図4は,本実施の形態による空間座標系の例を示す図である。   FIG. 4 is a diagram illustrating an example of a spatial coordinate system according to the present embodiment.

本実施の形態では,例えば,図4に示すように3次元空間の座標系が設定されるものとする。図4に示す座標系では,画面31の左上隅に原点が設定されている。図4に示す座標系では,画面31の法線方向にz軸が設定されており,z軸は画面31からユーザに向かう方向が正となっている。また,画面31の平面の水平方向にx軸,垂直方向にy軸が設定されている。x軸は,画面31の左上隅の原点から右方向が正となっており,y軸は,画面31の左上隅の原点から下方向が正となっている。   In the present embodiment, for example, a coordinate system in a three-dimensional space is set as shown in FIG. In the coordinate system shown in FIG. 4, the origin is set at the upper left corner of the screen 31. In the coordinate system shown in FIG. 4, the z axis is set in the normal direction of the screen 31, and the z axis is positive in the direction from the screen 31 to the user. In addition, an x axis is set in the horizontal direction on the plane of the screen 31 and a y axis is set in the vertical direction. The x axis is positive in the right direction from the origin at the upper left corner of the screen 31, and the y axis is positive in the downward direction from the origin in the upper left corner of the screen 31.

図4に示す例では,操作オブジェクト50は,画面31の平面上すなわちxy平面上に設定されている。図4に示す例において,ハッチングされた領域が,画面31上の操作オブジェクト50の領域である。   In the example shown in FIG. 4, the operation object 50 is set on the plane of the screen 31, that is, on the xy plane. In the example shown in FIG. 4, the hatched area is the area of the operation object 50 on the screen 31.

操作制御装置10において,位置取得部11は,適宜,ユーザの手40の座標(x1 ,y1 ,z1 )を取得する。 In the operation control device 10, the position acquisition unit 11 acquires the coordinates (x 1 , y 1 , z 1 ) of the user's hand 40 as appropriate.

距離計算部12は,設定された3次元空間において,取得されたユーザの手40の座標(x1 ,y1 ,z1 )と,画面31に表示された操作オブジェクト50の座標(x2 ,y2 ,z2 )とから,ユーザの手40と操作オブジェクト50との間の距離dを計算する。操作オブジェクト50の座標は,例えば,画面31における操作オブジェクト50の表示領域の重心位置の座標である。なお,図4に示す例では,操作オブジェクト50が,xy平面上に設定されているので,z2 =0となる。 Distance calculation unit 12, the three-dimensional space that has been set, acquired user's hand 40 the coordinates (x 1, y 1, z 1) and the coordinates of the operation object 50 displayed on the screen 31 (x 2, The distance d between the user's hand 40 and the operation object 50 is calculated from y 2 , z 2 ). The coordinates of the operation object 50 are, for example, the coordinates of the barycentric position of the display area of the operation object 50 on the screen 31. In the example shown in FIG. 4, since the operation object 50 is set on the xy plane, z 2 = 0.

速度計算部13は,例えば,取得されたユーザの手40の座標と,前のタイミングで取得されたユーザの手40の座標とから,ユーザの手40の移動速度v1 を計算する。取得された2つの座標から得られるユーザの手40の移動距離を,2つの座標の取得時間間隔で割ることにより,ユーザの手40の移動速度v1 が得られる。このとき,速度計算部13が,ユーザの手40の移動速度に,ユーザの手40の移動方向も含めた速度ベクトルを求めてもよい。速度ベクトルは,例えば,取得された2つの座標の差分を,2つの座標の取得時間間隔で割ることにより得られる。 For example, the speed calculation unit 13 calculates the moving speed v 1 of the user's hand 40 from the acquired coordinates of the user's hand 40 and the coordinates of the user's hand 40 acquired at the previous timing. The moving speed v 1 of the user's hand 40 is obtained by dividing the moving distance of the user's hand 40 obtained from the two acquired coordinates by the acquisition time interval of the two coordinates. At this time, the speed calculation unit 13 may obtain a speed vector including the moving direction of the user's hand 40 in the moving speed of the user's hand 40. The velocity vector is obtained, for example, by dividing a difference between two acquired coordinates by an acquisition time interval between the two coordinates.

図5,図6は,本実施の形態によるユーザのジェスチャ操作に応じた操作オブジェクトの動作の一例を説明する図である。   5 and 6 are diagrams for explaining an example of the operation of the operation object according to the user's gesture operation according to the present embodiment.

図5,図6において,ハッチングされた矢印や円は,ユーザの手40の位置を,画面31上にポインティングした軌跡を示している。カーソル60は,画面31上にポインティングされたユーザの手40の位置を示している。なお,図5,図6では省略されているが,画面31には,操作対象の情報として図3(A)に示すリストビュー70が表示されているものとする。   In FIG. 5 and FIG. 6, hatched arrows and circles indicate a locus in which the position of the user's hand 40 is pointed on the screen 31. A cursor 60 indicates the position of the user's hand 40 pointed on the screen 31. Although omitted in FIGS. 5 and 6, it is assumed that the list view 70 shown in FIG. 3A is displayed on the screen 31 as the operation target information.

図5(A)に示す例は,ユーザが,手40を前に出してカーソル60を操作オブジェクト50の車輪に合わせて,垂直下方向に手40を移動させた場合の例である。このとき,操作制御装置10は,ユーザの手40の移動で操作オブジェクト50の車輪の表面に下方向の力が加わったものと判断し,ユーザの手40の移動に合わせて,車輪型の操作オブジェクト50を下に回転させる。例えば,操作制御装置10は,ユーザの手40の移動速度が遅い場合には,車輪型の操作オブジェクト50をゆっくりと回転させ,ユーザの手40の移動速度が速い場合には,車輪型の操作オブジェクト50を速く回転させる。操作制御装置10は,操作オブジェクト50の車輪の回転速度に応じた速さで,リストビュー70を下方向にスクロールする。   The example illustrated in FIG. 5A is an example in which the user moves the hand 40 in the vertical downward direction by moving the hand 40 forward, aligning the cursor 60 with the wheel of the operation object 50. At this time, the operation control device 10 determines that a downward force is applied to the surface of the wheel of the operation object 50 by the movement of the user's hand 40, and the wheel-type operation is performed in accordance with the movement of the user's hand 40. The object 50 is rotated downward. For example, the operation control device 10 slowly rotates the wheel-type operation object 50 when the movement speed of the user's hand 40 is slow, and the wheel-type operation when the movement speed of the user's hand 40 is high. The object 50 is rotated quickly. The operation control device 10 scrolls the list view 70 downward at a speed corresponding to the rotation speed of the wheel of the operation object 50.

図5(B)に示す例は,ユーザが,手40を前に出してカーソル60を操作オブジェクト50の車輪に合わせて,手40を止めた場合の例である。このとき,操作制御装置10は,ユーザの手40が車輪の回転を止める動作を行ったと判断し,車輪型の操作オブジェクト50の回転を止める。操作制御装置10は,操作オブジェクト50の車輪の回転停止に応じて,リストビュー70のスクロールを停止する。   The example shown in FIG. 5B is an example in which the user puts the hand 40 forward, aligns the cursor 60 with the wheel of the operation object 50, and stops the hand 40. At this time, the operation control device 10 determines that the user's hand 40 has performed an operation to stop the rotation of the wheel, and stops the rotation of the wheel-type operation object 50. The operation control device 10 stops scrolling of the list view 70 in response to the stop of the rotation of the wheel of the operation object 50.

なお,本実施の形態の例では,操作オブジェクト50は,ユーザのジェスチャ操作に応じて運動し,停止のジェスチャ操作がなければ,ジェスチャ操作が行われていないときでも,徐々に減速しながら慣性で運動を続けるものとする。ユーザのジェスチャ操作に応じて操作オブジェクト50が運動し,ユーザのジェスチャ操作が終わったときに操作オブジェクト50が停止するように設計がなされてもよい。   In the example of the present embodiment, the operation object 50 moves according to the user's gesture operation, and if there is no stop gesture operation, even if the gesture operation is not performed, the operation object 50 is gradually decelerated and inertial. Continue to exercise. The design may be made such that the operation object 50 moves according to the user's gesture operation, and the operation object 50 stops when the user's gesture operation ends.

図6(A)に示す例は,画面31上でユーザの手40の位置を示すカーソル60が操作オブジェクト50の車輪から外れている状態で,ユーザの手40が垂直下方向に移動した場合の例である。このとき,操作制御装置10は,ユーザのジェスチャ操作が操作オブジェクト50の車輪を回転させる操作ではないと判断する。操作制御装置10は,ユーザの手40の移動に応じてカーソル60を移動するポインティングの処理のみを行い,操作オブジェクトの運動にユーザの手40の動作による影響を加味しない。   In the example shown in FIG. 6A, the cursor 60 indicating the position of the user's hand 40 is off the wheel of the operation object 50 on the screen 31 and the user's hand 40 moves vertically downward. It is an example. At this time, the operation control apparatus 10 determines that the user's gesture operation is not an operation for rotating the wheel of the operation object 50. The operation control apparatus 10 performs only the pointing process of moving the cursor 60 in accordance with the movement of the user's hand 40, and does not consider the influence of the movement of the user's hand 40 on the movement of the operation object.

例えば,操作制御装置10は,画面31上でユーザの手40の位置を示すカーソル60の位置が,画面31内の操作オブジェクト50の領域上にない場合に,ユーザのジェスチャ操作が操作オブジェクト50の車輪を回転させる操作ではないと判定する。このとき,作用量算出部14は,操作オブジェクト50の運動への影響の大きさを定量的に示す作用量を0とする。   For example, when the position of the cursor 60 indicating the position of the user's hand 40 on the screen 31 is not on the area of the operation object 50 on the screen 31, the operation control apparatus 10 performs the user's gesture operation on the operation object 50. It is determined that the operation is not to rotate the wheel. At this time, the action amount calculation unit 14 sets the action amount that quantitatively indicates the magnitude of the influence of the operation object 50 on the motion to zero.

図6(B)に示す例は,ユーザが,手40を画面から所定以上離した状態で,垂直下方向に手40を移動させた場合の例である。このとき,操作制御装置10は,カーソル60が操作オブジェクト50の車輪の位置に合っていても,ユーザのジェスチャ操作が操作オブジェクト50の車輪を回転させる操作ではないと判断する。操作制御装置10は,ユーザの手40の移動に応じてカーソル60を移動するポインティングの処理のみを行い,操作オブジェクト50の運動にユーザの手40の動作による影響を加味しない。   The example shown in FIG. 6B is an example where the user moves the hand 40 vertically downward with the hand 40 away from the screen by a predetermined distance or more. At this time, the operation control device 10 determines that the user's gesture operation is not an operation for rotating the wheel of the operation object 50 even if the cursor 60 is aligned with the position of the wheel of the operation object 50. The operation control apparatus 10 performs only the pointing process of moving the cursor 60 in accordance with the movement of the user's hand 40, and does not add the influence of the movement of the user's hand 40 to the movement of the operation object 50.

例えば,操作制御装置10は,ユーザの手40と操作オブジェクト50との間の距離dが,所定の距離の閾値dth以上である場合に,ユーザのジェスチャ操作が操作オブジェクト50の車輪を回転させる操作ではないと判定する。このとき,作用量算出部14は,操作オブジェクト50の運動への影響の大きさを定量的に示す作用量を0とする。 For example, the operation control device 10 causes the user's gesture operation to rotate the wheel of the operation object 50 when the distance d between the user's hand 40 and the operation object 50 is equal to or greater than a predetermined distance threshold d th . It is determined that it is not an operation. At this time, the action amount calculation unit 14 sets the action amount that quantitatively indicates the magnitude of the influence of the operation object 50 on the motion to zero.

ユーザの手40が操作オブジェクト50から離れ過ぎている場合には,ユーザが操作オブジェクト50への操作を意図していない可能性がある。操作制御装置10は,ユーザの手40などの特定の物体と操作オブジェクト50との間の距離で,ユーザのジェスチャ操作が連続的な操作を伴うものであるか,単なるポインティングの操作であるかを切り分ける。   When the user's hand 40 is too far from the operation object 50, the user may not intend to operate the operation object 50. The operation control device 10 determines whether the user's gesture operation involves a continuous operation or a simple pointing operation at a distance between a specific object such as the user's hand 40 and the operation object 50. Carve out.

図6(C)に示す例は,ユーザが,操作オブジェクト50の動作可能な方向に対して,所定以上の角度で手40を移動させた場合の例である。このとき,操作制御装置10は,カーソル60が操作オブジェクト50の車輪の位置に合っていても,ユーザのジェスチャ操作が操作オブジェクト50の車輪を回転させる操作ではないと判断する。操作制御装置10は,ユーザの手40の移動に応じてカーソル60を移動するポインティングの処理のみを行い,操作オブジェクト50の運動にユーザの手40の動作による影響を加味しない。   The example illustrated in FIG. 6C is an example in which the user moves the hand 40 at an angle greater than or equal to a predetermined angle with respect to the direction in which the operation object 50 can move. At this time, the operation control device 10 determines that the user's gesture operation is not an operation for rotating the wheel of the operation object 50 even if the cursor 60 is aligned with the position of the wheel of the operation object 50. The operation control apparatus 10 performs only the pointing process of moving the cursor 60 in accordance with the movement of the user's hand 40, and does not add the influence of the movement of the user's hand 40 to the movement of the operation object 50.

例えば,図6(C)において,操作オブジェクト50の車輪は,垂直下方向に回転しているものとする。また,操作オブジェクト50の車輪は,動作方向の反対側すなわち垂直上方向に回転可能である。操作制御装置10は,ユーザの手40の移動方向と操作オブジェクト50の動作方向との間の角度|θ|が所定の角度の閾値θth以上,かつ|180°−θ|がθth以上である場合に,ユーザのジェスチャ操作が操作オブジェクト50の車輪を回転させる操作ではないと判定する。このとき,作用量算出部14は,操作オブジェクト50の運動への影響の大きさを定量的に示す作用量を0とする。 For example, in FIG. 6C, it is assumed that the wheel of the operation object 50 is rotating vertically downward. Further, the wheel of the operation object 50 can rotate in the opposite direction of the movement direction, that is, in the vertical upward direction. The operation control apparatus 10 determines that the angle | θ | between the moving direction of the user's hand 40 and the moving direction of the operation object 50 is a predetermined angle threshold θ th or more and | 180 ° −θ | is θ th or more. In some cases, it is determined that the user's gesture operation is not an operation for rotating the wheel of the operation object 50. At this time, the action amount calculation unit 14 sets the action amount that quantitatively indicates the magnitude of the influence of the operation object 50 on the motion to zero.

ユーザの手40の移動方向が操作オブジェクト50の動作可能な方向と大きくずれている場合には,ユーザが操作オブジェクト50への操作を意図していない可能性がある。操作制御装置10は,ユーザの手40などの特定の物体と操作オブジェクト50の動作可能方向との間の角度で,ユーザのジェスチャ操作が連続的な操作を伴うものであるか,単なるポインティングの操作であるかを切り分ける。   If the moving direction of the user's hand 40 is significantly different from the direction in which the operation object 50 can move, the user may not intend to operate the operation object 50. The operation control apparatus 10 is an angle between a specific object such as the user's hand 40 and the operable direction of the operation object 50, and whether the user's gesture operation involves a continuous operation or a simple pointing operation. Carry out whether it is.

図7は,本実施の形態による特定の物体と操作オブジェクトとの位置関係に応じて作用量を変える例を説明する図である。   FIG. 7 is a diagram illustrating an example in which the amount of action is changed according to the positional relationship between a specific object and an operation object according to the present embodiment.

図6(B)の例で説明したように距離の閾値dthで作用量を判定する以外に,特定の物体と操作オブジェクト50との位置関係に応じて,作用量が変わるように設計することも可能である。 As described in the example of FIG. 6B, in addition to determining the action amount based on the distance threshold d th , the action amount is designed to change according to the positional relationship between the specific object and the operation object 50. Is also possible.

図7(A)は,画面31上で,ユーザの手40の位置を示すカーソル60が,車輪型の操作オブジェクト50の中心から離れているほど,操作オブジェクト50に対するユーザの手40の影響量が小さくなる例を示している。また,図7(B)は,3次元の空間において,ユーザの手40の位置が,車輪型の操作オブジェクト50の中心から離れているほど,操作オブジェクト50に対するユーザの手40の影響量が小さくなる例を示している。   FIG. 7A shows that, as the cursor 60 indicating the position of the user's hand 40 is further away from the center of the wheel-type operation object 50 on the screen 31, the influence amount of the user's hand 40 on the operation object 50 is larger. The example which becomes small is shown. FIG. 7B shows that the influence of the user's hand 40 on the operation object 50 is smaller as the position of the user's hand 40 is farther from the center of the wheel-type operation object 50 in the three-dimensional space. An example is shown.

図7に示すように,特定の物体と操作オブジェクト50との位置関係に応じて,ユーザのジェスチャ操作が操作オブジェクト50の回転運動に及ぼす影響量を変化させることも可能である。以下では,所定の分布関数を用いて,ユーザの手40と車輪型の操作オブジェクト50との位置関係に応じた作用量を求め,操作オブジェクト50の回転運動を制御する例を説明する。   As shown in FIG. 7, it is possible to change the amount of influence that the user's gesture operation has on the rotational motion of the operation object 50 in accordance with the positional relationship between the specific object and the operation object 50. Below, the example which calculates | requires the amount of action according to the positional relationship of a user's hand 40 and the wheel-type operation object 50 using a predetermined distribution function, and controls the rotational motion of the operation object 50 is demonstrated.

操作制御装置10において,作用部15は,例えば,車輪型の操作オブジェクト50の回転運動を,次の式(1)に従って制御するものとする。   In the operation control apparatus 10, the action part 15 shall control the rotational motion of the wheel-type operation object 50, for example according to following Formula (1).

2 =k(x3 ,y3 ,z3 )・((1/r)・v1y−v2 )−cv2
・・・(1)
式(1)において,a2 は,操作オブジェクト50の回転の角加速度である。v2 は,操作オブジェクト50の動作速度,すなわち回転体の例では操作オブジェクト50の回転の角速度である。v1yは,ユーザの手40のy軸方向の移動速度である。rは,回転の半径を示す定数である。cは,定数である。k(x3 ,y3 ,z3 )は,操作オブジェクト50の位置に対するユーザの手40の相対位置(x3 ,y3 ,z3 )が,操作オブジェクト50の回転運動に及ぼす影響の大きさを示す作用量である。
a 2 = k (x 3 , y 3 , z 3 ) · ((1 / r) · v 1y −v 2 ) −cv 2
... (1)
In Equation (1), a 2 is the angular acceleration of the rotation of the operation object 50. v 2 is an operation speed of the operation object 50, that is, an angular speed of rotation of the operation object 50 in the example of the rotating body. v 1y is the moving speed of the user's hand 40 in the y-axis direction. r is a constant indicating the radius of rotation. c is a constant. k (x 3 , y 3 , z 3 ) is the magnitude of the influence of the relative position (x 3 , y 3 , z 3 ) of the user's hand 40 with respect to the position of the operation object 50 on the rotational motion of the operation object 50. Is the amount of action.

式(1)を用いた制御では,作用部15は,ユーザの手40の位置とy軸方向の移動速度とに応じて操作オブジェクト50の回転運動を変化させ,ユーザのジェスチャ操作がない場合には,操作オブジェクト50の回転運動を徐々に減衰させる。   In the control using Expression (1), the action unit 15 changes the rotational motion of the operation object 50 according to the position of the user's hand 40 and the moving speed in the y-axis direction, and when there is no user gesture operation. Gradually attenuates the rotational motion of the operation object 50.

作用量算出部14は,例えば,次の式(2)から,k(x3 ,y3 ,z3 )を算出する。 The action amount calculation unit 14 calculates k (x 3 , y 3 , z 3 ) from the following equation (2), for example.

k(x3 ,y3 ,z3 )=k0 ・exp{−(1/2)
・(x3 2 /p2 +y3 2 /q2 +z3 2 /s2 )} ・・・(2)
式(2)において,(x3 ,y3 ,z3 )は,操作オブジェクト50の位置(x2 ,y2 ,z2 )に対するユーザの手40の位置(x1 ,y1 ,z1 )の相対位置を示している。すなわち,x3 =x1 −x2 ,y3 =y1 −y2 ,z3 =z1 −z2 となる。k0 ,p,q,sは,定数である。
k (x 3 , y 3 , z 3 ) = k 0 · exp {− (1/2)
(X 3 2 / p 2 + y 3 2 / q 2 + z 3 2 / s 2 )} (2)
In Expression (2), (x 3 , y 3 , z 3 ) is the position (x 1 , y 1 , z 1 ) of the user's hand 40 with respect to the position (x 2 , y 2 , z 2 ) of the operation object 50. The relative position of is shown. That is, x 3 = x 1 −x 2 , y 3 = y 1 −y 2 , and z 3 = z 1 −z 2 . k 0 , p, q, and s are constants.

なお,式(1),式(2)において,定数は,理論的に決定してもよいし,実験的に決定してもよい。例えば,式(2)において,各定数k0 ,p,q,sの値を変更しながら,ジェスチャ操作で操作オブジェクト50を回転させる実験を行い,最も直感的な操作ができたと考えられる定数の組合せを採用するようにしてもよい。 In Equations (1) and (2), the constant may be determined theoretically or experimentally. For example, in the equation (2), an experiment is performed in which the operation object 50 is rotated by a gesture operation while changing the values of the constants k 0 , p, q, and s. A combination may be adopted.

このように,ユーザの手40と車輪型の操作オブジェクト50との位置関係に応じて,操作オブジェクト50の回転運動に与える影響の大きさを変えることで,ユーザの誤操作の影響を,少なくすることが可能となる。例えば,ユーザの手40の位置を示すカーソル60が,回転体の操作オブジェクト50の中心から離れているほど,ユーザのジェスチャ操作が,操作オブジェクト50に対する操作でない可能性が高いものと推定できる。また,3次元の空間において,ユーザの手40の位置が回転体の操作オブジェクト50の中心から離れているほど,ユーザのジェスチャ操作が,操作オブジェクト50に対する操作でない可能性が高いものと推定できる。   In this way, by changing the magnitude of the influence on the rotational motion of the operation object 50 according to the positional relationship between the user's hand 40 and the wheel-type operation object 50, the influence of the user's erroneous operation is reduced. Is possible. For example, it can be estimated that the more the cursor 60 indicating the position of the user's hand 40 is away from the center of the operation object 50 of the rotating body, the higher the possibility that the user's gesture operation is not an operation on the operation object 50. Further, it can be estimated that the user's gesture operation is not likely to be an operation on the operation object 50 as the position of the user's hand 40 is further away from the center of the operation object 50 of the rotating body in the three-dimensional space.

また,ユーザの手40と車輪型の操作オブジェクト50との位置関係に応じて,操作オブジェクト50の回転運動に与える影響の大きさを変えることで,ユーザが操作オブジェクトの回転速度を調整しやすくなる。例えば,操作オブジェクト50を速く回転させたいときには,画面31上の操作オブジェクト50に手40を近づけて操作を行い,操作オブジェクト50をゆっくりと回転させたいときには,画面31上の操作オブジェクト50から手40を離して操作を行う,といった調整が可能となる。   Further, by changing the magnitude of the influence on the rotational motion of the operation object 50 according to the positional relationship between the user's hand 40 and the wheel-type operation object 50, the user can easily adjust the rotation speed of the operation object. . For example, when it is desired to rotate the operation object 50 quickly, an operation is performed with the hand 40 approaching the operation object 50 on the screen 31, and when the operation object 50 is desired to be rotated slowly, the operation object 50 on the screen 31 is moved from the hand 40. It is possible to make adjustments such as releasing the operation.

図8は,本実施の形態の操作制御装置による操作オブジェクト制御処理フローチャートである。   FIG. 8 is a flowchart of an operation object control process performed by the operation control apparatus of this embodiment.

図8に示すフローチャートは,ユーザによるジェスチャ操作の認識から,ユーザによるジェスチャ操作の影響を含めた操作オブジェクトの運動の制御までの処理の一例を示している。   The flowchart shown in FIG. 8 shows an example of processing from recognition of the gesture operation by the user to control of the motion of the operation object including the influence of the gesture operation by the user.

位置取得部11は,ユーザの手40の位置を取得する(ステップS10)。作用量算出部14は,画面31上でユーザの手40の位置をポイントしたカーソル60が操作オブジェクト50の領域内にあるかを判定する(ステップS11)。   The position acquisition unit 11 acquires the position of the user's hand 40 (step S10). The action amount calculation unit 14 determines whether or not the cursor 60 pointing the position of the user's hand 40 on the screen 31 is within the region of the operation object 50 (step S11).

カーソル60が操作オブジェクト50の領域内になければ(ステップS11のNO),作用量算出部14は,作用量を0とする(ステップS18)。操作制御装置10は,ユーザの手40が画面31上の操作オブジェクト50を指し示していない場合には,ユーザのジェスチャ操作が操作オブジェクト50に対する操作ではないとする。   If the cursor 60 is not within the region of the operation object 50 (NO in step S11), the action amount calculation unit 14 sets the action amount to 0 (step S18). The operation control apparatus 10 assumes that the user's gesture operation is not an operation on the operation object 50 when the user's hand 40 does not point to the operation object 50 on the screen 31.

カーソル60が操作オブジェクト50の領域内にあれば(ステップS11のYES),距離計算部12は,ユーザの手40と操作オブジェクト50との間の距離dを計算する(ステップS12)。作用量算出部14は,距離dが所定の距離の閾値dth未満であるかを判定する(ステップS13)。 If the cursor 60 is within the region of the operation object 50 (YES in step S11), the distance calculation unit 12 calculates the distance d between the user's hand 40 and the operation object 50 (step S12). The action amount calculation unit 14 determines whether the distance d is less than a predetermined distance threshold d th (step S13).

距離dが所定の距離の閾値dth未満でなければ(ステップS13のNO),作用量算出部14は,作用量を0とする(ステップS18)。操作制御装置10は,ユーザの手40と操作オブジェクト50との間の距離が離れすぎている場合には,ユーザのジェスチャ操作が操作オブジェクト50に対する操作ではないとする。 If the distance d is not less than the predetermined distance threshold d th (NO in step S13), the action amount calculation unit 14 sets the action amount to 0 (step S18). The operation control device 10 assumes that the user's gesture operation is not an operation on the operation object 50 when the distance between the user's hand 40 and the operation object 50 is too large.

ユーザの手40と操作オブジェクト50との間の距離dが所定の距離の閾値dth未満であれば(ステップS13のYES),速度計算部13は,ユーザの手40の移動速度v1 を計算する(ステップS14)。ここでは,速度計算部13は,ユーザの手40の移動速度v1 とともに,ユーザの手40の移動方向も求めるものとする。 If the distance d between the user's hand 40 and the operation object 50 is less than the predetermined distance threshold d th (YES in step S13), the speed calculation unit 13 calculates the moving speed v 1 of the user's hand 40. (Step S14). Here, it is assumed that the speed calculation unit 13 obtains the moving direction of the user's hand 40 as well as the moving speed v 1 of the user's hand 40.

作用量算出部14は,ユーザの手40の移動方向と操作オブジェクト50の動作方向との間の角度θを計算する(ステップS15)。作用量算出部14は,角度θまたは角度180°−θが所定の角度の閾値θth未満であるかを判定する(ステップS16)。 The action amount calculation unit 14 calculates an angle θ between the moving direction of the user's hand 40 and the moving direction of the operation object 50 (step S15). The action amount calculation unit 14 determines whether the angle θ or the angle 180 ° −θ is less than a predetermined angle threshold θ th (step S16).

角度θまたは角度180°−θが所定の角度の閾値θth未満でなければ(ステップS16のNO),作用量算出部14は,作用量を0とする(ステップS18)。操作制御装置10は,ユーザの手40の移動方向と操作オブジェクト50の動作可能方向との間の角度が大き過ぎる場合には,ユーザのジェスチャ操作が操作オブジェクト50に対する操作ではないとする。 If the angle θ or the angle 180 ° −θ is not less than the predetermined angle threshold θ th (NO in step S16), the action amount calculation unit 14 sets the action amount to 0 (step S18). The operation control apparatus 10 assumes that the user's gesture operation is not an operation on the operation object 50 when the angle between the moving direction of the user's hand 40 and the operable direction of the operation object 50 is too large.

角度θまたは角度180°−θが所定の角度の閾値θth未満であれば(ステップS16のYES),作用量算出部14は,ユーザの手40の移動速度v1 が所定の最小速度vmin と所定の最大速度vmax との間の値であるかを判定する(ステップS17)。 If the angle θ or the angle 180 ° −θ is less than the predetermined angle threshold θ th (YES in step S16), the action amount calculating unit 14 determines that the moving speed v 1 of the user's hand 40 is the predetermined minimum speed v min. And a predetermined maximum speed v max is determined (step S17).

ユーザの手40の移動速度v1 が所定の最小速度vmin と所定の最大速度vmax との間の値でなければ(ステップS17のNO),作用量算出部14は,作用量を0とする(ステップS18)。操作制御装置10は,ユーザの手40の移動速度が極端に遅い場合には,ユーザのジェスチャ操作が操作オブジェクト50に対する操作ではないとする。また,操作制御装置10は,ユーザの手40の移動速度が極端に速い場合には,ユーザのジェスチャ操作が操作オブジェクト50に対する操作ではないとする。なお,ユーザの手40の移動速度が極端に遅い場合に,図5(B)に示すように,ユーザのジェスチャ操作が操作オブジェクト50の停止操作であると判断するようにしてもよい。 If the moving speed v 1 of the user's hand 40 is not a value between the predetermined minimum speed v min and the predetermined maximum speed v max (NO in step S17), the action amount calculation unit 14 sets the action amount to 0. (Step S18). The operation control apparatus 10 assumes that the user's gesture operation is not an operation on the operation object 50 when the moving speed of the user's hand 40 is extremely slow. Further, the operation control apparatus 10 assumes that the user's gesture operation is not an operation on the operation object 50 when the moving speed of the user's hand 40 is extremely high. When the moving speed of the user's hand 40 is extremely slow, it may be determined that the user's gesture operation is a stop operation of the operation object 50 as shown in FIG.

ユーザの手40の移動速度v1 が所定の最小速度vmin と所定の最大速度vmax との間の値であれば(ステップS17のYES),作用量算出部14は,作用量を算出する(ステップS19)。ここでは,作用量算出部14は,例えば上記の式(2)によって,作用量を算出する。 If the value (YES in step S17), the action amount calculating section 14 between the moving velocity v 1 is a predetermined minimum speed v min and a predetermined maximum velocity v max of the user's hand 40 calculates the amount of action (Step S19). Here, the action amount calculation unit 14 calculates the action amount by, for example, the above equation (2).

作用部15は,操作オブジェクト50の運動を制御する(ステップS20)。このとき,作用部15は,作用量算出部14により求められた作用量を用いて,例えば上記の式(1)によって,操作オブジェクト50の運動を制御する。   The action unit 15 controls the movement of the operation object 50 (step S20). At this time, the action unit 15 uses the action amount obtained by the action amount calculation unit 14 to control the movement of the operation object 50 by, for example, the above equation (1).

操作制御装置10は,ステップS10に戻って,次に取得されるユーザの手40の位置の処理に移る。   The operation control apparatus 10 returns to step S10 and moves to processing of the position of the user's hand 40 acquired next.

図9は,本実施の形態の操作制御装置による画面制御処理フローチャートである。   FIG. 9 is a flowchart of a screen control process performed by the operation control apparatus according to the present embodiment.

図9に示すフローチャートは,操作オブジェクト50の運動に応じて画面31上の操作対象の情報を更新する制御までの処理の一例を示している。   The flowchart shown in FIG. 9 shows an example of processing up to the control for updating the operation target information on the screen 31 according to the movement of the operation object 50.

情報表示内容計算部16は,操作オブジェクト50が動いているか否かを監視する(ステップS30)。   The information display content calculation unit 16 monitors whether or not the operation object 50 is moving (step S30).

操作オブジェクト50が動いている場合には(ステップS30のYES),情報表示内容計算部16は,操作オブジェクト50の運動に従って,画面31の表示内容を計算する(ステップS31)。例えば,情報表示内容計算部16は,車輪型の操作オブジェクト50の回転速度に応じたリストビュー70のスクロール量を計算する。   When the operation object 50 is moving (YES in step S30), the information display content calculation unit 16 calculates the display content of the screen 31 according to the motion of the operation object 50 (step S31). For example, the information display content calculation unit 16 calculates the scroll amount of the list view 70 according to the rotation speed of the wheel-type operation object 50.

情報表示部17は,情報表示内容計算部16の計算結果に従って,表示装置30が画面31の表示内容を更新する(ステップS32)。例えば,情報表示部17は,情報表示内容計算部16により求められたスクロール量だけ,表示装置30の画面31に表示されたリストビュー70をスクロールする。   In the information display unit 17, the display device 30 updates the display content of the screen 31 according to the calculation result of the information display content calculation unit 16 (step S32). For example, the information display unit 17 scrolls the list view 70 displayed on the screen 31 of the display device 30 by the scroll amount obtained by the information display content calculation unit 16.

操作制御装置10は,ステップS30〜ステップS32に示す,操作オブジェクト50の運動に従った画面31上の操作対象の情報の更新を繰り返す。   The operation control apparatus 10 repeats the update of the information on the operation target on the screen 31 according to the movement of the operation object 50 shown in steps S30 to S32.

ここまでは,主に車輪型の回転体の操作オブジェクト50の例について説明した。操作オブジェクト50は,車輪型の回転体の操作オブジェクト50に限らない。以下では,平行移動する板状の操作オブジェクト50の例を説明する。   So far, the example of the operation object 50 of the wheel type rotating body has been mainly described. The operation object 50 is not limited to the wheel-type rotating object. Below, the example of the plate-shaped operation object 50 which moves in parallel is demonstrated.

図10は,本実施の形態によるユーザのジェスチャ操作の例を示す図である。   FIG. 10 is a diagram illustrating an example of a user's gesture operation according to the present embodiment.

図10(A)は,図3(A)と同様に,ユーザがハンドジェスチャで表示装置30の画面31の操作を行う例を示している。図10(A)に示すように,距離センサ等の位置取得用装置20が表示装置30の上部に設置され,ユーザの手40の位置が取得される。図10(A)に示す例において,画面31上のカーソル60は,ユーザの手40によるポインティングの操作でユーザが指示した画面31上の位置を示す。なお,図10(A)では,図1に示す操作制御装置10を実現するコンピュータの記載を省略しているが,位置取得用装置20,表示装置30は,図示省略された操作制御装置10を実現するコンピュータに接続されて動作しているものとする。   FIG. 10A shows an example in which the user operates the screen 31 of the display device 30 with a hand gesture, as in FIG. As shown in FIG. 10A, a position acquisition device 20 such as a distance sensor is installed on the upper portion of the display device 30, and the position of the user's hand 40 is acquired. In the example shown in FIG. 10A, a cursor 60 on the screen 31 indicates a position on the screen 31 that is instructed by the user through a pointing operation with the user's hand 40. In FIG. 10A, the description of the computer that implements the operation control device 10 shown in FIG. 1 is omitted. However, the position acquisition device 20 and the display device 30 include the operation control device 10 that is not shown. It is assumed that it is connected to an operating computer and operating.

図10(A)に示す例において,表示装置30の画面31には,操作対象の情報として,写真画像を並べたアルバム71が表示されている。図10(A)に示すアルバム71では,一度にすべての画像を画面31に表示することができない。そのため,ユーザは,表示されていない画像を画面31に表示したい場合には,アルバム71を左右方向にスクロールする必要がある。   In the example shown in FIG. 10A, an album 71 in which photographic images are arranged is displayed on the screen 31 of the display device 30 as operation target information. In the album 71 shown in FIG. 10A, all images cannot be displayed on the screen 31 at once. Therefore, when the user wants to display an image that is not displayed on the screen 31, the user needs to scroll the album 71 in the left-right direction.

図10(A)に示す例において,操作オブジェクト50は,ユーザにジェスチャ操作でアルバム71のスクロール操作を行わせるために,画面31に表示された操作オブジェクト50である。図10(A)に示す例では,操作オブジェクト50の動作と,アルバム71のスクロール動作とが連動している。   In the example shown in FIG. 10A, the operation object 50 is an operation object 50 displayed on the screen 31 in order to cause the user to perform a scroll operation of the album 71 by a gesture operation. In the example shown in FIG. 10A, the operation of the operation object 50 and the scroll operation of the album 71 are linked.

図10(B)は,図10(A)の画面31に表示された操作オブジェクト50の動作を示す。図10に示す操作オブジェクト50は,3次元の仮想空間で動作する板状の移動体である。図10(B)に示すように,この操作オブジェクト50の動作は,x軸方向の平行移動となる。   FIG. 10B shows the operation of the operation object 50 displayed on the screen 31 of FIG. An operation object 50 shown in FIG. 10 is a plate-like moving body that operates in a three-dimensional virtual space. As shown in FIG. 10B, the operation object 50 moves in parallel in the x-axis direction.

図10(A)において,ユーザは,画面31に向かって,操作オブジェクト50を平行移動させるハンドジェスチャを行う。操作制御装置10は,ユーザの手40の動きを認識し,ユーザの手40の動きに応じて,操作オブジェクト50を平行移動させる。操作制御装置10は,操作オブジェクト50の平行移動に対応させて,画面31上のアルバム71をスクロールする。ユーザは,画面31から離れた場所で,画面31上の板状の操作オブジェクト50を平行移動させるように手40を動かすことで,アルバム71をスクロールすることができる。   In FIG. 10A, the user performs a hand gesture that translates the operation object 50 toward the screen 31. The operation control device 10 recognizes the movement of the user's hand 40 and translates the operation object 50 according to the movement of the user's hand 40. The operation control apparatus 10 scrolls the album 71 on the screen 31 in accordance with the parallel movement of the operation object 50. The user can scroll the album 71 by moving the hand 40 so as to translate the plate-like operation object 50 on the screen 31 at a location away from the screen 31.

ユーザのジェスチャ操作が板状の操作オブジェクト50に与える影響の大きさを示す作用量を求め,操作オブジェクト50の平行移動を制御する例を説明する。   An example in which the amount of action indicating the magnitude of the influence of the user's gesture operation on the plate-like operation object 50 is obtained and the parallel movement of the operation object 50 is controlled will be described.

図11は,操作オブジェクトの運動を摩擦力を考慮した物理モデルから求める例を説明する図である。   FIG. 11 is a diagram for explaining an example in which the motion of the operation object is obtained from a physical model considering the frictional force.

図11に示す物理モデルにおいて,物体α81は,ユーザの手40を表すモデルであり,物体β82は,板状の操作オブジェクト50を表すモデルである。ここでは,図11に示すような,物体α81の移動の影響を受けて物体β82が平面83上を移動する物理モデルに基づいて,作用部15が操作オブジェクト50の運動を制御する例を説明する。   In the physical model shown in FIG. 11, the object α81 is a model representing the user's hand 40, and the object β82 is a model representing the plate-like operation object 50. Here, an example will be described in which the action unit 15 controls the movement of the operation object 50 based on a physical model in which the object β 82 moves on the plane 83 under the influence of the movement of the object α 81 as shown in FIG. .

図11に示す物理モデルにおいて,m1 は物体α81の重さを示し,m2 は物体β82の重さを示す。gは,重力を示す。k1 は,物体α81と物体β82との間の摩擦を示す。k2 は,物体β82と平面83との間の摩擦を示す。 In the physical model shown in FIG. 11, m 1 represents the weight of the object α81, and m 2 represents the weight of the object β82. g represents gravity. k 1 indicates the friction between the object α81 and the object β82. k 2 represents the friction between the object β 82 and the plane 83.

図11に示すような物理モデルに基づく制御では,作用部15は,例えば,板状の操作オブジェクト50の平行移動を,次の式(3)に従って制御するものとする。   In the control based on the physical model as shown in FIG. 11, for example, the action unit 15 controls the parallel movement of the plate-like operation object 50 according to the following expression (3).

2 =(1/m2 ){k1 ・g・m1 ・(v1x−v2
−k2 ・g・(m1 +m2 )v2 } ・・・(3) 式(3)において,a2 は,操作オブジェクト50の平行移動加速度である。v2 は,操作オブジェクト50の平行移動速度である。v1xは,ユーザの手40のx軸方向の移動速度である。g,m1 ,m2 ,k2 は,定数となる。
a 2 = (1 / m 2 ) {k 1 · g · m 1 · (v 1x -v 2 )
-K 2 · g · (m 1 + m 2 ) v 2 } (3) In equation (3), a 2 is the translational acceleration of the operation object 50. v 2 is the parallel movement speed of the operation object 50. v 1x is the moving speed of the user's hand 40 in the x-axis direction. g, m 1 , m 2 , and k 2 are constants.

ここで,操作制御装置10は,図7(B)に示す車輪型の操作オブジェクト50の例と同様に,ユーザの手40と操作オブジェクト50との位置関係に応じて,ユーザのジェスチャ操作が操作オブジェクト50の平行移動の運動に及ぼす影響量を,変化させるものとする。式(3)において,k1 が,操作オブジェクト50の位置に対するユーザの手40の相対位置が,操作オブジェクト50の平行移動の運動に及ぼす影響の大きさを示す作用量であるとする。なお,この例では,y軸方向の位置関係の影響はないものとする。 Here, similarly to the example of the wheel-type operation object 50 shown in FIG. 7B, the operation control device 10 performs the user's gesture operation according to the positional relationship between the user's hand 40 and the operation object 50. It is assumed that the amount of influence on the translational movement of the object 50 is changed. In equation (3), k 1 is an action amount indicating the magnitude of the influence of the relative position of the user's hand 40 with respect to the position of the operation object 50 on the translation movement of the operation object 50. In this example, it is assumed that there is no influence of the positional relationship in the y-axis direction.

このとき,式(3)を用いた制御は,ユーザの手40の位置とx軸方向の移動速度とに応じて操作オブジェクト50の平行移動の運動を変化させ,ユーザのジェスチャ操作がない場合には,操作オブジェクト50の平行移動の運動を徐々に減衰させる制御となる。   At this time, the control using the expression (3) is performed when the movement motion of the operation object 50 is changed according to the position of the user's hand 40 and the moving speed in the x-axis direction, and there is no user gesture operation. Is a control that gradually attenuates the translational movement of the operation object 50.

作用量算出部14は,例えば,次の式(4)から,k1 を算出する。 The action amount calculation unit 14 calculates k 1 from the following equation (4), for example.

1 =k0 ・exp{−(1/2)・(x3 2 /p2 +z3 2 /q2 )}
・・・(4)
式(4)において,(x3 ,z3 )は,y軸方向を除く操作オブジェクト50の位置(x2 ,z2 )に対するユーザの手40の位置(x1 ,z1 )の相対位置を示している。すなわち,x3 =x1 −x2 ,z3 =z1 −z2 となる。k0 ,p,qは,定数である。
k 1 = k 0 · exp {− (½) · (x 3 2 / p 2 + z 3 2 / q 2 )}
... (4)
In Expression (4), (x 3 , z 3 ) represents the relative position of the position (x 1 , z 1 ) of the user's hand 40 with respect to the position (x 2 , z 2 ) of the operation object 50 excluding the y-axis direction. Show. That is, x 3 = x 1 −x 2 and z 3 = z 1 −z 2 . k 0 , p, and q are constants.

なお,式(3),式(4)において,定数は,理論的に決定してもよいし,実験的に決定してもよい。例えば,式(4)において,各定数k0 ,p,qの値を変更しながら,ジェスチャ操作で操作オブジェクト50を平行移動させる実験を行い,最も直感的な操作ができたと考えられる定数の組合せを採用するようにしてもよい。 In Equations (3) and (4), the constant may be determined theoretically or experimentally. For example, in equation (4), an experiment is performed in which the operation object 50 is translated by a gesture operation while changing the values of the constants k 0 , p, and q. May be adopted.

なお,図5,図6に示すユーザのジェスチャ操作に応じた操作オブジェクトの動作の例については,平行移動する板状の操作オブジェクト50の場合でも,同様であるものとする。   The example of the operation object operation according to the user's gesture operation shown in FIGS. 5 and 6 is the same for the plate-like operation object 50 that moves in parallel.

このように,操作オブジェクト50の仮想的な動作に伴う摩擦力を考慮した物理モデルに従って操作オブジェクト50の運動を制御することにより,ユーザは,実際に操作オブジェクト50を手40で動かす感覚で,ジェスチャ操作を行うことができる。   In this way, by controlling the motion of the operation object 50 according to the physical model considering the frictional force accompanying the virtual motion of the operation object 50, the user can feel the gesture of actually moving the operation object 50 with the hand 40. The operation can be performed.

図12は,本実施の形態による特定の物体の位置変化方向と操作オブジェクトの動作可能方向との間の角度に応じて作用量を変える例を説明する図である。   FIG. 12 is a diagram for explaining an example in which the amount of action is changed according to the angle between the position change direction of the specific object and the operable direction of the operation object according to the present embodiment.

図6(C)の例で説明したように角度の閾値θthで作用量を判定する以外に,特定の物体の位置変化方向と操作オブジェクトの動作可能方向との間の角度に応じて,作用量が変わるように設計することも可能である。 As described in the example of FIG. 6C, in addition to determining the amount of action based on the angle threshold θ th , the action depends on the angle between the position change direction of the specific object and the operable direction of the operation object. It is also possible to design the amount to change.

図12は,ユーザの手40の移動方向と,x軸と平行に動作する板状の操作オブジェクト50の動作可能方向との間の角度θが大きくなるほど,操作オブジェクト50に対するユーザの手40の影響量が小さくなる例を示している。図12において,手の速度ベクトルは,画面31に投影したユーザの手40の速度ベクトルを示している。   FIG. 12 shows the influence of the user's hand 40 on the operation object 50 as the angle θ between the moving direction of the user's hand 40 and the operable direction of the plate-like operation object 50 that moves parallel to the x-axis increases. An example in which the amount is small is shown. In FIG. 12, the hand velocity vector indicates the velocity vector of the user's hand 40 projected on the screen 31.

図12に示すように,特定の物体の移動方向と操作オブジェクト50の動作可能方向との間の角度θに応じて,ユーザのジェスチャ操作が操作オブジェクト50の運動に及ぼす影響量を変化させることも可能である。以下では,所定の分布関数を用いて,ユーザの手40の移動方向と板状の操作オブジェクト50の動作可能方向との間の角度θに応じた作用量を求め,操作オブジェクト50の平行移動の運動を制御する例を説明する。   As illustrated in FIG. 12, the influence amount of the user's gesture operation on the motion of the operation object 50 may be changed according to the angle θ between the moving direction of the specific object and the operable direction of the operation object 50. Is possible. In the following, using a predetermined distribution function, the amount of action corresponding to the angle θ between the moving direction of the user's hand 40 and the operable direction of the plate-like operation object 50 is obtained, and the parallel movement of the operation object 50 is determined. An example of controlling exercise will be described.

操作制御装置10において,作用部15は,例えば,板状の操作オブジェクト50の平行移動の運動を,図11に示す摩擦力を考慮した物理モデルに基づいた上記の式(3)に従って制御するものとする。上記の式(3)では,k1 が,ユーザの手40の移動方向と板状の操作オブジェクト50の動作可能方向との間の角度θが,操作オブジェクト50の平行移動の運動に及ぼす影響の大きさを示す作用量となる。 In the operation control apparatus 10, the action unit 15 controls, for example, the movement of the parallel movement of the plate-like operation object 50 in accordance with the above equation (3) based on the physical model considering the frictional force shown in FIG. And In the above equation (3), the influence of k 1 on the translational movement of the operation object 50 is determined by the angle θ between the movement direction of the user's hand 40 and the operable direction of the plate-like operation object 50. The amount of action indicating the size.

作用量算出部14は,例えば,次の式(5)から,k1 を算出する。 The action amount calculation unit 14 calculates k 1 from the following equation (5), for example.

|θ|<θthのとき:
1 =k0 ・exp{−(1/2)・(sin2 θ/c2 )}
|θ|≧θthのとき:
1 =0 ・・・(5)
式(5)において,角度θは,−π/2<θ<π/2である。k0 ,cは,定数である。式(5)において,定数は,理論的に決定してもよいし,実験的に決定してもよい。
When | θ | <θ th :
k 1 = k 0 · exp {− (½) · (sin 2 θ / c 2 )}
When | θ | ≧ θ th :
k 1 = 0 (5)
In the equation (5), the angle θ is −π / 2 <θ <π / 2. k 0 and c are constants. In equation (5), the constant may be determined theoretically or experimentally.

このように,ユーザの手40の移動方向と操作オブジェクト50の動作可能方向との間の角度に応じて,操作オブジェクト50の平行移動の運動に与える影響の大きさを変えることで,ユーザの誤操作の影響を,少なくすることが可能となる。例えば,ユーザの手40の移動方向と操作オブジェクト50の動作可能方向との間の角度が大きいほど,ユーザのジェスチャ操作が,操作オブジェクト50に対する操作でない可能性が高いものと推定できる。   In this way, by changing the magnitude of the influence on the motion of the translation of the operation object 50 in accordance with the angle between the movement direction of the user's hand 40 and the operable direction of the operation object 50, the user's erroneous operation is performed. Can be reduced. For example, it can be estimated that the greater the angle between the moving direction of the user's hand 40 and the operable direction of the operation object 50, the higher the possibility that the user's gesture operation is not an operation on the operation object 50.

以上説明したように,本実施の形態による操作制御装置10によって,ユーザの直感的なジェスチャ操作が,連続的な操作を伴うものであるか,単なるポインティングの操作であるかを切り分けることが可能となる。ユーザは,手40を速く動かす/手をゆっくりと動かすなどの直感的なジェスチャ操作で,スクロール,拡大/縮小などの連続的な操作を行うことができるようになる。   As described above, the operation control apparatus 10 according to the present embodiment can determine whether the user's intuitive gesture operation is a continuous operation or a simple pointing operation. Become. The user can perform continuous operations such as scrolling and enlarging / reducing by intuitive gesture operations such as moving the hand 40 fast / moving the hand slowly.

以上,本実施の形態について説明したが,本発明はその主旨の範囲において種々の変形が可能であることは当然である。   Although the present embodiment has been described above, the present invention can naturally be modified in various ways within the scope of the gist thereof.

例えば,本実施の形態では,特定の物体と操作オブジェクト50との位置関係に応じた操作オブジェクト50の制御と,特定の物体の位置変化方向と操作オブジェクト50の動作可能方向との間の角度に応じた操作オブジェクトの制御とを別々に説明した。特定の物体と操作オブジェクト50との位置関係に応じた操作オブジェクト50の制御と,特定の物体の位置変化方向と操作オブジェクト50の動作可能方向との間の角度に応じた操作オブジェクトの制御とを合わせて実施することも可能である。   For example, in the present embodiment, the operation object 50 is controlled according to the positional relationship between the specific object and the operation object 50, and the angle between the position change direction of the specific object and the operable direction of the operation object 50 is set. The control of the corresponding operation object was explained separately. Control of the operation object 50 according to the positional relationship between the specific object and the operation object 50, and control of the operation object according to the angle between the position change direction of the specific object and the operable direction of the operation object 50. It is also possible to implement together.

また,本実施の形態では,操作オブジェクト50が慣性で運動する例を説明したが,これに限るものではない。例えば,情報表示内容計算部16が,ユーザの手40の移動が操作オブジェクト50に影響するか否かの2値判定をし,影響すると判定された場合に,作用部15が,ユーザの手40の位置をポイントしたカーソル60の移動に同期させて,操作オブジェクト50を動かすなどの実施も可能である。   In the present embodiment, an example in which the operation object 50 moves with inertia has been described, but the present invention is not limited to this. For example, when the information display content calculation unit 16 performs a binary determination as to whether or not the movement of the user's hand 40 affects the operation object 50, and when it is determined to affect the operation unit 15, It is also possible to move the operation object 50 in synchronism with the movement of the cursor 60 pointing to the position.

10 操作制御装置
11 位置取得部
12 距離計算部
13 速度計算部
14 作用量算出部
15 作用部
16 情報表示内容計算部
17 情報表示部
18 情報記憶部
20 位置取得用装置
30 表示装置
DESCRIPTION OF SYMBOLS 10 Operation control apparatus 11 Position acquisition part 12 Distance calculation part 13 Speed calculation part 14 Action amount calculation part 15 Action part 16 Information display content calculation part 17 Information display part 18 Information storage part 20 Position acquisition apparatus 30 Display apparatus

Claims (6)

特定の物体の位置を取得する位置取得部と,
前記位置取得部で取得した位置から,仮想空間内における前記特定の物体と操作オブジェクトとの間の距離を計算する距離計算部と,
前記仮想空間内での前記特定の物体の速さを計算する速度計算部と,
前記距離計算部と前記速度計算部の計算結果に従って,前記操作オブジェクトの運動への影響の大きさを定量的に示す作用量を算出する作用量算出部と,
前記作用量算出部の算出結果に従って,前記操作オブジェクトの運動を制御する作用部と,
前記操作オブジェクトの運動に従って,画面の表示内容を計算する情報表示内容計算部と,
前記情報表示内容計算部の計算結果に従って,情報を画面に表示する情報表示部とを備える
ことを特徴とする操作制御装置。
A position acquisition unit for acquiring the position of a specific object;
A distance calculation unit for calculating a distance between the specific object and the operation object in a virtual space from the position acquired by the position acquisition unit;
A speed calculator for calculating the speed of the specific object in the virtual space;
An action amount calculation unit that calculates an action amount that quantitatively indicates the magnitude of the influence on the motion of the operation object according to the calculation results of the distance calculation unit and the speed calculation unit;
An action unit for controlling movement of the operation object according to a calculation result of the action amount calculation unit;
An information display content calculation unit for calculating the display content of the screen according to the movement of the operation object;
An operation control apparatus comprising: an information display unit that displays information on a screen according to a calculation result of the information display content calculation unit.
前記作用量算出部は,前記特定の物体と前記操作オブジェクトとの間の距離が大きくなるほど,作用量を小さくする
ことを特徴とする請求項1に記載の操作制御装置。
The operation control device according to claim 1, wherein the action amount calculation unit decreases the action amount as the distance between the specific object and the operation object increases.
前記作用量算出部は,前記特定の物体の位置変化方向と前記操作オブジェクトの動作可能方向との間の角度が大きいほど,作用量を小さくする
ことを特徴とする請求項1または請求項2に記載の操作制御装置。
The action amount calculation unit reduces the action amount as the angle between the position change direction of the specific object and the operable direction of the operation object is larger. The operation control device described.
前記作用部は,前記操作オブジェクトの仮想的な動作に伴う摩擦力を含む式によって表される物理モデルに従って,前記操作オブジェクトの運動を制御する
ことを特徴とする請求項1から請求項3までのいずれかに記載の操作制御装置。
The operation unit controls the motion of the operation object according to a physical model represented by an equation including a frictional force accompanying a virtual motion of the operation object. The operation control apparatus in any one.
コンピュータに,
特定の物体の位置を取得し,
前記特定の物体の位置から,仮想空間内における前記特定の物体と操作オブジェクトとの間の距離を計算し,
前記仮想空間内での前記特定の物体の速さを計算し,
前記距離と前記速さの計算結果に従って,前記操作オブジェクトの運動への影響の大きさを定量的に示す作用量を算出し,
前記作用量の算出結果に従って,前記操作オブジェクトの運動を制御し,
前記操作オブジェクトの運動に従って,画面の表示内容を計算し,
前記画面の表示内容の計算結果に従って,情報を画面に表示する
処理を実行させるための操作制御プログラム。
Computer
Get the position of a specific object,
Calculating the distance between the specific object and the manipulation object in the virtual space from the position of the specific object;
Calculating the speed of the particular object in the virtual space;
According to the calculation result of the distance and the speed, an action amount that quantitatively indicates the magnitude of the influence on the motion of the operation object is calculated,
Control the movement of the operation object according to the calculation result of the action amount,
Calculate the display content of the screen according to the movement of the operation object,
An operation control program for executing a process of displaying information on the screen according to the calculation result of the display content of the screen.
コンピュータが,
特定の物体の位置を取得し,
前記特定の物体の位置から,仮想空間内における前記特定の物体と操作オブジェクトとの間の距離を計算し,
前記仮想空間内での前記特定の物体の速さを計算し,
前記距離と前記速さの計算結果に従って,前記操作オブジェクトの運動への影響の大きさを定量的に示す作用量を算出し,
前記作用量の算出結果に従って,前記操作オブジェクトの運動を制御し,
前記操作オブジェクトの運動に従って,画面の表示内容を計算し,
前記画面の表示内容の計算結果に従って,情報を画面に表示する過程を実行する
ことを特徴とする操作制御方法。
Computer
Get the position of a specific object,
Calculating the distance between the specific object and the manipulation object in the virtual space from the position of the specific object;
Calculating the speed of the particular object in the virtual space;
According to the calculation result of the distance and the speed, an action amount that quantitatively indicates the magnitude of the influence on the motion of the operation object is calculated,
Control the movement of the operation object according to the calculation result of the action amount,
Calculate the display content of the screen according to the movement of the operation object,
An operation control method comprising: executing a process of displaying information on a screen according to a calculation result of display content of the screen.
JP2011023757A 2011-02-07 2011-02-07 Operation control device, operation control program, and operation control method Expired - Fee Related JP5724422B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011023757A JP5724422B2 (en) 2011-02-07 2011-02-07 Operation control device, operation control program, and operation control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011023757A JP5724422B2 (en) 2011-02-07 2011-02-07 Operation control device, operation control program, and operation control method

Publications (2)

Publication Number Publication Date
JP2012164115A true JP2012164115A (en) 2012-08-30
JP5724422B2 JP5724422B2 (en) 2015-05-27

Family

ID=46843451

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011023757A Expired - Fee Related JP5724422B2 (en) 2011-02-07 2011-02-07 Operation control device, operation control program, and operation control method

Country Status (1)

Country Link
JP (1) JP5724422B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015041868A (en) * 2013-08-21 2015-03-02 株式会社Where Head-mounted image display device, detection method, detection program, and image display system
JP6244069B1 (en) * 2017-04-17 2017-12-06 株式会社オプティム Remote work support system, remote work support method, and program
JP2017224003A (en) * 2016-05-17 2017-12-21 株式会社コロプラ Method, program, and storage medium for providing virtual space
JP2018032130A (en) * 2016-08-23 2018-03-01 株式会社コロプラ Method and device for supporting input in virtual space and program causing computer to execute the method

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08315154A (en) * 1995-02-21 1996-11-29 Mitsubishi Electric Res Lab Inc Gesture recognition system
JP2001250123A (en) * 2000-03-06 2001-09-14 Nippon Telegr & Teleph Corp <Ntt> Method and unit for controlling virtual space and recording medium with recorded virtual space control program
JP2002116859A (en) * 2000-10-11 2002-04-19 Sony Corp Information processor, instruction recognition processing method and program storage medium
JP2005031799A (en) * 2003-07-08 2005-02-03 Sony Computer Entertainment Inc Control system and method
WO2008041313A1 (en) * 2006-10-02 2008-04-10 Pioneer Corporation Image display device
JP2008146243A (en) * 2006-12-07 2008-06-26 Toshiba Corp Information processor, information processing method and program
JP2010250492A (en) * 2009-04-14 2010-11-04 Sony Corp Information processing apparatus, information processing method, and information processing program
JP2010277197A (en) * 2009-05-26 2010-12-09 Sony Corp Information processing device, information processing method, and program
JP2012043194A (en) * 2010-08-19 2012-03-01 Sony Corp Information processor, information processing method, and program

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08315154A (en) * 1995-02-21 1996-11-29 Mitsubishi Electric Res Lab Inc Gesture recognition system
JP2001250123A (en) * 2000-03-06 2001-09-14 Nippon Telegr & Teleph Corp <Ntt> Method and unit for controlling virtual space and recording medium with recorded virtual space control program
JP2002116859A (en) * 2000-10-11 2002-04-19 Sony Corp Information processor, instruction recognition processing method and program storage medium
JP2005031799A (en) * 2003-07-08 2005-02-03 Sony Computer Entertainment Inc Control system and method
WO2008041313A1 (en) * 2006-10-02 2008-04-10 Pioneer Corporation Image display device
JP2008146243A (en) * 2006-12-07 2008-06-26 Toshiba Corp Information processor, information processing method and program
JP2010250492A (en) * 2009-04-14 2010-11-04 Sony Corp Information processing apparatus, information processing method, and information processing program
JP2010277197A (en) * 2009-05-26 2010-12-09 Sony Corp Information processing device, information processing method, and program
JP2012043194A (en) * 2010-08-19 2012-03-01 Sony Corp Information processor, information processing method, and program

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015041868A (en) * 2013-08-21 2015-03-02 株式会社Where Head-mounted image display device, detection method, detection program, and image display system
JP2017224003A (en) * 2016-05-17 2017-12-21 株式会社コロプラ Method, program, and storage medium for providing virtual space
JP2018032130A (en) * 2016-08-23 2018-03-01 株式会社コロプラ Method and device for supporting input in virtual space and program causing computer to execute the method
JP6244069B1 (en) * 2017-04-17 2017-12-06 株式会社オプティム Remote work support system, remote work support method, and program
WO2018193509A1 (en) * 2017-04-17 2018-10-25 株式会社オプティム Remote work supporting system, remote work supporting method, and program
US10591986B2 (en) 2017-04-17 2020-03-17 Optim Corporation Remote work supporting system, remote work supporting method, and program

Also Published As

Publication number Publication date
JP5724422B2 (en) 2015-05-27

Similar Documents

Publication Publication Date Title
JP6633256B1 (en) Generating virtual annotation surfaces by gestures in augmented and / or virtual reality environments
US10509487B2 (en) Combining gyromouse input and touch input for navigation in an augmented and/or virtual reality environment
CN109891368B (en) Switching of moving objects in augmented and/or virtual reality environments
US10545584B2 (en) Virtual/augmented reality input device
US9836146B2 (en) Method of controlling virtual object or view point on two dimensional interactive display
US9639186B2 (en) Multi-touch interface gestures for keyboard and/or mouse inputs
US9791918B2 (en) Breath-sensitive digital interface
US20130155108A1 (en) Augmented Reality User Interaction Methods, Computing Devices, And Articles Of Manufacture
US20130314320A1 (en) Method of controlling three-dimensional virtual cursor by using portable electronic device
JP2018522310A (en) Input via hand context-sensitive collision with objects in virtual reality
WO2017156112A1 (en) Contextual virtual reality interaction
US20120284668A1 (en) Systems and methods for interface management
WO2019010337A1 (en) Volumetric multi-selection interface for selecting multiple entities in 3d space
US9891713B2 (en) User input processing method and apparatus using vision sensor
JP5724422B2 (en) Operation control device, operation control program, and operation control method
JP2013012158A (en) Electronic apparatus and control method
KR20230007515A (en) Method and system for processing detected gestures on a display screen of a foldable device
EP3076268A1 (en) An operating system, wearable device, and operation method
US20240053832A1 (en) Information processing apparatus, information processing method, and non-transitory computer readable medium
Luo et al. Camera-based selection with cardboard head-mounted displays
Chen et al. An integrated framework for universal motion control
Nguyen et al. Direct manipulation video navigation on touch screens
Dupré et al. TriPad: Touch Input in AR on Ordinary Surfaces with Hand Tracking Only
WO2016099559A1 (en) 3d navigation mode
Pietroszek 3D Pointing with Everyday Devices: Speed, Occlusion, Fatigue

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20131106

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140723

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140812

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141003

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150303

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150316

R150 Certificate of patent or registration of utility model

Ref document number: 5724422

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees