JP5201096B2 - Interactive operation device - Google Patents
Interactive operation device Download PDFInfo
- Publication number
- JP5201096B2 JP5201096B2 JP2009169589A JP2009169589A JP5201096B2 JP 5201096 B2 JP5201096 B2 JP 5201096B2 JP 2009169589 A JP2009169589 A JP 2009169589A JP 2009169589 A JP2009169589 A JP 2009169589A JP 5201096 B2 JP5201096 B2 JP 5201096B2
- Authority
- JP
- Japan
- Prior art keywords
- fingertip
- image
- content
- hand
- determined
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/042—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
- G06F3/0425—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/254—Analysis of motion involving subtraction of images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/048—Indexing scheme relating to G06F3/048
- G06F2203/04806—Zoom, i.e. interaction techniques or interactors for controlling the zooming operation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10048—Infrared image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Computer Vision & Pattern Recognition (AREA)
- User Interface Of Digital Computer (AREA)
- Image Analysis (AREA)
- Studio Devices (AREA)
Description
本発明は、閲覧者が指先で投影された情報を操作するシステム、プログラム、記録媒体に関するものである。
本発明は特に、投影台に投影したコンテンツに対して、閲覧者が指先で指示を与えることによって、指示に基づいたコンテンツを投影台に投影させる場合に有用である。
The present invention relates to a system, a program, and a recording medium for operating information projected by a viewer with a fingertip.
The present invention is particularly useful when the content projected on the projection table is projected on the projection table by the viewer giving an instruction with a fingertip.
近時、普及の著しいプロジェクターは、壁面や表示板(以下、投影台)にコンテンツを大きく投影することができるので、広告媒体やコミュニケーション・ツールとして活用される機会が増えている。
コンテンツの閲覧者は、たとえば、美術館で、投影されたコンテンツを対話的に操作することで、より多くの美術情報を得て、充実した美術鑑賞をすることが可能となる。
ここで、表示されたコンテンツと対話的に操作する方法を説明する。
Recently, projectors that are remarkably widespread can project a large amount of content on a wall surface or a display board (hereinafter referred to as a “projection stand”), and thus are increasingly used as advertising media or communication tools.
A content viewer can interact with the projected content interactively at a museum, for example, to obtain more art information and enjoy a full art appreciation.
Here, a method for interactively operating the displayed content will be described.
《 A.カーソル操作 》
マウスやトラックボールに代表されるポインティングデバイスを用いてカーソルを操作して、閲覧者が閲覧するコンテンツを対話的に操作する方法である。
あるいは、閲覧者がレーサーポインターを用いて、レーザースポット光を照射するときの動き方によって、コンテンツを対話的に操作する方法である。
たとえば、特許文献1では、ポインティングデバイスを用いて、コンピュータディスプレー画面と、机や壁の仮想拡張ディスプレー画面と、の間を、デジタル・オブジェクトをシームレスにドラッグ・アンド・ドロップする技術が開示されている。
また、特許文献2では、投影スクリーン上の画面に対して、レーザーポインターの光で指示することによって、画面の切り替えや、線の描画や、画面の部分拡大などのプレゼンテーション画面を操作する技術が開示されている。
《 B.タッチパネル指示》
閲覧者が、コンテンツを表示したタッチパネルに手を触れると、触れた位置に応じて、コンテンツを対話的に操作する方法である。
たとえば、特許文献3では、ディスプレー上の点を指先で押し続ける時間の長さに応じて、領域の広さを変えて、領域選択する技術が開示されている。
<< A. Cursor operation
This is a method of interactively operating content viewed by a viewer by operating a cursor using a pointing device typified by a mouse or a trackball.
Alternatively, it is a method of interactively manipulating content using a racer pointer, depending on how the viewer moves when irradiating a laser spot light.
For example,
<< B. Touch panel instructions >>
In this method, when a viewer touches a touch panel displaying content, the content is interactively operated according to the touched position.
For example,
しかしながら、《 A.カーソル操作》の方法では、閲覧者はマウスなどのポインティングデバイスを使用しなければ、対話操作が行えない。
また、《 B.タッチパネル指示》の方法では、コンテンツを表示する装置に、閲覧者が手を触れたことを検知する装置を備えなければならない。
However, << A. In the “cursor operation” method, a viewer cannot perform an interactive operation unless using a pointing device such as a mouse.
In addition, << B. In the method of “touch panel instruction”, a device for detecting that a viewer has touched a hand must be provided in a device for displaying content.
本発明は以上のような点を解決するためになされたものであって、本発明の課題は、閲覧者が道具を用いずに、また、投影台に仕掛けを施さずに、投影表示されたコンテンツに対して、対話操作装置を提供することである。 The present invention has been made in order to solve the above-described points, and the object of the present invention is that the viewer can project and display without using a tool and without setting a device on the projection table. for the content, it is to provide a dialogue operation equipment.
本発明は、以下の各態様に記載の手段により、前記課題を解決する。
すなわち、本願発明の第1の発明は、
コンテンツ投影画面データに基づく像を投影台に投影する投影機と、前記投影台を撮影して撮影画像を生成する赤外カメラと、が接続される対話操作装置において、
コンテンツ構成データを格納するコンテンツ格納領域と、
前記コンテンツ投影画面データを保持する表示画面保持領域と、
を備える記憶手段と、
前記コンテンツ構成データを解釈して、前記コンテンツ投影画面データを作成する表示閲覧手段と、
前記赤外カメラから前記撮影画像を取得する撮影画像取得手段と、
前記撮影画像の各フレームから閲覧者の指先を検知する指先検出手段と、
前記指先の座標を算出する指先位置算出手段と、
連続する前記各フレームの指先の座標を用いて当該指先の移動距離を算出して、所定の時間中の前記移動距離がゼロと判定された場合には、前記指先の座標を含む指先静止検知情報を作成する指先静止検知手段と、
前記指先静止検知情報に基づいて、入力イベント情報を生成して、前記表示閲覧手段に引き渡す入力エミュレーション手段と、
を備え、
前記表示閲覧手段は、前記入力エミュレーション手段から引き渡された入力イベント情報を受け付けて、適宜コンテンツ投影画面データを更新して、
前記指先検出手段は、前記コンテンツ投影画面の輪郭を構成する複数の辺のうち、手の前記撮影画像が接する一つの前記辺が、底辺、または、左辺、または、右辺、または、上辺のいずれの辺であるか否かを判定し、前記判定した辺が底辺である場合には手の最上部を指先と判定し、前記判定した辺が左辺である場合には手の最右部を指先と判定し、前記判定した辺が右辺である場合には手の最左部を指先と判定し、前記判定した辺が上辺である場合には手の最下部を指先と判定する、
ことを特徴とする対話操作装置である。
This invention solves the said subject by the means as described in each following aspect.
That is, the first invention of the present invention is :
A projector for projecting an image based on the content projection screen data to the projection stage, and an infrared camera to generate a captured image by capturing the projection stage, the interaction device is connected,
And a content storage area for storing the content configuration data,
A display screen holding area for holding the content projection screen data,
Storage means comprising :
Interprets the content member data, a display viewing means for creating the content projection screen data,
Captured image acquisition means for acquiring the captured image from the infrared camera;
And the fingertip detection means for detecting the fingertip of the viewer from each frame of the captured image,
And the fingertip position calculating means for calculating the coordinates of the fingertip,
And calculates the movement distance of the finger using the coordinates of the fingertip of each frame consecutive, when the moving distance during a predetermined time is determined to zero, the fingertip stationary detection information including coordinates of the fingertip Fingertip stationary detection means for creating
Based on the fingertip stationary detection information, and generates the input event information, an input emulation means to pass to the display viewing means,
With
The display browsing means receives the input event information delivered from the input emulation means, updates the content projection screen data as appropriate ,
The fingertip detecting means is one of a plurality of sides constituting the outline of the content projection screen, and one of the sides in contact with the captured image of the hand is a bottom side, a left side, a right side, or an upper side. It is determined whether or not it is a side, and when the determined side is the bottom side, the top of the hand is determined as the fingertip, and when the determined side is the left side, the rightmost part of the hand is the fingertip. determined, the determined sides is determined that the fingertip of the leftmost portion of the hand when it is right, it is determined that the fingertip of the bottom of the hand when the determined sides are the upper side,
This is an interactive operation device characterized by the above.
このように、閲覧者の指先の動きと位置を検知して入力イベント情報を生成して、投影閲覧中のコンテンツを加工して表示することが可能である。 In this way, it is possible to detect the movement and position of the viewer's fingertip, generate input event information, and process and display the content being projected and viewed.
本願の第2の発明は、第1の発明に記載の前記指先検出手段は、
前記指先検出手段は、
手形画像が接するコンテンツ投影画面の辺が見つからなかった場合には、距離画像の最高輝度点を基準にして、移動して延びてきた手の側の辺と平行で最高輝度点を通る直線にて2分割される手形画像の輪郭のうち、手が移動してきた側の輪郭は探索しないで、最遠部を指先とする、
ことを特徴とする対話操作装置である。
According to a second aspect of the present invention, the fingertip detection means according to the first aspect is
The fingertip detection means includes
If the side of the content projection screen that touches the handprint image is not found, the straight line that passes through the maximum brightness point is parallel to the side of the hand that has been moved and extended based on the maximum brightness point of the distance image. Of the contours of the handprint image divided into two, without searching for the contour on the side where the hand has moved, the farthest part is the fingertip.
This is an interactive operation device characterized by the above.
本願発明によれば、
(1)投影台に情報操作指示の検知装置を設けずに、投影されたコンテンツに対して、情報操作をすることが可能である。
(2)閲覧者は道具を用いずに、指先で情報操作の指示を与えることが可能である。
従って、本発明によれば、閲覧者は投影されたコンテンツに対して、指先で指示するだけで、手軽に情報操作することができるという効果がある。
According to the present invention,
(1) An information operation can be performed on the projected content without providing an information operation instruction detection device on the projection table.
(2) The viewer can give an instruction to operate the information with a fingertip without using a tool.
Therefore, according to the present invention, there is an effect that the viewer can easily operate the information simply by pointing the projected content with the fingertip.
以下、図面等を参照しながら、本発明の実施の形態について、更に詳しく説明する。 Hereinafter, embodiments of the present invention will be described in more detail with reference to the drawings.
図1は、本発明の実施の形態による指先操作型コンテンツ提供システム1の概要を説明する図である。
指先操作型コンテンツ提供システム1は、投影台400と、赤外光源500と、プロジェクター300(=投影機)と、対話操作装置100と、から構成される。
対話操作装置100は、既存のパーソナルコンピューターで、後述する専用プログラムを搭載したものである。
対話操作装置100は、赤外カメラ106と投影機300を接続する。
赤外光源500は、赤外光を投影台400に照射するLED光源装置である。
赤外カメラ106は、赤外光による反射像を撮像する電子カメラである。
投影機300は、対話操作装置100が作成するコンテンツ投影画面データに基づく像を投影台400に投影するプロジェクターである。
FIG. 1 is a diagram illustrating an overview of a fingertip operation type
The fingertip operation type
The
The
The infrared
The
The
ここで、赤外光源500と赤外カメラ106とを用いる理由は、赤外光で照射された閲覧者900の指先は撮像するが、プロジェクター300が、可視光にて投影台400に投影した投影画像(=コンテンツ投影画面)は撮像しないようにするためである。
Here, the reason for using the infrared
図2は、コンテンツ投影画面403の例である。
図2の(a)は、コンテンツと解説文を表示したコンテンツ投影画面403の例である。
例示されたコンテンツ投影画面の意味は、指先で指示したコンテンツの解説文をコンテンツに重畳させて表示しているということである。
図2の(b)は、コンテンツの部分拡大画像を含むコンテンツ投影画面403の例である。
例示されたコンテンツ投影画面の意味は、指先が乗ったコンテンツ部分を拡大した画像を、コンテンツに重畳させて表示しているということである。
FIG. 2 is an example of the
FIG. 2A shows an example of a
The meaning of the exemplified content projection screen is that the explanation text of the content designated by the fingertip is displayed superimposed on the content.
FIG. 2B is an example of a
The meaning of the exemplified content projection screen is that an image obtained by enlarging the content portion on which the fingertip is placed is displayed superimposed on the content.
次に、図3を用いて、指先操作型情報提供システム1の大まかな操作と情報処理の手順を説明する。
(1)《初期設定処理》システム管理者は、対話操作装置100の赤外カメラが投影台400を撮影して生成した投影台の撮影画像を用いて、撮影画像を透視変換処理する撮影画像透視変換行列関係式や、撮影画像の背景画像などを設定する初期設定処理を行う。(詳細は後述する)
(2)《コンテンツ投影処理》対話操作装置100は、閲覧者に閲覧させるコンテンツ投影画面103を、投影機300を用いて投影台400に、投影する。
(3)《対話操作》閲覧者は、投影台400に投影されたコンテンツ投影画面403に対して、指先を用いて、対話操作を行う。
(4)《指先検出処理》対話操作装置100は、対話操作する閲覧者の指先を赤外カメラ106で撮影して、撮影画像から閲覧者の指先の位置や動作を検知する。ここで、閲覧者の指先動作を検知するためには、撮影画像の各フレームの指先位置を比較すればよい。すなわち、各フレームの指先位置の変化量を計測して、静止しているのか、移動しているのかを判定すればよい。
(5)《対話操作したコンテンツの投影処理》対話操作装置100は、検知した指先の動作を指先動作判定条件(たとえば、指先の静止動作時間が0.5秒以上であれば指先静止動作など)で判定して、指先動作判定条件に応じた対話操作を行い、たとえば、選択したコンテンツの解説文表示や、選択したコンテンツの部分拡大画像表示などの閲覧者が所望する操作の結果を、投影機300を用いて、投影台400に投影する。
ここで、対話操作装置100は、コンテンツの投影画面403の指先に相当する位置にカーソルを重畳してもよい。
(6)《コンテンツ閲覧》閲覧者は、投影台400に投影されたコンテンツ投影画面403を閲覧する。
Next, a rough operation and information processing procedure of the fingertip operation type
(1) << Initial Setting Process >> The system administrator uses the captured image of the projection table generated by the infrared camera of the
(2) << Content Projection Process >> The
(3) << Interactive Operation >> The viewer performs an interactive operation on the
(4) << Fingertip Detection Processing >> The
(5) << Projection processing of interactively operated content >> The
Here, the
(6) << Content browsing >> The viewer browses the
図4を用いて、閲覧者の指先について説明する。
図4の(a)は、手の撮影画像表示画面103の底辺1031から延びた手の指先を説明する例である。
表示画面の底辺から延びた手の撮影画像を画面103に表示した例が示されている。
例示されている撮影画像の意味は、底辺1031から延びた手の場合には、手の最上部1035を指先として検知していることを示している。
The viewer's fingertip will be described with reference to FIG.
FIG. 4A is an example for explaining the fingertip of the hand extending from the
An example in which a captured image of a hand extending from the bottom of the display screen is displayed on the
In the case of a hand extending from the
図4の(b)は、コンテンツの投影画面の左辺1032から延びた手の指先を説明する例である。
表示画面の左辺から延びた手の撮影画像を画面103に表示した例が示されている。
例示されている指先の意味は、左辺1032から延びた手の場合には、手の最右部1036を指先として検知していることを示している。
FIG. 4B illustrates an example of a fingertip of a hand extending from the left side 1032 of the content projection screen.
An example in which a captured image of a hand extending from the left side of the display screen is displayed on the
In the case of a hand extending from the left side 1032, the meaning of the illustrated fingertip indicates that the
図5と図6を用いて、(1)《初期設定処理》の詳細な流れを説明する
図5は、(1)《初期設定処理》の詳細な流れを説明する図である。
(1−1)《投影範囲指示》システム管理者は、対話操作装置100の赤外カメラが投影台400を撮影して生成した投影台の撮影画像を用いて、投影範囲としての四角形の4頂点座標を入力する。たとえば、システム管理者は、投影台の撮影画像を対話操作装置100の表示部に表示させて、投影範囲の4頂点座標を、たとえば、十字カーソルをキーボードで操作して入力する。
5 and 6 are used to explain the detailed flow of (1) << Initial Setting Process >>. FIG. 5 is a diagram illustrating the detailed flow of (1) << Initial Setting Process >>.
(1-1) << Projection range instruction >> The system administrator uses four captured vertices of a quadrangle as a projection range, using a captured image of the projection table generated by the infrared camera of the
(1−2)《座標変換行列の算出》対話操作装置100は、システム管理者が入力した投影範囲指示を受け付けて、座標変換行列関係式(たとえば、座標変換行列関係式として、すでに数学的に分かっている下記の数式1)に対して、受け付けた投影範囲指示の4つの頂点座標値[Xpk 、Ypk ](k=1、2,3、4)と、コンテンツ投影画面の4つの標準頂点座標値[Xmk、Ymk ](k=1、2,3、4)(たとえば、[0、0][0、1024][768、0][768、1024])とを代入して、12個の式を作成してこれらを解いて、座標変換行列の8つの行列要素Cij (i,j=1、2,3)を算出して、撮影画像透視変換行列関係式(下記の数式2)を導出する。撮影画像透視変換行列関係式は、撮影画像の座標[Xp 、Yp ]とコンテンツ投影画面の座標[Xm、Ym ]とを透視変換する行列関係式である。
hは、カメラ原点と画像平面の距離を変数とする値である。
Xmは、コンテンツ投影画面のX座標値である。Ym は、コンテンツ投影画面のY座標値である。
Cijは、二次元画像透視変換関係式の行列要素である。ここで、i,j=1、2,3である。
h is a value having the distance between the camera origin and the image plane as a variable.
X m is the X coordinate value of the content projection screen. Y m is the Y coordinate value of the content projection screen.
C ij is a matrix element of the two-dimensional image perspective transformation relational expression. Here, i, j = 1, 2, and 3.
なお、撮影画像透視変換関係式の算出には、opencvの透視変換行列算出関数cvGetPerspectiveTransformを用いて、算出することができる。ここで、opencvとは、インテル(登録商標)が開発・公開したオープンソースのコンピュータビジョン向けライブラリーである。 The captured image perspective transformation relational expression can be calculated using the opencv perspective transformation matrix computation function cvGetPerspectiveTransform. Here, opencv is an open source computer vision library developed and released by Intel (registered trademark).
ここで、図6を用いて、《投影範囲指示》の作業で用いる表示画面を説明する。
図6の(a)には、投影範囲の指示画面1031が、例示されている。例示された投影範囲の指示画面1031には、対話操作装置100の赤外カメラ104で撮影した投影台400の撮影画像が表示されている。
また、この投影範囲の指示画面1031には、投影範囲の4頂点p、q、r、sが入力された様子が示されている。
このとき、投影範囲の4頂点p、q、r、sの頂点角度は、必ずしも直角ではない。
図6の(b)には、撮影画像の投影範囲を透視変換した画像の表示画面1032が、例示されている。
例示された透視変換画像の表示画面1032は、撮影画像透視変換関係式を用いて、撮影画像の投影範囲を透視変換したものである。
ここで、透視変換画像の表示画面1033の4頂点P、Q、R、S(=それぞれの座標が、[0、0][0、1024][768、0][768、1024]に相当する)は、投影範囲の4頂点p、q、r、sが、それぞれ、透視変換された点である。このとき、四角形領域の4頂点P、Q、R、Sの頂点角度は、直角である。
Here, a display screen used in the operation of “projection range instruction” will be described with reference to FIG.
FIG. 6A illustrates a projection
In addition, the projection
At this time, the vertex angles of the four vertices p, q, r, and s in the projection range are not necessarily a right angle.
FIG. 6B illustrates an image display screen 1032 obtained by perspective-transforming the projection range of the captured image.
The illustrated perspective transformation image display screen 1032 is obtained by perspective transformation of the projection range of the photographic image using the photographic image perspective transformation relational expression.
Here, the four vertices P, Q, R, and S (= the coordinates of the perspective transformation image display screen 1033 correspond to [0, 0] [0, 1024] [768, 0] [768, 1024]. ) Is a point in which the four vertices p, q, r, and s of the projection range are perspective-transformed. At this time, the vertex angles of the four vertices P, Q, R, and S of the rectangular area are right angles.
図5に戻って、(1)《初期設定処理》の詳細な流れの説明を続ける。
(1−3)《背景画像抽出》対話操作装置100は、投影台の撮影画像から、投影範囲の
画像を抽出して、背景画像とする。この背景画像を抽出するとき、投影範囲の画像に対して、導出した撮影画像透視変換行列関係式(=数式2)を用いて、コンテンツ投影画面の座標に透視変換する。
Returning to FIG. 5, the detailed flow of (1) << Initial Setting Process >> will be continued.
(1-3) << Background Image Extraction >> The
図7から図9までを用いて、(4)《指先検出処理》の詳細な流れを説明する。
図7は、(4)《指先検出処理》の詳細な流れを説明する図である。
指先検出処理は、撮影画像の各フレームに対して行う。
(4−1)《撮影画像の透視変換処理》対話操作装置100は、この導出した撮影画像透視変換行列関係式(=数式2)を用いて、手の撮影画像をコンテンツ画面の座標系の画像に透視変換する。
(4−2)《背景除去》対話操作装置100は、透視変換した手の撮影画像の画素の値から、透視変換した背景画像の画素の値を減算して、透視変換した撮影画像の背景画像除去処理をする。
(4−3)《撮影画像の二値化処理》対話操作装置100は、背景画像除去処理済の透視変換した撮影画像に対して、大津の手法を適用して、閾値を算出して二値化処理して、二値化画像を生成する。
The detailed flow of (4) << fingertip detection process >> will be described with reference to FIGS.
FIG. 7 is a diagram for explaining the detailed flow of (4) << fingertip detection process >>.
The fingertip detection process is performed for each frame of the captured image.
(4-1) << Perspective Conversion Processing of Captured Image >> The
(4-2) << Background Removal >> The
(4-3) << Binarization Processing of Captured Image >> The
ここで、図9を用いて、大津の手法を説明する。大津の手法とは、濃淡画像の画素値ヒストグラムに対して、各画素値を仮のしきい値tによって、2つの領域に分けて、各領域内の分散 σ2 a と、2つの領域間の分散 σ2 b と、を計算し、領域内での分散と領域間の分散比を算出する関数(仮のしきい値tの関数)W(t)= σ2 a / σ2 b が最小となるtをしきい値とする手法である。
大津の手法を用いた画像二値化処理では、大津の手法に基づいて二値化閾値を算出し、OpenCVの二値化関数cvThresholdを用いて二値化画像を得ることができる。
Here, the method of Otsu will be described with reference to FIG. Otsu's method is to divide each pixel value into two regions with a temporary threshold value t for the pixel value histogram of the grayscale image, and to distribute the variance σ 2 a in each region and between the two regions A function for calculating the variance σ 2 b and calculating the variance within the region and the variance ratio between the regions (function of the temporary threshold t) W (t) = σ 2 a / σ 2 b is the minimum This is a method using t as a threshold value.
In the image binarization process using the Otsu method, a binarization threshold value can be calculated based on the Otsu method and a binarized image can be obtained using the OpenCV binarization function cvThreshold.
なお、二値化処理において、大津の手法を用いることは、1つの例である。たとえば、他の値を閾値として用いてもよいし、複数の閾値を用いて、複数の二値化画像を生成するようにしてもよい。 In the binarization process, using the method of Otsu is one example. For example, other values may be used as threshold values, and a plurality of binarized images may be generated using a plurality of threshold values.
図7に戻って、(4)《指先検出処理》の詳細な流れの説明を続ける。
(4−4)《距離画像作成処理》対話操作装置100は、二値化画像の白画素から、黒画素への最短距離を求めて、距離に対応付けた画素値を有する画素で構成した距離画像を作成して、距離画像の最大画素値を保持する。
(4−5)《輪郭部画素検出処理》対話操作装置100は、二値化画像の黒画素領域を端から走査して、4連結画素を用いる輪郭抽出アルゴリズムを用いて、黒画素を抽出して、抽出した黒画素を輪郭部画素とする。
ここで、4連結画素を用いる輪郭抽出アルゴリズムとは、二値化画像を端から走査して、検出した未追跡黒画素を始点の輪郭部画素として、この画素を中心にした4連結画素を反時計回りに追跡して黒画素を検出して輪郭部画素として、この画素を次の中心にして、4連結画素追跡により黒画素を検出して、始点に戻るまで繰り返えすものである。輪郭抽出アルゴリズムは、8連結画素を用いてもよい。
(4−6)《手形画像抽出処理》対話操作装置100は、距離画像(=輪郭部画素で囲まれた領域)の画素の輝度を、保持した最大輝度の値と比較して、一致すれば、その領域を閲覧者の手形画像として抽出する。
Returning to FIG. 7, the detailed flow of (4) << Fingertip detection process >> will be continued.
(4-4) << Distance Image Creation Processing >> The
(4-5) << Outline Pixel Detection Process >> The
Here, the contour extraction algorithm using four connected pixels is a scan of a binarized image from the end, with the detected untracked black pixel as the starting contour pixel, and the four connected pixels centered on this pixel as an inverse. A black pixel is detected by tracking clockwise and is used as a contour pixel, and the black pixel is detected by 4-connected pixel tracking with this pixel as the next center, and the process is repeated until the start point is returned. The contour extraction algorithm may use 8-connected pixels.
(4-6) << Hand-Shape Image Extraction Processing >> The
ここで、図8を用いて、《指先検出処理》の例を説明する。
図8の(a)には、二値化画像1961が例示されている。
例示された二値化画像1961は、大きな白画素領域19611と、小さな白画素領域19612を含む画像である。
図8の(b)には、距離画像1962が例示されている。
例示された距離画像1962は、大きな白画素領域19611に対応した距離画像19621と、小さな白画素領域19612に対応した距離画像19622とを含む画像である。ここで、大きな白画素領域19611に対応した距離画像19621は、最大画素値を持つ画素1038を有する画像である。
図8の(c)には、輪郭部画素が例示されている。
例示された輪郭部画素は、大きな白画素領域の輪郭部19631と小さな白画素領域の輪郭部19632とを形成する画素である。ここで、白画素領域の輪郭部19631は、最大画素値を持つ画素1038に対応した画素10381を有する。
図8の(d)には、最大輪郭部が例示されている。
例示された最大輪郭部は、最大画素値を持つ距離画像19621に対応した白画素領域の輪郭部19631である。
Here, an example of “fingertip detection processing” will be described with reference to FIG.
FIG. 8A illustrates a
The illustrated
FIG. 8B illustrates a
The illustrated
FIG. 8C illustrates an outline pixel.
The illustrated contour pixel is a pixel that forms a large white pixel region contour 19631 and a small white pixel region contour 19632. Here, the outline 19631 of the white pixel region has a pixel 10381 corresponding to the pixel 1038 having the maximum pixel value.
FIG. 8D illustrates the maximum contour portion.
The exemplified maximum contour portion is a white pixel region contour portion 19631 corresponding to the distance image 19621 having the maximum pixel value.
図7に戻って、(4)《指先検出処理》の詳細な流れの説明を続ける。
(4−7)《指先判定処理》対話操作装置100は、閲覧者の手形画像を用いて、指先判定処理をして、指先を判定する。(詳細は後述する)
(4−8)《指先位置算出》対話操作装置100は、連続するフレームの指先座標を算出する。
(4−9)《指先静止検知処理》対話操作装置100は、連続するフレームの指先座標を比較して指先移動距離を算出して、指先静止判定時間を定めた動作判定条件と照合して、指先静止判定時間中の指先移動距離がゼロであるか否かを判定する。指先静止判定時間中の指先移動距離がゼロと判定された場合には、指先座標を含む指先静止検知情報を作成する。
Returning to FIG. 7, the detailed flow of (4) << Fingertip detection process >> will be continued.
(4-7) << Fingertip Determination Process >> The
(4-8) << Fingertip Position Calculation >> The
(4-9) << Fingertip Stillness Detection Process >> The
図10は、指先判定処理のフローチャートである。
(1)対話操作装置100は、手の撮影画像が接するコンテンツ投影画面の辺(=撮影画像枠)が、底辺1031であるか否かを判定する。手の撮影画像が接する辺が、下辺1031であれば、次のステップに進む。
手の撮影画像が接する辺が、底辺1031でなければ、ステップS120に進む。(ステップS110)
(2)対話操作装置100は、手の最上部1035を指先と判定して「手が接する辺=底辺」を保持して、終了する。(ステップS115)
(3)対話操作装置100は、手の撮影画像が接するコンテンツ投影画面の辺が、左辺1032であるか否かを判定する。手の撮影画像が接する辺が、左辺1032であれば、次のステップに進む。
手の撮影画像が接する辺が、左辺1032でなければ、ステップS130に進む。(ステップS120)
(4)対話操作装置100は、手の最右部1036を指先と判定して「手が接する辺=左辺」を保持して、終了する。(ステップS125)
(5)対話操作装置100は、手の撮影画像が接するコンテンツ投影画面の辺が、右辺であるか否かを判定する。手の撮影画像が接する辺が、右辺であれば、次のステップに進む。
手の撮影画像が接する辺が、右辺でなければ、ステップS140に進む。(ステップS130)
(6)対話操作装置100は、手の最左部を指先と判定して「手が接する辺=右辺」を保持して、終了する。(ステップS135)
(7)対話操作装置100は、手の撮影画像が接するコンテンツ投影画面の辺が、上辺であるか否かを判定する。手の撮影画像が接する辺が、上辺であれば、次のステップに進む。
手の撮影画像が接する辺が、上辺でなければ、ステップS160に進む。(ステップS140)
(6)対話操作装置100は、手の最下部を指先と判定して「手が接する辺=上辺」を保持して、終了する。(ステップS145)
(7)保持した手形が接する辺の値に応じて、指先の位置を以下のとおりに判定する。
・「手が接する辺=底辺」であれば、手の最上部を指先と判定する、
・「手が接する辺=左辺」であれば、手の最右部を指先と判定する、
・「手が接する辺=右辺」であれば、手の最左部を指先と判定する、
・「手が接する辺=上辺」であれば、手の最下部を指先と判定する、
終了する。
FIG. 10 is a flowchart of the fingertip determination process.
(1) The
If the side with which the hand image is in contact is not the
(2) The
(3) The
If the side with which the hand image is in contact is not the left side 1032, the process proceeds to step
(4) The
(5) The
If the side on which the captured image of the hand is in contact is not the right side, the process proceeds to step S140. (Step S130)
(6) The
(7) The
If the side on which the hand image is in contact is not the upper side, the process proceeds to step S160. (Step S140)
(6) The
(7) The position of the fingertip is determined as follows according to the value of the side that the held bill touches.
・ If “side touched by hand = bottom side”, the top of the hand is determined as the fingertip.
-If "side with hand = left side", the rightmost part of the hand is determined as the fingertip.
・ If “side touched by hand = right side”, the leftmost part of the hand is determined as the fingertip.
-If "side touched by hand = upper side", the lowermost part of the hand is determined as the fingertip.
finish.
図11は、対話操作装置100の詳細な構成図である。
対話操作装置100は、CPU101と、表示部102と、キーボード103と、赤外カメラ部106と、投影機接続部107(=投影機接続手段)と、ネットワーク通信部108と、記憶部109と専用プログラムとを備える。
CPU101と、表示部102と、キーボード部103と、カメラ部106と、投影機接続部107と、ネットワーク通信部108と、記憶部109とは、BUS199で接続される。
FIG. 11 is a detailed configuration diagram of the
The
The CPU 101, the
CPU101は、中央演算装置である。
表示部102は、液晶表示装置や有機EL表示装置である。
投影機接続手段107は、プロジェクターアダプターである。
ネットワーク通信部108は、LANアダプターである。
The CPU 101 is a central processing unit.
The
The projector connection means 107 is a projector adapter.
The
赤外カメラ部106は、赤外電子カメラである。
赤外カメラ部106は、赤外光源500の赤外光が照射された閲覧者900の手を撮像して、手の撮影画像を生成する。
The
The
記憶部109は、半導体メモリーや磁気メモリーである。
記憶部109は、表示画面保持領域1091と、初期設定情報格納領域1092と、コンテンツ格納領域1093と、を備えて、オペレーティングシステム185と、専用プログラムとを記憶する。
表示画面保持領域1091は、コンテンツ投影画面データ198を保持する。
初期設定情報格納領域1092は、撮影画像透視変換関係式193と背景画像データ195とを格納する。
コンテンツ格納領域1093は、コンテンツ投影画面データを作成するためのコンテンツ構成データ197およびコンテンツ素材データ192を格納する。
コンテンツ構成データ197は、コンテンツ全体の構成(たとえば、何ページから成っているかなど)と、コンテンツ素材データの使い方(たとえば、何ページのどの位置に、どの素材を配置するかなど)を現したデータである。
コンテンツ素材データ192は、写真やテキストのデータである。
The
The
The display screen holding area 1091 holds the content
The initial setting
The
The content configuration data 197 is data representing the configuration of the entire content (for example, how many pages are formed) and how to use the content material data (for example, which material is disposed at which position on which page). It is.
The
オペレーティングシステム185は、対話操作装置100のハードウェア(たとえば、表示部102と、キーボード103と、投影機接続部107と、ネットワーク通信部108と、記憶部109など)を管理・制御して、応用ソフトウエア(たとえば、専用プログラム)に対して、これらのハードウェアを利用できるようなサービスを提供する基本ソフトウエアである。
オペレーティングシステム185は、マウス左クリックエミュレート関数やカーソル表示エミュレート関数を含むマウス関数ライブラリー191を有する。
オペレーティングシステム185は、マウス左クリックエミュレート関数が発行するマウス左クリックのマウスイベント(=入力イベント情報)を受け取って、一時記憶領域に保持する。このときにアクティブなプロセスは、一時記憶領域を参照して保持されたマウスイベントを読み出して、そのイベントに応じたプロセスの処理を行う。
The operating system 185 manages and controls the hardware (for example, the
The operating system 185 has a
The operating system 185 receives the mouse left click mouse event (= input event information) issued by the mouse left click emulation function, and stores it in the temporary storage area. At this time, the active process reads the held mouse event with reference to the temporary storage area, and processes the process according to the event.
このほかに、初期設定手段110と、指先検出手段130と、指先位置算出手段140と、指先静止検知手段150と、入力エミュレーションモジュール155と、表示画面作成手段160と、投影表示手段170と、備える。これらの各手段は、それぞれの専用プログラムによって実現され、専用プログラムがCPU101に解釈・実行されることによって機能する。
In addition, an
初期設定手段110は、赤外カメラが投影台400を撮影して生成した投影台の撮影画像の投影範囲の入力を受け付ける投影範囲指示機能と、
撮影画像の座標とコンテンツ投影画面の座標との透視変換の関係を表す撮影画像透視変換行列関係式を算出する座標変換行列算出機能と、
投影台の撮影画像から、投影範囲の画像を抽出して、背景画像とする背景画像抽出機能と、から構成される。
初期設定手段の詳細は、図5における(1)《初期設定処理》の詳細な流れを説明する項で述べた。
The initial setting means 110 includes a projection range instruction function that receives an input of a projection range of a captured image of a projection table generated by an infrared camera shooting the projection table 400;
A coordinate transformation matrix calculation function for calculating a photographed image perspective transformation matrix relational expression representing a perspective transformation relationship between the coordinates of the photographed image and the coordinates of the content projection screen;
A background image extraction function that extracts an image in the projection range from a photographed image of the projection table and uses it as a background image.
Details of the initial setting means are described in the section describing the detailed flow of (1) << Initial setting process >> in FIG.
指先検出手段130は、撮像手段106が作成した閲覧者の手の撮影画像を透視変換撮影画像に透視変換する撮影画像透視変換機能と、
透視変換撮影画像から背景画像を除去する背景除去機能と、
背景画像を除去した透視変換撮影画像から二値化画像を生成する撮影画像二値化機能と、
二値化画像から距離画像を作成する距離画像作成機能と、
背景画像を除去した透視変換撮影画像から輪郭部画素を検出する輪郭部画素検出機能と、
距離画像と輪郭部画素とを用いて、手形画像を抽出する最大輪郭部抽出機能と、
手形画像が接するコンテンツ投影画面の辺の情報を用いて、指先を判定する指先判定機能と、
を備える。
The
A background removal function for removing a background image from a perspective transformation photographed image;
A captured image binarization function for generating a binarized image from a perspective transformation captured image with the background image removed;
A distance image creation function for creating a distance image from a binarized image;
A contour pixel detection function for detecting a contour pixel from a perspective transformation captured image from which a background image has been removed;
A maximum contour extraction function that extracts a handprint image using a distance image and a contour pixel;
A fingertip determination function for determining a fingertip using information on the side of the content projection screen that the handprint image touches;
Is provided.
指先検出手段130の詳細は、図7における(4)《指先検出処理》の詳細な流れを説明する項で述べた。 The details of the fingertip detection means 130 are described in the section describing the detailed flow of ( 4 ) << Fingertip detection processing >> in FIG.
指先位置算出手段140は、指先の座標を算出する。
指先静止検知手段150は、連続するフレームの指先座標を用いて指先移動距離を算出して、所定の時間中の指先移動距離がゼロと判定された場合には、指先座標を含む指先静止検知情報を作成する。
The fingertip position calculation means 140 calculates the fingertip coordinates.
The fingertip stillness detection means 150 calculates the fingertip movement distance using the fingertip coordinates of successive frames, and if the fingertip movement distance during a predetermined time is determined to be zero, the fingertip stillness detection information including the fingertip coordinates Create
入力エミュレーションモジュール155は、指先静止検知情報に基づいて、入力イベント情報を生成して、表示閲覧手段に引き渡す。
詳細には、入力エミュレーションモジュール155は、指先静止検知情報を受け付けて、マウス左クリックエミュレート関数を呼び出して、マウスイベントを発行させる機能を備える。
The input emulation module 155 generates input event information based on the fingertip stillness detection information and delivers it to the display browsing means.
In particular, the input emulation module 155 accepts a fingertip stationary detection information, call the mouse left click emulation function, a function of Ru to issue the mouse event.
表示閲覧手段160は、コンテンツ構成データ196を解釈して、コンテンツ素材データ192を用いてコンテンツ投影画面データ198を作成する。
また、表示閲覧手段160は、オペレーティングシステム185を通じて引き渡されたマウスイベントを受け付けて、適宜コンテンツ投影画面データを更新する。詳細には、表示閲覧手段160は、オペレーティングシステム185が一時記憶領域に保持したマウスイベントを読み出して、適宜コンテンツ投影画面データを更新する。(請求項1における入力エミュレーション手段は、入力エミュレーションモジュール155とオペレーティングシステム185との協調動作により実現される)
The
In addition, the
次に、影の誤抽出防止について、説明する。
投影台に閲覧者の手が無い状態(=何も映っていない状態)にも関わらず、影の撮影画像を手の撮影画像と誤抽出することがあることが経験的に分かっているので、以下の処理を行う。
《撮影画像の二値化処理》対話操作装置100は、背景画像除去処理済の透視変換した撮影画像に対して、濃淡画像の画素値ヒストグラムを、各画素値を仮のしきい値tとして、2つの領域に分けて、各領域内の分散(=クラス内分散)σ2 a と、2つの領域間の分散(=クラス間分散)σ2 b と、を計算し、領域内での分散と領域間の分散の和(=全分散) を算出する関数(仮のしきい値tの関数)w = σ2 a + σ2 b が所定の値以上であれば、大津の手法を適用して、二値化画像を生成する。
Next, prevention of erroneous extraction of shadows will be described.
Since it is empirically known that there is a case where there is no viewer's hand on the projection stand (= state where nothing is reflected), the shadow shot image may be mistakenly extracted as a hand shot image. The following processing is performed.
<< Binarization Processing of Captured Image >> The
図12は、濃淡画像の画素値ヒストグラムの分散を説明する図である。
図12の(a)は、何も映っていない状態の撮影画像の例である。
何も映っていない状態の撮影画像の画素値ヒストグラムの全分散は、小さいことを示している。
図12の(b)は、手が映っている状態の撮影画像の例である。
手が映っている状態の撮影画像の画素値ヒストグラムの全分散は、大きいことを示している。
FIG. 12 is a diagram for explaining the dispersion of the pixel value histogram of the grayscale image.
FIG. 12A is an example of a captured image in a state where nothing is shown.
It shows that the total variance of the pixel value histogram of the captured image in a state where nothing is reflected is small.
FIG. 12B is an example of a captured image in which a hand is shown.
This shows that the total variance of the pixel value histogram of the photographed image in which the hand is reflected is large.
次に、静止した指先の座標が微動変動することに対する対策を説明する。
閲覧者が指先を静止させたときに、手の撮影画像から算出する指先の座標は、指先があたかも微動しているかのように、微小に変動することが経験的に分かっているので、以下の処理を行う。
《指先微小変動判定処理》対話操作装置100は、連続する各フレーム(=撮影画像の静止画)から算出する指先の座標を用いて、指先の移動方向ベクトルを算出して、方向ベクトルの変動値が所定の条件(たとえば、方向ベクトルの変動角度θを用いて、方向ベクトルの変動値をcosθで定義して、所定の条件がθ<25°)を満たせば、指先の座標が微小変動したとして、最初のフレームの指先の座標を保持する。
Next, a countermeasure against the slight movement fluctuation of the coordinates of the stationary fingertip will be described.
Since the fingertip coordinates calculated from the captured image of the hand when the viewer stops the fingertip are empirically known to fluctuate as if the fingertip is moving finely, Process.
<< Fingertip Minor Fluctuation Determination Process >> The
図13は、指先の微小変動を説明する図である。
移動する指先を撮影した画像の連続4フレームの各フレーム間の方向ベクトルν1、ν2、ν3、である場合には、方向ベクトルの変動値は、数式3のように表すことができる。
指先が移動しているときの数式3の値は大きい。言い換えるとθの値は小さい。例えば、θが25°未満である場合には、指先が移動しているときである。
図13の(b)は、指先が静止しているときのcosθの例である。
指先が静止しているときの数式3の値は小さい。言い換えるとθの値は大きい。例えば、θが25°以上である場合には、指先が静止しているときである。
FIG. 13 is a diagram for explaining minute fluctuations of the fingertip.
In the case of the direction vectors ν 1 , ν 2 , ν 3 between the four consecutive frames of the image obtained by photographing the moving fingertip, the variation value of the direction vector can be expressed as
The value of
FIG. 13B is an example of cos θ when the fingertip is stationary.
The value of
次に、手形画像がコンテンツ投影画面の辺に接しない場合の指先判定処理を説明する。
閲覧者の袖口が撮影できない場合には、手形画像がコンテンツ投影画面の辺に接しないので、指先判定処理は、以下のとおりに行う。
《指先判定処理》対話操作装置100は、指先判定処理において、手形画像がコンテンツ投影画面の辺に接しない場合には、距離画像の最高輝度点を基準にして、保持した手形が接する辺の側の輪郭は探索しないで、指先を判定する。
図14は、閲覧者の袖口が撮影できない手の撮影画像の例である。
例示された手の画像は、画面の左辺に閲覧者の袖口がかかり、手の撮影画像が左辺から離れている状態を示している。
閲覧者の手は、左辺から移動してきたので、距離画像の最高輝度点1038を基準にして、その左側の輪郭は探索しないで、指先を判定する。
Next, a fingertip determination process when the handprint image does not touch the side of the content projection screen will be described.
When the viewer's cuffs cannot be photographed, the handprint image does not touch the side of the content projection screen, so the fingertip determination process is performed as follows.
<< Fingertip Determination Process >> In the fingertip determination process, in the fingertip determination process, when the handprint image does not touch the side of the content projection screen, the side of the side where the held handprint touches with respect to the highest luminance point of the distance image The fingertip is determined without searching for the outline of.
FIG. 14 is an example of a photographed image of a hand that cannot photograph the viewer's cuffs.
The illustrated hand image shows a state in which the viewer's cuffs are on the left side of the screen and the captured image of the hand is away from the left side.
Since the viewer's hand has moved from the left side, the fingertip is determined without searching for the left contour on the basis of the highest luminance point 1038 of the distance image.
1 指先操作型コンテンツ提供システム
100 対話操作装置
103 撮影画像表示画面
106 赤外カメラ
107 投影機接続手段
110 初期設定手段
130 指先検出手段
140 指先位置算出手段
150 指先静止検知手段
155 入力エミュレーションモジュール
160 表示閲覧手段
170 投影表示手段
191 マウス関数ライブラリー
300 プロジェクター、投影機
400 投影台
403 コンテンツ投影画面
500 赤外光源
900 閲覧者
1 Fingertip Operation Type
Claims (2)
コンテンツ構成データを格納するコンテンツ格納領域と、
前記コンテンツ投影画面データを保持する表示画面保持領域と、
を備える記憶手段と、
前記コンテンツ構成データを解釈して、前記コンテンツ投影画面データを作成する表示閲覧手段と、
前記赤外カメラから前記撮影画像を取得する撮影画像取得手段と、
前記撮影画像の各フレームから閲覧者の指先を検知する指先検出手段と、
前記指先の座標を算出する指先位置算出手段と、
連続する前記各フレームの指先の座標を用いて当該指先の移動距離を算出して、所定の時間中の前記移動距離がゼロと判定された場合には、前記指先の座標を含む指先静止検知情報を作成する指先静止検知手段と、
前記指先静止検知情報に基づいて、入力イベント情報を生成して、前記表示閲覧手段に引き渡す入力エミュレーション手段と、
を備え、
前記表示閲覧手段は、前記入力エミュレーション手段から引き渡された入力イベント情報を受け付けて、適宜コンテンツ投影画面データを更新して、
前記指先検出手段は、前記コンテンツ投影画面の輪郭を構成する複数の辺のうち、手の前記撮影画像が接する一つの前記辺が、底辺、または、左辺、または、右辺、または、上辺のいずれの辺であるか否かを判定し、前記判定した辺が底辺である場合には手の最上部を指先と判定し、前記判定した辺が左辺である場合には手の最右部を指先と判定し、前記判定した辺が右辺である場合には手の最左部を指先と判定し、前記判定した辺が上辺である場合には手の最下部を指先と判定する、
ことを特徴とする対話操作装置。 A projector for projecting an image based on the content projection screen data to the projection stage, and an infrared camera to generate a captured image by capturing the projection stage, the interaction device is connected,
And a content storage area for storing the content configuration data,
A display screen holding area for holding the content projection screen data,
Storage means comprising :
Interprets the content member data, a display viewing means for creating the content projection screen data,
Captured image acquisition means for acquiring the captured image from the infrared camera;
And the fingertip detection means for detecting the fingertip of the viewer from each frame of the captured image,
And the fingertip position calculating means for calculating the coordinates of the fingertip,
And calculates the movement distance of the finger using the coordinates of the fingertip of each frame consecutive, when the moving distance during a predetermined time is determined to zero, the fingertip stationary detection information including coordinates of the fingertip Fingertip stationary detection means for creating
Based on the fingertip stationary detection information, and generates the input event information, an input emulation means to pass to the display viewing means,
With
The display browsing means receives the input event information delivered from the input emulation means, updates the content projection screen data as appropriate ,
The fingertip detecting means is one of a plurality of sides constituting the outline of the content projection screen, and one of the sides in contact with the captured image of the hand is a bottom side, a left side, a right side, or an upper side. It is determined whether or not it is a side, and when the determined side is the bottom side, the top of the hand is determined as the fingertip, and when the determined side is the left side, the rightmost part of the hand is the fingertip. determined, the determined sides is determined that the fingertip of the leftmost portion of the hand when it is right, it is determined that the fingertip of the bottom of the hand when the determined sides are the upper side,
An interactive operation device characterized by that.
前記指先検出手段は、The fingertip detection means includes
手形画像が接するコンテンツ投影画面の辺が見つからなかった場合には、距離画像の最高輝度点を基準にして、移動して延びてきた手の側の辺と平行で最高輝度点を通る直線にて2分割される手形画像の輪郭のうち、手が移動してきた側の輪郭は探索しないで、最遠部を指先とする、If the side of the content projection screen that touches the handprint image is not found, the straight line that passes through the maximum brightness point is parallel to the side of the hand that has been moved and extended based on the maximum brightness point of the distance image. Of the contours of the handprint image divided into two, without searching for the contour on the side where the hand has moved, the farthest part is the fingertip.
ことを特徴とする対話操作装置。An interactive operation device characterized by that.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009169589A JP5201096B2 (en) | 2009-07-17 | 2009-07-17 | Interactive operation device |
PCT/JP2010/061747 WO2011007746A1 (en) | 2009-07-17 | 2010-07-12 | Fingertip-manipulation-type information providing system, interactive manipulation device, computer program, and storage medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009169589A JP5201096B2 (en) | 2009-07-17 | 2009-07-17 | Interactive operation device |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2011022945A JP2011022945A (en) | 2011-02-03 |
JP2011022945A5 JP2011022945A5 (en) | 2012-08-23 |
JP5201096B2 true JP5201096B2 (en) | 2013-06-05 |
Family
ID=43449353
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009169589A Expired - Fee Related JP5201096B2 (en) | 2009-07-17 | 2009-07-17 | Interactive operation device |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP5201096B2 (en) |
WO (1) | WO2011007746A1 (en) |
Families Citing this family (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012208926A (en) * | 2011-03-15 | 2012-10-25 | Nikon Corp | Detection device, input device, projector and electronic apparatus |
CN102221887B (en) * | 2011-06-23 | 2016-05-04 | 康佳集团股份有限公司 | Interactive projection system and method |
JP2013037420A (en) * | 2011-08-04 | 2013-02-21 | Dainippon Printing Co Ltd | Content display system, content display control method, content display control device, and program |
JP2013206350A (en) * | 2012-03-29 | 2013-10-07 | Ntt Docomo Inc | Information processor, and method for correcting input place in the information processor |
JP2013222317A (en) * | 2012-04-17 | 2013-10-28 | Toshiba Mach Co Ltd | Numerical control device |
JP5174978B1 (en) * | 2012-04-26 | 2013-04-03 | 株式会社三菱東京Ufj銀行 | Information processing apparatus, electronic device, and program |
JP6049334B2 (en) * | 2012-07-12 | 2016-12-21 | キヤノン株式会社 | Detection apparatus, detection method, and program |
JP6127564B2 (en) * | 2013-02-15 | 2017-05-17 | コニカミノルタ株式会社 | Touch determination device, touch determination method, and touch determination program |
JP5991538B2 (en) * | 2013-02-20 | 2016-09-14 | 富士ゼロックス株式会社 | Data processing apparatus, data processing system, and program |
JP2014186715A (en) | 2013-02-21 | 2014-10-02 | Canon Inc | Information processing apparatus and information processing method |
TW201510771A (en) | 2013-09-05 | 2015-03-16 | Utechzone Co Ltd | Pointing direction detecting device and its method, program and computer readable-medium |
JP6303514B2 (en) * | 2014-01-14 | 2018-04-04 | 新日鐵住金株式会社 | Work information input system, information processing apparatus, control method thereof, and program |
JP6340860B2 (en) * | 2014-01-21 | 2018-06-13 | セイコーエプソン株式会社 | POSITION DETECTION DEVICE, PROJECTOR, POSITION DETECTION SYSTEM, AND POSITION DETECTION DEVICE CONTROL METHOD |
JP6335695B2 (en) * | 2014-07-09 | 2018-05-30 | キヤノン株式会社 | Information processing apparatus, control method therefor, program, and storage medium |
JP2016091457A (en) | 2014-11-10 | 2016-05-23 | 富士通株式会社 | Input device, fingertip-position detection method, and computer program for fingertip-position detection |
JP2016126160A (en) * | 2014-12-26 | 2016-07-11 | カシオ計算機株式会社 | Imaging device, imaging control method, and program |
JP6786792B2 (en) * | 2015-12-03 | 2020-11-18 | セイコーエプソン株式会社 | Information processing device, display device, information processing method, and program |
JP6808330B2 (en) * | 2016-02-26 | 2021-01-06 | キヤノン株式会社 | Information processing equipment, information processing methods, and programs |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3777650B2 (en) * | 1995-04-28 | 2006-05-24 | 松下電器産業株式会社 | Interface equipment |
JP3834766B2 (en) * | 2000-04-03 | 2006-10-18 | 独立行政法人科学技術振興機構 | Man machine interface system |
JP2005063092A (en) * | 2003-08-11 | 2005-03-10 | Keio Gijuku | Hand pattern switch device |
JP4193895B2 (en) * | 2006-10-12 | 2008-12-10 | 横河電機株式会社 | Defect inspection equipment |
JP2008152622A (en) * | 2006-12-19 | 2008-07-03 | Mitsubishi Electric Corp | Pointing device |
JP4220555B2 (en) * | 2007-02-09 | 2009-02-04 | 株式会社日立製作所 | Table type information terminal |
JP4513830B2 (en) * | 2007-06-25 | 2010-07-28 | ソニー株式会社 | Drawing apparatus and drawing method |
JP4933389B2 (en) * | 2007-09-14 | 2012-05-16 | 株式会社リコー | Image projection display device, image projection display method, image projection display program, and recording medium |
-
2009
- 2009-07-17 JP JP2009169589A patent/JP5201096B2/en not_active Expired - Fee Related
-
2010
- 2010-07-12 WO PCT/JP2010/061747 patent/WO2011007746A1/en active Application Filing
Also Published As
Publication number | Publication date |
---|---|
WO2011007746A1 (en) | 2011-01-20 |
JP2011022945A (en) | 2011-02-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5201096B2 (en) | Interactive operation device | |
JP6089722B2 (en) | Image processing apparatus, image processing method, and image processing program | |
US9927881B2 (en) | Hand tracker for device with display | |
JP6007497B2 (en) | Image projection apparatus, image projection control apparatus, and program | |
US11308347B2 (en) | Method of determining a similarity transformation between first and second coordinates of 3D features | |
CN104380338B (en) | Information processor and information processing method | |
JP6417702B2 (en) | Image processing apparatus, image processing method, and image processing program | |
US20150058782A1 (en) | System and method for creating and interacting with a surface display | |
US10642422B2 (en) | Information processing apparatus, control method for the information processing apparatus, and storage medium | |
JP2015187884A (en) | Pointing device with camera and mark output | |
US9911230B2 (en) | Method and apparatus for controlling virtual monitor | |
JP7378354B2 (en) | Detecting finger presses from live video streams | |
JP2014029656A (en) | Image processor and image processing method | |
Chu et al. | Hand gesture for taking self portrait | |
Riemann et al. | Flowput: Environment-aware interactivity for tangible 3d objects | |
JP6229554B2 (en) | Detection apparatus and detection method | |
KR20090116544A (en) | Apparatus and method for space touch sensing and screen apparatus sensing infrared camera | |
Zhang et al. | Transforming a regular screen into a touch screen using a single webcam | |
JP2012027528A (en) | Display device, display method and program for controlling display device | |
CN116301551A (en) | Touch identification method, touch identification device, electronic equipment and medium | |
KR20160031968A (en) | A method for shadow removal in front projection systems | |
Alex et al. | LampTop: Touch detection for a projector-camera system based on shape classification | |
Niikura et al. | Touch detection system for various surfaces using shadow of finger | |
Kurata et al. | Interaction using nearby-and-far projection surfaces with a body-worn ProCam system | |
Pullan et al. | High Resolution Touch Screen Module |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120704 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20120704 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20130115 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20130128 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20160222 Year of fee payment: 3 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |