[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP5201096B2 - Interactive operation device - Google Patents

Interactive operation device Download PDF

Info

Publication number
JP5201096B2
JP5201096B2 JP2009169589A JP2009169589A JP5201096B2 JP 5201096 B2 JP5201096 B2 JP 5201096B2 JP 2009169589 A JP2009169589 A JP 2009169589A JP 2009169589 A JP2009169589 A JP 2009169589A JP 5201096 B2 JP5201096 B2 JP 5201096B2
Authority
JP
Japan
Prior art keywords
fingertip
image
content
hand
determined
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2009169589A
Other languages
Japanese (ja)
Other versions
JP2011022945A (en
JP2011022945A5 (en
Inventor
和真 小泉
由愛 黒岩
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dai Nippon Printing Co Ltd
Original Assignee
Dai Nippon Printing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dai Nippon Printing Co Ltd filed Critical Dai Nippon Printing Co Ltd
Priority to JP2009169589A priority Critical patent/JP5201096B2/en
Priority to PCT/JP2010/061747 priority patent/WO2011007746A1/en
Publication of JP2011022945A publication Critical patent/JP2011022945A/en
Publication of JP2011022945A5 publication Critical patent/JP2011022945A5/en
Application granted granted Critical
Publication of JP5201096B2 publication Critical patent/JP5201096B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/254Analysis of motion involving subtraction of images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04806Zoom, i.e. interaction techniques or interactors for controlling the zooming operation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10048Infrared image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Analysis (AREA)
  • Studio Devices (AREA)

Description

本発明は、閲覧者が指先で投影された情報を操作するシステム、プログラム、記録媒体に関するものである。
本発明は特に、投影台に投影したコンテンツに対して、閲覧者が指先で指示を与えることによって、指示に基づいたコンテンツを投影台に投影させる場合に有用である。
The present invention relates to a system, a program, and a recording medium for operating information projected by a viewer with a fingertip.
The present invention is particularly useful when the content projected on the projection table is projected on the projection table by the viewer giving an instruction with a fingertip.

近時、普及の著しいプロジェクターは、壁面や表示板(以下、投影台)にコンテンツを大きく投影することができるので、広告媒体やコミュニケーション・ツールとして活用される機会が増えている。
コンテンツの閲覧者は、たとえば、美術館で、投影されたコンテンツを対話的に操作することで、より多くの美術情報を得て、充実した美術鑑賞をすることが可能となる。
ここで、表示されたコンテンツと対話的に操作する方法を説明する。
Recently, projectors that are remarkably widespread can project a large amount of content on a wall surface or a display board (hereinafter referred to as a “projection stand”), and thus are increasingly used as advertising media or communication tools.
A content viewer can interact with the projected content interactively at a museum, for example, to obtain more art information and enjoy a full art appreciation.
Here, a method for interactively operating the displayed content will be described.

《 A.カーソル操作 》
マウスやトラックボールに代表されるポインティングデバイスを用いてカーソルを操作して、閲覧者が閲覧するコンテンツを対話的に操作する方法である。
あるいは、閲覧者がレーサーポインターを用いて、レーザースポット光を照射するときの動き方によって、コンテンツを対話的に操作する方法である。
たとえば、特許文献1では、ポインティングデバイスを用いて、コンピュータディスプレー画面と、机や壁の仮想拡張ディスプレー画面と、の間を、デジタル・オブジェクトをシームレスにドラッグ・アンド・ドロップする技術が開示されている。
また、特許文献2では、投影スクリーン上の画面に対して、レーザーポインターの光で指示することによって、画面の切り替えや、線の描画や、画面の部分拡大などのプレゼンテーション画面を操作する技術が開示されている。
《 B.タッチパネル指示》
閲覧者が、コンテンツを表示したタッチパネルに手を触れると、触れた位置に応じて、コンテンツを対話的に操作する方法である。
たとえば、特許文献3では、ディスプレー上の点を指先で押し続ける時間の長さに応じて、領域の広さを変えて、領域選択する技術が開示されている。
<< A. Cursor operation
This is a method of interactively operating content viewed by a viewer by operating a cursor using a pointing device typified by a mouse or a trackball.
Alternatively, it is a method of interactively manipulating content using a racer pointer, depending on how the viewer moves when irradiating a laser spot light.
For example, Patent Document 1 discloses a technique for seamlessly dragging and dropping a digital object between a computer display screen and a virtual extended display screen of a desk or wall using a pointing device. .
Patent Document 2 discloses a technique for operating a presentation screen such as screen switching, line drawing, and screen partial enlargement by instructing the screen on the projection screen with the light of a laser pointer. Has been.
<< B. Touch panel instructions >>
In this method, when a viewer touches a touch panel displaying content, the content is interactively operated according to the touched position.
For example, Patent Document 3 discloses a technique for selecting an area by changing the area size according to the length of time for which a point on the display is kept pressed with a fingertip.

特開2001−175374号公報(段落番号「0125」〜段落番号「0135」、図4〜図7)JP 2001-175374 A (paragraph number “0125” to paragraph number “0135”, FIGS. 4 to 7) 特開2001−125738号公報(段落「0065」、段落「0067」〜段落「0069」、図6)JP 2001-125738 A (paragraph “0065”, paragraph “0067” to paragraph “0069”, FIG. 6) 特開特開2006−113715号公報(段落「0015」〜段落「0016」、図4)Japanese Patent Laying-Open No. 2006-113715 (paragraph “0015” to “0016”, FIG. 4)

しかしながら、《 A.カーソル操作》の方法では、閲覧者はマウスなどのポインティングデバイスを使用しなければ、対話操作が行えない。
また、《 B.タッチパネル指示》の方法では、コンテンツを表示する装置に、閲覧者が手を触れたことを検知する装置を備えなければならない。
However, << A. In the “cursor operation” method, a viewer cannot perform an interactive operation unless using a pointing device such as a mouse.
In addition, << B. In the method of “touch panel instruction”, a device for detecting that a viewer has touched a hand must be provided in a device for displaying content.

本発明は以上のような点を解決するためになされたものであって、本発明の課題は、閲覧者が道具を用いずに、また、投影台に仕掛けを施さずに、投影表示されたコンテンツに対して、対話操作装置を提供することである。 The present invention has been made in order to solve the above-described points, and the object of the present invention is that the viewer can project and display without using a tool and without setting a device on the projection table. for the content, it is to provide a dialogue operation equipment.

本発明は、以下の各態様に記載の手段により、前記課題を解決する。
すなわち、本願発明の第1の発明は
コンテンツ投影画面データに基づく像を投影台に投影する投影機と、前記投影台を撮影して撮影画像を生成する赤外カメラと、が接続される対話操作装置において
コンテンツ構成データを格納するコンテンツ格納領域と、
前記コンテンツ投影画面データを保持する表示画面保持領域と、
を備える記憶手段と
前記コンテンツ構成データを解釈して、前記コンテンツ投影画面データを作成する表示閲覧手段と、
前記赤外カメラから前記撮影画像を取得する撮影画像取得手段と、
前記撮影画像の各フレームから閲覧者の指先を検知する指先検出手段と、
前記指先の座標を算出する指先位置算出手段と、
連続する前記各フレームの指先の座標を用いて当該指先移動距離を算出して、所定の時間中の前記移動距離がゼロと判定された場合には、前記指先の座標を含む指先静止検知情報を作成する指先静止検知手段と、
前記指先静止検知情報に基づいて、入力イベント情報を生成して、前記表示閲覧手段に引き渡す入力エミュレーション手段と、
を備え、
前記表示閲覧手段は、前記入力エミュレーション手段から引き渡された入力イベント情報を受け付けて、適宜コンテンツ投影画面データを更新して、
前記指先検出手段は、前記コンテンツ投影画面の輪郭を構成する複数の辺のうち、手の前記撮影画像が接する一つの前記辺が、底辺、または、左辺、または、右辺、または、上辺のいずれの辺であるか否かを判定し、前記判定した辺が底辺である場合には手の最上部を指先と判定し、前記判定した辺が左辺である場合には手の最右部を指先と判定し、前記判定した辺が右辺である場合には手の最左部を指先と判定し、前記判定した辺が上辺である場合には手の最下部を指先と判定する、
ことを特徴とする対話操作装置である。
This invention solves the said subject by the means as described in each following aspect.
That is, the first invention of the present invention is :
A projector for projecting an image based on the content projection screen data to the projection stage, and an infrared camera to generate a captured image by capturing the projection stage, the interaction device is connected,
And a content storage area for storing the content configuration data,
A display screen holding area for holding the content projection screen data,
Storage means comprising :
Interprets the content member data, a display viewing means for creating the content projection screen data,
Captured image acquisition means for acquiring the captured image from the infrared camera;
And the fingertip detection means for detecting the fingertip of the viewer from each frame of the captured image,
And the fingertip position calculating means for calculating the coordinates of the fingertip,
And calculates the movement distance of the finger using the coordinates of the fingertip of each frame consecutive, when the moving distance during a predetermined time is determined to zero, the fingertip stationary detection information including coordinates of the fingertip Fingertip stationary detection means for creating
Based on the fingertip stationary detection information, and generates the input event information, an input emulation means to pass to the display viewing means,
With
The display browsing means receives the input event information delivered from the input emulation means, updates the content projection screen data as appropriate ,
The fingertip detecting means is one of a plurality of sides constituting the outline of the content projection screen, and one of the sides in contact with the captured image of the hand is a bottom side, a left side, a right side, or an upper side. It is determined whether or not it is a side, and when the determined side is the bottom side, the top of the hand is determined as the fingertip, and when the determined side is the left side, the rightmost part of the hand is the fingertip. determined, the determined sides is determined that the fingertip of the leftmost portion of the hand when it is right, it is determined that the fingertip of the bottom of the hand when the determined sides are the upper side,
This is an interactive operation device characterized by the above.

このように、閲覧者の指先の動きと位置を検知して入力イベント情報を生成して、投影閲覧中のコンテンツを加工して表示することが可能である。 In this way, it is possible to detect the movement and position of the viewer's fingertip, generate input event information, and process and display the content being projected and viewed.

本願の第2の発明は、第1の発明に記載の前記指先検出手段は、
前記指先検出手段は、
手形画像が接するコンテンツ投影画面の辺が見つからなかった場合には、距離画像の最高輝度点を基準にして、移動して延びてきた手の側の辺と平行で最高輝度点を通る直線にて2分割される手形画像の輪郭のうち、手が移動してきた側の輪郭は探索しないで、最遠部を指先とする、
ことを特徴とする対話操作装置である。
According to a second aspect of the present invention, the fingertip detection means according to the first aspect is
The fingertip detection means includes
If the side of the content projection screen that touches the handprint image is not found, the straight line that passes through the maximum brightness point is parallel to the side of the hand that has been moved and extended based on the maximum brightness point of the distance image. Of the contours of the handprint image divided into two, without searching for the contour on the side where the hand has moved, the farthest part is the fingertip.
This is an interactive operation device characterized by the above.

本願発明によれば、
(1)投影台に情報操作指示の検知装置を設けずに、投影されたコンテンツに対して、情報操作をすることが可能である。
(2)閲覧者は道具を用いずに、指先で情報操作の指示を与えることが可能である。
従って、本発明によれば、閲覧者は投影されたコンテンツに対して、指先で指示するだけで、手軽に情報操作することができるという効果がある。
According to the present invention,
(1) An information operation can be performed on the projected content without providing an information operation instruction detection device on the projection table.
(2) The viewer can give an instruction to operate the information with a fingertip without using a tool.
Therefore, according to the present invention, there is an effect that the viewer can easily operate the information simply by pointing the projected content with the fingertip.

図1は、本発明の実施の形態による指先操作型情報提供システム1の概要を説明する図である。(実施例1)FIG. 1 is a diagram illustrating an overview of a fingertip operation type information providing system 1 according to an embodiment of the present invention. Example 1 図2は、対話指示に基づくコンテンツ投影画面の例である。FIG. 2 is an example of a content projection screen based on a dialogue instruction. 図3は、指先操作型情報提供システム1の操作と処理の大まかな操作手順を説明する図である。FIG. 3 is a diagram for explaining a rough operation procedure of the operation and processing of the fingertip operation type information providing system 1. 図4は、指先検出の例である。FIG. 4 is an example of fingertip detection. 図5は、(1)初期設定処理の詳細な流れを説明する図である。FIG. 5 is a diagram for explaining the detailed flow of (1) initial setting processing. 図6は、投影範囲を設定する例を説明する図である。FIG. 6 is a diagram for explaining an example of setting the projection range. 図7は、(3)指先検出処理の詳細な流れを説明する図である。FIG. 7 is a diagram for explaining the detailed flow of (3) fingertip detection processing. 図8は、二値化画像作成処理の例を説明する図である。FIG. 8 is a diagram for explaining an example of the binarized image creation process. 図9は、大津の手法を説明するである。FIG. 9 illustrates the method of Otsu. 図10は、(3−6)指先の決定処理のフローチャートである。FIG. 10 is a flowchart of (3-6) fingertip determination processing. 図11は、情報処理装置100の詳細な構成図である。FIG. 11 is a detailed configuration diagram of the information processing apparatus 100. 図12は、影の映り込みを説明する図である。(実施例2)FIG. 12 is a diagram for explaining the reflection of a shadow. (Example 2) 図13は、指先の微動を無視する処理を説明する図である。(実施例3)FIG. 13 is a diagram for explaining processing for ignoring the fine movement of the fingertip. (Example 3) 図14は、指先の検出を説明する図である。(実施例4)FIG. 14 is a diagram for explaining fingertip detection. Example 4

以下、図面等を参照しながら、本発明の実施の形態について、更に詳しく説明する。 Hereinafter, embodiments of the present invention will be described in more detail with reference to the drawings.

図1は、本発明の実施の形態による指先操作型コンテンツ提供システム1の概要を説明する図である。
指先操作型コンテンツ提供システム1は、投影台400と、赤外光源500と、プロジェクター300(=投影機)と、対話操作装置100と、から構成される。
対話操作装置100は、既存のパーソナルコンピューターで、後述する専用プログラムを搭載したものである。
対話操作装置100は、赤外カメラ106と投影機300を接続する。
赤外光源500は、赤外光を投影台400に照射するLED光源装置である。
赤外カメラ106は、赤外光による反射像を撮像する電子カメラである。
投影機300は、対話操作装置100が作成するコンテンツ投影画面データに基づく像を投影台400に投影するプロジェクターである。
FIG. 1 is a diagram illustrating an overview of a fingertip operation type content providing system 1 according to an embodiment of the present invention.
The fingertip operation type content providing system 1 includes a projection table 400, an infrared light source 500, a projector 300 (= projector), and an interactive operation device 100.
The interactive operation device 100 is an existing personal computer and has a dedicated program described later.
The interactive operation device 100 connects the infrared camera 106 and the projector 300.
The infrared light source 500 is an LED light source device that irradiates the projection table 400 with infrared light.
The infrared camera 106 is an electronic camera that captures an image reflected by infrared light.
The projector 300 is a projector that projects an image based on the content projection screen data created by the interactive operation device 100 onto the projection table 400.

ここで、赤外光源500と赤外カメラ106とを用いる理由は、赤外光で照射された閲覧者900の指先は撮像するが、プロジェクター300が、可視光にて投影台400に投影した投影画像(=コンテンツ投影画面)は撮像しないようにするためである。 Here, the reason for using the infrared light source 500 and the infrared camera 106 is that the image of the fingertip of the viewer 900 irradiated with infrared light is captured, but the projector 300 projects onto the projection table 400 with visible light. This is because an image (= content projection screen) is not captured.

図2は、コンテンツ投影画面403の例である。
図2の(a)は、コンテンツと解説文を表示したコンテンツ投影画面403の例である。
例示されたコンテンツ投影画面の意味は、指先で指示したコンテンツの解説文をコンテンツに重畳させて表示しているということである。
図2の(b)は、コンテンツの部分拡大画像を含むコンテンツ投影画面403の例である。
例示されたコンテンツ投影画面の意味は、指先が乗ったコンテンツ部分を拡大した画像を、コンテンツに重畳させて表示しているということである。
FIG. 2 is an example of the content projection screen 403.
FIG. 2A shows an example of a content projection screen 403 displaying content and commentary.
The meaning of the exemplified content projection screen is that the explanation text of the content designated by the fingertip is displayed superimposed on the content.
FIG. 2B is an example of a content projection screen 403 including a partially enlarged image of content.
The meaning of the exemplified content projection screen is that an image obtained by enlarging the content portion on which the fingertip is placed is displayed superimposed on the content.

次に、図3を用いて、指先操作型情報提供システム1の大まかな操作と情報処理の手順を説明する。
(1)《初期設定処理》システム管理者は、対話操作装置100の赤外カメラが投影台400を撮影して生成した投影台の撮影画像を用いて、撮影画像を透視変換処理する撮影画像透視変換行列関係式や、撮影画像の背景画像などを設定する初期設定処理を行う。(詳細は後述する)
(2)《コンテンツ投影処理》対話操作装置100は、閲覧者に閲覧させるコンテンツ投影画面103を、投影機300を用いて投影台400に、投影する。
(3)《対話操作》閲覧者は、投影台400に投影されたコンテンツ投影画面403に対して、指先を用いて、対話操作を行う。
(4)《指先検出処理》対話操作装置100は、対話操作する閲覧者の指先を赤外カメラ106で撮影して、撮影画像から閲覧者の指先の位置や動作を検知する。ここで、閲覧者の指先動作を検知するためには、撮影画像の各フレームの指先位置を比較すればよい。すなわち、各フレームの指先位置の変化量を計測して、静止しているのか、移動しているのかを判定すればよい。
(5)《対話操作したコンテンツの投影処理》対話操作装置100は、検知した指先の動作を指先動作判定条件(たとえば、指先の静止動作時間が0.5秒以上であれば指先静止動作など)で判定して、指先動作判定条件に応じた対話操作を行い、たとえば、選択したコンテンツの解説文表示や、選択したコンテンツの部分拡大画像表示などの閲覧者が所望する操作の結果を、投影機300を用いて、投影台400に投影する。
ここで、対話操作装置100は、コンテンツの投影画面403の指先に相当する位置にカーソルを重畳してもよい。
(6)《コンテンツ閲覧》閲覧者は、投影台400に投影されたコンテンツ投影画面403を閲覧する。
Next, a rough operation and information processing procedure of the fingertip operation type information providing system 1 will be described with reference to FIG.
(1) << Initial Setting Process >> The system administrator uses the captured image of the projection table generated by the infrared camera of the interactive operation device 100 by capturing the projection table 400 to perform a perspective transformation process on the captured image. Initial setting processing for setting a transformation matrix relational expression, a background image of a captured image, and the like is performed. (Details will be described later)
(2) << Content Projection Process >> The interactive operation device 100 projects the content projection screen 103 to be viewed by the viewer on the projection table 400 using the projector 300.
(3) << Interactive Operation >> The viewer performs an interactive operation on the content projection screen 403 projected on the projection table 400 using a fingertip.
(4) << Fingertip Detection Processing >> The dialog operation device 100 captures the fingertip of the viewer who performs the dialog operation with the infrared camera 106 and detects the position and operation of the viewer's fingertip from the captured image. Here, in order to detect the fingertip movement of the viewer, the fingertip position of each frame of the captured image may be compared. That is, it is only necessary to measure the amount of change in the fingertip position of each frame to determine whether the frame is stationary or moving.
(5) << Projection processing of interactively operated content >> The interactive operation device 100 uses the detected fingertip motion as a fingertip motion determination condition (for example, fingertip still motion if the fingertip rest motion time is 0.5 seconds or longer). And performing an interactive operation in accordance with the fingertip movement determination condition. For example, the result of the operation desired by the viewer, such as the explanation of the selected content or the partial enlarged image of the selected content, is displayed on the projector. 300 is used to project onto the projection table 400.
Here, the dialogue operation apparatus 100 may superimpose a cursor on a position corresponding to the fingertip of the content projection screen 403.
(6) << Content browsing >> The viewer browses the content projection screen 403 projected on the projection table 400.

図4を用いて、閲覧者の指先について説明する。
図4の(a)は、手の撮影画像表示画面103の底辺1031から延びた手の指先を説明する例である。
表示画面の底辺から延びた手の撮影画像を画面103に表示した例が示されている。
例示されている撮影画像の意味は、底辺1031から延びた手の場合には、手の最上部1035を指先として検知していることを示している。
The viewer's fingertip will be described with reference to FIG.
FIG. 4A is an example for explaining the fingertip of the hand extending from the bottom side 1031 of the captured image display screen 103 of the hand.
An example in which a captured image of a hand extending from the bottom of the display screen is displayed on the screen 103 is shown.
In the case of a hand extending from the base 1031, the meaning of the photographed image shown as an example indicates that the uppermost portion 1035 of the hand is detected as a fingertip.

図4の(b)は、コンテンツの投影画面の左辺1032から延びた手の指先を説明する例である。
表示画面の左辺から延びた手の撮影画像を画面103に表示した例が示されている。
例示されている指先の意味は、左辺1032から延びた手の場合には、手の最右部1036を指先として検知していることを示している。
FIG. 4B illustrates an example of a fingertip of a hand extending from the left side 1032 of the content projection screen.
An example in which a captured image of a hand extending from the left side of the display screen is displayed on the screen 103 is shown.
In the case of a hand extending from the left side 1032, the meaning of the illustrated fingertip indicates that the rightmost portion 1036 of the hand is detected as the fingertip.

図5と図6を用いて、(1)《初期設定処理》の詳細な流れを説明する
図5は、(1)《初期設定処理》の詳細な流れを説明する図である。
(1−1)《投影範囲指示》システム管理者は、対話操作装置100の赤外カメラが投影台400を撮影して生成した投影台の撮影画像を用いて、投影範囲としての四角形の4頂点座標を入力する。たとえば、システム管理者は、投影台の撮影画像を対話操作装置100の表示部に表示させて、投影範囲の4頂点座標を、たとえば、十字カーソルをキーボードで操作して入力する。
5 and 6 are used to explain the detailed flow of (1) << Initial Setting Process >>. FIG. 5 is a diagram illustrating the detailed flow of (1) << Initial Setting Process >>.
(1-1) << Projection range instruction >> The system administrator uses four captured vertices of a quadrangle as a projection range, using a captured image of the projection table generated by the infrared camera of the interactive operation device 100 capturing the projection table 400. Enter the coordinates. For example, the system administrator displays a photographed image of the projection table on the display unit of the interactive operation device 100 and inputs the four vertex coordinates of the projection range by operating, for example, a cross cursor with a keyboard.

(1−2)《座標変換行列の算出》対話操作装置100は、システム管理者が入力した投影範囲指示を受け付けて、座標変換行列関係式(たとえば、座標変換行列関係式として、すでに数学的に分かっている下記の数式1)に対して、受け付けた投影範囲指示の4つの頂点座標値[Xpk 、Ypk ](k=1、2,3、4)と、コンテンツ投影画面の4つの標準頂点座標値[Xmk、Ymk ](k=1、2,3、4)(たとえば、[0、0][0、1024][768、0][768、1024])とを代入して、12個の式を作成してこれらを解いて、座標変換行列の8つの行列要素Cij (i,j=1、2,3)を算出して、撮影画像透視変換行列関係式(下記の数式2)を導出する。撮影画像透視変換行列関係式は、撮影画像の座標[Xp 、Yp ]とコンテンツ投影画面の座標[Xm、Ym ]とを透視変換する行列関係式である。

Figure 0005201096
ここで、xp は、撮影画像のX座標値である。yp は、撮影画像のY座標値である。
hは、カメラ原点と画像平面の距離を変数とする値である。
mは、コンテンツ投影画面のX座標値である。Ym は、コンテンツ投影画面のY座標値である。
ijは、二次元画像透視変換関係式の行列要素である。ここで、i,j=1、2,3である。
Figure 0005201096
ここで、Ca 、Cb 、・・、Ch は、算出した撮影画像透視変換関係式の行列要素である。 (1-2) << Calculation of Coordinate Transformation Matrix >> The interactive operation apparatus 100 accepts a projection range instruction input by the system administrator, and has already mathematically converted a coordinate transformation matrix relational expression (for example, a coordinate transformation matrix relational expression). For the following mathematical formula 1), the four vertex coordinate values [X pk , Y pk ] (k = 1, 2, 3, 4) of the received projection range instruction and the four standards of the content projection screen Substituting the vertex coordinate values [X mk , Y mk ] (k = 1, 2, 3, 4) (for example, [0, 0] [0, 1024] [768, 0] [768, 1024]) , Twelve equations are solved and these are solved to calculate eight matrix elements C ij (i, j = 1, 2, 3) of the coordinate transformation matrix, and the captured image perspective transformation matrix relational expression (the following formula) Equation 2) is derived. Photographed image perspective transformation matrix equation is a matrix equation which coordinates of the photographed image [X p, Y p] with coordinates [X m, Y m] Content projection screen and perspective transformation.
Figure 0005201096
Here, xp is the X coordinate value of the captured image. y p is the Y-coordinate value of the captured image.
h is a value having the distance between the camera origin and the image plane as a variable.
X m is the X coordinate value of the content projection screen. Y m is the Y coordinate value of the content projection screen.
C ij is a matrix element of the two-dimensional image perspective transformation relational expression. Here, i, j = 1, 2, and 3.
Figure 0005201096
Here, C a , C b ,..., Ch are matrix elements of the calculated captured image perspective transformation relational expression.

なお、撮影画像透視変換関係式の算出には、opencvの透視変換行列算出関数cvGetPerspectiveTransformを用いて、算出することができる。ここで、opencvとは、インテル(登録商標)が開発・公開したオープンソースのコンピュータビジョン向けライブラリーである。 The captured image perspective transformation relational expression can be calculated using the opencv perspective transformation matrix computation function cvGetPerspectiveTransform. Here, opencv is an open source computer vision library developed and released by Intel (registered trademark).

ここで、図6を用いて、《投影範囲指示》の作業で用いる表示画面を説明する。
図6の(a)には、投影範囲の指示画面1031が、例示されている。例示された投影範囲の指示画面1031には、対話操作装置100の赤外カメラ104で撮影した投影台400の撮影画像が表示されている。
また、この投影範囲の指示画面1031には、投影範囲の4頂点p、q、r、sが入力された様子が示されている。
このとき、投影範囲の4頂点p、q、r、sの頂点角度は、必ずしも直角ではない。
図6の(b)には、撮影画像の投影範囲を透視変換した画像の表示画面1032が、例示されている。
例示された透視変換画像の表示画面1032は、撮影画像透視変換関係式を用いて、撮影画像の投影範囲を透視変換したものである。
ここで、透視変換画像の表示画面1033の4頂点P、Q、R、S(=それぞれの座標が、[0、0][0、1024][768、0][768、1024]に相当する)は、投影範囲の4頂点p、q、r、sが、それぞれ、透視変換された点である。このとき、四角形領域の4頂点P、Q、R、Sの頂点角度は、直角である。
Here, a display screen used in the operation of “projection range instruction” will be described with reference to FIG.
FIG. 6A illustrates a projection range instruction screen 1031. On the exemplified projection range instruction screen 1031, a photographed image of the projection base 400 photographed by the infrared camera 104 of the interactive operation device 100 is displayed.
In addition, the projection range instruction screen 1031 shows a state where four vertices p, q, r, and s of the projection range are input.
At this time, the vertex angles of the four vertices p, q, r, and s in the projection range are not necessarily a right angle.
FIG. 6B illustrates an image display screen 1032 obtained by perspective-transforming the projection range of the captured image.
The illustrated perspective transformation image display screen 1032 is obtained by perspective transformation of the projection range of the photographic image using the photographic image perspective transformation relational expression.
Here, the four vertices P, Q, R, and S (= the coordinates of the perspective transformation image display screen 1033 correspond to [0, 0] [0, 1024] [768, 0] [768, 1024]. ) Is a point in which the four vertices p, q, r, and s of the projection range are perspective-transformed. At this time, the vertex angles of the four vertices P, Q, R, and S of the rectangular area are right angles.

図5に戻って、(1)《初期設定処理》の詳細な流れの説明を続ける。
(1−3)《背景画像抽出》対話操作装置100は、投影台の撮影画像から、投影範囲の
画像を抽出して、背景画像とする。この背景画像を抽出するとき、投影範囲の画像に対して、導出した撮影画像透視変換行列関係式(=数式2)を用いて、コンテンツ投影画面の座標に透視変換する。
Returning to FIG. 5, the detailed flow of (1) << Initial Setting Process >> will be continued.
(1-3) << Background Image Extraction >> The interactive operation device 100 extracts an image in the projection range from the photographed image of the projection table and sets it as a background image. When this background image is extracted, the image in the projection range is perspective-transformed into the coordinates of the content projection screen using the derived captured image perspective transformation matrix relational expression (= Formula 2).

図7から図9までを用いて、(4)《指先検出処理》の詳細な流れを説明する。
図7は、(4)《指先検出処理》の詳細な流れを説明する図である。
指先検出処理は、撮影画像の各フレームに対して行う。
(4−1)《撮影画像の透視変換処理》対話操作装置100は、この導出した撮影画像透視変換行列関係式(=数式2)を用いて、手の撮影画像をコンテンツ画面の座標系の画像に透視変換する。
(4−2)《背景除去》対話操作装置100は、透視変換した手の撮影画像の画素の値から、透視変換した背景画像の画素の値を減算して、透視変換した撮影画像の背景画像除去処理をする。
(4−3)《撮影画像の二値化処理》対話操作装置100は、背景画像除去処理済の透視変換した撮影画像に対して、大津の手法を適用して、閾値を算出して二値化処理して、二値化画像を生成する。
The detailed flow of (4) << fingertip detection process >> will be described with reference to FIGS.
FIG. 7 is a diagram for explaining the detailed flow of (4) << fingertip detection process >>.
The fingertip detection process is performed for each frame of the captured image.
(4-1) << Perspective Conversion Processing of Captured Image >> The dialogue operation apparatus 100 uses the derived captured image perspective transformation matrix relational expression (= Formula 2) to convert the captured image of the hand into an image in the coordinate system of the content screen. Transform to perspective.
(4-2) << Background Removal >> The interactive operation apparatus 100 subtracts the pixel value of the background image obtained by perspective transformation from the pixel value of the photographed hand image obtained by perspective transformation to obtain the background image of the photographed image obtained by perspective transformation. Remove it.
(4-3) << Binarization Processing of Captured Image >> The interactive operation apparatus 100 applies a method of Otsu to a perspective-transformed captured image that has been subjected to background image removal processing, calculates a threshold value, and performs binary processing The binarized image is generated by performing the binarization process.

ここで、図9を用いて、大津の手法を説明する。大津の手法とは、濃淡画像の画素値ヒストグラムに対して、各画素値を仮のしきい値tによって、2つの領域に分けて、各領域内の分散 σ2 a と、2つの領域間の分散 σ2 b と、を計算し、領域内での分散と領域間の分散比を算出する関数(仮のしきい値tの関数)W(t)= σ2 a / σ2 b が最小となるtをしきい値とする手法である。
大津の手法を用いた画像二値化処理では、大津の手法に基づいて二値化閾値を算出し、OpenCVの二値化関数cvThresholdを用いて二値化画像を得ることができる。
Here, the method of Otsu will be described with reference to FIG. Otsu's method is to divide each pixel value into two regions with a temporary threshold value t for the pixel value histogram of the grayscale image, and to distribute the variance σ 2 a in each region and between the two regions A function for calculating the variance σ 2 b and calculating the variance within the region and the variance ratio between the regions (function of the temporary threshold t) W (t) = σ 2 a / σ 2 b is the minimum This is a method using t as a threshold value.
In the image binarization process using the Otsu method, a binarization threshold value can be calculated based on the Otsu method and a binarized image can be obtained using the OpenCV binarization function cvThreshold.

なお、二値化処理において、大津の手法を用いることは、1つの例である。たとえば、他の値を閾値として用いてもよいし、複数の閾値を用いて、複数の二値化画像を生成するようにしてもよい。 In the binarization process, using the method of Otsu is one example. For example, other values may be used as threshold values, and a plurality of binarized images may be generated using a plurality of threshold values.

図7に戻って、(4)《指先検出処理》の詳細な流れの説明を続ける。
(4−4)《距離画像作成処理》対話操作装置100は、二値化画像の白画素から、黒画素への最短距離を求めて、距離に対応付けた画素値を有する画素で構成した距離画像を作成して、距離画像の最大画素値を保持する。
(4−5)《輪郭部画素検出処理》対話操作装置100は、二値化画像の黒画素領域を端から走査して、4連結画素を用いる輪郭抽出アルゴリズムを用いて、黒画素を抽出して、抽出した黒画素を輪郭部画素とする。
ここで、4連結画素を用いる輪郭抽出アルゴリズムとは、二値化画像を端から走査して、検出した未追跡黒画素を始点の輪郭部画素として、この画素を中心にした4連結画素を反時計回りに追跡して黒画素を検出して輪郭部画素として、この画素を次の中心にして、4連結画素追跡により黒画素を検出して、始点に戻るまで繰り返えすものである。輪郭抽出アルゴリズムは、8連結画素を用いてもよい。
(4−6)《手形画像抽出処理》対話操作装置100は、距離画像(=輪郭部画素で囲まれた領域)の画素の輝度を、保持した最大輝度の値と比較して、一致すれば、その領域を閲覧者の手形画像として抽出する。
Returning to FIG. 7, the detailed flow of (4) << Fingertip detection process >> will be continued.
(4-4) << Distance Image Creation Processing >> The interactive operation device 100 obtains the shortest distance from the white pixel of the binarized image to the black pixel, and is a distance configured by pixels having pixel values associated with the distance. Create an image and hold the maximum pixel value of the distance image.
(4-5) << Outline Pixel Detection Process >> The interactive operation device 100 scans the black pixel area of the binarized image from the end, and extracts black pixels using the outline extraction algorithm using four connected pixels. Thus, the extracted black pixel is set as a contour pixel.
Here, the contour extraction algorithm using four connected pixels is a scan of a binarized image from the end, with the detected untracked black pixel as the starting contour pixel, and the four connected pixels centered on this pixel as an inverse. A black pixel is detected by tracking clockwise and is used as a contour pixel, and the black pixel is detected by 4-connected pixel tracking with this pixel as the next center, and the process is repeated until the start point is returned. The contour extraction algorithm may use 8-connected pixels.
(4-6) << Hand-Shape Image Extraction Processing >> The dialogue operation apparatus 100 compares the luminance of the pixel of the distance image (= the region surrounded by the contour pixel) with the retained maximum luminance value and agrees. The region is extracted as a handprint image of the viewer.

ここで、図8を用いて、《指先検出処理》の例を説明する。
図8の(a)には、二値化画像1961が例示されている。
例示された二値化画像1961は、大きな白画素領域19611と、小さな白画素領域19612を含む画像である。
図8の(b)には、距離画像1962が例示されている。
例示された距離画像1962は、大きな白画素領域19611に対応した距離画像19621と、小さな白画素領域19612に対応した距離画像19622とを含む画像である。ここで、大きな白画素領域19611に対応した距離画像19621は、最大画素値を持つ画素1038を有する画像である。
図8の(c)には、輪郭部画素が例示されている。
例示された輪郭部画素は、大きな白画素領域の輪郭部19631と小さな白画素領域の輪郭部19632とを形成する画素である。ここで、白画素領域の輪郭部19631は、最大画素値を持つ画素1038に対応した画素10381を有する。
図8の(d)には、最大輪郭部が例示されている。
例示された最大輪郭部は、最大画素値を持つ距離画像19621に対応した白画素領域の輪郭部19631である。
Here, an example of “fingertip detection processing” will be described with reference to FIG.
FIG. 8A illustrates a binarized image 1961.
The illustrated binarized image 1961 is an image including a large white pixel region 19611 and a small white pixel region 19612.
FIG. 8B illustrates a distance image 1962.
The illustrated distance image 1962 is an image including a distance image 19621 corresponding to the large white pixel region 19611 and a distance image 19622 corresponding to the small white pixel region 19612. Here, the distance image 19621 corresponding to the large white pixel region 19611 is an image having the pixel 1038 having the maximum pixel value.
FIG. 8C illustrates an outline pixel.
The illustrated contour pixel is a pixel that forms a large white pixel region contour 19631 and a small white pixel region contour 19632. Here, the outline 19631 of the white pixel region has a pixel 10381 corresponding to the pixel 1038 having the maximum pixel value.
FIG. 8D illustrates the maximum contour portion.
The exemplified maximum contour portion is a white pixel region contour portion 19631 corresponding to the distance image 19621 having the maximum pixel value.

図7に戻って、(4)《指先検出処理》の詳細な流れの説明を続ける。
(4−7)《指先判定処理》対話操作装置100は、閲覧者の手形画像を用いて、指先判定処理をして、指先を判定する。(詳細は後述する)
(4−8)《指先位置算出》対話操作装置100は、連続するフレームの指先座標を算出する。
(4−9)《指先静止検知処理》対話操作装置100は、連続するフレームの指先座標を比較して指先移動距離を算出して、指先静止判定時間を定めた動作判定条件と照合して、指先静止判定時間中の指先移動距離がゼロであるか否かを判定する。指先静止判定時間中の指先移動距離がゼロと判定された場合には、指先座標を含む指先静止検知情報を作成する。
Returning to FIG. 7, the detailed flow of (4) << Fingertip detection process >> will be continued.
(4-7) << Fingertip Determination Process >> The interactive operation device 100 performs a fingertip determination process using the viewer's handprint image to determine the fingertip. (Details will be described later)
(4-8) << Fingertip Position Calculation >> The interactive operation device 100 calculates the fingertip coordinates of successive frames.
(4-9) << Fingertip Stillness Detection Process >> The interactive operation device 100 compares the fingertip coordinates of successive frames to calculate the fingertip movement distance, and compares it with the motion determination condition that defines the fingertip stillness determination time. It is determined whether the fingertip movement distance during the fingertip stillness determination time is zero. When it is determined that the fingertip moving distance during the fingertip stillness determination time is zero, fingertip stillness detection information including fingertip coordinates is created.

図10は、指先判定処理のフローチャートである。
(1)対話操作装置100は、手の撮影画像が接するコンテンツ投影画面の辺(=撮影画像枠)が、底辺1031であるか否かを判定する。手の撮影画像が接する辺が、下辺1031であれば、次のステップに進む。
手の撮影画像が接する辺が、底辺1031でなければ、ステップS120に進む。(ステップS110)
(2)対話操作装置100は、手の最上部1035を指先と判定して「手が接する辺=底辺」を保持して、終了する。(ステップS115)
(3)対話操作装置100は、手の撮影画像が接するコンテンツ投影画面の辺が、左辺1032であるか否かを判定する。手の撮影画像が接する辺が、左辺1032であれば、次のステップに進む。
手の撮影画像が接する辺が、左辺1032でなければ、ステップS130に進む。(ステップS120)
(4)対話操作装置100は、手の最右部1036を指先と判定して「手が接する辺=左辺」を保持して、終了する。(ステップS125)
(5)対話操作装置100は、手の撮影画像が接するコンテンツ投影画面の辺が、右辺であるか否かを判定する。手の撮影画像が接する辺が、右辺であれば、次のステップに進む。
手の撮影画像が接する辺が、右辺でなければ、ステップS140に進む。(ステップS130)
(6)対話操作装置100は、手の最左部を指先と判定して「手が接する辺=右辺」を保持して、終了する。(ステップS135)
(7)対話操作装置100は、手の撮影画像が接するコンテンツ投影画面の辺が、上辺であるか否かを判定する。手の撮影画像が接する辺が、上辺であれば、次のステップに進む。
手の撮影画像が接する辺が、上辺でなければ、ステップS160に進む。(ステップS140)
(6)対話操作装置100は、手の最下部を指先と判定して「手が接する辺=上辺」を保持して、終了する。(ステップS145)
(7)保持した手形が接する辺の値に応じて、指先の位置を以下のとおりに判定する。
・「手が接する辺=底辺」であれば、手の最上部を指先と判定する、
・「手が接する辺=左辺」であれば、手の最右部を指先と判定する、
・「手が接する辺=右辺」であれば、手の最左部を指先と判定する、
・「手が接する辺=上辺」であれば、手の最下部を指先と判定する、
終了する。
FIG. 10 is a flowchart of the fingertip determination process.
(1) The interactive operation device 100 determines whether or not the side (= the captured image frame) of the content projection screen with which the captured image of the hand is in contact is the base 1031. If the side with which the hand image is in contact is the lower side 1031, the process proceeds to the next step.
If the side with which the hand image is in contact is not the base 1031, the process proceeds to step S 120. (Step S110)
(2) The dialogue operation apparatus 100 determines that the top 1035 of the hand is the fingertip, holds “side with hand = bottom”, and ends. (Step S115)
(3) The interactive operation device 100 determines whether or not the side of the content projection screen that is in contact with the captured image of the hand is the left side 1032. If the side with which the hand image is in contact is the left side 1032, the process proceeds to the next step.
If the side with which the hand image is in contact is not the left side 1032, the process proceeds to step S 130. (Step S120)
(4) The dialogue operation apparatus 100 determines that the rightmost part 1036 of the hand is a fingertip, holds “side with hand = left side”, and ends. (Step S125)
(5) The interactive operation device 100 determines whether or not the side of the content projection screen that is in contact with the captured image of the hand is the right side. If the side on which the hand image is in contact is the right side, the process proceeds to the next step.
If the side on which the captured image of the hand is in contact is not the right side, the process proceeds to step S140. (Step S130)
(6) The interactive operation device 100 determines that the leftmost part of the hand is the fingertip, holds “side with hand = right side”, and ends. (Step S135)
(7) The interactive operation device 100 determines whether or not the side of the content projection screen that is in contact with the captured image of the hand is the upper side. If the side with which the hand image is in contact is the upper side, the process proceeds to the next step.
If the side on which the hand image is in contact is not the upper side, the process proceeds to step S160. (Step S140)
(6) The dialogue operation apparatus 100 determines that the lowermost part of the hand is the fingertip, holds “side where the hand touches = upper side”, and ends. (Step S145)
(7) The position of the fingertip is determined as follows according to the value of the side that the held bill touches.
・ If “side touched by hand = bottom side”, the top of the hand is determined as the fingertip.
-If "side with hand = left side", the rightmost part of the hand is determined as the fingertip.
・ If “side touched by hand = right side”, the leftmost part of the hand is determined as the fingertip.
-If "side touched by hand = upper side", the lowermost part of the hand is determined as the fingertip.
finish.

図11は、対話操作装置100の詳細な構成図である。
対話操作装置100は、CPU101と、表示部102と、キーボード103と、赤外カメラ部106と、投影機接続部107(=投影機接続手段)と、ネットワーク通信部108と、記憶部109と専用プログラムとを備える。
CPU101と、表示部102と、キーボード部103と、カメラ部106と、投影機接続部107と、ネットワーク通信部108と、記憶部109とは、BUS199で接続される。
FIG. 11 is a detailed configuration diagram of the interactive operation device 100.
The interactive operation apparatus 100 includes a CPU 101, a display unit 102, a keyboard 103, an infrared camera unit 106, a projector connection unit 107 (= projector connection means), a network communication unit 108, and a storage unit 109. And a program.
The CPU 101, the display unit 102, the keyboard unit 103, the camera unit 106, the projector connection unit 107, the network communication unit 108, and the storage unit 109 are connected by BUS199.

CPU101は、中央演算装置である。
表示部102は、液晶表示装置や有機EL表示装置である。
投影機接続手段107は、プロジェクターアダプターである。
ネットワーク通信部108は、LANアダプターである。
The CPU 101 is a central processing unit.
The display unit 102 is a liquid crystal display device or an organic EL display device.
The projector connection means 107 is a projector adapter.
The network communication unit 108 is a LAN adapter.

赤外カメラ部106は、赤外電子カメラである。
赤外カメラ部106は、赤外光源500の赤外光が照射された閲覧者900の手を撮像して、手の撮影画像を生成する。
The infrared camera unit 106 is an infrared electronic camera.
The infrared camera unit 106 images the hand of the viewer 900 irradiated with the infrared light from the infrared light source 500 and generates a captured image of the hand.

記憶部109は、半導体メモリーや磁気メモリーである。
記憶部109は、表示画面保持領域1091と、初期設定情報格納領域1092と、コンテンツ格納領域1093と、を備えて、オペレーティングシステム185と、専用プログラムとを記憶する。
表示画面保持領域1091は、コンテンツ投影画面データ198を保持する。
初期設定情報格納領域1092は、撮影画像透視変換関係式193と背景画像データ195とを格納する。
コンテンツ格納領域1093は、コンテンツ投影画面データを作成するためのコンテンツ構成データ197およびコンテンツ素材データ192を格納する。
コンテンツ構成データ197は、コンテンツ全体の構成(たとえば、何ページから成っているかなど)と、コンテンツ素材データの使い方(たとえば、何ページのどの位置に、どの素材を配置するかなど)を現したデータである。
コンテンツ素材データ192は、写真やテキストのデータである。
The storage unit 109 is a semiconductor memory or a magnetic memory.
The storage unit 109 includes a display screen holding area 1091, an initial setting information storage area 1092, and a content storage area 1093, and stores the operating system 185 and a dedicated program.
The display screen holding area 1091 holds the content projection screen data 198.
The initial setting information storage area 1092 stores a captured image perspective transformation relational expression 193 and background image data 195.
The content storage area 1093 stores content configuration data 197 and content material data 192 for creating content projection screen data.
The content configuration data 197 is data representing the configuration of the entire content (for example, how many pages are formed) and how to use the content material data (for example, which material is disposed at which position on which page). It is.
The content material data 192 is photo or text data.

オペレーティングシステム185は、対話操作装置100のハードウェア(たとえば、表示部102と、キーボード103と、投影機接続部107と、ネットワーク通信部108と、記憶部109など)を管理・制御して、応用ソフトウエア(たとえば、専用プログラム)に対して、これらのハードウェアを利用できるようなサービスを提供する基本ソフトウエアである。
オペレーティングシステム185は、マウス左クリックエミュレート関数やカーソル表示エミュレート関数を含むマウス関数ライブラリー191を有する。
オペレーティングシステム185は、マウス左クリックエミュレート関数が発行するマウス左クリックのマウスイベント(=入力イベント情報)を受け取って、一時記憶領域に保持する。このときにアクティブなプロセスは、一時記憶領域を参照して保持されたマウスイベントを読み出して、そのイベントに応じたプロセスの処理を行う。
The operating system 185 manages and controls the hardware (for example, the display unit 102, the keyboard 103, the projector connection unit 107, the network communication unit 108, the storage unit 109, etc.) of the interactive operation device 100, It is basic software that provides services (such as dedicated programs) that allow these hardware to be used.
The operating system 185 has a mouse function library 191 including a mouse left click emulation function and a cursor display emulation function.
The operating system 185 receives the mouse left click mouse event (= input event information) issued by the mouse left click emulation function, and stores it in the temporary storage area. At this time, the active process reads the held mouse event with reference to the temporary storage area, and processes the process according to the event.

このほかに、初期設定手段110と、指先検出手段130と、指先位置算出手段140と、指先静止検知手段150と、入力エミュレーションモジュール155と、表示画面作成手段160と、投影表示手段170と、備える。これらの各手段は、それぞれの専用プログラムによって実現され、専用プログラムがCPU101に解釈・実行されることによって機能する。 In addition, an initial setting unit 110, a fingertip detection unit 130, a fingertip position calculation unit 140, a fingertip stationary detection unit 150, an input emulation module 155, a display screen creation unit 160, and a projection display unit 170 are provided. . Each of these means is realized by each dedicated program and functions by the CPU 101 interpreting and executing the dedicated program.

初期設定手段110は、赤外カメラが投影台400を撮影して生成した投影台の撮影画像の投影範囲の入力を受け付ける投影範囲指示機能と、
撮影画像の座標とコンテンツ投影画面の座標との透視変換の関係を表す撮影画像透視変換行列関係式を算出する座標変換行列算出機能と、
投影台の撮影画像から、投影範囲の画像を抽出して、背景画像とする背景画像抽出機能と、から構成される。
初期設定手段の詳細は、図5における(1)《初期設定処理》の詳細な流れを説明する項で述べた。
The initial setting means 110 includes a projection range instruction function that receives an input of a projection range of a captured image of a projection table generated by an infrared camera shooting the projection table 400;
A coordinate transformation matrix calculation function for calculating a photographed image perspective transformation matrix relational expression representing a perspective transformation relationship between the coordinates of the photographed image and the coordinates of the content projection screen;
A background image extraction function that extracts an image in the projection range from a photographed image of the projection table and uses it as a background image.
Details of the initial setting means are described in the section describing the detailed flow of (1) << Initial setting process >> in FIG.

指先検出手段130は、撮像手段106が作成した閲覧者の手の撮影画像を透視変換撮影画像に透視変換する撮影画像透視変換機能と、
透視変換撮影画像から背景画像を除去する背景除去機能と、
背景画像を除去した透視変換撮影画像から二値化画像を生成する撮影画像二値化機能と、
二値化画像から距離画像を作成する距離画像作成機能と、
背景画像を除去した透視変換撮影画像から輪郭部画素を検出する輪郭部画素検出機能と、
距離画像と輪郭部画素とを用いて、手形画像を抽出する最大輪郭部抽出機能と、
手形画像が接するコンテンツ投影画面の辺の情報を用いて、指先を判定する指先判定機能と、
を備える。
The fingertip detection unit 130 includes a captured image perspective conversion function that perspectively converts a captured image of the viewer's hand created by the imaging unit 106 into a perspective converted captured image;
A background removal function for removing a background image from a perspective transformation photographed image;
A captured image binarization function for generating a binarized image from a perspective transformation captured image with the background image removed;
A distance image creation function for creating a distance image from a binarized image;
A contour pixel detection function for detecting a contour pixel from a perspective transformation captured image from which a background image has been removed;
A maximum contour extraction function that extracts a handprint image using a distance image and a contour pixel;
A fingertip determination function for determining a fingertip using information on the side of the content projection screen that the handprint image touches;
Is provided.

指先検出手段130の詳細は、図7における()《指先検出処理》の詳細な流れを説明する項で述べた。 The details of the fingertip detection means 130 are described in the section describing the detailed flow of ( 4 ) << Fingertip detection processing >> in FIG.

指先位置算出手段140は、指先の座標を算出する。
指先静止検知手段150は、連続するフレームの指先座標を用いて指先移動距離を算出して、所定の時間中の指先移動距離がゼロと判定された場合には、指先座標を含む指先静止検知情報を作成する。
The fingertip position calculation means 140 calculates the fingertip coordinates.
The fingertip stillness detection means 150 calculates the fingertip movement distance using the fingertip coordinates of successive frames, and if the fingertip movement distance during a predetermined time is determined to be zero, the fingertip stillness detection information including the fingertip coordinates Create

入力エミュレーションモジュール155は、指先静止検知情報に基づいて、入力イベント情報を生成して、表示閲覧手段に引き渡す。
詳細には、入力エミュレーションモジュール155は、指先静止検知情報を受け付けて、マウス左クリックエミュレート関数を呼び出して、ウスイベントを発行させ機能を備える。
The input emulation module 155 generates input event information based on the fingertip stillness detection information and delivers it to the display browsing means.
In particular, the input emulation module 155 accepts a fingertip stationary detection information, call the mouse left click emulation function, a function of Ru to issue the mouse event.

表示閲覧手段160は、コンテンツ構成データ196を解釈して、コンテンツ素材データ192を用いてコンテンツ投影画面データ198を作成する。
また、表示閲覧手段160は、オペレーティングシステム185を通じて引き渡されたマウスイベントを受け付けて、適宜コンテンツ投影画面データを更新する。詳細には、表示閲覧手段160は、オペレーティングシステム185が一時記憶領域に保持したマウスイベントを読み出して、適宜コンテンツ投影画面データを更新する。(請求項1における入力エミュレーション手段は、入力エミュレーションモジュール155とオペレーティングシステム185との協調動作により実現される)
The display browsing unit 160 interprets the content configuration data 196 and creates content projection screen data 198 using the content material data 192.
In addition, the display browsing unit 160 receives a mouse event delivered through the operating system 185, and updates the content projection screen data as appropriate. Specifically, the display browsing unit 160 reads out the mouse event held in the temporary storage area by the operating system 185, and appropriately updates the content projection screen data. (The input emulation means in claim 1 is realized by the cooperative operation of the input emulation module 155 and the operating system 185).

次に、影の誤抽出防止について、説明する。
投影台に閲覧者の手が無い状態(=何も映っていない状態)にも関わらず、影の撮影画像を手の撮影画像と誤抽出することがあることが経験的に分かっているので、以下の処理を行う。
《撮影画像の二値化処理》対話操作装置100は、背景画像除去処理済の透視変換した撮影画像に対して、濃淡画像の画素値ヒストグラムを、各画素値を仮のしきい値tとして、2つの領域に分けて、各領域内の分散(=クラス内分散)σ2 a と、2つの領域間の分散(=クラス間分散)σ2 b と、を計算し、領域内での分散と領域間の分散の和(=全分散) を算出する関数(仮のしきい値tの関数)w = σ2 a + σ2 b が所定の値以上であれば、大津の手法を適用して、二値化画像を生成する。
Next, prevention of erroneous extraction of shadows will be described.
Since it is empirically known that there is a case where there is no viewer's hand on the projection stand (= state where nothing is reflected), the shadow shot image may be mistakenly extracted as a hand shot image. The following processing is performed.
<< Binarization Processing of Captured Image >> The interactive operation device 100 uses a pixel value histogram of a grayscale image and a pixel value histogram as a temporary threshold value t for a perspective-transformed captured image subjected to background image removal processing. Dividing into two regions, calculating the variance (= intra-class variance) σ 2 a in each region and the variance (= inter-class variance) σ 2 b between the two regions, A function for calculating the sum of variances between regions (= total variance) (a function of a temporary threshold t) If w = σ 2 a + σ 2 b is equal to or greater than a predetermined value, the method of Otsu is applied. Then, a binarized image is generated.

図12は、濃淡画像の画素値ヒストグラムの分散を説明する図である。
図12の(a)は、何も映っていない状態の撮影画像の例である。
何も映っていない状態の撮影画像の画素値ヒストグラムの全分散は、小さいことを示している。
図12の(b)は、手が映っている状態の撮影画像の例である。
手が映っている状態の撮影画像の画素値ヒストグラムの全分散は、大きいことを示している。
FIG. 12 is a diagram for explaining the dispersion of the pixel value histogram of the grayscale image.
FIG. 12A is an example of a captured image in a state where nothing is shown.
It shows that the total variance of the pixel value histogram of the captured image in a state where nothing is reflected is small.
FIG. 12B is an example of a captured image in which a hand is shown.
This shows that the total variance of the pixel value histogram of the photographed image in which the hand is reflected is large.

次に、静止した指先の座標が微動変動することに対する対策を説明する。
閲覧者が指先を静止させたときに、手の撮影画像から算出する指先の座標は、指先があたかも微動しているかのように、微小に変動することが経験的に分かっているので、以下の処理を行う。
《指先微小変動判定処理》対話操作装置100は、連続する各フレーム(=撮影画像の静止画)から算出する指先の座標を用いて、指先の移動方向ベクトルを算出して、方向ベクトルの変動値が所定の条件(たとえば、方向ベクトルの変動角度θを用いて、方向ベクトルの変動値をcosθで定義して、所定の条件がθ<25°)を満たせば、指先の座標が微小変動したとして、最初のフレームの指先の座標を保持する。
Next, a countermeasure against the slight movement fluctuation of the coordinates of the stationary fingertip will be described.
Since the fingertip coordinates calculated from the captured image of the hand when the viewer stops the fingertip are empirically known to fluctuate as if the fingertip is moving finely, Process.
<< Fingertip Minor Fluctuation Determination Process >> The interactive operation apparatus 100 calculates the fingertip movement direction vector using the fingertip coordinates calculated from each successive frame (= still image of the captured image), and the direction vector fluctuation value. If the condition satisfies a predetermined condition (for example, the direction vector variation angle θ is used to define the direction vector variation value as cos θ and the predetermined condition is θ <25 °), Hold the coordinates of the fingertip of the first frame.

図13は、指先の微小変動を説明する図である。
移動する指先を撮影した画像の連続4フレームの各フレーム間の方向ベクトルν1、ν2、ν3、である場合には、方向ベクトルの変動値は、数式3のように表すことができる。

Figure 0005201096
図13の(a)は、指先が移動しているときのcosθの例である。
指先が移動しているときの数式3の値は大きい。言い換えるとθの値は小さい。例えば、θが25°未満である場合には、指先が移動しているときである。
図13の(b)は、指先が静止しているときのcosθの例である。
指先が静止しているときの数式3の値は小さい。言い換えるとθの値は大きい。例えば、θが25°以上である場合には、指先が静止しているときである。 FIG. 13 is a diagram for explaining minute fluctuations of the fingertip.
In the case of the direction vectors ν 1 , ν 2 , ν 3 between the four consecutive frames of the image obtained by photographing the moving fingertip, the variation value of the direction vector can be expressed as Equation 3.
Figure 0005201096
FIG. 13A shows an example of cos θ when the fingertip is moving.
The value of Equation 3 when the fingertip is moving is large. In other words, the value of θ is small. For example, when θ is less than 25 °, the fingertip is moving.
FIG. 13B is an example of cos θ when the fingertip is stationary.
The value of Equation 3 is small when the fingertip is stationary. In other words, the value of θ is large. For example, when θ is 25 ° or more, the fingertip is stationary.

次に、手形画像がコンテンツ投影画面の辺に接しない場合の指先判定処理を説明する。
閲覧者の袖口が撮影できない場合には、手形画像がコンテンツ投影画面の辺に接しないので、指先判定処理は、以下のとおりに行う。
《指先判定処理》対話操作装置100は、指先判定処理において、手形画像がコンテンツ投影画面の辺に接しない場合には、距離画像の最高輝度点を基準にして、保持した手形が接する辺の側の輪郭は探索しないで、指先を判定する。
図14は、閲覧者の袖口が撮影できない手の撮影画像の例である。
例示された手の画像は、画面の左辺に閲覧者の袖口がかかり、手の撮影画像が左辺から離れている状態を示している。
閲覧者の手は、左辺から移動してきたので、距離画像の最高輝度点1038を基準にして、その左側の輪郭は探索しないで、指先を判定する。
Next, a fingertip determination process when the handprint image does not touch the side of the content projection screen will be described.
When the viewer's cuffs cannot be photographed, the handprint image does not touch the side of the content projection screen, so the fingertip determination process is performed as follows.
<< Fingertip Determination Process >> In the fingertip determination process, in the fingertip determination process, when the handprint image does not touch the side of the content projection screen, the side of the side where the held handprint touches with respect to the highest luminance point of the distance image The fingertip is determined without searching for the outline of.
FIG. 14 is an example of a photographed image of a hand that cannot photograph the viewer's cuffs.
The illustrated hand image shows a state in which the viewer's cuffs are on the left side of the screen and the captured image of the hand is away from the left side.
Since the viewer's hand has moved from the left side, the fingertip is determined without searching for the left contour on the basis of the highest luminance point 1038 of the distance image.

1 指先操作型コンテンツ提供システム
100 対話操作装置
103 撮影画像表示画面
106 赤外カメラ
107 投影機接続手段
110 初期設定手段
130 指先検出手段
140 指先位置算出手段
150 指先静止検知手段
155 入力エミュレーションモジュール
160 表示閲覧手段
170 投影表示手段
191 マウス関数ライブラリー
300 プロジェクター、投影機
400 投影台
403 コンテンツ投影画面
500 赤外光源
900 閲覧者
1 Fingertip Operation Type Content Providing System 100 Interactive Operation Device 103 Captured Image Display Screen 106 Infrared Camera 107 Projector Connection Unit 110 Initial Setting Unit 130 Fingertip Detection Unit 140 Fingertip Position Calculation Unit 150 Fingertip Stillness Detection Unit 155 Input Emulation Module 160 Display Browsing Means 170 Projection display means 191 Mouse function library 300 Projector, projector 400 Projection table 403 Content projection screen 500 Infrared light source 900 Viewer

Claims (2)

コンテンツ投影画面データに基づく像を投影台に投影する投影機と、前記投影台を撮影して撮影画像を生成する赤外カメラと、が接続される対話操作装置において
コンテンツ構成データを格納するコンテンツ格納領域と、
前記コンテンツ投影画面データを保持する表示画面保持領域と、
を備える記憶手段と
前記コンテンツ構成データを解釈して、前記コンテンツ投影画面データを作成する表示閲覧手段と、
前記赤外カメラから前記撮影画像を取得する撮影画像取得手段と、
前記撮影画像の各フレームから閲覧者の指先を検知する指先検出手段と、
前記指先の座標を算出する指先位置算出手段と、
連続する前記各フレームの指先の座標を用いて当該指先移動距離を算出して、所定の時間中の前記移動距離がゼロと判定された場合には、前記指先の座標を含む指先静止検知情報を作成する指先静止検知手段と、
前記指先静止検知情報に基づいて、入力イベント情報を生成して、前記表示閲覧手段に引き渡す入力エミュレーション手段と、
を備え、
前記表示閲覧手段は、前記入力エミュレーション手段から引き渡された入力イベント情報を受け付けて、適宜コンテンツ投影画面データを更新して、
前記指先検出手段は、前記コンテンツ投影画面の輪郭を構成する複数の辺のうち、手の前記撮影画像が接する一つの前記辺が、底辺、または、左辺、または、右辺、または、上辺のいずれの辺であるか否かを判定し、前記判定した辺が底辺である場合には手の最上部を指先と判定し、前記判定した辺が左辺である場合には手の最右部を指先と判定し、前記判定した辺が右辺である場合には手の最左部を指先と判定し、前記判定した辺が上辺である場合には手の最下部を指先と判定する、
ことを特徴とする対話操作装置
A projector for projecting an image based on the content projection screen data to the projection stage, and an infrared camera to generate a captured image by capturing the projection stage, the interaction device is connected,
And a content storage area for storing the content configuration data,
A display screen holding area for holding the content projection screen data,
Storage means comprising :
Interprets the content member data, a display viewing means for creating the content projection screen data,
Captured image acquisition means for acquiring the captured image from the infrared camera;
And the fingertip detection means for detecting the fingertip of the viewer from each frame of the captured image,
And the fingertip position calculating means for calculating the coordinates of the fingertip,
And calculates the movement distance of the finger using the coordinates of the fingertip of each frame consecutive, when the moving distance during a predetermined time is determined to zero, the fingertip stationary detection information including coordinates of the fingertip Fingertip stationary detection means for creating
Based on the fingertip stationary detection information, and generates the input event information, an input emulation means to pass to the display viewing means,
With
The display browsing means receives the input event information delivered from the input emulation means, updates the content projection screen data as appropriate ,
The fingertip detecting means is one of a plurality of sides constituting the outline of the content projection screen, and one of the sides in contact with the captured image of the hand is a bottom side, a left side, a right side, or an upper side. It is determined whether or not it is a side, and when the determined side is the bottom side, the top of the hand is determined as the fingertip, and when the determined side is the left side, the rightmost part of the hand is the fingertip. determined, the determined sides is determined that the fingertip of the leftmost portion of the hand when it is right, it is determined that the fingertip of the bottom of the hand when the determined sides are the upper side,
An interactive operation device characterized by that.
請求項1に記載の対話操作装置において、The interactive operation device according to claim 1,
前記指先検出手段は、The fingertip detection means includes
手形画像が接するコンテンツ投影画面の辺が見つからなかった場合には、距離画像の最高輝度点を基準にして、移動して延びてきた手の側の辺と平行で最高輝度点を通る直線にて2分割される手形画像の輪郭のうち、手が移動してきた側の輪郭は探索しないで、最遠部を指先とする、If the side of the content projection screen that touches the handprint image is not found, the straight line that passes through the maximum brightness point is parallel to the side of the hand that has been moved and extended based on the maximum brightness point of the distance image. Of the contours of the handprint image divided into two, without searching for the contour on the side where the hand has moved, the farthest part is the fingertip.
ことを特徴とする対話操作装置。An interactive operation device characterized by that.
JP2009169589A 2009-07-17 2009-07-17 Interactive operation device Expired - Fee Related JP5201096B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2009169589A JP5201096B2 (en) 2009-07-17 2009-07-17 Interactive operation device
PCT/JP2010/061747 WO2011007746A1 (en) 2009-07-17 2010-07-12 Fingertip-manipulation-type information providing system, interactive manipulation device, computer program, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009169589A JP5201096B2 (en) 2009-07-17 2009-07-17 Interactive operation device

Publications (3)

Publication Number Publication Date
JP2011022945A JP2011022945A (en) 2011-02-03
JP2011022945A5 JP2011022945A5 (en) 2012-08-23
JP5201096B2 true JP5201096B2 (en) 2013-06-05

Family

ID=43449353

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009169589A Expired - Fee Related JP5201096B2 (en) 2009-07-17 2009-07-17 Interactive operation device

Country Status (2)

Country Link
JP (1) JP5201096B2 (en)
WO (1) WO2011007746A1 (en)

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012208926A (en) * 2011-03-15 2012-10-25 Nikon Corp Detection device, input device, projector and electronic apparatus
CN102221887B (en) * 2011-06-23 2016-05-04 康佳集团股份有限公司 Interactive projection system and method
JP2013037420A (en) * 2011-08-04 2013-02-21 Dainippon Printing Co Ltd Content display system, content display control method, content display control device, and program
JP2013206350A (en) * 2012-03-29 2013-10-07 Ntt Docomo Inc Information processor, and method for correcting input place in the information processor
JP2013222317A (en) * 2012-04-17 2013-10-28 Toshiba Mach Co Ltd Numerical control device
JP5174978B1 (en) * 2012-04-26 2013-04-03 株式会社三菱東京Ufj銀行 Information processing apparatus, electronic device, and program
JP6049334B2 (en) * 2012-07-12 2016-12-21 キヤノン株式会社 Detection apparatus, detection method, and program
JP6127564B2 (en) * 2013-02-15 2017-05-17 コニカミノルタ株式会社 Touch determination device, touch determination method, and touch determination program
JP5991538B2 (en) * 2013-02-20 2016-09-14 富士ゼロックス株式会社 Data processing apparatus, data processing system, and program
JP2014186715A (en) 2013-02-21 2014-10-02 Canon Inc Information processing apparatus and information processing method
TW201510771A (en) 2013-09-05 2015-03-16 Utechzone Co Ltd Pointing direction detecting device and its method, program and computer readable-medium
JP6303514B2 (en) * 2014-01-14 2018-04-04 新日鐵住金株式会社 Work information input system, information processing apparatus, control method thereof, and program
JP6340860B2 (en) * 2014-01-21 2018-06-13 セイコーエプソン株式会社 POSITION DETECTION DEVICE, PROJECTOR, POSITION DETECTION SYSTEM, AND POSITION DETECTION DEVICE CONTROL METHOD
JP6335695B2 (en) * 2014-07-09 2018-05-30 キヤノン株式会社 Information processing apparatus, control method therefor, program, and storage medium
JP2016091457A (en) 2014-11-10 2016-05-23 富士通株式会社 Input device, fingertip-position detection method, and computer program for fingertip-position detection
JP2016126160A (en) * 2014-12-26 2016-07-11 カシオ計算機株式会社 Imaging device, imaging control method, and program
JP6786792B2 (en) * 2015-12-03 2020-11-18 セイコーエプソン株式会社 Information processing device, display device, information processing method, and program
JP6808330B2 (en) * 2016-02-26 2021-01-06 キヤノン株式会社 Information processing equipment, information processing methods, and programs

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3777650B2 (en) * 1995-04-28 2006-05-24 松下電器産業株式会社 Interface equipment
JP3834766B2 (en) * 2000-04-03 2006-10-18 独立行政法人科学技術振興機構 Man machine interface system
JP2005063092A (en) * 2003-08-11 2005-03-10 Keio Gijuku Hand pattern switch device
JP4193895B2 (en) * 2006-10-12 2008-12-10 横河電機株式会社 Defect inspection equipment
JP2008152622A (en) * 2006-12-19 2008-07-03 Mitsubishi Electric Corp Pointing device
JP4220555B2 (en) * 2007-02-09 2009-02-04 株式会社日立製作所 Table type information terminal
JP4513830B2 (en) * 2007-06-25 2010-07-28 ソニー株式会社 Drawing apparatus and drawing method
JP4933389B2 (en) * 2007-09-14 2012-05-16 株式会社リコー Image projection display device, image projection display method, image projection display program, and recording medium

Also Published As

Publication number Publication date
WO2011007746A1 (en) 2011-01-20
JP2011022945A (en) 2011-02-03

Similar Documents

Publication Publication Date Title
JP5201096B2 (en) Interactive operation device
JP6089722B2 (en) Image processing apparatus, image processing method, and image processing program
US9927881B2 (en) Hand tracker for device with display
JP6007497B2 (en) Image projection apparatus, image projection control apparatus, and program
US11308347B2 (en) Method of determining a similarity transformation between first and second coordinates of 3D features
CN104380338B (en) Information processor and information processing method
JP6417702B2 (en) Image processing apparatus, image processing method, and image processing program
US20150058782A1 (en) System and method for creating and interacting with a surface display
US10642422B2 (en) Information processing apparatus, control method for the information processing apparatus, and storage medium
JP2015187884A (en) Pointing device with camera and mark output
US9911230B2 (en) Method and apparatus for controlling virtual monitor
JP7378354B2 (en) Detecting finger presses from live video streams
JP2014029656A (en) Image processor and image processing method
Chu et al. Hand gesture for taking self portrait
Riemann et al. Flowput: Environment-aware interactivity for tangible 3d objects
JP6229554B2 (en) Detection apparatus and detection method
KR20090116544A (en) Apparatus and method for space touch sensing and screen apparatus sensing infrared camera
Zhang et al. Transforming a regular screen into a touch screen using a single webcam
JP2012027528A (en) Display device, display method and program for controlling display device
CN116301551A (en) Touch identification method, touch identification device, electronic equipment and medium
KR20160031968A (en) A method for shadow removal in front projection systems
Alex et al. LampTop: Touch detection for a projector-camera system based on shape classification
Niikura et al. Touch detection system for various surfaces using shadow of finger
Kurata et al. Interaction using nearby-and-far projection surfaces with a body-worn ProCam system
Pullan et al. High Resolution Touch Screen Module

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120704

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120704

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130115

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130128

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160222

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees