[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2005301668A - Information processor and information processing program - Google Patents

Information processor and information processing program Download PDF

Info

Publication number
JP2005301668A
JP2005301668A JP2004116784A JP2004116784A JP2005301668A JP 2005301668 A JP2005301668 A JP 2005301668A JP 2004116784 A JP2004116784 A JP 2004116784A JP 2004116784 A JP2004116784 A JP 2004116784A JP 2005301668 A JP2005301668 A JP 2005301668A
Authority
JP
Japan
Prior art keywords
information processing
displayed
processing apparatus
image
gui
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2004116784A
Other languages
Japanese (ja)
Inventor
Atsuya Nakamura
淳哉 中村
Haruhisa Kurane
治久 倉根
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2004116784A priority Critical patent/JP2005301668A/en
Publication of JP2005301668A publication Critical patent/JP2005301668A/en
Withdrawn legal-status Critical Current

Links

Landscapes

  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To improve the operability of a graphical user interface. <P>SOLUTION: In the information processor 1, the distance (depth) to a pointer taken by an imaging device 20 is conformed to GUI of each application, and GUI of each application can be switchingly displayed by longitudinally moving the pointer in front of the imaging device 10 by a user. Accordingly, GUI never displaying a number of buttons on a display 60 of the information processor 1 can be configured. Namely, even if an area for displaying a button cannot be sufficiently ensured within a display screen, the operability of the graphical user interface can be improved. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、グラフィカルユーザインターフェースを備える情報処理装置およびそれを実現するための情報処理プログラムに関する。   The present invention relates to an information processing apparatus having a graphical user interface and an information processing program for realizing the information processing apparatus.

現在、PC(Personal Computer)や携帯情報端末あるいは携帯電話といった情報処理装置におけるユーザインターフェースとして、グラフィカルユーザインターフェース(GUI:Graphical User Interface)が用いられている。
GUIは、グラフィックを多用して装置とユーザとの間における情報の入出力を行うユーザインターフェースであり、ユーザはマウス等によって画面上で入力操作ができることから利便性が高いものである。
Currently, a graphical user interface (GUI) is used as a user interface in an information processing apparatus such as a PC (Personal Computer), a personal digital assistant, or a mobile phone.
The GUI is a user interface that inputs and outputs information between the apparatus and the user using a lot of graphics. The user can perform input operations on the screen with a mouse or the like, and is highly convenient.

ところで、情報処理装置のうち、携帯電話等の携帯型の機器においては、キーボード、マウスあるいはトラックボールといった入力機器を用いることが実質上困難である。また、携帯型の機器は機器自体が小型であり、ハードウェアのボタン等を本体に多数備えることも困難である。
そのため、携帯型の機器においては、表示画面に対する操作によって入力が可能なタッチパネルを用いることが考えられる。
By the way, it is practically difficult to use an input device such as a keyboard, a mouse, or a trackball in a portable device such as a mobile phone among information processing apparatuses. In addition, portable devices are small in size, and it is difficult to provide a large number of hardware buttons and the like on the main body.
For this reason, in a portable device, it is conceivable to use a touch panel that can be input by an operation on a display screen.

ところが、近年、携帯型の機器は小型化が進んでおり、このような機器にGUIを備える場合、限られたサイズの表示画面内に多数のボタンを表示しなければならず、操作性が低下してしまう。その上、表示画面に直接接触したり押圧を加えたりするため、表示画面の汚れや機器の故障の原因となる場合がある。
そこで、携帯型の機器に適用可能なGUIとして、ユーザの身体、例えば手等を撮像装置によって撮影し、その動きによって入力操作を行う技術が提案されている。
However, in recent years, portable devices have been reduced in size, and when such a device is equipped with a GUI, a large number of buttons must be displayed in a limited-size display screen, resulting in a decrease in operability. Resulting in. In addition, the display screen is directly touched or pressed, which may cause the display screen to become dirty or cause equipment failure.
Therefore, as a GUI applicable to a portable device, a technique has been proposed in which a user's body, for example, a hand or the like is photographed by an imaging device and an input operation is performed according to the movement.

例えば、インタラクション2001講演論文集,「空中での手書き文字入力システム−ウェアラブルコンピュータ環境での入力インターフェース−」,園田 智也,村岡 洋一(非特許文献1参照)には、利用者の装着しているヘッドマウントディスプレイにタッチパネルを表示し、利用者の手の動作を画像解析することによって、そのボタンを指先で仮想的に押すことができるインターフェースに関する技術が開示されている。   For example, in the Interaction 2001 Proceedings, "Handwritten character input system in the air-Input interface in wearable computer environment", Tomoya Sonoda, Yoichi Muraoka (see Non-Patent Document 1), the head worn by the user There has been disclosed a technology related to an interface in which a touch panel is displayed on a mount display and a user's hand motion is image-analyzed so that the button can be virtually pressed with a fingertip.

非特許文献1に記載された技術によれば、表示画面上に表示されたボタンを仮想的に押下することによって入力操作を行うことができるため、マウス等の入力機器を備える必要がなく、また、タッチパネルに実際に接触することもないため、上述の問題が生ずることのないGUIを実現することができる。
園田 智也,村岡 洋一,「空中での手書き文字入力システム−ウェアラブルコンピュータ環境での入力インターフェース−」,インタラクション2001講演論文集,情報処理学会,2001年,pp.3−10
According to the technique described in Non-Patent Document 1, an input operation can be performed by virtually pressing a button displayed on the display screen, so there is no need to provide an input device such as a mouse. Since the touch panel is not actually touched, a GUI that does not cause the above-described problem can be realized.
Tomoya Sonoda and Yoichi Muraoka, “Handwritten Character Input System in the Air -Input Interface in Wearable Computer Environment-”, Interaction 2001 Proceedings, Information Processing Society of Japan, 2001, pp. 197 3-10

しかしながら、非特許文献1に記載された技術は、ヘッドマウントディスプレイを想定していることから、携帯型の機器における限られたサイズの表示画面の場合に直ちに適用することは困難であった。即ち、携帯型の機器における表示画面の場合、ボタンを表示する領域が十分に確保できず、操作性が低下するという問題があった。
本発明の課題は、グラフィカルユーザインターフェースの操作性を向上させることである。
However, since the technique described in Non-Patent Document 1 assumes a head-mounted display, it is difficult to immediately apply to a display screen of a limited size in a portable device. That is, in the case of a display screen in a portable device, there is a problem that a sufficient area for displaying buttons cannot be secured, and operability is lowered.
An object of the present invention is to improve the operability of a graphical user interface.

以上の課題を解決するため、本発明は、
被写体の画像を撮影する撮像手段(例えば、図1および図2の撮像装置10)を備えた情報処理装置であって、予め設定された対象物の画像が前記撮像手段によって撮影されている際に、該対象物に関する所定パラメータ(例えば、対象物までの距離といった対象物との位置関係に基づくパラメータ、対象物の大きさあるいは対象物の色とった対象物自体の形態を示すパラメータ、あるいは、撮影された画像における対象物の画像の大きさ等、上記対象物との位置関係あるいは対象物自体の形態を間接的に示すパラメータ等)を取得するパラメータ取得手段(例えば、図1および図2の撮像装置10、あるいは、対象物との距離や対象物の大きさ等を直接測定する測定装置等)と、前記所定パラメータに応じて、自装置に入力操作を行うための複数の操作画面(例えば、複数のアプリケーションに対応するグラフィカルユーザインターフェース、あるいは、1つのアプリケーションのグラフィカルユーザインターフェースにおける複数のボタン等)を切り換えて表示するインターフェース表示手段(例えば、図2の制御部30、表示制御部50およびディスプレイ60)とを備えることを特徴としている。
In order to solve the above problems, the present invention provides:
An information processing apparatus including an imaging unit (for example, the imaging device 10 in FIGS. 1 and 2) that captures an image of a subject, and when an image of a preset object is captured by the imaging unit A predetermined parameter related to the object (for example, a parameter based on a positional relationship with the object such as a distance to the object, a parameter indicating the size of the object or the shape of the object itself, or a photograph of the object) Parameter acquisition means (for example, the imaging shown in FIGS. 1 and 2) for acquiring a positional relationship with the object such as the size of the image of the object in the obtained image or a parameter that indirectly indicates the form of the object itself. In order to perform an input operation on the apparatus 10 in accordance with the apparatus 10 or a measuring apparatus that directly measures the distance to the object, the size of the object, and the like) and the predetermined parameter Interface display means (for example, the control unit 30 in FIG. 2) that switches and displays a plurality of operation screens (for example, a graphical user interface corresponding to a plurality of applications or a plurality of buttons in a graphical user interface of one application). And a display control unit 50 and a display 60).

これにより、予め設定された対象物が撮影されている場合に、その対象物について取得された所定パラメータに応じて、操作画面が切り換えて表示される。
したがって、対象物における所定パラメータを変化させることにより、ユーザは操作画面を切り換えることが可能となり、表示画面内にボタンを表示する領域が十分確保できない場合であっても、グラフィカルユーザインターフェースの操作性を向上させることが可能となる。
As a result, when a preset object is photographed, the operation screen is switched and displayed according to the predetermined parameter acquired for the object.
Therefore, the user can switch the operation screen by changing the predetermined parameter in the object, and the operability of the graphical user interface can be improved even when a sufficient area for displaying the button cannot be secured in the display screen. It becomes possible to improve.

また、前記パラメータ取得手段は、前記撮像手段によって撮影された画像における前記対象物の画像の大きさ(例えば、対象物の画像における累積画素数等)を、前記所定パラメータとして取得することを特徴としている。
これにより、撮像手段によって撮影された画像から所定パラメータを取得することができるため、簡易な機器構成とすることが可能となる。
Further, the parameter acquisition unit acquires the size of the image of the object (for example, the cumulative number of pixels in the image of the object) as the predetermined parameter in the image captured by the imaging unit. Yes.
Thereby, since a predetermined parameter can be acquired from the image imaged by the imaging means, a simple device configuration can be achieved.

また、前記インターフェース表示手段は、前記所定パラメータに応じて、自装置が実行可能な複数のアプリケーションに対応するグラフィカルユーザインターフェースを切り換えて表示することを特徴としている。
これにより、複数のアプリケーションを備える場合に、これらの選択を容易に行うことが可能となる。
Further, the interface display means switches and displays a graphical user interface corresponding to a plurality of applications that can be executed by the device according to the predetermined parameter.
Accordingly, when a plurality of applications are provided, it is possible to easily select these.

また、前記インターフェース表示手段は、前記所定パラメータと表示される操作画面との対応関係を示唆する表示(例えば、図8のインジケータ)を行うことを特徴としている。
これにより、ユーザが所定パラメータを変化させる際の操作を支援することが可能となる。
Further, the interface display means performs a display (for example, an indicator in FIG. 8) suggesting a correspondence relationship between the predetermined parameter and the displayed operation screen.
Thereby, it becomes possible to assist the operation when the user changes the predetermined parameter.

また、前記インターフェース表示手段は、前記複数の操作画面を切り換えて表示する際、表示されている操作画面に対し、前記所定パラメータが変化することにより、新たに表示されることとなる他の操作画面を示唆する画面(例えば、図7(b)の撮像装置10の制御ソフトウェア)を重畳して表示することを特徴としている。
これにより、操作画面を徐々に切り換えることができるため、操作画面が突然切り換わることにより、操作性が低下する事態を防止することが可能となる。
In addition, when the interface display unit switches and displays the plurality of operation screens, another operation screen that is newly displayed when the predetermined parameter changes with respect to the displayed operation screen. (For example, the control software of the imaging apparatus 10 in FIG. 7B) is superimposed and displayed.
Thereby, since the operation screen can be gradually switched, it is possible to prevent the operability from being deteriorated due to the sudden switching of the operation screen.

また、前記インターフェース表示手段は、前記所定パラメータが変化した場合に表示が予定される操作画面に関する情報を、現在表示されている操作画面内に表示することを特徴としている。
これにより、ユーザが所定パラメータを変化させる場合の操作を支援することが可能となる。
Further, the interface display means displays information related to an operation screen that is scheduled to be displayed when the predetermined parameter is changed in the operation screen that is currently displayed.
Thereby, it becomes possible to assist the operation when the user changes the predetermined parameter.

また、前記対象物の画像を入力操作のためのポインタとして認識し、表示された操作画面内において移動された前記対象物の画像によって、前記操作画面に対する入力操作が可能であることを特徴としている。
これにより、操作画面の切り換えに用いた対象物を、そのまま入力操作に用いることができるため、操作性を向上させることが可能となる。
Further, the image of the object is recognized as a pointer for input operation, and an input operation on the operation screen is possible by the image of the object moved in the displayed operation screen. .
As a result, the object used for switching the operation screen can be used for the input operation as it is, so that the operability can be improved.

また、前記インターフェース表示手段は、前記操作画面に入力ボタンを表示し、該入力ボタンに前記対象物の画像が重ねられた時間に応じて、該入力ボタンに対する操作内容を変化させることを特徴としている。
これにより、対象物を用いた簡単な操作で操作画面に対する入力を行うことが可能となる。
Further, the interface display means displays an input button on the operation screen, and changes an operation content for the input button according to a time when the image of the object is superimposed on the input button. .
Thereby, it becomes possible to input with respect to an operation screen by simple operation using a target object.

また、前記撮像手段によって撮影された対象物の画像における形態の変化を検出する検出手段(例えば、図1および図2の撮像装置10および制御部30)をさらに備え、前記対象物の画像における形態の変化(例えば、対象物の色の変化、大きさの変化あるいは形の変化等)によって、前記操作画面における入力操作が可能であることを特徴としている。   Further, the image processing apparatus further includes detection means (for example, the imaging device 10 and the control unit 30 in FIGS. 1 and 2) that detects a change in form in the image of the object photographed by the imaging means, and the form in the image of the object. It is characterized in that an input operation on the operation screen can be performed by a change (for example, a color change, a size change, or a shape change of an object).

これにより、対象物を用いた簡単な操作で、比較的多様な入力操作を行うことが可能となる。
また、前記所定パラメータと前記複数の操作画面それぞれとの対応関係(例えば、所定パラメータに対して操作画面が配置されている順序や、各操作画面に割り当てる所定パラメータの範囲の大きさ等)を変更可能であることを特徴としている。
Thereby, it is possible to perform relatively various input operations with a simple operation using the object.
In addition, the correspondence relationship between the predetermined parameter and each of the plurality of operation screens (for example, the order in which the operation screens are arranged with respect to the predetermined parameters, the size of the range of the predetermined parameter assigned to each operation screen, etc.) is changed. It is characterized by being possible.

これにより、ユーザの要求に応じて、柔軟な設定を行うことが可能となり、操作性のさらなる向上を図ることが可能となる。
また、前記複数の操作画面それぞれの使用頻度を計測する使用頻度計測手段(例えば、図1の制御部30)をさらに備え、該使用頻度計測手段によって計測された使用頻度に応じて、前記所定パラメータと前記複数の操作画面それぞれとの対応関係を設定することを特徴としている。
Thereby, it becomes possible to perform flexible setting according to a user's request | requirement, and it becomes possible to aim at the further improvement of operativity.
Further, the apparatus further includes a usage frequency measuring unit (for example, the control unit 30 in FIG. 1) that measures the usage frequency of each of the plurality of operation screens, and the predetermined parameter is determined according to the usage frequency measured by the usage frequency measuring unit. And a correspondence relationship between each of the plurality of operation screens is set.

これにより、使用頻度の高い操作画面を、操作し易い順序に自動的に配置することができ、操作性をさらに向上させることが可能となる。
また、前記所定パラメータの変化に関わらず、前記インターフェース表示手段が表示している操作画面を表示させる操作画面固定手段(例えば、発明を実施するための最良の形態における、ハードウェアとして備えられたGUI固定用のボタンやGUI上に表示されたGUI固定用のボタン)をさらに備えることを特徴としている。
Thus, operation screens that are frequently used can be automatically arranged in an easy-to-operate order, and operability can be further improved.
The operation screen fixing means for displaying the operation screen displayed by the interface display means regardless of the change of the predetermined parameter (for example, the GUI provided as hardware in the best mode for carrying out the invention) A fixing button and a GUI fixing button displayed on the GUI).

これにより、ユーザが入力操作を行いたい操作画面に固定することができるため、対象物の状態が変化することによって不意に操作画面が切り換わってしまうことを防止できる。
また、本発明は、
被写体の画像を撮影する撮像手段を備えた情報処理装置を制御するための情報処理プログラムであって、予め設定された対象物の画像が前記撮像手段によって撮影されている際に、該対象物に関する所定パラメータを取得するパラメータ取得機能と、前記所定パラメータに応じて、自装置に入力操作を行うための複数の操作画面を切り換えて表示するインターフェース表示機能とを実現させることを特徴としている。
本発明によれば、対象物に関する所定パラメータと、複数の操作画面とが対応付けられており、ユーザが所定パラメータを変化させることにより、各操作画面を切り換えて表示させることができる。
Thereby, since it can fix to the operation screen which a user wants to perform input operation, it can prevent that the operation screen switches unexpectedly by the state of a target object changing.
The present invention also provides:
An information processing program for controlling an information processing apparatus including an imaging unit that captures an image of a subject, wherein an image of a preset object is captured by the imaging unit. A parameter acquisition function for acquiring a predetermined parameter and an interface display function for switching and displaying a plurality of operation screens for performing an input operation on the device according to the predetermined parameter are realized.
According to the present invention, the predetermined parameter related to the object is associated with the plurality of operation screens, and the operation screen can be switched and displayed by the user changing the predetermined parameter.

したがって、表示画面内にボタン等を表示する領域が十分確保できない場合であっても、グラフィカルユーザインターフェースの操作性を向上させることが可能となる。   Therefore, the operability of the graphical user interface can be improved even when a sufficient area for displaying buttons or the like cannot be secured in the display screen.

以下、図を参照して本発明に係る情報処理装置の実施の形態を説明する。
まず、構成を説明する。
図1は、本発明を適用した情報処理装置1の外観構成を示す概略図であり、図1(a)は正面図、図1(b)は背面図である。また、図2は、情報処理装置1の機能構成を示すブロック図である。なお、図1においては、情報処理装置1に対する指示入力時に用いられる指示具2を併せて示している。
Embodiments of an information processing apparatus according to the present invention will be described below with reference to the drawings.
First, the configuration will be described.
FIG. 1 is a schematic diagram showing an external configuration of an information processing apparatus 1 to which the present invention is applied. FIG. 1A is a front view and FIG. 1B is a rear view. FIG. 2 is a block diagram illustrating a functional configuration of the information processing apparatus 1. In addition, in FIG. 1, the indicator 2 used at the time of the instruction | indication input with respect to the information processing apparatus 1 is shown collectively.

図1および図2において、情報処理装置1は、撮像装置10と、撮像画像処理ユニット20と、制御部30と、記憶部40と、表示制御部50と、ディスプレイ60とを含んで構成される。
撮像装置10は、レンズの結像をCCD(Charge Coupled Device)あるいはCMOS(Complementary Metal-Oxide Semiconductor)センサ等の光電変換可能なデバイスによって電気信号に変換する。そして、撮像装置10は、その電気信号によって示される画像のデータ(以下、「撮像画像データ」と言う。)を撮像画像処理ユニット20に出力する。
1 and 2, the information processing apparatus 1 includes an imaging device 10, a captured image processing unit 20, a control unit 30, a storage unit 40, a display control unit 50, and a display 60. .
The imaging apparatus 10 converts an image formed by a lens into an electrical signal by a photoelectrically convertible device such as a CCD (Charge Coupled Device) or a CMOS (Complementary Metal-Oxide Semiconductor) sensor. Then, the imaging device 10 outputs image data (hereinafter referred to as “captured image data”) indicated by the electrical signal to the captured image processing unit 20.

なお、本実施の形態においては、撮像装置10を特許請求の範囲におけるパラメータ取得手段として用い、撮影された画像から、対象物である指示具2等との距離を所定パラメータとして取得するものとして説明するが、この他にも、対象物である指示具2等との距離あるいは指示具2の大きさもしくは形等を直接測定する測定装置を備え、測定された距離、大きさあるいは形を所定パラメータとして取得することとしても良い。   In the present embodiment, it is assumed that the imaging device 10 is used as a parameter acquisition unit in the claims, and the distance from the captured object 2 or the like as a predetermined parameter is acquired from a captured image as a predetermined parameter. However, in addition to this, a measuring device for directly measuring the distance to the indicator 2 or the like as the object or the size or shape of the indicator 2 is provided, and the measured distance, size, or shape is set to the predetermined parameter. It is also good to get as.

撮像画像処理ユニット20は、画像処理部21と、画像処理用メモリ22とをさらに含んで構成される。
画像処理部21は、撮像装置10によって入力された撮像画像データに対し、例えば色補間やサイズの変更といった、所定形式の画像データに変換する処理を施し、処理結果を画像処理用メモリ22に記憶させる。
The captured image processing unit 20 further includes an image processing unit 21 and an image processing memory 22.
The image processing unit 21 performs processing for converting the captured image data input by the imaging device 10 into image data of a predetermined format such as color interpolation or size change, and stores the processing result in the image processing memory 22. Let

画像処理用メモリ22は、SRAM(Static Random Access Memory)等の半導体メモリによって構成され、撮像装置10によって入力された撮像画像データや、画像処理部21の処理結果である所定形式の画像データを記憶する。
制御部30は、プロセッサ31と、メモリ32とをさらに含んで構成される。
プロセッサ31は、情報処理装置1全体を制御するものであり、電源ボタン(不図示)や後述するグラフィカルユーザインターフェース(GUI)によって入力された各種の指示信号に従って、記憶部40に記憶された各種処理に関するプログラムを読み出して実行する。例えば、プロセッサ31は、電源ボタンが押下され、情報処理装置1の電源が投入されると、記憶部40に記憶されたGUI構築処理プログラムを読み出して、本発明に係るGUIを実現するためのGUI構築処理を実行する。そして、プロセッサ31は、各種処理結果をメモリ32や記憶部40の所定の領域に格納したり、表示制御部50に出力したりする。
The image processing memory 22 is configured by a semiconductor memory such as SRAM (Static Random Access Memory), and stores captured image data input by the imaging device 10 and image data of a predetermined format that is a processing result of the image processing unit 21. To do.
The control unit 30 further includes a processor 31 and a memory 32.
The processor 31 controls the entire information processing apparatus 1 and performs various processes stored in the storage unit 40 in accordance with various instruction signals input by a power button (not shown) or a graphical user interface (GUI) described later. Read and execute the program related to. For example, when the power button is pressed and the information processing apparatus 1 is turned on, the processor 31 reads the GUI construction processing program stored in the storage unit 40 and implements the GUI for realizing the GUI according to the present invention. Run the build process. Then, the processor 31 stores various processing results in predetermined areas of the memory 32 and the storage unit 40 or outputs them to the display control unit 50.

メモリ32は、DRAM(Dynamic Random Access Memory)等の半導体メモリによって構成され、プロセッサ31により実行される各種処理において生成された各種データを一時的に格納するワークエリアを有する。
記憶部40は、フラッシュROM等の不揮発性の記憶装置によって構成され、情報処理装置1のオペレーティングシステムプログラム、アプリケーションプログラム、システムデータファイルあるいはGUI構築処理プログラムといった不揮発的に保持されるデータを記憶している。また、記憶部40は、ユーザによって設定された各種パラメータや、情報処理装置1が動作中に取得した種々のデータ、例えば、アプリケーションの使用頻度等を記憶している。
The memory 32 is composed of a semiconductor memory such as a DRAM (Dynamic Random Access Memory), and has a work area for temporarily storing various data generated in various processes executed by the processor 31.
The storage unit 40 is configured by a nonvolatile storage device such as a flash ROM, and stores data held in a nonvolatile manner such as an operating system program, an application program, a system data file, or a GUI construction processing program of the information processing device 1. Yes. In addition, the storage unit 40 stores various parameters set by the user and various data acquired during operation of the information processing apparatus 1, for example, usage frequency of applications.

なお、アプリケーションの使用頻度については、ユーザの要求に応じて表示することが可能であり、ユーザは、表示された使用頻度に応じて、GUIの配置順序を設定することが可能である。
表示制御部50は、ディスプレイコントローラやディスプレイドライバを含んで構成され、プロセッサ31によって入力された画像データをディスプレイ60に表示させるための制御信号を生成する。
Note that the usage frequency of the application can be displayed according to the user's request, and the user can set the arrangement order of the GUIs according to the displayed usage frequency.
The display control unit 50 includes a display controller and a display driver, and generates a control signal for causing the display 60 to display the image data input by the processor 31.

ディスプレイ60は、LCD(Liquid Crystal Display)等の表示装置であり、表示制御部50によって生成された制御信号に応じて、種々の画像を表示する。
続いて、本実施の形態において使用される指示具2について説明する。
図1に示す指示具2は、ユーザが手に持つ部分である棒状の保持部2aと、その先端に取り付けられた球体の被認識部2bとによって構成されている。
The display 60 is a display device such as an LCD (Liquid Crystal Display), and displays various images according to control signals generated by the display control unit 50.
Subsequently, the indicator 2 used in the present embodiment will be described.
The indicator 2 shown in FIG. 1 is composed of a rod-shaped holding portion 2a that is a portion held by a user, and a spherical recognition portion 2b attached to the tip of the holding portion 2a.

この被認識部2bは、赤色に着色されており、情報処理装置1は、撮影された画像における形状および色から被認識部2bを識別する。そして、被認識部2bの画像が、GUIにおけるポインタ(カーソル)とされ、ユーザが保持部2aを持って指示具2を各方向へ移動させることにより、種々の指示入力を行うことが可能である。
なお、指示具2の具体的な形態(形状および色等)は設計に応じて定めることが可能であるが、例えば、保持部2aを直径5ミリメートル、長さ10センチメートルの円柱状とし、被認識部2bを直径2センチメートルの球体とすること等が可能である。
The recognized portion 2b is colored red, and the information processing apparatus 1 identifies the recognized portion 2b from the shape and color in the captured image. The image of the recognized portion 2b is used as a pointer (cursor) in the GUI, and the user can input various instructions by moving the pointing tool 2 in each direction with the holding portion 2a. .
The specific form (shape, color, etc.) of the pointing tool 2 can be determined according to the design. For example, the holding portion 2a is a cylindrical shape having a diameter of 5 millimeters and a length of 10 centimeters. The recognition unit 2b can be a sphere having a diameter of 2 centimeters.

次に、動作を説明する。
情報処理装置1は、電源投入と共にGUI構築処理を起動し、以後の入力操作は、GUI構築処理によって構築されたGUIを介して行われる。
GUI構築処理は、GUIのポインタとして予め設定された指示具2を情報処理装置1によって撮影し、撮影された指示具2までの距離によって複数のアプリケーションのGUIを切り換える処理である。
Next, the operation will be described.
The information processing apparatus 1 starts the GUI construction process when the power is turned on, and subsequent input operations are performed via the GUI constructed by the GUI construction process.
The GUI construction process is a process of photographing the pointing tool 2 preset as a GUI pointer by the information processing apparatus 1 and switching the GUIs of a plurality of applications depending on the distance to the photographed pointing tool 2.

GUI構築処理が実行される際には、その初期化処理において、情報処理装置1にインストールされている各アプリケーションが、撮影された指示具2までの距離範囲と対応付けられる。即ち、各アプリケーションのGUIが、撮影された画像における奥行き方向に所定の配置順序で仮想的に配置された状態とされる。なお、各アプリケーションが対応付けられた距離範囲相互の間に、いずれのアプリケーションのGUIにも対応付けられていない緩衝部分(以下、適宜「遊び幅」という。)が備えられている。   When the GUI construction process is executed, in the initialization process, each application installed in the information processing apparatus 1 is associated with the distance range to the captured indicator 2. That is, the GUI of each application is virtually arranged in a predetermined arrangement order in the depth direction in the captured image. In addition, a buffer portion (hereinafter referred to as “play width” as appropriate) that is not associated with the GUI of any application is provided between the distance ranges associated with each application.

図3は、各アプリケーションが指示具2までの距離(奥行き)と対応付けられている状態を示す概念図である。
図3において、撮影された画像空間の奥行き方向には、一定範囲に1つずつ各アプリケーションのGUIが配置されている。
各アプリケーションの配置順序は、ユーザの要求あるいは設計仕様等に応じて種々の形態とすることが可能であるが、例えば、上述のようにユーザの設定により、あるいは、自動的に使用頻度が高い順番で各アプリケーションのGUIを配置するといったことが考えられる。
FIG. 3 is a conceptual diagram showing a state in which each application is associated with a distance (depth) to the pointing tool 2.
In FIG. 3, GUIs of each application are arranged one by one in a certain range in the depth direction of the captured image space.
The arrangement order of each application can be in various forms according to user requirements or design specifications. For example, the order in which the applications are frequently used is set according to the user setting or automatically as described above. It is conceivable to arrange GUI of each application.

このような初期設定の下、GUI構築処理が実行される。
図4は、情報処理装置1のプロセッサ31が実行するGUI構築処理を示すフローチャートである。
GUI構築処理が起動されると、プロセッサ31は、撮像装置10および撮像画像処理ユニット20によって所定形式の画像データを取得し(ステップS1)、取得した画像データにおいて、GUIのポインタとして設定された指示具2までの距離を導出するための処理(以下、「距離導出処理」という。)を実行する(ステップS2)。
The GUI construction process is executed under such initial settings.
FIG. 4 is a flowchart showing a GUI construction process executed by the processor 31 of the information processing apparatus 1.
When the GUI construction process is started, the processor 31 acquires image data in a predetermined format by the imaging device 10 and the captured image processing unit 20 (step S1), and the instruction set as the GUI pointer in the acquired image data A process for deriving the distance to the tool 2 (hereinafter referred to as “distance deriving process”) is executed (step S2).

次に、プロセッサ31は、ステップS2において導出された、指示具2までの距離に応じたアプリケーションのGUIを表示する処理(以下、「GUI表示処理」という。)を実行し(ステップS3)、以後、ステップS1〜S3を繰り返す。
続いて、GUI構築処理のステップS2において実行される距離導出処理について説明する。
Next, the processor 31 executes a process of displaying the GUI of the application corresponding to the distance to the pointing tool 2 (hereinafter referred to as “GUI display process”) derived in step S2 (step S3), and thereafter. , Steps S1 to S3 are repeated.
Next, the distance derivation process executed in step S2 of the GUI construction process will be described.

図5は、GUI構築処理において実行される距離導出処理を示すフローチャートである。
距離導出処理が開始されると、プロセッサ31は、GUI構築処理のステップS1において取得された画像データから、赤色の領域(以下、「対象領域」という。)を抽出する(ステップS101)。
FIG. 5 is a flowchart showing the distance derivation process executed in the GUI construction process.
When the distance derivation process is started, the processor 31 extracts a red area (hereinafter referred to as “target area”) from the image data acquired in step S1 of the GUI construction process (step S101).

ここで、赤色の領域を抽出するのは、指示具2の被認識部2bが赤色に着色されているためである
次いで、プロセッサ31は、抽出された赤色の領域(対象領域)を黒色、赤色以外の領域を白色に変換し、画像データを2値化する(ステップS102)。
次に、プロセッサ31は、画像データに含まれる画素を間引くことにより画像の縮小処理を行う(ステップS103)。
Here, the reason why the red region is extracted is that the recognized portion 2b of the pointing tool 2 is colored red. Next, the processor 31 converts the extracted red region (target region) into black and red. The area other than is converted to white, and the image data is binarized (step S102).
Next, the processor 31 performs image reduction processing by thinning out pixels included in the image data (step S103).

縮小処理を行うことにより、1画素からなる対象領域のようにノイズとみなすことができる領域を消去することができる。
そして、プロセッサ31は、ステップS103において縮小された画像を再度元のサイズに戻し(ステップS104)、この時点で対象領域として残存している領域それぞれに識別番号を付与(ラベリング)する(ステップS105)。
By performing the reduction process, an area that can be regarded as noise, such as a target area consisting of one pixel, can be erased.
Then, the processor 31 returns the image reduced in step S103 to the original size again (step S104), and assigns (labels) an identification number to each of the regions remaining as target regions at this time (step S105). .

さらに、プロセッサ31は、ステップS105において識別番号を付与された各対象領域について、円形度の導出を行う(ステップS106)。
なお、各対象領域の円形度は、その輪郭と円とのマッチングを行うことによって導出される。
そして、プロセッサ31は、最も円形度が高いと導出された識別番号の対象領域について画像上の面積X(ここでは累積画素数)を導出し(ステップS107)、GUI構築処理に戻る。
Furthermore, the processor 31 derives the circularity for each target region to which the identification number is assigned in step S105 (step S106).
Note that the circularity of each target region is derived by matching the contour with a circle.
Then, the processor 31 derives the area X (the cumulative number of pixels in this case) on the image with respect to the target area having the identification number derived as having the highest circularity (step S107), and returns to the GUI construction process.

次に、GUI構築処理のステップS3において実行されるGUI表示処理について説明する。
図6は、GUI構築処理において実行されるGUI表示処理を示すフローチャートである。
情報処理装置1においては、面積Xの閾値として小さい順にX1,X2,X3,X4が予め設定されており、GUI表示処理が開始されると、プロセッサ31は、面積XがX1以上かつX2未満であるか否かの判定を行う(ステップS201)。
Next, the GUI display process executed in step S3 of the GUI construction process will be described.
FIG. 6 is a flowchart showing a GUI display process executed in the GUI construction process.
In the information processing apparatus 1, X1, X2, X3, and X4 are preset in ascending order as the threshold value of the area X, and when the GUI display process is started, the processor 31 determines that the area X is greater than or equal to X1 and less than X2. It is determined whether or not there is (step S201).

ステップS201において、面積XがX1以上かつX2未満であると判定した場合、プロセッサ31は、第1のアプリケーションのGUI(例えば、撮像装置10の制御ソフトウェアのGUI)を表示する(ステップS202)。
一方、ステップS201において、面積XがX1以上かつX2未満でないと判定した場合、プロセッサ31は、面積XがX2以上かつX3未満であるか否かの判定を行う(ステップS203)。
If it is determined in step S201 that the area X is greater than or equal to X1 and less than X2, the processor 31 displays the GUI of the first application (for example, the GUI of the control software of the imaging device 10) (step S202).
On the other hand, when it is determined in step S201 that the area X is not less than X1 and less than X2, the processor 31 determines whether or not the area X is not less than X2 and less than X3 (step S203).

ステップS203において、面積XがX2以上かつX3未満であると判定した場合、プロセッサ31は、第2のアプリケーションのGUI(例えば、ミュージックプレイソフトウェアのGUI)を表示する(ステップS204)。
一方、ステップS203において、面積XがX2以上かつX3未満でないと判定した場合、プロセッサ31は、面積XがX3以上かつX4未満であるか否かの判定を行う(ステップS205)。
If it is determined in step S203 that the area X is greater than or equal to X2 and less than X3, the processor 31 displays the GUI of the second application (for example, the GUI of music play software) (step S204).
On the other hand, if it is determined in step S203 that the area X is not less than X2 and less than X3, the processor 31 determines whether or not the area X is not less than X3 and less than X4 (step S205).

ステップS205において、面積XがX3以上かつX4未満であると判定した場合、プロセッサ31は、第3のアプリケーションのGUIを表示する(ステップS206)。
一方、ステップS205において、面積XがX3以上かつX4未満でないと判定した場合、プロセッサ31は、GUI構築処理のステップS1に移行する。
そして、プロセッサ31は、GUI表示処理で表示されたGUIにおいて、表示されたボタンが押下されることにより入力操作が行われたと判定した場合には、入力操作に対応する各種処理に移行する。
If it is determined in step S205 that the area X is not less than X3 and less than X4, the processor 31 displays the GUI of the third application (step S206).
On the other hand, if it is determined in step S205 that the area X is not less than X3 and less than X4, the processor 31 proceeds to step S1 of the GUI construction process.
If the processor 31 determines that an input operation has been performed by pressing the displayed button in the GUI displayed by the GUI display process, the processor 31 proceeds to various processes corresponding to the input operation.

なお、GUI構築処理で表示されたGUIにおいて、入力操作が行われていないと判定した場合には、プロセッサ31は、入力操作が行われるまでGUI構築処理を繰り返す。
このようなGUI構築処理が実行される結果、ユーザが指示具2を撮像装置10の前で近づけたり遠ざけたりすることにより、ディスプレイ60に第1〜第3のアプリケーションのGUIが順次切り換えて表示される。そのため、ユーザは、指示具2を撮像装置10の前で近づけたり遠ざけたりしながら、所望のアプリケーションのGUIが表示された時点で指示具2の位置を固定し、その奥行きに位置する面内(ディスプレイ60に表示されているGUIの面内)で指示具2を移動させて、必要なボタンを押下することができる。
ボタンを押下する操作の具体的な形態としては、表示されたボタンの位置に指示具2の被認識部2bの画像を重ならせ、その時間経過に応じて、接触している状態、押下した状態と変化させることが可能である。
If it is determined that no input operation is performed on the GUI displayed in the GUI construction process, the processor 31 repeats the GUI construction process until the input operation is performed.
As a result of executing such GUI construction processing, the GUI of the first to third applications is sequentially switched and displayed on the display 60 when the user moves the pointing tool 2 close to or away from the imaging apparatus 10. The For this reason, the user fixes the position of the pointing tool 2 when the GUI of the desired application is displayed while moving the pointing tool 2 in front of or in front of the imaging apparatus 10, and the in-plane ( It is possible to move the pointing tool 2 within the GUI displayed on the display 60 and press a necessary button.
As a specific form of the operation of pressing the button, the image of the recognized portion 2b of the pointing tool 2 is overlapped with the position of the displayed button, and the touched state is pressed according to the passage of time. It is possible to change with the state.

このとき、ボタンの状態に応じて、ボタンの表示形態を順次変化させることとしても良い。
例えば、経過時間に応じてボタンの色を変化させたり、アルファ値(透過度)を変化させたりすることが可能である。
このようにボタンの表示形態が変化することによって、ユーザにボタンの状態(接触されている状態あるいは押下された状態)を知らせることが可能となる。
At this time, the display form of the buttons may be sequentially changed according to the state of the buttons.
For example, it is possible to change the button color or change the alpha value (transparency) according to the elapsed time.
Thus, by changing the display form of the button, it is possible to inform the user of the state of the button (the touched state or the pressed state).

なお、ボタンの表示形態を変化させる際の経過時間の長さは、ユーザの要求に応じて設定可能である。
また、ボタンを押下する際の他の形態としては、ポインタとして設定された対象物の色あるいは形状を変化可能なものとしておき(例えば、上述の指示具2の被認識部2bにおいて表を赤、裏を青にする、あるいは、ペンライト等、光の色あるいは輝度を変化可能なものとする等)、ボタンを押下する際には、ポインタをボタンに重ねた状態で、対象物の色あるいは形状を変化させる(被認識部2bを反転させ表裏を入れ替える、あるいは、ペンライト等のスイッチを操作することにより光の色あるいは輝度を切り替える等)ことによってボタンが押下されたものと判定することとしても良い。
In addition, the length of the elapsed time when changing the display form of the button can be set according to the user's request.
As another form of pressing the button, the color or shape of the object set as the pointer can be changed (for example, the table is red in the recognized portion 2b of the pointing tool 2 described above, When the button is pressed, the color or shape of the target object with the pointer over the button It is also possible to determine that the button has been pressed by changing (reversing the recognized part 2b and switching the front and back, or switching the color or brightness of the light by operating a switch such as a penlight) good.

また、ユーザが指示具2を撮像装置10の前で近づけたり遠ざけたりする際、一定の奥行きに位置する面内を維持して指示具2を移動させることは、ユーザにとってやや困難な場合もあるため、所望のアプリケーションのGUIが表示された時点で、表示されているGUIを固定し、操作性を向上させることも可能である。この場合、情報処理装置1にハードウェアとして備えられたGUI固定用のボタンや、GUI上に表示されたGUI固定用のボタンが押下されることに対応して、プロセッサ31が、表示されているGUIを固定するように制御することが可能である。   In addition, when the user moves the pointing tool 2 close to or away from the imaging apparatus 10, it may be somewhat difficult for the user to move the pointing tool 2 while maintaining an in-plane position at a certain depth. Therefore, when the GUI of a desired application is displayed, the displayed GUI can be fixed to improve operability. In this case, the processor 31 is displayed in response to pressing of a GUI fixing button provided as hardware in the information processing apparatus 1 or a GUI fixing button displayed on the GUI. It is possible to control to fix the GUI.

なお、上述の指示具2をGUIのポインタとして設定する場合の他にも、人差し指等、任意のものをポインタとして設定することが可能である。この場合、ポインタとして設定する対象物を撮像装置10によって撮影し、その形状および色等を認識しておくことによって、以後、ポインタとして用いることが可能である。
また、ユーザがポインタとして設定された対象物を撮像装置10の前で近づけたり遠ざけたりした場合、GUI構築処理によって、GUIが表示されるアプリケーションが順次切り換わることとなるが、このとき、異なるアプリケーションのGUIを択一的に切り換えて表示するのではなく、現在選択されているGUI(ポインタとして設定された対象物の位置に対応するGUI)が表示されている状態から、GUIが切り換わりつつあることを示唆する表示を行うこととしても良い。
In addition to setting the above-described pointing tool 2 as a GUI pointer, it is possible to set any pointer such as an index finger as a pointer. In this case, the object to be set as a pointer is photographed by the imaging device 10 and can be used as a pointer thereafter by recognizing its shape and color.
In addition, when the user moves an object set as a pointer close to or away from the imaging apparatus 10, the GUI display processing sequentially switches the applications on which the GUI is displayed. The GUI is being switched from the state in which the currently selected GUI (the GUI corresponding to the position of the object set as the pointer) is displayed instead of selectively switching the GUI of It is good also as performing the display which suggests.

例えば、現在選択されているGUIを透かした状態とし、切り換わりつつある新たなGUIを重畳して表示すること等が可能である。
図7は、GUI構築処理において、ミュージックプレイソフトウェアのGUIのみが表示された状態(図7(a)参照)と、撮像装置10の制御ソフトウェアのGUIが重畳された状態(図7(b)参照)とを示す図である。
For example, the currently selected GUI can be displayed in a watermarked state, and a new GUI being switched can be superimposed and displayed.
FIG. 7 shows a state in which only the GUI of the music play software is displayed in the GUI construction processing (see FIG. 7A) and a state in which the GUI of the control software of the imaging device 10 is superimposed (see FIG. 7B). ).

なお、図7においては、指示具2に代えて、人差し指をポインタとして設定した場合を示している。
図7において、ミュージックプレイソフトウェアのGUIのみが表示されている状態(図7(a)の状態)から、ポインタとして設定された人差し指を徐々に情報処理装置1に近づけていくと、所定位置から、次に表示されることとなる撮像装置10の制御ソフトウェアのGUIが重畳された状態で表示されるようになる(図7(b)の状態)。
Note that FIG. 7 shows a case where the index finger is set as a pointer instead of the pointing tool 2.
In FIG. 7, when the index finger set as a pointer is gradually brought closer to the information processing apparatus 1 from the state where only the music play software GUI is displayed (the state of FIG. 7A), from a predetermined position, Next, the GUI of the control software of the imaging apparatus 10 to be displayed is displayed in a superimposed state (the state shown in FIG. 7B).

このような表示を行うことにより、ユーザがポインタ(人差し指)を移動させている際に、突然、異なるアプリケーションのGUIに切り換わってしまい、操作における違和感が生じることを防止できるため、操作性を向上させることが可能となる。
なお、このような表示を上述の遊び幅の部分において行うことが可能である。
以上のように、本実施の形態に係る情報処理装置1は、撮像装置10によって撮影された指示具2までの距離(奥行き)と、各アプリケーションのGUIとが対応付けられており、ユーザが撮像装置10の前で指示具2を前後に移動させることにより、各アプリケーションのGUIを切り換えて表示させることができる。
By performing such a display, when the user moves the pointer (index finger), it is possible to prevent sudden switching to a GUI of a different application, resulting in a sense of incongruity in the operation, thus improving operability. It becomes possible to make it.
Such display can be performed in the above-described play width portion.
As described above, in the information processing apparatus 1 according to the present embodiment, the distance (depth) to the pointing tool 2 captured by the imaging apparatus 10 is associated with the GUI of each application, and the user captures images. The GUI of each application can be switched and displayed by moving the pointing tool 2 back and forth in front of the device 10.

したがって、情報処理装置1のディスプレイ60に多数のボタンを表示することのないGUIを構築することができる。即ち、表示画面内にボタンを表示する領域が十分確保できない場合であっても、操作性の高いグラフィカルユーザインターフェースを実現することが可能となる。
なお、ポインタとして設定された対象物までの距離と表示されるGUIとの対応関係を明瞭なものとするため、ディスプレイ60に対象物までの距離範囲とアプリケーションとの対応関係を示すインジケータを表示することとしても良い。
Therefore, it is possible to construct a GUI that does not display many buttons on the display 60 of the information processing apparatus 1. That is, even when a sufficient area for displaying buttons on the display screen cannot be secured, a graphical user interface with high operability can be realized.
In order to clarify the correspondence between the distance to the object set as the pointer and the displayed GUI, an indicator showing the correspondence between the distance range to the object and the application is displayed on the display 60. It's also good.

図8は、ポインタとして設定された対象物までの距離範囲とアプリケーションとの対応関係を示すインジケータをディスプレイ60に表示する場合の表示画面を示す図である。
図8においては、画像における奥行きを示すメータ上に、アプリケーションが割り当てられている距離範囲と、ポインタ(人差し指)の位置とが対応付けられたインジケータが示されている。
FIG. 8 is a diagram showing a display screen in the case where an indicator showing the correspondence between the distance range to the object set as the pointer and the application is displayed on the display 60.
In FIG. 8, an indicator in which a distance range to which an application is assigned and a position of a pointer (forefinger) are associated with each other on a meter indicating the depth in the image.

ユーザは、このインジケータを参照しながらポインタを前後に移動させることにより、GUIが切り換わる状態を適確に把握しつつ操作を行うことが可能である。
また、図8においては、現在のポインタの位置の奥および手前に位置しているGUIのアプリケーションをユーザに示唆するため、画像の上部および下部にそれぞれアプリケーション名を表示している。
The user can perform an operation while accurately grasping the state where the GUI is switched by moving the pointer back and forth while referring to the indicator.
In FIG. 8, the application name is displayed at the top and bottom of the image, respectively, in order to suggest to the user the GUI application located at the back and in front of the current pointer position.

このような表示を行うことにより、ユーザはいずれの方向にポインタを移動させれば良いかを容易に把握することが可能となる。
ここで、アプリケーションが割り当てられている距離範囲(奥行きの範囲)間の遊び幅は、過度に狭ければ、頻繁にGUIが切り換わることとなり、反対に、過度に広ければ、GUIの切り換えのために対象物を奥行き方向に移動させる距離が長くなるため、ユーザが要求に応じて適切な割り当てを設定することができる。また、アプリケーションが割り当てられている距離範囲自体の長さも、ユーザが要求に応じて設定可能である。
By performing such display, the user can easily grasp in which direction the pointer should be moved.
Here, if the play width between the distance ranges (depth ranges) to which the application is assigned is excessively narrow, the GUI is frequently switched. On the other hand, if the play width is excessively wide, the GUI is switched. Since the distance to move the object in the depth direction becomes longer, the user can set an appropriate assignment according to the request. In addition, the length of the distance range itself to which the application is assigned can be set by the user upon request.

なお、このような割り当ては、GUI構築処理の初期化処理において、情報処理装置1にインストールされている各アプリケーションが、撮影された対象物までの距離範囲と対応付けられる際に、設定を反映させることによって実現可能である。
また、本実施の形態において、撮像装置10によって撮影された画像上にGUIが表示されることについて説明したが、このとき、ポインタの画像を最前面、撮影された画像を最背面に表示し、GUIの上にはポインタの画像のみが表示されている状態とすることが可能である。
Note that such assignment reflects the setting when each application installed in the information processing apparatus 1 is associated with the distance range to the photographed object in the initialization process of the GUI construction process. This is possible.
Further, in the present embodiment, it has been described that the GUI is displayed on the image captured by the imaging device 10, but at this time, the pointer image is displayed on the foreground, and the captured image is displayed on the back surface, Only the image of the pointer can be displayed on the GUI.

図9は、GUI上にポインタの画像のみが表示されている状態を示す図である。
図9においては、撮影された画像、GUI、ポインタの画像の順に手前に表示されているため、ユーザがGUIの操作を行い易く、操作性をさらに向上させることが可能である。なお、図9に示す状態からポインタとして設定された対象物(人差し指)を一定距離だけ奥に移動させることにより、ポインタの画像をGUIの背面に表示するといったことも可能である。
FIG. 9 is a diagram illustrating a state in which only the pointer image is displayed on the GUI.
In FIG. 9, since the captured image, the GUI, and the pointer image are displayed in this order, the user can easily operate the GUI, and the operability can be further improved. It is also possible to display the pointer image on the back of the GUI by moving the object (forefinger) set as the pointer from the state shown in FIG.

また、本実施の形態においては、ポインタとして設定された対象物までの距離(奥行き)に応じて、複数のアプリケーションのGUIを切り換えて表示する場合を例に挙げて説明したが、本発明の適用対象はこれに限られず、種々の入力操作を行う場合に適用することが可能である。例えば、1つのアプリケーションのGUIにおいて、多数のボタンから1つを選択する場合等に、ポインタの距離に応じて、異なるボタンを順次切り換えて表示すること等が可能である。
また、本実施の形態においては、図3に示すように、各アプリケーションのGUIが画像空間の奥行き方向に配置されているものとして説明したが、アプリケーションが多数備えられている場合には、アプリケーションの選択過程を階層的なものとすることが可能である。即ち、多数のアプリケーションをグループに区分しておき、図3に示す各GUIをグループそれぞれの選択画面とすることによって、まず、いずれかのグループの選択画面であるGUIを選択し、その後に、その選択画面において特定のアプリケーションを選択することが可能である。
Further, in the present embodiment, the case has been described as an example where the GUIs of a plurality of applications are switched according to the distance (depth) to the target set as the pointer, but the present invention is applied. The object is not limited to this, and can be applied to various input operations. For example, when selecting one of many buttons in the GUI of one application, it is possible to sequentially switch and display different buttons according to the distance of the pointer.
In the present embodiment, as shown in FIG. 3, the GUI of each application has been described as being arranged in the depth direction of the image space. However, when a large number of applications are provided, The selection process can be hierarchical. That is, by dividing a large number of applications into groups and setting each GUI shown in FIG. 3 as a selection screen for each group, first, a GUI that is a selection screen of any group is selected, and then It is possible to select a specific application on the selection screen.

本発明を適用した情報処理装置1の外観構成を示す概略図である。It is the schematic which shows the external appearance structure of the information processing apparatus 1 to which this invention is applied. 情報処理装置1の機能構成を示すブロック図である。2 is a block diagram illustrating a functional configuration of the information processing apparatus 1. FIG. 各アプリケーションが指示具2までの距離と対応付けられている状態を示す概念図である。It is a conceptual diagram which shows the state with which each application is matched with the distance to the indicator 2. 情報処理装置1のプロセッサ31が実行するGUI構築処理を示すフローチャートである。4 is a flowchart illustrating a GUI construction process executed by a processor 31 of the information processing apparatus 1. GUI構築処理において実行される距離導出処理を示すフローチャートである。It is a flowchart which shows the distance derivation process performed in a GUI construction | assembly process. GUI構築処理において実行されるGUI表示処理を示すフローチャートである。It is a flowchart which shows the GUI display process performed in a GUI construction | assembly process. GUI構築処理において、ミュージックプレイソフトウェアのGUIのみが表示された状態と、撮像装置10の制御ソフトウェアのGUIが重畳された状態とを示す図である。In the GUI construction process, it is a diagram showing a state in which only the GUI of the music play software is displayed, and a state in which the GUI of the control software of the imaging device 10 is superimposed. ポインタの距離範囲とアプリケーションとの対応関係を示すインジケータをディスプレイ60に表示する場合の表示画面を示す図である。It is a figure which shows the display screen in the case of displaying on the display 60 the indicator which shows the correspondence of the distance range of a pointer, and an application. GUI上にポインタの画像のみが表示されている状態を示す図である。It is a figure which shows the state in which only the image of a pointer is displayed on GUI.

符号の説明Explanation of symbols

1 情報処理装置、2 指示具、2a 保持部、2b 被認識部、10 撮像装置、20 撮像画像処理ユニット、21 画像処理部、22 画像処理用メモリ、30 制御部、31 プロセッサ、32 メモリ、40 記憶部、50 表示制御部、60 ディスプレイ DESCRIPTION OF SYMBOLS 1 Information processing apparatus, 2 Indicator, 2a Holding part, 2b Recognized part, 10 Imaging apparatus, 20 Captured image processing unit, 21 Image processing part, 22 Image processing memory, 30 Control part, 31 Processor, 32 Memory, 40 Storage unit, 50 display control unit, 60 display

Claims (13)

被写体の画像を撮影する撮像手段を備えた情報処理装置であって、
予め設定された対象物の画像が前記撮像手段によって撮影されている際に、該対象物に関する所定パラメータを取得するパラメータ取得手段と、
前記所定パラメータに応じて、自装置に入力操作を行うための複数の操作画面を切り換えて表示するインターフェース表示手段と、
を備えることを特徴とする情報処理装置。
An information processing apparatus including an imaging unit that captures an image of a subject,
Parameter acquisition means for acquiring a predetermined parameter related to the object when an image of the object set in advance is taken by the imaging means;
Interface display means for switching and displaying a plurality of operation screens for performing an input operation on the device according to the predetermined parameter;
An information processing apparatus comprising:
前記パラメータ取得手段は、前記撮像手段によって撮影された画像における前記対象物の画像の大きさを、前記所定パラメータとして取得することを特徴とする請求項1記載の情報処理装置。   The information processing apparatus according to claim 1, wherein the parameter acquisition unit acquires, as the predetermined parameter, a size of an image of the object in an image captured by the imaging unit. 前記インターフェース表示手段は、前記所定パラメータに応じて、自装置が実行可能な複数のアプリケーションに対応するグラフィカルユーザインターフェースを切り換えて表示することを特徴とする請求項1または2記載の情報処理装置。   The information processing apparatus according to claim 1, wherein the interface display unit switches and displays a graphical user interface corresponding to a plurality of applications that can be executed by the apparatus according to the predetermined parameter. 前記インターフェース表示手段は、前記所定パラメータと表示される操作画面との対応関係を示唆する表示を行うことを特徴とする請求項1から3のいずれか1項に記載の情報処理装置。   4. The information processing apparatus according to claim 1, wherein the interface display unit performs a display that suggests a correspondence relationship between the predetermined parameter and the displayed operation screen. 5. 前記インターフェース表示手段は、前記複数の操作画面を切り換えて表示する際、表示されている操作画面に対し、前記所定パラメータが変化することにより、新たに表示されることとなる他の操作画面を示唆する画面を重畳して表示することを特徴とする請求項1から4のいずれか1項に記載の情報処理装置。   The interface display means suggests another operation screen to be newly displayed by changing the predetermined parameter with respect to the displayed operation screen when the plurality of operation screens are switched and displayed. The information processing apparatus according to claim 1, wherein a screen to be displayed is superimposed and displayed. 前記インターフェース表示手段は、前記所定パラメータが変化した場合に表示が予定される操作画面に関する情報を、現在表示されている操作画面内に表示することを特徴とする請求項1から5のいずれか1項に記載の情報処理装置。   6. The interface display unit according to claim 1, wherein information related to an operation screen that is scheduled to be displayed when the predetermined parameter is changed is displayed within the currently displayed operation screen. The information processing apparatus according to item. 前記対象物の画像を入力操作のためのポインタとして認識し、表示された操作画面内において移動された前記対象物の画像によって、前記操作画面に対する入力操作が可能であることを特徴とする請求項1から6のいずれか1項に記載の情報処理装置。   The image of the object is recognized as a pointer for an input operation, and an input operation on the operation screen is possible by the image of the object moved in the displayed operation screen. The information processing apparatus according to any one of 1 to 6. 前記インターフェース表示手段は、前記操作画面に入力ボタンを表示し、
該入力ボタンに前記対象物の画像が重ねられた時間に応じて、該入力ボタンに対する操作内容を変化させることを特徴とする請求項1から7のいずれか1項に記載の情報処理装置。
The interface display means displays an input button on the operation screen,
The information processing apparatus according to any one of claims 1 to 7, wherein an operation content for the input button is changed in accordance with a time when the image of the object is superimposed on the input button.
前記撮像手段によって撮影された対象物の画像における形態の変化を検出する検出手段をさらに備え、
前記対象物の画像における形態の変化によって、前記操作画面における入力操作が可能であることを特徴とする請求項1から8のいずれか1項に記載の情報処理装置。
A detection unit for detecting a change in form in the image of the object imaged by the imaging unit;
The information processing apparatus according to claim 1, wherein an input operation on the operation screen is possible by a change in form of the image of the object.
前記所定パラメータと前記複数の操作画面それぞれとの対応関係を変更可能であることを特徴とする請求項1から9のいずれか1項に記載の情報処理装置。   The information processing apparatus according to claim 1, wherein a correspondence relationship between the predetermined parameter and each of the plurality of operation screens can be changed. 前記複数の操作画面それぞれの使用頻度を計測する使用頻度計測手段をさらに備え、該使用頻度計測手段によって計測された使用頻度に応じて、前記所定パラメータと前記複数の操作画面それぞれとの対応関係を設定することを特徴とする請求項1から10のいずれか1項に記載の情報処理装置。   A usage frequency measuring unit that measures the usage frequency of each of the plurality of operation screens is further provided, and the correspondence between the predetermined parameter and each of the plurality of operation screens is determined according to the usage frequency measured by the usage frequency measuring unit. The information processing apparatus according to claim 1, wherein the information processing apparatus is set. 前記所定パラメータの変化に関わらず、前記インターフェース表示手段が表示している操作画面を表示させる操作画面固定手段をさらに備えることを特徴とする請求項1から11のいずれか1項に記載の情報処理装置。   The information processing according to any one of claims 1 to 11, further comprising an operation screen fixing unit that displays an operation screen displayed by the interface display unit regardless of a change in the predetermined parameter. apparatus. 被写体の画像を撮影する撮像手段を備えた情報処理装置を制御するための情報処理プログラムであって、
予め設定された対象物の画像が前記撮像手段によって撮影されている際に、該対象物に関する所定パラメータを取得するパラメータ取得機能と、
前記所定パラメータに応じて、自装置に入力操作を行うための複数の操作画面を切り換えて表示するインターフェース表示機能と、
を実現させることを特徴とする情報処理プログラム。
An information processing program for controlling an information processing apparatus including an imaging unit that captures an image of a subject,
A parameter acquisition function for acquiring a predetermined parameter related to the object when an image of the object set in advance is captured by the imaging unit;
An interface display function for switching and displaying a plurality of operation screens for performing an input operation on the device according to the predetermined parameter;
An information processing program characterized by realizing the above.
JP2004116784A 2004-04-12 2004-04-12 Information processor and information processing program Withdrawn JP2005301668A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004116784A JP2005301668A (en) 2004-04-12 2004-04-12 Information processor and information processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004116784A JP2005301668A (en) 2004-04-12 2004-04-12 Information processor and information processing program

Publications (1)

Publication Number Publication Date
JP2005301668A true JP2005301668A (en) 2005-10-27

Family

ID=35333120

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004116784A Withdrawn JP2005301668A (en) 2004-04-12 2004-04-12 Information processor and information processing program

Country Status (1)

Country Link
JP (1) JP2005301668A (en)

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010092308A (en) * 2008-10-09 2010-04-22 Alpine Electronics Inc Input display device and input method and input program for input display device
JP2010146481A (en) * 2008-12-22 2010-07-01 Brother Ind Ltd Head-mounted display
JP2011034502A (en) * 2009-08-05 2011-02-17 Sony Corp Display device, display method, and program
WO2012032851A1 (en) * 2010-09-06 2012-03-15 シャープ株式会社 Display system and detection method
JP2013045217A (en) * 2011-08-23 2013-03-04 Hitachi Consumer Electronics Co Ltd Input device
JP2013109421A (en) * 2011-11-17 2013-06-06 Toshiba Corp Electronic apparatus, electronic apparatus control method and electronic apparatus control program
JP2013210723A (en) * 2012-03-30 2013-10-10 Sharp Corp Display system
TWI501130B (en) * 2010-10-18 2015-09-21 Ind Tech Res Inst Virtual touch control system
JP2015172939A (en) * 2015-04-17 2015-10-01 ソニー株式会社 Information processing apparatus, information processing method, and program
CN105074625A (en) * 2013-04-02 2015-11-18 索尼公司 Information processing apparatus, information processing method, and program
WO2016006759A1 (en) * 2014-07-09 2016-01-14 Lg Electronics Inc. Display device having scope of accreditation in cooperation with depth of virtual object and controlling method thereof
JP2016091192A (en) * 2014-10-31 2016-05-23 パイオニア株式会社 Virtual image display apparatus, control method, program, and storage medium
US9516206B2 (en) 2010-03-04 2016-12-06 Sony Corporation Information processing apparatus, information processing method, and program
JP6057396B2 (en) * 2013-03-11 2017-01-11 Necソリューションイノベータ株式会社 3D user interface device and 3D operation processing method
US9721540B2 (en) 2014-07-09 2017-08-01 Lg Electronics Inc. Display device having scope of accreditation in cooperation with depth of virtual object and controlling method thereof
JP2017199379A (en) * 2013-02-19 2017-11-02 ミラマ サービス インク Tracking display system, tracking display program, tracking display method, wearable device using the same, tracking display program for wearable device, and manipulation method for wearable device
JP2019123503A (en) * 2019-02-25 2019-07-25 パイオニア株式会社 Virtual image display apparatus, control method, program, and storage medium
JP2021014262A (en) * 2020-10-26 2021-02-12 パイオニア株式会社 Virtual image display apparatus, control method, program, and storage medium
WO2022247123A1 (en) * 2021-05-26 2022-12-01 京东方科技集团股份有限公司 Display device, container system, and method for controlling display device

Cited By (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010092308A (en) * 2008-10-09 2010-04-22 Alpine Electronics Inc Input display device and input method and input program for input display device
JP2010146481A (en) * 2008-12-22 2010-07-01 Brother Ind Ltd Head-mounted display
WO2010073928A1 (en) * 2008-12-22 2010-07-01 ブラザー工業株式会社 Head-mounted display
JP2011034502A (en) * 2009-08-05 2011-02-17 Sony Corp Display device, display method, and program
US11190678B2 (en) 2010-03-04 2021-11-30 Sony Corporation Information processing apparatus, information processing method, and program
US9516206B2 (en) 2010-03-04 2016-12-06 Sony Corporation Information processing apparatus, information processing method, and program
US10659681B2 (en) 2010-03-04 2020-05-19 Sony Corporation Information processing apparatus, information processing method, and program
US10306136B2 (en) 2010-03-04 2019-05-28 Sony Corporation Information processing apparatus, information processing method, and program
US10015392B2 (en) 2010-03-04 2018-07-03 Sony Corporation Information processing apparatus, information processing method, and program
WO2012032851A1 (en) * 2010-09-06 2012-03-15 シャープ株式会社 Display system and detection method
TWI501130B (en) * 2010-10-18 2015-09-21 Ind Tech Res Inst Virtual touch control system
JP2013045217A (en) * 2011-08-23 2013-03-04 Hitachi Consumer Electronics Co Ltd Input device
JP2013109421A (en) * 2011-11-17 2013-06-06 Toshiba Corp Electronic apparatus, electronic apparatus control method and electronic apparatus control program
JP2013210723A (en) * 2012-03-30 2013-10-10 Sharp Corp Display system
JP2017199379A (en) * 2013-02-19 2017-11-02 ミラマ サービス インク Tracking display system, tracking display program, tracking display method, wearable device using the same, tracking display program for wearable device, and manipulation method for wearable device
US10007351B2 (en) 2013-03-11 2018-06-26 Nec Solution Innovators, Ltd. Three-dimensional user interface device and three-dimensional operation processing method
JPWO2014141504A1 (en) * 2013-03-11 2017-02-16 Necソリューションイノベータ株式会社 3D user interface device and 3D operation processing method
JP6057396B2 (en) * 2013-03-11 2017-01-11 Necソリューションイノベータ株式会社 3D user interface device and 3D operation processing method
CN105074625B (en) * 2013-04-02 2018-09-21 索尼公司 Information processing equipment, information processing method and computer readable recording medium storing program for performing
US10514767B2 (en) 2013-04-02 2019-12-24 Sony Corporation Information processing apparatus and information processing method
CN105074625A (en) * 2013-04-02 2015-11-18 索尼公司 Information processing apparatus, information processing method, and program
US9721540B2 (en) 2014-07-09 2017-08-01 Lg Electronics Inc. Display device having scope of accreditation in cooperation with depth of virtual object and controlling method thereof
WO2016006759A1 (en) * 2014-07-09 2016-01-14 Lg Electronics Inc. Display device having scope of accreditation in cooperation with depth of virtual object and controlling method thereof
JP2016091192A (en) * 2014-10-31 2016-05-23 パイオニア株式会社 Virtual image display apparatus, control method, program, and storage medium
JP2015172939A (en) * 2015-04-17 2015-10-01 ソニー株式会社 Information processing apparatus, information processing method, and program
JP2019123503A (en) * 2019-02-25 2019-07-25 パイオニア株式会社 Virtual image display apparatus, control method, program, and storage medium
JP2021014262A (en) * 2020-10-26 2021-02-12 パイオニア株式会社 Virtual image display apparatus, control method, program, and storage medium
JP7100100B2 (en) 2020-10-26 2022-07-12 パイオニア株式会社 Virtual image display device, control method, program, and storage medium
WO2022247123A1 (en) * 2021-05-26 2022-12-01 京东方科技集团股份有限公司 Display device, container system, and method for controlling display device

Similar Documents

Publication Publication Date Title
JP2005301668A (en) Information processor and information processing program
US10152222B2 (en) Digital image processing device and associated methodology of performing touch-based image scaling
JP4609557B2 (en) Information processing apparatus and information processing method
US7199787B2 (en) Apparatus with touch screen and method for displaying information through external display device connected thereto
JP5977627B2 (en) Information processing apparatus, information processing method, and program
US7956845B2 (en) Apparatus and method for providing virtual graffiti and recording medium for the same
JP5808712B2 (en) Video display device
JP5287403B2 (en) Information processing apparatus, information processing method, and program
CN107092380B (en) Touch screen control method and electronic device thereof
US9519365B2 (en) Display control apparatus and control method for the same
JP2009140368A (en) Input device, display device, input method, display method, and program
JP2010224663A5 (en)
JP2012133490A (en) Display control apparatus, control method thereof, program and recording medium
JP2011164676A (en) Display device and program
US20150002433A1 (en) Method and apparatus for performing a zooming action
US20150268828A1 (en) Information processing device and computer program
JP2013191011A (en) Image processing apparatus, image processing method and program
JP6183820B2 (en) Terminal and terminal control method
JP2005301669A (en) Information processor and information processing program
JP2009037464A (en) Image display device and computer program
KR101920864B1 (en) Method and terminal for displaying of image using touchscreen
JP2009271851A (en) Information processor, pointer display method thereof, and program executable by computer
JP6408241B2 (en) Mobile terminal device
JP2017215857A (en) Display, display method, and program
JP2011141584A (en) Input control equipment

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20070703