[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2011232964A - Electrical apparatus, and control method and program thereof - Google Patents

Electrical apparatus, and control method and program thereof Download PDF

Info

Publication number
JP2011232964A
JP2011232964A JP2010102781A JP2010102781A JP2011232964A JP 2011232964 A JP2011232964 A JP 2011232964A JP 2010102781 A JP2010102781 A JP 2010102781A JP 2010102781 A JP2010102781 A JP 2010102781A JP 2011232964 A JP2011232964 A JP 2011232964A
Authority
JP
Japan
Prior art keywords
user
cpu
posture
looking
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010102781A
Other languages
Japanese (ja)
Inventor
Yasuhiro Daiku
康宏 代工
Hidehiro Morita
英裕 森田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2010102781A priority Critical patent/JP2011232964A/en
Publication of JP2011232964A publication Critical patent/JP2011232964A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

PROBLEM TO BE SOLVED: To accept only an intentional remote operation by a user.SOLUTION: An electrical apparatus 1 includes a remote operation function without a remote controller. A CPU13 determines whether a user looks at the apparatus body on the basis of an image of the user taken by a built-in camera 18, and further detects a predetermined specified movement of the user on the basis of the taken image. The CPU13 executes control processing corresponding to the specified movement only when the specified movement is detected on the basis of the taken image under a condition that the CPU13 determines that the user looks at the apparatus body.

Description

本発明は、リモコンを不要とした遠隔操作機能を備えた電気機器に関するものである。   The present invention relates to an electric device having a remote operation function that does not require a remote controller.

従来、一般家庭で使用されている所謂エアコン、テレビジョン受信機、ビデオレコーダー等の家庭用の電気機器においては、使用者の操作に応じて所定の赤外線信号を発光するリモートコントロールユニット(以下、リモコンと略す。)を用いることにより遠隔操作が可能なものが多い。また、例えばテレビジョン受信機では、マルチチャンネル、デジタルサービス放送、ブロードバンドネットワーク等の普及に伴い多機能化が進んでおり、多くの機能を有するテレビジョン受信機ではリモコンによる操作を前提とした構造や、機能が設けられているもの一般的である。   2. Description of the Related Art Conventionally, in home electric devices such as so-called air conditioners, television receivers, and video recorders used in general homes, a remote control unit (hereinafter referred to as a remote controller) that emits a predetermined infrared signal in response to a user's operation. In many cases, remote control is possible. In addition, for example, television receivers are becoming more multifunctional with the spread of multi-channel, digital service broadcasting, broadband networks, etc., and television receivers with many functions are premised on a structure that assumes operation with a remote control. In general, functions are provided.

リモコンの使用を前提とした電気機器では、リモコンを駆動する電池が消耗した場合や、リモコンが故障したり、紛失した場合には、使用者が、機器本体に設けられているスイッチを操作したりすることによって電気機器を操作することを余儀なくされる。特に身体の不自由な人には負担になる。   For electrical equipment that assumes the use of a remote control, if the battery that drives the remote control is exhausted, or if the remote control breaks down or is lost, the user can operate a switch provided on the equipment body. By doing so, you are forced to operate electrical equipment. This is particularly burdensome for people with physical disabilities.

一方、例えば下記特許文献1には、表示装置の前方に配設されたテレビカメラによって撮像された人物の指先位置等を検出することにより、各種の指令を入力可能する技術が記載されている。係る技術を用いれば、リモコンを使用することなく指先の動作によって電気機器を遠隔操作することが可能となる。   On the other hand, for example, Patent Document 1 described below describes a technique that allows various commands to be input by detecting a fingertip position of a person captured by a television camera disposed in front of a display device. If such a technique is used, it becomes possible to remotely operate the electric device by the operation of the fingertip without using a remote controller.

特開2000−187551号公報JP 2000-187551 A

しかしながら、上記の技術においては、例えば使用者が電気機器の操作を意図していないとき、たまたま指先の動作が検出された場合には、使用者の意図に反して電気機器が特定の動作を行うこととなる。そのため、使用者の意図しない操作に応答した誤動作が生じる可能性が高いという問題がある。   However, in the above technique, for example, when the user does not intend to operate the electric device, and the operation of the fingertip is detected by chance, the electric device performs a specific operation against the user's intention. It will be. Therefore, there is a problem that there is a high possibility that a malfunction occurs in response to an operation not intended by the user.

本発明は、かかる従来の課題に鑑みてなされたものであり、使用者による意図的な遠隔操作のみを受け付けることができる電気機器を提供することを目的とする。   The present invention has been made in view of such conventional problems, and an object thereof is to provide an electric device that can accept only an intentional remote operation by a user.

前記課題を解決するため、請求項1記載の発明に係る電気機器にあっては、遠隔操作機能を備えた電気機器において、使用者を撮影する撮影手段と、前記撮影手段により撮影された撮影画像に基づいて、使用者が機器本体を見ているか否かを判断する判断手段と、前記撮影手段により撮影された撮影画像に基づいて、使用者における予め決められている特定の動作を検出する検出手段と、前記判断手段により使用者が機器本体を見ていると判断されている条件下で、前記検出手段により使用者における前記特定の動作が検出されたことに応答し、前記特定の動作に対応した内容の制御処理を実行する制御手段とを備えたことを特徴とする。   In order to solve the above-mentioned problem, in the electric device according to the first aspect of the present invention, in the electric device having a remote control function, a photographing means for photographing the user, and a photographed image photographed by the photographing means And a detection unit that determines whether or not the user is looking at the main body of the device, and a detection that detects a specific action predetermined by the user based on the captured image captured by the imaging unit. In response to the detection of the specific action on the user by the detection means under the condition that the user is looking at the device main body by the determination means and the determination means, And a control means for executing control processing of the corresponding contents.

また、請求項2記載の発明に係る電気機器にあっては、前記制御手段が実行する前記特定の動作に対応した内容の制御処理には、受信局の切り替え制御が含まれることを特徴とする。   In the electric device according to the second aspect of the present invention, the control processing of the content corresponding to the specific operation executed by the control means includes switching control of the receiving station. .

また、請求項3記載の発明に係る電気機器にあっては、前記撮影手段により撮影された撮影画像を対象として、予め登録されている人物の顔を認識する顔認識手段を備え、前記制御手段は、前記判断手段により使用者が機器本体を見ていると判断されており、かつ前記顔認識手段によって予め登録されている人物の顔が検出されていることを条件として、前記検出手段により使用者における前記特定の動作が検出されたことに応答し、前記特定の動作に対応した内容の制御処理を実行することを特徴とする。   The electrical device according to the invention of claim 3 further comprises face recognition means for recognizing a face of a person registered in advance for the photographed image photographed by the photographing means. Is used by the detection means on the condition that it is determined by the determination means that the user is looking at the main body of the device, and a face of a person registered in advance is detected by the face recognition means. In response to the detection of the specific action in the person, a control process with a content corresponding to the specific action is executed.

また、請求項4記載の発明に係る電気機器にあっては、前記判断手段は、前記顔認識手段により認識された予め登録されている人物の顔部分の画像から視線の方向を表す視線情報を取得し、取得した視線情報に基づいて使用者が機器本体を見ているか否かを判断することを特徴とする。   Further, in the electric device according to the invention of claim 4, the determination means obtains line-of-sight information representing the direction of the line of sight from an image of a face part of a person registered in advance recognized by the face recognition means. It is acquired and it is judged whether a user is looking at an equipment main part based on acquired eye-gaze information.

また、請求項5記載の発明に係る電気機器にあっては、前記判断手段は、前記撮影手段により撮影された撮影画像に基づいて使用者が目を開けているか否かを判断し、使用者が目を開けていると判断できるとき、前記顔部分の画像から前記視線情報を取得し、取得した視線情報に基づいて使用者が機器本体を見ているか否かを判断することを特徴とする。   Further, in the electric device according to the invention of claim 5, the determination means determines whether or not the user has opened his eyes based on a photographed image photographed by the photographing means, and the user When it can be determined that the eyes are open, the line-of-sight information is acquired from the image of the face portion, and it is determined whether the user is looking at the device main body based on the acquired line-of-sight information. .

また、請求項6記載の発明に係る電気機器にあっては、前記制御手段は、前記判断手段により使用者が機器本体を見ていると判断されている条件下で、前記検出手段により使用者における前記特定の動作が検出されたことに応答し、前記特定の動作に対応した内容の制御処理であって、前記予め登録されている人物によって事前に設定されている内容の制御処理を実行することを特徴とする。   In the electric device according to the sixth aspect of the present invention, the control means may be configured such that the detection means determines whether the user is looking at the main body of the user by the determination means. In response to the detection of the specific action, the control process of the contents corresponding to the specific action is executed and the control process of the contents set in advance by the person registered in advance is executed. It is characterized by that.

また、請求項7記載の発明に係る制御方法にあっては、遠隔操作機能を備えた電気機器の制御方法であって、使用者を撮影した撮影画像に基づいて、使用者が機器本体を見ているか否かを判断する工程と、前記撮影画像に基づいて、使用者における予め決められている特定の動作を検出する工程と、使用者が機器本体を見ていると判断した条件下で、前記撮影画像に基づいて前記特定の動作を検出した場合に、前記特定の動作に対応した内容の制御処理を実行する工程とを含むことを特徴とする。   According to a seventh aspect of the present invention, there is provided a control method for an electric device having a remote control function, wherein the user views the device main body based on a photographed image of the user. A step of determining whether or not, a step of detecting a specific action determined in advance by the user based on the photographed image, and a condition in which it is determined that the user is looking at the device body, And a step of executing control processing of contents corresponding to the specific operation when the specific operation is detected based on the captured image.

また、請求項8記載の発明に係るプログラムにあっては、遠隔操作機能を備えた電気機器が有するコンピュータを、使用者を撮影した撮影画像に基づいて、使用者が機器本体を見ているか否かを判断する判断手段と、前記撮影画像に基づいて、使用者における予め決められている特定の動作を検出する検出手段と、前記判断手段により使用者が機器本体を見ていると判断されている条件下で、前記検出手段により使用者における前記特定の動作が検出されたことに応答し、前記特定の動作に対応した内容の制御処理を実行する制御手段として機能させることを特徴とする。   Further, in the program according to the invention described in claim 8, whether or not the user is looking at the main body of the computer of the electric device having the remote control function based on the photographed image of the user. A determination means for determining whether the user is looking at the device main body based on the captured image, a detection means for detecting a specific action determined in advance by the user, and the determination means. In response to the detection of the specific action by the user by the detection means, the control means functions as a control means for executing a control process having contents corresponding to the specific action.

本発明によれば、ユーザによる意図的な遠隔操作のみを受け付けることができる電気機器を提供することが可能となる。   According to the present invention, it is possible to provide an electric device that can accept only an intentional remote operation by a user.

本発明に係るデジタルテレビ受信装置の外観斜視図である。1 is an external perspective view of a digital television receiver according to the present invention. デジタルテレビ受信機の電気的構成を示すブロック図である。It is a block diagram which shows the electric constitution of a digital television receiver. 主記憶装置のメモリ領域を示す概念図である。It is a conceptual diagram which shows the memory area of a main memory. (a)はコマンドテーブルを示す概念図、(b)は手の操作姿勢を示す図である。(A) is a conceptual diagram which shows a command table, (b) is a figure which shows the operation posture of a hand. 登録データを示す概念図である。It is a conceptual diagram which shows registration data. CPUによるユーザ登録処理を示すフローチャートである。It is a flowchart which shows the user registration process by CPU. 視線基準データを示す説明図である。It is explanatory drawing which shows line-of-sight reference data. CPUによる遠隔操作機能に関する処理を示すフローチャートである。It is a flowchart which shows the process regarding the remote control function by CPU. 図8に続くフローチャートである。It is a flowchart following FIG. 顔領域の画像データにより表される画像の例を便宜的に示した図である。It is the figure which showed the example of the image represented by the image data of a face area for convenience. 視聴者の顔が表示画面に正対したときの視線基準データと、視聴者の顔が上下左右を向いたときの実際の視線基準データとの関係を示した図である。It is the figure which showed the relationship between the eyes | visual_axis reference data when a viewer's face faces a display screen, and the actual eyes | visual_axis reference data when a viewer's face turned up and down, right and left. チャンネル選択に使用される手の操作姿勢の例、及び手の動作を示す説明図である。It is explanatory drawing which shows the example of the operation attitude of the hand used for channel selection, and operation | movement of a hand. 音量調整に使用される手の操作姿勢の例、及び手の動作を示す説明図である。It is explanatory drawing which shows the example of the operation posture of the hand used for volume adjustment, and operation | movement of a hand.

以下、本発明の実施形態について説明する。本実施形態は、ユーザがリモコンを使用することなく、特定の動作を遠隔操作することができる機能(以下、遠隔操作機能という。)を備えたデジタルテレビ受信機(以下、単にテレビ受信機という。)に関するものである。より具体的には、ユーザが自分の手を予め決められている操作姿勢として動かすだけで、チャンネル選択と音量調整とが遠隔操作可能なテレビ受信機に関するものである。   Hereinafter, embodiments of the present invention will be described. In this embodiment, a digital television receiver (hereinafter simply referred to as a television receiver) having a function (hereinafter referred to as a remote operation function) that allows a user to remotely operate a specific operation without using a remote controller. ). More specifically, the present invention relates to a television receiver in which channel selection and volume adjustment can be performed remotely only by moving the user's hand in a predetermined operation posture.

図1は、本実施形態のテレビ受信機1の外観図である。図1に示したように、テレビ受信機1の本体2には、本体2の正面のほぼ全域を占める表示画面を構成する液晶ディスプレイやプラズマディスプレー等の表示パネル3が保持されている。また、本体2の下辺部分の中央には撮影レンズ4が設けられている。撮影レンズ4は、後述する内蔵カメラ18によってテレビ受信機1の正面側の状況を広範囲に撮影するために設けられたものであり、例えば焦点距離が20mm程度の広角レンズである。   FIG. 1 is an external view of the television receiver 1 of the present embodiment. As shown in FIG. 1, the main body 2 of the television receiver 1 holds a display panel 3 such as a liquid crystal display or a plasma display that constitutes a display screen that occupies almost the entire front surface of the main body 2. A photographing lens 4 is provided at the center of the lower side portion of the main body 2. The photographing lens 4 is provided for photographing a wide range of situations on the front side of the television receiver 1 with a built-in camera 18 to be described later. For example, the photographing lens 4 is a wide-angle lens having a focal length of about 20 mm.

図2は、テレビ受信機1の電気的構成の要部を示したブロック図である。テレビ受信機1は、主としてチューナ12と、CPU13、映像デコーダ14、音声デコーダ15、表示装置16、内蔵カメラ18、主記憶装置19、補助記憶装置20、操作キー部21から構成される。   FIG. 2 is a block diagram showing the main part of the electrical configuration of the television receiver 1. The television receiver 1 mainly includes a tuner 12, a CPU 13, a video decoder 14, an audio decoder 15, a display device 16, a built-in camera 18, a main storage device 19, an auxiliary storage device 20, and an operation key unit 21.

チューナ12は、デジタル放送の放送電波をアンテナ11を介して受信するデジタルチューナである。表示装置16は、前述した表示パネル3、及び表示パネル3の駆動回路等から構成されている。音声出力装置17は、オーディオアンプやスピーカー等から構成されている。操作キー部21は、電源のオンオフや選局等の各種操作を行うために本体2に設けられた複数の操作キー(図示せず)から構成され、ユーザによるキー操作に応じた操作信号をCPU13へ送る。   The tuner 12 is a digital tuner that receives broadcast waves of digital broadcasting via the antenna 11. The display device 16 includes the display panel 3 described above and a drive circuit for the display panel 3. The audio output device 17 includes an audio amplifier, a speaker, and the like. The operation key unit 21 is composed of a plurality of operation keys (not shown) provided in the main body 2 for performing various operations such as turning on / off the power and selecting a channel, and sends an operation signal corresponding to the key operation by the user to the CPU 13. Send to.

内蔵カメラ18は、図1に示した撮影レンズ4によって結像された被写体の光学像を撮像するCCD(Charge Coupled Device)やMOS(Complementary Meta1 0xide Semiconductor)型の撮像素子31と、撮像素子31から出力される撮像信号に種々の信号処理を施して画像データを生成し、CPU13へ供給する信号処理回路32から構成されている。   The built-in camera 18 includes a CCD (Charge Coupled Device) or MOS (Complementary Meta 10xide Semiconductor) type image pickup device 31 for picking up an optical image of a subject formed by the photographing lens 4 shown in FIG. The signal processing circuit 32 includes a signal processing circuit 32 that performs various signal processing on the output imaging signal to generate image data and supplies the image data to the CPU 13.

信号処理回路32には、撮像信号を増幅するAGC回路、増幅された撮像信号をデジタルの画像信号に変換するA/Dコンバータが含まれており、信号処理回路22は、デジタルに変換された撮像部信号に対して輝度信号処理や、色信号処理、補間処理等を行うことによって画像データを生成する。   The signal processing circuit 32 includes an AGC circuit that amplifies the imaging signal, and an A / D converter that converts the amplified imaging signal into a digital image signal. Image data is generated by performing luminance signal processing, color signal processing, interpolation processing, and the like on the partial signals.

そして、内蔵カメラ18は、信号処理回路32が生成した画像データをCPU13へ供給することにより撮影手段として機能する。なお、以下の説明においては、内蔵カメラ18がCPU13へ供給する画像データにより表される画像を撮影画像という。   The built-in camera 18 functions as a photographing unit by supplying the image data generated by the signal processing circuit 32 to the CPU 13. In the following description, an image represented by image data supplied from the built-in camera 18 to the CPU 13 is referred to as a captured image.

任意のテレビ放送を受信しているとき、CPU13は、主記憶装置19に記憶されている制御プログラムに基づき動作し、チューナ12から送出されたトランスポートストリーム信号をMPEG2システム(オーディオ、ビデオのストリームフォーマット)に則り映像信号と音声信号とに振り分け、映像デコーダ14と音声デコーダ15に送る。映像デコーダ14は圧縮されたビデオデータを復号化して表示装置16へ送り、音声デコーダ15は圧縮されたオーディオデータを復号化し音声出力装置17へ送る。   When receiving an arbitrary television broadcast, the CPU 13 operates based on a control program stored in the main storage device 19, and converts the transport stream signal sent from the tuner 12 into an MPEG2 system (audio and video stream format). ) And distributes the video signal and the audio signal to the video decoder 14 and the audio decoder 15. The video decoder 14 decodes the compressed video data and sends it to the display device 16, and the audio decoder 15 decodes the compressed audio data and sends it to the audio output device 17.

また、CPU13は、必要に応じて、チューナ12により受信した放送の映像データ、音声データ等の番組データを補助記憶装置20に記録する。つまり番組録画を行う。補助記憶装置20は記憶容量の大きなハードディスク等の記憶装置である。   Further, the CPU 13 records program data such as broadcast video data and audio data received by the tuner 12 in the auxiliary storage device 20 as necessary. That is, program recording is performed. The auxiliary storage device 20 is a storage device such as a hard disk having a large storage capacity.

主記憶装置19は、EEPROMやフラッシュメモリ等の記憶データの書き換えが可能なメモリである。主記憶装置19の内部には、図3に示したようにプログラムデータ格納領域19aと、ユーザにより登録されたデータを記憶するための登録データ格納領域19bとが確保されている。   The main storage device 19 is a memory capable of rewriting stored data, such as an EEPROM or a flash memory. As shown in FIG. 3, a program data storage area 19a and a registered data storage area 19b for storing data registered by the user are secured in the main storage device 19.

プログラムデータ格納領域19aには、種々のプログラムからなる前記制御プログラムと、放送局の周波数等のテレビ放送の受信に使用される各種のデータが記憶されている。さらに、プログラムデータ格納領域19aには、図4(a)に示したコマンドテーブル100が記憶されている。コマンドテーブル100は、CPU13が前記制御プログラムに従って、テレビ受信機1が有する前述した遠隔操作機能に関する処理を行う際に使用されるデータである。すなわちコマンドテーブル100は、内蔵カメラ18によって取得された撮影画像から認識すべき、人物の手の操作姿勢と、制御内容との基本的な組合せを示すデータである。   The program data storage area 19a stores the control program composed of various programs and various data used for receiving television broadcasts such as the frequency of the broadcasting station. Further, a command table 100 shown in FIG. 4A is stored in the program data storage area 19a. The command table 100 is data used when the CPU 13 performs processing related to the above-described remote operation function of the television receiver 1 according to the control program. That is, the command table 100 is data indicating a basic combination of the operation posture of the person's hand and the control content to be recognized from the captured image acquired by the built-in camera 18.

手の操作姿勢は、撮影画像からパターン認識等の画像認識技術により認識可能な操作姿勢であり、図4(b)にそれぞれ示した、手のひらを略垂直にした状態の第1の姿勢Aと、手のひらを略水平にした状態の第2の姿勢Bとの2種類である。また、制御内容は、遠隔操作機能により制御すべき動作であって、先に述べたように「チャンネル選択」と「音量調整」との2種類である。そして、コマンドテーブル100には、「チャンネル選択」に対応する操作姿勢として第1の姿勢Aが設定されており、「音量調整」に対応する操作姿勢として第2の姿勢Bが設定されている。なお、プログラムデータ格納領域19aには、撮影画像から第1及び第2の姿勢A,Bを認識する際に使用されるモデルパターン等のデータも記憶されている。   The operation posture of the hand is an operation posture that can be recognized from the captured image by an image recognition technique such as pattern recognition, and each of the first posture A in a state in which the palm is substantially vertical shown in FIG. There are two types, the second posture B with the palm in a substantially horizontal state. Further, the control content is an operation to be controlled by the remote operation function, and as described above, there are two types of “channel selection” and “volume adjustment”. In the command table 100, the first posture A is set as the operation posture corresponding to “channel selection”, and the second posture B is set as the operation posture corresponding to “volume adjustment”. The program data storage area 19a also stores data such as model patterns used when recognizing the first and second postures A and B from the captured image.

一方、登録データ格納領域19bには、図5に示した登録データ200が記憶されている。登録データ200は、ユーザ番号で管理されている各ユーザに対応する顔画像データと、視線基準データと、チャンネル選択用の手の操作姿勢、及び音量調整用の手の操作姿勢をそれぞれ示す設定データとから構成されている。顔画像データは、ユーザである特定人物の顔部分の画像データである。視線基準データは、CPU13が、ユーザの顔の向きを判断する際に使用される基準となる基準となる視線情報である。視線基準データの詳細については後述する。   On the other hand, the registration data 200 shown in FIG. 5 is stored in the registration data storage area 19b. The registration data 200 is setting data indicating face image data corresponding to each user managed by the user number, line-of-sight reference data, channel operation hand operation posture, and volume operation hand operation posture, respectively. It consists of and. The face image data is image data of a face portion of a specific person who is a user. The line-of-sight reference data is line-of-sight information serving as a reference that is used when the CPU 13 determines the orientation of the user's face. Details of the line-of-sight reference data will be described later.

登録データ200を構成するユーザ毎のデータは、ユーザが、テレビ受信機1に予め用意されているユーザ登録機能を用いて所定の登録作業を行うことにより記憶されている。登録作業は、ユーザがテレビ受信機1の表示画面に正対した状態で所定のキー操作を行うことにより可能である。   Data for each user making up the registration data 200 is stored when the user performs a predetermined registration operation using a user registration function prepared in advance in the television receiver 1. The registration work can be performed by the user performing a predetermined key operation while facing the display screen of the television receiver 1.

図6は、所定のキー操作によってユーザから登録要求があったとき、CPU13が主記憶装置19(プログラムデータ格納領域19a)に記憶されている制御プログラムに従い実行するユーザ登録処理を示したフローチャートである。   FIG. 6 is a flowchart showing a user registration process executed by the CPU 13 in accordance with a control program stored in the main storage device 19 (program data storage area 19a) when a registration request is received from a user by a predetermined key operation. .

CPU13は、ユーザから登録要求があったときには、直ちに所定のキー操作による撮影指示の有無を確認する(ステップSA1)。なお、ユーザには、テレビ受信機1の表示画面に顔を向けた状態(表示画面に正対した状態)で撮影指示を行わせるものとする。   When there is a registration request from the user, the CPU 13 immediately checks the presence / absence of a shooting instruction by a predetermined key operation (step SA1). It is assumed that the user issues a shooting instruction with the face facing the display screen of the television receiver 1 (a state facing the display screen).

その後、CPU13は、撮影指示(所定のキー操作)があった時点で(ステップSA1:YES)、内蔵カメラ18に撮影動作を行わせて撮影画像を取得する(ステップSA2)。次に、CPU13は、取得した撮影画像から任意の人物の顔部分に相当する顔領域を検出し、検出した顔領域を表す画像データ、つまり顔画像データを取得する(ステップSA3)。なお、顔画像データの取得に際してCPU13は、撮影画像を対象として二値化や輪郭抽出、パターンマッチング等の画像認識処理を行うことによって、一定範囲の位置関係にある目や鼻や口が存在する特定領域を顔領域として検出する。   Thereafter, when a photographing instruction (predetermined key operation) is given (step SA1: YES), the CPU 13 causes the built-in camera 18 to perform a photographing operation to acquire a photographed image (step SA2). Next, the CPU 13 detects a face area corresponding to the face portion of an arbitrary person from the acquired photographed image, and acquires image data representing the detected face area, that is, face image data (step SA3). When acquiring the face image data, the CPU 13 performs image recognition processing such as binarization, contour extraction, and pattern matching on the captured image, so that there are eyes, nose, and mouth in a certain range of positional relationship. A specific area is detected as a face area.

次に、CPU13は、以下のデータを視線基準データとして取得する(ステップSA4)。視線基準データは、ステップSA3の処理に際して顔領域を検出する際に認識した目(左右の目)と口のそれぞれの中心位置を頂点とする、図7に示した逆三角形Dに関するデータである。すなわち逆三角形Dの底辺の長さ(左右の目の間の距離)をa(=E+E')、逆三角形Dの高さ(左右の目を繋いだ線から口までの距離)をbとしたときの底辺の長さと高さとの比率c(=b/a)である。   Next, the CPU 13 acquires the following data as line-of-sight reference data (step SA4). The line-of-sight reference data is data related to the inverted triangle D shown in FIG. 7 having apexes at the center positions of the eyes (left and right eyes) and the mouth recognized when the face area is detected in the process of step SA3. In other words, the length of the base of the inverted triangle D (the distance between the left and right eyes) is a (= E + E ′), and the height of the inverted triangle D (the distance from the line connecting the left and right eyes to the mouth) is b. It is a ratio c (= b / a) between the length and the height of the bottom of the case.

さらに、CPU13は、ユーザにチャンネル選択と音量調整との操作方法を設定させる(ステップSA5)。ステップSA5においてCPU13は、先に述べた制御内容との手の操作姿勢(第1及び第2の姿勢A,B)との基本的な組合せをデフォルト状態で示す所定の設定画面を表示装置16に表示させ、キー操作によって上記組合せの変更の有無をユーザに選択させる。   Further, the CPU 13 causes the user to set operation methods for channel selection and volume adjustment (step SA5). In step SA5, the CPU 13 displays on the display device 16 a predetermined setting screen that shows a basic combination of the above-described control content and the hand operation posture (first and second postures A and B) in a default state. Display, and allow the user to select whether or not to change the combination by a key operation.

しかる後、CPU13は、ステップSA3,SA4で取得した顔画像データ、及び視線基準データと、操作方法の設定データとを、新たなユーザ番号に対応させて登録データ200に追記する。なお、図5に例示したデータのうち、ユーザ番号1,3に対応する操作方法の設定データが、ユーザによって制御内容との手の操作姿勢との組合せが変更されなかった場合のデータである。また、ユーザ番号2に対応する操作方法の設定データが、ユーザによって制御内容との手の操作姿勢との組合せが変更された場合のデータである。   After that, the CPU 13 adds the face image data, the line-of-sight reference data acquired in steps SA3 and SA4, and the operation method setting data to the registration data 200 in association with the new user number. Of the data illustrated in FIG. 5, the setting data of the operation method corresponding to the user numbers 1 and 3 is data when the combination of the control content and the operation posture of the hand is not changed by the user. Further, the setting data of the operation method corresponding to the user number 2 is data when the combination of the operation posture and the hand operation posture is changed by the user.

次に、本実施形態テレビ受像機1において、任意の放送を受信して間にCPU13が主記憶装置19(プログラムデータ格納領域19a)に記憶されている制御プログラムに従い実行する遠隔操作機能に関する処理について説明する。図8及び図9は、CPU13における遠隔操作機能に関する処理を示すフローチャートである。   Next, in the television receiver 1 of the present embodiment, a process related to a remote operation function executed by the CPU 13 according to a control program stored in the main storage device 19 (program data storage area 19a) while receiving an arbitrary broadcast. explain. 8 and 9 are flowcharts showing processing related to the remote operation function in the CPU 13.

テレビ受像機1に電源が投入されて任意の放送を受信している間、CPU13は内蔵カメラ18に周期的(例えば15fps〜30fps)に撮影動作を行わせるとともに、以下の処理を行う。   While the television receiver 1 is powered on and receives an arbitrary broadcast, the CPU 13 causes the built-in camera 18 to perform shooting operations periodically (for example, 15 fps to 30 fps) and performs the following processing.

CPU13は、内蔵カメラ18によって新たな撮影画像を取得すると(ステップSB1:YES)、まず、取得した撮影画像から任意の人物の顔部分に相当する顔領域を検出する顔検出処理を行う(ステップSB2)。顔検出処理は、ユーザ登録時に顔画像データを取得する場合の処理と同様である。顔領域が検出できない場合(ステップSB3:NO)、CPU13はステップSB1の処理に戻って、新たな撮影画像を取得するまで待機する。   When the CPU 13 acquires a new captured image by the built-in camera 18 (step SB1: YES), first, the CPU 13 performs a face detection process for detecting a face area corresponding to a face portion of an arbitrary person from the acquired captured image (step SB2). ). The face detection process is the same as the process for acquiring face image data at the time of user registration. When the face area cannot be detected (step SB3: NO), the CPU 13 returns to the process of step SB1 and waits until a new captured image is acquired.

一方、撮影画像において顔領域が検出できた場合(ステップSB3:YES)、CPU11は、引き続き、ステップSB2の顔検出処理で検出した顔領域の画像データを対象として、ユーザ(以下、視聴者という。)が目を開けているか否かを判断する(ステップSB4)。ステップSB4の処理に際してCPU13は、顔領域の画像データに二値化や輪郭抽出等のフィルタ処理(画像処理)を施し、フィルタ処理後の画像において目に相当する領域を特定する。しかる後、特定した領域において黒目に相当する部分が認識できるか否かによって、目を開けているか否かを判断する。   On the other hand, when the face area can be detected in the captured image (step SB3: YES), the CPU 11 continues to target the image data of the face area detected in the face detection process of step SB2 (hereinafter referred to as a viewer). ) Is opened or not (step SB4). In the process of step SB4, the CPU 13 performs filter processing (image processing) such as binarization and contour extraction on the image data of the face region, and specifies a region corresponding to the eyes in the image after the filter processing. Thereafter, whether or not the eyes are open is determined based on whether or not a portion corresponding to the black eye can be recognized in the specified region.

図10(a)は、視聴者が目を開けている場合に顔領域の画像データにより表される画像の例を便宜的に示した図、図10(b)は、視聴者が目を閉じている場合に顔領域の画像データにより表される画像の例を便宜的に示した図である。なお、図10(a)、図10(b)において、それぞれ左側に示したものがフィルタ処理前の画像、図で右側に示したものがフィルタ処理後の画像の例である。また、フィルタ処理後の画像(右側の画像)に丸で囲んだ部分が目に相当する領域Aである。   FIG. 10A is a diagram conveniently showing an example of an image represented by the image data of the face area when the viewer opens his eyes, and FIG. 10B shows the viewer closing his eyes. FIG. 6 is a diagram illustrating an example of an image represented by image data of a face area for convenience. In FIGS. 10A and 10B, the left side shows an example of an image before the filter process, and the right side in the figure shows an example of the image after the filter process. Further, a region surrounded by a circle in the image after filtering (the image on the right side) is a region A corresponding to the eyes.

CPU13は、視聴者が目を閉じていると判断した場合には(ステップSB4:NO)、何もせずステップSB1の処理に戻って、新たな撮影画像を取得するまで待機する。   If the CPU 13 determines that the viewer has closed his eyes (step SB4: NO), the CPU 13 returns to the processing of step SB1 without doing anything and waits until a new captured image is acquired.

一方、CPU13は、視聴者が目を開けていると判断した場合(ステップSB4:YES)、ステップSB2の顔検出処理で検出した顔領域の顔が、登録されているユーザの顔であるか否かを確認する(ステップSB5)。つまり現在の視聴者が登録されているユーザであるか否かを確認する。   On the other hand, if the CPU 13 determines that the viewer has opened his / her eyes (step SB4: YES), whether or not the face in the face area detected by the face detection process in step SB2 is a registered user's face. (Step SB5). That is, it is confirmed whether or not the current viewer is a registered user.

ステップSB5の処理においてCPU13は、まず、登録データ200として記憶されている複数の顔画像データの各々を対象として、ステップSB2の顔検出処理で検出した顔領域の画像データとの一致度を取得する。一致度は、目や鼻や口の大きさや、相互の位置関係等の複数の特徴点に関する個々の一致度を平均化したものである。   In the process of step SB5, the CPU 13 first acquires the degree of coincidence with the face area image data detected in the face detection process of step SB2 for each of the plurality of face image data stored as the registration data 200. . The degree of coincidence is an average of individual degrees of coincidence regarding a plurality of feature points such as the size of eyes, nose and mouth, and the positional relationship between them.

そして、CPU13は、平均化した一致度が基準以上である顔画像データが登録データ200に存在していれば、現在の視聴者が登録されているユーザであるとし、逆に平均化した一致度が基準以上である顔画像データが登録データ200に存在しなければ、現在の視聴者が登録されているユーザではないと判断する。ここで、現在の視聴者が登録されているユーザでなければ(ステップSB5:NO)、CPU13はステップSB1の処理に戻って、新たな撮影画像を取得する。   Then, the CPU 13 determines that the current viewer is a registered user if face image data having an averaged matching level equal to or higher than the reference is present in the registration data 200, and conversely the averaged matching level. If face image data having a value equal to or greater than the reference does not exist in the registration data 200, it is determined that the current viewer is not a registered user. If the current viewer is not a registered user (step SB5: NO), the CPU 13 returns to the process of step SB1 and acquires a new captured image.

一方、現在の視聴者が登録されているユーザであるとき、つまり撮影画像において登録されているユーザの顔が認識できたとき(ステップSB5:YES)、CPU13は、まず現在の視聴者であるユーザを特定する(ステップSB6)。すなわちCPU13は、登録データ200に前述した一致度が最も高い顔画像データが記憶されているユーザを現在の視聴者として特定する。   On the other hand, when the current viewer is a registered user, that is, when the user's face registered in the photographed image can be recognized (step SB5: YES), the CPU 13 first selects the user who is the current viewer. Is specified (step SB6). That is, the CPU 13 identifies the user whose face image data having the highest degree of coincidence described above is stored in the registration data 200 as the current viewer.

さらに、CPU13は、登録データ200を参照して、特定したユーザ、つまり現在の視聴者によって設定されている制御内容との手の操作姿勢との組合せを確認し、確認した内容を内部メモリに記憶する(ステップSB7)。   Further, the CPU 13 refers to the registration data 200 to confirm the combination of the specified user, that is, the control content set by the current viewer and the hand operation posture, and stores the confirmed content in the internal memory. (Step SB7).

次に、CPU13は、ステップSB2の顔検出処理で検出した顔領域の画像データから視線データを取得する(ステップSB8)。顔領域の画像データから取得する視線データは、既説したユーザ登録処理(図6)におけるステップSA4の処理で視線基準データとして取得するデータと同一である。つまりステップSB2の顔検出処理で検出した顔領域における、目(左右の目)と口のそれぞれの中心位置を頂点とする逆三角形Dの高さbと、逆三角形Dの底辺の長さaとの比率c(=b/a)である(図7参照)。   Next, the CPU 13 acquires line-of-sight data from the image data of the face area detected by the face detection process at step SB2 (step SB8). The line-of-sight data acquired from the image data of the face area is the same as the data acquired as the line-of-sight reference data in the process of step SA4 in the previously described user registration process (FIG. 6). That is, the height b of the inverted triangle D having the vertexes at the center positions of the eyes (left and right eyes) and the mouth in the face area detected by the face detection process in step SB2, and the length a of the base of the inverted triangle D, Ratio c (= b / a) (see FIG. 7).

しかる後、CPU13は、ステップSB8の処理で取得した比率c(以下、実際の比率という。)と、現在の視聴者(ステップSB6の処理において特定したユーザ)について登録データ200に視線基準データとして記憶されている比率c(以下、基準比率という。)とを比較することにより、視聴者がテレビ受信機1の表示画面に顔を向けているか否かを判断する(ステップSB9)。つまり、CPU13は、係る処理において視聴者が表示画面を見ているか否かを最終的に判断する。   Thereafter, the CPU 13 stores the ratio c (hereinafter referred to as the actual ratio) acquired in the process of step SB8 and the current viewer (the user specified in the process of step SB6) as the line-of-sight reference data in the registration data 200. It is determined whether or not the viewer is turning his / her face to the display screen of the television receiver 1 by comparing with the ratio c (hereinafter referred to as the reference ratio) (step SB9). That is, the CPU 13 finally determines whether or not the viewer is viewing the display screen in the processing.

図11は、視聴者の顔が表示画面に正対したときの基準比率cと、視聴者の顔が上下左右を向いたときの実際の比率c(図ではc'と標記する。)との関係を示した図である。ここで、図11(a)に示したように視聴者の顔が表示画面に正対したときを基準とすると、図11(b)、図11(c)に示したように視聴者の顔が左右を向いた場合には、逆三角形Dの底辺の長さaは相対的に小さくなる。そのため、実際の比率c'は基準比率cよりも大きくなる。また、図11(d)、図11(e)に示したように視聴者の顔が上下を向いた場合には、逆三角形Dの高さbは相対的に小さくなる。そのため、実際の比率c'は基準比率cよりも小さくなる。   FIG. 11 shows the reference ratio c when the viewer's face faces the display screen and the actual ratio c when the viewer's face faces up, down, left and right (denoted as c ′ in the figure). It is the figure which showed the relationship. Here, assuming that the viewer's face is directly facing the display screen as shown in FIG. 11 (a), the viewer's face is shown in FIGS. 11 (b) and 11 (c). Is directed to the left and right, the length a of the base of the inverted triangle D is relatively small. Therefore, the actual ratio c ′ becomes larger than the reference ratio c. In addition, when the viewer's face faces up and down as shown in FIGS. 11D and 11E, the height b of the inverted triangle D becomes relatively small. Therefore, the actual ratio c ′ is smaller than the reference ratio c.

以上の観点から、ステップSB9の処理においてCPU13は、視線データとして取得した比率cと、視線基準データとして記憶されている比率cとの差が予め決められている閾値以下であるときには、視聴者がテレビ受信機1の表示画面に顔を向けていると判断する。また、CPU13は、上記比率cの差が閾値を超えているときには、視聴者がテレビ受信機1の表示画面に顔を向けていないと判断する。なお、閾値は、視聴者とテレビ受信機1との距離が、テレビ受信機1の表示画面サイズに応じて予め想定されている視聴距離に対応して決められている値である。   From the above viewpoint, in the process of step SB9, when the difference between the ratio c acquired as the line-of-sight data and the ratio c stored as the line-of-sight reference data is equal to or less than a predetermined threshold, It is determined that the face is facing the display screen of the television receiver 1. Further, the CPU 13 determines that the viewer does not face the display screen of the television receiver 1 when the difference in the ratio c exceeds the threshold value. The threshold value is a value in which the distance between the viewer and the television receiver 1 is determined in accordance with the viewing distance assumed in advance according to the display screen size of the television receiver 1.

そして、視聴者がテレビ受信機1の表示画面に顔を向けていないと判断した場合(ステップSB9:NO)、CPU13は何もせずステップSB1の処理に戻って、新たな撮影画像を取得するまで待機する。   When it is determined that the viewer does not face the display screen of the television receiver 1 (step SB9: NO), the CPU 13 does nothing and returns to the process of step SB1 until a new captured image is acquired. stand by.

一方、視聴者がテレビ受信機1の表示画面に顔を向けていると判断した場合、つまり視聴者が表示画面を見ていると判断できる場合(ステップSB9:YES)、CPU13は引き続き図9に示した以下の処理を実行する。   On the other hand, when it is determined that the viewer is facing the display screen of the television receiver 1, that is, when it can be determined that the viewer is looking at the display screen (step SB9: YES), the CPU 13 continues to FIG. The following processing shown is executed.

すなわちCPU13は、ステップSB1で取得した撮影画像を対象として手の操作姿勢を認識する(ステップSB10)。CPU13が認識する手の操作姿勢は、先に説明したように、図4(b)に示した手のひらを略垂直にした状態の第1の姿勢A、及び手のひらを略水平にした状態の第2の姿勢Bである。   In other words, the CPU 13 recognizes the hand operation posture for the captured image acquired in step SB1 (step SB10). As described above, the operation posture of the hand recognized by the CPU 13 is the first posture A with the palm shown in FIG. 4B substantially vertical and the second posture with the palm substantially horizontal. Posture B.

そして、CPU13は、撮影画像において第1の姿勢A、又は第2の姿勢Bの認識に成功したときには(ステップSB11:YES)、後述するステップSB12以降の処理を行った後、新たに撮影画像を取得する毎に(ステップSB23:YES)、手の操作姿勢を認識する(ステップSB10)。以後、CPU13は、新たな撮影画像において手の操作姿勢(第1の姿勢A、又は第2の姿勢B)の認識に成功している間、ステップSB12以降の処理を繰り返す。   When the CPU 13 succeeds in recognizing the first posture A or the second posture B in the photographed image (step SB11: YES), the CPU 13 performs a process after step SB12 to be described later, and then newly captures the photographed image. Every time it is acquired (step SB23: YES), the hand operating posture is recognized (step SB10). Thereafter, the CPU 13 repeats the processing from step SB12 onward while successfully recognizing the hand operation posture (first posture A or second posture B) in the new photographed image.

以下、ステップSB12〜ステップSB22の処理について説明する。すなわち手の操作姿勢の認識に成功している間、CPU13は、まず、ステップSB7の処理で内部メモリに記憶しておいた、現在の視聴者によって設定されている制御内容との手の操作姿勢との組合せ内容から、認識した手の操作姿勢が、現在の視聴者においてチャンネル選択用として設定されている操作姿勢であるか否かを確認する(ステップSB12)。   Hereinafter, the processing of step SB12 to step SB22 will be described. That is, while the hand operation posture is successfully recognized, the CPU 13 first stores the hand operation posture with the control content set by the current viewer stored in the internal memory in the process of step SB7. From the combination content, it is confirmed whether or not the recognized operation posture of the hand is the operation posture set for channel selection in the current viewer (step SB12).

そして、CPU13は、認識した手の操作姿勢がチャンネル選択用として設定されている操作姿勢である間には(ステップSB12:YES)、以下の処理を繰り返す。なお、以下の説明では、現在の視聴者により設定されている制御内容との手の操作姿勢との組合せが図4(a)に示した基本的な組合せであって、ステップSB10の処理で認識した手の操作姿勢が第1の姿勢Aであるものとする。   The CPU 13 repeats the following processing while the recognized hand operation posture is the operation posture set for channel selection (step SB12: YES). In the following description, the combination of the control content set by the current viewer and the hand operation posture is the basic combination shown in FIG. 4A and is recognized in the process of step SB10. It is assumed that the operated posture of the hand is the first posture A.

操作姿勢がチャンネル選択用として設定されている操作姿勢である間、CPU13は、新たに取得した撮影画像内における手の位置(例えば画像内における手の中心位置)を逐次取得して内部メモリに記憶する(ステップSB13)。しかる後、CPU13は、それまでの手の位置の変化に基づいて、視聴者によってチャンネルの順送り、又はチャンネルの逆送りが指示されたか否かを確認する(ステップSB14、ステップSB16)。   While the operation posture is the operation posture set for channel selection, the CPU 13 sequentially acquires the position of the hand in the newly acquired captured image (for example, the center position of the hand in the image) and stores it in the internal memory. (Step SB13). Thereafter, the CPU 13 confirms whether or not the viewer has instructed forward or backward channel feeding based on the change in the hand position so far (steps SB14 and SB16).

すなわちCPU13は、第1の姿勢Aにある手の位置が、図12(a)に示したように、任意の初期位置P1から右方向へ移動した後、任意の位置P2で反転して初期位置P1に戻る順送り動作が確認できたときには、チャンネルの順送りが指示されたと判断する。またCPU13は、第1の姿勢Aにある手の位置が、図12(b)に示したように、任意の初期位置P1から左方向へ移動した後、任意の位置P2'で反転して初期位置P1に戻る逆送り動作が確認できたとき、チャンネルの逆送りが指示されたと判断する。   That is, the CPU 13 reverses at the arbitrary position P2 after the position of the hand in the first posture A moves rightward from the arbitrary initial position P1, as shown in FIG. When the forward movement operation returning to P1 is confirmed, it is determined that the forward movement of the channel is instructed. Further, the CPU 13 moves the left position of the hand in the first posture A from the initial position P1 to the left as shown in FIG. When the backward movement operation returning to the position P1 is confirmed, it is determined that the backward movement of the channel is instructed.

そして、CPU13は、視聴者によってチャンネルの順送りが指示されたと判断した(順送り動作が確認できた)ときには(ステップSB14:YES)、チャンネルを1チャンネル分順送りする(ステップSB15)。また、CPU13は、視聴者によってチャンネルの逆送りが指示されたと判断した(逆送り動作が確認できた)ときには(ステップSB14:NO、ステップSB16:YES)、チャンネルを1チャンネル分逆送りする(ステップSB17)。   When the CPU 13 determines that the viewer has instructed the channel forward (the forward operation has been confirmed) (step SB14: YES), the CPU 13 forwards the channel by one channel (step SB15). Further, when the CPU 13 determines that the viewer has instructed the channel reverse feed (the reverse feed operation has been confirmed) (step SB14: NO, step SB16: YES), the CPU 13 reverses the channel by one channel (step SB14: NO). SB17).

ただし、第1の姿勢Aにある手の順送り動作、又は逆送り動作が連続して行われる連続選択動作中、ステップSB13以降の処理に際してCPU13は、以下の処理を行う。すなわち、CPU13は、最初に確認した動作が順送り動作であった後には、第1の姿勢Aにある手が1往復移動する毎にチャンネルを1チャンネル分順送りする。   However, during the continuous selection operation in which the forward feeding operation or the backward feeding operation of the hand in the first posture A is continuously performed, the CPU 13 performs the following processing in the processing after step SB13. In other words, after the first confirmed operation is the sequential feeding operation, the CPU 13 sequentially feeds the channels by one channel every time the hand in the first posture A moves back and forth once.

図12(c)は、最初の動作が順送り動作であった場合における第1の姿勢Aにある手の連続選択動作の例を示した図である。係る連続選択動作中においてCPU13は、第1の姿勢Aにある手が初期位置P1と任意の位置P2と間を往復した時点でチャンネルを1チャンネル分順送りし、さらに、第1の姿勢Aにある手が初期位置P1と任意の位置P3と間を往復した時点でチャンネルを1チャンネル分順送りする。   FIG. 12C is a diagram illustrating an example of the continuous selection operation of the hand in the first posture A when the first operation is a forward movement operation. During the continuous selection operation, the CPU 13 sequentially forwards the channel by one channel when the hand in the first posture A reciprocates between the initial position P1 and the arbitrary position P2, and is in the first posture A. When the hand reciprocates between the initial position P1 and the arbitrary position P3, the channels are sequentially fed by one channel.

また、上記とは逆にCPU13は、最初に確認した動作が逆送り動作であった後には、第1の姿勢Aにある手が1往復移動する毎にチャンネルを1チャンネル分逆送りする。   Contrary to the above, the CPU 13 reversely feeds the channel by one channel every time the hand in the first posture A reciprocates once after the first confirmed operation is the reverse feed operation.

また、CPU13は、上記の順送り動作及び逆送り動作とのいずれもが確認できなかったときには(ステップSB16:NO)、その時点では何もせずに、次回の撮影画像を取得した後に、上記と同様の処理を行う。   In addition, when neither the forward movement operation nor the backward movement operation can be confirmed (step SB16: NO), the CPU 13 does nothing at that time, and after acquiring the next photographed image, the same as above. Perform the process.

したがって、ユーザにおいては、第1の姿勢Aにある手を左右に移動させれば、リモコンを使用することなく、テレビ受信機1から離れた場所でも表示チャンネルの選択(切り替え)を行うことができる。   Therefore, if the user moves the hand in the first posture A to the left and right, the display channel can be selected (switched) even at a location away from the television receiver 1 without using the remote controller. .

一方、CPU13は、ステップSB10で認識した手の操作姿勢がチャンネル選択用ではなく、音量調整用として設定されている操作姿勢である間には(ステップSB12:NO)、以下の処理を繰り返す。なお、以下の説明においても、現在の視聴者により設定されている制御内容との手の操作姿勢との組合せが図4(a)に示した基本的な組合せであって、ステップSB10の処理で認識した手の操作姿勢が第2の姿勢Bであるものとする。   On the other hand, the CPU 13 repeats the following process while the hand operation posture recognized in step SB10 is not for channel selection but for the sound volume adjustment (step SB12: NO). Also in the following description, the combination of the control content set by the current viewer and the hand operation posture is the basic combination shown in FIG. 4A, and the processing in step SB10 is performed. It is assumed that the recognized hand operation posture is the second posture B.

操作姿勢が音量調整用として設定されている操作姿勢である間、CPU13は、新たに取得した撮影画像内における手の位置(例えば画像内における手の中心位置)を逐次取得して内部メモリに記憶する(ステップSB18)。しかる後、CPU13は、それまでの手の位置の変化に基づいて、視聴者によって音量アップ、又は音量ダウンが指示されたか否かを確認する(ステップSB19、ステップSB21)。   While the operation posture is the operation posture set for volume adjustment, the CPU 13 sequentially acquires the position of the hand in the newly acquired captured image (for example, the center position of the hand in the image) and stores it in the internal memory. (Step SB18). Thereafter, the CPU 13 confirms whether or not the viewer has instructed to increase or decrease the volume based on the change in the hand position so far (step SB19, step SB21).

すなわちCPU13は、第2の姿勢Bにある手の位置が、図13(a)に示したように、任意の初期位置P1から上方向へ所定の距離Lを移動する音量アップ動作が確認できたときには、音量アップが指示されたと判断する。またCPU13は、第2の姿勢Bにある手の位置が、図13(b)に示したように、任意の初期位置P1から下方向へ所定の距離Lを移動する音量ダウン動作が確認できたときには、音量ダウンが指示されたと判断する。   That is, the CPU 13 was able to confirm the volume increasing operation in which the position of the hand in the second posture B moves upward by a predetermined distance L from any initial position P1, as shown in FIG. 13 (a). In some cases, it is determined that the sound volume is instructed. In addition, the CPU 13 was able to confirm the sound volume down operation in which the position of the hand in the second posture B moves downward by a predetermined distance L from the arbitrary initial position P1, as shown in FIG. 13B. Sometimes, it is determined that the sound volume is instructed.

そして、CPU13は、視聴者によって音量アップが指示されたと判断した(音量アップ動作が確認できた)ときには(ステップSB19:YES)、音量を1段階上げる(ステップSB20)。また、CPU13は、視聴者によって音量ダウンが指示されたと判断した(音量ダウン動作が確認できた)ときには(ステップSB19:NO、ステップSB21:YES)、音量を1段階下げる(ステップSB22)。   Then, when the CPU 13 determines that the volume up is instructed by the viewer (the volume up operation has been confirmed) (step SB19: YES), the CPU 13 increases the volume by one level (step SB20). On the other hand, when the CPU 13 determines that the sound volume is instructed by the viewer (the sound volume down operation can be confirmed) (step SB19: NO, step SB21: YES), the CPU 13 decreases the sound volume by one level (step SB22).

ただし、第2の姿勢Bにある手の音量アップ動作、又は音量ダウン動作が連続して行われる連続調整動作中、ステップSB19以降の処理に際してCPU13は、以下の処理を行う。すなわち、CPU13は、最初に確認した動作が音量アップ動作であった後には、第2の姿勢Bにある手が、移動方向に関係なく所定の距離Lだけ移動する毎に音量を1段階上げる。   However, during the continuous adjustment operation in which the volume increase operation or the volume decrease operation of the hand in the second posture B is continuously performed, the CPU 13 performs the following processing in the processing after step SB19. That is, the CPU 13 increases the sound volume by one step each time the hand in the second posture B moves by the predetermined distance L regardless of the moving direction after the first confirmed operation is the sound volume increasing operation.

図13(c)は、最初の動作が音量アップ動作であった場合における第2の姿勢Bにある手の連続選択動作の例を示した図である。係る連続選択動作中においてCPU13は、第2の姿勢Bにある手が初期位置P1から所定の距離L離れた位置P2に達した時点で音量を1段階上げ、さらに、第2の姿勢Bにある手が初期位置P1へ戻った時点で音量を1段階上げる。   FIG. 13C is a diagram illustrating an example of the continuous selection operation of the hand in the second posture B when the first operation is a volume up operation. During the continuous selection operation, the CPU 13 increases the volume by one step when the hand in the second posture B reaches the position P2 that is a predetermined distance L away from the initial position P1, and is further in the second posture B. When the hand returns to the initial position P1, the volume is increased by one level.

また、上記とは逆にCPU13は、最初に確認した動作が音量ダウン動作であった後には、第2の姿勢Bにある手が移動方向に関係なく所定の距離Lだけ移動する毎に音量を1段階下げる。   Contrary to the above, the CPU 13 increases the volume every time the hand in the second posture B moves by the predetermined distance L regardless of the moving direction after the first confirmed operation is the volume down operation. Move down one step.

また、CPU13は、上記の音量アップ動作及び音量ダウン動作とのいずれもが確認できなかったときには(ステップSB21:NO)、その時点では何もせずに、次回の撮影画像を取得した後に、上記と同様の処理を行う。   In addition, when neither the above-described volume-up operation or volume-down operation can be confirmed (step SB21: NO), the CPU 13 does nothing at that time and acquires the next captured image, and then Similar processing is performed.

したがって、ユーザにおいては、第2の姿勢Bにある手を上下に移動させれば、リモコンを使用することなく、テレビ受信機1から離れた場所でも音量調整を行うことができる。   Therefore, if the user moves his / her hand in the second posture B up and down, the volume can be adjusted at a place away from the television receiver 1 without using a remote controller.

なお、図には示さないが、現在の視聴者により設定されている制御内容との手の操作姿勢との組合せが基本的な組合せと逆である場合、つまり「チャンネル選択」に対応する操作姿勢として第2の姿勢Bが設定され、かつ「音量調整」に対応する操作姿勢として第1の姿勢Aが設定されている場合、CPU13はステップSB12〜ステップSB22では以下の処理を行う。   Although not shown in the figure, when the combination of the control content set by the current viewer and the hand operation posture is the reverse of the basic combination, that is, the operation posture corresponding to “channel selection” When the second posture B is set and the first posture A is set as the operation posture corresponding to “volume adjustment”, the CPU 13 performs the following processing in steps SB12 to SB22.

すなわち、CPU13は、第2の姿勢Bにある手が任意の初期位置から上方向へ移動した後、任意の位置で反転して初期位置に戻る順送り動作を確認したときには、チャンネルの逆送りが指示されたと判断し(ステップSB14:YES)、チャンネルを1チャンネル分順送りする(ステップSB15)。また、CPU13は、第2の姿勢Bにある手が任意の初期位置から下方向へ移動した後、任意の位置で反転して初期位置に戻る順送り動作を確認したときには、チャンネルの逆送りが指示されたと判断し(ステップSB16:YES)、チャンネルを1チャンネル分逆送りする(ステップSB17)。   That is, when the CPU 13 confirms a forward movement operation in which the hand in the second posture B moves upward from the arbitrary initial position and then reverses at the arbitrary position and returns to the initial position, the CPU 13 instructs the reverse channel. (Step SB14: YES), the channels are forwarded by one channel in order (Step SB15). Further, when the CPU 13 confirms the forward feed operation in which the hand in the second posture B moves downward from the arbitrary initial position and then reverses at the arbitrary position and returns to the initial position, the CPU 13 instructs the reverse channel. It is determined that it has been performed (step SB16: YES), and the channel is fed back by one channel (step SB17).

なお、CPU13は、第2の姿勢Bにある手の順送り動作、又は逆送り動作が連続して行われる連続選択動作中には、最初の動作が順送り動作であれば、第2の姿勢Bにある手が1往復移動する毎にチャンネルを1チャンネル分順送りする。逆に、最初の動作が逆送り動作であれば、CPU13は、第2の姿勢Bにある手が1往復移動する毎にチャンネルを1チャンネル分逆送りする。   It should be noted that the CPU 13 moves to the second posture B if the first operation is the forward movement operation during the continuous selection operation in which the forward movement operation or the reverse movement operation of the hand in the second posture B is continuously performed. Each time a hand moves one reciprocating motion, the channel is sequentially fed by one channel. On the contrary, if the first operation is a reverse feed operation, the CPU 13 feeds back the channel by one channel every time the hand in the second posture B moves one reciprocating motion.

さらに、CPU13は、第1の姿勢Aにある手が任意の初期位置から右方向へ所定の距離を移動する音量アップ動作を確認したときには、音量アップが指示されたと判断し(ステップSB19:YES)、音量を1段階上げる(ステップSB20)。また、CPU13は、第1の姿勢Aにある手が任意の初期位置から左方向へ所定の距離を移動する音量ダウン動作を確認したときには、音量ダウンが指示されたと判断し(ステップSB21:YES)、音量を1段階下げる。   Furthermore, when the CPU 13 confirms the sound volume increasing operation in which the hand in the first posture A moves a predetermined distance in the right direction from an arbitrary initial position, the CPU 13 determines that the sound volume is instructed (step SB19: YES). The volume is increased by one level (step SB20). In addition, when the CPU 13 confirms the sound volume down operation in which the hand in the first posture A moves a predetermined distance leftward from an arbitrary initial position, the CPU 13 determines that the sound volume down is instructed (step SB21: YES). Reduce the volume by one level.

なお、CPU13は、第1の姿勢Aにある手の音量アップ動作、又は音量ダウン動作が連続して行われる連続調整動作中には、最初の動作が音量アップ動作であれば、第1の姿勢Aにある手が所定の距離だけ移動する毎に音量を1段階上げる。逆に、最初の動作が音量ダウン動作であれば、CPU13は、第1の姿勢Aにある手が所定の距離だけ移動する毎に音量を1段階下げる。   In addition, during the continuous adjustment operation in which the volume up operation or the volume down operation of the hand in the first posture A is continuously performed, the CPU 13 determines the first posture if the first operation is the volume up operation. Each time the hand in A moves a predetermined distance, the volume is increased by one level. Conversely, if the first operation is a volume down operation, the CPU 13 decreases the volume by one step each time the hand in the first posture A moves by a predetermined distance.

一方、CPU13は、上述したように第1の姿勢A、又は第2の姿勢Bにある手の動作に応じてチャンネルや音量の制御を繰り返す間、新たに取得した撮影画像において手の操作姿勢(第1の姿勢A、又は第2の姿勢B)が認識できなくなったら(ステップSB11:NO)、それまでに記憶していた手の位置を初期化(クリア)した後(ステップSB24)、いったん図8のステップSB1の処理に戻る。以後、CPU13は、前述した処理を繰り返す。   On the other hand, as described above, the CPU 13 repeats the control of the channel and the volume according to the movement of the hand in the first posture A or the second posture B, and the hand operation posture ( If the first posture A or the second posture B) cannot be recognized (step SB11: NO), the hand position stored so far is initialized (cleared) (step SB24), and then once shown in FIG. Returning to step SB1 of step 8. Thereafter, the CPU 13 repeats the process described above.

以上説明したように本実施形態のテレビ受信機1においては、任意の放送を受信して間、CPU13が、視聴者が表示画面を見ていることを条件として、第1の姿勢Aにある手の左右方向への移動、又は第2の姿勢Bにある手の上下方向への移動といった特定の動作を随時検出し、それが検出できたことをトリガとしてチャンネル(受信局)や音量を制御する。   As described above, in the television receiver 1 of the present embodiment, while receiving an arbitrary broadcast, the CPU 13 is in the first posture A on the condition that the viewer is watching the display screen. Specific movements such as movements in the horizontal direction of the hand or movements of the hand in the second posture B in the vertical direction are detected at any time, and the channel (reception station) and volume are controlled using the detection as a trigger. .

そのため、テレビ受信機1においては、視聴者が表示画面を見ていないとき、たまたま第1の姿勢Aや第2の姿勢Bにあるユーザの手が左右や上下に移動した場合であっても、チャンネルが変更されたり、音量が変化したりすることがない。つまりユーザの意図しない操作に応答した誤動作が生じる可能性がない。よって、ユーザによる意図的な遠隔操作のみを受け付けることができる。   Therefore, in the television receiver 1, even when the user's hand in the first posture A or the second posture B happens to move left and right or up and down when the viewer does not look at the display screen, The channel does not change or the volume does not change. That is, there is no possibility of malfunction occurring in response to an operation not intended by the user. Therefore, only an intentional remote operation by the user can be accepted.

また、本実施形態のテレビ受信機1においては、CPU13が、撮影画像から予め登録されているユーザの顔が認識できたことを条件として、チャンネル(受信局)や音量を制御する。したがって、より確実にユーザによる意図的な遠隔操作のみを受け付けることができる。   In the television receiver 1 of the present embodiment, the CPU 13 controls the channel (receiving station) and volume on the condition that the user's face registered in advance can be recognized from the captured image. Therefore, only intentional remote operation by the user can be accepted more reliably.

また、本実施形態のテレビ受信機1においては、CPU13が、視聴者が目を開けており、かつテレビ受信機1の表示画面に顔を向けていると判断できる場合に、視聴者が表示画面を見ていると最終的に判断する。したがって、視聴者が表示画面を見ている滋養対を正確に判断することができ、これによっても、より確実にユーザによる意図的な遠隔操作のみを受け付けることができる。   Further, in the television receiver 1 of the present embodiment, when the CPU 13 can determine that the viewer is open and faces the display screen of the television receiver 1, the viewer can display the screen. It is finally determined that you are watching. Therefore, it is possible to accurately determine the nourishing pair that the viewer is looking at the display screen, and it is also possible to accept only the intentional remote operation by the user more reliably.

なお、本実施形態においては、CPU13が、視聴者が目を開けており、かつテレビ受信機1の表示画面に顔を向けていると判断できる場合に、視聴者が表示画面を見ていると最終的に判断する構成について説明した。しかし、本発明の実施に際しては、視聴者が表示画面を見ているか否かの判断を、視聴者がテレビ受信機1の表示画面に顔を向けているか否かのみに基づいて行う構成としてもよい。   In the present embodiment, the CPU 13 is viewing the display screen when it is determined that the viewer has opened his eyes and is facing the display screen of the television receiver 1. The configuration to be finally determined has been described. However, in the implementation of the present invention, it is possible to determine whether or not the viewer is looking at the display screen based only on whether or not the viewer is facing the display screen of the television receiver 1. Good.

また、本実施形態においては、視聴者がテレビ受信機1の表示画面に顔を向けているか否かの判断を、事前に登録されている視線基準データを用いて行う構成について説明したが、上記判断は事前に登録されている視線基準データを用いることなく行う構成としてもよい。例えば、視聴者を撮影した撮影画像を取得する毎に、図7に示した逆三角形Dの高さbと、逆三角形Dの底辺の長さaとの比率c(視線情報)を繰り返し取得するともに、随時取得する比率cのうちで最小の比率cを視線基準データとして随時更新し、係る視線基準データを用いる構成としてもよい。   Further, in the present embodiment, the configuration has been described in which it is determined whether or not the viewer faces his / her face on the display screen of the television receiver 1 using the previously registered line-of-sight reference data. The determination may be made without using the line-of-sight reference data registered in advance. For example, every time a captured image obtained by capturing a viewer is acquired, the ratio c (line-of-sight information) between the height b of the inverted triangle D and the length a of the base of the inverted triangle D shown in FIG. In both cases, the minimum ratio c among the ratios c acquired at any time may be updated as the line-of-sight reference data as needed, and the line-of-sight reference data may be used.

なお、上記のように随時更新する視線基準データを用いて、視聴者がテレビ受信機1の表示画面に顔を向けているか否かを判断する場合、CPU13に、例えば事前に登録されていないユーザについても前述した手の動作(特定の動作)を検知し、それをトリガとしてチャンネル(受信局)や音量を制御させる構成としてもよい。   In addition, when determining whether or not the viewer faces his / her face on the display screen of the television receiver 1 using the line-of-sight reference data updated as necessary as described above, for example, a user who is not registered in advance in the CPU 13 Also, the above-described hand movement (specific movement) may be detected, and the channel (receiving station) and volume may be controlled using the detected movement as a trigger.

また、本実施形態においては、CPU13が撮影画像から検出する視聴者における特定の動作が、第1の姿勢Aにある手の左右方向への移動、又は第2の姿勢Bにある手の上下方向への移動である場合について説明したが、撮影画像から検出する特定の動作は、予め決められている動作であれば他の動作に適宜変更することができる。   In the present embodiment, the specific motion of the viewer detected from the captured image by the CPU 13 is the movement of the hand in the first posture A in the left-right direction or the vertical direction of the hand in the second posture B. Although the case of moving to is described, the specific operation detected from the captured image can be appropriately changed to another operation as long as it is a predetermined operation.

また、撮影画像から特定の動作を検出したことをトリガとしてCPU13が制御する内容がチャンネルや音量である場合について説明したが、制御内容についても適宜変更することができる。   Moreover, although the case where the content controlled by the CPU 13 triggered by the detection of a specific operation from the captured image is a channel or volume, the control content can be changed as appropriate.

また、本実施形態においては、本発明をデジタルテレビ受信機に適用した場合について説明したが、本発明は、デジタルテレビ受信機に限らず、放送番組の記録に使用されるビデオレコーダーや、ラジオ放送を受信するラジオ受信機等の他の電気機器にも適用することができる。   In the present embodiment, the case where the present invention is applied to a digital television receiver has been described. However, the present invention is not limited to a digital television receiver, and is not limited to a video recorder or radio broadcast used for recording a broadcast program. The present invention can also be applied to other electric devices such as a radio receiver that receives the signal.

1 テレビ
2 本体
3 表示パネル
4 撮影レンズ
11 アンテナ
12 チューナ
13 CPU
14 映像デコーダ
15 音声デコーダ
16 表示装置
17 音声出力装置
18 内蔵カメラ
19 主記憶装置
20 補助記憶装置
21 操作キー部
22 信号処理回路
31 撮像素子
32 信号処理回路
DESCRIPTION OF SYMBOLS 1 Television 2 Main body 3 Display panel 4 Shooting lens 11 Antenna 12 Tuner 13 CPU
DESCRIPTION OF SYMBOLS 14 Video decoder 15 Audio | voice decoder 16 Display apparatus 17 Audio | voice output apparatus 18 Built-in camera 19 Main memory device 20 Auxiliary memory device 21 Operation key part 22 Signal processing circuit 31 Image pick-up element 32 Signal processing circuit

Claims (8)

遠隔操作機能を備えた電気機器において、
使用者を撮影する撮影手段と、
前記撮影手段により撮影された撮影画像に基づいて、使用者が機器本体を見ているか否かを判断する判断手段と、
前記撮影手段により撮影された撮影画像に基づいて、使用者における予め決められている特定の動作を検出する検出手段と、
前記判断手段により使用者が機器本体を見ていると判断されている条件下で、前記検出手段により使用者における前記特定の動作が検出されたことに応答し、前記特定の動作に対応した内容の制御処理を実行する制御手段と
を備えたことを特徴とする電気機器。
In electrical equipment with remote control function,
Photographing means for photographing the user;
A determination unit that determines whether the user is looking at the device main body based on a captured image captured by the imaging unit;
Detecting means for detecting a predetermined specific operation of the user based on a photographed image photographed by the photographing means;
Responding to the detection unit detecting the specific action by the detection unit under the condition that the determination unit determines that the user is looking at the device main body, and corresponding to the specific operation An electrical apparatus comprising: control means for executing the control process.
前記制御手段が実行する前記特定の動作に対応した内容の制御処理には、受信局の切り替え制御が含まれることを特徴とする請求項1記載の電気機器。   2. The electric apparatus according to claim 1, wherein the control processing of the content corresponding to the specific operation executed by the control means includes switching control of a receiving station. 前記撮影手段により撮影された撮影画像を対象として、予め登録されている人物の顔を認識する顔認識手段を備え、
前記制御手段は、前記判断手段により使用者が機器本体を見ていると判断されており、かつ前記顔認識手段によって予め登録されている人物の顔が検出されていることを条件として、前記検出手段により使用者における前記特定の動作が検出されたことに応答し、前記特定の動作に対応した内容の制御処理を実行する
ことを特徴とする請求項1又は2記載の電気機器。
Face recognition means for recognizing a face of a person registered in advance for a photographed image photographed by the photographing means,
The control means is provided on the condition that the judgment means judges that the user is looking at the main body of the apparatus and that the face of the person registered in advance is detected by the face recognition means. The electric device according to claim 1, wherein a control process having a content corresponding to the specific operation is executed in response to the specific operation detected by the user.
前記判断手段は、前記顔認識手段により認識された予め登録されている人物の顔部分の画像から視線の方向を表す視線情報を取得し、取得した視線情報に基づいて使用者が機器本体を見ているか否かを判断する
ことを特徴とする請求項3記載の電気機器。
The determination unit obtains line-of-sight information indicating the direction of the line of sight from an image of a face portion of a person registered in advance recognized by the face recognition unit, and the user views the device body based on the obtained line-of-sight information. The electric device according to claim 3, wherein it is determined whether or not it is present.
前記判断手段は、前記撮影手段により撮影された撮影画像に基づいて使用者が目を開けているか否かを判断し、使用者が目を開けていると判断できるとき、前記顔部分の画像から前記視線情報を取得し、取得した視線情報に基づいて使用者が機器本体を見ているか否かを判断する
ことを特徴とする請求項4記載の電気機器。
The determination means determines whether or not the user has opened his eyes based on the photographed image taken by the photographing means, and when it can be determined that the user has opened his eyes, from the image of the face portion The electrical apparatus according to claim 4, wherein the line-of-sight information is acquired, and it is determined whether a user is looking at the apparatus main body based on the acquired line-of-sight information.
前記制御手段は、前記判断手段により使用者が機器本体を見ていると判断されている条件下で、前記検出手段により使用者における前記特定の動作が検出されたことに応答し、前記特定の動作に対応した内容の制御処理であって、前記予め登録されている人物によって事前に設定されている内容の制御処理を実行する
ことを特徴とする請求項5記載の電気機器。
The control means responds to the specific action on the user being detected by the detection means under the condition that the determination means determines that the user is looking at the device body, and the specific means 6. The electric device according to claim 5, wherein a control process of content corresponding to an operation, the control process of content set in advance by the person registered in advance is executed.
遠隔操作機能を備えた電気機器の制御方法であって、
使用者を撮影した撮影画像に基づいて、使用者が機器本体を見ているか否かを判断する工程と、
前記撮影画像に基づいて、使用者における予め決められている特定の動作を検出する工程と、
使用者が機器本体を見ていると判断した条件下で、前記撮影画像に基づいて前記特定の動作を検出した場合に、前記特定の動作に対応した内容の制御処理を実行する工程と
を含むことを特徴とする制御方法。
A method for controlling an electrical device having a remote control function,
A step of determining whether the user is looking at the device body based on a photographed image of the user;
A step of detecting a specific action determined in advance by the user based on the captured image;
A step of executing a control process of contents corresponding to the specific operation when the specific operation is detected based on the captured image under a condition that the user is looking at the device main body. A control method characterized by that.
遠隔操作機能を備えた電気機器が有するコンピュータを、
使用者を撮影した撮影画像に基づいて、使用者が機器本体を見ているか否かを判断する判断手段と、
前記撮影画像に基づいて、使用者における予め決められている特定の動作を検出する検出手段と、
前記判断手段により使用者が機器本体を見ていると判断されている条件下で、前記検出手段により使用者における前記特定の動作が検出されたことに応答し、前記特定の動作に対応した内容の制御処理を実行する制御手段と
して機能させることを特徴とするプログラム。
A computer included in an electrical device having a remote control function,
A determination means for determining whether or not the user is looking at the device main body based on a photographed image of the user;
Detection means for detecting a specific action predetermined by the user based on the captured image;
Responding to the detection unit detecting the specific action by the detection unit under the condition that the determination unit determines that the user is looking at the device main body, and corresponding to the specific operation A program which functions as a control means for executing the control process.
JP2010102781A 2010-04-28 2010-04-28 Electrical apparatus, and control method and program thereof Pending JP2011232964A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010102781A JP2011232964A (en) 2010-04-28 2010-04-28 Electrical apparatus, and control method and program thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010102781A JP2011232964A (en) 2010-04-28 2010-04-28 Electrical apparatus, and control method and program thereof

Publications (1)

Publication Number Publication Date
JP2011232964A true JP2011232964A (en) 2011-11-17

Family

ID=45322219

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010102781A Pending JP2011232964A (en) 2010-04-28 2010-04-28 Electrical apparatus, and control method and program thereof

Country Status (1)

Country Link
JP (1) JP2011232964A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103207670A (en) * 2012-01-11 2013-07-17 韦伯斯特生物官能(以色列)有限公司 Touch free operation of devices by use of depth sensors
CN103207671A (en) * 2012-01-11 2013-07-17 韦伯斯特生物官能(以色列)有限公司 Touch free operation of ablator workstation by use of depth sensors
JP2015146058A (en) * 2014-01-31 2015-08-13 富士通株式会社 Information processing apparatus, information processing method, and information processing program
JP2016507810A (en) * 2012-12-20 2016-03-10 グーグル インコーポレイテッド Using distance between objects in touchless gesture interface
JP2023114587A (en) * 2022-02-07 2023-08-18 三菱電機Itソリューションズ株式会社 Process execution device, process execution method and process execution program

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111513843A (en) * 2012-01-11 2020-08-11 韦伯斯特生物官能(以色列)有限公司 Ablation workstation for contactless operation with depth sensor
US9625993B2 (en) 2012-01-11 2017-04-18 Biosense Webster (Israel) Ltd. Touch free operation of devices by use of depth sensors
JP2013143149A (en) * 2012-01-11 2013-07-22 Biosense Webster (Israel) Ltd Touch free operation of ablator workstation by use of depth sensors
JP2013143148A (en) * 2012-01-11 2013-07-22 Biosense Webster (Israel) Ltd Touch free operation of devices by use of depth sensors
US9931154B2 (en) 2012-01-11 2018-04-03 Biosense Webster (Israel), Ltd. Touch free operation of ablator workstation by use of depth sensors
US11020165B2 (en) 2012-01-11 2021-06-01 Biosense Webster (Israel) Ltd. Touch free operation of ablator workstation by use of depth sensors
CN103207671A (en) * 2012-01-11 2013-07-17 韦伯斯特生物官能(以色列)有限公司 Touch free operation of ablator workstation by use of depth sensors
JP2017162476A (en) * 2012-01-11 2017-09-14 バイオセンス・ウエブスター・(イスラエル)・リミテッドBiosense Webster (Israel), Ltd. Touch free operation of devices by use of depth sensors
CN103207670A (en) * 2012-01-11 2013-07-17 韦伯斯特生物官能(以色列)有限公司 Touch free operation of devices by use of depth sensors
US10052147B2 (en) 2012-01-11 2018-08-21 Biosense Webster (Israel) Ltd. Touch free operation of ablator workstation by use of depth sensors
CN110502104A (en) * 2012-01-11 2019-11-26 韦伯斯特生物官能(以色列)有限公司 The device of touch free operation is carried out using depth transducer
US10653472B2 (en) 2012-01-11 2020-05-19 Biosense Webster (Israel) Ltd. Touch free operation of ablator workstation by use of depth sensors
JP2016507810A (en) * 2012-12-20 2016-03-10 グーグル インコーポレイテッド Using distance between objects in touchless gesture interface
JP2015146058A (en) * 2014-01-31 2015-08-13 富士通株式会社 Information processing apparatus, information processing method, and information processing program
JP2023114587A (en) * 2022-02-07 2023-08-18 三菱電機Itソリューションズ株式会社 Process execution device, process execution method and process execution program
JP7336553B2 (en) 2022-02-07 2023-08-31 三菱電機Itソリューションズ株式会社 Process execution device, process execution method and process execution program

Similar Documents

Publication Publication Date Title
JP4697279B2 (en) Image display device and detection method
CN108600663B (en) Communication method between electronic devices and television receiver
JP5641970B2 (en) Operating device, playback device, and television receiver
US20130202158A1 (en) Image processing device, image processing method, program and recording medium
JP2013046306A (en) Information processing device, information processing system and information processing method
KR20130037998A (en) Display apparatus and display method thereof
CN102520786A (en) Method and system for utilizing user action to realize control for electronic equipment by intelligent terminal
JP2011232964A (en) Electrical apparatus, and control method and program thereof
US8022981B2 (en) Apparatus and method for automatically controlling power of video appliance
KR102567803B1 (en) Display device
JPWO2007077614A1 (en) Shooting image processing switching device for videophone function
US20150304574A1 (en) Imaging apparatus, camera unit, display unit, image-taking method, display method and computer readable recording medium recording program thereon
CN110691187A (en) Electronic device, control method of electronic device, and computer-readable medium
US20070015579A1 (en) Remote control device
US10185387B2 (en) Communication apparatus, communication method, and computer readable recording medium
JP2008277983A (en) Television receiver
KR20120130466A (en) Device and method for controlling data of external device in wireless terminal
US11128764B2 (en) Imaging apparatus, control method, and non-transitory computer readable medium
JP2008288737A (en) Television control device
CN104469319A (en) Method and device for separating image collection and image display
JP2005168005A (en) Remote control device provided with vision discrimination function
KR20150008769A (en) Image display apparatus, and method for operating the same
EP3525453A1 (en) Display device
JP2013138355A (en) Display device and remote control system
JP5657223B2 (en) Imaging apparatus, image reproduction system, and image reproduction method