[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2017173927A - Information processing device, information processing system, service processing execution control method, and program - Google Patents

Information processing device, information processing system, service processing execution control method, and program Download PDF

Info

Publication number
JP2017173927A
JP2017173927A JP2016056299A JP2016056299A JP2017173927A JP 2017173927 A JP2017173927 A JP 2017173927A JP 2016056299 A JP2016056299 A JP 2016056299A JP 2016056299 A JP2016056299 A JP 2016056299A JP 2017173927 A JP2017173927 A JP 2017173927A
Authority
JP
Japan
Prior art keywords
face image
gesture
terminal device
image
terminal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016056299A
Other languages
Japanese (ja)
Other versions
JP6790396B2 (en
Inventor
野口 大輔
Daisuke Noguchi
大輔 野口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2016056299A priority Critical patent/JP6790396B2/en
Publication of JP2017173927A publication Critical patent/JP2017173927A/en
Application granted granted Critical
Publication of JP6790396B2 publication Critical patent/JP6790396B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an information processing device, an information processing system, a service processing execution control method, and a program capable of shortening time required for executing service processing by an object terminal of the service processing.SOLUTION: The information processing device comprises: a terminal identification information storage part 305 for storing terminal identification information for identifying terminal equipment 100 and a face image of a user who carries the terminal equipment 100 in association; an image acquisition part 307 for acquiring pickup images obtained by imaging a plurality of users each of whom has the terminal equipment 100 in time series; a recognition part 309 for recognizing a first gesture on the basis of the pickup images acquired in time series, and for extracting the face image of the user who has performed the first gesture from the pickup images; a selection part 311 for selecting the terminal equipment 100 indicated by the terminal identification information associated with the face image similar to the extracted face image as an object terminal of service processing; and an execution control part 313 for communicating with the selected terminal equipment 100, and for controlling the execution of the service processing.SELECTED DRAWING: Figure 5

Description

本発明は、情報処理装置、情報処理システム、サービス処理実行制御方法及びプログラムに関する。   The present invention relates to an information processing apparatus, an information processing system, a service process execution control method, and a program.

従来から、プロジェクタなどの情報処理装置と、複数の端末装置とを、ネットワークを介して接続したシステムが知られている(例えば、特許文献1を参照)。なお、端末装置としては、例えば、タブレットやスマートフォンなどのスマート端末や、PC(Personal Computer)などが挙げられる。   Conventionally, a system in which an information processing device such as a projector and a plurality of terminal devices are connected via a network is known (see, for example, Patent Document 1). Examples of the terminal device include smart terminals such as tablets and smartphones, PCs (Personal Computers), and the like.

このようなシステムでは、ユーザが、複数の端末装置の中から、情報処理装置に投影対象画像を出力する端末装置を選択し、情報処理装置は、選択された端末装置から出力された投影対象画像を投影することで、サービス処理(画像投影)を実行する。   In such a system, the user selects a terminal device that outputs a projection target image to the information processing device from among the plurality of terminal devices, and the information processing device outputs the projection target image output from the selected terminal device. Is projected to execute service processing (image projection).

しかしながら、上述したような従来技術では、ユーザは、サービス処理の対象端末を選択するために、複数の端末装置のリストの中から当該サービス処理の対象端末を探し出す必要があり、サービス処理の対象端末でサービス処理を実行するまでに時間を要していた。   However, in the conventional technology as described above, in order to select a service processing target terminal, the user needs to find the service processing target terminal from a list of a plurality of terminal devices. It took time to execute the service process.

本発明は、上記事情に鑑みてなされたものであり、サービス処理の対象端末でサービス処理を実行するまでに要する時間を短縮することができる情報処理装置、情報処理システム、サービス処理実行制御方法及びプログラムを提供することを目的とする。   The present invention has been made in view of the above circumstances, and an information processing apparatus, an information processing system, a service process execution control method, and a service process execution control method capable of reducing the time required for executing a service process on a target terminal of the service process The purpose is to provide a program.

上述した課題を解決し、目的を達成するために、本発明の一態様にかかる情報処理装置は、端末装置を識別する端末識別情報と、当該端末装置を所持するユーザの顔画像と、を対応付けて記憶する端末識別情報記憶部と、それぞれが端末装置を所持する複数のユーザを撮像した撮像画像を時系列で取得する画像取得部と、前記時系列で取得された撮像画像に基づいて第1のジェスチャを認識し、当該撮像画像から当該第1のジェスチャを行ったユーザの顔画像を抽出する認識部と、前記抽出された顔画像と類似する顔画像に対応付けられた端末識別情報が示す端末装置をサービス処理の対象端末に選択する選択部と、前記選択された端末装置と通信し、前記サービス処理の実行を制御する実行制御部と、を備える。   In order to solve the above-described problems and achieve the object, an information processing apparatus according to an aspect of the present invention corresponds to terminal identification information for identifying a terminal device and a face image of a user who owns the terminal device. A terminal identification information storage unit that is stored in addition, an image acquisition unit that acquires, in time series, captured images obtained by capturing a plurality of users each possessing a terminal device, and a first image based on the captured images acquired in the time series. A recognition unit for recognizing one gesture and extracting the face image of the user who performed the first gesture from the captured image, and terminal identification information associated with a face image similar to the extracted face image. A selection unit that selects a terminal device to be indicated as a target terminal for service processing, and an execution control unit that communicates with the selected terminal device and controls execution of the service processing.

本発明によれば、サービス処理の対象端末でサービス処理を実行するまでに要する時間を短縮することができるという効果を奏する。   According to the present invention, there is an effect that it is possible to reduce the time required for executing the service process on the target terminal of the service process.

図1は、本実施形態の情報処理システムの構成の一例を示すブロック図である。FIG. 1 is a block diagram illustrating an example of the configuration of the information processing system according to the present embodiment. 図2は、本実施形態の端末装置のハードウェア構成の一例を示すブロック図である。FIG. 2 is a block diagram illustrating an example of a hardware configuration of the terminal device according to the present embodiment. 図3は、本実施形態の撮像装置のハードウェア構成の一例を示すブロック図である。FIG. 3 is a block diagram illustrating an example of a hardware configuration of the imaging apparatus according to the present embodiment. 図4は、本実施形態の情報処理装置のハードウェア構成の一例を示すブロック図である。FIG. 4 is a block diagram illustrating an example of a hardware configuration of the information processing apparatus according to the present embodiment. 図5は、本実施形態の端末装置、撮像装置、及び情報処理装置の機能構成の一例を示すブロック図である。FIG. 5 is a block diagram illustrating an example of a functional configuration of the terminal device, the imaging device, and the information processing device of the present embodiment. 図6は、本実施形態の認識手法の一例を示す説明図である。FIG. 6 is an explanatory diagram illustrating an example of a recognition method according to the present embodiment. 図7は、本実施形態の認識手法の一例を示す説明図である。FIG. 7 is an explanatory diagram illustrating an example of a recognition method according to the present embodiment. 図8は、本実施形態の認識手法の一例を示す説明図である。FIG. 8 is an explanatory diagram illustrating an example of a recognition method according to the present embodiment. 図9は、本実施形態の認識手法の一例を示す説明図である。FIG. 9 is an explanatory diagram illustrating an example of a recognition method according to the present embodiment. 図10は、本実施形態の認識手法の一例を示す説明図である。FIG. 10 is an explanatory diagram illustrating an example of a recognition method according to the present embodiment. 図11は、本実施形態の認識手法の一例を示す説明図である。FIG. 11 is an explanatory diagram illustrating an example of a recognition method according to the present embodiment. 図12は、本実施形態の端末識別情報記憶部に記憶されている情報の一例を示す図である。FIG. 12 is a diagram illustrating an example of information stored in the terminal identification information storage unit of the present embodiment. 図13は、本実施形態の抽出された顔画像と類似する顔画像の一例を示す説明図である。FIG. 13 is an explanatory diagram illustrating an example of a face image similar to the extracted face image of the present embodiment. 図14は、本実施形態の抽出された顔画像と類似する顔画像の一例を示す説明図である。FIG. 14 is an explanatory diagram illustrating an example of a face image similar to the extracted face image of the present embodiment. 図15は、本実施形態の認識精度設定画面の一例を示す図である。FIG. 15 is a diagram illustrating an example of a recognition accuracy setting screen according to the present embodiment. 図16は、本実施形態の情報処理システムで実行される処理の一例を示すシーケンス図である。FIG. 16 is a sequence diagram illustrating an example of processing executed in the information processing system of this embodiment. 図17は、本実施形態の認識部で実行される処理の一例を示すフローチャートである。FIG. 17 is a flowchart illustrating an example of processing executed by the recognition unit of the present embodiment. 図18は、変形例1の説明図である。FIG. 18 is an explanatory diagram of the first modification. 図19は、変形例1の端末識別情報記憶部に記憶されている情報の一例を示す図である。FIG. 19 is a diagram illustrating an example of information stored in the terminal identification information storage unit according to the first modification. 図20は、変形例2のジェスチャ画像記憶部に記憶されている情報の一例を示す図である。FIG. 20 is a diagram illustrating an example of information stored in the gesture image storage unit according to the second modification. 図21は、変形例3のジェスチャ画像記憶部に記憶されている情報の一例を示す図である。FIG. 21 is a diagram illustrating an example of information stored in the gesture image storage unit according to the third modification. 図22は、変形例4の端末装置、撮像装置、及び情報処理装置の機能構成の一例を示すブロック図である。FIG. 22 is a block diagram illustrating an example of functional configurations of a terminal device, an imaging device, and an information processing device according to the fourth modification. 図23は、変形例4の操作可否情報記憶部に記憶されている情報の一例を示す図である。FIG. 23 is a diagram illustrating an example of information stored in the operation availability information storage unit of the fourth modification.

以下、添付図面を参照しながら、本発明にかかる情報処理装置、情報処理システム、サービス処理実行制御方法及びプログラムの実施形態を詳細に説明する。   Hereinafter, embodiments of an information processing apparatus, an information processing system, a service process execution control method, and a program according to the present invention will be described in detail with reference to the accompanying drawings.

図1は、本実施形態の情報処理システム1の構成の一例を示すブロック図である。図1に示すように、情報処理システム1は、端末装置100−1〜100−N(Nは2以上の自然数)と、撮像装置200と、情報処理装置300と、を備える。   FIG. 1 is a block diagram illustrating an example of the configuration of the information processing system 1 according to the present embodiment. As illustrated in FIG. 1, the information processing system 1 includes terminal devices 100-1 to 100 -N (N is a natural number of 2 or more), an imaging device 200, and an information processing device 300.

端末装置100−1〜100−N、撮像装置200、及び情報処理理装置300は、ネットワーク2を介して接続されている。ネットワーク2は、例えば、LAN(Local Area Network)やインターネットなどにより実現できる。なお、撮像装置200と情報処理装置300とは、ネットワーク2ではなく通信ケーブルなどで直接接続されていてもよい。   The terminal devices 100-1 to 100-N, the imaging device 200, and the information processing device 300 are connected via the network 2. The network 2 can be realized by, for example, a LAN (Local Area Network) or the Internet. Note that the imaging apparatus 200 and the information processing apparatus 300 may be directly connected via a communication cable or the like instead of the network 2.

なお、以下の説明では、端末装置100−1〜100−Nを各々区別する必要がない場合は、単に端末装置100と称する。   In the following description, the terminal devices 100-1 to 100-N are simply referred to as the terminal device 100 when it is not necessary to distinguish each of the terminal devices 100-1 to 100-N.

端末装置100は、タブレットやスマートフォンなどのスマート端末や、PC(Personal Computer)などが挙げられる。本実施形態では、端末装置100がタブレットである場合を例に取り説明するが、これに限定されるものではない。   Examples of the terminal device 100 include smart terminals such as tablets and smartphones, and PCs (Personal Computers). In the present embodiment, the case where the terminal device 100 is a tablet will be described as an example, but the present invention is not limited to this.

図2は、本実施形態の端末装置100のハードウェア構成の一例を示すブロック図である。図2に示すように、端末装置100は、CPU(Central Processing Unit)などの制御装置11と、ROM(Read Only Memory)やRAM(Random Access Memory)などの主記憶装置12と、HDD(Hard Disk Drive)やSSD(Solid State Drive)などの補助記憶装置13と、タッチパネルなどの表示装置14及び入力装置15と、通信インタフェースなどの通信装置16と、イメージセンサなどの撮像装置17と、を備えており、通常のコンピュータを利用したハードウェア構成となっている。   FIG. 2 is a block diagram illustrating an example of a hardware configuration of the terminal device 100 according to the present embodiment. As shown in FIG. 2, the terminal device 100 includes a control device 11 such as a CPU (Central Processing Unit), a main storage device 12 such as a ROM (Read Only Memory) and a RAM (Random Access Memory), and an HDD (Hard Disk). Drive) and an auxiliary storage device 13 such as an SSD (Solid State Drive), a display device 14 such as a touch panel and an input device 15, a communication device 16 such as a communication interface, and an imaging device 17 such as an image sensor. The hardware configuration uses a normal computer.

撮像装置200は、ビデオカメラなどが挙げられる。図3は、本実施形態の撮像装置200のハードウェア構成の一例を示すブロック図である。図3に示すように、撮像装置200は、CPUなどの制御装置21と、ROMやRAMなどの主記憶装置22と、HDDやSSDなどの補助記憶装置23と、タッチパネルなどの表示装置24及び入力装置25と、通信インタフェースなどの通信装置26と、イメージセンサなどの撮像装置27と、を備えており、通常のコンピュータを利用したハードウェア構成となっている。   Examples of the imaging device 200 include a video camera. FIG. 3 is a block diagram illustrating an example of a hardware configuration of the imaging apparatus 200 according to the present embodiment. As illustrated in FIG. 3, the imaging apparatus 200 includes a control device 21 such as a CPU, a main storage device 22 such as a ROM and a RAM, an auxiliary storage device 23 such as an HDD and an SSD, a display device 24 such as a touch panel, and an input. A device 25, a communication device 26 such as a communication interface, and an imaging device 27 such as an image sensor are provided, and a hardware configuration using a normal computer is provided.

情報処理装置300は、例えば、プロジェクタ、カメラ、エアコン、冷蔵庫、蛍光灯、自販機、及びハンドヘルド型端末等の各種電子機器、印刷装置、複写機、複合機、スキャナ装置、及びファクシミリ装置等の画像形成装置、並びにスマート端末やPC等が挙げられる。複合機は、複写機能、印刷機能、スキャナ機能、及びファクシミリ機能のうち少なくとも2つの機能を有するものである。なお本実施形態では、情報処理装置300がプロジェクタである場合を例に取り説明するが、これに限定されるものではない。   The information processing apparatus 300 is, for example, an image forming apparatus such as a projector, a camera, an air conditioner, a refrigerator, a fluorescent lamp, a vending machine, a handheld terminal, and various other electronic devices, a printing apparatus, a copier, a multifunction machine, a scanner apparatus, and a facsimile apparatus. Examples include devices, smart terminals, and PCs. The multifunction peripheral has at least two functions among a copying function, a printing function, a scanner function, and a facsimile function. In the present embodiment, the case where the information processing apparatus 300 is a projector will be described as an example, but the present invention is not limited to this.

図4は、本実施形態の情報処理装置300のハードウェア構成の一例を示すブロック図である。図4に示すように、情報処理装置300は、CPUなどの制御装置31と、ROMやRAMなどの主記憶装置32と、HDDやSSDなどの補助記憶装置33と、画像投影に関わる画像処理を行うエンジン34と、タッチパネルなどの表示装置35及び入力装置36と、通信インタフェースなどの通信装置37と、を備えており、通常のコンピュータを利用したハードウェア構成となっている。   FIG. 4 is a block diagram illustrating an example of a hardware configuration of the information processing apparatus 300 according to the present embodiment. As illustrated in FIG. 4, the information processing apparatus 300 performs control processing 31 such as a CPU, a main storage device 32 such as a ROM and a RAM, an auxiliary storage device 33 such as an HDD and an SSD, and image processing related to image projection. An engine 34 to be performed, a display device 35 such as a touch panel and an input device 36, and a communication device 37 such as a communication interface are provided, and a hardware configuration using a normal computer is provided.

なお本実施形態では、情報処理システム1が、学校での授業などに使用される場合を例に取り説明するが、これに限定されるものではない。具体的には、教室などにいる教師及び複数の生徒それぞれが端末装置100を所持しており、撮像装置200は、教師及び複数の生徒の全員が収まるように教室内を時系列で撮像し、撮像した時系列の画像を情報処理装置300に出力する。そして情報処理装置300は、撮像装置200から出力された時系列の画像から、所定のジェスチャを行った教師又は生徒を特定し、特定した教師又は生徒が所持する端末装置100を、投影対象画像を情報処理装置300に出力する端末に選択し、選択した端末装置100から出力された投影対象画像を投影する。   In the present embodiment, the case where the information processing system 1 is used for a lesson at school will be described as an example. However, the present invention is not limited to this. Specifically, a teacher and a plurality of students in the classroom each have the terminal device 100, and the imaging device 200 images the classroom in time series so that all of the teacher and the plurality of students can be accommodated, The captured time-series images are output to the information processing apparatus 300. Then, the information processing apparatus 300 identifies the teacher or student who performed the predetermined gesture from the time-series images output from the imaging apparatus 200, and displays the terminal device 100 possessed by the identified teacher or student as the projection target image. The terminal to be output to the information processing apparatus 300 is selected, and the projection target image output from the selected terminal apparatus 100 is projected.

このように本実施形態の情報処理システム1では、教師又は生徒のジェスチャ(例えば、挙手)を認識することで、投影対象画像を情報処理装置300に出力する端末装置100の選択を自動化しているため、当該端末装置100の選択に時間を要さず、当該端末装置100の投影対象画像を情報処理装置300から即座に投影でき、授業の進行を阻害せず、授業の円滑な進行を支援できる。なお、以下の説明では、教師や生徒をユーザと称する場合もある。   As described above, in the information processing system 1 according to the present embodiment, the selection of the terminal device 100 that outputs the projection target image to the information processing device 300 is automated by recognizing the gesture of the teacher or student (for example, a raised hand). Therefore, it does not take time to select the terminal device 100, the projection target image of the terminal device 100 can be projected immediately from the information processing device 300, and the smooth progress of the lesson can be supported without hindering the progression of the lesson. . In the following description, teachers and students may be referred to as users.

図5は、本実施形態の端末装置100、撮像装置200、及び情報処理装置300の機能構成の一例を示すブロック図である。   FIG. 5 is a block diagram illustrating an example of functional configurations of the terminal device 100, the imaging device 200, and the information processing device 300 according to the present embodiment.

図5に示すように、端末装置100は、撮像部101と、登録要求部103と、実行制御部105と、を含む。撮像部101は、例えば、撮像装置17などにより実現できる。登録要求部103及び実行制御部105は、例えば、制御装置11、主記憶装置12及び通信装置16などにより実現できる。   As illustrated in FIG. 5, the terminal device 100 includes an imaging unit 101, a registration request unit 103, and an execution control unit 105. The imaging unit 101 can be realized by the imaging device 17 or the like, for example. The registration request unit 103 and the execution control unit 105 can be realized by the control device 11, the main storage device 12, the communication device 16, and the like, for example.

また図5に示すように、撮像装置200は、撮像部201と、画像送信部203と、を含む。撮像部201は、例えば、撮像装置27などにより実現できる。画像送信部203は、例えば、制御装置21、主記憶装置22及び通信装置26などにより実現できる。   As illustrated in FIG. 5, the imaging apparatus 200 includes an imaging unit 201 and an image transmission unit 203. The imaging unit 201 can be realized by the imaging device 27, for example. The image transmission unit 203 can be realized by the control device 21, the main storage device 22, the communication device 26, and the like, for example.

また図5に示すように、情報処理装置300は、登録部301と、ジェスチャ画像記憶部303と、端末識別情報記憶部305と、画像取得部307と、認識部309と、選択部311と、実行制御部313と、を含む。   As illustrated in FIG. 5, the information processing apparatus 300 includes a registration unit 301, a gesture image storage unit 303, a terminal identification information storage unit 305, an image acquisition unit 307, a recognition unit 309, a selection unit 311, An execution control unit 313.

登録部301、画像取得部307、及び実行制御部313は、例えば、制御装置31、主記憶装置32及び通信装置37などにより実現できる。ジェスチャ画像記憶部303及び端末識別情報記憶部305は、例えば、補助記憶装置33などにより実現できる。認識部309及び選択部311は、例えば、制御装置31及び主記憶装置32などにより実現できる。   The registration unit 301, the image acquisition unit 307, and the execution control unit 313 can be realized by the control device 31, the main storage device 32, the communication device 37, and the like, for example. The gesture image storage unit 303 and the terminal identification information storage unit 305 can be realized by the auxiliary storage device 33, for example. The recognition unit 309 and the selection unit 311 can be realized by the control device 31 and the main storage device 32, for example.

撮像部101は、認識部309の認識対象のジェスチャを示すジェスチャ画像を撮像したり、端末装置100を所持するユーザ(教師又は生徒)の顔画像を撮像したりする。本実施形態では、認識部309の認識対象のジェスチャが挙手である場合を例に取り説明するが、これに限定されるものではない。   The imaging unit 101 captures a gesture image indicating a gesture to be recognized by the recognition unit 309, or captures a face image of a user (teacher or student) who owns the terminal device 100. In the present embodiment, the case where the recognition target gesture of the recognition unit 309 is a hand is described as an example, but the present invention is not limited to this.

登録要求部103は、情報処理装置300に対し、撮像部101により撮像されたジェスチャ画像や、撮像部101により撮像された端末装置100を所持するユーザの顔画像と端末装置100を識別する端末識別情報との組の登録を要求する。本実施形態では、端末識別情報が端末装置100のIPアドレスである場合を例に取り説明するが、これに限定されるものではない。端末識別情報は、例えば、補助記憶装置13などに記憶されている。   The registration request unit 103 identifies, to the information processing device 300, a gesture image captured by the image capturing unit 101, a face image of a user possessing the terminal device 100 captured by the image capturing unit 101, and the terminal device 100. Request registration of pairs with information. In the present embodiment, the case where the terminal identification information is the IP address of the terminal device 100 will be described as an example, but the present invention is not limited to this. The terminal identification information is stored in the auxiliary storage device 13 or the like, for example.

また本実施形態では、ジェスチャ画像の登録要求、及び顔画像と端末識別情報との組の登録要求は、端末装置100と情報処理装置300との接続時に行われることを想定しているが、これに限定されるものではない。なお、ジェスチャ画像の登録要求は、任意の端末装置100が行えばよく、全ての端末装置100で行う必要はない。一方、顔画像と端末識別情報との組の登録要求は、全ての端末装置100で行う必要がある。   In the present embodiment, it is assumed that the registration request for the gesture image and the registration request for the set of the face image and the terminal identification information are performed when the terminal device 100 and the information processing device 300 are connected. It is not limited to. The gesture image registration request may be made by any terminal device 100, and need not be made by all the terminal devices 100. On the other hand, a registration request for a set of a face image and terminal identification information needs to be made by all the terminal devices 100.

登録部301は、端末装置100からジェスチャ画像の登録要求を受け付けると、当該ジェスチャ画像をジェスチャ画像記憶部303に登録する。また登録部301は、端末装置100から顔画像と端末識別情報との組の登録要求を受け付けると、当該顔画像と端末識別情報との組を端末識別情報記憶部305に登録する。なお、登録部301は、端末装置100と情報処理装置300との切断時に、端末識別情報記憶部305から、顔画像と当該端末装置100の端末識別情報との組を削除する。   Upon receiving a gesture image registration request from the terminal device 100, the registration unit 301 registers the gesture image in the gesture image storage unit 303. When the registration unit 301 receives a registration request for a set of a face image and terminal identification information from the terminal device 100, the registration unit 301 registers the set of the face image and terminal identification information in the terminal identification information storage unit 305. Note that the registration unit 301 deletes the set of the face image and the terminal identification information of the terminal device 100 from the terminal identification information storage unit 305 when the terminal device 100 and the information processing device 300 are disconnected.

撮像部201は、それぞれが端末装置100を所持する複数のユーザ(教師及び複数の生徒)の全員が収まるように教室内を時系列で撮像する。なお、撮像部201が撮像する時系列の撮像画像は、動画であってもよいし、静止画を定期的に撮像したものであってもよい。   The imaging unit 201 images the classroom in time series so that all of a plurality of users (teachers and a plurality of students) each possessing the terminal device 100 can be accommodated. Note that the time-series captured images captured by the imaging unit 201 may be moving images or may be images obtained by periodically capturing still images.

画像送信部203は、撮像部201により撮像された時系列の撮像画像を情報処理装置300に送信する。   The image transmission unit 203 transmits the time-series captured images captured by the imaging unit 201 to the information processing apparatus 300.

画像取得部307は、撮像装置200から、それぞれが端末装置100を所持する複数のユーザ(教師及び複数の生徒)を撮像した撮像画像を時系列で取得する。   The image acquisition unit 307 acquires captured images obtained by capturing a plurality of users (teachers and students) each possessing the terminal device 100 from the imaging device 200 in time series.

認識部309は、画像取得部307により時系列で取得された撮像画像に基づいて第1のジェスチャを認識し、当該撮像画像から当該第1のジェスチャを行ったユーザの顔画像を抽出する。本実施形態では、第1のジェスチャが左手の挙手である場合を例に取り説明するが、これに限定されるものではない。   The recognition unit 309 recognizes the first gesture based on the captured image acquired in time series by the image acquisition unit 307, and extracts the face image of the user who performed the first gesture from the captured image. In the present embodiment, the case where the first gesture is a left hand raising hand will be described as an example, but the present invention is not limited to this.

具体的には、認識部309は、画像取得部307により取得された前回の撮像画像(例えば、図6に示す画像)と、画像取得部307により取得された最新の撮像画像(例えば、図7に示す画像)と、の差分を抽出し、当該抽出した差分を示す差分画像(例えば、図8に示す画像)を生成する。なお、図6に示す画像では、誰も挙手していないが、図7に示す画像では、左のユーザが左手を挙手しているため、図8に示す差分画像は、左のユーザの挙手した左腕となっている。   Specifically, the recognition unit 309 includes the previous captured image (for example, the image illustrated in FIG. 6) acquired by the image acquisition unit 307 and the latest captured image (for example, FIG. 7) acquired by the image acquisition unit 307. And the difference image (for example, the image shown in FIG. 8) indicating the extracted difference is generated. In the image shown in FIG. 6, no one raises his hand, but in the image shown in FIG. 7, the left user raises his left hand, so the difference image shown in FIG. 8 is raised by the left user. Has left arm.

そして認識部309は、ジェスチャ画像記憶部303に記憶されているジェスチャ画像をテンプレートとして、差分画像に対するテンプレートマッチングを行い、ジェスチャ画像が示すジェスチャを検索する。例えば、図9に示す左腕を挙手したジェスチャ画像501がジェスチャ画像記憶部303に記憶されている場合、認識部309は、図9に示すように、ジェスチャ画像501をテンプレートとして、図8に示す差分画像に対するテンプレートマッチングを行う。この結果、図10に示すように、図8に示す差分画像上でテンプレートマッチングされた左腕の位置(詳細には、左腕を囲う矩形の左上の座標(X,Y)が特定される。   Then, the recognition unit 309 performs template matching on the difference image using the gesture image stored in the gesture image storage unit 303 as a template, and searches for a gesture indicated by the gesture image. For example, when the gesture image 501 raising the left arm shown in FIG. 9 is stored in the gesture image storage unit 303, the recognition unit 309 uses the gesture image 501 as a template as shown in FIG. Perform template matching on images. As a result, as shown in FIG. 10, the position of the left arm template-matched on the difference image shown in FIG. 8 (specifically, the upper left coordinates (X, Y) of the rectangle surrounding the left arm) is specified.

更に認識部309は、特定した左腕の位置(X,Y)に基づいて、画像取得部307により時系列で取得された最新の撮像画像(図7に示す画像)から、左手を挙手したユーザ(左のユーザ)の顔画像を切り出す。本実施形態では、認識した第1のジェスチャが左手の挙手であるため、認識部309は、図11に示すように、図7に示す画像の左上を原点として、(X−Z,Y)、(X,Y)、(X−Z,Y+Z)、(X,Y+Z)を頂点とする矩形を、左手を挙手したユーザ(左のユーザ)の顔画像として切り出す。なお、切り出される顔画像の位置は、これに限定されず、第1のジェスチャのパターンによって異なる。   Further, the recognition unit 309 raises the left hand from the latest captured image (image shown in FIG. 7) acquired in time series by the image acquisition unit 307 based on the specified position (X, Y) of the left arm. The face image of (user on the left) is cut out. In the present embodiment, since the recognized first gesture is the left hand raising hand, the recognition unit 309 uses (XZ, Y), with the upper left of the image shown in FIG. A rectangle having apexes (X, Y), (X−Z, Y + Z), and (X, Y + Z) is cut out as a face image of the user who raised his left hand (left user). Note that the position of the face image to be cut out is not limited to this, and varies depending on the pattern of the first gesture.

選択部311は、認識部309により抽出された顔画像と類似する顔画像に対応付けられた端末識別情報が示す端末装置100をサービス処理の対象端末に選択する。具体的には、端末識別情報記憶部305には、図12に示すように、端末装置100を識別する端末識別情報と、当該端末装置100を所持するユーザの顔画像と、が対応付けて記憶されているため、選択部311は、認識部309により抽出された顔画像と類似する顔画像に対応付けられた端末識別情報を取得し、取得した端末識別情報が示す端末装置100をサービス処理の対象端末に選択する。   The selection unit 311 selects the terminal device 100 indicated by the terminal identification information associated with the face image similar to the face image extracted by the recognition unit 309 as the target terminal for service processing. Specifically, as shown in FIG. 12, terminal identification information storage unit 305 stores terminal identification information for identifying terminal device 100 and a face image of the user who owns terminal device 100 in association with each other. Therefore, the selection unit 311 acquires terminal identification information associated with a face image similar to the face image extracted by the recognition unit 309, and uses the terminal device 100 indicated by the acquired terminal identification information for service processing. Select the target terminal.

なお、認識部309により抽出された顔画像と類似する顔画像は、例えば、端末識別情報記憶部305に記憶されている顔画像のうち、認識部309により抽出された顔画像と最も類似する顔画像とすればよい。例えば、図13に示す例の場合、端末識別情報記憶部305に記憶されている顔画像512〜515のうち、認識部309により抽出された顔画像511との類似度が最も高い顔画像514が、認識部309により抽出された顔画像511と類似する顔画像となる。なお、図13に示す例では、類似度は、0〜1の数値で表され、1に近づくほど類似度が高くなる。   Note that the face image similar to the face image extracted by the recognition unit 309 is the face most similar to the face image extracted by the recognition unit 309 among the face images stored in the terminal identification information storage unit 305, for example. It can be an image. For example, in the case of the example illustrated in FIG. 13, the face image 514 having the highest degree of similarity with the face image 511 extracted by the recognition unit 309 among the face images 512 to 515 stored in the terminal identification information storage unit 305. The face image is similar to the face image 511 extracted by the recognition unit 309. In the example illustrated in FIG. 13, the similarity is represented by a numerical value of 0 to 1, and the similarity increases as the value approaches 1.

また、認識部309により抽出された顔画像と類似する顔画像は、閾値以上の類似度であることを条件としてもよい。このようにすれば、顔ではない画像を顔画像として誤検出した場合であっても、挙手をしていないユーザの端末装置100が、投影対象画像を情報処理装置300に出力する端末として誤選択されてしまうことを防止できる。例えば、図14に示す例の場合、端末識別情報記憶部305に記憶されている顔画像522〜525のうち、認識部309により顔画像と誤検出された画像521との類似度が閾値以上のものはない。このため、画像521との類似度が最も高い顔画像523のユーザの端末装置100が、投影対象画像を情報処理装置300に出力する端末として誤選択されてしまうことを防止できる。   The face image similar to the face image extracted by the recognition unit 309 may be a condition that the similarity is equal to or higher than a threshold value. In this way, even if an image that is not a face is erroneously detected as a face image, the terminal device 100 of the user who has not raised his hand is erroneously selected as a terminal that outputs the projection target image to the information processing device 300 Can be prevented. For example, in the case of the example shown in FIG. 14, the similarity between the face image 522 to 525 stored in the terminal identification information storage unit 305 and the image 521 erroneously detected by the recognition unit 309 is greater than or equal to the threshold value. There is nothing. Therefore, it is possible to prevent the user's terminal device 100 of the face image 523 having the highest similarity with the image 521 from being erroneously selected as a terminal that outputs the projection target image to the information processing device 300.

なお、選択部311は、閾値の値を調整してもよい。例えば、選択部311は、図15に示すような認識精度設定画面を表示装置35上に表示し、ユーザによる入力装置36からの操作入力に基づいて、認識精度のレベルを設定することで、閾値の値を調整してもよい。このようにすれば、利用環境(明るさ等)に応じた最適な閾値を設定できる。   Note that the selection unit 311 may adjust the threshold value. For example, the selection unit 311 displays a recognition accuracy setting screen as illustrated in FIG. 15 on the display device 35, and sets the level of recognition accuracy based on an operation input from the input device 36 by the user, thereby setting a threshold value. The value of may be adjusted. In this way, an optimum threshold value can be set according to the use environment (brightness etc.).

実行制御部313は、選択部311により選択された端末装置100と通信し、サービス処理の実行を制御する。具体的には、実行制御部313は、選択部311により選択された端末装置100と通信し、端末装置100の実行制御部105と協働してサービス処理の実行を制御する。   The execution control unit 313 communicates with the terminal device 100 selected by the selection unit 311 and controls the execution of service processing. Specifically, the execution control unit 313 communicates with the terminal device 100 selected by the selection unit 311 and controls the execution of service processing in cooperation with the execution control unit 105 of the terminal device 100.

本実施形態では、サービス処理は、投影対象画像の投影であり、情報処理装置300による端末装置100が有するコンテンツの出力であるため、実行制御部313は、選択部311により選択された端末装置100と通信し、投影対象画像を要求する。実行制御部105は、端末装置100の表示装置14に表示されている画面をキャプチャして投影対象画像とし、情報処理装置300に出力する。そして実行制御部313は、端末装置100から出力された投影対象画像を投影する。   In the present embodiment, the service process is a projection of an image to be projected, and is an output of content held by the terminal device 100 by the information processing device 300. Therefore, the execution control unit 313 has the terminal device 100 selected by the selection unit 311. To request a projection target image. The execution control unit 105 captures the screen displayed on the display device 14 of the terminal device 100, sets it as a projection target image, and outputs it to the information processing device 300. Then, the execution control unit 313 projects the projection target image output from the terminal device 100.

なお、情報処理装置300による端末装置100が有するコンテンツの出力は、投影対象画像の投影に限定されず、印刷対象画像の印刷などであってもよい。また、サービス処理は、情報処理装置300が有するコンテンツの端末装置100への配信や、情報処理装置300による端末装置100のセキュリティレベルに応じた機器制御(扉のロック解除)などであってもよい。   Note that the content output of the terminal device 100 by the information processing apparatus 300 is not limited to the projection of the projection target image, and may be printing of the print target image. In addition, the service processing may be distribution of content of the information processing device 300 to the terminal device 100, device control (door unlocking) according to the security level of the terminal device 100 by the information processing device 300, or the like. .

図16は、本実施形態の情報処理システム1で実行される処理の一例を示すシーケンス図である。   FIG. 16 is a sequence diagram illustrating an example of processing executed in the information processing system 1 of the present embodiment.

まず、撮像部101は、認識部309の認識対象のジェスチャを示すジェスチャ画像を撮像する(ステップS101)。   First, the imaging unit 101 captures a gesture image indicating a gesture to be recognized by the recognition unit 309 (step S101).

続いて、登録要求部103は、情報処理装置300に対し、撮像部101により撮像されたジェスチャ画像の登録を要求する(ステップS103)。   Subsequently, the registration request unit 103 requests the information processing apparatus 300 to register the gesture image captured by the imaging unit 101 (step S103).

続いて、登録部301は、端末装置100からジェスチャ画像の登録要求を受け付けると、当該ジェスチャ画像をジェスチャ画像記憶部303に登録する(ステップS105)。   Subsequently, when receiving a gesture image registration request from the terminal device 100, the registration unit 301 registers the gesture image in the gesture image storage unit 303 (step S105).

続いて、撮像部101は、端末装置100を所持するユーザ(教師又は生徒)の顔画像を撮像する(ステップS107)。   Subsequently, the imaging unit 101 captures a face image of the user (teacher or student) who owns the terminal device 100 (step S107).

続いて、登録要求部103は、情報処理装置300に対し、撮像部101により撮像された端末装置100を所持するユーザの顔画像と端末装置100を識別する端末識別情報との組の登録を要求する(ステップS109)。   Subsequently, the registration request unit 103 requests the information processing device 300 to register a set of a face image of the user who has the terminal device 100 captured by the imaging unit 101 and terminal identification information for identifying the terminal device 100. (Step S109).

続いて、登録部301は、端末装置100から顔画像と端末識別情報との組の登録要求を受け付けると、当該顔画像と端末識別情報との組を端末識別情報記憶部305に登録する(ステップS111)。   Subsequently, when the registration unit 301 receives a registration request for a set of a face image and terminal identification information from the terminal device 100, the registration unit 301 registers the set of the face image and terminal identification information in the terminal identification information storage unit 305 (Step S1). S111).

続いて、撮像部201は、それぞれが端末装置100を所持する複数のユーザ(教師及び複数の生徒)の全員が収まるように教室内などの空間を時系列で撮像する(ステップS121)。   Subsequently, the imaging unit 201 images a space such as a classroom in time series so that all of a plurality of users (teacher and a plurality of students) each possessing the terminal device 100 can be accommodated (step S121).

続いて、画像送信部203は、撮像部201により撮像された時系列の撮像画像を情報処理装置300に送信し、画像取得部307は、撮像装置200から、撮像画像を時系列で取得する(ステップS123)。   Subsequently, the image transmission unit 203 transmits the time-series captured images captured by the imaging unit 201 to the information processing apparatus 300, and the image acquisition unit 307 acquires the captured images from the imaging apparatus 200 in time series ( Step S123).

続いて、認識部309は、画像取得部307により時系列で取得された撮像画像に基づいて第1のジェスチャを認識し、当該撮像画像から当該第1のジェスチャを行ったユーザの顔画像を抽出する(ステップS125)。   Subsequently, the recognition unit 309 recognizes the first gesture based on the captured image acquired in time series by the image acquisition unit 307, and extracts the face image of the user who performed the first gesture from the captured image. (Step S125).

続いて、選択部311は、認識部309により抽出された顔画像と類似する顔画像に対応付けられた端末識別情報が示す端末装置100をサービス処理の対象端末(投影対象の端末装置)に選択する(ステップS127)。   Subsequently, the selection unit 311 selects the terminal device 100 indicated by the terminal identification information associated with the face image similar to the face image extracted by the recognition unit 309 as the target terminal (projection target terminal device) for service processing. (Step S127).

続いて、実行制御部313は、選択部311により選択された端末装置100に、投影対象画像を要求する(ステップS129)。   Subsequently, the execution control unit 313 requests a projection target image from the terminal device 100 selected by the selection unit 311 (step S129).

続いて、実行制御部105は、端末装置100の表示装置14に表示されている画面をキャプチャして投影対象画像とし(ステップS131)、情報処理装置300に出力する(ステップS133)。   Subsequently, the execution control unit 105 captures the screen displayed on the display device 14 of the terminal device 100 as a projection target image (step S131), and outputs it to the information processing device 300 (step S133).

続いて、実行制御部313は、端末装置100から出力された投影対象画像を投影する(ステップS135)。   Subsequently, the execution control unit 313 projects the projection target image output from the terminal device 100 (step S135).

図17は、本実施形態の認識部309で実行される処理の一例を示すフローチャートである。   FIG. 17 is a flowchart illustrating an example of processing executed by the recognition unit 309 according to the present embodiment.

まず、認識部309は、画像取得部307により取得された最新の撮像画像(例えば、図7に示す画像)を取得する(ステップS201)。   First, the recognition unit 309 acquires the latest captured image (for example, the image shown in FIG. 7) acquired by the image acquisition unit 307 (step S201).

続いて、認識部309は、最新の撮像画像(例えば、図7に示す画像)と、画像取得部307により取得された前回の撮像画像(例えば、図6に示す画像)と、の差分を抽出し、当該抽出した差分を示す差分画像(例えば、図8に示す画像)を生成する(ステップS203)。   Subsequently, the recognition unit 309 extracts a difference between the latest captured image (for example, the image illustrated in FIG. 7) and the previous captured image (for example, the image illustrated in FIG. 6) acquired by the image acquisition unit 307. Then, a difference image (for example, the image shown in FIG. 8) indicating the extracted difference is generated (step S203).

続いて、認識部309は、ジェスチャ画像記憶部303に記憶されているジェスチャ画像をテンプレートとして、差分画像に対するテンプレートマッチングを行い、ジェスチャ画像が示す所定のジェスチャを検索する(ステップS205)。   Subsequently, the recognition unit 309 performs template matching on the difference image using the gesture image stored in the gesture image storage unit 303 as a template, and searches for a predetermined gesture indicated by the gesture image (step S205).

ジェスチャが検索された場合(ステップS207でYes)、認識部309は、最新の撮像画像(図7に示す画像)から、検索されたジェスチャ近傍の部分画像を、所定のジェスチャを行ったユーザの顔画像として切り出す(ステップS209)。   When the gesture is searched (Yes in step S207), the recognition unit 309 detects the partial image near the searched gesture from the latest captured image (the image shown in FIG. 7), and the face of the user who performed the predetermined gesture Cut out as an image (step S209).

なお、ジェスチャが検索されなかった場合(ステップS207でNo)、ステップS209の処理は実行されない。   If no gesture is found (No in step S207), the process in step S209 is not executed.

以上のように本実施形態によれば、ユーザ(教師又は生徒)のジェスチャ(例えば、挙手)を認識することで、投影対象画像を情報処理装置300に出力する端末装置100の選択を自動化しているため、当該端末装置100の選択に時間を要さず、当該端末装置100の投影対象画像を情報処理装置300から即座に投影でき、授業の進行を阻害せず、授業の円滑な進行を支援できる。   As described above, according to the present embodiment, the selection of the terminal device 100 that outputs the projection target image to the information processing device 300 is automated by recognizing the gesture (for example, the raising hand) of the user (teacher or student). Therefore, it does not take time to select the terminal device 100, the projection target image of the terminal device 100 can be immediately projected from the information processing device 300, and the smooth progress of the lesson is supported without impeding the progression of the lesson. it can.

(変形例1)
上記実施形態において、認識部309は、一定時間の間に時系列で取得された撮像画像に基づいて、第1のジェスチャを認識するようにしてもよい。このようにすれば、図18に示すように、一定時間の間に、時間差で異なるユーザが挙手を行った場合であっても、最初に挙手をしたユーザではなく、2番目に挙手をしたユーザが所持する端末装置100を選択することもできる。
(Modification 1)
In the above embodiment, the recognition unit 309 may recognize the first gesture based on a captured image acquired in time series during a certain time. In this way, as shown in FIG. 18, even if different users raise their hands for a certain period of time, they raise their hands second instead of raising their hands first. It is also possible to select the terminal device 100 possessed by.

なお、図18に示す例では、撮像画像602を最新の撮像画像、撮像画像601を前回の撮像画像としてジェスチャ認識を行った場合、左のユーザの挙手が認識され、撮像画像603を最新の撮像画像、撮像画像602を前回の撮像画像としてジェスチャ認識を行った場合、右のユーザの挙手が認識される。   In the example illustrated in FIG. 18, when gesture recognition is performed using the captured image 602 as the latest captured image and the captured image 601 as the previous captured image, the left user's hand is recognized, and the captured image 603 is captured as the latest captured image. When gesture recognition is performed using the image and the captured image 602 as the previous captured image, the hand raised by the right user is recognized.

また、一定時間については、上記実施形態で説明した閾値のように、ユーザが時間を設定できるようにしてもよい。   Moreover, about a fixed time, you may enable it for a user to set time like the threshold value demonstrated in the said embodiment.

そして認識部309は、第1のジェスチャを複数認識した場合、当該第1のジェスチャを行った複数のユーザそれぞれの顔画像を抽出する。   When the recognition unit 309 recognizes a plurality of first gestures, the recognition unit 309 extracts face images of a plurality of users who have performed the first gesture.

なお、変形例1では、端末識別情報記憶部305には、図19に示すように、端末装置100を識別する端末識別情報と、当該端末装置100を所持するユーザの顔画像と、当該端末装置100を所持するユーザの優先度と、を対応付けて記憶されている。優先度は、値が小さいほど高いものとするが、これに限定されるものではない。   In Modification 1, as shown in FIG. 19, the terminal identification information storage unit 305 stores terminal identification information for identifying the terminal device 100, a face image of the user who owns the terminal device 100, and the terminal device. The priority of the user who owns 100 is stored in association with each other. The priority is higher as the value is smaller, but is not limited to this.

そして選択部311は、認識部309により抽出された複数の顔画像それぞれに類似する顔画像のうち優先度が最も高い顔画像に対応付けられた端末識別情報が示す端末装置100をサービス処理の対象端末に選択する。   Then, the selection unit 311 selects the terminal device 100 indicated by the terminal identification information associated with the face image having the highest priority among the face images similar to each of the plurality of face images extracted by the recognition unit 309 as the target of service processing. Select to the terminal.

以上より、一定時間内に複数のユーザが挙手した場合には、優先度が最も高いユーザが所持する端末装置100がサービス処理の対象端末に選択される。例えば、生徒よりも教師の優先度を高くすれば、生徒と教師が挙手した場合には、教師が所持する端末装置100がサービス処理の対象端末に優先的に選択される。   As described above, when a plurality of users raise their hands within a certain time, the terminal device 100 possessed by the user with the highest priority is selected as a target terminal for service processing. For example, if the priority of the teacher is set higher than that of the student, when the student and the teacher raise their hands, the terminal device 100 possessed by the teacher is preferentially selected as the target terminal for service processing.

(変形例2)
上記実施形態において、複数種類のジェスチャそれぞれが第1のジェスチャであってもよい。具体的には、撮像部101は、認識部309の認識対象のジェスチャを示すジェスチャ画像を複数種類撮像し、登録要求部103は、情報処理装置300に対し、撮像部101により撮像された複数種類のジェスチャ画像の登録を要求し、登録部301は、端末装置100から複数種類のジェスチャ画像の登録要求を受け付けると、図20に示すように、当該複数種類のジェスチャ画像をジェスチャ画像記憶部303に登録してもよい。
(Modification 2)
In the above embodiment, each of the plurality of types of gestures may be the first gesture. Specifically, the imaging unit 101 captures a plurality of types of gesture images indicating gestures to be recognized by the recognition unit 309, and the registration request unit 103 captures the information processing apparatus 300 from the plurality of types captured by the imaging unit 101. When the registration unit 301 receives a registration request for a plurality of types of gesture images from the terminal device 100, the registration unit 301 stores the plurality of types of gesture images in the gesture image storage unit 303 as illustrated in FIG. You may register.

このようにすれば、複数種類のジェスチャ画像を用いてジェスチャが認識されるため、サービス処理の対象端末に選択させるためのジェスチャのパターンを様々用意することができる。   In this way, since gestures are recognized using a plurality of types of gesture images, it is possible to prepare various gesture patterns for causing a service processing target terminal to select.

(変形例3)
変形例2において、ジェスチャの種類毎に、サービス処理においてジェスチャに応じた動作を実行させるようにしてもよい。例えば、ジェスチャ画像記憶部303に、図21に示すように、ジェスチャ画像と、当該ジェスチャ画像が示すジェスチャに応じた動作例とを対応付けた情報を登録するようにしてもよい。この場合、登録要求部103は、ジェスチャ画像と当該ジェスチャ画像が示すジェスチャに応じた動作例を示す情報との組を含めて登録要求を行えばよい。
(Modification 3)
In the second modification, an operation corresponding to the gesture may be executed in the service process for each type of gesture. For example, as shown in FIG. 21, information that associates a gesture image with an operation example corresponding to the gesture indicated by the gesture image may be registered in the gesture image storage unit 303. In this case, the registration request unit 103 may make a registration request including a pair of a gesture image and information indicating an operation example corresponding to the gesture indicated by the gesture image.

なお、変形例3では、第1のジェスチャは、サービス処理を開始させる開始ジェスチャであるものとする。具体的には、第1のジェスチャは、図21のIDが1の右手を挙手するジェスチャであり、投影対象画像の投影を開始するジェスチャとする。また、第2のジェスチャは、サービス処理を終了させる終了ジェスチャであるものとする。具体的には、第2のジェスチャは、図21のIDが2の左手を挙手するジェスチャであり、投影対象画像の投影を終了するジェスチャとする。   In the third modification, it is assumed that the first gesture is a start gesture for starting a service process. Specifically, the first gesture is a gesture of raising the right hand whose ID is 1 in FIG. 21 and is a gesture for starting projection of the projection target image. In addition, the second gesture is an end gesture for ending service processing. Specifically, the second gesture is a gesture that raises the left hand whose ID is 2 in FIG. 21 and is a gesture that ends the projection of the projection target image.

この場合、認識部309が第1のジェスチャを認識した場合の認識部309、選択部311、及び実行制御部313の動作は、実施形態と同様である。なお、実行制御部313は、サービス処理の対象端末に選択された端末装置100と通信し、サービス処理の実行を開始する。   In this case, the operations of the recognition unit 309, the selection unit 311, and the execution control unit 313 when the recognition unit 309 recognizes the first gesture are the same as those in the embodiment. Note that the execution control unit 313 communicates with the terminal device 100 selected as the service processing target terminal, and starts executing the service processing.

一方、認識部309が第2のジェスチャを認識した場合、実行制御部313は、サービス処理が開始された端末装置100と通信し、サービス処理において第2のジェスチャに応じた動作を実行させる。具体的には、実行制御部313は、サービス処理が開始された端末装置100と通信し、サービス処理を終了させる。   On the other hand, when the recognizing unit 309 recognizes the second gesture, the execution control unit 313 communicates with the terminal device 100 in which the service process is started, and causes the service process to execute an operation corresponding to the second gesture. Specifically, the execution control unit 313 communicates with the terminal device 100 where the service process is started, and ends the service process.

例えば、実行制御部313は、投影対象画像の投影が開始された端末装置100と通信し、投影対象画像の投影を終了させる。具体的には、実行制御部313は、投影対象画像の投影が開始された端末装置100に、投影対象画像の出力停止を要求し、実行制御部105は、端末装置100の表示装置14に表示されている画面のキャプチャ及び投影対象画像の情報処理装置300への出力を停止し、実行制御部313は、投影対象画像の投影を中止する。   For example, the execution control unit 313 communicates with the terminal device 100 where the projection of the projection target image is started, and ends the projection of the projection target image. Specifically, the execution control unit 313 requests the terminal device 100 that has started projecting the projection target image to stop outputting the projection target image, and the execution control unit 105 displays the display on the display device 14 of the terminal device 100. The screen capture and the output of the projection target image to the information processing apparatus 300 are stopped, and the execution control unit 313 stops the projection of the projection target image.

このようにすれば、複数種類のジェスチャを用いて、サービス処理において様々な動作を実行させることができる。   In this way, various operations can be executed in service processing using a plurality of types of gestures.

(変形例4)
変形例3において、第2のジェスチャを行ったユーザが第1のジェスチャを行ったユーザと同一人物であるか否かで、第2のジェスチャに応じた動作の実行可否を制御してもよい。
(Modification 4)
In the third modification, whether or not to execute the operation according to the second gesture may be controlled based on whether or not the user who performed the second gesture is the same person as the user who performed the first gesture.

図22は、変形例4の端末装置100、撮像装置200、及び情報処理装置1300の機能構成の一例を示すブロック図である。図22に示すように、情報処理装置1300は、操作可否情報記憶部1315を更に含む。   FIG. 22 is a block diagram illustrating an example of functional configurations of the terminal device 100, the imaging device 200, and the information processing device 1300 according to the fourth modification. As illustrated in FIG. 22, the information processing device 1300 further includes an operation availability information storage unit 1315.

操作可否情報記憶部1315は、対象者と操作の可否とを対応付けた情報であり、図23に示す例では、対象者が本人(同一人物)であれば、操作が許可され、対象者が本人以外(他人)であれば、操作が不許可となる。   The operation availability information storage unit 1315 is information in which the target person is associated with the operation availability. In the example illustrated in FIG. 23, if the target person is the same person (the same person), the operation is permitted, and the target person is If it is not the person (other person), the operation is not permitted.

変形例4では、認識部309は、撮像画像から第2のジェスチャを行ったユーザの顔画像を抽出し、選択部311は、抽出された顔画像と類似する顔画像を選択する。   In the fourth modification, the recognition unit 309 extracts the face image of the user who performed the second gesture from the captured image, and the selection unit 311 selects a face image similar to the extracted face image.

そして実行制御部313は、第1のジェスチャを行ったユーザの顔画像と類似する顔画像と、第2のジェスチャを行ったユーザの顔画像と類似する顔画像とが一致し、かつ操作可否情報記憶部1315において、サービス処理を開始した本人による操作の可否を定義した本人操作可否情報(対象者が本人の場合の操作の可否)が操作可を示す場合、サービス処理が開始された端末装置100と通信し、サービス処理を終了させる。   Then, the execution control unit 313 matches the face image similar to the face image of the user who performed the first gesture with the face image similar to the face image of the user who performed the second gesture, and operation availability information In the storage unit 1315, when the principal operation availability information that defines whether or not an operation can be performed by the person who started the service process (operation availability when the target person is the person) indicates that the operation is possible, the terminal device 100 that has started the service process To finish the service processing.

また実行制御部313は、第1のジェスチャを行ったユーザの顔画像と類似する顔画像と、第2のジェスチャを行ったユーザの顔画像と類似する顔画像とが一致せず、かつ操作可否情報記憶部1315において、サービス処理を開始した本人以外による操作の可否を定義した他人操作可否情報(対象者が本人以外の場合の操作の可否)が操作可を示す場合、サービス処理が開始された端末装置100と通信し、サービス処理を終了させる。   Further, the execution control unit 313 does not match the face image similar to the face image of the user who performed the first gesture and the face image similar to the face image of the user who performed the second gesture, and whether or not the operation can be performed. In the information storage unit 1315, the service process is started when the other person operation availability information that defines whether or not an operation other than the person who started the service process is permitted (operation availability when the target person is not the person) indicates the operation is possible. It communicates with the terminal device 100 and ends the service process.

このようにすれば、サービス処理を開始した本人以外によるサービス処理に関する操作を防止できる。   In this way, it is possible to prevent an operation related to service processing by a person other than the person who started the service processing.

なお、図23に示す例において、対象者が本人(同一人物)であれば、操作が不許可となり、対象者が本人以外(他人)であれば、操作が許可となるようにしてもよい。このようにすれば、生徒が開始したサービス処理を、先生が終了させるなどとすることができる。   In the example shown in FIG. 23, if the target person is the person (same person), the operation is not permitted, and if the target person is other than the person (other person), the operation may be permitted. In this way, the service process started by the student can be terminated by the teacher.

(プログラム)
上記実施形態の端末装置100、撮像装置200、及び情報処理装置300(以下、「上記実施形態及び各変形例の各装置」と称する)で実行されるプログラムは、インストール可能な形式又は実行可能な形式のファイルでCD−ROM、CD−R、メモリカード、DVD(Digital Versatile Disk)、フレキシブルディスク(FD)等のコンピュータで読み取り可能な記憶媒体に記憶されて提供される。
(program)
A program executed by the terminal device 100, the imaging device 200, and the information processing device 300 (hereinafter referred to as “each device of the above-described embodiment and each modified example”) of the above-described embodiment is an installable format or executable The format file is provided by being stored in a computer-readable storage medium such as a CD-ROM, CD-R, memory card, DVD (Digital Versatile Disk), or flexible disk (FD).

また、上記実施形態及び各変形例の各装置で実行されるプログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するようにしてもよい。また、上記実施形態及び各変形例の各装置で実行されるプログラムを、インターネット等のネットワーク経由で提供または配布するようにしてもよい。また、上記実施形態及び各変形例の各装置で実行されるプログラムを、ROM等に予め組み込んで提供するようにしてもよい。   Further, the program executed by each device of the above-described embodiment and each modified example may be provided by being stored on a computer connected to a network such as the Internet and downloaded via the network. In addition, the program executed by each device of the above embodiment and each modification may be provided or distributed via a network such as the Internet. Further, the program executed by each device of the above-described embodiment and each modification may be provided by being incorporated in advance in a ROM or the like.

上記実施形態及び各変形例の各装置で実行されるプログラムは、上述した各部をコンピュータ上で実現させるためのモジュール構成となっている。実際のハードウェアとしては、例えば、CPUがROMからプログラムをRAM上に読み出して実行することにより、上記各機能部がコンピュータ上で実現されるようになっている。   The program executed by each device of the embodiment and each modification has a module configuration for realizing the above-described units on a computer. As actual hardware, for example, the CPU reads out a program from the ROM to the RAM and executes the program, so that each functional unit is realized on the computer.

なお、上記実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。上記新規な実施の形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これらの実施の形態は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。   The above embodiment is presented as an example, and is not intended to limit the scope of the invention. The above-described novel embodiments can be implemented in various other forms, and various omissions, replacements, and changes can be made without departing from the spirit of the invention. These embodiments are included in the scope and gist of the invention, and are included in the invention described in the claims and the equivalents thereof.

1 情報処理システム
2 ネットワーク
100−1〜100−N(100) 端末装置
101 撮像部
103 登録要求部
105 実行制御部
200 撮像装置
201 撮像部
203 画像送信部
300、1300 情報処理装置
301 登録部
303 ジェスチャ画像記憶部
305 端末識別情報記憶部
307 画像取得部
309 認識部
311 選択部
313 実行制御部
1315 操作可否情報記憶部
DESCRIPTION OF SYMBOLS 1 Information processing system 2 Network 100-1 to 100-N (100) Terminal device 101 Imaging part 103 Registration request part 105 Execution control part 200 Imaging apparatus 201 Imaging part 203 Image transmission part 300, 1300 Information processing apparatus 301 Registration part 303 Gesture Image storage unit 305 Terminal identification information storage unit 307 Image acquisition unit 309 Recognition unit 311 Selection unit 313 Execution control unit 1315 Operation availability information storage unit

特開2014−044738号公報JP 2014-044738 A

Claims (13)

端末装置を識別する端末識別情報と、当該端末装置を所持するユーザの顔画像と、を対応付けて記憶する端末識別情報記憶部と、
それぞれが端末装置を所持する複数のユーザを撮像した撮像画像を時系列で取得する画像取得部と、
前記時系列で取得された撮像画像に基づいて第1のジェスチャを認識し、当該撮像画像から当該第1のジェスチャを行ったユーザの顔画像を抽出する認識部と、
前記抽出された顔画像と類似する顔画像に対応付けられた端末識別情報が示す端末装置をサービス処理の対象端末に選択する選択部と、
前記選択された端末装置と通信し、前記サービス処理の実行を制御する実行制御部と、
を備える情報処理装置。
A terminal identification information storage unit for storing terminal identification information for identifying a terminal device and a face image of a user possessing the terminal device in association with each other;
An image acquisition unit that acquires, in time series, captured images obtained by imaging a plurality of users each possessing a terminal device;
A recognition unit that recognizes a first gesture based on the captured image acquired in time series, and extracts a face image of the user who performed the first gesture from the captured image;
A selection unit that selects, as a target terminal for service processing, a terminal device indicated by terminal identification information associated with a face image similar to the extracted face image;
An execution control unit that communicates with the selected terminal device and controls execution of the service process;
An information processing apparatus comprising:
前記選択部は、前記抽出された顔画像との類似度が閾値以上かつ最も高い顔画像に対応付けられた端末識別情報が示す端末装置を前記サービス処理の対象端末に選択する請求項1に記載の情報処理装置。   The said selection part selects the terminal device which the terminal identification information matched with the face image whose similarity with the said extracted face image is more than a threshold value and which is the highest as a target terminal of the said service process. Information processing device. 前記選択部は、前記閾値の値を調整する請求項2に記載の情報処理装置。   The information processing apparatus according to claim 2, wherein the selection unit adjusts the threshold value. 前記端末識別情報記憶部は、更に優先度を対応付けて記憶し、
前記認識部は、一定時間の間に前記時系列で取得された撮像画像に基づいて、前記第1のジェスチャを認識し、当該第1のジェスチャを複数認識した場合、当該第1のジェスチャを行った複数のユーザそれぞれの顔画像を抽出し、
前記選択部は、前記抽出された複数の顔画像それぞれに類似する顔画像のうち優先度が最も高い顔画像に対応付けられた端末識別情報が示す端末装置を前記サービス処理の対象端末に選択する請求項1〜3のいずれか1つに記載の情報処理装置。
The terminal identification information storage unit further stores the priority in association with each other,
The recognizing unit recognizes the first gesture based on the captured images acquired in time series during a predetermined time, and performs the first gesture when a plurality of the first gestures are recognized. Multiple face images of each user
The selection unit selects, as a target terminal for the service process, a terminal device indicated by terminal identification information associated with a face image having the highest priority among face images similar to each of the extracted face images. The information processing apparatus according to any one of claims 1 to 3.
複数種類のジェスチャそれぞれが前記第1のジェスチャである請求項1〜4のいずれか1つに記載の情報処理装置。   The information processing apparatus according to claim 1, wherein each of a plurality of types of gestures is the first gesture. 前記第1のジェスチャは、前記サービス処理を開始させる開始ジェスチャであり、
前記実行制御部は、前記サービス処理の対象端末に選択された端末装置と通信し、前記サービス処理の実行を開始し、
前記認識部は、前記時系列で取得された撮像画像に基づいて第2のジェスチャを認識し、
前記実行制御部は、前記第2のジェスチャが認識された場合、前記サービス処理が開始された端末装置と通信し、前記サービス処理において前記第2のジェスチャに応じた動作を実行させる請求項1〜4のいずれか1つに記載の情報処理装置。
The first gesture is a start gesture for starting the service process,
The execution control unit communicates with a terminal device selected as a target terminal for the service process, and starts executing the service process,
The recognition unit recognizes a second gesture based on the captured image acquired in the time series,
The said execution control part communicates with the terminal device from which the said service process was started, when the said 2nd gesture is recognized, and performs the operation | movement according to the said 2nd gesture in the said service process. 5. The information processing apparatus according to any one of 4.
前記第2のジェスチャは、前記サービス処理を終了させる終了ジェスチャであり、
前記実行制御部は、前記第2のジェスチャが認識された場合、前記サービス処理が開始された端末装置と通信し、前記サービス処理を終了させる請求項6に記載の情報処理装置。
The second gesture is an end gesture for ending the service process,
The information processing apparatus according to claim 6, wherein when the second gesture is recognized, the execution control unit communicates with a terminal device that has started the service process, and ends the service process.
前記認識部は、前記撮像画像から前記第2のジェスチャを行ったユーザの顔画像を抽出し、
前記選択部は、前記抽出された顔画像と類似する顔画像を選択し、
前記実行制御部は、前記第1のジェスチャを行ったユーザの顔画像と類似する顔画像と、前記第2のジェスチャを行ったユーザの顔画像と類似する顔画像とが一致し、かつ前記サービス処理を開始した本人による操作の可否を定義した本人操作可否情報が操作可を示す場合、前記サービス処理が開始された端末装置と通信し、前記サービス処理を終了させる請求項7に記載の情報処理装置。
The recognizing unit extracts a face image of a user who has performed the second gesture from the captured image;
The selection unit selects a face image similar to the extracted face image;
The execution control unit matches the face image similar to the face image of the user who performed the first gesture and the face image similar to the face image of the user who performed the second gesture, and the service The information processing according to claim 7, wherein if the principal operation availability information that defines whether or not an operation can be performed by the person who has started the processing indicates that the operation is possible, the information processing apparatus communicates with the terminal device that has started the service processing and ends the service processing. apparatus.
前記認識部は、前記撮像画像から前記第2のジェスチャを行ったユーザの顔画像を抽出し、
前記選択部は、前記抽出された顔画像と類似する顔画像を選択し、
前記実行制御部は、前記第1のジェスチャを行ったユーザの顔画像と類似する顔画像と、前記第2のジェスチャを行ったユーザの顔画像と類似する顔画像とが一致せず、かつ前記サービス処理を開始した本人以外による操作の可否を定義した他人操作可否情報が操作可を示す場合、前記サービス処理が開始された端末装置と通信し、前記サービス処理を終了させる請求項7又は8に記載の情報処理装置。
The recognizing unit extracts a face image of a user who has performed the second gesture from the captured image;
The selection unit selects a face image similar to the extracted face image;
The execution control unit does not match a face image similar to the face image of the user who performed the first gesture and a face image similar to the face image of the user who performed the second gesture, and The apparatus according to claim 7 or 8, wherein when other person operation availability information defining whether or not an operation by a person other than the person who started the service process is operable indicates communication is possible, the service process is terminated by communicating with the terminal device from which the service process has been started. The information processing apparatus described.
前記サービス処理は、前記情報処理装置による前記端末装置が有するコンテンツの出力、前記情報処理装置が有するコンテンツの前記端末装置への配信、及び前記情報処理装置による前記端末装置のセキュリティレベルに応じた機器制御の少なくともいずれかである請求項1〜7のいずれか1つに記載の情報処理装置。   The service processing includes: output of content of the terminal device by the information processing device; distribution of content of the information processing device to the terminal device; and equipment according to the security level of the terminal device by the information processing device The information processing apparatus according to claim 1, wherein the information processing apparatus is at least one of controls. 端末装置を識別する端末識別情報と、当該端末装置を所持するユーザの顔画像と、を対応付けて記憶する端末識別情報記憶部と、
それぞれが端末装置を所持する複数のユーザを時系列で撮像する撮像部と、
前記撮像部により撮像された撮像画像を時系列で取得する画像取得部と、
前記時系列で取得された撮像画像に基づいて第1のジェスチャを認識し、当該撮像画像から当該第1のジェスチャを行ったユーザの顔画像を抽出する認識部と、
前記抽出された顔画像と類似する顔画像に対応付けられた端末識別情報が示す端末装置をサービス処理の対象端末に選択する選択部と、
前記選択された端末装置と通信し、前記サービス処理の実行を制御する実行制御部と、 を備える情報処理システム。
A terminal identification information storage unit for storing terminal identification information for identifying a terminal device and a face image of a user possessing the terminal device in association with each other;
An imaging unit that images a plurality of users each possessing a terminal device in time series,
An image acquisition unit that acquires captured images captured by the imaging unit in time series;
A recognition unit that recognizes a first gesture based on the captured image acquired in time series, and extracts a face image of the user who performed the first gesture from the captured image;
A selection unit that selects, as a target terminal for service processing, a terminal device indicated by terminal identification information associated with a face image similar to the extracted face image;
An information processing system comprising: an execution control unit that communicates with the selected terminal device and controls execution of the service process.
端末装置を識別する端末識別情報と、当該端末装置を所持するユーザの顔画像と、を対応付けて記憶する端末識別情報記憶ステップと、
それぞれが端末装置を所持する複数のユーザを撮像した撮像画像を時系列で取得する画像取得ステップと、
前記時系列で取得された撮像画像に基づいて第1のジェスチャを認識し、当該撮像画像から当該第1のジェスチャを行ったユーザの顔画像を抽出する認識ステップと、
前記抽出された顔画像と類似する顔画像に対応付けられた端末識別情報が示す端末装置をサービス処理の対象端末に選択する選択ステップと、
前記選択された端末装置と通信し、前記サービス処理の実行を制御する実行制御ステップと、
を含むサービス処理実行制御方法。
A terminal identification information storage step for storing the terminal identification information for identifying the terminal device and the face image of the user possessing the terminal device in association with each other;
An image acquisition step of acquiring, in time series, captured images obtained by imaging a plurality of users each possessing a terminal device;
A recognition step of recognizing a first gesture based on the captured image acquired in time series, and extracting a face image of the user who performed the first gesture from the captured image;
A selection step of selecting a terminal device indicated by terminal identification information associated with a face image similar to the extracted face image as a target terminal for service processing;
An execution control step of communicating with the selected terminal device and controlling execution of the service process;
Service processing execution control method including:
端末装置を識別する端末識別情報と、当該端末装置を所持するユーザの顔画像と、を対応付けて記憶する端末識別情報記憶ステップと、
それぞれが端末装置を所持する複数のユーザを撮像した撮像画像を時系列で取得する画像取得ステップと、
前記時系列で取得された撮像画像に基づいて第1のジェスチャを認識し、当該撮像画像から当該第1のジェスチャを行ったユーザの顔画像を抽出する認識ステップと、
前記抽出された顔画像と類似する顔画像に対応付けられた端末識別情報が示す端末装置をサービス処理の対象端末に選択する選択ステップと、
前記選択された端末装置と通信し、前記サービス処理の実行を制御する実行制御ステップと、
をコンピュータに実行させるためのプログラム。
A terminal identification information storage step for storing the terminal identification information for identifying the terminal device and the face image of the user possessing the terminal device in association with each other;
An image acquisition step of acquiring, in time series, captured images obtained by imaging a plurality of users each possessing a terminal device;
A recognition step of recognizing a first gesture based on the captured image acquired in time series, and extracting a face image of the user who performed the first gesture from the captured image;
A selection step of selecting a terminal device indicated by terminal identification information associated with a face image similar to the extracted face image as a target terminal for service processing;
An execution control step of communicating with the selected terminal device and controlling execution of the service process;
A program that causes a computer to execute.
JP2016056299A 2016-03-18 2016-03-18 Information processing equipment, information processing system, service processing execution control method and program Expired - Fee Related JP6790396B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016056299A JP6790396B2 (en) 2016-03-18 2016-03-18 Information processing equipment, information processing system, service processing execution control method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016056299A JP6790396B2 (en) 2016-03-18 2016-03-18 Information processing equipment, information processing system, service processing execution control method and program

Publications (2)

Publication Number Publication Date
JP2017173927A true JP2017173927A (en) 2017-09-28
JP6790396B2 JP6790396B2 (en) 2020-11-25

Family

ID=59971196

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016056299A Expired - Fee Related JP6790396B2 (en) 2016-03-18 2016-03-18 Information processing equipment, information processing system, service processing execution control method and program

Country Status (1)

Country Link
JP (1) JP6790396B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022520030A (en) * 2019-10-22 2022-03-28 上▲海▼商▲湯▼智能科技有限公司 Gesture control method and device

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011013605A1 (en) * 2009-07-27 2011-02-03 三洋電機株式会社 Presentation system
JP2012191568A (en) * 2011-03-14 2012-10-04 Ricoh Co Ltd Image projection apparatus, function setting method, and function setting program
JP2013025488A (en) * 2011-07-19 2013-02-04 Ricoh Co Ltd Information processing apparatus and information processing method
JP2013254458A (en) * 2012-06-08 2013-12-19 Ricoh Co Ltd Operation control device and operation control method
JP2014044738A (en) * 2013-11-05 2014-03-13 Seiko Epson Corp Terminal device for allocating image on split screen displayed by image display device, method for controlling terminal device, and computer program
JP2014048937A (en) * 2012-08-31 2014-03-17 Omron Corp Gesture recognition device, control method thereof, display equipment, and control program
JP2015095164A (en) * 2013-11-13 2015-05-18 オムロン株式会社 Gesture recognition device and control method for gesture recognition device

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011013605A1 (en) * 2009-07-27 2011-02-03 三洋電機株式会社 Presentation system
JP2012191568A (en) * 2011-03-14 2012-10-04 Ricoh Co Ltd Image projection apparatus, function setting method, and function setting program
JP2013025488A (en) * 2011-07-19 2013-02-04 Ricoh Co Ltd Information processing apparatus and information processing method
JP2013254458A (en) * 2012-06-08 2013-12-19 Ricoh Co Ltd Operation control device and operation control method
JP2014048937A (en) * 2012-08-31 2014-03-17 Omron Corp Gesture recognition device, control method thereof, display equipment, and control program
JP2014044738A (en) * 2013-11-05 2014-03-13 Seiko Epson Corp Terminal device for allocating image on split screen displayed by image display device, method for controlling terminal device, and computer program
JP2015095164A (en) * 2013-11-13 2015-05-18 オムロン株式会社 Gesture recognition device and control method for gesture recognition device

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022520030A (en) * 2019-10-22 2022-03-28 上▲海▼商▲湯▼智能科技有限公司 Gesture control method and device
JP7479388B2 (en) 2019-10-22 2024-05-08 上▲海▼商▲湯▼智能科技有限公司 Gesture control method and device

Also Published As

Publication number Publication date
JP6790396B2 (en) 2020-11-25

Similar Documents

Publication Publication Date Title
KR102551240B1 (en) Mobile device and method for pairing with electric device
JP5347673B2 (en) Information processing apparatus, information processing method, and program
KR102683351B1 (en) Mobile device and method for pairing with electric device
JP2015095164A (en) Gesture recognition device and control method for gesture recognition device
EP3159808A1 (en) Address book based picture matching method and terminal
US20130249788A1 (en) Information processing apparatus, computer program product, and projection system
JP2011095862A (en) Apparatus and method for processing image and program
JP6790396B2 (en) Information processing equipment, information processing system, service processing execution control method and program
KR102057581B1 (en) Apparatus and method for automatically focusing an object in device having a camera
US9692918B2 (en) Device control system and device control method for managing remote conference
JP2015102875A (en) Display system and display control device
CN111610886A (en) Method and device for adjusting brightness of touch screen and computer readable storage medium
JP6801329B2 (en) Image forming device, information processing device and information processing system
JP6561938B2 (en) Print processing system
US10708445B2 (en) Information processing apparatus and non-transitory computer readable medium
JP6801577B2 (en) Authentication system, authentication method, and gate
JP6094626B2 (en) Display control apparatus and program
JP6398407B2 (en) Authentication device, authentication system, and program
US20240089591A1 (en) Non-transitory computer-readable storage medium storing display content notification program, display content notification device, display content notification method
JP2016194835A (en) Information extraction method, information extraction program and information extraction apparatus
WO2021054177A1 (en) Information processing device and information processing method
JP6269869B2 (en) Display control apparatus and program
US20140075020A1 (en) Server device, information processing method, and computer program product
WO2018122960A1 (en) Photographer identification system, photographer identification method, and program
JP6972964B2 (en) Image forming device and image forming system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190130

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191220

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200107

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200303

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200507

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200629

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201006

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201019

R151 Written notification of patent or utility model registration

Ref document number: 6790396

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees