JP2017173927A - Information processing device, information processing system, service processing execution control method, and program - Google Patents
Information processing device, information processing system, service processing execution control method, and program Download PDFInfo
- Publication number
- JP2017173927A JP2017173927A JP2016056299A JP2016056299A JP2017173927A JP 2017173927 A JP2017173927 A JP 2017173927A JP 2016056299 A JP2016056299 A JP 2016056299A JP 2016056299 A JP2016056299 A JP 2016056299A JP 2017173927 A JP2017173927 A JP 2017173927A
- Authority
- JP
- Japan
- Prior art keywords
- face image
- gesture
- terminal device
- image
- terminal
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000010365 information processing Effects 0.000 title claims abstract description 79
- 238000000034 method Methods 0.000 title claims abstract description 53
- 238000012545 processing Methods 0.000 title claims abstract description 44
- 238000003384 imaging method Methods 0.000 claims abstract description 46
- 238000004891 communication Methods 0.000 claims description 11
- 239000000284 extract Substances 0.000 claims description 9
- 238000004904 shortening Methods 0.000 abstract 1
- 238000010586 diagram Methods 0.000 description 29
- 238000012986 modification Methods 0.000 description 19
- 230000004048 modification Effects 0.000 description 19
- 230000005540 biological transmission Effects 0.000 description 5
- 230000006870 function Effects 0.000 description 5
- 238000007639 printing Methods 0.000 description 3
- 238000013459 approach Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
Images
Landscapes
- User Interface Of Digital Computer (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、情報処理装置、情報処理システム、サービス処理実行制御方法及びプログラムに関する。 The present invention relates to an information processing apparatus, an information processing system, a service process execution control method, and a program.
従来から、プロジェクタなどの情報処理装置と、複数の端末装置とを、ネットワークを介して接続したシステムが知られている(例えば、特許文献1を参照)。なお、端末装置としては、例えば、タブレットやスマートフォンなどのスマート端末や、PC(Personal Computer)などが挙げられる。 Conventionally, a system in which an information processing device such as a projector and a plurality of terminal devices are connected via a network is known (see, for example, Patent Document 1). Examples of the terminal device include smart terminals such as tablets and smartphones, PCs (Personal Computers), and the like.
このようなシステムでは、ユーザが、複数の端末装置の中から、情報処理装置に投影対象画像を出力する端末装置を選択し、情報処理装置は、選択された端末装置から出力された投影対象画像を投影することで、サービス処理(画像投影)を実行する。 In such a system, the user selects a terminal device that outputs a projection target image to the information processing device from among the plurality of terminal devices, and the information processing device outputs the projection target image output from the selected terminal device. Is projected to execute service processing (image projection).
しかしながら、上述したような従来技術では、ユーザは、サービス処理の対象端末を選択するために、複数の端末装置のリストの中から当該サービス処理の対象端末を探し出す必要があり、サービス処理の対象端末でサービス処理を実行するまでに時間を要していた。 However, in the conventional technology as described above, in order to select a service processing target terminal, the user needs to find the service processing target terminal from a list of a plurality of terminal devices. It took time to execute the service process.
本発明は、上記事情に鑑みてなされたものであり、サービス処理の対象端末でサービス処理を実行するまでに要する時間を短縮することができる情報処理装置、情報処理システム、サービス処理実行制御方法及びプログラムを提供することを目的とする。 The present invention has been made in view of the above circumstances, and an information processing apparatus, an information processing system, a service process execution control method, and a service process execution control method capable of reducing the time required for executing a service process on a target terminal of the service process The purpose is to provide a program.
上述した課題を解決し、目的を達成するために、本発明の一態様にかかる情報処理装置は、端末装置を識別する端末識別情報と、当該端末装置を所持するユーザの顔画像と、を対応付けて記憶する端末識別情報記憶部と、それぞれが端末装置を所持する複数のユーザを撮像した撮像画像を時系列で取得する画像取得部と、前記時系列で取得された撮像画像に基づいて第1のジェスチャを認識し、当該撮像画像から当該第1のジェスチャを行ったユーザの顔画像を抽出する認識部と、前記抽出された顔画像と類似する顔画像に対応付けられた端末識別情報が示す端末装置をサービス処理の対象端末に選択する選択部と、前記選択された端末装置と通信し、前記サービス処理の実行を制御する実行制御部と、を備える。 In order to solve the above-described problems and achieve the object, an information processing apparatus according to an aspect of the present invention corresponds to terminal identification information for identifying a terminal device and a face image of a user who owns the terminal device. A terminal identification information storage unit that is stored in addition, an image acquisition unit that acquires, in time series, captured images obtained by capturing a plurality of users each possessing a terminal device, and a first image based on the captured images acquired in the time series. A recognition unit for recognizing one gesture and extracting the face image of the user who performed the first gesture from the captured image, and terminal identification information associated with a face image similar to the extracted face image. A selection unit that selects a terminal device to be indicated as a target terminal for service processing, and an execution control unit that communicates with the selected terminal device and controls execution of the service processing.
本発明によれば、サービス処理の対象端末でサービス処理を実行するまでに要する時間を短縮することができるという効果を奏する。 According to the present invention, there is an effect that it is possible to reduce the time required for executing the service process on the target terminal of the service process.
以下、添付図面を参照しながら、本発明にかかる情報処理装置、情報処理システム、サービス処理実行制御方法及びプログラムの実施形態を詳細に説明する。 Hereinafter, embodiments of an information processing apparatus, an information processing system, a service process execution control method, and a program according to the present invention will be described in detail with reference to the accompanying drawings.
図1は、本実施形態の情報処理システム1の構成の一例を示すブロック図である。図1に示すように、情報処理システム1は、端末装置100−1〜100−N(Nは2以上の自然数)と、撮像装置200と、情報処理装置300と、を備える。
FIG. 1 is a block diagram illustrating an example of the configuration of the
端末装置100−1〜100−N、撮像装置200、及び情報処理理装置300は、ネットワーク2を介して接続されている。ネットワーク2は、例えば、LAN(Local Area Network)やインターネットなどにより実現できる。なお、撮像装置200と情報処理装置300とは、ネットワーク2ではなく通信ケーブルなどで直接接続されていてもよい。
The terminal devices 100-1 to 100-N, the
なお、以下の説明では、端末装置100−1〜100−Nを各々区別する必要がない場合は、単に端末装置100と称する。
In the following description, the terminal devices 100-1 to 100-N are simply referred to as the
端末装置100は、タブレットやスマートフォンなどのスマート端末や、PC(Personal Computer)などが挙げられる。本実施形態では、端末装置100がタブレットである場合を例に取り説明するが、これに限定されるものではない。
Examples of the
図2は、本実施形態の端末装置100のハードウェア構成の一例を示すブロック図である。図2に示すように、端末装置100は、CPU(Central Processing Unit)などの制御装置11と、ROM(Read Only Memory)やRAM(Random Access Memory)などの主記憶装置12と、HDD(Hard Disk Drive)やSSD(Solid State Drive)などの補助記憶装置13と、タッチパネルなどの表示装置14及び入力装置15と、通信インタフェースなどの通信装置16と、イメージセンサなどの撮像装置17と、を備えており、通常のコンピュータを利用したハードウェア構成となっている。
FIG. 2 is a block diagram illustrating an example of a hardware configuration of the
撮像装置200は、ビデオカメラなどが挙げられる。図3は、本実施形態の撮像装置200のハードウェア構成の一例を示すブロック図である。図3に示すように、撮像装置200は、CPUなどの制御装置21と、ROMやRAMなどの主記憶装置22と、HDDやSSDなどの補助記憶装置23と、タッチパネルなどの表示装置24及び入力装置25と、通信インタフェースなどの通信装置26と、イメージセンサなどの撮像装置27と、を備えており、通常のコンピュータを利用したハードウェア構成となっている。
Examples of the
情報処理装置300は、例えば、プロジェクタ、カメラ、エアコン、冷蔵庫、蛍光灯、自販機、及びハンドヘルド型端末等の各種電子機器、印刷装置、複写機、複合機、スキャナ装置、及びファクシミリ装置等の画像形成装置、並びにスマート端末やPC等が挙げられる。複合機は、複写機能、印刷機能、スキャナ機能、及びファクシミリ機能のうち少なくとも2つの機能を有するものである。なお本実施形態では、情報処理装置300がプロジェクタである場合を例に取り説明するが、これに限定されるものではない。
The
図4は、本実施形態の情報処理装置300のハードウェア構成の一例を示すブロック図である。図4に示すように、情報処理装置300は、CPUなどの制御装置31と、ROMやRAMなどの主記憶装置32と、HDDやSSDなどの補助記憶装置33と、画像投影に関わる画像処理を行うエンジン34と、タッチパネルなどの表示装置35及び入力装置36と、通信インタフェースなどの通信装置37と、を備えており、通常のコンピュータを利用したハードウェア構成となっている。
FIG. 4 is a block diagram illustrating an example of a hardware configuration of the
なお本実施形態では、情報処理システム1が、学校での授業などに使用される場合を例に取り説明するが、これに限定されるものではない。具体的には、教室などにいる教師及び複数の生徒それぞれが端末装置100を所持しており、撮像装置200は、教師及び複数の生徒の全員が収まるように教室内を時系列で撮像し、撮像した時系列の画像を情報処理装置300に出力する。そして情報処理装置300は、撮像装置200から出力された時系列の画像から、所定のジェスチャを行った教師又は生徒を特定し、特定した教師又は生徒が所持する端末装置100を、投影対象画像を情報処理装置300に出力する端末に選択し、選択した端末装置100から出力された投影対象画像を投影する。
In the present embodiment, the case where the
このように本実施形態の情報処理システム1では、教師又は生徒のジェスチャ(例えば、挙手)を認識することで、投影対象画像を情報処理装置300に出力する端末装置100の選択を自動化しているため、当該端末装置100の選択に時間を要さず、当該端末装置100の投影対象画像を情報処理装置300から即座に投影でき、授業の進行を阻害せず、授業の円滑な進行を支援できる。なお、以下の説明では、教師や生徒をユーザと称する場合もある。
As described above, in the
図5は、本実施形態の端末装置100、撮像装置200、及び情報処理装置300の機能構成の一例を示すブロック図である。
FIG. 5 is a block diagram illustrating an example of functional configurations of the
図5に示すように、端末装置100は、撮像部101と、登録要求部103と、実行制御部105と、を含む。撮像部101は、例えば、撮像装置17などにより実現できる。登録要求部103及び実行制御部105は、例えば、制御装置11、主記憶装置12及び通信装置16などにより実現できる。
As illustrated in FIG. 5, the
また図5に示すように、撮像装置200は、撮像部201と、画像送信部203と、を含む。撮像部201は、例えば、撮像装置27などにより実現できる。画像送信部203は、例えば、制御装置21、主記憶装置22及び通信装置26などにより実現できる。
As illustrated in FIG. 5, the
また図5に示すように、情報処理装置300は、登録部301と、ジェスチャ画像記憶部303と、端末識別情報記憶部305と、画像取得部307と、認識部309と、選択部311と、実行制御部313と、を含む。
As illustrated in FIG. 5, the
登録部301、画像取得部307、及び実行制御部313は、例えば、制御装置31、主記憶装置32及び通信装置37などにより実現できる。ジェスチャ画像記憶部303及び端末識別情報記憶部305は、例えば、補助記憶装置33などにより実現できる。認識部309及び選択部311は、例えば、制御装置31及び主記憶装置32などにより実現できる。
The registration unit 301, the
撮像部101は、認識部309の認識対象のジェスチャを示すジェスチャ画像を撮像したり、端末装置100を所持するユーザ(教師又は生徒)の顔画像を撮像したりする。本実施形態では、認識部309の認識対象のジェスチャが挙手である場合を例に取り説明するが、これに限定されるものではない。
The
登録要求部103は、情報処理装置300に対し、撮像部101により撮像されたジェスチャ画像や、撮像部101により撮像された端末装置100を所持するユーザの顔画像と端末装置100を識別する端末識別情報との組の登録を要求する。本実施形態では、端末識別情報が端末装置100のIPアドレスである場合を例に取り説明するが、これに限定されるものではない。端末識別情報は、例えば、補助記憶装置13などに記憶されている。
The
また本実施形態では、ジェスチャ画像の登録要求、及び顔画像と端末識別情報との組の登録要求は、端末装置100と情報処理装置300との接続時に行われることを想定しているが、これに限定されるものではない。なお、ジェスチャ画像の登録要求は、任意の端末装置100が行えばよく、全ての端末装置100で行う必要はない。一方、顔画像と端末識別情報との組の登録要求は、全ての端末装置100で行う必要がある。
In the present embodiment, it is assumed that the registration request for the gesture image and the registration request for the set of the face image and the terminal identification information are performed when the
登録部301は、端末装置100からジェスチャ画像の登録要求を受け付けると、当該ジェスチャ画像をジェスチャ画像記憶部303に登録する。また登録部301は、端末装置100から顔画像と端末識別情報との組の登録要求を受け付けると、当該顔画像と端末識別情報との組を端末識別情報記憶部305に登録する。なお、登録部301は、端末装置100と情報処理装置300との切断時に、端末識別情報記憶部305から、顔画像と当該端末装置100の端末識別情報との組を削除する。
Upon receiving a gesture image registration request from the
撮像部201は、それぞれが端末装置100を所持する複数のユーザ(教師及び複数の生徒)の全員が収まるように教室内を時系列で撮像する。なお、撮像部201が撮像する時系列の撮像画像は、動画であってもよいし、静止画を定期的に撮像したものであってもよい。
The
画像送信部203は、撮像部201により撮像された時系列の撮像画像を情報処理装置300に送信する。
The
画像取得部307は、撮像装置200から、それぞれが端末装置100を所持する複数のユーザ(教師及び複数の生徒)を撮像した撮像画像を時系列で取得する。
The
認識部309は、画像取得部307により時系列で取得された撮像画像に基づいて第1のジェスチャを認識し、当該撮像画像から当該第1のジェスチャを行ったユーザの顔画像を抽出する。本実施形態では、第1のジェスチャが左手の挙手である場合を例に取り説明するが、これに限定されるものではない。
The
具体的には、認識部309は、画像取得部307により取得された前回の撮像画像(例えば、図6に示す画像)と、画像取得部307により取得された最新の撮像画像(例えば、図7に示す画像)と、の差分を抽出し、当該抽出した差分を示す差分画像(例えば、図8に示す画像)を生成する。なお、図6に示す画像では、誰も挙手していないが、図7に示す画像では、左のユーザが左手を挙手しているため、図8に示す差分画像は、左のユーザの挙手した左腕となっている。
Specifically, the
そして認識部309は、ジェスチャ画像記憶部303に記憶されているジェスチャ画像をテンプレートとして、差分画像に対するテンプレートマッチングを行い、ジェスチャ画像が示すジェスチャを検索する。例えば、図9に示す左腕を挙手したジェスチャ画像501がジェスチャ画像記憶部303に記憶されている場合、認識部309は、図9に示すように、ジェスチャ画像501をテンプレートとして、図8に示す差分画像に対するテンプレートマッチングを行う。この結果、図10に示すように、図8に示す差分画像上でテンプレートマッチングされた左腕の位置(詳細には、左腕を囲う矩形の左上の座標(X,Y)が特定される。
Then, the
更に認識部309は、特定した左腕の位置(X,Y)に基づいて、画像取得部307により時系列で取得された最新の撮像画像(図7に示す画像)から、左手を挙手したユーザ(左のユーザ)の顔画像を切り出す。本実施形態では、認識した第1のジェスチャが左手の挙手であるため、認識部309は、図11に示すように、図7に示す画像の左上を原点として、(X−Z,Y)、(X,Y)、(X−Z,Y+Z)、(X,Y+Z)を頂点とする矩形を、左手を挙手したユーザ(左のユーザ)の顔画像として切り出す。なお、切り出される顔画像の位置は、これに限定されず、第1のジェスチャのパターンによって異なる。
Further, the
選択部311は、認識部309により抽出された顔画像と類似する顔画像に対応付けられた端末識別情報が示す端末装置100をサービス処理の対象端末に選択する。具体的には、端末識別情報記憶部305には、図12に示すように、端末装置100を識別する端末識別情報と、当該端末装置100を所持するユーザの顔画像と、が対応付けて記憶されているため、選択部311は、認識部309により抽出された顔画像と類似する顔画像に対応付けられた端末識別情報を取得し、取得した端末識別情報が示す端末装置100をサービス処理の対象端末に選択する。
The selection unit 311 selects the
なお、認識部309により抽出された顔画像と類似する顔画像は、例えば、端末識別情報記憶部305に記憶されている顔画像のうち、認識部309により抽出された顔画像と最も類似する顔画像とすればよい。例えば、図13に示す例の場合、端末識別情報記憶部305に記憶されている顔画像512〜515のうち、認識部309により抽出された顔画像511との類似度が最も高い顔画像514が、認識部309により抽出された顔画像511と類似する顔画像となる。なお、図13に示す例では、類似度は、0〜1の数値で表され、1に近づくほど類似度が高くなる。
Note that the face image similar to the face image extracted by the
また、認識部309により抽出された顔画像と類似する顔画像は、閾値以上の類似度であることを条件としてもよい。このようにすれば、顔ではない画像を顔画像として誤検出した場合であっても、挙手をしていないユーザの端末装置100が、投影対象画像を情報処理装置300に出力する端末として誤選択されてしまうことを防止できる。例えば、図14に示す例の場合、端末識別情報記憶部305に記憶されている顔画像522〜525のうち、認識部309により顔画像と誤検出された画像521との類似度が閾値以上のものはない。このため、画像521との類似度が最も高い顔画像523のユーザの端末装置100が、投影対象画像を情報処理装置300に出力する端末として誤選択されてしまうことを防止できる。
The face image similar to the face image extracted by the
なお、選択部311は、閾値の値を調整してもよい。例えば、選択部311は、図15に示すような認識精度設定画面を表示装置35上に表示し、ユーザによる入力装置36からの操作入力に基づいて、認識精度のレベルを設定することで、閾値の値を調整してもよい。このようにすれば、利用環境(明るさ等)に応じた最適な閾値を設定できる。 Note that the selection unit 311 may adjust the threshold value. For example, the selection unit 311 displays a recognition accuracy setting screen as illustrated in FIG. 15 on the display device 35, and sets the level of recognition accuracy based on an operation input from the input device 36 by the user, thereby setting a threshold value. The value of may be adjusted. In this way, an optimum threshold value can be set according to the use environment (brightness etc.).
実行制御部313は、選択部311により選択された端末装置100と通信し、サービス処理の実行を制御する。具体的には、実行制御部313は、選択部311により選択された端末装置100と通信し、端末装置100の実行制御部105と協働してサービス処理の実行を制御する。
The execution control unit 313 communicates with the
本実施形態では、サービス処理は、投影対象画像の投影であり、情報処理装置300による端末装置100が有するコンテンツの出力であるため、実行制御部313は、選択部311により選択された端末装置100と通信し、投影対象画像を要求する。実行制御部105は、端末装置100の表示装置14に表示されている画面をキャプチャして投影対象画像とし、情報処理装置300に出力する。そして実行制御部313は、端末装置100から出力された投影対象画像を投影する。
In the present embodiment, the service process is a projection of an image to be projected, and is an output of content held by the
なお、情報処理装置300による端末装置100が有するコンテンツの出力は、投影対象画像の投影に限定されず、印刷対象画像の印刷などであってもよい。また、サービス処理は、情報処理装置300が有するコンテンツの端末装置100への配信や、情報処理装置300による端末装置100のセキュリティレベルに応じた機器制御(扉のロック解除)などであってもよい。
Note that the content output of the
図16は、本実施形態の情報処理システム1で実行される処理の一例を示すシーケンス図である。
FIG. 16 is a sequence diagram illustrating an example of processing executed in the
まず、撮像部101は、認識部309の認識対象のジェスチャを示すジェスチャ画像を撮像する(ステップS101)。
First, the
続いて、登録要求部103は、情報処理装置300に対し、撮像部101により撮像されたジェスチャ画像の登録を要求する(ステップS103)。
Subsequently, the
続いて、登録部301は、端末装置100からジェスチャ画像の登録要求を受け付けると、当該ジェスチャ画像をジェスチャ画像記憶部303に登録する(ステップS105)。
Subsequently, when receiving a gesture image registration request from the
続いて、撮像部101は、端末装置100を所持するユーザ(教師又は生徒)の顔画像を撮像する(ステップS107)。
Subsequently, the
続いて、登録要求部103は、情報処理装置300に対し、撮像部101により撮像された端末装置100を所持するユーザの顔画像と端末装置100を識別する端末識別情報との組の登録を要求する(ステップS109)。
Subsequently, the
続いて、登録部301は、端末装置100から顔画像と端末識別情報との組の登録要求を受け付けると、当該顔画像と端末識別情報との組を端末識別情報記憶部305に登録する(ステップS111)。
Subsequently, when the registration unit 301 receives a registration request for a set of a face image and terminal identification information from the
続いて、撮像部201は、それぞれが端末装置100を所持する複数のユーザ(教師及び複数の生徒)の全員が収まるように教室内などの空間を時系列で撮像する(ステップS121)。
Subsequently, the
続いて、画像送信部203は、撮像部201により撮像された時系列の撮像画像を情報処理装置300に送信し、画像取得部307は、撮像装置200から、撮像画像を時系列で取得する(ステップS123)。
Subsequently, the
続いて、認識部309は、画像取得部307により時系列で取得された撮像画像に基づいて第1のジェスチャを認識し、当該撮像画像から当該第1のジェスチャを行ったユーザの顔画像を抽出する(ステップS125)。
Subsequently, the
続いて、選択部311は、認識部309により抽出された顔画像と類似する顔画像に対応付けられた端末識別情報が示す端末装置100をサービス処理の対象端末(投影対象の端末装置)に選択する(ステップS127)。
Subsequently, the selection unit 311 selects the
続いて、実行制御部313は、選択部311により選択された端末装置100に、投影対象画像を要求する(ステップS129)。
Subsequently, the execution control unit 313 requests a projection target image from the
続いて、実行制御部105は、端末装置100の表示装置14に表示されている画面をキャプチャして投影対象画像とし(ステップS131)、情報処理装置300に出力する(ステップS133)。
Subsequently, the execution control unit 105 captures the screen displayed on the display device 14 of the
続いて、実行制御部313は、端末装置100から出力された投影対象画像を投影する(ステップS135)。 Subsequently, the execution control unit 313 projects the projection target image output from the terminal device 100 (step S135).
図17は、本実施形態の認識部309で実行される処理の一例を示すフローチャートである。
FIG. 17 is a flowchart illustrating an example of processing executed by the
まず、認識部309は、画像取得部307により取得された最新の撮像画像(例えば、図7に示す画像)を取得する(ステップS201)。
First, the
続いて、認識部309は、最新の撮像画像(例えば、図7に示す画像)と、画像取得部307により取得された前回の撮像画像(例えば、図6に示す画像)と、の差分を抽出し、当該抽出した差分を示す差分画像(例えば、図8に示す画像)を生成する(ステップS203)。
Subsequently, the
続いて、認識部309は、ジェスチャ画像記憶部303に記憶されているジェスチャ画像をテンプレートとして、差分画像に対するテンプレートマッチングを行い、ジェスチャ画像が示す所定のジェスチャを検索する(ステップS205)。
Subsequently, the
ジェスチャが検索された場合(ステップS207でYes)、認識部309は、最新の撮像画像(図7に示す画像)から、検索されたジェスチャ近傍の部分画像を、所定のジェスチャを行ったユーザの顔画像として切り出す(ステップS209)。
When the gesture is searched (Yes in step S207), the
なお、ジェスチャが検索されなかった場合(ステップS207でNo)、ステップS209の処理は実行されない。 If no gesture is found (No in step S207), the process in step S209 is not executed.
以上のように本実施形態によれば、ユーザ(教師又は生徒)のジェスチャ(例えば、挙手)を認識することで、投影対象画像を情報処理装置300に出力する端末装置100の選択を自動化しているため、当該端末装置100の選択に時間を要さず、当該端末装置100の投影対象画像を情報処理装置300から即座に投影でき、授業の進行を阻害せず、授業の円滑な進行を支援できる。
As described above, according to the present embodiment, the selection of the
(変形例1)
上記実施形態において、認識部309は、一定時間の間に時系列で取得された撮像画像に基づいて、第1のジェスチャを認識するようにしてもよい。このようにすれば、図18に示すように、一定時間の間に、時間差で異なるユーザが挙手を行った場合であっても、最初に挙手をしたユーザではなく、2番目に挙手をしたユーザが所持する端末装置100を選択することもできる。
(Modification 1)
In the above embodiment, the
なお、図18に示す例では、撮像画像602を最新の撮像画像、撮像画像601を前回の撮像画像としてジェスチャ認識を行った場合、左のユーザの挙手が認識され、撮像画像603を最新の撮像画像、撮像画像602を前回の撮像画像としてジェスチャ認識を行った場合、右のユーザの挙手が認識される。
In the example illustrated in FIG. 18, when gesture recognition is performed using the captured
また、一定時間については、上記実施形態で説明した閾値のように、ユーザが時間を設定できるようにしてもよい。 Moreover, about a fixed time, you may enable it for a user to set time like the threshold value demonstrated in the said embodiment.
そして認識部309は、第1のジェスチャを複数認識した場合、当該第1のジェスチャを行った複数のユーザそれぞれの顔画像を抽出する。
When the
なお、変形例1では、端末識別情報記憶部305には、図19に示すように、端末装置100を識別する端末識別情報と、当該端末装置100を所持するユーザの顔画像と、当該端末装置100を所持するユーザの優先度と、を対応付けて記憶されている。優先度は、値が小さいほど高いものとするが、これに限定されるものではない。
In
そして選択部311は、認識部309により抽出された複数の顔画像それぞれに類似する顔画像のうち優先度が最も高い顔画像に対応付けられた端末識別情報が示す端末装置100をサービス処理の対象端末に選択する。
Then, the selection unit 311 selects the
以上より、一定時間内に複数のユーザが挙手した場合には、優先度が最も高いユーザが所持する端末装置100がサービス処理の対象端末に選択される。例えば、生徒よりも教師の優先度を高くすれば、生徒と教師が挙手した場合には、教師が所持する端末装置100がサービス処理の対象端末に優先的に選択される。
As described above, when a plurality of users raise their hands within a certain time, the
(変形例2)
上記実施形態において、複数種類のジェスチャそれぞれが第1のジェスチャであってもよい。具体的には、撮像部101は、認識部309の認識対象のジェスチャを示すジェスチャ画像を複数種類撮像し、登録要求部103は、情報処理装置300に対し、撮像部101により撮像された複数種類のジェスチャ画像の登録を要求し、登録部301は、端末装置100から複数種類のジェスチャ画像の登録要求を受け付けると、図20に示すように、当該複数種類のジェスチャ画像をジェスチャ画像記憶部303に登録してもよい。
(Modification 2)
In the above embodiment, each of the plurality of types of gestures may be the first gesture. Specifically, the
このようにすれば、複数種類のジェスチャ画像を用いてジェスチャが認識されるため、サービス処理の対象端末に選択させるためのジェスチャのパターンを様々用意することができる。 In this way, since gestures are recognized using a plurality of types of gesture images, it is possible to prepare various gesture patterns for causing a service processing target terminal to select.
(変形例3)
変形例2において、ジェスチャの種類毎に、サービス処理においてジェスチャに応じた動作を実行させるようにしてもよい。例えば、ジェスチャ画像記憶部303に、図21に示すように、ジェスチャ画像と、当該ジェスチャ画像が示すジェスチャに応じた動作例とを対応付けた情報を登録するようにしてもよい。この場合、登録要求部103は、ジェスチャ画像と当該ジェスチャ画像が示すジェスチャに応じた動作例を示す情報との組を含めて登録要求を行えばよい。
(Modification 3)
In the second modification, an operation corresponding to the gesture may be executed in the service process for each type of gesture. For example, as shown in FIG. 21, information that associates a gesture image with an operation example corresponding to the gesture indicated by the gesture image may be registered in the gesture
なお、変形例3では、第1のジェスチャは、サービス処理を開始させる開始ジェスチャであるものとする。具体的には、第1のジェスチャは、図21のIDが1の右手を挙手するジェスチャであり、投影対象画像の投影を開始するジェスチャとする。また、第2のジェスチャは、サービス処理を終了させる終了ジェスチャであるものとする。具体的には、第2のジェスチャは、図21のIDが2の左手を挙手するジェスチャであり、投影対象画像の投影を終了するジェスチャとする。 In the third modification, it is assumed that the first gesture is a start gesture for starting a service process. Specifically, the first gesture is a gesture of raising the right hand whose ID is 1 in FIG. 21 and is a gesture for starting projection of the projection target image. In addition, the second gesture is an end gesture for ending service processing. Specifically, the second gesture is a gesture that raises the left hand whose ID is 2 in FIG. 21 and is a gesture that ends the projection of the projection target image.
この場合、認識部309が第1のジェスチャを認識した場合の認識部309、選択部311、及び実行制御部313の動作は、実施形態と同様である。なお、実行制御部313は、サービス処理の対象端末に選択された端末装置100と通信し、サービス処理の実行を開始する。
In this case, the operations of the
一方、認識部309が第2のジェスチャを認識した場合、実行制御部313は、サービス処理が開始された端末装置100と通信し、サービス処理において第2のジェスチャに応じた動作を実行させる。具体的には、実行制御部313は、サービス処理が開始された端末装置100と通信し、サービス処理を終了させる。
On the other hand, when the recognizing
例えば、実行制御部313は、投影対象画像の投影が開始された端末装置100と通信し、投影対象画像の投影を終了させる。具体的には、実行制御部313は、投影対象画像の投影が開始された端末装置100に、投影対象画像の出力停止を要求し、実行制御部105は、端末装置100の表示装置14に表示されている画面のキャプチャ及び投影対象画像の情報処理装置300への出力を停止し、実行制御部313は、投影対象画像の投影を中止する。
For example, the execution control unit 313 communicates with the
このようにすれば、複数種類のジェスチャを用いて、サービス処理において様々な動作を実行させることができる。 In this way, various operations can be executed in service processing using a plurality of types of gestures.
(変形例4)
変形例3において、第2のジェスチャを行ったユーザが第1のジェスチャを行ったユーザと同一人物であるか否かで、第2のジェスチャに応じた動作の実行可否を制御してもよい。
(Modification 4)
In the third modification, whether or not to execute the operation according to the second gesture may be controlled based on whether or not the user who performed the second gesture is the same person as the user who performed the first gesture.
図22は、変形例4の端末装置100、撮像装置200、及び情報処理装置1300の機能構成の一例を示すブロック図である。図22に示すように、情報処理装置1300は、操作可否情報記憶部1315を更に含む。
FIG. 22 is a block diagram illustrating an example of functional configurations of the
操作可否情報記憶部1315は、対象者と操作の可否とを対応付けた情報であり、図23に示す例では、対象者が本人(同一人物)であれば、操作が許可され、対象者が本人以外(他人)であれば、操作が不許可となる。 The operation availability information storage unit 1315 is information in which the target person is associated with the operation availability. In the example illustrated in FIG. 23, if the target person is the same person (the same person), the operation is permitted, and the target person is If it is not the person (other person), the operation is not permitted.
変形例4では、認識部309は、撮像画像から第2のジェスチャを行ったユーザの顔画像を抽出し、選択部311は、抽出された顔画像と類似する顔画像を選択する。
In the fourth modification, the
そして実行制御部313は、第1のジェスチャを行ったユーザの顔画像と類似する顔画像と、第2のジェスチャを行ったユーザの顔画像と類似する顔画像とが一致し、かつ操作可否情報記憶部1315において、サービス処理を開始した本人による操作の可否を定義した本人操作可否情報(対象者が本人の場合の操作の可否)が操作可を示す場合、サービス処理が開始された端末装置100と通信し、サービス処理を終了させる。
Then, the execution control unit 313 matches the face image similar to the face image of the user who performed the first gesture with the face image similar to the face image of the user who performed the second gesture, and operation availability information In the storage unit 1315, when the principal operation availability information that defines whether or not an operation can be performed by the person who started the service process (operation availability when the target person is the person) indicates that the operation is possible, the
また実行制御部313は、第1のジェスチャを行ったユーザの顔画像と類似する顔画像と、第2のジェスチャを行ったユーザの顔画像と類似する顔画像とが一致せず、かつ操作可否情報記憶部1315において、サービス処理を開始した本人以外による操作の可否を定義した他人操作可否情報(対象者が本人以外の場合の操作の可否)が操作可を示す場合、サービス処理が開始された端末装置100と通信し、サービス処理を終了させる。
Further, the execution control unit 313 does not match the face image similar to the face image of the user who performed the first gesture and the face image similar to the face image of the user who performed the second gesture, and whether or not the operation can be performed. In the information storage unit 1315, the service process is started when the other person operation availability information that defines whether or not an operation other than the person who started the service process is permitted (operation availability when the target person is not the person) indicates the operation is possible. It communicates with the
このようにすれば、サービス処理を開始した本人以外によるサービス処理に関する操作を防止できる。 In this way, it is possible to prevent an operation related to service processing by a person other than the person who started the service processing.
なお、図23に示す例において、対象者が本人(同一人物)であれば、操作が不許可となり、対象者が本人以外(他人)であれば、操作が許可となるようにしてもよい。このようにすれば、生徒が開始したサービス処理を、先生が終了させるなどとすることができる。 In the example shown in FIG. 23, if the target person is the person (same person), the operation is not permitted, and if the target person is other than the person (other person), the operation may be permitted. In this way, the service process started by the student can be terminated by the teacher.
(プログラム)
上記実施形態の端末装置100、撮像装置200、及び情報処理装置300(以下、「上記実施形態及び各変形例の各装置」と称する)で実行されるプログラムは、インストール可能な形式又は実行可能な形式のファイルでCD−ROM、CD−R、メモリカード、DVD(Digital Versatile Disk)、フレキシブルディスク(FD)等のコンピュータで読み取り可能な記憶媒体に記憶されて提供される。
(program)
A program executed by the
また、上記実施形態及び各変形例の各装置で実行されるプログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するようにしてもよい。また、上記実施形態及び各変形例の各装置で実行されるプログラムを、インターネット等のネットワーク経由で提供または配布するようにしてもよい。また、上記実施形態及び各変形例の各装置で実行されるプログラムを、ROM等に予め組み込んで提供するようにしてもよい。 Further, the program executed by each device of the above-described embodiment and each modified example may be provided by being stored on a computer connected to a network such as the Internet and downloaded via the network. In addition, the program executed by each device of the above embodiment and each modification may be provided or distributed via a network such as the Internet. Further, the program executed by each device of the above-described embodiment and each modification may be provided by being incorporated in advance in a ROM or the like.
上記実施形態及び各変形例の各装置で実行されるプログラムは、上述した各部をコンピュータ上で実現させるためのモジュール構成となっている。実際のハードウェアとしては、例えば、CPUがROMからプログラムをRAM上に読み出して実行することにより、上記各機能部がコンピュータ上で実現されるようになっている。 The program executed by each device of the embodiment and each modification has a module configuration for realizing the above-described units on a computer. As actual hardware, for example, the CPU reads out a program from the ROM to the RAM and executes the program, so that each functional unit is realized on the computer.
なお、上記実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。上記新規な実施の形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これらの実施の形態は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。 The above embodiment is presented as an example, and is not intended to limit the scope of the invention. The above-described novel embodiments can be implemented in various other forms, and various omissions, replacements, and changes can be made without departing from the spirit of the invention. These embodiments are included in the scope and gist of the invention, and are included in the invention described in the claims and the equivalents thereof.
1 情報処理システム
2 ネットワーク
100−1〜100−N(100) 端末装置
101 撮像部
103 登録要求部
105 実行制御部
200 撮像装置
201 撮像部
203 画像送信部
300、1300 情報処理装置
301 登録部
303 ジェスチャ画像記憶部
305 端末識別情報記憶部
307 画像取得部
309 認識部
311 選択部
313 実行制御部
1315 操作可否情報記憶部
DESCRIPTION OF
Claims (13)
それぞれが端末装置を所持する複数のユーザを撮像した撮像画像を時系列で取得する画像取得部と、
前記時系列で取得された撮像画像に基づいて第1のジェスチャを認識し、当該撮像画像から当該第1のジェスチャを行ったユーザの顔画像を抽出する認識部と、
前記抽出された顔画像と類似する顔画像に対応付けられた端末識別情報が示す端末装置をサービス処理の対象端末に選択する選択部と、
前記選択された端末装置と通信し、前記サービス処理の実行を制御する実行制御部と、
を備える情報処理装置。 A terminal identification information storage unit for storing terminal identification information for identifying a terminal device and a face image of a user possessing the terminal device in association with each other;
An image acquisition unit that acquires, in time series, captured images obtained by imaging a plurality of users each possessing a terminal device;
A recognition unit that recognizes a first gesture based on the captured image acquired in time series, and extracts a face image of the user who performed the first gesture from the captured image;
A selection unit that selects, as a target terminal for service processing, a terminal device indicated by terminal identification information associated with a face image similar to the extracted face image;
An execution control unit that communicates with the selected terminal device and controls execution of the service process;
An information processing apparatus comprising:
前記認識部は、一定時間の間に前記時系列で取得された撮像画像に基づいて、前記第1のジェスチャを認識し、当該第1のジェスチャを複数認識した場合、当該第1のジェスチャを行った複数のユーザそれぞれの顔画像を抽出し、
前記選択部は、前記抽出された複数の顔画像それぞれに類似する顔画像のうち優先度が最も高い顔画像に対応付けられた端末識別情報が示す端末装置を前記サービス処理の対象端末に選択する請求項1〜3のいずれか1つに記載の情報処理装置。 The terminal identification information storage unit further stores the priority in association with each other,
The recognizing unit recognizes the first gesture based on the captured images acquired in time series during a predetermined time, and performs the first gesture when a plurality of the first gestures are recognized. Multiple face images of each user
The selection unit selects, as a target terminal for the service process, a terminal device indicated by terminal identification information associated with a face image having the highest priority among face images similar to each of the extracted face images. The information processing apparatus according to any one of claims 1 to 3.
前記実行制御部は、前記サービス処理の対象端末に選択された端末装置と通信し、前記サービス処理の実行を開始し、
前記認識部は、前記時系列で取得された撮像画像に基づいて第2のジェスチャを認識し、
前記実行制御部は、前記第2のジェスチャが認識された場合、前記サービス処理が開始された端末装置と通信し、前記サービス処理において前記第2のジェスチャに応じた動作を実行させる請求項1〜4のいずれか1つに記載の情報処理装置。 The first gesture is a start gesture for starting the service process,
The execution control unit communicates with a terminal device selected as a target terminal for the service process, and starts executing the service process,
The recognition unit recognizes a second gesture based on the captured image acquired in the time series,
The said execution control part communicates with the terminal device from which the said service process was started, when the said 2nd gesture is recognized, and performs the operation | movement according to the said 2nd gesture in the said service process. 5. The information processing apparatus according to any one of 4.
前記実行制御部は、前記第2のジェスチャが認識された場合、前記サービス処理が開始された端末装置と通信し、前記サービス処理を終了させる請求項6に記載の情報処理装置。 The second gesture is an end gesture for ending the service process,
The information processing apparatus according to claim 6, wherein when the second gesture is recognized, the execution control unit communicates with a terminal device that has started the service process, and ends the service process.
前記選択部は、前記抽出された顔画像と類似する顔画像を選択し、
前記実行制御部は、前記第1のジェスチャを行ったユーザの顔画像と類似する顔画像と、前記第2のジェスチャを行ったユーザの顔画像と類似する顔画像とが一致し、かつ前記サービス処理を開始した本人による操作の可否を定義した本人操作可否情報が操作可を示す場合、前記サービス処理が開始された端末装置と通信し、前記サービス処理を終了させる請求項7に記載の情報処理装置。 The recognizing unit extracts a face image of a user who has performed the second gesture from the captured image;
The selection unit selects a face image similar to the extracted face image;
The execution control unit matches the face image similar to the face image of the user who performed the first gesture and the face image similar to the face image of the user who performed the second gesture, and the service The information processing according to claim 7, wherein if the principal operation availability information that defines whether or not an operation can be performed by the person who has started the processing indicates that the operation is possible, the information processing apparatus communicates with the terminal device that has started the service processing and ends the service processing. apparatus.
前記選択部は、前記抽出された顔画像と類似する顔画像を選択し、
前記実行制御部は、前記第1のジェスチャを行ったユーザの顔画像と類似する顔画像と、前記第2のジェスチャを行ったユーザの顔画像と類似する顔画像とが一致せず、かつ前記サービス処理を開始した本人以外による操作の可否を定義した他人操作可否情報が操作可を示す場合、前記サービス処理が開始された端末装置と通信し、前記サービス処理を終了させる請求項7又は8に記載の情報処理装置。 The recognizing unit extracts a face image of a user who has performed the second gesture from the captured image;
The selection unit selects a face image similar to the extracted face image;
The execution control unit does not match a face image similar to the face image of the user who performed the first gesture and a face image similar to the face image of the user who performed the second gesture, and The apparatus according to claim 7 or 8, wherein when other person operation availability information defining whether or not an operation by a person other than the person who started the service process is operable indicates communication is possible, the service process is terminated by communicating with the terminal device from which the service process has been started. The information processing apparatus described.
それぞれが端末装置を所持する複数のユーザを時系列で撮像する撮像部と、
前記撮像部により撮像された撮像画像を時系列で取得する画像取得部と、
前記時系列で取得された撮像画像に基づいて第1のジェスチャを認識し、当該撮像画像から当該第1のジェスチャを行ったユーザの顔画像を抽出する認識部と、
前記抽出された顔画像と類似する顔画像に対応付けられた端末識別情報が示す端末装置をサービス処理の対象端末に選択する選択部と、
前記選択された端末装置と通信し、前記サービス処理の実行を制御する実行制御部と、 を備える情報処理システム。 A terminal identification information storage unit for storing terminal identification information for identifying a terminal device and a face image of a user possessing the terminal device in association with each other;
An imaging unit that images a plurality of users each possessing a terminal device in time series,
An image acquisition unit that acquires captured images captured by the imaging unit in time series;
A recognition unit that recognizes a first gesture based on the captured image acquired in time series, and extracts a face image of the user who performed the first gesture from the captured image;
A selection unit that selects, as a target terminal for service processing, a terminal device indicated by terminal identification information associated with a face image similar to the extracted face image;
An information processing system comprising: an execution control unit that communicates with the selected terminal device and controls execution of the service process.
それぞれが端末装置を所持する複数のユーザを撮像した撮像画像を時系列で取得する画像取得ステップと、
前記時系列で取得された撮像画像に基づいて第1のジェスチャを認識し、当該撮像画像から当該第1のジェスチャを行ったユーザの顔画像を抽出する認識ステップと、
前記抽出された顔画像と類似する顔画像に対応付けられた端末識別情報が示す端末装置をサービス処理の対象端末に選択する選択ステップと、
前記選択された端末装置と通信し、前記サービス処理の実行を制御する実行制御ステップと、
を含むサービス処理実行制御方法。 A terminal identification information storage step for storing the terminal identification information for identifying the terminal device and the face image of the user possessing the terminal device in association with each other;
An image acquisition step of acquiring, in time series, captured images obtained by imaging a plurality of users each possessing a terminal device;
A recognition step of recognizing a first gesture based on the captured image acquired in time series, and extracting a face image of the user who performed the first gesture from the captured image;
A selection step of selecting a terminal device indicated by terminal identification information associated with a face image similar to the extracted face image as a target terminal for service processing;
An execution control step of communicating with the selected terminal device and controlling execution of the service process;
Service processing execution control method including:
それぞれが端末装置を所持する複数のユーザを撮像した撮像画像を時系列で取得する画像取得ステップと、
前記時系列で取得された撮像画像に基づいて第1のジェスチャを認識し、当該撮像画像から当該第1のジェスチャを行ったユーザの顔画像を抽出する認識ステップと、
前記抽出された顔画像と類似する顔画像に対応付けられた端末識別情報が示す端末装置をサービス処理の対象端末に選択する選択ステップと、
前記選択された端末装置と通信し、前記サービス処理の実行を制御する実行制御ステップと、
をコンピュータに実行させるためのプログラム。 A terminal identification information storage step for storing the terminal identification information for identifying the terminal device and the face image of the user possessing the terminal device in association with each other;
An image acquisition step of acquiring, in time series, captured images obtained by imaging a plurality of users each possessing a terminal device;
A recognition step of recognizing a first gesture based on the captured image acquired in time series, and extracting a face image of the user who performed the first gesture from the captured image;
A selection step of selecting a terminal device indicated by terminal identification information associated with a face image similar to the extracted face image as a target terminal for service processing;
An execution control step of communicating with the selected terminal device and controlling execution of the service process;
A program that causes a computer to execute.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016056299A JP6790396B2 (en) | 2016-03-18 | 2016-03-18 | Information processing equipment, information processing system, service processing execution control method and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016056299A JP6790396B2 (en) | 2016-03-18 | 2016-03-18 | Information processing equipment, information processing system, service processing execution control method and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017173927A true JP2017173927A (en) | 2017-09-28 |
JP6790396B2 JP6790396B2 (en) | 2020-11-25 |
Family
ID=59971196
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016056299A Expired - Fee Related JP6790396B2 (en) | 2016-03-18 | 2016-03-18 | Information processing equipment, information processing system, service processing execution control method and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6790396B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2022520030A (en) * | 2019-10-22 | 2022-03-28 | 上▲海▼商▲湯▼智能科技有限公司 | Gesture control method and device |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2011013605A1 (en) * | 2009-07-27 | 2011-02-03 | 三洋電機株式会社 | Presentation system |
JP2012191568A (en) * | 2011-03-14 | 2012-10-04 | Ricoh Co Ltd | Image projection apparatus, function setting method, and function setting program |
JP2013025488A (en) * | 2011-07-19 | 2013-02-04 | Ricoh Co Ltd | Information processing apparatus and information processing method |
JP2013254458A (en) * | 2012-06-08 | 2013-12-19 | Ricoh Co Ltd | Operation control device and operation control method |
JP2014044738A (en) * | 2013-11-05 | 2014-03-13 | Seiko Epson Corp | Terminal device for allocating image on split screen displayed by image display device, method for controlling terminal device, and computer program |
JP2014048937A (en) * | 2012-08-31 | 2014-03-17 | Omron Corp | Gesture recognition device, control method thereof, display equipment, and control program |
JP2015095164A (en) * | 2013-11-13 | 2015-05-18 | オムロン株式会社 | Gesture recognition device and control method for gesture recognition device |
-
2016
- 2016-03-18 JP JP2016056299A patent/JP6790396B2/en not_active Expired - Fee Related
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2011013605A1 (en) * | 2009-07-27 | 2011-02-03 | 三洋電機株式会社 | Presentation system |
JP2012191568A (en) * | 2011-03-14 | 2012-10-04 | Ricoh Co Ltd | Image projection apparatus, function setting method, and function setting program |
JP2013025488A (en) * | 2011-07-19 | 2013-02-04 | Ricoh Co Ltd | Information processing apparatus and information processing method |
JP2013254458A (en) * | 2012-06-08 | 2013-12-19 | Ricoh Co Ltd | Operation control device and operation control method |
JP2014048937A (en) * | 2012-08-31 | 2014-03-17 | Omron Corp | Gesture recognition device, control method thereof, display equipment, and control program |
JP2014044738A (en) * | 2013-11-05 | 2014-03-13 | Seiko Epson Corp | Terminal device for allocating image on split screen displayed by image display device, method for controlling terminal device, and computer program |
JP2015095164A (en) * | 2013-11-13 | 2015-05-18 | オムロン株式会社 | Gesture recognition device and control method for gesture recognition device |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2022520030A (en) * | 2019-10-22 | 2022-03-28 | 上▲海▼商▲湯▼智能科技有限公司 | Gesture control method and device |
JP7479388B2 (en) | 2019-10-22 | 2024-05-08 | 上▲海▼商▲湯▼智能科技有限公司 | Gesture control method and device |
Also Published As
Publication number | Publication date |
---|---|
JP6790396B2 (en) | 2020-11-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102551240B1 (en) | Mobile device and method for pairing with electric device | |
JP5347673B2 (en) | Information processing apparatus, information processing method, and program | |
KR102683351B1 (en) | Mobile device and method for pairing with electric device | |
JP2015095164A (en) | Gesture recognition device and control method for gesture recognition device | |
EP3159808A1 (en) | Address book based picture matching method and terminal | |
US20130249788A1 (en) | Information processing apparatus, computer program product, and projection system | |
JP2011095862A (en) | Apparatus and method for processing image and program | |
JP6790396B2 (en) | Information processing equipment, information processing system, service processing execution control method and program | |
KR102057581B1 (en) | Apparatus and method for automatically focusing an object in device having a camera | |
US9692918B2 (en) | Device control system and device control method for managing remote conference | |
JP2015102875A (en) | Display system and display control device | |
CN111610886A (en) | Method and device for adjusting brightness of touch screen and computer readable storage medium | |
JP6801329B2 (en) | Image forming device, information processing device and information processing system | |
JP6561938B2 (en) | Print processing system | |
US10708445B2 (en) | Information processing apparatus and non-transitory computer readable medium | |
JP6801577B2 (en) | Authentication system, authentication method, and gate | |
JP6094626B2 (en) | Display control apparatus and program | |
JP6398407B2 (en) | Authentication device, authentication system, and program | |
US20240089591A1 (en) | Non-transitory computer-readable storage medium storing display content notification program, display content notification device, display content notification method | |
JP2016194835A (en) | Information extraction method, information extraction program and information extraction apparatus | |
WO2021054177A1 (en) | Information processing device and information processing method | |
JP6269869B2 (en) | Display control apparatus and program | |
US20140075020A1 (en) | Server device, information processing method, and computer program product | |
WO2018122960A1 (en) | Photographer identification system, photographer identification method, and program | |
JP6972964B2 (en) | Image forming device and image forming system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190130 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20191220 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200107 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200303 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200507 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200629 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20201006 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20201019 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6790396 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
LAPS | Cancellation because of no payment of annual fees |