JP4256850B2 - Information presenting apparatus, information presenting method, and information presenting program - Google Patents
Information presenting apparatus, information presenting method, and information presenting program Download PDFInfo
- Publication number
- JP4256850B2 JP4256850B2 JP2005028818A JP2005028818A JP4256850B2 JP 4256850 B2 JP4256850 B2 JP 4256850B2 JP 2005028818 A JP2005028818 A JP 2005028818A JP 2005028818 A JP2005028818 A JP 2005028818A JP 4256850 B2 JP4256850 B2 JP 4256850B2
- Authority
- JP
- Japan
- Prior art keywords
- information
- user
- presentation
- presenting
- information presentation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Image Processing (AREA)
- Position Input By Displaying (AREA)
- User Interface Of Digital Computer (AREA)
- Image Analysis (AREA)
Description
本発明は、蓄積された情報を一人、又は複数人に対して提示する情報提示技術に関するものである。 The present invention relates to an information presentation technique for presenting accumulated information to one or more people.
従来、公共空間での情報提示には次のようなものが用いられている。 Conventionally, the following is used for information presentation in public spaces.
ポスター、冊子、及び紙等を媒体にした情報提示は安価なため、非常によく利用されている。 Information presentation using posters, booklets, paper, and the like as a medium is inexpensive and is therefore very often used.
また、街頭端末(大型)は大型のディスプレイを備え、多くのユーザに対して一度に情報を提供することが可能である。 A street terminal (large) has a large display and can provide information to many users at once.
広告等、ユーザに対して情報を提示するサービスを考えると、ほとんどのサービスは沢山の人に見てもらって、理解してもらい、興味を持ってもらうことを目的としている。このため、人が多く集まり、目を引く場所に情報を提示することが効果的である。 Considering services that offer information to users, such as advertisements, most services are aimed at getting many people to see, understand, and get interested. For this reason, it is effective to present information in a place where many people gather and get a lot of looks.
また、街頭端末では、情報に対して、ユーザからインタラクション(情報操作)を起こすことのできるシステムも開示されている(例えば、非特許文献1参照。)。
従来の情報提示技術では沢山の情報が同じ場所に提示される。このため提供する情報に統一感が無くユーザに対して雑多な印象を与え景観を損ねることになり、情報が不必要な人に対して不快感を与えているという第1の課題がある。 In the conventional information presentation technique, a lot of information is presented at the same place. Therefore, there is a first problem that the information to be provided does not have a sense of unity and gives a miscellaneous impression to the user and impairs the scenery, giving an unpleasant feeling to a person who does not need the information.
また、このようなサービスは沢山の人を対象にしているため、複数人で閲覧することのできるシステムであることが多い。この場合、ユーザは興味のある情報の前に立ち情報を閲覧することになるが、その立ち位置からどの情報を見ているのか他人に分かり、プライバシーの関係上問題があるという第2の課題がある。 Moreover, since such a service is intended for many people, it is often a system that can be browsed by a plurality of people. In this case, the user browses standing information in front of the information he is interested in. However, the second problem is that there is a problem in terms of privacy because other people know what information they are viewing from the standing position. is there.
また、第3の課題として複数人が同じ情報を閲覧している場合等に、ユーザによっては情報と対峙する向きに立つ事ができず、視認したい情報が見難くなってしまうという問題がある。 In addition, as a third problem, when a plurality of people are viewing the same information, there is a problem that it is difficult for some users to stand in a direction facing the information, and it is difficult to see information to be viewed.
また、情報提示装置において、ユーザが他の情報を得たいと考えた場合等に、情報に対してユーザの意思を反映させるために情報操作を行う必要がある。そこで第4の課題として、情報操作を行うことのできる情報提示技術を提供するということがある。 In addition, in the information presentation apparatus, when the user wants to obtain other information, it is necessary to perform an information operation in order to reflect the user's intention on the information. Therefore, as a fourth problem, there is to provide an information presentation technique capable of performing an information operation.
本発明はかかる事情に鑑みてなされたものであり、その目的は、上記課題を解決できる情報提示技術を提供することにある。 This invention is made | formed in view of this situation, The objective is to provide the information presentation technique which can solve the said subject.
そこで、上記課題を解決するために、請求項1に記載の情報提示装置は、映像提示手段を用いてユーザに情報を提供する情報提示装置であって、前記映像提示手段に対してユーザに待ち受け情報を提示するように指示を行う待ち受け情報提示手段と、撮像手段によって撮像された画像から、この画像内のユーザの特定部位を検出する特定部位検出手段と、前記撮像手段を用いて撮像された画像から、ユーザの顔の向きを検出し、前記ユーザの視線方向を決めるユーザ視線方向検出手段と、前記ユーザの視線方向から情報を提示する向きを決定し、前記映像提示手段に対して前記検出された特定部位に詳細情報を提示するように指示を行う詳細情報提示手段と、を有することを特徴とする。 Therefore, in order to solve the above problem, an information presentation apparatus according to claim 1 is an information presentation apparatus that provides information to a user using video presentation means, and waits for the user with respect to the video presentation means. The standby information presenting means for instructing to present information, the specific part detecting means for detecting the specific part of the user in the image from the image picked up by the image pickup means, and the image picked up using the image pickup means from the image, it detects the direction of the face of the user, and the user line-of-sight direction detecting means for determining the gaze direction of the user, and determine the orientation of presenting information from the viewing direction of the user, the detection on the image presentation means And detailed information presenting means for instructing to present the detailed information at the specified part .
また、請求項2に記載の情報提示装置は、前記情報提示装置は、前記ユーザの一定の動作を認識するユーザ動作認識手段を有しており、前記詳細情報提示手段は、前記認識した動作に対応付けられた処理を行うことを特徴とする。
The information presentation apparatus according to
また、請求項3に記載の情報提示装置は、請求項1又は請求項2に記載の情報提示装置において、前記待ち受け情報提示手段は、待ち受け情報を提示している領域にユーザがどれだけ近づいているのかを検出する手段を具備し、前記検出されたユーザの近づき度合いに応じて前記待ち受け情報を変化させて提示することを特徴とする。
Further, the information presentation device according to claim 3 is the information presentation device according to
また、請求項4に記載の情報提示方法は、映像提示手段を用いてユーザに情報を提供する情報提示装置における情報提示方法であって、待ち受け情報提示手段が、前記映像提示手段に対してユーザに待ち受け情報を提示するように指示を行う待ち受け情報提示ステップと、特定部位検出手段が、撮像手段によって撮像された画像から、この画像内のユーザの特定部位を検出する特定部位検出ステップと、ユーザ視線方向検出手段が、前記撮像手段を用いて撮像された画像から、ユーザの顔の向きを検出し、前記ユーザの視線方向を決めるユーザ視線方向検出ステップと、詳細情報提示手段が、前記ユーザの視線方向から情報を提示する向きを決定し、前記映像提示手段に対して前記検出された特定部位に詳細情報を提示するように指示を行う詳細情報提示ステップと、を有することを特徴とする。 The information presenting method according to claim 4 is an information presenting method in an information presenting apparatus that provides information to a user using a video presenting means, wherein the standby information presenting means is a user with respect to the video presenting means. A standby information presentation step for instructing to present standby information to the user, a specific part detecting unit for detecting a specific part of the user in the image from the image captured by the imaging unit, and a user A gaze direction detection unit detects a user's face direction from an image captured using the imaging unit, and a user gaze direction detection step for determining the gaze direction of the user, and a detailed information presentation unit include : determining an orientation for presenting information from the viewing direction, and instructs to present detailed information on the detected specific sites for the image presentation means It characterized by having a a fine information providing step.
また、請求項5に記載の情報提示方法は、前記情報提示装置が、前記ユーザの一定の動作を認識するユーザ動作認識手段を有しており、前記詳細情報提示手段は、前記認識した動作に対応付けられた処理を行うことを特徴とする。 Further, in the information presentation method according to claim 5 , the information presentation device includes user action recognition means for recognizing a certain action of the user, and the detailed information presentation means performs the recognized action on the recognized action. It is characterized by performing the associated processing .
また、請求項6に記載の情報提示方法は、請求項4又は請求項5に記載の情報提示方法において、前記待ち受け情報提示手段は、待ち受け情報を提示している領域にユーザがどれだけ近づいているのかを検出する手段を具備し、前記検出されたユーザの近づき度合いに応じて前記待ち受け情報を変化させて提示することを特徴とする。
The information presenting method according to
また、請求項7に記載の情報提示プログラムは、請求項1から3のいずれか1項に記載の情報提示装置を構成する各手段としてコンピュータを機能させるためのプログラムである。An information presentation program according to a seventh aspect is a program for causing a computer to function as each means constituting the information presentation apparatus according to any one of the first to third aspects.
なお、請求項1及び4において、ユーザを含む画像とは、ユーザの特定部位を検出できる画像であればよい。 In addition, in Claim 1 and 4, the image containing a user should just be an image which can detect a user's specific site | part.
請求項1及び4に記載の発明では、ユーザに対して待ち受け情報を提示してから、ユーザの特定部位に対して詳細情報を提示するといったように、段階的に情報を提供することが可能になる。 According to the first and fourth aspects of the present invention, it is possible to provide information step by step, such as presenting standby information to the user and then presenting detailed information to a specific part of the user. Become.
そして、情報の提供対象となるユーザのみが情報を視認できる位置に情報を提供することが可能となる。 And it becomes possible to provide information to a position where only the user who is the provision target of information can visually recognize the information.
さらに、ユーザの視線に基づいて情報を提供するので、ユーザにとって見やすい態様で情報を提供することが可能となる。 Furthermore, since the information is provided based on the user's line of sight, the information can be provided in a manner that is easy for the user to see.
請求項2及び5に記載の発明では、ユーザの動作に対応した処理を行うことで、ユーザの意思を反映した情報操作が可能となる。 In the second and fifth aspects of the invention, information processing reflecting the user's intention can be performed by performing processing corresponding to the user's operation.
請求項1及び4に記載の発明によれば、段階的に情報を提供することで統一感が無くユーザに対して雑多な印象を与え景観を損ねるという課題を解決することが可能となり、特定部位に情報を提示することで情報が不必要な人に対して不快感を与えるという問題を解決することが可能となる。 According to invention of Claim 1 and 4 , it becomes possible to solve the subject of giving a miscellaneous impression and giving a miscellaneous impression with respect to a user by providing information step by step, and a specific part. It is possible to solve the problem of giving unpleasant feeling to a person who does not need the information by presenting the information.
そして、情報の提供対象となるユーザのみが情報を視認できる位置に提示することで、当該ユーザがどのような情報を見ているかを他人に知られてしまうという問題を解決することが可能となる。 Then, by presenting the information at a position where only the user who is to provide the information can visually recognize the information, it is possible to solve the problem that other people know what information the user is viewing. .
さらに、ユーザの視線に基づいて情報を提供するので、複数人が同じ情報を閲覧している場合等に、ユーザによっては情報と対峙する向きに立つ事ができず、視認したい情報が見難くなってしまうという問題を解決することが可能となる。 Furthermore, since the information is provided based on the user's line of sight, when a plurality of people are viewing the same information, it is difficult for some users to stand facing the information, making it difficult to see the information that they want to view. Can be solved.
請求項2及び5に記載の発明によれば、ユーザが他の情報を得たいと考えた場合等には、ユーザが一定の動作を行うことでユーザの意思を反映させるような情報操作を行うことが可能となる。 According to the second and fifth aspects of the present invention, when the user wants to obtain other information, the user performs an information operation that reflects the user's intention by performing a certain operation. It becomes possible.
以下に、本発明の実施形態について図面を参照して説明する。 Embodiments of the present invention will be described below with reference to the drawings.
図1は本実施形態における情報提示装置を示す図である。本実施形態における情報提示装置は少なくとも映像提示手段1、撮像手段2、特定部位検出部3、詳細情報提示部4、及び待ち受け情報提示部5を具備する。
FIG. 1 is a diagram illustrating an information presentation apparatus according to the present embodiment. The information presentation apparatus in this embodiment includes at least a video presentation unit 1, an
映像提示手段1は、待ち受け情報を提示する待ち受け情報提示部5、及び詳細情報を提示する詳細情報提示部4から信号を受信し、それぞれに対応する映像を提示する。 The video presentation means 1 receives signals from the standby information presentation unit 5 that presents standby information and the detailed information presentation unit 4 that presents detailed information, and presents the corresponding video.
撮像手段2は映像を取得して当該映像を、特定部位検出部3へ送信する。
The
特定部位検出部3は、送信された映像の中から詳細情報を提示する部位を検出する。ここで特定部位としては、ユーザの掌、手の甲、腕、つま先、手に持っている持ち物、及び身につけているもの等、ユーザにとって見易い位置や、当該ユーザにのみ見える位置が考えられる。また、検出する情報は、その部位の位置情報及び大きさ、並びに映像提示手段1から特定部位までの距離である。この映像提示手段1から特定部位までの距離は、平均的な人間の体型を想定して予め設定している値を利用してもよいし、又は、図2に示した距離センサ10を用いて求めてもよい。このようにして検出した情報を詳細情報提示部4へ送信する。
The specific part detection unit 3 detects a part presenting detailed information from the transmitted video. Here, as the specific part, a position that can be easily seen by the user, such as a user's palm, the back of the hand, an arm, a toe, an item held by the hand, and an object worn by the user, or a position that can be seen only by the user can be considered. The information to be detected is the position information and size of the part, and the distance from the video presentation means 1 to the specific part. As the distance from the video presentation means 1 to the specific part, a value set in advance assuming an average human body shape may be used, or the
詳細情報提示部4は特定部位検出部3から、特定部位の位置及び大きさ、並びに映像提示手段1から特定部位までの距離をに関する情報を受け取り、特定部位の大きさに合わせて提示すべき詳細情報の大きさを縮小、拡大する。さらに、映像提示装置1から特定部位までの距離によって、特定部位に提示する映像の焦点を決定する。また、特定部位の位置が映像提示手段1の映像提示領域内であった場合には、詳細情報提示部4は映像提示手段1に対して、その位置に当てはまるよう映像を提示するように指示を送る。 The detailed information presentation unit 4 receives information on the position and size of the specific part and the distance from the video presentation means 1 to the specific part from the specific part detection unit 3, and details to be presented according to the size of the specific part Reduce or expand the size of information. Furthermore, the focus of the image | video shown to a specific site | part is determined by the distance from the video presentation apparatus 1 to a specific site | part. Further, when the position of the specific part is within the video presentation area of the video presentation means 1, the detailed information presentation unit 4 instructs the video presentation means 1 to present the video so as to apply to the position. send.
ここで、詳細情報とは待ち受け情報に関連する詳細情報であってもよいし、又は、待ち受け情報とは関連しない別の事柄の情報であってもよい。 Here, the detailed information may be detailed information related to the standby information, or may be information on another matter not related to the standby information.
また、待ち受け情報及び詳細情報を提示する映像提示手段1は一台に限らず、複数台あっても構わない。また、待ち受け情報を提示する映像提示手段と詳細情報を提示する映像提示手段とはそれぞれ別の映像提示手段でも構わない。 Further, the video presentation means 1 for presenting standby information and detailed information is not limited to one, and a plurality of video presentation means 1 may be provided. The video presentation means for presenting standby information and the video presentation means for presenting detailed information may be different video presentation means.
また、待ち受け情報を提示する映像提示手段1はプロジェクタ、液晶ディスプレイ、及びプラズマディスプレイなどユーザが映像を見ることのできる手段であればよい。 The video presentation means 1 for presenting standby information may be any means such as a projector, a liquid crystal display, and a plasma display that allows the user to view the video.
また、特定部位検出部3、又は、後述するユーザ動作認識部6及びユーザ視線方向検出部7で処理される映像を撮像する撮像機器には赤外線カメラ等を用いてもよい。また、撮像機器は同じ種類の撮像機器が複数台あってもよいし、違う種類の撮像機器が複数台あっても構わない。
In addition, an infrared camera or the like may be used as an imaging device that captures an image processed by the specific part detection unit 3 or the user
本実施形態ではユーザが情報を閲覧しながら移動している場合、ユーザの見やすい向きに情報を提示し続けるためにユーザ視線方向検出部7を具備することができる。このユーザ視線方向検出部7は、撮像手段2が取得した映像の中から人の視線方向を検出して、この検出した視線方向を詳細情報提示部4へ送信し、この視線方向から詳細情報提示部4が情報を提示する向きを決定する。
In the present embodiment, when the user is moving while browsing the information, the user gaze direction detecting unit 7 can be provided in order to continue presenting the information in a direction that is easy for the user to see. The user gaze direction detection unit 7 detects a human gaze direction from the video acquired by the
ここで図2を用いて、視線方向の検出について説明する。図2に示すように、視線方向を検出するためにユーザの上部に距離センサ10を設置することができる。このように距離センサ10をユーザの上部に設置し、ユーザ視線方向検出部7はに距離センサ10からの情報に対してユーザの一番高い部分である頭を検出する。ユーザ視線方向検出部7は、この頭の領域の重心から詳細情報を提示する特定部位の重心へ向かう方向を視線方向であると決定する。
Here, the detection of the line-of-sight direction will be described with reference to FIG. As shown in FIG. 2, a
なお、ユーザ視線方向検出手段7は、少なくとも2台以上の撮像手段11、12を用いてユーザの顔の向きを検出し、視線の方向を抽出してもよい。この場合、撮像手段11、12はユーザの顔が撮像できる位置に置くこととする。
Note that the user gaze direction detection unit 7 may detect the direction of the user's face by using at least two or
また、情報提示装置の待ち受け情報提示領域内にユーザが存在し、そのユーザが詳細情報を閲覧している場合に、撮像手段2の映像からユーザ動作を抽出して、システムを操作するためのユーザ動作認識部6を設置してもよい。
In addition, when a user exists in the standby information presentation area of the information presentation device and the user is browsing detailed information, a user for extracting a user action from the image of the
このユーザ動作認識部6は既定のユーザ動作、及びこれに対応する動作IDを管理する動作データベースを持ち、撮像手段2の撮像映像の中からユーザ動作を検出し、その後、検出されたユーザ動作に対応する動作IDを動作データベースの中から取得し、この取得した動作IDを詳細情報提示部4に送る。
The user
詳細情報提示部4は動作ID及びこれに対応する情報操作を管理する操作データベースを持ち、ユーザ動作認識部6から送られた動作IDに対応する情報操作を行う。
The detailed information presentation unit 4 has an operation database for managing the operation ID and the information operation corresponding to the operation ID, and performs an information operation corresponding to the operation ID sent from the user
なお、ユーザ動作は手だけを用いたものや腕を上げ下げし曲げるもの、又は、体全体の動きなど何でもよい。 Note that the user action may be anything using only the hand, bending the arm up and down, or movement of the entire body.
また、情報操作は情報を、表示するもの、更新するもの、棄却するもの、拡大縮小し表示の大きさを変更するもの、又は、予めユーザの登録しておいたアドレスへ情報を送信するものなどが挙げられる。 Information operations include displaying information, updating information, rejecting information, changing the display size by scaling, or sending information to an address registered in advance by the user. Is mentioned.
図3を用いて本実施例に用いる情報提示装置の構成を説明する。図3に示すように、待ち受け情報提示部5はソフトウェアとして計算機104内に実装されている。
The structure of the information presentation apparatus used for a present Example is demonstrated using FIG. As shown in FIG. 3, the standby information presentation unit 5 is implemented in the
映像提示手段1はプロジェクタ101で実装し、このプロジェクタ101は計算機104に接続されている。
The video presentation means 1 is implemented by a
撮像手段2はビデオカメラ102で実装し、このビデオカメラ102は計算機105に接続されている。
The imaging means 2 is implemented by a
特定部位検出部3、ユーザ視線方向検出部7、ユーザ動作認識部6、及び詳細情報提示部4は、計算機105内に実装しており、この計算機105と計算機104とはネットワークで繋がっている。
The specific part detection unit 3, the user gaze direction detection unit 7, the user
また、プロジェクタ101及びビデオカメラ102は建物の天井に取り付けられ、それぞれ床面に投影、又は、床面を撮影しているものとする。
Further, it is assumed that the
次に本実施例における具体的な動作を説明する。本実施例において、待ち受け情報は雨の映像を用い、ユーザ103の特定部位として掌を検出し、視線方向はビデオカメラ102を用いて検出するものとする。
Next, a specific operation in the present embodiment will be described. In the present embodiment, rain information is used as standby information, a palm is detected as a specific part of the
ここで、ユーザ動作は手の動作を認識する。認識する手の動作は、握る動作、振る動作、傾ける動作、及び両手を添える動作である。これら手の動作には、それぞれ動作IDが割り当てられている。 Here, the user action recognizes the hand action. Recognizing hand movements include a gripping movement, a shaking movement, a tilting movement, and a movement with both hands. Each of these hand actions is assigned an action ID.
情報操作としては、情報の保存、情報の更新、情報の棄却、及び情報量の増加、の操作を実現する。これらそれぞれの情報操作は動作IDに対応付けられている。 As information operations, operations of storing information, updating information, rejecting information, and increasing the amount of information are realized. Each of these information operations is associated with an action ID.
提示すべき詳細情報がある場合、待ち受け情報提示部5は、計算機104で生成された雨の映像をプロジェクタ101に送る。プロジェクタ101は待ち受け情報提示部5から送られた雨の映像を床面に投影する。
When there is detailed information to be presented, the standby information presentation unit 5 sends the rain video generated by the
雨の映像において、人は雨が降り出すと雨を掌で受けるような動作を行うことが多い。そこで本実施例では雨の映像を提示することでユーザが手を差し出すと仮定する。そして、その差し出した掌の上に詳細情報を提示する。 In a rainy image, a person often performs an operation of receiving rain with a palm when it starts to rain. Therefore, in this embodiment, it is assumed that the user presents a hand by presenting a rain video. Then, the detailed information is presented on the handed out palm.
また本実施例において、待ち受け情報提示部5は、ユーザ位置を検出する手段を具備してもよい。このユーザ位置を検出する手段は、待ち受け情報を提示している領域の中央にユーザ103がどれだけ近づいているのかを検出することができる手段である。これにより、ユーザが待ち受け情報に近づくにつれ雨が激しく変化していくように待ち受け情報をユーザに提示してもよい。
In the present embodiment, the standby information presentation unit 5 may include means for detecting the user position. The means for detecting the user position is a means capable of detecting how close the
ビデオカメラ102は待ち受け情報が提示されている領域を含む付近を撮像しており、このビデオカメラ102の撮像画像は計算機105へ送信され、特定部位検出部3、ユーザ視線方向検出部7、及びユーザ動作認識部6は送信された撮像画像を得る。
The
ここで図4、及び図5を用いて特定部位検出部3での処理を説明する。 Here, the process in the specific part detection part 3 is demonstrated using FIG.4 and FIG.5.
特定部位検出部3は人物がいない状態の映像を初期画像として保存しておき、人物のいる現在の映像(図4(1))との差分をとる。その結果、特定部位検出手段3は人物の領域のみの差分画像A(図4(2))を得る。 The specific part detection unit 3 stores an image without a person as an initial image, and obtains a difference from the current image with a person (FIG. 4 (1)). As a result, the specific part detection means 3 obtains a difference image A (FIG. 4 (2)) of only the person region.
差分画像A(図4(2))はカラー画像でRGBの3つの領域を持っている。このため、ファイルサイズが大きく画像処理を行うのに時間がかかる。そこで差分画像A(図4(2))の中で差分のあった部分を白、無い部分を黒とし白と黒の2値化画像に変換する。 The difference image A (FIG. 4 (2)) is a color image and has three regions of RGB. For this reason, it takes time to perform image processing with a large file size. Therefore, the difference image A (FIG. 4 (2)) is converted into a binary image of white and black, where the difference portion is white and the non-difference portion is black.
次にその2値化画像の白の領域の拡張と縮小処理を行う。その結果、画像内にある小さなノイズが除去され、2値化画像B(図4(3))を得る。 Next, the white area of the binarized image is expanded and reduced. As a result, small noise in the image is removed, and a binarized image B (FIG. 4 (3)) is obtained.
次に、2値化画像B(図4(3))の領域のモーメントを求める。この求めた結果から重心41を検出し、これを人物の体の重心とする(図4(4))。 Next, the moment of the area of the binarized image B (FIG. 4 (3)) is obtained. The center of gravity 41 is detected from the obtained result, and this is used as the center of gravity of the person's body (FIG. 4 (4)).
差分画像A(図4(1))の差分のある領域の中から肌色の領域Cのみを抽出する(図4(5))。 Only the skin color area C is extracted from the difference area of the difference image A (FIG. 4 (1)) (FIG. 4 (5)).
領域Cの中で予め定められた最小閾値に満たない大きさの領域と、最大閾値を超えた大きさの領域を除去し、除去後の領域の中で、先に求めた重心41の位置から一番遠い重心位置を持つ領域Dを求める(図4(6))。 An area having a size less than the predetermined minimum threshold in the area C and an area having a size exceeding the maximum threshold are removed, and from the position of the center of gravity 41 obtained previously in the removed area. A region D having the farthest center of gravity is obtained (FIG. 4 (6)).
ここで、ユーザが手を差し出している映像を見ると、掌の領域は体の重心41より一番遠い位置になるという拘束条件がある。そこから、この領域Dは掌を含んだ領域になる。しかしこの領域はユーザが半袖の衣服を身につけている場合腕の領域も含んだ領域として検出されてしまう。このため、手の領域のみを切り出す必要がある。この手の領域は腕の領域より体の重心から遠くなる。そこで、領域Dの中から体の重心より一番遠い点42を見つけ出す。この点は手の領域に含まれる点であり、手の領域の中で背景との境界にある点であると言える。そこでこの点を中心とした円45の内部領域と領域Dの共有部分を求める。このとき、円45の半径を、一般的な人の手の中指から手首までの長さにする。そうすることで、共有部分である領域Eが手の領域となる。さらに、領域Eの重心44を求める(図4(7))。 Here, there is a constraint that the palm region is located farthest from the center of gravity 41 of the body when viewing the video with the user's hand. From there, the region D becomes a region including a palm. However, this region is detected as a region including the arm region when the user is wearing short-sleeved clothing. For this reason, it is necessary to cut out only the hand region. This hand region is farther from the center of gravity of the body than the arm region. Therefore, a point 42 farthest from the center of gravity of the body is found in the region D. This point is included in the hand region, and can be said to be a point at the boundary with the background in the hand region. Therefore, a shared portion of the inner region of the circle 45 and the region D around this point is obtained. At this time, the radius of the circle 45 is set to the length from the middle finger to the wrist of a general human hand. By doing so, the area E which is a shared portion becomes the hand area. Further, the center of gravity 44 of the region E is obtained (FIG. 4 (7)).
次に領域Eと円45の境界線は手首の領域になると言える。そこで、その境界線の重心となる点43を求めその点を手首の重心であるとする(図4(8))。 Next, it can be said that the boundary line between the region E and the circle 45 becomes a wrist region. Therefore, a point 43 serving as the center of gravity of the boundary line is obtained, and this point is assumed to be the center of gravity of the wrist (FIG. 4 (8)).
最後に、求められた領域Eの重心44と重心43までの領域46が掌であると検出される(図4(9))。 Finally, it is detected that the center of gravity 44 of the obtained region E and the region 46 up to the center of gravity 43 are palms (FIG. 4 (9)).
この検出された掌の位置及び領域46の大きさの情報は詳細情報提示部4へ送信される。さらに、特定部位検出部3はプロジェクタ101と特定部位である掌との距離を、平均的な人間の体型から予め求めておき、この情報も詳細情報提示部4へ送信する。
Information on the detected palm position and the size of the region 46 is transmitted to the detailed information presentation unit 4. Further, the specific part detection unit 3 obtains in advance the distance between the
また、ユーザ視線方向検出部7は、特定部位検出部3から送信された体の重心41から手の重心44へ向かう方向を視線方向47として検出する。これは、この方向が本当の視線方向に類似するからである。ユーザ視線方向検出部7は、この視線方向47を詳細情報提示部4へ送信する。 Further, the user gaze direction detection unit 7 detects a direction from the center of gravity 41 of the body transmitted from the specific part detection unit 3 to the center of gravity 44 of the hand as a gaze direction 47. This is because this direction is similar to the true line-of-sight direction. The user gaze direction detection unit 7 transmits the gaze direction 47 to the detailed information presentation unit 4.
詳細情報提示部4は、特定部位検出部3から特定部位である掌の位置と大きさとプロジェクタ101から掌までの距離の情報を受け取り、掌の大きさの情報から詳細情報をユーザの掌に当てはまる大きさに拡大・縮小する。なお、提示すべき詳細情報は少なくとも1つ以上あり、それらはランダムで選ばれてもよいし、それぞれが順番を持っておりその順番で提示されてもよい。
The detailed information presentation unit 4 receives information on the position and size of the palm that is the specific part and the distance from the
さらに詳細情報提示部4は、ユーザ視線方向検出部7よりユーザの視線方向を受け取り、ユーザの視線方向と同じ向きになるように詳細情報を回転させる。つまりユーザが詳細情報を見た時に、文字などが逆さにならないようにする。さらに、詳細情報提示部4は特定部位検出部3から送られた掌の位置に、回転させた詳細情報を提示するよう、プロジェクタ101へ命令を送る。また、詳細情報提示部4は、特定部位検出部3から送られたプロジェクタ101から掌までの距離に基づきプロジェクタ101の焦点を決定する。
Furthermore, the detailed information presentation unit 4 receives the user's line-of-sight direction from the user's line-of-sight direction detection unit 7 and rotates the detailed information so that the direction is the same as the user's line-of-sight direction. That is, when the user sees the detailed information, the characters are not reversed. Further, the detailed information presentation unit 4 sends a command to the
プロジェクタ101はそれら情報に基づき、ユーザの掌へ詳細情報を提示する。この時、詳細情報を提示する領域がプロジェクタ101の映像提示範囲外であった場合は、詳細情報を提示しないようにする、プロジェクタの台数を増やしビデオカメラ102の撮像範囲を全てカバーできるようにする、又は、プロジェクタが駆動する装置を用いて詳細情報を提示する向きにプロジェクタを向かせるという対応が可能である。
Based on such information, the
ユーザ動作認識部6は、特定部位検出部3と同様の処理でユーザの手の重心44、体の重心、及び手の領域(領域E)の大きさを得る。
The user
ここで図6及び図7を用いてユーザ動作と動作IDの動作データベース表について説明する。 Here, an operation database table of user operations and operation IDs will be described with reference to FIGS.
以下にユーザ動作認識部6がユーザ動作を認識する手順の一例を説明する。
Below, an example of the procedure in which the user
ユーザ動作認識部6は、手の領域の大きさが、現在の大きさより3分の2以下になり手の重心が体の重心に近づくと、握る動作であると認識する。
The user
また、ユーザ動作認識部6は、手の領域の大きさが、現在の大きさより3分の2以下になり手の重心の位置がほぼ変化しないと、傾ける動作であると認識する。
Further, the user
また、ユーザ動作認識部6は、手の領域の大きさが現在の大きさより倍の大きさになると、両手を添える動作であると認識する。
In addition, when the size of the hand region is double the current size, the user
認識されたユーザ動作は図6に示すように、動作データベースにより動作IDが割り振られている。ユーザ動作が認識されるとユーザ動作認識部6は詳細情報提示部4へ、この動作IDを送信する。また、上述の処理で検出された手の領域の情報も詳細情報提示部4へ送信する。
As shown in FIG. 6, recognized user actions are assigned action IDs by the action database. When the user action is recognized, the user
詳細情報提示部4は、ユーザ動作認識部6から動作IDを受け取り、図8に示す情報操作データベースにより動作IDに当てはまる情報操作を行う。また、詳細情報提示部4はユーザ動作認識部6から手の領域の情報も受け取り、情報操作を行う上で手の領域の情報が必要な際にその情報を用いる。
The detailed information presentation unit 4 receives the operation ID from the user
ここで、上述した処理の一例を挙げて説明する。詳細情報提示部4は、両手を添える動作である動作ID04を受け取ると、情報操作データベースに問い合わせを行う。詳細情報提示部4は、情報操作データベースから返された情報操作に基づき、提示している詳細情報に対して情報量の増加の処理を行う。ここで、情報量の増加の処理とは、詳細情報の拡大化、又は、詳細化である。
Here, an example of the above-described process will be described. The detailed information presentation unit 4 makes an inquiry to the information operation database when receiving the
また、ユーザが両手を添える動作を行うと、手の領域が拡大される。これにより詳細情報提示部4はユーザ動作認識部6より送信された、拡大された手の領域に合うように、詳細情報を拡大、又はさらに詳細な詳細情報を提示するようプロジェクタ101に命令を送る。
In addition, when the user performs an operation of adding both hands, the hand area is enlarged. As a result, the detailed information presentation unit 4 sends a command to the
プロジェクタ101は命令に合うように詳細情報提示部4より送られた情報をユーザの掌へ投影する。
The
なお、上記情報提示装置は、例えば、情報提示装置を構成するコンピュータ装置が有するCPUによって実現され、必要とする特定部位検出機能、詳細情報提示機能、待ち受け情報提示機能、ユーザ動作認識機能、ユーザ視線方向検出機能、などをアプリケーションプログラムとして搭載することができる。 The information presentation device is realized by, for example, a CPU included in a computer device that constitutes the information presentation device, and requires a specific part detection function, a detailed information presentation function, a standby information presentation function, a user action recognition function, a user line of sight. A direction detection function or the like can be installed as an application program.
また、上述の機能を実現するソフトウェアのプログラムコードを記録した記録媒体を、システム又は装置に供給し、このシステム又は装置のCPU(MPU)が記録媒体に格納されたプログラムコードを読み出し実行することも実現できる。この場合、記憶媒体から読み出されたプログラムコード自体が上述の機能を実現することになる。このプログラムコードを記憶した記憶媒体には、例えば、CD−ROM、DVD−ROM、CD−R、CD−RW、MO、HDD等がある。 In addition, a recording medium in which a program code of software that realizes the above functions is recorded is supplied to a system or apparatus, and a CPU (MPU) of the system or apparatus reads and executes the program code stored in the recording medium. realizable. In this case, the program code itself read from the storage medium realizes the above function. Examples of the storage medium storing the program code include a CD-ROM, a DVD-ROM, a CD-R, a CD-RW, an MO, and an HDD.
1…映像提示手段
2…撮像手段
3…特定部位検出部
4…詳細情報提示部
5…待ち受け情報提示部
6…ユーザ動作認識部
7…ユーザ視線方向検出部
9赤外線カメラ
10…距離センサ
11…撮像手段
12…撮像手段
101…プロジェクタ
102…ビデオカメラ
103…ユーザ
104…計算機
105…計算機
DESCRIPTION OF SYMBOLS 1 ... Image | video presentation means 2 ... Imaging means 3 ... Specific site | part detection part 4 ... Detailed information presentation part 5 ... Standby
Claims (7)
前記映像提示手段に対してユーザに待ち受け情報を提示するように指示を行う待ち受け情報提示手段と、
撮像手段によって撮像された画像から、この画像内のユーザの特定部位を検出する特定部位検出手段と、
前記撮像手段を用いて撮像された画像から、ユーザの顔の向きを検出し、前記ユーザの視線方向を決めるユーザ視線方向検出手段と、
前記ユーザの視線方向から情報を提示する向きを決定し、前記映像提示手段に対して前記検出された特定部位に詳細情報を提示するように指示を行う詳細情報提示手段と、
を有することを特徴とする情報提示装置。 An information presentation device that provides information to a user using video presentation means,
Standby information presentation means for instructing the video presentation means to present standby information to the user;
Specific part detecting means for detecting a specific part of the user in the image from the image picked up by the image pickup means ;
User gaze direction detection means for detecting the orientation of the user's face from the image captured using the imaging means and determining the user's gaze direction;
Detailed information presenting means for determining a direction of presenting information from the user's line-of-sight direction and instructing the video presenting means to present detailed information to the detected specific part ;
An information presentation device characterized by comprising:
前記詳細情報提示手段は、前記認識した動作に対応付けられた処理を行う
ことを特徴とする請求項1に記載の情報提示装置。
The information presenting apparatus has user action recognition means for recognizing a certain action of the user,
The information presentation apparatus according to claim 1 , wherein the detailed information presentation unit performs processing associated with the recognized action.
ことを特徴とする請求項1又は2に記載の情報提示装置。The information presentation apparatus according to claim 1, wherein the information presentation apparatus is an information presentation apparatus.
待ち受け情報提示手段が、前記映像提示手段に対してユーザに待ち受け情報を提示するように指示を行う待ち受け情報提示ステップと、
特定部位検出手段が、撮像手段によって撮像された画像から、この画像内のユーザの特定部位を検出する特定部位検出ステップと、
ユーザ視線方向検出手段が、前記撮像手段を用いて撮像された画像から、ユーザの顔の向きを検出し、前記ユーザの視線方向を決めるユーザ視線方向検出ステップと、
詳細情報提示手段が、前記ユーザの視線方向から情報を提示する向きを決定し、前記映像提示手段に対して前記検出された特定部位に詳細情報を提示するように指示を行う詳細情報提示ステップと、
を有することを特徴とする情報提示方法。 An information presentation method in an information presentation device for providing information to a user using a video presentation means,
A standby information presenting step in which the standby information presenting means instructs the video presenting means to present standby information to the user ;
A specific part detecting step for detecting a specific part of the user in the image from the image picked up by the image pickup means ;
A user gaze direction detecting unit that detects a user's face direction from an image captured using the imaging unit and determines the user's gaze direction;
A detailed information presenting step in which detailed information presenting means determines a direction in which to present information from the user's line-of-sight direction, and instructs the video presenting means to present detailed information to the detected specific part ; ,
An information presentation method characterized by comprising:
前記詳細情報提示手段は、前記認識した動作に対応付けられた処理を行うことを特徴とする請求項4に記載の情報提示方法。 The information presenting apparatus has user action recognition means for recognizing a certain action of the user,
The information presentation method according to claim 4 , wherein the detailed information presentation unit performs a process associated with the recognized action.
ことを特徴とする請求項4又は5に記載の情報提示方法。The information presentation method according to claim 4 or 5, characterized in that
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005028818A JP4256850B2 (en) | 2005-02-04 | 2005-02-04 | Information presenting apparatus, information presenting method, and information presenting program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005028818A JP4256850B2 (en) | 2005-02-04 | 2005-02-04 | Information presenting apparatus, information presenting method, and information presenting program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2006215863A JP2006215863A (en) | 2006-08-17 |
JP4256850B2 true JP4256850B2 (en) | 2009-04-22 |
Family
ID=36979051
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005028818A Active JP4256850B2 (en) | 2005-02-04 | 2005-02-04 | Information presenting apparatus, information presenting method, and information presenting program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4256850B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9712693B2 (en) | 2012-08-15 | 2017-07-18 | Nec Corporation | Information provision apparatus, information provision method, and non-transitory storage medium |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4931788B2 (en) * | 2007-12-18 | 2012-05-16 | 日本電信電話株式会社 | Information presentation control apparatus and information presentation control method |
JP4972013B2 (en) * | 2008-02-28 | 2012-07-11 | 日本電信電話株式会社 | Information presenting apparatus, information presenting method, information presenting program, and recording medium recording the program |
JP4964833B2 (en) * | 2008-06-23 | 2012-07-04 | 日本電信電話株式会社 | Information presentation control apparatus and information presentation control method |
JP4852634B2 (en) * | 2009-09-02 | 2012-01-11 | 日本電信電話株式会社 | External device cooperation apparatus and method and external device cooperation control program |
JP5550670B2 (en) * | 2012-03-28 | 2014-07-16 | 株式会社デンソーアイティーラボラトリ | Information processing device |
JP2014008295A (en) * | 2012-06-29 | 2014-01-20 | Sega Corp | Picture presentation device |
JP6081105B2 (en) * | 2012-08-27 | 2017-02-15 | エイディシーテクノロジー株式会社 | Exhibition equipment |
CN111508394A (en) * | 2020-05-21 | 2020-08-07 | 广州恒德智汇有限公司 | Interactive wall system |
-
2005
- 2005-02-04 JP JP2005028818A patent/JP4256850B2/en active Active
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9712693B2 (en) | 2012-08-15 | 2017-07-18 | Nec Corporation | Information provision apparatus, information provision method, and non-transitory storage medium |
Also Published As
Publication number | Publication date |
---|---|
JP2006215863A (en) | 2006-08-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102098277B1 (en) | Visibility improvement method based on eye tracking, machine-readable storage medium and electronic device | |
JP6402219B1 (en) | Crime prevention system, crime prevention method, and robot | |
JPH0844490A (en) | Interface device | |
JP4256850B2 (en) | Information presenting apparatus, information presenting method, and information presenting program | |
JP2010067062A (en) | Input system and method | |
JPWO2017047182A1 (en) | Information processing apparatus, information processing method, and program | |
CN104103024A (en) | User evaluation information acquisition method and device | |
WO2012063561A1 (en) | Information notification system, information notification method, information processing device and control method for same, and control program | |
WO2019033322A1 (en) | Handheld controller, and tracking and positioning method and system | |
JPWO2020136795A1 (en) | Information processing equipment, information processing methods, and programs | |
KR20200040716A (en) | Visibility improvement method based on eye tracking, machine-readable storage medium and electronic device | |
US20180035077A1 (en) | Remote communication system, method for controlling remote communication system, and storage medium | |
JP7000759B2 (en) | Guidance device, guidance system, guidance method and program | |
JP2019133437A (en) | Information processing device, system, information processing device control method, and program | |
WO2014027433A1 (en) | Information provision device, information provision method, and program | |
JP2004301869A (en) | Voice output device and pointing device | |
JP4972013B2 (en) | Information presenting apparatus, information presenting method, information presenting program, and recording medium recording the program | |
JP5426441B2 (en) | Advertisement image display device and advertisement image display method | |
JP6393854B2 (en) | Spherical camera display image change system, omnidirectional camera display image change method and program | |
JP7435837B2 (en) | Information processing system, information processing device, information processing method, and program | |
JP7020567B2 (en) | Information processing systems, information processing equipment, information processing methods, and programs | |
JP2022058833A (en) | Information processing system, information processing apparatus, information processing method, and program | |
JP4979895B2 (en) | Display control apparatus, display control method, display control program, and display | |
JP7094759B2 (en) | System, information processing method and program | |
WO2019138682A1 (en) | Information processing device, information processing method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20070220 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20081028 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20081225 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20090127 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20090130 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120206 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4256850 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130206 Year of fee payment: 4 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |