[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP4256850B2 - Information presenting apparatus, information presenting method, and information presenting program - Google Patents

Information presenting apparatus, information presenting method, and information presenting program Download PDF

Info

Publication number
JP4256850B2
JP4256850B2 JP2005028818A JP2005028818A JP4256850B2 JP 4256850 B2 JP4256850 B2 JP 4256850B2 JP 2005028818 A JP2005028818 A JP 2005028818A JP 2005028818 A JP2005028818 A JP 2005028818A JP 4256850 B2 JP4256850 B2 JP 4256850B2
Authority
JP
Japan
Prior art keywords
information
user
presentation
presenting
information presentation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2005028818A
Other languages
Japanese (ja)
Other versions
JP2006215863A (en
Inventor
陽子 石井
健人 宮奥
豪 東野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2005028818A priority Critical patent/JP4256850B2/en
Publication of JP2006215863A publication Critical patent/JP2006215863A/en
Application granted granted Critical
Publication of JP4256850B2 publication Critical patent/JP4256850B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Analysis (AREA)

Description

本発明は、蓄積された情報を一人、又は複数人に対して提示する情報提示技術に関するものである。   The present invention relates to an information presentation technique for presenting accumulated information to one or more people.

従来、公共空間での情報提示には次のようなものが用いられている。   Conventionally, the following is used for information presentation in public spaces.

ポスター、冊子、及び紙等を媒体にした情報提示は安価なため、非常によく利用されている。   Information presentation using posters, booklets, paper, and the like as a medium is inexpensive and is therefore very often used.

また、街頭端末(大型)は大型のディスプレイを備え、多くのユーザに対して一度に情報を提供することが可能である。   A street terminal (large) has a large display and can provide information to many users at once.

広告等、ユーザに対して情報を提示するサービスを考えると、ほとんどのサービスは沢山の人に見てもらって、理解してもらい、興味を持ってもらうことを目的としている。このため、人が多く集まり、目を引く場所に情報を提示することが効果的である。   Considering services that offer information to users, such as advertisements, most services are aimed at getting many people to see, understand, and get interested. For this reason, it is effective to present information in a place where many people gather and get a lot of looks.

また、街頭端末では、情報に対して、ユーザからインタラクション(情報操作)を起こすことのできるシステムも開示されている(例えば、非特許文献1参照。)。
Kento Miyaoku,Suguru Higashino,and Yoshinobu Tonomura,“C−Blink:A Hue−Difference−Based Light Signal Marker for Large Screen Interaction via Any Mobile Terminal.“,ACM UIST 2004,pp.147−156,Oct.2004
Moreover, in the street terminal, the system which can raise | generate interaction (information operation) from a user with respect to information is also disclosed (for example, refer nonpatent literature 1).
Kento Miyaoku, Shuguru Higasino, and Yoshinobu Tonomura, “C-Blink: A Hue-Difference-Based Il. 147-156, Oct. 2004

従来の情報提示技術では沢山の情報が同じ場所に提示される。このため提供する情報に統一感が無くユーザに対して雑多な印象を与え景観を損ねることになり、情報が不必要な人に対して不快感を与えているという第1の課題がある。   In the conventional information presentation technique, a lot of information is presented at the same place. Therefore, there is a first problem that the information to be provided does not have a sense of unity and gives a miscellaneous impression to the user and impairs the scenery, giving an unpleasant feeling to a person who does not need the information.

また、このようなサービスは沢山の人を対象にしているため、複数人で閲覧することのできるシステムであることが多い。この場合、ユーザは興味のある情報の前に立ち情報を閲覧することになるが、その立ち位置からどの情報を見ているのか他人に分かり、プライバシーの関係上問題があるという第2の課題がある。   Moreover, since such a service is intended for many people, it is often a system that can be browsed by a plurality of people. In this case, the user browses standing information in front of the information he is interested in. However, the second problem is that there is a problem in terms of privacy because other people know what information they are viewing from the standing position. is there.

また、第3の課題として複数人が同じ情報を閲覧している場合等に、ユーザによっては情報と対峙する向きに立つ事ができず、視認したい情報が見難くなってしまうという問題がある。   In addition, as a third problem, when a plurality of people are viewing the same information, there is a problem that it is difficult for some users to stand in a direction facing the information, and it is difficult to see information to be viewed.

また、情報提示装置において、ユーザが他の情報を得たいと考えた場合等に、情報に対してユーザの意思を反映させるために情報操作を行う必要がある。そこで第4の課題として、情報操作を行うことのできる情報提示技術を提供するということがある。   In addition, in the information presentation apparatus, when the user wants to obtain other information, it is necessary to perform an information operation in order to reflect the user's intention on the information. Therefore, as a fourth problem, there is to provide an information presentation technique capable of performing an information operation.

本発明はかかる事情に鑑みてなされたものであり、その目的は、上記課題を解決できる情報提示技術を提供することにある。   This invention is made | formed in view of this situation, The objective is to provide the information presentation technique which can solve the said subject.

そこで、上記課題を解決するために、請求項1に記載の情報提示装置は、映像提示手段を用いてユーザに情報を提供する情報提示装置であって、前記映像提示手段に対してユーザに待ち受け情報を提示するように指示を行う待ち受け情報提示手段と、撮像手段によって撮像された画像から、この画像内のユーザの特定部位を検出する特定部位検出手段と、前記撮像手段を用いて撮像された画像から、ユーザの顔の向きを検出し、前記ユーザの視線方向を決めるユーザ視線方向検出手段と、前記ユーザの視線方向から情報を提示する向きを決定し、前記映像提示手段に対して前記検出された特定部位に詳細情報を提示するように指示を行う詳細情報提示手段と、を有することを特徴とする。 Therefore, in order to solve the above problem, an information presentation apparatus according to claim 1 is an information presentation apparatus that provides information to a user using video presentation means, and waits for the user with respect to the video presentation means. The standby information presenting means for instructing to present information, the specific part detecting means for detecting the specific part of the user in the image from the image picked up by the image pickup means, and the image picked up using the image pickup means from the image, it detects the direction of the face of the user, and the user line-of-sight direction detecting means for determining the gaze direction of the user, and determine the orientation of presenting information from the viewing direction of the user, the detection on the image presentation means And detailed information presenting means for instructing to present the detailed information at the specified part .

また、請求項2に記載の情報提示装置は、前記情報提示装置は、前記ユーザの一定の動作を認識するユーザ動作認識手段を有しており、前記詳細情報提示手段は、前記認識した動作に対応付けられた処理を行うことを特徴とする。 The information presentation apparatus according to claim 2, wherein the information presentation apparatus includes user action recognition means for recognizing a certain action of the user, and the detailed information presentation means is configured to recognize the recognized action. It is characterized by performing the associated processing .

また、請求項3に記載の情報提示装置は、請求項1又は請求項2に記載の情報提示装置において、前記待ち受け情報提示手段は、待ち受け情報を提示している領域にユーザがどれだけ近づいているのかを検出する手段を具備し、前記検出されたユーザの近づき度合いに応じて前記待ち受け情報を変化させて提示することを特徴とする。 Further, the information presentation device according to claim 3 is the information presentation device according to claim 1 or 2, wherein the standby information presentation means indicates how close the user is to the area where the standby information is presented. Means for detecting whether the user is present, and the standby information is changed and presented in accordance with the degree of approach of the detected user .

また、請求項4に記載の情報提示方法は、映像提示手段を用いてユーザに情報を提供する情報提示装置における情報提示方法であって、待ち受け情報提示手段が、前記映像提示手段に対してユーザに待ち受け情報を提示するように指示を行う待ち受け情報提示ステップと、特定部位検出手段が、撮像手段によって撮像された画像から、この画像内のユーザの特定部位を検出する特定部位検出ステップと、ユーザ視線方向検出手段が、前記撮像手段を用いて撮像された画像から、ユーザの顔の向きを検出し、前記ユーザの視線方向を決めるユーザ視線方向検出ステップと、詳細情報提示手段が、前記ユーザの視線方向から情報を提示する向きを決定し、前記映像提示手段に対して前記検出された特定部位に詳細情報を提示するように指示を行う詳細情報提示ステップと、を有することを特徴とする。 The information presenting method according to claim 4 is an information presenting method in an information presenting apparatus that provides information to a user using a video presenting means, wherein the standby information presenting means is a user with respect to the video presenting means. A standby information presentation step for instructing to present standby information to the user, a specific part detecting unit for detecting a specific part of the user in the image from the image captured by the imaging unit, and a user A gaze direction detection unit detects a user's face direction from an image captured using the imaging unit, and a user gaze direction detection step for determining the gaze direction of the user, and a detailed information presentation unit include : determining an orientation for presenting information from the viewing direction, and instructs to present detailed information on the detected specific sites for the image presentation means It characterized by having a a fine information providing step.

また、請求項5に記載の情報提示方法は、前記情報提示装置が、前記ユーザの一定の動作を認識するユーザ動作認識手段を有しており、前記詳細情報提示手段は、前記認識した動作に対応付けられた処理を行うことを特徴とする。 Further, in the information presentation method according to claim 5 , the information presentation device includes user action recognition means for recognizing a certain action of the user, and the detailed information presentation means performs the recognized action on the recognized action. It is characterized by performing the associated processing .

また、請求項6に記載の情報提示方法は、請求項4又は請求項5に記載の情報提示方法において、前記待ち受け情報提示手段は、待ち受け情報を提示している領域にユーザがどれだけ近づいているのかを検出する手段を具備し、前記検出されたユーザの近づき度合いに応じて前記待ち受け情報を変化させて提示することを特徴とする。 The information presenting method according to claim 6 is the information presenting method according to claim 4 or claim 5, wherein the standby information presenting means is such that the user approaches a region where the standby information is presented. Means for detecting whether the user is present, and the standby information is changed and presented in accordance with the degree of approach of the detected user .

また、請求項7に記載の情報提示プログラムは、請求項1から3のいずれか1項に記載の情報提示装置を構成する各手段としてコンピュータを機能させるためのプログラムである。An information presentation program according to a seventh aspect is a program for causing a computer to function as each means constituting the information presentation apparatus according to any one of the first to third aspects.

なお、請求項1及び4において、ユーザを含む画像とは、ユーザの特定部位を検出できる画像であればよい。 In addition, in Claim 1 and 4, the image containing a user should just be an image which can detect a user's specific site | part.

請求項1及び4に記載の発明では、ユーザに対して待ち受け情報を提示してから、ユーザの特定部位に対して詳細情報を提示するといったように、段階的に情報を提供することが可能になる。 According to the first and fourth aspects of the present invention, it is possible to provide information step by step, such as presenting standby information to the user and then presenting detailed information to a specific part of the user. Become.

そして、情報の提供対象となるユーザのみが情報を視認できる位置に情報を提供することが可能となる。 And it becomes possible to provide information to a position where only the user who is the provision target of information can visually recognize the information.

さらに、ユーザの視線に基づいて情報を提供するので、ユーザにとって見やすい態様で情報を提供することが可能となる。 Furthermore, since the information is provided based on the user's line of sight, the information can be provided in a manner that is easy for the user to see.

請求項2及び5に記載の発明では、ユーザの動作に対応した処理を行うことで、ユーザの意思を反映した情報操作が可能となる。 In the second and fifth aspects of the invention, information processing reflecting the user's intention can be performed by performing processing corresponding to the user's operation.

請求項1及び4に記載の発明によれば、段階的に情報を提供することで統一感が無くユーザに対して雑多な印象を与え景観を損ねるという課題を解決することが可能となり、特定部位に情報を提示することで情報が不必要な人に対して不快感を与えるという問題を解決することが可能となる。 According to invention of Claim 1 and 4 , it becomes possible to solve the subject of giving a miscellaneous impression and giving a miscellaneous impression with respect to a user by providing information step by step, and a specific part. It is possible to solve the problem of giving unpleasant feeling to a person who does not need the information by presenting the information.

そして、情報の提供対象となるユーザのみが情報を視認できる位置に提示することで、当該ユーザがどのような情報を見ているかを他人に知られてしまうという問題を解決することが可能となる。 Then, by presenting the information at a position where only the user who is to provide the information can visually recognize the information, it is possible to solve the problem that other people know what information the user is viewing. .

さらに、ユーザの視線に基づいて情報を提供するので、複数人が同じ情報を閲覧している場合等に、ユーザによっては情報と対峙する向きに立つ事ができず、視認したい情報が見難くなってしまうという問題を解決することが可能となる。 Furthermore, since the information is provided based on the user's line of sight, when a plurality of people are viewing the same information, it is difficult for some users to stand facing the information, making it difficult to see the information that they want to view. Can be solved.

請求項2及び5に記載の発明によれば、ユーザが他の情報を得たいと考えた場合等には、ユーザが一定の動作を行うことでユーザの意思を反映させるような情報操作を行うことが可能となる。 According to the second and fifth aspects of the present invention, when the user wants to obtain other information, the user performs an information operation that reflects the user's intention by performing a certain operation. It becomes possible.

以下に、本発明の実施形態について図面を参照して説明する。   Embodiments of the present invention will be described below with reference to the drawings.

図1は本実施形態における情報提示装置を示す図である。本実施形態における情報提示装置は少なくとも映像提示手段1、撮像手段2、特定部位検出部3、詳細情報提示部4、及び待ち受け情報提示部5を具備する。   FIG. 1 is a diagram illustrating an information presentation apparatus according to the present embodiment. The information presentation apparatus in this embodiment includes at least a video presentation unit 1, an imaging unit 2, a specific part detection unit 3, a detailed information presentation unit 4, and a standby information presentation unit 5.

映像提示手段1は、待ち受け情報を提示する待ち受け情報提示部5、及び詳細情報を提示する詳細情報提示部4から信号を受信し、それぞれに対応する映像を提示する。   The video presentation means 1 receives signals from the standby information presentation unit 5 that presents standby information and the detailed information presentation unit 4 that presents detailed information, and presents the corresponding video.

撮像手段2は映像を取得して当該映像を、特定部位検出部3へ送信する。   The imaging unit 2 acquires a video and transmits the video to the specific part detection unit 3.

特定部位検出部3は、送信された映像の中から詳細情報を提示する部位を検出する。ここで特定部位としては、ユーザの掌、手の甲、腕、つま先、手に持っている持ち物、及び身につけているもの等、ユーザにとって見易い位置や、当該ユーザにのみ見える位置が考えられる。また、検出する情報は、その部位の位置情報及び大きさ、並びに映像提示手段1から特定部位までの距離である。この映像提示手段1から特定部位までの距離は、平均的な人間の体型を想定して予め設定している値を利用してもよいし、又は、図2に示した距離センサ10を用いて求めてもよい。このようにして検出した情報を詳細情報提示部4へ送信する。   The specific part detection unit 3 detects a part presenting detailed information from the transmitted video. Here, as the specific part, a position that can be easily seen by the user, such as a user's palm, the back of the hand, an arm, a toe, an item held by the hand, and an object worn by the user, or a position that can be seen only by the user can be considered. The information to be detected is the position information and size of the part, and the distance from the video presentation means 1 to the specific part. As the distance from the video presentation means 1 to the specific part, a value set in advance assuming an average human body shape may be used, or the distance sensor 10 shown in FIG. 2 may be used. You may ask for it. Information detected in this way is transmitted to the detailed information presentation unit 4.

詳細情報提示部4は特定部位検出部3から、特定部位の位置及び大きさ、並びに映像提示手段1から特定部位までの距離をに関する情報を受け取り、特定部位の大きさに合わせて提示すべき詳細情報の大きさを縮小、拡大する。さらに、映像提示装置1から特定部位までの距離によって、特定部位に提示する映像の焦点を決定する。また、特定部位の位置が映像提示手段1の映像提示領域内であった場合には、詳細情報提示部4は映像提示手段1に対して、その位置に当てはまるよう映像を提示するように指示を送る。   The detailed information presentation unit 4 receives information on the position and size of the specific part and the distance from the video presentation means 1 to the specific part from the specific part detection unit 3, and details to be presented according to the size of the specific part Reduce or expand the size of information. Furthermore, the focus of the image | video shown to a specific site | part is determined by the distance from the video presentation apparatus 1 to a specific site | part. Further, when the position of the specific part is within the video presentation area of the video presentation means 1, the detailed information presentation unit 4 instructs the video presentation means 1 to present the video so as to apply to the position. send.

ここで、詳細情報とは待ち受け情報に関連する詳細情報であってもよいし、又は、待ち受け情報とは関連しない別の事柄の情報であってもよい。   Here, the detailed information may be detailed information related to the standby information, or may be information on another matter not related to the standby information.

また、待ち受け情報及び詳細情報を提示する映像提示手段1は一台に限らず、複数台あっても構わない。また、待ち受け情報を提示する映像提示手段と詳細情報を提示する映像提示手段とはそれぞれ別の映像提示手段でも構わない。   Further, the video presentation means 1 for presenting standby information and detailed information is not limited to one, and a plurality of video presentation means 1 may be provided. The video presentation means for presenting standby information and the video presentation means for presenting detailed information may be different video presentation means.

また、待ち受け情報を提示する映像提示手段1はプロジェクタ、液晶ディスプレイ、及びプラズマディスプレイなどユーザが映像を見ることのできる手段であればよい。   The video presentation means 1 for presenting standby information may be any means such as a projector, a liquid crystal display, and a plasma display that allows the user to view the video.

また、特定部位検出部3、又は、後述するユーザ動作認識部6及びユーザ視線方向検出部7で処理される映像を撮像する撮像機器には赤外線カメラ等を用いてもよい。また、撮像機器は同じ種類の撮像機器が複数台あってもよいし、違う種類の撮像機器が複数台あっても構わない。   In addition, an infrared camera or the like may be used as an imaging device that captures an image processed by the specific part detection unit 3 or the user motion recognition unit 6 and the user gaze direction detection unit 7 described later. In addition, the imaging device may include a plurality of imaging devices of the same type, or a plurality of imaging devices of different types.

本実施形態ではユーザが情報を閲覧しながら移動している場合、ユーザの見やすい向きに情報を提示し続けるためにユーザ視線方向検出部7を具備することができる。このユーザ視線方向検出部7は、撮像手段2が取得した映像の中から人の視線方向を検出して、この検出した視線方向を詳細情報提示部4へ送信し、この視線方向から詳細情報提示部4が情報を提示する向きを決定する。   In the present embodiment, when the user is moving while browsing the information, the user gaze direction detecting unit 7 can be provided in order to continue presenting the information in a direction that is easy for the user to see. The user gaze direction detection unit 7 detects a human gaze direction from the video acquired by the imaging unit 2, transmits the detected gaze direction to the detailed information presentation unit 4, and presents detailed information from the gaze direction. The direction in which the unit 4 presents information is determined.

ここで図2を用いて、視線方向の検出について説明する。図2に示すように、視線方向を検出するためにユーザの上部に距離センサ10を設置することができる。このように距離センサ10をユーザの上部に設置し、ユーザ視線方向検出部7はに距離センサ10からの情報に対してユーザの一番高い部分である頭を検出する。ユーザ視線方向検出部7は、この頭の領域の重心から詳細情報を提示する特定部位の重心へ向かう方向を視線方向であると決定する。   Here, the detection of the line-of-sight direction will be described with reference to FIG. As shown in FIG. 2, a distance sensor 10 can be installed on the user's upper part in order to detect the line-of-sight direction. In this way, the distance sensor 10 is installed on the upper part of the user, and the user gaze direction detection unit 7 detects the head which is the highest part of the user with respect to the information from the distance sensor 10. The user gaze direction detection unit 7 determines that the direction from the center of gravity of the head region toward the center of gravity of a specific part that presents detailed information is the gaze direction.

なお、ユーザ視線方向検出手段7は、少なくとも2台以上の撮像手段11、12を用いてユーザの顔の向きを検出し、視線の方向を抽出してもよい。この場合、撮像手段11、12はユーザの顔が撮像できる位置に置くこととする。   Note that the user gaze direction detection unit 7 may detect the direction of the user's face by using at least two or more imaging units 11 and 12 and extract the gaze direction. In this case, the imaging means 11 and 12 are placed at a position where the user's face can be imaged.

また、情報提示装置の待ち受け情報提示領域内にユーザが存在し、そのユーザが詳細情報を閲覧している場合に、撮像手段2の映像からユーザ動作を抽出して、システムを操作するためのユーザ動作認識部6を設置してもよい。   In addition, when a user exists in the standby information presentation area of the information presentation device and the user is browsing detailed information, a user for extracting a user action from the image of the imaging unit 2 and operating the system The motion recognition unit 6 may be installed.

このユーザ動作認識部6は既定のユーザ動作、及びこれに対応する動作IDを管理する動作データベースを持ち、撮像手段2の撮像映像の中からユーザ動作を検出し、その後、検出されたユーザ動作に対応する動作IDを動作データベースの中から取得し、この取得した動作IDを詳細情報提示部4に送る。   The user action recognition unit 6 has an action database for managing a predetermined user action and an action ID corresponding to the predetermined user action, detects the user action from the picked-up video of the image pickup means 2, and then detects the detected user action. The corresponding operation ID is acquired from the operation database, and the acquired operation ID is sent to the detailed information presentation unit 4.

詳細情報提示部4は動作ID及びこれに対応する情報操作を管理する操作データベースを持ち、ユーザ動作認識部6から送られた動作IDに対応する情報操作を行う。   The detailed information presentation unit 4 has an operation database for managing the operation ID and the information operation corresponding to the operation ID, and performs an information operation corresponding to the operation ID sent from the user operation recognition unit 6.

なお、ユーザ動作は手だけを用いたものや腕を上げ下げし曲げるもの、又は、体全体の動きなど何でもよい。   Note that the user action may be anything using only the hand, bending the arm up and down, or movement of the entire body.

また、情報操作は情報を、表示するもの、更新するもの、棄却するもの、拡大縮小し表示の大きさを変更するもの、又は、予めユーザの登録しておいたアドレスへ情報を送信するものなどが挙げられる。   Information operations include displaying information, updating information, rejecting information, changing the display size by scaling, or sending information to an address registered in advance by the user. Is mentioned.

図3を用いて本実施例に用いる情報提示装置の構成を説明する。図3に示すように、待ち受け情報提示部5はソフトウェアとして計算機104内に実装されている。   The structure of the information presentation apparatus used for a present Example is demonstrated using FIG. As shown in FIG. 3, the standby information presentation unit 5 is implemented in the computer 104 as software.

映像提示手段1はプロジェクタ101で実装し、このプロジェクタ101は計算機104に接続されている。   The video presentation means 1 is implemented by a projector 101, and this projector 101 is connected to a computer 104.

撮像手段2はビデオカメラ102で実装し、このビデオカメラ102は計算機105に接続されている。   The imaging means 2 is implemented by a video camera 102, and this video camera 102 is connected to a computer 105.

特定部位検出部3、ユーザ視線方向検出部7、ユーザ動作認識部6、及び詳細情報提示部4は、計算機105内に実装しており、この計算機105と計算機104とはネットワークで繋がっている。   The specific part detection unit 3, the user gaze direction detection unit 7, the user motion recognition unit 6, and the detailed information presentation unit 4 are mounted in the computer 105, and the computer 105 and the computer 104 are connected by a network.

また、プロジェクタ101及びビデオカメラ102は建物の天井に取り付けられ、それぞれ床面に投影、又は、床面を撮影しているものとする。   Further, it is assumed that the projector 101 and the video camera 102 are attached to the ceiling of the building and are projected on the floor surface or photographed on the floor surface, respectively.

次に本実施例における具体的な動作を説明する。本実施例において、待ち受け情報は雨の映像を用い、ユーザ103の特定部位として掌を検出し、視線方向はビデオカメラ102を用いて検出するものとする。   Next, a specific operation in the present embodiment will be described. In the present embodiment, rain information is used as standby information, a palm is detected as a specific part of the user 103, and a line-of-sight direction is detected using the video camera 102.

ここで、ユーザ動作は手の動作を認識する。認識する手の動作は、握る動作、振る動作、傾ける動作、及び両手を添える動作である。これら手の動作には、それぞれ動作IDが割り当てられている。   Here, the user action recognizes the hand action. Recognizing hand movements include a gripping movement, a shaking movement, a tilting movement, and a movement with both hands. Each of these hand actions is assigned an action ID.

情報操作としては、情報の保存、情報の更新、情報の棄却、及び情報量の増加、の操作を実現する。これらそれぞれの情報操作は動作IDに対応付けられている。   As information operations, operations of storing information, updating information, rejecting information, and increasing the amount of information are realized. Each of these information operations is associated with an action ID.

提示すべき詳細情報がある場合、待ち受け情報提示部5は、計算機104で生成された雨の映像をプロジェクタ101に送る。プロジェクタ101は待ち受け情報提示部5から送られた雨の映像を床面に投影する。   When there is detailed information to be presented, the standby information presentation unit 5 sends the rain video generated by the computer 104 to the projector 101. The projector 101 projects the rain image sent from the standby information presentation unit 5 on the floor surface.

雨の映像において、人は雨が降り出すと雨を掌で受けるような動作を行うことが多い。そこで本実施例では雨の映像を提示することでユーザが手を差し出すと仮定する。そして、その差し出した掌の上に詳細情報を提示する。   In a rainy image, a person often performs an operation of receiving rain with a palm when it starts to rain. Therefore, in this embodiment, it is assumed that the user presents a hand by presenting a rain video. Then, the detailed information is presented on the handed out palm.

また本実施例において、待ち受け情報提示部5は、ユーザ位置を検出する手段を具備してもよい。このユーザ位置を検出する手段は、待ち受け情報を提示している領域の中央にユーザ103がどれだけ近づいているのかを検出することができる手段である。これにより、ユーザが待ち受け情報に近づくにつれ雨が激しく変化していくように待ち受け情報をユーザに提示してもよい。   In the present embodiment, the standby information presentation unit 5 may include means for detecting the user position. The means for detecting the user position is a means capable of detecting how close the user 103 is to the center of the area presenting the standby information. Thus, the standby information may be presented to the user so that the rain changes drastically as the user approaches the standby information.

ビデオカメラ102は待ち受け情報が提示されている領域を含む付近を撮像しており、このビデオカメラ102の撮像画像は計算機105へ送信され、特定部位検出部3、ユーザ視線方向検出部7、及びユーザ動作認識部6は送信された撮像画像を得る。   The video camera 102 captures the vicinity including the area where the standby information is presented, and the captured image of the video camera 102 is transmitted to the computer 105, and the specific part detection unit 3, the user gaze direction detection unit 7, and the user The motion recognition unit 6 obtains the transmitted captured image.

ここで図4、及び図5を用いて特定部位検出部3での処理を説明する。   Here, the process in the specific part detection part 3 is demonstrated using FIG.4 and FIG.5.

特定部位検出部3は人物がいない状態の映像を初期画像として保存しておき、人物のいる現在の映像(図4(1))との差分をとる。その結果、特定部位検出手段3は人物の領域のみの差分画像A(図4(2))を得る。   The specific part detection unit 3 stores an image without a person as an initial image, and obtains a difference from the current image with a person (FIG. 4 (1)). As a result, the specific part detection means 3 obtains a difference image A (FIG. 4 (2)) of only the person region.

差分画像A(図4(2))はカラー画像でRGBの3つの領域を持っている。このため、ファイルサイズが大きく画像処理を行うのに時間がかかる。そこで差分画像A(図4(2))の中で差分のあった部分を白、無い部分を黒とし白と黒の2値化画像に変換する。   The difference image A (FIG. 4 (2)) is a color image and has three regions of RGB. For this reason, it takes time to perform image processing with a large file size. Therefore, the difference image A (FIG. 4 (2)) is converted into a binary image of white and black, where the difference portion is white and the non-difference portion is black.

次にその2値化画像の白の領域の拡張と縮小処理を行う。その結果、画像内にある小さなノイズが除去され、2値化画像B(図4(3))を得る。   Next, the white area of the binarized image is expanded and reduced. As a result, small noise in the image is removed, and a binarized image B (FIG. 4 (3)) is obtained.

次に、2値化画像B(図4(3))の領域のモーメントを求める。この求めた結果から重心41を検出し、これを人物の体の重心とする(図4(4))。   Next, the moment of the area of the binarized image B (FIG. 4 (3)) is obtained. The center of gravity 41 is detected from the obtained result, and this is used as the center of gravity of the person's body (FIG. 4 (4)).

差分画像A(図4(1))の差分のある領域の中から肌色の領域Cのみを抽出する(図4(5))。   Only the skin color area C is extracted from the difference area of the difference image A (FIG. 4 (1)) (FIG. 4 (5)).

領域Cの中で予め定められた最小閾値に満たない大きさの領域と、最大閾値を超えた大きさの領域を除去し、除去後の領域の中で、先に求めた重心41の位置から一番遠い重心位置を持つ領域Dを求める(図4(6))。   An area having a size less than the predetermined minimum threshold in the area C and an area having a size exceeding the maximum threshold are removed, and from the position of the center of gravity 41 obtained previously in the removed area. A region D having the farthest center of gravity is obtained (FIG. 4 (6)).

ここで、ユーザが手を差し出している映像を見ると、掌の領域は体の重心41より一番遠い位置になるという拘束条件がある。そこから、この領域Dは掌を含んだ領域になる。しかしこの領域はユーザが半袖の衣服を身につけている場合腕の領域も含んだ領域として検出されてしまう。このため、手の領域のみを切り出す必要がある。この手の領域は腕の領域より体の重心から遠くなる。そこで、領域Dの中から体の重心より一番遠い点42を見つけ出す。この点は手の領域に含まれる点であり、手の領域の中で背景との境界にある点であると言える。そこでこの点を中心とした円45の内部領域と領域Dの共有部分を求める。このとき、円45の半径を、一般的な人の手の中指から手首までの長さにする。そうすることで、共有部分である領域Eが手の領域となる。さらに、領域Eの重心44を求める(図4(7))。   Here, there is a constraint that the palm region is located farthest from the center of gravity 41 of the body when viewing the video with the user's hand. From there, the region D becomes a region including a palm. However, this region is detected as a region including the arm region when the user is wearing short-sleeved clothing. For this reason, it is necessary to cut out only the hand region. This hand region is farther from the center of gravity of the body than the arm region. Therefore, a point 42 farthest from the center of gravity of the body is found in the region D. This point is included in the hand region, and can be said to be a point at the boundary with the background in the hand region. Therefore, a shared portion of the inner region of the circle 45 and the region D around this point is obtained. At this time, the radius of the circle 45 is set to the length from the middle finger to the wrist of a general human hand. By doing so, the area E which is a shared portion becomes the hand area. Further, the center of gravity 44 of the region E is obtained (FIG. 4 (7)).

次に領域Eと円45の境界線は手首の領域になると言える。そこで、その境界線の重心となる点43を求めその点を手首の重心であるとする(図4(8))。   Next, it can be said that the boundary line between the region E and the circle 45 becomes a wrist region. Therefore, a point 43 serving as the center of gravity of the boundary line is obtained, and this point is assumed to be the center of gravity of the wrist (FIG. 4 (8)).

最後に、求められた領域Eの重心44と重心43までの領域46が掌であると検出される(図4(9))。   Finally, it is detected that the center of gravity 44 of the obtained region E and the region 46 up to the center of gravity 43 are palms (FIG. 4 (9)).

この検出された掌の位置及び領域46の大きさの情報は詳細情報提示部4へ送信される。さらに、特定部位検出部3はプロジェクタ101と特定部位である掌との距離を、平均的な人間の体型から予め求めておき、この情報も詳細情報提示部4へ送信する。   Information on the detected palm position and the size of the region 46 is transmitted to the detailed information presentation unit 4. Further, the specific part detection unit 3 obtains in advance the distance between the projector 101 and the palm that is the specific part from the average human body shape, and transmits this information to the detailed information presentation unit 4 as well.

また、ユーザ視線方向検出部7は、特定部位検出部3から送信された体の重心41から手の重心44へ向かう方向を視線方向47として検出する。これは、この方向が本当の視線方向に類似するからである。ユーザ視線方向検出部7は、この視線方向47を詳細情報提示部4へ送信する。   Further, the user gaze direction detection unit 7 detects a direction from the center of gravity 41 of the body transmitted from the specific part detection unit 3 to the center of gravity 44 of the hand as a gaze direction 47. This is because this direction is similar to the true line-of-sight direction. The user gaze direction detection unit 7 transmits the gaze direction 47 to the detailed information presentation unit 4.

詳細情報提示部4は、特定部位検出部3から特定部位である掌の位置と大きさとプロジェクタ101から掌までの距離の情報を受け取り、掌の大きさの情報から詳細情報をユーザの掌に当てはまる大きさに拡大・縮小する。なお、提示すべき詳細情報は少なくとも1つ以上あり、それらはランダムで選ばれてもよいし、それぞれが順番を持っておりその順番で提示されてもよい。   The detailed information presentation unit 4 receives information on the position and size of the palm that is the specific part and the distance from the projector 101 to the palm from the specific part detection unit 3, and applies the detailed information to the palm of the user from the information on the palm size. Scale up or down to size. Note that there are at least one or more detailed information to be presented, and they may be selected at random, or each may have an order and be presented in that order.

さらに詳細情報提示部4は、ユーザ視線方向検出部7よりユーザの視線方向を受け取り、ユーザの視線方向と同じ向きになるように詳細情報を回転させる。つまりユーザが詳細情報を見た時に、文字などが逆さにならないようにする。さらに、詳細情報提示部4は特定部位検出部3から送られた掌の位置に、回転させた詳細情報を提示するよう、プロジェクタ101へ命令を送る。また、詳細情報提示部4は、特定部位検出部3から送られたプロジェクタ101から掌までの距離に基づきプロジェクタ101の焦点を決定する。   Furthermore, the detailed information presentation unit 4 receives the user's line-of-sight direction from the user's line-of-sight direction detection unit 7 and rotates the detailed information so that the direction is the same as the user's line-of-sight direction. That is, when the user sees the detailed information, the characters are not reversed. Further, the detailed information presentation unit 4 sends a command to the projector 101 to present the rotated detailed information to the palm position sent from the specific part detection unit 3. Further, the detailed information presentation unit 4 determines the focus of the projector 101 based on the distance from the projector 101 to the palm sent from the specific part detection unit 3.

プロジェクタ101はそれら情報に基づき、ユーザの掌へ詳細情報を提示する。この時、詳細情報を提示する領域がプロジェクタ101の映像提示範囲外であった場合は、詳細情報を提示しないようにする、プロジェクタの台数を増やしビデオカメラ102の撮像範囲を全てカバーできるようにする、又は、プロジェクタが駆動する装置を用いて詳細情報を提示する向きにプロジェクタを向かせるという対応が可能である。   Based on such information, the projector 101 presents detailed information to the user's palm. At this time, if the area where the detailed information is presented is outside the video presentation range of the projector 101, the detailed information is not presented, the number of projectors is increased, and the entire imaging range of the video camera 102 can be covered. Alternatively, it is possible to handle the projector so that the detailed information is presented using a device driven by the projector.

ユーザ動作認識部6は、特定部位検出部3と同様の処理でユーザの手の重心44、体の重心、及び手の領域(領域E)の大きさを得る。   The user motion recognition unit 6 obtains the user's hand center of gravity 44, the body center of gravity, and the size of the hand region (region E) by the same processing as the specific part detection unit 3.

ここで図6及び図7を用いてユーザ動作と動作IDの動作データベース表について説明する。   Here, an operation database table of user operations and operation IDs will be described with reference to FIGS.

以下にユーザ動作認識部6がユーザ動作を認識する手順の一例を説明する。   Below, an example of the procedure in which the user action recognition part 6 recognizes a user action is demonstrated.

ユーザ動作認識部6は、手の領域の大きさが、現在の大きさより3分の2以下になり手の重心が体の重心に近づくと、握る動作であると認識する。   The user motion recognition unit 6 recognizes that it is a gripping motion when the size of the hand region is less than two-thirds of the current size and the center of gravity of the hand approaches the center of gravity of the body.

また、ユーザ動作認識部6は、手の領域の大きさが、現在の大きさより3分の2以下になり手の重心の位置がほぼ変化しないと、傾ける動作であると認識する。   Further, the user motion recognition unit 6 recognizes that the motion is tilted when the size of the hand region is less than two-thirds of the current size and the position of the center of gravity of the hand does not substantially change.

また、ユーザ動作認識部6は、手の領域の大きさが現在の大きさより倍の大きさになると、両手を添える動作であると認識する。   In addition, when the size of the hand region is double the current size, the user action recognition unit 6 recognizes that the action is to add both hands.

認識されたユーザ動作は図6に示すように、動作データベースにより動作IDが割り振られている。ユーザ動作が認識されるとユーザ動作認識部6は詳細情報提示部4へ、この動作IDを送信する。また、上述の処理で検出された手の領域の情報も詳細情報提示部4へ送信する。   As shown in FIG. 6, recognized user actions are assigned action IDs by the action database. When the user action is recognized, the user action recognition unit 6 transmits this action ID to the detailed information presentation unit 4. Further, information on the hand region detected by the above-described processing is also transmitted to the detailed information presentation unit 4.

詳細情報提示部4は、ユーザ動作認識部6から動作IDを受け取り、図8に示す情報操作データベースにより動作IDに当てはまる情報操作を行う。また、詳細情報提示部4はユーザ動作認識部6から手の領域の情報も受け取り、情報操作を行う上で手の領域の情報が必要な際にその情報を用いる。   The detailed information presentation unit 4 receives the operation ID from the user operation recognition unit 6, and performs an information operation corresponding to the operation ID using the information operation database shown in FIG. The detailed information presentation unit 4 also receives hand region information from the user action recognition unit 6 and uses the information when hand region information is necessary for performing information operations.

ここで、上述した処理の一例を挙げて説明する。詳細情報提示部4は、両手を添える動作である動作ID04を受け取ると、情報操作データベースに問い合わせを行う。詳細情報提示部4は、情報操作データベースから返された情報操作に基づき、提示している詳細情報に対して情報量の増加の処理を行う。ここで、情報量の増加の処理とは、詳細情報の拡大化、又は、詳細化である。   Here, an example of the above-described process will be described. The detailed information presentation unit 4 makes an inquiry to the information operation database when receiving the operation ID 04 that is an operation with both hands. Based on the information operation returned from the information operation database, the detailed information presentation unit 4 performs a process of increasing the information amount on the presented detailed information. Here, the process of increasing the amount of information is enlargement or detailing of detailed information.

また、ユーザが両手を添える動作を行うと、手の領域が拡大される。これにより詳細情報提示部4はユーザ動作認識部6より送信された、拡大された手の領域に合うように、詳細情報を拡大、又はさらに詳細な詳細情報を提示するようプロジェクタ101に命令を送る。   In addition, when the user performs an operation of adding both hands, the hand area is enlarged. As a result, the detailed information presentation unit 4 sends a command to the projector 101 to enlarge the detailed information to fit the enlarged hand region transmitted from the user action recognition unit 6 or to present more detailed detailed information. .

プロジェクタ101は命令に合うように詳細情報提示部4より送られた情報をユーザの掌へ投影する。   The projector 101 projects the information sent from the detailed information presentation unit 4 onto the user's palm so as to meet the command.

なお、上記情報提示装置は、例えば、情報提示装置を構成するコンピュータ装置が有するCPUによって実現され、必要とする特定部位検出機能、詳細情報提示機能、待ち受け情報提示機能、ユーザ動作認識機能、ユーザ視線方向検出機能、などをアプリケーションプログラムとして搭載することができる。   The information presentation device is realized by, for example, a CPU included in a computer device that constitutes the information presentation device, and requires a specific part detection function, a detailed information presentation function, a standby information presentation function, a user action recognition function, a user line of sight. A direction detection function or the like can be installed as an application program.

また、上述の機能を実現するソフトウェアのプログラムコードを記録した記録媒体を、システム又は装置に供給し、このシステム又は装置のCPU(MPU)が記録媒体に格納されたプログラムコードを読み出し実行することも実現できる。この場合、記憶媒体から読み出されたプログラムコード自体が上述の機能を実現することになる。このプログラムコードを記憶した記憶媒体には、例えば、CD−ROM、DVD−ROM、CD−R、CD−RW、MO、HDD等がある。   In addition, a recording medium in which a program code of software that realizes the above functions is recorded is supplied to a system or apparatus, and a CPU (MPU) of the system or apparatus reads and executes the program code stored in the recording medium. realizable. In this case, the program code itself read from the storage medium realizes the above function. Examples of the storage medium storing the program code include a CD-ROM, a DVD-ROM, a CD-R, a CD-RW, an MO, and an HDD.

情報提示装置の構成図。The block diagram of an information presentation apparatus. 情報提示装置の構成図。The block diagram of an information presentation apparatus. 情報提示装置を用いてユーザに情報提示を行う状況の説明図。Explanatory drawing of the condition which provides information to a user using an information presentation apparatus. 特定部位検出部での処理説明図。Processing explanatory drawing in a specific part detection part. 特定部位検出部での処理説明の一部拡大図。The partially expanded view of the process description in a specific part detection part. 動作データベースの構成図。The block diagram of an operation | movement database. 動作の例を示す図。The figure which shows the example of operation | movement. 情報操作データベースの構成図。The block diagram of an information operation database.

符号の説明Explanation of symbols

1…映像提示手段
2…撮像手段
3…特定部位検出部
4…詳細情報提示部
5…待ち受け情報提示部
6…ユーザ動作認識部
7…ユーザ視線方向検出部
9赤外線カメラ
10…距離センサ
11…撮像手段
12…撮像手段
101…プロジェクタ
102…ビデオカメラ
103…ユーザ
104…計算機
105…計算機
DESCRIPTION OF SYMBOLS 1 ... Image | video presentation means 2 ... Imaging means 3 ... Specific site | part detection part 4 ... Detailed information presentation part 5 ... Standby information presentation part 6 ... User action recognition part 7 ... User gaze direction detection part 9 Infrared camera 10 ... Distance sensor 11 ... Imaging Means 12 ... Imaging means 101 ... Projector 102 ... Video camera 103 ... User 104 ... Computer 105 ... Computer

Claims (7)

映像提示手段を用いてユーザに情報を提供する情報提示装置であって、
前記映像提示手段に対してユーザに待ち受け情報を提示するように指示を行う待ち受け情報提示手段と、
撮像手段によって撮像された画像から、この画像内のユーザの特定部位を検出する特定部位検出手段と、
前記撮像手段を用いて撮像された画像から、ユーザの顔の向きを検出し、前記ユーザの視線方向を決めるユーザ視線方向検出手段と、
前記ユーザの視線方向から情報を提示する向きを決定し、前記映像提示手段に対して前記検出された特定部位に詳細情報を提示するように指示を行う詳細情報提示手段と、
を有することを特徴とする情報提示装置。
An information presentation device that provides information to a user using video presentation means,
Standby information presentation means for instructing the video presentation means to present standby information to the user;
Specific part detecting means for detecting a specific part of the user in the image from the image picked up by the image pickup means ;
User gaze direction detection means for detecting the orientation of the user's face from the image captured using the imaging means and determining the user's gaze direction;
Detailed information presenting means for determining a direction of presenting information from the user's line-of-sight direction and instructing the video presenting means to present detailed information to the detected specific part ;
An information presentation device characterized by comprising:
前記情報提示装置は、前記ユーザの一定の動作を認識するユーザ動作認識手段を有しており、
前記詳細情報提示手段は、前記認識した動作に対応付けられた処理を行う
ことを特徴とする請求項1に記載の情報提示装置。
The information presenting apparatus has user action recognition means for recognizing a certain action of the user,
The information presentation apparatus according to claim 1 , wherein the detailed information presentation unit performs processing associated with the recognized action.
前記待ち受け情報提示手段は、待ち受け情報を提示している領域にユーザがどれだけ近づいているのかを検出する手段を具備し、前記検出されたユーザの近づき度合いに応じて前記待ち受け情報を変化させて提示するThe standby information presenting means includes means for detecting how close the user is to the area where the standby information is presented, and changes the standby information according to the degree of approach of the detected user. Present
ことを特徴とする請求項1又は2に記載の情報提示装置。The information presentation apparatus according to claim 1, wherein the information presentation apparatus is an information presentation apparatus.
映像提示手段を用いてユーザに情報を提供する情報提示装置における情報提示方法であって、
待ち受け情報提示手段が、前記映像提示手段に対してユーザに待ち受け情報を提示するように指示を行う待ち受け情報提示ステップと、
特定部位検出手段が、撮像手段によって撮像された画像から、この画像内のユーザの特定部位を検出する特定部位検出ステップと、
ユーザ視線方向検出手段が、前記撮像手段を用いて撮像された画像から、ユーザの顔の向きを検出し、前記ユーザの視線方向を決めるユーザ視線方向検出ステップと、
詳細情報提示手段が、前記ユーザの視線方向から情報を提示する向きを決定し、前記映像提示手段に対して前記検出された特定部位に詳細情報を提示するように指示を行う詳細情報提示ステップと、
を有することを特徴とする情報提示方法。
An information presentation method in an information presentation device for providing information to a user using a video presentation means,
A standby information presenting step in which the standby information presenting means instructs the video presenting means to present standby information to the user ;
A specific part detecting step for detecting a specific part of the user in the image from the image picked up by the image pickup means ;
A user gaze direction detecting unit that detects a user's face direction from an image captured using the imaging unit and determines the user's gaze direction;
A detailed information presenting step in which detailed information presenting means determines a direction in which to present information from the user's line-of-sight direction, and instructs the video presenting means to present detailed information to the detected specific part ; ,
An information presentation method characterized by comprising:
前記情報提示装置は、前記ユーザの一定の動作を認識するユーザ動作認識手段を有しており、
前記詳細情報提示手段は、前記認識した動作に対応付けられた処理を行うことを特徴とする請求項4に記載の情報提示方法。
The information presenting apparatus has user action recognition means for recognizing a certain action of the user,
The information presentation method according to claim 4 , wherein the detailed information presentation unit performs a process associated with the recognized action.
前記待ち受け情報提示手段は、待ち受け情報を提示している領域にユーザがどれだけ近づいているのかを検出する手段を具備し、前記検出されたユーザの近づき度合いに応じて前記待ち受け情報を変化させて提示するThe standby information presenting means includes means for detecting how close the user is to the area where the standby information is presented, and changes the standby information according to the degree of approach of the detected user. Present
ことを特徴とする請求項4又は5に記載の情報提示方法。The information presentation method according to claim 4 or 5, characterized in that
請求項1から3のいずれか1項に記載の情報提示装置を構成する各手段としてコンピュータを機能させるための情報提示プログラム。  The information presentation program for functioning a computer as each means which comprises the information presentation apparatus of any one of Claim 1 to 3.
JP2005028818A 2005-02-04 2005-02-04 Information presenting apparatus, information presenting method, and information presenting program Active JP4256850B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005028818A JP4256850B2 (en) 2005-02-04 2005-02-04 Information presenting apparatus, information presenting method, and information presenting program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005028818A JP4256850B2 (en) 2005-02-04 2005-02-04 Information presenting apparatus, information presenting method, and information presenting program

Publications (2)

Publication Number Publication Date
JP2006215863A JP2006215863A (en) 2006-08-17
JP4256850B2 true JP4256850B2 (en) 2009-04-22

Family

ID=36979051

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005028818A Active JP4256850B2 (en) 2005-02-04 2005-02-04 Information presenting apparatus, information presenting method, and information presenting program

Country Status (1)

Country Link
JP (1) JP4256850B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9712693B2 (en) 2012-08-15 2017-07-18 Nec Corporation Information provision apparatus, information provision method, and non-transitory storage medium

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4931788B2 (en) * 2007-12-18 2012-05-16 日本電信電話株式会社 Information presentation control apparatus and information presentation control method
JP4972013B2 (en) * 2008-02-28 2012-07-11 日本電信電話株式会社 Information presenting apparatus, information presenting method, information presenting program, and recording medium recording the program
JP4964833B2 (en) * 2008-06-23 2012-07-04 日本電信電話株式会社 Information presentation control apparatus and information presentation control method
JP4852634B2 (en) * 2009-09-02 2012-01-11 日本電信電話株式会社 External device cooperation apparatus and method and external device cooperation control program
JP5550670B2 (en) * 2012-03-28 2014-07-16 株式会社デンソーアイティーラボラトリ Information processing device
JP2014008295A (en) * 2012-06-29 2014-01-20 Sega Corp Picture presentation device
JP6081105B2 (en) * 2012-08-27 2017-02-15 エイディシーテクノロジー株式会社 Exhibition equipment
CN111508394A (en) * 2020-05-21 2020-08-07 广州恒德智汇有限公司 Interactive wall system

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9712693B2 (en) 2012-08-15 2017-07-18 Nec Corporation Information provision apparatus, information provision method, and non-transitory storage medium

Also Published As

Publication number Publication date
JP2006215863A (en) 2006-08-17

Similar Documents

Publication Publication Date Title
KR102098277B1 (en) Visibility improvement method based on eye tracking, machine-readable storage medium and electronic device
JP6402219B1 (en) Crime prevention system, crime prevention method, and robot
JPH0844490A (en) Interface device
JP4256850B2 (en) Information presenting apparatus, information presenting method, and information presenting program
JP2010067062A (en) Input system and method
JPWO2017047182A1 (en) Information processing apparatus, information processing method, and program
CN104103024A (en) User evaluation information acquisition method and device
WO2012063561A1 (en) Information notification system, information notification method, information processing device and control method for same, and control program
WO2019033322A1 (en) Handheld controller, and tracking and positioning method and system
JPWO2020136795A1 (en) Information processing equipment, information processing methods, and programs
KR20200040716A (en) Visibility improvement method based on eye tracking, machine-readable storage medium and electronic device
US20180035077A1 (en) Remote communication system, method for controlling remote communication system, and storage medium
JP7000759B2 (en) Guidance device, guidance system, guidance method and program
JP2019133437A (en) Information processing device, system, information processing device control method, and program
WO2014027433A1 (en) Information provision device, information provision method, and program
JP2004301869A (en) Voice output device and pointing device
JP4972013B2 (en) Information presenting apparatus, information presenting method, information presenting program, and recording medium recording the program
JP5426441B2 (en) Advertisement image display device and advertisement image display method
JP6393854B2 (en) Spherical camera display image change system, omnidirectional camera display image change method and program
JP7435837B2 (en) Information processing system, information processing device, information processing method, and program
JP7020567B2 (en) Information processing systems, information processing equipment, information processing methods, and programs
JP2022058833A (en) Information processing system, information processing apparatus, information processing method, and program
JP4979895B2 (en) Display control apparatus, display control method, display control program, and display
JP7094759B2 (en) System, information processing method and program
WO2019138682A1 (en) Information processing device, information processing method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070220

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20081028

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20081225

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090127

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090130

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120206

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4256850

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130206

Year of fee payment: 4

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350