JP4473216B2 - Video and odor providing system - Google Patents
Video and odor providing system Download PDFInfo
- Publication number
- JP4473216B2 JP4473216B2 JP2005380704A JP2005380704A JP4473216B2 JP 4473216 B2 JP4473216 B2 JP 4473216B2 JP 2005380704 A JP2005380704 A JP 2005380704A JP 2005380704 A JP2005380704 A JP 2005380704A JP 4473216 B2 JP4473216 B2 JP 4473216B2
- Authority
- JP
- Japan
- Prior art keywords
- video
- information
- odor
- user side
- real time
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
Description
本発明は、各場所の映像をユーザー側に提供することができる、略リアルタイム映像表示システムに関する。 The present invention relates to a substantially real-time video display system capable of providing video of each place to a user side.
従来より、各地点の映像をCD−ROM又はハードディスクなどの記録媒体に記録しておき、それを所定のキーワード等の検索データに基づいて検索して表示するシステムが存在している。また、従来より、「匂いのデータ化、記録、通信、及び再生」の技術が提案されている(特許文献1参照)。
しかしながら、前記の記録媒体に記録された映像は、「過去のもの」である(「生のもの」ではない)。そのため、実際の景色などは、季節の移り変わり、その日の天候、道路や建物の工事状況などにより、日々刻々変遷していくものであるのに、ユーザーが見ることができるのは「古い(新鮮でない)」ものでしかない。また、仮にその記録媒体に記録された映像が更新直後のものだとしても、「今現在のこの瞬間のリアルタイムの状況を見たい」というユーザーの希望に応えることはできない。さらに、記録媒体への映像データの更新を頻繁に行うことは非常にコストがかかってしまう。
本発明は、ユーザーが自らが居る場所とは離れた遠隔の場所もしくはその近傍又はその場所での出来事に関する実際の雰囲気や状況を略リアルタイムに知ることができる映像及び匂い提供システム、を提供する、ことを目的とする。
However, the video recorded on the recording medium is “past” (not “raw”). Therefore, the actual scenery changes every day depending on the changing seasons, the weather of the day, the construction conditions of the roads and buildings, etc., but the user can see “old (not fresh) ) " Also, even if the video recorded on the recording medium is just after the update, it cannot meet the user's desire to “see the real-time situation at this moment now”. Furthermore, it is very expensive to frequently update the video data on the recording medium.
The present invention provides a video and odor providing system that allows a user to know in real time the actual atmosphere and situation related to an event at or near a remote location away from the location where the user is present, or in that location , For the purpose.
第1 「本願の特許請求の範囲に記載された発明」は次のとおりである。
1 (ユーザーが一つ又は複数の遠隔の場所やその場所での出来事に関する実際の雰囲気や状況(例えば遠隔地にある飲食店の店内の雰囲気や来店客の混雑状況など)を略リアルタイムに知ることを可能にするための映像及び匂い提供システムであって、)一つ若しくは複数の場所の映像を略リアルタイムに取得するための映像取得手段と、前記映像取得手段により取得された一つ若しくは複数の場所の映像又は前記映像に基づいて得られる映像又は前記映像を識別するための識別データを、オンラインで略リアルタイムに、ユーザー側に向けて送信するための映像等送信手段と、ユーザー側に備えられ、前記映像等送信手段により送信された映像等を、受信するための映像等受信手段と、ユーザー側に備えられ、前記映像等受信手段により受信された映像又は前記受信された識別データから特定される映像又は前記各映像に基づいて得られる映像を、略リアルタイムに表示するための映像表示手段と、「前記映像取得手段が配置されているか若しくは前記映像取得手段が映像取得の対象としている、一つ若しくは複数の場所又はその近傍」に存在している匂い情報を、取得するための匂い情報取得手段と、前記匂い情報取得手段により取得された匂い情報又はこれに基づいて得られる情報(芳香成分を示す情報など)を、オンラインで略リアルタイムに、前記ユーザー側に送信するための匂い情報等送信手段と、ユーザー側に備えられ、前記匂い情報等送信手段により送信された情報を受信するための匂い情報等受信手段と、ユーザー側に備えられ、前記匂い情報等受信手段により受信された情報又はこれに基づいて得られる情報に基づいて、「前記映像表示手段により表示されている映像の場所又はその近傍」に存在している匂い又はこれに近似する匂いを発生させるための匂い発生手段と、を備えたことを特徴とする映像及び匂い提供システム。
2.(ユーザーが一つ又は複数の遠隔の場所やその場所での出来事に関する実際の雰囲気や状況(例えば遠隔地にある飲食店の店内の雰囲気や来店客の混雑状況など)を略リアルタイムに知ることを可能にするための映像及び匂い提供システムであって、)一つ若しくは複数の場所の映像を略リアルタイムに取得するための映像取得手段と、ユーザー側において前記取得された映像又は前記映像に基づいて得られる映像が略リアルタイムに表示されるように、前記映像取得手段により取得された一つ若しくは複数の場所の映像又は前記映像に基づいて得られる映像又は前記映像を識別するための識別データを、オンラインで略リアルタイムにユーザー側に向けて送信するための映像等送信手段と、「前記映像取得手段が配置されているか若しくは前記映像取得手段が映像取得の対象としている、一つ若しくは複数の場所又はその近傍」に存在している匂い情報を、取得するための匂い情報取得手段と、ユーザー側において「ユーザー側で表示されている前記映像の場所もしくはその近傍の匂い又はこれに近似する匂い」が発生されるように、前記匂い情報取得手段により取得された匂い情報又はこれに基づいて得られる情報(芳香成分を示す情報など)を、オンラインで略リアルタイムに前記ユーザー側に送信するための匂い情報等送信手段と、を備えたことを特徴とする映像及び匂い提供システム。
3.(ユーザーが一つ又は複数の遠隔の場所やその場所での出来事に関する実際の雰囲気や状況(例えば遠隔地にある飲食店の店内の雰囲気や来店客の混雑状況など)を略リアルタイムに知ることを可能にするための映像及び匂い提供システムであって、)ユーザー側に備えられ、一つ又は複数の遠隔の場所を示す映像又は前記映像に基づいて得られる映像又は前記映像を識別するための識別データを、オンラインで略リアルタイムに、ネットワークを介して受信するための映像等受信手段と、ユーザー側に備えられ、前記映像等受信手段により受信された映像又は前記受信された識別データにより特定される映像又は前記各映像に基づいて得られる映像を、略リアルタイムに表示するための映像表示手段と、ユーザー側に備えられ、「前記映像の対象となっている、一つ若しくは複数の場所又はその近傍」に存在している匂い情報又はこれに基づいて得られる情報(芳香成分を示す情報など)を、オンラインで略リアルタイムに、ネットワークを介して受信するための匂い情報等受信手段と、ユーザー側に備えられ、前記匂い情報等受信手段により受信された情報又はこれに基づいて得られる情報に基づいて、「前記映像表示手段により表示されている映像の場所もしくはその近傍」に存在している匂い又はこれに近似する匂いを発生させるための匂い発生手段と、を備えたことを特徴とする映像及び匂い提供システム。
第2 「本願の特許請求の範囲に記載された発明」そのものではないが、本明細書の中では次のような発明も提案されている。
1 遠隔地にある飲食店の店内の雰囲気や客の混雑状況などの、一つ又は複数の遠隔の場所の状況を、ユーザーが略リアルタイムに知ることができる映像及び匂い提供映像及び匂い提供システムであって、一つ若しくは複数の場所の映像を略リアルタイムに取得するための映像取得手段と、ユーザー側において前記取得された映像又は前記映像に基づいて得られる映像が略リアルタイムに表示されるように、「前記映像取得手段により取得された映像であって、ユーザーの現在位置又はその近傍に存在する一つ若しくは複数の場所の映像」又は前記映像に基づいて得られる映像又は前記映像を識別するための識別データを、オンラインで略リアルタイムに、ユーザー側に送信するための映像等送信手段と、「前記映像取得手段が配置されているか若しくは前記映像取得手段が映像取得の対象としている、一つ若しくは複数の場所又はその近傍」に存在している匂い情報を、取得するための匂い情報取得手段と、ユーザー側において「ユーザー側で表示されている前記映像の場所もしくはその近傍の匂い又はこれに近似する匂い」が発生されるように、前記匂い情報取得手段により取得された匂い情報又はこれに基づいて得られる情報(芳香成分を示す情報など)を、オンラインで略リアルタイムに、前記ユーザー側に送信するための匂い情報等送信手段と、を備えたことを特徴とする映像及び匂い提供システム。
2 遠隔地にある飲食店の店内の雰囲気や客の混雑状況などの、一つ又は複数の遠隔の場所の状況を、ユーザーが略リアルタイムに知ることができる映像及び匂い提供映像及び匂い提供システムであって、一つ若しくは複数の場所の映像を略リアルタイムに取得するための映像取得手段と、ユーザー側において前記取得された映像又は前記映像に基づいて得られる映像が略リアルタイムに表示されるように、「前記映像取得手段により取得された映像であって、ユーザーの現在位置からユーザーが希望する希望場所へ向かう経路の途中に存在する一つ若しくは複数の場所の映像」又は前記映像に基づいて得られる映像又は前記映像を識別するための識別データを、オンラインで略リアルタイムに、ユーザー側に送信するための映像等送信手段と、「前記映像取得手段が配置されているか若しくは前記映像取得手段が映像取得の対象としている、一つ若しくは複数の場所又はその近傍」に存在している匂い情報を、取得するための匂い情報取得手段と、ユーザー側において「ユーザー側で表示されている前記映像の場所もしくはその近傍の匂い又はこれに近似する匂い」が発生されるように、前記匂い情報取得手段により取得された匂い情報又はこれに基づいて得られる情報(芳香成分を示す情報など)を、オンラインで略リアルタイムに、前記ユーザー側に送信するための匂い情報等送信手段と、を備えたことを特徴とする映像及び匂い提供システム。
3 遠隔地にある飲食店の店内の雰囲気や客の混雑状況などの、一つ又は複数の遠隔の場所の状況を、ユーザーが略リアルタイムに知ることができる映像及び匂い提供映像及び匂い提供システムであって、一つ若しくは複数の場所の映像を略リアルタイムに取得するための映像取得手段と、ユーザー側において前記取得された映像又は前記映像に基づいて得られる映像が略リアルタイムに表示されるように、「前記映像取得手段により取得された映像であって、『ユーザーが希望する、場所その他の情報』に関する文字列などのキー・データに対応する一つ若しくは複数の場所の映像」又は前記映像に基づいて得られる映像又は前記映像を識別するための識別データを、オンラインで略リアルタイムに、ユーザー側に送信するための映像等送信手段と、「前記映像取得手段が配置されているか若しくは前記映像取得手段が映像取得の対象としている、一つ若しくは複数の場所又はその近傍」に存在している匂い情報を、取得するための匂い情報取得手段と、ユーザー側において「ユーザー側で表示されている前記映像の場所もしくはその近傍の匂い又はこれに近似する匂い」が発生されるように、前記匂い情報取得手段により取得された匂い情報又はこれに基づいて得られる情報(芳香成分を示す情報など)を、オンラインで略リアルタイムに、前記ユーザー側に送信するための匂い情報等送信手段と、を備えたことを特徴とする映像及び匂い提供システム。
The first “invention described in the claims of the present application” is as follows.
1 (The user knows the actual atmosphere and situation of one or more remote locations and the events at that location (for example, the atmosphere in a restaurant in a remote location and the crowded situation of customers) in near real time. A video and scent providing system for enabling a video acquisition means for acquiring video in one or a plurality of places in substantially real time, and one or a plurality of video acquisition means acquired by the video acquisition means Provided on the user side is a video transmission means for transmitting the video of the place or the video obtained based on the video or the identification data for identifying the video to the user side in approximately real time online. A video reception unit for receiving the video transmitted by the video transmission unit and a user side, and is received by the video reception unit. A video display means for displaying the received video, the video specified from the received identification data, or a video obtained based on each video in substantially real time; and “whether the video acquisition means is arranged? Or the scent information acquisition means for acquiring scent information existing in one or a plurality of places or the vicinity thereof, which is the target of video acquisition by the video acquisition means, and the scent information acquisition means. Odor information or information obtained based on the information (such as information indicating fragrance components) online, in real time, to the user side, transmission means for transmitting odor information, etc. Odor information receiving means for receiving the information transmitted by the information transmitting means, and the odor information receiving means provided on the user side. Based on the received information or information obtained based on this information, an odor that exists at or near the "location of the image displayed by the image display means or its vicinity" is generated. An image and odor providing system comprising: an odor generating means.
2. (The user knows in real time about one or more remote locations and the actual atmosphere and situation of events at that location (for example, the atmosphere in a restaurant in a remote location and the crowded situation of customers) A video and scent providing system for enabling, and) video acquisition means for acquiring video of one or a plurality of places in substantially real time, based on the acquired video or the video on the user side The video of one or a plurality of places acquired by the video acquisition means, the video obtained based on the video, or identification data for identifying the video, so that the obtained video is displayed in substantially real time. Video transmission means for transmitting to the user side in near real time online, and “the video acquisition means is arranged or The odor information acquisition means for acquiring the odor information existing in one or a plurality of places or the vicinity thereof, which is the target of the video acquisition by the video acquisition means, and “displayed on the user side” on the user side The scent information acquired by the scent information acquisition means or information obtained based on the scent information (information indicating a fragrance component) so that `` the scent of the video image in the vicinity thereof or a scent close thereto '' is generated. Etc.), and an odor information transmission means for transmitting the information to the user side substantially in real time.
3. (The user knows in real time about one or more remote locations and the actual atmosphere and situation of events at that location (for example, the atmosphere in a restaurant in a remote location and the crowded situation of customers) An image and scent providing system for enabling, provided on the user side, an image showing one or more remote locations, an image obtained based on the image or an identification for identifying the image Video receiving means for receiving data online in substantially real time via a network, and a user-provided video receiving means specified by the video received by the video receiving means or the received identification data A video display means for displaying the video or a video obtained based on each video in substantially real time, and the user side, The scent information existing in “one or more locations or its vicinity” or information obtained based on this (information indicating aroma components, etc.) online, in real time, via the network Based on the information received by the odor information receiving means or the information obtained based on the odor information receiving means and the odor information receiving means for receiving An image and odor providing system comprising: an odor generating means for generating an odor existing at or near a place of an image, or an odor similar thereto.
Although it is not the second “invention described in the claims of the present application” itself, the following invention is also proposed in this specification.
1 A video and scent providing video and scent providing system that allows the user to know the status of one or more remote locations, such as the atmosphere in a restaurant in a remote location and the crowded situation of customers, in approximately real time. The video acquisition means for acquiring video of one or a plurality of places in substantially real time, and the acquired video or video obtained based on the video is displayed in substantially real time on the user side. In order to identify “the video acquired by the video acquisition means and the video of one or a plurality of places existing at or near the current position of the user ” or the video obtained based on the video or the video And a video transmission means for transmitting the identification data to the user side substantially online in real time, and “the video acquisition means is arranged. Or the odor information acquisition means for acquiring the odor information existing in one or a plurality of places or the vicinity thereof, which is the object of the image acquisition by the image acquisition means, The scent information acquired by the scent information acquisition means or information obtained based on the scent information so that the scent of the displayed image or the scent thereof or the scent similar thereto is generated. And an odor information transmitting means for transmitting the information to the user side in real time in real time.
2 A video and scent providing video and scent providing system that allows the user to know the status of one or more remote locations, such as the atmosphere in a restaurant in a remote location and the crowded situation of customers, in approximately real time. The video acquisition means for acquiring video of one or a plurality of places in substantially real time, and the acquired video or video obtained based on the video is displayed in substantially real time on the user side. , “The video acquired by the video acquisition means, and the video of one or a plurality of locations existing on the route from the current position of the user to the desired location desired by the user ” or obtained based on the video Video transmission means for transmitting the video to be recorded or identification data for identifying the video to the user side in substantially real time online; , Acquisition of odor information for acquiring odor information existing in "one or a plurality of places where the image acquisition means is arranged or the image acquisition means is an object of image acquisition or its vicinity" And the odor information acquired by the odor information acquisition means or the odor information so that the “scent of the image displayed on the user side or its vicinity or an odor similar thereto” is generated on the user side. And scent providing system for transmitting information (such as information indicating aroma components) obtained on the basis of the scent information to the user side in substantially real time online .
3 A video and scent providing video and scent providing system that allows the user to know the status of one or more remote locations, such as the atmosphere in a restaurant in a remote location and the crowded situation of customers, in approximately real time. The video acquisition means for acquiring video of one or a plurality of places in substantially real time, and the acquired video or video obtained based on the video is displayed in substantially real time on the user side. , “The video acquired by the video acquisition means, and the video of one or a plurality of locations corresponding to key data such as a character string related to“ location and other information desired by the user ”” or the video Transmitting video etc. for transmitting video obtained based on the above or identification data for identifying the video to the user side almost online in real time And an odor for acquiring odor information existing in “one or a plurality of places or the vicinity thereof where the video acquisition means is arranged or the video acquisition means is a target of video acquisition”. Odor information acquired by the odor information acquisition means so that the information acquisition means and "the scent of the video displayed on the user side or its vicinity or an odor similar thereto" are generated on the user side Or a scent information transmission means for transmitting information (information indicating fragrance components, etc.) obtained based on the information to the user side almost in real time online. Offer system.
また、「本願の特許請求の範囲に記載された発明」そのものではないが、本明細書の中では、次のような「実況映像を利用した現在位置確認システム」も提案されている(例えば、段落番号0017,0018などの説明を参照)。
すなわち、この「実況映像を利用した現在位置確認システム」は、地図上の複数の地点に対応する実際の地点にそれぞれ設けられ、その地点の周辺の実況映像をリアルタイムに入力する映像入力手段であって、それぞれがネットワークに接続されている映像入力手段と、ユーザーの現在位置を推測する現在位置推測手段と、この現在位置推測手段により得られた推測現在位置に対応する地図上の地点を求める手段と、この地図上の地点を求める手段により求められた地点に対応する実際の地点に設けられた前記映像入力手段からの実況映像をネットワークを介して取り込む取り込み手段と、この取込まれた実況映像を表示する表示手段と、を備えたことを特徴とする実況映像を利用した現在位置確認システムである。
また、この「実況映像を利用した現在位置確認システム」は、公衆への開示が可能な多数の実況地点の実況映像をそれぞれリアルタイムに常時入力するために各実況地点にそれぞれ設けられた映像入力手段と、前記各実況映像を互いに識別するための実況映像識別データ(緯度データ及び経度データの座標データなどから成る)を記録する実況映像識別データ記録手段と、ユーザーの現在位置を特定する現在位置特定手段(従来より公知のGPS受信機など)と、この現在位置特定手段により特定されたユーザーの現在位置(緯度データ及び経度データの座標データなどから成る)に基づいて、その現在位置に近い一つ又は複数の実況地点に対応又は関連する一つ又は複数の実況映像識別データを選択する実況映像識別データ選択手段と、この選択された実況映像識別データに基づいて、対応する実況映像をオンラインで取り込む(ネットワークを介してアクセスして閲覧する場合と送信させる場合などを含む)映像取り込み手段と、この映像取り込み手段により取り込まれた実況映像(動画又は静止画)をリアルタイムに表示する表示手段と、からなるものである。
また、この「実況映像を利用した現在位置確認システム」では、前記映像入力手段は、前記各実況地点から複数の方向に向かって見える映像をそれぞれ撮像するものであり、前記各実況映像を互いに識別するための実況映像識別データは、前記映像入力手段が設けられた各実況地点の位置を示す位置データとその映像入力手段が撮影する方向を示す方向データと、から構成されており、前記現在位置特定手段は、ユーザーの現在位置を特定する手段とユーザーの進行方向を特定する手段とを含んでおり、前記実況映像識別データ選択手段は、前記現在位置特定手段により特定さたれユーザーの現在位置を示すデータ(緯度データ及び経度データから成る位置座標データなど)及び進行方向を示すデータ(東西南北など)に基づいて、ユーザーの現在位置からユーザーの進行する方向に位置し且つユーザーの現在地点に近い位置にある実況地点の実況映像であってしかもユーザーの進行方向に近い方向を写す実況映像(動画又は静止画)を特定するための実況映像地点識別データを選択するものである。
Further, although not the “invention described in the claims of the present application” itself, the following “current position confirmation system using a live video” has also been proposed in this specification (for example, (See description of paragraph numbers 0017, 0018 etc.).
In other words, this “current location confirmation system using live video” is a video input means that is provided at each of the actual points corresponding to a plurality of points on the map and inputs the live video around that point in real time. Video input means connected to the network, current position estimating means for estimating the current position of the user, and means for obtaining a point on the map corresponding to the estimated current position obtained by the current position estimating means And a capturing means for capturing the live video from the video input means provided at the actual point corresponding to the point determined by the means for determining the point on the map via the network, and the captured live video And a display means for displaying the current position confirmation system using a live video.
In addition, this “current location confirmation system using live video” is a video input means provided at each live site to constantly input live video of many live sites that can be disclosed to the public in real time. And live video identification data recording means for recording live video identification data (consisting of coordinate data of latitude data and longitude data, etc.) for identifying each live video from each other, and current position specification for specifying the current position of the user Based on the means (conventional GPS receiver, etc.) and the current position of the user specified by the current position specifying means (consisting of coordinate data of latitude data and longitude data, etc.) Or live video identification data selection means for selecting one or more live video identification data corresponding to or related to multiple live spots; Based on the selected live video identification data, the corresponding live video is captured online (including when accessed via a network for browsing and transmitted), and the video capture unit captures the video. Display means for displaying real-time video (moving image or still image) in real time.
Further, in this “current position confirmation system using live video”, the video input means picks up each video seen in a plurality of directions from each live location, and identifies each live video from each other The live video identification data to be configured is composed of position data indicating the position of each live spot where the video input means is provided and direction data indicating the direction in which the video input means captures, and the current position The specifying means includes means for specifying the current position of the user and means for specifying the traveling direction of the user, and the live video identification data selecting means specifies the current position of the user specified by the current position specifying means. Based on the data shown (position coordinate data consisting of latitude data and longitude data, etc.) and the data showing the direction of travel (east, west, south, north, etc.) Identifies the live video (moving image or still image) that is located in the direction of the user's travel from the current position and that is close to the user's current location and that shows the direction close to the user's travel direction For this purpose, live video point identification data is selected.
また、「本願の特許請求の範囲には記載された発明」そのものではないが本明細書の中で提案されている発明(以下「実況映像提供システム」)としては、次のものが存在する。
(1)実況映像提供システムは、公衆への開示が可能な多数の実況地点の実況映像をそれぞれリアルタイムに常時入力するために各実況地点に設けられた映像入力手段と、前記各実況地点の実況映像を互いに識別するための実況映像識別データを、地図データベースの地図上の各地点とそれぞれ関連・対応付けながら、記録する実況映像識別データベース手段と、前記地図データベースの地図上で指定された地点に基づいて、前記実況映像識別データベース手段から、対応する一つ又は複数の実況映像識別データを検索する検索手段と、この検索手段により検索された実況映像識別データに基づいて、対応する実況映像をリアルタイムに無線又は有線で取り込む(ネットワークで送信させること又はインターネット用ブラウジング・ソフトウェアでアクセスして閲覧することなどの方法により取り込む)映像取り込み手段と、この映像取り込み手段により取り込まれた実況映像(動画又は静止画)を出力する表示手段と、からなるものである。
(2)また、実況映像提供システムは、公衆への開示が可能な多数の実況地点の実況映像をそれぞれリアルタイムに常時入力するために各実況地点に設けられた映像入力手段と、地図とその地図上の各地点を特定するための座標データとを記録する地図データベースと、前記地図データベースの中の座標データと、前記各実況映像を互いに識別するための実況映像識別データとを、互いに関連又は対応付けながら、記録する実況映像識別データベース手段と、ある実況映像を表示している場合に、その実況映像を互いに識別する実況映像識別データをキーとして、前記実況映像識別データベースから、その実況映像の実況地点に対応又は関連する一つ又は複数の地図上の地点を検索する検索手段と、この検索手段により検索された地図上の地点を含む所定領域の地図を示す地図データを抽出する地図データ抽出手段と、この地図データ抽出手段により抽出された地図データにより地図を出力する表示手段と、からなるものである。
(3)また、実況映像提供システムは、公衆への開示が可能な多数の実況地点の実況映像をそれぞれリアルタイムに常時入力するために各実況地点に設けられた映像入力手段と、前記各実況映像を互いに識別するための実況映像識別データを、文字列・記号列・図形又は映像などから成るキーと関連付けながら、記録する実況映像識別データベース手段と、前記の文字列・記号列・図形又は映像などから成るキーを入力するキー入力手段と、このキー入力手段から入力されたキーに基づいて、前記実況映像識別データベース手段から、関連する一つ又は複数の実況映像識別データを検索する検索手段と、この検索手段により検索された実況映像識別データに基づいて、対応する実況映像を取り込む(ネットワークより送信させるとインターネット用ブラウザーにより閲覧する場合などを含む)映像取り込み手段と、この映像取り込み手段により取り込まれた実況映像(動画又は静止画)を出力する表示手段と、からなるものである。
(4)なお、実況映像提供システムにおいて、前記映像入力手段は一つの実況地点から複数の方向の映像を撮像するものであり(例えば、一つのビデオカメラを旋回してある複数の方向に来たときに撮像する場合や、複数のビデオカメラを複数の方向にそれぞれ備え付けて同時に撮像する場合など)、前記各実況映像を特定するための実況映像識別データは、前記映像入力手段が設けられた各実況地点の位置を示す位置データとその映像入力手段が撮影する方向を示す方向データとから構成されていることが望ましい。
(5)また、実況映像提供システムでは、前記表示手段に表示された実況映像(動画又は静止画)の中のユーザーが指定した部分に対して他の部分と区別するためのマーキングをするためのマーキング手段を備えるのがよい。
(6)また、実況映像提供システムにおいて、前記映像入力手段は、その地点において発生している音声をリアルタイムに入力する手段をも備えているのがよい。
(7)また実況映像提供システムでは、さらに、前記映像入力手段の近傍に備えられ、匂いセンサと、この匂いセンサからの信号を匂いデジタルデータに変換する手段とから構成され、前映像入力手段の設置された地点又はその周辺の匂いを入力するための匂い入力手段と、この匂い入力手段からの匂いデータを、その匂いに近似した匂いを発生させるための芳香剤調合データに変換する変換手段と、前記表示手段の近傍に備えられ、前記芳香剤調合データから芳香剤を調合して所望の匂いを発生させる匂い発生手段と、を含むのがよい。なお、前記の「その匂いに近似した匂いを発生させるための芳香剤調合データに変換する変換手段」は、前記匂い入力手段と直接に接続され、この変換手段がコンピュータ通信ネットワークを介して前記匂い発生手段に接続されていてもよいし、あるいは、前記入力入力手段とコンピュータ通信ネットワークを介して接続され、この変換手段が直接に前記匂い発生手段に接続されていてもよい。
Further, although not the “invention described in the claims of the present application” itself, the inventions proposed in this specification (hereinafter referred to as “actual video providing system”) include the following.
(1) The live video providing system is a video input means provided at each live spot to constantly input real-time live videos of a large number of live spots that can be disclosed to the public, and the live status of each live spot. Live video identification data for distinguishing videos from each other is associated with and associated with each point on the map of the map database, and recorded in the live video identification database means, and at a point designated on the map of the map database Based on the live video identification database means, search means for searching for one or more corresponding live video identification data, and on the basis of the live video identification data searched by the search means, (Wireless or wired) (browsing via network or internet browsing software) Capturing) video capture unit by a method such as to browse and access, and display means for outputting the commentary image captured by the image capture means (moving image or still image), it is made of.
(2) In addition, the live video providing system has a video input means provided at each live spot, a map and its map in order to constantly input real-time live footage of many live spots that can be disclosed to the public. A map database that records coordinate data for specifying each point above, coordinate data in the map database, and live video identification data for identifying each live video from each other are related to or correspond to each other The live video identification database means for recording and the live video from the live video identification database using the live video identification data for identifying each live video as a key when a live video is displayed. Search means for searching for a point on one or more maps corresponding to or related to the point, and a point on the map searched by this search means A map data extracting means for extracting the map data indicating a map of non-predetermined area, and a display means for outputting the map by the map data extracted by the map data extracting means, is made of.
(3) In addition, the live video providing system includes a video input means provided at each live spot in order to constantly input real live video of a large number of live spots that can be disclosed to the public, The live video identification database means for recording the live video identification data for discriminating each other with the key comprising the character string / symbol string / graphic / video, etc., and the character string / symbol string / graphic / video, etc. A key input means for inputting a key comprising: a search means for searching for one or more relevant live video identification data from the live video identification database means based on the key input from the key input means; Based on the live video identification data searched by this search means, the corresponding live video is taken in (if transmitted from the network, the Internet And) the image capturing means, including when browsing the browser, and a display means for outputting a commentary image captured by the image capture means (moving image or still image), is made of.
(4) In the live video providing system, the video input means captures video in a plurality of directions from one live point (for example, a single video camera is turned in a plurality of directions) When the image is sometimes captured or when a plurality of video cameras are respectively provided in a plurality of directions and imaged at the same time), the actual image identification data for identifying each actual image is provided by each of the image input means provided It is desirable that it is composed of position data indicating the position of the live spot and direction data indicating the direction in which the video input means captures.
(5) In addition, in the live video providing system, the part specified by the user in the live video (moving picture or still picture) displayed on the display means is marked to distinguish it from other parts. A marking means may be provided.
(6) In the live video providing system, the video input means may also include means for inputting the sound generated at the point in real time.
(7) Further, the live video providing system further includes an odor sensor and a means for converting a signal from the odor sensor into odor digital data provided near the video input means. An odor input means for inputting an odor at or near the installed location, and a conversion means for converting odor data from the odor input means into fragrance preparation data for generating an odor similar to the odor. And an odor generating means that is provided near the display means and generates a desired odor by mixing the fragrance from the fragrance preparation data. The “conversion means for converting to fragrance preparation data for generating an odor similar to the odor” is directly connected to the odor input means, and the conversion means is connected to the odor via a computer communication network. It may be connected to the generating means, or may be connected to the input input means via a computer communication network, and this converting means may be directly connected to the odor generating means.
本発明によれば、(ユーザー側において遠隔地の映像とその場所又はその周辺の匂いとを略リアルタイムに出力させることができるので)、ユーザーは、自らが居る場所とは離れた遠隔の場所もしくはその近傍又はその場所での出来事に関する実際の雰囲気や状況(例えば遠隔地にある飲食店の店内の雰囲気や来店客の混雑状況やその周辺の匂いなど)を略リアルタイムに知ることができるようになる。 According to the present invention (since the user can output the image of the remote location and the odor of the location or its surroundings in substantially real time), the user can You will be able to know in real time the actual atmosphere and situation of events in the vicinity or at that location (for example, the atmosphere in a restaurant in a remote location, the crowded situation of customers, and the smell around it). .
本発明を実施するための最良の形態は、以下の実施例1について述べるような形態である。 The best mode for carrying out the present invention is a mode as described in Example 1 below.
次に、図1〜4を参照して、本発明の実施例1を説明する。
図1において、1はユーザーが使用するパーソナルコンピュータ(パソコン)で、CPU及び通信モデム等より成る制御装置2と、コンピュータプログラム及びデータが記録されたハードディスク装置3と、コンピュータプログラム及びデータが記録されたCD−ROM4を駆動するためのCD−ROMドライブ5と、データ入力するためのキーボード6及びマウス6aと、画像を出力するためのディスプレイ7と、音声を出力するためのスピーカ8とより、構成されている。
前記制御装置2は、インターネット等のコンピュータネットワーク用公衆回線10を介して、中継サービス用コンピュータ11に接続されている。この中継サービス用コンピュータ11には、多数の実況地点にそれぞれ設置されたビデオカメラ12,12a,12b及び集音マイク13,13a,13bを制御し且つこれらのビデオカメラ12及び集音マイク13からのデータを記録し通信ネットワークを介して閲覧させるためのコンピュータ(サーバー)14,14a,14bが、接続されている。これらの多数のビデオカメラ12及びマイク13等により入力された映像データ及び音声データは、ユーザー側からの要求により、コンピュータ14及び中継サービス用コンピュータ11を介して、ユーザー側に送信できるようになっている。なお、前記ビデオカメラ12は、各実況地点において、それぞれ4個ずつ設置され、それらの4個のビデオカメラは、それぞれ東西南北の4つの方向の映像を撮像するように、設置されていることが望ましい。
Next,
In FIG. 1,
The
また、前記中継用サービスコンピュータ11は、他の多数の中継用サービスコンピュータ12などとも接続されており、例えば、ある中継サービス用コンピュータ11に接続されたユーザーは、この中継サービス用コンピュータ11を介して他の中継サービス用コンピュータ12などから、それに接続されたコンピュータ(サーバー)を介してビデオカメラ及びマイクから入力されたデータを取り込めるようになっている。
この場合の映像や音声の取り込みの方法は、そのビデオカメラやマイクからの情報を電子メールに添付させて送信させる方法や、そのビデオカメラ及びマイクの入力情報を提供するためのホームページがコンピュータ・ネットワーク上に開設されており、このホームページをユーザー側がインターネット用のブラウザー・ソフトウェア(閲覧ソフト)により取り込みにいく方法(いわば、コンピュータ・ネットワーク上のホームページをユーザー側のバソコンのハードディスクのように使用する方法)などの様々な方法が有り得る。
The relay service computer 11 is also connected to a number of other relay service computers 12. For example, a user connected to a certain relay service computer 11 passes through the relay service computer 11. Data input from a video camera and a microphone can be taken in from another relay service computer 12 or the like via a computer (server) connected thereto.
Video and audio capture methods in this case include a method for sending information from the video camera and microphone attached to an e-mail, and a homepage for providing input information of the video camera and microphone is a computer network. A method that allows users to import this website using browser software (browsing software) for the Internet (in other words, using a website on a computer network like a hard disk of a user's computer). There can be various methods such as.
この実施例1では、前記CD−ROM4には、地図データとこの地図上の各地点を特定するためのアドレスデータとを関連させて記録する地図データベースと、このアドレスデータと、前記各実況地点(前記ビデオカメラ12及びマイク13が設置された各場所)の実況映像を識別するための映像識別データとを、互いに関連付け・対応付けて記録する実況映像データベースと、これらの前記地図データベースを再生する再生プログラムと、前記実況映像データベースを検索する検索プログラムと、この検索された実況映像識別データからそれに対応する実況映像を取り込んで表示するためのプログラムとが、記録されている。
今、例えば大阪に住んでいるユーザーが、「自分の故郷の神奈川県の夏の湘南海岸の海岸線に沈む夕陽の景色を見たい」と考えたとする。その場合、例えば、ユーザーが地図データベースを再生させて湘南海岸を含む所定領域の地図を画面表示させ、その画面上で前記の湘南海岸の地点をマウス6aでクリックしたとする。すると、制御装置2は、この入力に基づいて、前記地点データベースから、この地図上の地点に対応するアドレスデータを検索する。そして、この検索されたアドレスデータに基づいて、前記実況映像データベースから、対応する実況地点の実況映像を示す実況映像識別データを検索する。そして、この検索された実況映像識別データに基づいて、中継サービス用コンピュータ11にアクセスして、前記の実況映像識別データに対応する実況地点に設置されたビデオカメラ及びマイク(且つ、前記実況映像識別データが撮像方向をも特定したものであるときは、その撮像方向と対応する方向に設置されたビデオカメラ及びマイク)からの映像データ及び音声データをオンラインで取り込んで、ディスプレイ7及びスピーカ8によりリアルタイムに出力する。このとき出力される映像及び音声は、現時点のリアルタイムの映像及び音声なので、ユーザーはあたかもその現場に実際にいるような感覚・感動を得ることができる。
すなわち、従来からも、例えば湘南海岸などの海岸の映像を記録し、それらをキーワードなどで検索して出力できるCD−ROMなどは存在している。そして、これらのCD−ROMに記録された映像は、プロのカメラマンが絶好の日和・時刻(例えば夕陽のきれいな時刻)の絶好の角度から美しく撮影したものである。これに対して、この実施例で提供される映像は、雨天のときも曇りのときもあるし、時刻も絶好の景色が見られる時刻ではないかもしれない。しかし、ユーザーにとっては、「今この時点・この瞬間の映像(二度とない映像)である」ということが、ひとつの「臨場感」「感動」を生むことになる。つまり、「今、湘南海岸に沈む夕陽を見たい」とユーザーが思った場合、過去の記録に過ぎない記録された「湘南海岸の夕陽」の映像ではなく、「今この瞬間の湘南海岸の夕陽」の映像を見られなければ、ユーザーにとっては大きな感動は得られない。この実施例はこのようなユーザーの希望に答えることができるものなのである。
In the first embodiment, the CD-
Now, for example, a user who lives in Osaka thinks that he wants to see the setting sun on the coastline of the summer Shonan coast of Kanagawa Prefecture, his hometown. In this case, for example, it is assumed that the user reproduces the map database, displays a map of a predetermined area including the Shonan coast, and clicks the location of the Shonan coast on the screen with the mouse 6a. Then, based on this input, the
In other words, there has been a CD-ROM or the like that can record a video of a beach such as the Shonan coast and search and output it with a keyword or the like. The images recorded on these CD-ROMs are beautifully photographed by a professional photographer from a perfect angle of a perfect day / time (for example, a beautiful time of the sunset). On the other hand, the video provided in this embodiment may be rainy or cloudy, and the time may not be the time when the best scenery can be seen. However, for the user, “the video at this point in time and the video at this moment (a video that will never happen again)” creates a single “sense of reality” and “impression”. In other words, if the user thinks “I want to see the sunset on the Shonan coast now,” it ’s not just the recorded “sunset on the Shonan coast”, but the “sunset on the Shonan coast at this moment.” If you ca n’t see the video, you wo n’t be able to get a big impression. This embodiment can answer such user's wishes.
なお、ここで、以上の図1について説明した実施例の構成を図2を参照してもう一度説明する。この図2は、実施例の構成を機能的・概念的に示したものである。図2において、符号32は、コンピュータネットワーク(コンピュータ通信網)30に接続され、各地の実況映像と音声をリアルタイムに入力するためのビデオカメラ及びマイクから成る実況映像入力部である。また、符号24は、前記地図データベース26とその再生プログラムとその検索プログラム、前記実況映像データベース25とその検索プログラム、及び前記実況映像識別データから通信ネットワークを介して該当する実況映像を取り込むためのプログラムなどが記録されたCD−ROMである。
また図2において、21は前記CD−ROM24に記録された前記地図データベース26を再生するための地図データベース再生部、22はこの地図データベース再生部21からの信号を受けて表示部27及びスピーカ28を制御して所定の画像及び音声を出力する制御部である。また23は、前記制御部22からの信号を受けて、前記地図データベースが再生された画面上でユーザーが指定(マウスでクリック)した地点のアドレスデータに基づいて、前記実況映像データベース25から、対応する実況映像の識別データを検索する検索部である。制御部22は、この検索部23からの実況映像の識別データに基づいて、映像取り込み部(例えばインターネットのホームページ閲覧用ソフトウェアであるブラウザーを記録し実行する装置)26を制御して、コンピュータネットワーク用通信回線30を介して映像入力部32にアクセスし、そこから、オンラインで、リアルタイムの実況映像及び音声を取り込む。制御部22は、このオンラインで取り込まれた実況映像と音声を、前記地図データベース26からの再生画像(地図画像)と関連させながら、前記表示部27及びスピーカ28によりリアルタイムに出力させる。
Here, the configuration of the embodiment described above with reference to FIG. 1 will be described again with reference to FIG. FIG. 2 shows the configuration of the embodiment functionally and conceptually. In FIG. 2,
In FIG. 2, 21 is a map database playback unit for playing back the
次に、前記の図1の制御装置2に制御されながら、前記ディスプレイ7により表示される画面を、図3及び図4に基づいて説明する。
前記CD−ROM4に記録された各プログラムにより、ディスプレイ7には、図3に示すように、その上半分7aに実況映像が表示され、その下半分7bに地図が表示されるようになっている。この実施例1を使用するときは、ユーザーは、まず図1の前記CD−ROM4を駆動して、前記地図データベースから前記ディスプレイ7の下半分7bに希望する地図を表示させる。CD−ROM4に記録された地図データベースの中のどの部分の地図を表示させるかは、例えば、地名などのキーワードから地図データを検索して表示させればよい(このような技術は従来より公知である)。
そして、本実施例では、この表示された地図には、例えば図4のア、イ、ウ、エ、オ、カ、キに示すように、各地点を示す点が所定の色(例えば赤色)に着色されて表示されている。
これらの図4のア、イ、ウ、エ、オ、カ、キで示す各点の中で、図4のア、イ、ウ、及びエは、図1のビデオカメラ12及びマイク13に対応している。すなわち、この実施例1では、図1のビデオカメラ12は、それぞれ互いに異なる方向を撮像するように図4のア、イ、ウ、及びエの位置に設置された4個のビデオカメラにより構成されている。また、図1のマイク13は、それぞれ互いに異なる方向を集音するように設置された4個のマイクにより構成されている。
つまり、ビデオカメラ12について説明すると、ビデオカメラ12を構成する4個のビデオカメラの中で、図4のアの位置に設置されたビデオカメラは、図の西方向(左方向)に向けて撮像しており、“1428A”の映像識別データを有する実況映像を生成する。また、図4のイの位置に設置されたビデオカメラは、図の南方向(下方向)に向けて撮像しており、“1428B”の映像識別データを有する実況映像を生成する。また、図4のウの位置に設置されたビデオカメラは、図の東方向(右方向)に向けて撮像しており、“1428C”の映像識別データを有する実況映像を生成する。また、図4のエの位置に設置されたビデオカメラは、図の北方向(上方向)に向けて撮像しており、“1428D”の映像識別データを有する実況映像を生成する。
また、前記の図4のア、イ、ウ、エ、オ、カ、キで示す各点の中で、図4のオ、カ、及びキは、図1のビデオカメラ12a及びマイク13aに対応している。すなわち、この実施例1では、図1のビデオカメラ12aは、それぞれ互いに異なる方向を撮像するように図4のオ、カ、及びキの位置に設置された3個のビデオカメラにより構成されている。また、図1のマイク13aは、それぞれ互いに異なる方向を集音するように設置された3個のマイクにより構成されている。つまり、ビデオカメラ12aについて説明すると、ビデオカメラ12aを構成する3個のビデオカメラの中で、図4のオの位置に設置されたビデオカメラは、図の北西方向(左上方向)に向けて撮像しており、“1429A”の映像識別データを有する実況映像を生成する。また、図4のカの位置に設置されたビデオカメラは、図の東南方向(右下方向)に向けて撮像しており、“1429B”の映像識別データを有する実況映像を生成する。また、図4のキの位置に設置されたビデオカメラは、図の東方向(右方向)に向けて撮像しており、“1429C”の映像識別データを有する実況映像を生成する。
以上のように、この図4を参照して説明する実施例では、地図上の各地点を識別するためのアドレスデータ(“1428”や“1429”など)と同一実況地点での各ビデオカメラの撮像方向を示すデータ(“A”“B”“C”“D”など)との組合せと、各地点の実況映像を識別するための実況映像識別データ(“1428A”や“1429A”など)とを、互いに対応させて記録している。
より詳細に述べると、この図4の例では、地図上の1つのアドレスデータ“1428”(図4の中央の交差点の領域を識別するアドレスデータ)については、“1428A”“1428B”“1428C”及び“1428D”の4つの撮像方向をそれぞれ示す4つの実況映像識別データが、対応させて記録されている。また、地図上の1つのアドレスデータ“1429”(図4の図示左側の交差点の領域を識別するアドレスデータ)については、“1429A”“1429B”及び“1429C”の3つの撮像方向を示す3つの実況映像識別データが、対応させて記録されている。
なお、この図4の例では、実況映像識別データ(例えば“1428A”)を、地図上のアドレスデータ(例えば“1428”)と方向データ(例えば“A”)との組合せにより構成しているが、本発明では、必ずしも、実況識別データの中に地図上のアドレスデータをそのまま使用する必要はない。例えば、地図上のアドレスデータは地図全体を均等に割り付けて構成した番地データ(又は座標データ)とし、実況映像識別データはビデオカメラが実際に取り付けてある地点の識別コード(例えば、ビデオカメラの設置順の連続番号)と方向データとの組合せにより構成する、などのようにすることもできる。
Next, a screen displayed on the
According to each program recorded in the CD-
In the present embodiment, in the displayed map, points indicating each point have a predetermined color (for example, red) as shown in, for example, a, i, c, e, o, mosquito, and ki in FIG. It is colored and displayed.
Among the points indicated by a, i, u, d, o, mosquito, and ki in FIG. 4, a, i, c, and d in FIG. 4 correspond to the video camera 12 and the microphone 13 in FIG. is doing. That is, in the first embodiment, the video camera 12 in FIG. 1 is configured by four video cameras installed at positions a, b, c, and d in FIG. 4 so as to capture images in different directions. ing. Moreover, the microphone 13 of FIG. 1 is comprised by the four microphones installed so that each may collect a sound from a mutually different direction.
In other words, the video camera 12 will be described. Of the four video cameras constituting the video camera 12, the video camera installed at position a in FIG. 4 takes an image in the west direction (left direction) in the figure. The live video having the video identification data “1428A” is generated. Also, the video camera installed at the position of A in FIG. 4 captures images in the south direction (downward) in the figure, and generates a live video having video identification data “1428B”. Further, the video camera installed at the position of c in FIG. 4 captures an image in the east direction (right direction) in the figure, and generates a live video having video identification data of “1428C”. Further, the video camera installed at the position D in FIG. 4 captures an image in the north direction (upward direction) in the figure, and generates a live video having video identification data “1428D”.
Among the points indicated by a, i, c, e, o, mosquito, and ki in FIG. 4, o, mosquito, and ki in FIG. 4 correspond to the video camera 12a and the microphone 13a in FIG. is doing. In other words, in the first embodiment, the video camera 12a in FIG. 1 is configured by three video cameras installed at the positions of “e”, “f”, and “ki” in FIG. 4 so as to capture different directions. . Moreover, the microphone 13a of FIG. 1 is comprised by the three microphones installed so that each may collect sound from a mutually different direction. In other words, the video camera 12a will be described. Of the three video cameras constituting the video camera 12a, the video camera installed at the position o in FIG. 4 takes an image in the northwest direction (upper left direction) in the figure. The live video having the video identification data “1429A” is generated. Further, the video camera installed at the position of F in FIG. 4 captures an image in the southeast direction (lower right direction) in the figure, and generates a live video having video identification data of “1429B”. Further, the video camera installed at the position of K in FIG. 4 captures an image in the east direction (right direction) in the figure, and generates a live video having video identification data of “1429C”.
As described above, in the embodiment described with reference to FIG. 4, the address data (“1428”, “1429”, etc.) for identifying each point on the map and each video camera at the same live point. Combination with data indicating the imaging direction (“A”, “B”, “C”, “D”, etc.), and live video identification data (“1428A”, “1429A”, etc.) for identifying live video at each point Are recorded in correspondence with each other.
More specifically, in the example of FIG. 4, one address data “1428” on the map (address data for identifying the intersection area at the center of FIG. 4) is “1428A”, “1428B”, “1428C”. And four live video identification data respectively indicating the four imaging directions of “1428D” are recorded correspondingly. Further, for one address data “1429” on the map (address data for identifying the intersection area on the left side in FIG. 4), three addressing directions “1429A”, “1429B” and “1429C” are shown. Live video identification data is recorded correspondingly.
In the example of FIG. 4, the live video identification data (eg, “1428A”) is configured by a combination of address data (eg, “1428”) on the map and direction data (eg, “A”). In the present invention, it is not always necessary to use the address data on the map as it is in the actual situation identification data. For example, the address data on the map is address data (or coordinate data) configured by allocating the entire map evenly, and the live video identification data is the identification code of the point where the video camera is actually attached (for example, installation of the video camera) (Sequential number in the order) and direction data may be combined.
この図4の例では、前記各ビデオカメラ12及びマイク13がそれぞれ映像及び音声を入力して得られる実況映像(ここでの「実況映像」という用語は、原則として、ビデオカメラで入力した映像データとマイクで入力した音声データとの両者を含む意味で使用している)の識別データには、その地点を示すデータとそのビデオカメラ12が撮影している方向(これはマイク13が集音しようとする方向と一致している)とから、構成されている。つまり、実況映像は、各地点とその撮像方向とで互いに識別されており、「実況映像識別データ」は、各地点を示すデータと撮影又は集音の方向を示すデータとから、構成されている。だから、同じ地点でも、撮影する方向(東西南北などの方向)が違えば別の識別データを有する別の実況映像となる。
このことを図4で説明すると、図4の“ア”で示すアドレスデータ(1428A)を有する地点は、(1428A)という映像識別データを有する実況映像と対応しており、この(1428A)という識別データを示す実況映像は、図4の“ア”の地点からAの方向(図面に向かって左の方向)を撮影した映像である。また、図4の“イ”で示すアドレスデータ(1428B)を有する地図上の地点は、(1428B)という識別データを有する実況映像と対応しており、この(1428B)という識別データを示す実況映像は、図3の“イ”の地点からBの方向(図面に向かって下の方向)を撮影した映像である。また、図4の“ウ”で示すアドレスデータ(1428C)を有する地点は、(1428C)という識別データを有する実況映像と対応しており、この(1428C)という識別データを示す実況映像は、図4の“ウ”の地点からCの方向(図面に向かって右の方向)を撮影した映像である。また、(1428D)というアドレスデータを有する図4の“エ”で示す地点は、(1428D)という識別データを有する実況映像と1対1に対応しており、この(1428D)という識別データを示す実況映像は、図4の“エ”の地点からDの方向(図面に向かって上の方向)を撮影した映像である。
さらに、図4において、アドレスデータ(1429A)を有する“オ”で示す地点は、(1429A)という識別データを有する実況映像と対応しており、この(1429A)という識別データを示す実況映像は、図4の“オ”の地点からAの方向(図面に向かって左上の方向)を撮影した映像である。また、図4の(1429B)というアドレスデータを有する“カ”で示す地点は、(1429B)という識別データを有する実況映像と対応しており、この(1429B)という識別データを示す実況映像は、図4の“カ”の地点からBの方向(図面に向かって右下の方向)を撮影した映像である。また、図4の(1429C)というアドレスデータを有する“キ”で示す地点は、(1429C)という識別データを有する実況映像と対応しており、この(1429C)という識別データを示す実況映像は、図4の“キ”の地点からCの方向(図面に向かって右の方向)を撮影した映像である。
In the example of FIG. 4, each video camera 12 and microphone 13 is a live video obtained by inputting video and audio, respectively (in this case, the term “live video” is basically video data input by a video camera). And the voice data input with the microphone are used for identification data), the data indicating the point and the direction in which the video camera 12 is shooting (this is the microphone 13 trying to collect the sound) In the same direction). In other words, the live video is mutually identified by each point and its imaging direction, and the “live video identification data” is composed of data indicating each point and data indicating the direction of shooting or sound collection. . Therefore, even at the same point, if the shooting direction (direction such as east, west, south, and north) is different, another live image having different identification data is obtained.
This will be explained with reference to FIG. 4. A point having the address data (1428A) indicated by “A” in FIG. 4 corresponds to a live video having video identification data (1428A), and this identification (1428A) is identified. The live video showing data is a video taken in the direction A (the left direction in the drawing) from the point “a” in FIG. 4. Further, the point on the map having the address data (1428B) indicated by “I” in FIG. 4 corresponds to the live video having the identification data (1428B), and the live video showing the identification data (1428B). These are images taken in the direction B (downward in the drawing) from the point “a” in FIG. 3. Further, the point having the address data (1428C) indicated by “c” in FIG. 4 corresponds to the live video having the identification data (1428C). The live video showing the identification data (1428C) is shown in FIG. 4 is an image obtained by photographing the direction C (right direction as viewed in the drawing) from the point “4” in FIG. Further, the point indicated by “d” in FIG. 4 having the address data of (1428D) has a one-to-one correspondence with the live video having the identification data of (1428D), and indicates the identification data of (1428D). The live video is a video taken in the direction D (upward in the drawing) from the point “d” in FIG.
Further, in FIG. 4, a point indicated by “O” having address data (1429A) corresponds to a live video having identification data (1429A), and the live video showing the identification data (1429A) is It is the image | video which image | photographed the direction of A (upper left direction toward drawing) from the "o" point of FIG. Further, the point indicated by “K” having the address data (1429B) in FIG. 4 corresponds to the live video having the identification data (1429B), and the live video showing the identification data (1429B) is It is the image | video which image | photographed the direction B (the direction of the lower right toward drawing) from the "f" point of FIG. Further, the point indicated by “K” having the address data (1429C) in FIG. 4 corresponds to the live video having the identification data (1429C), and the live video showing the identification data (1429C) is It is the image | video which image | photographed the direction of C (right direction toward drawing) from the "ki" point of FIG.
以上から分かるように、この図4の例では、1428は、図4の地図の中央に位置する交差点の領域(この図4の例では、この交差点の領域を「実況地点」という言葉で呼んでいる)を示す地図上のアドレスデータであり、A,B,C,Dはその交差点領域(実況地点)からの撮影(及び集音)の方向を示している。
また同様に、図4の例では、1429は、図4の地図の左端の交差点の領域(実況地点)を示す地図上のアドレスデータであり、A,B,Cはその交差点(実況地点)内の各場所からの撮影(及び集音)の方向を示している。
また、この図4の例では、実況映像の識別データは、前記地図上の各実況地点の位置を示すアドレスデータ(“1428”,“1429”など)と前記方向を示すデータ(A,B,C,Dなど)との組合せにより、構成されている。
As can be seen from the above, in this example of FIG. 4, 1428 is an intersection area located in the center of the map of FIG. 4 (in this example of FIG. 4, this intersection area is referred to as “actual point”). A, B, C, D indicate the direction of shooting (and sound collection) from the intersection area (actual point).
Similarly, in the example of FIG. 4, 1429 is address data on the map indicating the area (actual point) of the intersection at the left end of the map of FIG. 4, and A, B, and C are within the intersection (actual point). The direction of shooting (and sound collection) from each location is shown.
In the example of FIG. 4, the live video identification data includes address data (“1428”, “1429”, etc.) indicating the location of each live location on the map and data (A, B, C, D, etc.).
したがって、ユーザーは、この図4の地図を見ながら、自分がこれから行きたいと思う場所が例えば図4の1428で示す交差点の領域だとして、「今、この交差点の状況はどうなっているか(混雑しているのかどうか、どういう人達がどういう服装で通行しているのか、など)知りたい、そのために実況映像を見たい」と思えば、図4で示す地図上のア〜エの地点のいずれかをマウスなどのポインティングデバイスでクリックすればよい。すると、前記制御装置2により、その地図上のアドレスデータに対応する実況映像識別データが検索され(前記実況映像データベースから)、この検索された実況映像識別データに基づいて、該当する実況映像がコンピュータ・ネットワークを介して取り込まれて、ディスプレイ7の上半分7aに表示される。
Therefore, the user sees the map of FIG. 4 and determines that the place he / she wants to go to is the intersection area indicated by 1428 in FIG. 4, for example, “What is the situation of this intersection now? If you want to know, what kind of people, what kind of clothes, and what kind of clothes you are going through, etc.) Can be clicked with a pointing device such as a mouse. Then, the
またユーザーは、これから自分が行きたいと思う場所と今自分が居る場所との間の交通経路を地図上で求めて(これは従来から公知の技術で既に実現されている)、その経路上にある地点の実況映像を順番に表示していく(一つの実況映像の表示時間を例えば5秒として、5秒毎に次の実況映像を順番に表示していく)こともできる。
またユーザーは、自分が自動車を運転しているとき、GPS受信機で受信した測位情報や各種のセンサにより得た測位情報から現在の位置を地図上で求め(これは従来より公知の技術で既に実現されている)、その地図上で求めた自分の現在位置に対応する地点から、前記実況映像の識別データを求めて、その識別データに基づいてネットワーク上のサーバー(例えば図1の中継サービス用コンピュータ11)を通して対応する実況映像を取り込んで表示する、こともできる。これにより、ユーザーは、地図上の現在位置(GPS受信機やセンサからの情報に基づいて推測した現在位置)と実際の現在位置とが本当に一致しているのかどうかを目視により確認することができる。つまり、上記のようにして求められた実況映像識別データに基づいてディスプレイ7に表示された実況映像と自分が自動車の内部から外部を見て得られる実際の景色とが一致していれば、前記のGPSにより推測した現在位置は計測誤差がなく正しいということになるが、一致していなければ前記の推測した現在位置は正しくないということになる。
In addition, the user obtains a traffic route between the place where he / she wants to go and the place where he / she is present on the map (this has already been realized by a conventionally known technique), and on that route. It is also possible to display live video at a certain point in order (display time of one live video is 5 seconds, for example, and display the next live video in order every 5 seconds).
In addition, when the user is driving a car, the user obtains the current position on the map from the positioning information received by the GPS receiver and the positioning information obtained by various sensors (this is already known in the prior art). The real-time video identification data is obtained from the point corresponding to the current position obtained on the map, and a server on the network (for example, for the relay service in FIG. 1) is obtained based on the identification data. It is also possible to capture and display the corresponding live video through the computer 11). As a result, the user can visually confirm whether or not the current position on the map (current position estimated based on information from the GPS receiver or sensor) and the actual current position are the same. . In other words, if the live image displayed on the
なお、前記制御装置2と中継サービス用コンピュータ11の接続は無線でもよいこと、前記中継サービス用コンピュータと各ビデオカメラ12及びマイク13との接続も無線でもよいこと、及び、前記「地図データベース」、「実況映像データベース」、これらの検索プログラム、及び地図データベース再生プログラムは、CD−ROM4から読み取るのではなく、前記中継サービス用コンピュータ11などのネットワーク上のサーバー(コンピュータ)から取り込むようにしてもよい。特に、上記のように、図1のパソコン1を移動中の自動車内で使用する場合(自分が自動車を運転しているとき、GPS受信機で受信した測位情報や各種のセンサにより得た測位情報から現在の位置を画面表示された地図上で求め、この「自分の現在位置に対応する実況地点の実況映像で且つ自分の進行方向に対応する撮像方向の実況映像」を、パソコン1のディスプレイ7に表示させる場合)は、前記パソコン1の制御装置2と前記中継サービス用コンピュータとの間は無線で送受信する必要がある。
The connection between the
次に、本発明の実施例2を図1により説明する。図1において、1はユーザーが使用するパーソナルコンピュータ(パソコン)で、CPU及び通信モデム等より成る制御装置2と、コンピュータプログラム及びデータが記録されたハードディスク装置3と、コンピュータプログラム及びデータが記録されたCD−ROM4を駆動するためのCD−ROMドライブ5と、データ入力するためのキーボード6と、画像を出力するためのディスプレイ7と、音声を出力するためのスピーカ8とより、構成されている。
前記制御装置2は、公衆回線10を介して、中継サービス用コンピュータ11に接続されている。この中継サービス用コンピュータ11には、多数の地点にそれぞれ設置されたビデオカメラ12及び集音マイク13が、コンピュータ(サーバー)14を介して、接続されている。これらの多数のビデオカメラ12及びマイク13等により入力された映像データ及び音声データは、ユーザーからの要求により、前記コンピュータ(サーバー)14及び中継サービス用コンピュータ11を介して、ユーザーに送信できるようになっている。
また、図1の多数のビデオカメラ12及び集音マイク13は、識別データにより互いに識別できるようになっている。したがって、また、各ビデオカメラ12及び集音マイク13からの実況映像及び音声は、互いに識別できるようになっている。また、これらの多数のビデオカメラ12及びマイク13等により入力された映像データ及び音声データは、ユーザーからの要求により、中継サービス用コンピュータ11を介して、ユーザーがオンラインで閲覧できるようになっている(例えば、インターネット・ホームページ閲覧用ソフトウェアのブラウザーを使用して、閲覧できるようになっている)。
また、前記中継用サービスコンピュータ11は、他の多数の中継用サービスコンピュータ12などとも接続されており、例えば、中継サービス用コンピュータに接続されたユーザーは、この中継サービス用コンピュータ11を介して他の中継サービス用コンピュータ12などから、それに接続されたビデオカメラ及びマイクから入力されたデータを取り込めるようになっている。
Next, a second embodiment of the present invention will be described with reference to FIG. In FIG. 1,
The
Further, the multiple video cameras 12 and the sound collecting microphones 13 shown in FIG. 1 can be distinguished from each other by the identification data. Therefore, the live video and audio from each video camera 12 and the sound collecting microphone 13 can be distinguished from each other. In addition, the video data and audio data input by the large number of video cameras 12 and microphones 13 can be viewed online by the user via the relay service computer 11 in response to a request from the user. (For example, it can be browsed using a browser of internet homepage browsing software).
The relay service computer 11 is also connected to a number of other relay service computers 12. For example, a user connected to the relay service computer 11 can connect to other relay service computers 11 via the relay service computer 11. Data input from a video camera and a microphone connected to the relay service computer 12 or the like can be taken in.
この実施例2では、前記CD−ROM4には、前記各地点(前記ビデオカメラ12及びマイク13が設置された各場所)の実況映像を識別するための映像識別データと多数のキーワードとを互いに関連付けた実況映像データベースと、これらのキーワードから前記映像識別データを検索するプログラムとが、記録されている。この実況映像データベースに記録されているキーワードには、地名、場所のジャンル(海岸、町角、港町、山、交差点、建物、レストラン、劇場、映画館、スポーツ施設、野球場、温泉、寺院など)、行動のジャンル(スポーツ、演劇、映画、食事、散歩など)、などの様々なものが含まれている。
今、例えば大阪に住んでいるユーザーが、「自分の故郷の神奈川県の夏の湘南海岸の海岸線に沈む夕陽の景色を見たい」と考えたとする。その場合、例えば、ユーザーが前記キーボード6により「神奈川県、夏、湘南海岸、海岸線、夕陽」などのキーワードを入力すると、制御装置2は、これらの入力されたキーワードに基づいて、CD−ROM4に記録された実況映像識別データの中から対応するものを検索する。そして、この検索された実況映像識別データに基づいて、中継サービス用コンピュータ11にアクセスして、その識別データに対応する地点に設置されたビデオカメラ及びマイクからの映像データ及び音声データをリアルタイムに取り込んで、ディスプレイ7及びスピーカ8から出力することができる。このとき出力される映像及び音声は、現時点のリアルタイムの映像及び音声なので、ユーザーはあたかもその現場に実際にいるような感動を得ることができる。
In the second embodiment, the CD-
Now, for example, a user who lives in Osaka thinks that he wants to see the setting sun on the coastline of the summer Shonan coast of Kanagawa Prefecture, his hometown. In this case, for example, when the user inputs a keyword such as “Kanagawa Prefecture, summer, Shonan coast, coastline, sunset” using the
また、同様に、この実施例2では、ユーザーが例えば「寺院、京都」というキーワードを入力すれば、前記制御装置2がそれに該当する複数の映像識別データを検索し、それらを順次ディスプレイ7に表示する。また、例えば長期入院しているユーザーが、実際には行けないが「九州各地の温泉巡りをしてみたい」と思えば、「九州各地、温泉巡り」などのキーワードを入力すれば、前記制御装置2が、それに該当する複数の映像識別データを検索し、それらの識別データに対応する実際映像を受信して、順次ディスプレイ7に表示する。これは、ユーザーにとっては、実際には行っていないのに実際に行っているのと同じ感動を得ることができる。このように、この実施例2は、ユーザーにとってあたかも旅行に行っていないの行っているのと同様の感動を得られる「バーチァル・トラベル(仮想旅行)」を実現できるシステムであると言える。
Similarly, in the second embodiment, when the user inputs the keyword “Temple, Kyoto”, for example, the
また同様に、ユーザーが「横浜の港町を食べ歩きしたい」と思えば、「横浜、港町、食べ歩き」というキーワードを入力すれば、前記制御装置2がこれらのキーワードに基づいて対応する複数の映像識別データを検索し、これらに対応する複数の前記各地点からの実況映像のデータを取り込んでくれる(この場合、公衆への映像提供を承諾したレストランの内部に前記ビデオカメラとマイクを設置しておけば、その内部の状況、例えば客の今の混み具合や店内の雰囲気なども知ることができる)。また、同様に、ユーザーが「日本全国の劇場巡り(野球場巡り)をしてみたい」と思えば、「日本、劇場巡り(野球場巡り)」というキーワードを入力すれば、前記制御装置2がこれらのキーワードに基づいて対応する映像識別データを検索し、それらに対応する実況映像をリアルタイムに出力してくれる。この場合、各劇場又は各野球場に、所定時間のみ劇の内容(又は試合内容)の送信を承諾してもらっておけば、ユーザーは所定時間のみではあるが、その劇(又は試合)の内容を言わばインデックス代わりに見ることができる。
Similarly, if the user wants to “walk around the port town of Yokohama” and enters the keyword “Yokohama, port town, walk around”, the
次に、本発明の実施例3を説明する。この実施例3では、前記の実施例1の構成に加えて、次のようなものが備えられている。
まず、前記ビデオカメラ12やマイク13の近傍に備えられた匂い入力装置が備えられている。この匂い入力装置には、匂いセンサと、この匂いセンサからの信号を匂いのデジタルデータにコード化するコード化部が備えられている。前記匂いセンサは、既存の複数の匂いセンサから構成され、各センサからの匂い量検出値はすべて前記コード化部(エンコーダ)に供給される。コード化部(エンコーダ)では、この供給された匂い量検出値を符号化する。この符号化された匂いデータ(デジタルデータ)は、記録装置に記録されると共に、遠隔のユーザーが、コンピュータ通信ネットワーク網を介してリアルタイムに閲覧し取り込めるようになっている。なお、前記の匂いセンサは、感知できる匂いの種類毎に複数用意しておき、できるだけ現場の元の匂いを忠実に再現できるだけの情報を得られるようにすることが望ましい。
次に、ユーザー側には、前記の閲覧し取り込んだ匂いデータ(デジタルデータ)を、現場の匂いに近似した匂いを発生させるための芳香剤調合データに変換する変換装置と、前記ディスプレイ7(図1)の近傍に備えられ、前記芳香剤調合データから芳香剤を調合して所望の匂いを発生させる匂い発生装置と、が備えられている。
まず、前記の「前記閲覧し取り込んだ匂いデータ(デジタルデータ)を、現場の匂いに近似した匂いを発生させるための芳香剤調合データに変換する変換装置」を説明する。前記変換装置は、各匂いセンサの検出値のパターンを各芳香剤の出力値のパターンに変換する。より具体的には、様々な種類の匂いのそれぞれについて、その匂いを匂いセンサに検出させると検出値がどのような値をとるかを予め調査・記録しておく。そして、この匂いと匂いセンサの検出値パターンとの関係を記録したデータと、各匂いと芳香剤(の成分)との関係を記録したデータとから、各匂いセンサの検出値のパターンと複数種類の芳香剤の出力値のパターンとを対応付けて記録しておくようにする。前記変換装置は、この対応付けられた情報に基づいて、匂いセンサの検出値のパターンを芳香剤(の成分)の出力値のパターン(これが「芳香剤調合データ」となる)に変換するものである。このことをより詳細に述べると、次のとおりである。前記変換装置には、各匂いを匂いセンサで検出したときの匂いセンサの検出値と、その匂いを後述の匂い発生装置で発生させるときの各芳香剤の出力値との対応関係が記録されたセンサ芳香剤量変換テーブルが、予め記録されている。そして、変換装置は、前記匂いセンサの検出値データに基づいて、このセンサ芳香剤量変換テーブルを参照して、各匂いセンサ毎の検出値を各芳香剤毎の出力値に変換する。
Next, a third embodiment of the present invention will be described. In the third embodiment, in addition to the configuration of the first embodiment, the following is provided.
First, an odor input device provided in the vicinity of the video camera 12 and the microphone 13 is provided. The odor input device includes an odor sensor and an encoding unit that encodes a signal from the odor sensor into odor digital data. The odor sensor is composed of a plurality of existing odor sensors, and all odor amount detection values from each sensor are supplied to the encoding unit (encoder). The encoding unit (encoder) encodes the supplied odor amount detection value. The encoded odor data (digital data) is recorded in a recording device and can be viewed and captured in real time by a remote user via a computer communication network. It should be noted that it is desirable to prepare a plurality of odor sensors for each type of odor that can be sensed, and to obtain information that can reproduce the original odor as closely as possible.
Next, the user side converts the browsed and captured odor data (digital data) into a fragrance preparation data for generating an odor similar to the odor on site, and the display 7 (FIG. 1), and an odor generating device for preparing a desired odor by preparing a fragrance from the fragrance preparation data.
First, the “conversion device for converting the browsed and captured odor data (digital data) into fragrance preparation data for generating an odor similar to the odor on site” will be described. The conversion device converts a detection value pattern of each odor sensor into an output value pattern of each fragrance. More specifically, for each of various types of odors, what value the detection value takes when the odor sensor detects the odor is previously investigated and recorded. Then, from the data recording the relationship between the odor and the detection value pattern of the odor sensor and the data recording the relationship between each odor and the fragrance (component), the detection value pattern of each odor sensor and a plurality of types The pattern of the output value of the fragrance is recorded in association with each other. The converter converts the detection value pattern of the odor sensor into an output value pattern of the fragrance (component) (this becomes “fragrance preparation data”) based on the associated information. is there. This will be described in more detail as follows. In the conversion device, the correspondence between the detected value of the odor sensor when each odor is detected by the odor sensor and the output value of each fragrance when the odor is generated by the odor generating device described later is recorded. A sensor fragrance amount conversion table is recorded in advance. Then, the conversion device refers to the sensor fragrance amount conversion table based on the detection value data of the odor sensor, and converts the detection value for each odor sensor into an output value for each fragrance.
次に、前記の「前記芳香剤調合データから芳香剤を調合して所望の匂いを発生させる匂い発生装置」を説明する。匂い発生装置は、予め複数種類の芳香剤を用意しておき、前記の「芳香剤調合データ」(前記の芳香剤出力パターンデータ。各芳香剤からの匂い成分をどれだけ発生させるかを示すデータ)に基づいて、必要な種類の匂いの成分(芳香剤からの成分)を必要な分量だけ発生させる。匂い発生装置の形態としては、ある空間中においてその空間全体に匂いを行き渡らせる据置型のものと、ユーザーの鼻の付近又は鼻の中に装着して装着した人にのみ匂いを感得させる個人携帯型のものと、が考えられる。
例えば、前記の据置型のものとしては、次のようなものが考えられる。すなわち、箱の底に芳香剤の入った容器を並べて、芳香剤と空気とが接する面積を任意に調整できる蓋を各容器に付けておき、箱の後ろ側には、必要に応じて送風機を設ける。そして、前記の「芳香剤出力パターン」のデータに応じて、各芳香剤の成分を所定量ずつ放出できるように、対応する各芳香剤の容器の蓋の開閉具合を調節する。また、前記携帯型のものについては、基本的構成は据置型のものと同様でよいが、これを小型化し、これをヘルメット型、ヘッドセット型、メガネ型、マスク型などの頭部支持具によりユーザーの鼻の付近に装着できるようにする。
なお、この実施例3では、前記の「前記閲覧し取り込んだ符号化された匂いデータを、現場の匂いに近似した匂いを発生させるための芳香剤調合データに変換する変換装置」をユーザー側のパソコン1側に備えるようにしているが、本発明ではこれに限られるものではなく、例えば、現場のビデオカメラ12やマイク13が設置された地点に備えるようにしてもよいし、コンピュータ・ネットワーク上の中継サービス用コンピュータ(サーバー)11に備えるようにしてもよい。また、以上の実施例3で説明した「匂いのデータ化、記録、通信、及び再生」の技術は、例えば特開平7−55742号公報などに開示された公知の技術である。
Next, the “scent generating device for preparing a desired odor by preparing a fragrance from the fragrance preparation data” will be described. The odor generating device prepares a plurality of types of fragrances in advance, and the “fragrance preparation data” (the fragrance output pattern data. Data indicating how much odor components from each fragrance are generated. ) To generate a necessary amount of odor components (components from the fragrance) in a necessary amount. As a form of odor generating device, a stationary type that spreads the scent throughout the space in a certain space, and an individual who can feel the scent only by wearing near the user's nose or in the nose A portable type can be considered.
For example, the following can be considered as the stationary type. That is, arrange containers with fragrances at the bottom of the box, and attach a lid to each container to adjust the area where the fragrance and air are in contact with each other. Provide. Then, according to the data of the “fragrance output pattern”, the opening / closing state of the lid of each corresponding fragrance container is adjusted so that a predetermined amount of each fragrance component can be released. In addition, for the portable type, the basic configuration may be the same as that of the stationary type, but this is reduced in size by a head support such as a helmet type, a headset type, a glasses type, or a mask type. It can be worn near the user's nose.
In the third embodiment, the above-mentioned “conversion device that converts the encoded odor data that has been browsed and captured into fragrance preparation data for generating an odor similar to the odor on site” is provided on the user side. However, the present invention is not limited to this. For example, the
図5は本発明の実施例4を示すブロック図である。図5において、21は液晶ディスプレイ(LCD)である。また図5において、22は従来より市販されているGPS(Grobal Positioning System)受信機で、人工衛星からの電波の遅延時間を計測し、軌道からの距離からユーザーの現在位置を求めるためのものである。このGPS受信機22は、人工衛星から送信されるGPS電波を受信するGPS受信アンテナと、このGPS電波から現在位置を緯度データ及び経度データとして認識する位置認識部(CPUにより構成される)を含んでいる。前記GPSアンテナは、GPS衛星からの例えば1.5GHzの電波を受信し、その信号を前記位置認識部に送る。前記位置認識部では、稼働中のGPS衛星のうち受信可能な4個以上の衛星の電波を受信し、既知である衛星の位置と受信電波とから算出した各衛星−受信点間の距離とを基にして、受信点の現在位置を取得し、緯度データ及び経度データを算出する。なお、以上のGPS受信機2の詳細な構成及び使用方法は従来より公知である(例えば、特開平5−45171号公報、特開平7−306054号公報、特開平8−94735号公報などを参照)ので、詳細な説明は省略する。
また、図5において、26は進行方向入力部で、ユーザーが徒歩、車両、鉄道などにより移動中のときのその進行方向(東西南北など)を地磁気などを利用して計測しその進行方向を求める進行方向入力部である。この実施例4では、前記GPS受信機22と進行方向入力部26とにより、本発明によるユーザーの「現在位置特定手段」を構成している。
また図5において、23はこのGPS受信機22からの現在位置情報としての座標データ(緯度データ及び経度データ)と前記進行方向入力部26からの進行方向データを受け取り、該当する衛星画像を選択し、それを前記LCD21に表示するための制御部で、パーソナル・コンピュータなどにより構成されている。
FIG. 5 is a block
In FIG. 5,
In FIG. 5, 23 receives coordinate data (latitude data and longitude data) as current position information from the
また、図5において、24は、前記制御部23とインターネットなどのコンピュータ通信用公衆回線網20を介して接続された地図データベース用サーバー(コンピュータ)である。この地図用サーバー24は、例えば日本全国の地図を、座標データ(緯度データ及び経度データ)、地名、施設名、施設の識別データ(施設の電話番号など)などの位置識別データと関連付けながら、データベースとして記録している。この地図用サーバー24は、公衆回線網20により前記制御部23とオンラインで接続されている。なお、この公衆回線網20は、有線通信網だけでなく、携帯電話網、PHS(パーソナル・ハンディホン・システム)網、自動車電話網及び人工衛星通信網などの無線通信網をも含むものであることが望ましい。
In FIG. 5,
また図5において、25は、インターネットなどのコンピュータ通信用公衆回線網20に接続された実況映像入力装置で、各実況地点それぞれ設けられ、各実況地点における複数方向の実況映像(各実況地点から複数方向に向かって見える実況映像)をそれぞれリアルタイムに常時入力する複数のデジタル・ビデオカメラと、これらのデジタル・ビデオカメラからのデジタル映像データを、インターネットなどのコンピュータ通信網を介してアクセスして来た複数のユーザーに対してオンラインで提供するための実況映像提供用コンピュータと、から構成されている。
この実況映像提供用コンピュータは、各地点の実況映像を、座標データ(緯度データ及び経度データ)、地名、施設名、施設の識別データ(施設の電話番号など)などの位置識別データ及び東西南北などの方向データと関連付けながら、データベースとして記録している。この実況映像提供用コンピュータは、前記通信網20により前記制御部3とオンラインで接続されている。なお、この通信網20は、有線通信網だけでなく、携帯電話網、PHS(パーソナル・ハンディホン・システム)網、自動車電話網及び人工衛星通信網などの無線通信網をも含むものであることが望ましい。
In FIG. 5,
This computer for live video provides live video of each point, location data such as coordinate data (latitude data and longitude data), place name, facility name, facility identification data (such as facility phone numbers), It is recorded as a database in association with the direction data. This live video providing computer is connected to the
制御部23は、ユーザーのキーボード26又はマウス27などの入力装置による指示により、前記地図用サーバー24にアクセスして、そこから、ユーザーが希望する地点(前記入力装置で指定した地点)を含む所定領域の地図のデータをオンラインで取り出して、LCD21に表示させる。
また、前記制御部23は、ユーザーがこの表示された地図の任意の地点をマウス27で指示しその地点を含む所定領域の実況映像の表示を指令したとき、前記各実況地点の前記実況映像提供用コンピュータを含む映像入力装置25にアクセスして、該当する所定領域の実況映像のデータをオンラインで取り出して、その実況映像をLCD21にリアルタイムに表示させる。
また、制御部23は、ユーザーが、例えば、表示を希望する地点の地名、施設名、施設の識別データなどを入力して該当する実況地点の実況映像又はその実況地点を含む地図の表示を希望したとき、前記映像入力装置25又は地図用サーバー24にアクセスして、該当する実況映像又は地図をオンラインで取り出して、それらをLCD21に表示させる。
また、制御部23は、ユーザーが自分が現在居る現在地点から進行方向に向かう方向で且つ最も近くの場所にある実況地点の実況映像であって、その進行方向に向かって見える実況映像を表示せよと指令したときは、前記GPS受信機22及び進行方向入力部26からユーザーの現在位置及び進行方向を座標データ(緯度データ及び経度データ)及び方向データとして受け取り、その座標データ及び方向データに基づいて、該当する前記各実況地点の映像入力装置25にアクセスして、オンラインで該当の実況映像の提供を受けて、LCD21に表示させる。なお、この場合の、前記制御部23が前記映像入力装置25から該当する実況映像の提供を受ける方法としては、従来のインターネット用のブラウジング・ソフトウェア(閲覧ソフトウェア)などによりこの各地の映像入力装置25にそれぞれ直接アクセスして取り込む方法と、前記映像入力装置25に対して該当する実況映像データを電子メールに添付したファイルとして送信してもらうように依頼してその送信により受け取る方法など、様々な方法が有り得る。
The
Further, when the user designates an arbitrary point on the displayed map with the
In addition, the
In addition, the
また、この実施例4では、前記制御部23は、ユーザーが、ある実況映像が前記LCD21に表示されているとき、その表示された実況映像の中のある部分だけを、例えば特定の建築物や特定の橋や特定の道路などの部分だけを、他の部分と見分けやすいように所定のマーキングをしたいと指令したときは、その部分を他と異なって目立つようにマーキングできる手段(プログラム)を含むのがよい。この場合のマーキングは、例えば、他と異なる色で着色して色別する方法、その部分のみに網掛け処理を行う方法、その部分を他の部分よりも太い実線で表示する方法、などの様々な方法がある。
In the fourth embodiment, when the user displays a live video image on the
次に、図6は本発明の実施例5を示すブロック図である。図6において、符号21,22,23,26,27は図4におけると同様なので説明を省略する。図6において、34は制御部23に接続されたCD−ROMプレーヤ(再生装置)、35はこのCD−ROMプレーヤ34に読み取れらるCD−ROMである。このCD−ROM35には、例えば日本国の全体の地図を、座標データ(緯度・経度データ)、地名、施設名、施設識別データなどの位置識別データと関連付けて記録した地図データベースが記録されている。また図6において、31は、インターネットなどのコンピュータ通信網30に接続された映像入力装置で、図4の映像入力装置25と同様のものである。
前記制御部3は、前記CD−ROMプレーヤ14によりCD−ROM15を読み取ることにより、ユーザーが希望する位置を含む所定領域の地図を読み取ってLCD1に表示させることができる。また、前記制御部3は、前記コンピュータ通信網30を介して映像入力装置31にアクセスすることにより、ユーザーが希望する実況地点からのユーザーが希望する所定方向の実況映像を取り込み、LCD21に表示させることができる。
また、制御部23は、ユーザーが、「自分が現在居る現在地点から進行方向に向かう方向にある地点で且つ現在地点から最も近い実況地点の実況映像であって、その地点から自分の進行方向に向かって撮像した実況映像を、表示せよ」と指令したときは、前記GPS受信機22からユーザーの現在位置を座標データ(緯度データ及び経度データ)として受け取り、且つ、前記進行方向入力部26からユーザーの進行方向のデータを受け取り、その座標データ及び進行方向データに基づいて、前記映像入力装置31にアクセスして、該当の座標データに近い場所にある実況地点のもので且つユーザーの進行方向に近い方向の実況映像のデータをオンラインで読み取り、その実況映像をリアルタイムにLCD21に表示させる。
Next, FIG. 6 is a block
The
In addition, the
なお、ここで、本明細書の中で提案している諸発明(「本願の特許請求の範囲に記載された発明」そのものではないもの)について、その効果を説明しておく。
(1) 本明細書で開示した発明による実況映像提供システムによれば、ユーザーは、地図を見ながら、例えば希望の地点をポインティングデバイスで指定する(例えばマウスでクリックする)だけで、その地点の今の現時点の状況を実況映像で見ることができる。また、ユーザーは、いちいちポインティングデバイスで指定しなくても、予めコンピュータプログラムで実況映像を希望する複数の地点の地点識別データを順次入力するようにしておけば、コンピュータにより次々と希望する地点に対応する実況映像を表示させることができる。よって、ここでも、ユーザーは地図を見ながら、実際には行っていないのに実際に行っているのと同じ感動を得られる「バーチァル・トラベル(仮想旅行)」を実現できるようになる。
また、例えば、全世界の地図から全世界の各地の実況映像をみながら、全世界のユーザーが一つの宝を探していくというような、コンピュータ通信ネットワークの世界の中での「宝探し」ゲームを世界中で同時に競うことも可能になる。
(2)また、本明細書で開示した発明による実況映像提供システムによれば、ユーザーは、ある地点の実況映像を見ながら、その実況映像の識別データから、対応する地図上の地点を表示させることができるので、ある実況映像を見て、その実況映像が見える場所が地図上のどこなのか(どういう地名・施設名なのかなど)を、容易に知ることができるようになる。
(3)また、本明細書で開示した発明による実況映像提供システムによれば、ユーザーは、自分の希望する文字列等により構成される検索データを入力することにより、その検索データに対応する一つ又は複数の地点の実況映像を、その場でリアルタイムに見ることが可能になる。特に、遠隔の複数の地点における今この瞬間の実況を映像でリアルタイムに順次見ることができる「バーチャル・トラベル(仮想旅行)」を提供できるようになる。
(4)なお、本明細書で開示した発明において、前記各実況映像を特定するための実況映像識別データを、前記映像入力手段が設けられた各地点を示す位置データとその映像入力手段が撮影した方向を示す方向データとから構成するようにすれば、同じ地点でも、見る方向によって異なる実況映像を提供できるようになり、「生の現場」をより詳細にリアルタイムに再現できる実況映像を提供できるようになる。
(5)また、本明細書で開示した発明では、前記表示手段に表示された実況映像の中のユーザーが指定した部分に対して他の部分と区別するためのマーキングをするためのマーキング手段を備えることにより、実況映像(動画でも静止画でもよい)の中のある部分(例えば、特定の建造物、橋、道路、河川、公園など)のみをマーキングできるので、実況映像を自分の目的に応じて見やすい形に加工できるようになる。
(6)また、本明細書で開示した発明において、前記映像入力手段に、その地点において発生している音声をリアルタイムに入力する手段をも含ませ、これらの入力された音声をそれぞれリアルタイムに無線又は有線で取り込む(インターネット用ブラウザーによる閲覧する場合や通信ネットワークにより送信させる場合などを含む)ことにより、ユーザーは、実況映像(現場の生の映像。動画又は静止画)だけでなく、「現場の生の音声」をも併せて知ることが可能になる。
(7)また本発明では、さらに、前記映像入力手段の近傍に備えられ、匂いセンサと、この匂いセンサからの信号を匂いデジタルデータに変換する手段とから構成され、前映像入力手段の設置された地点又はその周辺の匂いを入力するための匂い入力手段と、この匂い入力手段からの匂いデータを、その匂いに近似した匂いを発生させるための芳香剤調合データに変換する手段と、前記表示手段の近傍に備えられ、前記芳香剤調合データから芳香剤を調合して所望の匂いを発生させる匂い発生手段と、を含むようにすることにより、ユーザーは、前記の実況映像と実際の音声だけでなく、現場の実際の匂いをも、リアルタイムに遠隔地において知ることができるようになる。
(8)(当初明細書の段落0007の内容を2009/6/1付け補正によりこちらに移動したもの)
本明細書で開示した発明では、ユーザーの推測現在位置をGPS受信機などの現在位置推測手段(現在位置特定手段と呼ぶこともある)により求め、この「求められた推測現在位置に対応する実況地点の実況映像」をオンラインで取り出して表示するようにしている。
したがって、ユーザーは、例えば、次のような使い方が可能になる。例えば、自分が車両などに乗って移動しているとき、GPS受信機からのデータにより自分の「推測現在位置」を求めて、その「推測現在位置に対応する地図上の地点」を地図画面上で求めて見る(このためのシステムは、従来より、自動車用の目的地までのルートの地図探索・運転案内システムとして実用化されている)。また、同時に、ユーザーは、通信ネットワークを介して該当する映像入力手段にアクセスし、前記の「推測現在位置に対応する地図上の地点」に対応する実況映像を、オンラインで取り出して画面上に表示させて見る。これにより、ユーザーは、目的地へのルートを記載した地図を見ながら、地図上に表示されている推測現在位置(GPS受信機により計測されるユーザーの推測現在位置が画面の地図上に矢印などで表示されるシステムは、自動車の運転案内システムとして既に多数市販されている)と実況映像とが一致しているかどうかを確認し、一致していれば、GPS受信機のデータから得られた「推測現在位置」が計測誤差なく正しいことを確認できる。また一致していなければ、GPS受信機のデータから得られた「推測現在位置」が間違っていることが分かる。
すなわち、ユーザーがGPS受信機からの推測現在位置に基づいて地図データベースから推測現在位置を含む所定領域の地図を読み出して表示し、その表示された地図の上の「推測現在位置に近い一つ又は複数の実況地点の実況映像」をオンラインで取り出すようにすれば、GPS受信機からの「推測現在位置」が正しいかどうかをユーザー自身が確認できる。すなわち、従来より存在しているGPS受信機を利用して、GPS受信機からの「推測現在位置」(緯度データと経度データの座標データ)に基づいて地図データベースから推測現在位置を含む所定領域の地図を読み出して表示し、その表示された地図上に表示された「推測現在位置(座標データ)又はそれと近い地点の実況映像」をオンラインで取り出すようにすれば、GPS受信機からの「推測現在位置」が計測誤差などが無く正しいものかどうかを、確認することができる。つまり、「表示された実況映像」が「ユーザーの現在の位置から実際に見えるもの」と一致していれば、GPS受信機からの[推測現在位置]は正しいものと判定できる(従来は、ユーザーは、地図だけでは、GPS受信機による現在位置が正しいかどうかを自分で確かめることが困難だった)。
また、本明細書で開示した発明では、前記映像入力手段は、前記各実況地点から複数の方向に向かって見える映像を撮像するものであり、前記各実況地点を互いに識別するための実況地点識別データは、前記映像入力手段が設けられた各実況地点の位置を示す位置データとその映像入力手段が撮影する方向を示す方向データとから構成されており、前記現在位置特定(推測)手段は、ユーザーの現在位置を特定(推測)する手段とユーザーの進行方向を特定する手段とを含んでおり、前記実況地点識別データ選択手段は、前記現在位置特定(推測)手段により特定(推測)されたユーザーの推測現在位置(緯度データ及び経度データによる座標データなど)及びユーザーの進行方向(東西南北など)に基づいて、ユーザーの「推測現在位置に(最も)近い実況地点」を示し且つユーザーの進行方向に(最も)近い方向の実況地点識別データを選択するものである。よって、車両などで移動中のユーザーは、画面に表示された「地図上の自分の推測現在位置(GPS受信機からの自分の推測現在位置が矢印などで表示される)」を見ながら、同時に、前記GPS受信機からの「推測現在位置に対応する地図上の地点を示す実況映像」を見ることができ、「推測現在位置に対応する地図上の地点を示す実況映像」と「自分の位置から実際に見える風景」とを照らし合わせて、GPSにより計測された「推測現在位置」が本当に正しいかどうかを確認することができる。
Here, the effects of various inventions proposed in this specification (not “the invention described in the claims of the present application” itself) will be described.
(1) According to the live video providing system according to the invention disclosed in the present specification, a user can specify a desired point with a pointing device (for example, click with a mouse) while viewing the map. You can see the current situation with live video. Also, even if the user does not specify each with a pointing device, if the point identification data of multiple points for which live video is desired is input sequentially in advance by a computer program, the computer will respond to the desired points one after another. Live video can be displayed. Therefore, the user can also realize “virtual travel” while looking at the map and can get the same impression as if he / she did not actually go.
Also, for example, a “treasure hunting” game in the world of computer communication networks where users from all over the world look for a single treasure while watching live video from around the world from a map of the whole world. It will be possible to compete all over the world at the same time.
(2) Also, according to the live video providing system according to the invention disclosed in this specification, the user displays the corresponding point on the map from the live video identification data while viewing the live video of the live spot. It is possible to see a live video and easily know where the live video can be seen on the map (what kind of place name / facility name, etc.).
(3) Further, according to the live video providing system according to the invention disclosed in this specification, the user inputs search data composed of a character string or the like desired by the user, so that the user can respond to the search data. It is possible to view live video of one or more points on the spot in real time. In particular, it will be possible to provide “virtual travel” in which the actual situation at this moment in a plurality of remote locations can be sequentially viewed in real time.
(4) In the invention disclosed in this specification, the live video identification data for specifying each live video is captured by the position data indicating each point where the video input unit is provided and the video input unit. If it is made up of direction data indicating the direction, the live video can be provided differently depending on the viewing direction even at the same point, and the live video can be provided in more detail in real time. It becomes like this.
(5) Further, in the invention disclosed in the present specification, marking means for marking the part specified by the user in the live video displayed on the display means to distinguish it from other parts is provided. By preparing, you can mark only certain parts (eg specific buildings, bridges, roads, rivers, parks, etc.) in live video (which can be video or still image), so live video according to your purpose Can be processed into easy-to-see shapes.
(6) In the invention disclosed in the present specification, the video input means also includes means for inputting the sound generated at the point in real time, and each of the input sounds is wirelessly transmitted in real time. Or by wired capture (including browsing with an internet browser or sending it over a communication network), users can not only view live video (live video, still images), but also “ It becomes possible to know "live voice" as well.
(7) In the present invention, it is further provided in the vicinity of the video input means, and includes an odor sensor and a means for converting a signal from the odor sensor into odor digital data. Odor input means for inputting the odor at or around the spot, means for converting the odor data from the odor input means into fragrance preparation data for generating an odor similar to the odor, and the display Odor generating means for generating a desired odor by preparing a fragrance from the fragrance preparation data, so that the user can obtain only the live video and the actual sound. In addition, the actual odor of the site can be known at a remote location in real time.
(8) (The content of paragraph 0007 of the original specification has been moved here by amending 2009/6/1)
In the invention disclosed in the present specification, the estimated current position of the user is obtained by current position estimating means such as a GPS receiver (sometimes referred to as current position specifying means), and this “actual situation corresponding to the obtained estimated current position is determined. "Live video of the point" is retrieved online and displayed.
Therefore, the user can use the following, for example. For example, when you are moving on a vehicle or the like, find your “estimated current position” based on data from the GPS receiver, and display the “point on the map corresponding to the estimated current position” on the map screen. (The system for this purpose has been put to practical use as a map search / driving guidance system for routes to destinations for automobiles). At the same time, the user accesses the corresponding video input means via the communication network, and retrieves the live video corresponding to the “point on the map corresponding to the estimated current position” online and displays it on the screen. Let me see. As a result, the user can see the estimated current position displayed on the map while viewing the map that describes the route to the destination (the estimated current position of the user measured by the GPS receiver is The system displayed in (1) is already available on the market as a car driving guidance system) and confirms whether or not the live video matches, and if they match, it is obtained from the GPS receiver data. It can be confirmed that “the estimated current position” is correct without any measurement error. If they do not match, it is understood that the “estimated current position” obtained from the GPS receiver data is incorrect.
That is, the user reads out and displays a map of a predetermined area including the estimated current position from the map database based on the estimated current position from the GPS receiver, and displays “one close to the estimated current position on the displayed map or If the “live video of multiple live spots” is extracted online, the user can confirm whether the “estimated current position” from the GPS receiver is correct. That is, using a conventional GPS receiver, a predetermined area including the estimated current position from the map database based on the “estimated current position” (latitude data and longitude data coordinate data) from the GPS receiver. If the map is read out and displayed, and the "live image of the estimated current position (coordinate data) or a point close to it" displayed on the displayed map is retrieved online, the "estimated current" from the GPS receiver It is possible to confirm whether the “position” is correct without any measurement error. In other words, if the “displayed live video” matches “what is actually visible from the user's current position”, the [estimated current position] from the GPS receiver can be determined to be correct (previously, the user It was difficult to confirm by myself whether the current position by the GPS receiver was correct with the map alone).
Further, in the invention disclosed in the present specification, the video input means captures an image that is visible from the respective live spots in a plurality of directions, and the live spot identification for distinguishing the live spots from each other. The data is composed of position data indicating the position of each live spot where the video input means is provided and direction data indicating the direction in which the video input means captures, and the current position specifying (estimating) means, Means for specifying (estimating) the current position of the user and means for specifying the direction of travel of the user, and the live spot identification data selecting means is specified (estimated) by the current position specifying (estimating) means Based on the user's estimated current position (such as coordinate data based on latitude and longitude data) and the user's direction of travel (such as east, west, north, and south) The most) near commentary point "it is shown and in the traveling direction of the user (the most) and selects the close direction Commentary point identification data. Therefore, a user who is moving on a vehicle or the like is simultaneously viewing the “your current estimated position on the map (your current estimated position from the GPS receiver is displayed with an arrow)” at the same time. From the GPS receiver, it is possible to see “the live video showing the point on the map corresponding to the estimated current position”, “the live video showing the point on the map corresponding to the estimated current position” and “your position The “estimated current position” measured by the GPS can be confirmed by comparing with the “landscape that can be actually seen”.
1 パーソナルコンピュータ(パソコン)
2 制御装置
3 ハードディスク装置
4 CD−ROM
5 CD−ROMドライブ5
6 キーボード
7 ディスプレイ
7a ディスプレイの上半分
7b ディスプレイの下半分
8 スピーカ
10 公衆回線
11 中継サービス用コンピュータ
12,12a,12b ビデオカメラ
13,13a,13b マイク
21 LCD. 22 GPS受信機. 23 制御部.
24 地図データベース用サーバー(コンピュータ).
25 映像入力装置. 26 キーボード. 27 マウス.
30 コンピュータ通信網. 31 映像入力装置.
34 CD−ROMプレーヤ. 35 CD−ROM
1 Personal computer
2
5 CD-
6
24 Map database server (computer).
25 Video input device. 26 Keyboard. 27 Mouse.
30 Computer communication network. 31 Video input device.
34 CD-ROM player. 35 CD-ROM
Claims (6)
前記映像取得手段により取得された一つ若しくは複数の場所の映像又は前記映像に基づいて得られる映像又は前記映像を識別するための識別データを、オンラインで略リアルタイムに、ユーザー側に向けて送信するための映像等送信手段と、
ユーザー側に備えられ、前記映像等送信手段により送信された映像等を、受信するための映像等受信手段と、
ユーザー側に備えられ、前記映像等受信手段により受信された映像又は前記受信された識別データから特定される映像又は前記各映像に基づいて得られる映像を、略リアルタイムに表示するための映像表示手段と、
「前記映像取得手段が配置されているか若しくは前記映像取得手段が映像取得の対象としている、一つ若しくは複数の場所又はその近傍」に存在している匂い情報を、取得するための匂い情報取得手段と、
前記匂い情報取得手段により取得された匂い情報又はこれに基づいて得られる情報(芳香成分を示す情報など)を、オンラインで略リアルタイムに、前記ユーザー側に送信するための匂い情報等送信手段と、
ユーザー側に備えられ、前記匂い情報等送信手段により送信された情報を受信するための匂い情報等受信手段と、
ユーザー側に備えられ、前記匂い情報等受信手段により受信された情報又はこれに基づいて得られる情報に基づいて、「前記映像表示手段により表示されている映像の場所又はその近傍」に存在している匂い又はこれに近似する匂いを発生させるための匂い発生手段と、
を備えたことを特徴とする映像及び匂い提供システム。 Video acquisition means for acquiring video of one or a plurality of locations in substantially real time;
The video of one or a plurality of places acquired by the video acquisition means, the video obtained based on the video, or the identification data for identifying the video is transmitted online to the user side in substantially real time. Video transmission means for,
Video etc. receiving means for receiving the video etc. provided on the user side and transmitted by the video etc. transmitting means;
Video display means provided on the user side for displaying the video received by the video receiving means, the video specified from the received identification data, or the video obtained based on each video in substantially real time. When,
Odor information acquisition means for acquiring odor information existing in “one or a plurality of places or the vicinity thereof where the video acquisition means is arranged or the video acquisition means is a target of video acquisition” When,
Odor information acquired by the odor information acquisition means or information obtained based on the odor information (information indicating fragrance components, etc.), such as odor information transmission means for transmitting to the user side in substantially real time online;
Odor information receiving means for receiving information transmitted by the odor information transmitting means provided on the user side;
Based on the information received by the receiving means such as the scent information or information obtained based on the information provided on the user side, it exists in “the location of the video displayed by the video display means or its vicinity” Odor generating means for generating a scent or an scent similar thereto,
A video and odor providing system characterized by comprising:
ユーザー側において前記取得された映像又は前記映像に基づいて得られる映像が略リアルタイムに表示されるように、前記映像取得手段により取得された一つ若しくは複数の場所の映像又は前記映像に基づいて得られる映像又は前記映像を識別するための識別データを、オンラインで略リアルタイムにユーザー側に向けて送信するための映像等送信手段と、
「前記映像取得手段が配置されているか若しくは前記映像取得手段が映像取得の対象としている、一つ若しくは複数の場所又はその近傍」に存在している匂い情報を、取得するための匂い情報取得手段と、
ユーザー側において「ユーザー側で表示されている前記映像の場所もしくはその近傍の匂い又はこれに近似する匂い」が発生されるように、前記匂い情報取得手段により取得された匂い情報又はこれに基づいて得られる情報(芳香成分を示す情報など)を、オンラインで略リアルタイムに前記ユーザー側に送信するための匂い情報等送信手段と、
を備えたことを特徴とする映像及び匂い提供システム。 Video acquisition means for acquiring video of one or a plurality of locations in substantially real time;
Obtained based on one or a plurality of place images acquired by the image acquisition means or the image so that the user side displays the acquired image or an image obtained based on the image in substantially real time. A transmission means for transmitting video or identification data for identifying the video to the user side in substantially real time online; and
Odor information acquisition means for acquiring odor information existing in “one or a plurality of places or the vicinity thereof where the video acquisition means is arranged or the video acquisition means is a target of video acquisition” When,
The odor information acquired by the odor information acquisition means or based on the odor information so that a "scent of the image displayed on the user side or its vicinity or an odor similar thereto" is generated on the user side Transmission means such as scent information for transmitting the obtained information (information indicating aroma components, etc.) online to the user side in substantially real time;
A video and odor providing system characterized by comprising:
ユーザー側に備えられ、前記映像等受信手段により受信された映像又は前記受信された識別データにより特定される映像又は前記各映像に基づいて得られる映像を、略リアルタイムに表示するための映像表示手段と、
ユーザー側に備えられ、「前記映像の対象となっている、一つ若しくは複数の場所又はその近傍」に存在している匂い情報又はこれに基づいて得られる情報(芳香成分を示す情報など)を、オンラインで略リアルタイムに、ネットワークを介して受信するための匂い情報等受信手段と、
ユーザー側に備えられ、前記匂い情報等受信手段により受信された情報又はこれに基づいて得られる情報に基づいて、「前記映像表示手段により表示されている映像の場所もしくはその近傍」に存在している匂い又はこれに近似する匂いを発生させるための匂い発生手段と、
を備えたことを特徴とする映像及び匂い提供システム。 A video provided on the user side that shows one or a plurality of remote locations, a video obtained based on the video, or identification data for identifying the video is received online via a network in substantially real time. Video and other receiving means for
Video display means provided on the user side for displaying the video received by the video receiving means, the video specified by the received identification data, or the video obtained based on each video in substantially real time. When,
Odor information that is provided on the user side and is present in “one or more places or its vicinity that is the object of the image” or information obtained based on this (information indicating aroma components, etc.) Odor information receiving means for receiving via the network in real time online,
Based on the information received by the receiving means such as the scent information or information obtained based on the information provided on the user side, it exists in “the location of the video displayed by the video display means or its vicinity” Odor generating means for generating a scent or an scent similar thereto,
A video and odor providing system characterized by comprising:
一つ若しくは複数の場所の映像を略リアルタイムに取得するための映像取得手段と、
前記映像取得手段により取得された一つ若しくは複数の場所の映像又は前記映像に基づいて得られる映像又は前記映像を識別するための識別データを、オンラインで略リアルタイムに、ユーザー側に向けて送信するための映像等送信手段と、
ユーザー側に備えられ、前記映像等送信手段により送信された映像等を受信するための映像等受信手段と、
ユーザー側に備えられ、前記映像等受信手段により受信された映像又は前記受信された識別データにより特定される映像又は前記各映像に基づいて得られる映像を、略リアルタイムに表示するための映像表示手段と、
「前記映像取得手段が配置されているか若しくは前記映像取得手段が映像取得の対象としている、一つ若しくは複数の場所又はその近傍」に存在している匂い情報を、取得するための匂い情報取得手段と、
前記匂い情報取得手段により取得された匂い情報又はこれに基づいて得られる情報(芳香成分を示す情報など)を、オンラインで略リアルタイムに、前記ユーザー側に送信するための匂い情報等送信手段と、
ユーザー側に備えられ、前記匂い情報等送信手段により送信された情報を受信するための匂い情報等受信手段と、
ユーザー側に備えられ、前記匂い情報等受信手段により受信された情報又はこれに基づいて得られる情報に基づいて、「前記映像表示手段により表示されている映像の場所又はその近傍」に存在している匂い又はこれに近似する匂いを発生させるための匂い発生手段と、
を備えたことを特徴とする映像及び匂い提供システム。 Allows users to know in real time the actual atmosphere and situation of one or more remote locations and the events at that location (for example, the atmosphere of a restaurant in a remote location or the crowded situation of customers) An image and odor providing system for
Video acquisition means for acquiring video of one or a plurality of locations in substantially real time;
The video of one or a plurality of places acquired by the video acquisition means, the video obtained based on the video, or the identification data for identifying the video is transmitted online to the user side in substantially real time. Video transmission means for,
Video etc. receiving means for receiving video etc. provided on the user side and transmitted by the video etc. transmitting means,
Video display means provided on the user side for displaying the video received by the video receiving means, the video specified by the received identification data, or the video obtained based on each video in substantially real time. When,
Odor information acquisition means for acquiring odor information existing in “one or a plurality of places or the vicinity thereof where the video acquisition means is arranged or the video acquisition means is a target of video acquisition” When,
Odor information acquired by the odor information acquisition means or information obtained based on the odor information (information indicating fragrance components, etc.), such as odor information transmission means for transmitting to the user side in substantially real time online;
Odor information receiving means for receiving information transmitted by the odor information transmitting means provided on the user side;
Based on the information received by the receiving means such as the scent information or information obtained based on the information provided on the user side, it exists in “the location of the video displayed by the video display means or its vicinity” Odor generating means for generating a scent or an scent similar thereto,
A video and odor providing system characterized by comprising:
一つ若しくは複数の場所の映像を略リアルタイムに取得するための映像取得手段と、
ユーザー側において前記取得された映像又は前記映像に基づいて得られる映像が略リアルタイムに表示されるように、前記映像取得手段により取得された一つ若しくは複数の場所の映像又は前記映像に基づいて得られる映像又は前記映像を識別するための識別データを、オンラインで略リアルタイムにユーザー側に向けて送信するための映像等送信手段と、
「前記映像取得手段が配置されているか若しくは前記映像取得手段が映像取得の対象としている、一つ若しくは複数の場所又はその近傍」に存在している匂い情報を、取得するための匂い情報取得手段と、
ユーザー側において「ユーザー側で表示されている前記映像の場所もしくはその近傍の匂い又はこれに近似する匂い」が発生されるように、前記匂い情報取得手段により取得された匂い情報又はこれに基づいて得られる情報(芳香成分を示す情報など)を、オンラインで略リアルタイムに前記ユーザー側に送信するための匂い情報等送信手段と、
を備えたことを特徴とする映像及び匂い提供システム。 Allows users to know in real time the actual atmosphere and situation of one or more remote locations and the events at that location (for example, the atmosphere of a restaurant in a remote location or the crowded situation of customers) An image and odor providing system for
Video acquisition means for acquiring video of one or a plurality of locations in substantially real time;
Obtained based on one or a plurality of place images acquired by the image acquisition means or the image so that the user side displays the acquired image or an image obtained based on the image in substantially real time. A transmission means for transmitting video or identification data for identifying the video to the user side in substantially real time online; and
Odor information acquisition means for acquiring odor information existing in “one or a plurality of places or the vicinity thereof where the video acquisition means is arranged or the video acquisition means is a target of video acquisition” When,
The odor information acquired by the odor information acquisition means or based on the odor information so that a "scent of the image displayed on the user side or its vicinity or an odor similar thereto" is generated on the user side Transmission means such as scent information for transmitting the obtained information (information indicating aroma components, etc.) online to the user side in substantially real time;
A video and odor providing system characterized by comprising:
ユーザー側に備えられ、一つ又は複数の遠隔の場所を示す映像又は前記映像に基づいて得られる映像又は前記映像を識別するための識別データを、オンラインで略リアルタイムに、ネットワークを介して受信するための映像受信手段と、
ユーザー側に備えられ、前記映像等受信手段により受信された映像又は前記受信された識別データにより特定される映像又は前記各映像に基づいて得られる映像を、略リアルタイムに表示するための映像表示手段と、
ユーザー側に備えられ、「前記映像の対象となっている、一つ若しくは複数の場所又はその近傍」に存在している匂い情報又はこれに基づいて得られる情報(芳香成分を示す情報など)を、オンラインで略リアルタイムに、ネットワークを介して受信するための匂い情報等受信手段と、
ユーザー側に備えられ、前記匂い情報等受信手段により受信された情報又はこれに基づいて得られる情報に基づいて、「前記映像表示手段により表示されている映像の場所もしくはその近傍」に存在している匂い又はこれに近似する匂いを発生させるための匂い発生手段と、
を備えたことを特徴とする映像及び匂い提供システム。 Allows users to know in real time the actual atmosphere and situation of one or more remote locations and the events at that location (for example, the atmosphere of a restaurant in a remote location or the crowded situation of customers) An image and odor providing system for
A video provided on the user side that shows one or a plurality of remote locations, a video obtained based on the video, or identification data for identifying the video is received online via a network in substantially real time. Video receiving means for
Video display means provided on the user side for displaying the video received by the video receiving means, the video specified by the received identification data, or the video obtained based on each video in substantially real time. When,
Odor information that is provided on the user side and is present in “one or more places or its vicinity that is the object of the image” or information obtained based on this (information indicating aroma components, etc.) Odor information receiving means for receiving via the network in real time online,
Based on the information received by the receiving means such as the scent information or information obtained based on the information provided on the user side, it exists in “the location of the video displayed by the video display means or its vicinity” Odor generating means for generating a scent or an scent similar thereto,
A video and odor providing system characterized by comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005380704A JP4473216B2 (en) | 1996-06-11 | 2005-12-30 | Video and odor providing system |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP08172930 | 1996-06-11 | ||
JP2005380704A JP4473216B2 (en) | 1996-06-11 | 2005-12-30 | Video and odor providing system |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004291022A Division JP2005102236A (en) | 1996-06-11 | 2004-10-04 | System for providing images of vicinity of current position at approximately real time |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2006136019A JP2006136019A (en) | 2006-05-25 |
JP2006136019A5 JP2006136019A5 (en) | 2009-02-26 |
JP4473216B2 true JP4473216B2 (en) | 2010-06-02 |
Family
ID=36729049
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005380704A Expired - Fee Related JP4473216B2 (en) | 1996-06-11 | 2005-12-30 | Video and odor providing system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4473216B2 (en) |
-
2005
- 2005-12-30 JP JP2005380704A patent/JP4473216B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2006136019A (en) | 2006-05-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9292516B2 (en) | Generation, organization and/or playing back of content based on incorporated parameter identifiers | |
JP4323123B2 (en) | A mobile system that identifies sites of interest | |
JP7192923B2 (en) | Apparatus, method, program, system | |
JPH11316769A (en) | Virtual travel system | |
JP5184217B2 (en) | Image photographing apparatus, additional information providing server, and additional information filtering system | |
JP4637889B2 (en) | Virtual space broadcasting device | |
US6906643B2 (en) | Systems and methods of viewing, modifying, and interacting with “path-enhanced” multimedia | |
US20050192025A1 (en) | Method and apparatus for an interactive tour-guide system | |
US20030214530A1 (en) | Multiuser real-scene tour simulation system and method of the same | |
JP2010170518A (en) | Method for forming image database, navigation method, database system, mobile device for navigation, navigation system, and program for forming the image database | |
JP2012527053A (en) | Search system and method based on orientation | |
JP2003264740A (en) | Observation scope | |
JP4591932B2 (en) | A device for viewing live footage suitable for use in virtual travel, etc. | |
JP4891209B2 (en) | Real-time live video providing system | |
JPH1066058A (en) | Live image providing system | |
JP2013232238A (en) | Stay-at-home travel system | |
KR20040068341A (en) | Description generation in the form of metadata | |
JP4473216B2 (en) | Video and odor providing system | |
JP2000035973A5 (en) | ||
JP2000035973A (en) | Remote odor generation system | |
JP2005102236A (en) | System for providing images of vicinity of current position at approximately real time | |
JP2019091455A (en) | Information processing system, information processing system control method, program, and recording medium | |
JP2008118691A (en) | Stay-at-home travel system | |
JP2002223432A (en) | Stay-at-home travel system | |
KR100726075B1 (en) | Method and system for providing contents including location information |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20060223 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20070910 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20080325 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20080401 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20080617 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20080618 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20081216 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20090107 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20090331 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20090601 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20100302 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20100304 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130312 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130312 Year of fee payment: 3 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20101215 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130312 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130312 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130312 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130312 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140312 Year of fee payment: 4 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |