[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP4473216B2 - Video and odor providing system - Google Patents

Video and odor providing system Download PDF

Info

Publication number
JP4473216B2
JP4473216B2 JP2005380704A JP2005380704A JP4473216B2 JP 4473216 B2 JP4473216 B2 JP 4473216B2 JP 2005380704 A JP2005380704 A JP 2005380704A JP 2005380704 A JP2005380704 A JP 2005380704A JP 4473216 B2 JP4473216 B2 JP 4473216B2
Authority
JP
Japan
Prior art keywords
video
information
odor
user side
real time
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2005380704A
Other languages
Japanese (ja)
Other versions
JP2006136019A5 (en
JP2006136019A (en
Inventor
雅信 鯨田
Original Assignee
雅信 鯨田
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 雅信 鯨田 filed Critical 雅信 鯨田
Priority to JP2005380704A priority Critical patent/JP4473216B2/en
Publication of JP2006136019A publication Critical patent/JP2006136019A/en
Publication of JP2006136019A5 publication Critical patent/JP2006136019A5/ja
Application granted granted Critical
Publication of JP4473216B2 publication Critical patent/JP4473216B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Description

本発明は、各場所の映像をユーザー側に提供することができる、略リアルタイム映像表示システムに関する。   The present invention relates to a substantially real-time video display system capable of providing video of each place to a user side.

従来より、各地点の映像をCD−ROM又はハードディスクなどの記録媒体に記録しておき、それを所定のキーワード等の検索データに基づいて検索して表示するシステムが存在している。また、従来より、「匂いのデータ化、記録、通信、及び再生」の技術が提案されている(特許文献1参照)。
特開平7−55742号公報
2. Description of the Related Art Conventionally, there is a system that records video at each point on a recording medium such as a CD-ROM or a hard disk, and searches and displays it based on search data such as a predetermined keyword. Conventionally, a technique of “smell data conversion, recording, communication, and reproduction” has been proposed (see Patent Document 1).
JP 7-55742 A

しかしながら、前記の記録媒体に記録された映像は、「過去のもの」である(「生のもの」ではない)。そのため、実際の景色などは、季節の移り変わり、その日の天候、道路や建物の工事状況などにより、日々刻々変遷していくものであるのに、ユーザーが見ることができるのは「古い(新鮮でない)」ものでしかない。また、仮にその記録媒体に記録された映像が更新直後のものだとしても、「今現在のこの瞬間のリアルタイムの状況を見たい」というユーザーの希望に応えることはできない。さらに、記録媒体への映像データの更新を頻繁に行うことは非常にコストがかかってしまう。
本発明は、ユーザーが自らが居る場所とは離れた遠隔の場所もしくはその近傍又はその場所での出来事に関する実際の雰囲気や状況を略リアルタイムに知ることができる映像及び匂い提供システム、を提供する、ことを目的とする。
However, the video recorded on the recording medium is “past” (not “raw”). Therefore, the actual scenery changes every day depending on the changing seasons, the weather of the day, the construction conditions of the roads and buildings, etc., but the user can see “old (not fresh) ) " Also, even if the video recorded on the recording medium is just after the update, it cannot meet the user's desire to “see the real-time situation at this moment now”. Furthermore, it is very expensive to frequently update the video data on the recording medium.
The present invention provides a video and odor providing system that allows a user to know in real time the actual atmosphere and situation related to an event at or near a remote location away from the location where the user is present, or in that location , For the purpose.

第1 「本願の特許請求の範囲に記載された発明」は次のとおりである。
1 (ユーザーが一つ又は複数の遠隔の場所やその場所での出来事に関する実際の雰囲気や状況(例えば遠隔地にある飲食店の店内の雰囲気や来店客の混雑状況など)を略リアルタイムに知ることを可能にするための映像及び匂い提供システムであって、)一つ若しくは複数の場所の映像を略リアルタイムに取得するための映像取得手段と、前記映像取得手段により取得された一つ若しくは複数の場所の映像又は前記映像に基づいて得られる映像又は前記映像を識別するための識別データを、オンラインで略リアルタイムに、ユーザー側に向けて送信するための映像等送信手段と、ユーザー側に備えられ、前記映像等送信手段により送信された映像等を、受信するための映像等受信手段と、ユーザー側に備えられ、前記映像等受信手段により受信された映像又は前記受信された識別データから特定される映像又は前記各映像に基づいて得られる映像を、略リアルタイムに表示するための映像表示手段と、「前記映像取得手段が配置されているか若しくは前記映像取得手段が映像取得の対象としている、一つ若しくは複数の場所又はその近傍」に存在している匂い情報を、取得するための匂い情報取得手段と、前記匂い情報取得手段により取得された匂い情報又はこれに基づいて得られる情報(芳香成分を示す情報など)を、オンラインで略リアルタイムに、前記ユーザー側に送信するための匂い情報等送信手段と、ユーザー側に備えられ、前記匂い情報等送信手段により送信された情報を受信するための匂い情報等受信手段と、ユーザー側に備えられ、前記匂い情報等受信手段により受信された情報又はこれに基づいて得られる情報に基づいて、「前記映像表示手段により表示されている映像の場所又はその近傍」に存在している匂い又はこれに近似する匂いを発生させるための匂い発生手段と、を備えたことを特徴とする映像及び匂い提供システム。
2.(ユーザーが一つ又は複数の遠隔の場所やその場所での出来事に関する実際の雰囲気や状況(例えば遠隔地にある飲食店の店内の雰囲気や来店客の混雑状況など)を略リアルタイムに知ることを可能にするための映像及び匂い提供システムであって、)一つ若しくは複数の場所の映像を略リアルタイムに取得するための映像取得手段と、ユーザー側において前記取得された映像又は前記映像に基づいて得られる映像が略リアルタイムに表示されるように、前記映像取得手段により取得された一つ若しくは複数の場所の映像又は前記映像に基づいて得られる映像又は前記映像を識別するための識別データを、オンラインで略リアルタイムにユーザー側に向けて送信するための映像等送信手段と、「前記映像取得手段が配置されているか若しくは前記映像取得手段が映像取得の対象としている、一つ若しくは複数の場所又はその近傍」に存在している匂い情報を、取得するための匂い情報取得手段と、ユーザー側において「ユーザー側で表示されている前記映像の場所もしくはその近傍の匂い又はこれに近似する匂い」が発生されるように、前記匂い情報取得手段により取得された匂い情報又はこれに基づいて得られる情報(芳香成分を示す情報など)を、オンラインで略リアルタイムに前記ユーザー側に送信するための匂い情報等送信手段と、を備えたことを特徴とする映像及び匂い提供システム。
3.(ユーザーが一つ又は複数の遠隔の場所やその場所での出来事に関する実際の雰囲気や状況(例えば遠隔地にある飲食店の店内の雰囲気や来店客の混雑状況など)を略リアルタイムに知ることを可能にするための映像及び匂い提供システムであって、)ユーザー側に備えられ、一つ又は複数の遠隔の場所を示す映像又は前記映像に基づいて得られる映像又は前記映像を識別するための識別データを、オンラインで略リアルタイムに、ネットワークを介して受信するための映像等受信手段と、ユーザー側に備えられ、前記映像等受信手段により受信された映像又は前記受信された識別データにより特定される映像又は前記各映像に基づいて得られる映像を、略リアルタイムに表示するための映像表示手段と、ユーザー側に備えられ、「前記映像の対象となっている、一つ若しくは複数の場所又はその近傍」に存在している匂い情報又はこれに基づいて得られる情報(芳香成分を示す情報など)を、オンラインで略リアルタイムに、ネットワークを介して受信するための匂い情報等受信手段と、ユーザー側に備えられ、前記匂い情報等受信手段により受信された情報又はこれに基づいて得られる情報に基づいて、「前記映像表示手段により表示されている映像の場所もしくはその近傍」に存在している匂い又はこれに近似する匂いを発生させるための匂い発生手段と、を備えたことを特徴とする映像及び匂い提供システム。

第2 「本願の特許請求の範囲に記載された発明」そのものではないが、本明細書の中では次のような発明も提案されている。
1 遠隔地にある飲食店の店内の雰囲気や客の混雑状況などの、一つ又は複数の遠隔の場所の状況を、ユーザーが略リアルタイムに知ることができる映像及び匂い提供映像及び匂い提供システムであって、一つ若しくは複数の場所の映像を略リアルタイムに取得するための映像取得手段と、ユーザー側において前記取得された映像又は前記映像に基づいて得られる映像が略リアルタイムに表示されるように、「前記映像取得手段により取得された映像であって、ユーザーの現在位置又はその近傍に存在する一つ若しくは複数の場所の映像」又は前記映像に基づいて得られる映像又は前記映像を識別するための識別データを、オンラインで略リアルタイムに、ユーザー側に送信するための映像等送信手段と、「前記映像取得手段が配置されているか若しくは前記映像取得手段が映像取得の対象としている、一つ若しくは複数の場所又はその近傍」に存在している匂い情報を、取得するための匂い情報取得手段と、ユーザー側において「ユーザー側で表示されている前記映像の場所もしくはその近傍の匂い又はこれに近似する匂い」が発生されるように、前記匂い情報取得手段により取得された匂い情報又はこれに基づいて得られる情報(芳香成分を示す情報など)を、オンラインで略リアルタイムに、前記ユーザー側に送信するための匂い情報等送信手段と、を備えたことを特徴とする映像及び匂い提供システム。
2 遠隔地にある飲食店の店内の雰囲気や客の混雑状況などの、一つ又は複数の遠隔の場所の状況を、ユーザーが略リアルタイムに知ることができる映像及び匂い提供映像及び匂い提供システムであって、一つ若しくは複数の場所の映像を略リアルタイムに取得するための映像取得手段と、ユーザー側において前記取得された映像又は前記映像に基づいて得られる映像が略リアルタイムに表示されるように、「前記映像取得手段により取得された映像であって、ユーザーの現在位置からユーザーが希望する希望場所へ向かう経路の途中に存在する一つ若しくは複数の場所の映像」又は前記映像に基づいて得られる映像又は前記映像を識別するための識別データを、オンラインで略リアルタイムに、ユーザー側に送信するための映像等送信手段と、「前記映像取得手段が配置されているか若しくは前記映像取得手段が映像取得の対象としている、一つ若しくは複数の場所又はその近傍」に存在している匂い情報を、取得するための匂い情報取得手段と、ユーザー側において「ユーザー側で表示されている前記映像の場所もしくはその近傍の匂い又はこれに近似する匂い」が発生されるように、前記匂い情報取得手段により取得された匂い情報又はこれに基づいて得られる情報(芳香成分を示す情報など)を、オンラインで略リアルタイムに、前記ユーザー側に送信するための匂い情報等送信手段と、を備えたことを特徴とする映像及び匂い提供システム。
3 遠隔地にある飲食店の店内の雰囲気や客の混雑状況などの、一つ又は複数の遠隔の場所の状況を、ユーザーが略リアルタイムに知ることができる映像及び匂い提供映像及び匂い提供システムであって、一つ若しくは複数の場所の映像を略リアルタイムに取得するための映像取得手段と、ユーザー側において前記取得された映像又は前記映像に基づいて得られる映像が略リアルタイムに表示されるように、「前記映像取得手段により取得された映像であって、『ユーザーが希望する、場所その他の情報』に関する文字列などのキー・データに対応する一つ若しくは複数の場所の映像」又は前記映像に基づいて得られる映像又は前記映像を識別するための識別データを、オンラインで略リアルタイムに、ユーザー側に送信するための映像等送信手段と、「前記映像取得手段が配置されているか若しくは前記映像取得手段が映像取得の対象としている、一つ若しくは複数の場所又はその近傍」に存在している匂い情報を、取得するための匂い情報取得手段と、ユーザー側において「ユーザー側で表示されている前記映像の場所もしくはその近傍の匂い又はこれに近似する匂い」が発生されるように、前記匂い情報取得手段により取得された匂い情報又はこれに基づいて得られる情報(芳香成分を示す情報など)を、オンラインで略リアルタイムに、前記ユーザー側に送信するための匂い情報等送信手段と、を備えたことを特徴とする映像及び匂い提供システム。
The first “invention described in the claims of the present application” is as follows.
1 (The user knows the actual atmosphere and situation of one or more remote locations and the events at that location (for example, the atmosphere in a restaurant in a remote location and the crowded situation of customers) in near real time. A video and scent providing system for enabling a video acquisition means for acquiring video in one or a plurality of places in substantially real time, and one or a plurality of video acquisition means acquired by the video acquisition means Provided on the user side is a video transmission means for transmitting the video of the place or the video obtained based on the video or the identification data for identifying the video to the user side in approximately real time online. A video reception unit for receiving the video transmitted by the video transmission unit and a user side, and is received by the video reception unit. A video display means for displaying the received video, the video specified from the received identification data, or a video obtained based on each video in substantially real time; and “whether the video acquisition means is arranged? Or the scent information acquisition means for acquiring scent information existing in one or a plurality of places or the vicinity thereof, which is the target of video acquisition by the video acquisition means, and the scent information acquisition means. Odor information or information obtained based on the information (such as information indicating fragrance components) online, in real time, to the user side, transmission means for transmitting odor information, etc. Odor information receiving means for receiving the information transmitted by the information transmitting means, and the odor information receiving means provided on the user side. Based on the received information or information obtained based on this information, an odor that exists at or near the "location of the image displayed by the image display means or its vicinity" is generated. An image and odor providing system comprising: an odor generating means.
2. (The user knows in real time about one or more remote locations and the actual atmosphere and situation of events at that location (for example, the atmosphere in a restaurant in a remote location and the crowded situation of customers) A video and scent providing system for enabling, and) video acquisition means for acquiring video of one or a plurality of places in substantially real time, based on the acquired video or the video on the user side The video of one or a plurality of places acquired by the video acquisition means, the video obtained based on the video, or identification data for identifying the video, so that the obtained video is displayed in substantially real time. Video transmission means for transmitting to the user side in near real time online, and “the video acquisition means is arranged or The odor information acquisition means for acquiring the odor information existing in one or a plurality of places or the vicinity thereof, which is the target of the video acquisition by the video acquisition means, and “displayed on the user side” on the user side The scent information acquired by the scent information acquisition means or information obtained based on the scent information (information indicating a fragrance component) so that `` the scent of the video image in the vicinity thereof or a scent close thereto '' is generated. Etc.), and an odor information transmission means for transmitting the information to the user side substantially in real time.
3. (The user knows in real time about one or more remote locations and the actual atmosphere and situation of events at that location (for example, the atmosphere in a restaurant in a remote location and the crowded situation of customers) An image and scent providing system for enabling, provided on the user side, an image showing one or more remote locations, an image obtained based on the image or an identification for identifying the image Video receiving means for receiving data online in substantially real time via a network, and a user-provided video receiving means specified by the video received by the video receiving means or the received identification data A video display means for displaying the video or a video obtained based on each video in substantially real time, and the user side, The scent information existing in “one or more locations or its vicinity” or information obtained based on this (information indicating aroma components, etc.) online, in real time, via the network Based on the information received by the odor information receiving means or the information obtained based on the odor information receiving means and the odor information receiving means for receiving An image and odor providing system comprising: an odor generating means for generating an odor existing at or near a place of an image, or an odor similar thereto.

Although it is not the second “invention described in the claims of the present application” itself, the following invention is also proposed in this specification.
1 A video and scent providing video and scent providing system that allows the user to know the status of one or more remote locations, such as the atmosphere in a restaurant in a remote location and the crowded situation of customers, in approximately real time. The video acquisition means for acquiring video of one or a plurality of places in substantially real time, and the acquired video or video obtained based on the video is displayed in substantially real time on the user side. In order to identify “the video acquired by the video acquisition means and the video of one or a plurality of places existing at or near the current position of the user ” or the video obtained based on the video or the video And a video transmission means for transmitting the identification data to the user side substantially online in real time, and “the video acquisition means is arranged. Or the odor information acquisition means for acquiring the odor information existing in one or a plurality of places or the vicinity thereof, which is the object of the image acquisition by the image acquisition means, The scent information acquired by the scent information acquisition means or information obtained based on the scent information so that the scent of the displayed image or the scent thereof or the scent similar thereto is generated. And an odor information transmitting means for transmitting the information to the user side in real time in real time.
2 A video and scent providing video and scent providing system that allows the user to know the status of one or more remote locations, such as the atmosphere in a restaurant in a remote location and the crowded situation of customers, in approximately real time. The video acquisition means for acquiring video of one or a plurality of places in substantially real time, and the acquired video or video obtained based on the video is displayed in substantially real time on the user side. , “The video acquired by the video acquisition means, and the video of one or a plurality of locations existing on the route from the current position of the user to the desired location desired by the user ” or obtained based on the video Video transmission means for transmitting the video to be recorded or identification data for identifying the video to the user side in substantially real time online; , Acquisition of odor information for acquiring odor information existing in "one or a plurality of places where the image acquisition means is arranged or the image acquisition means is an object of image acquisition or its vicinity" And the odor information acquired by the odor information acquisition means or the odor information so that the “scent of the image displayed on the user side or its vicinity or an odor similar thereto” is generated on the user side. And scent providing system for transmitting information (such as information indicating aroma components) obtained on the basis of the scent information to the user side in substantially real time online .
3 A video and scent providing video and scent providing system that allows the user to know the status of one or more remote locations, such as the atmosphere in a restaurant in a remote location and the crowded situation of customers, in approximately real time. The video acquisition means for acquiring video of one or a plurality of places in substantially real time, and the acquired video or video obtained based on the video is displayed in substantially real time on the user side. , “The video acquired by the video acquisition means, and the video of one or a plurality of locations corresponding to key data such as a character string related to“ location and other information desired by the user ”” or the video Transmitting video etc. for transmitting video obtained based on the above or identification data for identifying the video to the user side almost online in real time And an odor for acquiring odor information existing in “one or a plurality of places or the vicinity thereof where the video acquisition means is arranged or the video acquisition means is a target of video acquisition”. Odor information acquired by the odor information acquisition means so that the information acquisition means and "the scent of the video displayed on the user side or its vicinity or an odor similar thereto" are generated on the user side Or a scent information transmission means for transmitting information (information indicating fragrance components, etc.) obtained based on the information to the user side almost in real time online. Offer system.

また、「本願の特許請求の範囲に記載された発明」そのものではないが、本明細書の中では、次のような「実況映像を利用した現在位置確認システム」も提案されている(例えば、段落番号0017,0018などの説明を参照)。
すなわち、この「実況映像を利用した現在位置確認システム」は、地図上の複数の地点に対応する実際の地点にそれぞれ設けられ、その地点の周辺の実況映像をリアルタイムに入力する映像入力手段であって、それぞれがネットワークに接続されている映像入力手段と、ユーザーの現在位置を推測する現在位置推測手段と、この現在位置推測手段により得られた推測現在位置に対応する地図上の地点を求める手段と、この地図上の地点を求める手段により求められた地点に対応する実際の地点に設けられた前記映像入力手段からの実況映像をネットワークを介して取り込む取り込み手段と、この取込まれた実況映像を表示する表示手段と、を備えたことを特徴とする実況映像を利用した現在位置確認システムである。
また、この「実況映像を利用した現在位置確認システム」は、公衆への開示が可能な多数の実況地点の実況映像をそれぞれリアルタイムに常時入力するために各実況地点にそれぞれ設けられた映像入力手段と、前記各実況映像を互いに識別するための実況映像識別データ(緯度データ及び経度データの座標データなどから成る)を記録する実況映像識別データ記録手段と、ユーザーの現在位置を特定する現在位置特定手段(従来より公知のGPS受信機など)と、この現在位置特定手段により特定されたユーザーの現在位置(緯度データ及び経度データの座標データなどから成る)に基づいて、その現在位置に近い一つ又は複数の実況地点に対応又は関連する一つ又は複数の実況映像識別データを選択する実況映像識別データ選択手段と、この選択された実況映像識別データに基づいて、対応する実況映像をオンラインで取り込む(ネットワークを介してアクセスして閲覧する場合と送信させる場合などを含む)映像取り込み手段と、この映像取り込み手段により取り込まれた実況映像(動画又は静止画)をリアルタイムに表示する表示手段と、からなるものである。
また、この「実況映像を利用した現在位置確認システム」では、前記映像入力手段は、前記各実況地点から複数の方向に向かって見える映像をそれぞれ撮像するものであり、前記各実況映像を互いに識別するための実況映像識別データは、前記映像入力手段が設けられた各実況地点の位置を示す位置データとその映像入力手段が撮影する方向を示す方向データと、から構成されており、前記現在位置特定手段は、ユーザーの現在位置を特定する手段とユーザーの進行方向を特定する手段とを含んでおり、前記実況映像識別データ選択手段は、前記現在位置特定手段により特定さたれユーザーの現在位置を示すデータ(緯度データ及び経度データから成る位置座標データなど)及び進行方向を示すデータ(東西南北など)に基づいて、ユーザーの現在位置からユーザーの進行する方向に位置し且つユーザーの現在地点に近い位置にある実況地点の実況映像であってしかもユーザーの進行方向に近い方向を写す実況映像(動画又は静止画)を特定するための実況映像地点識別データを選択するものである。
Further, although not the “invention described in the claims of the present application” itself, the following “current position confirmation system using a live video” has also been proposed in this specification (for example, (See description of paragraph numbers 0017, 0018 etc.).
In other words, this “current location confirmation system using live video” is a video input means that is provided at each of the actual points corresponding to a plurality of points on the map and inputs the live video around that point in real time. Video input means connected to the network, current position estimating means for estimating the current position of the user, and means for obtaining a point on the map corresponding to the estimated current position obtained by the current position estimating means And a capturing means for capturing the live video from the video input means provided at the actual point corresponding to the point determined by the means for determining the point on the map via the network, and the captured live video And a display means for displaying the current position confirmation system using a live video.
In addition, this “current location confirmation system using live video” is a video input means provided at each live site to constantly input live video of many live sites that can be disclosed to the public in real time. And live video identification data recording means for recording live video identification data (consisting of coordinate data of latitude data and longitude data, etc.) for identifying each live video from each other, and current position specification for specifying the current position of the user Based on the means (conventional GPS receiver, etc.) and the current position of the user specified by the current position specifying means (consisting of coordinate data of latitude data and longitude data, etc.) Or live video identification data selection means for selecting one or more live video identification data corresponding to or related to multiple live spots; Based on the selected live video identification data, the corresponding live video is captured online (including when accessed via a network for browsing and transmitted), and the video capture unit captures the video. Display means for displaying real-time video (moving image or still image) in real time.
Further, in this “current position confirmation system using live video”, the video input means picks up each video seen in a plurality of directions from each live location, and identifies each live video from each other The live video identification data to be configured is composed of position data indicating the position of each live spot where the video input means is provided and direction data indicating the direction in which the video input means captures, and the current position The specifying means includes means for specifying the current position of the user and means for specifying the traveling direction of the user, and the live video identification data selecting means specifies the current position of the user specified by the current position specifying means. Based on the data shown (position coordinate data consisting of latitude data and longitude data, etc.) and the data showing the direction of travel (east, west, south, north, etc.) Identifies the live video (moving image or still image) that is located in the direction of the user's travel from the current position and that is close to the user's current location and that shows the direction close to the user's travel direction For this purpose, live video point identification data is selected.

また、「本願の特許請求の範囲には記載された発明」そのものではないが本明細書の中で提案されている発明(以下「実況映像提供システム」)としては、次のものが存在する。
(1)実況映像提供システムは、公衆への開示が可能な多数の実況地点の実況映像をそれぞれリアルタイムに常時入力するために各実況地点に設けられた映像入力手段と、前記各実況地点の実況映像を互いに識別するための実況映像識別データを、地図データベースの地図上の各地点とそれぞれ関連・対応付けながら、記録する実況映像識別データベース手段と、前記地図データベースの地図上で指定された地点に基づいて、前記実況映像識別データベース手段から、対応する一つ又は複数の実況映像識別データを検索する検索手段と、この検索手段により検索された実況映像識別データに基づいて、対応する実況映像をリアルタイムに無線又は有線で取り込む(ネットワークで送信させること又はインターネット用ブラウジング・ソフトウェアでアクセスして閲覧することなどの方法により取り込む)映像取り込み手段と、この映像取り込み手段により取り込まれた実況映像(動画又は静止画)を出力する表示手段と、からなるものである。
(2)また、実況映像提供システムは、公衆への開示が可能な多数の実況地点の実況映像をそれぞれリアルタイムに常時入力するために各実況地点に設けられた映像入力手段と、地図とその地図上の各地点を特定するための座標データとを記録する地図データベースと、前記地図データベースの中の座標データと、前記各実況映像を互いに識別するための実況映像識別データとを、互いに関連又は対応付けながら、記録する実況映像識別データベース手段と、ある実況映像を表示している場合に、その実況映像を互いに識別する実況映像識別データをキーとして、前記実況映像識別データベースから、その実況映像の実況地点に対応又は関連する一つ又は複数の地図上の地点を検索する検索手段と、この検索手段により検索された地図上の地点を含む所定領域の地図を示す地図データを抽出する地図データ抽出手段と、この地図データ抽出手段により抽出された地図データにより地図を出力する表示手段と、からなるものである。
(3)また、実況映像提供システムは、公衆への開示が可能な多数の実況地点の実況映像をそれぞれリアルタイムに常時入力するために各実況地点に設けられた映像入力手段と、前記各実況映像を互いに識別するための実況映像識別データを、文字列・記号列・図形又は映像などから成るキーと関連付けながら、記録する実況映像識別データベース手段と、前記の文字列・記号列・図形又は映像などから成るキーを入力するキー入力手段と、このキー入力手段から入力されたキーに基づいて、前記実況映像識別データベース手段から、関連する一つ又は複数の実況映像識別データを検索する検索手段と、この検索手段により検索された実況映像識別データに基づいて、対応する実況映像を取り込む(ネットワークより送信させるとインターネット用ブラウザーにより閲覧する場合などを含む)映像取り込み手段と、この映像取り込み手段により取り込まれた実況映像(動画又は静止画)を出力する表示手段と、からなるものである。
(4)なお、実況映像提供システムにおいて、前記映像入力手段は一つの実況地点から複数の方向の映像を撮像するものであり(例えば、一つのビデオカメラを旋回してある複数の方向に来たときに撮像する場合や、複数のビデオカメラを複数の方向にそれぞれ備え付けて同時に撮像する場合など)、前記各実況映像を特定するための実況映像識別データは、前記映像入力手段が設けられた各実況地点の位置を示す位置データとその映像入力手段が撮影する方向を示す方向データとから構成されていることが望ましい。
(5)また、実況映像提供システムでは、前記表示手段に表示された実況映像(動画又は静止画)の中のユーザーが指定した部分に対して他の部分と区別するためのマーキングをするためのマーキング手段を備えるのがよい。
(6)また、実況映像提供システムにおいて、前記映像入力手段は、その地点において発生している音声をリアルタイムに入力する手段をも備えているのがよい。
(7)また実況映像提供システムでは、さらに、前記映像入力手段の近傍に備えられ、匂いセンサと、この匂いセンサからの信号を匂いデジタルデータに変換する手段とから構成され、前映像入力手段の設置された地点又はその周辺の匂いを入力するための匂い入力手段と、この匂い入力手段からの匂いデータを、その匂いに近似した匂いを発生させるための芳香剤調合データに変換する変換手段と、前記表示手段の近傍に備えられ、前記芳香剤調合データから芳香剤を調合して所望の匂いを発生させる匂い発生手段と、を含むのがよい。なお、前記の「その匂いに近似した匂いを発生させるための芳香剤調合データに変換する変換手段」は、前記匂い入力手段と直接に接続され、この変換手段がコンピュータ通信ネットワークを介して前記匂い発生手段に接続されていてもよいし、あるいは、前記入力入力手段とコンピュータ通信ネットワークを介して接続され、この変換手段が直接に前記匂い発生手段に接続されていてもよい。
Further, although not the “invention described in the claims of the present application” itself, the inventions proposed in this specification (hereinafter referred to as “actual video providing system”) include the following.
(1) The live video providing system is a video input means provided at each live spot to constantly input real-time live videos of a large number of live spots that can be disclosed to the public, and the live status of each live spot. Live video identification data for distinguishing videos from each other is associated with and associated with each point on the map of the map database, and recorded in the live video identification database means, and at a point designated on the map of the map database Based on the live video identification database means, search means for searching for one or more corresponding live video identification data, and on the basis of the live video identification data searched by the search means, (Wireless or wired) (browsing via network or internet browsing software) Capturing) video capture unit by a method such as to browse and access, and display means for outputting the commentary image captured by the image capture means (moving image or still image), it is made of.
(2) In addition, the live video providing system has a video input means provided at each live spot, a map and its map in order to constantly input real-time live footage of many live spots that can be disclosed to the public. A map database that records coordinate data for specifying each point above, coordinate data in the map database, and live video identification data for identifying each live video from each other are related to or correspond to each other The live video identification database means for recording and the live video from the live video identification database using the live video identification data for identifying each live video as a key when a live video is displayed. Search means for searching for a point on one or more maps corresponding to or related to the point, and a point on the map searched by this search means A map data extracting means for extracting the map data indicating a map of non-predetermined area, and a display means for outputting the map by the map data extracted by the map data extracting means, is made of.
(3) In addition, the live video providing system includes a video input means provided at each live spot in order to constantly input real live video of a large number of live spots that can be disclosed to the public, The live video identification database means for recording the live video identification data for discriminating each other with the key comprising the character string / symbol string / graphic / video, etc., and the character string / symbol string / graphic / video, etc. A key input means for inputting a key comprising: a search means for searching for one or more relevant live video identification data from the live video identification database means based on the key input from the key input means; Based on the live video identification data searched by this search means, the corresponding live video is taken in (if transmitted from the network, the Internet And) the image capturing means, including when browsing the browser, and a display means for outputting a commentary image captured by the image capture means (moving image or still image), is made of.
(4) In the live video providing system, the video input means captures video in a plurality of directions from one live point (for example, a single video camera is turned in a plurality of directions) When the image is sometimes captured or when a plurality of video cameras are respectively provided in a plurality of directions and imaged at the same time), the actual image identification data for identifying each actual image is provided by each of the image input means provided It is desirable that it is composed of position data indicating the position of the live spot and direction data indicating the direction in which the video input means captures.
(5) In addition, in the live video providing system, the part specified by the user in the live video (moving picture or still picture) displayed on the display means is marked to distinguish it from other parts. A marking means may be provided.
(6) In the live video providing system, the video input means may also include means for inputting the sound generated at the point in real time.
(7) Further, the live video providing system further includes an odor sensor and a means for converting a signal from the odor sensor into odor digital data provided near the video input means. An odor input means for inputting an odor at or near the installed location, and a conversion means for converting odor data from the odor input means into fragrance preparation data for generating an odor similar to the odor. And an odor generating means that is provided near the display means and generates a desired odor by mixing the fragrance from the fragrance preparation data. The “conversion means for converting to fragrance preparation data for generating an odor similar to the odor” is directly connected to the odor input means, and the conversion means is connected to the odor via a computer communication network. It may be connected to the generating means, or may be connected to the input input means via a computer communication network, and this converting means may be directly connected to the odor generating means.

本発明によれば、(ユーザー側において遠隔地の映像とその場所又はその周辺の匂いとを略リアルタイムに出力させることができるので)、ユーザーは、自らが居る場所とは離れた遠隔の場所もしくはその近傍又はその場所での出来事に関する実際の雰囲気や状況(例えば遠隔地にある飲食店の店内の雰囲気や来店客の混雑状況やその周辺の匂いなど)を略リアルタイムに知ることができるようになる。 According to the present invention (since the user can output the image of the remote location and the odor of the location or its surroundings in substantially real time), the user can You will be able to know in real time the actual atmosphere and situation of events in the vicinity or at that location (for example, the atmosphere in a restaurant in a remote location, the crowded situation of customers, and the smell around it). .

本発明を実施するための最良の形態は、以下の実施例1について述べるような形態である。   The best mode for carrying out the present invention is a mode as described in Example 1 below.

次に、図1〜4を参照して、本発明の実施例1を説明する。
図1において、1はユーザーが使用するパーソナルコンピュータ(パソコン)で、CPU及び通信モデム等より成る制御装置2と、コンピュータプログラム及びデータが記録されたハードディスク装置3と、コンピュータプログラム及びデータが記録されたCD−ROM4を駆動するためのCD−ROMドライブ5と、データ入力するためのキーボード6及びマウス6aと、画像を出力するためのディスプレイ7と、音声を出力するためのスピーカ8とより、構成されている。
前記制御装置2は、インターネット等のコンピュータネットワーク用公衆回線10を介して、中継サービス用コンピュータ11に接続されている。この中継サービス用コンピュータ11には、多数の実況地点にそれぞれ設置されたビデオカメラ12,12a,12b及び集音マイク13,13a,13bを制御し且つこれらのビデオカメラ12及び集音マイク13からのデータを記録し通信ネットワークを介して閲覧させるためのコンピュータ(サーバー)14,14a,14bが、接続されている。これらの多数のビデオカメラ12及びマイク13等により入力された映像データ及び音声データは、ユーザー側からの要求により、コンピュータ14及び中継サービス用コンピュータ11を介して、ユーザー側に送信できるようになっている。なお、前記ビデオカメラ12は、各実況地点において、それぞれ4個ずつ設置され、それらの4個のビデオカメラは、それぞれ東西南北の4つの方向の映像を撮像するように、設置されていることが望ましい。
Next, Embodiment 1 of the present invention will be described with reference to FIGS.
In FIG. 1, reference numeral 1 denotes a personal computer (personal computer) used by a user, a control device 2 comprising a CPU and a communication modem, a hard disk device 3 in which computer programs and data are recorded, and computer programs and data are recorded. A CD-ROM drive 5 for driving the CD-ROM 4, a keyboard 6 and a mouse 6 a for inputting data, a display 7 for outputting an image, and a speaker 8 for outputting sound are configured. ing.
The control device 2 is connected to a relay service computer 11 through a computer network public line 10 such as the Internet. The relay service computer 11 controls the video cameras 12, 12 a, 12 b and the sound collection microphones 13, 13 a, 13 b respectively installed at a number of actual points, and also from these video cameras 12 and the sound collection microphones 13. Computers (servers) 14, 14 a, 14 b for recording data and browsing through a communication network are connected. The video data and audio data input by these many video cameras 12 and microphones 13 can be transmitted to the user side via the computer 14 and the relay service computer 11 in response to a request from the user side. Yes. Note that four video cameras 12 are installed at each actual point, and the four video cameras are installed so as to capture images in four directions of east, west, south, and north, respectively. desirable.

また、前記中継用サービスコンピュータ11は、他の多数の中継用サービスコンピュータ12などとも接続されており、例えば、ある中継サービス用コンピュータ11に接続されたユーザーは、この中継サービス用コンピュータ11を介して他の中継サービス用コンピュータ12などから、それに接続されたコンピュータ(サーバー)を介してビデオカメラ及びマイクから入力されたデータを取り込めるようになっている。
この場合の映像や音声の取り込みの方法は、そのビデオカメラやマイクからの情報を電子メールに添付させて送信させる方法や、そのビデオカメラ及びマイクの入力情報を提供するためのホームページがコンピュータ・ネットワーク上に開設されており、このホームページをユーザー側がインターネット用のブラウザー・ソフトウェア(閲覧ソフト)により取り込みにいく方法(いわば、コンピュータ・ネットワーク上のホームページをユーザー側のバソコンのハードディスクのように使用する方法)などの様々な方法が有り得る。
The relay service computer 11 is also connected to a number of other relay service computers 12. For example, a user connected to a certain relay service computer 11 passes through the relay service computer 11. Data input from a video camera and a microphone can be taken in from another relay service computer 12 or the like via a computer (server) connected thereto.
Video and audio capture methods in this case include a method for sending information from the video camera and microphone attached to an e-mail, and a homepage for providing input information of the video camera and microphone is a computer network. A method that allows users to import this website using browser software (browsing software) for the Internet (in other words, using a website on a computer network like a hard disk of a user's computer). There can be various methods such as.

この実施例1では、前記CD−ROM4には、地図データとこの地図上の各地点を特定するためのアドレスデータとを関連させて記録する地図データベースと、このアドレスデータと、前記各実況地点(前記ビデオカメラ12及びマイク13が設置された各場所)の実況映像を識別するための映像識別データとを、互いに関連付け・対応付けて記録する実況映像データベースと、これらの前記地図データベースを再生する再生プログラムと、前記実況映像データベースを検索する検索プログラムと、この検索された実況映像識別データからそれに対応する実況映像を取り込んで表示するためのプログラムとが、記録されている。
今、例えば大阪に住んでいるユーザーが、「自分の故郷の神奈川県の夏の湘南海岸の海岸線に沈む夕陽の景色を見たい」と考えたとする。その場合、例えば、ユーザーが地図データベースを再生させて湘南海岸を含む所定領域の地図を画面表示させ、その画面上で前記の湘南海岸の地点をマウス6aでクリックしたとする。すると、制御装置2は、この入力に基づいて、前記地点データベースから、この地図上の地点に対応するアドレスデータを検索する。そして、この検索されたアドレスデータに基づいて、前記実況映像データベースから、対応する実況地点の実況映像を示す実況映像識別データを検索する。そして、この検索された実況映像識別データに基づいて、中継サービス用コンピュータ11にアクセスして、前記の実況映像識別データに対応する実況地点に設置されたビデオカメラ及びマイク(且つ、前記実況映像識別データが撮像方向をも特定したものであるときは、その撮像方向と対応する方向に設置されたビデオカメラ及びマイク)からの映像データ及び音声データをオンラインで取り込んで、ディスプレイ7及びスピーカ8によりリアルタイムに出力する。このとき出力される映像及び音声は、現時点のリアルタイムの映像及び音声なので、ユーザーはあたかもその現場に実際にいるような感覚・感動を得ることができる。
すなわち、従来からも、例えば湘南海岸などの海岸の映像を記録し、それらをキーワードなどで検索して出力できるCD−ROMなどは存在している。そして、これらのCD−ROMに記録された映像は、プロのカメラマンが絶好の日和・時刻(例えば夕陽のきれいな時刻)の絶好の角度から美しく撮影したものである。これに対して、この実施例で提供される映像は、雨天のときも曇りのときもあるし、時刻も絶好の景色が見られる時刻ではないかもしれない。しかし、ユーザーにとっては、「今この時点・この瞬間の映像(二度とない映像)である」ということが、ひとつの「臨場感」「感動」を生むことになる。つまり、「今、湘南海岸に沈む夕陽を見たい」とユーザーが思った場合、過去の記録に過ぎない記録された「湘南海岸の夕陽」の映像ではなく、「今この瞬間の湘南海岸の夕陽」の映像を見られなければ、ユーザーにとっては大きな感動は得られない。この実施例はこのようなユーザーの希望に答えることができるものなのである。
In the first embodiment, the CD-ROM 4 includes a map database that records map data and address data for specifying each point on the map in association with each other, this address data, and each actual point ( Live video database for recording video identification data for identifying live video at each location where the video camera 12 and the microphone 13 are installed) in association with each other, and playback for playing back the map database A program, a search program for searching the live video database, and a program for capturing and displaying a live video corresponding to the searched live video identification data are recorded.
Now, for example, a user who lives in Osaka thinks that he wants to see the setting sun on the coastline of the summer Shonan coast of Kanagawa Prefecture, his hometown. In this case, for example, it is assumed that the user reproduces the map database, displays a map of a predetermined area including the Shonan coast, and clicks the location of the Shonan coast on the screen with the mouse 6a. Then, based on this input, the control device 2 searches the point database for address data corresponding to the point on the map. Based on the retrieved address data, live video identification data indicating the live video of the corresponding live location is searched from the live video database. Then, based on the retrieved live image identification data, the relay service computer 11 is accessed, and the video camera and microphone (and the live image identification) installed at the live point corresponding to the live image identification data. When the data also specifies the imaging direction, video data and audio data from a video camera and a microphone installed in a direction corresponding to the imaging direction are captured online, and real time is displayed by the display 7 and the speaker 8. Output to. Since the video and audio output at this time are real-time video and audio at the present time, the user can feel as if they were actually at the site.
In other words, there has been a CD-ROM or the like that can record a video of a beach such as the Shonan coast and search and output it with a keyword or the like. The images recorded on these CD-ROMs are beautifully photographed by a professional photographer from a perfect angle of a perfect day / time (for example, a beautiful time of the sunset). On the other hand, the video provided in this embodiment may be rainy or cloudy, and the time may not be the time when the best scenery can be seen. However, for the user, “the video at this point in time and the video at this moment (a video that will never happen again)” creates a single “sense of reality” and “impression”. In other words, if the user thinks “I want to see the sunset on the Shonan coast now,” it ’s not just the recorded “sunset on the Shonan coast”, but the “sunset on the Shonan coast at this moment.” If you ca n’t see the video, you wo n’t be able to get a big impression. This embodiment can answer such user's wishes.

なお、ここで、以上の図1について説明した実施例の構成を図2を参照してもう一度説明する。この図2は、実施例の構成を機能的・概念的に示したものである。図2において、符号32は、コンピュータネットワーク(コンピュータ通信網)30に接続され、各地の実況映像と音声をリアルタイムに入力するためのビデオカメラ及びマイクから成る実況映像入力部である。また、符号24は、前記地図データベース26とその再生プログラムとその検索プログラム、前記実況映像データベース25とその検索プログラム、及び前記実況映像識別データから通信ネットワークを介して該当する実況映像を取り込むためのプログラムなどが記録されたCD−ROMである。
また図2において、21は前記CD−ROM24に記録された前記地図データベース26を再生するための地図データベース再生部、22はこの地図データベース再生部21からの信号を受けて表示部27及びスピーカ28を制御して所定の画像及び音声を出力する制御部である。また23は、前記制御部22からの信号を受けて、前記地図データベースが再生された画面上でユーザーが指定(マウスでクリック)した地点のアドレスデータに基づいて、前記実況映像データベース25から、対応する実況映像の識別データを検索する検索部である。制御部22は、この検索部23からの実況映像の識別データに基づいて、映像取り込み部(例えばインターネットのホームページ閲覧用ソフトウェアであるブラウザーを記録し実行する装置)26を制御して、コンピュータネットワーク用通信回線30を介して映像入力部32にアクセスし、そこから、オンラインで、リアルタイムの実況映像及び音声を取り込む。制御部22は、このオンラインで取り込まれた実況映像と音声を、前記地図データベース26からの再生画像(地図画像)と関連させながら、前記表示部27及びスピーカ28によりリアルタイムに出力させる。
Here, the configuration of the embodiment described above with reference to FIG. 1 will be described again with reference to FIG. FIG. 2 shows the configuration of the embodiment functionally and conceptually. In FIG. 2, reference numeral 32 denotes a live video input unit that is connected to a computer network (computer communication network) 30 and includes a video camera and a microphone for inputting live video and audio in various places in real time. Reference numeral 24 denotes the map database 26, its reproduction program and its search program, the live video database 25 and its search program, and a program for taking in the corresponding live video from the live video identification data via a communication network. Is a CD-ROM on which is recorded.
In FIG. 2, 21 is a map database playback unit for playing back the map database 26 recorded on the CD-ROM 24, 22 receives a signal from the map database playback unit 21, and displays a display unit 27 and a speaker 28. It is a control part which controls and outputs a predetermined image and sound. 23 corresponds to the response from the live video database 25 based on the address data of the point designated by the user (clicked with the mouse) on the screen where the map database is reproduced in response to the signal from the control unit 22. It is a search part which searches the identification data of the live video to perform. Based on the identification data of the live video from the search unit 23, the control unit 22 controls the video capturing unit (for example, a device that records and executes a browser as Internet homepage browsing software) 26 for the computer network. The video input unit 32 is accessed via the communication line 30, and real-time live video and audio are captured from there. The control unit 22 causes the live video and audio captured online to be output in real time by the display unit 27 and the speaker 28 while associating with the reproduced image (map image) from the map database 26.

次に、前記の図1の制御装置2に制御されながら、前記ディスプレイ7により表示される画面を、図3及び図4に基づいて説明する。
前記CD−ROM4に記録された各プログラムにより、ディスプレイ7には、図3に示すように、その上半分7aに実況映像が表示され、その下半分7bに地図が表示されるようになっている。この実施例1を使用するときは、ユーザーは、まず図1の前記CD−ROM4を駆動して、前記地図データベースから前記ディスプレイ7の下半分7bに希望する地図を表示させる。CD−ROM4に記録された地図データベースの中のどの部分の地図を表示させるかは、例えば、地名などのキーワードから地図データを検索して表示させればよい(このような技術は従来より公知である)。
そして、本実施例では、この表示された地図には、例えば図4のア、イ、ウ、エ、オ、カ、キに示すように、各地点を示す点が所定の色(例えば赤色)に着色されて表示されている。
これらの図4のア、イ、ウ、エ、オ、カ、キで示す各点の中で、図4のア、イ、ウ、及びエは、図1のビデオカメラ12及びマイク13に対応している。すなわち、この実施例1では、図1のビデオカメラ12は、それぞれ互いに異なる方向を撮像するように図4のア、イ、ウ、及びエの位置に設置された4個のビデオカメラにより構成されている。また、図1のマイク13は、それぞれ互いに異なる方向を集音するように設置された4個のマイクにより構成されている。
つまり、ビデオカメラ12について説明すると、ビデオカメラ12を構成する4個のビデオカメラの中で、図4のアの位置に設置されたビデオカメラは、図の西方向(左方向)に向けて撮像しており、“1428A”の映像識別データを有する実況映像を生成する。また、図4のイの位置に設置されたビデオカメラは、図の南方向(下方向)に向けて撮像しており、“1428B”の映像識別データを有する実況映像を生成する。また、図4のウの位置に設置されたビデオカメラは、図の東方向(右方向)に向けて撮像しており、“1428C”の映像識別データを有する実況映像を生成する。また、図4のエの位置に設置されたビデオカメラは、図の北方向(上方向)に向けて撮像しており、“1428D”の映像識別データを有する実況映像を生成する。
また、前記の図4のア、イ、ウ、エ、オ、カ、キで示す各点の中で、図4のオ、カ、及びキは、図1のビデオカメラ12a及びマイク13aに対応している。すなわち、この実施例1では、図1のビデオカメラ12aは、それぞれ互いに異なる方向を撮像するように図4のオ、カ、及びキの位置に設置された3個のビデオカメラにより構成されている。また、図1のマイク13aは、それぞれ互いに異なる方向を集音するように設置された3個のマイクにより構成されている。つまり、ビデオカメラ12aについて説明すると、ビデオカメラ12aを構成する3個のビデオカメラの中で、図4のオの位置に設置されたビデオカメラは、図の北西方向(左上方向)に向けて撮像しており、“1429A”の映像識別データを有する実況映像を生成する。また、図4のカの位置に設置されたビデオカメラは、図の東南方向(右下方向)に向けて撮像しており、“1429B”の映像識別データを有する実況映像を生成する。また、図4のキの位置に設置されたビデオカメラは、図の東方向(右方向)に向けて撮像しており、“1429C”の映像識別データを有する実況映像を生成する。
以上のように、この図4を参照して説明する実施例では、地図上の各地点を識別するためのアドレスデータ(“1428”や“1429”など)と同一実況地点での各ビデオカメラの撮像方向を示すデータ(“A”“B”“C”“D”など)との組合せと、各地点の実況映像を識別するための実況映像識別データ(“1428A”や“1429A”など)とを、互いに対応させて記録している。
より詳細に述べると、この図4の例では、地図上の1つのアドレスデータ“1428”(図4の中央の交差点の領域を識別するアドレスデータ)については、“1428A”“1428B”“1428C”及び“1428D”の4つの撮像方向をそれぞれ示す4つの実況映像識別データが、対応させて記録されている。また、地図上の1つのアドレスデータ“1429”(図4の図示左側の交差点の領域を識別するアドレスデータ)については、“1429A”“1429B”及び“1429C”の3つの撮像方向を示す3つの実況映像識別データが、対応させて記録されている。
なお、この図4の例では、実況映像識別データ(例えば“1428A”)を、地図上のアドレスデータ(例えば“1428”)と方向データ(例えば“A”)との組合せにより構成しているが、本発明では、必ずしも、実況識別データの中に地図上のアドレスデータをそのまま使用する必要はない。例えば、地図上のアドレスデータは地図全体を均等に割り付けて構成した番地データ(又は座標データ)とし、実況映像識別データはビデオカメラが実際に取り付けてある地点の識別コード(例えば、ビデオカメラの設置順の連続番号)と方向データとの組合せにより構成する、などのようにすることもできる。
Next, a screen displayed on the display 7 while being controlled by the control device 2 shown in FIG. 1 will be described with reference to FIGS.
According to each program recorded in the CD-ROM 4, as shown in FIG. 3, a live image is displayed on the upper half 7 a and a map is displayed on the lower half 7 b of the display 7. . When using the first embodiment, the user first drives the CD-ROM 4 of FIG. 1 to display a desired map on the lower half 7b of the display 7 from the map database. Which part of the map in the map database recorded on the CD-ROM 4 is to be displayed may be obtained by searching for map data from a keyword such as a place name and displaying it (such a technique is conventionally known). is there).
In the present embodiment, in the displayed map, points indicating each point have a predetermined color (for example, red) as shown in, for example, a, i, c, e, o, mosquito, and ki in FIG. It is colored and displayed.
Among the points indicated by a, i, u, d, o, mosquito, and ki in FIG. 4, a, i, c, and d in FIG. 4 correspond to the video camera 12 and the microphone 13 in FIG. is doing. That is, in the first embodiment, the video camera 12 in FIG. 1 is configured by four video cameras installed at positions a, b, c, and d in FIG. 4 so as to capture images in different directions. ing. Moreover, the microphone 13 of FIG. 1 is comprised by the four microphones installed so that each may collect a sound from a mutually different direction.
In other words, the video camera 12 will be described. Of the four video cameras constituting the video camera 12, the video camera installed at position a in FIG. 4 takes an image in the west direction (left direction) in the figure. The live video having the video identification data “1428A” is generated. Also, the video camera installed at the position of A in FIG. 4 captures images in the south direction (downward) in the figure, and generates a live video having video identification data “1428B”. Further, the video camera installed at the position of c in FIG. 4 captures an image in the east direction (right direction) in the figure, and generates a live video having video identification data of “1428C”. Further, the video camera installed at the position D in FIG. 4 captures an image in the north direction (upward direction) in the figure, and generates a live video having video identification data “1428D”.
Among the points indicated by a, i, c, e, o, mosquito, and ki in FIG. 4, o, mosquito, and ki in FIG. 4 correspond to the video camera 12a and the microphone 13a in FIG. is doing. In other words, in the first embodiment, the video camera 12a in FIG. 1 is configured by three video cameras installed at the positions of “e”, “f”, and “ki” in FIG. 4 so as to capture different directions. . Moreover, the microphone 13a of FIG. 1 is comprised by the three microphones installed so that each may collect sound from a mutually different direction. In other words, the video camera 12a will be described. Of the three video cameras constituting the video camera 12a, the video camera installed at the position o in FIG. 4 takes an image in the northwest direction (upper left direction) in the figure. The live video having the video identification data “1429A” is generated. Further, the video camera installed at the position of F in FIG. 4 captures an image in the southeast direction (lower right direction) in the figure, and generates a live video having video identification data of “1429B”. Further, the video camera installed at the position of K in FIG. 4 captures an image in the east direction (right direction) in the figure, and generates a live video having video identification data of “1429C”.
As described above, in the embodiment described with reference to FIG. 4, the address data (“1428”, “1429”, etc.) for identifying each point on the map and each video camera at the same live point. Combination with data indicating the imaging direction (“A”, “B”, “C”, “D”, etc.), and live video identification data (“1428A”, “1429A”, etc.) for identifying live video at each point Are recorded in correspondence with each other.
More specifically, in the example of FIG. 4, one address data “1428” on the map (address data for identifying the intersection area at the center of FIG. 4) is “1428A”, “1428B”, “1428C”. And four live video identification data respectively indicating the four imaging directions of “1428D” are recorded correspondingly. Further, for one address data “1429” on the map (address data for identifying the intersection area on the left side in FIG. 4), three addressing directions “1429A”, “1429B” and “1429C” are shown. Live video identification data is recorded correspondingly.
In the example of FIG. 4, the live video identification data (eg, “1428A”) is configured by a combination of address data (eg, “1428”) on the map and direction data (eg, “A”). In the present invention, it is not always necessary to use the address data on the map as it is in the actual situation identification data. For example, the address data on the map is address data (or coordinate data) configured by allocating the entire map evenly, and the live video identification data is the identification code of the point where the video camera is actually attached (for example, installation of the video camera) (Sequential number in the order) and direction data may be combined.

この図4の例では、前記各ビデオカメラ12及びマイク13がそれぞれ映像及び音声を入力して得られる実況映像(ここでの「実況映像」という用語は、原則として、ビデオカメラで入力した映像データとマイクで入力した音声データとの両者を含む意味で使用している)の識別データには、その地点を示すデータとそのビデオカメラ12が撮影している方向(これはマイク13が集音しようとする方向と一致している)とから、構成されている。つまり、実況映像は、各地点とその撮像方向とで互いに識別されており、「実況映像識別データ」は、各地点を示すデータと撮影又は集音の方向を示すデータとから、構成されている。だから、同じ地点でも、撮影する方向(東西南北などの方向)が違えば別の識別データを有する別の実況映像となる。
このことを図4で説明すると、図4の“ア”で示すアドレスデータ(1428A)を有する地点は、(1428A)という映像識別データを有する実況映像と対応しており、この(1428A)という識別データを示す実況映像は、図4の“ア”の地点からAの方向(図面に向かって左の方向)を撮影した映像である。また、図4の“イ”で示すアドレスデータ(1428B)を有する地図上の地点は、(1428B)という識別データを有する実況映像と対応しており、この(1428B)という識別データを示す実況映像は、図3の“イ”の地点からBの方向(図面に向かって下の方向)を撮影した映像である。また、図4の“ウ”で示すアドレスデータ(1428C)を有する地点は、(1428C)という識別データを有する実況映像と対応しており、この(1428C)という識別データを示す実況映像は、図4の“ウ”の地点からCの方向(図面に向かって右の方向)を撮影した映像である。また、(1428D)というアドレスデータを有する図4の“エ”で示す地点は、(1428D)という識別データを有する実況映像と1対1に対応しており、この(1428D)という識別データを示す実況映像は、図4の“エ”の地点からDの方向(図面に向かって上の方向)を撮影した映像である。
さらに、図4において、アドレスデータ(1429A)を有する“オ”で示す地点は、(1429A)という識別データを有する実況映像と対応しており、この(1429A)という識別データを示す実況映像は、図4の“オ”の地点からAの方向(図面に向かって左上の方向)を撮影した映像である。また、図4の(1429B)というアドレスデータを有する“カ”で示す地点は、(1429B)という識別データを有する実況映像と対応しており、この(1429B)という識別データを示す実況映像は、図4の“カ”の地点からBの方向(図面に向かって右下の方向)を撮影した映像である。また、図4の(1429C)というアドレスデータを有する“キ”で示す地点は、(1429C)という識別データを有する実況映像と対応しており、この(1429C)という識別データを示す実況映像は、図4の“キ”の地点からCの方向(図面に向かって右の方向)を撮影した映像である。
In the example of FIG. 4, each video camera 12 and microphone 13 is a live video obtained by inputting video and audio, respectively (in this case, the term “live video” is basically video data input by a video camera). And the voice data input with the microphone are used for identification data), the data indicating the point and the direction in which the video camera 12 is shooting (this is the microphone 13 trying to collect the sound) In the same direction). In other words, the live video is mutually identified by each point and its imaging direction, and the “live video identification data” is composed of data indicating each point and data indicating the direction of shooting or sound collection. . Therefore, even at the same point, if the shooting direction (direction such as east, west, south, and north) is different, another live image having different identification data is obtained.
This will be explained with reference to FIG. 4. A point having the address data (1428A) indicated by “A” in FIG. 4 corresponds to a live video having video identification data (1428A), and this identification (1428A) is identified. The live video showing data is a video taken in the direction A (the left direction in the drawing) from the point “a” in FIG. 4. Further, the point on the map having the address data (1428B) indicated by “I” in FIG. 4 corresponds to the live video having the identification data (1428B), and the live video showing the identification data (1428B). These are images taken in the direction B (downward in the drawing) from the point “a” in FIG. 3. Further, the point having the address data (1428C) indicated by “c” in FIG. 4 corresponds to the live video having the identification data (1428C). The live video showing the identification data (1428C) is shown in FIG. 4 is an image obtained by photographing the direction C (right direction as viewed in the drawing) from the point “4” in FIG. Further, the point indicated by “d” in FIG. 4 having the address data of (1428D) has a one-to-one correspondence with the live video having the identification data of (1428D), and indicates the identification data of (1428D). The live video is a video taken in the direction D (upward in the drawing) from the point “d” in FIG.
Further, in FIG. 4, a point indicated by “O” having address data (1429A) corresponds to a live video having identification data (1429A), and the live video showing the identification data (1429A) is It is the image | video which image | photographed the direction of A (upper left direction toward drawing) from the "o" point of FIG. Further, the point indicated by “K” having the address data (1429B) in FIG. 4 corresponds to the live video having the identification data (1429B), and the live video showing the identification data (1429B) is It is the image | video which image | photographed the direction B (the direction of the lower right toward drawing) from the "f" point of FIG. Further, the point indicated by “K” having the address data (1429C) in FIG. 4 corresponds to the live video having the identification data (1429C), and the live video showing the identification data (1429C) is It is the image | video which image | photographed the direction of C (right direction toward drawing) from the "ki" point of FIG.

以上から分かるように、この図4の例では、1428は、図4の地図の中央に位置する交差点の領域(この図4の例では、この交差点の領域を「実況地点」という言葉で呼んでいる)を示す地図上のアドレスデータであり、A,B,C,Dはその交差点領域(実況地点)からの撮影(及び集音)の方向を示している。
また同様に、図4の例では、1429は、図4の地図の左端の交差点の領域(実況地点)を示す地図上のアドレスデータであり、A,B,Cはその交差点(実況地点)内の各場所からの撮影(及び集音)の方向を示している。
また、この図4の例では、実況映像の識別データは、前記地図上の各実況地点の位置を示すアドレスデータ(“1428”,“1429”など)と前記方向を示すデータ(A,B,C,Dなど)との組合せにより、構成されている。
As can be seen from the above, in this example of FIG. 4, 1428 is an intersection area located in the center of the map of FIG. 4 (in this example of FIG. 4, this intersection area is referred to as “actual point”). A, B, C, D indicate the direction of shooting (and sound collection) from the intersection area (actual point).
Similarly, in the example of FIG. 4, 1429 is address data on the map indicating the area (actual point) of the intersection at the left end of the map of FIG. 4, and A, B, and C are within the intersection (actual point). The direction of shooting (and sound collection) from each location is shown.
In the example of FIG. 4, the live video identification data includes address data (“1428”, “1429”, etc.) indicating the location of each live location on the map and data (A, B, C, D, etc.).

したがって、ユーザーは、この図4の地図を見ながら、自分がこれから行きたいと思う場所が例えば図4の1428で示す交差点の領域だとして、「今、この交差点の状況はどうなっているか(混雑しているのかどうか、どういう人達がどういう服装で通行しているのか、など)知りたい、そのために実況映像を見たい」と思えば、図4で示す地図上のア〜エの地点のいずれかをマウスなどのポインティングデバイスでクリックすればよい。すると、前記制御装置2により、その地図上のアドレスデータに対応する実況映像識別データが検索され(前記実況映像データベースから)、この検索された実況映像識別データに基づいて、該当する実況映像がコンピュータ・ネットワークを介して取り込まれて、ディスプレイ7の上半分7aに表示される。   Therefore, the user sees the map of FIG. 4 and determines that the place he / she wants to go to is the intersection area indicated by 1428 in FIG. 4, for example, “What is the situation of this intersection now? If you want to know, what kind of people, what kind of clothes, and what kind of clothes you are going through, etc.) Can be clicked with a pointing device such as a mouse. Then, the control device 2 searches for live video identification data corresponding to the address data on the map (from the live video database), and based on the searched live video identification data, the corresponding live video is converted into a computer. -Captured via the network and displayed on the upper half 7a of the display 7.

またユーザーは、これから自分が行きたいと思う場所と今自分が居る場所との間の交通経路を地図上で求めて(これは従来から公知の技術で既に実現されている)、その経路上にある地点の実況映像を順番に表示していく(一つの実況映像の表示時間を例えば5秒として、5秒毎に次の実況映像を順番に表示していく)こともできる。
またユーザーは、自分が自動車を運転しているとき、GPS受信機で受信した測位情報や各種のセンサにより得た測位情報から現在の位置を地図上で求め(これは従来より公知の技術で既に実現されている)、その地図上で求めた自分の現在位置に対応する地点から、前記実況映像の識別データを求めて、その識別データに基づいてネットワーク上のサーバー(例えば図1の中継サービス用コンピュータ11)を通して対応する実況映像を取り込んで表示する、こともできる。これにより、ユーザーは、地図上の現在位置(GPS受信機やセンサからの情報に基づいて推測した現在位置)と実際の現在位置とが本当に一致しているのかどうかを目視により確認することができる。つまり、上記のようにして求められた実況映像識別データに基づいてディスプレイ7に表示された実況映像と自分が自動車の内部から外部を見て得られる実際の景色とが一致していれば、前記のGPSにより推測した現在位置は計測誤差がなく正しいということになるが、一致していなければ前記の推測した現在位置は正しくないということになる。
In addition, the user obtains a traffic route between the place where he / she wants to go and the place where he / she is present on the map (this has already been realized by a conventionally known technique), and on that route. It is also possible to display live video at a certain point in order (display time of one live video is 5 seconds, for example, and display the next live video in order every 5 seconds).
In addition, when the user is driving a car, the user obtains the current position on the map from the positioning information received by the GPS receiver and the positioning information obtained by various sensors (this is already known in the prior art). The real-time video identification data is obtained from the point corresponding to the current position obtained on the map, and a server on the network (for example, for the relay service in FIG. 1) is obtained based on the identification data. It is also possible to capture and display the corresponding live video through the computer 11). As a result, the user can visually confirm whether or not the current position on the map (current position estimated based on information from the GPS receiver or sensor) and the actual current position are the same. . In other words, if the live image displayed on the display 7 based on the live image identification data obtained as described above matches the actual scenery obtained by looking at the outside from the inside of the car, The current position estimated by the GPS is correct with no measurement error, but if it does not match, the estimated current position is incorrect.

なお、前記制御装置2と中継サービス用コンピュータ11の接続は無線でもよいこと、前記中継サービス用コンピュータと各ビデオカメラ12及びマイク13との接続も無線でもよいこと、及び、前記「地図データベース」、「実況映像データベース」、これらの検索プログラム、及び地図データベース再生プログラムは、CD−ROM4から読み取るのではなく、前記中継サービス用コンピュータ11などのネットワーク上のサーバー(コンピュータ)から取り込むようにしてもよい。特に、上記のように、図1のパソコン1を移動中の自動車内で使用する場合(自分が自動車を運転しているとき、GPS受信機で受信した測位情報や各種のセンサにより得た測位情報から現在の位置を画面表示された地図上で求め、この「自分の現在位置に対応する実況地点の実況映像で且つ自分の進行方向に対応する撮像方向の実況映像」を、パソコン1のディスプレイ7に表示させる場合)は、前記パソコン1の制御装置2と前記中継サービス用コンピュータとの間は無線で送受信する必要がある。   The connection between the control device 2 and the relay service computer 11 may be wireless, the connection between the relay service computer and each video camera 12 and microphone 13 may be wireless, and the “map database”, The “live video database”, these search programs, and the map database playback program may be read from a server (computer) on the network such as the relay service computer 11 instead of being read from the CD-ROM 4. In particular, as described above, when the personal computer 1 of FIG. 1 is used in a moving car (positioning information received by a GPS receiver and positioning information obtained by various sensors when the user is driving the car). The current position is obtained on the map displayed on the screen, and this “real-time video of the live location corresponding to the current location and the imaging direction corresponding to the traveling direction” is displayed on the display 7 of the personal computer 1. In the case of display on the computer), it is necessary to transmit and receive wirelessly between the control device 2 of the personal computer 1 and the relay service computer.

次に、本発明の実施例2を図1により説明する。図1において、1はユーザーが使用するパーソナルコンピュータ(パソコン)で、CPU及び通信モデム等より成る制御装置2と、コンピュータプログラム及びデータが記録されたハードディスク装置3と、コンピュータプログラム及びデータが記録されたCD−ROM4を駆動するためのCD−ROMドライブ5と、データ入力するためのキーボード6と、画像を出力するためのディスプレイ7と、音声を出力するためのスピーカ8とより、構成されている。
前記制御装置2は、公衆回線10を介して、中継サービス用コンピュータ11に接続されている。この中継サービス用コンピュータ11には、多数の地点にそれぞれ設置されたビデオカメラ12及び集音マイク13が、コンピュータ(サーバー)14を介して、接続されている。これらの多数のビデオカメラ12及びマイク13等により入力された映像データ及び音声データは、ユーザーからの要求により、前記コンピュータ(サーバー)14及び中継サービス用コンピュータ11を介して、ユーザーに送信できるようになっている。
また、図1の多数のビデオカメラ12及び集音マイク13は、識別データにより互いに識別できるようになっている。したがって、また、各ビデオカメラ12及び集音マイク13からの実況映像及び音声は、互いに識別できるようになっている。また、これらの多数のビデオカメラ12及びマイク13等により入力された映像データ及び音声データは、ユーザーからの要求により、中継サービス用コンピュータ11を介して、ユーザーがオンラインで閲覧できるようになっている(例えば、インターネット・ホームページ閲覧用ソフトウェアのブラウザーを使用して、閲覧できるようになっている)。
また、前記中継用サービスコンピュータ11は、他の多数の中継用サービスコンピュータ12などとも接続されており、例えば、中継サービス用コンピュータに接続されたユーザーは、この中継サービス用コンピュータ11を介して他の中継サービス用コンピュータ12などから、それに接続されたビデオカメラ及びマイクから入力されたデータを取り込めるようになっている。
Next, a second embodiment of the present invention will be described with reference to FIG. In FIG. 1, reference numeral 1 denotes a personal computer (personal computer) used by a user, a control device 2 comprising a CPU and a communication modem, a hard disk device 3 in which computer programs and data are recorded, and computer programs and data are recorded. A CD-ROM drive 5 for driving the CD-ROM 4, a keyboard 6 for inputting data, a display 7 for outputting an image, and a speaker 8 for outputting sound are constituted.
The control device 2 is connected to a relay service computer 11 via a public line 10. To this relay service computer 11, video cameras 12 and sound collecting microphones 13 installed at a number of points are connected via a computer (server) 14. The video data and audio data input by the large number of video cameras 12 and microphones 13 can be transmitted to the user via the computer (server) 14 and the relay service computer 11 in response to a request from the user. It has become.
Further, the multiple video cameras 12 and the sound collecting microphones 13 shown in FIG. 1 can be distinguished from each other by the identification data. Therefore, the live video and audio from each video camera 12 and the sound collecting microphone 13 can be distinguished from each other. In addition, the video data and audio data input by the large number of video cameras 12 and microphones 13 can be viewed online by the user via the relay service computer 11 in response to a request from the user. (For example, it can be browsed using a browser of internet homepage browsing software).
The relay service computer 11 is also connected to a number of other relay service computers 12. For example, a user connected to the relay service computer 11 can connect to other relay service computers 11 via the relay service computer 11. Data input from a video camera and a microphone connected to the relay service computer 12 or the like can be taken in.

この実施例2では、前記CD−ROM4には、前記各地点(前記ビデオカメラ12及びマイク13が設置された各場所)の実況映像を識別するための映像識別データと多数のキーワードとを互いに関連付けた実況映像データベースと、これらのキーワードから前記映像識別データを検索するプログラムとが、記録されている。この実況映像データベースに記録されているキーワードには、地名、場所のジャンル(海岸、町角、港町、山、交差点、建物、レストラン、劇場、映画館、スポーツ施設、野球場、温泉、寺院など)、行動のジャンル(スポーツ、演劇、映画、食事、散歩など)、などの様々なものが含まれている。
今、例えば大阪に住んでいるユーザーが、「自分の故郷の神奈川県の夏の湘南海岸の海岸線に沈む夕陽の景色を見たい」と考えたとする。その場合、例えば、ユーザーが前記キーボード6により「神奈川県、夏、湘南海岸、海岸線、夕陽」などのキーワードを入力すると、制御装置2は、これらの入力されたキーワードに基づいて、CD−ROM4に記録された実況映像識別データの中から対応するものを検索する。そして、この検索された実況映像識別データに基づいて、中継サービス用コンピュータ11にアクセスして、その識別データに対応する地点に設置されたビデオカメラ及びマイクからの映像データ及び音声データをリアルタイムに取り込んで、ディスプレイ7及びスピーカ8から出力することができる。このとき出力される映像及び音声は、現時点のリアルタイムの映像及び音声なので、ユーザーはあたかもその現場に実際にいるような感動を得ることができる。
In the second embodiment, the CD-ROM 4 associates video identification data for identifying live video at each location (each location where the video camera 12 and the microphone 13 are installed) with a number of keywords. A live video database and a program for retrieving the video identification data from these keywords are recorded. The keywords recorded in this live video database include place names and genres of places (coasts, street corners, port towns, mountains, intersections, buildings, restaurants, theatres, cinemas, sports facilities, baseball fields, hot springs, temples, etc.) , Genres of behavior (sports, drama, movies, meals, walks, etc.), and so on.
Now, for example, a user who lives in Osaka thinks that he wants to see the setting sun on the coastline of the summer Shonan coast of Kanagawa Prefecture, his hometown. In this case, for example, when the user inputs a keyword such as “Kanagawa Prefecture, summer, Shonan coast, coastline, sunset” using the keyboard 6, the control device 2 stores the keyword in the CD-ROM 4 based on these input keywords. A corresponding one is searched from the recorded live video identification data. Then, based on the retrieved live video identification data, the relay service computer 11 is accessed, and video data and audio data from a video camera and a microphone installed at a point corresponding to the identification data are captured in real time. Thus, it can be output from the display 7 and the speaker 8. Since the video and audio output at this time are real-time video and audio at the present time, the user can feel as if they are actually at the site.

また、同様に、この実施例2では、ユーザーが例えば「寺院、京都」というキーワードを入力すれば、前記制御装置2がそれに該当する複数の映像識別データを検索し、それらを順次ディスプレイ7に表示する。また、例えば長期入院しているユーザーが、実際には行けないが「九州各地の温泉巡りをしてみたい」と思えば、「九州各地、温泉巡り」などのキーワードを入力すれば、前記制御装置2が、それに該当する複数の映像識別データを検索し、それらの識別データに対応する実際映像を受信して、順次ディスプレイ7に表示する。これは、ユーザーにとっては、実際には行っていないのに実際に行っているのと同じ感動を得ることができる。このように、この実施例2は、ユーザーにとってあたかも旅行に行っていないの行っているのと同様の感動を得られる「バーチァル・トラベル(仮想旅行)」を実現できるシステムであると言える。   Similarly, in the second embodiment, when the user inputs the keyword “Temple, Kyoto”, for example, the control device 2 retrieves a plurality of video identification data corresponding to the keyword and sequentially displays them on the display 7. To do. Also, for example, if a user who has been hospitalized for a long time cannot actually go but wants to go around hot springs around Kyushu, enter a keyword such as "around hot springs around Kyushu". Then, a plurality of video identification data corresponding thereto are searched, and actual videos corresponding to the identification data are received and sequentially displayed on the display 7. This gives the user the same excitement as they do when they are not actually doing it. Thus, it can be said that the second embodiment is a system that can realize “virtual travel (virtual travel)” that can give the user the same impression as if the user is not traveling.

また同様に、ユーザーが「横浜の港町を食べ歩きしたい」と思えば、「横浜、港町、食べ歩き」というキーワードを入力すれば、前記制御装置2がこれらのキーワードに基づいて対応する複数の映像識別データを検索し、これらに対応する複数の前記各地点からの実況映像のデータを取り込んでくれる(この場合、公衆への映像提供を承諾したレストランの内部に前記ビデオカメラとマイクを設置しておけば、その内部の状況、例えば客の今の混み具合や店内の雰囲気なども知ることができる)。また、同様に、ユーザーが「日本全国の劇場巡り(野球場巡り)をしてみたい」と思えば、「日本、劇場巡り(野球場巡り)」というキーワードを入力すれば、前記制御装置2がこれらのキーワードに基づいて対応する映像識別データを検索し、それらに対応する実況映像をリアルタイムに出力してくれる。この場合、各劇場又は各野球場に、所定時間のみ劇の内容(又は試合内容)の送信を承諾してもらっておけば、ユーザーは所定時間のみではあるが、その劇(又は試合)の内容を言わばインデックス代わりに見ることができる。   Similarly, if the user wants to “walk around the port town of Yokohama” and enters the keyword “Yokohama, port town, walk around”, the control device 2 can respond to a plurality of images based on these keywords. It retrieves identification data and captures live video data from each of the corresponding points (in this case, the video camera and microphone are installed inside a restaurant that has agreed to provide video to the public) If you keep it, you can know the inside situation, such as the current crowd of customers and the atmosphere in the store.) Similarly, if the user wants to go around Japan to visit theaters (baseball stadium tours), enter the keyword "Japan, tour around theaters (baseball stadium tours)", and the control device 2 will make these It searches the corresponding video identification data based on the keyword and outputs live video corresponding to them in real time. In this case, if each theater or each baseball field approves the transmission of the contents of the play (or the contents of the game) only for a predetermined time, the user will be able to change the contents of the play (or the game) for a predetermined time only. It can be seen instead of an index.

次に、本発明の実施例3を説明する。この実施例3では、前記の実施例1の構成に加えて、次のようなものが備えられている。
まず、前記ビデオカメラ12やマイク13の近傍に備えられた匂い入力装置が備えられている。この匂い入力装置には、匂いセンサと、この匂いセンサからの信号を匂いのデジタルデータにコード化するコード化部が備えられている。前記匂いセンサは、既存の複数の匂いセンサから構成され、各センサからの匂い量検出値はすべて前記コード化部(エンコーダ)に供給される。コード化部(エンコーダ)では、この供給された匂い量検出値を符号化する。この符号化された匂いデータ(デジタルデータ)は、記録装置に記録されると共に、遠隔のユーザーが、コンピュータ通信ネットワーク網を介してリアルタイムに閲覧し取り込めるようになっている。なお、前記の匂いセンサは、感知できる匂いの種類毎に複数用意しておき、できるだけ現場の元の匂いを忠実に再現できるだけの情報を得られるようにすることが望ましい。
次に、ユーザー側には、前記の閲覧し取り込んだ匂いデータ(デジタルデータ)を、現場の匂いに近似した匂いを発生させるための芳香剤調合データに変換する変換装置と、前記ディスプレイ7(図1)の近傍に備えられ、前記芳香剤調合データから芳香剤を調合して所望の匂いを発生させる匂い発生装置と、が備えられている。
まず、前記の「前記閲覧し取り込んだ匂いデータ(デジタルデータ)を、現場の匂いに近似した匂いを発生させるための芳香剤調合データに変換する変換装置」を説明する。前記変換装置は、各匂いセンサの検出値のパターンを各芳香剤の出力値のパターンに変換する。より具体的には、様々な種類の匂いのそれぞれについて、その匂いを匂いセンサに検出させると検出値がどのような値をとるかを予め調査・記録しておく。そして、この匂いと匂いセンサの検出値パターンとの関係を記録したデータと、各匂いと芳香剤(の成分)との関係を記録したデータとから、各匂いセンサの検出値のパターンと複数種類の芳香剤の出力値のパターンとを対応付けて記録しておくようにする。前記変換装置は、この対応付けられた情報に基づいて、匂いセンサの検出値のパターンを芳香剤(の成分)の出力値のパターン(これが「芳香剤調合データ」となる)に変換するものである。このことをより詳細に述べると、次のとおりである。前記変換装置には、各匂いを匂いセンサで検出したときの匂いセンサの検出値と、その匂いを後述の匂い発生装置で発生させるときの各芳香剤の出力値との対応関係が記録されたセンサ芳香剤量変換テーブルが、予め記録されている。そして、変換装置は、前記匂いセンサの検出値データに基づいて、このセンサ芳香剤量変換テーブルを参照して、各匂いセンサ毎の検出値を各芳香剤毎の出力値に変換する。
Next, a third embodiment of the present invention will be described. In the third embodiment, in addition to the configuration of the first embodiment, the following is provided.
First, an odor input device provided in the vicinity of the video camera 12 and the microphone 13 is provided. The odor input device includes an odor sensor and an encoding unit that encodes a signal from the odor sensor into odor digital data. The odor sensor is composed of a plurality of existing odor sensors, and all odor amount detection values from each sensor are supplied to the encoding unit (encoder). The encoding unit (encoder) encodes the supplied odor amount detection value. The encoded odor data (digital data) is recorded in a recording device and can be viewed and captured in real time by a remote user via a computer communication network. It should be noted that it is desirable to prepare a plurality of odor sensors for each type of odor that can be sensed, and to obtain information that can reproduce the original odor as closely as possible.
Next, the user side converts the browsed and captured odor data (digital data) into a fragrance preparation data for generating an odor similar to the odor on site, and the display 7 (FIG. 1), and an odor generating device for preparing a desired odor by preparing a fragrance from the fragrance preparation data.
First, the “conversion device for converting the browsed and captured odor data (digital data) into fragrance preparation data for generating an odor similar to the odor on site” will be described. The conversion device converts a detection value pattern of each odor sensor into an output value pattern of each fragrance. More specifically, for each of various types of odors, what value the detection value takes when the odor sensor detects the odor is previously investigated and recorded. Then, from the data recording the relationship between the odor and the detection value pattern of the odor sensor and the data recording the relationship between each odor and the fragrance (component), the detection value pattern of each odor sensor and a plurality of types The pattern of the output value of the fragrance is recorded in association with each other. The converter converts the detection value pattern of the odor sensor into an output value pattern of the fragrance (component) (this becomes “fragrance preparation data”) based on the associated information. is there. This will be described in more detail as follows. In the conversion device, the correspondence between the detected value of the odor sensor when each odor is detected by the odor sensor and the output value of each fragrance when the odor is generated by the odor generating device described later is recorded. A sensor fragrance amount conversion table is recorded in advance. Then, the conversion device refers to the sensor fragrance amount conversion table based on the detection value data of the odor sensor, and converts the detection value for each odor sensor into an output value for each fragrance.

次に、前記の「前記芳香剤調合データから芳香剤を調合して所望の匂いを発生させる匂い発生装置」を説明する。匂い発生装置は、予め複数種類の芳香剤を用意しておき、前記の「芳香剤調合データ」(前記の芳香剤出力パターンデータ。各芳香剤からの匂い成分をどれだけ発生させるかを示すデータ)に基づいて、必要な種類の匂いの成分(芳香剤からの成分)を必要な分量だけ発生させる。匂い発生装置の形態としては、ある空間中においてその空間全体に匂いを行き渡らせる据置型のものと、ユーザーの鼻の付近又は鼻の中に装着して装着した人にのみ匂いを感得させる個人携帯型のものと、が考えられる。
例えば、前記の据置型のものとしては、次のようなものが考えられる。すなわち、箱の底に芳香剤の入った容器を並べて、芳香剤と空気とが接する面積を任意に調整できる蓋を各容器に付けておき、箱の後ろ側には、必要に応じて送風機を設ける。そして、前記の「芳香剤出力パターン」のデータに応じて、各芳香剤の成分を所定量ずつ放出できるように、対応する各芳香剤の容器の蓋の開閉具合を調節する。また、前記携帯型のものについては、基本的構成は据置型のものと同様でよいが、これを小型化し、これをヘルメット型、ヘッドセット型、メガネ型、マスク型などの頭部支持具によりユーザーの鼻の付近に装着できるようにする。
なお、この実施例3では、前記の「前記閲覧し取り込んだ符号化された匂いデータを、現場の匂いに近似した匂いを発生させるための芳香剤調合データに変換する変換装置」をユーザー側のパソコン1側に備えるようにしているが、本発明ではこれに限られるものではなく、例えば、現場のビデオカメラ12やマイク13が設置された地点に備えるようにしてもよいし、コンピュータ・ネットワーク上の中継サービス用コンピュータ(サーバー)11に備えるようにしてもよい。また、以上の実施例3で説明した「匂いのデータ化、記録、通信、及び再生」の技術は、例えば特開平7−55742号公報などに開示された公知の技術である。
Next, the “scent generating device for preparing a desired odor by preparing a fragrance from the fragrance preparation data” will be described. The odor generating device prepares a plurality of types of fragrances in advance, and the “fragrance preparation data” (the fragrance output pattern data. Data indicating how much odor components from each fragrance are generated. ) To generate a necessary amount of odor components (components from the fragrance) in a necessary amount. As a form of odor generating device, a stationary type that spreads the scent throughout the space in a certain space, and an individual who can feel the scent only by wearing near the user's nose or in the nose A portable type can be considered.
For example, the following can be considered as the stationary type. That is, arrange containers with fragrances at the bottom of the box, and attach a lid to each container to adjust the area where the fragrance and air are in contact with each other. Provide. Then, according to the data of the “fragrance output pattern”, the opening / closing state of the lid of each corresponding fragrance container is adjusted so that a predetermined amount of each fragrance component can be released. In addition, for the portable type, the basic configuration may be the same as that of the stationary type, but this is reduced in size by a head support such as a helmet type, a headset type, a glasses type, or a mask type. It can be worn near the user's nose.
In the third embodiment, the above-mentioned “conversion device that converts the encoded odor data that has been browsed and captured into fragrance preparation data for generating an odor similar to the odor on site” is provided on the user side. However, the present invention is not limited to this. For example, the personal computer 1 may be provided at a site where the video camera 12 and the microphone 13 are installed on the computer, or on a computer network. The relay service computer (server) 11 may be provided. Further, the technology of “smell data conversion, recording, communication, and reproduction” described in the third embodiment is a known technology disclosed in, for example, Japanese Patent Laid-Open No. 7-55742.

図5は本発明の実施例4を示すブロック図である。図5において、21は液晶ディスプレイ(LCD)である。また図5において、22は従来より市販されているGPS(Grobal Positioning System)受信機で、人工衛星からの電波の遅延時間を計測し、軌道からの距離からユーザーの現在位置を求めるためのものである。このGPS受信機22は、人工衛星から送信されるGPS電波を受信するGPS受信アンテナと、このGPS電波から現在位置を緯度データ及び経度データとして認識する位置認識部(CPUにより構成される)を含んでいる。前記GPSアンテナは、GPS衛星からの例えば1.5GHzの電波を受信し、その信号を前記位置認識部に送る。前記位置認識部では、稼働中のGPS衛星のうち受信可能な4個以上の衛星の電波を受信し、既知である衛星の位置と受信電波とから算出した各衛星−受信点間の距離とを基にして、受信点の現在位置を取得し、緯度データ及び経度データを算出する。なお、以上のGPS受信機2の詳細な構成及び使用方法は従来より公知である(例えば、特開平5−45171号公報、特開平7−306054号公報、特開平8−94735号公報などを参照)ので、詳細な説明は省略する。
また、図5において、26は進行方向入力部で、ユーザーが徒歩、車両、鉄道などにより移動中のときのその進行方向(東西南北など)を地磁気などを利用して計測しその進行方向を求める進行方向入力部である。この実施例4では、前記GPS受信機22と進行方向入力部26とにより、本発明によるユーザーの「現在位置特定手段」を構成している。
また図5において、23はこのGPS受信機22からの現在位置情報としての座標データ(緯度データ及び経度データ)と前記進行方向入力部26からの進行方向データを受け取り、該当する衛星画像を選択し、それを前記LCD21に表示するための制御部で、パーソナル・コンピュータなどにより構成されている。
FIG. 5 is a block diagram showing Embodiment 4 of the present invention. In FIG. 5, 21 is a liquid crystal display (LCD). In FIG. 5, 22 is a GPS (Global Positioning System) receiver that has been commercially available so far, which measures the delay time of the radio wave from the artificial satellite and obtains the current position of the user from the distance from the orbit. is there. The GPS receiver 22 includes a GPS receiving antenna that receives GPS radio waves transmitted from artificial satellites, and a position recognition unit (configured by a CPU) that recognizes the current position as latitude data and longitude data from the GPS radio waves. It is out. The GPS antenna receives, for example, a 1.5 GHz radio wave from a GPS satellite and sends the signal to the position recognition unit. The position recognition unit receives radio waves of four or more receivable satellites among GPS satellites in operation, and calculates the position between each satellite and the reception point calculated from the known satellite positions and the received radio waves. Based on this, the current position of the reception point is acquired, and latitude data and longitude data are calculated. The detailed configuration and usage of the GPS receiver 2 described above are conventionally known (see, for example, JP-A-5-45171, JP-A-7-306054, and JP-A-8-94735). Therefore, detailed description is omitted.
In FIG. 5, reference numeral 26 denotes a traveling direction input unit, which measures the traveling direction (such as east, west, south, and north) when the user is moving by walking, vehicle, railroad, or the like using geomagnetism or the like to obtain the traveling direction. It is a traveling direction input unit. In the fourth embodiment, the GPS receiver 22 and the traveling direction input unit 26 constitute a “current position specifying unit” of the user according to the present invention.
In FIG. 5, 23 receives coordinate data (latitude data and longitude data) as current position information from the GPS receiver 22 and the traveling direction data from the traveling direction input unit 26, and selects the corresponding satellite image. A control unit for displaying it on the LCD 21 is constituted by a personal computer or the like.

また、図5において、24は、前記制御部23とインターネットなどのコンピュータ通信用公衆回線網20を介して接続された地図データベース用サーバー(コンピュータ)である。この地図用サーバー24は、例えば日本全国の地図を、座標データ(緯度データ及び経度データ)、地名、施設名、施設の識別データ(施設の電話番号など)などの位置識別データと関連付けながら、データベースとして記録している。この地図用サーバー24は、公衆回線網20により前記制御部23とオンラインで接続されている。なお、この公衆回線網20は、有線通信網だけでなく、携帯電話網、PHS(パーソナル・ハンディホン・システム)網、自動車電話網及び人工衛星通信網などの無線通信網をも含むものであることが望ましい。   In FIG. 5, reference numeral 24 denotes a map database server (computer) connected to the control unit 23 via a computer communication public network 20 such as the Internet. This map server 24 associates a map of Japan with, for example, position identification data such as coordinate data (latitude data and longitude data), place names, facility names, facility identification data (such as facility telephone numbers), and the like. As recorded. The map server 24 is connected to the control unit 23 online by the public line network 20. The public line network 20 includes not only a wired communication network but also a wireless communication network such as a mobile phone network, a PHS (Personal Handyphone System) network, a car phone network, and an artificial satellite communication network. desirable.

また図5において、25は、インターネットなどのコンピュータ通信用公衆回線網20に接続された実況映像入力装置で、各実況地点それぞれ設けられ、各実況地点における複数方向の実況映像(各実況地点から複数方向に向かって見える実況映像)をそれぞれリアルタイムに常時入力する複数のデジタル・ビデオカメラと、これらのデジタル・ビデオカメラからのデジタル映像データを、インターネットなどのコンピュータ通信網を介してアクセスして来た複数のユーザーに対してオンラインで提供するための実況映像提供用コンピュータと、から構成されている。
この実況映像提供用コンピュータは、各地点の実況映像を、座標データ(緯度データ及び経度データ)、地名、施設名、施設の識別データ(施設の電話番号など)などの位置識別データ及び東西南北などの方向データと関連付けながら、データベースとして記録している。この実況映像提供用コンピュータは、前記通信網20により前記制御部3とオンラインで接続されている。なお、この通信網20は、有線通信網だけでなく、携帯電話網、PHS(パーソナル・ハンディホン・システム)網、自動車電話網及び人工衛星通信網などの無線通信網をも含むものであることが望ましい。
In FIG. 5, reference numeral 25 denotes a live video input device connected to a public network 20 for computer communication such as the Internet. Each live spot is provided, and a live video in a plurality of directions at each live spot (a plurality of live videos from each live spot). We have been accessing multiple digital video cameras that constantly input real-time video (viewed in the direction) in real time and digital video data from these digital video cameras via a computer communication network such as the Internet. And a live video providing computer for providing online to a plurality of users.
This computer for live video provides live video of each point, location data such as coordinate data (latitude data and longitude data), place name, facility name, facility identification data (such as facility phone numbers), It is recorded as a database in association with the direction data. This live video providing computer is connected to the control unit 3 online via the communication network 20. The communication network 20 preferably includes not only a wired communication network but also a wireless communication network such as a mobile phone network, a PHS (Personal Handyphone System) network, a car phone network, and a satellite communication network. .

制御部23は、ユーザーのキーボード26又はマウス27などの入力装置による指示により、前記地図用サーバー24にアクセスして、そこから、ユーザーが希望する地点(前記入力装置で指定した地点)を含む所定領域の地図のデータをオンラインで取り出して、LCD21に表示させる。
また、前記制御部23は、ユーザーがこの表示された地図の任意の地点をマウス27で指示しその地点を含む所定領域の実況映像の表示を指令したとき、前記各実況地点の前記実況映像提供用コンピュータを含む映像入力装置25にアクセスして、該当する所定領域の実況映像のデータをオンラインで取り出して、その実況映像をLCD21にリアルタイムに表示させる。
また、制御部23は、ユーザーが、例えば、表示を希望する地点の地名、施設名、施設の識別データなどを入力して該当する実況地点の実況映像又はその実況地点を含む地図の表示を希望したとき、前記映像入力装置25又は地図用サーバー24にアクセスして、該当する実況映像又は地図をオンラインで取り出して、それらをLCD21に表示させる。
また、制御部23は、ユーザーが自分が現在居る現在地点から進行方向に向かう方向で且つ最も近くの場所にある実況地点の実況映像であって、その進行方向に向かって見える実況映像を表示せよと指令したときは、前記GPS受信機22及び進行方向入力部26からユーザーの現在位置及び進行方向を座標データ(緯度データ及び経度データ)及び方向データとして受け取り、その座標データ及び方向データに基づいて、該当する前記各実況地点の映像入力装置25にアクセスして、オンラインで該当の実況映像の提供を受けて、LCD21に表示させる。なお、この場合の、前記制御部23が前記映像入力装置25から該当する実況映像の提供を受ける方法としては、従来のインターネット用のブラウジング・ソフトウェア(閲覧ソフトウェア)などによりこの各地の映像入力装置25にそれぞれ直接アクセスして取り込む方法と、前記映像入力装置25に対して該当する実況映像データを電子メールに添付したファイルとして送信してもらうように依頼してその送信により受け取る方法など、様々な方法が有り得る。
The control unit 23 accesses the map server 24 according to an instruction from the input device such as the keyboard 26 or the mouse 27 of the user, and from there, a predetermined point including a point desired by the user (a point specified by the input device). The area map data is retrieved online and displayed on the LCD 21.
Further, when the user designates an arbitrary point on the displayed map with the mouse 27 and instructs the display of a live image of a predetermined area including the point, the control unit 23 provides the live video of each live point. The video input device 25 including the computer is accessed, the live video data of the predetermined area is retrieved online, and the live video is displayed on the LCD 21 in real time.
In addition, the control unit 23, for example, inputs a place name, facility name, facility identification data, etc. of a point desired to be displayed, and wants to display a live video of the corresponding live spot or a map including the live spot. When this happens, the video input device 25 or the map server 24 is accessed, and the corresponding live video or map is retrieved online and displayed on the LCD 21.
In addition, the control unit 23 displays a live video of a live spot in the direction from the current location where the user is currently in the direction of travel to the nearest location and visible toward the travel direction. Is received as coordinate data (latitude data and longitude data) and direction data from the GPS receiver 22 and the traveling direction input unit 26, and based on the coordinate data and direction data. Then, the video input device 25 at each relevant live location is accessed, the relevant live video is provided online, and displayed on the LCD 21. In this case, as a method for the control unit 23 to receive the corresponding live video from the video input device 25, the video input device 25 in this place can be obtained by using conventional Internet browsing software (browsing software). There are various methods, such as a method of directly accessing and capturing the video data, and a method of requesting the video input device 25 to transmit the corresponding live video data as a file attached to an e-mail and receiving it by transmission. It is possible.

また、この実施例4では、前記制御部23は、ユーザーが、ある実況映像が前記LCD21に表示されているとき、その表示された実況映像の中のある部分だけを、例えば特定の建築物や特定の橋や特定の道路などの部分だけを、他の部分と見分けやすいように所定のマーキングをしたいと指令したときは、その部分を他と異なって目立つようにマーキングできる手段(プログラム)を含むのがよい。この場合のマーキングは、例えば、他と異なる色で着色して色別する方法、その部分のみに網掛け処理を行う方法、その部分を他の部分よりも太い実線で表示する方法、などの様々な方法がある。   In the fourth embodiment, when the user displays a live video image on the LCD 21, the control unit 23 selects only a certain part of the displayed live video image, for example, a specific building or Includes a program (program) that can be used to mark only specific parts such as a specific bridge or specific road so that they can be distinguished from other parts. It is good. The marking in this case is various, for example, a method of coloring with a different color from others, a method of performing a shading process only on that part, a method of displaying that part with a solid line thicker than the other parts, etc. There are many ways.

次に、図6は本発明の実施例5を示すブロック図である。図6において、符号21,22,23,26,27は図4におけると同様なので説明を省略する。図6において、34は制御部23に接続されたCD−ROMプレーヤ(再生装置)、35はこのCD−ROMプレーヤ34に読み取れらるCD−ROMである。このCD−ROM35には、例えば日本国の全体の地図を、座標データ(緯度・経度データ)、地名、施設名、施設識別データなどの位置識別データと関連付けて記録した地図データベースが記録されている。また図6において、31は、インターネットなどのコンピュータ通信網30に接続された映像入力装置で、図4の映像入力装置25と同様のものである。
前記制御部3は、前記CD−ROMプレーヤ14によりCD−ROM15を読み取ることにより、ユーザーが希望する位置を含む所定領域の地図を読み取ってLCD1に表示させることができる。また、前記制御部3は、前記コンピュータ通信網30を介して映像入力装置31にアクセスすることにより、ユーザーが希望する実況地点からのユーザーが希望する所定方向の実況映像を取り込み、LCD21に表示させることができる。
また、制御部23は、ユーザーが、「自分が現在居る現在地点から進行方向に向かう方向にある地点で且つ現在地点から最も近い実況地点の実況映像であって、その地点から自分の進行方向に向かって撮像した実況映像を、表示せよ」と指令したときは、前記GPS受信機22からユーザーの現在位置を座標データ(緯度データ及び経度データ)として受け取り、且つ、前記進行方向入力部26からユーザーの進行方向のデータを受け取り、その座標データ及び進行方向データに基づいて、前記映像入力装置31にアクセスして、該当の座標データに近い場所にある実況地点のもので且つユーザーの進行方向に近い方向の実況映像のデータをオンラインで読み取り、その実況映像をリアルタイムにLCD21に表示させる。
Next, FIG. 6 is a block diagram showing Embodiment 5 of the present invention. In FIG. 6, reference numerals 21, 22, 23, 26 and 27 are the same as those in FIG. In FIG. 6, 34 is a CD-ROM player (reproducing device) connected to the control unit 23, and 35 is a CD-ROM that can be read by the CD-ROM player 34. In this CD-ROM 35, for example, a map database is recorded in which an entire map of Japan is recorded in association with position identification data such as coordinate data (latitude / longitude data), place name, facility name, facility identification data, and the like. . In FIG. 6, reference numeral 31 denotes a video input device connected to a computer communication network 30 such as the Internet, which is the same as the video input device 25 of FIG.
The control unit 3 reads the CD-ROM 15 by the CD-ROM player 14, thereby reading a map of a predetermined area including a position desired by the user and displaying it on the LCD 1. In addition, the control unit 3 accesses the video input device 31 via the computer communication network 30 to capture the live video in the predetermined direction desired by the user from the live location desired by the user and display it on the LCD 21. be able to.
In addition, the control unit 23 displays a live video of a live spot that is in a direction from the current location where the user is currently in the direction of travel and closest to the current location, and from that location to the travel direction of the user. When the command to display the live video imaged toward the user is received as the coordinate data (latitude data and longitude data) from the GPS receiver 22, and the user inputs from the traveling direction input unit 26 The data input direction 31 is received, and the video input device 31 is accessed based on the coordinate data and the direction data. The live video of the direction is read online, and the live video is displayed on the LCD 21 in real time.

なお、ここで、本明細書の中で提案している諸発明(「本願の特許請求の範囲に記載された発明」そのものではないもの)について、その効果を説明しておく。
(1) 本明細書で開示した発明による実況映像提供システムによれば、ユーザーは、地図を見ながら、例えば希望の地点をポインティングデバイスで指定する(例えばマウスでクリックする)だけで、その地点の今の現時点の状況を実況映像で見ることができる。また、ユーザーは、いちいちポインティングデバイスで指定しなくても、予めコンピュータプログラムで実況映像を希望する複数の地点の地点識別データを順次入力するようにしておけば、コンピュータにより次々と希望する地点に対応する実況映像を表示させることができる。よって、ここでも、ユーザーは地図を見ながら、実際には行っていないのに実際に行っているのと同じ感動を得られる「バーチァル・トラベル(仮想旅行)」を実現できるようになる。
また、例えば、全世界の地図から全世界の各地の実況映像をみながら、全世界のユーザーが一つの宝を探していくというような、コンピュータ通信ネットワークの世界の中での「宝探し」ゲームを世界中で同時に競うことも可能になる。
(2)また、本明細書で開示した発明による実況映像提供システムによれば、ユーザーは、ある地点の実況映像を見ながら、その実況映像の識別データから、対応する地図上の地点を表示させることができるので、ある実況映像を見て、その実況映像が見える場所が地図上のどこなのか(どういう地名・施設名なのかなど)を、容易に知ることができるようになる。
(3)また、本明細書で開示した発明による実況映像提供システムによれば、ユーザーは、自分の希望する文字列等により構成される検索データを入力することにより、その検索データに対応する一つ又は複数の地点の実況映像を、その場でリアルタイムに見ることが可能になる。特に、遠隔の複数の地点における今この瞬間の実況を映像でリアルタイムに順次見ることができる「バーチャル・トラベル(仮想旅行)」を提供できるようになる。
(4)なお、本明細書で開示した発明において、前記各実況映像を特定するための実況映像識別データを、前記映像入力手段が設けられた各地点を示す位置データとその映像入力手段が撮影した方向を示す方向データとから構成するようにすれば、同じ地点でも、見る方向によって異なる実況映像を提供できるようになり、「生の現場」をより詳細にリアルタイムに再現できる実況映像を提供できるようになる。
(5)また、本明細書で開示した発明では、前記表示手段に表示された実況映像の中のユーザーが指定した部分に対して他の部分と区別するためのマーキングをするためのマーキング手段を備えることにより、実況映像(動画でも静止画でもよい)の中のある部分(例えば、特定の建造物、橋、道路、河川、公園など)のみをマーキングできるので、実況映像を自分の目的に応じて見やすい形に加工できるようになる。
(6)また、本明細書で開示した発明において、前記映像入力手段に、その地点において発生している音声をリアルタイムに入力する手段をも含ませ、これらの入力された音声をそれぞれリアルタイムに無線又は有線で取り込む(インターネット用ブラウザーによる閲覧する場合や通信ネットワークにより送信させる場合などを含む)ことにより、ユーザーは、実況映像(現場の生の映像。動画又は静止画)だけでなく、「現場の生の音声」をも併せて知ることが可能になる。
(7)また本発明では、さらに、前記映像入力手段の近傍に備えられ、匂いセンサと、この匂いセンサからの信号を匂いデジタルデータに変換する手段とから構成され、前映像入力手段の設置された地点又はその周辺の匂いを入力するための匂い入力手段と、この匂い入力手段からの匂いデータを、その匂いに近似した匂いを発生させるための芳香剤調合データに変換する手段と、前記表示手段の近傍に備えられ、前記芳香剤調合データから芳香剤を調合して所望の匂いを発生させる匂い発生手段と、を含むようにすることにより、ユーザーは、前記の実況映像と実際の音声だけでなく、現場の実際の匂いをも、リアルタイムに遠隔地において知ることができるようになる。
(8)(当初明細書の段落0007の内容を2009/6/1付け補正によりこちらに移動したもの)
本明細書で開示した発明では、ユーザーの推測現在位置をGPS受信機などの現在位置推測手段(現在位置特定手段と呼ぶこともある)により求め、この「求められた推測現在位置に対応する実況地点の実況映像」をオンラインで取り出して表示するようにしている。
したがって、ユーザーは、例えば、次のような使い方が可能になる。例えば、自分が車両などに乗って移動しているとき、GPS受信機からのデータにより自分の「推測現在位置」を求めて、その「推測現在位置に対応する地図上の地点」を地図画面上で求めて見る(このためのシステムは、従来より、自動車用の目的地までのルートの地図探索・運転案内システムとして実用化されている)。また、同時に、ユーザーは、通信ネットワークを介して該当する映像入力手段にアクセスし、前記の「推測現在位置に対応する地図上の地点」に対応する実況映像を、オンラインで取り出して画面上に表示させて見る。これにより、ユーザーは、目的地へのルートを記載した地図を見ながら、地図上に表示されている推測現在位置(GPS受信機により計測されるユーザーの推測現在位置が画面の地図上に矢印などで表示されるシステムは、自動車の運転案内システムとして既に多数市販されている)と実況映像とが一致しているかどうかを確認し、一致していれば、GPS受信機のデータから得られた「推測現在位置」が計測誤差なく正しいことを確認できる。また一致していなければ、GPS受信機のデータから得られた「推測現在位置」が間違っていることが分かる。
すなわち、ユーザーがGPS受信機からの推測現在位置に基づいて地図データベースから推測現在位置を含む所定領域の地図を読み出して表示し、その表示された地図の上の「推測現在位置に近い一つ又は複数の実況地点の実況映像」をオンラインで取り出すようにすれば、GPS受信機からの「推測現在位置」が正しいかどうかをユーザー自身が確認できる。すなわち、従来より存在しているGPS受信機を利用して、GPS受信機からの「推測現在位置」(緯度データと経度データの座標データ)に基づいて地図データベースから推測現在位置を含む所定領域の地図を読み出して表示し、その表示された地図上に表示された「推測現在位置(座標データ)又はそれと近い地点の実況映像」をオンラインで取り出すようにすれば、GPS受信機からの「推測現在位置」が計測誤差などが無く正しいものかどうかを、確認することができる。つまり、「表示された実況映像」が「ユーザーの現在の位置から実際に見えるもの」と一致していれば、GPS受信機からの[推測現在位置]は正しいものと判定できる(従来は、ユーザーは、地図だけでは、GPS受信機による現在位置が正しいかどうかを自分で確かめることが困難だった)。
また、本明細書で開示した発明では、前記映像入力手段は、前記各実況地点から複数の方向に向かって見える映像を撮像するものであり、前記各実況地点を互いに識別するための実況地点識別データは、前記映像入力手段が設けられた各実況地点の位置を示す位置データとその映像入力手段が撮影する方向を示す方向データとから構成されており、前記現在位置特定(推測)手段は、ユーザーの現在位置を特定(推測)する手段とユーザーの進行方向を特定する手段とを含んでおり、前記実況地点識別データ選択手段は、前記現在位置特定(推測)手段により特定(推測)されたユーザーの推測現在位置(緯度データ及び経度データによる座標データなど)及びユーザーの進行方向(東西南北など)に基づいて、ユーザーの「推測現在位置に(最も)近い実況地点」を示し且つユーザーの進行方向に(最も)近い方向の実況地点識別データを選択するものである。よって、車両などで移動中のユーザーは、画面に表示された「地図上の自分の推測現在位置(GPS受信機からの自分の推測現在位置が矢印などで表示される)」を見ながら、同時に、前記GPS受信機からの「推測現在位置に対応する地図上の地点を示す実況映像」を見ることができ、「推測現在位置に対応する地図上の地点を示す実況映像」と「自分の位置から実際に見える風景」とを照らし合わせて、GPSにより計測された「推測現在位置」が本当に正しいかどうかを確認することができる。
Here, the effects of various inventions proposed in this specification (not “the invention described in the claims of the present application” itself) will be described.
(1) According to the live video providing system according to the invention disclosed in the present specification, a user can specify a desired point with a pointing device (for example, click with a mouse) while viewing the map. You can see the current situation with live video. Also, even if the user does not specify each with a pointing device, if the point identification data of multiple points for which live video is desired is input sequentially in advance by a computer program, the computer will respond to the desired points one after another. Live video can be displayed. Therefore, the user can also realize “virtual travel” while looking at the map and can get the same impression as if he / she did not actually go.
Also, for example, a “treasure hunting” game in the world of computer communication networks where users from all over the world look for a single treasure while watching live video from around the world from a map of the whole world. It will be possible to compete all over the world at the same time.
(2) Also, according to the live video providing system according to the invention disclosed in this specification, the user displays the corresponding point on the map from the live video identification data while viewing the live video of the live spot. It is possible to see a live video and easily know where the live video can be seen on the map (what kind of place name / facility name, etc.).
(3) Further, according to the live video providing system according to the invention disclosed in this specification, the user inputs search data composed of a character string or the like desired by the user, so that the user can respond to the search data. It is possible to view live video of one or more points on the spot in real time. In particular, it will be possible to provide “virtual travel” in which the actual situation at this moment in a plurality of remote locations can be sequentially viewed in real time.
(4) In the invention disclosed in this specification, the live video identification data for specifying each live video is captured by the position data indicating each point where the video input unit is provided and the video input unit. If it is made up of direction data indicating the direction, the live video can be provided differently depending on the viewing direction even at the same point, and the live video can be provided in more detail in real time. It becomes like this.
(5) Further, in the invention disclosed in the present specification, marking means for marking the part specified by the user in the live video displayed on the display means to distinguish it from other parts is provided. By preparing, you can mark only certain parts (eg specific buildings, bridges, roads, rivers, parks, etc.) in live video (which can be video or still image), so live video according to your purpose Can be processed into easy-to-see shapes.
(6) In the invention disclosed in the present specification, the video input means also includes means for inputting the sound generated at the point in real time, and each of the input sounds is wirelessly transmitted in real time. Or by wired capture (including browsing with an internet browser or sending it over a communication network), users can not only view live video (live video, still images), but also “ It becomes possible to know "live voice" as well.
(7) In the present invention, it is further provided in the vicinity of the video input means, and includes an odor sensor and a means for converting a signal from the odor sensor into odor digital data. Odor input means for inputting the odor at or around the spot, means for converting the odor data from the odor input means into fragrance preparation data for generating an odor similar to the odor, and the display Odor generating means for generating a desired odor by preparing a fragrance from the fragrance preparation data, so that the user can obtain only the live video and the actual sound. In addition, the actual odor of the site can be known at a remote location in real time.
(8) (The content of paragraph 0007 of the original specification has been moved here by amending 2009/6/1)
In the invention disclosed in the present specification, the estimated current position of the user is obtained by current position estimating means such as a GPS receiver (sometimes referred to as current position specifying means), and this “actual situation corresponding to the obtained estimated current position is determined. "Live video of the point" is retrieved online and displayed.
Therefore, the user can use the following, for example. For example, when you are moving on a vehicle or the like, find your “estimated current position” based on data from the GPS receiver, and display the “point on the map corresponding to the estimated current position” on the map screen. (The system for this purpose has been put to practical use as a map search / driving guidance system for routes to destinations for automobiles). At the same time, the user accesses the corresponding video input means via the communication network, and retrieves the live video corresponding to the “point on the map corresponding to the estimated current position” online and displays it on the screen. Let me see. As a result, the user can see the estimated current position displayed on the map while viewing the map that describes the route to the destination (the estimated current position of the user measured by the GPS receiver is The system displayed in (1) is already available on the market as a car driving guidance system) and confirms whether or not the live video matches, and if they match, it is obtained from the GPS receiver data. It can be confirmed that “the estimated current position” is correct without any measurement error. If they do not match, it is understood that the “estimated current position” obtained from the GPS receiver data is incorrect.
That is, the user reads out and displays a map of a predetermined area including the estimated current position from the map database based on the estimated current position from the GPS receiver, and displays “one close to the estimated current position on the displayed map or If the “live video of multiple live spots” is extracted online, the user can confirm whether the “estimated current position” from the GPS receiver is correct. That is, using a conventional GPS receiver, a predetermined area including the estimated current position from the map database based on the “estimated current position” (latitude data and longitude data coordinate data) from the GPS receiver. If the map is read out and displayed, and the "live image of the estimated current position (coordinate data) or a point close to it" displayed on the displayed map is retrieved online, the "estimated current" from the GPS receiver It is possible to confirm whether the “position” is correct without any measurement error. In other words, if the “displayed live video” matches “what is actually visible from the user's current position”, the [estimated current position] from the GPS receiver can be determined to be correct (previously, the user It was difficult to confirm by myself whether the current position by the GPS receiver was correct with the map alone).
Further, in the invention disclosed in the present specification, the video input means captures an image that is visible from the respective live spots in a plurality of directions, and the live spot identification for distinguishing the live spots from each other. The data is composed of position data indicating the position of each live spot where the video input means is provided and direction data indicating the direction in which the video input means captures, and the current position specifying (estimating) means, Means for specifying (estimating) the current position of the user and means for specifying the direction of travel of the user, and the live spot identification data selecting means is specified (estimated) by the current position specifying (estimating) means Based on the user's estimated current position (such as coordinate data based on latitude and longitude data) and the user's direction of travel (such as east, west, north, and south) The most) near commentary point "it is shown and in the traveling direction of the user (the most) and selects the close direction Commentary point identification data. Therefore, a user who is moving on a vehicle or the like is simultaneously viewing the “your current estimated position on the map (your current estimated position from the GPS receiver is displayed with an arrow)” at the same time. From the GPS receiver, it is possible to see “the live video showing the point on the map corresponding to the estimated current position”, “the live video showing the point on the map corresponding to the estimated current position” and “your position The “estimated current position” measured by the GPS can be confirmed by comparing with the “landscape that can be actually seen”.

本発明の実施例1又は2のハードウェア構成を示す図である。It is a figure which shows the hardware constitutions of Example 1 or 2 of this invention. 本発明の実施例1又は2の概念的構成を示す図である。It is a figure which shows the notional structure of Example 1 or 2 of this invention. 本発明の実施例1のディスプレイの構成を示す図である。It is a figure which shows the structure of the display of Example 1 of this invention. 本発明の実施例1においてディスプレイに表示される地図の一例を示す図である。It is a figure which shows an example of the map displayed on a display in Example 1 of this invention. 本発明の実施例4を示すブロック図である。It is a block diagram which shows Example 4 of this invention. 本発明の実施例5を示すブロック図である。It is a block diagram which shows Example 5 of this invention.

符号の説明Explanation of symbols

1 パーソナルコンピュータ(パソコン)
2 制御装置
3 ハードディスク装置
4 CD−ROM
5 CD−ROMドライブ5
6 キーボード
7 ディスプレイ
7a ディスプレイの上半分
7b ディスプレイの下半分
8 スピーカ
10 公衆回線
11 中継サービス用コンピュータ
12,12a,12b ビデオカメラ
13,13a,13b マイク
21 LCD. 22 GPS受信機. 23 制御部.
24 地図データベース用サーバー(コンピュータ).
25 映像入力装置. 26 キーボード. 27 マウス.
30 コンピュータ通信網. 31 映像入力装置.
34 CD−ROMプレーヤ. 35 CD−ROM
1 Personal computer
2 Control device 3 Hard disk device 4 CD-ROM
5 CD-ROM drive 5
6 Keyboard 7 Display 7a Upper half of display 7b Lower half of display 8 Speaker 10 Public line 11 Relay service computer 12, 12a, 12b Video camera 13, 13a, 13b Microphone 21 LCD. 22 GPS receiver. 23 Control unit.
24 Map database server (computer).
25 Video input device. 26 Keyboard. 27 Mouse.
30 Computer communication network. 31 Video input device.
34 CD-ROM player. 35 CD-ROM

Claims (6)

一つ若しくは複数の場所の映像を略リアルタイムに取得するための映像取得手段と、
前記映像取得手段により取得された一つ若しくは複数の場所の映像又は前記映像に基づいて得られる映像又は前記映像を識別するための識別データを、オンラインで略リアルタイムに、ユーザー側に向けて送信するための映像等送信手段と、
ユーザー側に備えられ、前記映像等送信手段により送信された映像等を、受信するための映像等受信手段と、
ユーザー側に備えられ、前記映像等受信手段により受信された映像又は前記受信された識別データから特定される映像又は前記各映像に基づいて得られる映像を、略リアルタイムに表示するための映像表示手段と、
「前記映像取得手段が配置されているか若しくは前記映像取得手段が映像取得の対象としている、一つ若しくは複数の場所又はその近傍」に存在している匂い情報を、取得するための匂い情報取得手段と、
前記匂い情報取得手段により取得された匂い情報又はこれに基づいて得られる情報(芳香成分を示す情報など)を、オンラインで略リアルタイムに、前記ユーザー側に送信するための匂い情報等送信手段と、
ユーザー側に備えられ、前記匂い情報等送信手段により送信された情報を受信するための匂い情報等受信手段と、
ユーザー側に備えられ、前記匂い情報等受信手段により受信された情報又はこれに基づいて得られる情報に基づいて、「前記映像表示手段により表示されている映像の場所又はその近傍」に存在している匂い又はこれに近似する匂いを発生させるための匂い発生手段と、
を備えたことを特徴とする映像及び匂い提供システム。
Video acquisition means for acquiring video of one or a plurality of locations in substantially real time;
The video of one or a plurality of places acquired by the video acquisition means, the video obtained based on the video, or the identification data for identifying the video is transmitted online to the user side in substantially real time. Video transmission means for,
Video etc. receiving means for receiving the video etc. provided on the user side and transmitted by the video etc. transmitting means;
Video display means provided on the user side for displaying the video received by the video receiving means, the video specified from the received identification data, or the video obtained based on each video in substantially real time. When,
Odor information acquisition means for acquiring odor information existing in “one or a plurality of places or the vicinity thereof where the video acquisition means is arranged or the video acquisition means is a target of video acquisition” When,
Odor information acquired by the odor information acquisition means or information obtained based on the odor information (information indicating fragrance components, etc.), such as odor information transmission means for transmitting to the user side in substantially real time online;
Odor information receiving means for receiving information transmitted by the odor information transmitting means provided on the user side;
Based on the information received by the receiving means such as the scent information or information obtained based on the information provided on the user side, it exists in “the location of the video displayed by the video display means or its vicinity” Odor generating means for generating a scent or an scent similar thereto,
A video and odor providing system characterized by comprising:
一つ若しくは複数の場所の映像を略リアルタイムに取得するための映像取得手段と、
ユーザー側において前記取得された映像又は前記映像に基づいて得られる映像が略リアルタイムに表示されるように、前記映像取得手段により取得された一つ若しくは複数の場所の映像又は前記映像に基づいて得られる映像又は前記映像を識別するための識別データを、オンラインで略リアルタイムにユーザー側に向けて送信するための映像等送信手段と、
「前記映像取得手段が配置されているか若しくは前記映像取得手段が映像取得の対象としている、一つ若しくは複数の場所又はその近傍」に存在している匂い情報を、取得するための匂い情報取得手段と、
ユーザー側において「ユーザー側で表示されている前記映像の場所もしくはその近傍の匂い又はこれに近似する匂い」が発生されるように、前記匂い情報取得手段により取得された匂い情報又はこれに基づいて得られる情報(芳香成分を示す情報など)を、オンラインで略リアルタイムに前記ユーザー側に送信するための匂い情報等送信手段と、
を備えたことを特徴とする映像及び匂い提供システム。
Video acquisition means for acquiring video of one or a plurality of locations in substantially real time;
Obtained based on one or a plurality of place images acquired by the image acquisition means or the image so that the user side displays the acquired image or an image obtained based on the image in substantially real time. A transmission means for transmitting video or identification data for identifying the video to the user side in substantially real time online; and
Odor information acquisition means for acquiring odor information existing in “one or a plurality of places or the vicinity thereof where the video acquisition means is arranged or the video acquisition means is a target of video acquisition” When,
The odor information acquired by the odor information acquisition means or based on the odor information so that a "scent of the image displayed on the user side or its vicinity or an odor similar thereto" is generated on the user side Transmission means such as scent information for transmitting the obtained information (information indicating aroma components, etc.) online to the user side in substantially real time;
A video and odor providing system characterized by comprising:
ユーザー側に備えられ、一つ又は複数の遠隔の場所を示す映像又は前記映像に基づいて得られる映像又は前記映像を識別するための識別データを、オンラインで略リアルタイムに、ネットワークを介して受信するための映像等受信手段と、
ユーザー側に備えられ、前記映像等受信手段により受信された映像又は前記受信された識別データにより特定される映像又は前記各映像に基づいて得られる映像を、略リアルタイムに表示するための映像表示手段と、
ユーザー側に備えられ、「前記映像の対象となっている、一つ若しくは複数の場所又はその近傍」に存在している匂い情報又はこれに基づいて得られる情報(芳香成分を示す情報など)を、オンラインで略リアルタイムに、ネットワークを介して受信するための匂い情報等受信手段と、
ユーザー側に備えられ、前記匂い情報等受信手段により受信された情報又はこれに基づいて得られる情報に基づいて、「前記映像表示手段により表示されている映像の場所もしくはその近傍」に存在している匂い又はこれに近似する匂いを発生させるための匂い発生手段と、
を備えたことを特徴とする映像及び匂い提供システム。
A video provided on the user side that shows one or a plurality of remote locations, a video obtained based on the video, or identification data for identifying the video is received online via a network in substantially real time. Video and other receiving means for
Video display means provided on the user side for displaying the video received by the video receiving means, the video specified by the received identification data, or the video obtained based on each video in substantially real time. When,
Odor information that is provided on the user side and is present in “one or more places or its vicinity that is the object of the image” or information obtained based on this (information indicating aroma components, etc.) Odor information receiving means for receiving via the network in real time online,
Based on the information received by the receiving means such as the scent information or information obtained based on the information provided on the user side, it exists in “the location of the video displayed by the video display means or its vicinity” Odor generating means for generating a scent or an scent similar thereto,
A video and odor providing system characterized by comprising:
ユーザーが一つ又は複数の遠隔の場所やその場所での出来事に関する実際の雰囲気や状況(例えば遠隔地にある飲食店の店内の雰囲気や来店客の混雑状況など)を略リアルタイムに知ることを可能にするための映像及び匂い提供システムであって、
一つ若しくは複数の場所の映像を略リアルタイムに取得するための映像取得手段と、
前記映像取得手段により取得された一つ若しくは複数の場所の映像又は前記映像に基づいて得られる映像又は前記映像を識別するための識別データを、オンラインで略リアルタイムに、ユーザー側に向けて送信するための映像等送信手段と、
ユーザー側に備えられ、前記映像等送信手段により送信された映像等を受信するための映像等受信手段と、
ユーザー側に備えられ、前記映像等受信手段により受信された映像又は前記受信された識別データにより特定される映像又は前記各映像に基づいて得られる映像を、略リアルタイムに表示するための映像表示手段と、
「前記映像取得手段が配置されているか若しくは前記映像取得手段が映像取得の対象としている、一つ若しくは複数の場所又はその近傍」に存在している匂い情報を、取得するための匂い情報取得手段と、
前記匂い情報取得手段により取得された匂い情報又はこれに基づいて得られる情報(芳香成分を示す情報など)を、オンラインで略リアルタイムに、前記ユーザー側に送信するための匂い情報等送信手段と、
ユーザー側に備えられ、前記匂い情報等送信手段により送信された情報を受信するための匂い情報等受信手段と、
ユーザー側に備えられ、前記匂い情報等受信手段により受信された情報又はこれに基づいて得られる情報に基づいて、「前記映像表示手段により表示されている映像の場所又はその近傍」に存在している匂い又はこれに近似する匂いを発生させるための匂い発生手段と、
を備えたことを特徴とする映像及び匂い提供システム。
Allows users to know in real time the actual atmosphere and situation of one or more remote locations and the events at that location (for example, the atmosphere of a restaurant in a remote location or the crowded situation of customers) An image and odor providing system for
Video acquisition means for acquiring video of one or a plurality of locations in substantially real time;
The video of one or a plurality of places acquired by the video acquisition means, the video obtained based on the video, or the identification data for identifying the video is transmitted online to the user side in substantially real time. Video transmission means for,
Video etc. receiving means for receiving video etc. provided on the user side and transmitted by the video etc. transmitting means,
Video display means provided on the user side for displaying the video received by the video receiving means, the video specified by the received identification data, or the video obtained based on each video in substantially real time. When,
Odor information acquisition means for acquiring odor information existing in “one or a plurality of places or the vicinity thereof where the video acquisition means is arranged or the video acquisition means is a target of video acquisition” When,
Odor information acquired by the odor information acquisition means or information obtained based on the odor information (information indicating fragrance components, etc.), such as odor information transmission means for transmitting to the user side in substantially real time online;
Odor information receiving means for receiving information transmitted by the odor information transmitting means provided on the user side;
Based on the information received by the receiving means such as the scent information or information obtained based on the information provided on the user side, it exists in “the location of the video displayed by the video display means or its vicinity” Odor generating means for generating a scent or an scent similar thereto,
A video and odor providing system characterized by comprising:
ユーザーが一つ又は複数の遠隔の場所やその場所での出来事に関する実際の雰囲気や状況(例えば遠隔地にある飲食店の店内の雰囲気や来店客の混雑状況など)を略リアルタイムに知ることを可能にするための映像及び匂い提供システムであって、
一つ若しくは複数の場所の映像を略リアルタイムに取得するための映像取得手段と、
ユーザー側において前記取得された映像又は前記映像に基づいて得られる映像が略リアルタイムに表示されるように、前記映像取得手段により取得された一つ若しくは複数の場所の映像又は前記映像に基づいて得られる映像又は前記映像を識別するための識別データを、オンラインで略リアルタイムにユーザー側に向けて送信するための映像等送信手段と、
「前記映像取得手段が配置されているか若しくは前記映像取得手段が映像取得の対象としている、一つ若しくは複数の場所又はその近傍」に存在している匂い情報を、取得するための匂い情報取得手段と、
ユーザー側において「ユーザー側で表示されている前記映像の場所もしくはその近傍の匂い又はこれに近似する匂い」が発生されるように、前記匂い情報取得手段により取得された匂い情報又はこれに基づいて得られる情報(芳香成分を示す情報など)を、オンラインで略リアルタイムに前記ユーザー側に送信するための匂い情報等送信手段と、
を備えたことを特徴とする映像及び匂い提供システム。
Allows users to know in real time the actual atmosphere and situation of one or more remote locations and the events at that location (for example, the atmosphere of a restaurant in a remote location or the crowded situation of customers) An image and odor providing system for
Video acquisition means for acquiring video of one or a plurality of locations in substantially real time;
Obtained based on one or a plurality of place images acquired by the image acquisition means or the image so that the user side displays the acquired image or an image obtained based on the image in substantially real time. A transmission means for transmitting video or identification data for identifying the video to the user side in substantially real time online; and
Odor information acquisition means for acquiring odor information existing in “one or a plurality of places or the vicinity thereof where the video acquisition means is arranged or the video acquisition means is a target of video acquisition” When,
The odor information acquired by the odor information acquisition means or based on the odor information so that a "scent of the image displayed on the user side or its vicinity or an odor similar thereto" is generated on the user side Transmission means such as scent information for transmitting the obtained information (information indicating aroma components, etc.) online to the user side in substantially real time;
A video and odor providing system characterized by comprising:
ユーザーが一つ又は複数の遠隔の場所やその場所での出来事に関する実際の雰囲気や状況(例えば遠隔地にある飲食店の店内の雰囲気や来店客の混雑状況など)を略リアルタイムに知ることを可能にするための映像及び匂い提供システムであって、
ユーザー側に備えられ、一つ又は複数の遠隔の場所を示す映像又は前記映像に基づいて得られる映像又は前記映像を識別するための識別データを、オンラインで略リアルタイムに、ネットワークを介して受信するための映像受信手段と、
ユーザー側に備えられ、前記映像等受信手段により受信された映像又は前記受信された識別データにより特定される映像又は前記各映像に基づいて得られる映像を、略リアルタイムに表示するための映像表示手段と、
ユーザー側に備えられ、「前記映像の対象となっている、一つ若しくは複数の場所又はその近傍」に存在している匂い情報又はこれに基づいて得られる情報(芳香成分を示す情報など)を、オンラインで略リアルタイムに、ネットワークを介して受信するための匂い情報等受信手段と、
ユーザー側に備えられ、前記匂い情報等受信手段により受信された情報又はこれに基づいて得られる情報に基づいて、「前記映像表示手段により表示されている映像の場所もしくはその近傍」に存在している匂い又はこれに近似する匂いを発生させるための匂い発生手段と、
を備えたことを特徴とする映像及び匂い提供システム。
Allows users to know in real time the actual atmosphere and situation of one or more remote locations and the events at that location (for example, the atmosphere of a restaurant in a remote location or the crowded situation of customers) An image and odor providing system for
A video provided on the user side that shows one or a plurality of remote locations, a video obtained based on the video, or identification data for identifying the video is received online via a network in substantially real time. Video receiving means for
Video display means provided on the user side for displaying the video received by the video receiving means, the video specified by the received identification data, or the video obtained based on each video in substantially real time. When,
Odor information that is provided on the user side and is present in “one or more places or its vicinity that is the object of the image” or information obtained based on this (information indicating aroma components, etc.) Odor information receiving means for receiving via the network in real time online,
Based on the information received by the receiving means such as the scent information or information obtained based on the information provided on the user side, it exists in “the location of the video displayed by the video display means or its vicinity” Odor generating means for generating a scent or an scent similar thereto,
A video and odor providing system characterized by comprising:
JP2005380704A 1996-06-11 2005-12-30 Video and odor providing system Expired - Fee Related JP4473216B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005380704A JP4473216B2 (en) 1996-06-11 2005-12-30 Video and odor providing system

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP08172930 1996-06-11
JP2005380704A JP4473216B2 (en) 1996-06-11 2005-12-30 Video and odor providing system

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2004291022A Division JP2005102236A (en) 1996-06-11 2004-10-04 System for providing images of vicinity of current position at approximately real time

Publications (3)

Publication Number Publication Date
JP2006136019A JP2006136019A (en) 2006-05-25
JP2006136019A5 JP2006136019A5 (en) 2009-02-26
JP4473216B2 true JP4473216B2 (en) 2010-06-02

Family

ID=36729049

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005380704A Expired - Fee Related JP4473216B2 (en) 1996-06-11 2005-12-30 Video and odor providing system

Country Status (1)

Country Link
JP (1) JP4473216B2 (en)

Also Published As

Publication number Publication date
JP2006136019A (en) 2006-05-25

Similar Documents

Publication Publication Date Title
US9292516B2 (en) Generation, organization and/or playing back of content based on incorporated parameter identifiers
JP4323123B2 (en) A mobile system that identifies sites of interest
JP7192923B2 (en) Apparatus, method, program, system
JPH11316769A (en) Virtual travel system
JP5184217B2 (en) Image photographing apparatus, additional information providing server, and additional information filtering system
JP4637889B2 (en) Virtual space broadcasting device
US6906643B2 (en) Systems and methods of viewing, modifying, and interacting with “path-enhanced” multimedia
US20050192025A1 (en) Method and apparatus for an interactive tour-guide system
US20030214530A1 (en) Multiuser real-scene tour simulation system and method of the same
JP2010170518A (en) Method for forming image database, navigation method, database system, mobile device for navigation, navigation system, and program for forming the image database
JP2012527053A (en) Search system and method based on orientation
JP2003264740A (en) Observation scope
JP4591932B2 (en) A device for viewing live footage suitable for use in virtual travel, etc.
JP4891209B2 (en) Real-time live video providing system
JPH1066058A (en) Live image providing system
JP2013232238A (en) Stay-at-home travel system
KR20040068341A (en) Description generation in the form of metadata
JP4473216B2 (en) Video and odor providing system
JP2000035973A5 (en)
JP2000035973A (en) Remote odor generation system
JP2005102236A (en) System for providing images of vicinity of current position at approximately real time
JP2019091455A (en) Information processing system, information processing system control method, program, and recording medium
JP2008118691A (en) Stay-at-home travel system
JP2002223432A (en) Stay-at-home travel system
KR100726075B1 (en) Method and system for providing contents including location information

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060223

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070910

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080325

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080401

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080617

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080618

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20081216

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090107

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090331

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090601

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100302

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100304

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130312

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130312

Year of fee payment: 3

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101215

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130312

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130312

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130312

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130312

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140312

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees