[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP5176311B2 - 画像表示システム、表示装置、表示方法 - Google Patents

画像表示システム、表示装置、表示方法 Download PDF

Info

Publication number
JP5176311B2
JP5176311B2 JP2006330832A JP2006330832A JP5176311B2 JP 5176311 B2 JP5176311 B2 JP 5176311B2 JP 2006330832 A JP2006330832 A JP 2006330832A JP 2006330832 A JP2006330832 A JP 2006330832A JP 5176311 B2 JP5176311 B2 JP 5176311B2
Authority
JP
Japan
Prior art keywords
image
display
imaging
image data
map
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2006330832A
Other languages
English (en)
Other versions
JP2008147864A (ja
Inventor
曜一郎 佐古
敬治 木村
雅明 鶴田
正道 飛鳥井
大二 伊藤
望 尾崎
彰信 杉野
英彦 關澤
米太郎 戸塚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority to JP2006330832A priority Critical patent/JP5176311B2/ja
Application filed by Sony Corp filed Critical Sony Corp
Priority to EP07831223.8A priority patent/EP2090989B1/en
Priority to KR1020097011531A priority patent/KR101329419B1/ko
Priority to TW096141749A priority patent/TW200837713A/zh
Priority to PCT/JP2007/071491 priority patent/WO2008068990A1/ja
Priority to MYPI20091860 priority patent/MY151947A/en
Priority to US12/312,615 priority patent/US8473544B2/en
Priority to CNA2007800451131A priority patent/CN101578602A/zh
Priority to BRPI0719940A priority patent/BRPI0719940B1/pt
Priority to CA2670744A priority patent/CA2670744C/en
Publication of JP2008147864A publication Critical patent/JP2008147864A/ja
Application granted granted Critical
Publication of JP5176311B2 publication Critical patent/JP5176311B2/ja
Priority to US13/903,302 priority patent/US8949324B2/en
Priority to US14/511,059 priority patent/US20150022427A1/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/29Geographical information databases
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/40Information retrieval; Database structures therefor; File system structures therefor of multimedia data, e.g. slideshows comprising image and additional audio data
    • G06F16/48Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/40Information retrieval; Database structures therefor; File system structures therefor of multimedia data, e.g. slideshows comprising image and additional audio data
    • G06F16/48Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/487Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using geographical or spatial information, e.g. location
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • H04N23/661Transmitting camera control signals through networks, e.g. control via the Internet
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/64Constructional details of receivers, e.g. cabinets or dust covers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/82Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
    • H04N9/8205Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/78Television signal recording using magnetic recording
    • H04N5/782Television signal recording using magnetic recording on tape

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Library & Information Science (AREA)
  • Optics & Photonics (AREA)
  • Human Computer Interaction (AREA)
  • Remote Sensing (AREA)
  • Computer Hardware Design (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Studio Devices (AREA)
  • Television Signal Processing For Recording (AREA)

Description

本発明は、画像表示システム、表示装置、表示方法に関し、特に表示装置側での地図画像上での位置指定に基づいて、外部の撮像装置により撮像された画像表示を行う技術に関する。
特開2005−341604号公報 特開2005−337863号公報 特表2004−538681号公報 特表2004−537193号公報 特表2004−538679号公報
上記特許文献1にはデータ通信システムの一例が述べられている。
上記特許文献2にはカメラによって撮像された画像を用いて、カーナビゲーションシステムが有する立体地図を更新する技術が示されている。
上記特許文献3、4、5には、放送済み・記録済みの番組をWWW(World Wide Web)上で拡張して楽しむ試みが開示されている。
しかしながら従来は、地図画像に対してユーザが任意に位置を指定し、その位置の画像を見ることができるようにする技術は提案されていない。
そこで本発明は、ユーザが地図画像上で、或る位置を指定することで、その位置で実際に撮像された画像を見ることができるようにすることを目的とする。
本発明の画像表示システムは、表示装置と、人以外の移動体に装着されて画像撮像を行う撮像装置と、サーバ装置とを有して成り、上記表示装置と上記撮像装置は、それぞれ上記サーバ装置と通信可能とされている。そして上記撮像装置は、画像撮像を行う撮像手段と、位置情報および移動方向を検出する位置検出手段と、上記撮像手段の撮像により得られた画像データと、少なくとも、その画像データの撮像の際に上記位置検出手段で検出された位置情報および移動方向を含む付加データを、上記サーバ装置に対して送信させる送信制御処理を行う制御手段とを備える。上記サーバ装置は、地図データベースおよび上記撮像装置から送信されてくる上記画像データ並びに上記付加データを格納する格納手段と、上記表示装置から送信されてくる地名又は住所に基づいて上記地図データベースから表示させる地図画像を作成し上記表示装置に送信させ、上記表示装置から送信されてくる位置指定情報および移動方向指定情報に基づいて、上記格納手段に格納された画像データの検索を行い、検索された画像データを再生して上記表示装置に送信させる検索送信制御処理を行う制御手段とを備える。上記表示装置は、画像表示を行う表示手段と、上記地名又は住所を入力する入力処理、該入力処理で入力された地名又は住所を送信して地図画像を要求する地図画像要求送信処理、上記地図画像要求送信処理に応じて上記サーバ装置から送信されてくる地図画像を受信し上記表示手段に示させる地図表示処理、上記地図画像に対する入力に基づいて位置指定情報および移動方向指定情報を設定する位置指定処理、上記サーバ装置に上記位置指定情報および移動方向指定情報を送信して画像データを要求する画像要求送信処理、上記画像要求送信処理に応じて上記サーバ装置から送信されてくる画像データを受信し受信した画像データに基づく表示動作を上記表示手段に実行させる表示処理、を行う制御手段とを備える。
上記移動体は、地上移動機器、又は海上移動機器、又は海中移動機器、又は航空移動機器、又は宇宙移動機器のいずれかである。
上記撮像装置は、さらに現在日時を検出する日時検出手段を備え、上記撮像装置の制御手段は、上記付加データに、画像データの撮像の際に上記日時検出手段で検出された日時情報を含むようにし、上記表示装置の制御手段は、日時を指定する日時指定情報を設定する日時指定処理を行うとともに、上記画像要求送信処理では、上記位置指定情報と上記移動方向指定情報とともに上記日時指定情報を上記サーバ装置に送信し、上記サーバ装置の制御手段は、上記検索送信制御処理の際に、上記表示装置から送信されてくる位置指定情報と移動方向指定情報および日時指定情報に基づいて、上記格納手段に格納された画像データの検索を行う。
本発明の表示装置は、画像表示を行う表示手段と、外部のサーバ装置との間でデータ通信を行う通信手段と、地名又は住所を入力する入力処理、該入力処理で入力された地名又は住所を上記通信手段により上記サーバ装置に送信して地図画像を要求する地図画像要求送信処理、上記地図画像要求送信処理に応じて上記サーバ装置から送信されてくる地図画像を受信し上記表示手段に示させる地図表示処理、上記地図画像に対する入力に基づいて位置指定情報および移動方向指定情報を設定する位置指定処理、上記通信手段により上記サーバ装置に上記位置指定情報および移動方向指定情報を送信して画像データを要求する画像要求送信処理、上記画像要求送信処理に応じて上記サーバ装置から送信されてくる、人以外の移動体で撮像された画像データを上記通信手段により受信させ受信した画像データに基づく表示動作を上記表示手段に実行させる表示処理、を行う制御手段とを備える。
また上記制御手段は、上記位置指定処理において、上記地図画像に対して指定入力された地点の緯度・経度の情報を、上記位置指定情報とする。
また上記制御手段は、さらに、日時を指定する日時指定情報を設定する日時指定処理を行うとともに、上記画像要求送信処理では、上記位置指定情報と上記移動方向指定情報とともに上記日時指定情報を上記サーバ装置に送信する処理を行う。
また上記表示手段は、使用者の目の前方に位置するように配置されて画像表示を行う構造とされる。
また人以外の移動体で画像撮像を行う撮像手段と、位置情報および移動方向を検出する位置検出手段とをさらに備え、上記制御手段は、上記撮像手段の撮像により得られた画像データと、少なくとも、その画像データの撮像の際に上記位置検出手段で検出された位置情報および移動方向を含む付加データを、上記通信手段から上記サーバ装置に対して送信させる送信制御処理も実行可能とされる。
本発明の表示方法は、地名又は住所を入力する入力処理ステップと、上記入力処理で入力された地名又は住所を外部のサーバ装置に送信して地図画像を要求する地図画像要求送信処理ステップと、地図画像要求送信処理に応じて上記サーバ装置から送信されてくる地図画像を受信し表示させる地図表示処理ステップと、上記地図画像に対する入力に基づいて位置指定情報および移動方向指定情報を設定する位置指定処理ステップと、上記サーバ装置に上記位置指定情報および移動方向指定情報を送信して画像データを要求する画像要求送信処理ステップと、上記画像要求送信処理に応じて上記サーバ装置から送信されてくる、人以外の移動体で撮像された画像データを受信し、受信した画像データに基づく表示を行う表示処理ステップとを備える。
を備える表示方法。
以上の本発明では、表示装置の使用者(ユーザ)は、地図画像上で位置を指定することで、その指定した位置において実際に撮像装置で撮像された画像を見ることができる。
例えば、外部の撮像装置として、他人が装着している撮像装置や、自動車、電車等に取り付けられた撮像装置、更には動物や鳥などに装着された撮像装置などを考える。そしてこれらの撮像装置によって撮像された画像データ(動画や静止画)が、撮像地点の位置情報を含む付加データとともにサーバ装置に送信され、サーバ装置において格納される。従ってサーバ装置では多数の撮像装置が各地で撮像した画像データが、位置情報とともに蓄積されていくことになる。
このようにしておくと、表示装置側で位置を指定して位置指定情報をサーバ装置に送信することで、サーバ装置は位置指定情報に基づいて画像データを検索できる。サーバ装置は位置指定情報に対応する画像データを検索し、それを表示装置に送信する。表示装置では受信した画像データを表示する。すると表示装置のユーザは、表示画像として、指定した地点で撮像された光景を見ることができる。
なお、本発明でいう地図画像とは、単に地上での道、地形、建物、自然物等を表した「地図」の画像のことだけでなく、海洋図、海中地形図、航空図、宇宙図など、或る特定の場所を指定することのできる各種の図の画像を含むものとする。
本発明によれば、表示装置のユーザは、地図画像上で位置を指定することで、その指定した位置において実際に撮像装置で撮像された画像を見ることができる。これにより本発明は、地図上で指定できる或る場所の光景を見て楽しみたい場合、地図上で指定できる或る場所の状況を知りたい場合など、ユーザの多様なニーズに対応できるシステム及び装置となる。また、地図画像上で位置を指定して、その位置の撮像画像を見ることができるということは、指定した位置の状況として、例えば地形、周りの建物や自然物の風景、道路の幅や車線数、日時に応じた様子などを知ることができるものであるため、いわゆるナビゲーションシステムとして拡張的な情報提供を行うことも可能となる。
以下、本発明の画像表示システム、表示装置、表示方法の実施の形態を説明する。実施の形態においては、撮像表示装置1又は表示装置40が、本発明請求項でいう表示装置に該当し、撮像表示装置1又は表示装置40の処理として本発明の表示方法が実行される。また撮像表示装置1又は撮像装置30が、本発明請求項でいう撮像装置に該当する。なお、従って実施の形態の撮像表示装置1は、本発明請求項でいう表示装置、撮像装置の双方として機能できるものである。
説明は次の順序で行う。
[1.撮像表示装置、撮像装置、表示装置の外観例]
[2.システム形態]
[3.撮像表示装置、撮像装置、表示装置、サーバ装置の構成例]
[4.システム動作例]
[5.実施の形態の効果、及び変形例、拡張例]
[1.撮像表示装置、撮像装置、表示装置の外観例]

図1に実施の形態の撮像表示装置1の外観例を示す。この撮像表示装置1は眼鏡型ディスプレイカメラとしてユーザが装着できるものとしている。
撮像表示装置1は、例えば両側頭部から後頭部にかけて半周回するようなフレームの構造の装着ユニットを持ち、図のように両耳殻にかけられることでユーザに装着される。
そしてこの撮像表示装置1は、図1のような装着状態において、ユーザの両眼の直前、即ち通常の眼鏡におけるレンズが位置する場所に、左眼用と右眼用の一対の表示パネル部2a、2bが配置される構成とされている。この表示パネル部2a、2bには、例えば液晶パネルが用いられ、透過率を制御することで、図のようなスルー状態、即ち透明又は半透明の状態とできる。表示パネル部2a,2bがスルー状態とされることで、眼鏡のようにユーザが常時装着していても、通常の生活には支障がない。
またユーザが装着した状態において、ユーザの視界方向を被写体方向として撮像するように、前方に向けて撮像レンズ3aが配置されている。
また撮像レンズ3aによる撮像方向に対して照明を行う発光部4aが、例えばLED(Light Emitting Diode)等により設けられる。
また、図では左耳側しか示されていないが、装着状態でユーザの右耳孔及び左耳孔に挿入できる一対のイヤホンスピーカ5aが設けられる。
また右眼用の表示部2の右方と、左眼用の表示部2の左方に、外部音声を集音するマイクロホン6a,6bが配置される。
なお図1は一例であり、撮像表示装置1をユーザが装着するための構造は多様に考えられる。一般に眼鏡型、或いは頭部装着型とされる装着ユニットで形成されればよく、その状態で例えばユーザの眼の前方に近接して表示パネル部2a、2bが設けられ、また撮像レンズ3aによる撮像方向がユーザの視界方向、つまりユーザの前方となるようにされていればよい。また表示パネル部2a,2bとして両眼に対応して表示部が一対設けられる構成の他、片側の眼に対応して1つ表示部が設けられる構成でもよい。
また撮像レンズ3aによる撮像方向が、ユーザの後方、側方など、視界方向以外の方向とされていてもよい。
またイヤホンスピーカ5aは、左右のステレオスピーカとせずに、一方の耳にのみ装着するために1つ設けられるのみでもよい。またマイクロホンも、マイクロホン6a,6bのうちの一方でもよい。さらには、撮像表示装置1としてマイクロホンやイヤホンスピーカを備えない構成も考えられる。
また発光部4aを設けない構成も考えられる。
撮像表示装置1として眼鏡型或いは頭部装着型の装着ユニットを有する例を示したが、例えばヘッドホン型、ネックバンドタイプ、耳掛け式など、どのような装着ユニットでユーザに装着されるものであってもよい。さらには、例えば通常の眼鏡やバイザー、或いはヘッドホン等に、クリップなどの取付具で取り付けることでユーザに装着させる形態であってもよい。また必ずしもユーザの頭部に装着されるものでなくても良い。
ところで図1の撮像表示装置1は、撮像のための構成部分と画像をモニタできる表示パネル部2a,2bが一体に形成されてユーザに装着される機器とした例であるが、ユーザが装着する機器としては、図2(a)(b)に示すような撮像装置30や表示装置40も考えられる。
図2(a)の撮像装置30は、所定の装着フレームによりユーザの側頭部に装着される。そして装着状態においてユーザの視界方向を被写体方向として撮像するように、前方に向けて撮像レンズ3a及び発光部4aが配置されている。また、外部音声を集音するマイクロホン6aが設けられている。
即ちこの撮像装置30は、表示機能は持たないが、ユーザに装着された状態でユーザの視界光景の撮像を行う装置とされる。なお、このような撮像装置30についても、上記撮像表示装置1と同じく、形状、装着構造、構成要素などは多様に考えられる。
図2(b)の表示装置40は、腕時計型の表示装置とした例であり、リストバンドによってユーザの手首に装着された状態で、ユーザが視認できる表示パネル部2aが形成されたものである。
なお、ここでは腕時計型の表示装置40を示しているが、ユーザが装着又は所持する表示装置40として多様な形状や装着構造が想定される。表示装置40としては例えば携帯用の小型機器としてユーザが所持できるものであってもよい。また、図1のような眼鏡型の形状でユーザが装着できる表示装置40(図1の撮像表示装置1から撮像機能を無くした装置)も考えられる。
さらにユーザが携帯できる表示装置40を考えた場合、モニタリング表示のみの専用装置だけでなく、携帯電話機、携帯ゲーム機、PDA(Personal Digital Assistant)などの表示機能を有する機器も、本例の表示装置40となり得る。
また、ユーザが装着又は携帯する機器以外に、据置型の表示装置、コンピュータ装置、テレビジョン受像器、車載用ディスプレイモニタ機器なども、本例の表示装置40として採用できる。
また図2(a)(b)の撮像装置30、表示装置40は、それぞれを個別に使用しても良いが、ユーザが、この撮像装置30、表示装置40の両方を装着し、2つの機器で、撮像表示装置として使用する形態も想定される。例えば撮像装置30、表示装置40がデータ通信を行って、表示装置40で撮像装置30での撮像画像のモニタリングや、外部機器から送信されてきた画像表示を行うようにする場合である。
ところで本例においては、撮像表示装置1、表示装置40はユーザ(人)が使用することを想定するが、撮像装置1については、人に限らず各種の移動体に装着されて用いられることが想定されており、移動体とは人を含めて多様に考えられる。上記図2(a)のような撮像装置30は人が装着して、人の視界光景を撮像するものとされた例であるが、人以外の移動体に装着される撮像装置30も多様に考えられる。
人以外の移動体とは、人以外の生物、又は地上移動機器、又は海上移動機器、又は海中移動機器、又は航空移動機器、又は宇宙移動機器などである。
人以外の生物としては、鳥類、ほ乳類、は虫類、両生類、魚類、昆虫類その他の各種の生物である。
地上移動機器としては、乗用車、トラック、バス、タクシー、オートバイ等の自動車両や、自転車、人力車、遊具車など人力で移動する車両がある。また、電車、蒸気機関車などの鉄道車両も想定される。さらに遊園地等における乗り物、工場その他の施設における業務用の乗り物も想定される。また、人が乗る移動体でないものもある。例えば業務用や遊具としての各種ロボット、いわゆるラジコン等の遊具なども考えられる。
海上移動機器としては、各種船舶、水上バイク、サーフボード、手こぎボート、浮き輪、筏などが想定される。
海中移動機器としては、潜水艦、潜水ロボット、アクアラング等の潜水器具などが想定される。
航空移動機器としては、各種航空機、ヘリコプター、グライダー、パラシュート、気球、凧などが想定される。
宇宙移動機器としては、ロケット、宇宙探査機、人工衛星などが想定される。
移動体としての具体例は更に多様に考えられるが、撮像装置1は、それぞれ装着される移動体に応じた形状や装着構造とされればよい。
[2.システム形態]

実施の形態では、撮像表示装置1又は表示装置40のユーザは、表示された地図画像において位置を指定することで、他の撮像表示装置1又は撮像装置30で、該当位置で撮像された画像を見ることができる。つまり撮像表示装置1又は表示装置40のユーザは、地図を見ているときに、実際に地図上で示した場所の光景の画像を、自分の撮像表示装置1又は表示装置40で見ることができる。このためのシステム形態の例を図3に示す。
なお「地図画像」とは、上述のように地上の地図だけでなく、海洋図、海中図、航空図なども含むものとする。
図3には、撮像表示装置1、表示装置40,撮像装置30、サーバ装置70がネットワーク60を介して通信するシステム形態を示している。
なお、ネットワーク60としてはインターネットなどの広域ネットワークが考えられるが、もちろんLAN(Local Area Network)その他の狭域ネットワークも想定される。
ここでは、ユーザA,B,Cは、例えば図1のような撮像表示装置1を装着しているとする。またユーザDは例えば図2(b)のような表示装置40を装着し、ユーザEは図2(a)のような撮像装置30を装着しているとする。
さらにユーザFは、図2(a)の撮像装置30と図2(b)の表示装置40を共に装着し、2つの機器で撮像表示装置として機能するようにしているとする。
また、移動体G、移動体Hに搭載された撮像装置30とは、所要の形状で自動車、鉄道車両、航空機その他の移動体(人以外の移動体)に装着された撮像装置であるとする。
この場合、ユーザEが装着する撮像装置30や、移動体G、Hに搭載された撮像装置30は、常時、或いは定期的、或いは任意のタイミングで、ネットワーク60を介した通信によりサーバ装置70に対して撮像した画像データ及び少なくとも撮像場所の位置情報を含む付加データをアップロードする。
またユーザA,B,Cが装着している撮像表示装置1も、常時、或いは定期的、或いは任意のタイミングで、ネットワーク60を介した通信によりサーバ装置70に対して撮像した画像データ及び少なくとも撮像場所の位置情報を含む付加データをアップロードすることができる。
サーバ装置70は、撮像表示装置1又は撮像装置30を後述する地点画像データベースに登録して格納する。
一方、ユーザA,B,Cが装着している撮像表示装置1や、ユーザD、Fが使用する表示装置40は、ユーザが地図画像上で位置を指定することに応じて、ネットワーク60を介した通信でサーバ装置70にアクセスし、位置指定情報を送信して画像要求を行う。
サーバ装置70は位置指定情報に基づいて地点画像データベースを検索し、位置指定情報で指定された位置で撮像された画像データを抽出する。そしてその画像データを、撮像表示装置1又は表示装置40に送信する。
撮像表示装置1又は表示装置40では、サーバ装置70から送信されてくる画像データを受信し、それを表示する。
これによりユーザA、B、C、D、Fは、地図上で指定した位置で実際に撮像された光景を見ることができる。
[3.撮像表示装置、撮像装置、表示装置、サーバ装置の構成例]

撮像表示装置1、撮像装置30、表示装置40、サーバ装置70の各構成例を図4〜図8で説明する。
まず図4に、撮像表示装置1の構成例を示す。
システムコントローラ10は、例えばCPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)、不揮発性メモリ部、インターフェース部を備えたマイクロコンピュータにより構成され、撮像表示装置1の全体を制御する制御部とされる。このシステムコントローラ10は内部のROM等に保持したプログラムに基づいて、各種演算処理やバス13を介した各部と制御信号等のやりとりを行い、各部に所要の動作を実行させる。
撮像表示装置1内では、ユーザの視界方向の光景の撮像のための構成として、撮像部3が設けられる。
撮像部3は、撮像光学系、撮像素子部、撮像信号処理部を有する。
撮像部3における撮像光学系では、図1に示した撮像レンズ3aや、絞り、ズームレンズ、フォーカスレンズなどを備えて構成されるレンズ系や、レンズ系に対してフォーカス動作やズーム動作を行わせるための駆動系等が備えられる。
また撮像部3における撮像素子部では、撮像光学系で得られる撮像光を検出し、光電変換を行うことで撮像信号を生成する固体撮像素子アレイが設けられる。固体撮像素子アレイは、例えばCCD(Charge Coupled Device)センサアレイや、CMOS(Complementary Metal Oxide Semiconductor)センサアレイとされる。
また撮像部3における撮像信号処理部では、固体撮像素子によって得られる信号に対するゲイン調整や波形整形を行うサンプルホールド/AGC(Automatic Gain Control)回路や、ビデオA/Dコンバータを備え、デジタルデータとしての撮像画像データを得る。また撮像画像データに対してホワイトバランス処理、輝度処理、色信号処理、ぶれ補正処理などを行う。
これらの撮像光学系、撮像素子部、撮像信号処理部を有する撮像部3により、撮像が行われ、撮像による画像データが得られる。
システムコントローラ10は、この撮像部3における撮像動作のオン/オフ制御、撮像光学系のズームレンズ、フォーカスレンズの駆動制御、撮像素子部の感度やフレームレート制御、撮像信号処理部の各処理のパラメータや実行処理の設定などを行う。
この撮像部3の撮像動作によって得られた撮像画像データは、画像処理部15を介して表示部2、ストレージ部25,通信部26に供給することができる。
画像処理部15は、システムコントローラ10の制御に従って、撮像画像データを所定の画像データフォーマットに変換する処理や、表示部2でモニタ表示させるための所要の信号処理を行う。表示部2でモニタ表示させるための信号処理とは、例えば輝度レベル調整、色補正、コントラスト調整、シャープネス(輪郭強調)調整、画面分割処理、キャラクタ画像の合成処理、拡大又は縮小画像の生成、モザイク画像/輝度反転画像/ソフトフォーカス/画像内の一部の強調表示/画像全体の色の雰囲気の可変などの画像エフェクト処理などである。
また画像処理部15は、撮像部3,表示部2,ストレージ部25、通信部26の間の画像データの転送処理も行う。即ち、撮像部3からの撮像画像データを表示部2,ストレージ部25,通信部26に供給する処理や、ストレージ部25で再生された画像データを表示部2に供給する処理や、通信部26で受信した画像データを表示部2に供給する処理も行う。
撮像表示装置1においてユーザに対して表示を行う構成としては、表示部2が設けられる。この表示部2は、上述した液晶パネル等による表示パネル部2a、2bと、表示パネル部2a、2bを表示駆動する表示駆動部が設けられる。
表示駆動部は、画像処理部15から供給される画像信号を、例えば液晶ディスプレイとされる表示パネル部2a,2bにおいて表示させるための画素駆動回路で構成されている。即ち表示パネル部2a,2bにおいてマトリクス状に配置されている各画素について、それぞれ所定の水平/垂直駆動タイミングで映像信号に基づく駆動信号を印加し、表示を実行させる。この処理により、撮像部3での撮像モニタとしての表示や、ストレージ部25で再生された再生画像の表示、さらには通信部26で受信された受信画像の表示が、表示パネル部2a、2bにおいて行われる。
また表示駆動部は、表示パネル部2a、2bの各画素の透過率を制御して、スルー状態(透明又は半透明の状態)とすることもできる。
システムコントローラ10は、この表示部2における表示動作のオン/オフ(スルー)制御、表示する画像データに対する処理パラメータの指示、画面領域設定制御、キャラクタ発生指示などを行う。
また撮像表示装置1には、音声入力部6、音声処理部16,音声出力部5が設けられる。
音声入力部6は、図1に示したマイクロホン6a,6bと、そのマイクロホン6a,6bで得られた音声信号を増幅処理するマイクアンプ部やA/D変換器を有し、音声データを出力する。
音声入力部6で得られた音声データは音声処理部16に供給される。
音声処理部16は、システムコントローラ10の制御に応じて、音声データの転送を制御する。即ち音声入力部6で得られた音声データを、音声出力部5、ストレージ部25、通信部26に供給する。或いは、ストレージ部25で再生された音声データや、通信部26で受信された音声データを音声出力部5に供給する。
また音声処理部16は、システムコントローラ10の制御に基づいて、音量調整、音質調整、音響エフェクト等の処理を行う。
音声出力部5は、図1に示した一対のイヤホンスピーカ5aと、そのイヤホンスピーカ5aに対するアンプ回路やD/A変換器を有する。
即ち音声処理部から供給された音声データはD/A変換器でアナログ音声信号に変換され、アンプ回路で増幅されてイヤホンスピーカ5aから音声として出力される。これによりユーザは外部音声を聞いたり、ストレージ部25で再生された音声データや通信部26で受信した音声データによる音声を聞くことができる。
なお音声出力部5は、いわゆる骨伝導スピーカを用いた構成とされてもよい。
ストレージ部25は、所定の記録媒体に対して画像データ(及び音声データ)の記録再生を行う部位とされる。例えばHDD(Hard Disk Drive)として実現される。もちろん記録媒体としては、フラッシュメモリ等の固体メモリ、固体メモリを内蔵したメモリカード、光ディスク、光磁気ディスク、ホログラムメモリなど各種考えられ、ストレージ部25としては採用する記録媒体に応じて記録再生を実行できる構成とされればよい。
このストレージ部25は、システムコントローラ10の制御に基づいて、撮像によって得られる画像データ(及び音声データ)や、通信部26で受信された画像データ(及び音声データ)を記録媒体に記録する。即ち、画像処理部15を介して供給される画像データや音声処理部16を介して供給される音声データ、或いは通信部26で受信された画像データや音声データに対して、記録媒体への記録のためのエンコード処理を行い、記録媒体に記録する。
またストレージ部25はシステムコントローラ10の制御に従って、記録した画像データ、音声データを再生することができる。再生した画像データは画像処理部15を介して表示部2に供給され、音声データは音声処理部16を介して音声出力部5に供給される。また再生した画像データ/音声データは、外部機器に送信するデータとして通信部26に供給することもできる。
通信部26は図3のネットワーク60を介して外部機器、特にサーバ装置70との間でのデータの送受信を行う。
この通信部26は、無線LAN、ブルートゥースなどの方式で、例えばネットワークアクセスポイントに対する近距離無線通信を介してネットワーク通信を行う構成とすることが考えられる。
通信部26に対しては、撮像部3で得られた撮像画像データが画像処理部15を介して供給される。また音声入力部6で得られた音声データが音声処理部16を介して供給される。通信部26は、この画像データ及び音声データについて通信用のエンコード処理を行い、無線送信のための変調を行って外部機器に送信することができる。つまりこの撮像表示装置1で現在撮像及び集音されている画像データ/音声データを、外部機器(サーバ装置70)に送信することができる。
また、ストレージ部25で再生された画像データ及び音声データについて通信用のエンコード処理を行い、無線送信のための変調を行って外部機器に送信することもできる。
なお、この撮像表示装置1で現在撮像及び集音されている画像データ/音声データを例えばサーバ装置70に送信する際には、システムコントローラ10は付加データを生成し、画像データ/音声データとともに通信部26でエンコードさせて送信させる。付加データは、画像データの管理情報や、後述する位置検出部12で検出される現在位置情報や、日時計数部28で計数されている現在日時情報を含むものとされる。
また、撮像及び集音されている画像データ/音声データをストレージ部25に一旦記憶し、後の時点でストレージ部25から読み出して、通信部26からサーバ装置70に送信するという動作も考えられるが、その場合、システムコントローラ10は、画像データ/音声データをストレージ部25に記憶する際に、上記の内容を含む付加データを生成し、共にストレージ部25に記録させる。記録した画像データ/音声データをストレージ部25から読み出してサーバ装置70に送信する際には、共に記録されている付加データも、送信されることになる。
システムコントローラ10が、このような処理を行うことで、サーバ装置70に対して画像データ/音声データを送信する際には、その画像データ/音声データに関しての撮像時点の位置情報と、日時情報も、サーバ装置70に送信されることになる。
また通信部26は外部機器(サーバ装置70)から送信されてきた画像データ/音声データを受信し、復調して画像処理部15及び音声処理部16に供給する。この場合、表示部2と音声出力部5により、受信した画像及び音声の出力が行われる。
もちろん、通信部26で受信した画像データ/音声データをストレージ部25に供給して記録媒体に記録することも可能である。
また撮像表示装置1には照明部4と照明制御部18が設けられる。照明部4は、図1、図2に示した発光部4aとその発光部4a(例えばLED)を発光させる発光回路から成る。照明制御部18は、システムコントローラ10の指示に基づいて、照明部4に発光動作を実行させる。
照明部4における発光部4aが図1又は図2に示したように取り付けられていることで、照明部4は撮像レンズ3aによる被写体方向に対する照明動作を行うことになる。
この撮像表示装置1では、ユーザの操作のために操作入力部11が設けられる。
操作入力部11は、例えばキー、ダイヤル等の操作子を有するようにし、キー操作等としてのユーザの操作を検知する構成としてもよいし、或いはユーザの意識的な挙動を検知する構成としても良い。
操作子を設ける場合、例えば、電源オン/オフ操作、撮像系の操作(例えばズーム等の操作や、信号処理の指示操作)、表示関連操作(例えば表示内容の選択や表示調整操作)、更には後述する外部装置の指定のための操作に用いる操作子が形成されればよい。
またユーザの挙動を検知する構成とする場合は、加速度センサ、角速度センサ、振動センサ、圧力センサ等を設けることが考えられる。
例えばユーザが撮像表示装置1を側面側からコツコツと軽く叩くといったことを、加速度センサ、振動センサ等で検知し、例えば横方向の加速度が一定値を越えたときにシステムコントローラ10がユーザの操作として認識するようにすることができる。また、加速度センサや角速度センサによりユーザが右側から側部(眼鏡のツルに相当する部分)を叩いたか、左側から側部を叩いたかを検出できるようにすれば、それらを、それぞれ所定の操作として判別することもできる。
またユーザが頭を回す、首を振るなどとすることを加速度センサや角速度センサで検知し、これをシステムコントローラ10がユーザの操作として認識することができる。
また、撮像表示装置1の左右の側部(眼鏡のツルに相当する部分)等に圧力センサを配置し、右側部をユーザが指で押したときは望遠方向のズーム操作、左側部をユーザが指で押したときは広角方向のズーム操作などとすることもできる。
さらには、生体センサとしての構成を備えるようにし、ユーザの生体情報を検出して、操作入力と認識するようにしても良い。生体情報とは、脈拍数、心拍数、心電図情報、筋電、呼吸情報(例えば呼吸の速さ、深さ、換気量など)、発汗、GSR(皮膚電気反応)、血圧、血中酸素飽和濃度、皮膚表面温度、脳波(例えばα波、β波、θ波、δ波の情報)、血流変化、眼の状態などである。
そしてシステムコントローラ10は生体センサの検出情報を、ユーザの操作入力として認識するようにしてもよい。例えばユーザの意識的な挙動として目の動き(視線方向の変化やまばたき)が考えられるが、ユーザが3回まばたきをしたことを検知したら、それを特定の操作入力と判断するなどである。さらには、上記生体情報の検知によりユーザが撮像表示装置1を装着したことや外したこと、あるいは特定のユーザが装着したことなども検出可能であり、システムコントローラ10がその検出に応じて電源オン/オフなどを行うようにしてもよい。
操作入力部11は、このように操作子、加速度センサ、角速度センサ、振動センサ、圧力センサ、生体センサ等として得られる情報をシステムコントローラ10に供給し、システムコントローラ10はこれらの情報によりユーザの操作を検知する。
また撮像表示装置1は位置検出部12を備える。位置検出部12は例えばGPS受信部とされる。GPS受信部は、GPS(Global Positioning System)の衛星からの電波を受信し、現在位置としての緯度・経度の情報をシステムコントローラ10に出力する。
サーバ装置70に対して画像データ/音声データ及び付加データの送信を行う際には、この位置検出部12によって検出された撮像時の位置情報が、付加データに含まれることになる。
なお、位置検出部12としては、WiFi(Wireless Fidelity)や携帯電話会社が提供する位置情報サービスを利用するものとしてもよいし、それらやGPSを組み合わせて利用しても良い。
また、歩行速度(自動車等に搭載される装置の場合は車速等)を検出することで、検出位置を補正できるようにすることも考えられる。
日時計数部28は、現在日時(年月日時分秒)を計数する。システムコントローラ10は日時計数部28での計数値により現在日時を認識できる。
サーバ装置70に対して画像データ/音声データ及び付加データの送信を行う際には、この日時計数部28によって検出された撮像時の日時情報が、付加データに含まれることになる。
撮像表示装置1は、表示部2において地図画像を表示することができる。この地図画像の表示のために地図データベース29が備えられる。なお、地図データベース29は、例えばストレージ部25がHDD等とされる場合に、その一部領域に格納されるものとしてもよい。
地図データベース29は、いわゆるナビゲーションシステムと同様に地図表示を行うための情報として、位置情報に対応した地図画像生成情報や各地点の名称等の付加的な情報、検索情報等がデータベース化されたものである。
システムコントローラ10は、地図データベース29を利用した地図検索及び地図表示処理を実行できる。
次に撮像装置30の構成を図5に示す。なお図4と同一部分は同一符号を付して重複説明を避ける。図5の撮像装置30は、図4の撮像表示装置1における画像及び音声の出力系である表示部2,音声出力部5と、地図表示のための情報となる地図データベース29を無くした構成である。
即ちこの撮像装置30は、図2のようにユーザに装着されたり、上述したように各種の移動体に装着された状態において、撮像部3により撮像を行い、撮像画像データを通信部26から外部装置に送信したり、ストレージ部25において記録することができる。
システムコントローラ10は撮像動作、通信動作、記録動作等の制御を行う。
表示装置40の構成例は図6のようになる。ここでも図4と同一部分は同一符号を付して重複説明を避ける。図6の表示装置40は、図4の撮像表示装置1における画像撮像及び音声入力の機能のための撮像部3,音声入力部6を無くした構成である。また撮像のための補助となる照明部4,照明制御部14も設けられない。
また表示装置40はサーバ装置70に対して画像データ/音声データを送信する機器とはならないため、送信時の付加データに含む位置情報、日時情報を生成するためという意味では、位置検出部12や日時計数部28が設けられなくて良い。
当然システムコントローラ10は、画像データ/音声データのサーバ装置70への送信制御処理を実行する機能を持たなくて良い。
この表示装置30は、図2(b)のような形態でユーザに装着されたり、或いはユーザが所持したり、或いはユーザが家庭や自動車等に設置する機器として所有する機器であり、外部装置から送信されてくる画像データ/音声データを通信部26で受信する。そして受信した画像データ/音声データを表示部2,音声出力部6から出力したり、ストレージ部25において記録する。
システムコントローラ10は通信動作、表示動作、音声出力動作、記録動作等の制御を行う。
また家庭等に固定的に設置する形態の表示装置を考えた場合、通信部26は有線接続によりネットワーク通信を行う構成とされても良い。
ところで、図3のユーザFの所持する機器として述べたように、図2(a)(b)のような撮像装置30と表示装置40の両方を用いて撮像表示装置1と同等の機能を持つようにしても良い。
その場合、撮像装置30と表示装置40として図7のような構成例が考えられる。
この図7の例では、撮像装置30において、図4の撮像表示装置1とほぼ同様の構成を備えるようにする。但し撮像装置30において表示部2は設けられず、代わりに送信部27が設けられる。
送信部27は、画像処理部15から表示モニタ用として供給される画像データについて、表示装置40への送信の為のエンコード処理を行う。そしてエンコードした画像データを表示装置40に送信する。
また表示装置40には、受信部41、表示制御部42、表示部2が設けられる。
受信部41は、撮像装置30の送信部21との間でデータ通信を行う。そして撮像装置30から送信されてくる画像データを受信し、デコード処理をおこなう。
受信部41でデコードされた画像データは、表示制御部42に供給される。表示制御部42は、画像データについて表示のための信号処理や画面分割、キャラクタ合成等の処理を行って表示用の画像信号を生成し、例えば液晶ディスプレイとされる表示パネル部2aを有する表示部2に供給する。
表示部2では、表示用の画像信号に応じて、マトリクス状に配置されている表示パネル部2aの各画素について、それぞれ所定の水平/垂直駆動タイミングで映像信号に基づく駆動信号を印加し、表示を実行させる。
このように構成することで、例えば図3のユーザFのように撮像装置30と表示装置40を装着したユーザが、これらを撮像表示装置1と同様に使用することができる。
次に図8にサーバ装置70の構成例を示す。
サーバ装置70は、サーバ制御部72、ネットワークストレージ部71、通信部73を備える。
ネットワークストレージ部71は、例えばHDD等により実現され、後述する地点画像データベースを格納する。後に図10で述べるが、地点画像データベースとは、撮像装置30又は撮像表示装置1からネットワーク60を介して送信されてくる画像データ/音声データ及び付加データをを蓄積したデータベースである。
通信部73は、撮像表示装置1、撮像装置30、表示装置40の通信部26との間で、ネットワーク60を介したデータ通信を行う。
サーバ制御部72は、サーバ装置70としての必要な動作制御を行う。具体的には撮像表示装置1、撮像装置30、表示装置40との間の通信動作や、画像データ/音声データのネットワークストレージ部71への格納処理、検索処理などを行う。
以上、撮像表示装置1、撮像装置30、表示装置40、サーバ装置70の構成を示したが、これらはそれぞれ一例にすぎない。実際に実施されるシステム動作例や機能に応じて各種の構成要素の追加や削除は当然考えられる。また撮像装置30、撮像表示装置1が搭載(装着)される移動体の別や、表示装置30の形態(例えば腕時計型、携帯型、据置型など)の別に応じて、それぞれ適切な構成が考えられることはいうまでもない。
[4.システム動作例]

以下、本実施の形態として行われるシステム動作例について説明していく。
なお、以下の説明では、「装置A」「装置B」という名称を用いる。
装置Aとは、図3における撮像表示装置1又は表示装置40のことである。また装置Bとは、図3における撮像表示装置1又は撮像装置30のことである。
つまり装置Aは、或るユーザが使用して、他の移動体で撮像された画像をサーバ装置70から受信して表示する側の機器であり、本発明請求項でいう「表示装置」に該当する機器である。
一方装置Bは、サーバ装置70に対して画像をアップロードする側の機器であり、人、生物、車両、その他の上述した移動体に装着/搭載される機器であって、本発明請求項でいう「撮像装置」に該当する機器である。
図9は装置Aとしての撮像表示装置1、表示装置40と、サーバ装置70と、装置Bとしての撮像表示装置1、撮像装置30を示している。
装置Bとしての撮像装置30、撮像表示装置1は、撮像した画像データ(及び音声データ)をサーバ装置70に送信する処理を行う。
例えば常時撮像を行って、撮像画像データ(及び音声データ)をサーバ装置70に送信するものとしてもよいし、或いは時限的に撮像を行う際には、その撮像実行時には常に撮像画像データ(及び音声データ)をサーバ装置70に送信するものとしてもよい。時限的に撮像/送信を行う場合としては、例えば定期的に撮像/送信を行うようにしたり、装置Bがユーザが装着する機器の場合はユーザ操作に基づいて撮像/送信を行うようにすることが考えられる。また、サーバ装置70が位置情報を指定して撮像依頼データを送信しておくことで、装置Bのコントローラ10が、現在位置が依頼された位置であると判別したときに、自動的に撮像/送信を行うようにすることも考えられる。
また上述のように、装置Bとしての撮像装置30、撮像表示装置1は、画像データ/音声データをサーバ装置70に送信する際には、付加データも加えて送信する。
付加データとは、送信する画像データ/音声データについての画像管理情報と、撮像場所の位置情報と、撮像時の日時情報を含むものとされる。
サーバ装置70は、撮像表示装置1、撮像装置30のそれぞれから送信されてくる画像データ(及び音声データ)や付加データを、ネットワークストレージ部71において地点画像データベースに蓄積する。
即ちサーバ制御部72は、通信部73により装置Bからの画像データ(及び音声データ)と付加データを受信することに応じて、その受信したデータをネットワークストレージ部71における地点画像データベースに登録する処理を行う。
図10に、地点画像データベースの記録内容を模式的に示す。
地点画像データベースには、装置Bとしてのそれぞれの撮像表示装置1や撮像装置30から送信されてくる画像が、所定単位で1つのエントリ#1、#2・・・として登録される。所定単位とは画像データサイズ、再生時間などに応じて上限が決められる単位でも良いし、装置Bから画像データが継続的な動画として送信されてくるような場合、撮像位置としての位置情報が変化するポイントで1つの単位が設定されても良い。どのような単位で1つのエントリとしての画像データを区切るかは、装置Bからの画像送信態様、送信継続時間、地点画像データベースの管理情報の都合、サーバ装置70の画像提供サービスの都合などに応じて適宜決められればよい。
図10に示すように、各エントリとして、画像データ(音声データも含む)VD1、VD2、VD3・・・が記録されていくが、これらの画像データにそれぞれ対応して、位置情報P1,P2,P3・・・、日時情報Date1、Date2、Date3・・・、画像管理情報C1,C2,C3・・・が記録される。
位置情報、日時情報、画像管理情報は、画像データとともに付加データとして装置Bから送信されてきた情報である。
従って例えばエントリ#1について言えば、位置情報P1は、画像データVD1を撮像した場所としての位置情報であり、例えば緯度、経度の情報である。
また日時情報Date1は、画像データVD1を撮像した時点の年月日時分秒の情報である。
画像管理情報C1は、画像データVD1の管理情報であり、例えば画像種別(動画/静止画の別など)、データサイズ、圧縮方式、装置Bの識別情報、撮像地点の名称情報などの撮像位置関連情報である。なお撮像位置関連情報は、装置Bとしての撮像表示装置1又は撮像装置30における地図データベース29から、撮像時の現在位置情報に基づいて検索し、装置Bのシステムコントローラ10が、これを付加データとして加えてサーバ装置70に送信してもよいし、サーバ装置70が地図データベースを備え、位置情報P1から地図データベースを検索して取得するようにしてもよい。
図9のように装置Bとしての撮像表示装置1又は撮像装置30が、画像データと付加データを送信する動作を行うことで、この図10のような地点画像データベースに、各地点の画像データが蓄積されていくことになる。
このように各地点の撮像画像がサーバ装置70において蓄積されていくことで、サーバ装置70は装置Aのユーザに対して、画像提供サービスを行うことが可能となる。即ち装置Aからの画像要求に応じて、地点画像データベースに蓄積された画像データを再生し、その再生画像データを装置Aに送信できる。
以下、装置Aとしての撮像表示装置1又は表示装置40が、サーバ装置70との間で通信を行い、サーバ装置70からの画像データを取得して表示する動作例を説明する。つまり装置Aのユーザがサーバ装置70による画像提供サービスを享受する際の動作例である。
図11に示す装置Aの処理は、撮像表示装置1又は表示装置40のシステムコントローラ10の制御処理であり、サーバ装置70の処理はサーバ制御部72の制御処理と考えることができる。
装置A側では、まずステップF100として地図画像を用いた位置指定処理を行う。例えば装置Aのシステムコントローラ10は、地図データベース29のデータを用いて地図表示を行う。またユーザの操作に応じて地図上の或る地域の検索やスクロール表示なども行う。これにより、ユーザが特定の地方、地域の地図画像を表示部2で見ることができるようにする。
例えばユーザが地名や縮尺を指定したり、スクロール操作を行うことに応じて、システムコントローラ10は表示される地域や縮尺を変化させることで、例えば図12(a)のように或る地区の地図画像を表示させる。
システムコントローラ10は、このような地図画像上では例えば図12(b)のようにポインタPTを表示させ、ポインタPTがユーザ操作に基づいて地図画像上で移動されるようにする。即ちユーザは、ポインタPTを地図画像上の任意の位置に移動させて、所定の操作を行うことで、地図画像上の特定の位置を指定することができる。
なお、もちろんポインタPTによるものではなく、例えば表示部2にタッチパネル操作機能を付加し、地図画像に対してユーザが指でタッチした位置が指定位置となるようにすることもできる。
これらのようにして、ユーザが地図画像上で或る地点を指定する操作を行うことに応じて、システムコントローラ10は位置指定情報を生成する。即ち地図上でユーザが指定したポイントの緯度、経度の値を含む位置指定情報を生成する。
装置Aのシステムコントローラ10は、ステップF100で位置指定情報を生成したら、次にステップF101で、サーバ装置70にアクセスする。即ちサーバ装置70との間で通信接続状態を確立する。そしてこのとき、画像要求の情報と、位置指定情報をサーバ装置70に送信する。
サーバ装置70のサーバ制御部72は、ステップF300で、装置Aとの通信接続を確立し、画像要求と位置指定情報を受け付ける。
そしてステップF301で再生画像を特定する。即ち受信した位置指定情報に基づいてネットワークストレージ部71の地点画像データベースを検索する。そして地点画像データベースにおける位置情報が、位置指定情報に一致するエントリを抽出する。
又は位置指定情報で指定された緯度・経度の位置から近辺とみなすことのできる所定範囲内としての位置情報を有するエントリを抽出してもよい。
そして抽出したエントリの画像データを再生画像として特定する。
なお、複数のエントリが検索された場合は、日時情報を参照して、最新の日時のエントリの画像データを再生画像として選択してもよいし、全てのエントリを順番に再生する再生画像として決定してもよい。
また、位置指定情報に基づく検索で、1つのエントリも抽出されない場合もある。即ち位置指定情報で示される位置(もしくは近辺位置)に関して、これまで装置Bによる画像データのアップロードがされていない場合である。
そのような場合は、図11では示していないが、サーバ制御部72は装置Aに対して該当する画像データが存在せず、画像提供不能ということの通知を行うことになる。これに応じて装置A側では、画像提供不能の旨をユーザに提示して処理を終える。
サーバ制御部72は、地点画像データベースの検索を行って再生するエントリ(画像データ)を特定したら、続いてステップF302で、再生画像として特定した画像データを、ネットワークストレージ部71から再生させ、再生された画像データ及び音声データを、通信部73から装置Aに対して送信させる。
装置A側ではステップ102で、サーバ装置70から送信されてくる画像データの受信及び表示を実行する。即ち装置Aのシステムコントローラ10は、通信部26で受信及び復調される画像データ(及び音声データ)を、画像処理部15及び音声処理部16に供給させ、表示部2での表示出力と音声出力部5での音声出力を実行させる。
装置Aのシステムコントローラ10はステップF103でサーバ装置から通信解除要求が送信されてきたか否かを監視する。
またステップF104で画像表示の終了か否かを判断する。例えばユーザが操作入力部11により表示終了の操作を行ったら、終了と判断する。或いは、受信及び表示を所定時間行ったら自動的に終了とするような処理も考えられる。
ステップF103で通信解除要求の受信が確認されるか、或いはステップF104で表示終了と判断されるまで、ステップF102で受信したデータの表示出力(及び音声出力)を継続的に実行する。
またサーバ装置70では、ステップF303で、再生しているエントリの画像データの再生が終了したか否かを監視し、またステップF304で装置Aからの通信解除要求があるか否かを監視しており、これらの状況が検知されるまでは、画像再生及び画像データ(及び音声データ)の送信を継続する。
従ってこの間、装置Aのユーザは、自分で地図画像上で指定した位置において、過去に装置Bで撮像された実光景の画像を見ることができる。
装置Aのシステムコントローラ10は、ステップF104で、ユーザ操作或いは他の終了条件により表示終了と判断したら、ステップF105に進み、通信部26からサーバ装置70に対して通信解除要求を送信させ、ステップF106に進む。サーバ装置70は、通信解除要求を受信したら、ステップF304からF306に進む。
または、サーバ制御部72は、再生対象となったエントリの再生及び送信を完了したと判断したら、ステップF303からF305に進み、通信部73から装置Aに対して通信解除要求を送信させる。装置Aのシステムコントローラ10は、通信解除要求を受信したら、ステップF103からF106に進む。
そして装置Aのシステムコントローラ10はステップF106でサーバ装置70との間の通信接続解除処理を行う。またサーバ装置70のサーバ制御部72はステップF306で装置Aとの通信及びサーバ処理を終了させる。以上でシステム動作を終える。
以上の処理により、装置Aのユーザは、地図画像上で、任意に或る位置を指定することで、その位置で装置Bによって撮像された光景を、自分が装着又は所持している装置Aにおいて見ることができる。
装置Aのユーザが見ることのできる画像の例を図13に示す。
例えば装置Aのユーザが、地図上で或る道路の地点を指定したら、図13(a)(b)のように、その地点において過去に装置Bにおいて撮像された画像を見ることができる。例えば自動車に取り付けられた撮像装置30や、運転手が装着していた撮像装置30又は撮像表示装置1によって、その指定地点で撮像されていた画像である。
また例えば装置Aのユーザが、地図上で或る鉄道線路上の地点を指定したら、図13(c)のように、その地点において過去に鉄道車両に装着された撮像装置30、もしくは鉄道運転士が装着していた撮像装置30又は撮像表示装置1としての装置Bにおいて撮像された画像を見ることができる。
また例えば装置Aのユーザが、地図上で或るリゾート地の地点を指定したら、図13(d)のように、過去にその地点に居た人物が装着していた撮像装置30又は撮像表示装置1としての装置Bにおいて撮像された画像を見ることができる。
例えば以上の例のように、装置Aのユーザは、地図上の地点を指定することで、その地点で実際に撮像された画像を見ることができる。
なお、上記の説明では、装置Aのユーザは地図画像上で位置のみを指定するものとしたが、図11のステップF100に付記しているように、日時指定も行うことができるようにしても良い。
例えばステップF100の時点で、システムコントローラ10は上述のように地図画像を表示させた状態でのユーザの位置指定操作に応じて、指定位置情報を生成するが、このときに、ユーザに、メニュー形式もしくは数値入力形式で、日時を指定する入力も実行させるようにする。
例えば特定に年月日、特定の時刻等を指定入力させるようにしたり、或る日付け範囲(例えば何月何日から何月何日まで)や時刻範囲(例えば何時から何時まで)を指定入力させるようにする。また入力した日時に基づいた検索条件を選択させるようにしてもよい。検索条件として、「指定した日時を含む」「指定の日時範囲内」「指定日時以前」「指定日時以降」などとする。そして指定日時、又は指定日時と検索条件を、日時指定情報として設定する。
装置Aのシステムコントローラ10は、ステップF101でサーバアクセスを行う際には、システムコントローラ10は位置指定情報と共に、日時指定情報も送信する。サーバ制御部72は、ステップF300で、位置指定情報と共に日時指定情報を受け付ける。
そしてサーバ制御部72はステップF301では、位置指定情報と日時指定情報の両方を用いて、地点画像データベースの検索を行う。
即ち、地点画像データベースにおける位置情報が、位置指定情報に一致(又は近辺)となるエントリを抽出し、さらに、地点画像データベースにおける日時情報が、日時指定情報の条件に合致するエントリを絞り込む。
このような検索により、位置及び撮像日時がユーザの指定に合致したエントリを抽出し、そのエントリの画像データを再生画像として特定する。
このように日時指定を行うようにすることで、装置Aのユーザは、見たい画像を時期的に選定して見ることができる。
例えば或る地点の或る時期の光景、或る地点の最近の光景、或る地点の或る時期より前の光景、或る地点の特定の日の光景、或る地点の特定の時刻の光景、或る地点の夜の光景・・・などを、任意に選択して見ることができる。
これにより、任意の或る地点の光景として、より多様な光景を見ることができる。
[5.実施の形態の効果、及び変形例、拡張例]

以上、実施の形態を説明してきたが、上記した装置Aに相当する撮像表示装置1又は表示装置40のユーザは、地図画像上で位置を指定することで、その指定した位置において実際に撮像装置30で撮像された画像を見ることができる。これにより地図上で指定できる或る場所の光景を見て楽しみたい場合、地図上で指定できる或る場所の状況を知りたい場合など、ユーザの多様なニーズに対応できるシステム及び装置を実現できる。
また、地図画像上で位置を指定して、その位置の撮像画像を見ることができるということは、指定した位置の状況として、例えば地形、周りの建物や自然物の風景、道路の幅や車線数、日時に応じた様子などを知ることができるものであるため、いわゆるナビゲーションシステムに適用して拡張的な情報提供を行うことも可能となる。
また、日時指定情報によって提供を受ける画像データを選定することによって、日時的な条件で異なる画像を見ることもできる。
例えば或る場所で或る時期より以前の撮像画像として、或る場所で或る建物が建設される前の光景を指定して見ることなども可能となる。
また装置Bとなる撮像表示装置1又は撮像装置30は、人を含めた移動体に装着されるものとすることで、いわゆる定点カメラのような固定的な設備を設けることが不要である。
そして移動体に装着された撮像表示装置1又は撮像装置30は、当然、多様な地点を移動しながら撮像するため、多様な地点での実撮像画像を集めて地点画像データベースの登録画像を充実させていくことが容易であるという利点もある。
なお、本発明の画像表示システム、表示装置、表示方法の実施の形態を説明してきたが、上記実施の形態の例に限らず多様な変形例や拡張例が考えられる。
本発明の表示装置に該当する装置Aとしての撮像表示装置1又は表示装置40の構成例や処理例、さらに本発明請求項でいう撮像装置に該当する装置Bとしての撮像表示装置1又は撮像装置30の構成例や処理例、さらにサーバ装置70の構成例や処理例は、それぞれ多様に考えられる。
例えば装置B側で、通常の撮像だけでなく、多様な撮像動作で撮像を行ってサーバ装置70にアップロード送信したり、或いはサーバ装置70が多様な撮像動作を要求できるようにしてもよい。例えば、望遠撮像、広角撮像、望遠から広角までの間のズームインもしくはズームアウトを行いながらの撮像、画像拡大撮像、画像縮小撮像、フレームレートの可変撮像(高フレームレートでの撮像や低フレームレートでの撮像など)、高輝度撮像、低輝度撮像、コントラスト可変撮像、シャープネス可変撮像、撮像感度上昇状態の撮像、赤外線撮像感度上昇状態の撮像、紫外線撮像感度上昇状態の撮像、特定波長帯域をカットした撮像、撮像画像データに対するモザイク処理/輝度反転処理/ソフトフォーカス処理/画像内の一部の強調処理/画像全体の色の雰囲気の可変処理などの画像エフェクトを加えた撮像、静止画撮像などである。
また、装置Aからサーバ装置70に画像を要求する際に、地点画像データベースに登録された画像の通常再生画像とする以外に、特殊再生画像を要求できるようにしてもよい。
例えば動画として格納されている或る画像データについて、1フレーム分のみの静止画を送信するように要求できるようにしたり、或いはスロー再生、高速再生などとしての画像データを要求できるようにしてもよい。
特に移動体に装着された装置Bによって撮像された画像データであるため、地点画像データベースに登録された画像データは、或る速度で移動しながら撮像した画像データである場合も多い。従って、サーバ装置70がそのような画像データについて変速再生させ、それを装置Aに送信することで、装置Aのユーザは、高速で移動したときの光景の画像や、ゆっくり移動したときの光景の画像などを擬似的に見ることができる。
また装置A側では、サーバ装置70から送信されてきた画像データを、位置情報と共にストレージ部25に記録しても良い。即ちシステムコントローラ10はストレージ部25に、受信した画像データを、位置情報(例えば図11のステップF100で設定した位置指定情報)に対応させて記録しておく。
このようにしておくことで、以降は、地図上で同一の地点を指定したら、ストレージ部25に格納されている画像データをリプレイさせてみることができるようにもなる。
また装置A側で、或る地点からの移動方向を指定できるようにしてもよい。
装置Bでは、位置検出部12で移動方向も検出し、付加データに含めてサーバ装置70に送信するようにする。サーバ装置70では、地点画像データベースに、移動方向の情報も付加して登録する。
すると、装置A側で移動方向も検索条件として指定すれば、ユーザが見たい移動方向の状態で撮像された画像データを選択するようにサーバ装置70に要求できることになる。
例えば南北につながる或る道路の光景として、南から北へ移動しながら撮像された光景と、北から南へ移動しながら撮像された光景は異なるが、これらの移動方向を指定条件に加えることで、装置Aのユーザが見たい移動方向の条件で画像データが検索され、装置Aに提供されるようにすることができる。
また上記例では、地上の地図画像で位置指定を行うものとしたが、海洋図、海中地形図、航空図、宇宙図などから或る位置を指定することも可能である。
例えばサーバ装置70では、船舶、潜水艦、航空機、衛星などで撮像された画像データを、その位置情報等とともに地点画像データベースに登録するようにしておけば、これら海洋図等による指定に基づいて、画像を検索し、装置Aに提供することができる。もちろん海中、空、宇宙などの位置情報としては、緯度、経度だけでなく高度、深度の情報も加えても良い。
例えば宇宙図により衛星軌道上の或る場所を指定すると、その地点又は近辺で人工衛星で撮像された画像を見ることができるようにするなどである。
また、実施の形態の動作例では、装置A側で地図データベース29を備えて地図表示を行うようにしたが、サーバ装置70が地図データベースを備え、サーバ装置70が地図データベースに基づいて地図画像を送信して装置A側で表示するようにしてもよい。
例えば装置Aのユーザが、特定の地名や住所を入力し、その地名や住所等を位置指定情報としてサーバ装置70に送信する。サーバ装置70は、地名等から表示させるべき地図画像データを生成し、装置Aに送信して表示させる。
このようにすれば、装置A側で地図データベース29を備える必要を無くすこともできる。言い換えれば、地図データベース29を装備しない撮像表示装置1又は表示装置40において、本発明の動作を実現することもできる。
また、画像データと音声データを装置Bからサーバ装置70にアップロードし、サーバ装置70から装置Aに提供されるものとしたが、画像データのみを対象とする例も考えられる。
或いは本発明を、音声データのみを対象とするシステムとして適用することもできる。
本発明の実施の形態の撮像表示装置の外観例の説明図である。 実施の形態の撮像装置、表示装置の外観例の説明図である。 実施の形態のシステム構成例の説明図である。 実施の形態の撮像表示装置のブロック図である。 実施の形態の撮像装置のブロック図である。 実施の形態の表示装置のブロック図である。 実施の形態の撮像装置及び表示装置のブロック図である。 実施の形態のサーバ装置のブロック図である。 実施の形態のシステム動作例の説明図である。 実施の形態の地点画像データベースの説明図である。 実施の形態のシステム動作例のフローチャートである。 実施の形態での地図画像を用いた指定の際の画像の説明図である。 実施の形態で表示される指定地点の撮像画像の説明図である。
符号の説明
1 撮像表示装置、2 表示部、3 撮像部、5 音声出力部、6 音声入力部、10 システムコントローラ、11 操作入力部、12 位置検出部、15 画像処理部、16 音声処理部、25 ストレージ部、26 通信部、28 日時計数部、29 地図データベース、30 撮像装置、40 表示装置、70 サーバ装置、71 ネットワークストレージ部、72 サーバ制御部

Claims (9)

  1. 表示装置と、人以外の移動体に装着されて画像撮像を行う撮像装置と、サーバ装置とを有して成り、上記表示装置と上記撮像装置は、それぞれ上記サーバ装置と通信可能とされる画像表示システムであって、
    上記撮像装置は、
    画像撮像を行う撮像手段と、
    位置情報および移動方向を検出する位置検出手段と、
    上記撮像手段の撮像により得られた画像データと、少なくとも、その画像データの撮像の際に上記位置検出手段で検出された位置情報および移動方向を含む付加データを、上記サーバ装置に対して送信させる送信制御処理を行う制御手段と、
    を備え、
    上記サーバ装置は、
    地図データベースおよび上記撮像装置から送信されてくる上記画像データ並びに上記付加データを格納する格納手段と、
    上記表示装置から送信されてくる地名又は住所に基づいて上記地図データベースから表示させる地図画像を作成し上記表示装置に送信させ、
    上記表示装置から送信されてくる位置指定情報および移動方向指定情報に基づいて、上記格納手段に格納された画像データの検索を行い、検索された画像データを再生して上記表示装置に送信させる検索送信制御処理を行う制御手段と、
    を備え、
    上記表示装置は、
    画像表示を行う表示手段と、
    上記地名又は住所を入力する入力処理、該入力処理で入力された地名又は住所を上記サーバ装置に送信して地図画像を要求する地図画像要求送信処理、上記地図画像要求送信処理に応じて上記サーバ装置から送信されてくる地図画像を受信し上記表示手段に示させる地図表示処理、上記地図画像に対する入力に基づいて位置指定情報および移動方向指定情報を設定する位置指定処理、上記サーバ装置に上記位置指定情報および移動方向指定情報を送信して画像データを要求する画像要求送信処理、上記画像要求送信処理に応じて上記サーバ装置から送信されてくる画像データを受信し受信した画像データに基づく表示動作を上記表示手段に実行させる表示処理、を行う制御手段と、
    を備える画像表示システム。
  2. 上記移動体は、地上移動機器、又は海上移動機器、又は海中移動機器、又は航空移動機器、又は宇宙移動機器のいずれかである請求項1に記載の画像表示システム。
  3. 上記撮像装置は、さらに現在日時を検出する日時検出手段を備え、上記撮像装置の制御手段は、上記付加データに、画像データの撮像の際に上記日時検出手段で検出された日時情報を含むようにし、
    上記表示装置の制御手段は、日時を指定する日時指定情報を設定する日時指定処理を行うとともに、上記画像要求送信処理では、上記位置指定情報と上記移動方向指定情報とともに上記日時指定情報を上記サーバ装置に送信し、
    上記サーバ装置の制御手段は、上記検索送信制御処理の際に、上記表示装置から送信されてくる位置指定情報と移動方向指定情報および日時指定情報に基づいて、上記格納手段に格納された画像データの検索を行う請求項1に記載の画像表示システム。
  4. 画像表示を行う表示手段と、
    外部のサーバ装置との間でデータ通信を行う通信手段と、
    地名又は住所を入力する入力処理、該入力処理で入力された地名又は住所を上記通信手段により上記サーバ装置に送信して地図画像を要求する地図画像要求送信処理、上記地図画像要求送信処理に応じて上記サーバ装置から送信されてくる地図画像を受信し上記表示手段に示させる地図表示処理、上記地図画像に対する入力に基づいて位置指定情報および移動方向指定情報を設定する位置指定処理、上記通信手段により上記サーバ装置に上記位置指定情報および移動方向指定情報を送信して画像データを要求する画像要求送信処理、上記画像要求送信処理に応じて上記サーバ装置から送信されてくる、人以外の移動体で撮像された画像データを上記通信手段により受信させ受信した画像データに基づく表示動作を上記表示手段に実行させる表示処理、を行う制御手段と、
    を備える表示装置。
  5. 上記制御手段は、上記位置指定処理において、上記地図画像に対して指定入力された地点の緯度・経度の情報を、上記位置指定情報とする請求項4に記載の表示装置。
  6. 上記制御手段は、さらに、日時を指定する日時指定情報を設定する日時指定処理を行うとともに、上記画像要求送信処理では、上記位置指定情報と上記移動方向指定情報とともに上記日時指定情報を上記サーバ装置に送信する処理を行う請求項4に記載の表示装置。
  7. 上記表示手段は、使用者の目の前方に位置するように配置されて画像表示を行う構造とされる請求項4に記載の表示装置。
  8. 人以外の移動体で画像撮像を行う撮像手段と、位置情報および移動方向を検出する位置検出手段とをさらに備え、
    上記制御手段は、上記撮像手段の撮像により得られた画像データと、少なくとも、その画像データの撮像の際に上記位置検出手段で検出された位置情報および移動方向を含む付加データを、上記通信手段から上記サーバ装置に対して送信させる送信制御処理も実行可能とされる請求項4に記載の表示装置。
  9. 地名又は住所を入力する入力処理ステップと、
    上記入力処理で入力された地名又は住所を外部のサーバ装置に送信して地図画像を要求する地図画像要求送信処理ステップと、
    地図画像要求送信処理に応じて上記サーバ装置から送信されてくる地図画像を受信し表示させる地図表示処理ステップと、
    上記地図画像に対する入力に基づいて位置指定情報および移動方向指定情報を設定する位置指定処理ステップと、
    上記サーバ装置に上記位置指定情報および移動方向指定情報を送信して画像データを要求する画像要求送信処理ステップと、
    上記画像要求送信処理に応じて上記サーバ装置から送信されてくる、人以外の移動体で撮像された画像データを受信し、受信した画像データに基づく表示を行う表示処理ステップと、
    を備える表示方法。
JP2006330832A 2006-12-07 2006-12-07 画像表示システム、表示装置、表示方法 Expired - Fee Related JP5176311B2 (ja)

Priority Applications (12)

Application Number Priority Date Filing Date Title
JP2006330832A JP5176311B2 (ja) 2006-12-07 2006-12-07 画像表示システム、表示装置、表示方法
BRPI0719940A BRPI0719940B1 (pt) 2006-12-07 2007-11-05 sistema de exibição de imagem, aparelho de exibição, e, método de exibição
TW096141749A TW200837713A (en) 2006-12-07 2007-11-05 Image display system, display device and display method
PCT/JP2007/071491 WO2008068990A1 (ja) 2006-12-07 2007-11-05 画像表示システム、表示装置、表示方法
MYPI20091860 MY151947A (en) 2006-12-07 2007-11-05 Image display system, display apparatus, and display method
US12/312,615 US8473544B2 (en) 2006-12-07 2007-11-05 Image display system, display apparatus, and display method
EP07831223.8A EP2090989B1 (en) 2006-12-07 2007-11-05 Image display system, display device and display method
KR1020097011531A KR101329419B1 (ko) 2006-12-07 2007-11-05 화상 표시 시스템, 표시 장치, 표시 방법
CA2670744A CA2670744C (en) 2006-12-07 2007-11-05 Image display system, display apparatus, and display method
CNA2007800451131A CN101578602A (zh) 2006-12-07 2007-11-05 图像显示系统、显示设备和显示方法
US13/903,302 US8949324B2 (en) 2006-12-07 2013-05-28 Image display system, display apparatus, and display method
US14/511,059 US20150022427A1 (en) 2006-12-07 2014-10-09 Image display system, display apparatus, and display method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006330832A JP5176311B2 (ja) 2006-12-07 2006-12-07 画像表示システム、表示装置、表示方法

Publications (2)

Publication Number Publication Date
JP2008147864A JP2008147864A (ja) 2008-06-26
JP5176311B2 true JP5176311B2 (ja) 2013-04-03

Family

ID=39491896

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006330832A Expired - Fee Related JP5176311B2 (ja) 2006-12-07 2006-12-07 画像表示システム、表示装置、表示方法

Country Status (10)

Country Link
US (3) US8473544B2 (ja)
EP (1) EP2090989B1 (ja)
JP (1) JP5176311B2 (ja)
KR (1) KR101329419B1 (ja)
CN (1) CN101578602A (ja)
BR (1) BRPI0719940B1 (ja)
CA (1) CA2670744C (ja)
MY (1) MY151947A (ja)
TW (1) TW200837713A (ja)
WO (1) WO2008068990A1 (ja)

Families Citing this family (47)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5017989B2 (ja) 2006-09-27 2012-09-05 ソニー株式会社 撮像装置、撮像方法
JP2008096868A (ja) 2006-10-16 2008-04-24 Sony Corp 撮像表示装置、撮像表示方法
JP5023663B2 (ja) * 2006-11-07 2012-09-12 ソニー株式会社 撮像装置、撮像方法
JP5092357B2 (ja) * 2006-11-07 2012-12-05 ソニー株式会社 撮像表示装置、撮像表示方法
JP4367663B2 (ja) * 2007-04-10 2009-11-18 ソニー株式会社 画像処理装置、画像処理方法、プログラム
JP4506795B2 (ja) 2007-08-06 2010-07-21 ソニー株式会社 生体運動情報表示処理装置、生体運動情報処理システム
KR101518829B1 (ko) 2008-06-17 2015-05-11 삼성전자주식회사 위치 정보를 포함하는 동영상 녹화 및 재생 방법 및 장치
JP5369974B2 (ja) * 2009-08-04 2013-12-18 株式会社リコー 撮像装置及び画像共有システム
TWI423112B (zh) 2009-12-09 2014-01-11 Ind Tech Res Inst 可攜式虛擬輸入操作裝置與其操作方法
US8694597B1 (en) * 2010-03-31 2014-04-08 Emc Corporation Mobile device group-based data sharing
US9514089B1 (en) 2010-03-31 2016-12-06 EMC IP Holding Company LLC Mobile device network data synchronization
US9152650B1 (en) 2010-03-31 2015-10-06 Emc Corporation Mobile device data recovery
US8786698B2 (en) * 2010-09-23 2014-07-22 Sony Computer Entertainment Inc. Blow tracking user interface system and method
US8638364B2 (en) 2010-09-23 2014-01-28 Sony Computer Entertainment Inc. User interface system and method using thermal imaging
JP5677002B2 (ja) * 2010-09-28 2015-02-25 キヤノン株式会社 映像制御装置、及び映像制御方法
CN102033918B (zh) * 2010-12-07 2012-11-21 武汉若鱼网络科技有限公司 基于时间位置信息搜索目标用户的方法及系统
JP2012142825A (ja) * 2011-01-05 2012-07-26 Sony Corp 情報処理装置、情報表示方法及びコンピュータプログラム
US8621000B2 (en) * 2011-03-23 2013-12-31 Verizon Patent And Licensing Inc. Region of interest streaming
US9217867B2 (en) 2011-03-24 2015-12-22 Seiko Epson Corporation Head-mounted display device and control method for the head-mounted display device
JP2012203128A (ja) * 2011-03-24 2012-10-22 Seiko Epson Corp 頭部装着型表示装置および頭部装着型表示装置の制御方法
US8818706B1 (en) 2011-05-17 2014-08-26 Google Inc. Indoor localization and mapping
US8164599B1 (en) 2011-06-01 2012-04-24 Google Inc. Systems and methods for collecting and providing map images
JP5860634B2 (ja) * 2011-08-23 2016-02-16 任天堂株式会社 情報処理システム、情報処理方法、サーバプログラム、サーバ装置、および、サーバシステム
US8941560B2 (en) * 2011-09-21 2015-01-27 Google Inc. Wearable computer with superimposed controls and instructions for external device
TWI482108B (zh) * 2011-12-29 2015-04-21 Univ Nat Taiwan To bring virtual social networks into real-life social systems and methods
KR20130080186A (ko) * 2012-01-04 2013-07-12 삼성전자주식회사 위치 정보 태깅을 위한 방법 및 장치
CN104094589B (zh) * 2012-02-06 2017-08-29 索尼公司 图像捕捉控制器、图像处理器、控制图像捕捉的方法以及图像处理方法
US9170113B2 (en) 2012-02-24 2015-10-27 Google Inc. System and method for mapping an indoor environment
JP5891843B2 (ja) * 2012-02-24 2016-03-23 ソニー株式会社 クライアント端末、サーバ、およびプログラム
JP2013183433A (ja) * 2012-03-05 2013-09-12 Sony Corp クライアント端末、サーバ、およびプログラム
US9756138B2 (en) * 2013-04-08 2017-09-05 Here Global B.V. Desktop application synchronization to process data captured on a mobile device
JP5836319B2 (ja) * 2013-05-31 2015-12-24 京セラドキュメントソリューションズ株式会社 画像形成システム
FR3006455A1 (fr) * 2013-05-31 2014-12-05 Optinvent Systeme de vision oculaire avec guide optique positionnable dans deux positions
JP6299234B2 (ja) * 2014-01-23 2018-03-28 富士通株式会社 表示制御方法、情報処理装置、および表示制御プログラム
KR101580617B1 (ko) 2014-06-05 2015-12-28 오병오 빛의 조사구간 선택이 용이한 실외용 엘이디등기구
DE102014213058A1 (de) * 2014-07-04 2016-01-07 Siemens Aktiengesellschaft Verfahren zur Ausgabe von Fahrzeuginformation
JP6070652B2 (ja) * 2014-07-28 2017-02-01 ヤマハ株式会社 リファレンス表示装置およびプログラム
CN104767816A (zh) * 2015-04-15 2015-07-08 百度在线网络技术(北京)有限公司 拍摄信息采集方法、装置和终端
JP2015212828A (ja) * 2015-06-17 2015-11-26 セイコーエプソン株式会社 頭部装着型表示装置および頭部装着型表示装置の制御方法
WO2017073775A1 (ja) * 2015-10-30 2017-05-04 誠 大島 自動撮像装置、および装着型撮像装置
CA3008441A1 (en) * 2015-12-21 2017-06-29 Amazon Technologies, Inc. Sharing video footage from audio/video recording and communication devices
US10733456B2 (en) 2015-12-21 2020-08-04 A9.Com, Inc. Sharing video footage from audio/video recording and communication devices
CN108924451A (zh) * 2017-05-09 2018-11-30 高德信息技术有限公司 一种图像获取方法及装置
CN110851643A (zh) * 2019-10-28 2020-02-28 维沃移动通信有限公司 一种信息显示方法及电子设备
US20210398322A1 (en) * 2020-06-17 2021-12-23 Palantir Technologies Inc. Approaches for compressing and distributing image data
WO2023084810A1 (ja) * 2021-11-10 2023-05-19 日本電信電話株式会社 情報処理装置、情報処理方法、及び、情報処理プログラム
WO2024085353A1 (ko) * 2022-10-20 2024-04-25 삼성전자주식회사 위치에 기반하여 카메라를 제어하여 위치에 대응하는 미디어를 획득하기 위한 전자 장치 및 그 방법

Family Cites Families (43)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6853293B2 (en) * 1993-05-28 2005-02-08 Symbol Technologies, Inc. Wearable communication system
JP3793773B2 (ja) 1994-06-20 2006-07-05 株式会社東芝 無線通信方法、無線通信基地局および無線端末
US7084903B2 (en) * 1998-05-18 2006-08-01 International Business Machines Corporation Image capturing system and method for automatically watermarking recorded parameters for providing digital image verification
US6791580B1 (en) * 1998-12-18 2004-09-14 Tangis Corporation Supplying notifications related to supply and consumption of user context data
US7107539B2 (en) 1998-12-18 2006-09-12 Tangis Corporation Thematic response to a computer user's context, such as by a wearable personal computer
JP2001034615A (ja) * 1999-07-16 2001-02-09 Nippon Telegr & Teleph Corp <Ntt> 作業支援システム及び作業支援方法
JP2001050759A (ja) * 1999-08-06 2001-02-23 Nissan Motor Co Ltd ナビゲーション装置
JP2001290820A (ja) 2000-01-31 2001-10-19 Mitsubishi Electric Corp 映像収集装置、映像検索装置および映像収集検索システム
US20020010734A1 (en) * 2000-02-03 2002-01-24 Ebersole John Franklin Internetworked augmented reality system and method
GB0028804D0 (en) * 2000-11-25 2001-01-10 Hewlett Packard Co Voice communication concerning a local entity
TWI256250B (en) 2001-05-10 2006-06-01 Ibm System and method for enhancing recorded radio or television programs with information on the world wide web
TWI220036B (en) 2001-05-10 2004-08-01 Ibm System and method for enhancing broadcast or recorded radio or television programs with information on the world wide web
TW540235B (en) 2001-05-10 2003-07-01 Ibm System and method for enhancing broadcast programs with information on the world wide web
US20030014212A1 (en) * 2001-07-12 2003-01-16 Ralston Stuart E. Augmented vision system using wireless communications
US6717737B1 (en) * 2001-12-21 2004-04-06 Kyle Haglund Mobile imaging system
EP1324274A3 (en) 2001-12-28 2005-11-02 Matsushita Electric Industrial Co., Ltd. Vehicle information recording system
JP2003244691A (ja) 2002-02-20 2003-08-29 Matsushita Electric Ind Co Ltd 記憶支援システム
JP3789842B2 (ja) 2002-03-28 2006-06-28 エヌ・ティ・ティ・コムウェア株式会社 コンテンツのセキュリティ機能付き管理方法およびセキュリティ機能付きコンテンツ管理装置
JP2003288357A (ja) 2002-03-28 2003-10-10 Toshiba Corp 情報共有システムと情報共有方法
JP4181372B2 (ja) * 2002-09-27 2008-11-12 富士フイルム株式会社 表示装置、画像情報管理端末、画像情報管理システム、および画像表示方法
JP4508596B2 (ja) * 2002-11-06 2010-07-21 キヤノン株式会社 通信装置、画像記憶装置およびそれらの制御方法
TWI235588B (en) * 2003-01-30 2005-07-01 Casio Computer Co Ltd Wrist-worn communications apparatus
US20040174443A1 (en) * 2003-03-07 2004-09-09 Simske Steven J. System and method for storing of records in a database
WO2004107012A1 (ja) * 2003-05-30 2004-12-09 Vixen Co., Ltd. 天体の自動導入装置
JP4192731B2 (ja) * 2003-09-09 2008-12-10 ソニー株式会社 案内情報提供装置及びプログラム
US20050060299A1 (en) 2003-09-17 2005-03-17 George Filley Location-referenced photograph repository
JP3944160B2 (ja) * 2003-12-25 2007-07-11 キヤノン株式会社 撮像装置、情報処理装置、それらの制御方法及びプログラム
JP2005252732A (ja) * 2004-03-04 2005-09-15 Olympus Corp 撮像装置
JP4459717B2 (ja) 2004-05-26 2010-04-28 富士フイルム株式会社 地図更新システム
US20060187317A1 (en) * 2005-02-24 2006-08-24 Memory Matrix, Inc. Systems and methods for processing images with positional data
US20060197781A1 (en) * 2005-03-03 2006-09-07 Arutunian Ethan B System and method utilizing enhanced imagery and associated overlays
US7848765B2 (en) * 2005-05-27 2010-12-07 Where, Inc. Location-based services
WO2007008761A1 (en) * 2005-07-07 2007-01-18 Qualcomm Incorporated Method and apparatus for providing location information
US20070032945A1 (en) * 2005-08-02 2007-02-08 Jason Kaufman System and method for providing location related information to a network user
US7920854B2 (en) * 2005-09-19 2011-04-05 Silverbrook Research Pty Ltd Printing a map using a mobile device
US20070083329A1 (en) * 2005-10-07 2007-04-12 Wansoo Im Location-based interactive web-based multi-user community site
JP4371127B2 (ja) 2006-07-14 2009-11-25 ソニー株式会社 再生装置、再生方法、プログラム
US20080082264A1 (en) * 2006-09-11 2008-04-03 Broadcom Corporation, A California Corporation GPS route creation, photograph association, and data collection
JP5092357B2 (ja) * 2006-11-07 2012-12-05 ソニー株式会社 撮像表示装置、撮像表示方法
JP5023663B2 (ja) * 2006-11-07 2012-09-12 ソニー株式会社 撮像装置、撮像方法
US9665597B2 (en) * 2006-12-05 2017-05-30 Qualcomm Incorporated Method and system for processing images using time and location filters
JP4961984B2 (ja) * 2006-12-07 2012-06-27 ソニー株式会社 画像表示システム、表示装置、表示方法
JP4367663B2 (ja) * 2007-04-10 2009-11-18 ソニー株式会社 画像処理装置、画像処理方法、プログラム

Also Published As

Publication number Publication date
TWI379284B (ja) 2012-12-11
CA2670744C (en) 2017-10-31
CN101578602A (zh) 2009-11-11
BRPI0719940A2 (pt) 2014-03-11
TW200837713A (en) 2008-09-16
US20130335352A1 (en) 2013-12-19
BRPI0719940B1 (pt) 2018-11-27
JP2008147864A (ja) 2008-06-26
KR20090086092A (ko) 2009-08-10
EP2090989A4 (en) 2011-11-02
WO2008068990A1 (ja) 2008-06-12
US8949324B2 (en) 2015-02-03
US20100063997A1 (en) 2010-03-11
EP2090989A1 (en) 2009-08-19
MY151947A (en) 2014-07-31
US8473544B2 (en) 2013-06-25
CA2670744A1 (en) 2008-06-12
KR101329419B1 (ko) 2013-11-14
EP2090989B1 (en) 2016-01-27
US20150022427A1 (en) 2015-01-22

Similar Documents

Publication Publication Date Title
JP5176311B2 (ja) 画像表示システム、表示装置、表示方法
JP4961984B2 (ja) 画像表示システム、表示装置、表示方法
US10187612B2 (en) Display apparatus for displaying image data received from an image pickup apparatus attached to a moving body specified by specification information
JP5630513B2 (ja) 表示装置、表示方法、画像表示システム
JP2013110764A (ja) 撮像表示装置、撮像表示方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20091118

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120515

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120709

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120925

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121113

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20121211

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121224

R151 Written notification of patent or utility model registration

Ref document number: 5176311

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160118

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees