[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP3853678B2 - Image processing apparatus, image processing system, and image processing program - Google Patents

Image processing apparatus, image processing system, and image processing program Download PDF

Info

Publication number
JP3853678B2
JP3853678B2 JP2002071003A JP2002071003A JP3853678B2 JP 3853678 B2 JP3853678 B2 JP 3853678B2 JP 2002071003 A JP2002071003 A JP 2002071003A JP 2002071003 A JP2002071003 A JP 2002071003A JP 3853678 B2 JP3853678 B2 JP 3853678B2
Authority
JP
Japan
Prior art keywords
image
captured
imaging
captured image
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2002071003A
Other languages
Japanese (ja)
Other versions
JP2003274396A (en
Inventor
哲司 瀬戸
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Holdings Corp
Original Assignee
Fuji Photo Film Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Photo Film Co Ltd filed Critical Fuji Photo Film Co Ltd
Priority to JP2002071003A priority Critical patent/JP3853678B2/en
Publication of JP2003274396A publication Critical patent/JP2003274396A/en
Application granted granted Critical
Publication of JP3853678B2 publication Critical patent/JP3853678B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Television Signal Processing For Recording (AREA)
  • Closed-Circuit Television Systems (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、画像処理装置、画像処理システム、及び画像処理プログラムに関する。特に本発明は、画像処理装置、画像処理システム、及び画像処理プログラムに関する。
【0002】
【従来の技術】
従来、テーマパーク等では、定点に設置されたカメラを用いて被撮像者を自動的に撮像することが行われている。被撮像者は、カメラが撮像した画像から自分が撮像された画像を選択し、購入していた。
【0003】
【発明が解決しようとする課題】
しかし、このシステムでは、自分が撮像されてた写真を手に入れるためには、撮像が行われたテーマパークで写真又は撮像画像が格納された記録媒体を受け取るか、もしくはテーマパークが発行した領収書を受け取り、後日領収書をテーマパークに提示することによって写真又は記録媒体を受け取る必要があった。従って、被撮像者は、被撮像者の都合のよい時間に、都合のよい場所で、撮像画像を入手することが困難であった。更に、従来のシステムでは、撮像画像に画像又は音声等の付加価値を加えることにより、付加価値の高い形式で撮像画像を被撮像者に提供することが困難であった。
【0004】
そこで本発明は、上記の課題を解決することのできる画像処理装置、画像処理システム、及び画像処理プログラムを提供することを目的とする。この目的は特許請求の範囲における独立項に記載の特徴の組み合わせにより達成される。また従属項は本発明の更なる有利な具体例を規定する。
【0005】
【課題を解決するための手段】
即ち、本発明の第1の形態によると、画像処理装置は、画像及び音声の少なくとも一つを位置情報に対応付けて格納する格納部と、撮像装置から撮像画像を受信する受信部と、撮像装置の撮像場所に基づいて格納部から画像及び音声の少なくとも一つを検索する検索部と、検索された画像及び音声の少なくとも一つを、受信部が受信した撮像画像と合成して合成画像を生成する合成部と、合成画像を外部に出力する出力部とを備える。
【0006】
更に、撮像装置は、撮像時に音声を収録し、合成部は、撮像装置が収録した収録音声と、格納部に格納された音声とを合成して合成音声を生成し、出力部は、合成音声を外部に出力することが好ましい。また、格納部から検索された画像は動画であり、合成部は、動画を撮像画像に合成することが好ましい。更に、検索部は、撮像画像が撮像された撮像時刻を用いて画像及び音声の少なくとも一つを格納部から検索することが好ましい。
【0007】
更に、画像処理装置は、受信部が受信した撮像画像を格納する撮像画像格納部を更に備え、受信部は、撮像画像を、撮像画像中に撮像された被撮像者を認識するためのIDに対応付けて受信し、撮像画像格納部は、撮像画像をIDに対応付けて格納することが好ましい。また、出力部は、合成画像の送信先を、IDに対応付けて格納し、IDに対応付けられた送信先に合成画像を送信することが好ましい。また、入出力部は、複数の箇所で撮像画像が撮像された場合に、予め定めた順に合成画像を送信することが好ましい。
【0008】
本発明の第2の形態によると、画像処理システムは、画像を撮像する撮像装置と、画像処理装置とを備え、画像処理装置は、画像及び音声の少なくとも一つを位置情報に対応付けて格納する格納部と、撮像装置から撮像画像を受信する受信部と、撮像装置の撮像場所に基づいて格納部から画像及び音声の少なくとも一つを検索する検索部と、検索された画像及び音声の少なくとも一つを、受信部が受信した撮像画像と合成して合成画像を生成する合成部と、合成画像を外部に出力する出力部とを有する。
【0009】
更に、撮像装置は、複数あり、複数の撮像装置の各々は、予め定められた場所に設けられており、検索部は、複数の撮像装置のいずれによって撮像画像が撮像されたかに基づいて、撮像場所を特定することが好ましい。また、画像処理システムは、受信部が受信した撮像画像を格納する撮像画像格納部を更に備え、撮像装置は、撮像画像中に撮像された被撮像者を認識し、撮像画像の被撮像者を認識するためのIDを撮像画像に付与し、受信部は、撮像画像を、IDに対応付けて受信し、撮像画像格納部は、撮像画像をIDに対応付けて格納することが好ましい。
【0010】
また、出力部は、合成画像の送信先を、IDに対応付けて格納し、IDに対応付けられた送信先に合成画像を送信することが好ましい。更に、入出力部は、撮像画像が複数の箇所で撮像された場合に、予め定めた順に合成画像を送信することが好ましい。
【0011】
本発明の第3の形態によると、コンピュータで実行可能なプログラムであって、画像処理プログラムは、コンピュータに画像及び音声の少なくとも一つを位置情報に対応付けて格納させる格納モジュールと、コンピュータに撮像装置から撮像画像を受信させる画像受信モジュールと、コンピュータに撮像装置の撮像場所に基づいて格納部から画像及び音声の少なくとも一つを検索させる検索モジュールと、コンピュータに検索された画像及び音声の少なくとも一つを、画像受信モジュールが受信した撮像画像と合成させて合成画像を生成させる合成モジュールと、コンピュータに合成画像を外部に出力させる出力モジュールとを備えることが好ましい。
【0012】
なお上記の発明の概要は、本発明の必要な特徴の全てを列挙したものではなく、これらの特徴群のサブコンビネーションも又発明となりうる。
【0013】
【発明の実施の形態】
以下、発明の実施の形態を通じて本発明を説明するが、以下の実施形態はクレームにかかる発明を限定するものではなく、又実施形態の中で説明されている特徴の組み合わせの全てが発明の解決手段に必須であるとは限らない。
【0014】
図1は、本発明の一実施例である画像処理システム200の構成の概略の一例を示す。画像処理システム200は、複数の撮像装置26A、26B、及び26Cと、ルータ24と、画像処理装置10と、端末32、34、及び36とを備える。
【0015】
画像処理装置10は、端末32、34、及び36の要求に基づいて、ルータ24から受信した撮像画像及び収録音声の少なくとも一つに処理を施し、端末32、34、及び36に処理済みの撮像画像及び収録音声を送信する。
【0016】
画像処理装置10は、画像及び音声を処理するサーバ等のコンピュータである。画像処理装置10は、受信部12、撮像画像格納部14、コンテンツデータベース20、検索部16、合成部18、及び入出力部22を備える。
【0017】
受信部12は、撮像装置26A、26B、及び26Cから撮像画像及び収録音声の少なくとも一つを受信する。撮像装置26A、26B、及び26Cは、撮像画像中に撮像された被撮像者30を認識し、IDを撮像画像に付与するので、受信部12は、受信した撮像画像を、画像中に撮像された被撮像者30を認識するためのIDに対応付けて受信する。受信部12は、被撮像者30が有する携帯電話28からIDを取得してもよい。更に、受信部12は、撮像装置の識別番号、例えば26A、26B、及び26Cを撮像装置26A、26B、及び26Cから受信する。更に、受信部12は、撮像画像が撮像された日時を撮像装置26A、26B、及び26Cから取得する。
【0018】
撮像画像格納部14は、受信部12が受信した撮像画像及び収録音声の少なくとも一つをID、撮像日時、及び撮像場所に対応付けて格納する。
【0019】
画像及び音声の少なくとも一つを格納する格納部の一部としてコンテンツデータベース20は、画像及び音声の少なくとも一つを位置情報に対応付けて予め格納する。位置情報は、撮像装置26A、26B、及び26Cが設置された場所の情報であってもよい。
【0020】
検索部16は、撮像画像の撮像場所に基づいてコンテンツデータベース20から画像及び音声の少なくとも一つを検索する。複数の撮像装置26A、26B、及び26Cの各々は、予め定められた場所に設けられているので、検索部16は、受信部12が受信した撮像装置の識別番号26A、26B、及び26Cに基づいて複数の撮像装置26A、26B、及び26Cのいずれによって撮像画像が撮像されたかを判断することによって、画像の撮像場所を特定する。
【0021】
合成部18は、検索部16により検索された画像及び音声の少なくとも一つを、受信部12が受信した撮像画像及び収録音声と合成して合成画像を生成する。コンテンツデータベース20が音声を格納する場合、合成部は、撮像画像格納部10に格納された収録音声と、コンテンツデータベース20に格納された音声とを合成して合成音声を生成することができる。また、コンテンツデータベース20が動画を格納する場合、検索部16は、画像としてコンテンツデータベース20から動画を検索し、合成部18は、検索部16が検索した動画を撮像画像に合成する。
【0022】
入出力部22は、端末32、34、及び36から画像が要求されたときに、検索部16に画像が要求されたことを通知する。そのため、端末32、34、及び36は、検索部16に画像及び音声を要求することによって撮像画像格納部14及びコンテンツデータ20から所望の画像及び音声を選択することができる。更に、入出力部22は、合成部18が生成した合成画像を端末32、34、及び36に出力する。入出力部22は、複数の箇所で撮像画像が撮像された場合に、予め定めた順に合成画像を送信してもよい。例えば、撮像装置26A、26B、及び26Cが、テーマパークの予め定められた箇所に設置されており、テーマパークの各箇所を見る順番が予め定められている場合に、入出力部22は、予め定めた順番通りに合成画像を送信する。
【0023】
端末32、34、及び36は、携帯電話又は携帯情報端末であってもよく、コンピュータであってもよい。端末32、34、及び36は、画像処理装置10から取得した画像を紙の媒体上に印刷してもよく、銀塩フィルム上にプリントしてもよい。また、端末32、34、及び36は、画像処理装置10から取得した画像を、フロッピーディスク、CD−ROM、DVD等の光学記録媒体、MD等の磁気記録媒体、PD等の光磁気記録媒体、テープ媒体、磁気記録媒体、ICカードやミニチュアーカードなどの半導体メモリー等の記録媒体に格納してもよい。
【0024】
複数の撮像装置26A、26B、及び26Cの各々は、予め定められた場所に設けられている。撮像装置26A、26B、及び26Cは、被撮像者30を各設置場所で撮像する。この際、撮像装置26A、26B、及び26Cは、撮像時の音声を収録してもよい。また、撮像装置26A、26B、及び26Cは、撮像画像中に撮像された被撮像者30を認識し、被撮像者30を識別するためのIDを撮像画像に付与する。また、撮像装置26A、26B、及び26Cは、撮像画像を撮像した日時を取得する。ルータ24は、撮像装置26A、26B、及び26Cが撮像した撮像画像及び収録音声を画像処理装置10に送信する。
【0025】
画像処理システム200は、上記の構成を有するので、被撮像者30が、端末32、34、又は36から撮像画像を要求した場合に、画像処理装置10は、被撮像者30を認識するためのID、撮像場所、及び撮像日時を用いて、撮像画像を検索することができる。従って、被撮像者30は、被撮像者30の都合のよい時間に、都合のよい場所で、撮像画像を容易に入手することができる。更に、画像処理装置10は、撮像画像とコンテンツデータベースに格納された画像及び音声の少なくとも一つとを合成し、端末32,34、及び36に送信することにより、被撮像者30に合成画像を提供することができる。
【0026】
図2は、撮像画像格納部14のデータ構成の一例を表形式で示す。撮像画像格納部14は、撮像画像及び収録音声の少なくとも一つを、撮像画像中に撮像された被撮像者30を認識するためのID、撮像画像の撮像日時、及び各撮像装置の識別番号26A、26B、26Cに対応付けて格納する。
【0027】
例えば、撮像画像及び収録音声PS1〜PS3には、IDが001番の被撮像者30が撮像されている。図2では、IDが001番の被撮像者30は、テーマパーク内を、撮像装置26Aの設置場所、撮像装置26Bの設置場所、及び撮像装置26Cの設置場所の順番に移動して撮像装置26A、26B、及び26Cによって撮像される。撮像画像及び収録音声PS1は、撮像装置26Aによって2001年1月1日9時0分に撮像されている。すなわち、撮像画像及び収録音声PS1は、撮像装置26Aが設置された場所において撮像日時2001年1月1日9時0分に撮像されている。更に、撮像画像及び収録音声PS2は、撮像装置26Bによって2001年1月1日9時10分に撮像されている。更に、撮像画像及び収録音声PS3は、撮像装置26Cによって撮像日時2001年1月1日9時20分に撮像されている。
【0028】
このように、撮像画像格納部14は、撮像画像を、被撮像者30のID、撮像日時、撮像装置の識別番号に対応付けて格納するので、検索部16は、被撮像者30のID、撮像時刻、撮像装置の識別番号を用いて、撮像画像を検索することができる。例えば、IDが001番の被撮像者30は、端末34から画像処理装置10にアクセスし、001番のIDが付与された撮像画像を撮像画像格納部14から検索することによって自分が撮像されている撮像画像を検索することができる。
【0029】
更に、撮像画像格納部14は、撮像画像及び収録音声を撮像日時に対応付けて格納するので、被撮像者30は、画像処理装置10から日時順に撮像画像を検索し、閲覧することができる。更に、撮像画像格納部14は、撮像画像及び収録音声を撮像場所に対応付けて格納する。従って、被撮像者30が撮像画像を指定された撮像場所の順に提供するように画像処理装置10に指示した場合に、画像処理装置10は、合成画像を被撮像者30が指定した撮像場所の順番に提供することができる。
【0030】
図3は、コンテンツデータベース20のデータ構成の一例を表形式で示す。コンテンツデータベース20は、静止画、動画、及び音声を、撮像日時、撮像装置、及び撮像場所に対応付けて予め格納する。例えば、コンテンツデータベース20は、撮像時刻「2001年1月1日9時」、撮像装置「26A」、撮像場所「お台場」に対応付けて、静止画「レインボーブリッジ」、動画「ゆりかもめ」、音声「海の波の音」を格納する。すなわち、コンテンツデータベース20は、画像の撮像場所及び撮像時刻に応じた静止画、動画、及び音声を予め格納する。
【0031】
従って、検索部16は、撮像画像格納部14から2001年1月1日9時に撮像装置26Aによって撮像された撮像画像を取得した場合、コンテンツデータベース20から撮像日時2001年1月1日9時0分及び撮像装置26Aに対応付けられた静止画「レインボーブリッジ」、動画「ゆりかもめ」、及び音声「海の波の音」を取得する。そのため、検索部16は、撮像画像格納部14が取得した撮像画像及び収録音声に撮像日時及び撮像装置の点について関連する画像及び音声の少なくとも一つを、コンテンツデータベース20から検索することができる。
【0032】
画像処理装置10が図2に示した撮像画像格納部14及び図3に示したコンテンツデータベース20を有するので、合成部16は、撮像画像格納部14及びコンテンツデータベース20から得られた画像を合成することによって、付加価値を高くした合成画像を生成することができる。例えば、撮像画像が、2001年1月1日9時0分に撮像装置26Aによって撮像された場合、検索部16は、コンテンツデータベース20から静止画「レインボーブリッジ」、動画「ゆりかもめ」、及び音声「海の波の音」を取得する。合成部18は、被撮像者30を撮像した画像をレインボーブリッジの静止画及びゆりかもめの動画の背景にはめ込むように合成することによって合成画像を生成する。
【0033】
図4は、入出力部22のデータ構成の一例を表形式で示す。入出力部22は、合成画像の被撮像者30のメールアドレス等の送信先を、IDに対応付けて格納する。例えば、入出力部22は、001番のIDに対応付けて送信先1を格納する。従って、入出力部22は、IDに対応付けられた送信先に合成画像を送信することによって撮像画像を被撮像者30に送信することができる。
【0034】
従って、画像処理システム200は、画像処理装置10を用いることによって被撮像者30の都合のよい時間に、都合のよい場所で、撮像画像を提供することができる。更に、画像処理システム200は、画像処理装置10を用いて撮像画像に画像及び音声の少なくとも一つを合成することにより、付加価値の高い形式で撮像画像を被撮像者30に提供することができる。
【0035】
図5は、画像処理装置10のハードウェア構成を示す図である。画像処理装置10は、それぞれバス730に接続されたCPU700と、ROM702と、RAM704と、通信インタフェース706と、ハードディスクドライブ708と、データベースインタフェース710と、フロッピーディスクドライブ712と、CD−ROMドライブ714とを備える。CPU700は、ROM702及びRAM704に格納されたプログラムに基づいて動作する。通信インタフェース706は、インターネット10を介して外部と通信する。データベースインタフェース710は、データベースへのデータの書込、及びデータベースの内容の更新を行う。格納装置の一例としてのハードディスクドライブ708は、設定情報及びCPU700が動作するプログラムを格納する。
【0036】
フロッピーディスクドライブ712はフロッピーディスク720からデータまたはプログラムを読み取りCPU700に提供する。CD−ROMドライブ714はCD−ROM722からデータまたはプログラムを読み取りCPU700に提供する。通信インタフェース706は、インターネット10に接続してデータを送受信する。データベースインタフェース710は、各種データベース724と接続してデータを送受信する。
【0037】
CPU700が実行するソフトウエアは、フロッピーディスク720またはCD−ROM722等の記録媒体に格納されて利用者に提供される。記録媒体に格納されたソフトウエアは圧縮されていても非圧縮であっても良い。ソフトウエアは記録媒体からハードディスクドライブ708にインストールされ、RAM704に読み出されてCPU700により実行される。
【0038】
記録媒体に格納されて提供されるソフトウエア、即ちハードディスクドライブ708にインストールされるソフトウェアは、機能構成として、コンピュータに画像及び音声の少なくとも一つを位置情報に対応付けて格納させる格納モジュールと、コンピュータに撮像装置から撮像画像を受信させる画像受信モジュールと、コンピュータに撮像装置の撮像場所に基づいてデータベースから画像及び音声の少なくとも一つを検索させる検索モジュールと、コンピュータに検索された画像及び音声の少なくとも一つを、画像受信モジュールが受信した撮像画像と合成させて合成画像を生成させる合成モジュールと、コンピュータに合成画像を外部に出力させる出力モジュールとを備える。
【0039】
各モジュールがコンピュータに働きかけて、CPU700に行わせる処理は、それぞれ本実施形態の画像処理装置10における、対応する部材の機能及び動作と同一であるので説明を省略する。
【0040】
図5に示した、記録媒体の一例としてのフロッピーディスク720またはCD−ROM722には、本出願で説明した全ての実施形態における画像処理装置10の動作の一部または全ての機能を格納することができる。
【0041】
これらのプログラムは記録媒体から直接RAMに読み出されて実行されても、一旦ハードディスクドライブにインストールされた後にRAMに読み出されて実行されても良い。更に、上記プログラムは単一の記録媒体に格納されても複数の記録媒体に格納されても良い。又、符号化した形態で格納されていてもよい。
【0042】
記録媒体としては、フロッピーディスク、CD−ROMの他にも、DVD等の光学記録媒体、MD等の磁気記録媒体、PD等の光磁気記録媒体、テープ媒体、磁気記録媒体、ICカードやミニチュアーカードなどの半導体メモリー等を用いることができる。又、専用通信ネットワークやインターネットに接続されたサーバシステムに設けたハードディスクまたはRAM等の格納装置を記録媒体として使用し、通信網を介してプログラムを画像処理装置10に提供してもよい。
【0043】
図6は、図1の撮像装置26A、26B、及び26Cの処理フローの一例を示す。撮像装置26A、26B、及び26Cは、被撮像者30を撮像し、撮像時に音声を収録する(S10)。撮像装置26A、26B、及び26Cは、撮像画像に撮像されている被撮像者30を認識し(S12)、撮像画像に被撮像者30を認識するためのIDを付与する(S14)。最後に、撮像装置26A、26B、及び26Cは、撮像画像をIDと共に画像処理装置10に送信する(S16)。
【0044】
図7は、図1の画像処理装置10の処理フローの一例を示す。受信部12は、撮像画像及び収録音声の少なくとも一つを撮像装置26A、26B、及び26Cから受信する(S18)。次に、撮像画像格納部14は、撮像画像及び収録音声の少なくとも一つを撮像日時及び撮像場所に対応付けて格納する(S19)。次に、検索部16は、撮像場所又は撮像日時を用いて撮像画像及び収録音声を撮像画像格納部14から検索し、画像及び音声をコンテンツデータベース20から検索する(S20)。次に、合成部18は、コンテンツデータベース20から検索された画像及び音声の少なくとも一つを、撮像画像格納部14から検索された撮像画像及び収録音声の少なくとも一つと合成して合成画像を生成する(S22)。入出力部22は、合成部18が生成した合成画像を端末32、34、又は36に出力する(S24)。
【0045】
以上、本発明を実施形態を用いて説明したが、本発明の技術的範囲は上記実施形態に記載の範囲には限定されない。上記実施形態に、多様な変更または改良を加えることができる。そのような変更または改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。
【0046】
【発明の効果】
上記説明から明らかなように、本発明によれば被撮像者の都合のよい時間に、都合のよい場所で、被撮像者に付加価値の高い撮像画像を提供することができる。
【図面の簡単な説明】
【図1】本発明の一実施例である画像処理システム200の構成の概略の一例を示す。
【図2】撮像画像格納部14のデータ構成の一例を表形式で示す。
【図3】コンテンツデータベース20のデータ構成の一例を表形式で示す。
【図4】入出力部22のデータ構成の一例を表形式で示す。
【図5】画像処理装置10のハードウェア構成を示す図である。
【図6】図1の撮像装置26A、26B、及び26Cの処理フローの一例を示す。
【図7】図1の画像処理装置10の処理フローの一例を示す。
【符号の説明】
10・・・画像処理装置、12・・・受信部、14・・・撮像画像格納部、16・・・検索部、18・・・合成部、20・・・コンテンツデータベース、22・・・入出力部、24・・・ルータ、26A、26B、26C・・・撮像装置、28・・・携帯電話、30・・・撮像者、32、34、36・・・端末、700・・・CPU、702・・・ROM、704・・・RAM、706・・・通信インタフェース、708・・・ハードディスクドライブ、710・・・データベースインタフェース、712・・・フロッピーディスクドライブ、714・・・CD−ROMドライブ、720・・・フロッピーディスク、722・・・CD−ROM、724・・・各種データベース、730・・・バス、900・・・インターネット
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an image processing apparatus, an image processing system, and an image processing program. In particular, the present invention relates to an image processing apparatus, an image processing system, and an image processing program.
[0002]
[Prior art]
Conventionally, in a theme park or the like, a person to be imaged is automatically imaged using a camera installed at a fixed point. The person to be imaged selected and purchased an image taken by himself / herself from the images taken by the camera.
[0003]
[Problems to be solved by the invention]
However, in this system, in order to obtain a photograph taken by the user, a recording medium in which the photograph or the captured image is stored is received at the theme park where the image is taken, or a receipt issued by the theme park. And received a photo or recording medium by presenting the receipt to the theme park at a later date. Therefore, it has been difficult for the person to be imaged to obtain a captured image at a convenient place at a time convenient for the person to be imaged. Further, in the conventional system, it has been difficult to provide a captured image to a person to be imaged in a high added value format by adding an added value such as an image or sound to the captured image.
[0004]
SUMMARY An advantage of some aspects of the invention is that it provides an image processing apparatus, an image processing system, and an image processing program capable of solving the above-described problems. This object is achieved by a combination of features described in the independent claims. The dependent claims define further advantageous specific examples of the present invention.
[0005]
[Means for Solving the Problems]
That is, according to the first aspect of the present invention, the image processing device includes a storage unit that stores at least one of an image and sound in association with position information, a reception unit that receives a captured image from the imaging device, and an imaging A search unit that searches for at least one of an image and a sound from the storage unit based on the imaging location of the device, and at least one of the searched image and sound is combined with a captured image received by the reception unit to generate a composite image A synthesis unit for generating and an output unit for outputting the synthesized image to the outside are provided.
[0006]
Further, the imaging device records audio at the time of imaging, the synthesizing unit generates synthesized speech by synthesizing the recorded audio recorded by the imaging device and the audio stored in the storage unit, and the output unit generates synthesized speech. Is preferably output to the outside. The image retrieved from the storage unit is a moving image, and the combining unit preferably combines the moving image with the captured image. Furthermore, it is preferable that the retrieval unit retrieves at least one of the image and the sound from the storage unit using the imaging time when the captured image is captured.
[0007]
Furthermore, the image processing apparatus further includes a captured image storage unit that stores a captured image received by the reception unit, and the reception unit uses the captured image as an ID for recognizing the person to be imaged captured in the captured image. Preferably, the captured image storage unit stores the captured image in association with the ID. The output unit preferably stores the destination of the composite image in association with the ID, and transmits the composite image to the destination associated with the ID. The input / output unit preferably transmits the composite image in a predetermined order when the captured images are captured at a plurality of locations.
[0008]
According to the second aspect of the present invention, the image processing system includes an imaging device that captures an image and the image processing device, and the image processing device stores at least one of the image and the sound in association with the position information. A storage unit that receives a captured image from the imaging device, a search unit that searches for at least one of an image and sound from the storage unit based on an imaging location of the imaging device, and at least one of the searched image and audio One includes a combining unit that generates a combined image by combining the captured image received by the receiving unit, and an output unit that outputs the combined image to the outside.
[0009]
Furthermore, there are a plurality of imaging devices, and each of the plurality of imaging devices is provided at a predetermined location, and the search unit captures images based on which of the plurality of imaging devices captured the captured image. It is preferable to specify the location. The image processing system further includes a captured image storage unit that stores the captured image received by the reception unit, and the imaging device recognizes the person to be imaged in the captured image and determines the person to be imaged in the captured image. It is preferable that an ID for recognition is given to the captured image, the reception unit receives the captured image in association with the ID, and the captured image storage unit stores the captured image in association with the ID.
[0010]
The output unit preferably stores the destination of the composite image in association with the ID, and transmits the composite image to the destination associated with the ID. Further, the input / output unit preferably transmits the composite image in a predetermined order when the captured image is captured at a plurality of locations.
[0011]
According to a third aspect of the present invention, a computer-executable program includes an image processing program that stores a storage module that causes a computer to store at least one of an image and sound in association with position information, and an image that is captured by the computer. An image receiving module that receives a captured image from the apparatus; a search module that causes the computer to search at least one of an image and sound from a storage unit based on an imaging location of the imaging apparatus; and at least one of the image and sound searched by the computer It is preferable to include a combining module that generates a combined image by combining the captured image received by the image receiving module and an output module that causes the computer to output the combined image to the outside.
[0012]
The above summary of the invention does not enumerate all the necessary features of the present invention, and sub-combinations of these feature groups can also be the invention.
[0013]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, the present invention will be described through embodiments of the invention. However, the following embodiments do not limit the claimed invention, and all combinations of features described in the embodiments are the solution of the invention. It is not always essential to the means.
[0014]
FIG. 1 shows an example of a schematic configuration of an image processing system 200 according to an embodiment of the present invention. The image processing system 200 includes a plurality of imaging devices 26A, 26B, and 26C, a router 24, the image processing device 10, and terminals 32, 34, and 36.
[0015]
The image processing apparatus 10 processes at least one of the captured image and the recorded sound received from the router 24 based on the request of the terminals 32, 34, and 36, and the processed images of the terminals 32, 34, and 36 are processed. Send images and recorded audio.
[0016]
The image processing apparatus 10 is a computer such as a server that processes images and sound. The image processing apparatus 10 includes a reception unit 12, a captured image storage unit 14, a content database 20, a search unit 16, a synthesis unit 18, and an input / output unit 22.
[0017]
The receiving unit 12 receives at least one of a captured image and recorded sound from the imaging devices 26A, 26B, and 26C. The imaging devices 26A, 26B, and 26C recognize the imaged person 30 captured in the captured image and assign an ID to the captured image, so that the receiving unit 12 captures the received captured image in the image. Received in association with the ID for recognizing the subject 30 to be imaged. The receiving unit 12 may acquire the ID from the mobile phone 28 included in the person to be imaged 30. Further, the receiving unit 12 receives the identification numbers of the imaging devices, for example, 26A, 26B, and 26C from the imaging devices 26A, 26B, and 26C. Furthermore, the receiving unit 12 acquires the date and time when the captured image was captured from the imaging devices 26A, 26B, and 26C.
[0018]
The captured image storage unit 14 stores at least one of the captured image and the recorded audio received by the receiving unit 12 in association with the ID, the imaging date and time, and the imaging location.
[0019]
The content database 20 stores in advance at least one of image and sound in association with position information as part of a storage unit that stores at least one of image and sound. The position information may be information on a place where the imaging devices 26A, 26B, and 26C are installed.
[0020]
The search unit 16 searches for at least one of an image and sound from the content database 20 based on the imaging location of the captured image. Since each of the plurality of imaging devices 26A, 26B, and 26C is provided at a predetermined location, the search unit 16 is based on the imaging device identification numbers 26A, 26B, and 26C received by the receiving unit 12. By determining which of the plurality of imaging devices 26A, 26B, and 26C has captured the captured image, the imaging location of the image is specified.
[0021]
The synthesizing unit 18 generates a synthesized image by synthesizing at least one of the image and the sound retrieved by the retrieving unit 16 with the captured image and the recorded audio received by the receiving unit 12. When the content database 20 stores audio, the synthesis unit can generate synthesized audio by synthesizing the recorded audio stored in the captured image storage unit 10 and the audio stored in the content database 20. When the content database 20 stores a moving image, the search unit 16 searches the content database 20 for a moving image as an image, and the combining unit 18 combines the moving image searched by the searching unit 16 with a captured image.
[0022]
The input / output unit 22 notifies the search unit 16 that an image has been requested when an image is requested from the terminals 32, 34, and 36. Therefore, the terminals 32, 34, and 36 can select desired images and sounds from the captured image storage unit 14 and the content data 20 by requesting the search unit 16 for images and sounds. Further, the input / output unit 22 outputs the composite image generated by the combining unit 18 to the terminals 32, 34, and 36. The input / output unit 22 may transmit the composite image in a predetermined order when captured images are captured at a plurality of locations. For example, when the imaging devices 26A, 26B, and 26C are installed at predetermined locations in a theme park and the order of viewing each location in the theme park is predetermined, the input / output unit 22 The composite image is transmitted in the prescribed order.
[0023]
The terminals 32, 34, and 36 may be cellular phones or portable information terminals, and may be computers. The terminals 32, 34, and 36 may print an image acquired from the image processing apparatus 10 on a paper medium or may be printed on a silver salt film. The terminals 32, 34, and 36 store images acquired from the image processing apparatus 10 as optical recording media such as floppy disks, CD-ROMs, and DVDs, magnetic recording media such as MDs, magneto-optical recording media such as PDs, It may be stored in a recording medium such as a tape medium, a magnetic recording medium, a semiconductor memory such as an IC card or a miniature card.
[0024]
Each of the plurality of imaging devices 26A, 26B, and 26C is provided at a predetermined location. The imaging devices 26A, 26B, and 26C image the person to be imaged 30 at each installation location. At this time, the imaging devices 26A, 26B, and 26C may record sound at the time of imaging. In addition, the imaging devices 26A, 26B, and 26C recognize the person to be imaged 30 captured in the captured image and assign an ID for identifying the person to be imaged 30 to the captured image. Further, the imaging devices 26A, 26B, and 26C acquire the date and time when the captured image was captured. The router 24 transmits the captured images and recorded sound captured by the imaging devices 26A, 26B, and 26C to the image processing device 10.
[0025]
Since the image processing system 200 has the above-described configuration, the image processing apparatus 10 recognizes the imaged person 30 when the imaged person 30 requests a captured image from the terminal 32, 34, or 36. The captured image can be searched using the ID, the imaging location, and the imaging date and time. Therefore, the person to be imaged 30 can easily obtain the captured image at a convenient place at a time convenient for the person to be imaged 30. Furthermore, the image processing apparatus 10 synthesizes the captured image with at least one of the image and sound stored in the content database, and transmits the synthesized image to the terminals 32, 34, and 36, thereby providing the captured image 30 to the captured person 30. can do.
[0026]
FIG. 2 shows an example of the data configuration of the captured image storage unit 14 in a table format. The captured image storage unit 14 recognizes at least one of the captured image and the recorded sound, an ID for recognizing the person to be imaged 30 captured in the captured image, the imaging date and time of the captured image, and the identification number 26A of each imaging device. , 26B, 26C and stored.
[0027]
For example, the imaged person 30 with an ID of 001 is captured in the captured image and the recorded sounds PS1 to PS3. In FIG. 2, the person to be imaged 30 whose ID is 001 moves through the theme park in the order of the installation location of the imaging device 26A, the installation location of the imaging device 26B, and the installation location of the imaging device 26C. , 26B, and 26C. The captured image and the recorded sound PS1 are captured at 9:00:00 on January 1, 2001 by the imaging device 26A. That is, the captured image and the recorded audio PS1 are captured at 9:00:00 on January 1, 2001 at the location where the imaging device 26A is installed. Furthermore, the picked-up image and the recorded sound PS2 are picked up at 9:10 on January 1, 2001 by the image pickup device 26B. Furthermore, the picked-up image and the recorded sound PS3 are picked up at 9:20 on January 1, 2001 by the image pickup device 26C.
[0028]
Thus, since the captured image storage unit 14 stores the captured image in association with the ID of the person to be imaged 30, the imaging date and time, and the identification number of the imaging device, the search unit 16 stores the ID of the person to be imaged 30, The captured image can be searched using the imaging time and the identification number of the imaging apparatus. For example, the person 30 to be imaged whose ID is 001 accesses the image processing apparatus 10 from the terminal 34 and searches the captured image storage unit 14 for a captured image to which the ID of 001 is assigned. The captured image can be searched.
[0029]
Furthermore, since the captured image storage unit 14 stores the captured image and the recorded audio in association with the captured date and time, the imaged person 30 can search and browse the captured image in order of date and time from the image processing apparatus 10. Furthermore, the captured image storage unit 14 stores the captured image and the recorded audio in association with the imaging location. Therefore, when the image pickup person 30 instructs the image processing apparatus 10 to provide the picked-up images in the order of the designated image pickup places, the image processing apparatus 10 selects the composite image of the image pickup place specified by the person to be picked up 30. Can be provided in order.
[0030]
FIG. 3 shows an example of the data structure of the content database 20 in a table format. The content database 20 stores still images, moving images, and sounds in advance in association with the imaging date and time, the imaging device, and the imaging location. For example, the content database 20 associates a still image “Rainbow Bridge”, a moving image “Yurikamome”, audio, with an imaging time “January 1, 2001, 9:00”, an imaging device “26A”, and an imaging location “Odaiba”. Stores "sea wave sound". That is, the content database 20 stores in advance a still image, a moving image, and a sound corresponding to the image capturing location and the image capturing time.
[0031]
Therefore, if the retrieval unit 16 obtains a captured image captured by the imaging device 26A at 9:00 January 1, 2001 from the captured image storage unit 14, the retrieval date 16 January 1, 2001, 9:00 from the content database 20. The still image “Rainbow Bridge”, the moving image “Yurikamome”, and the voice “Sea Wave Sound” associated with the minute and the imaging device 26A are acquired. Therefore, the search unit 16 can search the content database 20 for at least one of the image and sound related to the captured date and time of the captured image and the captured image acquired by the captured image storage unit 14 and the point of the imaging device.
[0032]
Since the image processing apparatus 10 includes the captured image storage unit 14 illustrated in FIG. 2 and the content database 20 illustrated in FIG. 3, the combining unit 16 combines the images obtained from the captured image storage unit 14 and the content database 20. Thus, a composite image with high added value can be generated. For example, when the captured image is captured by the imaging apparatus 26A at 9:00 on January 1, 2001, the search unit 16 retrieves the still image “Rainbow Bridge”, the moving image “Yurikamome”, and the audio “from the content database 20. "Ocean wave sound". The synthesizing unit 18 generates a synthesized image by synthesizing an image of the person to be imaged 30 so as to fit the background of the still image of the rainbow bridge and the moving image of Yurikamome.
[0033]
FIG. 4 shows an example of the data configuration of the input / output unit 22 in a table format. The input / output unit 22 stores a transmission destination such as a mail address of the person to be imaged 30 of the composite image in association with the ID. For example, the input / output unit 22 stores the transmission destination 1 in association with the ID of 001. Therefore, the input / output unit 22 can transmit the captured image to the imaged person 30 by transmitting the composite image to the transmission destination associated with the ID.
[0034]
Therefore, the image processing system 200 can provide a captured image at a convenient place at a time convenient for the person to be imaged 30 by using the image processing apparatus 10. Further, the image processing system 200 can provide the captured image 30 with a high added value to the person to be imaged 30 by synthesizing at least one of the image and the sound with the captured image using the image processing apparatus 10. .
[0035]
FIG. 5 is a diagram illustrating a hardware configuration of the image processing apparatus 10. The image processing apparatus 10 includes a CPU 700, a ROM 702, a RAM 704, a communication interface 706, a hard disk drive 708, a database interface 710, a floppy disk drive 712, and a CD-ROM drive 714 connected to the bus 730, respectively. Prepare. CPU 700 operates based on programs stored in ROM 702 and RAM 704. The communication interface 706 communicates with the outside via the Internet 10. The database interface 710 writes data into the database and updates the contents of the database. A hard disk drive 708 as an example of a storage device stores setting information and a program on which the CPU 700 operates.
[0036]
The floppy disk drive 712 reads data or a program from the floppy disk 720 and provides it to the CPU 700. The CD-ROM drive 714 reads data or a program from the CD-ROM 722 and provides it to the CPU 700. The communication interface 706 connects to the Internet 10 and transmits / receives data. The database interface 710 is connected to various databases 724 to transmit / receive data.
[0037]
Software executed by the CPU 700 is stored in a recording medium such as the floppy disk 720 or the CD-ROM 722 and provided to the user. Software stored in the recording medium may be compressed or uncompressed. The software is installed in the hard disk drive 708 from the recording medium, read into the RAM 704, and executed by the CPU 700.
[0038]
Software provided by being stored in a recording medium, that is, software installed in the hard disk drive 708 includes, as a functional configuration, a storage module that causes a computer to store at least one of an image and sound in association with position information, and a computer An image receiving module for receiving a captured image from the imaging device, a search module for causing the computer to retrieve at least one of an image and a sound from a database based on an imaging location of the imaging device, and at least an image and a sound retrieved by the computer One includes a combining module that generates a combined image by combining the captured image received by the image receiving module, and an output module that causes the computer to output the combined image to the outside.
[0039]
The processing that each module works on the computer to cause the CPU 700 to perform is the same as the function and operation of the corresponding member in the image processing apparatus 10 of the present embodiment, and a description thereof will be omitted.
[0040]
The floppy disk 720 or the CD-ROM 722 as an example of the recording medium illustrated in FIG. 5 may store a part or all of the functions of the image processing apparatus 10 in all the embodiments described in the present application. it can.
[0041]
These programs may be read directly from the recording medium into the RAM and executed, or once installed in the hard disk drive, read out into the RAM and executed. Further, the program may be stored in a single recording medium or a plurality of recording media. Alternatively, it may be stored in an encoded form.
[0042]
As recording media, in addition to floppy disks and CD-ROMs, optical recording media such as DVD, magnetic recording media such as MD, magneto-optical recording media such as PD, tape media, magnetic recording media, IC cards and miniature cards A semiconductor memory such as can be used. Further, a storage device such as a hard disk or RAM provided in a server system connected to a dedicated communication network or the Internet may be used as a recording medium, and the program may be provided to the image processing apparatus 10 via the communication network.
[0043]
FIG. 6 shows an example of the processing flow of the imaging devices 26A, 26B, and 26C of FIG. The imaging devices 26A, 26B, and 26C take an image of the person to be imaged 30 and record a sound at the time of imaging (S10). The imaging devices 26A, 26B, and 26C recognize the imaged person 30 captured in the captured image (S12), and assign an ID for recognizing the imaged person 30 to the captured image (S14). Finally, the imaging devices 26A, 26B, and 26C transmit the captured image together with the ID to the image processing device 10 (S16).
[0044]
FIG. 7 shows an example of the processing flow of the image processing apparatus 10 of FIG. The receiving unit 12 receives at least one of the captured image and the recorded sound from the imaging devices 26A, 26B, and 26C (S18). Next, the captured image storage unit 14 stores at least one of the captured image and the recorded audio in association with the captured date and time and the captured location (S19). Next, the search unit 16 searches the captured image storage unit 14 for captured images and recorded audio using the imaging location or imaging date and time, and searches the content database 20 for images and audio (S20). Next, the synthesizing unit 18 synthesizes at least one of the image and sound retrieved from the content database 20 with at least one of the captured image and recorded sound retrieved from the captured image storage unit 14 to generate a synthesized image. (S22). The input / output unit 22 outputs the combined image generated by the combining unit 18 to the terminal 32, 34, or 36 (S24).
[0045]
As mentioned above, although this invention was demonstrated using embodiment, the technical scope of this invention is not limited to the range as described in the said embodiment. Various modifications or improvements can be added to the above embodiment. It is apparent from the scope of the claims that the embodiments added with such changes or improvements can be included in the technical scope of the present invention.
[0046]
【The invention's effect】
As is clear from the above description, according to the present invention, a captured image with high added value can be provided to the imaged person at a convenient location at a time convenient for the imaged person.
[Brief description of the drawings]
FIG. 1 shows an example of a schematic configuration of an image processing system 200 according to an embodiment of the present invention.
FIG. 2 shows an example of the data configuration of a captured image storage unit 14 in a table format.
FIG. 3 shows an example of the data structure of the content database 20 in a table format.
FIG. 4 shows an example of the data configuration of the input / output unit 22 in a table format.
FIG. 5 is a diagram illustrating a hardware configuration of the image processing apparatus 10;
6 shows an example of a processing flow of the imaging devices 26A, 26B, and 26C of FIG.
7 shows an example of a processing flow of the image processing apparatus 10 of FIG.
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 10 ... Image processing apparatus, 12 ... Reception part, 14 ... Captured image storage part, 16 ... Search part, 18 ... Composition part, 20 ... Content database, 22 ... Input Output unit, 24 ... router, 26A, 26B, 26C ... imaging device, 28 ... mobile phone, 30 ... photographer, 32, 34, 36 ... terminal, 700 ... CPU, 702 ... ROM, 704 ... RAM, 706 ... communication interface, 708 ... hard disk drive, 710 ... database interface, 712 ... floppy disk drive, 714 ... CD-ROM drive, 720 ... floppy disk, 722 ... CD-ROM, 724 ... various databases, 730 ... bus, 900 ... internet

Claims (20)

撮像場所に対応付けて複数の撮像日時を格納し、前記撮像場所及び前記撮像日時に対応付けて、それぞれの前記撮像場所及び前記撮像日時に応じた画像及び音声の少なくとも一つを格納する格納部と、
撮像装置から撮像画像を受信する受信部と、
前記撮像画像の撮像場所及び撮像日時に基づいて前記格納部から画像及び音声の少なくとも一つを検索する検索部と、
前記検索部が検索した画像及び音声の少なくとも一つを、前記受信部が受信した前記撮像画像と合成して合成画像を生成する合成部と、
前記合成画像を外部に出力する出力部と
を備え、
前記出力部は、複数の箇所で前記撮像画像が撮像された場合に、予め定めた順に前記合成画像を送信する画像処理装置。
A storage unit that stores a plurality of imaging dates and times in association with imaging locations, and stores at least one of images and sounds corresponding to the imaging locations and the imaging dates and times in association with the imaging locations and the imaging dates and times When,
A receiving unit that receives a captured image from the imaging device;
A search unit that searches for at least one of an image and sound from the storage unit based on an imaging location and an imaging date and time of the captured image;
A synthesizing unit that synthesizes at least one of the image and sound searched by the search unit with the captured image received by the receiving unit;
E Bei and an output unit which outputs the synthetic image to the outside,
The output unit is an image processing device that transmits the composite image in a predetermined order when the captured image is captured at a plurality of locations .
前記撮像装置は、撮像時に音声を収録し、
前記合成部は、前記検索部が検索した音声を、前記撮像装置が撮像時に収録した音声と合成して合成音声を生成し、
前記出力部は、前記合成部が生成した合成音声を外部に出力する
請求項1に記載の画像処理装置。
The imaging device records audio during imaging,
The synthesizing unit synthesizes the voice searched by the search unit with the voice recorded by the imaging device at the time of imaging, and generates a synthesized voice.
The image processing apparatus according to claim 1, wherein the output unit outputs the synthesized speech generated by the synthesis unit to the outside.
前記検索部が検索した画像は、動画であり、
前記合成部は、前記検索部が検索した動画を、前記撮像画像に合成する
請求項1に記載の画像処理装置。
The image searched by the search unit is a video,
The image processing apparatus according to claim 1, wherein the synthesizing unit synthesizes the moving image searched by the search unit with the captured image.
前記受信部が受信した前記撮像画像を格納する撮像画像格納部
を更に備え、
前記受信部は、前記撮像画像を、前記撮像画像中に撮像された被撮像者を認識するためのIDに対応付けて受信し、
前記撮像画像格納部は、前記撮像画像を前記IDに対応付けて格納する
請求項1に記載の画像処理装置。
A captured image storage unit that stores the captured image received by the reception unit;
The receiving unit receives the captured image in association with an ID for recognizing the person to be imaged captured in the captured image;
The image processing apparatus according to claim 1, wherein the captured image storage unit stores the captured image in association with the ID.
前記出力部は、前記合成画像の送信先を、前記IDに対応付けて格納し、前記IDに対応付けられた送信先に前記合成画像を送信する
請求項4に記載の画像処理装置。
The image processing apparatus according to claim 4, wherein the output unit stores a destination of the composite image in association with the ID, and transmits the composite image to a destination associated with the ID.
画像を撮像する撮像装置と、画像処理装置とを備える画像処理システムであって、
前記画像処理装置は、
撮像場所に対応付けて複数の撮像日時を格納し、前記撮像場所及び前記撮像日時に対応付けて、それぞれの前記撮像場所及び前記撮像日時に応じた画像及び音声の少なくとも一つを格納する格納部と、
前記撮像装置から撮像画像を受信する受信部と、
前記撮像画像の撮像場所及び撮像日時に基づいて前記格納部から画像及び音声の少なくとも一つを検索する検索部と、
前記検索部が検索した画像及び音声の少なくとも一つを、前記受信部が受信した前記撮像画像と合成して合成画像を生成する合成部と、
前記合成画像を外部に出力する出力部と
有し、
前記出力部は、前記撮像画像が複数の箇所で撮像された場合に、予め定めた順に前記合成画像を送信する画像処理システム。
An image processing system including an imaging device that captures an image and an image processing device,
The image processing apparatus includes:
A storage unit that stores a plurality of imaging dates and times in association with imaging locations, and stores at least one of images and sounds corresponding to the imaging locations and the imaging dates and times in association with the imaging locations and the imaging dates and times When,
A receiver that receives a captured image from the imaging device;
A search unit that searches for at least one of an image and sound from the storage unit based on an imaging location and an imaging date and time of the captured image;
A synthesizing unit that synthesizes at least one of the image and sound searched by the search unit with the captured image received by the receiving unit;
An output unit for outputting the composite image to the outside ;
The output unit, when the captured image was captured at a plurality of locations, the image processing system that sends the composite image in a predetermined order.
前記撮像装置は、複数あり、
前記複数の撮像装置の各々は、予め定められた場所に設けられており、
前記検索部は、複数の撮像装置のいずれによって前記撮像画像が撮像されたかに基づいて、前記撮像画像の前記撮像場所を特定する
請求項6に記載の画像処理システム。
There are a plurality of the imaging devices,
Each of the plurality of imaging devices is provided in a predetermined place,
The image processing system according to claim 6, wherein the search unit specifies the imaging location of the captured image based on which of the plurality of imaging devices has captured the captured image.
前記受信部が受信した前記撮像画像を格納する撮像画像格納部
を更に備え、
前記撮像装置は、前記撮像画像中に撮像された被撮像者を認識し、前記撮像画像の被撮像者を認識するためのIDを前記撮像画像に付与し、
前記受信部は、前記撮像画像を、前記IDに対応付けて受信し、
前記撮像画像格納部は、前記撮像画像を前記IDに対応付けて格納する
請求項6に記載の画像処理システム。
A captured image storage unit that stores the captured image received by the reception unit;
The imaging device recognizes an imaged person captured in the captured image, and assigns an ID for recognizing the imaged person of the captured image to the captured image.
The receiving unit receives the captured image in association with the ID,
The image processing system according to claim 6, wherein the captured image storage unit stores the captured image in association with the ID.
前記出力部は、前記合成画像の送信先を、前記IDに対応付けて格納し、前記IDに対応付けられた送信先に前記合成画像を送信する
請求項8に記載の画像処理システム。
The image processing system according to claim 8, wherein the output unit stores a destination of the synthesized image in association with the ID, and transmits the synthesized image to a destination associated with the ID.
コンピュータで実行可能なプログラムであって、
前記コンピュータに、撮像場所に対応付けて複数の撮像日時を格納し、前記撮像場所及び前記撮像日時に対応付けて、それぞれの前記撮像場所及び前記撮像日時に応じた画像及び音声の少なくとも一つを格納部に格納させる格納モジュールと、
前記コンピュータに、撮像装置から撮像画像を受信させる画像受信モジュールと、
前記コンピュータに、前記撮像画像の撮像場所及び撮像日時に基づいて前記格納部から画像及び音声の少なくとも一つを検索させる検索モジュールと、
前記コンピュータに、前記検索モジュールが検索させた画像及び音声の少なくとも一つを、前記画像受信モジュールが受信させた前記撮像画像と合成させて合成画像を生成させる合成モジュールと、
前記コンピュータに、前記合成画像を外部に出力させる出力モジュールと
を備え、
前記出力モジュールは、前記コンピュータに、複数の箇所で前記撮像画像が撮像された場合に、予め定めた順に前記合成画像を送信させるプログラム。
A program executable on a computer,
In the computer, a plurality of imaging dates and times are stored in association with imaging locations, and at least one of images and sounds corresponding to the imaging locations and the imaging dates and times is associated with the imaging locations and the imaging dates and times. A storage module to be stored in the storage unit;
An image receiving module that causes the computer to receive a captured image from an imaging device;
A search module for causing the computer to search at least one of an image and sound from the storage unit based on an imaging location and an imaging date and time of the captured image;
A synthesizing module that synthesizes at least one of the image and sound searched by the search module with the captured image received by the image receiving module to generate a synthesized image;
The computer, Bei example an output module for outputting the synthesized image to the outside,
The output module causes the computer to transmit the composite image in a predetermined order when the captured image is captured at a plurality of locations .
前記コンピュータに、前記画像受信モジュールが受信させた前記撮像画像を格納させる撮像画像格納モジュール
を更に備え、
前記受信モジュールは、前記コンピュータに、前記撮像画像を、前記撮像画像中に撮像された被撮像者を認識するためのIDに対応付けて受信させ、
前記撮像画像格納モジュールは、前記コンピュータに、前記撮像画像を前記IDに対応付けて格納させる
請求項10に記載のプログラム。
The computer further includes a captured image storage module that stores the captured image received by the image receiving module,
The reception module causes the computer to receive the captured image in association with an ID for recognizing the person to be imaged captured in the captured image,
The program according to claim 10, wherein the captured image storage module causes the computer to store the captured image in association with the ID.
画像及び音声の少なくとも一つを位置情報に対応付けて格納する格納部と、
撮像装置から撮像画像を受信する受信部と、
前記撮像装置の撮像場所に基づいて前記格納部から前記画像及び音声の少なくとも一つを検索する検索部と、
前記検索された画像及び音声の少なくとも一つを、前記受信部が受信した前記撮像画像と合成して合成画像を生成する合成部と、
前記合成画像を外部に出力する出力部と
を備え、
前記出力部は、複数の箇所で前記撮像画像が撮像された場合に、予め定めた順に前記合成画像を送信する画像処理装置。
A storage unit that stores at least one of image and sound in association with position information;
A receiving unit that receives a captured image from the imaging device;
A retrieval unit that retrieves at least one of the image and the sound from the storage unit based on an imaging location of the imaging device;
A synthesizing unit that synthesizes at least one of the retrieved image and sound with the captured image received by the receiving unit;
An output unit for outputting the composite image to the outside,
The output unit is an image processing device that transmits the composite image in a predetermined order when the captured image is captured at a plurality of locations.
前記出力部は、複数の箇所で前記撮像画像が撮像された場合に、撮像日時順に前記合成画像を送信する
請求項12に記載の画像処理装置。
The image processing apparatus according to claim 12, wherein the output unit transmits the composite image in the order of imaging date and time when the captured image is captured at a plurality of locations.
前記出力部は、複数の箇所で前記撮像画像が撮像された場合に、被撮像者によって指定された撮像場所の順に前記合成画像を送信する
請求項12に記載の画像処理装置。
The image processing apparatus according to claim 12, wherein the output unit transmits the composite image in the order of the imaging locations designated by the person to be imaged when the captured images are captured at a plurality of locations.
画像を撮像する撮像装置と、画像処理装置とを備える画像処理システムであって、
前記画像処理装置は、
画像及び音声の少なくとも一つを位置情報に対応付けて格納する格納部と、
前記撮像装置から撮像画像を受信する受信部と、
前記撮像装置の撮像場所に基づいて前記格納部から前記画像及び音声の少なくとも一つを検索する検索部と、
前記検索された画像及び音声の少なくとも一つを、前記受信部が受信した前記撮像画像と合成して合成画像を生成する合成部と、
前記合成画像を外部に出力する出力部と
を有し、
前記出力部は、前記撮像画像が複数の箇所で撮像された場合に、予め定めた順に前記合成画像を送信する画像処理システム。
An image processing system including an imaging device that captures an image and an image processing device,
The image processing apparatus includes:
A storage unit that stores at least one of image and sound in association with position information;
A receiver that receives a captured image from the imaging device;
A retrieval unit that retrieves at least one of the image and the sound from the storage unit based on an imaging location of the imaging device;
A synthesizing unit that synthesizes at least one of the retrieved image and sound with the captured image received by the receiving unit;
An output unit for outputting the composite image to the outside;
The output unit is an image processing system that transmits the composite image in a predetermined order when the captured image is captured at a plurality of locations.
前記出力部は、複数の箇所で前記撮像画像が撮像された場合に、撮像日時順に前記合成画像を送信する
請求項15に記載の画像処理システム。
The image processing system according to claim 15, wherein when the captured image is captured at a plurality of locations, the output unit transmits the composite image in order of imaging date and time.
前記出力部は、複数の箇所で前記撮像画像が撮像された場合に、被撮像者によって指定された撮像場所の順に前記合成画像を送信する
請求項15に記載の画像処理システム。
The image processing system according to claim 15, wherein when the captured image is captured at a plurality of locations, the output unit transmits the composite image in the order of imaging locations designated by the person being imaged.
コンピュータで実行可能なプログラムであって、
前記コンピュータに、画像及び音声の少なくとも一つを位置情報に対応付けて格納部に格納させる格納モジュールと、
前記コンピュータに、撮像装置から撮像画像を受信させる画像受信モジュールと、
前記コンピュータに、前記撮像装置の撮像場所に基づいて前記格納部から前記画像及び音声の少なくとも一つを検索させる検索モジュールと、
前記コンピュータに、前記検索された画像及び音声の少なくとも一つを、前記画像受信モジュールが受信した前記撮像画像と合成させて合成画像を生成させる合成モジュールと、
前記コンピュータに、前記合成画像を外部に出力させる出力モジュールと
を備え、
前記出力モジュールは、前記コンピュータに、前記撮像画像が複数の箇所で撮像された場合に、予め定めた順に前記合成画像を送信させるプログラム。
A program executable on a computer,
A storage module for causing the computer to store at least one of an image and sound in a storage unit in association with position information;
An image receiving module that causes the computer to receive a captured image from an imaging device;
A search module for causing the computer to search at least one of the image and the sound from the storage unit based on an imaging location of the imaging device;
A synthesis module for causing the computer to synthesize at least one of the retrieved image and sound with the captured image received by the image reception module;
An output module for causing the computer to output the composite image to the outside;
The output module causes the computer to transmit the composite image in a predetermined order when the captured image is captured at a plurality of locations.
前記出力モジュールは、前記コンピュータに、複数の箇所で前記撮像画像が撮像された場合に、撮像日時順に前記合成画像を送信させる
請求項18に記載のプログラム。
The program according to claim 18, wherein the output module causes the computer to transmit the composite image in order of imaging date and time when the captured image is captured at a plurality of locations.
前記出力モジュールは、前記コンピュータに、複数の箇所で前記撮像画像が撮像された場合に、被撮像者によって指定された撮像場所の順に前記合成画像を送信させる
請求項18に記載のプログラム。
The program according to claim 18, wherein the output module causes the computer to transmit the composite image in the order of the imaging locations designated by the person to be imaged when the captured images are captured at a plurality of locations.
JP2002071003A 2002-03-14 2002-03-14 Image processing apparatus, image processing system, and image processing program Expired - Fee Related JP3853678B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002071003A JP3853678B2 (en) 2002-03-14 2002-03-14 Image processing apparatus, image processing system, and image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002071003A JP3853678B2 (en) 2002-03-14 2002-03-14 Image processing apparatus, image processing system, and image processing program

Publications (2)

Publication Number Publication Date
JP2003274396A JP2003274396A (en) 2003-09-26
JP3853678B2 true JP3853678B2 (en) 2006-12-06

Family

ID=29201413

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002071003A Expired - Fee Related JP3853678B2 (en) 2002-03-14 2002-03-14 Image processing apparatus, image processing system, and image processing program

Country Status (1)

Country Link
JP (1) JP3853678B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4649980B2 (en) 2004-12-21 2011-03-16 ソニー株式会社 Image editing apparatus, image editing method, and program
JP2016118649A (en) * 2014-12-19 2016-06-30 ティアック株式会社 Multitrack recording system with radio lan function
JP6730461B2 (en) 2017-01-23 2020-07-29 株式会社Nttドコモ Information processing system and information processing apparatus

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0879792A (en) * 1994-09-07 1996-03-22 Takasago Shoji:Kk Method for producing souvenir video tape and system
JP3913453B2 (en) * 1999-09-07 2007-05-09 富士フイルム株式会社 Image capture output system
JP4374709B2 (en) * 2000-03-30 2009-12-02 セイコーエプソン株式会社 Image printing system
JP3548526B2 (en) * 2000-12-28 2004-07-28 オリンパス株式会社 Electronic imaging device

Also Published As

Publication number Publication date
JP2003274396A (en) 2003-09-26

Similar Documents

Publication Publication Date Title
US20070228159A1 (en) Inquiry system, imaging device, inquiry device, information processing method, and program thereof
US7512335B2 (en) Image capturing apparatus, an image capturing method, and a machine readable medium storing thereon a computer program for capturing images
JP2007334696A (en) Data sharing system, communication terminal and server
JP2001290831A (en) Data storage, and retrieval and reproduction device for still image receiver
JP2003110975A (en) Image recording method and apparatus, image distribution method and apparatus, and program
JP2004032264A (en) Image data managing apparatus
JP3853678B2 (en) Image processing apparatus, image processing system, and image processing program
JP4883355B2 (en) Mobile terminal with camera and image data transmission method
JP2004096270A (en) Image pick-up system
JP2005509337A (en) Consumer portable electronic devices
JP4659569B2 (en) Imaging device
JP5246592B2 (en) Information processing terminal, information processing method, and information processing program
JP4050102B2 (en) Image processing apparatus, image processing method, and program
JP2008219344A (en) Program for receiving, automatically converting, writing, searching, and delivering image, and storage medium
JP2003125346A (en) Recording and regenerating equipment and method, recording medium and program
JP2003209786A (en) System and method for preparing record of event based on image from multiple image capture devices
JPWO2002080540A1 (en) Portable information processing device for recording position-dependent information
JP2000222381A (en) Album preparation method and information processor and information outputting device
JP2002281376A (en) Camera apparatus
JP2003323368A (en) Portable information terminal and information delivery system using the same
JP2004023449A (en) Image processing method
JP2000209542A (en) Digital still camera system
JP2005050315A (en) Portable terminal
JP2003244579A (en) Image processing system, program and system
JP2001036789A (en) Image management device, image pickup device, image pickup system, and processor

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040304

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20060223

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060228

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060428

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20060530

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060628

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20060809

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20060905

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20060906

R150 Certificate of patent or registration of utility model

Ref document number: 3853678

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090915

Year of fee payment: 3

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090915

Year of fee payment: 3

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090915

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100915

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100915

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110915

Year of fee payment: 5

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120915

Year of fee payment: 6

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130915

Year of fee payment: 7

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees