[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2004080205A - Image processor - Google Patents

Image processor Download PDF

Info

Publication number
JP2004080205A
JP2004080205A JP2002235934A JP2002235934A JP2004080205A JP 2004080205 A JP2004080205 A JP 2004080205A JP 2002235934 A JP2002235934 A JP 2002235934A JP 2002235934 A JP2002235934 A JP 2002235934A JP 2004080205 A JP2004080205 A JP 2004080205A
Authority
JP
Japan
Prior art keywords
image
instruction
data
shooting
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2002235934A
Other languages
Japanese (ja)
Other versions
JP4024107B2 (en
Inventor
Hiroshi Okawa
大川 浩
Kenichi Funato
船戸 賢一
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Holdings Corp
Original Assignee
Fuji Photo Film Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Photo Film Co Ltd filed Critical Fuji Photo Film Co Ltd
Priority to JP2002235934A priority Critical patent/JP4024107B2/en
Publication of JP2004080205A publication Critical patent/JP2004080205A/en
Application granted granted Critical
Publication of JP4024107B2 publication Critical patent/JP4024107B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Television Signal Processing For Recording (AREA)
  • Studio Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an advice for a user about a photographed image by a camera over a communication line such as the Internet, etc. <P>SOLUTION: The image processor generates screen data 250 for showing a photographed image 252 based on the instruction of photographing conditions for a virtual camera, the photographing conditions 254 and advice information 262 according to the photographing conditions to the user side and transmits the data to a user's computer. Thus it provides in real time the advice information corresponding to the photographed image based on the photographing conditions instructed by a user in real time. <P>COPYRIGHT: (C)2004,JPO

Description

【0001】
【発明の属する技術分野】
本発明は、画像処理装置にかかり、特に、インターネット等の通信回線を介してカメラ装置による撮影画像に関連するアドバイス情報を提供する画像処理装置に関する。
【0002】
【従来の技術】
ユーザは、写真などを得るために、カメラ装置で撮影するが、その撮影時は、物品を目視しながら構図や明るさなどの撮影条件を決定している。ところが、一眼レフカメラなどのカメラ装置で撮影する場合、その撮影は写真フィルムに露光するため、実際にどのような画像が露光され、最終的にどのような明るさでどのようなぼけ状態の被写体としてプリントが得られるのかは、カメラ装置のファインダーを覗いた撮影状態では把握することができない。このため、ユーザは、得られるプリントを予想しながら、撮影条件を決定する。従って、カメラ装置による撮影は、熟練を要していた。このため、カメラ装置で自動的に撮影条件を決定して、良質なプリントが得られるべく、撮影条件を決定する自動カメラが多用されている。
【0003】
ところで、近年の情報通信インフラの発展に伴って、コンピュータ(PC)を情報端末としてネットワークに参加して、各種情報を入手することが可能になってきている。最近では、平易に利用可能になったネットワークのインターネットを利用して各種画像を配信するサイト(ホームページ)も知られており、通信装置を含むPCを用意するのみで手軽に画像鑑賞が可能になった。そこで、カメラ装置の撮影条件に対応する画像を、情報として配信することで、ユーザは撮影条件に対する画像を鑑賞することができる。
【0004】
【発明が解決しようとする課題】
しかしながら、PC上で写真などの画像を参照することは可能であるものの、写真画像を得るために実際に撮影したときにどのような画像が形成され、その画像はどのように撮影すれば理想的な画像として形成されるのかは困難であった。例えば、カメラ装置の操作について初心者のユーザが、撮影シーンとして逆光のもとで撮影した画像がどのように形成されるのか、形成された画像が好ましくないとき、どこが好ましくないのかを擬似的な撮影環境で体験することは困難であった。
【0005】
本発明は、上記事実を考慮して、ユーザに対して、インターネット等の通信回線を介してカメラ装置で撮影したときに得られるプリント画像を模擬処理することができる画像処理装置を得ることが目的である。
【0006】
【課題を解決するための手段】
上記目的を達成するために本発明は、通信回線に接続された情報端末に対して撮影画像に関連するアドバイス情報を提供する画像処理装置において、少なくとも仮想空間内における被写体の画像データを記憶すると共に、予め定めた基準の撮影条件により前記被写体を撮影したときの基準撮影画像に対する撮影情報の差異に応じたメッセージ情報を記憶する記憶手段と、前記情報端末に仮想的な空間上における撮影環境を提示させるための予め定めた被写体データを送信する送信手段と、前記情報端末により指示されかつ、前記撮影環境内において撮影されるときの撮影条件を受信する受信手段と、受信した撮影条件により前記被写体の撮影画像の画像データを生成する生成手段と、前記撮影画像に対応するアドバイス情報を生成すると共に、前記情報端末へ向けて通信回線を介して提供する提供手段と、を備えたことを特徴とする。
【0007】
本発明の画像処理装置は、通信回線に接続された情報端末に対して撮影画像に関連するアドバイス情報を提供するものである。画像処理装置の記憶手段は、少なくとも仮想空間内における被写体の画像データを記憶している。これと共に、記憶手段は、予め定めた基準の撮影条件により被写体を撮影したときの基準撮影画像に対する撮影情報の差異に応じたメッセージ情報を記憶している。送信手段は、情報端末に仮想的な空間上における撮影環境を提示させるための予め定めた被写体データを送信する。これによって、ユーザ側である情報端末では、仮想的な空間上における撮影環境を提示でき、これをユーザが参照することが可能となる。この情報端末から撮影条件を受信手段によって受信する。撮影条件とは、仮想的な撮影環境内において被写体を撮影するときの撮影条件であり、情報端末側すなわちユーザの意図するカメラ装置や撮影シーンの状態を表すものである。これによって、ユーザの撮影意図として撮影条件を入手することができる。生成手段では、受信した撮影条件により被写体の撮影画像の画像データを生成する。すなわちユーザの指示する撮影条件で撮影したときの画像に相当する画像データを生成できる。提供手段は、撮影画像に対応するアドバイス情報を生成すると共に、情報端末へ向けて通信回線を介して提供する。これによって、ユーザの撮影意図である撮影条件により形成される撮影画像に対応するアドバイス情報を情報端末側に提示でき、ユーザは、情報端末により、意図する撮影条件により得られるべき撮影画像に対応するアドバイスを得ることが可能となる。
【0008】
前記受信手段は、カメラ装置の絞り値及びシャッタースピードの少なくとも一方を含む露出指示値、画角、主要被写体からの距離及び主要被写体に対する撮影方向の少なくとも1つを含む構図指示値、ストロボ点灯の有無、光学フィルタの挿抜、カメラ固定の有無の少なくとも1つを含む外部装置の装着指示値のうちの、少なくとも1つの指示値を前記撮影条件の条件値として受信することができる。
【0009】
ユーザが意図する撮影条件として、カメラ装置の絞り及びシャッタースピードの少なくとも一方を含む露出指示値を条件値として採用することで、少なくとも明るさに関する画像の変化を提供することができる。また、画角、主要被写体からの距離及び主要被写体に対する撮影方向の少なくとも1つを含む構図指示値を条件値として採用することで、少なくとも撮影画像として得られる被写体の位置関係や撮影シーンの形成状態を提供することができる。また、ストロボ点灯の有無、光学フィルタの挿抜、カメラ固定の有無の少なくとも1つを含む外部装置の装着指示値を条件値として採用することで、少なくとも撮影時における様々な外部装置による撮影状態を提供することができる。
【0010】
前記生成手段は、受信した撮影条件により被写体を撮影したときにプリント形成されるべき撮影画像の画像データを生成することができる。
【0011】
生成手段が、被写体を撮影したときにプリント形成されるべき指示画像の画像データを生成するようにすれば、ユーザが意図する撮影条件の画像、すなわちユーザの指示する撮影条件で撮影したときのプリント画像の画像データを生成できる。この画像データを情報端末へ向けて送信することで、ユーザは、情報端末により、意図する撮影条件により形成されるべきプリント画像を参照することが可能となる。
【0012】
【発明の実施の形態】
以下、図面を参照して本発明の実施の形態の一例を詳細に説明する。本実施の形態は、コンピュータやPDA等の情報端末を無線または有線でネットワーク接続可能なコンピュータ・ネットワーク・システムに、本発明を適用したものである。本実施の形態のコンピュータ・ネットワーク・システムでは、カメラ装置で撮影したときに得られるプリント画像について、仮想的な空間内でカメラ装置による撮影を模擬しかつ、得られるべきプリント画像に対するアドバイス情報をユーザ側に提示するものである。
【0013】
図1には、本発明の実施の形態が適用可能なネットワークシステムの概略構成が示されている。本実施の形態では、サーバ側で写真画像関連情報提示サイト(以下、写真情報サイト)を構築して運用し、ユーザ側でその写真情報サイトへアクセスするものである。ネットワークシステム80は、各々同一または異なるユーザが画像参照などを希望するユーザ側の複数のコンピュータ84、及び画像データ授受のための同一または異なる複数のコンピュータ81,83,85が、それぞれモデム、ルータ、TA(ターミナル・アダプタ:Terminal Adapter)等の接続装置86を介して、インターネットやその他の小規模ネットワークとしてのLAN(Local Area Network)で代表されるネットワーク(例えば、インターネット)88に接続されて構成されている。これら複数のコンピュータは、ネットワーク88を介して、相互通信により情報授受が可能である。なお、ゲートウェイ・システム89は、ネットワーク88と他のネットワークや独立したコンピュータと接続するためのシステムである。
【0014】
また、以下の説明では、複数のコンピュータ81,83,85の各々はサーバ・コンピュータとして機能し、複数のコンピュータ84の各々はクライアント・コンピュータとして機能する。コンピュータ81は撮影条件に対応する画像に関連するデータを蓄積することが可能なコンピュータ(以下、「蓄積サーバ81」という)として機能し、コンピュータ83はユーザからの提示要請に対応する処理を実行するコンピュータ(以下、「処理サ−バ」)83として機能する構成を一例として説明する。
【0015】
なお、これらのサーバは上記のように分離構成してもよく、また1つのサーバ内で稼働させてもよい。また、本実施の形態では、上記のコンピュータは各々1台ずつとして説明するが、複数台でもよい。
【0016】
本実施の形態では、ネットワークとしてインターネットを適用した場合を説明する。この場合、少なくとも1つのコンピュータは、WWW(World Wide Web)サーバとして機能させることができ、また他のマシンはWWWクライアントとして機能させることもできる。また、アクセス時には、アクセス位置(アクセス先のコンピュータの位置、及びコンピュータ内の情報の位置で構成されるデータ)は、URL(Uniform Resource Locator)で指定することができる。この場合のデータは、一般に、HTTP(Hyper Text Transfer Protocol)に従って転送される。また、コンピュータの識別にはIP(Internet Protocol)アドレスなどの識別データを用いることができ、コンピュータを操作する操作者の識別にユーザ自身の入力や予め定められているコード等のユーザIDを用いることができる。
【0017】
図2には、本実施の形態における情報の授受に関係する主要な部分の処理サーバ83の構成を含めブロック図で示した。処理サーバ83は、ユーザから要求された画像表示の要求などに該当する処理をするための主処理装置である。
【0018】
〔処理サーバ〕
処理サーバ83は、CPU12A、ROM12B、RAM12C、及びI/O12Dがコマンドやデータの授受をすることが可能に接続されたマイクロコンピュータを含んで構成されている。I/O12Dは、フレキシブルディスク装置などのリードライト装置12E、及び処理プログラムなどが記憶された各種メモリが接続されている。なお、図示は省略したが、I/O12Dには、キーボードなどの操作装置やディスプレイなどの表示装置を接続することができる。
【0019】
リードライト装置12Eは、記憶媒体46が挿抜可能に構成されている。記憶媒体46にはフレキスブルディスクなどがある。なお、後述する処理ルーチン等は、リードライト装置12Eを用いて記憶媒体46から実行可能である。従って、後述する処理ルーチンは、本体内のメモリなどに記憶することなく、予め記憶媒体46に記録しておき、リードライト装置12Eを介して記憶媒体に記録された処理プログラムを実行してもよい。なお、ハードディスク装置等の大容量記憶装置を備えて、記憶媒体に記録された処理プログラムを格納(インストール)して該当する処理を実行してもよい。なお、記録媒体としては、CD−ROM,MD,MO,DVD等のディスクやDAT等の磁気テープがあり、これらを用いるときには、上記リードライト装置12EにはCD−ROM装置、MD装置、MO装置、DVD装置、DAT装置等を用いればよい。
【0020】
また、I/O12Dには、通信装置14、画像処理装置16、及びアドバイス装置20が接続されている。通信装置14は、ネットワーク88に接続するための図1の通信装置86を含むものであり、処理サーバ83と外部装置との間で通信を実行するための装置である。画像処理装置16は、処理サーバ83に接続された外部装置(例えば、ユーザ・コンピュータ84)と画像データ授受のための各種処理を行うための装置である(詳細は後述)。アドバイス装置20は、カメラ装置で撮影したときに得られるプリント画像、すなわち仮想的な空間内で模擬したカメラ装置による撮影で得られるべきプリント画像に対して、ユーザ側に提示するためのアドバイス情報を生成する処理を行う装置である(詳細は後述)。
【0021】
さらに、I/O12Dには、各種メモリ18A、18Bが接続されている。これら各種メモリには、カメラ装置で撮影したときに得られるプリント画像をカメラの仮想ファインダとして模擬処理するために用いられる各種データが格納されている。メモリ18Aには、処理サーバ83で実行される処理プログラムが記憶され、メモリ18Bには、模擬処理するための画像データやアドバイス情報などが記憶されている。なお、メモリ18Aは、処理プログラムがROM12BやRAM12Cに記憶される場合には不要である。
【0022】
処理サーバ83では、上記構成以外にも各種電気機器やソフトウェアが可動可能であるが、汎用的かつ一般的なハードウェア構成であるため、詳細な説明を省略する。
【0023】
なお、上記通信装置14でデータを送受信することは、本発明の送信手段、受信手段、及び提供手段の機能を達成するための構成に相当する。また、画像処理装置16で画像データを生成することは本発明の生成手段の機能を達成するための構成に相当する。さらに、アドバイス装置20でアドバイス情報を生成することは本発明の提供手段でアドバイス情報を生成する機能を達成するための構成に相当する。
【0024】
〔蓄積サーバ〕
蓄積サーバ81は、CPU22A、ROM22B、RAM22C、及びI/O22Dがコマンドやデータの授受をすることが可能に接続されたマイクロコンピュータを含んで構成されている。I/O22Dは、リードライト装置22E、及び処理プログラムなどが記憶された各種メモリが接続されている。また、I/O22Dには、通信装置24が接続されている。
【0025】
上記I/O22Dには、各種メモリ28A、28Bが接続されている。メモリ28Aには、蓄積サーバ81で実行される処理プログラムが記憶されている。なお、メモリ28Aは、処理プログラムがROM22BやRAM22Cに記憶される場合には不要である。メモリ28Bには、蓄積サーバ81で蓄積する各種データが記憶されている。この各種データの一例としては、後述するカメラ装置で撮影したときに得られるプリント画像を模擬処理して得られる画像の多数の画像データや、そのプリント画像に対応するメッセージや理想画像などのアドバイス情報がある。
【0026】
なお、蓄積サーバ81は、本実施の形態の写真情報サイトを構成する上で、必須の構成ではない。すなわち、蓄積サーバ81に蓄積する各種データを処理サーバ83に格納することで、実施は容易である。なお、この蓄積サーバ81を設けることにより、扱うデータが膨大になる場合、そのデータ量増大による処理サーバ83の処理負荷が増大することを抑制することができるという利点がある。
【0027】
〔ユーザ・コンピュータ〕
ユーザ・コンピュータ84は、CPU32A、ROM32B、RAM32C、及びI/O32Dがコマンドやデータの授受をすることが可能に接続されたマイクロコンピュータを含んで構成されている。I/O32Dには、通信装置34、フレキシブルディスク装置などのリードライト装置32E、キーボードなどの操作装置32F、ディスプレイなどの表示装置32G、及び処理プログラムなどが記憶された各種メモリが接続されている。
【0028】
上記I/O32Dには、各種メモリ38A、38Bが接続されている。メモリ38Aには、ユーザ・コンピュータ84で実行される処理プログラムが記憶されており、メモリ38Bにはユーザ・コンピュータ84で利用する各種データが記憶される。
【0029】
このようなコンピュータ・ネットワーク・システム80を利用することで、後述するように、ユーザは、本写真情報サイトとの間で煩雑な操作を行うことなく、希望する画像の提示を得ることが可能になる。
【0030】
〔処理サーバの画像処理装置〕
次に、処理サーバ83の画像処理装置16について説明する。
【0031】
なお、ユーザ・コンピュータ84に表示される処理サーバ83から提示する画像は、カメラ装置のファインダーをユーザが覗いたときに参照する画像と、意図するまたは固定の撮影条件で撮影したときにプリントとして得られる画像とがある。すなわち、被写体を参照したときのそのままの状態の画像と、撮影条件によるプリントを想定して画像処理をした状態の画像とがある。また、以下の説明では、ユーザ・コンピュータ84に表示される、撮影条件を変更して撮影するためのカメラ装置を仮想カメラ76として説明する。
【0032】
図3には、画像処理装置16の概略機能構成をブロック図として示した。画像処理装置16は、仮想カメラ76の撮影条件指示を表す指示信号を受け取る受取部50を備えており、受取部50は構図指示部52,露出指示部54,及びオプション指示部56からなる撮影条件設定部に接続される。この撮影条件設定部は、仮想カメラ76で撮影するときの撮影者の意図を反映した調整データに対応する。
【0033】
構図指示部52は、ユーザ・コンピュータ84からの指示信号に含まれる調整データを抽出する判別部である。構図指示部52は、撮影方向判別部52A、及び立ち位置判別部52Bから構成される。ここでは、ユーザ・コンピュータ84に表示された仮想空間Wにおいてユーザが仮想的な撮影者(以下、仮想撮影者)78となり、仮想撮影者78により仮想空間W内を撮影するときの撮影方向や仮想撮影者78の立ち位置などの構図データが指示信号(撮影シーンの構図に関する調整データ)として抽出される。
【0034】
また、露出指示部54は、仮想カメラ76の露出に関係する調整データを抽出する判別部である。露出指示部54は絞り判別部54A及びシャッタスピード判別部54Bから構成される。ここでは、絞り値やシャッタスピードに該当する調整データが抽出される。
【0035】
また、オプション指示部56は、仮想カメラ76に装備可能な外部装置やカメラ機種などのオプション指示を指定した、ユーザ・コンピュータ84からの指示信号に含まれる調整データを抽出する判別部である。オプション指示部56は、オプション指示の一例としてフォーカス判別部56A,ストロボ判別部56B,光学フィルタ判別部56C,三脚判別部56D,ズームレンズ判別部56E,交換レンズ判別部56F,及びカメラ指定判別部56Gから構成される。例えば、フォーカス判別部56Aではフォーカスエリアなどの焦点調整に関する合焦範囲や測光に関する測光範囲などの調整データが抽出され、ストロボ判別部56Bではストロボ照射に該当する調整データが抽出される。
【0036】
同様に、光学フィルタ判別部56Cではユーザが仮想カメラ76に装着を指示した光学フィルタの種類や機能などの詳細データとして調整データが抽出され、三脚判別部56Dユーザが仮想カメラ76に装着を指示した三脚の種類や機能などの詳細データとして調整データが抽出され、ズームレンズ判別部56Eではユーザが仮想カメラ76に装着を指示したズームレンズの種類や機能などの詳細データとして調整データが抽出され、交換レンズ判別部56Fではユーザが仮想カメラ76に装着を指示した光学レンズ(例えば広角や魚眼)の種類や機能などの詳細データとして調整データが抽出され、カメラ指定判別部56Gではユーザが仮想カメラ76として利用するカメラ装置の種類や機能などの詳細データとして調整データが抽出される。
【0037】
構図指示部52は、抽出された撮影方向(例えば視野角)のデータが出力される撮影方向判別部52A及び仮想撮影者78の立ち位置のデータが出力される立ち位置判別部52Bを介して画角導出部58に接続されている。画角導出部58は、撮影方向及び仮想撮影者78の立ち位置により撮影範囲となる画角及び対象空間を導出する。
【0038】
また、露出指示部54は、抽出された絞りのデータが出力される絞り判別部54A及びシャッタスピードのデータが出力されるシャッタスピード判別部54Bを介して露出導出部60に接続されている。露出導出部60は、仮想撮影者78の絞り値やシャッタスピードによる露出を導出する。また、オプション指示部56は、抽出されたオプションデータが出力される各判別部56A〜56Gを介して撮影状態導出部62に接続されている。撮影状態導出部62は、オプションとしてユーザが指示した撮影状態を導出する。
【0039】
上記画角導出部58、露出導出部60、撮影状態導出部62の各々の出力側は、画像処理部66に接続されている。画像処理部66では、各導出部58〜62から出力されるデータすなわち導出画角の対象領域を、絞りやシャッタスピードで撮影した、またはフォーカスエリア、測光範囲、ストロボ照射などのオプションにより変化する撮影状態下で撮影したときの画像を導出する。
【0040】
画像処理部66には、背景となる基準画像が入力されるように背景画像生成部64、仮想空間W内に設置可能な被写体画像が入力されるように被写体画像生成部68が接続されている。背景画像生成部64は、仮想空間W内について三次元的なデータまたは2次元的なデータが多数利用されて撮影範囲を網羅する少なくとも1つの背景画像(基準画像)を生成する生成部であり、少なくとも1つの背景画像を記憶した画像メモリを含んでいる。また、被写体画像生成部68は、仮想空間W内について三次元的な被写体を設置するために少なくとも1つの被写体画像(3次元画像)を生成する生成部であり、少なくとも1つの被写体の画像を記憶した画像メモリを含んでいる。
【0041】
画像処理部66の出力側は、出力部70に接続される。これにより、各導出部で導出された条件による撮影画像である表示画像データが出力される。
【0042】
なお、本実施の形態では、ユーザ・コンピュータ84からの指示信号に含まれる調整データから画像処理する場合を説明するが、本実施の形態は、この画像処理に限定されるものではない。例えば、多数の撮影条件の組み合わせの各々について、予め画像データを画像メモリ78に記憶し、指示信号に含まれる調整データに対応する、画像を選択する構成としてもよい。
【0043】
次に、画像処理装置16において想定する画像の扱いを説明する。
【0044】
図4には、ユーザ・コンピュータ84に表示される、撮影環境として提供する仮想空間Wを示した。仮想空間Wは、仮想空間Wの背景である背景画像42,仮想空間Wの位置する被写体44,48、仮想空間W内を仮想カメラ76で撮影する仮想撮影者78、及び仮想空間Wを照明する光源40から構成されている。光源40の位置や色温度は変更可能であり、被写体44、48の位置も変更可能である。そして、仮想撮影者78の立ち位置なども変更可能である。
【0045】
なお、本実施の形態では、2次元的な背景画像42を用いた場合を説明するが、仮想空間Wの全ての物品を3次元的に捉えて、3次元画像として用いても良い。また、被写体44、48は3次元画像として想定した場合を説明するが、2次元画像であってもよい。
【0046】
図4の仮想空間W内で撮影シーンを得るために、ユーザが撮影環境を指示する場合、マウスなどの入力装置によって指示入力がなされ、この指示データが上記調整データとしてサーバへ送信される。例えば、被写体48を移動するには、被写体48上にマウスカーソルを位置させたのちに、希望位置までドラッグすることにより、位置データが処理サーバ83へ送信され、対象の被写体48をその位置データに該当する位置に設置した場合の画像を返信することができる。この他、仮想カメラ76の撮影条件指示を表す指示信号には、画像処理装置16で受け取る指示信号として、構図指示部52、露出指示部54、及びオプション指示部56で判別可能な指示信号がある。
【0047】
図5には、ユーザ・コンピュータ84に表示される、仮想カメラ76の撮影条件を指示する指示画像の概要画像を示した。図5(A)は構図指示の指示画像52Z、図5(B)は露出指示の指示画像54Z、図5(C)はオプション指示の指示画像56Zを示した。
【0048】
例えば、ユーザが構図を指示するときは、ユーザ・コンピュータ84上で仮想カメラ76の近傍をマウスなどの入力装置で指示することで、その指示データが処理サーバ83へ送信され、処理サーバ83では構図指示の指示画像52Zを返信する。構図指示の指示画像52Zはユーザ・コンピュータ84上では、指示ボタンとして機能し、該当する指示ボタンをマウスなどで押圧することにより、立ち位置や撮影方向を変更できる。なお、ユーザ側に立ち位置及び撮影方向の把握が容易なように、マーク52Za.52Zbを共に表示させるように指示画像52Zを返信し、ユーザはこのマーク52Za.52Zbをドラッグなどの位置変更により調整する。
【0049】
また、ユーザが露出を指示するときは、ユーザ・コンピュータ84上で仮想カメラ76をマウスなどの入力装置で指示することで、その指示データが処理サーバ83へ送信され、処理サーバ83では露出指示の指示画像54Zを返信する。露出指示の指示画像54Zはユーザ・コンピュータ84上では、指示ボタンとして機能し、該当する指示ボタンをマウスなどで押圧することにより、絞りやシャッタスピードを変更できる。なお、ユーザ側に露出データの把握が容易なように、マーク54Za.54Zbを共に表示させるように指示画像54Zを返信し、ユーザはこのマーク54Za.54Zbをドラッグなどの位置変更により調整する。
【0050】
同様に、ユーザがオプションを指示するときは、上記と異なる領域の仮想空間W内をマウスなどの入力装置で指示することで、その指示データが処理サーバ83へ送信され、処理サーバ83ではオプション指示の指示画像56Zを返信する。オプション指示の指示画像56Zはユーザ・コンピュータ84上では、指示ボタンとして機能し、該当する指示ボタンをマウスなどで押圧することにより、各種オプションの設定画面へと移行し、調整することが可能となる。
【0051】
上記では、仮想空間W内における指示により各種調整を行う場合を説明したが、設定画面を提供してもよい。設定画面は、処理サーバ83からの送信データをユーザ・コンピュータ84で受け取って表示してもよいし、ユーザ・コンピュータ84に予め記憶してユーザの指示による指示信号を出力するようにしてもよい。
【0052】
図6には、ユーザ・コンピュータ84に表示される、仮想カメラ76の撮影条件を指示する指示画像と、設定画像とからなる設定画面210を示した。すなわち、設定画面210は、仮想カメラ76のファインダーをユーザが覗いたときの仮想的な目視画像を表示するための指示画像212,仮想カメラ76に関係して設定指示可能な撮影条件の設定画像を表示するための設定画像214から構成される。
【0053】
指示画像212には、背景画像42と、人物である被写体48を被写体とした画像を表示させた一例を示している。なお、指示画像212には、フォーカスエリアの選択アイコン220や測光範囲の移動アイコン222が表示されている。これらの選択アイコン220及び測光範囲の移動アイコン222の各々は、ユーザ・コンピュータ84に装備されたマウスなどの入力装置により移動指示することができる。
【0054】
指示画像212の下方には、撮影条件の主要機能である絞りとシャッタスピードについて、調整ノブアイコン228Aで絞り値を指示する絞り調整スライダ228を有効化する絞り選択ボタン224、調整ノブアイコン230Aでシャッタスピードを指示するシャッタスピード調整スライダ230を有効化するシャッタスピード選択ボタン226を含んでいる。調整ノブアイコン228A、230Aの停止位置の値を、調整データとしてユーザ・コンピュータ84から出力する。
【0055】
シャッタスピード調整スライダ230の下方には、オプション指示の一例として測光に関する撮影条件を設定指示について、測光範囲移動指示ボタン232、及び測光方式指示ボタン234を含んでいる。測光範囲移動指示ボタン232の押圧により上記選択アイコン220の位置を移動可能にでき、測光方式指示ボタン234の押圧により、下方に位置する重点測光指示ボタン236,スポット測光指示ボタン238,予め定めた画面分割(本実施の形態では6分割)による重点測光を指示ボタン240を有効化できる。この指示データを、調整データとしてユーザ・コンピュータ84から出力する。
【0056】
重点測光指示ボタン236の下方には、オプション指示の他例として、ストロボ発光に関する撮影条件を設定指示する画像が連続している。ここでは、調整ノブアイコン248Aでストロボ光の到達距離及び領域調整の具体的な調整量を指示する調光範囲調整スライダ248の指示状態を表す被写体アイコン242、仮想カメラ76のアイコン244、及びストロボ光の照射範囲アイコン246を含んでいる。この調整ノブアイコン228Aの停止位置を、到達距離及び大きさによる調光範囲である調整データとしてユーザ・コンピュータ84から出力する。この調光範囲に連動して、表示領域246には、表示領域244の仮想カメラ76から被写体までの照射範囲の大小が調整される。
【0057】
なお、図示は省略したが、オプション指示による画角の調整指示をすることが可能である。画角は、撮影レンズの焦点距離調整(所謂ズームや、レンズ交換)に相当し、選択指示ボタンや焦点調整指示によって、指示することができる。また、本実施の形態では、写真フィルムの感度を予め定めた感度(例えば、ISO−100)で撮影することを前提とし、プリントも予め定めた感度や材料の印画紙を用いてプリント形成することを前提としている。これらの感度や材料は、選択可能にすることで、様々な感度や材料に対応するプリント画像を得ることが可能になる。この場合には、写真フィルムや印画紙を選択指示する指示ボタンを追加すればよい。
【0058】
以上説明した調整指示による調整データがユーザ・コンピュータ84から出力され、これを処理サーバ83で受け取ることで画像処理装置16で画像処理がなされ、その撮影画像がユーザ側へ提供される。
【0059】
〔処理サーバのアドバイス装置〕
次に、処理サーバ83のアドバイス装置20について説明する。
【0060】
図7には、アドバイス装置20の概略機能構成をブロック図として示した。アドバイス装置20は、画像処理装置16から撮影シーンの撮影画像データが入力されると共に、その撮影画像の撮影条件である指示データが入力される。アドバイス装置20は、仮想カメラ76の撮影条件指示を表す指示信号(指示データ)を撮影指示状態として受け取る受取部21を備えている。受取部21は、受け取った指示信号による撮影状態を導出する導出部23に接続される。導出部23は、仮想カメラ76で撮影するときの撮影者の意図を反映した調整データによる撮影シーンを特定することができるデータを導出するものであり、本実施の形態では、構図、露出、及びオプションの各種データが導出される。
【0061】
また、画像処理装置16から入力された撮影シーンの撮影画像データは、撮影シーン特定部25に入力される。ここでの撮影画像データは、画像処理装置16から出力される撮影画像データと、その画像データを形成するために用いられた指示データすなわち撮影条件を表す指示データである。撮影シーン特定部25では、仮想カメラ76で撮影指示したときの撮影者の意図による撮影条件の基本となる撮影シーンを特定する。この特定は、画像データから得られる濃度分布や色分布から求めても良く、指示データから得られる構図及び被写体の配置から求めても良い。
【0062】
なお、ここでは、撮影シーン特定部25において撮影画像データを利用する場合を含めているが、撮影画像データは必須のデータではない。すなわち、指示データのみからでも特定することができる。
【0063】
撮影シーン特定部25は、撮影条件について基本状態の導出部27を介して理想となる画像を特定する特定部29に接続されている。基本状態の導出部27は、撮影シーン特定部25で特定した撮影シーンについて予め統計的に定まる標準的な撮影条件としての基本状態を導出する。特定部29では、基本状態の導出部27で導出された基本状態による理想画像を特定する。この特定は、画像データを形成するために用いられた指示データすなわち撮影条件を表す指示データに対応する基本状態のデータを特定することである。
【0064】
上記導出部23、及び特定部29の各々の出力側は、差分導出部31に接続されている。差分導出部31では、各導出部23,29から出力されるデータすなわち指示データの差異を導出する。この差異は、理想画像と撮影画像との差になる。差分導出部31の出力側は、アドバイス導出部33に接続されており、差分データがアドバイス導出部33に入力される。アドバイス導出部33は、差分データと、この差分データに対応するアドバイス情報とがテーブルとして記憶されたアドバイステーブル37(メモリ18B)にも接続されている。
【0065】
アドバイス導出部33では、アドバイステーブル37を参照することで、差分導出部31で導出された差分データに対応するアドバイス情報を導出する。このアドバイス情報には、構図、露出、及びオプションの少なくとも1つの撮影条件に対するアドバイスが文字データまたは画像データとして対応されている。
【0066】
上記アドバイス情報の一例には、構図アドバイス、露出アドバイス、及びオプション装置アドバイスがある。構図アドバイスには、撮影シーンについて標準的な撮影方向との差異を報知したり、撮影時の立ち位置ついて標準的な位置との差異を報知したりするものがある。この立ち位置には、逆光時の立ち位置のアドバイスなども含まれる。また、露出アドバイスには、仮想カメラ76の標準的な露出との差異を報知するものがある。例えば、絞り値やシャッタスピードの大小を報知することができる。
【0067】
また、オプション装置アドバイスには、仮想カメラ76に装備した外部装置の利用に関するデータの報知や設定したカメラ機種などの利用に関するデータの報知がある。また、撮影シーンについて、標準的に利用されるオプション装置の利用を促すデータの報知がある。例えば、フォーカス対象領域の指示、測光対象領域や測光方式の指示、などの焦点あわせや測光に関する標準的なデータとの差異についてデータを報知したり、ストロボの使用の有無や向き及び到達距離などの二次光源に関する標準的なデータとの差異についてデータを報知したりする場合がある。また、各種光学フィルタを利用したときに注意すべき項目データの報知や撮影シーンに対して標準的に利用される光学フィルタの利用を促すデータの報知がある。また、画像のブレに応じて三脚の利用を促したり、構図的に被写体が小さいことが判定されるときにズームレンズの利用を促したり、各種交換レンズにより同一の撮影シーンであっても撮影画像が異なるものとして得られることを画像として報知したりすることがある。また、カメラ装置を指定することで、そのカメラ装置の注意事項を報知したり、より効果的な利用方法を報知したりすることがある。
【0068】
アドバイス導出部33の出力側は、アドバイス情報をユーザへ提示する提示データとして出力する出力部35に接続される。これにより、アドバイス導出部33で導出されたアドバイスを撮影画像に関連させて提供することができる。
【0069】
図8には、ユーザ・コンピュータ84に表示される、撮影画像に関連して提供されるアドバイス情報の提示画面の一例を示した。提示画面250には、仮想空間Wで撮影を模擬した撮影画像252、撮影条件254,撮影判定260,アドバイス262の表示領域から構成されている。
【0070】
撮影画像252は、仮想空間Wで撮影を模擬したユーザ側で指定した構図などの撮影条件による撮影画像であり、この画像は、仮想カメラ76のファインダーを覗いたときの目視画像であってもよいし、プリント画像であってもよい。撮影条件254には、仮想空間Wで撮影を模擬したユーザ側で指定した撮影条件の各値が表示される。また、撮影判定260は、ユーザ側で指定した撮影条件により得られる撮影画像252について同一シーンの標準的な撮影画像との差異が所定値未満のときにOK領域256、所定値以上のときにNG領域258が点灯する判定部として機能する。アドバイス262には、仮想空間Wで撮影を模擬したユーザ側で指定した撮影条件の各値に対応する例えば上述のアドバイス情報が表示される。
【0071】
なお、撮影判定260のOK領域256及びNG領域258は、より詳細なアドバイス情報を要求する要求ボタンとして機能させることができる。例えば、OK領域256が押圧されたことで、撮影シーンについての撮影は妥当であることが予測されるが、さらに他の撮影条件の提示や専門家が撮影した場合の撮影条件の提示をすることができる。また、NG領域258が押圧されたことで、アドバイス262に表示された以外のより詳細なアドバイスを提示したりすることがでる。
【0072】
〔実施の形態の作用〕
次に、本実施形態の作用をさらに説明する。なお、本実施の形態では、処理サーバ83がWWW(World Wide Web)サーバとして機能し、ユーザ・コンピュータ84がクライアントとして機能する場合を説明する。この場合、ユーザ・コンピュータ84には、ネットワークアクセス可能なプログラム(所謂情報端末用のブラウザ)がインストールされており、この情報端末用のブラウザを起動することにより、ネットワーク88を介して処理サーバ83(写真情報サイト)にアクセス可能となる。この写真情報サイトへのアクセスには、アクセスを識別するための識別データ(会員IDなど)が予め登録されているものとする。
【0073】
処理サーバ83では、図9に示す処理ルーチンが実行される。ステップ100では、他のコンピュータから処理サーバ83に対してアクセス要求がなされるまで否定判断を繰り返し、肯定されるとステップ102へ進む。ステップ102では、初期情報として写真情報サイトの初期画面(図10参照、後述)の画像データが出力される。
【0074】
図10には、ユーザ・コンピュータ84で実行される処理の過程において、処理サーバ83からの送信データによりユーザ・コンピュータ84に表示される初期画面200の一例を示した。初期画面200は、本写真情報サイトの全貌を3次元イメージで表現した場202の画像を含んでいる。この場202上には写真画像や絵画画像を提供するための写真ギャラリ館204、及び本実施の形態にかかるアドバイス情報提供のための仮想撮影館208が設けられている。画面200を表示するための初期情報(画像データ)は、その写真ギャラリ館204の画像の周囲の所定範囲の領域206について、写真ギャラリ館204への処理へと移行指示するときに押圧されるべきボタン領域として機能すると共に、その仮想撮影館208の画像の周囲の所定範囲の領域207について、仮想撮影館208への処理へと移行指示するときに押圧されるべきボタン領域として機能するデータ構成とされている。
【0075】
ユーザによるユーザ・コンピュータ84の操作により指示領域207内が押圧され、移行指示がなされると、ユーザ・コンピュータ84から移行指示データが処理サーバ83へ向けて送信される。この移行指示データを処理サーバ83が受信することで、図9のステップ104は肯定され、写真講座へ移行するために、ステップ106へ進む。ステップ106では、仮想撮影館208についての情報すなわち撮影空間(撮影シーンの対象となる空間)である仮想空間W(図4)のデータを送信してステップ108へ進む。一方、ステップ104で否定されると、仮想撮影館208以外(ここでは、写真ギャラリ館204)の移行指示がなされたものであるため、ステップ122へ進み、移行指示に対応する他処理(ここでは、写真ギャラリ館204)を実施した後に本ルーチンを終了する。
【0076】
ステップ108は撮影条件すなわち調整データが受信されるまで否定される。ユーザによるユーザ・コンピュータ84の操作により上述のように構図、絞りやシャッタスピードなどの撮影条件指示がなされると、ユーザ・コンピュータ84から調整データが処理サーバ83へ向けて送信される。この調整データを処理サーバ83が受信することで、ステップ108は肯定され、ステップ110へ進む。ステップ110では、撮影指示されたものとして、上記ステップ108で受信した撮影条件を抽出してステップ112へ進む。
【0077】
ステップ112では、上述のようにして画像処理装置16によって画像処理がなされ、撮影条件により撮影し、プリントとして形成されるべき画像(またはユーザによる目視画像)が生成された後、次のステップ114において、その画像データすなわち、ユーザ・コンピュータ84により、ユーザが指示した撮影条件による撮影画像に対するアドバイス情報がアドバイス装置20で生成される。これらの撮影画像データ及びアドバイス情報が、画像表示領域(ユーザ・コンピュータ84の画面)内に収納されるべく画面データを形成し(図8の提示画面250)、これを送信してステップ118へ進む。
【0078】
次のステップ118では、図示を省略した終了ボタンの押圧がなされたことを表すデータを受信したか否かを判断することによって、終了指示であるか否かを判断し、否定されると、ステップ110へ戻り、肯定されると、次のステップ120において終了後に移行する予め定めた規定の処理画面情報を、ユーザ・コンピュータ84へ向けて送信して本ルーチンを終了する。
【0079】
以上説明したように、本実施の形態では、被写体を撮影するときの撮影条件に対応する撮影画像をユーザ側へ提供するときに、仮想カメラでその撮影条件を模した被写体の画像を提供すると共に、ユーザが指示した撮影条件に対応するアドバイス情報を生成し、撮影画像に関連させてユーザ側へ提供することができるので、ユーザはあたかも撮影時に指示した撮影条件に対する評価を得ることができ、様々な撮影条件で実際に撮影した被写体の画像と共にそのアドバイスをユーザ側へ提示することができる。
【0080】
【発明の効果】
以上説明したように本発明によれば、情報端末から仮想的な撮影環境内において被写体を撮影するときの撮影条件を受信して、被写体の撮影画像に対応するアドバイス情報を生成すると共に、情報端末へ向けて提供するので、ユーザの撮影意図である撮影条件により形成される撮影画像に対応するアドバイス情報を情報端末側に提示でき、ユーザは、情報端末により、意図する撮影条件により得られるべき撮影画像に対応するアドバイスを得ることが、という効果がある。
【図面の簡単な説明】
【図1】本発明の実施の形態に係るネットワークシステムの概略構成を示すブロック図ある。
【図2】本発明の実施の形態に係るネットワークシステムにおける情報の授受についての機能的なブロック図である。
【図3】本発明の実施の形態に係る画像処理装置の概略構成を示すブロック図である。
【図4】本発明の実施の形態に係る、撮影環境として提供する仮想空間を示すイメージ図である。
【図5】本発明の実施の形態に係る撮影条件の指示画像を示し、(A)は構図指示の指示画像、(B)は露出指示の指示画像、(C)はオプション指示の指示画像を示すイメージ図である。
【図6】本発明の実施の形態にかかる仮想カメラの撮影条件を指示する指示画像と、設定画像とからなる設定画面を示したイメージ図である。
【図7】本発明の実施の形態に係るアドバイス装置の概略構成を示すブロック図である。
【図8】本発明の実施の形態にかかる、撮影画像に対応するアドバイス情報を提示するための表示画面のイメージ図である。
【図9】処理サーバにおいて実行される処理の流れを示すフローチャートである。
【図10】本実施の形態にかかる写真情報サイトの初期表示画面を示したイメージ図である。
【符号の説明】
W…仮想空間
14…通信装置
16…画像処理装置
20…アドバイス装置
44…被写体
48…被写体
76…仮想カメラ
78…仮想撮影者
81…蓄積サーバ
83…処理サーバ
84…ユーザ・コンピュータ
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an image processing apparatus, and more particularly, to an image processing apparatus that provides advice information related to an image captured by a camera apparatus via a communication line such as the Internet.
[0002]
[Prior art]
A user takes a picture with a camera device in order to obtain a photograph or the like. At the time of taking a picture, the user decides photographing conditions such as composition and brightness while viewing the article. However, when shooting with a camera device such as a single-lens reflex camera, because the shooting is exposed to photographic film, what kind of image is actually exposed, and finally what kind of blurry subject with what brightness Whether a print can be obtained cannot be grasped in a shooting state when looking through the viewfinder of the camera device. For this reason, the user determines shooting conditions while predicting the print to be obtained. Therefore, shooting with the camera device requires skill. For this reason, an automatic camera that determines shooting conditions is often used so that shooting conditions are automatically determined by a camera device and high-quality prints can be obtained.
[0003]
By the way, with the recent development of information communication infrastructure, it has become possible to obtain various information by participating in a network using a computer (PC) as an information terminal. Recently, a site (homepage) that distributes various images using the Internet of a network that has become easy to use is also known, and it is possible to easily view images simply by preparing a PC including a communication device. It was. Therefore, by distributing an image corresponding to the shooting condition of the camera device as information, the user can appreciate the image corresponding to the shooting condition.
[0004]
[Problems to be solved by the invention]
However, although it is possible to refer to an image such as a photograph on a PC, what image is formed when the photograph is actually taken to obtain a photograph image, and how the image is photographed is ideal. It was difficult to form a clear image. For example, a user who is a novice user about the operation of a camera device will form a pseudo image of how an image captured under backlighting is formed as a shooting scene, and where the formed image is unfavorable. It was difficult to experience in the environment.
[0005]
In view of the above facts, the present invention has an object to obtain an image processing apparatus capable of simulating a print image obtained when a user captures an image with a camera apparatus via a communication line such as the Internet. It is.
[0006]
[Means for Solving the Problems]
To achieve the above object, the present invention stores at least image data of a subject in a virtual space in an image processing apparatus that provides advice information related to a captured image to an information terminal connected to a communication line. Storage means for storing message information corresponding to a difference in shooting information with respect to a reference shot image when the subject is shot under a predetermined reference shooting condition, and presenting a shooting environment in a virtual space to the information terminal Transmitting means for transmitting predetermined subject data for receiving the image data, receiving means for receiving shooting conditions when the information terminal is instructed and shooting is performed within the shooting environment, and according to the received shooting conditions, Generating means for generating image data of the photographed image; and generating advice information corresponding to the photographed image Characterized in that and a providing means for providing through a communication line towards said information terminal.
[0007]
The image processing apparatus of the present invention provides advice information related to a captured image to an information terminal connected to a communication line. The storage means of the image processing apparatus stores at least image data of the subject in the virtual space. At the same time, the storage means stores message information corresponding to the difference in the shooting information with respect to the reference shot image when the subject is shot under a predetermined reference shooting condition. The transmission means transmits predetermined subject data for causing the information terminal to present a shooting environment in a virtual space. Thus, the information terminal on the user side can present a shooting environment in a virtual space, and the user can refer to this. The photographing condition is received from the information terminal by the receiving means. The shooting condition is a shooting condition when shooting a subject in a virtual shooting environment, and represents a state of a camera device or a shooting scene intended by the information terminal, that is, the user. As a result, the shooting conditions can be obtained as the user's shooting intention. The generation unit generates image data of a captured image of the subject according to the received shooting conditions. In other words, it is possible to generate image data corresponding to an image taken under the photographing conditions designated by the user. The providing unit generates advice information corresponding to the photographed image and provides the advice information to the information terminal via the communication line. Accordingly, advice information corresponding to a photographed image formed according to a photographing condition which is a photographing intention of the user can be presented to the information terminal side, and the user can correspond to a photographed image to be obtained according to the intended photographing condition by the information terminal. Advice can be obtained.
[0008]
The receiving means includes an exposure instruction value including at least one of an aperture value and a shutter speed of the camera device, an angle of view, a composition instruction value including at least one of a distance from the main subject and a shooting direction with respect to the main subject, and whether or not the strobe is turned on. In addition, it is possible to receive at least one instruction value as a condition value of the imaging condition among the attachment instruction values of the external device including at least one of insertion / extraction of the optical filter and whether or not the camera is fixed.
[0009]
By adopting an exposure instruction value including at least one of the aperture of the camera device and the shutter speed as a condition value as a shooting condition intended by the user, it is possible to provide at least a change in image related to brightness. Further, by adopting a composition instruction value including at least one of an angle of view, a distance from the main subject, and a shooting direction with respect to the main subject as a condition value, at least the positional relationship of the subject obtained as a shot image and the formation state of the shooting scene Can be provided. In addition, by adopting external device attachment instruction values including at least one of whether or not the strobe is turned on, optical filter insertion and removal, and whether or not the camera is fixed as a condition value, at least shooting conditions by various external devices during shooting are provided. can do.
[0010]
The generation unit can generate image data of a photographed image to be printed when a subject is photographed based on the received photographing conditions.
[0011]
If the generation means generates image data of an instruction image to be printed when the subject is imaged, an image of the shooting condition intended by the user, that is, a print when shooting with the shooting condition specified by the user Image data of an image can be generated. By transmitting this image data to the information terminal, the user can refer to the print image to be formed according to the intended shooting condition by the information terminal.
[0012]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, an example of an embodiment of the present invention will be described in detail with reference to the drawings. In the present embodiment, the present invention is applied to a computer network system in which information terminals such as computers and PDAs can be connected to each other wirelessly or by wire. In the computer network system according to the present embodiment, the user obtains advice information for a print image to be obtained by simulating shooting by the camera device in a virtual space with respect to the print image obtained by shooting with the camera device. To present to the side.
[0013]
FIG. 1 shows a schematic configuration of a network system to which an embodiment of the present invention can be applied. In the present embodiment, a photographic image related information presentation site (hereinafter referred to as a photographic information site) is constructed and operated on the server side, and the photographic information site is accessed on the user side. The network system 80 includes a plurality of computers 84 on the user side, each of which the same or different user desires to refer to an image, and a plurality of same or different computers 81, 83, and 85 for image data transmission / reception. It is configured to be connected to a network (for example, the Internet) 88 typified by a LAN (Local Area Network) as the Internet or other small-scale network via a connection device 86 such as a TA (Terminal Adapter). ing. The plurality of computers can exchange information via the network 88 by mutual communication. The gateway system 89 is a system for connecting the network 88 with another network or an independent computer.
[0014]
In the following description, each of the plurality of computers 81, 83, and 85 functions as a server computer, and each of the plurality of computers 84 functions as a client computer. The computer 81 functions as a computer (hereinafter referred to as “storage server 81”) capable of storing data related to the image corresponding to the shooting conditions, and the computer 83 executes processing corresponding to the presentation request from the user. A configuration that functions as a computer (hereinafter referred to as “processing server”) 83 will be described as an example.
[0015]
These servers may be configured separately as described above, or may be operated in one server. In the present embodiment, each computer is described as being one computer, but a plurality of computers may be used.
[0016]
In this embodiment, a case where the Internet is applied as a network will be described. In this case, at least one computer can function as a WWW (World Wide Web) server, and other machines can function as a WWW client. At the time of access, the access position (data constituted by the position of the access destination computer and the position of the information in the computer) can be specified by a URL (Uniform Resource Locator). The data in this case is generally transferred according to HTTP (Hyper Text Transfer Protocol). Further, identification data such as an IP (Internet Protocol) address can be used for computer identification, and a user ID such as a user's own input or a predetermined code is used for identification of an operator who operates the computer. Can do.
[0017]
FIG. 2 is a block diagram including the configuration of the processing server 83 of the main part related to the exchange of information in the present embodiment. The processing server 83 is a main processing device for performing processing corresponding to a request for image display requested by the user.
[0018]
[Processing server]
The processing server 83 includes a microcomputer to which the CPU 12A, ROM 12B, RAM 12C, and I / O 12D are connected so that commands and data can be exchanged. The I / O 12D is connected to a read / write device 12E such as a flexible disk device, and various memories storing processing programs. Although not shown, an operation device such as a keyboard and a display device such as a display can be connected to the I / O 12D.
[0019]
The read / write device 12E is configured such that the storage medium 46 can be inserted and removed. The storage medium 46 includes a flexible disk. Note that processing routines and the like to be described later can be executed from the storage medium 46 using the read / write device 12E. Therefore, a processing routine described later may be recorded in advance in the storage medium 46 without being stored in the memory in the main body, and the processing program recorded in the storage medium may be executed via the read / write device 12E. . Note that a large-capacity storage device such as a hard disk device may be provided, and a processing program recorded in a storage medium may be stored (installed) to execute the corresponding processing. As recording media, there are disks such as CD-ROM, MD, MO, and DVD, and magnetic tapes such as DAT. When these are used, the read / write device 12E includes a CD-ROM device, an MD device, and an MO device. A DVD device, a DAT device, or the like may be used.
[0020]
In addition, a communication device 14, an image processing device 16, and an advice device 20 are connected to the I / O 12D. The communication device 14 includes the communication device 86 of FIG. 1 for connecting to the network 88, and is a device for executing communication between the processing server 83 and an external device. The image processing apparatus 16 is an apparatus for performing various processes for image data exchange with an external apparatus (for example, a user computer 84) connected to the processing server 83 (details will be described later). The advice device 20 provides advice information to be presented to the user with respect to a print image obtained by photographing with the camera device, that is, a print image to be obtained by photographing with the camera device simulated in a virtual space. It is an apparatus that performs processing to be generated (details will be described later).
[0021]
Further, various memories 18A and 18B are connected to the I / O 12D. These various memories store various data used for simulating a print image obtained by photographing with the camera device as a virtual viewfinder of the camera. The memory 18A stores a processing program executed by the processing server 83, and the memory 18B stores image data, advice information, and the like for simulation processing. The memory 18A is not necessary when the processing program is stored in the ROM 12B or the RAM 12C.
[0022]
In the processing server 83, various electric devices and software can be moved in addition to the above configuration, but since it is a general-purpose and general hardware configuration, detailed description is omitted.
[0023]
Note that transmission / reception of data by the communication device 14 corresponds to a configuration for achieving the functions of the transmission means, reception means, and provision means of the present invention. Moreover, generating image data by the image processing device 16 corresponds to a configuration for achieving the function of the generating means of the present invention. Furthermore, generating advice information by the advice device 20 corresponds to a configuration for achieving a function of generating advice information by the providing means of the present invention.
[0024]
[Storage server]
The storage server 81 includes a microcomputer to which the CPU 22A, ROM 22B, RAM 22C, and I / O 22D are connected so that commands and data can be exchanged. The I / O 22D is connected to a read / write device 22E and various memories storing processing programs. A communication device 24 is connected to the I / O 22D.
[0025]
Various memories 28A and 28B are connected to the I / O 22D. The memory 28A stores a processing program executed by the storage server 81. Note that the memory 28A is unnecessary when the processing program is stored in the ROM 22B or the RAM 22C. Various data stored in the storage server 81 are stored in the memory 28B. As an example of such various data, a lot of image data of an image obtained by simulating a print image obtained by photographing with a camera device to be described later, advice information such as a message or an ideal image corresponding to the print image There is.
[0026]
Note that the storage server 81 is not an essential component for configuring the photo information site of the present embodiment. That is, by storing various data stored in the storage server 81 in the processing server 83, implementation is easy. The provision of the storage server 81 has an advantage that when the amount of data to be handled becomes enormous, an increase in the processing load of the processing server 83 due to an increase in the amount of data can be suppressed.
[0027]
[User computer]
The user computer 84 includes a microcomputer to which the CPU 32A, ROM 32B, RAM 32C, and I / O 32D are connected so that commands and data can be exchanged. The I / O 32D is connected to a communication device 34, a read / write device 32E such as a flexible disk device, an operation device 32F such as a keyboard, a display device 32G such as a display, and various memories storing processing programs.
[0028]
Various memories 38A and 38B are connected to the I / O 32D. The memory 38A stores processing programs executed by the user computer 84, and the memory 38B stores various data used by the user computer 84.
[0029]
By using such a computer network system 80, as will be described later, the user can obtain a desired image without performing a complicated operation with the photo information site. Become.
[0030]
[Image processing device of processing server]
Next, the image processing device 16 of the processing server 83 will be described.
[0031]
Note that the image presented from the processing server 83 displayed on the user computer 84 is obtained as a print when the user looks into the viewfinder of the camera device and when shooting under the intended or fixed shooting conditions. There are images that can be used. That is, there are an image as it is when the subject is referred to and an image that has been subjected to image processing assuming printing according to shooting conditions. Further, in the following description, a camera device that is displayed on the user computer 84 and changes the shooting conditions will be described as a virtual camera 76.
[0032]
FIG. 3 shows a schematic functional configuration of the image processing apparatus 16 as a block diagram. The image processing apparatus 16 includes a receiving unit 50 that receives an instruction signal representing an imaging condition instruction of the virtual camera 76, and the receiving unit 50 includes an imaging condition that includes a composition instruction unit 52, an exposure instruction unit 54, and an option instruction unit 56. Connected to the setting unit. This photographing condition setting unit corresponds to adjustment data reflecting the intention of the photographer when photographing with the virtual camera 76.
[0033]
The composition instruction unit 52 is a determination unit that extracts adjustment data included in an instruction signal from the user computer 84. The composition instruction unit 52 includes an imaging direction determination unit 52A and a standing position determination unit 52B. Here, in the virtual space W displayed on the user computer 84, the user becomes a virtual photographer (hereinafter referred to as a virtual photographer) 78, and the photographing direction and virtual when the virtual photographer 78 photographs the inside of the virtual space W. Composition data such as the standing position of the photographer 78 is extracted as an instruction signal (adjustment data relating to the composition of the photographing scene).
[0034]
The exposure instruction unit 54 is a determination unit that extracts adjustment data related to the exposure of the virtual camera 76. The exposure instruction unit 54 includes an aperture determination unit 54A and a shutter speed determination unit 54B. Here, adjustment data corresponding to the aperture value and shutter speed is extracted.
[0035]
The option instruction unit 56 is a determination unit that extracts adjustment data included in an instruction signal from the user computer 84 that specifies an option instruction such as an external device or a camera model that can be installed in the virtual camera 76. The option instruction unit 56 includes, as an example of an option instruction, a focus determination unit 56A, a strobe determination unit 56B, an optical filter determination unit 56C, a tripod determination unit 56D, a zoom lens determination unit 56E, an interchangeable lens determination unit 56F, and a camera specification determination unit 56G. Consists of For example, the focus determination unit 56A extracts adjustment data such as a focus range related to focus adjustment such as a focus area and a photometry range related to photometry, and the strobe determination unit 56B extracts adjustment data corresponding to strobe irradiation.
[0036]
Similarly, the optical filter discriminating unit 56C extracts adjustment data as detailed data such as the type and function of the optical filter that the user has instructed to attach to the virtual camera 76, and the tripod discriminating unit 56D instructed the virtual camera 76 to attach. Adjustment data is extracted as detailed data such as the type and function of the tripod, and the zoom lens determination unit 56E extracts adjustment data as detailed data such as the type and function of the zoom lens that the user has instructed to attach to the virtual camera 76. The lens discrimination unit 56F extracts adjustment data as detailed data such as the type and function of the optical lens (for example, wide angle or fisheye) that the user has instructed to attach to the virtual camera 76, and the camera designation discrimination unit 56G allows the user to use the virtual camera 76. Adjustment data is extracted as detailed data such as the types and functions of camera devices used as .
[0037]
The composition instructing unit 52 displays the image via the shooting direction determining unit 52A that outputs the data of the extracted shooting direction (for example, the viewing angle) and the standing position determining unit 52B that outputs the data of the standing position of the virtual photographer 78. It is connected to the corner derivation unit 58. The angle-of-view deriving unit 58 derives the angle of view and the target space as the shooting range based on the shooting direction and the virtual photographer 78 standing position.
[0038]
The exposure instructing unit 54 is connected to the exposure deriving unit 60 via an aperture determining unit 54A that outputs the extracted aperture data and a shutter speed determining unit 54B that outputs the shutter speed data. The exposure deriving unit 60 derives the exposure of the virtual photographer 78 based on the aperture value and the shutter speed. Further, the option instruction unit 56 is connected to the photographing state deriving unit 62 via each of the determination units 56A to 56G to which the extracted option data is output. The photographing state deriving unit 62 derives a photographing state designated by the user as an option.
[0039]
The output sides of the angle of view deriving unit 58, the exposure deriving unit 60, and the shooting state deriving unit 62 are connected to an image processing unit 66. In the image processing unit 66, the data output from each of the derivation units 58 to 62, that is, the target area of the derivation angle of view is photographed at the aperture or shutter speed, or the photographing changes depending on options such as the focus area, photometry range, and strobe illumination. Deriving an image taken under conditions.
[0040]
A background image generation unit 64 is connected to the image processing unit 66 so that a reference image as a background is input, and a subject image generation unit 68 is input so that a subject image that can be set in the virtual space W is input. . The background image generation unit 64 is a generation unit that generates at least one background image (reference image) that covers a shooting range by using a large number of three-dimensional data or two-dimensional data in the virtual space W. An image memory storing at least one background image is included. The subject image generation unit 68 is a generation unit that generates at least one subject image (three-dimensional image) in order to place a three-dimensional subject in the virtual space W, and stores at least one subject image. Image memory.
[0041]
The output side of the image processing unit 66 is connected to the output unit 70. As a result, display image data that is a captured image based on the conditions derived by the respective deriving units is output.
[0042]
In the present embodiment, a case where image processing is performed from adjustment data included in an instruction signal from the user computer 84 will be described. However, the present embodiment is not limited to this image processing. For example, image data may be stored in advance in the image memory 78 for each combination of a large number of shooting conditions, and an image corresponding to the adjustment data included in the instruction signal may be selected.
[0043]
Next, an assumed image handling in the image processing device 16 will be described.
[0044]
FIG. 4 shows a virtual space W that is displayed on the user computer 84 and is provided as a shooting environment. The virtual space W illuminates the background image 42 that is the background of the virtual space W, the subjects 44 and 48 positioned in the virtual space W, the virtual photographer 78 who captures the virtual space W with the virtual camera 76, and the virtual space W. The light source 40 is configured. The position and color temperature of the light source 40 can be changed, and the positions of the subjects 44 and 48 can also be changed. The standing position of the virtual photographer 78 can also be changed.
[0045]
In the present embodiment, the case where the two-dimensional background image 42 is used will be described. However, all articles in the virtual space W may be captured three-dimensionally and used as a three-dimensional image. Further, the case where the subjects 44 and 48 are assumed to be three-dimensional images will be described, but a two-dimensional image may be used.
[0046]
In order to obtain a shooting scene in the virtual space W of FIG. 4, when a user instructs a shooting environment, an instruction input is made by an input device such as a mouse, and this instruction data is transmitted to the server as the adjustment data. For example, in order to move the subject 48, the position data is transmitted to the processing server 83 by dragging the mouse cursor to the desired position after the mouse cursor is positioned on the subject 48. It is possible to send back an image when installed at the corresponding position. In addition, the instruction signal indicating the imaging condition instruction of the virtual camera 76 includes an instruction signal that can be discriminated by the composition instruction unit 52, the exposure instruction unit 54, and the option instruction unit 56 as an instruction signal received by the image processing device 16. .
[0047]
FIG. 5 shows a summary image of an instruction image that indicates the shooting conditions of the virtual camera 76 displayed on the user computer 84. 5A shows a composition instruction instruction image 52Z, FIG. 5B shows an exposure instruction instruction image 54Z, and FIG. 5C shows an option instruction instruction image 56Z.
[0048]
For example, when the user instructs composition, the instruction data is transmitted to the processing server 83 by instructing the vicinity of the virtual camera 76 on the user computer 84 with an input device such as a mouse, and the processing server 83 composes the composition. An instruction image 52Z of the instruction is returned. The composition instruction image 52Z functions as an instruction button on the user computer 84, and the standing position and shooting direction can be changed by pressing the corresponding instruction button with a mouse or the like. It should be noted that the marks 52Za. 52Zb is displayed together so that the instruction image 52Z is returned. 52Zb is adjusted by changing the position such as dragging.
[0049]
In addition, when the user instructs the exposure, the instruction data is transmitted to the processing server 83 by instructing the virtual camera 76 with an input device such as a mouse on the user computer 84. The instruction image 54Z is returned. The exposure instruction image 54Z functions as an instruction button on the user computer 84, and the aperture and shutter speed can be changed by pressing the corresponding instruction button with a mouse or the like. It should be noted that the mark 54Za. 54Zb is returned together so that the user can display the mark 54Za. 54Zb is adjusted by changing the position such as dragging.
[0050]
Similarly, when the user designates an option, the instruction data is transmitted to the processing server 83 by instructing the virtual space W in a different area from the above by an input device such as a mouse, and the processing server 83 designates the option. The instruction image 56Z is returned. The option instruction instruction image 56Z functions as an instruction button on the user computer 84. By pressing the corresponding instruction button with a mouse or the like, it is possible to shift to a setting screen for various options and make adjustments. .
[0051]
The case where various adjustments are performed according to instructions in the virtual space W has been described above, but a setting screen may be provided. The setting screen may receive and display transmission data from the processing server 83 by the user computer 84, or may store it in the user computer 84 in advance and output an instruction signal according to a user instruction.
[0052]
FIG. 6 shows a setting screen 210 that is displayed on the user computer 84 and includes an instruction image for instructing shooting conditions of the virtual camera 76 and a setting image. That is, the setting screen 210 displays an instruction image 212 for displaying a virtual visual image when the user looks into the viewfinder of the virtual camera 76, and a setting image of a shooting condition that can be instructed for setting in relation to the virtual camera 76. It consists of a setting image 214 for display.
[0053]
The instruction image 212 shows an example in which a background image 42 and an image with a subject 48 as a subject are displayed. The instruction image 212 displays a focus area selection icon 220 and a photometric range movement icon 222. Each of the selection icon 220 and the photometry range movement icon 222 can be instructed to move by an input device such as a mouse equipped in the user computer 84.
[0054]
Below the instruction image 212, an aperture selection button 224 for enabling an aperture adjustment slider 228 for instructing an aperture value with an adjustment knob icon 228A and a shutter with an adjustment knob icon 230A for the aperture and shutter speed, which are main functions of shooting conditions. A shutter speed selection button 226 for enabling the shutter speed adjustment slider 230 for instructing the speed is included. The values of the stop positions of the adjustment knob icons 228A and 230A are output from the user computer 84 as adjustment data.
[0055]
Below the shutter speed adjustment slider 230, as an example of an option instruction, a photometry range movement instruction button 232 and a photometry method instruction button 234 are included with respect to an instruction to set photographing conditions relating to photometry. The position of the selection icon 220 can be moved by pressing the photometry range movement instruction button 232, and the priority metering instruction button 236, the spot photometry instruction button 238, which is positioned below, can be moved by pressing the photometry method instruction button 234, and a predetermined screen. The instruction button 240 can be validated for weighted metering by division (6 divisions in the present embodiment). This instruction data is output from the user computer 84 as adjustment data.
[0056]
Below the priority metering instruction button 236, as another example of the option instruction, images for instructing setting of shooting conditions relating to flash emission are continuous. Here, the object icon 242 indicating the instruction state of the light adjustment range adjustment slider 248 that indicates the strobe light reach distance and the specific adjustment amount of the area adjustment with the adjustment knob icon 248A, the virtual camera 76 icon 244, and the strobe light The irradiation range icon 246 is included. The stop position of the adjustment knob icon 228A is output from the user computer 84 as adjustment data that is a dimming range depending on the reach distance and size. In conjunction with this light control range, the size of the irradiation range from the virtual camera 76 to the subject in the display area 244 is adjusted in the display area 246.
[0057]
Although illustration is omitted, it is possible to give an instruction to adjust the angle of view by an option instruction. The angle of view corresponds to the focal length adjustment (so-called zoom or lens exchange) of the photographing lens, and can be instructed by a selection instruction button or a focus adjustment instruction. In the present embodiment, it is assumed that the sensitivity of the photographic film is photographed at a predetermined sensitivity (for example, ISO-100), and the print is also formed by using a predetermined sensitivity or material printing paper. Is assumed. By making these sensitivities and materials selectable, print images corresponding to various sensitivities and materials can be obtained. In this case, an instruction button for instructing selection of photographic film or photographic paper may be added.
[0058]
The adjustment data according to the adjustment instruction described above is output from the user computer 84, and is received by the processing server 83, whereby the image processing apparatus 16 performs image processing, and the captured image is provided to the user side.
[0059]
[Processing server advice device]
Next, the advice device 20 of the processing server 83 will be described.
[0060]
FIG. 7 shows a schematic functional configuration of the advice device 20 as a block diagram. The advice device 20 receives photographed image data of a photographing scene from the image processing device 16 and instruction data which is a photographing condition of the photographed image. The advice device 20 includes a receiving unit 21 that receives an instruction signal (instruction data) indicating an imaging condition instruction of the virtual camera 76 as an imaging instruction state. The receiving unit 21 is connected to a deriving unit 23 that derives a photographing state based on the received instruction signal. The deriving unit 23 derives data that can specify a shooting scene based on adjustment data that reflects the photographer's intention when shooting with the virtual camera 76. In the present embodiment, the deriving unit 23 determines the composition, exposure, and Various optional data are derived.
[0061]
Also, the photographic image data of the photographic scene input from the image processing device 16 is input to the photographic scene specifying unit 25. The photographed image data here is photographed image data output from the image processing device 16 and instruction data used for forming the image data, that is, instruction data representing photographing conditions. The shooting scene specifying unit 25 specifies a shooting scene that is the basis of shooting conditions intended by the photographer when a shooting instruction is issued by the virtual camera 76. This specification may be obtained from the density distribution and color distribution obtained from the image data, or from the composition obtained from the instruction data and the arrangement of the subject.
[0062]
Here, the case where the photographed image data is used in the photographing scene specifying unit 25 is included, but the photographed image data is not essential data. That is, it can be specified only from the instruction data.
[0063]
The shooting scene specifying unit 25 is connected to a specifying unit 29 for specifying an ideal image via a basic state deriving unit 27 for shooting conditions. The basic state deriving unit 27 derives a basic state as a standard shooting condition that is statistically determined in advance for the shooting scene specified by the shooting scene specifying unit 25. The specifying unit 29 specifies an ideal image based on the basic state derived by the basic state deriving unit 27. This specification is to specify the basic state data corresponding to the instruction data used to form the image data, that is, the instruction data representing the photographing conditions.
[0064]
The output sides of the deriving unit 23 and the specifying unit 29 are connected to the difference deriving unit 31. The difference deriving unit 31 derives a difference between data output from the deriving units 23 and 29, that is, instruction data. This difference is a difference between the ideal image and the captured image. The output side of the difference deriving unit 31 is connected to the advice deriving unit 33, and the difference data is input to the advice deriving unit 33. The advice deriving unit 33 is also connected to an advice table 37 (memory 18B) in which difference data and advice information corresponding to the difference data are stored as a table.
[0065]
The advice deriving unit 33 derives advice information corresponding to the difference data derived by the difference deriving unit 31 by referring to the advice table 37. In this advice information, advice for at least one photographing condition of composition, exposure, and option is associated as character data or image data.
[0066]
Examples of the advice information include composition advice, exposure advice, and optional device advice. The composition advice includes notification of a difference from a standard shooting direction with respect to a shooting scene, and notification of a difference from a standard position with respect to a standing position at the time of shooting. This standing position includes advice on the standing position during backlighting. In addition, there is an exposure advice for notifying a difference from the standard exposure of the virtual camera 76. For example, the aperture value and the shutter speed can be notified.
[0067]
Optional device advice includes notification of data related to the use of an external device installed in the virtual camera 76 and notification of data related to the use of a set camera model. In addition, there is a notification of data that prompts the user to use an optional device that is used as a standard for a shooting scene. For example, informing data about differences from standard data related to focusing and metering, such as instructions on the focus target area, metering target area and metering method, etc., whether or not the strobe is used, direction and reach distance, etc. In some cases, the data is notified about the difference from the standard data regarding the secondary light source. In addition, there are notification of item data to be noted when using various optical filters, and notification of data that prompts the use of an optical filter that is normally used for a shooting scene. In addition, it encourages the use of a tripod according to image blurring, encourages the use of a zoom lens when it is determined that the subject is small in composition, or uses various interchangeable lenses to capture images even in the same shooting scene. May be reported as an image. In addition, by specifying a camera device, a notice of the camera device may be notified or a more effective usage method may be notified.
[0068]
The output side of the advice deriving unit 33 is connected to an output unit 35 that outputs advice information as presentation data to be presented to the user. Thereby, the advice derived by the advice deriving unit 33 can be provided in association with the photographed image.
[0069]
FIG. 8 shows an example of a screen for presenting advice information provided on the user computer 84 and provided in association with a captured image. The presentation screen 250 includes display areas for a captured image 252 that simulates shooting in the virtual space W, shooting conditions 254, shooting determination 260, and advice 262.
[0070]
The photographed image 252 is a photographed image based on photographing conditions such as a composition designated by the user that simulates photographing in the virtual space W, and this image may be a visual image when looking through the viewfinder of the virtual camera 76. However, it may be a printed image. In the shooting condition 254, each value of the shooting condition specified by the user who simulated shooting in the virtual space W is displayed. The shooting determination 260 is performed when the difference between the shot image 252 obtained based on the shooting conditions specified by the user and the standard shot image of the same scene is less than a predetermined value, and when the difference is greater than the predetermined value, NG. The region 258 functions as a determination unit that lights up. In the advice 262, for example, the above-described advice information corresponding to each value of the shooting condition specified by the user who simulated shooting in the virtual space W is displayed.
[0071]
Note that the OK area 256 and the NG area 258 of the shooting determination 260 can function as request buttons for requesting more detailed advice information. For example, it is predicted that the shooting of the shooting scene is appropriate due to the pressing of the OK area 256, but further shooting conditions are presented or shooting conditions when an expert takes a picture are presented. Can do. Further, when the NG area 258 is pressed, more detailed advice other than that displayed on the advice 262 can be presented.
[0072]
[Operation of the embodiment]
Next, the operation of this embodiment will be further described. In the present embodiment, a case where the processing server 83 functions as a WWW (World Wide Web) server and the user computer 84 functions as a client will be described. In this case, a network-accessible program (so-called information terminal browser) is installed in the user computer 84, and the processing server 83 (via the network 88) is activated by starting the information terminal browser. Photo information site) can be accessed. It is assumed that identification data (such as a member ID) for identifying access is registered in advance for accessing the photo information site.
[0073]
In the processing server 83, the processing routine shown in FIG. 9 is executed. In step 100, the negative determination is repeated until an access request is made to the processing server 83 from another computer. In step 102, image data of an initial screen (see FIG. 10, described later) of the photo information site is output as initial information.
[0074]
FIG. 10 shows an example of an initial screen 200 displayed on the user computer 84 by transmission data from the processing server 83 in the course of processing executed by the user computer 84. The initial screen 200 includes an image of a field 202 that represents the entire picture of the photographic information site as a three-dimensional image. A photo gallery 204 for providing photographic images and painting images and a virtual photo studio 208 for providing advice information according to the present embodiment are provided on this place 202. The initial information (image data) for displaying the screen 200 should be pressed when an instruction to shift to the process to the photo gallery 204 is given for a predetermined area 206 around the image of the photo gallery 204. A data structure that functions as a button area and functions as a button area to be pressed when an instruction to shift to the process to the virtual photo studio 208 is given for the area 207 in a predetermined range around the image of the virtual photo studio 208 Has been.
[0075]
When the inside of the instruction area 207 is pressed by the user's operation of the user computer 84 and a transition instruction is given, the transition instruction data is transmitted from the user computer 84 to the processing server 83. When the processing server 83 receives this shift instruction data, step 104 in FIG. 9 is affirmed, and the process proceeds to step 106 to shift to the photo course. In step 106, information about the virtual photo studio 208, that is, data of the virtual space W (FIG. 4), which is a shooting space (a space to be a shooting scene), is transmitted, and the process proceeds to step 108. On the other hand, if the result in Step 104 is negative, since the instruction to move to a place other than the virtual photo studio 208 (here, the photo gallery 204) has been issued, the process proceeds to Step 122, and other processing (here, the processing corresponding to the transfer instruction). The routine ends after the photograph gallery 204) is executed.
[0076]
Step 108 is negative until imaging conditions, i.e. adjustment data, are received. When an instruction for photographing conditions such as composition, aperture, and shutter speed is given by the user's operation of the user computer 84 as described above, adjustment data is transmitted from the user computer 84 to the processing server 83. When the processing server 83 receives the adjustment data, step 108 is affirmed and the process proceeds to step 110. In step 110, the photographing condition received in step 108 is extracted as a photographing instruction, and the process proceeds to step 112.
[0077]
In step 112, image processing is performed by the image processing device 16 as described above, and an image to be formed as a print (or a visual image by the user) is generated after shooting under shooting conditions. The advice device 20 generates advice information for the captured image based on the image data, that is, the user computer 84 based on the imaging condition designated by the user. Screen data is formed so that these photographed image data and advice information can be stored in the image display area (the screen of the user computer 84) (presentation screen 250 in FIG. 8). .
[0078]
In the next step 118, it is determined whether or not it is an end instruction by determining whether or not data indicating that the end button (not shown) has been pressed has been received. Returning to 110, if the result is affirmed, predetermined processing screen information to be transferred after the end in the next step 120 is transmitted to the user computer 84, and this routine is ended.
[0079]
As described above, in the present embodiment, when a captured image corresponding to a shooting condition when shooting a subject is provided to the user side, an image of the subject imitating the shooting condition is provided by a virtual camera. Since the advice information corresponding to the shooting condition instructed by the user can be generated and provided to the user in relation to the captured image, the user can obtain evaluation on the shooting condition instructed at the time of shooting. It is possible to present the advice along with the image of the subject actually photographed under various photographing conditions to the user side.
[0080]
【The invention's effect】
As described above, according to the present invention, a shooting condition when shooting a subject in a virtual shooting environment is received from an information terminal, and advice information corresponding to a shot image of the subject is generated. Therefore, advice information corresponding to a photographed image formed according to a photographing condition that is a user's intention of photographing can be presented to the information terminal side, and the user can obtain photographing that should be obtained by the information photographing terminal according to the intended photographing condition. There is an effect of obtaining advice corresponding to the image.
[Brief description of the drawings]
FIG. 1 is a block diagram showing a schematic configuration of a network system according to an embodiment of the present invention.
FIG. 2 is a functional block diagram of information exchange in the network system according to the embodiment of the present invention.
FIG. 3 is a block diagram showing a schematic configuration of the image processing apparatus according to the embodiment of the present invention.
FIG. 4 is an image diagram showing a virtual space provided as a shooting environment according to the embodiment of the present invention.
FIGS. 5A and 5B show shooting condition instruction images according to an embodiment of the present invention, in which FIG. 5A shows a composition instruction instruction image, FIG. 5B shows an exposure instruction instruction image, and FIG. 5C shows an option instruction instruction image; It is an image figure shown.
FIG. 6 is an image diagram showing a setting screen including an instruction image for instructing photographing conditions of the virtual camera according to the embodiment of the present invention and a setting image.
FIG. 7 is a block diagram showing a schematic configuration of an advice device according to an embodiment of the present invention.
FIG. 8 is an image diagram of a display screen for presenting advice information corresponding to a photographed image according to the embodiment of the present invention.
FIG. 9 is a flowchart showing a flow of processing executed in the processing server.
FIG. 10 is an image diagram showing an initial display screen of the photo information site according to the embodiment.
[Explanation of symbols]
W ... Virtual space
14: Communication device
16 Image processing apparatus
20 ... Advice device
44 ... Subject
48 ... Subject
76 ... Virtual camera
78 ... Virtual photographer
81 ... Storage server
83 ... Processing server
84: User computer

Claims (3)

通信回線に接続された情報端末に対して撮影画像に関連するアドバイス情報を提供する画像処理装置において、
少なくとも仮想空間内における被写体の画像データを記憶すると共に、予め定めた基準の撮影条件により前記被写体を撮影したときの基準撮影画像に対する撮影情報の差異に応じたメッセージ情報を記憶する記憶手段と、
前記情報端末に仮想的な空間上における撮影環境を提示させるための予め定めた被写体データを送信する送信手段と、
前記情報端末により指示されかつ、前記撮影環境内において撮影されるときの撮影条件を受信する受信手段と、
受信した撮影条件により前記被写体の撮影画像の画像データを生成する生成手段と、
前記撮影画像に対応するアドバイス情報を生成すると共に、前記情報端末へ向けて通信回線を介して提供する提供手段と、
を備えたことを特徴とする画像処理装置。
In an image processing apparatus that provides advice information related to a captured image to an information terminal connected to a communication line,
Storage means for storing at least image data of a subject in a virtual space, and storing message information according to a difference in photographing information with respect to a reference photographed image when the subject is photographed according to a predetermined reference photographing condition;
Transmitting means for transmitting predetermined subject data for causing the information terminal to present a shooting environment in a virtual space;
Receiving means for receiving shooting conditions when instructed by the information terminal and shooting in the shooting environment;
Generating means for generating image data of a photographed image of the subject according to received photographing conditions;
Providing means for generating advice information corresponding to the photographed image and providing the information terminal to the information terminal via a communication line;
An image processing apparatus comprising:
前記受信手段は、カメラ装置の絞り値及びシャッタースピードの少なくとも一方を含む露出指示値、画角、主要被写体からの距離及び主要被写体に対する撮影方向の少なくとも1つを含む構図指示値、ストロボ点灯の有無、光学フィルタの挿抜、カメラ固定の有無の少なくとも1つを含む外部装置の装着指示値のうちの、少なくとも1つの指示値を前記撮影条件の条件値として受信することを特徴とする請求項1に記載の画像処理装置。The receiving means includes an exposure instruction value including at least one of an aperture value and a shutter speed of the camera device, an angle of view, a composition instruction value including at least one of a distance from the main subject and a shooting direction with respect to the main subject, and whether or not the strobe is turned on. 2. The apparatus according to claim 1, wherein at least one instruction value is received as a condition value of the imaging condition among the instruction values for mounting an external device including at least one of insertion / extraction of an optical filter and whether or not the camera is fixed. The image processing apparatus described. 前記生成手段は、受信した撮影条件により被写体を撮影したときにプリント形成されるべき撮影画像の画像データを生成することを特徴とする請求項1または請求項2に記載の画像処理装置。The image processing apparatus according to claim 1, wherein the generation unit generates image data of a photographed image to be printed when a subject is photographed according to the received photographing condition.
JP2002235934A 2002-08-13 2002-08-13 Image processing device Expired - Fee Related JP4024107B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002235934A JP4024107B2 (en) 2002-08-13 2002-08-13 Image processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002235934A JP4024107B2 (en) 2002-08-13 2002-08-13 Image processing device

Publications (2)

Publication Number Publication Date
JP2004080205A true JP2004080205A (en) 2004-03-11
JP4024107B2 JP4024107B2 (en) 2007-12-19

Family

ID=32020283

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002235934A Expired - Fee Related JP4024107B2 (en) 2002-08-13 2002-08-13 Image processing device

Country Status (1)

Country Link
JP (1) JP4024107B2 (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007142896A (en) * 2005-11-18 2007-06-07 Fujitsu Ltd Spectator's picture offering system, photography camera controller, and program
JP2008258718A (en) * 2007-04-02 2008-10-23 Olympus Imaging Corp Imaging device, imaging method, and information equipment
US7668454B2 (en) 2006-08-29 2010-02-23 Hewlett-Packard Development Company, L.P. Photography advice based on captured image attributes and camera settings
JP2010078854A (en) * 2008-09-25 2010-04-08 Panasonic Electric Works Co Ltd Lighting system
JP2012135048A (en) * 2012-03-28 2012-07-12 Olympus Imaging Corp Imaging apparatus, imaging method and information device
JP2014165633A (en) * 2013-02-25 2014-09-08 Suzuki Motor Corp Image display device
WO2023238646A1 (en) * 2022-06-07 2023-12-14 ソニーグループ株式会社 Information processing device, information processing method, program, and information processing system
JP7508680B1 (en) 2023-10-05 2024-07-01 株式会社Jr東日本情報システム Simulation device, simulation method, and simulation program

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007142896A (en) * 2005-11-18 2007-06-07 Fujitsu Ltd Spectator's picture offering system, photography camera controller, and program
US7668454B2 (en) 2006-08-29 2010-02-23 Hewlett-Packard Development Company, L.P. Photography advice based on captured image attributes and camera settings
JP2008258718A (en) * 2007-04-02 2008-10-23 Olympus Imaging Corp Imaging device, imaging method, and information equipment
JP2010078854A (en) * 2008-09-25 2010-04-08 Panasonic Electric Works Co Ltd Lighting system
JP2012135048A (en) * 2012-03-28 2012-07-12 Olympus Imaging Corp Imaging apparatus, imaging method and information device
JP2014165633A (en) * 2013-02-25 2014-09-08 Suzuki Motor Corp Image display device
WO2023238646A1 (en) * 2022-06-07 2023-12-14 ソニーグループ株式会社 Information processing device, information processing method, program, and information processing system
JP7508680B1 (en) 2023-10-05 2024-07-01 株式会社Jr東日本情報システム Simulation device, simulation method, and simulation program

Also Published As

Publication number Publication date
JP4024107B2 (en) 2007-12-19

Similar Documents

Publication Publication Date Title
US20200221022A1 (en) Background separated images for print and on-line use
US7855732B2 (en) Hand producer for background separated images
US7805066B2 (en) System for guided photography based on image capturing device rendered user recommendations according to embodiments
US7931380B2 (en) Imaging apparatus for providing background separated images
JP5074752B2 (en) Image request method
JPH09181913A (en) Camera system
JPH09181966A (en) Image processing method and device
CN103905732A (en) Shooting method and shooting device
KR102151964B1 (en) Product photograph service providing method for product detailed information content
JP4024107B2 (en) Image processing device
JP2002010133A5 (en)
JP3715576B2 (en) Image processing device
WO2019215797A1 (en) Composition advice system, composition advice method, camera and program
JP2005286379A (en) Photographing support system and photographing support method
JP2016058995A (en) Imaging device, imaging control method and program
JP2003114605A (en) Photography simulation system
JP7243711B2 (en) IMAGING DEVICE, DISPLAY CONTROL METHOD, AND PROGRAM
JP4263017B2 (en) Advice device and program
JP2003114605A5 (en)
JP2003018070A (en) System for transmitting video image to photographed person
JP2002197456A (en) Image evaluation system, image evaluation side terminal, image evaluation method and storage medium
CN111641779B (en) Shooting control method and system and computing device
JP2020166744A (en) Learning device, imaging device, ai information providing device, learning method and learning program
CN117241131B (en) Image processing method and device
CA2600139C (en) Background separated images for print and on-line use

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050512

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20061221

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070626

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070824

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070925

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20071002

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101012

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111012

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121012

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121012

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131012

Year of fee payment: 6

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees