[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2011114823A - 画像処理装置及び撮像装置 - Google Patents

画像処理装置及び撮像装置 Download PDF

Info

Publication number
JP2011114823A
JP2011114823A JP2009272128A JP2009272128A JP2011114823A JP 2011114823 A JP2011114823 A JP 2011114823A JP 2009272128 A JP2009272128 A JP 2009272128A JP 2009272128 A JP2009272128 A JP 2009272128A JP 2011114823 A JP2011114823 A JP 2011114823A
Authority
JP
Japan
Prior art keywords
subject
image
background
unit
continuous shot
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009272128A
Other languages
English (en)
Inventor
Masahiro Yokohata
正大 横畠
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sanyo Electric Co Ltd
Original Assignee
Sanyo Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sanyo Electric Co Ltd filed Critical Sanyo Electric Co Ltd
Priority to JP2009272128A priority Critical patent/JP2011114823A/ja
Priority to US12/956,363 priority patent/US20110128415A1/en
Publication of JP2011114823A publication Critical patent/JP2011114823A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/272Means for inserting a foreground image in a background image, i.e. inlay, outlay
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/95Computational photography systems, e.g. light-field imaging systems
    • H04N23/951Computational photography systems, e.g. light-field imaging systems by using two or more images to influence resolution, frame rate or aspect ratio

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computing Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Studio Devices (AREA)
  • Image Processing (AREA)
  • Editing Of Facsimile Originals (AREA)

Abstract

【課題】明瞭な被写体と被写体の移動に応じてぼけた背景とが違和感なく合成された画像を得る画像処理装置や、当該画像処理装置を備えた撮像装置を提供する。
【解決手段】流し撮り処理部50aは、連写画像の背景領域と被写体領域とを特定して背景領域情報と被写体領域情報とを出力する背景被写体特定部51と、背景領域情報に基づいて背景画像を生成する背景画像生成部52と、被写体領域情報に基づいて被写体画像を生成する被写体画像生成部53と、被写体の移動情報を算出する移動情報算出部54と、移動情報に基づいて背景画像をぼけさせる補正を行う背景画像補正部55と、補正された背景画像に被写体画像を合成する合成部56と、を備える。背景画像及び被写体画像は、複数の連写画像に基づいて生成される。
【選択図】図2

Description

本発明は、入力される複数の画像を用いて新たな画像を生成する画像処理装置や、当該画像処理装置を備え当該複数の画像を撮像により得る撮像装置に関する。
被写体(主な撮像対象であり背景と区別され得る物体。以下、単に「被写体」とする)が画角内に収まるように、被写体の移動に合わせて撮像装置を動かし撮像する、いわゆる「流し撮り」という撮像手法が、従来知られている。この手法により撮像されて得られる画像は、被写体は明瞭であるが背景は被写体の移動方向に沿ってぼけた(流れた)ものとなり、被写体の移動(動き)が効果的に表現されたものとなる。
しかし、「流し撮り」を行うためには、移動する被写体に応じて撮像装置を動かす必要があり、初心者が容易に実践できるものではなかった。そこで、撮像装置を被写体に応じて動かすことなく、撮像して得られた画像に対して事後的に画像処理を施すことにより、流し撮りの効果が付与された画像を得る撮像装置が、種々提案されている。
例えば、特許文献1及び2では、撮像により得られた複数の画像のそれぞれから被写体領域を検出し、それぞれの被写体領域が重なるように複数の画像を合成することにより、被写体の移動方向及び移動量に応じて背景をぼけさせた画像を得る撮像装置が提案されている。
また、特許文献3では、1枚の画像から被写体領域を検出するとともに被写体の移動方向及び移動量を推定し、推定された情報に基づいて当該画像の領域毎に異なる補正を施すことで、被写体領域のぼけを修正して明瞭化し、かつ背景領域を被写体の移動方向及び移動量に応じてぼけさせた画像を得る撮像装置が提案されている。
さらに、特許文献4では、撮像前に被写体とその移動方向とを特定するとともに、撮像により、被写体が含まれない背景画像と、背景及び被写体が含まれる画像とを得て、これらの画像を比較することで被写体画像を生成し、被写体の移動方向に沿ってぼけさせた背景画像に当該被写体画像を合成した画像を得る撮像装置が提案されている。
特開2006−339903号公報 特開2009−207034号公報 特開2006−50070号公報 特開2006−339784号公報
しかしながら、特許文献1及び2の撮像装置では、各画像中の被写体の大きさや形状などが一致しなければ、処理によって得られる画像中の被写体が不明瞭となるため、問題となる。また、被写体が複雑に移動すると、背景が被写体の移動に沿わずにぼけて不自然なものとなるため、問題となる。
また、特許文献3の撮像装置では、被写体領域の特定や移動方向及び移動量の推定が精度良く行なわれない限り、補正後の画像中で被写体が不明瞭となったり、背景が被写体の移動に沿わずにぼけて不自然なものとなったりするため、問題となる。
さらに、特許文献4の撮像装置では、被写体を含む画像の撮像後に背景画像を撮像する必要があるため、被写体がフレームアウトするまで一連の撮像を終了することができない。そして、被写体がフレームアウトするまでの時間が長くなると、背景や撮像環境(周囲の明るさなど)が変化する可能性が高くなり、当該変化によって被写体画像が良好に生成できなくなったり、背景画像と被写体画像との間に明るさなどの差異が生じたりする。すると、合成後の画像中で被写体が不明瞭となったり、合成後の画像中の被写体と背景とに違和感が生じたりするため、問題となる。
そこで、本発明は、明瞭な被写体と被写体の移動に応じてぼけた背景とが違和感なく合成された画像を得る画像処理装置や、当該画像処理装置を備えた撮像装置を提供することを目的とする。
上記目的を達成するために、本発明における画像処理装置は、時間的に連続する撮像により得られる複数の連写画像について、背景を表示する領域である背景領域と、被写体を表示する領域である被写体領域と、をそれぞれ特定する背景被写体特定部と、前記背景被写体特定部で特定される背景領域に基づいて、背景を表示する画像である背景画像を生成する背景画像生成部と、前記背景被写体特定部で特定される被写体領域に基づいて、被写体を表示する画像である被写体画像を生成する被写体画像生成部と、前記背景被写体特定部で特定される被写体領域に基づいて被写体の移動方向を導出するとともに、被写体の移動方向に沿ってぼけさせる補正を背景画像に施す補正部と、前記補正部で補正された背景画像に被写体画像を合成する合成部と、を備えることを特徴とする。
なお、以下に示す実施の形態では、補正部の一例として、背景画像補正部及び移動情報算出部を挙げて説明している。
また、上記構成の画像処理装置において、前記背景画像生成部が、少なくとも2つの連写画像のそれぞれで特定された背景領域の画像を用いて背景画像を生成し、前記被写体画像生成部が、1つの連写画像で特定された被写体領域の画像を用いて被写体画像を生成することとしても構わない。
また、上記構成の画像処理装置において、前記背景領域特定部が、少なくとも2つの連写画像の差分に基づいて、連写画像の背景領域と被写体領域とをそれぞれ特定することとしても構わない。
このように構成すると、容易かつ効果的に背景領域と被写体領域とを特定することが可能となる。
また、上記構成の画像処理装置において、前記補正部が、前記合成部で合成される被写体画像に表示される被写体の移動方向を導出し、前記合成部で当該被写体画像と合成される補正された背景画像が、当該被写体の移動方向に沿ってぼけさせる補正が施されたものであることとしても構わない。
このように構成すると、合成後の画像に含まれる被写体の移動方向と、背景のぼける方向とを略一致させることが可能となる。
また、上記構成の画像処理装置において、前記被写体画像生成部が、連写画像の被写体領域が示す被写体の位置、大きさ、画像特徴及び撮像順の少なくとも1つに基づいて選択した被写体を示す被写体画像を生成し、前記合成部が、当該被写体画像を前記補正部で補正された背景画像に合成することとしても構わない。
このように構成すると、ユーザが所望する被写体を自動的に選択し、合成後の画像に当該被写体を含めることが可能となる。
また、上記構成の画像処理装置において、前記補正部が、前記背景被写体特定部で特定されるそれぞれの被写体領域が表示するそれぞれの被写体の移動量を算出し、前記被写体画像生成部が、それぞれの被写体の移動量に基づいて選択した被写体を表示する被写体画像を生成し、前記合成部が、当該被写体画像を前記補正部で補正された背景画像に合成することとしても構わない。
このように構成すると、ユーザが所望する移動状態の被写体を自動的に選択し、合成後の画像に含めることが可能となる。
また、上記構成の画像処理装置において、前記補正部が、ある連写画像の被写体領域と、当該ある連写画像より時間的に前または後に撮像されて得られる連写画像の被写体領域と、を用いて、当該ある連写画像の被写体領域が表示する被写体の移動方向を導出することとしても構わない。
このように構成すると、精度よくかつ容易に被写体の移動方向を算出することが可能となる。
また、本発明の撮像装置は、時間的に連続する撮像により複数の連写画像を生成する撮像部と、前記撮像部で生成される連写画像に基づいて、流し撮り処理画像を生成する上記の画像処理装置と、を備えることを特徴とする。
また、上記構成の撮像装置において、ユーザの指示が入力される操作部と、画像を表示する表示部と、画像を記録する記録部と、補正された背景画像と被写体画像とを前記合成部で合成することにより得られる流し撮り処理画像の少なくとも1つを表示する提示画像を生成する提示画像生成部と、をさらに備え、前記表示部が、前記提示画像を表示し、前記記録部が、前記操作部に入力されるユーザの指示によって選択される流し撮り処理画像を記録することとしても構わない。
このように構成すると、ユーザが、流し撮り処理の効果が表れた流し撮り処理画像を実際に確認した上で、記録部への記録の要否を決定することが可能となる。そのため、ユーザが所望する流し撮り処理画像を確実に記録し、不要な流し撮り処理画像が記録されることを抑制することが可能となる。
本発明の構成とすると、連写画像の背景領域に基づいて背景画像が生成され、被写体領域に基づいて被写体画像が生成される。そのため、背景画像の生成に際して、被写体を含まない画像を別途撮像により得る必要を無くすことができる。即ち、背景の状態や撮像環境が連写画像と大きく異なる背景画像が生成されることを、抑制することが可能となる。したがって、被写体が明瞭であり、かつ被写体と背景とが違和感なく合成された流し撮り処理画像を生成することが可能となる。
本発明の意義ないし効果は、以下に示す実施の形態の説明により更に明らかとなろう。ただし、以下の実施の形態は、あくまでも本発明の実施の形態の一つであって、本発明ないし各構成要件の用語の意義は、以下の実施の形態に記載されたものに制限されるものではない。
は、本発明の実施の一形態である撮像装置の全体構成例を示すブロック図である。 は、第1実施例の流し撮り処理部の構成例を示すブロック図である。 は、第1実施例の流し撮り処理部の動作例を示すフローチャートである。 は、連写画像の一例を示す図である。 は、図4の連写画像の差分画像を示す図である。 は、図4の連写画像の背景領域特定画像を示す図である。 は、図4の連写画像の被写体領域特定画像を示す図である。 は、図4の連写画像を用いて生成される背景マップ画像の一例を示す図である。 は、図4の連写画像を用いて生成される被写体マップ画像の一例を示す図である。 は、図4の連写画像を用いて生成される背景画像の一例を示す図である。 は、図4の連写画像を用いて生成される提示画像の一例を示す図である。 は、図4の連写画像を用いて生成される被写体画像の一例を示す図である。 は、図9の被写体マップ画像を用いて算出される移動情報の一例を示す図である。 は、図13の移動情報に基づいて生成されるフィルタの一例を示す図である。 は、図10の背景画像を図14のフィルタを用いて補正して生成される補正後の背景画像を示す図である。 は、図15の補正後の背景画像と図12の被写体画像とを合成して生成される流し撮り処理画像を示す図である。 は、第1選択方法例について説明する図である。 は、第2選択方法例について説明する図である。 は、第3選択方法例について説明する図である。 は、第4選択方法例について説明する図である。 は、第2実施例の流し撮り処理部の構成例を示すブロック図である。 は、第2実施例の流し撮り処理部の動作例を示すフローチャートである。 は、第2実施例の流し撮り処理部の被写体画像生成部による被写体の選択方法の一例を示す図である。 は、第3実施例の流し撮り処理部の構成例を示すブロック図である。 は、第3実施例の流し撮り処理部の動作例を示すフローチャートである。 は、第3実施例の流し撮り処理部の提示画像生成部が生成する提示画像の一例を示す図である。
本発明の実施の形態について、以下図面を参照して説明する。最初に、本発明の実施の一形態である撮像装置について説明する。なお、以下に説明する撮像装置は、デジタルカメラなどの音、動画及び静止画の記録が可能なものである。
<<撮像装置>>
まず、本発明の実施の一形態である撮像装置の全体構成例について、図1を参照して説明する。図1は、本発明の実施の一形態である撮像装置の全体構成例を示すブロック図である。
図1に示すように、撮像装置1は、入射される光学像を電気信号に変換するCCD(Charge Coupled Device)またはCMOS(Complimentary Metal Oxide Semiconductor)センサなどの固体撮像素子から成るイメージセンサ2と、対象物の光学像をイメージセンサ2に結像させるとともに光量などの調整を行うレンズ部3と、を備える。レンズ部3とイメージセンサ2とで撮像部Sが構成され、この撮像部Sによって画像信号が生成される。なお、レンズ部3は、ズームレンズやフォーカスレンズなどの各種レンズ(不図示)や、イメージセンサ2に入力される光量を調整する絞り(不図示)などを備える。
さらに、撮像装置1は、イメージセンサ2から出力されるアナログ信号である画像信号をデジタル信号に変換するとともにゲインの調整を行うAFE(Analog Front End)4と、AFE4から出力されるデジタルの画像信号に対して階調補正処理などの各種画像処理を施す画像処理部5と、入力される音を電気信号に変換する集音部6と、集音部6から出力されるアナログ信号である音響信号をデジタル信号に変換するADC(Analog to Digital Converter)7と、ADC7から出力される音響信号に対してノイズ除去などの各種音響処理を施して出力する音響処理部8と、画像処理部5から出力される画像信号と音響処理部8から出力される音響信号のそれぞれに対してMPEG(Moving Picture Experts Group)圧縮方式などの動画用の圧縮符号化処理を施したり画像処理部5から出力される画像信号にJPEG(Joint Photographic Experts Group)圧縮方式などの静止画用の圧縮符号化処理を施したりする圧縮処理部9と、圧縮処理部9で圧縮符号化された圧縮符号化信号を記録する外部メモリ10と、圧縮符号化信号を外部メモリ10に記録したり読み出したりするドライバ部11と、ドライバ部11において外部メモリ10から読み出した圧縮符号化信号を伸長して復号する伸長処理部12と、を備える。
画像処理部5は、流し撮り処理を行う流し撮り処理部50を備える。本例における「流し撮り処理」とは、連続的に撮像されて得られる複数の画像信号を用いて、被写体が鮮明でありかつ背景が被写体の移動方向にぼけた画像の画像信号を生成する処理である。なお、流し撮り処理部50の詳細については、後述する。
また、撮像装置1は、伸長処理部12で復号されて得られる画像信号をディスプレイなどの表示装置(不図示)で表示するためにアナログ信号に変換する画像信号出力回路部13と、伸長処理部12で復号されて得られる音響信号をスピーカなどの再生装置(不図示)で再生するためにアナログ信号に変換する音響信号出力回路部14と、を備える。
また、撮像装置1は、撮像装置1内全体の動作を制御するCPU(Central Processing Unit)15と、各処理を行うための各プログラムを記憶するとともにプログラム実行時のデータの一時保管を行うメモリ16と、撮像を開始するボタンや撮像条件などを調整するボタン等ユーザからの指示が入力される操作部17と、各部の動作タイミングを一致させるためのタイミング制御信号を出力するタイミングジェネレータ(TG)部18と、CPU15と各ブロックとの間でデータのやりとりを行うためのバス19と、メモリ16と各ブロックとの間でデータのやりとりを行うためのバス20と、を備える。なお、以下では説明の簡略化のため、各ブロックのやりとりにおいてバス19,20を省略する。
なお、動画と静止画の画像信号を生成可能な撮像装置1を一例として示したが、撮像装置1が、静止画の画像信号のみ生成可能な構成であっても構わない。この場合、集音部6やADC7、音響処理部8、音響信号出力回路部14などを備えない構成としても構わない。
また、表示装置やスピーカは、撮像装置1と一体となっているものであっても構わないし、別体となっており撮像装置1に備えられる端子とケーブル等を用いて接続されるようなものであっても構わない。
また、外部メモリ10は画像信号や音響信号を記録することができればどのようなものでも構わない。例えば、SD(Secure Digital)カードのような半導体メモリ、DVDなどの光ディスク、ハードディスクなどの磁気ディスクなどをこの外部メモリ10として使用することができる。また、外部メモリ10を撮像装置1から着脱自在としても構わない。
次に、撮像装置1の全体動作について図1を用いて説明する。まず、撮像装置1は、レンズ部3より入射される光をイメージセンサ2において光電変換することによって、電気信号である画像信号を取得する。そして、イメージセンサ2は、TG部18から入力されるタイミング制御信号に同期して、所定のタイミングでAFE4に画像信号を出力する。
そして、AFE4によってアナログ信号からデジタル信号へと変換された画像信号は、画像処理部5に入力される。画像処理部5では、入力されるR(赤)G(緑)B(青)の成分を備える画像信号を、輝度信号(Y)と色差信号(U,V)の成分を備える画像信号に変換するとともに、階調補正や輪郭強調等の各種画像処理を施す。また、メモリ16はフレームメモリとして動作し、画像処理部5が処理を行なう際に画像信号を一時的に保持する。
また、このとき画像処理部5に入力される画像信号に基づき、レンズ部3において、各種レンズの位置が調整されてフォーカスの調整が行われたり、絞りの開度が調整されて露出の調整が行われたりする。このフォーカスや露出の調整は、それぞれ最適な状態となるように所定のプログラムに基づいて自動的に行われたり、ユーザの指示に基づいて手動で行われたりする。
また、所定の場合(例えば、ユーザによって流し撮り処理を行うモードが選択される場合など)、流し撮り処理部50は、画像処理部5に入力される複数の画像信号を用いて流し撮り処理を行い、処理後の画像信号を出力する。
動画の画像信号を生成する場合、集音部6において集音を行う。集音部6で集音されて電気信号に変換される音響信号は、音響処理部8に入力される。音響処理部8は、入力される音響信号をデジタル信号に変換するとともにノイズ除去や音響信号の強度制御などの各種音響処理を施す。そして、画像処理部5から出力される画像信号と、音響処理部8から出力される音響信号と、がともに圧縮処理部9に入力され、圧縮処理部9において所定の圧縮方式で圧縮される。このとき、画像信号と音響信号とが時間的に関連付けられ、再生時に画像と音とがずれないように構成される。そして、圧縮処理部9から出力される圧縮符号化信号は、ドライバ部11を介して外部メモリ10に記録される。
一方、静止画の画像信号を生成する場合、画像処理部5から出力される画像信号が圧縮処理部9に入力され、圧縮処理部9において所定の圧縮方式で圧縮される。そして、圧縮処理部9から出力される圧縮符号化信号が、ドライバ部11を介して外部メモリ10に記録される。
外部メモリ10に記録された動画の圧縮符号化信号は、ユーザの指示に基づいて伸長処理部12に読み出される。伸長処理部12は、圧縮符号化信号を伸長及び復号することで画像信号及び音響信号を生成し、出力する。そして、画像信号出力回路部13が、伸長処理部12から出力される画像信号を表示装置で表示可能な形式に変換して出力し、音響信号処理回路部14が、伸長処理部12から出力される音響信号をスピーカで再生可能な形式に変換して出力する。また、外部メモリ10に記録された静止画の圧縮符号化信号も同様に処理される。即ち、伸長処理部12が圧縮符号化信号を伸長及び復号して画像信号を生成し、画像信号出力回路部13が当該画像信号を表示装置で再生可能な形式に変換して出力する。
なお、画像信号の記録を行わずに表示装置などに表示される画像をユーザが確認する、いわゆるプレビューモードである場合に、画像処理部5から出力される画像信号を圧縮せずに画像信号出力回路部13に出力することとしても構わない。また、画像信号を記録する際に、圧縮処理部9で圧縮して外部メモリ10に記録する動作と並行して、画像信号出力回路部13を介して表示装置などに画像信号を出力することとしても構わない。
<<流し撮り処理部>>
次に、上述した流し撮り処理部50の詳細について、3つの実施例を挙げるともに、それぞれについて図面を参照して説明する。また、以下では説明の具体化のために、流し撮り処理部50で処理される画像信号を画像として表現する。特に、流し撮り処理部50に入力される、連続的な撮像(連写)によって得られる複数の画像信号のそれぞれを「連写画像」とする。また、流し撮り処理によって生成される画像信号を「流し撮り処理画像」とする。
<第1実施例>
まず、流し撮り処理部の第1実施例について、図面を参照して説明する。図2は、第1実施例の流し撮り処理部の構成例を示すブロック図である。
図2に示すように、流し撮り処理部50aは、複数の連写画像について背景を表示する背景領域と被写体を表示する被写体領域とをそれぞれ特定して背景領域情報と被写体領域情報とを出力する背景被写体特定部51と、背景被写体特定部51から出力される背景領域情報に基づいて背景を表示する画像である背景画像を生成し出力する背景画像生成部52と、合成すべき被写体を選択して選択被写体情報を出力するとともに背景被写体特定部51から出力される被写体領域情報に基づいて選択した被写体を表示する画像である被写体画像を生成し出力する被写体画像生成部53と、背景被写体特定部51から出力される被写体領域情報と被写体画像生成部53から出力される選択被写体情報とに基づいて被写体の移動情報を算出し出力する移動情報算出部54と、背景画像生成部52から出力される背景画像に対して移動情報算出部54から出力される移動情報に基づいた補正を施し出力する背景画像補正部55と、背景画像補正部55から出力される補正後の背景画像に被写体画像生成部53から出力される被写体画像を合成することで流し撮り処理画像を生成する合成部56と、背景被写体特定部51から出力される被写体領域情報に基づいてユーザに提示するための画像である提示画像を生成し出力する提示画像生成部57と、を備える。
被写体画像生成部53は、選択指示(ユーザが合成すべき被写体を選択し、操作部17などを介して入力する指示)に基づいて被写体を選択したり、所定の選択方法(プログラム)に基づいて自動的に合成すべき被写体を選択したりする。なお、被写体画像生成部53が、自動的に合成すべき被写体を選択するのみである場合など、選択指示が被写体画像生成部53に入力されない構成としても構わない。
背景領域情報とは、連写画像中の背景領域の位置や、背景領域の画像(例えば、画素値)などを示すものである。同様に、被写体領域情報とは、連写画像中の被写体領域の位置や画像(例えば、画素値)などを示すものである。なお、被写体画像生成部53、移動情報算出部54及び提示画像生成部57に入力される被写体領域情報は、同一のものであっても構わないし、異なるものであっても構わない。
また、移動情報とは、被写体の移動に関する情報である。例えば、被写体の移動方向や、移動量(速さとも解釈し得る)を示す情報である。また、選択被写体情報とは、被写体画像生成部53において選択された被写体や、当該被写体が含まれる連写画像などを示す情報である。
また、流し撮り処理部50aの動作例について、図面を参照して説明する。図3は、第1実施例の流し撮り処理部の動作例を示すフローチャートである。なお、以下では流し撮り処理部50aのほかに、図1に示す撮像装置1の流し撮り処理に関連する部分の動作についても併せて説明する。
図3に示すように、流し撮り処理部50aが動作を開始すると、最初に連写画像の取得を行う(STEP1)。連写画像は、CPU15によって制御された撮像部Sが、所定のタイミング(詳細は後述)で連続的に撮像することで生成される。流し撮り処理部50aは、流し撮り処理に必要な全ての連写画像を取得するまで(STEP2、NO)、順次連写画像を取得する(STEP1)。
全ての連写画像を流し撮り処理部50aが取得すると(STEP2、YES)、背景被写体特定部51が、取得した連写画像の背景領域と被写体領域とを特定する(STEP3)。背景被写体特定部51は、取得した連写画像のそれぞれについて背景領域と被写体領域とを特定するまで(STEP4、NO)、順次特定を行う(STEP3)。
この特定方法の一例について、図4〜図7を参照して説明する。図4は、連写画像の一例を示す図であり、図5は、図4の連写画像の差分画像を示す図であり、図6は、図4の連写画像の背景領域特定画像を示す図であり、図7は、図4の連写画像の被写体領域特定画像を示す図である。なお、以下では説明の具体化のために、図4に示す2つの連写画像100,110のそれぞれから、被写体である人以外を表示する背景領域101,111と、被写体である人を表示する被写体領域102,112と、を特定する場合を例示する。
図4に示す連写画像100は、連写画像110よりも時間的に前(例えば、直前)に撮像されたものであり、被写体領域102が、連写画像100の左側に位置している。一方、連写画像110では、被写体領域112が連写画像110の略中央に位置している。なお、連写画像100,110は、三脚等で固定された撮像装置1で撮像されて得られたものであり、連写画像100,110の撮像に際して撮像装置1が動いていない(即ち、連写画像100,110の背景がずれていない)ものとする。
図4の連写画像100,110の差分を求めることで、図5に示す差分画像120が得られる。差分画像120では、連写画像100,110の被写体領域102,112のそれぞれに相当する領域(以下説明の簡略化のため、当該領域も被写体領域とよぶ)122,123の画素値(差分値)の絶対値は大きくなるが、背景領域121の画素値は小さくなる。そのため、差分画像120の画素値を確認することで、連写画像100,110の背景領域101,111と被写体領域102,112とをそれぞれ特定することができる。ただし、差分画像120で特定された被写体領域122,123のそれぞれが、連写画像100,110のいずれの被写体領域102,112に該当するものであるかを決定する必要がある。
この決定は、例えば、差分画像120と連写画像100,110のそれぞれとを比較する(例えば、連写画像100,110のそれぞれについて、差分画像120の被写体領域122,123に相当するそれぞれの領域の画素値が、その周囲の画素値と異なっているか否かを確認する)ことで行うことができる。これにより、連写画像100,110のそれぞれについて被写体領域102,112を特定することが可能となる。また反対に、それぞれの連写画像100,110における背景領域101,111を特定することが可能となる。
上述の例は連写画像が2つの場合であるが、3つ以上の場合、差分画像を複数生成することができる。差分画像を複数生成することができる場合、それぞれの差分画像で特定された被写体領域を比較することのみでも、それぞれの連写画像の被写体領域及び背景領域を特定することができる。
具体的に例えば、3つの連写画像から生成される2つの差分画像中で共通する被写体領域を、2つの差分画像を生成するために用いた共通の連写画像の被写体領域として、特定することができる。一方、2つの差分画像で共通しない被写体領域を、それぞれの差分画像を生成するために用いた共通しない連写画像の被写体領域として、特定することができる。
また、上記の特定結果を、図6に示す背景領域特定画像130,140や、図7に示す被写体領域特定画像150,160として表現することが可能である。図6に示す背景領域特定画像130,140は、背景領域131,141の画素値(例えば、1)と、被写体領域132,142の画素値(例えば、255)と、を異ならせたものである。同様に、図7に示す被写体領域特定画像150,160は、背景領域151,161の画素値(例えば、255)と、被写体領域152,162の画素値(例えば、1)と、を異ならせたものである。なお、背景領域特定画像130,140及び被写体領域特定画像150,160のいずれか一方を生成しなくても構わないし、両方生成しなくても構わない。
また、上記の特定結果に基づいて、背景マップ画像を生成することが可能である。背景マップ画像について、図8を参照して説明する。図8は、図4に示す連写画像から生成される背景マップ画像の一例を示す図である。詳細については後述するが、本例の流し撮り処理部50aは、連写画像100,110を用いて、被写体領域102,112のない背景のみを表示する画像(背景画像)を生成する。しかし、本例では連写画像100,110のいずれにも、被写体領域102,112が含まれている。そのため、連写画像100,110を組み合わせることで被写体領域102,112を排除して、背景画像を生成する。図8に示す背景マップ画像170は、背景画像の画素毎に、連写画像100,110のいずれの画素値を用いるべきかを、画素値によって表したものである。
具体的に例えば、図8の背景マップ画像170では、連写画像100の画素値を使用する領域171(連写画像100の背景領域101に相当する領域、図中横線で表示)の画素値(例えば、1)と、連写画像110の画素値を使用する領域172(連写画像100の被写体領域102に相当する領域、図中縦線で表示)の画素値(例えば、255)と、を異ならせている。なお、主として連写画像100の画素値を用いる(連写画像100の画素値を用いることができない領域172の画素値のみ連写画像110の画素値を用い、他の領域は連写画像100の画素値を用いる)ものとしたが、主として連写画像110の画素値を用いる(連写画像110の画素値を用いることができない領域173の画素値のみ連写画像100の画素値を用い、他の領域は連写画像110の画素値を用いる)ものとしても構わない。また、連写画像100,110の両方の画素値を用いることができる領域(領域172,173以外の領域)において、連写画像100,110の画素値の加重加算値を用いたり、隣接する画素に対して異なる連写画像100,110の画素値を用いたりしても構わない。
また、上記の特定結果に基づいて、被写体マップ画像を生成することが可能である。被写体マップ画像について、図9を参照して説明する。図9は、図4に示す連写画像から生成される被写体マップ画像の一例を示す図である。
図9に示す被写体マップ画像180は、連写画像100,110の被写体領域102,112のそれぞれに相当する領域(以下説明の簡略化のため、当該領域も被写体領域とよぶ)182,183を1つの画像に含ませ、それぞれの被写体領域182,183の画素値を異ならせたものである。被写体マップ画像180は、複数の連写画像100,110における被写体領域102,112の位置を、1つの画像の画素値によって表したものである。
具体的に例えば、図9に示す被写体マップ画像180では、連写画像100の被写体領域102に相当する被写体領域182(図中横線で表示する領域)の画素値(例えば、1)と、連写画像110の被写体領域112に相当する被写体領域183(図中縦線で表示する領域)の画素値(例えば、255)と、を異ならせている。なお、被写体領域182,183以外の領域181については、被写体領域182,183と区別し得るものであれば、どのような画素値(例えば、0)としても構わない。
また、背景領域の位置を示す背景領域特定画像130,140や背景マップ画像170、背景領域101,111の画像を含んでいる連写画像100,110は、背景領域情報に含まれ得る。なお、連写画像100,110から背景領域101,111の画像を抽出して得られる画像(例えば、連写画像100,110の被写体領域102,112の画素値を0などの所定の値にした画像)なども、背景領域情報に含まれ得る。
同様に、被写体領域の位置を示す被写体領域特定画像150,160や被写体マップ画像180、被写体領域の画像を含んでいる連写画像100,110は、被写体領域情報に含まれ得る。なお、連写画像100,110から被写体領域102,112の画像を抽出して得られる画像(例えば、連写画像100,110の背景領域101,111の画素値を0などの所定の値にした画像、後述する被写体画像と同様の画像)なども、被写体領域情報に含まれ得る。
上述のように、背景被写体特定部51が、連写画像100,110のそれぞれについて背景領域101,111及び被写体領域102,112を特定して背景領域情報及び被写体領域情報を出力すると(STEP4、YES)、次に、背景画像生成部52が、背景領域情報に基づいて背景画像を生成する(STEP5)。生成される背景画像の一例について、図10を参照して説明する。図10は、図4の連写画像を用いて生成される背景画像の一例を示す図である。
図10に示す背景画像190は、上述のように連写画像100,110(特に、それぞれの背景領域101,111)を用いて生成することができる。背景画像190の生成に際して背景マップ画像170を参照することとすると、背景画像190のある画素の画素値として、どの連写画像100,110の画素値を用いるべきかを容易に判断することができるため、好ましい。なお、背景マップ画像170の他に、背景領域特定画像130,140を参照しても、背景画像190を生成することができる。
また、提示画像生成部57は、背景被写体特定部51から出力される被写体領域情報に基づいて、提示画像を生成し、出力する。出力される提示画像は、例えばバス19を介して画像信号出力回路部13に入力され、表示装置等で表示される(STEP6)。
提示画像の一例を、図11に示す。図11は、図4の連写画像を用いて生成される提示画像の一例を示す図である。本例の提示画像200は、連写画像100,110の被写体領域102,112のそれぞれに相当する領域(以下説明の簡略化のため、当該領域も被写体領域とよぶ)202,203に、連写画像100,110の被写体領域102,112の画像をそれぞれ表示したものである。なお、提示画像200のそれぞれの被写体領域202,203が、異なる連写画像100,110の被写体領域102,112の画像を示すものであることを明確化するなどの目的のため、被写体領域202,203に境界線(図中の破線)等を設けても構わない。また、提示画像200の被写体領域202,203以外の領域201の画素値を0などの所定の値としても構わないし、背景画像190の画素値を用いても構わない(この場合、提示画像生成部57が、背景領域情報または背景画像を取得する)。
提示画像200は、連写画像100,110を用いて生成することができる。この提示画像200の生成に際し、被写体マップ画像180を参照すると、どの位置の画素にどの連写画像100,110の画素値を用いるべきかを容易に判断することができるため、好ましい。なお、図11に示す提示画像200の形式は一例に過ぎず、他の形式としても構わない。例えば、連写画像100,110から被写体領域102,112の画像を抽出して得られるそれぞれの画像を縮小して並べた画像を、提示画像としても構わない。
ユーザは、表示される提示画像200を確認し、合成すべき被写体(提示画像200に表示される被写体、即ち、連写画像100,110の被写体領域102,112に表示される被写体)を選択する(STEP7)。このとき、例えばユーザが操作部17を操作するなどして、いずれの被写体を選択したのかを示す選択指示を被写体画像生成部53に入力する。
被写体画像生成部53は、選択指示に基づいて選択した被写体を表示する画像である被写体画像を生成し(STEP8)、当該被写体を示す選択被写体情報を出力する。なお、以下では説明の具体化のため、被写体画像生成部53が、連写画像110の被写体領域112に表示される被写体を選択したものとする。
このとき生成される被写体画像の一例について、図12を参照して説明する。図12は、図4の連写画像を用いて生成される被写体画像の一例を示す図である。図12に示す被写体画像210は、連写画像110から被写体領域112の画像を抽出して得られる画像である。例えば、連写画像110の背景領域111の画素値を、0などの所定の値にした画像である。
ところで、上述のように被写体画像生成部53は、所定の選択方法に基づいて自動的に合成すべき被写体を選択することも可能である。この場合、提示画像生成部57及びSTEP6を不要としても構わないし、提示画像生成部57が、選択した被写体をユーザに対して確認的に提示するための提示画像を生成することとしても構わない。なお、被写体画像生成部53による自動的な被写体の選択方法の詳細については、後述する。
移動情報算出部54は、被写体画像生成部53から出力される選択被写体情報に基づいて、選択された被写体(または当該被写体が含まれる連写画像)を認識する。そして、移動情報算出部54は、被写体領域情報に基づいて選択された被写体の移動情報を算出する(STEP9)。この算出方法の一例を、図13を参照して説明する。図13は、図9の被写体マップ画像を用いて算出される移動情報の一例を示す図である。
図13に示す移動情報(図中の白矢印)は、被写体マップ画像180の画素値が異なるそれぞれの被写体領域182,183を比較することで、算出され得る。具体的には、被写体領域182,183の重心(図中、白丸で表示)を結ぶ方向(図中の白矢印の方向)を移動方向として算出し、重心間の距離(直線的な距離や、水平方向及び垂直方向のそれぞれの距離)を移動量として算出することができる。
本例では連写画像100,110が2つであるため、単純に2つの被写体領域182,183を比較することで、被写体画像生成部53で選択された被写体の移動情報を算出することができる。しかしながら、連写画像及び被写体領域が3つ以上存在する場合も生じ得る。
この場合、例えば被写体マップ画像において、被写体画像生成部53で選択された被写体の位置を示す被写体領域と、選択された被写体が含まれる連写画像より時間的に前または後(例えば、直前または直後)に撮像されて得られた連写画像に含まれる被写体の位置を示す被写体領域と、を比較することで、精度よくかつ容易に選択された被写体の移動情報を算出することができる。なお、選択された被写体の位置を示す被写体領域と、選択された被写体が含まれる連写画像より時間的に前及び後(例えば、直前及び直後)に撮像されて得られたそれぞれの連写画像に含まれる被写体の位置を示す被写体領域と、をそれぞれ比較することで算出される2つの移動情報を平均化するなどして、選択された被写体の移動情報を算出しても構わない。
移動情報算出部54は、被写体マップ画像180に限らず、被写体領域特定画像150,160などの被写体領域の位置を識別し得る画像や情報に基づいたとしても、被写体画像生成部53で選択された被写体の移動情報を算出することができる。
移動情報算出部54で、被写体画像生成部53で選択された被写体の移動情報が算出されて出力されると、背景画像補正部55が、当該移動情報に基づいて背景画像生成部52から出力される背景画像190に補正を施す(STEP10)。この補正方法の一例について、図14及び図15を参照して説明する。図14は、図13の移動情報に基づいて生成されるフィルタの一例を示す図である。図15は、図10の背景画像を図14のフィルタを用いて補正して生成される補正後の背景画像を示す図である。
本例の補正方法では、図14に示すような、被写体の移動方向(図中の左右方向)に沿って並ぶ画素の画素値を平均化するフィルタを背景画像190に適用する。これにより、図15に示すような被写体の移動方向に沿ってぼけさせた補正後の背景画像190を得ることが可能となる。
図14では、上記のフィルタの一例として、対象画素及びその左右2画素ずつの計5画素の画素値を平均化して、補正後の対象画素の画素値を得るフィルタを示している。なお、図14に示すフィルタは一例に過ぎず、他のフィルタを用いても構わない。例えば、図13に示すように被写体の移動方向が左右方向である場合に、対象画素の左右方向だけでなく上下方向に並ぶ画素の画素値をも平均化して、補正後の対象画素の画素値を得るフィルタを用いても構わない。
さらに、被写体の移動量に基づいて、背景画像190に適用するフィルタを調整すると、より被写体の移動状態に応じた補正を背景画像190に施すことが可能となるため、好ましい。具体的に例えば、被写体の移動量が大きいほど、移動方向に沿って平均化する画素の数を多くする(即ち、フィルタサイズを移動方向に沿って大きくする)。これにより、被写体の移動量が大きいほど、背景画像190をぼけさせる程度を大きくすることが可能となる。
そして、合成部56が、背景画像補正部55によって補正されて得られる背景画像220に、被写体画像生成部53で生成される被写体画像210を合成する(STEP11)。例えば、背景画像220の被写体領域112に相当する領域の画素値を、被写体画像210の画素値で置き換える。これによって流し撮り処理画像が生成され、流し撮り処理部50aの動作が終了する。
この流し撮り処理画像の一例について、図16を参照して説明する。図16は、図15の補正後の背景画像と図12の被写体画像とを合成して生成される流し撮り処理画像を示す図である。図16に示すように、上述の動作により得られる流し撮り処理画像230は、背景(領域231)は被写体の移動方向に沿ってぼけたものとなるが、被写体(領域232)は明瞭なものとなる。
以上のように構成すると、連写画像100,110の背景領域101,111を用いて背景画像190を生成し、被写体領域112を用いて被写体画像210を生成することとなる。そのため、背景画像190の生成に際して、被写体を含まない画像を別途撮像により得る必要を無くすことができる。即ち、背景の状態や撮像環境が連写画像100,110と異なる背景画像が生成されることを、抑制することが可能となる。したがって、被写体が明瞭であり、かつ被写体と背景とが違和感なく合成された流し撮り処理画像を生成することが可能となる。
また、背景被写体特定部51は、連写画像100,110の差分を求めることにより、背景領域101,111及び被写体領域102,112のそれぞれを特定する。そのため、容易かつ効果的にそれぞれの領域を特定することが可能となる。
また、背景画像補正部55は、被写体画像210が表示する被写体の移動情報に基づいて、背景画像190を補正する。そのため、流し撮り処理画像230に含まれる被写体の移動方向と、背景がぼける方向と、を略一致させることが可能となる。
なお、精度良く背景領域101,111及び被写体領域102,112を特定するためには、上述のように撮像装置1を三脚等で固定して連写画像100,110を撮像すると、好ましい。しかし、撮像装置1が固定されていない(例えば、ユーザが撮像装置1を把持して撮像する)場合でも、背景領域101,111及び被写体領域102,112を特定することは可能である。
例えば、代表点マッチングやブロックマッチングなどの公知の手法を用いて、ある連写画像のある画素が他の連写画像のどの画素に相当するかを検出し、連写画像間のずれを求め、当該ずれを補正するように連写画像の座標を変換する等の処理を行うこととすると、撮像装置1を固定せずとも精度良く背景領域及び被写体領域を特定することが可能となる。
また、背景画像生成部52が選択被写体情報を取得し、選択された被写体に応じた背景画像を生成しても構わない。例えば、背景画像生成部52が、選択された被写体が含まれる連写画像の画素値を主として用いた背景画像を生成することとしても構わない。
また、図12の提示画像210は、連写画像100,110の被写体領域102,112の画像を表示するものとしたが、被写体マップ画像180のように、被写体の位置を表示するものとしても構わない。また、図3に示すフローチャートは一例に過ぎず、矛盾なき限りそれぞれの動作(STEP)の順番を入れ替えて実施することも可能である。
(連写画像の撮像タイミング)
連写画像100,110中の被写体領域102,112の位置が同一となる(差分画像120中で被写体領域102,112が重なる)部分が大きいと、背景画像101,111及び被写体領域102,112の特定が困難となり得る。そのため、連写画像100,110のそれぞれを撮像する時間間隔が、被写体の移動量に対して短くなりすぎないように、CPU15が撮像部Sによる撮像タイミングを制御すると、好ましい。
具体的に例えば、連写画像100,110を撮像する前のプレビューモード時に撮像されて得られる画像に基づいて被写体の移動量を算出し、当該移動量で連写画像100,110を撮像して得た場合に、被写体領域の位置が同一となる部分をなくす(または小さくする)ことができる時間間隔となるように、撮像タイミングを制御する。
上記例のように撮像タイミングを制御する場合、プレビューモード時の被写体の移動量は、どのような方法で算出しても構わない。例えば、ユーザが操作部17(タッチパネルやカーソルキーなど)を介して指定した被写体や、所定のプログラム(例えば、画像中からサンプル(不特定の顔や、特定の顔など)と同様の部分を検出するものなど)に基づいて指定される被写体の画像特徴(例えば、画素値の色を示す成分(画素値をH(Hue)S(Saturation)V(Value)で表現した場合のH成分)など)を、プレビューモード時に順次撮像されて得られる画像から検出する(即ち、追尾処理を行う)ことで、被写体の移動量を算出することができる。
(被写体の自動選択)
上述のように、被写体画像生成部53は、自動的に合成すべき被写体を選択するように構成しても構わない。被写体の選択方法のいくつかの例を、以下図面を参照して説明する。なお、以下に説明する選択方法は、矛盾なき限り組み合わせて実行することができる。例えば、各被写体に対して、それぞれの選択方法に基づいて選択すべきか否かを評価し、その評価結果を加重加算して得られる総合的な評価結果に基づいて、合成すべき被写体を選択しても構わない。
〔第1選択方法例〕
図17は、第1選択方法例について説明する図である。第1選択方法例は、被写体の画角内の位置(連写画像中の被写体領域の位置)に基づいて、合成すべき被写体を選択する。例えば、画角内の所定の位置に近い被写体(連写画像の所定の位置に近い被写体領域)を選択する。この選択方法は、図17に示すような被写体マップ画像300に基づいて実行可能であるほか、被写体領域特定画像や、連写画像から被写体領域の画像を抽出した画像などに基づいても実行することができる。ただし、被写体マップ画像300に基づく場合、1つの画像に基づいて容易に合成すべき被写体を選択することができるため、好ましい。
例えば、図17に示す被写体マップ画像300において、画角の中央に近い被写体(連写画像の中央に近い被写体領域)が選択される場合、被写体領域301〜303が示す被写体のうち、被写体領域302が示す被写体が、合成すべき被写体として選択される。
なお、それぞれの被写体の位置を、被写体領域301〜303のそれぞれの重心位置としても構わない。また、画角を基準とせずに、被写体の一連の移動を基準としても構わない。例えば、被写体の一連の移動の中で、移動の中心位置に近い被写体を選択しても構わない。このとき、全ての被写体について算出される移動情報に基づいて被写体の選択を行っても構わないし(詳細は流し撮り処理部の第2実施例で述べる)、被写体領域301〜303を囲う領域(即ち、被写体の移動があった領域)を基準として選択を行っても構わない。
〔第2選択方法例〕
図18は、第2選択方法例について説明する図である。第2選択方法例は、被写体の大きさ(連写画像に占める被写体領域の割合)に基づいて、合成すべき被写体を選択する。例えば、画角内に占める割合が所定の大きさに近い被写体(連写画像に占める割合が所定の大きさに近い被写体領域)を選択する。この選択方法は、図18に示すような被写体マップ画像310に基づいて実行可能であるほか、被写体領域特定画像や、連写画像から被写体領域の画像を抽出した画像などに基づいても実行することができる。ただし、被写体マップ画像310に基づく場合、1つの画像に基づいて容易に合成すべき被写体を選択することができるため、好ましい。
図18に示す被写体マップ画像310において、最も大きい被写体(連写画像に占める割合が最も大きい被写体領域)が選択される場合、被写体領域311〜313が示す被写体のうち、被写体領域311が示す被写体が、合成すべき被写体として選択される。同様に、中間の大きさの被写体が選択される場合は、被写体領域312が示す被写体が選択される。
なお、それぞれの被写体の大きさを、被写体領域301〜303のそれぞれの画素数としても構わない。このように構成すると、容易に被写体の大きさを得ることができる。また、それぞれの被写体の大きさを、被写体領域301〜303を囲うそれぞれの領域(例えば、矩形領域)の大きさとしても構わない。
〔第3選択方法例〕
図19は、第3選択方法例について説明する図である。第3選択方法例は、被写体の画像特徴(連写画像の被写体領域の画素値)に基づいて、合成すべき被写体を選択する。例えば、鮮鋭度が高い被写体(連写画像の被写体領域で鮮鋭度が高いもの)を選択する。この選択方法は、図19に示すような、それぞれの連写画像から被写体領域の画像を抽出するとともに合わせて表示した画像320に基づいて実行可能である。当該画像は、図11に示した提示画像200と同様であり、例えば被写体マップ画像を参照してそれぞれの連写画像の被写体領域の画素値を抽出することで作成され得る。なお、連写画像から被写体領域の画像を抽出して得られるそれぞれの画像などに基づいても、本例の選択方法を実行することができる。
図19に示す画像320において、鮮鋭度が最も高い被写体(連写画像の被写体領域の画像で最も鮮鋭度が高いもの)が選択される場合、被写体領域321〜323のうち、被写体領域322が示す被写体が、合成すべき被写体として選択される。
なお、それぞれの被写体の鮮鋭度は、被写体領域321〜323内の画素の画素値の高周波成分や、コントラスト、彩度などに基づいて算出することができる。この場合、高周波成分が大きいほど、コントラストが高いほど、彩度が高いほど、鮮鋭度が大きいものとなる。
例えば高周波成分は、被写体領域321〜323内の画素に微分フィルタなどを適用して得られるエッジの総和や平均が大きいほど、大きいものと判断することができる。また例えばコントラストは、被写体領域321〜323内の画素値の輝度や色を示す成分(画素値をYUVで表現した場合のY成分や、HSVで表現した場合のS成分)の最大値と最小値の差が大きいほど、高いものと判断することができる。また例えば彩度は、画素値をHSVで表現した場合のS成分が大きいほど、高いものと判断することができる。
〔第4選択方法例〕
図20は、第4選択方法例について説明する図である。第4選択方法例は、被写体が撮像された順番に基づいて、合成すべき被写体を選択する。例えば、連写画像で特定される被写体領域が示すそれぞれの被写体のうち、所定の順番に撮像されたものを選択する。この選択方法は、例えば、背景被写体特定部51で被写体領域が特定された連写画像が撮像された順番(必要であれば総数も)を確認することで、実行することができる。また、被写体マップ画像に基づいたとしても、被写体領域の画素値から撮像された順番が把握され得るため、本例の選択方法を実行することができる。
図20は、被写体領域331,341,351が特定された連写画像330,340,350のそれぞれを示したものである。図20では、連写画像330(被写体領域331)が時間的に最も前に撮像されて得られたものであり、連写画像350(被写体領域351)が時間的に最も後に撮像されて得られたものである。このとき、連写画像330,340,350のそれぞれで特定される被写体領域331,341,351が示す被写体の中で、時間的にちょうど中間に撮像された被写体が選択される場合、被写体領域341が示す被写体が、合成すべき被写体として選択される。
なお、連写画像(被写体領域が特定されないものも含まれ得る)の撮像順に基づいて、合成すべき被写体が選択されることとしても構わない。
<第2実施例>
次に、流し撮り処理部の第2実施例について、図面を参照して説明する。図6は、第2実施例の流し撮り処理部の構成例を示すブロック図であり、第1実施例の流し撮り処理部について示した図2に相当するものである。なお、図21に示す第2実施例の流し撮り処理部50bについて、図2に示す第1実施例の流し撮り処理部50aと同様の構成となる部分については同様の名称及び番号を付し、その詳細な説明については省略する。また、第1実施例の流し撮り処理部50aについて述べた種々の構成の説明は、矛盾なき限り本実施例の流し撮り処理部50bにも適用され得るものとする。
図21に示すように、流し撮り処理部50bは、背景被写体特定部51と、背景画像生成部52と、被写体画像生成部53bと、移動情報算出部54bと、背景画像補正部55と、合成部56と、を備える。
ただし、移動情報算出部54bは、連写画像で特定されるそれぞれの被写体領域が表示するそれぞれの被写体の移動情報を算出し、出力する。また、被写体画像生成部53bは、移動情報算出部54bが出力する複数の被写体の移動情報に基づいて合成すべき被写体を選択し、選択被写体情報を出力する。
また、流し撮り処理部50bの動作例について、図面を参照して説明する。図22は、第2実施例の流し撮り処理部の動作例を示すフローチャートであり、第1実施例の流し撮り処理部について示した図3に相当するものである。なお、図22に示す第2実施例の流し撮り処理部50bの動作例について、図3に示す第1実施例の流し撮り処理部50aの動作例と同様の動作(STEP)となる部分については同様のSTEP番号を付し、その詳細な説明については省略する。また、第1実施例の流し撮り処理部50aについて述べた種々の動作の説明は、矛盾なき限り本実施例にも適用され得るものとする。
図22に示すように、流し撮り処理部50bが動作を開始すると、最初に連写画像の取得を行う(STEP1)。流し撮り処理部50bは、流し撮り処理に必要な全ての連写画像を取得するまで(STEP2、NO)、順次連写画像を取得する(STEP1)。全ての連写画像を流し撮り処理部50bが取得すると(STEP2、YES)、背景被写体特定部51が、取得した連写画像の背景領域と被写体領域とを特定する(STEP3)。背景被写体特定部51は、取得した連写画像のそれぞれについて背景領域と被写体領域とを特定するまで(STEP4、NO)、順次特定を行う(STEP3)。そして、背景被写体特定部51が、取得した連写画像のそれぞれについて背景領域と被写体領域とを特定すると(STEP4,YES)、背景画像生成部52が、背景領域情報に基づいて背景画像を生成する(STEP5)。
本実施例の流し撮り処理部50bでは、次に、移動情報算出部54bが被写体の移動情報を算出する(STEPb1)。ただし、本実施例の流し撮り処理部50bでは、背景被写体特定部51で特定される全ての被写体領域が示すそれぞれの被写体について移動情報が算出されるまで(STEPb2、NO)、順次移動情報を算出する(STEPb1)。
全ての被写体について移動情報が算出されると(STEPb2、YES)、被写体画像生成部53bが、合成すべき被写体の選択を行う。この選択方法の一例について、図22を参照して説明する。図23は、第2実施例の流し撮り処理部の被写体画像生成部による被写体の選択方法の一例を示す図である。
図23は、被写体マップ画像400を示す図であり、3つ連写画像から特定される被写体領域401〜403が含まれる。なお、被写体領域401が、3つの連写画像中で最も時間的に前に撮像されて得られた連写画像から特定されるものであり、被写体領域403が、3つの連写画像中で最も時間的に後に撮像されて得られた連写画像から特定されるものとする。
図23に示すように、例えば、時間的に連続する撮像により得られた2つの連写画像で特定される被写体領域(被写体領域401及び402、被写体領域402及び403)の移動情報をそれぞれ算出し、全ての被写体の移動情報(図中、白矢印)とする。また、これらの移動情報(特に、移動量)を被写体領域401〜403の全体で評価したもの(例えば、移動量の総和や、被写体領域401及び403を比較して算出される移動量など)を、全体の移動情報(図中、黒矢印)とする。
そして、全体の移動情報について所定の関係を満たす被写体(例えば、全体の移動量の略半分となる時点で撮像されている被写体、即ち、最も時間的に前に撮像された被写体から選択されるべき被写体までの移動量が全体の移動量の略半分となる)を、合成すべき被写体として選択する(STEPb3)。図23において、全体の移動量の略半分となる時点で撮像されている被写体が合成すべき被写体として選択される場合、例えば被写体領域402が示す被写体が選択される。
ところで、本例の選択方法は、図23に示すような被写体マップ画像400に基づいて実行可能であるほか、被写体領域特定画像や、連写画像から被写体領域の画像を抽出して得られる画像などに基づいても実行することができる。ただし、被写体マップ画像400に基づく場合、1つの画像に基づいて全ての被写体の移動情報を算出可能であり、容易に合成すべき被写体を選択することができるため、好ましい。
被写体画像生成部53bは、上述のようにして合成すべき被写体を選択すると、当該被写体を表示する被写体画像を生成し(STEP8)、選択した被写体を示す選択被写体情報を出力する。移動情報算出部54bは、被写体画像生成部53bから出力される選択被写体情報に基づいて選択された被写体を認識し、当該被写体の移動情報を出力する。
そして、背景画像補正部55が、移動情報算出部54bから出力される移動情報に基づいて、背景画像生成部52から出力される背景画像に補正を施す(STEP10)。また、合成部56が、背景画像補正部55によって補正されて得られる背景画像に、被写体画像生成部53で生成される被写体画像を合成する(STEP11)。これによって流し撮り処理画像が生成され、流し撮り処理部50bの動作が終了する。
以上のように構成すると、被写体の移動状態に基づいて、被写体の選択を行うことが可能となる。したがって、ユーザが所望する移動状態の被写体を表示する流し撮り処理画像を、生成することが可能となる。
なお、第1実施例で示した提示画像生成部57を備え、提示画像生成部57が、被写体画像生成部53bが選択した被写体をユーザに対して確認的に提示する提示画像を生成することとしても構わない。また、図22に示すフローチャートは一例に過ぎず、矛盾なき限りそれぞれの動作(STEP)の順番を入れ替えて実施することも可能である。
<第3実施例>
次に、流し撮り処理部の第3実施例について、図面を参照して説明する。図24は、第3実施例の流し撮り処理部の構成例を示すブロック図であり、第1実施例の流し撮り処理部について示した図2に相当するものである。なお、図24に示す第3実施例の流し撮り処理部50cについて、図2に示す第1実施例の流し撮り処理部50aと同様の構成となる部分については同様の名称及び番号を付し、その詳細な説明については省略する。また、第1実施例の流し撮り処理部50aについて述べた種々の構成の説明は、矛盾なき限り本実施例の流し撮り処理部50cにも適用され得るものとする。
図24に示すように、流し撮り処理部50cは、背景被写体特定部51と、背景画像生成部52と、被写体画像生成部53cと、移動情報算出部54と、背景画像補正部55と、合成部56と、提示画像生成部57cと、を備える。
ただし、被写体画像生成部53cは、被写体領域情報によって示されるそれぞれの被写体を順次選択し、それぞれの被写体を表示する被写体画像を生成するとともに、それぞれの被写体を示す選択被写体情報を出力する。また、提示画像生成部57cは、それぞれの被写体について生成されるそれぞれの流し撮り処理画像を表示する提示画像を生成する。
また、流し撮り処理部50cの動作例について、図面を参照して説明する。図25は、第3実施例の流し撮り処理部の動作例を示すフローチャートであり、第1実施例の流し撮り処理部について示した図3に相当するものである。なお、図25に示す第3実施例の流し撮り処理部50cの動作例について、図3に示す第1実施例の流し撮り処理部50aの動作例と同様の動作(STEP)となる部分については同様のSTEP番号を付し、その詳細な説明については省略する。また、第1実施例の流し撮り処理部50aについて述べた種々の動作の説明は、矛盾なき限り本実施例にも適用され得るものとする。
図25に示すように、流し撮り処理部50cが動作を開始すると、最初に連写画像の取得を行う(STEP1)。流し撮り処理部50cは、流し撮り処理に必要な全ての連写画像を取得するまで(STEP2、NO)、順次連写画像を取得する(STEP1)。全ての連写画像を流し撮り処理部50cが取得すると(STEP2、YES)、背景被写体特定部51が、取得した連写画像の背景領域と被写体領域とを特定する(STEP3)。背景被写体特定部51は、取得した連写画像のそれぞれについて背景領域と被写体領域とを特定するまで(STEP4、NO)、順次特定を行う(STEP3)。そして、背景被写体特定部51が、取得した連写画像のそれぞれについて背景領域と被写体領域とを特定すると(STEP4、YES)、背景画像生成部52が、背景領域情報に基づいて背景画像を生成する(STEP5)。
次に、被写体画像生成部53cが被写体を選択し(STEPc1)、選択した被写体を表示する被写体画像を生成する(STEP8)。また、移動情報算出部54は、被写体画像生成部53cで選択された被写体の移動情報を算出する(STEP9)。そして、背景画像補正部55が、移動情報算出部54で算出された移動情報に基づいて背景画像を補正し(STEP10)、合成部56が、補正されて得られた背景画像に被写体画像を合成して流し撮り処理画像を生成する(STEP11)。
本実施例の流し撮り処理部50cでは、被写体画像生成部53cで選択され得る全ての被写体が選択されるまで(STEPc2、NO)、順次被写体を選択し(STEPc1)、選択された被写体が含まれる流し撮り処理画像を順次生成する(STEP8〜11)。
全ての被写体について流し撮り処理画像が生成されると(STEPc2、YES)、提示画像生成部57cが、これらの流し撮り処理画像を用いて提示画像を生成する。この提示画像について、図26を参照して説明する。図26は、第3実施例の流し撮り処理部の提示画像生成部が生成する提示画像の一例を示す図である。
図26に示すように、本例の提示画像500には、被写体ごとに生成された複数の流し撮り処理画像を縮小して並べて表示した画像501〜503と、これらの縮小画像501〜503から仮選択された1つ(縮小画像502)を大きく(例えば、縮小率を大きくして、または拡大して)表示した拡大画像510と、が含まれる。
ユーザは、操作部17を介して縮小画像501〜503のいずれかを仮選択し、仮選択した縮小画像502を、拡大画像510で確認することができる。またユーザは、縮小画像501〜503や拡大画像510によって表される流し撮り処理画像の中で所望のものがあれば、操作部17を介して本選択する。そして、本選択された流し撮り処理画像が、圧縮処理部9及びドライバ部11を介して、外部メモリ10に記録される。
以上のように構成すると、ユーザが、流し撮り処理の効果が表れた流し撮り処理画像を実際に確認した上で、外部メモリ10への記録の要否を決定することが可能となる。そのため、ユーザが所望する流し撮り処理画像を確実に記録し、不要な流し撮り処理画像が記録されることを抑制することが可能となる。
なお、図25において、被写体の選択結果にかかわらず1つの背景画像を生成する場合について例示したが、第1実施例の流し撮り処理部50aについて説明したように、選択される被写体に応じた背景画像をそれぞれ生成しても構わない。また、図25に示すフローチャートは一例に過ぎず、矛盾なき限りそれぞれの動作(STEP)の順番を入れ替えて実施することも可能である。
<変形例>
本発明の実施形態における撮像装置1について、画像処理部5や流し撮り処理部50,50a〜50cなどのそれぞれの動作を、マイコンなどの制御装置が行うこととしても構わない。さらに、このような制御装置によって実現される機能の全部または一部をプログラムとして記述し、該プログラムをプログラム実行装置(例えばコンピュータ)上で実行することによって、その機能の全部または一部を実現するようにしても構わない。
また、上述した場合に限らず、図1に示す撮像装置1や、図2、図21及び図24に示す流し撮り処理部50a〜50cは、ハードウェア、或いは、ハードウェアとソフトウェアの組み合わせによって実現可能である。また、ソフトウェアを用いて撮像装置1や流し撮り処理部50a〜50cの一部を構成する場合、ソフトウェアによって実現される部位についてのブロックは、その部位の機能ブロックを表すこととする。
以上、本発明における実施形態について説明したが、本発明の範囲はこれに限定されるものではなく、発明の主旨を逸脱しない範囲で種々の変更を加えて実行することができる。
本発明は、入力される複数の画像を用いて新たな画像を生成する画像処理装置であり、特に、入力される画像に流し撮りの効果を付与した画像を生成する画像処理装置に関する。また、当該画像処理装置を備え当該複数の画像を撮像により得る撮像装置に関する。
50,50a〜50c 流し撮り処理部
51 背景被写体特定部
52 背景画像生成部
53,53b,53c 被写体画像生成部
54,54b 移動情報算出部
55 背景画像補正部
56 合成部
57,57c 提示画像生成部

Claims (6)

  1. 時間的に連続する撮像により得られる複数の連写画像について、背景を表示する領域である背景領域と、被写体を表示する領域である被写体領域と、をそれぞれ特定する背景被写体特定部と、
    前記背景被写体特定部で特定される背景領域に基づいて、背景を表示する画像である背景画像を生成する背景画像生成部と、
    前記背景被写体特定部で特定される被写体領域に基づいて、被写体を表示する画像である被写体画像を生成する被写体画像生成部と、
    前記背景被写体特定部で特定される被写体領域に基づいて被写体の移動方向を導出するとともに、被写体の移動方向に沿ってぼけさせる補正を背景画像に施す補正部と、
    前記補正部で補正された背景画像に被写体画像を合成する合成部と、
    を備えることを特徴とする画像処理装置。
  2. 前記背景領域特定部が、少なくとも2つの連写画像の差分に基づいて、連写画像の背景領域と被写体領域とをそれぞれ特定することを特徴とする請求項1に記載の画像処理装置。
  3. 前記補正部が、前記合成部で合成される被写体画像に表示される被写体の移動方向を導出し、
    前記合成部で当該被写体画像と合成される補正された背景画像が、当該被写体の移動方向に沿ってぼけさせる補正が施されたものであることを特徴とする請求項1または請求項2に記載の画像処理装置。
  4. 前記補正部が、前記背景被写体特定部で特定されるそれぞれの被写体領域が表示するそれぞれの被写体の移動量を導出し、
    前記被写体画像生成部が、それぞれの被写体の移動量に基づいて選択した被写体を表示する被写体画像を生成し、
    前記合成部が、当該被写体画像を前記補正部で補正された背景画像に合成することを特徴とする請求項1〜請求項3のいずれかに記載の画像処理装置。
  5. 前記補正部が、ある連写画像の被写体領域と、当該ある連写画像より時間的に前または後に撮像されて得られる連写画像の被写体領域と、を用いて、当該ある連写画像の被写体領域が表示する被写体の移動方向を導出することを特徴とする請求項1〜請求項4のいずれかに記載の画像処理装置。
  6. 時間的に連続する撮像により複数の連写画像を生成する撮像部と、
    前記撮像部で生成される連写画像に基づいて、流し撮り処理画像を生成する請求項1〜請求項5のいずれかに記載の画像処理装置と、
    を備えることを特徴とする撮像装置。
JP2009272128A 2009-11-30 2009-11-30 画像処理装置及び撮像装置 Pending JP2011114823A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2009272128A JP2011114823A (ja) 2009-11-30 2009-11-30 画像処理装置及び撮像装置
US12/956,363 US20110128415A1 (en) 2009-11-30 2010-11-30 Image processing device and image-shooting device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009272128A JP2011114823A (ja) 2009-11-30 2009-11-30 画像処理装置及び撮像装置

Publications (1)

Publication Number Publication Date
JP2011114823A true JP2011114823A (ja) 2011-06-09

Family

ID=44068581

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009272128A Pending JP2011114823A (ja) 2009-11-30 2009-11-30 画像処理装置及び撮像装置

Country Status (2)

Country Link
US (1) US20110128415A1 (ja)
JP (1) JP2011114823A (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015141487A1 (ja) * 2014-03-18 2015-09-24 ソニー株式会社 画像処理装置、画像処理方法、およびプログラム
JP2016201626A (ja) * 2015-04-08 2016-12-01 キヤノン株式会社 シフト素子制御装置、シフト素子制御プログラムおよび光学機器
JP2017005400A (ja) * 2015-06-08 2017-01-05 キヤノン株式会社 撮像制御装置、撮像装置および撮像制御プログラム
US9781359B2 (en) 2014-11-17 2017-10-03 Hyundai Motor Company Apparatus and method for processing image
JP2017216627A (ja) * 2016-06-01 2017-12-07 キヤノン株式会社 画像処理装置、撮像装置、画像処理方法、及びプログラム
JP2018513640A (ja) * 2015-04-10 2018-05-24 クゥアルコム・インコーポレイテッドQualcomm Incorporated パンニングショットの自動生成

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9805662B2 (en) * 2015-03-23 2017-10-31 Intel Corporation Content adaptive backlight power saving technology
CN105933604A (zh) * 2016-05-20 2016-09-07 珠海市魅族科技有限公司 一种图像获取的方法及终端
CN107613202B (zh) * 2017-09-21 2020-03-10 维沃移动通信有限公司 一种拍摄方法及移动终端
CN108665510B (zh) * 2018-05-14 2022-02-08 Oppo广东移动通信有限公司 连拍图像的渲染方法、装置、存储介质及终端

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007074031A (ja) * 2005-09-02 2007-03-22 Canon Inc 撮像装置、及び、画像処理装置及び方法

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6813395B1 (en) * 1999-07-14 2004-11-02 Fuji Photo Film Co., Ltd. Image searching method and image processing method
JP4068485B2 (ja) * 2002-09-30 2008-03-26 株式会社東芝 画像合成方法、画像合成装置、画像合成プログラム
JP3775683B2 (ja) * 2003-08-21 2006-05-17 松下電器産業株式会社 人物検出装置および人物検出方法
JP4868236B2 (ja) * 2004-12-21 2012-02-01 ソニー株式会社 画像処理装置と画像処理方法および画像処理プログラム
JP4516536B2 (ja) * 2005-03-09 2010-08-04 富士フイルム株式会社 動画生成装置、動画生成方法、及びプログラム
JP2007006165A (ja) * 2005-06-24 2007-01-11 Fujifilm Holdings Corp 撮像装置、撮像方法、及び撮像プログラム

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007074031A (ja) * 2005-09-02 2007-03-22 Canon Inc 撮像装置、及び、画像処理装置及び方法

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015141487A1 (ja) * 2014-03-18 2015-09-24 ソニー株式会社 画像処理装置、画像処理方法、およびプログラム
JPWO2015141487A1 (ja) * 2014-03-18 2017-04-06 ソニー株式会社 画像処理装置、画像処理方法、およびプログラム
US10567671B2 (en) 2014-03-18 2020-02-18 Sony Corporation Image processing apparatus and image processing method
US9781359B2 (en) 2014-11-17 2017-10-03 Hyundai Motor Company Apparatus and method for processing image
JP2016201626A (ja) * 2015-04-08 2016-12-01 キヤノン株式会社 シフト素子制御装置、シフト素子制御プログラムおよび光学機器
JP2018513640A (ja) * 2015-04-10 2018-05-24 クゥアルコム・インコーポレイテッドQualcomm Incorporated パンニングショットの自動生成
JP2017005400A (ja) * 2015-06-08 2017-01-05 キヤノン株式会社 撮像制御装置、撮像装置および撮像制御プログラム
JP2017216627A (ja) * 2016-06-01 2017-12-07 キヤノン株式会社 画像処理装置、撮像装置、画像処理方法、及びプログラム

Also Published As

Publication number Publication date
US20110128415A1 (en) 2011-06-02

Similar Documents

Publication Publication Date Title
JP5183297B2 (ja) 画像処理装置、撮像装置及び画像処理方法
JP2011114823A (ja) 画像処理装置及び撮像装置
US8294812B2 (en) Image-shooting apparatus capable of performing super-resolution processing
JP4513906B2 (ja) 画像処理装置、画像処理方法、プログラム及び記録媒体
KR101303410B1 (ko) 촬상장치 및 촬상방법
JP5214476B2 (ja) 撮像装置及び画像処理方法並びにプログラム
JP4844664B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP5186021B2 (ja) 撮像装置、画像処理装置、及び撮像方法
JP2008294785A (ja) 画像処理装置、撮像装置、画像ファイル及び画像処理方法
JPWO2008114499A1 (ja) 撮影装置および撮影方法
JP4631558B2 (ja) 撮像装置および画像処理プログラム
JP2010166512A (ja) 撮像装置
JP6261205B2 (ja) 画像処理装置
JP5261765B2 (ja) 撮像装置及び撮像方法
JP2011066827A (ja) 画像処理装置、画像処理方法及びプログラム
JP5125294B2 (ja) プログラム、画像処理装置、撮像装置および画像処理方法
JP6929711B2 (ja) 画像処理装置、画像処理方法、画像処理プログラム
JP5402242B2 (ja) 画像再生装置、撮像装置、画像再生方法、画像再生プログラム
JP2009044329A (ja) プログラム、画像処理方法および画像処理装置
JP5497420B2 (ja) 画像処理装置及び撮像装置
JP2010041497A (ja) 画像処理装置、電子機器及び画像処理方法
JP2011155582A (ja) 撮像装置
JP2015041865A (ja) 画像処理装置及び画像処理方法
JP4936816B2 (ja) 撮像装置及び同時表示制御方法
JP5493839B2 (ja) 撮像装置、画像合成方法及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20121011

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20130404

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20130606

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130830

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131001

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20140304