[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP4513905B2 - 信号処理装置、信号処理方法、プログラム及び記録媒体 - Google Patents

信号処理装置、信号処理方法、プログラム及び記録媒体 Download PDF

Info

Publication number
JP4513905B2
JP4513905B2 JP2008169445A JP2008169445A JP4513905B2 JP 4513905 B2 JP4513905 B2 JP 4513905B2 JP 2008169445 A JP2008169445 A JP 2008169445A JP 2008169445 A JP2008169445 A JP 2008169445A JP 4513905 B2 JP4513905 B2 JP 4513905B2
Authority
JP
Japan
Prior art keywords
image
camera
information
cameras
signal processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2008169445A
Other languages
English (en)
Other versions
JP2010011223A (ja
Inventor
哲二郎 近藤
哲志 小久保
健司 田中
仁志 向井
和政 田中
裕之 森崎
啓文 日比
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2008169445A priority Critical patent/JP4513905B2/ja
Priority to US12/479,214 priority patent/US8077214B2/en
Priority to CN2009101509107A priority patent/CN101616260B/zh
Publication of JP2010011223A publication Critical patent/JP2010011223A/ja
Application granted granted Critical
Publication of JP4513905B2 publication Critical patent/JP4513905B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4038Image mosaicing, e.g. composing plane images from plane sub-images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/95Computational photography systems, e.g. light-field imaging systems
    • H04N23/951Computational photography systems, e.g. light-field imaging systems by using two or more images to influence resolution, frame rate or aspect ratio
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4053Scaling of whole images or parts thereof, e.g. expanding or contracting based on super-resolution, i.e. the output image resolution being higher than the sensor resolution
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/69Control of means for changing angle of the field of view, e.g. optical zoom objectives or electronic zooming
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/698Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • Studio Devices (AREA)
  • Image Processing (AREA)

Description

本発明は、例えば、広い範囲でありながらコントラスト比が高い画像を得る場合に適用して好適な信号処理装置、信号処理方法、プログラム及び記録媒体に関する。
従来、風景等を広画角で撮像するため、例えば、パノラマ撮像方式、複数台のカメラを複数の場所に設置したマルチカメラによる撮像方式、高解像度の静止画に低解像度の動画を合わせる撮像方式、複数の焦点を有するカメラを用いたマルチ焦点撮像方式などが用いられていた。ここで、「画角」とは、カメラのレンズを通して被写体を撮像可能な範囲をいう。以下、各撮像方式について簡単に説明する。
パノラマ撮像方式では、複数台のカメラで撮像した画像をつなぎ合わせて、広域の画像を生成する。パノラマ撮像方式には、複数のカメラが1カ所の同じ場所で被写体を撮像するため、つなぎ合わせた画像に境界がない視点一致方式と、複数のカメラが別々の場所で被写体を撮像するため、つなぎ合わせた画像に境界が生じる視点不一致方式が存在する。
視点一致方式の場合、つなぎ合わせる前の各画像の周縁部は、カメラに取り付けられるレンズの特性等によって歪んでしまう。画像の歪みは、つなぎ合わせた画像が劣化する要因となる。歪んだ画像をそのままスクリーンに投影すると、スクリーンの端の画像に生じる歪みがさらに目立ってしまう。
視点一致方式の場合、隣り合うカメラ毎に撮像した画像の境界付近には、隣り合う画像が重なる共通部分が生じる。ここで、図33を参照して隣り合う画像の共通部分について説明する。
図33は、各カメラの撮像方向が一点に交わるようにして配置されたカメラを用いて撮像する方式の例を示す。
この方式では、視点102を基準とした撮像方向の延長線上に3台のカメラ101a〜101cが配置される。なお、撮像方向は、各カメラの光軸に一致する。そして、複数の光軸が交わる点を仮想的な「カメラアレイ(複数台のカメラ)の視点」とする。複数のカメラで撮像した画像を合成する場合、上述した「カメラアレイの視点」と、「各カメラの視点」の2つの視点について留意しなければならない。ここで、「各カメラの視点」を一致させる方式は2種類あり、これらの方式を「視点一致方式」とも称している。第1の方式としては、物理的に1枚のレンズでリレー光学系を用いて撮影する方式がある。第2の方式としては、隣り合う画像が重なる共通部分を一切持たないで、各カメラが各画角を担当して撮影する方式がある。視点一致方式以外の方式を用いて「各カメラの視点」を一致させようとしても、カメラ毎にレンズの大きさが異なるため困難となる。
図33の説明に戻ると、カメラ101a〜101cは、同一の画角で遠景103,近景105に位置する被写体を撮像する。そして、カメラ101a〜101cは、前側焦点面104上に焦点を合わせる。このとき、遠景103には、隣り合うカメラ101aとカメラ101bで撮像箇所が重なる共通部分103aが存在する。同様に、遠景103には、隣り合うカメラ101bとカメラ101cで撮像箇所が重なる共通部分103bが存在する。また、前側焦点面104には、隣り合うカメラ101aと101bの撮像箇所が重なる共通部分104aが存在する。同様に、前側焦点面104には、隣り合うカメラ101bとカメラ101cで撮像箇所が重なる共通部分104bが存在する。
カメラ101a〜101cで撮像した画像は、共通部分103a,103b,104a,104bを画素毎に色味を混ぜ合わせる。しかし、複数のカメラの視点が不一致であると、各カメラから被写体までの物体距離が変わる。ある特定の焦点面(本例では、前側焦点面104の面)で撮像された複数の画像をなめらかにつなげるが、カメラから被写体までの物体距離が異なると(本例では、遠景103と近景105が混ざった状態)と画像のつなぎ目に違和感が生じやすい(「近景割れ」とも称される。)。このため、複数の画像の共通部分を混ぜ合わせても、画像を高解像度に保つことは難しい。
ここで、特許文献1〜5を参照して、画像を合成する技術について簡単に説明する。
特許文献1には、近景割れについて記載されている。ここでは、高品位表現及び低品位表現で学習させた品位向上関数を用いて、画像データ、ビデオデータ及び音声データの品位を向上させる技術について開示されている。
他方、視点不一致方式では、同じ解像度、色味の画像が得られるカメラを複数の場所に配置して被写体を撮像する。カメラ毎の個体差は、ズーム率の違い等によって現れるため、個体差の影響を排除することでカメラの性能を均一化する。このとき、仮想的に特性が均一化されたカメラを用いて被写体を撮像するために、カメラ毎に得られる画像を様々な手段でキャリブレーションしている。
特許文献2には、低解像度で動画を撮像する動画撮像部と高解像度で静止画を撮像する静止画撮像部を一体化し、所望のシャッタチャンスで高画質の画像を得る画像撮像装置について開示されている。
特許文献3には、第1の画像データ列(低解像度かつ高フレームレートの画像データ列)と第2の画像データ列(高解像度かつ低フレームレートの画像データ列)が同一の範囲となるように撮像する技術について開示されている。これら2つの画像データ列を統合して画像処理を行なうと、高解像度かつ高フレームレートな画像が得られる。
特許文献2及び3に開示された方式では、カメラ毎に時間と解像度を分担する。例えば、1台のカメラが狭い範囲を長時間かけて撮像すると、得られる画像の解像度は高い。一方、他のカメラが広い範囲を短時間で撮像すると、得られる画像の解像度は低い。このように、撮像時間と解像度はトレードオフの関係となる。そして、各カメラが設置される位置(視点位置)を共通として、狭い範囲と広い範囲を撮像するカメラを別にして各画像を合成すると、広い範囲でありながら高い解像度で撮像された画像が得られるため、時間と解像度のトレードオフの関係が解消される。
複数の画像を合成する場合、以下のような信号処理装置110が用いられる。
図34は、従来の信号処理装置110の構成例を示すものである。
信号処理装置110は、狭い画角で被写体を撮像する第1のカメラが生成する高解像度画像121を入力とし、所定の周波数帯域以下の低域画像122を抽出する低域抽出部(LPF:Low Pass Filter)111を備える。図34では、各処理ブロックとともに、高解像度画像121と低域画像122について、横軸を周波数、縦軸を周波数のゲインとしたヒストグラムを併記する。
また、信号処理装置110は、入力された高解像度画像121と低域画像122から、低域画像122に対する高解像度画像121の対応関係を学習する学習部112と、各種のパラメータを設定するパラメータ設定部113を備える。そして、信号処理装置110は、不図示の第2のカメラで撮像された広画角で低解像度の画像123に対して、パラメータ設定部113から供給された高解像度画像121を重ね合わせ、合成画像124を生成するマッピング部114を備える。マッピング部114は、合成画像124を外部の出力装置に出力する。
図35は、信号処理装置110が行う従来の画像処理の例を示す。
始めに、低域抽出部111は、広画角で撮像された低解像度の画像123の低域まで狭画角で撮像された高解像度の画像121の帯域を落として、低域画像122を抽出する(ステップS101)。次に、学習部112は、高解像度画像121と、低域抽出部111で抽出された低域画像122の間で学習を行い、各種のパラメータ設定部113は、パラメータを求める(ステップS102)。
マッピング部114は、パラメータ設定部113で設定されたパラメータを用いて、広画角で低解像度の画像123の対応する位置に、高解像度画像121を重ね合わせるマッピングを行う(ステップS103)。低解像度の画像123に高解像度画像121がマッピングされた画像が合成画像として出力される。
特許文献4には、多焦点で撮像する技術について開示されている。この技術は、遠景と近景のいずれにも焦点が合った画像を得ることを目的としている。そして、複数台のカメラが有するレンズは、遠景に焦点を合わせる外側のレンズと、近景に焦点を合わせる中心のレンズを含む構成としている。
特許文献5には、複数台のカメラを配置した場合に、各カメラの視点位置を補正した上で高解像度の画像を合成する技術について記載されている。
特開2005−522108号公報 特開平7−143439号公報 特開2005−318548号公報 特開平9−139878号公報 特開2004−135209号公報
ところで、特許文献1に記載される技術では、隣り合う画像が重なる共通部分の幅を可変にして近景割れに対処するが、カメラの撮像範囲内に複数の物体が存在したり、上下左右に複数のカメラが配置されたりすると、画像をなめらかにつなげない。
例えば、DRC(Digital Reality Creation:登録商標)のように、様々な処理で劣化した低解像度の画像であっても高解像度の画像に変換する処理が存在する。しかし、DRCを使っても、得られる高解像度の帯域には限度があるため、例えば、画像を拡大すると画素毎に粗が目立ってしまう。
また、特許文献2及び3に記載された技術は、MPEG(Moving Picture Experts Group)に用いられるIピクチャ、Pピクチャの構造に基づく処理である。Iピクチャは高解像度の画像であり、Pピクチャは被写体の動きに関する情報が含まれる。この技術では、高解像度の画像を撮像するカメラと、動き情報を算出するカメラの分担が固定されるため、解像度を高めることは容易でない。このため、画像の解像度は、静止画を撮像するカメラに設けられる固体撮像素子(例えば、CMOS:Complementary Metal Oxide Semiconductor、CCD:Charge Coupled Device)の解像度より高めることができない。
また、特許文献4に記載される技術において、各レンズは遠景と近景に合わせた焦点を分担して撮像を行っているが、多数のカメラに共通する焦点がない。このため、カメラ毎に焦点がずれやすく、つなぎ合わせた画像に違和感が生じやすい。
また、特許文献5に記載される技術において、例えば、暗い室内と明るい屋外が同時に写り込む被写体を撮像すると、撮像した画像のコントラスト比が高くなってしまう。コントラスト比が高い被写体を撮像すると、屋内や屋外のテクスチャ(物体表面の質感)がなくなったり、撮像可能な輝度を超えてしまったりする。このため、暗い室内の画像が白くぼやけたり、明るい屋外の風景が見えなくなったりする。
本発明はこのような状況に鑑みて成されたものであり、広い範囲に位置するコントラスト比が高い被写体を撮像した場合に、コントラスト比を高めた画像を得ることを目的とする。
本発明は、第1の画角で所定の範囲に含まれる被写体を撮像する第1のカメラが生成した第1の画像が入力され、第1の画角より狭い第2の画角で所定の範囲に含まれる被写体の一部を撮像する複数の第2のカメラが生成した、第1の画像より高解像度である複数の第2の画像が入力される。
次に、第1の画像に含まれる被写体の一部と第2の画像に含まれる被写体との類似部分を検出し、検出された類似部分に相当する位置に、第1の画像に第2の画像を貼り合わせて合成画像を生成する。
また、合成画像より、第1の画像に不足する画像情報であって、第2のカメラが不足する画像情報を補完できない領域を撮像不能領域として検出する。
そして、第1の画像に不足する画像情報を補完した第2の画像を撮像する第2のカメラを制御するためのカメラパラメータを変更する。
このような構成により、コントラスト比が高い高解像度の合成画像が得られる。
本発明によれば、コントラスト比が高い高解像度の合成画像が得られるため、コントラスト比を高めた状態で大画面に合成画像を提示できるという効果がある。
以下、本発明の一実施の形態例について、図1〜図28を参照して説明する。本実施の形態例では、本発明の信号処理装置10を用いて、広い範囲であって、かつ、コントラスト比が高い被写体を撮像して、コントラスト比が高い高解像度の合成画像を生成する画像処理システム1に適用した例について説明する。
<画像処理システム1の構成例>
図1は、画像処理システム1の構成例を示す。
画像処理システム1は、第1の画角で所定の範囲を撮像し、第1の画像5を生成する第1のカメラ2と、第1の画角に比べて狭い第2の画角で所定の範囲の一部を撮像し、第2の画像6a〜6cを生成する第2のカメラ3a〜3cを備える。第1の画像5と第2の画像6a〜6cは、複数の画像を合成して広い範囲でありながら高解像度の画像を生成する信号処理装置10に供給される。信号処理装置10が生成した合成画像は、プロジェクタ装置等からなる表示装置20に出力される。表示装置20は、入力された合成画像30をスクリーンに投影する。
第1のカメラ2と第2のカメラ3a〜3cには、高解像度カメラやHD(High Definition)カメラ等が用いられる。これらのカメラにはそれぞれ個体差が存在しており、個体差を調整するキャリブレーションを行うと非常にコストがかかる。しかし、本例では、第1のカメラ2の視点、色味、輝度、フォーカスを基準とする「共通情報」に基づいて、第2のカメラ3a〜3cのキャリブレーションを行うことで、低コストかつ容易にカメラ毎の個体差を調整している。第2のカメラ3a〜3cの個体差は、「個別情報」として別途管理する。また、本例の信号処理装置10は、各カメラが撮像する領域毎の輝度分布によるが、例えば、8ビットの階調で撮像できる第1のカメラ2、第2のカメラ3a〜3cを用いて、10ビットの階調を持つ画像を作成できる。
本例の画像処理システム1では、撮像した画像に応じて第1のカメラ2と第2のカメラ3a〜3cの撮像の仕方を変更する。例えば、信号処理装置10は、第1の画像5と第2の画像6a〜6cの輝度分布、色分布に応じてカメラパラメータを変更する。また、信号処理装置10は、第1の画像5と第2の画像6a〜6cの周波数(画像の波形の細かさ)に応じてカメラパラメータを変更する。
<信号処理装置10の内部構成例>
図2は、信号処理装置10の内部構成例を示す。
信号処理装置10は、第1のカメラ2が撮像した第1の画像5が入力される入力部11aと、第2のカメラ3a〜3cから入力された第2の画像6a〜6cが入力される入力部11bを備える。また、入力部11a,11bを介して取得した第1の画像5に含まれる被写体の一部と第2の画像6a〜6cに含まれる被写体の双方に類似する箇所を「類似部分」として検出する類似部分検出部12を備える。「類似部分」とは、例えば、第1の画像5に含まれる森の一部である木と、第2の画像6a〜6cに含まれる木が類似する部分を指す。類似部分を検出することで、第1の画像5に対する第2の画像6a〜6cの位置が判明し、第1の画像5の一部と第2の画像6a〜6cのマッチングを容易に行うことができる。
また、信号処理装置10は、類似部分検出部12で検出された類似部分に基づいて第2の画像6a〜6cの位相等を変換し、第1の画像5のうち、検出された類似部分に相当する位置に第2の画像6a〜6cを貼り付ける画像合成部13を備える。また、第1の画像5と第2の画像6a〜6cに含まれる画像情報に基づいて、合成画像に含まれる画像情報を補正する画像情報補正部14を備える。本例において、「画像情報」には、少なくとも輝度、色度、周波数の情報のいずれかが含まれる。このため、画像情報補正部14は、少なくとも輝度、色度、周波数の情報について、合成画像を補整することとなる。画像情報補正部14で変換された輝度と色度の情報は、類似部分検出部12に供給される。また、画像情報補正部14で輝度と色度が変換された画像は、出力部17を介して、表示装置20に出力される。
また、信号処理装置10は、合成画像より、第1の画像5に不足する画像情報であって、第2のカメラ3a〜3cが不足する画像情報を補完できない領域を撮像不能領域として検出する撮像領域検出部15を備える。本例の撮像領域検出部15は、第1の画像5と第2の画像6a〜6cに基づいて、各カメラで撮像できる撮像可能領域と撮像できない撮像不能領域を求める。そして、被写体に含まれる輝度または周波数を、撮像可能領域と撮像不能領域を求める際の基準情報としている。画像情報補正部14によって補正された画像情報と撮像領域検出部15が検出した撮像領域の情報は、類似部分検出部12に供給され、類似部分の検出の際に用いられる。
また、信号処理装置10は、撮像領域検出部15で検出された撮像領域に基づいて、第1の画像5に不足する画像情報を補完した第2の画像6a〜6cを撮像する第2のカメラ3a〜3cを制御するためのカメラパラメータを変更するカメラパラメータ演算部16を備える。カメラパラメータには、視点位置、露出、焦点等の情報が含まれる。
カメラパラメータ演算部16は、第1の画像5と第2の画像6a〜6cに含まれる被写体の輝度分布を求めて、第1のカメラ2と第2のカメラ3a〜3cで撮像可能な輝度領域を検出し、カメラパラメータにズーム率を変える情報を含ませる輝度演算部16aを備える。また、被写体の周波数分布を求めて、第1及び第2のカメラで撮像可能な画像領域から撮像不能領域を検出し、カメラパラメータにズーム率を変える情報を含ませるズーム率演算部16bを備える。第2のカメラ3a〜3cは、カメラパラメータ演算部16で演算されたカメラパラメータに基づいて、カメラパラメータを変更する。
図3は、第1の画像5と第2の画像6aの輝度ヒストグラムを用いた輝度分布の例を示す。
第1の画像5の輝度は、輝度ヒストグラム25として示される。輝度ヒストグラム25には、第1の画像5全体の輝度分布26と、第2の画像6aが撮像される範囲の輝度分布27が示される。第2の画像6a全体の輝度は、輝度ヒストグラム28として示される。輝度分布27,36はスケールが異なるものの同じ輝度分布を表している。
輝度ヒストグラム25に示すように、第1のカメラ2だけでは、高輝度な被写体であったり、ダイナミックレンジが広い被写体であったりすると、階調不足により撮像できない部分が生じる場合がある。図3の例では、輝度分布26における輝度値の中間付近では、輝度分布29に比べて輝度が不足している。このため、第2のカメラ3a〜3cで撮像したが画像6a〜6cを第1の画像5に重ねると、本来被写体が有する輝度を再現できる。そして、詳細な輝度情報が得られるため、第1の画像5より多ビットな画像を表示装置20に表示できたり、画像を調整できたりすることが可能となる。
図4は、ズーム率の変化による画角の例を示す。
図4において、第1のカメラ2と第2のカメラ3a〜3cの配置は、図1と同様である。例えば、被写体を詳しく見るときは、第2のカメラ3bをズームし、他の第2のカメラ3a,3cをズームアウトしてもよい。そして、第1のカメラ2で広範囲を撮像している範囲内で動く物体を見つけた場合に、第2のカメラ3bをズームしてこの物体を撮像できる。このため、カメラ毎にズーム率を変えられることが必要となる。
また、第1のカメラ2が撮像した広い範囲の画像から、部分的に低解像度の画像を得られるため、第2のカメラ3a〜3cの撮像範囲が連続していないときは、撮像範囲の隙間に第1のカメラ2で撮像した第1の画像5を埋めて合成画像を生成できる。また、各カメラのズーム率を変えるトリガとして画像のハイパスフィルタなどで高周波成分を検出し、高周波のところは重点的に撮像するなども考えられる。
本例では、第1のカメラ2で撮像した第1の画像5を画像合成時の基準とするため、第1のカメラ2のズーム率は変えない。このため、第1のカメラ2の画角は変わらない。
一方、第2のカメラ3a〜3cは、それぞれズーム率を変えた画角は、元のズーム率における画角に比べて狭くなる。このため、元のズーム率で撮像可能であった領域22に比べて、ズーム率の変化後の領域21は狭くなるが、より高解像度の画像が得られる。
そして、カメラパラメータ演算部16は、少なくとも色、輝度及び焦点のいずれかに関する情報を、第2の画像6a〜6cの画素毎の特徴量が定まるカメラパラメータとして求める。このように、カメラパラメータを用いて第2のカメラ3a〜3cの特性を変えることで、互いのカメラで撮像した画像に不足する情報を補える。このとき補う情報を「カメラパラメータ」と称する。カメラパラメータには、解像度、輝度、焦点、ホワイトバランス、視点等がある。以下、カメラパラメータについて説明する。
(1)解像度の場合
第2のカメラ3a〜3cは、ズーム率を変えることで、撮像領域毎に解像度を自由に変えて撮像できる。
(2)視点の場合
第2のカメラ3a〜3cは、対象となる被写体に合わせて視点を自由に変えて撮像できる。
(3)ホワイトバランス(色味)の場合
第2のカメラ3a〜3cは、被写体の色彩に合わせて撮像領域毎にホワイトバランスを自由に変えて撮像できる。
(4)輝度の場合
第2のカメラ3a〜3cは、オートゲインなどを用いて撮像領域毎に輝度を自由に変えて撮像できる。
(5)フォーカスの場合
第2のカメラ3a〜3cは、被写体までの距離に応じて撮像領域毎に焦点を自由に変えて撮像できる。
第2のカメラ3a〜3cは、ズーム率によって撮像領域毎に解像度と輝度を変える。そして、被写体までの距離に応じて撮像領域毎に焦点を変え、撮像した画像の色彩に合わせて撮像領域毎にホワイトバランスを変え、被写体に対する視点を変える。
図5は、共通情報と個別情報の例を示す。
本例では、第1のカメラ2のカメラパラメータに関する情報を「共通情報」としている。共通情報とは第1のカメラ2と第2のカメラ3a〜3cの全体で基準となる情報であり、主に、第1のカメラ2に対する第2のカメラ3a〜3cの違いを示す。この共通情報を用いると、各カメラで撮像した複数の画像を繋ぐときにカメラ毎の個体差、視差等の影響を除くことができる。ただし、共通情報は広範囲を撮像して得られる情報であるため解像度は非常に低くなる。
一方、共通情報に対する第2のカメラ3a〜3cのカメラパラメータに関する情報を「個別情報」としている。個別情報とは、カメラアレイ全体の共通情報と異なるが情報の質(解像度の分解能、輝度の分解能、色の分解能、フォーカスが合う場所等)が高い情報である。共通情報とは、個別情報とは逆に解像度などの情報の質は高いものの、カメラ間の個体差を考慮していない情報である。共通情報と個別情報は、1つのカメラだけでは管理することができず、カメラパラメータ演算部16によって管理される。共通情報に対する個別情報の差を求めることで、第1のカメラ2に対する第2のカメラ3a〜3cのカメラパラメータの変化量が判明する。そして、判明したカメラパラメータの変化量は、画像合成部13が画像を合成する際に、画像のずれや色味の補正等を行うために用いられる。
図5(a)は、共通情報と個別情報の管理の仕方の例を示す。
本例では、第1のカメラ2の視点と第1の画像5の色味を基準として、第2の画像6a〜6cを重ねる。第1のカメラ2の画角は広いため、第1の画像5は低解像度である。一方、第2のカメラ3a〜3cは、画角が狭く、第1の画像5の一部をズームして撮像するため、第2の画像6a〜6cは高解像度である。
第1のカメラ2の視点、色味、輝度、フォーカスは、第1の画像5に第2の画像6a〜6cを重ねる際の基準となる共通情報として用いられる。また、第2のカメラ3a〜3cの色味、輝度、フォーカスは、カメラ毎に特性が異なる。
図5(b)は、共通情報と個別情報の両方を用いて生成する情報の例を示す。
個別情報は、第1のカメラ2に第2のカメラ3a〜3cの特性を合わせるために用いられる解像度、視点、色味、輝度、フォーカスに関する情報である。
本例において、第2のカメラ3a〜3cと同じ高解像度の画像を得ることを目的とする。また、第1のカメラ2が設置された位置を一つの視点とした場合に、第2のカメラ3a〜3cが設置された位置を第1のカメラ2の視点に一致させる。そして、低解像度の第1の画像5に比べて、第2の画像6a〜6cは詳細な色情報を有する。また、低輝度の輝度情報しか持たない第1の画像5に比べて、第2の画像6a〜6cは高輝度の輝度情報を持つ。また、第2のカメラ3a〜3cは、被写体が含まれる撮像領域毎にフォーカスを合わせる。
従来、狭い画角で被写体を撮像するカメラを複数台並べて、画像をつなぎ合わせた場合、各カメラの視点が一致していないため、画像のつなぎ目に違和感が生じていた。本例では、第1のカメラ2と第2のカメラ3a〜3cを用意し、共通情報と個別情報に分けて被写体を撮像する。共通情報と個別情報には、解像度、視点、色味、輝度、フォーカスの情報が含まれる。共通情報と個別情報を用いると、各カメラの特性を生かした画像が得られる。
図6は、第2のカメラ3a〜3cのカメラパラメータの変更処理の例を示すフローチャートである。
始めに、信号処理装置10は、入力部11aを介して第1のカメラ2から第1の画像5を取得し、入力部11bを介して第2のカメラ3a〜3cから第2の画像6a〜6cを取得する(ステップS11)。
次に、類似部分検出部12は、第1の画像5と第2の画像6a〜6cの類似部分を検出する(ステップS12)。このとき、類似部分検出部12は、画像情報補正部14によって補正された画像情報及び撮像領域検出部15によって検出された撮像不能領域及び撮像可能領域に基づいて類似部分を検出する。本例では、類似部分検出部12で、各画像の類似部分を検出した後、再度、類似部分を検出する処理を行うことによって類似部分の検出精度を上げる。
ところで、各カメラには固体差が存在しており、従来の類似部分を検出する技術を用いても検出精度が非常に悪い。ここで、「カメラの固体差」とは、カラーフィルタのずれなどにより、色味などがカメラ毎に変わってしまうことを指す。
各カメラの固体差から輝度、色度等の補正量を正確に求めるためには、各画像の位相を揃えることが望ましい。そして、類似部分検出、固体差補正というフィードバック処理を行うことによって、類似部分の検出精度を向上させる。ここで、各カメラの個体差を補正する補正量Pを求める式(1)を以下に示す。画素値Y1は、第1のカメラ2で撮像した画像の各画素の画素値を示す。また、画素値Y2は、第2のカメラ3a〜3cで撮像した画像の各画素の画素値を示す。
式(1)に示すように、第1のカメラ2と第2のカメラ3a〜3cがそれぞれ求めた、各画素値から平均画素値を減じた絶対値を割ることによって補正量Pを求める。そして、次式(2)を用いて補正した画素値Y2を求める。
補正量Pを求めた後、カメラの各画素の画素値Y1を画素値Y2に合わせるように、第2のカメラ3a〜3cの固体差を補正する。なお、類似部分検出部12で検出された各画像の類似部分の結果を用いることによって、更に補正量Pを求めることもできる。
そして、画像合成部13は、第1の画像5の位相に合わせて第2の画像6a〜6cを所定の位置に貼り付ける(ステップS13)。ステップS13における画像変換・貼付処理は、特許文献5(特開2004−135209号公報)に記載された技術を用いる。
そして、画像情報補正部14は、第2のカメラ3a〜3cの輝度を、第1のカメラ2の輝度に合うように変換する(ステップS14)。そして、画像情報補正部14は、輝度と色度が合うように画像を、再び類似部分検出部12に送る(ステップS15)。
ステップS14の処理の後、撮像領域検出部15は、第1のカメラ2と第2のカメラ3a〜3cが共に撮像できない撮像不能領域に関する情報を検出する(ステップS16)。撮像領域検出部15は、第1の画像5と第2の画像6a〜6cに含まれる被写体の一部のコントラスト比に応じて、被写体の輝度分布を求める。そして、第1のカメラ2と第2のカメラ3a〜3cで撮像できない輝度領域から撮像不能領域を検出する。この撮像不能領域には、被写体にサチュレーションを起こすような高い輝度を含んでいる。また、周波数分布を求めて撮像不能領域を検出する場合、その撮像不能領域にはそのときのカメラの解像度では対応できない高い周波数成分を有する領域が含まれる。
そして、撮像領域検出部15は、カメラ毎に検出した撮像領域に関する情報を類似部分検出部12に送信する(ステップS17)。撮像領域に関する情報は、類似部分検出部12においてどの領域をマッチングするかのパラメータとして用いられる。
ステップS16の処理の後、カメラパラメータ演算部16は、第2のカメラ3a〜3cに設定するカメラパラメータを演算し、第2のカメラ3a〜3cに対してカメラパラメータを設定する(ステップS18)。
次に、図7〜図17を参照して本例の画像処理システム1で行うカメラを選択する処理の例について説明する。図7〜図17では、被写体の輝度に応じて、カメラの撮像領域を変える処理を行っている。以下、第1のカメラ2と第2のカメラ3a,3bを用いて被写体を撮像する場合について説明する。
図7は、コントラスト比が高い被写体31の例を示す。
本例では、暗い室内から明るい屋外を撮像する場合に見える被写体31について説明する。被写体31には、暗い屋内領域32と、明るい屋外領域33が含まれる。屋内領域32には、例えば窓枠32a〜32cがある。屋外領域33には、例えば、太陽33a,雲33b,森33cがある。
従来、屋外領域33にカメラの焦点を合わせると、屋内領域32に含まれる窓枠32a〜32cの模様等が暗く映ってしまう。一方、屋内領域32にカメラの焦点を合わせると、屋外領域33に含まれる被写体が白く映るため、例えば森33cに含まれる木々の葉等が映らなくなってしまう。このため、1台のカメラで被写体31を鮮明に撮像できなかった。
図8は、被写体31から求まる輝度ヒストグラムの例を示す。この輝度ヒストグラムの輝度値は対数表示される。以下、図8〜図12には、横軸を輝度、縦軸を度数とした輝度ヒストグラムを示す。
屋内領域32の輝度分布34は、例えば、0〜100カンデラの間にある。そして、輝度分布34内で屋内領域32の輝度がピークとなる。
屋外領域33の輝度分布35は、例えば、1500〜6000カンデラの間にある。そして、輝度分布35内で屋外領域33の輝度がピークとなる。
図9は、図8に示す輝度ヒストグラムの内、1台のカメラで撮像可能な輝度領域36を示す。
第1のカメラ2,第2のカメラ3a〜3cが撮像可能な輝度領域36は、255階調の一定範囲内に限られる。このため、第1のカメラ2,第2のカメラ3a,3bのうち、いずれか1台のカメラのみを用いて屋内領域32と屋外領域33を高い輝度で同時に撮像することはできない。本例では、カメラ毎の撮像領域を屋内領域32と屋外領域33で異ならせており、得られた各画像の輝度は高い。これらの画像を合成することによって、高いコントラスト比を有する合成画像が得られる。
ここで、図10〜図17を参照して、撮像領域検出部15が行うカメラ毎に撮像領域を検出する処理について説明する。
図10は、図7に示す被写体31を撮像する第1のカメラ2及び第2のカメラ3a,3bの画角の例を示す。図10に示す各カメラの画角は、カメラパラメータによって画角が変更される前の初期状態とする。
第1のカメラ2の画角41は、被写体31全体を撮像するように設定される。本例では、画角41に、屋内領域32と屋外領域33内の被写体が含まれる。
第2のカメラ3aの画角42aは、屋外領域33を撮像するように設定される。一方、第2のカメラ3bの画角42bは、屋内領域32と屋外領域33を撮像するように設定される。ただし、第2のカメラ3aの画角42aと第2のカメラ3bの画角42bは、一部が重なっている。また、第2のカメラ3aの画角42aに比べて、第2のカメラ3bの画角42bの画角は小さい。
図11は、第2のカメラ3aで撮像可能な輝度の範囲を示す輝度ヒストグラムの例を示す。
第2のカメラ3aは、高輝度(例えば、500〜6000カンデラの間)の被写体を撮像する場合に適している。このため、500〜6000カンデラの範囲外の輝度を有する被写体を撮像すると、得られる画像は暗くなってしまう。
図12は、第2のカメラ3bで撮像可能な輝度の範囲を示す輝度ヒストグラムの例を示す。
第2のカメラ3bは、低輝度(例えば、0〜500カンデラの間)の被写体を撮像する場合に適している。このため、0〜500カンデラの範囲外の輝度を有する被写体を撮像すると、得られる画像は白くなってしまう。
図13は、第1のカメラ2で撮像可能な輝度の範囲を示す輝度ヒストグラムの例を示す。
第1のカメラ2は、100〜1500カンデラの間の被写体を撮像する場合に適している。このため、100〜100カンデラの範囲外の輝度を有する被写体を撮像すると、得られる画像は白くなってしまう。
撮像領域検出部15は、第1のカメラ2と第2のカメラ3a,3bから、自機で撮像可能な輝度範囲に関する情報を集める。そして、第1のカメラの画角41で撮像された画像上に、第2のカメラ3aの画角42aで撮像された画像と第2のカメラ3bの画角42bで撮像された画像をマッピングする。
図14は、各カメラの画角と撮像可能・不能領域の例を示す。
図14(a)は、第1のカメラ2の画角41と撮像可能・不能領域の例を示す。
図14(b)は、第2のカメラ3aの画角42aと撮像可能・不能領域の例を示す。
図14(c)は、第2のカメラ3bの画角42bと撮像可能・不能領域の例を示す。
各画角に含まれる画像は、上述した図10に示した画角で撮像される画像に等しい。以降の説明において、白抜きした箇所をカメラで撮像できない撮像不能領域とし、影をつけた箇所をカメラで撮像できる撮像可能領域とする。
図15は、第2のカメラ3a,3bの画角の例を示す。
第2のカメラ3aの画角42aと第2のカメラ3bの画角42bの大きさは、上述した図10に示した画角に等しい。
撮像領域検出部15は、第2のカメラ3bの画角42bが第2のカメラ3aの画角42aに重ならず、かつ、屋外領域33の一部が入る箇所を、第2のカメラ3a,3bのいずれも撮像不能領域43として検出する。この状態で複数の画像を合成しても、被写体の輝度を明確に再現する画像は得られない。そして、撮像領域検出部15は、撮像可能領域と撮像不能領域を区別するため、画角42a,42bで撮像された各画像に含まれる画素毎にフラグを立てる。
このため、撮像領域検出部15は、撮像不能領域43に対して、第1のカメラ2を用いて撮像するために必要とされる輝度を予測する。そして、第2のカメラ3a,3bのうち、この予測した輝度を撮像可能なカメラを選択する。本例では、第2のカメラ3aを選択したものとする。そして、撮像領域検出部15は、画角を変更するための情報をカメラパラメータ演算部16に供給する。カメラパラメータ演算部16は、第2のカメラ3aの画角を広げて撮像範囲を変更するように、変更したカメラパラメータを第2のカメラ3aに供給して、第2のカメラ3aの画角を変える設定を行う。このカメラパラメータには、ズーム率を変える情報が含まれており、ズーム率を変えることによってカメラの画角を変えることができる。
図16は、画角を広げた第2のカメラ3a,3bの画角の例を示す。
ここでは、第2のカメラ3aの画角42aを広げた画角42′を示す。このように画角42aを広げることによって、撮像不能領域43(図15参照)であっても、第2のカメラ3aで撮像することが可能となる。
図17は、撮像領域検出部15が行う撮像領域検出処理の例を示す。
始めに、撮像領域検出部15は、入力部11bを介して取得した第2のカメラ3a,3bが撮像した画角42a,42bに基づいて、各カメラの撮像可能領域を求める(ステップS21)。
次に、撮像領域検出部15は、第1のカメラ2が撮像した第1の画像に対して、画角42a,42bの情報を貼り付ける(ステップS22)。そして、撮像領域検出部15は、第1の画像に貼り付けられた画角42a,42bの情報より、第2のカメラ3a,3bの撮像不能領域43を抽出する(ステップS23)。
次に、撮像領域検出部15は撮像不能領域43の輝度値を確認し、撮像不能領域43の輝度値を撮像できるカメラを第2のカメラ3a,3bから選択する(ステップS24)。ステップS24では、例えば、図11〜図13に示した輝度ヒストグラムに基づいて、撮像不能領域43を撮像可能な第2のカメラ3a,3bを選択している。
次に、輝度値が撮像可能領域にある第2のカメラ3a,3bのカメラパラメータを変更する(ステップS25)。ここでは変更するカメラパラメータとして、ズーム率を変えることによって画角を変えている。そして画角42aを広げた画角42′によって、撮像不能領域43であっても撮像可能としている。なお、変更可能なカメラパラメータには、例えば、撮像方向、フォーカス等の情報が含まれる。
次に、図18〜図26を参照してカメラパラメータを変更する処理の例について説明する。図18〜図26では、被写体に含まれる周波数(例えば、画像の波形(模様等)の細かさ)に応じて、第2のカメラ3a,3bが撮像する領域を変える。ここで、第1のカメラ2は広範囲を撮像するため、撮像した画像には、高い周波数成分が含まれない。このため、高い周波数成分を撮像可能な第2のカメラ3a,3bを選択し、適応的にカメラパラメータを変更する必要がある。本例のカメラパラメータには、ズーム率を変更する情報が含まれる。
図18は、被写体の一部に高周波領域が含まれる画像の例を示す。
図18には、被写体として、空53、柵を有する建物54及び複数のビル55が含まれる。本例において、第1のカメラ2は、第1の画角51で被写体全体を撮像した画像を生成する。また、第2のカメラ3a,3bは、第1のカメラ2より狭い第2の画角52a,52bで撮像した画像を生成する。建物54には一定の周期で明暗が変化する模様(本例では柵)があるため、空53,ビル55と比べて高い周波数が含まれると言える。このため、第1のカメラ2を用いただけでは、建物54の模様を撮像できない。
図19は、図18に示した被写体に含まれる空53とビル55の周波数分布の例を示す。
空53の周波数分布61に示すように、空53の周波数成分は低い。
一方、ビル55の周波数分布62に示すように、ビル55の周波数成分は高い。
図20は、1台のカメラで撮像可能な周波数領域の例を示す。
第1のカメラ2と第2のカメラ3a,3bのいずれであっても、撮像可能な周波数領域63はほぼ同じである。しかし、第2のカメラ3a,3bをズームすると、撮像可能な周波数領域64は、周波数領域63に比べて広くなる。このため、より細かいテクスチャ(高周波)の画像を撮像できる。ただし、第2のカメラ3a,3bをズームすると、ズーム前に比べて画角は小さくなる。
図21は、ズーム前の第2のカメラ3aで撮像可能な周波数領域の例を示す。
第2のカメラ3aは、撮像可能領域65aに示すように、低い周波数成分の画像を撮像することが可能である。
図22は、ズーム後の第2のカメラ3bで撮像可能な周波数領域の例を示す。
第2のカメラ3bは、撮像可能領域65aに示すように、高い周波数成分の画像を撮像することが可能である。このため、第2のカメラ3bで撮像した画像は高解像度となり、細かい模様等を撮像できる。
図23は、第1のカメラ2で撮像可能な周波数領域の例を示す。
第1のカメラ2は、広範囲の被写体を撮像する。そして、第1のカメラ2で撮像可能な周波数領域66は、空53の周波数分布61の範囲にほぼ等しい。つまり、第1のカメラ2は、ズーム率が非常に低いので撮像した画像は低解像度(低域)となり、細かい模様等は撮像できない。
図24は、各カメラの画角と撮像可能・不能領域の例を示す。
図24(a)は、第1のカメラ2の画角51と撮像可能・不能領域の例を示す。
図24(b)は、第2のカメラ3aの画角52aと撮像可能・不能領域の例を示す。
図24(c)は、第2のカメラ3bの画角52bと撮像可能・不能領域の例を示す。
各画角51,52a,52b内に含まれる被写体の画像は、上述した図18に示した画角における被写体の画像に等しい。図24(a)〜図24(c)に示すように、高周波領域が含まれる建物54は、どのカメラを用いても解像度を高めて撮像できないことが分かる。
ところで、各カメラで撮像した画像を合成するためには、各カメラが撮像可能な周波数領域の情報を得ることが必要である。ここでは、図25と図26を参照してカメラの画角を変える処理について説明する。
図25は、ズーム前の第2のカメラ3a,3bの画角の例を示す。
第2のカメラ3aの画角52aと第2のカメラ3bの画角52bの大きさは、上述した図18の場合と同様である。
ところで、第2のカメラ3bの画角52bが第2のカメラ3aの画角52aに重なる箇所に高周波領域が含まれる建物54が含まれる。このままでは、建物54の模様を明確に撮像できない。建物54を高解像度で撮像するためには、第2のカメラ3a,3bのうち、いずれかのカメラをズームすればよい。本例では、第2のカメラ3bが最も高い周波数領域の被写体を撮像できる(図22参照)ため、第2のカメラ3bのズーム率を変えて、画角を変えるカメラパラメータを変更する。このカメラパラメータには、画角を変更するための情報が含まれる。
図26は、ズームした第2のカメラ3bの画角の例を示す。
ここでは、第2のカメラ3bの画角52bをズームした第2のカメラの画角57を示す。画角57は、画角52b(図25参照)に比べて狭いことが分かる。このように第2のカメラ3bをズームすることによって、図25に示したような高周波領域が含まれる建物54を高解像度で撮像できる。
ここで、被写体に含まれる高周波領域を検出する場合における第2のカメラ3a,3bの構成例と処理画像の例について、図27〜図31を参照して説明する。
図27は、第1のカメラ2と第2のカメラ3a〜3cが備える撮像部70の構成例を示す。
撮像部70は、レンズ71と、低域分離部(光学LPF:Low Pass Filter)72と、撮像素子(CCD,CMOS等)73を備える。被写体から生じる光線は、レンズ71を通過してローパスフィルタ72によって低域成分の光線が抽出される。低域成分の光線は、撮像素子73によって画像信号に変換され、第1のカメラ2と第2のカメラ3a〜3cが備える各処理ブロックに供給される。なお、被写体に含まれる高周波領域は、二次元フーリエ変換、離散コサイン変換(DCT:Discrete Cosine Transform)等の技術を用いて検出できる。
(1)画像成分を解析する場合
始めに、撮像領域検出部15が行う画像成分を解析することによって高周波領域を検出する処理の例について説明する。
図28は、二次元フーリエ変換を施した画像の例を示す。
まず、撮像領域検出部15は、画像を8×8のブロック毎に区切り、二次元フーリエ変換をかける。変換画像74を参照すると、周波数が低い箇所75の周辺が所定の閾値より高い周波数の領域であることがわかる。つまり、白いブロックは、所定の閾値より周波数が低い領域であると言える。
図29は、高周波領域の検出処理における各段階の画像の例を示す。
図29(a)は、原画像81の例を示す。
この原画像には、クマのぬいぐるみと、人形に着せられた着物の一部の画像が含まれる。なお、原画像81は、ローパスフィルタ72を通さないで得る画像である。
図29(b)は、原画像81の全体にわたって、8×8ブロック毎に2次元高速フーリエ変換(FFT:Fast Fourier transform)を掛けた画像82の例を示す。ここで、図28に示すような8×8ブロックは、ブロック80に示される。画像82より、模様が細かい着物の付近は、白くなっており、この付近に高い周波数成分が含まれることが分かる。
図29(c)は、原画像81にローパスフィルタ72を通して得られる低域画像83の例を示す。
低域画像83は低域成分のみで構成されるため、全体に不鮮明となる。
図29(d)は、ローパスフィルタ72を掛けた低域画像83の8×8ブロック毎に2次元高速フーリエ変換を掛けた画像82の例を示す。この場合であっても、画像82より、模様が細かい着物の付近は、白くなっており、この付近に高い周波数成分が含まれることが分かる。
(2)原画像から低域成分を引いた差分画像を求める場合
図30は、第1のカメラ2と第2のカメラ3a〜3cが備える撮像部70の構成例を示す。各ブロックの構成は、上述した図27に示した構成例と同様であるため、詳細な説明を省略する。
図30(a)は、ローパスフィルタ72をオフ状態とした場合の構成例である。この場合、原画像81が得られる。
図30(b)は、ローパスフィルタ72をオン状態とした場合の構成例である。この場合、低域画像83が得られる。
図31は、高周波領域の検出処理における各段階の画像の例を示す。
図31(a)は、ローパスフィルタ72がオフ状態の場合に得られる原画像81の例である。この場合、原画像81には高周波成分が含まれるため、着物の模様等も明確に表示される。
図31(b)は、ローパスフィルタ72がオン状態の場合に得られる画像82の例である。この場合、画像82は所定の閾値より低い低域成分のみとなるため、全体に不鮮明となる。
図31(c)は、差分画像83の例を示す。
この場合、差分画像84は、原画像81から画像82を引いて所定の閾値より高い周波数成分のみとしている。この結果、差分画像84より、被写体に含まれる高周波領域を検出できる。
そして、検出した高周波領域の情報に基づいて、ズーム率演算部16bは、選択した第2のカメラ3a,3bのいずれかに対して、変更したズーム率の情報が含まれるカメラパラメータを供給する。この結果、第2のカメラ3a,3bのズーム率を変えて、画角を狭くし、高周波領域の被写体を撮像できる。
以上説明した本実施の形態例に係る信号処理装置10によれば、第1のカメラ2で撮像した第1の画像5に対して、第2のカメラ3a〜3cで撮像した第2の画像6a〜6cを貼り合わせて合成画像を作成する。この合成画像を作成する際に、画像情報補正部14は、輝度・色度の情報を類似部分検出部12に供給することで類似部分の検出処理を確実にしている。また、撮像領域検出部15は、第1のカメラ2と第2のカメラ3a〜3cの撮像可能領域と撮像不能領域を求めている。ここで求められた撮像可能領域と撮像不能領域の情報は、類似部分検出部12に供給されており、類似部分の検出処理をさらに確実にしている。
また、撮像領域検出部15で検出した撮像可能領域と撮像不能領域の情報をカメラパラメータ演算部16に供給することによって、第2のカメラ3a〜3cのカメラパラメータを変更する際の精度を高めることができる。
また、カメラ3a〜3cの属性(解像度、視点、色、輝度、焦点)を分担させて撮像できる。そして、属性(解像度、視点、色、輝度、焦点)が異なるカメラ3a〜3cで撮像した複数の画像から新しい画像を合成する際に、各画像で持つ詳細なカメラパラメータの情報を融通する。この結果、第1の画像5と第2の画像6a〜6cから高解像度の合成画像が得られる。このとき、第2の画像6a〜6cの高域成分のみを第1の画像5の低域成分に貼り合わせるため、第1の画像5に含まれる色味を生かした状態で違和感なく画像が合成される。そして、本例で生成する合成画像は、静止画、動画のいずれであってもよい。
また、複数台のカメラの視点が不一致であっても、共通情報に対する個別情報を第2のカメラ3a〜3c毎に把握できる。そして、個別情報に基づいて、カメラパラメータを調整するため、各画像をなめらかにつなげた合成画像が得られる。このため、第2のカメラ3a〜3cの台数制限や配置の制約がない。
また、第1のカメラ2のみを用いて輝度の差が大きい被写体を撮像すると、得られる第1の画像5は低輝度または高輝度な部分を正確に撮像しきれない。しかし、これらの部分は、第2のカメラ3a〜3cで撮像した第2の画像6a〜6cで補うことができる。このため、得られる合成画像は、多階調(ハイダイナミックレンジ)の画像となる。
なお、上述した実施の形態例に係る信号処理装置は、この構造は多段に重ねることが可能で、カメラの機構が許す限りの高い解像度で撮像することが可能になる。ここでは、他の実施の形態例について、図32を参照して説明する。
図32は、複数のカメラユニットの配置例を示す。
図1に示した、第1のカメラ2と第2のカメラ3a〜3cの1つのユニットとして、複数のユニットを並べて配置したものである。本例では、さらに、第1のカメラ2より広い画角で被写体を撮像する第3のカメラ9を備える。ただし、基本的な動作は、第1のカメラ2と第2のカメラ3a〜3cの1つのユニットを用いた場合と同様である。
このとき、第3のカメラ9で撮像した画角90を基準として、画角90に対するずれを補正した状態で、各ユニットが撮像し、合成した画像が配置される。そして、多段構成でありながら高い解像度の合成画像が得られる。このため、高解像度でありながら歪みが生じないステレオ画像が得られるという効果がある。
また、上述した実施の形態例における一連の処理は、ハードウェアにより実行できるが、ソフトウェアにより実行させることもできる。一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムを、専用のハードウェアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで各種の機能を実行することが可能な例えば汎用のパーソナルコンピュータなどに所望のソフトウェアを構成するプログラムをインストールして実行させる。
また、上述した実施の形態例の機能を実現するソフトウェアのプログラムコードを記録した記録媒体を、システムあるいは装置に供給し、そのシステムあるいは装置のコンピュータ(またはCPU等の制御装置)が記録媒体に格納されたプログラムコードを読み出し実行することによっても、達成されることは言うまでもない。
この場合のプログラムコードを供給するための記録媒体としては、例えば、フロッピディスク、ハードディスク、光ディスク、光磁気ディスク、CD−ROM、CD−R、磁気テープ、不揮発性のメモリカード、ROMなどを用いることができる。
また、コンピュータが読み出したプログラムコードを実行することにより、上述した実施の形態例の機能が実現されるだけでなく、そのプログラムコードの指示に基づき、コンピュータ上で稼動しているOSなどが実際の処理の一部又は全部を行い、その処理によって上述した実施の形態例の機能が実現される場合も含まれる。
また、本明細書において、ソフトウェアを構成するプログラムを記述するステップは、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。
さらに、本発明は上述した実施の形態例に限られるものではなく、本発明の要旨を逸脱することなくその他種々の構成を取り得ることは勿論である。
本発明の一実施の形態例における画像処理システムの例を示す構成図である。 本発明の一実施の形態例における信号処理装置の内部構成例を示すブロック図である。 本発明の一実施の形態例における各画像の輝度分布の例を示す説明図である。 本発明の一実施の形態例におけるズーム率の変化の例を示す説明図である。 本発明の一実施の形態例における共通情報と個別情報の例を示す説明図である。 本発明の一実施の形態例における第2のカメラのカメラパラメータ変更処理の例を示すフローチャートである。 本発明の一実施の形態例におけるコントラスト比が高い被写体の例を示す説明図である。 本発明の一実施の形態例における実世界における輝度ヒストグラムの例を示す説明図である。 本発明の一実施の形態例における1台のカメラで撮像可能な輝度領域の例を示す説明図である。 本発明の一実施の形態例における被写体に対する第1及び第2のカメラの撮像領域の例を示す説明図である。 本発明の一実施の形態例における第2のカメラで撮像可能な輝度領域を示す輝度ヒストグラムの例を示す説明図である。 本発明の一実施の形態例における第2のカメラで撮像可能な輝度領域を示す輝度ヒストグラムの例を示す説明図である。 本発明の一実施の形態例における第1のカメラで撮像可能な輝度領域を示す輝度ヒストグラムの例を示す説明図である。 本発明の一実施の形態例における第1及び第2のカメラの画角と撮像可能・不能領域の例を示す説明図である。 本発明の一実施の形態例における複数の第2のカメラの画角の例を示す説明図である。 本発明の一実施の形態例における複数の第2のカメラの画角の例を示す説明図である。 本発明の一実施の形態例における第2のカメラのカメラパラメータを変更する処理の例を示すフローチャートである。 本発明の一実施の形態例における高周波領域の物体が含まれる被写体の例を示す説明図である。 本発明の一実施の形態例における被写体の周波数分布の例を示す説明図である。 本発明の一実施の形態例における1台のカメラで撮像可能な周波数領域の例を示す説明図である。 本発明の一実施の形態例におけるズーム前の第2のカメラで撮像可能な周波数領域の例を示す説明図である。 本発明の一実施の形態例におけるズーム後の第2のカメラで撮像可能な周波数領域の例を示す説明図である。 本発明の一実施の形態例における第1のカメラで撮像可能な周波数領域の例を示す説明図である。 本発明の一実施の形態例における第1及び第2のカメラの画角と撮像可能・不能領域の例を示す説明図である。 本発明の一実施の形態例におけるズーム前の第2のカメラの画角と撮像可能・不能領域の例を示す説明図である。 本発明の一実施の形態例におけるズーム後の第2のカメラの画角と撮像可能・不能領域の例を示す説明図である。 本発明の一実施の形態例における第1及び第2のカメラの構成例を示すブロック図である。 本発明の一実施の形態例における二次元フーリエ変換画像の例を示す説明図である。 本発明の一実施の形態例における高周波領域の検出処理における各段階の画像の例を示す説明図である。 本発明の一実施の形態例における第1及び第2のカメラの構成例を示すブロック図である。 本発明の一実施の形態例における高周波領域の検出処理における各段階の画像の例を示す説明図である。 本発明の他の実施の形態例における複数のカメラユニットの配置例を示す説明図である。 従来の視点一致方式によるカメラの配置例を示す説明図である。 従来の信号処理装置の構成例を示すブロック図である。 従来の画像処理の例を示すフローチャートである。
符号の説明
1…画像処理システム、2…第1のカメラ、3a〜3c…第2のカメラ、5…第1の画像、6a〜6c…第2の画像、10…信号処理装置、11a,11b…入力部、12…類似部分検出部、13…画像合成部、14…画像情報補正部、15…撮像領域検出部、16…カメラパラメータ演算部、17…出力部、20…表示装置、30…合成画像

Claims (11)

  1. 第1の画角で所定の範囲に含まれる被写体を撮像する第1のカメラが生成した第1の画像が入力され、前記第1の画角より狭い第2の画角で前記所定の範囲に含まれる前記被写体の一部を撮像する複数の第2のカメラが生成した、前記第1の画像より高解像度である複数の第2の画像が入力される入力部と、
    前記第1の画像に含まれる被写体の一部と前記第2の画像に含まれる被写体との類似部分を検出する類似部分検出部と、
    前記第1の画像のうち、前記検出された類似部分に相当する位置に前記第2の画像を貼り合わせて合成画像を生成する画像合成部と、
    前記合成画像より、前記第1の画像に不足する画像情報であって、前記第2のカメラが前記不足する画像情報を補完できない領域を撮像不能領域として検出する撮像領域検出部と、
    前記第1の画像に不足する画像情報を補完した前記第2の画像を撮像する前記第2のカメラを制御するためのカメラパラメータを変更するカメラパラメータ演算部を備える
    信号処理装置。
  2. 請求項1記載の信号処理装置において、
    前記撮像領域検出部は、前記第1及び第2の画像に含まれる被写体の輝度分布又は周波数分布を求めて、前記第1及び第2のカメラで撮像可能な画像領域から前記撮像不能領域を検出する
    信号処理装置。
  3. 請求項2記載の信号処理装置において、
    前記カメラパラメータ演算部は、
    前記被写体の輝度分布を求めて、前記第1及び第2のカメラで撮像可能な輝度領域を検出し、前記カメラパラメータにズーム率を変える情報を含ませる輝度演算部と、
    前記被写体の周波数分布を求めて、前記第1及び第2のカメラで撮像可能な周波数領域から前記撮像不能領域を検出し、前記カメラパラメータにズーム率を変える情報を含ませるズーム率演算部を備える
    信号処理装置。
  4. 請求項3記載の信号処理装置において、
    前記撮像領域検出部は、前記第2のカメラが備えるレンズを透過した光線のうち、低域成分の光線を通過させる低域抽出部によって抽出された低域画像に2次元高速フーリエ変換を掛けて、前記低域画像に含まれ、所定の閾値より前記周波数が高い領域を検出する
    信号処理装置。
  5. 請求項3記載の信号処理装置において、
    前記撮像領域検出部は、前記第2のカメラが備えるレンズを透過した光線から低域成分を通過させる低域抽出部によって抽出された低域画像の周波数成分を、前記第2の画像の周波数成分から減じた差分画像に基づいて、前記第2の画像に含まれ、所定の閾値より前記周波数が高い領域を検出する
    信号処理装置。
  6. 請求項1記載の信号処理装置において、
    前記第1及び第2の画像に含まれており、少なくとも輝度または周波数のいずれかが含まれる画像情報に基づいて、前記合成画像に含まれる前記画像情報を補正する画像情報補正部を備える
    信号処理装置。
  7. 請求項1記載の信号処理装置において、
    前記類似部分検出部は、
    前記画像情報補正部によって補正された前記画像情報及び前記撮像領域検出部によって検出された前記撮像不能領域及び撮像可能領域に基づいて前記類似部分を検出する
    信号処理装置。
  8. 請求項1記載の信号処理装置において、
    前記カメラパラメータ演算部は、少なくとも色、輝度及び焦点のいずれかに関する情報を、前記第1の画像に対する前記複数の低域画像の画素毎の特徴量が定まる前記カメラパラメータとして求め、前記カメラパラメータを、前記第1のカメラを基準とした共通情報として管理すると共に、前記共通情報に対する前記複数の第2のカメラの情報を個別情報として管理する
    信号処理装置。
  9. 第1の画角で所定の範囲に含まれる被写体を撮像する第1のカメラが生成した第1の画像が入力され、前記第1の画角より狭い第2の画角で前記所定の範囲に含まれる前記被写体の一部を撮像する複数の第2のカメラが生成した、前記第1の画像より高解像度である複数の第2の画像が入力されるステップと、
    前記第1の画像に含まれる被写体の一部と前記第2の画像に含まれる被写体との類似部分を検出するステップと、
    前記第1の画像のうち、前記検出された類似部分に相当する位置に前記第2の画像を貼り合わせて合成画像を生成するステップと、
    前記合成画像より、前記第1の画像に不足する画像情報であって、前記第2のカメラが前記不足する画像情報を補完できない領域を撮像不能領域として検出するステップと、
    前記第1の画像に不足する画像情報を補完した前記第2の画像を撮像する前記第2のカメラを制御するためのカメラパラメータを変更するステップと、を含む
    信号処理方法。
  10. 第1の画角で所定の範囲に含まれる被写体を撮像する第1のカメラが生成した第1の画像が入力され、前記第1の画角より狭い第2の画角で前記所定の範囲に含まれる前記被写体の一部を撮像する複数の第2のカメラが生成した、前記第1の画像より高解像度である複数の第2の画像が入力されるステップと、
    前記第1の画像に含まれる被写体の一部と前記第2の画像に含まれる被写体との類似部分を検出するステップと、
    前記第1の画像のうち、前記検出された類似部分に相当する位置に前記第2の画像を貼り合わせて合成画像を生成するステップと、
    前記合成画像より、前記第1の画像に不足する画像情報であって、前記第2のカメラが前記不足する画像情報を補完できない領域を撮像不能領域として検出するステップと、
    前記第1の画像に不足する画像情報を補完した前記第2の画像を撮像する前記第2のカメラを制御するためのカメラパラメータを変更するステップと、を含む処理を
    コンピュータに実行させるためのプログラム。
  11. 請求項10に記載のプログラムを記録した
    記録媒体。
JP2008169445A 2008-06-27 2008-06-27 信号処理装置、信号処理方法、プログラム及び記録媒体 Expired - Fee Related JP4513905B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2008169445A JP4513905B2 (ja) 2008-06-27 2008-06-27 信号処理装置、信号処理方法、プログラム及び記録媒体
US12/479,214 US8077214B2 (en) 2008-06-27 2009-06-05 Signal processing apparatus, signal processing method, program and recording medium
CN2009101509107A CN101616260B (zh) 2008-06-27 2009-06-25 信号处理装置和信号处理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008169445A JP4513905B2 (ja) 2008-06-27 2008-06-27 信号処理装置、信号処理方法、プログラム及び記録媒体

Publications (2)

Publication Number Publication Date
JP2010011223A JP2010011223A (ja) 2010-01-14
JP4513905B2 true JP4513905B2 (ja) 2010-07-28

Family

ID=41446902

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008169445A Expired - Fee Related JP4513905B2 (ja) 2008-06-27 2008-06-27 信号処理装置、信号処理方法、プログラム及び記録媒体

Country Status (3)

Country Link
US (1) US8077214B2 (ja)
JP (1) JP4513905B2 (ja)
CN (1) CN101616260B (ja)

Families Citing this family (53)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7960676B2 (en) 2007-09-28 2011-06-14 Casio Computer Co., Ltd. Image capture device to obtain an image with a bright subject, even when the background is dark, and recording medium
KR101259559B1 (ko) * 2009-12-18 2013-04-30 한국전자통신연구원 멀티 카메라 연동 장치 및 방법
KR101214536B1 (ko) * 2010-01-12 2013-01-10 삼성전자주식회사 뎁스 정보를 이용한 아웃 포커스 수행 방법 및 이를 적용한 카메라
JP5327339B2 (ja) * 2010-02-02 2013-10-30 コニカミノルタ株式会社 画像処理システム、画像処理方法、およびプログラム
JP5876983B2 (ja) * 2010-12-29 2016-03-02 任天堂株式会社 表示制御プログラム、表示制御装置、表示制御方法および表示制御システム
US8908054B1 (en) * 2011-04-28 2014-12-09 Rockwell Collins, Inc. Optics apparatus for hands-free focus
EP2592823A3 (en) * 2011-10-12 2013-06-19 Canon Kabushiki Kaisha Image-capturing device
KR101225482B1 (ko) * 2012-02-15 2013-01-23 인텔 코오퍼레이션 디지털 영상 처리 방법, 장치, 및 컴퓨터로 판독 가능한 기록 매체
JP5863554B2 (ja) * 2012-05-01 2016-02-16 国立大学法人旭川医科大学 画像処理装置、画像処理方法、およびプログラム
US10175751B2 (en) * 2012-12-19 2019-01-08 Change Healthcare Holdings, Llc Method and apparatus for dynamic sensor configuration
WO2014106777A1 (en) 2013-01-03 2014-07-10 Aselsan Elektronik Sanayi Ve Ticaret Anonim Sirketi A system and method for contrast enhancement
US9142019B2 (en) 2013-02-28 2015-09-22 Google Technology Holdings LLC System for 2D/3D spatial feature processing
US9398287B2 (en) 2013-02-28 2016-07-19 Google Technology Holdings LLC Context-based depth sensor control
US9407837B2 (en) 2013-02-28 2016-08-02 Google Inc. Depth sensor using modulated light projector and image sensor with color and IR sensing
US10268885B2 (en) 2013-04-15 2019-04-23 Microsoft Technology Licensing, Llc Extracting true color from a color and infrared sensor
US9646384B2 (en) 2013-09-11 2017-05-09 Google Technology Holdings LLC 3D feature descriptors with camera pose information
CN104935866B (zh) * 2014-03-19 2018-07-20 华为技术有限公司 实现视频会议的方法、合成设备和系统
CN104954627B (zh) * 2014-03-24 2019-03-08 联想(北京)有限公司 一种信息处理方法及电子设备
US9538065B2 (en) * 2014-04-03 2017-01-03 Qualcomm Incorporated System and method for multi-focus imaging
KR102157675B1 (ko) * 2014-07-25 2020-09-18 삼성전자주식회사 촬영 장치 및 그 촬영 방법
TWI539226B (zh) * 2014-10-09 2016-06-21 聚晶半導體股份有限公司 物件追蹤影像處理方法及其系統
CN104284093B (zh) * 2014-10-22 2018-09-18 小米科技有限责任公司 全景拍摄方法及装置
JP6516446B2 (ja) * 2014-11-14 2019-05-22 キヤノン株式会社 情報処理装置、情報処理方法、及びプログラム
JP2016114963A (ja) * 2014-12-11 2016-06-23 株式会社リコー 入力操作検出装置、プロジェクタ装置、電子黒板装置、デジタルサイネージ装置、及びプロジェクタシステム
EP3107279B1 (en) * 2015-06-15 2018-08-22 Coherent Synchro, S.L. Method, device and installation for composing a video signal
CN105163025B (zh) * 2015-08-31 2020-01-31 联想(北京)有限公司 图像捕获方法和电子设备
US9571759B1 (en) * 2015-09-30 2017-02-14 Gopro, Inc. Separate range tone mapping for component images in a combined image
KR102423234B1 (ko) * 2015-10-22 2022-07-22 삼성디스플레이 주식회사 표시 장치 및 이를 포함하는 휘도 보정 시스템
KR102446442B1 (ko) 2015-11-24 2022-09-23 삼성전자주식회사 디지털 촬영 장치 및 그 동작 방법
JP6732440B2 (ja) * 2015-12-04 2020-07-29 キヤノン株式会社 画像処理装置、画像処理方法、及びそのプログラム
KR102649782B1 (ko) * 2016-04-13 2024-03-21 소니그룹주식회사 신호 처리 장치 및 촬상 장치
CN109937568B (zh) * 2016-11-17 2021-03-09 索尼公司 图像处理装置和图像处理方法
US10122990B2 (en) * 2016-12-01 2018-11-06 Varjo Technologies Oy Imaging system and method of producing context and focus images
CN108347556A (zh) * 2017-01-21 2018-07-31 盯盯拍(东莞)视觉设备有限公司 全景图像拍摄方法、全景图像显示方法、全景图像拍摄装置以及全景图像显示装置
CN108347557A (zh) * 2017-01-21 2018-07-31 盯盯拍(东莞)视觉设备有限公司 全景图像拍摄装置、显示装置、拍摄方法以及显示方法
WO2018136098A1 (en) * 2017-01-23 2018-07-26 Huami Inc. System and Method for Generating Digital Content for a Composite Camera
WO2018209603A1 (zh) * 2017-05-17 2018-11-22 深圳配天智能技术研究院有限公司 图像处理方法、图像处理设备及存储介质
EP3425324B2 (de) * 2017-07-04 2022-11-16 Sick Ag Verfahren zur parametrierung eines sensors
CN107277387B (zh) * 2017-07-26 2019-11-05 维沃移动通信有限公司 高动态范围图像拍摄方法、终端及计算机可读存储介质
KR102328539B1 (ko) 2017-07-27 2021-11-18 삼성전자 주식회사 복수의 카메라를 이용하여 영상을 획득하기 위한 전자 장치 및 이를 이용한 영상 처리 방법
WO2019049595A1 (ja) * 2017-09-08 2019-03-14 ソニー株式会社 画像処理装置、画像処理方法および画像処理プログラム
CN107682556B (zh) * 2017-09-30 2021-02-02 Oppo广东移动通信有限公司 信息展示方法及设备
CN107659774B (zh) * 2017-09-30 2020-10-13 北京拙河科技有限公司 一种基于多尺度相机阵列的视频成像系统及视频处理方法
KR101985241B1 (ko) * 2017-11-09 2019-06-03 한국항공우주연구원 위성 탑재 카메라의 영상 처리 시스템 및 방법
JP6815338B2 (ja) * 2018-01-10 2021-01-20 株式会社日立製作所 画像合成システムおよび画像合成方法
EP3843376A4 (en) 2018-08-20 2021-09-15 Sony Semiconductor Solutions Corporation IMAGE PROCESSING DEVICE, AND IMAGE PROCESSING SYSTEM
CN109561239B (zh) * 2018-08-20 2019-08-16 上海久页信息科技有限公司 片尾曲智能选择平台
JP6790038B2 (ja) * 2018-10-03 2020-11-25 キヤノン株式会社 画像処理装置、撮像装置、画像処理装置の制御方法およびプログラム
CN110445987B (zh) * 2019-08-05 2020-11-06 上海海鸥数码照相机有限公司 一种多相机曝光同步控制系统及其方法和无人机
WO2021039114A1 (ja) 2019-08-29 2021-03-04 富士フイルム株式会社 撮像装置、撮像装置の動作方法、及びプログラム
CN113808384B (zh) * 2020-06-16 2023-02-10 英业达科技有限公司 交通状况侦测方法
CN114520870B (zh) * 2020-11-20 2023-06-20 华为技术有限公司 一种显示方法及终端
JPWO2023053698A1 (ja) * 2021-09-30 2023-04-06

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006171939A (ja) * 2004-12-14 2006-06-29 Canon Inc 画像処理装置及び方法
JP2007266713A (ja) * 2006-03-27 2007-10-11 Fujifilm Corp 監視システム、監視方法、及びプログラム

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3240339B2 (ja) 1993-11-16 2001-12-17 コニカ株式会社 画像撮影装置及び画像処理装置
JPH09139878A (ja) 1995-11-16 1997-05-27 Nippon Telegr & Teleph Corp <Ntt> 画像処理システム
JP3817119B2 (ja) * 2000-06-30 2006-08-30 株式会社リコー 画像入力装置
EP3388784B1 (en) * 2001-05-04 2019-07-17 Vexcel Imaging GmbH Method and large format camera for acquiring a large format image of a large area object
EP1518333A2 (en) 2002-03-25 2005-03-30 The Trustees of Columbia University in the city of New York Method and system for enhancing data quality
JP2004135209A (ja) 2002-10-15 2004-04-30 Hitachi Ltd 広視野高解像度映像の生成装置及び方法
US7307654B2 (en) * 2002-10-31 2007-12-11 Hewlett-Packard Development Company, L.P. Image capture and viewing system and method for generating a synthesized image
FI115947B (fi) * 2004-02-25 2005-08-15 Nokia Corp Elektroninen laite ja menetelmä elektronisessa laitteessa kuvainformaation muodostamiseksi sekä ohjelmatuote menetelmän toteuttamiseksi
US20050219642A1 (en) 2004-03-30 2005-10-06 Masahiko Yachida Imaging system, image data stream creation apparatus, image generation apparatus, image data stream generation apparatus, and image data stream generation system
JP4453976B2 (ja) 2004-03-30 2010-04-21 正彦 谷内田 画像生成装置、画像データ列生成システム、及び画像伝送システム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006171939A (ja) * 2004-12-14 2006-06-29 Canon Inc 画像処理装置及び方法
JP2007266713A (ja) * 2006-03-27 2007-10-11 Fujifilm Corp 監視システム、監視方法、及びプログラム

Also Published As

Publication number Publication date
US8077214B2 (en) 2011-12-13
CN101616260B (zh) 2011-06-29
US20090322891A1 (en) 2009-12-31
CN101616260A (zh) 2009-12-30
JP2010011223A (ja) 2010-01-14

Similar Documents

Publication Publication Date Title
JP4513905B2 (ja) 信号処理装置、信号処理方法、プログラム及び記録媒体
JP4513906B2 (ja) 画像処理装置、画像処理方法、プログラム及び記録媒体
JP4524717B2 (ja) 画像処理装置、撮像装置、画像処理方法及びプログラム
WO2010027079A1 (ja) 撮像装置および方法、並びにプログラム
JP6193721B2 (ja) 画像処理装置及び画像処理方法、プログラム、記憶媒体
JP6906947B2 (ja) 画像処理装置、撮像装置、画像処理方法およびコンピュータのプログラム
JP5569357B2 (ja) 画像処理装置、画像処理方法及び画像処理プログラム
JP2011135438A (ja) 画像合成装置、画像合成方法及びプログラム
JP5882702B2 (ja) 撮像装置
JP6604908B2 (ja) 画像処理装置、その制御方法、および制御プログラム
JP5843599B2 (ja) 画像処理装置および撮像装置並びにその方法
JP7057079B2 (ja) 画像処理装置、撮像装置、画像処理方法、及びプログラム
KR20160137289A (ko) 촬영 장치 및 촬영 장치의 동작방법
JP2012109849A (ja) 撮像装置
JP5733588B2 (ja) 画像処理装置および方法、並びにプログラム
JP6961423B2 (ja) 画像処理装置、撮像装置、画像処理装置の制御方法、プログラムおよび記録媒体
JP7051365B2 (ja) 画像処理装置、画像処理方法、及びプログラム
JP2015080157A (ja) 画像処理装置、画像処理方法及びプログラム
JP6494388B2 (ja) 画像処理装置、画像処理方法、及びプログラム
JP7458769B2 (ja) 画像処理装置、撮像装置、画像処理方法、プログラムおよび記録媒体
JP2015041865A (ja) 画像処理装置及び画像処理方法
JP5541956B2 (ja) 画像合成方法、画像合成プログラムおよび画像合成装置
JP7409604B2 (ja) 画像処理装置、撮像装置、画像処理方法、プログラムおよび記録媒体
JP2020154640A (ja) 画像処理装置、画像処理方法、及び画像処理プログラム
JP2010278701A (ja) 画像合成装置、画像合成方法及びプログラム

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100409

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100420

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100503

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130521

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees