[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2011211739A - 立体視画像作成装置、立体視画像出力装置及び立体視画像作成方法 - Google Patents

立体視画像作成装置、立体視画像出力装置及び立体視画像作成方法 Download PDF

Info

Publication number
JP2011211739A
JP2011211739A JP2011123477A JP2011123477A JP2011211739A JP 2011211739 A JP2011211739 A JP 2011211739A JP 2011123477 A JP2011123477 A JP 2011123477A JP 2011123477 A JP2011123477 A JP 2011123477A JP 2011211739 A JP2011211739 A JP 2011211739A
Authority
JP
Japan
Prior art keywords
image
depth
image generation
shooting
accuracy
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Abandoned
Application number
JP2011123477A
Other languages
English (en)
Inventor
Satoshi Nakamura
敏 中村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2011123477A priority Critical patent/JP2011211739A/ja
Publication of JP2011211739A publication Critical patent/JP2011211739A/ja
Abandoned legal-status Critical Current

Links

Images

Landscapes

  • Stereoscopic And Panoramic Photography (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

【課題】撮影者の撮影時における意図を反映させた奥行き画像を生成して、撮影者の意図に合った立体視画像を得るようにする。
【解決手段】被写体の二次元画像62を取得する第1カメラ部16と、被写体までの距離情報を取得する距離情報取得手段78と、少なくとも取得した距離情報に基づいて被写体の立体視画像を出力するための奥行き画像88を生成する奥行き画像生成手段80と、被写体を撮像した際の1以上の撮影関連情報を取得する撮影関連情報取得手段82と、奥行き画像88を生成するための複数の奥行き画像生成方法のうち、1つの奥行き画像生成方法を、取得した撮影関連情報に基づいて決定する奥行き画像生成方法決定手段84とを有し、奥行き画像生成手段80は、取得した距離情報と、奥行き画像生成方法決定手段84にて決定された奥行き画像生成方法に基づいて奥行き画像88を生成する。
【選択図】図2

Description

本発明は、被写体の立体視画像を生成するための立体視画像作成装置と、生成された立体視画像を出力(例えば表示)するための立体視画像出力装置と、被写体の立体視画像を生成するための立体視画像作成方法に関する。
一般に、被写体の二次元画像と、撮影装置から被写体までの距離情報が二次元的に配列された奥行き情報とを合成することによって、被写体の立体視画像を生成することができる。
表示のための奥行き情報は、例えば仮想的な画面において個々の画素が画面に対して垂直な方向のどの位置に見えるかを表したものであり、奥行き画像やデプスマップと称されている。
奥行き情報を生成する方法としては、撮像装置から被写体までの実距離を測定し、その距離を表示用の仮想的な奥行き値にマッピングする方法がある。マッピングする際には、被写体までの実距離を奥行き値に線形的にマッピングすることもできるし、任意の距離範囲を限ってその範囲内をより詳細な分解能でマッピングすることもできる。
そこで、従来では、立体視用映像データを提供する方法で、二次元画像データに、奥行き情報と、奥行き情報の値の間隔を非均等に変形させることを目的とした定義情報を提供する方法が開示されている(例えば特許文献1参照)。
この特許文献1は、さらに、立体視用映像データを提供する方法で、二次元画像データに、画面領域によって異なるビット数で表した奥行き情報を提供する方法が開示されている。
また、この特許文献1には、二次元画像データと付属情報から立体視映像を生成する表示装置で、奥行き情報の値の間隔を非均等に変形させるための複数のテーブルを持ち、奥行き情報とテーブルから視差量を生成し、求めた視差量を利用して立体映像を生成する表示装置が開示されている。
国際公開第2004/071102号パンフレット
上述したように、従来例では、奥行き情報の値の間隔を非均等に変形させることによって、奥行き上の任意の位置に所望の分解能を設定することが可能であったが、撮影者が撮影時の意図として奥行き上のどの位置の分解能を重視したいのかを簡便にデータに反映させることが困難であった。
さらに、奥行き情報を変換した際に、画面中に分解能が高い領域と低い領域が混在することがあるが、データに対して後から編集を行う際に、画面中の分解能が高い領域と低い領域を区別することが困難であったり、画面領域によって奥行き情報のビット数が異なっている領域を区別するために、より多くの演算を必要とするという問題があった。
本発明はこのような課題を考慮してなされたものであり、撮影者の撮影時における意図(どの部分を鮮明に撮りたいか等の意図)を反映させた奥行き画像を簡便に生成することができ、撮影者の意図に合った立体視効果の高い立体視画像を得ることができる立体視画像作成装置、立体視画像出力装置及び立体視画像作成方法を提供することを目的とする。
また、本発明の他の目的は、撮影者の撮影時における意図(どの部分を鮮明に撮りたいか、詳細に記録したいか等の意図)を反映させた奥行き画像及び奥行き精度画像を簡便に生成することができ、撮影者の意図に合った立体視効果の高い立体視画像を得ることができると共に、奥行き精度の低い領域の演算を簡単化することができる立体視画像作成装置、立体視画像出力装置及び立体視画像作成方法を提供することを目的とする。
第1の本発明に係る立体視画像作成装置は、被写体の二次元画像を取得する二次元画像取得手段と、前記被写体までの距離情報を取得する距離情報取得手段と、少なくとも前記距離情報取得手段にて取得した前記距離情報に基づいて前記被写体の立体視画像を出力するための奥行き画像を生成する奥行き画像生成手段と、前記被写体を撮像した際の1以上の撮影関連情報を取得する撮影関連情報取得手段と、前記奥行き画像を生成するための複数の奥行き画像生成方法のうち、1つの奥行き画像生成方法を、前記撮影関連情報取得手段にて取得した撮影関連情報に基づいて決定する奥行き画像生成方法決定手段とを有し、前記奥行き画像生成手段は、前記距離情報取得手段にて取得した前記距離情報と、前記奥行き画像生成方法決定手段にて決定された奥行き画像生成方法に基づいて奥行き画像を生成することを特徴とする。
これにより、撮影者の撮影時における意図(どの部分を鮮明に撮りたいか等の意図)を反映させた奥行き画像を簡便に生成することができ、撮影者の意図に合った立体視効果の高い立体視画像を得ることができる。
次に、第2の本発明に係る立体視画像作成装置は、被写体の二次元画像を取得する二次元画像取得手段と、前記被写体までの距離情報を取得する距離情報取得手段と、少なくとも前記距離情報取得手段にて取得した前記距離情報に基づいて前記被写体の立体視画像を出力するための奥行き画像を生成する奥行き画像生成手段と、前記被写体を撮像した際の複数の撮影関連情報を取得する撮影関連情報取得手段と、生成された前記奥行き画像中の奥行き精度を設定するための精度情報が配列された奥行き精度画像を生成する奥行き精度画像生成手段と、前記奥行き画像を生成するための複数の奥行き画像生成方法のうち、1つの奥行き画像画像生成を、前記撮影関連情報取得手段にて取得した撮影関連情報に基づいて決定する奥行き画像生成方法決定手段と、前記奥行き精度画像を生成するための複数の奥行き精度画像生成方法のうち、1つの奥行き精度画像画像生成を、前記撮影関連情報取得手段にて取得した撮影関連情報に基づいて決定する奥行き精度画像生成方法決定手段とを有し、前記奥行き画像生成手段は、前記距離情報取得手段にて取得した前記距離情報と、前記奥行き画像生成方法決定手段にて決定された奥行き画像生成方法に基づいて奥行き画像を生成し、前記奥行き精度画像生成手段は、前記奥行き精度画像生成方法決定手段にて決定された奥行き画像生成方法に基づいて奥行き精度画像を生成することを特徴とする。
これにより、撮影者の撮影時における意図(どの部分を鮮明に撮りたいか、詳細に記録したいか等の意図)を反映させた奥行き画像及び奥行き精度画像を簡便に生成することができ、撮影者の意図に合った立体視効果の高い立体視画像を得ることができると共に、奥行き精度の低い領域の演算を簡単化することができる。
そして、第2の本発明において、前記奥行き精度画像生成手段にて生成される前記奥行き精度画像は、精度の高低を示す2値画像であってもよい。この場合、奥行き精度の低い領域の演算を簡単化することができる。
また、上述の第1及び第2の本発明において、さらに、前記複数の奥行き画像生成方法を記憶する記憶手段を有し、前記奥行き画像生成方法決定手段は、前記撮影関連情報取得手段にて取得した撮影関連情報に対応する奥行き画像生成方法を前記記憶手段から読み出して、前記奥行き画像生成手段に供給するようにしてもよい。あるいは、前記奥行き画像生成方法決定手段は、前記複数の奥行き画像生成方法のうち、前記撮影関連情報取得手段にて取得した撮影関連情報に対応する奥行き画像生成方法をネットワークを通じて受け取り、前記奥行き画像生成手段に供給するようにしてもよい。
また、第1及び第2の本発明において、前記撮影関連情報取得手段にて取得される前記撮影関連情報としては、入力される撮影モードや、前記二次元画像生成手段にて生成された前記二次元画像の輝度情報や、撮影時のレンズの絞り値や、撮影時の合焦距離情報等がある。合焦距離情報としては、オートフォーカスの距離情報やマニュアルフォーカスの距離情報が挙げられる。
また、前記撮影関連情報取得手段にて取得される前記撮影関連情報としては、前記二次元画像生成手段にて生成された前記二次元画像のうち、前記被写体の画像が記録されている領域情報であってもよい。この場合、前記被写体の顔の画像が記録されている領域情報であってもよい。
次に、第3の本発明に係る立体視画像出力装置は、被写体の二次元画像を取得する二次元画像取得手段と、前記被写体までの距離情報を取得する距離情報取得手段と、少なくとも前記距離情報取得手段にて取得した前記距離情報に基づいて前記被写体の立体視画像を出力するための奥行き画像を生成する奥行き画像生成手段と、生成された前記奥行き画像中の奥行き精度を設定するための精度情報が配列された奥行き精度画像を生成する奥行き精度画像生成手段とを有し、さらに前記二次元画像生成手段にて生成された前記二次元画像と、前記奥行き画像生成手段にて生成された前記奥行き画像と、前記奥行き精度画像生成手段にて生成された前記奥行き精度画像から立体視画像を生成する立体視画像生成手段を有することを特徴とする。
これにより、撮影者の撮影時における意図(どの部分を鮮明に撮りたいか、詳細に記録したいか等の意図)を反映させた奥行き画像及び奥行き精度画像を簡便に生成することができ、撮影者の意図に合った立体視効果の高い立体視画像を出力(例えば三次元モニタへの表示)することができると共に、奥行き精度の低い領域の演算を簡単化することができる。
次に、第4の本発明に係る立体視画像作成方法は、被写体の二次元画像を取得する二次元画像取得手段と、前記被写体までの距離情報を取得する距離情報取得手段と、少なくとも前記距離情報取得手段にて取得した前記距離情報に基づいて前記被写体の立体視画像を出力するための奥行き画像を生成する奥行き画像生成手段とを有する立体視画像作成装置にて使用される立体視画像作成方法において、前記被写体を撮像した際の1以上の撮影関連情報を取得し、前記被写体の立体視画像を出力するための奥行き画像を生成するための複数の奥行き画像生成方法のうち、1つの奥行き画像生成方法を、前記取得した撮影関連情報に基づいて決定し、前記取得した前記距離情報と、前記決定された奥行き画像生成方法に基づいて奥行き画像を生成することを特徴とする。
これにより、撮影者の撮影時における意図(どの部分を鮮明に撮りたいか等の意図)を反映させた奥行き画像を簡便に生成することができ、撮影者の意図に合った立体視効果の高い立体視画像を得ることができる。
次に、第5の本発明に係る立体視画像作成方法は、被写体の二次元画像を取得する二次元画像取得手段と、前記被写体までの距離情報を取得する距離情報取得手段と、少なくとも前記距離情報取得手段にて取得した前記距離情報に基づいて前記被写体の立体視画像を出力するための奥行き画像を生成する奥行き画像生成手段とを有する立体視画像作成装置にて使用される立体視画像作成方法において、前記被写体を撮像した際の複数の撮影関連情報を取得し、生成された前記奥行き画像中の奥行き精度を設定するための精度情報が配列された奥行き精度画像を生成し、前記奥行き画像を生成するための複数の奥行き画像生成方法のうち、1つの奥行き画像画像生成を、前記撮影関連情報取得手段にて取得した撮影関連情報に基づいて決定し、前記奥行き精度画像を生成するための複数の奥行き精度画像生成方法のうち、1つの奥行き精度画像画像生成を、前記取得した撮影関連情報に基づいて決定し、前記取得した前記距離情報と、前記決定された奥行き画像生成方法に基づいて奥行き画像を生成し、前記決定された奥行き画像生成方法に基づいて奥行き精度画像を生成することを特徴とする。
これにより、撮影者の撮影時における意図(どの部分を鮮明に撮りたいか、詳細に記録したいか等の意図)を反映させた奥行き画像及び奥行き精度画像を簡便に生成することができ、撮影者の意図に合った立体視効果の高い立体視画像を得ることができると共に、奥行き精度の低い領域の演算を簡単化することができる。
以上説明したように、本発明に係る立体視画像作成装置、立体視画像出力装置及び立体視画像作成方法によれば、撮影者の撮影時における意図(どの部分を鮮明に撮りたいか等の意図)を反映させた奥行き画像を簡便に生成することができ、撮影者の意図に合った立体視効果の高い立体視画像を得ることができる。
また、本発明に係る立体視画像作成装置、立体視画像出力装置及び立体視画像作成方法によれば、撮影者の撮影時における意図(どの部分を鮮明に撮りたいか、詳細に記録したいか等の意図)を反映させた奥行き画像及び奥行き精度画像を簡便に生成することができ、撮影者の意図に合った立体視効果の高い立体視画像を得ることができると共に、奥行き精度の低い領域の演算を簡単化することができる。
第1立体視画像作成装置を示す構成図である。 第1立体視画像作成装置の構成を示す機能ブロック図である。 撮影モードが風景モード、夜景モードの場合のマッピングテーブルの例を示すグラフである。 撮影モードがポートレートモードの場合のマッピングテーブルの例を示すグラフである。 撮影モードがマクロモードの場合のマッピングテーブルの例を示すグラフである。 AFの合焦距離に応じた4種類のマッピングテーブルの例を示すグラフである。 第1処理例の動作を示すフローチャートである。 第2処理例の動作を示すフローチャートである。 第2立体視画像作成装置を示す構成図である。 第3処理例の動作を示すフローチャートである。 背景が明るい場合に適した撮影モードである場合において、奥行き精度の高低を決定する基準を示す説明図である。 背景が暗い場合に適した撮影モードである場合において、奥行き精度の高低を決定する基準を示す説明図である。 第4処理例の動作を示すフローチャートである。 被写界深度に基づいて奥行き精度の高低を決定する基準を示す説明図である。 第5処理例の動作を示すフローチャートである。 図16Aは建物の画像を特定した状態を示す説明図であり、図16Bは建物の画像を構成する画素の奥行き精度を「高」に設定し、それ以外の画素の奥行き精度を「低」に設定した例を示す説明図である。 第6処理例の動作を示すフローチャートである。 顔の画像を特定した状態を示す説明図である。 第3立体視画像作成装置を示す構成図である。 第2立体視画像作成装置の他の使用例を示す説明図である。 立体視画像出力装置を示す構成図である。 立体視画像出力装置の構成を示す機能ブロック図である。 立体視画像出力装置の処理動作を示すフローチャートである。 図24Aは第1補正テーブルの例を示すグラフであり、図24Bは第2補正テーブルの例を示すグラフである。 立体視画像出力装置の他の使用例を示す説明図である。
以下、本発明に係る立体視画像作成装置、立体視画像出力装置及び立体視画像作成方法の実施の形態例を図1〜図25を参照しながら説明する。
先ず、第1の実施の形態に係る立体視画像作成装置(以下、第1立体視画像作成装置10Aと記す)は、少なくとも被写体の二次元画像と二次元画像に対応した奥行き画像を生成して、外部記憶装置12に記憶するようになっている。
この第1立体視画像作成装置10Aは、図1に示すように、第1CCD撮像素子14を有する第1カメラ部16と、第2CCD撮像素子18を有する第2カメラ部20と、デジタル信号処理を行うためのメインメモリ22と、システムの起動等を行うためのシステム情報が記録されたシステムメモリ24と、各種プログラムを起動して動作させるCPU26とを有する。
これら第1カメラ部16、第2カメラ部20、メインメモリ22、システムメモリ24、CPU26等は制御バスやデータバス(以下、単にバス28と記す)を通じて接続されている。このバス28には、上述の部材のほか、不揮発性メモリ30、USBドライバ32、I/Oインターフェース34、カレンダ時計36、タイマ38等が接続されている。USBドライバ32には外部コネクタ40が接続され、該外部コネクタ40を介して外部記憶装置12が接続されている。また、I/Oインターフェース34には、操作パネル42上のスイッチやLED等が接続されている。なお、これら各部材は、コネクタ44に接続された外部電源(図示せず)が電源制御回路46及びDC−DCコンバータ48を介して供給されるようになっている。
第1カメラ部16は、上述した第1CCD撮像素子14のほか、レンズやモータを有し、且つ、被写体の映像を第1CCD撮像素子14に結像させるための第1光学系50と、第1CCD撮像素子14からの撮像信号をアナログの映像信号に信号処理する第1アナログ信号処理回路52と、映像信号をデジタル変換して映像データにする第1A/D変換器54と、第1A/D変換器54からの出力に基づいてオートアイリスやオートフォーカスのための制御信号を生成する第1積算回路と、第1積算回路56からの制御信号に基づいてレンズの絞りやフォーカシング、ズーム等を制御する第1駆動制御部58と、第1CCD撮像素子14や第1アナログ信号処理回路52等にタイミング信号を出力する第1タイミング発生回路60とを有する。そして、第1A/D変換器54から出力される映像データが水平同期信号に合わせてメインメモリ22に二次元的に記録されることで、第1二次元画像62(図2参照)が生成されることになる。従って、この第1カメラ部16は二次元画像取得手段として機能する。
第2カメラ部20は、上述した第1カメラ部16と同様の構成を有し、第2CCD撮像素子18に加えて以下の部材を有する。すなわち、レンズやモータを有し、且つ、被写体の映像を第2CCD撮像素子18に結像させるための第2光学系64と、第2CCD撮像素子18からの撮像信号をアナログの映像信号に信号処理する第2アナログ信号処理回路66と、映像信号をデジタル変換して映像データにする第2A/D変換器68と、第2A/D変換器68からの出力に基づいてオートアイリスやオートフォーカスのための制御信号を生成する第2積算回路70と、第2積算回路70からの制御信号に基づいてレンズの絞りやフォーカシング、ズーム等を制御する第2駆動制御部72と、第2CCD撮像素子18や第2アナログ信号処理回路66等にタイミング信号を出力する第2タイミング発生回路74とを有する。そして、第2A/D変換器68から出力される映像データが水平同期信号に合わせてメインメモリ22に二次元的に記録されることで、第2二次元画像76(図2参照)が生成されることになる。
一方、CPU26で起動、動作するソフトウエアは、図2に示すように、距離情報取得手段78と、奥行き画像生成手段80と、撮影関連情報取得手段82と、奥行き画像生成方法決定手段84とを有する。
距離情報取得手段78は、例えば第1カメラ部16から被写体までの距離情報を取得する。この場合、第1カメラ部16からの第1二次元画像62と第2カメラ部20からの第2二次元画像76とを画像処理して、第1二次元画像62における画素ごとの距離情報をそれぞれ演算して取得し、距離情報ファイル86としてメインメモリ22に記憶する。2つの二次元画像から距離情報を取得する方法としては、例えば特開2006−191357号公報に記載された手法を使用することができる。
なお、上述の例では、第1二次元画像62に対する距離情報を取得する方法を述べたが、第2二次元画像76に対する距離情報を取得するようにしてもよい。この場合、第2カメラ部20が二次元画像取得手段として機能することになる。
奥行き画像生成手段80は、少なくとも距離情報取得手段78にて取得した画素ごとの距離情報(距離情報ファイル86)に基づいて、被写体の立体視画像を出力するための奥行き画像88を生成する。
撮影関連情報取得手段82は、撮影者が撮影の際に操作入力した情報や、撮影時の被写体の状況を撮影関連情報として電気的に取得する手段である。撮影関連情報としては、以下のようなものが挙げられる。
(1)操作パネル42に配列されたスイッチを撮影者が操作することによって入力される撮影モード。
(2)第1カメラ部16によって取得された第1二次元画像62の輝度情報。
(3)第1積算回路56から出力されるレンズの絞り値。
(4)第1積算回路56から出力されるオートフォーカスの合焦距離。
(5)第1二次元画像62に含まれる被写体の画像の記録範囲。
(6)被写体が人間や動物の顔である場合に、第1二次元画像62に含まれる顔の画像の記録範囲。
奥行き画像生成方法決定手段84は、奥行き画像88を生成するための複数の奥行き画像生成方法のうち、1つの奥行き画像生成方法を、撮影関連情報取得手段82にて取得した撮影関連情報に基づいて決定する。奥行き画像生成方法としては、例えば図3〜図6に示すように、距離に対する奥行き値のマッピングテーブル90a〜90gが挙げられる。これらマッピングテーブル90a〜90gは、横軸に距離の対数目盛り、縦軸に奥行き値の数直線目盛りをとったグラフをテーブル化したものである。記憶容量の関係から、100m以上の距離を無限大とし、奥行き値の範囲を8ビットで収まるようにしてある。複数のマッピングテーブル90a〜90gは、予め例えば不揮発性メモリ30に記憶される。
そして、複数のマッピングテーブル90a〜90g(奥行き画像生成方法)としては、図3〜図6に示すような例が挙げれられる。
図3は、撮影モードが「風景モード、夜景モード」の場合のマッピングテーブル90aの例であり、図4は、撮影モードが「ポートレートモード」の場合のマッピングテーブル90bの例であり、図5は、撮影モードが「マクロモード」の場合のマッピングテーブル90cの例であり、図6は、オートフォーカスの合焦距離別の4種のマッピングテーブル90d〜90gの例である。図6において、AF=0.1mの場合にマッピングテーブル90dを用い、AF=1mの場合にマッピングテーブル90eを用い、AF=5mの場合にマッピングテーブル90fを用い、AF=無限大の場合にマッピングテーブル90gを用いる。
図3〜図6に示すマッピングテーブル90a〜90gの特性を、第1二次元画像に含まれる被写体の画像の記録範囲の大小や、第1二次元画像に含まれる顔の画像の記録範囲の大小によって変化させるようにしてもよい。
また、図3〜図6では、距離を基準にした奥行き値のマッピングテーブル90a〜90gの例を示したが、その他、輝度を基準にした奥行き値のマッピングテーブルも同様に用意すればよい。この場合、撮影関連情報のうち、第1カメラ部16によって取得された第1二次元画像62の輝度情報や第1積算回路56から出力されるレンズの絞り値に応じた奥行き値を得ることができる。もちろん、この輝度を基準にしたマッピングテーブルにおいても、その特性を、第1二次元画像62に含まれる被写体の画像の記録範囲の大小や、第1二次元画像62に含まれる顔の画像の記録範囲の大小によって変化させるようにしてもよい。
そして、上述した奥行き画像生成手段80は、距離情報取得手段78にて取得した画素ごとの距離情報(距離情報ファイル86)と、奥行き画像生成方法決定手段84にて決定された1つの奥行き画像生成方法(マッピングテーブル)に基づいて奥行き画像を生成する。
ここで、第1立体視画像作成装置10Aの処理動作の2つの例(第1処理例及び第2処理例)について図7を参照しながら説明する。
第1処理例は、不揮発性メモリ30に、撮影モードに対応した例えば図3〜図5に示す3つのマッピングテーブル90a〜90cが記憶されている場合を想定したものである。
先ず、図7のステップS1において、撮影関連情報取得手段82は撮影モードを取得する。撮影者は、被写体の撮影の際に、現在の撮影において最適だと意図した撮影モードを操作パネル42のスイッチを操作することによって入力する。従って、撮影関連情報取得手段82は、スイッチの入力割込みに基づいて、入力される撮影モードを取得し、メインメモリ22の所定アドレスに格納する。
その後、図7のステップS2において、奥行き画像生成方法決定手段84は、今回の撮影モードに対応した奥行き画像生成方法を取得する。具体的には、不揮発性メモリ30に記憶されている3つのマッピングテーブル90a〜90cのうち、取得された撮影モードに対応したマッピングテーブルを選択し、その情報、例えば選択したマッピングテーブルの先頭アドレスやテーブル番号等をメインメモリ22の所定アドレスに格納する。
その後、図7のステップS3において、第1カメラ部16は、撮影者による撮影ボタンの入力に基づいて、被写体の二次元画像62(第1二次元画像62)を取得してメインメモリ22に記録する。このとき、第2カメラ部20にて撮像した第2二次元画像76もメインメモリ22に記録される。
その後、図7のステップS4において、距離情報取得手段78は、メインメモリ22に記録されている第1二次元画像62と第2二次元画像76とを画像処理して、第1二次元画像62における画素ごとの距離情報をそれぞれ演算して取得し、距離情報ファイル86としてメインメモリ22に記録する。
その後、図7のステップS5において、奥行き画像生成手段80は、ステップS2においてメインメモリ22の所定アドレスに記憶されたマッピングテーブルの情報に対応する1つの奥行き画像生成方法(マッピングテーブル)を読み出し、このマッピングテーブルと、距離情報取得手段78にて取得した画素ごとの距離情報(距離情報ファイル86)とに基づいて、画素ごとに奥行き値をそれぞれ設定していき、奥行き画像88を生成し、生成した奥行き画像88をメインメモリ22に記録する。この段階で、第1処理例が終了する。
次に、第2処理例について図8を参照しながら説明する。第2処理例は、不揮発性メモリ30に、オートフォーカスの合焦距離撮に対応した例えば図6に示す4つのマッピングテーブル90d〜90gが記憶されている場合を想定したものである。
先ず、図8のステップS101において、撮影関連情報取得手段82は、オートフォーカス(AF)の合焦距離を取得する。撮影者は、被写体の撮影の際に、例えば被写体との距離が最適だと意図したところに移動する。このとき、第1積算回路56からAFの合焦距離が出力され、第1駆動制御部58によって第1光学系50が駆動制御され、合焦距離に応じたオートフォーカシング制御が行われる。なお、第2カメラ部20でも同様の処理が行われる。従って、撮影関連情報取得手段82は、第1積算回路56から出力されるAFの合焦距離を取得し、メインメモリ22の所定アドレスに格納する。
その後、図8のステップS102において、奥行き画像生成方法決定手段84は、今回のAFの合焦距離に対応した奥行き画像生成方法を取得する。具体的には、不揮発性メモリ30に記憶されている4つのマッピングテーブル90d〜90gのうち、取得されたAFの合焦距離に対応したマッピングテーブルを選択し、その情報、例えば選択したマッピングテーブルの先頭アドレスやテーブル番号等をメインメモリ22の所定アドレスに格納する。
その後、図8のステップS103において、第1カメラ部16は、撮影者による撮影ボタンの入力に基づいて、被写体の二次元画像62(第1二次元画像)を取得してメインメモリ22に記録する。このとき、第2カメラ部20にて撮像した第2二次元画像76もメインメモリ22に記録される。
その後、図8のステップS104において、距離情報取得手段78は、メインメモリ22に記録されている第1二次元画像62と第2二次元画像76とを画像処理して、第1二次元画像62における画素ごとの距離情報をそれぞれ演算して取得し、距離情報ファイル86としてメインメモリ22に記録する。
その後、図8のステップS105において、奥行き画像生成手段80は、ステップS102においてメインメモリ22の所定アドレスに記憶されたマッピングテーブルの情報に対応する1つの奥行き画像生成方法(マッピングテーブル)を読み出し、このマッピングテーブルと、距離情報取得手段78にて取得した画素ごとの距離情報(距離情報ファイル78)とに基づいて、画素ごとに奥行き値をそれぞれ設定していき、奥行き画像88を生成し、生成した奥行き画像88をメインメモリ22に記録する。この段階で、第2処理例が終了する。
上述の第1処理例及び第2処理例は、距離を基準にした奥行き値のマッピングテーブル90a〜90gを主体にして説明したが、その他、輝度を基準にしたマッピングテーブルを用いた処理や、これらマッピングテーブルを組み合わせた処理も同様に行うことができる。
このように、第1立体視画像作成装置10Aにおいては、撮影者が撮影時の意図(どの部分を鮮明に撮りたいか等の意図)を反映させた奥行き画像を生成することができ、撮影者の意図に合った立体視画像を得ることができる。例えば、第1処理例によれば、撮影者が入力した撮影モードによって得られた被写体に適した立体視画像を作成することができる。第2処理例によれば、撮影時のAFの合焦距離によって得られた被写体に適した立体視画像を作成することができる。同様に、二次元画像の輝度に適した立体視画像を作成することができ、また、撮影時のレンズの絞り値によって得られた被写体に適した立体視画像を作成することができる。
次に、さらに好ましい態様を有する第2の実施の形態に係る立体視画像作成装置(以下、第2立体視画像作成装置10Bを記す)について図9〜図18を参照しながら説明する。
この第2立体視画像作成装置10Bは、図9に示すように、上述した第1立体視画像作成装置10Aとほぼ同様の構成を有するが、距離情報取得手段78と、奥行き画像生成手段80と、撮影関連情報取得手段82と、奥行き画像生成方法決定手段84とに加えて、奥行き精度画像生成手段92を有する。
被写体の距離や輝度によっては、被写体の一部を鮮明に、あるいは凹凸を詳細に撮って、その他の部分を簡略化して撮りたい場合がある。すなわち、1つの二次元画像について、被写体の一部の奥行き精度を高くし、他の部分の奥行き精度を低く設定したいという意図が働く場合がある。
奥行き精度の高低は、被写体の輝度や、距離、二次元画像上での記録範囲、被写体の内容等によって変わる。
そこで、奥行き精度画像生成手段92は、上述した生成された奥行き画像中の奥行き精度を設定するための精度情報が配列された奥行き精度画像94を生成する。すなわち、取得した二次元画像62と同じ画素配列を有する別の二次元画像(奥行き精度画像94)を用意し、取得した二次元画像62のうち、奥行き精度を高くしたい画素について奥行き精度=「高」を示す情報(例えば論理値「1」)を割り当て、奥行き精度が低くてもよい画素について奥行き精度=「低」を示す情報(例えば論理値「0」)を割り当てる。そして、この奥行き精度画像94を用いて、奥行き画像88に記録されている奥行き値から視差量を演算することで、撮影者が鮮明に撮りたいという意図のもとで撮影した被写体の画像が、特に鮮明に表示(出力)されることなる。
次に、この奥行き精度を考慮した4つの処理例(第3処理例〜第6処理例)について図10〜図18を参照しながら説明する。なお、上述した奥行き画像生成方法決定手段84による処理はいずれも撮影モードに対応した1つのマッピングテーブルを決定する場合を想定している。
そして、第3処理例は、二次元画像62の輝度情報に基づいて奥行き精度画像94を生成する処理を含む。
先ず、図7のステップS1〜ステップS5と同様に、図10のステップS201において、撮影関連情報取得手段82が撮影モードを取得し、ステップS202において、奥行き画像生成方法決定手段84が今回の撮影モードに対応した奥行き画像生成方法を取得する。その後、図10のステップS203において、第1カメラ部16が、撮影者による撮影ボタンの入力に基づいて、被写体の二次元画像62(第1二次元画像)を取得し、ステップS204において、距離情報取得手段78が第1二次元画像における画素ごとの距離情報、すなわち、距離情報ファイル86を取得する。その後、ステップS205において、奥行き画像生成手段80は、ステップS202において決定した1つの奥行き画像生成方法(マッピングテーブル)と距離情報取得手段78にて取得した距離情報ファイル86とに基づいて奥行き画像88を生成する。
そして、ステップS206において、奥行き精度画像生成手段92は、二次元画像62の画素ごとの輝度値から、撮影モードと予め設定された輝度に関する閾値に基づいて画素ごとの奥行き精度を設定し、奥行き精度画像94を生成する。
例えば、撮影モードがスキー場等のように背景が明るい場合に適した撮影モードである場合、輝度の高い被写体については光量が多すぎてほとんど形状等の見分けがつかないことがあり、このような場合、奥行き精度を高くしても立体視画像とする効果はほとんどなく、むしろ奥行き精度を低くして平面的な画像にすることが好ましい。そこで、図11に示すように、輝度の高い画素(輝度値が第1閾値Vt1よりも高い画素)については、奥行き精度=「低」を示す情報(例えば論理値「0」)を割り当て、輝度が低い画素(輝度値が第1閾値以下の画素)については、奥行き精度=「高」を示す情報(例えば論理値「1」)を割り当てる。
反対に、撮影モードが夜景等のように背景が暗い場合に適した撮影モードである場合、輝度の低い被写体については光量が少なすぎてほとんど形状等の見分けがつかないことがあり、このような場合、奥行き精度を高くしても立体視画像とする効果はほとんどなく、むしろ奥行き精度を低くして平面的な画像にすることが好ましい。そこで、図12に示すように、輝度の低い画素(輝度値が第2閾値Vt2(<第1閾値Vt1)よりも低い画素)については、奥行き精度=「低」を示す情報(例えば論理値「0」)を割り当て、輝度が高い画素(輝度値が第2閾値以上の画素)については、奥行き精度=「高」を示す情報(例えば論理値「1」)を割り当てる。
奥行き精度画像生成手段92は、上述のようにして、奥行き精度画像94を生成し、生成した奥行き精度画像94をメインメモリ22に記録する。この段階で、第3処理例が終了する。
次に、第4処理例について図13及び図14を参照しながら説明する。この第4処理例は、二次元画像の距離情報と被写界深度に基づいて奥行き精度画像を生成する処理を含む。
先ず、図7のステップS1〜ステップS5と同様に、図13のステップS301において、撮影関連情報取得手段82が撮影モードを取得し、ステップS302において、奥行き画像生成方法決定手段84が今回の撮影モードに対応した奥行き画像生成方法を取得する。その後、図13のステップS303において、第1カメラ部16が、撮影者による撮影ボタンの入力に基づいて、被写体の二次元画像62(第1二次元画像)を取得し、ステップS304において、距離情報取得手段78が第1二次元画像における画素ごとの距離情報、すなわち、距離情報ファイル86を取得する。その後、ステップS305において、奥行き画像生成手段80は、ステップS302において決定した1つの奥行き画像生成方法(マッピングテーブル)と距離情報取得手段78にて取得した距離情報ファイル86とに基づいて奥行き画像88を生成する。
そして、ステップS306において、撮影関連情報取得手段82は、レンズ情報(例えば開口数等)を取得し、メインメモリ22の所定アドレスに格納する。
その後、ステップS307において、撮影関連情報取得手段82は、第1積算回路56から出力されるレンズの絞り値を取得し、メインメモリ22の所定アドレスに格納する。
その後、ステップS308において、撮影関連情報取得手段82は、第1積算回路56から出力されるAFの合焦距離を取得し、メインメモリ22の所定アドレスに格納する。
その後、ステップS309において、奥行き精度画像生成手段92は、撮影関連情報取得手段82によって取得されたレンズ情報、絞り値、AFの合焦距離に基づいて被写界深度を算出する。
その後、ステップS310において、奥行き精度画像生成手段92は、二次元画像62の画素ごとの距離情報(距離情報ファイル86)と被写界深度に基づいて画素ごとの奥行き精度を設定し、奥行き精度画像94を生成する。
例えば、二次元画像62に配列されている画素のうち、被写界深度内に入っている画素については、撮影者が特に鮮明に撮りたいという意図のもとで撮影した被写体の画像を構成する画素であるから、奥行き精度を高くして立体視画像を鮮明にすることが好ましい。逆に被写界深度から外れている画素については、撮影者が特に鮮明に撮りたいという対象から外れているため、奥行き精度を高くしても立体視画像とする効果はほとんどなく、むしろ奥行き精度を低くして平面的な画像にすることが好ましい。
そこで、図14に示すように、取得した二次元画像62の画素ごとの距離情報を確認して、距離が被写界深度Dd内にある画素については、奥行き精度=「高」を示す情報(例えば論理値「1」)を割り当て、距離が被写界深度を外れている画素については、奥行き精度=「低」を示す情報(例えば論理値「0」)を割り当てる。
奥行き精度画像生成手段92は、上述のようにして、奥行き精度画像94を生成し、生成した奥行き精度画像94をメインメモリ22に記録する。この段階で、第4処理例が終了する。
次に、第5処理例について図15を参照しながら説明する。この第5処理例は、取得した二次元画像62のうち、中央部分に記録されている画像に基づいて奥行き精度画像94を生成する処理を含む。これは、取得した二次元画像62のうち、中央部分に記録されている画像は、撮影者が特に鮮明に撮りたいという意図のもとで記録されたものであり、中央部分に記録された画像の奥行き精度を高くする。
先ず、図7のステップS1〜ステップS5と同様に、図15のステップS401において、撮影関連情報取得手段82が撮影モードを取得し、ステップS402において、奥行き画像生成方法決定手段84が今回の撮影モードに対応した奥行き画像生成方法を取得する。その後、図15のステップS403において、第1カメラ部16が、撮影者による撮影ボタンの入力に基づいて、被写体の二次元画像62(第1二次元画像)を取得し、ステップS404において、距離情報取得手段78が第1二次元画像における画素ごとの距離情報、すなわち、距離情報ファイル86を取得する。その後、ステップS405において、奥行き画像生成手段80は、ステップS402において決定した1つの奥行き画像生成方法(マッピングテーブル)と距離情報取得手段78にて取得した距離情報ファイル86とに基づいて奥行き画像88を生成する。
そして、ステップS406において、奥行き精度画像生成手段92は、二次元画像62のうち、予め設定された範囲(中央部分の範囲)に記録されている被写体の画像を特定する。図16の例では、被写体の画像として建物の画像96を特定した例を示す。
その後、ステップS407において、奥行き精度画像生成手段92は、図16Bに示すように、上述のように特定した建物の画像96に含まれる画素について、奥行き精度=「高」を示す情報(例えば論理値「1」)を割り当て、建物の画像96に含まれていない画素について、奥行き精度=「低」を示す情報(例えば論理値「0」)を割り当てる。
奥行き精度画像生成手段92は、上述のようにして、奥行き精度画像94を生成し、生成した奥行き精度画像94をメインメモリ22に記録する。この段階で、第5処理例が終了する。
次に、第6処理例について図17を参照しながら説明する。この第6処理例は、上述した第5処理例とほぼ同じであるが、取得した二次元画像のうち、記録されている画像に人間の顔や動物の顔の画像が含まれているかどうかに基づいて奥行き精度画像を生成する処理を含む。これは、取得した二次元画像のうち、被写体が人間の顔や動物の顔等である場合、撮影者が特に鮮明に撮りたいという意図のもとで記録されたものであり、人間の顔や動物の顔の画像の奥行き精度を高くする。
先ず、図7のステップS1〜ステップS5と同様に、図17のステップS501において、撮影関連情報取得手段82が撮影モードを取得し、ステップS502において、奥行き画像生成方法決定手段84が今回の撮影モードに対応した奥行き画像生成方法を取得する。その後、図17のステップS503において、第1カメラ部16が、撮影者による撮影ボタンの入力に基づいて、被写体の二次元画像62(第1二次元画像)を取得し、ステップS504において、距離情報取得手段78が第1二次元画像における画素ごとの距離情報、すなわち、距離情報ファイル86を取得する。その後、ステップS505において、奥行き画像生成手段80は、ステップS502において決定した1つの奥行き画像生成方法(マッピングテーブル)と距離情報取得手段78にて取得した距離情報ファイル86とに基づいて奥行き画像88を生成する。
そして、ステップS506において、奥行き精度画像生成手段92は、二次元画像62のうち、人間の顔や動物の顔の画像が記録されているかどうかを探索し、その記録範囲を特定する。例えば、予め人間の代表的な顔の参照画像や動物の代表的な顔の参照画像を用意しておき、取得した二次元画像に参照画像と類似する画像が記録されているかどうかを例えばパターンマッチング法等を使用して探索する。探索の結果、参照画像に類似した画像が存在する場合は、その記録範囲の情報をメインメモリ22の所定アドレスに格納する。図18の例では、人間の顔の画像98の記録範囲を特定した例を示す。
その後、ステップS507において、奥行き精度画像生成手段92は、図18に示すように、特定した記録範囲に含まれる画素について、奥行き精度=「高」を示す情報(例えば論理値「1」)を割り当て、前記記録範囲以外の範囲の画素について、奥行き精度=「低」を示す情報(例えば論理値「0」)を割り当てる。
奥行き精度画像生成手段92は、上述のようにして、奥行き精度画像94を生成し、生成した奥行き精度画像94をメインメモリ22に記録する。この段階で、第6処理例が終了する。
このように、第2立体視画像作成装置10Bにおいては、撮影者が撮影時の意図(どの部分を鮮明に撮りたいか、詳細に記録したいか等の意図)を反映させた奥行き画像88及び奥行き精度画像94を生成することができ、撮影者の意図に合った立体視画像を得ることができる。例えば、第3処理例によれば、撮影者が入力した撮影モードに応じて立体視効果がほとんど期待できない部分について奥行き精度を低く設定でき、立体視効果が期待できる部分(撮影者が鮮明に撮りたい部分)について奥行き精度を高く設定することができる。第4処理例によれば、撮影者が鮮明に撮りたい部分、すなわち、被写界深度内に収まる画像について奥行き精度を高く設定でき、被写界深度から外れた画像について奥行き精度を低く設定することができる。第5処理例によれば、撮影者が注目した部分、すなわち、中央部分に記録された画像について奥行き精度を高く設定でき、被写界深度から外れた画像について奥行き精度を低く設定することができる。第6処理例によれば、撮影者が鮮明に撮りたい部分、すなわち、人間の顔や動物の顔の画像について奥行き精度を高く設定でき、それ以外の画像について奥行き精度を低く設定することができる。
上述の例では、第1カメラ部16と第2カメラ部20を設けることで、距離情報を得るようにしたが、その他、図19の第3の実施の形態に係る立体視画像作成装置(以下、第3立体視画像作成装置10Cと記す)のように、第2カメラ部20に代えて、レーザ光による距離測定装置100を設置するようにしてもよい。
この距離測定装置100は、レーザ光の出射指示に基づいてレーザ光源(図示せず)からレーザ光を出射するように制御するレーザ光制御部102と、被写体から反射したレーザ光を受光するレーザ光受光部104と、レーザ光の出射指示から受光までにかかった時間に基づいて被写体までの距離を測定する信号処理回路106とを有し、距離情報取得手段78として機能する。距離測定装置100は、第1カメラ部16での撮像範囲をカバーするようにレーザ光を走査しながら、第1カメラ部16で取得される二次元画像62の画素ごとの距離情報(距離情報ファイル86)を取得する。
この第3立体視画像作成装置10Cでは、第2カメラ部20を設置する必要がなく、また、メインメモリ22に第2二次元画像76を記録する必要がないため、装置自体の小型化、メインメモリ22の記憶容量の低減化を図ることができる。
上述の例では、撮影関連情報取得手段82にて取得する撮影時の合焦距離情報として、AFの距離情報を用いたが、その他、撮影時のマニュアルフォーカスの距離情報を用いるようにしてもよい。
また、上述の例では、USBドライバ32の外部コネクタ40に外部記憶装置12を接続した例を示したが、その他、図20に示すように、例えば第2立体視画像作成装置10Bをパーソナルコンピュータ108にUSBドライバ32の外部コネクタ40を介して接続し、パーソナルコンピュータ108のハードディスクに二次元画像62、奥行き画像88、奥行き精度画像94を記録するようにしてもよい。また、複数のマッピングテーブル90a〜90gを不揮発性メモリ30から入手するのではなく、ネットワーク110及びパーソナルコンピュータ108を経由してWebサイト112からダウンロードするようにしてもよい。この場合、様々な撮影関連情報に合わせた多種多様のマッピングテーブルを適宜入手することができ、しかも、機種変更にも容易に対応させることができ、撮影者の撮影時における意図を忠実に反映させた奥行き画像を生成することができる。もちろん、パーソナルコンピュータ108のハードディスクに記録された二次元画像62、奥行き画像88、奥行き精度画像94をWebサイト112にアップロードしたり、他のユーザのパーソナルコンピュータに転送するようにしてもよい。
次に、本実施の形態に係る立体視画像出力装置200について図21〜図25を参照しながら説明する。
この立体視画像出力装置200は、図21に示すように、各種プログラムを起動して動作させるCPU202と、デジタル処理を行うためのメインメモリ204と、メインメモリ204で加工されたデータを外部に接続された三次元モニタ206に出力するI/Oインターフェース208とを有する。これらCPU202、メインメモリ204、I/Oインターフェース208は制御バスやデータバス(以下、単にバス210と記す)を通じて接続されている。このバス210には、上述の部材のほか、USBドライバ212が接続されている。USBドライバ212には外部コネクタ214が接続され、該外部コネクタ214を介して外部記憶装置12が接続されている。
CPU202で起動、動作するソフトウエアは、図22に示すように、外部記憶装置12に記憶された二次元画像62、奥行き画像88及び奥行き精度画像94をメインメモリ204に読み出す画像読出し手段216と、奥行き画像に記録された奥行き値と奥行き精度画像94に記録された精度情報に基づいて二次元画像の画素ごとの視差量を演算して視差量画像217を作成する視差量演算手段218と、視差量画像217の画素ごとの視差量に基づいて二次元画像62の画素ずらしを行って立体視画像220を生成する立体視画像生成手段222と、生成された立体視画像220をモニタ、パーソナルコンピュータ、プリンタ等に出力する立体視画像出力手段224とを有する。本実施の形態における立体視画像出力手段224は、生成された立体視画像220を三次元モニタ206に出力して立体視画像220を表示する場合を示している。
ここで、立体視画像出力装置200の処理動作について図23を参照しながら説明する。
先ず、ステップS601において、画像読出し手段216は、外部記憶装置12に記憶されている二次元画像62、奥行き画像88及び奥行き精度画像94を読み出して、メインメモリ204に記録する。
その後、ステップS602において、視差量演算手段218は、処理対象の画素の更新を示すカウンタの値nを初期値「1」にする(n=1)。
次いで、ステップS603において、視差量演算手段218は、奥行き画像88のうち、カウンタの値nに対応する画素(n番目の画素)の奥行き値を読み出す。
その後、ステップS604において、視差量演算手段218は、奥行き精度画像94のうち、カウンタの値nに対応する画素(n番目の画素)の精度情報(精度の高/低=1/0)を読み出す。
その後、ステップS605において、精度情報が「0」(精度=「低」)であるか、「1」(精度=「高」)であるかが判別される。
精度情報が「0」(精度=「低」)である場合は、ステップS606に進み、図24Aに示す低い精度用の第1補正テーブル226に基づいてn番目の画素の視差量を求める。
第1補正テーブル226は、横軸に奥行き値、縦軸に視差量をとったグラフをテーブル化したものである。この第1補正テーブルでは、奥行き値が増加するに従って視差量が階段状に増加する特性となっている。従って、奥行き値が例えばD0〜D9の間にある場合は、視差量は一律T1、奥行き値が例えばD10〜D19の間にある場合は、視差量は一律T2というように、奥行き値がある範囲まで変化しないと画素ずらしがなされず、ほとんど立体視効果が現れないようになっている。従って、その分、立体視表示のためにかかる演算処理が簡略化され、CPU202での演算負担が低減されることになる。
一方、精度情報が「1」(精度=「高」)である場合は、ステップS607に進み、図24Bに示す高い精度用の第2補正テーブル228に基づいてn番目の画素の視差量を求める。
第2補正テーブル228は、第1補正テーブル226と同様に、横軸に奥行き値、縦軸に視差量をとったグラフをテーブル化したものである。特に、この第2補正テーブル228では、奥行き値が増加するに従って視差量も線形に増加する特性となっている。従って、奥行き値の変化がそのまま線形変化として視差量に反映されることから、細かい凹凸まで忠実に表示することができる。
前記ステップS606あるいはステップS607での処理が終了した段階で次のステップS608に進み、カウンタの値を+1更新して、前記ステップS609に進み、全ての画素について処理が終了したか否かが判別される。全ての画素についての処理が終了していなければ、前記ステップS603以降の処理を繰り返す。
そして、ステップS609において、全ての画素について処理が終了したと判別された場合、すなわち、二次元画像62に対応する視差量画像217が完了した場合は、次のステップS610に進み、立体視画像生成手段222は、視差量画像217の画素ごとの視差量に基づいて二次元画像62の画素ずらしを行って立体視画像220を生成する。
その後、ステップS611において、立体視画像出力手段224は、生成された立体視画像220を三次元モニタ206に出力する。これによって、三次元モニタ306から今回の立体視画像220が表示されることになる。この段階で、本実施の形態に係る立体視画像出力装置200での処理が終了する。
上述の例では、第1補正テーブル226の特性として、階段状の特性を示したが、その他、奥行き値に対する視差量を「0」にするようにしてもよい。この場合、精度=「低」とされた画素で構成された画像は平面的な画像として表示されることになる。
また、上述の例では、外部記憶装置12に記録された二次元画像62、奥行き画像88、奥行き精度画像94に基づいて立体視画像220を表示するようにしたが、その他、図25に示すように、本実施の形態に係る立体視画像出力装置200をパーソナルコンピュータ108に接続し、パーソナルコンピュータ108のハードディスクに記録されている二次元画像62、奥行き画像88、奥行き精度画像94や、ネットワーク110を経由してWebサイト112からダウンロードした二次元画像62、奥行き画像88、奥行き精度画像94や、他のユーザから転送された二次元画像62、奥行き画像88、奥行き精度画像94に基づいて立体視画像220を作成し、出力(表示等)するようにしてもよい。
なお、本発明に係る立体視画像作成装置、立体視画像出力装置及び立体視画像作成方法は、上述の実施の形態に限らず、本発明の要旨を逸脱することなく、種々の構成を採り得ることはもちろんである。
10A…第1立体視画像作成装置 10B…第2立体視画像作成装置
10C…第3立体視画像作成装置 12…外部記憶装置
16…第1カメラ部 20…第2カメラ部
62…第1二次元画像(二次元画像) 76…第2二次元画像
78…距離情報取得手段 80…奥行き画像生成手段
82…撮影関連情報取得手段 84…奥行き画像生成方法決定手段
86…距離情報ファイル 88…奥行き画像
90a〜90g…マッピングテーブル 92…奥行き精度画像生成手段
94…奥行き精度画像 96…建物の画像
98…顔の画像 100…距離測定装置
108…パーソナルコンピュータ 110…ネットワーク
112…Webサイト 200…立体視画像出力装置
206…三次元モニタ 216…画像読出し手段
217…視差量画像 218…視差量演算手段
220…立体視画像 222…立体視画像生成手段
224…立体視画像出力手段

Claims (14)

  1. 被写体の二次元画像を取得する二次元画像取得手段と、
    前記被写体までの距離情報を取得する距離情報取得手段と、
    少なくとも前記距離情報取得手段にて取得した前記距離情報に基づいて前記被写体の立体視画像を出力するための奥行き画像を生成する奥行き画像生成手段と、
    前記被写体を撮像した際の1以上の撮影関連情報を取得する撮影関連情報取得手段と、
    前記奥行き画像を生成するための複数の奥行き画像生成方法のうち、1つの奥行き画像生成方法を、前記撮影関連情報取得手段にて取得した撮影関連情報に基づいて決定する奥行き画像生成方法決定手段とを有し、
    前記奥行き画像生成手段は、前記距離情報取得手段にて取得した前記距離情報と、前記奥行き画像生成方法決定手段にて決定された奥行き画像生成方法に基づいて奥行き画像を生成することを特徴とする立体視画像作成装置。
  2. 被写体の二次元画像を取得する二次元画像取得手段と、
    前記被写体までの距離情報を取得する距離情報取得手段と、
    少なくとも前記距離情報取得手段にて取得した前記距離情報に基づいて前記被写体の立体視画像を出力するための奥行き画像を生成する奥行き画像生成手段と、
    前記被写体を撮像した際の複数の撮影関連情報を取得する撮影関連情報取得手段と、
    生成された前記奥行き画像中の奥行き精度を設定するための精度情報が配列された奥行き精度画像を生成する奥行き精度画像生成手段と、
    前記奥行き画像を生成するための複数の奥行き画像生成方法のうち、1つの奥行き画像画像生成を、前記撮影関連情報取得手段にて取得した撮影関連情報に基づいて決定する奥行き画像生成方法決定手段と、
    前記奥行き精度画像を生成するための複数の奥行き精度画像生成方法のうち、1つの奥行き精度画像画像生成を、前記撮影関連情報取得手段にて取得した撮影関連情報に基づいて決定する奥行き精度画像生成方法決定手段とを有し、
    前記奥行き画像生成手段は、前記距離情報取得手段にて取得した前記距離情報と、前記奥行き画像生成方法決定手段にて決定された奥行き画像生成方法に基づいて奥行き画像を生成し、
    前記奥行き精度画像生成手段は、前記奥行き精度画像生成方法決定手段にて決定された奥行き画像生成方法に基づいて奥行き精度画像を生成することを特徴とする立体視画像作成装置。
  3. 請求項2記載の立体視画像作成装置において、
    前記奥行き精度画像生成手段にて生成される前記奥行き精度画像は、精度の高低を示す2値画像であることを特徴とする立体視画像作成装置。
  4. 請求項1〜3のいずれか1項に記載の立体視画像作成装置において、
    さらに、前記複数の奥行き画像生成方法を記憶する記憶手段を有し、
    前記奥行き画像生成方法決定手段は、前記撮影関連情報取得手段にて取得した撮影関連情報に対応する奥行き画像生成方法を前記記憶手段から読み出して、前記奥行き画像生成手段に供給することを特徴とする立体視画像作成装置。
  5. 請求項1〜3のいずれか1項に記載の立体視画像作成装置において、
    前記奥行き画像生成方法決定手段は、前記複数の奥行き画像生成方法のうち、前記撮影関連情報取得手段にて取得した撮影関連情報に対応する奥行き画像生成方法をネットワークを通じて受け取り、前記奥行き画像生成手段に供給することを特徴とする立体視画像作成装置。
  6. 請求項1〜5のいずれか1項に記載の立体視画像作成装置において、
    前記撮影関連情報取得手段にて取得される前記撮影関連情報は、入力される撮影モードであることを特徴とする立体視画像作成装置。
  7. 請求項1〜5のいずれか1項に記載の立体視画像作成装置において、
    前記撮影関連情報取得手段にて取得される前記撮影関連情報は、前記二次元画像生成手段にて生成された前記二次元画像の輝度情報であることを特徴とする立体視画像作成装置。
  8. 請求項1〜5のいずれか1項に記載の立体視画像作成装置において、
    前記撮影関連情報取得手段にて取得される前記撮影関連情報は、撮影時のレンズの絞り値であることを特徴とする立体視画像作成装置。
  9. 請求項1〜5のいずれか1項に記載の立体視画像作成装置において、
    前記撮影関連情報取得手段にて取得される前記撮影関連情報は、撮影時の合焦距離情報であることを特徴とする立体視画像作成装置。
  10. 請求項1〜5のいずれか1項に記載の立体視画像作成装置において、
    前記撮影関連情報取得手段にて取得される前記撮影関連情報は、前記二次元画像生成手段にて生成された前記二次元画像のうち、前記被写体の画像が記録されている領域情報であることを特徴とする立体視画像作成装置。
  11. 請求項10記載の立体視画像作成装置において、
    前記被写体の画像が記録されている領域情報は、前記被写体の顔の画像が記録されている領域情報であることを特徴とする立体視画像作成装置。
  12. 被写体の二次元画像を取得する二次元画像取得手段と、
    前記被写体までの距離情報を取得する距離情報取得手段と、
    少なくとも前記距離情報取得手段にて取得した前記距離情報に基づいて前記被写体の立体視画像を出力するための奥行き画像を生成する奥行き画像生成手段と、
    生成された前記奥行き画像中の奥行き精度を設定するための精度情報が配列された奥行き精度画像を生成する奥行き精度画像生成手段と、
    前記二次元画像生成手段にて生成された前記二次元画像と、前記奥行き画像生成手段にて生成された前記奥行き画像と、前記奥行き精度画像生成手段にて生成された前記奥行き精度画像から立体視画像を生成する立体視画像生成手段とを有することを特徴とする立体視画像出力装置。
  13. 被写体の二次元画像を取得する二次元画像取得手段と、
    前記被写体までの距離情報を取得する距離情報取得手段と、
    少なくとも前記距離情報取得手段にて取得した前記距離情報に基づいて前記被写体の立体視画像を出力するための奥行き画像を生成する奥行き画像生成手段とを有する立体視画像作成装置にて使用される立体視画像作成方法において、
    前記被写体を撮像した際の1以上の撮影関連情報を取得し、
    前記被写体の立体視画像を出力するための奥行き画像を生成するための複数の奥行き画像生成方法のうち、1つの奥行き画像生成方法を、前記取得した撮影関連情報に基づいて決定し、
    前記取得した前記距離情報と、前記決定された奥行き画像生成方法に基づいて奥行き画像を生成することを特徴とする立体視画像作成方法。
  14. 被写体の二次元画像を取得する二次元画像取得手段と、
    前記被写体までの距離情報を取得する距離情報取得手段と、
    少なくとも前記距離情報取得手段にて取得した前記距離情報に基づいて前記被写体の立体視画像を出力するための奥行き画像を生成する奥行き画像生成手段とを有する立体視画像作成装置にて使用される立体視画像作成方法において、
    前記被写体を撮像した際の複数の撮影関連情報を取得し、
    生成された前記奥行き画像中の奥行き精度を設定するための精度情報が配列された奥行き精度画像を生成し、
    前記奥行き画像を生成するための複数の奥行き画像生成方法のうち、1つの奥行き画像画像生成を、前記撮影関連情報取得手段にて取得した撮影関連情報に基づいて決定し、
    前記奥行き精度画像を生成するための複数の奥行き精度画像生成方法のうち、1つの奥行き精度画像画像生成を、前記取得した撮影関連情報に基づいて決定し、
    前記取得した前記距離情報と、前記決定された奥行き画像生成方法に基づいて奥行き画像を生成し、
    前記決定された奥行き画像生成方法に基づいて奥行き精度画像を生成することを特徴とする立体視画像作成方法。
JP2011123477A 2011-06-01 2011-06-01 立体視画像作成装置、立体視画像出力装置及び立体視画像作成方法 Abandoned JP2011211739A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011123477A JP2011211739A (ja) 2011-06-01 2011-06-01 立体視画像作成装置、立体視画像出力装置及び立体視画像作成方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011123477A JP2011211739A (ja) 2011-06-01 2011-06-01 立体視画像作成装置、立体視画像出力装置及び立体視画像作成方法

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2006328430A Division JP2008141666A (ja) 2006-12-05 2006-12-05 立体視画像作成装置、立体視画像出力装置及び立体視画像作成方法

Publications (1)

Publication Number Publication Date
JP2011211739A true JP2011211739A (ja) 2011-10-20

Family

ID=44942244

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011123477A Abandoned JP2011211739A (ja) 2011-06-01 2011-06-01 立体視画像作成装置、立体視画像出力装置及び立体視画像作成方法

Country Status (1)

Country Link
JP (1) JP2011211739A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013175899A1 (ja) * 2012-05-24 2013-11-28 オリンパス株式会社 立体視内視鏡装置

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001281754A (ja) * 2000-03-31 2001-10-10 Minolta Co Ltd カメラ、画像変換装置、画像変換表示装置、立体画像表示システム及び画像変換プログラムが記録された可読記録媒体
JP2002152776A (ja) * 2000-11-09 2002-05-24 Nippon Telegr & Teleph Corp <Ntt> 距離画像符号化方法及び装置、並びに、距離画像復号化方法及び装置
JP2003209858A (ja) * 2002-01-17 2003-07-25 Canon Inc 立体画像生成方法及び記録媒体
JP2003241067A (ja) * 2002-02-18 2003-08-27 Minolta Co Ltd 撮像装置
WO2004071102A1 (ja) * 2003-01-20 2004-08-19 Sanyo Electric Co,. Ltd. 立体視用映像提供方法及び立体映像表示装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001281754A (ja) * 2000-03-31 2001-10-10 Minolta Co Ltd カメラ、画像変換装置、画像変換表示装置、立体画像表示システム及び画像変換プログラムが記録された可読記録媒体
JP2002152776A (ja) * 2000-11-09 2002-05-24 Nippon Telegr & Teleph Corp <Ntt> 距離画像符号化方法及び装置、並びに、距離画像復号化方法及び装置
JP2003209858A (ja) * 2002-01-17 2003-07-25 Canon Inc 立体画像生成方法及び記録媒体
JP2003241067A (ja) * 2002-02-18 2003-08-27 Minolta Co Ltd 撮像装置
WO2004071102A1 (ja) * 2003-01-20 2004-08-19 Sanyo Electric Co,. Ltd. 立体視用映像提供方法及び立体映像表示装置

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013175899A1 (ja) * 2012-05-24 2013-11-28 オリンパス株式会社 立体視内視鏡装置
JP2013244104A (ja) * 2012-05-24 2013-12-09 Olympus Corp 立体視内視鏡装置
CN104321005A (zh) * 2012-05-24 2015-01-28 奥林巴斯株式会社 立体视觉内窥镜装置
EP2856922A4 (en) * 2012-05-24 2016-01-27 Olympus Corp STEREOSCOPIC ENDOSCOPE DEVICE

Similar Documents

Publication Publication Date Title
JP2008141666A (ja) 立体視画像作成装置、立体視画像出力装置及び立体視画像作成方法
US9253398B2 (en) Imaging apparatus for generating composite image using directional indicator image, and method and recording medium with program recorded therein for the same
JP6204660B2 (ja) 撮像装置及びその制御方法
JP2013537728A (ja) 知覚深度を有するビデオを提供するビデオカメラ
JP5434361B2 (ja) 画像処理装置及び画像処理方法
CN103491310B (zh) 图像捕获装置及其控制方法
JP2014168227A (ja) 画像処理装置、撮像装置、画像処理方法
JP2013529864A (ja) 知覚される奥行きを有するビデオの形成
KR20100039430A (ko) 화상 처리기, 화상 처리 방법, 디지털 카메라 및 촬영 장치
US9332195B2 (en) Image processing apparatus, imaging apparatus, and image processing method
JP5513024B2 (ja) 撮像装置、ズーム補正情報作成方法およびプログラム
KR20120114177A (ko) 광각 화상을 생성 가능한 화상 처리 장치
JP2018101951A (ja) 撮像装置、撮像方法およびコンピュータのプログラム
JP6425571B2 (ja) 画像処理装置、画像処理方法、及びプログラム
JP2018074361A (ja) 撮像装置、撮像方法およびプログラム
CN101938603A (zh) 数字图像处理设备和控制所述设备的方法
JP6608194B2 (ja) 画像処理装置およびその制御方法ならびにプログラム
CN103139472A (zh) 数字拍摄设备及其控制方法
JP2011211739A (ja) 立体視画像作成装置、立体視画像出力装置及び立体視画像作成方法
JP2016040902A (ja) 撮像表示装置及びその制御方法
JP5744642B2 (ja) 画像処理装置および画像処理方法、プログラム。
JP2006186931A (ja) カメラ装置、ホワイトバランスブラケティング撮影方法
JP5163333B2 (ja) カメラ装置、及びその画像表示方法と画像表示プログラム
JP2016032180A (ja) 撮像装置、制御方法およびプログラム
JP6087617B2 (ja) 撮像装置及びその制御方法

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121203

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121211

A762 Written abandonment of application

Free format text: JAPANESE INTERMEDIATE CODE: A762

Effective date: 20130204