[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP4415450B2 - Stereo image data generation apparatus and stereo image data generation method - Google Patents

Stereo image data generation apparatus and stereo image data generation method Download PDF

Info

Publication number
JP4415450B2
JP4415450B2 JP2000141028A JP2000141028A JP4415450B2 JP 4415450 B2 JP4415450 B2 JP 4415450B2 JP 2000141028 A JP2000141028 A JP 2000141028A JP 2000141028 A JP2000141028 A JP 2000141028A JP 4415450 B2 JP4415450 B2 JP 4415450B2
Authority
JP
Japan
Prior art keywords
image
eye
line
image data
cut
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2000141028A
Other languages
Japanese (ja)
Other versions
JP2001325618A (en
Inventor
誠次郎 富田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2000141028A priority Critical patent/JP4415450B2/en
Publication of JP2001325618A publication Critical patent/JP2001325618A/en
Application granted granted Critical
Publication of JP4415450B2 publication Critical patent/JP4415450B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、表示手段に右眼用画像と左眼用画像を視差を有するように表示される画像データが記録された立体画像データ生成装置及び立体画像データ生成方法に関する。
【0002】
【従来の技術】
従来、2次元の画像を立体的に表示する立体画像表示システムは、右眼用と左眼用となる2台のカメラを人間の眼幅分(約65mm)離間して三脚等に固定してなる撮像装置と、上記2台のカメラがそれぞれ撮像した画像データが供給され、これらの画像データを視差を有するように交互に画像を表示する画像表示装置と、画像表示装置に表示される画像に合わせて片眼ずつ見えなくするシャッタ眼鏡とから構成されている。
【0003】
このような立体画像表示システムでは、撮像装置を構成する2台のカメラを同期させて駆動される。そして、画像表示装置は、2台のカメラで撮像された2つの画像データを交互に表示する。このとき、画像表示装置には、右眼用の画像データと左眼用画像データとが視差を有するように交互に表示される。また、この画像表示装置には、シャッタ眼鏡が接続されている。シャッタ眼鏡は、画像表示装置に右眼用の画像が表示されているとき、右眼用レンズを透視状態にし、左眼用レンズを遮光状態にする。また、シャッタ眼鏡は、画像表示装置に左眼用の画像が表示されているとき、左眼用レンズを透視状態にし、右眼用レンズを遮光状態にする。このように、画像表示システムでは、画像表示装置に表示される画像とシャッタ眼鏡の左右一対のレンズのオンオフを同期させることで、利用者が立体視できるようにしている。
【0004】
【発明が解決しようとする課題】
ところで、この立体画像表示システムにおいて、2台のカメラで撮影した右眼用画像データと左眼用画像データを保存する方法としては、右眼用画像データの水平走査線のデータと左眼用画像データの水平走査線のデータとが交互になるように保存する方法がある。
【0005】
しかしながら、このような方法は、既に右眼用画像データと左眼用画像データとが合成してあることから、画像を拡大若しくは縮小するなどの編集を行うことができなかった。
【0006】
そこで、本発明は、立体表示用の画像を再編集することができるようにデータを記録した立体画像データ生成装置及び立体画像データ生成方法を提供することを目的とする。
【0007】
【課題を解決するための手段】
本発明に係る立体画像データ生成装置は、上述した課題を解決すべく、1つの撮像素子の略右半分に右眼用画像が取り込まれ、略左半分に左眼用画像が取り込まれて生成された、境界部を挟んで該右眼用画像と該左眼用画像とが並んだ1つの画像データファイルが入力される入力部と、上記入力部より入力された境界部を挟んで右眼用画像と左眼用画像とが並んだ1つの画像データファイルを表示する表示部と、上記入力部より入力された境界部を挟んで右眼用画像と左眼用画像とが並んだ1つの画像データファイルの上記境界部に分割ラインを指示するとともに、上記表示部に表示された上記右眼用画像、上記左眼用画像の何れか一方の画像の所定領域を略矩形をなす一の切取線で指示する指示手段と、上記指示手段の指示位置を操作する位置入力手段と、上記指示手段で指示された領域に対応した上記右眼用画像、上記左眼用画像の何れか他方の画像の領域を略矩形をなす他の切取線で表示するように制御し、上記右眼用画像の上記切取線で切り取って形成された右眼用画像データのファイルと、上記左眼用画像の上記切取線で切り取って形成された左眼用画像データのファイルと、上記右眼用画像データと上記左眼用画像データとを上記表示部に視差を有するように表示するためのクロスポイントの座標情報が記録された情報ファイルとを記録媒体のフォルダ内に保存するように制御する制御装置とを備える。上記制御装置は、上記指示手段が上記表示部に表示された上記右眼用画像、上記左眼用画像の何れか一方の画像の所定領域を上記一の切取線で指示したとき、上記分割ラインと該一方の画像の一の切取線の分割ライン側の線との間隔が、上記他方の画像の分割ラインと反対側の側縁と上記他の切取線の該側縁側の線との間隔と等しくなるように、該他の切取線を表示するように制御する
【0008】
また、本発明に係る立体画像データ生成方法は、上述した課題を解決すべく、1つの撮像素子の略右半分に右眼用画像が取り込まれ、略左半分に左眼用画像が取り込まれて生成された、境界部を挟んで該右眼用画像と該左眼用画像とが並んだ1つの画像データファイルを入力部に入力するステップと、上記入力部より入力された境界部を挟んで右眼用画像と左眼用画像とが並んだ1つの画像データファイルを表示部に表示するステップと、上記入力部より入力された境界部を挟んで右眼用画像と左眼用画像とが並んだ1つの画像データファイルの上記境界部に分割ラインを指示手段が指示するステップと、上記指示手段が上記表示部に表示された上記右眼用画像、上記左眼用画像の何れか一方の画像の所定領域を略矩形をなす一の切取線で指示するステップと、上記指示手段で指示された領域に対応した上記右眼用画像、上記左眼用画像の何れか他方の画像の領域を略矩形をなす他の切取線で表示するように制御するステップと、上記右眼用画像の上記切取線で切り取って形成された右眼用画像データのファイルと、上記左眼用画像の上記切取線で切り取って形成された左眼用画像データのファイルと、上記右眼用画像データと上記左眼用画像データとを上記表示部に視差を有するように表示するためのクロスポイントの座標情報が記録された情報ファイルとを記録媒体のフォルダ内に保存するように制御するステップとを有する。上記指示手段が上記表示部に表示された上記右眼用画像、上記左眼用画像の何れか一方の画像の所定領域を上記一の切取線で指示したとき、上記分割ラインと該一方の画像の一の切取線の分割ライン側の線との間隔が、上記他方の画像の分割ラインと反対側の側縁と上記他の切取線の該側縁側の線との間隔と等しくなるように、該他の切取線を表示するように制御する
【0009】
更には、本発明に係る立体画像データ生成装置は、上述した課題を解決すべく、1つの撮像素子の略右半分に右眼用画像が取り込まれ、略左半分に左眼用画像が取り込まれて生成された、境界部を挟んで該右眼用画像と該左眼用画像とが並んだ1つの画像データファイルが入力される入力部と、上記入力部より入力された境界部を挟んで右眼用画像と左眼用画像とが並んだ1つの画像データファイルを表示する表示部と、上記入力部より入力された境界部を挟んで右眼用画像と左眼用画像とが並んだ1つの画像データファイルの上記境界部に分割ラインを指示するとともに、上記表示部に表示された上記右眼用画像、上記左眼用画像の何れか一方の画像の所定領域を略矩形をなす一の切取線で指示する指示手段と、上記指示手段の指示位置を操作する位置入力手段と、上記指示手段で指示された領域に対応した上記右眼用画像、上記左眼用画像の何れか他方の画像の領域を略矩形をなす他の切取線で表示するように制御し、上記入力部より入力された境界部を挟んで右眼用画像と左眼用画像とが並んだ1つの画像データファイルと、該1つの画像データファイルから上記指示手段において指示した上記一の切取線と上記他の切取線の位置を示す切取情報と該切取情報に従って切り取られた上記右眼用画像と上記左眼用画像とを上記表示部に視差を有するように表示するためのクロスポイントの座標情報が記録された情報ファイルとを記録媒体のフォルダ内に保存するように制御する制御装置とを備える。上記制御装置は、上記指示手段が上記表示部に表示された上記右眼用画像、上記左眼用画像の何れか一方の画像の所定領域を上記一の切取線で指示したとき、上記分割ラインと該一方の画像の一の切取線の分割ライン側の線との間隔が、上記他方の画像の分割ラインと反対側の側縁と上記他の切取線の該側縁側の線との間隔と等しくなるように、該他の切取線を表示するように制御する
【0010】
更にまた、本発明に係る立体画像データ生成方法は、上述した課題を解決すべく、1つの撮像素子の略右半分に右眼用画像が取り込まれ、略左半分に左眼用画像が取り込まれて生成された、境界部を挟んで該右眼用画像と該左眼用画像とが並んだ1つの画像データファイルを入力部に入力するステップと、上記入力部より入力された境界部を挟んで右眼用画像と左眼用画像とが並んだ1つの画像データファイルを表示部に表示するステップと、上記入力部より入力された境界部を挟んで右眼用画像と左眼用画像とが並んだ1つの画像データファイルの上記境界部に分割ラインを指示手段が指示するステップと、上記指示手段が上記表示部に表示された上記右眼用画像、上記左眼用画像の何れか一方の画像の所定領域を略矩形をなす一の切取線で指示するステップと、上記指示手段で指示された領域に対応した上記右眼用画像、上記左眼用画像の何れか他方の画像の領域を略矩形をなす他の切取線で表示するように制御するステップと、上記入力部より入力された境界部を挟んで右眼用画像と左眼用画像とが並んだ1つの画像データファイルと、該1つの画像データファイルから上記指示手段において指示した上記一の切取線と上記他の切取線の位置を示す切取情報と該切取情報に従って切り取られた上記右眼用画像と上記左眼用画像とを上記表示部に視差を有するように表示するためのクロスポイントの座標情報が記録された情報ファイルとを記録媒体のフォルダ内に保存するように制御するステップとを有する。上記指示手段が上記表示部に表示された上記右眼用画像、上記左眼用画像の何れか一方の画像の所定領域を上記一の切取線で指示したとき、上記分割ラインと該一方の画像の一の切取線の分割ライン側の線との間隔が、上記他方の画像の分割ラインと反対側の側縁と上記他の切取線の該側縁側の線との間隔と等しくなるように、該他の切取線を表示するように制御する
【0011】
更にまた、本発明に係る立体画像データ生成装置は、上述した課題を解決すべく、1つの撮像素子の略右半分に右眼用画像が取り込まれ、略左半分に左眼用画像が取り込まれて生成された、境界部を挟んで該右眼用画像と該左眼用画像とが並んだ1つの画像データファイルが入力される入力部と、上記入力部より入力された境界部を挟んで右眼用画像と左眼用画像とが並んだ1つの画像データファイルを表示する表示部と、上記入力部より入力された境界部を挟んで右眼用画像と左眼用画像とが並んだ1つの画像データファイルの上記境界部に分割ラインを指示するとともに、上記表示部に表示された上記右眼用画像、上記左眼用画像の何れか一方の画像の所定領域を略矩形をなす一の切取線で指示する指示手段と、上記指示手段の指示位置を操作する位置入力手段と、上記指示手段で指示された領域に対応した上記右眼用画像、上記左眼用画像の何れか他方の画像の領域を略矩形をなす他の切取線で表示するように制御し、上記右眼用画像の上記切取線で切り取って形成された右眼用画像データのファイルと、上記左眼用画像の上記切取線で切り取って形成された左眼用画像データのファイルと、上記右眼用画像データと上記左眼用画像データとを上記表示部に視差を有するように表示するためのクロスポイントの座標情報が記録された情報ファイルと、上記右眼用画像データの水平走査線のデータと上記左眼用画像データの水平走査線のデータとが交互に記憶された合成画像データファイルとを記録媒体のフォルダ内に保存するように制御する制御装置とを備える。上記制御装置は、上記指示手段が上記表示部に表示された上記右眼用画像、上記左眼用画像の何れか一方の画像の所定領域を上記一の切取線で指示したとき、上記分割ラインと該一方の画像の一の切取線の分割ライン側の線との間隔が、上記他方の画像の分割ラインと反対側の側縁と上記他の切取線の該側縁側の線との間隔と等しくなるように、該他の切取線を表示するように制御する
【0012】
更にまた、本発明に係る立体画像データ生成方法は、上述した課題を解決すべく、1つの撮像素子の略右半分に右眼用画像が取り込まれ、略左半分に左眼用画像が取り込まれて生成された、境界部を挟んで該右眼用画像と該左眼用画像とが並んだ1つの画像データファイルを入力部に入力するステップと、上記入力部より入力された境界部を挟んで右眼用画像と左眼用画像とが並んだ1つの画像データファイルを表示部に表示するステップと、上記入力部より入力された境界部を挟んで右眼用画像と左眼用画像とが並んだ1つの画像データファイルの上記境界部に分割ラインを指示手段が指示するステップと、上記指示手段が上記表示部に表示された上記右眼用画像、上記左眼用画像の何れか一方の画像の所定領域を略矩形をなす一の切取線で指示するステップと、上記指示手段で指示された領域に対応した上記右眼用画像、上記左眼用画像の何れか他方の画像の領域を略矩形をなす他の切取線で表示するように制御するステップと、上記右眼用画像の上記切取線で切り取って形成された右眼用画像データのファイルと、上記左眼用画像の上記切取線で切り取って形成された左眼用画像データのファイルと、上記右眼用画像データと上記左眼用画像データとを上記表示部に視差を有するように表示するためのクロスポイントの座標情報が記録された情報ファイルと、上記右眼用画像データの水平走査線のデータと上記左眼用画像データの水平走査線のデータとが交互に記憶された合成画像データファイルとを記録媒体のフォルダ内に保存するように制御するステップとを有する。上記指示手段が上記表示部に表示された上記右眼用画像、上記左眼用画像の何れか一方の画像の所定領域を上記一の切取線で指示したとき、上記分割ラインと該一方の画像の一の切取線の分割ライン側の線との間隔が、上記他方の画像の分割ラインと反対側の側縁と上記他の切取線の該側縁側の線との間隔と等しくなるように、該他の切取線を表示するように制御する
【0013】
【発明の実施の形態】
以下、本発明が適用された立体画像表示システムについて、図面を参照して説明する。
【0014】
図1に示すように、本発明が適用された立体画像表示システム1は、映像を撮影するためのディジタルカメラ2と、このディジタルカメラ2で生成された画像データを取り込み、この画像データのデータ処理を行い、ディスプレイ55に視差のある画像を表示する制御装置3と、ディスプレイ55に表示される画像に合わせて片眼ずつ見えなくするシャッタ眼鏡4とから構成されている。また、ディジタルカメラ2には、撮像レンズ、フォーカスレンズ等のレンズが内蔵された鏡筒に、右眼用の画像と左眼用の画像を取り込むためのアダプタ5が取り付けられている。これにより、このディジタルカメラ2に用いられている1つのCCD素子には、右眼用の画像と左眼用の画像が取り込まれる。そして、制御装置3には、ディジタルカメラ2で生成された右眼用の画像と左眼用の画像とからなる画像データが供給される。制御装置3は、文字入力手段であるキーボード7a、ポインタ等の指示手段の指示位置を操作する位置入力手段となるマウス7b等からなる入力装置7からの入力信号に基づいて、例えば右眼用の画像と左眼用の画像の切り取りを行う。そして、この制御装置3は、CRT(Cathode-Ray Tube)や液晶表示パネル等のディスプレイ55に切り取られた右眼用切取画像と左眼用切取画像を交互に表示する。また、制御装置3とディスプレイ55との間には、シャッタ眼鏡4のオンオフを制御する眼鏡制御装置6が設けられている。シャッタ眼鏡4は、右眼用レンズ部4aと左眼用レンズ部4aとを有し、これら右眼用レンズ部4aと左眼用レンズ部4bとは、液晶シャッタにより構成されている。このようなシャッタ眼鏡4は、この眼鏡制御装置6に接続されている。シャッタ眼鏡4は、眼鏡制御装置6の制御によりディスプレイ55に交互に表示される右眼用の画像と左眼用の画像に同期させてレンズ部4a,4bを構成する液晶シャッタを開閉させる。これにより、利用者は、ディスプレイ55に交互に表示される右眼用切取画像と左眼用切取画像に合わせてシャッタ眼鏡4のレンズ部4a,4bの開閉を行うことで、ディスプレイ55に表示される画像を立体的に見ることができる。
【0015】
以下、以上のような立体画像表示システム1を構成するディジタルカメラ2と、制御装置3と、アダプタ5と、眼鏡制御装置6について、図面を参照して説明する。
【0016】
ディジタルカメラ2は、通常のディジタルカメラと同様な構成を有しており、図2に示すように、撮像レンズ11より入射された光を光電変換し、撮像信号を生成するCCD(Charge Coupled Device)素子12と、CCD素子12からの撮像信号の雑音を除去するCDS/AGC(Correlated Double Sampling / Automatic Gain Control)13と、CDS/AGC13からの撮像信号をディジタル信号に変換するA/Dコンバータ14と、色コーディングに対応した信号処理をする信号処理部15とを備える。
【0017】
イメージセンサとなるCCD素子12は、画素が数百万設けられた2次元カラーイメージセンサであって、撮像光を原色(R、G、B)或いは補色(Ye、Cy、Mg)の色コーディングフィルタにより色コーディングされた撮像信号に変換して、CDS/AGC13に出力する。
【0018】
CDS/AGC13は、CCD素子12から供給された撮像信号の相関2重サンプルホールドを行うとともに、リセット雑音の除去やゲインコントロールをしてA/Dコンバータ14に出力する。
【0019】
A/Dコンバータ14は、CDS/AGC13からの撮像信号をディジタル方式の画像データに変換する。そして、A/Dコンバータ14は、ディジタル変換された画像データを信号処理部15に出力する。
【0020】
信号処理部15は、A/Dコンバータ14からの画像データに対してCCD素子12の色コーディングフィルタによる色コーディングに対応したデコード処理等を行い画像データから輝度情報、色差情報等を生成する。
【0021】
また、ディジタルカメラ2は、図2に示すように、信号処理部15で処理が行われた画像データを圧縮する圧縮部16と、圧縮部16で圧縮された画像データを記憶するメモリ17と、圧縮部16で圧縮された画像データを制御装置3に送信するためのUSB(Universal Sirial Bus)用インターフェース18と、フラッシュメモリ等を記憶媒体に用いるICカード8に画像データを送信するためのICカード用インターフェース19と、全体を制御する制御部20とを備える。
【0022】
圧縮部16は、信号処理部15で信号処理された画像データを例えばJPEG(Joint Photographic Experts Group)形式で圧縮する。そして、圧縮部16は、JPEG形式で圧縮した画像データをメモリ17に出力し、メモリ17には、JPEG形式で圧縮した画像データが記憶される。
【0023】
また、USB用インターフェース18は、例えばメモリ17に記憶されたJPEG形式で圧縮した画像データを制御装置3に転送する。また、ICカード用インターフェース19は、外部記憶装置となるカード型のICカード8に例えばメモリ17に記憶されたJPEG形式で圧縮した画像データを制御装置3に転送する。
【0024】
制御部20は、ディジタルカメラ2の全体を制御する。具体的に、制御部20は、図示しない操作部からの操作信号に基づき、フォーカスレンズやズームレンズ等を駆動制御する。また、制御部20は、JPEG形式に圧縮された画像データをメモリ17に記憶させる。更には、制御部20は、メモリ17に圧縮された画像データを記憶させることなく、直接USB用インターフェース18を介して制御装置3に転送し、また、ICカード用インターフェース19を介してICカード8に記憶させる。
【0025】
以上のようなディジタルカメラ2で映像を撮影し、このデータをメモリ17に記録するとき、ディジタルカメラ2は、撮像レンズ11より入射された光をCCD素子12で光電変換し、生成された撮像信号をCDS/AGC13を介してA/Dコンバータ14でディジタル変換して画像データを生成し、信号処理部15で信号処理をし、圧縮部16でJPEG形式に画像データを圧縮し、メモリ17に圧縮された画像データを記憶する。また、メモリ17に記憶されているJPEG形式の画像データをICカード8に記録するとき、制御部20は、操作部からの操作信号に応じて、ICカード用インターフェース19を介してディジタルカメラ2に装着されたICカード8に記録し、また、USBにより制御装置3に画像データを転送するとき、制御部20は、操作部からの操作信号に応じて、USB用インターフェース18を介して制御装置3に転送する。
【0026】
ところで、図1に示すように、ディジタルカメラ2の鏡筒2aには、右眼用の画像と左眼用の画像を取り込むためのアダプタ5が取り付けられている。このアダプタ5は、上記ディジタルカメラ2に用いられている1枚のCCD素子12に略中央を境に右眼用の画像と左眼用の画像を取り込むためのものである。このアダプタ5は、図3及び図4に示すように、外筐31の側壁となる左右両側の傾斜壁32a,32bの内面に、第1の平板ミラー33a,33bが設けられている。また、外筐31の略中央には、略三角の仕切り壁34が設けられている。この仕切り壁34の一側面34cは、外筐31の前面に臨まされ、外筐31とで外光を取り込むための右眼用開口部35aと左眼用開口部35bを構成している。また、この一側面34cと隣り合う2側面34a,34bは、外筐31の傾斜壁32a,32bと略平行となるように設けられており、これら2側面34a,34bには、第1の平板ミラー33a,33bに略対向するように、第2の平板ミラー36a,36bが設けられている。更には、外筐31の背面壁37には、第1の平板ミラー33a,33bと第2の平板ミラー36a,36bに反射された外光をディジタルカメラ2の鏡筒2a内に取り込むための開口部38が形成されている。
【0027】
以上のように構成されるアダプタ5は、開口部38をディジタルカメラ2の撮像レンズ11に臨ませるようにして鏡筒2aの先端側に取り付けられる。そして、右眼用開口部35aより取り込まれる外光Rと左眼用開口部35bより取り込まれる外光Lは、第1の平板ミラー33a,33bに反射され、次いで第2の平板ミラー36a,36bに反射され、開口部38に臨まされた撮像レンズ11を介してディジタルカメラ2のCCD素子12に取り込まれる。ここで、図4に示すように、CCD素子12には、図4に示すように、点39a,39bにおける画角をθとすると、画角が2θの画像が取り込まれる。また、点39a,39bの間隔Dは、視差を決定するものであるから、間隔Dは、人間の眼幅に合わせて65mm〜70mmに設定されている。なお、この間隔Dは、個人差に合わせて調整できるようにしてもよい。したがって、CCD素子12には、眼幅分離れた右眼用の画像と左眼用の画像が左右に並んで取り込まれることになる。
【0028】
ここで、図5は、ディジタルカメラ2にアダプタ5を取り付けた際、CCD素子12に取り込まれた画像であり、この画像41は、手前に植木鉢の花を置き、背景を山として女性を撮影したものである。図5に示すように、画像41は、境界部42を境に、略右半分に右眼用画像41aが設けられ、略左半分に左眼用画像41bが設けられている。右眼用画像41aと左眼用画像41bとを比較すると、例えば右眼用画像41aの花43aや山44aは、左眼用画像41bの花43bや山44bより図中やや左側にずれている。このように、右眼用画像41aと左眼用画像41bとは、左右の視差の分、すなわち間隔D分ずれている。なお、境界部42は、実際にはぼやけた白いラインに形成されている。
【0029】
したがって、ディジタルカメラ2にアダプタ5を取り付けて撮影をした場合には、1つのCCD素子12に、右眼用画像41aと左眼用画像41bとからなる画像41が取り込まれ、これを1単位とした画像データがメモリ17やICカード8に記憶され、また、USB用インターフェース18を介して制御装置3に転送される。このようなアダプタ5を用いることにより、ディジタルカメラ2では、立体画像用画像41を1つのファイルで構成することができ、管理を容易にすることができる。また、従来のカメラを2台用いる場合のように、各カメラの同期をとるためのタイミングジェネレータ等を設ける必要もなくなり、構成の簡素化を図ることができる。更に、アダプタ5を取り付けたディジタルカメラ2では、静止画を連続撮影し、動画とする場合にも、2台のカメラを用いることなく左右画像を同時に撮影することができる。更には、アダプタ5が取り付けられたディジタルカメラ2では、2台のカメラレンズの光軸を合わせる必要もないことから、ズームレンズを用いたズーム機能を使用することもできる。
【0030】
次に、以上のようなアダプタ5が取り付けられたディジタルカメラ2で生成された画像データ、すなわち右眼用画像41aと左眼用画像41bとからなる画像41を編集し表示する制御装置3について、図6を参照して説明する。
【0031】
この制御装置3は、通常のパーソナルコンピュータと略同様な構成を有しており、上述した画像41の画像データやこの画像データを編集するためのアプリケーションプログラムや立体的に表示させるためのアプリケーションプログラム等が記録されているハードディスク(以下、HDDともいう。)51と、HDD51に記録されているアプリケーションプログラム等を一旦読み込むランダムアクセスメモリ(Random-Access Memory,以下、RAMともいう。)52と、上述したディジタルカメラ2とデータ伝送を行うためのUSB用インターフェース53と、ICカード8に記録されたデータを読み出すためのICカード用インターフェース54と、画像を表示するためのディスプレイ55と、画像データをディスプレイ55に表示させるためのビデオランダムアクセスメモリ(Video Random-Access Memory,以下、VRAMともいう。)56と、アプリケーションプログラムを実行させるためのコマンドを入力するためのキーボード57aやマウス57bとからなる入力装置57と、JPEG形式のデータを伸長するとともにデータをJPEG形式に圧縮する圧縮/伸長部58と、全体を制御する制御部となるマイクロプロセッサ(Micro Processor Unit,以下、MPUともいう。)58とを備える。
【0032】
HDD51は、オペレーティングシステム(Operating Systen,以下、OSともいう。)や、右眼用画像41aと左眼用画像41bとからなる画像41を編集するための編集プログラムや、この編集プログラムで編集された画像を見るためのブラウザや、右眼用画像41aと左眼用画像41bとからなる画像データ等が記録されている。
【0033】
RAM52は、実行するアプリケーションプログラムや処理を行う画像データがHDD51等から読み込まれる。例えば、HDD51より読み出された右眼用画像41aと左眼用画像とからなる画像データは、このRAM52で単一の画像データよりディスプレイ55に表示するための右眼用画像と左眼用画像を切り取る切取処理が行われる。
【0034】
USB用インターフェース53は、USBによりディジタルカメラ2のUSB用インターフェース18と接続されたとき、ディジタルカメラ2でJPEG方式で圧縮された画像データを受信する。そして、USB用インターフェース53で受信した画像データは、MPU59によりHDD51に記憶される。
【0035】
ICカード用インターフェース54は、ICカード8が装置本体に設けられたICカード8のドライブに装着されたとき、ICカード8に記憶された例えばディジタルカメラ2で撮影された画像の画像データを読み出す。そして、USB用インターフェース53で読み出された画像データは、MPU59によりHDD51に記憶される。
【0036】
ディスプレイ55は、CRTや液晶表示パネルからなり、編集処理を行う前には、図5に示すような右眼用画像41aと左眼用画像41bとが水平方向に並んで構成された画像41を表示する。また、右眼用画像41aと左眼用画像41bの切取処理の終わった右眼用切取画像データと左眼用切取画像データとを視差を有するように交互に表示する。なお、ディスプレイ55は、プログレッシブ方式でもインターレース方式であってもよい。
【0037】
ディスプレイ55に画像を表示するためのVRAM56は、1フレーム分の切取画像データを記憶するのに必要な容量を有するメモリ部56a,56bを有する。例えば、メモリ部56aには、右眼用切取画像データが1フレーム分記憶され、メモリ56bには、左眼用切取画像データが1フレーム分記憶される。そして、VRAM56は、メモリ部56aに記憶された右眼用切取画像データとメモリ部56bに記憶された左眼用切取画像データを交互にディスプレイ55に出力する。
【0038】
圧縮/伸長部58は、例えばICカード8に記録されたJPEG形式に圧縮された画像データをRAM52に読み出すときこの圧縮された画像データを伸長する。また、圧縮/伸長部58は、編集された画像データを保存するとき、RAM56の画像データをJPEG形式に圧縮してHDD51やICカード8に保存する。
【0039】
MPU59は、装置全体を制御するものである。例えば、MPU59は、USB用インターフェース53やICカード用インターフェース54で読み出した画像データをHDD51に保存する。また、MPU59は、HDD51より右眼用画像41aと左眼用画像41bとからなる画像41を編集するための編集プログラムやこの編集プログラムで編集された画像を見るためのブラウザやこれらのプログラムで処理される画像データをRAM52に読み出す。そして、MPU59は、読み出した単一の画像データよりディスプレイ55に表示するための右眼用画像と左眼用画像を切り取る切取処理を行い、RAM52より処理を行った右眼用切取画像データをVRAM56のメモリ部56aに出力し、左眼用切取画像データをメモリ部56bに出力する。
【0040】
以上のような制御装置3は、右眼用切取画像と左眼用切取画像とからなる画像データをディスプレイ55に表示するとき、次のように動作する。すなわち、MPU59は、HDD51等よりJPEG形式に圧縮された右眼用画像と左眼用画像とからなる画像データを伸長した後、RAM52にこの画像データを読み出し、利用者が操作する入力装置7からのコマンドに基づき図5に示す右眼用画像41aと左眼用画像41bの所定領域を切り出し、切り出した右眼用切取画像データをVRAM56を構成するメモリ部56aに出力し、左眼用切取画像データをメモリ部56bに出力する。次いで、VRAM56は、ディスプレイ55にメモリ部56aより右眼用切取画像データを、メモリ部56bより左眼用切取画像データを交互に出力する。ここで、各切取画像データは、走査線のすべてを順に描く方式、すなわちプログレッシブ方式のディスプレイ55に出力される。ディスプレイ55には、右眼用の切取画像と左眼用の切取画像が交互に写し出され、シャッタ眼鏡4をかけた利用者は、ディスプレイ55に写し出された画像を立体的に見ることができる。
【0041】
ところで、右眼用の画像と左眼用の画像とをプログレッシブ方式のディスプレイ55に表示する場合、図1及び図6に示すように、1フレーム分の右眼用切取画像と左眼用切取画像をVRAM56のメモリ部56a,56bより読み出し交互に表示し、シャッタ眼鏡4では、この切り換えに同期させて右眼用レンズ部4aと左眼用レンズ部4aのシャッタを切り換える必要がある。このため、ディスプレイ55とVRAM56との間には、シャッタ眼鏡4を制御する眼鏡制御装置6が取り付けられている。
【0042】
この眼鏡制御装置6は、図7に示すように、VRAM56のメモリ部56a,56bに記憶されている1フレーム分の右眼用切取画像データと左眼用切取画像データをディスプレイ55に出力するとき、各画像データの垂直同期信号を検出する検出部61と、一方が検出部61に接続され、他方がシャッタ眼鏡4の右眼用レンズ部4aの端子62と左眼用レンズ部4bの端子63に選択的に接続されるスイッチ64とを備える。
【0043】
図8(A)に示すように、VRAM56よりディスプレイ55に右眼用切取画像データと左眼用切取画像データが交互に出力されているとき、検出部61は、各切取画像データの垂直同期信号を検出する。例えば、検出部61は、右眼用の切取画像データがVRAM56のメモリ部56aより出力されると、この切取画像データの垂直同期信号を検出する。右眼用切取画像データの垂直同期信号を検出すると、検出部61は、図8(B)に示すように、次に表示される左眼用切取画像データを利用者が左眼で見ることができようにするため、シャッタ眼鏡4の左眼用レンズ部4bをオフとし、図8(C)に示すように、右眼用レンズ部4aをオンとするようにスイッチ64を切り換える。これにより、ディスプレイ55に左眼用切取画像が表示されているとき、左眼用レンズ部4bが透視状態となり、右眼用レンズ部4aが透視状態となる。
【0044】
次いで、検出部61は、現在表示されている左眼用切取画像データの垂直同期信号を検出すると、図8(C)に示すように、次に表示される右眼用切取画像データを利用者が右眼で見ることができようにするため、シャッタ眼鏡4の右眼用レンズ部4aをオフとし、図8(B)に示すように、左眼用レンズ部4bをオンとするようにスイッチ64を切り換える。これにより、ディスプレイ55に右眼用の切取画像が表示されているとき、右眼用レンズ部4aが透視状態となり、左眼用レンズ部4bが透視状態となる。以後、このように、右眼用切取画像と左眼用切取画像の切り換えのタイミングに合わせてシャッタ眼鏡4の右眼用レンズ部4aと左眼用レンズ部4bのシャッタの切り換えを行うことで、利用者は、ディスプレイ55に表示される画像を立体的に見ることができる。
【0045】
インターレース方式のディスプレイ55を用いる場合について説明すると、上述したVRAM56のメモリ56aには、右眼用切取画像データの水平走査線のデータが1ライン毎、例えば偶数番目のラインが間引かれた右眼用切取画像データが記録され、メモリ56bには、左眼用切取画像データの水平走査線のデータが1ライン毎、例えば奇数番目のラインが間引かれた左眼用切取画像データが記録される。そして、メモリ56aからは、この右眼用の切取画像データを1フィールド分の画像データとしてディスプレイ55に出力され、メモリ56bからは、この左眼用の切取画像データを次の1フィールド分の画像データとして出力される。したがって、ディスプレイ55には、図9(A)に示すように、先ず、偶数番目のラインが間引かれた画像が表示され、次いで、奇数番目のラインが間引かれた画像が表示される。
【0046】
このとき、眼鏡制御装置6は次のようにシャッタ眼鏡4を制御する。すなわち、図9(B)に示すように、最初のフィールド分の右眼用切取画像データがメモリ56aより出力されると、検出部61は、このフィールドの最後に設けられた垂直同期信号を検出する。右眼用切取画像データの垂直同期信号を検出すると、検出部61は、図9(C)に示すように、次に表示される左眼用切取画像データを利用者が左眼で見ることができようにするため、シャッタ眼鏡4の左眼用レンズ部4bをオフとし、図9(D)に示すように、右眼用レンズ部4aをオンとするようにスイッチ64を切り換える。これにより、ディスプレイ55に左眼用の切取画像が表示されているとき、左眼用レンズ部4bが透視状態となり、右眼用レンズ部4aが遮光状態となる。
【0047】
次いで、検出部61は、図9(B)に示すように、現在表示されている左眼用切取画像データの垂直同期信号を検出すると、図9(D)に示すように、次に表示される右眼用切取画像データを利用者が右眼で見ることができようにするため、シャッタ眼鏡4の右眼用レンズ部4aをオフとし、図9(C)に示すように、左眼用レンズ部4bをオンとするようにスイッチ64を切り換える。これにより、ディスプレイ55に右眼用の切取画像が表示されているとき、右眼用レンズ部4aが透視状態となり、左眼用レンズ部4bが透視状態となる。以後、このように、右眼用切取画像と左眼用切取画像の切り換えのタイミングに合わせてシャッタ眼鏡4の右眼用レンズ部4aと左眼用レンズ部4bのシャッタの切り換えを行うことで、利用者は、ディスプレイ55に表示される画像を立体的に見ることができる。
【0048】
なお、プログレッシブ方式の場合であっても、上述したように、例えば偶数番目のラインが間引かれた右眼用切取画像データをメモリ部56aに記録し、奇数番目のラインが間引かれた左眼用切取画像データを記録するようにしてもよい。この場合、インターレース方式のように、ディスプレイ55には、偶数番目のラインが間引かれた右眼用切取画像と奇数番目のラインが間引かれた左眼用切取画像が交互に表示される。また、水平ラインを間引いて右眼用切取画像データと左眼用切取画像データをVRAM56に出力する場合であっても、上述したようにディジタルカメラ2のCCD素子12は、数百万画素を有するものが用いられることから、利用者に画質の劣化を感じさせることはない。
【0049】
次に、上述したディジタルカメラ2にアダプタ5を取り付けて撮影した画像データの上記制御装置3を用いた処理、すなわち画像データの編集処理について図10を参照して説明する。
【0050】
先ず、ステップS1において、例えばディスプレイ55に表示された編集プログラムを起動するためのアイコンをマウス57bでクリックすると、MPU59は、HDD51より該編集プログラムをRAM52に読み出し起動し、ステップS2に進む。
【0051】
ステップS2において、MPU59は、キーボード57aやマウス57bからなる入力装置57からのコマンドに基づいて、編集する画像データのファイルを選択し、この選択されたファイルを開く。ここで、この画像データは、JPEG形式に圧縮されたファイルである。具体的に、MPU59は、ディジタルカメラ2と制御装置3とがUSBで接続されているときにはディジタルカメラ2のメモリ17より該当ファイルを圧縮/伸長部58で伸長した後RAM52に読み出し、また、制御装置3のドライブにICカード8が装着されているときにはこのICカード8より該当ファイルを圧縮/伸長部58で伸長しRAM52に読み出し、HDD51に該当ファイルが記録されているときにはHDD51よりこのファイルを圧縮/伸長部58で伸長した後RAM52に読み出し、ステップS3に進む。
【0052】
ステップS3において、MPU59は、RAM52に一旦記録されている読み出した画像データをVRAM56を介してプログレッシブ方式若しくはインターレース方式のディスプレイ55に出力し、ディスプレイ55に画像を表示させ、ステップS4に進む。このステップS3でディスプレイ55には、上記図5に示した画像41が表示される。すなわち、ディスプレイ55には、水平方向に並んで右眼用画像41aと左眼用画像41bが1つの画像として表示される。そして、右眼用画像41aと左眼用画像41bとは、左右の視差の分ずれている。なお、右眼用画像41aと左眼用画像41bの境界部42は、ややぼやけた白いラインとして表示されている。
【0053】
ステップS4において、MPU59は、図11(A)に示すように、画像41を右眼用画像41aと左眼用画像41に分割するための分割ライン71をディスプレイ55の垂直方向に表示する。そして、この分割ライン71は、マウス57bがクリックされることによってポインタ72に保持され、利用者の目視で、画像41の境界部42と重なるように移動される。これによって、MPU59は、画像41を右眼用画像41aと左眼用画像41bに分割する。これによって、利用者は、右眼用画像41aと左眼用画像41bとを容易に見分けることができる。
【0054】
ステップS5において、MPU59は、図11(B)に示すように、ディスプレイ55に表示された分割ライン71で分割された右眼用画像41aと左眼用画像41bの垂直方向のセンターを見やすくするため、右眼用画像41a用の垂直センターライン73aと左眼用画像41b用の垂直センターライン73bを表示する。ここで、MPU59は、右眼用画像41a用の垂直センターライン73aと左眼用画像41b用の垂直センターライン73bを、分割ライン71からの距離が等しくなるように表示する。そして、右眼用画像41a用の垂直センターライン73aは、マウス57bがクリックされることによってポインタ72に保持され、利用者の目視で、利用者が所望する垂直方向のセンターに水平方向に移動される。これと同じくして、左眼用画像41b用の垂直センターライン73bは、右眼用画像41a用の垂直センターライン73aの移動量と同じ量だけ、同方向に自動的に移動される。かくして、MPU59は、利用者が右眼用画像41aの垂直方向のセンターと左眼用画像41bの垂直方向のセンターを見易くし、これら設定された垂直センターライン73a,73bが次のステップで右眼用画像41aと左眼用画像41bの切り取り操作の目安となるようにしている。
【0055】
ステップS6において、MPU59は、図11(C)に示すように、ディスプレイ55に表示された分割ライン71で分割された右眼用画像41aと左眼用画像41bの水平方向のセンターを見易くするため、水平センターライン74を表示する。ここで、MPU59は、右眼用画像41aと左眼用画像41bに亘って垂直方向のセンターに表示する。そして、水平センターライン74は、マウス57bがクリックされることによってポインタ72に保持され、利用者の目視で、利用者が所望する水平方向のセンターに垂直方向に移動される。かくして、MPU59は、利用者が右眼用画像41aと左眼用画像41bの水平方向のセンターを見易くするとともに、上述した垂直センターライン73a,73bとで右眼用画像41aと左眼用画像41bの中心点75a,75bを見極め易くし、次のステップで右眼用画像41aと左眼用画像41bの切り取り操作の目安となるようにしている。
【0056】
なお、この中心点75a,75bは、再調整を行うこともできる。すなわち、垂直センターライン73a,73bの調整は、図11(B)に示すように、再度、右眼用画像41a用のセンターライン73aを水平方向に移動させることで行うことができ、水平センターライン74の調整は、図11(C)に示すように、水平センターライン74を垂直方向に移動させることで行うことができる。
【0057】
ステップS7において、MPU59は、利用者の所望な画像の切出処理を行う。具体的に、右眼用画像41aにおいて利用者が上記垂直センターライン73aや水平センターライン74や中心点75aを参考に、マウス57bのポインタ72により始点76を決定し、対角線方向にポインタ72が移動されると、図11(D)に示すように、右眼用画像41aには、略矩形の切取線77aが表示される。これと同じくして、MPU59は、左眼用画像41bにも、切取線77aと同形状の切取線77bを表示する。このとき、MPU59は、分割ライン71と切取線77aの分割ライン71側の線との間隔が、左眼用画像41bの分割ライン71と反対側の側縁と切取線77bの該側縁側の線との間隔と等しくなるように、切取線77bを表示する。
【0058】
かくして、MPU59は、ディスプレイ55で立体表示するための右眼用切取画像78aの画像データと左眼用切取画像78bの画像データを生成する。ところで、以上のように利用者は、HDD51に実際に切り取った画像のデータを保存する前に、利用者がどの様にディスプレイ55で立体表示されるのが見たい場合がある。そこで、ステップS8において、MPU59は、右眼用切取画像78aの画像データと左眼用切取画像78bの画像データをVRAM56に出力し、プレービューモードを起動する。なお、このプレビューモードについては、詳細は後述する。そして、ステップS10において、MPU59は、右眼用切取画像78aの画像データと左眼用切取画像78bの画像データを圧縮/伸長部58でJPEG形式に圧縮した後HDD51に保存する。なお、この保存方法についても詳細は後述する。
【0059】
以上のような画像データの編集処理方法では、画像41の画像データから利用者所望の領域を切り取りとることで、ディスプレイ55に利用者の好みにあった立体画像をディスプレイ55に表示することができる。また、画像41の画像データを編集する際、ディスプレイ55には、垂直センターライン73a,73bと水平センターライン74が表示されることから、利用者は、画像41の切り取り作業を容易に行うことができる。
【0060】
なお、以上のような画像41の編集作業は、右眼用画像41aを用いて行うものであることから、境界部42をMPU59に自動認識させるようにして、ディスプレイ55には、編集作業用の右眼用画像41aのみを表示するようにしてもよい。
【0061】
次いで、上記ステップS8のプレビューモードについて図12を参照して説明する。ステップS11において、MPU59は、入力装置57からのコマンドに基づいて、プレビューモードを起動する。
【0062】
ステップS12において、MPU59は、ディスプレイ55に表示形式の選択画面を表示する。ここで、立体画像を表示する態様としては、図13(A)に示すように、縦横比が3:4の略矩形の枠79aと、図13(B)に示すように、縦横比が9:16の略矩形の枠79bと、図13(C)に示すように、略円形の枠79cとがある。そして、利用者によって入力装置57からのコマンドに基づいて、MPU59は、上記図13(A)乃至図13(C)に示す枠の中から何れか一の枠79を選択し、ステップS13に進む。
【0063】
ステップS13において、利用者によって入力装置57からの入力信号に基づいて、右眼用切取画像78aの画像データと左眼用切取画像78bの画像データのVRAM56からの出力順序を決定する。具体的に、この出力順序は、右眼用切取画像78aの画像データからディスプレイ55に表示するか、左眼用切取画像78bの画像データからディスプレイ55に表示するかである。
【0064】
ステップS14において、MPU59は、ディスプレイ55に視差を有するように右眼用切取画像78aと左眼用切取画像78bとを交互に表示する。具体的に、MPU59は、右眼用切取画像78aの画像データをVRAM56のメモリ部56aに出力し、左眼用切取画像78bの画像データをVRAM56のメモリ部56bに出力する。そして、VRAM56は、ステップS13において決定された画像データの出力順序に基づいて、右眼用切取画像78aの画像データと左眼用切取画像78bの画像データを交互にディスプレイ55に出力し、ディスプレイ55に、右眼用切取画像78aと左眼用切取画像78bとを交互に表示させる。
【0065】
この結果、図14(A)及び図14(B)に示すように、ディスプレイ55には、右眼用切取画像78aと左眼用切取画像78bがずれたように表示される。具体的に、ディスプレイ55に表示される右眼用切取画像78aと左眼用切取画像78bは、利用者の視点の位置においてずれ量が0となるように表示され、このずれ量が0の位置から利用者から見て手前の方向や奥の方向に向かってずれ量が大きくなるように表示される。なお、以下、このずれ量が0の位置をクロスポイント81という。すなわち、図14(A)に示す画像中、人の位置をクロスポイント81とした場合、山は人より奥にあることから一方向にずれて表示され、花は人より手前にあることから他方向にずれて表示される。
【0066】
また、上述したように、眼鏡制御装置6は、ステップS13における画像データの出力順序に合わせて右眼用レンズ部4aと左眼用レンズ部4bのシャッタの切換を行う。この切り換えに際して、眼鏡制御装置6は、検出部61で右眼用切取画像78aの画像データと左眼用切取画像78bの画像データの垂直同期信号を検出し、ディスプレイ55に表示される右眼用切出画像78aと左眼用切出画像78bの切換のタイミングに合わせてシャッタ眼鏡4の右眼用レンズ部4aと左眼用レンズ部4bのシャッタの切換を行う。これにより、利用者は、ディスプレイ55に表示された画像を立体的に見ることができる。以降のステップでは、利用者はシャッタ眼鏡4をかけた状態でプレビューモードの処理を行う。
【0067】
ステップS15において、利用者にとって最も立体画像を見易くするため、奥行き調整、すなわちクロスポイント81の調整が行われる。すなわち、MPU59は、図14(A)に示す画面82にクロスポイント81の調整を行うための調整釦83,84を表示している。ここで調整釦83は、クロスポイント81を面中手前、すなわち水平に一方向に移動させるためのものであり、調整釦84は、クロスポイント81を画面中奥、すなわち水平に他方向に移動させるためのものである。これら調整釦83,84は、クロスポイント81を水平方向に移動させるものであるから、操作を行い易くするため、画面82中水平方向に並んで表示されている。
【0068】
利用者が入力装置57で調整釦83を押したとき、MPU59は、クロスポイント81を手前、すなわち図14(A)の画面82中左下の方向に移動させる。そして、例えばクロスポイント81が花の位置まで移動すると、ディスプレイ55には、人の位置の右眼用切取画像78aと左眼用切取画像78bが一方向にずれ、山の位置の画像が更に大きく一方向にずれたように表示されることになる。これによって、シャッタ眼鏡4をかけた利用者には、花を基準に人が奥にあり、更に奥に山があるように見える。また、利用者が入力装置57で調整釦84を押したとき、MPU59は、クロスポイント81を奥、すなわち図14(A)の画面82中右上の方向に移動させる。そして、例えばクロスポイント81が山の位置まで移動すると、ディスプレイ55には、人の位置の右眼用切取画像78aと左眼用切取画像78bが他方向にずれ、花の位置の画像が更に大きく他方向にずれたように表示されることになる。これにより、利用者には、山を基準に人が手前にあり、更に手前に山があるように見える。以上のようにして、利用者は、最も立体画像を見やすい位置に奥行き調整、すなわちクロスポイント81の調整を行うことができる。
【0069】
ステップS16において、利用者にとって最も立体画像を見易くするため、垂直方向の調整が行われる。すなわち、ディジタルカメラ2にアダプタ5を取り付けて撮影をする場合に、アダプタ5がディジタルカメラ2に対して傾いて取り付けられており、撮影された図5に示す画像41が傾いているときがある。このような傾いた画像41を立体的に見ることは困難である。そこで、このステップS16では、MPU59は、画面82に右眼用切出画像78aと左眼用切出画像78bを垂直方向に調整するための調整釦85,86を表示する。利用者が入力装置57で調整釦85を押したとき、MPU59は、右眼用切出画像78aを上側にずらし、左眼用切出画像78bを下側にずらす。また、利用者が入力装置57で調整釦86を押したとき、MPU59は、右眼用切出画像78aを下側にずらし、左眼用切出画像78bを上側にずらす。以上のようにして、利用者は、最も立体画像を見やすい位置に右眼用切出画像78aと左眼用切出画像78bの垂直方向の位置を調整することができる。なお、調整釦85,86は、画像を垂直方向に移動させるものであることから、操作を行い易くするため、画面82中垂直方向に並んで表示されている。
【0070】
以上のようなプレービューモードでは、画面82に設けられた調整釦83,84で奥行き、クロスポイント81の調整を行い、また、画面82に設けられた調整釦85,86で右眼用切出画像78aと左眼用切出画像78bの垂直方向の調整を行うことができることから、右眼用切出画像78aと左眼用切出画像78bをHDD51に保存する前に、利用者が最も立体画像を見やすい状態で保存することができる。
【0071】
ところで、図15に示すように、例えば上述したプレービューモードで右眼用切出画像78aと左眼用切出画像78bとが交互に表示されている立体画像78上を入力装置57を構成するマウス57bのポインタ72を移動させることがある。このとき、ポインタ72が2次元、すなわちクロスポイント81での表示状態で表示されていると、利用者がポインタ72を見づらくなってしまう。そこで、MPU59は、立体画像78上にあるポインタ72の位置の視差、すなわち右眼用切出画像78aと左眼用切出画像78bのずれ量に合わせて、ポインタ72もずらすようにしている。すなわち、図15に示すように、クロスポイント81が人の位置にあり、ポインタ72が立体画像78中奥の山の近くにあるときに、MPU59は、この位置における右眼用切出画像78aと左眼用切出画像78bのずれ量に合わせてポインタ72もずらして表示し、また、ポインタ72が立体画像78中手前の花の近くにあるとき、MPU59は、この位置における右眼用切出画像78aと左眼用切出画像78bのずれ量に合わせてポインタ72もずらして表示する。更には、ポインタ72がクロスポイント81にあるとき、MPU59は、右眼用切出画像78aと左眼用切出画像78bのずれもないことから、ポインタ72もずらすことなく平面的に表示する。これにより、利用者は、立体表示を行う立体画像78上をポインタ72が移動するとき、ポインタ72が常に背景にある画像の視差に合わせて表示され、ポインタ72を立体的に見ることができることから、利用者がポインタ72を見づらくなることを防止することができる。
【0072】
また、図15に示すように、画像41の編集を行っているとき、画像41中に文字87を入力することができる。すなわち、マウス57bのポインタ72によって立体画像78中文字87を入力する位置が指定され、キーボード57aによって文字(例えば「A」)が入力されると、MPU59は、立体画像78中の当該位置に文字87を表示する。このとき、MPU59は、立体画像78上の文字87が入力された座標上の視差、すなわち右眼用切出画像78aと左眼用切出画像78bのずれ量に合わせて、文字87もずらして表示する。すなわち、クロスポイント81が人の位置にあり、文字87が立体画像78中奥の山の近くに表示するとき、MPU59は、この位置における右眼用切出画像78aと左眼用切出画像78bのずれ量に合わせて文字87もずらして表示し、また、文字87が立体画像78中手前の花の近くにあるとき、MPU59は、この位置における右眼用切出画像78aと左眼用切出画像78bのずれ量に合わせて文字87もずらして表示する。更には、文字87がクロスポイント81に表示されるとき、MPU59は、右眼用切出画像78aと左眼用切出画像78bのずれもないことから、文字87もずらすことなく平面的に表示する。これにより、利用者は、立体表示を行う立体画像78上に文字87を表示するとき、文字87が常に背景にある画像の視差に合わせて表示され、文字87も立体的に見ることができることから、文字87が見づらくなることを防止することができる。また、文字87のずれ量を画像中最も手前のずれ量に合わしたときには、利用者には文字87が最も手前にあるように見え、文字87を強調することができる。
【0073】
また、図14(A)に示すように右眼用切取画像78aと左眼用切取画像78bが交互に表示されているとき、基準となる面は、ディスプレイ55の画面82や、図13に示す枠79となっている。すなわち、画面82や画面上の枠79は、視差を考慮しない平面的表示形態となっている。このため、シャッタ眼鏡4をかけて図14(A)の立体画像78を見ている利用者は、画面82上に表示された立体画像78の周囲が平面的に表示されていることから、立体画像78を立体的に見づらくなってしまう。そこで、立体画像78の周囲には、図16に示すように、例えば額縁のような所定の幅を有する枠体88を表示するようにしている。この枠体88のずれ量を、最も手前に見えるもの、例えば花のずれ量と同じ若しくはこれ以上とした場合には、利用者に、立体画像78が枠体88の内側に立体表示されたように見せることができる。また、この枠体88のずれ量を、最も奥に見えるもの、例えば山のずれ量と同じ若しくはこれ以上とした場合には、利用者に、立体画像78のものが枠体88の飛び出したように見せることができる。このように、立体画像78の周囲に、所定幅の枠体88を設けることにより、利用者に、一層立体画像を見やすくすることができる。
【0074】
次に、以上のように編集された右眼用切取画像78aの画像データと左眼用切取画像78bからなる画像データとから構成された立体画像78の画像データの管理方法、すなわち上記図10中ステップS9の切取画像データの管理方法について図17を参照して説明する。図14(A)に示す右眼用切取画像79aの画像データと左眼用切取画像79bの画像データを保存するときには、先ず、入力装置57のマウス57b等で画面82に表示された保存釦89が押される。保存釦89がポインタ72により押されると、MPU59は、RAM52上の右眼用切取画像79aの画像データと左眼用切取画像79bの画像データをバスを介してHDD51やICカード8に保存する。具体的に、図17に示すように、MPU59は、フォルダ91内に、右眼用切取画像データファイル92と、左眼用切取画像データファイル93と、これらファイル92,93を関連づける情報からなる情報ファイル94を保存する。
【0075】
右眼用切取画像データファイル92は、図10中ステップS7で切り取られた右眼用切取画像78aの画像データであり、この画像データは、圧縮/伸長部58でJPEG方式に圧縮されている。また、左眼用切取画像データファイル93は、右眼用切取画像78bの画像データであり、この画像データは、圧縮/伸長部58でJPEG方式に圧縮されている。
【0076】
情報ファイル94は、右眼用切取画像78aと、左眼用切取画像78bを交互に表示する際のクロスポイント81の座標が記録されている。また、上述したように、偶数番目のラインが間引かれた右眼用切取画像データと奇数番目のラインが間引かれた左眼用切取画像データをディスプレイ55に表示する際には、何れのデータが一番目のラインとなるかを示すライン情報が記録されている。すなわち、情報ファイル94には、保存時の立体画像を再現するのに必要なデータが記録される。
【0077】
以上のようなデータの管理方法では、右眼用切取画像データファイル92と左眼用切取画像データファイル93と情報ファイル94とが分割して設けられていることから、これらのデータを、圧縮伸長しても再編集を行うことができる。すなわち、このフォルダ91には、右眼用切取画像データファイル92と左眼用切取画像データファイル93があることから、利用者は、再度、右眼用切取画像78aと左眼用切取画像78bを拡大若しくは縮小する等の再編集を行うことができる。
【0078】
また、右眼用切取画像78aの画像データと左眼用切取画像78bの画像データとは、図18に示すように保存することもできる。すなわち、フォルダ96には、上記図5に示す右眼用画像41aと左眼用画像41bとからなる画像データからなる画像データファイル97と、この画像データファイル97から右眼用切取画像78aと右眼用切取画像78bを生成するための情報からなる情報ファイル98とが記録される。すなわち、画像データファイル97は、上記図10に示す編集処理前の画像データが圧縮/伸長部58でJPEG形式に圧縮されたものである。また、情報ファイル98は、図11(D)に示す分割ライン71の位置データや垂直センターライン73a,73bの位置データや水平センターライン74の位置データや切取線77a,77bの位置データが記録されている。また、情報ファイル96には、右眼用切取画像78aと、左眼用切取画像78bを交互に表示する際のクロスポイント81の座標が記録されている。更には、偶数番目のラインが間引かれた右眼用切取画像データと奇数番目のラインが間引かれた左眼用切取画像データをディスプレイ55に表示する際には、何れのデータが一番目のラインとなるかを示すライン情報が記録されている。すなわち、情報ファイル98には、保存時の立体画像を再現するのに必要なデータが記録される。
【0079】
以上のようなデータの管理方法では、右眼用画像41aと左眼用画像41bとからなる画像データを保存していることから、この画像データを圧縮伸長しても図17に示す保存方法より更に多くの編集作業を行うことができる。具体的には、この管理方法では、図10に示すような編集作業を、フォルダ96から画像データファイル97と情報ファイル98を読み出して再度、図10及び図11に示すような画像の切取等の編集作業を行うことができる。
【0080】
更に、右眼用切取画像78aの画像データと左眼用切取画像78bの画像データとは、次のように保存することもできる。すなわち、この保存方法は、右眼用切取画像78aの画像データの水平走査線のデータと左眼用切取画像78bの画像データの水平走査線のデータとが交互に記憶された合成画像データを保存する方法であり、図19に示すように、フォルダ101には、偶数番目のラインが間引かれた右眼用切取画像データと奇数番目のラインが間引かれた左眼用切取画像データとが合成された合成画像データが記録される合成画像データファイル102が記録される。
【0081】
このような管理方法では、上記図17及び上記図18に示す画像データの管理方法に対して、情報ファイルが設けられないことから、再編集を行うことができないが、データサイズを小さくすることができる。なお、このフォルダ101には、合成画像データファイル102に加えて、上記図17に示した右眼用切取画像データファイル92と、左眼用切取画像データファイル93と、これらファイル92,93に関連する情報からなる情報ファイル94を保存するようにしてもよい。また、このフォルダ101には、合成画像データファイル102に加えて、上記図18に示した右眼用画像41aと左眼用画像41bとからなる画像データからなる画像データファイル97と、この画像データファイル97から右眼用画像78aと右眼用画像78bを生成するための情報からなる情報ファイル98を保存するようにしてもよい。
【0082】
以上、図17乃至図19に異なるデータの管理方法について説明したが、この制御装置3では、図17乃至図19に異なるデータの管理方法のいずれか1つの方法で画像データをHDD51に保存するようにしてもよく、また、これらの方法の中から何れか1つを選択してHDD51に保存することができるようにしてもよい。例えば図17に示す保存方法は、編集作業を中断し、再編集を行うときに便利であり、図18に示す保存方法は、電子メールに添付して相手方に送信するとき、相手方が画像の拡大縮小を行うことができ便利である。また、図19に示す保存方法は、ホームページ等を保存するのに便利である。
【0083】
ところで、以上のような編集プログラムによって編集され、HDD51等の記録手段に上記図17乃至図19の形式で保存されたデータを読み出し、ディスプレイ55に表示するブラウザについて説明する。
【0084】
先ず、ブラウザの起動について、図20を参照して説明すると、ステップS21において、例えばディスプレイ55に表示されたブラウザを起動するためのアイコンをマウス57bでクリックすると、MPU59は、HDD51よりブラウザのプログラムをRAM52に読み出し、ステップS22に進む。
【0085】
ステップS22において、MPU59は、図21に示す起動画面111をディスプレイ55の画面82略中央に表示させる。このとき、詳細は後述するが、眼鏡制御装置6は、この起動画面111の信号を検出して、シャッタ眼鏡4の右眼用レンズ部4aと左眼用レンズ部4bのオンオフを制御する。
【0086】
ステップS24において、MPU59は、ディスプレイ55の画面82にブラウザ112を表示する。すなわち、VRAM56は、メモリ部56aからブラウザ112の右眼用画像データをディスプレイ55に出力し、メモリ部56bからブラウザ112の左眼用画像をディスプレイ55に出力する。ディスプレイ55には、ブラウザ112の右眼用画像と左眼用画像が視差を有するようにずらされて交互に表示される。これにより、シャッタ眼鏡4をかけた利用者は、ブラウザ112の画面を立体的に見ることができる。
【0087】
ステップS25において、MPU59は、キーボード57aやマウス57bからなる入力装置57からのコマンドに基づいて、編集する画像データのフォルダ、すなわち図17乃至図19に示すフォルダ91,96,101を開く。ここで、選択されたファイル91,96,101は、JPEG形式に圧縮されていることから、MPU59は、ファイル91,96,101を圧縮/伸長部58で伸長した後、RAM52に読み出し、ディスプレイ55に表示されたブラウザ112上に右眼用切取画像78aと左眼用切取画像78bを視差を有するように交互に表示する。すなわち、VRAM56は、情報ファイル94,98に記録された偶数番目のラインが間引かれた右眼用切取画像データと奇数番目のラインが間引かれた左眼用切取画像データをディスプレイ55に表示する際には、何れのデータが一番目のラインとなるかを示すライン情報に基づいて、先ずメモリ部56aから右眼用切取画像78aの画像データを出力し、次いで、左眼用切取画像78bの画像データをメモリ部56bから出力し、以後これを繰り返すことによってディスプレイ55に立体画像78を表示する。したがって、右眼用切取画像78aと左眼用切取画像78bは、シャッタ眼鏡4をかけた利用者から見て、立体的に表示された枠体113の中に更に立体的に表示されることになる。このように、立体的な枠体113の中に更に立体的な立体画像78を表示するようにすることで、ブラウザ112は、利用者にとって立体画像が見やすくなるようにしている。
【0088】
また、このブラウザ112の終了動作について、図22を参照して説明すると、ステップS31において、ブラウザ112のコーナ部にある「×」印からなる終了指示部114をマウス57bでクリックすると、MPU59は、ブラウザ112の終了動作を開始する。すると、ステップS32において、MPU59は、図21に示すように、ディスプレイ55の画面82の略中央に起動画面111と略同じ終了画面115を表示する。このとき、詳細は後述するが、眼鏡制御装置6は、この終了画面115の信号を検出して、シャッタ眼鏡4の右眼用レンズ部4aと左眼用レンズ部4bを共にオフにする。そして、ステップS33において、MPU59は、ブラウザ112の終了動作を完了する。
【0089】
ところで、ブラウザ112を起動したときには、シャッタ眼鏡4を駆動する必要があり、このため、上記図20に示すステップS22、すなわちディスプレイ55の画面82に起動画面111が表示されているとき、眼鏡制御装置6は、このブラウザ112が起動したかどうかを検出するようにしている。すなわち、ブラウザ112が起動されたとき、図24(A)に示すように、VRAM56は、ディスプレイ55に、起動画面111を表示するための例えば白→黒→白→黒のパターンの映像信号を供給するようにしている。
【0090】
ここで、図7に示す眼鏡制御装置6の検出部61は、白→黒→白→黒のパターンの画像信号を検出し、図20中ステップS25において、最初にメモリ部56aから出力されるブラウザ112の右眼用画像の画像データを出力に合わせて、右眼用画像を利用者が右眼で見ることができようにするため、シャッタ眼鏡4の右眼用レンズ部4aをオフとし、左眼用レンズ部4bをオンとするようにスイッチ64を切り換える。これにより、ディスプレイ55に右眼用画像が表示されているとき、右眼用レンズ部4aが透視状態となり、左眼用レンズ部4bが遮光状態となる。
【0091】
次いで、上述図8に示すように、検出部61は、右眼用画像データの垂直同期信号を検出すると、次に表示されるブラウザ112の左眼用画像データを利用者が左眼で見ることができようにするため、シャッタ眼鏡4の左眼用レンズ部4bをオフとし、右眼用レンズ部4aをオンとするようにスイッチ64を切り換える。これにより、ディスプレイ55に左眼用画像が表示されているとき、左眼用レンズ部4bが透視状態となり、右眼用レンズ部4aが遮光状態となる。以後、このように、右眼用画像78aと左眼用画像78bの切り換えのタイミングに合わせてシャッタ眼鏡4の右眼用レンズ部4aと左眼用レンズ部4bのシャッタの切り換えを行うことで、利用者は、ディスプレイ55に表示されるブラウザ112の画像を立体的に見ることができる。
【0092】
なお、MPU59は、白→黒→白→黒のパターンの映像信号を検出することで、画面82上のブラウザ112が表示されていない領域のアイコン、文字等を視差を有する画像にし、利用者が画面全部に表示されたものを立体的に見ることができるようにしてもよい。これによって、画面全体が立体表示画像となり、右眼用切取画像78aと左眼用切取画像78bとからなる立体画像78が表示されていない領域がちらつくことを防止することができる。このように、白→黒→白→黒のパターンの映像信号は、シャッタ眼鏡4とディスプレイ55に表示される画像とを同期させるための同期信号として用いられるとともに、ブラウザ112が開いたことを検出するための検出信号として用いられている。
【0093】
また、ブラウザ112を終了するとき、シャッタ眼鏡4の駆動を停止する必要があり、このため、上記図23に示すステップS32、すなわちディスプレイ55の画面82に終了画面が表示されているとき、眼鏡制御装置6は、このブラウザ112が終了したかどうかを検出するようにしている。すなわち、ブラウザ112が終了するとき、図24(B)に示すように、VRAM56は、ディスプレイ55に、終了画面115を表示するための例えば白→黒→黒→白のパターンの画像信号を供給するようにしている。
【0094】
ここで、図7に示す眼鏡制御装置6の検出部61は、白→黒→黒→白のパターンの映像信号を検出すると、以降立体画像を見ることができなくなることから、シャッタ眼鏡4の右眼用レンズ部4aと左眼用レンズ部4bを共にオフとし、右眼用レンズ部4aと左眼用レンズ部4bをともに透視状態にする。すなわち、シャッタ眼鏡4をオフにしレンズ部4a,4bを透視状態とすることで、利用者がブラウザ112を起動していないとき、平面的表示を見易くなるようにしている。
【0095】
なお、上述した画面82上のブラウザ112が表示されていない領域のアイコン、文字等を視差を有する画像にし、利用者が画面全部に表示されたものを立体的に見ることができるようにした場合には、この白→黒→黒→白のパターンの映像信号を検出することで、MPU59は、アイコン、文字等を視差を有する画像を止め、ずれのない画像に切り換える。すなわち、白→黒→黒→白のパターンの映像信号は、シャッタ眼鏡4をオフにするための検出信号として用いられるとともに、ブラウザ112が閉じたことを検出するための検出信号として用いられている。
【0096】
以上のように、ブラウザ112では、起動するときに、白→黒→白→黒のパターンの映像信号をVRAM56より出力し、眼鏡制御装置6でこの信号を検出するようにすることで、ディスプレイ55に交互に出力されるブラウザ112の右眼用画像データと左眼用画像データに同期させてシャッタ眼鏡4の右眼用レンズ部4aと左眼用レンズ部4bの液晶シャッタの切り換え制御をすることができる。これによって、例えばディスプレイ55に右眼用画像が表示されているときに、右眼用レンズ部4aが透視状態で左眼用レンズ部4bが透視状態となり、右眼用画像を左眼で見るといった不具合を無くすことができる。また、ブラウザ112では、終了するとき、白→黒→黒→白のパターンの映像信号をVRAM56より出力し、眼鏡検出装置6でこの信号を検出するようにすることで、シャッタ眼鏡4の右眼用レンズ部4aと左眼用レンズ部4bを共にオフとし、右眼用レンズ部4aと左眼用レンズ部4bをともに透視状態にすることで、平面的表示を見易くすることができる。また、起動画面111と終了画面115に以上のような画像信号を用いることで、利用者が目に付くことを防止することができる。
【0097】
なお、ブラウザ112の起動時と終了時の映像信号は、起動時の白→黒→白→黒のパターンや白→黒→黒→白のパターンに限定されるものではなく、目に付きやすくない色のパターンであればどの様な色や組み合わせであってもよい。
【0098】
ところで、第1の立体画像となる立体表示されたブラウザ112上に更に第2の立体画像を重畳してディスプレイ55に表示する場合がある。例えば、図25に示すように、既に切り取られた立体画像をブラウザ112上に貼り付けたり、ブラウザ112上に表示された立体画像78を移動させる場合である。図9及び図25に示すように、水平走査線のデータの偶数番目のラインが間引かれた右眼用切取画像と水平走査線のデータの奇数番目のラインが間引かれた左眼用切取画像とを交互に表示する場合には、ブラウザ112上で立体画像78を貼り付けたり移動したときに、ブラウザ112の右眼用のライン上に立体画像78の左眼用のラインが位置してしまうことがある。すなわち、ブラウザ112が右眼用画像を表示しているときに立体画像78が左眼用画像を表示し、或いは、ブラウザ112が左眼用画像を表示しているときに立体画像78が右眼用画像を表示することになる。この場合、利用者は、立体画像78を立体的に見ることができなくなってしまう。そこで、このブラウザ112は、図25に示すように、立体画像78を移動した際、ブラウザ112のラインと立体画像78のラインとが一致しなかった場合に、垂直方向に立体画像78を1ライン分ずらし、ブラウザ112のラインと立体画像78のラインとが一致するようにしている。
【0099】
具体的に、図26に示すように、ステップS41において、マウス57bにより例えば図25中左上の第1の位置にある立体画像78選択し、図25中右下の第2の位置に立体画像78の移動先を指定し、又は貼り付け先を指定すると、ステップS42において、MPU59は、第1の位置にある立体画像78を第2の位置に移動させ又は立体画像78を貼り付ける。
【0100】
そして、MPU59は、ステップS43において、立体画像78の移動先若しくは貼り付け先である第2の位置において、走査方向の最も上流側の座標A(X,Y)のYがブラウザ112の右眼用の水平走査線のライン上にあるか左眼用の水平走査線のライン上にあるかを検出する。そして、MPU59は、立体画像78の一番目の水平走査線のラインとブラウザ112の水平走査線のラインとが一致しているとき処理を終了し、一致していないときステップS44に進む。すなわち、立体画像78の1番目の水平走査線のラインが右眼用である場合に、Yがブラウザ112の右眼用の水平走査線のライン上にある場合には、ブラウザ112の水平走査線のラインと立体画像78の一番目の水平走査線のラインが一致しているものとして、MPU59は、処理を終了する。また、立体画像78の1番目の水平走査線のラインが右眼用である場合に、Yがブラウザ112の左眼用の水平走査線おライン上にある場合には、ブラウザ112の水平走査線のラインと立体画像78の一番目の水平走査線のラインが一致していないものとして、MPU59は、ステップS44に進む。
【0101】
ステップS44において、MPU59は、上下何れか一方に1ライン分立体画像78を移動する。これにより、MPU59は、立体画像78の一番目の水平走査線のラインとブラウザ112の水平走査線のラインとを一致させ、利用者が立体画像78を立体的に見ることができるようにする。そして、MPU59は、処理を終了する。
【0102】
以上のようにブラウザ112では、立体画像78を移動し、また、立体画像78を貼り付ける場合であっても、常に、立体画像78を画像の枠となるブラウザ112のラインと立体画像78のラインとを一致させることから、利用者は常に立体画像を見ることができる。
【0103】
また、図27に示すように、第1の立体画像となるブラウザ112上に表示された第2の立体画像となる立体画像78を拡大若しくは縮小する場合がある。図9及び図27に示すように、偶数番目の水平走査線のラインが間引かれた右眼用切取画像と奇数番目の水平走査線のラインが間引かれた左眼用切取画像とを交互に表示する場合には、ブラウザ112上で立体画像78を拡大若しくは縮小したときに、ブラウザ112の右眼用の水平走査線のライン上に立体画像78の左眼用の水平走査線のラインが位置してしまうことがある。すなわち、ブラウザ112が右眼用画像を表示しているときに立体画像78が左眼用画像を表示し、或いは、ブラウザ112が左眼用画像を表示しているときに立体画像78が右眼用画像を表示することになる。この場合、利用者は、立体画像78を立体的に見ることができなくなってしまう。そこで、このブラウザ112は、図27に示すように、立体画像78を拡大若しくは縮小した際、ブラウザ112の水平走査線のラインと立体画像78の水平走査線ラインとが一致しなかった場合に、垂直方向に立体画像78を1ライン分ずらし、ブラウザ112のラインと立体画像78のラインとが一致するようにしている。
【0104】
具体的に、図28に示すように、ステップS51において、入力装置57により立体画像78選択し、選択した立体画像78の表示倍率を指定する。そして、MPU59は、ステップS52において、利用者により指定された表示倍率に基づいて、立体画像78を拡大若しくは縮小する。
【0105】
そして、MPU59は、ステップS53において、立体画像78を拡大した画像121a又は縮小した画像121bの走査方向の最も上流側の座標B1(X1,Y1)、B2(X2 ,Y2 )のY1 ,Y2 がブラウザ112の右眼用の水平走査線のライン上にあるか左眼用のライン上にあるかを検出する。そして、MPU59は、画像121a,121bの一番目の水平走査線のラインとブラウザ112の水平走査線のラインとが一致しているとき処理を終了し、一致していないときステップS54に進む。すなわち、画像121a,121bの1番目の水平走査線のラインが右眼用である場合に、Y1 ,Y2 がブラウザ112の右眼用の水平走査線のライン上にある場合には、ブラウザ112のラインと立体画像78の一番目の水平走査線のラインが一致しているものとして、MPU59は、処理を終了する。また、立体画像78の1番目の水平走査線のラインが右眼用である場合に、Y1 ,Y2 がブラウザ112の左眼用の水平走査線のライン上にある場合には、ブラウザ112のラインと立体画像78の一番目の水平走査線のラインが一致していないものとして、MPU59は、ステップS44に進む。
【0106】
ステップS54において、MPU59は、上下何れか一方に1ライン分画像121a,121bを移動し、画像121a,121bの一番目の水平走査線のラインとブラウザ112の水平走査線のラインとを一致させる。また、他の方法として、MPU59は、画像121a,121bの一番目の水平走査線のラインとブラウザ112の水平走査線のラインとを一致させるように、利用者が指定した表示倍率に最も近いところで、画像121a,121bを再度拡大又は縮小する。以上のような方法によって、MPU59は、画像121a,121bの一番目のラインとブラウザ112の水平走査線のラインとを一致させ、利用者が拡大若しくは縮小された画像121a,121bを立体的に見ることができるようにする。そして、MPU59は、処理を終了する。
【0107】
以上のようにブラウザ112では、画像121a,121bを拡大又は縮小する場合であっても、常に、画像121a,121bを画像の枠となるブラウザ112のラインと立体画像78のラインとを一致させることから、利用者は常に立体画像を見ることができる。
【0108】
ところで、以上のような右眼用画像41aと左眼用画像41bとからなる画像41を編集するための編集プログラムや、この編集プログラムで編集された画像を見るためのブラウザは、HDD51に記憶保存しておく他、磁気ディスク、光磁気ディスク、光ディスク、半導体メモリ等の記録媒体に記憶保存しておくこともできる。この場合、これらプログラムは、図6に示すように、上記記録媒体がドライブ部131に装着され、入力装置57によって起動する操作がなされると、MPU59は、記録媒体よりバスを介してRAM52に読み出される。そして、上述した処理は、記録媒体より読み出されたプログラムによって処理が実行される。
【0109】
また、これらプログラムは、当該プログラムが記録された磁気ディスク、光磁気ディスク、光ディスク、半導体メモリ等の利用者に提供する提供媒体を介して、ドライブ部131よりHDD51にインストールすることもできる。また、このような提供媒体を介してHDD51にこれらプログラムをインストールする他、ダウンロードサイトから無線又は有線で送受信部132を介してHDD51にインストールすることもできる。
【0110】
次に、以上のように構成された立体画像システム1を用いたネットワークシステム151について、図29を参照して説明する。このネットワークシステム151は、立体画像データを蓄積するサーバ装置152と、サーバ装置152にアクセスして立体画像データをダウンロードする個人端末装置153とを備える。そして、サーバ装置152と複数の個人端末装置153とは、ネットワークを介して接続されている。
【0111】
サーバ装置152は、通常のコンピュータとほぼ同様な構成を有しており、立体画像データ等を蓄積している記憶部161と、全体の動作を制御するプログラム等の各種プログラムが記憶されているリードオンリメモリ(Read-Only Memory,以下、ROMともいう。)162と、ROM162に記録されているプログラム等を一旦読み込むRAM163と、個人端末装置153とデータの送受信を行うための送受信部164と、全体を制御するMPUからなる制御部165とを備える。
【0112】
このようなサーバ装置152は、ROM162からRAM163に全体の動作を制御するプログラムが一旦読み出され、制御部165で実行されることにより装置全体の動作が制御される。サーバ装置152には、記憶部161に、立体画像等で構成されたホームページが開設されており、個人端末装置153からこのホームページにアクセス、すなわち閲覧することができるようになっている。
【0113】
また、個人端末装置153は、上述した制御装置3に相当するものであり、同様な構成を有している。すなわち、図29に示すように、画像41を立体的に表示させるための閲覧検索ソフトウェア(ブラウザ112)や電子メールプログラム等が記録されているHDD51と、HDD51に記録されているアプリケーションプログラム等を一旦読み込むRAM52と、画像41等を表示するためのディスプレイ55と、VRAM56と、入力装置57と、JPEG形式のデータを伸長するとともにデータをJPEG形式に圧縮する圧縮/伸長部58と、全体を制御するMPU59とを備える。
【0114】
この個人端末装置153は、例えば個人の利用者宅に設置されており、変調復調器及び電話回線、ターミナルアダプタ及びISDN(Integrated Services Digital Network)回線、CATV(Cable Television)回線等を介してインターネット154内のプロバイダに接続されている。例えば、サーバ装置152に開設されたホームページを閲覧するときには、利用者が入力装置57を操作して所望のホームページのURL(Uniform Resource Locator)の入力操作を行うと、ブラウザ112、TCP/IPプロトコル(Transmission Control Protocol/Internet Protocol)等が実行され、この結果、個人端末装置153は、インターネット154を介してサーバ装置152にアクセスして、アクセスしたホームページをダウンロードしディスプレイ55に表示する。また、利用者は、この個人端末装置153を使用してインターネット154を介して他の利用者の個人端末装置153に電子メールを送信することができる。
【0115】
また、この個人端末装置153には、図29に示すように、VRAM56とディスプレイ55との間に、ディスプレイ55に表示されている画像を立体的にみるためのシャッタ眼鏡4が眼鏡制御装置6を介して接続されている。したがって、利用者は、このシャッタ眼鏡4をかけることによってホームページに表示された視差を有する画像を立体的に見ることができる。
【0116】
以上のようなネットワークシステム151で利用者が個人端末装置153でサーバ装置152に開設されたホームページを閲覧する場合について説明する。このサーバ装置152には、視差を有する画像として、例えば図19に示すような方法で立体画像用のデータが蓄積されている。この立体画像用のデータは、図19に示すように、偶数番目のラインが間引かれた右眼用切取画像データと奇数番目のラインが間引かれた左眼用切取画像データとが合成された合成画像データが記録される合成画像データファイル102が蓄積されている。このような合成画像データファイル102は、データサイズが小さいことから、サーバ装置152から合成画像データファイル102をダウンロードする時間を短縮することができる。
【0117】
一方、個人端末装置153では、図30に示すステップS61において、図20及び図21に示すように、ホームページを閲覧する場合に、先ず、ディスプレイ55に表示されたブラウザを起動するためのアイコンをマウス57bでクリックすると、MPU59は、HDD51よりブラウザのプログラムをRAM52に読み出し、図21に示す起動画面111をディスプレイ55の画面82に表示する。ここで、図24(A)に示すように、VRAM56は、ディスプレイ55に、起動画面111を表示するための白→黒→白→黒のパターンの映像信号を供給する。眼鏡制御装置6の検出部61は、白→黒→白→黒のパターンの映像信号を検出し、ブラウザ112が起動されたことを検出する。ブラウザ112の起動が終了すると、VRAM56からは、ブラウザ112の右眼用画像データと左眼用画像データが交互に出力され、ディスプレイ55にには、右眼用画像と左眼用画像が交互に視差を有するように表示される。
【0118】
ブラウザ112の起動が終了するのと同時に、眼鏡制御装置6は、ステップS62において、ブラウザ112の右眼用画像が表示されたとき、シャッタ眼鏡4の右眼用レンズ4aを透視状態とし、左眼用レンズ部4bが遮光状態となるように制御し、次いで、ブラウザ112の左眼用画像が表示されたとき、シャッタ眼鏡4の左眼用レンズ4bを透視状態とし、右眼用レンズ部4aが遮光状態となるように制御し、これを繰り返すようにシャッタ眼鏡4を制御する。このように、ブラウザ112の右眼用画像と左眼用画像の切り換えのタイミングに合わせてシャッタ眼鏡4の右眼用レンズ部4aと左眼用レンズ部4bのシャッタの切り換えを行うことで、利用者は、ディスプレイ55に表示されるブラウザ112の画像を立体的に見ることができる。
【0119】
そして、ステップS63において、利用者が入力装置57を操作して所望のホームページのURLの入力操作を行うと、個人端末装置153は、インターネット154を介してサーバ装置152にアクセスして、アクセスしたホームページをダウンロードしディスプレイ55に表示する。また、ホームページに掲載された立体画像を選択し、ダウンロードすることもできる。この選択された画像は、サーバ装置152の記憶部161に図17に示す方法で立体画像データが蓄積されている。図17に示す画像データは、右眼用画像データファイル92と、左眼用画像データファイル93と、これらファイル92,93に関連する情報からなる情報ファイル94とから構成されている。この画像データは、右眼用画像データファイル92と左眼用画像データファイル93があることから、個人端末装置153で、右眼用画像と左眼用画像を拡大若しくは縮小する編集作業を編集プログラムによって行うことができる。
【0120】
以上のようなネットワークシステム151では、サーバ装置152に図17や図19に示す方法で立体画像用の画像データを蓄積し、個人端末装置153側で利用者がシャッタ眼鏡4をかけてディスプレイ55に表示されたホームページを見ることで、ディスプレイ55に表示された画像を立体的に見ることができる。例えば、利用者がインターネット154を介して商品を購入するとき、利用者は商品を立体的に見ることができ、商品を購入するか否かの判断を容易に行うことができるようになる。
【0121】
また、このネットワークシステム151では、個人端末装置153間で電子メールのやり取りを行うこともできる。例えば、上述したディジタルカメラ2にアダプタ5を取り付けて上述した編集処理を行った画像データを電子メールに添付して他の個人端末装置153に送信する場合である。ここで、送信側の個人端末装置153のHDD51に図17に示す方法で画像データが保存されている場合について説明する。この場合、上述したように、フォルダ91には、右眼用切取画像データファイル92と、左眼用切取画像データファイル93と、これらファイル92,93に関連する情報からなる情報ファイル94とが保存されている。
【0122】
送信側となる個人端末装置153は、利用者が入力装置57を操作して、送信先であるサーバ装置152のアドレスにフォルダ91を送信する。これによって、サーバ装置152の記憶部161には、送信されたフォルダ91が蓄積される。この後、受信者となる利用者の個人端末装置153がサーバ装置152のアドレスにアクセスすると、受信者の個人端末装置153は、フォルダ91をダウンロードし、HDD51に蓄積する。
【0123】
受信者側の個人端末装置153では、フォルダ91に保存された画像を見る際に、図21に示す手順でブラウザ112が起動される。そして、受信者である利用者は、受信したファイル91を開き、VRAM56が右眼用切取画像データファイル92と左眼用切取画像データファイル93とを視差を有するように交互にディスプレイ55に表示することによってシャッタ眼鏡4をかけた状態でブラウザ112に表示された画像を立体的に見ることができる。ところで、このフォルダ91には、右眼用切取画像データファイル92と左眼用切取画像データファイル93があることから、利用者は、再度、右眼用切取画像78aと左眼用切取画像78bを拡大若しくは縮小する等の再編集を行うことができる。
【0124】
次に、HDD51に図18に示す方法で画像データが保存されている場合について説明する。この場合、上述したように、フォルダ96には、上記図5に示す右眼用画像41aと左眼用画像41bとからなる画像データからなる画像データファイル97と、この画像データファイル97から右眼用画像78aと右眼用画像78bを生成するための情報からなる情報ファイル98とが保存されている。
【0125】
送信側となる個人端末装置153は、利用者が入力装置57を操作して、サーバ装置152を介して受信者となる利用者の個人端末装置153にフォルダ96に送信する。
【0126】
受信者側の個人端末装置153では、フォルダ96に保存された画像を見る際に、図21に示す手順でブラウザ112が起動される。そして、受信者である利用者は、受信したファイル96を開き、VRAM56が右眼用切取画像データファイル92と左眼用切取画像データファイル93とを視差を有するように交互にディスプレイ55に表示することによってシャッタ眼鏡4をかけた状態でブラウザ112に表示された画像を立体的に見ることができる。ところで、このフォルダ91には、画像データファイル97があることから、利用者は、再度、図10に示すような編集作業、すなわち右眼用画像と左眼用画像の切取等の編集作業を行うことができる。
【0127】
以上のようなネットワークシステム151では、各個人端末装置153が少なくともブラウザ112を有していることで、電子メールに立体画像を添付して、立体画像データのやり取りを行うことができる。
【0128】
以上、画像データをJPEG形式で圧縮して保存等する例に取り説明したが、本発明は、MPEG(motion picture expert group)等の圧縮方式であってもよい。また、以上、静止画の例を説明したが、動画であってもよい。
【0129】
【発明の効果】
本発明に係る立体画像データ生成装置及び立体画像データ生成方法によれば、右眼用画像の切取線で切り取って形成された右眼用画像データのファイルと、左眼用画像の切取線で切り取って形成された左眼用画像データのファイルと、右眼用画像データと左眼用画像データとを表示部に視差を有するように表示するためのクロスポイントの座標情報が記録された情報ファイルとを有することから、利用者は、再度、右眼用画像データと左眼用画像データを拡大若しくは縮小する等の再編集を行うことができる。
【0130】
また、本発明に係る立体画像データ生成装置及び立体画像データ生成方法によれば、入力部より入力された境界部を挟んで右眼用画像と左眼用画像とが並んだ1つの画像データファイルと、1つの画像データファイルから指示手段において指示した一の切取線と他の切取線の位置を示す切取情報と切取情報に従って切り取られた右眼用画像と左眼用画像とを表示部に視差を有するように表示するためのクロスポイントの座標情報が記録された情報ファイルとを有することから、利用者は、画像の切取等の編集作業を行うことができる。
【0131】
更に、本発明に係る立体画像データ生成装置及び立体画像データ生成方法によれば、右眼用画像の切取線で切り取って形成された右眼用画像データのファイルと、左眼用画像の切取線で切り取って形成された左眼用画像データのファイルと、右眼用画像データと左眼用画像データとを表示部に視差を有するように表示するためのクロスポイントの座標情報が記録された情報ファイルとを用いて、立体用画像の読み出しを行うことができるとともに、右眼用画像データの水平走査線のデータと左眼用画像データの水平走査線のデータとが交互に記憶された合成画像データファイルを用いて立体用画像の読み出しを行うことができる。右眼用画像データのファイルと、左眼用画像データのファイルと、右眼用画像データと情報ファイルとを用いて読み出しを行ったときには、画像の切取等の編集作業を行うことができる。
【図面の簡単な説明】
【図1】立体画像表示システムの全体構成を示す図である。
【図2】ディジタルカメラの構成を説明するブロック図である。
【図3】ディジタルカメラの鏡筒に取り付けられるアダプタの斜視図である。
【図4】上記アダプタの構成を説明する図である。
【図5】ディジタルカメラにアダプタを取り付けた際、CCD素子に取り込まれた画像を説明する図である。
【図6】ディジタルカメラで撮影された右眼用画像と左眼用画像とからなる画像データを編集し表示する制御装置のブロック図である。
【図7】シャッタ眼鏡を制御する眼鏡制御装置のブロック図である。
【図8】プログレッシブ方式のときに、シャッタ眼鏡の右眼用レンズ部と左眼用レンズ部の切り換えのタイミングを説明する図である。
【図9】インターレース方式のときに、シャッタ眼鏡の右眼用レンズ部と左眼用レンズ部の切り換えのタイミングを説明する図である。
【図10】画像データを編集処理を説明する図である。
【図11】編集画面を説明する図である。
【図12】プレビューモードを説明する図である。
【図13】プレビューモードにおける画像の表示態様を説明する図である。
【図14】プレービューモードの表示画面を説明する図である。
【図15】プレービューモードの表示画面上にあるポインタや文字の表示方法を説明する図である。
【図16】画像の周囲に立体的な枠を表示する方法を説明する図である。
【図17】画像データの保存形式を説明する図である。
【図18】画像データの保存形式の他の例を説明する図である。
【図19】画像データの保存形式の更に他の例を説明する図である。
【図20】ブラウザの起動手順を説明する図である。
【図21】ブラウザの起動画面を説明する図である。
【図22】ブラウザに画像が表示された状態を示す図である。
【図23】ブラウザを閉じるときの手順を説明する図である。
【図24】ブラウザの起動画面及び終了画面のときの信号を説明する図である。
【図25】ブラウザ上に表示された画像を移動する状態を説明する図である。
【図26】ブラウザ上に表示された画像を移動する手順を説明する図である。
【図27】ブラウザ上に表示された画像を拡大又は縮小する状態を説明する図である。
【図28】ブラウザ上に表示された画像を拡大又は縮小する手順を説明する図である。
【図29】立体画像システムを用いたネットワークシステムを説明する図である。
【図30】ホームページを見るときの手順を説明する図である。
【符号の説明】
1 立体画像システム、2 ディジタルカメラ、3 制御装置、4 シャッタ眼鏡、5 アダプタ、6 眼鏡制御装置
[0001]
BACKGROUND OF THE INVENTION
In the present invention, image data for displaying a right-eye image and a left-eye image with parallax is recorded on the display means. Stereo image data generation apparatus and stereo image data generation method About.
[0002]
[Prior art]
Conventionally, a stereoscopic image display system that displays a two-dimensional image stereoscopically has two cameras for the right eye and the left eye that are fixed to a tripod or the like, separated by a human eye width (about 65 mm). Image data captured by each of the two cameras, an image display device that alternately displays images of these image data so as to have parallax, and an image displayed on the image display device In addition, it is composed of shutter glasses that make one eye invisible.
[0003]
In such a stereoscopic image display system, the two cameras constituting the imaging device are driven in synchronization. The image display device alternately displays the two image data captured by the two cameras. At this time, the image data for the right eye and the image data for the left eye are alternately displayed on the image display device so as to have parallax. In addition, shutter glasses are connected to the image display device. When the right eye image is displayed on the image display device, the shutter glasses put the right eye lens in a see-through state and the left eye lens in a light shielding state. In addition, when the left eye image is displayed on the image display device, the shutter glasses put the left eye lens in a see-through state and the right eye lens in a light shielding state. As described above, in the image display system, the user can view stereoscopically by synchronizing the image displayed on the image display device and the on / off of the pair of left and right lenses of the shutter glasses.
[0004]
[Problems to be solved by the invention]
By the way, in this stereoscopic image display system, as a method for storing the image data for the right eye and the image data for the left eye photographed by two cameras, the horizontal scanning line data of the image data for the right eye and the image for the left eye are used. There is a method of storing the data so that the data of the horizontal scanning lines alternate.
[0005]
However, in such a method, since the image data for the right eye and the image data for the left eye have already been synthesized, editing such as enlarging or reducing the image cannot be performed.
[0006]
Therefore, the present invention records data so that an image for stereoscopic display can be re-edited. Stereo image data generation apparatus and stereo image data generation method The purpose is to provide.
[0007]
[Means for Solving the Problems]
In order to solve the above-described problem, the stereoscopic image data generation device according to the present invention generates a right-eye image captured in substantially the right half of one image sensor and a left-eye image captured in approximately the left half. In addition, an input unit for inputting one image data file in which the right-eye image and the left-eye image are arranged across the boundary, and the right-eye for the boundary input from the input unit A display unit that displays a single image data file in which an image and a left-eye image are arranged, and a single image in which a right-eye image and a left-eye image are arranged across a boundary input from the input unit Split lines at the boundary of the data file Instructions In addition, a predetermined region of one of the right-eye image and the left-eye image displayed on the display unit is formed by one cut line that forms a substantially rectangular shape. Instruction means for instructing, position input means for operating the indicated position of the instruction means, and instruction by the instruction means The other image area of the right-eye image or the left-eye image corresponding to the region that has been made is another cut line that forms a substantially rectangular shape. Control to display, Above right eye image above With tear line The right-eye image data file formed by cutting and the left-eye image With tear line Cross-point coordinate information for displaying the left-eye image data file formed by cutting, the right-eye image data, and the left-eye image data with parallax on the display unit. Record Saved information files in a folder on the recording medium Control device to control With. the above Control device Is The instruction means A predetermined area of one of the right-eye image and the left-eye image displayed on the display unit is defined by the one cut line. Instructions The distance between the dividing line and the line on the dividing line side of one cut line of the one image is such that the side edge on the side opposite to the dividing line of the other image and the line on the side edge side of the other cutting line The other cut line so that it is equal to the distance between display Do To control .
[0008]
Further, in the stereoscopic image data generation method according to the present invention, in order to solve the above-described problem, a right-eye image is captured in a substantially right half of a single image sensor, and a left-eye image is captured in a substantially left half. A step of inputting the generated image data file in which the right-eye image and the left-eye image are arranged across the boundary portion to the input portion; and the boundary portion input from the input portion The step of displaying one image data file in which the image for the right eye and the image for the left eye are arranged on the display unit, and the image for the right eye and the image for the left eye across the boundary input from the input unit Divide lines at the boundary of one image data file Instruction means indicate And steps to The instruction means A predetermined region of one of the right-eye image and the left-eye image displayed on the display unit is formed by one cut line that forms a substantially rectangular shape. Instructing step and the above instruction means The other image area of the right-eye image or the left-eye image corresponding to the region that has been made is another cut line that forms a substantially rectangular shape. Control to display Step and above of the image for the right eye With tear line The right-eye image data file formed by cutting and the left-eye image With tear line Cross-point coordinate information for displaying the left-eye image data file formed by cutting, the right-eye image data, and the left-eye image data with parallax on the display unit. Record Saved information files in a folder on the recording medium To control Steps. The instruction means A predetermined area of one of the right-eye image and the left-eye image displayed on the display unit is defined by the one cut line. Instructions The distance between the dividing line and the line on the dividing line side of one cut line of the one image is such that the side edge on the side opposite to the dividing line of the other image and the line on the side edge side of the other cutting line The other cut line so that it is equal to the distance between display Do To control .
[0009]
Furthermore, in order to solve the above-described problem, the stereoscopic image data generation device according to the present invention captures a right-eye image in approximately the right half of one image sensor, and captures a left-eye image in approximately the left half. An input unit to which one image data file in which the image for the right eye and the image for the left eye are arranged with the boundary portion interposed therebetween is input, and the boundary portion input from the input portion A display unit that displays one image data file in which an image for the right eye and an image for the left eye are arranged, and an image for the right eye and an image for the left eye are arranged across the boundary input from the input unit. Dividing lines at the boundary of one image data file Instructions In addition, a predetermined region of one of the right-eye image and the left-eye image displayed on the display unit is formed by one cut line that forms a substantially rectangular shape. Instruction means for instructing, position input means for operating the indicated position of the instruction means, and instruction by the instruction means The other image area of the right-eye image or the left-eye image corresponding to the region that has been made is another cut line that forms a substantially rectangular shape. Control to display, One image data file in which a right-eye image and a left-eye image are arranged across the boundary input from the input unit, and the one image data file Instruction means In Instructions For displaying the cut-out information indicating the positions of the one cut-out line and the other cut-out line, and the right-eye image and the left-eye image cut according to the cut-out information so as to have parallax on the display unit. Cross point coordinate information Record Saved information files in a folder on the recording medium Control device to control With. the above Control device Is The instruction means A predetermined area of one of the right-eye image and the left-eye image displayed on the display unit is defined by the one cut line. Instructions The distance between the dividing line and the line on the dividing line side of one cut line of the one image is such that the side edge on the side opposite to the dividing line of the other image and the line on the side edge side of the other cutting line. The other cut line so that it is equal to the distance between display Do To control .
[0010]
Furthermore, in order to solve the above-described problem, the stereoscopic image data generation method according to the present invention captures a right-eye image in approximately the right half of one image sensor and captures a left-eye image in approximately the left half. A step of inputting, to the input unit, one image data file in which the right-eye image and the left-eye image are arranged across the boundary, and the boundary input from the input unit And displaying one image data file in which the right-eye image and the left-eye image are arranged on the display unit, and the right-eye image and the left-eye image across the boundary input from the input unit. Divide lines at the boundary of one image data file Instruction means indicate And steps to The instruction means A predetermined region of one of the right-eye image and the left-eye image displayed on the display unit is formed by one cut line that forms a substantially rectangular shape. Instructing step and the above instruction means The other image area of the right-eye image or the left-eye image corresponding to the region that has been formed is another cut line that forms a substantially rectangular shape. Control to display A step, a single image data file in which a right eye image and a left eye image are arranged across the boundary input from the input unit, and the single image data file Instruction means In Instructions For displaying the cut-out information indicating the positions of the one cut-out line and the other cut-out line, and the right-eye image and the left-eye image cut according to the cut-out information so as to have parallax on the display unit. Cross point coordinate information Record Saved information files in a folder on the recording medium To control Steps. The instruction means A predetermined area of one of the right-eye image and the left-eye image displayed on the display unit is defined by the one cut line. Instructions The distance between the dividing line and the line on the dividing line side of one cut line of the one image is such that the side edge on the side opposite to the dividing line of the other image and the line on the side edge side of the other cutting line The other cut line so that it is equal to the distance between display Do To control .
[0011]
Furthermore, in order to solve the above-described problem, the stereoscopic image data generation device according to the present invention captures a right-eye image in approximately the right half of one imaging device and captures a left-eye image in approximately the left half. An input unit to which one image data file in which the image for the right eye and the image for the left eye are arranged is input with the boundary part interposed therebetween, and the boundary part input from the input part A display unit for displaying one image data file in which a right-eye image and a left-eye image are arranged, and a right-eye image and a left-eye image are arranged with a boundary input from the input unit interposed therebetween. Dividing lines at the boundary of one image data file Instructions In addition, a predetermined region of one of the right-eye image and the left-eye image displayed on the display unit is formed by a single cut line that forms a substantially rectangular shape. Instruction means for instructing, position input means for operating the indicated position of the instruction means, and instruction by the instruction means The other image area of the right-eye image or the left-eye image corresponding to the region that has been formed is another cut line that forms a substantially rectangular shape. Control to display, Above right eye image above With tear line The right-eye image data file formed by cutting and the left-eye image With tear line Cross-point coordinate information for displaying the left-eye image data file formed by cutting, the right-eye image data, and the left-eye image data with parallax on the display unit. Record And a composite image data file in which the horizontal scanning line data of the right-eye image data and the horizontal scanning line data of the left-eye image data are alternately stored in a folder of the recording medium. save Control device to control With. the above Control device Is The instruction means A predetermined area of one of the right-eye image and the left-eye image displayed on the display unit is defined by the one cut line. Instructions The distance between the dividing line and the line on the dividing line side of one cut line of the one image is such that the side edge on the side opposite to the dividing line of the other image and the line on the side edge side of the other cutting line The other cut line so that it is equal to the distance between display Do To control .
[0012]
Furthermore, in order to solve the above-described problem, the stereoscopic image data generation method according to the present invention captures a right-eye image in approximately the right half of one image sensor and captures a left-eye image in approximately the left half. A step of inputting, to the input unit, one image data file in which the right-eye image and the left-eye image are arranged across the boundary, and the boundary input from the input unit And displaying one image data file in which the right-eye image and the left-eye image are arranged on the display unit, and the right-eye image and the left-eye image across the boundary input from the input unit. Divide lines at the boundary of one image data file Instruction means indicate And steps to The instruction means A predetermined region of one of the right-eye image and the left-eye image displayed on the display unit is formed by one cut line that forms a substantially rectangular shape. Instructing step and the above instruction means The other image area of the right-eye image or the left-eye image corresponding to the region that has been formed is another cut line that forms a substantially rectangular shape. Control to display Step and above of the image for the right eye With tear line The right-eye image data file formed by cutting and the left-eye image With tear line Cross-point coordinate information for displaying the left-eye image data file formed by cutting, the right-eye image data, and the left-eye image data with parallax on the display unit. Record And a composite image data file in which the horizontal scanning line data of the right-eye image data and the horizontal scanning line data of the left-eye image data are alternately stored in a folder of the recording medium. save To control Steps. The instruction means A predetermined area of one of the right-eye image and the left-eye image displayed on the display unit is defined by the one cut line. Instructions The distance between the dividing line and the line on the dividing line side of one cut line of the one image is such that the side edge on the side opposite to the dividing line of the other image and the line on the side edge side of the other cutting line The other cut line so that it is equal to the distance between display Do To control .
[0013]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, a stereoscopic image display system to which the present invention is applied will be described with reference to the drawings.
[0014]
As shown in FIG. 1, a stereoscopic image display system 1 to which the present invention is applied takes a digital camera 2 for capturing a video and image data generated by the digital camera 2 and performs data processing of the image data. And the control device 3 that displays an image with parallax on the display 55 and the shutter glasses 4 that make each eye invisible according to the image displayed on the display 55. In addition, the digital camera 2 is provided with an adapter 5 for capturing a right-eye image and a left-eye image in a lens barrel having a built-in lens such as an imaging lens and a focus lens. As a result, the right eye image and the left eye image are captured in one CCD element used in the digital camera 2. The control device 3 is supplied with image data including a right-eye image and a left-eye image generated by the digital camera 2. The control device 3 is, for example, for the right eye based on an input signal from the input device 7 including a keyboard 7a as a character input unit, a mouse 7b as a position input unit for operating an indication position of an instruction unit such as a pointer. Cut out the image and the image for the left eye. The control device 3 alternately displays the cut-out image for the right eye and the cut-out image for the left eye on the display 55 such as a CRT (Cathode-Ray Tube) or a liquid crystal display panel. Further, between the control device 3 and the display 55, a glasses control device 6 that controls on / off of the shutter glasses 4 is provided. The shutter glasses 4 include a right-eye lens unit 4a and a left-eye lens unit 4a, and the right-eye lens unit 4a and the left-eye lens unit 4b are configured by a liquid crystal shutter. Such shutter glasses 4 are connected to the glasses control device 6. The shutter glasses 4 open and close the liquid crystal shutters constituting the lens units 4 a and 4 b in synchronization with the right-eye images and the left-eye images displayed alternately on the display 55 under the control of the glasses control device 6. Thereby, the user opens and closes the lens portions 4a and 4b of the shutter glasses 4 according to the cut-out images for the right eye and the cut-out images for the left eye that are alternately displayed on the display 55, so that the display is displayed on the display 55. Images can be viewed stereoscopically.
[0015]
Hereinafter, the digital camera 2, the control device 3, the adapter 5, and the eyeglass control device 6 constituting the stereoscopic image display system 1 as described above will be described with reference to the drawings.
[0016]
The digital camera 2 has a configuration similar to that of a normal digital camera. As shown in FIG. 2, a CCD (Charge Coupled Device) that photoelectrically converts light incident from the imaging lens 11 and generates an imaging signal. An element 12, a CDS / AGC (Correlated Double Sampling / Automatic Gain Control) 13 that removes noise of the imaging signal from the CCD element 12, and an A / D converter 14 that converts the imaging signal from the CDS / AGC 13 into a digital signal And a signal processing unit 15 that performs signal processing corresponding to color coding.
[0017]
The CCD element 12 serving as an image sensor is a two-dimensional color image sensor provided with millions of pixels, and a color coding filter for imaging light of primary colors (R, G, B) or complementary colors (Ye, Cy, Mg). Are converted into color-coded imaging signals and output to the CDS / AGC 13.
[0018]
The CDS / AGC 13 performs correlated double sample hold of the image pickup signal supplied from the CCD element 12, removes reset noise and controls gain, and outputs the result to the A / D converter 14.
[0019]
The A / D converter 14 converts the imaging signal from the CDS / AGC 13 into digital image data. Then, the A / D converter 14 outputs the digitally converted image data to the signal processing unit 15.
[0020]
The signal processing unit 15 performs a decoding process corresponding to the color coding by the color coding filter of the CCD element 12 on the image data from the A / D converter 14, and generates luminance information, color difference information, and the like from the image data.
[0021]
As shown in FIG. 2, the digital camera 2 includes a compression unit 16 that compresses the image data processed by the signal processing unit 15, a memory 17 that stores the image data compressed by the compression unit 16, and A USB (Universal Sirial Bus) interface 18 for transmitting the image data compressed by the compression unit 16 to the control device 3 and an IC card for transmitting the image data to the IC card 8 using a flash memory or the like as a storage medium. Interface 19 and a control unit 20 for controlling the whole.
[0022]
The compression unit 16 compresses the image data signal-processed by the signal processing unit 15 in, for example, JPEG (Joint Photographic Experts Group) format. The compression unit 16 outputs the image data compressed in the JPEG format to the memory 17, and the memory 17 stores the image data compressed in the JPEG format.
[0023]
Further, the USB interface 18 transfers image data compressed in, for example, the JPEG format stored in the memory 17 to the control device 3. The IC card interface 19 transfers image data compressed in, for example, the JPEG format stored in the memory 17 to the card-type IC card 8 serving as an external storage device, to the control device 3.
[0024]
The control unit 20 controls the entire digital camera 2. Specifically, the control unit 20 controls driving of a focus lens, a zoom lens, and the like based on an operation signal from an operation unit (not shown). In addition, the control unit 20 stores the image data compressed in the JPEG format in the memory 17. Further, the control unit 20 directly transfers the compressed image data to the control device 3 via the USB interface 18 without storing the compressed image data in the memory 17, and also the IC card 8 via the IC card interface 19. Remember me.
[0025]
When an image is photographed by the digital camera 2 as described above and this data is recorded in the memory 17, the digital camera 2 photoelectrically converts the light incident from the imaging lens 11 by the CCD element 12, and generates an imaging signal. Is digitally converted by the A / D converter 14 via the CDS / AGC 13 to generate image data, the signal processing unit 15 performs signal processing, the compression unit 16 compresses the image data to the JPEG format, and the memory 17 compresses the image data. Stored image data is stored. In addition, when the JPEG format image data stored in the memory 17 is recorded on the IC card 8, the control unit 20 is connected to the digital camera 2 via the IC card interface 19 in accordance with an operation signal from the operation unit. When recording on the mounted IC card 8 and transferring image data to the control device 3 by USB, the control unit 20 responds to an operation signal from the operation unit via the USB interface 18. Forward to.
[0026]
Incidentally, as shown in FIG. 1, an adapter 5 for capturing an image for the right eye and an image for the left eye is attached to the lens barrel 2 a of the digital camera 2. This adapter 5 is for taking in an image for the right eye and an image for the left eye at the approximate center of one CCD element 12 used in the digital camera 2. As shown in FIGS. 3 and 4, the adapter 5 is provided with first flat mirrors 33 a and 33 b on the inner surfaces of the left and right inclined walls 32 a and 32 b which are the side walls of the outer casing 31. A substantially triangular partition wall 34 is provided in the approximate center of the outer casing 31. One side surface 34 c of the partition wall 34 faces the front surface of the outer casing 31, and forms a right-eye opening 35 a and a left-eye opening 35 b for capturing external light with the outer casing 31. The two side surfaces 34a and 34b adjacent to the one side surface 34c are provided so as to be substantially parallel to the inclined walls 32a and 32b of the outer casing 31, and the two side surfaces 34a and 34b include a first flat plate. Second flat mirrors 36a and 36b are provided so as to substantially face the mirrors 33a and 33b. Further, the back wall 37 of the outer casing 31 has an opening for taking outside light reflected by the first flat mirrors 33 a and 33 b and the second flat mirrors 36 a and 36 b into the lens barrel 2 a of the digital camera 2. A portion 38 is formed.
[0027]
The adapter 5 configured as described above is attached to the distal end side of the lens barrel 2 a so that the opening 38 faces the imaging lens 11 of the digital camera 2. The external light R captured from the right-eye opening 35a and the external light L captured from the left-eye opening 35b are reflected by the first flat mirrors 33a and 33b, and then the second flat mirrors 36a and 36b. And is taken into the CCD element 12 of the digital camera 2 through the imaging lens 11 facing the opening 38. Here, as shown in FIG. 4, the CCD element 12 captures an image having an angle of view of 2θ, where θ is the angle of view at the points 39a and 39b, as shown in FIG. Further, since the distance D between the points 39a and 39b determines the parallax, the distance D is set to 65 mm to 70 mm in accordance with the human eye width. The interval D may be adjusted according to individual differences. Therefore, the CCD element 12 captures the right-eye image and the left-eye image separated from each other in the left-right direction.
[0028]
Here, FIG. 5 is an image captured by the CCD element 12 when the adapter 5 is attached to the digital camera 2. This image 41 is a picture of a woman with a flowerpot placed in front and a background as a mountain. Is. As shown in FIG. 5, the image 41 is provided with a right-eye image 41 a in a substantially right half and a left-eye image 41 b in a substantially left half with a boundary portion 42 as a boundary. Comparing the right-eye image 41a and the left-eye image 41b, for example, the flower 43a and the mountain 44a for the right-eye image 41a are shifted slightly to the left in the figure from the flower 43b and the mountain 44b for the left-eye image 41b. . Thus, the right-eye image 41a and the left-eye image 41b are shifted by the amount of left and right parallax, that is, the interval D. Note that the boundary portion 42 is actually formed as a blurred white line.
[0029]
Therefore, when shooting is performed with the adapter 5 attached to the digital camera 2, the image 41 composed of the right-eye image 41 a and the left-eye image 41 b is taken into one CCD element 12, and this is regarded as one unit. The processed image data is stored in the memory 17 or the IC card 8 and transferred to the control device 3 via the USB interface 18. By using such an adapter 5, in the digital camera 2, the stereoscopic image 41 can be configured by one file, and management can be facilitated. Further, unlike the case where two conventional cameras are used, it is not necessary to provide a timing generator or the like for synchronizing each camera, and the configuration can be simplified. Furthermore, in the digital camera 2 to which the adapter 5 is attached, the left and right images can be simultaneously photographed without using two cameras even when still images are continuously photographed to make a moving image. Furthermore, in the digital camera 2 to which the adapter 5 is attached, it is not necessary to match the optical axes of the two camera lenses, so that a zoom function using a zoom lens can be used.
[0030]
Next, regarding the control device 3 that edits and displays the image data generated by the digital camera 2 to which the adapter 5 as described above is attached, that is, the image 41 composed of the right-eye image 41a and the left-eye image 41b, This will be described with reference to FIG.
[0031]
The control device 3 has substantially the same configuration as that of a normal personal computer. The image data of the image 41 described above, an application program for editing the image data, an application program for displaying the image three-dimensionally, and the like. , A hard disk (hereinafter also referred to as HDD) 51, a random access memory (hereinafter also referred to as RAM) 52 for temporarily reading an application program or the like recorded in the HDD 51, and the above-mentioned. USB interface 53 for data transmission with digital camera 2, IC card interface 54 for reading data recorded on IC card 8, display 55 for displaying images, and image data for display 55 To display An input device 57 including a video random access memory (hereinafter also referred to as VRAM) 56, a keyboard 57a and a mouse 57b for inputting a command for executing an application program, and a JPEG format A compression / decompression unit 58 that decompresses data and compresses the data into a JPEG format, and a microprocessor (Micro Processor Unit, hereinafter also referred to as MPU) 58 that serves as a control unit for controlling the whole are provided.
[0032]
The HDD 51 is edited by an operating system (Operating Systen, hereinafter also referred to as OS), an editing program for editing the image 41 composed of the right-eye image 41a and the left-eye image 41b, and the editing program. A browser for viewing an image, image data including a right-eye image 41a and a left-eye image 41b, and the like are recorded.
[0033]
The RAM 52 reads application programs to be executed and image data to be processed from the HDD 51 or the like. For example, image data composed of a right-eye image 41 a and a left-eye image read from the HDD 51 is a right-eye image and a left-eye image to be displayed on the display 55 from a single image data in the RAM 52. A cutting process is performed to cut out.
[0034]
When the USB interface 53 is connected to the USB interface 18 of the digital camera 2 by USB, the USB interface 53 receives image data compressed by the digital camera 2 by the JPEG method. The image data received by the USB interface 53 is stored in the HDD 51 by the MPU 59.
[0035]
The IC card interface 54 reads out image data of an image photographed by, for example, the digital camera 2 stored in the IC card 8 when the IC card 8 is attached to a drive of the IC card 8 provided in the apparatus main body. The image data read by the USB interface 53 is stored in the HDD 51 by the MPU 59.
[0036]
The display 55 is composed of a CRT or a liquid crystal display panel, and before editing processing, an image 41 in which a right-eye image 41a and a left-eye image 41b as shown in FIG. 5 are arranged in the horizontal direction is displayed. indicate. Further, the right-eye cut image data and the left-eye cut image data that have undergone the cut-out processing of the right-eye image 41a and the left-eye image 41b are alternately displayed so as to have parallax. The display 55 may be a progressive method or an interlace method.
[0037]
The VRAM 56 for displaying an image on the display 55 includes memory units 56a and 56b having a capacity necessary for storing cut image data for one frame. For example, the memory unit 56a stores the right-eye cut image data for one frame, and the memory 56b stores the left-eye cut image data for one frame. Then, the VRAM 56 alternately outputs the cut-out image data for the right eye stored in the memory unit 56a and the cut-out image data for the left eye stored in the memory unit 56b to the display 55.
[0038]
The compression / decompression unit 58 decompresses the compressed image data, for example, when reading the image data compressed in the JPEG format recorded on the IC card 8 into the RAM 52. Further, when storing the edited image data, the compression / decompression unit 58 compresses the image data in the RAM 56 into the JPEG format and stores it in the HDD 51 or the IC card 8.
[0039]
The MPU 59 controls the entire apparatus. For example, the MPU 59 stores the image data read by the USB interface 53 or the IC card interface 54 in the HDD 51. Further, the MPU 59 is processed by the editing program for editing the image 41 composed of the right-eye image 41a and the left-eye image 41b from the HDD 51, the browser for viewing the image edited by this editing program, and these programs. The image data to be read is read into the RAM 52. Then, the MPU 59 performs a cutting process for cutting out the right eye image and the left eye image to be displayed on the display 55 from the read single image data, and the right eye cut image data processed by the RAM 52 is stored in the VRAM 56. Are output to the memory unit 56a, and the cut-out image data for the left eye are output to the memory unit 56b.
[0040]
The control device 3 as described above operates as follows when displaying the image data including the cut-out image for the right eye and the cut-out image for the left eye on the display 55. That is, the MPU 59 decompresses the image data composed of the right-eye image and the left-eye image compressed in the JPEG format from the HDD 51 or the like, and then reads the image data into the RAM 52, from the input device 7 operated by the user. 5 is cut out from the predetermined area of the right eye image 41a and the left eye image 41b shown in FIG. 5, and the cut out right eye cut image data is output to the memory unit 56a of the VRAM 56, and the left eye cut image is output. The data is output to the memory unit 56b. Next, the VRAM 56 alternately outputs cut-out image data for the right eye from the memory unit 56a and cut-out image data for the left eye from the memory unit 56b. Here, each cut-out image data is output to a display 55 of a progressive method in which all of the scanning lines are drawn in order. On the display 55, a cut-out image for the right eye and a cut-out image for the left eye are alternately displayed, and the user wearing the shutter glasses 4 can see the image displayed on the display 55 in a three-dimensional manner.
[0041]
By the way, when the right-eye image and the left-eye image are displayed on the progressive display 55, as shown in FIGS. 1 and 6, the right-eye cut image and the left-eye cut image are displayed for one frame. Is read out from the memory units 56a and 56b of the VRAM 56 and displayed alternately. In the shutter glasses 4, it is necessary to switch the shutters of the right-eye lens unit 4a and the left-eye lens unit 4a in synchronization with this switching. For this reason, a glasses control device 6 for controlling the shutter glasses 4 is attached between the display 55 and the VRAM 56.
[0042]
As shown in FIG. 7, the eyeglass control device 6 outputs the right-eye cut image data and the left-eye cut image data for one frame stored in the memory units 56 a and 56 b of the VRAM 56 to the display 55. A detection unit 61 that detects a vertical synchronization signal of each image data, one is connected to the detection unit 61, and the other is a terminal 62 of the right-eye lens unit 4a of the shutter glasses 4 and a terminal 63 of the left-eye lens unit 4b. And a switch 64 selectively connected to the switch.
[0043]
As shown in FIG. 8A, when the right-eye cut image data and the left-eye cut image data are alternately output from the VRAM 56 to the display 55, the detection unit 61 detects the vertical synchronization signal of each cut image data. Is detected. For example, when the cut-out image data for the right eye is output from the memory unit 56a of the VRAM 56, the detection unit 61 detects a vertical synchronization signal of the cut-out image data. When detecting the vertical synchronization signal of the cut-out image data for the right eye, the detection unit 61 allows the user to view the cut-out image data for the left eye to be displayed next with the left eye, as shown in FIG. 8B. In order to do so, the switch 64 is switched so that the left-eye lens unit 4b of the shutter glasses 4 is turned off and the right-eye lens unit 4a is turned on as shown in FIG. 8C. Thereby, when the cut-out image for the left eye is displayed on the display 55, the left-eye lens unit 4b is in a see-through state, and the right-eye lens unit 4a is in a see-through state.
[0044]
Next, when the detection unit 61 detects the vertical synchronization signal of the currently displayed left-eye cut-out image data, as shown in FIG. 8C, the right-eye cut-out image data to be displayed next is displayed on the user. Is switched off so that the right-eye lens portion 4a of the shutter glasses 4 is turned off and the left-eye lens portion 4b is turned on as shown in FIG. 8B. 64 is switched. Thereby, when the cut-out image for the right eye is displayed on the display 55, the right-eye lens unit 4a is in a see-through state, and the left-eye lens unit 4b is in a see-through state. Thereafter, by switching the shutters of the right-eye lens unit 4a and the left-eye lens unit 4b of the shutter glasses 4 in accordance with the switching timing of the right-eye cut image and the left-eye cut image, as described above, The user can see the image displayed on the display 55 in three dimensions.
[0045]
The case where the interlaced display 55 is used will be described. The memory 56a of the VRAM 56 described above stores the right-eye cut-out image data in the horizontal scanning line data for each line, for example, the right eye in which even-numbered lines are thinned out. Cut-out image data is recorded, and left-eye cut-out image data in which the horizontal scanning line data of the left-eye cut-out image data is thinned out for each line, for example, odd-numbered lines, is recorded in the memory 56b. . Then, from the memory 56a, the cut-out image data for the right eye is output as image data for one field to the display 55, and the cut-out image data for the left eye is output from the memory 56b to the image for the next one field. Output as data. Therefore, as shown in FIG. 9A, the display 55 first displays an image with even-numbered lines thinned out, and then displays an image with odd-numbered lines thinned out.
[0046]
At this time, the glasses control device 6 controls the shutter glasses 4 as follows. That is, as shown in FIG. 9B, when the cut-out image data for the right eye for the first field is output from the memory 56a, the detection unit 61 detects the vertical synchronization signal provided at the end of this field. To do. When detecting the vertical synchronization signal of the cut-out image data for the right eye, the detection unit 61 allows the user to view the cut-out image data for the left eye to be displayed next with the left eye, as shown in FIG. 9C. In order to do so, the switch 64 is switched so that the left-eye lens unit 4b of the shutter glasses 4 is turned off and the right-eye lens unit 4a is turned on as shown in FIG. 9D. Thereby, when the cut-out image for the left eye is displayed on the display 55, the left-eye lens unit 4b is in a see-through state, and the right-eye lens unit 4a is in a light-shielding state.
[0047]
Next, when detecting the vertical synchronization signal of the currently displayed left-eye cut-out image data as shown in FIG. 9B, the detection unit 61 displays the next as shown in FIG. 9D. In order to allow the user to view the cut-out image data for the right eye with the right eye, the right-eye lens unit 4a of the shutter glasses 4 is turned off, and as shown in FIG. The switch 64 is switched so as to turn on the lens unit 4b. Thereby, when the cut-out image for the right eye is displayed on the display 55, the right-eye lens unit 4a is in a see-through state, and the left-eye lens unit 4b is in a see-through state. Thereafter, by switching the shutters of the right-eye lens unit 4a and the left-eye lens unit 4b of the shutter glasses 4 in accordance with the switching timing of the right-eye cut image and the left-eye cut image, as described above, The user can see the image displayed on the display 55 in three dimensions.
[0048]
Even in the case of the progressive method, as described above, for example, right-eye cut-out image data in which even-numbered lines are thinned out is recorded in the memory unit 56a, and odd-numbered lines are thinned out to the left. Cut-out image data for the eye may be recorded. In this case, like the interlace method, the cut-out image for the right eye in which the even-numbered lines are thinned out and the cut-out image for the left eye in which the odd-numbered lines are thinned are alternately displayed on the display 55. Even when the right-eye cut-out image data and the left-eye cut-out image data are output to the VRAM 56 by thinning out the horizontal lines, the CCD element 12 of the digital camera 2 has several million pixels as described above. Since things are used, the user is not made to feel the deterioration of the image quality.
[0049]
Next, processing using the control device 3 for image data captured by attaching the adapter 5 to the digital camera 2 described above, that is, image data editing processing will be described with reference to FIG.
[0050]
First, in step S1, for example, when an icon for starting an editing program displayed on the display 55 is clicked with the mouse 57b, the MPU 59 reads the editing program from the HDD 51 into the RAM 52 and starts it, and the process proceeds to step S2.
[0051]
In step S2, the MPU 59 selects an image data file to be edited based on a command from the input device 57 including the keyboard 57a and the mouse 57b, and opens the selected file. Here, the image data is a file compressed in the JPEG format. Specifically, when the digital camera 2 and the control device 3 are connected by USB, the MPU 59 decompresses the corresponding file from the memory 17 of the digital camera 2 by the compression / decompression unit 58 and then reads the file to the RAM 52. When the IC card 8 is attached to the third drive, the corresponding file is decompressed from the IC card 8 by the compression / decompression unit 58 and read out to the RAM 52. When the corresponding file is recorded in the HDD 51, the file is compressed / compressed by the HDD 51. After decompression by the decompression unit 58, the data is read out to the RAM 52, and the process proceeds to step S3.
[0052]
In step S3, the MPU 59 outputs the read image data once recorded in the RAM 52 to the progressive or interlace display 55 via the VRAM 56, displays the image on the display 55, and proceeds to step S4. In step S3, the display 41 displays the image 41 shown in FIG. That is, on the display 55, the right-eye image 41a and the left-eye image 41b are displayed as one image side by side in the horizontal direction. The right-eye image 41a and the left-eye image 41b are shifted by the amount of left and right parallax. Note that the boundary portion 42 between the right-eye image 41a and the left-eye image 41b is displayed as a slightly blurred white line.
[0053]
In step S4, the MPU 59 displays a dividing line 71 for dividing the image 41 into the right eye image 41a and the left eye image 41 in the vertical direction of the display 55 as shown in FIG. The dividing line 71 is held by the pointer 72 when the mouse 57b is clicked, and is moved so as to overlap the boundary portion 42 of the image 41 with the user's eyes. Accordingly, the MPU 59 divides the image 41 into a right eye image 41a and a left eye image 41b. Thus, the user can easily distinguish the right-eye image 41a and the left-eye image 41b.
[0054]
In step S5, as shown in FIG. 11B, the MPU 59 makes it easy to see the vertical center of the right-eye image 41a and the left-eye image 41b divided by the division line 71 displayed on the display 55. The vertical center line 73a for the right eye image 41a and the vertical center line 73b for the left eye image 41b are displayed. Here, the MPU 59 displays the vertical center line 73a for the right eye image 41a and the vertical center line 73b for the left eye image 41b so that the distance from the division line 71 is equal. The vertical center line 73a for the right-eye image 41a is held by the pointer 72 when the mouse 57b is clicked, and is visually moved to the vertical center desired by the user. The In the same manner, the vertical center line 73b for the left eye image 41b is automatically moved in the same direction by the same amount as the movement amount of the vertical center line 73a for the right eye image 41a. Thus, the MPU 59 makes it easy for the user to see the vertical center of the right eye image 41a and the vertical center of the left eye image 41b, and the set vertical center lines 73a and 73b are used for the right eye in the next step. The image 41a and the left-eye image 41b are used as a guide for the cutting operation.
[0055]
In step S6, the MPU 59 makes it easy to see the horizontal center of the right-eye image 41a and the left-eye image 41b divided by the division line 71 displayed on the display 55, as shown in FIG. The horizontal center line 74 is displayed. Here, the MPU 59 displays the image for the right eye 41a and the image for the left eye 41b at the center in the vertical direction. The horizontal center line 74 is held by the pointer 72 when the mouse 57b is clicked, and is visually moved to the horizontal center desired by the user. Thus, the MPU 59 makes it easy for the user to see the horizontal center of the right-eye image 41a and the left-eye image 41b, and the right-eye image 41a and the left-eye image 41b with the vertical center lines 73a and 73b described above. The center points 75a and 75b are easily identified, and the next step is used as a guide for cutting out the right-eye image 41a and the left-eye image 41b.
[0056]
The center points 75a and 75b can be readjusted. That is, the vertical center lines 73a and 73b can be adjusted by moving the center line 73a for the right-eye image 41a in the horizontal direction again as shown in FIG. Adjustment of 74 can be performed by moving the horizontal center line 74 in the vertical direction, as shown in FIG.
[0057]
In step S <b> 7, the MPU 59 performs a process for cutting out an image desired by the user. Specifically, in the right-eye image 41a, the user determines the start point 76 with the pointer 72 of the mouse 57b with reference to the vertical center line 73a, the horizontal center line 74, and the center point 75a, and the pointer 72 moves in the diagonal direction. Then, as shown in FIG. 11D, a substantially rectangular cut line 77a is displayed in the right eye image 41a. In the same manner, the MPU 59 displays a cut line 77b having the same shape as the cut line 77a in the left-eye image 41b. At this time, the MPU 59 determines that the interval between the dividing line 71 and the line on the dividing line 71 side of the cutoff line 77a is the same as the dividing line 71 of the left-eye image 41b. Opposite side The cut line 77b is displayed so as to be equal to the distance between the side edge of the cut line 77b and the line on the side edge side of the cut line 77b.
[0058]
Thus, the MPU 59 generates image data of the right-eye cut image 78a and image data of the left-eye cut image 78b for stereoscopic display on the display 55. Incidentally, as described above, the user may want to see how the user stereoscopically displays on the display 55 before saving the image data actually cut out in the HDD 51. Therefore, in step S8, the MPU 59 outputs the image data of the right-eye cut image 78a and the image data of the left-eye cut image 78b to the VRAM 56, and activates the preview mode. Details of this preview mode will be described later. In step S <b> 10, the MPU 59 compresses the image data of the right-eye cut image 78 a and the image data of the left-eye cut image 78 b into the JPEG format by the compression / decompression unit 58 and then saves the data in the HDD 51. Details of this storage method will be described later.
[0059]
In the image data editing processing method as described above, a user-desired region is cut out from the image data of the image 41, so that a stereoscopic image that suits the user's preference can be displayed on the display 55. . Further, when editing the image data of the image 41, the vertical center lines 73a and 73b and the horizontal center line 74 are displayed on the display 55, so that the user can easily cut out the image 41. it can.
[0060]
Since the editing operation of the image 41 as described above is performed using the right-eye image 41a, the display unit 55 is used for the editing operation by causing the MPU 59 to automatically recognize the boundary portion 42. Only the right eye image 41a may be displayed.
[0061]
Next, the preview mode in step S8 will be described with reference to FIG. In step S <b> 11, the MPU 59 activates the preview mode based on a command from the input device 57.
[0062]
In step S <b> 12, the MPU 59 displays a display format selection screen on the display 55. Here, as a mode of displaying a stereoscopic image, as shown in FIG. 13A, a substantially rectangular frame 79a having an aspect ratio of 3: 4 and an aspect ratio of 9 as shown in FIG. 16 is a substantially rectangular frame 79b, and as shown in FIG. 13C, there is a substantially circular frame 79c. Then, based on the command from the input device 57 by the user, the MPU 59 selects any one frame 79 from the frames shown in FIGS. 13A to 13C and proceeds to step S13. .
[0063]
In step S13, the output order from the VRAM 56 of the image data of the right-eye cut image 78a and the image data of the left-eye cut image 78b is determined based on the input signal from the input device 57 by the user. Specifically, the output order is to display on the display 55 from the image data of the right-eye cut image 78a or to display on the display 55 from the image data of the left-eye cut image 78b.
[0064]
In step S14, the MPU 59 alternately displays the right-eye cut image 78a and the left-eye cut image 78b so that the display 55 has parallax. Specifically, the MPU 59 outputs the image data of the right-eye cut image 78 a to the memory unit 56 a of the VRAM 56, and outputs the image data of the left-eye cut image 78 b to the memory unit 56 b of the VRAM 56. The VRAM 56 alternately outputs the image data of the right-eye cut image 78a and the image data of the left-eye cut image 78b to the display 55 based on the output order of the image data determined in step S13. In addition, the right-eye cut image 78a and the left-eye cut image 78b are alternately displayed.
[0065]
As a result, as shown in FIG. 14A and FIG. 14B, the cut-out image 78a for the right eye and the cut-out image 78b for the left eye are displayed on the display 55 as being shifted. Specifically, the right-eye cut image 78a and the left-eye cut image 78b displayed on the display 55 are displayed such that the shift amount is 0 at the position of the user's viewpoint, and the shift amount is a position where the shift amount is 0. Are displayed so that the amount of deviation increases in the direction toward the front or the direction toward the back as viewed from the user. Hereinafter, the position where the deviation amount is 0 is referred to as a cross point 81. That is, in the image shown in FIG. 14A, when the position of the person is the cross point 81, the mountain is displayed in a direction that is behind the person and the flower is in front of the person. It is displayed with the direction shifted.
[0066]
Further, as described above, the glasses control device 6 switches the shutters of the right-eye lens unit 4a and the left-eye lens unit 4b in accordance with the output order of the image data in step S13. In this switching, the spectacles control device 6 detects the vertical synchronization signal of the image data of the right-eye cut image 78 a and the image data of the left-eye cut image 78 b by the detection unit 61, and the right-eye image displayed on the display 55 is displayed. The shutter of the right-eye lens unit 4a and the left-eye lens unit 4b of the shutter glasses 4 is switched in accordance with the switching timing of the cut-out image 78a and the left-eye cut-out image 78b. Thereby, the user can see the image displayed on the display 55 in three dimensions. In subsequent steps, the user performs preview mode processing with the shutter glasses 4 on.
[0067]
In step S15, the depth adjustment, that is, the adjustment of the cross point 81 is performed in order to make the stereoscopic image most visible to the user. That is, the MPU 59 displays adjustment buttons 83 and 84 for adjusting the cross point 81 on the screen 82 shown in FIG. Here, the adjustment button 83 is for moving the cross point 81 in front of the plane, that is, horizontally in one direction, and the adjustment button 84 is for moving the cross point 81 in the middle of the screen, that is, horizontally in the other direction. Is for. Since these adjustment buttons 83 and 84 move the cross point 81 in the horizontal direction, they are displayed side by side in the horizontal direction on the screen 82 for easy operation.
[0068]
When the user presses the adjustment button 83 with the input device 57, the MPU 59 moves the cross point 81 forward, that is, in the lower left direction in the screen 82 of FIG. For example, when the cross point 81 moves to the position of the flower, the cut-out image 78a for the right eye and the cut-out image 78b for the left eye at the human position are shifted in one direction on the display 55, and the image at the mountain position is further enlarged. It will be displayed as if it is shifted in one direction. Thereby, it seems to the user wearing the shutter glasses 4 that there is a person in the back and a mountain in the back, based on the flower. When the user presses the adjustment button 84 with the input device 57, the MPU 59 moves the cross point 81 to the back, that is, in the upper right direction in the screen 82 in FIG. For example, when the cross point 81 moves to the mountain position, the cut-out image 78a for the right eye and the cut-out image 78b for the left eye at the human position are shifted in the other direction on the display 55, and the image at the flower position is further enlarged. It will be displayed as if it is shifted in the other direction. As a result, it seems to the user that there is a person in front of the mountain and a mountain in front of it. As described above, the user can perform depth adjustment, that is, adjustment of the cross point 81, at a position where the stereoscopic image is most easily seen.
[0069]
In step S <b> 16, vertical adjustment is performed to make it easier for the user to see the stereoscopic image. That is, when the adapter 5 is attached to the digital camera 2 and photographing is performed, the adapter 5 may be attached to the digital camera 2 so that the image 41 shown in FIG. 5 is inclined. It is difficult to view such an inclined image 41 in a three-dimensional manner. Therefore, in this step S16, the MPU 59 displays on the screen 82 adjustment buttons 85 and 86 for adjusting the right-eye cut image 78a and the left-eye cut image 78b in the vertical direction. When the user presses the adjustment button 85 with the input device 57, the MPU 59 shifts the right-eye cut image 78a upward and the left-eye cut image 78b downward. When the user presses the adjustment button 86 with the input device 57, the MPU 59 shifts the right-eye cut image 78a downward and the left-eye cut image 78b upward. As described above, the user can adjust the vertical positions of the right-eye cut-out image 78a and the left-eye cut-out image 78b to the position where the stereoscopic image can be seen most easily. Since the adjustment buttons 85 and 86 move the image in the vertical direction, the adjustment buttons 85 and 86 are displayed side by side in the vertical direction in the screen 82 for easy operation.
[0070]
In the play view mode as described above, the depth and the cross point 81 are adjusted with the adjustment buttons 83 and 84 provided on the screen 82, and the right eye is cut out with the adjustment buttons 85 and 86 provided on the screen 82. Since the vertical adjustment of the image 78a and the left-eye cut-out image 78b can be performed, before the right-eye cut-out image 78a and the left-eye cut-out image 78b are stored in the HDD 51, the user is most stereoscopic. Images can be saved in an easy-to-view state.
[0071]
By the way, as shown in FIG. 15, for example, the input device 57 is configured on the stereoscopic image 78 in which the right-eye cut image 78a and the left-eye cut image 78b are alternately displayed in the above-described play view mode. The pointer 72 of the mouse 57b may be moved. At this time, if the pointer 72 is displayed two-dimensionally, that is, in a display state at the cross point 81, it is difficult for the user to see the pointer 72. Therefore, the MPU 59 shifts the pointer 72 in accordance with the parallax of the position of the pointer 72 on the stereoscopic image 78, that is, the shift amount of the right-eye cut image 78a and the left-eye cut image 78b. That is, as shown in FIG. 15, when the cross point 81 is at a person's position and the pointer 72 is near the back mountain in the stereoscopic image 78, the MPU 59 The pointer 72 is also displayed while being shifted in accordance with the shift amount of the left-eye cutout image 78b. When the pointer 72 is near the flower in the middle of the stereoscopic image 78, the MPU 59 cuts out the right-eye cutout at this position. The pointer 72 is also shifted and displayed in accordance with the shift amount between the image 78a and the left-eye cutout image 78b. Furthermore, when the pointer 72 is at the cross point 81, the MPU 59 displays the two-dimensional image without shifting the pointer 72 because there is no shift between the right-eye cut image 78a and the left-eye cut image 78b. Thus, when the pointer 72 moves on the stereoscopic image 78 for stereoscopic display, the user is always displayed according to the parallax of the image in the background, and the pointer 72 can be viewed stereoscopically. It is possible to prevent the user from seeing the pointer 72.
[0072]
Further, as shown in FIG. 15, when the image 41 is being edited, a character 87 can be input into the image 41. That is, when the position for inputting the character 87 in the stereoscopic image 78 is designated by the pointer 72 of the mouse 57b and the character (for example, “A”) is input by the keyboard 57a, the MPU 59 sets the character at the position in the stereoscopic image 78. 87 is displayed. At this time, the MPU 59 shifts the character 87 in accordance with the parallax on the coordinates where the character 87 on the stereoscopic image 78 is input, that is, the shift amount between the right-eye cut image 78a and the left-eye cut image 78b. indicate. That is, when the cross point 81 is at a person's position and the character 87 is displayed near a mountain in the back of the stereoscopic image 78, the MPU 59 causes the right-eye cut image 78a and the left-eye cut image 78b to be displayed at this position. The character 87 is also displayed so as to be shifted in accordance with the shift amount of the image, and when the character 87 is near the flower in the front of the three-dimensional image 78, the MPU 59 displays the right-eye cut image 78a and the left-eye cut-off at this position. Characters 87 are also shifted and displayed in accordance with the shift amount of the output image 78b. Furthermore, when the character 87 is displayed at the cross point 81, the MPU 59 displays the two-dimensional image without shifting the character 87 because there is no shift between the right-eye cut image 78a and the left-eye cut image 78b. To do. Thus, when the user displays the character 87 on the stereoscopic image 78 that performs stereoscopic display, the character 87 is always displayed in accordance with the parallax of the image in the background, and the character 87 can also be viewed stereoscopically. The character 87 can be prevented from being difficult to see. Further, when the shift amount of the character 87 is matched with the shift amount in the foreground in the image, the character 87 appears to the user as the forefront, and the character 87 can be emphasized.
[0073]
14A, when the right-eye cut image 78a and the left-eye cut image 78b are alternately displayed, the reference plane is the screen 82 of the display 55 or the screen shown in FIG. A frame 79 is formed. That is, the screen 82 and the frame 79 on the screen have a planar display form that does not consider parallax. For this reason, the user who is viewing the stereoscopic image 78 of FIG. 14A wearing the shutter glasses 4 displays the periphery of the stereoscopic image 78 displayed on the screen 82 in a planar manner. It becomes difficult to view the image 78 three-dimensionally. Therefore, a frame 88 having a predetermined width such as a frame is displayed around the stereoscopic image 78 as shown in FIG. When the amount of shift of the frame 88 is the most visible, for example, the same or more than the amount of shift of the flower, the stereoscopic image 78 seems to be displayed stereoscopically on the inside of the frame 88. Can show. In addition, when the amount of shift of the frame 88 is the deepest, for example, the amount of shift of the mountain is equal to or greater than the amount of shift of the mountain, the stereoscopic image 78 seems to have popped out of the frame 88 to the user. Can show. As described above, by providing the frame 88 having a predetermined width around the stereoscopic image 78, the stereoscopic image can be more easily seen by the user.
[0074]
Next, a method for managing the image data of the three-dimensional image 78 composed of the image data of the right-eye cut image 78a and the left-eye cut image 78b edited as described above, that is, in FIG. The method for managing cut image data in step S9 will be described with reference to FIG. When the image data of the right-eye cut image 79a and the image data of the left-eye cut image 79b shown in FIG. 14A are to be saved, first, the save button 89 displayed on the screen 82 with the mouse 57b of the input device 57 or the like. Is pressed. When the save button 89 is pressed by the pointer 72, the MPU 59 saves the image data of the right-eye cut image 79a and the image data of the left-eye cut image 79b on the RAM 52 to the HDD 51 or the IC card 8 via the bus. Specifically, as illustrated in FIG. 17, the MPU 59 includes information including a right-eye cut-out image data file 92, a left-eye cut-out image data file 93, and information relating these files 92 and 93 in the folder 91. Save the file 94.
[0075]
The right-eye cut image data file 92 is image data of the right-eye cut image 78a cut in step S7 in FIG. 10, and this image data is compressed by the compression / expansion unit 58 into the JPEG format. The left-eye cut image data file 93 is image data of the right-eye cut image 78b, and this image data is compressed by the compression / decompression unit 58 in the JPEG format.
[0076]
The information file 94 records the coordinates of the cross point 81 when the right-eye cut image 78a and the left-eye cut image 78b are alternately displayed. As described above, when the cut-out image data for the right eye with the even-numbered lines thinned out and the cut-out image data for the left eye with the odd-numbered lines thinned are displayed on the display 55, Line information indicating whether the data is the first line is recorded. That is, the information file 94 records data necessary for reproducing the stereoscopic image at the time of storage.
[0077]
In the data management method as described above, the right-eye cut-out image data file 92, the left-eye cut-out image data file 93, and the information file 94 are provided separately, so that these data are compressed and decompressed. You can re-edit. That is, since the folder 91 includes the right-eye cut image data file 92 and the left-eye cut image data file 93, the user again stores the right-eye cut image 78a and the left-eye cut image 78b. Re-editing such as enlargement or reduction can be performed.
[0078]
Further, the image data of the right-eye cut image 78a and the image data of the left-eye cut image 78b can be stored as shown in FIG. That is, the folder 96 includes an image data file 97 composed of image data composed of the right eye image 41a and the left eye image 41b shown in FIG. An information file 98 composed of information for generating the eye cut image 78b is recorded. That is, the image data file 97 is obtained by compressing the image data before the editing process shown in FIG. 10 into the JPEG format by the compression / decompression unit 58. Further, the information file 98 is recorded with position data of the dividing line 71, position data of the vertical center lines 73a and 73b, position data of the horizontal center line 74, and position data of the cut lines 77a and 77b shown in FIG. Yes. The information file 96 records the coordinates of the cross point 81 when the right-eye cut image 78a and the left-eye cut image 78b are alternately displayed. Further, when the cut-out image data for the right eye with the even-numbered lines thinned out and the cut-out image data for the left eye with the odd-numbered lines thinned are displayed on the display 55, which data is the first. Line information indicating whether the line is to be recorded is recorded. That is, the information file 98 records data necessary for reproducing the stereoscopic image at the time of storage.
[0079]
In the data management method as described above, the image data composed of the right-eye image 41a and the left-eye image 41b is stored. Therefore, even if this image data is compressed and expanded, the storage method shown in FIG. Further editing operations can be performed. Specifically, in this management method, an editing operation as shown in FIG. 10 is performed, such as reading out the image data file 97 and the information file 98 from the folder 96 and again cutting the image as shown in FIGS. Edit work can be done.
[0080]
Further, the image data of the right-eye cut image 78a and the image data of the left-eye cut image 78b can be stored as follows. That is, this storage method stores composite image data in which the horizontal scanning line data of the image data of the right-eye cut image 78a and the horizontal scanning line data of the image data of the left-eye cut image 78b are alternately stored. As shown in FIG. 19, the folder 101 contains right-eye cut-out image data in which even-numbered lines are thinned out and left-eye cut-out image data in which odd-numbered lines are thinned out. A composite image data file 102 in which the composite image data that has been combined is recorded is recorded.
[0081]
In such a management method, the information file is not provided in the image data management method shown in FIGS. 17 and 18 above, so that re-editing cannot be performed, but the data size can be reduced. it can. In this folder 101, in addition to the composite image data file 102, a cut-out image data file 92 for the right eye, a cut-out image data file 93 for the left eye shown in FIG. An information file 94 composed of information to be stored may be stored. Further, in this folder 101, in addition to the composite image data file 102, an image data file 97 composed of image data composed of the right eye image 41a and the left eye image 41b shown in FIG. You may make it preserve | save the information file 98 which consists of the information for producing | generating the image 78a for right eyes, and the image 78b for right eyes from the file 97. FIG.
[0082]
The different data management methods have been described above with reference to FIGS. 17 to 19, but the control device 3 stores image data in the HDD 51 by any one of the different data management methods illustrated in FIGS. 17 to 19. Alternatively, any one of these methods may be selected and stored in the HDD 51. For example, the saving method shown in FIG. 17 is convenient when the editing operation is interrupted and re-editing is performed. When the saving method shown in FIG. 18 is attached to an email and transmitted to the other party, the other party enlarges the image. It can be reduced and is convenient. Further, the saving method shown in FIG. 19 is convenient for saving a homepage or the like.
[0083]
Now, a browser that reads the data edited by the editing program as described above and saved in the recording means such as the HDD 51 in the format shown in FIGS. 17 to 19 and displays the data on the display 55 will be described.
[0084]
First, the activation of the browser will be described with reference to FIG. 20. In step S 21, for example, when the icon for starting the browser displayed on the display 55 is clicked with the mouse 57 b, the MPU 59 loads the browser program from the HDD 51. The data is read into the RAM 52, and the process proceeds to Step S22.
[0085]
In step S22, the MPU 59 displays the activation screen 111 shown in FIG. At this time, although details will be described later, the eyeglass control device 6 detects the signal on the activation screen 111 and controls on / off of the right-eye lens unit 4a and the left-eye lens unit 4b of the shutter glasses 4.
[0086]
In step S <b> 24, the MPU 59 displays the browser 112 on the screen 82 of the display 55. That is, the VRAM 56 outputs the image data for the right eye of the browser 112 from the memory unit 56 a to the display 55, and outputs the image for the left eye of the browser 112 to the display 55 from the memory unit 56 b. On the display 55, the right-eye image and the left-eye image of the browser 112 are alternately displayed so as to have a parallax. Thereby, the user wearing the shutter glasses 4 can view the screen of the browser 112 in three dimensions.
[0087]
In step S25, the MPU 59 opens the image data folder to be edited, that is, the folders 91, 96, and 101 shown in FIGS. 17 to 19, based on the command from the input device 57 including the keyboard 57a and the mouse 57b. Here, since the selected files 91, 96, 101 are compressed in the JPEG format, the MPU 59 decompresses the files 91, 96, 101 by the compression / decompression unit 58, reads them to the RAM 52, and displays the display 55. The right-eye cut image 78a and the left-eye cut image 78b are alternately displayed on the browser 112 displayed in FIG. That is, the VRAM 56 displays on the display 55 the right-eye cut image data in which the even-numbered lines recorded in the information files 94 and 98 are thinned and the left-eye cut-out image data in which the odd-numbered lines are thinned. In this case, based on the line information indicating which data is the first line, first, the image data of the right-eye cut image 78a is output from the memory unit 56a, and then the left-eye cut image 78b. The image data is output from the memory unit 56b, and thereafter, the three-dimensional image 78 is displayed on the display 55 by repeating this. Therefore, the right-eye cut image 78a and the left-eye cut image 78b are displayed further three-dimensionally in the three-dimensional frame 113 as viewed from the user wearing the shutter glasses 4. Become. In this way, by further displaying the stereoscopic image 78 in the stereoscopic frame 113, the browser 112 makes it easy for the user to see the stereoscopic image.
[0088]
Further, the termination operation of the browser 112 will be described with reference to FIG. 22. When the termination instruction unit 114 consisting of “X” in the corner portion of the browser 112 is clicked with the mouse 57b in step S31, the MPU 59 The termination operation of the browser 112 is started. Then, in step S32, the MPU 59 displays an end screen 115 that is substantially the same as the start screen 111 in the approximate center of the screen 82 of the display 55, as shown in FIG. At this time, although details will be described later, the spectacles control device 6 detects the signal on the end screen 115 and turns off both the right-eye lens unit 4a and the left-eye lens unit 4b of the shutter glasses 4. In step S33, the MPU 59 completes the end operation of the browser 112.
[0089]
By the way, when the browser 112 is activated, the shutter glasses 4 need to be driven. For this reason, when the activation screen 111 is displayed on the screen 82 of step S22 shown in FIG. 6 detects whether the browser 112 is activated. That is, when the browser 112 is activated, as shown in FIG. 24A, the VRAM 56 supplies a video signal of, for example, a white → black → white → black pattern for displaying the activation screen 111 on the display 55. Like to do.
[0090]
Here, the detection unit 61 of the spectacles control device 6 shown in FIG. 7 detects an image signal of a white → black → white → black pattern, and in step S25 in FIG. 20, the browser first output from the memory unit 56a. The right eye lens unit 4a of the shutter glasses 4 is turned off so that the user can see the right eye image with the right eye by matching the image data of the right eye image 112 with the output. The switch 64 is switched so that the ophthalmic lens unit 4b is turned on. Thereby, when the right-eye image is displayed on the display 55, the right-eye lens unit 4a is in a see-through state, and the left-eye lens unit 4b is in a light-shielding state.
[0091]
Next, as illustrated in FIG. 8 described above, when the detection unit 61 detects the vertical synchronization signal of the right-eye image data, the user views the left-eye image data of the browser 112 displayed next with the left eye. Therefore, the switch 64 is switched so that the left-eye lens portion 4b of the shutter glasses 4 is turned off and the right-eye lens portion 4a is turned on. Thereby, when the image for left eyes is displayed on the display 55, the lens part 4b for left eyes will be in a see-through state, and the lens part 4a for right eyes will be in a light-shielding state. Thereafter, by switching the shutters of the right-eye lens unit 4a and the left-eye lens unit 4b of the shutter glasses 4 in accordance with the switching timing of the right-eye image 78a and the left-eye image 78b as described above, The user can view the image of the browser 112 displayed on the display 55 in three dimensions.
[0092]
The MPU 59 detects an image signal of a white → black → white → black pattern, thereby converting an icon, a character, or the like of an area on the screen 82 where the browser 112 is not displayed into an image having parallax. What is displayed on the entire screen may be viewed three-dimensionally. As a result, the entire screen becomes a three-dimensional display image, and it is possible to prevent a region where the three-dimensional image 78 composed of the right-eye cut image 78a and the left-eye cut image 78b is not displayed from flickering. As described above, the video signal of the white → black → white → black pattern is used as a synchronizing signal for synchronizing the shutter glasses 4 and the image displayed on the display 55 and detects that the browser 112 is opened. It is used as a detection signal for
[0093]
Further, when the browser 112 is terminated, the driving of the shutter glasses 4 needs to be stopped. For this reason, when the end screen is displayed on step S32 shown in FIG. The apparatus 6 detects whether or not the browser 112 has been terminated. That is, when the browser 112 ends, as shown in FIG. 24B, the VRAM 56 supplies an image signal of, for example, a white → black → black → white pattern for displaying the end screen 115 on the display 55. I am doing so.
[0094]
Here, when the detection unit 61 of the glasses control device 6 shown in FIG. 7 detects a video signal of a white → black → black → white pattern, a stereoscopic image cannot be seen thereafter, so the right side of the shutter glasses 4 Both the ophthalmic lens unit 4a and the left-eye lens unit 4b are turned off, and both the right-eye lens unit 4a and the left-eye lens unit 4b are made transparent. That is, the shutter glasses 4 are turned off and the lens units 4a and 4b are made transparent so that the planar display can be easily seen when the user does not activate the browser 112.
[0095]
In addition, when the icons, characters, etc. of the area on the screen 82 where the browser 112 is not displayed are changed to an image having parallax so that the user can see what is displayed on the entire screen in three dimensions. In other words, by detecting the video signal of this white → black → black → white pattern, the MPU 59 stops the image having parallax for icons, characters, and the like, and switches to an image without deviation. That is, the video signal of the white → black → black → white pattern is used as a detection signal for turning off the shutter glasses 4 and as a detection signal for detecting that the browser 112 is closed. .
[0096]
As described above, when the browser 112 is activated, the video signal of the white → black → white → black pattern is output from the VRAM 56, and the eyeglass control device 6 detects this signal, whereby the display 55 is displayed. The switching of the liquid-crystal shutters of the right-eye lens unit 4a and the left-eye lens unit 4b of the shutter glasses 4 is controlled in synchronization with the right-eye image data and the left-eye image data of the browser 112 that are alternately output. Can do. Thereby, for example, when the right-eye image is displayed on the display 55, the right-eye lens unit 4a is in a see-through state, the left-eye lens unit 4b is in a see-through state, and the right-eye image is viewed with the left eye. The trouble can be eliminated. When the browser 112 ends, the video signal of the white → black → black → white pattern is output from the VRAM 56 and this signal is detected by the glasses detection device 6, so that the right eye of the shutter glasses 4 can be detected. By turning off both the lens unit 4a for the left eye and the lens unit 4b for the left eye, and making both the lens unit 4a for the right eye and the lens unit 4b for the left eye transparent, it is possible to make the planar display easy to see. Further, by using the image signals as described above for the start screen 111 and the end screen 115, it is possible to prevent the user from seeing.
[0097]
Note that the video signal at the start and end of the browser 112 is not limited to the white → black → white → black pattern or the white → black → black → white pattern at the start, and is not easily noticeable. Any color or combination may be used as long as it is a color pattern.
[0098]
Incidentally, there is a case where a second stereoscopic image is further superimposed on the stereoscopically displayed browser 112 that becomes the first stereoscopic image and displayed on the display 55. For example, as illustrated in FIG. 25, a stereoscopic image that has already been cut out is pasted on the browser 112 or the stereoscopic image 78 displayed on the browser 112 is moved. As shown in FIGS. 9 and 25, a right-eye cut-out image in which even-numbered lines of horizontal scanning line data are thinned out and a left-eye cut-out in which odd-numbered lines of horizontal scanning line data are thinned out. In the case of alternately displaying images, when the stereoscopic image 78 is pasted or moved on the browser 112, the left eye line of the stereoscopic image 78 is positioned on the right eye line of the browser 112. It may end up. That is, the stereoscopic image 78 displays the left-eye image when the browser 112 displays the right-eye image, or the stereoscopic image 78 displays the right-eye when the browser 112 displays the left-eye image. An image for use will be displayed. In this case, the user cannot see the stereoscopic image 78 stereoscopically. Therefore, as shown in FIG. 25, when the browser 112 moves the stereoscopic image 78 and the line of the browser 112 does not match the line of the stereoscopic image 78, the browser 112 converts the stereoscopic image 78 to one line in the vertical direction. The line of the browser 112 and the line of the stereoscopic image 78 are made to coincide with each other.
[0099]
Specifically, as shown in FIG. 26, in step S41, for example, the stereoscopic image 78 at the first position at the upper left in FIG. 25 is selected by the mouse 57b, and the stereoscopic image 78 at the second position at the lower right in FIG. In step S42, the MPU 59 moves the stereoscopic image 78 at the first position to the second position or pastes the stereoscopic image 78.
[0100]
In step S43, the MPU 59 determines that Y at the most upstream coordinate A (X, Y) in the scanning direction is for the right eye of the browser 112 at the second position where the stereoscopic image 78 is moved or pasted. It is detected whether it is on the horizontal scanning line or the horizontal scanning line for the left eye. Then, the MPU 59 ends the process when the first horizontal scanning line of the stereoscopic image 78 matches the horizontal scanning line of the browser 112, and proceeds to step S44 when they do not match. That is, when the first horizontal scanning line of the stereoscopic image 78 is for the right eye and Y is on the horizontal scanning line for the right eye of the browser 112, the horizontal scanning line of the browser 112 is displayed. The MPU 59 finishes the process assuming that the line of the first horizontal scanning line of the stereoscopic image 78 coincides with this line. Further, when the first horizontal scanning line of the stereoscopic image 78 is for the right eye and Y is on the horizontal scanning line for the left eye of the browser 112, the horizontal scanning line of the browser 112 is displayed. The MPU 59 proceeds to step S44 on the assumption that this line does not match the first horizontal scanning line of the stereoscopic image 78.
[0101]
In step S44, the MPU 59 moves the stereoscopic image 78 by one line up or down. As a result, the MPU 59 matches the first horizontal scanning line of the stereoscopic image 78 with the horizontal scanning line of the browser 112 so that the user can view the stereoscopic image 78 stereoscopically. Then, the MPU 59 ends the process.
[0102]
As described above, in the browser 112, even when the stereoscopic image 78 is moved and the stereoscopic image 78 is pasted, the stereoscopic image 78 is always converted into the line of the browser 112 and the stereoscopic image 78 as the image frame. Therefore, the user can always see a stereoscopic image.
[0103]
In addition, as illustrated in FIG. 27, a stereoscopic image 78 that is a second stereoscopic image displayed on the browser 112 that is a first stereoscopic image may be enlarged or reduced. As shown in FIGS. 9 and 27, the right-eye cut-out image in which even-numbered horizontal scanning lines are thinned out and the left-eye cut-out image in which odd-numbered horizontal scanning lines are thinned out alternately. When the stereoscopic image 78 is enlarged or reduced on the browser 112, the horizontal scanning line for the left eye of the stereoscopic image 78 is displayed on the horizontal scanning line for the right eye of the browser 112. May be located. That is, the stereoscopic image 78 displays the left-eye image when the browser 112 displays the right-eye image, or the stereoscopic image 78 displays the right-eye when the browser 112 displays the left-eye image. An image for use will be displayed. In this case, the user cannot see the stereoscopic image 78 stereoscopically. Therefore, as shown in FIG. 27, when the browser 112 enlarges or reduces the stereoscopic image 78, when the horizontal scanning line of the browser 112 does not match the horizontal scanning line of the stereoscopic image 78, The stereoscopic image 78 is shifted by one line in the vertical direction so that the browser 112 line and the stereoscopic image 78 line coincide.
[0104]
Specifically, as shown in FIG. 28, in step S51, a stereoscopic image 78 is selected by the input device 57, and the display magnification of the selected stereoscopic image 78 is designated. In step S52, the MPU 59 enlarges or reduces the stereoscopic image 78 based on the display magnification specified by the user.
[0105]
Then, in step S53, the MPU 59 determines the coordinate B on the most upstream side in the scanning direction of the image 121a obtained by enlarging the stereoscopic image 78 or the reduced image 121b. 1 (X 1 , Y 1 ), B 2 (X 2 , Y 2 Y) 1 , Y 2 Is on the horizontal scanning line for the right eye of the browser 112 or on the line for the left eye. Then, the MPU 59 ends the process when the first horizontal scanning line of the images 121a and 121b matches the horizontal scanning line of the browser 112, and proceeds to step S54 when they do not match. That is, if the first horizontal scanning line of the images 121a and 121b is for the right eye, Y 1 , Y 2 Is on the horizontal scanning line for the right eye of the browser 112, the MPU 59 assumes that the line of the browser 112 and the first horizontal scanning line of the stereoscopic image 78 coincide with each other. finish. In addition, when the line of the first horizontal scanning line of the stereoscopic image 78 is for the right eye, Y 1 , Y 2 Is located on the horizontal scanning line for the left eye of the browser 112, the MPU 59 determines that the line of the browser 112 and the first horizontal scanning line of the stereoscopic image 78 do not coincide with each other in step S44. Proceed to
[0106]
In step S54, the MPU 59 moves the images 121a and 121b by one line up or down, and matches the first horizontal scanning line of the images 121a and 121b with the horizontal scanning line of the browser 112. As another method, the MPU 59 is closest to the display magnification specified by the user so that the first horizontal scanning line of the images 121a and 121b matches the horizontal scanning line of the browser 112. The images 121a and 121b are enlarged or reduced again. By the above method, the MPU 59 matches the first line of the images 121a and 121b with the horizontal scanning line of the browser 112, and the user views the images 121a and 121b enlarged or reduced in three dimensions. To be able to. Then, the MPU 59 ends the process.
[0107]
As described above, in the browser 112, even when the images 121a and 121b are enlarged or reduced, the lines of the browser 112 and the lines of the stereoscopic image 78, which are the frames of the images 121a and 121b, are always matched. Therefore, the user can always see a stereoscopic image.
[0108]
By the way, an editing program for editing the image 41 composed of the right-eye image 41 a and the left-eye image 41 b as described above and a browser for viewing an image edited by the editing program are stored in the HDD 51. In addition, it can be stored and stored in a recording medium such as a magnetic disk, a magneto-optical disk, an optical disk, or a semiconductor memory. In this case, as shown in FIG. 6, these programs are loaded into the RAM 52 from the recording medium via the bus when the recording medium is loaded in the drive unit 131 and the program is activated by the input device 57. It is. And the process mentioned above is performed by the program read from the recording medium.
[0109]
These programs can also be installed in the HDD 51 from the drive unit 131 via a providing medium provided to the user such as a magnetic disk, a magneto-optical disk, an optical disk, or a semiconductor memory in which the program is recorded. In addition to installing these programs in the HDD 51 via such a providing medium, the programs can also be installed in the HDD 51 via a transmission / reception unit 132 from a download site wirelessly or by wire.
[0110]
Next, a network system 151 using the stereoscopic image system 1 configured as described above will be described with reference to FIG. The network system 151 includes a server device 152 that accumulates stereoscopic image data, and a personal terminal device 153 that accesses the server device 152 and downloads stereoscopic image data. The server device 152 and the plurality of personal terminal devices 153 are connected via a network.
[0111]
The server device 152 has substantially the same configuration as a normal computer, and a storage unit 161 that accumulates stereoscopic image data and the like, and a read that stores various programs such as a program that controls the overall operation. An only memory (Read-Only Memory, hereinafter also referred to as ROM) 162, a RAM 163 that once reads a program or the like recorded in the ROM 162, a transmission / reception unit 164 for transmitting / receiving data to / from the personal terminal device 153, and the whole And a control unit 165 composed of an MPU for controlling.
[0112]
In such a server device 152, a program for controlling the entire operation is once read from the ROM 162 to the RAM 163, and is executed by the control unit 165, whereby the operation of the entire device is controlled. In the server device 152, a home page composed of a stereoscopic image or the like is opened in the storage unit 161, and this home page can be accessed, that is, viewed from the personal terminal device 153.
[0113]
The personal terminal device 153 corresponds to the control device 3 described above and has a similar configuration. That is, as shown in FIG. 29, an HDD 51 in which browsing search software (browser 112) for displaying the image 41 in three dimensions, an e-mail program, and the like, and an application program and the like recorded in the HDD 51 are temporarily stored. RAM 52 to be read, display 55 for displaying image 41, VRAM 56, input device 57, compression / decompression unit 58 for decompressing data in JPEG format and compressing the data in JPEG format, and the whole. MPU59.
[0114]
The personal terminal device 153 is installed, for example, in an individual user's house, and is connected to the Internet 154 via a modulator / demodulator and a telephone line, a terminal adapter, an ISDN (Integrated Services Digital Network) line, a CATV (Cable Television) line, and the like. Connected to the provider in For example, when browsing a home page established on the server device 152, if the user operates the input device 57 to input a URL (Uniform Resource Locator) of a desired home page, the browser 112, TCP / IP protocol ( As a result, the personal terminal device 153 accesses the server device 152 via the Internet 154, downloads the accessed home page, and displays it on the display 55. Also, the user can use this personal terminal device 153 to send an e-mail to the personal terminal device 153 of another user via the Internet 154.
[0115]
Further, in this personal terminal device 153, as shown in FIG. 29, shutter glasses 4 for viewing an image displayed on the display 55 in three dimensions are provided between the VRAM 56 and the display 55. Connected through. Therefore, the user can see the image having parallax displayed on the homepage in three dimensions by putting on the shutter glasses 4.
[0116]
A case where a user browses a homepage established in the server device 152 by the personal terminal device 153 in the network system 151 as described above will be described. In the server device 152, stereoscopic image data is stored as an image having parallax, for example, by a method shown in FIG. As shown in FIG. 19, the stereoscopic image data is composed of right-eye cut-out image data with even-numbered lines thinned out and left-eye cut-out image data with odd-numbered lines thinned out. A composite image data file 102 in which the composite image data is recorded is stored. Since the composite image data file 102 has a small data size, the time for downloading the composite image data file 102 from the server device 152 can be shortened.
[0117]
On the other hand, in the personal terminal device 153, when browsing a home page as shown in FIG. 20 and FIG. 21 in step S61 shown in FIG. 30, first, an icon for starting a browser displayed on the display 55 is used as a mouse. When clicked at 57 b, the MPU 59 reads the browser program from the HDD 51 into the RAM 52, and displays the startup screen 111 shown in FIG. 21 on the screen 82 of the display 55. Here, as shown in FIG. 24A, the VRAM 56 supplies a video signal of a white → black → white → black pattern for displaying the activation screen 111 to the display 55. The detection unit 61 of the glasses control device 6 detects a video signal of a white → black → white → black pattern and detects that the browser 112 is activated. When the startup of the browser 112 is completed, the right-eye image data and the left-eye image data of the browser 112 are alternately output from the VRAM 56, and the right-eye image and the left-eye image are alternately displayed on the display 55. Displayed with parallax.
[0118]
Simultaneously with the start of the browser 112, when the right eye image of the browser 112 is displayed in step S <b> 62, the glasses control device 6 sets the right eye lens 4 a of the shutter glasses 4 in a see-through state, and the left eye When the left-eye image of the browser 112 is displayed, the left-eye lens 4b of the shutter glasses 4 is made transparent, and the right-eye lens unit 4a The shutter glasses 4 are controlled so as to be in a light shielding state and to repeat this. As described above, by switching the shutters of the right-eye lens unit 4a and the left-eye lens unit 4b of the shutter glasses 4 in accordance with the switching timing of the right-eye image and the left-eye image of the browser 112, the usage can be performed. The person can view the image of the browser 112 displayed on the display 55 in three dimensions.
[0119]
In step S63, when the user operates the input device 57 to input the URL of a desired home page, the personal terminal device 153 accesses the server device 152 via the Internet 154 to access the accessed home page. Is downloaded and displayed on the display 55. It is also possible to select and download a 3D image posted on the homepage. For the selected image, stereoscopic image data is accumulated in the storage unit 161 of the server device 152 by the method shown in FIG. The image data shown in FIG. 17 includes a right-eye image data file 92, a left-eye image data file 93, and an information file 94 including information related to the files 92 and 93. Since this image data includes a right-eye image data file 92 and a left-eye image data file 93, an editing program for enlarging or reducing the right-eye image and the left-eye image on the personal terminal device 153 Can be done by.
[0120]
In the network system 151 as described above, stereoscopic image data is stored in the server device 152 by the method shown in FIGS. 17 and 19, and the user wears the shutter glasses 4 on the personal terminal device 153 side and displays it on the display 55. By viewing the displayed home page, the image displayed on the display 55 can be viewed three-dimensionally. For example, when a user purchases a product via the Internet 154, the user can view the product in three dimensions and can easily determine whether or not to purchase the product.
[0121]
The network system 151 can also exchange electronic mail between the personal terminal devices 153. For example, the image data obtained by attaching the adapter 5 to the digital camera 2 and performing the editing process described above is attached to an e-mail and transmitted to another personal terminal device 153. Here, a case where image data is stored in the HDD 51 of the personal terminal device 153 on the transmission side by the method shown in FIG. 17 will be described. In this case, as described above, the cut-out image data file 92 for the right eye, the cut-out image data file 93 for the left eye, and the information file 94 including information related to the files 92 and 93 are stored in the folder 91. Has been.
[0122]
In the personal terminal device 153 on the transmission side, the user operates the input device 57 to transmit the folder 91 to the address of the server device 152 that is the transmission destination. As a result, the transmitted folder 91 is accumulated in the storage unit 161 of the server device 152. Thereafter, when the personal terminal device 153 of the user who is the recipient accesses the address of the server device 152, the personal terminal device 153 of the recipient downloads the folder 91 and stores it in the HDD 51.
[0123]
In the personal terminal device 153 on the receiver side, when viewing an image stored in the folder 91, the browser 112 is activated by the procedure shown in FIG. Then, the user who is the receiver opens the received file 91 and the VRAM 56 alternately displays the right-eye cut image data file 92 and the left-eye cut image data file 93 on the display 55 so as to have parallax. As a result, the image displayed on the browser 112 with the shutter glasses 4 on can be viewed three-dimensionally. By the way, since the right-eye cut image data file 92 and the left-eye cut image data file 93 are stored in the folder 91, the user again selects the right-eye cut image 78a and the left-eye cut image 78b. Re-editing such as enlargement or reduction can be performed.
[0124]
Next, a case where image data is stored in the HDD 51 by the method shown in FIG. 18 will be described. In this case, as described above, in the folder 96, the image data file 97 composed of the image data composed of the right eye image 41a and the left eye image 41b shown in FIG. An information file 98 composed of information for generating the image 78a for the right eye and the image 78b for the right eye is stored.
[0125]
The personal terminal device 153 on the transmission side is transmitted to the folder 96 via the server device 152 by the user operating the input device 57 to the personal terminal device 153 of the user serving as the receiver.
[0126]
In the personal terminal device 153 on the receiver side, when viewing an image stored in the folder 96, the browser 112 is activated according to the procedure shown in FIG. Then, the user who is the receiver opens the received file 96 and the VRAM 56 alternately displays the right-eye cut image data file 92 and the left-eye cut image data file 93 on the display 55 so as to have parallax. As a result, the image displayed on the browser 112 with the shutter glasses 4 on can be viewed three-dimensionally. By the way, since there is an image data file 97 in this folder 91, the user again performs an editing operation as shown in FIG. 10, that is, an editing operation such as cutting of the right eye image and the left eye image. be able to.
[0127]
In the network system 151 as described above, since each personal terminal device 153 has at least the browser 112, it is possible to attach a stereoscopic image to an e-mail and exchange stereoscopic image data.
[0128]
The example in which image data is compressed and stored in the JPEG format has been described above, but the present invention may be a compression method such as MPEG (motion picture expert group). In addition, although an example of a still image has been described above, a moving image may be used.
[0129]
【The invention's effect】
According to the stereoscopic image data generation device and the stereoscopic image data generation method according to the present invention, the right-eye image With tear line The right eye image data file formed by cutting and the left eye image file With tear line Cross-point coordinate information for displaying the left-eye image data file, the right-eye image data, and the left-eye image data that are cut and formed so as to have parallax on the display unit. Record Thus, the user can perform re-editing such as enlarging or reducing the right-eye image data and the left-eye image data again.
[0130]
In addition, according to the stereoscopic image data generation device and the stereoscopic image data generation method according to the present invention, one image data file in which the right-eye image and the left-eye image are arranged across the boundary input from the input unit. And from one image data file Instruction means In Instructions Cross point coordinate information for displaying the right eye image and the left eye image cut according to the cut information indicating the positions of the one cut line and the other cut lines and the image for the left eye with parallax on the display unit. Record Therefore, the user can perform editing operations such as image cutting.
[0131]
Furthermore, according to the stereoscopic image data generation device and the stereoscopic image data generation method according to the present invention, With tear line The right eye image data file formed by cutting and the left eye image file With tear line Cross-point coordinate information for displaying the left-eye image data file, the right-eye image data, and the left-eye image data that are cut and formed so as to have parallax on the display unit. Record The stereoscopic image can be read using the information file thus obtained, and the horizontal scanning line data of the right-eye image data and the horizontal scanning line data of the left-eye image data are alternately stored. The three-dimensional image can be read using the synthesized image data file. When reading is performed using the right-eye image data file, the left-eye image data file, the right-eye image data, and the information file, editing operations such as image cutting can be performed.
[Brief description of the drawings]
FIG. 1 is a diagram illustrating an overall configuration of a stereoscopic image display system.
FIG. 2 is a block diagram illustrating a configuration of a digital camera.
FIG. 3 is a perspective view of an adapter attached to a lens barrel of a digital camera.
FIG. 4 is a diagram illustrating the configuration of the adapter.
FIG. 5 is a diagram illustrating an image captured by a CCD element when an adapter is attached to a digital camera.
FIG. 6 is a block diagram of a control device that edits and displays image data composed of a right-eye image and a left-eye image captured by a digital camera.
FIG. 7 is a block diagram of an eyeglass control device that controls shutter eyeglasses.
FIG. 8 is a diagram for explaining the switching timing of the right eye lens unit and the left eye lens unit of the shutter glasses in the progressive method.
FIG. 9 is a diagram for explaining the switching timing of the right eye lens unit and the left eye lens unit of the shutter glasses in the interlace method.
FIG. 10 is a diagram illustrating image data editing processing.
FIG. 11 is a diagram illustrating an editing screen.
FIG. 12 is a diagram illustrating a preview mode.
FIG. 13 is a diagram illustrating an image display mode in a preview mode.
FIG. 14 is a diagram illustrating a display screen in a play view mode.
FIG. 15 is a diagram illustrating a method of displaying a pointer and characters on the display screen in the play view mode.
FIG. 16 is a diagram illustrating a method of displaying a three-dimensional frame around an image.
FIG. 17 is a diagram illustrating a storage format of image data.
FIG. 18 is a diagram illustrating another example of a storage format of image data.
FIG. 19 is a diagram illustrating still another example of the image data storage format.
FIG. 20 is a diagram illustrating a startup procedure of a browser.
FIG. 21 is a diagram illustrating a browser startup screen.
FIG. 22 is a diagram illustrating a state in which an image is displayed on the browser.
FIG. 23 is a diagram illustrating a procedure for closing a browser.
FIG. 24 is a diagram illustrating signals at the time of a browser start screen and an end screen.
FIG. 25 is a diagram illustrating a state in which an image displayed on a browser is moved.
FIG. 26 is a diagram illustrating a procedure for moving an image displayed on a browser.
FIG. 27 is a diagram illustrating a state in which an image displayed on a browser is enlarged or reduced.
FIG. 28 is a diagram illustrating a procedure for enlarging or reducing an image displayed on a browser.
FIG. 29 is a diagram illustrating a network system using a stereoscopic image system.
FIG. 30 is a diagram illustrating a procedure for viewing a home page.
[Explanation of symbols]
1 stereoscopic image system, 2 digital camera, 3 control device, 4 shutter glasses, 5 adapter, 6 eyeglass control device

Claims (12)

1つの撮像素子の略右半分に右眼用画像が取り込まれ、略左半分に左眼用画像が取り込まれて生成された、境界部を挟んで該右眼用画像と該左眼用画像とが並んだ1つの画像データファイルが入力される入力部と、
上記入力部より入力された境界部を挟んで右眼用画像と左眼用画像とが並んだ1つの画像データファイルを表示する表示部と、
上記入力部より入力された境界部を挟んで右眼用画像と左眼用画像とが並んだ1つの画像データファイルの上記境界部に分割ラインを指示するとともに、上記表示部に表示された上記右眼用画像、上記左眼用画像の何れか一方の画像の所定領域を略矩形をなす一の切取線で指示する指示手段と、
上記指示手段の指示位置を操作する位置入力手段と、
上記指示手段で指示された領域に対応した上記右眼用画像、上記左眼用画像の何れか他方の画像の領域を略矩形をなす他の切取線で表示するように制御し、上記右眼用画像の上記切取線で切り取って形成された右眼用画像データのファイルと、上記左眼用画像の上記切取線で切り取って形成された左眼用画像データのファイルと、上記右眼用画像データと上記左眼用画像データとを上記表示部に視差を有するように表示するためのクロスポイントの座標情報が記録された情報ファイルとを記録媒体のフォルダ内に保存するように制御する制御装置とを備え、
上記制御装置は、上記指示手段が上記表示部に表示された上記右眼用画像、上記左眼用画像の何れか一方の画像の所定領域を上記一の切取線で指示したとき、上記分割ラインと該一方の画像の一の切取線の分割ライン側の線との間隔が、上記他方の画像の分割ラインと反対側の側縁と上記他の切取線の該側縁側の線との間隔と等しくなるように、該他の切取線を表示するように制御する立体画像データ生成装置。
The right-eye image and the left-eye image generated by capturing the right-eye image in approximately the right half of one image sensor and generating the left-eye image in approximately the left half, with the boundary portion interposed therebetween. An input unit for inputting one image data file in which
A display unit that displays one image data file in which a right-eye image and a left-eye image are arranged across a boundary input from the input unit;
The dividing line is instructed to the boundary part of one image data file in which the image for the right eye and the image for the left eye are arranged across the boundary part input from the input part, and the above-mentioned display displayed on the display part An instruction means for instructing a predetermined region of one of the right-eye image and the left-eye image with one cut line that forms a substantially rectangular shape ;
Position input means for operating the indicated position of the indicating means;
The right eye image or the left eye image corresponding to the area instructed by the instructing means is controlled so as to display the other image area with another cut line having a substantially rectangular shape. and file of the right-eye image data formed by cutting in the above cutting line of the image, and the file of the image data for the left eye formed by cutting in the above cutting line of the left-eye image, the image data and the for the right eye a left-eye image data and a control unit for controlling to store the folder information file and the recording medium in which the coordinate information of the cross point is recorded for displaying to have parallax on the display unit ,
The control device, when the instruction means that instructs the image for the right eye displayed on the display unit, a predetermined region of one of the images of the left eye image at tear line the one, and the division line The interval between the cut line of one of the one image and the line on the dividing line side is equal to the interval between the side edge opposite to the divided line of the other image and the line on the side edge of the other cut line. And a stereoscopic image data generation device that controls to display the other cut line.
上記指示手段は、上記表示部に表示された、上記右眼用画像の上記切取線で切り取って形成された右眼用画像と上記左眼用画像の上記切取線で切り取って形成された左眼用画像とを水平方向に移動して上記クロスポイントを調整することができ、
上記制御装置は、上記クロスポイントの調整をしたとき、上記情報ファイルに、上記調整後のクロスポイントの座標を記録する請求項1記載の立体画像データ生成装置。
The instruction means is displayed on the display section, the right-eye image of the cutoff line in cut and formed right-eye image and the left eye image of the image for the left eye formed by cutting in the cutting line You can adjust the cross point by moving horizontally with
The stereoscopic image data generation device according to claim 1, wherein when the cross point is adjusted, the control device records the coordinate of the cross point after the adjustment in the information file.
1つの撮像素子の略右半分に右眼用画像が取り込まれ、略左半分に左眼用画像が取り込まれて生成された、境界部を挟んで該右眼用画像と該左眼用画像とが並んだ1つの画像データファイルを入力部に入力するステップと、
上記入力部より入力された境界部を挟んで右眼用画像と左眼用画像とが並んだ1つの画像データファイルを表示部に表示するステップと、
上記入力部より入力された境界部を挟んで右眼用画像と左眼用画像とが並んだ1つの画像データファイルの上記境界部に分割ラインを指示手段が指示するステップと、
上記指示手段が上記表示部に表示された上記右眼用画像、上記左眼用画像の何れか一方の画像の所定領域を略矩形をなす一の切取線で指示するステップと、
上記指示手段で指示された領域に対応した上記右眼用画像、上記左眼用画像の何れか他方の画像の領域を略矩形をなす他の切取線で表示するように制御するステップと、
上記右眼用画像の上記切取線で切り取って形成された右眼用画像データのファイルと、上記左眼用画像の上記切取線で切り取って形成された左眼用画像データのファイルと、上記右眼用画像データと上記左眼用画像データとを上記表示部に視差を有するように表示するためのクロスポイントの座標情報が記録された情報ファイルとを記録媒体のフォルダ内に保存するように制御するステップとを有し、
上記指示手段が上記表示部に表示された上記右眼用画像、上記左眼用画像の何れか一方の画像の所定領域を上記一の切取線で指示したとき、上記分割ラインと該一方の画像の一の切取線の分割ライン側の線との間隔が、上記他方の画像の分割ラインと反対側の側縁と上記他の切取線の該側縁側の線との間隔と等しくなるように、該他の切取線を表示するように制御する立体画像データ生成方法。
The right-eye image and the left-eye image generated by capturing the right-eye image in approximately the right half of one image sensor and generating the left-eye image in approximately the left half, with the boundary portion interposed therebetween. A step of inputting one image data file in which are arranged in the input unit;
Displaying one image data file in which the image for the right eye and the image for the left eye are arranged across the boundary input from the input unit on the display unit;
An instruction means for instructing a dividing line to the boundary portion of one image data file in which the image for the right eye and the image for the left eye are arranged across the boundary portion input from the input portion;
The instruction means instructing a predetermined region of one of the image for the right eye and the image for the left eye displayed on the display unit with one cut line having a substantially rectangular shape ;
Controlling to display the area of the other image of the right-eye image and the left-eye image corresponding to the area instructed by the instructing means with another cutting line having a substantially rectangular shape;
And file of the right-eye image data formed by cutting in the above cutting line of the right-eye image, and the file of the image data for the left eye formed by cutting in the above cutting line of the left-eye image, for the right eye controlling the image data and the left-eye image data to be stored in the folder information file and the recording medium in which the coordinate information of the cross point is recorded for displaying to have parallax on the display unit And
Said indicating means for image the right eye displayed on the display unit, when a predetermined region of one of the images of the left eye image are indicated on the cutting line of the one of the division line and said one of the images The other cut line is equal to the line on the side opposite to the divided line of the other image and the line on the side edge side of the other cut line is equal to the line on the side of the other cut line. A stereoscopic image data generation method for controlling to display a cut line.
上記表示部に表示された、上記右眼用画像の上記切取線で切り取って形成された右眼用画像と上記左眼用画像の上記切取線で切り取って形成された左眼用画像とを水平方向に移動して上記クロスポイントを調整することができ、
上記クロスポイントの調整をしたとき、上記情報ファイルに、上記調整後のクロスポイントの座標を記録する請求項3記載の立体画像データ生成方法。
Displayed on the display unit, and an image for the left eye formed by cutting in the above cutting line of the right-eye image for the right eye are formed by cutting in the above cutting line of the image and the left eye image horizontally You can move and adjust the above crosspoint,
4. The method for generating stereoscopic image data according to claim 3, wherein when the cross point is adjusted, the coordinates of the adjusted cross point are recorded in the information file.
1つの撮像素子の略右半分に右眼用画像が取り込まれ、略左半分に左眼用画像が取り込まれて生成された、境界部を挟んで該右眼用画像と該左眼用画像とが並んだ1つの画像データファイルが入力される入力部と、
上記入力部より入力された境界部を挟んで右眼用画像と左眼用画像とが並んだ1つの画像データファイルを表示する表示部と、
上記入力部より入力された境界部を挟んで右眼用画像と左眼用画像とが並んだ1つの画像データファイルの上記境界部に分割ラインを指示するとともに、上記表示部に表示された上記右眼用画像、上記左眼用画像の何れか一方の画像の所定領域を略矩形をなす一の切取線で指示する指示手段と、
上記指示手段の指示位置を操作する位置入力手段と、
上記指示手段で指示された領域に対応した上記右眼用画像、上記左眼用画像の何れか他方の画像の領域を略矩形をなす他の切取線で表示するように制御し、上記入力部より入力された境界部を挟んで右眼用画像と左眼用画像とが並んだ1つの画像データファイルと、該1つの画像データファイルから上記指示手段において指示した上記一の切取線と上記他の切取線の位置を示す切取情報と該切取情報に従って切り取られた上記右眼用画像と上記左眼用画像とを上記表示部に視差を有するように表示するためのクロスポイントの座標情報が記録された情報ファイルとを記録媒体のフォルダ内に保存するように制御する制御装置とを備え、
上記制御装置は、上記指示手段が上記表示部に表示された上記右眼用画像、上記左眼用画像の何れか一方の画像の所定領域を上記一の切取線で指示したとき、上記分割ラインと該一方の画像の一の切取線の分割ライン側の線との間隔が、上記他方の画像の分割ラインと反対側の側縁と上記他の切取線の該側縁側の線との間隔と等しくなるように、該他の切取線を表示するように制御する立体画像データ生成装置。
The right-eye image and the left-eye image generated by capturing the right-eye image in approximately the right half of one image sensor and generating the left-eye image in approximately the left half, with the boundary portion interposed therebetween. An input unit for inputting one image data file in which
A display unit that displays one image data file in which a right-eye image and a left-eye image are arranged across a boundary input from the input unit;
The dividing line is instructed to the boundary part of one image data file in which the image for the right eye and the image for the left eye are arranged across the boundary part input from the input part, and the above-mentioned display displayed on the display part An instruction means for instructing a predetermined region of one of the right-eye image and the left-eye image with one cut line that forms a substantially rectangular shape ;
Position input means for operating the indicated position of the indicating means;
Control is performed so that the area of the other image of the right-eye image or the left-eye image corresponding to the area instructed by the instructing means is displayed with another cut line having a substantially rectangular shape, from the input unit One image data file in which the image for the right eye and the image for the left eye are arranged across the input boundary, and the one cut line and the other cut line designated by the instruction means from the one image data file Information in which cross-point coordinate information for displaying the right-eye image and the left-eye image clipped according to the cut-out information so as to have parallax on the display unit is recorded. And a control device for controlling the file to be stored in a folder of the recording medium,
The control device, when the instruction means that instructs the image for the right eye displayed on the display unit, a predetermined region of one of the images of the left eye image at tear line the one, and the division line The interval between the cut line of one of the one image and the line on the dividing line side is equal to the interval between the side edge opposite to the divided line of the other image and the line on the side edge of the other cut line. And a stereoscopic image data generation device that controls to display the other cut line.
上記指示手段は、上記表示部に表示された、上記右眼用画像の上記切取線で切り取って形成された右眼用画像と上記左眼用画像の上記切取線で切り取って形成された左眼用画像とを水平方向に移動して上記クロスポイントを調整することができ、
上記制御装置は、上記クロスポイントの調整をしたとき、上記情報ファイルに、上記調整後のクロスポイントの座標を記録する請求項5記載の立体画像データ生成装置。
The instruction means is displayed on the display section, the right-eye image of the cutoff line in cut and formed right-eye image and the left eye image of the image for the left eye formed by cutting in the cutting line You can adjust the cross point by moving horizontally with
6. The stereoscopic image data generation device according to claim 5, wherein when the cross point is adjusted, the control device records the coordinate of the cross point after the adjustment in the information file.
1つの撮像素子の略右半分に右眼用画像が取り込まれ、略左半分に左眼用画像が取り込まれて生成された、境界部を挟んで該右眼用画像と該左眼用画像とが並んだ1つの画像データファイルを入力部に入力するステップと、
上記入力部より入力された境界部を挟んで右眼用画像と左眼用画像とが並んだ1つの画像データファイルを表示部に表示するステップと、
上記入力部より入力された境界部を挟んで右眼用画像と左眼用画像とが並んだ1つの画像データファイルの上記境界部に分割ラインを指示手段が指示するステップと、
上記指示手段が上記表示部に表示された上記右眼用画像、上記左眼用画像の何れか一方の画像の所定領域を略矩形をなす一の切取線で指示するステップと、
上記指示手段で指示された領域に対応した上記右眼用画像、上記左眼用画像の何れか他方の画像の領域を略矩形をなす他の切取線で表示するように制御するステップと、
上記入力部より入力された境界部を挟んで右眼用画像と左眼用画像とが並んだ1つの画像データファイルと、該1つの画像データファイルから上記指示手段において指示した上記一の切取線と上記他の切取線の位置を示す切取情報と該切取情報に従って切り取られた上記右眼用画像と上記左眼用画像とを上記表示部に視差を有するように表示するためのクロスポイントの座標情報が記録された情報ファイルとを記録媒体のフォルダ内に保存するように制御するステップとを有し、
上記指示手段が上記表示部に表示された上記右眼用画像、上記左眼用画像の何れか一方の画像の所定領域を上記一の切取線で指示したとき、上記分割ラインと該一方の画像の一の切取線の分割ライン側の線との間隔が、上記他方の画像の分割ラインと反対側の側縁と上記他の切取線の該側縁側の線との間隔と等しくなるように、該他の切取線を表示するように制御する立体画像データ生成方法。
The right-eye image and the left-eye image generated by capturing the right-eye image in approximately the right half of one image sensor and generating the left-eye image in approximately the left half, with the boundary portion interposed therebetween. A step of inputting one image data file in which are arranged in the input unit;
Displaying one image data file in which the image for the right eye and the image for the left eye are arranged across the boundary input from the input unit on the display unit;
An instruction means for instructing a dividing line to the boundary portion of one image data file in which the image for the right eye and the image for the left eye are arranged across the boundary portion input from the input portion;
The instruction means instructing a predetermined region of one of the image for the right eye and the image for the left eye displayed on the display unit with one cut line having a substantially rectangular shape ;
Controlling to display the area of the other image of the right-eye image and the left-eye image corresponding to the area instructed by the instructing means with another cutting line having a substantially rectangular shape;
One image data file in which the image for the right eye and the image for the left eye are arranged across the boundary input from the input unit , and the one cut line instructed by the instruction means from the one image data file, Cross-point coordinate information for displaying the cut-out information indicating the position of the other cut-out line and the right-eye image and the left-eye image cut in accordance with the cut-out information with parallax on the display unit. and a step of controlling so as to store the recorded information file in the folder of the recording medium,
Said indicating means for image the right eye displayed on the display unit, when a predetermined region of one of the images of the left eye image are indicated on the cutting line of the one of the division line and said one of the images The other cut line is equal to the line on the side opposite to the divided line of the other image and the line on the side edge side of the other cut line is equal to the line on the side of the other cut line. A stereoscopic image data generation method for controlling to display a cut line.
上記表示部に表示された、上記右眼用画像の上記切取線で切り取って形成された右眼用画像と上記左眼用画像の上記切取線で切り取って形成された左眼用画像とを水平方向に移動して上記クロスポイントを調整することができ、
上記クロスポイントの調整をしたとき、上記情報ファイルに、上記調整後のクロスポイントの座標を記録する請求項7記載の立体画像データ生成方法。
Displayed on the display unit, and an image for the left eye formed by cutting in the above cutting line of the right-eye image for the right eye are formed by cutting in the above cutting line of the image and the left eye image horizontally You can move and adjust the above crosspoint,
The stereoscopic image data generation method according to claim 7, wherein when the cross point is adjusted, the coordinates of the adjusted cross point are recorded in the information file.
1つの撮像素子の略右半分に右眼用画像が取り込まれ、略左半分に左眼用画像が取り込まれて生成された、境界部を挟んで該右眼用画像と該左眼用画像とが並んだ1つの画像データファイルが入力される入力部と、
上記入力部より入力された境界部を挟んで右眼用画像と左眼用画像とが並んだ1つの画像データファイルを表示する表示部と、
上記入力部より入力された境界部を挟んで右眼用画像と左眼用画像とが並んだ1つの画像データファイルの上記境界部に分割ラインを指示するとともに、上記表示部に表示された上記右眼用画像、上記左眼用画像の何れか一方の画像の所定領域を略矩形をなす一の切取線で指示する指示手段と、
上記指示手段の指示位置を操作する位置入力手段と、
上記指示手段で指示された領域に対応した上記右眼用画像、上記左眼用画像の何れか他方の画像の領域を略矩形をなす他の切取線で表示するように制御し、上記右眼用画像の上記切取線で切り取って形成された右眼用画像データのファイルと、上記左眼用画像の上記切取線で切り取って形成された左眼用画像データのファイルと、上記右眼用画像データと上記左眼用画像データとを上記表示部に視差を有するように表示するためのクロスポイントの座標情報が記録された情報ファイルと、上記右眼用画像データの水平走査線のデータと上記左眼用画像データの水平走査線のデータとが交互に記憶された合成画像データファイルとを記録媒体のフォルダ内に保存するように制御する制御装置とを備え、
上記制御装置は、上記指示手段が上記表示部に表示された上記右眼用画像、上記左眼用画像の何れか一方の画像の所定領域を上記一の切取線で指示したとき、上記分割ラインと該一方の画像の一の切取線の分割ライン側の線との間隔が、上記他方の画像の分割ラインと反対側の側縁と上記他の切取線の該側縁側の線との間隔と等しくなるように、該他の切取線を表示するように制御する立体画像データ生成装置。
The right-eye image and the left-eye image generated by capturing the right-eye image in approximately the right half of one image sensor and generating the left-eye image in approximately the left half, with the boundary portion interposed therebetween. An input unit for inputting one image data file in which
A display unit that displays one image data file in which a right-eye image and a left-eye image are arranged across a boundary input from the input unit;
The dividing line is instructed to the boundary part of one image data file in which the image for the right eye and the image for the left eye are arranged across the boundary part input from the input part, and the above-mentioned display displayed on the display part An instruction means for instructing a predetermined region of one of the right-eye image and the left-eye image with one cut line that forms a substantially rectangular shape ;
Position input means for operating the indicated position of the indicating means;
The right eye image or the left eye image corresponding to the area instructed by the instructing means is controlled so as to display the other image area with another cut line having a substantially rectangular shape. and file of the right-eye image data formed by cutting in the above cutting line of the image, and the file of the image data for the left eye formed by cutting in the above cutting line of the left-eye image, the image data and the for the right eye and information file coordinate information of the cross point for displaying the left-eye image data so as to have a parallax on the display unit is recorded, data and the left eye of the horizontal scanning lines of the image data for the right eye A control device for controlling to store a composite image data file in which horizontal scanning line data of image data is alternately stored in a folder of a recording medium,
The control device, when the instruction means that instructs the image for the right eye displayed on the display unit, a predetermined region of one of the images of the left eye image at tear line the one, and the division line The interval between the cut line of one of the one image and the line on the dividing line side is equal to the interval between the side edge opposite to the divided line of the other image and the line on the side edge of the other cut line. And a stereoscopic image data generation device that controls to display the other cut line.
上記指示手段は、上記表示部に表示された、上記右眼用画像の上記切取線で切り取って形成された右眼用画像と上記左眼用画像の上記切取線で切り取って形成された左眼用画像とを水平方向に移動して上記クロスポイントを調整することができ、
上記制御装置は、上記クロスポイントの調整をしたとき、上記情報ファイルに、上記調整後のクロスポイントの座標を記録する請求項9記載の立体画像データ生成装置。
The instruction means is displayed on the display section, the right-eye image of the cutoff line in cut and formed right-eye image and the left eye image of the image for the left eye formed by cutting in the cutting line You can adjust the cross point by moving horizontally with
The stereoscopic image data generation device according to claim 9, wherein when the cross point is adjusted, the control device records the coordinate of the adjusted cross point in the information file.
1つの撮像素子の略右半分に右眼用画像が取り込まれ、略左半分に左眼用画像が取り込まれて生成された、境界部を挟んで該右眼用画像と該左眼用画像とが並んだ1つの画像データファイルを入力部に入力するステップと、
上記入力部より入力された境界部を挟んで右眼用画像と左眼用画像とが並んだ1つの画像データファイルを表示部に表示するステップと、
上記入力部より入力された境界部を挟んで右眼用画像と左眼用画像とが並んだ1つの画像データファイルの上記境界部に分割ラインを指示手段が指示するステップと、
上記指示手段が上記表示部に表示された上記右眼用画像、上記左眼用画像の何れか一方の画像の所定領域を略矩形をなす一の切取線で指示するステップと、
上記指示手段で指示された領域に対応した上記右眼用画像、上記左眼用画像の何れか他方の画像の領域を略矩形をなす他の切取線で表示するように制御するステップと、
上記右眼用画像の上記切取線で切り取って形成された右眼用画像データのファイルと、上記左眼用画像の上記切取線で切り取って形成された左眼用画像データのファイルと、上記右眼用画像データと上記左眼用画像データとを上記表示部に視差を有するように表示するためのクロスポイントの座標情報が記録された情報ファイルと、上記右眼用画像データの水平走査線のデータと上記左眼用画像データの水平走査線のデータとが交互に記憶された合成画像データファイルとを記録媒体のフォルダ内に保存するように制御するステップとを有し、
上記指示手段が上記表示部に表示された上記右眼用画像、上記左眼用画像の何れか一方の画像の所定領域を上記一の切取線で指示したとき、上記分割ラインと該一方の画像の一の切取線の分割ライン側の線との間隔が、上記他方の画像の分割ラインと反対側の側縁と上記他の切取線の該側縁側の線との間隔と等しくなるように、該他の切取線を表示するように制御する立体画像データ生成方法。
The right-eye image and the left-eye image generated by capturing the right-eye image in approximately the right half of one image sensor and generating the left-eye image in approximately the left half, with the boundary portion interposed therebetween. A step of inputting one image data file in which are arranged in the input unit;
Displaying one image data file in which the image for the right eye and the image for the left eye are arranged across the boundary input from the input unit on the display unit;
An instruction means for instructing a dividing line to the boundary portion of one image data file in which the image for the right eye and the image for the left eye are arranged across the boundary portion input from the input portion;
The instruction means instructing a predetermined region of one of the image for the right eye and the image for the left eye displayed on the display unit with one cut line having a substantially rectangular shape ;
Controlling to display the area of the other image of the right-eye image and the left-eye image corresponding to the area instructed by the instructing means with another cutting line having a substantially rectangular shape;
And file of the right-eye image data formed by cutting in the above cutting line of the right-eye image, and the file of the image data for the left eye formed by cutting in the above cutting line of the left-eye image, for the right eye An information file in which coordinate information of cross points for displaying the image data and the image data for the left eye on the display unit so as to have a parallax is recorded ; Controlling to store a composite image data file in which horizontal scanning line data of the left-eye image data is alternately stored in a folder of a recording medium,
Said indicating means for image the right eye displayed on the display unit, when a predetermined region of one of the images of the left eye image are indicated on the cutting line of the one of the division line and said one of the images The other cut line is equal to the line on the side opposite to the divided line of the other image and the line on the side edge side of the other cut line is equal to the line on the side of the other cut line. A stereoscopic image data generation method for controlling to display a cut line.
上記表示部に表示された、上記右眼用画像の上記切取線で切り取って形成された右眼用画像と上記左眼用画像の上記切取線で切り取って形成された左眼用画像とを水平方向に移動して上記クロスポイントを調整することができ、
上記クロスポイントの調整をしたとき、上記情報ファイルに、上記調整後のクロスポイントの座標を記録する請求項11記載の立体画像データ生成方法。
Displayed on the display unit, and an image for the left eye formed by cutting in the above cutting line of the right-eye image for the right eye are formed by cutting in the above cutting line of the image and the left eye image horizontally You can move and adjust the above crosspoint,
12. The method for generating stereoscopic image data according to claim 11, wherein when the cross point is adjusted, the coordinates of the adjusted cross point are recorded in the information file.
JP2000141028A 2000-05-12 2000-05-12 Stereo image data generation apparatus and stereo image data generation method Expired - Fee Related JP4415450B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000141028A JP4415450B2 (en) 2000-05-12 2000-05-12 Stereo image data generation apparatus and stereo image data generation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000141028A JP4415450B2 (en) 2000-05-12 2000-05-12 Stereo image data generation apparatus and stereo image data generation method

Publications (2)

Publication Number Publication Date
JP2001325618A JP2001325618A (en) 2001-11-22
JP4415450B2 true JP4415450B2 (en) 2010-02-17

Family

ID=18648206

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000141028A Expired - Fee Related JP4415450B2 (en) 2000-05-12 2000-05-12 Stereo image data generation apparatus and stereo image data generation method

Country Status (1)

Country Link
JP (1) JP4415450B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4212987B2 (en) * 2003-08-26 2009-01-21 シャープ株式会社 Stereoscopic image display apparatus, stereoscopic image display method, program for causing computer to execute the method, and recording medium recording the program
JP4763087B2 (en) * 2009-09-30 2011-08-31 シャープ株式会社 Information recording medium and information recording / reproducing apparatus
CN102577408B (en) 2009-09-30 2015-04-15 夏普株式会社 Reproduction method using information recording medium, information recording/reproduction device, and 3d conversion unit and information recording device

Also Published As

Publication number Publication date
JP2001325618A (en) 2001-11-22

Similar Documents

Publication Publication Date Title
JP2001326947A (en) Stereoscopic image display device
JP4783465B1 (en) Imaging device and display device
KR100312575B1 (en) Digital camera capable of image processing
JP4590686B2 (en) Stereoscopic image display device
US6549650B1 (en) Processing of image obtained by multi-eye camera
JP5214826B2 (en) Stereoscopic panorama image creation device, stereo panorama image creation method, stereo panorama image creation program, stereo panorama image playback device, stereo panorama image playback method, stereo panorama image playback program, and recording medium
JP2020162139A (en) Imaging apparatus and setting screen of the same
US20110234881A1 (en) Display apparatus
EP2590421B1 (en) Single-lens stereoscopic image capture device
JP4763827B2 (en) Stereoscopic image display device, compound eye imaging device, and stereoscopic image display program
JPWO2012002046A1 (en) Stereoscopic panorama image synthesis device, compound eye imaging device, and stereo panorama image synthesis method
JP4260094B2 (en) Stereo camera
JP3595634B2 (en) Compound eye camera and image processing method
KR101626002B1 (en) A digital photographing apparatus, a method for controlling the same, and a computer-readable storage medium
JP5503438B2 (en) 3D image display apparatus and 3D image display method
JP2001320734A (en) Stereoscopic image display device
JPH10336494A (en) Digital camera with zoom display function
JPH1188912A (en) Compound eye camera and display control method for the compound eye camera
JP4415450B2 (en) Stereo image data generation apparatus and stereo image data generation method
JP2001320733A (en) Stereoscopic image display system, stereoscopic image display device, stereoscopic image display method and storage medium
JP4668602B2 (en) Stereoscopic image generation apparatus and method, and program
JP7460595B2 (en) Image pickup device, image data processing method for image pickup device, and program
JP2005229280A (en) Image processing apparatus and method, and program
JP2007096774A (en) Image display device and program
JPH11146425A (en) Double eye camera, double eye camera system and double eye camera control method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070118

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090511

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090519

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090713

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090818

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20091005

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20091104

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20091117

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121204

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121204

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131204

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees