[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP3412945B2 - Image synthesis device and photographing device - Google Patents

Image synthesis device and photographing device

Info

Publication number
JP3412945B2
JP3412945B2 JP03421495A JP3421495A JP3412945B2 JP 3412945 B2 JP3412945 B2 JP 3412945B2 JP 03421495 A JP03421495 A JP 03421495A JP 3421495 A JP3421495 A JP 3421495A JP 3412945 B2 JP3412945 B2 JP 3412945B2
Authority
JP
Japan
Prior art keywords
image
distance
imaging
optical system
axis
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP03421495A
Other languages
Japanese (ja)
Other versions
JPH08214213A (en
Inventor
光太郎 矢野
克己 飯島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP03421495A priority Critical patent/JP3412945B2/en
Publication of JPH08214213A publication Critical patent/JPH08214213A/en
Application granted granted Critical
Publication of JP3412945B2 publication Critical patent/JP3412945B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Studio Circuits (AREA)
  • Closed-Circuit Television Systems (AREA)

Description

【発明の詳細な説明】 【0001】 【産業上の利用分野】本発明は、複数の画像を合成して
任意のアスペクト比のパノラマ画像を得るようにした画
像合成装置及び撮影装置に関し、特に被写体が近距離か
ら遠距離にかけて広い範囲に分布している場合に被写体
の距離情報を用いて座標変換処理を行うことにより、高
画質の合成画像を得るようにした画像合成装置及び撮影
装置に関するものである。 【0002】 【従来の技術】従来より、テレビ或はビデオの画像のア
スペクト比を換える方式(例えばNTSCの4対3とH
D或はED2の16対9とのコンバージョン)として、
出力時に画像の上下または左右をトリミングする方式が
知られている。 【0003】しかしなから、これらの方式は、撮像した
画像の一部を用いる方式である為、画界が減少してしま
うという欠点があった。 【0004】例えば、16対9のイメージセンサを用い
たHDカメラで撮像した画像情報を、4対3のNTSC
用のモニタで出力する場合、画質的には問題ないが、水
平の画界が1/3も減少してしまう欠点があった。 【0005】該欠点を解決するため本出願人は、特願平
5−223544号において、複数の撮像系で各々、画
界の一部をオーバーラップさせて撮像し、各画像を座標
変換処理して合成することにより、画界の広い画像を得
るようにした複眼撮像装置を提案している。 【0006】同提案では、複数の撮像系を用いて画界の
一部をオーバーラップさせて共通の被写体を撮像する装
置において、該複数の撮像系からの視点の位置ずれ量と
光軸の輻輳角とで視点位置と光軸の方向とが定義される
撮像系を想定し、該仮想の撮像系で撮影されたような、
任意の物体距離及び結像倍率で定義される状態で出力さ
れる一つの画像信号を、合成変換することにより、画質
劣化の少ない、しかも輻輳の際に生じた歪みが補正され
た画像を得るようにしている。 【0007】図10は該複眼撮像装置の撮像系の説明図
であり、2つの撮像系10L,10Rを用いたときの配
置を示している。 【0008】図中、1は撮像系10L,10Rで撮影し
ようとする被写体平面、11L及び11Rは各々等価な
仕様の左側撮像光学系と右側撮像光学系であり、一般的
にはズームレンズが用いられている。 【0009】12L及び12Rは各々等価な仕様の左側
イメージセンサと右側イメージセンサであり、サチコン
等の撮像管又はCCD等の固体撮像素子を用いている。 【0010】LL及びLRは各々、撮像光学系11L,
11Rの光軸、2L,2Rは各々、イメージセンサ12
L,12Rに共役な撮像系10L,10Rの物体面であ
る。 【0011】撮像系10L,10Rは、選定したアスペ
クト比に応じて、各々の画界を所要量オーバーラップす
るように、光軸LL及びLRを同一平面内で被写体面1
の法線O−O′に対して対称にθ程傾斜した状態に配置
されている。(但し、点Oは被写体面1上の点) このとき、2θを輻輳角と称する。また、物体面2L及
び2Rは夫々被写体平面1に対してθ程傾いている。 【0012】点OL及びORは夫々、光軸LL及びLR
と被写体平面1との交点であり、点CL及びCRは夫
々、撮像光学系11L及び11Rの主点(詳しくは被写
体側の主点、以下視点とも称する)である。 【0013】夫々の撮像光学系11L及び11Rには、
変倍レンズ群及び合焦レンズ群があり、これらを駆動す
る駆動系、光軸方向の位置情報を得るためのエンコー
ダ、撮像系を該撮像系の光軸を含む平面内で回転する機
構系、駆動系、そして回転角等を検出するエンコーダ等
が夫々に設けられている。 【0014】そして所望のアスペクト比の画像が得られ
るよう輻輳角制御系が夫々のエンコーダの出力信号に応
じた輻輳角の制御目標値を設定し、輻輳制御を行ってい
る。 【0015】次に画像合成の方法について図10、図3
を用いて説明する。 【0016】図10に示すように、撮像光学系11L及
び11Rの結像倍率をβ、物体距離(OL−CL及びO
R−CRの距離)をzとし、夫々の主点CL、CRは距
離2d(基線長又は視点の位置ずれ量と称する)だけ離
れて配置されている。 【0017】そして被写体面1上から法線O−O′方向
のO′側に向かって距離z′離れた位置に視点をとり、
その視点での仮想的な結像倍率がβ′となるように仮想
的な像面(即ち視点と像面との距離がβ′z′)をとる
とき、第1のイメージセンサ12Lの像面LI、第2の
イメージセンサ11R上の像面RI及び仮想像面ILR
を図3に示している。(但し、図3ではβ<0,β′>
0の時の様子を図示している。) 図3において、点AL,BL,CL,DLは夫々、第1
のイメージセンサ12Lの像面LIの対角上の点であ
り、AR,BR,CR,DRは夫々、第2のイメージセ
ンサ12Rの像面RIの対角上の点である。 【0018】これらの点は夫々、仮想像面ILR上の点
AL′,BL′,CL′,DL′,AR′,BR′,C
R′,DR′に対応している。 【0019】また、点EL,FL,ER,FRは同図に
示すように、像面LI,RIのオーバーラップの中心と
なる上下辺上の点であり、仮想像面ILR上では点
E′,F′に対応し、一致している。 【0020】このとき像面LI,RI,ILRの中心を
夫々原点とし、水平方向をx軸、垂直方向をy軸とし
て、各像面LI,RI,ILRにおける像点の座標を定
義すると、像面LI上の像点(x1,y1)は仮想像面
ILR上で式で表される像点(x1′,y1′)に対
応する。 【0021】 【数2】 同様に像面RI上の像点(x2,y2)は仮想像面IL
R上で式で表される像点(x2′,y2′)に対応す
る。 【0022】 【数3】 従って、,式に示すような幾何変換処理を施し、オ
ーバーラップさせた領域で該複数の画像を合成すること
により、輻輳のある複数のイメージセンサ12L,12
R上の画像を1つの仮想像面ILR上の画像として得ら
れるようにしている。 【0023】この他、特開平5−110926号公報等
では、オーバーラップして撮影した複数の画像を夫々、
座標変換処理し変換後の各画像を合成することにより、
歪曲収差を補正した高精度な画像を得る画像合成装置が
提案されている。 【0024】 【発明が解決しようとする課題】上記特願平5−223
544号において、被写体が広い範囲に分布している場
合、例えば人物等の主要な被写体までの距離と、背景ま
での距離とが著しく異なるとき(以下、距離分布を有す
ると称す)、以下の問題点が生じることがあった。 【0025】例えば、図4に示す物体距離zと異なる距
離に物体Aがあるような場合を想定したとき、,式
の幾何変換処理を行うと、物体距離zと物体Aまでの距
離の差の分だけ仮想像面ILR上での物体Aの位置がズ
レてしまう。 【0026】そこで、物体A上の或る点a1までの距離
をzA、該点の各イメージセンサ12L,12R上での
座標を各々(x1,y1),(x2,y2)としたと
き、位置ズレが発生しない理想的な像点の、仮想像面I
LR上の座標(x1″,y1″),(x2″,y2″)
を求めると、夫々以下に示す,式のようになる。 【0027】 【数4】従って、物体距離zと被写体中の各点までの距離との差
により画像のズレが生じ、そのズレ量が夫々次式のよう
になる。 【0028】 Δx1=x1″−x1′,Δy1=y1″−y1′ Δx2=x2″−x1′,Δy2=y2″−y2′ このため、物体Aの点a1は、例えば図5に示すように
理想的な位置aに対して、x方向にΔx1、Δx2、y
方向にΔy1、Δy2だけズレが生じて、出力画像の画
質が劣化することがあるという問題点があった。本発明
は、複数の画像を座標変換して合成する際、距離情報に
基づいた座標変換を行うことにより、画質劣化が少なく
高精度な画像が得られる画像合成装置及び撮影装置の提
供を目的としている。 【0029】 【課題を解決するための手段】請求項1の発明の撮影装
置は、光学系L1により撮像素子S1上に被写体像を形
成して撮影する第1の撮像系と、光学系L2により撮像
素子S2上に被写体像を形成して撮影する第2の撮像系
と、を有する撮影手段により被写体を、該第1の撮像系
で得られる撮影画像G1と該第2の撮像系から得られる
撮影画像G2の一部がオーバーラップするように撮影
し、画像合成変換処理手段により、該撮影画像G1と該
撮影画像G2とを合成変換処理して1つの出力画像を得
る際、該出力画像に係る倍率β´と物体距離z´とを設
定し、該第1の撮像系の撮影方向と該第2の撮像系
影方向との相対的な傾き角を2θとし、該傾き角2θの
二等分線上に主点Coを定め、該出力画像の座標を、該
出力画像の中心を原点とし所定方向をX′軸、該X′軸
と直交する方向をY′軸としたときの、該座標(X´、
Y′)で示す出力画像上の点に対応する被写体上の点か
ら主点Coまでの距離Zを距離検出部で検出し、該撮影
画像G1の座標を、該撮影画像G1の中心を原点とし
X′軸に相当する方向をXL、該Y′軸に相当する方向
YLで示し、該撮影画像G2の座標を、該撮影画像G
2の中心を原点としX′軸に相当する方向をXR、該
Y′軸に相当する方向をYRで示し、該光学系L1の被
写体側主点と該光学系L2の被写体側主点との距離を2
d、該光学系L1及び該光学系L2の結像倍率をβ、該
光学系L1及び該光学系L2の物体距離をz、としたと
き、該画像合成変換処理手段では座標(X′、Y′)の
画像データを 【数2】を略満足する、座標(XL、YL)及び(XR、YR)
画像データから補間して求めていることを特徴として
いる。 【0030】 【0031】 【0032】 【0033】 【実施例】図1は本発明の実施例1の要部ブロック図、
図2は本実施例における複眼撮影手段の基本配置を示す
説明図である。 【0034】同図において、20は複眼撮影手段であ
り、2つの撮影系10L,10Rを有し、任意のアスペ
クト比の出力画像が得られるよう画界の一部をオーバー
ラップさせて撮影している。 【0035】40は画像合成変換処理手段であり、後述
のように撮影系10L,10Rからの撮影画像を合成変
換し、該合成変換した画像を出力している。 【0036】1は該出力した画像を撮影する撮像系を想
定したときの仮想の物体面である。 【0037】撮影系10L,10Rは、各々等価な仕様
の、左側撮像光学系11L,右側撮像光学系11Rと、
左側イメージセンサ12L,右側イメージセンサ12R
とを有しており、該撮像光学系11L,11Rにはズー
ムレンズを用いている。 【0038】LL及びLRは各々、撮像光学系11L、
11Rの光軸(撮影方向)、2L、2Rは各々、撮像系
10L、10Rの物体面である。そしてCL、CRは夫
々、撮像光学系11L、11Rの主点(詳しくは被写体
側の主点)であり、該主点CL、CRの間隔(基線長)
は2dである。 【0039】複眼撮影手段20には、撮像光学系11
L,11Rの変倍レンズ群及び合焦レンズ群を駆動する
駆動系や、該変倍レンズ群及び合焦レンズ群の光軸方向
の位置情報を得るためのエンコーダ、そして撮像系10
L,10Rを光軸LL,LRを含む平面内で回転する機
構系、駆動系、そして回転角等を検出するエンコーダ等
が設けられている。 【0040】複眼撮影手段20は、撮像系10Lの撮影
方向と撮像系10Rの撮影方向と(図2中、光軸LL,
LRと同じ)が略同一の平面内(水平面内)において相
対的な傾きを有するように配置しており、各撮影方向が
像側の点O′に輻輳するときの、輻輳角(∠CLO′C
R)を、上記各エンコーダからの出力信号に基づき輻輳
角制御系で、所望のアスペクト比の出力画像が得られる
ように制御目標値を設定し、制御を行っている。 【0041】該出力した画像を撮影する撮像系を想定し
たときの仮想の物体面1は輻輳角2θの二等分線O−
O′を法線とする平面(但し点Oは被写体平面1の中心
点)である。そして該点Oから仮想の主点Coまでの距
離をz′、このときの結像倍率をβ′としている。 【0042】21は画像メモリLであり、撮像系10L
からの左画像をデジタル画像データとして記憶しておく
記憶部、同様に22は画像メモリRであり、撮像系10
Rからの右画像をデジタル画像データとして記憶してお
く記憶部である。 【0043】23はパラメータ記憶部であり、複眼撮影
手段20のパラメータである撮像系10L,10Rの基
線長2d、輻輳角θ、結像倍率β及び物体距離z、並び
に出力画像の仮想撮像系の結像倍率β′及び物体距離
z′等を記憶している。 【0044】24は被写体までの距離を計測する三次元
計測手段であり、例えば図6に示すような光レーダ型と
なっている。 【0045】三次元計測手段24はパルスレーザ241
からのレーザ光を、ビームスプリッタ242,243を
透過させて対象物体(被写体)に照射し、該対象物体で
反射された反射光をビームスプリッタ243で偏向して
計時回路244に導光し検出した時間と、パルスレーザ
241からの光束をビームスプリッタ242で偏向し計
時回路244に導光して検出した時間と、の時間差から
変換回路245によって、主点Coから対象物体までの
距離Zを求めている。そして、上記パルスレーザ241
のレーザ光を二次元的に走査することにより、被写体全
体に亘る距離Z(距離情報)を得ている。 【0046】25は距離情報メモリであり、該三次元計
測手段24で得た距離情報を記憶している。26はアド
レス発生部であり、出力する画像のアドレス(図3
(C)に示すx,y軸で定める座標)を順次発生し、座
標変換部27に送っている。 【0047】座標変換部27ではパラメータ記憶部23
に記憶されている各パラメータと、距離情報メモリ25
に記憶されている距離データZとに基づいて、アドレス
発生部26で発生させたアドレスから、左画像及び右画
像の二次元座標を求めている。 【0048】28は画像データ補間部であり、座標変換
部27で求めた二次元座標のデータを、画像メモリL2
1及び画像メモリR22に記憶されている左眼画像及び
右画像のデータを補間処理して求め、出力用画像メモリ
29に出力している。 【0049】これらの各要素21,22,23,24,
25,26,27,28,29は画像合成変換処理手段
40の一要素を構成している。 【0050】複眼撮影手段20からなるシステム全体の
制御は、不図示のシステム制御部によって行われてい
る。 【0051】本実施例では、出力画像のアスペクト比
と、該出力画像を撮影する撮像系を想定したときの仮想
物体面(被写体面1)を予め設定し、該アスペクト比の
出力画像が得られるように撮像系10L,10Rの各物
体面をオーバーラップさせ、被写体面1を有し該出力画
像を得られるような撮像系の物体距離z′及び結像倍率
β′を仮定し、画像合成変換処理手段40で、撮像系1
0L,10Rからの撮影画像を距離情報に基づいて座標
変換処理しつつ合成することにより、画像劣化が少なく
特に広い画界を有した画像を得られるようにしている。 【0052】次に、座標変換部27における合成変換処
理について説明する。座標変換部27はアドレス発生部
26から送られてきた出力画像面内の座標を(x′,
y′)とすると、左画像及び右画像の座標(xL,y
L)、(xR,yR)は,式の逆変換(θ→−θ,
d→−dとしたもの)、即ち上述の,式により求ま
る。 【0053】従って、複眼撮影手段20のパラメータで
ある基線長2d、輻輳角θ、結像倍率β及び物体距離
z、並びに仮想撮像系のパラメータである結像倍率β′
及び物体距離z′をパラメータ記憶部23から、また距
離情報Zを出力画像面内の座標(x′,y′)に応じて
距離情報メモリ25から読み出し、,式の計算を行
って、左画像及び右画像の座標(xL,yL),(x
R,yR)を画像データ補間部28に送っている。 【0054】次に本発明の実施例2について説明する。
図7は本実施例の構成を示すブロック図であり、図中、
図1と比べ略同一の要素には同符号を付して一部説明を
省略している。 【0055】本実施例では図1の実施例1と比べ距離情
報を入力画像のオーバーラップ領域から対応点を抽出し
て算出している点が異なっている。 【0056】30は対応点抽出部であり、画像メモリL
21,画像メモリR22に記憶された画像のオーバーラ
ップ領域から対応点を抽出している。31は距離情報算
出部であり、該対応点の各画像上での座標と、パラメー
タ記憶部23に記憶された各パラメータと、に基づいて
距離情報を算出している。32は距離情報補間部であ
り、オーバーラップしていない領域の距離情報を補間処
理により求めている。 【0057】対応点抽出部30では、画像メモリL21
の小領域をテンプレートとして設定し、該テンプレート
に位置オフセットをかけて、平行移動させて、画像メモ
リR22の画像データとのテンプレートマッチング(テ
ンプレートと画像メモリR22の画像データとの照合)
を行ない、左画像の座標(xL,yL)に対応する右画
像の座標(xR,yR)を検出している。 【0058】距離情報算出部31では、対応点抽出部3
0の対応点情報である左画像及び右画像の座標(xL,
yL),(xR,yR)とパラメータ記憶部23に記憶
されている基線長2d、輻輳角θ、結像倍率β、物体距
離z、出力画像の仮想撮像系の結像倍率β′、物体距離
z′より、距離データZと出力画像面内の座標(X′,
Y′)を算出して距離情報メモリ25に格納している。
尚、本実施例では距離情報メモリ25に距離情報として
1/Zの値を格納している。 【0059】この距離情報メモリ25に格納される距離
情報データは出力画像面内の一部の領域のデータであ
り、図8に示す仮想像面上の斜線で示された領域のデー
タは左画像と右画像のオーバーラップした領域ではない
ため対応点抽出部30で対応点が検出できず距離情報が
求まらない。 【0060】距離情報補間部32では、このような領域
の距離情報について、予め算出されたオーバーラップ部
の距離情報から補間している。 【0061】図8に示す距離情報の求まらない領域は、
オーバーラップ部の外側で左側部分(図でOLで示す領
域)、オーバーラップ部の外側で右側部分(図でORで
示す領域、オーバーラップ部の内側で左側部分(図でI
Lで示す領域)、オーバーラップ部の内側で右側部分
(図でIRで示す領域)に分けられる。 【0062】距離情報補間部32での補間はOL領域で
は右側のオーバーラップ部の距離情報データから、OR
領域では左側のオーバーラップ部の距離情報データから
行われる。 【0063】また、IL領域ではこの場合、背景部分に
当たると考えられるので距離情報の遠い方のオーバーラ
ップ部の距離情報データ(即ち右側のオーバーラップ部
の距離情報データ)から補間が行われ、同様にIR領域
では距離情報の遠い方のオーバーラップ部の距離情報デ
ータ(即ち左側のオーバーラップ部の距離情報データ)
から補間が行われる。 【0064】図9は補間処理の様子を示した図であり、
図8の破線PP′での断面を示している。図9におい
て、実線部分が予め距離情報の算出されているデータで
あり、点線部分が補間部である。 【0065】このほか補間の方法としては、最も近い水
平方向のオーバーラップ部の距離情報をそのまま割り当
てても良い。このとき、オーバーラップ部の境界で距離
情報が著しく異なる場合には、該境界での(即ちy方向
での)距離情報の平均値又は中央値を割り当てると良
い。 【0066】更に、オーバーラップ部の距離情報データ
から距離Zの分布をスプライン関数等で関数近似し、補
間を行っても良い。 【0067】この場合には距離情報の補間処理が複雑に
なるが、滑らかに距離情報が補間でき、更に良好な出力
画像を得られるようにしている。 【0068】本実施例ではこのようにして求められた距
離情報を用い、座標変換部27で,式に基づいて座
標変換を行っている。 【0069】尚、結像倍率β′、物体距離z′は任意の
係数であり、例えば結像倍率β′を−1、物体距離z′
を1とした場合、 【0070】 【数6】 となる。 【0071】また、本発明に係る画像合成装置として
は、上述のような複眼撮影手段の各パラメータを、随
時、該複眼撮影手段のエンコーダ等から求めて合成変換
処理するものの他、予め撮影した撮影画像を各パラメー
タと共に記憶された記憶媒体から該撮影画像及び各パラ
メータを再生する際に合成変換処理するもの、そして各
パラメータを予め定めた所定の方式で撮影しておき、該
方式に則っとり合成変換処理するものであっても良い。 【0072】 【発明の効果】本発明によれば、複数の画像を座標変換
して合成する際、距離情報に基づいた座標変換を行うこ
とにより、画質劣化が少なく高精度な画像が得られる画
像合成装置及び撮影装置を達成することができる。
Description: BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image synthesizing apparatus and a photographing apparatus for obtaining a panoramic image having an arbitrary aspect ratio by synthesizing a plurality of images. The present invention relates to an image synthesizing apparatus and a photographing apparatus which obtain a high-quality synthesized image by performing coordinate transformation processing using distance information of a subject when is distributed over a wide range from a short distance to a long distance. is there. [0002] Conventionally, a method of changing the aspect ratio of a television or video image (for example, NTSC 4 to 3 and H
D or ED2 conversion to 16: 9)
There is known a method of trimming the top and bottom or left and right of an image at the time of output. However, since these methods use a part of a picked-up image, there is a disadvantage that the field of view is reduced. For example, image information captured by an HD camera using a 16: 9 image sensor is converted into a 4: 3 NTSC image.
When output is performed on a monitor for use, there is no problem in terms of image quality, but there is a disadvantage that the horizontal field is reduced by 1/3. In order to solve the above-mentioned drawbacks, the applicant of the present invention disclosed in Japanese Patent Application No. Hei 5-223544 a plurality of image pickup systems, each of which picks up an image with a part of the field of view overlapped, and performs coordinate transformation processing on each image. A compound eye imaging apparatus has been proposed in which an image with a wide field of view is obtained by combining the images with each other. According to the proposal, in a device that uses a plurality of image pickup systems to image a common subject while partially overlapping a field of view, the amount of positional shift of a viewpoint from the plurality of image pickup systems and the convergence of the optical axis. Assuming an imaging system in which the viewpoint position and the direction of the optical axis are defined by the angles, such as when photographed by the virtual imaging system,
By combining and converting one image signal output in a state defined by an arbitrary object distance and an imaging magnification, it is possible to obtain an image in which the image quality is less deteriorated and the distortion generated at the time of convergence is corrected. I have to. FIG. 10 is an explanatory view of an image pickup system of the compound eye image pickup apparatus, and shows an arrangement when two image pickup systems 10L and 10R are used. In FIG. 1, reference numeral 1 denotes a plane of a subject to be photographed by the imaging systems 10L and 10R, and 11L and 11R denote a left imaging optical system and a right imaging optical system having equivalent specifications, respectively. Have been. Reference numerals 12L and 12R denote a left image sensor and a right image sensor having equivalent specifications, respectively, and use an image pickup tube such as a saticon or a solid-state image pickup device such as a CCD. LL and LR are imaging optical systems 11L and 11L, respectively.
The optical axis 11R, 2L, and 2R are each an image sensor 12R.
It is an object plane of the imaging systems 10L and 10R conjugate to L and 12R. The imaging systems 10L and 10R adjust the optical axes LL and LR within the same plane so as to overlap the respective fields by a required amount according to the selected aspect ratio.
Are arranged symmetrically about θ with respect to the normal line OO ′. (However, the point O is a point on the object plane 1) At this time, 2θ is referred to as a convergence angle. Further, the object planes 2L and 2R are inclined by θ with respect to the subject plane 1, respectively. The points OL and OR are the optical axes LL and LR, respectively.
The points CL and CR are the principal points of the imaging optical systems 11L and 11R, respectively (specifically, the principal points on the object side, hereinafter also referred to as viewpoints). Each of the imaging optical systems 11L and 11R has
There are a variable power lens group and a focusing lens group, a driving system for driving them, an encoder for obtaining position information in the optical axis direction, a mechanism system for rotating the imaging system in a plane including the optical axis of the imaging system, A drive system, an encoder for detecting a rotation angle, and the like are provided respectively. The convergence angle control system sets a convergence angle control target value according to the output signal of each encoder so as to obtain an image having a desired aspect ratio, and performs convergence control. Next, a method of image synthesis will be described with reference to FIGS.
This will be described with reference to FIG. As shown in FIG. 10, the imaging magnification of the imaging optical systems 11L and 11R is β, and the object distances (OL-CL and O
The distance between R-CR) is z, and the principal points CL and CR are separated by a distance 2d (referred to as base line length or viewpoint displacement). Then, the viewpoint is taken at a position z 'away from the object plane 1 toward the O' side in the direction of the normal line OO ',
When a virtual image plane (that is, the distance between the viewpoint and the image plane is β′z ′) is taken so that the virtual imaging magnification at that viewpoint becomes β ′, the image plane of the first image sensor 12L LI, image plane RI and virtual image plane ILR on second image sensor 11R
Is shown in FIG. (However, in FIG. 3, β <0, β ′>
The state at the time of 0 is illustrated. In FIG. 3, points AL, BL, CL, and DL are the first points, respectively.
Are the points on the diagonal of the image plane LI of the image sensor 12L, and AR, BR, CR, and DR are the points on the diagonal of the image plane RI of the second image sensor 12R. These points correspond to points AL ', BL', CL ', DL', AR ', BR', and C on the virtual image plane ILR, respectively.
R 'and DR'. As shown in FIG. 3, points EL, FL, ER, and FR are points on the upper and lower sides at the center of the overlap between the image planes LI and RI, and point E 'on the virtual image plane ILR. , F ', and coincide with each other. At this time, when the center of each of the image planes LI, RI, and ILR is defined as the origin, the horizontal direction is defined as the x-axis, and the vertical direction is defined as the y-axis, the coordinates of the image points on each of the image planes LI, RI, and ILR are defined. The image point (x1, y1) on the plane LI corresponds to the image point (x1 ′, y1 ′) represented by the equation on the virtual image plane ILR. [Equation 2] Similarly, the image point (x2, y2) on the image plane RI is the virtual image plane IL.
This corresponds to the image point (x2 ', y2') represented by the equation on R. (Equation 3) Therefore, by performing a geometric transformation process as shown in the equation and synthesizing the plurality of images in the overlapped area, a plurality of image sensors 12L, 12
The image on R is obtained as an image on one virtual image plane ILR. In addition, Japanese Patent Application Laid-Open No. Hei 5-110926 and the like disclose a plurality of images taken in an overlapping manner, respectively.
By performing coordinate transformation processing and combining the transformed images,
2. Description of the Related Art An image synthesizing apparatus for obtaining a high-precision image with corrected distortion has been proposed. Problems to be Solved by the Invention The above-mentioned Japanese Patent Application No. 5-223.
No. 544, when subjects are distributed over a wide range, for example, when the distance to a main subject such as a person is significantly different from the distance to the background (hereinafter referred to as having a distance distribution), the following problem occurs. Spots sometimes occurred. For example, assuming that the object A is located at a distance different from the object distance z shown in FIG. 4, when the geometric transformation processing of the equation is performed, the difference between the object distance z and the distance to the object A is calculated. The position of the object A on the virtual image plane ILR is shifted by the distance. When the distance to a certain point a1 on the object A is zA, and the coordinates of the point on the image sensors 12L and 12R are (x1, y1) and (x2, y2), the position Virtual image plane I of an ideal image point where no displacement occurs
Coordinates on LR (x1 ", y1"), (x2 ", y2")
Are obtained as shown in the following equations. (Equation 4) Therefore, an image shift occurs due to the difference between the object distance z and the distance to each point in the subject, and the shift amounts are expressed by the following equations, respectively. Δx1 = x1 ″ −x1 ′, Δy1 = y1 ″ −y1 ′ Δx2 = x2 ″ −x1 ′, Δy2 = y2 ″ −y2 ′ Therefore, the point a1 of the object A is, for example, as shown in FIG. Δx1, Δx2, y in the x direction with respect to the ideal position a
There has been a problem that a shift may occur in the directions by Δy1 and Δy2, and the image quality of the output image may be degraded. An object of the present invention is to provide an image synthesizing apparatus and a photographing apparatus in which a plurality of images are coordinate-converted and synthesized when coordinate conversion is performed based on distance information to thereby obtain a highly accurate image with little image quality deterioration. I have. According to a first aspect of the present invention, there is provided a photographing apparatus comprising: a first image pickup system for forming a subject image on an image pickup element S1 by an optical system L1 for photographing; and an optical system L2. A subject is obtained from a photographed image G1 obtained by the first image pickup system and from the second image pickup system by a photographing means having a second image pickup system for forming and photographing a subject image on the image pickup device S2. When a part of the photographed image G2 is photographed so as to be overlapped, and the photographed image G1 and the photographed image G2 are combined and converted by the image combining / conversion processing means to obtain one output image, according to set a magnification β'the object distance z ', the relative inclination angle between the shooting direction and the shooting <br/> shading direction of the second imaging system of the first imaging system and 2 [Theta], the A principal point Co is determined on a bisector of the inclination angle 2θ, and the coordinates of the output image are defined by the output image. When the center of the image is the origin, the predetermined direction is the X 'axis, and the direction orthogonal to the X' axis is the Y 'axis, the coordinates (X',
The distance Z from the point on the subject corresponding to the point on the output image indicated by Y ′) to the principal point Co is detected by the distance detection unit, and the coordinates of the photographed image G1 are set to the origin of the center of the photographed image G1. The direction corresponding to the X 'axis is denoted by XL , the direction corresponding to the Y' axis is denoted by YL , and the coordinates of the captured image G2 are
The direction corresponding to the X 'axis is represented by XR , the direction corresponding to the Y' axis is represented by XR , and the direction corresponding to the Y 'axis is represented by YR , and the subject-side principal point of the optical system L1 and the subject-side principal point of the optical system L2 are represented by YR . Distance 2
d, the imaging magnification of the optical system L1 and the optical system L2 beta, when the object distance of the optical system L1 and the optical system L2 and z, and, in the image combining conversion processing unit coordinates (X ', Y ')of
Image data (XL, YL) and (XR, YR)
Is obtained by interpolating from the image data . FIG. 1 is a block diagram showing a main part of a first embodiment of the present invention.
FIG. 2 is an explanatory diagram showing a basic arrangement of the compound-eye photographing means in the present embodiment. In FIG. 1, reference numeral 20 denotes a compound-eye photographing means, which has two photographing systems 10L and 10R, and performs photographing by overlapping a part of the field so as to obtain an output image having an arbitrary aspect ratio. I have. Numeral 40 denotes an image synthesizing and converting means for synthesizing and converting the photographic images from the photographic systems 10L and 10R as described later, and outputting the synthesized image. Reference numeral 1 denotes a virtual object plane assuming an imaging system for photographing the output image. The photographing systems 10L and 10R are equivalent to the left photographing optical system 11L and the right photographing optical system 11R having equivalent specifications, respectively.
Left image sensor 12L, right image sensor 12R
And a zoom lens is used for the imaging optical systems 11L and 11R. LL and LR are respectively an image pickup optical system 11L,
An optical axis 11R (imaging direction), 2L, and 2R are object planes of the imaging systems 10L and 10R, respectively. CL and CR are the principal points (specifically, the principal points on the subject side) of the imaging optical systems 11L and 11R, respectively, and the interval (base line length) between the principal points CL and CR.
Is 2d. The compound eye photographing means 20 includes an image pickup optical system 11
A driving system for driving the L and 11R zoom lens groups and focusing lens groups, an encoder for obtaining positional information of the zoom lens groups and focusing lens groups in the optical axis direction, and an imaging system 10
A mechanical system for rotating the L and 10R in a plane including the optical axes LL and LR, a drive system, and an encoder for detecting a rotation angle and the like are provided. The compound-eye photographing means 20 includes a photographing direction of the photographing system 10L and a photographing direction of the photographing system 10R (in FIG. 2, the optical axes LL,
LR) are arranged so as to have a relative inclination in substantially the same plane (horizontal plane), and a convergence angle (∠CLO ′) when each photographing direction converges on a point O ′ on the image side. C
R) is controlled by setting a control target value such that an output image having a desired aspect ratio is obtained by a convergence angle control system based on output signals from the encoders. Assuming an imaging system for photographing the output image, the virtual object plane 1 has a bisector O− of the convergence angle 2θ.
A plane having O 'as a normal line (where point O is the center point of the object plane 1). The distance from the point O to the virtual principal point Co is z ', and the imaging magnification at this time is β'. Reference numeral 21 denotes an image memory L, and an image pickup system 10L
A storage unit for storing the left image from the camera as digital image data. Similarly, reference numeral 22 denotes an image memory R;
This is a storage unit for storing the right image from R as digital image data. Reference numeral 23 denotes a parameter storage unit, which is a parameter of the compound-eye photographing means 20; a base line length 2d of the imaging systems 10L and 10R, a convergence angle θ, an imaging magnification β, an object distance z, and a virtual imaging system of an output image. The imaging magnification β ′ and the object distance z ′ are stored. Numeral 24 designates a three-dimensional measuring means for measuring the distance to the subject, which is, for example, an optical radar type as shown in FIG. The three-dimensional measuring means 24 includes a pulse laser 241
Is transmitted through the beam splitters 242 and 243 to irradiate a target object (subject), and the reflected light reflected by the target object is deflected by the beam splitter 243 to be guided to a timing circuit 244 for detection. The conversion circuit 245 calculates the distance Z from the principal point Co to the target object from the time difference between the time and the time when the light beam from the pulse laser 241 is deflected by the beam splitter 242 and guided to the timing circuit 244 and detected. I have. Then, the pulse laser 241
By scanning the laser light two-dimensionally, a distance Z (distance information) over the entire subject is obtained. A distance information memory 25 stores the distance information obtained by the three-dimensional measuring means 24. Reference numeral 26 denotes an address generator, which is an address of an image to be output (FIG.
(Coordinates defined by the x and y axes shown in FIG. 3C) are sequentially generated and sent to the coordinate conversion unit 27. In the coordinate conversion unit 27, the parameter storage unit 23
And the distance information memory 25
The two-dimensional coordinates of the left image and the right image are obtained from the address generated by the address generation unit 26 on the basis of the distance data Z stored in. Reference numeral 28 denotes an image data interpolation unit which stores the two-dimensional coordinate data obtained by the coordinate conversion unit 27 in an image memory L2.
1 and the data of the left eye image and the right image stored in the image memory R22 are obtained by interpolation processing and output to the output image memory 29. Each of these elements 21, 22, 23, 24,
25, 26, 27, 28, 29 constitute one element of the image synthesis conversion processing means 40. The control of the entire system including the compound eye photographing means 20 is performed by a system control unit (not shown). In this embodiment, the aspect ratio of the output image and the virtual object plane (subject plane 1) assuming an imaging system for photographing the output image are set in advance, and an output image having the aspect ratio can be obtained. The object distances z 'and the imaging magnification β' of the imaging system are set such that the object planes of the imaging systems 10L and 10R overlap each other and the output image can be obtained. In the processing means 40, the imaging system 1
By synthesizing the captured images from 0L and 10R while performing coordinate conversion processing based on the distance information, it is possible to obtain an image with little image deterioration and a particularly wide field of view. Next, the synthesis conversion process in the coordinate conversion unit 27 will be described. The coordinate converter 27 converts the coordinates in the output image plane sent from the address generator 26 into (x ′,
y ′), the coordinates (xL, y) of the left image and the right image
L) and (xR, yR) are inverse transformations of the equation (θ → −θ,
d → −d), that is, by the above-described equation. Accordingly, the base line length 2d, the convergence angle θ, the imaging magnification β and the object distance z, which are parameters of the compound-eye photographing means 20, and the imaging magnification β ', which is a parameter of the virtual imaging system.
And the object distance z 'is read from the parameter storage unit 23, and the distance information Z is read from the distance information memory 25 in accordance with the coordinates (x', y ') in the output image plane. And the coordinates (xL, yL) of the right image, (x
R, yR) to the image data interpolation unit 28. Next, a second embodiment of the present invention will be described.
FIG. 7 is a block diagram showing the configuration of the present embodiment.
Components that are substantially the same as those in FIG. 1 are denoted by the same reference numerals, and a description thereof is partially omitted. This embodiment is different from the first embodiment shown in FIG. 1 in that distance information is calculated by extracting corresponding points from the overlap region of the input image. Reference numeral 30 denotes a corresponding point extracting unit, which stores an image memory L
21, corresponding points are extracted from the overlap area of the image stored in the image memory R22. Reference numeral 31 denotes a distance information calculation unit that calculates distance information based on the coordinates of the corresponding point on each image and each parameter stored in the parameter storage unit 23. Reference numeral 32 denotes a distance information interpolating unit which obtains distance information of non-overlapping areas by interpolation processing. In the corresponding point extracting section 30, the image memory L21
Is set as a template, a template offset is applied to the template, and the template is moved in parallel to perform template matching with the image data in the image memory R22 (collation between the template and the image data in the image memory R22).
And the coordinates (xR, yR) of the right image corresponding to the coordinates (xL, yL) of the left image are detected. In the distance information calculating section 31, the corresponding point extracting section 3
The coordinates of the left image and the right image (xL,
yL), (xR, yR) and the base line length 2d stored in the parameter storage unit 23, the convergence angle θ, the imaging magnification β, the object distance z, the imaging magnification β ′ of the virtual imaging system of the output image, and the object distance z ′, distance data Z and coordinates (X ′,
Y ′) is calculated and stored in the distance information memory 25.
In this embodiment, the value of 1 / Z is stored in the distance information memory 25 as distance information. The distance information data stored in the distance information memory 25 is data of a partial area in the output image plane, and the data of the shaded area on the virtual image plane shown in FIG. Therefore, the corresponding points cannot be detected by the corresponding point extraction unit 30 and the distance information is not obtained. The distance information interpolator 32 interpolates the distance information of such an area from the distance information of the overlap portion calculated in advance. The area in which the distance information is not obtained as shown in FIG.
The left part outside the overlap part (the area shown by OL in the figure), the right part outside the overlap part (the area shown by OR in the figure, the left part inside the overlap part (I in the figure)
L), and a right portion (a region indicated by IR in the drawing) inside the overlap portion. The interpolation by the distance information interpolating unit 32 is based on the distance information data of the right overlapped part in the OL area.
In the area, the determination is performed from the distance information data of the left overlap portion. In this case, in the IL area, it is considered that the distance information corresponds to the background portion. Therefore, interpolation is performed from the distance information data of the distant overlap portion of the distance information (ie, the distance information data of the right overlap portion). In the IR area, the distance information data of the farther overlap portion of the distance information (that is, the distance information data of the left overlap portion)
Is interpolated. FIG. 9 is a diagram showing a state of the interpolation processing.
9 shows a cross section taken along a broken line PP 'in FIG. In FIG. 9, a solid line portion is data for which distance information has been calculated in advance, and a dotted line portion is an interpolation unit. In addition, as an interpolation method, the distance information of the nearest overlap portion in the horizontal direction may be assigned as it is. At this time, if the distance information is significantly different at the boundary of the overlap portion, it is preferable to assign the average value or the median of the distance information at the boundary (that is, in the y direction). Further, the distribution of the distance Z may be approximated by a function such as a spline function from the distance information data of the overlap portion, and interpolation may be performed. In this case, although the interpolation process of the distance information becomes complicated, the distance information can be smoothly interpolated, and a better output image can be obtained. In the present embodiment, the coordinate conversion is performed by the coordinate conversion unit 27 based on the equation using the distance information thus obtained. The imaging magnification β 'and the object distance z' are arbitrary coefficients. For example, the imaging magnification β 'is -1 and the object distance z' is
If is assumed to be 1, It becomes. Further, the image synthesizing apparatus according to the present invention obtains each parameter of the above-described compound-eye photographing means from the encoder or the like of the compound-eye photographing means at any time, performs a synthesis conversion process, and obtains a photographed image which has been photographed in advance. An image to be subjected to a synthesis conversion process when reproducing the photographed image and each parameter from a storage medium storing the image together with each parameter; and photographing each parameter by a predetermined method, and synthesizing according to the method. Conversion processing may be performed. According to the present invention, when a plurality of images are coordinate-converted and synthesized, coordinate conversion based on distance information is performed, so that an image with little deterioration in image quality and a high-precision image can be obtained. A synthesizing device and a photographing device can be achieved.

【図面の簡単な説明】 【図1】 本発明の実施例1の要部ブロック図 【図2】 本発明の実施例1の複眼撮影手段の説明図 【図3】 撮影光学系の像面と仮想像面の説明図 【図4】 従来の複眼撮影手段において被写体が広い距
離分布を持つ場合の説明図 【図5】 従来の画像合成変換処理で生じる画像の位置
ズレの説明図 【図6】 三次元計測手段の説明図 【図7】 本発明の実施例2の要部ブロック図 【図8】 仮想像面における距離情報の補間処理の説明
図 【図9】 距離情報の補間の状態の説明図 【図10】 従来の複眼撮影手段の説明図 【符号の説明】 LL,LR 光軸 10L,10R 撮像系 11L,11R 撮像光学系 12L,12R イメージセンサ 2L,2R 物体面 241 パルスレーザ 242,243 ビームスプリッタ 244 計時回路 245 変換回路 20 複眼撮影手段 21,22 画像メモリ 23 パラメータ記憶部 24 三次元計測手段 25 距離情報メモリ 26 アドレス発生部 27 座標変換部 28 画像データ補間部 29 出力用メモリ 30 対応点抽出部 31 距離情報算出部 32 距離情報補間部
BRIEF DESCRIPTION OF THE DRAWINGS FIG. 1 is a block diagram of a main part of a first embodiment of the present invention. FIG. 2 is an explanatory diagram of a compound-eye photographing unit according to the first embodiment of the present invention. FIG. FIG. 4 is an explanatory diagram of a virtual image plane. FIG. 4 is an explanatory diagram of a case where a subject has a wide distance distribution in a conventional compound-eye photographing unit. FIG. 5 is an explanatory diagram of a positional shift of an image generated in a conventional image synthesis conversion process. FIG. 7 is an explanatory diagram of a three-dimensional measuring unit. FIG. 7 is a block diagram of a main part of a second embodiment of the present invention. FIG. 8 is an explanatory diagram of interpolation processing of distance information on a virtual image plane. FIG. 10 is an explanatory view of a conventional compound eye photographing means. [Description of References] LL, LR Optical axis 10L, 10R Imaging system 11L, 11R Imaging optical system 12L, 12R Image sensor 2L, 2R Object surface 241 Pulse laser 242, 243 Beam splitter 244 timing circuit 2 5 Conversion circuit 20 Compound eye photographing means 21, 22 Image memory 23 Parameter storage unit 24 Three-dimensional measuring means 25 Distance information memory 26 Address generation unit 27 Coordinate conversion unit 28 Image data interpolation unit 29 Output memory 30 Corresponding point extraction unit 31 Distance information Calculation unit 32 Distance information interpolation unit

───────────────────────────────────────────────────── フロントページの続き (56)参考文献 特開 平8−18857(JP,A) 特開 平7−79379(JP,A) 特開 平7−135605(JP,A) 特開 平5−344422(JP,A) 特開 平5−110926(JP,A) (58)調査した分野(Int.Cl.7,DB名) H04N 5/225 - 5/232 H04N 5/262 - 5/265 ────────────────────────────────────────────────── ─── Continuation of the front page (56) References JP-A-8-18857 (JP, A) JP-A-7-79379 (JP, A) JP-A-7-135605 (JP, A) 344422 (JP, A) JP-A-5-110926 (JP, A) (58) Fields investigated (Int. Cl. 7 , DB name) H04N 5/225-5/232 H04N 5/262-5/265

Claims (1)

(57)【特許請求の範囲】【請求項1】 光学系L1により撮像素子S1上に被写
体像を形成して撮影する第1の撮像系と、光学系L2に
より撮像素子S2上に被写体像を形成して撮影する第2
の撮像系と、を有する撮影手段により被写体を、該第1
の撮像系で得られる撮影画像G1と該第2の撮像系から
得られる撮影画像G2の一部がオーバーラップするよう
に撮影し、 画像合成変換処理手段により、該撮影画像G1と該撮影
画像G2とを合成変換処理して1つの出力画像を得る
際、該出力画像に係る倍率β´と物体距離z´とを設定
し、 該第1の撮像系の撮影方向と該第2の撮像系撮影方向
との相対的な傾き角を2θとし、該傾き角2θの二等分
線上に主点Coを定め、 該出力画像の座標を、該出力画像の中心を原点とし所定
方向をX′軸、該X′軸と直交する方向をY′軸とした
ときの、該座標(X´、Y′)で示す出力画像上の点に
対応する被写体上の点から主点Coまでの距離Zを距離
検出部で検出し、該撮影画像G1の座標を、該撮影画像
G1の中心を原点としX′軸に相当する方向をXL、該
Y′軸に相当する方向をYLで示し、該撮影画像G2の
座標を、該撮影画像G2の中心を原点としX′軸に相当
する方向をXR、該Y′軸に相当する方向をYRで示
し、該光学系L1の被写体側主点と該光学系L2の被写
体側主点との距離を2d、該光学系L1及び該光学系L
2の結像倍率をβ、該光学系L1及び該光学系L2の物
体距離をz、としたとき、 該画像合成変換処理手段では座標(X′、Y′)の画像
データを 【数1】 を略満足する、座標(XL、YL)及び(XR、YR)
画像データから補間して求めていることを特徴とする
撮影装置。
(57) [Claim 1] A first imaging system for forming a subject image on the image sensor S1 by the optical system L1 and photographing the same, and a subject image on the image sensor S2 by the optical system L2. The second to form and shoot
The subject is moved by the photographing means having the first imaging system.
The photographed image G1 obtained by the image pickup system and the photographed image G2 obtained by the second image pickup system are photographed so as to partially overlap each other, and the photographed image G1 and the photographed image G2 are obtained by the image synthesis conversion processing means. When a single output image is obtained by performing composite conversion processing on the output image, a magnification β ′ and an object distance z ′ of the output image are set, and the imaging direction of the first imaging system and the imaging direction of the second imaging system are set. The inclination angle relative to the photographing direction is 2θ, the principal point Co is determined on the bisector of the inclination angle 2θ, the coordinates of the output image are set to the origin of the center of the output image, and the predetermined direction is the X ′ axis. When the direction orthogonal to the X 'axis is the Y' axis, the distance Z from the point on the subject corresponding to the point on the output image indicated by the coordinates (X ', Y') to the principal point Co is The coordinates of the photographed image G1 are detected by the distance detection unit and correspond to the X 'axis with the center of the photographed image G1 as the origin. Directions XL, 'indicates the direction corresponding to the axis in YL, the coordinates of the photographed image G2, the center of the photographed image G2 as the origin X' said Y corresponds to the direction corresponding to the axis XR, to the Y 'axis directions are shown in YR, 2d the distance between the object side principal point of the object side principal point and the optical system L2 of the optical system L1, the optical system L1 and the optical system L
The second imaging magnification beta, when is z, the distance of the object optical system L1 and the optical system L2, in the image combining conversion processing unit coordinates (X ', Y') image
The data is (XL, YL) and (XR, YR)
An image capturing apparatus characterized in that the image data is obtained by interpolating from the image data .
JP03421495A 1995-01-31 1995-01-31 Image synthesis device and photographing device Expired - Fee Related JP3412945B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP03421495A JP3412945B2 (en) 1995-01-31 1995-01-31 Image synthesis device and photographing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP03421495A JP3412945B2 (en) 1995-01-31 1995-01-31 Image synthesis device and photographing device

Publications (2)

Publication Number Publication Date
JPH08214213A JPH08214213A (en) 1996-08-20
JP3412945B2 true JP3412945B2 (en) 2003-06-03

Family

ID=12407913

Family Applications (1)

Application Number Title Priority Date Filing Date
JP03421495A Expired - Fee Related JP3412945B2 (en) 1995-01-31 1995-01-31 Image synthesis device and photographing device

Country Status (1)

Country Link
JP (1) JP3412945B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1159914C (en) 1999-10-12 2004-07-28 松下电器产业株式会社 Monitor system, method of adjusting camera, and vehicle monitor system
JP5634643B2 (en) 2012-05-22 2014-12-03 三菱電機株式会社 Image processing device
JP2020060394A (en) * 2018-10-05 2020-04-16 株式会社Ihi Measurement range expansion method for non-contact measurement device

Also Published As

Publication number Publication date
JPH08214213A (en) 1996-08-20

Similar Documents

Publication Publication Date Title
US5646679A (en) Image combining method and apparatus
JP2888713B2 (en) Compound eye imaging device
US5682198A (en) Double eye image pickup apparatus
US10666865B2 (en) Panoramic camera with multiple image sensors using timed shutters
US6097430A (en) Image processing apparatus
JP3107929B2 (en) Compound eye imaging device
JP4297111B2 (en) Imaging apparatus, image processing method and program thereof
JP3263931B2 (en) Stereo matching device
JP2883265B2 (en) Image processing device
WO2011078244A1 (en) Multocular image pickup apparatus and multocular image pickup method
US6571022B2 (en) Image processing apparatus for generating a single image of an object using overlapping partial images
JPH11259632A (en) Adjusting device of stereoscopic camera
JPH1093808A (en) Image synthesis device/method
JP2002071309A (en) Three-dimensional image-detecting device
JPH07303207A (en) Image pickup device
JP3412945B2 (en) Image synthesis device and photographing device
JP2974500B2 (en) Compound eye imaging device
JPH10262176A (en) Video image forming method
JP2000307947A (en) Image processor and image processing method
JPH0568666B2 (en)
JP2883264B2 (en) Compound eye imaging device
JP3093447B2 (en) Compound eye imaging device
JP3639620B2 (en) Image composition apparatus and image processing method
JPH11281332A (en) Image pickup device
JP3270620B2 (en) Image input method

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080328

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090328

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100328

Year of fee payment: 7

LAPS Cancellation because of no payment of annual fees