JPH09322061A - Image composing device - Google Patents
Image composing deviceInfo
- Publication number
- JPH09322061A JPH09322061A JP8133645A JP13364596A JPH09322061A JP H09322061 A JPH09322061 A JP H09322061A JP 8133645 A JP8133645 A JP 8133645A JP 13364596 A JP13364596 A JP 13364596A JP H09322061 A JPH09322061 A JP H09322061A
- Authority
- JP
- Japan
- Prior art keywords
- images
- image
- points
- arrangement information
- extracted
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Image Input (AREA)
- Image Processing (AREA)
- Studio Circuits (AREA)
- Editing Of Facsimile Originals (AREA)
Abstract
Description
【0001】[0001]
【発明の属する技術分野】本発明はカメラで撮像した複
数の画像をつなぎ合わせてパノラマ画像を作成する場合
等に用いて好適な画像合成装置に関するものである。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image synthesizing apparatus suitable for use when a plurality of images taken by a camera are stitched together to create a panoramic image.
【0002】[0002]
【従来の技術】従来より、電子カメラで撮像され一部が
オーバーラップした複数の画像を、それらの配置を示す
配置情報に応じてつなぎ合わせて、1枚のパノラマ画像
を得る画像合成装置として、例えば特開平4−5263
5号公報に開示されるように、3次元位置及び方位を検
出する手段を設けた電子カメラを用い、撮影時の位置及
び方位を検出し、再生時にその位置及び方位情報に基づ
いてパノラマ画像を得るようにしたものがある。これは
3次元位置及び方位を検出するための特別な手段を用い
て画像間の配置情報を得るものである。2. Description of the Related Art Conventionally, an image synthesizing apparatus for obtaining a single panoramic image by joining a plurality of images captured by an electronic camera and partially overlapping each other according to arrangement information indicating their arrangement, For example, JP-A-4-5263
As disclosed in Japanese Patent No. 5 publication, an electronic camera provided with means for detecting a three-dimensional position and azimuth is used to detect the position and azimuth at the time of shooting, and a panoramic image is reproduced based on the position and azimuth information during reproduction. There are things I tried to get. This obtains the arrangement information between images by using a special means for detecting the three-dimensional position and orientation.
【0003】[0003]
【発明が解決しようとする課題】しかしながら上記従来
例の装置は、画像間の配置情報を得るために電子カメラ
に特別な検出手段を設置することが必要であるため、装
置が大型化することになる。また、検出した3次元位置
及び方位を各画像信号に対応付けて記録することが必要
となり、装置が複雑化すると共に特別な画像フォーマッ
トが新たに必要となるなどコスト等の面で問題があっ
た。However, in the above-mentioned conventional apparatus, it is necessary to install special detecting means in the electronic camera in order to obtain the arrangement information between the images, so that the apparatus becomes large in size. Become. Further, it is necessary to record the detected three-dimensional position and orientation in association with each image signal, which complicates the apparatus and newly requires a special image format, which is a problem in terms of cost and the like. .
【0004】本発明は上記の問題を解決するためのもの
で、複数の画像間の配置情報を容易に精度よく抽出する
ことのできる画像合成装置を得ることを目的とする。An object of the present invention is to solve the above problems, and an object thereof is to obtain an image synthesizing apparatus which can easily and accurately extract arrangement information between a plurality of images.
【0005】[0005]
【課題を解決するための手段】請求項1の発明において
は、入力される複数の画像間の対応点を抽出する対応点
抽出手段と、上記抽出された対応点に基づいて上記複数
の画像を配置する配置情報を抽出する配置情報抽出手段
と、上記抽出された配置情報及び対応点に基づいて上記
複数の画像を合成する画像合成手段とを設けている。According to a first aspect of the invention, corresponding point extracting means for extracting corresponding points between a plurality of input images, and the plurality of images based on the extracted corresponding points. Arrangement information extracting means for extracting arrangement information for arrangement and image combining means for combining the plurality of images based on the extracted arrangement information and corresponding points are provided.
【0006】請求項7の発明においては、入力された複
数の画像の縮小画像を生成する縮小画像生成手段と、複
数の上記縮小画像間の対応点を抽出する第1の対応点抽
出手段と、上記抽出された対応点に基づいて上記複数の
画像を配置する配置情報を抽出する配置情報抽出手段
と、上記抽出された配置情報と上記抽出された縮小画像
間の対応点に基づいて上記複数の画像間の対応点を抽出
する第2の対応点抽出手段と、上記抽出された配置情報
及び上記複数の画像間で抽出された対応点に基づいて上
記複数の画像を合成する画像合成手段とを設けている。According to a seventh aspect of the present invention, reduced image generating means for generating reduced images of a plurality of input images, and first corresponding point extracting means for extracting corresponding points between the plurality of reduced images are provided. Arrangement information extracting means for extracting arrangement information for arranging the plurality of images based on the extracted corresponding points, and a plurality of the plurality of arrangement information based on corresponding points between the extracted arrangement information and the extracted reduced images. Second corresponding point extracting means for extracting corresponding points between the images, and image synthesizing means for synthesizing the plurality of images based on the extracted arrangement information and the corresponding points extracted between the plurality of images. It is provided.
【0007】[0007]
【作用】請求項1の発明によれば、先ず、複数画像の互
いに対応する点が抽出され、この対応点により各画像の
オーバーラップ部分が求められる。次に対応点に基づい
て各画像の配置が決定され、各画像が合成される。According to the first aspect of the present invention, first, the points corresponding to each other in the plurality of images are extracted, and the overlapping portion of each image is obtained from the corresponding points. Next, the arrangement of the images is determined based on the corresponding points, and the images are combined.
【0008】請求項7の発明によれば、複数画像が先ず
縮小され、各縮小画像について対応点、配置情報を求
め、これらに基づいて複数画像間の対応点を再度求め、
求められた対応点と上記配置情報とに基づいて各画像が
合成される。According to the invention of claim 7, a plurality of images are first reduced, corresponding points and arrangement information are obtained for each reduced image, and corresponding points between the plurality of images are obtained again based on these.
The respective images are combined based on the obtained corresponding points and the arrangement information.
【0009】[0009]
(第1の実施の形態)以下、図1により本発明に係る画
像合成装置としての画像合成システムの構成及び機能に
ついて説明する。図1において、110は記録媒体であ
り、磁気ディスク、テープ等を用いることができる。1
11は画像読み込み部であり記録媒体110に記録され
ている画像情報を読み込むものである。112は画像展
開部であり、読み込んだ画像情報をメモリに展開する。
113は領域設定部であり、合成に用いる2つの画像に
おいて、画像の配置情報抽出に用いるための領域を設定
する。(First Embodiment) The configuration and function of an image composition system as an image composition apparatus according to the present invention will be described below with reference to FIG. In FIG. 1, reference numeral 110 is a recording medium, and a magnetic disk, a tape or the like can be used. 1
An image reading unit 11 reads image information recorded in the recording medium 110. An image expansion unit 112 expands the read image information in the memory.
An area setting unit 113 sets an area to be used for image layout information extraction in two images used for composition.
【0010】114は対応点抽出部であり、設定した領
域間の対応関係を求めるものである。115は評価デー
タ演算部であり、得られた対応関係の情報から画像間の
配置情報を抽出するためのデータを演算により求める。
116は配置情報抽出部であり、評価データを比較し、
配置情報を決定するものである。117は画像合成部で
あり、配置情報決定の際に用いられた対応関係の情報を
用いて各々の画像を合成する。118は画像書き込み部
であり、合成した画像情報を記録媒体等に書き込むもの
である。Reference numeral 114 is a corresponding point extraction unit, which obtains a corresponding relationship between the set areas. An evaluation data calculation unit 115 calculates data for extracting arrangement information between images from the obtained information on the correspondence relationship.
Reference numeral 116 is a placement information extraction unit that compares evaluation data,
The placement information is determined. An image combining unit 117 combines the respective images using the information on the correspondence relationship used when determining the arrangement information. An image writing unit 118 writes the combined image information on a recording medium or the like.
【0011】次に、上記構成による画像合成システムの
動作について説明する。画像読み込み部111により記
録媒体110から読み込まれた画像情報は、画像展開部
112によりメモリ上に展開される。図2はメモリ上に
展開された画像210及び画像220の概略である。説
明のために画像サイズを幅W×高さHとする。領域設定
部113は、メモリ上に展開されている画像210及び
220において互いのオーバーラップ部分における対応
関係を求めるための領域L1〜L4及びR1〜R4を設
定する。このように、各々の画像210、220におい
て対応点を検出するための領域L1〜L4またはR1〜
R4を設定し、この限定した領域でのみ後述する対応点
の抽出処理を実行することにより、処理を高速化でき
る。Next, the operation of the image synthesizing system having the above configuration will be described. The image information read from the recording medium 110 by the image reading unit 111 is expanded on the memory by the image expansion unit 112. FIG. 2 is an outline of the image 210 and the image 220 developed on the memory. For the sake of explanation, the image size is width W × height H. The area setting unit 113 sets areas L1 to L4 and R1 to R4 for obtaining the correspondence relationship in the overlapping portions of the images 210 and 220 developed on the memory. In this way, the regions L1 to L4 or R1 to detect corresponding points in each of the images 210 and 220 are
By setting R4 and executing the corresponding point extraction processing described later only in this limited area, the processing can be sped up.
【0012】本実施の形態においては、テンプレートマ
ッチング法により対応関係を抽出する。テンプレートマ
ッチング法の概略を図3に示す。図3において、410
は図2の領域L1を示しており、420は領域R2を示
す。領域410において、点線で囲まれた各々の領域は
テンプレートを示す。テンプレートは任意の画素を中心
としてn×m等の画素により構成される。In the present embodiment, the correspondence is extracted by the template matching method. An outline of the template matching method is shown in FIG. In FIG. 3, 410
Indicates the region L1 in FIG. 2, and 420 indicates the region R2. In the area 410, each area surrounded by a dotted line indicates a template. The template is composed of n × m pixels with an arbitrary pixel as the center.
【0013】図4は図3におけるテンプレートT11を
拡大して示したもので、画素L(x11,y11)を中
心として5×5の画素から構成される。対応点の抽出
は、上記のテンプレートT11を図3の領域420上で
移動しながら各位置でのテンプレートT11と領域42
0における各画素Rとの残差を以下の式により求める。FIG. 4 is an enlarged view of the template T11 in FIG. 3, which is composed of 5 × 5 pixels centered on the pixel L (x11, y11). Corresponding points are extracted by moving the template T11 on the area 420 of FIG. 3 while moving the template T11 and the area 42 at each position.
The residual with each pixel R at 0 is calculated by the following formula.
【0014】[0014]
【数1】 [Equation 1]
【0015】(1)式により得られる最小の残差E
(x,y)を与える位置を画素L(x11,y11)に
対する対応点の位置とする。The minimum residual E obtained by the equation (1)
The position where (x, y) is given is the position of the corresponding point with respect to the pixel L (x11, y11).
【0016】領域設定部113においては、対応点を抽
出するためにテンプレート切り出しエリアとサーチエリ
アとのペアを図5に示すように設定する。ここで、図5
のL1〜L4及びR1〜R4は図2の各エリアに対応し
ている。The area setting unit 113 sets a pair of a template cutout area and a search area for extracting corresponding points as shown in FIG. Here, FIG.
L1 to L4 and R1 to R4 correspond to the areas in FIG.
【0017】次に対応点抽出部114は、上記のテンプ
レートマッチング法により対応点を抽出する。図6は図
2の領域L1とR2間で対応点を抽出し、結果をフロー
F11、F12、…として表わしたものであり、左上隅
を原点として領域L1及び領域R2の座標及びテンプレ
ートを同時に示したものである。図6において、右端の
各領域はテンプレートT11、T12、…、T27を示
す。また、フローF11は、テンプレートT11の中心
の座標(x11,y11)と対応点の座標(x′11,
y′11)との差(Δx11,Δy11)を表わす。他
のフローについても同様である。Next, the corresponding point extraction unit 114 extracts the corresponding points by the above template matching method. FIG. 6 shows corresponding points extracted between the regions L1 and R2 of FIG. 2 and the results are represented as flows F11, F12, ..., In which the coordinates and templates of the regions L1 and R2 are shown simultaneously with the upper left corner as the origin. It is a thing. In FIG. 6, each region at the right end shows templates T11, T12, ..., T27. Further, the flow F11 includes the coordinates (x11, y11) of the center of the template T11 and the coordinates (x'11,
y'11) and the difference (Δx11, Δy11). The same applies to other flows.
【0018】対応点抽出部114においては、検出され
る対応点の座標を基にフローを生成し、x方向及びy方
向のフローに対してヒストグラムを作成する。図7は、
図6により得られる対応点のフローを基に作成したヒス
トグラムの概略である。ここでは、説明のために図7を
x方向のフローを基に作成したものとする。ヒストグラ
ムの幅としては任意の値を設定することが可能である。
図7においては、幅を5と設定している。The corresponding point extraction unit 114 creates a flow based on the coordinates of the detected corresponding points and creates a histogram for the flows in the x and y directions. FIG.
It is the outline of the histogram created based on the flow of the corresponding points obtained by FIG. Here, for the sake of explanation, it is assumed that FIG. 7 is created based on the flow in the x direction. It is possible to set an arbitrary value as the width of the histogram.
In FIG. 7, the width is set to 5.
【0019】ヒストグラム作成後、最大度数を与えるフ
ローを抽出する。図7においてはΔxmin+10〜Δx
min+15が最大度数を与えるフローである。y方向につい
ても同様に最大度数を与えるフローを抽出する。対応点
抽出部114は、ヒストグラム処理により抽出された最
大度数を与えるフロー以外の対応点ペアをノイズとして
除去する。After creating the histogram, the flow that gives the maximum frequency is extracted. In FIG. 7, Δx min + 10 to Δx
min + 15 is the flow that gives the maximum frequency. Similarly, for the y direction, the flow that gives the maximum frequency is extracted. The corresponding point extraction unit 114 removes corresponding point pairs other than the flow that gives the maximum frequency extracted by the histogram processing as noise.
【0020】図8はヒストグラムによりノイズ除去を実
行した後に残った対応点のペアを表わしたものである。
図6と比較してノイズ成分が除去されたものとなってい
る。FIG. 8 shows a pair of corresponding points remaining after the noise removal is executed by the histogram.
Compared to FIG. 6, the noise component is removed.
【0021】次に評価データ演算部115は、2つの画
像の配置を決定するための評価データを生成する。評価
データとしては図6に示すテンプレート切り出しエリア
において切り出されたテンプレートの数をTN、ヒスト
グラム処理によるノイズ除去後に残ったテンプレートの
数をTKとして以下の式により生成する。 D1=TK/TN×100(%) ………(2) 図6及び図8の例では、TN=14、TK=8であり、
D1=57(%)となる。Next, the evaluation data calculation unit 115 generates evaluation data for determining the arrangement of the two images. As the evaluation data, the number of templates cut out in the template cutting area shown in FIG. 6 is TN, and the number of templates remaining after noise removal by histogram processing is TK, which is generated by the following formula. D1 = TK / TN × 100 (%) (2) In the examples of FIGS. 6 and 8, TN = 14 and TK = 8,
D1 = 57 (%).
【0022】図5に示す〜の4つの配置について、
上記の対応点抽出、ヒストグラム処理及び評価データの
演算処理を施し、評価データD1〜D4が生成される。Regarding the four arrangements of to shown in FIG.
Evaluation data D1 to D4 are generated by performing the above corresponding point extraction, histogram processing, and calculation processing of evaluation data.
【0023】次に配置情報抽出部116において、生成
された評価データD1〜D4を比較し、そのうちの最大
の評価データを与える方向を抽出する。例えばD1が最
大であると検出されると、2つの画像の配置は図9
(a)に示すものとする。尚、図9の(a)〜(d)の
配置は図5の〜のペアに対応している。Next, the arrangement information extracting unit 116 compares the generated evaluation data D1 to D4 and extracts the direction giving the maximum evaluation data. For example, when D1 is detected to be the maximum, the two images are arranged as shown in FIG.
It shall be shown in (a). The arrangements of (a) to (d) of FIG. 9 correspond to the pairs of to of FIG.
【0024】次に画像合成部117は、配置情報抽出部
116において得られる配置情報及び抽出された配置に
おいて検出された対応点の座標データを基に合成のため
のパラメータを抽出する。画像合成部117は、アフィ
ン変換により以下の式を用いて2つの画像を合成する。Next, the image synthesizing unit 117 extracts parameters for synthesizing based on the arrangement information obtained by the arrangement information extracting unit 116 and the coordinate data of the corresponding points detected in the extracted arrangement. The image synthesizing unit 117 synthesizes two images using the following formula by affine transformation.
【0025】[0025]
【数2】 [Equation 2]
【0026】次に(3)式に従い生成された合成画像
は、画像書き込み部118によりメモリあるいは記録媒
体等に書き込まれる。また、合成された画像を不図示の
表示部に表示してもよい。Next, the composite image generated according to the equation (3) is written in the memory or the recording medium by the image writing unit 118. Further, the combined image may be displayed on a display unit (not shown).
【0027】(第2の実施の形態)図10は第2の実施
の形態を示すもので、特徴的な部分は、エッジ画像生成
部119及び対応点抽出部120である。その他の部分
については、第1の実施の形態による図1と同様の機能
及び動作を有するものであり説明を省略する。エッジ画
像生成部119は、入力した画像を基にエッジ画像を生
成する。エッジ画像生成のためのマスクとして例えば以
下のものを用いる。(Second Embodiment) FIG. 10 shows the second embodiment, and the characteristic parts are an edge image generating section 119 and a corresponding point extracting section 120. The other parts have the same functions and operations as those in FIG. 1 according to the first embodiment, and the description thereof will be omitted. The edge image generation unit 119 generates an edge image based on the input image. For example, the following masks are used for the edge image generation.
【0028】[0028]
【数3】 (Equation 3)
【0029】また、エッジ画像L′及びR′は、次式に
より生成する。The edge images L'and R'are generated by the following equation.
【0030】[0030]
【数4】 (Equation 4)
【0031】生成したエッジ画像に対して第1の実施の
形態と同様に領域設定部113において配置情報を得る
ための領域を設定する。As in the first embodiment, the area setting unit 113 sets an area for obtaining the layout information for the generated edge image.
【0032】対応点抽出部120においては、エッジ画
像において図3に示すようにテンプレートを設定する
が、このとき以下の処理を新たに追加する。即ち、各テ
ンプレート内の画素値つまりエッジのレベルをしきい値
Sと比較する。例えば5×5のテンプレートの場合25
のエッジ強度としきい値Sとを比較し、しきい値以上の
エッジの数kを求める。In the corresponding point extraction unit 120, a template is set in the edge image as shown in FIG. 3, but at this time, the following processing is newly added. That is, the pixel value in each template, that is, the edge level is compared with the threshold value S. For example, for a 5 × 5 template, 25
And the threshold value S are compared to obtain the number k of edges equal to or larger than the threshold value.
【0033】次に、このエッジの数kがしきい値Sn 以
上であるか否かを検出し、しきい値Sn 以下の場合に
は、そのテンプレートを対応点抽出に用いない。従っ
て、評価データ演算部115において用いる、切り出し
たテンプレートの数TNにはエッジの数kがしきい値S
n 以下のテンプレートは含めない。以下の処理は、第1
の実施の形態と同様に行われる。Next, it is detected whether or not the number k of edges is equal to or more than the threshold value S n , and if the number is equal to or less than the threshold value S n , the template is not used for extracting the corresponding points. Therefore, the number of edges k is the threshold value S in the number of cut-out templates TN used in the evaluation data calculation unit 115.
Do not include templates below n . The following processing is the first
It is performed in the same manner as the embodiment of.
【0034】これにより、特徴点の少ない画像及び濃度
差の大きい画像を用いるために生じる誤対応を防止する
ことができ、配置情報抽出の精度を向上することができ
る。As a result, it is possible to prevent erroneous correspondence caused by using an image with few feature points and an image with a large density difference, and it is possible to improve the accuracy of layout information extraction.
【0035】(第3の実施の形態)図11は第3の実施
の形態を示すもので、特徴的な部分は、粗画像生成部1
21及び2つの対応点抽出部122である。その他の部
分については、第1、2の実施の形態による図1、図1
0と同様の機能及び動作を有するものであり説明を省略
する。本実施の形態においては、読み込んだ画像を縮小
した粗画像により配置情報を抽出し、粗画像により得ら
れる対応点のフローを基に元の画像において画像間の重
複領域を予測し対応点検出を実行することにより、処理
時間の短縮と合成時の精度向上を図るものである。(Third Embodiment) FIG. 11 shows the third embodiment. The characteristic part is the rough image generation unit 1.
21 and two corresponding point extraction units 122. Other parts are shown in FIGS. 1 and 1 according to the first and second embodiments.
Since it has the same function and operation as 0, description thereof will be omitted. In the present embodiment, the placement information is extracted from the coarse image obtained by reducing the read image, and based on the flow of the corresponding points obtained from the coarse image, the overlapping area between the images in the original image is predicted to detect the corresponding points. By executing the processing, the processing time is shortened and the accuracy at the time of composition is improved.
【0036】次に図11の動作を説明する。粗画像生成
部121は、読み込んだ画像W×HをW/2×H/2に
縮小した粗画像に変換する。変換は次式により行う。 P′i,j =(P2i,2j +P2i+1,2j +P2i,2j+1 +P2i+1,2j+1 )/4 i=0…W/2,j=0…H/2 ………(6) ここで、P′は粗画像の画素値であり、Pは元の画像の
画素値である。尚、ここでは元の画像の縦及び横を1/
2に縮小した画像を素画像としているが、これに限るも
のではなく1/4あるいは1/8に縮小した画像を素画
像としてもよいことは言うまでもない。Next, the operation of FIG. 11 will be described. The coarse image generation unit 121 converts the read image W × H into a coarse image reduced to W / 2 × H / 2. Conversion is performed by the following equation. P ′ i, j = (P 2i, 2j + P 2i + 1,2j + P 2i, 2j + 1 + P 2i + 1,2j + 1 ) / 4 i = 0 ... W / 2, j = 0 ... H / 2 ... (6) Here, P'is the pixel value of the coarse image, and P is the pixel value of the original image. Note that here, the vertical and horizontal directions of the original image are 1 /
Although the image reduced to 2 is used as the raw image, it is needless to say that the image reduced to 1/4 or 1/8 may be used as the raw image.
【0037】次にL及びRの粗画像をLs 及びRs と
し、作成した粗画像Ls 、Rs を基に第2の実施の形態
と同様の方式により配置情報を抽出する。配置情報抽出
後、配置情報抽出の際に用いた対応点の最大フローF
max を基に元の画像のエッジ画像L′及びR′における
重複領域を予測する。Next, the rough images of L and R are set as L s and R s, and the arrangement information is extracted based on the created rough images L s and R s by the same method as in the second embodiment. After extracting the layout information, the maximum flow F of the corresponding points used in the layout information extraction
The overlapping area in the edge images L'and R'of the original image is predicted based on max .
【0038】図12に重複領域予測の概略を示す。図1
2は元の画像のエッジ画像L′及びR′において、対応
点のフローを基に予測される重複領域(斜線部)及びサ
ーチエリアの概略である。最大フローFma x (Δ
xmax ,Δymax )が縦・横1/2に縮小された粗画像
において得られている場合、重複領域は(W−Δxmax
×2,H−Δymax ×2)の領域となる。FIG. 12 shows an outline of the overlap area prediction. FIG.
In the edge images L'and R'of the original image, reference numeral 2 is an outline of the overlapping area (hatched portion) and the search area predicted based on the flow of the corresponding points. Maximum flow F ma x (Δ
x max , Δy max ) is obtained in the coarse image reduced to ½ in the vertical and horizontal directions, the overlapping area is (W−Δx max).
It becomes a region of × 2, H−Δy max × 2).
【0039】また、サーチエリアは図12の画素L′
(x,y)に対応する点を粗画像により得られている最
大フローを基に予測し、その点を中心として設定するこ
とが可能である。以上のように粗画像の対応点抽出結果
を基に予測される重複領域及びサーチエリアにより再度
対応点を抽出し、以下第2の実施の形態と同様に合成画
像を生成する。The search area is the pixel L'of FIG.
It is possible to predict the point corresponding to (x, y) based on the maximum flow obtained from the rough image and set the point as the center. As described above, the corresponding points are extracted again by the overlapping area and the search area predicted based on the corresponding point extraction result of the rough image, and the synthesized image is generated as in the second embodiment.
【0040】(第4の実施の形態)これまで説明した各
実施の形態においては2枚の画像の合成について示して
いるが、第4の実施の形態は3枚以上の合成について示
す。図13は3枚以上の画像から配置を自動的に検出し
て合成する場合の概略を示したものである。ここでは、
図13(a)に示す4枚の画像900〜903の合成に
ついて示す。(Fourth Embodiment) In each of the embodiments described so far, the synthesis of two images is shown, but the fourth embodiment shows the synthesis of three or more images. FIG. 13 shows an outline of a case where the arrangement is automatically detected and synthesized from three or more images. here,
The composition of the four images 900 to 903 shown in FIG.
【0041】図13(b)は、まず最初の2枚の画像9
00、901の合成について示したものである。この場
合には、前述の各実施の形態と同様に配置検出のための
領域L1〜L4及びR1〜R4を設定して配置を抽出す
る。配置抽出の方式としては、第1の実施の形態と同様
に(1)式によるテンプレートマッチング法、ヒストグ
ラム処理による誤対応点成分の除去を用いることができ
る。FIG. 13B shows the first two images 9
This shows the synthesis of 00 and 901. In this case, the regions L1 to L4 and R1 to R4 for placement detection are set and the placement is extracted as in the above-described embodiments. As the arrangement extraction method, as in the first embodiment, the template matching method according to the equation (1) and the removal of the miscorresponding point component by the histogram processing can be used.
【0042】また、評価データとして(1)式により各
テンプレート毎に得られる最小の残差Emin (x,y)
の平均値を用いることも可能である。即ち、図5の〜
の4つの配置について、各方向毎の残差の平均値D
1′〜D4′を評価データとして画像間の配置を抽出す
る。The minimum residual E min (x, y) obtained for each template by the equation (1) as the evaluation data.
It is also possible to use the average value of. That is, in FIG.
Mean value D of residuals for each of the four arrangements
The arrangement between images is extracted using 1'-D4 'as evaluation data.
【0043】合成に用いる画像が4つの場合には、 4C
2 通りの画像の組み合わせについて上記処理を実行し、
評価データとして用いる残差の平均値を計算し、その最
小値を与える2つの画像を選択し、さらに最小の残差の
平均値を与える方向に従い画像合成する。図13(b)
においては、上記の処理に従い画像900と901が選
択され、さらに最小の残差の平均値を与える方向である
L1とR1の方向に従い合成が実行される。If there are four images to be combined, 4 C
Execute the above process for two combinations of images,
The average value of the residuals used as the evaluation data is calculated, two images giving the minimum value are selected, and the images are combined according to the direction giving the minimum average value of the residuals. FIG. 13 (b)
In the above, the images 900 and 901 are selected in accordance with the above-mentioned processing, and the synthesis is executed according to the directions of L1 and R1 which are the directions that give the minimum average value of the residuals.
【0044】図13(c)の画像910は、画像900
及び901を合成した結果の画像である。合成画像91
0に対して前述と同様に配置情報抽出のための領域L1
〜L4を設定し、これと図13(a)の残りの画像90
2及び903との間で配置情報抽出のための評価データ
を生成する。図13(c)においては、画像910と画
像902が最小の残差の平均値を与えるペアとして選択
され、さらに最小の残差の平均値を与える方向であるL
4とR3の方向に従い合成が実行される。The image 910 in FIG. 13C is an image 900.
And 901 are the combined images. Composite image 91
For 0, the area L1 for extracting the arrangement information is the same as described above.
~ L4 is set, and this and the remaining image 90 of FIG.
Evaluation data for extracting the arrangement information is generated between 2 and 903. In FIG. 13C, the image 910 and the image 902 are selected as a pair that gives the minimum residual average value, and L is the direction that gives the minimum residual average value.
Synthesis is performed according to the directions of 4 and R3.
【0045】この場合、L1とR2の領域間の対応点に
より既に配置情報が抽出されているので、画像910に
おいて点線で囲まれたL1とR2に対応する領域につい
ての対応点を探索する必要はない。In this case, since the layout information has already been extracted from the corresponding points between the regions L1 and R2, it is not necessary to search the corresponding points for the regions corresponding to L1 and R2 surrounded by the dotted line in the image 910. Absent.
【0046】図13(d)の画像911は、画像910
及び画像902を合成した結果である。画像911に対
して同様に配置情報抽出のための領域L1〜L4、L
1′及びL4′を設定し、これと画像903との間で配
置情報抽出のための評価データを生成する。以下前述と
同様の処理により、最小の残差の平均値を与える方向に
従い各々の画像を合成する。ここでは、4画像の合成に
ついて示したが、それ以上の画像についても上記の処理
の拡張により対応可能であることは言うまでもない。The image 911 in FIG. 13D is the image 910.
And a result of synthesizing the image 902. Similarly, for the image 911, areas L1 to L4, L for extracting the layout information
1'and L4 'are set, and evaluation data for extracting the layout information is generated between this and the image 903. Thereafter, by the same processing as described above, the respective images are combined in the direction in which the average value of the minimum residuals is given. Here, the synthesis of four images is shown, but it goes without saying that more images can be handled by expanding the above process.
【0047】[0047]
【発明の効果】以上説明したように、請求項1の発明に
よれば、複数の画像を入力し、入力した複数の画像間の
配置情報を自動的に抽出することができるので、画像の
配置を設定するための煩わしい操作が不要となる。As described above, according to the invention of claim 1, it is possible to input a plurality of images and automatically extract the arrangement information between the plurality of input images. A troublesome operation for setting is unnecessary.
【0048】また、請求項2の発明によれば、対応点抽
出の際の誤対応成分を除去するので、誤対応成分により
誤った配置情報を抽出する事態を防止することができ、
検出精度を向上させることができる。また、請求項3の
発明によれば、対応点抽出の際の候補点の数及び抽出後
の対応点の数を基に評価情報を生成するので、複雑な演
算を要せずに短時間で配置情報を抽出することができ
る。According to the second aspect of the present invention, since the miscorresponding component is removed at the time of extracting the corresponding points, it is possible to prevent a situation in which incorrect placement information is extracted due to the miscorresponding component.
Detection accuracy can be improved. Further, according to the invention of claim 3, since the evaluation information is generated based on the number of candidate points at the time of extracting the corresponding points and the number of the corresponding points after the extraction, a complicated operation is not required and a short time is required. The placement information can be extracted.
【0049】また、請求項4の発明によれば、エッジ画
像を基に対応点を抽出するので画像間の濃度差による誤
対応を防止することができ、精度の高い対応点抽出及び
画像合成を行うことができる。また、請求項5の発明に
よれば、候補点をエッジ情報を基に設定しているので、
特徴的な部分で対応点抽出を行うことができ、誤対応の
発生要因を対応点抽出処理実行前に除去することができ
る。また、請求項6の発明によれば、縮小画像を基に配
置情報を抽出しているので処理時間を短縮することがで
きる。Further, according to the invention of claim 4, since the corresponding points are extracted based on the edge image, it is possible to prevent erroneous correspondence due to the density difference between the images, and to perform highly accurate corresponding point extraction and image synthesis. It can be carried out. Further, according to the invention of claim 5, since the candidate points are set based on the edge information,
Corresponding points can be extracted in a characteristic part, and the cause of miscorrespondence can be removed before executing the corresponding point extraction processing. Further, according to the invention of claim 6, since the arrangement information is extracted based on the reduced image, the processing time can be shortened.
【0050】また、請求項7の発明によれば、縮小画像
により配置情報を抽出すると共に、原画像を用いて対応
点抽出処理を再度実行することにより、短時間でかつ精
度の高い合成画像を生成することができる。Further, according to the invention of claim 7, the arrangement information is extracted from the reduced image, and the corresponding point extracting process is executed again using the original image, so that a high-precision composite image can be obtained in a short time. Can be generated.
【0051】さらに請求項8、9の発明によれば、不必
要な対応点抽出処理を行わなくて済むので処理を高速化
することができる。Further, according to the inventions of claims 8 and 9, it is possible to speed up the processing because it is not necessary to perform unnecessary corresponding point extraction processing.
【図1】本発明の第1の実施の形態を示すブロック図で
ある。FIG. 1 is a block diagram showing a first embodiment of the present invention.
【図2】配置情報抽出に用いる画像領域を説明するため
の構成図である。FIG. 2 is a configuration diagram for explaining an image area used for extracting layout information.
【図3】テンプレートマッチング法を説明するための構
成図である。FIG. 3 is a configuration diagram for explaining a template matching method.
【図4】テンプレートマッチング法を説明するための構
成図である。FIG. 4 is a configuration diagram for explaining a template matching method.
【図5】配置情報抽出に用いる領域の対応を説明するた
めの構成図である。FIG. 5 is a configuration diagram for explaining correspondence of areas used for arrangement information extraction.
【図6】対応点抽出処理の概略を示す構成図である。FIG. 6 is a configuration diagram showing an outline of corresponding point extraction processing.
【図7】対応点抽出処理のヒストグラム処理を示す特性
図である。FIG. 7 is a characteristic diagram showing histogram processing of corresponding point extraction processing.
【図8】対応点抽出の誤対応除去の概略を示す構成図で
ある。FIG. 8 is a configuration diagram showing an outline of erroneous correspondence removal of corresponding point extraction.
【図9】画像の配置を示す構成図である。FIG. 9 is a configuration diagram showing an arrangement of images.
【図10】本発明の第2の実施の形態を示すブロック図
である。FIG. 10 is a block diagram showing a second embodiment of the present invention.
【図11】本発明の第3の実施の形態を示すブロック図
である。FIG. 11 is a block diagram showing a third embodiment of the present invention.
【図12】対応点抽出の概略を示す構成図である。FIG. 12 is a configuration diagram showing an outline of corresponding point extraction.
【図13】配置情報抽出の概略を示す構成図である。FIG. 13 is a configuration diagram showing an outline of arrangement information extraction.
110 記録媒体 111 画像読み込み部 112 画像展開部 113 領域設定部 114 対応点抽出部 115 評価データ生成部 116 配置情報抽出部 117 画像合成部 118 画像書き込み部 119 エッジ画像生成部 121 粗画像生成部 110 recording medium 111 image reading unit 112 image expansion unit 113 region setting unit 114 corresponding point extraction unit 115 evaluation data generation unit 116 placement information extraction unit 117 image synthesis unit 118 image writing unit 119 edge image generation unit 121 rough image generation unit
───────────────────────────────────────────────────── フロントページの続き (72)発明者 羽鳥 健司 東京都大田区下丸子3丁目30番2号 キヤ ノン株式会社内 ────────────────────────────────────────────────── ─── Continuing on the front page (72) Inventor Kenji Hatori 3-30-2 Shimomaruko, Ota-ku, Tokyo Inside Canon Inc.
Claims (9)
する対応点抽出手段と、 上記抽出された対応点に基づいて上記複数の画像を配置
する配置情報を抽出する配置情報抽出手段と、 上記抽出された配置情報及び対応点に基づいて上記複数
の画像を合成する画像合成手段とを備えた画像合成装
置。1. Corresponding point extracting means for extracting corresponding points between a plurality of input images, and arrangement information extracting means for extracting arrangement information for arranging the plurality of images based on the extracted corresponding points. An image synthesizing apparatus comprising: an image synthesizing unit that synthesizes the plurality of images based on the extracted arrangement information and the corresponding points.
出するための複数の候補点を上記複数の画像に設定し、
この複数の候補点について対応点抽出処理を行い、この
処理により得られる対応点情報の誤対応成分を除去する
ことにより対応点を得ることを特徴とする請求項1記載
の画像合成装置。2. The corresponding point extracting means sets a plurality of candidate points for extracting the corresponding points in the plurality of images,
The image synthesizing apparatus according to claim 1, wherein the corresponding points are obtained by performing corresponding point extraction processing on the plurality of candidate points and removing erroneous corresponding components of the corresponding point information obtained by this processing.
補点の数及び誤対応成分除去後の対応点の数の評価情報
を生成し、この評価情報を基に配置情報を抽出すること
を特徴とする請求項2記載の画像合成装置。3. The arrangement information extraction means generates evaluation information on the number of the plurality of candidate points and the number of corresponding points after the removal of the erroneous corresponding components, and extracts the arrangement information based on the evaluation information. The image synthesizing device according to claim 2.
のエッジ画像を生成し、この生成したエッジ画像を基に
対応点抽出を行うことを特徴とする請求項1記載の画像
合成装置。4. The image synthesizing apparatus according to claim 1, wherein the corresponding point extracting means generates edge images of the plurality of images and performs corresponding point extraction based on the generated edge images.
出するための複数の候補点を上記複数の画像に設け、こ
の候補点はその候補点の周辺のエッジ情報を基に設定す
ることを特徴とする請求項4記載の画像合成装置。5. The corresponding point extracting means sets a plurality of candidate points for extracting the corresponding points in the plurality of images, and sets the candidate points based on edge information around the candidate points. The image synthesizing device according to claim 4.
小画像生成手段を設け、上記対応点抽出手段は、複数の
上記縮小画像間の対応点を抽出し、上記配置情報抽出手
段は上記抽出された対応点に基づいて上記複数の画像の
配置情報を抽出することを特徴とする請求項1記載の画
像合成装置。6. A reduced image generating means for generating reduced images of the plurality of images is provided, the corresponding point extracting means extracts corresponding points between the plurality of reduced images, and the arrangement information extracting means extracts the extracted points. The image synthesizing apparatus according to claim 1, wherein the arrangement information of the plurality of images is extracted based on the determined corresponding points.
する縮小画像生成手段と、 複数の上記縮小画像間の対応点を抽出する第1の対応点
抽出手段と、 上記抽出された対応点に基づいて上記複数の画像を配置
する配置情報を抽出する配置情報抽出手段と、 上記抽出された配置情報と上記抽出された縮小画像間の
対応点に基づいて上記複数の画像間の対応点を抽出する
第2の対応点抽出手段と、 上記抽出された配置情報及び上記複数の画像間で抽出さ
れた対応点に基づいて上記複数の画像を合成する画像合
成手段とを備えた画像合成装置。7. A reduced image generating means for generating reduced images of a plurality of input images, a first corresponding point extracting means for extracting corresponding points between the plurality of reduced images, and the extracted corresponding points. Arrangement information extracting means for extracting arrangement information for arranging the plurality of images based on, and corresponding points between the plurality of images based on corresponding points between the extracted arrangement information and the extracted reduced image. An image synthesizing device comprising: second corresponding point extracting means for extracting; and image synthesizing means for synthesizing the plurality of images based on the extracted arrangement information and the corresponding points extracted between the plurality of images.
出する領域を上記複数の画像に設定することを特徴とす
る請求項1記載の画像合成装置。8. The image synthesizing apparatus according to claim 1, wherein the corresponding point extracting means sets an area for extracting the corresponding points in the plurality of images.
した後、この合成された画像と他の画像とについて上記
対応点抽出手段が上記領域を設定して対応点を抽出する
ように成され、この際、上記2つの画像に設定された領
域については対応点抽出処理は行わないことを特徴とす
る請求項8記載の画像合成装置。9. The image synthesizing means is configured such that, after synthesizing two images, the corresponding point extracting means sets the area and extracts corresponding points for the synthesized image and another image. 9. At this time, the corresponding point extraction processing is not performed for the areas set in the two images, and the image composition apparatus according to claim 8.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP8133645A JPH09322061A (en) | 1996-05-28 | 1996-05-28 | Image composing device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP8133645A JPH09322061A (en) | 1996-05-28 | 1996-05-28 | Image composing device |
Publications (1)
Publication Number | Publication Date |
---|---|
JPH09322061A true JPH09322061A (en) | 1997-12-12 |
Family
ID=15109659
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP8133645A Pending JPH09322061A (en) | 1996-05-28 | 1996-05-28 | Image composing device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPH09322061A (en) |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000022934A (en) * | 1998-07-03 | 2000-01-21 | Sharp Corp | Image processor |
US7123291B2 (en) | 2000-02-03 | 2006-10-17 | Minolta Co., Ltd. | Image processing device, image processing method and image processing program for joining a plurality of divided images |
KR100790887B1 (en) * | 2006-09-22 | 2008-01-02 | 삼성전자주식회사 | Apparatus and method for processing image |
KR100866278B1 (en) * | 2007-04-26 | 2008-10-31 | 주식회사 코아로직 | Apparatus and method for making a panorama image and Computer readable medium stored thereon computer executable instruction for performing the method |
JP2011066535A (en) * | 2009-09-15 | 2011-03-31 | Tokyo Metropolitan Industrial Technology Research Institute | Image composing apparatus and image composing method |
JP2013015665A (en) * | 2011-07-04 | 2013-01-24 | Nikon Corp | Microscope device and image forming method |
WO2015030221A1 (en) * | 2013-08-28 | 2015-03-05 | Ricoh Company, Ltd. | Image processing apparatus, image processing method, and imaging system |
JP2015046044A (en) * | 2013-08-28 | 2015-03-12 | 株式会社リコー | Image processing apparatus, image processing method, program, and imaging system |
JP2016053978A (en) * | 2015-11-20 | 2016-04-14 | 株式会社リコー | Image processor |
JP2017501005A (en) * | 2013-12-23 | 2017-01-12 | アールエスビーブイ,リミティド ライアビリティ カンパニー | Wide-field retinal image acquisition system and method |
JP2018022519A (en) * | 2017-10-05 | 2018-02-08 | 株式会社リコー | Image processing apparatus |
-
1996
- 1996-05-28 JP JP8133645A patent/JPH09322061A/en active Pending
Cited By (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000022934A (en) * | 1998-07-03 | 2000-01-21 | Sharp Corp | Image processor |
US7123291B2 (en) | 2000-02-03 | 2006-10-17 | Minolta Co., Ltd. | Image processing device, image processing method and image processing program for joining a plurality of divided images |
KR100790887B1 (en) * | 2006-09-22 | 2008-01-02 | 삼성전자주식회사 | Apparatus and method for processing image |
KR100866278B1 (en) * | 2007-04-26 | 2008-10-31 | 주식회사 코아로직 | Apparatus and method for making a panorama image and Computer readable medium stored thereon computer executable instruction for performing the method |
JP2011066535A (en) * | 2009-09-15 | 2011-03-31 | Tokyo Metropolitan Industrial Technology Research Institute | Image composing apparatus and image composing method |
JP2013015665A (en) * | 2011-07-04 | 2013-01-24 | Nikon Corp | Microscope device and image forming method |
CN105659287A (en) * | 2013-08-28 | 2016-06-08 | 株式会社理光 | Image processing apparatus, image processing method, and imaging system |
US9609212B2 (en) | 2013-08-28 | 2017-03-28 | Ricoh Company, Ltd. | Image processing apparatus, image processing method, and image system |
KR20160028490A (en) * | 2013-08-28 | 2016-03-11 | 가부시키가이샤 리코 | Image processing apparatus, image processing method, and imaging system |
CN108600576B (en) * | 2013-08-28 | 2020-12-29 | 株式会社理光 | Image processing apparatus, method and system, and computer-readable recording medium |
WO2015030221A1 (en) * | 2013-08-28 | 2015-03-05 | Ricoh Company, Ltd. | Image processing apparatus, image processing method, and imaging system |
US20160212336A1 (en) * | 2013-08-28 | 2016-07-21 | Hirokazu Takenaka | Image processing apparatus, image processing method, and imaging system |
US10834316B2 (en) | 2013-08-28 | 2020-11-10 | Ricoh Company, Ltd. | Image processing apparatus, image processing method, and imaging system |
JP2015046044A (en) * | 2013-08-28 | 2015-03-12 | 株式会社リコー | Image processing apparatus, image processing method, program, and imaging system |
US10412302B2 (en) | 2013-08-28 | 2019-09-10 | Ricoh Company, Ltd. | Image processing apparatus, image processing method, and imaging system |
CN105659287B (en) * | 2013-08-28 | 2018-08-17 | 株式会社理光 | Image processing apparatus, image processing method and imaging system |
US10063774B2 (en) | 2013-08-28 | 2018-08-28 | Ricoh Company, Ltd. | Image processing apparatus, image processing method, and imaging system |
JP2017501005A (en) * | 2013-12-23 | 2017-01-12 | アールエスビーブイ,リミティド ライアビリティ カンパニー | Wide-field retinal image acquisition system and method |
JP2016053978A (en) * | 2015-11-20 | 2016-04-14 | 株式会社リコー | Image processor |
JP2018022519A (en) * | 2017-10-05 | 2018-02-08 | 株式会社リコー | Image processing apparatus |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5269707B2 (en) | Image composition apparatus and method | |
US7076116B2 (en) | Image processing apparatus | |
JP4821642B2 (en) | Image processing method, image processing apparatus, digital camera, and image processing program | |
US10785469B2 (en) | Generation apparatus and method for generating a virtual viewpoint image | |
JP5182229B2 (en) | Image processing apparatus, image processing method, and program | |
JPH09322061A (en) | Image composing device | |
WO2012137621A1 (en) | Image processing method and device | |
CN104396231A (en) | Image processing device and image processing method | |
JP4272771B2 (en) | Image processing apparatus, image processing method, and computer-readable storage medium | |
JP7333520B2 (en) | LEARNING PROGRAM, LEARNING METHOD, AND INFORMATION PROCESSING DEVICE | |
JPH10301948A (en) | Method for retrieving image and video | |
JPH10126665A (en) | Image composing device | |
JP2002207963A (en) | Image processor | |
JP3468404B2 (en) | Video subtitle insertion method and apparatus, and recording medium recording the video subtitle insertion method | |
JP3175760B2 (en) | Video anchor creation system | |
JP6782825B1 (en) | Notification judgment device, notification judgment method and notification judgment program | |
JPH11213156A (en) | Device, method for processing image and recording medium | |
JP2005182098A (en) | Device and method for generating and displaying composite image | |
JP2004145592A (en) | Motion vector extraction device, method and program, and its recording medium | |
JP2000216990A (en) | Image processor, image processing method and storage medium | |
KR102680424B1 (en) | High-resolution image stitching method for semiconductor defect inspection | |
US20220230342A1 (en) | Information processing apparatus that estimates object depth, method therefor, and storage medium holding program therefor | |
JP3216037B2 (en) | Panorama image composition system | |
JP4154023B2 (en) | Image composition method, image composition apparatus, image composition system, and storage medium | |
JP2005267094A (en) | Image processing device, image processing method, and image processing program |