JP2005182098A - Device and method for generating and displaying composite image - Google Patents
Device and method for generating and displaying composite image Download PDFInfo
- Publication number
- JP2005182098A JP2005182098A JP2003417435A JP2003417435A JP2005182098A JP 2005182098 A JP2005182098 A JP 2005182098A JP 2003417435 A JP2003417435 A JP 2003417435A JP 2003417435 A JP2003417435 A JP 2003417435A JP 2005182098 A JP2005182098 A JP 2005182098A
- Authority
- JP
- Japan
- Prior art keywords
- image
- images
- feature
- feature points
- generating
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 239000002131 composite material Substances 0.000 title claims abstract description 32
- 238000000034 method Methods 0.000 title claims description 21
- 238000004364 calculation method Methods 0.000 claims abstract description 12
- 239000000284 extract Substances 0.000 claims description 2
- 238000001514 detection method Methods 0.000 abstract 1
- 238000000605 extraction Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Images
Landscapes
- Image Analysis (AREA)
- Image Processing (AREA)
- Studio Circuits (AREA)
- Editing Of Facsimile Originals (AREA)
- Facsimile Image Signal Circuits (AREA)
- Color Image Communication Systems (AREA)
Abstract
Description
本発明は複数の画像から共通部分を算出して画像同士をつなげて合成された画像を自動生成・表示する装置に関し、詳しくは複数の画像におけるエッジの特徴と色相の特徴群の照合により複数の画像の共通部分を検出し、特徴点群の相対的な位置関係により特徴点間の誤対応を減らして合成された1枚あるいは複数の画像を生成し、表示する装置および方法に関する。 The present invention relates to an apparatus for automatically generating and displaying a composite image by calculating a common portion from a plurality of images and connecting the images, and more specifically, by comparing a plurality of edge features and hue feature groups in a plurality of images. The present invention relates to an apparatus and a method for detecting a common part of images, generating one or a plurality of images synthesized by reducing miscorrespondence between feature points based on the relative positional relationship of feature points, and displaying them.
複数の画像から1枚の画像を生成する際には、各画像における共通な特徴を人間が判断し、手動により選択を行うことで1枚の画像を生成する手法が一般的である。また、自動化を図る場合、各画像における共通な特徴を多数抽出することが困難な場合があり、また相関演算にもとづく特徴点同士の照合においては、誤対応が検出される場合が多く、1枚の画像として自動的かつ精度良く合成することが困難であることが知られる(例えば、特許文献1、非特許文献1乃至3を参照)。 When one image is generated from a plurality of images, a method is generally used in which a human determines a common feature in each image and generates a single image by manual selection. In addition, when automating, it may be difficult to extract many common features in each image, and in the matching of feature points based on correlation calculation, miscorrespondence is often detected. It is known that it is difficult to synthesize the image automatically and accurately (see, for example, Patent Document 1 and Non-Patent Documents 1 to 3).
画像入力機器または既に画像が保存されている記憶装置などから得られた複数の画像より画像間で共通な部分を検出することで、複数の画像をつなげて1枚の画像として自動的に生成し、表示する装置の構築を課題とする。なお、この複数の画像から生成された1枚あるいは複数の画像を合成画像と定義し、以下ではこの呼称を用いる。 By detecting a common part between images from multiple images obtained from an image input device or a storage device that already stores images, the multiple images are connected and automatically generated as a single image. The construction of a display device is an issue. Note that one or a plurality of images generated from the plurality of images is defined as a composite image, and this designation is used below.
前記の課題を解決すべく、画像入力機器または既に画像が保存されているを制御することにより画像入力を行い、入力された画像からエッジ画像と色相画像を生成し、それぞれの画像において画像上のある点において近傍に対するエッジか色相の値の類似度が低い点を特徴点として抽出し、複数の画像間で特徴点を照合することにより、共通な特徴点を持つ画像の組を算出し、同じ特徴点を持つ画像間において、相対位置関係が保持されている特徴点のみを算出し、同じ特徴点を持つ画像間において、相対位置関係が保持されている特徴点群の相対位置の平均値を算出し、この相対位置を画像間の相対位置として、画像を重ね合わせて合成画像を生成、表示する。 In order to solve the above-described problems, image input is performed by controlling an image input device or an image already stored, and an edge image and a hue image are generated from the input image. A point with low edge or hue value similarity to a neighborhood at a certain point is extracted as a feature point, and a set of images having a common feature point is calculated by collating the feature points between multiple images. Calculate only the feature points for which the relative positional relationship is maintained between images having feature points, and calculate the average value of the relative positions of the feature point groups for which the relative positional relationship is maintained between images having the same feature points. The calculated relative position is used as a relative position between the images, and the combined images are generated and displayed by superimposing the images.
本発明により、複数の画像における共通な特徴を抽出・照合し、1枚の合成画像として自動的に生成・表示することが可能となる。特に複数の画像のそれぞれからエッジと色相の特徴点を多数抽出し、各画像間で照合することにより、画像間における共通な部分を検出し、また特徴点同士の相対位置の比較によって特徴点間の誤対応を減少させることで、より精度の高い合成画像の自動生成・表示を可能とする。 According to the present invention, common features in a plurality of images can be extracted and collated, and automatically generated and displayed as a single composite image. In particular, a large number of edge and hue feature points are extracted from each of a plurality of images and collated between the images to detect a common part between the images, and between the feature points by comparing the relative positions of the feature points. This makes it possible to automatically generate and display a synthesized image with higher accuracy.
本発明の実施の形態を図を用いて以下に説明する。 Embodiments of the present invention will be described below with reference to the drawings.
図1は本発明の処理の流れの概要を示す。処理が開始されると(101)、カメラなどの画像入力機器を制御することにより画像入力を行い(102)、入力された画像からエッジ画像と色相画像を生成し、それぞれの画像において画像上のある点において近傍に対するエッジの類似度が低い点もしくは色相の値の類似度が低い点を特徴点として抽出し(103)、複数の画像間で特徴点を照合することにより、共通な特徴点を持つ画像の組を算出し、算出された画像の組において、相対位置関係が保持されている特徴点のみを算出し(104)、共通な特徴点を持つ画像間において、相対位置関係が保持されている特徴点群の相対位置の平均値を算出し、この相対位置を画像間の相対位置として合成画像を生成し(105)、生成された合成画像を表示し(106)、プログラムを終了する(107)。 FIG. 1 shows an outline of the processing flow of the present invention. When the processing is started (101), image input is performed by controlling an image input device such as a camera (102), and an edge image and a hue image are generated from the input images. A point having a low edge similarity to a neighborhood or a point having a low hue value similarity at a certain point is extracted as a feature point (103), and a common feature point is obtained by collating the feature points between a plurality of images. A set of images possessed is calculated, and only the feature points for which the relative positional relationship is maintained in the calculated set of images are calculated (104), and the relative positional relationship is maintained between images having common feature points. The average value of the relative positions of the feature point groups being calculated is calculated, a composite image is generated using the relative position as the relative position between the images (105), the generated composite image is displayed (106), and the program is To completion (107).
以上の処理の流れの概略を踏まえ、図1の処理の流れをより詳細にしたものを図2に示す。図1の102が図2の202に、図1の102が図2の203〜206に、図1の103が図2の207〜209、212に、図1の104が図2の210に、図1の105が図2の211に対応する。 Based on the outline of the above processing flow, FIG. 2 shows a more detailed processing flow of FIG. 2 in FIG. 1, 102 in FIG. 1, 203 to 206 in FIG. 2, 103 in FIG. 1 in 207 to 209 and 212 in FIG. 2, 104 in FIG. 1 to 210 in FIG. 105 in FIG. 1 corresponds to 211 in FIG.
また、図2のうち、処理208の部分を詳細に示したものを図3に示す。
FIG. 3 shows details of the
プログラムが開始されると(201)、画像入力(102)の処理としてカメラなどの画像入力機器の制御を行い、複数枚の画像を取り込む(202)。
次に画像特徴算出(103)を行う。図4は画像特徴算出(103)の処理(203〜206)のうち204と206の例を示すものである。画像入力(102)により入力された複数の画像のそれぞれに対して、まず明度により二値化したエッジ画像を生成する(203)。生成したエッジ画像(401)においてウィンドウ(402)を設け、ウィンドウを画像内で走査させていく(403)。このとき、ある位置でのウィンドウ(404)の各ピクセル毎に白か黒のいずれかを示す二値の値を読み込んでピクセル値とし、このウィンドウの周囲に設けたウィンドウ(405)の各ピクセル値が一致した場合を1、一致してない場合を0としてウィンドウ内の各ピクセル値に対して評価を行って総和を算出してハミング距離を求める。ハミング距離が閾値以下の場合において、そのウィンドウを特徴点とし、画像における座標とその座標を中心とするウィンドウ内の各ピクセル値を記録する(204)。ここで閾値の設定においては、ウィンドウ間の各ピクセル値が同じか否かを比較したときに一致する割合を閾値として設定する。なお、図4において、ある位置でのウィンドウ(402)に対して周囲に設けるウィンドウを簡略的に1つのウィンドウ(405)として示しているが、実際はウィンドウ(402)に対して全周囲に設ける。
When the program is started (201), the image input device such as a camera is controlled as an image input (102) process, and a plurality of images are captured (202).
Next, image feature calculation (103) is performed. FIG. 4 shows examples 204 and 206 in the processing (203 to 206) of the image feature calculation (103). For each of the plurality of images input by the image input (102), an edge image binarized by brightness is first generated (203). A window (402) is provided in the generated edge image (401), and the window is scanned in the image (403). At this time, for each pixel of the window (404) at a certain position, a binary value indicating either white or black is read as a pixel value, and each pixel value of the window (405) provided around this window 1 is calculated when the values match, and 0 is set when the values do not match, and the pixel values in the window are evaluated to calculate the sum and obtain the Hamming distance. When the Hamming distance is equal to or smaller than the threshold, the window is used as a feature point, and the coordinates in the image and each pixel value in the window centered on the coordinates are recorded (204). Here, in setting the threshold, a ratio that matches when each pixel value between the windows is the same is set as the threshold. In FIG. 4, a window provided around the window (402) at a certain position is simply shown as one window (405), but in reality, it is provided around the entire window (402).
また、画像特徴算出(103)は取り込んだ複数の各画像より、色相画像を生成する(205)。エッジ画像における処理と同様に、生成した色相画像(401)においてウィンドウ(402)を設け、ウィンドウを画像内で走査させていく(403)。このとき、ある位置でのウィンドウ(404)の各ピクセル毎に0度から360度までの範囲をとることで色みを示す値を読み込んでピクセル値とする。同様にウィンドウ(404)の周囲に設けたウィンドウ(405)の各ピクセル値を読み込む。次に各ウィンドウの左上を原点としたときにウィンドウ(404)とウィンドウ(405)の間で同じ座標となる画素のピクセル値の差分をとり、各画素のピクセル値の差分の総和を求める。具体的には下記の式、数1、数2により各画素のピクセル値の差分の総和が算出される。 Further, the image feature calculation (103) generates a hue image from a plurality of captured images (205). Similar to the processing in the edge image, a window (402) is provided in the generated hue image (401), and the window is scanned in the image (403). At this time, by taking a range from 0 degree to 360 degrees for each pixel of the window (404) at a certain position, a value indicating color is read and set as a pixel value. Similarly, each pixel value of the window (405) provided around the window (404) is read. Next, the difference between the pixel values of the pixels having the same coordinates between the window (404) and the window (405) when the upper left corner of each window is set as the origin is obtained, and the sum of the differences between the pixel values of the respective pixels is obtained. Specifically, the sum of the differences between the pixel values of each pixel is calculated by the following equations, Equations 1 and 2.
ここでnはウィンドウ内の縦方向または横方向のピクセル数、H1 とH2は各ウィンドウのある画素のピクセル値とする。また、i=jのときのみ数1及び数2が評価されるものとし、またH1からH2を引いたときの絶対値dijが180以上のときは、d=360−dijを求め、dijにdを代入するものとする。
次いで、この差分の総和が閾値以上の点を特徴点とし、画像における座標とその座標を中心とするウィンドウ内の各ピクセル値を記録する(206)。この
閾値はウィンドウ間の各ピクセル値の差が最も大きくなる場合の差分の総和に対して、比較しているウィンドウ間の画素毎のピクセル値の差分の総和が占める割合で定義される。仮にここでの閾値Rを定義すると、実際においてウィンドウの類似度を比較する際には数3により、ウィンドウ間の各ピクセル値の差が最も大きくなる場合の差分の総和に対して、現在比較しているウィンドウ間の画素毎のピクセル値の差分の総和が占める割合を求める。
Here, n is the number of pixels in the vertical or horizontal direction in the window, and H1 and H2 are the pixel values of a certain pixel in each window. Further, it is assumed that Formulas 1 and 2 are evaluated only when i = j, and when the absolute value dij when H2 is subtracted from H1 is 180 or more, d = 360−dij is obtained, and dij is set to dij. Shall be substituted.
Next, a point where the sum of the differences is equal to or greater than a threshold value is used as a feature point, and the coordinates in the image and each pixel value in the window centered on the coordinates are recorded (206). This threshold value is defined as the ratio of the sum of the differences of the pixel values for each pixel between the windows being compared to the sum of the differences when the difference of the pixel values between the windows is the largest. If the threshold value R is defined here, when comparing the similarity of windows in actuality, the current difference is compared with the sum of the differences when the difference between the pixel values between the windows is the largest by Equation 3. The ratio of the sum of the differences in pixel values for each pixel between the current windows is calculated.
これにより求められたrが閾値Rよりも小さい場合は類似でないと判定する。 When r calculated | required by this is smaller than the threshold value R, it determines with not being similar.
次に画像特徴照合(104)を行う。画像特徴照合(104)は複数の画像間において対応するエッジの特徴点または色相の特徴点を持つ画像の組み合わせを求める処理(207)と207の処理により求められた画像の組み合わせのうち、画像間で共通する特徴点群のうち相対位置も一致する特徴点群のみを選択する処理(208)からなる。まず、図5に画像特徴照合(104)の処理である207の例を示す。ある画像(501)に対して求められたエッジの各特徴点群(502〜505)を参照画像として、画像入力(102)で取り込まれた他の画像(506〜508)において抽出された特徴点との照合を行う。例えば506の画像に対しては既に画像特徴抽出(103)で抽出された特徴点群(509〜512)との類似度の比較を行う。
Next, image feature matching (104) is performed. Image feature matching (104) is a process of obtaining a combination of images having edge feature points or hue feature points corresponding to a plurality of images (207) and among the image combinations obtained by the processing of 207. The processing consists of the processing (208) for selecting only the feature point group having the same relative position among the feature point groups that are common to each other. First, FIG. 5 shows an example 207 which is a process of image feature matching (104). The feature points extracted in the other images (506 to 508) captured by the image input (102) using the feature point groups (502 to 505) of the edges obtained for the certain image (501) as reference images. Is checked. For example, for the
このとき、ウィンドウ内の各ピクセル値が一致した場合を1、一致してない場合を0としてウィンドウ内の各ピクセル値に対して評価を行って総和を算出してハミング距離を求め、ハミング距離が閾値以上の点を求め、その座標を記録する。これにより画像間で共通なエッジの特徴点の位置を算出し、記録する。またエッジ画像における特徴点群の照合と同様に、ある画像(501)に対して求められた色相の特徴点群(502〜505)を参照画像として他の画像(506〜508)において走査を行いながら照合を行う。このとき、ウィンドウ内の画像の各ピクセル値と参照先に設けたウィンドウ内の画像の各ピクセル値との差分をとり、各ピクセル値の差分の総和を求める。これは画像特徴抽出(103)の説明における数1〜数2の処理と同等である。数3が閾値以上の点を求め、その座標を記録する。これにより画像間で共通な色相の特徴点の位置を算出し、記録する。以上によりエッジの特徴点もしくは色相の特徴点を持つ画像の組み合わせをすべて求める。図6に画像特徴照合(104)の処理である208の例を示す。208ではある画像における複数の特徴点と共通な複数の特徴点を持つ画像(601、607)を選択し、特徴点の相対位置が最も合致するような特徴点の組み合わせを求める。まず共通な特徴点を持つ601と607の画像を重ねるとした場合に適当な特徴点(604)を基準として選択する(301)。
At this time, when the pixel values in the window match each other, the evaluation is performed with respect to each pixel value in the window by setting 1 when the pixel values do not match and 0 when the pixel values do not match, and the sum is calculated to obtain the Hamming distance. Find a point above the threshold and record its coordinates. As a result, the position of the feature point of the edge common between the images is calculated and recorded. Similarly to the matching of the feature points in the edge image, scanning is performed in the other images (506 to 508) using the feature points (502 to 505) of the hue obtained for the certain image (501) as a reference image. While collating. At this time, the difference between each pixel value of the image in the window and each pixel value of the image in the window provided at the reference destination is calculated, and the sum of the differences between the pixel values is obtained. This is equivalent to the processing of Formula 1 to Formula 2 in the description of the image feature extraction (103). Find a point where Equation 3 is greater than or equal to the threshold and record its coordinates. As a result, the position of the feature point of the hue common to the images is calculated and recorded. As described above, all combinations of images having edge feature points or hue feature points are obtained. FIG. 6 shows an example 208 of image feature matching (104) processing. In 208, an image (601, 607) having a plurality of feature points in common with a plurality of feature points in a certain image is selected, and a combination of feature points that best matches the relative positions of the feature points is obtained. First, when superimposing
次に601と607の画像が特徴点(604)を基準として重なるように配置する(302)。このとき画像間で一致する各特徴点間の相対距離を算出する(303)。ここで、相対距離とは、基準点から特徴点までの距離である。画像間で一致する特徴点のうち、互いに対応する相対距離が閾値以下となる特徴点の数をカウントする(304)。この任意に選択した基準点、相対距離、閾値の関係の一例を図6に示す。ここで、基準点は任意の特徴点としてもよいし、特徴点以外の任意の場所を基準点として選択してもよい。また同様に特徴点(602)を基準として601と607の画像を重ねるとき、画像間で一致する特徴点間の相対位置が閾値以下のものをカウントし、すべての特徴点を基準としたときに画像間で共通な特徴点間の距離が閾値以下となるものの数をカウントする。すべての特徴点を基準としたときに相対距離が閾値以下の特徴点のカウントが終わった場合(305)、このカウント値が最も大きくなるときに基準とした特徴点を選択する(306)。
Next, the
カウント値が最大となるような特徴点同士の重ね方で画像同士が配置されるとき、画像間で共通の特徴点群のうち、相対位置関係が保持された特徴点の数が最も多いことになる。これを踏まえ、306で選択された特徴点を基準として画像を配置したときに、画像間で一致した特徴点間の距離が閾値以上のものを除外し、閾値以下の特徴点のみを選択し、特徴点のウィンドウ内の画像とその座標をファイルとして記録する(307)。例えば図6においては特徴点(602)を基準として画像(601、607)を配置した場合、各画像間において一致する特徴の組のうち602と608の組、603と609の組、605と610の組がちょうど重なり、604を基準として画像を重ねた場合に比べて一致する特徴点同士の距離が閾値以下となるものの数が大きくなる。よって特徴点602を基準として選択して記録する(307)。このとき特徴点の組(613と616)は特徴は一致するが、互いの距離が閾値以上であるため、記録から除外する(308)。
When the images are arranged in such a way that the feature points have the maximum count value, the number of feature points having the relative positional relationship is the largest among the feature point groups common to the images. Become. Based on this, when images are arranged based on the feature points selected in 306, the feature points that match between the images are excluded when the distance between the feature points is greater than or equal to a threshold, and only feature points that are less than or equal to the threshold are selected. The image in the feature point window and its coordinates are recorded as a file (307). For example, in FIG. 6, when the images (601, 607) are arranged with the feature point (602) as a reference, among the sets of matching features between the images, a set of 602 and 608, a set of 603 and 609, and a set of 605 and 610 And the number of features whose matching feature points are equal to or less than the threshold is larger than when the images are overlapped with reference to 604 as a reference. Therefore, the
次いで画像特徴照合(104)の処理(208)で記録された特徴点の数と各特徴点間の画像上での距離が閾値以上離れているか否かを評価し(209)、閾値以下であれば合成画像の生成に必要な特徴点が得られないと判断し、合成画像が生成できない旨をエラーの表示により操作者に伝える(212)。画像特徴照合(104)の処理(208)で記録された特徴点の数と各特徴点間の画像上での距離が閾値以上であれば、合成画像生成(105)として画像間で一致する各特徴点同士の相対位置を算出し、互いに一致する全て特徴点同士の相対位置の平均値を求め、この値を共通な特徴点を持つ画像同士の相対位置とする。共通な特徴点を持つ画像同士の相対位置を順次求めていき、共通な特徴点を持つ画像同士を相対位置分だけ重複するようにして一枚の画像を生成することで合成画像とする(210)。最後に画像表示(105)として生成された合成画像を表示し(211)、プログラムは終了する(213)。 Next, it is evaluated whether the number of feature points recorded in the process (208) of the image feature matching (104) and the distance between the feature points on the image are more than a threshold value (209). For example, it is determined that a feature point necessary for generating the composite image cannot be obtained, and an error is displayed to notify the operator that the composite image cannot be generated (212). If the number of feature points recorded in the process (208) of the image feature matching (104) and the distance between the feature points on the image are equal to or greater than the threshold value, each of the images that match between the images as the composite image generation (105) The relative positions of the feature points are calculated, the average value of the relative positions of all the feature points that match each other is obtained, and this value is set as the relative position of the images having the common feature points. The relative positions of the images having the common feature points are sequentially obtained, and a single image is generated so that the images having the common feature points overlap each other by the relative position, thereby obtaining a composite image (210 ). Finally, the generated composite image is displayed as the image display (105) (211), and the program ends (213).
次に図7を用いて本発明の実施形態における装置の構成を説明する。この装置は、プログラムにもとづいてデータの処理を行うメインプロセッサ(701)、プログラムとデータを保持するメモリ等の主記憶(707)とハードディスク等の補助記憶(706)、ディスプレイ(702)とグラフィックボード(703)、画像入力(102)を行うためのカメラ(704)とビデオキャプチャボード(705)を備える。この構成は、ハードウェア的には、プロセッサ、メモリ、その他のLSIで実現でき、ソフトウェア的にはメモリにロードされたプログラムなどによって実現されるが、ここではそれらの連携によって実現される機能ブロックを記載している。したがって、これらの機能ブロックがハードウェアのみ、ソフトウェアのみ、またはそれらの組み合わせによっていろいろな形で実現できることは、当業者には理解されるところである。 Next, the configuration of the apparatus according to the embodiment of the present invention will be described with reference to FIG. This apparatus includes a main processor (701) for processing data based on a program, a main memory (707) such as a memory for holding programs and data, an auxiliary memory (706) such as a hard disk, a display (702), and a graphic board. (703), a camera (704) for performing image input (102) and a video capture board (705). This configuration can be realized in terms of hardware by a processor, memory, or other LSI, and in terms of software, it is realized by a program loaded in the memory. It is described. Therefore, those skilled in the art will understand that these functional blocks can be realized in various forms by hardware only, software only, or a combination thereof.
主記憶(707)にて動作するプログラムとデータについて説明をする。オペレーティングシステム(709)は、プログラムの実行等を管理する基本ソフトウェアである。複数の画像から合成画像を生成するプログラムとしては、全体の処理の流れを制御するメインプログラム(710)、図1におけるカメラ画像入力(102)の処理に相当する画像入力プログラム(711)、画像特徴算出(103)の処理に相当する画像特徴算出プログラム(712)、画像特徴照合(104)の処理に相当する画像特徴照合プログラム(713)、合成画像生成(105)の処理に相当する合成画像生成プログラム(714)、画像表示(106)の処理に相当する画像表示プログラム(715)がある。また画像処理にあたって処理結果を保持する画像バッファ(716)がある。また、補助記憶(706)には主記憶に読み込まれる各種プログラム(709〜715)がプログラム(708)として記憶されている。これらのプログラムは、メモリに読み込まれ、プロセッサによって実行されることによって処理が行われる。 The program and data that operate in the main memory (707) will be described. An operating system (709) is basic software for managing execution of programs and the like. As a program for generating a composite image from a plurality of images, a main program (710) for controlling the overall processing flow, an image input program (711) corresponding to the processing of the camera image input (102) in FIG. Image feature calculation program (712) corresponding to the processing of calculation (103), image feature verification program (713) corresponding to the processing of image feature verification (104), and composite image generation corresponding to the processing of composite image generation (105) There is an image display program (715) corresponding to the processing of the program (714) and image display (106). In addition, there is an image buffer (716) that holds processing results in image processing. The auxiliary memory (706) stores various programs (709 to 715) to be read into the main memory as programs (708). These programs are read into a memory and processed by being executed by a processor.
各プログラムの処理について説明する。メインプログラム(710)は図1〜6で示した画像入力から合成画像の生成・表示までのプログラム全体の処理流れを制御する。画像入力プログラム(711)はカメラ画像入力(102)としてビデオキャプチャボード(705)とカメラ(704)を制御することにより、カメラにより撮影された画像を主記憶(707)の画像バッファ(716)に取り込む(図2の202)。なお、この画像バッファ(716)は以下における各種プログラムの作業領域としても用いられる。 The processing of each program will be described. The main program (710) controls the processing flow of the entire program from image input to composite image generation / display shown in FIGS. The image input program (711) controls the video capture board (705) and the camera (704) as the camera image input (102), whereby the image captured by the camera is stored in the image buffer (716) of the main memory (707). Capture (202 in FIG. 2). The image buffer (716) is also used as a work area for various programs described below.
次に画像特徴算出プログラム(712)は画像入力(102)により取り込まれた画像よりエッジ画像の生成を行い(図2の203)、近傍とのエッジの類似度の低い点を特徴点として抽出する(図2の204)。また色相画像を生成し(図2の205)、近傍との色相の類似度の低い点を特徴点として抽出する(図2の206)。画像特徴照合プログラム(713)は画像間においてエッジと色相のそれぞれについて共通な特徴点の組み合わせを算出する(図2の207)。 Next, the image feature calculation program (712) generates an edge image from the image captured by the image input (102) (203 in FIG. 2), and extracts a point having a low degree of edge similarity with the vicinity as a feature point. (204 in FIG. 2). Also, a hue image is generated (205 in FIG. 2), and a point having a low degree of hue similarity with the vicinity is extracted as a feature point (206 in FIG. 2). The image feature matching program (713) calculates a combination of feature points common to each edge and hue between images (207 in FIG. 2).
より具体的には画像間に共通なエッジと色相の各特徴点のうち、ある画像における各特徴点の相対位置を基準として参照先の画像での各特徴点の相対位置との差が閾値以下となるもののみを選択し、記録する(図2の208)。一致した特徴点の数と特徴点間の画像上での距離が閾値以上か否かを評価し、いずれかが閾値に満たない場合はエラー表示を行う(図2の212)。一致した特徴点の数と特徴点間の画像上での距離が閾値以上の場合は合成画像生成プログラム(714)により一致した特徴点群から画像間の相対位置の平均値を求め、この相対位置に従って複数の画像を1枚の合成画像として合成する(図2の211)。次いで画像表示プログラム(715)は合成画像生成プログラム(714)により生成された合成画像を表示する(図2の211)。 More specifically, the difference between the relative position of each feature point in the reference image is equal to or less than the threshold value based on the relative position of each feature point in a certain image among the edge and hue feature points common to the images. Are selected and recorded (208 in FIG. 2). The number of matched feature points and whether or not the distance between the feature points on the image is equal to or greater than a threshold value are evaluated. If any of the feature points is less than the threshold value, an error is displayed (212 in FIG. 2). When the number of matched feature points and the distance between the feature points on the image are equal to or larger than the threshold value, an average value of relative positions between the images is obtained from the matched feature point group by the composite image generation program (714), and the relative position A plurality of images are synthesized as one synthesized image according to (211 in FIG. 2). Next, the image display program (715) displays the composite image generated by the composite image generation program (714) (211 in FIG. 2).
なお、前述した実施の形態の機能を実現するソフトウェアのプログラムを記録した記録媒体を、システムあるいは装置に供給し、そのシステムあるいは装置のプロセッサが記録媒体に格納されたプログラムを読み出し実行することによっても、本願が目的が達成されることはいうまでもない。 It is also possible to supply a recording medium in which a software program for realizing the functions of the above-described embodiments is recorded to a system or apparatus, and for the processor of the system or apparatus to read and execute the program stored in the recording medium. Needless to say, the object of the present application is achieved.
以上の説明においては、発明の実施の形態として特にカメラを画像入力機器とする装置例を示したが、画像入力機器としては、カメラ付き携帯電話やカメラ付きPDA(Personal Digital Assistant)などの電子手帳、ビデオカメラ、スキャナなどに加え、スチルカメラの画像を保存しているネットワーク上の記憶装置などから画像を入力する場合でも示した装置例と同様の結果を得ることが可能である。 In the above description, an example of an apparatus using a camera as an image input device has been shown as an embodiment of the invention. As an image input device, an electronic notebook such as a camera-equipped mobile phone or a camera-equipped PDA (Personal Digital Assistant) is used. In addition to the video camera, the scanner, etc., the same result as that of the device example shown can be obtained even when the image is input from a storage device on the network storing the still camera image.
また、本発明を用いることにより、産業応用の例としては自動車あるいは航空機や衛星などの移動物体に搭載されたカメラにより撮影された複数の画像から1枚の合成画像を自動的に生成・表示を行ったり、複数のカメラを並べたカメラアレイによる複数の画像から1枚の合成画像を自動的に生成・表示することが可能となり、作業の省力化ならびに作業時間の短縮が期待できる。 In addition, by using the present invention, as an example of industrial application, one composite image is automatically generated and displayed from a plurality of images taken by a camera mounted on a moving object such as an automobile or an aircraft or a satellite. It is possible to automatically generate and display one composite image from a plurality of images by a camera array in which a plurality of cameras are arranged, and it can be expected to save work and shorten the work time.
101‥プログラムの開始処理、102‥画像入力処理、103‥画像特徴抽出処理、104‥画像特徴照合処理、105‥画像表示処理、106‥プログラムの終了処理
DESCRIPTION OF
Claims (8)
画像を入力する画像入力手段と、
前記の画像入力手段から入力された複数の画像の各画像における特徴を算出する画像特徴算出手段と、
前記画像特徴算出手段で得られた各画像の特徴を比較し、同様の特徴を有する画像の照合を行う画像特徴照合手段と、
前記画像特徴照合手段における照合結果に基づき前記複数の画像のうちの少なくとも2以上の画像を重ね合わせて合成画像を生成する画像生成手段と、
前記合成画像を表示する手段とを有することを特徴とする画像生成装置。 An image generation device that generates a composite image from a plurality of images,
An image input means for inputting an image;
Image feature calculating means for calculating features in each image of the plurality of images input from the image input means;
Image feature collating means for comparing features of each image obtained by the image feature calculating means and collating images having similar features;
Image generating means for generating a composite image by superimposing at least two of the plurality of images based on a matching result in the image feature matching means;
An image generating apparatus comprising: means for displaying the composite image.
前記画像特徴算出手段は、前記複数画像のそれぞれについてエッジ画像と色相画像を生成し、該エッジ画像と色相画像に基づき各画像内の特徴点を抽出することを特徴とする画像生成装置。 The image generation apparatus according to claim 1,
The image feature calculation means generates an edge image and a hue image for each of the plurality of images, and extracts a feature point in each image based on the edge image and the hue image.
前記画像特徴算出手段は、該エッジ画像と該色相画像のそれぞれについて、前記画像内の所定領域のピクセル値を算出し、他の画像の所定領域のピクセル値との差分が所定の閾値以上の場合に特徴点とし記憶することを特徴とする画像生成装置。 The image generation apparatus according to claim 2,
The image feature calculation means calculates a pixel value of a predetermined area in the image for each of the edge image and the hue image, and a difference from a pixel value of a predetermined area of another image is a predetermined threshold value or more An image generation apparatus characterized by storing the feature points as feature points.
前記画像特徴照合手段は、前記複数の画像のうちの各画像内の特徴点の前記エッジ画像と前記色相画像のピクセル値に基づき、一の画像内の特徴点のピクセル値と他の画像内の特徴点のピクセル値の差分が所定の閾値以下の場合に前記一の特徴点と他の特徴点が類似する特徴点であると判断することを特徴とする画像生成装置。 The image generation apparatus according to claim 2,
The image feature matching unit is configured to determine a pixel value of a feature point in one image and a pixel value of another image based on the pixel value of the edge image and the hue image of the feature point in each of the plurality of images. An image generation apparatus characterized by determining that a feature point is similar to another feature point when a difference between pixel values of feature points is equal to or less than a predetermined threshold value.
前記画像特徴照合手段は、前記特徴点が類似する少なくとも2以上の画像のうちで、各画像内の複数の特徴点のうちの1つの特徴点を基準点とし、該画像内で他の複数の特徴点が該基準点から所定の距離内にあるか否かを判断し、前記他の複数の特徴点のいずれかが前記所定の距離外にある場合、該所定の距離外にある特徴点を前記記憶した特徴点から削除することを特徴とする画像生成装置。 The image generation apparatus according to claim 4,
The image feature matching unit uses one feature point of a plurality of feature points in each image as a reference point among at least two or more images having the similar feature points, and includes a plurality of other feature points in the image. It is determined whether or not the feature point is within a predetermined distance from the reference point, and when any of the other plurality of feature points is outside the predetermined distance, the feature point outside the predetermined distance is determined. An image generating apparatus that deletes the stored feature points.
前記画像生成手段は、前記類似する特徴点を有する2以上の画像を、当該特徴点の位置を重ね合わせることにより、当該画像を合成することを特徴とする画像生成装置。 The image generation apparatus according to claim 5,
The image generating device is characterized in that the image generating means combines two or more images having the similar feature points by superimposing positions of the feature points.
画像入力手段に、複数の画像が入力される工程と、
画像特徴算出手段で、前記の画像入力手段から入力された複数の画像の各画像における特徴を算出する工程と、
前記画像特徴算出手段で得られた各画像の特徴を比較し、同様の特徴を有する画像の照合を行う工程と、
前記画像特徴照合手段における照合結果に基づき前記複数の画像のうちの少なくとも2以上の画像を重ね合わせて合成画像を生成する工程と、
前記合成画像を表示する工程とを有することを特徴とする画像生成方法。 An image generation method for generating a composite image from a plurality of images,
A step of inputting a plurality of images to the image input means;
A step of calculating a feature in each image of the plurality of images input from the image input means by the image feature calculation means;
Comparing the features of each image obtained by the image feature calculation means, and collating images having similar features;
Generating a composite image by superimposing at least two of the plurality of images based on a matching result in the image feature matching unit;
And a step of displaying the composite image.
画像入力手段に、複数の画像が入力される工程と、
画像特徴算出手段で、前記の画像入力手段から入力された複数の画像の各画像における特徴を算出する工程と、
前記画像特徴算出手段で得られた各画像の特徴を比較し、同様の特徴を有する画像の照合を行う工程と、
前記画像特徴照合手段における照合結果に基づき前記複数の画像のうちの少なくとも2以上の画像を重ね合わせて合成画像を生成する工程と、
前記合成画像を表示する工程とを実行させるためのプログラム。
A program for generating a composite image from a plurality of images.
A step of inputting a plurality of images to the image input means;
A step of calculating a feature in each image of the plurality of images input from the image input means by the image feature calculation means;
Comparing the features of each image obtained by the image feature calculation means, and collating images having similar features;
Generating a composite image by superimposing at least two of the plurality of images based on a matching result in the image feature matching unit;
A program for executing the step of displaying the composite image.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003417435A JP4321251B2 (en) | 2003-12-16 | 2003-12-16 | Apparatus and method for generating and displaying composite image |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003417435A JP4321251B2 (en) | 2003-12-16 | 2003-12-16 | Apparatus and method for generating and displaying composite image |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2005182098A true JP2005182098A (en) | 2005-07-07 |
JP4321251B2 JP4321251B2 (en) | 2009-08-26 |
Family
ID=34779929
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003417435A Expired - Fee Related JP4321251B2 (en) | 2003-12-16 | 2003-12-16 | Apparatus and method for generating and displaying composite image |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4321251B2 (en) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007025966A (en) * | 2005-07-14 | 2007-02-01 | Konica Minolta Photo Imaging Inc | Image processing method, image processor and image processing program |
KR100771119B1 (en) | 2006-03-06 | 2007-10-29 | 엠텍비젼 주식회사 | Plurality of image data merging method and device thereof |
JP2008077666A (en) * | 2006-09-22 | 2008-04-03 | Samsung Electronics Co Ltd | Image processor and method |
JP2010514041A (en) * | 2006-12-20 | 2010-04-30 | ミツビシ・エレクトリック・アールアンドディー・センター・ヨーロッパ・ビーヴィ | Multiple image registration apparatus and method |
US7791655B2 (en) | 2006-09-06 | 2010-09-07 | Casio Computer Co., Ltd. | Imaging apparatus with function of shading compensation |
US8542245B2 (en) | 2008-04-03 | 2013-09-24 | Sony Corporation | Image feature detection apparatus, image feature detection method, and storage medium |
KR101493693B1 (en) * | 2007-12-20 | 2015-03-02 | 삼성전자주식회사 | Information processing device, method for information processing, and storing medium having computer program to perform the method |
-
2003
- 2003-12-16 JP JP2003417435A patent/JP4321251B2/en not_active Expired - Fee Related
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007025966A (en) * | 2005-07-14 | 2007-02-01 | Konica Minolta Photo Imaging Inc | Image processing method, image processor and image processing program |
KR100771119B1 (en) | 2006-03-06 | 2007-10-29 | 엠텍비젼 주식회사 | Plurality of image data merging method and device thereof |
US7791655B2 (en) | 2006-09-06 | 2010-09-07 | Casio Computer Co., Ltd. | Imaging apparatus with function of shading compensation |
JP2008077666A (en) * | 2006-09-22 | 2008-04-03 | Samsung Electronics Co Ltd | Image processor and method |
JP2010514041A (en) * | 2006-12-20 | 2010-04-30 | ミツビシ・エレクトリック・アールアンドディー・センター・ヨーロッパ・ビーヴィ | Multiple image registration apparatus and method |
KR101493693B1 (en) * | 2007-12-20 | 2015-03-02 | 삼성전자주식회사 | Information processing device, method for information processing, and storing medium having computer program to perform the method |
US8542245B2 (en) | 2008-04-03 | 2013-09-24 | Sony Corporation | Image feature detection apparatus, image feature detection method, and storage medium |
Also Published As
Publication number | Publication date |
---|---|
JP4321251B2 (en) | 2009-08-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US6714689B1 (en) | Image synthesizing method | |
JP5445460B2 (en) | Impersonation detection system, impersonation detection method, and impersonation detection program | |
KR101722803B1 (en) | Method, computer program, and device for hybrid tracking of real-time representations of objects in image sequence | |
KR101469398B1 (en) | Text-based 3d augmented reality | |
EP2650821B1 (en) | Text image trimming method | |
JP6716996B2 (en) | Image processing program, image processing apparatus, and image processing method | |
US20110311100A1 (en) | Method, Apparatus and Computer Program Product for Providing Object Tracking Using Template Switching and Feature Adaptation | |
EP2259224A2 (en) | Image processing apparatus, image processing method, and program | |
JP2000132688A (en) | Method and device for detecting parts of face | |
US10424068B2 (en) | Image processing apparatus and image processing method for person identification | |
JP2016212784A (en) | Image processing apparatus and image processing method | |
US11138759B2 (en) | Image processing apparatus and image processing method | |
JP4321251B2 (en) | Apparatus and method for generating and displaying composite image | |
JP2019012360A (en) | Information processor, program, and method for information processing | |
JP7003617B2 (en) | Estimator, estimation method, and estimation program | |
JP2019012359A (en) | Information processor, program, and method for information processing | |
JP4145014B2 (en) | Image processing device | |
JP7232663B2 (en) | Image processing device and image processing method | |
JP2006113832A (en) | Stereoscopic image processor and program | |
WO2021186672A1 (en) | Image processing method | |
CN112532884A (en) | Identification method and device and electronic equipment | |
JP2020098575A (en) | Image processor, method for processing information, and image processing program | |
JP2012185655A (en) | Image processing system, image processing method and image processing program | |
JP6946912B2 (en) | Estimator program, estimator, and estimation method | |
JP6574149B2 (en) | Tracking device and tracking method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20050926 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20060424 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20081219 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20090106 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20090227 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20090512 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20090525 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 4321251 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120612 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120612 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130612 Year of fee payment: 4 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313111 Free format text: JAPANESE INTERMEDIATE CODE: R313113 |
|
R360 | Written notification for declining of transfer of rights |
Free format text: JAPANESE INTERMEDIATE CODE: R360 |
|
R360 | Written notification for declining of transfer of rights |
Free format text: JAPANESE INTERMEDIATE CODE: R360 |
|
R371 | Transfer withdrawn |
Free format text: JAPANESE INTERMEDIATE CODE: R371 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313111 Free format text: JAPANESE INTERMEDIATE CODE: R313113 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313111 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |