JP2007011762A - Area extraction apparatus and area extraction method - Google Patents
Area extraction apparatus and area extraction method Download PDFInfo
- Publication number
- JP2007011762A JP2007011762A JP2005192812A JP2005192812A JP2007011762A JP 2007011762 A JP2007011762 A JP 2007011762A JP 2005192812 A JP2005192812 A JP 2005192812A JP 2005192812 A JP2005192812 A JP 2005192812A JP 2007011762 A JP2007011762 A JP 2007011762A
- Authority
- JP
- Japan
- Prior art keywords
- image
- area
- extracting
- region
- extracted
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Image Analysis (AREA)
Abstract
Description
本発明は、画像から閉領域を抽出する領域抽出装置及び領域抽出方法に関する。 The present invention relates to a region extraction apparatus and a region extraction method for extracting a closed region from an image.
画像から閉領域を抽出する場合、従来は、例えば非特許文献1に開示されているように、視野内の四角形状の抽出を行う事で、領域を認識していた。即ち、画像を所定の閾値で2値化し、閉領域を探索する事で注目領域の認識を行っている。
上記のような四角形状の抽出を行うことで閉領域を認識する手法では、4辺が背景と区別できるように見えている事、4辺がとぎれずに見えている事が必須となる。 In the method of recognizing a closed region by performing a rectangular extraction as described above, it is essential that the four sides appear to be distinguishable from the background, and that the four sides are visible without being interrupted.
しかしながら、例えば、写真プリントを撮影した画像では、必ずしも4辺に背景と区別し易いコントラストがついているとは限らない。 However, for example, an image obtained by taking a photographic print does not necessarily have a contrast that is easily distinguishable from the background on the four sides.
また、机上などに写真プリントが複数枚置かれた状態では、目的とする写真プリントを抽出するのは容易ではなかった。特に、互いが重なり合ったような状態では、下になっている写真プリントの4辺がとぎれずに見えることはなく、写真プリントを選択抽出するのは難しかった。 In addition, when a plurality of photographic prints are placed on a desk or the like, it is not easy to extract a desired photographic print. In particular, in the state where they overlap each other, the four sides of the underlying photographic print do not appear to be continuous, and it is difficult to selectively extract the photographic print.
本発明は、上記の点に鑑みてなされたもので、閉領域の4辺の一部がとぎれて観察される場合であっても、画像から精度良く閉領域を抽出可能な領域抽出装置及び領域抽出方法を提供することを目的とする。 The present invention has been made in view of the above points, and an area extraction device and an area that can accurately extract a closed area from an image even when a part of four sides of the closed area is cut off and observed. An object is to provide an extraction method.
本発明の領域抽出装置の一態様は、
画像を入力する画像入力手段と、
上記画像入力手段で入力した画像から複数の直線を抽出する直線抽出手段と、
上記直線抽出手段によって抽出された複数の直線が囲む閉領域を抽出する領域抽出手段と、
を具備することを特徴とする。
One aspect of the region extraction device of the present invention is:
An image input means for inputting an image;
Straight line extraction means for extracting a plurality of straight lines from the image input by the image input means;
Area extracting means for extracting a closed area surrounded by a plurality of straight lines extracted by the straight line extracting means;
It is characterized by comprising.
また、本発明の領域抽出装置の別の態様は、
その中に画像を含む被写体を撮像した画像において、上記被写体中の画像境界の複数の辺を抽出する辺抽出手段と、
上記画像の複数の辺或いは上記複数の辺を延長した複数の直線によって、囲まれる閉領域を抽出する領域抽出手段と、
を具備することを特徴とする。
Another aspect of the region extraction apparatus of the present invention is as follows.
In an image obtained by capturing a subject including an image therein, a side extracting unit that extracts a plurality of sides of the image boundary in the subject;
A region extracting means for extracting a closed region surrounded by a plurality of sides of the image or a plurality of straight lines extending the plurality of sides;
It is characterized by comprising.
また、本発明の領域抽出方法の一態様は、
画像から閉領域を抽出する領域抽出方法であり、
画像を入力し、
上記入力した画像から複数の直線を抽出し、
上記抽出した複数の直線が囲む閉領域を抽出する、
ことを特徴とする。
Also, one aspect of the region extraction method of the present invention is:
An area extraction method for extracting a closed area from an image,
Enter an image,
Extract multiple straight lines from the input image,
Extracting a closed region surrounded by the plurality of extracted straight lines,
It is characterized by that.
また、本発明の領域抽出方法の別の態様は、
被写体中に含まれる画像を抽出する領域抽出方法であり、
その中に画像を含む被写体を撮像した画像において、上記被写体中の画像境界の複数の辺を抽出し、
上記抽出した画像の複数の辺或いは上記複数の辺を延長した複数の直線によって、囲まれる閉領域を抽出する、
ことを特徴とする。
Another aspect of the region extraction method of the present invention is as follows.
An area extraction method for extracting an image included in a subject,
In an image obtained by capturing a subject including an image, a plurality of sides of the image boundary in the subject are extracted,
Extracting a closed region surrounded by a plurality of sides of the extracted image or a plurality of straight lines extending the plurality of sides;
It is characterized by that.
本発明によれば、閉領域の4辺の一部がとぎれて観察される場合であっても、画像から精度良く閉領域を抽出可能な領域抽出装置及び領域抽出方法を提供することができる。 ADVANTAGE OF THE INVENTION According to this invention, even if it is a case where a part of 4 sides of a closed region is cut and observed, the area | region extraction apparatus and the region extraction method which can extract a closed region from an image accurately can be provided.
以下、本発明を実施するための最良の形態を図面を参照して説明する。 The best mode for carrying out the present invention will be described below with reference to the drawings.
[第1実施形態]
まず、図1を参照して、本発明の第1実施形態に係る領域抽出装置の適用された検索システムの概略を説明する。
[First Embodiment]
First, with reference to FIG. 1, an outline of a search system to which the region extraction apparatus according to the first embodiment of the present invention is applied will be described.
即ち、本検索システムは、デジタルカメラ10と、ストレージ20と、プリンタ30とから構成される。ここで、ストレージ20は、複数の画像データを格納するもので、プリンタ30は、そのストレージ20に格納された画像データをプリントアウトする。なお、ストレージ20は、デジタルカメラ10に内蔵乃至は脱着可能なメモリであって、プリンタ30は、デジタルカメラ10からのプリントアウト指示に従って、そのストレージ20であるメモリ内の画像データをプリントアウトする。あるいは、ストレージ20は、デジタルカメラ10に接続端子,ケーブル,あるいは無線/有線ネットワークを介して接続される、もしくは、デジタルカメラ10から取り外されたメモリを装着して、画像データを転送可能なデバイスであっても良い。その場合には、プリンタ30は、ストレージ20に接続または一体的に構成され、デジタルカメラ10からのプリントアウト指示に従ってプリントアウトを実行するようなものであっても良い。
That is, the search system includes a digital camera 10, a
なお、ストレージ20は、特徴量によって画像データが検索可能に構成されたデータベースの機能も備える。即ち、ストレージ20は、原画像のデジタルデータより作成された特徴量データ(テンプレート)群を格納した特徴量データベースを構成している。
Note that the
このような構成において、(1)まず、デジタルカメラ10は、プリンタ30によって一旦プリントアウトされた検索元プリントアウト1の画像を含む被写体を撮影し、得られた撮影画像データから、その検索元プリントアウト1の画像に対応する領域を抽出し、その抽出した領域の特徴量を抽出する。(2)そして、デジタルカメラ10は、その抽出した特徴量によってストレージ20に格納されたテンプレートとテンプレートマッチング処理を実行する。(3)その結果、マッチしたテンプレートに対応する画像データを、上記検索元プリントアウト1の原画像データであるとして読み出す。(4)これにより、その読み出した原画像データを、再び、プリンタ30でプリントアウトすることができる。
In such a configuration, (1) First, the digital camera 10 shoots a subject including an image of the
なお、検索元プリントアウト1は、1枚単位で出力されたプリントアウト以外に、複数の縮小画像をまとめて出力したインデックスプリントを検索元プリントアウトとして使う方法も利用可能である。これは、インデックスプリントから必要なものを選択して、焼き増しする方がコスト面や利便性が良いためである。
The
また、検索元プリントアウト1については、システム内のストレージ20に構成した特徴量データベースに原画像データがある画像であれば、システム外(図示せず)のプリンタでプリントアウトしたものであっても構わない。
The
以下、第1実施形態に係る領域抽出装置の適用された検索システムを詳細に説明する。
図2(A)はそのような検索システムのブロック構成図であり、図2(B)はその動作フローチャートである。なお、デジタルカメラ10は、通常の撮影モードとは別に、撮影済みデータの検索モードを有し、この動作フローチャートは、その検索モードに設定されている場合の処理を示している。
Hereinafter, the search system to which the region extraction apparatus according to the first embodiment is applied will be described in detail.
FIG. 2A is a block diagram of such a search system, and FIG. 2B is an operation flowchart thereof. Note that the digital camera 10 has a captured data search mode in addition to the normal shooting mode, and this operation flowchart shows processing when the search mode is set.
即ち、ユーザは、上記検索モードに設定した後、再度プリントアウトすることを望む検索元プリントアウト1をテーブル上或いは壁面等に貼付した状態で、デジタルカメラ10の撮像部11により、少なくとも上記検索元プリントアウト1の欠けが無いように撮影する(ステップS11)。
That is, the user sets at least the search source by the
すると、デジタルカメラ10においては、領域抽出部12にて、撮像部11で撮影された画像データ中から、上記検索元プリントアウト1の画像を特定し、その部分を特定・抽出するためのプリントアウトの切り出し処理を実行する(ステップS12)。このプリントアウトの切り出し処理の詳細については後述する。
Then, in the digital camera 10, the
次に、特徴量抽出部13によって、上記領域抽出部12で特定・抽出された関心領域から特徴量を抽出する処理を行う(ステップS13)。なお、特徴量は、画像データ内の特徴点の配置関係を使うものであっても良いし、所定のルールに従った画像データ内の分割エリア、つまり予め定められた格子により割り付けられた小領域の相対濃度などを使うものでも構わないし、分割エリア毎のフーリエ変換値などに基づいたものでも構わない。
Next, the feature
次に、マッチング部14により、上記特徴量抽出部13で抽出した特徴量データを、ストレージ20に構成した撮影済み画像データの特徴量データベースと比較し、その類似度の高いものを順に抽出するDBとのマッチング処理を実行する(ステップS14)。即ち、図3(A)に示すように、各撮影済み画像データデータの特徴量データとの類似度を算出し(ステップS141)、類似度に基づいてソートする(ステップS142)。そして、その類似度に従って原画像候補を選出する(ステップS143)。なお、この選出は、閾値を設定しても良いし、類似度の高い順に上位のものを指定しても良い。何れにしても、類似度の最上位のものを1点選出する方法と、類似度の高いものから複数点を選出する方法の2種の方法がある。
Next, the matching
その後、表示部15に、上記選出された原画像候補の画像データをストレージ20から読み出して、抽出すべき画像候補として表示し(ステップS15)、ユーザによる選択を受け付ける(ステップS16)。図4(A)は、画像候補を1点だけ表示する場合の表示部15の表示画面を示している。この表示画面では、画像候補151の表示の横に、他の画像候補の表示を指示する際に操作すべきボタンを表す『前』及び『次』アイコン152と、当該画像候補151を所望の画像データとして指示する際に操作すべきボタンを表す『決定』アイコン153とが配置される。『前』及び『次』アイコン152は、デジタルカメラ10が通常備える所謂十字キーの左キー及び右キーであることを表し、『決定』アイコン153はその十字ボタンの真ん中に配置されるエンターキーであることを表す。
Thereafter, the selected original image candidate image data is read from the
ここで、『前』及び『次』アイコン152に相当する十字キーが操作された場合には(ステップS17)、上記ステップS15に戻って、画像候補151を更新表示する。これに対して、『決定』アイコン153に相当するエンターキーが操作された場合には(ステップS17)、マッチング部14は、ストレージ20に格納されている当該画像候補151に対応する原画像データを、接続されたプリンタ30に送り、再度プリントアウトする(ステップS18)。また、プリンタ30に有線/無線で直接接続されていない場合には、ストレージ20に格納されている当該画像候補151に対応する原画像データに、フラグを追記する等の所定のマーキングを行う処理を実行することで、該ストレージ20にアクセス可能なプリンタ30でプリントアウトすることを可能とする。
Here, when the cross key corresponding to the “previous” and “next”
なお、上記ステップS15の画像候補の表示において、複数の候補を同時に表示するようにしても構わない。この場合、通常デジタルカメラ10に設置されている表示部15は当然数インチの小型のものであるため、4点或いは9点程度の表示が使い易い。図4(B)は、9点の画像候補151を表示するようにした例を示している。この場合、『前』及び『次』アイコン152に相当する十字キーの左キー及び右キーの操作に応じて、選択画像を示す太枠154が移動される。なお、特に図示はしていないが、十字キーの上キー及び下キーの操作に応じて、9点の画像候補151の表示を前及び次の9点の画像候補の表示に変更する、所謂ページ切り替え表示を行うようにしても良い。
Note that, in the display of the image candidates in step S15, a plurality of candidates may be displayed simultaneously. In this case, since the
次に、上記ステップS12で実行されるプリントアウトの切り出し処理について、図2(C)のフローチャートを参照して説明する。 Next, the printout cutout process executed in step S12 will be described with reference to the flowchart of FIG.
即ち、まず、デジタルカメラ10で撮影された検索元プリントアウト1の画像を含む画像データから、線分を検出し易くするため、エッジ成分を抽出する(ステップS121)。これは、例えば、共立出版株式会社刊・尾崎他共著『画像処理』、日刊工業新聞社刊・手塚他共著『デジタル画像処理工学』、等に開示されているフィルタを用いて画像データからエッジ成分を抽出するものである。この場合、フィルタは、検出するエッジの方向に応じて、図5に示すような一般的なフィルタを用いる。なおここでは、x,yの2方向のエッジ成分抽出の例を説明したが、対象となる検索元プリントアウト1の向きが特定されない場合には、全方向のエッジ成分抽出を行う。
That is, first, an edge component is extracted from the image data including the image of the
次に、直線成分の抽出を行う(ステップS122)。例えば、ハフ変換による直線成分の抽出を行う。 Next, a linear component is extracted (step S122). For example, linear components are extracted by Hough transform.
ハフ変換とは、例えば、共立出版株式会社刊・尾崎他共著『画像処理』、日刊工業新聞社刊・手塚他共著『デジタル画像処理工学』、等に開示されているように、座標変換によって点の集合から直線の式を定める手法であり、画像処理では良く用いられる。 Hough transform is a point by coordinate transformation as disclosed in Kyoritsu Publishing Co., Ltd./Ozaki et al. “Image Processing”, Nikkan Kogyo Shimbun / Tezuka et al. “Digital Image Processing Engineering”, etc. This is a technique for determining a straight line expression from a set of the above and is often used in image processing.
ハフ変換では、図6に示すように、画像上の座標(X,y)をθ、ρで表されるハフ曲線に変換する。 In the Hough transform, as shown in FIG. 6, the coordinates (X, y) on the image are converted into a Hough curve represented by θ and ρ.
ρ=xcosθ+ysinθ …式(1)
エッジ抽出フィルタによってエッジ抽出した画像中で、閾値を越えるピクセルの座標(x,y)をハフ曲線に変換し、θ,ρを座標軸としたθ−ρ画像上に曲線を描いていく。実際には、θ−ρ画像の座標(θ,ρ)をカウントアップしていく。
ρ = x cos θ + ysin θ Formula (1)
In the image extracted by the edge extraction filter, the coordinates (x, y) of the pixels exceeding the threshold value are converted into a Hough curve, and a curve is drawn on the θ-ρ image with θ and ρ as coordinate axes. Actually, the coordinates (θ, ρ) of the θ-ρ image are counted up.
ハフ曲線の交点が同一直線を表すことになる為、上で得られたθ,ρ座標の輝度(交点における重なり)が、同一直線上に存在するピクセル数を表す。θ−ρ画像上において最も輝度の高い座標(θ,ρ)を上記式(1)に代入し、直線の式を得る。 Since the intersection of the Hough curves represents the same straight line, the brightness of the θ and ρ coordinates obtained above (overlap at the intersection) represents the number of pixels existing on the same straight line. The highest luminance coordinate (θ, ρ) on the θ-ρ image is substituted into the above equation (1) to obtain a linear equation.
次に、上記ハフ変換で得られた各直線を線分に分解する(ステップS123)。即ち、各直線を延長してなる線分を求める。そして、各線分の繋がりや形状から領域を決定する(ステップS124)。即ち、4つの線分で囲まれた領域を探索し、閉領域であった場合は抽出領域とする。これは、撮影画像視野内に検索元プリントアウト1(注目領域)が一つしかない場合であれば、4つの直線で囲まれた領域を探索すれば良いが、検索元プリントアウト1が複数有り、しかもその一部が重なっているような場合には、下にある検索元プリントアウト1については4つの直線で囲まれないからである。各直線を延長した線分により探索することで、そのような下にある検索元プリントアウト1についても閉領域を推定することが可能となる。
Next, each straight line obtained by the Hough transform is decomposed into line segments (step S123). That is, a line segment obtained by extending each straight line is obtained. Then, an area is determined from the connection and shape of each line segment (step S124). That is, an area surrounded by four line segments is searched, and if it is a closed area, it is set as an extraction area. If there is only one search source printout 1 (region of interest) in the captured image field of view, an area surrounded by four straight lines may be searched, but there are a plurality of
なお、閉領域の認識については種々方法が提案されており、ここでは述べない。また、ここでは、エッジ抽出、ハフ変換を使った直線抽出について説明したが、直線を検出する方法であればこれらに限られるものでは無い。 Various methods for recognizing the closed region have been proposed and will not be described here. Here, the edge extraction and the straight line extraction using the Hough transform have been described. However, the method is not limited to these as long as the method detects a straight line.
図7(A)及び(B)に上記処理による直線の抽出の例を示す。太線16が抽出された直線を示している。図7(A)は撮影画像視野内に注目領域が一つしかない場合を、また、図7(B)は複数の注目領域がある場合を示す。
7A and 7B show examples of straight line extraction by the above processing. A
注目領域が複数ある場合には、複数の原画像データを検索する場合もあるが、一つに絞る場合には下記のように選択をすることができる。 When there are a plurality of regions of interest, a plurality of original image data may be searched, but when narrowing down to one, the following selection can be made.
例えば、被写体画像の中央部に位置する閉領域を優先的に選択する。 For example, the closed region located at the center of the subject image is preferentially selected.
あるいは、求めた複数の閉領域をデジタルカメラ10の表示部15に表示し、十字キー等の操作によって、所望の閉領域をユーザが選択できるようにしても良い。またこの場合、そのようなユーザインタフェースによって、ユーザの領域の部分的修正を許すようにしても構わない。
Alternatively, the obtained plurality of closed areas may be displayed on the
また、面積の大きい閉領域を優先的に選択するようにしても良い。 Further, a closed region having a large area may be preferentially selected.
あるいは、抽出領域の中で所定の色を多く含む画像(赤、青等)を選択するようにしても良い。 Or you may make it select the image (red, blue, etc.) containing many predetermined colors in an extraction area | region.
更には、抽出領域の中の周波数分布が所定の値に近いものを選択するようにしても良い。 Furthermore, a frequency distribution close to a predetermined value in the extraction region may be selected.
また、他との重なりが少ない即ち上になっている閉領域を優先的に選択するものとしても良い。この重なりが少ない状態の認識方法としては、次のような方法がある。 It is also possible to preferentially select a closed region that has little overlap with others, that is, an upper region. There are the following methods for recognizing this state with little overlap.
方法1:ハフ変換により、同一線上にあると認識された点について、図6中の右図の各点を再度図6中の左図の線上に配置する。こうすることで線上の線分が定まり、各線分と図7(B)の抽出領域の関係とから領域の上下関係を求めることができる。より上にある領域を重なりが少ない領域とする。 Method 1: For the points recognized as being on the same line by the Hough transform, each point in the right diagram in FIG. 6 is again placed on the line in the left diagram in FIG. In this way, line segments on the line are determined, and the vertical relationship between the areas can be obtained from the relationship between each line segment and the extraction area in FIG. 7B. The region above is defined as a region with little overlap.
方法2:検索システムにおいて、マッチングを行うテンプレートが複数ある場合に、あるテンプレートだけが極端に類似度が低い場合、その部分が他の領域によって遮蔽されている、と判断することができる。 Method 2: In a search system, when there are a plurality of templates to be matched, if only a certain template has an extremely low degree of similarity, it can be determined that the portion is shielded by another region.
上記方法を使うほか、上記方法1と2を組み合わせ、より精度良く重なりが少ない状態を判定することもできる。
In addition to using the above method, the
以上のように、本実施形態は、抽出直線に基づく線分の交点を求める方式であるため、検索元プリントアウト1の各辺の一部が見えていれば良い。
As described above, since the present embodiment is a method for obtaining the intersection of line segments based on the extracted straight line, it is sufficient that a part of each side of the
従って、複数枚の検索元プリントアウト1の中から目的とする検索元プリントアウト1を容易に抽出できる。特に、検索元プリントアウト1同士が一部重なり合ったような場合でも抽出が可能になる。
Accordingly, the target
なお、上記ステップS14において用いられる比較対象としてのストレージ20に構成した撮影済み画像データの特徴量データベースについては、予め、ストレージ20中の原画像データを元に作成しておく必要がある。
It should be noted that the feature amount database of captured image data configured in the
この特徴量データベースの作成には、各種の方法が考えられる。
例えば、原画像撮影時にその撮影画像データをデジタルカメラ10のメモリ領域に保存する際に、特徴量算出とそのデータベース登録を行う方法である。即ち、図3(B)に示すように、デジタルカメラ10にて撮影を行い(ステップS201)、その撮影画像データをデジタルカメラ10のメモリ領域に保存する(ステップS202)。そして、その保存した撮影画像データから特徴量を算出してテンプレートデータを作成し(ステップS203)、その作成したテンプレートデータを上記撮影画像データに関連付けて保存する(ステップS204)。従って、ストレージ20がデジタルカメラ10の内蔵するメモリであれば、データベースが構築されることになる。また、ストレージ20がデジタルカメラ10と別体の場合には、デジタルカメラ10のメモリ領域に保存された撮影画像データとテンプレートデータが共にストレージ20に転送され、データベースが構築されることになる。
Various methods are conceivable for creating the feature amount database.
For example, when the captured image data is stored in the memory area of the digital camera 10 when the original image is captured, the feature amount is calculated and the database is registered. That is, as shown in FIG. 3B, the digital camera 10 performs shooting (step S201), and the captured image data is stored in the memory area of the digital camera 10 (step S202). Then, feature data is calculated from the stored photographed image data to create template data (step S203), and the created template data is stored in association with the photographed image data (step S204). Therefore, if the
また、ストレージ20に蓄積された原画像データをプリンタ30でプリントアウトする際に、そのプリントアウト指示と同時に特徴量抽出処理を行い、データベースに蓄積することもプロセス的に効率が良い方法である。即ち、図3(C)に示すように、ストレージ20に蓄積された原画像データをプリントアウトする際、通常、ユーザ指示により、プリントアウトする原画像データが選択され(ステップS211)、また、プリント条件が設定されて(ステップS212)、プリントが実行される(ステップS213)。通常はここでプリント処理は終了であるが、本例では、更に続けて、その選択された原画像データから特徴量を算出してテンプレートデータを作成し(ステップS214)、その作成したテンプレートデータをその原画像データに関連付けて保存する(ステップS215)。なお、テンプレートデータ作成の際に、プリント条件を反映させることで、検索元プリントアウト1とテンプレートデータとのマッチング精度を向上させることができる。このような方法によれば、マッチング処理が実施されるかもしれない原画像データについてのみしかテンプレートデータを作成しないので、不必要なテンプレートデータの作成時間及び保存容量を省略することができる。
In addition, when the original image data stored in the
また、勿論、バッジ処理で行っても構わない。即ち、図3(D)に示すように、ユーザからの一括テンプレート作成実行指示があったとき(ステップS221)、ストレージ20内のテンプレート未作成原画像データを選別して(ステップS222)、それら選別したテンプレート未作成原画像データに対して一括テンプレート作成処理を実行する(ステップS223)。この一括テンプレート作成処理は、個々のテンプレート未作成原画像データから特徴量を抽出してテンプレートデータを作成し(ステップS223A)、それら作成したテンプレートデータを対応する原画像データに関連付けてストレージ20に保存するものである(ステップS223B)。
Of course, badge processing may be used. That is, as shown in FIG. 3D, when there is a collective template creation execution instruction from the user (step S221), the template uncreated original image data in the
さらには、ユーザの指示入力によって、個別に処理しても良い。即ち、図3(E)に示すように、ユーザが、ストレージ20内の原画像データの一つを選択し(ステップS231)、その選択した原画像データについてテンプレートデータの作成の指示を行うことで(ステップS232)、その選択された原画像データから特徴量を抽出してテンプレートデータを作成し(ステップS233)、その作成したテンプレートデータを上記選択された原画像データに関連付けてストレージ20に保存する(ステップS234)。
Furthermore, it may be processed individually by user input. That is, as shown in FIG. 3E, the user selects one of the original image data in the storage 20 (step S231), and issues an instruction to create template data for the selected original image data. (Step S232), feature data is extracted from the selected original image data to create template data (Step S233), and the created template data is stored in the
以上のように、これまで、プリントアウトしてしまった画像データを再プリントしようとするとき、画像データの付帯情報(ファイル名、撮影日時、等)を参考にユーザが検索する事が多かったが、本実施形態に係る領域抽出装置を適用した検索システムによれば、デジタルカメラ10にて所望の検索元プリントアウト1の画像を撮影するだけで、原画像のファイル(画像データ)にアクセスすることが可能となり、直感的且つユーザの使い勝手の良い検索方法を提供することが可能である。
As described above, until now, when trying to reprint image data that has been printed out, the user often searches with reference to auxiliary information (file name, shooting date, etc.) of the image data. According to the search system to which the region extracting apparatus according to this embodiment is applied, the digital camera 10 can access the original image file (image data) simply by capturing the image of the desired
加えて、原画像データそのもののみならず、類似の画像構成の画像データを検索することも可能であり、副次的ながら新規な用途を提供できる。即ち、街頭の看板やポスター等をこの所謂検索モードで撮影し、デジタルカメラ10に付属するメモリや通信を介してアクセス可能なデータベース等のストレージ20に存在する画像データ及びその特徴量データの中から類似或いは同一の画像データを容易に検索可能となる。
In addition, it is possible to search not only the original image data itself but also image data having a similar image configuration, and can provide a secondary but novel application. That is, street signs, posters, and the like are photographed in this so-called search mode, and the image data and its feature value data existing in the
なお、上記ステップS12乃至S17の処理は、デジタルカメラ10内で実施するものとして説明したが、デジタルカメラ10と別体でストレージ20を存在させる場合には、そのような処理をソフトウェアとしてストレージ20にて起動させる、或いはデジタルカメラ10とストレージ20とに分割した形で起動させることで実際に動作させることも可能である。
The processing in steps S12 to S17 has been described as being performed in the digital camera 10. However, when the
以上のように、本実施形態に係る領域抽出装置は、抽出直線に基づく線分の交点を求める方式であるため、検索元プリントアウト1の各辺の一部が見えていれば良い。従って、複数枚の検索元プリントアウト1の中から目的とする検索元プリントアウト1を容易に抽出できる。特に、検索元プリントアウト1同士が一部重なり合ったような場合でも抽出が可能になる。
As described above, since the region extraction apparatus according to the present embodiment is a method for obtaining the intersection of line segments based on the extracted straight line, it is only necessary to see a part of each side of the
[第2実施形態]
次に、本発明の第2実施形態に係る領域抽出装置の適用された検索システムを説明する。
[Second Embodiment]
Next, a search system to which the region extraction apparatus according to the second embodiment of the present invention is applied will be described.
本実施形態は、前述したステップS12でのプリントアウトの切り出し処理に特徴を有するものであり、その他は上記第1実施形態と同様であるので、その説明は省略する。本実施形態は、画像内を分割し、抽出線分を限定して、閉領域を抽出する方法を採用したものである。 The present embodiment is characterized by the printout cutout process in step S12 described above, and the others are the same as those in the first embodiment, and a description thereof will be omitted. The present embodiment employs a method of dividing the image and limiting the extracted line segments to extract the closed region.
即ち、本実施形態においては、検索モードにて検索元プリントアウト1をデジタルカメラ10で撮影する際、図8に示すように、表示部15にガイド枠17を表示する。そして、このガイド枠17によって区切られた上辺領域、下辺領域、左辺領域、及び右辺領域のそれぞれに、検索元プリントアウト1の上下左右の4辺の一つが入るように、ユーザに撮影を行わせる。なお、各領域の幅は、デジタルカメラ10の設定モードにおいて十字キー等の操作により、ユーザが撮影し易い幅に設定できるものとする。
That is, in this embodiment, when the
これにより、撮影画像データも同様に上辺、右辺、左辺、下辺の4つの領域に分割することができる。そして、上記第6実施形態で説明したような直線抽出では、上辺及び下辺領域については横線を、右辺及び左辺領域は縦線の検出のみを行う。このように限定する事で、計算量を大幅に減少させる事ができる。 Thereby, the captured image data can be similarly divided into four areas of the upper side, the right side, the left side, and the lower side. In the straight line extraction as described in the sixth embodiment, only the horizontal line is detected for the upper side and the lower side area, and the vertical line is detected for the right side and the left side area. By limiting in this way, the amount of calculation can be greatly reduced.
図9(A)は、本実施形態におけるプリントアウトの切り出し処理の動作フローチャートである。即ち、本実施形態においては、まず、デジタルカメラ10で撮影された検索元プリントアウト1の画像を含む画像データにおける直線抽出領域を、現在のガイド枠17の設定に基づいて決定する(ステップS125)。即ち、図9(B)に示すように、撮影画像データ18に対し、上下左右4つの直線抽出領域を決定する。そして、その決定した各直線抽出領域の画像データ18U,18D,18L,18Rから直線を抽出する(ステップS126)。
FIG. 9A is an operation flowchart of printout cutout processing according to the present embodiment. That is, in this embodiment, first, a straight line extraction region in image data including the image of the
即ち、上記第1実施形態では、画像データ内の全直線に対してハフ変換を行い、その直線上の点となるピクセルをカウントしたが、本実施形態では、図10に示すように、各直線抽出領域における各辺の存在角度範囲が決まっている。 That is, in the first embodiment, the Hough transform is performed on all the straight lines in the image data, and the pixels that are points on the straight lines are counted. In this embodiment, as shown in FIG. The existence angle range of each side in the extraction region is determined.
探索範囲は、処理領域サイズに応じて、以下のように決定する。 The search range is determined as follows according to the processing region size.
対角線角度θ=±atan(処理領域高さ/処理領域幅)
縦線探索範囲:90−θ〜90+θ
横線探索範囲:0〜θ,180−θ〜180
即ち、図11の動作フローチャートに示すように、処理領域の幅と高さとを比較し(ステップS31)、幅の方が大きければ、0〜atan(処理領域高さ/処理領域幅)及びπ−atan(処理領域高さ/処理領域幅)〜πの範囲の直線を抽出する(ステップS32)。また、処理領域の幅よりも高さの方が大きければ、π/2−atan(処理領域幅/処理領域高さ)〜π/2+atan(処理領域幅/処理領域高さ)の範囲の直線を抽出する(ステップS33)。
Diagonal angle θ = ± atan (processing area height / processing area width)
Vertical line search range: 90-θ to 90 + θ
Horizontal line search range: 0 to θ, 180-θ to 180
That is, as shown in the operation flowchart of FIG. 11, the width and height of the processing area are compared (step S31). If the width is larger, 0 to atan (processing area height / processing area width) and π− A straight line in the range of atan (processing area height / processing area width) to π is extracted (step S32). If the height of the processing area is larger than the width of the processing area, a straight line in a range from π / 2−atan (processing area width / processing area height) to π / 2 + atan (processing area width / processing area height) is obtained. Extract (step S33).
このように探索領域に制限をかけたうえで、上記第6実施形態で説明したような手順により閉領域を決定していく(ステップS127)。そして、決定された閉領域は、デジタルカメラ10の表示部15に太線16として提示される。
After limiting the search area in this way, the closed area is determined by the procedure described in the sixth embodiment (step S127). The determined closed region is presented as a
なお、画像データ内のノイズ等の影響により抽出領域が希望の領域では無かった場合(例えば、地面や水平線を検出してしまった場合)には、以下の手法により修正が可能である。 In addition, when the extraction area is not a desired area due to the influence of noise or the like in the image data (for example, when the ground or the horizontal line is detected), the correction can be performed by the following method.
(a)上記ハフ変換におけるθ,ρ座標の輝度が第2位の直線を用いる。 (A) A straight line having the second highest luminance of the θ and ρ coordinates in the Hough transform is used.
(b)ユーザが手動により選択抽出した直線を用いる。 (B) A straight line manually selected and extracted by the user is used.
勿論、上記第6実施形態で説明したように、ユーザが、上記抽出された閉領域を部分的に修正しても良い。 Of course, as described in the sixth embodiment, the user may partially correct the extracted closed region.
以上のように、本第2実施形態によれば、撮影画面内を分割し、各領域に検索元プリントアウト1の辺が入るように誘導する事で、検出範囲が限定され、計算量の軽減及び高速化を実現することができる。
As described above, according to the second embodiment, the detection range is limited and the amount of calculation is reduced by dividing the shooting screen and guiding the
なお、また、入力画像は静止画に限られるものでは無い。動画像が入力された場合には、各フレーム毎に処理を行い、逐次抽出領域を表示することが可能となる。また、複数フレームの情報を併せて評価し、例えばハフ変換におけるθ・ρ座標の輝度値にとらわれず、いずれのフレームにおいても抽出される直線、所定の複数フレームの中で出現回数の多い直線を候補とする事が可能となる。 The input image is not limited to a still image. When a moving image is input, it is possible to perform processing for each frame and display the extraction region sequentially. In addition, the information of a plurality of frames is evaluated together, for example, a straight line extracted in any frame regardless of the luminance value of the θ · ρ coordinate in the Hough transform, and a straight line having a large number of appearances in a predetermined plurality of frames. Can be a candidate.
また、入力画像は、プリンタでプリントアウトした検索元プリントアウト1に限定されるものではない。図12(A)に示すように、画像データを表示した表示デバイス40を撮影し、その表示デバイス40に表示された画像データを関心領域として抽出し、図12(B)に示すように、太線16を表示することも可能である。なおこの場合、図9(B)に示すように、各直線抽出領域の画像データ18U,18D,18L,18Rを黒画像データに置換し、太線16をより識別可能に表示するようにしても良い。
Further, the input image is not limited to the
[第3実施形態]
次に、本発明の第3実施形態に係る領域抽出装置の適用された検索システムを説明する。
[Third Embodiment]
Next, a search system to which the region extraction apparatus according to the third embodiment of the present invention is applied will be described.
本実施形態は、前述したステップS12でのプリントアウトの切り出し処理に特徴を有するものであり、その他は上記第1実施形態と同様であるので、その説明は省略する。本実施形態は、エッジ抽出により、閉領域を抽出する方法を採用したものである。 The present embodiment is characterized by the printout cutout process in step S12 described above, and the others are the same as those in the first embodiment, and a description thereof will be omitted. This embodiment employs a method of extracting a closed region by edge extraction.
図13(A)は、本実施形態におけるプリントアウトの切り出し処理の動作フローチャートを示している。 FIG. 13A shows an operation flowchart of printout cutout processing in the present embodiment.
即ち、デジタルカメラ10で撮影された検索元プリントアウト1の画像を含む画像データから、フィルタを用いてエッジを抽出する(ステップS121)。次に、それら検出したエッジを探索していき(ステップS128)、エッジの形状から領域を決定する(ステップS129)。
That is, an edge is extracted from the image data including the image of the
このような方法によっても、閉領域を抽出することができる。 A closed region can also be extracted by such a method.
また、図13(B)に示すような手法でプリントアウトの切り出し処理を行っても良い。 Also, the printout cutout process may be performed by a method as shown in FIG.
即ち、まず、撮影された画像データ中の線分を検出し(ステップS12A)、それら検出された線分の中から直線を検出する(ステップS12B)。そして、それら検出した直線4本で構成される枠を推定する(ステップS12C)。即ち、4辺に囲まれた関心領域を撮影された画像データ中から探し出す。なお、そのような4辺に囲まれた領域が複数ある場合には、その中で最も面積の大きい部分を関心領域として抽出したり、或いは矩形の縦横比などから関心領域を特定すれば良い。また、まれに、撮影された画像データの中で検索元プリントアウト1自体がそりを生じ、その結果、4辺に囲まれた領域と特定できないことがある。この場合、4辺の内幾つかが緩い円弧で構成されていてもそれを許容するような処理を行うことも有効である。また、ここで検索元プリントアウト1と見られる領域を抽出した後、その画像データ領域をアフィン変換等により正規化する処理も含んでいる。
That is, first, a line segment in the captured image data is detected (step S12A), and a straight line is detected from the detected line segment (step S12B). Then, a frame composed of the four detected straight lines is estimated (step S12C). That is, the region of interest surrounded by the four sides is searched from the captured image data. If there are a plurality of regions surrounded by such four sides, the region with the largest area may be extracted as the region of interest, or the region of interest may be specified from the rectangular aspect ratio. In rare cases, the
[第4実施形態]
次に、図1を参照して、本発明の第4実施形態に係る領域抽出装置の適用された検索システムの概略を説明する。
[Fourth Embodiment]
Next, with reference to FIG. 1, the outline of the search system to which the area extracting apparatus according to the fourth embodiment of the present invention is applied will be described.
即ち、本検索システムは、デジタルカメラ10と、ストレージ20と、プリンタ30と、パーソナルコンピュータ(PC)50とから構成される。ここで、ストレージ20は、PC50に内蔵乃至は通信によってアクセス可能な記憶装置である。また、PC50は、デジタルカメラ10に無線/有線接続される、もしくは、デジタルカメラ10から取り外されたメモリを装着して、デジタルカメラ10のメモリに保存された画像データを読み出し可能に構成されている。
That is, the search system includes a digital camera 10, a
このような構成において、(1)まず、デジタルカメラ10は、プリンタ30によって一旦プリントアウトされた検索元プリントアウト1の画像を含む被写体を撮影する。(2)PC50は、得られた撮影画像データから、その検索元プリントアウト1の画像に対応する領域を抽出し、その抽出した領域の特徴量を抽出する。(3)そして、その抽出した特徴量によってストレージ20に格納されたテンプレートとテンプレートマッチング処理を実行する。(4)その結果、マッチしたテンプレートに対応する画像データを、上記検索元プリントアウト1の原画像データであるとして読み出す。(5)これにより、その読み出した原画像データを、再び、プリンタ30でプリントアウトすることができる。
In such a configuration, (1) First, the digital camera 10 captures a subject including an image of the
以下、第4実施形態に係る領域抽出装置を適用した検索システムを詳細に説明する。
図14(A)はそのような検索システムのブロック構成図であり、図15はその動作フローチャートである。即ち、本実施形態は、デジタルカメラ10で撮影された画像データをそのユーザが特定するPC50に内蔵又は接続されたストレージ20に蓄積し、且つ図15にPC側として示す処理がアプリケーションソフトウェアとしてPC50にて動作する場合である。なお、PC50とデジタルカメラ10を有線或いは無線で接続し、通信状態を確立した状態で、本アプリケーションソフトウェアを立ち上げるものである。これは、デジタルカメラ10に設定された“検索モード”等といったスイッチを入れる操作によって機能が起動される状態でも構わない。
Hereinafter, a search system to which the region extraction device according to the fourth embodiment is applied will be described in detail.
FIG. 14A is a block diagram of such a search system, and FIG. 15 is an operation flowchart thereof. That is, in this embodiment, image data captured by the digital camera 10 is stored in the
このように本アプリケーションソフトウェアが動作したところで、デジタルカメラ10側にて、プリントアウトの撮像処理が実行される(ステップS11)。これは、図14(B)に示すように、ユーザが、再度プリントアウトすることを望む検索元プリントアウト1をテーブル上或いは壁面等に貼付した状態で、デジタルカメラ10の撮像部11により、少なくとも上記検索元プリントアウト1の欠けが無いように撮影することで、得られた撮影画像データがデジタルカメラ10内のメモリである記憶部19に保存される(ステップS111)。そして、その保存された撮影画像データが、有線或いは無線で、接続されたPC50に転送される(ステップS112)。
When the application software operates as described above, the printout imaging process is executed on the digital camera 10 side (step S11). As shown in FIG. 14B, this is because the
すると、PC50においては、アプリケーションソフトウェアにより実現される領域抽出部51にて、上記送信されてきた撮影画像データ中から、上記検索元プリントアウト1の画像を特定し、その部分を特定・抽出するためのプリントアウトの切り出し処理を実行する(ステップS12)。このプリントアウトの切り出し処理は、前述した第1乃至第3実施形態で説明したようなものである。
Then, in the
次に、アプリケーションソフトウェアにより実現される特徴量抽出部52によって、上記特定・抽出された関心領域から特徴量を抽出する処理を行う(ステップS13)。なお、上記切り出し処理及び特徴量抽出処理は、デジタルカメラ10側で行うようにしても良い。そのようにすれば、デジタルカメラ10からPC50への通信量を少なくすることができる。
Next, the feature
その後、アプリケーションソフトウェアにより実現されるマッチング部53により、上記抽出した特徴量データを、ストレージ20に構成した撮影済み画像データの特徴量データベースと比較し、その類似度の高いものを順に抽出するDBとのマッチング処理を実行する(ステップS14)。即ち、算出された特徴量データを元にPC50側のマッチング部53にて、ストレージ20の画像データそれぞれに同梱される(或いは包括的にデータベース化された)特徴量データ群と比較し、最も近いものを選び出す。設定により、最も近い複数の特徴量候補を選出する事も使い勝手において有効である。この特徴量データには、その特徴量を算出した原画像データの指定情報が含まれており、それに従い候補画像を呼び出す。
Thereafter, the matching
その後、上記選出された原画像候補(或いは候補画像群)の画像データをストレージ20から読み出して、該PC50のディスプレイである表示部54に抽出すべき画像候補として表示し(ステップS15)、ユーザによる選択を受け付ける。このとき、上記選出された原画像候補(或いは候補画像群)の画像データをそのままか、適宜圧縮した状態で、PC50よりデジタルカメラ10に転送し、デジタルカメラ10の表示部15上に表示するようにしても構わない(ステップS31)。
Thereafter, the image data of the selected original image candidate (or candidate image group) is read from the
そして、マウス等の操作による選択に応じて、ストレージ20に格納されている当該画像候補に対応する原画像データを、接続されたプリンタ30に送り、再度プリントアウトする(ステップS18)。即ち、上記表示された原画像候補をユーザの判断により決定し、印刷プロセスに渡すことにより当初の目的であるプリントアウト済み画像の再印刷がユーザにとっては簡単に行えるものである。なおこのとき、単純に印刷するばかりではなく、候補画像として複数選択した中でユーザ判断によっては、「狙いの元画像とは異なるが、類似の画像を集めた」ことになり、類似の画像データを一括検索する機能の実現にも繋がっている。
Then, according to the selection by the operation of the mouse or the like, the original image data corresponding to the image candidate stored in the
なお、本実施形態においては、特徴量データベースの作成は、デジタルカメラ10からPC50を介したストレージ20への撮影画像データの転送時に行うようにしても良い。即ち、図14(C)に示すように、デジタルカメラ10からPC50への撮影画像データの転送を開始し(ステップS241)、PC50により、その転送されてきた撮影画像データをストレージ20に保存すると共に(ステップS242)、その撮影画像データからテンプレートデータを作成する(ステップS243)。そして、その作成したテンプレートデータをストレージ20に上記撮影画像データに関連付けて保存する(ステップS244)。
In the present embodiment, the feature amount database may be created when the captured image data is transferred from the digital camera 10 to the
以上のように、本第4実施形態においても、上記第1乃至第3実施形態と同様、デジタルカメラ10にて所望の検索元プリントアウト1の画像を撮影するだけで、原画像のファイル(画像データ)にアクセスすることが可能となり、直感的且つユーザの使い勝手の良い検索方法を提供することが可能である。
As described above, also in the fourth embodiment, as in the first to third embodiments, an image of an original image (image) can be obtained by simply capturing an image of a desired
加えて、原画像データそのもののみならず、類似の画像構成の画像データを検索することも可能であり、副次的ながら新規な用途を提供できる。即ち、街頭の看板やポスター等をこの所謂検索モードで撮影し、デジタルカメラ10に付属するメモリや通信を介してアクセス可能なデータベース等のストレージ20に存在する画像データ及びその特徴量データの中から類似或いは同一の画像データを容易に検索可能となる。更には、そのデータに紐付くインターネットサイトをPC50やデジタルカメラ等のディスプレイで表示したり、特定のアプリケーション(音声・動画等)を作動させることなどが可能となる。
In addition, it is possible to search not only the original image data itself but also image data having a similar image configuration, and can provide a secondary but novel application. That is, street signs, posters, and the like are photographed in this so-called search mode, and the image data and its feature value data existing in the
なお、上記説明では、デジタルカメラ10を用いたが、本実施形態はそれに限定されるものではなく、スキャナであっても構わない。 In the above description, the digital camera 10 is used. However, the present embodiment is not limited to this and may be a scanner.
また、実際にプリントアウトした検索元プリントアウト1をデジタルカメラ10で撮影しているが、例えば検索元プリントアウト1を撮影した画像を表示している表示デバイス40をデジタルカメラ10で撮影しても同様に実施可能である。
In addition, the
以上実施形態に基づいて本発明を説明したが、本発明は上述した実施形態に限定されるものではなく、本発明の要旨の範囲内で種々の変形や応用が可能なことは勿論である。 Although the present invention has been described above based on the embodiments, the present invention is not limited to the above-described embodiments, and various modifications and applications are naturally possible within the scope of the gist of the present invention.
例えば、デジタルカメラは、静止画を撮影するデジタルスチルカメラに限定するものではなく、動画像を撮影するデジタルムービーカメラも含む。また、通信機能を備えたデジタルカメラであるカメラ付携帯電話機・PHSや、固定テレビ電話等の撮像機能付通信装置も含む。 For example, the digital camera is not limited to a digital still camera that captures a still image, and includes a digital movie camera that captures a moving image. In addition, a camera-equipped mobile phone / PHS, which is a digital camera having a communication function, and a communication device with an imaging function such as a fixed videophone are also included.
本発明の応用範囲として、カメラ付携帯電話やデジタルカメラは言うに及ばず、画像で認証するタイプのセキュリティーシステム等、一般的にカメラによりデジタル画像を撮影・蓄積するシステムにおいては広範な利用が期待できる。 The scope of application of the present invention is not limited to camera-equipped mobile phones and digital cameras, but is expected to be widely used in systems that generally shoot and store digital images with cameras, such as security systems that authenticate with images. it can.
1…検索元プリントアウト、 10…デジタルカメラ、 11…撮像部、 12,51…領域抽出部、 13,52…特徴量抽出部、 14,53…マッチング部、 15,54…表示部、 16…太線、 17…ガイド枠、 18…撮影画像データ、 18U,18D,18L,18R…直線抽出領域の画像データ、 19…記憶部、 20…ストレージ、 21…1次特徴量のマッチングサーバ及び1次情報DB、 22…2次特徴量のマッチングサーバ及び2次情報DB、 2n…n次特徴量のマッチングサーバ及びn次情報DB、 30…プリンタ、 50…パーソナルコンピュータ(PC)、 40…表示デバイス、 151…画像候補、 152…『前』及び『次』アイコン、 153…『決定』アイコン、 154…太枠。
DESCRIPTION OF
Claims (15)
上記画像入力手段で入力した画像から複数の直線を抽出する直線抽出手段と、
上記直線抽出手段によって抽出された複数の直線が囲む閉領域を抽出する領域抽出手段と、
を具備することを特徴とする領域抽出装置。 An image input means for inputting an image;
Straight line extraction means for extracting a plurality of straight lines from the image input by the image input means;
Area extracting means for extracting a closed area surrounded by a plurality of straight lines extracted by the straight line extracting means;
An area extracting apparatus comprising:
上記画像入力手段で入力した画像からエッジ成分を抽出するエッジ成分抽出手段と、
上記エッジ成分抽出手段が抽出したエッジ成分から、ハフ変換によって直線成分を抽出するハフ変換手段と、
を有する、
ことを特徴とする請求項1に記載の領域抽出装置。 The straight line extraction means is:
Edge component extraction means for extracting edge components from the image input by the image input means;
Hough transforming means for extracting a linear component by Hough transform from the edge component extracted by the edge component extracting means;
Having
The area extracting apparatus according to claim 1, wherein:
上記画像の複数の辺或いは上記複数の辺を延長した複数の直線によって、囲まれる閉領域を抽出する領域抽出手段と、
を具備することを特徴とする領域抽出装置。 In an image obtained by capturing a subject including an image therein, a side extracting unit that extracts a plurality of sides of the image boundary in the subject;
A region extracting means for extracting a closed region surrounded by a plurality of sides of the image or a plurality of straight lines extending the plurality of sides;
An area extracting apparatus comprising:
画像を入力し、
上記入力した画像から複数の直線を抽出し、
上記抽出した複数の直線が囲む閉領域を抽出する、
ことを特徴とする領域抽出方法。 An area extraction method for extracting a closed area from an image,
Enter an image,
Extract multiple straight lines from the input image,
Extracting a closed region surrounded by the plurality of extracted straight lines,
A region extraction method characterized by that.
その中に画像を含む被写体を撮像した画像において、上記被写体中の画像境界の複数の辺を抽出し、
上記抽出した画像の複数の辺或いは上記複数の辺を延長した複数の直線によって、囲まれる閉領域を抽出する、
ことを特徴とする領域抽出方法。 An area extraction method for extracting an image included in a subject,
In an image obtained by capturing a subject including an image, a plurality of sides of the image boundary in the subject are extracted,
Extracting a closed region surrounded by a plurality of sides of the extracted image or a plurality of straight lines extending the plurality of sides;
A region extraction method characterized by that.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005192812A JP2007011762A (en) | 2005-06-30 | 2005-06-30 | Area extraction apparatus and area extraction method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005192812A JP2007011762A (en) | 2005-06-30 | 2005-06-30 | Area extraction apparatus and area extraction method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2007011762A true JP2007011762A (en) | 2007-01-18 |
Family
ID=37750158
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005192812A Pending JP2007011762A (en) | 2005-06-30 | 2005-06-30 | Area extraction apparatus and area extraction method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2007011762A (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8295599B2 (en) | 2009-08-03 | 2012-10-23 | Sharp Kabushiki Kaisha | Image output apparatus, captured image processing system, and recording medium |
JP2022531812A (en) * | 2018-11-07 | 2022-07-12 | メタ プラットフォームズ, インク. | Augmented reality target |
US11961959B2 (en) | 2017-07-31 | 2024-04-16 | Tesla, Inc. | Battery systems based on lithium difluorophosphate |
US12100812B2 (en) | 2017-07-31 | 2024-09-24 | Tesla, Inc. | Battery systems based on two-additive electrolyte system |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPWO2004081887A1 (en) * | 2003-03-14 | 2006-06-15 | 富士通株式会社 | Paper sheet identification method and paper sheet identification apparatus |
-
2005
- 2005-06-30 JP JP2005192812A patent/JP2007011762A/en active Pending
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPWO2004081887A1 (en) * | 2003-03-14 | 2006-06-15 | 富士通株式会社 | Paper sheet identification method and paper sheet identification apparatus |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8295599B2 (en) | 2009-08-03 | 2012-10-23 | Sharp Kabushiki Kaisha | Image output apparatus, captured image processing system, and recording medium |
US11961959B2 (en) | 2017-07-31 | 2024-04-16 | Tesla, Inc. | Battery systems based on lithium difluorophosphate |
US12100812B2 (en) | 2017-07-31 | 2024-09-24 | Tesla, Inc. | Battery systems based on two-additive electrolyte system |
JP2022531812A (en) * | 2018-11-07 | 2022-07-12 | メタ プラットフォームズ, インク. | Augmented reality target |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JPWO2007004519A1 (en) | Search system and search method | |
US7272269B2 (en) | Image processing apparatus and method therefor | |
US9754164B2 (en) | Systems and methods for classifying objects in digital images captured using mobile devices | |
US8203748B2 (en) | Image processing apparatus, control method therefor, and program | |
US7876471B2 (en) | Image processing apparatus, control method and program thereof which searches for corresponding original electronic data based on a paper document | |
US20080095447A1 (en) | Retrieval System and Retrieval Method | |
US8412705B2 (en) | Image processing apparatus, image processing method, and computer-readable storage medium | |
JP2011008752A (en) | Document operation system, document operation method and program thereof | |
US7551753B2 (en) | Image processing apparatus and method therefor | |
TW201333835A (en) | Systems and methods for mobile image capture and processing | |
JP2004265384A (en) | Image processing system, information processing device, control method, computer program, and computer-readable storage medium | |
CN107085699B (en) | Information processing apparatus, control method of information processing apparatus, and storage medium | |
KR20130066819A (en) | Apparus and method for character recognition based on photograph image | |
JP2006243943A (en) | Image processing apparatus and its method | |
JP4859054B2 (en) | Image processing apparatus, image processing method, program, and recording medium | |
US8181108B2 (en) | Device for editing metadata of divided object | |
JP2007011762A (en) | Area extraction apparatus and area extraction method | |
JP2007004621A (en) | Document management supporting device, and document management supporting method and program | |
JP6314408B2 (en) | Image processing apparatus and image processing program | |
CN105100616A (en) | Image processing method and electronic equipment | |
JP7318289B2 (en) | Information processing device and program | |
JP6012700B2 (en) | Information processing apparatus, information processing method, information processing system, and computer program | |
JP2008186256A (en) | Document processor, document processing method, and computer program | |
WO2015189941A1 (en) | Information processing device, information processing method, and program | |
JP2006333248A (en) | Image processing apparatus, image processing method, program and storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20070612 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20100408 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100413 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20101130 |