[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP6880867B2 - Image processing equipment, image processing methods and programs - Google Patents

Image processing equipment, image processing methods and programs Download PDF

Info

Publication number
JP6880867B2
JP6880867B2 JP2017051509A JP2017051509A JP6880867B2 JP 6880867 B2 JP6880867 B2 JP 6880867B2 JP 2017051509 A JP2017051509 A JP 2017051509A JP 2017051509 A JP2017051509 A JP 2017051509A JP 6880867 B2 JP6880867 B2 JP 6880867B2
Authority
JP
Japan
Prior art keywords
feature point
medium
feature points
contour line
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017051509A
Other languages
Japanese (ja)
Other versions
JP2018156274A (en
Inventor
貴之 齋藤
貴之 齋藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2017051509A priority Critical patent/JP6880867B2/en
Publication of JP2018156274A publication Critical patent/JP2018156274A/en
Application granted granted Critical
Publication of JP6880867B2 publication Critical patent/JP6880867B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Description

本発明は画像処理装置、画像処理方法およびプログラムに関する。 The present invention relates to an image processing apparatus, an image processing method and a program.

矩形や円形のような領域を形成する閉図形や、直線のように単体では領域を形成しない開図形の組み合わせ、又は単体によって成る図形の特徴点を抽出する方法が知られている。 A method of extracting feature points of a closed figure that forms an area such as a rectangle or a circle, a combination of open figures that do not form an area by itself such as a straight line, or a figure composed of a single body is known.

特徴点とは、対象となる図形の輪郭をより簡略的に複数の直線で表現するときに、各直線の端点となる点である。特徴点を抽出することのメリットのひとつに、必要なメモリ容量の軽量化が挙げられる。例えば、図15(a)のような弧を描く図形に対して特徴点を抽出してそれらの特徴点を結ぶことで、図15(b)のように当初の弧を描いている部分を簡略化した図形を得ることが出来、必要なメモリ容量の軽量化が可能になる。 A feature point is a point that becomes an end point of each straight line when the outline of the target figure is expressed by a plurality of straight lines more simply. One of the merits of extracting feature points is the reduction of the required memory capacity. For example, by extracting feature points from a figure that draws an arc as shown in FIG. 15 (a) and connecting those feature points, the portion that draws the initial arc as shown in FIG. 15 (b) is simplified. It is possible to obtain a modified figure and reduce the required memory capacity.

特徴点抽出をした後に、図形をさらに簡略化する方法として、DP法(Douglas-Peuckerアルゴリズム)(非特許文献1)が知られている。DP法とは注目する2点の特徴点から引いた直線と、2点の特徴点の間にあり且つ上記直線から最も遠い特徴点との距離を閾値と比較し、当該距離が閾値以下の場合に特徴点を間引く処理を再帰的に行い、残った特徴点同士を結ぶことで図形を簡略化する方法である。DP法による間引きの方法については後の段落で詳しく説明する。 The DP method (Douglas-Peucker algorithm) (Non-Patent Document 1) is known as a method for further simplifying a figure after extracting feature points. In the DP method, the distance between the straight line drawn from the two feature points of interest and the feature point between the two feature points and the farthest from the straight line is compared with the threshold value, and the distance is equal to or less than the threshold value. This is a method to simplify the figure by recursively performing the process of thinning out the feature points and connecting the remaining feature points. The method of thinning out by the DP method will be explained in detail in a later paragraph.

DP法のMFP(Multi Function Printer)への適用例として、原稿台に載せられた名刺などの媒体を画像読取装置でスキャニングし、媒体の輪郭をDP法で簡略化した後に回転変換を施し、輪郭に沿って切り取ったものを画像データとして記憶する技術がある。通常、MFPで読み取ったスキャニングデータから矩形を切出す場合、スキャニングデータに含まれる媒体の4隅の頂点の座標を抽出し、媒体領域に対して回転変換を施して媒体の閉輪郭線を画像読取装置の読取方向の主走査方向と副走査方向のいずれか一方をx軸、もう一方をy軸としたときのx軸およびy軸に一致させて、切出した形が一般的な画像データの形式となるよう矩形形状に切出しを行う。通常、名刺のような媒体は長方形形状をしていることから、DP法により4隅に位置する頂点の座標が特徴点として抽出される。 As an example of application of the DP method to an MFP (Multi Function Printer), a medium such as a business card placed on a platen is scanned by an image reader, the outline of the medium is simplified by the DP method, and then rotation conversion is performed to perform contour. There is a technique to store what is cut out along the line as image data. Normally, when cutting out a rectangle from scanning data read by the MFP, the coordinates of the four corners of the medium included in the scanning data are extracted, rotation conversion is performed on the medium area, and the closed contour line of the medium is read as an image. A general image data format is a cutout shape that matches the x-axis and y-axis when either the main scanning direction or the sub-scanning direction of the reading direction of the device is the x-axis and the other is the y-axis. Cut out into a rectangular shape so that Normally, since a medium such as a business card has a rectangular shape, the coordinates of the vertices located at the four corners are extracted as feature points by the DP method.

抽出する媒体の内角が全て直角であれば、DP法を用いなくとも例えばHarrisアルゴリズムなどにより媒体の4隅の頂点の座標を抽出出来る。しかし、媒体の角が丸みを帯びている場合や折れ曲がっている場合、Harrisアルゴリズムではその箇所について複数個の特徴点を抽出することになる。少なくとも1つの角で複数個の特徴点を抽出した場合、結果として媒体全体では5個以上の特徴点が抽出されることとなり、切出すべき領域として認識されない。5個以上の特徴点が抽出された領域を切出すべき領域として認識しない理由は、隣り合う輪郭線同士の角度が必ずしも直角とならないため、x軸とy軸に一致させる輪郭線が定まらず、正確性の高い回転変換を行うことが出来ないからである。 If the internal angles of the medium to be extracted are all right angles, the coordinates of the vertices at the four corners of the medium can be extracted by, for example, the Harris algorithm, without using the DP method. However, if the corners of the medium are rounded or bent, the Harris algorithm will extract a plurality of feature points at that location. When a plurality of feature points are extracted at at least one corner, as a result, five or more feature points are extracted in the entire medium, and the region is not recognized as an area to be cut out. The reason why the region where five or more feature points are extracted is not recognized as the region to be cut out is that the angles between adjacent contour lines are not always right angles, so the contour lines that match the x-axis and y-axis cannot be determined. This is because it is not possible to perform rotation conversion with high accuracy.

そこで、隅が丸みを帯びている媒体や折れ曲がっている媒体にDP法を施すことで輪郭を簡略化し、頂点の代わりとなる4点の特徴点を抽出することで、切出すべき領域として認識することが可能になる。 Therefore, by applying the DP method to a medium with rounded corners or a medium with bent corners, the contour is simplified, and by extracting four feature points that replace the vertices, it is recognized as an area to be cut out. Will be possible.

しかしながら、MFPでスキャニングをするときのユーザの意図は、媒体を簡略化したものをスキャニングするのではなく媒体全体を抜け落ちのないようにスキャニングすることである。DP法によって角が丸みを帯びている媒体から4つの特徴点を媒体の頂点として抽出する場合、丸みを帯びている部分については、丸みを帯びている輪郭線上の1点が特徴点として抽出される。4つの特徴点の中に丸みを帯びた角の輪郭線上の点が1つでも含まれる場合、4つの特徴点を結んだ領域から媒体の領域がはみ出してしまい、媒体の本来の領域を全て含んだ領域を抽出することが出来ない。
本発明は、矩形に近い形状の画像データを媒体の画像データとして切出すことを目的とする。
However, the user's intention when scanning with the MFP is not to scan a simplified version of the medium, but to scan the entire medium so that it does not fall out. When four feature points are extracted as the vertices of a medium from a medium having rounded corners by the DP method, one point on the rounded contour line is extracted as a feature point for the rounded part. To. If even one point on the contour line of the rounded corner is included in the four feature points, the area of the medium protrudes from the area connecting the four feature points and includes the entire original area of the medium. However, the area cannot be extracted.
An object of the present invention is to cut out image data having a shape close to a rectangle as image data of a medium.

上述した課題を解決するために、本発明における画像処理装置は、媒体を含む領域を読み取って得られた画像データに含まれるエッジ画素を抽出するエッジ抽出部と、エッジ画素の集合によって表されるエッジの内、媒体の輪郭に相当する閉輪郭線を抽出する輪郭線抽出部と、閉輪郭線上の第一の特徴点を抽出する第一特徴点抽出部と、閉輪郭線上の第一の特徴点の周辺に位置するエッジ画素を削除して、閉輪郭線を複数の輪郭線に分割する輪郭線分割部と、分割された各輪郭線の延長線上の交点となる第二の特徴点を夫々抽出する第二特徴点抽出部と、各第二の特徴点同士を結んで得られる領域を切出す切出部と、を備える。 In order to solve the above-mentioned problems, the image processing apparatus of the present invention is represented by an edge extraction unit that extracts edge pixels included in the image data obtained by reading a region including a medium, and a set of edge pixels. Among the edges, the contour line extraction unit that extracts the closed contour line corresponding to the contour of the medium, the first feature point extraction unit that extracts the first feature point on the closed contour line, and the first feature on the closed contour line. The contour line division part that divides the closed contour line into multiple contour lines by deleting the edge pixels located around the points, and the second feature point that is the intersection on the extension line of each divided contour line, respectively. A second feature point extraction unit to be extracted and a cutout unit for cutting out a region obtained by connecting each of the second feature points are provided.

本発明によれば、矩形に近い形状の画像データを媒体の画像データとして切出すことが可能となる。 According to the present invention, it is possible to cut out image data having a shape close to a rectangle as image data of a medium.

本実施形態に係る開図形に対するDP法のフローの一例を示す図である。It is a figure which shows an example of the flow of the DP method with respect to the open figure which concerns on this embodiment. 本実施形態に係る閉図形に対するDP法のフローの一例を示す図である。It is a figure which shows an example of the flow of the DP method with respect to the closed figure which concerns on this embodiment. 本実施形態に係る開図形に対するDP法の適用例の一例を示す図である。It is a figure which shows an example of application example of the DP method to the open figure which concerns on this embodiment. 本実施形態に係る画像処理装置のハードウェア構成の一例を示す図である。It is a figure which shows an example of the hardware composition of the image processing apparatus which concerns on this embodiment. 本実施形態に係る画像処理装置の機能構成の一例を示す図である。It is a figure which shows an example of the functional structure of the image processing apparatus which concerns on this embodiment. 本実施形態に係る特徴点抽出部の機能構成の一例を示す図である。It is a figure which shows an example of the functional structure of the feature point extraction part which concerns on this embodiment. 本実施形態に係る特徴点を説明する図である。It is a figure explaining the feature point which concerns on this embodiment. 本実施形態に係る特徴点の最適性を説明する図である。It is a figure explaining the optimality of the feature point which concerns on this embodiment. 本実施形態に係る媒体の閉輪郭線の分割方法の一例を説明する図である。It is a figure explaining an example of the method of dividing the closed contour line of the medium which concerns on this embodiment. 本実施形態に係る最適な特徴点を説明する図である。It is a figure explaining the optimum feature point which concerns on this Embodiment. 本実施形態に係る最適な特徴点の最適性を説明する図である。It is a figure explaining the optimality of the optimum feature point which concerns on this embodiment. 本実施形態に係る後処理部の機能構成の一例を示す図である。It is a figure which shows an example of the functional structure of the post-processing part which concerns on this embodiment. 本実施形態に係る操作画面の一例を示す図である。It is a figure which shows an example of the operation screen which concerns on this embodiment. 本実施形態に係る一連の処理フローの一例を示す図である。It is a figure which shows an example of a series of processing flows which concerns on this embodiment. 特徴点を抽出して図形を簡略化する一例を示す図である。It is a figure which shows an example which extracts a feature point and simplifies a figure.

DP法についてフローチャートを用いて詳しく説明する。DP法は輪郭線上に存在する特徴点の抽出を終えた図形に対して施す処理であり、以下のフローでは既に特徴点の抽出を終えている状態を仮定して説明する。また、本実施形態で説明するフローはDP法を用いた特徴点の間引きの一例であり、DP法を用いた特徴点の間引きは本実施形態におけるフローに限定されるものではない。 The DP method will be described in detail using a flowchart. The DP method is a process applied to a figure whose feature points on the contour line have been extracted, and the following flow will be described on the assumption that the feature points have already been extracted. Further, the flow described in the present embodiment is an example of thinning out the feature points using the DP method, and the thinning out of the feature points using the DP method is not limited to the flow in the present embodiment.

図1は開図形に対してDP法による特徴点の間引きを行うときのフローの一例である。本実施形態における開図形とは、2つ以上の端点が存在する図形であり、図1では2つの端点が存在する図形を例に挙げている。S101では、開図形の両端点を結ぶ直線を引く。これは、DP法が2つの特徴点の間に位置する特徴点に対して再帰的に処理を行う性質があることから、両端点を選択しなかった場合に、その2つの特徴点よりも端部に位置する特徴点に対してDP法を適用することが出来ないためである。開図形の両端点の特徴点は間引きされることがないため、それぞれ間引き後の特徴点となる。DP法では、順次、間引き後の特徴点を決定していき、最終的な間引き後の図形は間引き後の特徴点を結んだものとなる。 FIG. 1 is an example of a flow when thinning out feature points by the DP method for an open figure. The open figure in the present embodiment is a figure having two or more end points, and in FIG. 1, a figure having two end points is given as an example. In S101, a straight line connecting both end points of the open figure is drawn. This is because the DP method has the property of recursively processing feature points located between two feature points, so if both end points are not selected, it is more end than the two feature points. This is because the DP method cannot be applied to the feature points located in the part. Since the feature points at both end points of the open figure are not thinned out, they are the feature points after thinning out. In the DP method, the feature points after the thinning are sequentially determined, and the final figure after the thinning is the connection of the feature points after the thinning.

S102では、選択された2つの特徴点を結ぶ線図の間に位置し、2つの特徴点を結んだ直線から最も距離が遠い特徴点を抽出する。S103では、S102で抽出した特徴点と、2つの特徴点を結んだ直線との距離を算出し、所定の閾値と比較する。S102で抽出した特徴点と、2つの特徴点を結んだ直線との距離が閾値よりも大きい場合はS104に進み、抽出した特徴点を間引き後の特徴点の1つとして決定する。S105では、S104で新しく抽出された特徴点と、元の2つの特徴点のいずれか一方を新たに2つの特徴点として選択し、それらを結ぶ直線を引き、S102に戻る。このとき元の2つの特徴点を結んだ直線は削除する。DP法による特徴点の間引きは閾値に依存しており、閾値を大きく設定すれば間引きが行われやすくなり、より簡略化された図形を得やすくなる。閾値を小さく設定すれば間引きが行われにくくなり、より元の図形に近い形の図形を得やすくなる。S102で抽出した特徴点と、2つの特徴点を結んだ直線との距離が閾値よりも小さい場合はS106へ進み、2つの特徴点の間の区間に終了フラグを付与する。終了フラグが付与された区間に位置する特徴点は以後間引き後の特徴点として設定されず、終了フラグが付与された時点で間引き区間として決定される。 In S102, the feature point located between the line diagrams connecting the two selected feature points and the farthest from the straight line connecting the two feature points is extracted. In S103, the distance between the feature point extracted in S102 and the straight line connecting the two feature points is calculated and compared with a predetermined threshold value. If the distance between the feature points extracted in S102 and the straight line connecting the two feature points is larger than the threshold value, the process proceeds to S104, and the extracted feature points are determined as one of the feature points after thinning out. In S105, one of the feature points newly extracted in S104 and one of the two original feature points is newly selected as two feature points, a straight line connecting them is drawn, and the process returns to S102. At this time, the straight line connecting the original two feature points is deleted. The thinning of the feature points by the DP method depends on the threshold value, and if the threshold value is set large, the thinning becomes easy to be performed, and it becomes easy to obtain a more simplified figure. If the threshold value is set small, thinning is less likely to occur, and it becomes easier to obtain a figure having a shape closer to the original figure. If the distance between the feature point extracted in S102 and the straight line connecting the two feature points is smaller than the threshold value, the process proceeds to S106, and the end flag is given to the section between the two feature points. The feature points located in the section to which the end flag is given are not set as the feature points after the thinning out thereafter, and are determined as the thinned out section when the end flag is given.

S106で終了フラグを付与したらS107へ進み、全ての区間に終了フラグが付与されているか否かを判断する。全ての区間に終了フラグが付与されている場合(S107、Yes)はフローを終了する。終了フラグが付与されていない区間が残っている場合(S107、No)はS108へ進む。S108では、終了フラグが付与されていない区間の両端点を結ぶ直線を引き、S102に戻る。以上の処理を繰り返し行い、S107で全ての区間に終了フラグが付与されていると判定されたときにフローを終了する。フローの終了後に抽出された特徴点および直線が、DP法による間引き後の開図形となる。 After the end flag is given in S106, the process proceeds to S107, and it is determined whether or not the end flag is given to all the sections. When the end flag is given to all the sections (S107, Yes), the flow ends. If there is a section to which the end flag is not given (S107, No), the process proceeds to S108. In S108, a straight line connecting both end points of the section to which the end flag is not given is drawn, and the process returns to S102. The above process is repeated, and the flow is terminated when it is determined in S107 that the end flag is given to all the sections. The feature points and straight lines extracted after the end of the flow become open figures after thinning out by the DP method.

図2は閉図形に対してDP法による特徴点の間引きを行うときのフローの一例である。本実施形態における閉図形とは、端点が存在しない図形である。基本的なフローは開図形の場合と同様であるが、初めに図形を分割する点で開図形の場合と異なる。S201では閉図形を2つの開図形に分割する。分割方法の一例として、図形の左上端の特徴点と右下端の特徴点のように、ある程度の距離を隔てて位置する2点を抽出する。S201で2つの開図形に分割したら、それらの内の片方を選択してS202に進む。S202〜S209までのフローはS101〜S108までのフローと同様であるため、ここでは重複する説明を省略する。 FIG. 2 is an example of a flow when thinning out feature points by the DP method for a closed figure. The closed figure in the present embodiment is a figure having no end points. The basic flow is the same as in the case of the open figure, but differs from the case of the open figure in that the figure is divided at the beginning. In S201, the closed figure is divided into two open figures. As an example of the division method, two points located at a certain distance apart, such as the feature point at the upper left end of the figure and the feature point at the lower right end, are extracted. After dividing into two open figures in S201, one of them is selected and the process proceeds to S202. Since the flow from S202 to S209 is the same as the flow from S101 to S108, a duplicate description will be omitted here.

S208で全ての区間に終了フラグが付与されている場合(S208、Yes)、S210に進み、全ての開図形に対して終了フラグが付与されているか否かを判断する。全ての開図形に対して終了フラグが付与されていない場合(S210、No)はS202へ戻り、終了フラグが付与されていない開図形に対してS202〜S209のフローを適用する。全ての開図形に対して終了フラグが付与されている場合(S210、Yes)はS211へ進む。S211では、S201で分割したときの端点同士を繋ぎ合わせる処理を行う。フローの終了後に抽出された特徴点および直線が、DP法による間引き後の閉図形となる。 When the end flag is given to all the sections in S208 (S208, Yes), the process proceeds to S210, and it is determined whether or not the end flag is given to all the open figures. When the end flag is not given to all the open figures (S210, No), the process returns to S202, and the flow of S202 to S209 is applied to the open figures to which the end flag is not given. If the end flag is given to all open figures (S210, Yes), the process proceeds to S211. In S211 a process of connecting the end points when divided in S201 is performed. The feature points and straight lines extracted after the end of the flow become closed figures after thinning out by the DP method.

図1のフローを適用した例について図面を用いて説明する。以下では図1のどのフローに相当するかを括弧書きで記している。図3(a)は実線で表される開図形と、DP法を適用する前の特徴点a〜gを表している。DP法を適用する前の特徴点a〜gは、例えばHarrisアルゴリズムによって求められる。図1のフローに沿って、この開図形に対してDP法を適用する。まず初めに端点である特徴点aと特徴点gを直線で結び(S101)、2つの特徴点の間にあり、かつ結んだ直線から最も遠い距離にある特徴点eを抽出する(S102)。次に、図3(b)に図示するように、直線agと特徴点eとの距離α1を閾値と比較し(S103)、距離α1が閾値よりも大きかった場合は特徴点eを間引き後の特徴点(間引き後に残る特徴点)として決定する(S104)。ここでは、距離α1が閾値よりも大きかったと仮定し(S103、Yes)、特徴点eは間引き後の特徴点の1つとして設定される。 An example in which the flow of FIG. 1 is applied will be described with reference to the drawings. In the following, which flow in FIG. 1 corresponds to is described in parentheses. FIG. 3A shows an open figure represented by a solid line and feature points a to g before applying the DP method. The feature points a to g before applying the DP method are obtained by, for example, the Harris algorithm. The DP method is applied to this open figure according to the flow of FIG. First, the feature point a and the feature point g, which are the end points, are connected by a straight line (S101), and the feature point e, which is between the two feature points and is the farthest from the connected straight line, is extracted (S102). Next, as shown in FIG. 3B, the distance α1 between the straight line ag and the feature point e is compared with the threshold value (S103), and if the distance α1 is larger than the threshold value, the feature point e is thinned out. It is determined as a feature point (feature point remaining after thinning out) (S104). Here, it is assumed that the distance α1 is larger than the threshold value (S103, Yes), and the feature point e is set as one of the feature points after thinning out.

次に、図3(c)に図示するように、抽出した特徴点eと先の直線agの一端に位置する特徴点gを選択し、直線egを引き(S105)、特徴点eと特徴点gの間にあり、且つ直線egから最も遠い特徴点fと直線egとの距離α2を閾値と比較する。ここでは、距離α2が閾値よりも小さかったと仮定し(S103、No)、特徴点eと特徴点gとの間の区間に終了フラグを付与する(S106)。終了フラグが付与された区間に位置する特徴点fについては削除する。次に、全ての区間に終了フラグが付与されたか否かを判定する(S107)。ここでは特徴点aから特徴点eまでの区間に終了フラグが付与されていないため(S107、No)、図3(d)に図示するように、終了フラグが付与されていない区間の端点である特徴点aと特徴点eとを結ぶ直線aeを引き(S108)、特徴点aと特徴点eの間の区間にも同様にDP法による間引きを行う。最終的に図3(e)に図示するように、特徴点cおよび特徴点fを間引いた図形が得られる。以上がDP法による特徴点の間引き方法に関する説明である。 Next, as shown in FIG. 3C, the extracted feature point e and the feature point g located at one end of the previous straight line ag are selected, the straight line eg is drawn (S105), and the feature point e and the feature point are drawn. The distance α2 between the feature point f, which is between g and is farthest from the straight line egg, and the straight line egg is compared with the threshold value. Here, it is assumed that the distance α2 is smaller than the threshold value (S103, No), and the end flag is given to the interval between the feature point e and the feature point g (S106). The feature point f located in the section to which the end flag is given is deleted. Next, it is determined whether or not the end flag is given to all the sections (S107). Here, since the end flag is not given to the section from the feature point a to the feature point e (S107, No), as shown in FIG. 3D, it is the end point of the section to which the end flag is not given. A straight line ae connecting the feature point a and the feature point e is drawn (S108), and the section between the feature point a and the feature point e is similarly thinned by the DP method. Finally, as shown in FIG. 3 (e), a figure obtained by thinning out the feature points c and the feature points f is obtained. The above is the explanation of the method of thinning out the feature points by the DP method.

図4は本実施形態における画像処理装置100のハードウェア構成の一例について説明する図である。本実施形態における画像処理装置100は、CPU101、RAM102、ROM103、画像読取装置104(読取部)、記憶装置105、外部I/F106、入出力I/F107がそれぞれバス108を介して接続されている。 FIG. 4 is a diagram illustrating an example of the hardware configuration of the image processing apparatus 100 according to the present embodiment. In the image processing device 100 of the present embodiment, the CPU 101, the RAM 102, the ROM 103, the image reading device 104 (reading unit), the storage device 105, the external I / F 106, and the input / output I / F 107 are connected via the bus 108, respectively. ..

CPU101は、画像処理装置100における演算処理装置であり、制御プログラムを実行することで画像処理装置100全体の動作の制御を行う。RAM102は、情報を高速で読み書きするための揮発性の記憶媒体であり、CPU101が制御プログラムを実行する際のワークエリアとして機能する。ROM103は制御プログラムが記憶されている読み出し専用の不揮発性の記憶媒体である。 The CPU 101 is an arithmetic processing device in the image processing device 100, and controls the operation of the entire image processing device 100 by executing a control program. The RAM 102 is a volatile storage medium for reading and writing information at high speed, and functions as a work area when the CPU 101 executes a control program. The ROM 103 is a read-only non-volatile storage medium in which the control program is stored.

画像読取装置104は原稿台の上にセットされた対象物をラインセンサで読み取った画像信号を、R(レッド)、G(グリーン)、B(ブルー)の画像データ(RGBデータ)に変換して出力する。RGBデータは、各画素のR、G、Bの値を夫々0〜255の整数値で表現したものである。画像読取装置104はデフォルトの状態で読み取るサイズが決められており、例えばデフォルトの読み取りサイズよりも小さい、名刺サイズの媒体が原稿台にセットされている場合であっても、入出力I/F107から特別な指示がない場合は、画像読取装置104はデフォルトの読み取りサイズで媒体を読み取る。デフォルトの読み取りサイズはA4サイズに設定されるのが一般的である。画像読取装置104は、原稿台の上に何も置かれていない部分については圧板を読み取ることになり、圧板部分に該当する画素には白色を表すRGB値が与えられる。 The image reading device 104 converts an image signal obtained by reading an object set on the platen with a line sensor into R (red), G (green), and B (blue) image data (RGB data). Output. The RGB data represents the values of R, G, and B of each pixel as integer values from 0 to 255, respectively. The size of the image reader 104 to be read is determined in the default state. For example, even when a business card size medium smaller than the default reading size is set on the platen, the input / output I / F 107 Unless otherwise specified, the image reader 104 reads the medium at the default reading size. The default read size is generally set to A4 size. The image reading device 104 reads the pressure plate on the portion where nothing is placed on the platen, and the pixel corresponding to the pressure plate portion is given an RGB value representing white.

記憶装置105は、例えばHDD(Hard Disk Drive)であって、情報の読み書きが可能な大容量の不揮発性の記憶媒体であり、制御プログラムや画像データを記憶する。記憶装置105は、SSD(Solid State Drive)などの他の形式の記憶媒体であっても良い。 The storage device 105 is, for example, an HDD (Hard Disk Drive), which is a large-capacity non-volatile storage medium capable of reading and writing information, and stores a control program and image data. The storage device 105 may be a storage medium of another type such as an SSD (Solid State Drive).

外部I/F106は、LANなどのネットワークに接続するための通信インターフェースであり、PC(Personal Computer)やスマートフォンなどの外部端末に接続される。外部I/F106は受信機能、送信機能を有しており、外部端末から送られてくる情報を受信する他、記憶装置105に記憶された画像データを送信する。
入出力I/F107は、画像処理装置100に対する指示や設定情報等を外部から入力し、画像処理装置100の状態を示す情報等を外部に出力するインターフェースである。入出力I/F107には、マウス、キーボード、タッチパネルディスプレイ等が接続される。
The external I / F 106 is a communication interface for connecting to a network such as a LAN, and is connected to an external terminal such as a PC (Personal Computer) or a smartphone. The external I / F 106 has a receiving function and a transmitting function, receives information sent from an external terminal, and transmits image data stored in the storage device 105.
The input / output I / F 107 is an interface that inputs instructions and setting information to the image processing device 100 from the outside and outputs information indicating the state of the image processing device 100 to the outside. A mouse, keyboard, touch panel display, etc. are connected to the input / output I / F 107.

CPU101は、入出力I/F107を介してユーザによって入力された情報を基に、対応する制御プログラムをROM103から読み出してRAM102に展開して実行することにより、対象となるデバイスを制御する。CPU101はPCやスマートフォンのような外部端末からの情報を外部I/F106を通して受け取り、対応する制御プログラムをROM103から読み出して対象となるデバイスを制御することも可能である。また、CPU101の一部の機能をASIC(Application Specific integrated Circuit)のような回路を代わりに用いることで実行しても良い。また、CPU101は複数のハードウェア(マルチCPU)によって成り立つものであっても良い。 The CPU 101 controls the target device by reading the corresponding control program from the ROM 103, developing it in the RAM 102, and executing it based on the information input by the user via the input / output I / F 107. The CPU 101 can also receive information from an external terminal such as a PC or a smartphone through the external I / F 106, read the corresponding control program from the ROM 103, and control the target device. Further, some functions of the CPU 101 may be executed by using a circuit such as an ASIC (Application Specific integrated Circuit) instead. Further, the CPU 101 may be composed of a plurality of hardware (multi-CPU).

図5は、本実施形態に係る画像処理装置100の機能構成の一例について説明する図である。画像処理装置100は、画像読取装置104から入力されるRGBデータを処理して、切出画像データを出力する画像処理部201を備えている。画像処理部201はCPU101の命令によりRGBデータの処理を実行するものである。画像処理部201は、後に説明する画像変換部202、エッジ抽出部203、輪郭線抽出部204、特徴点抽出部205、後処理部206を有する。 FIG. 5 is a diagram illustrating an example of a functional configuration of the image processing device 100 according to the present embodiment. The image processing device 100 includes an image processing unit 201 that processes RGB data input from the image reading device 104 and outputs cutout image data. The image processing unit 201 executes processing of RGB data according to a command from the CPU 101. The image processing unit 201 includes an image conversion unit 202, an edge extraction unit 203, a contour line extraction unit 204, a feature point extraction unit 205, and a post-processing unit 206, which will be described later.

画像変換部202は、画像読取装置104で読み取って得たRGBデータをC(シアン)、M(マゼンダ)、Y(イエロー)、K(ブラック)の画像データ(CMYKデータ)に変換する。CMYKデータはRGBデータによって表される画素値を印刷により表現する際の各画素における色材使用量を表すものであり、対象の画素に用いられるCMYKそれぞれの色材量が0〜255までの整数によって表される。CMYKデータへの変換は記憶装置105に記憶されている変換テーブルを用いて行われる。変換テーブルにはRGB値に対応するCMYK値が入力されており、これらの値は定期的なキャリブレーションにより更新される。 The image conversion unit 202 converts the RGB data read by the image reading device 104 into C (cyan), M (magenta), Y (yellow), and K (black) image data (CMYK data). The CMYK data represents the amount of color material used in each pixel when the pixel value represented by RGB data is expressed by printing, and the amount of color material used for each CMYK used in the target pixel is an integer from 0 to 255. Represented by. The conversion to CMYK data is performed using the conversion table stored in the storage device 105. CMYK values corresponding to RGB values are input to the conversion table, and these values are updated by periodic calibration.

エッジ抽出部203は、フィルタリング処理によってCMYKの画像データに含まれるエッジを抽出する。フィルタリング処理に使用されるフィルタ係数としては、通常使用されるデフォルトの係数に加え、使用するモードに対応した異なる係数が用意されている。エッジ抽出部203は、注目画素とその周辺画素に対してフィルタリング処理を行い、エッジを構成すると判定された注目画素に対してエッジ画素であることを示す情報を付与する。エッジ抽出部203が抽出するエッジ画素には、媒体中に含まれる文字や図形と地肌部分の境界に相当する画素の他、媒体と圧板との境界の画素がある。本実施形態において、エッジとは連続するエッジ画素によって成り立つ画素の集合体である。 The edge extraction unit 203 extracts edges included in the CMYK image data by a filtering process. As the filter coefficient used for the filtering process, in addition to the default coefficient normally used, different coefficients corresponding to the mode to be used are prepared. The edge extraction unit 203 performs filtering processing on the attention pixel and its peripheral pixels, and adds information indicating that the attention pixel is an edge pixel to the attention pixel determined to form an edge. The edge pixels extracted by the edge extraction unit 203 include pixels corresponding to the boundary between characters and figures included in the medium and the background portion, as well as pixels at the boundary between the medium and the pressure plate. In the present embodiment, an edge is an aggregate of pixels composed of continuous edge pixels.

輪郭線抽出部204は、非特許文献2に記載されている方法を用いて、エッジ抽出部203によって抽出されたエッジの内、最外周のエッジを媒体の閉輪郭線として抽出する。原稿台の上に複数の媒体が置かれている場合、各媒体の閉輪郭線が抽出される。閉輪郭線で囲まれる領域が複数存在する場合、領域それぞれに対して後段の処理を行う。 The contour line extraction unit 204 extracts the outermost edge of the edges extracted by the edge extraction unit 203 as a closed contour line of the medium by using the method described in Non-Patent Document 2. When a plurality of media are placed on the platen, the closed contour line of each medium is extracted. If there are a plurality of areas surrounded by closed contour lines, the subsequent processing is performed for each area.

特徴点抽出部205は、輪郭線抽出部204によって抽出された閉輪郭線から、媒体の角部に相当する特徴点を抽出する。本実施形態は矩形又は矩形に近い媒体を検出対象としており、特徴点抽出部205は、媒体の角部とするに最適な位置となる4点の特徴点を抽出する。本実施形態における抽出とは、抽出対象となる点の位置を特定する処理であり、一例としてRAM102や記憶装置105に抽出対象となる点の位置座標を記憶するような処理が挙げられる。最適な位置となる特徴点とは、4点の特徴点を結んだときに得られる四角形の領域内に、媒体の領域が全て含まれるような位置にあり、且つその四角形の領域の面積が最小となる座標に位置する特徴点を意味する。特徴点抽出部205によって抽出された特徴点は後段で説明する後処理部206における処理に用いられる。 The feature point extraction unit 205 extracts feature points corresponding to the corners of the medium from the closed contour lines extracted by the contour line extraction unit 204. In the present embodiment, a rectangle or a medium close to a rectangle is targeted for detection, and the feature point extraction unit 205 extracts four feature points that are optimal positions for the corners of the medium. The extraction in the present embodiment is a process of specifying the position of the point to be extracted, and an example thereof is a process of storing the position coordinates of the point to be extracted in the RAM 102 or the storage device 105. The feature points that are the optimum positions are located so that the entire area of the medium is included in the quadrangular area obtained when the four feature points are connected, and the area of the quadrangular area is the minimum. It means a feature point located at the coordinates. The feature points extracted by the feature point extraction unit 205 are used for the processing in the post-processing unit 206 described later.

尚、本実施形態における画像処理装置100は、矩形又は矩形に近い媒体を抽出することを目的としており、画像処理装置100は媒体全体を切出すために、切出した形が一般的な画像データの形状である矩形となるように回転変換や輪郭抽出を行う。本実施形態における媒体の切出しとは、画像読取装置104が出力したサイズの画像データから切出し対象となる領域の画像データを選択的に出力することを意味する。特徴点抽出部205によって抽出される特徴点の数が4点となる媒体は、名刺のような一般的に矩形であるもの、又は矩形に近い媒体であるため、後処理部206は検出対象である媒体と判断し、4点の特徴点を結んで得られる四角形に対して処理を行う。特徴点抽出部205によって抽出される特徴点の数が5点以上、又は3点以下となる媒体は、名刺のような一般的に矩形であるもの、又は矩形に近い媒体とは異なるため、後処理部206は検出対象ではない媒体と判断する。特徴点の抽出はDP法によって行われ、対象となる図形を簡略的に表現するときの頂点として抽出される。本実施形態では角が丸い媒体や角の一部が折れ曲がっている媒体のような矩形に近いものも抽出対象としており、これらの媒体はDP法による特徴点の間引きによって4点の特徴点が抽出される。 The image processing device 100 in the present embodiment aims to extract a rectangle or a medium close to a rectangle, and the image processing device 100 cuts out the entire medium, so that the cut-out shape is a general image data. Rotation conversion and contour extraction are performed so that the shape becomes a rectangle. Cutting out the medium in the present embodiment means that the image data of the region to be cut out is selectively output from the image data of the size output by the image reading device 104. Since the medium in which the number of feature points extracted by the feature point extraction unit 205 is four is generally rectangular such as a business card or a medium close to a rectangle, the post-processing unit 206 is a detection target. It is determined that the medium is a certain medium, and processing is performed on a rectangle obtained by connecting four feature points. The medium in which the number of feature points extracted by the feature point extraction unit 205 is 5 points or more or 3 points or less is different from a medium having a generally rectangular shape such as a business card or a medium having a rectangular shape. The processing unit 206 determines that the medium is not the detection target. The feature points are extracted by the DP method, and are extracted as the vertices when the target figure is simply expressed. In the present embodiment, a medium having rounded corners or a medium having bent corners, which is close to a rectangle, is also targeted for extraction, and four feature points are extracted from these media by thinning out the feature points by the DP method. Will be done.

図6は特徴点抽出部205の機能構成の一例について説明する図である。特徴点抽出部205は、第一特徴点抽出部207で閉輪郭線に対して仮の特徴点を抽出した後に、輪郭線分割部208および第二特徴点抽出部209により最適な位置となる4点の特徴点を抽出する。それぞれの処理について詳しく説明する。 FIG. 6 is a diagram illustrating an example of the functional configuration of the feature point extraction unit 205. After the feature point extraction unit 205 extracts a temporary feature point with respect to the closed contour line by the first feature point extraction unit 207, the feature point extraction unit 205 becomes the optimum position by the contour line division unit 208 and the second feature point extraction unit 209. Extract feature points of points. Each process will be described in detail.

第一特徴点抽出部207は、輪郭線抽出部204によって抽出された閉輪郭線に対してDP法を施し、媒体の輪郭を簡略化するための特徴点を抽出する。図7(a)は矩形の媒体を読み取ったときに第一特徴点抽出部207によって抽出された特徴点R1を示す図の一例であり、図7(b)は角が丸い媒体を読み取ったときに第一特徴点抽出部207によって抽出された特徴点R1を示す図の一例である。図では媒体の隅の1つを拡大したものを示しており、四角で囲まれている領域1つがエッジ抽出部によってエッジ画素として抽出された画素である。エッジ画素の内、斜線で示している画素は第一特徴点抽出部207によって抽出された特徴点R1である。本実施形態では、閉輪郭線をエッジ画素の集合体として扱い、エッジ画素によって成る点の集合体に対してDP法を適用することで特徴点を抽出している。このようにエッジ画素である点をそのまま特徴点として用いることで、改めて特徴点に相当する点を判断する処理の手間を省くことが可能になる。 The first feature point extraction unit 207 applies the DP method to the closed contour line extracted by the contour line extraction unit 204, and extracts feature points for simplifying the contour of the medium. FIG. 7A is an example of a diagram showing feature points R1 extracted by the first feature point extraction unit 207 when a rectangular medium is read, and FIG. 7B is an example of a figure when a medium with rounded corners is read. It is an example of the figure which shows the feature point R1 extracted by the 1st feature point extraction unit 207. The figure shows one of the corners of the medium enlarged, and one region surrounded by a square is a pixel extracted as an edge pixel by the edge extraction unit. Among the edge pixels, the pixel shown by the diagonal line is the feature point R1 extracted by the first feature point extraction unit 207. In the present embodiment, the closed contour line is treated as an aggregate of edge pixels, and feature points are extracted by applying the DP method to the aggregate of points composed of edge pixels. By using the points that are edge pixels as they are as feature points in this way, it is possible to save the trouble of redetermining the points corresponding to the feature points.

ここで、第一特徴点抽出部207によって間引きされた後の特徴点の最適性について説明する。
図8(a)は矩形の媒体に対してDP法を施した後の特徴点R01〜R04と、それらを結んだ領域Xを示しており、図8(b)は角が丸い媒体に対してDP法を施した後の特徴点R11〜R14と、それらを結んだ領域Xを示している。また、図中の斜線部は媒体領域と特徴点を結んだ領域との差分領域を示している。図中の点線部は媒体の輪郭を示しており、実線部は特徴点を結んだときの輪郭を示している。
矩形の媒体の場合、領域Xに媒体領域が全て含まれており、且つその面積が最小であることから最適な特徴点が抽出されていると言える。
これに対し、角が丸い媒体の場合、DP法によって間引きされた後の特徴点はエッジ上の点であることから、領域Xに媒体領域が収まっておらず、最適な特徴点が抽出されているとは言えない。要するに、DP法のみによって決定した特徴点に基づいて切り出す領域を決定した場合、角が丸い媒体に対しては差分領域の情報を欠落することになってしまう。また、領域Xが矩形ではないため、後処理部206で画像読取装置104における読取方向の主走査方向と副走査方向のいずれか一方をx軸、もう一方をy軸としたときのx軸およびy軸に沿った画像に精度良く回転変換することが出来ない。
Here, the optimumity of the feature points after being thinned out by the first feature point extraction unit 207 will be described.
FIG. 8A shows the feature points R01 to R04 after the DP method was applied to the rectangular medium, and the region X connecting them, and FIG. 8B shows the medium having rounded corners. The feature points R11 to R14 after the DP method is applied, and the region X connecting them are shown. The shaded area in the figure indicates the difference area between the medium area and the area connecting the feature points. The dotted line part in the figure shows the outline of the medium, and the solid line part shows the outline when the feature points are connected.
In the case of a rectangular medium, it can be said that the optimum feature points are extracted because the area X includes the entire medium area and the area is the smallest.
On the other hand, in the case of a medium having rounded corners, since the feature points after being thinned out by the DP method are points on the edge, the medium region does not fit in the region X, and the optimum feature points are extracted. I can't say that there is. In short, when the region to be cut out is determined based on the feature points determined only by the DP method, the information of the difference region is lost for the medium having rounded corners. Further, since the region X is not rectangular, the x-axis and the x-axis when one of the main scanning direction and the sub-scanning direction of the reading direction in the image reading device 104 in the post-processing unit 206 is the x-axis and the other is the y-axis It is not possible to accurately rotate and convert the image along the y-axis.

そこで、輪郭線分割部208および第二特徴点抽出部209は、第一特徴点抽出部207によって間引きされた後の4つの特徴点を仮の特徴点として、角が丸い媒体の場合であっても抽出した特徴点が最適なものとなるように新しい4つの特徴点を抽出する。 Therefore, the contour line dividing unit 208 and the second feature point extraction unit 209 are in the case of a medium having rounded corners, with the four feature points thinned out by the first feature point extraction unit 207 as temporary feature points. Extract four new feature points so that the extracted feature points are optimal.

輪郭線分割部208は、仮の特徴点の周辺に位置するエッジ画素および仮の特徴点を削除し、閉輪郭線をS1〜S4の4つの輪郭線に分割する。本実施形態における仮の特徴点の周辺とは、特徴点から所定の長さの範囲内や、特徴点を中心とするn×n画素の領域を示す。また、本実施形態における閉輪郭線の分割とは、4つの輪郭線をそれぞれ個別のものとして認識している状態を意味する。
図9は、輪郭線分割部208による角が丸い場合の媒体の閉輪郭線の分割方法の一例を説明する図である。
輪郭線分割部208は、第一特徴点抽出部207によって抽出された仮の特徴点の周辺に位置する、閉輪郭線を構成するエッジ画素を削除する。仮の特徴点の周辺のエッジ画素が削除されたことにより、丸い角の部分に相当するエッジ画素が削除される。図で、色の無いエッジ画素は削除されるエッジ画素であり、網点模様によって塗られているエッジ画素は削除後に残っているエッジ画素であり、これらのエッジ画素の集合が分割された輪郭線に相当する。図では上辺の輪郭線がS1、右辺の輪郭線がS2に相当し、図9には示されていないが、下辺の輪郭線がS3、左辺の輪郭線がS4となる。また、図では、仮の特徴点を中心とする17×17画素分の領域に含まれるエッジ画素を削除しているが、削除する領域は適宜調整することが可能である。例えば、削除する領域を大きくすることで丸い角に位置するエッジ画素を確実に削除することが出来るようになるが、読み取る媒体が小さい場合には角に位置するエッジ画素以外の画素も削除してしまい、閉輪郭線を正確に4つに分割出来なくなる可能性がある。逆に、削除する領域を小さくすることで小さい媒体であっても閉輪郭線を正確に4つに分割することが出来るようになるが、角の丸い部分に位置するエッジ画素を削除しきれない可能性がある。デフォルト値以外への調整は入出力I/F107を通してユーザによって行われる。本実施形態におけるエッジ画素の削除とはエッジ画素であることを示す情報を削除することで、エッジ画素と認識されないようにすることを意味する。また、後段の処理において削除対象のエッジ画素が後段の処理でエッジ画素と認識されないように、付加情報を削除対象のエッジ画素に加えるようなものであっても良い。
The contour line dividing unit 208 deletes the edge pixels and the temporary feature points located around the temporary feature points, and divides the closed contour line into four contour lines S1 to S4. The periphery of the tentative feature point in the present embodiment indicates a range of a predetermined length from the feature point or a region of n × n pixels centered on the feature point. Further, the division of the closed contour line in the present embodiment means a state in which each of the four contour lines is recognized as an individual one.
FIG. 9 is a diagram illustrating an example of a method of dividing the closed contour line of the medium when the corners are rounded by the contour line dividing portion 208.
The contour line dividing unit 208 deletes the edge pixels forming the closed contour line located around the temporary feature points extracted by the first feature point extracting unit 207. Since the edge pixels around the temporary feature point are deleted, the edge pixels corresponding to the rounded corners are deleted. In the figure, the edge pixels without color are the edge pixels to be deleted, the edge pixels painted by the halftone dot pattern are the edge pixels remaining after the deletion, and the set of these edge pixels is a divided contour line. Corresponds to. In the figure, the contour line on the upper side corresponds to S1 and the contour line on the right side corresponds to S2, and although not shown in FIG. 9, the contour line on the lower side is S3 and the contour line on the left side is S4. Further, in the figure, the edge pixels included in the area of 17 × 17 pixels centered on the temporary feature point are deleted, but the area to be deleted can be appropriately adjusted. For example, by enlarging the area to be deleted, the edge pixels located at the round corners can be reliably deleted, but when the medium to be read is small, the pixels other than the edge pixels located at the corners are also deleted. Therefore, there is a possibility that the closed contour line cannot be accurately divided into four. On the contrary, by reducing the area to be deleted, the closed contour line can be accurately divided into four even in a small medium, but the edge pixels located in the rounded corners cannot be completely deleted. there is a possibility. Adjustments to values other than the default values are made by the user through the I / O I / F 107. The deletion of the edge pixel in the present embodiment means that the information indicating that the edge pixel is deleted is deleted so that the edge pixel is not recognized as the edge pixel. Further, additional information may be added to the edge pixels to be deleted so that the edge pixels to be deleted in the subsequent processing are not recognized as edge pixels in the subsequent processing.

第二特徴点抽出部209は、分割した4つの輪郭線S1〜S4の直線方程式をそれぞれ導出し、図10に図示するように輪郭線S1および輪郭線S2の延長線上の交点R1´の座標を導出する。図では交点R1´を縦線のハッチングで表しており、本実施形態における最適な特徴点に該当する。直線方程式の導出は分割したエッジの1つに含まれるエッジ画素の何点かをランダムに選択し、それらのエッジ画素の座標に対して最小二乗法を用いることにより行われる。分割した4つの輪郭線S1〜S4の延長線上の4つの交点R1´〜R4´が最適な4つの特徴点となる。尚、直線方程式は多少の誤差が生じるため、輪郭線S1〜S4は必ずしも垂直方向に交差するわけではなく、略垂直方向に交差するものであれば良い。 The second feature point extraction unit 209 derives the linear equations of the four divided contour lines S1 to S4, respectively, and determines the coordinates of the intersection R1'on the extension lines of the contour lines S1 and S2 as shown in FIG. Derived. In the figure, the intersection point R1'is represented by hatching of vertical lines, which corresponds to the optimum feature point in the present embodiment. The linear equation is derived by randomly selecting some of the edge pixels included in one of the divided edges and using the least squares method for the coordinates of those edge pixels. The four intersections R1'to R4' on the extension lines of the four divided contour lines S1 to S4 are the optimum four feature points. Since the linear equation has some error, the contour lines S1 to S4 do not necessarily intersect in the vertical direction, but may intersect in a substantially vertical direction.

図11は角が丸い媒体に対し、第二特徴点抽出部209によって抽出された特徴点R1´〜R4´の最適性を説明する図である。図で、点線で囲まれた領域は媒体領域を示しており、実線で囲まれた領域は特徴点R1´〜R4´によって囲まれた領域X´を示している。この領域は媒体領域を全て含んでおり、且つその領域面積は最小又は最小に近い状態である。尚、直線方程式は多少の誤差が生じることから、媒体領域が領域X´から若干はみ出てしまう場合であっても、特徴点R1´〜R4´は最適な特徴点であるとみなす。このように、本実施形態における特徴点抽出部205は、DP法によって間引いて得た特徴点を仮の特徴点として設定し、そこから最適な特徴点を抽出する。特徴点抽出部205によって抽出された最適な特徴点R1´〜R4´の座標を基に、後処理部206で領域補完、回転変換、および切出しが行われる。 FIG. 11 is a diagram for explaining the optimumity of the feature points R1 ′ to R4 ′ extracted by the second feature point extraction unit 209 with respect to the medium having rounded corners. In the figure, the area surrounded by the dotted line indicates the medium area, and the area surrounded by the solid line indicates the area X'enclosed by the feature points R1'to R4'. This region includes the entire medium region, and the area of the region is the minimum or a state close to the minimum. Since the linear equation has some errors, the feature points R1'to R4'are considered to be the optimum feature points even if the medium region slightly protrudes from the region X'. As described above, the feature point extraction unit 205 in the present embodiment sets the feature points obtained by thinning out by the DP method as temporary feature points, and extracts the optimum feature points from the temporary feature points. Based on the coordinates of the optimum feature points R1'to R4' extracted by the feature point extraction unit 205, the post-processing unit 206 performs region complementation, rotation conversion, and cutting out.

図12は後処理部206の機能構成の一例について説明する図である。後処理部206は、抽出される特徴点の数が4点となる媒体の4点の特徴点を結んで得られる四角形に対して処理を行う。まず、判断部210で処理対象となる媒体を判断し、領域補完部211で領域X´の内、特定の領域に対して画素を補完し、スキュー補正部212でアフィン変換による回転変換を行い、切出部213で補正された媒体領域を含む領域を切出して切出画像データとして出力する。本実施形態における補完とは、対象となる画素の画素値を別の画素値で置き換えることを意味する。また、本実施形態における補完は置き換える前の画素値と置き換えた後の画素値が同一となる場合も含む。それぞれの処理について詳しく説明する。 FIG. 12 is a diagram illustrating an example of the functional configuration of the post-processing unit 206. The post-processing unit 206 performs processing on a quadrangle obtained by connecting four feature points of a medium in which the number of feature points to be extracted is four. First, the determination unit 210 determines the medium to be processed, the area complement unit 211 complements the pixels in the region X'with respect to a specific region, and the skew correction unit 212 performs rotation conversion by affine transformation. A region including the medium region corrected by the cutout unit 213 is cut out and output as cutout image data. Complementation in the present embodiment means replacing the pixel value of the target pixel with another pixel value. Further, the complement in the present embodiment includes the case where the pixel value before replacement and the pixel value after replacement are the same. Each process will be described in detail.

判断部210は、特徴点が4点となる媒体を抽出する。領域補完部211は、判断部210によって抽出された媒体を対象とし、特徴点抽出部205によって抽出された最適な特徴点を結んで得られる矩形領域内であり、媒体領域と重なっていない差分領域に対して領域補完を行う。領域補完部211による差分領域の補完方法の例としては、差分領域に含まれる画素に対し、媒体領域内に位置し、且つ差分領域の周辺に位置する画素の画素値を適用する方法や、差分領域に含まれる画素に対し透過領域であることを示す画素値を適用して差分領域を透過領域とする方法が挙げられる。
差分領域を透過領域として補完する場合、あらかじめ決められている画素値を差分領域に含まれる画素に対して割り振る。透過領域による画素値の補完は、あらかじめ記憶されている複数の画素値から1つを選択して行うものであっても良い。その他、補間を行わないものであっても良い。領域補完部211による差分領域の補間方法はあらかじめROM103に設定しておく他、ユーザが任意の方法を選択するものであっても良い。
図13は差分領域の補完方法をユーザに選択させる操作画面の一例である。領域補完部211は、差分領域の補完方法をユーザに選択させることができる。ユーザは所望の処理を選択することで差分領域に対して所定の処理を施すことが出来る。
The determination unit 210 extracts a medium having four feature points. The area complementing unit 211 is a difference area that targets the medium extracted by the determination unit 210 and is within a rectangular area obtained by connecting the optimum feature points extracted by the feature point extraction unit 205 and does not overlap with the medium area. Area completion is performed for. Examples of the method of complementing the difference region by the region complement unit 211 include a method of applying the pixel values of the pixels located in the medium region and located around the difference region to the pixels included in the difference region, and the difference. An example is a method in which a difference region is set as a transparent region by applying a pixel value indicating that the pixel is a transparent region to the pixels included in the region.
When complementing the difference area as a transparent area, a predetermined pixel value is allocated to the pixels included in the difference area. Complementing the pixel values by the transparent region may be performed by selecting one from a plurality of pixel values stored in advance. In addition, it may not be interpolated. The method of interpolating the difference area by the area complementing unit 211 may be set in the ROM 103 in advance, or the user may select an arbitrary method.
FIG. 13 is an example of an operation screen that allows the user to select a method for complementing the difference area. The area complementing unit 211 allows the user to select a method of complementing the difference region. The user can perform a predetermined process on the difference region by selecting a desired process.

スキュー補正部212は、特徴点抽出部205によって抽出された4つの特徴点を結んで得られる領域X´に対してアフィン変換による回転変換を行い、画像読取装置104における主走査方向と副走査方向のいずれか一方をx軸、もう一方をy軸としたときのx軸およびy軸に矩形の2辺を一致させる。ただし、4つの特徴点を結んで囲まれた領域の4つの頂点の角度は直角からわずかなズレが想定されるため、必ずしも2辺が一致するものではなく、あらかじめ決められた誤差範囲内で一致するものであれば良い。即ち、スキュー補正部212は、画像読取装置104が出力した矩形状の画像データの隣接する2辺の一方をx軸、他方をy軸とした場合に、領域X´の隣接する2辺が夫々x軸、y軸と実質的に平行になるように、領域X´に対して回転変換を行う。 The skew correction unit 212 performs rotational conversion by affine transformation on the region X'obtained by connecting the four feature points extracted by the feature point extraction unit 205, and performs rotation conversion by affine transformation, and the main scanning direction and the sub scanning direction in the image reading device 104. When one of the two sides is the x-axis and the other is the y-axis, the two sides of the rectangle are matched with the x-axis and the y-axis. However, since the angles of the four vertices of the area surrounded by connecting the four feature points are expected to deviate slightly from the right angle, the two sides do not always match, and they match within a predetermined error range. Anything that does is fine. That is, when one of the two adjacent sides of the rectangular image data output by the image reading device 104 is the x-axis and the other is the y-axis, the skew correction unit 212 has two adjacent sides of the region X', respectively. Rotational conversion is performed on the region X'so that it is substantially parallel to the x-axis and the y-axis.

切出部213は、スキュー補正部212によって回転変換を行った画像データから領域X´を切出し、切出画像データとして出力する。切出す領域が複数存在する場合はそれら全てを別々の切出画像データとして出力する。出力先は、記憶装置105や外部I/F106を通して接続される外部端末等である。 The cutout unit 213 cuts out the area X'from the image data that has been rotationally converted by the skew correction unit 212, and outputs it as cutout image data. If there are multiple cutout areas, all of them are output as separate cutout image data. The output destination is an external terminal or the like connected through the storage device 105 or the external I / F 106.

このように、スキュー補正部212によって回転変換をする四角形の領域は4隅が直角又は略直角であり、回転変換をした後に切り出し部213によって媒体領域が部分的に削除されることがない。また、第二特徴点抽出部209によって最適な特徴点が抽出されるため、DP法によって閉輪郭線を簡略化したときに媒体領域が切り出し部213によって部分的に削除されることがない。 As described above, the quadrangular region whose rotation is converted by the skew correction unit 212 has four corners at right angles or substantially right angles, and the medium region is not partially deleted by the cutout unit 213 after the rotation conversion. Further, since the optimum feature points are extracted by the second feature point extraction unit 209, the medium region is not partially deleted by the cutout unit 213 when the closed contour line is simplified by the DP method.

図14は、本実施形態における一連の処理フローの一例について説明する図である。S301では、エッジ抽出部203が画像読取装置104で取得した画像データに含まれるエッジ画素を抽出する。S302では、輪郭線抽出部204が、S301で抽出したエッジ画素の内、媒体の輪郭に相当するエッジ画素の集合を閉輪郭線として抽出する。S303では、第一特徴点抽出部207が、対象となる閉輪郭線の特徴点を抽出する。S304では、輪郭線分割部208が、閉輪郭線を複数の輪郭線に分割する。S305では、第二特徴点抽出部209が、S304で分割された輪郭線を基に最適な特徴点を抽出する。S306では、領域補完部が、媒体領域と最適な特徴点を結ぶ直線によって囲まれた領域の差分領域を所定の画素によって補完する。S307では、スキュー補正部212が最適な特徴点を結ぶ直線によって囲まれた領域に対して回転変換を施し、切出し部213が回転変換を施した後の領域の切出しを行い、切出画像データを出力する。S308では、切出部213が全ての閉輪郭線集合によって成る領域に対して切出しを行ったか否かを判断し、切出しを行っている場合(S308、Yes)はフローを終了する。切出しを行っていない場合(S308、No)は、S303に戻り、切出しを終えていない閉輪郭線集合に対してS303〜S307のフローを実施する。 FIG. 14 is a diagram illustrating an example of a series of processing flows in the present embodiment. In S301, the edge extraction unit 203 extracts the edge pixels included in the image data acquired by the image reading device 104. In S302, the contour line extraction unit 204 extracts a set of edge pixels corresponding to the contour of the medium from the edge pixels extracted in S301 as a closed contour line. In S303, the first feature point extraction unit 207 extracts the feature points of the target closed contour line. In S304, the contour line dividing unit 208 divides the closed contour line into a plurality of contour lines. In S305, the second feature point extraction unit 209 extracts the optimum feature points based on the contour lines divided in S304. In S306, the region complementing unit complements the difference region of the region surrounded by the straight line connecting the medium region and the optimum feature point with a predetermined pixel. In S307, the skew correction unit 212 performs rotation conversion on the region surrounded by the straight line connecting the optimum feature points, and the cutting unit 213 cuts out the region after the rotation conversion is performed, and the cutout image data is obtained. Output. In S308, it is determined whether or not the cutting portion 213 has cut out the region composed of all the closed contour line sets, and if the cutting is performed (S308, Yes), the flow is terminated. When the cutting is not performed (S308, No), the process returns to S303, and the flow of S303 to S307 is performed on the closed contour line set that has not been cut out.

以上のように、本実施形態に係る画像処理装置100によれば、エッジ抽出部203は画像読取装置104で取得した画像データからエッジ画素を抽出し、輪郭線抽出部204は取得したエッジ画素の内、媒体の輪郭に相当するエッジ画素の集合を閉輪郭線として抽出し、第一特徴点抽出部207は閉輪郭線の仮の特徴点を抽出し、輪郭線分割部208は閉輪郭線を複数の輪郭線に分割し、第二特徴点抽出部209は分割された輪郭線を基に最適な特徴点を抽出し、領域補完部211は領域を補完し、スキュー補正部212はスキュー補正を行うことで、角が丸い媒体や角が折れ曲がっている媒体であっても本来の媒体領域を損ねることなく画像データとして記憶することが出来る。 As described above, according to the image processing device 100 according to the present embodiment, the edge extraction unit 203 extracts edge pixels from the image data acquired by the image reading device 104, and the contour line extraction unit 204 extracts the acquired edge pixels. Among them, a set of edge pixels corresponding to the contour of the medium is extracted as a closed contour line, the first feature point extraction unit 207 extracts a temporary feature point of the closed contour line, and the contour line dividing section 208 extracts the closed contour line. It is divided into a plurality of contour lines, the second feature point extraction unit 209 extracts the optimum feature points based on the divided contour lines, the area complementing unit 211 complements the area, and the skew correction unit 212 performs skew correction. By doing so, even a medium having rounded corners or a medium having bent corners can be stored as image data without damaging the original medium area.

以上、本発明の具体的な実施形態について説明したが、上述した実施形態は本発明の一例を示したものである。本発明は、上述した実施形態に限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で様々な変形や変更を加えて具体化することができる。 Although the specific embodiment of the present invention has been described above, the above-described embodiment shows an example of the present invention. The present invention is not limited to the above-described embodiment, and can be embodied by making various modifications and changes without departing from the gist of the present invention at the implementation stage.

上記実施形態の各装置で実行されることにより各機能を実現するプログラムは、インストール可能な形式又は実行可能な形式のファイルでCD−ROM、CD−R、メモリカード、DVD(Digital Versatile Disk)、フレキシブルディスク(FD)等のコンピュータで読み取り可能な記憶媒体に記憶されて提供される。
また、上記プログラムをインターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するようにしてもよい。また、上記プログラムをインターネット等のネットワーク経由で提供または配布するようにしてもよい。また、上記プログラムを、ROM等に予め組み込んで提供するようにしてもよい。
A program that realizes each function by being executed by each device of the above embodiment is a file in an installable format or an executable format, such as a CD-ROM, a CD-R, a memory card, a DVD (Digital Versatile Disk), or a file. It is stored and provided in a computer-readable storage medium such as a flexible disk (FD).
Further, the above program may be stored on a computer connected to a network such as the Internet and provided by downloading via the network. Further, the above program may be provided or distributed via a network such as the Internet. Further, the above program may be provided by incorporating it into a ROM or the like in advance.

〔本発明の実施態様例と作用、効果のまとめ〕
本発明の第一の実施態様に係る画像処理装置100は、媒体を含む領域を読み取って得られた画像データに含まれるエッジ画素を抽出するエッジ抽出部203と、エッジ画素の集合によって表されるエッジの内、媒体の輪郭に相当する閉輪郭線を抽出する輪郭線抽出部204と、閉輪郭線上の第一の特徴点を抽出する第一特徴点抽出部207と、閉輪郭線上の第一の特徴点の周辺に位置するエッジ画素を削除して、閉輪郭線を複数の輪郭線に分割する輪郭線分割部208と、分割された各輪郭線の延長線上の交点となる第二の特徴点を夫々抽出する第二特徴点抽出部209と、各第二の特徴点同士を結んで得られる領域を切出す切出部213と、を備える。
ここで、媒体の代表的な例としては矩形状の名刺である。
本実施態様によれば、角が丸い媒体や角の一部が折れ曲がっている媒体であっても、矩形に近い形状の画像データを媒体の画像データとして切出すことが可能となる。即ち、矩形状の媒体は、その角部が変形しても角部以外の辺が大幅に傾斜することは考えにくい。従って、閉輪郭線上の第一の特徴点の周辺に位置するエッジ画素を削除することにより得られる複数の輪郭線は、変形した角部分を除く媒体の辺に沿って延びる輪郭線を表す。その結果、分割後の各輪郭線を含む直線によって包囲される領域は矩形に近い形状となる。本態様によれば該領域の画像データとして矩形状の画像データを得ることができる。
[Summary of Examples of Embodiments of the Present Invention, Actions, and Effects]
The image processing apparatus 100 according to the first embodiment of the present invention is represented by an edge extraction unit 203 that extracts edge pixels included in image data obtained by reading a region including a medium, and a set of edge pixels. Of the edges, the contour line extraction unit 204 that extracts the closed contour line corresponding to the contour of the medium, the first feature point extraction unit 207 that extracts the first feature point on the closed contour line, and the first on the closed contour line. The edge pixel located around the feature point of is deleted, and the contour line dividing portion 208 that divides the closed contour line into a plurality of contour lines and the second feature that is an intersection point on the extension line of each divided contour line. A second feature point extraction unit 209 for extracting points, and a cutout section 213 for cutting out a region obtained by connecting the second feature points to each other are provided.
Here, a typical example of a medium is a rectangular business card.
According to this embodiment, it is possible to cut out image data having a shape close to a rectangle as image data of the medium even if the medium has rounded corners or a medium in which a part of the corners is bent. That is, it is unlikely that the sides other than the corners of the rectangular medium are significantly inclined even if the corners are deformed. Therefore, the plurality of contour lines obtained by deleting the edge pixels located around the first feature point on the closed contour line represent the contour lines extending along the sides of the medium excluding the deformed corners. As a result, the area surrounded by the straight line including each contour line after division has a shape close to a rectangle. According to this aspect, rectangular image data can be obtained as the image data of the region.

本発明の第二の実施態様に係る画像処理装置100において、第一特徴点抽出部207は、閉輪郭線を構成するエッジ画素の集合に間引き処理を施すことにより、第一の特徴点を抽出する。
エッジ画素の集合に対して間引き処理を施すことにより、媒体の角部を表す適当な一点を機械的に定めることができる。
In the image processing apparatus 100 according to the second embodiment of the present invention, the first feature point extraction unit 207 extracts the first feature point by thinning out a set of edge pixels constituting the closed contour line. To do.
By thinning out a set of edge pixels, an appropriate point representing a corner of the medium can be mechanically determined.

本発明の第三の実施態様に係る画像処理装置100は、各第二の特徴点同士を結んで得られる領域内部であり、媒体の領域と重複しない差分領域の画素を補完する画素補完部(領域補完部211)をさらに備える。
ここで、補完とは対象となる画素の画素値を同一又は別の画素値で置き換えることを意味する。なお、画素値には透過領域を示す画素値を含む。角が丸い媒体の場合、読取部(画像読取装置104)は、差分領域について媒体の画像データを取得できない。本態様においては、利用態様に見合った画素値で差分領域の画素を補完する。
The image processing apparatus 100 according to the third embodiment of the present invention is a pixel complementing unit (a pixel complementing unit) that complements pixels in a difference region that is inside a region obtained by connecting each of the second feature points and does not overlap with the media region. The area complementing unit 211) is further provided.
Here, complementation means replacing the pixel values of the target pixels with the same or different pixel values. The pixel value includes a pixel value indicating a transparent region. In the case of a medium having rounded corners, the reading unit (image reading device 104) cannot acquire the image data of the medium for the difference region. In this aspect, the pixels in the difference region are complemented with pixel values suitable for the usage mode.

本発明の第四の実施態様に係る画像処理装置100において、画素補完部(領域補完部211)は、差分領域の周辺に位置する媒体の領域内の画素に係る画素値を用いて、該差分領域内の画素の画素値を補完する。
本態様によれば、切出部213が出力する切出画像データとして、差分領域の色合いに違和感のない画像データを得ることができる。
In the image processing apparatus 100 according to the fourth embodiment of the present invention, the pixel complementing unit (region complementing unit 211) uses the pixel values related to the pixels in the region of the medium located around the difference region to obtain the difference. Complements the pixel values of the pixels in the area.
According to this aspect, as the cutout image data output by the cutout unit 213, it is possible to obtain image data that does not give a sense of discomfort in the hue of the difference region.

本発明の第五の実施態様に係る画像処理装置100は、各第二の特徴点同士を結んで得られる領域に対して回転変換を行う回転変換部(スキュー補正部212)を更に備え、切出部213は回転変換部によって回転変換された領域を切出す。
各第二の特徴点同士を結んで得られる領域はほぼ矩形の領域であることから、回転変換によって媒体領域が部分的に削除されることがない。本態様によれば、媒体領域が部分的に削除されることなく、ユーザの意図に沿った媒体の切出しが可能になる。
The image processing apparatus 100 according to the fifth embodiment of the present invention further includes a rotation conversion unit (skew correction unit 212) that performs rotation conversion on a region obtained by connecting the second feature points to each other. The output unit 213 cuts out a region that has been rotationally converted by the rotation conversion unit.
Since the region obtained by connecting the second feature points to each other is a substantially rectangular region, the medium region is not partially deleted by the rotation transformation. According to this aspect, it is possible to cut out the medium according to the user's intention without partially deleting the medium area.

本発明の第六の実施態様に係る画像処理方法は、媒体を含む領域を読み取って得られた画像データを取得し、画像データに含まれるエッジ画素を抽出するエッジ抽出ステップ(S301)と、エッジ画素の集合によって表されるエッジの内、媒体の輪郭に相当する輪郭線を抽出する輪郭線抽出ステップ(S302)と、輪郭線上の第一の特徴点を抽出する第一特徴点抽出ステップ(S303)と、輪郭線上の第一の特徴点の周辺に位置するエッジ画素を削除して、閉輪郭線を複数の輪郭線に分割する輪郭線分割ステップ(S304)と、分割された各輪郭線の延長線上の交点となる第二の特徴点を夫々抽出する第二特徴点抽出ステップ(S305)と、各第二の特徴点同士を結んで得られる領域を切出す切出ステップ(S307)と、を有する。
本態様は、第一の実施態様と同様の作用、効果を奏する。
The image processing method according to the sixth embodiment of the present invention includes an edge extraction step (S301) for acquiring image data obtained by reading a region including a medium and extracting edge pixels included in the image data, and an edge. A contour line extraction step (S302) for extracting a contour line corresponding to the contour of the medium among the edges represented by a set of pixels, and a first feature point extraction step (S303) for extracting the first feature point on the contour line. ), The contour line dividing step (S304) for dividing the closed contour line into a plurality of contour lines by deleting the edge pixels located around the first feature point on the contour line, and each of the divided contour lines. A second feature point extraction step (S305) for extracting each of the second feature points that are intersections on the extension line, and a cutout step (S307) for cutting out a region obtained by connecting each of the second feature points. Has.
This aspect exhibits the same actions and effects as those of the first embodiment.

本発明の第七の実施態様に係る画像処理装置100は、コンピュータに、第六の実施態様に係る画像処理方法を実行させるためのプログラムである。
本態様は、第一の実施態様と同様の作用、効果を奏する。
The image processing apparatus 100 according to the seventh embodiment of the present invention is a program for causing a computer to execute the image processing method according to the sixth embodiment.
This aspect exhibits the same actions and effects as those of the first embodiment.

100 画像処理装置 101 CPU 102 RAM 103 ROM 104 画像読取装置(読取部) 105 記憶装置 106 外部I/F 107 入力I/F 108 バス 201 画像処理部 202 画像変換部 203 エッジ抽出部 204 輪郭線抽出部 205 特徴点抽出部 206 後処理部 207 第一特頂点抽出部 208 輪郭線分割部 209 第二特徴点抽出部 210 判断部 211 領域補完部 212 スキュー補正部 213 切出部 100 Image processing device 101 CPU 102 RAM 103 ROM 104 Image reading device (reading unit) 105 Storage device 106 External I / F 107 Input I / F 108 Bus 201 Image processing unit 202 Image conversion unit 203 Edge extraction unit 204 Contour line extraction unit 205 Feature point extraction section 206 Post-processing section 207 First special vertex extraction section 208 Contour line division section 209 Second feature point extraction section 210 Judgment section 211 Area complement section 212 Skew correction section 213 Cutout section

Shin-Ting Wu; Adler C. G. da Silva; Mercedes R. G. Marquez、 The Douglas-peucker algorithm、 J. Braz. Comp. Soc. vol.9 no.3 Campinas Apr. 2004Shin-Ting Wu; Adler C. G. da Silva; Mercedes R. G. Marquez, The Douglas-peucker algorithm, J. Braz. Comp. Soc. Vol.9 no.3 Campinas Apr. 2004 Satoshi Suzuki; Keiichi Abe、 Topological structural analysis of digitized binary images by border following、Computer Vision Graphics and Image Processing 30(1):32-46 March 1985Satoshi Suzuki; Keiichi Abe, Topological structural analysis of digitized binary images by border following, Computer Vision Graphics and Image Processing 30 (1): 32-46 March 1985

Claims (7)

媒体を含む領域を読み取って得られた画像データに含まれるエッジ画素を抽出するエッジ抽出部と、
前記エッジ画素の集合によって表されるエッジの内、前記媒体の輪郭に相当する閉輪郭線を抽出する輪郭線抽出部と、
前記閉輪郭線上の第一の特徴点を抽出する第一特徴点抽出部と、
前記閉輪郭線上の第一の特徴点の周辺に位置するエッジ画素を削除して、前記閉輪郭線を複数の輪郭線に分割する輪郭線分割部と、
前記分割された各輪郭線の延長線上の交点となる第二の特徴点を夫々抽出する第二特徴点抽出部と、
前記各第二の特徴点同士を結んで得られる領域を切出す切出部と、
を備える画像処理装置。
An edge extraction unit that extracts edge pixels included in the image data obtained by reading an area including a medium, and an edge extraction unit.
A contour line extraction unit that extracts a closed contour line corresponding to the contour of the medium among the edges represented by the set of edge pixels, and a contour line extraction unit.
A first feature point extraction unit that extracts the first feature point on the closed contour line,
A contour line dividing portion that divides the closed contour line into a plurality of contour lines by deleting edge pixels located around the first feature point on the closed contour line.
A second feature point extraction unit that extracts each of the second feature points that are intersections on the extension lines of the divided contour lines, and a second feature point extraction unit.
A cutout portion that cuts out a region obtained by connecting each of the second feature points and
An image processing device comprising.
前記第一特徴点抽出部は、前記閉輪郭線を構成するエッジ画素の集合に間引き処理を施すことにより、前記第一の特徴点を抽出する請求項1記載の画像処理装置。 The image processing apparatus according to claim 1, wherein the first feature point extraction unit extracts the first feature point by thinning out a set of edge pixels constituting the closed contour line. 前記各第二の特徴点同士を結んで得られる領域内部であり、前記媒体の領域と重複しない差分領域の画素を補完する画素補完部をさらに備える請求項1又は2記載の画像処理装置。 The image processing apparatus according to claim 1 or 2, further comprising a pixel complementing portion that complements pixels in a difference region that is inside a region obtained by connecting the second feature points and does not overlap with the region of the medium. 前記画素補完部は、前記差分領域の周辺に位置する前記媒体の領域内の画素に係る画素値を用いて、該差分領域内の画素の画素値を補完する請求項3記載の画像処理装置。 The image processing apparatus according to claim 3, wherein the pixel complementing unit complements the pixel values of the pixels in the difference region by using the pixel values of the pixels in the region of the medium located around the difference region. 前記各第二の特徴点同士を結んで得られる領域に対して回転変換を行う回転変換部を更に備え、
前記切出部は前記回転変換部によって回転変換された領域を切出す請求項1乃至4記載の画像処理装置。
A rotation conversion unit that performs rotation conversion for a region obtained by connecting the second feature points to each other is further provided.
The image processing apparatus according to claim 1 to 4, wherein the cutout unit cuts out a region converted by rotation by the rotation conversion unit.
媒体を含む領域を読み取って得られた画像データを取得し、前記画像データに含まれるエッジ画素を抽出するエッジ抽出ステップと、
前記エッジ画素の集合によって表されるエッジの内、前記媒体の輪郭に相当する輪郭線を抽出する輪郭線抽出ステップと、
前記輪郭線上の第一の特徴点を抽出する第一特徴点抽出ステップと、
前記輪郭線上の第一の特徴点の周辺に位置するエッジ画素を削除して、前記閉輪郭線を複数の輪郭線に分割する輪郭線分割ステップと、
前記分割された各輪郭線の延長線上の交点となる第二の特徴点を夫々抽出する第二特徴点抽出ステップと、
前記各第二の特徴点同士を結んで得られる領域を切出す切出ステップと、
を有する画像処理方法。
An edge extraction step of acquiring image data obtained by reading an area including a medium and extracting edge pixels included in the image data, and an edge extraction step.
A contour line extraction step for extracting a closed contour line corresponding to the contour of the medium among the edges represented by the set of edge pixels, and
The first feature point extraction step for extracting the first feature point on the closed contour line and
Remove the edge pixels located around the first feature point of the closed contour, a contour dividing step of dividing said closed contour to a plurality of contour lines,
A second feature point extraction step for extracting each of the second feature points that are intersections on the extension lines of the divided contour lines, and a second feature point extraction step.
A cutting step for cutting out a region obtained by connecting each of the second feature points, and
Image processing method having.
コンピュータに、請求項6記載の画像処理方法を実行させるためのプログラム。 A program for causing a computer to execute the image processing method according to claim 6.
JP2017051509A 2017-03-16 2017-03-16 Image processing equipment, image processing methods and programs Active JP6880867B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017051509A JP6880867B2 (en) 2017-03-16 2017-03-16 Image processing equipment, image processing methods and programs

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017051509A JP6880867B2 (en) 2017-03-16 2017-03-16 Image processing equipment, image processing methods and programs

Publications (2)

Publication Number Publication Date
JP2018156274A JP2018156274A (en) 2018-10-04
JP6880867B2 true JP6880867B2 (en) 2021-06-02

Family

ID=63718008

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017051509A Active JP6880867B2 (en) 2017-03-16 2017-03-16 Image processing equipment, image processing methods and programs

Country Status (1)

Country Link
JP (1) JP6880867B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111199551A (en) * 2020-01-06 2020-05-26 北京农业信息技术研究中心 Target segmentation method and system for fish overlapped image
CN113313664A (en) * 2020-02-07 2021-08-27 财团法人石材暨资源产业研究发展中心 Stone image analysis method based on stone processing
CN115482244B (en) * 2022-09-14 2024-05-07 南京索图科技有限公司 Image processing method under endoscope

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09293142A (en) * 1996-04-25 1997-11-11 Tec Corp Method for recognizing article
JP5278093B2 (en) * 2009-03-26 2013-09-04 大日本印刷株式会社 Article related information providing method, apparatus, program, and recording medium
US9122921B2 (en) * 2013-06-12 2015-09-01 Kodak Alaris Inc. Method for detecting a document boundary
JP5695257B1 (en) * 2014-07-25 2015-04-01 楽天株式会社 Image processing apparatus, image processing method, and image processing program
JP6272219B2 (en) * 2014-12-26 2018-01-31 キヤノン株式会社 Image processing apparatus, image processing method, and program

Also Published As

Publication number Publication date
JP2018156274A (en) 2018-10-04

Similar Documents

Publication Publication Date Title
JP4568460B2 (en) Image processing apparatus and recording medium
JP6706985B2 (en) Image processing apparatus and control method thereof
US7680358B2 (en) Image processing apparatus and control method thereof, and program
JP2017092872A (en) Image processing apparatus and image processing method
JP6880867B2 (en) Image processing equipment, image processing methods and programs
US10592766B2 (en) Image processing apparatus and medium storing program executable by image processing apparatus
JP6781406B2 (en) Image processing equipment and computer programs
US20070002065A1 (en) Image processing apparatus and image processing method
JP2007527567A (en) Image sharpening with region edge sharpness correction
JP2016032270A (en) Image processor and image processing program
JP4582204B2 (en) Image processing apparatus, image conversion method, and computer program
JP4594042B2 (en) Image processing method, image processing apparatus, and computer program
JP2010074342A (en) Image processing apparatus, image forming apparatus, and program
JP6120824B2 (en) Image processing apparatus, image processing method, and program
JP2018117310A (en) Scanner, scan control program, and image data generation method
US20140111828A1 (en) Image processing apparatus capable of synthesizing form image with aggregate image, method of controlling the same, and storage medium
JP3952188B2 (en) Image interpolation apparatus, image interpolation method, and image interpolation program
KR100587979B1 (en) Interpolation method for image enlargement based on edge and corner
JP6690340B2 (en) Information processing device and program
JP2018182464A (en) Image processing system and program
JP5144356B2 (en) Image processing apparatus and image processing method
JP4517288B2 (en) Image processing apparatus, image processing method, and program thereof
JP6040145B2 (en) Image processing device
CN111626935B (en) Pixel map scaling method, game content generation method and device
JP2005196444A (en) Image data processor, image data processing method and its program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191220

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210201

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210209

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210324

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210406

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210419

R151 Written notification of patent or utility model registration

Ref document number: 6880867

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151