JP2012170049A - Image processor and document reading system provided with the same - Google Patents
Image processor and document reading system provided with the same Download PDFInfo
- Publication number
- JP2012170049A JP2012170049A JP2011284916A JP2011284916A JP2012170049A JP 2012170049 A JP2012170049 A JP 2012170049A JP 2011284916 A JP2011284916 A JP 2011284916A JP 2011284916 A JP2011284916 A JP 2011284916A JP 2012170049 A JP2012170049 A JP 2012170049A
- Authority
- JP
- Japan
- Prior art keywords
- image
- cut
- area
- mesh model
- indicator
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 238000000034 method Methods 0.000 description 33
- 238000010586 diagram Methods 0.000 description 22
- 210000003811 finger Anatomy 0.000 description 20
- 238000003702 image correction Methods 0.000 description 14
- 238000006243 chemical reaction Methods 0.000 description 10
- 238000001514 detection method Methods 0.000 description 5
- 230000009466 transformation Effects 0.000 description 5
- 238000005452 bending Methods 0.000 description 4
- 238000003708 edge detection Methods 0.000 description 4
- 238000003384 imaging method Methods 0.000 description 4
- 210000005224 forefinger Anatomy 0.000 description 3
- 230000002093 peripheral effect Effects 0.000 description 2
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
Images
Landscapes
- Processing Or Creating Images (AREA)
- Image Processing (AREA)
- Editing Of Facsimile Originals (AREA)
- Studio Devices (AREA)
Abstract
Description
本発明は、本などの原稿の紙面を読み取って得られた画像を処理する画像処理装置およびこれを備えた原稿読取システムに関するものである。 The present invention relates to an image processing apparatus that processes an image obtained by reading a paper surface of a document such as a book, and a document reading system including the image processing apparatus.
本のページを自然に開いた状態で上方から撮像してページの画像を読み取ることができるブックスキャナ(書画カメラ)が普及している(特許文献1参照)。このようなブックスキャナを用いると、ページをめくりながらページの画像を次々に読み取ることができるため、本を電子化する作業を効率良く行うことができる。 2. Description of the Related Art Book scanners (document cameras) that can pick up images from above and read a page image in a state in which a page of a book is naturally opened are widely used (see Patent Document 1). When such a book scanner is used, the images of the pages can be read one after another while turning the pages, so that the work of digitizing the book can be performed efficiently.
さて、本の紙面の一部のみの画像が必要な場合にも、ブックスキャナを用いることができるが、この場合、本のページ全体を撮像し、あるいはページ内の必要な領域を含むように撮像した後、画像データをPCに取り込んで、PCの画面を見ながら必要な領域の画像を切り抜く作業が必要になり、面倒であった。 A book scanner can also be used when an image of only a part of the paper surface of a book is required. In this case, the entire page of the book is imaged or an image is captured so as to include a necessary area in the page. After that, it is necessary to take the image data into the PC, and to cut out the image of the necessary area while viewing the screen of the PC, which is troublesome.
本発明は、このような従来技術の問題点を解消するべく案出されたものであり、その主な目的は、原稿の紙面上で指などの指示物で領域を直接指定する動作で切出し画像を取得することができるように構成された画像処理装置およびこれを備えた原稿読取システムを提供することにある。 The present invention has been devised to solve such problems of the prior art, and its main purpose is to cut out an image by directly specifying an area with an indicator such as a finger on the surface of a document. It is an object of the present invention to provide an image processing apparatus configured to be able to acquire image data and a document reading system including the image processing apparatus.
上記目的を達成するために本発明の画像処理装置は、指示物のない状態で原稿の紙面を載置面とともに撮影した第1の撮影画像と、原稿の紙面上で切り出すべき領域を指し示す指示物を原稿の紙面とともに撮影した第2の撮影画像とを取得する撮影画像取得部と、前記第2の撮影画像から指示物が指し示す点を検出して切出し領域を求める切出し領域取得部と、前記第1の撮影画像内の少なくとも前記切出し領域取得部で得られた切出し領域に対応する画像部分を平面化して切出し画像を取得する切出し画像生成部とを備え、前記切出し領域取得部は、前記指示物が指し示す1点の軌跡で表される指定領域に基づいて前記切出し領域を求めることを特徴とするものである。 In order to achieve the above object, an image processing apparatus according to the present invention includes a first photographed image obtained by photographing a paper surface of a document together with a placement surface in the absence of a pointing material, and an indicator indicating a region to be cut out on the paper surface of the document. A captured image acquisition unit that acquires a second captured image that is captured together with a paper surface of a document, a cutout region acquisition unit that detects a point indicated by an indicator from the second captured image and obtains a cutout region, and the first A cut-out image generation unit that obtains a cut-out image by flattening an image portion corresponding to at least the cut-out region obtained by the cut-out region acquisition unit in one captured image, and the cut-out region acquisition unit includes the indicator The cut-out area is obtained based on a designated area represented by a locus of one point indicated by.
本発明によれば、原稿の紙面上で指やペンなどの指示物で領域を直接指定する動作で、様々な領域を切出し画像として指定することができる。また、平面化された切出し画像を取得することができるため、ユーザの利便性を高めることができる。特に切出し領域に対応する画像部分のみを平面化する構成とすると、平面化に要する演算負担を軽減して処理の高速化を図ることができる。 According to the present invention, various areas can be designated as cut-out images by the operation of directly designating areas with a pointing object such as a finger or a pen on the surface of a document. In addition, since a flattened cut-out image can be acquired, user convenience can be improved. In particular, if the configuration is such that only the image portion corresponding to the cutout region is planarized, it is possible to reduce the computational burden required for planarization and increase the processing speed.
前記課題を解決するためになされた第1の発明は、指示物のない状態で原稿の紙面を載置面とともに撮影した第1の撮影画像と、原稿の紙面上で切り出すべき領域を指し示す指示物を原稿の紙面とともに撮影した第2の撮影画像とを取得する撮影画像取得部と、前記第2の撮影画像から指示物が指し示す点を検出して切出し領域を求める切出し領域取得部と、前記第1の撮影画像内の少なくとも前記切出し領域取得部で得られた切出し領域に対応する画像部分を平面化して切出し画像を取得する切出し画像生成部とを備え、前記切出し領域取得部は、前記指示物が指し示す1点の軌跡で表される指定領域に基づいて前記切出し領域を求めるようにしたものである。 A first invention made to solve the above-described problem is that a first photographed image obtained by photographing a paper surface of a document together with a placement surface in the absence of a pointing material, and an indicator indicating an area to be cut out on the paper surface of the document A captured image acquisition unit that acquires a second captured image that is captured together with a paper surface of a document, a cutout region acquisition unit that detects a point indicated by an indicator from the second captured image and obtains a cutout region, and the first A cut-out image generation unit that obtains a cut-out image by flattening an image portion corresponding to at least the cut-out region obtained by the cut-out region acquisition unit in one captured image, and the cut-out region acquisition unit includes the indicator The cut-out area is obtained based on the designated area represented by the locus of one point indicated by.
また、第2の発明は、前記切出し領域取得部は、前記指示物の動作後、前記指示物が所定時間停止し、さらに動作を開始する場合において、前記指示物が所定期間停止した位置を示す位置データを複数記憶し、前記位置データに基づいて切出し領域を求めるようにしたものである。これら第1及び第2の発明により、原稿の紙面上で指やペンなどの指示物で領域を直接指定する動作で、様々な領域を切出し画像として指定することができる。また、平面化された切出し画像を取得することができるため、ユーザの利便性を高めることができる。特に切出し領域に対応する画像部分のみを平面化する構成とすると、平面化に要する演算負担を軽減して処理の高速化を図ることができる。 In the second invention, the cut-out area acquisition unit indicates a position where the indicator has stopped for a predetermined period when the indicator stops for a predetermined time after the operation of the indicator and further starts to operate. A plurality of position data is stored, and a cutout area is obtained based on the position data. According to the first and second aspects of the present invention, various areas can be designated as cut-out images by directly designating areas on the paper surface of the original with an indicator such as a finger or a pen. In addition, since a flattened cut-out image can be acquired, user convenience can be improved. In particular, if the configuration is such that only the image portion corresponding to the cutout region is planarized, it is possible to reduce the computational burden required for planarization and increase the processing speed.
また、第3の発明は、前記第1あるいは第2の発明において、前記第1の撮影画像に基づいて1次メッシュモデルを生成する1次メッシュモデル生成部と、前記1次メッシュモデルに基づいてこれよりメッシュ間隔が小さい2次メッシュモデルを生成する2次メッシュモデル生成部と、をさらに有し、前記切出し領域取得部は、前記1次メッシュモデルを用いて前記切出し領域を求め、前記切出し画像生成部は、前記2次メッシュモデルを用いて画像の平面化を行う構成とする。 According to a third aspect of the present invention, in the first or second aspect of the invention, a primary mesh model generation unit that generates a primary mesh model based on the first photographed image, and the primary mesh model. A secondary mesh model generating unit that generates a secondary mesh model having a mesh interval smaller than this, and the cut-out region acquiring unit obtains the cut-out region using the primary mesh model, and the cut-out image The generation unit is configured to planarize an image using the secondary mesh model.
これによると、1次メッシュモデルのメッシュ間隔を大きくすることで、切出し領域を求める処理の演算負担を軽減することができる。また、メッシュ間隔が小さい2次メッシュモデルを用いて画像の平面化を行うため、平面化の変換精度を向上させることができ、歪みの小さな高画質な切出し画像を取得することができる。この場合、1次メッシュモデルの交点間を等分割して2次メッシュモデルを生成すればよい。 According to this, by increasing the mesh interval of the primary mesh model, it is possible to reduce the calculation burden of the process for obtaining the cutout region. Further, since the image is planarized using a secondary mesh model with a small mesh interval, the conversion accuracy of the planarization can be improved, and a high-quality cutout image with small distortion can be acquired. In this case, a secondary mesh model may be generated by equally dividing the intersection points of the primary mesh model.
また、第4の発明は、前記第3の発明において、前記2次メッシュモデル生成部は、前記切出し領域についてのみ前記2次メッシュモデルを生成し、前記切出し画像生成部は、前記2次メッシュモデルを用いて前記切出し領域に対応する画像部分のみを平面化する構成とする。 In a fourth aspect based on the third aspect, the secondary mesh model generation unit generates the secondary mesh model only for the cutout region, and the cutout image generation unit includes the secondary mesh model. Only the image portion corresponding to the cut-out area is planarized by using.
これによると、2次メッシュモデル生成と平面化の各処理の演算負担を軽減することができる。 According to this, it is possible to reduce the calculation burden of each process of generating the secondary mesh model and planarizing.
また、第5の発明は、前記第3若しくは第4の発明において、前記切出し領域取得部は、前記1次メッシュモデルにおいて前記指定領域を取り囲むメッシュラインを境界線して前記切出し領域を求める構成とする。 According to a fifth aspect of the invention, in the third or fourth aspect of the invention, the cut-out area acquisition unit obtains the cut-out area by demarcating a mesh line surrounding the specified area in the primary mesh model. To do.
これによると、1次メッシュモデルのメッシュ間隔を適切に設定することで、必要なマージンが確保されるため、指示物による領域指定時に指示物に押圧されて紙が変位することによる画像のずれに関係なく、指示物で指定された領域の画像を確実に切り出すことができる。この場合、メッシュ間隔は、指示物に押圧されて紙面が変位する際の画像のずれ量に基づいて設定すればよい。
また、第6の発明は、原稿読取システムに関するものであり、前記第1乃至第5の発明にかかる画像処理装置と、撮像画像を撮影するカメラ部を有する画像入力装置とを備えたものである。
According to this, since a necessary margin is ensured by appropriately setting the mesh interval of the primary mesh model, when the area is designated by the indicator, the image is displaced due to the paper being displaced by being pressed by the indicator. Regardless, the image of the area designated by the indicator can be reliably cut out. In this case, the mesh interval may be set based on the image shift amount when the paper surface is displaced by being pressed by the indicator.
A sixth invention relates to a document reading system, and includes the image processing device according to the first to fifth inventions, and an image input device having a camera unit for taking a captured image. .
これによると、原稿の紙面上で指やペンなどの指示物で領域を直接指定する動作で、指定された領域の画像が切り出されて、平面化された切出し画像を取得することができるため、ユーザの利便性を高めることができる。 According to this, since the image of the specified area can be cut out by the operation of directly specifying the area with an indicator such as a finger or a pen on the paper surface of the document, a flattened cut-out image can be acquired. User convenience can be improved.
以下、本発明の実施の形態を、図面を参照しながら説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings.
図1は、本実施形態にかかる原稿読取システムを示す全体構成図である。この原稿読取システムは、本(原稿)Bの紙面の画像を読み取って、紙面の画像データを取得するものであり、ブックスキャナ(画像入力装置)1とPC(画像処理装置)2とからなっている。 FIG. 1 is an overall configuration diagram showing a document reading system according to the present embodiment. This document reading system reads a paper image of a book (original) B and acquires image data on the paper surface. The document reading system includes a book scanner (image input device) 1 and a PC (image processing device) 2. Yes.
ブックスキャナ1は、本Bの紙面を撮像するカメラ部3と、このカメラ部3を保持するスタンド部4とを備え、スタンド部4を机などの載置面5に据え付けるとともに、カメラ部3の真下の載置面5上に本Bを載置して、カメラ部3で本Bの紙面を撮像する。本Bは、自然に開いた状態で紙面の撮像が行われ、本Bの見開き2ページの撮影画像が得られる。そして、歪みのある紙面の画像を平面化する処理が行われて、見開き2ページ分の平面化された紙面の画像を取得することができる。
The
さらにここでは、指やペンなどの指示物Fを用いて本Bの紙面上で領域を直接指定する動作で、指定された領域の画像が切り出されて、平面化された切出し画像を取得することができる。このとき、ブックスキャナ1では、指示物Fのない状態で本Bの紙面を載置面5とともに撮影し、その撮影画像に基づいてPC2において紙面の画像が生成される。また、ブックスキャナ1では、本Bの紙面上で切り出すべき領域を指し示す指示物Fを本Bの紙面とともに撮影し、その撮影画像に基づいてPC2において切出し領域が認識される。
Furthermore, here, in the operation of directly designating an area on the paper surface of Book B using an indicator F such as a finger or a pen, an image of the designated area is cut out to obtain a flattened cut out image. Can do. At this time, the book scanner 1 photographs the paper surface of the book B together with the
図2は、ブックスキャナ1およびPC2の概略構成を示すブロック図である。ブックスキャナ1は、カメラ部3を備えた撮像処理部11と、操作指示部12と、外部インタフェ
イス13と、を有している。PC2は、外部I/F21と、画像データ入力部(撮影画像取得部)22と、画像処理部23と、操作系制御部24と、表示データ生成部25と、表示器26と、入力部27を有している。なお、PC2の画像処理部23および表示データ生成部25は、画像処理アプリケーションなどのプログラムをCPUで実行するソフトウェア処理で実現される。
FIG. 2 is a block diagram showing a schematic configuration of the
PC2では、キーボードなどからなる入力部27の操作により、ブックスキャナ1で撮影される画像の解像度やフレームレートなどの動作条件が入力され、この動作条件が操作系制御部24からブックスキャナ1に送信され、ブックスキャナ1では、PC2から送信された動作条件に基づいて操作指示部12による指示にしたがって撮像処理部11が所要の動作を行う。
In the PC 2, operating conditions such as the resolution and frame rate of an image captured by the
PC2の画像データ入力部22では、ブックスキャナ1から送信される画像データをメモリに格納し、必要に応じてその画像データを画像処理部23に出力する。この画像データ入力部22では、指示物Fのない状態で本Bの紙面を載置面5とともに撮影した第1の撮影画像と、本Bの紙面上で切り出すべき領域を指し示す指示物Fを本Bの紙面とともに撮影した第2の撮影画像とを取得する。
The image
画像処理部23は、輪郭取得部31と、1次メッシュモデル生成部32と、切出し領域取得部33と、2次メッシュモデル生成部34と、切出し画像生成部35と、画像補正部36と、を有している。
The
輪郭取得部31は、第1の撮影画像から本Bの輪郭を取得する。1次メッシュモデル生成部32は、第1の撮影画像に基づいて輪郭取得部31で取得した輪郭情報から1次メッシュモデルを生成する。切出し領域取得部33は、第2の撮影画像から指示物が指し示す点を検出して切出し領域を求める。2次メッシュモデル生成部34は、1次メッシュモデル生成部32で生成した1次メッシュモデルに基づいてこれよりメッシュ間隔が小さい2次メッシュモデルを生成する。
The
切出し画像生成部35では、第1の撮影画像において切出し領域取得部33で得られた切出し領域に対応する画像部分を平面化して切出し画像を取得する。この切出し画像生成部35は、歪みのある紙面の画像を歪みのない画像に変換する画像変換部37を備え、この画像変換部37では、射影変換(アフィン変換)により画像の平面化が行われ、フラットベッドスキャナで読み取ったものと同様の画像を取得することができる。画像補正部36では、切出し画像生成部35により取得した切出し画像の外周部に現れる不要な画像部分を削除する画像補正を行う。
The cut-out
切出し領域取得部33は、1次メッシュモデルを用いて切出し領域を決定し、切出し画像生成部35は、2次メッシュモデルを用いて画像の平面化を行う。これについては後に詳しく説明する。
The cut-out
図3は、本原稿読取システムにおける画像切出しの手順を示すフロー図である。まず、ブックスキャナ1を起動させるとともに、PC2で所要のアプリケーションを起動させると、画像の入力、すなわちブックスキャナ1で撮像が開始されてその撮像データがPC2に送信される(ST101)。ついで、ユーザがブックスキャナ1のカメラ部3の下に本をセットすると(ST102)、本Bの紙面が撮像されてその撮像データがPC2に送信され、PC2の画像データ入力部22では、指示物Fのない状態で本Bの紙面を載置面5とともに撮影した第1の撮影画像を取得する。
FIG. 3 is a flowchart showing the procedure of image cropping in the document reading system. First, when the
そしてPC2では、第1の撮影画像から本Bの輪郭を取得する処理が輪郭取得部31に
て行われ(ST103)、ついで、輪郭取得部31で取得した輪郭情報から、本Bの全体を対象にしてメッシュの粗い1次メッシュモデルを生成する処理が1次メッシュモデル生成部32にて行われる(ST104)。
In the
また、指やペンなどの指示物Fを用いて本Bの紙面上で切り出すべき領域を指し示す動作をユーザに行わせて、指示物Fを本Bの紙面とともに撮影した第2の撮影画像を取得し、この第2の撮影画像から指示物Fが指し示す点を検出して切出し領域を決定する処理が切出し領域取得部33にて行われる(ST105)。
In addition, the user performs an operation of pointing an area to be cut out on the paper surface of the book B using the indicator F such as a finger or a pen, and obtains a second photographed image obtained by photographing the indicator F together with the paper surface of the book B Then, the cut-out
そして、切出し領域取得部33にて取得した切出し領域を対象にして、1次メッシュモデル生成部32で生成した1次メッシュモデルに基づいて、1次メッシュモデルよりメッシュの細かい2次メッシュモデルを生成する処理が2次メッシュモデル生成部32にて行われ、さらにその2次メッシュモデルに基づいて画像を平面化する画像変換処理が切出し画像生成部34にて行われる(ST106)。
Then, a secondary mesh model having a finer mesh than the primary mesh model is generated based on the primary mesh model generated by the primary mesh
ついで、切出し画像生成部35により取得した切出し画像の外周部に現れる不要な画像部分を削除する画像補正が画像補正部35にて行われ(ST107)、これにより得られた切出し画像を表示器26に表示させる(ST108)。これによりユーザは画像の切り出しが適切に行われたか否かを確認することができる。
Next, image correction is performed in the
図4は、図3に示した輪郭取得(ST103)の手順を示すフロー図である。図5は、輪郭取得の要領を説明する模式図である。ここでは、指示物Fのない状態で本Bの紙面を載置面5とともに撮影した第1の撮影画像から、本Bの輪郭情報として、本Bの載置状態を大まかに把握するための主要直線成分と、ページの上下左右の端点である特異点を検出する。
FIG. 4 is a flowchart showing a procedure of contour acquisition (ST103) shown in FIG. FIG. 5 is a schematic diagram for explaining the outline acquisition procedure. Here, from the first photographed image obtained by photographing the paper surface of the book B together with the
まず、本全体の外形の主要直線成分を検出する(ST201)。ここでは、図5(A)に示すように、撮影画像内で、本B全体の外形における左右の側縁(通常は表紙の側縁)を示す2本の直線と、左右のページの綴じ目を示す1本の直線を検出する。この直線成分の検出は、ハフ(Hough)変換により行えばよい。 First, the main linear component of the outline of the entire book is detected (ST201). Here, as shown in FIG. 5A, in the captured image, two straight lines indicating the left and right side edges (usually the side edges of the cover) in the entire outline of the book B, and the stitches of the left and right pages Is detected. The detection of this linear component may be performed by Hough transformation.
また、撮影画像に対してエッジ検出を行う(ST202)。このエッジ検出は、キャニー(Canny)法を用いて行えばよい。ついで、取得したエッジ画像内の輪郭成分(原稿の
輪郭を構成する画素)を抽出する(ST203)。ついで、取得した輪郭成分に基づいて、ページの上下左右の端点である特異点を検出する(ST204)。ここでは、図5(B)に示すように、見開き2ページの撮影画像において、ページの上下左右の端点として6つの特異点が検出される。
Also, edge detection is performed on the captured image (ST202). This edge detection may be performed using the Canny method. Next, contour components (pixels constituting the contour of the document) in the acquired edge image are extracted (ST203). Next, singular points that are the top, bottom, left, and right end points of the page are detected based on the acquired contour component (ST204). Here, as shown in FIG. 5B, six singular points are detected as the top, bottom, left, and right end points of the two-page spread image.
そして、特異点検出(ST204)で取得した特異点の妥当性を判断する(ST205)。ここでは、取得した特異点と、直線成分検出(ST201)で取得した直線成分とを比較して、ページの上下左右の端点である特異点の妥当性を判断する。ここで、特異点が妥当であるものと判定されると、その特異点を確定する(ST206)。 Then, the validity of the singularity acquired in singularity detection (ST204) is determined (ST205). Here, the obtained singular point is compared with the linear component obtained in the straight line component detection (ST201), and the validity of the singular point, which is the upper, lower, left, and right end points of the page is determined. If it is determined that the singular point is valid, the singular point is determined (ST206).
なお、エッジ検出(ST202)、輪郭成分抽出(ST203)、および特異点検出(ST204)の各処理は、直線成分検出(ST201)の処理と平行して行うようにしてもよい。 Note that the processing of edge detection (ST202), contour component extraction (ST203), and singularity detection (ST204) may be performed in parallel with the processing of linear component detection (ST201).
図6は、図3に示した1次メッシュモデル生成(ST104)の手順を示すフロー図である。図7は、1次メッシュモデル生成の要領を説明する模式図である。ここでは、指示物Fのない状態で本Bの紙面を載置面5とともに撮影した第1の撮影画像から、本の紙面
全体を対象にした1次メッシュモデルを生成する。
FIG. 6 is a flowchart showing a procedure of primary mesh model generation (ST104) shown in FIG. FIG. 7 is a schematic diagram for explaining a procedure for generating a primary mesh model. Here, a primary mesh model for the entire book surface is generated from the first photographed image obtained by photographing the paper surface of book B together with the
まず、本Bのページの歪曲した輪郭線を表す歪曲成分を抽出する(ST301)。図7(A)に示すように、ページの上縁および下縁の輪郭線は、外側に膨らんだ歪曲した状態で表示され、このページの上縁および下縁の歪曲した輪郭成分(輪郭を構成する画素)を、図4に示したエッジ検出(ST202)で取得したエッジ画像から抽出する。そして、歪曲成分の連続性に基づいて歪曲成分の妥当性を判断する(ST302)。ここで、歪曲成分が妥当でないものと判定されると、途切れた部分の補間処理を行う(ST303)。これにより、歪曲成分が途切れることなく連続した状態となる。 First, a distortion component representing a distorted outline of the page of book B is extracted (ST301). As shown in FIG. 7A, the contour lines of the upper and lower edges of the page are displayed in a distorted state bulging outward, and the distorted contour components (contours of the upper and lower edges of the page are configured). Are extracted from the edge image acquired by the edge detection (ST202) shown in FIG. Then, the validity of the distortion component is determined based on the continuity of the distortion component (ST302). If it is determined that the distortion component is not valid, interpolation processing is performed for the interrupted portion (ST303). As a result, the distortion component becomes continuous without interruption.
ついで、歪曲成分を高さ成分に変換する演算を行う(ST304)。撮影画像上でページの上縁および下縁の輪郭線が歪曲した状態で表示されるのは、3次元的には紙面が上側に凸となるように湾曲していることによるものであり、ページの上縁および下縁の輪郭線を示す歪曲成分に基づいて、ページの上縁および下縁の3次元的な湾曲状態を示す高さ成分を求めることができる。具体的には載置面5に対してページの上縁および下縁の高さ(Z軸の座標)を一定間隔で求める。この高さ成分により、ページの上縁および下縁の実際の長さを推定することができる。
Next, an operation for converting a distortion component into a height component is performed (ST304). The reason why the upper and lower contours of the page are displayed in a distorted state on the photographed image is that the paper is curved so that it is convex upward in three dimensions. Based on the distortion component indicating the contour lines of the upper edge and the lower edge, the height component indicating the three-dimensional curved state of the upper edge and the lower edge of the page can be obtained. Specifically, the heights (Z-axis coordinates) of the upper and lower edges of the page with respect to the
ついで、縦横のメッシュラインを生成し(ST305)、その縦横のメッシュラインが交差するメッシュ交点の座標をメッシュテーブルに格納する(ST306)。ここでは、図7(B)に示すように、ページの上縁および下縁の高さ成分に基づいて、ページの上縁および下縁を示す曲線をメッシュ数に応じて等間隔に分割する基点の座標を求め、上縁および下縁の互いに対応する基点を結線して縦メッシュラインを求める。ついで、縦メッシュラインをメッシュ数に応じて等間隔に分割する点(メッシュ交点)の座標を求め、その点を結線して横メッシュラインを求める。 Next, vertical and horizontal mesh lines are generated (ST305), and the coordinates of mesh intersections where the vertical and horizontal mesh lines intersect are stored in the mesh table (ST306). Here, as shown in FIG. 7B, based on the height components of the upper and lower edges of the page, the base point for dividing the curve indicating the upper and lower edges of the page at equal intervals according to the number of meshes. The vertical mesh lines are obtained by connecting the corresponding base points of the upper edge and the lower edge. Next, the coordinates of points (mesh intersections) at which the vertical mesh lines are divided at equal intervals according to the number of meshes are obtained, and the points are connected to obtain the horizontal mesh lines.
図8、図9は、図3に示した切出し領域取得(ST105)の手順を示すフロー図であり、図8に一筆書き指定モード(第1の領域指定モード)の場合を、図9に2本指指定モード(第2の領域指定モード)の場合を、それぞれ示す。図10は、切出し領域取得の要領を説明する模式図であり、(A)に一筆書き指定モードの場合を、(B)に2本指指定モードの場合を、それぞれ示す。 FIGS. 8 and 9 are flowcharts showing the procedure of the cutout area acquisition (ST105) shown in FIG. 3. FIG. 8 shows the case of the one-stroke writing designation mode (first area designation mode), and FIG. The case of this finger designation mode (second area designation mode) is shown respectively. FIGS. 10A and 10B are schematic diagrams for explaining the procedure for obtaining the cut-out area. FIG. 10A shows the case of the single-stroke designation mode, and FIG. 10B shows the case of the two-finger designation mode.
本実施形態では、図10(A)に示す一筆書き指定モード(第1の領域指定モード)と、図10(B)に示す2本指指定モード(第2の領域指定モード)とを有し、ユーザがいずれかを選択することができる。 In the present embodiment, a one-stroke writing designation mode (first area designation mode) shown in FIG. 10A and a two-finger designation mode (second area designation mode) shown in FIG. 10B are provided. The user can select either.
図10(A)に示すように、一筆書き指定モードでは、指やペンなどの指示物Fを一筆書きの要領で動かし、指示物Fが指し示す1点の軌跡で表される指定領域に基づいて切出し領域を求める。特にここでは、指示物Fを左右方向(ページの継ぎ目となる中心線に直交する方向)および上下方向(中心線に平行となる方向)に動かし、左右方向の線分と上下方向の線分とで構成された多角形の領域を指定する。これにより、余分な画像が含まれないように領域を指定することができる。 As shown in FIG. 10 (A), in the single stroke designation mode, the indicator F such as a finger or a pen is moved in the manner of a single stroke, and based on the designated area represented by the locus of one point indicated by the indicator F. Find the cutout area. In particular, here, the indicator F is moved in the left-right direction (a direction perpendicular to the center line serving as a page seam) and the up-down direction (a direction parallel to the center line). Specifies a polygonal area consisting of. As a result, it is possible to specify the region so that an extra image is not included.
この一筆書き指定モードでは、切出し領域取得部33において、図8に示すように、まず、本Bの紙面上で切り出すべき領域を指し示す指示物Fを本Bの紙面とともに撮影した第2の撮影画像から、本Bの紙面上に存在する指示物Fを検出する(ST401)。ここでは、形状認識処理により指示物Fを識別し、指示物Fの形態に応じて指示物Fが指し示す指示点を決定する。例えば指示物が指であれば指先が指示点となる。
In this one-stroke writing designation mode, as shown in FIG. 8, first, the cut-out
ついで、指示物Fが所定時間(例えば1秒間)動きを停止したか否かを判定し(ST4
02)、指示物Fが動きを停止した場合には、次に指示物Fが規定の動作を開始したか否かを判定し(ST403)、指示物Fが規定の動作を開始した場合には、指示物Fが最初に停止した位置を開始点として軌跡の追跡処理を開始し、取得した軌跡の座標をメモリに格納する(ST404)。
Next, it is determined whether or not the indicator F has stopped moving for a predetermined time (for example, 1 second) (ST4).
02) If the indicator F has stopped moving, it is next determined whether or not the indicator F has started a prescribed operation (ST403). If the indicator F has started a prescribed operation, Then, the tracking process of the trajectory is started with the position where the indicator F first stops as a starting point, and the acquired coordinates of the trajectory are stored in the memory (ST404).
ここでは、指示物Fを停止させた後に左右いずれかの方向、すなわちページの継ぎ目となる中心線に対して略直交する方向に動かした場合に、領域指定を開始したものと判断して、軌跡の追跡処理を開始する。この指示物の軌跡は、表示器26に表示された撮影画像の画面上に描画される。
Here, when the indicator F is stopped and moved in either the left or right direction, that is, in a direction substantially orthogonal to the center line that is the page seam, it is determined that the area designation has started, and the locus Start the tracking process. The locus of the pointing object is drawn on the screen of the captured image displayed on the
そして、規定の指定動作が終了したか否か、すなわち開始点の近傍で指示物が動きを停止したか否かを判定し(ST405)、規定の指定動作が終了した場合には、軌跡の追跡処理を終了し、領域指定の主要点を抽出する(ST406)。ここでは、指示物の移動方向が略90度変化する折曲点を頂点とした多角形の領域を指定するようにしており、この折曲点と開始点が領域指定の主要点として抽出され、抽出された複数の折曲点を、指示物の軌跡が示す右回りおよび左回りの順に直線で結ぶことで多角形の指定領域が求められる。 Then, it is determined whether or not the specified designation operation has been completed, that is, whether or not the indicator has stopped moving in the vicinity of the start point (ST405). The process is terminated, and main points for area designation are extracted (ST406). Here, a polygonal region having a vertex at a bending point where the moving direction of the indicator changes by approximately 90 degrees is specified, and the bending point and the starting point are extracted as the main points for specifying the region, A polygonal designated area is obtained by connecting a plurality of extracted bending points with straight lines in the order of clockwise and counterclockwise directions indicated by the locus of the pointing object.
なお、領域を指定する指示物Fが、ユーザの指や、筆記に用いられる通常のペンでは、形状認識処理により指示物Fを識別する処理が必要になるが、これに代えて、赤外ライトを先端部に設けた指示具を用いることも可能である。この場合、指示具が発する赤外光が撮影画像に現れるため、その赤外光を検出すればよい。 When the indicator F for designating the area is a user's finger or a normal pen used for writing, a process for identifying the indicator F by the shape recognition process is necessary. It is also possible to use an indicator provided with a tip at the tip. In this case, since the infrared light emitted from the pointing tool appears in the captured image, the infrared light may be detected.
一方、図10(B)に示すように、2本指指定モードでは、指示物Fが指し示す2点を対角方向の頂点とした矩形の指定領域に基づいて切出し領域を求める。これにより、指示物Fによる領域指定を簡単に行うことができる。特にここでは、左右2本の人差し指を用いて領域を指定する。左右2本の人差し指が指し示す2点を対角方向の頂点として、ページの継ぎ目を示す中心線に対して上下の辺が直交するとともに中心線に対して左右の辺が平行となる矩形の領域を指定する。 On the other hand, as shown in FIG. 10B, in the two-finger designation mode, a cutout area is obtained based on a rectangular designated area having two points indicated by the indicator F as diagonal vertices. Thereby, the area designation by the indicator F can be easily performed. In particular, here, the region is specified using the left and right index fingers. A rectangular area in which the upper and lower sides are orthogonal to the center line indicating the joint of the page and the left and right sides are parallel to the center line, with the two points indicated by the left and right index fingers as diagonal vertices specify.
この2本指指定モードでは、切出し領域取得部33において、図9に示すように、まず、本Bの紙面上で切り出すべき領域を指し示す指示物Fを本Bの紙面とともに撮影した第2の撮影画像から、本Bの紙面上に存在する指示物Fを検出する(ST501)。そして、検出された指示物Fが左右2本の人差し指か否かを判定し(ST502)、左右2本の人差し指であれば、その左右2本の人差し指が所定時間(例えば1秒間)動きを停止したか否かを判定し(ST503)、所定時間動きを停止していれば、その左右2本の人差し指が指し示す指示点の座標を求める(ST504)。
In the two-finger designation mode, as shown in FIG. 9, first, the cut-out
ついで、左右2本の人差し指がそれぞれ指し示す2つの指示点から、ページの継ぎ目を示す中心線に対して平行となる直線と中心線に対して垂直となる直線を延ばしてそれらの交点を求める。これにより得られた2つの交点と、人差し指が指し示す2つの指示点とが、領域指定の主要点として抽出され、4つの主要点を結んだ矩形の領域が指定領域となる。 Next, a straight line parallel to the center line indicating the joint of the page and a straight line perpendicular to the center line are extended from the two designated points respectively indicated by the left and right index fingers to obtain an intersection point thereof. The two intersections obtained in this way and the two indication points indicated by the index finger are extracted as the main points for specifying the region, and a rectangular region connecting the four main points becomes the specified region.
図11は、図3に示した2次メッシュモデル生成・画像変換(ST106)の手順を示すフロー図である。図12は、2次メッシュモデル生成・画像変換の要領を説明する模式図である。ここでは、切出し領域を対象にして2次メッシュモデルを生成し、その2次メッシュモデルに基づいて切出し領域の画像を射影変換により平面化する。 FIG. 11 is a flowchart showing a procedure of secondary mesh model generation / image conversion (ST106) shown in FIG. FIG. 12 is a schematic diagram for explaining a procedure of secondary mesh model generation / image conversion. Here, a secondary mesh model is generated for the cutout region, and the image of the cutout region is planarized by projective transformation based on the secondary mesh model.
まず、2次メッシュモデル生成部34において、前記の図8、図9の切出し領域取得で
取得した指定領域の主要点の座標を、1次メッシュモデルの座標に合成する(ST601)。そして、指定領域に基づいて実際に画像を切り出す切出し領域を規定するメッシュ交点を抽出する(ST602)。ここでは、図12(A)に示すように、指定領域を取り囲むように指定領域の外側のメッシュ交点を結んだ領域を切出し領域に設定する。そして、図12(B)に示すように、指定領域を含む切出し領域を対象にして、1次メッシュモデルよりメッシュ間隔を細かくした2次メッシュモデルを生成する(ST603)。
First, in the secondary mesh
2次メッシュモデルは、1次メッシュモデルの各メッシュ交点の間を等分割するメッシュ交点を求めることで生成することができる。平均的な文字の大きさは10ポイント(幅3.5mm)程度となり、例えば1次メッシュモデルのメッシュ間隔を、平均的な10ポイントの文字の3文字分に相当する10.5mmとすると、2次メッシュモデルのメッシュ間隔を、10ポイントの文字の1文字分、すなわち1次メッシュモデルのメッシュ間隔の1/3の3.5mmとする。 The secondary mesh model can be generated by obtaining mesh intersections that equally divide between mesh intersections of the primary mesh model. The average character size is about 10 points (width 3.5 mm). For example, when the mesh interval of the primary mesh model is 10.5 mm corresponding to three characters of an average 10 point character, 2 The mesh interval of the next mesh model is set to 3.5 mm, which is one character of 10 points, that is, 1/3 of the mesh interval of the primary mesh model.
ついで、2次メッシュモデルが生成された切出し領域に対応する画像部分のみを対象にして射影変換による平面化が切出し画像生成部35にて実施される(ST604)。これにより、図12(C)に示すように、切出し領域のみ平面化された切出し画像を取得することができる。
Next, planarization by projective transformation is performed in the cutout
このようにメッシュ間隔が小さい2次メッシュモデルを用いて画像の平面化を行うため、平面化の変換精度を向上させることができ、歪みの小さな高画質な切出し画像を取得することができる。さらに、必要となる切出し領域に対応する画像部分のみを平面化するため、平面化に要する演算負担を軽減して処理の高速化を図ることができる。 Since the image is planarized using the secondary mesh model having a small mesh interval as described above, the conversion accuracy of the planarization can be improved, and a high-quality cutout image with small distortion can be acquired. Furthermore, since only the image portion corresponding to the necessary cut-out area is planarized, it is possible to reduce the calculation burden required for planarization and increase the processing speed.
ここで、指やペンなどの指示物Fによる領域指定時に生じる画像ずれについて説明する。図13は、指示物Fで切り出す領域を指定した際の本の紙面の状態を示す模式図である。図14は、指示物Fが指し示す点を結んで得られる指定領域と、実際に画像を切り出す切出し領域とを示す模式図である。なお、図14は、紙面に文字列が記載された画像の例を示している。 Here, an image shift that occurs when an area is designated by an indicator F such as a finger or a pen will be described. FIG. 13 is a schematic diagram illustrating a state of a book surface when an area to be cut out is designated by the indicator F. FIG. 14 is a schematic diagram showing a designated area obtained by connecting the points indicated by the indicator F and a cutout area where an image is actually cut out. FIG. 14 shows an example of an image in which a character string is written on the paper.
図13に示すように、本のページを自然に開いた状態では、紙の間に隙間があるため、領域指定の際に、指やペンなどの指示物Fで本の紙面を押さえると、指示物Fに押されて本Bの紙が撓み、この紙の撓みに応じて紙面の画像が左右にずれる。そこでここでは、切出し領域取得部33にて、指示物Fが指し示す点を結んだ指定領域の周囲に所定のマージンが確保されるように切出し領域を設定する。これにより、指示物Fによる指定領域よりマージン分だけ大きな領域を切り出すため、指示物Fによる領域指定時に指示物Fに押圧されて紙が変位することによる画像のずれに関係なく、指示物Fで指定された領域の画像を確実に切り出すことができる。
As shown in FIG. 13, when a book page is naturally opened, there is a gap between the papers. Therefore, when the area is specified, if the book surface is pressed with an indicator F such as a finger or a pen, When pressed by the object F, the paper of book B bends, and the image on the paper surface shifts to the left and right according to the bending of the paper. Therefore, here, the cutout
切出し領域を設定する際に指定領域の周囲に確保するマージン幅は、指やペンなどの指示物Fに押されて紙が撓むことに伴う画像のずれ量に基づいて定めればよい。画像のずれ量は、本の種類(雑誌やハードカバー本など)や紙質により異なるが、最大で5mm程度と推定され、これは、平均的な10ポイント(幅3.5mm)の文字では約2文字分に相当し、少なくともこの10ポイント文字の2文字分のマージンを確保するとよい。 The margin width to be secured around the designated area when setting the cut-out area may be determined based on the amount of image shift caused by the paper being bent by being pressed by the indicator F such as a finger or a pen. The amount of image shift differs depending on the type of book (magazine, hardcover book, etc.) and paper quality, but is estimated to be about 5 mm at maximum, which is about 2 for an average 10-point (width 3.5 mm) character. It is preferable to secure a margin for at least two of these 10-point characters, corresponding to the characters.
特にここでは、図14に示すように、1次メッシュモデルにおいて指定領域を取り囲むメッシュラインを境界線して切出し領域を求めるようにしている。図示する例では、指定領域の外側直近のメッシュラインより1本外側のメッシュラインを切出し領域の境界線としている。これにより、常にメッシュ間隔以上のマージンを確保することができ、1次メッシュモデルのメッシュ間隔を適切に設定することで、必要なマージンが確保されるため
、指示物による領域指定時の画像のずれに関係なく、指示物で指定された領域の画像を欠落なく確実に切り出すことができる。
In particular, here, as shown in FIG. 14, in the primary mesh model, a cut-out area is obtained by demarcating a mesh line surrounding a specified area. In the example shown in the figure, a mesh line that is one outer side than the mesh line immediately outside the designated area is used as the boundary line of the cut-out area. As a result, a margin greater than the mesh interval can always be secured, and the necessary margin is ensured by appropriately setting the mesh interval of the primary mesh model. Regardless of the above, it is possible to cut out the image of the area designated by the indicator without missing.
この場合、1つの網目内に少なくとも3文字入るように1次メッシュモデルのメッシュ間隔を設定するとよい。平均的な文字の大きさは10ポイント(幅3.5mm)程度となるため、10ポイントの文字の3文字分とすると、3.5×3=10.5mm角以上のメッシュとなる。 In this case, the mesh interval of the primary mesh model may be set so that at least three characters are included in one mesh. Since the average character size is about 10 points (width 3.5 mm), if it is 3 characters of 10 point characters, it becomes a mesh of 3.5 × 3 = 10.5 mm square or more.
図15は、図3に示した切出し画像補正(ST702)の手順を示すフロー図である。図16、図17、図18は、切出し画像補正で行われる各処理の状況を示す模式図である。なお、図16、図17、図18は、紙面に文字列が記載された画像の例を示している。 FIG. 15 is a flowchart showing the procedure of the cutout image correction (ST702) shown in FIG. FIGS. 16, 17, and 18 are schematic diagrams illustrating the status of each process performed in cutout image correction. 16, 17, and 18 show examples of images in which a character string is written on a paper surface.
前記のように、切出し領域は、指示物で実際に指定された領域より大きな領域となるため、前記の処理で取得した切出し画像の外周部には不要の画像が含まれる。そこで、切出し画像から不要部分を切り取って最終的な切出し画像を取得する。 As described above, the cut-out area is larger than the area actually specified by the indicator, and therefore an unnecessary image is included in the outer peripheral portion of the cut-out image acquired by the above processing. Therefore, an unnecessary portion is cut out from the cut image to obtain a final cut image.
まず、図15および図16に示すように、切出し領域の境界線上に跨った画像があるか否かを判定し(ST701)、該当する画像がある場合には、その画像の内側に境界線を設定して、その新たな境界線(切出し線)に沿って該当する画像部分を切り取る(ST702)。紙面の画像を切り出す場合、通常、画像が途中で分断されないように切り出す。そこで、切出し領域の境界線上に跨った画像は、余分に確保したマージン上に存在する不要部分と考えられ、削除することができる。 First, as shown in FIGS. 15 and 16, it is determined whether or not there is an image straddling the boundary line of the cut-out area (ST701). If there is a corresponding image, the boundary line is set inside the image. After setting, the corresponding image portion is cut out along the new boundary line (cutout line) (ST702). When a paper image is cut out, it is usually cut out so that the image is not divided in the middle. Therefore, an image straddling the boundary line of the cut-out area is considered as an unnecessary portion existing on an extra reserved margin and can be deleted.
ついで、図15および図17に示すように、切出し画像内に枠取りがあるか否かを判定し(ST703)、枠取りがある場合には、枠で囲まれた領域の外側にある画像の内側に境界線を設定して、その新たな境界線(切出し線)に沿って該当する画像部分を切り取る(ST704)。枠で囲まれた領域を切り出す場合、通常、その枠で囲まれた領域のみを切り出すことが多い。そこで、枠で囲まれた領域の外側にある画像は、余分に確保したマージン上に存在する不要部分と考えられ、削除することができる。 Next, as shown in FIGS. 15 and 17, it is determined whether or not there is a frame in the cut image (ST703). If there is a frame, the image outside the area surrounded by the frame is checked. A boundary line is set on the inner side, and the corresponding image portion is cut out along the new boundary line (cutout line) (ST704). When a region surrounded by a frame is cut out, usually only the region surrounded by the frame is cut out in many cases. Therefore, the image outside the area surrounded by the frame is considered as an unnecessary portion existing on an extra reserved margin and can be deleted.
一方、切出し画像内に枠取りがない場合には、文字群の周囲に文字間隔および行間隔より大きな空白が存在するか否かを判定し(ST705)、該当する空白が存在しない場合には、空白がない辺を抽出する(ST706)。 On the other hand, when there is no frame in the cut-out image, it is determined whether or not there is a space larger than the character spacing and line spacing around the character group (ST705). Edges without blanks are extracted (ST706).
以降、図15および図18に示すように、句読点の位置から文節を判断して、切出し画像の外周部に存在する句読点がある文字列より外側の文字群の画像を削除する。文章を部分的に切り出す場合、通常、句読点で区切られた範囲を切り出すことが多く、文節の途中で切り出すことはしないため、切出し画像の外周部に存在する句読点の外側の文字群の画像は、余分に確保したマージン上に存在する不要部分と考えられ、削除することができる。また、句読点を基準にして削除可能な部分は、書字方向(横書きと縦書き)によって異なり、横書きであれば、残すべき文節の上下にある文字群の画像を、縦書きであれば、残すべき文節の左右にある文字群の画像を削除すればよい。 Thereafter, as shown in FIGS. 15 and 18, the phrase is determined from the position of the punctuation mark, and the image of the character group outside the character string having the punctuation mark existing on the outer periphery of the cut-out image is deleted. When cutting out a part of a sentence, usually the range delimited by punctuation marks is often cut out, and it is not cut out in the middle of a phrase, so the image of the character group outside the punctuation marks existing in the outer periphery of the cut-out image is It can be deleted because it is considered as an unnecessary part existing on an extra margin. Also, the parts that can be deleted based on punctuation marks differ depending on the writing direction (horizontal writing and vertical writing). If horizontal writing, the image of the character group above and below the phrase to be left is left if vertical writing. What is necessary is just to delete the image of the character group in the right and left of the power clause.
ここではまず、切出し画像内の文字列に対して簡易OCRを実施し(ST707)、その簡易OCRの結果に基づいて書字方向、すなわち縦書きと横書きのいずれかを判定する(ST708)。ここでは、句読点の位置関係に基づいて判定し、句読点の位置が直前の文字の下方の右側にある場合には縦書き、句読点の位置が直前の文字の右方の下側にある場合には横書きと判定する。そして、縦書きの場合には、以降の処理を左右2辺の空白がない辺に限定し(ST709)、横書きの場合には、以降の処理を上下2辺の空白がない辺に限定する(ST710)。 Here, first, simple OCR is performed on the character string in the cut-out image (ST707), and the writing direction, that is, vertical writing or horizontal writing is determined based on the result of the simple OCR (ST708). Here, it is determined based on the positional relationship of the punctuation marks. When the punctuation mark position is on the lower right side of the previous character, it is written vertically, and when the punctuation mark position is on the lower right side of the previous character, Judged as horizontal writing. In the case of vertical writing, the subsequent processing is limited to the sides where there are no white spaces on the left and right sides (ST709), and in the case of horizontal writing, the subsequent processing is limited to the sides where there are no white space on the upper and lower sides (ST709). ST710).
ついで、1行目の文字列の終わりに句読点があるか否かを判定し(ST711)、1行目の文字列の終わりに句読点がある場合には、1行目の文字列の内側に境界線を設定して、その新たな境界線(切出し線)に沿って1行目の文字列の画像部分を切り取る(ST712)。ついで、最終行から2行目の文字列の終わりに句読点があるか否かを判定し(ST713)、最終行の文字列の終わりに句読点がある場合には、最終行目の文字列の内側に境界線を設定して、その新たな境界線(切出し線)に沿って最終行目の文字列の画像部分を切り取る(ST714)。 Next, it is determined whether or not there is a punctuation mark at the end of the character string on the first line (ST711). If there is a punctuation mark at the end of the character string on the first line, a boundary is placed inside the character string on the first line. A line is set, and the image portion of the character string in the first row is cut along the new boundary line (cut line) (ST712). Next, it is determined whether or not there is a punctuation mark at the end of the character string on the second line from the last line (ST713). If there is a punctuation mark at the end of the character string on the last line, the inside of the character string on the last line. A boundary line is set to the image line, and the image portion of the character string on the last line is cut out along the new boundary line (cutout line) (ST714).
図19は、切出し画像補正で行われる処理の別の例を示す模式図である。ここでは、切出し画像内に文字間隔および行間隔より大きな空白の外側にある画像を削除する。文章において文字間隔および行間隔より大きな空白が存在する場合には、通常、その空白の位置を境界にして文字群を切り出すため、空白より外側にある画像は、余分に確保したマージン上に存在する不要部分と考えられ、削除することができる。この場合、前記のような文節判断を行うことなく不要な文字列を削除することができる。 FIG. 19 is a schematic diagram illustrating another example of processing performed in cutout image correction. Here, the image outside the blank larger than the character spacing and line spacing is deleted from the cut image. When there is a space larger than the character spacing and line spacing in the text, the character group is usually cut out with the space position as the boundary, so the image outside the space exists on an extra reserved margin. It is considered an unnecessary part and can be deleted. In this case, an unnecessary character string can be deleted without performing the phrase determination as described above.
なお、前記の例では、図2に示したように、ブックスキャナから撮影画像データをPCに送ってPCで画像切出しの処理を行うようにしたが、このような画像処理をブックスキャナで行う、すなわちブックスキャナが画像処理装置を含む構成も可能である。この場合、テレビジョン受像機などの表示デバイスに画像を表示させればよい。 In the above example, as shown in FIG. 2, the photographed image data is sent from the book scanner to the PC and the image is cut out by the PC. Such image processing is performed by the book scanner. That is, a configuration in which the book scanner includes an image processing apparatus is also possible. In this case, an image may be displayed on a display device such as a television receiver.
また、前記の例では、指やペンなどの指示物を用いて指定された領域を含む切出し領域のみを平面化して切出し画像を取得する構成としたが、本の紙面の全体を平面化した後に、切出し領域に対応する画像部分を切り出す構成としてもよい。 In the above example, only the cutout area including the area specified by using an indicator such as a finger or a pen is flattened to obtain a cutout image. However, after the entire paper surface of the book is flattened, The image portion corresponding to the cutout region may be cut out.
本発明にかかる画像処理装置は、本などの原稿の紙面上で指などの指示物で領域を直接指定する動作で切出し画像を取得することができる効果を有し、本などの原稿の紙面を読み取って得られた画像を処理する画像処理装置およびこれを備えた原稿読取システムなどとして有用である。 The image processing apparatus according to the present invention has an effect that a clipped image can be acquired by an operation of directly designating an area with a pointing object such as a finger on a document such as a book. The present invention is useful as an image processing apparatus that processes an image obtained by reading and a document reading system including the image processing apparatus.
1 ブックスキャナ(画像入力装置)
2 PC(画像処理装置)
3 カメラ部
22 画像データ入力部(撮影画像取得部)
31 輪郭取得部
32 1次メッシュモデル生成部
33 切出し領域取得部
34 2次メッシュモデル生成部
35 切出し画像生成部
36 画像補正部
37 画像変換部
1 Book scanner (image input device)
2 PC (image processing device)
3
31
Claims (6)
前記第2の撮影画像から指示物が指し示す点を検出して切出し領域を求める切出し領域取得部と、
前記第1の撮影画像内の少なくとも前記切出し領域取得部で得られた切出し領域に対応する画像部分を平面化して切出し画像を取得する切出し画像生成部とを備え、
前記切出し領域取得部は、前記指示物が指し示す1点の軌跡で表される指定領域に基づいて前記切出し領域を求めることを特徴とする画像処理装置。 A first photographed image obtained by photographing the paper surface of the document together with the placement surface in the absence of an indicator is obtained, and a second photographed image obtained by photographing the indicator indicating the area to be cut out on the paper surface of the document together with the paper surface of the document. A captured image acquisition unit,
A cutout area acquisition unit for detecting a point indicated by the indicator from the second photographed image and obtaining a cutout area;
A cut-out image generation unit that obtains a cut-out image by planarizing an image portion corresponding to at least the cut-out region obtained by the cut-out region acquisition unit in the first captured image;
The image processing apparatus is characterized in that the cut-out area acquisition unit obtains the cut-out area based on a designated area represented by a locus of one point indicated by the indicator.
前記切出し領域取得部は、前記1次メッシュモデルを用いて前記切出し領域を求め、
前記切出し画像生成部は、前記2次メッシュモデルを用いて画像の平面化を行うことを特徴とする請求項1及び請求項2いずれかに記載の画像処理装置。 A primary mesh model generation unit that generates a primary mesh model based on the first captured image, and a secondary mesh model generation that generates a secondary mesh model having a smaller mesh interval based on the primary mesh model. And further comprising
The cutout area acquisition unit obtains the cutout area using the primary mesh model,
The image processing apparatus according to claim 1, wherein the cut-out image generation unit performs planarization of an image using the secondary mesh model.
前記切出し画像生成部は、前記2次メッシュモデルを用いて前記切出し領域に対応する画像部分のみを平面化することを特徴とする請求項3に記載の画像処理装置。 The secondary mesh model generation unit generates the secondary mesh model only for the cutout region,
The image processing apparatus according to claim 3, wherein the cut-out image generation unit planarizes only an image portion corresponding to the cut-out region using the secondary mesh model.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011284916A JP2012170049A (en) | 2011-12-27 | 2011-12-27 | Image processor and document reading system provided with the same |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011284916A JP2012170049A (en) | 2011-12-27 | 2011-12-27 | Image processor and document reading system provided with the same |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011030966A Division JP4913911B1 (en) | 2011-02-16 | 2011-02-16 | Image processing apparatus and document reading system having the same |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2012170049A true JP2012170049A (en) | 2012-09-06 |
Family
ID=46973681
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011284916A Withdrawn JP2012170049A (en) | 2011-12-27 | 2011-12-27 | Image processor and document reading system provided with the same |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2012170049A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014192901A (en) * | 2013-03-26 | 2014-10-06 | Sharp Corp | Image processing system and image processing method |
JP2016071546A (en) * | 2014-09-29 | 2016-05-09 | キヤノン株式会社 | Information processing device and control method thereof, program, and storage medium |
-
2011
- 2011-12-27 JP JP2011284916A patent/JP2012170049A/en not_active Withdrawn
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014192901A (en) * | 2013-03-26 | 2014-10-06 | Sharp Corp | Image processing system and image processing method |
US9317893B2 (en) | 2013-03-26 | 2016-04-19 | Sharp Laboratories Of America, Inc. | Methods and systems for correcting a document image |
JP2016071546A (en) * | 2014-09-29 | 2016-05-09 | キヤノン株式会社 | Information processing device and control method thereof, program, and storage medium |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4913911B1 (en) | Image processing apparatus and document reading system having the same | |
JP4918171B1 (en) | Image processing apparatus and document reading system having the same | |
JP6010870B2 (en) | Image correction apparatus, image correction method, and program | |
JP6176598B2 (en) | Dimension measurement program, dimension measurement apparatus, and dimension measurement method | |
JP4918167B1 (en) | Image processing apparatus and document reading system having the same | |
US10296559B2 (en) | Display apparatus, control method therefor, and storage medium | |
CN102194212B (en) | Image processing method, device and system | |
US10460421B2 (en) | Image processing apparatus and storage medium | |
EP2093994B1 (en) | Electronic document producing device, electronic document producing method and storage medium | |
JP2013070212A (en) | Image processor and image processing program | |
JP2009010618A (en) | Image area designating device and its control method, and system | |
US20120120099A1 (en) | Image processing apparatus, image processing method, and storage medium storing a program thereof | |
JP6098784B2 (en) | Image processing apparatus and program | |
JP6311372B2 (en) | Image processing apparatus and image processing method | |
JP2012170049A (en) | Image processor and document reading system provided with the same | |
JP2017199288A (en) | Image processing device, image processing method and program | |
JP2013192101A (en) | Image processor and original reading system equipped with the same | |
JP2013242826A (en) | Image processing device and document reading system including the same | |
US9268415B2 (en) | Touch positioning method utilizing optical identification (OID) technology, OID positioning system and OID reader | |
JP2006184415A (en) | Image processor, image processing program, and image processing method | |
JP6019939B2 (en) | Image processing apparatus, image processing method, and program | |
JP2013192100A (en) | Image processor and original reading system equipped with the same | |
JP2013027033A (en) | Image processing device and document reading system including the same | |
JP2013027032A (en) | Image processing device and document reading system including the same | |
JP2012083500A (en) | Display control apparatus and display control method, program, and storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Application deemed to be withdrawn because no request for examination was validly filed |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20140513 |