[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2005167479A - Image input apparatus and image input method - Google Patents

Image input apparatus and image input method Download PDF

Info

Publication number
JP2005167479A
JP2005167479A JP2003401656A JP2003401656A JP2005167479A JP 2005167479 A JP2005167479 A JP 2005167479A JP 2003401656 A JP2003401656 A JP 2003401656A JP 2003401656 A JP2003401656 A JP 2003401656A JP 2005167479 A JP2005167479 A JP 2005167479A
Authority
JP
Japan
Prior art keywords
character
size
image input
image
determining
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2003401656A
Other languages
Japanese (ja)
Inventor
Takeshi Maruyama
剛 丸山
Yasuhiro Sato
康弘 佐藤
Kunihisa Yamaguchi
邦久 山口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2003401656A priority Critical patent/JP2005167479A/en
Publication of JP2005167479A publication Critical patent/JP2005167479A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Character Input (AREA)
  • Image Input (AREA)
  • Facsimile Scanning Arrangements (AREA)
  • Studio Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image input apparatus and an image input method capable of obtaining an image with a resolution suitable for character recognition. <P>SOLUTION: The image input apparatus for recording photographed information as image data includes: a character size discrimination means for receiving an input of information with respect to a size of a character expressed on an object so as to discriminate the size of the character; and an imaging magnification determining means for determining imaging magnification on the basis of the size of the character discriminated by the character size discrimination means, and photographs the object at the imaging magnification determined by the imaging magnification determining means to solve the problem. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

本発明は、画像入力装置及び画像入力方法に関し、特に撮影した情報を画像データとして記録する画像入力装置及び画像入力方法に関する。   The present invention relates to an image input apparatus and an image input method, and more particularly to an image input apparatus and an image input method for recording captured information as image data.

文字認識技術の発展により、スキャナーや書画カメラに代表される画像入力装置により原稿を画像として読み込み、文字認識装置(OCR)を利用して画像をテキストデータ化することが実用化しつつある。画像として取り込んだ原稿をテキストデータ化することにより、ファイル容量を削減することができ、また、原稿の内容を編集することが可能となる。   With the development of character recognition technology, it is becoming practical to read a document as an image by an image input device typified by a scanner or a document camera, and convert the image into text data using a character recognition device (OCR). By converting the document captured as an image into text data, the file capacity can be reduced, and the content of the document can be edited.

文字認識技術により文字認識を行う場合における文字認識成功率は、原稿の文字の大きさと原稿を読み取った画像の解像度に依存するところが大きい。例えば、文字の大きさが10ポイントの原稿をスキャナーや書画カメラで読み取る場合、約300Dpiの解像度で読み取る必要があると言われている。したがって、10ポイント以下の文字である場合は、300Dpi以上の解像度を必要とすることになる。   The success rate of character recognition when character recognition is performed by character recognition technology largely depends on the size of characters on the original and the resolution of the image read from the original. For example, it is said that when a document having a character size of 10 points is read by a scanner or a document camera, it is necessary to read at a resolution of about 300 dpi. Therefore, if the character is 10 points or less, a resolution of 300 dpi or more is required.

文字サイズをαに固定し、1インチ辺りの画素数(解像度δ)を可変にして様々な文字を書画カメラなどで撮影を行った場合、撮影された画像に対してOCRをかけ、解像度δごとに文字認識成功率を評価すると、この関係は次式のように表現できる。   When the character size is fixed to α, the number of pixels per inch (resolution δ) is variable, and various characters are shot with a document camera, etc., the OCR is applied to the shot images and the resolution δ is set. If the character recognition success rate is evaluated, this relationship can be expressed as follows:

Figure 2005167479
また、文字認識装置により、文字サイズαの、最も状態の良い画像に対して文字認識をかけた場合の文字認識成功率をBとすると、以下のように表現できる。
Figure 2005167479
Further, when the character recognition success rate when the character recognition is applied to the best image of the character size α by the character recognition device is B, it can be expressed as follows.

Figure 2005167479
ここで、文字認識成功率がB(限りなくB)になる解像度のうち、最低解像度を文字サイズαに対する必要解像度δ1と定義する。
Figure 2005167479
Here, among the resolutions where the character recognition success rate is B (infinitely B), the minimum resolution is defined as the necessary resolution δ1 for the character size α.

画像入力装置を用いて、所望する撮影領域を文字認識成功率がBとなるように撮影するためには、所望する撮影領域に描かれている文字サイズαを判別し、文字サイズαに対する必要解像度δ1で撮影できるように撮像倍率を変化または画像入力装置の位置を移動する必要がある。また、所望する撮像領域が一回の撮影で撮影できる領域より広いときには、所望する撮像領域を複数の小領域に分割し、撮影を行う必要がある。   In order to photograph a desired shooting area so that the character recognition success rate is B using the image input device, the character size α drawn in the desired shooting area is determined, and the necessary resolution for the character size α It is necessary to change the imaging magnification or move the position of the image input device so that the image can be captured at δ1. Further, when the desired imaging area is wider than the area that can be imaged by one imaging, it is necessary to divide the desired imaging area into a plurality of small areas and perform imaging.

なお、特許文献1には、撮影の対象となる領域を原稿上において簡易に拡大及び移動等することができる発明が記載されている。また、特許文献2には、原稿を撮影する際に複数の解像度によって撮影しておき、複数の解像度によって撮影された画像のなかから文字認識に最適な解像度による画像を選択して文字認識を行う発明が記載されている。
特開平10−327312号公報 特開2000−67155号公報
Japanese Patent Application Laid-Open No. 2004-228561 describes an invention that allows a region to be imaged to be easily enlarged and moved on a document. Japanese Patent Application Laid-Open No. 2004-228867 performs character recognition by photographing an original with a plurality of resolutions, selecting an image with a resolution optimum for character recognition from images photographed with the plurality of resolutions. The invention has been described.
Japanese Patent Laid-Open No. 10-327312 JP 2000-67155 A

しかしながら、今までの画像入力装置は、一般に使われる文字サイズ(10〜12ポイント)に対してのみ必要解像度を満たすように設計されている。このような画像入力装置では、規定のサイズ(10〜12ポイント)より大きい文字サイズで描かれている原稿を撮影する場合には、δ1よりも高解像度(δ2)の画像を獲得することができるが、δ1の定義より、δ1の画像もδ2の画像も文字認識成功率はほとんど変わらない。むしろδ2の解像度で広い領域を撮影する場合にはδ1の解像度で撮影する場合に比べ1回の撮影で撮像できる範囲が小さくなるため、撮影回数が増える可能性があり、その結果撮影時間が長くなる可能性がある。   However, conventional image input devices are designed so as to satisfy the necessary resolution only for generally used character sizes (10 to 12 points). In such an image input device, when shooting a document drawn with a character size larger than a prescribed size (10 to 12 points), an image having a higher resolution (δ2) than δ1 can be obtained. However, according to the definition of δ1, the character recognition success rate is almost the same for both the image of δ1 and the image of δ2. Rather, when shooting a wide area with a resolution of δ2, the range that can be captured with one shooting is smaller than when shooting with a resolution of δ1, so there is a possibility that the number of shootings will increase, resulting in a longer shooting time. There is a possibility.

また、規定のサイズ(10〜12ポイント)より小さい文字サイズで描かれている原稿を撮影する場合には、撮影された画像の解像度がδ1以下となり、文字認識成功率Bを達成することができない。   When a document drawn with a character size smaller than a prescribed size (10 to 12 points) is photographed, the resolution of the photographed image is δ1 or less, and the character recognition success rate B cannot be achieved. .

本発明は、上記の点に鑑みてなされたものであって、文字認識に適した解像度による画像を得ることができる画像入力装置及び画像入力方法の提供を目的とする。   The present invention has been made in view of the above points, and an object thereof is to provide an image input apparatus and an image input method capable of obtaining an image with a resolution suitable for character recognition.

そこで上記課題を解決するため、本発明は、撮影した情報を画像データとして記録する画像入力装置であって、被写体に表された文字の大きさに関する情報の入力を受け付け、該文字の大きさを判断する文字サイズ判断手段と、前記文字サイズ判断手段により判断された前記文字の大きさに基づいて撮像倍率を決定する撮像倍率決定手段とを有し、前記撮像倍率決定手段によって決定された撮像倍率によって前記被写体を撮影することを特徴とする。   Accordingly, in order to solve the above problems, the present invention is an image input device that records captured information as image data, accepts input of information regarding the size of a character represented on a subject, and determines the size of the character. A character size determining means for determining; an image capturing magnification determining means for determining an image capturing magnification based on the character size determined by the character size determining means; and the image capturing magnification determined by the image capturing magnification determining means Then, the subject is photographed.

このような画像入力装置では、被写体に表された文字の大きさに基づいて決定した撮像倍率によって被写体を撮影することができるため、文字認識に適した解像度による画像を得ることができる。   In such an image input device, since the subject can be photographed with the imaging magnification determined based on the size of the character represented on the subject, an image with a resolution suitable for character recognition can be obtained.

また、上記課題を解決するため、本発明は、上記画像入力装置における画像入力方法としてもよい。   Moreover, in order to solve the said subject, this invention is good also as an image input method in the said image input device.

文字認識に適した解像度による画像を得ることができる画像入力装置及び画像入力方法を提供することができる。   It is possible to provide an image input device and an image input method capable of obtaining an image with a resolution suitable for character recognition.

以下、図面に基づいて本発明の実施の形態を説明する。図1は、第一の実施の形態における画像入力装置の構成例を示す図である。図1に示されるように、画像入力装置100は、撮像部11、支持部12(支持部12−1、12−2及び12−3)、回転移動部13、支持部回転部14、撮影スイッチ15、被写体16、座標検知部17(座標検知部17−1、17−2及び17−3)等から構成される。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. FIG. 1 is a diagram illustrating a configuration example of an image input apparatus according to the first embodiment. As illustrated in FIG. 1, the image input device 100 includes an imaging unit 11, a support unit 12 (support units 12-1, 12-2, and 12-3), a rotation moving unit 13, a support unit rotation unit 14, and a shooting switch. 15, a subject 16, a coordinate detection unit 17 (coordinate detection units 17-1, 17-2 and 17-3) and the like.

撮像部11は、回転移動部13を介して支持部12によって支持されており、複数の撮像倍率で撮影することができる。撮影スイッチ15が押されると、撮像部11は、支持部12−3が設置されている机などの面上にある被写体16を撮像する。なお、撮像部11は、あらかじめキャリブレーションが行われており、撮像倍率ごとの内部行列、光軸位置、画角等は既知であるとする。   The imaging unit 11 is supported by the support unit 12 via the rotational movement unit 13, and can capture images at a plurality of imaging magnifications. When the photographing switch 15 is pressed, the imaging unit 11 captures an image of the subject 16 on a surface such as a desk on which the support unit 12-3 is installed. Note that the imaging unit 11 has been calibrated in advance, and the internal matrix, optical axis position, angle of view, etc. for each imaging magnification are known.

回転移動部13は、モータ及びギア等で構成されており、撮像部11にパン、ロール、及びチルト等の回転移動を与えることができる。したがって、回転移動部13によって、撮像部11の撮像光軸をパン、チルト、ロール方向に移動させることができる。   The rotational movement unit 13 includes a motor, a gear, and the like, and can give the imaging unit 11 rotational movement such as panning, rolling, and tilting. Therefore, the rotational movement unit 13 can move the imaging optical axis of the imaging unit 11 in the pan, tilt, and roll directions.

支持部12−1及び支持部12−2は、伸縮自在である。また、支持部回転部14は、支持部12−2に回転移動を与える事ができる。したがって、支持部12−1及び12−2と、支持部回転部14と、回転移動部13とを組み合わせることにより、撮像部11に並進移動のみを与える事ができる。   The support part 12-1 and the support part 12-2 are extendable. Moreover, the support part rotation part 14 can give rotational movement to the support part 12-2. Therefore, by combining the support parts 12-1 and 12-2, the support part rotating part 14, and the rotational movement part 13, only translational movement can be given to the imaging part 11.

画像入力装置100によって撮影する領域は、ペン型デバイス20によって指定することができる。ペン型デバイス20は、ペン先を物体に接触している間、単位時間あたりに1回の信号を発信する装置である。その単位時間は操作者のペン移動速度と比較すると非常に微小であるので、ペン型デバイス20は連続的に信号を送るものと考えることができる。   An area to be photographed by the image input apparatus 100 can be designated by the pen type device 20. The pen-type device 20 is a device that transmits a signal once per unit time while the pen tip is in contact with an object. Since the unit time is very small as compared with the pen moving speed of the operator, it can be considered that the pen-type device 20 continuously sends a signal.

なお、ペン型デバイス20は、インクなどで文字が書けるものでもよいし、文字を書くことのできないものでもよい。また、文字を書くことができない場合には、信号を発信していることを操作者に知らせるために、信号を発しているときに音を同時に発するようにしてもよい。   The pen-type device 20 may be one that can write characters with ink or the like, or one that cannot write characters. In addition, when characters cannot be written, a sound may be emitted simultaneously when a signal is being emitted in order to notify the operator that the signal is being emitted.

座標検知部17−1、17−2及び17−3は、ペン型デバイス20が発信した信号を受信することにより、ペン型デバイス20のペン先の位置を検知するためのものである。座標検知部17は、ペン型デバイス20からの信号の到達時間を算出することでペン先の3次元位置を測定する。   The coordinate detection units 17-1, 17-2, and 17-3 are for detecting the position of the pen tip of the pen type device 20 by receiving a signal transmitted by the pen type device 20. The coordinate detection unit 17 measures the three-dimensional position of the pen tip by calculating the arrival time of the signal from the pen device 20.

図2は、被写体を画像入力する際の動作を説明するための図である。図2において、被写体16上で長方形ABCDによって囲まれた領域(領域22)が、撮影の対象となる領域である。   FIG. 2 is a diagram for explaining an operation when inputting an image of a subject. In FIG. 2, a region (region 22) surrounded by the rectangle ABCD on the subject 16 is a region to be photographed.

操作者が、ペン型デバイス20を用いて長方形ABCDを描くと、画像入力装置100は、座標検出部17を用いて、連続して三次元座標群を獲得することにより、操作者の撮影したい領域22の三次元座標群を得る。画像入力装置100は、座標変換を行うことにより撮像中心を原点、光軸をZ軸とする撮像座標系に三次元座標群を変換する。撮像座標系のX軸及びY軸は、撮像部11内に存在する撮像素子の配置軸に合わせるものとする。   When the operator draws a rectangle ABCD using the pen-type device 20, the image input apparatus 100 uses the coordinate detection unit 17 to acquire a three-dimensional coordinate group continuously, thereby obtaining an area that the operator wants to shoot. 22 three-dimensional coordinate groups are obtained. The image input apparatus 100 converts a three-dimensional coordinate group into an imaging coordinate system having an imaging center as an origin and an optical axis as a Z axis by performing coordinate conversion. Assume that the X axis and Y axis of the imaging coordinate system are aligned with the arrangement axes of the imaging elements existing in the imaging unit 11.

続いて、画像入力装置100は、長方形ABCDの中心(画像中心23)を算出する。画像中心23の算出は、得られた三次元座標群の重心を単純にとることも考えられるが、ペンの移動速度により点の配置に偏りが生じることがあるので、三次元座標群により囲まれる領域を抽出し、抽出された領域から重心位置を求めることが望ましい。   Subsequently, the image input apparatus 100 calculates the center (image center 23) of the rectangle ABCD. The calculation of the image center 23 may be simply taking the center of gravity of the obtained three-dimensional coordinate group, but the point arrangement may be biased depending on the moving speed of the pen, and is thus surrounded by the three-dimensional coordinate group. It is desirable to extract a region and obtain the center of gravity position from the extracted region.

続いて、画像入力装置100は、光軸中心が画像中心23を通るように、支持部12−2の伸縮と、支持部回転部14の回転を利用して撮像部11を移動する。このとき、支持部回転部14の回転移動量を算出しておき、回転移動部13により、撮像部11に反対方向に回転移動を加え、支持部12−2の伸縮前と撮像部11の光軸の向きを等しくなるようにする。   Subsequently, the image input apparatus 100 moves the imaging unit 11 using the expansion / contraction of the support unit 12-2 and the rotation of the support unit rotation unit 14 so that the center of the optical axis passes through the image center 23. At this time, the rotational movement amount of the support unit rotating unit 14 is calculated, and the rotational moving unit 13 rotates the imaging unit 11 in the opposite direction, so that the light before the expansion and contraction of the supporting unit 12-2 and the light of the imaging unit 11 are applied. Make the axis directions equal.

続いて、画像入力装置100は、三次元座標群に属するすべての三次元座標(X,Y,Z)を画像座標(U,V)に変換する。変換方法は、3次元ビジョン(共立出版 徐剛、辻三郎著)などに記載されている方法に従う。以下、三次元座標群に属するすべての三次元座標を画像座標に変換した頂点の集合を「画像座標群」という。   Subsequently, the image input apparatus 100 converts all three-dimensional coordinates (X, Y, Z) belonging to the three-dimensional coordinate group into image coordinates (U, V). The conversion method follows the method described in the three-dimensional vision (by Kyoritsu Publishing Co., Ltd., Xugang and Saburo Saburo). Hereinafter, a set of vertices obtained by converting all three-dimensional coordinates belonging to the three-dimensional coordinate group into image coordinates is referred to as an “image coordinate group”.

続いて、画像入力装置100は、画像座標群に属する頂点が撮像部11の撮像範囲に収まるように、支持部12−1の伸縮機能を利用して撮像部11を光軸方向に移動させる。なお、三次元座標群21に属する頂点は平面上にあると近似できる場合が多いので、三次元座標群21に属する頂点のうちの4頂点(X座標が最大、最小の頂点、Y座標が最大、最小の頂点)を選び、当該4頂点が画像範囲に収まるように支持部12−1の伸縮機能を利用して撮像部11を光軸方向に移動すると、計算時間を短縮することもできる。   Subsequently, the image input apparatus 100 moves the imaging unit 11 in the optical axis direction using the expansion / contraction function of the support unit 12-1 so that the vertices belonging to the image coordinate group fall within the imaging range of the imaging unit 11. In many cases, the vertices belonging to the three-dimensional coordinate group 21 can be approximated to be on a plane, so four vertices of the vertices belonging to the three-dimensional coordinate group 21 (the X coordinate is the maximum, the minimum vertex, and the Y coordinate are the maximum). If the imaging unit 11 is moved in the optical axis direction by using the expansion / contraction function of the support unit 12-1 so that the four vertices fall within the image range, the calculation time can be shortened.

上述したように、第一の実施の形態における画像入力装置100によれば、撮像部11における撮像倍率が固定されていたとしても、支持部12の伸縮機能を利用して撮影領域全体を一度で撮影することができ、撮影時間の短縮化を図ることができる。   As described above, according to the image input device 100 in the first embodiment, even if the imaging magnification in the imaging unit 11 is fixed, the entire imaging region can be captured at once using the expansion / contraction function of the support unit 12. Images can be taken and the shooting time can be shortened.

続いて、第二の実施の形態について説明する。図3は、第二の実施の形態における画像入力装置の構成例を示す図である。図3に示されるように、画像入力装置200は、撮像部211、支持部212、回転移動部213、撮影スイッチ215、被写体216、座標検知部217(座標検知部217−1、217−2及び217−3)等からなる。   Next, a second embodiment will be described. FIG. 3 is a diagram illustrating a configuration example of the image input apparatus according to the second embodiment. As shown in FIG. 3, the image input device 200 includes an imaging unit 211, a support unit 212, a rotational movement unit 213, a photographing switch 215, a subject 216, a coordinate detection unit 217 (coordinate detection units 217-1, 217-2, and 217-3).

撮像部211は、回転移動部213を介して支持部212によって支持されており、複数の撮像倍率で撮影することができる。撮影スイッチ215が押されると、撮像部211は、支持部212が設置されている机などの面上にある被写体216を撮像する。   The imaging unit 211 is supported by the support unit 212 via the rotational movement unit 213, and can capture images at a plurality of imaging magnifications. When the photographing switch 215 is pressed, the imaging unit 211 captures an image of the subject 216 on a surface such as a desk on which the support unit 212 is installed.

回転移動部213は、モータ及びギア等で構成されており、撮像部211にパン、ロール、及びチルト等の回転移動を与えることができる。したがって、回転移動部13によって、撮像部11の撮像光軸をパン、チルト、ロール方向に移動させることができる。   The rotational movement unit 213 includes a motor, a gear, and the like, and can give the imaging unit 211 rotational movement such as pan, roll, and tilt. Therefore, the rotational movement unit 13 can move the imaging optical axis of the imaging unit 11 in the pan, tilt, and roll directions.

第一の実施の形態と同様、画像入力装置200によって撮影する領域は、ペン型デバイス220によって指定することができる。ペン型デバイス220は、第一の実施の形態におけるペン型デバイス20と同様のものである。   Similar to the first embodiment, the area to be photographed by the image input apparatus 200 can be designated by the pen-type device 220. The pen-type device 220 is the same as the pen-type device 20 in the first embodiment.

座標検知部217−1、217−2及び217−3はペン型デバイス220が発信した信号を受信し、信号の到達時間を算出することでペン先からの距離を測定することができる。   The coordinate detection units 217-1, 217-2 and 217-3 can measure the distance from the pen tip by receiving the signal transmitted from the pen-type device 220 and calculating the arrival time of the signal.

なお、あらかじめ撮像部211に対して、撮像倍率に対応する光軸位置、画角を既知のものとする。   Note that the optical axis position and the angle of view corresponding to the imaging magnification are known in advance with respect to the imaging unit 211.

以下、画像入力装置200の動作について説明する。図4は、第二の実施の形態における画像入力装置の動作を説明するためのフローチャートである。   Hereinafter, the operation of the image input apparatus 200 will be described. FIG. 4 is a flowchart for explaining the operation of the image input apparatus according to the second embodiment.

操作者が、ペン型デバイス220を用いて被写体216上に長方形ABCDを描くと(S201)、画像入力装置200は、座標検出部217を用いて、連続して三次元座標を獲得することにより、操作者の撮影したい撮影領域(四角形ABCD)の三次元座標群を得る(S202)。   When the operator draws a rectangular ABCD on the subject 216 using the pen-type device 220 (S201), the image input device 200 uses the coordinate detection unit 217 to continuously acquire the three-dimensional coordinates, A three-dimensional coordinate group of the imaging area (rectangular ABCD) that the operator wants to shoot is obtained (S202).

図5は、第二の実施の形態における被写体の例を示す図である。図5において、A、B、C、Dの4つの頂点を有する長方形によって囲まれている領域109が、撮影領域である。   FIG. 5 is a diagram illustrating an example of a subject in the second embodiment. In FIG. 5, a region 109 surrounded by a rectangle having four vertices A, B, C, and D is a photographing region.

画像入力装置200は、更に、三次元座標群に対して座標変換を行うことにより、撮像中心を原点、光軸をZ軸とする撮像座標系に変換する。なお、撮像座標系のX軸、Y軸は撮像素子の配置軸に合わせるものとする。   Further, the image input device 200 performs coordinate conversion on the three-dimensional coordinate group, thereby converting into an imaging coordinate system having the imaging center as the origin and the optical axis as the Z axis. Note that the X axis and Y axis of the imaging coordinate system are aligned with the arrangement axis of the imaging element.

操作者が、領域109内において文字認識を行いたい文字のうち操作者が最小のものをペン型デバイス220で囲むことにより、小領域110を生成すると(S204)、画像入力装置200は、小領域110を形成している3次元データから、小領域110の面積を算出する。小領域110の面積の算出は、小領域110を形成している3次元データ113は平面上に分布していると考える事によって行えばよい。   When the operator generates a small area 110 by surrounding the smallest character that the operator wants to recognize in the area 109 with the pen-type device 220 (S204), the image input apparatus 200 displays the small area. The area of the small region 110 is calculated from the three-dimensional data forming 110. The area of the small region 110 may be calculated by considering that the three-dimensional data 113 forming the small region 110 is distributed on a plane.

続いて、画像入力装置200は、三次元座標群の中から光軸より最も遠い距離にある三次元座標を抽出し、当該三次元座標の撮像座標系での座標(X,Y,Z)と、小領域110の面積の正の平方根(L)とを以下の式(1)に代入することによって得られる値(P)より、撮像倍率を決定する(S205)。   Subsequently, the image input apparatus 200 extracts a three-dimensional coordinate at the farthest distance from the optical axis from the three-dimensional coordinate group, and the coordinates (X, Y, Z) in the imaging coordinate system of the three-dimensional coordinate are extracted. The imaging magnification is determined from the value (P) obtained by substituting the positive square root (L) of the area of the small region 110 into the following equation (1) (S205).

Figure 2005167479
続いて、画像入力装置200は、決定した撮像倍率に基づいて撮影時の分割回数を決定する。図6は、分割回数の決定方法を説明するための図である。
Figure 2005167479
Subsequently, the image input apparatus 200 determines the number of divisions during shooting based on the determined imaging magnification. FIG. 6 is a diagram for explaining a method of determining the number of divisions.

図6(A)は、決定された撮像倍率で、支持部114が置かれた机上平面を撮影した時の画像範囲を四角形A1B1D1C1として表している。同様に、図6(B)は、横方向2分割で撮影したときの画像範囲をA2B2D2C2として表しており、図6(C)は、縦方向2分割で撮影したときの画像範囲をA3B3D3C3として表している。更に、図6(D)は、4分割で撮影したときの画像範囲をA4B4D4C4として表している。なお、図中において符号Mによって示される点は、光軸中心を示している。   FIG. 6A shows the image range as a quadrangle A1B1D1C1 when the desktop plane on which the support unit 114 is placed is imaged with the determined imaging magnification. Similarly, FIG. 6B shows the image range when the image is taken in the horizontal division as A2B2D2C2, and FIG. 6C shows the image range when the image is taken in the vertical direction as A3B3D3C3. ing. Furthermore, FIG. 6D shows an image range when A / B / D4C4 are captured in four divisions. In addition, the point shown with the code | symbol M in the figure has shown the optical axis center.

三次元座標群に属する全ての点が、A1B1D1C1を底面とし、カメラ中心を頂点とする四角推に含まれる場合は、画像入力装置200は、分割して撮影する必要がないもの(1分割で撮影)と判断する(S206−1でYES)。   When all the points belonging to the three-dimensional coordinate group are included in the quadrature estimation with A1B1D1C1 as the bottom and the camera center as the apex, the image input device 200 does not need to divide and shoot (one-division shooting) ) (YES in S206-1).

同様に、画像入力装置200は、三次元座標群に属する全ての点が、A2B2D2C2を底面とし、カメラ中心を頂点とする四角推に含まれる場合は、横2分割(S206−2でYES)、A3B3D3C3を底面とし、カメラ中心を頂点とする四角推に含まれる場合は縦2分割(S206−3でYES)、A4B4D4C4を底面とし、カメラ中心を頂点とする四角推に含まれる場合は4分割(S206−4で)として分割数を決定する。なお、4分割以上に分割する場合も同様の原理で分割数を決定すればよい。   Similarly, when all the points belonging to the three-dimensional coordinate group are included in the quadrature inference with A2B2D2C2 as the bottom surface and the camera center as the apex, the image input device 200 divides horizontally (YES in S206-2), If it is included in the quadrature in which A3B3D3C3 is the bottom and the camera center is the vertex, it is divided into two vertically (YES in S206-3), and if it is included in the quadrature in which A4B4D4C4 is the bottom and the camera is the vertex, it is divided into four ( In S206-4), the number of divisions is determined. In addition, what is necessary is just to determine the number of divisions on the same principle also when dividing | segmenting into four or more divisions.

分割数を決定すると、画像入力装置200は、分割数に応じて回転移動部213を用いて撮影部101を動かし、被写体216の撮影を行う。   When the number of divisions is determined, the image input apparatus 200 moves the photographing unit 101 using the rotational movement unit 213 according to the number of divisions, and photographs the subject 216.

撮影が終了すると、画像入力装置200は、分割撮影することによって得られた分割領域ごとの画像(以下、「分割画像」という。)を一枚の画像に合成するための処理(合成処理)を実行する。   When shooting is completed, the image input apparatus 200 performs a process (synthesizing process) for combining an image for each divided area (hereinafter referred to as “divided image”) obtained by the divided shooting into one image. Execute.

図7は、分割画像が合成される様子を模式的に示す図である。図7においては、便宜上4枚の分割画像が、それぞれが撮影された際に関連付けられて記録されている撮影位置に関する情報(以下、「位置情報」という。)に基づいて合成された様子を示している。   FIG. 7 is a diagram schematically illustrating how the divided images are combined. In FIG. 7, for the sake of convenience, four divided images are combined based on information (hereinafter referred to as “position information”) relating to the shooting position recorded in association with each other. ing.

ここで、回転移動部213による回転角度に誤差が生じている場合は、各分割画像に関連付けられている位置情報に基づいて合成しただけでは合成部分に画像のずれが発生する。従って、画像入力装置200は、この4枚の分割画像の相対的な位置関係を微小量シフトさせ、画像が最も滑らかに合成できる位置を探す。   Here, when an error occurs in the rotation angle by the rotational movement unit 213, an image shift occurs in the combined portion only by combining based on position information associated with each divided image. Therefore, the image input device 200 shifts the relative positional relationship of the four divided images by a minute amount and searches for a position where the images can be synthesized most smoothly.

図8は、合成処理の詳細を説明するためのフローチャートである。   FIG. 8 is a flowchart for explaining the details of the synthesis process.

ステップS320において、画像入力装置200は、撮像時において撮像光軸が被写体216の原稿面に対して最も垂直方向に近い撮像位置で撮像された分割画像を基準画像として選択する。例えば、図7においては、分割画像41が基準画像として選択されたものとする。   In step S320, the image input apparatus 200 selects, as a reference image, a divided image captured at an imaging position where the imaging optical axis is closest to the document surface of the subject 216 during imaging. For example, in FIG. 7, it is assumed that the divided image 41 is selected as the reference image.

ステップS320に続いてステップS321に進み、画像入力装置200は、分割画像41と分割画像41に隣接する他の分割画像との画像の位置合わせを行う。図7においては、画像入力装置200は、分割画像41と分割画像42との相互相関を計算することにより、最も相関値が高い位置を検索し、位置合わせを行う。   Progressing to step S321 following step S320, the image input apparatus 200 performs image alignment between the divided image 41 and another divided image adjacent to the divided image 41. In FIG. 7, the image input apparatus 200 searches for a position having the highest correlation value by performing cross-correlation between the divided image 41 and the divided image 42 and performs alignment.

ステップS321に続いてステップS322に進み、画像入力装置200は、最も相関値が高い位置で分割画像42を固定し、分割画像41と分割画像42とを合成した合成画像を生成する。   Proceeding to step S322 following step S321, the image input apparatus 200 fixes the divided image 42 at a position having the highest correlation value, and generates a combined image obtained by combining the divided image 41 and the divided image 42.

ステップS322に続いてステップS323に進み、画像入力装置200は、全ての分割画像の合成処理が完了したか否かを判断する。合成処理が完了していない場合はステップS321に進み、既に生成された合成画像とまだ合成されていない分割画像とを順番に合成し新たな合成画像を生成する。例えば、図7においては、ステップS322に生成された合成画像と分割画像43が合成されることにより新たな合成画像が生成され、さらに分割画像44が合成される。   Progressing to step S323 following step S322, the image input apparatus 200 determines whether or not the synthesis processing of all the divided images has been completed. If the combining process has not been completed, the process proceeds to step S321, where a combined image that has already been generated and a divided image that has not yet been combined are sequentially combined to generate a new combined image. For example, in FIG. 7, a new composite image is generated by combining the composite image generated in step S322 and the split image 43, and a split image 44 is further combined.

合成処理が完了し、分割されていた画像から一枚の全体画像が生成されると、画像入力装置200は処理を終了する。   When the compositing process is completed and one whole image is generated from the divided images, the image input apparatus 200 ends the process.

このように、隣接する分割画像について相互相関を計算して合成処理を行うことにより画像のずれを補正することができる。したがって、回転移動部213による回転誤差が発生する場合においても滑らかに合成された合成画像を得ることができる。従って、回転移動部213は安価な機構で構成することができる共に、撮像部211についても微妙に位置ずれが生ずる可能性のある着脱可能な構成とすることもできる。   In this manner, image shift can be corrected by calculating cross-correlation between adjacent divided images and performing synthesis processing. Therefore, a synthesized image that is smoothly synthesized can be obtained even when a rotation error occurs due to the rotational movement unit 213. Accordingly, the rotational movement unit 213 can be configured with an inexpensive mechanism, and the imaging unit 211 can also be configured to be detachable that may cause a slight displacement.

上述したように、第二の実施の形態における画像入力装置200によれば、被写体216に表された文字のサイズに基づいて撮像倍率を決定するため、文字認識に適切な解像度によって撮影することができる。また、画像入力装置200によれば、文字のサイズに基づいて決定した撮像倍率では一回で所望の領域を撮影できない場合であっても、撮像倍率に基づいた適切な分割数によって分割撮影を行うことにより、所望の領域全体の画像データを得ることができる。   As described above, according to the image input device 200 in the second embodiment, since the imaging magnification is determined based on the size of the character represented on the subject 216, it is possible to photograph at a resolution suitable for character recognition. it can. In addition, according to the image input device 200, even when a desired area cannot be captured at a single time with an imaging magnification determined based on the character size, divided imaging is performed with an appropriate number of divisions based on the imaging magnification. Thus, image data of the entire desired area can be obtained.

続いて第三の実施の形態について説明する。図9は、第三の実施の形態における画像入力装置の構成例を示す図である。図9中、図3と同一部分には同一符号を付し、その説明は省略する。図9に示されるように、画像入力装置300は、画像入力装置200(図3)に対して更に投光部219を追加したものである。投光部219は、被写体316に対して所定の図形を投影するためのものである。   Next, a third embodiment will be described. FIG. 9 is a diagram illustrating a configuration example of the image input apparatus according to the third embodiment. 9, parts that are the same as those shown in FIG. 3 are given the same reference numerals, and explanation thereof is omitted. As shown in FIG. 9, the image input device 300 is obtained by adding a light projecting unit 219 to the image input device 200 (FIG. 3). The light projecting unit 219 is for projecting a predetermined figure onto the subject 316.

次に、被写体316の所定の領域を撮影するときの画像入力装置300の動作を説明する。   Next, the operation of the image input apparatus 300 when shooting a predetermined area of the subject 316 will be described.

操作者はペン型デバイス220を用いて頂点A、頂点B、頂点D,頂点Cに触れる(図2参照)。すると画像入力装置300は、座標検出部307によってABDCの各座標を算出し、さらに四点を順に結ぶ事で、操作者の撮影したい領域の三次元座標群を得ることができる。   The operator touches the vertex A, vertex B, vertex D, and vertex C using the pen-type device 220 (see FIG. 2). Then, the image input apparatus 300 can obtain the three-dimensional coordinate group of the area that the operator wants to shoot by calculating the coordinates of the ABDC by the coordinate detection unit 307 and connecting the four points in order.

画像入力装置300は、三次元座標群に対して座標変換を行うことにより、撮像中心を原点、光軸をZ軸とする撮像座標系に変換する。なお、撮像座標系のX軸、Y軸は撮像素子の配置軸に合わせるものとする。   The image input device 300 performs coordinate transformation on the three-dimensional coordinate group, thereby transforming into an imaging coordinate system having the imaging center as the origin and the optical axis as the Z axis. Note that the X axis and Y axis of the imaging coordinate system are aligned with the arrangement axis of the imaging element.

続いて、画像入力装置300は、投光部309より複数の黒色の四角形を被写体306に対して投影する。   Subsequently, the image input apparatus 300 projects a plurality of black squares onto the subject 306 from the light projecting unit 309.

図10は、黒色の四角形が投影された被写体の様子を示す図である。図10に示される例においては、5つの黒色の四角形が被写体306に投影されている。これらの四角形は、支持部212が存在している平面上で、例えば、5ポイント、10ポイント、12ポイント、14ポイント、17ポイント(左から)の大きさになるように投影されているものである。   FIG. 10 is a diagram illustrating a state of a subject on which a black square is projected. In the example shown in FIG. 10, five black squares are projected on the subject 306. These quadrangles are projected so as to have a size of, for example, 5 points, 10 points, 12 points, 14 points, and 17 points (from the left) on the plane on which the support portion 212 exists. is there.

操作者がこの5種類の四角形のうちから、領域312に存在する活字のうちで最も文字サイズの小さい活字と大きさが近いものを、ペン型デバイス220で指示すると、画像入力装置300は、座標検知部217によってペン型デバイス220によって指示された位置の座標を算出し、ペン型220によって触れられた位置の座標と、投影されたそれぞれの四角形の座標とを照らし合わせることにより、操作者が選択した四角形を判別する。   When the operator uses the pen-type device 220 to indicate, from the five types of quadrangles, a type that is the smallest in size among the types existing in the region 312, the image input apparatus 300 displays coordinates. The coordinates of the position instructed by the pen-type device 220 by the detection unit 217 are calculated, and the operator selects by comparing the coordinates of the position touched by the pen-type 220 with the coordinates of each projected rectangle. Determine the rectangle.

続いて、画像入力装置300は、選択された四角形の面積を被写体316における最小文字の面積(以下、「最小面積」という。)として判断する。   Subsequently, the image input apparatus 300 determines the area of the selected rectangle as the area of the minimum character in the subject 316 (hereinafter referred to as “minimum area”).

なお、選択可能な文字サイズは5種類だけでなく、投影の切り替えなどを利用して、10種類から選ぶようにしてもよい。また、別の装置を用いて最小文字のサイズを数値として入力させるようにしても良い。   Note that the selectable character size is not limited to five types, but may be selected from ten types using projection switching or the like. Alternatively, the minimum character size may be input as a numerical value using another device.

続いて、画像入力装置300は、三次元座標群の中から光軸より最も遠い距離にある三次元座標を抽出する。当該三次元座標の撮像座標系での座標(X,Y,Z)と、最小面積の正のへ平方根(L)とを上述した式(1)に代入することによって得られる値(P)より、撮像倍率を決定する。   Subsequently, the image input device 300 extracts the three-dimensional coordinates that are at the farthest distance from the optical axis from the three-dimensional coordinate group. From the value (P) obtained by substituting the coordinate (X, Y, Z) in the imaging coordinate system of the three-dimensional coordinate and the positive square root (L) of the minimum area into the above-described equation (1). Determine the imaging magnification.

続いて、画像入力装置300は、三次元座標群に属する頂点を、当該頂点とカメラ中心とを結ぶことによって形成される直線と、支持部212の存在する平面とが交わる位置に投影する。   Subsequently, the image input device 300 projects vertices belonging to the three-dimensional coordinate group to a position where a straight line formed by connecting the vertex and the camera center intersects with a plane on which the support unit 212 exists.

図11は、三次元座標群に属する頂点を投影した様子を示す図である。図11において、A9、B9、C9、D9は、それぞれ三次元座標群に属する頂点A、B、C、Dが投影されたものである。   FIG. 11 is a diagram illustrating a state in which vertices belonging to the three-dimensional coordinate group are projected. In FIG. 11, A9, B9, C9, and D9 are projections of vertices A, B, C, and D belonging to the three-dimensional coordinate group, respectively.

続いて、画像入力装置300は、被写体316を分割撮影する際の分割位置を決定する。   Subsequently, the image input apparatus 300 determines a division position when the subject 316 is divided and photographed.

まず、画像入力装置300は、あらかじめ定められた所定の位置を基準として被写体316を分割した場合(この場合を「撮影方法1」という。)において、撮影領域に係る分割領域の数、すなわち、撮影領域を分割撮影するために必要な撮影回数を判断する。   First, the image input device 300 divides the subject 316 with a predetermined position as a reference (this case is referred to as “shooting method 1”), that is, the number of divided regions related to the shooting region, that is, shooting. The number of times of shooting necessary for dividing and shooting the area is determined.

例えば、図11においては、1−1〜1−16で示される領域によって分割された16分割によって撮影する場合の例を示している。この場合、撮影領域であるA9B9D9C9を撮影するには、1−1〜1−3、1−5〜1−7、1−9〜1−11、及び1−13〜1−15の12回の撮影が必要になることが分かる。   For example, FIG. 11 shows an example in the case of shooting by 16 divisions divided by the areas indicated by 1-1 to 1-16. In this case, in order to photograph A9B9D9C9 which is a photographing area, 12 times of 1-1 to 1-3, 1-5 to 1-7, 1-9 to 1-11, and 1-13 to 1-15 are performed. You can see that you need to shoot.

なお、図11においては、便宜上各領域は重なり合う領域を有していないが、厳密には、各領域は隣接する領域との間である程度重なり合う領域を有する。図12は、隣接する領域が重なり合う様子を示す図である。図12において、領域1−1は、領域1−2、領域1−5及び領域1−6と重なり合う領域を有している。   In FIG. 11, each region does not have an overlapping region for convenience, but strictly speaking, each region has a region that overlaps to some extent with an adjacent region. FIG. 12 is a diagram illustrating a state in which adjacent regions overlap each other. In FIG. 12, the region 1-1 has a region that overlaps the region 1-2, the region 1-5, and the region 1-6.

続いて画像入力装置300は、分割位置を撮影方法1の場合より分割領域の半サイズ分だけずらした場合(この場合を「撮影方法2」という。)の撮影回数を判断する。   Subsequently, the image input apparatus 300 determines the number of times of shooting when the division position is shifted by a half size of the divided area from the case of the shooting method 1 (this case is referred to as “shooting method 2”).

図13は、分割位置をずらした様子を示す図である。図13においては、分割位置を図11の場合におけるものから分割領域の半分だけずらした例を示している。分割位置をずらすことによって、分割領域は、1−1〜1−16から2−1〜2−16に変化する。図13より明らかなように撮影方法2の場合は、撮影領域であるA9B9D9C9を撮影するには、2−1、2−2、2−5、2−6、2−9及び2−10の6回の撮影が必要になることが分かる。   FIG. 13 is a diagram illustrating a state where the division positions are shifted. FIG. 13 shows an example in which the division position is shifted by half of the division area from that in the case of FIG. By shifting the dividing position, the divided area changes from 1-1 to 1-16 to 2-1 to 2-16. As is apparent from FIG. 13, in the case of the photographing method 2, in order to photograph A9B9D9C9 which is the photographing region, 6-1, 2-1, 2-2, 2-5, 2-6, 2-9 and 2-10 are taken. It turns out that it is necessary to shoot once.

続いて、画像入力装置300は、撮影方法1の場合の撮影回数と撮影方法2の場合の撮影回数とを比較し、より撮影回数の少ない場合の分割位置を分割撮影の際の分割位置として決定する。したがって本実施の形態においては、撮影方法2のケースが採用される。   Subsequently, the image input apparatus 300 compares the number of times of photographing in the case of the photographing method 1 with the number of times of photographing in the case of the photographing method 2, and determines a division position when the number of photographing is smaller as a division position at the time of divided photographing. To do. Therefore, in the present embodiment, the case of the photographing method 2 is adopted.

続いて、画像入力装置300は、領域2−1、2−2、2−5、2−6、2−9、2−10と撮像部211を回転移動部213によって移動させつつ、順次撮影を行う。   Subsequently, the image input apparatus 300 sequentially captures images while moving the areas 2-1, 2-2, 2-5, 2-6, 2-9, 2-10, and the imaging unit 211 by the rotational movement unit 213. Do.

撮影が終了すると、画像入力装置300は、図8において説明した処理を実行することにより、分割して撮影された画像の合成処理を実行する。   When shooting is completed, the image input apparatus 300 executes the process described with reference to FIG.

上述してように、第三の実施の形態における画像入力装置300によれば、投影された図形を選択することによって、文字サイズの指定を行うことができるため、操作者に対する負担を軽減することができる。また、撮影回数が少なくなるように分割位置を判断するため、撮影に要する時間の短縮化を図ることができる。   As described above, according to the image input device 300 in the third embodiment, the character size can be specified by selecting the projected figure, which reduces the burden on the operator. Can do. In addition, since the division position is determined so that the number of shootings is reduced, the time required for shooting can be shortened.

なお、上述した撮像部11の詳細について以下に説明する。図14は、撮像部の構成例を示す図である。以下においては、第一の実施の形態における符号に基づいて説明するが、第二及び第三の実施の形態における撮像部211においても同様である。   Details of the imaging unit 11 described above will be described below. FIG. 14 is a diagram illustrating a configuration example of the imaging unit. The following description is based on the reference numerals in the first embodiment, but the same applies to the imaging unit 211 in the second and third embodiments.

図14に示されるように、撮像部11は、ズームレンズ1、絞り機構2、撮像素子3、CDS(相関二重サンプリング回路)4、A/D変換器5、TG(タイミングジェネレータ)6、IPP(画像前処理回路)7、メモリ8、MPU(Micro Processing Unit)9等から構成される。   As shown in FIG. 14, the imaging unit 11 includes a zoom lens 1, a diaphragm mechanism 2, an imaging device 3, a CDS (correlated double sampling circuit) 4, an A / D converter 5, a TG (timing generator) 6, an IPP. (Image preprocessing circuit) 7, memory 8, MPU (Micro Processing Unit) 9, and the like.

被写体の像は、ズームレンズ1及び絞り機構2によって、撮像素子3の上に形成される。撮像素子3からの画像信号はCDS(相関二重サンプリング回路)4でサンプリングされた後、A/D変換器5でデジタル信号化される。この時のタイミングはTG(タイミングジェネレータ)6で生成される。画像信号はその後、IPP(画像前処理回路)7でアパーチャ補正などの画像処理、圧縮等が施されメモリ8に保存される。   An image of the subject is formed on the image sensor 3 by the zoom lens 1 and the diaphragm mechanism 2. An image signal from the image sensor 3 is sampled by a CDS (correlated double sampling circuit) 4 and then converted into a digital signal by an A / D converter 5. The timing at this time is generated by a TG (timing generator) 6. Thereafter, the image signal is subjected to image processing such as aperture correction, compression, and the like in an IPP (image preprocessing circuit) 7 and stored in the memory 8.

上述した画像入力装置100、200又は300の動作は、メモリ8に保存されているプログラムを読み込むことによりMPU9が制御する。   The operation of the image input device 100, 200, or 300 described above is controlled by the MPU 9 by reading a program stored in the memory 8.

以上、本発明の好ましい実施例について詳述したが、本発明は係る特定の実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形・変更が可能である。   The preferred embodiments of the present invention have been described in detail above, but the present invention is not limited to such specific embodiments, and various modifications can be made within the scope of the gist of the present invention described in the claims.・ Change is possible.

第一の実施の形態における画像入力装置の構成例を示す図である。It is a figure which shows the structural example of the image input device in 1st embodiment. 被写体を画像入力する際の動作を説明するための図である。It is a figure for demonstrating the operation | movement at the time of image input of a to-be-photographed object. 第二の実施の形態における画像入力装置の構成例を示す図である。It is a figure which shows the structural example of the image input device in 2nd embodiment. 第二の実施の形態における画像入力装置の動作を説明するためのフローチャートである。It is a flowchart for demonstrating operation | movement of the image input device in 2nd embodiment. 第二の実施の形態における被写体の例を示す図である。It is a figure which shows the example of the to-be-photographed object in 2nd embodiment. 分割回数の決定方法を説明するための図である。It is a figure for demonstrating the determination method of the frequency | count of a division | segmentation. 分割画像が合成される様子を模式的に示す図である。It is a figure which shows a mode that a divided image is synthesize | combined. 合成処理の詳細を説明するためのフローチャートである。It is a flowchart for demonstrating the detail of a synthetic | combination process. 第三の実施の形態における画像入力装置の構成例を示す図である。It is a figure which shows the structural example of the image input device in 3rd embodiment. 黒色の四角形が投影された被写体の様子を示す図である。It is a figure which shows the mode of the to-be-photographed object in which the black square was projected. 三次元座標群に属する頂点を投影した様子を示す図である。It is a figure which shows a mode that the vertex which belongs to a three-dimensional coordinate group was projected. 隣接する領域が重なり合う様子を示す図である。It is a figure which shows a mode that an adjacent area | region overlaps. 分割位置をずらした様子を示す図である。It is a figure which shows a mode that the division position was shifted. 撮像部の構成例を示す図である。It is a figure which shows the structural example of an imaging part.

符号の説明Explanation of symbols

1 レンズ
2 絞り機構
3 撮像素子
4 CDS
5 A/D変換器
6 TG
7 IPP
8 メモリ
9 MPU
11 撮像部
12−1、12−2、12−3、212−1、212−2、212−3 支持部
13、231 回転移動部
14 支持部回転部
15、215 撮影スイッチ
16、216、316 被写体
17−1、17−2、17−3、217−1、217−2、217−3 座標検知部
20、220 ペン型デバイス
100、200、300 画像入力装置
1 Lens 2 Aperture Mechanism 3 Image Sensor 4 CDS
5 A / D converter 6 TG
7 IPP
8 Memory 9 MPU
DESCRIPTION OF SYMBOLS 11 Imaging part 12-1, 12-2, 12-3, 212-1, 212-2, 212-3 Support part 13, 231 Rotation movement part 14 Support part rotation part 15, 215 Shooting switch 16, 216, 316 Subject 17-1, 17-2, 17-3, 217-1, 217-2, 217-3 Coordinate detection unit 20, 220 Pen type device 100, 200, 300 Image input device

Claims (14)

撮影した情報を画像データとして記録する画像入力装置であって、
被写体に表された文字の大きさに関する情報の入力を受け付け、該文字の大きさを判断する文字サイズ判断手段と、
前記文字サイズ判断手段により判断された前記文字の大きさに基づいて撮像倍率を決定する撮像倍率決定手段とを有し、
前記撮像倍率決定手段によって決定された撮像倍率によって前記被写体を撮影することを特徴とする画像入力装置。
An image input device for recording captured information as image data,
A character size determining means for receiving input of information regarding the size of the character represented on the subject and determining the size of the character;
Imaging magnification determining means for determining an imaging magnification based on the size of the character determined by the character size determining means;
An image input apparatus for photographing the subject with an imaging magnification determined by the imaging magnification determining means.
前記文字サイズ判断手段は、
所定の指示物体による指示位置を検知する指示位置検知手段を有し、
前記指示位置検知手段により検知された前記指示位置に基づいて前記文字の大きさを判断することを特徴とする請求項1記載の画像入力装置。
The character size determining means includes
Having an indication position detecting means for detecting an indication position by a predetermined indication object;
The image input device according to claim 1, wherein the size of the character is determined based on the designated position detected by the designated position detecting unit.
前記文字サイズ判断手段は、前記指示位置検知手段により検知された前記指示位置の集合により形成される図形の大きさに基づいて前記文字の大きさを判断することを特徴とする請求項2記載の画像入力装置。 3. The character size determining unit according to claim 2, wherein the character size determining unit determines the size of the character based on a size of a figure formed by the set of the designated positions detected by the designated position detecting unit. Image input device. 所定の図形を投影する投影手段を更に有し、
前記文字サイズ判断手段は、前記指示位置検知手段により検知された前記指示位置に基づいて、前記所定の指示物体による前記所定の図形の指示を判別することにより、前記文字の大きさを判断することを特徴とする請求項2記載の画像入力装置。
A projection means for projecting a predetermined figure;
The character size determining means determines the size of the character by determining an instruction of the predetermined figure by the predetermined indicating object based on the indicated position detected by the indicated position detecting means. The image input device according to claim 2.
前記投影手段は、大きさの異なる複数の図形を同時に投影し、
前記文字サイズ判断手段は、前記指示位置検知手段により検知された前記指示位置に基づいて、前記複数の図形のうち前記所定の指示物体により指示された図形を判別することにより、前記文字の大きさを判断することを特徴とする請求項4記載の画像入力装置。
The projecting means simultaneously projects a plurality of figures having different sizes,
The character size determination means determines the size of the character by determining a figure designated by the predetermined pointing object from the plurality of figures based on the pointing position detected by the pointing position detection means. The image input device according to claim 4, wherein:
前記撮像倍率決定手段により決定された撮像倍率に基づいて、前記被写体において所定の領域を分割撮影する際の分割数を決定する分割数決定手段を更に有することを特徴とする請求項1乃至5いずれか一項記載の画像入力装置。 6. The method according to claim 1, further comprising division number determining means for determining the number of divisions when dividing a predetermined area of the subject based on the imaging magnification determined by the imaging magnification determining means. An image input device according to claim 1. 前記分割数決定手段は、所定の基準により定めた第一の分割位置によって分割した場合における前記所定の領域に係る分割領域の数と、前記第一の分割位置より所定の量だけずらした第二の分割位置によって分割した場合における前記所定の領域に係る分割領域の数とを比較することにより、前記所定の領域を撮影する際の分割位置を決定することを特徴とする請求項6記載の画像入力装置。 The division number determining means is configured to shift the number of divided areas related to the predetermined area when divided according to a first division position determined by a predetermined reference, and a second amount shifted by a predetermined amount from the first division position. 7. The image according to claim 6, wherein a division position at the time of photographing the predetermined area is determined by comparing the number of divided areas related to the predetermined area when the predetermined area is divided. Input device. 撮影した情報を画像データとして記録する画像入力装置における画像入力方法であって、
被写体に表された文字の大きさに関する情報の入力を受け付け、該文字の大きさを判断する文字サイズ判断手順と、
前記文字サイズ判断手段により判断された前記文字の大きさに基づいて撮像倍率を決定する撮像倍率決定手順とを有し、
前記撮像倍率決定手段によって決定された撮像倍率によって前記被写体を撮影することを特徴とする画像入力方法。
An image input method in an image input apparatus for recording captured information as image data,
A character size determination procedure for accepting input of information regarding the size of the character represented on the subject and determining the size of the character;
An imaging magnification determination procedure for determining an imaging magnification based on the size of the character determined by the character size determination means;
An image input method for photographing the subject with an imaging magnification determined by the imaging magnification determining means.
前記文字サイズ判断手順は、
所定の指示物体による指示位置を検知する指示位置検知手順を有し、
前記指示位置検知手順において検知された前記指示位置に基づいて前記文字の大きさを判断することを特徴とする請求項8記載の画像入力方法。
The character size determination procedure includes:
An instruction position detection procedure for detecting an instruction position by a predetermined pointing object;
9. The image input method according to claim 8, wherein the size of the character is determined based on the designated position detected in the designated position detection procedure.
前記文字サイズ判断手順は、前記指示位置検知手順により検知された前記指示位置の集合により形成される図形の大きさに基づいて前記文字の大きさを判断することを特徴とする請求項9記載の画像入力方法。 10. The character size determining procedure according to claim 9, wherein the character size is determined based on a size of a figure formed by the set of the indicated positions detected by the indicated position detecting procedure. Image input method. 所定の図形を投影する投影手順を更に有し、
前記文字サイズ判断手順は、前記指示位置検知手順において検知された前記指示位置に基づいて、前記所定の指示物体による前記所定の図形の指示を判別することにより、前記文字の大きさを判断することを特徴とする請求項9記載の画像入力方法。
A projection procedure for projecting a predetermined figure;
The character size determination procedure determines the size of the character by determining an instruction of the predetermined figure by the predetermined pointing object based on the pointing position detected in the pointing position detection procedure. The image input method according to claim 9.
前記投影手順は、大きさの異なる複数の図形を同時に投影し、
前記文字サイズ判断手順は、前記指示位置検知手順において検知された前記指示位置に基づいて、前記複数の図形のうち前記所定の指示物体により指示された図形を判別することにより、前記文字の大きさを判断することを特徴とする請求項11記載の画像入力方法。
The projecting procedure simultaneously projects a plurality of figures having different sizes,
In the character size determination procedure, the size of the character is determined by determining a graphic instructed by the predetermined pointing object from the plurality of graphics based on the pointing position detected in the pointing position detection procedure. The image input method according to claim 11, wherein:
前記撮像倍率決定手順において決定された撮像倍率に基づいて、前記被写体において所定の領域を分割撮影する際の分割数を決定する分割数決定手順を更に有することを特徴とする請求項8乃至12いずれか一項記載の画像入力方法。 13. The division number determination procedure for determining a division number for dividing and photographing a predetermined area on the subject based on the imaging magnification determined in the imaging magnification determination procedure. An image input method according to claim 1. 前記分割数決定手順は、所定の基準により定めた第一の分割位置によって分割した場合における前記所定の領域に係る分割領域の数と、前記第一の分割位置より所定の量だけずらした第二の分割位置によって分割した場合における前記所定の領域に係る分割領域の数とを比較することにより、前記所定の領域を撮影する際の分割位置を決定することを特徴とする請求項13記載の画像入力方法。
The division number determination procedure includes the number of divided areas related to the predetermined area when divided according to a first division position determined by a predetermined reference, and a second amount shifted by a predetermined amount from the first division position. 14. The image according to claim 13, wherein a division position at the time of photographing the predetermined area is determined by comparing with a number of divided areas related to the predetermined area when the predetermined area is divided. input method.
JP2003401656A 2003-12-01 2003-12-01 Image input apparatus and image input method Pending JP2005167479A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003401656A JP2005167479A (en) 2003-12-01 2003-12-01 Image input apparatus and image input method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003401656A JP2005167479A (en) 2003-12-01 2003-12-01 Image input apparatus and image input method

Publications (1)

Publication Number Publication Date
JP2005167479A true JP2005167479A (en) 2005-06-23

Family

ID=34725518

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003401656A Pending JP2005167479A (en) 2003-12-01 2003-12-01 Image input apparatus and image input method

Country Status (1)

Country Link
JP (1) JP2005167479A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8494219B2 (en) 2009-06-23 2013-07-23 Ricoh Company, Ltd. Image extraction device and image extraction method
JP2016162442A (en) * 2015-03-03 2016-09-05 富士ゼロックス株式会社 Text extraction method, system, and program
CN111935407A (en) * 2020-08-21 2020-11-13 深圳传音控股股份有限公司 Photographing processing method, mobile terminal and storage medium

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8494219B2 (en) 2009-06-23 2013-07-23 Ricoh Company, Ltd. Image extraction device and image extraction method
JP2016162442A (en) * 2015-03-03 2016-09-05 富士ゼロックス株式会社 Text extraction method, system, and program
CN111935407A (en) * 2020-08-21 2020-11-13 深圳传音控股股份有限公司 Photographing processing method, mobile terminal and storage medium

Similar Documents

Publication Publication Date Title
JP4012710B2 (en) Image input device
JP5206095B2 (en) Composition determination apparatus, composition determination method, and program
CN103685922B (en) Image processing apparatus, image pickup apparatus, and image processing method
JP4418029B2 (en) Image processing apparatus and camera system
JP5725975B2 (en) Imaging apparatus and imaging method
JP4218022B2 (en) How to generate composite images
JP4347614B2 (en) Measuring apparatus and measuring method for three-dimensional curved surface shape
JP4556813B2 (en) Image processing apparatus and program
JP4843787B2 (en) Subject tracking method and apparatus
JP2009168536A (en) Three-dimensional shape measuring device and method, three-dimensional shape regenerating device and method, and program
JP4198536B2 (en) Object photographing apparatus, object photographing method and object photographing program
JP6802848B2 (en) Image processing equipment, imaging system, image processing method and image processing program
JP2016181023A (en) Image processing apparatus, image processing method, and image processing program
JP2005167479A (en) Image input apparatus and image input method
JP5363872B2 (en) Image correction apparatus and program thereof
JP2008217330A (en) Speed estimation method and speed estimation program
JP4363152B2 (en) Captured image projection device, image processing method and program for captured image projection device
JP6012396B2 (en) Image processing apparatus, image processing method, and program.
JP4390779B2 (en) Image input device
JP5202448B2 (en) Image processing system and method
JP6263024B2 (en) Image processing apparatus, image processing method, program, and image reproduction apparatus
JP5521641B2 (en) Method and apparatus for compressing image processing data, and image pickup apparatus having the same
JP2018060392A (en) Image synthesis device, image synthesis method, and image synthesis system
JP7533619B2 (en) Information processing device, information processing method, and computer program
JP2020194400A (en) Image processing apparatus, image processing method, and program