JP2005167479A - Image input apparatus and image input method - Google Patents
Image input apparatus and image input method Download PDFInfo
- Publication number
- JP2005167479A JP2005167479A JP2003401656A JP2003401656A JP2005167479A JP 2005167479 A JP2005167479 A JP 2005167479A JP 2003401656 A JP2003401656 A JP 2003401656A JP 2003401656 A JP2003401656 A JP 2003401656A JP 2005167479 A JP2005167479 A JP 2005167479A
- Authority
- JP
- Japan
- Prior art keywords
- character
- size
- image input
- image
- determining
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Character Input (AREA)
- Image Input (AREA)
- Facsimile Scanning Arrangements (AREA)
- Studio Devices (AREA)
Abstract
Description
本発明は、画像入力装置及び画像入力方法に関し、特に撮影した情報を画像データとして記録する画像入力装置及び画像入力方法に関する。 The present invention relates to an image input apparatus and an image input method, and more particularly to an image input apparatus and an image input method for recording captured information as image data.
文字認識技術の発展により、スキャナーや書画カメラに代表される画像入力装置により原稿を画像として読み込み、文字認識装置(OCR)を利用して画像をテキストデータ化することが実用化しつつある。画像として取り込んだ原稿をテキストデータ化することにより、ファイル容量を削減することができ、また、原稿の内容を編集することが可能となる。 With the development of character recognition technology, it is becoming practical to read a document as an image by an image input device typified by a scanner or a document camera, and convert the image into text data using a character recognition device (OCR). By converting the document captured as an image into text data, the file capacity can be reduced, and the content of the document can be edited.
文字認識技術により文字認識を行う場合における文字認識成功率は、原稿の文字の大きさと原稿を読み取った画像の解像度に依存するところが大きい。例えば、文字の大きさが10ポイントの原稿をスキャナーや書画カメラで読み取る場合、約300Dpiの解像度で読み取る必要があると言われている。したがって、10ポイント以下の文字である場合は、300Dpi以上の解像度を必要とすることになる。 The success rate of character recognition when character recognition is performed by character recognition technology largely depends on the size of characters on the original and the resolution of the image read from the original. For example, it is said that when a document having a character size of 10 points is read by a scanner or a document camera, it is necessary to read at a resolution of about 300 dpi. Therefore, if the character is 10 points or less, a resolution of 300 dpi or more is required.
文字サイズをαに固定し、1インチ辺りの画素数(解像度δ)を可変にして様々な文字を書画カメラなどで撮影を行った場合、撮影された画像に対してOCRをかけ、解像度δごとに文字認識成功率を評価すると、この関係は次式のように表現できる。 When the character size is fixed to α, the number of pixels per inch (resolution δ) is variable, and various characters are shot with a document camera, etc., the OCR is applied to the shot images and the resolution δ is set. If the character recognition success rate is evaluated, this relationship can be expressed as follows:
画像入力装置を用いて、所望する撮影領域を文字認識成功率がBとなるように撮影するためには、所望する撮影領域に描かれている文字サイズαを判別し、文字サイズαに対する必要解像度δ1で撮影できるように撮像倍率を変化または画像入力装置の位置を移動する必要がある。また、所望する撮像領域が一回の撮影で撮影できる領域より広いときには、所望する撮像領域を複数の小領域に分割し、撮影を行う必要がある。 In order to photograph a desired shooting area so that the character recognition success rate is B using the image input device, the character size α drawn in the desired shooting area is determined, and the necessary resolution for the character size α It is necessary to change the imaging magnification or move the position of the image input device so that the image can be captured at δ1. Further, when the desired imaging area is wider than the area that can be imaged by one imaging, it is necessary to divide the desired imaging area into a plurality of small areas and perform imaging.
なお、特許文献1には、撮影の対象となる領域を原稿上において簡易に拡大及び移動等することができる発明が記載されている。また、特許文献2には、原稿を撮影する際に複数の解像度によって撮影しておき、複数の解像度によって撮影された画像のなかから文字認識に最適な解像度による画像を選択して文字認識を行う発明が記載されている。
しかしながら、今までの画像入力装置は、一般に使われる文字サイズ(10〜12ポイント)に対してのみ必要解像度を満たすように設計されている。このような画像入力装置では、規定のサイズ(10〜12ポイント)より大きい文字サイズで描かれている原稿を撮影する場合には、δ1よりも高解像度(δ2)の画像を獲得することができるが、δ1の定義より、δ1の画像もδ2の画像も文字認識成功率はほとんど変わらない。むしろδ2の解像度で広い領域を撮影する場合にはδ1の解像度で撮影する場合に比べ1回の撮影で撮像できる範囲が小さくなるため、撮影回数が増える可能性があり、その結果撮影時間が長くなる可能性がある。 However, conventional image input devices are designed so as to satisfy the necessary resolution only for generally used character sizes (10 to 12 points). In such an image input device, when shooting a document drawn with a character size larger than a prescribed size (10 to 12 points), an image having a higher resolution (δ2) than δ1 can be obtained. However, according to the definition of δ1, the character recognition success rate is almost the same for both the image of δ1 and the image of δ2. Rather, when shooting a wide area with a resolution of δ2, the range that can be captured with one shooting is smaller than when shooting with a resolution of δ1, so there is a possibility that the number of shootings will increase, resulting in a longer shooting time. There is a possibility.
また、規定のサイズ(10〜12ポイント)より小さい文字サイズで描かれている原稿を撮影する場合には、撮影された画像の解像度がδ1以下となり、文字認識成功率Bを達成することができない。 When a document drawn with a character size smaller than a prescribed size (10 to 12 points) is photographed, the resolution of the photographed image is δ1 or less, and the character recognition success rate B cannot be achieved. .
本発明は、上記の点に鑑みてなされたものであって、文字認識に適した解像度による画像を得ることができる画像入力装置及び画像入力方法の提供を目的とする。 The present invention has been made in view of the above points, and an object thereof is to provide an image input apparatus and an image input method capable of obtaining an image with a resolution suitable for character recognition.
そこで上記課題を解決するため、本発明は、撮影した情報を画像データとして記録する画像入力装置であって、被写体に表された文字の大きさに関する情報の入力を受け付け、該文字の大きさを判断する文字サイズ判断手段と、前記文字サイズ判断手段により判断された前記文字の大きさに基づいて撮像倍率を決定する撮像倍率決定手段とを有し、前記撮像倍率決定手段によって決定された撮像倍率によって前記被写体を撮影することを特徴とする。 Accordingly, in order to solve the above problems, the present invention is an image input device that records captured information as image data, accepts input of information regarding the size of a character represented on a subject, and determines the size of the character. A character size determining means for determining; an image capturing magnification determining means for determining an image capturing magnification based on the character size determined by the character size determining means; and the image capturing magnification determined by the image capturing magnification determining means Then, the subject is photographed.
このような画像入力装置では、被写体に表された文字の大きさに基づいて決定した撮像倍率によって被写体を撮影することができるため、文字認識に適した解像度による画像を得ることができる。 In such an image input device, since the subject can be photographed with the imaging magnification determined based on the size of the character represented on the subject, an image with a resolution suitable for character recognition can be obtained.
また、上記課題を解決するため、本発明は、上記画像入力装置における画像入力方法としてもよい。 Moreover, in order to solve the said subject, this invention is good also as an image input method in the said image input device.
文字認識に適した解像度による画像を得ることができる画像入力装置及び画像入力方法を提供することができる。 It is possible to provide an image input device and an image input method capable of obtaining an image with a resolution suitable for character recognition.
以下、図面に基づいて本発明の実施の形態を説明する。図1は、第一の実施の形態における画像入力装置の構成例を示す図である。図1に示されるように、画像入力装置100は、撮像部11、支持部12(支持部12−1、12−2及び12−3)、回転移動部13、支持部回転部14、撮影スイッチ15、被写体16、座標検知部17(座標検知部17−1、17−2及び17−3)等から構成される。
Hereinafter, embodiments of the present invention will be described with reference to the drawings. FIG. 1 is a diagram illustrating a configuration example of an image input apparatus according to the first embodiment. As illustrated in FIG. 1, the
撮像部11は、回転移動部13を介して支持部12によって支持されており、複数の撮像倍率で撮影することができる。撮影スイッチ15が押されると、撮像部11は、支持部12−3が設置されている机などの面上にある被写体16を撮像する。なお、撮像部11は、あらかじめキャリブレーションが行われており、撮像倍率ごとの内部行列、光軸位置、画角等は既知であるとする。
The imaging unit 11 is supported by the support unit 12 via the
回転移動部13は、モータ及びギア等で構成されており、撮像部11にパン、ロール、及びチルト等の回転移動を与えることができる。したがって、回転移動部13によって、撮像部11の撮像光軸をパン、チルト、ロール方向に移動させることができる。
The
支持部12−1及び支持部12−2は、伸縮自在である。また、支持部回転部14は、支持部12−2に回転移動を与える事ができる。したがって、支持部12−1及び12−2と、支持部回転部14と、回転移動部13とを組み合わせることにより、撮像部11に並進移動のみを与える事ができる。
The support part 12-1 and the support part 12-2 are extendable. Moreover, the support
画像入力装置100によって撮影する領域は、ペン型デバイス20によって指定することができる。ペン型デバイス20は、ペン先を物体に接触している間、単位時間あたりに1回の信号を発信する装置である。その単位時間は操作者のペン移動速度と比較すると非常に微小であるので、ペン型デバイス20は連続的に信号を送るものと考えることができる。
An area to be photographed by the
なお、ペン型デバイス20は、インクなどで文字が書けるものでもよいし、文字を書くことのできないものでもよい。また、文字を書くことができない場合には、信号を発信していることを操作者に知らせるために、信号を発しているときに音を同時に発するようにしてもよい。
The pen-
座標検知部17−1、17−2及び17−3は、ペン型デバイス20が発信した信号を受信することにより、ペン型デバイス20のペン先の位置を検知するためのものである。座標検知部17は、ペン型デバイス20からの信号の到達時間を算出することでペン先の3次元位置を測定する。
The coordinate detection units 17-1, 17-2, and 17-3 are for detecting the position of the pen tip of the
図2は、被写体を画像入力する際の動作を説明するための図である。図2において、被写体16上で長方形ABCDによって囲まれた領域(領域22)が、撮影の対象となる領域である。
FIG. 2 is a diagram for explaining an operation when inputting an image of a subject. In FIG. 2, a region (region 22) surrounded by the rectangle ABCD on the
操作者が、ペン型デバイス20を用いて長方形ABCDを描くと、画像入力装置100は、座標検出部17を用いて、連続して三次元座標群を獲得することにより、操作者の撮影したい領域22の三次元座標群を得る。画像入力装置100は、座標変換を行うことにより撮像中心を原点、光軸をZ軸とする撮像座標系に三次元座標群を変換する。撮像座標系のX軸及びY軸は、撮像部11内に存在する撮像素子の配置軸に合わせるものとする。
When the operator draws a rectangle ABCD using the pen-
続いて、画像入力装置100は、長方形ABCDの中心(画像中心23)を算出する。画像中心23の算出は、得られた三次元座標群の重心を単純にとることも考えられるが、ペンの移動速度により点の配置に偏りが生じることがあるので、三次元座標群により囲まれる領域を抽出し、抽出された領域から重心位置を求めることが望ましい。
Subsequently, the
続いて、画像入力装置100は、光軸中心が画像中心23を通るように、支持部12−2の伸縮と、支持部回転部14の回転を利用して撮像部11を移動する。このとき、支持部回転部14の回転移動量を算出しておき、回転移動部13により、撮像部11に反対方向に回転移動を加え、支持部12−2の伸縮前と撮像部11の光軸の向きを等しくなるようにする。
Subsequently, the
続いて、画像入力装置100は、三次元座標群に属するすべての三次元座標(X,Y,Z)を画像座標(U,V)に変換する。変換方法は、3次元ビジョン(共立出版 徐剛、辻三郎著)などに記載されている方法に従う。以下、三次元座標群に属するすべての三次元座標を画像座標に変換した頂点の集合を「画像座標群」という。
Subsequently, the
続いて、画像入力装置100は、画像座標群に属する頂点が撮像部11の撮像範囲に収まるように、支持部12−1の伸縮機能を利用して撮像部11を光軸方向に移動させる。なお、三次元座標群21に属する頂点は平面上にあると近似できる場合が多いので、三次元座標群21に属する頂点のうちの4頂点(X座標が最大、最小の頂点、Y座標が最大、最小の頂点)を選び、当該4頂点が画像範囲に収まるように支持部12−1の伸縮機能を利用して撮像部11を光軸方向に移動すると、計算時間を短縮することもできる。
Subsequently, the
上述したように、第一の実施の形態における画像入力装置100によれば、撮像部11における撮像倍率が固定されていたとしても、支持部12の伸縮機能を利用して撮影領域全体を一度で撮影することができ、撮影時間の短縮化を図ることができる。
As described above, according to the
続いて、第二の実施の形態について説明する。図3は、第二の実施の形態における画像入力装置の構成例を示す図である。図3に示されるように、画像入力装置200は、撮像部211、支持部212、回転移動部213、撮影スイッチ215、被写体216、座標検知部217(座標検知部217−1、217−2及び217−3)等からなる。
Next, a second embodiment will be described. FIG. 3 is a diagram illustrating a configuration example of the image input apparatus according to the second embodiment. As shown in FIG. 3, the
撮像部211は、回転移動部213を介して支持部212によって支持されており、複数の撮像倍率で撮影することができる。撮影スイッチ215が押されると、撮像部211は、支持部212が設置されている机などの面上にある被写体216を撮像する。
The
回転移動部213は、モータ及びギア等で構成されており、撮像部211にパン、ロール、及びチルト等の回転移動を与えることができる。したがって、回転移動部13によって、撮像部11の撮像光軸をパン、チルト、ロール方向に移動させることができる。
The
第一の実施の形態と同様、画像入力装置200によって撮影する領域は、ペン型デバイス220によって指定することができる。ペン型デバイス220は、第一の実施の形態におけるペン型デバイス20と同様のものである。
Similar to the first embodiment, the area to be photographed by the
座標検知部217−1、217−2及び217−3はペン型デバイス220が発信した信号を受信し、信号の到達時間を算出することでペン先からの距離を測定することができる。
The coordinate detection units 217-1, 217-2 and 217-3 can measure the distance from the pen tip by receiving the signal transmitted from the pen-
なお、あらかじめ撮像部211に対して、撮像倍率に対応する光軸位置、画角を既知のものとする。
Note that the optical axis position and the angle of view corresponding to the imaging magnification are known in advance with respect to the
以下、画像入力装置200の動作について説明する。図4は、第二の実施の形態における画像入力装置の動作を説明するためのフローチャートである。
Hereinafter, the operation of the
操作者が、ペン型デバイス220を用いて被写体216上に長方形ABCDを描くと(S201)、画像入力装置200は、座標検出部217を用いて、連続して三次元座標を獲得することにより、操作者の撮影したい撮影領域(四角形ABCD)の三次元座標群を得る(S202)。
When the operator draws a rectangular ABCD on the subject 216 using the pen-type device 220 (S201), the
図5は、第二の実施の形態における被写体の例を示す図である。図5において、A、B、C、Dの4つの頂点を有する長方形によって囲まれている領域109が、撮影領域である。
FIG. 5 is a diagram illustrating an example of a subject in the second embodiment. In FIG. 5, a
画像入力装置200は、更に、三次元座標群に対して座標変換を行うことにより、撮像中心を原点、光軸をZ軸とする撮像座標系に変換する。なお、撮像座標系のX軸、Y軸は撮像素子の配置軸に合わせるものとする。
Further, the
操作者が、領域109内において文字認識を行いたい文字のうち操作者が最小のものをペン型デバイス220で囲むことにより、小領域110を生成すると(S204)、画像入力装置200は、小領域110を形成している3次元データから、小領域110の面積を算出する。小領域110の面積の算出は、小領域110を形成している3次元データ113は平面上に分布していると考える事によって行えばよい。
When the operator generates a
続いて、画像入力装置200は、三次元座標群の中から光軸より最も遠い距離にある三次元座標を抽出し、当該三次元座標の撮像座標系での座標(X,Y,Z)と、小領域110の面積の正の平方根(L)とを以下の式(1)に代入することによって得られる値(P)より、撮像倍率を決定する(S205)。
Subsequently, the
図6(A)は、決定された撮像倍率で、支持部114が置かれた机上平面を撮影した時の画像範囲を四角形A1B1D1C1として表している。同様に、図6(B)は、横方向2分割で撮影したときの画像範囲をA2B2D2C2として表しており、図6(C)は、縦方向2分割で撮影したときの画像範囲をA3B3D3C3として表している。更に、図6(D)は、4分割で撮影したときの画像範囲をA4B4D4C4として表している。なお、図中において符号Mによって示される点は、光軸中心を示している。 FIG. 6A shows the image range as a quadrangle A1B1D1C1 when the desktop plane on which the support unit 114 is placed is imaged with the determined imaging magnification. Similarly, FIG. 6B shows the image range when the image is taken in the horizontal division as A2B2D2C2, and FIG. 6C shows the image range when the image is taken in the vertical direction as A3B3D3C3. ing. Furthermore, FIG. 6D shows an image range when A / B / D4C4 are captured in four divisions. In addition, the point shown with the code | symbol M in the figure has shown the optical axis center.
三次元座標群に属する全ての点が、A1B1D1C1を底面とし、カメラ中心を頂点とする四角推に含まれる場合は、画像入力装置200は、分割して撮影する必要がないもの(1分割で撮影)と判断する(S206−1でYES)。
When all the points belonging to the three-dimensional coordinate group are included in the quadrature estimation with A1B1D1C1 as the bottom and the camera center as the apex, the
同様に、画像入力装置200は、三次元座標群に属する全ての点が、A2B2D2C2を底面とし、カメラ中心を頂点とする四角推に含まれる場合は、横2分割(S206−2でYES)、A3B3D3C3を底面とし、カメラ中心を頂点とする四角推に含まれる場合は縦2分割(S206−3でYES)、A4B4D4C4を底面とし、カメラ中心を頂点とする四角推に含まれる場合は4分割(S206−4で)として分割数を決定する。なお、4分割以上に分割する場合も同様の原理で分割数を決定すればよい。
Similarly, when all the points belonging to the three-dimensional coordinate group are included in the quadrature inference with A2B2D2C2 as the bottom surface and the camera center as the apex, the
分割数を決定すると、画像入力装置200は、分割数に応じて回転移動部213を用いて撮影部101を動かし、被写体216の撮影を行う。
When the number of divisions is determined, the
撮影が終了すると、画像入力装置200は、分割撮影することによって得られた分割領域ごとの画像(以下、「分割画像」という。)を一枚の画像に合成するための処理(合成処理)を実行する。
When shooting is completed, the
図7は、分割画像が合成される様子を模式的に示す図である。図7においては、便宜上4枚の分割画像が、それぞれが撮影された際に関連付けられて記録されている撮影位置に関する情報(以下、「位置情報」という。)に基づいて合成された様子を示している。 FIG. 7 is a diagram schematically illustrating how the divided images are combined. In FIG. 7, for the sake of convenience, four divided images are combined based on information (hereinafter referred to as “position information”) relating to the shooting position recorded in association with each other. ing.
ここで、回転移動部213による回転角度に誤差が生じている場合は、各分割画像に関連付けられている位置情報に基づいて合成しただけでは合成部分に画像のずれが発生する。従って、画像入力装置200は、この4枚の分割画像の相対的な位置関係を微小量シフトさせ、画像が最も滑らかに合成できる位置を探す。
Here, when an error occurs in the rotation angle by the
図8は、合成処理の詳細を説明するためのフローチャートである。 FIG. 8 is a flowchart for explaining the details of the synthesis process.
ステップS320において、画像入力装置200は、撮像時において撮像光軸が被写体216の原稿面に対して最も垂直方向に近い撮像位置で撮像された分割画像を基準画像として選択する。例えば、図7においては、分割画像41が基準画像として選択されたものとする。
In step S320, the
ステップS320に続いてステップS321に進み、画像入力装置200は、分割画像41と分割画像41に隣接する他の分割画像との画像の位置合わせを行う。図7においては、画像入力装置200は、分割画像41と分割画像42との相互相関を計算することにより、最も相関値が高い位置を検索し、位置合わせを行う。
Progressing to step S321 following step S320, the
ステップS321に続いてステップS322に進み、画像入力装置200は、最も相関値が高い位置で分割画像42を固定し、分割画像41と分割画像42とを合成した合成画像を生成する。
Proceeding to step S322 following step S321, the
ステップS322に続いてステップS323に進み、画像入力装置200は、全ての分割画像の合成処理が完了したか否かを判断する。合成処理が完了していない場合はステップS321に進み、既に生成された合成画像とまだ合成されていない分割画像とを順番に合成し新たな合成画像を生成する。例えば、図7においては、ステップS322に生成された合成画像と分割画像43が合成されることにより新たな合成画像が生成され、さらに分割画像44が合成される。
Progressing to step S323 following step S322, the
合成処理が完了し、分割されていた画像から一枚の全体画像が生成されると、画像入力装置200は処理を終了する。
When the compositing process is completed and one whole image is generated from the divided images, the
このように、隣接する分割画像について相互相関を計算して合成処理を行うことにより画像のずれを補正することができる。したがって、回転移動部213による回転誤差が発生する場合においても滑らかに合成された合成画像を得ることができる。従って、回転移動部213は安価な機構で構成することができる共に、撮像部211についても微妙に位置ずれが生ずる可能性のある着脱可能な構成とすることもできる。
In this manner, image shift can be corrected by calculating cross-correlation between adjacent divided images and performing synthesis processing. Therefore, a synthesized image that is smoothly synthesized can be obtained even when a rotation error occurs due to the
上述したように、第二の実施の形態における画像入力装置200によれば、被写体216に表された文字のサイズに基づいて撮像倍率を決定するため、文字認識に適切な解像度によって撮影することができる。また、画像入力装置200によれば、文字のサイズに基づいて決定した撮像倍率では一回で所望の領域を撮影できない場合であっても、撮像倍率に基づいた適切な分割数によって分割撮影を行うことにより、所望の領域全体の画像データを得ることができる。
As described above, according to the
続いて第三の実施の形態について説明する。図9は、第三の実施の形態における画像入力装置の構成例を示す図である。図9中、図3と同一部分には同一符号を付し、その説明は省略する。図9に示されるように、画像入力装置300は、画像入力装置200(図3)に対して更に投光部219を追加したものである。投光部219は、被写体316に対して所定の図形を投影するためのものである。
Next, a third embodiment will be described. FIG. 9 is a diagram illustrating a configuration example of the image input apparatus according to the third embodiment. 9, parts that are the same as those shown in FIG. 3 are given the same reference numerals, and explanation thereof is omitted. As shown in FIG. 9, the
次に、被写体316の所定の領域を撮影するときの画像入力装置300の動作を説明する。
Next, the operation of the
操作者はペン型デバイス220を用いて頂点A、頂点B、頂点D,頂点Cに触れる(図2参照)。すると画像入力装置300は、座標検出部307によってABDCの各座標を算出し、さらに四点を順に結ぶ事で、操作者の撮影したい領域の三次元座標群を得ることができる。
The operator touches the vertex A, vertex B, vertex D, and vertex C using the pen-type device 220 (see FIG. 2). Then, the
画像入力装置300は、三次元座標群に対して座標変換を行うことにより、撮像中心を原点、光軸をZ軸とする撮像座標系に変換する。なお、撮像座標系のX軸、Y軸は撮像素子の配置軸に合わせるものとする。
The
続いて、画像入力装置300は、投光部309より複数の黒色の四角形を被写体306に対して投影する。
Subsequently, the
図10は、黒色の四角形が投影された被写体の様子を示す図である。図10に示される例においては、5つの黒色の四角形が被写体306に投影されている。これらの四角形は、支持部212が存在している平面上で、例えば、5ポイント、10ポイント、12ポイント、14ポイント、17ポイント(左から)の大きさになるように投影されているものである。
FIG. 10 is a diagram illustrating a state of a subject on which a black square is projected. In the example shown in FIG. 10, five black squares are projected on the subject 306. These quadrangles are projected so as to have a size of, for example, 5 points, 10 points, 12 points, 14 points, and 17 points (from the left) on the plane on which the
操作者がこの5種類の四角形のうちから、領域312に存在する活字のうちで最も文字サイズの小さい活字と大きさが近いものを、ペン型デバイス220で指示すると、画像入力装置300は、座標検知部217によってペン型デバイス220によって指示された位置の座標を算出し、ペン型220によって触れられた位置の座標と、投影されたそれぞれの四角形の座標とを照らし合わせることにより、操作者が選択した四角形を判別する。
When the operator uses the pen-
続いて、画像入力装置300は、選択された四角形の面積を被写体316における最小文字の面積(以下、「最小面積」という。)として判断する。
Subsequently, the
なお、選択可能な文字サイズは5種類だけでなく、投影の切り替えなどを利用して、10種類から選ぶようにしてもよい。また、別の装置を用いて最小文字のサイズを数値として入力させるようにしても良い。 Note that the selectable character size is not limited to five types, but may be selected from ten types using projection switching or the like. Alternatively, the minimum character size may be input as a numerical value using another device.
続いて、画像入力装置300は、三次元座標群の中から光軸より最も遠い距離にある三次元座標を抽出する。当該三次元座標の撮像座標系での座標(X,Y,Z)と、最小面積の正のへ平方根(L)とを上述した式(1)に代入することによって得られる値(P)より、撮像倍率を決定する。
Subsequently, the
続いて、画像入力装置300は、三次元座標群に属する頂点を、当該頂点とカメラ中心とを結ぶことによって形成される直線と、支持部212の存在する平面とが交わる位置に投影する。
Subsequently, the
図11は、三次元座標群に属する頂点を投影した様子を示す図である。図11において、A9、B9、C9、D9は、それぞれ三次元座標群に属する頂点A、B、C、Dが投影されたものである。 FIG. 11 is a diagram illustrating a state in which vertices belonging to the three-dimensional coordinate group are projected. In FIG. 11, A9, B9, C9, and D9 are projections of vertices A, B, C, and D belonging to the three-dimensional coordinate group, respectively.
続いて、画像入力装置300は、被写体316を分割撮影する際の分割位置を決定する。
Subsequently, the
まず、画像入力装置300は、あらかじめ定められた所定の位置を基準として被写体316を分割した場合(この場合を「撮影方法1」という。)において、撮影領域に係る分割領域の数、すなわち、撮影領域を分割撮影するために必要な撮影回数を判断する。
First, the
例えば、図11においては、1−1〜1−16で示される領域によって分割された16分割によって撮影する場合の例を示している。この場合、撮影領域であるA9B9D9C9を撮影するには、1−1〜1−3、1−5〜1−7、1−9〜1−11、及び1−13〜1−15の12回の撮影が必要になることが分かる。 For example, FIG. 11 shows an example in the case of shooting by 16 divisions divided by the areas indicated by 1-1 to 1-16. In this case, in order to photograph A9B9D9C9 which is a photographing area, 12 times of 1-1 to 1-3, 1-5 to 1-7, 1-9 to 1-11, and 1-13 to 1-15 are performed. You can see that you need to shoot.
なお、図11においては、便宜上各領域は重なり合う領域を有していないが、厳密には、各領域は隣接する領域との間である程度重なり合う領域を有する。図12は、隣接する領域が重なり合う様子を示す図である。図12において、領域1−1は、領域1−2、領域1−5及び領域1−6と重なり合う領域を有している。 In FIG. 11, each region does not have an overlapping region for convenience, but strictly speaking, each region has a region that overlaps to some extent with an adjacent region. FIG. 12 is a diagram illustrating a state in which adjacent regions overlap each other. In FIG. 12, the region 1-1 has a region that overlaps the region 1-2, the region 1-5, and the region 1-6.
続いて画像入力装置300は、分割位置を撮影方法1の場合より分割領域の半サイズ分だけずらした場合(この場合を「撮影方法2」という。)の撮影回数を判断する。
Subsequently, the
図13は、分割位置をずらした様子を示す図である。図13においては、分割位置を図11の場合におけるものから分割領域の半分だけずらした例を示している。分割位置をずらすことによって、分割領域は、1−1〜1−16から2−1〜2−16に変化する。図13より明らかなように撮影方法2の場合は、撮影領域であるA9B9D9C9を撮影するには、2−1、2−2、2−5、2−6、2−9及び2−10の6回の撮影が必要になることが分かる。
FIG. 13 is a diagram illustrating a state where the division positions are shifted. FIG. 13 shows an example in which the division position is shifted by half of the division area from that in the case of FIG. By shifting the dividing position, the divided area changes from 1-1 to 1-16 to 2-1 to 2-16. As is apparent from FIG. 13, in the case of the photographing
続いて、画像入力装置300は、撮影方法1の場合の撮影回数と撮影方法2の場合の撮影回数とを比較し、より撮影回数の少ない場合の分割位置を分割撮影の際の分割位置として決定する。したがって本実施の形態においては、撮影方法2のケースが採用される。
Subsequently, the
続いて、画像入力装置300は、領域2−1、2−2、2−5、2−6、2−9、2−10と撮像部211を回転移動部213によって移動させつつ、順次撮影を行う。
Subsequently, the
撮影が終了すると、画像入力装置300は、図8において説明した処理を実行することにより、分割して撮影された画像の合成処理を実行する。
When shooting is completed, the
上述してように、第三の実施の形態における画像入力装置300によれば、投影された図形を選択することによって、文字サイズの指定を行うことができるため、操作者に対する負担を軽減することができる。また、撮影回数が少なくなるように分割位置を判断するため、撮影に要する時間の短縮化を図ることができる。
As described above, according to the
なお、上述した撮像部11の詳細について以下に説明する。図14は、撮像部の構成例を示す図である。以下においては、第一の実施の形態における符号に基づいて説明するが、第二及び第三の実施の形態における撮像部211においても同様である。
Details of the imaging unit 11 described above will be described below. FIG. 14 is a diagram illustrating a configuration example of the imaging unit. The following description is based on the reference numerals in the first embodiment, but the same applies to the
図14に示されるように、撮像部11は、ズームレンズ1、絞り機構2、撮像素子3、CDS(相関二重サンプリング回路)4、A/D変換器5、TG(タイミングジェネレータ)6、IPP(画像前処理回路)7、メモリ8、MPU(Micro Processing Unit)9等から構成される。
As shown in FIG. 14, the imaging unit 11 includes a
被写体の像は、ズームレンズ1及び絞り機構2によって、撮像素子3の上に形成される。撮像素子3からの画像信号はCDS(相関二重サンプリング回路)4でサンプリングされた後、A/D変換器5でデジタル信号化される。この時のタイミングはTG(タイミングジェネレータ)6で生成される。画像信号はその後、IPP(画像前処理回路)7でアパーチャ補正などの画像処理、圧縮等が施されメモリ8に保存される。
An image of the subject is formed on the image sensor 3 by the
上述した画像入力装置100、200又は300の動作は、メモリ8に保存されているプログラムを読み込むことによりMPU9が制御する。
The operation of the
以上、本発明の好ましい実施例について詳述したが、本発明は係る特定の実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形・変更が可能である。 The preferred embodiments of the present invention have been described in detail above, but the present invention is not limited to such specific embodiments, and various modifications can be made within the scope of the gist of the present invention described in the claims.・ Change is possible.
1 レンズ
2 絞り機構
3 撮像素子
4 CDS
5 A/D変換器
6 TG
7 IPP
8 メモリ
9 MPU
11 撮像部
12−1、12−2、12−3、212−1、212−2、212−3 支持部
13、231 回転移動部
14 支持部回転部
15、215 撮影スイッチ
16、216、316 被写体
17−1、17−2、17−3、217−1、217−2、217−3 座標検知部
20、220 ペン型デバイス
100、200、300 画像入力装置
1
5 A / D converter 6 TG
7 IPP
8
DESCRIPTION OF SYMBOLS 11 Imaging part 12-1, 12-2, 12-3, 212-1, 212-2, 212-3
Claims (14)
被写体に表された文字の大きさに関する情報の入力を受け付け、該文字の大きさを判断する文字サイズ判断手段と、
前記文字サイズ判断手段により判断された前記文字の大きさに基づいて撮像倍率を決定する撮像倍率決定手段とを有し、
前記撮像倍率決定手段によって決定された撮像倍率によって前記被写体を撮影することを特徴とする画像入力装置。 An image input device for recording captured information as image data,
A character size determining means for receiving input of information regarding the size of the character represented on the subject and determining the size of the character;
Imaging magnification determining means for determining an imaging magnification based on the size of the character determined by the character size determining means;
An image input apparatus for photographing the subject with an imaging magnification determined by the imaging magnification determining means.
所定の指示物体による指示位置を検知する指示位置検知手段を有し、
前記指示位置検知手段により検知された前記指示位置に基づいて前記文字の大きさを判断することを特徴とする請求項1記載の画像入力装置。 The character size determining means includes
Having an indication position detecting means for detecting an indication position by a predetermined indication object;
The image input device according to claim 1, wherein the size of the character is determined based on the designated position detected by the designated position detecting unit.
前記文字サイズ判断手段は、前記指示位置検知手段により検知された前記指示位置に基づいて、前記所定の指示物体による前記所定の図形の指示を判別することにより、前記文字の大きさを判断することを特徴とする請求項2記載の画像入力装置。 A projection means for projecting a predetermined figure;
The character size determining means determines the size of the character by determining an instruction of the predetermined figure by the predetermined indicating object based on the indicated position detected by the indicated position detecting means. The image input device according to claim 2.
前記文字サイズ判断手段は、前記指示位置検知手段により検知された前記指示位置に基づいて、前記複数の図形のうち前記所定の指示物体により指示された図形を判別することにより、前記文字の大きさを判断することを特徴とする請求項4記載の画像入力装置。 The projecting means simultaneously projects a plurality of figures having different sizes,
The character size determination means determines the size of the character by determining a figure designated by the predetermined pointing object from the plurality of figures based on the pointing position detected by the pointing position detection means. The image input device according to claim 4, wherein:
被写体に表された文字の大きさに関する情報の入力を受け付け、該文字の大きさを判断する文字サイズ判断手順と、
前記文字サイズ判断手段により判断された前記文字の大きさに基づいて撮像倍率を決定する撮像倍率決定手順とを有し、
前記撮像倍率決定手段によって決定された撮像倍率によって前記被写体を撮影することを特徴とする画像入力方法。 An image input method in an image input apparatus for recording captured information as image data,
A character size determination procedure for accepting input of information regarding the size of the character represented on the subject and determining the size of the character;
An imaging magnification determination procedure for determining an imaging magnification based on the size of the character determined by the character size determination means;
An image input method for photographing the subject with an imaging magnification determined by the imaging magnification determining means.
所定の指示物体による指示位置を検知する指示位置検知手順を有し、
前記指示位置検知手順において検知された前記指示位置に基づいて前記文字の大きさを判断することを特徴とする請求項8記載の画像入力方法。 The character size determination procedure includes:
An instruction position detection procedure for detecting an instruction position by a predetermined pointing object;
9. The image input method according to claim 8, wherein the size of the character is determined based on the designated position detected in the designated position detection procedure.
前記文字サイズ判断手順は、前記指示位置検知手順において検知された前記指示位置に基づいて、前記所定の指示物体による前記所定の図形の指示を判別することにより、前記文字の大きさを判断することを特徴とする請求項9記載の画像入力方法。 A projection procedure for projecting a predetermined figure;
The character size determination procedure determines the size of the character by determining an instruction of the predetermined figure by the predetermined pointing object based on the pointing position detected in the pointing position detection procedure. The image input method according to claim 9.
前記文字サイズ判断手順は、前記指示位置検知手順において検知された前記指示位置に基づいて、前記複数の図形のうち前記所定の指示物体により指示された図形を判別することにより、前記文字の大きさを判断することを特徴とする請求項11記載の画像入力方法。 The projecting procedure simultaneously projects a plurality of figures having different sizes,
In the character size determination procedure, the size of the character is determined by determining a graphic instructed by the predetermined pointing object from the plurality of graphics based on the pointing position detected in the pointing position detection procedure. The image input method according to claim 11, wherein:
The division number determination procedure includes the number of divided areas related to the predetermined area when divided according to a first division position determined by a predetermined reference, and a second amount shifted by a predetermined amount from the first division position. 14. The image according to claim 13, wherein a division position at the time of photographing the predetermined area is determined by comparing with a number of divided areas related to the predetermined area when the predetermined area is divided. input method.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003401656A JP2005167479A (en) | 2003-12-01 | 2003-12-01 | Image input apparatus and image input method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003401656A JP2005167479A (en) | 2003-12-01 | 2003-12-01 | Image input apparatus and image input method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2005167479A true JP2005167479A (en) | 2005-06-23 |
Family
ID=34725518
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003401656A Pending JP2005167479A (en) | 2003-12-01 | 2003-12-01 | Image input apparatus and image input method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2005167479A (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8494219B2 (en) | 2009-06-23 | 2013-07-23 | Ricoh Company, Ltd. | Image extraction device and image extraction method |
JP2016162442A (en) * | 2015-03-03 | 2016-09-05 | 富士ゼロックス株式会社 | Text extraction method, system, and program |
CN111935407A (en) * | 2020-08-21 | 2020-11-13 | 深圳传音控股股份有限公司 | Photographing processing method, mobile terminal and storage medium |
-
2003
- 2003-12-01 JP JP2003401656A patent/JP2005167479A/en active Pending
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8494219B2 (en) | 2009-06-23 | 2013-07-23 | Ricoh Company, Ltd. | Image extraction device and image extraction method |
JP2016162442A (en) * | 2015-03-03 | 2016-09-05 | 富士ゼロックス株式会社 | Text extraction method, system, and program |
CN111935407A (en) * | 2020-08-21 | 2020-11-13 | 深圳传音控股股份有限公司 | Photographing processing method, mobile terminal and storage medium |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4012710B2 (en) | Image input device | |
JP5206095B2 (en) | Composition determination apparatus, composition determination method, and program | |
CN103685922B (en) | Image processing apparatus, image pickup apparatus, and image processing method | |
JP4418029B2 (en) | Image processing apparatus and camera system | |
JP5725975B2 (en) | Imaging apparatus and imaging method | |
JP4218022B2 (en) | How to generate composite images | |
JP4347614B2 (en) | Measuring apparatus and measuring method for three-dimensional curved surface shape | |
JP4556813B2 (en) | Image processing apparatus and program | |
JP4843787B2 (en) | Subject tracking method and apparatus | |
JP2009168536A (en) | Three-dimensional shape measuring device and method, three-dimensional shape regenerating device and method, and program | |
JP4198536B2 (en) | Object photographing apparatus, object photographing method and object photographing program | |
JP6802848B2 (en) | Image processing equipment, imaging system, image processing method and image processing program | |
JP2016181023A (en) | Image processing apparatus, image processing method, and image processing program | |
JP2005167479A (en) | Image input apparatus and image input method | |
JP5363872B2 (en) | Image correction apparatus and program thereof | |
JP2008217330A (en) | Speed estimation method and speed estimation program | |
JP4363152B2 (en) | Captured image projection device, image processing method and program for captured image projection device | |
JP6012396B2 (en) | Image processing apparatus, image processing method, and program. | |
JP4390779B2 (en) | Image input device | |
JP5202448B2 (en) | Image processing system and method | |
JP6263024B2 (en) | Image processing apparatus, image processing method, program, and image reproduction apparatus | |
JP5521641B2 (en) | Method and apparatus for compressing image processing data, and image pickup apparatus having the same | |
JP2018060392A (en) | Image synthesis device, image synthesis method, and image synthesis system | |
JP7533619B2 (en) | Information processing device, information processing method, and computer program | |
JP2020194400A (en) | Image processing apparatus, image processing method, and program |