[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2016051191A - Image processing method - Google Patents

Image processing method Download PDF

Info

Publication number
JP2016051191A
JP2016051191A JP2014174230A JP2014174230A JP2016051191A JP 2016051191 A JP2016051191 A JP 2016051191A JP 2014174230 A JP2014174230 A JP 2014174230A JP 2014174230 A JP2014174230 A JP 2014174230A JP 2016051191 A JP2016051191 A JP 2016051191A
Authority
JP
Japan
Prior art keywords
image
imaging
imaging target
data
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2014174230A
Other languages
Japanese (ja)
Inventor
隆敏 山中
Takatoshi Yamanaka
隆敏 山中
山野 大偉治
Taiji Yamano
大偉治 山野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2014174230A priority Critical patent/JP2016051191A/en
Publication of JP2016051191A publication Critical patent/JP2016051191A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Editing Of Facsimile Originals (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an image processing method capable of storing data, such as an article and pictures by being efficiently associated with information included in a designated part during storing the data.SOLUTION: A computer executes processing which specifies a first part in a picked-up image of a first imaging object designated by a detected feature when the feature designating a portion of the first imaging object is detected from the picked-up image obtained by imaging the first imaging object, stores information included in the specified first part in a storage part in association with first data to be stored about the picked-up image of the first imaging object, specifies a second part corresponding to the first part in a picked-up image obtained by imaging a second imaging object having a contour similar to the first imaging object, and stores information included in the specified second part in the storage part in association with second data to be stored about the picked-up image of the second imaging object.SELECTED DRAWING: Figure 9

Description

本件は、画像処理方法に関する。   This case relates to an image processing method.

新聞紙や書籍(例えば雑誌や図書等)又はこれらの複写物から記事や写真などを切り抜いてスクラップすることは広く行われている。また、新聞紙や書籍を広げた状態でスキャン可能な画像処理装置も知られている(例えば特許文献1参照)。当該画像処理装置によれば、新聞紙や書籍における必要な頁の記事や写真を手指で指定してデータ化し、スクラップすることができる。この場合、記事や写真などのデータは記憶装置に保存される。   2. Description of the Related Art It is widely practiced to cut out articles and photographs from newspapers and books (for example, magazines and books) or copies thereof and scrap them. There is also known an image processing apparatus that can scan a newspaper or a book in an unfolded state (see, for example, Patent Document 1). According to the image processing apparatus, articles and photos of necessary pages in newspapers and books can be designated with fingers and converted into data for scrapping. In this case, data such as articles and photographs are stored in the storage device.

記事や写真などをスクラップした場合、併せて出典部分も切り抜いてスクラップすることも広く行われている。これにより、スクラップした記事や写真などの出典を後日容易に認識することが可能となる。記事や写真などをデータ化してスクラップする場合には、併せて出典部分に含まれる情報もスクラップすることが望まれる。例えば文書を撮像して、その撮像画像から文書の書誌事項を抽出する技術は知られている(例えば特許文献2及び3参照)。   When scrapping articles and photos, it is also common to scrap the source part. This makes it possible to easily recognize the source of scrapped articles and photos at a later date. When scrapping articles and photos as data, it is desirable to also scrap information included in the source part. For example, a technique for imaging a document and extracting bibliographic items of the document from the captured image is known (see, for example, Patent Documents 2 and 3).

特開2013−250879号公報JP 2013-250879 A 特開平11−184894号公報Japanese Patent Laid-Open No. 11-184894 特開平8−287189号公報JP-A-8-287189

ところで、記事や写真などのデータを出典部分の情報とともにスクラップする場合、頁をめくる度にその情報とそのデータとをそれぞれ指定して一緒にスクラップすることは非常に手間がかかるという問題がある。上述した特許文献2及び3は、書誌事項を抽出する技術を開示するものの、記事や写真などのデータをスクラップする際に書誌事項を抽出することを開示していない。   By the way, when scraping data such as articles and photographs together with the information of the source part, there is a problem that it is very time-consuming to specify the information and the data each time the page is turned and to scrape together. Patent Documents 2 and 3 described above disclose techniques for extracting bibliographic items, but do not disclose extracting bibliographic items when scraping data such as articles and photographs.

そこで、1つの側面では、記事や写真などのデータを保存する際に、指定した部分に含まれる情報を効率的に対応づけて保存させることが可能な画像処理方法を提供することを目的とする。   Therefore, in one aspect, an object of the present invention is to provide an image processing method capable of efficiently associating and storing information included in a specified portion when storing data such as articles and photographs. .

本明細書に開示の画像処理方法は、第1の撮像対象を撮像して得られた撮像画像から前記第1の撮像対象の一部を指定する特徴が検出されると、検出された前記特徴が指定する前記第1の撮像対象の撮像画像内における第1の部分を特定し、特定した前記第1の部分に含まれる情報を前記第1の撮像対象の撮像画像に関して保存する第1のデータと対応づけて記憶部に保存し、前記第1の撮像対象と同様の輪郭を有する第2の撮像対象を撮像した撮像画像内における、前記第1の部分に対応する第2の部分を特定し、特定した前記第2の部分に含まれる情報を前記第2の撮像対象の撮像画像に関して保存する第2のデータと対応づけて前記記憶部に保存する、処理をコンピュータが実行することを特徴とする画像処理方法である。   In the image processing method disclosed in the present specification, when a feature specifying a part of the first imaging target is detected from a captured image obtained by imaging the first imaging target, the detected feature is detected. 1st data which specifies the 1st part in the picked-up image of the said 1st pick-up object specified by and stores the information contained in the specified said 1st part about the picked-up image of the 1st pick-up object. And a second portion corresponding to the first portion in the captured image obtained by capturing the second imaging target having the same contour as the first imaging target is specified. The computer executes a process of storing the information included in the specified second part in the storage unit in association with the second data stored with respect to the captured image of the second imaging target. This is an image processing method.

本明細書に開示の画像処理方法は、撮像対象を撮像装置で撮像して得られた撮像画像についてエッジ検出処理を実行して前記撮像対象の輪郭を検出し、前記撮像対象の一部を指定する指定箇所を、該撮像対象の撮像画像に写りこんだ特定の被写体の位置によって検出し、検出した前記輪郭と前記指定箇所との相対的位置関係を算出し、他の撮像対象についてエッジ検出処理を実行して得られた該他の撮像対象の輪郭と、算出した前記相対的位置関係とに基づいて特定される、前記他の撮像対象の撮像画像の一部に含まれる情報を前記他の撮像対象の撮像画像に関して保存するデータと対応づけて記憶部に保存する、処理をコンピュータが実行することを特徴とする画像処理方法である。   In the image processing method disclosed in this specification, an edge detection process is performed on a captured image obtained by imaging an imaging target with an imaging device to detect an outline of the imaging target, and a part of the imaging target is specified. A specified location to be detected is detected based on the position of a specific subject reflected in the captured image of the imaging target, a relative positional relationship between the detected contour and the specified location is calculated, and edge detection processing is performed on another imaging target Information included in a part of the captured image of the other imaging target, which is specified based on the contour of the other imaging target obtained by executing the above and the calculated relative positional relationship. The image processing method is characterized in that a computer executes a process of storing in a storage unit in association with data to be stored regarding a captured image to be captured.

本明細書に開示の画像処理方法によれば、記事や写真などのデータを保存する際に、指定した部分に含まれる情報を効率的に対応づけて保存させることができる。   According to the image processing method disclosed in this specification, when data such as articles and photographs are stored, information included in a designated portion can be efficiently associated and stored.

図1は、画像処理システムの一例を説明するための図である。FIG. 1 is a diagram for explaining an example of an image processing system. 図2は、紙媒体に対する手指による操作の一例を説明するための図である。FIG. 2 is a diagram for explaining an example of an operation with a finger on a paper medium. 図3は、新聞紙に対する手指による操作の一例を説明するための図である。FIG. 3 is a diagram for explaining an example of an operation with a finger on a newspaper. 図4は、新聞紙に対する手指による操作の他の一例を説明するための図である。FIG. 4 is a diagram for explaining another example of an operation with a finger on a newspaper. 図5は、画像処理装置のブロック図の一例である。FIG. 5 is an example of a block diagram of the image processing apparatus. 図6は、画像処理装置のハードウェア構成の一例である。FIG. 6 is an example of a hardware configuration of the image processing apparatus. 図7は、画像処理システムの動作の一例を示すフローチャートである。FIG. 7 is a flowchart illustrating an example of the operation of the image processing system. 図8は、文字密度の一例について説明するための図である。FIG. 8 is a diagram for explaining an example of character density. 図9は、画像処理システムの動作の他の一例を示すフローチャートである。FIG. 9 is a flowchart illustrating another example of the operation of the image processing system. 図10は、書籍の出典の確定又は修正を説明するための図である。FIG. 10 is a diagram for explaining confirmation or correction of the source of a book. 図11は、書籍に対する手指による操作の一例を説明するための図である。FIG. 11 is a diagram for explaining an example of an operation with a finger on a book. 図12は、書籍に対する手指による操作の他の一例を説明するための図である。FIG. 12 is a diagram for explaining another example of an operation with a finger on a book. 図13は、紙媒体の種別を判断する手法の別の一例である。FIG. 13 is another example of a method for determining the type of paper medium.

以下、本件を実施するための形態について図面を参照して説明する。   Hereinafter, an embodiment for carrying out this case will be described with reference to the drawings.

図1は、画像処理システムSの一例を説明するための図である。
画像処理システムSは、投影部100、第1撮像部200、第2撮像部300及び画像処理装置400を含んでいる。画像処理装置400は、投影部100、第1撮像部200、第2撮像部300と有線または無線を介して通信可能に接続される。なお、画像処理装置400は、図示しない通信部を有しており、通信回線を介して様々な外部装置と双方向にデータの送受信を行うことによりネットワークリソースを用いることが可能である。更に、投影部100は、必要に応じて画像処理システムSに含まれれば良く、必ずしも必要な構成要素ではない。図1に示すように、投影部100、第1撮像部200及び第2撮像部300は、例えば投影面10の上方に、鉛直下向きの方向で設置される。投影面10としては、例えば、カウンター、台、机といった各種作業を行うための作業台がある。
FIG. 1 is a diagram for explaining an example of the image processing system S.
The image processing system S includes a projection unit 100, a first imaging unit 200, a second imaging unit 300, and an image processing device 400. The image processing apparatus 400 is communicably connected to the projection unit 100, the first imaging unit 200, and the second imaging unit 300 via wired or wireless communication. The image processing apparatus 400 includes a communication unit (not shown), and can use network resources by bidirectionally transmitting / receiving data to / from various external apparatuses via a communication line. Furthermore, the projection part 100 should just be included in the image processing system S as needed, and is not necessarily a required component. As illustrated in FIG. 1, the projection unit 100, the first imaging unit 200, and the second imaging unit 300 are installed in a vertically downward direction, for example, above the projection surface 10. As the projection surface 10, for example, there is a work table for performing various operations such as a counter, a table, and a desk.

投影部100は、撮像対象の一例である紙媒体Dの傍に画像を投影する。例えば、投影面10に紙媒体Dが置かれて、その紙媒体Dの一部を指定する特徴的な動作(例えば後述する手指FGによる動作)がなされると、第1撮像部200及び第2撮像部300は紙媒体Dを特徴的な動作とともに撮像し、投影部100は撮像された撮像画像に基づいて紙媒体Dの傍の所定の位置に画像を投影する。詳細は後述するが、例えば紙媒体Dが書籍である場合には、投影部100は書籍の出典を表す画像などを投影する。このような投影手法は、例えばAugmented Reality(AR:拡張現実)と呼ばれる。さらに、ユーザが手指FGを画像に提示すると、投影された画像に対してインタラクション操作が行われ、別の画像が投影される。例えば出典の内容の修正を指示する画像に手指FGが提示された場合、別の画像としてキーボードを表す画像が投影される。尚、投影部100としては、例えばプロジェクタといった画像を表示するデバイスがあり、紙媒体Dとしては、例えば新聞紙NP、本、雑誌や図書を含む書籍BK、冊子、パンフレットなどがある。   The projection unit 100 projects an image near the paper medium D that is an example of an imaging target. For example, when the paper medium D is placed on the projection surface 10 and a characteristic operation (for example, an operation by a finger FG described later) for designating a part of the paper medium D is performed, the first imaging unit 200 and the second imaging unit 200 are arranged. The imaging unit 300 images the paper medium D together with characteristic operations, and the projection unit 100 projects an image at a predetermined position near the paper medium D based on the captured image. Although details will be described later, for example, when the paper medium D is a book, the projection unit 100 projects an image representing the source of the book. Such a projection method is called Augmented Reality (AR), for example. Further, when the user presents the finger FG on the image, an interaction operation is performed on the projected image, and another image is projected. For example, when the finger FG is presented on an image instructing correction of the content of the source, an image representing the keyboard is projected as another image. The projection unit 100 includes a device that displays an image, such as a projector, and the paper medium D includes, for example, a newspaper NP, a book BK including books, magazines, and books, a booklet, a pamphlet, and the like.

第1撮像部200及び第2撮像部300は、内部パラメータが等しく既知であり、互いの光軸が平行で、かつ、第1撮像部200及び第2撮像部300が撮像する複数の画像中の任意の横軸が同一直線状上になる様に配置される、いわゆる平行ステレオの配置となる。第1撮像部200は、第1の視野V1の範囲内に含まれる領域の第1画像を撮像する。第2撮像部300は、第2の視野V2の範囲内に含まれる領域の第2画像を撮像する。したがって、第1画像及び第2画像にはそれぞれ、紙媒体Dを含む投影面10が含まれる。特に、紙媒体D上に手指FGが含まれている場合には、第1画像及び第2画像にはそれぞれ手指FGの画像が含まれる。第1撮像部200及び第2撮像部300により、第1画像と第2画像の色情報、ならびに紙媒体Dの深度、手指FGの深度などの情報を含む画像が撮像される。尚、第1撮像部200及び第2撮像部300としては、例えば、Charge Coupled Device(CCD)カメラやComplementary Metal Oxide Semiconductor(CMOS)カメラといった撮像デバイスがある。また、平行ステレオは、位置関係が既知かつ平行な2台のカメラによる撮像画像から同一の対象物が撮影された画素の位置ずれ(視差)を利用して、三角測量の原理により任意の基準点から対象物までの距離を算出する手法である。   The first imaging unit 200 and the second imaging unit 300 have the same internal parameters, are known to have parallel optical axes, and are included in a plurality of images captured by the first imaging unit 200 and the second imaging unit 300. This is a so-called parallel stereo arrangement in which arbitrary horizontal axes are arranged on the same straight line. The first imaging unit 200 captures a first image of a region included in the range of the first visual field V1. The second imaging unit 300 captures a second image of a region included in the range of the second visual field V2. Therefore, the first image and the second image each include the projection surface 10 including the paper medium D. In particular, when the finger FG is included on the paper medium D, the image of the finger FG is included in each of the first image and the second image. The first imaging unit 200 and the second imaging unit 300 capture an image including color information of the first image and the second image, and information such as the depth of the paper medium D and the depth of the finger FG. Examples of the first imaging unit 200 and the second imaging unit 300 include imaging devices such as a charge coupled device (CCD) camera and a complementary metal oxide semiconductor (CMOS) camera. Parallel stereo is an arbitrary reference point based on the principle of triangulation using the positional deviation (parallax) of pixels in which the same object is photographed from images captured by two cameras with known and parallel positional relationships. This is a method for calculating the distance from the object to the object.

画像処理装置400は、第1撮像部200及び第2撮像部300により異なる光軸で撮像された第1画像及び第2画像を取得し、後述する各種の画像処理を行って投影部100の動作を制御する。これにより、投影部100は各種の画像を投影する。例えば、取得した特徴的な動作を含む第1画像及び第2画像に基づいて、世界座標系(3次元上)におけるユーザの手指FGの位置を算出する。算出した位置における深度が紙媒体Dから所定の距離(例えば0〜10mm)の範囲内に含まれていた場合、紙媒体Dの傍に画像が投影される。算出した位置がその画像の投影領域に含まれていた場合、別の画像が投影される。ここで、画像処理システムSにおける画像処理装置400の配置位置は自由に設定することが可能である。例えば、画像処理装置400は投影部100と同じ位置に配置されていてもよい。尚、画像処理装置400の機能の詳細については後述する。   The image processing apparatus 400 acquires the first image and the second image captured by the first imaging unit 200 and the second imaging unit 300 with different optical axes, performs various image processing described later, and operates the projection unit 100. To control. Thereby, the projection unit 100 projects various images. For example, the position of the user's finger FG in the world coordinate system (on three dimensions) is calculated based on the first image and the second image including the acquired characteristic motion. When the depth at the calculated position is included within a predetermined distance (for example, 0 to 10 mm) from the paper medium D, an image is projected near the paper medium D. If the calculated position is included in the projection area of the image, another image is projected. Here, the arrangement position of the image processing apparatus 400 in the image processing system S can be freely set. For example, the image processing apparatus 400 may be disposed at the same position as the projection unit 100. Details of the functions of the image processing apparatus 400 will be described later.

ところで、図1に示す画像処理システムSの構成時点で、第1撮像部200と第2撮像部300の座標系と投影部100の世界座標系における位置合わせ(キャリブレーション)は、予め実施されているものとする。また、画像処理装置400に使用開始後に、第1撮像部200と第2撮像部300と投影部100の位置関係を変化させる場合は、キャリブレーションを、少なくとも一回実行すれば良い。ここで、具体的なキャリブレーションの方法の一例として、投影部100が投影する任意の投影画像を、第1撮像部200と第2撮像部300で撮像することで、画像処理装置400内部でキャリブレーションを実行する方法を説明する。なお、当該方法においては、第1撮像部200と第2撮像部300のそれぞれについて、予めキャリブレーションが実行されているものとする。   By the way, at the time of the configuration of the image processing system S shown in FIG. 1, alignment (calibration) in the coordinate system of the first imaging unit 200 and the second imaging unit 300 and the world coordinate system of the projection unit 100 is performed in advance. It shall be. In addition, when the positional relationship among the first imaging unit 200, the second imaging unit 300, and the projection unit 100 is changed after the use of the image processing apparatus 400 is started, the calibration may be executed at least once. Here, as an example of a specific calibration method, an arbitrary projection image projected by the projection unit 100 is captured by the first image capturing unit 200 and the second image capturing unit 300, thereby calibrating the image processing apparatus 400. Explain how to execute the application. In this method, it is assumed that calibration is performed in advance for each of the first imaging unit 200 and the second imaging unit 300.

先ず、投影部100は、世界座標系において、ある任意の座標値(x、y)に対して任意のマーカを投影する。当該マーカは、周囲の背景と区別しやすいような任意の色や形状を用いることが可能である。そして、第1撮像部200と第2撮像部300は、所定の投影面10に投影されたマーカを撮像する。続いて、画像処理装置400は、マーカを公知の任意の画像処理によって認識する。例えば、画像処理装置400は、投影部100がマーカとして円形の模様を投影した場合、例えば、「Kimmeら、“Finding circles by an array of accumulators”, Communications of the Association for Computing Machinery, #18, pp.120-122, 1975.」に開示される、ハフ円変換により円形状を認識することが出来る。ここで、画像処理装置400がマーカを認識した際の座標値を(x、y)とする。画像処理装置400は、上述の処理を、任意の場所で4点分繰り返す。画像処理装置400は、当該処理で得られた(x、y)に対応する(x、y)の組の4組から、3行3列のホモグラフィ行列Hの各成分を、8次元連立一次方程式を用いて算出する。なお、ホモグラフィとは、三次元空間上のある平面から別の平面への射影変換を表す行列である。本実施形態においては、画像処理装置400は、第1撮像部200と第2撮像部300の座標平面と投影部100の投影部座標平面との対応付けを求める。画像処理装置400は、算出したホモグラフィ行列を、例えば、図示しないキャッシュまたはメモリに保存しておくことで、画像の投影時においてホモグラフィ行列を利用することが出来る。 First, the projecting unit 100 projects an arbitrary marker on an arbitrary coordinate value (x p , y p ) in the world coordinate system. The marker can use any color or shape that can be easily distinguished from the surrounding background. Then, the first image capturing unit 200 and the second image capturing unit 300 image the marker projected on the predetermined projection plane 10. Subsequently, the image processing apparatus 400 recognizes the marker by any known image processing. For example, when the projection unit 100 projects a circular pattern as a marker, the image processing apparatus 400, for example, “Kimme et al.,“ Finding circles by an array of accumulators ”, Communications of the Association for Computing Machinery, # 18, pp .120-122, 1975. ”, the circular shape can be recognized by the Hough circle transformation. Here, the coordinate value when the image processing apparatus 400 recognizes the marker is assumed to be (x i , y i ). The image processing apparatus 400 repeats the above processing for four points at an arbitrary place. The image processing apparatus 400 converts each component of the 3 × 3 homography matrix H from four sets of (x i , y i ) corresponding to (x p , y p ) obtained by the processing, Calculation is performed using an 8-dimensional simultaneous linear equation. Note that homography is a matrix representing projective transformation from one plane in a three-dimensional space to another plane. In the present embodiment, the image processing apparatus 400 obtains an association between the coordinate planes of the first imaging unit 200 and the second imaging unit 300 and the projection unit coordinate plane of the projection unit 100. The image processing apparatus 400 can use the homography matrix at the time of image projection by storing the calculated homography matrix in, for example, a cache or a memory (not shown).

図2は、紙媒体Dに対する手指FGによる操作の一例を説明するための図である。   FIG. 2 is a diagram for explaining an example of an operation with the finger FG on the paper medium D.

図2(a)に示す通り、ユーザは紙媒体Dを手指FGで触れ(触れた時刻を時刻t1とする)、手指FGを時刻t2の位置まで手指FGをスライドさせ、又は手指FGを時刻t2の位置までなぞり、その後手指FGを紙媒体Dから離脱させる。時刻t1における手指FGの位置から時刻t2における手指FGの位置に基づいた線分を対角線とする矩形領域50が指定箇所として特定され、図2(b)に示される様な矩形領域50の画像情報がスキャン画像として、画像処理装置400に含まれる後述の記憶部410に保存される。矩形領域50の画像情報に対してOptical Character Recognition(OCR:光学文字認識)を実行し文字情報として記憶部410に保存させてもよい。なお、紙媒体Dに対する手指FGの接触と離脱は、例えば、算出される手指FGの深度に基づいて判定することが出来る。例えば、第1撮像部200及び第2撮像部300の座標系における手指FGの位置は、第1画像と第2画像で、紙媒体D上の異なる位置に写っており、当該位置より規定される視差に基づいて二眼ステレオ法で指先の深度が算出される。このように算出された手指FGの深度に基づいて、手指FGの接触と離脱を判定することが出来る。   As shown in FIG. 2A, the user touches the paper medium D with the finger FG (the time of touch is defined as time t1), and the finger FG is slid to the position of time t2, or the finger FG is moved to the time t2. The finger FG is then detached from the paper medium D. A rectangular area 50 having a line segment based on the position of the finger FG at time t2 as a diagonal line from the position of the finger FG at time t1 is specified as a designated location, and image information of the rectangular area 50 as shown in FIG. Are stored in a storage unit 410 (described later) included in the image processing apparatus 400 as a scanned image. Optical character recognition (OCR: optical character recognition) may be performed on the image information of the rectangular area 50 and stored in the storage unit 410 as character information. Note that the contact and separation of the finger FG with respect to the paper medium D can be determined based on, for example, the calculated depth of the finger FG. For example, the position of the finger FG in the coordinate system of the first imaging unit 200 and the second imaging unit 300 is shown in different positions on the paper medium D in the first image and the second image, and is defined from the positions. The depth of the fingertip is calculated by the binocular stereo method based on the parallax. Based on the calculated depth of the finger FG, it is possible to determine whether the finger FG is in contact with or separated from the finger FG.

図3は、新聞紙NPに対する手指FGによる操作の一例を説明するための図である。図4は、新聞紙NPに対する手指FGによる操作の他の一例を説明するための図である。   FIG. 3 is a diagram for explaining an example of the operation with the finger FG for the newspaper NP. FIG. 4 is a diagram for explaining another example of the operation with the finger FG for the newspaper NP.

図3(a)に示すように、投影面10に新聞紙NPの1頁目が置かれると、第1撮像部200及び第2撮像部300は新聞紙NPの1頁目を撮像する。新聞紙NPの1頁目は、第1の撮像対象の一例である。ユーザの手指FGが新聞紙NPに触れながら新聞紙NPの1頁目の一部分である出典部分60を指定する特徴的な動きをすると、第1撮像部200による第1画像及び第2撮像部300による第2画像からその特徴的な動きが検出されて、指定した出典部分60が特定される。そして、特定された出典部分60の画像情報又は出典部分60に含まれる文字情報「2014年8月18日 ○○新聞」は画像処理装置400に保持される。   As shown in FIG. 3A, when the first page of the newspaper NP is placed on the projection surface 10, the first imaging unit 200 and the second imaging unit 300 capture the first page of the newspaper NP. The first page of the newspaper NP is an example of a first imaging target. When the user's finger FG touches the newspaper NP and makes a characteristic movement that designates the source portion 60 that is a part of the first page of the newspaper NP, the first image by the first imaging unit 200 and the second image by the second imaging unit 300 are displayed. The characteristic movement is detected from the two images, and the designated source portion 60 is specified. Then, the image information of the specified source portion 60 or the character information “August 18, 2014 XX newspaper” included in the source portion 60 is held in the image processing apparatus 400.

次に、ユーザの手指FGが新聞紙NPに触れながら、新聞紙NPの1頁目の上記出典部分60と異なる部分であるスクラップ対象部分70を指定する特徴的な動きをすると、第1撮像部200による第1画像及び第2撮像部300による第2画像からその特徴的な動きが検出されて、指定したスクラップ対象部分70が特定される。そして、特定されたスクラップ対象部分70の画像データは、画像処理装置400に保持された画像情報又は文字情報と対応付けられて、図3(b)に示すように、記憶部410に記憶される。これにより、新聞紙NPの1頁目に対するスクラップが完了する。   Next, when the user's finger FG touches the newspaper NP and makes a characteristic movement that designates a scrap target portion 70 that is different from the source portion 60 on the first page of the newspaper NP, the first imaging unit 200 The characteristic movement is detected from the first image and the second image by the second imaging unit 300, and the designated scrap target portion 70 is specified. Then, the specified image data of the scrap target portion 70 is stored in the storage unit 410 as shown in FIG. 3B in association with image information or character information held in the image processing apparatus 400. . Thereby, the scrap for the first page of the newspaper NP is completed.

次に、ユーザが新聞紙NPの別の頁に対するスクラップを望む場合、ユーザは新聞紙NPの頁をめくり、図4(a)に示すように、例えば新聞紙NPの8頁目を投影面10に置く。新聞紙NPの8頁目は第2の撮像対象の一例である。投影面10に1頁目と同様の輪郭を有する8頁目が置かれると、第1撮像部200及び第2撮像部300は新聞紙NPの8頁目を撮像する。この際、新聞紙NPの8頁目では画像処理装置400により新聞紙NPの1頁目の出典部分60に対応する出典部分80が手指FGで指定されなくても、出典部分80は手指FGにより指定された出典部分60の位置と新聞紙NPの1頁目の輪郭との相対的位置関係に基づいて動的に特定される。尚、輪郭が同様であるか否かの判断は画像処理装置400に含まれる後述の第1の部分特定部430及び第2の部分特定部440がエッジ検出処理を実行することにより行われる。エッジ検出処理は、画像の明るさが鋭敏に又は不連続に変化している箇所を特定する処理である。例えば、投影面10に紙媒体Dが置かれた場合、投影面10と紙媒体Dとの境は鋭敏に変化する。エッジ検出処理は、鋭敏に変化している箇所を特定することで、紙媒体Dの輪郭を検出する。   Next, when the user desires scrap for another page of the newspaper NP, the user turns the page of the newspaper NP and places the eighth page of the newspaper NP on the projection plane 10, for example, as shown in FIG. The eighth page of the newspaper NP is an example of a second imaging target. When the eighth page having the same outline as the first page is placed on the projection surface 10, the first imaging unit 200 and the second imaging unit 300 image the eighth page of the newspaper NP. At this time, on the eighth page of the newspaper NP, even if the source portion 80 corresponding to the source portion 60 of the first page of the newspaper NP is not designated by the finger FG by the image processing apparatus 400, the source portion 80 is designated by the finger FG. It is dynamically specified based on the relative positional relationship between the position of the source portion 60 and the outline of the first page of the newspaper NP. Note that whether or not the contours are the same is determined by an edge detection process performed by a later-described first part specifying unit 430 and second part specifying unit 440 included in the image processing apparatus 400. The edge detection process is a process for specifying a portion where the brightness of the image changes sharply or discontinuously. For example, when the paper medium D is placed on the projection surface 10, the boundary between the projection surface 10 and the paper medium D changes sharply. In the edge detection process, the contour of the paper medium D is detected by specifying a sharply changing portion.

したがって、ユーザの手指FGが新聞紙NPに触れながら、新聞紙NPの8頁目のスクラップ対象部分90を指定する特徴的な動きをすると、第1撮像部200による第1画像及び第2撮像部300による第2画像からその特徴的な動きが検出されて、指定したスクラップ対象部分90が特定される。そして、特定されたスクラップ対象部分90の画像データは、動的に特定された出典部分80の画像情報又は文字情報「2014年8月18日 ○○新聞」と対応付けられて、図4(b)に示すように、記憶部410に記憶される。これにより、新聞紙NPの8頁目に対するスクラップが完了する。   Therefore, when the user's finger FG touches the newspaper NP and makes a characteristic movement that specifies the scrap target portion 90 of the eighth page of the newspaper NP, the first image by the first imaging unit 200 and the second imaging unit 300 The characteristic motion is detected from the second image, and the designated scrap target portion 90 is specified. Then, the image data of the specified scrap target portion 90 is associated with the image information or character information “August 18, 2014 XX newspaper” of the dynamically specified source portion 80, and FIG. ) As shown in FIG. Thereby, the scrap for the eighth page of the newspaper NP is completed.

このように、本実施形態に係る画像処理装置400によれば、記事や写真などを含む撮像画像に関するデータを保存する際に、指定した部分に含まれる情報を効率的に対応づけて保存させることができる。   As described above, according to the image processing apparatus 400 according to the present embodiment, when data related to a captured image including an article or a photograph is stored, the information included in the designated portion is efficiently associated and stored. Can do.

続いて、図5を参照して、画像処理装置400の詳細について説明する。   Next, the details of the image processing apparatus 400 will be described with reference to FIG.

図5は、画像処理装置400のブロック図の一例である。
画像処理装置400は、図5に示すように、記憶部410、特徴検出部420、第1の特定手段の一例である第1の部分特定部430、第2の特定手段の一例である第2の部分特定部440及び保存手段の一例である保存部450を含んでいる。
FIG. 5 is an example of a block diagram of the image processing apparatus 400.
As illustrated in FIG. 5, the image processing apparatus 400 includes a storage unit 410, a feature detection unit 420, a first partial identification unit 430 that is an example of a first identification unit, and a second that is an example of a second identification unit. The part specifying unit 440 and the storage unit 450 as an example of the storage unit are included.

記憶部410は、図3及び図4を参照して説明した出典部分60,80の画像情報又は文字情報とスクラップ対象部分70,90とを対応付けて記憶する。   The storage unit 410 stores the image information or character information of the source portions 60 and 80 described with reference to FIGS. 3 and 4 and the scrap target portions 70 and 90 in association with each other.

特徴検出部420は、第1撮像部200及び第2撮像部300によりそれぞれ撮像された第1画像及び第2画像から、紙媒体Dの一部を指定する特徴を検出する。紙媒体Dの一部を指定する特徴は、上述したように、ユーザの手指FGが紙媒体Dに触れながら、手指FGをスライドさせ又はなぞり、その後手指FGを紙媒体Dから離脱させる動作である。手指FGに代えて、筆記具を含む棒状の部材が特定の被写体として利用されてもよい。特徴検出部420は手指FGによる特徴を検出すると、第1画像及び第2画像を第1の部分特定部430及び第2の部分特定部440に送信する。   The feature detection unit 420 detects a feature specifying a part of the paper medium D from the first image and the second image captured by the first imaging unit 200 and the second imaging unit 300, respectively. As described above, the feature of designating a part of the paper medium D is an operation of sliding or tracing the finger FG while the user's finger FG touches the paper medium D, and then releasing the finger FG from the paper medium D. . Instead of the finger FG, a rod-shaped member including a writing instrument may be used as a specific subject. When the feature detection unit 420 detects the feature of the finger FG, the feature detection unit 420 transmits the first image and the second image to the first part specifying unit 430 and the second part specifying unit 440.

第1の部分特定部430は、特徴検出部420から送信された第1画像及び第2画像を受信すると、第1画像及び第2画像内において手指FGにより指定された部分を特定する。例えば紙媒体Dが新聞紙NPである場合、第1の部分特定部430は、手指FGにより指定された矩形の出典部分60やスクラップ対象部分70を特定する。第1の部分特定部430は、出典部分60を特定した場合、出典部分60を表す画像情報又は出典部分60に含まれる文字情報を保持する。第1の部分特定部430は、スクラップ対象部分70を特定した場合、保持した画像情報又は文字情報とスクラップ対象部分70の画像データとを対応付けて保存部450に送信する。   When the first part specifying unit 430 receives the first image and the second image transmitted from the feature detection unit 420, the first part specifying unit 430 specifies a part designated by the finger FG in the first image and the second image. For example, when the paper medium D is newspaper NP, the first part specifying unit 430 specifies the rectangular source part 60 and the scrap target part 70 specified by the finger FG. When the source part 60 is specified, the first part specifying unit 430 holds image information representing the source part 60 or character information included in the source part 60. When the first part specifying unit 430 specifies the scrap target part 70, the first part specifying unit 430 associates the stored image information or character information with the image data of the scrap target part 70 and transmits the image information or character information to the storage unit 450.

第2の部分特定部440は、特徴検出部420から送信された第1画像及び第2画像を保持する。第2の部分特定部440は、特徴検出部420から別の第1画像及び別の第2画像が送信された場合、保持した第1画像と別の第1画像、保持した第2画像と別の第2画像をそれぞれ対比し、保持した第1画像と第2画像により特定される紙媒体Dの頁と、別の第1画像と別の第2画像とにより特定される紙媒体Dの頁が同じであるか否かを判断する。第2の部分特定部440は、紙媒体Dの頁が異なると判断した場合、紙媒体Dの頁がめくられたと判断する。第2の部分特定部440は、紙媒体Dの頁がめくられたと判断した場合、別の第1画像及び別の第2画像内において手指FGにより指定された部分を特定する。例えば紙媒体Dが新聞紙NPである場合、第2の部分特定部440は、出典部分60に対応する出典部分80を動的に特定するとともに、手指FGにより指定された矩形のスクラップ対象部分90を特定する。第2の部分特定部440は、特定した出典部分80の画像情報又は文字情報とスクラップ対象部分90の画像データとを保存部450に送信する。   The second part specifying unit 440 holds the first image and the second image transmitted from the feature detection unit 420. When another first image and another second image are transmitted from the feature detection unit 420, the second part specifying unit 440 is different from the held first image, the different first image, and the held second image. Are compared with each other, the page of the paper medium D specified by the held first image and the second image, and the page of the paper medium D specified by another first image and another second image. Are the same. When determining that the page of the paper medium D is different, the second part specifying unit 440 determines that the page of the paper medium D is turned. When it is determined that the page of the paper medium D has been turned, the second part specifying unit 440 specifies a part designated by the finger FG in another first image and another second image. For example, when the paper medium D is a newspaper NP, the second part specifying unit 440 dynamically specifies the source part 80 corresponding to the source part 60 and also selects the rectangular scrap target part 90 specified by the finger FG. Identify. The second part specifying unit 440 transmits the image information or character information of the specified source part 80 and the image data of the scrap target part 90 to the storage unit 450.

保存部450は、第1の部分特定部430から送信された出典部分60の画像情報又は文字情報とスクラップ対象部分70の画像データを記憶部410に保存する。これにより、記憶部410には、出典部分60と対応付けられたスクラップ対象部分70が保存される。保存部450は、第2の部分特定部440から送信された出典部分80とスクラップ対象部分90を記憶部410に保存する。これにより、記憶部410には、出典部分80と対応付けられたスクラップ対象部分90が保存される。   The storage unit 450 stores the image information or character information of the source part 60 and the image data of the scrap target part 70 transmitted from the first part specifying unit 430 in the storage unit 410. As a result, the scrap target portion 70 associated with the source portion 60 is stored in the storage unit 410. The storage unit 450 stores the source part 80 and the scrap target part 90 transmitted from the second part specifying unit 440 in the storage unit 410. As a result, the scrap target portion 90 associated with the source portion 80 is stored in the storage unit 410.

続いて、図6を参照して、画像処理装置400のハードウェア構成について説明する。   Next, the hardware configuration of the image processing apparatus 400 will be described with reference to FIG.

図6は、画像処理装置400のハードウェア構成の一例である。
図6に示すように、画像処理装置400は、少なくともCentral Processing Unit(CPU)400A、Random Access Memory(RAM)400B、Read Only Memory(ROM)400C及びネットワークI/F(インタフェース)400Dを含んでいる。画像処理装置400は、必要に応じて、Hard Disk Drive(HDD)400E、入力I/F400F、出力I/F400G、入出力I/F400H、ドライブ装置400Iの少なくとも1つを含んでいてもよい。CPU400A・・・ドライブ装置400Iは、内部バス400Jによって互いに接続されている。少なくともCPU400AとRAM400Bとが協働することによってコンピュータが実現される。
FIG. 6 is an example of a hardware configuration of the image processing apparatus 400.
As shown in FIG. 6, the image processing apparatus 400 includes at least a central processing unit (CPU) 400A, a random access memory (RAM) 400B, a read only memory (ROM) 400C, and a network I / F (interface) 400D. . The image processing apparatus 400 may include at least one of a hard disk drive (HDD) 400E, an input I / F 400F, an output I / F 400G, an input / output I / F 400H, and a drive apparatus 400I as necessary. The CPU 400A... Drive device 400I is connected to each other by an internal bus 400J. At least the CPU 400A and the RAM 400B cooperate to realize a computer.

入力I/F400Fには、入力装置510が接続される。入力装置510としては、例えばキーボードやマウスなどがある。
出力I/F400Gには、表示装置520が接続される。表示装置520としては、例えば液晶ディスプレイがある。
入出力I/F400Hには、半導体メモリ530が接続される。半導体メモリ530としては、例えばUniversal Serial Bus(USB)メモリやフラッシュメモリなどがある。入出力I/F400Hは、半導体メモリ530に記憶されたプログラムやデータを読み取る。
入力I/F400F及び入出力I/F400Hは、例えばUSBポートを備えている。出力I/F400Gは、例えばディスプレイポートを備えている。
An input device 510 is connected to the input I / F 400F. Examples of the input device 510 include a keyboard and a mouse.
A display device 520 is connected to the output I / F 400G. An example of the display device 520 is a liquid crystal display.
A semiconductor memory 530 is connected to the input / output I / F 400H. Examples of the semiconductor memory 530 include a universal serial bus (USB) memory and a flash memory. The input / output I / F 400H reads a program and data stored in the semiconductor memory 530.
The input I / F 400F and the input / output I / F 400H include, for example, a USB port. The output I / F 400G includes a display port, for example.

ドライブ装置400Iには、可搬型記録媒体540が挿入される。可搬型記録媒体540としては、例えばCompact Disc(CD)−ROM、Digital Versatile Disc(DVD)といったリムーバブルディスクがある。ドライブ装置400Iは、可搬型記録媒体540に記録されたプログラムやデータを読み込む。
ネットワークI/F400Dは、例えばポートとPhysical Layer Chip(PHYチップ)とを備えている。画像処理装置400は、ネットワークI/F400Dを介してネットワークと接続される。
A portable recording medium 540 is inserted into the drive device 400I. Examples of the portable recording medium 540 include a removable disk such as a Compact Disc (CD) -ROM and a Digital Versatile Disc (DVD). The drive device 400I reads a program and data recorded on the portable recording medium 540.
The network I / F 400D includes, for example, a port and a physical layer chip (PHY chip). The image processing apparatus 400 is connected to the network via the network I / F 400D.

上述したRAM400Bには、ROM400CやHDD400Eに記憶されたプログラムがCPU400Aによって格納される。RAM400Bには、可搬型記録媒体540に記録されたプログラムがCPU400Aによって格納される。格納されたプログラムをCPU400Aが実行することにより、後述する各種の動作が実行される。尚、プログラムは後述するフローチャートに応じたものとすればよい。   In the RAM 400B described above, the program stored in the ROM 400C or the HDD 400E is stored by the CPU 400A. In the RAM 400B, the program recorded on the portable recording medium 540 is stored by the CPU 400A. When the stored program is executed by the CPU 400A, various operations described later are executed. In addition, what is necessary is just to make a program according to the flowchart mentioned later.

続いて、図7乃至図9を参照して、上述した画像処理システムSの動作について説明する。   Next, the operation of the above-described image processing system S will be described with reference to FIGS.

図7は、画像処理システムSの動作の一例を示すフローチャートである。より詳しくは、図7は画像処理装置400が出典部分60を特定する動作を含むフローチャートである。図8は、文字密度の一例について説明するための図である。図9は、画像処理システムSの動作の他の一例を示すフローチャートである。より詳しくは、図9は画像処理装置400がスクラップ対象部分70を特定して出典部分60と対応付け、スクラップ対象部分90を出典部分80と対応付ける動作の一例を示すフローチャートである。   FIG. 7 is a flowchart illustrating an example of the operation of the image processing system S. More specifically, FIG. 7 is a flowchart including an operation in which the image processing apparatus 400 specifies the source portion 60. FIG. 8 is a diagram for explaining an example of character density. FIG. 9 is a flowchart illustrating another example of the operation of the image processing system S. More specifically, FIG. 9 is a flowchart showing an example of an operation in which the image processing apparatus 400 identifies the scrap target portion 70 and associates it with the source portion 60 and associates the scrap target portion 90 with the source portion 80.

まず、図7に示すように、第1撮像部200及び第2撮像部300は投影面10上の紙媒体Dを撮像する(ステップS101)。次いで、特徴検出部420は、ステップS101の処理が完了すると、第1撮像部200による第1画像及び第2撮像部300による第2画像に基づいて、紙媒体Dの文字密度を算出し(ステップS102)、算出した文字密度が20%以上であるか否かを判断する(ステップS103)。文字密度は紙媒体Dの紙面に対する文字の割合である。図8(a)に示すように、紙媒体Dが新聞紙NPである場合、図8(b)に示す書籍BKの表紙に比べて文字密度は高くなる。したがって、特徴検出部420は、算出した文字密度が20%以上である場合(ステップS103:YES)、紙媒体Dは新聞紙NPであると判断する。特徴検出部420は、算出した文字密度が20%未満である場合(ステップS103:NO)、紙媒体Dは書籍BKであると判断する。尚、文字密度を判断する閾値は20%に限定されず、適宜変更してもよい。   First, as shown in FIG. 7, the first imaging unit 200 and the second imaging unit 300 image the paper medium D on the projection surface 10 (step S101). Next, when the process of step S101 is completed, the feature detection unit 420 calculates the character density of the paper medium D based on the first image by the first imaging unit 200 and the second image by the second imaging unit 300 (step S101). S102), it is determined whether or not the calculated character density is 20% or more (step S103). The character density is a ratio of characters to the paper surface of the paper medium D. As shown in FIG. 8A, when the paper medium D is a newspaper NP, the character density is higher than that of the cover of the book BK shown in FIG. 8B. Therefore, when the calculated character density is 20% or more (step S103: YES), the feature detection unit 420 determines that the paper medium D is a newspaper NP. If the calculated character density is less than 20% (step S103: NO), the feature detection unit 420 determines that the paper medium D is a book BK. The threshold for determining the character density is not limited to 20%, and may be changed as appropriate.

紙媒体Dが新聞紙NPであると判断された場合、次いで、第1の部分特定部430は、手指FGで指定された出典部分60を特定し(ステップS104)、特定した出典部分60に含まれる文字情報を抽出する(ステップS105)。これにより、文字情報「2014年8月18日 ○○新聞」(図3(a)参照)が抽出される。尚、ステップS104又はステップS105の際には、第1の部分特定部430は、新聞紙NPの1頁目の輪郭を検出するとともに、手指FGの位置により指定した出典部分60の箇所も検出し、検出した輪郭と出典部分60の箇所との相対的位置関係を算出して保持しておく。ステップS105の処理が完了すると、次いで、第1の部分特定部430は、文字情報をインデックスとして保持し(ステップS106)、出典部分60を特定する処理を終了する。   When it is determined that the paper medium D is the newspaper NP, the first part specifying unit 430 then specifies the source part 60 specified by the finger FG (step S104) and is included in the specified source part 60. Character information is extracted (step S105). Thereby, the character information “August 18, 2014 XX newspaper” (see FIG. 3A) is extracted. In step S104 or step S105, the first part specifying unit 430 detects the outline of the first page of the newspaper NP and also detects the location of the source part 60 designated by the position of the finger FG. The relative positional relationship between the detected contour and the location of the source portion 60 is calculated and held. When the process of step S105 is completed, the first part specifying unit 430 then holds the character information as an index (step S106) and ends the process of specifying the source part 60.

次いで、図3に示すように、手指FGにより矩形のスクラップ対象部分70が指定されると、手指FGの動作が特徴検出部420により検出されて、図9に示すように、第1の部分特定部430は、手指FGにより指定された矩形のスクラップ対象部分70に関する画像データを読み取る(ステップS201)。第1の部分特定部430は、画像データを読み取ると、自身が保持するインデックスを画像データと対応付ける(ステップS202)。ここで、第1の部分特定部430は、紙媒体Dが新聞紙NPであるか否かを判断する(ステップS203)。本実施形態では、ステップS103の処理により、紙媒体Dは新聞紙NPであると判断されているため、後続のステップS204の処理はスキップされる。したがって、ステップS203の処理が完了すると、保存部450はインデックスと画像データとを記憶部410に保存する(ステップS205)。これにより、図3(b)に示すように、スクラップ対象部分70に関する画像データがインデックスとともに記憶部410に保存される。   Next, as shown in FIG. 3, when the rectangular scrap target portion 70 is designated by the finger FG, the movement of the finger FG is detected by the feature detection unit 420, and as shown in FIG. 9, the first part identification is performed. The unit 430 reads image data related to the rectangular scrap target portion 70 designated by the finger FG (step S201). When reading the image data, the first part specifying unit 430 associates the index held by the first part specifying unit 430 with the image data (step S202). Here, the first part specifying unit 430 determines whether or not the paper medium D is newspaper NP (step S203). In the present embodiment, since the paper medium D is determined to be newspaper NP by the process of step S103, the process of the subsequent step S204 is skipped. Therefore, when the process of step S203 is completed, the storage unit 450 stores the index and the image data in the storage unit 410 (step S205). Thereby, as shown in FIG.3 (b), the image data regarding the scrap object part 70 is preserve | saved in the memory | storage part 410 with an index.

次いで、第2の部分特定部440は、紙媒体Dが別の紙面に変更されているか否かを判断する(ステップS206)。当該判断は例えば撮像画像の相違や撮像画像に含まれる頁番号の相違に基づいて行われる。第2の部分特定部440は、紙媒体Dが別の紙面に変更されていると判断した場合(ステップS206:YES)、再び、紙媒体Dが新聞紙NPであるか否かを判断する(ステップS207)。上述したように、本実施形態では、ステップS103の処理により、紙媒体Dは新聞紙NPであると判断されている。したがって、第2の部分特定部440は、紙媒体Dが新聞紙NPであると判断し(ステップS207:YES)、インデックスに対応する出典部分80を特定する(ステップS208)。第2の部分特定部440は、出典部分80を特定する際に、新聞紙NPの8頁目の輪郭と保持している相対的位置関係を利用する。   Next, the second part specifying unit 440 determines whether or not the paper medium D has been changed to another paper surface (step S206). This determination is made based on, for example, a difference in captured images or a difference in page numbers included in the captured images. When it is determined that the paper medium D has been changed to another paper surface (step S206: YES), the second part specifying unit 440 determines again whether the paper medium D is newspaper NP (step S206). S207). As described above, in the present embodiment, it is determined that the paper medium D is the newspaper NP by the process of step S103. Accordingly, the second part specifying unit 440 determines that the paper medium D is the newspaper NP (step S207: YES), and specifies the source part 80 corresponding to the index (step S208). When specifying the source part 80, the second part specifying unit 440 uses the outline of the eighth page of the newspaper NP and the relative positional relationship held.

さらに、第2の部分特定部440は、手指FGにより指定された矩形のスクラップ対象部分90に関する画像データを読み取る(ステップS209)。第2の部分特定部440は、画像データを読み取ると、自身が保持する出典部分80を画像データと対応付け(ステップS210)、保存部450が出典部分80の文字情報と画像データとを記憶部410に保存する(ステップS211)。これにより、図4(b)に示すように、スクラップ対象部分90に関する画像データが出典部分80の文字情報とともに記憶部410に保存される。第2の部分特定部440は、ステップS211の処理が完了すると、再び、紙媒体Dの紙面が変更されているか否かを判断し、紙媒体Dの紙面が変更されていないと判断した場合(ステップS206:NO)、処理を終了する。   Further, the second part specifying unit 440 reads image data related to the rectangular scrap target part 90 designated by the finger FG (step S209). When the second part specifying unit 440 reads the image data, the source part 80 held by itself is associated with the image data (step S210), and the storage unit 450 stores the character information and the image data of the source part 80. 410 is stored (step S211). Thereby, as shown in FIG. 4B, the image data related to the scrap target portion 90 is stored in the storage unit 410 together with the character information of the source portion 80. When the processing of step S211 is completed, the second part specifying unit 440 determines again whether the paper surface of the paper medium D has been changed, and determines that the paper surface of the paper medium D has not been changed ( Step S206: NO), the process ends.

このように、紙媒体Dとして新聞紙NPが利用されてスクラップが行われる場合、新聞紙NPの頁がめくられる度に出典に関する部分を指定しなくても、最初に出典に関する部分を指定しておけば、以降のスクラップではスクラップ対象部分を指定することで、出典に関する部分が動的に対応付けられる。したがって、記事、写真、イラストなどのスクラップにおいて出典部分を対応付ける際の手間を大幅に抑制することができる。   In this way, when the newspaper NP is used as the paper medium D and scrap is performed, even if the source portion is not specified every time the page of the newspaper NP is turned, the source portion is specified first. In the subsequent scraps, by specifying the scrap target part, the part related to the source is dynamically associated. Therefore, it is possible to greatly reduce the trouble of associating the source part with scraps of articles, photographs, illustrations and the like.

次に、図10乃至図12などを参照して、紙媒体Dとして書籍BKを利用した場合について説明する。   Next, a case where the book BK is used as the paper medium D will be described with reference to FIGS.

上述した図7のステップS103の処理において、算出した文字密度が20%未満であることにより、紙媒体Dが書籍BKであると判断された場合、第1の部分特定部430は、書籍BKにおける最大文字を抽出し、題名を仮設定する(ステップS107)。これにより、図8(b)に示す書籍BKの表紙に付された文字の中で最大文字である「動物の生態」が抽出されて、題名に仮設定される。   In the process of step S103 in FIG. 7 described above, when the calculated character density is less than 20% and it is determined that the paper medium D is the book BK, the first part specifying unit 430 determines whether the book BK is in the book BK. The maximum character is extracted and a title is temporarily set (step S107). As a result, among the characters attached to the cover of the book BK shown in FIG. 8B, “animal ecology”, which is the maximum character, is extracted and temporarily set as the title.

次いで、第1の部分特定部430は、書籍BKにおける最下段以外の位置の最小文字を抽出し、著者を仮設定する(ステップS108)。これにより、図8(b)に示す書籍BKの表紙に付された文字の中で最下段以外の位置の最小文字である「△△△△」が抽出されて、著者に仮設定される。尚、第1の部分特定部430は、抽出する際に最大文字及び「△△△△」の隣に付された「著」を除去して抽出する。次いで、第1の部分特定部430は、書籍BKにおける最下段の位置の文字を抽出し、出版社を仮設定する(ステップS109)。これにより、図8(b)に示す書籍BKの表紙に付された文字の中で最下段の位置の文字である「××出版」が抽出されて、出版社に仮設定される。第1の部分特定部430がステップS109の処理を終えると投影部100にその旨を送信し、投影部100は仮設定した内容を投影する(ステップS110)。これにより、図10(a)に示すように、仮設定された題名「動物の生態」、著者「△△△△」及び出版社「××出版」を含む出典画像40と出典画像40に含まれる内容を確定する確定画像41とその内容を修正する修正画像42とが書籍BKの傍の所定位置に投影される。   Next, the first part specifying unit 430 extracts the minimum character at a position other than the lowest level in the book BK, and temporarily sets the author (step S108). As a result, “ΔΔΔΔ”, which is the smallest character at a position other than the lowest level, is extracted from the characters attached to the cover of the book BK shown in FIG. 8B, and is temporarily set to the author. The first part specifying unit 430 removes and extracts the largest character and “author” attached next to “ΔΔΔΔ” when extracting. Next, the first part specifying unit 430 extracts the character at the lowest position in the book BK, and temporarily sets the publisher (step S109). As a result, “xx publication”, which is the character at the lowest position, is extracted from the characters attached to the cover of the book BK shown in FIG. 8B and is temporarily set to the publisher. When the first part specifying unit 430 finishes the process of step S109, the first part specifying unit 430 transmits a message to that effect to the projection unit 100, and the projection unit 100 projects the temporarily set content (step S110). As a result, as shown in FIG. 10 (a), the provisionally set title image “Animal Ecology”, author “△△△△” and publisher “XX Publishing” are included in the source image 40 and the source image 40. The confirmed image 41 for confirming the content to be read and the corrected image 42 for correcting the content are projected at a predetermined position near the book BK.

第1の部分特定部430は、出典画像40に含まれる内容に修正があるか否かを判断する(ステップS111)。例えば、図10(b)に示すように、修正画像42に対し手指FGが提示されて投影面10の修正画像42に触れた場合、第1の部分特定部430は、第1撮像部200による第1画像及び第2撮像部300による第2画像に含まれる手指FGの深度に基づいて、出典画像40に含まれる内容に修正があると判断する(ステップS111:YES)。この場合、投影部100は、図10(c)に示すように、キーボード画像43を投影する(ステップS112)。ユーザはキーボード画像43に対し手指FGを提示して投影面10におけるキーボード画像43の各キーに適宜触れて、出典画像40に含まれる題名、著者及び出版社を修正する。OCR処理の精度が低い場合、正確な題名等が保存されなくなるおそれがあるが、題名等は修正可能なため正確な出典を記憶部410に保存させることができる。   The first part specifying unit 430 determines whether or not the content included in the source image 40 is modified (step S111). For example, as illustrated in FIG. 10B, when the finger FG is presented to the corrected image 42 and the corrected image 42 on the projection surface 10 is touched, the first part specifying unit 430 is performed by the first imaging unit 200. Based on the first image and the depth of the finger FG included in the second image by the second imaging unit 300, it is determined that the content included in the source image 40 is corrected (step S111: YES). In this case, the projection unit 100 projects the keyboard image 43 as shown in FIG. 10C (step S112). The user corrects the title, author, and publisher included in the source image 40 by presenting the finger FG to the keyboard image 43 and appropriately touching each key of the keyboard image 43 on the projection surface 10. If the accuracy of the OCR process is low, an accurate title or the like may not be stored. However, since the title can be corrected, an accurate source can be stored in the storage unit 410.

第1の部分特定部430は、第1撮像部200による第1画像及び第2撮像部300による第2画像に含まれる手指FGの深度に基づいて、出典画像40に含まれる内容を修正して投影する。例えば、確定画像41に対し手指FGが提示されて投影面10の確定画像41に触れた場合、第1の部分特定部430は、第1撮像部200による第1画像及び第2撮像部300による第2画像に含まれる手指FGの深度に基づいて、出典画像40に含まれる内容に修正がないと判断する(ステップS111:NO)。ステップS111の処理において修正がないと判断された場合、第1の部分特定部430は、ステップS106の処理を実行する。これにより、出典画像40に含まれる内容がインデックスとして保持される。このように、紙媒体Dとして書籍BKが利用される場合には、出典画像40に含まれる内容を手指FGで指定しなくても、動的にその内容が抽出される。   The first part specifying unit 430 modifies the content included in the source image 40 based on the depth of the finger FG included in the first image by the first imaging unit 200 and the second image by the second imaging unit 300. Project. For example, when the finger FG is presented to the confirmed image 41 and the confirmed image 41 on the projection plane 10 is touched, the first part specifying unit 430 is generated by the first image by the first imaging unit 200 and the second imaging unit 300. Based on the depth of the finger FG included in the second image, it is determined that the content included in the source image 40 is not corrected (step S111: NO). When it is determined that there is no correction in the process of step S111, the first part specifying unit 430 executes the process of step S106. Thereby, the content included in the source image 40 is held as an index. As described above, when the book BK is used as the paper medium D, the content is dynamically extracted even if the content included in the source image 40 is not specified by the finger FG.

次いで、図11(a)に示すように、手指FGにより矩形のスクラップ対象部分20が指定されると、手指FGの動作が特徴検出部420により検出されて、第1の部分特定部430は、図9に示すように、手指FGにより指定された矩形のスクラップ対象部分20に関する画像データを読み取る(ステップS201)。第1の部分特定部430は、画像データを読み取ると、自身が保持するインデックスを画像データと対応付ける(ステップS202)。ここで、第1の部分特定部430は、紙媒体Dが新聞紙NPであるか否かを判断する(ステップS203)。本実施形態では、ステップS103の処理により、紙媒体Dは書籍BKであると判断されているため、第1の部分特定部430は、紙媒体D下部の数値情報を読み取り、保存したインデックスと関連付ける(ステップS204)。尚、紙媒体D下部に記載された頁番号を表す数値情報の部分を手指FGで指定するようにしてもよい。これにより、別の頁に移行した場合でも当該部分に対応する部分が後に特定され、数値情報を対応付ける手間が省かれる。ステップS204の処理が完了すると、数値情報と関連付けられたインデックスと画像データとを保存部450が記憶部410に保存する(ステップS205)。これにより、図11(b)に示すように、スクラップ対象部分20に関する画像データがインデックス及び頁番号とともに記憶部410に保存される。   Next, as shown in FIG. 11A, when the rectangular scrap target portion 20 is designated by the finger FG, the movement of the finger FG is detected by the feature detection unit 420, and the first part specifying unit 430 As shown in FIG. 9, image data relating to the rectangular scrap target portion 20 designated by the finger FG is read (step S201). When reading the image data, the first part specifying unit 430 associates the index held by the first part specifying unit 430 with the image data (step S202). Here, the first part specifying unit 430 determines whether or not the paper medium D is newspaper NP (step S203). In the present embodiment, since the paper medium D is determined to be the book BK by the process of step S103, the first part specifying unit 430 reads the numerical information below the paper medium D and associates it with the saved index. (Step S204). It should be noted that the numerical information part indicating the page number written at the bottom of the paper medium D may be designated with the finger FG. Thereby, even when moving to another page, the part corresponding to the part is specified later, and the labor of associating numerical information is saved. When the process of step S204 is completed, the storage unit 450 stores the index and image data associated with the numerical information in the storage unit 410 (step S205). As a result, as shown in FIG. 11B, the image data regarding the scrap target portion 20 is stored in the storage unit 410 together with the index and the page number.

次いで、第2の部分特定部440は、紙媒体Dの紙面が変更されているか否かを判断する(ステップS206)。図12に示すように、書籍BKの頁が第1の撮像対象としての10頁目から第2の撮像対象としての15頁目に変更されている場合、第2の部分特定部440は、紙媒体Dの紙面が変更されていると判断する(ステップS206:YES)。この場合、再び、紙媒体Dが新聞紙NPであるか否かを判断する(ステップS207)。上述したように、本実施形態では、ステップS103の処理により、紙媒体Dは書籍BKであると判断されている。したがって、第2の部分特定部440は、紙媒体Dが書籍BKであると判断し(ステップS207:NO)、ステップS201からS205の処理を繰り返す。   Next, the second part specifying unit 440 determines whether or not the paper surface of the paper medium D has been changed (step S206). As shown in FIG. 12, when the page of the book BK is changed from the 10th page as the first imaging target to the 15th page as the second imaging target, the second part specifying unit 440 It is determined that the paper surface of the medium D has been changed (step S206: YES). In this case, it is determined again whether or not the paper medium D is the newspaper NP (step S207). As described above, in the present embodiment, it is determined that the paper medium D is the book BK by the process of step S103. Accordingly, the second part specifying unit 440 determines that the paper medium D is the book BK (step S207: NO), and repeats the processing from steps S201 to S205.

この結果、図12(a)に示すように、手指FGにより矩形のスクラップ対象部分21が指定されると、手指FGの動作が特徴検出部420により検出されて、手指FGにより指定された矩形のスクラップ対象部分21に関する画像データが読み取られる。画像データが読み取られると、自身が保持するインデックス、すなわち、出典画像40に含まれる題名、著者及び出版社が画像データと対応付けられる。さらに、本実施形態では、紙媒体Dが書籍BKであると判断されている。このため、紙媒体D下部の数値情報が読み取られ、保持したインデックスと関連付けられ、インデックスと数値情報と画像データとが記憶部410に保存される。これにより、図12(b)に示すように、スクラップ対象部分21に関する画像データがインデックス及び頁番号とともに記憶部410に保存される。   As a result, as shown in FIG. 12A, when the rectangular scrap target portion 21 is designated by the finger FG, the motion of the finger FG is detected by the feature detection unit 420, and the rectangular shape designated by the finger FG is detected. Image data relating to the scrap target portion 21 is read. When the image data is read, an index held by itself, that is, a title, an author, and a publisher included in the source image 40 are associated with the image data. Further, in the present embodiment, it is determined that the paper medium D is the book BK. Therefore, the numerical information at the bottom of the paper medium D is read and associated with the held index, and the index, numerical information, and image data are stored in the storage unit 410. Thereby, as shown in FIG. 12B, the image data regarding the scrap target portion 21 is stored in the storage unit 410 together with the index and the page number.

このように、紙媒体Dとして書籍BKが利用される場合でも、記事や写真などを含む撮像画像に関する画像データを保存する際に、動的に抽出した部分に含まれる出典に関する情報を効率的に対応づけて保存させることができる。   As described above, even when the book BK is used as the paper medium D, information about the source included in the dynamically extracted portion is efficiently stored when storing the image data regarding the captured image including articles and photographs. It can be stored in association.

尚、上述した実施形態では、紙媒体Dが新聞紙NPか書籍BKであるかを判断する際に文字密度を利用したが、例えば、図13に示すように、B5サイズ相当の枠30を事前に画像処理装置400に登録しておき、紙媒体Dの大きさが枠30の大きさ以上であれば新聞紙NPと判断する。逆に、紙媒体Dの大きさが枠30の大きさ未満であれば書籍BKと判断する。このような手法によっても紙媒体Dが新聞紙NPか書籍BKであるかを判断することができる。   In the embodiment described above, the character density is used when determining whether the paper medium D is the newspaper NP or the book BK. For example, as shown in FIG. If it is registered in the image processing apparatus 400 and the size of the paper medium D is equal to or larger than the size of the frame 30, it is determined as newspaper NP. Conversely, if the size of the paper medium D is less than the size of the frame 30, it is determined as a book BK. It is possible to determine whether the paper medium D is the newspaper NP or the book BK also by such a method.

以上、本発明の好ましい実施形態について詳述したが、本発明に係る特定の実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形・変更が可能である。例えば、上述したタッチの文言には、手指FGで画像に直接触れずに手指FGを画像にかざすことで移動可能なホバリング機能を含むタッチも含めてもよい。また、新聞紙NPにおけるスクラップ対象部分70,90や書籍BKにおけるスクラップ対象部分20,21は紙面の一部でなく紙面の全体であってもよい。   The preferred embodiments of the present invention have been described in detail above, but the present invention is not limited to the specific embodiments according to the present invention, and various modifications are possible within the scope of the gist of the present invention described in the claims.・ Change is possible. For example, the touch wording described above may include a touch including a hovering function that can be moved by holding the finger FG over the image without directly touching the image with the finger FG. Further, the scrap target portions 70 and 90 in the newspaper NP and the scrap target portions 20 and 21 in the book BK may be the entire paper surface instead of a part of the paper surface.

なお、以上の説明に関して更に以下の付記を開示する。
(付記1)第1の撮像対象を撮像して得られた撮像画像から前記第1の撮像対象の一部を指定する特徴が検出されると、検出された前記特徴が指定する前記第1の撮像対象の撮像画像内における第1の部分を特定し、特定した前記第1の部分に含まれる情報を前記第1の撮像対象の撮像画像に関して保存する第1のデータと対応づけて記憶部に保存し、前記第1の撮像対象と同様の輪郭を有する第2の撮像対象を撮像した撮像画像内における、前記第1の部分に対応する第2の部分を特定し、特定した前記第2の部分に含まれる情報を前記第2の撮像対象の撮像画像に関して保存する第2のデータと対応づけて前記記憶部に保存する、処理をコンピュータが実行することを特徴とする画像処理方法。
(付記2)前記第1の撮像対象及び前記第2の撮像対象は、紙媒体であって、前記第1の部分及び前記第2の部分は、前記紙媒体の出典又は頁番号に関する情報を含み、前記第1のデータは、前記第1の撮像対象における、前記第1の部分と異なる第3の部分のデータであって、前記第2のデータは、前記第2の撮像対象における、前記第2の部分と異なる第4の部分のデータである、ことを特徴とする付記1に記載の画像処理方法。
(付記3)紙媒体の表紙である第3の撮像対象を撮像して得られた撮像画像に現れる文字の大きさと位置に基づいて、前記紙媒体の出典を特定し、特定した前記出典を前記第1のデータ及び前記第2のデータとそれぞれ対応づけて前記記憶部に保存する、ことを特徴とする付記1又は2に記載の画像処理方法。
(付記4)撮像対象を撮像装置で撮像して得られた撮像画像についてエッジ検出処理を実行して前記撮像対象の輪郭を検出し、前記撮像対象の一部を指定する指定箇所を、該撮像対象の撮像画像に写りこんだ特定の被写体の位置によって検出し、検出した前記輪郭と前記指定箇所との相対的位置関係を算出し、他の撮像対象についてエッジ検出処理を実行して得られた該他の撮像対象の輪郭と、算出した前記相対的位置関係とに基づいて特定される、前記他の撮像対象の撮像画像の一部に含まれる情報を前記他の撮像対象の撮像画像に関して保存するデータと対応づけて記憶部に保存する、処理をコンピュータが実行することを特徴とする画像処理方法。
(付記5)第1の撮像対象を撮像して得られた撮像画像から前記第1の撮像対象の一部を指定する特徴が検出されると、検出された前記特徴が指定する前記第1の撮像対象の撮像画像内における第1の部分を特定し、特定した前記第1の部分に含まれる情報を前記第1の撮像対象の撮像画像に関して保存する第1のデータと対応づけて記憶部に保存し、前記第1の撮像対象と同様の輪郭を有する第2の撮像対象を撮像した撮像画像内における、前記第1の部分に対応する第2の部分を特定し、特定した前記第2の部分に含まれる情報を前記第2の撮像対象の撮像画像に関して保存する第2のデータと対応づけて前記記憶部に保存する、処理をコンピュータに実行させることを特徴とする画像処理プログラム。
(付記6)第1の撮像対象を撮像して得られた撮像画像から前記第1の撮像対象の一部を指定する特徴が検出されると、検出された前記特徴が指定する前記第1の撮像対象の撮像画像内における第1の部分を特定する第1の特定手段と、前記第1の撮像対象と同様の輪郭を有する第2の撮像対象を撮像した撮像画像内における、前記第1の部分に対応する第2の部分を特定する第2の特定手段と、特定した前記第1の部分に含まれる情報を前記第1の撮像対象の撮像画像に関して保存する第1のデータと対応づけて記憶部に保存し、特定した前記第2の部分に含まれる情報を前記第2の撮像対象の撮像画像に関して保存する第2のデータと対応づけて前記記憶部に保存する保存手段と、を有することを特徴とする画像処理装置。
(付記7)前記第1の撮像対象及び前記第2の撮像対象は、紙媒体であって、前記第1の部分及び前記第2の部分は、前記紙媒体の出典又は頁番号に関する情報を含み、前記第1のデータは、前記第1の撮像対象における、前記第1の部分と異なる第3の部分のデータであって、前記第2のデータは、前記第2の撮像対象における、前記第2の部分と異なる第4の部分のデータである、ことを特徴とする付記6に記載の画像処理装置。
(付記8)第1の特定手段は、紙媒体の表紙である第3の撮像対象を撮像して得られた撮像画像に現れる文字の大きさと位置に基づいて、前記紙媒体の出典を特定し、特定した前記出典を前記第1のデータ及び前記第2のデータとそれぞれ対応づけて前記記憶部に保存する、ことを特徴とする付記6又は7に記載の画像処理装置。
In addition, the following additional notes are disclosed regarding the above description.
(Appendix 1) When a feature that specifies a part of the first imaging target is detected from a captured image obtained by imaging the first imaging target, the first feature that is specified by the detected feature is detected. A first portion in the captured image of the imaging target is identified, and information included in the identified first portion is associated with first data to be stored regarding the captured image of the first imaging target in the storage unit. The second portion corresponding to the first portion is specified in the captured image obtained by capturing and capturing the second imaging target having the same outline as the first imaging target, and the identified second An image processing method, wherein a computer executes a process of storing information included in a part in the storage unit in association with second data stored with respect to a captured image of the second imaging target.
(Supplementary Note 2) The first imaging target and the second imaging target are paper media, and the first part and the second part include information on the source or page number of the paper medium. The first data is data of a third part different from the first part in the first imaging target, and the second data is the second data in the second imaging target. The image processing method according to appendix 1, wherein the data is a data of a fourth portion different from the portion of 2.
(Additional remark 3) Based on the size and position of the character which appears in the captured image obtained by imaging the 3rd imaging target which is a cover of a paper medium, the source of the paper medium is specified, and the specified source is The image processing method according to appendix 1 or 2, wherein the first data and the second data are stored in the storage unit in association with each other.
(Supplementary Note 4) Edge detection processing is performed on a captured image obtained by imaging the imaging target with the imaging device to detect the contour of the imaging target, and a designated portion for designating a part of the imaging target is captured. Detected by the position of a specific subject in the captured image of the target, obtained by calculating the relative positional relationship between the detected contour and the specified location, and performing edge detection processing on other imaging targets Information included in a part of the captured image of the other imaging target, which is specified based on the contour of the other imaging target and the calculated relative positional relationship, is stored for the captured image of the other imaging target. An image processing method, wherein a computer executes a process of storing in a storage unit in association with data to be performed.
(Supplementary Note 5) When a feature that specifies a part of the first imaging target is detected from a captured image obtained by imaging the first imaging target, the first feature specified by the detected feature is detected. A first portion in the captured image of the imaging target is identified, and information included in the identified first portion is associated with first data to be stored regarding the captured image of the first imaging target in the storage unit. The second portion corresponding to the first portion is specified in the captured image obtained by capturing and capturing the second imaging target having the same outline as the first imaging target, and the identified second An image processing program for causing a computer to execute a process of storing information included in a portion in association with second data stored with respect to a captured image of the second imaging target and storing the information in the storage unit.
(Supplementary Note 6) When a feature that specifies a part of the first imaging target is detected from a captured image obtained by imaging the first imaging target, the first feature specified by the detected feature is detected. First identification means for identifying a first portion in a captured image of the imaging target, and the first in the captured image obtained by capturing a second imaging target having the same contour as the first imaging target. A second specifying unit that specifies a second part corresponding to the part, and information included in the specified first part is associated with first data to be stored for the captured image of the first imaging target. Storage means for storing in the storage unit in association with the second data to be stored in the storage unit and the information included in the specified second part stored with respect to the captured image of the second imaging target An image processing apparatus.
(Supplementary note 7) The first imaging object and the second imaging object are paper media, and the first part and the second part include information on the source or page number of the paper medium. The first data is data of a third part different from the first part in the first imaging target, and the second data is the second data in the second imaging target. The image processing apparatus according to appendix 6, wherein the image processing apparatus is data of a fourth part different from the part of 2.
(Supplementary Note 8) The first specifying means specifies the source of the paper medium based on the size and position of the character appearing in the captured image obtained by imaging the third imaging target that is the cover of the paper medium. The image processing apparatus according to appendix 6 or 7, wherein the identified source is stored in the storage unit in association with the first data and the second data, respectively.

S 画像処理システム
100 投影部
200 第1撮像部
300 第2撮像部
400 画像処理装置
410 記憶部
420 特徴検出部
430 第1の部分特定部
440 第2の部分特定部
450 保存部
DESCRIPTION OF SYMBOLS S Image processing system 100 Projection part 200 1st imaging part 300 2nd imaging part 400 Image processing apparatus 410 Storage part 420 Feature detection part 430 1st partial specific part 440 2nd partial specific part 450 Storage part

Claims (4)

第1の撮像対象を撮像して得られた撮像画像から前記第1の撮像対象の一部を指定する特徴が検出されると、検出された前記特徴が指定する前記第1の撮像対象の撮像画像内における第1の部分を特定し、
特定した前記第1の部分に含まれる情報を前記第1の撮像対象の撮像画像に関して保存する第1のデータと対応づけて記憶部に保存し、
前記第1の撮像対象と同様の輪郭を有する第2の撮像対象を撮像した撮像画像内における、前記第1の部分に対応する第2の部分を特定し、
特定した前記第2の部分に含まれる情報を前記第2の撮像対象の撮像画像に関して保存する第2のデータと対応づけて前記記憶部に保存する、
処理をコンピュータが実行することを特徴とする画像処理方法。
When a feature specifying a part of the first imaging target is detected from a captured image obtained by imaging the first imaging target, imaging of the first imaging target specified by the detected feature is performed. Identify the first part in the image,
The information included in the identified first part is stored in the storage unit in association with the first data to be stored regarding the captured image of the first imaging target,
Identifying a second portion corresponding to the first portion in a captured image obtained by capturing a second imaging target having the same outline as the first imaging target;
Storing the information included in the identified second part in the storage unit in association with the second data stored with respect to the captured image of the second imaging target;
An image processing method, wherein the computer executes the processing.
前記第1の撮像対象及び前記第2の撮像対象は、紙媒体であって、
前記第1の部分及び前記第2の部分は、前記紙媒体の出典又は頁番号に関する情報を含み、
前記第1のデータは、前記第1の撮像対象における、前記第1の部分と異なる第3の部分のデータであって、
前記第2のデータは、前記第2の撮像対象における、前記第2の部分と異なる第4の部分のデータである、
ことを特徴とする請求項1に記載の画像処理方法。
The first imaging target and the second imaging target are paper media,
The first part and the second part include information on the source or page number of the paper medium,
The first data is data of a third part different from the first part in the first imaging target,
The second data is data of a fourth part different from the second part in the second imaging target.
The image processing method according to claim 1.
紙媒体の表紙である第3の撮像対象を撮像して得られた撮像画像に現れる文字の大きさと位置に基づいて、前記紙媒体の出典を特定し、
特定した前記出典を前記第1のデータ及び前記第2のデータとそれぞれ対応づけて前記記憶部に保存する、
ことを特徴とする請求項1又は2に記載の画像処理方法。
Identifying the source of the paper medium based on the size and position of the characters appearing in the captured image obtained by imaging the third imaging target that is the cover of the paper medium;
Storing the identified source in the storage unit in association with the first data and the second data, respectively.
The image processing method according to claim 1, wherein:
撮像対象を撮像装置で撮像して得られた撮像画像についてエッジ検出処理を実行して前記撮像対象の輪郭を検出し、
前記撮像対象の一部を指定する指定箇所を、該撮像対象の撮像画像に写りこんだ特定の被写体の位置によって検出し、
検出した前記輪郭と前記指定箇所との相対的位置関係を算出し、
他の撮像対象についてエッジ検出処理を実行して得られた該他の撮像対象の輪郭と、算出した前記相対的位置関係とに基づいて特定される、前記他の撮像対象の撮像画像の一部に含まれる情報を前記他の撮像対象の撮像画像に関して保存するデータと対応づけて記憶部に保存する、
処理をコンピュータが実行することを特徴とする画像処理方法。
An edge detection process is performed on a captured image obtained by imaging the imaging target with an imaging device to detect the contour of the imaging target;
A designated portion for designating a part of the imaging target is detected by a position of a specific subject reflected in the captured image of the imaging target;
Calculating the relative positional relationship between the detected contour and the specified location;
A part of the captured image of the other imaging target specified based on the contour of the other imaging target obtained by executing the edge detection process on the other imaging target and the calculated relative positional relationship Storing the information included in the storage unit in association with the data to be stored regarding the captured image of the other imaging target,
An image processing method, wherein the computer executes the processing.
JP2014174230A 2014-08-28 2014-08-28 Image processing method Withdrawn JP2016051191A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014174230A JP2016051191A (en) 2014-08-28 2014-08-28 Image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014174230A JP2016051191A (en) 2014-08-28 2014-08-28 Image processing method

Publications (1)

Publication Number Publication Date
JP2016051191A true JP2016051191A (en) 2016-04-11

Family

ID=55658688

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014174230A Withdrawn JP2016051191A (en) 2014-08-28 2014-08-28 Image processing method

Country Status (1)

Country Link
JP (1) JP2016051191A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018113567A (en) * 2017-01-11 2018-07-19 京セラドキュメントソリューションズ株式会社 Information processing apparatus and program
JP2020201435A (en) * 2019-06-12 2020-12-17 株式会社ポニーキャニオン Information processing terminal and information processing method

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018113567A (en) * 2017-01-11 2018-07-19 京セラドキュメントソリューションズ株式会社 Information processing apparatus and program
JP2020201435A (en) * 2019-06-12 2020-12-17 株式会社ポニーキャニオン Information processing terminal and information processing method

Similar Documents

Publication Publication Date Title
JP6007497B2 (en) Image projection apparatus, image projection control apparatus, and program
JP6248533B2 (en) Image processing apparatus, image processing method, and image processing program
US20140351718A1 (en) Information processing device, information processing method, and computer-readable medium
US20190385285A1 (en) Image Processing Method and Device
KR102236616B1 (en) Information processing apparatus, control method thereof, and storage medium
US9607394B2 (en) Information processing method and electronic device
US10452943B2 (en) Information processing apparatus, control method of information processing apparatus, and storage medium
JP2010134876A (en) Information processing device and method
JP2016071746A (en) Information projection method, information projection program, and information processing device
CN105607825B (en) Method and apparatus for image processing
JPWO2016006090A1 (en) Electronic device, method and program
JPWO2015145571A1 (en) Terminal device, display control method, and program
US9170733B2 (en) Information processing apparatus, information processing method, and non-transitory computer readable medium
US9619101B2 (en) Data processing system related to browsing
JP2016051191A (en) Image processing method
US20150138077A1 (en) Display system and display controll device
JP2017199288A (en) Image processing device, image processing method and program
US11163992B2 (en) Information processing apparatus and non-transitory computer readable medium
JP6312488B2 (en) Image processing apparatus, image processing method, and program
JP6639257B2 (en) Information processing apparatus and control method therefor
US9912834B2 (en) Document camera device and cutout assistance method
JP6717228B2 (en) Image reading apparatus, image reading method, and image forming apparatus
JP2014203119A (en) Input device, input processing method, and program
JP6007496B2 (en) Display system, display program, and display method
JP6521481B2 (en) Image correction apparatus, image correction method, program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170511

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20180122