JP2016051191A - Image processing method - Google Patents
Image processing method Download PDFInfo
- Publication number
- JP2016051191A JP2016051191A JP2014174230A JP2014174230A JP2016051191A JP 2016051191 A JP2016051191 A JP 2016051191A JP 2014174230 A JP2014174230 A JP 2014174230A JP 2014174230 A JP2014174230 A JP 2014174230A JP 2016051191 A JP2016051191 A JP 2016051191A
- Authority
- JP
- Japan
- Prior art keywords
- image
- imaging
- imaging target
- data
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Editing Of Facsimile Originals (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
本件は、画像処理方法に関する。 This case relates to an image processing method.
新聞紙や書籍(例えば雑誌や図書等)又はこれらの複写物から記事や写真などを切り抜いてスクラップすることは広く行われている。また、新聞紙や書籍を広げた状態でスキャン可能な画像処理装置も知られている(例えば特許文献1参照)。当該画像処理装置によれば、新聞紙や書籍における必要な頁の記事や写真を手指で指定してデータ化し、スクラップすることができる。この場合、記事や写真などのデータは記憶装置に保存される。 2. Description of the Related Art It is widely practiced to cut out articles and photographs from newspapers and books (for example, magazines and books) or copies thereof and scrap them. There is also known an image processing apparatus that can scan a newspaper or a book in an unfolded state (see, for example, Patent Document 1). According to the image processing apparatus, articles and photos of necessary pages in newspapers and books can be designated with fingers and converted into data for scrapping. In this case, data such as articles and photographs are stored in the storage device.
記事や写真などをスクラップした場合、併せて出典部分も切り抜いてスクラップすることも広く行われている。これにより、スクラップした記事や写真などの出典を後日容易に認識することが可能となる。記事や写真などをデータ化してスクラップする場合には、併せて出典部分に含まれる情報もスクラップすることが望まれる。例えば文書を撮像して、その撮像画像から文書の書誌事項を抽出する技術は知られている(例えば特許文献2及び3参照)。 When scrapping articles and photos, it is also common to scrap the source part. This makes it possible to easily recognize the source of scrapped articles and photos at a later date. When scrapping articles and photos as data, it is desirable to also scrap information included in the source part. For example, a technique for imaging a document and extracting bibliographic items of the document from the captured image is known (see, for example, Patent Documents 2 and 3).
ところで、記事や写真などのデータを出典部分の情報とともにスクラップする場合、頁をめくる度にその情報とそのデータとをそれぞれ指定して一緒にスクラップすることは非常に手間がかかるという問題がある。上述した特許文献2及び3は、書誌事項を抽出する技術を開示するものの、記事や写真などのデータをスクラップする際に書誌事項を抽出することを開示していない。 By the way, when scraping data such as articles and photographs together with the information of the source part, there is a problem that it is very time-consuming to specify the information and the data each time the page is turned and to scrape together. Patent Documents 2 and 3 described above disclose techniques for extracting bibliographic items, but do not disclose extracting bibliographic items when scraping data such as articles and photographs.
そこで、1つの側面では、記事や写真などのデータを保存する際に、指定した部分に含まれる情報を効率的に対応づけて保存させることが可能な画像処理方法を提供することを目的とする。 Therefore, in one aspect, an object of the present invention is to provide an image processing method capable of efficiently associating and storing information included in a specified portion when storing data such as articles and photographs. .
本明細書に開示の画像処理方法は、第1の撮像対象を撮像して得られた撮像画像から前記第1の撮像対象の一部を指定する特徴が検出されると、検出された前記特徴が指定する前記第1の撮像対象の撮像画像内における第1の部分を特定し、特定した前記第1の部分に含まれる情報を前記第1の撮像対象の撮像画像に関して保存する第1のデータと対応づけて記憶部に保存し、前記第1の撮像対象と同様の輪郭を有する第2の撮像対象を撮像した撮像画像内における、前記第1の部分に対応する第2の部分を特定し、特定した前記第2の部分に含まれる情報を前記第2の撮像対象の撮像画像に関して保存する第2のデータと対応づけて前記記憶部に保存する、処理をコンピュータが実行することを特徴とする画像処理方法である。 In the image processing method disclosed in the present specification, when a feature specifying a part of the first imaging target is detected from a captured image obtained by imaging the first imaging target, the detected feature is detected. 1st data which specifies the 1st part in the picked-up image of the said 1st pick-up object specified by and stores the information contained in the specified said 1st part about the picked-up image of the 1st pick-up object. And a second portion corresponding to the first portion in the captured image obtained by capturing the second imaging target having the same contour as the first imaging target is specified. The computer executes a process of storing the information included in the specified second part in the storage unit in association with the second data stored with respect to the captured image of the second imaging target. This is an image processing method.
本明細書に開示の画像処理方法は、撮像対象を撮像装置で撮像して得られた撮像画像についてエッジ検出処理を実行して前記撮像対象の輪郭を検出し、前記撮像対象の一部を指定する指定箇所を、該撮像対象の撮像画像に写りこんだ特定の被写体の位置によって検出し、検出した前記輪郭と前記指定箇所との相対的位置関係を算出し、他の撮像対象についてエッジ検出処理を実行して得られた該他の撮像対象の輪郭と、算出した前記相対的位置関係とに基づいて特定される、前記他の撮像対象の撮像画像の一部に含まれる情報を前記他の撮像対象の撮像画像に関して保存するデータと対応づけて記憶部に保存する、処理をコンピュータが実行することを特徴とする画像処理方法である。 In the image processing method disclosed in this specification, an edge detection process is performed on a captured image obtained by imaging an imaging target with an imaging device to detect an outline of the imaging target, and a part of the imaging target is specified. A specified location to be detected is detected based on the position of a specific subject reflected in the captured image of the imaging target, a relative positional relationship between the detected contour and the specified location is calculated, and edge detection processing is performed on another imaging target Information included in a part of the captured image of the other imaging target, which is specified based on the contour of the other imaging target obtained by executing the above and the calculated relative positional relationship. The image processing method is characterized in that a computer executes a process of storing in a storage unit in association with data to be stored regarding a captured image to be captured.
本明細書に開示の画像処理方法によれば、記事や写真などのデータを保存する際に、指定した部分に含まれる情報を効率的に対応づけて保存させることができる。 According to the image processing method disclosed in this specification, when data such as articles and photographs are stored, information included in a designated portion can be efficiently associated and stored.
以下、本件を実施するための形態について図面を参照して説明する。 Hereinafter, an embodiment for carrying out this case will be described with reference to the drawings.
図1は、画像処理システムSの一例を説明するための図である。
画像処理システムSは、投影部100、第1撮像部200、第2撮像部300及び画像処理装置400を含んでいる。画像処理装置400は、投影部100、第1撮像部200、第2撮像部300と有線または無線を介して通信可能に接続される。なお、画像処理装置400は、図示しない通信部を有しており、通信回線を介して様々な外部装置と双方向にデータの送受信を行うことによりネットワークリソースを用いることが可能である。更に、投影部100は、必要に応じて画像処理システムSに含まれれば良く、必ずしも必要な構成要素ではない。図1に示すように、投影部100、第1撮像部200及び第2撮像部300は、例えば投影面10の上方に、鉛直下向きの方向で設置される。投影面10としては、例えば、カウンター、台、机といった各種作業を行うための作業台がある。
FIG. 1 is a diagram for explaining an example of the image processing system S.
The image processing system S includes a
投影部100は、撮像対象の一例である紙媒体Dの傍に画像を投影する。例えば、投影面10に紙媒体Dが置かれて、その紙媒体Dの一部を指定する特徴的な動作(例えば後述する手指FGによる動作)がなされると、第1撮像部200及び第2撮像部300は紙媒体Dを特徴的な動作とともに撮像し、投影部100は撮像された撮像画像に基づいて紙媒体Dの傍の所定の位置に画像を投影する。詳細は後述するが、例えば紙媒体Dが書籍である場合には、投影部100は書籍の出典を表す画像などを投影する。このような投影手法は、例えばAugmented Reality(AR:拡張現実)と呼ばれる。さらに、ユーザが手指FGを画像に提示すると、投影された画像に対してインタラクション操作が行われ、別の画像が投影される。例えば出典の内容の修正を指示する画像に手指FGが提示された場合、別の画像としてキーボードを表す画像が投影される。尚、投影部100としては、例えばプロジェクタといった画像を表示するデバイスがあり、紙媒体Dとしては、例えば新聞紙NP、本、雑誌や図書を含む書籍BK、冊子、パンフレットなどがある。
The
第1撮像部200及び第2撮像部300は、内部パラメータが等しく既知であり、互いの光軸が平行で、かつ、第1撮像部200及び第2撮像部300が撮像する複数の画像中の任意の横軸が同一直線状上になる様に配置される、いわゆる平行ステレオの配置となる。第1撮像部200は、第1の視野V1の範囲内に含まれる領域の第1画像を撮像する。第2撮像部300は、第2の視野V2の範囲内に含まれる領域の第2画像を撮像する。したがって、第1画像及び第2画像にはそれぞれ、紙媒体Dを含む投影面10が含まれる。特に、紙媒体D上に手指FGが含まれている場合には、第1画像及び第2画像にはそれぞれ手指FGの画像が含まれる。第1撮像部200及び第2撮像部300により、第1画像と第2画像の色情報、ならびに紙媒体Dの深度、手指FGの深度などの情報を含む画像が撮像される。尚、第1撮像部200及び第2撮像部300としては、例えば、Charge Coupled Device(CCD)カメラやComplementary Metal Oxide Semiconductor(CMOS)カメラといった撮像デバイスがある。また、平行ステレオは、位置関係が既知かつ平行な2台のカメラによる撮像画像から同一の対象物が撮影された画素の位置ずれ(視差)を利用して、三角測量の原理により任意の基準点から対象物までの距離を算出する手法である。
The
画像処理装置400は、第1撮像部200及び第2撮像部300により異なる光軸で撮像された第1画像及び第2画像を取得し、後述する各種の画像処理を行って投影部100の動作を制御する。これにより、投影部100は各種の画像を投影する。例えば、取得した特徴的な動作を含む第1画像及び第2画像に基づいて、世界座標系(3次元上)におけるユーザの手指FGの位置を算出する。算出した位置における深度が紙媒体Dから所定の距離(例えば0〜10mm)の範囲内に含まれていた場合、紙媒体Dの傍に画像が投影される。算出した位置がその画像の投影領域に含まれていた場合、別の画像が投影される。ここで、画像処理システムSにおける画像処理装置400の配置位置は自由に設定することが可能である。例えば、画像処理装置400は投影部100と同じ位置に配置されていてもよい。尚、画像処理装置400の機能の詳細については後述する。
The
ところで、図1に示す画像処理システムSの構成時点で、第1撮像部200と第2撮像部300の座標系と投影部100の世界座標系における位置合わせ(キャリブレーション)は、予め実施されているものとする。また、画像処理装置400に使用開始後に、第1撮像部200と第2撮像部300と投影部100の位置関係を変化させる場合は、キャリブレーションを、少なくとも一回実行すれば良い。ここで、具体的なキャリブレーションの方法の一例として、投影部100が投影する任意の投影画像を、第1撮像部200と第2撮像部300で撮像することで、画像処理装置400内部でキャリブレーションを実行する方法を説明する。なお、当該方法においては、第1撮像部200と第2撮像部300のそれぞれについて、予めキャリブレーションが実行されているものとする。
By the way, at the time of the configuration of the image processing system S shown in FIG. 1, alignment (calibration) in the coordinate system of the
先ず、投影部100は、世界座標系において、ある任意の座標値(xp、yp)に対して任意のマーカを投影する。当該マーカは、周囲の背景と区別しやすいような任意の色や形状を用いることが可能である。そして、第1撮像部200と第2撮像部300は、所定の投影面10に投影されたマーカを撮像する。続いて、画像処理装置400は、マーカを公知の任意の画像処理によって認識する。例えば、画像処理装置400は、投影部100がマーカとして円形の模様を投影した場合、例えば、「Kimmeら、“Finding circles by an array of accumulators”, Communications of the Association for Computing Machinery, #18, pp.120-122, 1975.」に開示される、ハフ円変換により円形状を認識することが出来る。ここで、画像処理装置400がマーカを認識した際の座標値を(xi、yi)とする。画像処理装置400は、上述の処理を、任意の場所で4点分繰り返す。画像処理装置400は、当該処理で得られた(xp、yp)に対応する(xi、yi)の組の4組から、3行3列のホモグラフィ行列Hの各成分を、8次元連立一次方程式を用いて算出する。なお、ホモグラフィとは、三次元空間上のある平面から別の平面への射影変換を表す行列である。本実施形態においては、画像処理装置400は、第1撮像部200と第2撮像部300の座標平面と投影部100の投影部座標平面との対応付けを求める。画像処理装置400は、算出したホモグラフィ行列を、例えば、図示しないキャッシュまたはメモリに保存しておくことで、画像の投影時においてホモグラフィ行列を利用することが出来る。
First, the projecting
図2は、紙媒体Dに対する手指FGによる操作の一例を説明するための図である。 FIG. 2 is a diagram for explaining an example of an operation with the finger FG on the paper medium D.
図2(a)に示す通り、ユーザは紙媒体Dを手指FGで触れ(触れた時刻を時刻t1とする)、手指FGを時刻t2の位置まで手指FGをスライドさせ、又は手指FGを時刻t2の位置までなぞり、その後手指FGを紙媒体Dから離脱させる。時刻t1における手指FGの位置から時刻t2における手指FGの位置に基づいた線分を対角線とする矩形領域50が指定箇所として特定され、図2(b)に示される様な矩形領域50の画像情報がスキャン画像として、画像処理装置400に含まれる後述の記憶部410に保存される。矩形領域50の画像情報に対してOptical Character Recognition(OCR:光学文字認識)を実行し文字情報として記憶部410に保存させてもよい。なお、紙媒体Dに対する手指FGの接触と離脱は、例えば、算出される手指FGの深度に基づいて判定することが出来る。例えば、第1撮像部200及び第2撮像部300の座標系における手指FGの位置は、第1画像と第2画像で、紙媒体D上の異なる位置に写っており、当該位置より規定される視差に基づいて二眼ステレオ法で指先の深度が算出される。このように算出された手指FGの深度に基づいて、手指FGの接触と離脱を判定することが出来る。
As shown in FIG. 2A, the user touches the paper medium D with the finger FG (the time of touch is defined as time t1), and the finger FG is slid to the position of time t2, or the finger FG is moved to the time t2. The finger FG is then detached from the paper medium D. A
図3は、新聞紙NPに対する手指FGによる操作の一例を説明するための図である。図4は、新聞紙NPに対する手指FGによる操作の他の一例を説明するための図である。 FIG. 3 is a diagram for explaining an example of the operation with the finger FG for the newspaper NP. FIG. 4 is a diagram for explaining another example of the operation with the finger FG for the newspaper NP.
図3(a)に示すように、投影面10に新聞紙NPの1頁目が置かれると、第1撮像部200及び第2撮像部300は新聞紙NPの1頁目を撮像する。新聞紙NPの1頁目は、第1の撮像対象の一例である。ユーザの手指FGが新聞紙NPに触れながら新聞紙NPの1頁目の一部分である出典部分60を指定する特徴的な動きをすると、第1撮像部200による第1画像及び第2撮像部300による第2画像からその特徴的な動きが検出されて、指定した出典部分60が特定される。そして、特定された出典部分60の画像情報又は出典部分60に含まれる文字情報「2014年8月18日 ○○新聞」は画像処理装置400に保持される。
As shown in FIG. 3A, when the first page of the newspaper NP is placed on the
次に、ユーザの手指FGが新聞紙NPに触れながら、新聞紙NPの1頁目の上記出典部分60と異なる部分であるスクラップ対象部分70を指定する特徴的な動きをすると、第1撮像部200による第1画像及び第2撮像部300による第2画像からその特徴的な動きが検出されて、指定したスクラップ対象部分70が特定される。そして、特定されたスクラップ対象部分70の画像データは、画像処理装置400に保持された画像情報又は文字情報と対応付けられて、図3(b)に示すように、記憶部410に記憶される。これにより、新聞紙NPの1頁目に対するスクラップが完了する。
Next, when the user's finger FG touches the newspaper NP and makes a characteristic movement that designates a
次に、ユーザが新聞紙NPの別の頁に対するスクラップを望む場合、ユーザは新聞紙NPの頁をめくり、図4(a)に示すように、例えば新聞紙NPの8頁目を投影面10に置く。新聞紙NPの8頁目は第2の撮像対象の一例である。投影面10に1頁目と同様の輪郭を有する8頁目が置かれると、第1撮像部200及び第2撮像部300は新聞紙NPの8頁目を撮像する。この際、新聞紙NPの8頁目では画像処理装置400により新聞紙NPの1頁目の出典部分60に対応する出典部分80が手指FGで指定されなくても、出典部分80は手指FGにより指定された出典部分60の位置と新聞紙NPの1頁目の輪郭との相対的位置関係に基づいて動的に特定される。尚、輪郭が同様であるか否かの判断は画像処理装置400に含まれる後述の第1の部分特定部430及び第2の部分特定部440がエッジ検出処理を実行することにより行われる。エッジ検出処理は、画像の明るさが鋭敏に又は不連続に変化している箇所を特定する処理である。例えば、投影面10に紙媒体Dが置かれた場合、投影面10と紙媒体Dとの境は鋭敏に変化する。エッジ検出処理は、鋭敏に変化している箇所を特定することで、紙媒体Dの輪郭を検出する。
Next, when the user desires scrap for another page of the newspaper NP, the user turns the page of the newspaper NP and places the eighth page of the newspaper NP on the
したがって、ユーザの手指FGが新聞紙NPに触れながら、新聞紙NPの8頁目のスクラップ対象部分90を指定する特徴的な動きをすると、第1撮像部200による第1画像及び第2撮像部300による第2画像からその特徴的な動きが検出されて、指定したスクラップ対象部分90が特定される。そして、特定されたスクラップ対象部分90の画像データは、動的に特定された出典部分80の画像情報又は文字情報「2014年8月18日 ○○新聞」と対応付けられて、図4(b)に示すように、記憶部410に記憶される。これにより、新聞紙NPの8頁目に対するスクラップが完了する。
Therefore, when the user's finger FG touches the newspaper NP and makes a characteristic movement that specifies the
このように、本実施形態に係る画像処理装置400によれば、記事や写真などを含む撮像画像に関するデータを保存する際に、指定した部分に含まれる情報を効率的に対応づけて保存させることができる。
As described above, according to the
続いて、図5を参照して、画像処理装置400の詳細について説明する。
Next, the details of the
図5は、画像処理装置400のブロック図の一例である。
画像処理装置400は、図5に示すように、記憶部410、特徴検出部420、第1の特定手段の一例である第1の部分特定部430、第2の特定手段の一例である第2の部分特定部440及び保存手段の一例である保存部450を含んでいる。
FIG. 5 is an example of a block diagram of the
As illustrated in FIG. 5, the
記憶部410は、図3及び図4を参照して説明した出典部分60,80の画像情報又は文字情報とスクラップ対象部分70,90とを対応付けて記憶する。
The
特徴検出部420は、第1撮像部200及び第2撮像部300によりそれぞれ撮像された第1画像及び第2画像から、紙媒体Dの一部を指定する特徴を検出する。紙媒体Dの一部を指定する特徴は、上述したように、ユーザの手指FGが紙媒体Dに触れながら、手指FGをスライドさせ又はなぞり、その後手指FGを紙媒体Dから離脱させる動作である。手指FGに代えて、筆記具を含む棒状の部材が特定の被写体として利用されてもよい。特徴検出部420は手指FGによる特徴を検出すると、第1画像及び第2画像を第1の部分特定部430及び第2の部分特定部440に送信する。
The
第1の部分特定部430は、特徴検出部420から送信された第1画像及び第2画像を受信すると、第1画像及び第2画像内において手指FGにより指定された部分を特定する。例えば紙媒体Dが新聞紙NPである場合、第1の部分特定部430は、手指FGにより指定された矩形の出典部分60やスクラップ対象部分70を特定する。第1の部分特定部430は、出典部分60を特定した場合、出典部分60を表す画像情報又は出典部分60に含まれる文字情報を保持する。第1の部分特定部430は、スクラップ対象部分70を特定した場合、保持した画像情報又は文字情報とスクラップ対象部分70の画像データとを対応付けて保存部450に送信する。
When the first
第2の部分特定部440は、特徴検出部420から送信された第1画像及び第2画像を保持する。第2の部分特定部440は、特徴検出部420から別の第1画像及び別の第2画像が送信された場合、保持した第1画像と別の第1画像、保持した第2画像と別の第2画像をそれぞれ対比し、保持した第1画像と第2画像により特定される紙媒体Dの頁と、別の第1画像と別の第2画像とにより特定される紙媒体Dの頁が同じであるか否かを判断する。第2の部分特定部440は、紙媒体Dの頁が異なると判断した場合、紙媒体Dの頁がめくられたと判断する。第2の部分特定部440は、紙媒体Dの頁がめくられたと判断した場合、別の第1画像及び別の第2画像内において手指FGにより指定された部分を特定する。例えば紙媒体Dが新聞紙NPである場合、第2の部分特定部440は、出典部分60に対応する出典部分80を動的に特定するとともに、手指FGにより指定された矩形のスクラップ対象部分90を特定する。第2の部分特定部440は、特定した出典部分80の画像情報又は文字情報とスクラップ対象部分90の画像データとを保存部450に送信する。
The second
保存部450は、第1の部分特定部430から送信された出典部分60の画像情報又は文字情報とスクラップ対象部分70の画像データを記憶部410に保存する。これにより、記憶部410には、出典部分60と対応付けられたスクラップ対象部分70が保存される。保存部450は、第2の部分特定部440から送信された出典部分80とスクラップ対象部分90を記憶部410に保存する。これにより、記憶部410には、出典部分80と対応付けられたスクラップ対象部分90が保存される。
The
続いて、図6を参照して、画像処理装置400のハードウェア構成について説明する。
Next, the hardware configuration of the
図6は、画像処理装置400のハードウェア構成の一例である。
図6に示すように、画像処理装置400は、少なくともCentral Processing Unit(CPU)400A、Random Access Memory(RAM)400B、Read Only Memory(ROM)400C及びネットワークI/F(インタフェース)400Dを含んでいる。画像処理装置400は、必要に応じて、Hard Disk Drive(HDD)400E、入力I/F400F、出力I/F400G、入出力I/F400H、ドライブ装置400Iの少なくとも1つを含んでいてもよい。CPU400A・・・ドライブ装置400Iは、内部バス400Jによって互いに接続されている。少なくともCPU400AとRAM400Bとが協働することによってコンピュータが実現される。
FIG. 6 is an example of a hardware configuration of the
As shown in FIG. 6, the
入力I/F400Fには、入力装置510が接続される。入力装置510としては、例えばキーボードやマウスなどがある。
出力I/F400Gには、表示装置520が接続される。表示装置520としては、例えば液晶ディスプレイがある。
入出力I/F400Hには、半導体メモリ530が接続される。半導体メモリ530としては、例えばUniversal Serial Bus(USB)メモリやフラッシュメモリなどがある。入出力I/F400Hは、半導体メモリ530に記憶されたプログラムやデータを読み取る。
入力I/F400F及び入出力I/F400Hは、例えばUSBポートを備えている。出力I/F400Gは、例えばディスプレイポートを備えている。
An
A
A
The input I /
ドライブ装置400Iには、可搬型記録媒体540が挿入される。可搬型記録媒体540としては、例えばCompact Disc(CD)−ROM、Digital Versatile Disc(DVD)といったリムーバブルディスクがある。ドライブ装置400Iは、可搬型記録媒体540に記録されたプログラムやデータを読み込む。
ネットワークI/F400Dは、例えばポートとPhysical Layer Chip(PHYチップ)とを備えている。画像処理装置400は、ネットワークI/F400Dを介してネットワークと接続される。
A portable recording medium 540 is inserted into the drive device 400I. Examples of the portable recording medium 540 include a removable disk such as a Compact Disc (CD) -ROM and a Digital Versatile Disc (DVD). The drive device 400I reads a program and data recorded on the portable recording medium 540.
The network I /
上述したRAM400Bには、ROM400CやHDD400Eに記憶されたプログラムがCPU400Aによって格納される。RAM400Bには、可搬型記録媒体540に記録されたプログラムがCPU400Aによって格納される。格納されたプログラムをCPU400Aが実行することにより、後述する各種の動作が実行される。尚、プログラムは後述するフローチャートに応じたものとすればよい。
In the
続いて、図7乃至図9を参照して、上述した画像処理システムSの動作について説明する。 Next, the operation of the above-described image processing system S will be described with reference to FIGS.
図7は、画像処理システムSの動作の一例を示すフローチャートである。より詳しくは、図7は画像処理装置400が出典部分60を特定する動作を含むフローチャートである。図8は、文字密度の一例について説明するための図である。図9は、画像処理システムSの動作の他の一例を示すフローチャートである。より詳しくは、図9は画像処理装置400がスクラップ対象部分70を特定して出典部分60と対応付け、スクラップ対象部分90を出典部分80と対応付ける動作の一例を示すフローチャートである。
FIG. 7 is a flowchart illustrating an example of the operation of the image processing system S. More specifically, FIG. 7 is a flowchart including an operation in which the
まず、図7に示すように、第1撮像部200及び第2撮像部300は投影面10上の紙媒体Dを撮像する(ステップS101)。次いで、特徴検出部420は、ステップS101の処理が完了すると、第1撮像部200による第1画像及び第2撮像部300による第2画像に基づいて、紙媒体Dの文字密度を算出し(ステップS102)、算出した文字密度が20%以上であるか否かを判断する(ステップS103)。文字密度は紙媒体Dの紙面に対する文字の割合である。図8(a)に示すように、紙媒体Dが新聞紙NPである場合、図8(b)に示す書籍BKの表紙に比べて文字密度は高くなる。したがって、特徴検出部420は、算出した文字密度が20%以上である場合(ステップS103:YES)、紙媒体Dは新聞紙NPであると判断する。特徴検出部420は、算出した文字密度が20%未満である場合(ステップS103:NO)、紙媒体Dは書籍BKであると判断する。尚、文字密度を判断する閾値は20%に限定されず、適宜変更してもよい。
First, as shown in FIG. 7, the
紙媒体Dが新聞紙NPであると判断された場合、次いで、第1の部分特定部430は、手指FGで指定された出典部分60を特定し(ステップS104)、特定した出典部分60に含まれる文字情報を抽出する(ステップS105)。これにより、文字情報「2014年8月18日 ○○新聞」(図3(a)参照)が抽出される。尚、ステップS104又はステップS105の際には、第1の部分特定部430は、新聞紙NPの1頁目の輪郭を検出するとともに、手指FGの位置により指定した出典部分60の箇所も検出し、検出した輪郭と出典部分60の箇所との相対的位置関係を算出して保持しておく。ステップS105の処理が完了すると、次いで、第1の部分特定部430は、文字情報をインデックスとして保持し(ステップS106)、出典部分60を特定する処理を終了する。
When it is determined that the paper medium D is the newspaper NP, the first
次いで、図3に示すように、手指FGにより矩形のスクラップ対象部分70が指定されると、手指FGの動作が特徴検出部420により検出されて、図9に示すように、第1の部分特定部430は、手指FGにより指定された矩形のスクラップ対象部分70に関する画像データを読み取る(ステップS201)。第1の部分特定部430は、画像データを読み取ると、自身が保持するインデックスを画像データと対応付ける(ステップS202)。ここで、第1の部分特定部430は、紙媒体Dが新聞紙NPであるか否かを判断する(ステップS203)。本実施形態では、ステップS103の処理により、紙媒体Dは新聞紙NPであると判断されているため、後続のステップS204の処理はスキップされる。したがって、ステップS203の処理が完了すると、保存部450はインデックスと画像データとを記憶部410に保存する(ステップS205)。これにより、図3(b)に示すように、スクラップ対象部分70に関する画像データがインデックスとともに記憶部410に保存される。
Next, as shown in FIG. 3, when the rectangular
次いで、第2の部分特定部440は、紙媒体Dが別の紙面に変更されているか否かを判断する(ステップS206)。当該判断は例えば撮像画像の相違や撮像画像に含まれる頁番号の相違に基づいて行われる。第2の部分特定部440は、紙媒体Dが別の紙面に変更されていると判断した場合(ステップS206:YES)、再び、紙媒体Dが新聞紙NPであるか否かを判断する(ステップS207)。上述したように、本実施形態では、ステップS103の処理により、紙媒体Dは新聞紙NPであると判断されている。したがって、第2の部分特定部440は、紙媒体Dが新聞紙NPであると判断し(ステップS207:YES)、インデックスに対応する出典部分80を特定する(ステップS208)。第2の部分特定部440は、出典部分80を特定する際に、新聞紙NPの8頁目の輪郭と保持している相対的位置関係を利用する。
Next, the second
さらに、第2の部分特定部440は、手指FGにより指定された矩形のスクラップ対象部分90に関する画像データを読み取る(ステップS209)。第2の部分特定部440は、画像データを読み取ると、自身が保持する出典部分80を画像データと対応付け(ステップS210)、保存部450が出典部分80の文字情報と画像データとを記憶部410に保存する(ステップS211)。これにより、図4(b)に示すように、スクラップ対象部分90に関する画像データが出典部分80の文字情報とともに記憶部410に保存される。第2の部分特定部440は、ステップS211の処理が完了すると、再び、紙媒体Dの紙面が変更されているか否かを判断し、紙媒体Dの紙面が変更されていないと判断した場合(ステップS206:NO)、処理を終了する。
Further, the second
このように、紙媒体Dとして新聞紙NPが利用されてスクラップが行われる場合、新聞紙NPの頁がめくられる度に出典に関する部分を指定しなくても、最初に出典に関する部分を指定しておけば、以降のスクラップではスクラップ対象部分を指定することで、出典に関する部分が動的に対応付けられる。したがって、記事、写真、イラストなどのスクラップにおいて出典部分を対応付ける際の手間を大幅に抑制することができる。 In this way, when the newspaper NP is used as the paper medium D and scrap is performed, even if the source portion is not specified every time the page of the newspaper NP is turned, the source portion is specified first. In the subsequent scraps, by specifying the scrap target part, the part related to the source is dynamically associated. Therefore, it is possible to greatly reduce the trouble of associating the source part with scraps of articles, photographs, illustrations and the like.
次に、図10乃至図12などを参照して、紙媒体Dとして書籍BKを利用した場合について説明する。 Next, a case where the book BK is used as the paper medium D will be described with reference to FIGS.
上述した図7のステップS103の処理において、算出した文字密度が20%未満であることにより、紙媒体Dが書籍BKであると判断された場合、第1の部分特定部430は、書籍BKにおける最大文字を抽出し、題名を仮設定する(ステップS107)。これにより、図8(b)に示す書籍BKの表紙に付された文字の中で最大文字である「動物の生態」が抽出されて、題名に仮設定される。
In the process of step S103 in FIG. 7 described above, when the calculated character density is less than 20% and it is determined that the paper medium D is the book BK, the first
次いで、第1の部分特定部430は、書籍BKにおける最下段以外の位置の最小文字を抽出し、著者を仮設定する(ステップS108)。これにより、図8(b)に示す書籍BKの表紙に付された文字の中で最下段以外の位置の最小文字である「△△△△」が抽出されて、著者に仮設定される。尚、第1の部分特定部430は、抽出する際に最大文字及び「△△△△」の隣に付された「著」を除去して抽出する。次いで、第1の部分特定部430は、書籍BKにおける最下段の位置の文字を抽出し、出版社を仮設定する(ステップS109)。これにより、図8(b)に示す書籍BKの表紙に付された文字の中で最下段の位置の文字である「××出版」が抽出されて、出版社に仮設定される。第1の部分特定部430がステップS109の処理を終えると投影部100にその旨を送信し、投影部100は仮設定した内容を投影する(ステップS110)。これにより、図10(a)に示すように、仮設定された題名「動物の生態」、著者「△△△△」及び出版社「××出版」を含む出典画像40と出典画像40に含まれる内容を確定する確定画像41とその内容を修正する修正画像42とが書籍BKの傍の所定位置に投影される。
Next, the first
第1の部分特定部430は、出典画像40に含まれる内容に修正があるか否かを判断する(ステップS111)。例えば、図10(b)に示すように、修正画像42に対し手指FGが提示されて投影面10の修正画像42に触れた場合、第1の部分特定部430は、第1撮像部200による第1画像及び第2撮像部300による第2画像に含まれる手指FGの深度に基づいて、出典画像40に含まれる内容に修正があると判断する(ステップS111:YES)。この場合、投影部100は、図10(c)に示すように、キーボード画像43を投影する(ステップS112)。ユーザはキーボード画像43に対し手指FGを提示して投影面10におけるキーボード画像43の各キーに適宜触れて、出典画像40に含まれる題名、著者及び出版社を修正する。OCR処理の精度が低い場合、正確な題名等が保存されなくなるおそれがあるが、題名等は修正可能なため正確な出典を記憶部410に保存させることができる。
The first
第1の部分特定部430は、第1撮像部200による第1画像及び第2撮像部300による第2画像に含まれる手指FGの深度に基づいて、出典画像40に含まれる内容を修正して投影する。例えば、確定画像41に対し手指FGが提示されて投影面10の確定画像41に触れた場合、第1の部分特定部430は、第1撮像部200による第1画像及び第2撮像部300による第2画像に含まれる手指FGの深度に基づいて、出典画像40に含まれる内容に修正がないと判断する(ステップS111:NO)。ステップS111の処理において修正がないと判断された場合、第1の部分特定部430は、ステップS106の処理を実行する。これにより、出典画像40に含まれる内容がインデックスとして保持される。このように、紙媒体Dとして書籍BKが利用される場合には、出典画像40に含まれる内容を手指FGで指定しなくても、動的にその内容が抽出される。
The first
次いで、図11(a)に示すように、手指FGにより矩形のスクラップ対象部分20が指定されると、手指FGの動作が特徴検出部420により検出されて、第1の部分特定部430は、図9に示すように、手指FGにより指定された矩形のスクラップ対象部分20に関する画像データを読み取る(ステップS201)。第1の部分特定部430は、画像データを読み取ると、自身が保持するインデックスを画像データと対応付ける(ステップS202)。ここで、第1の部分特定部430は、紙媒体Dが新聞紙NPであるか否かを判断する(ステップS203)。本実施形態では、ステップS103の処理により、紙媒体Dは書籍BKであると判断されているため、第1の部分特定部430は、紙媒体D下部の数値情報を読み取り、保存したインデックスと関連付ける(ステップS204)。尚、紙媒体D下部に記載された頁番号を表す数値情報の部分を手指FGで指定するようにしてもよい。これにより、別の頁に移行した場合でも当該部分に対応する部分が後に特定され、数値情報を対応付ける手間が省かれる。ステップS204の処理が完了すると、数値情報と関連付けられたインデックスと画像データとを保存部450が記憶部410に保存する(ステップS205)。これにより、図11(b)に示すように、スクラップ対象部分20に関する画像データがインデックス及び頁番号とともに記憶部410に保存される。
Next, as shown in FIG. 11A, when the rectangular
次いで、第2の部分特定部440は、紙媒体Dの紙面が変更されているか否かを判断する(ステップS206)。図12に示すように、書籍BKの頁が第1の撮像対象としての10頁目から第2の撮像対象としての15頁目に変更されている場合、第2の部分特定部440は、紙媒体Dの紙面が変更されていると判断する(ステップS206:YES)。この場合、再び、紙媒体Dが新聞紙NPであるか否かを判断する(ステップS207)。上述したように、本実施形態では、ステップS103の処理により、紙媒体Dは書籍BKであると判断されている。したがって、第2の部分特定部440は、紙媒体Dが書籍BKであると判断し(ステップS207:NO)、ステップS201からS205の処理を繰り返す。
Next, the second
この結果、図12(a)に示すように、手指FGにより矩形のスクラップ対象部分21が指定されると、手指FGの動作が特徴検出部420により検出されて、手指FGにより指定された矩形のスクラップ対象部分21に関する画像データが読み取られる。画像データが読み取られると、自身が保持するインデックス、すなわち、出典画像40に含まれる題名、著者及び出版社が画像データと対応付けられる。さらに、本実施形態では、紙媒体Dが書籍BKであると判断されている。このため、紙媒体D下部の数値情報が読み取られ、保持したインデックスと関連付けられ、インデックスと数値情報と画像データとが記憶部410に保存される。これにより、図12(b)に示すように、スクラップ対象部分21に関する画像データがインデックス及び頁番号とともに記憶部410に保存される。
As a result, as shown in FIG. 12A, when the rectangular
このように、紙媒体Dとして書籍BKが利用される場合でも、記事や写真などを含む撮像画像に関する画像データを保存する際に、動的に抽出した部分に含まれる出典に関する情報を効率的に対応づけて保存させることができる。 As described above, even when the book BK is used as the paper medium D, information about the source included in the dynamically extracted portion is efficiently stored when storing the image data regarding the captured image including articles and photographs. It can be stored in association.
尚、上述した実施形態では、紙媒体Dが新聞紙NPか書籍BKであるかを判断する際に文字密度を利用したが、例えば、図13に示すように、B5サイズ相当の枠30を事前に画像処理装置400に登録しておき、紙媒体Dの大きさが枠30の大きさ以上であれば新聞紙NPと判断する。逆に、紙媒体Dの大きさが枠30の大きさ未満であれば書籍BKと判断する。このような手法によっても紙媒体Dが新聞紙NPか書籍BKであるかを判断することができる。
In the embodiment described above, the character density is used when determining whether the paper medium D is the newspaper NP or the book BK. For example, as shown in FIG. If it is registered in the
以上、本発明の好ましい実施形態について詳述したが、本発明に係る特定の実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形・変更が可能である。例えば、上述したタッチの文言には、手指FGで画像に直接触れずに手指FGを画像にかざすことで移動可能なホバリング機能を含むタッチも含めてもよい。また、新聞紙NPにおけるスクラップ対象部分70,90や書籍BKにおけるスクラップ対象部分20,21は紙面の一部でなく紙面の全体であってもよい。
The preferred embodiments of the present invention have been described in detail above, but the present invention is not limited to the specific embodiments according to the present invention, and various modifications are possible within the scope of the gist of the present invention described in the claims.・ Change is possible. For example, the touch wording described above may include a touch including a hovering function that can be moved by holding the finger FG over the image without directly touching the image with the finger FG. Further, the
なお、以上の説明に関して更に以下の付記を開示する。
(付記1)第1の撮像対象を撮像して得られた撮像画像から前記第1の撮像対象の一部を指定する特徴が検出されると、検出された前記特徴が指定する前記第1の撮像対象の撮像画像内における第1の部分を特定し、特定した前記第1の部分に含まれる情報を前記第1の撮像対象の撮像画像に関して保存する第1のデータと対応づけて記憶部に保存し、前記第1の撮像対象と同様の輪郭を有する第2の撮像対象を撮像した撮像画像内における、前記第1の部分に対応する第2の部分を特定し、特定した前記第2の部分に含まれる情報を前記第2の撮像対象の撮像画像に関して保存する第2のデータと対応づけて前記記憶部に保存する、処理をコンピュータが実行することを特徴とする画像処理方法。
(付記2)前記第1の撮像対象及び前記第2の撮像対象は、紙媒体であって、前記第1の部分及び前記第2の部分は、前記紙媒体の出典又は頁番号に関する情報を含み、前記第1のデータは、前記第1の撮像対象における、前記第1の部分と異なる第3の部分のデータであって、前記第2のデータは、前記第2の撮像対象における、前記第2の部分と異なる第4の部分のデータである、ことを特徴とする付記1に記載の画像処理方法。
(付記3)紙媒体の表紙である第3の撮像対象を撮像して得られた撮像画像に現れる文字の大きさと位置に基づいて、前記紙媒体の出典を特定し、特定した前記出典を前記第1のデータ及び前記第2のデータとそれぞれ対応づけて前記記憶部に保存する、ことを特徴とする付記1又は2に記載の画像処理方法。
(付記4)撮像対象を撮像装置で撮像して得られた撮像画像についてエッジ検出処理を実行して前記撮像対象の輪郭を検出し、前記撮像対象の一部を指定する指定箇所を、該撮像対象の撮像画像に写りこんだ特定の被写体の位置によって検出し、検出した前記輪郭と前記指定箇所との相対的位置関係を算出し、他の撮像対象についてエッジ検出処理を実行して得られた該他の撮像対象の輪郭と、算出した前記相対的位置関係とに基づいて特定される、前記他の撮像対象の撮像画像の一部に含まれる情報を前記他の撮像対象の撮像画像に関して保存するデータと対応づけて記憶部に保存する、処理をコンピュータが実行することを特徴とする画像処理方法。
(付記5)第1の撮像対象を撮像して得られた撮像画像から前記第1の撮像対象の一部を指定する特徴が検出されると、検出された前記特徴が指定する前記第1の撮像対象の撮像画像内における第1の部分を特定し、特定した前記第1の部分に含まれる情報を前記第1の撮像対象の撮像画像に関して保存する第1のデータと対応づけて記憶部に保存し、前記第1の撮像対象と同様の輪郭を有する第2の撮像対象を撮像した撮像画像内における、前記第1の部分に対応する第2の部分を特定し、特定した前記第2の部分に含まれる情報を前記第2の撮像対象の撮像画像に関して保存する第2のデータと対応づけて前記記憶部に保存する、処理をコンピュータに実行させることを特徴とする画像処理プログラム。
(付記6)第1の撮像対象を撮像して得られた撮像画像から前記第1の撮像対象の一部を指定する特徴が検出されると、検出された前記特徴が指定する前記第1の撮像対象の撮像画像内における第1の部分を特定する第1の特定手段と、前記第1の撮像対象と同様の輪郭を有する第2の撮像対象を撮像した撮像画像内における、前記第1の部分に対応する第2の部分を特定する第2の特定手段と、特定した前記第1の部分に含まれる情報を前記第1の撮像対象の撮像画像に関して保存する第1のデータと対応づけて記憶部に保存し、特定した前記第2の部分に含まれる情報を前記第2の撮像対象の撮像画像に関して保存する第2のデータと対応づけて前記記憶部に保存する保存手段と、を有することを特徴とする画像処理装置。
(付記7)前記第1の撮像対象及び前記第2の撮像対象は、紙媒体であって、前記第1の部分及び前記第2の部分は、前記紙媒体の出典又は頁番号に関する情報を含み、前記第1のデータは、前記第1の撮像対象における、前記第1の部分と異なる第3の部分のデータであって、前記第2のデータは、前記第2の撮像対象における、前記第2の部分と異なる第4の部分のデータである、ことを特徴とする付記6に記載の画像処理装置。
(付記8)第1の特定手段は、紙媒体の表紙である第3の撮像対象を撮像して得られた撮像画像に現れる文字の大きさと位置に基づいて、前記紙媒体の出典を特定し、特定した前記出典を前記第1のデータ及び前記第2のデータとそれぞれ対応づけて前記記憶部に保存する、ことを特徴とする付記6又は7に記載の画像処理装置。
In addition, the following additional notes are disclosed regarding the above description.
(Appendix 1) When a feature that specifies a part of the first imaging target is detected from a captured image obtained by imaging the first imaging target, the first feature that is specified by the detected feature is detected. A first portion in the captured image of the imaging target is identified, and information included in the identified first portion is associated with first data to be stored regarding the captured image of the first imaging target in the storage unit. The second portion corresponding to the first portion is specified in the captured image obtained by capturing and capturing the second imaging target having the same outline as the first imaging target, and the identified second An image processing method, wherein a computer executes a process of storing information included in a part in the storage unit in association with second data stored with respect to a captured image of the second imaging target.
(Supplementary Note 2) The first imaging target and the second imaging target are paper media, and the first part and the second part include information on the source or page number of the paper medium. The first data is data of a third part different from the first part in the first imaging target, and the second data is the second data in the second imaging target. The image processing method according to
(Additional remark 3) Based on the size and position of the character which appears in the captured image obtained by imaging the 3rd imaging target which is a cover of a paper medium, the source of the paper medium is specified, and the specified source is The image processing method according to
(Supplementary Note 4) Edge detection processing is performed on a captured image obtained by imaging the imaging target with the imaging device to detect the contour of the imaging target, and a designated portion for designating a part of the imaging target is captured. Detected by the position of a specific subject in the captured image of the target, obtained by calculating the relative positional relationship between the detected contour and the specified location, and performing edge detection processing on other imaging targets Information included in a part of the captured image of the other imaging target, which is specified based on the contour of the other imaging target and the calculated relative positional relationship, is stored for the captured image of the other imaging target. An image processing method, wherein a computer executes a process of storing in a storage unit in association with data to be performed.
(Supplementary Note 5) When a feature that specifies a part of the first imaging target is detected from a captured image obtained by imaging the first imaging target, the first feature specified by the detected feature is detected. A first portion in the captured image of the imaging target is identified, and information included in the identified first portion is associated with first data to be stored regarding the captured image of the first imaging target in the storage unit. The second portion corresponding to the first portion is specified in the captured image obtained by capturing and capturing the second imaging target having the same outline as the first imaging target, and the identified second An image processing program for causing a computer to execute a process of storing information included in a portion in association with second data stored with respect to a captured image of the second imaging target and storing the information in the storage unit.
(Supplementary Note 6) When a feature that specifies a part of the first imaging target is detected from a captured image obtained by imaging the first imaging target, the first feature specified by the detected feature is detected. First identification means for identifying a first portion in a captured image of the imaging target, and the first in the captured image obtained by capturing a second imaging target having the same contour as the first imaging target. A second specifying unit that specifies a second part corresponding to the part, and information included in the specified first part is associated with first data to be stored for the captured image of the first imaging target. Storage means for storing in the storage unit in association with the second data to be stored in the storage unit and the information included in the specified second part stored with respect to the captured image of the second imaging target An image processing apparatus.
(Supplementary note 7) The first imaging object and the second imaging object are paper media, and the first part and the second part include information on the source or page number of the paper medium. The first data is data of a third part different from the first part in the first imaging target, and the second data is the second data in the second imaging target. The image processing apparatus according to appendix 6, wherein the image processing apparatus is data of a fourth part different from the part of 2.
(Supplementary Note 8) The first specifying means specifies the source of the paper medium based on the size and position of the character appearing in the captured image obtained by imaging the third imaging target that is the cover of the paper medium. The image processing apparatus according to appendix 6 or 7, wherein the identified source is stored in the storage unit in association with the first data and the second data, respectively.
S 画像処理システム
100 投影部
200 第1撮像部
300 第2撮像部
400 画像処理装置
410 記憶部
420 特徴検出部
430 第1の部分特定部
440 第2の部分特定部
450 保存部
DESCRIPTION OF SYMBOLS S
Claims (4)
特定した前記第1の部分に含まれる情報を前記第1の撮像対象の撮像画像に関して保存する第1のデータと対応づけて記憶部に保存し、
前記第1の撮像対象と同様の輪郭を有する第2の撮像対象を撮像した撮像画像内における、前記第1の部分に対応する第2の部分を特定し、
特定した前記第2の部分に含まれる情報を前記第2の撮像対象の撮像画像に関して保存する第2のデータと対応づけて前記記憶部に保存する、
処理をコンピュータが実行することを特徴とする画像処理方法。 When a feature specifying a part of the first imaging target is detected from a captured image obtained by imaging the first imaging target, imaging of the first imaging target specified by the detected feature is performed. Identify the first part in the image,
The information included in the identified first part is stored in the storage unit in association with the first data to be stored regarding the captured image of the first imaging target,
Identifying a second portion corresponding to the first portion in a captured image obtained by capturing a second imaging target having the same outline as the first imaging target;
Storing the information included in the identified second part in the storage unit in association with the second data stored with respect to the captured image of the second imaging target;
An image processing method, wherein the computer executes the processing.
前記第1の部分及び前記第2の部分は、前記紙媒体の出典又は頁番号に関する情報を含み、
前記第1のデータは、前記第1の撮像対象における、前記第1の部分と異なる第3の部分のデータであって、
前記第2のデータは、前記第2の撮像対象における、前記第2の部分と異なる第4の部分のデータである、
ことを特徴とする請求項1に記載の画像処理方法。 The first imaging target and the second imaging target are paper media,
The first part and the second part include information on the source or page number of the paper medium,
The first data is data of a third part different from the first part in the first imaging target,
The second data is data of a fourth part different from the second part in the second imaging target.
The image processing method according to claim 1.
特定した前記出典を前記第1のデータ及び前記第2のデータとそれぞれ対応づけて前記記憶部に保存する、
ことを特徴とする請求項1又は2に記載の画像処理方法。 Identifying the source of the paper medium based on the size and position of the characters appearing in the captured image obtained by imaging the third imaging target that is the cover of the paper medium;
Storing the identified source in the storage unit in association with the first data and the second data, respectively.
The image processing method according to claim 1, wherein:
前記撮像対象の一部を指定する指定箇所を、該撮像対象の撮像画像に写りこんだ特定の被写体の位置によって検出し、
検出した前記輪郭と前記指定箇所との相対的位置関係を算出し、
他の撮像対象についてエッジ検出処理を実行して得られた該他の撮像対象の輪郭と、算出した前記相対的位置関係とに基づいて特定される、前記他の撮像対象の撮像画像の一部に含まれる情報を前記他の撮像対象の撮像画像に関して保存するデータと対応づけて記憶部に保存する、
処理をコンピュータが実行することを特徴とする画像処理方法。 An edge detection process is performed on a captured image obtained by imaging the imaging target with an imaging device to detect the contour of the imaging target;
A designated portion for designating a part of the imaging target is detected by a position of a specific subject reflected in the captured image of the imaging target;
Calculating the relative positional relationship between the detected contour and the specified location;
A part of the captured image of the other imaging target specified based on the contour of the other imaging target obtained by executing the edge detection process on the other imaging target and the calculated relative positional relationship Storing the information included in the storage unit in association with the data to be stored regarding the captured image of the other imaging target,
An image processing method, wherein the computer executes the processing.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014174230A JP2016051191A (en) | 2014-08-28 | 2014-08-28 | Image processing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014174230A JP2016051191A (en) | 2014-08-28 | 2014-08-28 | Image processing method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2016051191A true JP2016051191A (en) | 2016-04-11 |
Family
ID=55658688
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014174230A Withdrawn JP2016051191A (en) | 2014-08-28 | 2014-08-28 | Image processing method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2016051191A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018113567A (en) * | 2017-01-11 | 2018-07-19 | 京セラドキュメントソリューションズ株式会社 | Information processing apparatus and program |
JP2020201435A (en) * | 2019-06-12 | 2020-12-17 | 株式会社ポニーキャニオン | Information processing terminal and information processing method |
-
2014
- 2014-08-28 JP JP2014174230A patent/JP2016051191A/en not_active Withdrawn
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018113567A (en) * | 2017-01-11 | 2018-07-19 | 京セラドキュメントソリューションズ株式会社 | Information processing apparatus and program |
JP2020201435A (en) * | 2019-06-12 | 2020-12-17 | 株式会社ポニーキャニオン | Information processing terminal and information processing method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6007497B2 (en) | Image projection apparatus, image projection control apparatus, and program | |
JP6248533B2 (en) | Image processing apparatus, image processing method, and image processing program | |
US20140351718A1 (en) | Information processing device, information processing method, and computer-readable medium | |
US20190385285A1 (en) | Image Processing Method and Device | |
KR102236616B1 (en) | Information processing apparatus, control method thereof, and storage medium | |
US9607394B2 (en) | Information processing method and electronic device | |
US10452943B2 (en) | Information processing apparatus, control method of information processing apparatus, and storage medium | |
JP2010134876A (en) | Information processing device and method | |
JP2016071746A (en) | Information projection method, information projection program, and information processing device | |
CN105607825B (en) | Method and apparatus for image processing | |
JPWO2016006090A1 (en) | Electronic device, method and program | |
JPWO2015145571A1 (en) | Terminal device, display control method, and program | |
US9170733B2 (en) | Information processing apparatus, information processing method, and non-transitory computer readable medium | |
US9619101B2 (en) | Data processing system related to browsing | |
JP2016051191A (en) | Image processing method | |
US20150138077A1 (en) | Display system and display controll device | |
JP2017199288A (en) | Image processing device, image processing method and program | |
US11163992B2 (en) | Information processing apparatus and non-transitory computer readable medium | |
JP6312488B2 (en) | Image processing apparatus, image processing method, and program | |
JP6639257B2 (en) | Information processing apparatus and control method therefor | |
US9912834B2 (en) | Document camera device and cutout assistance method | |
JP6717228B2 (en) | Image reading apparatus, image reading method, and image forming apparatus | |
JP2014203119A (en) | Input device, input processing method, and program | |
JP6007496B2 (en) | Display system, display program, and display method | |
JP6521481B2 (en) | Image correction apparatus, image correction method, program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170511 |
|
A761 | Written withdrawal of application |
Free format text: JAPANESE INTERMEDIATE CODE: A761 Effective date: 20180122 |