[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2013011955A - Information processing device, control method therefor, program, and computer-readable program recording medium - Google Patents

Information processing device, control method therefor, program, and computer-readable program recording medium Download PDF

Info

Publication number
JP2013011955A
JP2013011955A JP2011142994A JP2011142994A JP2013011955A JP 2013011955 A JP2013011955 A JP 2013011955A JP 2011142994 A JP2011142994 A JP 2011142994A JP 2011142994 A JP2011142994 A JP 2011142994A JP 2013011955 A JP2013011955 A JP 2013011955A
Authority
JP
Japan
Prior art keywords
image
distance
reference position
information processing
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2011142994A
Other languages
Japanese (ja)
Inventor
Yasuo Okuya
泰夫 奥谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2011142994A priority Critical patent/JP2013011955A/en
Publication of JP2013011955A publication Critical patent/JP2013011955A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

PROBLEM TO BE SOLVED: To designate a position to be a reference and search for a page in which a character string exists in its vicinity.SOLUTION: An information processing device that selects an image in which a requested object is arranged from among search target images, comprises: a position information input unit 101 that inputs position information with respect to the search target images; a specifying information input unit 102 that inputs specifying information for specifying the requested object in the images; a distance acquisition unit 105 that acquires distances between positions at which the specified objects are arranged in the target images and a reference position; and an image selection unit 106 that selects an image on the basis of the acquired distances.

Description

本発明は、ユーザが指定した位置とオブジェクトとの距離を利用した検索を行う情報処理装置及びその制御方法、プログラム、コンピュータが読み取り可能なプログラム記録媒体に関する。   The present invention relates to an information processing apparatus that performs a search using a distance between a position designated by a user and an object, a control method thereof, a program, and a computer-readable program recording medium.

従来、プレゼンテーション資料や文書ファイルからユーザによって指定された文字列を検索する方法が知られている。例えば、ユーザがあるページを選択する場合には、上記検索方法によって検索された文字列を含むページを候補とし、その候補の中から所望のページを選択する等が考えられる。
特許文献1には、プレゼンテーション資料から所望のページを検索するために、音声認識によって検索文字列を指定して検索を行うことが開示されている。ここでは検索文字列を含むページが縮小画像の一覧として表示され、ユーザはその一覧から所望のページを選択する。
Conventionally, a method for retrieving a character string designated by a user from presentation materials and document files is known. For example, when a user selects a certain page, a page including a character string searched by the above search method is set as a candidate, and a desired page is selected from the candidates.
Japanese Patent Application Laid-Open No. 2004-228561 discloses that a search character string is designated by speech recognition to search for a desired page from presentation materials. Here, pages including the search character string are displayed as a list of reduced images, and the user selects a desired page from the list.

特開2002−268667JP 2002-268667 A

しかしながら特許文献1では、ユーザが過去に見たことがある画像について、画像中に含まれる文字列などのオブジェクトがどのあたりに配置されていたかを記憶していても、その位置までを有効利用して検索はしていない。
本発明は上記課題に鑑みてなされたものであり、画像中に含まれるオブジェクトの概ねの位置を記憶している場合に、その画像を効率よく検索する1技術を提供することを目的とする。
However, in Japanese Patent Laid-Open No. 2004-228867, even for an image that the user has seen in the past, even if the location where an object such as a character string included in the image is stored is stored, that position is effectively used. I am not searching.
The present invention has been made in view of the above problems, and an object of the present invention is to provide a technique for efficiently retrieving an image when the approximate position of an object included in the image is stored.

上記課題を解決するために、請求項1に記載の発明は、検索対象の画像について、該画像中の基準となる基準位置を示す位置情報及び該画像中に要求されるオブジェクトを特定する特定情報を入力する入力手段と、前記検索対象の画像中において、前記特定されたオブジェクトが配置されている位置と前記基準位置との距離に基づいて、画像を選択する選択手段とを有することを特徴とする。   In order to solve the above-described problem, the invention according to claim 1 is directed to position information indicating a reference position serving as a reference in an image to be searched and identification information for specifying an object required in the image. And an input means for inputting an image, and a selection means for selecting an image based on a distance between the position where the specified object is arranged and the reference position in the image to be searched. To do.

本発明によれば、画像中に含まれるオブジェクトの概ねの位置を記憶している場合に、その画像を効率よく検索することが可能になる。   According to the present invention, when an approximate position of an object included in an image is stored, the image can be efficiently searched.

機能及び制御の構成を示すブロック図Block diagram showing configuration of functions and control 検索処理のフローチャートSearch process flowchart 検索対象のプレゼンテーション資料の1スライドを示した模式図Schematic diagram showing one slide of presentation material to be searched プレンテーション資料の一例を示した図Figure showing an example of a presentation material 検索条件の入力処理の一例を模式的に示した図Diagram showing an example of search condition input processing 距離取得を示す模式図Schematic diagram showing distance acquisition コンテンツの文字ごとに位置情報とサイズ情報を付与した例を示した模式図Schematic diagram showing an example of adding position information and size information for each character of content 基準位置と文字列との最小距離を取得する処理のフローチャートFlowchart of processing for obtaining the minimum distance between the reference position and the character string 複数の画像を対象に検索する場合の処理のフローチャートFlowchart of processing when searching for multiple images 複数画像に対して基準位置と文字列の位置の距離を取得した場合の、各距離を表した模式図Schematic diagram showing each distance when the distance between the reference position and the character string position is obtained for multiple images 候補として選択された検索結果の表示の一例を示す図The figure which shows an example of the display of the search result selected as a candidate 検索対象の文書ファイルの1ページを示した模式図Schematic diagram showing one page of the document file to be searched 文書ファイルの1ページを複数のエリアに分割しエリア識別ビットによって管理する一例を示した模式図Schematic diagram showing an example in which one page of a document file is divided into a plurality of areas and managed by area identification bits エリア識別ビットの照合によって、基準位置と文字列の位置との距離が近い画像のグループを決定する処理のフローチャートFlowchart of processing for determining a group of images in which the distance between the reference position and the character string position is close by collating area identification bits 文書ファイルの1ページを複数のエリアに分割しエリア識別ビットによって管理する一例を示した模式図Schematic diagram showing an example in which one page of a document file is divided into a plurality of areas and managed by area identification bits 基準位置と文字列との距離を取得する処理のフローチャートFlowchart of processing for obtaining the distance between the reference position and the character string 各エリアに基準位置との距離を定義する処理のフローチャートFlowchart of processing for defining the distance from the reference position for each area

以下、図面を参照しながら本発明の好適な実施例について説明する。   Hereinafter, preferred embodiments of the present invention will be described with reference to the drawings.

図1(a)は、本発明の実施形態の構成を示すブロック図である。   FIG. 1A is a block diagram showing the configuration of the embodiment of the present invention.

位置情報入力部101は、検索対象の画像について、基準位置を入力する。特定情報入力部102は、要求されるオブジェクトを特定する情報を入力する。   The position information input unit 101 inputs a reference position for the search target image. The specific information input unit 102 inputs information for specifying the requested object.

検索処理部103は、画像データベース(DB)104が保持する検索対象の画像の中から、特定されたオブジェクトが配置されている画像を検出する。
距離取得部105は、検索処理部103によって検出された画像上において特定されたオブジェクトが配置されている位置と、位置情報入力部101に入力された基準位置との距離を取得する。
The search processing unit 103 detects an image in which the identified object is arranged from the search target images held in the image database (DB) 104.
The distance acquisition unit 105 acquires the distance between the position where the identified object is placed on the image detected by the search processing unit 103 and the reference position input to the position information input unit 101.

画像選択部106は、距離取得部105が取得した距離に基づいて画像を選択する。結果表示部107は、画像選択部106が選択した画像を検索結果として表示する。   The image selection unit 106 selects an image based on the distance acquired by the distance acquisition unit 105. The result display unit 107 displays the image selected by the image selection unit 106 as a search result.

図1(b)は、図1(a)の構成を本発明の典型的な実施形態であるコンピューティングシステムで実現する際の制御構成を示すブロック図である。   FIG. 1B is a block diagram showing a control configuration when the configuration of FIG. 1A is realized by a computing system which is a typical embodiment of the present invention.

コンピュータ装置108におけるCPU109は、システムバス112を介して接続する各デバイスを総括的に制御する。CPU109は、読み出し専用メモリ(ROM)110もしくはハードディスク(HD)119に記憶された、あるいは外部メモリディスクドライブ120より供給される処理ステップやプログラムを読み出して実行する。同様に、CPU109は、図2、図9などのフローチャートに示された工程を実行でき、検索処理部103、距離取得部105、画像選択部106として機能する。その際、ランダムアクセスメモリ(RAM)111は高速にアクセス可能なCPU109の主メモリ、ワークエリア等の一時記憶領域として用いられる。   A CPU 109 in the computer apparatus 108 generally controls each device connected via the system bus 112. The CPU 109 reads and executes processing steps and programs stored in the read-only memory (ROM) 110 or the hard disk (HD) 119 or supplied from the external memory disk drive 120. Similarly, the CPU 109 can execute the steps shown in the flowcharts of FIGS. 2 and 9 and functions as the search processing unit 103, the distance acquisition unit 105, and the image selection unit 106. At that time, the random access memory (RAM) 111 is used as a temporary storage area such as a main memory and a work area of the CPU 109 that can be accessed at high speed.

ここで、HD119は、画像などのデータファイルや、オペレーティングシステム、アプリケーションなどにおける、コンピュータによって実行可能な工程をプログラムとして格納し、コンピュータ装置108によって実行されるデバイスドライバなどを格納する。   Here, the HD 119 stores a process executable by a computer in a data file such as an image, an operating system, and an application as a program, and stores a device driver executed by the computer apparatus 108.

ディスクドライブ120は、そこへ挿入されたディスクデバイスからのデータを読み出し、そのディスクデバイスへデータの書き込みを行うためのインターフェースである。このディスクドライブ120を用いて、コンピュータによって実行可能な処理ステップや画像などのデータファイルがコンピュータ装置108に取り込まれ、HD119に格納される。従ってHD119又はディスクドライブ120に挿入された記録媒体は、画像DB104としての機能を担う。   The disk drive 120 is an interface for reading data from a disk device inserted therein and writing data to the disk device. Using this disk drive 120, data files such as processing steps and images that can be executed by the computer are taken into the computer device 108 and stored in the HD 119. Therefore, the recording medium inserted into the HD 119 or the disk drive 120 functions as the image DB 104.

ROM110は、基本I/O、スタートアップ、或いはキーボード115からのキーストローク受け付けのような基本的なシステム機能のための、コンピュータによって実行可能な不変の処理ステップを格納する。   ROM 110 stores invariant processing steps that can be executed by a computer for basic system functions such as basic I / O, startup, or keystroke acceptance from keyboard 115.

また、キーボードコントローラ(KBC)113は、キーボード(KB)115やマウス、タッチパネル、レーザポインタ等のようなポインティングデバイス114からの指示入力を制御する。従って位置情報入力部101及び特定情報入力部102として機能する。   A keyboard controller (KBC) 113 controls input of instructions from a pointing device 114 such as a keyboard (KB) 115, a mouse, a touch panel, and a laser pointer. Therefore, it functions as the position information input unit 101 and the specific information input unit 102.

ディスプレイコントローラ(DSPC)116は、ディスプレイ(DSP)117の表示を制御することで、結果表示部107として機能する。ディスクコントローラ(DKC)118は、HD119及びディスクドライブ120とのアクセスを制御する。   The display controller (DSPC) 116 functions as the result display unit 107 by controlling the display on the display (DSP) 117. A disk controller (DKC) 118 controls access to the HD 119 and the disk drive 120.

図1に示した構成による本実施形態が、基準位置とオブジェクトの画像上での位置との距離に基づいて画像を選択する基本的な処理内容を、具体的な実施形態に従って説明する。   The basic processing contents in which the present embodiment having the configuration shown in FIG. 1 selects an image based on the distance between the reference position and the position of the object on the image will be described according to a specific embodiment.

<第1の実施形態>
第1の実施形態では、複数のスライドで構成されるプレゼンテーション資料から所望のスライドを選択する例を示す。
<First Embodiment>
In the first embodiment, an example is shown in which a desired slide is selected from presentation material composed of a plurality of slides.

第1の実施形態における検索対象となるプレゼンテーション資料の1枚のスライドを模式的に図3に示す。301は、1枚のスライドが表示装置に表示されている画面の図であり、306は画面301に対応するドキュメントのXMLデータを表す。画像302〜305はスライドの構成要素であり、それぞれ段落307〜310に対応する。構成要素(title、figure)は、構成要素の種類(type)、座標(offset)、サイズ(size)、レイヤ(layer)等の属性情報とコンテンツを持つ。レイヤ属性とは、構成要素の背面から前面への重ね合わせ順序である。ここでは数値が小さいほど背面に配置されるものとする。なお、レイヤ属性を設ける代わりに構成要素の記述順で重ね合わせ順序を表現してもよい。また、図3の画面301においてはスライドの左上隅を、スライドを座標平面としたときの原点(0,0)とした。   FIG. 3 schematically shows one slide of the presentation material to be searched in the first embodiment. Reference numeral 301 denotes a screen on which one slide is displayed on the display device, and reference numeral 306 denotes XML data of a document corresponding to the screen 301. Images 302 to 305 are components of the slide, and correspond to paragraphs 307 to 310, respectively. The component (title, figure) has attribute information such as the type (type), coordinates (offset), size (size), and layer (layer) of the component and content. The layer attribute is an overlapping order from the back side of the component to the front side. Here, it is assumed that the smaller the numerical value is, the more the rear surface is arranged. Instead of providing the layer attribute, the overlapping order may be expressed in the description order of the constituent elements. In the screen 301 of FIG. 3, the upper left corner of the slide is the origin (0, 0) when the slide is a coordinate plane.

次に、ユーザが所望しているスライドを選択する選択処理を、図2のフローチャートを参照して説明する。   Next, a selection process for selecting a slide desired by the user will be described with reference to the flowchart of FIG.

図4に、検索対象となるプレンテーション資料の一例を示す。スライド401〜408のそれぞれは、プレゼンテーション資料に含まれるスライドを示しており、スライド401〜408は順に1〜8枚目であるとする。ここでは、スライド402、403、404、406、407の中に文字列「ロードマップ」が含まれている。本実施形態では、ユーザが「ロードマップ」という文字列を検索条件として用い、その文字列が配置されているスライドを検索したい場合を考える。ユーザはスライド406を検索したいと考えており、文字列「ロードマップ」が右段上部にあったことを記憶しているとする。   FIG. 4 shows an example of the presentation material to be searched. Each of the slides 401 to 408 indicates a slide included in the presentation material, and it is assumed that the slides 401 to 408 are the first to eighth sheets in order. Here, the character string “road map” is included in the slides 402, 403, 404, 406, and 407. In the present embodiment, a case is considered in which a user uses a character string “road map” as a search condition and wants to search for a slide on which the character string is arranged. It is assumed that the user wants to search for the slide 406 and stores that the character string “road map” is at the upper right portion.

図2のステップS01では、キーボードコントローラ113の機能部としての位置情報入力部101と特定情報入力部102の入力を受理し、ステップS02に移る。   In step S01 of FIG. 2, the input of the position information input unit 101 and the specific information input unit 102 as the function units of the keyboard controller 113 is accepted, and the process proceeds to step S02.

図2のステップS01における検索条件の入力処理の一例を、図5に示す。まずユーザは、基準となる位置情報として、所望する画像において検索条件のオブジェクト(文字列など)が配置されていた概ねの位置を、記憶を頼りに入力する。すなわち、ここでの基準位置とは、所望の画像において検索条件のオブジェクトが配置されていたとユーザが記憶している位置である。つまり、検索の結果得られる画像において、検索条件のオブジェクトが配置されていることが要求される位置の基準位置であり、言い換えると、ユーザは基準位置の近くにオブジェクトが配置されている画像を所望している。図5(a)では、ユーザが所望するスライド406において文字列「ロードマップ」が配置されていた右段上部の位置にマウスカーソル501をセットすることで、基準となる位置情報が入力される。位置情報は座標として保存される。なお、位置情報の入力にはポインティングデバイス114を用いることができる。また、キーボード115によって操作をしても、マイクから音声で「右上」などと発声して入力してもよい。(b)では、右クリックによりメニュー502が表示される。メニュー502の中から検索を選択すると、検索文字列を入力するフォーム503が表示される。フォーム503にロードマップと入力し、エンターキーやリターンキーを押すことで検索が実行される。メニュー502やその他の表示部分に実行ボタンを備え、マウスカーソル501によるクリック操作で実行を指示しても構わない。   An example of search condition input processing in step S01 of FIG. 2 is shown in FIG. First, the user inputs the approximate position where the search condition object (character string or the like) was placed in the desired image as the reference position information, relying on the memory. That is, the reference position here is a position where the user remembers that the object of the search condition has been arranged in the desired image. In other words, in the image obtained as a result of the search, it is the reference position of the position where the object of the search condition is required to be arranged. In other words, the user desires an image in which the object is arranged near the reference position. doing. In FIG. 5A, by setting the mouse cursor 501 at the upper right position where the character string “road map” is arranged on the slide 406 desired by the user, the reference position information is input. The position information is stored as coordinates. Note that the pointing device 114 can be used to input position information. In addition, the keyboard 115 may be used for operation, or “right” or the like may be spoken and input from a microphone. In (b), a menu 502 is displayed by right clicking. When search is selected from the menu 502, a form 503 for inputting a search character string is displayed. A search is executed by inputting a road map in the form 503 and pressing the enter key or return key. An execution button may be provided in the menu 502 or other display portion, and execution may be instructed by a click operation with the mouse cursor 501.

次に、ステップS02では、CPU109(その機能部としての検索処理部103)が、検索対象の画像が保存されている画像DB104を参照し、特定情報入力部102に入力された特定情報の示すオブジェクトが配置されている画像を検出する。更に、CPU109(その機能部としての距離取得部105)が、検出された画像に含まれる上記オブジェクトの配置位置と、入力された基準位置との距離を取得して、ステップS03に移る。   Next, in step S02, the CPU 109 (the search processing unit 103 as its functional unit) refers to the image DB 104 in which the search target image is stored, and the object indicated by the specific information input to the specific information input unit 102 Detect the image where is placed. Further, the CPU 109 (distance acquisition unit 105 as its functional unit) acquires the distance between the arrangement position of the object included in the detected image and the input reference position, and proceeds to step S03.

ステップS02において、まず検索処理部103は、文字列や図形などのオブジェクトを公知の検索手段によって検索する。検索対象となる画像とは、例えばプレゼンテーション資料や文書ファイルなどのドキュメントを構成する、スライドやページである。そして、ドキュメントは1つの画像又は複数の画像で構成される。また、ドキュメントが複数存在してもよい。検索の結果として得られる情報は、オブジェクトが含まれるドキュメントと、そのドキュメント内の画像、その画像中のオブジェクトの配置位置の情報である。位置情報は、画像中のいずれかの場所(例えば左上)を起点とした座標情報を用いてもよいし、文字列であれば行数、文字数などの情報を利用した座標情報を用いてもよい。距離取得部105は、このように得られた位置情報と基準位置の情報から、その距離を取得する。ここでの距離とは、座標平面上における、基準位置座標とオブジェクトが配置されている位置の座標との間の距離である。   In step S02, the search processing unit 103 first searches for an object such as a character string or a figure using a known search unit. The image to be searched is, for example, a slide or a page constituting a document such as a presentation material or a document file. The document is composed of one image or a plurality of images. A plurality of documents may exist. Information obtained as a result of the search is information on a document including the object, an image in the document, and an arrangement position of the object in the image. The position information may be coordinate information starting from any location in the image (for example, upper left), or may be coordinate information using information such as the number of lines and the number of characters in the case of a character string. . The distance acquisition unit 105 acquires the distance from the position information and the reference position information thus obtained. The distance here is the distance between the reference position coordinates and the coordinates of the position where the object is arranged on the coordinate plane.

図6は、第1の実施形態において取得する距離を示す模式図である。図3の301を再び利用して、更に説明する。座標601は、ユーザが入力した位置であり、例えばマウスを右クリックした位置に相当する。座標602は、文字列「ロードマップ」が含まれる構成要素の座標であり、図3における段落309で示される位置情報に相当する。距離取得部105は、座標601と座標602の2点間の距離を計算する。X軸、Y軸に従った座標として座標601を(x1,y1)、座標602を(x2,y2)とすると、距離D は以下のように定義できる。   FIG. 6 is a schematic diagram illustrating distances acquired in the first embodiment. Further explanation will be made by using 301 in FIG. 3 again. A coordinate 601 is a position input by the user, and corresponds to, for example, a position where the mouse is right-clicked. A coordinate 602 is a coordinate of a component including the character string “road map”, and corresponds to position information indicated by a paragraph 309 in FIG. The distance acquisition unit 105 calculates a distance between two points of coordinates 601 and 602. Assuming that coordinates 601 are (x1, y1) and coordinates 602 are (x2, y2) as coordinates according to the X axis and Y axis, the distance D can be defined as follows.

D=√{(x1−x2)*(x1−x2)+(y1−y2)*(y1−y2)}
なお、距離Dの求め方は上記に限らない。例えば、図3のXMLデータ306などから得られるスライドのレイヤ構造を利用し、背面に配置されている構成要素ほど基準位置とオブジェクトの配置位置との距離が大きくなるよう重みを付けた距離を定義することもできる。
D = √ {(x1-x2) * (x1-x2) + (y1-y2) * (y1-y2)}
The method for obtaining the distance D is not limited to the above. For example, using the slide layer structure obtained from the XML data 306 in FIG. 3 and the like, a distance that is weighted so that the distance between the reference position and the object arrangement position becomes larger as the component arranged on the back surface is defined. You can also

更に、図7は、コンテンツに含まれるオブジェクトの構成要素(ここでは文字)ごとに位置情報とサイズ情報を付与した例を示した模式図である。701は図3の306においてXMLで表現した内容を抽出したものである。一方、702は、コンテンツの文字ごとに位置情報とサイズ情報が付与したものの一部である。例えば、文字「ロ」の位置情報(左上隅の座標)は(140,20)であり、サイズは(8,8)である。位置情報とサイズ情報の付与は、事前に行ってもよいし、検索処理部103による検索の直前に行っても、検索後に検索されたオブジェクトに対してのみ行ってもよい。また、各文字の位置情報やサイズ情報の抽出は既存の技術を用いることができる。   Furthermore, FIG. 7 is a schematic diagram showing an example in which position information and size information are given for each component (here, a character) of an object included in the content. 701 is extracted from the content expressed in XML in 306 of FIG. On the other hand, reference numeral 702 denotes a part of the position information and size information given to each character of the content. For example, the position information (the coordinates of the upper left corner) of the character “B” is (140, 20), and the size is (8, 8). The position information and the size information may be given in advance, or may be performed just before the search by the search processing unit 103 or only for the object searched after the search. Further, existing technology can be used to extract position information and size information of each character.

このようにコンテンツの文字ごとに位置情報とサイズ情報を付与しておくことで、各文字の実際の位置を基準とした詳細な距離計算が可能になる。第1の実施形態における処理を、図8のフローチャートを参照して説明する。   Thus, by providing position information and size information for each character of the content, detailed distance calculation based on the actual position of each character becomes possible. The processing in the first embodiment will be described with reference to the flowchart of FIG.

図8のステップS801では、オブジェクト(文字列)を構成する最後の文字を処理したかどうかを確認し、未処理であればステップS802に移り、既に処理した場合には終了する。   In step S801 of FIG. 8, it is confirmed whether or not the last character constituting the object (character string) has been processed. If it has not been processed, the process proceeds to step S802, and if already processed, the process ends.

ステップS802では、距離計算処理の対象とする文字を決定する。文字列を構成する全ての文字を計算する場合には、先頭から順に次の文字を選べばよい。また、適宜文字を間引いたり、文字列の先頭・中間・最後の文字のみを対象にしたりなど、速やかに計算処理するための工夫をしても構わない。例として、文字列「ロードマップ」の先頭文字「ロ」を、距離計算処理の対象として決定したとする。処理対象の文字を決定したら、ステップS803に移る。   In step S802, a character to be subjected to distance calculation processing is determined. When calculating all the characters constituting the character string, the next character may be selected in order from the top. In addition, it is also possible to devise a quick calculation process, such as thinning out characters as appropriate, or targeting only the first, middle, and last characters of a character string. As an example, it is assumed that the first character “B” of the character string “ROAD MAP” is determined as the target of the distance calculation process. When the character to be processed is determined, the process proceeds to step S803.

ステップS803では、ユーザの入力位置と処理対象の文字の位置との距離Dを求める。702のように、処理対象文字「ロ」の位置情報(座標)は(140,20)であり、サイズは(8,8)である。従って、ステップS01でユーザが入力した基準位置座標と、座標(140,20)によって距離Dを求めることができる。なお、ここで計算に用いた位置情報は、文字の左上隅の座標であったが、これに限られない。例えば文字サイズが大きければ、文字の中心の座標を用いる方が、よりユーザが認識している文字の位置に近い場合がある。その場合には、文字のサイズの情報から文字の中心の座標を求め、距離Dの計算に用いる。例としている文字「ロ」の場合には、文字サイズが(8,8)であることから、中心の座標は(144,24)であるとがわかる。同様に、文字のサイズの情報を用いて文字の四隅の座標を求め、四隅それぞれについてまたは基準位置に近いと思われるいくつかについて基準位置座標との距離Dを計算し、最も小さいものを選ぶこともできる。距離Dを求めたら、ステップS804に移る。   In step S803, a distance D between the input position of the user and the position of the character to be processed is obtained. Like 702, the position information (coordinates) of the processing target character “b” is (140, 20), and the size is (8, 8). Accordingly, the distance D can be obtained from the reference position coordinates input by the user in step S01 and the coordinates (140, 20). The position information used for the calculation here is the coordinates of the upper left corner of the character, but is not limited to this. For example, if the character size is large, using the coordinates of the center of the character may be closer to the character position recognized by the user. In that case, the coordinates of the center of the character are obtained from the character size information and used for the calculation of the distance D. In the case of the character “B” as an example, since the character size is (8, 8), it can be seen that the center coordinates are (144, 24). Similarly, the coordinates of the four corners of the character are obtained using the information on the size of the character, the distance D from the reference position coordinates is calculated for each of the four corners or for some that are considered to be close to the reference position, and the smallest one is selected. You can also. When the distance D is obtained, the process proceeds to step S804.

ステップS804では、既に処理した文字で求めた距離Dの最小値と、処理中の文字での距離Dを比較し、小さい方を新たな最小値として保持し、ステップS801に戻る。処理が終了した時点で、保持している最小値をその文字列と基準位置の距離とする。   In step S804, the minimum value of the distance D obtained for the already processed character is compared with the distance D of the character being processed, the smaller one is held as a new minimum value, and the process returns to step S801. When the processing is completed, the held minimum value is set as the distance between the character string and the reference position.

最後に、図2のステップS03では、CPU109の機能部としての画像選択部106が、距離取得部105が取得した距離に基づいて、要求されたオブジェクトが配置されている画像を選択し、終了する。例えば、距離が最も小さい画像を選択するように定める。基準位置は、所望の画像において検索条件となる文字列が配置されていたとユーザが記憶している位置であり、ユーザは基準位置の近くにオブジェクトが配置されている画像を所望している。つまり、取得した距離が最も小さい画像を選択することで、ユーザが望んだ条件に最も適合した画像を得ることができる。従って、第1の実施形態においては、スライド406が選択される。なお、変形例としては他の方法を採用してもよく、例えば、ある閾値よりも距離が小さい画像を選択してもよい。この場合、複数の画像が選択され得るが、ユーザの記憶を頼りに入力された基準位置に対して、ある許容範囲内にオブジェクトが配置されている画像を適切に選択することができる。   Finally, in step S03 of FIG. 2, the image selection unit 106 as a function unit of the CPU 109 selects the image in which the requested object is arranged based on the distance acquired by the distance acquisition unit 105, and the process ends. . For example, it is determined to select an image having the shortest distance. The reference position is a position where the user memorizes that a character string serving as a search condition is arranged in a desired image, and the user desires an image in which an object is arranged near the reference position. That is, by selecting an image having the smallest acquired distance, an image most suitable for the conditions desired by the user can be obtained. Accordingly, the slide 406 is selected in the first embodiment. In addition, as a modification, another method may be adopted, and for example, an image having a distance smaller than a certain threshold may be selected. In this case, a plurality of images can be selected, but an image in which an object is arranged within a certain allowable range can be appropriately selected with respect to the reference position input with the help of the user's memory.

なお、要求されたオブジェクトが配置されている画像が、ドキュメント中に複数含まれていた場合には、取得された距離の小さい順に候補として選択する構成としてもよい。この構成によれば、ユーザの記憶が曖昧で、基準となる位置情報の入力が最適ではなかった場合でも、所望の画像である可能性の高い画像から順に候補として選ばれるので、速やかに所望の画像を得ることができる。複数のスライドに検索文字列が検出された場合の本実施形態の処理ステップを、図9示すフローチャートに従って説明する。   In addition, when a plurality of images in which the requested object is arranged are included in the document, the image may be selected as a candidate in ascending order of the acquired distance. According to this configuration, even when the user's memory is ambiguous and the input of the reference position information is not optimal, the images are selected as candidates in order from the images that are likely to be the desired images. An image can be obtained. Processing steps of this embodiment when search character strings are detected in a plurality of slides will be described with reference to the flowchart shown in FIG.

図9(a)は、図2に対応する検索処理のフローチャートであり、ステップS902において、位置情報入力部101と特定情報入力部102の入力を受理し、ステップS902に移る。   FIG. 9A is a flowchart of the search process corresponding to FIG. 2. In step S902, the input of the position information input unit 101 and the specific information input unit 102 is accepted, and the process proceeds to step S902.

ステップS902では、検索処理部103が、検索対象の画像が保存されている画像DB104を参照し、特定情報入力部102に入力された特定情報の示すオブジェクトが配置されている画像を複数検出する。   In step S902, the search processing unit 103 refers to the image DB 104 in which the search target image is stored, and detects a plurality of images in which the object indicated by the specific information input to the specific information input unit 102 is arranged.

ここで、図9(b)はステップS902の処理を更に説明したフローチャートである。ステップS902aでは、検出された全ての画像について順次距離を取得する処理を行ったかどうかを確認し、未処理であればステップS902bに移り、処理済みであれば終了してステップS903に移る。ステップS902bでは、次に処理をする画像を順次決定し、ステップS902cに移る。ステップS902cでは、決定した現在の画像において、図8の処理ステップによって基準位置と文字列との最小距離を取得し、ステップS902aに戻る。   Here, FIG. 9B is a flowchart for further explaining the processing in step S902. In step S902a, it is confirmed whether or not the processing for sequentially acquiring distances has been performed for all detected images. If unprocessed, the process proceeds to step S902b. If processed, the process ends, and the process proceeds to step S903. In step S902b, images to be processed next are sequentially determined, and the process proceeds to step S902c. In step S902c, the minimum distance between the reference position and the character string is acquired by the processing step of FIG. 8 in the determined current image, and the process returns to step S902a.

ステップS903では、画像選択部106が、距離取得部105が取得した各スライドにおける距離が小さい順に、要求されたオブジェクトが配置されている画像をソートして保持し、ステップS904に移る。   In step S903, the image selection unit 106 sorts and holds the images in which the requested objects are arranged in ascending order of the distance in each slide acquired by the distance acquisition unit 105, and proceeds to step S904.

ステップS904では、ソートされた順に画像を選択し、ステップS905に移る。ステップS905では、ディスプレイコントローラ(DSPC)116の機能部である結果表示部107によって選択された画像を表示し、ステップS906に移る。ステップS906では、表示された画像で選択を決定するかを確認し、決定でなければステップS904に戻り、決定すれば終了する。   In step S904, images are selected in the sorted order, and the process proceeds to step S905. In step S905, the image selected by the result display unit 107, which is a functional unit of the display controller (DSPC) 116, is displayed, and the process proceeds to step S906. In step S906, it is confirmed whether or not the selection is determined based on the displayed image. If not, the process returns to step S904, and if determined, the process ends.

図10に、文字列の位置に基づいて距離を計算した場合のユーザの入力位置(黒丸)と各文字列との距離(矢印付きの直線)を、模式的に示す。検索の結果、文字列「ロードマップ」が配置されていたスライドに注目している。   FIG. 10 schematically shows a distance (straight line with an arrow) between a user input position (black circle) and each character string when the distance is calculated based on the position of the character string. As a result of the search, attention is paid to the slide on which the character string “road map” is arranged.

位置情報を利用しないで文字列「ロードマップ」で検索すると、その検索結果としては、「ロードマップ」を含むスライドが予め決まったページ順に表示される。よって、スライド402、403、404、406、407の順に表示される。この場合には、ユーザが所望するスライド406は最初には表示されず、4番目に表示されることになる。それに対して、本実施形態による検索の場合、上記距離はスライド406において最も小さく、スライド403、404、407、402の順に距離が大きくなる。   If a search is performed using the character string “road map” without using position information, slides including the “road map” are displayed in a predetermined page order as the search result. Accordingly, the slides 402, 403, 404, 406, and 407 are displayed in this order. In this case, the slide 406 desired by the user is not displayed first but is displayed fourth. In contrast, in the search according to the present embodiment, the distance is the smallest on the slide 406, and the distance increases in the order of the slides 403, 404, 407, and 402.

このようにオブジェクト(文字列)が存在する位置に基づいて距離を計算し、距離が小さい順に候補とすることにより、実際のユーザの感覚と一致した検索結果を提供できる。   In this way, by calculating the distance based on the position where the object (character string) exists, and selecting candidates in ascending order of the distance, a search result that matches the actual user's feeling can be provided.

図9(a)のステップS905における検索結果の表示の一例を図11に示す。ここでは、2番目の候補であるスライド403が表示されている状態を示している。操作ボタン1101及び操作ボタン1102は、候補となるスライドを順に閲覧するためのスライド送りを指示するボタンである。ステップS906において、選択の決定を示す場合には、例えばダブルクリック操作によって通常のスライド閲覧画面に戻るなどの処理をすればよい。   An example of the display of the search result in step S905 in FIG. 9A is shown in FIG. Here, a state where the slide 403 as the second candidate is displayed is shown. The operation button 1101 and the operation button 1102 are buttons for instructing a slide feed for sequentially browsing candidate slides. In step S906, when it is determined to be selected, for example, a process of returning to a normal slide browsing screen by a double click operation may be performed.

第1の実施形態では、スライドに含まれるコンテンツの文字列を要求されたオブジェクトとする例を示したが、オブジェクトは文字列に限らず、例えば楕円や四角形といった図形や画像の要素であっても構わない。その場合にも、XMLデータ等から得られる位置情報やサイズ情報からオブジェクトの四隅や中心位置の座標を求め、座標平面上での基準位置座標との間の距離Dを計算することができる。また、事前に画像の内容を特定できる識別情報を登録すれば、写真などの画像をオブジェクトとして用いた場合に、その内容で特定することも可能である。   In the first embodiment, an example in which a character string of content included in a slide is a requested object has been shown, but the object is not limited to a character string, and may be a graphic or image element such as an ellipse or a rectangle. I do not care. Even in this case, the coordinates of the four corners and the center position of the object can be obtained from the position information and size information obtained from the XML data, and the distance D between the reference position coordinates on the coordinate plane can be calculated. In addition, if identification information that can specify the content of an image is registered in advance, when an image such as a photograph is used as an object, it can be specified by the content.

<第2の実施形態>
第2の実施形態では、複数のページで構成される文書ファイルから所望のページを選択する例を示す。図12に、検索対象の文書ファイルの1ページを模式的に示す。第1の実施形態と同様「ロードマップ」という文字列を要求し、検索条件に用いる場合を示している。
<Second Embodiment>
The second embodiment shows an example in which a desired page is selected from a document file composed of a plurality of pages. FIG. 12 schematically shows one page of the document file to be searched. As in the first embodiment, a case where a character string “road map” is requested and used as a search condition is shown.

更に、第2の実施形態では、文書ファイルの1ページを複数のエリアに分割して、分割された各エリアにエリア識別ビットを割り当てることで管理する。距離取得ステップでは、基準位置と要求された文字列が属するエリアの識別ビットを照合し、その異同を判断する。従って、第1の実施形態のように座標平面上の距離を計算するよりも簡易かつ高速に距離を得ることができる。分割されたエリアにエリア識別ビットを割り当てる方法の一例を、図13に示す。   Furthermore, in the second embodiment, one page of a document file is divided into a plurality of areas, and management is performed by assigning an area identification bit to each divided area. In the distance acquisition step, the reference position is compared with the identification bit of the area to which the requested character string belongs, and the difference is determined. Therefore, it is possible to obtain the distance more easily and faster than calculating the distance on the coordinate plane as in the first embodiment. An example of a method for assigning area identification bits to the divided areas is shown in FIG.

図13(a)において、まずページを縦に2分割し、上のエリアには0、下のエリアには1というエリア識別ビットを割り当てる。次に、(b)において、更にページを横に2分割し、左側に0、右側に1と識別ビットを2桁目に割り当てる。この作業を(c)、(d)のように分割された各領域に対して繰り返していく。本実施形態では、例として1ページを16分割して4桁のエリア識別ビットを割り当てた。   In FIG. 13A, the page is first divided vertically into two, and area identification bits of 0 are assigned to the upper area and 1 to the lower area. Next, in (b), the page is further divided into two parts, and 0 is assigned to the left side, 1 is assigned to the right side, and an identification bit is assigned to the second digit. This operation is repeated for each of the divided areas as shown in (c) and (d). In the present embodiment, as an example, one page is divided into 16 and 4-digit area identification bits are assigned.

ユーザが所望するページを選択する処理は、第1の実施形態と同様に図2又は図9のフローチャートに沿って実行される。検索条件の入力処理は、図5で説明した処理で行うことができる。図13に示すように、本実施形態においてマウスカーソル1301がセットされた位置は、4桁のエリア識別ビットが割り当てられた16のエリアのうち、識別ビットが1100のエリア1302である。第2の実施形態では、この1100というエリア識別ビットが、基準となる位置情報として保存される。   The process of selecting a desired page by the user is executed according to the flowchart of FIG. 2 or FIG. 9 as in the first embodiment. The search condition input process can be performed by the process described with reference to FIG. As shown in FIG. 13, the position where the mouse cursor 1301 is set in the present embodiment is an area 1302 with an identification bit of 1100 out of 16 areas to which a 4-digit area identification bit is assigned. In the second embodiment, this area identification bit 1100 is stored as reference position information.

次に、エリア識別ビットによって定義された基準位置と検索文字列の位置との距離を取得する処理を、図14のフローチャートを参照して説明する。第2の実施形態では、エリア識別ビットを先頭から照合し、共通する桁が多いエリアに属するという関係を基に、ページ上における距離が近いと定義する。   Next, processing for obtaining the distance between the reference position defined by the area identification bit and the position of the search character string will be described with reference to the flowchart of FIG. In the second embodiment, the area identification bits are collated from the top, and the distance on the page is defined as being close based on the relationship that they belong to an area having many common digits.

図14のステップS1401では、基準位置及び処理中のページにおいて検索文字列が配置されている位置が属するエリアのエリア識別ビットを取得して、ステップS1402に移る。この文字列を検索する方法は、公知の検索技術によることができる。検出された文字列が複数のエリアにまたがる場合には、文字列の先頭文字の位置や中間の文字の位置などを検索文字列の位置として定義してもよい。   In step S1401 of FIG. 14, the area identification bit of the area to which the reference position and the position where the search character string is arranged in the page being processed belongs is acquired, and the process proceeds to step S1402. A method for searching for this character string can be based on a known search technique. When the detected character string extends over a plurality of areas, the position of the first character of the character string, the position of an intermediate character, or the like may be defined as the position of the search character string.

ステップS1402では、変数nに1を代入して次に移る。ステップS1403では、基準位置と、検索文字列の配置位置が属するエリア識別ビットを照合して、ステップS1404に移る。   In step S1402, 1 is assigned to variable n, and the process proceeds to the next. In step S1403, the reference position is compared with the area identification bit to which the search character string arrangement position belongs, and the process proceeds to step S1404.

ステップS1404では、照合したエリア識別ビットのn桁目が共通であったかどうかを確認し、共通であればステップS1405に移り、異なった場合にはステップS1407に移る。初回は必ずn=1桁目を確認する。   In step S1404, it is confirmed whether or not the nth digit of the collated area identification bits is common. If they are common, the process proceeds to step S1405, and if they are different, the process proceeds to step S1407. For the first time, make sure n = 1st digit.

ステップS1405では、nを1カウントアップして次のステップに移る。ステップS1406では、エリア識別ビットの最後の桁を既に確認していればステップS1407に移り、まだであればステップS1404に戻る。   In step S1405, n is incremented by 1, and the process proceeds to the next step. In step S1406, if the last digit of the area identification bit has already been confirmed, the process proceeds to step S1407, and if not, the process returns to step S1404.

ステップS1407では、現在処理中の画像をLevel:nと定義して画像を保持し、終了する。   In step S1407, the image currently being processed is defined as Level: n, the image is retained, and the process ends.

図2のステップS02における画像選択では、図14のステップS1407で保持された画像を選択する。複数の画像が検出されていた場合には、図9のステップS903においてnの降順にソートする。従って、ステップS904の画像選択ステップでは、所望するページである可能性の高い順に候補を選ぶことができる。あるnに対して複数の画像が選択される場合には、結果表示部107に縮小画像を一覧表示してユーザに提示もよいし、ページ番号順に候補として選択してもよい。   In the image selection in step S02 in FIG. 2, the image held in step S1407 in FIG. 14 is selected. If a plurality of images are detected, they are sorted in descending order of n in step S903 in FIG. Accordingly, in the image selection step in step S904, candidates can be selected in the order of the high possibility of being the desired page. When a plurality of images are selected for a certain n, a list of reduced images may be displayed on the result display unit 107 and presented to the user, or may be selected as candidates in the order of page numbers.

<第3の実施形態>
第3の実施形態では、第2の実施形態と同様、エリア識別ビットによって取得した距離に基づいて、複数のページで構成される文書ファイルから所望のページを選択する例を示す。
<Third Embodiment>
In the third embodiment, as in the second embodiment, an example is shown in which a desired page is selected from a document file composed of a plurality of pages based on the distance acquired by the area identification bit.

図15は、第3の実施形態において、文書ファイルの1ページを複数のエリアに分割しエリア識別ビットによって管理する一例を示した模式図である。   FIG. 15 is a schematic diagram showing an example in which one page of a document file is divided into a plurality of areas and managed by area identification bits in the third embodiment.

図15においても、例として1ページを4行4列に16分割した例を示している。第3の実施形態では、左上隅を0として、行方向では右が大きく列方向には下が大きくなるように15までの数を2進数で各エリアに割り当てている。従って、16分割された各エリアに4桁のエリア識別ビットが割り当てられる。任意にr行c列に分割した場合にも、順番に2進数による個別のエリア識別ビットを割り当てることができる。   FIG. 15 also shows an example in which one page is divided into 16 by 4 rows and 4 columns. In the third embodiment, the upper left corner is 0, and numbers up to 15 are assigned to each area in binary so that the right is large in the row direction and the bottom is large in the column direction. Therefore, a 4-digit area identification bit is assigned to each of the 16 divided areas. Even when divided arbitrarily into r rows and c columns, individual area identification bits in binary numbers can be assigned in order.

ユーザが閲覧を希望するページを選択する処理は、図2又は図9のフローチャートに沿って実行される。検索条件の入力処理は、図5で説明した処理で行うことができる。図15おいて、マウスカーソル1501がセットされたエリアは、識別ビットが1010に当たる。本実施形態では、このエリアが基準位置エリア1502となる。   The process of selecting a page that the user desires to browse is executed according to the flowchart of FIG. 2 or FIG. The search condition input process can be performed by the process described with reference to FIG. In FIG. 15, the identification bit is 1010 in the area where the mouse cursor 1501 is set. In the present embodiment, this area becomes the reference position area 1502.

第3の実施例では、図15における基準位置エリア1502を距離0として定義する。そして、エリア1502の8方向を囲むように接する環状エリア1503を距離1として定義し、同様に1503を囲むように接する環状エリア1504を距離2と定義する。このように、基準位置エリアを中心にした大きさの異なる環状エリアに距離の関係を定義すれば、検索文字列が配置されている位置と基準位置との距離という概念の下で、分割されたエリアを扱うことができる。すなわち、ここでエリアの距離の関係とは、基準位置エリアを中心として、8方向を囲む大きさの異なる環状の複数のエリアに対し、基準位置からの離れる程大きくなるよう定義したものである。従って、検索文字列が配置されている位置と基準位置との距離は、検索文字列が配置されている位置が属するエリアに定義された距離によって判断することができる。   In the third embodiment, the reference position area 1502 in FIG. An annular area 1503 that touches the area 1502 so as to surround the eight directions is defined as a distance 1, and similarly, an annular area 1504 that touches the area 1502 so as to surround the 1503 is defined as a distance 2. In this way, if the relationship between the distances is defined in annular areas of different sizes centered on the reference position area, it is divided under the concept of the distance between the position where the search character string is arranged and the reference position. Can handle the area. That is, here, the area distance relationship is defined so as to increase with increasing distance from the reference position with respect to a plurality of annular areas having different sizes surrounding the eight directions with the reference position area as the center. Therefore, the distance between the position where the search character string is arranged and the reference position can be determined by the distance defined in the area to which the position where the search character string is arranged belongs.

第3の実施形態において、基準位置と検索文字列との距離を取得する処理を図16のフローチャートを参照して説明する。   In the third embodiment, processing for acquiring the distance between the reference position and the search character string will be described with reference to the flowchart of FIG.

ステップS1601では、基準位置及び処理中のページにおいて検索文字列が配置されている位置が属するエリアのエリア識別ビットを取得して、ステップS1602に移る。文字列を検索する方法は、他の実施形態と同様公知の検索技術によることができる。検出された文字列が複数のエリアにまたがる場合には、文字列の先頭文字の位置や中間の文字の位置などを検索文字列の位置として定義してもよい。   In step S1601, the area identification bit of the area to which the reference position and the position where the search character string is arranged in the page being processed belongs is acquired, and the process proceeds to step S1602. A method of searching for a character string can be performed by a known search technique as in the other embodiments. When the detected character string extends over a plurality of areas, the position of the first character of the character string, the position of an intermediate character, or the like may be defined as the position of the search character string.

ステップS1602では、処理中のページの16分割された各エリアの関係より距離を定義して、ステップS1603に移る。距離の定義方法は、図17で説明する。   In step S1602, the distance is defined based on the relationship between the 16 divided areas of the page being processed, and the flow advances to step S1603. A method for defining the distance will be described with reference to FIG.

図16に戻ると、ステップS1603では、変数Nに0を代入して次に移る。ステップS1603では、ステップS1601で取得したエリア識別ビットと、ステップS1602で定義した距離を照合し、検索文字列が配置されているエリアの距離を確認し、ステップS1605に移る。   Returning to FIG. 16, in step S1603, 0 is substituted into the variable N and the process proceeds to the next. In step S1603, the area identification bit acquired in step S1601 is compared with the distance defined in step S1602, the distance of the area where the search character string is arranged is confirmed, and the process proceeds to step S1605.

ステップS1605において、距離Nエリアに検索文字列が存在するかどうかを確認する。初回は必ずN=0の基準位置エリアを確認する。確認の結果、存在すればステップS1607に移り、存在しなければステップS1606に移る。ステップS1606では、Nを1カウントアップして、ステップS1605に戻る。このように、基準位置に近いエリアから優先して検索文字列が存在するかを確認するため、1ページ中の複数個所に検索文字列が含まれている場合でも、より基準位置に近い位置をもって距離を判断することができる。   In step S1605, it is confirmed whether or not a search character string exists in the distance N area. In the first time, always check the reference position area of N = 0. As a result of the confirmation, if it exists, the process proceeds to step S1607, and if it does not exist, the process proceeds to step S1606. In step S1606, N is incremented by 1, and the process returns to step S1605. In this way, in order to check whether the search character string exists preferentially from the area close to the reference position, even if the search character string is included in a plurality of places in one page, the position closer to the reference position is set. The distance can be determined.

ステップS1607では、処理中のページを距離Nと定義して保持し、終了する。   In step S1607, the page being processed is defined as a distance N, and the process ends.

ここで、第3の実施形態における、各エリアに基準位置との距離を定義する処理について、図17のフローチャートを参照して説明する。ここでは、一般化して1ページをr行c列のエリアに分割した場合を考える。   Here, processing for defining the distance from the reference position in each area in the third embodiment will be described with reference to the flowchart of FIG. Here, a case is considered in which one page is divided into areas of r rows and c columns.

ステップS1701では、まず基準位置のエリア識別ビットを距離0と定義して、S1702に移る。ステップS1702では、変数dに0を代入して、ステップS1703に移る。   In step S1701, first, the area identification bit at the reference position is defined as distance 0, and the process proceeds to S1702. In step S1702, 0 is substituted for variable d, and the flow advances to step S1703.

ステップS1703では、2進法による識別ビットの演算で、距離dエリアに±1したエリアを抽出し、距離d+1のエリアとして定義して、ステップS1704に移る。   In step S1703, an area that is ± 1 in the distance d area is extracted by calculation of the identification bit by the binary method, defined as an area of the distance d + 1, and the process proceeds to step S1704.

ステップS1704では、この時点で未定義のエリアの識別ビットから、定義済みの距離d及びd+1エリアの識別ビットに、2進法による演算で±c(cは列数)したエリアを抽出し、距離d+1のエリアとして定義し、ステップS1704に移る。   In step S1704, an area obtained by calculating ± c (c is the number of columns) by binary calculation is extracted from the identification bits of the undefined area at this time to the identification bits of the defined distance d and d + 1 area, and the distance is extracted. The area is defined as d + 1 area, and the process proceeds to step S1704.

ステップS1705では、ページ中の全てのエリアに距離を定義する処理をしたかを確認し、未処理のエリアがあればS1706に移り、全て処理済みであれば終了する。ステップS1706では、変数dを1カウントアップして、ステップS1703に戻る。   In step S1705, it is confirmed whether or not processing for defining distances has been performed for all areas in the page. If there is an unprocessed area, the process proceeds to S1706, and if all have been processed, the process ends. In step S1706, the variable d is incremented by 1, and the process returns to step S1703.

図2のステップS02における画像選択ステップでは、図16のステップS1607で保持されたページを選択する。複数のページが検出されていた場合には、図9のステップS903において定義された距離の小さい順にページをソートする。従って、ステップS904のページ選択では、所望するページである可能性の高い順に候補を選ぶことができる。ある距離Nのグループに対して複数の画像が選択される場合には、結果表示部107に縮小画像を一覧表示してユーザに提示もよいし、ページ番号順に候補として選択してもよい。   In the image selection step in step S02 of FIG. 2, the page held in step S1607 of FIG. 16 is selected. If a plurality of pages are detected, the pages are sorted in ascending order of distance defined in step S903 in FIG. Therefore, in the page selection in step S904, candidates can be selected in the descending order of possibility of the desired page. When a plurality of images are selected for a group of a certain distance N, reduced images may be displayed as a list on the result display unit 107 and presented to the user, or may be selected as candidates in the order of page numbers.

なお、第3の実施形態においては、基準位置エリアは分割されたエリアのうちの1つを指定したが、変形例として複数のエリアを指定することもできる。その際、位置情報入力部101への入力としては、例えばポインティングデバイス114によって直線や閉曲線などの図形を描くことができる。距離0として定義する基準位置エリアは、描かれた図形がまたがる複数のエリアとしてもよいし、図形によって囲まれたエリアとしてもよい。各エリアに基準位置との距離を定義する処理は、図17のフローチャートに従い、距離が定義されたエリアを取り囲むエリアを順に選び、次に大きな距離を定義していけばよい。   In the third embodiment, one of the divided areas is designated as the reference position area, but a plurality of areas can be designated as a modification. At this time, as an input to the position information input unit 101, for example, a graphic such as a straight line or a closed curve can be drawn by the pointing device 114. The reference position area defined as the distance 0 may be a plurality of areas over which the drawn figure extends, or may be an area surrounded by the figure. In the process of defining the distance to the reference position for each area, the area surrounding the area in which the distance is defined is sequentially selected according to the flowchart of FIG. 17, and the next largest distance may be defined.

<その他の実施例>
上記第1から第3の実施形態では、位置情報入力部101への入力はポインティングデバイス114によって1点を入力していたが、複数の点を基準位置として入力してもよい。その際には、複数の基準位置に対して共通するオブジェクトを特定してもよいし、異なるオブジェクトを特定し、それぞれが各基準位置近くに配置されている画像を検索する構成としてもよい。これらの構成は、例えば1つの検索条件に基づいて選択された候補の中から、更に残りの検索条件に基づいて候補を絞っていくことで実現される。
<Other examples>
In the first to third embodiments, one point is input to the position information input unit 101 by the pointing device 114. However, a plurality of points may be input as reference positions. In that case, a common object may be specified for a plurality of reference positions, or different objects may be specified, and an image arranged near each reference position may be searched. These configurations are realized by, for example, narrowing down candidates based on the remaining search conditions from candidates selected based on one search condition.

また、要求されたオブジェクトが配置されている画像が、検索処理部103による検索によって1つしか検出されなかった場合に、画像選択部106の機能に基準位置とオブジェクトが配置されている位置との距離に基づいた処理を更に付加してもよい。例えば、第1の実施形態の基準位置とオブジェクトが配置されている位置との距離に閾値を設け、選択された画像において距離取得部105が取得した距離が閾値よりも距離が大きい場合には、アラート又はエラーを表示することもできる。これは、唯一検出された画像であっても、ユーザが記憶している所望の画像ではない場合には有効な構成となる。   In addition, when only one image in which the requested object is arranged is detected by the search processing unit 103, the function of the image selection unit 106 determines whether the reference position and the position in which the object is arranged. Processing based on the distance may be further added. For example, when a threshold is provided for the distance between the reference position of the first embodiment and the position where the object is arranged, and the distance acquired by the distance acquisition unit 105 in the selected image is larger than the threshold, Alerts or errors can also be displayed. This is an effective configuration in the case where the detected image is not the desired image stored by the user even if it is the only detected image.

なお、前述したように、本発明の目的は、本実施形態を実現するするソフトウェアの処理ステップを記録したディスクデバイスを始めとする記録媒体を、ディスクドライブ120によってコンピュータ装置108に供給することによっても達成される。この場合、記録媒体から読み出された処理ステップ自体が前述した実施形態の機能を実現することになり、その処理ステップを記憶した記録媒体は本発明を構成することになる。記録媒体としては、例えば、フレキシブルディスク、ハードディスク、光ディスク、光磁気ディスク、CD−ROM、CD−R、磁気テープ、不揮発性のメモリカード、ROMなどを用いることができる。   As described above, the object of the present invention is also to supply a recording medium including a disk device that records software processing steps for realizing the present embodiment to the computer apparatus 108 by the disk drive 120. Achieved. In this case, the processing step itself read from the recording medium realizes the function of the above-described embodiment, and the recording medium storing the processing step constitutes the present invention. As the recording medium, for example, a flexible disk, a hard disk, an optical disk, a magneto-optical disk, a CD-ROM, a CD-R, a magnetic tape, a nonvolatile memory card, a ROM, or the like can be used.

また、CPU109が読出した処理ステップの指示に基づき、CPU109上で稼働しているオペレーティングシステムなどが実際の処理の一部又は全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。   In addition, the operating system or the like operating on the CPU 109 performs part or all of the actual processing based on the instruction of the processing step read by the CPU 109, and the functions of the above-described embodiments may be realized by the processing. Needless to say, it is included.

同様に、記録媒体から読出された処理ステップが、コンピュータ装置108に挿入された機能拡張ボードや接続された機能拡張ユニットに備わるメモリに書込まれた後、それらに備わるCPUなどが実際の処理の一部又は全部を行う場合も含まれる。   Similarly, after the processing steps read from the recording medium are written in the memory provided in the function expansion board inserted into the computer device 108 or the connected function expansion unit, the CPU or the like provided in the processing step is subjected to the actual processing. This includes cases where some or all of them are performed.

さらに、本発明の情報処理装置は、ドキュメントを電子ブックとして画面に表示し操作することが可能な携帯端末装置によっても実現される。その際、ドキュメント全体のうちの一部が画面に表示されることによって、その表示範囲が1つのページとしてユーザに認識される場合には、その表示される範囲を1画像として、本発明による画像選択処理が実現される。すなわち、検索対象の画像であるドキュメント全体の中において、画面に表示するための画像を選択することができる。   Furthermore, the information processing apparatus of the present invention is also realized by a portable terminal device that can display and operate a document as an electronic book on a screen. At this time, when a part of the entire document is displayed on the screen and the display range is recognized by the user as one page, the display range is set as one image and the image according to the present invention is displayed. Selection processing is realized. That is, an image to be displayed on the screen can be selected from the entire document that is the search target image.

ドキュメント全体のうち画面に表示される範囲は、表示される文字の大きさや行数を指定するという方法で決定されてもよい。この方法では、ドキュメントを指定された文字の大きさや行数で表示した場合に表示手段の画面に収まる範囲を1つのページの単位として、ドキュメントが複数のページに分割される。本発明は、分割された各ページを1画像として、前述の実施形態と同様の処理を行う。   The range displayed on the screen of the entire document may be determined by a method of designating the size of characters to be displayed and the number of lines. In this method, when a document is displayed with a designated character size or number of lines, the range that fits on the screen of the display means is taken as a unit of one page, and the document is divided into a plurality of pages. In the present invention, each divided page is treated as one image, and the same processing as in the above-described embodiment is performed.

また、ドキュメント全体のうち画面に表示される範囲は、ドキュメントをスクロールすることで画面に表示される範囲が変化する方法で決定されてもよい。この方法では、ドキュメントを上下または左右に移動させる、すなわちスクロールすることによって、画面に収まりきらない範囲を表示させる。従って、あるオブジェクトが表示画面上の概ねどの辺りに配置されていたかというユーザの記憶において、スクロールに平行した方向の位置情報はスクロールした際の加減に依存して異なる。そのため、ユーザが指定した基準位置と要求されるオブジェクトの配置位置の距離を求める際には、スクロールに直交する方向に限定して考慮してもよい。座標を用いて距離を計算する場合は、スクロールに直交する方向に沿った軸上の座標を用いて計算を行う。またエリアを分割する場合は、スクロールに直交する方向を複数に分割したエリアのうち、基準位置が属するエリアと前記特定されたオブジェクトが配置されている位置の属するエリアを取得して、その距離を求めることができる。   Further, the range displayed on the screen of the entire document may be determined by a method in which the range displayed on the screen changes by scrolling the document. In this method, a range that does not fit on the screen is displayed by moving the document up and down or left and right, that is, by scrolling. Therefore, in the user's memory about where a certain object is arranged on the display screen, the position information in the direction parallel to the scroll differs depending on whether the scroll is performed. Therefore, when obtaining the distance between the reference position designated by the user and the required object arrangement position, the distance may be limited to the direction orthogonal to the scroll. When calculating the distance using the coordinates, the calculation is performed using the coordinates on the axis along the direction orthogonal to the scroll. Also, when dividing the area, among the areas obtained by dividing the direction perpendicular to the scroll into a plurality of areas, the area to which the reference position belongs and the area to which the identified object is located are obtained, and the distance is obtained. Can be sought.

Claims (11)

検索対象の画像について、該画像中の基準位置を示す位置情報及び該画像中に要求されるオブジェクトを特定する特定情報を入力する入力手段と、
前記検索対象の画像中において、前記特定されたオブジェクトが配置されている位置と前記基準位置との距離に基づいて、画像を選択する選択手段と
を有することを特徴とする情報処理装置。
An input means for inputting position information indicating a reference position in the image and specific information for specifying an object required in the image for an image to be searched;
An information processing apparatus comprising: selection means for selecting an image based on a distance between a position where the identified object is arranged and the reference position in the search target image.
前記検索対象の画像は複数の画像からなり、前記特定されたオブジェクトが配置されている画像が複数含まれる場合には、前記選択手段は、前記特定されたオブジェクトが配置されている位置と前記基準位置との距離が小さい順に画像を選択することを特徴とする請求項1に記載の情報処理装置。   The search target image includes a plurality of images, and when a plurality of images in which the identified object is arranged are included, the selection unit includes the position where the identified object is arranged and the reference The information processing apparatus according to claim 1, wherein images are selected in ascending order of distance from the position. 前記距離とは、前記検索対象の画像を座標平面としたときの、該座標平面上における基準位置の座標と前記特定されたオブジェクトが配置されている位置の座標との間の距離であることを特徴とする請求項1又は2のいずれか1項に記載の情報処理装置。   The distance is a distance between the coordinates of the reference position on the coordinate plane and the coordinates of the position where the specified object is arranged when the image to be searched is a coordinate plane. The information processing apparatus according to claim 1, wherein the information processing apparatus is characterized. 前記選択手段は、前記検索対象の画像を複数のエリアに分割し、該分割された複数のエリアのうち、前記基準位置が属するエリアと前記特定されたオブジェクトが配置されている位置の属するエリアとの関係から、前記距離を取得することを特徴とする請求項1乃至2のいずれか1項に記載の情報処理装置。   The selection unit divides the image to be searched into a plurality of areas, and among the divided areas, an area to which the reference position belongs and an area to which a position where the identified object is placed belong The information processing apparatus according to claim 1, wherein the distance is acquired from the relationship. 前記距離とは、基準位置エリアを中心として、8方向を囲む大きさの異なる環状の複数のエリアに対し、基準位置からの離れる程大きくなるよう定義した距離のうち、前記特定されたオブジェクトが配置されている位置が属するエリアに定義された距離であることを特徴とする請求項4に記載の情報処理装置。   The distance is a distance defined so that the distance from the reference position increases with respect to a plurality of annular areas of different sizes surrounding the eight directions with the reference position area as the center. The information processing apparatus according to claim 4, wherein the distance is a distance defined in an area to which the position being assigned belongs. 前記画像は文書ファイルを構成するページであり、前記オブジェクトは文字列であることを特徴とする請求項1乃至5のいずれか1項に記載の情報処理装置。   6. The information processing apparatus according to claim 1, wherein the image is a page constituting a document file, and the object is a character string. 前記選択した画像を表示する表示手段を更に備え、
前記検索対象の画像は、前記表示手段における画面にその一部が表示され、
前記選択手段は、前記検索対象の画像中において、前記画面に表示される一部の範囲を選択することを特徴とする請求項1乃至6のいずれか1項に記載の情報処理装置。
A display means for displaying the selected image;
A part of the search target image is displayed on the screen of the display means,
The information processing apparatus according to claim 1, wherein the selection unit selects a partial range displayed on the screen in the search target image.
前記検索対象の画像は、スクロールすることにより前記表示手段における画面にその一部の範囲が表示されることを特徴とする請求項7に記載の情報処理装置。   The information processing apparatus according to claim 7, wherein a part of the range of the search target image is displayed on the screen of the display unit by scrolling. コンピュータに読み込み込ませ実行させることで、前記コンピュータを請求項1乃至8
のいずれか1項に記載の情報処理装置として機能させることを特徴とするプログラム。
The computer is loaded into the computer and executed to execute the computer.
A program that functions as the information processing apparatus according to claim 1.
請求項9に記載のプログラムを記録したことを特徴とするコンピュータが読み取り可能なプログラム記録媒体。   A computer-readable program recording medium having the program according to claim 9 recorded thereon. 入力手段により、検索対象の画像について、該画像中の基準となる基準位置を示す位置情報及び該画像中に要求されるオブジェクトを特定する特定情報を入力する入力工程と、
選択手段により、前記検索対象の画像中において、前記特定されたオブジェクトが配置されている位置と前記基準位置との距離に基づいて、画像を選択する選択工程と
を有することを特徴とする情報処理装置の制御方法。
An input step for inputting position information indicating a reference position in the image and specific information for specifying an object required in the image with respect to an image to be searched by an input unit;
And a selection step of selecting an image based on a distance between the position where the identified object is arranged and the reference position in the image to be searched by the selection means. Control method of the device.
JP2011142994A 2011-06-28 2011-06-28 Information processing device, control method therefor, program, and computer-readable program recording medium Withdrawn JP2013011955A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011142994A JP2013011955A (en) 2011-06-28 2011-06-28 Information processing device, control method therefor, program, and computer-readable program recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011142994A JP2013011955A (en) 2011-06-28 2011-06-28 Information processing device, control method therefor, program, and computer-readable program recording medium

Publications (1)

Publication Number Publication Date
JP2013011955A true JP2013011955A (en) 2013-01-17

Family

ID=47685803

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011142994A Withdrawn JP2013011955A (en) 2011-06-28 2011-06-28 Information processing device, control method therefor, program, and computer-readable program recording medium

Country Status (1)

Country Link
JP (1) JP2013011955A (en)

Similar Documents

Publication Publication Date Title
KR102489578B1 (en) Formula inputting method, apparatus and electronic device
JP5248696B1 (en) Electronic device, handwritten document creation method, and handwritten document creation program
JP4560062B2 (en) Handwriting determination apparatus, method, and program
KR102677199B1 (en) Method for selecting graphic objects and corresponding devices
US20130125069A1 (en) System and Method for Interactive Labeling of a Collection of Images
US9529438B2 (en) Printing structured documents
US20140304586A1 (en) Electronic device and data processing method
JP5694234B2 (en) Electronic device, handwritten document display method, and display program
US10210141B2 (en) Stylizing text by replacing glyph with alternate glyph
JP6092462B2 (en) Electronic device, method and program
JP5869179B2 (en) Electronic device and handwritten document processing method
KR20160064925A (en) Handwriting input apparatus and control method thereof
EP3599557A1 (en) Systems and methods for dynamic and interactive visualizations for navigating media content
US10055456B2 (en) Information processing apparatus and non-transitory computer readable medium for displaying an information object
WO2020090356A1 (en) Ink data generation device, method, and program
US20140222825A1 (en) Electronic device and method for searching handwritten document
JP6223687B2 (en) Electronic device and handwritten document search method
JP5735126B2 (en) System and handwriting search method
US11430166B1 (en) Facilitating generation of number-bullet objects
US20120079404A1 (en) Method for creating and searching a folder in a computer system
JP2013239203A (en) Electronic apparatus, method and program
US11436776B2 (en) Information processing apparatus and control method thereof
JP2018073202A (en) Information processing device, information processing method, and program
JP2013011955A (en) Information processing device, control method therefor, program, and computer-readable program recording medium
JP2010165120A (en) Device and method for displaying electronic information

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20140902