JP2013011955A - Information processing device, control method therefor, program, and computer-readable program recording medium - Google Patents
Information processing device, control method therefor, program, and computer-readable program recording medium Download PDFInfo
- Publication number
- JP2013011955A JP2013011955A JP2011142994A JP2011142994A JP2013011955A JP 2013011955 A JP2013011955 A JP 2013011955A JP 2011142994 A JP2011142994 A JP 2011142994A JP 2011142994 A JP2011142994 A JP 2011142994A JP 2013011955 A JP2013011955 A JP 2013011955A
- Authority
- JP
- Japan
- Prior art keywords
- image
- distance
- reference position
- information processing
- area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Landscapes
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
Description
本発明は、ユーザが指定した位置とオブジェクトとの距離を利用した検索を行う情報処理装置及びその制御方法、プログラム、コンピュータが読み取り可能なプログラム記録媒体に関する。 The present invention relates to an information processing apparatus that performs a search using a distance between a position designated by a user and an object, a control method thereof, a program, and a computer-readable program recording medium.
従来、プレゼンテーション資料や文書ファイルからユーザによって指定された文字列を検索する方法が知られている。例えば、ユーザがあるページを選択する場合には、上記検索方法によって検索された文字列を含むページを候補とし、その候補の中から所望のページを選択する等が考えられる。
特許文献1には、プレゼンテーション資料から所望のページを検索するために、音声認識によって検索文字列を指定して検索を行うことが開示されている。ここでは検索文字列を含むページが縮小画像の一覧として表示され、ユーザはその一覧から所望のページを選択する。
Conventionally, a method for retrieving a character string designated by a user from presentation materials and document files is known. For example, when a user selects a certain page, a page including a character string searched by the above search method is set as a candidate, and a desired page is selected from the candidates.
Japanese Patent Application Laid-Open No. 2004-228561 discloses that a search character string is designated by speech recognition to search for a desired page from presentation materials. Here, pages including the search character string are displayed as a list of reduced images, and the user selects a desired page from the list.
しかしながら特許文献1では、ユーザが過去に見たことがある画像について、画像中に含まれる文字列などのオブジェクトがどのあたりに配置されていたかを記憶していても、その位置までを有効利用して検索はしていない。
本発明は上記課題に鑑みてなされたものであり、画像中に含まれるオブジェクトの概ねの位置を記憶している場合に、その画像を効率よく検索する1技術を提供することを目的とする。
However, in Japanese Patent Laid-Open No. 2004-228867, even for an image that the user has seen in the past, even if the location where an object such as a character string included in the image is stored is stored, that position is effectively used. I am not searching.
The present invention has been made in view of the above problems, and an object of the present invention is to provide a technique for efficiently retrieving an image when the approximate position of an object included in the image is stored.
上記課題を解決するために、請求項1に記載の発明は、検索対象の画像について、該画像中の基準となる基準位置を示す位置情報及び該画像中に要求されるオブジェクトを特定する特定情報を入力する入力手段と、前記検索対象の画像中において、前記特定されたオブジェクトが配置されている位置と前記基準位置との距離に基づいて、画像を選択する選択手段とを有することを特徴とする。
In order to solve the above-described problem, the invention according to
本発明によれば、画像中に含まれるオブジェクトの概ねの位置を記憶している場合に、その画像を効率よく検索することが可能になる。 According to the present invention, when an approximate position of an object included in an image is stored, the image can be efficiently searched.
以下、図面を参照しながら本発明の好適な実施例について説明する。 Hereinafter, preferred embodiments of the present invention will be described with reference to the drawings.
図1(a)は、本発明の実施形態の構成を示すブロック図である。 FIG. 1A is a block diagram showing the configuration of the embodiment of the present invention.
位置情報入力部101は、検索対象の画像について、基準位置を入力する。特定情報入力部102は、要求されるオブジェクトを特定する情報を入力する。
The position
検索処理部103は、画像データベース(DB)104が保持する検索対象の画像の中から、特定されたオブジェクトが配置されている画像を検出する。
距離取得部105は、検索処理部103によって検出された画像上において特定されたオブジェクトが配置されている位置と、位置情報入力部101に入力された基準位置との距離を取得する。
The
The
画像選択部106は、距離取得部105が取得した距離に基づいて画像を選択する。結果表示部107は、画像選択部106が選択した画像を検索結果として表示する。
The
図1(b)は、図1(a)の構成を本発明の典型的な実施形態であるコンピューティングシステムで実現する際の制御構成を示すブロック図である。 FIG. 1B is a block diagram showing a control configuration when the configuration of FIG. 1A is realized by a computing system which is a typical embodiment of the present invention.
コンピュータ装置108におけるCPU109は、システムバス112を介して接続する各デバイスを総括的に制御する。CPU109は、読み出し専用メモリ(ROM)110もしくはハードディスク(HD)119に記憶された、あるいは外部メモリディスクドライブ120より供給される処理ステップやプログラムを読み出して実行する。同様に、CPU109は、図2、図9などのフローチャートに示された工程を実行でき、検索処理部103、距離取得部105、画像選択部106として機能する。その際、ランダムアクセスメモリ(RAM)111は高速にアクセス可能なCPU109の主メモリ、ワークエリア等の一時記憶領域として用いられる。
A
ここで、HD119は、画像などのデータファイルや、オペレーティングシステム、アプリケーションなどにおける、コンピュータによって実行可能な工程をプログラムとして格納し、コンピュータ装置108によって実行されるデバイスドライバなどを格納する。
Here, the
ディスクドライブ120は、そこへ挿入されたディスクデバイスからのデータを読み出し、そのディスクデバイスへデータの書き込みを行うためのインターフェースである。このディスクドライブ120を用いて、コンピュータによって実行可能な処理ステップや画像などのデータファイルがコンピュータ装置108に取り込まれ、HD119に格納される。従ってHD119又はディスクドライブ120に挿入された記録媒体は、画像DB104としての機能を担う。
The
ROM110は、基本I/O、スタートアップ、或いはキーボード115からのキーストローク受け付けのような基本的なシステム機能のための、コンピュータによって実行可能な不変の処理ステップを格納する。
また、キーボードコントローラ(KBC)113は、キーボード(KB)115やマウス、タッチパネル、レーザポインタ等のようなポインティングデバイス114からの指示入力を制御する。従って位置情報入力部101及び特定情報入力部102として機能する。
A keyboard controller (KBC) 113 controls input of instructions from a
ディスプレイコントローラ(DSPC)116は、ディスプレイ(DSP)117の表示を制御することで、結果表示部107として機能する。ディスクコントローラ(DKC)118は、HD119及びディスクドライブ120とのアクセスを制御する。
The display controller (DSPC) 116 functions as the
図1に示した構成による本実施形態が、基準位置とオブジェクトの画像上での位置との距離に基づいて画像を選択する基本的な処理内容を、具体的な実施形態に従って説明する。 The basic processing contents in which the present embodiment having the configuration shown in FIG. 1 selects an image based on the distance between the reference position and the position of the object on the image will be described according to a specific embodiment.
<第1の実施形態>
第1の実施形態では、複数のスライドで構成されるプレゼンテーション資料から所望のスライドを選択する例を示す。
<First Embodiment>
In the first embodiment, an example is shown in which a desired slide is selected from presentation material composed of a plurality of slides.
第1の実施形態における検索対象となるプレゼンテーション資料の1枚のスライドを模式的に図3に示す。301は、1枚のスライドが表示装置に表示されている画面の図であり、306は画面301に対応するドキュメントのXMLデータを表す。画像302〜305はスライドの構成要素であり、それぞれ段落307〜310に対応する。構成要素(title、figure)は、構成要素の種類(type)、座標(offset)、サイズ(size)、レイヤ(layer)等の属性情報とコンテンツを持つ。レイヤ属性とは、構成要素の背面から前面への重ね合わせ順序である。ここでは数値が小さいほど背面に配置されるものとする。なお、レイヤ属性を設ける代わりに構成要素の記述順で重ね合わせ順序を表現してもよい。また、図3の画面301においてはスライドの左上隅を、スライドを座標平面としたときの原点(0,0)とした。
FIG. 3 schematically shows one slide of the presentation material to be searched in the first embodiment.
次に、ユーザが所望しているスライドを選択する選択処理を、図2のフローチャートを参照して説明する。 Next, a selection process for selecting a slide desired by the user will be described with reference to the flowchart of FIG.
図4に、検索対象となるプレンテーション資料の一例を示す。スライド401〜408のそれぞれは、プレゼンテーション資料に含まれるスライドを示しており、スライド401〜408は順に1〜8枚目であるとする。ここでは、スライド402、403、404、406、407の中に文字列「ロードマップ」が含まれている。本実施形態では、ユーザが「ロードマップ」という文字列を検索条件として用い、その文字列が配置されているスライドを検索したい場合を考える。ユーザはスライド406を検索したいと考えており、文字列「ロードマップ」が右段上部にあったことを記憶しているとする。
FIG. 4 shows an example of the presentation material to be searched. Each of the
図2のステップS01では、キーボードコントローラ113の機能部としての位置情報入力部101と特定情報入力部102の入力を受理し、ステップS02に移る。
In step S01 of FIG. 2, the input of the position
図2のステップS01における検索条件の入力処理の一例を、図5に示す。まずユーザは、基準となる位置情報として、所望する画像において検索条件のオブジェクト(文字列など)が配置されていた概ねの位置を、記憶を頼りに入力する。すなわち、ここでの基準位置とは、所望の画像において検索条件のオブジェクトが配置されていたとユーザが記憶している位置である。つまり、検索の結果得られる画像において、検索条件のオブジェクトが配置されていることが要求される位置の基準位置であり、言い換えると、ユーザは基準位置の近くにオブジェクトが配置されている画像を所望している。図5(a)では、ユーザが所望するスライド406において文字列「ロードマップ」が配置されていた右段上部の位置にマウスカーソル501をセットすることで、基準となる位置情報が入力される。位置情報は座標として保存される。なお、位置情報の入力にはポインティングデバイス114を用いることができる。また、キーボード115によって操作をしても、マイクから音声で「右上」などと発声して入力してもよい。(b)では、右クリックによりメニュー502が表示される。メニュー502の中から検索を選択すると、検索文字列を入力するフォーム503が表示される。フォーム503にロードマップと入力し、エンターキーやリターンキーを押すことで検索が実行される。メニュー502やその他の表示部分に実行ボタンを備え、マウスカーソル501によるクリック操作で実行を指示しても構わない。
An example of search condition input processing in step S01 of FIG. 2 is shown in FIG. First, the user inputs the approximate position where the search condition object (character string or the like) was placed in the desired image as the reference position information, relying on the memory. That is, the reference position here is a position where the user remembers that the object of the search condition has been arranged in the desired image. In other words, in the image obtained as a result of the search, it is the reference position of the position where the object of the search condition is required to be arranged. In other words, the user desires an image in which the object is arranged near the reference position. doing. In FIG. 5A, by setting the
次に、ステップS02では、CPU109(その機能部としての検索処理部103)が、検索対象の画像が保存されている画像DB104を参照し、特定情報入力部102に入力された特定情報の示すオブジェクトが配置されている画像を検出する。更に、CPU109(その機能部としての距離取得部105)が、検出された画像に含まれる上記オブジェクトの配置位置と、入力された基準位置との距離を取得して、ステップS03に移る。
Next, in step S02, the CPU 109 (the
ステップS02において、まず検索処理部103は、文字列や図形などのオブジェクトを公知の検索手段によって検索する。検索対象となる画像とは、例えばプレゼンテーション資料や文書ファイルなどのドキュメントを構成する、スライドやページである。そして、ドキュメントは1つの画像又は複数の画像で構成される。また、ドキュメントが複数存在してもよい。検索の結果として得られる情報は、オブジェクトが含まれるドキュメントと、そのドキュメント内の画像、その画像中のオブジェクトの配置位置の情報である。位置情報は、画像中のいずれかの場所(例えば左上)を起点とした座標情報を用いてもよいし、文字列であれば行数、文字数などの情報を利用した座標情報を用いてもよい。距離取得部105は、このように得られた位置情報と基準位置の情報から、その距離を取得する。ここでの距離とは、座標平面上における、基準位置座標とオブジェクトが配置されている位置の座標との間の距離である。
In step S02, the
図6は、第1の実施形態において取得する距離を示す模式図である。図3の301を再び利用して、更に説明する。座標601は、ユーザが入力した位置であり、例えばマウスを右クリックした位置に相当する。座標602は、文字列「ロードマップ」が含まれる構成要素の座標であり、図3における段落309で示される位置情報に相当する。距離取得部105は、座標601と座標602の2点間の距離を計算する。X軸、Y軸に従った座標として座標601を(x1,y1)、座標602を(x2,y2)とすると、距離D は以下のように定義できる。
FIG. 6 is a schematic diagram illustrating distances acquired in the first embodiment. Further explanation will be made by using 301 in FIG. 3 again. A coordinate 601 is a position input by the user, and corresponds to, for example, a position where the mouse is right-clicked. A coordinate 602 is a coordinate of a component including the character string “road map”, and corresponds to position information indicated by a
D=√{(x1−x2)*(x1−x2)+(y1−y2)*(y1−y2)}
なお、距離Dの求め方は上記に限らない。例えば、図3のXMLデータ306などから得られるスライドのレイヤ構造を利用し、背面に配置されている構成要素ほど基準位置とオブジェクトの配置位置との距離が大きくなるよう重みを付けた距離を定義することもできる。
D = √ {(x1-x2) * (x1-x2) + (y1-y2) * (y1-y2)}
The method for obtaining the distance D is not limited to the above. For example, using the slide layer structure obtained from the
更に、図7は、コンテンツに含まれるオブジェクトの構成要素(ここでは文字)ごとに位置情報とサイズ情報を付与した例を示した模式図である。701は図3の306においてXMLで表現した内容を抽出したものである。一方、702は、コンテンツの文字ごとに位置情報とサイズ情報が付与したものの一部である。例えば、文字「ロ」の位置情報(左上隅の座標)は(140,20)であり、サイズは(8,8)である。位置情報とサイズ情報の付与は、事前に行ってもよいし、検索処理部103による検索の直前に行っても、検索後に検索されたオブジェクトに対してのみ行ってもよい。また、各文字の位置情報やサイズ情報の抽出は既存の技術を用いることができる。
Furthermore, FIG. 7 is a schematic diagram showing an example in which position information and size information are given for each component (here, a character) of an object included in the content. 701 is extracted from the content expressed in XML in 306 of FIG. On the other hand,
このようにコンテンツの文字ごとに位置情報とサイズ情報を付与しておくことで、各文字の実際の位置を基準とした詳細な距離計算が可能になる。第1の実施形態における処理を、図8のフローチャートを参照して説明する。 Thus, by providing position information and size information for each character of the content, detailed distance calculation based on the actual position of each character becomes possible. The processing in the first embodiment will be described with reference to the flowchart of FIG.
図8のステップS801では、オブジェクト(文字列)を構成する最後の文字を処理したかどうかを確認し、未処理であればステップS802に移り、既に処理した場合には終了する。 In step S801 of FIG. 8, it is confirmed whether or not the last character constituting the object (character string) has been processed. If it has not been processed, the process proceeds to step S802, and if already processed, the process ends.
ステップS802では、距離計算処理の対象とする文字を決定する。文字列を構成する全ての文字を計算する場合には、先頭から順に次の文字を選べばよい。また、適宜文字を間引いたり、文字列の先頭・中間・最後の文字のみを対象にしたりなど、速やかに計算処理するための工夫をしても構わない。例として、文字列「ロードマップ」の先頭文字「ロ」を、距離計算処理の対象として決定したとする。処理対象の文字を決定したら、ステップS803に移る。 In step S802, a character to be subjected to distance calculation processing is determined. When calculating all the characters constituting the character string, the next character may be selected in order from the top. In addition, it is also possible to devise a quick calculation process, such as thinning out characters as appropriate, or targeting only the first, middle, and last characters of a character string. As an example, it is assumed that the first character “B” of the character string “ROAD MAP” is determined as the target of the distance calculation process. When the character to be processed is determined, the process proceeds to step S803.
ステップS803では、ユーザの入力位置と処理対象の文字の位置との距離Dを求める。702のように、処理対象文字「ロ」の位置情報(座標)は(140,20)であり、サイズは(8,8)である。従って、ステップS01でユーザが入力した基準位置座標と、座標(140,20)によって距離Dを求めることができる。なお、ここで計算に用いた位置情報は、文字の左上隅の座標であったが、これに限られない。例えば文字サイズが大きければ、文字の中心の座標を用いる方が、よりユーザが認識している文字の位置に近い場合がある。その場合には、文字のサイズの情報から文字の中心の座標を求め、距離Dの計算に用いる。例としている文字「ロ」の場合には、文字サイズが(8,8)であることから、中心の座標は(144,24)であるとがわかる。同様に、文字のサイズの情報を用いて文字の四隅の座標を求め、四隅それぞれについてまたは基準位置に近いと思われるいくつかについて基準位置座標との距離Dを計算し、最も小さいものを選ぶこともできる。距離Dを求めたら、ステップS804に移る。 In step S803, a distance D between the input position of the user and the position of the character to be processed is obtained. Like 702, the position information (coordinates) of the processing target character “b” is (140, 20), and the size is (8, 8). Accordingly, the distance D can be obtained from the reference position coordinates input by the user in step S01 and the coordinates (140, 20). The position information used for the calculation here is the coordinates of the upper left corner of the character, but is not limited to this. For example, if the character size is large, using the coordinates of the center of the character may be closer to the character position recognized by the user. In that case, the coordinates of the center of the character are obtained from the character size information and used for the calculation of the distance D. In the case of the character “B” as an example, since the character size is (8, 8), it can be seen that the center coordinates are (144, 24). Similarly, the coordinates of the four corners of the character are obtained using the information on the size of the character, the distance D from the reference position coordinates is calculated for each of the four corners or for some that are considered to be close to the reference position, and the smallest one is selected. You can also. When the distance D is obtained, the process proceeds to step S804.
ステップS804では、既に処理した文字で求めた距離Dの最小値と、処理中の文字での距離Dを比較し、小さい方を新たな最小値として保持し、ステップS801に戻る。処理が終了した時点で、保持している最小値をその文字列と基準位置の距離とする。 In step S804, the minimum value of the distance D obtained for the already processed character is compared with the distance D of the character being processed, the smaller one is held as a new minimum value, and the process returns to step S801. When the processing is completed, the held minimum value is set as the distance between the character string and the reference position.
最後に、図2のステップS03では、CPU109の機能部としての画像選択部106が、距離取得部105が取得した距離に基づいて、要求されたオブジェクトが配置されている画像を選択し、終了する。例えば、距離が最も小さい画像を選択するように定める。基準位置は、所望の画像において検索条件となる文字列が配置されていたとユーザが記憶している位置であり、ユーザは基準位置の近くにオブジェクトが配置されている画像を所望している。つまり、取得した距離が最も小さい画像を選択することで、ユーザが望んだ条件に最も適合した画像を得ることができる。従って、第1の実施形態においては、スライド406が選択される。なお、変形例としては他の方法を採用してもよく、例えば、ある閾値よりも距離が小さい画像を選択してもよい。この場合、複数の画像が選択され得るが、ユーザの記憶を頼りに入力された基準位置に対して、ある許容範囲内にオブジェクトが配置されている画像を適切に選択することができる。
Finally, in step S03 of FIG. 2, the
なお、要求されたオブジェクトが配置されている画像が、ドキュメント中に複数含まれていた場合には、取得された距離の小さい順に候補として選択する構成としてもよい。この構成によれば、ユーザの記憶が曖昧で、基準となる位置情報の入力が最適ではなかった場合でも、所望の画像である可能性の高い画像から順に候補として選ばれるので、速やかに所望の画像を得ることができる。複数のスライドに検索文字列が検出された場合の本実施形態の処理ステップを、図9示すフローチャートに従って説明する。 In addition, when a plurality of images in which the requested object is arranged are included in the document, the image may be selected as a candidate in ascending order of the acquired distance. According to this configuration, even when the user's memory is ambiguous and the input of the reference position information is not optimal, the images are selected as candidates in order from the images that are likely to be the desired images. An image can be obtained. Processing steps of this embodiment when search character strings are detected in a plurality of slides will be described with reference to the flowchart shown in FIG.
図9(a)は、図2に対応する検索処理のフローチャートであり、ステップS902において、位置情報入力部101と特定情報入力部102の入力を受理し、ステップS902に移る。
FIG. 9A is a flowchart of the search process corresponding to FIG. 2. In step S902, the input of the position
ステップS902では、検索処理部103が、検索対象の画像が保存されている画像DB104を参照し、特定情報入力部102に入力された特定情報の示すオブジェクトが配置されている画像を複数検出する。
In step S902, the
ここで、図9(b)はステップS902の処理を更に説明したフローチャートである。ステップS902aでは、検出された全ての画像について順次距離を取得する処理を行ったかどうかを確認し、未処理であればステップS902bに移り、処理済みであれば終了してステップS903に移る。ステップS902bでは、次に処理をする画像を順次決定し、ステップS902cに移る。ステップS902cでは、決定した現在の画像において、図8の処理ステップによって基準位置と文字列との最小距離を取得し、ステップS902aに戻る。 Here, FIG. 9B is a flowchart for further explaining the processing in step S902. In step S902a, it is confirmed whether or not the processing for sequentially acquiring distances has been performed for all detected images. If unprocessed, the process proceeds to step S902b. If processed, the process ends, and the process proceeds to step S903. In step S902b, images to be processed next are sequentially determined, and the process proceeds to step S902c. In step S902c, the minimum distance between the reference position and the character string is acquired by the processing step of FIG. 8 in the determined current image, and the process returns to step S902a.
ステップS903では、画像選択部106が、距離取得部105が取得した各スライドにおける距離が小さい順に、要求されたオブジェクトが配置されている画像をソートして保持し、ステップS904に移る。
In step S903, the
ステップS904では、ソートされた順に画像を選択し、ステップS905に移る。ステップS905では、ディスプレイコントローラ(DSPC)116の機能部である結果表示部107によって選択された画像を表示し、ステップS906に移る。ステップS906では、表示された画像で選択を決定するかを確認し、決定でなければステップS904に戻り、決定すれば終了する。
In step S904, images are selected in the sorted order, and the process proceeds to step S905. In step S905, the image selected by the
図10に、文字列の位置に基づいて距離を計算した場合のユーザの入力位置(黒丸)と各文字列との距離(矢印付きの直線)を、模式的に示す。検索の結果、文字列「ロードマップ」が配置されていたスライドに注目している。 FIG. 10 schematically shows a distance (straight line with an arrow) between a user input position (black circle) and each character string when the distance is calculated based on the position of the character string. As a result of the search, attention is paid to the slide on which the character string “road map” is arranged.
位置情報を利用しないで文字列「ロードマップ」で検索すると、その検索結果としては、「ロードマップ」を含むスライドが予め決まったページ順に表示される。よって、スライド402、403、404、406、407の順に表示される。この場合には、ユーザが所望するスライド406は最初には表示されず、4番目に表示されることになる。それに対して、本実施形態による検索の場合、上記距離はスライド406において最も小さく、スライド403、404、407、402の順に距離が大きくなる。
If a search is performed using the character string “road map” without using position information, slides including the “road map” are displayed in a predetermined page order as the search result. Accordingly, the
このようにオブジェクト(文字列)が存在する位置に基づいて距離を計算し、距離が小さい順に候補とすることにより、実際のユーザの感覚と一致した検索結果を提供できる。 In this way, by calculating the distance based on the position where the object (character string) exists, and selecting candidates in ascending order of the distance, a search result that matches the actual user's feeling can be provided.
図9(a)のステップS905における検索結果の表示の一例を図11に示す。ここでは、2番目の候補であるスライド403が表示されている状態を示している。操作ボタン1101及び操作ボタン1102は、候補となるスライドを順に閲覧するためのスライド送りを指示するボタンである。ステップS906において、選択の決定を示す場合には、例えばダブルクリック操作によって通常のスライド閲覧画面に戻るなどの処理をすればよい。
An example of the display of the search result in step S905 in FIG. 9A is shown in FIG. Here, a state where the
第1の実施形態では、スライドに含まれるコンテンツの文字列を要求されたオブジェクトとする例を示したが、オブジェクトは文字列に限らず、例えば楕円や四角形といった図形や画像の要素であっても構わない。その場合にも、XMLデータ等から得られる位置情報やサイズ情報からオブジェクトの四隅や中心位置の座標を求め、座標平面上での基準位置座標との間の距離Dを計算することができる。また、事前に画像の内容を特定できる識別情報を登録すれば、写真などの画像をオブジェクトとして用いた場合に、その内容で特定することも可能である。 In the first embodiment, an example in which a character string of content included in a slide is a requested object has been shown, but the object is not limited to a character string, and may be a graphic or image element such as an ellipse or a rectangle. I do not care. Even in this case, the coordinates of the four corners and the center position of the object can be obtained from the position information and size information obtained from the XML data, and the distance D between the reference position coordinates on the coordinate plane can be calculated. In addition, if identification information that can specify the content of an image is registered in advance, when an image such as a photograph is used as an object, it can be specified by the content.
<第2の実施形態>
第2の実施形態では、複数のページで構成される文書ファイルから所望のページを選択する例を示す。図12に、検索対象の文書ファイルの1ページを模式的に示す。第1の実施形態と同様「ロードマップ」という文字列を要求し、検索条件に用いる場合を示している。
<Second Embodiment>
The second embodiment shows an example in which a desired page is selected from a document file composed of a plurality of pages. FIG. 12 schematically shows one page of the document file to be searched. As in the first embodiment, a case where a character string “road map” is requested and used as a search condition is shown.
更に、第2の実施形態では、文書ファイルの1ページを複数のエリアに分割して、分割された各エリアにエリア識別ビットを割り当てることで管理する。距離取得ステップでは、基準位置と要求された文字列が属するエリアの識別ビットを照合し、その異同を判断する。従って、第1の実施形態のように座標平面上の距離を計算するよりも簡易かつ高速に距離を得ることができる。分割されたエリアにエリア識別ビットを割り当てる方法の一例を、図13に示す。 Furthermore, in the second embodiment, one page of a document file is divided into a plurality of areas, and management is performed by assigning an area identification bit to each divided area. In the distance acquisition step, the reference position is compared with the identification bit of the area to which the requested character string belongs, and the difference is determined. Therefore, it is possible to obtain the distance more easily and faster than calculating the distance on the coordinate plane as in the first embodiment. An example of a method for assigning area identification bits to the divided areas is shown in FIG.
図13(a)において、まずページを縦に2分割し、上のエリアには0、下のエリアには1というエリア識別ビットを割り当てる。次に、(b)において、更にページを横に2分割し、左側に0、右側に1と識別ビットを2桁目に割り当てる。この作業を(c)、(d)のように分割された各領域に対して繰り返していく。本実施形態では、例として1ページを16分割して4桁のエリア識別ビットを割り当てた。 In FIG. 13A, the page is first divided vertically into two, and area identification bits of 0 are assigned to the upper area and 1 to the lower area. Next, in (b), the page is further divided into two parts, and 0 is assigned to the left side, 1 is assigned to the right side, and an identification bit is assigned to the second digit. This operation is repeated for each of the divided areas as shown in (c) and (d). In the present embodiment, as an example, one page is divided into 16 and 4-digit area identification bits are assigned.
ユーザが所望するページを選択する処理は、第1の実施形態と同様に図2又は図9のフローチャートに沿って実行される。検索条件の入力処理は、図5で説明した処理で行うことができる。図13に示すように、本実施形態においてマウスカーソル1301がセットされた位置は、4桁のエリア識別ビットが割り当てられた16のエリアのうち、識別ビットが1100のエリア1302である。第2の実施形態では、この1100というエリア識別ビットが、基準となる位置情報として保存される。
The process of selecting a desired page by the user is executed according to the flowchart of FIG. 2 or FIG. 9 as in the first embodiment. The search condition input process can be performed by the process described with reference to FIG. As shown in FIG. 13, the position where the
次に、エリア識別ビットによって定義された基準位置と検索文字列の位置との距離を取得する処理を、図14のフローチャートを参照して説明する。第2の実施形態では、エリア識別ビットを先頭から照合し、共通する桁が多いエリアに属するという関係を基に、ページ上における距離が近いと定義する。 Next, processing for obtaining the distance between the reference position defined by the area identification bit and the position of the search character string will be described with reference to the flowchart of FIG. In the second embodiment, the area identification bits are collated from the top, and the distance on the page is defined as being close based on the relationship that they belong to an area having many common digits.
図14のステップS1401では、基準位置及び処理中のページにおいて検索文字列が配置されている位置が属するエリアのエリア識別ビットを取得して、ステップS1402に移る。この文字列を検索する方法は、公知の検索技術によることができる。検出された文字列が複数のエリアにまたがる場合には、文字列の先頭文字の位置や中間の文字の位置などを検索文字列の位置として定義してもよい。 In step S1401 of FIG. 14, the area identification bit of the area to which the reference position and the position where the search character string is arranged in the page being processed belongs is acquired, and the process proceeds to step S1402. A method for searching for this character string can be based on a known search technique. When the detected character string extends over a plurality of areas, the position of the first character of the character string, the position of an intermediate character, or the like may be defined as the position of the search character string.
ステップS1402では、変数nに1を代入して次に移る。ステップS1403では、基準位置と、検索文字列の配置位置が属するエリア識別ビットを照合して、ステップS1404に移る。 In step S1402, 1 is assigned to variable n, and the process proceeds to the next. In step S1403, the reference position is compared with the area identification bit to which the search character string arrangement position belongs, and the process proceeds to step S1404.
ステップS1404では、照合したエリア識別ビットのn桁目が共通であったかどうかを確認し、共通であればステップS1405に移り、異なった場合にはステップS1407に移る。初回は必ずn=1桁目を確認する。 In step S1404, it is confirmed whether or not the nth digit of the collated area identification bits is common. If they are common, the process proceeds to step S1405, and if they are different, the process proceeds to step S1407. For the first time, make sure n = 1st digit.
ステップS1405では、nを1カウントアップして次のステップに移る。ステップS1406では、エリア識別ビットの最後の桁を既に確認していればステップS1407に移り、まだであればステップS1404に戻る。 In step S1405, n is incremented by 1, and the process proceeds to the next step. In step S1406, if the last digit of the area identification bit has already been confirmed, the process proceeds to step S1407, and if not, the process returns to step S1404.
ステップS1407では、現在処理中の画像をLevel:nと定義して画像を保持し、終了する。 In step S1407, the image currently being processed is defined as Level: n, the image is retained, and the process ends.
図2のステップS02における画像選択では、図14のステップS1407で保持された画像を選択する。複数の画像が検出されていた場合には、図9のステップS903においてnの降順にソートする。従って、ステップS904の画像選択ステップでは、所望するページである可能性の高い順に候補を選ぶことができる。あるnに対して複数の画像が選択される場合には、結果表示部107に縮小画像を一覧表示してユーザに提示もよいし、ページ番号順に候補として選択してもよい。
In the image selection in step S02 in FIG. 2, the image held in step S1407 in FIG. 14 is selected. If a plurality of images are detected, they are sorted in descending order of n in step S903 in FIG. Accordingly, in the image selection step in step S904, candidates can be selected in the order of the high possibility of being the desired page. When a plurality of images are selected for a certain n, a list of reduced images may be displayed on the
<第3の実施形態>
第3の実施形態では、第2の実施形態と同様、エリア識別ビットによって取得した距離に基づいて、複数のページで構成される文書ファイルから所望のページを選択する例を示す。
<Third Embodiment>
In the third embodiment, as in the second embodiment, an example is shown in which a desired page is selected from a document file composed of a plurality of pages based on the distance acquired by the area identification bit.
図15は、第3の実施形態において、文書ファイルの1ページを複数のエリアに分割しエリア識別ビットによって管理する一例を示した模式図である。 FIG. 15 is a schematic diagram showing an example in which one page of a document file is divided into a plurality of areas and managed by area identification bits in the third embodiment.
図15においても、例として1ページを4行4列に16分割した例を示している。第3の実施形態では、左上隅を0として、行方向では右が大きく列方向には下が大きくなるように15までの数を2進数で各エリアに割り当てている。従って、16分割された各エリアに4桁のエリア識別ビットが割り当てられる。任意にr行c列に分割した場合にも、順番に2進数による個別のエリア識別ビットを割り当てることができる。 FIG. 15 also shows an example in which one page is divided into 16 by 4 rows and 4 columns. In the third embodiment, the upper left corner is 0, and numbers up to 15 are assigned to each area in binary so that the right is large in the row direction and the bottom is large in the column direction. Therefore, a 4-digit area identification bit is assigned to each of the 16 divided areas. Even when divided arbitrarily into r rows and c columns, individual area identification bits in binary numbers can be assigned in order.
ユーザが閲覧を希望するページを選択する処理は、図2又は図9のフローチャートに沿って実行される。検索条件の入力処理は、図5で説明した処理で行うことができる。図15おいて、マウスカーソル1501がセットされたエリアは、識別ビットが1010に当たる。本実施形態では、このエリアが基準位置エリア1502となる。
The process of selecting a page that the user desires to browse is executed according to the flowchart of FIG. 2 or FIG. The search condition input process can be performed by the process described with reference to FIG. In FIG. 15, the identification bit is 1010 in the area where the
第3の実施例では、図15における基準位置エリア1502を距離0として定義する。そして、エリア1502の8方向を囲むように接する環状エリア1503を距離1として定義し、同様に1503を囲むように接する環状エリア1504を距離2と定義する。このように、基準位置エリアを中心にした大きさの異なる環状エリアに距離の関係を定義すれば、検索文字列が配置されている位置と基準位置との距離という概念の下で、分割されたエリアを扱うことができる。すなわち、ここでエリアの距離の関係とは、基準位置エリアを中心として、8方向を囲む大きさの異なる環状の複数のエリアに対し、基準位置からの離れる程大きくなるよう定義したものである。従って、検索文字列が配置されている位置と基準位置との距離は、検索文字列が配置されている位置が属するエリアに定義された距離によって判断することができる。
In the third embodiment, the
第3の実施形態において、基準位置と検索文字列との距離を取得する処理を図16のフローチャートを参照して説明する。 In the third embodiment, processing for acquiring the distance between the reference position and the search character string will be described with reference to the flowchart of FIG.
ステップS1601では、基準位置及び処理中のページにおいて検索文字列が配置されている位置が属するエリアのエリア識別ビットを取得して、ステップS1602に移る。文字列を検索する方法は、他の実施形態と同様公知の検索技術によることができる。検出された文字列が複数のエリアにまたがる場合には、文字列の先頭文字の位置や中間の文字の位置などを検索文字列の位置として定義してもよい。 In step S1601, the area identification bit of the area to which the reference position and the position where the search character string is arranged in the page being processed belongs is acquired, and the process proceeds to step S1602. A method of searching for a character string can be performed by a known search technique as in the other embodiments. When the detected character string extends over a plurality of areas, the position of the first character of the character string, the position of an intermediate character, or the like may be defined as the position of the search character string.
ステップS1602では、処理中のページの16分割された各エリアの関係より距離を定義して、ステップS1603に移る。距離の定義方法は、図17で説明する。 In step S1602, the distance is defined based on the relationship between the 16 divided areas of the page being processed, and the flow advances to step S1603. A method for defining the distance will be described with reference to FIG.
図16に戻ると、ステップS1603では、変数Nに0を代入して次に移る。ステップS1603では、ステップS1601で取得したエリア識別ビットと、ステップS1602で定義した距離を照合し、検索文字列が配置されているエリアの距離を確認し、ステップS1605に移る。 Returning to FIG. 16, in step S1603, 0 is substituted into the variable N and the process proceeds to the next. In step S1603, the area identification bit acquired in step S1601 is compared with the distance defined in step S1602, the distance of the area where the search character string is arranged is confirmed, and the process proceeds to step S1605.
ステップS1605において、距離Nエリアに検索文字列が存在するかどうかを確認する。初回は必ずN=0の基準位置エリアを確認する。確認の結果、存在すればステップS1607に移り、存在しなければステップS1606に移る。ステップS1606では、Nを1カウントアップして、ステップS1605に戻る。このように、基準位置に近いエリアから優先して検索文字列が存在するかを確認するため、1ページ中の複数個所に検索文字列が含まれている場合でも、より基準位置に近い位置をもって距離を判断することができる。 In step S1605, it is confirmed whether or not a search character string exists in the distance N area. In the first time, always check the reference position area of N = 0. As a result of the confirmation, if it exists, the process proceeds to step S1607, and if it does not exist, the process proceeds to step S1606. In step S1606, N is incremented by 1, and the process returns to step S1605. In this way, in order to check whether the search character string exists preferentially from the area close to the reference position, even if the search character string is included in a plurality of places in one page, the position closer to the reference position is set. The distance can be determined.
ステップS1607では、処理中のページを距離Nと定義して保持し、終了する。 In step S1607, the page being processed is defined as a distance N, and the process ends.
ここで、第3の実施形態における、各エリアに基準位置との距離を定義する処理について、図17のフローチャートを参照して説明する。ここでは、一般化して1ページをr行c列のエリアに分割した場合を考える。 Here, processing for defining the distance from the reference position in each area in the third embodiment will be described with reference to the flowchart of FIG. Here, a case is considered in which one page is divided into areas of r rows and c columns.
ステップS1701では、まず基準位置のエリア識別ビットを距離0と定義して、S1702に移る。ステップS1702では、変数dに0を代入して、ステップS1703に移る。
In step S1701, first, the area identification bit at the reference position is defined as
ステップS1703では、2進法による識別ビットの演算で、距離dエリアに±1したエリアを抽出し、距離d+1のエリアとして定義して、ステップS1704に移る。 In step S1703, an area that is ± 1 in the distance d area is extracted by calculation of the identification bit by the binary method, defined as an area of the distance d + 1, and the process proceeds to step S1704.
ステップS1704では、この時点で未定義のエリアの識別ビットから、定義済みの距離d及びd+1エリアの識別ビットに、2進法による演算で±c(cは列数)したエリアを抽出し、距離d+1のエリアとして定義し、ステップS1704に移る。 In step S1704, an area obtained by calculating ± c (c is the number of columns) by binary calculation is extracted from the identification bits of the undefined area at this time to the identification bits of the defined distance d and d + 1 area, and the distance is extracted. The area is defined as d + 1 area, and the process proceeds to step S1704.
ステップS1705では、ページ中の全てのエリアに距離を定義する処理をしたかを確認し、未処理のエリアがあればS1706に移り、全て処理済みであれば終了する。ステップS1706では、変数dを1カウントアップして、ステップS1703に戻る。 In step S1705, it is confirmed whether or not processing for defining distances has been performed for all areas in the page. If there is an unprocessed area, the process proceeds to S1706, and if all have been processed, the process ends. In step S1706, the variable d is incremented by 1, and the process returns to step S1703.
図2のステップS02における画像選択ステップでは、図16のステップS1607で保持されたページを選択する。複数のページが検出されていた場合には、図9のステップS903において定義された距離の小さい順にページをソートする。従って、ステップS904のページ選択では、所望するページである可能性の高い順に候補を選ぶことができる。ある距離Nのグループに対して複数の画像が選択される場合には、結果表示部107に縮小画像を一覧表示してユーザに提示もよいし、ページ番号順に候補として選択してもよい。
In the image selection step in step S02 of FIG. 2, the page held in step S1607 of FIG. 16 is selected. If a plurality of pages are detected, the pages are sorted in ascending order of distance defined in step S903 in FIG. Therefore, in the page selection in step S904, candidates can be selected in the descending order of possibility of the desired page. When a plurality of images are selected for a group of a certain distance N, reduced images may be displayed as a list on the
なお、第3の実施形態においては、基準位置エリアは分割されたエリアのうちの1つを指定したが、変形例として複数のエリアを指定することもできる。その際、位置情報入力部101への入力としては、例えばポインティングデバイス114によって直線や閉曲線などの図形を描くことができる。距離0として定義する基準位置エリアは、描かれた図形がまたがる複数のエリアとしてもよいし、図形によって囲まれたエリアとしてもよい。各エリアに基準位置との距離を定義する処理は、図17のフローチャートに従い、距離が定義されたエリアを取り囲むエリアを順に選び、次に大きな距離を定義していけばよい。
In the third embodiment, one of the divided areas is designated as the reference position area, but a plurality of areas can be designated as a modification. At this time, as an input to the position
<その他の実施例>
上記第1から第3の実施形態では、位置情報入力部101への入力はポインティングデバイス114によって1点を入力していたが、複数の点を基準位置として入力してもよい。その際には、複数の基準位置に対して共通するオブジェクトを特定してもよいし、異なるオブジェクトを特定し、それぞれが各基準位置近くに配置されている画像を検索する構成としてもよい。これらの構成は、例えば1つの検索条件に基づいて選択された候補の中から、更に残りの検索条件に基づいて候補を絞っていくことで実現される。
<Other examples>
In the first to third embodiments, one point is input to the position
また、要求されたオブジェクトが配置されている画像が、検索処理部103による検索によって1つしか検出されなかった場合に、画像選択部106の機能に基準位置とオブジェクトが配置されている位置との距離に基づいた処理を更に付加してもよい。例えば、第1の実施形態の基準位置とオブジェクトが配置されている位置との距離に閾値を設け、選択された画像において距離取得部105が取得した距離が閾値よりも距離が大きい場合には、アラート又はエラーを表示することもできる。これは、唯一検出された画像であっても、ユーザが記憶している所望の画像ではない場合には有効な構成となる。
In addition, when only one image in which the requested object is arranged is detected by the
なお、前述したように、本発明の目的は、本実施形態を実現するするソフトウェアの処理ステップを記録したディスクデバイスを始めとする記録媒体を、ディスクドライブ120によってコンピュータ装置108に供給することによっても達成される。この場合、記録媒体から読み出された処理ステップ自体が前述した実施形態の機能を実現することになり、その処理ステップを記憶した記録媒体は本発明を構成することになる。記録媒体としては、例えば、フレキシブルディスク、ハードディスク、光ディスク、光磁気ディスク、CD−ROM、CD−R、磁気テープ、不揮発性のメモリカード、ROMなどを用いることができる。
As described above, the object of the present invention is also to supply a recording medium including a disk device that records software processing steps for realizing the present embodiment to the
また、CPU109が読出した処理ステップの指示に基づき、CPU109上で稼働しているオペレーティングシステムなどが実際の処理の一部又は全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。
In addition, the operating system or the like operating on the
同様に、記録媒体から読出された処理ステップが、コンピュータ装置108に挿入された機能拡張ボードや接続された機能拡張ユニットに備わるメモリに書込まれた後、それらに備わるCPUなどが実際の処理の一部又は全部を行う場合も含まれる。
Similarly, after the processing steps read from the recording medium are written in the memory provided in the function expansion board inserted into the
さらに、本発明の情報処理装置は、ドキュメントを電子ブックとして画面に表示し操作することが可能な携帯端末装置によっても実現される。その際、ドキュメント全体のうちの一部が画面に表示されることによって、その表示範囲が1つのページとしてユーザに認識される場合には、その表示される範囲を1画像として、本発明による画像選択処理が実現される。すなわち、検索対象の画像であるドキュメント全体の中において、画面に表示するための画像を選択することができる。 Furthermore, the information processing apparatus of the present invention is also realized by a portable terminal device that can display and operate a document as an electronic book on a screen. At this time, when a part of the entire document is displayed on the screen and the display range is recognized by the user as one page, the display range is set as one image and the image according to the present invention is displayed. Selection processing is realized. That is, an image to be displayed on the screen can be selected from the entire document that is the search target image.
ドキュメント全体のうち画面に表示される範囲は、表示される文字の大きさや行数を指定するという方法で決定されてもよい。この方法では、ドキュメントを指定された文字の大きさや行数で表示した場合に表示手段の画面に収まる範囲を1つのページの単位として、ドキュメントが複数のページに分割される。本発明は、分割された各ページを1画像として、前述の実施形態と同様の処理を行う。 The range displayed on the screen of the entire document may be determined by a method of designating the size of characters to be displayed and the number of lines. In this method, when a document is displayed with a designated character size or number of lines, the range that fits on the screen of the display means is taken as a unit of one page, and the document is divided into a plurality of pages. In the present invention, each divided page is treated as one image, and the same processing as in the above-described embodiment is performed.
また、ドキュメント全体のうち画面に表示される範囲は、ドキュメントをスクロールすることで画面に表示される範囲が変化する方法で決定されてもよい。この方法では、ドキュメントを上下または左右に移動させる、すなわちスクロールすることによって、画面に収まりきらない範囲を表示させる。従って、あるオブジェクトが表示画面上の概ねどの辺りに配置されていたかというユーザの記憶において、スクロールに平行した方向の位置情報はスクロールした際の加減に依存して異なる。そのため、ユーザが指定した基準位置と要求されるオブジェクトの配置位置の距離を求める際には、スクロールに直交する方向に限定して考慮してもよい。座標を用いて距離を計算する場合は、スクロールに直交する方向に沿った軸上の座標を用いて計算を行う。またエリアを分割する場合は、スクロールに直交する方向を複数に分割したエリアのうち、基準位置が属するエリアと前記特定されたオブジェクトが配置されている位置の属するエリアを取得して、その距離を求めることができる。 Further, the range displayed on the screen of the entire document may be determined by a method in which the range displayed on the screen changes by scrolling the document. In this method, a range that does not fit on the screen is displayed by moving the document up and down or left and right, that is, by scrolling. Therefore, in the user's memory about where a certain object is arranged on the display screen, the position information in the direction parallel to the scroll differs depending on whether the scroll is performed. Therefore, when obtaining the distance between the reference position designated by the user and the required object arrangement position, the distance may be limited to the direction orthogonal to the scroll. When calculating the distance using the coordinates, the calculation is performed using the coordinates on the axis along the direction orthogonal to the scroll. Also, when dividing the area, among the areas obtained by dividing the direction perpendicular to the scroll into a plurality of areas, the area to which the reference position belongs and the area to which the identified object is located are obtained, and the distance is obtained. Can be sought.
Claims (11)
前記検索対象の画像中において、前記特定されたオブジェクトが配置されている位置と前記基準位置との距離に基づいて、画像を選択する選択手段と
を有することを特徴とする情報処理装置。 An input means for inputting position information indicating a reference position in the image and specific information for specifying an object required in the image for an image to be searched;
An information processing apparatus comprising: selection means for selecting an image based on a distance between a position where the identified object is arranged and the reference position in the search target image.
前記検索対象の画像は、前記表示手段における画面にその一部が表示され、
前記選択手段は、前記検索対象の画像中において、前記画面に表示される一部の範囲を選択することを特徴とする請求項1乃至6のいずれか1項に記載の情報処理装置。 A display means for displaying the selected image;
A part of the search target image is displayed on the screen of the display means,
The information processing apparatus according to claim 1, wherein the selection unit selects a partial range displayed on the screen in the search target image.
のいずれか1項に記載の情報処理装置として機能させることを特徴とするプログラム。 The computer is loaded into the computer and executed to execute the computer.
A program that functions as the information processing apparatus according to claim 1.
選択手段により、前記検索対象の画像中において、前記特定されたオブジェクトが配置されている位置と前記基準位置との距離に基づいて、画像を選択する選択工程と
を有することを特徴とする情報処理装置の制御方法。 An input step for inputting position information indicating a reference position in the image and specific information for specifying an object required in the image with respect to an image to be searched by an input unit;
And a selection step of selecting an image based on a distance between the position where the identified object is arranged and the reference position in the image to be searched by the selection means. Control method of the device.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011142994A JP2013011955A (en) | 2011-06-28 | 2011-06-28 | Information processing device, control method therefor, program, and computer-readable program recording medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011142994A JP2013011955A (en) | 2011-06-28 | 2011-06-28 | Information processing device, control method therefor, program, and computer-readable program recording medium |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2013011955A true JP2013011955A (en) | 2013-01-17 |
Family
ID=47685803
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011142994A Withdrawn JP2013011955A (en) | 2011-06-28 | 2011-06-28 | Information processing device, control method therefor, program, and computer-readable program recording medium |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2013011955A (en) |
-
2011
- 2011-06-28 JP JP2011142994A patent/JP2013011955A/en not_active Withdrawn
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102489578B1 (en) | Formula inputting method, apparatus and electronic device | |
JP5248696B1 (en) | Electronic device, handwritten document creation method, and handwritten document creation program | |
JP4560062B2 (en) | Handwriting determination apparatus, method, and program | |
KR102677199B1 (en) | Method for selecting graphic objects and corresponding devices | |
US20130125069A1 (en) | System and Method for Interactive Labeling of a Collection of Images | |
US9529438B2 (en) | Printing structured documents | |
US20140304586A1 (en) | Electronic device and data processing method | |
JP5694234B2 (en) | Electronic device, handwritten document display method, and display program | |
US10210141B2 (en) | Stylizing text by replacing glyph with alternate glyph | |
JP6092462B2 (en) | Electronic device, method and program | |
JP5869179B2 (en) | Electronic device and handwritten document processing method | |
KR20160064925A (en) | Handwriting input apparatus and control method thereof | |
EP3599557A1 (en) | Systems and methods for dynamic and interactive visualizations for navigating media content | |
US10055456B2 (en) | Information processing apparatus and non-transitory computer readable medium for displaying an information object | |
WO2020090356A1 (en) | Ink data generation device, method, and program | |
US20140222825A1 (en) | Electronic device and method for searching handwritten document | |
JP6223687B2 (en) | Electronic device and handwritten document search method | |
JP5735126B2 (en) | System and handwriting search method | |
US11430166B1 (en) | Facilitating generation of number-bullet objects | |
US20120079404A1 (en) | Method for creating and searching a folder in a computer system | |
JP2013239203A (en) | Electronic apparatus, method and program | |
US11436776B2 (en) | Information processing apparatus and control method thereof | |
JP2018073202A (en) | Information processing device, information processing method, and program | |
JP2013011955A (en) | Information processing device, control method therefor, program, and computer-readable program recording medium | |
JP2010165120A (en) | Device and method for displaying electronic information |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Application deemed to be withdrawn because no request for examination was validly filed |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20140902 |