JP4148867B2 - Handwriting processor - Google Patents
Handwriting processor Download PDFInfo
- Publication number
- JP4148867B2 JP4148867B2 JP2003342535A JP2003342535A JP4148867B2 JP 4148867 B2 JP4148867 B2 JP 4148867B2 JP 2003342535 A JP2003342535 A JP 2003342535A JP 2003342535 A JP2003342535 A JP 2003342535A JP 4148867 B2 JP4148867 B2 JP 4148867B2
- Authority
- JP
- Japan
- Prior art keywords
- handwriting
- gesture
- information
- determined
- character
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000012545 processing Methods 0.000 claims description 29
- 238000000034 method Methods 0.000 description 42
- 238000012546 transfer Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 3
- 238000007493 shaping process Methods 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000010187 selection method Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Landscapes
- Collating Specific Patterns (AREA)
- Character Discrimination (AREA)
- Image Analysis (AREA)
- Character Input (AREA)
Description
本発明は、コンピュータや携帯情報端末、ワードプロセッサ等の情報処理装置の入力手段として用いられ、操作者が入力画面上で筆記する筆跡データについて、筆記者が意図する情報に変換する手書き入力装置に関する。 The present invention relates to a handwriting input device that is used as input means of an information processing device such as a computer, a portable information terminal, or a word processor, and converts handwriting data that an operator writes on an input screen into information intended by the writer.
従来から、座標入力用タブレット等の座標入力装置を介して手書き入力される文字、あるいは文字列に関する筆跡情報から、文字コードあるいは文字コード列として認識結果を表示するオンライン文字認識装置が存在する。文字の切れ目が明示的に与えられない環境下において入力された文字列を、適宜文字を切り出しながら認識を行っている(例えば、特許文献1を参照)。また、1文字ごとの筆記情報が得られる場合に認識処理を行うこともなされている(例えば、特許文献2を参照)。 2. Description of the Related Art Conventionally, there is an on-line character recognition device that displays a recognition result as a character code or a character code string from handwritten information about characters or a character string input by handwriting via a coordinate input device such as a coordinate input tablet. A character string input in an environment in which character breaks are not explicitly given is recognized while appropriately cutting out characters (see, for example, Patent Document 1). In addition, recognition processing is also performed when writing information for each character is obtained (see, for example, Patent Document 2).
上記認識技術は、筆跡がすべて文字であるという前提である。文字だけではなく、例えば図形、コマンドを表すジェスチャなどを混在して筆記したい場合、これらの認識技術をそのまま使用することはできない。何らかの方法で、筆跡の種類を分類し、筆跡から文字の部分だけを抽出した後でこれらの手法を用いることになる。 The recognition technique is based on the premise that the handwriting is all letters. For example, when it is desired to write not only characters but also figures and gestures representing commands, for example, these recognition techniques cannot be used as they are. These methods are used after classifying the type of handwriting by some method and extracting only the character part from the handwriting.
ユーザーが文字、図形を混在して入力したい場合、従来からいくつかの方法が提案されている。まず、文字、図形、ジェスチャそれぞれに対応する入力モードを設け、入力モードを指定してから筆跡入力を行うモードを事前に切換える方法がある。ユーザーが文字を入力したい場合には、ユーザーが何らかのオペレーション(モード選択ボタンなどを押す)によって文字入力モードに指定した後で、文字を筆記することになる。その後で、図を筆記したい場合には、ユーザーは図形モードに変更するためのオペレーションを行わなければならない。この場合、ユーザーにとっては入力したい筆跡の種類が変わるたびに、入力モードを切換えるためのオペレーションを実行しなければいけないため、その操作は煩雑であった。また、筆跡を入力した後から、ユーザーが筆跡の種類を指定する事後選択方法があるが、この方法では、複数の画に対してユーザーが筆跡の種類をそれぞれ指定するオペレーションを行うため、あらかじめ入力モードを切換えてから筆記する方法に比べて作業が煩雑になってしまうことがあった。 When the user wants to input a mixture of characters and figures, several methods have been proposed. First, there is a method of providing an input mode corresponding to each of a character, a figure, and a gesture, and switching the mode for performing handwriting input after designating the input mode. When the user wants to input characters, the user writes the characters after specifying the character input mode by some operation (pressing a mode selection button or the like). After that, if the user wishes to write a figure, the user must perform an operation for changing to the graphic mode. In this case, since the user has to execute an operation for switching the input mode each time the type of handwriting to be input changes, the operation is complicated. In addition, there is a post-selection method in which the user specifies the type of handwriting after entering the handwriting, but in this method, the user performs the operation of specifying the type of handwriting for each of the multiple images, so input in advance Compared to the method of writing after switching the mode, the work may be complicated.
そこで、ユーザーが入力する筆跡が何なのかを、自動的に判別する自動判別方法があれば、入力モードを切換えるための煩雑なオペレーションを行う必要がなくなる。従来、自動的に文字と図形を判別する方法としては、筆跡形状や大きさ等から文字と図形を判別する方法や、筆跡の長さなどから文字と図形を判別する方法があった。しかし、これら方法では文字と図形を完全に区別することは困難であり、例えば、「口」という漢字なのか、四角形を表す図形なのかをユーザーの意図を的確に判断することは難しかった。ユーザーが切換える方法では、ユーザーのオペレーションを通して、ユーザーの意図を確実に反映することができるのに対して、自動判別方法では入力筆跡の判定が誤る可能性がある。判定誤りが発生するとそれを訂正する作業が発生するため、逆にユーザーの作業効率は悪くなる可能性がある。 Therefore, if there is an automatic determination method for automatically determining what handwriting is input by the user, it is not necessary to perform a complicated operation for switching the input mode. Conventionally, as a method for automatically discriminating characters and figures, there are a method for discriminating characters and figures from the handwriting shape and size, and a method for discriminating characters and figures from the length of handwriting. However, with these methods, it is difficult to completely distinguish between characters and graphics. For example, it is difficult to accurately determine the user's intention as to whether the character is “mouth” or a rectangle. In the method of switching by the user, the user's intention can be surely reflected through the user's operation, whereas in the automatic determination method, the determination of the input handwriting may be erroneous. If a determination error occurs, an operation for correcting the determination error occurs. On the contrary, the user's work efficiency may be deteriorated.
また、図形とジェスチャについても同様で、図形は図形、ジェスチャはジェスチャと、それぞれに適した処理を行うためには、まず、筆跡の種類を適切に分類する必要がある。ところが、ジェスチャと図形についても、文字と図形の場合と同様に、ジェスチャに類似した図形を入力する場合には、入力した図形をジェスチャと判別してしまう可能性があった。更に、文字とジェスチャが混在する場合については、文字とは類似しない形状の筆跡をジェスチャとして割り当てることで、判別誤りをある程度回避することができる。しかし、ユーザーは文字の形状と区別することを意識してジェスチャを筆記しなければいけないため、必ずしも使い勝手がよいわけではなかった。 The same applies to graphics and gestures. In order to perform processing suitable for graphics and graphics for gestures, it is first necessary to appropriately classify the type of handwriting. However, in the case of a gesture and a figure, as in the case of a character and a figure, when a figure similar to a gesture is input, there is a possibility that the input figure is determined as a gesture. Furthermore, in the case where characters and gestures coexist, it is possible to avoid discrimination errors to some extent by assigning handwriting having a shape not similar to characters as gestures. However, it is not always easy to use because users have to write gestures with the intention of distinguishing them from the shape of characters.
従来技術では、ユーザーの筆跡入力に基づいてペンコンピュータ等への文字入力、図形入力、操作を行う機器では、筆跡の属性(例えば、文字、図形、操作(コマンド)を意味するジェスチャなど)をユーザーにより設定しながら入力する場合には、作業の煩雑さがあるといった問題があった。一方、筆跡の属性を自動判定する場合でも、従来技術では誤判定される可能性があり、それに伴いユーザーは修正しなければならない問題があった。 In the prior art, on devices that perform character input, figure input, and operation to a pen computer etc. based on user handwriting input, handwriting attributes (for example, gestures meaning characters, figures, operations (commands), etc.) In the case of inputting while setting by the method, there is a problem that the work is complicated. On the other hand, even when the handwriting attribute is automatically determined, there is a possibility of erroneous determination in the prior art, and accordingly, there is a problem that the user has to correct.
本発明は、上記問題を考慮してなされたものであり、ユーザーが入力した筆跡情報の始点及び終点に位置する画面上のオブジェクトを判定し、この判定されたオブジェクトに基づいて筆跡の属性を判定することにより、属性設定の煩雑さを解消し、ユーザーの意図した筆跡を容易に入力できる筆跡処理装置を提供することを目的とする。 The present invention has been made in consideration of the above problems, and determines objects on the screen located at the start and end points of handwriting information input by the user, and determines handwriting attributes based on the determined objects. Accordingly, an object of the present invention is to provide a handwriting processing device that eliminates the complexity of attribute setting and can easily input a handwriting intended by a user.
上記目的を達成するために、本発明に係る筆跡処理装置は、座標入力部上に指示物が触れてから離れるまでの座標系列で表現される筆跡情報を取得する筆跡取得手段と、 前記座標入力部に対応づけられた座標を有し、前記筆跡情報を表示する表示部と、 前記筆跡情報の始点及び終点の座標を取得して、領域、アイコン、文字、文字を表す筆跡、図形、図形を表す筆跡、画像、サインを表す筆跡、これらを組み合わせたもの、のいずれかを含むオブジェクトと当該オブジェクトの位置情報とを対応付けて予め記憶させたオブジェクトデータベースに基づいて、当該始点及び終点それぞれが前記表示部のどのオブジェクト上に位置しているかを判定するオブジェクト判定手段と、 前記オブジェクト判定手段で判定されたオブジェクトに基づいて、前記筆跡情報の属性が文字、図形、ジェスチャのいずれの種類であるか、または、前記筆跡情報の属性が文字、ジェスチャのいずれの種類であるか、または、前記筆跡情報の属性が図形、ジェスチャのいずれの種類であるか、または、前記筆跡情報の属性が文字、図形、ジェスチャ、サインのいずれの種類であるかを判定する筆跡判定手段と、前記筆跡判定手段で前記筆跡情報の属性がジェスチャと判定された筆跡情報に対して、前記オブジェクト判定手段で判定されたオブジェクトから当該ジェスチャの種類を判定し、当該ジェスチャの種類に対応するコマンドを前記オブジェクト判定手段で判定されたオブジェクトに対して実行するジェスチャ処理手段とを具備したことを特徴とする。
In order to achieve the above object, a handwriting processing apparatus according to the present invention includes handwriting acquisition means for acquiring handwriting information expressed by a coordinate series from when an indicator touches a coordinate input unit until it leaves, and the coordinate input A display unit for displaying the handwriting information, the coordinates of the start point and the end point of the handwriting information are obtained , and a handwriting, a figure, and a figure representing a region, an icon, a character, and a character are obtained. Each of the start point and the end point is based on an object database in which an object including any one of a handwriting representing an image, a handwriting representing a signature, and a combination of these and the position information of the object is stored in advance. An object determination unit that determines which object of the display unit is located on the basis of the object determined by the object determination unit; Attribute characters of the handwriting information, graphics, whether it is a kind of the gesture, or attributes of the handwriting information character, whether it is a kind of the gesture, or attributes of the handwriting information graphics, gesture Which type, or handwriting determination means for determining whether the attribute of the handwriting information is a character, a figure, a gesture, or a signature, and the attribute of the handwriting information in the handwriting determination means is a gesture against the determined handwriting information, it determines the type of the gesture from the determination object in said object determining unit, to execute a command corresponding to the type of the gesture to an object that is determined by the object determination unit And a gesture processing means.
また、本発明に係る筆跡処理装置は、前記ジェスチャ処理手段は、前記筆跡判定手段で前記筆跡情報の属性がジェスチャと判定された筆跡情報に対して、前記オブジェクト判定手段で判定されたオブジェクトと当該筆跡情報の形状からジェスチャ情報の種類を判定し、このジェスチャの種類に対応するコマンドを実行するジェスチャ処理手段を具備することを特徴とする。
In the handwriting processing apparatus according to the present invention, the gesture processing unit may include the object determined by the object determination unit with respect to the handwriting information in which the attribute of the handwriting information is determined as a gesture by the handwriting determination unit, and the object It determines the type of the gesture information from the shape of the handwriting information, characterized by comprising the gesture processing means for executing a command corresponding to the type of the gesture.
以上説明したように本発明によれば、筆跡の位置と画面上のオブジェクトとの位置関係に基づいて、入力された筆跡を判別することによって、ユーザーは、筆跡の属性変更の煩雑さを感じることがなく、入力したい筆跡が、文字なのか、図形なのか、ジェスチャなのかを、入力位置によって簡単に書き分けることができるため、意図の通りの入力ができる。 As described above, according to the present invention, the user feels the complexity of changing the attributes of the handwriting by determining the input handwriting based on the positional relationship between the position of the handwriting and the object on the screen. Since it is possible to easily write whether the handwriting to be input is a character, a graphic, or a gesture depending on the input position, it is possible to input as intended.
また、ユーザーは他の種類の筆跡の形状を意識することなく筆跡を入力することができる。そのため、ユーザーにとって使いやすい入力環境を提供することができる。 In addition, the user can input the handwriting without being aware of the shape of other types of handwriting. Therefore, it is possible to provide an input environment that is easy for the user to use.
以下、本発明の実施の形態について、図面を参照して説明する。 Embodiments of the present invention will be described below with reference to the drawings.
図1は、本発明の一実施例に係る構成図である。座標入力を行うタブレット1から、ユーザが指示物(例えば、ペン、指等、図示しない)で手書きした筆跡に基づく座標点列が時系列的に筆跡取得手段2に入力される。筆跡取得手段2は、入力された筆跡を筆跡バッファ3に蓄積する。筆跡バッファ3は、図2に示すように、タブレット1から得られる筆跡の座標データの時系列(筆跡情報)を、1画(画番号)ごとに追加記憶する。筆跡表示手段4は、筆跡バッファ中の筆跡情報について表示部5に表示を行う。タブレット1の座標と表示部5の座標はそれぞれ対応しており、表示部5の画面上にタブレット1が設置された表示一体型のタブレットであってもよい。
FIG. 1 is a configuration diagram according to an embodiment of the present invention. A coordinate point sequence based on a handwriting handwritten by a user with an instruction (for example, a pen, a finger, etc., not shown) is input to the
オブジェクト判定手段6は、筆跡バッファ3中の筆跡情報について始点と終点の座標を取得し、オブジェクトDB(データベース)7を用いて、それぞれの点が表示部5画面上のどのオブジェクト上に位置するか判定を行う。オブジェクトDB7は図3(a)に示したように、多角形で表現された各オブジェクトについて、番号、種類(領域、アイコン、文字(列)、図形、画像等)及び多角形の頂点を座標とした位置が予め記録されている。図3(b)に示すように、オブジェクトの種類として、文字(列)や図形の位置はそれを外接する四角形の頂点で位置を表してもよいし、図形の位置は表示される多角形の各頂点で表してもよい。
The object determination means 6 obtains the coordinates of the start point and the end point of the handwriting information in the
座標点が多角形内に位置するかどうかを判定する方法について、図4を参照して説明する。筆跡情報の始点又は終点をPとし、判定対象とされる多角形の頂点をQ1〜Qn−1としたとき、QiPQi+1がなす角をαiとする(但し、符号を含む)。図4(a)に示すように、閉曲線の外側にある場合には、Σαiは360度よりも小さくなり、その場合には多角形の外側にあるものと判定する。一方、図4(b)に示すように、閉曲線の内側にある場合には、Σαiは360度となり、その場合には多角形の内側にあるものと判定する。 A method for determining whether a coordinate point is located within a polygon will be described with reference to FIG. When the start point or the end point of the handwriting information is P and the vertexes of the polygon to be determined are Q 1 to Q n−1 , the angle formed by Q i PQ i + 1 is α i (however, including the sign) . As shown in FIG. 4 (a), when the outside of the closed curve, Shigumaarufa i is smaller than 360 degrees, in that case determines that outside the polygon. On the other hand, as shown in FIG. 4B, when it is inside the closed curve, Σα i is 360 degrees, and in this case, it is determined that it is inside the polygon.
オブジェクトの種類には、領域、アイコン、文字(列)(テキスト)、文字(列)を表す筆跡、図形、図形を表す筆跡、画像、サインを表す筆跡等がある。また、これらを組み合わせて1つのオブジェクトとしてもよい。 Object types include areas, icons, characters (columns) (text), handwriting representing characters (columns), figures, handwriting representing figures, images, handwriting representing signs, and the like. These may be combined into one object.
筆跡判定手段8は、図5に示したような筆跡判定DB9の中から、始点と終点がそれぞれの判定されたオブジェクト(番号、或いはその種類)をキーとして検索を行い、当てはまる筆跡の属性を判定する。筆跡判定DBに基づき判定する筆跡の属性を文字、図形、ジェスチャの3種類に分類しても良いし、さらに細かく分類しても良い。図5では、文字とジェスチャをそれぞれ複数に分類している。図中の文字1、文字2は、文字種の区別(例えば、文字1はすべての文字種、文字2はひらがなのみ)、文字属性の区別(例えば、文字1は任意の文字列、文字2は日付)などに分類する。また、筆跡の属性を文字、図形、ジェスチャのうちの2つに分類しても良いし、個人認証に用いるサイン用の筆跡をその分類に加えて文字、図形、ジェスチャ、サインの4分類としても良い。
The handwriting determination means 8 searches the
ところで、オブジェクト判定手段6は、始点か終点のどちらか一方だけについて判定を行ってもよい。例えば、図6は始点だけを用いた場合の筆跡判定DB9であり、始点が位置するオブジェクト(番号、或いはその種類)をキーとして検索する。また、オブジェクト判定手段6は、筆跡を囲む多角形の位置を判定に用いてもよい。例えば、筆跡を外接する四角形とすると、図7に示すように外接四角形は、筆跡のすべての座標点について、x座標、y座標それぞれの最大値、最小値(Xmin,Ymin,Xmax,Ymax)を求めることで、判定できる。
By the way, the object determination means 6 may determine only one of the start point and the end point. For example, FIG. 6 shows the
更に、オブジェクト判定手段6は、筆跡の始点から終点に至るすべての座標点が位置するオブジェクトを判定してもよい。そしてこれらの位置情報に基づきに筆跡判定処理を行う。筆跡判定手段8で用いる筆跡判定DB9は、例えば図8のようになる。このときには表1のキーを組み合わせて検索を行う。
Furthermore, the object determination means 6 may determine an object where all coordinate points from the start point to the end point of the handwriting are located. A handwriting determination process is performed based on the position information. The
オブジェクト判定手段6で、更に筆跡で囲まれたオブジェクトを判定してもよい。このときには、筆跡判定手段8は、表1に「筆跡で囲まれたオブジェクト」を加えて筆跡判定DB9の検索を行う。筆跡を囲むオブジェクトの検出方法は以下の通りである。
The object determination means 6 may further determine an object surrounded by handwriting. At this time, the
1.閉曲線判定処理を行い、筆跡が閉曲線を構成しているか判定する。筆跡が複数の閉曲線から成る場合、すべての閉曲線について、それぞれ2の処理を行う。
2.表示部の画面中すべてのオブジェクトについて、オブジェクトを構成する多角形の点をオブジェクトDB7から取得し、オブジェクトを構成するすべての点が、1で求められた閉曲線の内部にあるか判定を行う(上述図4の説明参照)。すべての点が内部にある場合、そのオブジェクトは筆跡が構成する閉曲線で囲まれていると判定する。
1. A closed curve determination process is performed to determine whether the handwriting forms a closed curve. When the handwriting is composed of a plurality of closed curves, the
2. For all objects in the screen of the display unit, polygon points constituting the object are acquired from the
閉曲線判定処理とは、折れ線の各線分をLi=PiPi+1で表されるとき、LiとLj(i<j)が交差しているかどうかを調べ、交差している場合、P[i]・・・P[j+1]が閉曲線を構成していると判定する。例えば、図9に示すように、線分L[2]とL[7]が交差していて、P[2]・・・P[8]が閉曲線を構成している。 Closed curve determination processing is to check whether or not L i and L j (i <j) intersect when each line segment of a broken line is expressed by Li = P i P i + 1 . i]... P [j + 1] is determined to constitute a closed curve. For example, as shown in FIG. 9, line segments L [2] and L [7] intersect, and P [2]... P [8] form a closed curve.
本実施例では、入力された筆跡情報から、始点や終点などの位置情報を求め、その位置情報に基づいてオブジェクト判定処理を行っていたが、手書きした筆跡に対して以下のような変形処理を施した筆跡情報を用いてオブジェクト判定処理を行ってもよい。 In this embodiment, position information such as a start point and an end point is obtained from input handwriting information, and object determination processing is performed based on the position information. However, the following deformation processing is performed on handwritten handwriting. The object determination process may be performed using the handwritten information.
例えば、タブレット1上を手書きした筆跡が近似してなめらかになるようにスムージング処理で変形する。入力された筆跡情報が(X[1],Y[1]),(X[2],Y[2]),...(X[n],Y[n])としたとき、
For example, the handwriting handwritten on the
とする。また、手書きした筆跡(図10(a))の座標点をいくつか間引き(図10(b))点の数を減らした筆跡で判定してもよい。筆跡をB−スプライン曲線で近似した筆跡情報を用いてオブジェクト判定処理してもよい。 And Further, the handwritten handwriting (FIG. 10A) may be determined by handwriting with a reduced number of points (FIG. 10B). You may perform an object determination process using the handwriting information which approximated the handwriting with the B-spline curve.
このように、実施例1の構成により、筆跡の属性変更の煩雑さを感じることがなく、入力したい筆跡が、文字なのか、図形なのか、ジェスチャなのかを、入力位置によって簡単に書き分けることができるため、意図通りの入力ができる。 As described above, according to the configuration of the first embodiment, it is possible to easily write whether the handwriting to be input is a character, a graphic, or a gesture depending on the input position without feeling the complexity of changing the attribute of the handwriting. You can input as you want.
次に、図11は他の実施例に係る構成図である。上記実施例1と同じ構成要素については同じ番号を付し、この後の説明を省略する。
筆跡判定手段8で判定された筆跡の属性について、筆跡分類手段10で各属性毎に分類する。この分類された筆跡情報について、それぞれ該当する筆跡処理手段を行う。
Next, FIG. 11 is a configuration diagram according to another embodiment. The same components as those in the first embodiment are denoted by the same reference numerals, and the description thereof will be omitted.
The handwriting classification means 10 classifies the attributes of the handwriting determined by the handwriting determination means 8 for each attribute. A corresponding handwriting processing means is performed for each classified handwriting information.
文字(列)と判定された筆跡情報については、文字筆跡処理手段11により文字筆跡処理を行う。この文字筆跡処理は、例えば、文字認識コマンドに対応するジェスチャが入力されたタイミングで文字認識を行い、文字認識した結果の文字列(テキスト)ともとの筆跡情報とを入れ換えて筆跡バッファ3に蓄積させ、蓄積された筆跡バッファ3の筆跡情報が筆跡表示手段4を介して表示部5に表示される。文字認識処理は特許文献2等を用いてもよい。
For the handwriting information determined to be a character (string), the character handwriting processing means 11 performs character handwriting processing. In this character handwriting process, for example, character recognition is performed at the timing when a gesture corresponding to a character recognition command is input, and the character string (text) as a result of character recognition is replaced with the original handwriting information and stored in the
図形と判定された筆跡情報については、図形筆跡処理手段12により図形筆跡処理を行う。この図形筆跡処理は、筆跡情報を最初に筆跡バッファ3に蓄積されたデータでもよく、或いは特許文献3等に記載された図形認識処理により、図形を整形してもよい。
For the handwriting information determined to be a graphic, the graphic handwriting processing means 12 performs graphic handwriting processing. This graphic handwriting process may be data in which handwriting information is first stored in the
サインと判定された筆跡情報については、サイン筆跡処理手段13によりサイン筆跡処理をおこなう。サイン筆跡処理では、筆跡情報をそのまま筆跡バッファ3に蓄積して後で目視による筆者確認のために用いる。あるいは筆跡情報に対してサイン照合処理(例えば、非特許文献1)を行ってもよい。
For the handwriting information determined to be a signature, the signature handwriting processing means 13 performs a signature handwriting process. In the signature handwriting process, handwriting information is stored in the
ジェスチャと判定された筆跡情報については、ジェスチャ筆跡処理手段14によりジェスチャ筆跡処理を行う。このジェスチャ筆跡処理では、ジェスチャの種類と対応したコマンドを予め記憶しておいたジェスチャDB15に基づいて、筆跡判定手段8で判定されたジェスチャに対応するコマンドを実行する。ジェスチャは、図12に示したように、判定結果のジェスチャの種類を対応させたコマンドを実行させてもよいし、図13に示したように形状情報等を用いて更に細かく分類してもよい。
For the handwriting information determined to be a gesture, the gesture handwriting processing means 14 performs gesture handwriting processing. In this gesture handwriting process, a command corresponding to the gesture determined by the
図13ではジェスチャと判定された筆跡情報が回転(閉曲線を形成)しているかどうかで細分類している。筆跡情報が回転しているかどうかは図9で説明した閉曲線判定方法を用いてもよい。判定されたジェスチャに文字筆跡消去コマンドが割り当てられている場合には、筆跡バッファ3に蓄積されている筆跡情報に対して消去を行う。また、ジェスチャには複数のコマンドを割り当ててもよい。
In FIG. 13, the handwriting information determined as a gesture is subdivided depending on whether it is rotating (forming a closed curve). Whether the handwriting information is rotated may use the closed curve determination method described in FIG. If the character handwriting erase command is assigned to the determined gesture, the handwriting information stored in the
このように、本発明の実施例2の構成により、他の種類の筆跡の形状を意識することなく筆跡を入力することができ、意図した筆跡情報の変換を自動的に行えるので、ユーザーにとって使いやすい入力環境を提供することができる。 As described above, according to the configuration of the second embodiment of the present invention, it is possible to input handwriting without being conscious of the shape of other types of handwriting and to automatically convert intended handwriting information. An easy input environment can be provided.
更に、図14は他の実施例に係る構成図である。上記実施例1、2と同じ構成要素については同じ番号を付し、この後の説明を省略する。
判定された筆跡情報、または判定された筆跡情報を変換した変換情報を新たなオブジェクトとしてオブジェクト追加手段16によりオブジェクトDB7に追加する。
これにより、一度手書き入力した筆跡情報、または筆跡を変換した変換情報をオブジェクトとして利用できるので、繰り返し利用するような場面では、ユーザーにとって更に使いやすい入力環境を提供することができる。
Furthermore, FIG. 14 is a configuration diagram according to another embodiment. The same components as those in the first and second embodiments are denoted by the same reference numerals, and the subsequent description is omitted.
The determined handwriting information or conversion information obtained by converting the determined handwriting information is added to the
Thereby, handwritten information once input by handwriting or converted information obtained by converting handwriting can be used as an object, so that it is possible to provide an input environment that is easier for the user to use in situations where it is used repeatedly.
上述した実施例1乃至3について、以下の通り具体的な動作を、図15乃至図18を用いて説明する。
例えば、画像(地図)データに対する手書きコメントを筆跡した場合について説明する。
筆跡判定DB9を図15(a)のように設定する。このとき、図15(b)の(1)画像A(地図)の周りに書かれた(2)筆跡を判定すると、矢印の部分が図形で、「ここが家」という部分が文字と判定される。文字部分の筆跡について、認識処理を行うと(3)のように「ここが家」がテキスト表示に変換され、図形部分の筆跡について、認識処理(整形)を行うと(4)のように、矢印が整形された表示に変換される。
Specific operations of the above-described first to third embodiments will be described with reference to FIGS.
For example, a case where a handwritten comment on image (map) data is handwritten will be described.
The
また、地図をはじめから手書きしたい場合、筆跡判定DBを図16(a)のように設定する。例えば、領域1に地図を手書きしたい場合は、図16(b)の(1)領域1が白紙の状態で、手書きにより地図を筆跡する(2)。筆跡された地図に矢印およびコメント(3)を記入し、筆跡を判定すると、地図と矢印の部分が図形で、「ここが家」という部分が文字と判定される。文字部分の筆跡について認識処理を行うと「ここが家」がテキスト表示(4)に変換され、図形部分の筆跡について。認識処理(整形)を行うと、地図と矢印が整形された表示(5)に変換される。
When it is desired to handwrite a map from the beginning, the handwriting determination DB is set as shown in FIG. For example, when it is desired to handwrite a map in the
サイン欄の場合には、図8に示した筆跡判定DBを図17(a)のように条件を「筆跡の一部が領域1にある」といった設定をすれば、図17(b)に示すように筆跡がサイン欄(領域1)からはみ出しても、サインであると判定することができる。
In the case of the sign field, if the handwriting determination DB shown in FIG. 8 is set such that “a part of the handwriting is in
ジェスチャの場合は、例えば領域から領域に直接移動をする転送ジェスチャでは、ジェスチャDB15のコマンドを「始点の位置する領域A内にある筆跡及びオブジェクトを終点の位置する領域Bに転送する」と設定する。このため、図18に示したように、領域A内の筆跡を領域Bへ転送したい場合、領域Aから領域Bへ線を書くという直感的な動作で実現できる。
In the case of a gesture, for example, in a transfer gesture that moves directly from region to region, the command in the
アイコンを使った別のウィンドウ中の領域への移動をする転送ジェスチャでは、図19(a)で示された筆跡判定DBが設定されており、ジェスチャDBのコマンドがジェスチャ1を領域1に転送、ジェスチャ2を領域2に転送するように設定されている。そのため、始点が領域A位置し、終点がアイコン1に位置するジェスチャの筆跡により、領域A内にある筆跡等が領域1に転送することができる。この場合、特に別のウィンドウが直接ペンでポインティングできない場合に、有用である。(例えば、手が届かない位置にある/ペンデバイスが使えない別の画面上にある)
In a transfer gesture that moves to an area in another window using an icon, the handwriting determination DB shown in FIG. 19A is set, and the command of the gesture DB transfers the
なお、上述してような本発明のジェスチャ判定処理を用いると、PC上でマウスを操作して実行するドラッグ&ドロップと類似したオペレーションになる場合がある。しかし、すべて筆跡に基づいたオペレーションでありペンコンピュータなどの機器に適している点、ドラッグ&ドロップ以外にもさまざまなオペレーションを筆跡入力に適したジェスチャ機能によって実現することができる点、文字や図形など他の筆跡入力の入力を同じモード中で実現できる点、という以上の点でマウスベースのオペレーションにはない優れた特長を持っている。 If the gesture determination process of the present invention as described above is used, there may be an operation similar to a drag and drop operation performed by operating a mouse on a PC. However, all operations based on handwriting are suitable for devices such as pen computers, various operations other than drag and drop can be realized with gesture functions suitable for handwriting input, characters, figures, etc. Other than the fact that other handwriting input can be realized in the same mode, it has an excellent feature not found in mouse-based operations.
また、本発明のジェスチャに関する判定方法を用いることで、ジェスチャの種類が、入力した筆跡の始点や終点に位置するオブジェクトと関連付けられるため、筆記者は直感的なコマンド操作を行うことができる。 In addition, by using the determination method relating to the gesture of the present invention, the type of gesture is associated with an object positioned at the start point or end point of the input handwriting, so that the writer can perform an intuitive command operation.
1・・・表示部
2・・・筆跡取得手段
3・・・筆跡バッファ
4・・・筆跡表示手段
5・・・表示部
6・・・オブジェクト判定手段
7・・・オブジェクトDB
8・・・筆跡判定手段
9・・・筆跡判定DB
10・・・筆跡分類手段
11・・・文字筆跡処理手段
12・・・図形筆跡処理手段
13・・・サイン筆跡処理手段
14・・・ジェスチャ筆跡処理手段
15・・・ジェスチャDB
16・・・オブジェクト追加手段
DESCRIPTION OF
8 ... Handwriting determination means 9 ... Handwriting determination DB
DESCRIPTION OF
16 ... Object addition means
Claims (2)
前記座標入力部に対応づけられた座標を有し、前記筆跡情報を表示する表示部と、
前記筆跡情報の始点及び終点の座標を取得して、領域、アイコン、文字、文字を表す筆跡、図形、図形を表す筆跡、画像、サインを表す筆跡、これらを組み合わせたもの、のいずれかを含むオブジェクトと当該オブジェクトの位置情報とを対応付けて予め記憶させたオブジェクトデータベースに基づいて、当該始点及び終点それぞれが前記表示部のどのオブジェクト上に位置しているかを判定するオブジェクト判定手段と、
前記オブジェクト判定手段で判定されたオブジェクトに基づいて、前記筆跡情報の属性が文字、図形、ジェスチャのいずれの種類であるか、または、前記筆跡情報の属性が文字、ジェスチャのいずれの種類であるか、または、前記筆跡情報の属性が図形、ジェスチャのいずれの種類であるか、または、前記筆跡情報の属性が文字、図形、ジェスチャ、サインのいずれの種類であるかを判定する筆跡判定手段と、
前記筆跡判定手段で前記筆跡情報の属性がジェスチャと判定された筆跡情報に対して、前記オブジェクト判定手段で判定されたオブジェクトから当該ジェスチャの種類を判定し、当該ジェスチャの種類に対応するコマンドを前記オブジェクト判定手段で判定されたオブジェクトに対して実行するジェスチャ処理手段とを具備したことを特徴とする筆跡処理装置。 Handwriting acquisition means for acquiring handwriting information represented by a coordinate series until the indicator touches the coordinate input unit and then leaves;
A display unit having coordinates associated with the coordinate input unit and displaying the handwriting information;
The coordinates of the start point and the end point of the handwriting information are acquired, and the region, icon, character, handwriting representing the character, figure, handwriting representing the figure, image, handwriting representing the signature, or a combination thereof are included. An object determination means for determining on which object of the display unit each of the start point and the end point is based on an object database stored in advance in association with the object and the position information of the object ;
Based on the determined object by said object determining means, attribute characters of the handwriting information, graphics, whether it is a kind of the gesture, or, if the attribute of the handwriting information character, is any type of gesture Or handwriting determination means for determining whether the attribute of the handwriting information is a figure or a gesture, or whether the attribute of the handwriting information is a character, a figure, a gesture, or a signature ;
For the handwriting information in which the attribute of the handwriting information is determined to be a gesture by the handwriting determination unit, the type of the gesture is determined from the object determined by the object determination unit, and the command corresponding to the type of the gesture is A handwriting processing apparatus comprising gesture processing means for executing an object determined by the object determination means.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003342535A JP4148867B2 (en) | 2003-09-30 | 2003-09-30 | Handwriting processor |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003342535A JP4148867B2 (en) | 2003-09-30 | 2003-09-30 | Handwriting processor |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2005108032A JP2005108032A (en) | 2005-04-21 |
JP4148867B2 true JP4148867B2 (en) | 2008-09-10 |
Family
ID=34536778
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003342535A Expired - Fee Related JP4148867B2 (en) | 2003-09-30 | 2003-09-30 | Handwriting processor |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4148867B2 (en) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8145997B2 (en) | 2005-06-30 | 2012-03-27 | Canon Kabushiki Kaisha | Method for simultaneously performing a plurality of handwritten searches |
JP2008242650A (en) * | 2007-03-26 | 2008-10-09 | Seiko Epson Corp | Image processing apparatus, control method thereof, and program thereof |
JP5056113B2 (en) * | 2007-03-29 | 2012-10-24 | 日本電気株式会社 | Authentication apparatus, electronic device including the same, authentication method, and program |
JP6111346B1 (en) * | 2016-01-08 | 2017-04-05 | 株式会社スカイコム | Electronic document terminal, signature authentication system, signature authentication method, and program for electronic document terminal |
JP3205397U (en) * | 2016-05-12 | 2016-07-21 | 協立技研株式会社 | Drying bracket support |
CN114241090B (en) * | 2021-12-31 | 2022-11-04 | 广州朗国电子科技股份有限公司 | OCR-based electronic whiteboard straight line drawing method, system, equipment and medium |
-
2003
- 2003-09-30 JP JP2003342535A patent/JP4148867B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2005108032A (en) | 2005-04-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4244614B2 (en) | Handwriting input device, program, and handwriting input method system | |
US7302099B2 (en) | Stroke segmentation for template-based cursive handwriting recognition | |
US7634718B2 (en) | Handwritten information input apparatus | |
JP4560062B2 (en) | Handwriting determination apparatus, method, and program | |
EP0992877B1 (en) | Information processing apparatus | |
US20060001656A1 (en) | Electronic ink system | |
US7206737B2 (en) | Pen tip language and language palette | |
US20060119588A1 (en) | Apparatus and method of processing information input using a touchpad | |
CN114365075B (en) | Method for selecting a graphical object and corresponding device | |
US20150146986A1 (en) | Electronic apparatus, method and storage medium | |
KR20180095840A (en) | Apparatus and method for writing notes by gestures | |
JP2007317022A (en) | Handwritten character processor and method for processing handwritten character | |
JP2001005599A (en) | Information processor and information processing method an d recording medium recording information processing program | |
US20140270529A1 (en) | Electronic device, method, and storage medium | |
JP7486131B2 (en) | Processing handwritten text input in freehand writing mode | |
JP6054547B2 (en) | Electronic device and method for processing handwritten document information | |
JP4148867B2 (en) | Handwriting processor | |
JP4807400B2 (en) | Handwriting input device, program, and handwriting input method system | |
JP5735126B2 (en) | System and handwriting search method | |
US20240231582A9 (en) | Modifying digital content including typed and handwritten text | |
JP4393415B2 (en) | Handwriting input device, handwriting input program, and program recording medium | |
KR20010073976A (en) | Handwriting Recognition System and the Method for Information Unit | |
JP2001075721A (en) | Graphic input device and method, and recording medium storing program for graphic input | |
JP2004272377A (en) | Device of character editing, character input/display device, method of character editing, program of character editing, and storage medium | |
JP3388524B2 (en) | Image input device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20050119 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20050415 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20050606 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20071122 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20071130 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20080129 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20080314 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20080424 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20080620 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20080624 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110704 Year of fee payment: 3 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 4148867 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110704 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120704 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130704 Year of fee payment: 5 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313117 Free format text: JAPANESE INTERMEDIATE CODE: R313121 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
LAPS | Cancellation because of no payment of annual fees |