[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP6019000B2 - Character input device, character input program, and image forming apparatus - Google Patents

Character input device, character input program, and image forming apparatus Download PDF

Info

Publication number
JP6019000B2
JP6019000B2 JP2013200321A JP2013200321A JP6019000B2 JP 6019000 B2 JP6019000 B2 JP 6019000B2 JP 2013200321 A JP2013200321 A JP 2013200321A JP 2013200321 A JP2013200321 A JP 2013200321A JP 6019000 B2 JP6019000 B2 JP 6019000B2
Authority
JP
Japan
Prior art keywords
contact position
detected
contact
unit
detection unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2013200321A
Other languages
Japanese (ja)
Other versions
JP2015069226A (en
Inventor
浩平 小西
浩平 小西
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyocera Document Solutions Inc
Original Assignee
Kyocera Document Solutions Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyocera Document Solutions Inc filed Critical Kyocera Document Solutions Inc
Priority to JP2013200321A priority Critical patent/JP6019000B2/en
Publication of JP2015069226A publication Critical patent/JP2015069226A/en
Application granted granted Critical
Publication of JP6019000B2 publication Critical patent/JP6019000B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、文字入力装置、文字入力プログラム及び画像形成装置に関する。   The present invention relates to a character input device, a character input program, and an image forming apparatus.

スマートフォンやタブレットPCなどを筆頭に、タッチパネル機能を備えたタッチパネルデバイスが普及している。このようなタッチパネルデバイスには、いわゆるシングルタッチ操作に対応したデバイスだけではなく、複数のタッチに基づくマルチタッチ操作に対応したデバイスも提案されている。マルチタッチ操作が加わると、タッチパネル上で検知する座標位置が増加するため、デバイスの検出精度によっては、接触位置として検出される座標のズレや誤検知が発生しやすい。例えば、ピンチインやピンチアウト等のピンチ操作により表示対象の拡大又は縮小を行うときに、操作者が意図しない拡大率で表示されたり、また、ドラッグ操作によって表示対象の移動を行うときに、意図しない場所に表示が移動するおそれがある。   Touch panel devices having a touch panel function, such as smartphones and tablet PCs, are in widespread use. As such a touch panel device, not only a device corresponding to a so-called single touch operation but also a device corresponding to a multi-touch operation based on a plurality of touches has been proposed. When a multi-touch operation is applied, the coordinate position detected on the touch panel increases, and therefore, misalignment or erroneous detection of the coordinates detected as the contact position tends to occur depending on the detection accuracy of the device. For example, when the display object is enlarged or reduced by a pinch operation such as pinch-in or pinch-out, it is displayed at an unintended enlargement ratio, or when the display object is moved by a drag operation, it is not intended The display may move to the location.

このため、ジェスチャー操作のアルゴリズムを改善することにより、ユーザーの操作性を向上させる技術が提案されている。下記特許文献1には、検知座標の位置関係と、検知座標が移動した方向を検出することにより、ユーザーが意図したジェスチャー操作の認識率を向上させる技術が示されている。また、下記特許文献2には、用紙サイズなど、定形でサイズが決まっている場合の拡大・縮小に対して、定型サイズ毎に拡大縮小のステップを区切ることにより、ユーザーが、定型サイズに拡大するための微調整を行う必要をなくし、拡大又は縮小を指示する際のジェスチャー操作の操作性を改善する技術が示されている。   For this reason, a technique for improving user operability by improving an algorithm of gesture operation has been proposed. Japanese Patent Application Laid-Open No. 2004-228561 discloses a technique for improving the recognition rate of gesture operation intended by the user by detecting the positional relationship between the detected coordinates and the direction in which the detected coordinates have moved. Also, in Patent Document 2 below, the user enlarges to a standard size by dividing the enlargement / reduction step for each standard size, for enlargement / reduction when the paper size is fixed and the size is fixed. For example, a technique for improving the operability of the gesture operation when instructing enlargement or reduction is shown.

特開2012−203440号公報JP 2012-203440 A 特開2012−121179号公報JP 2012-121179 A

タッチパネルデバイスにおける操作指示の誤入力は、デバイスの検出精度によることが多い。例えば、操作者がタッチパネル上でドラッグ操作やピッチ操作を行う場合、時間経過に伴って順次に接触位置を検出することが必要になるが、例えば圧力方式で接触を感知するタッチパネルは、このような連続して移動する接触位置をシームレスに検出するには精度に乏しいため、ドラッグ操作やピッチ操作を正確に検出できないこともあり得る。上記特許文献1及び2に示される技術は、ユーザーによる操作ミスを補うことは可能であるが、デバイスの検出精度によるズレや誤検知を補正することはできない。このため、圧力方式等の安価なタッチパネルデバイス上では、ユーザーの意図したジェスチャー操作が検出されず、ユーザーが意図しない処理が行われるおそれがある。   An erroneous input of an operation instruction in a touch panel device often depends on the detection accuracy of the device. For example, when the operator performs a drag operation or a pitch operation on the touch panel, it is necessary to sequentially detect the contact position as time elapses. Since the accuracy of detecting a contact position that moves continuously is insufficient, it may be impossible to accurately detect a drag operation or a pitch operation. The techniques disclosed in Patent Documents 1 and 2 can compensate for an operation error by a user, but cannot correct a deviation or a false detection due to device detection accuracy. For this reason, on an inexpensive touch panel device such as a pressure method, a gesture operation intended by the user is not detected, and there is a possibility that processing unintended by the user is performed.

本発明は、上記問題を解決するためになされたものであり、接触を検知する精度が低い機器であっても、操作者による接触が示すジェスチャー操作を正確に認識して誤動作を軽減することを目的とする。   The present invention has been made in order to solve the above-described problem, and can accurately recognize a gesture operation indicated by contact by an operator and reduce malfunction even in a device having low accuracy of detecting contact. Objective.

本発明の一局面に係る文字入力装置は、画像を表示する表示部と、前記表示部の表示画面上における操作者による接触及びその接触位置を検知する接触検知部と、前記接触検知部により時間経過に伴って順次検知される各接触位置に基づいて、操作者によるジェスチャー操作を検出する操作検出部と、前記接触検知部によって、時間経過に伴って前記接触位置が連続して検知されているときに、当該検知されている最終の接触位置に連続しない座標位置の接触位置が検知された場合、当該連続しない接触位置が検知された後の予め定められた時間内に別の接触位置が検出されたか否かを判定する別接触位置判定部と、前記別接触位置判定部により前記予め定められた時間内に前記別の接触位置が検出されたと判定された場合に、当該別の接触位置と、前記連続しない接触位置のいずれが、前記最終の接触位置までの距離が短いかを判定する距離判定部とを備え、前記操作検出部は、前記距離判定部によって前記最終の接触位置までの距離が短いと判定された方の接触位置を、前記最終の接触位置に続く接触位置として認識して前記ジェスチャー操作を検出するものである。   A character input device according to an aspect of the present invention includes a display unit that displays an image, a contact detection unit that detects contact by an operator on the display screen of the display unit and a contact position thereof, and the contact detection unit. Based on the contact positions that are sequentially detected as time passes, the contact position is continuously detected as time passes by the operation detection unit that detects a gesture operation by an operator and the contact detection unit. When a contact position at a coordinate position that is not continuous with the detected final contact position is detected, another contact position is detected within a predetermined time after the non-continuous contact position is detected. Another contact position determination unit that determines whether or not the contact has been performed, and when the another contact position determination unit determines that the other contact position has been detected within the predetermined time, the other contact And a distance determination unit that determines which one of the non-continuous contact positions has a short distance to the final contact position, and the operation detection unit uses the distance determination unit to reach the final contact position. The gesture position is detected by recognizing the contact position determined to be shorter as the contact position following the final contact position.

また、本発明の他の一局面に係る文字入力プログラムは、コンピューターを、表示部の表示画面上における操作者による接触及びその接触位置を検知する接触検知部と、前記接触検知部により時間経過に伴って順次検知される各接触位置に基づいて、操作者によるジェスチャー操作を検出する操作検出部と、前記接触検知部によって、時間経過に伴って前記接触位置が連続して検知されているときに、当該検知されている最終の接触位置に連続しない座標位置の接触位置が検知された場合、当該連続しない接触位置が検知された後の予め定められた時間内に別の接触位置が検出されたか否かを判定する別接触位置判定部と、前記別接触位置判定部により前記予め定められた時間内に前記別の接触位置が検出されたと判定された場合に、当該別の接触位置と、前記連続しない接触位置のいずれが、前記最終の接触位置までの距離が短いかを判定する距離判定部として機能させ、更に、当該コンピューターを、前記操作検出部が、前記距離判定部によって前記最終の接触位置までの距離が短いと判定された方の接触位置を、前記最終の接触位置に続く接触位置として認識して前記ジェスチャー操作を検出するように、機能させるものである。   According to another aspect of the present invention, there is provided a character input program that causes a computer to detect a contact by an operator on a display screen of a display unit and a contact detection unit that detects the contact position, and the contact detection unit to elapse time. When the contact position is continuously detected as time passes by the operation detection unit that detects a gesture operation by an operator based on each contact position that is sequentially detected along with the contact detection unit. If a contact position at a coordinate position that is not continuous with the detected final contact position is detected, has another contact position been detected within a predetermined time after the non-continuous contact position is detected? A separate contact position determination unit that determines whether or not the separate contact position determination unit determines that the separate contact position is detected within the predetermined time. The contact position and the non-continuous contact position are caused to function as a distance determination unit that determines whether the distance to the final contact position is short, and the operation detection unit is further connected to the distance determination unit. Thus, the contact position determined to have a shorter distance to the final contact position is recognized as a contact position following the final contact position, and the gesture operation is detected.

例えば、操作者による表示画面上への接触に基づいて、連続した接触位置が時間経過に伴って次々に検知されている場合、最後に検知された最終の接触位置の次に検知される位置は、当該最終の接触位置に連続する座標位置のものであるか、近傍位置のものである可能性が高い。本発明によれば、操作者がピンチ操作やドラック操作を行い、接触検知部が時間経過に伴って変化する接触位置を順次検知しているときに、当該検出されている最終の接触位置に連続しない座標位置の接触位置が検出された場合、当該連続しない接触位置が検出された後の予め定められた時間内に別の接触位置が検出されると、当該別の接触位置と上記連続しない接触位置のうち、上記最終の接触位置までの距離が短いと判定された方の接触位置を、最終の接触位置に続く連続した接触位置として認識する。このため、本発明によれば、接触検知部が、操作者の意図しない位置で接触位置を誤検出したとしても、操作者による操作に基づく本来の接触位置が示すジェスチャー操作を正確に検出することが可能になる。すなわち、本発明によれば、操作者は、接触検知部の性能や精度の如何を問わず、操作者が入力したい本来のジェスチャー操作を入力することが可能になる。   For example, based on the contact on the display screen by the operator, when consecutive contact positions are detected one after another as time elapses, the position detected next to the last detected last contact position is There is a high possibility that the coordinate position is continuous to the final contact position or the vicinity position. According to the present invention, when the operator performs a pinch operation or a drag operation and the contact detection unit sequentially detects the contact positions that change with time, the detected last contact position continues. When a contact position at a coordinate position not detected is detected, if another contact position is detected within a predetermined time after the non-continuous contact position is detected, the non-continuous contact with the other contact position is detected. Of the positions, the contact position that is determined to have a shorter distance to the final contact position is recognized as a continuous contact position following the final contact position. For this reason, according to the present invention, even if the contact detection unit erroneously detects the contact position at a position not intended by the operator, it can accurately detect the gesture operation indicated by the original contact position based on the operation by the operator. Is possible. That is, according to the present invention, the operator can input an original gesture operation that the operator wants to input regardless of the performance and accuracy of the contact detection unit.

また、本発明の他の一局面に係る文字入力装置は、画像を表示する表示部と、前記表示部の表示画面上における操作者による接触及びその接触位置を検知する接触検知部と、
前記接触検知部により時間経過に伴って順次検知される各接触位置に基づいて、操作者によるジェスチャー操作を検出する操作検出部とを備え、
前記操作検出部は、前記接触検知部によって、時間経過に伴って前記接触位置が順次検知されているときに、前記最終の接触位置と同時期に、それまでに検知されている接触位置とは連続しない座標位置の接触位置が検知された場合であって、これら最終の接触位置及び連続しない接触位置のいずれからも、連続する座標位置の接触位置が、時間経過に伴って同様の軌跡で検知されていると判断したときは、前記最終の接触位置及び連続しない接触位置の両方から連続して検知されている接触位置の中点を、前記最終の接触位置に続く接触位置として認識して前記ジェスチャー操作を検出するものである
Further, a character input device according to another aspect of the present invention includes a display unit that displays an image, a contact by an operator on the display screen of the display unit, and a contact detection unit that detects a contact position thereof,
An operation detection unit that detects a gesture operation by an operator based on each contact position that is sequentially detected as time passes by the contact detection unit;
The operation detection unit is a contact position that has been detected so far at the same time as the final contact position when the contact detection unit sequentially detects the contact position as time passes. When a contact position at a non-continuous coordinate position is detected, the contact position at a continuous coordinate position is detected with a similar trajectory over time from either the final contact position or the non-continuous contact position. When it is determined that the contact position is detected continuously from both the final contact position and the non-continuous contact position, the midpoint of the contact position is recognized as the contact position subsequent to the final contact position. A gesture operation is detected .

本発明によれば、接触を検知する精度が低い機器であっても、操作者による接触が示すジェスチャー操作を正確に認識して誤動作を軽減することを目的とする。   According to the present invention, it is an object of the present invention to accurately recognize a gesture operation indicated by contact by an operator and reduce malfunction even in a device with low accuracy for detecting contact.

本発明の一実施形態に係る文字入力装置を備える画像形成装置の構造を示す正面断面図である。It is a front sectional view showing the structure of an image forming apparatus provided with a character input device according to an embodiment of the present invention. 画像形成装置の主要内部構成を概略的に示す機能ブロック図である。2 is a functional block diagram schematically showing a main internal configuration of the image forming apparatus. FIG. 画像形成装置による操作検出処理の第1実施形態を示すフローチャートである。3 is a flowchart illustrating a first embodiment of operation detection processing by the image forming apparatus. 表示部の表示画面の一例を示す図である。It is a figure which shows an example of the display screen of a display part. 表示部の表示画面の一例を示す図である。It is a figure which shows an example of the display screen of a display part. 表示部の表示画面の一例を示す図である。It is a figure which shows an example of the display screen of a display part. 表示部の表示画面の一例を示す図である。It is a figure which shows an example of the display screen of a display part. 画像形成装置による操作検出処理の第2実施形態を示すフローチャートである。10 is a flowchart illustrating a second embodiment of operation detection processing by the image forming apparatus. 表示部の表示画面の一例を示す図である。It is a figure which shows an example of the display screen of a display part. 表示部の表示画面の一例を示す図である。It is a figure which shows an example of the display screen of a display part. 画像形成装置による操作検出処理の第3実施形態を示すフローチャートである。10 is a flowchart illustrating a third embodiment of operation detection processing by the image forming apparatus. 表示部の表示画面の一例を示す図である。It is a figure which shows an example of the display screen of a display part. 表示部の表示画面の一例を示す図である。It is a figure which shows an example of the display screen of a display part.

以下、本発明の一実施形態に係る文字入力装置、文字入力プログラム及び画像形成装置について図面を参照して説明する。図1は、本発明の一実施形態に係る文字入力装置を備える画像形成装置の構造を示す正面断面図である。   Hereinafter, a character input device, a character input program, and an image forming apparatus according to an embodiment of the present invention will be described with reference to the drawings. FIG. 1 is a front sectional view showing a structure of an image forming apparatus including a character input device according to an embodiment of the present invention.

本発明の一実施形態に係る画像形成装置1は、例えば、コピー機能、プリンター機能、スキャナー機能、及びファクシミリ機能のような複数の機能を兼ね備えた複合機である。画像形成装置1は、装置本体11Aに、操作部47、画像形成部12、定着部13、給紙部14、原稿給送部6、及び原稿読取部5等を備えて構成されている。   An image forming apparatus 1 according to an embodiment of the present invention is a multifunction machine having a plurality of functions such as a copy function, a printer function, a scanner function, and a facsimile function. The image forming apparatus 1 is configured to include an operation unit 47, an image forming unit 12, a fixing unit 13, a paper feeding unit 14, a document feeding unit 6, a document reading unit 5, and the like in an apparatus main body 11A.

操作部47は、画像形成装置1が実行可能な各種動作及び処理について操作者から画像形成動作実行指示や原稿読取動作実行指示等の指示を受け付ける。操作部47は、操作者への操作案内等を表示する表示部473を備えている。   The operation unit 47 receives instructions such as an image forming operation execution instruction and a document reading operation execution instruction from the operator regarding various operations and processes that can be executed by the image forming apparatus 1. The operation unit 47 includes a display unit 473 that displays operation guidance to the operator.

画像形成装置1が原稿読取動作を行う場合、原稿給送部6により給送されてくる原稿、又はコンタクトガラス(原稿載置ガラス)161に載置された原稿の画像を原稿読取部5が光学的に読み取り、画像データを生成する。原稿読取部5により生成された画像データは内蔵HDD又はネットワーク接続されたコンピューター等に保存される。   When the image forming apparatus 1 performs a document reading operation, the document reading unit 5 optically processes a document fed by the document feeding unit 6 or a document placed on a contact glass (document placing glass) 161. Read and generate image data. Image data generated by the document reading unit 5 is stored in a built-in HDD or a network-connected computer.

画像形成装置1が画像形成動作を行う場合は、上記原稿読取動作により生成された画像データ、又はネットワーク接続されたコンピューターやスマートフォン等のユーザー端末装置から受信した画像データ、又は内蔵HDDに記憶されている画像データ等に基づいて、画像形成部12が、給紙部14から給紙される記録媒体としての記録紙Pにトナー像を形成する。画像形成部12の画像形成ユニット12M、12C、12Y、及び12Bkは、感光体ドラムと、感光体ドラムへトナーを供給する現像装置122と、トナーを収容するトナーカートリッジ(不図示)と、帯電装置123と、露光装置124と、1次転写ローラー126とをそれぞれ備えている。   When the image forming apparatus 1 performs an image forming operation, the image data generated by the document reading operation, the image data received from a user terminal device such as a computer or a smartphone connected to a network, or stored in a built-in HDD. The image forming unit 12 forms a toner image on a recording sheet P as a recording medium fed from the sheet feeding unit 14 based on the image data and the like. The image forming units 12M, 12C, 12Y, and 12Bk of the image forming unit 12 include a photosensitive drum, a developing device 122 that supplies toner to the photosensitive drum, a toner cartridge (not shown) that stores toner, and a charging device. 123, an exposure device 124, and a primary transfer roller 126, respectively.

給紙部14は、複数の給紙カセットを備える。制御部(不図示)は、操作者による指示で指定されたサイズの記録紙が収容された給紙カセットのピックアップローラー145を回転駆動させて、各給紙カセットに収容されている記録紙Pを上記ニップ部Nに向けて搬送させる。   The paper feed unit 14 includes a plurality of paper feed cassettes. The control unit (not shown) rotates the pickup roller 145 of the paper feed cassette in which the recording paper of the size specified by the instruction from the operator is rotated, so that the recording paper P stored in each paper feed cassette is loaded. It is conveyed toward the nip portion N.

カラー印刷を行う場合、画像形成部12のマゼンタ用の画像形成ユニット12M、シアン用の画像形成ユニット12C、イエロー用の画像形成ユニット12Y及びブラック用の画像形成ユニット12Bkは、それぞれに、画像データを構成するそれぞれの色成分からなる画像に基づいて、帯電、露光及び現像の工程により感光体ドラム121上にトナー像を形成し、トナー像を1次転写ローラー126により、駆動ローラー125a及び従動ローラー125bに張架されている中間転写ベルト125上に転写させる。   When performing color printing, the magenta image forming unit 12M, the cyan image forming unit 12C, the yellow image forming unit 12Y, and the black image forming unit 12Bk of the image forming unit 12 each receive image data. A toner image is formed on the photosensitive drum 121 by charging, exposure, and development processes based on the image composed of each color component, and the toner image is driven by the primary transfer roller 126 by the driving roller 125a and the driven roller 125b. The image is transferred onto the intermediate transfer belt 125 that is stretched around the belt.

中間転写ベルト125は、その外周面にトナー像が転写される像担持面が設定され、感光体ドラム121の周面に当接した状態で駆動ローラー125aによって駆動される。中間転写ベルト125は、各感光体ドラム121と同期しながら、駆動ローラー125aと従動ローラー125bとの間を無端走行する。   The intermediate transfer belt 125 is driven by a driving roller 125 a in a state where an image carrying surface on which a toner image is transferred is set on the outer peripheral surface thereof and in contact with the peripheral surface of the photosensitive drum 121. The intermediate transfer belt 125 travels endlessly between the driving roller 125a and the driven roller 125b while being synchronized with each photosensitive drum 121.

中間転写ベルト125上に転写される各色のトナー画像は、転写タイミングを調整して中間転写ベルト125上で重ね合わされ、カラーのトナー像となる。2次転写ローラー210は、中間転写ベルト125の表面に形成されたカラーのトナー像を、中間転写ベルト125を挟んで、対向ローラとしての駆動ローラー125aとのニップ部Nにおいて、給紙部14から搬送路190を搬送されてきた記録紙Pに転写させる。この後、定着部13が、記録紙P上のトナー像を熱圧着により記録紙Pに定着させる。定着処理の完了したカラー画像形成済みの記録紙Pは、排出トレイ151に排出される。   The toner images of the respective colors transferred onto the intermediate transfer belt 125 are superimposed on the intermediate transfer belt 125 with the transfer timing adjusted to become a color toner image. The secondary transfer roller 210 receives a color toner image formed on the surface of the intermediate transfer belt 125 from the paper supply unit 14 at a nip N between the intermediate transfer belt 125 and the driving roller 125a as an opposing roller. The conveyance path 190 is transferred to the recording paper P that has been conveyed. Thereafter, the fixing unit 13 fixes the toner image on the recording paper P to the recording paper P by thermocompression bonding. The recording paper P on which the color image has been formed after completion of the fixing process is discharged to a discharge tray 151.

次に、画像形成装置1の電気的構成を説明する。図2は画像形成装置1の主要内部構成を概略的に示す機能ブロック図である。   Next, the electrical configuration of the image forming apparatus 1 will be described. FIG. 2 is a functional block diagram schematically showing the main internal configuration of the image forming apparatus 1.

画像形成装置1は、制御ユニット10を備える。制御ユニット10は、CPU(Central Processing Unit)、RAM、ROM及び専用のハードウェア回路等から構成され、画像形成装置1の全体的な動作制御を司る。   The image forming apparatus 1 includes a control unit 10. The control unit 10 includes a CPU (Central Processing Unit), a RAM, a ROM, a dedicated hardware circuit, and the like, and controls overall operation of the image forming apparatus 1.

制御ユニット10は、原稿読取部5、画像処理部31、画像メモリー32、用紙搬送部411、画像形成部12、操作部47、ファクシミリ通信部71、ネットワークインターフェイス部91、HDD(ハードディスクドライブ)81等と接続されている。制御ユニット10は、接続されている上記各機構の動作制御や、各機構との間での信号又はデータの送受信を行う。   The control unit 10 includes a document reading unit 5, an image processing unit 31, an image memory 32, a paper transport unit 411, an image forming unit 12, an operation unit 47, a facsimile communication unit 71, a network interface unit 91, an HDD (hard disk drive) 81, and the like. Connected with. The control unit 10 performs operation control of each of the connected mechanisms and transmits / receives a signal or data to / from each mechanism.

制御ユニット10は、上述した画像形成装置1の全体的な動作制御を司る制御部100と、表示部473の表示制御を司る表示制御部103とを備える。制御部100は、ユーザーから操作部47又はネッワーク接続されたパーソナルコンピューター等を通じて入力されるジョブの実行指示に従って、スキャナー機能、プリンター機能、コピー機能及びファクシミリ機能の各機能についての動作制御を実行するために必要な各機構部の駆動及び処理を制御する。   The control unit 10 includes a control unit 100 that controls overall operation of the image forming apparatus 1 described above, and a display control unit 103 that controls display control of the display unit 473. The control unit 100 executes operation control for each function of the scanner function, the printer function, the copy function, and the facsimile function in accordance with a job execution instruction input from the user through the operation unit 47 or a personal computer connected via a network. It controls the drive and processing of each mechanism necessary for the operation.

原稿読取部5は、画像照射ランプ511及びCCD(電荷結合素子:Charge Coupled Device)センサー512を有する上記の読取機構163からなるスキャナー部51を備える。原稿読取部5は、画像照射ランプ511により原稿を照射し、その反射光をCCDセンサー512で受光することにより、原稿から画像を読み取る。   The document reading unit 5 includes a scanner unit 51 including the reading mechanism 163 having an image irradiation lamp 511 and a CCD (Charge Coupled Device) sensor 512. The document reading unit 5 irradiates the document with the image irradiation lamp 511 and receives the reflected light with the CCD sensor 512 to read the image from the document.

画像処理部31は、原稿読取部5で読み取られた画像の画像データを必要に応じて画像処理する。例えば、画像処理部31は、原稿読取部5により読み取られた画像が画像形成部12により画像形成された後の品質を向上させるために、予め定められた画像処理を行う。   The image processing unit 31 performs image processing on the image data of the image read by the document reading unit 5 as necessary. For example, the image processing unit 31 performs predetermined image processing in order to improve the quality after the image read by the document reading unit 5 is formed by the image forming unit 12.

画像メモリー32は、上記原稿読取部5で読み取られた画像データ等を記憶する。   The image memory 32 stores image data read by the document reading unit 5.

用紙搬送部411は、図1に示したピックアップローラー145及び搬送ローラー192等から構成され、手差しトレイ141,給紙カセット142,143に収納されている記録紙を画像形成部12及び排出トレイ151まで搬送する。   The paper transport unit 411 includes the pick-up roller 145 and the transport roller 192 shown in FIG. Transport.

画像形成部12は、上述したように、画像形成ユニット12M、12C、12Y、12Bkと、駆動ローラー125aに張架された中間転写ベルト125と、2次転写ローラー210とを備えている。画像形成部12による出力対象となる画像データは、原稿読取部5で読み取られた画像データ、ネットワークインターフェイス部91を介してローカルエリア内のクライアントコンピューター等から送信されてきた画像データ等から送信されてきた画像データ等である。   As described above, the image forming unit 12 includes the image forming units 12M, 12C, 12Y, and 12Bk, the intermediate transfer belt 125 stretched around the drive roller 125a, and the secondary transfer roller 210. Image data to be output by the image forming unit 12 is transmitted from image data read by the document reading unit 5, image data transmitted from a client computer or the like in the local area via the network interface unit 91, and the like. Image data.

操作部47は、画像形成装置1が実行可能な各種動作及び処理についてユーザーからの指示を受け付けるタッチパネル部102及び操作キー部を備える。タッチパネル部(接触検知部)102は、操作部47が備える表示部473のディスプレイ部分に設けられており、表示部473の表示画面上における操作者による接触を接触位置(座標位置)と共に検知する。タッチパネル部102は、操作者による当該接触を検知すると、当該接触位置を示す検知信号を、後述する操作検出部104等に出力する。タッチパネル部102の構成は、特に限定されないが、例えば圧力式の検知機構が用いられる。   The operation unit 47 includes a touch panel unit 102 and operation key units that receive instructions from the user regarding various operations and processes that can be executed by the image forming apparatus 1. The touch panel unit (contact detection unit) 102 is provided in a display portion of the display unit 473 provided in the operation unit 47, and detects contact by the operator on the display screen of the display unit 473 together with the contact position (coordinate position). When the touch panel unit 102 detects the contact by the operator, the touch panel unit 102 outputs a detection signal indicating the contact position to the operation detection unit 104 described later. The configuration of the touch panel unit 102 is not particularly limited. For example, a pressure type detection mechanism is used.

ファクシミリ通信部71は、図略の符号化/復号化部、変復調部及びNCU(Network Control Unit)を備え、公衆電話回線網を用いてのファクシミリの送信を行うものである。ファクシミリ通信部71は、例えば原稿読取部5によって読み取られた原稿の画像データを、電話回線を介してファクシミリ装置等へ送信したり、ファクシミリ装置等から送信された画像データを受信する。   The facsimile communication unit 71 includes an unillustrated encoding / decoding unit, modulation / demodulation unit, and NCU (Network Control Unit), and performs facsimile transmission using a public telephone network. For example, the facsimile communication unit 71 transmits image data of a document read by the document reading unit 5 to a facsimile device or the like via a telephone line, or receives image data transmitted from the facsimile device or the like.

HDD(画像記憶部)81は、原稿読取部5によって読み取られた画像データ等を記憶する。HDD81に記憶されている画像データは、画像形成部12による画像形成に用いることが可能である。また、HDD81は、表示部473に表示させる文字画像を記憶している。   An HDD (image storage unit) 81 stores image data read by the document reading unit 5. The image data stored in the HDD 81 can be used for image formation by the image forming unit 12. The HDD 81 stores a character image to be displayed on the display unit 473.

ネットワークインターフェイス部91は、LANボード等の通信モジュールから構成され、当該ネットワークインターフェイス部91に接続されたLAN等を介して、ローカルエリア内の装置(パーソナルコンピューター等)と種々のデータの送受信を行う。   The network interface unit 91 includes a communication module such as a LAN board, and transmits / receives various data to / from a device (such as a personal computer) in the local area via the LAN connected to the network interface unit 91.

また、制御ユニット10は、更に、操作検出部104、別接触位置判定部105、及び距離判定部106を備えている。制御ユニット10は、内蔵するメモリー又はROM、或いはHDD81に記憶された本発明の一実施形態である文字入力プログラムに従ってCPUが動作することで、操作検出部104、別接触位置判定部105、及び距離判定部106として機能する。或いは、操作検出部104、別接触位置判定部105、及び距離判定部106に対応する専用のハードウェア回路等を備えることにより、当該操作検出部104、別接触位置判定部105、及び距離判定部106として機能するようにしてもよい。   The control unit 10 further includes an operation detection unit 104, another contact position determination unit 105, and a distance determination unit 106. The control unit 10 is operated by a CPU according to a character input program according to an embodiment of the present invention stored in a built-in memory or ROM, or HDD 81, so that an operation detection unit 104, another contact position determination unit 105, and a distance It functions as the determination unit 106. Alternatively, by providing a dedicated hardware circuit corresponding to the operation detection unit 104, the separate contact position determination unit 105, and the distance determination unit 106, the operation detection unit 104, the separate contact position determination unit 105, and the distance determination unit. It may function as 106.

操作検出部104は、タッチパネル部102により時間経過に伴って順次検知される各接触位置に基づいて、操作者によるジェスチャー操作を検出する。操作検出部104は、本実施形態では、表示部473の表示画面(タッチパネル)における接触がタッチパネル部102によって検知されたとき、当該接触についての時間経過に伴う接触位置の移動に基づいて、操作者によるジェスチャー操作が、ドラッグ、ピンチイン、又はピンチアウトのいずれであるか、更には、ドラッグ、ピンチイン、又はピンチアウトの示す内容を検出する。   The operation detection unit 104 detects a gesture operation by the operator based on each contact position that is sequentially detected by the touch panel unit 102 over time. In the present embodiment, the operation detection unit 104, when contact on the display screen (touch panel) of the display unit 473 is detected by the touch panel unit 102, the operation detection unit 104 is based on the movement of the contact position over time for the contact. Whether the gesture operation by is dragging, pinching in, or pinching out, and further, the content indicated by the dragging, pinching in, or pinching out is detected.

操作者が表示部473の表示画面上に1つの指を接触させた状態で指を表示画面上でスライド移動させると、タッチパネル部102は、時間経過に伴って各移動位置を示す検知信号を操作検出部104に出力する。操作検出部104は、タッチパネル部102からの検知信号が、連続する座標位置で順次移動する接触位置を示すときは、操作者による操作がドラッグ操作であると検出する。ドラッグ操作の検出方法は、これに限られない。当該ドラッグ操作の検出については公知の技術を用いることが可能である。   When the operator slides a finger on the display screen while one finger is in contact with the display screen of the display unit 473, the touch panel unit 102 operates a detection signal indicating each moving position as time passes. The data is output to the detection unit 104. The operation detection unit 104 detects that the operation by the operator is a drag operation when the detection signal from the touch panel unit 102 indicates a contact position that sequentially moves at successive coordinate positions. The detection method of the drag operation is not limited to this. A known technique can be used for detection of the drag operation.

また、表示画面上において操作者が複数の箇所に接触している場合には、タッチパネル部102は、当該複数の箇所についてそれぞれ接触を検知し、上記接触位置を示す検知信号を操作検出部104等に出力する。操作検出部104は、当該複数の接触についてタッチパネル部102から上記接触位置を示す検知信号が同時期に送られてくると、上記複数の接触が表示画面上で移動する方向を判別する。操作検出部104は、例えば(1)2つの接触を示す接触位置(座標位置)の移動方向が互いに近付く方向に移動する場合は、ピンチインとして検出し、(2)2つの接触を示す接触位置(座標位置)の移動方向が互いに離れる方向に移動する場合は、ピンチアウトとして検出する。なお、ピンチイン及びピンチアウトの検出方法は、これに限られない。当該ピンチイン及びピンチアウトの検出については公知の技術を用いることが可能である。   In addition, when the operator is in contact with a plurality of locations on the display screen, the touch panel unit 102 detects contact with each of the plurality of locations and sends a detection signal indicating the contact position to the operation detection unit 104 or the like. Output to. When the detection signal indicating the contact position is sent from the touch panel unit 102 at the same time for the plurality of contacts, the operation detection unit 104 determines the direction in which the plurality of contacts move on the display screen. The operation detection unit 104 detects, for example, (1) pinch-in when the movement direction of the contact position (coordinate position) indicating two contacts moves toward each other, and (2) the contact position indicating two contacts ( When the movement direction of the coordinate position moves away from each other, it is detected as a pinch out. In addition, the detection method of pinch in and pinch out is not restricted to this. A known technique can be used to detect the pinch-in and pinch-out.

別接触位置判定部105は、上記のようにしてタッチパネル部102により、時間経過に伴って変化する接触位置が順次検知されているときに、当該検知されている最終の接触位置に連続しない座標位置の接触位置が検知された場合、当該連続しない接触位置が検知された後、予め定められた時間内に、別の接触位置が検出されたか否かを判定する。なお、別接触位置判定部105は、後述する各実施形態において示す処理も行う。   The separate contact position determination unit 105 performs coordinate positions that are not continuous with the detected final contact position when the touch panel unit 102 sequentially detects contact positions that change over time as described above. When the contact position is detected, it is determined whether another contact position is detected within a predetermined time after the non-continuous contact position is detected. In addition, the separate contact position determination part 105 also performs the process shown in each embodiment mentioned later.

距離判定部106は、別接触位置判定部105により上記予め定められた時間内に上記別の接触位置が検出されたと判定された場合に、当該別の接触位置と、タッチパネル部102により検知された上記連続しない接触位置のいずれが、タッチパネル部102により検知された上記最終の接触位置までの距離が短いかを判定する。   The distance determination unit 106 detects the other contact position and the touch panel unit 102 when the other contact position determination unit 105 determines that the other contact position is detected within the predetermined time. It is determined which of the non-continuous contact positions has a short distance to the final contact position detected by the touch panel unit 102.

距離判定部106により、上記別の接触位置と、上記連続しない接触位置のいずれかが、上記最終の接触位置までの距離が短いと判定されると、操作検出部104は、当該最終の接触位置までの距離が短いと判定された方の接触位置を、上記最終の接触位置に続く連続した接触位置として認識して、操作指示を検出する。   When the distance determination unit 106 determines that one of the other contact position and the non-continuous contact position has a short distance to the final contact position, the operation detection unit 104 determines the final contact position. The operation position is determined by recognizing the contact position determined to have a shorter distance as the continuous contact position following the final contact position.

なお、距離判定部106は、後述する各実施形態において示す処理も行う。   The distance determination unit 106 also performs processing shown in each embodiment described later.

本発明の一実施形態に係る文字入力装置は、例えば、上記表示部473、タッチパネル部(接触検知部)102、操作検出部104、別接触位置判定部105、及び距離判定部106を備えてなる。   A character input device according to an embodiment of the present invention includes, for example, the display unit 473, the touch panel unit (contact detection unit) 102, the operation detection unit 104, another contact position determination unit 105, and a distance determination unit 106. .

次に、画像形成装置1による操作検出処理の第1実施形態を説明する。図3は画像形成装置1による操作検出処理の第1実施形態を示すフローチャートである。図4〜図7は表示部473の表示画面の一例を示す図である。   Next, a first embodiment of operation detection processing by the image forming apparatus 1 will be described. FIG. 3 is a flowchart illustrating a first embodiment of the operation detection process performed by the image forming apparatus 1. 4 to 7 are diagrams showing examples of display screens of the display unit 473. FIG.

操作者が、画像形成装置1に操作指示を入力する際、表示部473の表示画面(タッチパネル)上に1つの指を接触させてスライド移動させると、タッチパネル部102が、当該移動に伴って移動する各接触位置を示す検知信号を操作検出部104に出力する。操作検出部104は、当該検知信号により、連続した座標位置となる各接触位置を予め定められた一定数連続して受信する状態となっているとき(S1でYES)、別接触位置判定部105は、タッチパネル部102から新たに取得される接触位置が、タッチパネル部102により検出された最後の接触位置に連続する座標位置であるか否かを判断する(S2)。   When an operator inputs an operation instruction to the image forming apparatus 1, when the operator touches and slides on the display screen (touch panel) of the display unit 473, the touch panel unit 102 moves along with the movement. A detection signal indicating each contact position is output to the operation detection unit 104. When the operation detection unit 104 is in a state of continuously receiving a predetermined number of predetermined contact positions that are continuous coordinate positions based on the detection signal (YES in S1), the separate contact position determination unit 105 Determines whether the contact position newly acquired from the touch panel unit 102 is a coordinate position continuous with the last contact position detected by the touch panel unit 102 (S2).

ここで、別接触位置判定部105が、新たに取得した接触位置が最終の接触位置に連続する座標位置であると判断した場合は(S2でYES)、操作検出部104は、当該接触位置に基づいて、操作者によるジェスチャー操作を検出する(S6)。   When the separate contact position determination unit 105 determines that the newly acquired contact position is a coordinate position continuous with the final contact position (YES in S2), the operation detection unit 104 determines that the contact position is Based on this, a gesture operation by the operator is detected (S6).

一方、S2において、別接触位置判定部105が、新たに取得した接触位置が最終の接触位置に連続しない座標位置であると判断した場合(S2でNO)、別接触位置判定部105は、更に次の接触位置がタッチパネル部102から出力されてくるのを予め定められた時間だけ待機する(S3)。すなわち、操作検出部104は、連続した座標位置となる接触位置が続けて検出されなくなっても、操作者による上記スライド動作に基づく接触位置の入力が終了したとは即座には判断しない。なお、S1でNOの場合は、処理はS1に戻る。   On the other hand, when the separate contact position determination unit 105 determines in S2 that the newly acquired contact position is a coordinate position that is not continuous with the final contact position (NO in S2), the separate contact position determination unit 105 further It waits for a predetermined time until the next contact position is output from the touch panel unit 102 (S3). That is, the operation detection unit 104 does not immediately determine that the input of the contact position based on the slide operation by the operator is finished even if the contact position that becomes the continuous coordinate position is not detected continuously. If S1 is NO, the process returns to S1.

ここで、別接触位置判定部105が、上記予め定められた時間内に、新たな別の接触位置が検出されたと判定した場合(S4でYES)、距離判定部106は、当該新たな別の接触位置と、タッチパネル部102により検知された上記連続しない接触位置のいずれが、タッチパネル部102により検知された上記最終の接触位置までの距離が短いかを判定する(S5)。   Here, when the separate contact position determination unit 105 determines that another new contact position has been detected within the predetermined time (YES in S4), the distance determination unit 106 determines that the new separate contact position is determined. It is determined which of the contact position and the non-continuous contact position detected by the touch panel unit 102 has a short distance to the final contact position detected by the touch panel unit 102 (S5).

操作検出部104は、上記新たな別の接触位置と、上記連続しない接触位置のうち、距離判定部106により上記最終の接触位置までの距離が短いと判定された方の接触位置を、上記最終の接触位置に続く接触位置として認識して、操作者によるジェスチャー操作を
検出する(S6)。
The operation detection unit 104 determines the contact position that has been determined by the distance determination unit 106 that the distance to the final contact position is short among the new another contact position and the non-continuous contact position as the final contact position. Is recognized as a contact position subsequent to the contact position, and a gesture operation by the operator is detected (S6).

なお、別接触位置判定部105が、上記予め定められた時間内に、新たな別の接触位置が検出されなかったと判定した場合(S4でNO)、この時点までの各接触位置が示す情報に基づいて操作者によるジェスチャー操作を検出する。   In addition, when the separate contact position determination unit 105 determines that a new separate contact position has not been detected within the predetermined time (NO in S4), the information indicated by each contact position up to this point is displayed. Based on this, a gesture operation by the operator is detected.

例えば、図4に例を示すように、操作者が表示部473の表示画面上でドラッグ操作をしており、タッチパネル部102により、時間経過に伴って接触位置が順次に検出されているときに、当該検出された接触位置群とは離れた座標位置に接触位置が検出された場合、従来技術によれば、この時点でドラッグ操作が終了したと判断されるが、本実施形態では、操作検出部104は、この時点ではドラッグ操作が終了したとは即座に判断しない。図5に例を示すように、予め定められた一定時間内に、上記離れた座標位置の接触位置よりも、上記接触位置群における最終の接触位置に近い接触位置が検出されると、操作検出部104は、ドラッグ操作は終了しておらず継続しているものとする。   For example, as shown in FIG. 4, when the operator performs a drag operation on the display screen of the display unit 473 and the touch position is sequentially detected by the touch panel unit 102 over time. When a contact position is detected at a coordinate position away from the detected contact position group, according to the conventional technique, it is determined that the drag operation has been completed at this point. The unit 104 does not immediately determine that the drag operation has ended at this point. As shown in FIG. 5, when a contact position closer to the final contact position in the contact position group than the contact position of the distant coordinate position is detected within a predetermined time period, the operation is detected. It is assumed that the unit 104 continues the drag operation without ending it.

また、図6に例を示すように、操作者が表示部473の表示画面上でピンチアウト操作をしており、タッチパネル部102により、時間経過に伴って接触位置が順次に検出されているときに、当該検出された接触位置群とは離れた座標位置に接触位置が検出された場合、従来技術によれば、この時点でピンチアウト操作が終了したと判断されるが、本実施形態では、操作検出部104は、この時点ではピンチアウト操作が終了したとは即座に判断しない。図7に例を示すように、予め定められた一定時間内に、上記離れた座標位置の接触位置よりも、上記接触位置群における最終の接触位置に近い接触位置が検出されると、操作検出部104は、当該ピンチアウト操作は終了しておらず継続しているものとする。   Further, as shown in FIG. 6, when the operator is performing a pinch-out operation on the display screen of the display unit 473 and the touch position is sequentially detected by the touch panel unit 102 over time. In addition, when a contact position is detected at a coordinate position away from the detected contact position group, according to the prior art, it is determined that the pinch-out operation has been completed at this point. The operation detection unit 104 does not immediately determine that the pinch-out operation has been completed at this time. As shown in an example in FIG. 7, when a contact position closer to the final contact position in the contact position group than the contact position of the distant coordinate position is detected within a predetermined time, an operation detection is performed. The unit 104 assumes that the pinch-out operation has not been completed and continues.

例えば、操作者による表示画面上への接触に基づいて、連続した座標位置の接触位置が時間経過に伴って次々に検知されている場合、最後に検知された最終の接触位置の次に検知される位置は、当該最終の接触位置に連続した座標位置であるか、近傍の位置である可能性が高い。この第1実施形態によれば、タッチパネル部102が、誤って操作者の意図しない位置で接触位置を検出したとしても、操作者による操作がドラッグ操作又ピンチ操作であるか、またドラッグ操作又ピンチ操作の内容を正確に検出することが可能になる。すなわち、第1実施形態によれば、操作者は、接触検知部の性能や精度の如何を問わず、操作者が入力したい本来の操作指示を入力することが可能になる。これにより、接触を検知する精度が低い機器であっても、操作者による接触が示すジェスチャー操作を正確に認識して誤動作を軽減することが可能になる。   For example, when contact positions of consecutive coordinate positions are detected one after another based on the touch on the display screen by the operator, it is detected next to the last detected last contact position. It is highly possible that the position is a coordinate position continuous to the final contact position or a position in the vicinity. According to the first embodiment, even if the touch panel unit 102 erroneously detects the contact position at a position not intended by the operator, whether the operation by the operator is a drag operation or a pinch operation, and the drag operation or the pinch is performed. It becomes possible to accurately detect the contents of the operation. That is, according to the first embodiment, the operator can input an original operation instruction that the operator wants to input regardless of the performance and accuracy of the contact detection unit. Thereby, even if it is an apparatus with the low precision which detects a contact, it becomes possible to recognize the gesture operation which the contact by an operator shows correctly, and to reduce a malfunction.

次に、画像形成装置1による操作検出処理の第2実施形態を説明する。図8は画像形成装置1による操作検出処理の第2実施形態を示すフローチャートである。図9及び図10は表示部473の表示画面の一例を示す図である。   Next, a second embodiment of operation detection processing by the image forming apparatus 1 will be described. FIG. 8 is a flowchart illustrating a second embodiment of the operation detection process performed by the image forming apparatus 1. 9 and 10 are diagrams illustrating an example of a display screen of the display unit 473. FIG.

操作者が、画像形成装置1に操作指示を入力する際、表示部473の表示画面(タッチパネル)上に1つの指を接触させてスライド移動させると、タッチパネル部102が、当該移動に伴って移動する各接触位置を示す検知信号を操作検出部104に出力する。操作検出部104は、当該検知信号により、連続した座標位置となる各接触位置を予め定められた一定数順次受信する状態となっているとき(S11でYES)、操作検出部104は、タッチパネル部102により検出された最終の接触位置と同時期に、それまでに検知されている接触位置とは連続しない座標位置の接触位置が検知されたか否かを判断する(S12)。   When an operator inputs an operation instruction to the image forming apparatus 1, when the operator touches and slides on the display screen (touch panel) of the display unit 473, the touch panel unit 102 moves along with the movement. A detection signal indicating each contact position is output to the operation detection unit 104. When the operation detection unit 104 is in a state of sequentially receiving a predetermined number of predetermined contact positions that are continuous coordinate positions based on the detection signal (YES in S11), the operation detection unit 104 is a touch panel unit. At the same time as the final contact position detected by 102, it is determined whether or not a contact position at a coordinate position that is not continuous with the contact position detected so far has been detected (S12).

ここで、操作検出部104が、上記連続しない座標位置の接触位置が検知されたと判断した場合は(S12でYES)、タッチパネル部102からの検知信号に基づいて、これら最終の接触位置及び連続しない接触位置のいずれからも、連続する座標位置の接触位置が時間経過に伴って順次検出され、順次検出される接触位置のなす軌跡が同様であるかを判断する(S13)。なお、S11でNO,S12でNOの場合は、処理はS1に戻る。   Here, when the operation detection unit 104 determines that the contact position of the discontinuous coordinate position has been detected (YES in S12), based on the detection signal from the touch panel unit 102, the final contact position and the discontinuity are not detected. From any of the contact positions, the contact positions of successive coordinate positions are sequentially detected as time passes, and it is determined whether the trajectories formed by the sequentially detected contact positions are the same (S13). If NO in S11 and NO in S12, the process returns to S1.

操作検出部104は、上記最終の接触位置及び連続しない接触位置に続いて順次検出される各接触位置のなす軌跡が同様であると判断した場合は(S13でYES)、上記最終の接触位置及び連続しない接触位置に続いて順次検出される各接触位置同士の中点を、上記最終の接触位置に続く接触位置として認識して、操作者によるジェスチャー操作を検出する(S14,S15)。   When the operation detection unit 104 determines that the trajectory formed by the contact positions sequentially detected subsequent to the final contact position and the non-continuous contact position is the same (YES in S13), the operation detection unit 104 The midpoint between the contact positions sequentially detected after the non-continuous contact positions is recognized as the contact position following the final contact position, and the gesture operation by the operator is detected (S14, S15).

一方、操作検出部104は、上記最終の接触位置及び連続しない接触位置に続いて順次検出される各接触位置のなす軌跡が同様ではないと判断した場合は(S13でNO)、最終の接触位置に続いて検出される接触位置を用いて、操作者によるジェスチャー操作を検出する(S16,S15)。   On the other hand, when the operation detection unit 104 determines that the trajectory formed by the contact positions sequentially detected after the final contact position and the non-continuous contact position is not the same (NO in S13), the final contact position is determined. Subsequently, the gesture operation by the operator is detected using the detected contact position (S16, S15).

例えば、指の太い人がタッチパネル操作を行う場合に、圧力式のタッチパネルだと、1つの指での表示画面への接触によるドラッグ操作であっても、2点での接触位置が検出されることがある。この場合、図9に示すように、上記最終の接触位置と共に、当該最終の接触位置とは離れた座標位置に接触位置がタッチパネル部102により検出される。このとき、操作者がドラッグ操作を続けると、図10に実線で示すように、上記最終の接触位置と、これとは離れた座標位置の別の接触位置の両方に続いて、それぞれ接触位置がタッチパネル部102により順次検出される。本実施形態によれば、上記中点となる接触位置を、最終の接触位置に続いて検出される接触位置として認識し、操作者によるジェスチャー操作を検出するので、指の太い人等のドラッグ操作に基づいて2つの接触位置が同時に検出されるような場合であっても、操作者が当該指により入力されるべき接触位置に基づいて、操作者によるジェスチャー操作を検出することができる。   For example, when a person with a thick finger performs a touch panel operation, if the pressure type touch panel is used, even if the drag operation is performed by touching the display screen with one finger, the contact position at two points is detected. There is. In this case, as shown in FIG. 9, the touch position is detected by the touch panel unit 102 at a coordinate position apart from the final contact position together with the final contact position. At this time, when the operator continues the drag operation, as shown by a solid line in FIG. 10, the contact position continues to both the final contact position and another contact position at a coordinate position apart from the final contact position. The touch panel unit 102 sequentially detects them. According to the present embodiment, since the contact position serving as the midpoint is recognized as a contact position detected subsequent to the final contact position, and a gesture operation by the operator is detected, a drag operation such as a person with a thick finger is performed. Even if two contact positions are detected at the same time based on the above, the gesture operation by the operator can be detected based on the contact position to be input by the operator with the finger.

次に、画像形成装置1による操作検出処理の第3実施形態を説明する。図11は画像形成装置1による操作検出処理の第3実施形態を示すフローチャートである。図12〜図13は表示部473の表示画面の一例を示す図である。   Next, a third embodiment of operation detection processing by the image forming apparatus 1 will be described. FIG. 11 is a flowchart illustrating a third embodiment of the operation detection process performed by the image forming apparatus 1. 12 to 13 are diagrams showing examples of display screens of the display unit 473. FIG.

操作者が、画像形成装置1に操作指示を入力する際、表示部473の表示画面(タッチパネル)上に1つの指を接触させてスライド移動させると、タッチパネル部102が、当該移動に伴って移動する各接触位置を示す検知信号を操作検出部104に出力する。操作検出部104は、当該検知信号により、連続した座標位置となる各接触位置を予め定められた一定数順次受信する状態となっているとき(S21でYES)、新たな接触位置をタッチパネル部102から受信しない状態になると(S22でNO)、別接触位置判定部105は、更に次の接触位置がタッチパネル部102から出力されてくるのを予め定められた時間だけ待機する(S23)。このとき、操作検出部104は、連続した座標位置となる接触位置が続けて検出されなくなっても、操作者による上記スライド動作に基づく接触位置の入力が終了したとは即座には判断しない。なお、S21でNO,S22でYESの場合は、処理はS1に戻る。   When an operator inputs an operation instruction to the image forming apparatus 1, when the operator touches and slides on the display screen (touch panel) of the display unit 473, the touch panel unit 102 moves along with the movement. A detection signal indicating each contact position is output to the operation detection unit 104. When the operation detection unit 104 is in a state of sequentially receiving a predetermined number of contact positions, which are consecutive coordinate positions, in accordance with the detection signal (YES in S21), the operation detection unit 104 indicates the new contact position. When the state is not received (NO in S22), the separate contact position determination unit 105 waits for a predetermined time until the next contact position is output from the touch panel unit 102 (S23). At this time, the operation detection unit 104 does not immediately determine that the input of the contact position based on the slide operation by the operator has ended even if the contact position that is a continuous coordinate position is not detected continuously. If NO in S21 and YES in S22, the process returns to S1.

ここで、別接触位置判定部105が当該予め定められた時間内に別の接触位置が検知されたと判定した場合(S24でYES)、距離判定部106は、当該別の接触位置が、タッチパネル部102によって検知された最終の接触位置から、予め定められた一定距離内にあるか否かを判定する(S25)。 Here, if another contact position determination unit 105 determines that another touch position within said predetermined time is detected (YES in S24), the distance determination unit 106, the contact position of those said another is, the touch panel It is determined from the final contact position detected by the unit 102 whether or not it is within a predetermined distance (S25).

距離判定部106によって上記別の接触位置が上記予め定められた一定距離内にあると判定されたとき(S25でYES)、操作検出部104は、当該別の接触位置を、上記最終の接触位置に続く接触位置として認識して、操作者によるジェスチャー操作を検出する(S26)。   When the distance determination unit 106 determines that the other contact position is within the predetermined distance (YES in S25), the operation detection unit 104 determines the other contact position as the final contact position. Next, it is recognized as a contact position, and a gesture operation by the operator is detected (S26).

一方、S24でNOのときと、距離判定部106によって上記別の接触位置が上記予め定められた一定距離内にないと判定されたときは(S25でNO)、操作検出部104は、上記最終の接触位置までで得た各接触位置に基づいて、操作者によるジェスチャー操作を検出する(S27)。   On the other hand, when NO in S24 and when the distance determination unit 106 determines that the other contact position is not within the predetermined distance (NO in S25), the operation detection unit 104 determines that the final detection position Based on the contact positions obtained up to the contact position, the gesture operation by the operator is detected (S27).

特許請求の範囲における第2別接触位置判定部及び第2距離判定部は、第3実施形態における別接触位置判定部105及び距離判定部106がその一例となる。但し、第2別接触位置判定部及び第2距離判定部が、別接触位置判定部105及び距離判定部106とは別個に設けられる構成であっても本発明に含まれるものとする。   An example of the second separate contact position determination unit and the second distance determination unit in the claims is the separate contact position determination unit 105 and the distance determination unit 106 in the third embodiment. However, even if the second separate contact position determination unit and the second distance determination unit are provided separately from the separate contact position determination unit 105 and the distance determination unit 106, they are included in the present invention.

例えば、図12に示すように、表示部473の表示画面で操作者がピンチ操作を行っているときに、圧力式のタッチパネルの精度により、連続した座標位置での接触位置の検出が不可能となった場合であっても、図13に示すように、上記予め定められた時間内に検知された新たな接触位置が、上記最終に検知された接触位置から予め定められた一定距離内、例えば近接する座標位置である場合には、操作検出部104は、当該ピンチ操作は終了しておらず継続しているものとする。   For example, as shown in FIG. 12, when the operator is performing a pinch operation on the display screen of the display unit 473, it is impossible to detect the contact position at successive coordinate positions due to the accuracy of the pressure-type touch panel. Even in this case, as shown in FIG. 13, the new contact position detected within the predetermined time is within a predetermined distance from the finally detected contact position, for example, When the coordinate positions are close to each other, the operation detection unit 104 assumes that the pinch operation has not been completed and continues.

これにより、圧力式のタッチパネルの精度により、連続した座標位置での接触位置の検出が不可能となる箇所があっても、操作者によるスライド動作で本来検出されるべきであった接触位置に基づいて、操作者によるジェスチャー操作を検出可能になる。   As a result, even if there is a location where it is impossible to detect the contact position at successive coordinate positions due to the accuracy of the pressure-type touch panel, it is based on the contact position that should have been originally detected by the slide operation by the operator. Thus, the gesture operation by the operator can be detected.

なお、本発明は上記実施の形態の構成に限られず種々の変形が可能である。本発明に係る画像形成装置は上記に限られず、コピー機、ファクシミリ装置、スキャナー装置等であっても構わない。また、本発明に係る文字入力装置は、画像形成装置だけではなく、他の電子機器、医療機器やモバイル通信端末等に広く適用が可能である。   The present invention is not limited to the configuration of the above embodiment, and various modifications can be made. The image forming apparatus according to the present invention is not limited to the above, and may be a copier, a facsimile apparatus, a scanner apparatus, or the like. The character input device according to the present invention can be widely applied not only to image forming apparatuses but also to other electronic devices, medical devices, mobile communication terminals, and the like.

なお、図1乃至図13を用いて上記各実施形態により示した構成及び処理は、本発明の一実施形態に過ぎず、本発明を当該構成及び処理に限定する趣旨ではない。   Note that the configurations and processes shown in the above embodiments using FIGS. 1 to 13 are only one embodiment of the present invention, and are not intended to limit the present invention to the configurations and processes.

1 画像形成装置
12 画像形成部
100 制御部
102 タッチパネル部
103 表示制御部
104 操作検出部
105 別接触位置判定部
106 距離判定部
473 表示部
DESCRIPTION OF SYMBOLS 1 Image forming apparatus 12 Image forming part 100 Control part 102 Touch panel part 103 Display control part 104 Operation detection part 105 Separate contact position determination part 106 Distance determination part 473 Display part

Claims (5)

画像を表示する表示部と、
前記表示部の表示画面上における操作者による接触及びその接触位置を検知する接触検知部と、
前記接触検知部により時間経過に伴って順次検知される各接触位置に基づいて、操作者によるジェスチャー操作を検出する操作検出部と、
前記接触検知部によって、時間経過に伴って前記接触位置が連続して検知されているときに、当該検知されている最終の接触位置に連続しない座標位置の接触位置が検知された場合、当該連続しない接触位置が検知された後の予め定められた時間内に別の接触位置が検出されたか否かを判定する別接触位置判定部と、
前記別接触位置判定部により前記予め定められた時間内に前記別の接触位置が検出されたと判定された場合に、当該別の接触位置と、前記連続しない接触位置のいずれが、前記最終の接触位置までの距離が短いかを判定する距離判定部とを備え、
前記操作検出部は、前記距離判定部によって前記最終の接触位置までの距離が短いと判定された方の接触位置を、前記最終の接触位置に続く接触位置として認識して前記ジェスチャー操作を検出する文字入力装置。
A display for displaying an image;
A contact detection unit for detecting contact by an operator on the display screen of the display unit and a contact position thereof;
An operation detection unit that detects a gesture operation by an operator based on each contact position that is sequentially detected as time passes by the contact detection unit;
When the contact detection unit detects the contact position of the coordinate position that is not continuous to the final contact position detected when the contact position is continuously detected as time elapses, the continuous Another contact position determination unit that determines whether another contact position is detected within a predetermined time after the contact position that is not detected is detected;
When it is determined by the separate contact position determination unit that the separate contact position has been detected within the predetermined time, either the separate contact position or the non-continuous contact position is the final contact. A distance determination unit that determines whether the distance to the position is short,
The operation detection unit detects the gesture operation by recognizing a contact position determined by the distance determination unit as having a short distance to the final contact position as a contact position following the final contact position. Character input device.
画像を表示する表示部と、
前記表示部の表示画面上における操作者による接触及びその接触位置を検知する接触検知部と、
前記接触検知部により時間経過に伴って順次検知される各接触位置に基づいて、操作者によるジェスチャー操作を検出する操作検出部とを備え、
前記操作検出部は、前記接触検知部によって、時間経過に伴って前記接触位置が順次検知されているときに、前記最終の接触位置と同時期に、それまでに検知されている接触位置とは連続しない座標位置の接触位置が検知された場合であって、これら最終の接触位置及び連続しない接触位置のいずれからも、連続する座標位置の接触位置が、時間経過に伴って同様の軌跡で検知されていると判断したときは、前記最終の接触位置及び連続しない接触位置の両方から連続して検知されている接触位置の中点を、前記最終の接触位置に続く接触位置として認識して前記ジェスチャー操作を検出する文字入力装置
A display for displaying an image;
A contact detection unit for detecting contact by an operator on the display screen of the display unit and a contact position thereof;
An operation detection unit that detects a gesture operation by an operator based on each contact position that is sequentially detected as time passes by the contact detection unit;
The operation detection unit is a contact position that has been detected so far at the same time as the final contact position when the contact detection unit sequentially detects the contact position as time passes. When a contact position at a non-continuous coordinate position is detected, the contact position at a continuous coordinate position is detected with a similar trajectory over time from either the final contact position or the non-continuous contact position. When it is determined that the contact position is detected continuously from both the final contact position and the non-continuous contact position, the midpoint of the contact position is recognized as the contact position subsequent to the final contact position. A character input device that detects gesture operations .
前記操作検出部は、前記接触検知部により検出される前記時間経過に伴う接触位置の移動が示す前記ジェスチャー操作が、ピンチ操作又はドラッグ操作のいずれを示すかを検出する請求項1又は請求項に記載の文字入力装置。 The operation detection unit, the contact detection unit the gesture operation indicated by the movement of the contact position due to the time detected by the claim 1 or claim detects whether indicates which pinch operation or drag operation 2 The character input device described in 1. 請求項1乃至請求項のいずれかに記載の文字入力装置と、
記録媒体に画像を形成する画像形成部と、を備えた画像形成装置。
A character input device according to any one of claims 1 to 3 ,
An image forming apparatus comprising: an image forming unit that forms an image on a recording medium.
コンピューターを、
表示部の表示画面上における操作者による接触及びその接触位置を検知する接触検知部と、
前記接触検知部により時間経過に伴って順次検知される各接触位置に基づいて、操作者によるジェスチャー操作を検出する操作検出部と、
前記接触検知部によって、時間経過に伴って前記接触位置が連続して検知されているときに、当該検知されている最終の接触位置に連続しない座標位置の接触位置が検知された場合、当該連続しない接触位置が検知された後の予め定められた時間内に別の接触位置が検出されたか否かを判定する別接触位置判定部と、
前記別接触位置判定部により前記予め定められた時間内に前記別の接触位置が検出されたと判定された場合に、当該別の接触位置と、前記連続しない接触位置のいずれが、前記最終の接触位置までの距離が短いかを判定する距離判定部として機能させ、更に、当該コンピューターを、
前記操作検出部が、前記距離判定部によって前記最終の接触位置までの距離が短いと判定された方の接触位置を、前記最終の接触位置に続く接触位置として認識して前記ジェスチャー操作を検出するように、機能させる文字入力プログラム。
Computer
A contact detection unit for detecting contact by an operator on the display screen of the display unit and a contact position thereof;
An operation detection unit that detects a gesture operation by an operator based on each contact position that is sequentially detected as time passes by the contact detection unit;
When the contact detection unit detects the contact position of the coordinate position that is not continuous to the final contact position detected when the contact position is continuously detected as time elapses, the continuous Another contact position determination unit that determines whether another contact position is detected within a predetermined time after the contact position that is not detected is detected;
When it is determined by the separate contact position determination unit that the separate contact position has been detected within the predetermined time, either the separate contact position or the non-continuous contact position is the final contact. Function as a distance determination unit that determines whether the distance to the position is short, and further, the computer
The operation detection unit detects the gesture operation by recognizing a contact position determined by the distance determination unit as having a short distance to the final contact position as a contact position following the final contact position. Character input program to make it work.
JP2013200321A 2013-09-26 2013-09-26 Character input device, character input program, and image forming apparatus Expired - Fee Related JP6019000B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013200321A JP6019000B2 (en) 2013-09-26 2013-09-26 Character input device, character input program, and image forming apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013200321A JP6019000B2 (en) 2013-09-26 2013-09-26 Character input device, character input program, and image forming apparatus

Publications (2)

Publication Number Publication Date
JP2015069226A JP2015069226A (en) 2015-04-13
JP6019000B2 true JP6019000B2 (en) 2016-11-02

Family

ID=52835877

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013200321A Expired - Fee Related JP6019000B2 (en) 2013-09-26 2013-09-26 Character input device, character input program, and image forming apparatus

Country Status (1)

Country Link
JP (1) JP6019000B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108491078A (en) * 2018-03-19 2018-09-04 广州视源电子科技股份有限公司 Word processing method, device, terminal equipment and storage medium

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6857154B2 (en) 2018-04-10 2021-04-14 任天堂株式会社 Information processing programs, information processing devices, information processing systems, and information processing methods
CN111399740B (en) * 2020-03-11 2021-10-01 上海科世达-华阳汽车电器有限公司 Touch gesture recognition method and system

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012221359A (en) * 2011-04-12 2012-11-12 Sharp Corp Information processor, program for control of the same, and information processing method
JP5620895B2 (en) * 2011-09-22 2014-11-05 ヤフー株式会社 Display control apparatus, method and program
JP5833898B2 (en) * 2011-11-29 2015-12-16 任天堂株式会社 Information processing program, information processing apparatus, information processing system, and information processing method
JP6151087B2 (en) * 2013-05-17 2017-06-21 シャープ株式会社 Touch panel system

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108491078A (en) * 2018-03-19 2018-09-04 广州视源电子科技股份有限公司 Word processing method, device, terminal equipment and storage medium

Also Published As

Publication number Publication date
JP2015069226A (en) 2015-04-13

Similar Documents

Publication Publication Date Title
JP2008276693A (en) Image forming device and program
JP6013395B2 (en) Touch panel device and image forming apparatus
JP5887310B2 (en) Display operation device
US20220385773A1 (en) Display device and image forming apparatus capable of determining whether user's hand having made gesture is right or left hand based on detection result of touch panel and allowing display to display screen for right-hand gesture operation or screen for left-hand gesture operation based on determination result
JP6019000B2 (en) Character input device, character input program, and image forming apparatus
US10057438B2 (en) Image forming apparatus and method of controlling image forming apparatus
JP4866297B2 (en) Image forming apparatus
US9204008B2 (en) Image forming apparatus
JP5173924B2 (en) Image forming apparatus
JP6176284B2 (en) Operation display system, operation display device, and operation display program
US20130194597A1 (en) Operation receiving apparatus, image forming apparatus, and computer readable medium
US11523011B2 (en) Image forming apparatus and numerical value counting method
JP6217508B2 (en) Display input device and display input control program
JP6076488B2 (en) Character input device, character input program, and image forming apparatus
JP6186304B2 (en) Instruction input device, image forming apparatus, and set value input program
JP6002646B2 (en) Character input device, character input program, and image forming apparatus
US10645242B2 (en) Image forming apparatus
JP5948294B2 (en) Touch panel device and image forming apparatus having the same
US11836313B2 (en) Input device, input method, and image forming device having touchscreen with variable detection area
JP5949211B2 (en) Display control device, remote operation system, remote operation method, and remote operation program
JP6323392B2 (en) Electronic apparatus and image forming apparatus
JP2014130619A (en) Device
JP5315190B2 (en) Operation device, image processing device
JP6141796B2 (en) Instruction input device, image forming apparatus, and set value input program
US10476966B2 (en) Portable communication terminal, electronic apparatus, and method of controlling electronic apparatus by using portable communication terminal

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150722

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160428

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160510

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160609

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160906

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20161003

R150 Certificate of patent or registration of utility model

Ref document number: 6019000

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees