[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP6734445B2 - Data input device, data input method, and data input program - Google Patents

Data input device, data input method, and data input program Download PDF

Info

Publication number
JP6734445B2
JP6734445B2 JP2019124316A JP2019124316A JP6734445B2 JP 6734445 B2 JP6734445 B2 JP 6734445B2 JP 2019124316 A JP2019124316 A JP 2019124316A JP 2019124316 A JP2019124316 A JP 2019124316A JP 6734445 B2 JP6734445 B2 JP 6734445B2
Authority
JP
Japan
Prior art keywords
input
data
unit
user
digital data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019124316A
Other languages
Japanese (ja)
Other versions
JP2019175509A (en
Inventor
山本 俊輔
俊輔 山本
陽介 渡邊
陽介 渡邊
高道 小出
高道 小出
和也 白石
和也 白石
陽子 小寺
陽子 小寺
遥 大森
遥 大森
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Information Systems Corp
Original Assignee
Mitsubishi Electric Information Systems Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Information Systems Corp filed Critical Mitsubishi Electric Information Systems Corp
Priority to JP2019124316A priority Critical patent/JP6734445B2/en
Publication of JP2019175509A publication Critical patent/JP2019175509A/en
Application granted granted Critical
Publication of JP6734445B2 publication Critical patent/JP6734445B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Collating Specific Patterns (AREA)
  • Character Discrimination (AREA)
  • User Interface Of Digital Computer (AREA)

Description

この発明は、手続書類に記入する内容の入力技術に関する。 The present invention relates to a technique for inputting contents to be filled in a procedure document.

金融機関及び役所といった場所では、利用者が、各種手続書類に必要事項を記入して、窓口に提出する。しかし、利用者は、手続書類の記入に関して不明点がある場合がある。この場合、利用者は、不明点を事務員に質問した上で手続書類に記入する必要がある。事務員に質問しながら手続書類に記入することは、利用者にとって非常に手間がかかる。また、質問を受ける事務員にも手間がかかる。 At places such as financial institutions and government offices, users fill out the necessary items in various procedure documents and submit them to the counter. However, the user may have some questions regarding the entry of the procedure documents. In this case, the user needs to ask the clerk about any questions and then fill in the procedure documents. It is very troublesome for the user to fill out the procedure documents while asking the clerk a question. Also, it takes time for the clerk who receives the question.

特許文献1には、手続書類に対して説明を投影することが記載されている。特許文献1では、これにより、利用者が手続書類に記入することをサポートして、効率的に手続書類に記入できるようにしている。 Patent Document 1 describes that an explanation is projected on a procedure document. In Patent Document 1, this supports the user to fill in the procedure documents so that the procedure documents can be efficiently filled.

特開2015−191382号公報JP, 2005-191382, A

環境保護といった観点から紙の使用量を減らす、いわゆるペーパレス化が進められている。特許文献1に記載された方法では、手続書類に入力することが前提となっている。そのため、紙の使用量は減っていない。
利用者にコンピュータを操作してもらい、データを入力してもらうことにより、ペーパレス化を進めることが考えられる。しかし、利用者によっては、コンピュータを操作することが苦手な場合がある。この場合、利用者及び事務員の手間が増えてしまう可能性がある。
この発明は、手続の手間を増やすことなく、また紙での手続きに慣れた利用者に与える操作上の違和感を抑えながら、紙の使用量を減らすことを可能にすることを目的とする。
From the viewpoint of environmental protection, so-called paperless is being promoted to reduce the amount of paper used. The method described in Patent Document 1 is premised on inputting into the procedure document. Therefore, the amount of paper used has not decreased.
It may be possible to promote paperlessness by having a user operate a computer and input data. However, some users are not good at operating a computer. In this case, the labor of the user and the clerical worker may increase.
An object of the present invention is to make it possible to reduce the amount of paper used without increasing the labor of the procedure and suppressing the discomfort in operation given to the user who is accustomed to the paper procedure.

この発明に係るデータ入力装置は、
入力内容と入力欄とを示す入力フォーマットを入力台の上に投影表示する投影部と、
前記投影部が投影表示した前記入力欄に利用者からの手書き文字の入力を受け付け、前記手書き文字をデジタルデータとして認識するデータ認識部と、
利用者情報として、利用者に対応する前記手書き文字の画像及び前記デジタルデータを記憶する利用者情報記憶部と、
前記利用者から新たに入力された手書き文字と前記利用者情報記憶部に記憶された前記画像とを比較することにより、前記新たに入力された手書き文字に合致する前記利用者情報を特定する筆跡鑑定部とを
備える。
The data input device according to the present invention is
A projection unit for projecting and displaying an input format indicating input contents and input fields on an input table;
A data recognition unit that accepts input of handwritten characters from a user in the input field projected and displayed by the projection unit and recognizes the handwritten characters as digital data.
As user information, a user information storage unit that stores the image of the handwritten character corresponding to the user and the digital data,
A handwriting for identifying the user information that matches the newly input handwritten character by comparing the handwritten character newly input by the user with the image stored in the user information storage unit. And an appraisal section.

前記筆跡鑑定部により、前記利用者により入力された同一の入力内容が前記利用者情報記憶部に記憶されていることが判明したとき、
前記投影部が新たな入力フォーマットを投影表示する際に、前記利用者情報記憶部に記憶された前記入力内容の前記デジタルデータを前記新たな入力フォーマットの入力欄に入力された文字として投影表示する。
When it is determined by the handwriting appraisal unit that the same input content input by the user is stored in the user information storage unit,
When the projection unit projects and displays a new input format, the digital data of the input content stored in the user information storage unit is projected and displayed as characters input in the input field of the new input format. ..

前記筆跡鑑定部により、前記利用者により入力された同一の入力内容が前記利用者情報記憶部に記憶されていることが判明したとき、
前記投影部が前記新たな入力フォーマットを投影表示する際に、前記利用者情報記憶部に記憶された前記入力内容の前記画像を前記新たな入力フォーマットの入力欄に投影表示する。
When it is determined by the handwriting appraisal unit that the same input content input by the user is stored in the user information storage unit,
When the projection unit projects and displays the new input format, the image of the input content stored in the user information storage unit is projected and displayed in the input field of the new input format.

前記投影部は、前記利用者によって過去に前記入力欄に入力された入力途中の手書き文字の画像を、前記入力欄に投影表示する。 The projection unit projects and displays, in the input field, an image of a handwritten character that has been input in the input field by the user in the middle of input.

前記筆跡鑑定部は、手書きされ前記データ認識部で認識された文字の前記デジタルデータにより、前記利用者情報記憶部に記憶された過去の手続きで入力された前記デジタルデータを検索し、このデジタルデータに紐付く前記画像と前記新たに入力された手書き文字を比較することにより筆跡鑑定を行うことを特徴とする。 The handwriting appraisal unit retrieves the digital data input by the past procedure stored in the user information storage unit by the digital data of the characters handwritten and recognized by the data recognition unit, and the digital data It is characterized in that handwriting identification is performed by comparing the above-mentioned image associated with the above with the newly input handwritten character.

この発明に係るデータ入力方法は、
投影部が、入力内容と入力欄とを示す入力フォーマットを入力台の上に投影表示し、
データ認識部が、前記投影部が投影表示した前記入力欄に利用者からの手書き文字の入力を受け付け、前記手書き文字をデジタルデータとして認識し、
利用者情報記憶部が、利用者情報として、利用者に対応する前記手書き文字の画像及び前記デジタルデータを記憶し、
筆跡鑑定部が、前記利用者から新たに入力された手書き文字と前記利用者情報記憶部に記憶された前記画像とを比較することにより、前記新たに入力された手書き文字に合致する前記利用者情報を特定する。
The data input method according to the present invention is
The projection unit projects and displays the input format indicating the input content and the input field on the input table,
The data recognition unit accepts input of handwritten characters from the user in the input field projected and displayed by the projection unit, and recognizes the handwritten characters as digital data,
A user information storage unit stores, as user information, the image of the handwritten character and the digital data corresponding to the user,
The handwriting appraisal unit compares the handwritten character newly input by the user with the image stored in the user information storage unit, so that the user who matches the newly input handwritten character Identify the information.

この発明に係るデータ入力プログラムは、
コンピュータを、データ入力装置として機能させる。
A data input program according to the present invention is
Make the computer function as a data input device.

この発明では、入力フォーマットを入力台の上に投影表示し、入力フォーマットの入力欄に手書きされた文字を認識する。これにより、紙の使用量を減らすことが可能である。また、利用者は、手続書類に文字を記入する場合と同じように、入力欄に文字を手書きすればよく、操作上の違和感も少なく、手続の手間が増えることもない。
特に、この発明では、利用者から新たに入力された手書き文字が入力されると、利用者情報記憶部に記憶された画像とを比較することにより、新たに入力された手書き文字に合致する前記利用者情報を特定する。これにより、同じ利用者によって過去に入力された入力内容を特定することが可能になる。
According to the present invention, the input format is projected and displayed on the input table, and the handwritten character in the input field of the input format is recognized. This makes it possible to reduce the amount of paper used. Further, the user only has to handwrite the characters in the input field, as in the case of writing the characters in the procedure document, and there is little discomfort in the operation, and the trouble of the procedure does not increase.
In particular, according to the present invention, when a handwritten character newly input by the user is input, the handwritten character that matches the newly input handwritten character is compared by comparing with an image stored in the user information storage unit. Specify user information. As a result, it becomes possible to specify the input contents input in the past by the same user.

実施の形態1に係るデータ入力システム1の構成図。1 is a configuration diagram of a data input system 1 according to the first embodiment. 実施の形態1に係るデータ入力装置10の構成図。3 is a configuration diagram of the data input device 10 according to the first embodiment. FIG. 実施の形態1に係るデータ入力システム1の動作のフローチャート。3 is a flowchart of the operation of the data input system 1 according to the first embodiment. 実施の形態1に係る投影処理のフローチャート。3 is a flowchart of projection processing according to the first embodiment. 実施の形態1に係る手続きの選択画面81の説明図。Explanatory drawing of the selection screen 81 of the procedure which concerns on Embodiment 1. FIG. 実施の形態1に係る表示内容記憶部51の説明図。3 is an explanatory diagram of a display content storage unit 51 according to the first embodiment. FIG. 実施の形態1に係る表示内容82の説明図。FIG. 5 is an explanatory diagram of display content 82 according to the first embodiment. 実施の形態1に係るデータ認識処理のフローチャート。3 is a flowchart of a data recognition process according to the first embodiment. 実施の形態1に係る表示内容82の説明図。FIG. 5 is an explanatory diagram of display content 82 according to the first embodiment. 実施の形態1に係る確認処理のフローチャート。4 is a flowchart of confirmation processing according to the first embodiment. 実施の形態1に係るフォーマット記憶部52の説明図。3 is an explanatory diagram of a format storage unit 52 according to the first embodiment. FIG. 実施の形態1に係る確認データ88の説明図。FIG. 6 is an explanatory diagram of confirmation data 88 according to the first embodiment. 実施の形態1に係る利用者情報記憶部53の説明図。Explanatory drawing of the user information storage part 53 which concerns on Embodiment 1. FIG. 変形例4に係るデータ入力装置10の構成図。The block diagram of the data input device 10 which concerns on the modification 4. 実施の形態2に係るデータ入力システム1の構成図。3 is a configuration diagram of a data input system 1 according to the second embodiment. FIG. 実施の形態2に係るデータ認識処理のフローチャート。9 is a flowchart of a data recognition process according to the second embodiment. 実施の形態3に係るデータ入力装置10の構成図。6 is a configuration diagram of a data input device 10 according to a third embodiment. FIG. 実施の形態3に係るデータ認識処理のフローチャート。9 is a flowchart of a data recognition process according to the third embodiment. 実施の形態4に係るデータ入力装置10の構成図。6 is a configuration diagram of a data input device 10 according to the fourth embodiment. FIG. 実施の形態4に係るデータ入力システム1のフローチャート。The flowchart of the data input system 1 which concerns on Embodiment 4. 実施の形態4に係る紛失防止処理のフローチャート。9 is a flowchart of loss prevention processing according to the fourth embodiment. 実施の形態4に係る紛失防止処理の説明図。Explanatory drawing of the loss prevention process which concerns on Embodiment 4. 実施の形態5に係るデータ入力システム1のフローチャート。9 is a flowchart of the data input system 1 according to the fifth embodiment. 実施の形態5に係るデータ入力装置10の構成図。FIG. 6 is a configuration diagram of a data input device 10 according to a fifth embodiment. 実施の形態5に係る投影処理のフローチャート。9 is a flowchart of projection processing according to the fifth embodiment. 実施の形態5に係る投影処理の説明図。Explanatory drawing of the projection process which concerns on Embodiment 5. 実施の形態5に係る投影処理の説明図。Explanatory drawing of the projection process which concerns on Embodiment 5. 実施の形態6に係る投影処理のフローチャート。9 is a flowchart of projection processing according to the sixth embodiment. 実施の形態6に係るデータ認識処理のフローチャート。9 is a flowchart of a data recognition process according to the sixth embodiment. 実施の形態6に係る確認処理のフローチャート。The flowchart of the confirmation process which concerns on Embodiment 6. 実施の形態7に係るデータ入力装置10の構成図。The block diagram of the data input device 10 which concerns on Embodiment 7. 実施の形態7に係る筆跡鑑定処理のフローチャート。9 is a flowchart of handwriting appraisal processing according to the seventh embodiment. 実施の形態8に係るデータ入力システム1の構成図。The block diagram of the data input system 1 which concerns on Embodiment 8. 実施の形態8に係るデータ入力装置10の構成図。The block diagram of the data input device 10 which concerns on Embodiment 8. 実施の形態8に係る自然言語認識処理のフローチャート。9 is a flowchart of natural language recognition processing according to the eighth embodiment. 実施の形態8に係る自然言語記憶部55の説明図。Explanatory drawing of the natural language storage part 55 which concerns on Embodiment 8. 実施の形態9に係るデータ入力システム1の構成図。The block diagram of the data input system 1 which concerns on Embodiment 9. FIG. 実施の形態9に係るデータ入力装置10の構成図。The block diagram of the data input device 10 which concerns on Embodiment 9. FIG. 実施の形態9に係る画面共有処理のフローチャート。20 is a flowchart of screen sharing processing according to the ninth embodiment.

実施の形態1.
***構成の説明***
図1を参照して、実施の形態1に係るデータ入力システム1の構成を説明する。
データ入力システム1は、データ入力装置10と、プロジェクタ20と、電子ペン30と、入力台40と、データベースサーバ50とを備える。データ入力装置10と、プロジェクタ20及びデータベースサーバ50とは、伝送路60を介して接続されている。
Embodiment 1.
***Composition explanation***
The configuration of the data input system 1 according to the first embodiment will be described with reference to FIG.
The data input system 1 includes a data input device 10, a projector 20, an electronic pen 30, an input stand 40, and a database server 50. The data input device 10, the projector 20 and the database server 50 are connected via a transmission line 60.

データ入力装置10は、PC(Personal Computer)といったコンピュータである。プロジェクタ20は、データ入力装置10の制御に従い、入力フォーマットといったデータを入力台40の上に投影表示する装置である。電子ペン30は、入力台40に投影表示された入力フォーマットに対して入力する装置であり、文字(文字とは、文字、数字、図形、記号およびチェックマークを含む)を手書きし、ボタンをクリックするといった操作をするための装置である。入力台40は、プロジェクタ20によってデータが投影表示される台である。データベースサーバ50は、入力フォーマットといったデータを記憶するコンピュータである。 The data input device 10 is a computer such as a PC (Personal Computer). The projector 20 is a device that projects and displays data such as an input format on the input table 40 under the control of the data input device 10. The electronic pen 30 is a device for inputting in the input format projected and displayed on the input table 40. Handwriting characters (characters include characters, numbers, figures, symbols and check marks) and clicking a button This is a device for performing operations such as doing. The input table 40 is a table on which data is projected and displayed by the projector 20. The database server 50 is a computer that stores data such as an input format.

図2を参照して、実施の形態1に係るデータ入力装置10の構成を説明する。
データ入力装置10は、プロセッサ11と、メモリ12と、ストレージ13と、通信インタフェース14とのハードウェアを備える。プロセッサ11は、信号線を介して他のハードウェアと接続され、これら他のハードウェアを制御する。
The configuration of the data input device 10 according to the first embodiment will be described with reference to FIG.
The data input device 10 includes hardware such as a processor 11, a memory 12, a storage 13, and a communication interface 14. The processor 11 is connected to other hardware via a signal line and controls these other hardware.

プロセッサ11は、プロセッシングを行うIC(Integrated Circuit)である。プロセッサ11は、具体例としては、CPU(Central Processing Unit)、DSP(Digital Signal Processor)、GPU(Graphics Processing Unit)である。 The processor 11 is an IC (Integrated Circuit) that performs processing. As a specific example, the processor 11 is a CPU (Central Processing Unit), a DSP (Digital Signal Processor), or a GPU (Graphics Processing Unit).

メモリ12は、データを一時的に記憶する記憶装置である。メモリ12は、具体例としては、SRAM(Static Random Access Memory)、DRAM(Dynamic Random Access Memory)である。 The memory 12 is a storage device that temporarily stores data. The memory 12 is, as a specific example, an SRAM (Static Random Access Memory) or a DRAM (Dynamic Random Access Memory).

ストレージ13は、データを保管する記憶装置である。ストレージ13は、具体例としては、HDD(Hard Disk Drive)である。また、ストレージ13は、SD(登録商標,Secure Digital)メモリカード、CF(CompactFlash)、NANDフラッシュ、フレキシブルディスク、光ディスク、コンパクトディスク、ブルーレイ(登録商標)ディスク、DVD(Digital Versatile Disk)といった可搬記憶媒体であってもよい。 The storage 13 is a storage device that stores data. The storage 13 is, as a specific example, an HDD (Hard Disk Drive). The storage 13 is a portable storage such as an SD (registered trademark, Secure Digital) memory card, CF (CompactFlash), NAND flash, flexible disk, optical disk, compact disk, Blu-ray (registered trademark) disk, DVD (Digital Versatile Disk). It may be a medium.

通信インタフェース14は、プロジェクタ20及びデータベースサーバ50といった外部の装置と通信するためのインタフェースである。通信インタフェース14は、具体例としては、Ethernet(登録商標)、USB(Universal Serial Bus)、HDMI(登録商標,High−Definition Multimedia Interface)のポートである。 The communication interface 14 is an interface for communicating with external devices such as the projector 20 and the database server 50. The communication interface 14 is, for example, an Ethernet (registered trademark), a USB (Universal Serial Bus), or an HDMI (registered trademark, High-Definition Multimedia Interface) port.

データ入力装置10は、機能構成要素として、投影部111と、データ認識部112と、確認処理部113とを備える。投影部111と、データ認識部112と、確認処理部113との機能はソフトウェアにより実現される。
ストレージ13には、投影部111と、データ認識部112と、確認処理部113との機能を実現するプログラムが記憶されている。このプログラムは、プロセッサ11によりメモリ12に読み込まれ、プロセッサ11によって実行される。これにより、投影部111と、データ認識部112と、確認処理部113との機能が実現される。
The data input device 10 includes a projection unit 111, a data recognition unit 112, and a confirmation processing unit 113 as functional components. The functions of the projection unit 111, the data recognition unit 112, and the confirmation processing unit 113 are realized by software.
The storage 13 stores a program that implements the functions of the projection unit 111, the data recognition unit 112, and the confirmation processing unit 113. This program is read into the memory 12 by the processor 11 and executed by the processor 11. As a result, the functions of the projection unit 111, the data recognition unit 112, and the confirmation processing unit 113 are realized.

図2では、プロセッサ11は、1つだけ示されている。しかし、データ入力装置10は、プロセッサ11を代替する複数のプロセッサを備えていてもよい。これら複数のプロセッサは、投影部111と、データ認識部112と、確認処理部113との機能を実現するプログラムの実行を分担する。それぞれのプロセッサは、プロセッサ11と同じように、プロセッシングを行うICである。 In FIG. 2, only one processor 11 is shown. However, the data input device 10 may include a plurality of processors that replace the processor 11. These multiple processors share the execution of the program that implements the functions of the projection unit 111, the data recognition unit 112, and the confirmation processing unit 113. Each processor, like the processor 11, is an IC that performs processing.

データベースサーバ50は、表示内容記憶部51と、フォーマット記憶部52と、利用者情報記憶部53との機能を実現する。 The database server 50 realizes the functions of the display content storage unit 51, the format storage unit 52, and the user information storage unit 53.

***動作の説明***
図3から図13を参照して、実施の形態1に係るデータ入力システム1の動作を説明する。
実施の形態1に係るデータ入力システム1の動作は、実施の形態1に係るデータ入力方法に相当する。また、実施の形態1に係るデータ入力システム1の動作は、実施の形態1に係るデータ入力プログラムの処理に相当する。
***Description of operation***
The operation of the data input system 1 according to the first embodiment will be described with reference to FIGS. 3 to 13.
The operation of the data input system 1 according to the first embodiment corresponds to the data input method according to the first embodiment. The operation of the data input system 1 according to the first embodiment corresponds to the processing of the data input program according to the first embodiment.

(図3のステップS1:投影処理)
投影部111は、利用者によって選択された手続きについて、プロジェクタ20により、入力内容85と入力欄86とが指定された入力フォーマット84を入力台40の上に投影表示する。
(Step S1: projection process in FIG. 3)
The projection unit 111 projects and displays the input format 84 in which the input content 85 and the input field 86 are specified by the projector 20 on the input table 40 for the procedure selected by the user.

図4から図7を参照して、実施の形態1に係る投影処理を説明する。
(図4のステップS11:手続選択処理)
図5に示すように、投影部111は、プロジェクタ20により、手続きの選択画面81を入力台40の上に表示する。選択画面81は、選択可能な手続きのボタンが示されている。図5では、手続きのボタンとして、口座開設と、預金引出と、住所変更と、名義変更と、印鑑変更と、振込とが示されている。選択画面81は、入力台40の上におけるプロジェクタ20の投影可能な投影面21の一部に表示される。
すると、利用者によって、行いたい手続きのボタンが電子ペン30によりタッチされ、選択される。
The projection process according to the first embodiment will be described with reference to FIGS. 4 to 7.
(Step S11 of FIG. 4: procedure selection process)
As shown in FIG. 5, the projection unit 111 causes the projector 20 to display the procedure selection screen 81 on the input table 40. The selection screen 81 shows buttons for selectable procedures. In FIG. 5, account opening, deposit withdrawal, address change, name change, seal change, and transfer are shown as procedure buttons. The selection screen 81 is displayed on a part of the projection surface 21 on the input table 40 on which the projector 20 can project.
Then, the user touches and selects the button of the desired procedure with the electronic pen 30.

(図4のステップS12:表示内容読込処理)
投影部111は、ステップS11で選択された手続きについての表示内容82を、データベースサーバ50の表示内容記憶部51から読み出す。
図6に示すように、表示内容記憶部51には、手続き毎に、表示内容82が記憶されている。表示内容82は、対象の手続きについての入力内容85の入力順を示す一覧83と、各入力内容85についての入力フォーマット84とを含む。
例えば、手続きが口座開設の場合には、一覧83は、入力内容85が、氏名、住所、生年月日、電話番号、金額の入力順であることを示す。そして、表示内容82には、氏名と、住所と、生年月日と、電話番号と、金額とについて、入力フォーマット84が含まれている。
(Step S12 in FIG. 4: display content reading process)
The projection unit 111 reads the display content 82 about the procedure selected in step S11 from the display content storage unit 51 of the database server 50.
As shown in FIG. 6, the display content storage unit 51 stores the display content 82 for each procedure. The display content 82 includes a list 83 indicating the input order of the input content 85 for the target procedure, and an input format 84 for each input content 85.
For example, when the procedure is account opening, the list 83 indicates that the input contents 85 are the input order of the name, address, date of birth, telephone number, and amount of money. The display content 82 includes an input format 84 for the name, address, date of birth, telephone number, and amount of money.

(図4のステップS13:表示内容投影処理)
投影部111は、プロジェクタ20により、ステップS12で読み出された表示内容82を、入力台40の上に投影表示する。
図7に示すように、投影部111は、ステップS11で口座開設が選択された場合、一覧83と、入力順が先頭の入力内容85である氏名についての入力フォーマット84を投影表示する。一覧83は、複数の入力内容85が入力順に並べられ、星印によって入力対象になっている入力内容85が示されている。入力フォーマット84は、入力内容85と入力欄86とを示す。
(Step S13 of FIG. 4: display content projection processing)
The projection unit 111 causes the projector 20 to project and display the display content 82 read in step S12 on the input table 40.
As shown in FIG. 7, when the account opening is selected in step S11, the projection unit 111 projects and displays the list 83 and the input format 84 for the name whose input content 85 is the first input order. In the list 83, a plurality of input contents 85 are arranged in the order of input, and the input contents 85 to be input are indicated by an asterisk. The input format 84 shows an input content 85 and an input field 86.

この際、投影部111は、入力内容85に応じた説明と入力例との少なくともいずれかを入力台40の上に投影表示してもよい。投影部111は、入力方法を説明した動画を入力台40の上に投影表示してもよい。 At this time, the projection unit 111 may project and display at least one of the description and the input example according to the input content 85 on the input table 40. The projection unit 111 may project and display a moving image describing the input method on the input table 40.

また、図7に示すように、投影部111は、表示内容の拡大及び縮小のボタンを表示してもよい。投影部111は、拡大ボタンがタッチされた場合、表示内容82全体を拡大して表示する。つまり、図7に示すように、表示内容82は投影面21の一部に表示されているため、表示内容82全体を拡大して表示することが可能である。また、投影部111は、縮小ボタンがタッチされた場合、表示内容82全体を縮小して表示する。 Further, as shown in FIG. 7, the projection unit 111 may display buttons for enlarging and reducing the display content. When the enlargement button is touched, the projection unit 111 enlarges and displays the entire display content 82. That is, as shown in FIG. 7, since the display content 82 is displayed on a part of the projection surface 21, the entire display content 82 can be enlarged and displayed. When the reduction button is touched, the projection unit 111 reduces and displays the entire display content 82.

(図3のステップS2:データ認識処理)
データ認識部112は、ステップS1で投影部111によって投影表示された入力フォーマット84の入力欄86に手書きされた文字を認識する。
(Step S2 of FIG. 3: data recognition processing)
The data recognition unit 112 recognizes the handwritten character in the input field 86 of the input format 84 projected and displayed by the projection unit 111 in step S1.

図8から図9を参照して、実施の形態1に係るデータ認識処理を説明する。
(図8のステップS21:認識処理)
利用者によって、入力欄86に入力内容85に応じた内容が電子ペン30により手書きされる。例えば、図7に示すように、氏名についての入力フォーマット84が投影表示されている場合には、入力欄86に利用者の氏名が手書きされる。
データ認識部112は、入力欄86に手書きされる度に、手書きされた文字を認識する。つまり、データ認識部112は、入力欄86に一筆手書きされる度に、文字を認識し直す。
この際、まず、データ認識部112は、電子ペン30の位置の軌跡を特定する。位置の軌跡を特定する方法はどのような方法でもよい。例えば、データ認識部112が電子ペン30と通信することにより、位置の軌跡を特定してもよいし、プロジェクタ20により入力台40の上に赤外線を張り巡らし、電子ペン30の位置の軌跡を特定してもよい。なお、赤外線を用いる場合には、電子ペン30ではなく、指等により文字を書くことも可能である。
次に、データ認識部112は、特定された軌跡に基づきOCR(Optical Character Reader)処理を行い、手書きされた文字を認識して文字コードに変換する。OCR処理とは、手書きや印刷された文字を光学的に読み取り、コンピュータが利用できる文字コードに変換する処理である。データ認識部112は、どのようなOCRソフトウェアを使用してもよい。例えば、データ認識部112は、書かれた文字の形状と、書き順と等を考慮して、文字を認識するOCRソフトウェアを使用する。
The data recognition processing according to the first embodiment will be described with reference to FIGS. 8 to 9.
(Step S21 of FIG. 8: recognition process)
The user writes the content corresponding to the input content 85 in the input field 86 with the electronic pen 30. For example, as shown in FIG. 7, when the input format 84 for the name is projected and displayed, the name of the user is handwritten in the input field 86.
The data recognition unit 112 recognizes a handwritten character each time it is handwritten in the input field 86. That is, the data recognition unit 112 recognizes a character again each time one stroke is handwritten in the input field 86.
At this time, first, the data recognition unit 112 identifies the locus of the position of the electronic pen 30. Any method may be used to identify the position locus. For example, the data recognition unit 112 may specify the locus of the position by communicating with the electronic pen 30, or the projector 20 may irradiate infrared rays on the input table 40 to specify the locus of the position of the electronic pen 30. You may. When infrared rays are used, it is possible to write characters with a finger or the like instead of the electronic pen 30.
Next, the data recognition unit 112 performs OCR (Optical Character Reader) processing based on the specified trajectory to recognize a handwritten character and convert it into a character code. The OCR process is a process of optically reading a handwritten or printed character and converting it into a character code that can be used by a computer. The data recognition unit 112 may use any OCR software. For example, the data recognition unit 112 uses OCR software that recognizes characters in consideration of the shape of written characters and the writing order.

(図8のステップS22:不備判定処理)
データ認識部112は、ステップS21で認識された文字について不備があるか否かを判定する。例えば、データ認識部112は、数値を入力する入力欄86に対して数値以外の文字が入力された場合には、不備があると判定する。
(Step S22 of FIG. 8: Deficiency determination process)
The data recognition unit 112 determines whether or not the character recognized in step S21 is defective. For example, the data recognition unit 112 determines that there is a defect when a character other than the numerical value is input to the input field 86 for inputting the numerical value.

(図8のステップS23:画像化処理)
データ認識部112は、ステップS21で特定された軌跡を画像化して、画像化された軌跡を投影部111に送信する。また、データ認識部112は、ステップS21でOCR処理により認識された文字を投影部111に送信する。
例えば、図7に示すように、入力欄86に、画像化された軌跡を表示する。また、OCR処理により文字列変換された文字を、入力欄86の下に表示している。
(Step S23 of FIG. 8: imaging process)
The data recognition unit 112 images the locus specified in step S21 and transmits the imaged locus to the projection unit 111. Further, the data recognition unit 112 transmits the character recognized by the OCR process in step S21 to the projection unit 111.
For example, as shown in FIG. 7, an imaged locus is displayed in the input field 86. Further, the character string converted by the OCR process is displayed below the input field 86.

データ認識部112は、ステップS22で不備があると判定された場合には、不備があることを利用者に通知して、修正を促す。
例えば、データ認識部112は、ステップS22で不備があると判定された場合には、文字列変換された文字とともに、不備があることを示すデータも投影部111に送信する。投影部111は、認識された文字に印をつけて投影表示するといった方法により、利用者に不備があることを通知する。
When it is determined in step S22 that there is a defect, the data recognition unit 112 notifies the user of the defect and prompts correction.
For example, when it is determined in step S22 that there is a defect, the data recognition unit 112 transmits to the projection unit 111, together with the character string-converted character, data indicating that there is a defect. The projection unit 111 notifies the user that there is a deficiency by a method of marking the recognized character and projecting it.

(図8のステップS24:書込終了判定処理)
データ認識部112は、入力欄86への書込みが終了したか否かを判定する。ここでは、データ認識部112は、入力欄86への書込みが終了したことを示すボタンにタッチされた場合に、入力欄86への書込みが終了したと判定する。図7では、データ認識部112は、入力フォーマット84の右下の矢印ボタンにタッチされた場合に、入力欄86への書込みが終了したと判定する。
データ認識部112は、入力欄86への書込みが終了したと判定された場合には、処理をステップS25に進める。一方、データ認識部112は、入力欄86への書込みが終了していないと判定された場合には、処理をステップS21に戻して、次の文字を認識する。
前記データ認識部は、入力欄への書込みが終了した時点で、認識された文字をデジタルデータとしてメモリ12に保存するとともに、特定された軌跡を画像化し証跡データとしてメモリ12に保存する。
(Step S24 of FIG. 8: write end determination process)
The data recognition unit 112 determines whether or not writing to the input field 86 has been completed. Here, the data recognizing unit 112 determines that the writing in the input field 86 is completed when the button indicating that the writing in the input field 86 is completed is touched. In FIG. 7, the data recognition unit 112 determines that writing to the input field 86 is completed when the lower right arrow button of the input format 84 is touched.
When it is determined that the writing in the input field 86 is completed, the data recognition unit 112 advances the process to step S25. On the other hand, when it is determined that the writing in the input field 86 is not completed, the data recognition unit 112 returns the process to step S21 and recognizes the next character.
The data recognition unit saves the recognized characters as digital data in the memory 12 at the time when the writing in the input field is completed, and also images the specified trajectory in the memory 12 as trail data.

データ認識部112は、入力欄86への書込みが終了したと判定された場合に、入力欄86に書き込まれた文字の不備があるか否かを再判定してもよい。
ステップS22では、認識された1文字についての不備の判定ができる。これに対して、入力欄86への書込みが終了したと判定された場合に、入力欄86に書き込まれた文字列についての不備の判定ができる。例えば、入力内容85が電話番号である場合に、書き込まれた数値の桁数が多い、又は、少ないといった判定ができる。
When it is determined that the writing in the input field 86 is completed, the data recognition unit 112 may redetermine whether or not the character written in the input field 86 is defective.
In step S22, it is possible to determine the deficiency of the recognized one character. On the other hand, when it is determined that the writing in the input field 86 is completed, it is possible to determine the deficiency in the character string written in the input field 86. For example, when the input content 85 is a telephone number, it can be determined that the number of digits of the written numerical value is large or small.

(図8のステップS25:手続終了判定処理)
データ認識部112は、全ての入力内容85についての書込みが終了したか否かを判定する。ここでは、最後の入力内容85についての入力欄86への書込みが終了した場合に、全ての入力内容85についての書込みが終了したと判定する。
データ認識部112は、全ての入力内容85についての書込みが終了したと判定された場合には、図3のステップS3に進める。一方、データ認識部112は、全ての入力内容85についての書込みが終了していない場合には、処理を図4のステップS13に戻して、次の入力内容85についての入力フォーマット84を表示させる。
(Step S25 of FIG. 8: Procedure end determination processing)
The data recognition unit 112 determines whether or not the writing of all the input contents 85 has been completed. Here, when the writing of the last input content 85 into the input field 86 is completed, it is determined that the writing of all the input content 85 is completed.
When it is determined that the writing of all the input contents 85 is completed, the data recognition unit 112 proceeds to step S3 of FIG. On the other hand, if the writing of all the input contents 85 is not completed, the data recognition unit 112 returns the process to step S13 of FIG. 4 and displays the input format 84 for the next input contents 85.

例えば、図7に示された、氏名についての入力フォーマット84が投影表示されているときに、右下の矢印ボタンにタッチされた場合には、データ認識部112は、処理を図4のステップS13に戻す。すると、図9に示すように、投影部111は、入力順が2番目の入力内容85である住所についての入力フォーマット84を投影表示する。 For example, when the lower right arrow button is touched when the input format 84 for the name shown in FIG. 7 is projected and displayed, the data recognition unit 112 executes the process in step S13 of FIG. Return to. Then, as shown in FIG. 9, the projection unit 111 projects and displays the input format 84 for the address whose input order is the second input content 85.

(図3のステップS3:確認処理)
確認処理部113は、ステップS2で書き込まれた文字を確認するための確認データ88を生成する。
(Step S3 of FIG. 3: confirmation processing)
The confirmation processing unit 113 generates confirmation data 88 for confirming the character written in step S2.

図10から図13を参照して、実施の形態1に係る確認処理を説明する。
(図10のステップS31:フォーマット取得処理)
確認処理部113は、ステップS11で選択された手続きについての手続書類のフォーマット87を、データベースサーバ50のフォーマット記憶部52から読み出す。
図11に示すように、フォーマット記憶部52には、手続き毎に、手続書類のフォーマットが記憶されている。手続書類のフォーマット87は、例えば、従来の紙の手続書類と同様のフォーマットである。表示内容82の入力フォーマット84が示す各入力欄86は、手続書類の記入欄に対応している。
The confirmation processing according to the first embodiment will be described with reference to FIGS. 10 to 13.
(Step S31 of FIG. 10: format acquisition process)
The confirmation processing unit 113 reads the format 87 of the procedure document for the procedure selected in step S11 from the format storage unit 52 of the database server 50.
As shown in FIG. 11, the format storage unit 52 stores the format of the procedure document for each procedure. The procedure document format 87 is, for example, the same format as a conventional paper procedure document. Each input field 86 indicated by the input format 84 of the display content 82 corresponds to the entry field of the procedure document.

(図10のステップS32:確認データ生成処理)
図12に示すように、確認処理部113は、ステップS2で認識された文字を、その文字が手書きされた入力欄86に対応する、ステップS31で取得された手続書類のフォーマット87の記入欄に示して確認データ88を生成する。図12では、口座開設の場合の確認データ88が示されている。そのため、図12では、氏名と、住所と、生年月日と、電話番号と、金額とが示されている。
(Step S32 of FIG. 10: confirmation data generation process)
As shown in FIG. 12, the confirmation processing unit 113 places the character recognized in step S2 in the entry field of the format 87 of the procedure document acquired in step S31, which corresponds to the input field 86 in which the character is handwritten. Shown to generate confirmation data 88. FIG. 12 shows confirmation data 88 in the case of opening an account. Therefore, in FIG. 12, a name, an address, a date of birth, a telephone number, and an amount of money are shown.

確認処理部113は、確認データ88を生成する際、各入力欄86に書き込まれた文字の不備があるか否かを再判定してもよい。ここでは、各入力欄86に書き込まれた文字列間の対応関係に不備があるか否かを判定できる。例えば、住所と電話番号の市外局番とが不一致であるといった判定ができる。 When generating the confirmation data 88, the confirmation processing unit 113 may re-determine whether or not there is a defect in the character written in each input field 86. Here, it can be determined whether or not the correspondence between the character strings written in each input box 86 is incomplete. For example, it can be determined that the address and the area code of the telephone number do not match.

(図10のステップS33:手続実行判定処理)
確認処理部113は、生成された確認データ88を投影部111に送信する。投影部111は、確認データ88を入力台40の上に投影表示する。
利用者によって、確認データ88の内容が確認される。確認データ88の内容に修正がなければ、利用者によって手続きを実行することを示すボタンが電子ペン30によりタッチされる。すると、確認処理部113は、処理をステップS34に進める。一方、確認データ88の内容に修正があれば、利用者によって修正することを示すボタンが電子ペン30によりタッチされる。すると、確認処理部113は、投影部111に該当の入力内容85についての修正画面を投影表示させる。そして、確認処理部113は、修正完了後、処理をステップS32に戻して、確認データ88を再生成する。
(Step S33 of FIG. 10: procedure execution determination process)
The confirmation processing unit 113 transmits the generated confirmation data 88 to the projection unit 111. The projection unit 111 projects and displays the confirmation data 88 on the input table 40.
The user confirms the content of the confirmation data 88. If the content of the confirmation data 88 is not corrected, the button touching the user to execute the procedure is touched by the electronic pen 30. Then, the confirmation processing unit 113 advances the process to step S34. On the other hand, if the content of the confirmation data 88 is corrected, the electronic pen 30 touches a button indicating that the confirmation data 88 is corrected. Then, the confirmation processing unit 113 causes the projection unit 111 to project and display a correction screen for the corresponding input content 85. After the completion of the correction, the confirmation processing unit 113 returns the process to step S32 and regenerates the confirmation data 88.

(図10のステップS34:利用者情報記憶処理)
確認処理部113は、ステップS2で認識された各入力内容85についての文字等のデータを、金融機関等の手続き先の事務員の端末に送信する。事務員によって、データに不備がないことが確認されると、確認処理部113は、データをデータベースサーバ50の利用者情報記憶部53に書き込む。図13に示すように、利用者情報記憶部53は、利用者毎に、利用者についての情報が記憶されている。
(Step S34 of FIG. 10: user information storage process)
The confirmation processing unit 113 transmits the data such as characters for each input content 85 recognized in step S2 to the terminal of the clerk at the procedure destination such as a financial institution. When the clerk confirms that the data is not defective, the confirmation processing unit 113 writes the data in the user information storage unit 53 of the database server 50. As shown in FIG. 13, the user information storage unit 53 stores information about each user for each user.

(図10のステップS35:参照情報生成処理)
確認処理部113は、手続書類についての情報を利用者端末から参照するための参照情報89を生成する。手続書類についての情報は、登録された利用者についての情報と、手続きの進捗状況と等である。参照情報89は、手続書類についての情報を参照可能なURL(Uniform Resource Locator)を示す。例えば、参照情報89は、URLが埋め込まれた二次元コードである。利用者端末は、スマートフォン及び携帯電話といった端末である。利用者は、利用者端末を用いて、参照情報89が示すURLを指定して、ウェブサイトにアクセスすることにより、手続書類についての情報を参照することが可能である。
確認処理部113は、生成された参照情報89を投影部111に送信する。投影部111は、参照情報89を入力台40の上に投影表示する。例えば、利用者端末に付属するカメラを用いて、二次元コードを読み取ることにより、参照情報89が示すURLを利用者端末に取り込むことができる。
(Step S35 of FIG. 10: reference information generation process)
The confirmation processing unit 113 generates reference information 89 for referring to the information on the procedure document from the user terminal. The information about the procedure documents includes information about registered users and the progress of the procedure. The reference information 89 indicates a URL (Uniform Resource Locator) that can refer to information about the procedure document. For example, the reference information 89 is a two-dimensional code in which a URL is embedded. User terminals are terminals such as smartphones and mobile phones. The user can refer to the information about the procedure document by designating the URL indicated by the reference information 89 by using the user terminal and accessing the website.
The confirmation processing unit 113 transmits the generated reference information 89 to the projection unit 111. The projection unit 111 projects and displays the reference information 89 on the input table 40. For example, the URL indicated by the reference information 89 can be taken into the user terminal by reading the two-dimensional code using the camera attached to the user terminal.

なお、図10のステップS34で利用者情報記憶部53に書き込まれたデータを用いて、金融機関等の手続き先の事務員によって手続きが進められる。そして、事務員によって手続きの進捗がデータベースサーバ50に登録され、参照情報89が示すURLのウェブサイトの情報が更新される。 It should be noted that the data written in the user information storage unit 53 in step S34 of FIG. 10 is used to proceed with the procedure by the clerk at the procedure destination such as a financial institution. Then, the progress of the procedure is registered in the database server 50 by the clerk, and the information of the website of the URL indicated by the reference information 89 is updated.

***実施の形態1の効果***
以上のように、実施の形態1に係るデータ入力装置10は、入力フォーマット84を入力台40の上に投影表示し、入力フォーマット84の入力欄86に手書きされた文字を認識する。これにより、紙を用いずに手続きの申し込み等を行うことが可能となり、紙の使用量を減らすことが可能である。
***Effect of Embodiment 1***
As described above, the data input device 10 according to the first embodiment projects and displays the input format 84 on the input table 40, and recognizes the handwritten character in the input field 86 of the input format 84. This makes it possible to apply for procedures without using paper, and it is possible to reduce the amount of paper used.

また、利用者は、手続書類に文字を記入する場合と同じように、入力欄86に文字を手書きすればよい。つまり、利用者は、キーボードを打つといった、従来の紙の書類に記入する場合と異なる処理をする必要がなく、手続の手間が増えることもない。 Further, the user may handwrite the character in the input field 86, as in the case of writing the character in the procedure document. In other words, the user does not need to perform a process such as hitting a keyboard, which is different from the case of filling in a conventional paper document, and the procedure time is not increased.

また、紙の手続書類を用いて手続きの申し込み等をしていた場合には、手続書類に記入された内容を、事務員がコンピュータに入力していた。そのため、事務員の入力ミス等により正しくデータが登録されない恐れがあった。
実施の形態1に係るデータ入力装置10は、利用者が文字認識され文字列変換された文字を確認する。そのため、利用者の意図した通りのデータが登録される。
Also, when applying for procedures using paper procedure documents, the clerk entered the content entered in the procedure documents into the computer. Therefore, there is a fear that the data may not be registered correctly due to an erroneous input by the clerk.
In the data input device 10 according to the first embodiment, the user confirms the character that has been character-recognized and converted into a character string. Therefore, the data intended by the user is registered.

また、実施の形態1に係るデータ入力装置10は、参照情報89を生成する。そのため、利用者が手続きの進捗を確認することが可能である。 The data input device 10 according to the first embodiment also generates the reference information 89. Therefore, the user can check the progress of the procedure.

また、実施の形態1に係るデータ入力装置10は、入力フォーマット84を投影表示する。そのため、入力フォーマット84の表示を拡大及び縮小することが可能である。特に、投影面21は大きくすることが容易である。そのため、入力フォーマット84を大きく表示することを容易に実現できる。
また、入力内容85に応じた説明と入力例とを、入力フォーマット84上に表示することも可能であるし、入力フォーマット84の外に表示することも可能である。
Further, the data input device 10 according to the first embodiment projects and displays the input format 84. Therefore, the display of the input format 84 can be enlarged or reduced. In particular, it is easy to make the projection surface 21 large. Therefore, it is possible to easily realize a large display of the input format 84.
Further, it is possible to display the explanation and the input example according to the input content 85 on the input format 84, and also to display them outside the input format 84.

また、実施の形態1に係るデータ入力装置10は、入力内容85に応じた説明と入力例とを投影表示する。そのため、利用者がスムーズに入力内容85を書き込むことができる。その結果、手続き窓口の混雑を緩和することが可能である。また、事務員への問合せも減るため、事務員の作業不可を減らすことが可能である。 Further, the data input device 10 according to the first embodiment projects and displays the description and the input example according to the input content 85. Therefore, the user can smoothly write the input content 85. As a result, it is possible to reduce the congestion at the procedure window. Further, since the number of inquiries to the clerks is reduced, it is possible to reduce the work disability of the clerks.

また、実施の形態1に係るデータ入力装置10は、OCR処理により認識された文字をデジタルデータとして保存するとともに、特定された軌跡を画像化し証跡データとして保存する。そのため、後日利用者から手続き内容についての問い合わせがあった場合でも、手続き内容についての確認を行うことが可能である。 Further, the data input device 10 according to the first embodiment stores the characters recognized by the OCR processing as digital data, and also images the specified trajectory as trail data. Therefore, even if the user inquires about the procedure contents at a later date, it is possible to confirm the procedure details.

また、実施の形態1に係るデータ入力装置10は、紙の手続書類が必要ない。そのため、手続きに必要な入力内容85に変更があった場合には、データベースサーバ50に記憶されたデータを変更するだけで対応できる。
なお、特許文献1のように、手続書類に対して説明を投影する場合には、紙の手続書類を変更するとともに、手続書類に投影する説明の位置調整といった煩雑な作業が必要になる。
Further, the data input device 10 according to the first embodiment does not require a paper procedure document. Therefore, if the input content 85 necessary for the procedure is changed, it can be dealt with only by changing the data stored in the database server 50.
Note that when projecting an explanation on a procedure document as in Patent Document 1, it is necessary to change the paper procedure document and to perform a complicated operation such as adjusting the position of the explanation projected on the procedure document.

***他の構成***
<変形例1>
実施の形態1では、データ入力システム1は、データ入力装置10とプロジェクタ20と電子ペン30と入力台40との組を1つ備えていた。しかし、データ入力システム1は、データ入力装置10とプロジェクタ20と電子ペン30と入力台40との組を複数備えてもよい。
***Other configurations***
<Modification 1>
In the first embodiment, the data input system 1 includes one set of the data input device 10, the projector 20, the electronic pen 30, and the input table 40. However, the data input system 1 may include a plurality of sets of the data input device 10, the projector 20, the electronic pen 30, and the input table 40.

<変形例2>
実施の形態1では、データベースサーバ50が、表示内容記憶部51と、フォーマット記憶部52と、顧客情報記憶部53との機能を実現した。しかし、データ入力装置10のストレージ13が、表示内容記憶部51と、フォーマット記憶部52と、顧客情報記憶部53との機能を実現してもよい。
<Modification 2>
In the first embodiment, the database server 50 realizes the functions of the display content storage unit 51, the format storage unit 52, and the customer information storage unit 53. However, the storage 13 of the data input device 10 may realize the functions of the display content storage unit 51, the format storage unit 52, and the customer information storage unit 53.

<変形例3>
実施の形態1では、入力欄86に対して手書きするとした。しかし、データ入力システム1は、手書き以外の入力手段を提供してもよい。例えば、データ入力システム1は、テンキーを備えていてもよい。これにより、利用者は数値をテンキーから入力することが可能である。また、データ入力システム1は、キーボードを備えていてもよい。これにより、キーボードの入力に慣れた利用者であれば、キーボードから文字を入力することが可能である。なお、テンキー及びキーボードを物理的に用意してもよいし、投影型のテンキー及びキーボードを用意してもよい。投影型のテンキー及びキーボードを用意する場合、データ入力装置10の投影部111が、プロジェクタ20により、テンキー及びキーボードを入力台40の上に投影表示すればよい。
<Modification 3>
In the first embodiment, it is assumed that the input field 86 is handwritten. However, the data input system 1 may provide input means other than handwriting. For example, the data input system 1 may include a numeric keypad. This allows the user to input a numerical value from the ten-key pad. Further, the data input system 1 may include a keyboard. As a result, a user who is accustomed to keyboard input can input characters from the keyboard. The numeric keypad and keyboard may be physically prepared, or a projection-type numeric keypad and keyboard may be prepared. When a projection-type numeric keypad and keyboard are prepared, the projection unit 111 of the data input device 10 may project and display the numeric keypad and keyboard on the input table 40 by the projector 20.

<変形例4>
実施の形態1では、投影部111と、データ認識部112と、確認処理部113との機能がソフトウェアで実現された。しかし、変形例4として、投影部111と、データ認識部112と、確認処理部113との機能はハードウェアで実現されてもよい。この変形例4について、実施の形態1と異なる点を説明する。
<Modification 4>
In the first embodiment, the functions of the projection unit 111, the data recognition unit 112, and the confirmation processing unit 113 are realized by software. However, as a fourth modification, the functions of the projection unit 111, the data recognition unit 112, and the confirmation processing unit 113 may be realized by hardware. Differences between this modification 4 and the first embodiment will be described.

図14を参照して、変形例4に係るデータ入力装置10の構成を説明する。
投影部111と、データ認識部112と、確認処理部113との機能がハードウェアで実現される場合、データ入力装置10は、プロセッサ11とメモリ12とストレージ13とに代えて、処理回路15を備える。処理回路15は、投影部111と、データ認識部112と、確認処理部113との機能と、メモリ12とストレージ13との機能とを実現する専用の電子回路である。
The configuration of the data input device 10 according to the modified example 4 will be described with reference to FIG.
When the functions of the projection unit 111, the data recognition unit 112, and the confirmation processing unit 113 are realized by hardware, the data input device 10 replaces the processor 11, the memory 12, and the storage 13 with the processing circuit 15. Prepare The processing circuit 15 is a dedicated electronic circuit that realizes the functions of the projection unit 111, the data recognition unit 112, the confirmation processing unit 113, and the functions of the memory 12 and the storage 13.

処理回路15は、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ロジックIC、GA(Gate Array)、ASIC(Application Specific Integrated Circuit)、FPGA(Field−Programmable Gate Array)が想定される。
投影部111と、データ認識部112と、確認処理部113との機能を1つの処理回路15で実現してもよいし、投影部111と、データ認識部112と、確認処理部113との機能を複数の処理回路15に分散させて実現してもよい。
The processing circuit 15 is assumed to be a single circuit, a composite circuit, a programmed processor, a parallel programmed processor, a logic IC, a GA (Gate Array), an ASIC (Application Specific Integrated Circuit), or an FPGA (Field-Programmable Gate Array). To be done.
The functions of the projection unit 111, the data recognition unit 112, and the confirmation processing unit 113 may be realized by one processing circuit 15, or the functions of the projection unit 111, the data recognition unit 112, and the confirmation processing unit 113. May be realized by being distributed to a plurality of processing circuits 15.

<変形例5>
変形例5として、一部の機能がハードウェアで実現され、他の機能がソフトウェアで実現されてもよい。つまり、投影部111と、データ認識部112と、確認処理部113とのうち、一部の機能がハードウェアで実現され、他の機能がソフトウェアで実現されてもよい。
<Modification 5>
As a modified example 5, some functions may be realized by hardware and other functions may be realized by software. That is, some functions of the projection unit 111, the data recognition unit 112, and the confirmation processing unit 113 may be realized by hardware, and other functions may be realized by software.

プロセッサ11とメモリ12とストレージ13と処理回路15とを、総称して「プロセッシングサーキットリー」という。つまり、各機能構成要素の機能は、プロセッシングサーキットリーにより実現される。 The processor 11, the memory 12, the storage 13, and the processing circuit 15 are collectively referred to as “processing circuit”. That is, the function of each functional component is realized by the processing circuitry.

実施の形態2.
実施の形態2は、自動車の運転免許証のような書類を読み込む点が実施の形態1と異なる。実施の形態2では、この異なる点を説明し、同一の点については説明を省略する。
Embodiment 2.
The second embodiment differs from the first embodiment in that a document such as an automobile driver's license is read. In the second embodiment, these different points will be described, and description of the same points will be omitted.

***構成の説明***
図15を参照して、実施の形態2に係るデータ入力システム1の構成を説明する。
データ入力システム1は、撮像装置70を備える点が図1に示すデータ入力システム1と異なる。撮像装置70は、自動車の運転免許証のような書類を撮像する装置である。
***Composition explanation***
The configuration of the data input system 1 according to the second embodiment will be described with reference to FIG.
The data input system 1 is different from the data input system 1 shown in FIG. 1 in that an image pickup device 70 is provided. The image pickup device 70 is a device for picking up an image of a document such as a driver's license of an automobile.

***動作の説明***
図16を参照して、実施の形態2に係るデータ認識処理を説明する。
ステップS42からステップS46の処理は、図8のステップS21からステップS25の処理と同じである。
***Description of operation***
The data recognition processing according to the second embodiment will be described with reference to FIG.
The processing from step S42 to step S46 is the same as the processing from step S21 to step S25 in FIG.

(図16のステップS41:読込処理)
利用者によって、自動車の運転免許証のような書類が撮像装置70の撮像領域に設置される。
データ認識部112は、撮像装置70により撮像領域に設置された書類を撮像して、書類の画像データを取得する。データ認識部112は、取得された画像データから各入力内容85に対応する文字を認識する。データ認識部112は、認識された文字を、入力フォーマット84における対応する入力欄86に入力された文字として扱う。
ここでは、自動車の運転免許証のように、入力内容が定められた書類が設置される。なお、自動車の運転免許証に限らず、パスポート、保険証といった他の書類であってもよい。また、事前に、書類の各欄と、表示内容82の各入力内容85とは対応付けされている。
データ認識部112は、認識された文字を投影部111に送信する。すると、投影部111により、認識された文字が、入力欄86の下に表示される。あるいは、入力欄86にも合わせて表示してもよく、もしくは入力欄86のみに表示してもよい。
(Step S41 of FIG. 16: read processing)
A user installs a document such as a driver's license of an automobile in the imaging area of the imaging device 70.
The data recognition unit 112 captures an image of a document set in the image capturing area by the image capturing device 70 and acquires image data of the document. The data recognition unit 112 recognizes the character corresponding to each input content 85 from the acquired image data. The data recognition unit 112 treats the recognized character as a character input to the corresponding input field 86 in the input format 84.
Here, documents such as a driver's license of a car in which input contents are determined are installed. It should be noted that the document is not limited to the driver's license of the automobile, and may be other documents such as a passport and an insurance card. Further, each column of the document and each input content 85 of the display content 82 are associated with each other in advance.
The data recognition unit 112 transmits the recognized character to the projection unit 111. Then, the projection unit 111 displays the recognized character under the input field 86. Alternatively, it may be displayed together with the input field 86, or may be displayed only in the input field 86.

***実施の形態2の効果***
以上のように、実施の形態2に係るデータ入力装置10は、自動車の運転免許証のような書類に記載された文字を認識して、入力欄86に入力された文字として扱う。これにより、利用者が入力内容85を書き込む手間を減らすことが可能である。
***Effects of Embodiment 2***
As described above, the data input device 10 according to the second embodiment recognizes a character written in a document such as a driver's license of an automobile and treats it as a character input in the input field 86. As a result, it is possible to reduce the time and effort required for the user to write the input content 85.

実施の形態3.
実施の形態3は、書込みに関する統計をとる点が実施の形態1と異なる。実施の形態3では、この異なる点を説明し、同一の点については説明を省略する。
なお、実施の形態3を実施の形態2と組み合わせることも可能である。
Embodiment 3.
The third embodiment is different from the first embodiment in that statistics on writing are obtained. In the third embodiment, these different points will be described, and description of the same points will be omitted.
Note that it is possible to combine the third embodiment with the second embodiment.

***構成の説明***
図17を参照して、実施の形態3に係るデータ入力装置10の構成を説明する。
データ入力装置10は、機能構成要素として、統計部114を備える点が図3に示すデータ入力装置10と異なる。統計部114は、他の機能構成要素と同様に、ソフトウェアによって実現される。なお、統計部114は、他の機能構成要素と同様に、ハードウェアによって実現されてもよい。
また、データベースサーバ50は、統計記憶部54の機能を実現する。
***Composition explanation***
The configuration of the data input device 10 according to the third embodiment will be described with reference to FIG.
The data input device 10 is different from the data input device 10 shown in FIG. 3 in that a statistical unit 114 is provided as a functional component. The statistical unit 114 is implemented by software, like other functional components. Note that the statistical unit 114 may be realized by hardware like other functional components.
The database server 50 also realizes the function of the statistical storage unit 54.

***動作の説明***
図18を参照して、実施の形態3に係るデータ認識処理を説明する。
ステップS51からステップS55の処理は、図8のステップS21からステップS25の処理と同じである。
***Description of operation***
The data recognition process according to the third embodiment will be described with reference to FIG.
The processing of steps S51 to S55 is the same as the processing of steps S21 to S25 of FIG.

(図18のステップS56:統計処理)
統計部114は、ステップS52又はステップS54で不備と判定された内容を取得して、統計記憶部54に書き込む。また、統計部114は、各入力欄86への書込み時間についても取得して、統計記憶部54に書き込む。
(Step S56 of FIG. 18: statistical processing)
The statistical unit 114 acquires the content determined to be defective in step S52 or step S54 and writes it in the statistical storage unit 54. In addition, the statistical unit 114 also acquires the writing time in each input field 86 and writes it in the statistical storage unit 54.

これにより、統計記憶部54には、不備についてのデータと、書込み時間についてのデータが蓄積される。例えば、事務員等によって、不備及び書込み時間についてのデータが分析され、入力フォーマット84が変更されたり、入力内容85の説明が追加されたりする。例えば、不備の多い入力内容85については、入力内容85に関する説明を追加で投影表示するようにして、不備が減るようにされる。 As a result, the statistic storage unit 54 accumulates the data regarding the defects and the data regarding the writing time. For example, the clerk or the like analyzes the data regarding the deficiency and the writing time, changes the input format 84, or adds the description of the input content 85. For example, with respect to the input content 85 having many deficiencies, an explanation regarding the input content 85 is additionally projected and displayed so that the deficiency is reduced.

***実施の形態3の効果***
以上のように、実施の形態3に係るデータ入力装置10は、不備等のデータを蓄積する。これにより、入力フォーマット84及び説明を改善することができる。その結果、利用者にとってより利用し易いシステムにすることができる。
***Effects of Embodiment 3***
As described above, the data input device 10 according to the third embodiment accumulates data such as defects. This can improve the input format 84 and description. As a result, the system can be more easily used by the user.

実施の形態4.
実施の形態4では、電子ペン30の紛失防止処理を行う点が実施の形態1と異なる。実施の形態4では、この異なる点を説明し、同一の点については説明を省略する。
なお、実施の形態4を実施の形態2,3と組み合わせることも可能である。
Fourth Embodiment
The fourth embodiment is different from the first embodiment in that loss prevention processing of the electronic pen 30 is performed. In the fourth embodiment, these different points will be described, and description of the same points will be omitted.
It is also possible to combine the fourth embodiment with the second and third embodiments.

***構成の説明***
図19を参照して、実施の形態4に係るデータ入力装置10の構成を説明する。
データ入力装置10は、機能構成要素として、配置判定部115を備える点が図2に示すデータ入力装置10と異なる。配置判定部115は、他の機能構成要素と同様に、ソフトウェアによって実現される。なお、配置判定部115は、他の機能構成要素と同様に、ハードウェアによって実現されてもよい。
***Composition explanation***
The configuration of the data input device 10 according to the fourth embodiment will be described with reference to FIG.
The data input device 10 is different from the data input device 10 shown in FIG. 2 in that the arrangement determination unit 115 is provided as a functional component. The placement determination unit 115 is realized by software, like other functional components. The arrangement determination unit 115 may be realized by hardware, like other functional components.

***動作の説明***
図20を参照して、実施の形態4に係るデータ入力システム1の動作を説明する。
ステップS1からステップS3の処理は、実施の形態1と同じである。
***Description of operation***
The operation of the data input system 1 according to the fourth embodiment will be described with reference to FIG.
The processing from step S1 to step S3 is the same as that in the first embodiment.

(図20のステップS4:紛失防止処理)
投影部111は、プロジェクタ20により、入力装置である電子ペン30の置き場である配置領域90を入力台40の上に投影表示する。そして、配置判定部115は、投影部111によって投影された配置領域90に入力装置である電子ペン30が基準時間以上置かれているか否かを判定する。
(Step S4 of FIG. 20: loss prevention processing)
The projection unit 111 causes the projector 20 to project and display the placement area 90, which is a place for the electronic pen 30 which is an input device, on the input table 40. Then, the placement determination unit 115 determines whether or not the electronic pen 30, which is the input device, is placed in the placement area 90 projected by the projection unit 111 for a reference time or longer.

図21から図22を参照して、実施の形態4に係る紛失防止処理を説明する。
(図21のステップS61:領域表示処理)
投影部111は、プロジェクタ20により、電子ペン30の置き場である配置領域90を入力台40の上に投影表示する。例えば、図22に示すように、投影部111は、電子ペン30を拡大したような形状の配置領域90を、電子ペン30を配置領域90に置くことを促すメッセージ91とともに、入力台40の上に投影表示する。
つまり、投影部111は、ステップS11からステップS13で、入力フォーマット84を入力台40の上に投影表示し、入力フォーマット84への入力が終了した後に、配置領域90を投影表示する。
The loss prevention processing according to the fourth embodiment will be described with reference to FIGS. 21 to 22.
(Step S61 of FIG. 21: area display process)
The projection unit 111 causes the projector 20 to project and display the placement area 90 where the electronic pen 30 is placed on the input table 40. For example, as shown in FIG. 22, the projection unit 111 causes the placement area 90 having an enlarged shape of the electronic pen 30 to be placed on the input table 40 together with a message 91 prompting the placement of the electronic pen 30 in the placement area 90. Projected on.
That is, the projection unit 111 projects and displays the input format 84 on the input table 40 in steps S11 to S13, and projects and displays the arrangement area 90 after the input to the input format 84 is completed.

図22の配置領域90は、ペンの形状をしているが、形状はペンに限らない。矩形や円でもよいし、点や線でも構わない。また、領域のサイズについては、必ずしもペンが入る大きさでなくてもよく、ペン先が入る程度の大きさでも構わない。 The arrangement area 90 in FIG. 22 has a pen shape, but the shape is not limited to the pen. It may be a rectangle or circle, or a dot or line. Further, the size of the area does not necessarily have to be a size into which the pen can be inserted, and may be a size such that the pen tip can be inserted.

(図21のステップS62:配置判定処理)
配置判定部115は、配置領域90に電子ペン30が基準時間以上継続して置かれているか否かを判定する。この際、配置判定部115は、電子ペン30のポインタが配置領域90内を指している場合に、配置領域90に電子ペン30が置かれていると判定する。一方、配置判定部115は、電子ペン30のポインタが配置領域90外を指している場合に、配置領域90に電子ペン30が置かれていないと判定する。
配置判定部115は、配置領域90に電子ペン30が基準時間以上継続して置かれている場合には、処理をステップS63に進める。
一方、配置判定部115は、制限時間以上経過しても、配置領域90に電子ペン30が基準時間以上継続して置かれていない場合には、処理をステップS64に進める。ここで、制限時間は、基準時間よりも長い時間である。具体例としては、制限時間を10秒とし、基準時間を3秒とする。
(Step S62 of FIG. 21: placement determination process)
The placement determination unit 115 determines whether the electronic pen 30 has been placed in the placement area 90 continuously for a reference time or longer. At this time, the arrangement determination unit 115 determines that the electronic pen 30 is placed in the arrangement area 90 when the pointer of the electronic pen 30 points within the arrangement area 90. On the other hand, when the pointer of the electronic pen 30 points outside the placement area 90, the placement determination unit 115 determines that the electronic pen 30 is not placed in the placement area 90.
When the electronic pen 30 is continuously placed in the placement area 90 for the reference time or longer, the placement determination unit 115 advances the process to step S63.
On the other hand, if the electronic pen 30 has not been placed in the placement area 90 for the reference time or more even after the lapse of the time limit, the placement determination unit 115 advances the process to step S64. Here, the time limit is a time longer than the reference time. As a specific example, the time limit is 10 seconds and the reference time is 3 seconds.

(図21のステップS63:正常終了処理)
配置判定部115は、電子ペン30が配置領域90に戻されたとして、処理を終了する。
(Step S63 of FIG. 21: normal end process)
The placement determination unit 115 determines that the electronic pen 30 has been returned to the placement area 90, and ends the process.

(図21のステップS64:異常終了処理)
配置判定部115は、電子ペン30が配置領域90に戻されなかったとして、警告音を鳴らす、担当者へメッセージを送信するといった方法により担当者と利用者との少なくともいずれかに通知した上で、処理を終了する。
(Step S64 of FIG. 21: abnormal termination process)
The placement determination unit 115 notifies at least one of the person in charge and the user by, for example, sounding a warning sound or sending a message to the person in charge that the electronic pen 30 has not been returned to the placement area 90. , The process ends.

***実施の形態4の効果***
以上のように、実施の形態4に係るデータ入力装置10は、入力が終了すると、電子ペン30の置き場である配置領域90を入力台40の上に投影表示する。
利用者は電子ペン30を持ち去る意図がないにも関わらず、電子ペン30を置くことを忘れて持ち去ってしまう可能性がある。しかし、配置領域90を入力台40の上に投影表示することにより、電子ペン30を置くことが利用者に促され、誤って持ち去ってしまうことを防止できる。また、電子ペン30が任意の位置に置かれてしまうと、次の利用者が電子ペン30を発見できない可能性がある。しかし、配置領域90を入力台40の上に投影表示することにより、電子ペン30を置く場所が統一され、次の利用者が電子ペン30を発見し易くなる。
その結果、電子ペン30が紛失することを防止できる。
***Effects of Embodiment 4***
As described above, the data input device 10 according to the fourth embodiment projects and displays the placement area 90, which is a place for the electronic pen 30, on the input table 40 when the input is completed.
Although the user does not intend to take away the electronic pen 30, there is a possibility that the user forgets to put the electronic pen 30 and takes it away. However, by projecting and displaying the placement area 90 on the input table 40, it is possible to prevent the user from being erroneously taken away by prompting the user to place the electronic pen 30. Further, if the electronic pen 30 is placed at an arbitrary position, the next user may not be able to find the electronic pen 30. However, by projecting and displaying the arrangement area 90 on the input table 40, the place where the electronic pen 30 is placed is unified, and the next user can easily find the electronic pen 30.
As a result, it is possible to prevent the electronic pen 30 from being lost.

また、電子ペン30が配置領域90に置かれなかった場合には、警告音を鳴らす、担当者へメッセージを送信するといった方法により通知される。警告音を鳴らすことにより、電子ペン30の持ち去り等を防止することができる。また、担当者へメッセージを送信することにより、電子ペン30が紛失した場合でも、新たな電子ペン30を早期に補充することが可能になる。 Further, when the electronic pen 30 is not placed in the placement area 90, notification is given by a method such as sounding a warning sound or sending a message to a person in charge. By issuing the warning sound, it is possible to prevent the electronic pen 30 from being taken away. Further, by sending the message to the person in charge, it becomes possible to replenish the new electronic pen 30 early even if the electronic pen 30 is lost.

***他の構成***
<変形例6>
実施の形態4では、図19のステップS1からステップS3の処理の後に、紛失防止処理が実行された。つまり、入力フォーマット84へのデータの入力が終了し、データの登録が完了した後に、紛失防止処理が実行された。
しかし、電子ペン30を置くとデータが登録されるようにしてもよい。具体的には、図10のステップS33で確認データ88を入力台40の上に投影表示するとともに、合わせて紛失防止処理が実行されてもよい。つまり、図10のステップS33で確認データ88を入力台40の上に投影表示するとともに、合わせて配置領域90を入力台40の上に投影表示する。確認データ88の内容に修正がなければ、電子ペン30を配置領域90に置いてもらう。そして、配置領域90に電子ペン30が基準時間以上継続して置かれた場合に、図10のステップS34に進むようにする。
すなわち、実施の形態1では、確認データ88の内容に修正がなければ、利用者によって手続きを実行することを示すボタンが電子ペン30によりタッチされた。しかし、変形例6では、確認データ88の内容に修正がなければ、電子ペン30によるタッチに代え、電子ペン30を配置領域90に置いてもらう。これにより、電子ペン30を配置領域90に置かなければ手続きを実行することができないため、より確実に電子ペン30の紛失を防止することができる。
***Other configurations***
<Modification 6>
In the fourth embodiment, the loss prevention process is executed after the processes of steps S1 to S3 of FIG. That is, the loss prevention process is executed after the data input to the input format 84 is completed and the data registration is completed.
However, the data may be registered when the electronic pen 30 is placed. Specifically, in step S33 of FIG. 10, the confirmation data 88 may be projected and displayed on the input table 40, and the loss prevention process may also be executed. That is, in step S33 of FIG. 10, the confirmation data 88 is projected and displayed on the input table 40, and the placement area 90 is also projected and displayed on the input table 40. If the content of the confirmation data 88 is not corrected, the electronic pen 30 is placed in the placement area 90. Then, when the electronic pen 30 is continuously placed in the placement area 90 for the reference time or more, the process proceeds to step S34 in FIG.
That is, in the first embodiment, if the content of the confirmation data 88 is not corrected, the user touches the button indicating that the procedure is to be executed by the user. However, in Modification 6, if the contents of the confirmation data 88 are not corrected, the electronic pen 30 is placed in the placement area 90 instead of being touched by the electronic pen 30. As a result, the procedure cannot be executed unless the electronic pen 30 is placed in the placement area 90, so that the electronic pen 30 can be more reliably prevented from being lost.

<変形例7>
配置判定部115は、図21のステップS63の正常終了処理が終わった後も、定期的に配置領域90に電子ペン30が置かれているか否かを判定してもよい。なお、この際には、配置領域90は投影表示されている必要はない。つまり、図21のステップS63の正常終了処理が終わると、配置領域90は消えてしまうが、配置判定部115は、図21のステップS61で表示された配置領域90の位置に電子ペン90が置かれているか否かを判定する。
そして、配置判定部115は、一定時間継続して電子ペン30が配置領域90に置かれていない場合には、警告音を鳴らす、担当者へメッセージを送信するといった方法により担当者と利用者との少なくともいずれかに通知してもよい。
<Modification 7>
The placement determination unit 115 may periodically determine whether or not the electronic pen 30 is placed in the placement area 90 even after the normal termination process of step S63 of FIG. 21 is completed. At this time, the arrangement area 90 does not need to be projected and displayed. That is, when the normal end process of step S63 of FIG. 21 ends, the placement area 90 disappears, but the placement determination unit 115 places the electronic pen 90 at the location of the placement area 90 displayed in step S61 of FIG. It is determined whether or not it has been.
Then, when the electronic pen 30 has not been placed in the placement area 90 for a certain period of time continuously, the placement determination unit 115 sounds a warning sound and sends a message to the person in charge. May be notified to at least one of the above.

実施の形態5.
実施の形態5では、入力台40の大きさに応じて表示内容82を制御する点が実施の形態1と異なる。実施の形態5では、この異なる点を説明し、同一の点については説明を省略する。
なお、実施の形態5を実施の形態2〜4と組み合わせることも可能である。
Embodiment 5.
The fifth embodiment differs from the first embodiment in that the display content 82 is controlled according to the size of the input table 40. In the fifth embodiment, these different points will be described, and description of the same points will be omitted.
Note that the fifth embodiment can be combined with the second to fourth embodiments.

***構成の説明***
図23を参照して、実施の形態5に係るデータ入力システム1の構成を説明する。
データ入力システム1は、センサ71を備える点が図1に示すデータ入力システム1と異なる。センサ71は、入力台40の大きさを検出する装置である。
***Composition explanation***
The configuration of the data input system 1 according to the fifth embodiment will be described with reference to FIG.
The data input system 1 is different from the data input system 1 shown in FIG. 1 in that a sensor 71 is provided. The sensor 71 is a device that detects the size of the input table 40.

図24を参照して、実施の形態5に係るデータ入力装置10の構成を説明する。
データ入力装置10は、表示エリア認識部116を備える点が、図2に示すデータ入力装置10と異なる。表示エリア認識部116は、他の機能構成要素と同様に、ソフトウェアによって実現される。なお、表示エリア認識部116は、他の機能構成要素と同様に、ハードウェアによって実現されてもよい。
The configuration of the data input device 10 according to the fifth embodiment will be described with reference to FIG.
The data input device 10 differs from the data input device 10 shown in FIG. 2 in that the data input device 10 includes a display area recognition unit 116. The display area recognition unit 116 is realized by software, like other functional components. Note that the display area recognition unit 116 may be realized by hardware like other functional components.

***動作の説明***
図25から図27を参照して、実施の形態5に係る投影処理を説明する。
ステップS75の処理は、図4のステップS12の処理と同じである。
***Description of operation***
The projection processing according to the fifth embodiment will be described with reference to FIGS. 25 to 27.
The process of step S75 is the same as the process of step S12 of FIG.

(ステップS71:大きさ検出処理)
表示エリア認識部116は、センサ71により、入力装置の置き場である配置領域のサイズを認識する。具体的には、入力台40の縦及び横の寸法を認識する。
(Step S71: Size detection process)
The display area recognition unit 116 uses the sensor 71 to recognize the size of the arrangement area where the input device is stored. Specifically, the vertical and horizontal dimensions of the input table 40 are recognized.

(ステップS72:コンテンツ特定処理)
投影部111は、ステップS71で検出された入力台40の上面の大きさに応じた表示コンテンツを特定する。
表示するコンテンツは、あらかじめ配置領域のサイズに応じた表示内容のレイアウトをサイズごとに複数保持され、大きさ検出処理で検出されたサイズによって、一意に決まるようになっている。
具体例として、大と中と小の3種類のレイアウトが登録されている例について説明する。は、投影部111は、検出された入力台40の上面の大きさが大と中と小とのいずれの分類に該当するかを特定する。投影部111は、特定された分類に応じた表示コンテンツを特定する。
例えば、分類が大の場合には、選択画面81又は表示内容82と、広告動画及び広告画像とを表示コンテンツとし、分類が中の場合には、選択画面81又は表示内容82と、広告動画とを表示コンテンツとし、分類が小の場合には、選択画面81又は表示内容82だけを表示コンテンツとする。
(Step S72: Content specifying process)
The projection unit 111 identifies the display content according to the size of the upper surface of the input table 40 detected in step S71.
The content to be displayed has a plurality of layouts of the display content corresponding to the size of the arrangement area in advance, and is uniquely determined by the size detected by the size detection process.
As a specific example, an example in which three types of layouts, large, medium, and small, are registered will be described. The projection unit 111 specifies whether the detected size of the upper surface of the input table 40 is large, medium, or small. The projection unit 111 identifies the display content according to the identified classification.
For example, when the classification is large, the selection screen 81 or the display content 82 and the advertisement video and the advertisement image are displayed contents, and when the classification is medium, the selection screen 81 or the display content 82 and the advertisement video are displayed. Is the display content, and when the classification is small, only the selection screen 81 or the display content 82 is the display content.

(ステップS73:投影サイズ決定処理)
投影部111は、ステップS72で特定された配置領域のサイズに応じた表示内容を、表示コンテンツが登録されたレイアウトから特定し、特定したレイアウトの表示コンテンツを検出された入力台の大きさに合わせて拡大表示する。
(Step S73: Projection size determination process)
The projection unit 111 identifies the display content corresponding to the size of the arrangement area identified in step S72 from the layout in which the display content is registered, and matches the display content of the identified layout with the size of the detected input platform. To enlarge and display.

(ステップS74:手続選択処理)
投影部111は、プロジェクタ20により、手続きの選択画面81を入力台40の上に投影表示する。この際、上記例であれば、投影部111は、分類が大の場合には、選択画面81とともに、広告動画及び広告画像を入力台40の上に投影表示する。また、投影部111は、分類が中の場合には、選択画面81とともに、広告動画を入力台40の上に投影表示する。
例えば、分類が中の場合には、図26に示すように、投影部111は、選択画面81と広告動画とを入力台40の上に投影表示する。
すると、利用者によって、行いたい手続きのボタンが電子ペン30によりタッチされ、選択される。この際、利用者が広告動画を見る可能性がある。
(Step S74: Procedure selection process)
The projection unit 111 causes the projector 20 to project and display the procedure selection screen 81 on the input table 40. At this time, in the above example, when the classification is large, the projection unit 111 projects and displays the advertisement moving image and the advertisement image on the input table 40 together with the selection screen 81. Further, when the classification is medium, the projection unit 111 projects and displays the advertisement moving image on the input table 40 together with the selection screen 81.
For example, when the classification is middle, as shown in FIG. 26, the projection unit 111 projects and displays the selection screen 81 and the advertisement moving image on the input table 40.
Then, the user touches and selects the button of the desired procedure with the electronic pen 30. At this time, the user may watch the advertisement video.

(ステップS76:表示内容投影処理)
投影部111は、プロジェクタ20により、ステップS75で読み出された表示内容82を、伝送路60の上に投影表示する。この際、上記例であれば、投影部111は、分類が大の場合には、選択画面81とともに、広告動画及び広告画像を入力台40の上に投影表示する。また、投影部111は、分類が中の場合には、選択画面81とともに、広告動画を入力台40の上に投影表示する。
例えば、分類が中の場合には、図27に示すように、投影部111は、選択画面81と広告動画とを入力台40の上に投影表示する。
その後、図3のステップS2のデータ認識処理が実行される。この際、利用者が広告動画を見る可能性がある。
(Step S76: Display content projection processing)
The projection unit 111 causes the projector 20 to project and display the display content 82 read in step S75 on the transmission path 60. At this time, in the above example, when the classification is large, the projection unit 111 projects and displays the advertisement moving image and the advertisement image on the input table 40 together with the selection screen 81. Further, when the classification is medium, the projection unit 111 projects and displays the advertisement moving image on the input table 40 together with the selection screen 81.
For example, when the classification is medium, as shown in FIG. 27, the projection unit 111 projects and displays the selection screen 81 and the advertisement moving image on the input table 40.
Then, the data recognition process of step S2 of FIG. 3 is performed. At this time, the user may watch the advertisement video.

***実施の形態5の効果***
以上のように、実施の形態5に係るデータ入力装置10は、入力台40の上面の大きさに応じて、表示コンテンツを決定する。これにより、用意された入力台40に応じて適切なコンテンツを投影表示することができる。
***Effect of Embodiment 5***
As described above, the data input device 10 according to the fifth embodiment determines the display content according to the size of the upper surface of the input table 40. As a result, it is possible to project and display appropriate content according to the prepared input table 40.

また、実施の形態5に係るデータ入力装置10は、決定された表示コンテンツを入力台40の上面の大きさに合わせ拡大して投影表示する。 Further, the data input device 10 according to the fifth embodiment enlarges the determined display content in accordance with the size of the upper surface of the input table 40 and projects and displays it.

実施の形態6.
実施の形態6は、複数の手続きを連続して行う場合に、他の手続きで既に入力された内容を利用する点が実施の形態1と異なる。実施の形態6では、この異なる点を説明し、同一の点については説明を省略する。
なお、実施の形態6を実施の形態2〜5と組み合わせることも可能である。
Sixth Embodiment
The sixth embodiment is different from the first embodiment in that, when a plurality of procedures are continuously performed, the contents already input by the other procedures are used. In the sixth embodiment, these different points will be described, and description of the same points will be omitted.
The sixth embodiment can be combined with the second to fifth embodiments.

***動作の説明***
図28及び図5を参照して、実施の形態6に係る投影処理を説明する。
(図28のステップS81:手続選択処理)
実施の形態1と同様に、手続きが選択される。実施の形態6では、1つ以上の手続きが選択される。
具体的には、図5に示すように、投影部111は、プロジェクタ20により、手続きの選択画面81を入力台40の上に表示する。すると、利用者によって、行いたい手続きのボタンが順に電子ペン30によりタッチされ、1つ以上の手続きが選択される。
***Description of operation***
The projection process according to the sixth embodiment will be described with reference to FIGS. 28 and 5.
(Step S81 of FIG. 28: procedure selection process)
The procedure is selected as in the first embodiment. In the sixth embodiment, one or more procedures are selected.
Specifically, as shown in FIG. 5, the projection unit 111 causes the projector 20 to display the procedure selection screen 81 on the input table 40. Then, the user sequentially touches the button of the desired procedure with the electronic pen 30 to select one or more procedures.

投影部111は、ステップS81で選択された各手続きを順に対象の手続きとする。ここでは、投影部111は、ステップS81で選択された順に各手続きを対象とする。 The projection unit 111 sequentially sets each procedure selected in step S81 as a target procedure. Here, the projection unit 111 targets each procedure in the order selected in step S81.

(図28のステップS82:表示内容読込処理)
投影部111は、対象の手続きについての表示内容82を、データベースサーバ50の表示内容記憶部51から読み出す。
(Step S82 of FIG. 28: display content reading process)
The projection unit 111 reads the display content 82 for the target procedure from the display content storage unit 51 of the database server 50.

(図28のステップS83:表示内容投影処理)
投影部111は、プロジェクタ20により、ステップS12で読み出された表示内容82を、入力台40の上に投影表示する。
(Step S83 of FIG. 28: display content projection processing)
The projection unit 111 causes the projector 20 to project and display the display content 82 read in step S12 on the input table 40.

図29を参照して、実施の形態6に係るデータ認識処理を説明する。
(図29のステップS91:手続き数判定処理)
データ認識部112は、図28のステップS81で選択された手続きの数が1つであるか否かを判定する。
データ認識部112は、手続きの数が2つ以上である場合には、処理をステップS92に進める。一方、データ認識部112は、手続きの数が1つである場合には、処理をステップS95に進める。
The data recognition processing according to the sixth embodiment will be described with reference to FIG.
(Step S91 of FIG. 29: procedure number determination processing)
The data recognition unit 112 determines whether or not the number of procedures selected in step S81 of FIG. 28 is one.
If the number of procedures is two or more, the data recognition unit 112 advances the process to step S92. On the other hand, if the number of procedures is one, the data recognition unit 112 advances the process to step S95.

(図29のステップS92:初回手続き判定処理)
データ認識部112は、対象の手続きが初回の手続きであるか否かを判定する。つまり、データ認識部112は、対象の手続きが、図28のステップS81で選択された手続きのうち初めに処理される手続きであるか否かを判定する。
データ認識部112は、対象の手続きが初回の手続きでない場合には、処理をステップS93に進める。一方、データ認識部112は、対象の手続きが初回の手続きである場合には、処理をステップS95に進める。
(Step S92 of FIG. 29: initial procedure determination process)
The data recognition unit 112 determines whether or not the target procedure is the first procedure. That is, the data recognition unit 112 determines whether or not the target procedure is the procedure to be processed first among the procedures selected in step S81 of FIG.
If the target procedure is not the first procedure, the data recognition unit 112 advances the process to step S93. On the other hand, if the target procedure is the first procedure, the data recognition unit 112 advances the process to step S95.

(図29のステップS93:記入内容判定処理)
データ認識部112は、入力内容85が既に対象となった過去手続きに含まれる入力内容85である既出内容であるか否かを判定する。
データ認識部112は、入力内容85が過去手続きで入力された既出内容である場合には、処理をステップS94に進める。一方、データ認識部112は、入力内容85が過去の手続きで入力された内容でない場合には、処理をステップS95に進める。
(Step S93 of FIG. 29: entry content determination process)
The data recognition unit 112 determines whether or not the input content 85 is the already-existing content that is the input content 85 included in the past procedure that has already been targeted.
If the input content 85 is the content already input in the past procedure, the data recognition unit 112 advances the process to step S94. On the other hand, when the input content 85 is not the content input in the past procedure, the data recognition unit 112 advances the process to step S95.

(図29のステップS94:データ読込処理)
データ認識部112は、入力内容85について過去手続きで入力されたデータをメモリ12から読み出し、投影部111に投影表示させる。
具体的には、データ認識部112は、入力内容85について過去手続きで認識された文字のデジタルデータと、入力内容85について過去手続きで特定された軌跡が画像化されたデータとをメモリ12から読み出す。データ認識部112は、読み出されたデジタルデータと画像化されたデータとを投影部111に送信する。すると、投影部111は、デジタルデータが示す文字と、画像化されたデータとを入力台40の上に投影表示する。ここで、画像化されたデータは入力欄86に投影表示され、デジタルデータが示す文字は、入力欄86の付近に投影表示される。
そして、データ認識部112は、処理をステップS98に進める。
(Step S94 of FIG. 29: data reading process)
The data recognition unit 112 reads out the data input in the past procedure for the input content 85 from the memory 12 and causes the projection unit 111 to project and display the data.
Specifically, the data recognition unit 112 reads, from the memory 12, digital data of characters recognized in the past procedure for the input content 85 and data in which the locus specified in the past procedure for the input content 85 is imaged. .. The data recognition unit 112 transmits the read digital data and the imaged data to the projection unit 111. Then, the projection unit 111 projects and displays the characters represented by the digital data and the imaged data on the input table 40. Here, the imaged data is projected and displayed in the input field 86, and the characters indicated by the digital data are projected and displayed near the input field 86.
Then, the data recognition unit 112 advances the process to step S98.

つまり、投影部111は、対象の手続きについての入力内容のうち、複数の手続きのうち既に対象となった過去手続きに含まれる入力内容である既出内容について、過去手続きの入力フォーマットを投影表示した際にデータ認識部112によって認識された文字を既出内容に対応する入力欄86に入力された文字として投影表示する。また、合わせて、投影部111は、既出内容に対応する入力欄86に入力された軌跡を示す画像化されたデータを入力欄86に投影表示する。 That is, when the projection unit 111 projects and displays the input format of the past procedure for the already-existing content that is the input content included in the past procedure that has already become the target among the plurality of procedures among the input content for the target procedure. Then, the characters recognized by the data recognition unit 112 are projected and displayed as the characters input in the input field 86 corresponding to the already-existing contents. In addition, the projection unit 111 also projects and displays the imaged data indicating the trajectory input in the input field 86 corresponding to the already-explained content in the input field 86.

ステップS95からステップS99の処理は、図8のステップS21からステップS25の処理と同じである。但し、ステップS99では、データ認識部112は、全ての入力内容85についての書込みが終了していない場合には、処理を図28のステップS83に戻して、次の入力内容85についての入力フォーマット84を表示させる。 The processing of steps S95 to S99 is the same as the processing of steps S21 to S25 of FIG. However, in step S99, if the writing of all the input contents 85 is not completed, the data recognition unit 112 returns the process to step S83 of FIG. 28, and inputs the input format 84 for the next input contents 85. Is displayed.

なお、ステップS94で読み込まれ、投影表示された内容を変更したい場合には、入力欄86に表示された軌跡を削除して、入力し直せばよい。入力し直されると、ステップS98からステップS95に処理が戻される。そして、入力し直された内容について、ステップS95からステップS97の処理が実行される。その結果、入力し直された軌跡から文字認識され、認識された文字と、入力し直された軌跡を画像化したデータとが入力台40の上に投影表示される。
つまり、ステップS94で既出内容に対応する入力欄86に投影表示された情報が削除され、改めて手書きされた場合には、データ認識部112は、手書きされた文字を認識する。そして、投影部111は、過去手続きの入力フォーマット84を投影表示した際にデータ認識部112によって認識された文字の投影表示を止め、データ認識部112によって新たに認識された文字を投影表示する。
In addition, when it is desired to change the contents read in step S94 and projected and displayed, the locus displayed in the input field 86 may be deleted and the input may be performed again. When the input is performed again, the processing is returned from step S98 to step S95. Then, the processing from step S95 to step S97 is executed for the re-input contents. As a result, characters are recognized from the re-input locus, and the recognized characters and data obtained by imaging the re-input locus are projected and displayed on the input table 40.
That is, when the information projected and displayed in the input field 86 corresponding to the already-existing contents is deleted in step S94 and handwritten again, the data recognition unit 112 recognizes the handwritten character. Then, the projection unit 111 stops the projection display of the character recognized by the data recognition unit 112 when the input format 84 of the past procedure is projected and displayed, and projects and displays the character newly recognized by the data recognition unit 112.

また、データ認識部112は、実施の形態1と同様に、手書きされた軌跡を特定して、特定された軌跡に基づき手書きされた文字を認識し、特定された軌跡と認識された文字とを対応付けて保管する。この際、データ認識部112は、既出内容に対応する入力欄86に手書きされない場合には、過去手続きの入力フォーマット84が示す入力欄86に手書きされた軌跡と、過去手続きの入力フォーマットを投影表示した際にデータ認識部によって認識された文字とを対応付けて保管する。 Further, similarly to the first embodiment, the data recognition unit 112 identifies the handwritten trajectory, recognizes the handwritten character based on the identified trajectory, and identifies the identified trajectory and the recognized character. Correlate and store. At this time, if the data recognition unit 112 does not handwrite in the input field 86 corresponding to the already-existing contents, the handwritten trajectory in the input field 86 indicated by the input format 84 of the past procedure and the input format of the past procedure are projected and displayed. The character recognized by the data recognition unit at that time is stored in association with the character.

図30を参照して、実施の形態6に係る確認処理を説明する。
ステップS101からステップS105の処理は、図10のステップS31からステップS35の処理と同じである。
The confirmation processing according to the sixth embodiment will be described with reference to FIG.
The processing from step S101 to step S105 is the same as the processing from step S31 to step S35 in FIG.

(図30のステップS106:手続き判定処理)
確認処理部113は、未処理の手続きが残っているか否かを判定する。つまり、確認処理部113は、図28のステップS81で選択された手続きのうち、未だ処理がされていない手続きが残っているか否かを判定する。
確認処理部113は、未処理の手続きが残っている場合には、処理を図28のステップS82に戻す。そして、確認処理部113は、投影部111に次の手続きの表示内容82を読み込ませる。一方、確認処理部113は、未処理の手続きが残っていない場合には、処理を終了する。
(Step S106 of FIG. 30: procedure determination process)
The confirmation processing unit 113 determines whether any unprocessed procedure remains. That is, the confirmation processing unit 113 determines whether or not there is any unprocessed procedure among the procedures selected in step S81 of FIG.
The confirmation processing unit 113 returns the process to step S82 of FIG. 28 when the unprocessed procedure remains. Then, the confirmation processing unit 113 causes the projection unit 111 to read the display content 82 of the next procedure. On the other hand, the confirmation processing unit 113 ends the process when there is no unprocessed procedure.

***実施の形態6の効果***
以上のように、実施の形態6に係るデータ入力装置10は、複数の手続きを連続して行う場合に、他の手続きで既に入力された内容を利用する。これにより、利用者は同じ内容を何度も記入する必要がなく、紙を用いて手続きを行う場合に比べて、手続きの手間を減らすことができる。
***Effects of Embodiment 6***
As described above, the data input device 10 according to the sixth embodiment uses the contents already input by another procedure when performing a plurality of procedures in succession. As a result, the user does not have to fill in the same content many times, and the procedure can be reduced compared to the case where the procedure is performed using paper.

実施の形態7.
実施の形態7は、氏名等により筆跡鑑定を行い、本人確認する点が実施の形態1と異なる。実施の形態7では、この異なる点を説明し、同一の点については説明を省略する。
なお、実施の形態7を実施の形態2〜6と組み合わせることも可能である。
Embodiment 7.
The seventh embodiment is different from the first embodiment in that handwriting identification is performed based on a name or the like to confirm the identity. In the seventh embodiment, these different points will be described, and description of the same points will be omitted.
It is also possible to combine the seventh embodiment with the second to sixth embodiments.

***構成の説明***
図31を参照して、実施の形態7に係るデータ入力装置10の構成を説明する。
データ入力装置10は、機能構成要素として、筆跡鑑定部117を備える点が図2に示すデータ入力装置10と異なる。筆跡鑑定部117は、他の機能構成要素と同様に、ソフトウェアによって実現される。なお、筆跡鑑定部117は、他の機能構成要素と同様に、ハードウェアによって実現されてもよい。
***Composition explanation***
The configuration of the data input device 10 according to the seventh embodiment will be described with reference to FIG.
The data input device 10 is different from the data input device 10 shown in FIG. 2 in that the handwriting appraisal unit 117 is provided as a functional component. The handwriting appraisal unit 117 is realized by software like other functional components. The handwriting appraisal unit 117 may be implemented by hardware, like other functional components.

***動作の説明***
図32を参照して、実施の形態7に係る筆跡鑑定処理を説明する。
ステップS111からステップS115の処理は、図10のステップS31からステップS35の処理と同じである。
***Description of operation***
The handwriting appraisal processing according to the seventh embodiment will be described with reference to FIG.
The processing from step S111 to step S115 is the same as the processing from step S31 to step S35 in FIG.

(図32のステップS116:筆跡鑑定処理)
筆跡鑑定部117は、ステップS114でデータベースサーバ50の利用者情報記憶部53に書き込まれたデジタルデータ及び証跡データをもとに筆跡鑑定を行う。
例えば、筆跡鑑定部117は、利用者によって手書きされた氏名及び電話番号を元に筆跡鑑定を行う場合、過去に手書きされた同一利用者の氏名及び電話番号を、デジタルデータを元に特定する。筆跡鑑定部117は、特定された氏名及び電話番号の証跡データと、今回利用者によって手書きされた氏名及び電話番号の証跡データとを比較判定することで筆跡鑑定を行う。
筆跡鑑定部117は、入力欄に手書き入力された文字と過去に手書き入力された文字とを比較することにより、同一利用者により手書きされたと判定したとき、本人確認に関する手続きを終了する。
一方、筆跡鑑定部117は、同一利用者により手書きされたことが判定の結果確認できなければ、事務員に対して通知して、事務員に本人確認をさせる。
(Step S116 of FIG. 32: Handwriting identification processing)
The handwriting appraisal unit 117 performs handwriting appraisal based on the digital data and the trail data written in the user information storage unit 53 of the database server 50 in step S114.
For example, when the handwriting appraisal unit 117 performs handwriting appraisal based on the name and phone number handwritten by the user, the handwriting appraisal unit 117 specifies the name and phone number of the same user handwritten in the past based on the digital data. The handwriting appraisal unit 117 performs handwriting appraisal by comparing and judging the trail data of the specified name and telephone number and the trail data of the name and telephone number handwritten by the user this time.
When the handwriting appraisal unit 117 compares the characters handwritten in the input field with the characters handwritten in the past, when it is determined that the same user is handwritten, the procedure for personal identification is terminated.
On the other hand, if the handwriting appraisal unit 117 cannot confirm that the handwriting has been performed by the same user as a result of the determination, the handwriting appraisal unit 117 notifies the clerk so that the clerk can verify the identity.

筆跡鑑定部117による判定は、例えば氏名と電話番号とのいずれか一方で行うようにしてもよいし、住所等で行うようにしてもよい。 The determination by the handwriting appraisal unit 117 may be performed by using either a name or a telephone number, or by an address or the like.

***実施の形態7の効果***
以上のように、実施の形態7に係るデータ入力装置10は、筆跡鑑定を行う。これにより、入力手続完了後に、本人が手続したことを確認する運用においては、対面による本人確認を省略することができる。
***Effects of Embodiment 7***
As described above, the data input device 10 according to the seventh embodiment performs handwriting identification. This makes it possible to omit face-to-face identification in the operation of confirming that the person has performed the procedure after completing the input procedure.

また、本人確認を入力手続きの最初の段階で行うこととすれば、以降の入力手続について、利用者が過去の手続きで入力した入力内容を既出入力内容に対応する入力欄86に入力された文字として投影することが可能となる。 In addition, if the identity verification is performed at the first stage of the input procedure, in the subsequent input procedures, the input content entered by the user in the past procedure will be input in the input field 86 corresponding to the existing input content. Can be projected as.

実施の形態8.
実施の形態8は、利用者によって発話された申請情報に関するキーワードを取得し、自然言語認識させることで、キーワードに関連する手続を一覧表示する点が実施の形態1と異なる。実施の形態8では、この異なる点を説明し、同一の点については説明を省略する。
なお、実施の形態8を実施の形態2〜7と組み合わせることも可能である。
Eighth embodiment.
The eighth embodiment differs from the first embodiment in that a keyword related to application information uttered by a user is acquired and natural language recognition is performed to display a list of procedures related to the keyword. In the eighth embodiment, these different points will be described, and description of the same points will be omitted.
The eighth embodiment can be combined with the second to seventh embodiments.

***構成の説明***
図33を参照して、実施の形態8に係るデータ入力システム1の構成を説明する。
データ入力システム1は、音声入力装置71と音声出力装置72とを備える点が図1に示すデータ入力システム1と異なる。音声入力装置71は、音声入力のためのマイク装置である。音声出力装置72は、音声データを利用者に伝えるためのスピーカ装置である。
***Composition explanation***
The configuration of the data input system 1 according to the eighth embodiment will be described with reference to FIG.
The data input system 1 differs from the data input system 1 shown in FIG. 1 in that a voice input device 71 and a voice output device 72 are provided. The voice input device 71 is a microphone device for voice input. The audio output device 72 is a speaker device for transmitting audio data to the user.

図34を参照して、実施の形態8に係るデータ入力装置10の構成を説明する。
データ入力装置10は、機能構成要素として、自然言語認識部118を備える点が図2に示すデータ入力装置10と異なる。自然言語認識部118は、他の機能構成要素と同様に、ソフトウェアによって実現される。なお、自然言語認識部118は、他の機能構成要素と同様に、ハードウェアによって実現されてもよい。
また、データベースサーバ50は、自然言語記憶部55の機能を実現する。
The configuration of the data input device 10 according to the eighth embodiment will be described with reference to FIG.
The data input device 10 is different from the data input device 10 shown in FIG. 2 in that a natural language recognition unit 118 is provided as a functional component. The natural language recognition unit 118 is realized by software like other functional components. Note that the natural language recognition unit 118 may be realized by hardware like other functional components.
The database server 50 also realizes the function of the natural language storage unit 55.

***動作の説明***
図35を参照して、実施の形態8に係る自然言語認識処理を説明する。
ステップS123からステップS125の処理は、図4のステップS11からステップS13の処理と同じである。
***Description of operation***
The natural language recognition processing according to the eighth embodiment will be described with reference to FIG.
The processing from step S123 to step S125 is the same as the processing from step S11 to step S13 in FIG.

(図35のステップS121:目的確認処理)
自然言語認識部118は、利用者が発する音声を取得する。取得した利用者の音声は、自然言語記憶部55に記憶される。
利用者に来所の目的を音声発信してもらうために、音声出力装置72から来所目的を質問するようにしてもよいし、看板等により利用者に発話を促すようにしてもよい。
(Step S121 of FIG. 35: purpose confirmation process)
The natural language recognition unit 118 acquires the voice uttered by the user. The acquired voice of the user is stored in the natural language storage unit 55.
In order to have the user voice-transmit the purpose of the visit, the voice output device 72 may ask the purpose of the visit, or the signboard or the like may prompt the user to speak.

(図35のステップS122:手続一覧生成処理)
自然言語認識部118は、取得した利用者の音声からキーワードとなる文字を抽出し、予め登録しているキーワードに関連する手続の一覧として生成する。
(Step S122 of FIG. 35: procedure list generation processing)
The natural language recognition unit 118 extracts a character that is a keyword from the acquired voice of the user and generates a list of procedures related to the keyword that is registered in advance.

すると、ステップS123で、投影部111は、ステップS122で生成された手続きの一覧を示す選択画面81を入力台40の上に表示する。 Then, in step S123, the projection unit 111 displays the selection screen 81 showing the list of procedures generated in step S122 on the input table 40.

例えば、図36に示すように、自然言語認識部118は、利用者が発した音声から「引越」というキーワードを抽出した場合は、「住所変更」や「口座開設」の手続きを表示する一覧を生成する。 For example, as shown in FIG. 36, when the keyword “moving” is extracted from the voice uttered by the user, the natural language recognition unit 118 displays a list displaying procedures for “address change” and “account opening”. To generate.

キーワードを認識できない場合と、認識したキーワードが特別なキーワードである場合と等には、窓口へ利用者を促すメッセージを表示する。 When the keyword cannot be recognized, or when the recognized keyword is a special keyword, a message prompting the user is displayed at the counter.

***実施の形態8の効果***
以上のように、実施の形態8に係るデータ入力装置10は、自然言語認識処理を行う。自然言語認識処理により、手続きのため来所した利用者に来所目的を音声により発してもらうことで、人手を介さず、必要な申請手続の一覧表示を行うことが可能となる。
手続機関によっては、可能な手続き項目は多数あり、どの項目を選択すべきかわからないことが多々発生するが、検索の手間を省くことができる。
***Effects of Embodiment 8***
As described above, the data input device 10 according to the eighth embodiment performs the natural language recognition process. With the natural language recognition processing, it is possible to display a list of necessary application procedures without human intervention by having the user who came to the procedure say the purpose of the visit by voice.
Depending on the procedural body, there are many possible procedural items, and although it is often unclear which item should be selected, it is possible to save the trouble of searching.

また、音声認識によらず来所目的を示すキーワード入力により動作するように構成してもよい。 Further, the operation may be performed by inputting a keyword indicating the purpose of coming to the visit instead of the voice recognition.

実施の形態9.
実施の形態9は、データ入力装置10aが別のデータ入力装置10bとネットワークを介して接続され、利用者と遠隔のオペレータとが投影画面を共有する点が実施の形態1と異なる。実施の形態9では、この異なる点を説明し、同一の点については説明を省略する。
なお、実施の形態9を実施の形態2〜8と組み合わせることも可能である。
Ninth Embodiment
The ninth embodiment differs from the first embodiment in that the data input device 10a is connected to another data input device 10b via a network, and the user and a remote operator share a projection screen. In the ninth embodiment, these different points will be described, and description of the same points will be omitted.
It is also possible to combine the ninth embodiment with the second to eighth embodiments.

***構成の説明***
図37を参照して、実施の形態9に係るデータ入力システム1の構成を説明する。
データ入力システム1は、音声入力装置71と音声出力装置72とテレビカメラ73とを備える点が図1に示すデータ入力システム1と異なる。音声入力装置71は、利用者の音声を取得するためのマイク装置である。音声出力装置72は、音声データを利用者に伝えるためのスピーカ装置である。テレビカメラ73は、利用者の映像を取得するための撮像装置である。
***Composition explanation***
The configuration of the data input system 1 according to the ninth embodiment will be described with reference to FIG.
The data input system 1 is different from the data input system 1 shown in FIG. 1 in that a voice input device 71, a voice output device 72, and a television camera 73 are provided. The voice input device 71 is a microphone device for acquiring the voice of the user. The audio output device 72 is a speaker device for transmitting audio data to the user. The TV camera 73 is an image pickup device for acquiring a user's image.

図38を参照して、実施の形態9に係るデータ入力装置10の構成を説明する。
データ入力装置10は、機能構成要素として、画面共有部119を備える点が図2に示すデータ入力装置10と異なる。画面共有部119は、他の機能構成要素と同様に、ソフトウェアによって実現される。なお、画面共有部119は、他の機能構成要素と同様に、ハードウェアによって実現されてもよい。
The configuration of the data input device 10 according to the ninth embodiment will be described with reference to FIG.
The data input device 10 is different from the data input device 10 shown in FIG. 2 in that a screen sharing unit 119 is provided as a functional component. The screen sharing unit 119 is realized by software like other functional components. The screen sharing unit 119 may be implemented by hardware, like other functional components.

***動作の説明***
図39を参照して、実施の形態9に係る画面共有処理を説明する。
ここでは、データ入力装置10aとデータ入力装置10bとがネットワークを介して接続されており、データ入力装置10aが利用者側に設置され、データ入力装置10bがオペレータ側に設置されているとする。
ステップS132とステップS133の処理は、図3のステップS2とステップS3の処理と同じである。
***Description of operation***
The screen sharing processing according to the ninth embodiment will be described with reference to FIG.
Here, it is assumed that the data input device 10a and the data input device 10b are connected via a network, the data input device 10a is installed on the user side, and the data input device 10b is installed on the operator side.
The processing of steps S132 and S133 is the same as the processing of steps S2 and S3 of FIG.

(図39のステップS131:画面共有処理)
投影部111は、利用者によって選択された手続きについて、プロジェクタ20により、入力内容85と入力欄86とが指定された入力フォーマット84を入力台40の上に投影表示する。すると、画面共有部119は、データ入力装置10aとネットワークを介して接続されたデータ入力装置10bに入力フォーマット84を送信する。データ入力装置10bの投影部は、送信された入力フォーマット84を投影面の上に投影表示し、データ入力装置10と映像を共有する。
(Step S131 of FIG. 39: screen sharing process)
The projection unit 111 projects and displays the input format 84 in which the input content 85 and the input field 86 are specified by the projector 20 on the input table 40 for the procedure selected by the user. Then, the screen sharing unit 119 transmits the input format 84 to the data input device 10b connected to the data input device 10a via the network. The projection unit of the data input device 10b projects and displays the transmitted input format 84 on the projection surface, and shares the image with the data input device 10.

なお、ステップS132では、データ入力装置10a側で入力欄86に手書きされた軌跡及び認識された文字は、データ入力装置10bに送信され、データ入力装置10bの投影部によって投影面の上に投影表示される。また、データ入力装置10b側で入力欄86に手書きされた軌跡及び認識された文字は、データ入力装置10aに送信され、データ入力装置10の投影部111によって入力台40の上に投影表示される。
つまり、データ入力装置10a側とデータ入力装置10b側との両方で入力欄86に入力することが可能であり、入力された内容はデータ入力装置10aとデータ入力装置10bとで共有される。
In step S132, the locus handwritten in the input field 86 and the recognized character on the data input device 10a side are transmitted to the data input device 10b, and projected and displayed on the projection surface by the projection unit of the data input device 10b. To be done. The locus handwritten and the recognized character in the input box 86 on the data input device 10b side are transmitted to the data input device 10a and projected and displayed on the input table 40 by the projection unit 111 of the data input device 10. ..
That is, both the data input device 10a side and the data input device 10b side can input in the input field 86, and the input contents are shared by the data input device 10a and the data input device 10b.

例えば、利用者が投影面に「田中」と記載すると、記載すると同時に、異なるデータ入力装置10bの投影面の上に表示される。
また、異なるデータ入力装置10bの投影面で、「田中」を「鈴木」に変更すると、変更したと同時に、利用者の投影面に記載された「田中」は「鈴木」に変更表示される。
For example, when the user writes "Tanaka" on the projection surface, the user simultaneously writes it and is displayed on the projection surface of a different data input device 10b.
Further, when "Tanaka" is changed to "Suzuki" on a different projection surface of the data input device 10b, "Tanaka" written on the projection surface of the user is changed to "Suzuki" at the same time as the change.

***実施の形態9の効果***
以上のように、実施の形態9に係るデータ入力装置10aは、画面共有処理を行う。これにより、異なるデータ入力装置10bをオペレータが扱うことにより、手続き書類の書き方がわからない利用者に対して、音声入力装置71と音声出力装置72及びテレビカメラ73を使った説明だけでなく、手書きによる説明を行うことが可能となる。
***Effects of Embodiment 9***
As described above, the data input device 10a according to the ninth embodiment performs the screen sharing process. As a result, when the operator handles the different data input device 10b, not only the explanation using the voice input device 71, the voice output device 72, and the television camera 73 but also the handwriting is given to the user who does not know how to write the procedure document. It becomes possible to explain.

利用者に代わって、代筆を行う運用では、オペレータがその場にいなくても対応することが可能となる。 In the operation of writing a copy on behalf of the user, it is possible to deal with it even if the operator is not present.

1 データ入力システム、10 データ入力装置、11 プロセッサ、12 メモリ、13 ストレージ、14 通信インタフェース、15 処理回路、111 投影部、112 データ認識部、113 確認処理部、114 統計部、115 配置判定部、116 表示エリア認識部、20 プロジェクタ、21 投影面、30 電子ペン、40 入力台、50 データベースサーバ、60 伝送路、70 撮像装置、81 選択画面、82 表示内容、83 一覧、84 入力フォーマット、85 入力内容、86 入力欄、87 手続書類のフォーマット、88 確認データ、89 参照情報。 1 data input system, 10 data input device, 11 processor, 12 memory, 13 storage, 14 communication interface, 15 processing circuit, 111 projection unit, 112 data recognition unit, 113 confirmation processing unit, 114 statistical unit, 115 placement determination unit, 116 display area recognition unit, 20 projector, 21 projection surface, 30 electronic pen, 40 input stand, 50 database server, 60 transmission line, 70 imaging device, 81 selection screen, 82 display content, 83 list, 84 input format, 85 input Contents, 86 input field, 87 procedure document format, 88 confirmation data, 89 reference information.

Claims (5)

複数の入力内容と、前記複数の入力内容それぞれについての入力欄とを示す入力フォーマットを入力台の上に投影表示する投影部と、
前記投影部が投影表示した前記入力欄に利用者からの手書き文字の入力を受け付け、前記手書き文字をデジタルデータとして認識するデータ認識部と、
利用者毎に、前記複数の入力内容それぞれについての前記手書き文字の画像と、前記データ認識部によって前記手書き文字から認識されたデジタルデータとの組利用者情報として記憶する利用者情報記憶部と、
処理対象の入力欄に新たに手書き文字が入力されると、前記利用者情報記憶部に記憶されたデジタルデータであって、前記処理対象の入力欄に対応する入力内容のデジタルデータから、前記処理対象の入力欄に新たに入力された手書き文字から認識されたデジタルデータを特定し、特定されたデジタルデータと同じ組の手書き文字の画像と、前記新たに入力された手書き文字とを比較することにより、前記新たに入力された手書き文字に合致する前記利用者情報を特定する筆跡鑑定部と
を備え
前記筆跡鑑定部により、前記利用者により入力された同一の入力内容が前記利用者情報記憶部に記憶されていることが判明したとき、
前記投影部が新たな入力フォーマットを投影表示する際に、前記利用者情報記憶部に記憶された前記入力内容の前記デジタルデータを前記新たな入力フォーマットの入力欄に入力された文字として投影表示する
データ入力装置。
A projection unit for projecting and displaying an input format indicating a plurality of input contents and an input field for each of the plurality of input contents on an input table;
A data recognition unit that accepts input of handwritten characters from a user in the input field projected and displayed by the projection unit and recognizes the handwritten characters as digital data.
A user information storage unit that stores, as user information, a set of the image of the handwritten character for each of the plurality of input contents and digital data recognized from the handwritten character by the data recognition unit, for each user. ,
When a new handwritten character is input to the input field of the processing target, the digital data stored in the user information storage unit, from the digital data of the input content corresponding to the input field of the processing target, identify the digital data recognized from the newly input handwritten character in the input field of the subject, comparing the image of the same set of handwritten characters with a particular digital data, and said newly input handwritten character According to the above, a handwriting appraisal unit that identifies the user information that matches the newly input handwritten character ,
When it is determined by the handwriting appraisal unit that the same input content input by the user is stored in the user information storage unit,
When the projection unit projects and displays a new input format, the digital data of the input content stored in the user information storage unit is projected and displayed as characters input in the input field of the new input format. Data entry device.
前記筆跡鑑定部により、前記利用者により入力された同一の入力内容が前記利用者情報記憶部に記憶されていることが判明したとき、
前記投影部が前記新たな入力フォーマットを投影表示する際に、前記利用者情報記憶部に記憶された前記入力内容の前記画像を前記新たな入力フォーマットの入力欄に投影表示する
請求項に記載のデータ入力装置。
When it is determined by the handwriting appraisal unit that the same input content input by the user is stored in the user information storage unit,
When the projection unit is projected and displayed a new input formats above, wherein the image of the input contents stored in the user information storage unit in claim 1 for projecting the display in the input field of the new input formats Data input device.
前記筆跡鑑定部は、手書きされ前記データ認識部で認識された文字の前記デジタルデータにより、前記利用者情報記憶部に記憶された過去の手続きで入力された前記デジタルデータを検索し、このデジタルデータに紐付く前記画像と前記新たに入力された手書き文字を比較することにより筆跡鑑定を行うことを特徴とする
請求項1又は2に記載のデータ入力装置。
The handwriting appraisal unit retrieves the digital data input by the past procedure stored in the user information storage unit by the digital data of the characters handwritten and recognized by the data recognition unit, and the digital data 3. The data input device according to claim 1, wherein the handwriting identification is performed by comparing the image associated with the handwriting with the newly input handwritten character.
投影部が、複数の入力内容と、前記複数の入力内容それぞれについての入力欄とを示す入力フォーマットを入力台の上に投影表示し、
データ認識部が、前記投影部が投影表示した前記入力欄に利用者からの手書き文字の入力を受け付け、前記手書き文字をデジタルデータとして認識し、
利用者情報記憶部が、利用者毎に、前記複数の入力内容それぞれについての前記手書き文字の画像と、前記データ認識部によって前記手書き文字から認識されたデジタルデータとの組利用者情報として記憶し、
筆跡鑑定部が、処理対象の入力欄に新たに手書き文字が入力されると、前記利用者情報記憶部に記憶されたデジタルデータであって、前記処理対象の入力欄に対応する入力内容のデジタルデータから、前記処理対象の入力欄に新たに入力された手書き文字から認識されたデジタルデータを特定し、特定されたデジタルデータと同じ組の手書き文字の画像と、前記新たに入力された手書き文字とを比較することにより、前記新たに入力された手書き文字に合致する前記利用者情報を特定し
前記筆跡鑑定部により、前記利用者により入力された同一の入力内容が前記利用者情報記憶部に記憶されていることが判明したとき、
前記投影部が新たな入力フォーマットを投影表示する際に、前記利用者情報記憶部に記憶された前記入力内容の前記デジタルデータを前記新たな入力フォーマットの入力欄に入力された文字として投影表示するデータ入力方法。
The projection unit projects and displays an input format indicating a plurality of input contents and an input field for each of the plurality of input contents on an input table,
The data recognition unit accepts input of handwritten characters from the user in the input field projected and displayed by the projection unit, and recognizes the handwritten characters as digital data,
The user information storage unit stores, for each user, a set of an image of the handwritten character for each of the plurality of input contents and digital data recognized from the handwritten character by the data recognition unit as user information. Then
When the handwriting appraisal unit newly inputs a handwritten character in the input field to be processed, the handwritten character is digital data stored in the user information storage unit, and digital data of the input content corresponding to the input field to be processed. From the data, the digital data recognized from the newly input handwritten character in the input field of the processing target is specified, the image of the same set of handwritten characters as the specified digital data, and the newly input handwritten character By comparing with, by specifying the user information that matches the newly input handwritten character ,
When it is determined by the handwriting appraisal unit that the same input content input by the user is stored in the user information storage unit,
When the projection unit projects and displays a new input format, the digital data of the input content stored in the user information storage unit is projected and displayed as characters input in the input field of the new input format. Data entry method.
コンピュータを、請求項1〜のいずれか1項に記載のデータ入力装置として機能させる
データ入力プログラム。
Data input program causing a computer to function as a data input device according to any one of claims 1-3.
JP2019124316A 2019-07-03 2019-07-03 Data input device, data input method, and data input program Active JP6734445B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019124316A JP6734445B2 (en) 2019-07-03 2019-07-03 Data input device, data input method, and data input program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019124316A JP6734445B2 (en) 2019-07-03 2019-07-03 Data input device, data input method, and data input program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2018017137A Division JP6553217B1 (en) 2018-02-02 2018-02-02 Data input device, data input program and data input system

Publications (2)

Publication Number Publication Date
JP2019175509A JP2019175509A (en) 2019-10-10
JP6734445B2 true JP6734445B2 (en) 2020-08-05

Family

ID=68167046

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019124316A Active JP6734445B2 (en) 2019-07-03 2019-07-03 Data input device, data input method, and data input program

Country Status (1)

Country Link
JP (1) JP6734445B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114092942A (en) * 2021-11-26 2022-02-25 常州新途软件有限公司 Vehicle-mounted embedded handwriting input method

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3895406B2 (en) * 1996-03-12 2007-03-22 株式会社東邦ビジネス管理センター Data processing apparatus and data processing method
JPH11328288A (en) * 1998-05-19 1999-11-30 Dainippon Printing Co Ltd Electronic application and electronic slip distribution service system
JP2007304851A (en) * 2006-05-11 2007-11-22 Realit Co Ltd Document input terminal, document management system, document management method, and document management program
JP2011170757A (en) * 2010-02-22 2011-09-01 Nomura Research Institute Ltd Management server for inputting personal information, client terminal, personal information input system, and program
US9141955B2 (en) * 2010-06-23 2015-09-22 The Western Union Company Biometrically secured user input for forms
US9767088B2 (en) * 2013-03-07 2017-09-19 Ricoh Company, Ltd. Stroke autocompletion in a form

Also Published As

Publication number Publication date
JP2019175509A (en) 2019-10-10

Similar Documents

Publication Publication Date Title
US10572779B2 (en) Electronic information board apparatus, information processing method, and computer program product
US9785627B2 (en) Automated form fill-in via form retrieval
JP2006236342A (en) Method and system for validating multimedia electronic forms
US20140233837A1 (en) Systems and methods for storing image properties for recreating an image
JP7206729B2 (en) Information processing device and program
US9031308B2 (en) Systems and methods for recreating an image using white space and check element capture
WO2021023085A1 (en) Watermark adding method and apparatus, watermark recognition method and apparatus, and electronic device
CN111062377B (en) Question number detection method, system, storage medium and electronic equipment
JP6734445B2 (en) Data input device, data input method, and data input program
JP6553217B1 (en) Data input device, data input program and data input system
US20150138077A1 (en) Display system and display controll device
US20150227787A1 (en) Photograph billpay tagging
JP6868665B2 (en) Data entry device, data entry method and data entry program
JP6676121B2 (en) Data input device and data input program
WO2021038708A1 (en) Cartoon machine translation device, cartoon parallel translation database generation device, cartoon machine translation method, and program
CN110909723B (en) Information processing apparatus and computer-readable storage medium
JP6549209B2 (en) Data input device and data input program
JP5527947B2 (en) Information processing apparatus, information processing system, and information processing program
JP2018136709A (en) Data input device, data input program and data input system
JP6840811B1 (en) Questionnaire input device, questionnaire input method and questionnaire input program
CN113495836A (en) Page detection method and device for page detection
US12039504B1 (en) Mobile check deposit
JP6682827B2 (en) Information processing apparatus and information processing program
JP7333759B2 (en) Image data generation system, image data generation method and computer program
KR101679295B1 (en) Complex smart device and information processing method using the same

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190703

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200303

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200228

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200402

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200630

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200709

R150 Certificate of patent or registration of utility model

Ref document number: 6734445

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250