JP6734445B2 - Data input device, data input method, and data input program - Google Patents
Data input device, data input method, and data input program Download PDFInfo
- Publication number
- JP6734445B2 JP6734445B2 JP2019124316A JP2019124316A JP6734445B2 JP 6734445 B2 JP6734445 B2 JP 6734445B2 JP 2019124316 A JP2019124316 A JP 2019124316A JP 2019124316 A JP2019124316 A JP 2019124316A JP 6734445 B2 JP6734445 B2 JP 6734445B2
- Authority
- JP
- Japan
- Prior art keywords
- input
- data
- unit
- user
- digital data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 219
- 238000012545 processing Methods 0.000 claims description 98
- 238000013479 data entry Methods 0.000 claims 2
- 230000008569 process Effects 0.000 description 77
- 238000012790 confirmation Methods 0.000 description 55
- 230000006870 function Effects 0.000 description 22
- 238000010586 diagram Methods 0.000 description 17
- 238000012986 modification Methods 0.000 description 11
- 230000004048 modification Effects 0.000 description 11
- 230000000694 effects Effects 0.000 description 9
- 230000007547 defect Effects 0.000 description 8
- 239000000203 mixture Substances 0.000 description 8
- 230000002265 prevention Effects 0.000 description 8
- 230000008859 change Effects 0.000 description 7
- 230000007812 deficiency Effects 0.000 description 7
- 238000012015 optical character recognition Methods 0.000 description 6
- 238000003384 imaging method Methods 0.000 description 5
- 238000004891 communication Methods 0.000 description 4
- 230000002950 deficient Effects 0.000 description 4
- 230000005540 biological transmission Effects 0.000 description 3
- 238000012937 correction Methods 0.000 description 3
- 238000001514 detection method Methods 0.000 description 2
- 230000002159 abnormal effect Effects 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Images
Landscapes
- Collating Specific Patterns (AREA)
- Character Discrimination (AREA)
- User Interface Of Digital Computer (AREA)
Description
この発明は、手続書類に記入する内容の入力技術に関する。 The present invention relates to a technique for inputting contents to be filled in a procedure document.
金融機関及び役所といった場所では、利用者が、各種手続書類に必要事項を記入して、窓口に提出する。しかし、利用者は、手続書類の記入に関して不明点がある場合がある。この場合、利用者は、不明点を事務員に質問した上で手続書類に記入する必要がある。事務員に質問しながら手続書類に記入することは、利用者にとって非常に手間がかかる。また、質問を受ける事務員にも手間がかかる。 At places such as financial institutions and government offices, users fill out the necessary items in various procedure documents and submit them to the counter. However, the user may have some questions regarding the entry of the procedure documents. In this case, the user needs to ask the clerk about any questions and then fill in the procedure documents. It is very troublesome for the user to fill out the procedure documents while asking the clerk a question. Also, it takes time for the clerk who receives the question.
特許文献1には、手続書類に対して説明を投影することが記載されている。特許文献1では、これにより、利用者が手続書類に記入することをサポートして、効率的に手続書類に記入できるようにしている。
環境保護といった観点から紙の使用量を減らす、いわゆるペーパレス化が進められている。特許文献1に記載された方法では、手続書類に入力することが前提となっている。そのため、紙の使用量は減っていない。
利用者にコンピュータを操作してもらい、データを入力してもらうことにより、ペーパレス化を進めることが考えられる。しかし、利用者によっては、コンピュータを操作することが苦手な場合がある。この場合、利用者及び事務員の手間が増えてしまう可能性がある。
この発明は、手続の手間を増やすことなく、また紙での手続きに慣れた利用者に与える操作上の違和感を抑えながら、紙の使用量を減らすことを可能にすることを目的とする。
From the viewpoint of environmental protection, so-called paperless is being promoted to reduce the amount of paper used. The method described in
It may be possible to promote paperlessness by having a user operate a computer and input data. However, some users are not good at operating a computer. In this case, the labor of the user and the clerical worker may increase.
An object of the present invention is to make it possible to reduce the amount of paper used without increasing the labor of the procedure and suppressing the discomfort in operation given to the user who is accustomed to the paper procedure.
この発明に係るデータ入力装置は、
入力内容と入力欄とを示す入力フォーマットを入力台の上に投影表示する投影部と、
前記投影部が投影表示した前記入力欄に利用者からの手書き文字の入力を受け付け、前記手書き文字をデジタルデータとして認識するデータ認識部と、
利用者情報として、利用者に対応する前記手書き文字の画像及び前記デジタルデータを記憶する利用者情報記憶部と、
前記利用者から新たに入力された手書き文字と前記利用者情報記憶部に記憶された前記画像とを比較することにより、前記新たに入力された手書き文字に合致する前記利用者情報を特定する筆跡鑑定部とを
備える。
The data input device according to the present invention is
A projection unit for projecting and displaying an input format indicating input contents and input fields on an input table;
A data recognition unit that accepts input of handwritten characters from a user in the input field projected and displayed by the projection unit and recognizes the handwritten characters as digital data.
As user information, a user information storage unit that stores the image of the handwritten character corresponding to the user and the digital data,
A handwriting for identifying the user information that matches the newly input handwritten character by comparing the handwritten character newly input by the user with the image stored in the user information storage unit. And an appraisal section.
前記筆跡鑑定部により、前記利用者により入力された同一の入力内容が前記利用者情報記憶部に記憶されていることが判明したとき、
前記投影部が新たな入力フォーマットを投影表示する際に、前記利用者情報記憶部に記憶された前記入力内容の前記デジタルデータを前記新たな入力フォーマットの入力欄に入力された文字として投影表示する。
When it is determined by the handwriting appraisal unit that the same input content input by the user is stored in the user information storage unit,
When the projection unit projects and displays a new input format, the digital data of the input content stored in the user information storage unit is projected and displayed as characters input in the input field of the new input format. ..
前記筆跡鑑定部により、前記利用者により入力された同一の入力内容が前記利用者情報記憶部に記憶されていることが判明したとき、
前記投影部が前記新たな入力フォーマットを投影表示する際に、前記利用者情報記憶部に記憶された前記入力内容の前記画像を前記新たな入力フォーマットの入力欄に投影表示する。
When it is determined by the handwriting appraisal unit that the same input content input by the user is stored in the user information storage unit,
When the projection unit projects and displays the new input format, the image of the input content stored in the user information storage unit is projected and displayed in the input field of the new input format.
前記投影部は、前記利用者によって過去に前記入力欄に入力された入力途中の手書き文字の画像を、前記入力欄に投影表示する。 The projection unit projects and displays, in the input field, an image of a handwritten character that has been input in the input field by the user in the middle of input.
前記筆跡鑑定部は、手書きされ前記データ認識部で認識された文字の前記デジタルデータにより、前記利用者情報記憶部に記憶された過去の手続きで入力された前記デジタルデータを検索し、このデジタルデータに紐付く前記画像と前記新たに入力された手書き文字を比較することにより筆跡鑑定を行うことを特徴とする。 The handwriting appraisal unit retrieves the digital data input by the past procedure stored in the user information storage unit by the digital data of the characters handwritten and recognized by the data recognition unit, and the digital data It is characterized in that handwriting identification is performed by comparing the above-mentioned image associated with the above with the newly input handwritten character.
この発明に係るデータ入力方法は、
投影部が、入力内容と入力欄とを示す入力フォーマットを入力台の上に投影表示し、
データ認識部が、前記投影部が投影表示した前記入力欄に利用者からの手書き文字の入力を受け付け、前記手書き文字をデジタルデータとして認識し、
利用者情報記憶部が、利用者情報として、利用者に対応する前記手書き文字の画像及び前記デジタルデータを記憶し、
筆跡鑑定部が、前記利用者から新たに入力された手書き文字と前記利用者情報記憶部に記憶された前記画像とを比較することにより、前記新たに入力された手書き文字に合致する前記利用者情報を特定する。
The data input method according to the present invention is
The projection unit projects and displays the input format indicating the input content and the input field on the input table,
The data recognition unit accepts input of handwritten characters from the user in the input field projected and displayed by the projection unit, and recognizes the handwritten characters as digital data,
A user information storage unit stores, as user information, the image of the handwritten character and the digital data corresponding to the user,
The handwriting appraisal unit compares the handwritten character newly input by the user with the image stored in the user information storage unit, so that the user who matches the newly input handwritten character Identify the information.
この発明に係るデータ入力プログラムは、
コンピュータを、データ入力装置として機能させる。
A data input program according to the present invention is
Make the computer function as a data input device.
この発明では、入力フォーマットを入力台の上に投影表示し、入力フォーマットの入力欄に手書きされた文字を認識する。これにより、紙の使用量を減らすことが可能である。また、利用者は、手続書類に文字を記入する場合と同じように、入力欄に文字を手書きすればよく、操作上の違和感も少なく、手続の手間が増えることもない。
特に、この発明では、利用者から新たに入力された手書き文字が入力されると、利用者情報記憶部に記憶された画像とを比較することにより、新たに入力された手書き文字に合致する前記利用者情報を特定する。これにより、同じ利用者によって過去に入力された入力内容を特定することが可能になる。
According to the present invention, the input format is projected and displayed on the input table, and the handwritten character in the input field of the input format is recognized. This makes it possible to reduce the amount of paper used. Further, the user only has to handwrite the characters in the input field, as in the case of writing the characters in the procedure document, and there is little discomfort in the operation, and the trouble of the procedure does not increase.
In particular, according to the present invention, when a handwritten character newly input by the user is input, the handwritten character that matches the newly input handwritten character is compared by comparing with an image stored in the user information storage unit. Specify user information. As a result, it becomes possible to specify the input contents input in the past by the same user.
実施の形態1.
***構成の説明***
図1を参照して、実施の形態1に係るデータ入力システム1の構成を説明する。
データ入力システム1は、データ入力装置10と、プロジェクタ20と、電子ペン30と、入力台40と、データベースサーバ50とを備える。データ入力装置10と、プロジェクタ20及びデータベースサーバ50とは、伝送路60を介して接続されている。
***Composition explanation***
The configuration of the
The
データ入力装置10は、PC(Personal Computer)といったコンピュータである。プロジェクタ20は、データ入力装置10の制御に従い、入力フォーマットといったデータを入力台40の上に投影表示する装置である。電子ペン30は、入力台40に投影表示された入力フォーマットに対して入力する装置であり、文字(文字とは、文字、数字、図形、記号およびチェックマークを含む)を手書きし、ボタンをクリックするといった操作をするための装置である。入力台40は、プロジェクタ20によってデータが投影表示される台である。データベースサーバ50は、入力フォーマットといったデータを記憶するコンピュータである。
The
図2を参照して、実施の形態1に係るデータ入力装置10の構成を説明する。
データ入力装置10は、プロセッサ11と、メモリ12と、ストレージ13と、通信インタフェース14とのハードウェアを備える。プロセッサ11は、信号線を介して他のハードウェアと接続され、これら他のハードウェアを制御する。
The configuration of the
The
プロセッサ11は、プロセッシングを行うIC(Integrated Circuit)である。プロセッサ11は、具体例としては、CPU(Central Processing Unit)、DSP(Digital Signal Processor)、GPU(Graphics Processing Unit)である。
The
メモリ12は、データを一時的に記憶する記憶装置である。メモリ12は、具体例としては、SRAM(Static Random Access Memory)、DRAM(Dynamic Random Access Memory)である。
The
ストレージ13は、データを保管する記憶装置である。ストレージ13は、具体例としては、HDD(Hard Disk Drive)である。また、ストレージ13は、SD(登録商標,Secure Digital)メモリカード、CF(CompactFlash)、NANDフラッシュ、フレキシブルディスク、光ディスク、コンパクトディスク、ブルーレイ(登録商標)ディスク、DVD(Digital Versatile Disk)といった可搬記憶媒体であってもよい。
The
通信インタフェース14は、プロジェクタ20及びデータベースサーバ50といった外部の装置と通信するためのインタフェースである。通信インタフェース14は、具体例としては、Ethernet(登録商標)、USB(Universal Serial Bus)、HDMI(登録商標,High−Definition Multimedia Interface)のポートである。
The
データ入力装置10は、機能構成要素として、投影部111と、データ認識部112と、確認処理部113とを備える。投影部111と、データ認識部112と、確認処理部113との機能はソフトウェアにより実現される。
ストレージ13には、投影部111と、データ認識部112と、確認処理部113との機能を実現するプログラムが記憶されている。このプログラムは、プロセッサ11によりメモリ12に読み込まれ、プロセッサ11によって実行される。これにより、投影部111と、データ認識部112と、確認処理部113との機能が実現される。
The
The
図2では、プロセッサ11は、1つだけ示されている。しかし、データ入力装置10は、プロセッサ11を代替する複数のプロセッサを備えていてもよい。これら複数のプロセッサは、投影部111と、データ認識部112と、確認処理部113との機能を実現するプログラムの実行を分担する。それぞれのプロセッサは、プロセッサ11と同じように、プロセッシングを行うICである。
In FIG. 2, only one
データベースサーバ50は、表示内容記憶部51と、フォーマット記憶部52と、利用者情報記憶部53との機能を実現する。
The
***動作の説明***
図3から図13を参照して、実施の形態1に係るデータ入力システム1の動作を説明する。
実施の形態1に係るデータ入力システム1の動作は、実施の形態1に係るデータ入力方法に相当する。また、実施の形態1に係るデータ入力システム1の動作は、実施の形態1に係るデータ入力プログラムの処理に相当する。
***Description of operation***
The operation of the
The operation of the
(図3のステップS1:投影処理)
投影部111は、利用者によって選択された手続きについて、プロジェクタ20により、入力内容85と入力欄86とが指定された入力フォーマット84を入力台40の上に投影表示する。
(Step S1: projection process in FIG. 3)
The
図4から図7を参照して、実施の形態1に係る投影処理を説明する。
(図4のステップS11:手続選択処理)
図5に示すように、投影部111は、プロジェクタ20により、手続きの選択画面81を入力台40の上に表示する。選択画面81は、選択可能な手続きのボタンが示されている。図5では、手続きのボタンとして、口座開設と、預金引出と、住所変更と、名義変更と、印鑑変更と、振込とが示されている。選択画面81は、入力台40の上におけるプロジェクタ20の投影可能な投影面21の一部に表示される。
すると、利用者によって、行いたい手続きのボタンが電子ペン30によりタッチされ、選択される。
The projection process according to the first embodiment will be described with reference to FIGS. 4 to 7.
(Step S11 of FIG. 4: procedure selection process)
As shown in FIG. 5, the
Then, the user touches and selects the button of the desired procedure with the electronic pen 30.
(図4のステップS12:表示内容読込処理)
投影部111は、ステップS11で選択された手続きについての表示内容82を、データベースサーバ50の表示内容記憶部51から読み出す。
図6に示すように、表示内容記憶部51には、手続き毎に、表示内容82が記憶されている。表示内容82は、対象の手続きについての入力内容85の入力順を示す一覧83と、各入力内容85についての入力フォーマット84とを含む。
例えば、手続きが口座開設の場合には、一覧83は、入力内容85が、氏名、住所、生年月日、電話番号、金額の入力順であることを示す。そして、表示内容82には、氏名と、住所と、生年月日と、電話番号と、金額とについて、入力フォーマット84が含まれている。
(Step S12 in FIG. 4: display content reading process)
The
As shown in FIG. 6, the display
For example, when the procedure is account opening, the
(図4のステップS13:表示内容投影処理)
投影部111は、プロジェクタ20により、ステップS12で読み出された表示内容82を、入力台40の上に投影表示する。
図7に示すように、投影部111は、ステップS11で口座開設が選択された場合、一覧83と、入力順が先頭の入力内容85である氏名についての入力フォーマット84を投影表示する。一覧83は、複数の入力内容85が入力順に並べられ、星印によって入力対象になっている入力内容85が示されている。入力フォーマット84は、入力内容85と入力欄86とを示す。
(Step S13 of FIG. 4: display content projection processing)
The
As shown in FIG. 7, when the account opening is selected in step S11, the
この際、投影部111は、入力内容85に応じた説明と入力例との少なくともいずれかを入力台40の上に投影表示してもよい。投影部111は、入力方法を説明した動画を入力台40の上に投影表示してもよい。
At this time, the
また、図7に示すように、投影部111は、表示内容の拡大及び縮小のボタンを表示してもよい。投影部111は、拡大ボタンがタッチされた場合、表示内容82全体を拡大して表示する。つまり、図7に示すように、表示内容82は投影面21の一部に表示されているため、表示内容82全体を拡大して表示することが可能である。また、投影部111は、縮小ボタンがタッチされた場合、表示内容82全体を縮小して表示する。
Further, as shown in FIG. 7, the
(図3のステップS2:データ認識処理)
データ認識部112は、ステップS1で投影部111によって投影表示された入力フォーマット84の入力欄86に手書きされた文字を認識する。
(Step S2 of FIG. 3: data recognition processing)
The
図8から図9を参照して、実施の形態1に係るデータ認識処理を説明する。
(図8のステップS21:認識処理)
利用者によって、入力欄86に入力内容85に応じた内容が電子ペン30により手書きされる。例えば、図7に示すように、氏名についての入力フォーマット84が投影表示されている場合には、入力欄86に利用者の氏名が手書きされる。
データ認識部112は、入力欄86に手書きされる度に、手書きされた文字を認識する。つまり、データ認識部112は、入力欄86に一筆手書きされる度に、文字を認識し直す。
この際、まず、データ認識部112は、電子ペン30の位置の軌跡を特定する。位置の軌跡を特定する方法はどのような方法でもよい。例えば、データ認識部112が電子ペン30と通信することにより、位置の軌跡を特定してもよいし、プロジェクタ20により入力台40の上に赤外線を張り巡らし、電子ペン30の位置の軌跡を特定してもよい。なお、赤外線を用いる場合には、電子ペン30ではなく、指等により文字を書くことも可能である。
次に、データ認識部112は、特定された軌跡に基づきOCR(Optical Character Reader)処理を行い、手書きされた文字を認識して文字コードに変換する。OCR処理とは、手書きや印刷された文字を光学的に読み取り、コンピュータが利用できる文字コードに変換する処理である。データ認識部112は、どのようなOCRソフトウェアを使用してもよい。例えば、データ認識部112は、書かれた文字の形状と、書き順と等を考慮して、文字を認識するOCRソフトウェアを使用する。
The data recognition processing according to the first embodiment will be described with reference to FIGS. 8 to 9.
(Step S21 of FIG. 8: recognition process)
The user writes the content corresponding to the
The
At this time, first, the
Next, the
(図8のステップS22:不備判定処理)
データ認識部112は、ステップS21で認識された文字について不備があるか否かを判定する。例えば、データ認識部112は、数値を入力する入力欄86に対して数値以外の文字が入力された場合には、不備があると判定する。
(Step S22 of FIG. 8: Deficiency determination process)
The
(図8のステップS23:画像化処理)
データ認識部112は、ステップS21で特定された軌跡を画像化して、画像化された軌跡を投影部111に送信する。また、データ認識部112は、ステップS21でOCR処理により認識された文字を投影部111に送信する。
例えば、図7に示すように、入力欄86に、画像化された軌跡を表示する。また、OCR処理により文字列変換された文字を、入力欄86の下に表示している。
(Step S23 of FIG. 8: imaging process)
The
For example, as shown in FIG. 7, an imaged locus is displayed in the
データ認識部112は、ステップS22で不備があると判定された場合には、不備があることを利用者に通知して、修正を促す。
例えば、データ認識部112は、ステップS22で不備があると判定された場合には、文字列変換された文字とともに、不備があることを示すデータも投影部111に送信する。投影部111は、認識された文字に印をつけて投影表示するといった方法により、利用者に不備があることを通知する。
When it is determined in step S22 that there is a defect, the
For example, when it is determined in step S22 that there is a defect, the
(図8のステップS24:書込終了判定処理)
データ認識部112は、入力欄86への書込みが終了したか否かを判定する。ここでは、データ認識部112は、入力欄86への書込みが終了したことを示すボタンにタッチされた場合に、入力欄86への書込みが終了したと判定する。図7では、データ認識部112は、入力フォーマット84の右下の矢印ボタンにタッチされた場合に、入力欄86への書込みが終了したと判定する。
データ認識部112は、入力欄86への書込みが終了したと判定された場合には、処理をステップS25に進める。一方、データ認識部112は、入力欄86への書込みが終了していないと判定された場合には、処理をステップS21に戻して、次の文字を認識する。
前記データ認識部は、入力欄への書込みが終了した時点で、認識された文字をデジタルデータとしてメモリ12に保存するとともに、特定された軌跡を画像化し証跡データとしてメモリ12に保存する。
(Step S24 of FIG. 8: write end determination process)
The
When it is determined that the writing in the
The data recognition unit saves the recognized characters as digital data in the
データ認識部112は、入力欄86への書込みが終了したと判定された場合に、入力欄86に書き込まれた文字の不備があるか否かを再判定してもよい。
ステップS22では、認識された1文字についての不備の判定ができる。これに対して、入力欄86への書込みが終了したと判定された場合に、入力欄86に書き込まれた文字列についての不備の判定ができる。例えば、入力内容85が電話番号である場合に、書き込まれた数値の桁数が多い、又は、少ないといった判定ができる。
When it is determined that the writing in the
In step S22, it is possible to determine the deficiency of the recognized one character. On the other hand, when it is determined that the writing in the
(図8のステップS25:手続終了判定処理)
データ認識部112は、全ての入力内容85についての書込みが終了したか否かを判定する。ここでは、最後の入力内容85についての入力欄86への書込みが終了した場合に、全ての入力内容85についての書込みが終了したと判定する。
データ認識部112は、全ての入力内容85についての書込みが終了したと判定された場合には、図3のステップS3に進める。一方、データ認識部112は、全ての入力内容85についての書込みが終了していない場合には、処理を図4のステップS13に戻して、次の入力内容85についての入力フォーマット84を表示させる。
(Step S25 of FIG. 8: Procedure end determination processing)
The
When it is determined that the writing of all the
例えば、図7に示された、氏名についての入力フォーマット84が投影表示されているときに、右下の矢印ボタンにタッチされた場合には、データ認識部112は、処理を図4のステップS13に戻す。すると、図9に示すように、投影部111は、入力順が2番目の入力内容85である住所についての入力フォーマット84を投影表示する。
For example, when the lower right arrow button is touched when the
(図3のステップS3:確認処理)
確認処理部113は、ステップS2で書き込まれた文字を確認するための確認データ88を生成する。
(Step S3 of FIG. 3: confirmation processing)
The
図10から図13を参照して、実施の形態1に係る確認処理を説明する。
(図10のステップS31:フォーマット取得処理)
確認処理部113は、ステップS11で選択された手続きについての手続書類のフォーマット87を、データベースサーバ50のフォーマット記憶部52から読み出す。
図11に示すように、フォーマット記憶部52には、手続き毎に、手続書類のフォーマットが記憶されている。手続書類のフォーマット87は、例えば、従来の紙の手続書類と同様のフォーマットである。表示内容82の入力フォーマット84が示す各入力欄86は、手続書類の記入欄に対応している。
The confirmation processing according to the first embodiment will be described with reference to FIGS. 10 to 13.
(Step S31 of FIG. 10: format acquisition process)
The
As shown in FIG. 11, the
(図10のステップS32:確認データ生成処理)
図12に示すように、確認処理部113は、ステップS2で認識された文字を、その文字が手書きされた入力欄86に対応する、ステップS31で取得された手続書類のフォーマット87の記入欄に示して確認データ88を生成する。図12では、口座開設の場合の確認データ88が示されている。そのため、図12では、氏名と、住所と、生年月日と、電話番号と、金額とが示されている。
(Step S32 of FIG. 10: confirmation data generation process)
As shown in FIG. 12, the
確認処理部113は、確認データ88を生成する際、各入力欄86に書き込まれた文字の不備があるか否かを再判定してもよい。ここでは、各入力欄86に書き込まれた文字列間の対応関係に不備があるか否かを判定できる。例えば、住所と電話番号の市外局番とが不一致であるといった判定ができる。
When generating the
(図10のステップS33:手続実行判定処理)
確認処理部113は、生成された確認データ88を投影部111に送信する。投影部111は、確認データ88を入力台40の上に投影表示する。
利用者によって、確認データ88の内容が確認される。確認データ88の内容に修正がなければ、利用者によって手続きを実行することを示すボタンが電子ペン30によりタッチされる。すると、確認処理部113は、処理をステップS34に進める。一方、確認データ88の内容に修正があれば、利用者によって修正することを示すボタンが電子ペン30によりタッチされる。すると、確認処理部113は、投影部111に該当の入力内容85についての修正画面を投影表示させる。そして、確認処理部113は、修正完了後、処理をステップS32に戻して、確認データ88を再生成する。
(Step S33 of FIG. 10: procedure execution determination process)
The
The user confirms the content of the
(図10のステップS34:利用者情報記憶処理)
確認処理部113は、ステップS2で認識された各入力内容85についての文字等のデータを、金融機関等の手続き先の事務員の端末に送信する。事務員によって、データに不備がないことが確認されると、確認処理部113は、データをデータベースサーバ50の利用者情報記憶部53に書き込む。図13に示すように、利用者情報記憶部53は、利用者毎に、利用者についての情報が記憶されている。
(Step S34 of FIG. 10: user information storage process)
The
(図10のステップS35:参照情報生成処理)
確認処理部113は、手続書類についての情報を利用者端末から参照するための参照情報89を生成する。手続書類についての情報は、登録された利用者についての情報と、手続きの進捗状況と等である。参照情報89は、手続書類についての情報を参照可能なURL(Uniform Resource Locator)を示す。例えば、参照情報89は、URLが埋め込まれた二次元コードである。利用者端末は、スマートフォン及び携帯電話といった端末である。利用者は、利用者端末を用いて、参照情報89が示すURLを指定して、ウェブサイトにアクセスすることにより、手続書類についての情報を参照することが可能である。
確認処理部113は、生成された参照情報89を投影部111に送信する。投影部111は、参照情報89を入力台40の上に投影表示する。例えば、利用者端末に付属するカメラを用いて、二次元コードを読み取ることにより、参照情報89が示すURLを利用者端末に取り込むことができる。
(Step S35 of FIG. 10: reference information generation process)
The
The
なお、図10のステップS34で利用者情報記憶部53に書き込まれたデータを用いて、金融機関等の手続き先の事務員によって手続きが進められる。そして、事務員によって手続きの進捗がデータベースサーバ50に登録され、参照情報89が示すURLのウェブサイトの情報が更新される。
It should be noted that the data written in the user
***実施の形態1の効果***
以上のように、実施の形態1に係るデータ入力装置10は、入力フォーマット84を入力台40の上に投影表示し、入力フォーマット84の入力欄86に手書きされた文字を認識する。これにより、紙を用いずに手続きの申し込み等を行うことが可能となり、紙の使用量を減らすことが可能である。
***Effect of
As described above, the
また、利用者は、手続書類に文字を記入する場合と同じように、入力欄86に文字を手書きすればよい。つまり、利用者は、キーボードを打つといった、従来の紙の書類に記入する場合と異なる処理をする必要がなく、手続の手間が増えることもない。
Further, the user may handwrite the character in the
また、紙の手続書類を用いて手続きの申し込み等をしていた場合には、手続書類に記入された内容を、事務員がコンピュータに入力していた。そのため、事務員の入力ミス等により正しくデータが登録されない恐れがあった。
実施の形態1に係るデータ入力装置10は、利用者が文字認識され文字列変換された文字を確認する。そのため、利用者の意図した通りのデータが登録される。
Also, when applying for procedures using paper procedure documents, the clerk entered the content entered in the procedure documents into the computer. Therefore, there is a fear that the data may not be registered correctly due to an erroneous input by the clerk.
In the
また、実施の形態1に係るデータ入力装置10は、参照情報89を生成する。そのため、利用者が手続きの進捗を確認することが可能である。
The
また、実施の形態1に係るデータ入力装置10は、入力フォーマット84を投影表示する。そのため、入力フォーマット84の表示を拡大及び縮小することが可能である。特に、投影面21は大きくすることが容易である。そのため、入力フォーマット84を大きく表示することを容易に実現できる。
また、入力内容85に応じた説明と入力例とを、入力フォーマット84上に表示することも可能であるし、入力フォーマット84の外に表示することも可能である。
Further, the
Further, it is possible to display the explanation and the input example according to the
また、実施の形態1に係るデータ入力装置10は、入力内容85に応じた説明と入力例とを投影表示する。そのため、利用者がスムーズに入力内容85を書き込むことができる。その結果、手続き窓口の混雑を緩和することが可能である。また、事務員への問合せも減るため、事務員の作業不可を減らすことが可能である。
Further, the
また、実施の形態1に係るデータ入力装置10は、OCR処理により認識された文字をデジタルデータとして保存するとともに、特定された軌跡を画像化し証跡データとして保存する。そのため、後日利用者から手続き内容についての問い合わせがあった場合でも、手続き内容についての確認を行うことが可能である。
Further, the
また、実施の形態1に係るデータ入力装置10は、紙の手続書類が必要ない。そのため、手続きに必要な入力内容85に変更があった場合には、データベースサーバ50に記憶されたデータを変更するだけで対応できる。
なお、特許文献1のように、手続書類に対して説明を投影する場合には、紙の手続書類を変更するとともに、手続書類に投影する説明の位置調整といった煩雑な作業が必要になる。
Further, the
Note that when projecting an explanation on a procedure document as in
***他の構成***
<変形例1>
実施の形態1では、データ入力システム1は、データ入力装置10とプロジェクタ20と電子ペン30と入力台40との組を1つ備えていた。しかし、データ入力システム1は、データ入力装置10とプロジェクタ20と電子ペン30と入力台40との組を複数備えてもよい。
***Other configurations***
<
In the first embodiment, the
<変形例2>
実施の形態1では、データベースサーバ50が、表示内容記憶部51と、フォーマット記憶部52と、顧客情報記憶部53との機能を実現した。しかし、データ入力装置10のストレージ13が、表示内容記憶部51と、フォーマット記憶部52と、顧客情報記憶部53との機能を実現してもよい。
<Modification 2>
In the first embodiment, the
<変形例3>
実施の形態1では、入力欄86に対して手書きするとした。しかし、データ入力システム1は、手書き以外の入力手段を提供してもよい。例えば、データ入力システム1は、テンキーを備えていてもよい。これにより、利用者は数値をテンキーから入力することが可能である。また、データ入力システム1は、キーボードを備えていてもよい。これにより、キーボードの入力に慣れた利用者であれば、キーボードから文字を入力することが可能である。なお、テンキー及びキーボードを物理的に用意してもよいし、投影型のテンキー及びキーボードを用意してもよい。投影型のテンキー及びキーボードを用意する場合、データ入力装置10の投影部111が、プロジェクタ20により、テンキー及びキーボードを入力台40の上に投影表示すればよい。
<Modification 3>
In the first embodiment, it is assumed that the
<変形例4>
実施の形態1では、投影部111と、データ認識部112と、確認処理部113との機能がソフトウェアで実現された。しかし、変形例4として、投影部111と、データ認識部112と、確認処理部113との機能はハードウェアで実現されてもよい。この変形例4について、実施の形態1と異なる点を説明する。
<Modification 4>
In the first embodiment, the functions of the
図14を参照して、変形例4に係るデータ入力装置10の構成を説明する。
投影部111と、データ認識部112と、確認処理部113との機能がハードウェアで実現される場合、データ入力装置10は、プロセッサ11とメモリ12とストレージ13とに代えて、処理回路15を備える。処理回路15は、投影部111と、データ認識部112と、確認処理部113との機能と、メモリ12とストレージ13との機能とを実現する専用の電子回路である。
The configuration of the
When the functions of the
処理回路15は、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ロジックIC、GA(Gate Array)、ASIC(Application Specific Integrated Circuit)、FPGA(Field−Programmable Gate Array)が想定される。
投影部111と、データ認識部112と、確認処理部113との機能を1つの処理回路15で実現してもよいし、投影部111と、データ認識部112と、確認処理部113との機能を複数の処理回路15に分散させて実現してもよい。
The
The functions of the
<変形例5>
変形例5として、一部の機能がハードウェアで実現され、他の機能がソフトウェアで実現されてもよい。つまり、投影部111と、データ認識部112と、確認処理部113とのうち、一部の機能がハードウェアで実現され、他の機能がソフトウェアで実現されてもよい。
<Modification 5>
As a modified example 5, some functions may be realized by hardware and other functions may be realized by software. That is, some functions of the
プロセッサ11とメモリ12とストレージ13と処理回路15とを、総称して「プロセッシングサーキットリー」という。つまり、各機能構成要素の機能は、プロセッシングサーキットリーにより実現される。
The
実施の形態2.
実施の形態2は、自動車の運転免許証のような書類を読み込む点が実施の形態1と異なる。実施の形態2では、この異なる点を説明し、同一の点については説明を省略する。
Embodiment 2.
The second embodiment differs from the first embodiment in that a document such as an automobile driver's license is read. In the second embodiment, these different points will be described, and description of the same points will be omitted.
***構成の説明***
図15を参照して、実施の形態2に係るデータ入力システム1の構成を説明する。
データ入力システム1は、撮像装置70を備える点が図1に示すデータ入力システム1と異なる。撮像装置70は、自動車の運転免許証のような書類を撮像する装置である。
***Composition explanation***
The configuration of the
The
***動作の説明***
図16を参照して、実施の形態2に係るデータ認識処理を説明する。
ステップS42からステップS46の処理は、図8のステップS21からステップS25の処理と同じである。
***Description of operation***
The data recognition processing according to the second embodiment will be described with reference to FIG.
The processing from step S42 to step S46 is the same as the processing from step S21 to step S25 in FIG.
(図16のステップS41:読込処理)
利用者によって、自動車の運転免許証のような書類が撮像装置70の撮像領域に設置される。
データ認識部112は、撮像装置70により撮像領域に設置された書類を撮像して、書類の画像データを取得する。データ認識部112は、取得された画像データから各入力内容85に対応する文字を認識する。データ認識部112は、認識された文字を、入力フォーマット84における対応する入力欄86に入力された文字として扱う。
ここでは、自動車の運転免許証のように、入力内容が定められた書類が設置される。なお、自動車の運転免許証に限らず、パスポート、保険証といった他の書類であってもよい。また、事前に、書類の各欄と、表示内容82の各入力内容85とは対応付けされている。
データ認識部112は、認識された文字を投影部111に送信する。すると、投影部111により、認識された文字が、入力欄86の下に表示される。あるいは、入力欄86にも合わせて表示してもよく、もしくは入力欄86のみに表示してもよい。
(Step S41 of FIG. 16: read processing)
A user installs a document such as a driver's license of an automobile in the imaging area of the imaging device 70.
The
Here, documents such as a driver's license of a car in which input contents are determined are installed. It should be noted that the document is not limited to the driver's license of the automobile, and may be other documents such as a passport and an insurance card. Further, each column of the document and each
The
***実施の形態2の効果***
以上のように、実施の形態2に係るデータ入力装置10は、自動車の運転免許証のような書類に記載された文字を認識して、入力欄86に入力された文字として扱う。これにより、利用者が入力内容85を書き込む手間を減らすことが可能である。
***Effects of Embodiment 2***
As described above, the
実施の形態3.
実施の形態3は、書込みに関する統計をとる点が実施の形態1と異なる。実施の形態3では、この異なる点を説明し、同一の点については説明を省略する。
なお、実施の形態3を実施の形態2と組み合わせることも可能である。
Embodiment 3.
The third embodiment is different from the first embodiment in that statistics on writing are obtained. In the third embodiment, these different points will be described, and description of the same points will be omitted.
Note that it is possible to combine the third embodiment with the second embodiment.
***構成の説明***
図17を参照して、実施の形態3に係るデータ入力装置10の構成を説明する。
データ入力装置10は、機能構成要素として、統計部114を備える点が図3に示すデータ入力装置10と異なる。統計部114は、他の機能構成要素と同様に、ソフトウェアによって実現される。なお、統計部114は、他の機能構成要素と同様に、ハードウェアによって実現されてもよい。
また、データベースサーバ50は、統計記憶部54の機能を実現する。
***Composition explanation***
The configuration of the
The
The
***動作の説明***
図18を参照して、実施の形態3に係るデータ認識処理を説明する。
ステップS51からステップS55の処理は、図8のステップS21からステップS25の処理と同じである。
***Description of operation***
The data recognition process according to the third embodiment will be described with reference to FIG.
The processing of steps S51 to S55 is the same as the processing of steps S21 to S25 of FIG.
(図18のステップS56:統計処理)
統計部114は、ステップS52又はステップS54で不備と判定された内容を取得して、統計記憶部54に書き込む。また、統計部114は、各入力欄86への書込み時間についても取得して、統計記憶部54に書き込む。
(Step S56 of FIG. 18: statistical processing)
The
これにより、統計記憶部54には、不備についてのデータと、書込み時間についてのデータが蓄積される。例えば、事務員等によって、不備及び書込み時間についてのデータが分析され、入力フォーマット84が変更されたり、入力内容85の説明が追加されたりする。例えば、不備の多い入力内容85については、入力内容85に関する説明を追加で投影表示するようにして、不備が減るようにされる。
As a result, the
***実施の形態3の効果***
以上のように、実施の形態3に係るデータ入力装置10は、不備等のデータを蓄積する。これにより、入力フォーマット84及び説明を改善することができる。その結果、利用者にとってより利用し易いシステムにすることができる。
***Effects of Embodiment 3***
As described above, the
実施の形態4.
実施の形態4では、電子ペン30の紛失防止処理を行う点が実施の形態1と異なる。実施の形態4では、この異なる点を説明し、同一の点については説明を省略する。
なお、実施の形態4を実施の形態2,3と組み合わせることも可能である。
Fourth Embodiment
The fourth embodiment is different from the first embodiment in that loss prevention processing of the electronic pen 30 is performed. In the fourth embodiment, these different points will be described, and description of the same points will be omitted.
It is also possible to combine the fourth embodiment with the second and third embodiments.
***構成の説明***
図19を参照して、実施の形態4に係るデータ入力装置10の構成を説明する。
データ入力装置10は、機能構成要素として、配置判定部115を備える点が図2に示すデータ入力装置10と異なる。配置判定部115は、他の機能構成要素と同様に、ソフトウェアによって実現される。なお、配置判定部115は、他の機能構成要素と同様に、ハードウェアによって実現されてもよい。
***Composition explanation***
The configuration of the
The
***動作の説明***
図20を参照して、実施の形態4に係るデータ入力システム1の動作を説明する。
ステップS1からステップS3の処理は、実施の形態1と同じである。
***Description of operation***
The operation of the
The processing from step S1 to step S3 is the same as that in the first embodiment.
(図20のステップS4:紛失防止処理)
投影部111は、プロジェクタ20により、入力装置である電子ペン30の置き場である配置領域90を入力台40の上に投影表示する。そして、配置判定部115は、投影部111によって投影された配置領域90に入力装置である電子ペン30が基準時間以上置かれているか否かを判定する。
(Step S4 of FIG. 20: loss prevention processing)
The
図21から図22を参照して、実施の形態4に係る紛失防止処理を説明する。
(図21のステップS61:領域表示処理)
投影部111は、プロジェクタ20により、電子ペン30の置き場である配置領域90を入力台40の上に投影表示する。例えば、図22に示すように、投影部111は、電子ペン30を拡大したような形状の配置領域90を、電子ペン30を配置領域90に置くことを促すメッセージ91とともに、入力台40の上に投影表示する。
つまり、投影部111は、ステップS11からステップS13で、入力フォーマット84を入力台40の上に投影表示し、入力フォーマット84への入力が終了した後に、配置領域90を投影表示する。
The loss prevention processing according to the fourth embodiment will be described with reference to FIGS. 21 to 22.
(Step S61 of FIG. 21: area display process)
The
That is, the
図22の配置領域90は、ペンの形状をしているが、形状はペンに限らない。矩形や円でもよいし、点や線でも構わない。また、領域のサイズについては、必ずしもペンが入る大きさでなくてもよく、ペン先が入る程度の大きさでも構わない。
The
(図21のステップS62:配置判定処理)
配置判定部115は、配置領域90に電子ペン30が基準時間以上継続して置かれているか否かを判定する。この際、配置判定部115は、電子ペン30のポインタが配置領域90内を指している場合に、配置領域90に電子ペン30が置かれていると判定する。一方、配置判定部115は、電子ペン30のポインタが配置領域90外を指している場合に、配置領域90に電子ペン30が置かれていないと判定する。
配置判定部115は、配置領域90に電子ペン30が基準時間以上継続して置かれている場合には、処理をステップS63に進める。
一方、配置判定部115は、制限時間以上経過しても、配置領域90に電子ペン30が基準時間以上継続して置かれていない場合には、処理をステップS64に進める。ここで、制限時間は、基準時間よりも長い時間である。具体例としては、制限時間を10秒とし、基準時間を3秒とする。
(Step S62 of FIG. 21: placement determination process)
The
When the electronic pen 30 is continuously placed in the
On the other hand, if the electronic pen 30 has not been placed in the
(図21のステップS63:正常終了処理)
配置判定部115は、電子ペン30が配置領域90に戻されたとして、処理を終了する。
(Step S63 of FIG. 21: normal end process)
The
(図21のステップS64:異常終了処理)
配置判定部115は、電子ペン30が配置領域90に戻されなかったとして、警告音を鳴らす、担当者へメッセージを送信するといった方法により担当者と利用者との少なくともいずれかに通知した上で、処理を終了する。
(Step S64 of FIG. 21: abnormal termination process)
The
***実施の形態4の効果***
以上のように、実施の形態4に係るデータ入力装置10は、入力が終了すると、電子ペン30の置き場である配置領域90を入力台40の上に投影表示する。
利用者は電子ペン30を持ち去る意図がないにも関わらず、電子ペン30を置くことを忘れて持ち去ってしまう可能性がある。しかし、配置領域90を入力台40の上に投影表示することにより、電子ペン30を置くことが利用者に促され、誤って持ち去ってしまうことを防止できる。また、電子ペン30が任意の位置に置かれてしまうと、次の利用者が電子ペン30を発見できない可能性がある。しかし、配置領域90を入力台40の上に投影表示することにより、電子ペン30を置く場所が統一され、次の利用者が電子ペン30を発見し易くなる。
その結果、電子ペン30が紛失することを防止できる。
***Effects of Embodiment 4***
As described above, the
Although the user does not intend to take away the electronic pen 30, there is a possibility that the user forgets to put the electronic pen 30 and takes it away. However, by projecting and displaying the
As a result, it is possible to prevent the electronic pen 30 from being lost.
また、電子ペン30が配置領域90に置かれなかった場合には、警告音を鳴らす、担当者へメッセージを送信するといった方法により通知される。警告音を鳴らすことにより、電子ペン30の持ち去り等を防止することができる。また、担当者へメッセージを送信することにより、電子ペン30が紛失した場合でも、新たな電子ペン30を早期に補充することが可能になる。
Further, when the electronic pen 30 is not placed in the
***他の構成***
<変形例6>
実施の形態4では、図19のステップS1からステップS3の処理の後に、紛失防止処理が実行された。つまり、入力フォーマット84へのデータの入力が終了し、データの登録が完了した後に、紛失防止処理が実行された。
しかし、電子ペン30を置くとデータが登録されるようにしてもよい。具体的には、図10のステップS33で確認データ88を入力台40の上に投影表示するとともに、合わせて紛失防止処理が実行されてもよい。つまり、図10のステップS33で確認データ88を入力台40の上に投影表示するとともに、合わせて配置領域90を入力台40の上に投影表示する。確認データ88の内容に修正がなければ、電子ペン30を配置領域90に置いてもらう。そして、配置領域90に電子ペン30が基準時間以上継続して置かれた場合に、図10のステップS34に進むようにする。
すなわち、実施の形態1では、確認データ88の内容に修正がなければ、利用者によって手続きを実行することを示すボタンが電子ペン30によりタッチされた。しかし、変形例6では、確認データ88の内容に修正がなければ、電子ペン30によるタッチに代え、電子ペン30を配置領域90に置いてもらう。これにより、電子ペン30を配置領域90に置かなければ手続きを実行することができないため、より確実に電子ペン30の紛失を防止することができる。
***Other configurations***
<Modification 6>
In the fourth embodiment, the loss prevention process is executed after the processes of steps S1 to S3 of FIG. That is, the loss prevention process is executed after the data input to the
However, the data may be registered when the electronic pen 30 is placed. Specifically, in step S33 of FIG. 10, the
That is, in the first embodiment, if the content of the
<変形例7>
配置判定部115は、図21のステップS63の正常終了処理が終わった後も、定期的に配置領域90に電子ペン30が置かれているか否かを判定してもよい。なお、この際には、配置領域90は投影表示されている必要はない。つまり、図21のステップS63の正常終了処理が終わると、配置領域90は消えてしまうが、配置判定部115は、図21のステップS61で表示された配置領域90の位置に電子ペン90が置かれているか否かを判定する。
そして、配置判定部115は、一定時間継続して電子ペン30が配置領域90に置かれていない場合には、警告音を鳴らす、担当者へメッセージを送信するといった方法により担当者と利用者との少なくともいずれかに通知してもよい。
<
The
Then, when the electronic pen 30 has not been placed in the
実施の形態5.
実施の形態5では、入力台40の大きさに応じて表示内容82を制御する点が実施の形態1と異なる。実施の形態5では、この異なる点を説明し、同一の点については説明を省略する。
なお、実施の形態5を実施の形態2〜4と組み合わせることも可能である。
Embodiment 5.
The fifth embodiment differs from the first embodiment in that the
Note that the fifth embodiment can be combined with the second to fourth embodiments.
***構成の説明***
図23を参照して、実施の形態5に係るデータ入力システム1の構成を説明する。
データ入力システム1は、センサ71を備える点が図1に示すデータ入力システム1と異なる。センサ71は、入力台40の大きさを検出する装置である。
***Composition explanation***
The configuration of the
The
図24を参照して、実施の形態5に係るデータ入力装置10の構成を説明する。
データ入力装置10は、表示エリア認識部116を備える点が、図2に示すデータ入力装置10と異なる。表示エリア認識部116は、他の機能構成要素と同様に、ソフトウェアによって実現される。なお、表示エリア認識部116は、他の機能構成要素と同様に、ハードウェアによって実現されてもよい。
The configuration of the
The
***動作の説明***
図25から図27を参照して、実施の形態5に係る投影処理を説明する。
ステップS75の処理は、図4のステップS12の処理と同じである。
***Description of operation***
The projection processing according to the fifth embodiment will be described with reference to FIGS. 25 to 27.
The process of step S75 is the same as the process of step S12 of FIG.
(ステップS71:大きさ検出処理)
表示エリア認識部116は、センサ71により、入力装置の置き場である配置領域のサイズを認識する。具体的には、入力台40の縦及び横の寸法を認識する。
(Step S71: Size detection process)
The display
(ステップS72:コンテンツ特定処理)
投影部111は、ステップS71で検出された入力台40の上面の大きさに応じた表示コンテンツを特定する。
表示するコンテンツは、あらかじめ配置領域のサイズに応じた表示内容のレイアウトをサイズごとに複数保持され、大きさ検出処理で検出されたサイズによって、一意に決まるようになっている。
具体例として、大と中と小の3種類のレイアウトが登録されている例について説明する。は、投影部111は、検出された入力台40の上面の大きさが大と中と小とのいずれの分類に該当するかを特定する。投影部111は、特定された分類に応じた表示コンテンツを特定する。
例えば、分類が大の場合には、選択画面81又は表示内容82と、広告動画及び広告画像とを表示コンテンツとし、分類が中の場合には、選択画面81又は表示内容82と、広告動画とを表示コンテンツとし、分類が小の場合には、選択画面81又は表示内容82だけを表示コンテンツとする。
(Step S72: Content specifying process)
The
The content to be displayed has a plurality of layouts of the display content corresponding to the size of the arrangement area in advance, and is uniquely determined by the size detected by the size detection process.
As a specific example, an example in which three types of layouts, large, medium, and small, are registered will be described. The
For example, when the classification is large, the
(ステップS73:投影サイズ決定処理)
投影部111は、ステップS72で特定された配置領域のサイズに応じた表示内容を、表示コンテンツが登録されたレイアウトから特定し、特定したレイアウトの表示コンテンツを検出された入力台の大きさに合わせて拡大表示する。
(Step S73: Projection size determination process)
The
(ステップS74:手続選択処理)
投影部111は、プロジェクタ20により、手続きの選択画面81を入力台40の上に投影表示する。この際、上記例であれば、投影部111は、分類が大の場合には、選択画面81とともに、広告動画及び広告画像を入力台40の上に投影表示する。また、投影部111は、分類が中の場合には、選択画面81とともに、広告動画を入力台40の上に投影表示する。
例えば、分類が中の場合には、図26に示すように、投影部111は、選択画面81と広告動画とを入力台40の上に投影表示する。
すると、利用者によって、行いたい手続きのボタンが電子ペン30によりタッチされ、選択される。この際、利用者が広告動画を見る可能性がある。
(Step S74: Procedure selection process)
The
For example, when the classification is middle, as shown in FIG. 26, the
Then, the user touches and selects the button of the desired procedure with the electronic pen 30. At this time, the user may watch the advertisement video.
(ステップS76:表示内容投影処理)
投影部111は、プロジェクタ20により、ステップS75で読み出された表示内容82を、伝送路60の上に投影表示する。この際、上記例であれば、投影部111は、分類が大の場合には、選択画面81とともに、広告動画及び広告画像を入力台40の上に投影表示する。また、投影部111は、分類が中の場合には、選択画面81とともに、広告動画を入力台40の上に投影表示する。
例えば、分類が中の場合には、図27に示すように、投影部111は、選択画面81と広告動画とを入力台40の上に投影表示する。
その後、図3のステップS2のデータ認識処理が実行される。この際、利用者が広告動画を見る可能性がある。
(Step S76: Display content projection processing)
The
For example, when the classification is medium, as shown in FIG. 27, the
Then, the data recognition process of step S2 of FIG. 3 is performed. At this time, the user may watch the advertisement video.
***実施の形態5の効果***
以上のように、実施の形態5に係るデータ入力装置10は、入力台40の上面の大きさに応じて、表示コンテンツを決定する。これにより、用意された入力台40に応じて適切なコンテンツを投影表示することができる。
***Effect of Embodiment 5***
As described above, the
また、実施の形態5に係るデータ入力装置10は、決定された表示コンテンツを入力台40の上面の大きさに合わせ拡大して投影表示する。
Further, the
実施の形態6.
実施の形態6は、複数の手続きを連続して行う場合に、他の手続きで既に入力された内容を利用する点が実施の形態1と異なる。実施の形態6では、この異なる点を説明し、同一の点については説明を省略する。
なお、実施の形態6を実施の形態2〜5と組み合わせることも可能である。
Sixth Embodiment
The sixth embodiment is different from the first embodiment in that, when a plurality of procedures are continuously performed, the contents already input by the other procedures are used. In the sixth embodiment, these different points will be described, and description of the same points will be omitted.
The sixth embodiment can be combined with the second to fifth embodiments.
***動作の説明***
図28及び図5を参照して、実施の形態6に係る投影処理を説明する。
(図28のステップS81:手続選択処理)
実施の形態1と同様に、手続きが選択される。実施の形態6では、1つ以上の手続きが選択される。
具体的には、図5に示すように、投影部111は、プロジェクタ20により、手続きの選択画面81を入力台40の上に表示する。すると、利用者によって、行いたい手続きのボタンが順に電子ペン30によりタッチされ、1つ以上の手続きが選択される。
***Description of operation***
The projection process according to the sixth embodiment will be described with reference to FIGS. 28 and 5.
(Step S81 of FIG. 28: procedure selection process)
The procedure is selected as in the first embodiment. In the sixth embodiment, one or more procedures are selected.
Specifically, as shown in FIG. 5, the
投影部111は、ステップS81で選択された各手続きを順に対象の手続きとする。ここでは、投影部111は、ステップS81で選択された順に各手続きを対象とする。
The
(図28のステップS82:表示内容読込処理)
投影部111は、対象の手続きについての表示内容82を、データベースサーバ50の表示内容記憶部51から読み出す。
(Step S82 of FIG. 28: display content reading process)
The
(図28のステップS83:表示内容投影処理)
投影部111は、プロジェクタ20により、ステップS12で読み出された表示内容82を、入力台40の上に投影表示する。
(Step S83 of FIG. 28: display content projection processing)
The
図29を参照して、実施の形態6に係るデータ認識処理を説明する。
(図29のステップS91:手続き数判定処理)
データ認識部112は、図28のステップS81で選択された手続きの数が1つであるか否かを判定する。
データ認識部112は、手続きの数が2つ以上である場合には、処理をステップS92に進める。一方、データ認識部112は、手続きの数が1つである場合には、処理をステップS95に進める。
The data recognition processing according to the sixth embodiment will be described with reference to FIG.
(Step S91 of FIG. 29: procedure number determination processing)
The
If the number of procedures is two or more, the
(図29のステップS92:初回手続き判定処理)
データ認識部112は、対象の手続きが初回の手続きであるか否かを判定する。つまり、データ認識部112は、対象の手続きが、図28のステップS81で選択された手続きのうち初めに処理される手続きであるか否かを判定する。
データ認識部112は、対象の手続きが初回の手続きでない場合には、処理をステップS93に進める。一方、データ認識部112は、対象の手続きが初回の手続きである場合には、処理をステップS95に進める。
(Step S92 of FIG. 29: initial procedure determination process)
The
If the target procedure is not the first procedure, the
(図29のステップS93:記入内容判定処理)
データ認識部112は、入力内容85が既に対象となった過去手続きに含まれる入力内容85である既出内容であるか否かを判定する。
データ認識部112は、入力内容85が過去手続きで入力された既出内容である場合には、処理をステップS94に進める。一方、データ認識部112は、入力内容85が過去の手続きで入力された内容でない場合には、処理をステップS95に進める。
(Step S93 of FIG. 29: entry content determination process)
The
If the
(図29のステップS94:データ読込処理)
データ認識部112は、入力内容85について過去手続きで入力されたデータをメモリ12から読み出し、投影部111に投影表示させる。
具体的には、データ認識部112は、入力内容85について過去手続きで認識された文字のデジタルデータと、入力内容85について過去手続きで特定された軌跡が画像化されたデータとをメモリ12から読み出す。データ認識部112は、読み出されたデジタルデータと画像化されたデータとを投影部111に送信する。すると、投影部111は、デジタルデータが示す文字と、画像化されたデータとを入力台40の上に投影表示する。ここで、画像化されたデータは入力欄86に投影表示され、デジタルデータが示す文字は、入力欄86の付近に投影表示される。
そして、データ認識部112は、処理をステップS98に進める。
(Step S94 of FIG. 29: data reading process)
The
Specifically, the
Then, the
つまり、投影部111は、対象の手続きについての入力内容のうち、複数の手続きのうち既に対象となった過去手続きに含まれる入力内容である既出内容について、過去手続きの入力フォーマットを投影表示した際にデータ認識部112によって認識された文字を既出内容に対応する入力欄86に入力された文字として投影表示する。また、合わせて、投影部111は、既出内容に対応する入力欄86に入力された軌跡を示す画像化されたデータを入力欄86に投影表示する。
That is, when the
ステップS95からステップS99の処理は、図8のステップS21からステップS25の処理と同じである。但し、ステップS99では、データ認識部112は、全ての入力内容85についての書込みが終了していない場合には、処理を図28のステップS83に戻して、次の入力内容85についての入力フォーマット84を表示させる。
The processing of steps S95 to S99 is the same as the processing of steps S21 to S25 of FIG. However, in step S99, if the writing of all the
なお、ステップS94で読み込まれ、投影表示された内容を変更したい場合には、入力欄86に表示された軌跡を削除して、入力し直せばよい。入力し直されると、ステップS98からステップS95に処理が戻される。そして、入力し直された内容について、ステップS95からステップS97の処理が実行される。その結果、入力し直された軌跡から文字認識され、認識された文字と、入力し直された軌跡を画像化したデータとが入力台40の上に投影表示される。
つまり、ステップS94で既出内容に対応する入力欄86に投影表示された情報が削除され、改めて手書きされた場合には、データ認識部112は、手書きされた文字を認識する。そして、投影部111は、過去手続きの入力フォーマット84を投影表示した際にデータ認識部112によって認識された文字の投影表示を止め、データ認識部112によって新たに認識された文字を投影表示する。
In addition, when it is desired to change the contents read in step S94 and projected and displayed, the locus displayed in the
That is, when the information projected and displayed in the
また、データ認識部112は、実施の形態1と同様に、手書きされた軌跡を特定して、特定された軌跡に基づき手書きされた文字を認識し、特定された軌跡と認識された文字とを対応付けて保管する。この際、データ認識部112は、既出内容に対応する入力欄86に手書きされない場合には、過去手続きの入力フォーマット84が示す入力欄86に手書きされた軌跡と、過去手続きの入力フォーマットを投影表示した際にデータ認識部によって認識された文字とを対応付けて保管する。
Further, similarly to the first embodiment, the
図30を参照して、実施の形態6に係る確認処理を説明する。
ステップS101からステップS105の処理は、図10のステップS31からステップS35の処理と同じである。
The confirmation processing according to the sixth embodiment will be described with reference to FIG.
The processing from step S101 to step S105 is the same as the processing from step S31 to step S35 in FIG.
(図30のステップS106:手続き判定処理)
確認処理部113は、未処理の手続きが残っているか否かを判定する。つまり、確認処理部113は、図28のステップS81で選択された手続きのうち、未だ処理がされていない手続きが残っているか否かを判定する。
確認処理部113は、未処理の手続きが残っている場合には、処理を図28のステップS82に戻す。そして、確認処理部113は、投影部111に次の手続きの表示内容82を読み込ませる。一方、確認処理部113は、未処理の手続きが残っていない場合には、処理を終了する。
(Step S106 of FIG. 30: procedure determination process)
The
The
***実施の形態6の効果***
以上のように、実施の形態6に係るデータ入力装置10は、複数の手続きを連続して行う場合に、他の手続きで既に入力された内容を利用する。これにより、利用者は同じ内容を何度も記入する必要がなく、紙を用いて手続きを行う場合に比べて、手続きの手間を減らすことができる。
***Effects of Embodiment 6***
As described above, the
実施の形態7.
実施の形態7は、氏名等により筆跡鑑定を行い、本人確認する点が実施の形態1と異なる。実施の形態7では、この異なる点を説明し、同一の点については説明を省略する。
なお、実施の形態7を実施の形態2〜6と組み合わせることも可能である。
The seventh embodiment is different from the first embodiment in that handwriting identification is performed based on a name or the like to confirm the identity. In the seventh embodiment, these different points will be described, and description of the same points will be omitted.
It is also possible to combine the seventh embodiment with the second to sixth embodiments.
***構成の説明***
図31を参照して、実施の形態7に係るデータ入力装置10の構成を説明する。
データ入力装置10は、機能構成要素として、筆跡鑑定部117を備える点が図2に示すデータ入力装置10と異なる。筆跡鑑定部117は、他の機能構成要素と同様に、ソフトウェアによって実現される。なお、筆跡鑑定部117は、他の機能構成要素と同様に、ハードウェアによって実現されてもよい。
***Composition explanation***
The configuration of the
The
***動作の説明***
図32を参照して、実施の形態7に係る筆跡鑑定処理を説明する。
ステップS111からステップS115の処理は、図10のステップS31からステップS35の処理と同じである。
***Description of operation***
The handwriting appraisal processing according to the seventh embodiment will be described with reference to FIG.
The processing from step S111 to step S115 is the same as the processing from step S31 to step S35 in FIG.
(図32のステップS116:筆跡鑑定処理)
筆跡鑑定部117は、ステップS114でデータベースサーバ50の利用者情報記憶部53に書き込まれたデジタルデータ及び証跡データをもとに筆跡鑑定を行う。
例えば、筆跡鑑定部117は、利用者によって手書きされた氏名及び電話番号を元に筆跡鑑定を行う場合、過去に手書きされた同一利用者の氏名及び電話番号を、デジタルデータを元に特定する。筆跡鑑定部117は、特定された氏名及び電話番号の証跡データと、今回利用者によって手書きされた氏名及び電話番号の証跡データとを比較判定することで筆跡鑑定を行う。
筆跡鑑定部117は、入力欄に手書き入力された文字と過去に手書き入力された文字とを比較することにより、同一利用者により手書きされたと判定したとき、本人確認に関する手続きを終了する。
一方、筆跡鑑定部117は、同一利用者により手書きされたことが判定の結果確認できなければ、事務員に対して通知して、事務員に本人確認をさせる。
(Step S116 of FIG. 32: Handwriting identification processing)
The
For example, when the
When the
On the other hand, if the
筆跡鑑定部117による判定は、例えば氏名と電話番号とのいずれか一方で行うようにしてもよいし、住所等で行うようにしてもよい。
The determination by the
***実施の形態7の効果***
以上のように、実施の形態7に係るデータ入力装置10は、筆跡鑑定を行う。これにより、入力手続完了後に、本人が手続したことを確認する運用においては、対面による本人確認を省略することができる。
***Effects of
As described above, the
また、本人確認を入力手続きの最初の段階で行うこととすれば、以降の入力手続について、利用者が過去の手続きで入力した入力内容を既出入力内容に対応する入力欄86に入力された文字として投影することが可能となる。
In addition, if the identity verification is performed at the first stage of the input procedure, in the subsequent input procedures, the input content entered by the user in the past procedure will be input in the
実施の形態8.
実施の形態8は、利用者によって発話された申請情報に関するキーワードを取得し、自然言語認識させることで、キーワードに関連する手続を一覧表示する点が実施の形態1と異なる。実施の形態8では、この異なる点を説明し、同一の点については説明を省略する。
なお、実施の形態8を実施の形態2〜7と組み合わせることも可能である。
Eighth embodiment.
The eighth embodiment differs from the first embodiment in that a keyword related to application information uttered by a user is acquired and natural language recognition is performed to display a list of procedures related to the keyword. In the eighth embodiment, these different points will be described, and description of the same points will be omitted.
The eighth embodiment can be combined with the second to seventh embodiments.
***構成の説明***
図33を参照して、実施の形態8に係るデータ入力システム1の構成を説明する。
データ入力システム1は、音声入力装置71と音声出力装置72とを備える点が図1に示すデータ入力システム1と異なる。音声入力装置71は、音声入力のためのマイク装置である。音声出力装置72は、音声データを利用者に伝えるためのスピーカ装置である。
***Composition explanation***
The configuration of the
The
図34を参照して、実施の形態8に係るデータ入力装置10の構成を説明する。
データ入力装置10は、機能構成要素として、自然言語認識部118を備える点が図2に示すデータ入力装置10と異なる。自然言語認識部118は、他の機能構成要素と同様に、ソフトウェアによって実現される。なお、自然言語認識部118は、他の機能構成要素と同様に、ハードウェアによって実現されてもよい。
また、データベースサーバ50は、自然言語記憶部55の機能を実現する。
The configuration of the
The
The
***動作の説明***
図35を参照して、実施の形態8に係る自然言語認識処理を説明する。
ステップS123からステップS125の処理は、図4のステップS11からステップS13の処理と同じである。
***Description of operation***
The natural language recognition processing according to the eighth embodiment will be described with reference to FIG.
The processing from step S123 to step S125 is the same as the processing from step S11 to step S13 in FIG.
(図35のステップS121:目的確認処理)
自然言語認識部118は、利用者が発する音声を取得する。取得した利用者の音声は、自然言語記憶部55に記憶される。
利用者に来所の目的を音声発信してもらうために、音声出力装置72から来所目的を質問するようにしてもよいし、看板等により利用者に発話を促すようにしてもよい。
(Step S121 of FIG. 35: purpose confirmation process)
The natural language recognition unit 118 acquires the voice uttered by the user. The acquired voice of the user is stored in the natural
In order to have the user voice-transmit the purpose of the visit, the
(図35のステップS122:手続一覧生成処理)
自然言語認識部118は、取得した利用者の音声からキーワードとなる文字を抽出し、予め登録しているキーワードに関連する手続の一覧として生成する。
(Step S122 of FIG. 35: procedure list generation processing)
The natural language recognition unit 118 extracts a character that is a keyword from the acquired voice of the user and generates a list of procedures related to the keyword that is registered in advance.
すると、ステップS123で、投影部111は、ステップS122で生成された手続きの一覧を示す選択画面81を入力台40の上に表示する。
Then, in step S123, the
例えば、図36に示すように、自然言語認識部118は、利用者が発した音声から「引越」というキーワードを抽出した場合は、「住所変更」や「口座開設」の手続きを表示する一覧を生成する。 For example, as shown in FIG. 36, when the keyword “moving” is extracted from the voice uttered by the user, the natural language recognition unit 118 displays a list displaying procedures for “address change” and “account opening”. To generate.
キーワードを認識できない場合と、認識したキーワードが特別なキーワードである場合と等には、窓口へ利用者を促すメッセージを表示する。 When the keyword cannot be recognized, or when the recognized keyword is a special keyword, a message prompting the user is displayed at the counter.
***実施の形態8の効果***
以上のように、実施の形態8に係るデータ入力装置10は、自然言語認識処理を行う。自然言語認識処理により、手続きのため来所した利用者に来所目的を音声により発してもらうことで、人手を介さず、必要な申請手続の一覧表示を行うことが可能となる。
手続機関によっては、可能な手続き項目は多数あり、どの項目を選択すべきかわからないことが多々発生するが、検索の手間を省くことができる。
***Effects of Embodiment 8***
As described above, the
Depending on the procedural body, there are many possible procedural items, and although it is often unclear which item should be selected, it is possible to save the trouble of searching.
また、音声認識によらず来所目的を示すキーワード入力により動作するように構成してもよい。 Further, the operation may be performed by inputting a keyword indicating the purpose of coming to the visit instead of the voice recognition.
実施の形態9.
実施の形態9は、データ入力装置10aが別のデータ入力装置10bとネットワークを介して接続され、利用者と遠隔のオペレータとが投影画面を共有する点が実施の形態1と異なる。実施の形態9では、この異なる点を説明し、同一の点については説明を省略する。
なお、実施の形態9を実施の形態2〜8と組み合わせることも可能である。
Ninth Embodiment
The ninth embodiment differs from the first embodiment in that the data input device 10a is connected to another data input device 10b via a network, and the user and a remote operator share a projection screen. In the ninth embodiment, these different points will be described, and description of the same points will be omitted.
It is also possible to combine the ninth embodiment with the second to eighth embodiments.
***構成の説明***
図37を参照して、実施の形態9に係るデータ入力システム1の構成を説明する。
データ入力システム1は、音声入力装置71と音声出力装置72とテレビカメラ73とを備える点が図1に示すデータ入力システム1と異なる。音声入力装置71は、利用者の音声を取得するためのマイク装置である。音声出力装置72は、音声データを利用者に伝えるためのスピーカ装置である。テレビカメラ73は、利用者の映像を取得するための撮像装置である。
***Composition explanation***
The configuration of the
The
図38を参照して、実施の形態9に係るデータ入力装置10の構成を説明する。
データ入力装置10は、機能構成要素として、画面共有部119を備える点が図2に示すデータ入力装置10と異なる。画面共有部119は、他の機能構成要素と同様に、ソフトウェアによって実現される。なお、画面共有部119は、他の機能構成要素と同様に、ハードウェアによって実現されてもよい。
The configuration of the
The
***動作の説明***
図39を参照して、実施の形態9に係る画面共有処理を説明する。
ここでは、データ入力装置10aとデータ入力装置10bとがネットワークを介して接続されており、データ入力装置10aが利用者側に設置され、データ入力装置10bがオペレータ側に設置されているとする。
ステップS132とステップS133の処理は、図3のステップS2とステップS3の処理と同じである。
***Description of operation***
The screen sharing processing according to the ninth embodiment will be described with reference to FIG.
Here, it is assumed that the data input device 10a and the data input device 10b are connected via a network, the data input device 10a is installed on the user side, and the data input device 10b is installed on the operator side.
The processing of steps S132 and S133 is the same as the processing of steps S2 and S3 of FIG.
(図39のステップS131:画面共有処理)
投影部111は、利用者によって選択された手続きについて、プロジェクタ20により、入力内容85と入力欄86とが指定された入力フォーマット84を入力台40の上に投影表示する。すると、画面共有部119は、データ入力装置10aとネットワークを介して接続されたデータ入力装置10bに入力フォーマット84を送信する。データ入力装置10bの投影部は、送信された入力フォーマット84を投影面の上に投影表示し、データ入力装置10と映像を共有する。
(Step S131 of FIG. 39: screen sharing process)
The
なお、ステップS132では、データ入力装置10a側で入力欄86に手書きされた軌跡及び認識された文字は、データ入力装置10bに送信され、データ入力装置10bの投影部によって投影面の上に投影表示される。また、データ入力装置10b側で入力欄86に手書きされた軌跡及び認識された文字は、データ入力装置10aに送信され、データ入力装置10の投影部111によって入力台40の上に投影表示される。
つまり、データ入力装置10a側とデータ入力装置10b側との両方で入力欄86に入力することが可能であり、入力された内容はデータ入力装置10aとデータ入力装置10bとで共有される。
In step S132, the locus handwritten in the
That is, both the data input device 10a side and the data input device 10b side can input in the
例えば、利用者が投影面に「田中」と記載すると、記載すると同時に、異なるデータ入力装置10bの投影面の上に表示される。
また、異なるデータ入力装置10bの投影面で、「田中」を「鈴木」に変更すると、変更したと同時に、利用者の投影面に記載された「田中」は「鈴木」に変更表示される。
For example, when the user writes "Tanaka" on the projection surface, the user simultaneously writes it and is displayed on the projection surface of a different data input device 10b.
Further, when "Tanaka" is changed to "Suzuki" on a different projection surface of the data input device 10b, "Tanaka" written on the projection surface of the user is changed to "Suzuki" at the same time as the change.
***実施の形態9の効果***
以上のように、実施の形態9に係るデータ入力装置10aは、画面共有処理を行う。これにより、異なるデータ入力装置10bをオペレータが扱うことにより、手続き書類の書き方がわからない利用者に対して、音声入力装置71と音声出力装置72及びテレビカメラ73を使った説明だけでなく、手書きによる説明を行うことが可能となる。
***Effects of Embodiment 9***
As described above, the data input device 10a according to the ninth embodiment performs the screen sharing process. As a result, when the operator handles the different data input device 10b, not only the explanation using the
利用者に代わって、代筆を行う運用では、オペレータがその場にいなくても対応することが可能となる。 In the operation of writing a copy on behalf of the user, it is possible to deal with it even if the operator is not present.
1 データ入力システム、10 データ入力装置、11 プロセッサ、12 メモリ、13 ストレージ、14 通信インタフェース、15 処理回路、111 投影部、112 データ認識部、113 確認処理部、114 統計部、115 配置判定部、116 表示エリア認識部、20 プロジェクタ、21 投影面、30 電子ペン、40 入力台、50 データベースサーバ、60 伝送路、70 撮像装置、81 選択画面、82 表示内容、83 一覧、84 入力フォーマット、85 入力内容、86 入力欄、87 手続書類のフォーマット、88 確認データ、89 参照情報。 1 data input system, 10 data input device, 11 processor, 12 memory, 13 storage, 14 communication interface, 15 processing circuit, 111 projection unit, 112 data recognition unit, 113 confirmation processing unit, 114 statistical unit, 115 placement determination unit, 116 display area recognition unit, 20 projector, 21 projection surface, 30 electronic pen, 40 input stand, 50 database server, 60 transmission line, 70 imaging device, 81 selection screen, 82 display content, 83 list, 84 input format, 85 input Contents, 86 input field, 87 procedure document format, 88 confirmation data, 89 reference information.
Claims (5)
前記投影部が投影表示した前記入力欄に利用者からの手書き文字の入力を受け付け、前記手書き文字をデジタルデータとして認識するデータ認識部と、
利用者毎に、前記複数の入力内容それぞれについての前記手書き文字の画像と、前記データ認識部によって前記手書き文字から認識されたデジタルデータとの組を利用者情報として記憶する利用者情報記憶部と、
処理対象の入力欄に新たに手書き文字が入力されると、前記利用者情報記憶部に記憶されたデジタルデータであって、前記処理対象の入力欄に対応する入力内容のデジタルデータから、前記処理対象の入力欄に新たに入力された手書き文字から認識されたデジタルデータを特定し、特定されたデジタルデータと同じ組の手書き文字の画像と、前記新たに入力された手書き文字とを比較することにより、前記新たに入力された手書き文字に合致する前記利用者情報を特定する筆跡鑑定部と
を備え、
前記筆跡鑑定部により、前記利用者により入力された同一の入力内容が前記利用者情報記憶部に記憶されていることが判明したとき、
前記投影部が新たな入力フォーマットを投影表示する際に、前記利用者情報記憶部に記憶された前記入力内容の前記デジタルデータを前記新たな入力フォーマットの入力欄に入力された文字として投影表示する
データ入力装置。 A projection unit for projecting and displaying an input format indicating a plurality of input contents and an input field for each of the plurality of input contents on an input table;
A data recognition unit that accepts input of handwritten characters from a user in the input field projected and displayed by the projection unit and recognizes the handwritten characters as digital data.
A user information storage unit that stores, as user information, a set of the image of the handwritten character for each of the plurality of input contents and digital data recognized from the handwritten character by the data recognition unit, for each user. ,
When a new handwritten character is input to the input field of the processing target, the digital data stored in the user information storage unit, from the digital data of the input content corresponding to the input field of the processing target, identify the digital data recognized from the newly input handwritten character in the input field of the subject, comparing the image of the same set of handwritten characters with a particular digital data, and said newly input handwritten character According to the above, a handwriting appraisal unit that identifies the user information that matches the newly input handwritten character ,
When it is determined by the handwriting appraisal unit that the same input content input by the user is stored in the user information storage unit,
When the projection unit projects and displays a new input format, the digital data of the input content stored in the user information storage unit is projected and displayed as characters input in the input field of the new input format. Data entry device.
前記投影部が前記新たな入力フォーマットを投影表示する際に、前記利用者情報記憶部に記憶された前記入力内容の前記画像を前記新たな入力フォーマットの入力欄に投影表示する
請求項1に記載のデータ入力装置。 When it is determined by the handwriting appraisal unit that the same input content input by the user is stored in the user information storage unit,
When the projection unit is projected and displayed a new input formats above, wherein the image of the input contents stored in the user information storage unit in claim 1 for projecting the display in the input field of the new input formats Data input device.
請求項1又は2に記載のデータ入力装置。 The handwriting appraisal unit retrieves the digital data input by the past procedure stored in the user information storage unit by the digital data of the characters handwritten and recognized by the data recognition unit, and the digital data 3. The data input device according to claim 1, wherein the handwriting identification is performed by comparing the image associated with the handwriting with the newly input handwritten character.
データ認識部が、前記投影部が投影表示した前記入力欄に利用者からの手書き文字の入力を受け付け、前記手書き文字をデジタルデータとして認識し、
利用者情報記憶部が、利用者毎に、前記複数の入力内容それぞれについての前記手書き文字の画像と、前記データ認識部によって前記手書き文字から認識されたデジタルデータとの組を利用者情報として記憶し、
筆跡鑑定部が、処理対象の入力欄に新たに手書き文字が入力されると、前記利用者情報記憶部に記憶されたデジタルデータであって、前記処理対象の入力欄に対応する入力内容のデジタルデータから、前記処理対象の入力欄に新たに入力された手書き文字から認識されたデジタルデータを特定し、特定されたデジタルデータと同じ組の手書き文字の画像と、前記新たに入力された手書き文字とを比較することにより、前記新たに入力された手書き文字に合致する前記利用者情報を特定し、
前記筆跡鑑定部により、前記利用者により入力された同一の入力内容が前記利用者情報記憶部に記憶されていることが判明したとき、
前記投影部が新たな入力フォーマットを投影表示する際に、前記利用者情報記憶部に記憶された前記入力内容の前記デジタルデータを前記新たな入力フォーマットの入力欄に入力された文字として投影表示するデータ入力方法。 The projection unit projects and displays an input format indicating a plurality of input contents and an input field for each of the plurality of input contents on an input table,
The data recognition unit accepts input of handwritten characters from the user in the input field projected and displayed by the projection unit, and recognizes the handwritten characters as digital data,
The user information storage unit stores, for each user, a set of an image of the handwritten character for each of the plurality of input contents and digital data recognized from the handwritten character by the data recognition unit as user information. Then
When the handwriting appraisal unit newly inputs a handwritten character in the input field to be processed, the handwritten character is digital data stored in the user information storage unit, and digital data of the input content corresponding to the input field to be processed. From the data, the digital data recognized from the newly input handwritten character in the input field of the processing target is specified, the image of the same set of handwritten characters as the specified digital data, and the newly input handwritten character By comparing with, by specifying the user information that matches the newly input handwritten character ,
When it is determined by the handwriting appraisal unit that the same input content input by the user is stored in the user information storage unit,
When the projection unit projects and displays a new input format, the digital data of the input content stored in the user information storage unit is projected and displayed as characters input in the input field of the new input format. Data entry method.
データ入力プログラム。 Data input program causing a computer to function as a data input device according to any one of claims 1-3.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019124316A JP6734445B2 (en) | 2019-07-03 | 2019-07-03 | Data input device, data input method, and data input program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019124316A JP6734445B2 (en) | 2019-07-03 | 2019-07-03 | Data input device, data input method, and data input program |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018017137A Division JP6553217B1 (en) | 2018-02-02 | 2018-02-02 | Data input device, data input program and data input system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019175509A JP2019175509A (en) | 2019-10-10 |
JP6734445B2 true JP6734445B2 (en) | 2020-08-05 |
Family
ID=68167046
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019124316A Active JP6734445B2 (en) | 2019-07-03 | 2019-07-03 | Data input device, data input method, and data input program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6734445B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114092942A (en) * | 2021-11-26 | 2022-02-25 | 常州新途软件有限公司 | Vehicle-mounted embedded handwriting input method |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3895406B2 (en) * | 1996-03-12 | 2007-03-22 | 株式会社東邦ビジネス管理センター | Data processing apparatus and data processing method |
JPH11328288A (en) * | 1998-05-19 | 1999-11-30 | Dainippon Printing Co Ltd | Electronic application and electronic slip distribution service system |
JP2007304851A (en) * | 2006-05-11 | 2007-11-22 | Realit Co Ltd | Document input terminal, document management system, document management method, and document management program |
JP2011170757A (en) * | 2010-02-22 | 2011-09-01 | Nomura Research Institute Ltd | Management server for inputting personal information, client terminal, personal information input system, and program |
US9141955B2 (en) * | 2010-06-23 | 2015-09-22 | The Western Union Company | Biometrically secured user input for forms |
US9767088B2 (en) * | 2013-03-07 | 2017-09-19 | Ricoh Company, Ltd. | Stroke autocompletion in a form |
-
2019
- 2019-07-03 JP JP2019124316A patent/JP6734445B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2019175509A (en) | 2019-10-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10572779B2 (en) | Electronic information board apparatus, information processing method, and computer program product | |
US9785627B2 (en) | Automated form fill-in via form retrieval | |
JP2006236342A (en) | Method and system for validating multimedia electronic forms | |
US20140233837A1 (en) | Systems and methods for storing image properties for recreating an image | |
JP7206729B2 (en) | Information processing device and program | |
US9031308B2 (en) | Systems and methods for recreating an image using white space and check element capture | |
WO2021023085A1 (en) | Watermark adding method and apparatus, watermark recognition method and apparatus, and electronic device | |
CN111062377B (en) | Question number detection method, system, storage medium and electronic equipment | |
JP6734445B2 (en) | Data input device, data input method, and data input program | |
JP6553217B1 (en) | Data input device, data input program and data input system | |
US20150138077A1 (en) | Display system and display controll device | |
US20150227787A1 (en) | Photograph billpay tagging | |
JP6868665B2 (en) | Data entry device, data entry method and data entry program | |
JP6676121B2 (en) | Data input device and data input program | |
WO2021038708A1 (en) | Cartoon machine translation device, cartoon parallel translation database generation device, cartoon machine translation method, and program | |
CN110909723B (en) | Information processing apparatus and computer-readable storage medium | |
JP6549209B2 (en) | Data input device and data input program | |
JP5527947B2 (en) | Information processing apparatus, information processing system, and information processing program | |
JP2018136709A (en) | Data input device, data input program and data input system | |
JP6840811B1 (en) | Questionnaire input device, questionnaire input method and questionnaire input program | |
CN113495836A (en) | Page detection method and device for page detection | |
US12039504B1 (en) | Mobile check deposit | |
JP6682827B2 (en) | Information processing apparatus and information processing program | |
JP7333759B2 (en) | Image data generation system, image data generation method and computer program | |
KR101679295B1 (en) | Complex smart device and information processing method using the same |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190703 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200303 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200228 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200402 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200630 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200709 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6734445 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |