JP2018112894A - システムおよび制御方法 - Google Patents
システムおよび制御方法 Download PDFInfo
- Publication number
- JP2018112894A JP2018112894A JP2017002842A JP2017002842A JP2018112894A JP 2018112894 A JP2018112894 A JP 2018112894A JP 2017002842 A JP2017002842 A JP 2017002842A JP 2017002842 A JP2017002842 A JP 2017002842A JP 2018112894 A JP2018112894 A JP 2018112894A
- Authority
- JP
- Japan
- Prior art keywords
- screen
- user interface
- interface screen
- cpu
- document
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims description 83
- 230000007704 transition Effects 0.000 claims abstract description 6
- 230000008569 process Effects 0.000 claims description 59
- 238000005259 measurement Methods 0.000 claims description 11
- 238000001514 detection method Methods 0.000 claims description 8
- 238000003384 imaging method Methods 0.000 claims description 6
- 238000012545 processing Methods 0.000 description 46
- 238000012790 confirmation Methods 0.000 description 21
- 230000006870 function Effects 0.000 description 18
- 238000010586 diagram Methods 0.000 description 8
- 230000008859 change Effects 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 3
- 239000000284 extract Substances 0.000 description 3
- 239000011159 matrix material Substances 0.000 description 2
- 238000003825 pressing Methods 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 238000013519 translation Methods 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000013523 data management Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 238000000691 measurement method Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
Images
Landscapes
- User Interface Of Digital Computer (AREA)
Abstract
【課題】ユーザインタフェース画面へのユーザ操作による画面の遷移に伴って表示の態様を制御するシステムを提供する。【解決手段】平面台に投影されたユーザインタフェース画面に対するユーザ操作に応じて、ユーザインタフェース画面を遷移させるとともに前記ユーザインタフェース画面の表示の態様を制御する。【選択図】図9
Description
本発明は、画像データに基づき画像の投影を行うシステムおよび制御方法に関する。
従来、一つの画面の表示領域を分割し、複数人に対して各分割された画面を提供することが知られている。特許文献1には、2名〜5名の各人数に応じて画面の表示領域を分割し、各分割された画面上にテレビ画像のような動画を表示することが記載されている。
一方、金融機関等の営業店の窓口では、テラー(tellerオペレータ)が顧客に対して各種商品のセールスを行う窓口業務が行われている。そのような場合、テラーと顧客が1つの画面を異なる方向から見ることが多いので、1つの画面内を分割して表示する表示装置のニーズが高い。また、近年では、顧客業務において様々な用途に対応するために、テラーと顧客との間で取り扱われる情報が多様化してきている。
上記の窓口業務においては、テラーと顧客との間で取り扱われる情報および手続き進行の態様の多様化に伴って、その手続きのために用いられるユーザインタフェース画面へのユーザ操作も多様化してきている。従って、特許文献1のように、画面の表示領域を分割して表示するだけでは、そのような多様化するユーザ操作に十分に対応することができず、利便性を向上させることが難しい。
本発明の目的は、このような従来の問題点を解決することにある。上記の点に鑑み、本発明は、ユーザインタフェース画面へのユーザ操作による画面の遷移に伴って表示の態様を制御するシステムおよび制御方法を提供することを目的とする。
上記課題を解決するため、本発明に係るシステムは、平面台にユーザインタフェース画面を投影して表示する投影手段と、前記投影手段により前記平面台に投影された前記ユーザインタフェース画面に対するユーザ操作を検出する検出手段と、前記検出手段により検出された前記ユーザ操作に応じて、前記ユーザインタフェース画面を遷移させるとともに前記ユーザインタフェース画面の表示の態様を制御する制御手段とを有することを特徴とする。
本発明によれば、ユーザインタフェース画面へのユーザ操作による画面の遷移に伴って表示の態様を制御することができる。
以下、添付図面を参照して本発明の実施形態を詳しく説明する。尚、以下の実施形態は特許請求の範囲に係る本発明を限定するものでなく、また本実施形態で説明されている特徴の組み合わせの全てが本発明の解決手段に必須のものとは限らない。なお、同一の構成要素には同一の参照番号を付して、説明を省略する。
[第1の実施形態]
図1は、本実施形態におけるカメラスキャナ101を含むシステムの構成を示す図である。後述するが、複数名の操作者が、例えば、契約等の手続き、打ち合わせ、教育の目的で、システム100を使用する。システム100では、カメラスキャナ101は、イーサネット(登録商標)等のネットワーク104を介してホストコンピュータ102およびプリンタ103に接続されている。システム100は、ホストコンピュータ102からの指示により、カメラスキャナ101により読取領域内の画像を読み取るスキャン機能や、読み取られたスキャンデータをプリンタ103により出力するプリント機能を実行可能である。また、ホストコンピュータ102を介さず、ユーザによるカメラスキャナ101への直接の指示により、スキャン機能、プリント機能が実行される場合もある。
図1は、本実施形態におけるカメラスキャナ101を含むシステムの構成を示す図である。後述するが、複数名の操作者が、例えば、契約等の手続き、打ち合わせ、教育の目的で、システム100を使用する。システム100では、カメラスキャナ101は、イーサネット(登録商標)等のネットワーク104を介してホストコンピュータ102およびプリンタ103に接続されている。システム100は、ホストコンピュータ102からの指示により、カメラスキャナ101により読取領域内の画像を読み取るスキャン機能や、読み取られたスキャンデータをプリンタ103により出力するプリント機能を実行可能である。また、ホストコンピュータ102を介さず、ユーザによるカメラスキャナ101への直接の指示により、スキャン機能、プリント機能が実行される場合もある。
[カメラスキャナの構成]
図2は、カメラスキャナ101の構成を示す図である。図2(a)に示すように、カメラスキャナ101は、コントローラ部201、カメラ部202、腕部203、プロジェクタ207、距離画像センサ部208を含む。カメラスキャナ101の本体であるコントローラ部201と、撮像を行うためのカメラ部202、プロジェクタ207および距離画像センサ部208は、腕部203により連結されている。腕部203は、関節を用いて曲げ伸ばしが可能なように構成されている。
図2は、カメラスキャナ101の構成を示す図である。図2(a)に示すように、カメラスキャナ101は、コントローラ部201、カメラ部202、腕部203、プロジェクタ207、距離画像センサ部208を含む。カメラスキャナ101の本体であるコントローラ部201と、撮像を行うためのカメラ部202、プロジェクタ207および距離画像センサ部208は、腕部203により連結されている。腕部203は、関節を用いて曲げ伸ばしが可能なように構成されている。
図2(a)には、カメラスキャナ101が設置されている書画台204も示されている。書画台204は、平面台であり、複数の操作者が書画台204の周囲に位置し、上記の様々な手続きが進行する。カメラ部202および距離画像センサ部208のレンズは、書画台204方向に向けられており、破線で囲まれた読取領域205内の画像を読取可能である。図2では、原稿206は、読取領域205内に置かれており、カメラスキャナ101により読取可能である。カメラ部202は、単一解像度で画像を撮像するものとしても良いし、高解像度画像撮像と低解像度画像撮像が可能なものであっても良い。
書画台204内には、ターンテーブル209が設けられている。ターンテーブル209は、コントローラ部201からの指示により回転可能なように構成され、ターンテーブル209上に置かれた物体とカメラ部202との角度を変化させることができる。また、図2に示されていないが、カメラスキャナ101は、LCDタッチパネル330およびスピーカ340を含んでも良い。さらに、周囲の環境情報を収集するための人感センサ、照度センサ、加速度センサなどの各種センサデバイスを含んでも良い。
図2(b)は、カメラスキャナ101における座標系について表している。カメラスキャナ101では、各ハードウェアデバイスに対して、カメラ座標系、距離画像座標系、プロジェクタ座標系という座標系が定義されている。これらは、カメラ部202および距離画像センサ部208が撮像する画像平面、プロジェクタ207が投影する画像平面をそれぞれXY平面とし、各画像平面に直交する方向をZ方向として定義したものである。さらに、これらの独立した座標系の3次元データを統一的に扱えるようにするために、書画台204を含む平面をXY平面とし、このXY平面から上方に垂直な向きをZ軸とする直交座標系が定義されている。
座標系を変換する場合の一例として、図2(c)に、直交座標系と、カメラ部202を中心としたカメラ座標系を用いて表現された空間と、カメラ部202が撮像する画像平面との関係を示す。直交座標系における3次元点P[X,Y,Z]は、式(1)により、カメラ座標系における3次元点Pc[Xc,Yc,Zc]へ変換することができる。
ここで、Rcおよびtcは直交座標系に対するカメラの姿勢(回転)と位置(並進)によって求まる外部パラメータによって構成され、Rcを3×3の回転行列、tcを並進ベクトルと呼ぶ。逆に、カメラ座標系で定義された3次元点は、式(2)式により、直交座標系へ変換することができる。
さらに、カメラ部202で撮影される2次元のカメラ画像平面は、カメラ部202によって3次元空間中の3次元情報が2次元情報に変換されたものである。即ち、カメラ座標系上での3次元点Pc[Xc,Yc,Zc]は、式(3)によりカメラ画像平面での2次元座標pc[xp,yp]に透視投影変換することにより変換することができる。
ここで、Aは、カメラの内部パラメータと呼ばれ、焦点距離と画像中心などで表現される3×3の行列である。
以上のように、式(1)と式(3)を用いることで、直交座標系で表された3次元点群を、カメラ座標系での3次元点群座標やカメラ画像平面に変換することができる。なお、各ハードウェアデバイスの内部パラメータおよび直交座標系に対する位置姿勢(外部パラメータ)は、公知のキャリブレーション手法により予めキャリブレーションされているものとする。以後、特に断りがなく3次元点群と表記した場合は、直交座標系における3次元データを表しているものとする。
[カメラスキャナのコントローラのハードウェア構成]
図3は、カメラスキャナ101の本体であるコントローラ部201のハードウェア構成を示す図である。コントローラ部201は、CPU302、RAM303、ROM304、HDD305、ネットワークインタフェース(I/F)306を含む。また、コントローラ部201は、画像処理プロセッサ307、カメラI/F308、ディスプレイコントローラ309、シリアルI/F310、オーディオコントローラ311およびUSBコントローラ312を含む。上記各ブロックは、システムバス301を介して相互に通信可能に接続されている。
図3は、カメラスキャナ101の本体であるコントローラ部201のハードウェア構成を示す図である。コントローラ部201は、CPU302、RAM303、ROM304、HDD305、ネットワークインタフェース(I/F)306を含む。また、コントローラ部201は、画像処理プロセッサ307、カメラI/F308、ディスプレイコントローラ309、シリアルI/F310、オーディオコントローラ311およびUSBコントローラ312を含む。上記各ブロックは、システムバス301を介して相互に通信可能に接続されている。
CPU302は、コントローラ部201全体の動作を統括的に制御する中央演算装置である。RAM303は、揮発性メモリである。ROM304は、不揮発性メモリであり、CPU302の起動用プログラムが格納されている。HDD305は、RAM303に対して大容量なハードディスクドライブ(HDD)である。HDD305には、コントローラ部201の実行する、カメラスキャナ101の制御用プログラムが格納されている。
CPU302は、電源ON等の起動時に、ROM304に格納されている起動用プログラムを実行する。この起動用プログラムは、HDD305に格納されている制御用プログラムを読み出し、RAM303上に展開するためのものである。CPU302は、起動用プログラムを実行すると、続けてRAM303上に展開した制御用プログラムを実行する。また、CPU302は、制御用プログラムによる動作に用いるデータもRAM303に読み出す。HDD305には、さらに、制御用プログラムによる動作に必要な各種設定や、また、カメラ入力により生成された画像データを格納することができ、CPU302により読出し/書込みが行われる。CPU302は、ネットワークI/F306を介してネットワーク104上の他の機器と相互に通信を行う。
画像処理プロセッサ307は、RAM303に格納された画像データを読み出して処理し、RAM303へ書き込む。なお、画像処理プロセッサ307が実行する画像処理は、例えば、回転、変倍、色変換である。カメラI/F308は、カメラ部202および距離画像センサ208と接続され、CPU302からの指示により、カメラ部202から撮像データを取得し、距離画像センサ部208から距離画像データを取得して、RAM303へ書き込む。また、CPU302は、カメラ部202および距離画像センサ208へ制御コマンドを送信し、カメラ部202および距離画像センサ208の設定を行う。
ディスプレイコントローラ309は、CPU302の指示により、ディスプレイへの画像データの表示を制御する。図3では、ディスプレイコントローラ309は、短焦点プロジェクタ207とLCDタッチパネル330に接続されている。シリアルI/F310は、シリアル信号の入出力を行う。ここでは、シリアルI/F310は、ターンテーブル209に接続され、CPU302からの回転開始/終了および回転角度の指示を、ターンテーブル209へ送信する。また、シリアルI/F310は、LCDタッチパネル330に接続され、CPU302は、LCDタッチパネル330が押下されたときに、シリアルI/F310を介して、押下された座標を取得する。
オーディオコントローラ311は、スピーカ340に接続され、CPU302の指示により、音声データをアナログ音声信号に変換し、スピーカ340を介して音声を出力する。USBコントローラ312は、CPU302の指示により、外付けのUSBデバイスの制御を行う。図3では、USBコントローラ312は、USBメモリやSDカードなどの外部メモリ350に接続され、外部メモリ350へのデータの読出し/書込みを行う。
[カメラスキャナの制御用プログラムの機能構成]
図4は、CPU302が実行するカメラスキャナ101の制御用プログラムの機能構成401を示す図である。カメラスキャナ101の制御用プログラムは、前述のようにHDD305に格納され、起動時に、CPU302がRAM303に展開して実行する。
図4は、CPU302が実行するカメラスキャナ101の制御用プログラムの機能構成401を示す図である。カメラスキャナ101の制御用プログラムは、前述のようにHDD305に格納され、起動時に、CPU302がRAM303に展開して実行する。
メイン制御部402は、機能構成401内の他の各モジュールを統括的に制御する。画像取得部410は、画像入力処理を行うモジュールであり、カメラ画像取得部407、距離画像取得部408を含む。カメラ画像取得部407は、カメラI/F308を介して、カメラ部202が出力する撮像データを取得し、RAM303へ格納する。距離画像取得部408は、カメラI/F308を介して、距離画像センサ部208が出力する距離画像データを取得し、RAM303へ格納する。距離画像取得部408による処理の詳細は、図5を用いて後述する。
ジェスチャー認識部409は、カメラ画像取得部407、距離画像取得部408が取得する画像データから書画台204上の物体の動きを検知して認識するモジュールである。ジェスチャー認識部409は、画像取得部416から書画台204上の画像を取得し続け、タッチ操作などのジェスチャーを検知すると、その検知情報をメイン制御部402へ通知する。ジェスチャー認識部409による処理の詳細は、図6を用いて後述する。画像処理部411は、カメラ部202および距離画像センサ部208から取得した画像データを画像処理プロセッサ307で解析するために用いられる。ジェスチャー認識部409も、画像処理部411の機能を利用して実行される。
ユーザインタフェース部403は、メイン制御部402からの要求を受け、メッセージやボタン等のGUI部品を生成する。そして、ユーザインタフェース部403は、表示部406へ生成したGUI部品の表示を要求する。表示部406は、ディスプレイコントローラ309を介して、プロジェクタ207もしくはLCDタッチパネル330へ、要求されたGUI部品の表示を行う。
プロジェクタ207は、書画台204に向けて設置されており、書画台204上にGUI部品を投射する。また、ユーザインタフェース部403は、ジェスチャー認識部409が認識したタッチ等のジェスチャー操作、あるいはシリアルI/F310を介したLCDタッチパネル330からの入力操作、そしてさらにそれらの座標情報を受信する。そして、ユーザインタフェース部403は、描画中の操作画面の内容と操作座標とを対応させて、操作内容(押下されたボタン等)を判定する。ユーザインタフェース部403は、その操作内容の判定結果をメイン制御部402へ通知する。このような一連の動作により、操作者のユーザ操作の受付けが行われる。
ネットワーク通信部404は、ネットワークI/F306を介して、ネットワーク104上の他の機器とTCP/IPによる通信を行う。データ管理部405は、制御用プログラム401の実行において生成された作業データや、カメラ部202や距離画像センサ部208からの画像データなど様々なデータを、HDD305の所定の領域へ保存して管理する。例えば、作業データには、不図示であるが、平面原稿画像撮影部、書籍画像撮影部、立体形状測定部により生成されたスキャンデータが含まれる。
[距離画像センサおよび距離画像取得部の説明]
図5は、距離画像センサ208の構成を示す図である。距離画像センサ208は、赤外線によるパターン投射方式の距離画像センサである。距離画像センサ208内の赤外線パターン投射部361は、測定対象物に対して、人の目には不可視である赤外線により3次元測定パターンを投射する。距離画像センサ208内の赤外線カメラ362は、対象物に対して投射された3次元測定パターンを読み取るカメラである。距離画像センサ208内のRGBカメラ363は、人の目に見える可視光をRGB信号で撮影するカメラである。
図5は、距離画像センサ208の構成を示す図である。距離画像センサ208は、赤外線によるパターン投射方式の距離画像センサである。距離画像センサ208内の赤外線パターン投射部361は、測定対象物に対して、人の目には不可視である赤外線により3次元測定パターンを投射する。距離画像センサ208内の赤外線カメラ362は、対象物に対して投射された3次元測定パターンを読み取るカメラである。距離画像センサ208内のRGBカメラ363は、人の目に見える可視光をRGB信号で撮影するカメラである。
距離画像取得部408の処理を、図5(a)のフローチャートを用いて説明する。また、図5(b)〜(d)は、パターン投射方式による距離画像の計測原理を説明するための図である。図5(a)の処理は、距離画像取得部408により開始される。
S501では、CPU302は、図5(b)に示すように赤外線パターン投射部361を用いて赤外線による3次元形状測定パターン522を対象物521に対して投射する。S502では、CPU302は、RGBカメラ363を用いて対象物を撮影したRGB画像523、および、赤外線カメラ362を用いてS501で投射された3次元測定パターン522を撮影した赤外線カメラ画像524、を取得する。なお、赤外線カメラ362とRGBカメラ363とでは設置位置が異なるので、図5(c)に示すようにそれぞれで撮影される2つのRGBカメラ画像523および赤外線カメラ画像524の撮影領域は異なる。そこで、S503では、CPU302は、赤外線カメラ362の座標系からRGBカメラ363の座標系への座標系変換を用いて赤外線カメラ画像524をRGBカメラ画像523の座標系に合わせる。なお、赤外線カメラ362とRGBカメラ363の相対位置や、それぞれの内部パラメータは、事前のキャリブレーション処理により既知であるとする。
S504では、CPU302は、図5(d)に示すように、3次元測定パターン522とS503で座標変換が行われた赤外線カメラ画像524との間での対応点を抽出する。例えば、赤外線カメラ画像524上の1点を3次元測定パターン522上から探索して、同一の点が検出された場合に対応付けを行う。あるいは、赤外線カメラ画像524の画素の周辺のパターンを3次元測定パターン522上から探索し、一番類似度が高い部分と対応付けてもよい。
S505では、CPU302は、赤外線パターン投射部361と赤外線カメラ362を結ぶ直線を基線525とし、三角測量の原理により赤外線カメラ362からの距離を算出する。S504で対応付けがなされた画素については、赤外線カメラ362からの距離を算出して画素値として保存し、対応付けが出来なかった画素については、距離の計測ができなかった画素として無効値を保存する。CPU302は、値の保存処理を、S503で座標変換が行われた赤外線カメラ画像524の全画素に対して行い、各画素に距離値が付加された距離画像を生成する。
S506では、CPU302は、距離画像の各画素にRGBカメラ画像523のRGB値を保存することにより、1画素につきR、G、B、距離の4つの値を持つ距離画像を生成する。ここで、取得した距離画像は、距離画像センサ208のRGBカメラ363で定義された距離画像センサ座標系が基準となっている。そこで、S507では、図2(b)で説明したように、距離画像センサ座標系として得られた距離データを直交座標系における3次元点群に変換する。以下、特に指定がなく3次元点群と表記した場合は、直交座標系における3次元点群を示すものとする。
なお、本実施形態では、上述したように、距離画像センサ208として赤外線パターン投射方式を採用している。しかしながら、他の方式の距離画像センサを用いるようにしても良い。例えば、2つのRGBカメラでステレオ立体視を行うステレオ方式や、レーザ光の飛行時間を検出することで距離を測定するTOF(Time of Flight)方式など、他の計測方式を用いても良い。
[ジェスチャー認識部の説明]
次に、ジェスチャー認識部409の処理の詳細を、図6(a)のフローチャートを用いて説明する。図6(a)の処理は、ジェスチャー認識部409により開始される。
次に、ジェスチャー認識部409の処理の詳細を、図6(a)のフローチャートを用いて説明する。図6(a)の処理は、ジェスチャー認識部409により開始される。
S601では、CPU302は、初期化処理を行う。初期化処理では、距離画像取得部408から距離画像が1フレーム取得される。ここで、ジェスチャー認識部409による処理開始時は、書画台204上に対象物が置かれていない状態であるので、初期状態として書画台204の平面の認識を行う。つまり、CPU302は、取得した距離画像から最も広い平面を抽出し、その位置と法線ベクトル(以降、書画台204の平面パラメータと呼ぶ)を算出し、RAM303に保存する。
次に、S602では、S621〜622に示す、書画台204上に存在する物体の3次元点群を取得する処理が行われる。S621では、CPU302は、距離画像取得部408から距離画像と3次元点群を1フレーム取得する。S622では、CPU302は、書画台204の平面パラメータを用いて、取得した3次元点群から書画台204を含む平面にある点群を除去する。
次に、S603では、S631〜S634に示す、取得した3次元点群からユーザの手の形状および指先を検出する処理が行われる。ここで、図7(a)〜(c)に示す、指先検出処理の方法を模式的に表した図を用いて説明する。S631では、CPU302は、S602で取得した3次元点群から、書画台204を含む平面から所定の高さ以上にある、肌色の3次元点群を抽出することで、手の3次元点群を取得する。図7(a)の画像661は、抽出した手の3次元点群を表している。
S632では、CPU302は、抽出した手の3次元点群を、書画台204の平面に射影した2次元画像を生成して、その手の外形を検出する。図7(a)の画像662は、書画台204の平面に投影した3次元点群を表している。ここで、点群の各座標は、書画台204の平面パラメータを用いて投影される。また、図7(b)に示すように、投影した3次元点群から、xy座標の値だけを取り出せば、z軸方向から見た2次元画像663として扱うことができる。その際、CPU302は、手の3次元点群の各点が、書画台204の平面に投影した2次元画像の各座標のどれに対応するかを記憶領域に記憶しておくものとする。
S633では、CPU302は、検出した手の外形上の各点について、その点での外形の曲率を算出し、算出した曲率が所定値より小さい点を指先として検出する。図7(c)は、外形の曲率から指先を検出する方法を模式的に表したものである。特徴点664は、書画台204の平面に投影された2次元画像663の外形を表す点の一部を表している。ここで、特徴点664のような、外形を表す点のうち、隣り合う5個の点を含むように円を描くとする。円665、667が、その一例である。CPU302は、この円を、全ての外形の点に対して順に描き、その直径(例えば、直径666、668)が所定の値より小さい(曲率が小さい)ことを以て、指先を検出する。この例では、隣り合う5個の点としたが、その数は限定されるものではない。また、ここでは曲率を用いたが、外形に対して楕円フィッティングを行うことで、指先を検出しても良い。
S634では、CPU302は、検出した指先の個数および各指先の座標を算出する。この時、前述したように、書画台204に投影した2次元画像の各点と、手の3次元点群の各点との対応関係を記憶している。従って、各指先の3次元座標を取得することができる。
本実施形態では、3次元点群から2次元画像に投影した画像から指先を検出する方法を説明した。しかしながら、指先検出の対象とする画像は、これに限定されるものではない。例えば、距離画像の背景差分や、RGB画像の肌色領域から手の領域を抽出し、上述と同様の方法(外形の曲率計算等)で、手領域のうちの指先を検出しても良い。その場合、検出した指先の座標はRGB画像や距離画像といった2次元画像上の座標であるので、その座標における距離画像の距離情報を用いて、直交座標系の3次元座標に変換する必要がある。その時、指先点となる外形上の点ではなく、指先を検出するときに用いた、曲率円の中心を指先点としても良い。
S604では、S641〜S646に示す、検出した手の形状および指先からのジェスチャー判定処理が行われる。S641では、CPU302は、S603で検出された指先が1つであるか否かを判定する。検出された指先が1つでないと判定された場合、S646へ進み、ジェスチャーなしと判定する。一方、検出された指先が1つであると判定された場合、S642へ進み、CPU302は、検出された指先と書画台204を含む平面との距離を算出する。赤外線カメラ362から指先までの距離は、図5のS505における説明のように算出されており、赤外線カメラ362と書画台204までの距離は既知であるので、指先と書画台204との間の距離を算出することができる。
S643では、CPU302は、S642で算出された距離が微小な所定値以下であるか否かを判定する。所定値以下であると判定された場合、S644へ進み、CPU302は、指先が書画台204へタッチした、即ちタッチジェスチャーありと判定する。一方、所定値以下でないと判定された場合、S645へ進み、CPU302は、指先が移動したジェスチャー、即ち、タッチはしていないが指先が書画台204上に存在するジェスチャーであると判定する。
S644〜S646の処理後、S605へ進む。S605では、CPU302は、判定したジェスチャーをメイン制御部402へ通知する。そして、S602へ戻ってジェスチャー認識処理を繰り返す。
なお、ここでは、一本指でのジェスチャー認識について説明を行ったが、複数の指あるいは複数の手でのジェスチャー認識に適用しても良い。
本実施形態では、以上のような処理により、書画台204上での指先の位置、指先のジェスチャーが検出される。そして、書画台204上には、プロジェクタ207により後述するような複数の遷移画面を含むユーザインタフェース画面が投影されている。従って、カメラスキャナ101は、投影されたユーザインタフェース画面におけるどの位置でジェスチャー操作があったかを認識することが可能である。そして、カメラスキャナ101は、その認識した情報に基づいて、次に投影すべき表示画面を生成してプロジェクタ207により投影する。
また、カメラスキャナ101は、書画台204上に投影されたユーザインタフェース画面上でのジェスチャー位置によって、書画台204のいずれの側に位置しているユーザであるかを判断する。例えば、後述するが、図11(c)でサムネイル915A上でジェスチャー操作を検出した場合には、操作者701による操作であると認識し、サムネイル915B上でジェスチャー操作を検出した場合には、顧客702による操作であると認識する。そして、カメラスキャナ101は、その認識した結果に応じて、次に書画台204上に投影するユーザインタフェース画面をいずれかの向きになるように生成してプロジェクタ207に投影させる。そのような画面の生成は、例えば、認識したユーザの位置に応じて、例えば、2名であるならばデフォルト画像を180度回転させることにより行うことができる。本実施形態では、そのような構成により、ユーザのユーザインタフェース画面の操作性と閲覧性を向上させることができる。
[利用シーンの説明]
図8を用いてカメラスキャナ101の利用シーンについて説明する。
図8を用いてカメラスキャナ101の利用シーンについて説明する。
本実施形態においては、複数名の操作者がカメラスキャナ101を利用する場合を想定している。例えば、契約などの手続きを行う場面、商品などの説明を行う場面、打合せを行う場面、教育など様々なシーンでの使用に適用することができる。カメラスキャナ101の操作者は、カメラスキャナ101の操作を行いながら説明を行う人(メイン操作者)と、説明を受けながらカメラスキャナ101を操作する人(サブ操作者)に分類される。契約などの手続きを行う場面においては、説明員(メイン操作者)と顧客(サブ操作者)により、契約内容の確認、必要事項の入力、入力内容確認、承認といった手続きが行われる。本実施形態では、このような複数の操作者がカメラスキャナ101を操作する場合に、適切な処理フローを実現させることを目的とする。
図8は、2人の操作者701および顧客702が同時にカメラスキャナ101を操作している様子を示す図である。例えば、図8のように対面で利用することが可能である。操作者701と顧客702の配置は、カメラスキャナ101のシステム起動時に、メイン操作者がログインする際に決めることができる。あるいは、顔認証技術などを用いて、事前に登録されているメイン操作者の顔を検出し、それ以外の操作者をサブ操作者と判断することで決めることも可能である。また、カメラスキャナ101を1人で利用することも、3人以上で利用することも可能である。また、システム起動時に、カメラスキャナ101を使用する人数を設定するようにしても良い。上記のような初期設定は、例えば、ホストコンピュータ102で起動されたカメラスキャナ101の設定画面上で行われるようにしても良い。
以下、図8のように対面での契約手続きで使用するシーンを用いて説明を行う。そして、カメラスキャナ101に対して左側にいる人物を操作者701、右側にいる人物を顧客702とする。なお、操作者数や配置、使用シーンに関して、本実施形態での説明に限定されるものではない。
[メイン制御部の説明]
図9のフローチャートを用いてメイン制御部402が実行する表示制御処理について説明する。また、図10は、操作者701と顧客702が書画台204上に表示されたユーザインタフェース(UI)画面を操作している様子を示す図である。図9の処理は、メイン制御部402により開始される。
図9のフローチャートを用いてメイン制御部402が実行する表示制御処理について説明する。また、図10は、操作者701と顧客702が書画台204上に表示されたユーザインタフェース(UI)画面を操作している様子を示す図である。図9の処理は、メイン制御部402により開始される。
S901において、CPU302は、プロジェクタ207によりUI画面を書画台204上へ投影表示させる。例えば、UI画面の一例として、図10(a)に示す画面がある。UI画面には、氏名入力欄901、パスワード入力欄902、OKボタン903が投影表示されている。操作者701および顧客702はジェスチャー操作により操作項目を設定する。なお、操作項目についてはこれに限るものではない。例えば、ソフトキーボード入力操作や、表示されたUI部品・画像に対するジェスチャー操作(拡縮表示・回転・移動・切り出しなど)でも良い。
S902において、CPU302は、ジェスチャー認識部409からのジェスチャー検知通知の有無を確認する。なお、以下の説明では、検知するジェスチャーは書画台204上へのタッチ操作であるとするが、その他のジェスチャー操作を用いても良い。図10(a)の場合には、指先タッチジェスチャー検知通知がされないので、S906へ進む。一方、図10(b)に示す場合においては、タッチジェスチャー検知通知が通知されるのでS903へ進む。
S903において、CPU302は、検出されたタッチジェスチャーによって選択された操作項目を判定する。図10(b)の場合には、氏名入力欄901への入力開始指示であると判定される。S904では、CPU302は、S903で判定された操作項目を実行する。S905では、実行された操作項目に伴うUI画面の更新処理を行う。その際に、ソフトキーボードが表示されるようにしても良い。図10(b)の場合には、氏名入力欄901への入力結果が反映される。
S906では、CPU302は、システムの終了判定を行い、終了判定がなされるまでS901〜S905の処理を繰り返す。なお、システムの終了は、例えば、UI画面上に投射表示された終了ボタンを操作することや、カメラスキャナ101の本体の電源ボタン(不図示)を押すなどにより行われる。
以下、操作者701と顧客702が行う操作例と書画台204上に投影されるUI画面と詳細な処理フローの例について図10、図12を用いて説明する。
[ログイン時の操作画面]
図10(a)は、ログイン画面を示している。図10(a)に示すように、書画台204上で、操作者701の氏名入力欄901とパスワード入力欄902、及び入力が完了した後に押下されるOKボタン903が操作者701に向けて表示される。図10(b)は、氏名を入力するために、操作者701が氏名入力欄901の部分を選択することで入力が可能となり、氏名を入力している例を示している。
図10(a)は、ログイン画面を示している。図10(a)に示すように、書画台204上で、操作者701の氏名入力欄901とパスワード入力欄902、及び入力が完了した後に押下されるOKボタン903が操作者701に向けて表示される。図10(b)は、氏名を入力するために、操作者701が氏名入力欄901の部分を選択することで入力が可能となり、氏名を入力している例を示している。
続いてこの画面上での処理フローを図12(a)を用いて説明する。
S1201では、CPU302は、図10(a)に示すようにログイン画面表示を行い、氏名入力欄901とパスワード入力欄902の入力を受け付ける。S1202では、CPU302は、氏名情報とパスワード情報とに基づいて、ログインが成功であるか否かを判定する。ログインが成功でないと判定された場合、S1201からの処理を繰り返す。ログインが成功であると判定された場合、S1203で、CPU302は、後述する機能メニュー画面表示の処理を実行する。
[機能と商品の選択画面]
図10(c)は、機能メニュー選択画面を示している。機能メニュー選択画面は、説明員が顧客とどのような内容について相談するかの選択を受け付けるための画面であり、書面台204上で、機能メニュー905A及び905Bが操作者701に向けて表示される。また、操作を終了する場合のログアウトボタン904も表示される。
図10(c)は、機能メニュー選択画面を示している。機能メニュー選択画面は、説明員が顧客とどのような内容について相談するかの選択を受け付けるための画面であり、書面台204上で、機能メニュー905A及び905Bが操作者701に向けて表示される。また、操作を終了する場合のログアウトボタン904も表示される。
続いてこの画面上での処理フローを図12(b)を用いて説明する。
S1211では、CPU302は、機能メニュー選択画面上でログアウトボタン904が押下されたか否かを判定する。ここで、ログアウトボタン904が押下されたと判定された場合、S1201のログイン画面表示の処理に移行する。ログインボタン904が押下されていないと判定された場合、S1212に進む。
S1212では、CPU302は、機能メニュー905A及び905Bのいずれかが押下されたか否かを判定する。機能メニュー905A及び905Bのいずれかが押下されたと判定された場合、S1213に進み、CPU302は、後述する商品メニュー画面表示の処理を実行する。機能メニュー905及び905Bのいずれもが押下されていないと判定された場合、S1211からの処理を繰り返す。
図10(d)は、商品メニュー選択画面を示している。商品メニュー選択画面は、顧客702が説明員である操作者701に相談したい内容の選択を受け付けるための画面であり、書面台204上で、商品メニュー906A、906B、906Cが顧客702に向けて表示される。一方、画面を前に戻すための戻るボタン907が操作者701に向けて表示される。図10(d)の商品メニュー選択画面のデータは、例えば、以下のようにして生成しても良い。まず、デフォルトで用意されている商品メニュー選択画面のフォーマットを、商品メニュー906A〜906Cを含む領域と、戻るボタン907を含む領域とに分割する。そして、カメラスキャナ101の起動時に設定された人数等に対応した角度分、例えば2名であれば180度分、商品メニュー906A〜906Cを含む領域を回転させる。そして、回転された商品メニュー906A〜906Cを含む領域と、戻るボタン907を含む領域とを合成して図10(d)の商品メニュー選択画面のデータを生成する。
続いてこの画面上での処理フローを図12(c)を用いて説明する。
S1221では、CPU302は、商品メニュー選択画面上で戻るボタン907が押下されたか否かを判定する。ここで、戻るボタン907が押下されたと判定された場合、S1224で、CPU302は、1つ前の画面表示を行う。本実施形態では、図10(c)の機能メニュー選択画面の表示が行われる。戻るボタン907が押下されていないと判定された場合、S1222へ進む。
S1222では、CPU302は、商品メニュー906A〜906Cのいずれかが押下されたか否かを判定する。ここで、商品メニュー906A〜906Cのいずれかが押下されたと判定された場合、S1223で、CPU302は、後述する顧客情報入力画面表示を実行する。商品メニュー906A〜906Cのいずれもが押下されていないと判定された場合、S1221からの処理を繰り返す。
このように、本実施形態では、顧客702が選択すべき項目は顧客702に向けて表示され、操作者701が選択すべき項目は操作者701に向けて表示される。その結果、操作者701、顧客702の各々のUI上での閲覧及び操作を行い易くすることができる。
[顧客情報入力画面]
図10(e)は、顧客情報入力画面を示している。顧客情報入力画面は、図10(d)の商品メニュー選択画面で選択された商品メニューに対する顧客の情報の入力を受け付けるための画面である。また、顧客情報入力画面上には、商品メニュー毎に作業すべき作業ステップを表すステップ欄909が表示される。本例では、顧客情報入力としてステップ1であることが強調表示されている。
図10(e)は、顧客情報入力画面を示している。顧客情報入力画面は、図10(d)の商品メニュー選択画面で選択された商品メニューに対する顧客の情報の入力を受け付けるための画面である。また、顧客情報入力画面上には、商品メニュー毎に作業すべき作業ステップを表すステップ欄909が表示される。本例では、顧客情報入力としてステップ1であることが強調表示されている。
顧客情報入力画面上には、顧客702の情報を入力するための情報選択画面930が操作者701に向けて表示される。その結果、操作者701は、入力したい情報を選択しながら入力を繰り返すことができる。情報が操作者701により入力されると、その入力に伴って、入力された情報を反映した顧客情報出力画面910が顧客702に向けて表示される。このような構成により、操作者701と顧客702のともに無理なく入力及びリアルタイムでの入力内容の確認を行うことができる。また、入力画面が複数に跨る場合、入力画面選択ボタン908A及び908Bを操作者701に向けて表示し、入力画面選択ボタン908Bが押下されると、CPU302は、さらに情報選択画面930を表示する。
また、入力が完了した場合に次のステップに移行するための完了ボタン911を操作者701に向けて表示する。操作者701は、ステップ欄909で表示されているステップボタンを選択することで、ステップ1から順に作業を行うことができる。また、ステップ1の後にステップ3に戻る、もしくは、ステップ4からステップ1に戻る等のステップ間の自由な移行を指示することもできる。
図10(e)の顧客情報入力画面のデータは、例えば、以下のようにして生成しても良い。まず、デフォルトで用意されている顧客情報入力画面のフォーマットを、顧客情報出力画面910を含む領域と、ステップ欄909、情報選択画面930、入力画面選択ボタン908A及び908B、完了ボタン911、戻るボタン907を含む他の領域とに分割する。そして、カメラスキャナ101の起動時に設定された人数等に対応した角度分、例えば2名であれば180度分、顧客情報出力画面910の領域を回転させる。そして、回転された顧客情報出力画面910を含む領域と、上記他の領域とを合成して図10(e)の顧客情報入力画面のデータを生成する。
[顧客情報確認画面]
図10(f)は、顧客情報確認画面を示している。図10(e)の顧客情報入力画面において完了ボタン911が押下された、もしくは、全ての情報の入力が完了すると、顧客702が顧客情報を確認できるように、顧客702に向けて顧客情報一覧912が表示される。但し、次のステップに移行するための次へボタン905は、操作者701に向けて表示される。このような構成により、顧客702は画面を無理なく確認することができ、また、情報の入力に問題がないとする顧客702の判断を操作者701が確認した場合、操作者701は、次へボタン905を押下する操作を自然な操作により行うことができる。操作者701が入力された情報を修正したい場合、図11(a)に示すように、操作者701は修正したい箇所を示して選択し、顧客702に新たな数値を入力させることで修正が可能である。図11(a)では、顧客情報一覧912中のご職業欄が選択された様子を示している。
図10(f)は、顧客情報確認画面を示している。図10(e)の顧客情報入力画面において完了ボタン911が押下された、もしくは、全ての情報の入力が完了すると、顧客702が顧客情報を確認できるように、顧客702に向けて顧客情報一覧912が表示される。但し、次のステップに移行するための次へボタン905は、操作者701に向けて表示される。このような構成により、顧客702は画面を無理なく確認することができ、また、情報の入力に問題がないとする顧客702の判断を操作者701が確認した場合、操作者701は、次へボタン905を押下する操作を自然な操作により行うことができる。操作者701が入力された情報を修正したい場合、図11(a)に示すように、操作者701は修正したい箇所を示して選択し、顧客702に新たな数値を入力させることで修正が可能である。図11(a)では、顧客情報一覧912中のご職業欄が選択された様子を示している。
図10(f)の顧客情報確認画面のデータは、例えば、以下のようにして生成しても良い。まず、デフォルトで用意されている顧客情報確認画面のフォーマットを、顧客情報一覧912を含む領域と、次へボタン905を含む領域とに分割する。そして、カメラスキャナ101の起動時に設定された人数等に対応した角度分、例えば2名であれば180度分、顧客情報一覧912を含む領域を回転させる。そして、回転された顧客情報一覧912を含む領域と、次へボタン905を含む領域とを合成して図10(f)の顧客情報確認画面のデータを生成する。
このように、本実施形態では、顧客702と操作者701双方が画面を無理なく確認して操作を行うことができる。なお、上記の選択操作と修正操作は、上述したようなタッチジェスチャーを用いて行っても良いし、付属のキーボード等を用いて行っても良い。
続いて、顧客情報入力画面、顧客情報確認画面上での処理フローを図13を用いて説明する。
S1223では、CPU302は、図10(e)の顧客情報入力画面の表示を上記のように行う。S1232では、CPU302は、顧客情報入力画面上で何らかのボタンが押下されたかを判定する。何らかのボタンが押下されたと判定された場合、S1233へ進み、ボタンが押下されていないと判定された場合、S1232の処理を繰り返す。
S1233では、CPU302は、情報選択画面930内の入力項目が押下されたか否かを判定する。入力項目が押下されたと判定された場合、S1234へ進み、入力項目が押下されていないと判定された場合、S1236へ進む。
入力項目が押下されたと判定された場合、S1234で、CPU302は、選択された項目(例えば年齢や性別)の入力が完了したかを判定する。入力が完了したと判定された場合、S1235へ進み、入力が完了していないと判定された場合、S1234の処理を繰り返す。
入力が完了された場合、S1235では、CPU302は、入力された内容を顧客情報出力画面910の項目の欄に表示する。例えば、S1233で年齢が押下され値が入力された場合、年齢の欄に表示される。S1235の処理後、S1232へ戻り、次のボタン押下を待機する。
S1233で入力項目が押下されていないと判定された場合、S1236で、CPU302は、完了ボタン911が押下されたか否かを判定する。完了ボタン911が押下されていないと判定された場合、S1032へ戻り、次のボタン押下を待機する。完了ボタン911が押下された場合、S1237へ進む。
S1237では、CPU302は、入力すべき全ての項目が入力されているかの確認を行い、S1238で、入力すべき全ての項目が入力されているか否かを判定する。入力すべき全ての項目が入力されていると判定された場合、S1239へ進み、入力すべき全ての項目が入力されていないと判定された場合、S1242へ進む。S1242では、CPU302は、どの項目が入力されていないかを示す警告メッセージを操作者701に向けて表示し、その後、S1223からの処理を繰り返す。
S1239では、CPU302は、入力された全項目が反映された図10(f)の顧客情報確認画面を顧客702に向けて表示する。S1240では、CPU302は、顧客情報確認画面上で次へボタン905が押下されたか否かを判定する。次へボタン905が押下されると、S1241へ進み、CPU302は、次のステップの画面、本実施形態では読取書類選択画面を表示する。
S1240で次へボタン905が押下されていないと判定された場合、S1243で、CPU302は、顧客情報一覧912の中の項目が押下されたか否かを判定する。項目が押下されたと判定された場合、S1244で、CPU302は、顧客702の入力操作に応じて、押下された項目の入力情報の更新を行う。S1243で項目が押下されていないと判定された場合、もしくは、S1244の処理後、S1240からの処理を繰り返す。
このように、本実施形態では、操作者701に対しては情報の入力が行い易いように情報選択画面930を表示する。そして、顧客702に対しては顧客情報出力画面910内に、情報選択画面930に情報が入力される毎に途中結果の表示を行う。その結果、情報の入力毎に、操作者701と顧客702の双方のスムーズな閲覧を実現することができる。また、入力が完了した場合には、顧客情報一覧912を顧客702に向けて表示することで顧客702の全入力情報の確認を容易にすることができる。
[読取書類選択画面]
図11(b)は、読取書類選択画面を示している。読取書類選択画面は、情報が記載された書類を読み取る際に、その書類の種類の選択を受け付けるための画面である。操作者701と顧客702が読み取りたい書類を選択できるように、書類の名称が列挙された書類名一覧画面913Aが操作者701に向けて表示され、書類名一覧画面913Bが顧客702に向けて表示される。ここで、書類とは、例えば免許書や住民票や帳票や地図等である。書類名を選択してから読取りを行うことで、書類を読み取った後に帳票認識やOCRといった技術の適用を容易にすることができる。また、ここでは、同一画面を複数、双方それぞれに向けて表示するようにしているが、複数の画面を表示する必要がない場合には一つの画面を表示するようにしても良い。その場合には、図11(b)で示されているが書類名一覧画面913A及び913Bのサイズではなく、操作者701と顧客702の双方から閲覧し易いように、より大きなサイズで表示するようにしても良い。また、その表示の際に、後述する画像操作ボタン920が合わせて表示するようにしても良い。
図11(b)は、読取書類選択画面を示している。読取書類選択画面は、情報が記載された書類を読み取る際に、その書類の種類の選択を受け付けるための画面である。操作者701と顧客702が読み取りたい書類を選択できるように、書類の名称が列挙された書類名一覧画面913Aが操作者701に向けて表示され、書類名一覧画面913Bが顧客702に向けて表示される。ここで、書類とは、例えば免許書や住民票や帳票や地図等である。書類名を選択してから読取りを行うことで、書類を読み取った後に帳票認識やOCRといった技術の適用を容易にすることができる。また、ここでは、同一画面を複数、双方それぞれに向けて表示するようにしているが、複数の画面を表示する必要がない場合には一つの画面を表示するようにしても良い。その場合には、図11(b)で示されているが書類名一覧画面913A及び913Bのサイズではなく、操作者701と顧客702の双方から閲覧し易いように、より大きなサイズで表示するようにしても良い。また、その表示の際に、後述する画像操作ボタン920が合わせて表示するようにしても良い。
図11(b)の読取書類選択画面のデータは、例えば、以下のようにして生成しても良い。まず、デフォルトで用意されている読取書類選択画面フォーマットを、書類名一覧画面913Bを含む領域、ステップ欄909、書類名一覧画面913A、ログアウトボタン904を含む他の領域とに分割する。そして、カメラスキャナ101の起動時に設定された人数等に対応した角度分、例えば2名であれば180度分、書類名一覧画面913Bを回転させる。そして、回転された書類名一覧画面913Bと、他の部分とを合成して図11(b)の読取書類選択画面のデータを生成する。
続いて、読取書類選択画面上での処理フローを図15(a)を用いて説明する。S1241では、CPU302は、図11(b)の読取書類選択画面の表示を上記のように行う。S1272では、CPU302は、読み取る書類の選択が行われたか否かを判定する。読み取る書類の選択が行われていないと判定された場合、S1272の処理を繰り返す。読み取る書類の選択が行われていると判定された場合、S1273へ進み、CPU302は、書類読取画面の表示を行う。
このように、本実施形態では、読み取る書類名一覧画面913A及び913Bを操作者701と顧客702それぞれに向けて表示する。その結果、操作者701と顧客702の各々の選択する項目の確認を容易にすることができる。
[書類読取画面]
図11(c)は、図11(b)で書類名が選択された後に表示される書類読取画面を示している。書類読取画面には、読取対象の書類を載置可能なエリアを示す載置可能エリア914と、書類の載置後にカメラ部202によるスキャンの実行を指示するスキャンボタン922と、スキャンを実行した後に読み取った画像を表示するサムネイル915A及び915Bとが表示される。ここで、サムネイル915Aは、操作者701に向けて表示され、サムネイル915Bは、顧客702に向けて表示される。そのような構成により、操作者701及び顧客702のそれぞれは、書類のスキャンが正しく行えたかの確認や、書類を複数枚撮影した際にどの画像を採用するかの選択を容易に行うことができる。
図11(c)は、図11(b)で書類名が選択された後に表示される書類読取画面を示している。書類読取画面には、読取対象の書類を載置可能なエリアを示す載置可能エリア914と、書類の載置後にカメラ部202によるスキャンの実行を指示するスキャンボタン922と、スキャンを実行した後に読み取った画像を表示するサムネイル915A及び915Bとが表示される。ここで、サムネイル915Aは、操作者701に向けて表示され、サムネイル915Bは、顧客702に向けて表示される。そのような構成により、操作者701及び顧客702のそれぞれは、書類のスキャンが正しく行えたかの確認や、書類を複数枚撮影した際にどの画像を採用するかの選択を容易に行うことができる。
図11(c)の書類読取画面のデータは、例えば、以下のようにして生成しても良い。ジェスチャー操作が書類名一覧画面913Aで行われた場合、デフォルトで用意されている書類読取画面のフォーマットをサムネイル915Bを含む領域と、載置可能エリア914、サムネイル915A及び915B、戻るボタン907、スキャンボタン922を含む他の領域とに分割する。そして、カメラスキャナ101の起動時に設定された人数等に対応した角度分、例えば2名であれば180度分、サムネイル915Bを含む領域を回転させる。そして、回転されたサムネイル915Bを含む領域と、上記他の領域とを合成して図11(c)の書類読取画面のデータを生成する。また、ジェスチャー操作が書類名一覧画面913Bで行われた場合、デフォルトで用意されている書類読取画面のフォーマットをサムネイル915B、載置可能エリア914を含む領域と、サムネイル915A及び915B、戻るボタン907、スキャンボタン922を含む他の領域とに分割する。その後は、同様にして書類読取画面のデータを生成する。
[読取書類確認画面]
図11(d)は、読取書類確認画面を示している。読取書類確認画面は、操作者701若しくは顧客702が上述したサムネイル915A、915Bを詳細に確認したい場合、操作者701若しくは顧客702から、確認したいサムネイル915A、915Bの選択を受け付ける。選択を受け付けると、CPU302は、更に大きな画像としてプレビュー画像921を表示する。また、読取書類確認画面では、プレビュー画像921に対して拡大や縮小、回転を指示するための画像操作ボタン920が表示される。プレビュー画像921や画像操作ボタン920は、例えば操作者701側のサムネイル915Aが押下された場合、操作者701に向けて表示される。一方、顧客702側のサムネイル915Bが押下された場合、顧客702に向けて表示される。また、選択ボタン923は、サムネイル915A、915Bで選択されたサムネイルを採用する場合に押下される。選択された画像は、図11(b)の書類名一覧画面913A、913Bの中に表示される。図11(b)は、書類1がスキャンされた後の表示を示している。書類の読取りが終了し、操作者701によりステップ欄909の次のステップボタンが押下されると、次のステップの画面、本実施形態では商材選択画面が表示される。
図11(d)は、読取書類確認画面を示している。読取書類確認画面は、操作者701若しくは顧客702が上述したサムネイル915A、915Bを詳細に確認したい場合、操作者701若しくは顧客702から、確認したいサムネイル915A、915Bの選択を受け付ける。選択を受け付けると、CPU302は、更に大きな画像としてプレビュー画像921を表示する。また、読取書類確認画面では、プレビュー画像921に対して拡大や縮小、回転を指示するための画像操作ボタン920が表示される。プレビュー画像921や画像操作ボタン920は、例えば操作者701側のサムネイル915Aが押下された場合、操作者701に向けて表示される。一方、顧客702側のサムネイル915Bが押下された場合、顧客702に向けて表示される。また、選択ボタン923は、サムネイル915A、915Bで選択されたサムネイルを採用する場合に押下される。選択された画像は、図11(b)の書類名一覧画面913A、913Bの中に表示される。図11(b)は、書類1がスキャンされた後の表示を示している。書類の読取りが終了し、操作者701によりステップ欄909の次のステップボタンが押下されると、次のステップの画面、本実施形態では商材選択画面が表示される。
図11(d)の読取書類確認画面のデータは、例えば、以下のようにして生成しても良い。デフォルトで用意されている読取書類確認画面のフォーマットを、サムネイル915Bを含む領域と、プレビュー画像921、画像操作ボタン920、サムネイル915A、戻るボタン907、選択ボタン923を含む他の領域とに分割する。そして、カメラスキャナ101の起動時に設定された人数等に対応した角度分、例えば2名であれば180度分、サムネイル915Bを含む領域を回転させる。そして、回転された、サムネイル915Bを含む領域と、上記他の領域とを合成して図11(d)の読取書類確認画面のデータを生成する。
このように、本実施形態では、図11(c)の書類読取画面においては、サムネイル915A、915Bの押下に基づいて、操作者701と顧客702のいずれが押下したかを判定する。そして、押下を行った方に向けてプレビュー画像921と画像操作ボタン920を表示する。その結果、読取を行った側の操作と閲覧を容易にすることができる。
続いて、読取書類選択画面、書類読取画面、読取書類確認画面上での処理フローを図14を用いて説明する。
S1273では、CPU302は、図11(c)の書類読取画面の表示を上記のように行う。S1252では、CPU302は、書類読取画面上でスキャンボタン922が押下されたか否かを判定する。スキャンボタン922が押下されていないと判定された場合、S1262へ進む。S1262では、CPU302は、戻るボタン907が押下されたか否かを判定する。戻るボタン907が押下されていないと判定された場合、S1252からの処理を繰り返す。戻るボタン907が押下されたと判定された場合、S1241へ進み、CPU302は、前の画面である図11(b)の読取書類選択画面を表示する。
S1252でスキャンボタン922が押下されたと判定された場合、S1253で、CPU302は、カメラ部202によりス書画台204上の書類を撮像する(スキャン)。そして、S1254では、CPU302は、読み取った画像をサムネイル915A、915Bのようにサムネイル表示する。
画像のスキャンが終了すると、S1255では、CPU302は、いずれかのボタンが押下されたかを判定する。ここでは、いずれかのボタンが押下されるまでS1255の処理を繰り返す。いずれかのボタンが押下されたと判定された場合、S1256で、CPU302は、スキャンボタン922が押下されたか否かを判定する。スキャンボタン922が押下されたと判定された場合、S1253からの処理を繰り返す。スキャンボタン922が押下されていないと判定された場合、S1257で、CPU302は、サムネイル915A若しくは915Bが押下されたか否かを判定する。
S1257でサムネイル915Aと915Bのいずれも押下されていないと判定された場合、S1252からの処理を繰り返す。サムネイル915Aと915Bのいずれかが押下されたと判定された場合、S1258で、CPU302は、図11(d)の読取書類確認画面を表示する。
S1259では、CPU302は、読取書類確認画面上で、画面操作ボタン920が押下されたか否かを判定する。画面操作ボタン920が押下されたと判定された場合、S1060へ進み、画面操作ボタン920が押下されていないと判定された場合、S1257からの処理を繰り返す。
S1260では、CPU302は、押下されたボタンに応じて、プレビュー画像921を操作処理する。S1261では、CPU302は、選択ボタン923が押下されたか否かを判定する。選択ボタン923が押下されたと判定された場合、S1241へ進み、CPU302は、前の画面である図11(b)の読取書類選択画面を表示する。選択ボタン923が押下されていないと判定された場合、S1257からの処理を繰り返す。
[商材選択画面]
図11(e)は、操作者701が商品の説明を顧客702に行う状況において、どの商材を用いるかの選択を受け付けるための商材選択画面を示している。図11(e)に示すように、CPU302は、操作者701が使用したい商材を選択できるように商材の名称が列挙された商材名一覧画面916Aを、操作者701に向けて表示する。また、CPU302は、顧客702が使用したい商材を選択できるように商材の名称が列挙された商材名一覧画面916Bを、顧客702に向けて表示する。ここでの商材とは、例えばパンフレットやチラシやWebのページ等である。また、ここでは、同一画面を複数、双方それぞれに向けて表示するようにしているが、複数の画面を表示する必要がない場合には一つの画面を表示するようにしても良い。図11(e)の商材選択画面のデータは、例えば、図11(b)の読取書類選択画面のデータと同様の処理により生成される。
図11(e)は、操作者701が商品の説明を顧客702に行う状況において、どの商材を用いるかの選択を受け付けるための商材選択画面を示している。図11(e)に示すように、CPU302は、操作者701が使用したい商材を選択できるように商材の名称が列挙された商材名一覧画面916Aを、操作者701に向けて表示する。また、CPU302は、顧客702が使用したい商材を選択できるように商材の名称が列挙された商材名一覧画面916Bを、顧客702に向けて表示する。ここでの商材とは、例えばパンフレットやチラシやWebのページ等である。また、ここでは、同一画面を複数、双方それぞれに向けて表示するようにしているが、複数の画面を表示する必要がない場合には一つの画面を表示するようにしても良い。図11(e)の商材選択画面のデータは、例えば、図11(b)の読取書類選択画面のデータと同様の処理により生成される。
続いて商材選択画面上での処理フローを図15(b)を用いて説明する。
S1281では、CPU302は、図11(e)の商材選択画面の表示を上記のように行う。S1282では、CPU302は、商材選択画面上で、商材の選択が行われたか否かを判定する。商材の選択が行われていないと判定された場合、S1282の処理を繰り返す。商材の選択が行われたと判定された場合、S1283へ進み、後述する商材閲覧画面の表示を行う。
このように、本実施形態では、表示する商材名一覧画面916A及び916Bを操作者701と顧客702それぞれに向けて表示する。その結果、操作者701と顧客702の各々の選択する項目の確認を容易にすることができる。
[商材閲覧画面]
図11(f)は、図11(e)で商材1が選択された後に表示される商材閲覧画面を示している。商材閲覧画面上には、閲覧する商材を表示する商材表示エリア917と、商材の上に線を引く等の描画ボタン919と、キーボード等で商材と対応したコメントを入力するコメント入力ボタン918とが表示される。また、商材閲覧画面上には、画像操作ボタン920と、描画ボタン919、コメント入力ボタン918は、操作者701に対して表示される。また、商材表示エリア917は、顧客702に向けて表示される。
図11(f)は、図11(e)で商材1が選択された後に表示される商材閲覧画面を示している。商材閲覧画面上には、閲覧する商材を表示する商材表示エリア917と、商材の上に線を引く等の描画ボタン919と、キーボード等で商材と対応したコメントを入力するコメント入力ボタン918とが表示される。また、商材閲覧画面上には、画像操作ボタン920と、描画ボタン919、コメント入力ボタン918は、操作者701に対して表示される。また、商材表示エリア917は、顧客702に向けて表示される。
図11(f)の商材閲覧画面のデータは、例えば、以下のようにして生成しても良い。まず、デフォルトで用意されている商材閲覧画面のフォーマットを、商材表示エリア917を含む領域と、戻る部分907、描画ボタン919、コメント入力ボタン918、画像操作ボタン920を含む他の領域とに分割する。そして、カメラスキャナ101の起動時に設定された人数等に対応した角度分、例えば2名であれば180度分、商材表示エリア917を含む領域を回転させる。そして、回転された商材表示エリア917を含む領域と、上記他の領域とを合成して図11(f)の商材閲覧画面のデータを生成する。
続いて、商材閲覧画面上での処理フローを図16を用いて説明する。
S1601では、CPU302は、図11(f)の商材閲覧画面の表示を上記のように行う。S1602では、CPU302は、商材閲覧画面上で、いずれかのボタンが押下されたか否かを判定する。いずれのボタンも押下されていないと判定された場合、S1602の処理を繰り返す。いずれかのボタンが押下されたと判定された場合、S1603へ進む。
S1603では、CPU302は、画像操作ボタン920が押下されたか否かを判定する。画像操作ボタン920が押下されたと判定された場合、S1604で、CPU302は、画像操作ボタン920の処理内容に応じた画像操作を行う。S1604の処理後、S1602からの処理を繰り返す。
S1603で画像操作ボタン920が押下されていないと判定された場合、S1605で、CPU302は、描画ボタン919とコメント入力ボタン918の少なくともいずれかが押下されたか否かを判定する。描画ボタン919とコメント入力ボタン918の少なくともいずれかが押下されたと判定された場合、S1606で、CPU302は、商材表示エリア917上で描画/コメント入力操作を行う。S1606の処理後、S1602からの処理を繰り返す。
S1605で描画ボタン919とコメント入力ボタン918のいずれも押下されていないと判定された場合、S1607で、CPU302は、戻るボタン907が押下されたか否かを判定する。戻るボタン907が押下されていないと判定された場合、S1602からの処理を繰り返す。戻るボタン907が押下されたと判定された場合、S1608において、1つ前の画面、本実施形態では、図11(e)の商材選択画面の表示を行う。
このように、本実施形態では、商材閲覧画面においては、商材の内容を確認したい顧客702に向けて商材表示エリア917上に商材を表示する。そして、商材表示エリア917の操作を行いたい操作者701に向けて描画ボタン919、コメント入力ボタン918、画像操作ボタン920を表示する。そのような構成により、操作者701、顧客702の各々の操作と閲覧を容易にすることができる。
以上のように、操作者701と顧客702の様々なユーザ操作に対応して、柔軟な画面の態様を実現することにより、操作性と閲覧性を向上させることができる。
(その他の実施例)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
101 カメラスキャナ: 302 CPU: 303 RAM: 304 ROM: 305 HDD
Claims (11)
- 平面台にユーザインタフェース画面を投影して表示する投影手段と、
前記投影手段により前記平面台に投影された前記ユーザインタフェース画面に対するユーザ操作を検出する検出手段と、
前記検出手段により検出された前記ユーザ操作に応じて、前記ユーザインタフェース画面を遷移させるとともに前記ユーザインタフェース画面の表示の態様を制御する制御手段と、
を有することを特徴とするシステム。 - 前記表示の態様は、前記ユーザインタフェース画面のサイズと表示の向きのうち少なくともいずれかを含むことを特徴とする請求項1に記載のシステム。
- 前記ユーザ操作は、前記ユーザインタフェース画面に対するタッチ操作を含むことを特徴とする請求項1に記載のシステム。
- 前記タッチ操作は、前記ユーザインタフェース画面に表示された画像の操作を含むことを特徴とする請求項3に記載のシステム。
- 前記ユーザ操作は、前記平面台への原稿の載置を含むことを特徴とする請求項1乃至4のいずれか1項に記載のシステム。
- 前記平面台に載置された原稿を撮像する撮像手段、をさらに有し、
前記制御手段は、前記撮像手段により前記原稿が撮像された撮像データを、遷移させた後のユーザインタフェース画面として表示させる、
ことを特徴とする請求項5に記載のシステム。 - 前記制御手段は、前記ユーザインタフェース画面に含まれる複数の表示領域をそれぞれ互いに異なる向きに表示させることを特徴とする請求項1乃至6のいずれか1項に記載のシステム。
- 前記複数の表示領域は、複数のユーザそれぞれのユーザ操作に対応することを特徴とする請求項7に記載のシステム。
- 前記検出手段は、測定対象物までの距離を測定するセンサを用いて、前記ユーザ操作を検出することを特徴とする請求項1乃至8のいずれか1項に記載のシステム。
- 前記検出手段は、前記平面台と前記ユーザ操作が行われているユーザの手との間の距離が所定値以下であるユーザ操作を、前記ユーザインタフェース画面へのタッチ操作として検出することを特徴とする請求項9に記載のシステム。
- システムにおいて実行される制御方法であって、
平面台にユーザインタフェース画面を投影して表示する投影工程と、
前記投影工程において前記平面台に投影された前記ユーザインタフェース画面に対するユーザ操作を検出する検出工程と、
前記検出工程において検出された前記ユーザ操作に応じて、前記ユーザインタフェース画面を遷移させるとともに前記ユーザインタフェース画面の表示の態様を制御する制御工程と、
を有することを特徴とする制御方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017002842A JP2018112894A (ja) | 2017-01-11 | 2017-01-11 | システムおよび制御方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017002842A JP2018112894A (ja) | 2017-01-11 | 2017-01-11 | システムおよび制御方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2018112894A true JP2018112894A (ja) | 2018-07-19 |
Family
ID=62912297
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017002842A Pending JP2018112894A (ja) | 2017-01-11 | 2017-01-11 | システムおよび制御方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2018112894A (ja) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020013439A (ja) * | 2018-07-20 | 2020-01-23 | 富士通株式会社 | 情報処理装置認証プログラム、情報処理装置認証方法、及び、情報処理装置認証装置 |
WO2020017261A1 (ja) * | 2018-07-20 | 2020-01-23 | ソニー株式会社 | 情報処理装置、情報処理方法及びプログラム |
WO2021014571A1 (ja) * | 2019-07-23 | 2021-01-28 | ヤマザキマザック株式会社 | 工作機械、工作機械のための入力支援方法、及び工作機械のためのプログラム |
WO2022019090A1 (ja) * | 2020-07-21 | 2022-01-27 | ソニーグループ株式会社 | 情報処理装置、情報処理方法、及び情報処理プログラム |
-
2017
- 2017-01-11 JP JP2017002842A patent/JP2018112894A/ja active Pending
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020013439A (ja) * | 2018-07-20 | 2020-01-23 | 富士通株式会社 | 情報処理装置認証プログラム、情報処理装置認証方法、及び、情報処理装置認証装置 |
WO2020017261A1 (ja) * | 2018-07-20 | 2020-01-23 | ソニー株式会社 | 情報処理装置、情報処理方法及びプログラム |
JPWO2020017261A1 (ja) * | 2018-07-20 | 2021-08-26 | ソニーグループ株式会社 | 情報処理装置、情報処理方法及びプログラム |
US11250636B2 (en) | 2018-07-20 | 2022-02-15 | Sony Corporation | Information processing device, information processing method, and program |
JP7028094B2 (ja) | 2018-07-20 | 2022-03-02 | 富士通株式会社 | 情報処理装置認証プログラム、情報処理装置認証方法、及び、情報処理装置認証装置 |
JP7338626B2 (ja) | 2018-07-20 | 2023-09-05 | ソニーグループ株式会社 | 情報処理装置、情報処理方法及びプログラム |
WO2021014571A1 (ja) * | 2019-07-23 | 2021-01-28 | ヤマザキマザック株式会社 | 工作機械、工作機械のための入力支援方法、及び工作機械のためのプログラム |
CN113196187A (zh) * | 2019-07-23 | 2021-07-30 | 山崎马扎克公司 | 机床、用于机床的输入辅助方法和用于机床的程序 |
US12066811B2 (en) | 2019-07-23 | 2024-08-20 | Yamazaki Mazak Corporation | Machine tool, input assistance method for machine tool, and non-transitory computer-readable storage medium |
WO2022019090A1 (ja) * | 2020-07-21 | 2022-01-27 | ソニーグループ株式会社 | 情報処理装置、情報処理方法、及び情報処理プログラム |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
TWI559174B (zh) | 以手勢爲基礎之三維影像操控技術 | |
JP6381361B2 (ja) | データ処理装置、データ処理システム、データ処理装置の制御方法、並びにプログラム | |
TW200928892A (en) | Electronic apparatus and operation method thereof | |
JP2009278456A (ja) | 映像表示装置 | |
JP2018112894A (ja) | システムおよび制御方法 | |
US9888209B1 (en) | Remote communication system, method for controlling remote communication system, and storage medium | |
CN111527468A (zh) | 一种隔空交互方法、装置和设备 | |
JP2016103137A (ja) | ユーザインタフェース装置、画像処理装置及び制御用プログラム | |
JP6746419B2 (ja) | 情報処理装置、及びその制御方法ならびにコンピュータプログラム | |
JP2017117373A (ja) | 操作装置とその制御方法、及びプログラム | |
JP2015198406A (ja) | 画像読取装置、方法およびプログラム | |
JP2017126225A (ja) | 画像処理装置、方法およびプログラム | |
JP5571895B2 (ja) | 情報表示装置 | |
JP2017162126A (ja) | 入力システム、入力方法、制御用プログラム、及び記憶媒体 | |
KR20160055407A (ko) | 홀로그래피 터치 방법 및 프로젝터 터치 방법 | |
JP6643825B2 (ja) | 装置及び方法 | |
JP5939469B2 (ja) | 閲覧装置及び閲覧システム | |
JP6624861B2 (ja) | 画像処理装置、制御方法およびプログラム | |
JP2018116360A (ja) | 手入力装置、手入力装置の制御方法 | |
JP2018173907A (ja) | 情報処理装置、および情報処理装置の制御方法、プログラム | |
KR20150137908A (ko) | 홀로그래피 터치 방법 및 프로젝터 터치 방법 | |
JP2021086548A (ja) | 画像処理システム、画像処理装置、画像処理方法、およびプログラム | |
KR20160002620U (ko) | 홀로그래피 터치 방법 및 프로젝터 터치 방법 | |
KR101591038B1 (ko) | 홀로그래피 터치 방법 및 프로젝터 터치 방법 | |
KR20160017020A (ko) | 홀로그래피 터치 방법 및 프로젝터 터치 방법 |