JP2018124597A - ユーザインタフェース装置および距離センサ - Google Patents
ユーザインタフェース装置および距離センサ Download PDFInfo
- Publication number
- JP2018124597A JP2018124597A JP2015124768A JP2015124768A JP2018124597A JP 2018124597 A JP2018124597 A JP 2018124597A JP 2015124768 A JP2015124768 A JP 2015124768A JP 2015124768 A JP2015124768 A JP 2015124768A JP 2018124597 A JP2018124597 A JP 2018124597A
- Authority
- JP
- Japan
- Prior art keywords
- distance
- user
- distance information
- unit
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0346—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- User Interface Of Digital Computer (AREA)
- Studio Devices (AREA)
- Position Input By Displaying (AREA)
Abstract
【課題】ユーザの操作の検出を行う際の消費電力を低減する。
【解決手段】ユーザインタフェース装置(スマートグラス2)は、対象物の動きに基づきユーザの操作を検出する。スマートグラス2は、撮像部(センサ回路3)と、距離情報生成部(距離演算42)と、制御部21とを備える。センサ回路3は、対象物を撮像し、撮像画像を生成する。距離演算42は、生成された撮像画像に基づいて、対象物までの距離を示す距離情報を生成する。制御部21は、距離演算42によって生成された距離情報に基づいて、ユーザの操作を検出する。また、距離情報において、センサ回路3が撮像可能な領域の内の一部の制限された領域から、ユーザの操作を検出する。
【選択図】図3
【解決手段】ユーザインタフェース装置(スマートグラス2)は、対象物の動きに基づきユーザの操作を検出する。スマートグラス2は、撮像部(センサ回路3)と、距離情報生成部(距離演算42)と、制御部21とを備える。センサ回路3は、対象物を撮像し、撮像画像を生成する。距離演算42は、生成された撮像画像に基づいて、対象物までの距離を示す距離情報を生成する。制御部21は、距離演算42によって生成された距離情報に基づいて、ユーザの操作を検出する。また、距離情報において、センサ回路3が撮像可能な領域の内の一部の制限された領域から、ユーザの操作を検出する。
【選択図】図3
Description
本発明は、ユーザの操作を検出するユーザインタフェース装置および距離センサに関する。
ヘッドマウントディスプレイやフラットパネルディスプレイなどに表示される画像に対して、ユーザの手や指などによるジェスチャーを検出し、非接触の入力操作を可能にするユーザインタフェース装置が知られている。ユーザインタフェース装置では、非接触のユーザの操作を検出するために、距離画像センサやカメラなどが用いられる。
特許文献1は、指の動きのみでキー操作を実現する非接触入力装置を用いたヘッドマウントディスプレイを開示している。特許文献1の非接触入力装置では、ヘッドマウントディスプレイの視野において手をカメラなどで撮影し、撮影画像から複数の指先の位置及び動きを検出し、三本以上の指先が検出されたときに各指先の近傍にアイコン画像を表示している。特許文献1では、撮影画像から検出した指先の位置関係に基づいて、いずれかの指先が相対的にずれたことを検出したときに、アイコン画像のキー操作を実行している。
特許文献1では、ユーザのアイコン画像へのキー操作を検出する際に、撮影画像から複数の指先の位置及び動きが検出され、撮影画像における指先の検出結果に基づいて、操作対象のアイコン画像が表示される。このため、ヘッドマウントディスプレイの視野内の所定範囲で撮影された撮影画像全体に対して、映り込んだ手の指先の位置や動きを検出するための検出処理を行う必要があり、処理負荷を費やして消費電力が大きいという問題があった。
本発明は、ユーザの操作の検出を行う際の消費電力を低減することができるユーザインタフェース装置、及び距離センサを提供することを目的とする。
本発明の一態様に係るユーザインタフェース装置は、対象物の動きに基づきユーザの操作を検出する。ユーザインタフェース装置は、撮像部と、距離情報生成部と、制御部とを備える。撮像部は、対象物を撮像し、撮像画像を生成する。距離情報生成部は、撮像部により生成された撮像画像に基づいて、対象物までの距離を示す距離情報を生成する。制御部は、距離情報生成部によって生成された距離情報に基づいて、ユーザの操作を検出する。制御部は、距離情報において、撮像部が撮像可能な領域の内の一部の制限された領域から、ユーザの操作を検出する。
また、本発明の一態様に係る距離センサは、撮像部と、距離情報生成部とを備える。撮像部は、対象物を撮像し、撮像画像を生成する。距離情報生成部は、撮像部により生成された撮像画像に基づいて、対象物までの距離を示す距離情報を生成する。距離センサは、外部機器からの指示に基づいて、撮像部が撮像可能な領域の内の一部の領域に制限して、距離情報を出力する。
本発明の一態様に係るユーザインタフェース装置によると、制御部がユーザの操作の検出の対象とする領域が、撮像部が撮像可能な領域の内の一部の領域に制限されるので、ユーザの操作の検出を行う際の消費電力を低減することができる。
本発明の一態様に係る距離センサによると、外部機器からの指示に基づいて、撮像部が撮像可能な領域の内の一部の領域に制限して、距離情報を出力するので、外部機器においてユーザの操作の検出を行う際の消費電力を低減することができる。
以下、添付の図面を参照して、本発明に係るユーザインタフェース装置の一例として、スマートグラスについて説明する。また、本発明に係る距離センサの一例として距離画像センサについて説明する。
各実施形態は例示であり、異なる実施形態で示した構成の部分的な置換または組み合わせが可能であることは言うまでもない。実施の形態2以降では実施の形態1と共通の事項についての記述を省略し、異なる点についてのみ説明する。特に、同様の構成による同様の作用効果については、実施形態毎には逐次言及しない。
(実施の形態1)
1.構成
1−1.概要
本実施形態に係るスマートグラスの概要について、図1及び図2を参照して説明する。図1は、実施の形態1に係るスマートグラスの外観を示す模式図である。図2は、スマートグラスの使用方法の一例を説明するための図である。
1.構成
1−1.概要
本実施形態に係るスマートグラスの概要について、図1及び図2を参照して説明する。図1は、実施の形態1に係るスマートグラスの外観を示す模式図である。図2は、スマートグラスの使用方法の一例を説明するための図である。
本実施形態に係るスマートグラス2は、図1に示すように、距離画像センサ1と、表示部20とを備える。スマートグラス2は、眼鏡型のヘッドマウントディスプレイを搭載したウェアラブル端末である。スマートグラス2は、距離画像センサ1を用いてユーザの操作を検出するユーザインタフェース装置の一例である。図1に示すように、ユーザは、スマートグラス2を装着して、ヘッドマウントディスプレイの表示部20に視線を向けることで、スマートグラス2が表示する画像を視認することができる。
本実施形態では、スマートグラス2は、図2に示すように、表示部20を用いて、例えば視線の奥行き方向における10cm以上1m以下の範囲内の領域に、あたかも操作部材等が存在するかのように、ユーザに視認させる。また、ユーザが視認する操作部材に対して触ったり、押し込んだりするようなジェスチャーによる直観的な入力操作機能を実現するため、距離画像センサ1を用いて、指5などの対象物までの距離を検知し、ユーザの操作を検出する。
スマートグラス2は、使用時の快適性等のためにコンパクトであることが望まれ、バッテリーの小型化が要求される。このため、動作時の消費電力を低減することが重要である。本実施形態では、表示部20を用いてユーザに操作部材を視認させる領域に応じて、距離画像センサ1を用いて対象物の検知を行う領域を制限することにより、消費電力の低減を実現する。以下、本実施形態に係るスマートグラス2及び距離画像センサ1の構成について説明する。
1−2.スマートグラスの構成
本実施形態に係るスマートグラス2の構成について、図1,2,3を参照して説明する。
本実施形態に係るスマートグラス2の構成について、図1,2,3を参照して説明する。
表示部20は、図1に示すようにハーフミラーなどを備えた透過型ディスプレイデバイスある。表示部20は、操作部材等を示す所定の画像を表示してハーフミラーを介して虚像を投影することにより、表示する画像がユーザの視野に重なるように、ユーザに視認させる。これにより、ユーザはあたかも目の前の空間中に操作部材等が存在するかのように視認することができる。表示部20が表示する画像は、例えばスイッチ、ボタン、キーボード、カーソル、アイコンなどの操作部材を示す画像である。
距離画像センサ1は、TOF(Time-Of-Flight)方式において距離を測定するセンサ装置である。距離画像センサ1は、図2に示すように、スマートグラス2において表示部20の近傍に設置され、距離の測定方向が表示部20による画像の投影方向と平行に向けられる。距離画像センサ1は、ユーザの視野の水平方向及び水平方向に渡って、奥行き方向におけるスマートグラス2までの距離を示す距離画像を生成する。距離画像センサ1は、ユーザの指5などの対象物までの距離を示す距離情報として距離画像を生成する距離センサの一例である。距離画像センサ1の構成の詳細については後述する。
図3は、スマートグラス2の構成を示すブロック図である。スマートグラス2は、図3に示すように、制御部21と、記憶部22と、通信部23とを備える。
制御部21は、例えばCPUやMPUで構成され、スマートグラス2全体の動作を制御する。制御部21は、所定のプログラムを実行することによって、各種の機能を実現する。制御部21は、専用に設計された電子回路や再構成可能な電子回路などのハードウェア回路(ASIC,FPGA等)で実現されてもよい。
制御部21は、距離画像センサ1からの距離画像に基づき、対象物を検知して、ユーザの操作を判断する。具体的に、制御部21は、距離画像センサ1から入力された距離画像に所定の画像処理を行い、距離画像の中で対象物(ユーザの手)を映した領域に対して、手の中の指5の検知処理や指5の動きの検知処理を行う。また、制御部21は、特定のユーザの操作を検出すると、表示部20の画像表示を更新させたり、検出したユーザの操作に応じた所定の機能を実行させたりする。
記憶部22は、制御部21の各種の機能を実現するために必要なパラメータ、データ、及びプログラムを記憶する記憶媒体であり、制御部21で実行される制御プログラムや、各種のデータを格納している。記憶部22は、例えばROMやフラッシュメモリで構成される。
通信部23は、外部機器と無線信号により情報通信を行うためのインタフェース回路である。通信部23は、例えばWi-FiやBluetooth(登録商標)、3G、LTE等の通信方式に従い外部機器と無線通信を行う。
本実施形態に係るスマートグラス2では、制御部21がユーザの操作を検出するとともにユーザの操作に応じた機能を実行させることにより、ユーザインタフェース機能と情報処理機能を一体的に実現している。しかし、スマートグラス2はユーザインタフェース機能のみを実現してもよく、例えば、制御部21がユーザの操作を判断したとき、通信部23を介して外部の情報処理装置に検出したユーザ操作に関する情報を送信するようにしてもよい。
1−3.距離画像センサの構成
次に、距離画像センサ1の構成の詳細について、図3,4を参照して説明する。図4は、スマートグラス2における距離画像センサ1の構成を示すブロック図である。
次に、距離画像センサ1の構成の詳細について、図3,4を参照して説明する。図4は、スマートグラス2における距離画像センサ1の構成を示すブロック図である。
距離画像センサ1は、図3に示すように、LED(発光ダイオード)10と、センサ回路3と、TOF信号処理部4とを備える。距離画像センサ1は、LED10から光の照射を行い、その反射光をセンサ回路3で受光して、TOF信号処理部4において反射光の伝播期間に応じた距離に基づく距離画像を生成する。
図4(a),(b)に示すように、距離画像センサ1は、レンズ11と、ホルダ12と、回路基板13とを備える。
LED10は、図4(a)に示すように、ホルダ12の外面に取り付けられている。LED10は、赤外領域の波長帯を有する光(以下、「LED光」という)を、ホルダ12の外部に向けて照射する。LED光は、TOF信号処理部4の制御により、パルス変調して照射される。LED10は、所定の波長帯を有する光を照射光として照射する光源部の一例である。
センサ回路3は、例えば電荷振り分け方式のCMOS(相補型金属酸化物半導体)イメージセンサ回路で構成される。センサ回路3は撮像面を有し、LED光の照射に同期してLED光の反射光を受光して撮像する。センサ回路3は、図4(b)に示すように、1つの半導体チップに集積されており、ホルダ12の内部で回路基板13に取り付けられている。ホルダ12の外面には、バレルレンズなどのレンズ11が、所定の間隔でセンサ回路3の撮像面を覆うように取り付けられている。レンズ11は、ホルダ12の外部からの光をセンサ回路3の撮像面に集光する。センサ回路3は、LED光の照射に同期して対象物を撮像し、撮像画像を生成する撮像部の一例である。センサ回路3の構成の詳細については後述する。
TOF信号処理部4は、TOF方式において距離画像を生成するための種々の信号処理を行う回路を含み、センサ制御部40と、メモリ41と、距離演算部42とを含む。TOF信号処理部4は、例えばASIC(特定用途向け集積回路)やFPGA(フィールドプログラマブルゲートアレイ)で構成され、回路基板13に集積されている。
TOF信号処理部4において、センサ制御部40は、ロジック回路などで構成され、TOF信号処理部4に含まれる各種の回路を制御する。また、センサ制御部40は、LED10のLED光をパルス変調するように制御するとともにセンサ回路3に撮像命令を送信して、LED10とセンサ回路3を同期制御する。LED10のLED光をパルス変調する制御はセンサ回路3から行ってもよい。
メモリ41は、距離画像センサ1の機能を実現するためのデータやパラメータなど各種の情報を記憶する記憶媒体である。メモリ41は、例えばフラッシュメモリで構成される。
距離演算部42は、四則演算等が可能な演算回路で構成される。距離演算部42は、センサ回路3の撮像結果に基づいて、センサ回路3が受光した反射光の伝播期間に基づく距離を演算する。距離演算部42は、画素毎の距離を示す距離データを算出して、距離画像を生成する。距離演算部42は、距離情報として距離画像を生成する距離情報生成部の一例である。
1−3−1.センサ回路の構成
次に、センサ回路3の構成の詳細について、図5を参照して説明する。図5は、距離画像センサ1におけるセンサ回路3の構成を示すブロック図である。
次に、センサ回路3の構成の詳細について、図5を参照して説明する。図5は、距離画像センサ1におけるセンサ回路3の構成を示すブロック図である。
図5に示すように、センサ回路3は、複数の画素回路30と、ゲート駆動回路31、垂直走査回路32及び水平読出し回路33などの周辺回路とを備える。
複数の画素回路30は、撮像面上の水平方向及び垂直方向において、マトリクス状に配置される。画素回路30は、フォトダイオードやMOSトランジスタを備えて構成され、撮像結果の受光量に応じた電荷を保持する。各画素回路30は、例えば電荷振り分け方式において、LED光の照射に同期して時分割で複数の受光量に応じた電荷を蓄積する。
ゲート駆動回路31は、センサ制御部40からの撮像命令に応じて画素回路30に含まれる種々のMOSトランジスタを駆動し、撮像時の受光動作を制御するための回路である。センサ回路3は、ゲート駆動回路31の駆動によってLED光の照射に同期して画素回路30に受光させることで、LED光の反射光の情報を有する撮像画像を生成する。
垂直走査回路32は、センサ回路3の外部への撮像結果の読出し動作において、マトリクス状に並んだ画素回路30を垂直走査するための回路である。垂直走査回路32は、一行に並んだ画素回路30毎に順次、選択信号を出力する。
水平読出し回路33は、センサ回路3の撮像画像を示す画像データである撮像データをTOF信号処理部4に読み出すための回路である。水平読出し回路33は、複数のA/D(アナログ/デジタル)変換器35を有する。水平読出し回路33は、垂直走査回路32から選択信号が入力された画素回路30からのアナログ値の受光量をデジタル値に変換(A/D変換)して、撮像データとしてTOF信号処理部4の距離演算部42に出力する。撮像データは、例えばLED光の照射に同期して反射光の受光量が振り分けられた複数の画像データを含む。
2.動作
2−1.動作の概要
本実施形態に係るスマートグラス2の動作の概要について、図6(a)〜(d)を参照して説明する。図6(a)は、スマートグラス2による操作画面の表示例を示す。図6(b)は、距離画像センサ1の検知エリアを説明するための図である。図6(c)は、ユーザの操作がされた場合の操作画面の表示例を示す。図6(d)は、操作画面に対するユーザの操作の検出対象の領域を説明するための図である。
2−1.動作の概要
本実施形態に係るスマートグラス2の動作の概要について、図6(a)〜(d)を参照して説明する。図6(a)は、スマートグラス2による操作画面の表示例を示す。図6(b)は、距離画像センサ1の検知エリアを説明するための図である。図6(c)は、ユーザの操作がされた場合の操作画面の表示例を示す。図6(d)は、操作画面に対するユーザの操作の検出対象の領域を説明するための図である。
スマートグラス2を装着したユーザは、例えば図6(a)に示すように、表示部20が操作画面A1を示す画像を表示することにより、操作画面A1を視認する。操作画面A1は、スマートグラス2の種々の機能に対応するアイコン画像や、各アイコン画像に応じた機能を説明するテキスト画像を含む。
表示部20は、所定の表示可能エリアにおいて、ユーザの使用状態に応じて適宜、操作画面A1の表示位置を設定する。操作画面A1は、図6(b)に示すように、表示可能エリア内でユーザの視野の奥行き方向における距離d1の表示位置に視認される。操作画面A1を触ったり押したりするジェスチャーによるユーザの操作を検出するために、距離画像センサ1は、操作画面A1が視認される表示位置を含む領域(検知エリアA2)を撮像して距離画像を生成する。
例えば、図6(c)に示すように、ユーザが操作画面A1のアイコン画像を指5で押すジェスチャーを行った場合、スマートグラス2の制御部21は、距離画像センサ1からの距離画像に基づき指の座標及び距離を検知し、押されたアイコン画像を判断する。制御部21は、この判断結果に基づき、例えば、押されたアイコン画像に対応するテキスト画像を強調するなどの画像表示の更新を行う。
ここで、表示部20において種々の表示位置に設定された操作画面A1に対するユーザの操作を検出可能にするため、距離画像センサ1の検知エリアA2は、図6(b)に示すように、表示部20の表示可能エリア全体に渡って設定される。この場合、距離画像センサ1の距離画像には操作画面A1の表示位置の座標から離れた座標に関する距離データも含まれるので、制御部21による距離画像の画像処理において、ユーザの操作とは無関係な距離データに対する処理負荷が生じてしまう。
そこで、本実施形態では、図6(d)に示すように、操作画面A1に対する操作を検出する領域(以下、「検出対象領域」という)R1を設定する。このように、距離画像において制御部21はユーザ操作を検出する領域を、距離画像センサ1によって検知される検知エリアA2の内の一部の領域に制限する。これにより、制御部21による画像処理の処理負荷が低減され、ユーザ操作の検出動作における消費電力の低減および応答性を向上することができる。
2−2.ユーザの操作の検出動作
本実施形態に係るユーザの操作の検出動作について、図6,7,8を参照して説明する。図7は、本実施形態に係るユーザの操作の検出動作を示すシーケンス図である。図8は、ユーザの操作の検出動作における距離画像を説明するための図である。
本実施形態に係るユーザの操作の検出動作について、図6,7,8を参照して説明する。図7は、本実施形態に係るユーザの操作の検出動作を示すシーケンス図である。図8は、ユーザの操作の検出動作における距離画像を説明するための図である。
まず、制御部21は、表示部20に、操作画面A1に対応する画像を表示させる(S1)。操作画面A1は、スマートグラス2を装着したユーザによって、表示部20の表示可能エリアの中で特定の表示位置に視認される(図6(a),(b)参照)。
次に、制御部21は、操作画面A1の表示位置に基づいて、検出対象領域R1を設定する(S2)。制御部21は、操作画面A1の表示位置に基づいて、距離画像上の検出対象領域R1の座標を計算し、検出対象領域R1の座標を示す座標情報を記憶部22に記録する。
次に、制御部21は、設定した検出対象領域R1内における距離データを収集するために、距離画像センサ1のTOF信号処理部4に距離画像の生成命令を発信する(S3)。
TOF信号処理部4のセンサ制御部40は、制御部21から距離画像の生成命令を受信すると、センサ回路3に、LED10によるLED光の照射と同期して撮像させるための撮像命令を送信する(S11)。
センサ回路3は、センサ制御部40からの撮像命令を受信する(S21)。センサ回路3は、受信した撮像命令に基づくタイミングで画素回路30を駆動してLED光の反射光を受光することにより、検知エリアA2の撮像を行う(S22)。各画素回路30の受光量は、水平読出し回路33においてA/D変換され、撮像データが生成される。センサ回路3は、生成した撮像データをTOF信号処理部4に送信する(S23)。
TOF信号処理部4は、センサ回路3から撮像データを受信する(S12)。TOF信号処理部4の距離演算部42は、受信した撮像データに基づき、画素回路30毎に受光した反射光の伝播期間に基づく距離を演算することにより、距離画像を生成する(S13)。TOF信号処理部4は、生成した距離画像の画像データを制御部21に出力する(S14)。
制御部21は、距離画像センサ1から距離画像の画像データを取得する(S4)。図8(a)に、距離画像センサ1から取得される距離画像G1の一例を示す。図8(a)においては、距離画像G1にユーザの手と背景とが映っており、手が背景および操作画面A1の表示位置よりも近い距離にあることを示している。本実施形態では、距離画像センサ1からの距離画像G1の画像データは、距離画像センサ1の検知エリアA2(図6(b)参照)全体に渡る画像データである。
次に、制御部21は、検出対象領域R1に制限した距離画像G2に基づいて、ユーザの手や指などの対象物を検知する(S5)。ずなわち、図8(b)に示すように、ユーザの操作の検出対象となる距離画像G2が、検出対象領域R1の範囲内に制限される。ステップS5の処理において、制御部21は、距離画像上で対象物が映った領域を分離認識するための画像処理や、手(対象物)が映った領域における指先の位置の検知処理を行う。
例えば、図8(b)に示す検出対象領域R1内の距離画像G2には、手が操作画面A1までの距離d1(図6(b)参照)よりも近い距離で映っている一方、背景が距離d1よりも遠い位置で映っている。このため、図8(b)に示す距離画像G2に対して、制御部21が画像処理において所定距離(例えば距離d1)よりも近い距離の画素のデータを抽出することにより、図8(c)に示すように、距離画像G2’上で手が映った領域が背景から分離される。さらに、制御部21は、図8(c)に示す距離画像G2’における先端部分の座標及び距離の値を抽出することにより、手の指先の位置を検知する。以上のように、図8(a)から制限した距離画像G2(図8(b))を用いることにより、制御部21の処理の対象となる画像データのサイズが縮小され、対象物の検知のためのデータ量や動作量を低減できる。
次に、制御部21は、対象物の検知結果に基づいて、ユーザが視認中のアイコン画像を指で押すなどの操作がなされたか否かを判断する(S6)。例えば、制御部21は、図8(c)に示す距離画像G2’上で、操作画面A1のアイコン画像の表示位置と、検知した指先の位置とを比較することによりユーザの操作を検出する。
制御部21は、ユーザの操作を検出するまで、ステップS3以降の処理を繰り返し行う(S6でNo)。制御部21は、繰り返し距離画像センサ1から距離画像を取得し(S4)、対象物を検知することで(S5)、対象物の動きを検知する。
制御部21は、ユーザの操作を検出したとき(S6でYes)、検出された操作に応じて、表示部20による表示を更新する(S7)。例えば、制御部21は、操作画面A1におけるアイコン画像を押し込む操作を検出した場合、押し込む操作の対象となったアイコン画像を判断し、表示部20に表示させるための、判断したアイコン画像に対応するテキスト画像を変更する(図6(c)参照)。
表示部20による表示の更新がなされることで、本処理は終了する。
以上の処理により、距離画像センサ1からの距離画像において、制御部21がユーザの操作の検出の対象として画像処理を行う領域が、検出対象領域R1に制限されるため、ユーザの操作を検出する際の制御部21による消費電力を低減することができる。
以上の処理において、ユーザ操作を検出する距離画像の領域を制限することにより、検出処理の負荷が低減される。このため、消費電力を低減できるとともに、例えば1/30秒などの所望の周期を維持して対象物の動きの検知が行え、ユーザの操作に対する応答性を向上することができる。
3.まとめ
以上のように、本実施形態に係るスマートグラス2は、指5などの対象物の動きに基づきユーザの操作を検出するユーザインタフェース装置である。スマートグラス2は、センサ回路3と、距離演算部42と、制御部21とを備える。センサ回路3は、対象物を撮像し、撮像データを生成する。距離演算部42は、センサ回路3により生成された撮像データに基づいて、対象物までの距離を示す距離画像を生成する。制御部21は、距離演算部42によって生成された距離画像に基づいて、ユーザの操作を検出する。制御部21は、距離画像において、センサ回路3が撮像可能な検知エリアA2の内の一部の制限された領域R1から、ユーザの操作を検出する。
以上のように、本実施形態に係るスマートグラス2は、指5などの対象物の動きに基づきユーザの操作を検出するユーザインタフェース装置である。スマートグラス2は、センサ回路3と、距離演算部42と、制御部21とを備える。センサ回路3は、対象物を撮像し、撮像データを生成する。距離演算部42は、センサ回路3により生成された撮像データに基づいて、対象物までの距離を示す距離画像を生成する。制御部21は、距離演算部42によって生成された距離画像に基づいて、ユーザの操作を検出する。制御部21は、距離画像において、センサ回路3が撮像可能な検知エリアA2の内の一部の制限された領域R1から、ユーザの操作を検出する。
以上のスマートグラス2によると、制御部21がユーザの操作の検出の対象とする検出対象領域R1が、センサ回路3が撮像可能な領域の内の一部の領域に制限されるので、ユーザの操作の検出を行う際の消費電力を低減することができる。
また、制御部21は、距離演算部42から距離画像を取得し、取得した距離画像において、センサ回路3が撮像可能な検知エリアA2の内の一部の領域に、ユーザの操作を検出する領域を制限してもよい。これにより、制御部21の処理の対象となる距離情報のデータ量が縮小され、制御部21による処理負荷を低減できる。
また、スマートグラス2は、画像を表示する表示部20をさらに備えてもよい。センサ回路3が撮像可能な検知エリアA2は、画像がユーザに視認される表示位置を含んでもよい。これにより、ユーザが視認する画像に対する操作を検出する際に、消費電力を低減できる。
また、表示部20が表示する画像は、操作部材を含んでもよい。これにより、ユーザは操作部材を視認してスマートグラス2を操作することができる。
また、検出対象領域R1は、ユーザの操作を検出する領域に対応した領域であってもよい。これにより、操作画面A1のアイコン画像に対するユーザ操作など、所定の機能を実行するためのユーザの操作を検出する際に、消費電力を低減することができる。
(実施の形態2)
実施の形態1では、距離画像センサ1から取得した距離画像に対して、制御部21が対象物の検知を行う領域を制限した。実施の形態2では、距離画像センサにおいて、距離の演算を行う領域を制限する。これにより、さらに、距離画像センサの動作による消費電力を低減することができる。以下、本実施形態に係るスマートグラス及び距離画像センサについて説明する。
実施の形態1では、距離画像センサ1から取得した距離画像に対して、制御部21が対象物の検知を行う領域を制限した。実施の形態2では、距離画像センサにおいて、距離の演算を行う領域を制限する。これにより、さらに、距離画像センサの動作による消費電力を低減することができる。以下、本実施形態に係るスマートグラス及び距離画像センサについて説明する。
1.概要
本実施形態に係る距離画像センサの動作の概要について、図9(a)、(b)を参照して説明する。図9(a)は、本実施形態に係るスマートグラスの距離画像センサの検知エリアを示す。図9(b)は、図9(a)の距離画像センサにより生成される距離画像の一例を示す。
本実施形態に係る距離画像センサの動作の概要について、図9(a)、(b)を参照して説明する。図9(a)は、本実施形態に係るスマートグラスの距離画像センサの検知エリアを示す。図9(b)は、図9(a)の距離画像センサにより生成される距離画像の一例を示す。
本実施形態に係るスマートグラス2Aにおいて、図9(a)に示すように、距離画像センサ1Aの検知エリアA2は、実施の形態1の距離画像センサ1と同様に、表示部20の表示可能エリア全体に渡って設定される。本実施形態では、距離画像センサ1Aが、検出対象領域R1に基づいて、検知エリアA2の撮像結果のうちの距離の演算を行う領域を制限する。
距離画像センサ1Aの距離演算部42(図3参照)は、検知エリアA2を撮像した撮像データにおいて、図9(b)に示すように、検出対象領域R1外のデータに対しては距離の演算を行わずに検出対象領域R1内のデータに対してのみ距離の演算を行う。これにより、距離画像センサ1Aにおいて検出対象領域R1に制限された距離画像G2aを生成することで処理負荷が削減され、距離画像センサ1Aの消費電力をさらに低減することができる。
2.動作
次に、本実施形態に係るスマートグラス2Aの動作について、図10を参照して説明する。図10は、本実施形態に係るユーザの操作の検出動作を示すシーケンス図である。
次に、本実施形態に係るスマートグラス2Aの動作について、図10を参照して説明する。図10は、本実施形態に係るユーザの操作の検出動作を示すシーケンス図である。
本実施形態では、図10に示すように、実施の形態1における図7のステップS3,S13に代えて、ステップS3A,S13Aの処理を行う。
ステップS3Aにおいて、制御部21は距離画像の生成命令とともに、検出対象領域R1の座標情報をTOF信号処理部4に送信する。検出対象領域R1の座標情報は、TOF信号処理部4のメモリ41に記録される。
TOF信号処理部4は、センサ回路3から撮像データを受信すると(S12)、メモリ41に記録された座標情報を参照し、距離演算部42において検出対象領域R1内のみ距離の演算を行って、距離画像G2aを生成する(S13A)。これにより、距離の演算を行う画素数が減るため、距離画像センサ1における消費電力を低減できる。
以上の処理によると、スマートグラス2Aの制御部21は、距離画像センサ1Aから予め検出対象領域R1に制限された距離画像G2aを取得するので、画像処理の負荷を軽減でき、消費電力を低減できる。また、距離画像センサ1Aにおいても、距離の演算を行う画素数を減らした分、消費電力を低減できる。
3.まとめ
以上のように、本実施形態に係るスマートグラス2Aによると、距離演算部42は、センサ回路3により生成された撮像データにおける全領域の内の一部の領域に、距離情報を生成する領域を制限する。これにより、距離演算部42によって検出対象領域R1に制限された距離画像を生成することで、距離演算部42の処理負荷が削減され、消費電力を低減することができる。
以上のように、本実施形態に係るスマートグラス2Aによると、距離演算部42は、センサ回路3により生成された撮像データにおける全領域の内の一部の領域に、距離情報を生成する領域を制限する。これにより、距離演算部42によって検出対象領域R1に制限された距離画像を生成することで、距離演算部42の処理負荷が削減され、消費電力を低減することができる。
また、本実施形態に係る距離画像センサ1Aは、センサ回路3と、距離演算部42とを備える。センサ回路3は、指5などの対象物を撮像し、撮像データを生成する。距離演算部42は、センサ回路3により生成された撮像データに基づいて、対象物までの距離を示す距離画像を生成する。距離画像センサ1Aは、スマートグラス2Aの制御部21からの指示に基づいて、センサ回路3が撮像可能な検知エリアA2の内の一部の検出対象領域R1に制限して、距離画像を出力する。これにより、制御部21においてユーザの操作の検出を行う際の消費電力を低減することができる。
距離画像センサ1Aは、対象物にLED光を照射するLED10をさらに備えてもよい。距離画像は、LED光の対象物における反射光の伝播期間に基づいて生成されてもよい。これにより、距離画像の画素毎に独立して距離を演算できるため、距離画像において余分なマージンを設けることなく検出対象領域R1に制限することができる。
(実施の形態3)
実施の形態2では、距離画像センサ1Aの距離演算部42において、距離の演算を行う領域を制限した。実施の形態3では、距離画像センサのセンサ回路によって撮像する領域を制限する。これによっても、距離画像センサの動作による消費電力をより低減することができる。以下、本実施形態に係るスマートグラス及び距離画像センサについて説明する。
実施の形態2では、距離画像センサ1Aの距離演算部42において、距離の演算を行う領域を制限した。実施の形態3では、距離画像センサのセンサ回路によって撮像する領域を制限する。これによっても、距離画像センサの動作による消費電力をより低減することができる。以下、本実施形態に係るスマートグラス及び距離画像センサについて説明する。
1.構成
本実施形態に係る距離画像センサの構成について、図11、12を参照して説明する。図11(a)は、本実施形態に係るスマートグラスの距離画像センサの検知エリアを示す。図11(b)は、図11(a)の距離画像センサにより生成される距離画像の一例を示す。図12は、本実施形態に係る距離画像センサのセンサ回路の構成を示すブロック図である。
本実施形態に係る距離画像センサの構成について、図11、12を参照して説明する。図11(a)は、本実施形態に係るスマートグラスの距離画像センサの検知エリアを示す。図11(b)は、図11(a)の距離画像センサにより生成される距離画像の一例を示す。図12は、本実施形態に係る距離画像センサのセンサ回路の構成を示すブロック図である。
本実施形態に係るスマートグラス2Bでは、図11(a)に示すように、距離画像センサ1Bの検知エリアA2’を、表示部20の表示可能エリア全体の内の検出対象領域R1を含む一部のエリアに制限する。このため、距離画像センサ1Bのセンサ回路3は、図11(b)に示すように、検出対象領域R1外の領域を撮像せず、検出対象領域R1の内部のみ撮像する。
本実施形態の距離画像センサ1Bのセンサ回路3は、距離画像センサ1Bのセンサ制御部40から入力されるROI(Region-Of-Interest)コマンドに応じて、撮像動作を行う画素回路30を制限する機能を有する。ROIコマンドは、受光面における一部の領域を指定して、指定した領域のみ画素回路30を動作させるためのコマンドである。
本実施形態では、ROIコマンドにより、センサ回路の撮像面において検知エリアA2’に対応する画素の領域が指定される(図5参照)。例えば、ROIコマンドによって、図11(b)に示す検出対象領域R1の外部に対応する画素回路30に対して、垂直走査回路32及び水平読出し回路33による読出し動作を制限する。これにより、読み出し動作におけるA/D変換にかかる消費電力を低減することができる。なお、ROIコマンドによりゲート駆動回路31を制御して、画素回路30の受光動作を制限してもよい。この場合、センサ回路3の画素回路30毎の受光動作の消費電力も低減することができる。
2.動作
次に、本実施形態に係るスマートグラス2Bの動作について、図12を参照して説明する。図12は、本実施形態に係るユーザの操作の検出動作を示すシーケンス図である。
次に、本実施形態に係るスマートグラス2Bの動作について、図12を参照して説明する。図12は、本実施形態に係るユーザの操作の検出動作を示すシーケンス図である。
本実施形態では、図12に示すように、実施の形態2における図10のステップS11,S21,S22に代えて、ステップS11A,S21A,S22Aの処理を行う。
ステップS11Aにおいて、TOF信号処理部4のセンサ制御部40は、制御部21からの座標情報に基づいて、検出対象領域R1を囲む検知エリアA2’を指定するROIコマンドを生成して、撮像命令とともにセンサ回路3に送信する。
センサ回路3は、TOF信号処理部4からROIコマンドと撮像命令を受信する(S21A)。センサ回路3は、受信したROIコマンドと撮像命令に基づいて、検出対象領域を検知エリアA2’に制限して、撮像動作を行う(S22A)。これにより、撮像動作の対象となる画素回路30の数が減るため、距離画像センサ1Bのセンサ回路3における消費電力を低減できる。
以上の処理によると、距離画像センサ1Bにおいて、センサ回路3の撮像時の消費電力を低減できる。また、スマートグラス2Bの制御部21は、距離画像センサ1Bから予め検出対象領域R1に制限された距離画像G2bを取得するので、画像処理などにおける消費電力を低減できる。
3.まとめ
以上のように、本実施形態に係るスマートグラス2Bによると、センサ回路3は、対象物を撮像可能な画素の領域の内の一部の領域に、撮像データを生成する領域を制限する。これにより、撮像動作に用いる画素数が減るため、距離画像センサ1Bのセンサ回路3における消費電力をさらに低減できる。
以上のように、本実施形態に係るスマートグラス2Bによると、センサ回路3は、対象物を撮像可能な画素の領域の内の一部の領域に、撮像データを生成する領域を制限する。これにより、撮像動作に用いる画素数が減るため、距離画像センサ1Bのセンサ回路3における消費電力をさらに低減できる。
(他の実施の形態)
上記の各実施形態では、表示部20の画像表示に基づいて検出対象領域R1が設定されたが、ユーザ操作の検出対象となる検出対象領域は、表示中の画像とは関連せずに設定されてもよい。例えば、ユーザ操作の検出対象領域を、検知エリアの一部の所定の領域に設定してもよい。図13を用いて、具体的に説明する。
上記の各実施形態では、表示部20の画像表示に基づいて検出対象領域R1が設定されたが、ユーザ操作の検出対象となる検出対象領域は、表示中の画像とは関連せずに設定されてもよい。例えば、ユーザ操作の検出対象領域を、検知エリアの一部の所定の領域に設定してもよい。図13を用いて、具体的に説明する。
図13に示す例では、スマートグラス2は待機状態にあり、表示部20は画像を表示していない。待機状態において、ユーザがスマートグラス2に対して固定された特定の位置にある空間に指5をかざす等の操作を行ったときに、表示部20に画像を新たに表示させたり、スマートグラス2の所定の機能を起動させたりするために、距離画像センサ1を用いてユーザの操作を検出する。このように、ユーザの操作を検出する対象となる検出対象領域R2を、距離画像センサ1の検知エリアA2の中の一部の所定の領域に設定することにより、待機状態における消費電力を低減することができる。
また、上記各実施形態において、距離センサの一例としてTOF方式の距離画像センサ1を示したが、本発明に係る距離センサはTOF方式の距離画像センサに限らず、例えば、パターン照射型の距離画像センサや、ステレオカメラ、赤外線カメラなどであってもよい。距離センサとしてステレオカメラを用いる場合、距離の測定は三角測量によって行われる。このため、例えば水平方向に並列したステレオカメラを用いる場合、検知エリアの制限は三角測量における視差を考慮して、水平方向において、実際にユーザの操作の検出対象となる領域からマージンを設けて設定する。また、パターン照射型の距離画像センサでは、撮像された画素間のデータを比較することにより距離が計算される。このため、距離センサとしてパターン照射型の距離画像センサを用いる場合においても、検知エリアの制限は、実際にユーザの操作の検出対象となる領域からマージンを設けて設定する。
また、上記の各実施形態では、TOF信号処理部4においてセンサ制御部40と距離演算部42とを別個に構成したが、これに限らず、TOF信号処理部4においてセンサ制御部40と距離演算部42の機能を一体的に実現してもよい。
また、上記の各実施形態では、制御部21はユーザの操作を検出したとき、表示部20の画像表示を更新したが、画像表示の更新に代えて、例えば音データの再生や外部機器との通信などの所定の機能を実行させてもよい。
また、上記の各実施形態では、表示部20は虚像を投影する透過型ディスプレイデバイスであったが、これに限らず、例えば両目に対して視差画像を表示するディスプレイデバイスを用いて、ユーザの目の前の空間中に所定の画像を視認させてもよい。また、表示部はフラットパネルディスプレイであってもよい。例えば、フラットパネルディスプレイの表示面上にユーザが立体視可能な所定の画像(例えばホログラム)を表示して、立体視される画像に対して検出対象領域を設定してもよい。また、表示面上に表示された平面画像に対して、非接触で操作するために、表示面を覆う空間中に検出対象領域を設定してもよい。
また、上記の各実施形態では、ユーザインタフェース装置の一例として、眼鏡型のウェアラブル端末であるスマートグラス2を例示したが、本発明に係るユーザインタフェース装置はこれに限らない。例えば、時計型などの他のウェアラブル端末であってもよいし、スマートフォンやタブレット端末、携帯電話、ノート型PC(パーソナルコンピュータ)、デジタルカメラ、携帯型ゲーム機などに搭載されるユーザインタフェース装置であってもよい。
1 距離画像センサ
10 LED
2 スマートグラス
20 表示部
3 センサ回路
30 画素回路
4 TOF信号処理部
40 センサ制御部
42 距離演算部
10 LED
2 スマートグラス
20 表示部
3 センサ回路
30 画素回路
4 TOF信号処理部
40 センサ制御部
42 距離演算部
Claims (9)
- 対象物の動きに基づきユーザの操作を検出するユーザインタフェース装置であって、
前記対象物を撮像し、撮像画像を生成する撮像部と、
前記撮像部により生成された撮像画像に基づいて、前記対象物までの距離を示す距離情報を生成する距離情報生成部と、
前記距離情報生成部によって生成された距離情報に基づいて、前記ユーザの操作を検出する制御部とを備え、
前記制御部は、前記距離情報において、前記撮像部が撮像可能な領域の内の一部の制限された領域から、前記ユーザの操作を検出する
ユーザインタフェース装置。 - 前記制御部は、前記距離情報生成部から前記距離情報を取得し、取得した距離情報において、前記撮像部が撮像可能な領域の内の一部の領域に、前記ユーザの操作を検出する領域を制限する
請求項1に記載のユーザインタフェース装置。 - 前記距離情報生成部は、前記撮像部により生成された撮像画像における全領域の内の一部の領域に、前記距離情報を生成する領域を制限する
請求項1に記載のユーザインタフェース装置。 - 前記撮像部は、前記対象物を撮像可能な画素の領域の内の一部の領域に、前記撮像画像を生成する領域を制限する
請求項1に記載のユーザインタフェース装置。 - 画像を表示する表示部をさらに備え、
前記撮像部が撮像可能な領域は、前記画像がユーザに視認される表示位置を含む
請求項1〜4のいずれか1項に記載のユーザインタフェース装置。 - 前記画像は、操作部材を示す画像を含む
請求項5に記載のユーザインタフェース装置。 - 前記一部の制限された領域は、ユーザの操作を検出する領域に対応した領域である
請求項1〜6のいずれか1項に記載のユーザインタフェース装置。 - 対象物を撮像し、撮像画像を生成する撮像部と、
前記撮像部により生成された撮像画像に基づいて、前記対象物までの距離を示す距離情報を生成する距離情報生成部とを備え、
外部機器からの指示に基づいて、前記撮像部が撮像可能な領域の内の一部の領域に制限して、前記距離情報を出力する
距離センサ。 - 前記対象物に照射光を照射する光源部をさらに備え、
前記距離情報は、前記照射光の前記対象物における反射光の伝播期間に基づいて生成される
請求項8に記載の距離センサ。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015124768A JP2018124597A (ja) | 2015-06-22 | 2015-06-22 | ユーザインタフェース装置および距離センサ |
PCT/JP2016/054637 WO2016208216A1 (ja) | 2015-06-22 | 2016-02-18 | ユーザインタフェース装置および距離センサ |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015124768A JP2018124597A (ja) | 2015-06-22 | 2015-06-22 | ユーザインタフェース装置および距離センサ |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2018124597A true JP2018124597A (ja) | 2018-08-09 |
Family
ID=57584811
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015124768A Pending JP2018124597A (ja) | 2015-06-22 | 2015-06-22 | ユーザインタフェース装置および距離センサ |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP2018124597A (ja) |
WO (1) | WO2016208216A1 (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7056423B2 (ja) * | 2018-07-10 | 2022-04-19 | オムロン株式会社 | 入力装置 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006244272A (ja) * | 2005-03-04 | 2006-09-14 | Nippon Telegr & Teleph Corp <Ntt> | 手位置追跡方法、装置、およびプログラム |
WO2013121267A1 (en) * | 2012-02-15 | 2013-08-22 | Mesa Imaging Ag | Time of flight camera with stripe illumination |
JP2014056462A (ja) * | 2012-09-13 | 2014-03-27 | Toshiba Alpine Automotive Technology Corp | 操作装置 |
JP2014137762A (ja) * | 2013-01-18 | 2014-07-28 | Sanyo Electric Co Ltd | 物体検出装置 |
CN105074617B (zh) * | 2013-03-11 | 2018-03-02 | 日本电气方案创新株式会社 | 三维用户界面装置和三维操作处理方法 |
-
2015
- 2015-06-22 JP JP2015124768A patent/JP2018124597A/ja active Pending
-
2016
- 2016-02-18 WO PCT/JP2016/054637 patent/WO2016208216A1/ja active Application Filing
Also Published As
Publication number | Publication date |
---|---|
WO2016208216A1 (ja) | 2016-12-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102287751B1 (ko) | 전자 장치의 홍채 인식 방법 및 장치 | |
KR102114377B1 (ko) | 전자 장치에 의해 촬영된 이미지들을 프리뷰하는 방법 및 이를 위한 전자 장치 | |
KR102559289B1 (ko) | 적응형 깊이 감지 시스템 | |
US20140037135A1 (en) | Context-driven adjustment of camera parameters | |
US10261327B2 (en) | Head mounted display and control method for head mounted display | |
KR20160046706A (ko) | 이동단말기 및 그 제어방법 | |
KR20170006559A (ko) | 이동단말기 및 그 제어방법 | |
US11663992B2 (en) | Fade-in user interface display based on finger distance or hand proximity | |
KR101892013B1 (ko) | 이동 단말기 | |
JP6940353B2 (ja) | 電子機器 | |
CN108353129B (zh) | 拍摄设备及其控制方法 | |
KR20160143029A (ko) | 이동 단말기 | |
US20190384419A1 (en) | Handheld controller, tracking method and system using the same | |
US20180220066A1 (en) | Electronic apparatus, operating method of electronic apparatus, and non-transitory computer-readable recording medium | |
KR101515986B1 (ko) | 적외선 광원을 이용한 모바일 장치에서의 가상 좌표 생성 장치 및 그 방법 | |
JP6638392B2 (ja) | 表示装置、表示システム、表示装置の制御方法、及び、プログラム | |
WO2016170804A1 (ja) | ユーザインタフェース装置及びユーザインタフェースシステム | |
CN106201284B (zh) | 用户界面同步系统、方法 | |
WO2016208216A1 (ja) | ユーザインタフェース装置および距離センサ | |
US10859835B2 (en) | Head-mounted display apparatus and method for controlling imaging data of head-mounted display apparatus using release code | |
US11979515B2 (en) | Mobile terminal and control method thereof | |
CN112529770A (zh) | 图像处理方法、装置、电子设备和可读存储介质 | |
KR20070117338A (ko) | 포커스 영역 설정 기능을 갖는 이동통신 단말기 및 이를이용한 방법 | |
US20190129609A1 (en) | Electronic apparatus | |
JP6679430B2 (ja) | 撮像装置、撮像装置の制御方法及びプログラム |