JP6129309B2 - ジェスチャに基づくユーザインターフェース - Google Patents
ジェスチャに基づくユーザインターフェース Download PDFInfo
- Publication number
- JP6129309B2 JP6129309B2 JP2015520827A JP2015520827A JP6129309B2 JP 6129309 B2 JP6129309 B2 JP 6129309B2 JP 2015520827 A JP2015520827 A JP 2015520827A JP 2015520827 A JP2015520827 A JP 2015520827A JP 6129309 B2 JP6129309 B2 JP 6129309B2
- Authority
- JP
- Japan
- Prior art keywords
- gesture
- image
- depth
- image data
- image sensor
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 claims description 73
- 230000006870 function Effects 0.000 claims description 56
- 238000001228 spectrum Methods 0.000 claims description 35
- 230000001276 controlling effect Effects 0.000 claims description 29
- 238000003384 imaging method Methods 0.000 claims description 22
- 238000004422 calculation algorithm Methods 0.000 claims description 17
- 238000005311 autocorrelation function Methods 0.000 claims description 8
- 238000001514 detection method Methods 0.000 claims description 6
- 238000004590 computer program Methods 0.000 claims description 5
- 238000002156 mixing Methods 0.000 claims description 5
- 230000002596 correlated effect Effects 0.000 claims description 3
- 238000002329 infrared spectrum Methods 0.000 claims description 3
- 230000005855 radiation Effects 0.000 description 20
- 230000008569 process Effects 0.000 description 18
- 238000012545 processing Methods 0.000 description 15
- 238000000605 extraction Methods 0.000 description 8
- 230000005057 finger movement Effects 0.000 description 8
- 230000003287 optical effect Effects 0.000 description 8
- 239000010409 thin film Substances 0.000 description 7
- 230000004913 activation Effects 0.000 description 6
- 239000000758 substrate Substances 0.000 description 6
- 238000012360 testing method Methods 0.000 description 6
- 230000003993 interaction Effects 0.000 description 5
- 238000005457 optimization Methods 0.000 description 5
- 238000004519 manufacturing process Methods 0.000 description 4
- 238000003860 storage Methods 0.000 description 4
- 238000004458 analytical method Methods 0.000 description 3
- 239000000872 buffer Substances 0.000 description 3
- 238000013461 design Methods 0.000 description 3
- 238000006073 displacement reaction Methods 0.000 description 3
- 239000004065 semiconductor Substances 0.000 description 3
- 239000013598 vector Substances 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 230000000875 corresponding effect Effects 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000005670 electromagnetic radiation Effects 0.000 description 2
- 238000001914 filtration Methods 0.000 description 2
- 230000035945 sensitivity Effects 0.000 description 2
- 239000007787 solid Substances 0.000 description 2
- 230000003595 spectral effect Effects 0.000 description 2
- 229910001218 Gallium arsenide Inorganic materials 0.000 description 1
- XUIMIQQOPSSXEZ-UHFFFAOYSA-N Silicon Chemical compound [Si] XUIMIQQOPSSXEZ-UHFFFAOYSA-N 0.000 description 1
- 230000006978 adaptation Effects 0.000 description 1
- 229910021417 amorphous silicon Inorganic materials 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 229920001940 conductive polymer Polymers 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000013144 data compression Methods 0.000 description 1
- 230000009849 deactivation Effects 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 238000005265 energy consumption Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
- 229910052710 silicon Inorganic materials 0.000 description 1
- 239000010703 silicon Substances 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
- 238000001429 visible spectrum Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/30—Authentication, i.e. establishing the identity or authorisation of security principals
- G06F21/31—User authentication
- G06F21/32—User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/571—Depth or shape recovery from multiple images from focus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/10—Image acquisition
- G06V10/12—Details of acquisition arrangements; Constructional details thereof
- G06V10/14—Optical characteristics of the device performing the acquisition or on the illumination arrangements
- G06V10/143—Sensing or illuminating at different wavelengths
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/12—Fingerprints or palmprints
- G06V40/1347—Preprocessing; Feature extraction
- G06V40/1353—Extracting features related to minutiae or pores
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/28—Recognition of hand or arm movements, e.g. recognition of deaf sign language
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10048—Infrared image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10141—Special mode during image acquisition
- G06T2207/10148—Varying focus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20048—Transform domain processing
- G06T2207/20056—Discrete and fast Fourier transform, [DFT, FFT]
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computer Security & Cryptography (AREA)
- Computer Hardware Design (AREA)
- Software Systems (AREA)
- User Interface Of Digital Computer (AREA)
Description
101 多開口画像センサ
102 画像センサ
103 データ処理モジュール
104 光学レンズシステム
106 シャッター
108 多開口システム
110 アナログデジタル(A/D)変換器
112 デジタルシグナルプロセッサ(DSP)
114 深度マップ生成器
116 バッファ
118 メモリ
124 信号処理機能
126 ジェスチャ認識モジュール
128 出力モジュール
134 データバス
Claims (24)
- 電子デバイス上のソフトウェアプログラムを制御するためのジェスチャに基づくユーザインターフェースのためのコンピュータ実装方法であって、
前記電子デバイスでの多開口画像センサから画像データを受け取るステップであって、前記画像センサが、第1の開口を使用して電磁(EM)スペクトルの少なくとも第1の部分および1つまたは複数の第2の開口を使用してEMスペクトルの少なくとも第2の部分に画像センサを同時にさらすように構成される、ステップと、
前記画像センサの画像面上に前記第1の開口および前記1つまたは複数の第2の開口によって結像される物体の少なくとも一部と関連する前記画像データの少なくとも1つのエリアでシャープネス情報を決定するステップと、
前記シャープネス情報の少なくとも一部に基づいて深度マップを生成するステップと、
前記深度マップに基づいて前記物体の動きと関連するジェスチャの少なくとも一部を認識するステップであって、前記ジェスチャの前記少なくとも一部を認識するステップは、
前記深度マップの少なくとも一部から1つまたは複数の深度特徴を抽出するステップと、
前記1つまたは複数の抽出された深度特徴を、前記物体と関連する1つまたは複数の基準特徴と照合するステップとを含む、方法。 - 電磁スペクトルの前記第1の部分と関連する第1の画像データを決定するステップと、
電磁スペクトルの前記第2の部分と関連する第2の画像データを決定するステップと、をさらに含む方法であって、
前記シャープネス情報の少なくとも一部に基づいて前記深度マップを生成するステップが、前記第1の画像データでの前記物体の画像の少なくとも一部と関連する第1のシャープネス情報および前記第2の画像データでの前記物体の前記画像の少なくとも一部と関連する第2のシャープネス情報を前記画像センサと前記物体との間の距離に関連付けるステップとをさらに含む、請求項1に記載の方法。 - 前記深度マップは、前記電子デバイスのメモリに記憶された所定の深度関数に基づいて生成され、前記所定の深度関数が、前記画像データでのシャープネス情報を前記画像センサと前記物体との間の距離に関連付けるように構成される、請求項1または2に記載の方法。
- 前記所定の深度関数が、前記画像データでのシャープネス情報を前記電子デバイスのメモリに記憶された一組のブラーカーネルからの少なくとも1つのブラーカーネルに関連付けられるように構成され、前記一組のブラーカーネルの各々のブラーカーネルは、所定の深度値と関連する、請求項3に記載の方法。
- 前記深度マップを生成するステップはさらに、
前記画像データでの窓を選択する、ステップと、
最小化アルゴリズムに基づいて前記窓でのシャープネス情報を一組のブラーカーネルの1つのブラーカーネルに関連付けるステップと、
前記ブラーカーネルと関連する深度値を前記窓での1つまたは複数の画素に割り当てるステップとを含む、請求項1から3のいずれか一項に記載の方法。 - 前記最小化アルゴリズムは、
前記一組のブラーカーネルの少なくとも1つを前記窓での前記シャープネス情報と畳み込むステップを含む、請求項5に記載の方法。 - 電磁スペクトルの前記第2の部分と関連する第2の画像データを決定するステップと、
前記第2の画像データで少なくとも2つの横方向に変位した画像を決定するステップであって、前記画像の各々が、第2の開口と関連し、前記画像が、前記画像センサの前のある距離に位置決めされる物体と関連する、ステップと、
前記電子デバイスのメモリに記憶された所定の深度関数に基づいて前記深度マップを生成するステップであって、前記所定の深度関数が、前記横方向に変位した画像間の距離を前記画像センサと前記物体との間の距離に関連付けるように構成される、ステップとをさらに含む、請求項1に記載の方法。 - 前記多開口画像センサは、前記第2の開口の各々が前記画像センサの画像面上に物体を結像するように構成される2つ以上の第2の開口を備え、前記横方向に変位した画像間の前記距離は、前記物体と前記画像センサとの間の前記距離の関数である、請求項7に記載の方法。
- 第2の高周波数画像データを決定するステップと、
自己相関関数を通じて前記第2の高周波数画像データを走らせることによって前記距離を決定するステップとをさらに含む、請求項7または8に記載の方法。 - 前記深度マップを生成するステップは、
深度値を前記多開口画像センサによって生成される前記画像データの少なくとも一部に割り当てるステップをさらに含む、請求項1から9のいずれか一項に記載の方法。 - EMスペクトルの前記第1の部分は、EMスペクトルの可視部の少なくとも一部と関連し、かつ/またはEMスペクトルの前記第2の部分は、EMスペクトルの不可視部の少なくとも一部、好ましくは赤外線スペクトルと関連する、請求項1から10のいずれか一項に記載の方法。
- 前記深度マップに基づいて前記画像データと関連する画像フレームの少なくとも一部での関心のある領域(ROI)の少なくとも一部を決定するステップを含む、請求項1から11のいずれか一項に記載の方法。
- 関心のある領域の少なくとも一部を決定するステップが、さらに、
前景深度値と関連する画素に基づいて前記関心のある領域を決定するステップを含み、前記前景深度値は、前記多開口画像センサの画像面に比較的近い深度値の所定の範囲内にある、請求項12に記載の方法。 - カラー情報に基づいて前記画像データと関連する画像フレームの少なくとも一部での関心のある領域の少なくとも一部を決定するステップと、
人体の一部と関連するカラー情報に実質的に一致するカラー情報に基づいて前記関心のある領域を決定するステップと、
を含む、請求項1から12のいずれか一項に記載の方法。 - 前記物体が人体の一部であって、前記ジェスチャの前記少なくとも一部を認識するステップはさらに、
強化画像から1つまたは複数の2D特徴を抽出するステップであって、前記強化画像は、EMスペクトルの前記第1の部分と関連する第1の低周波数画像データを第2の高周波数画像データと混合することによって形成される、強化画像から1つまたは複数の2D特徴を抽出するステップと、
前記2D特徴を前記人体の一部と関連する1つまたは複数の基準特徴と照合するステップとを含む、請求項1から14のいずれか一項に記載の方法。 - 前記物体が人体の一部であって、前記ジェスチャの前記少なくとも一部を認識するステップは、
前記深度マップに基づいて前記人体の一部の少なくとも一部の1つまたは複数の軌跡を決定するステップと、
前記決定された軌跡を所定のジェスチャと関連する基準軌跡と相互に関係付けるステップと、
もし前記決定された1つまたは複数の軌跡が1つまたは複数の基準軌跡と相互に関連があるならば、所定のジェスチャの検出を確立するステップと、
前記所定のジェスチャに基づいて前記ソフトウェアプログラムを制御するステップとを含む、請求項1から14のいずれか一項に記載の方法。 - 前記人体の一部は、指先に関連し、前記方法は、次のステップ、
多開口撮像システムの視野で1つまたは複数の所定の軌跡にわたって前記1つまたは複数の指先を動かすことに基づいて前記ソフトウェアプログラムを制御するステップと、
前記電子デバイスから所定距離の平面で前記1つ又は複数の指先を動かすことによって前記ソフトウェアプログラムを制御するステップと、
前記画像センサの視野で第1の距離から第2の距離まで前記1つまたは複数の指先を動かすことに基づいて前記ソフトウェアプログラムでの起動または停止機能を制御するステップと、
前記1つまたは複数の指先の第1の指先を前記1つまたは複数の指先の第2指先に対して動かすことによって前記ソフトウェアプログラムを制御するステップとの少なくとも1つをさらに含む、請求項16に記載の方法。 - 前記物体は、指先であり、前記方法は、
前記深度マップに基づいて前記画像データで前記指先と関連する関心のある領域を決定するステップと、
強化画像から1つまたは複数の方向性特徴を抽出するステップであって、前記強化画像は、EMスペクトルの前記第1の部分と関連する第1の低周波数画像データを第2の高周波数画像データと混合することによって形成される、強化画像から1つまたは複数の方向性特徴を抽出するステップと、
前記抽出された方向性特徴をユーザの指紋と関連する方向性基準特徴と照合することによって前記ジェスチャに基づくユーザインターフェースの前記ユーザを認証するステップとをさらに含む、請求項1から14のいずれか一項に記載の方法。 - 電子デバイスで使用するためのジェスチャに基づくユーザインターフェースシステムであって、前記ユーザインターフェースシステムが、前記電子デバイス上のソフトウェアプログラムを制御するように構成され、前記システムが、
画像データを生成するための多開口画像センサであって、第1の開口を使用して電磁(EM)スペクトルの少なくとも第1の部分および1つまたは複数の第2の開口を使用してEMスペクトルの少なくとも第2の部分に画像センサを同時にさらすように構成される多開口画像センサと、
前記画像センサの画像面上に前記第1の開口および前記1つまたは複数の第2の開口によって結像される人体の一部と関連する前記画像データの少なくとも1つのエリアでシャープネス情報を生成するための1つまたは複数のフィルタと、
前記シャープネス情報の少なくとも一部に基づいて、深度マップを生成するように構成される深度マップ生成器と、
前記深度マップに基づいて前記人体の一部の動きと関連するジェスチャを認識するように構成されるジェスチャ認識モジュールであって、前記ジェスチャ認識モジュールは、さらに、
前記深度マップの少なくとも一部から1つまたは複数の深度特徴を抽出し、
前記1つまたは複数の抽出された深度特徴を、前記人体の一部と関連する1つまたは複数の基準特徴と照合するように構成される、ジェスチャ認識モジュールと、
を備える、ジェスチャに基づくユーザインターフェースシステム。 - 前記深度マップ生成器はさらに、前記第1の開口と関連する第1のシャープネス情報および前記1つまたは複数の第2の開口と関連する第2のシャープネス情報を前記画像センサと前記人体の一部との間の距離に関連付けるように構成される、または前記深度マップ生成器はさらに、前記第2の開口の少なくとも2つと関連する少なくとも2つの横方向に変位した画像間の距離を前記人体の一部と前記画像センサとの間の距離に関連付けるように構成される、請求項19に記載のジェスチャに基づくユーザインターフェースシステム。
- 前記深度マップ生成器はさらに、前記第1の開口と関連する第1のシャープネス情報および前記1つまたは複数の第2の開口と関連する第2のシャープネス情報を前記電子デバイスのメモリに記憶された一組のブラーカーネルからの少なくとも1つのブラーカーネルに関連付けるように構成され、前記ブラーカーネルの各々は、前記画像センサと前記人体の一部との間の所定の距離と関連する、請求項19に記載のジェスチャに基づくユーザインターフェースシステム。
- 前記ジェスチャ認識モジュールはさらに、
前記深度マップに基づいて前記人体の一部の少なくとも1つまたは複数の軌跡を決定し、
前記1つまたは複数の決定された軌跡を所定のジェスチャと関連する1つまたは複数の基準軌跡と相互に関連付け、
もし前記決定された1つまたは複数の軌跡が1つまたは複数の基準軌跡の少なくとも1つと相互に関連があるならば、所定のジェスチャの検出を確立し、
前記所定のジェスチャに基づいて前記ソフトウェアプログラムを制御するように構成される、請求項19から21のいずれか一項に記載のジェスチャに基づくユーザインターフェースシステム。 - 前記人体の一部は、1つまたは複数の指先に関連し、前記ジェスチャ認識モジュールはさらに、
多開口撮像システムの視野で1つまたは複数の所定の軌跡にわたって前記1つまたは複数の指先を動かすことに基づいて前記ソフトウェアプログラムを制御し、
前記電子デバイスから所定距離の平面で前記1つまたは複数の指先を動かすことによって前記ソフトウェアプログラムを制御し、
前記画像センサの視野で第1の距離から第2の距離まで前記1つまたは複数の指先を動かすことに基づいて前記ソフトウェアプログラムでの起動または停止機能を制御し、かつ/または、
前記1つまたは複数の指先の第1の指先を前記1つまたは複数の指先の第2の指先に対して動かすことによって前記ソフトウェアプログラムを制御するように構成される、請求項19から22のいずれか一項に記載のジェスチャに基づくユーザインターフェースシステム。 - ジェスチャに基づくユーザインターフェースを提供するためのコンピュータプログラムであって、コンピュータシステムのメモリで走るとき、請求項1から18のいずれか一項に記載の方法ステップを実行するように構成されるソフトウェアコード部分を備える、コンピュータプログラム。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/EP2012/063703 WO2014008939A1 (en) | 2012-07-12 | 2012-07-12 | Gesture-based user interface |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2015522193A JP2015522193A (ja) | 2015-08-03 |
JP6129309B2 true JP6129309B2 (ja) | 2017-05-17 |
Family
ID=46582671
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015520827A Active JP6129309B2 (ja) | 2012-07-12 | 2012-07-12 | ジェスチャに基づくユーザインターフェース |
Country Status (5)
Country | Link |
---|---|
US (1) | US9733717B2 (ja) |
EP (1) | EP2872966A1 (ja) |
JP (1) | JP6129309B2 (ja) |
KR (1) | KR20150043312A (ja) |
WO (1) | WO2014008939A1 (ja) |
Families Citing this family (66)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102013109862A1 (de) * | 2012-09-10 | 2014-03-13 | Electronics And Telecommunications Research Institute | Vorrichtung und Verfahren für Benutzeranbindung sowie Endgerät, das dieselben benutzt |
CN105556944B (zh) | 2012-11-28 | 2019-03-08 | 核心光电有限公司 | 多孔径成像系统和方法 |
KR20140099111A (ko) * | 2013-02-01 | 2014-08-11 | 삼성전자주식회사 | 카메라 장치의 동작을 제어하는 방법 및 상기 카메라 장치 |
US9829984B2 (en) * | 2013-05-23 | 2017-11-28 | Fastvdo Llc | Motion-assisted visual language for human computer interfaces |
CN109040552B (zh) | 2013-06-13 | 2021-06-22 | 核心光电有限公司 | 双孔径变焦数字摄影机 |
CN107748432A (zh) | 2013-07-04 | 2018-03-02 | 核心光电有限公司 | 小型长焦透镜套件 |
CN105917641B (zh) | 2013-08-01 | 2018-10-19 | 核心光电有限公司 | 具有自动聚焦的纤薄多孔径成像系统及其使用方法 |
WO2015145589A1 (ja) | 2014-03-25 | 2015-10-01 | 富士通フロンテック株式会社 | 生体認証装置、生体認証方法、及びプログラム |
US10228768B2 (en) | 2014-03-25 | 2019-03-12 | Analog Devices, Inc. | Optical user interface |
EP3125194B1 (en) * | 2014-03-25 | 2021-10-27 | Fujitsu Frontech Limited | Biometric authentication device, biometric authentication method, and program |
WO2015145588A1 (ja) | 2014-03-25 | 2015-10-01 | 富士通フロンテック株式会社 | 生体認証装置、生体認証方法、及びプログラム |
DE102014206443A1 (de) * | 2014-04-03 | 2015-10-08 | Continental Automotive Gmbh | Verfahren und Vorrichtung zum berührungslosen Eingeben von Schriftzeichen |
KR101591172B1 (ko) | 2014-04-23 | 2016-02-03 | 주식회사 듀얼어퍼처인터네셔널 | 이미지 센서와 피사체 사이의 거리를 결정하는 방법 및 장치 |
FR3022377B1 (fr) * | 2014-06-13 | 2017-08-25 | Morpho | Dispositif d'acquisition optique pour systemes biometriques |
US10354242B2 (en) * | 2014-07-31 | 2019-07-16 | Ncr Corporation | Scanner gesture recognition |
US9392188B2 (en) | 2014-08-10 | 2016-07-12 | Corephotonics Ltd. | Zoom dual-aperture camera with folded lens |
WO2016108093A1 (en) | 2015-01-03 | 2016-07-07 | Corephotonics Ltd. | Miniature telephoto lens module and a camera utilizing such a lens module |
WO2016114427A1 (ko) * | 2015-01-16 | 2016-07-21 | 재단법인 다차원 스마트 아이티 융합시스템 연구단 | 이미지로부터 심도정보를 추정할 때의 연산 복잡도를 감소시키기 위한 방법 및 장치 |
US20160255323A1 (en) * | 2015-02-26 | 2016-09-01 | Dual Aperture International Co. Ltd. | Multi-Aperture Depth Map Using Blur Kernels and Down-Sampling |
US9723197B2 (en) | 2015-03-31 | 2017-08-01 | Sony Corporation | Depth estimation from image defocus using multiple resolution Gaussian difference |
KR102227200B1 (ko) | 2015-04-16 | 2021-03-12 | 코어포토닉스 리미티드 | 소형 접이식 카메라의 오토 포커스 및 광학 이미지 안정화 |
WO2016171296A1 (ko) * | 2015-04-24 | 2016-10-27 | 재단법인 다차원 스마트 아이티 융합시스템 연구단 | 비 정사각 및 비 원 형상의 애퍼처를 이용하는 이미지의 깊이 추정 방법 및 장치 |
KR102214287B1 (ko) | 2015-08-13 | 2021-02-09 | 코어포토닉스 리미티드 | 비디오 지원 및 스위칭/비스위칭 동적 제어 기능이 있는 듀얼-애퍼처 줌 카메라 |
WO2017034046A1 (ko) * | 2015-08-24 | 2017-03-02 | 재단법인 다차원 스마트 아이티 융합시스템 연구단 | 멀티 애퍼처 카메라에서의 깊이 추출 방법 및 장치 |
TWI565323B (zh) * | 2015-09-02 | 2017-01-01 | 原相科技股份有限公司 | 分辨前景的成像裝置及其運作方法、以及影像感測器 |
CN109889708B (zh) | 2015-12-29 | 2021-07-06 | 核心光电有限公司 | 具有自动可调节长焦视场的双孔径变焦数字摄影机 |
US10114465B2 (en) | 2016-01-15 | 2018-10-30 | Google Llc | Virtual reality head-mounted devices having reduced numbers of cameras, and methods of operating the same |
US9916433B2 (en) * | 2016-02-10 | 2018-03-13 | ContinUse Biometrics Ltd. | Condition authentication based upon temporal-spatial analysis of vibrational responsivity |
EP3292685B1 (en) | 2016-05-30 | 2019-06-05 | Corephotonics Ltd. | Rotational ball-guided voice coil motor |
KR102302004B1 (ko) * | 2016-06-19 | 2021-09-14 | 코어포토닉스 리미티드 | 듀얼 애퍼처 카메라 시스템에서의 프레임 동기화 |
KR20240051317A (ko) | 2016-07-07 | 2024-04-19 | 코어포토닉스 리미티드 | 폴디드 옵틱용 선형 볼 가이드 보이스 코일 모터 |
EP3563193B1 (en) | 2016-12-28 | 2021-03-31 | Corephotonics Ltd. | Folded camera structure with an extended light-folding-element scanning range |
KR102164655B1 (ko) | 2017-01-12 | 2020-10-13 | 코어포토닉스 리미티드 | 컴팩트 폴디드 카메라 |
US10354387B2 (en) * | 2017-02-27 | 2019-07-16 | Intel Corporation | Material characterization from infrared radiation |
JP2020512581A (ja) | 2017-03-15 | 2020-04-23 | コアフォトニクス リミテッド | パノラマ走査範囲付きカメラ |
US10481736B2 (en) * | 2017-06-21 | 2019-11-19 | Samsung Electronics Company, Ltd. | Object detection and motion identification using electromagnetic radiation |
US10904512B2 (en) | 2017-09-06 | 2021-01-26 | Corephotonics Ltd. | Combined stereoscopic and phase detection depth mapping in a dual aperture camera |
US10951834B2 (en) | 2017-10-03 | 2021-03-16 | Corephotonics Ltd. | Synthetically enlarged camera aperture |
KR102456315B1 (ko) | 2017-11-23 | 2022-10-18 | 코어포토닉스 리미티드 | 컴팩트 폴디드 카메라 구조 |
EP3552050B1 (en) | 2018-02-05 | 2021-06-02 | Corephotonics Ltd. | Reduced height penalty for folded camera |
KR102708672B1 (ko) | 2018-02-12 | 2024-09-20 | 코어포토닉스 리미티드 | 광학 이미지 안정화 기능을 갖는 폴디드 카메라 |
US10449895B2 (en) * | 2018-03-20 | 2019-10-22 | Rockwell Collins, Inc. | Object tracking illumination system |
US10694168B2 (en) | 2018-04-22 | 2020-06-23 | Corephotonics Ltd. | System and method for mitigating or preventing eye damage from structured light IR/NIR projector systems |
CN112367448B (zh) | 2018-04-23 | 2022-04-19 | 核心光电有限公司 | 感测机构 |
CN111316346B (zh) | 2018-08-04 | 2022-11-29 | 核心光电有限公司 | 摄像机上方的可切换连续显示信息系统 |
US11635596B2 (en) | 2018-08-22 | 2023-04-25 | Corephotonics Ltd. | Two-state zoom folded camera |
WO2020144528A1 (en) | 2019-01-07 | 2020-07-16 | Corephotonics Ltd. | Rotation mechanism with sliding joint |
US10867441B2 (en) * | 2019-02-15 | 2020-12-15 | Microsoft Technology Licensing, Llc | Method and apparatus for prefetching data items to a cache |
KR102494006B1 (ko) | 2019-03-09 | 2023-01-30 | 코어포토닉스 리미티드 | 동적 입체 캘리브레이션을 위한 시스템 및 방법 |
KR102254947B1 (ko) | 2019-07-31 | 2021-05-24 | 코어포토닉스 리미티드 | 카메라 패닝 또는 모션에서 배경 블러링을 생성하는 시스템 및 방법 |
CN110764766A (zh) * | 2019-10-15 | 2020-02-07 | 成都四方伟业软件股份有限公司 | 一种光圈效果实现方法及装置 |
US11659135B2 (en) | 2019-10-30 | 2023-05-23 | Corephotonics Ltd. | Slow or fast motion video using depth information |
US11949976B2 (en) | 2019-12-09 | 2024-04-02 | Corephotonics Ltd. | Systems and methods for obtaining a smart panoramic image |
KR102708591B1 (ko) | 2019-12-09 | 2024-09-20 | 코어포토닉스 리미티드 | 스마트한 파노라마 이미지를 획득하기 위한 시스템 및 방법 |
US11209263B2 (en) * | 2019-12-12 | 2021-12-28 | Tencent America LLC | 3D hand pose estimation based on depth-image guided adversarial network 1 |
KR20220053023A (ko) | 2020-02-22 | 2022-04-28 | 코어포토닉스 리미티드 | 매크로 촬영을 위한 분할 스크린 기능 |
US11693064B2 (en) | 2020-04-26 | 2023-07-04 | Corephotonics Ltd. | Temperature control for Hall bar sensor correction |
CN117372250A (zh) | 2020-05-17 | 2024-01-09 | 核心光电有限公司 | 全视场参考图像的图像拼接 |
EP3966631B1 (en) | 2020-05-30 | 2023-01-25 | Corephotonics Ltd. | Systems and methods for obtaining a super macro image |
US11637977B2 (en) | 2020-07-15 | 2023-04-25 | Corephotonics Ltd. | Image sensors and sensing methods to obtain time-of-flight and phase detection information |
US11910089B2 (en) | 2020-07-15 | 2024-02-20 | Corephotonics Lid. | Point of view aberrations correction in a scanning folded camera |
WO2022023914A1 (en) | 2020-07-31 | 2022-02-03 | Corephotonics Ltd. | Hall sensor - magnet geometry for large stroke linear position sensing |
KR102480820B1 (ko) | 2020-08-12 | 2022-12-22 | 코어포토닉스 리미티드 | 스캐닝 폴디드 카메라의 광학 이미지 안정화 |
US12101575B2 (en) | 2020-12-26 | 2024-09-24 | Corephotonics Ltd. | Video support in a multi-aperture mobile camera with a scanning zoom camera |
US12081856B2 (en) | 2021-03-11 | 2024-09-03 | Corephotonics Lid. | Systems for pop-out camera |
EP4204885A4 (en) | 2021-06-08 | 2024-03-06 | Corephotonics Ltd. | SYSTEMS AND CAMERAS FOR TILTING A FOCAL PLANE OF A SUPER MACRO-IMAGE |
Family Cites Families (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3863809B2 (ja) | 2002-05-28 | 2006-12-27 | 独立行政法人科学技術振興機構 | 手の画像認識による入力システム |
JP3974063B2 (ja) * | 2003-03-24 | 2007-09-12 | 松下電器産業株式会社 | プロセッサおよびコンパイラ |
US7308112B2 (en) | 2004-05-14 | 2007-12-11 | Honda Motor Co., Ltd. | Sign based human-machine interaction |
EP1856907A2 (fr) * | 2005-03-07 | 2007-11-21 | DXO Labs | Procédé pour commander une action, notamment une modification de netteté, à partir d'une image numérique en couleurs |
US8406487B2 (en) * | 2009-09-16 | 2013-03-26 | General Electric Company | Method and system for contactless fingerprint detection and verification |
EP2537332A1 (en) * | 2010-02-19 | 2012-12-26 | Dual Aperture, Inc. | Processing multi-aperture image data |
US9495751B2 (en) * | 2010-02-19 | 2016-11-15 | Dual Aperture International Co. Ltd. | Processing multi-aperture image data |
US20110267485A1 (en) * | 2010-04-30 | 2011-11-03 | Kane Paul J | Range measurement using a coded aperture |
EP2474950B1 (en) * | 2011-01-05 | 2013-08-21 | Softkinetic Software | Natural gesture based user interface methods and systems |
EP3654146A1 (en) * | 2011-03-29 | 2020-05-20 | QUALCOMM Incorporated | Anchoring virtual images to real world surfaces in augmented reality systems |
WO2012141868A1 (en) * | 2011-04-15 | 2012-10-18 | Faro Technologies, Inc. | Enhanced position detector in laser tracker |
WO2012168322A2 (en) * | 2011-06-06 | 2012-12-13 | 3Shape A/S | Dual-resolution 3d scanner |
JP5712074B2 (ja) * | 2011-07-20 | 2015-05-07 | 株式会社日立ハイテクノロジーズ | 走査透過電子顕微鏡 |
US8866912B2 (en) * | 2013-03-10 | 2014-10-21 | Pelican Imaging Corporation | System and methods for calibration of an array camera using a single captured image |
US20140327753A1 (en) * | 2013-05-06 | 2014-11-06 | Delta ID Inc. | Apparatus and method for positioning an iris for iris image capture |
US8885901B1 (en) * | 2013-10-22 | 2014-11-11 | Eyenuk, Inc. | Systems and methods for automated enhancement of retinal images |
-
2012
- 2012-07-12 JP JP2015520827A patent/JP6129309B2/ja active Active
- 2012-07-12 KR KR1020157003425A patent/KR20150043312A/ko not_active Application Discontinuation
- 2012-07-12 EP EP12740325.1A patent/EP2872966A1/en not_active Withdrawn
- 2012-07-12 WO PCT/EP2012/063703 patent/WO2014008939A1/en active Application Filing
- 2012-07-12 US US14/413,915 patent/US9733717B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
WO2014008939A1 (en) | 2014-01-16 |
EP2872966A1 (en) | 2015-05-20 |
US9733717B2 (en) | 2017-08-15 |
JP2015522193A (ja) | 2015-08-03 |
US20150261299A1 (en) | 2015-09-17 |
KR20150043312A (ko) | 2015-04-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6129309B2 (ja) | ジェスチャに基づくユーザインターフェース | |
US10599228B2 (en) | Information processing device and method, program and recording medium for identifying a gesture of a person from captured image data | |
US10334151B2 (en) | Phase detection autofocus using subaperture images | |
EP2531980B1 (en) | Depth camera compatibility | |
JP6417702B2 (ja) | 画像処理装置、画像処理方法および画像処理プログラム | |
EP2531979B1 (en) | Depth camera compatibility | |
EP3915087B1 (en) | An electronic device applying bokeh effect to image and controlling method thereof | |
EP2339507B1 (en) | Head detection and localisation method | |
EP3185209B1 (en) | Depth maps generated from a single sensor | |
JP2015526927A (ja) | カメラ・パラメータのコンテキスト駆動型調整 | |
US9703371B1 (en) | Obtaining input from a virtual user interface | |
US10528145B1 (en) | Systems and methods involving gesture based user interaction, user interface and/or other features | |
TW201514830A (zh) | 互動式操作方法 | |
JP2019067388A (ja) | ライトフィールド画像を操作するためのユーザインターフェイス | |
KR101501487B1 (ko) | 깊이 영상 기반 머리 검출방법 및 장치 | |
CN106951077B (zh) | 一种提示方法及第一电子设备 | |
TW201006527A (en) | Measuring object contour method and measuring object contour apparatus | |
JP2010113562A (ja) | 物体検知追跡装置,物体検知追跡方法および物体検知追跡プログラム | |
Lee et al. | A Long‐Range Touch Interface for Interaction with Smart TVs | |
KR101741671B1 (ko) | 3d 동작기반의 프레젠테이션 장치 및 방법 | |
CN115878008A (zh) | 交互方法、装置、计算机可读存储介质及电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20160210 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20160229 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20160527 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20160713 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160831 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20161003 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20170104 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170223 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20170313 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20170411 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6129309 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |