JP2016018458A - 情報処理装置、その制御方法、プログラム、及び記憶媒体 - Google Patents
情報処理装置、その制御方法、プログラム、及び記憶媒体 Download PDFInfo
- Publication number
- JP2016018458A JP2016018458A JP2014141805A JP2014141805A JP2016018458A JP 2016018458 A JP2016018458 A JP 2016018458A JP 2014141805 A JP2014141805 A JP 2014141805A JP 2014141805 A JP2014141805 A JP 2014141805A JP 2016018458 A JP2016018458 A JP 2016018458A
- Authority
- JP
- Japan
- Prior art keywords
- region
- flat plate
- height
- information processing
- area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/042—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
- G06F3/0425—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/0416—Control or interface arrangements specially adapted for digitisers
- G06F3/0418—Control or interface arrangements specially adapted for digitisers for error correction or compensation, e.g. based on parallax, calibration or alignment
- G06F3/04186—Touch location disambiguation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/042—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
- G06F3/0425—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
- G06F3/0426—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected tracking fingers with respect to a virtual keyboard projected or printed on the surface
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/107—Static hand or arm
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/28—Recognition of hand or arm movements, e.g. recognition of deaf sign language
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/041—Indexing scheme relating to G06F3/041 - G06F3/045
- G06F2203/04101—2.5D-digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface and also measures the distance of the input means within a short range in the Z direction, possibly with a separate measurement setup
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Image Analysis (AREA)
- User Interface Of Digital Computer (AREA)
- Position Input By Displaying (AREA)
Abstract
【解決手段】情報処理装置は、所定の平板を背景の一部に含む空間における、平板と交わる方向の位置情報が反映された入力画像を取得しS402、入力画像のうち、空間のうち背景に平板が存在する領域においては、平板と交わる方向の位置情報によって示される平板の表面からの距離と第1の基準とに基づいて、平板の前景に存在する物体が写る物体領域を抽出しS403、入力画像のうち、空間のうち背景に平板が存在しない領域においては、平板と交わる方向の位置情報と、第2の基準とに基づいて、平板の前景に存在する物体が写る物体領域を抽出するS405。
【選択図】図3
Description
実施例1として、テーブル上に投影されたグラフィカルユーザインタフェース(GUI)に対してユーザがジェスチャ操作を行う、テーブルトップインタフェース(IF)システムに本発明を適用した例を説明する。従って、以下の実施例では、ジェスチャが行われる空間の背景に含まれる所定の平板を「テーブル」と表現するが、テーブルを、直立したスクリーンやホワイトボード等に置き換えて本発明を適用することも可能である。また、ここではテーブルやスクリーンやホワイトボードなどを「平板」として表現しているが、平板の平面に凹凸が無いものに限られない。ここで言う平板は、その平面が安定して静止状態にあると推定される固定サイズの物体の呼称である。
図1(a)は、実施例1に係る情報処理装置100のハードウェア構成の一例を示すブロック図である。
図1(b)は、情報処理装置100の機能構成の一例を示すブロック図である。各機能部は、CPU101が、ROM102に格納されたプログラムをRAM103に展開し、後述する各フローチャートに従った処理を実行することで実現されている。また例えば、上記CPU101を用いたソフトウェア処理の代替としてハードウェアを構成する場合には、ここで説明する各機能部の処理に対応させた演算部や回路を構成すればよい。
図2は、本実施例に係る情報処理装置100を適用可能なシステムの外観の一例を示す。テーブル301の上方には、表示装置107である液晶プロジェクタが備えられ、例えば、GUI画面302がテーブル301上に投影される。ユーザは手303等の操作物体を用いて、GUI画面302に含まれるGUI部品に接触するタッチ操作や、ジェスチャ操作を行う。図2のシステムにおいて、ジェスチャやタッチなどによる操作を認識可能な範囲である操作領域は、表示装置107による投影が可能なテーブル301上の範囲と一致するとする。表示装置107とテーブル301の位置関係はテーブル301の中心と表示装置107によって投影される表示画面の中心が一致し、テーブル301上面の9割以上の範囲に対して画像投影が可能であるように固定されている。なお、テーブル301上面への投影が可能であれば、表示装置107の筐体自体は、必ずしもテーブル301の上方に設置されていなくても構わない。
図3は、本実施例において情報処理装置100が実行するジェスチャ認識処理の一例を示すフローチャートである。この処理は、情報処理装置の各機能部を構成するCPU101がROM102に記録されたプログラムをRAM103に展開して実行することで実現される。本実施例では、ジェスチャ操作を認識するアプリケーション等が実行されたことに応じて、距離画像センサ105による距離画像の撮像が開始され、所定時間毎に情報処理装置100に距離画像が入力される。撮像された距離画像が入力されたことに応じて図2のフローチャートの処理が開始される。
次に、ステップS403において実行される、入力画像のうちテーブルが存在する領域である第1領域において、テーブルよりも高い位置に存在する物体が写る領域を、物体領域として抽出する処理の詳細を説明する。
次に、ステップS405において実行される、テーブルが存在しない領域である距離画像の第2領域において、テーブルよりも高い位置に存在する物体が写る領域を、物体領域として抽出する処理の詳細を説明する。
次に、図8(b)のフローチャート、及び図9〜12の概念図を参照して、ステップS803で実行される第2の高さ閾値を補正する処理を説明する。
ステップS803の高さ閾値の補正処理は、図6(a)に示されたような、第1領域と第2領域の境界が正確に取得されている状況では省略可能である。例えば、境界を示す位置情報をユーザが直接入力したり、可視光画像でのエッジ検出処理等に基づいてテーブルの縁部分がより正確に検出されたりしたことで、第2領域にテーブル面が含まれる可能性が低い場合もある。補正を省略できる場合、第1領域ではテーブル面からの相対高さを基準とし、第2領域ではテーブルの縁の検出に基づく基準高さを用いる手法を使い分けることで、テーブルの縁を跨いで存在するユーザの手を精度よく検出することが可能となる。
次に、実施例1に対し、第1領域と第2領域のそれぞれでの閾値処理の結果に生じる乖離を低減する構成を加えた実施例2を説明する。実施例2に係る情報処理システムの外観、ハードウェア構成は、実施例1において図1及び図2を参照して説明したもの同様であるため、同一符号を付して詳細な説明を省略する。ただし実施例2の、機能構成において、実施例2の閾値決定部204は、第2の高さ閾値の複数の候補値を用意し、第1領域での物体領域の抽出結果との乖離が少ない閾値を選択する。
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
102 ROM
103 RAM
105 距離画像センサ
107 表示装置
201 画像取得部
202 高さ取得部
203 境界取得部
204 閾値決定部
205 抽出部
206 認識部
207 表示制御部
Claims (17)
- 所定の平板を背景の一部に含む空間における、前記平板と交わる方向の位置情報が反映された入力画像を取得する画像取得手段と、
前記画像取得手段によって取得された入力画像のうち、前記空間のうち背景に前記平板が存在する領域においては、前記平板と交わる方向の位置情報によって示される前記平板の表面からの距離と第1の基準とに基づいて、前記平板の前景に存在する物体が写る物体領域を抽出し、
前記画像取得手段によって取得された入力画像のうち、前記空間のうち背景に前記平板が存在しない領域においては、前記平板と交わる方向の位置情報と、第2の基準とに基づいて、前記平板の前景に存在する物体が写る物体領域を抽出する抽出手段を備えることを特徴とする情報処理装置。 - 前記抽出手段は、前記画像取得手段によって取得された入力画像のうち、前記空間のうち背景に前記平板が存在する領域においては、前記平板と交わる方向の位置情報によって示される前記平板の表面からの距離が所定の距離よりも大きい部分を、前記物体領域として抽出することを特徴とする請求項1に記載の情報処理装置。
- 前記抽出手段は、前記画像取得手段によって取得された入力画像のうち、前記空間のうち背景に前記平板が存在しない領域においては、前記平板と交わる方向の位置情報が、前記平板の表面よりも前記前景側の位置を示す部分を、前記物体領域であるとして抽出することを特徴とする請求項2に記載の情報処理装置。
- 前記抽出手段によって抽出された前記物体領域から取得される情報に基づいて、前記情報処理装置に対して入力されるジェスチャ操作を認識する認識手段を更に備えることを特徴とする請求項1乃至3のいずれか1項に記載された情報処理装置。
- 前記認識手段は、前記入力画像のうち、前記抽出手段によって抽出された物体領域から取得される前記平板と交わる方向の位置情報に基づいて、前記物体領域に写る物体によって前記平板が接触されたことを認識することを特徴とする請求項4に記載の情報処理装置。
- 前記認識手段は、前記物体領域に写る物体が指さし姿勢をとったユーザの手であると判定した場合、前記入力画像から取得される、前記ユーザの手の指先の位置情報に基づいて、前記ユーザの手の指先によって前記平板が接触されたことを認識し、前記物体領域に写る物体が指さし姿勢をとったユーザの手ではないと判定した場合、前記物体によって前記平板が接触されたことの認識を行わないことを特徴とする請求項5に記載の情報処理装置。
- コンピュータに読み込ませ実行させることによって、前記コンピュータを、請求項1乃至6のいずれか1項に記載された情報処理装置として機能させるためのプログラム。
- 請求項7に記載されたプログラムが格納されたコンピュータが読み取り可能な記憶媒体。
- 画像取得手段により、所定の平板を背景の一部に含む空間における、前記平板と交わる方向の位置情報が反映された入力画像を取得する画像取得工程と、
前記画像取得工程で取得された入力画像のうち、前記空間のうち背景に前記平板が存在する領域においては、前記平板と交わる方向の位置情報によって示される前記平板の表面からの距離と第1の基準とに基づいて、前記平板の前景に存在する物体が写る物体領域を抽出し、
抽出手段により、前記画像取得工程で取得された入力画像のうち、前記空間のうち背景に前記平板が存在しない領域においては、前記平板と交わる方向の位置情報と、第2の基準とに基づいて、前記平板の前景に存在する物体が写る物体領域を抽出する抽出工程を有することを特徴とする情報処理装置の制御方法。 - テーブルが存在する空間における、高さ方向に対応する距離情報が画素値に反映された距離画像を取得する取得手段と、
前記取得手段によって取得された距離画像のうち、背景に前記テーブルの上面が含まれる第1領域においては、前記テーブル面からの相対的な高さが第1の閾値よりも高いことが示される画素値を有する部分を、前記テーブルよりも上方に存在する物体が写る物体領域として抽出し、前記取得手段によって取得された距離画像のうち、背景に前記テーブル面が含まれない第2領域においては、前記テーブルの上面の高さに基づいて設定される第2の閾値よりも高い高さを示す画素値を有する部分を、前記物体領域として抽出する抽出手段を備えることを特徴とする情報処理装置。 - 前記取得手段が予め取得した距離画像の画素値に基づいて取得される、前記テーブルの上面の高さに相当する値を、前記第2の閾値として決定する決定手段を更に備えることを特徴とする請求項10に記載された情報処理装置。
- 前記決定手段は、前記抽出手段によって前記第1領域から抽出された物体領域のうち、前記第1領域と前記第2領域との境界に含まれる部分からの距離に応じた値に、前記第2の閾値を補正することを特徴とする請求項11に記載された情報処理装置。
- 前記決定手段は、前記抽出手段によって前記第1領域から抽出された物体領域のうち、前記第1領域と前記第2領域との境界に含まれる部分の近傍に含まれる位置では、前記第2の閾値を、前記テーブルの上面の高さよりも低い高さに相当する値に補正し、前記第1領域と前記第2領域との境界に含まれる部分の近傍に含まれない位置では、前記第2の閾値を、前記テーブルの上面の高さよりも高い高さに相当する値に補正することを特徴とする請求項12に記載された情報処理装置。
- 前記決定手段は、前記取得手段が予め取得した距離画像の画素値に基づいて取得される、前記テーブルの上面の高さに基づいて、前記第2の閾値の値の複数の候補を決定し、前記第1領域から抽出された物体領域の大きさに基づいて、前記複数の候補のうち、前記第2領域における物体領域の抽出に用いる値を決定することを特徴とする請求項11に記載された情報処理装置。
- 前記第2の閾値の値を決定する決定手段を更に備え、
前記決定手段は、前記抽出手段によって抽出された物体領域の一部から取得される高さ情報に基づいて、前記物体領域に写る物体が、前記テーブル面に接触したことが認識された時点で、前記第2の閾値の値を再決定することを特徴とする請求項10乃至14のいずれか1項に記載された情報処理装置。 - コンピュータに読み込ませ実行させることによって、前記コンピュータに、請求項15に記載された物体領域の抽出方法を実行させるプログラム。
- 取得手段により、テーブルが存在する空間における、高さ方向に対応する距離情報が画素値に反映された距離画像を取得する取得工程と、
抽出手段により、前記取得工程で取得された距離画像のうち、背景に前記テーブルの上面が含まれる第1領域においては、前記テーブル面からの相対的な高さが第1の閾値よりも高いことが示される画素値を有する部分を、前記テーブルよりも上方に存在する物体が写る物体領域として抽出し、前記取得工程で取得された距離画像のうち、背景に前記テーブル面が含まれない第2領域においては、前記テーブルの上面の高さに基づいて設定される第2の閾値よりも高い高さを示す画素値を有する部分を、前記物体領域として抽出する抽出工程とを有することを特徴とする情報処理装置の制御方法。
Priority Applications (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014141805A JP6335695B2 (ja) | 2014-07-09 | 2014-07-09 | 情報処理装置、その制御方法、プログラム、及び記憶媒体 |
FR1556329A FR3023629B1 (fr) | 2014-07-09 | 2015-07-03 | Appareil de traitement d'informations destine a detecter un objet a partir d'une image, procede destine a commander l'appareil, et support de stockage |
US14/792,420 US10042426B2 (en) | 2014-07-09 | 2015-07-06 | Information processing apparatus for detecting object from image, method for controlling the apparatus, and storage medium |
DE102015110955.7A DE102015110955A1 (de) | 2014-07-09 | 2015-07-07 | Informationsverarbeitungsvorrichtung zum Erfassen eines Objekts von einem Bild, Verfahren zum Steuern der Vorrichtung und Speichermedien |
GB1512040.5A GB2530150B (en) | 2014-07-09 | 2015-07-09 | Information processing apparatus for detecting object from image, method for controlling the apparatus, and storage medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014141805A JP6335695B2 (ja) | 2014-07-09 | 2014-07-09 | 情報処理装置、その制御方法、プログラム、及び記憶媒体 |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2016018458A true JP2016018458A (ja) | 2016-02-01 |
JP2016018458A5 JP2016018458A5 (ja) | 2017-08-17 |
JP6335695B2 JP6335695B2 (ja) | 2018-05-30 |
Family
ID=54013720
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014141805A Expired - Fee Related JP6335695B2 (ja) | 2014-07-09 | 2014-07-09 | 情報処理装置、その制御方法、プログラム、及び記憶媒体 |
Country Status (5)
Country | Link |
---|---|
US (1) | US10042426B2 (ja) |
JP (1) | JP6335695B2 (ja) |
DE (1) | DE102015110955A1 (ja) |
FR (1) | FR3023629B1 (ja) |
GB (1) | GB2530150B (ja) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9880267B2 (en) * | 2015-09-04 | 2018-01-30 | Microvision, Inc. | Hybrid data acquisition in scanned beam display |
US9858476B1 (en) * | 2016-06-30 | 2018-01-02 | Konica Minolta Laboratory U.S.A., Inc. | Method for recognizing table, flowchart and text in document images |
JP6814053B2 (ja) * | 2017-01-19 | 2021-01-13 | 株式会社日立エルジーデータストレージ | 物体位置検出装置 |
DE102018205664A1 (de) * | 2018-04-13 | 2019-10-17 | Bayerische Motoren Werke Aktiengesellschaft | Vorrichtung zur Assistenz eines Insassen im Innenraum eines Kraftfahrzeugs |
JP7241598B2 (ja) * | 2019-04-26 | 2023-03-17 | 株式会社日立ハイテク | 画像処理方法、画像処理装置及び画像処理システム |
JP2021047757A (ja) * | 2019-09-20 | 2021-03-25 | キヤノン株式会社 | 画像処理装置、撮像装置、制御方法およびプログラム |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001282456A (ja) * | 2000-04-03 | 2001-10-12 | Japan Science & Technology Corp | マンマシーン・インターフェース・システム |
JP2005242488A (ja) * | 2004-02-24 | 2005-09-08 | Matsushita Electric Works Ltd | 物体検出装置、物体検出方法、プログラム |
JP2011022945A (ja) * | 2009-07-17 | 2011-02-03 | Dainippon Printing Co Ltd | 指先操作型情報提供システム、プログラム、記録媒体 |
JP2013134549A (ja) * | 2011-12-26 | 2013-07-08 | Sharp Corp | データ入力装置およびデータ入力方法 |
Family Cites Families (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8144118B2 (en) * | 2005-01-21 | 2012-03-27 | Qualcomm Incorporated | Motion-based tracking |
JP2007064894A (ja) | 2005-09-01 | 2007-03-15 | Fujitsu Ten Ltd | 物体検出装置、物体検出方法および物体検出プログラム |
US9696808B2 (en) * | 2006-07-13 | 2017-07-04 | Northrop Grumman Systems Corporation | Hand-gesture recognition method |
US8180114B2 (en) * | 2006-07-13 | 2012-05-15 | Northrop Grumman Systems Corporation | Gesture recognition interface system with vertical display |
US8589824B2 (en) * | 2006-07-13 | 2013-11-19 | Northrop Grumman Systems Corporation | Gesture recognition interface system |
WO2008014826A1 (en) * | 2006-08-03 | 2008-02-07 | Alterface S.A. | Method and device for identifying and extracting images of multiple users, and for recognizing user gestures |
GB2453675B (en) * | 2006-10-10 | 2009-09-23 | Promethean Ltd | Pointing device specific applications/areas for interactive surface |
CN101303634B (zh) * | 2007-05-09 | 2012-05-23 | 鸿富锦精密工业(深圳)有限公司 | 便携式电子设备 |
US9377874B2 (en) * | 2007-11-02 | 2016-06-28 | Northrop Grumman Systems Corporation | Gesture recognition light and video image projector |
US8555207B2 (en) * | 2008-02-27 | 2013-10-08 | Qualcomm Incorporated | Enhanced input using recognized gestures |
US8624962B2 (en) * | 2009-02-02 | 2014-01-07 | Ydreams—Informatica, S.A. Ydreams | Systems and methods for simulating three-dimensional virtual interactions from two-dimensional camera images |
CN101872270B (zh) * | 2009-04-25 | 2013-09-18 | 鸿富锦精密工业(深圳)有限公司 | 触控装置 |
US9498718B2 (en) * | 2009-05-01 | 2016-11-22 | Microsoft Technology Licensing, Llc | Altering a view perspective within a display environment |
US20100315413A1 (en) * | 2009-06-16 | 2010-12-16 | Microsoft Corporation | Surface Computer User Interaction |
WO2010150201A1 (en) * | 2009-06-25 | 2010-12-29 | Koninklijke Philips Electronics N.V. | Geture recognition using chroma- keying |
US9262015B2 (en) * | 2010-06-28 | 2016-02-16 | Intel Corporation | System for portable tangible interaction |
WO2012020410A2 (en) * | 2010-08-10 | 2012-02-16 | Pointgrab Ltd. | System and method for user interaction with projected content |
FR2970797B1 (fr) * | 2011-01-25 | 2013-12-20 | Intui Sense | Dispositif a commandes tactile et gestuelle et procede d'interpretation de la gestuelle associe |
US10156937B2 (en) * | 2013-09-24 | 2018-12-18 | Hewlett-Packard Development Company, L.P. | Determining a segmentation boundary based on images representing an object |
JP6326847B2 (ja) * | 2014-02-14 | 2018-05-23 | 富士通株式会社 | 画像処理装置、画像処理方法および画像処理プログラム |
-
2014
- 2014-07-09 JP JP2014141805A patent/JP6335695B2/ja not_active Expired - Fee Related
-
2015
- 2015-07-03 FR FR1556329A patent/FR3023629B1/fr active Active
- 2015-07-06 US US14/792,420 patent/US10042426B2/en active Active
- 2015-07-07 DE DE102015110955.7A patent/DE102015110955A1/de not_active Ceased
- 2015-07-09 GB GB1512040.5A patent/GB2530150B/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001282456A (ja) * | 2000-04-03 | 2001-10-12 | Japan Science & Technology Corp | マンマシーン・インターフェース・システム |
JP2005242488A (ja) * | 2004-02-24 | 2005-09-08 | Matsushita Electric Works Ltd | 物体検出装置、物体検出方法、プログラム |
JP2011022945A (ja) * | 2009-07-17 | 2011-02-03 | Dainippon Printing Co Ltd | 指先操作型情報提供システム、プログラム、記録媒体 |
JP2013134549A (ja) * | 2011-12-26 | 2013-07-08 | Sharp Corp | データ入力装置およびデータ入力方法 |
Also Published As
Publication number | Publication date |
---|---|
FR3023629B1 (fr) | 2020-02-07 |
FR3023629A1 (fr) | 2016-01-15 |
US20160011670A1 (en) | 2016-01-14 |
GB201512040D0 (en) | 2015-08-19 |
GB2530150B (en) | 2017-01-18 |
GB2530150A (en) | 2016-03-16 |
US10042426B2 (en) | 2018-08-07 |
DE102015110955A1 (de) | 2016-01-14 |
JP6335695B2 (ja) | 2018-05-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6335695B2 (ja) | 情報処理装置、その制御方法、プログラム、及び記憶媒体 | |
US9756265B2 (en) | Information processing apparatus recognizing certain object in captured image, and method for controlling the same | |
US10456918B2 (en) | Information processing apparatus, information processing method, and program | |
JP6089722B2 (ja) | 画像処理装置、画像処理方法および画像処理プログラム | |
US10310675B2 (en) | User interface apparatus and control method | |
US10642422B2 (en) | Information processing apparatus, control method for the information processing apparatus, and storage medium | |
US9645735B2 (en) | Information processing device and information processing method | |
US9916043B2 (en) | Information processing apparatus for recognizing user operation based on an image | |
US10747371B1 (en) | Detection of finger press from live video stream | |
JP2016091457A (ja) | 入力装置、指先位置検出方法及び指先位置検出用コンピュータプログラム | |
WO2017029749A1 (ja) | 情報処理装置、その制御方法、プログラム、及び記憶媒体 | |
JP2015022624A (ja) | 情報処理装置およびその制御方法、コンピュータプログラム、記憶媒体 | |
US10254893B2 (en) | Operating apparatus, control method therefor, and storage medium storing program | |
JP6452369B2 (ja) | 情報処理装置とその制御方法、プログラム、記憶媒体 | |
JP2017084307A (ja) | 情報処理装置、その制御方法、プログラム、及び記憶媒体 | |
JP6555958B2 (ja) | 情報処理装置、その制御方法、プログラム、および記憶媒体 | |
JP6618301B2 (ja) | 情報処理装置、その制御方法、プログラム、及び記憶媒体 | |
JP6898021B2 (ja) | 操作入力装置、操作入力方法、及びプログラム | |
JP2018055685A (ja) | 情報処理装置、その制御方法、プログラム、および記憶媒体 | |
JP2018063555A (ja) | 情報処理装置、情報処理方法及びプログラム | |
JP6570376B2 (ja) | 情報処理装置、その制御方法、プログラム、記憶媒体 | |
TWI522871B (zh) | 光學觸控系統之物件影像之處理方法 | |
US20240069647A1 (en) | Detecting method, detecting device, and recording medium | |
JP2018181169A (ja) | 情報処理装置、及び、情報処理装置の制御方法、コンピュータプログラム、記憶媒体 | |
CN117492629A (zh) | 指尖分类触控方法、指尖交互系统、装置及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170706 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170706 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20180302 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180403 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180501 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6335695 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
LAPS | Cancellation because of no payment of annual fees |