TWI621968B - 控制電子設備之方法及穿戴裝置 - Google Patents
控制電子設備之方法及穿戴裝置 Download PDFInfo
- Publication number
- TWI621968B TWI621968B TW105104116A TW105104116A TWI621968B TW I621968 B TWI621968 B TW I621968B TW 105104116 A TW105104116 A TW 105104116A TW 105104116 A TW105104116 A TW 105104116A TW I621968 B TWI621968 B TW I621968B
- Authority
- TW
- Taiwan
- Prior art keywords
- signal
- sub
- inertial
- wearable device
- electronic device
- Prior art date
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/163—Wearable computers, e.g. on a belt
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/1633—Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
- G06F1/1684—Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
- G06F1/1694—Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being a single or a set of motion sensors for pointer control or gesture input obtained by sensing movements of the portable computer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0346—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Computer Hardware Design (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
一種控制電子設備之方法及穿戴裝置。控制電子設備之方法包括以下步驟。偵測一慣性訊號;以分離慣性訊號之方式或歸類慣性訊號之方式,分析出一手勢動作;依據此手勢動作,提供一控制指令,以操控一電子設備。電子設備例如是一桌上型裝置、一可攜式裝置或此穿戴裝置。
Description
本發明是有關於一種控制電子設備之方法及穿戴裝置。
隨著資通訊科技的發展,各種智慧型桌上型裝置或智慧型可攜式裝置不斷推陳出新。智慧型桌上裝置及智慧型可攜式裝置可與穿戴裝置搭配使用,以延伸智慧型桌上裝置及智慧型可攜式裝置的各種應用,這是資訊科技的一項重要里程碑。
穿戴裝置可以具備與智慧型桌上裝置或智慧型可攜式裝置之溝通功能,例如是顯示智慧型桌上裝置或智慧型可攜式裝置所接收之重要訊息、或者接通智慧型桌上裝置或智慧型可攜式裝置所接收的來電、或者對智慧型桌上裝置或智慧型可攜式裝置之應用程式進行控制。此外,穿戴裝置也可以具備各種偵測功能。所偵測到的各種訊息可以傳遞至智慧型桌上裝置或智慧型可
攜式裝置,以進行後續分析與處理。
本發明係有關於一種控制電子設備之方法及穿戴裝置,其利用分離之方式或歸類之方式對一慣性訊號進行運算,以分析出一手勢動作來操控一電子設備(例如是一桌上型裝置、一可攜式裝置、或此穿戴裝置),以提供更方便的應用。
根據本發明之一實施例,提出一種控制電子設備之方法。控制電子設備之方法包括以下步驟。偵測一慣性訊號。以分離慣性訊號之方式或歸類慣性訊號之方式,分析出一手勢動作。依據此手勢動作,提供一控制指令,以操控一電子設備(例如是一桌上型裝置、一可攜式裝置、或一穿戴裝置)。因此,可以透過手勢動作來進行操控,提供了更方便的應用。
根據本發明之另一實施例,提出一種穿戴裝置。穿戴裝置包括一偵測單元及一處理單元。偵測單元用以偵測一慣性訊號。處理單元係以分離慣性訊號之方式或歸類慣性訊號之方式,分析出一手勢動作。處理單元並依據手勢動作,提供一控制指令以操控一電子設備(例如是一桌上型裝置、一可攜式裝置、或此穿戴裝置)。因此,可以透過手勢動作來進行操控,提供了更方便的應用。
為了對本發明之上述及其他方面有更佳的瞭解,下文特舉各種實施例,並配合所附圖式,作詳細說明如下:
1000、2000‧‧‧穿戴裝置
110‧‧‧偵測單元
120、220‧‧‧處理單元
121‧‧‧校正器
122‧‧‧濾波器
123‧‧‧分離器
124、224‧‧‧特徵擷取器
125‧‧‧辨識器
130‧‧‧第一控制單元
170‧‧‧第一傳輸單元
180‧‧‧資料庫
226‧‧‧歸類器
910‧‧‧第二傳輸單元
920‧‧‧第二控制單元
2261‧‧‧第一支持向量機元件
2262‧‧‧第二支持向量機元件
2263‧‧‧分類元件
9000‧‧‧可攜式裝置
S0‧‧‧慣性訊號
C1、C1’、C2、C3‧‧‧類別
CM‧‧‧控制指令
M‧‧‧邊際
S1‧‧‧第一子訊號
S2‧‧‧第二子訊號
S101、S102、S103、S104、S105、S106、S107、S1041、S1042、S1043、S1044、S1045、S1046、S201、S202、S203、S204、S205、S206‧‧‧流程步驟
P0‧‧‧特徵
P1‧‧‧第一特徵
P2‧‧‧第二特徵
Φ‧‧‧核函數
第1圖繪示以穿戴裝置控制可攜式裝置之示意圖。
第2圖繪示根據一實施例之穿戴裝置之功能方塊圖。
第3圖繪示根據一實施例之控制電子設備之方法的流程圖。
第4圖繪示第3圖之步驟S104之細部步驟流程圖。
第5圖繪示根據另一實施例之穿戴裝置之功能方塊圖。
第6圖繪示根據另一實施例之控制電子設備之方法的流程圖。
第7A~7B圖繪示支持向量機演算法之示意圖。
第8圖繪示一實施例之歸類器的示意圖。
請參照第1圖,其繪示以穿戴裝置1000控制可攜式裝置9000之示意圖。使用者戴上穿戴裝置1000時,可以透過穿戴裝置1000控制智慧型手機等可攜式裝置9000,例如以手勢操控可攜式裝置9000的應用程式(例如音樂撥放/暫停/關閉等功能)。再者,穿戴裝置1000具備各種偵測功能,例如是心率偵測、走動步伐偵測、跳躍偵測、跑步速度偵測。所偵測到的各種訊息可以傳遞至可攜式裝置9000進行後續分析與處理。
在本實施例中,穿戴裝置1000除了可以透過觸控面板、實體按鍵進行操控,亦可透過如第1圖所示之各種手勢動作
進行操控。如此一來,在運動過程中的使用者無須再低頭觸控穿戴裝置1000,大幅提升操控穿戴裝置1000的便利性。此外,由於穿戴裝置1000配戴於使用者身上,在偵測手勢動作時,穿戴裝置1000也會隨著使用者於運動時,同時偵測到運動時的動作。因此,在手勢動作與運動動作混雜時,本發明可達到辨識出手勢動作。
請參照第2圖,其繪示根據一實施例之穿戴裝置1000之功能方塊圖。穿戴裝置1000包括一偵測單元110、一處理單元120、一第一控制單元130、一第一傳輸單元170及一資料庫180。穿戴裝置1000可與電子設備通訊(例如是可攜式裝置9000或一桌上型電腦裝置),以傳輸資料或對電子設備進行控制。在本實施例中,係以可攜式裝置9000為例作說明,然而與穿戴裝置1000連線之電子設備並不以此為限(例如亦可以是桌上型電腦裝置)。可攜式裝置9000包括一第二傳輸單元910及一第二控制單元920。偵測單元110用以進行各種偵測程序,偵測單元110例如是一加速度規或一陀螺儀或者結合兩者之慣性元件等,本發明之發明精神不在此限。處理單元120用以進行各種處理程序,處理單元120包括有微處理器等。處理單元120例如是一封裝晶片、一電路、一電路板、或以數組程式碼之型態儲存於一儲存裝置。處理單元120包括一校正器121、一濾波器122、一分離器123、一特徵擷取器124及一辨識器125。校正器121用以進行各種訊號校正程序。濾波器122用以進行各種訊號濾
波。分離器123用以進行各種訊號分離。特徵擷取器124用以進行各種特徵擷取。辨識器125用以進行各種辨識。第一傳輸單元170及第二傳輸單元910用以進行各種資訊傳輸。第一傳輸單元170及第二傳輸單元910例如是一無線傳輸模組、或一傳輸線。第一控制單元130及第二控制單元920用以進行各種運算、分析、及處理。第一控制單元130及第二控制單元920例如是一封裝晶片、一電路、一電路板或以數組程式碼之型態儲存於一儲存裝置中。
請參照第3圖,其繪示根據一實施例之控制電子設備之方法的流程圖。被控制之電子設備例如是第2圖之可攜式裝置9000、第2圖之穿戴裝置1000、或桌上型電腦裝置(未繪示),使用者戴著穿戴裝置1000時,透過第3圖之方法能夠以手勢控制可攜式裝置9000或穿戴裝置1000。以下進一步詳細說明此方法,並同時說明穿戴裝置1000之各項元件的運作。
在步驟S101中,偵測單元110偵測一慣性訊號S0。偵測單元110可以是加速度規或陀螺儀,或者結合兩者之慣性元件等,本發明之發明精神不在此限。慣性訊號S0可以是一加速度訊號或一角速度訊號。加速度訊號可以描述出手勢動作的X軸方向、Y軸方向、Z軸方向的加速度。角速度訊號可以描述出手勢動作的轉動量。
接著,在步驟S102中,校正器121校正慣性訊號S0,以降低慣性訊號S0之一偏移量。在一實施例中,校正器121
可以採用六面校正法(包含+X軸方向、-X軸方向、+Y軸方向、-Y軸方向、+Z軸方向、-Z軸方向),而以固定參考量為基準(例如是重力),加以校正慣性訊號S0,進而降低訊號偏移量。
在步驟S103中,濾波器122過濾慣性訊號S0,以濾除一雜訊。在一實施例中,濾波器122是過濾高頻部分的雜訊,以濾除使用者在抖動時所產生的雜訊。
在一實施例中,為了降低加速度訊號及角速度訊號的高頻雜訊,濾波器122可以是一低通濾波器,例如是移動平均濾波器、巴特渥斯濾波器或柴比雪夫濾波器等,本發明之發明精神不在此限,用以將其高頻雜訊濾除。一般來說,人類手部動作的頻率小於12赫茲(Hz),為了能準確地量測到人類的手勢動作,可將低通濾波器的截止頻率設為20赫茲(Hz),以濾除因人類肢體抖動所產生的高頻雜訊,不過本發明所述的截止頻率設定不在此限。
在步驟S104中,分離器123分離慣性訊號S0為一第一子訊號S1及一第二子訊號S2。在一實施例中,分離器123可採用快速獨立成分分析演算法(Fast Independent Component Analysis Algorithm,Fast ICA Algorithm)分離慣性訊號S0。請參照第4圖,其繪示第3圖之步驟S104之細部步驟流程圖。步驟S104包括步驟S1041~S1046。在步驟S1041中,分離器123接收慣性訊號S0。接著,在步驟S1042中,分離器123中心化
(centering)及白化(whitening)慣性訊號S0。中心化處理即是對資料減去平均值,以得到與平均值之差的中心化資料。白化處理係根據一共變異數矩陣、一酉矩陣、及一特徵值矩陣獲得一白化矩陣。中心化資料與白化矩陣相乘後,即完成白化處理。
然後,在步驟S1043中,分離器123提供一目標函數。在步驟S1044中,分離器123最佳化此目標函數。
在步驟S1045中,分離器123判斷最佳化的結果是否符合一收斂條件。若符合此收斂條件,則進入步驟S1046;若不符合此收斂條件,則回至步驟S1043。收斂條件例如是連續兩次最佳化結果近似、或者重複執行次數已達某一預定值,而達到最佳化結果。
在步驟S1046中,分離器123輸出第一子訊號S1及第二子訊號S2,即完成分離慣性訊號S0之步驟S104。
接著,請再參閱第3圖,在步驟S105中,特徵擷取器124擷取第一子訊號S1之數個第一特徵P1及第二子訊號S2之數個第二特徵P2。該些第一特徵P1及該些第二特徵P2例如是平均值(mean)、標準差(standard deviation,STD)、軸向間相關性(correlation between axis,corr)、平均絕對誤差(mean absolute deviation,MAD)、均方根值(root mean square,RMS)、變異數(variance,VAR)、或四分位差(interquartile range,IQR)。
舉例來說,平均值可以是單一取樣視窗中的平均值。平均值可以下式(1)為例:
其中,xi為加速度訊號或角速度訊號;W為手勢動作訊號長度。
變異數可以下式(2)為例:
其中,m為加速度訊號或角速度訊號之平均值(mean)。
標準差為變異數之平方根。標準差可以下式(3)為例:
此外,四分位差則用以在不同群資料的平均值很接近時,表示出各群資料中的分佈狀況,並可避免資料中極端值對統計值的影響。
軸向間相關性則為共變異數與單一訊號(例如是加速度訊號)內標準差內積值的比例,可表示出每個軸所量得的加速度訊號或角速度訊號之間的相關性。軸向間相關性可以下式(4)為例:
其中,E為加速度訊號或角速度訊號之期望值,mx及my為兩軸向之加速度訊號或角速度訊號之個別平均值,σx及σy為
兩軸向之加速度訊號或角速度訊號之個別標準差。
平均絕對誤差可以下式(5)為例:
均方根值可以下式(6)為例:
然後,在步驟S106中,辨識器125依據此些第一特徵P1及此些第二特徵P2,辨識第一子訊號S1及第二子訊號S2之其中之一是否對應一手勢動作。在資料庫180中,已預先儲存各種手勢動作與特徵之關係與參考資料。辨識器125根據步驟S105所獲得的該些第一特徵P1及該些第二特徵P2進行辨識。若辨識出第一子訊號S1及第二子訊號S2之其中之一對應某一手勢動作,則進入步驟S107;未辨識出第一子訊號S1及第二子訊號S2之其中之一對應於任何手勢動作,則結束本流程,讓使用者瞭解其所做的手勢動作不夠清楚,造成無法辨識的情況。
雖然在步驟S104已將慣性訊號S0分離為第一子訊號S1及第二子訊號S2,但還無法得知何者屬於手勢動作、何者屬於運動動作。透過辨識器125根據資料庫180預存之資料進行比對,即可分辨出何者是手勢動作,何者是運動動作,以達到辨識功能。
在此步驟S106中,辨識器125可以採用決策樹演算法、機率類神經網路演算法或模糊類神經網路演算法辨識第一子
訊號S1及第二子訊號S2之其中之一所對應之手勢動作。決策樹演算法、機率類神經網路演算法或模糊類神經網路演算法各有不同的特色。舉例來說,決策樹演算法的邏輯簡單,最適合用於硬體實現。
機率類神經網路演算法則具有下四項優點:(1)網路權重值直接由訓練資料給定,因此在訓練學習上相對快速。(2)當系統中加入新的分類資料時,對新進之分類資料定義其權重值,而不須更新所有的網路權重值,所以能有較高之學習效率。(3)具備高錯誤容忍度之特性,對於少量之輸入空間同樣也可根據問題直接調整參數。(4)網路鏈結複雜度較低。
模糊類神經網路演算法則因為有模糊的機制,對於人因之間的差異可透過模糊機制解決。
在步驟S107中,辨識器125依據手勢動作,提供一控制指令CM。此控制指令CM可以傳輸至穿戴裝置1000本身的第一控制單元130,以控制穿戴裝置1000本身;或者是透過第一傳輸單元170及第二傳輸單元910傳輸至可攜式裝置9000之第二控制單元920後,控制可攜式裝置9000。
舉例來說,當使用者想要執行可攜式裝置9000的音樂播放功能時,只要將手由下向上揮動,偵測單元110的加速度規及陀螺儀會偵測到平行手臂向上動作的慣性訊號S0(包含加速度訊號及角速度訊號)。經過辨識器125辨識手勢動作後,透過第一傳輸單元170進行無線傳輸,將控制指令CM傳輸至可攜式
裝置9000執行音樂播放功能。同理,當使用者欲執行可攜式裝置9000的音樂暫停功能時,只要將手由上向下揮動的動作,即可實現音樂暫停功能。手勢動作與控制指令對應的設計不在此限。
就音樂播放功能及音樂暫停功能舉例而言,若以Android系統的可攜式裝置9000為例,可透過「mediaPlayer」類別當中的「start()」、「pause()」之兩個API來實現。
其他例如音量增大功能、音量減小功能、向上一首歌曲切換功能、及向下一首歌曲切換功能舉例而言,分別只要將手向右轉動、向左轉動、向右揮動、及向左揮動,即可實現音量增大功能、音量減小功能、向上一首歌曲切換功能、及向下一首歌曲切換功能。手勢動作與控制指令對應的設計不在此限。
就音量增大功能、音量減小功能、向上一首歌曲切換功能、及向下一首歌曲切換功能舉例而言,若以Android系統的可攜式裝置9000為例,可透過「audioManager」類別當中的「adjustVolume()」之API來實現音量增大功能、及音量減小功能,並透過「mediaPlayer」類別當中的「next()」及「previous()」之API來實現向上一首歌曲切換功能、及向下一首歌曲切換功能。
請參照第5~6圖,第5圖繪示根據另一實施例之穿戴裝置2000之功能方塊圖,第6圖繪示根據另一實施例之控制電子設備之方法的流程圖。被控制之電子設備例如是第5圖之可攜式裝置9000、穿戴裝置2000、或桌上型電腦裝置(未繪示)。
第5圖之穿戴裝置2000包括一偵測單元110、一處理單元220、一第一控制單元130、一第一傳輸單元170及一資料庫180。處理單元220包括一校正器121、一濾波器122、一特徵擷取器224及一歸類器226。可攜式裝置9000包括第二傳輸單元910及第二控制單元920。偵測單元110、校正器121、濾波器122、第一控制單元130、第二控制單元920、第一傳輸單元170及第二傳輸單元910已敘述如上,在此不再重複敘述。另外,第6圖步驟S201~S203類似於第3圖之步驟S101~S103,在此不再重複敘述。
在步驟S204中,特徵擷取器224擷取慣性訊號S0之數個特徵P0。特徵P0例如是平均值、標準差、軸向間相關性、平均絕對誤差、均方根值、變異數、或四分位差所得到。
在步驟S205中,歸類器226根據此些特徵P0歸類出慣性訊號S0所屬之一類別。在此步驟中,歸類器226可採用支持向量機演算法(Support Vector Machine,SVM Algorithm)歸類出慣性訊號S0所屬之類別。
支持向量機演算法可以主要是對給定的一些量測或觀測資料建立一個預測模型(即學習機)。當有新的輸入資料時,這個已經訓練好的預測模型就可以預測出相對的輸出值。
支持向量機演算法是一種監督式學習(Supervised Learning)的方法,可以由訓練資料中學到或建立一個模式(function/learning model),並依此模式推測新的實例(instances)。訓練資料(training data)是由輸入物件(通常是
向量)和預期輸出所組成。函數的輸出可以是一個連續的值(稱為迴歸分析),或是預測一個分類標籤(稱作分類)。
支持向量機演算法是一個可以同時運用於線性及非線性資料的分類演算法。它將原始資料轉換到更高的維度(dimension),從這些維度上,它可以利用在訓練資料集(training data set)中所謂的超級向量(super vectors)來找到超平面(hyperplane),以用來分類資料。支持向量機演算法是在尋找具有最大邊際(margin)的超平面,也就是最大邊際超平面(maximum marginal hyperplane),因為其具有較高的分類準確性。在解決小樣本、非線性及高維模式識別問題中表現出許多特有的優勢。
從有限訓練樣本得到的決策規則對獨立的測試集仍能夠得到較小的誤差。而隨日後累積樣本數增加,此統計模型可重新計算做適時修正,以改進其準確度。與現有監測系統相比,此模型並非一固定之經驗函數或演算,將具學習改良的特性。
在一實施例中,歸類器226可以使用支持向量機演算法,而先以訓練群(Training Group)進行特徵參數向量空間資訊分類之自動分類器(Classifier)建構,再以測試群(Test Group)進行自動分類器的準確性驗證。
舉例來說,請參照第7A~7B圖,其繪示支持向量機演算法之示意圖。先將特徵值向量作為輸入向量Xi,i=1,…,n,並設定輸出Yi,Yi屬於集合{1,…,C},C代表分類數。訓練的目標是找到適當的函數f求得的值最小。其中透過一核
函數Φ轉換特徵值到另一特徵空間,使得原來的分類問題可以被一線性函數所解決,特徵轉換示意如第7A圖所示。而支持向量機演算法的另一方式在於最大邊際(Maximal Margin)。演算時除了希望函數f可以分割群組外,還希望函數f距離各群組的邊際(Margin)M越大越好(如第7B圖所示)。
請參照第8圖,其繪示一實施例之歸類器226的示意圖。在一實施例中,採用支持向量機演算法之歸類器226包括一第一支持向量機元件2261、一第二支持向量機元件2262及一分類元件2263。慣性訊號S0之數個特徵P0輸入至第一支持向量機元件2261後,第一支持向量機元件2261依據特徵P0歸類慣性訊號S0屬於類別C1或類別C1’。類別C1例如是非運動狀態,類別C1’例如是運動狀態。
若第一支持向量機元件2261歸類出慣性訊號S0屬於類別C1’,則繼續由第二支持向量機元件2262進行歸類。第二支持向量機元件2262更依據特徵P0將慣性訊號S0歸類為類別C2或類別C3。類別C2例如是單純運動狀態,類別C3例如是運動中之某一手勢狀態。分類元件2263最後則輸出慣性訊號S0被歸類為類別C1、類別C2或類別C3。當慣性訊號S0被歸類為類別C3時,則依據類別C3,獲得慣性訊號S0所對應之手勢動作。
也就是說,在慣性訊號混雜運動動作及手勢動作時,除了採用訊號分離的方式以外,亦可採用歸類的方式,利用
支持向量機演算法來對慣性訊號S0進行歸類,以分析出手勢動作。
請再參閱第6圖,在步驟S206中,歸類器226依據手勢動作,提供一控制指令CM。此控制指令CM可以傳輸至穿戴裝置2000的第一控制單元130,以控制穿戴裝置2000;或者是透過第一傳輸單元170及第二傳輸單元910傳輸至可攜式裝置9000之第二控制單元920後,控制可攜式裝置9000。
根據上述實施例,穿戴裝置1000、2000除了可以透過觸控面板、實體按鍵進行操控,亦可透過如第1圖所示之各種手勢動作進行操控。如此一來,在運動過程中的使用者無須再低頭觸控穿戴裝置1000、2000,可大幅提升操控穿戴裝置1000、2000的便利性。此外,即使穿戴裝置1000、2000會隨著使用者一起偵測到混雜的手勢動作及運動動作,穿戴裝置1000、2000仍可順利辨識出手勢動作,而依據手勢動作進行各種控制。
綜上所述,雖然本發明已以各種實施例揭露如上,然其並非用以限定本發明。本發明所屬技術領域中具有通常知識者,在不脫離本發明之精神和範圍內,當可作各種之更動與潤飾。因此,本發明之保護範圍當視後附之申請專利範圍所界定者為準。
Claims (19)
- 一種控制電子設備之方法,包括:偵測一慣性訊號,該慣性訊號係為一運動動作與一手勢動作之混合;以分離該慣性訊號之方式或歸類該慣性訊號之方式,分析出該手勢動作,其中於以分離該慣性訊號之方式中,該慣性訊號分離為一第一子訊號及一第二子訊號,該第一子訊號及該第二子訊號之其中之一由該手勢動作產生,該第一子訊號及該第二子訊號之其中之一由該運動動作產生;以及依據該手勢動作,提供一控制指令,以操控一電子設備。
- 如申請專利範圍第1項所述之控制電子設備之方法,其中在偵測該慣性訊號之步驟中,該慣性訊號係為一加速度訊號或一角速度訊號。
- 如申請專利範圍第1項所述之控制電子設備之方法,更包括:校正該慣性訊號,以降低該慣性訊號之一偏移量。
- 如申請專利範圍第1項所述之控制電子設備之方法,更包括:過濾該慣性訊號,以濾除一雜訊。
- 如申請專利範圍第1項所述之控制電子設備之方法,其中分析出該控制手勢動作之步驟包括:分離該慣性訊號為該第一子訊號及該第二子訊號;擷取該第一子訊號之複數個第一特徵及該第二子訊號之複數個第二特徵;以及 依據該些第一特徵及該些第二特徵,辨識該第一子訊號及該第二子訊號之其中之一所對應之該手勢動作。
- 如申請專利範圍第5項所述之控制電子設備之方法,其中分離該慣性訊號為該第一子訊號及該第二子訊號之步驟係採用一快速獨立成分分析演算法分離該慣性訊號為該第一子訊號及該第二子訊號。
- 如申請專利範圍第5項所述之控制電子設備之方法,其中依據該些第一特徵及該些第二特徵,辨識該第一子訊號及該第二子訊號之其中之一所對應之該手勢動作之步驟係採用一決策樹演算法、一機率類神經網路演算法或一模糊類神經網路演算法。
- 如申請專利範圍第1項所述之控制電子設備之方法,其中分析出該手勢動作之步驟包括:擷取該慣性訊號之複數個特徵;依據該些特徵,歸類出該慣性訊號所屬之一類別;以及依據該類別,獲得該慣性訊號所對應之該手勢動作。
- 如申請專利範圍第8項所述之控制電子設備之方法,其中依據該些特徵,歸類出該慣性特徵所屬之該類別之步驟係採用一支持向量機演算法歸類出該慣性訊號所屬之該類別。
- 一種穿戴裝置,包括:一偵測單元,用以偵測一慣性訊號,該慣性訊號係為一運動動作與一手勢動作之混合;以及一處理單元,係以分離該慣性訊號之方式或歸類該慣性訊號之方式,分析出該手勢動作,並依據該手勢動作,提供一控制指令,以操控一電子設備,其中於以分離該慣性訊號之方式中,該 慣性訊號分離為一第一子訊號及一第二子訊號,該第一子訊號及該第二子訊號之其中之一由該手勢動作產生,該第一子訊號及該第二子訊號之其中之一由該運動動作產生。
- 如申請專利範圍第10項所述之穿戴裝置,其中該偵測單元係為一加速度規或一陀螺儀。
- 如申請專利範圍第10項所述之穿戴裝置,其中該處理單元包括:一校正器,用以校正該慣性訊號,以降低該慣性訊號之一偏移量。
- 如申請專利範圍第10項所述之穿戴裝置,其中該處理單元包括:一濾波器,用以過濾該慣性訊號,以濾除一雜訊。
- 如申請專利範圍第10項所述之穿戴裝置,其中該處理單元包括:一分離器,用以分離該慣性訊號為該第一子訊號及該第二子訊號;一特徵擷取器,用以擷取該第一子訊號之複數個第一特徵及該第二子訊號之複數個第二特徵;以及一辨識器,用以依據第一特徵及該些第二特徵,辨識該第一子訊號及該第二子訊號之其中之一所對應之該手勢動作。
- 如申請專利範圍第14項所述之穿戴裝置,其中該分離器係採用快速獨立成分分析演算法分離該慣性訊號為該第一子訊號及該第二子訊號。
- 如申請專利範圍第14項所述之穿戴裝置,其中該辨識器 係採用一決策樹演算法、一機率類神經網路演算法或一模糊類神經網路演算法辨識該第一子訊號及該第二子訊號之其中之一所對應之該手勢動作。
- 如申請專利範圍第10項所述之穿戴裝置,其中該處理單元包括:一特徵擷取器,用以擷取該慣性訊號之複數個特徵;以及一歸類器,用以依據此些特徵歸類出該慣性訊號所屬之一類別,並依據該類別,獲得該慣性訊號所對應之該手勢動作。
- 如申請專利範圍第17項所述之穿戴裝置,其中該歸類器係採用一支持向量機演算法歸類出該慣性訊號所屬之該類別。
- 如申請專利範圍第10項所述之穿戴裝置,該電子設備係為該穿戴裝置或一可攜式裝置,該穿戴裝置更包括:一資料庫,用以儲存一參考資料,以供該處理單元分析出該手勢動作;一第一控制單元,連接於該處理單元;以及一第一傳輸單元,連接於該處理單元及該可攜式裝置之一第二傳輸單元,該第二傳輸單元連接該可攜式裝置之一第二控制單元;其中該控制指令傳輸至該第一控制單元,以控制該穿戴裝置本身;或者該控制指令透過該第一傳輸單元及該第二傳輸單元傳輸至該第二控制單元,以控制該可攜式裝置。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
TW105104116A TWI621968B (zh) | 2016-02-05 | 2016-02-05 | 控制電子設備之方法及穿戴裝置 |
US15/167,192 US10120453B2 (en) | 2016-02-05 | 2016-05-27 | Method for controlling electronic equipment and wearable device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
TW105104116A TWI621968B (zh) | 2016-02-05 | 2016-02-05 | 控制電子設備之方法及穿戴裝置 |
Publications (2)
Publication Number | Publication Date |
---|---|
TW201729038A TW201729038A (zh) | 2017-08-16 |
TWI621968B true TWI621968B (zh) | 2018-04-21 |
Family
ID=59497621
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
TW105104116A TWI621968B (zh) | 2016-02-05 | 2016-02-05 | 控制電子設備之方法及穿戴裝置 |
Country Status (2)
Country | Link |
---|---|
US (1) | US10120453B2 (zh) |
TW (1) | TWI621968B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10872604B2 (en) * | 2018-05-17 | 2020-12-22 | Qualcomm Incorporated | User experience evaluation |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8289162B2 (en) * | 2008-12-22 | 2012-10-16 | Wimm Labs, Inc. | Gesture-based user interface for a wearable portable device |
CN104656888A (zh) * | 2013-11-25 | 2015-05-27 | 因文森斯公司 | 使用可穿戴设备的设备控制 |
CN104919394A (zh) * | 2012-11-20 | 2015-09-16 | 三星电子株式会社 | 涉及设备的运动的可穿戴电子设备的用户手势输入 |
Family Cites Families (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP0849697B1 (en) * | 1996-12-20 | 2003-02-12 | Hitachi Europe Limited | A hand gesture recognition system and method |
TW370330U (en) | 1998-06-19 | 1999-09-11 | Quantum Sphere Corp | Device for connection with movie animation |
KR100446612B1 (ko) * | 2001-07-24 | 2004-09-04 | 삼성전자주식회사 | 다차원 공간상에서의 정보 선택 방법 및 장치 |
TWI316195B (en) * | 2005-12-01 | 2009-10-21 | Ind Tech Res Inst | Input means for interactive devices |
KR100777107B1 (ko) | 2005-12-09 | 2007-11-19 | 한국전자통신연구원 | 가속도 센서를 이용한 문자인식 장치 및 방법 |
TWI348639B (en) | 2005-12-16 | 2011-09-11 | Ind Tech Res Inst | Motion recognition system and method for controlling electronic device |
TWI418334B (zh) | 2010-09-28 | 2013-12-11 | Univ Nat Chiao Tung | 用於生理訊號及環境訊號感測、分析及回饋之系統 |
US8786547B2 (en) * | 2010-12-23 | 2014-07-22 | Microsoft Corporation | Effects of gravity on gestures |
US9619035B2 (en) * | 2011-03-04 | 2017-04-11 | Microsoft Technology Licensing, Llc | Gesture detection and recognition |
TWI459929B (zh) | 2011-10-17 | 2014-11-11 | Jia Jin Chen | 即時自主肌力與電刺激誘發肌力量測電路 |
TWI455073B (zh) | 2011-12-14 | 2014-10-01 | Ind Tech Res Inst | 車用特定路況警示裝置、系統與方法 |
US20140278219A1 (en) * | 2013-03-15 | 2014-09-18 | Focus Ventures, Inc. | System and Method For Monitoring Movements of a User |
DE102014105205A1 (de) | 2013-04-26 | 2014-11-13 | Maxim Integrated Products, Inc. | Gyroskop-Stoß- und -Störungsmessschaltung |
KR102022666B1 (ko) * | 2013-05-16 | 2019-09-18 | 삼성전자주식회사 | 통신 방법 및 이를 위한 디바이스 |
CN111258378A (zh) * | 2013-08-07 | 2020-06-09 | 耐克创新有限合伙公司 | 具有姿态识别和功率管理的腕戴式运动装置 |
JP2017501469A (ja) * | 2013-10-24 | 2017-01-12 | アップル インコーポレイテッド | 手首の動きを用いたリストバンドデバイスの入力 |
CN203950271U (zh) | 2014-02-18 | 2014-11-19 | 周辉祥 | 一种具有手势控制功能的智能手环 |
WO2015196321A1 (zh) * | 2014-05-29 | 2015-12-30 | 华为技术有限公司 | 一种图像采集方法及装置 |
-
2016
- 2016-02-05 TW TW105104116A patent/TWI621968B/zh active
- 2016-05-27 US US15/167,192 patent/US10120453B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8289162B2 (en) * | 2008-12-22 | 2012-10-16 | Wimm Labs, Inc. | Gesture-based user interface for a wearable portable device |
CN104919394A (zh) * | 2012-11-20 | 2015-09-16 | 三星电子株式会社 | 涉及设备的运动的可穿戴电子设备的用户手势输入 |
CN104656888A (zh) * | 2013-11-25 | 2015-05-27 | 因文森斯公司 | 使用可穿戴设备的设备控制 |
Also Published As
Publication number | Publication date |
---|---|
US10120453B2 (en) | 2018-11-06 |
US20170228027A1 (en) | 2017-08-10 |
TW201729038A (zh) | 2017-08-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Abreu et al. | Evaluating sign language recognition using the myo armband | |
KR100580647B1 (ko) | 입력모드 분류가능한 동작기반 입력장치 및 방법 | |
Jordao et al. | Novel approaches to human activity recognition based on accelerometer data | |
EP3073351A1 (en) | Controlling a wearable device using gestures | |
Khan et al. | Advanced IoT-based human activity recognition and localization using deep polynomial neural network | |
JP2014137818A (ja) | 手の平開閉動作識別方法と装置、マン・マシン・インタラクション方法と設備 | |
Ahmed et al. | An approach to classify human activities in real-time from smartphone sensor data | |
Javeed et al. | Body-worn hybrid-sensors based motion patterns detection via bag-of-features and Fuzzy logic optimization | |
Cenedese et al. | Home automation oriented gesture classification from inertial measurements | |
Bamwenda et al. | Recognition of static hand gesture with using ANN and SVM | |
Ameliasari et al. | An evaluation of svm in hand gesture detection using imu-based smartwatches for smart lighting control | |
CN106370180B (zh) | 基于动态时间规整算法的惯性传感器初始位置识别方法 | |
Khan et al. | Advances in Medical Imaging: Deep Learning Strategies for Pneumonia Identification in Chest X-rays | |
KR20120089948A (ko) | Mhi의 형태 정보를 이용한 실시간 동작 인식시스템 및 실시간 동작 인식 방법 | |
TWI621968B (zh) | 控制電子設備之方法及穿戴裝置 | |
Lee et al. | Implementation of smartwatch user interface using machine learning based motion recognition | |
Xie et al. | Genetic programming based activity recognition on a smartphone sensory data benchmark | |
US20230097355A1 (en) | Three-dimensional gesture detection device and three-dimensional gesture detection method | |
Pandey et al. | 2d convolutional lstm-based approach for human action recognition on various sensor data | |
Kulkarni et al. | Mobile manipulator control through gesture recognition using IMUs and Online Lazy Neighborhood Graph search | |
CN111766941B (zh) | 一种基于智能戒指的手势识别方法及系统 | |
Naosekpam et al. | Machine learning in 3D space gesture recognition | |
CN116009695A (zh) | 一种基于数据手套的动态手势识别方法及系统 | |
CN108520248A (zh) | 运动模式识别方法及装置 | |
Bamwenda et al. | Static hand gesture recognition system using artificial neural networks and support vector machine |