JP7203856B2 - 手持ち式消費者装置の使用を分類するためのシステム - Google Patents
手持ち式消費者装置の使用を分類するためのシステム Download PDFInfo
- Publication number
- JP7203856B2 JP7203856B2 JP2020543384A JP2020543384A JP7203856B2 JP 7203856 B2 JP7203856 B2 JP 7203856B2 JP 2020543384 A JP2020543384 A JP 2020543384A JP 2020543384 A JP2020543384 A JP 2020543384A JP 7203856 B2 JP7203856 B2 JP 7203856B2
- Authority
- JP
- Japan
- Prior art keywords
- usage
- consumer device
- sensor
- data
- usage data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000013528 artificial neural network Methods 0.000 claims description 153
- 238000012545 processing Methods 0.000 claims description 36
- 230000000306 recurrent effect Effects 0.000 claims description 14
- 238000000034 method Methods 0.000 claims description 13
- 230000005540 biological transmission Effects 0.000 claims description 6
- 238000004891 communication Methods 0.000 claims description 5
- 239000013598 vector Substances 0.000 description 43
- 239000010410 layer Substances 0.000 description 33
- 230000033001 locomotion Effects 0.000 description 30
- 230000006870 function Effects 0.000 description 29
- 238000010586 diagram Methods 0.000 description 22
- 230000001680 brushing effect Effects 0.000 description 18
- 210000003128 head Anatomy 0.000 description 18
- 230000004913 activation Effects 0.000 description 15
- 230000002123 temporal effect Effects 0.000 description 15
- 210000004027 cell Anatomy 0.000 description 11
- 230000000670 limiting effect Effects 0.000 description 11
- 230000008569 process Effects 0.000 description 10
- 230000000007 visual effect Effects 0.000 description 10
- 210000000214 mouth Anatomy 0.000 description 8
- 230000001537 neural effect Effects 0.000 description 6
- 239000011159 matrix material Substances 0.000 description 5
- 235000009499 Vanilla fragrans Nutrition 0.000 description 4
- 235000012036 Vanilla tahitensis Nutrition 0.000 description 4
- 230000006399 behavior Effects 0.000 description 4
- 230000002457 bidirectional effect Effects 0.000 description 4
- 230000015654 memory Effects 0.000 description 4
- 238000012549 training Methods 0.000 description 4
- 244000263375 Vanilla tahitensis Species 0.000 description 3
- 230000009471 action Effects 0.000 description 3
- 238000011156 evaluation Methods 0.000 description 3
- 230000000644 propagated effect Effects 0.000 description 3
- 230000004044 response Effects 0.000 description 3
- 238000012935 Averaging Methods 0.000 description 2
- 238000007635 classification algorithm Methods 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 210000001847 jaw Anatomy 0.000 description 2
- 210000002569 neuron Anatomy 0.000 description 2
- 230000001902 propagating effect Effects 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 230000002829 reductive effect Effects 0.000 description 2
- 230000002441 reversible effect Effects 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 230000006403 short-term memory Effects 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 230000007704 transition Effects 0.000 description 2
- 241000288105 Grus Species 0.000 description 1
- 244000290333 Vanilla fragrans Species 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000001149 cognitive effect Effects 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000001934 delay Effects 0.000 description 1
- 210000004513 dentition Anatomy 0.000 description 1
- 230000001747 exhibiting effect Effects 0.000 description 1
- 210000004283 incisor Anatomy 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 210000004373 mandible Anatomy 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 210000002050 maxilla Anatomy 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000003252 repetitive effect Effects 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 239000002356 single layer Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 230000036346 tooth eruption Effects 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61C—DENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
- A61C17/00—Devices for cleaning, polishing, rinsing or drying teeth, teeth cavities or prostheses; Saliva removers; Dental appliances for receiving spittle
- A61C17/16—Power-driven cleaning or polishing devices
- A61C17/22—Power-driven cleaning or polishing devices with brushes, cushions, cups, or the like
- A61C17/221—Control arrangements therefor
-
- A—HUMAN NECESSITIES
- A46—BRUSHWARE
- A46B—BRUSHES
- A46B15/00—Other brushes; Brushes with additional arrangements
- A46B15/0002—Arrangements for enhancing monitoring or controlling the brushing process
-
- A—HUMAN NECESSITIES
- A46—BRUSHWARE
- A46B—BRUSHES
- A46B15/00—Other brushes; Brushes with additional arrangements
- A46B15/0055—Brushes combined with other articles normally separate from the brushing process, e.g. combs, razors, mirrors
- A46B15/0069—Brushes fitted with a interdental devices, e.g. toothpick
- A46B15/0073—Brushes with an arrangement for using the floss
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61C—DENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
- A61C17/00—Devices for cleaning, polishing, rinsing or drying teeth, teeth cavities or prostheses; Saliva removers; Dental appliances for receiving spittle
- A61C17/16—Power-driven cleaning or polishing devices
- A61C17/22—Power-driven cleaning or polishing devices with brushes, cushions, cups, or the like
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61C—DENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
- A61C17/00—Devices for cleaning, polishing, rinsing or drying teeth, teeth cavities or prostheses; Saliva removers; Dental appliances for receiving spittle
- A61C17/16—Power-driven cleaning or polishing devices
- A61C17/22—Power-driven cleaning or polishing devices with brushes, cushions, cups, or the like
- A61C17/24—Power-driven cleaning or polishing devices with brushes, cushions, cups, or the like rotating continuously
- A61C17/26—Power-driven cleaning or polishing devices with brushes, cushions, cups, or the like rotating continuously driven by electric motor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/20—Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
- G06F16/28—Databases characterised by their database models, e.g. relational or object models
- G06F16/284—Relational databases
- G06F16/285—Clustering or classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/213—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B21/00—Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
- G08B21/18—Status alarms
-
- A—HUMAN NECESSITIES
- A46—BRUSHWARE
- A46B—BRUSHES
- A46B15/00—Other brushes; Brushes with additional arrangements
- A46B15/0002—Arrangements for enhancing monitoring or controlling the brushing process
- A46B15/0016—Arrangements for enhancing monitoring or controlling the brushing process with enhancing means
- A46B15/0036—Arrangements for enhancing monitoring or controlling the brushing process with enhancing means with a lighting means, e.g. laser, bulb
-
- A—HUMAN NECESSITIES
- A46—BRUSHWARE
- A46B—BRUSHES
- A46B15/00—Other brushes; Brushes with additional arrangements
- A46B15/0002—Arrangements for enhancing monitoring or controlling the brushing process
- A46B15/0038—Arrangements for enhancing monitoring or controlling the brushing process with signalling means
-
- A—HUMAN NECESSITIES
- A46—BRUSHWARE
- A46B—BRUSHES
- A46B15/00—Other brushes; Brushes with additional arrangements
- A46B15/0002—Arrangements for enhancing monitoring or controlling the brushing process
- A46B15/0038—Arrangements for enhancing monitoring or controlling the brushing process with signalling means
- A46B15/004—Arrangements for enhancing monitoring or controlling the brushing process with signalling means with an acoustic signalling means, e.g. noise
-
- A—HUMAN NECESSITIES
- A46—BRUSHWARE
- A46B—BRUSHES
- A46B15/00—Other brushes; Brushes with additional arrangements
- A46B15/0055—Brushes combined with other articles normally separate from the brushing process, e.g. combs, razors, mirrors
- A46B15/0069—Brushes fitted with a interdental devices, e.g. toothpick
- A46B15/0071—Toothbrushes with flossing arrangements
-
- A—HUMAN NECESSITIES
- A46—BRUSHWARE
- A46B—BRUSHES
- A46B2200/00—Brushes characterized by their functions, uses or applications
- A46B2200/10—For human or animal care
- A46B2200/1066—Toothbrush for cleaning the teeth or dentures
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B2562/00—Details of sensors; Constructional details of sensor housings or probes; Accessories for sensors
- A61B2562/02—Details of sensors specially adapted for in-vivo measurements
- A61B2562/0219—Inertial sensors, e.g. accelerometers, gyroscopes, tilt switches
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B2562/00—Details of sensors; Constructional details of sensor housings or probes; Accessories for sensors
- A61B2562/02—Details of sensors specially adapted for in-vivo measurements
- A61B2562/0247—Pressure sensors
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B2562/00—Details of sensors; Constructional details of sensor housings or probes; Accessories for sensors
- A61B2562/02—Details of sensors specially adapted for in-vivo measurements
- A61B2562/0252—Load cells
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61C—DENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
- A61C17/00—Devices for cleaning, polishing, rinsing or drying teeth, teeth cavities or prostheses; Saliva removers; Dental appliances for receiving spittle
- A61C17/16—Power-driven cleaning or polishing devices
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61C—DENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
- A61C17/00—Devices for cleaning, polishing, rinsing or drying teeth, teeth cavities or prostheses; Saliva removers; Dental appliances for receiving spittle
- A61C17/16—Power-driven cleaning or polishing devices
- A61C17/22—Power-driven cleaning or polishing devices with brushes, cushions, cups, or the like
- A61C17/32—Power-driven cleaning or polishing devices with brushes, cushions, cups, or the like reciprocating or oscillating
- A61C17/34—Power-driven cleaning or polishing devices with brushes, cushions, cups, or the like reciprocating or oscillating driven by electric motor
- A61C17/3409—Power-driven cleaning or polishing devices with brushes, cushions, cups, or the like reciprocating or oscillating driven by electric motor characterized by the movement of the brush body
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B26—HAND CUTTING TOOLS; CUTTING; SEVERING
- B26B—HAND-HELD CUTTING TOOLS NOT OTHERWISE PROVIDED FOR
- B26B21/00—Razors of the open or knife type; Safety razors or other shaving implements of the planing type; Hair-trimming devices involving a razor-blade; Equipment therefor
- B26B21/40—Details or accessories
- B26B21/405—Electric features; Charging; Computing devices
- B26B21/4056—Sensors or controlling means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B26—HAND CUTTING TOOLS; CUTTING; SEVERING
- B26B—HAND-HELD CUTTING TOOLS NOT OTHERWISE PROVIDED FOR
- B26B21/00—Razors of the open or knife type; Safety razors or other shaving implements of the planing type; Hair-trimming devices involving a razor-blade; Equipment therefor
- B26B21/40—Details or accessories
- B26B21/4081—Shaving methods; Usage or wear indication; Testing methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2218/00—Aspects of pattern recognition specially adapted for signal processing
- G06F2218/12—Classification; Matching
- G06F2218/16—Classification; Matching by matching signal segments
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- Animal Behavior & Ethology (AREA)
- Epidemiology (AREA)
- Dentistry (AREA)
- Databases & Information Systems (AREA)
- Mathematical Physics (AREA)
- Molecular Biology (AREA)
- Software Systems (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Computing Systems (AREA)
- Business, Economics & Management (AREA)
- Emergency Management (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Human Computer Interaction (AREA)
- Social Psychology (AREA)
- Psychiatry (AREA)
- Multimedia (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
- Brushes (AREA)
- Arrangements For Transmission Of Measured Signals (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Manipulator (AREA)
- Image Analysis (AREA)
Description
図1は、本開示によるシステム100の一例の概略図である。システム100は、手持ち式消費者装置200及び分析装置300を含む。任意の提示装置400は、ここではシステム100の一部である。提示装置は、スクリーン、スマートスピーカ、LED光アレイなどとして実現されてもよい。図1には、手持ち式消費者装置200(簡略化のために、手持ち式消費者装置という用語は、本明細書中で単に「消費者装置」としても略記される)と分析装置300とは物理的に別個の装置として示されているが、双方が単一のハウジング内で実現されることが除外されるものではなく、すなわち、分析装置300が消費者装置200内に組み込まれても、又はこれらが一体の単一の装置として実現されてもよい。他の実施形態では、分析装置は、例えばクラウドコンピュータなどの遠隔の分析装置として実現される。
図2は、本開示による手持ち式消費者装置200Aの一例の図である。図示するように、消費者装置200Aは、例えば充電機能を有してもよいが、消費者装置200Aをレセプタクル249A内に機械的に保持するように機能するだけであってもよいベースステーション240Aを有してもよい。
図3は、本開示によるシステムの一部である物理的に別個の分析装置300Aの概略図である。既に論じたように、物理的に分離された分析装置300Aに関して本明細書で説明したのと同じ機能を、消費者装置内に、又はベースステーション若しくは提示装置内に、又はクラウドコンピューティング装置などの遠隔のコンピューティング装置内に組み込んでもよい。分析装置300Aは、受信機又は送受信機320A、処理ユニット310A、及び記憶ユニット330Aを含んでもよい。センサデータタプルの時間的ストリームUD(ti)は、受信機又は送受信機320Aを介して受信され、処理ユニット310Aに供給される。処理ユニット310Aは、所定の時間ΔTに関連するある数のセンサデータタプルUD(ti)を収集してもよく、ここでは、図3に示すように、n個のそのようなセンサデータのk-タプルUD(ti)、i∈[1,n]が収集され、次いで処理ユニット310Aの使用分類部分に供給される。使用分類は、ここでは、少なくとも1つの人工ニューラルネットワークANNによって行われる。このような少なくとも1つの人工ニューラルネットワークの詳細については、以下の章のいくつかで詳細に説明する。当該技術分野で知られているように、以前に訓練された人工ニューラルネットワークANNは、関連する時間ΔTに関連するn個のセンサデータタプルのシーケンスUD(ti)、i∈[1,n]を受信し、少なくとも1つの出力又は回答タプルを出力する。ここでは、非限定的な例として、n個の出力タプルのシーケンスy(ti)、i∈[1,n]が供給され、ここで、各回答タプルは、図3にy(ti)={y1(ti),y2(ti),...,ym(ti)}として示すように、m個の要素を有し、ここで整数mは、入力が分類される使用クラスの数である。各要素yj(ti)、j∈[1,m]はこの場合、時点tiで人工ニューラルネットワークANNに入力されたセンサデータが使用クラスjに関連するという予測に関連する数値である(すなわち、値が高いほど予測が良好である)。以下で更に説明するように、人工ニューラルネットワークANNの出力は、各m-タプルの要素yjが範囲[0、1]内に圧縮され、合計が1となるように、ソフトマックス関数によって正規化されてもよい。そのような正規化された値は、それぞれの入力が使用クラスjに関連する確率に関連していると言える。
図4は、電動歯ブラシとして実現された消費者装置200Eと、スマートフォンとして実現され、この例では提示装置の機能も実現する分析装置300Eと、を備える例示的なシステム100Eの概略図である。
人工ニューラルネットワーク(ANN)は人工ニューロンのネットワークであり、ニューロインフォマティクスから動機付けられたニューロンのモデルを使用し、複数の入力が活性化関数によって重み付けされて出力される。バイアス値(又は閾値)を追加して、活性化前に重み付き入力をシフトさせてもよい。ANNの典型的な活性化関数は、シグモイド関数又はtanhとして表される双曲線正接関数などの、非線形の単調増加関数である。
回帰型ニューラルネットワーク(recurrent neural network、RNN)は、特定の特性、すなわち反復入力を有するANNのクラスである。図6Aは、入力層10A、隠れ層20A及び出力層30Aを含むRNN 1Aの概略図である。回帰型ユニット50Aは、入力xtを受信するだけでなく、前の時点から隠れた状態も受信し、現在時点tの隠れた状態htは次いで、次の時点t+1の出力を計算するためにニューラルネットワーク50Aに入力されることが示されている。
RNNは、内部隠れた状態出力を次の時点への内部隠れた状態入力(回帰情報)として渡す、一連の同一の順伝播型ニューラルネットワークユニット(各時点毎に1つ)とみなすことができ、換言すれば、RNNは、内部隠れた状態出力を各時点毎に新たな内部隠れた状態入力として再ループする単一の順伝播型セルである。RNNユニットは、少なくとも1つの隠れ層を有してもよい。したがって、最も基本的なRNNユニットは、上述のように、単一層のニューラルネットワークユニットである。古典的な「バニラ」RNNユニットでは、ユニットの出力は、内部隠れた状態出力と同一である。バニラRNNは既知の問題(RNNを訓練不可能にする勾配の消失及び爆発並びに、情報のモーフィング、すなわち過去の情報が過度に急速に失われるような方法で内部隠れた状態が常に変化すること)を有する。1997年に、バニラRNNのこれらの問題を克服するために、長・短期記憶(Long Short-Term Memory、LSTM)ユニットの使用が提案された(S.Hochretor,J.Schmidhuber:Long Short-Term Memory,NeuroComputation 9(8):1735-1780,1997)。基本的なLSTMユニット50Bを図7Aに示す。図6A及び図6Bを参照して説明した基本的なRNNユニットとは対照的に、LSTMユニット50Bは、隠れた状態h及びセル状態cを有する。図7Aに示すLSTMユニット50Bは、時点tに関連する。したがって、LSTMユニット50Bは、前の時点からセル状態ct-1及び隠れた状態ht-1を受信し、現在時点tに関するセル状態ct及び隠れた状態htを出力する。隠れた状態出力htは、以下で更に積層型RNNに関して説明するように、出力層又は別の隠れ層に順伝播され得るLSTMユニットの出力としても使用される。バニラRNNの問題を解決するために、LSTMユニット50Bは、忘却ゲート51B、入力ゲート52B及び出力ゲート53Bを備える。全てのゲート51B、52B、53Bは、ht-1及びxtを含む連結されたベクトルを入力として受信する。この連結された入力ベクトルは、重み行列W及びUによって完全に接続された層を通って各ゲートに入り、次に活性化関数によって活性化され、ここでσはシグモイド関数を表し、tanhは双曲線正接関数を表す。以下の式を参照する。図7Aでは
別の種類のRNNを、いわゆるゲート付き回帰型ユニット(Gated Recurrent Unit、GRU)を使用して構築することができる。GRUは、LSTMと類似しているが、これよりもある程度単純である。GRUは、2014年にK.Choらによって紹介された(「Learning Phrase Representation using RNN Encoder-Decoding for Statistical Machine Translation」、2014年9月3日、arXiv:1406.1078v3)。
ユニット50A、50B又は50Cなどの回帰型ユニットを、RNNの様々に異なるアーキテクチャで使用することができる。RNNの2つの具体的なアーキテクチャは、双方向性RNN(bi-directional RNN、BDRNN)及び積層型RNN(stacked RNN、SRNN)である。双方向性RNNの概略図を図8Aに示し、積層型RNNの概略図を図8Bに示す。完全を期すために、図8Cは、積層型双方向性RNN(stacked bi-directional RNN、SBDRNN)の例示的な描写を示す。
本明細書で説明する様々な例示的なRNN 1A、1B、1C、及び1Dでは、出力ベクトル又はタプルytが時点毎に生成される。これは限定的であると解釈されるべきではない。ただし、この章の説明では、入力シーケンスx=(x1,x2,...,xn)毎に少なくとも2つの出力がRNNによって供給されるものとする。簡略化のために、RNNの出力配列y=(y1、y2,...,yn)は、ここでは入力シーケンスと同じ長さを有するとみなされる。更に、理論に束縛されるものではないが、ANNは、各出力タプルyiにソフトマックス関数を適用することができる。ソフトマックス関数は、出力ベクトルyiの要素の合計が1になり、[0、1]の範囲内に圧縮されるように、出力yiの要素を正規化する。しかし、これは任意のステップとみなされる。
ANNを使用して、消費者装置の使用を使用データに基づいて分類できることを説明してきた。分類は、具体的には、ライブで、すなわち使用セッション中に行うことができる。
いくつかの実施形態では、本明細書に記載のシステムは、2つの異なるANNを備えてもよい。2つのANNは、それらが2つの異なるアーキテクチャ又は重みとバイアスとの2つの異なるセットのいずれかを有する場合には、異なるものとする。いかなる限定をも課すものではないが、後者の場合について、それぞれのシステムを例示するために説明する。
いくつかの実施形態では、2つ以上の異なるANNが、入力を同じ使用クラスセットに関して分類するために使用される。同じタスクを有する異なるANNの結果を処理する選択肢は複数あるが、いくつかの例では、最も高い予測値を有する要素が特定される前に、出力タプルの要素を(例えばargmax関数を適用して)合計又は平均化することによって、異なるANNからの出力を組み合わせてもよい。前述のように、このプロセスでは、特定の閾値を下回る最終予測値を破棄することができるように、閾値を定義してもよい。また、2つの異なるANNの場合には、特定の閾値を上回る特定の予測値をそれぞれが有する2つの異なる使用クラスをこれら2つのANNが供給する場合に、結果が(例えばユーザに伝達されないなど)破棄されてもよい。
Claims (13)
- 手持ち式の消費者装置の使用を、標的表面を含む標的空間に関して分類するためのシステムであって、前記手持ち式の消費者装置が歯ブラシであるシステムにおいて、前記システムは、
前記標的表面を処理するように構成された可動手持ち式の消費者装置であって、前記消費者装置が、少なくとも1つの使用データを連続する複数の時点で測定するためのセンサユニットを備え、前記センサユニットは、使用データの時間的に連続するシーケンスを使用セッション中に供給するように構成されている、可動手持ち式の消費者装置と、
前記消費者装置の使用を、異なる使用特性に関連する少なくとも2つの使用クラスの少なくとも1つのセットに関して分類するように構成された分析装置であって、前記分析装置は、前記使用セッションの所定の時間に関連する使用データの入力タプルの時間的に連続するシーケンスをアセンブルするように構成されており、前記入力タプルはそれぞれ、前記各時点における前記使用データを表す少なくとも1つの要素を含み、前記分析装置は、前記入力タプルのシーケンスを、複数の要素を含む少なくとも1つの出力タプルを使用クラスの数に従って出力するように構成された少なくとも1つの人工ニューラルネットワークに入力するように構成されており、前記出力タプルの各要素は、所与の時点における前記消費者装置の前記使用が各使用クラスに関連するという予測値を表し、前記分析装置は、前記出力タプルのシーケンスに基づいて、前記時間毎に単一の使用クラスの回答を決定するように構成されている、分析装置と、
を備え、
前記使用クラスは、前記手持ち式の消費者装置を標的空間の異なる部分で使用するための典型的な使用に関連するものであり、
前記消費者装置が、少なくとも1つの使用セッションの前記使用データを記憶し、前記使用データを、前記使用セッションの終了後又は複数の使用セッション後であって、前記使用データの送信がユーザ又は前記分析装置によって要求された後にのみ送信するように構成されている、システム。 - 前記センサユニットが、加速度計、ジャイロスコープ又は磁力計などの慣性センサあるいは力センサのうちの少なくとも1つのセンサを含み、前記センサは、前記消費者装置の動作及び/又は、前記消費者装置の処理ヘッドに作用する力に関連する使用データの時間的に連続するシーケンスを前記使用セッション中に供給するように構成されている、請求項1に記載のシステム。
- 前記消費者装置及び前記分析装置が、相互から物理的に分離しており、無線通信のために結合されるように構成されており、前記消費者装置は、生の使用データを第1の周波数でサンプリングし、処理された生の使用データを、前記使用データとして、前記第1の周波数以下の第2の周波数で前記分析装置に送信するように構成されており、前記第1の周波数は100Hzより大きく、前記第2の周波数は100Hz未満である、請求項1又は2に記載のシステム。
- 前記消費者装置が、前記使用データの分解能を送信前に低減するように構成されており、前記使用データは約10ビット以下の分解能を有する、請求項3に記載のシステム。
- 前記少なくとも1つの人工ニューラルネットワークが、回帰型ニューラルネットワークである、請求項1~4のいずれか一項に記載のシステム。
- 前記分析装置が、前記消費者装置の前記使用を分類するために、少なくとも2つの異なる人工ニューラルネットワークを使用するように構成されており、前記分析装置は、(1)前記消費者装置の前記使用を分類するために、前記少なくとも2つの異なる人工ニューラルネットワークのうちの第1の人工ニューラルネットワークを使用して、前記少なくとも2つの異なる人工ニューラルネットワークのうちの第2の人工ニューラルネットワークを決定する手順、(2)前記消費者装置の前記使用を、同じ使用クラスセットに関して分類するために、前記少なくとも2つの異なる人工ニューラルネットワークを並列に使用する手順、又は(3)前記消費者装置の前記使用を、異なる使用クラスセットに関して分類するために、前記少なくとも2つの異なる人工ニューラルネットワークを並列に使用する手順のうちの少なくとも1つを実行するように構成されている、請求項1~5のいずれか一項に記載のシステム。
- 前記センサユニットは、pHセンサ、温度センサ、静電容量式センサ、音声センサ、光センサ又は画像センサ又は映像センサ、あるいは気圧センサのうちの1つである少なくとも1つのセンサを備え、前記センサユニットは、前記少なくとも1つの更なるセンサのセンサデータの時間的に連続するシーケンスを処理時間中に供給するように構成されており、前記使用データは、前記少なくとも1つの更なるセンサデータを含み、前記入力タプルは、前記各時点における前記少なくとも1つの更なるセンサデータを表す少なくとも1つの要素をそれぞれ含む、請求項1~6のいずれか一項に記載のシステム。
- 前記所定の時間が、0.1秒~5秒の範囲内の長さを有し、この所定の時間内の使用データの時間的に連続する入力タプルの数は、約5~100の範囲内である、請求項1~7のいずれか一項に記載のシステム。
- 前記人工ニューラルネットワークにおける隠れた状態のサイズが約256以下である、請求項1~8のいずれか一項に記載のシステム。
- 前記分析装置が、前記単一の使用クラスの回答の前記決定において、最大基準又は過半数基準を利用するように構成されている、請求項1~9のいずれか一項に記載のシステム。
- 前記分析装置が、前記単一の使用クラスの回答の前記決定において、閾値未満の正規化された値を有する出力タプル要素を破棄するように構成されており、前記閾値は0.5~0.99の範囲内である、請求項1~10のいずれか一項に記載のシステム。
- ディスプレイ若しくは複数の発光素子などのユーザフィードバックユニット、又は前記消費者装置の駆動ユニット、又は前記分類に関する情報を伝達するための音声フィードバックユニットを更に備える、請求項1~11のいずれか一項に記載のシステム。
- 前記センサユニットが、少なくとも1つの慣性センサ及び少なくとも1つの力センサを備え、前記使用データが少なくとも7つの要素を含み、そのうちの少なくとも6つの要素は前記消費者装置の動作に関連し、少なくとも1つの要素は前記消費者装置に加えられる力に関連する、請求項1~12のいずれか一項に記載のシステム。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP18157358.5 | 2018-02-19 | ||
EP18157358.5A EP3528166B1 (en) | 2018-02-19 | 2018-02-19 | Apparatus and method for classifying a motion of a movable personal appliance |
EP18157362.7 | 2018-02-19 | ||
EP18157362.7A EP3528167A1 (en) | 2018-02-19 | 2018-02-19 | Apparatus and method for performing a localization of a movable treatment device |
PCT/IB2019/051250 WO2019159130A2 (en) | 2018-02-19 | 2019-02-15 | System for classifying the usage of a handheld consumer device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021513420A JP2021513420A (ja) | 2021-05-27 |
JP7203856B2 true JP7203856B2 (ja) | 2023-01-13 |
Family
ID=65324298
Family Applications (5)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020543273A Active JP7402165B2 (ja) | 2018-02-19 | 2019-02-15 | 可動式処置デバイスの位置特定を実施するための装置及び方法 |
JP2020543384A Active JP7203856B2 (ja) | 2018-02-19 | 2019-02-15 | 手持ち式消費者装置の使用を分類するためのシステム |
JP2020543144A Active JP7190496B2 (ja) | 2018-02-19 | 2019-02-15 | 可動式処置デバイスの運動を分類するための装置及び方法 |
JP2020543228A Active JP7221291B2 (ja) | 2018-02-19 | 2019-02-15 | 可動式処置デバイスの位置特定を実施するための装置及び方法 |
JP2022158618A Pending JP2023017766A (ja) | 2018-02-19 | 2022-09-30 | 可動式処置デバイスの位置特定を実施するための装置及び方法 |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020543273A Active JP7402165B2 (ja) | 2018-02-19 | 2019-02-15 | 可動式処置デバイスの位置特定を実施するための装置及び方法 |
Family Applications After (3)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020543144A Active JP7190496B2 (ja) | 2018-02-19 | 2019-02-15 | 可動式処置デバイスの運動を分類するための装置及び方法 |
JP2020543228A Active JP7221291B2 (ja) | 2018-02-19 | 2019-02-15 | 可動式処置デバイスの位置特定を実施するための装置及び方法 |
JP2022158618A Pending JP2023017766A (ja) | 2018-02-19 | 2022-09-30 | 可動式処置デバイスの位置特定を実施するための装置及び方法 |
Country Status (7)
Country | Link |
---|---|
US (5) | US12056208B2 (ja) |
EP (3) | EP3528171B1 (ja) |
JP (5) | JP7402165B2 (ja) |
KR (2) | KR102555432B1 (ja) |
CN (4) | CN111742327B (ja) |
ES (1) | ES2971724T3 (ja) |
WO (4) | WO2019159127A1 (ja) |
Families Citing this family (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111742327B (zh) * | 2018-02-19 | 2024-05-28 | 博朗有限公司 | 用于实施可移动处理装置的定位的设备和方法 |
KR20210030106A (ko) * | 2019-09-09 | 2021-03-17 | 엘지전자 주식회사 | 서버 |
WO2021262955A1 (en) * | 2020-06-24 | 2021-12-30 | Edgewell Personal Care Brands, Llc | Machine learning for a personal care device |
GB2602086B (en) * | 2020-12-17 | 2024-07-03 | Dyson Technology Ltd | Oral treatment device |
US20220201256A1 (en) * | 2020-12-22 | 2022-06-23 | Here Global B.V. | Method, apparatus, and system for capturing an image sequence for a visual positioning service request |
CN112884132B (zh) * | 2021-03-19 | 2024-04-30 | 有品国际科技(深圳)有限责任公司 | 基于神经网络的刷牙检测方法、装置、电动牙刷及介质 |
CA3226672A1 (en) | 2021-08-06 | 2023-02-09 | Braun Gmbh | Universal base for electric toothbrush |
WO2024007117A1 (en) | 2022-07-04 | 2024-01-11 | Braun Gmbh | Oral scanner system |
WO2024007098A1 (en) | 2022-07-04 | 2024-01-11 | Braun Gmbh | Oral scanner system |
WO2024007106A1 (en) | 2022-07-04 | 2024-01-11 | Braun Gmbh | Oral scanner system |
WO2024007884A1 (en) | 2022-07-04 | 2024-01-11 | Braun Gmbh | Oral scanner system |
WO2024007091A1 (en) | 2022-07-04 | 2024-01-11 | Braun Gmbh | Oral scanner system |
WO2024007100A1 (en) | 2022-07-04 | 2024-01-11 | Braun Gmbh | Oral scanner system |
WO2024007113A1 (en) | 2022-07-04 | 2024-01-11 | Braun Gmbh | Oral scanner system |
EP4399996A1 (en) | 2023-01-12 | 2024-07-17 | Braun GmbH | Personal care device comprising a force sensor |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009240759A (ja) | 2008-03-14 | 2009-10-22 | Omron Healthcare Co Ltd | 電動歯ブラシ |
US20170069083A1 (en) | 2015-09-08 | 2017-03-09 | Braun Gmbh | Determination of a currently treated body portion of a user |
Family Cites Families (58)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6757602B2 (en) * | 1997-02-06 | 2004-06-29 | Automotive Technologies International, Inc. | System for determining the occupancy state of a seat in a vehicle and controlling a component based thereon |
DE4218600C2 (de) * | 1992-06-05 | 1994-09-22 | Bodenseewerk Geraetetech | Einrichtung zur Bestimmung von Bewegungsgrößen eines Flugkörpers |
JP2002090267A (ja) | 2000-09-21 | 2002-03-27 | Mitsui Eng & Shipbuild Co Ltd | 異常診断方法 |
KR100580647B1 (ko) * | 2004-04-01 | 2006-05-16 | 삼성전자주식회사 | 입력모드 분류가능한 동작기반 입력장치 및 방법 |
WO2006090197A1 (en) | 2005-02-24 | 2006-08-31 | Nokia Corporation | Motion-input device for a computing terminal and method of its operation |
WO2006137648A1 (en) * | 2005-06-20 | 2006-12-28 | Jin-Sang Hwang | Tooth brushing pattern analyzing/modifying device, method and system for interactively modifying tooth brushing behavior |
JP4388033B2 (ja) | 2006-05-15 | 2009-12-24 | ソニー株式会社 | 情報処理装置、情報処理方法、およびプログラム |
US8688375B2 (en) * | 2006-05-31 | 2014-04-01 | Trx Systems, Inc. | Method and system for locating and monitoring first responders |
US7636645B1 (en) | 2007-06-18 | 2009-12-22 | Ailive Inc. | Self-contained inertial navigation system for interactive control using movable controllers |
US20080102953A1 (en) | 2006-10-31 | 2008-05-01 | Motorola, Inc. | Toothbrush affecting game play |
DE102007001025B4 (de) | 2007-01-02 | 2008-11-20 | Siemens Ag | Verfahren zur rechnergestützten Steuerung und/oder Regelung eines technischen Systems |
US8462109B2 (en) | 2007-01-05 | 2013-06-11 | Invensense, Inc. | Controlling and accessing content using motion processing on mobile devices |
US7835999B2 (en) * | 2007-06-27 | 2010-11-16 | Microsoft Corporation | Recognizing input gestures using a multi-touch input device, calculated graphs, and a neural network with link weights |
KR100947046B1 (ko) | 2007-11-19 | 2010-03-10 | 황진상 | 운동체 자세 추적 장치, 운동체 자세 추적 방법, 이를이용한 칫솔 자세 추적 장치 및 칫솔 자세 추적 방법 |
WO2010024697A1 (en) | 2008-09-01 | 2010-03-04 | Business Intelligence Solutions Safe B.V. | Methods, apparatus and systems for determining an adjustment value of a gaming device |
JP2011059815A (ja) | 2009-09-07 | 2011-03-24 | Sony Corp | 情報処理装置、情報処理方法、及び、プログラム |
JP5574789B2 (ja) * | 2010-04-08 | 2014-08-20 | 株式会社東芝 | 車両周辺監視装置及び車両周辺監視方法 |
KR20130057688A (ko) * | 2011-11-24 | 2013-06-03 | (주)케이엔씨웰빙 | 양치 패턴 분석용 칫솔 및 분석 시스템 |
US10314492B2 (en) | 2013-05-23 | 2019-06-11 | Medibotics Llc | Wearable spectroscopic sensor to measure food consumption based on interaction between light and the human body |
US20140065588A1 (en) * | 2012-08-31 | 2014-03-06 | Ideas That Work, Llc | Toothbrush Training System |
US9263036B1 (en) | 2012-11-29 | 2016-02-16 | Google Inc. | System and method for speech recognition using deep recurrent neural networks |
CN105009027B (zh) | 2012-12-03 | 2018-09-04 | 纳维森斯有限公司 | 用于估计对象的运动的系统和方法 |
US9413797B2 (en) | 2013-04-23 | 2016-08-09 | Gurulogic Microsystems Oy | Data communication system and method |
US9529385B2 (en) | 2013-05-23 | 2016-12-27 | Medibotics Llc | Smart watch and human-to-computer interface for monitoring food consumption |
WO2014202250A1 (en) * | 2013-06-19 | 2014-12-24 | Kolibree | Toothbrush system with sensors for a dental hygiene monitoring system |
EP3811820A1 (de) | 2013-06-19 | 2021-04-28 | Valutis GmbH | Verfahren zur bestimmung von bewegungsmustern bei einer zahnbehandlung |
US9389694B2 (en) * | 2013-10-22 | 2016-07-12 | Thalmic Labs Inc. | Systems, articles, and methods for gesture identification in wearable electromyography devices |
US9820233B2 (en) * | 2013-11-25 | 2017-11-14 | Qualcomm Incorporated | Motion state based mobile device positioning |
US20160091308A1 (en) | 2014-09-30 | 2016-03-31 | Invensense, Inc. | Microelectromechanical systems (mems) acoustic sensor-based gesture recognition |
US20160091965A1 (en) * | 2014-09-30 | 2016-03-31 | Microsoft Corporation | Natural motion-based control via wearable and mobile devices |
EP3420849A1 (en) * | 2014-12-22 | 2019-01-02 | Sunstar Inc. | Brushing assistance system, brushing assistance device, and brushing assistance program |
CN105832315A (zh) | 2015-01-16 | 2016-08-10 | 中国科学院上海高等研究院 | 不受个体运动状态与环境位置影响的远程监测系统 |
SG10201912070VA (en) | 2015-05-13 | 2020-02-27 | Kolibree | Toothbrush system with magnetometer for dental hygiene monitoring |
CN104848861B (zh) | 2015-05-28 | 2017-12-08 | 西安交通大学 | 一种基于图像消失点识别技术的移动设备姿态测量方法 |
US9336482B1 (en) | 2015-07-27 | 2016-05-10 | Google Inc. | Predicting likelihoods of conditions being satisfied using recurrent neural networks |
RU2720291C2 (ru) | 2015-08-19 | 2020-04-28 | Конинклейке Филипс Н.В. | Способ и контроллер для определения местонахождения устройства очистки в полости рта пользователя, устройство и система для очистки полости рта, а также устройство для приема информации |
GB2545668B (en) * | 2015-12-21 | 2020-05-20 | Suunto Oy | Sensor based context management |
EP3410891B1 (en) * | 2016-03-14 | 2021-08-11 | Kolibree | Oral hygiene system with visual recognition for compliance monitoring |
JP7233927B2 (ja) | 2016-03-22 | 2023-03-07 | マジック リープ, インコーポレイテッド | バイオメトリック情報を交換するように構成された頭部搭載型ディスプレイシステム |
EP3435864A4 (en) | 2016-03-31 | 2019-09-18 | Zoll Medical Corporation | SYSTEMS AND METHODS FOR MONITORING THE MOVEMENT OF A PATIENT |
JP2017187850A (ja) * | 2016-04-01 | 2017-10-12 | 株式会社リコー | 画像処理システム、情報処理装置、プログラム |
US20180284741A1 (en) | 2016-05-09 | 2018-10-04 | StrongForce IoT Portfolio 2016, LLC | Methods and systems for industrial internet of things data collection for a chemical production process |
CN107516102B (zh) | 2016-06-16 | 2020-10-23 | 北京市商汤科技开发有限公司 | 图像数据分类与建立分类模型方法、装置及系统 |
US10003924B2 (en) * | 2016-08-10 | 2018-06-19 | Yandex Europe Ag | Method of and server for processing wireless device sensor data to generate an entity vector associated with a physical location |
US10921820B2 (en) | 2016-12-19 | 2021-02-16 | Samsung Electronics Co., Ltd. | Movable object and control method thereof |
US20170173262A1 (en) | 2017-03-01 | 2017-06-22 | François Paul VELTZ | Medical systems, devices and methods |
CN107092894A (zh) * | 2017-04-28 | 2017-08-25 | 孙恩泽 | 一种基于lstm模型的运动行为识别方法 |
CN107153642A (zh) * | 2017-05-16 | 2017-09-12 | 华北电力大学 | 一种基于神经网络识别文本评论情感倾向的分析方法 |
CN107203753B (zh) | 2017-05-25 | 2020-09-08 | 西安工业大学 | 一种基于模糊神经网络和图模型推理的动作识别方法 |
CN109002189B (zh) | 2017-06-07 | 2021-09-07 | 斑马智行网络(香港)有限公司 | 一种运动识别方法、装置、设备和计算机存储介质 |
US10726301B2 (en) | 2017-06-29 | 2020-07-28 | The Procter & Gamble Company | Method for treating a surface |
CN110073301A (zh) * | 2017-08-02 | 2019-07-30 | 强力物联网投资组合2016有限公司 | 工业物联网中具有大数据集的数据收集环境下的检测方法和系统 |
GB2567850B (en) | 2017-10-26 | 2020-11-04 | Gb Gas Holdings Ltd | Determining operating state from complex sensor data |
GB2569794A (en) * | 2017-12-21 | 2019-07-03 | Yoti Holding Ltd | Biometric user authentication |
CA3084815A1 (en) | 2017-12-28 | 2019-07-04 | Colgate-Palmolive Company | Oral hygiene systems |
CN111742327B (zh) * | 2018-02-19 | 2024-05-28 | 博朗有限公司 | 用于实施可移动处理装置的定位的设备和方法 |
CN108451155B (zh) | 2018-04-13 | 2020-09-08 | 深圳市力博得科技有限公司 | 智能牙刷的控制电路、智能牙刷及刷牙行为的监控方法 |
WO2021262955A1 (en) | 2020-06-24 | 2021-12-30 | Edgewell Personal Care Brands, Llc | Machine learning for a personal care device |
-
2019
- 2019-02-15 CN CN201980014214.5A patent/CN111742327B/zh active Active
- 2019-02-15 US US16/276,993 patent/US12056208B2/en active Active
- 2019-02-15 EP EP19157585.1A patent/EP3528171B1/en active Active
- 2019-02-15 KR KR1020207023040A patent/KR102555432B1/ko active IP Right Grant
- 2019-02-15 JP JP2020543273A patent/JP7402165B2/ja active Active
- 2019-02-15 CN CN201980014210.7A patent/CN111771208B/zh active Active
- 2019-02-15 US US16/276,947 patent/US11755686B2/en active Active
- 2019-02-15 US US16/277,024 patent/US20190254796A1/en active Pending
- 2019-02-15 WO PCT/IB2019/051247 patent/WO2019159127A1/en active Application Filing
- 2019-02-15 JP JP2020543384A patent/JP7203856B2/ja active Active
- 2019-02-15 JP JP2020543144A patent/JP7190496B2/ja active Active
- 2019-02-15 US US16/276,972 patent/US12045710B2/en active Active
- 2019-02-15 CN CN201980014213.0A patent/CN111771209B/zh active Active
- 2019-02-15 WO PCT/IB2019/051249 patent/WO2019159129A2/en active Application Filing
- 2019-02-15 EP EP19157587.7A patent/EP3528172B1/en active Active
- 2019-02-15 WO PCT/IB2019/051248 patent/WO2019159128A2/en active Application Filing
- 2019-02-15 JP JP2020543228A patent/JP7221291B2/ja active Active
- 2019-02-15 EP EP19157582.8A patent/EP3528170B1/en active Active
- 2019-02-15 CN CN201980014221.5A patent/CN111742328B/zh active Active
- 2019-02-15 ES ES19157587T patent/ES2971724T3/es active Active
- 2019-02-15 WO PCT/IB2019/051250 patent/WO2019159130A2/en active Application Filing
- 2019-02-15 KR KR1020207023050A patent/KR102613604B1/ko active IP Right Grant
-
2022
- 2022-09-30 JP JP2022158618A patent/JP2023017766A/ja active Pending
-
2023
- 2023-06-28 US US18/215,248 patent/US12033057B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009240759A (ja) | 2008-03-14 | 2009-10-22 | Omron Healthcare Co Ltd | 電動歯ブラシ |
US20170069083A1 (en) | 2015-09-08 | 2017-03-09 | Braun Gmbh | Determination of a currently treated body portion of a user |
Also Published As
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7203856B2 (ja) | 手持ち式消費者装置の使用を分類するためのシステム | |
AU2021236443B8 (en) | Oral hygiene systems and methods | |
CN109803558A (zh) | 智能牙刷 | |
Min et al. | Activity recognition based on wearable sensors using selection/fusion hybrid ensemble | |
CN109788845A (zh) | 智能牙刷 | |
Wu et al. | Anticipating daily intention using on-wrist motion triggered sensing | |
CN109862807A (zh) | 智能牙刷 | |
Wilson et al. | Domain Adaptation Under Behavioral and Temporal Shifts for Natural Time Series Mobile Activity Recognition | |
Lee et al. | Recognizing multi-modal sensor signals using evolutionary learning of dynamic Bayesian networks | |
US20240282145A1 (en) | Emotion acquisition device, emotion acquisition method, and storage medium | |
JP7336688B2 (ja) | 歯ブラシシステム、および歯ブラシシステム用プログラム | |
CN114652079B (zh) | 口腔卫生系统 | |
EP3528166B1 (en) | Apparatus and method for classifying a motion of a movable personal appliance | |
Goel et al. | A Review on Time Series Learning-Based Human Action Recognition | |
WO2023242042A1 (en) | A location sensing system for a personal care or health device | |
WO2024099846A1 (en) | Personal care device | |
Noor et al. | Comparative Techniques Using Hierarchical Modelling and Machine Learning for Procedure Recognition in Smart Hospitals | |
Martins | Development of techniques for haptic exploration and recognition of objects: a contribution to autonomous robotic hands |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200813 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210930 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20211005 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211221 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20220520 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220908 |
|
C60 | Trial request (containing other claim documents, opposition documents) |
Free format text: JAPANESE INTERMEDIATE CODE: C60 Effective date: 20220908 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20220916 |
|
C21 | Notice of transfer of a case for reconsideration by examiners before appeal proceedings |
Free format text: JAPANESE INTERMEDIATE CODE: C21 Effective date: 20220920 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20221202 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20221227 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7203856 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |