CN113168909A - 用于操作个人梳理器具或家用清洁器具的设备和方法 - Google Patents
用于操作个人梳理器具或家用清洁器具的设备和方法 Download PDFInfo
- Publication number
- CN113168909A CN113168909A CN201980079548.0A CN201980079548A CN113168909A CN 113168909 A CN113168909 A CN 113168909A CN 201980079548 A CN201980079548 A CN 201980079548A CN 113168909 A CN113168909 A CN 113168909A
- Authority
- CN
- China
- Prior art keywords
- user
- classification
- appliance
- sensors
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 116
- 238000004140 cleaning Methods 0.000 title claims abstract description 37
- 230000003370 grooming effect Effects 0.000 title description 104
- 230000001133 acceleration Effects 0.000 claims abstract description 14
- 238000011282 treatment Methods 0.000 claims description 83
- 238000012545 processing Methods 0.000 claims description 80
- 238000010801 machine learning Methods 0.000 claims description 24
- 238000012876 topography Methods 0.000 claims description 8
- 238000012423 maintenance Methods 0.000 claims description 4
- 230000033001 locomotion Effects 0.000 description 238
- 238000013528 artificial neural network Methods 0.000 description 84
- 238000013527 convolutional neural network Methods 0.000 description 77
- 230000001537 neural effect Effects 0.000 description 65
- 238000012549 training Methods 0.000 description 52
- 210000004513 dentition Anatomy 0.000 description 49
- 230000036346 tooth eruption Effects 0.000 description 49
- 230000001680 brushing effect Effects 0.000 description 35
- 230000008569 process Effects 0.000 description 30
- 238000013507 mapping Methods 0.000 description 28
- 238000004458 analytical method Methods 0.000 description 27
- 238000011156 evaluation Methods 0.000 description 20
- 238000010586 diagram Methods 0.000 description 19
- 238000003909 pattern recognition Methods 0.000 description 19
- 230000000875 corresponding effect Effects 0.000 description 14
- 238000001514 detection method Methods 0.000 description 12
- 210000003128 head Anatomy 0.000 description 11
- 230000008859 change Effects 0.000 description 10
- 238000013135 deep learning Methods 0.000 description 10
- 210000000214 mouth Anatomy 0.000 description 10
- 238000005070 sampling Methods 0.000 description 9
- 238000007781 pre-processing Methods 0.000 description 8
- 230000009471 action Effects 0.000 description 7
- 230000001815 facial effect Effects 0.000 description 7
- 230000003993 interaction Effects 0.000 description 7
- 238000004381 surface treatment Methods 0.000 description 7
- 238000007621 cluster analysis Methods 0.000 description 6
- 230000000694 effects Effects 0.000 description 6
- 230000007613 environmental effect Effects 0.000 description 6
- 230000015654 memory Effects 0.000 description 6
- 230000000007 visual effect Effects 0.000 description 6
- 239000002537 cosmetic Substances 0.000 description 5
- 230000006870 function Effects 0.000 description 5
- 230000000306 recurrent effect Effects 0.000 description 5
- 239000007787 solid Substances 0.000 description 5
- 210000002105 tongue Anatomy 0.000 description 5
- 238000011269 treatment regimen Methods 0.000 description 5
- 238000013473 artificial intelligence Methods 0.000 description 4
- 230000008901 benefit Effects 0.000 description 4
- 210000004027 cell Anatomy 0.000 description 4
- 208000007565 gingivitis Diseases 0.000 description 4
- 238000005259 measurement Methods 0.000 description 4
- 230000007246 mechanism Effects 0.000 description 4
- 230000004048 modification Effects 0.000 description 4
- 238000012986 modification Methods 0.000 description 4
- 238000002203 pretreatment Methods 0.000 description 4
- 230000002441 reversible effect Effects 0.000 description 4
- 241000628997 Flos Species 0.000 description 3
- 230000004913 activation Effects 0.000 description 3
- 210000003484 anatomy Anatomy 0.000 description 3
- 238000004422 calculation algorithm Methods 0.000 description 3
- 239000003086 colorant Substances 0.000 description 3
- 238000004891 communication Methods 0.000 description 3
- 230000001186 cumulative effect Effects 0.000 description 3
- 238000013500 data storage Methods 0.000 description 3
- 230000008451 emotion Effects 0.000 description 3
- 230000003779 hair growth Effects 0.000 description 3
- 238000011221 initial treatment Methods 0.000 description 3
- 230000004807 localization Effects 0.000 description 3
- 238000010606 normalization Methods 0.000 description 3
- 238000012805 post-processing Methods 0.000 description 3
- 238000003672 processing method Methods 0.000 description 3
- 230000011218 segmentation Effects 0.000 description 3
- 230000035945 sensitivity Effects 0.000 description 3
- 239000003826 tablet Substances 0.000 description 3
- 239000000606 toothpaste Substances 0.000 description 3
- 229940034610 toothpaste Drugs 0.000 description 3
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 3
- 208000002874 Acne Vulgaris Diseases 0.000 description 2
- 206010000496 acne Diseases 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 238000009960 carding Methods 0.000 description 2
- 230000001413 cellular effect Effects 0.000 description 2
- 210000001520 comb Anatomy 0.000 description 2
- 238000013434 data augmentation Methods 0.000 description 2
- 238000003745 diagnosis Methods 0.000 description 2
- 230000008034 disappearance Effects 0.000 description 2
- 230000006397 emotional response Effects 0.000 description 2
- 239000004744 fabric Substances 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 210000004283 incisor Anatomy 0.000 description 2
- 238000007689 inspection Methods 0.000 description 2
- 239000000314 lubricant Substances 0.000 description 2
- 238000002156 mixing Methods 0.000 description 2
- 239000000203 mixture Substances 0.000 description 2
- 230000036651 mood Effects 0.000 description 2
- 230000006855 networking Effects 0.000 description 2
- 210000002569 neuron Anatomy 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000003860 storage Methods 0.000 description 2
- 230000036339 tooth positioning Effects 0.000 description 2
- 210000000857 visual cortex Anatomy 0.000 description 2
- 206010016717 Fistula Diseases 0.000 description 1
- 206010016818 Fluorosis Diseases 0.000 description 1
- 208000032843 Hemorrhage Diseases 0.000 description 1
- 238000012356 Product development Methods 0.000 description 1
- 244000007853 Sarothamnus scoparius Species 0.000 description 1
- 241000347389 Serranus cabrilla Species 0.000 description 1
- 238000005299 abrasion Methods 0.000 description 1
- 230000004931 aggregating effect Effects 0.000 description 1
- 208000002399 aphthous stomatitis Diseases 0.000 description 1
- 239000012237 artificial material Substances 0.000 description 1
- 230000003796 beauty Effects 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 208000034158 bleeding Diseases 0.000 description 1
- 230000000740 bleeding effect Effects 0.000 description 1
- 239000000919 ceramic Substances 0.000 description 1
- 230000003749 cleanliness Effects 0.000 description 1
- 238000004883 computer application Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 238000007405 data analysis Methods 0.000 description 1
- 238000003066 decision tree Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000005115 demineralization Methods 0.000 description 1
- 230000002328 demineralizing effect Effects 0.000 description 1
- 208000002925 dental caries Diseases 0.000 description 1
- 208000004042 dental fluorosis Diseases 0.000 description 1
- 239000004053 dental implant Substances 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000002845 discoloration Methods 0.000 description 1
- 201000010099 disease Diseases 0.000 description 1
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 238000003708 edge detection Methods 0.000 description 1
- 230000005611 electricity Effects 0.000 description 1
- 230000004424 eye movement Effects 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000003890 fistula Effects 0.000 description 1
- 239000012530 fluid Substances 0.000 description 1
- 239000006260 foam Substances 0.000 description 1
- 239000011888 foil Substances 0.000 description 1
- 201000005562 gingival recession Diseases 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 230000012010 growth Effects 0.000 description 1
- 230000003760 hair shine Effects 0.000 description 1
- 230000036541 health Effects 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 239000010985 leather Substances 0.000 description 1
- 230000003902 lesion Effects 0.000 description 1
- 208000002741 leukoplakia Diseases 0.000 description 1
- 238000007477 logistic regression Methods 0.000 description 1
- 230000007787 long-term memory Effects 0.000 description 1
- 238000005461 lubrication Methods 0.000 description 1
- 230000014759 maintenance of location Effects 0.000 description 1
- 238000012067 mathematical method Methods 0.000 description 1
- 239000002324 mouth wash Substances 0.000 description 1
- 229940051866 mouthwash Drugs 0.000 description 1
- 210000004877 mucosa Anatomy 0.000 description 1
- 210000004400 mucous membrane Anatomy 0.000 description 1
- 210000005036 nerve Anatomy 0.000 description 1
- 238000010397 one-hybrid screening Methods 0.000 description 1
- 238000011369 optimal treatment Methods 0.000 description 1
- 230000005019 pattern of movement Effects 0.000 description 1
- 201000001245 periodontitis Diseases 0.000 description 1
- 238000000053 physical method Methods 0.000 description 1
- 239000004033 plastic Substances 0.000 description 1
- 238000005498 polishing Methods 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
- 230000002250 progressing effect Effects 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
- 230000010349 pulsation Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 238000012552 review Methods 0.000 description 1
- 230000036555 skin type Effects 0.000 description 1
- 239000004984 smart glass Substances 0.000 description 1
- 239000000243 solution Substances 0.000 description 1
- 238000007619 statistical method Methods 0.000 description 1
- 230000000638 stimulation Effects 0.000 description 1
- 239000004575 stone Substances 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
- 230000000153 supplemental effect Effects 0.000 description 1
- 230000003746 surface roughness Effects 0.000 description 1
- 230000002459 sustained effect Effects 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 230000009625 temporal interaction Effects 0.000 description 1
- 230000036962 time dependent Effects 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
- 238000010200 validation analysis Methods 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B26—HAND CUTTING TOOLS; CUTTING; SEVERING
- B26B—HAND-HELD CUTTING TOOLS NOT OTHERWISE PROVIDED FOR
- B26B21/00—Razors of the open or knife type; Safety razors or other shaving implements of the planing type; Hair-trimming devices involving a razor-blade; Equipment therefor
- B26B21/40—Details or accessories
- B26B21/4081—Shaving methods; Usage or wear indication; Testing methods
- B26B21/4087—Usage or wear indication
-
- A—HUMAN NECESSITIES
- A47—FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
- A47L—DOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
- A47L9/00—Details or accessories of suction cleaners, e.g. mechanical means for controlling the suction or for effecting pulsating action; Storing devices specially adapted to suction cleaners or parts thereof; Carrying-vehicles specially adapted for suction cleaners
- A47L9/28—Installation of the electric equipment, e.g. adaptation or attachment to the suction cleaner; Controlling suction cleaners by electric means
- A47L9/2805—Parameters or conditions being sensed
- A47L9/2826—Parameters or conditions being sensed the condition of the floor
-
- A—HUMAN NECESSITIES
- A45—HAND OR TRAVELLING ARTICLES
- A45D—HAIRDRESSING OR SHAVING EQUIPMENT; EQUIPMENT FOR COSMETICS OR COSMETIC TREATMENTS, e.g. FOR MANICURING OR PEDICURING
- A45D44/00—Other cosmetic or toiletry articles, e.g. for hairdressers' rooms
- A45D44/005—Other cosmetic or toiletry articles, e.g. for hairdressers' rooms for selecting or displaying personal cosmetic colours or hairstyle
-
- A—HUMAN NECESSITIES
- A46—BRUSHWARE
- A46B—BRUSHES
- A46B13/00—Brushes with driven brush bodies or carriers
- A46B13/02—Brushes with driven brush bodies or carriers power-driven carriers
-
- A—HUMAN NECESSITIES
- A46—BRUSHWARE
- A46B—BRUSHES
- A46B15/00—Other brushes; Brushes with additional arrangements
- A46B15/0002—Arrangements for enhancing monitoring or controlling the brushing process
-
- A—HUMAN NECESSITIES
- A46—BRUSHWARE
- A46B—BRUSHES
- A46B15/00—Other brushes; Brushes with additional arrangements
- A46B15/0002—Arrangements for enhancing monitoring or controlling the brushing process
- A46B15/0004—Arrangements for enhancing monitoring or controlling the brushing process with a controlling means
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/0059—Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
- A61B5/0077—Devices for viewing the surface of the body, e.g. camera, magnifying lens
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/0059—Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
- A61B5/0082—Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence adapted for particular medical purposes
- A61B5/0088—Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence adapted for particular medical purposes for oral or dental tissue
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B26—HAND CUTTING TOOLS; CUTTING; SEVERING
- B26B—HAND-HELD CUTTING TOOLS NOT OTHERWISE PROVIDED FOR
- B26B21/00—Razors of the open or knife type; Safety razors or other shaving implements of the planing type; Hair-trimming devices involving a razor-blade; Equipment therefor
- B26B21/40—Details or accessories
- B26B21/405—Electric features; Charging; Computing devices
- B26B21/4056—Sensors or controlling means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B26—HAND CUTTING TOOLS; CUTTING; SEVERING
- B26B—HAND-HELD CUTTING TOOLS NOT OTHERWISE PROVIDED FOR
- B26B21/00—Razors of the open or knife type; Safety razors or other shaving implements of the planing type; Hair-trimming devices involving a razor-blade; Equipment therefor
- B26B21/40—Details or accessories
- B26B21/4081—Shaving methods; Usage or wear indication; Testing methods
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B13/00—Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion
- G05B13/02—Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric
- G05B13/0265—Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric the criterion being a learning criterion
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B15/00—Systems controlled by a computer
- G05B15/02—Systems controlled by a computer electric
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/243—Classification techniques relating to the number of classes
- G06F18/2431—Multiple classes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/04—Inference or reasoning models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/06—Buying, selling or leasing transactions
- G06Q30/0601—Electronic shopping [e-shopping]
- G06Q30/0631—Item recommendations
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B19/00—Teaching not covered by other main groups of this subclass
- G09B19/0076—Body hygiene; Dressing; Knot tying
- G09B19/0084—Dental hygiene
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H20/00—ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
- G16H20/40—ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to mechanical, radiation or invasive therapies, e.g. surgery, laser therapy, dialysis or acupuncture
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H40/00—ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
- G16H40/60—ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
- G16H40/63—ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for local operation
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/20—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
-
- A—HUMAN NECESSITIES
- A45—HAND OR TRAVELLING ARTICLES
- A45D—HAIRDRESSING OR SHAVING EQUIPMENT; EQUIPMENT FOR COSMETICS OR COSMETIC TREATMENTS, e.g. FOR MANICURING OR PEDICURING
- A45D44/00—Other cosmetic or toiletry articles, e.g. for hairdressers' rooms
- A45D2044/007—Devices for determining the condition of hair or skin or for selecting the appropriate cosmetic or hair treatment
-
- A—HUMAN NECESSITIES
- A46—BRUSHWARE
- A46B—BRUSHES
- A46B2200/00—Brushes characterized by their functions, uses or applications
- A46B2200/10—For human or animal care
- A46B2200/1046—Brush used for applying cosmetics
-
- A—HUMAN NECESSITIES
- A46—BRUSHWARE
- A46B—BRUSHES
- A46B2200/00—Brushes characterized by their functions, uses or applications
- A46B2200/10—For human or animal care
- A46B2200/1066—Toothbrush for cleaning the teeth or dentures
-
- A—HUMAN NECESSITIES
- A47—FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
- A47L—DOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
- A47L2201/00—Robotic cleaning machines, i.e. with automatic control of the travelling movement or the cleaning operation
- A47L2201/04—Automatic control of the travelling movement; Automatic obstacle detection
-
- A—HUMAN NECESSITIES
- A47—FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
- A47L—DOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
- A47L2201/00—Robotic cleaning machines, i.e. with automatic control of the travelling movement or the cleaning operation
- A47L2201/06—Control of the cleaning action for autonomous devices; Automatic detection of the surface condition before, during or after cleaning
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61C—DENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
- A61C17/00—Devices for cleaning, polishing, rinsing or drying teeth, teeth cavities or prostheses; Saliva removers; Dental appliances for receiving spittle
- A61C17/16—Power-driven cleaning or polishing devices
- A61C17/22—Power-driven cleaning or polishing devices with brushes, cushions, cups, or the like
- A61C17/221—Control arrangements therefor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/217—Validation; Performance evaluation; Active pattern learning techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30036—Dental; Teeth
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30088—Skin; Dermal
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
- G06T2207/30201—Face
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Business, Economics & Management (AREA)
- Medical Informatics (AREA)
- Data Mining & Analysis (AREA)
- Public Health (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Evolutionary Computation (AREA)
- Biomedical Technology (AREA)
- Epidemiology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Mechanical Engineering (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Finance (AREA)
- Accounting & Taxation (AREA)
- Forests & Forestry (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Pathology (AREA)
- Surgery (AREA)
- Automation & Control Theory (AREA)
- General Business, Economics & Management (AREA)
- Primary Health Care (AREA)
- Heart & Thoracic Surgery (AREA)
- Animal Behavior & Ethology (AREA)
- Veterinary Medicine (AREA)
- Marketing (AREA)
- Economics (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Entrepreneurship & Innovation (AREA)
- Educational Administration (AREA)
Abstract
一种用于操作家用清洁器具的系统和方法,包括:提供家用清洁器具,所述家用清洁器具包括:电动且电控的清洁工具,和至少一个物理传感器,所述至少一个物理传感器选自由以下项组成的组:取向传感器、加速度传感器、惯性传感器、全球定位传感器、压力传感器、负载传感器、音频传感器、湿度传感器和温度传感器;提供与所述家用清洁器具相关联的相机;使用对所述物理传感器数据和所述图像数据进行分类的一个或多个分类器导出增强分类;以及基于所述增强分类修改所述清洁工具的操作。
Description
背景技术
需要一种“智能”梳理或家用器具及相关联的系统利用内部传感器数据和图像数据的组合的使用来改善用户与梳理或家用器具相关的体验的能力。
发明内容
本公开的第一方面提供了用于操作个人梳理/家用器具的系统和方法,包括:提供个人梳理/家用器具,该个人梳理/家用器具包括(a)电动且电控的梳理/清洁工具,和(b)至少一个物理传感器,该至少一个物理传感器选自由以下项组成的组:取向传感器、加速度传感器、惯性传感器、全球定位传感器、压力传感器、负载传感器、音频传感器、磁传感器、湿度传感器和温度传感器;提供与该个人梳理/家用器具相关联的相机;使用对该物理传感器数据和该图像数据进行分类的一个或多个分类器导出增强分类;以及基于该增强分类修改该梳理/家用器具或工具的操作。
在一个详细的实施方案中,相机位于个人梳理/家用器具上。
另选地或除此之外,个人梳理/家用器具还包括通过计算机网络发送和接收数据的计算机网络接口,并且相机位于计算机化装置上,该计算机化装置包括至少通过计算机网络发送图像数据的计算机网络接口。在另一个详细的实施方案中,操作修改步骤还基于由至少部分地在计算机化装置上操作的软件应用程序实施的处理方案。在另一个详细的实施方案中,针对梳理器具的用户定制处理方案。另选地或除此之外,根据处理方案协调增强分类以确定相对于处理方案的处理进展。另选地或除此之外,增强分类至少部分地用于建立处理方案。
在第一方面的另一个详细的实施方案中,导出增强分类的步骤由单个分类器实施。另选地,该方法包括使用受过训练的机器学习分类器对从物理传感器接收的传感器数据进行分类以生成物理分类;以及使用受过训练的机器学习分类器对从相机接收的图像数据进行分类以生成图像分类;其中导出增强分类的步骤基于物理分类和图像分类的组合。
在第一方面的另一个详细的实施方案中,器具为牙科器具;梳理工具为刷子、流体喷嘴和/或牙线洁齿带;并且增强分类涉及梳理工具相对于用户口部的位置。在另一个详细的实施方案中,当增强分类指示梳理工具处于用户口部之外时,修改操作步骤停用梳理工具。另选地或除此之外,梳理工具为电动刷,并且修改操作基于梳理工具相对于用户口部的位置来调节刷速度设定,如至少部分地由增强分类所指示的那样。
在第一方面的另一个详细的实施方案中,增强分类至少部分地涉及是否正在实施梳理/清洁工具,并且修改操作的步骤基于正在实施梳理/清洁工具的时间量来更新维护设置。
在第一方面的另一个详细的实施方案中,增强分类至少部分地涉及梳理工具相对于用户身体部位的位置,并且修改操作的步骤至少部分地基于梳理工具相对于用户的身体部位的位置修改梳理工具的操作,如至少部分地由增强分类所指示的那样。在另一个详细的实施方案中,梳理工具为牙科器具,并且梳理工具为电动刷;并且修改操作的步骤基于梳理工具相对于用户口部的位置来调节电动刷的速度设定,如至少部分地由增强分类所指示的那样。另选地,梳理工具为剃刮器具,并且梳理工具为机动化剃刮头部;并且修改操作的步骤基于梳理工具相对于用户面部的位置来调节剃刮头部的速度设定,如至少部分地由增强分类所指示的那样。另选地,梳理工具为剃刮器具,并且梳理工具为剃刮刀片架;并且修改操作的步骤基于梳理工具相对于用户面部的位置来调节剃刮刀片架的迎角设定,如至少部分地由增强分类所指示的那样。另选地,修改操作的步骤基于梳理工具相对于用户的身体部位的位置来调节梳理工具的压敏度设定,如至少部分地由增强分类所指示的那样。
另选地,增强分类还包括用户的身体部位的表面状况;并且修改操作的步骤基于梳理工具相对于用户面部的位置处的表面状况来调节梳理工具的性能设定,如至少部分地由增强分类所指示的那样。在另一个详细的实施方案中,梳理器具为牙科器具,并且表面状况至少部分地涉及用户牙齿上牙斑的存在。另选地,梳理器具为剃刮器具,并且表面状况至少部分地涉及用户面部上晶须的存在。
在第一方面的另一个详细的实施方案中,增强分类至少部分地涉及清洁工具相对于家用目标表面的位置,并且修改操作的步骤至少部分地基于清洁工具相对于家用目标表面的位置修改清洁工具的操作,如至少部分地由增强分类所指示的那样。
在第一方面的另一个详细的实施方案中,增强分类检测梳理/家用器具的用户的身份标识,并且修改操作步骤应用针对所识别的用户定制的操作设定。
本公开的第二方面提供了一种用于操作个人梳理器具的系统和方法,包括:提供个人梳理/家用器具,该个人梳理/家用器具包括至少一个物理传感器,该至少一个物理传感器选自由以下项组成的组:取向传感器、加速度传感器、惯性传感器、全球定位传感器、压力传感器和负载传感器、音频传感器、湿度传感器和温度传感器;提供与该个人梳理/家用器具相关联的相机;使用至少一个受过训练的机器学习分类器对从该物理传感器和从该相机接收的数据进行分类以生成增强分类;以及基于该增强分类提供用户反馈信息;其中该增强分类涉及关于梳理/家用器具相对于用户的身体部位或家用目标表面的位置的第一状态的组合,并且还涉及不同于该第一状态的第二状态。在一个实施方案中,第二状态涉及用户的身份标识。在一个另选实施方案中,第二状态涉及梳理器具的身份标识。
在一个实施方案中,第二状态涉及用户的身体部位的表面状况。在另一个详细的实施方案中,用户的身体部位为用户的牙齿,并且表面状况涉及患者牙齿上牙斑的存在。另选地,表面状况是用户的身体部位上晶须或硬茬的存在。另选地或除此之外,第一状态还涉及个人梳理器具的移动方向。在另一个详细的实施方案中,第二状态是从来自相机的图像数据导出的图像分类。在又一个详细的实施方案中,图像分类至少部分地涉及正在使用的剃刮润滑剂的身份标识。另选地或除此之外,第二状态是从物理传感器导出的笔划压力分类。
在一个实施方案中,第二状态是从来自相机的图像数据导出的图像分类。在另一个详细的实施方案中,图像分类涉及梳理器具的用户的情绪。在又一个详细的实施方案中,图像分类涉及梳理器具的用户的负面情绪,并且反馈信息提供用于改善用户对梳理器具的体验的建议。
在一个实施方案中,图像分类涉及预处理或后处理状况中的至少一者。在另一个详细的实施方案中,图像分类涉及预处理状况,并且反馈信息基于预处理状况和梳理/家用器具的位置的组合来提供处理说明。
在一个实施方案中,图像分类涉及与进行梳理/家用清洁的梳理/家用器具一起使用的对象的身份标识。在另一个详细的实施方案中,反馈信息包括与对象相关的营销信息(例如,优惠券、促销、广告等)。
在一个实施方案中,反馈信息包括与图像分类相关的营销信息。在一个详细的实施方案中,图像分类涉及用户的皮肤状况,并且反馈信息包括用于处理皮肤状况的推荐产品。在另一个详细的实施方案中,反馈信息还包括使用梳理器具的产品应用技术。
在一个实施方案中,图像分类涉及用户的身体部位的状况,并且反馈信息包括对待应用于身体部位的产品连同使用梳理器具的产品应用技术的推荐。
在一个实施方案中,第二状态涉及梳理/家用器具的运动。另选地或除此之外,生成增强分类的步骤由单个分类器实施。
本公开的第三方面提供了一种用于操作个人梳理器具的系统和方法,包括:提供个人梳理器具,该个人梳理器具包括选自由以下项组成的组的至少一个运动传感器:取向传感器、加速度传感器和惯性传感器;提供与该个人梳理器具相关联的相机;使用至少一个受过训练的机器学习分类器对从该运动传感器和从该相机接收的数据进行分类以生成增强分类;以及基于该增强分类提供用户反馈信息;其中该增强分类涉及关于梳理器具相对于用户的身体部位的位置的第一状态的组合,并且还涉及不同于第一分类的第二状态。在另一个详细的实施方案中,第二状态涉及用户的身份标识。另选地,第二状态涉及梳理器具的身份标识。另选地或除此之外,第二状态涉及用户的身体部位的表面状况。另选地或除此之外,第一状态还涉及个人梳理器具的移动方向。
在一个实施方案中,第二状态是从来自相机的图像数据导出的图像分类。在另一个详细的实施方案中,图像分类涉及梳理器具的用户的情绪。另选地,图像分类涉及预处理或后处理状况中的至少一者。在另一个详细的实施方案中,图像分类涉及预处理状况,并且反馈信息基于预处理状况和梳理器具的位置的组合来提供处理说明。
本公开的第四方面提供了一种用于操作个人梳理器具的系统和/或方法,包括:提供与个人梳理器具相关联的相机或与个人梳理器具相关联的生物传感器中的至少一者;提供个人梳理器具,该个人梳理器具具有至少一个运动传感器诸如取向传感器、加速度传感器和/或惯性传感器;使用第一学习网络分类器对从所述相机接收的图像数据或从所述生物传感器接收的生物传感器数据中的至少一者进行分类,以对用户的身体结构的表面的表面状况进行分类,从而生成初始表面状况分类;基于所述初始表面状况分类生成用户处理信息并将所述用户处理信息传送给所述用户;使用第二学习网络分类器来对从该运动传感器接收的运动数据进行分类以对该个人梳理器具相对于该用户的身体结构的该表面的运动进行分类以生成关系运动分类或关系位置分类中的至少一者;基于后续表面状况分类并基于所述至少一个关系运动分类或关系位置分类生成用户处理进展信息;以及将该用户处理进展信息传送给该用户。
在一个实施方案中,个人梳理器具还包括通过计算机网络发送和接收数据的计算机网络接口;并且相机位于计算机化装置上,该计算机化装置包括至少通过计算机网络发送图像数据的计算机网络接口。在另一个详细的实施方案中,该方法还包括基于用户处理进展信息来修改梳理器具的操作的步骤。另选地或除此之外,基于表面状况分类生成用户处理信息的步骤包括至少部分地基于表面状况信息生成处理方案。在另一个详细的实施方案中,处理方案由至少部分地在计算机化装置上操作的软件应用程序来实施。在另一个详细的实施方案中,针对梳理器具的用户定制处理方案。另选地或除此之外,根据处理方案协调用户处理进展信息以确定相对于处理方案的处理进展。另选地或除此之外,该方法还包括至少部分地基于用户处理进展信息修改处理方案的步骤。在一个实施方案中,修改步骤在确定初始表面状况分类不正确的步骤之后。在一个实施方案中,该方法还包括将修改的处理方案传送给用户的步骤。
本公开的第五方面是提供一种用于操作个人梳理器具的系统和/或方法,包括:提供计算机化装置,该计算机化装置包括相机和网络接口,该网络接口通过计算机网络从相机发送图像数据;提供个人梳理器具,该个人梳理器具包括(a)取向传感器、加速度传感器、惯性传感器、压力传感器和/或负载传感器,和(b)通过计算机网络发送和接收数据的计算机网络接口;提供至少部分地在计算机化装置上操作的软件应用程序;使用一个或多个学习网络分类器对从相机接收的图像数据进行分类以生成图像分类;至少部分地基于图像分类生成处理方案;基于软件应用程序可访问的用户信息来定制处理方案;由软件应用程序实施定制的处理方案的至少一部分;使用一个或多个学习网络分类器来对从该至少一个传感器接收的传感器数据进行分类以相对于用户的身体结构的表面对个人梳理器具的使用进行分类,从而生成关系梳理器具使用分类;以及基于关系梳理器具使用分类生成用户处理方案进展信息并将该用户处理方案进展信息传送给该用户。
在另一个详细的实施方案中,对图像数据进行分类的步骤包括鉴别用户的身体结构。另选地或除此之外,生成关系梳理器具使用分类的步骤基于对图像数据和传感器数据的组合进行分类。另选地或除此之外,该方法还包括基于关系梳理器具使用分类修改梳理器具的操作的步骤。另选地或除此之外,根据处理方案协调用户处理进展信息以确定相对于处理方案的处理进展。另选地或除此之外,软件应用程序可访问的用户信息包括由软件应用程序收集的用户配置文件信息。另选地或除此之外,软件应用程序可访问的用户信息包括从关系梳理器具使用分类导出的信息。另选地或除此之外,该方法还包括基于用户如何操作梳理器具来训练该一个或多个学习网络分类器的步骤。另选地或除此之外,该方法还包括基于由软件应用程序收集的用户信息来训练该一个或多个学习网络分类器的步骤,其中可由软件应用程序收集的用户信息至少部分地基于用户与软件应用程序的交互。
本公开的第六方面是提供一种用于处理用户的身体部位的表面的方法,包括:使用一个或多个状况传感器诸如光学传感器和/或生物传感器从用户的身体部位表面获得目标表面状况信息;使用机器学习分类器对该目标表面状况信息进行分类以确定初始目标表面状况分类;使用运动传感器数据和来自该一个或多个状况传感器的表面状况信息的组合来获得处理进展信息;以及使用机器学习分类器对该处理进展信息进行分类,以确定用于处理初始目标表面状况分类的进展分类。
在第六方面的更详细的实施方案中,该一个或多个状况传感器设置在检查器械或梳理器具中的至少一者上。另选地或除此之外,该方法还包括显示处理进展信息的表示。在一个实施方案中,所显示的表示是延时表示;或者,在另一个实施方案中,所显示的表示是实时表示。
在第六方面的更详细的实施方案中,该方法包括至少部分地基于处理进展分类修改处理系统的设定。在另一个详细的实施方案中,修改步骤在处理系统正在处理用户的身体部位表面时基本上实时发生。在另一个详细的实施方案中,该一个或多个状况传感器设置在处理系统的处理器械上。在又一个详细的实施方案中,处理器械为口腔护理器械。
在第六方面的更详细的实施方案中,该方法包括基于目标表面状况分类修改处理系统的设定。另选地或除此之外,该方法还包括基于连续的目标表面状况分类来评估用户的身体部位表面状况随时间的变化。另选地或除此之外,进展分类指示初始目标表面状况分类不正确。在这种情况下,该方法还可包括基于初始处理分类生成初始处理方案,以及在确定初始目标表面状况分类不正确时修改初始处理方案。
通过以下描述、所附权利要求和附图,本公开的这些和其他方面以及目的将变得显而易见。
附图说明
在下文中,结合附图更详细地描述本公开的实施方案,其中
图1示出了根据本公开的一个实施方案的设备的示意性框图,
图2示出了待使用可移动处理装置处理的目标表面的一个示例,
图3示出了待使用可移动处理装置处理的目标表面的另一个示例,
图4示出了可用于本文所公开实施方案中的递归神经网络的示意性框图,
图5示出了可用于本文所公开实施方案中的GRU神经网络的示意性框图,
图6A示出了可用于本文所公开实施方案中的LSTM神经网络的示意性框图,
图6B示出了在不同时间例的具有一层的LSTM神经网络的示意性框图,
图7示出了在不同时间例的具有两层的LSTM神经网络的示意性框图,
图8示出了根据本公开的一个实施方案的方法的框图,
图9示出了根据本公开的一个实施方案的设备的示意性框图,
图10示出了根据本公开的另一个实施方案的设备的示意性框图,
图11示出了根据本公开的另一个实施方案的设备的示意性框图,
图12示出了根据本公开的一个实施方案的方法的框图,
图13是根据本公开的一个实施方案的联网系统的框图表示,
图14是根据本公开的一个实施方案的决策树的流程图表示,
图15是根据本公开的一个实施方案的利用增强或混合机器学习分类的联网系统的框图表示,并且
图16是根据本公开的一个实施方案的利用增强或混合机器学习分类的另选联网系统的框图表示。
具体实施方式
具有相等或等同功能的相等或等同的元件或元件可在以下描述中用相等或等同的附图标号表示。然而,基于该实施方案,类似或等同的元件也可由不同的附图标号表示。
下文中,将提及个人梳理器具和/或家用器具作为“可移动处理装置”的非限制性示例。例如,个人梳理器具可包括剃刮器具(手动剃刀、电动剃刀、修剪器、脱毛器、基于化学品的毛发移除等)、牙科器具(手动牙刷、电动牙刷、抛光机、喷水器、超声器具、牙线洁齿器具等)、涤气器(剥脱刷等)、化妆品施用装置以及毛发定型器具(毛发刷、修剪器/切割器、电吹风、直发器、卷发夹等)。此类梳理器具也可具有某些医学和/或牙齿检查/诊断/处理用途,并且将在本文中描述。在这些示例中,待处理的表面是用户身体结构的一部分,诸如用户的牙齿、面部、腿部等。另外,家用器具可包括表面清洁器、抛光机、压力清洗器、地板清洁器、真空清洁器、窗户清洁器等。在这些示例中,待处理的表面可以是家用表面,诸如地板、墙壁、台面、水槽、窗户、镜子、车辆表面等。
此外,方法的任何方法步骤的次序可仅作为非限制性示例描述。因此,除非明确地指明以特定次序实施,否则如本文所述的任何方法步骤也可以除所述之外的任何其他次序实施。
尽管一些方面将以设备或装置为背景进行说明,但是应当理解,这些方面也表示对相应方法所作的说明,其中一个方框或装置对应于一个方法步骤或方法步骤的特征。类似地,以方法或方法步骤为背景来描述的方面也表示对相应设备或装置的相应方框或项或特征所作的说明。
图1示出了根据一个示例性实施方案的设备或系统10。描绘了可移动处理装置11。可移动处理装置11可包括惯性传感器13。此外,可移动处理装置11可被配置成处理目标表面12。如下文将描述的,相机22也可与装置11相关联(如下文将描述的,相机是“相关联的”,因为相机可被包括作为处理装置11的一部分,或者相机可与处理装置分开,诸如在手持式智能电话中或在智能显示器或镜子中—实质上,任何联网或无线连接的相机)。
如可以看到的,可移动处理装置11可定位在相对于目标表面12的某些位置处,例如,在目标表面12中、目标表面12处、目标表面12上或紧邻目标表面12。目标表面12本身可分为一个或多个区域211,212,213,…,21n。可移动处理装置11可在相对于所述区域211,212,213,…,21n中的至少一个区域的某个位置处移动或定位。
如图1中所描绘的,设备10可被配置成实施可移动处理装置11相对于目标表面12的定位。
设备10可包括运动模式识别装置14。运动模式识别装置14可被配置成区分包含在可移动处理装置11的运动模式集合15中的两个或更多个运动模式,诸如运动模式151、152、153、…、15n。换句话讲,可移动处理装置11可以例如由使用所述可移动处理装置11的使用者在不同的线性和/或转动方向上移动。据此,可移动处理装置11的每一运动可表示对应或单独的运动模式。运动模式识别装置14可包括不同运动模式的集合15。运动模式集合15可包括所述前述相应或单独运动模式151,152,153,…,15n中的两个或更多个运动模式。运动模式识别装置14可被配置成区分这两个或更多个运动模式151、152、153、…、15n。也就是说,运动模式识别装置14可被配置成区别第一运动模式151与第二运动模式152。
可移动处理装置11的移动可由至少一个惯性传感器13检测。惯性传感器13为基于惯性的传感器,并且可包括加速度计、陀螺仪及磁力计中的至少一者。惯性传感器13可提供表示线速度、角速度、线加速度、角加速度和重力中的至少一者的传感器数据。惯性传感器13可以为包括一个或多个惯性传感器的惯性测量单元的一部分。
设备10可包括接口16,该接口用于接收来自惯性传感器13的至少一个惯性传感器数据171,172,173,…,17n并且用于将至少一个惯性传感器数据171,172,173,…,17n提供到运动模式识别装置14。至少一个惯性传感器数据171,172,173,…,17n表示可移动处理装置11的移动。换句话讲,当可移动处理装置11移动时,惯性传感器13感测这一运动并生成至少一个惯性传感器数据171,172,173,…,17n。据此,至少一个惯性传感器数据171,172,173,…,17n表示移动的处理装置11的对应运动。
运动模式识别装置14可包括神经网络18。神经网络18可以是深度学习网络。神经网络18可被配置成接收至少一个惯性传感器数据171、172、173、…、17n,并且将至少一个惯性传感器数据171、172、173、…、17n映射到包含在运动模式集合15中的运动模式151、152、153、…、15n中的至少一个运动模式。该映射在图1中借助于虚线和实线箭头191,192,193,194指示。以实线绘制的箭头193可示例性地指示,神经网络18成功地将至少一个惯性传感器数据171,172,173,…,17n映射到第三运动模式153。
包含在集合15中的不同运动模式151、152、153、…、15n由不同的几何形状(圆形、矩形、三角形、星形)示例性地符号化表示,仅用于例证目的。当然,可移动处理装置11的运动模式不限于这些特定几何形状。
根据本发明的原则,运动模式151、152、153、…、15n各自与目标表面12的一个或多个不同区域211、212、213、…、21n相关联。这借助于虚线和实线箭头201,202,203,…,20n指示。如可以看到的,第一运动模式151可与目标表面12的第一区域211相关联,如由虚线箭头201指示的。第二运动模式152可与目标表面12的第二区域212相关联,如由虚线箭头202指示的。第三运动模式153可与目标表面12的第三区域213相关联,如由以实线绘制的箭头203指示的。第四运动模式154可与目标表面12的第四区域214相关联,如由虚线箭头204指示的。
以实线绘制的箭头203可示例性地指示,第三运动模式153(至少一个惯性传感器数据171,172,173,…,17n被神经网络18成功地映射至这一运动模式)与目标表面12的第三区域213相关联。
据此,至少一个惯性传感器数据171、172、173、…、17n与至少一个运动模式151、152、153、…、15n的映射指示对可移动处理装置11相对于目标表面12的一个或多个区域211、212、213、…、21n的定位的评估。在本示例中,至少一个惯性传感器数据171,172,173,…,17n与第三运动模式153的映射指示对可移动处理装置11相对于目标表面12的第三区域213的定位的评估。
换句话讲,神经网络18将所接收的至少一个惯性传感器数据171,172,173,…,17n成功地映射到第三运动模式153。根据这一示例,由于第三运动模式153与第三区域213相关联,因此设备10检索可移动处理装置11定位在第三区域213的信息或可移动处理装置11至少在当生成至少一个惯性传感器数据171,172,173,…,17n时的时间被定位在第三区域213的信息。
因此,设备10可被配置成简单地借助于可移动处理装置11的执行运动或运动模式将所述可移动处理装置11相对于目标表面12进行定位。
根据一个实施方案,可移动处理装置11可以为个人梳理器具,并且目标表面12可以为待通过所述可移动处理装置11处理的身体部位。
例如,可移动处理装置11可以是剃刀或梳毛器,其用于对使用者身体的身体部位进行剃刮或梳毛。在这种情况下,用户的身体(或身体的部位)可以为目标表面12。使用者身体12可分为不同的区域,例如,左颊区域、右颊区域、下巴区域等。通过使用剃刀11执行预定的运动模式,设备10可将剃刀11相对于使用者身体定位。例如,如果剃刀11执行指向左上角的运动模式,其中剃刀11向左倾斜,则设备10可将剃刀11定位成例如定位在左颊区域中。据此,设备10可简单地通过剃刀11执行的运动模式将其定位在使用者的面部处。
另举一例,可移动处理装置11可以是家用器具,并且目标表面12可以是地板、墙壁、家具等的表面。例如,可移动处理装置11可以为真空吸尘器,并且目标表面12可以为房间的地板。房间12可分为不同的区域,例如,房间的左上角、房间的右下角、房间的中心、定位在房间内的床下等。通过使用真空吸尘器11执行预定的运动模式,设备10可将真空吸尘器11相对于房间的地板定位。例如,如果真空吸尘器11执行当真空吸尘器11的吸管被降低到接近地面时仅向前和向后的运动模式时,设备10可将真空吸尘器11定位成例如被定位在“床下”区域中。据此,设备10可简单地通过真空吸尘器11执行的运动模式将其在房间内定位。
根据另一个实施方案,可移动处理装置11可以是口腔护理装置,并且目标表面12可以为牙列,其中牙列12被分为不同的牙齿区域211、212、213、…、21n,其中至少一个惯性传感器数据171、172、173、…、17n与至少一个运动模式151、152、153、…、15n的映射指示对口腔护理装置11相对于牙列12的一个或多个牙齿区域211、212、213、…、21n的定位的评估。
口腔护理装置可为牙刷,具体地为电动牙刷。口腔护理装置也可为牙线、抛光机、牙斑去除装置、超声装置和喷水装置中的至少一者。在一些实施方案中,口腔护理装置也可为口腔检查装置。
根据这一示例,通过使用口腔护理装置11执行预定运动模式,设备10可将口腔护理装置11相对于牙列定位。例如,如果口腔护理装置11执行仅指向上和指向下的运动模式,其中口腔护理装置11向左倾斜,则设备10可将口腔护理装置11定位成例如定位在例如上颚的左上牙齿区域中。据此,设备10可简单地通过口腔护理装置11执行的运动模式将其相对于使用者的牙列定位。
根据一个实施方案,牙列可分为九个牙齿区域,其中第一牙齿区域对应于上颚和下颚牙列的左颊面,第二牙齿区域对应于左侧和右侧上颚牙列的咬合面,第三区域对应于左侧和右侧下颚牙列的咬合面,第四牙齿区域对应于上颚和下颚牙列的左舌面,第五牙齿区域对应于上颚和下颚牙列的右颊面,第六牙齿区域对应于上颚和下颚牙列的右舌面,第七牙齿区域对应于上颚和下颚牙列的唇面,第八牙齿区域对应于上颚牙列的颚面,第九牙齿区域对应于前下颚牙列的口腔面。
根据另一个实施方案,可附加地包含在运动模式集合15中的至少一个预定运动模式15NB可与目标表面12外部的区域21NB相关联或与目标表面12无关,其中至少一个惯性传感器数据171、172、173、…、17n与至少一个预定运动模式15NB的映射指示可移动处理装置11被定位在目标表面12外部的所述区域21NB中或与目标表面12无关。
换句话讲,目标表面12外部的区域21NB可以为不直接与目标表面12有关的区域。例如,如果可移动处理装置11可以为牙刷,则目标表面12外部的所述区域21NB可以为牙列外部的区域。据此,这一区域21NB可指示用户没有在刷牙。因此,这一区域也可称为“没有在刷牙”区域,简称“NB”。这一区域21NB可以为目标表面12的至少一个区域,或这一区域21NB可以为除目标表面的一个或多个区域211、212、213、…、21n以外的附加区域。然而,目标表面12外部的这一具体区域21NB不限于上述刷牙的示例。
图2示出了用于例证上述示例的牙列12。牙列12可以为目标表面。牙列12可分为九个牙齿区域1a至9a。任选地,可存在第十区域NB。这一第十区域NB为牙列12外部的区域。因此,这一第十区域NB未在图2中明确例证。由于这一第十区域NB与牙列12的牙齿区域之一无关,并且因此不涉及刷洗牙列12的牙齿,这一第十区域NB也可称为“没有在刷牙”区域。
如图2中可见,第一牙齿区域1a可对应于上颚和下颚牙列12的左颊面。第二牙齿区域2a可对应于左侧和右侧上颚牙列12的咬合面。第三区域3a可对应于左侧和右侧下颚牙列12的咬合面。第四牙齿区域4a可对应于上颚和下颚牙列12的左舌面。第五牙齿区域5a可对应于上颚和下颚牙列12的右颊面。第六牙齿区域6a可对应于上颚和下颚牙列12的右舌面。第七牙齿区域7a可对应于上颚和下颚牙列12的唇面。第八牙齿区域8a可对应于上颚牙列12的颚面。第九牙齿区域9a可对应于前下颚牙列12的口腔面。
图3示出了用于例证另一示例的牙列12。牙列12可以为目标表面。牙列12可分为十六个牙齿区域1b至16b。任选地,可存在第十七区域NB。这一第十七区域NB为牙列12外部的区域。因此,这一第十七区域NB未在图3中明确例证。由于这一第十七区域NB与牙列12的牙齿区域之一无关,并且因此不涉及刷牙列12的牙齿,这一第十七区域NB也可称为“没有在刷牙”区域。
如图3中可见,第一牙齿区域1b可对应于上颚牙列12的左颊面。第二牙齿区域2b可对应于左侧上颚牙列12的咬合面。第三牙齿区域3b可对应于左侧下颚牙列12的咬合面。第四牙齿区域4b可对应于上颚和下颚牙列12的左舌面。第五牙齿区域5b可对应于上颚和下颚牙列12的右颊面。第六牙齿区域6b可对应于右侧上颚牙列12的咬合面。第七牙齿区域7b可对应于右侧下颚牙列12的咬合面。第八牙齿区域8b可对应于上颚牙列12的颚面。第九牙齿区域9b可对应于上颚牙列12的唇面。第十牙齿区域10b可对应于下颚牙列12的唇面。第十一牙齿区域11b可对应于上颚牙列12的颚面。第十二牙齿区域12b可对应于前下颚牙列12的口腔面。第十三牙齿区域13b可对应于下颚牙列12的左颊面。第十四牙齿区域14b可对应于下颚牙列12的左舌面。第十五牙齿区域15b可对应于下颚牙列12的右颊面。第十六牙齿区域16b可对应于下颚牙列12的右舌面。
图2和图3仅作为非限制性示例描述。目标表面12也可包括多于或少于示例性所述九个或十六个牙齿区域。此外,目标表面12外部的第十/第十七牙齿区域NB为任选的。牙列12的一个或多个牙齿区域的确切分布可从上述示例有所改变。
关于可移动处理装置相对于目标表面12的定位,设备10可以是自学习的。设备10可例如通过采用深度学习网络来利用人工智能。例如,设备10可利用人工智能和/或学习网络开发的分类器;此外,设备10(以及本文所述的系统)还可以教导此类分类器。据此,用于实施可移动处理装置11相对于目标表面12的定位的设备10可通过使用神经网络18随时间增强其性能。
根据一个实施方案,神经网络18可以为递归神经网络(RNN)。
例如,神经网络可以为长短时记忆(LSTM)网络或门控递归单元(GRU)网络。
RNN可能遭遇所谓的梯度消失问题,其中梯度随着层数的增加而快速消失。梯度消失可导致训练速度相当慢。因此,可使用LSTM网络和/或GRU网络以避免梯度消失问题。
LSTM网络是除了常规网络单元之外还包含LSTM区块的人工神经网络。LSTM区块包含门,该门确定何时输入足够显著以记住、何时应继续记住或何时应忘记该值以及何时应输出该值。
图4示出了处于其最一般形式的RNN的示例。可在某个时间点t将输入41馈入神经单元40中。输入41可以为单个值或包含两个或更多个值的向量。在某个时间点t的输入41也可用Xt来符号化表示。
神经单元40也可任选地包括另一输入42。这另一输入42可从前一时间点t-1的神经单元(这里未示出)提供。
神经单元40可包含至少一个门43,其可提供数学运算。在这一示例中,门43为单个tanh门。
神经单元40可包括至少一个输出46。输出46可包含已经被馈入输入41和任选地另一输入42的tanh门43的运算结果。输出46可导致隐含状态45,其将在后文解释。
神经单元40可任选地包含另一输出分支46,其自上述被馈入输入41和任选地另一输入42的tanh门43的运算输出结果分支出去。
在图4中,每条绘制线可携带从一个节点的输出到其他节点的输入的完整向量。线合并(例如在47处)表示关联,而线分叉(例如在48处)表示其成分被复制并且拷贝行进到不同的位置。这对于将在下文中参照以下附图描述的其他神经网络也适用。
图5示出了GRU网络的示例。GRU网络包括神经单元50。除了上述RNN神经单元40之外,GRU神经单元50可包括另外两个门,也就是第一sigmoid门53和第二sigmoid门54。此外,GRU神经单元50可包含点运算55、56、57、58、59,举例而言,如向量加法58。
图6A示出了LSTM网络的示例,其可用来作为设备10的神经网络18。LSTM可包括神经单元60,就LSTM网络而言,该神经单元也可被称为LSTM区块。除了上述神经单元40,50之外,所描绘LSTM网络的神经单元60可包括单元格状态,其为运行穿过神经单元60顶部的水平线61。神经单元60可接收单元格状态输入62,并且可生成单元格状态输出66。
神经单元60还可包括四个门43,53,54,63。例如,与上述GRU网络相比,它可包括另一个sigmoid门63。借助于这些门43,53,54,63,可将信息从单元格状态(水平线61)去除或加入到该单元格状态。
图6B示出了其中描绘了神经单元的前一状态和后续状态(相对于时间点t)的另一个示例。具体地,描绘了处于时间点t的神经单元60t。此外,描绘了处于前一时间点t-1的另一神经单元60t-1。再进一步,描绘了处于后续时间点t+1的另一神经单元60t+1。所描绘的神经单元60t-1、60t、60t+1可表示处于不同的时间点的相同神经单元,也就是处于时间点t、处于前一时间点t-1和处于后续时间点t+1。
上述输入41,也符号化为字母X,可包括来自惯性传感器13的至少一个传感器数据171,172,173,…,17n。输入X可以为时间依赖性的,因此X=X(t)。具体地,所描绘的输入Xt可包括在所考虑的时间点t期间获取的传感器数据172,所描绘的输入Xt-1可包括在前一时间点t-1期间获取的传感器数据171,并且所描绘的输入Xt+1可包括在后续时间点t+1期间获取的传感器数据173。
如还可从图6B中看到,神经单元60t-1、60t、60t+1可在各自所描绘的时间点t-1、t、t+1例如通过预测提供相应的输出值yt-1、yt、yt+1。输出值y(t)可以为单个值或包括一个或多个向量元素的向量。
输出值y(t)可计算为:
yt=softmax(Why·ht+b)
输出值y(t)可例如包括概率值,如将参照图7更详细解释的。例如,输出值y(t)可为包括一个或多个向量元素的向量,其中每个向量元素可表示运动模式151、152、153、…、15n中的一个运动模式,或更详细地其中每个向量元素可表示概率值,该概率值指示输入X(t)(即惯性传感器数据171、172、173、…、17n)可对应于运动模式151、152、153、…、15n中的一个运动模式的可能性如何。
此外,所描绘的神经单元60t-1、60t、60t+1可排列在相同层也就是第一层中。一些示例可包括一个或多个其他层,其中每一层可包括其自己的神经单元。此类示例可在后文中参照例如图7描述。然而,具有至少第一层的示例和实施方案将进一步参照图6B描述。
根据这一实施方案,神经网络18可包括第一层,其中所述第一层包括神经单元60t,其中在第一时间点t处,至少一个惯性传感器数据Xt 172被输入到第一层的神经单元60t中。在后续的第二时间点t+1处,第二惯性传感器数据Xt+1 173和前一第一时间点t的神经单元60t的至少一个输出ht 46被输入到第一层的神经单元60t+1中。
图7示出了另一示例,其中神经网络18可包括至少两层,也就是第一层71和第二层72。第一层71包括至少第一神经单元60t,并且第二层72包括至少第二神经单元70t。
如可以看到的,在不同时间例t-1、t、t+1期间获取的传感器数据171、172、173可作为输入Xt-1、Xt、Xt+1被馈入到第一层71的相应神经单元60t-1、60t、60t+1中。
第一层71的每个神经单元60t-1、60t、60t+1的输出46t-1、46t、46t+1可作为输入被馈入到第二层72的相应神经单元70t-1、70t、70t+1中。
第一层71的神经单元60t-1、60t、60t+1和第二层72的神经单元70t-1、70t、70t+1可以为相同的。另选地,第一层71的神经单元60t-1、60t、60t+1的内部结构和第二层72的神经单元70t-1、70t、70t+1可以彼此不同。
根据图7所示的实施方案,神经网络18可包括至少第一层71和第二层72,其中第一层71可包括第一神经单元60t并且其中第二层72可包括第二神经单元70t,其中在第一时间点t处,至少一个惯性传感器数据Xt 172被输入到第一层71的第一神经单元60t中,并且其中第一神经单元60t的输出ht 46被输入到第二层72的神经单元70t中。
到目前为止,已经描述了垂直方向的信号路径,即,从底部的第一层71到顶部的第二层72。然而,在图7的实施方案中也示出了水平方向上的信号路径。
如可以看到的,在第一时间点t处的第一神经单元60t的单元格状态输出Ct 66和/或在第一时间点t处的第一神经单元60t的输出ht 46可作为输入被再次馈入到第一神经单元60中,也就是被馈入到在后续时间点t+1的第一神经单元60t+1中。如上所述,神经单元60本身可以为相同的神经单元,但为了简便例证神经单元60在不同时间例t-1、t、t+1的状态起见,其在附图中可仅被描述为多个串联神经单元60t-1、60t、60t+1。换句话说,水平信号路径可描述神经单元60在不同的后续时间例t-1,t,t+1的信号路径。这对于第二层72和任何其他层也适用。
据此,所描绘的后续时间例t-1、t、t+1可表示长度77,在所述长度期间,神经网络18可采样并处理所获取的传感器数据171、172、173、…、17n。所述长度77可因此被称为运行长度、样本长度或采样周期。例如,采样长度77可对应于一秒,其中时间例t-1、5t、t+1可以为所述一秒的分数。例如,采样周期77可具有五十个样本即五十个时间例的长度。神经网络18可在采样周期内运行一次,或神经网络18可在两个或更多个采样周期内一直运行。
因此,根据另一个实施方案,神经网络18可包括至少第一层71和第二层72,其中第一层71可包括第一神经单元60t并且其中第二层72可包括第二神经单元70t,其中在第一时间点t处,至少一个惯性传感器数据Xt 172可被输入到第一层71的第一神经单元60t中,并且其中第一神经单元60t的至少一个输出ht 46可被输入到第二层72的神经单元70t中。到目前为止,它可与上述相同。然而,此外,在后续第二时间点t+1处,第二惯性传感器数据Xt+1 173和在第一时间点t处的第一神经单元60t的至少一个输出ht 46被输入到在后续第二时间点t+1的第一神经单元60t+1中。
如上所述,可通过神经网络18在门43、53、54、63中执行若干数学运算。在图7所示的示例中,可在不同阶段执行下述数学运算:
其中
·i(t)为输入门激活向量
·f(t)为遗忘门激活向量
·o(t)为输出门激活向量
·c(t)为单元格状态向量
·h(t)为LSTM区段或神经单元60,70的输出向量
此外,权重W(t)和偏置值b(t)描绘于图7中,其中在该示例中:
此外,输出向量y(t)可被计算为:
yt=softmax(Why·ht+b)
如上所述,输入惯性传感器数据Xt172可以为包含六个向量元素的元素向量例如,输入张量[Ax,Ay,Az,Gx,Gy,Gz]T。这些向量元素[Ax,Ay,Az,Gx,Gy,Gz]T也可称为惯性传感器数据部分。
根据一个实施方案,至少一个惯性传感器数据171可包含组的至少三个惯性传感器数据部分,所述组包括在x、y和z方向上的线速度,相对于x轴、y轴和z轴的角速度,在x、y和z方向上的线加速度,以及相对于x轴、y轴和z轴的角加速度。
换句话说,惯性传感器13可提供一个或多个时间例t-1、t、t+1的惯性传感器数据171、172、173、…、17n,其中惯性传感器数据171、172、173、…、17n可取决于可移动处理装置11在一个可观察的时间例t-1、t、t+1的当前取向和运动。每个惯性传感器数据171,172,173,…,17n可以为包括至少三个,或在其他示例中至少六个向量元素的向量,其中所述向量元素表示上述惯性传感器数据部分,其中所述惯性传感器数据部分的至少一个可以为零。
据此,惯性传感器数据171,172,173,…,17n(向量)(具体地传感器数据部分(向量元素))可表示,随着在包括一个或多个后续时间例t-1,t,t+1的采样周期77内采样,可移动处理装置11的当前运动模式。
根据图7中描绘的实施方案,至少一个惯性传感器数据172(向量)可包括一个或多个惯性传感器数据部分(向量元素),其中输入到第一时间点t的神经单元60t的输入是包括在所述第一时间点t期间检索的一个或多个惯性传感器数据部分的相应惯性传感器数据172。至少一个惯性传感器数据171,172,173,…,17n可在采样时间77期间被采样。
神经网络18可将已经在采样时间77期间被采样的至少一个采样的惯性传感器数据171,172,173,…,17n映射到包含在运动模式集合15中的至少一个运动模式151,152,153,…,15n,如最初参照图1描述的。在映射之后,所选择的一个运动模式可称为映射的运动模式。
换句话说,神经网络18可接收惯性传感器数据171、172、173、…、17n作为输入x(t),并且它可输出一个或多个概率值作为输出y(t)。如上所述,在图7所示的示例中,输出值y(t)也可以为包含例如至少三个、或至少六个、或至少十二个向量元素的元素向量。输出向量y(t)的每个向量元素可表示可能与类或区域211、212、213、…、21n相关联的运动模式151、152、153、…、15n的概率值。在一些实施方案中,输出值y(t)可为元素向量,该元素向量包括例如至少两个至尽可能多的所需类或区域,例如九个区域、十二个区域或十六个区域。
据此,输出向量y(t)可表示目标表面12的不同区域211、212、213、…、21n。例如,如果目标表面12可包括十二个区域(例如,十一个牙齿区域和第十二个“没有在刷牙”区域‘NB’),则元素输出向量y(t)可包括十二个向量元素,诸如图7的示例中所示,其中据此,每个向量元素可表示目标表面12的不同区域211,212,213,…,21n中的一个区域。
如前所提及,向量元素可表示概率值。这些概率值可表示目标表面12的不同区域211,212,213,…,21n中的每个区域的概率值。换句话讲,神经网络18可接收至少一个惯性传感器数据171、172、173、…、17n并将至少一个惯性传感器数据171、172、173、…、17n映射到至少一个运动模式151、152、153、…、15n,并且由于所述运动模式151、152、153、…、15n可各自与目标表面12的一个或多个不同区域211、212、213、…、21n相关联,因此概率值可指示所获取的至少一个惯性传感器数据171、172、173、…、17n可对应于目标表面12的不同区域211、212、213、…、21n中的一个区域的可能性如何。这被称为至少一个惯性传感器数据171、172、173、…、17n到运动模式151、152、153、…、15n中的至少一个运动模式的映射。
由于每个运动模式151、152、153、…、15n可与目标表面12的一个或多个不同区域211、212、213、…、21n相关联,因此至少一个惯性传感器数据171、172、173、…、17n与至少一个运动模式151、152、153、…、15n的映射指示对可移动处理装置11相对于目标表面12的一个或多个区域211、212、213、…、21n的定位的评估。例如,可以评估处理装置11的定位,因为与来自GPS的绝对值地理数据相比,本发明的定位检测可基于以上提及的概率值。
换句话讲,设备10可通过简单地接收传感器数据171、172、173、…、17n并将所述传感器数据171、172、173、…、17n映射到与目标表面12的一个或多个区域211、212、213、…、21n相关联的运动模式151、152、153、…、15n,从神经网络18推导出可移动处理装置11被定位在目标表面12的哪个区域211、212、213、…、21n内的评估。
因此,根据一个实施方案,神经网络18的输出y(t)可包括一个或多个概率值,这些概率值用于对可移动处理装置11相对于目标表面12的一个或多个区域211、212、213、…、21n的定位的评估。
根据另一个实施方案,运动模式识别装置14可被配置成由至少一个惯性传感器数据171、172、173、…、17n确定可移动处理装置11和目标表面12的相互移动,并且从可移动处理装置11的所确定移动中移除目标表面12的所确定移动。
例如,可移动处理装置11可以为牙刷,并且目标表面12可以为使用者的牙列。使用者可能在刷牙时转动头部。在这种情况下,惯性传感器13将感测使用者的头部和牙刷的相互移动,因为牙刷与头部一起移动。这可导致错误的运动检测,因此导致错误的映射,并且最终导致基于映射的错误定位。
然而,根据上述实施方案,可从感测到的头部和牙刷的相互移动中移除感测到的或确定的使用者头部(目标表面)12的移动。因此,仅保留牙刷(处理装置)11的期望移动。如下文将进一步详述的,用户头部(目标表面)12的这种移动可由与设备10相关联的相机检测,其中相机的图像和/或视频输出可由神经网络18(或由单独的学习网络)进行分类。
图8示出了用于实施将可移动处理装置11相对于目标表面12定位的方法示例的框图,其中可移动处理装置11包括惯性传感器13,并且其中可移动处理装置11被配置成处理目标表面12。
在方框801中,方法包括区分包含在可移动处理装置11的运动模式集合15中的两个或更多个运动模式151,152,153,…,15n的步骤。
在方框802中,方法包括接收来自惯性传感器13的至少一个惯性传感器数据171、172、173、…、17n的步骤,至少一个惯性传感器数据171、172、173、…、17n表示可移动处理装置11的移动。
在方框803中,方法包括借助于神经网络18接收并处理至少一个惯性传感器数据171、172、173、…、17n并且将至少一个惯性传感器数据171、172、173、…、17n映射到/分类为包含在运动模式集合15中的至少一个运动模式151、152、153、…、15n的步骤,其中包含在运动模式集合15中的所述运动模式151、152、153、…、15n各自与目标表面12的一个或多个不同区域211、212、213、…、21n相关联,使得至少一个惯性传感器数据171、172、173、…、17n与至少一个运动模式151、152、153、…、15n的映射/分类指示对可移动处理装置11相对于目标表面12的一个或多个区域211、212、213、…、21n的定位的评估。
图9示出了根据本公开的另一个示例性设备100。设备100可类似于上述设备10。此外,相对于设备10的上述全部特征与下述设备100组合,反之亦然。
设备100可不同于设备10(参阅图1),其中运动模式151、152、153、…、15n可映射到/分类成不同类101、102、103、104的一个或多个类成员101A、101B、…、104A、104B而不是目标表面12的不同区域211、212、213、…、21n。
因此,设备100被配置用于对可移动个人器具11(在本文中也称为可移动处理装置11)的运动进行分类,该可移动个人器具包括惯性传感器13。设备100包括运动模式识别装置14,该运动模式识别装置被配置成区分包含在可移动个人器具11的运动模式集合15中的两个或更多个运动模式151、152、153、…、15n。
此外,设备100包括接口16,该接口用于将来自惯性传感器13的至少一个惯性传感器数据171,172,173,…,17n提供到运动模式识别装置14,其中至少一个惯性传感器数据171,172,173,…,17n表示可移动个人器具11的运动。
运动模式识别装置14包括神经网络18,该神经网络被配置成接收至少一个惯性传感器数据171、172、173、…、17n并且将至少一个惯性传感器数据171、172、173、…、17n映射到/分类为包含在运动模式集合15中的至少一个运动模式151、152、153、…、15n,其中至少一个映射的运动模式151、152、153、…、15n与一个或多个类101、102、103、104的至少一个类成员101A、101B、102A、102B、103A、103B、104A、104B相关联,使得至少一个类成员101A、101B、…、104A、104B基于可移动个人器具11的运动来选择。
换句话讲,神经网络18可例如以前文参考图1至图8所述的方式将至少一个惯性传感器数据171、172、173、…、17n映射到/分类为至少一个运动模式151、152、153、…、15n。由于映射的运动模式151、152、153、…、15n可各自与一个或多个类101、102、103、104的至少一个类成员101A、101B、…、104A、104B相关联,因此至少一个类成员101A、101B、…、104A、104B可基于可移动个人器具11的至少一个映射的运动模式151、152、153、…、15n,即基于可移动个人器具11的运动来选择。
图9的非限制性示例示出了四个类101、102、103、104,其中每个类包括两个类成员101A、101B、…、nA、nB。然而,可存在至少一个类,并且每个类可包括至少两个类成员。也可存在超过两个类或甚至超过示例性描绘的四个类。
如在图9的示例中可以看到,第一映射的/分类的运动模式151可与第一类101的类成员101A相关联。第n个映射的/分类的运动模式154可与第四类104的类成员nB相关联。第二映射的/分类的运动模式152可与不同类的两个类成员相关联,例如与第一类101的类成员101B相关联并且与第二类102的类成员102A相关联。第三映射的/分类的运动模式153可与相同类的两个类成员相关联,例如与第三类的两个类成员103A、103B相关联。
通常,至少一个映射的/分类的运动模式151、152、153、…、15n可与一个或多个类101、102、103、104的至少一个类成员101A、101B、102A、102B、103A、103B、104A、104B相关联。
下文中,将描述类和类成员的一些示例。
根据一个实施方案,一个或多个类101、102、103、104中的至少一个类101可包括至少一个类成员101A,其中所述一个类101可表示用户组,并且其中所述至少一个类成员101A可表示所述用户组的至少一个用户,其中至少一个映射的运动模式151、152、153、…、15n可与至少一个类成员101A相关联,以用于基于可移动个人器具11的运动来鉴别所述至少一个用户。
换句话讲,类101,102,103,104中的一个类可表示使用者组,即,一组使用可移动个人器具11的使用者。相对应的类可包括至少一个类成员,该至少一个类成员可表示所述使用者组的一个具体使用者。例如,第一类101可表示使用者组,其中所述使用者组可以是单个家庭。在这一示例中,使用者组101可仅含有一个类成员101A,即,一个人。本发明的设备100可被配置成简单地基于可移动个人器具11的运动来鉴别所述至少一个使用者101A。因此,本发明的设备100可关于所述一个被鉴别的使用者101A将任何动作或互动个人化,如后文中将使用一些示例描述的。
根据另一个实施方案,一个或多个类101、102、103、104中的至少一个类101可包括至少两个类成员101A、101B,其中所述一个类101可表示用户组,并且其中所述至少两个类成员101A、101B可表示所述用户组的至少两个用户,其中至少一个映射的运动模式151、152、153、…、15n可与所述至少两个类成员101A、101B中的一个类成员相关联,以用于基于可移动个人器具11的运动来鉴别用户组中的至少一个用户。
换句话讲,类101,102,103,104中的一个类可表示使用者组,即,一组使用可移动个人器具11的使用者。相对应的类可包括至少一个类成员,该至少一个类成员可表示所述使用者组的一个具体使用者。例如,第一类101可表示使用者组,其中所述使用者组可以是家庭。所述类101的类成员101A,101B可表示家庭成员。例如,使用者组101可包括一个或多个家庭成员,例如其中第一类成员101A可表示家庭中的母亲,并且第二类成员101B可表示家庭中的孩子。
设备100可被配置成简单地基于可移动个人器具11的运动来鉴别至少一个用户。如果每个用户可以不同的或单独的方式使用1个可移动个人器具11,则可实现这一点。
例如,在可移动个人器具11可以是可移动口腔护理装置诸如牙刷具体地电动牙刷的实施方案中。可移动口腔护理装置也可以为牙线、牙斑去除装置、超声装置和喷水装置中的至少一者。
举上面的示例,母亲101A可以不同于孩子101B的方式使用牙刷11。牙刷11的惯性传感器13可将其惯性传感器数据171,172,173,…,17n提供到包括神经网络18的运动模式识别装置14。神经网络18可将惯性传感器数据171、172、173、…、17n映射到/分类为至少一个运动模式151、152、153、…、15n。
例如,如图9所示,母亲可具有对应于第一运动模式151的刷牙风格。这一运动模式151可与表示母亲的类成员101A相关联。而孩子可具有不同于母亲的刷牙风格,例如,对应于第二运动模式152的刷牙风格。这一运动模式152可与表示孩子的类成员101B相关联。
因此,设备100可简单地基于可移动个人器具11的运动来鉴别用户组中的用户。如上所述,本发明设备100可将任何动作或互动关于所鉴别的使用者个人化。
根据一个实施方案,运动模式识别装置14可被配置成基于鉴别所述至少一个使用者101A的步骤来选择特定于使用者的运动模式预设集合115,该运动模式预设集合包括可移动个人器具11的两个或更多个特定于使用者的运动模式1151,1152,1153,…,115n,这些运动模式是所述被鉴别的至少一个使用者101A的特征。
此类示例示于图10中。该实施方案也可被称为两步法。在第一步121中,鉴别了使用者。所鉴别的使用者可具有已经由神经网络18单独训练的特定于使用者的运动模式预设集合115。在第二步骤122中,神经网络18使用来自特定于用户的运动模式预设集合115的特定于用户的运动模式1151、1152、1153、…、115n。因此,本发明设备100然后可单独动作并且可与每个被鉴别的用户互动。
在图10中示出了第一步骤121,其中神经网络18接收至少一个惯性传感器数据171、172、173、…、17n并将该至少一个惯性传感器数据映射到包含在运动模式集合15中的运动模式151、152、153、…、15n中的至少一个运动模式。该至少一个映射的运动模式,例如第n个运动模式154可与第一类101的类成员101B相关联。这一过程可对应于上文参照图9所述的过程。
类101可为使用者组,并且类成员101B可为所述使用者组的使用者。举上面的例子,被鉴别的使用者101B可以为家庭中的孩子。设备100可能已经存储特定于使用者的运动模式。也就是说,被鉴别的用户,即孩子101B,可具有存储在设备100中的运动模式1151、1152、1153、…、115n的其自己的特定于个体用户的预设集合115。对于在第一步骤121中的鉴别之后的任何其他动作,运动模式识别装置14,并且具体地神经网络18,可使用属于先前鉴别的用户的这些特定于用户的运动模式1151、1152、1153、…、115n。
因此,神经网络18可在鉴别所述至少一个用户101B的步骤121之后选择至少一个特定于用户的运动模式预设集合115,该运动模式预设集合包括可移动个人器具11的两个或更多个特定于用户的运动模式1151、1152、1153、…、115n,该运动模式是所述被鉴别的至少一个用户101B的特征。
据此,在鉴别使用者的第一步121之后的第二步122中,神经网络18可使用特定于使用者的运动模式1151,1152,1153,…,115n的特定于使用者的预设集合115代替运动模式151,152,153,…,15n的集合15。也就是说,本文所述的可由设备10、100通过利用运动模式151、152、153、…、15n的集合15而执行的全部动作也可由设备10、100通过利用特定于用户的运动模式1151、1152、1153、…、115n的预设集合115代替运动模式151、152、153、…、15n的集合15而关于每个被鉴别的用户个体化地或个人化地执行。
因此,根据一个实施方案,神经网络18可被配置成,在鉴别所述至少一个用户101B的第一步骤121之后,将运动模式集合15替换为所选择的特定于用户的运动模式预设集合115,并且将包含在运动模式集合15中的两个或更多个运动模式151、152、153、…、15n替换为包含在特定于用户的运动模式预设集合115中的两个或更多个特定于用户的运动模式1151、1152、1153、…、115n。
此外或另选地,设备100可包括至少两个神经网络。图11示出了这样一个示例。
图11的设备100的示例可基本上对应于图10中示出示例的设备100。图11的设备与图10的设备的不同之处在于,图11的设备可包括第二神经网络182。
如在图11中可以看到,在第一步骤121中,第一神经网络181可执行上述动作,例如,鉴别用户组101中的用户101B。然而,在第二步骤122中,可将惯性传感器数据171、172、173、…、17n馈入到所述第二神经网络182中。第二神经网络182可使用如上所述的特定于用户的运动模式1151、1152、1153、…、115n的预设集合115。
换句话讲,在鉴别所述至少一个用户101B的第一步骤121之后,运动模式识别装置14可使用第二神经网络182,其中第二神经网络182可被配置成接收至少一个惯性传感器数据171、172、173、…、17n并且将至少一个惯性传感器数据171、172、173、…、17n映射到包含在特定于用户的运动模式预设集合115中的至少一个特定于用户的运动模式1151、1152、1153、…、115n,其中所述特定于用户的运动模式1151、1152、1153、…、115n各自与一个或多个类101、…、104的至少一个类成员102A、102B相关联,使得至少一个类成员102A、102B是基于可移动个人器具11的运动选择的。换句话讲,神经网络18可以是特定于使用者训练的神经网络。
据此,运动模式识别装置14可被配置成,使用特定于用户的运动模式1151、1152、1153、…、115n的特定于用户的预设集合115,借助于至少一个惯性传感器数据171、172、173、…、17n将个人器具11的运动进行特定于用户地分类。
如图10和图11的示例中所示,设备100可包括用于将目标物在第二步122中分类的至少一个类102。然而,在第二步122中,设备100可包括超过一个类,如图9的示例中所示。
在所述第二步122中,例如,已经在第一步121中鉴别具体使用者之后,可通过个人器具11实施不同的动作。例如,个人器具11可基于所鉴别的使用者而改变其操作模式。例如,个人器具11可以为电驱动的并且可包括马达(参见图15和图16),其中个人器具11可基于所鉴别的用户改变一个或多个特定于马达的特征,诸如频率、振幅或脉动。此外或另选地,个人器具11可包括一个或多个用于与使用者通讯或向使用者提供反馈的元件,例如,视觉元件诸如灯例如LED,或触觉元件诸如振动马达。例如,通过改变所述用于通讯的元件的运算模式,例如通过基于所鉴别的使用者将LED灯变为不同颜色或通过使用振动马达提供不同的脉冲反馈,个人器具11可基于所鉴别的使用者改变使用者体验。
此外或另选地,为了鉴别使用者组中的具体使用者,例如家庭中的家庭成员,设备100可被配置成鉴别具体使用者类型。例如,如果个人器具11为牙刷,一些人从他们的门牙或门齿开始刷牙,而另一些人从后牙或臼齿开始刷牙。在另一示例中,如果个人器具为剃刀,一些人可能沿纹理剃刮,而另一些人可能逆纹理剃刮。总结使用者类型可以为以具体方式使用个人器具11的使用者的类型。可能有两个或更多个使用者可被归类到使用者类型组中。前述的使用者鉴别的示例反而个体地鉴别了每个使用者。
根据用于鉴别用户类型的一个实施方案,一个或多个类101、102、103、104中的至少一个类104可包括至少两个类成员nA、nB,其中所述一个类104可表示可移动个人器具11的用户类型,其中第一类成员nA可表示可移动个人器具11的第一用户类型并且其中第二类成员nB可表示可移动个人器具11的第二用户类型,其中至少一个映射的运动模式151、152、153、…、15n可与第一类成员nA或第二类成员nB相关联,以用于基于可移动个人器具11的运动来鉴别可移动个人器具11的用户类型。
根据另一个实施方案,运动模式识别装置14可被配置成在鉴别所述用户类型的步骤后选择特定于用户类型的运动模式预设集合115,该预设集合包括可移动个人器具11的两个或更多个特定于用户类型的运动模式1151、1152、1153、…、115n,这些运动模式是所述被鉴别的用户类型的特征,并且其中神经网络18可被配置成在鉴别所述用户类型的步骤后将运动模式集合15替换为所选择的特定于用户类型的运动模式预设集合115并且将包含在运动模式集合15中的两个或更多个运动模式151、152、153、…、15n替换为两个或更多个特定于用户类型的运动模式1151、1152、1153、…、115n。
上文关于特定于使用者的运动模式1151,1152,1153,…,115n的特定于使用者的预设集合115所解释的一切对于特定于使用者类型的运动模式1151,1152,1153,…,115n的特定于使用者类型的预设集合115也适用。
如上所述,被鉴别的使用者类型可归类为一类或一组使用者类型。因此,设备100可实施聚类分析,其中使用者可在这一使用者被归类为具体使用者类型组之前使用个人器具11预定次数。例如,使用者可在连续五天内使用其剃刀五次。五天中有四天使用者可逆纹理剃刮。因此,在第五天之后,设备100可将这一使用者归类为一个使用者类型组,在所述组中聚集了全部逆纹理剃刮的使用者。
聚类分析也可以较短的时间间隔实施,即可以直接连续地打开和关闭牙刷11。例如,使用者可第一次启动其电动牙刷11,关掉,第二次打开它以再次重启牙刷11。在重启牙刷11时,本发明设备100,具体地,神经网络18,也可被重启。当牙刷11被启动时,它可采集用于聚类分析的信息。然而,每一次在用于聚类分析的信息被采集之前,至少神经网络18应该重启。总之,在最终将使用者归类为具体使用者类型组之前,设备100可重复地(例如,五次)实施聚类分析。
在已经将使用者归类为具体特定于使用者类型的组之后,神经网络18可使用被关联的特定于使用者类型的运动模式1151,1152,1153,…,115n的特定于使用者类型的预设集合115。
根据这样一个实施方案,运动模式识别装置14可被配置成重复地实施预定次数的聚类分析,其中在每一所述聚类分析中,神经网络18可被配置成重启并且在重启之后实施接收至少一个惯性传感器数据171、172、173、…、17n并将至少一个惯性传感器数据171、172、173、…、17n映射到包含在运动模式集合15中的至少一个运动模式151、152、153、…、15n的步骤,并且其中神经网络18可被配置成在实施预定次数的聚类分析之后选择特定于使用者类型的运动模式预设集合115。
本发明的设备100可提供甚至更多方案用于对可移动个人器具11的运动进行分类。因此,应再次参照图9。
根据一个实施方案,一个或多个类101、102、103、104中的至少一个类102可包括至少两个类成员102A、102B,其中所述一个类102可表示对可移动个人器具11的处置评估,其中第一类成员102A可表示对可移动个人器具11的正确处置,并且其中第二类成员102B可表示对可移动个人器具11的错误处置,其中至少一个映射的运动模式151、152、153、…、15n可与第一类成员102A或第二类成员102B相关联,以用于基于可移动个人器具11的运动评估可移动个人器具11的处置。
换句话讲,设备100可被配置成检查可移动个人器具11的使用者是否可以正确地使用可移动个人器具11。当然,在上述图10和图11的两步过程中,例如,在鉴别使用者和/或使用者类型之后,所述表示处置评估的一个类102也可作为类用于第二步122中。
根据另一个实施方案,一个或多个类101、102、103、104中的至少一个类103可包括至少两个类成员103A、103B,其中所述一个类103可表示可移动个人器具11的运动执行质量,其中第一类成员103A可表示可移动个人器具11的运动执行良好,并且其中第二类成员103B可表示可移动个人器具11的运动执行差,其中至少一个映射的运动模式151、152、153、…、15n可与第一类成员103A或第二类成员103B相关联,以用于基于可移动个人器具11的运动评估可移动个人器具11的运动执行质量。
换句话讲,设备100可被配置成检查可移动个人器具11的使用者是否可以良好的方式或以差的方式使用可移动个人器具11。良好的方式可以为按预期实施可移动个人器具的运动的方式,而差的方式可以为未按预期实施可移动个人器具11的运动的方式。例如,如果个人器具11为牙刷,则设备可检查使用者是否可具有良好或差的刷牙技术。
当然,在上述图10和图11的两步过程中,例如,在鉴别使用者和/或使用者类型之后,所述表示运动实施质量的一个类103也可作为类用于第二步122中。
设备100的另一个实施方案可类似于如参照图1至图8所述的设备10。
根据这样一个实施方案,一个或多个类101、102、103、104中的至少一个类104可包括至少两个类成员nA、nB,其中所述一个类104可表示可移动个人器具11相对于目标表面12的定位,其中第一类成员nA可表示可移动个人器具11相对于目标表面12的第一定位区域211,并且其中第二类成员nB可表示可移动个人器具11相对于目标表面12的第二定位区域212,其中至少一个映射的运动模式151、152、153、…、15n可与第一类成员nA和第二类成员nB中的至少一者相关联,以用于基于可移动个人器具11的运动将可移动个人器具11定位在第一定位区域211和第二定位区域212中的至少一者中。
换句话讲,一个类104可表示目标表面12。所述一个类104的类成员nA、nB可表示所述目标表面12的不同区域211、212。据此,可移动个人器具11相对于目标表面12的定位可由设备10以与上文参考图1至图8的设备10所述相同或至少类似的方式来执行。
当然,在上述图10和图11的两步过程中,例如,在鉴别使用者和/或使用者类型之后,所述表示可移动个人器具11相对于目标表面12的定位的一个类104也可作为类用于第二步122中。
根据一个实施方案,一个或多个类101、102、103、104中的至少一个类101可包括至少一个类成员101A,其中所述一个类101可表示器具类型(例如,剃刮器具、牙科器具、扫帚),并且其中所述至少一个类成员101A可表示器具类型组中的至少一种特定器具,其中至少一个映射的运动模式151、152、153、…、15n可与至少一个类成员101A相关联,以用于基于可移动个人器具11的运动来鉴别所述至少一种特定器具。
设备100的神经网络18可包括与已经参照图4至图7描述的设备10的神经网络18相同或相似的特征。因此,将再次简要参考图7。
根据一个实施方案,神经网络18可包括至少第一层71和第二层72,其中每个层可包括神经单元60、70,其中在第一时间点t处,至少一个惯性传感器数据Xt 172可被输入到第一层71的神经单元60中,并且其中在后续第二时间点t+1处,第二惯性传感器数据Xt+1173和先前第一时间点t的至少一个输出ht 46可被输入到第一层71的神经单元60中,并且/或者其中在后续第二时间点t+1处,第一时间点t的至少一个输出ht 46可被输入到第二层72的神经单元71中。
上文已经关于如图4至图7所示设备10的神经网络18的任何特征描述的一切对于如参照图9至图11描述的设备100的神经网络18也适用。
图12示出了本发明用于对包括惯性传感器13的可移动个人器具11的运动进行分类的方法的框图。
在方框1201中,方法包括区分包含在可移动个人器具11的运动模式集合15中的两个或更多个运动模式151,152,153,…,15n的步骤。
在方框1202中,方法包括将来自惯性传感器13的至少一个惯性传感器数据171、172、173、…、17n提供到运动模式识别装置14的步骤,至少一个惯性传感器数据171、172、173、…、17n表示可移动个人器具11的运动。
在方框1203中,方法包括借助于神经网络18接收并处理至少一个惯性传感器数据171、172、173、…、17n并将至少一个惯性传感器数据171、172、173、…、17n映射到包含在运动模式集合15中的至少一个运动模式151、152、153、…、15n的步骤,其中至少一个映射的运动模式151、152、153、…、15n与至少一个类101、102、103、104的至少一个类成员101A、101B、102A、102B、…、nA、nB相关联,使得至少一个类成员101A、101B、102A、102B、…、nA、nB是基于可移动个人器具11的运动来选择的。
根据设备10、100的又一个示例,可移动处理装置11可以为个人梳理器具,并且目标表面12可以为待通过可移动处理装置11处理的身体部位。
根据本发明的设备10,100的又一个示例,可移动处理装置11或可移动个人器具11可包括用于感测通过个人器具被施加到目标区域上的压力的压力传感器和/或用于感测可驱动个人器具的马达的马达负载的负载传感器。
除了至少一个惯性传感器数据171,172,173,…,17n之外或作为另一种选择,压力传感器和/或负载传感器的对应传感器数据也可作为输入被馈入到神经单元18中。
根据本发明的设备10的又一个示例,设备10可包括输出接口,以用于向使用者输出将可移动处理装置11定位在其中的目标表面12的一个或多个区域211、212、213、…、21n。
根据本发明的设备100的又一个示例,设备100可包括用于向使用者输出信息的输出接口,所述信息与一个或多个类101,102,103,104有关和/或与一个或多个类101,102,103,104的一个或多个类成员101A,101B,…,nA,nB有关。
在本文所述的实施方案中的每个实施方案中,传感器数据171,172,173,…,17n可存储在可移动个人器具或处理装置11上,并且晚些时候可以上述方式被馈入设备10,100中。这一存储的传感器数据171,172,173,…,17n到不同区域或类中的任何后处理可用来在仪表板上向消费者或使用者显示他们覆盖得多好或覆盖哪些区域、他们遗忘了什么、什么在目标内与目标外。这一数据可在每次使用时示出或随时间在使用后汇总(即,向消费者或使用者提供简单仪表板,显示他们在一周内是如何刷牙的)。
还可包括以下特征:
·注意机制(添加到RNN)
·前置过滤工作
·避免头部位置依赖性(查看线性加速度)
·针对用户ID的动态时间规整(指纹)
·局部高频采样和8位FFT以区分舌面和颊面(基于信号的颊阻尼—这将通过简单的装置上分类器,之后是原始信号+装置分类器到RNN中来完成)
·不仅训练位置预测器,而且训练“正确刷牙与否”
·进行聚类分析(在将用户分组之前让用户刷牙1-5次)以将用户放置在针对该类型的用户使用定制训练的RNN的限定空间中
图13公开了根据本公开的示例性联网器具系统1000。该联网器具系统包括梳理器具1003,该梳理器具在该示例中被示出为剃刀器具。但是该器具可为本文所公开的任何梳理器具、家用器具或处理装置11。在当前示例中,剃刀器具1003包括梳理工具,诸如可移除剃刀刀片架1006、剃刀柄部1002、内部电源1118、任选的多色LED显示器1050和任选的相机1082。
如上文和本文所述,剃刀器具1003可包括多个内部传感器,诸如与柄部1002和/或剃刀刀片架1006相关联的运动传感器、取向传感器、刀片架顶出传感器、新刀片架检测传感器和/或压力传感器。剃刮器具1003也可包括器具电路1052,该电路被连接以从包含在剃刀器具1003内的多个传感器接收(经由数据连接)传感器信号。在本实施方案中,网络器具系统1000还包括基站1301,其中基站包括用于接收并接合剃刀器具1003的柄部1002的座1056。在本实施方案中,基站1301可经由电线1058由电力供电,该电线可插入到标准电源插座中。座1056可包括适于与剃刀器具柄部1002上的对应电极(未示出)接合和/或配合的电极(也未示出)。通过此类电极,基站1301可提供功率以对剃刀器具1003中的电源(诸如可再充电电池)1118充电和/或可提供电连接以便将数据信号从剃刀柄部1002内的传感器电路1052传输到驻留在基站1301内的基站电路1060。亦在本公开的范围内的是,可通过如本领域已知的非连接的电容耦合或已知的用于将功率从第一电源无线地/非接触地传输到可再充电电源的任何其他无线机构来将功率从基站1052提供给剃刀的电源1118。亦在本公开的范围内的是,电源1118可为可移除的,诸如由基站1301之外的某物充电的一次性电池和/或可再充电电池。此外,在本公开的范围内,在剃刀1003和基站1301之间发送/接收的数据可经由无线数据连接,诸如蓝牙连接等。亦在本公开的范围内的是,如本文所述的基站1301的机构、电路和/或功能中的一些或全部可驻留在剃刀1003内。应当理解,虽然基站1301在该示例中被描述为与剃刀1003相关联,但类似的基站和基站功能也可与本文所公开的其他器具相关联。
在本实施方案中,基站1301包括基站电路1060,该基站电路包括处理器和对应的电路以用于接收传感器信号(和/或来源于传感器信号的信息)并且将传感器信号/信息转换成相关联的分析/映射/分类信息,如本文所述。在本实施方案中,基站电路1060还包括用于与计算机网络1062诸如蜂窝网络和/或互联网网络进行无线数据通信(例如,诸如蜂窝和/或WiFi连接)的网络电路。基站1301还可包括视觉显示器1064,诸如LCD显示器和/或如普通技术人员已知的类似的文本或图像显示装置,其中此类显示装置1064可由基站电路1060控制。基站1301还可包括也由基站电路1060控制的声音致动器1066,其中声音致动器1066可包括扬声器或类似的发声部件。
联网剃刮器具系统1000也包括计算机化且联网的用户界面装置1080。计算机化且联网的用户界面装置1080可以是智能电话、平板电脑、个人助理设备、膝上型或台式计算机、智能显示器、智能反射镜、计算机化可穿戴器具诸如智能手表或智能眼镜等的形式。计算机化且联网的用户界面装置1080可包括显示器1066和用户输入装置,诸如光标控制装置1068(或本领域易得的触摸屏或语音激活控件、或运动传感器、或眼移动传感器等)、相机1070和相关联的处理电路1072。计算机化且联网的用户界面装置1080可用于实施各种软件应用程序,诸如计算机化工具,该计算机化工具可为与器具11相关联的个人应用程序1073(参见图15和图16)的形式,如本文将进一步详细讨论的。在本实施方案中,应用程序1073是个人剃刮应用程序并且可包括图形用户界面1074,该图形用户界面可被显示在显示屏1066上并且可被控制和/或从其中接收来自用户输入装置诸如光标控制装置1068和/或触摸屏的用户输入。用户装置电路1072可包括用于与计算机网络1062无线连接以用于通过计算机网络1062接收和/或发送数据的网络电路。
同样如图13所示,计算机网络1062可具有也可访问其的各种计算机服务器和/或分布式计算装置(统称为1076),并且可另外包括通过数据连接操作地耦接到其的各种数据存储装置1077。例如,软件应用程序1073可包括在计算机服务器/装置1076中的一者或多者上和/或在装置电路1072上实施的操作。同样,与软件应用程序1073相关联的数据存储装置可在数据存储装置1077中的一者或多者内和/或在装置电路1072上。
在非常高的水平上,器具电路1052、基站电路1060、用户装置电路1072和/或与分布式计算环境1076相关联的处理器中的一者或多者包括用于从剃刀器具1003接收传感器信号并且用于分析/映射/分类传感器信号的传感器电路,如本文所述。同样,同样在非常高的水平上,器具电路1052、基站电路1060、用户装置电路1072和/或与分布式计算环境1076相关联的处理器中的一者或多者包括用于从相机1082和/或1070接收图像数据并且用于分析/映射/分类图像数据的图像处理电路,如本文所述。该分析、映射和/或分类信息也将通过计算机网络1062传送,使得可为在联网用户界面装置1080上操作的软件应用程序1073形式的计算机化工具可从网络1062接收与计算机化装置1080的用户相关联的分析、映射和/或分类信息(或其至少部分)。软件应用程序1073形式的计算机化工具还可被配置成经由软件应用程序1073提供的图形用户界面1074接收来自用户的用户配置文件数据信息。此外,软件应用程序1073可利用由用户通过软件应用程序提供的用户配置文件数据来处理从计算机网络1062接收的分析、映射和/或分类信息,以生成与用户对器具11(在该示例中为剃刀1003)的体验相关联的用户反馈信息,如本文所述;最后,经由也如本文所述的计算机化工具提供的图形用户界面1074和/或经由剃刀1003上的LED 1050和/或经由基站上的视觉显示器1064,以及/或者经由基站上的声音致动器1066,将该用户反馈信息传送给用户。
如图14所示,剃刀1003的测量信息或剃刮事件信息的具体示例可包括(但不限于)基于从三轴加速度计1110接收的传感器数据导出的在X、Y和Z方向上的加速度的剃刀移动信息1102;基于从三轴陀螺仪1130接收的传感器信号导出的角度信息的剃刀取向信息1104;基于与从三轴磁力计1210接收的传感器信号导出的磁北的关系的剃刀前进方向信息1106;基于从三轴磁力计1160接收的传感器信号导出的磁体相对于枢转柱塞的关系的刀片架枢转移动信息1108(也包括刀片架存在、刀片架触点和/或修剪器接触);基于从电容式传感器1420接收的传感器信号导出的气压的手中剃刀信息(对应于用户抓握柄部1002的信息)1110;以及从气压传感器1440接收的传感器信号导出的剃刀姿态信息1112。
同样如图14所示,剃刀姿态信息1114可以从剃刀移动信息1102、剃刀取向信息1104和剃刀前进方向信息1106的组合导出。刀片架触点信息1116可从枢转移动信息1108导出。笔划事件信息可从剃刀姿态信息1114、剃刀接触信息1116、手中剃刀信息1110和剃刀姿态信息1112的组合导出。
如图14进一步所示,测量和剃刮事件信息也可包括由相机提供的图像信息和相关联的分析、标测和/或分类。例如,如下文将进一步详细描述的,毛发生长方向信息1120可由通过相机1082/1070以及通过使用本文所述的适当计算机学习或统计分析仪、映射器和/或分类器对图像信息实施的硬茬分析1122接收的图像信息来提供。因此,可从由图像分析提供的剃刀姿态信息1114、笔划事件信息1118和毛发生长方向信息1120的组合导出相对笔划方向信息1124(其确定笔划方向是否与用户面部上的毛发生长方向有关)。类似地,可基于从多个相同传感器获取的传感器读数与用于剃刮方向信息和/或相对剃刮方向信息的图像信息的组合来确定顺向/逆向胡须的过度笔划信息或过度笔划。
如本文所述,附加传感器可包括用于感测柄部操作温度和/或柄部内温度的热敏电阻器;用于感测手中剃刀的电容传感器;用于感测夹持位置的多电容传感器;用于感测时间的时钟;用于感测剃刮性能(诸如顺向或逆向胡须)的声学传感器等。
本公开的另一方面是,剃刮事件信息可以是从系统感测或者被告知新的剃刮刀片架1006附接到剃刀1003时开始的累积剃刮事件信息。可通过接收与剃刀器具1003上的刀片架顶出按钮相关联的传感器信号来提供新的刀片架确定。类似地,新的刀片架确定信息可通过使新的刀片架传感器在刀片架顶出发生时变为活动的(诸如机械开关被设定成当刀片架顶出时启动)来提供,其中新的刀片架传感器可随后在新的刀片架被插入时被致动。新的刀片架信息也可由用户手动指示,诸如通过软件应用程序1073或通过用户按下例如基站1301上的复位按钮(等)来指示。此外,可由剃刀器具1003通过检测附接到柄部1002的每个剃刀刀片架的唯一ID来检测新的刀片架信息。例如,唯一ID可以为由柄部上的相关联的条形码读取器感测的刀片架上的条形码;可以为由柄部上的相关联的RFID读取器感测的刀片架上的RFID标签;可以为通过磁、电或电容数据通信与柄部连通的刀片架上的ID;可以为物理ID,诸如由柄部1002感测的刀片架1006上的物理键;等。基本上,器具1003或系统1000检测或被告知新的剃刀刀片架1006何时联接到柄部1002(新刀片架事件)的任何已知方式将开始累积剃刮事件数据的采集点,其中该累积剃刮事件数据将在此后与新的剃刀刀片架1006的寿命相关联。该累积剃刮事件信息可用于计算或估计例如包含在刀片架1006内的相关联的刀片的锋利度。
本文的系统和方法可包括训练一个或多个卷积神经网络(“CNN”)以用于确定处理目标表面12的方法。CNN可用于鉴别与由CNN确定的处理方法相关的目标表面12、处理工具11和从业者信息。CNN可利用训练图像和/或音频数据来训练卷积神经网络,并且可接收一个或多个训练图像或音频文件以被CNN利用来确定限定表面类型、处理工具和从业者的元素。一旦CNN被训练,相机22就可捕获目标表面、工具、从业者的图像(例如,数字图像)以用于通过CNN进行分析。相机22然后可提供用于分析、映射和/或分类的图像数据23,如本文所述。所捕获图像数据23的分析可包括确定目标表面12类型、目标表面12状况、目标表面诊断、工具11类型、用户信息以及处理方法、附加的相关处理产品和处理方案信息。可以依次或并行地使用CNN和RNN结构来评估数据并确定表面。
相机22的图像捕获逻辑和以计算机应用程序1073形式的软件工具可包括和/或利用软件组件、硬件电路、固件和/或其他计算基础结构,如本文所述。如下文更详细地描述的,图像捕获逻辑可有利于对数字图像数据23的捕获、存储、预处理、分析、传输和/或实施其他功能。应用程序1073可被配置用于向用户提供一个或多个用户界面1074,该一个或多个用户界面可包括问题、选项等。
由分析/映射/分类系统检测到的特征可包括边缘、形状、颜色,其可用于识别年龄、性别、情绪、皮肤类型、毛发类型、地板类型、织物类型、牙齿颜色、皮肤颜色、粉刺/痤疮、发红、皮肤和毛发光泽。产品/装置—牙刷、梳子、毛发刷、ProX、剃刀、梳理装置、Swiffer、美容/化妆品器具。因此,远程处理服务器和/或计算机1076包括存储器部件1077,该存储器部件存储训练逻辑和分析逻辑。训练逻辑可有利于CNN的创建和/或训练,并且从而可有利于卷积神经网络的创建和/或操作。分析逻辑可导致处理服务器和/或计算机1076从移动计算装置1080(或其他计算装置)接收数据并且通过用户界面1074处理所接收的数据以用于提供处理产品推荐等。
训练计算机或服务器1076可耦接到网络1062以有利于CNN的训练。例如,训练者可经由训练计算机或服务器1076向CNN提供一个或多个图像。训练者还可提供信息和其它指示,以告知CNN哪些评估是正确的以及哪些评估是不正确的。基于来自训练者的输入,CNN可自动地适应,如下文更详细所述。
还应当理解,尽管将训练计算机或服务器1076描述为实施卷积神经网络处理,但这仅为一个示例。RNN或多层感知器(MLP)可用作替代网络架构,并应用于视频或包括音频数据在内的其他数字数据。可使用这些网络中的任何网络,因为它们能够分析、映射和/或分类视频和/或传感器信息。所述卷积神经网络处理可根据需要由任何合适的计算装置执行。
本发明系统可包括用作表面处理专家系统的卷积神经网络(“CNN”)。例如,CNN可作为逻辑存储在计算装置的存储器部件中。CNN可被构造成接收训练图像(或多个训练图像)并从训练图像获取原始图像像素作为输入并且自动学习与由捕获的数字图像确定表面、工具和从业者类型相关的特征提取器。被称为深度学习的机器学习技术的最新进展已导致神经网络领域的突破性性能,诸如美国专利号8,582,807中所述。深度学习型神经网络利用受人类视觉皮层启发的多个层。
可使用预定义的特征和/或自动学习特征来训练CNN。在训练CNN之后,其可用于由学习到的特征从用户的捕获图像来确定表面处理选项。在一些情况下,CNN可学会通过被称为监督学习的过程来识别图像中的重要特征。监督学习一般意指通过分析其中已预定义表面处理选项的图像的示例来训练CNN。根据期望的准确度,训练图像的数量可从少量图像到连续输入图像变化,以提供连续训练。无论如何,在训练后,CNN学习关键特征以用于准确预测各种表面类型的处理方法。
CNN可包括多个阶段。第一阶段可包括预处理,并且第二阶段可包括卷积神经网络训练。在预处理期间,可在所接收的图像中检测到大多数场景和用户共有的一个或多个特征(“锚特征”)。可基于边缘检测、形状检测和/或类似的检测机制来进行检测,如已知的。基于一个或多个锚特征的位置,可缩放和旋转图像以使图像基本上水平,并且一个或多个锚特征布置在最终图像中的预定位置。通过这样做,训练图像可一致地对准,从而提供更一致的结果。然后可将图像裁剪至预定面积的像素作为输入以作进一步处理。
在预处理期间,还可执行数据扩充以从训练图像创建附加样本。例如,输入图像可随机放大和/或收缩、沿顺时针方向和/或逆时针方向随机旋转、随机修剪、和/或相对于饱和度和/或曝光随机变化。在一些情况下,输入图像可经受随机垂直读出,其随机地读出图像的像素列(特征图)。层越高,读出覆盖的元素的面积就越大。通过读出输入图像中的整个像素列,CNN可学会依赖于用于表面处理评估的多个特征,而不是一个具体特征。随机垂直读出还可防止对CNN的过度训练,从而保持期望的准确度水平。不考虑具体实施的技术,数据扩充允许CNN针对输入图像中的变化变得更稳健。通过这种方式,CNN学会在由人们拍摄图像的方式、拍摄图像的条件和拍摄图像所用的硬件所导致的预期环境变化下提取重要的特征。
预处理还可包括归一化。例如,可利用全局对比度归一化来标准化训练图像(和/或用户图像)。类似地,图像可用固定(或预定)尺寸卵形掩模来掩蔽,以最小化其他特征的影响。这还迫使CNN学习而不仅仅依赖于图像的更固定空间位置中的信息。
在训练期间,本文所述的实施方案可利用具有Nesterov动量(和/或其他算法)的小批量随机梯度下降(SGD)来训练CNN。利用随机梯度下降的示例公开于US 8,582,807中。目标函数可包括均方误差。在一些实施方案中,可保留约10%的训练对象。可监测关于保留集的训练错误和验证错误,以用于训练进度。
一旦训练CNN,就可固定CNN参数中的一个或多个。如下文更详细地描述的,捕获的图像可向前传播通过CNN以获得确定的表面处理方案,所述表面处理方案可任选地在例如移动计算装置上显示给用户。
CNN可包括输入图像、一个或多个卷积层C1、C2、一个或多个二次采样层S1和S2、完全集成的层以及输出。为了开始分析或训练CNN,将图像输入CNN(例如,用户图像)中。CNN可对图像的一个或多个部分进行采样以在第一卷积层C1中创建一个或多个特征图。例如,CNN可对图像的六个部分进行采样以在第一卷积层C1中创建六个特征图。接下来,CNN可对第一卷积层C1中的特征图的一个或多个部分进行二次采样以创建第一二次采样层S1。在一些情况下,特征图的二次采样部分可以是特征图的一半区。例如,如果特征图包括来自图像的28×28像素的样本区,则二次采样区可为14×14像素。CNN可实施一个或多个另外级别的采样和二次采样,以提供第二卷积层C2和第二二次采样层S2。应当理解,根据需要,CNN可包括任意数量的卷积层和二次采样层。在完成最终二次采样层后,CNN生成完全连接的层F1,其中每个神经元连接到每个其他神经元。从完全连接的层F1,CNN可生成输出,诸如预测年龄或热图。
在一些情况下,本文所述的图像和其它数据中的至少一些可存储为历史数据供稍后使用。例如,可基于此历史数据来确定用户进展跟踪。根据实施方案,还可对此历史数据执行其它分析。
在一个实施方案中,基于CNN的模型用于检测和跟踪消费者视频中的梳理工具11。该模型利用多个CNN和其他神经网络部件(诸如完全连接的网络或RNN)来完成该任务。以消费者视频形式的图像数据23作为一系列图像帧被馈入到模型中。每个图像帧首先由CNN处理以提取一组特征图(图像的高级特征)。第二CNN,区域建议网络,用于在可包含梳理工具的特征图中提出一系列可能的区域。然后提取建议区域内的特征图,以进一步向完全连接的网络建议,以确定该建议区域是否包含梳理工具,细化建议区域位置并将建议区域的坐标映射到原始图像。最终结果是,对于每个图像帧,模型能够确定梳理工具是否存在,并且如果存在,则能够确定梳理工具在图像内的位置。同时,消费者的面部也可使用包括CNN在内各种面部识别算法或任何其他面部检测器算法定位。还可将面部作为在所述区域建议网络中检测到的对象的一部分。还可重叠递归神经网络以捕获视频的时间信息。通过组合梳理工具和消费者面部的位置信息,工具可相应地响应以提供最佳梳理体验。在一个实施方案中,工具的操作参数可根据用户剃刮或换句话讲梳理自身或他人的方式来改变。在一个实施方案中,系统可向用户提供与梳理工具和目标表面的当前以及历史使用相关的信息。
可将一个或多个图像,以及来自神经网络的一个或多个输出传递到数据库,并且与来自该方法的其他用户的相似数据聚集在一起。可对聚集的数据进行评估并使用已知的群集方法分类为各群集。然后可基于用户、表面和工具的数据,将即时用户、表面和工具与一个或多个现定义的聚集人群相关联。然后,与特定聚集人群的关联可导致向用户提供群集特异性信息,作为方法的一部分。例如,可根据年龄、种族和性别对用户进行分类,并且将用户的数据与具有相同性别、年龄和种族的聚集人群的数据进行的比较结果可在它们作为该方法的一部分提供时,为从业者提供使用见解。
在一个实施方案中,用于治疗目标表面12的方法包括以下步骤:自动地评估目标表面12的数字图像数据23。数字图像数据23(其可为图像集合)可被提供给机器学习分类器以用于评估。图像的集合还可包括与图像的内容或情景相关联的附加数据。也可以将与图像同时捕获的包括音频、温度、湿度或其他环境数据的数据提供给分类器。该分类器可先前已被训练以通过向分类器呈现训练数据来鉴别目标表面12的性质,该训练数据包括单独的或连同如上所述的其他数据一起的代表性目标表面的图像。目标表面12的性质可包括下列属性:表面的分类,诸如皮肤、面部皮肤、牙齿、织物、皮革、塑料、木材、玻璃、陶瓷、石头或其他硬质表面或软质表面,以及表面12的当前状况,面部毛发、牙斑、污垢、污渍、以及它们的组合在目标表面上的存在可经由包括表面的图像对表面进行分析来确定。还可确定表面粗糙度或表面光洁度。
所述至少一个图像的分析还可识别或确定至少一种可用的处理工具。在一个实施方案中,该确定可包括确定手持式处理工具的存在。在一个实施方案中,该确定可通过将当前图像中的内容与存在于训练数据集中的适宜工具的图像进行匹配来进行。在一个实施方案中,确定可通过推断来进行,其中根据可用于分析的先前定义,将特定工具与某些表面相关联。在该实施方案中,牙刷可与牙齿、剃刀和具有皮肤-身体毛发的工具、具有硬质表面的硬毛刷等相关联。
所述至少一个图像和附加数据的进一步分析可确定与所识别的目标表面相关联的至少一种表面处理,其是单独的或与所识别的处理工具结合。这种确定可利用对表面、处理工具、从业者、或它们的组合的性质的确定来进行。例如,可确定适合于梳理工具和皮肤与毛发的组合的梳理方案。然后,分析可确定在完成所识别的表面处理中使用所识别的工具。
在确定之后,可经由显示系统向用户提供类似于所确定使用的信息。此类信息可包括关于下列的具体说明:在进行治疗时工具的处理和使用、进行治疗的可能结果、在一系列处理过程中由该方法所评估的处理进展、与执行处理相关的工具状况等。该信息可经由一个或多个数字显示屏、来自工具或来自不同扬声器的听觉提示、或视觉提示诸如指示器灯或治疗环境中的其他照明变化来提供。在一个实施方案中,提供信息的步骤包括提供类似于所确定工具和所确定表面之间的空间交互的提示。在一个实施方案中,提供信息的步骤包括提供类似于所确定工具和所确定表面的时间交互的信息。在一个实施方案中,提供信息的步骤包括通过更改所确定工具的特性提供信息。
在一个实施方案中,待呈现的信息可存储在数据库中并响应于CNN的输出被调用。所呈现的信息可为处理期间收集的实时信息、来自数据库的信息以及上述两者的混合组合。例如,可将上齿和下齿的显示模板与实时数据重叠地呈现给用户,从而示出在当前会话期间用户的牙齿的哪些部分已经和尚未被刷洗。可呈现来自数据库的示出用户刷牙历史趋势的数据。
在一个实施方案中,提供信息的步骤可包括提供与所确定的使用、产品或工具相关联的信息以及与用户的社交网络相关联的信息。使用由用户提供的账户信息访问的社交网络信息可使得能够呈现关于由用户的社交网络的成员所进行的类似处理的信息,包括由用户所进行的处理和由用户的社交网络的其他成员所进行的那些处理之间的相似性和差异。社交网络信息也可用作哪些社交影响者最有可能对用户产生影响的指示。该信息可用于选择呈现给用户的名人或社会影响者的指导内容,以及来自所识别的影响者或所识别影响者的最接近类似者的产品评论和证明信息。
在一个实施方案中,该方法还包括提供关于与所确定的表面或表面处理相关的处理工具的信息的步骤,其中该工具在数据分析中未检测到。例如,数据的分析可指示使用梳理工具但不使用可改善或增强处理活性的补充产品。在该示例中,可将关于缺失产品的信息提供给用户。
在一个实施方案中,提供信息的步骤可包括游戏化方面。可将待提供的信息以游戏的形式呈现给用户。游戏可包括以下方面,诸如点得分、与其他人竞争和游戏规则。例如,使用口腔护理工具诸如牙刷可涉及呈现与刷洗花费的时间相关的信息,并且迄今为止已经治疗过的口腔I的区域(包括牙齿表面、舌和牙龈)以及待治疗的剩余部分,其可以游戏的形式呈现,其中在计时器向上或向下计数时,用户必须以从显示器清除物体的方式来移动工具。在该实施方案中,用于移除所呈现的图形元素可与待清洁的表面重合,并且仅在使用者在处理/清洁那些表面中花费足够的时间之后才可从显示器移除。
在一个实施方案中,该方法还可包括根据对至少一个图像的评估来确定处理从业者的一个或多个特性的步骤。包括从业者性别、惯用手、皮肤状况、胡须状况在内的特性可通过分析数据和数据的情景连同关于用户和使用环境的其他信息来确定。所确定的从业者的特性可用作在评估处理活性时确定要提供哪些信息的输入。可提供具体适用于用于的性别、惯用手、皮肤状况、胡须状况、以及它们的组合的信息。
在一个实施方案中,可将关于用户的信息与关于产品的信息(包括品牌、包装数量和用于每个处理的数量)组合,以计算剩余的产品数量,从而向用户提供当前产品何时可能用完的指示以及何时应使用用户获取产品的典型方式来更换或重新订购产品的指示。
在一个实施方案中,该方法还包括根据所述一个或多个图像的评估连同至少一个附加数据源来确定一个或多个环境特性的步骤。例如,该方法可确定从业者和表面的位置、一天中的时间、在该位置处可用的照明以及本地或外部环境的其他特征。所确定的环境特性可用作在确定待提供给用户哪些信息(作为方法的一部分)中的输入。
在一个实施方案中,该方法还可包括以下步骤:跟踪所确定目标表面的初始确定的处理;提供类似于所确定的处理的信息,跟踪并评估目标表面的后续处理;以及根据对跟踪的初始处理和后续确定处理的机器学习评估和先前提供的信息来更改后续提供的信息。例如,用户可使用该方法评估其剃刮体验。可向用户提供信息以增强其剃刮体验。后续评估可指示先前提供的信息的一部分已被成功地遵循或包括在剃刮活动中,然而其他部分还未被成功地添加。在该确定之后,所提供的信息可被定制成仅包括与尚未成功地添加到处理活动中(在该示例中为剃刮)的部分相关的信息。信息类型包括剃刮或处理趋势、持续处理结果(用户剃刮的程度、还有哪些机会来改善其体验、以及与用户的梳理工具及其剃刮活动相关的诊断信息)。
在一个实施方案中,该方法还可包括以下步骤:跟踪所确定目标表面的初始确定的处理;跟踪相同的所确定处理表面的至少一个后续确定的处理;在评估所述确定目标表面的跟踪的所确定处理的组合中使用机器学习;并且根据所述跟踪的确定处理的组合的评估来提供类似于所确定目标表面的所确定处理的信息。提供的信息可包括对梳理活动的改进的指示以及基于梳理结果的进展而进一步改进的优越机会。
在该实施方案中,在评估所确定目标表面的跟踪的所确定处理的组合中的机器学习步骤可包括使用处理的环境背景连同由用户提供的任何信息评估该组合中的从业者。
在该实施方案中,在评估所确定目标表面的跟踪的所确定处理的组合中的机器学习步骤可包括评估组合中的工具,所述工具可根据制造商和工具模型以及在完成表面处理中工具的性能方面所考虑的工具的操作条件来评估。例如,随着工具的操作条件下降,完成任务所必需的工作也将改变。
在该实施方案中,在评估所确定目标表面的跟踪的确定处理的组合中的机器学习步骤可包括评估该组合中的表面。可评估表面的性质以提供输入来确定待提供的信息。对用户面部的评估可指示毛发的轻度或重度生长,从而导致根据处理时存在的面部毛发来提供不同的信息。
在一个实施方案中,该方法还包括更改工具的性能特征的步骤。在该实施方案中,工具的驱动频率可被改变以更改性能或向从业者提供关于使用该工具处理表面的听觉提示。
用于实施方法的系统可包括网络,所述网络可体现为广域网(诸如移动电话网络、公共交换电话网络、卫星网络、互联网等)、局域网(诸如无线保真度、Wi-Max、ZigBeeTM、BluetoothTM等)和/或其他形式的联网功能。耦合到网络的是计算装置、远程计算装置、信息亭计算装置和训练计算装置。
计算装置可为移动电话、平板电脑、膝上型计算机、个人数字助理、仪表镜或智能镜、和/或被构造用于捕获、存储和/或传输图像诸如数字照片和视频的其他计算装置。因此,移动计算装置可包括图像捕获装置,诸如数字相机,包括深度感测相机和/或可被构造成从其他装置接收图像。移动计算装置可包括存储器部件,所述存储器部件存储图像捕获逻辑和界面逻辑。存储器部件可包括随机存取存储器(诸如SRAM、DRAM等)、只读存储器(ROM)、寄存器和/或其他形式的计算存储硬件。
被称为深度学习的机器学习技术的最新进展已导致神经网络领域的突破性性能。深度学习神经网络的示例包括卷积神经网络(CNN)和复发神经网络(RNN)。
CNN利用受人类视觉皮层启发的多个层。CNN由输入层和输出层以及多个隐藏层组成。CNN的隐藏层通常由卷积层、池化层、完全连接的层和归一化层组成。它们在图像和视频应用程序中具有广泛范围的应用,诸如图像分类、对象检测、定位、分割等。
可在称为监督学习的过程中使用预定义特征和/或自动学习特征来训练CNN。监督学习通常意指通过分析其中已预定义图像分类/定位/检测/分割等的图像的示例来训练CNN。根据期望的准确度,训练图像的数量可从少量图像到连续输入图像变化,以提供连续训练。无论如何,在训练之后,CNN学习用于实施图像相关任务的关键特征。
在CNN被训练之后,其可用于生成与个人梳理器具的操作相关的图像分类、定位、检测和/或分割。在一些情况下,CNN可学习鉴别面部/口腔特征结构、识别和定位梳理器具装置、鉴别处理区域和处理选项,以及评估处理结果。
复发神经网络(RNN)是一类深度学习神经网络,其中节点之间的连接沿序列形成有向图。这允许其在某一时间序列内表现出时间动态行为。RNN使用其内部状态(存储器)来处理输入数据的序列。这使得它们适用于任务诸如机器翻译、语音识别、视频分析、声音检测和运动跟踪等。
类似于CNN,可使用监督学习来训练RNN。RNN的监督学习通常意指通过分析序列数据的示例来训练RNN,序列数据诸如文本、语音、声音、视频、传感器数据流,其中已预定义已翻译字词、声音的含义、视频的动作和对应的物理测量值。取决于期望的准确度,训练样本的数量可从数个简短的数据流片段到数据流的连续输入之间变化,以提供连续训练。无论如何,在训练之后,RNN学习用于实施涉及序列数据的任务的关键特征。
在RNN被训练之后,其可用于分析来自相机或物理传感器的数据流,并且提供与个人梳理器具的操作相关的附加信息。在一些情况下,RNN可学习定位梳理施用装置、鉴别梳理施用装置的移动模式和/或评估施用装置的使用。
通常同时使用多种类型的深度学习神经网络来增强彼此,以便实现更高的性能。在一些情况下,CNN和RNN可独立地用于分析相同或不同的数据流,并且来自不同神经网络的输出被联合考虑以驱动用户反馈。在其他情况下,可采用混合神经网络架构—由CNN和RNN分支或层两者组成的一个混合神经网络。在一种类型的混合网络中,CNN和RNN的中间结果被联合馈入到神经网络的附加层中以产生最终输出。在其他类型的混合网络中,在获得最终结果之前,将一个网络(例如,CNN)的输出馈入到网络(例如,RNN)的附加层中以用于进一步处理。
在一个实施方案中,CNN和RNN用于分析来自外部相机的图像以及来自电动剃刀的运动和压力传感器。CNN首先基于面部区域和面部毛发的自然状况来鉴别处理选项,例如推荐的剃刮技术,RNN然后提供牙刷运动的实时跟踪以确保消费者遵循推荐,并且CNN用于最后提供剃刮后评估。
在另一个实施方案中,混合CNN/RNN模型用于在刷牙期间提供高度准确的牙齿定位。牙刷配备有口内相机和运动传感器,并向混合网络馈送视频流和运动传感器流两者。混合网络的CNN和RNN部件分别分析视频流和运动传感器流,以提供刷头在口部内的定位的中间结果。中间定位结果由神经网络的附加层进一步处理以产生刷头的增强定位,作为向用户反馈的一部分以获得更好的刷洗结果。
因此,应当理解,内部传感器数据171、172、173、…、17n不一定限于运动传感器数据,并且对应的分类151、152、153、…、15n不一定限于运动模式。例如,内部传感器数据171、172、173、…、17n可包括来自一个或多个压力传感器、负载传感器、温度传感器、音频传感器/接收器、电池使用传感器、湿度传感器、生物传感器等的数据(器具的此类内部传感器也可被称为“物理传感器”)。同样,对应的分类151、152、153、…、15n可以是对来自这些传感器中的一个或多个传感器或这些传感器中的两个或更多个传感器的组合的数据进行分类的结果。此外,如下面将进一步详细讨论的,在本公开的范围内,分类151、152、153、…、15n可包括基于内部传感器数据171、172、173、…、17n和图像数据22的组合的分类的混合或增强分类。
图15提供了根据本公开的实施方案的利用此类混合或增强分类的示例性系统的示意性框图表示。如图15所示,提供了相机1082/1070,其产生馈入到分类器1504的图像数据1502。同样,一个或多个传感器1506提供馈入到相同分类器1504的传感器数据1508。分类器1504具有对基于本文所述的各种机器学习技术已被训练(和/或正在被训练)的知识库1510的访问权限。由分类器1504访问受过训练的知识库1510以对图像数据1502和传感器数据1508的组合进行分类,从而提供可由软件应用程序1073访问的混合分类1512。分类器1504可以是任何类型的机器学习分类器,并且可以利用本文所述的神经网络(诸如CNN和/或RNN),并且知识库1510包括一组受过训练的(或训练的)潜在分类151、152、153、…、15n和/或类成员101A、101B、102A、102B、…、nA、nB,用于根据分类器的输入进行匹配/分类。
例如,分类器1504可用于分析来自与智能电话或智能反射镜相关联的相机1070的图像,并且传感器数据1508可包括来自电动剃刀的压力传感器数据。由分类器1504产生的该混合分类1512可以提供位置和压力信息的组合以供应用程序1073用于剃刀运动和压力的实时跟踪,以确保例如消费者遵循推荐的剃刮/处理程序。分类器1504接收图像数据1502并且还接收到图像数据1502和传感器数据1508的组合,还可以基于跟踪分类与剃刮后图像分类的组合来提供剃刮后评估。又如,分类器1504可用于在刷牙期间提供高度准确的牙齿定位。牙刷可配备有口内相机1082和运动传感器1506两者,并且分类器1504可接收相机数据1502和运动传感器数据1508的组合以提供混合分类1512,其中该混合分类可使用运动传感器和口内图像信息的组合来提供牙刷头部位置在口部内的准确定位。软件应用程序1073可利用这种混合分类来向用户生成反馈以获得更好的刷洗结果。
该反馈可被提供给例如显示装置1064/1066、提供给声音致动器装置1067和/或提供给一个或多个LED 1050。软件应用程序1073还可利用混合分类1512来调节或修改器具的操作。例如,软件应用程序1073可调节存在于梳理器具中的马达1514的操作。如本文所述,修改马达1514的操作可用于例如改变电动牙刷操作的速度、改变电动剃刮器具操作的速度、改变剃刀刀片架上的迎角、修改控制家用器具的刷子或类似部件的旋转或振动的马达的操作速度或频率等。同样,软件应用程序可利用混合分类信息1512来改变各种设定1516以用于操作梳理器具和/或用于操作软件应用程序1073。例如,取决于混合分类信息1512,可改变装置警告或通知设定(例如,可根据剃刮器具相对于用户的面部或身体部位的位置将过压警告设定设定在不同的压力下)。
同样如图15所示,软件应用程序可利用混合分类信息1512作为进一步训练知识库1510的训练过程的一部分。例如,基于用户如何与软件应用程序1073交互,训练过程1520可使用该用户交互信息1518来进一步训练知识库。
图16提供了根据本公开的实施方案的利用以不同方式生成的混合或增强分类的示例性系统的示意性框图表示。现在参见图16,提供了另选系统的示意性框图表示。在该示例性系统中,来自一个或多个传感器1506的传感器数据1508被馈入到传感器分类器1602,而从相机1082/1070接收的图像数据1502被馈入到单独的图像分类器1604。传感器分类器基于对受过训练的知识库1606的访问对传感器数据进行分类,而图像分类器通过访问训练知识库1608对图像数据1502进行分类。分类器1602/1604可以是任何类型的机器学习分类器,并且可以利用本文所述的神经网络(诸如CNN和/或RNN),并且知识库1606/1608包括受过训练(或训练的)组的潜在分类(诸如潜在分类151、152、153、…、15n和/或类成员101A、101B、102A、102B、…、nA、nB),以根据分类器1602/1604的输入进行匹配/分类。
传感器分类器1602生成馈入到调解器1612的一个或多个传感器分类1610,而图像分类器1604生成也被发送到调解器1612的一个或多个图像分类1614。调解器1612接收传感器分类1610和图像分类1614(并且在一些实施方案中,接收相关联的置信度值),并且基于传感器分类1610和图像分类1614的组合生成混合分类1616。调解器1612可利用本文所述的任何神经网络(诸如CNN和/或RNN)分类,或者可利用其他形式的分类,诸如利用统计分类的形式,诸如多项逻辑回归、方法(或另选分类方法),如普通技术人员已知的。然后软件应用程序1073可访问该混合分类1616信息以用于如本文所述的操作。同样,知识库1606可由训练模块1618进一步训练,而知识库1608可由训练模块1620进一步训练。这些训练模块1618/1620可基于从软件应用程序1073接收的用户交互信息来进一步训练相应的知识库1606/1608。
调解器1612可以为单独的模块或者可结合到软件应用程序1073中。另外,在所有实施方案中,可以不存在调解器。例如,传感器分类1610和图像分类1614可以单独提供给软件应用程序1073,其中软件应用程序1073可以不一定基于传感器分类和图像分类的组合生成混合分类1616。例如,如本文所讨论的各种用例中所述,软件应用程序1073可初始利用图像分类来鉴别用户的身体部位的表面状况(诸如检测用户牙齿上牙斑的存在或检测用户面部或腿部上的晶须),然后基于图像分类开发处理计划表,其中处理计划表可经由软件应用程序1073提供给用户。在处理程序的开发(诸如关于如何刷牙、如何施用化妆品或如何剃刮的建议)之后,软件应用程序可利用传感器分类信息1610来遵循用户处理表面状况的进展(诸如刷牙、施用化妆品、剃刮面部或另一个身体部位)。然后,软件应用程序1073可用于基于所接收的传感器分类向用户传送进展信息。
亦在本公开的范围内的是,处理方案可仅基于图像分类1614,而进展信息可基于混合分类1616。例如,图像分类1614可用于确定表面状况,并且基于该表面状况,软件应用程序可建立处理方案。此后,软件应用程序可使用混合分类1616(其利用后续传感器分类1610和后续图像分类1614的组合)来遵循表面状况的处理进展。此后,基于用户相对于初始建立的处理方案进展如何,软件应用程序1073可向用户传送用户相对于处理方案如何实施、可修改处理方案或可校正初始图像分类(指示初始图像分类可能已检测到不正确的表面状况)并基于所修改的指示开发新的处理方案。
图15和图16所示的示例性系统可用于许多用例,包括但不限于梳理器具和家用器具用例。本文将仅讨论多个潜在用例,但应当理解,可设想更多种情况并且这些情况在本公开的范围内。
在第一用例中,图像数据1502可用于指示正在使用的润滑产品(即,剃刮凝胶)(诸如通过品牌或类型);并且也可指示被剃刮的面部毛发区域、剃刮的方向和/或施用剃刮润滑剂和剃刮动作之间的延迟时间。在同一示例中,传感器数据1508可为MEMS(微电子机械系统)运动信息、速度信息、剃刀在面部上的压力信息和/或位置信息。在该示例中,混合分类1512/1616可由软件应用程序1073用于各种益处。例如,当剃刀磨损时,功效降低并且消费者通常加速笔划并施加附加的压力来补偿。软件应用程序1073可检测用户例程的细微变化(剃刮度量)和剃刮组件的变化(例如剃刮凝胶类型)以推荐用户例程和/或组件的变化以确保成功的剃刮体验。另选地,软件应用程序可使用混合分类1512/1616来检测对剃刮刀片架的不同迎角或剃刮刀片架的枢转中的不同阻力水平的需要,并且相应地修改部件1514的操作和/或修改器具的设定1516。
在另一个示例性用例中,图像数据1502可为用户面部的图像,而传感器数据1508可包括涉及梳理器具相对于用户面部的位置的MEMS传感器信息。软件应用程序1073可分析图像分类1614或混合分类1512/1616,以确定用户在使用梳理器具(诸如剃刮器具、牙科器具或化妆品施用装置)时的情绪响应;并且同样,使用存在于传感器分类1610或混合分类1512/1616中的位置信息来确定在经历情绪反应时梳理器具所处的位置(和/或梳理器具是如何使用的)。应用程序1073然后可使用该信息组合来向用户提供反馈或修改部件1514的操作和/或修改器具的设定1516。例如,如果用户在剃刮他的颈部时显示出负面情绪,并且混合分类1512/1616指示在那时正在使用某个压力和剃刮方向,则应用程序1073可向用户建议不同的方式以在下一次来剃刮他的颈部。
在另一个示例性用例中,图像数据1502可用于提供剃刮前和/或剃刮后信息,而传感器数据1508可包括剃刮装置的位置信息、移动速度信息和/或压力信息。使用如上所述的信息的这种组合,应用程序1073可在剃刮之前分析图像以确定晶须的方向,并且可分析最佳处理方法以获得贴面剃刮。此后,来自传感器信息1508和/或混合分类1512/1616的数据可指示与推荐相比剃刮实施得如何。然后可分析剃刮后图像信息,并且应用程序可细化其指导以供用户下次尝试使用剃刮器具时进行更好的剃刮。例如,如果剃刮后图像显示出刺激并且遵循了指导,则应用程序可提供剃刮后选项(诸如剃刮球)或推荐剃刮前例程(诸如使用暖毛巾、新刀片和/或不同的剃刮泡沫)以帮助最小化问题。应用程序1073也可为消费者贴标签以供将来的产品开发随访(例如,如果消费者在剃刮之后趋于获得生长中的毛发,则应用程序1073可向用户提供可用于避免将来生长中的毛发的市场营销信息)。
在下一个示例性用例中,图像分类和传感器分类的组合可用于营销环境中。例如,图像数据1502可在刷牙期间提供用户所使用的产品信息(电动牙刷与手动、牙刷、牙膏类型、漱口水、牙线等),而传感器数据1508可在刷牙活动期间提供位置、速度和压力信息。利用混合分类1512/1616和上下文数据(诸如用户的身份标识、用户的年龄、用户的种族、用户习惯、存在的产品等)的应用程序1073可交叉销售消费者以不同的产品。例如,用手动牙刷刷牙并使用敏感牙膏的消费者可接受具有软刷毛的电动牙刷和/或用于最小化将来敏感问题的不同牙膏的消息推送、优惠券、样品。
在另一个用例中,图像数据1502可被软件应用程序1073用于在产品使用之前对皮肤年龄分析进行分类,并且还可在使用期间用于位置信息。传感器数据1508可为被使用的美容产品施用装置的各种性能状况,诸如使用速度、压力等。然后,基于该信息组合,应用程序1073可通过应用程序1073向用户推荐美容和施用技术以使性能最大化。应用程序1073可利用来自施用装置的传感器数据的数据来理解产品如何(压力和运动)被施用、轻拍、摩擦、点搽。应用程序1073可跟踪并协调技术以鼓励使用该应用程序来遵守引导。
在另一个用例示例中,位于牙科器具的前端上的相机1082可用于识别牙斑在用户牙齿上的存在和位置。基于对用户牙齿上的牙斑的位置和存在的这种鉴别,软件应用程序1073随后可生成将被传送给用户的处理方案。该处理方案可提供关于如何使用手动牙刷或电动牙刷刷洗用户的牙齿的建议,并且也可在刷洗期间将用户实时引导至各种牙齿位置(诸如经由智能反射镜装置上的显示器1066)。例如,当用户在智能反射镜装置前刷牙时,在装置的角落上可存在动画显示,该动画显示向用户显示用户已刷洗的位置和用户未刷洗的位置以及仍然指示存在牙斑的位置,使得用户将知道用户口部的哪些部分在完成刷牙活动之前完成刷洗。因此,在刷牙期间,混合分类1616/1512可以是来自传感器数据1508和图像数据1502的位置数据的混合组合,以向应用程序1073提供关于用户刷牙活动进行得如何的进展信息。
在类似的示例中,位于计算机化智能电话或智能反射镜1080上的外部相机1070可用于分析目标,诸如房间、地板、窗户等,并且应用程序1073可用于确定目标的状态。使用该信息,软件应用程序1073可设定目标或用于使用梳理器具或家用器具来处理目标的处理方案。此后,一旦实施,软件应用程序1073就可利用传感器信息1602(其可包括运动传感器数据)或混合分类1512/1616来监视器具相对于目标的使用,以确定是否达到了处理目标状态的目标。
在另一个示例中,图像分类器1604可用于确定目标的鉴别和相对于该目标正在使用的器具(用户的面部和剃刮器具)。此后,传感器分类1610或混合分类1512/1616可用于确定梳理器具如何与目标接合。软件应用程序1073可利用混合分类1512/1616来获得工具和目标如何交互的细化确定,并且基于该混合分类信息可实时地或在使用之后提供用户反馈。
作为一些附加示例,当作为牙刷操作时,应用程序可利用混合分类1512/1616来确定牙刷何时处于用户的口部之外,并且基于该确定,可禁用或关闭装置,或者至少禁用或关闭操作电动牙刷的马达1514。又如,基于该混合分类信息1512/1616,软件应用程序1073可基于软件应用程序利用混合分类1512/1616来改变多色LED 1050(诸如智能环)的颜色以确定用户的身份标识或其他特性。在另一个示例中,混合分类1512/1616可用于检测梳理器具的刷头类型,然后用于确定是否要改变刷的速度设定1516(检测到软刷毛可导致将默认速度设定为“轻柔的”)。又如,混合分类1512/1616可用于检测相对于用户的刷洗位置,然后软件应用程序1073可通过修改马达1514的操作或通过修改速度设定1516来自动调节刷洗速度(例如,当混合分类指示刷子定位在用户的舌部上时,基于舌部清洁设定修改装置的操作)。又如,混合分类1512/1616可用于确定剃刮器具相对于用户皮肤的位置,然后根据梳理装置相对于用户的区域来调节压力警告设定(例如,如果梳理装置处于皮肤的不太可能敏感的位置,则设定1516可被修改,使得如果混合分类指示剃刮装置位于高敏感度区域中,与较低水平相比,由扬声器1066产生的压力警告将仅在较高水平的压力下被激活)。又如,混合分类1512/1616可用于确定自梳理工具诸如剃刀刀片架或牙刷头部已被改变以来该梳理器具已被使用了多长时间。因此,如果器具已被使用了长于推荐的置换计划表,则应用程序1073可使用该信息来告知用户是时候更换牙刷上的刷头或剃刀上的剃刮刀片架。
如上所述,软件应用程序1073可使用混合分类1512/1616来以许多不同的方式调节梳理器具或家用器具的操作。例如,软件应用程序1073可打开或关闭包含在器具中的梳理器具或工具;可调节梳理/家用器具的工具的速度;可在警告梳理/家用器具之前调节允许的压力设定;可基于梳理器具/家用器具的操作来激活灯、LED、颜色等;可针对维护相关问题诸如补偿维护的缺失(旧剃刮金属薄片、旧刷子等)调节器具的操作;可向用户提供建议更换工具的反馈,诸如推荐更换用过的刷子或剃刮刀片架等;可基于面部位置调节操作设定,诸如剃刮装置的迎角;并且可调节器具工具的刚度或可操纵性(诸如剃刀刀片架的枢转刚度)。
如上所述,应用程序1073可向器具的用户提供各种形式的反馈。此类反馈可以是视觉的(诸如通过联网用户界面装置1080诸如智能电话、平板电脑、个人助理或智能反射镜装置提供)、来自器具本身或来自一些其他装置诸如个人助理装置的音频(语音、声音等)、来自器具或来自一些其他来源的触觉反馈等。当然,反馈可以是视觉、听觉和触觉的任何组合。例如,反馈可以是在使用器具之前、期间和/或之后在装置1080上呈现的动画视频的形式。
训练模块1520/1618/1620可基于与应用程序1073的用户交互来训练分类器,如上所述。但训练也可基于个人对器具的使用(例如,左手使用与右手使用)。该训练还可以是基于人群的训练,其中多个用户基于总体习惯和使用情况来训练分类器。
应用程序1073还可基于用户如何遵循(或未遵循)处理建议或其他反馈的方式来训练分类器。
本文所公开的实施方案可使用增强或混合分类1512/1616来确定目标表面的相对方位/位置以及受试者的目标表面的性质。一个实施方案提供了一种器具,包括配备有传感器的器具,该器具用于采集和传输传感器数据1508并且用于接收和处理传感器数据以确定目标表面的相对位置和目标表面的性质。
对目标表面的评估包括采集和处理目标表面的至少一个数字图像1502及其性质,该性质由口腔状况、问题和疾病的信息组成,该疾病包括但不限于牙斑、色斑、牙结石、变色、龋齿的早期和晚期、白斑病变、氟中毒、脱矿质、齿龈炎、出血、齿龈凹陷、牙周炎、瘘、齿龈磨损、口疮、粘膜的其他病变,以及舌部的结构和清洁度。对目标表面的评估还包括确定健全的牙齿、齿龈、粘膜和舌部,以及确定缺失的牙齿、牙齿排列和人造材料,如牙科植入物、假牙、牙冠、镶嵌物、填充物、托槽和其他牙齿位置校正器具。对目标表面的评估也可为确定口腔健康指数的一部分,该口腔健康指数经由口内相机和基于但不限于机器学习、深度学习和人工智能的智能分析系统来生成。
随时间分析的来自位置、目标表面及其性质的评估(数据)有助于驱动端点如牙斑、齿龈炎和上文列出的其他端点的分析的稳健性。为了采集数据,配备有传感器的装置可使用传感器,诸如但不限于光学传感器、相机、生物传感器和神经测量单元。为了采集数据,配备有传感器的装置可使用附加光源以允许检测终点(例如但不限于牙斑)并且优化传感器的环境状况。配备有传感器的装置可在传输之前使用预处理或过滤方法来改变传感器数据。为了处理所获取的位置、目标表面和目标表面的性质(数据),系统内的软件可使用数学方法,诸如但不限于统计分析、机器学习、深度学习、人工智能等,诸如本文所述的那些。
在一个实施方案中,装置可包含用于操作该装置并用于处理和显示位置、目标表面和目标表面性质(数据)的软件。在一个实施方案中,在数据采集期间或在数据处理之后实时显示目标表面的位置、目标表面和性质。在该设置中,目标表面和目标表面性质数据可单独显示或可与待投影到真实或抽象模型中的位置数据组合显示。
相对于图15和图16的实施方案,生物传感器可用于代替相机1082/1070,使得增强或混合分类1512/1616可基于生物传感器数据和内部传感器数据1508的组合的分类。在一个示例中,该系统可检测上颊齿区的齿龈炎。该信息被传送到口腔护理清洁系统,以便当在指定区域刷洗时,应用程序1073将刷洗模式设定1516改变为“敏感”,并且“压力阈值”设定1516将被设定为更低的。
作为另一种修改用例,医学病症的诊断结合该病症的位置也可导致器具在该位置的操作的修改。例如,当混合分类1512/1616确定牙刷处于口部中已经(或正在)诊断出齿龈炎的位置时,电动牙刷的操作可自动调节到“敏感”操作模式。
将显而易见的是,在不脱离如下所要求保护的范围的情况下,可对示例性实施方案进行改变或修改。此外,也不必存在本文所讨论的任何目的或优点均落入该范围内,因为可以存在许多优点而不必在本文中公开。
本文所公开的量纲和值不应理解为严格限于所引用的精确数值。相反,除非另外指明,否则每个此类量纲旨在表示所述值以及围绕该值功能上等同的范围。例如,公开为“40mm”的量纲旨在表示“约40mm”。
除非明确排除或换句话讲有所限制,本文中引用的每篇文献,包括任何交叉引用或相关专利或专利公布,均据此以引用方式全文并入本文。对任何文献的引用均不是承认其为本文公开的或受权利要求书保护的任何文献的现有技术、或承认其独立地或以与任何其它一个或多个参考文献的任何组合的方式提出、建议或公开任何此类实施方案。此外,当本发明中术语的任何含义或定义与以引用方式并入的文献中相同术语的任何含义或定义矛盾时,应当服从在本发明中赋予该术语的含义或定义。
本文所公开的量纲和值不应理解为严格限于所引用的精确数值。相反,除非另外指明,否则每个此类量纲旨在表示所述值以及围绕该值功能上等同的范围。例如,公开为“40mm”的量纲旨在表示“约40mm”。
Claims (15)
1.一种用于操作家用清洁器具的方法,包括:
提供家用清洁器具,所述家用清洁器具包括:
电动且电控的清洁工具,和
至少一个物理传感器,所述至少一个物理传感器选自由以下项组成的组:取向传感器、加速度传感器、惯性传感器、全球定位传感器、压力传感器、负载传感器、音频传感器、湿度传感器和温度传感器;
提供与所述家用清洁器具相关联的相机;
使用对所述物理传感器数据和所述图像数据进行分类的一个或多个分类器,导出增强分类;以及
基于所述增强分类修改所述清洁工具的操作。
2.根据权利要求1所述的方法,其中所述相机位于所述家用清洁器具上。
3.根据前述权利要求中任一项所述的方法,其中:
所述家用清洁器具还包括通过计算机网络发送和接收数据的计算机网络接口;
所述相机位于计算机化装置上,所述计算机化装置包括至少通过所述计算机网络发送图像数据的计算机网络接口。
4.根据权利要求3所述的方法,其中所述操作修改步骤还基于由至少部分地在所述计算机化装置上操作的软件应用程序实施的处理方案。
5.根据权利要求4所述的方法,其中所述处理方案是针对家用清洁器具的用户定制的。
6.根据权利要求4所述的方法,其中根据所述处理方案协调所述增强分类,以确定相对于所述处理方案的处理进展。
7.根据权利要求4所述的方法,其中所述增强分类至少部分地用于建立所述处理方案。
8.根据前述权利要求中任一项所述的方法,其中导出所述增强分类的步骤由单个分类器实施。
9.根据前述权利要求中任一项所述的方法,还包括:
使用受过训练的机器学习分类器对从所述物理传感器接收的传感器数据进行分类,以生成物理分类;以及
使用受过训练的机器学习分类器对从所述相机接收的图像数据进行分类,以生成图像分类;
其中导出所述增强分类的所述步骤基于所述物理分类和所述图像分类的组合。
10.根据权利要求1所述的方法,其中所述增强分类至少部分地涉及是否正在应用所述清洁工具,并且修改操作的步骤基于正在应用所述清洁工具的时间量来更新维护设置。
11.根据权利要求1所述的方法,其中所述增强分类至少部分地涉及所述清洁工具相对于目标表面的位置,并且修改操作的步骤至少部分地基于至少部分地由所述增强分类所指示的所述清洁工具相对于所述目标表面的位置修改所述清洁工具的操作。
12.根据权利要求1所述的方法,其中:
所述增强分类还包括所述目标表面的表面状况;并且
修改操作的步骤基于至少部分地由所述增强分类所指示的所述清洁工具相对于所述目标表面的位置处的表面状况来调节所述清洁工具的性能设定。
13.一种用于操作家用清洁器具的方法,包括:
提供家用清洁器具,所述家用清洁器具包括至少一个物理传感器,所述至少一个物理传感器选自由以下项组成的组:取向传感器、加速度传感器、惯性传感器、全球定位传感器、压力传感器和负载传感器、音频传感器、湿度传感器和温度传感器;
提供与所述家用清洁器具相关联的相机;
使用至少一个受过训练的机器学习分类器对从所述物理传感器和从所述相机接收的数据进行分类,以生成增强分类;
基于所述增强分类,提供用户反馈信息;
其中所述增强分类涉及关于所述家用清洁器具相对于目标表面的位置的第一状态的组合,并且还涉及不同于所述第一状态的第二状态。
14.根据权利要求13所述的方法,其中所述第二状态涉及用户的身份标识、所述家用清洁器具的身份标识和所述目标表面的表面状况中的至少一者。
15.根据权利要求13所述的方法,其中所述第二状态是从来自所述相机的图像数据导出的图像分类。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201862783929P | 2018-12-21 | 2018-12-21 | |
US62/783,929 | 2018-12-21 | ||
PCT/US2019/065323 WO2020131474A1 (en) | 2018-12-21 | 2019-12-10 | Apparatus and method for operating a personal grooming appliance or household cleaning appliance |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113168909A true CN113168909A (zh) | 2021-07-23 |
Family
ID=69160274
Family Applications (5)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201980079067.XA Active CN113168542B (zh) | 2018-12-21 | 2019-12-10 | 用于操作个人梳理器具或家用清洁器具的设备和方法 |
CN201980079549.5A Active CN113168910B (zh) | 2018-12-21 | 2019-12-10 | 用于操作个人梳理器具或家用清洁器具的设备和方法 |
CN201980079548.0A Pending CN113168909A (zh) | 2018-12-21 | 2019-12-10 | 用于操作个人梳理器具或家用清洁器具的设备和方法 |
CN202211005377.7A Pending CN115251760A (zh) | 2018-12-21 | 2019-12-10 | 用于操作个人梳理器具或家用清洁器具的设备和方法 |
CN201980079552.7A Pending CN113168911A (zh) | 2018-12-21 | 2019-12-10 | 用于操作个人梳理器具或家用清洁器具的设备和方法 |
Family Applications Before (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201980079067.XA Active CN113168542B (zh) | 2018-12-21 | 2019-12-10 | 用于操作个人梳理器具或家用清洁器具的设备和方法 |
CN201980079549.5A Active CN113168910B (zh) | 2018-12-21 | 2019-12-10 | 用于操作个人梳理器具或家用清洁器具的设备和方法 |
Family Applications After (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211005377.7A Pending CN115251760A (zh) | 2018-12-21 | 2019-12-10 | 用于操作个人梳理器具或家用清洁器具的设备和方法 |
CN201980079552.7A Pending CN113168911A (zh) | 2018-12-21 | 2019-12-10 | 用于操作个人梳理器具或家用清洁器具的设备和方法 |
Country Status (4)
Country | Link |
---|---|
US (6) | US20200202520A1 (zh) |
EP (4) | EP3899984A1 (zh) |
CN (5) | CN113168542B (zh) |
WO (4) | WO2020131473A1 (zh) |
Families Citing this family (33)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019015837A1 (en) * | 2017-07-20 | 2019-01-24 | Bic Violex S.A. | SYSTEM AND METHOD FOR DETECTING DEBRIS ACCUMULATION IN A RAZOR CARTRIDGE |
CN108904085B (zh) * | 2018-04-13 | 2020-09-08 | 深圳市力博得科技有限公司 | 基于智能牙刷的刷牙评价方法、装置、设备及存储介质 |
EP3802022A1 (en) * | 2018-06-08 | 2021-04-14 | Bic Violex S.A. | Smart shaving accessory |
US11858155B1 (en) * | 2018-07-30 | 2024-01-02 | AI Incorporated | Electronic razor with suction |
EP3899984A1 (en) | 2018-12-21 | 2021-10-27 | The Procter & Gamble Company | Apparatus and method for operating a personal grooming appliance or household cleaning appliance |
EP3769921A1 (en) * | 2019-07-24 | 2021-01-27 | Koninklijke Philips N.V. | Providing feedback to a user of a shaving device during a shaving operation |
US11094883B2 (en) | 2019-10-31 | 2021-08-17 | International Business Machines Corporation | Structure and method to fabricate resistive memory with vertical pre-determined filament |
WO2021145607A1 (ko) * | 2020-01-13 | 2021-07-22 | 가톨릭대학교 산학협력단 | 치과 의무 기록 장치 및 그 치과 의무 기록 방법 |
EP3885084A1 (en) * | 2020-03-27 | 2021-09-29 | Bic Violex S.A. | System and method for assisting shaving |
KR20230028490A (ko) * | 2020-06-24 | 2023-02-28 | 에지웰 퍼스널 케어 브랜즈, 엘엘씨 | 개인 케어 장치를 위한 머신 러닝 |
US11273565B2 (en) | 2020-07-02 | 2022-03-15 | The Gillette Company Llc | Grooming device with eject button displacement |
US11465306B2 (en) * | 2020-07-02 | 2022-10-11 | The Gillette Company Llc | Grooming device having an eject sensor |
US11419540B2 (en) * | 2020-07-02 | 2022-08-23 | The Gillette Company Llc | Digital imaging systems and methods of analyzing pixel data of an image of a shaving stroke for determining pressure being applied to a user's skin |
GB2597685B (en) * | 2020-07-29 | 2023-03-01 | Dyson Technology Ltd | Hairstyling device |
FR3115663B1 (fr) * | 2020-11-05 | 2022-12-09 | Oreal | Système de traitement de cheveux dote de capteurs de proximité pour détecter une distance et un endroit de cuir chevelu ou de cheveux |
US12022936B2 (en) * | 2020-11-30 | 2024-07-02 | L'oreal | Handheld cosmetic device with kinematic and optical sensing for customizing treatment routines |
US11974658B2 (en) | 2020-11-30 | 2024-05-07 | L'oreal | Handheld cosmetic device with kinematic and optical sensing for customizing treatment routines |
GB2602448B (en) * | 2020-12-17 | 2023-09-06 | Dyson Technology Ltd | Oral treatment device |
GB2602087B (en) * | 2020-12-17 | 2023-09-06 | Dyson Technology Ltd | Oral treatment device |
GB2602449B (en) * | 2020-12-17 | 2023-09-06 | Dyson Technology Ltd | Oral treatment device |
GB2602450B (en) * | 2020-12-17 | 2023-09-06 | Dyson Technology Ltd | Oral treatment device |
GB2602088B (en) * | 2020-12-17 | 2023-06-14 | Dyson Technology Ltd | Oral treatment device |
GB2602086B (en) * | 2020-12-17 | 2024-07-03 | Dyson Technology Ltd | Oral treatment device |
US20220228866A1 (en) | 2021-01-15 | 2022-07-21 | ALMA Technologies Ltd. | System and method for providing localization using inertial sensors |
US11859978B2 (en) | 2021-01-15 | 2024-01-02 | ALMA Technologies Ltd. | System and method for estimating a velocity of a vehicle using inertial sensors |
CN113066565B (zh) * | 2021-03-25 | 2024-02-27 | 武汉明德生物科技股份有限公司 | 一种流行病患者跟踪终端管理方法及装置 |
FR3121590A1 (fr) * | 2021-04-07 | 2022-10-14 | L'oreal | Appareil cosmétique portatif avec capteur cinématique et optique pour la personnalisation des routines de traitement |
EP4292472A1 (en) * | 2022-06-16 | 2023-12-20 | Koninklijke Philips N.V. | Oral health care |
DE102022115398A1 (de) | 2022-06-21 | 2023-12-21 | epitome GmbH | Verfahren zum Bestimmen von Zahncharakteristika aus einem Zahnbild |
DE102022115396A1 (de) | 2022-06-21 | 2023-12-21 | epitome GmbH | Verfahren zum Reinigen von Zähnen und Reinigungssystem |
EP4356786A1 (en) * | 2022-10-20 | 2024-04-24 | Koninklijke Philips N.V. | Localization method for a personal care device |
EP4383269A1 (en) * | 2022-12-06 | 2024-06-12 | Koninklijke Philips N.V. | Determining a location of a personal care device |
EP4389371A1 (en) * | 2022-12-22 | 2024-06-26 | BIC Violex Single Member S.A. | Shaver |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20130232717A1 (en) * | 2012-03-09 | 2013-09-12 | Lg Electronics Inc. | Robot cleaner and method for controlling the same |
US20160167241A1 (en) * | 2014-12-10 | 2016-06-16 | Haggai Goldfarb | Intelligent shaving system having sensors |
WO2018037318A1 (en) * | 2016-08-22 | 2018-03-01 | Kolibree SAS | Oral hygiene system for compliance monitoring and tele-dentistry system |
CN108066029A (zh) * | 2016-11-14 | 2018-05-25 | 高露洁-棕榄公司 | 口腔护理系统和方法 |
Family Cites Families (105)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
SE501411C2 (sv) | 1993-07-12 | 1995-02-06 | Nobelpharma Ab | Förfarande och anordning vid tredimensionell kropp användbar i människokroppen |
AU680538B2 (en) | 1994-10-04 | 1997-07-31 | Nobel Biocare Services Ag | Process and device in respect of a three-dimensional body usable in the human body |
US5975893A (en) | 1997-06-20 | 1999-11-02 | Align Technology, Inc. | Method and system for incrementally moving teeth |
US5951498A (en) | 1997-10-16 | 1999-09-14 | Arnett Facial Reconstruction Courses, Inc. | Soft tissue cephalometric analysis for diagnosis and cephalometric treatment planning of facial imbalance |
IL122807A0 (en) | 1997-12-30 | 1998-08-16 | Cadent Ltd | Virtual orthodontic treatment |
US6331113B1 (en) | 1999-01-21 | 2001-12-18 | Dentech, L.L.C. | Automated tooth shade analysis and matching system |
US6328567B1 (en) | 1999-01-21 | 2001-12-11 | Dentech, Llc | Method, apparatus and system for automated tooth shade analysis and matching |
US6532299B1 (en) | 2000-04-28 | 2003-03-11 | Orametrix, Inc. | System and method for mapping a surface |
US6648640B2 (en) | 1999-11-30 | 2003-11-18 | Ora Metrix, Inc. | Interactive orthodontic care system based on intra-oral scanning of teeth |
US6560027B2 (en) | 2000-12-21 | 2003-05-06 | Hewlett-Packard Development Company | System and method for displaying information on a mirror |
GB0109444D0 (en) | 2001-04-17 | 2001-06-06 | Unilever Plc | Toothbrush usage monitoring system |
US20050038669A1 (en) | 2003-05-02 | 2005-02-17 | Orametrix, Inc. | Interactive unified workstation for benchmarking and care planning |
US7309232B2 (en) | 2003-10-10 | 2007-12-18 | Dentigenix Inc. | Methods for treating dental conditions using tissue scaffolds |
US9492245B2 (en) | 2004-02-27 | 2016-11-15 | Align Technology, Inc. | Method and system for providing dynamic orthodontic assessment and treatment profiles |
US7987099B2 (en) | 2004-02-27 | 2011-07-26 | Align Technology, Inc. | Dental data mining |
US20060099545A1 (en) | 2004-11-08 | 2006-05-11 | 3M Innovative Properties Company | Methods of orthodontic treatment |
US7234936B2 (en) | 2004-11-08 | 2007-06-26 | 3M Innovative Properties Company | Orthodontic systems with resilient appliances |
US9079030B2 (en) | 2004-12-22 | 2015-07-14 | G. Blake Holloway | Systems and methods for balancing and maintaining the health of the human autonomic nervous system |
US20080209650A1 (en) | 2005-05-03 | 2008-09-04 | Ultreo, Inc. | Oral hygiene devices |
EP1879503B1 (en) | 2005-05-03 | 2017-06-07 | The University of Western Ontario | An oral device and kit for use in association therewith |
JP2008543418A (ja) | 2005-06-20 | 2008-12-04 | ジンサン ファン | 歯磨きパターン分析校正装置、双方向歯磨き習慣校正方法およびシステム |
US20070003900A1 (en) | 2005-07-02 | 2007-01-04 | Miller Ross J | Systems and methods for providing orthodontic outcome evaluation |
BRPI0613428A8 (pt) | 2005-07-18 | 2017-12-05 | Abrams Stephen | Aparelho para radiometria fototermal e luminescência modulada para inspeção dos tecidos dentais de um paciente, método para a detecção de defeitos no tecido dental, e, sistema de formação de imagem modulada e método para formar imagem do tecido dental |
US10410308B2 (en) | 2006-04-14 | 2019-09-10 | Fuzzmed, Inc. | System, method, and device for personal medical care, intelligent analysis, and diagnosis |
US8647119B1 (en) | 2006-04-18 | 2014-02-11 | President And Fellows Of Harvard College | Methods and kits with fluorescent probes for caries detection |
ES2431846T5 (es) | 2006-07-25 | 2016-10-17 | The Procter & Gamble Company | Métodos y productos para analizar tejidos gingivales |
US20080109973A1 (en) | 2006-11-15 | 2008-05-15 | Farrell Mark E | Personal care products and methods |
CN101450010A (zh) | 2007-12-06 | 2009-06-10 | 北京大学口腔医学院 | 数字化口腔修复体制作装备 |
US8439672B2 (en) | 2008-01-29 | 2013-05-14 | Align Technology, Inc. | Method and system for optimizing dental aligner geometry |
US20090215015A1 (en) * | 2008-02-21 | 2009-08-27 | Raindrop Network Ltd. | Method and Apparatus for Developing a Proper Tooth Brushing Technique |
US9072370B2 (en) * | 2008-06-19 | 2015-07-07 | Colgate-Palmolive Company | User health profiles derived from oral care implements |
US8843151B2 (en) | 2008-09-11 | 2014-09-23 | Industrial Technology Research Institute | Systems and methods for providing data communications with burst transmissions |
EP2189198B1 (de) | 2008-11-20 | 2017-06-21 | Braun GmbH | Körperpflegegerät des persönlichen Bedarfs |
CL2008003661A1 (es) | 2008-12-10 | 2010-12-10 | Aplik S A | Metodo y dispositivo para determinar cuantitativamente las caracteristicas opticas superficiales de un objeto de referencia compuesto por una pluralidad de capas opticamente diferenciables. |
JP5564558B2 (ja) | 2009-04-09 | 2014-07-30 | ダルハウジー ユニバーシティー | 模擬歯科修復中に供給される硬化用エネルギーを測定する方法及びシステム |
ES2639365T3 (es) | 2009-05-08 | 2017-10-26 | The Gillette Company Llc | Sistema de cuidado bucodental para comparar las rutinas de cepillado de varios usuarios |
CA2770642C (en) | 2009-08-11 | 2019-04-02 | New York University | Orthodontic methods and devices |
US8460216B2 (en) | 2009-12-24 | 2013-06-11 | Bao Tran | Systems and methods of analyzing vibrations imparted to tissues and teeth |
CN101791253B (zh) | 2009-12-31 | 2014-12-10 | 上海量科电子科技有限公司 | 一种自动输出口腔护理用具的智能系统 |
US8582807B2 (en) | 2010-03-15 | 2013-11-12 | Nec Laboratories America, Inc. | Systems and methods for determining personal characteristics |
US9788917B2 (en) | 2010-03-17 | 2017-10-17 | ClearCorrect Holdings, Inc. | Methods and systems for employing artificial intelligence in automated orthodontic diagnosis and treatment planning |
US8161792B2 (en) | 2010-03-29 | 2012-04-24 | Braun Gmbh | Method and apparatus for assessing the gentleness of brushes |
EP2575950A4 (en) | 2010-05-25 | 2014-07-09 | Internat Scient Pty Ltd | ADMINISTRATION OF ORAL CARE PRODUCTS |
US8381571B2 (en) | 2010-06-17 | 2013-02-26 | Braun Gmbh | Method and apparatus for assessing the penetration of tooth cleaning elements in the gingival pocket |
US9308064B2 (en) | 2010-07-26 | 2016-04-12 | Johnson & Johnson Consumer Inc. | Devices and methods for collecting and analyzing fluid samples from the oral cavity |
US20120189976A1 (en) | 2011-01-25 | 2012-07-26 | Mcdonough Justin E | Oral care devices and systems |
US8832019B2 (en) | 2011-01-31 | 2014-09-09 | Fei Gao | Error simulation for image-guided dental implant treatment planning |
EP2688479B1 (en) | 2011-03-21 | 2018-08-29 | Carestream Dental Technology Topco Limited | A method for tooth surface classification |
WO2013001462A2 (en) | 2011-06-28 | 2013-01-03 | Chakka Nagesh | Power operated electric toothbrush |
GB201115265D0 (en) | 2011-09-05 | 2011-10-19 | Materialise Dental Nv | A method and system for 3d root canal treatment planning |
US9480539B2 (en) | 2011-11-03 | 2016-11-01 | James Ortlieb | Viewing system and viewing method for assisting user in carrying out surgery by identifying a target image |
WO2013075246A1 (en) | 2011-11-25 | 2013-05-30 | Braebon Medical Corporation | Method and apparatus for verifying compliance with dental appliance therapy |
US20140030674A1 (en) | 2012-01-27 | 2014-01-30 | Hao Nguyen | Prefabricated immediate no-drill dental implant |
US8925392B2 (en) * | 2012-01-30 | 2015-01-06 | Sensoria Inc. | Sensors, interfaces and sensor systems for data collection and integrated remote monitoring of conditions at or near body surfaces |
WO2014016718A1 (en) | 2012-07-25 | 2014-01-30 | Koninklijke Philips N.V. | Tooth cleaning device and method of operation therefor |
US20140065588A1 (en) * | 2012-08-31 | 2014-03-06 | Ideas That Work, Llc | Toothbrush Training System |
EP3010441B1 (en) | 2013-06-19 | 2019-11-27 | Kolibree | Toothbrush system with sensors for a dental hygiene monitoring system |
EP3811820A1 (de) | 2013-06-19 | 2021-04-28 | Valutis GmbH | Verfahren zur bestimmung von bewegungsmustern bei einer zahnbehandlung |
US10172443B2 (en) | 2013-08-11 | 2019-01-08 | Yong-Jing Wang | Oral care tools and systems |
US11122180B2 (en) | 2014-05-02 | 2021-09-14 | Dentsply Sirona Inc. | Systems, methods, apparatuses, and computer-readable storage media for collecting color information about an object undergoing a 3D scan |
US9510757B2 (en) | 2014-05-07 | 2016-12-06 | Align Technology, Inc. | Identification of areas of interest during intraoral scans |
US9626462B2 (en) | 2014-07-01 | 2017-04-18 | 3M Innovative Properties Company | Detecting tooth wear using intra-oral 3D scans |
EP3192022B1 (en) | 2014-08-04 | 2019-04-17 | Sarubbo, Davide | A system for checking a correct oral hygiene procedure |
US20160038092A1 (en) | 2014-08-11 | 2016-02-11 | Douglas A. Golay | Applying non-real time and non-user attended algorithms to stored non-imaging data and existing imaging data for obtaining a dental diagnosis |
US10192003B2 (en) | 2014-09-08 | 2019-01-29 | 3M Innovative Properties Company | Method of aligning intra-oral digital 3D models |
KR20160048492A (ko) | 2014-10-24 | 2016-05-04 | 엘지전자 주식회사 | 로봇 청소기 및 이의 제어 방법 |
WO2016075511A1 (en) | 2014-11-11 | 2016-05-19 | Nóbrega Celestino José Prudente | Intraoral vibratory multifunctional device and wireless system for interaction between device, patient, and dentist |
WO2016082784A1 (zh) | 2014-11-28 | 2016-06-02 | 南京童禾信息科技有限公司 | 一种儿童刷牙智能训练系统 |
CN105769352B (zh) | 2014-12-23 | 2020-06-16 | 无锡时代天使医疗器械科技有限公司 | 用于产生牙齿矫治状态的直接分步法 |
US9737257B2 (en) | 2015-01-30 | 2017-08-22 | 3M Innovative Properties Company | Estimating and predicting tooth wear using intra-oral 3D scans |
US9770217B2 (en) | 2015-01-30 | 2017-09-26 | Dental Imaging Technologies Corporation | Dental variation tracking and prediction |
US20180049856A1 (en) | 2015-02-09 | 2018-02-22 | Dan Andrei Ionescu | Method and system for delivery of particles in a root canal system |
US9451873B1 (en) | 2015-03-06 | 2016-09-27 | Align Technology, Inc. | Automatic selection and locking of intraoral images |
ES2711918T3 (es) | 2015-04-28 | 2019-05-08 | Koninklijke Philips Nv | Aparato de aseo |
BR112017024372B1 (pt) | 2015-05-13 | 2022-10-25 | Kolibree | Sistema eletrônico de escova de dentes para monitoramento de escovação e método para determinar a orientação de uma escova de dentes em relação à gravidade e a um campo magnético |
ES2964759T3 (es) * | 2015-09-08 | 2024-04-09 | Braun Gmbh | Determinación de una parte del cuerpo actualmente tratada de un usuario |
US10339649B2 (en) | 2015-09-11 | 2019-07-02 | Carestream Dental Technology Topco Limited | Method and system for hybrid mesh segmentation |
US11583365B2 (en) | 2015-10-07 | 2023-02-21 | uLab Systems, Inc. | System and methods for tooth movement as a flock |
WO2017068581A1 (en) * | 2015-10-20 | 2017-04-27 | Healthymize Ltd | System and method for monitoring and determining a medical condition of a user |
CN108289727A (zh) | 2015-10-29 | 2018-07-17 | 李岷炡 | 牙科用自助装置 |
IL242860A0 (en) | 2015-11-30 | 2016-04-21 | Boaz Toporovsky | A self-propelled dental device |
US10405754B2 (en) | 2015-12-01 | 2019-09-10 | University Of South Florida | Standardized oral health assessment and scoring using digital imaging |
US10032271B2 (en) | 2015-12-10 | 2018-07-24 | 3M Innovative Properties Company | Method for automatic tooth type recognition from 3D scans |
RU2721510C2 (ru) | 2015-12-29 | 2020-05-19 | Конинклейке Филипс Н.В. | Способы и системы для предоставления обратной связи о сеансе чистки |
EP3419475A1 (en) | 2016-02-25 | 2019-01-02 | Koninklijke Philips N.V. | Method and system for achieving optimal oral hygiene by means of feedback |
BR112018068552B1 (pt) | 2016-03-14 | 2023-03-21 | Kolibree | Sistema de dispositivo de higiene oral eletrônico e método para determinar a orientação de um dispositivo de higiene oral |
CN205494064U (zh) | 2016-03-28 | 2016-08-24 | 佛山奥斯威医疗科技有限公司 | 一种牙齿美白仪 |
US20170323069A1 (en) * | 2016-05-05 | 2017-11-09 | James Stewart Bates | Systems and methods for medical instrument patient measurements |
US9655504B1 (en) | 2016-05-26 | 2017-05-23 | Dental Smartmirror, Inc. | Autoclavable intraoral mirror with an integrated camera, and applications thereof |
CN105919684A (zh) | 2016-05-27 | 2016-09-07 | 穆檬檬 | 一种建立三维牙颌融合模型的方法 |
JP6707991B2 (ja) | 2016-05-30 | 2020-06-10 | 富士通株式会社 | 歯軸推定プログラム、歯軸推定装置及びその方法、並びに歯形データ生成プログラム、歯形データ生成装置及びその方法 |
JP6658308B2 (ja) | 2016-05-30 | 2020-03-04 | 富士通株式会社 | 歯の種類判定プログラム、歯冠位置判定装置及びその方法 |
US12097064B2 (en) | 2016-06-17 | 2024-09-24 | Carestream Dental Technology Topco Limited | Method and system for 3D cephalometric analysis |
WO2017218951A1 (en) | 2016-06-17 | 2017-12-21 | Align Technology, Inc. | Orthodontic appliance performance monitor |
JP7110120B2 (ja) | 2016-06-21 | 2022-08-01 | ノベル バイオケア サーヴィシィズ アーゲー | 歯科修復物の形状、位置及び向きの少なくとも1つの推定方法 |
US10482522B2 (en) | 2016-08-08 | 2019-11-19 | The Gillette Company Llc | Method for providing a customized product recommendation |
CN109788845B (zh) * | 2016-10-07 | 2021-03-09 | 荷兰联合利华有限公司 | 智能牙刷 |
CN106333480A (zh) | 2016-11-02 | 2017-01-18 | 郑洪� | 刷牙监测设备、刷牙监测方法及刷牙监测系统 |
WO2018087627A1 (en) * | 2016-11-10 | 2018-05-17 | Koninklijke Philips N.V. | Method and system for localization of an oral cleaning device |
CN106725957A (zh) | 2016-11-21 | 2017-05-31 | 成迪寒 | 一种智能儿童刷牙引导系统 |
CN217118309U (zh) * | 2017-10-25 | 2022-08-05 | 必胜公司 | 自主表面清洁装置 |
CN107832719B (zh) * | 2017-11-15 | 2020-09-04 | 西藏班公湖藏药材开发有限责任公司 | 刷牙分析方法、装置及刷牙系统 |
US10647011B2 (en) | 2018-01-19 | 2020-05-12 | The Gillette Company Llc | Networked shaving appliance system |
US11471016B2 (en) * | 2018-05-11 | 2022-10-18 | Samsung Electronics Co., Ltd. | Method and apparatus for executing cleaning operation |
EP3899984A1 (en) * | 2018-12-21 | 2021-10-27 | The Procter & Gamble Company | Apparatus and method for operating a personal grooming appliance or household cleaning appliance |
-
2019
- 2019-12-10 EP EP19836247.7A patent/EP3899984A1/en active Pending
- 2019-12-10 US US16/708,490 patent/US20200202520A1/en active Pending
- 2019-12-10 CN CN201980079067.XA patent/CN113168542B/zh active Active
- 2019-12-10 US US16/708,491 patent/US20200202521A1/en not_active Abandoned
- 2019-12-10 US US16/708,496 patent/US11494899B2/en active Active
- 2019-12-10 CN CN201980079549.5A patent/CN113168910B/zh active Active
- 2019-12-10 US US16/708,489 patent/US11468561B2/en active Active
- 2019-12-10 WO PCT/US2019/065322 patent/WO2020131473A1/en unknown
- 2019-12-10 CN CN201980079548.0A patent/CN113168909A/zh active Pending
- 2019-12-10 WO PCT/US2019/065321 patent/WO2020131472A1/en unknown
- 2019-12-10 CN CN202211005377.7A patent/CN115251760A/zh active Pending
- 2019-12-10 EP EP19836246.9A patent/EP3899972A2/en active Pending
- 2019-12-10 WO PCT/US2019/065323 patent/WO2020131474A1/en unknown
- 2019-12-10 EP EP19836248.5A patent/EP3899973A1/en active Pending
- 2019-12-10 EP EP19836249.3A patent/EP3899974A1/en active Pending
- 2019-12-10 WO PCT/US2019/065320 patent/WO2020131471A2/en unknown
- 2019-12-10 CN CN201980079552.7A patent/CN113168911A/zh active Pending
-
2022
- 2022-08-29 US US17/897,289 patent/US11752650B2/en active Active
-
2023
- 2023-01-27 US US18/102,196 patent/US20230182336A1/en not_active Abandoned
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20130232717A1 (en) * | 2012-03-09 | 2013-09-12 | Lg Electronics Inc. | Robot cleaner and method for controlling the same |
US20160167241A1 (en) * | 2014-12-10 | 2016-06-16 | Haggai Goldfarb | Intelligent shaving system having sensors |
WO2018037318A1 (en) * | 2016-08-22 | 2018-03-01 | Kolibree SAS | Oral hygiene system for compliance monitoring and tele-dentistry system |
CN108066029A (zh) * | 2016-11-14 | 2018-05-25 | 高露洁-棕榄公司 | 口腔护理系统和方法 |
Also Published As
Publication number | Publication date |
---|---|
CN113168542B (zh) | 2024-10-15 |
WO2020131471A3 (en) | 2020-07-30 |
WO2020131471A2 (en) | 2020-06-25 |
US20200201272A1 (en) | 2020-06-25 |
WO2020131472A1 (en) | 2020-06-25 |
CN113168910B (zh) | 2024-05-28 |
CN115251760A (zh) | 2022-11-01 |
CN113168911A (zh) | 2021-07-23 |
US20200202520A1 (en) | 2020-06-25 |
US11494899B2 (en) | 2022-11-08 |
WO2020131473A1 (en) | 2020-06-25 |
EP3899973A1 (en) | 2021-10-27 |
US20200202521A1 (en) | 2020-06-25 |
US11468561B2 (en) | 2022-10-11 |
US20220414879A1 (en) | 2022-12-29 |
EP3899984A1 (en) | 2021-10-27 |
US20200201266A1 (en) | 2020-06-25 |
EP3899974A1 (en) | 2021-10-27 |
WO2020131474A1 (en) | 2020-06-25 |
US11752650B2 (en) | 2023-09-12 |
US20230182336A1 (en) | 2023-06-15 |
CN113168910A (zh) | 2021-07-23 |
EP3899972A2 (en) | 2021-10-27 |
CN113168542A (zh) | 2021-07-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113168910B (zh) | 用于操作个人梳理器具或家用清洁器具的设备和方法 | |
US20220398745A1 (en) | Apparatus and method for operating a dental appliance | |
JP7402165B2 (ja) | 可動式処置デバイスの位置特定を実施するための装置及び方法 | |
US10517532B2 (en) | Method for determining movement patterns during a dental treatment | |
JP7386213B2 (ja) | 個人衛生システム | |
US11151421B2 (en) | Method for treating a surface | |
CN108430264B (zh) | 用于提供刷洗过程反馈的方法和系统 | |
EP4164449B1 (en) | Oral care device recommendation system | |
EP3528166B1 (en) | Apparatus and method for classifying a motion of a movable personal appliance |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |