CN108279780B - 可穿戴装置及控制方法 - Google Patents
可穿戴装置及控制方法 Download PDFInfo
- Publication number
- CN108279780B CN108279780B CN201810171054.2A CN201810171054A CN108279780B CN 108279780 B CN108279780 B CN 108279780B CN 201810171054 A CN201810171054 A CN 201810171054A CN 108279780 B CN108279780 B CN 108279780B
- Authority
- CN
- China
- Prior art keywords
- scanning
- information
- tactile
- user
- component
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 38
- 230000000638 stimulation Effects 0.000 claims description 26
- 230000007246 mechanism Effects 0.000 claims description 17
- 239000000463 material Substances 0.000 claims description 14
- 238000004458 analytical method Methods 0.000 claims description 9
- 238000006243 chemical reaction Methods 0.000 claims description 8
- 238000003860 storage Methods 0.000 claims description 6
- 230000004888 barrier function Effects 0.000 claims description 4
- 238000001514 detection method Methods 0.000 claims description 4
- 230000004438 eyesight Effects 0.000 abstract description 8
- 230000007547 defect Effects 0.000 abstract description 2
- 238000010586 diagram Methods 0.000 description 22
- 208000010415 Low Vision Diseases 0.000 description 7
- 238000004590 computer program Methods 0.000 description 7
- 230000004303 low vision Effects 0.000 description 7
- 230000006870 function Effects 0.000 description 6
- 230000009466 transformation Effects 0.000 description 6
- 239000000203 mixture Substances 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 210000001015 abdomen Anatomy 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000035807 sensation Effects 0.000 description 2
- 239000010409 thin film Substances 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 208000001140 Night Blindness Diseases 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 230000015556 catabolic process Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 239000004020 conductor Substances 0.000 description 1
- 230000008602 contraction Effects 0.000 description 1
- 230000005672 electromagnetic field Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 210000002683 foot Anatomy 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 210000004247 hand Anatomy 0.000 description 1
- 208000016354 hearing loss disease Diseases 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000002955 isolation Methods 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 239000000523 sample Substances 0.000 description 1
- 230000035939 shock Effects 0.000 description 1
- 230000004936 stimulating effect Effects 0.000 description 1
- 210000004243 sweat Anatomy 0.000 description 1
- 210000003371 toe Anatomy 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
- 210000000707 wrist Anatomy 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/016—Input arrangements with force or tactile feedback as computer generated output to the user
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/163—Wearable computers, e.g. on a belt
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/014—Hand-worn input/output arrangements, e.g. data gloves
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/167—Audio in a user interface, e.g. using voice commands for navigating, audio feedback
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/20—Scenes; Scene-specific elements in augmented reality scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/62—Text, e.g. of license plates, overlay texts or captions on TV images
- G06V20/63—Scene text, e.g. street names
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B21/00—Teaching, or communicating with, the blind, deaf or mute
- G09B21/001—Teaching or communicating with blind persons
- G09B21/003—Teaching or communicating with blind persons using tactile presentation of the information, e.g. Braille displays
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B21/00—Teaching, or communicating with, the blind, deaf or mute
- G09B21/001—Teaching or communicating with blind persons
- G09B21/006—Teaching or communicating with blind persons using audible presentation of the information
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B21/00—Teaching, or communicating with, the blind, deaf or mute
- G09B21/001—Teaching or communicating with blind persons
- G09B21/007—Teaching or communicating with blind persons using both tactile and audible presentation of the information
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/033—Indexing scheme relating to G06F3/033
- G06F2203/0331—Finger worn pointing device
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/223—Execution procedure of a spoken command
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- General Health & Medical Sciences (AREA)
- Business, Economics & Management (AREA)
- Educational Administration (AREA)
- Educational Technology (AREA)
- Computer Hardware Design (AREA)
- Computational Linguistics (AREA)
- Acoustics & Sound (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本公开涉及一种可穿戴装置及控制方法,可穿戴装置包括:扫描部件,配置成扫描对象,获得扫描信息;触感提示部件,与所述扫描部件耦接,配置成将所述扫描信息转换为触感信息;和佩戴部件,配置成连接所述触感提示部件。根据扫描信息向使用者提供转换后的触感信息,使得存在视力缺陷或者特定状况下视力受限的人群能够方便的获得信息,从而给使用者的生活带来辅助和便利。
Description
技术领域
本公开涉及人体辅助领域,尤其涉及一种可穿戴装置及控制方法。
背景技术
据国家权威部门统计,中国是世界盲人数量最多的国家,约有500万,占世界盲人人口的18%,低视力者也高达600多万。盲人在阅读方面需要购买专用的盲文书籍,而盲文书籍数量和种类都较为有限,另外,盲人和视力较差的人在生活中存在种种不便,例如在出行、穿衣等方面需要依赖于他人,有些则还需要专人进行照料。
发明内容
在本公开的一个方面,提供一种可穿戴装置,包括:扫描部件,配置成扫描对象,获得扫描信息;触感提示部件,与所述扫描部件耦接,配置成将所述扫描信息转换为触感信息;和佩戴部件,配置成连接所述触感提示部件。
在一些实施例中,所述触感提示部件包括:控制器,包括信息转换模块,用于将所述扫描部件的扫描信息转换为对应的编码信息;和触觉刺激单元,用于根据所述编码信息对使用者的触觉敏感部位上的对应区域进行触觉刺激,以将所述扫描信息转换为所述触觉敏感部位可识别的触感信息。
在一些实施例中,所述控制器还包括:控制模块,用于根据所述编码信息给与所述编码信息对应的所述触觉刺激单元的电触点加电;所述触觉刺激单元包括:触点驱动机构,具有分别与所述电触点对应的多个升降机构,用于在所述电触点加电时驱动对应的升降机构进行升降运动。
在一些实施例中,所述触觉刺激单元还包括:柔性层,设置于所述触点驱动机构与所述触觉敏感部位之间。
在一些实施例中,所述编码信息包括盲文编码信息。
在一些实施例中,还包括:语音提示部件,用于将所述扫描信息以语音方式提示给使用者。
在一些实施例中,还包括:语音接收部件,用于接收使用者的语音指令,以触发以下的操作至少之一:所述扫描部件的信息扫描操作、所述触感提示部件的触感提示操作和所述语音提示部件的语音提示操作。
在一些实施例中,所述扫描部件包括以下至少一种:
第一扫描模块,设置在所述佩戴部件上对应于使用者的手背一侧,用于对使用者前方及两侧的物体进行扫描;
第二扫描模块,设置在所述佩戴部件上对应于使用者的手心一侧,用于对与使用者手接近或接触的物体进行扫描。
在一些实施例中,所述第一扫描模块包括以下至少一种:
红外传感单元,用于探测扫描区域中物体的位置及类型;
距离传感单元,用于检测扫描区域中物体的距离;
图像采集分析单元,用于采集扫描区域的物体图像,并根据所述物体图像来确定物体的类型、形状、尺寸和色彩中的至少一种;
物体特性检测单元,用于对扫描区域中的物体的材质进行检测;或者
所述第二扫描模块包括:文字扫描单元,用于采集所述对象包含的文字信息。
在一些实施例中,还包括:充气调整部件,用于通过调整充入所述佩戴部件的充气量来控制所述佩戴部件的佩戴贴合度。
在本公开的另一个方面,提供一种基于前述的可穿戴装置的控制方法,包括:
扫描对象,获得扫描信息;
将扫描信息转换为触感信息。
在一些实施例中,所述扫描对象的操作包括:对使用者所在道路的路况信息进行扫描,并分辨道路上的障碍物信息。
在一些实施例中,所述扫描对象的操作包括:对使用者所指示的区域内的物体进行扫描,以获取物体的类型、形状、尺寸、色彩和材质中的至少一种。
在一些实施例中,所述扫描对象的操作包括:对所述对象包含的文字信息进行扫描。
在一些实施例中,还包括:接收使用者的语音指令,以触发以下的操作至少之一:信息扫描操作、触感提示操作和语音提示操作。
在一些实施例中,所述转换操作包括:将所述扫描部件的扫描信息转换为对应的编码信息;根据所述编码信息对使用者的触觉敏感部位上的对应区域进行触觉刺激,以将所述扫描信息转换为所述触觉敏感部位可识别的触感信息。
在本公开的另一个方面,提供一种存储介质,在其上存储有计算机指令,其中,所述计算机指令被处理器运行时执行前述的方法的一个或多个步骤。
在本公开的另一个方面,提供一种设备,包括一个或多个处理器,所述处理器被配置为运行计算机指令以执行前述的方法的一个或多个步骤。
附图说明
构成说明书的一部分的附图描述了本公开的实施例,并且连同说明书一起用于解释本公开的原理。
参照附图,根据下面的详细描述,可以更加清楚地理解本公开,其中:
图1是根据本公开可穿戴装置的一些实施例的示例性结构图;
图2是示出图1可穿戴装置实施例中触感提示部件的构成的示例性结构图;
图3是根据本公开可穿戴装置的一些实施例的使用者佩戴示意图;
图4是根据本公开可穿戴装置的一些实施例中文字编码向触感信息转换的示意图;
图5是根据本公开可穿戴装置的另一些实施例的示例性结构图;
图6是根据本公开可穿戴装置的又一些实施例的示例性结构图;
图7是根据本公开可穿戴装置的再一些实施例的示例性结构图;
图8是根据本公开控制方法的一些实施例的示例性流程图;
图9是根据本公开控制方法的另一些实施例的示例性流程图;
图10是根据本公开控制方法的又一些实施例的示例性流程图;
图11是根据本公开控制方法的再一些实施例的示例性流程图。
应当明白,附图中所示出的各个部分的尺寸并不是按照实际的比例关系绘制的。此外,相同或类似的参考标号表示相同或类似的构件。
具体实施方式
现在将参照附图来详细描述本公开的各种示例性实施例。对示例性实施例的描述仅仅是说明性的,决不作为对本公开及其应用或使用的任何限制。本公开可以以许多不同的形式实现,不限于这里所述的实施例。提供这些实施例是为了使本公开透彻且完整,并且向本领域技术人员充分表达本公开的范围。应注意到:除非另外具体说明,否则在这些实施例中阐述的部件和步骤的相对布置、材料的组分、数字表达式和数值应被解释为仅仅是示例性的,而不是作为限制。
本公开中使用的“第一”、“第二”以及类似的词语并不表示任何顺序、数量或者重要性,而只是用来区分不同的部分。“包括”或者“包含”等类似的词语意指在该词前的要素涵盖在该词后列举的要素,并不排除也涵盖其他要素的可能。“上”、“下”、“左”、“右”等仅用于表示相对位置关系,当被描述对象的绝对位置改变后,则该相对位置关系也可能相应地改变。
在本公开中,当描述到特定器件位于第一器件和第二器件之间时,在该特定器件与第一器件或第二器件之间可以存在居间器件,也可以不存在居间器件。当描述到特定器件连接其它器件时,该特定器件可以与所述其它器件直接连接而不具有居间器件,也可以不与所述其它器件直接连接而具有居间器件。
本公开使用的所有术语(包括技术术语或者科学术语)与本公开所属领域的普通技术人员理解的含义相同,除非另外特别定义。还应当理解,在诸如通用字典中定义的术语应当被解释为具有与它们在相关技术的上下文中的含义相一致的含义,而不应用理想化或极度形式化的意义来解释,除非这里明确地这样定义。
对于相关领域普通技术人员已知的技术、方法和设备可能不作详细讨论,但在适当情况下,所述技术、方法和设备应当被视为说明书的一部分。
为了解决盲人或低视力者在生活中存在的不便,在一些相关技术中通过装置为盲人或低视力者等提供语音引导功能,以使此类人群能够在不借助视力的状态下获取所需信息,从而使其生活更加便利。但语音引导功能往往对外界的声音环境有一定的要求,例如在比较嘈杂的场合下,可能会难以听清语音提示,而且在长时间使用下可能会对听力有所损耗。
有鉴于此,本公开实施例提供可穿戴装置及基于可穿戴装置的控制方法,以便为使用者的生活提供辅助和便利。
图1是根据本公开可穿戴装置的一些实施例的示例性结构图。在图1所示实施例中,可穿戴装置包括:
扫描部件200,配置成扫描对象,获得扫描信息;
触感提示部件300,与所述扫描部件200耦接,配置成将所述扫描信息转换为触感信息;和
佩戴部件100,配置成连接所述触感提示部件300。
在本实施例中,使用者可以利用佩戴部件100将可穿戴装置佩戴在自己身上或者使用的感知设备(例如电子皮肤或假肢等)上的适合位置,并利用扫描部件200对对象进行扫描来获得扫描信息。这里的对象既可以包括以实体方式存在的对象(例如扫描路牌、衣服等物体),也可以包括以非实体方式存在的对象(例如电磁场等)。扫描部件200可以以随机方式对周围环境进行扫描,也可以对希望探查的目标物体或者目标方向进行扫描。例如,当目标对象处在扫描部件200的扫描区域,或者随着扫描部件200相对于物体的运动而使目标对象进入到扫描部件200的扫描区域时,扫描部件200可以定期地、基于指令地或者实时地对该物体进行信息扫描。
在一些实施例中,扫描部件200可设置在佩戴部件100上。在另一些实施例中,扫描部件200也可以独立于佩戴部件100,或者包括其他设备中的扫描装置。
在一些实施例中,使用者在佩戴可穿戴装置后,触感提示部件300在常态下位于使用者的触觉敏感部位的对应位置,以方便使用者以被动方式快速地获取触感信息。在另一些实施例中,触感提示部件300在可穿戴装置处于工作状态下与使用者的触觉敏感部位进行接触。例如,使用者的触觉敏感部位与触感提示部件300的设置位置不在相同或相近位置(例如分别位于人体的左手和右手),使用者在接收触感信息时,需要将触觉敏感部位移动至触觉敏感部位与之接触,或者将触感提示部件300移动至触觉敏感部位与之接触,以便使用者以主动方式来获取触感信息。
触感提示部件所转换的触感信息包括使用者能够以触感方式直接或间接接收的信息形式,例如对皮肤的短时接触、挤压、震动、电流刺激、温感变化或气流冲击等。为了使使用者能够根据触感获得与扫描信息对应的更丰富的触感信息,例如获取文字或图形信息,该触感信息可选包括使用者的触觉敏感部位可识别的触感信息。触觉敏感部位可识别的触感信息包括由触觉敏感部位较精准地识别出的触觉刺激的细微位置、程度及其变化,且这种刺激位置、程度及其变化可对应于文字或图形信息的特定编码。
根据使用者的触觉敏感部位的所在位置,佩戴部件100被佩戴在对应的身体部位或相邻部位。例如,在一些实施例中,触觉敏感部位包括使用者的手指的指尖或指腹,相应地佩戴部件100佩戴在使用者的手指上或与手指相邻的手掌上。又例如,在另一些实施例中,触觉敏感部位包括使用者的手背或者手心,相应地佩戴部件100佩戴在使用者的手掌上或与手掌相邻的手腕上。
在其他实施例中,佩戴部件100还能够佩戴在使用者身体的其他部位,例如腿部或脚部,相应地触觉敏感部位也包括脚掌或脚趾等。佩戴部件100不限于单一位置,在不同的实施例中,佩戴部件100可以同时佩戴在身体的不同部位例如手、头、胸、腿等部位。
本公开可穿戴装置实施例及后续实施例中提到的使用者包括存在视力缺陷的人群,例如盲人、低视力者或夜盲症患者等,也包括在特定状况下(例如在较暗场合下或者使用者佩戴影响正常观看的头盔或者眼镜时)视力受限的视力正常的人群。
本实施例向使用者提供触感信息的方式,对使用者所在环境的光线或声音一般没有特别要求,因此提供了更多的场合适应性,满足使用者在更多的场合下的辅助需求。此外,一些存在听力障碍或者处于不便听取提示信息的场合的使用者也能够通过本实施例获得帮助和便利。
图2是示出图1可穿戴装置实施例二中触感提示部件的构成的示例性结构图。在图2中,触感提示部件300包括:控制器310和触觉刺激单元320。其中,控制器310包括信息转换模块311,用于将所述扫描部件200的扫描信息转换为对应的编码信息。当扫描部件200扫描得到扫描信息后,信息转换模块311可以对扫描信息进行处理,以便将扫描信息转换成触觉刺激单元320可处理的编码信息。
在一些实施例中,信息转换模块311能够在本地执行对应于转换操作的具体操作,例如图像分析、特征匹配、编码查询等具体操作。在另一些实施例中,信息转换模块311能够与远程或网络的处理平台通信,将部分的转换操作转移到处理平台,例如信息转换模块311可将信息转换请求发送给处理平台,再从处理平台获取处理后的信息作为转换后的信息。
编码信息可选用几何图形、点阵、符号或数字等形式的编码信息。在一些实施例中,编码信息为盲文编码信息,这种点阵式的编码信息能够方便熟悉盲文的使用者使用。
在一些实施例中,编码信息以编码库的方式预存在控制器310内,通过查询操作可获得扫描信息对应的编码信息。在另一些实施例中,编码信息能够按照预设的生成公式或规则由扫描信息生成。在另一些实施例中,编码信息为按照汉字整体或者构成(例如偏旁部首等)进行二进制编码,例如汉字“一”对应编码为00000000,汉字“二”对应编码为00000001。
触觉刺激单元320用于根据所述编码信息对所述触觉敏感部位上的对应区域进行触觉刺激。触觉刺激的方式包括形成凹凸形式的表面,以方便使用者按压触摸或者对使用者的触觉敏感位置施以预设频率的接触等接触式的触觉刺激,也可以包括采用微电流、气流冲击或者控制触觉敏感部位的局部温度变化等非接触式的触觉刺激,还可以综合采用几种不同的触觉刺激方式。通过对触觉敏感部位上的不同区域的刺激,可提供更丰富的可识别的触感信息。
图3是根据本公开可穿戴装置的一些实施例的使用者佩戴示意图。在图3中,控制器310还包括控制模块(图中未示出),用于根据所述编码信息给与所述编码信息对应的所述触觉刺激单元320的电触点(例如薄膜晶体管单元的电触点点阵等)加电。触觉刺激单元320包括触点驱动机构321。触点驱动机构321具有分别与所述电触点对应的多个升降机构,例如基于气动原理的气缸、基于液压原理的油缸或者基于继电器原理的触点动作位移器等,用于在所述电触点加电时驱动对应的升降机构进行升降运动。
参考图3,在一些实施例中,可穿戴装置以指环形式佩戴在使用者的手指700上。在外壳110的内侧,手指700的指腹的相对侧设有触点驱动机构321,与其相连接的是控制器310。触点驱动机构321中的多个触点动作位移器的顶部可以在均不得电的初始状态下形成与手指700的指腹弧度接近的曲面,以使得手指700不会感觉到明显的凸起结构。当使用扫描部件200进行扫描时,扫描信息会被转换成对应的凸起结构,以使得手指700在很小的运动范围下就可以完成基于触觉的识别。
为了保护触点驱动单元等内部元件,尽量避免其浸水或被使用者的汗水渗入,可以参考图3所示的实施例,在触觉刺激单元320中增设柔性层322,将其设置于所述触点驱动机构321与所述触觉敏感部位之间,实现隔离作用。另一方面柔性层322也能改善使用者的触觉感受。
在一些实施例中,可穿戴装置还包括其他方便使用的配件,例如用于通过调整充入所述佩戴部件100的充气量来控制所述佩戴部件100的佩戴贴合度的充气调整部件。例如,在图3中容纳手指700的腔室设有进气口430和出气口420,通过气阀控制可以实现容纳手指700的腔室的扩张和收缩,以调整该腔室对手指700的贴合度。同理,也适用于手指之外的手掌或者身体的其他部位的佩戴贴合度的调节。另一种配件包括电源配件,例如设于可更换电池舱的电池,或者通过图3中充电口410进行充电的充电电池等。
图4是根据本公开可穿戴装置的一些实施例中文字编码向触感信息转换的示意图。参考图4,信息转换模块311转换得到的编码信息可以通过控制模块进一步转换成多个升降机构的升降运动。在一些实施例中,触觉刺激单元320包括薄膜晶体管单元,薄膜晶体管单元可制作成N*M的阵列,且每行和每列的电触点都分别与控制器310连接。
以文字“病房”(sick room)为例,按照单字或词组映射到点阵形式的编码信息为{(x1,y1),(x1,y2),(x3,y1),(x4,y3)};{(xn,y1),(xn+1,y1),(xn,y2),(xn+2,y2),(xn+2,y3),(xn+3,y3)}。控制器310中的控制模块能够根据编码点阵中的每个坐标点控制对应的触点驱动机构321的电开关。例如使基于继电器原理的触点动作位移器的开关电路得电,图4中的黑色圆点所对应的触点动作位移器在得电后执行起升动作,并在对应位置形成凸起结构。使用者此时可通过触摸或按压该凸起结构来识别该组文字。
图5是根据本公开可穿戴装置的另一些实施例的示例性结构图。与之前的多个实施例相比,本实施例的可穿戴装置还包括语音提示部件500,用于将所述扫描部件200的扫描信息以语音方式提示给使用者。通过语音提示部件500的语音提示可以辅助使用者来了解信息,使用者可以根据需求选择使用语音提示部件500和触感提示部件300中的任一种或者两种同时使用。
对于盲人或低视力者,还可以同时使用语音提示部件500和触感提示部件300进行盲文的学习。也就是说,将扫描文字转换成对应的盲文编码和文字语音,使得使用者可以根据声音来确定触摸到的盲文文字,从而实现盲文学习的作用。
图6是根据本公开可穿戴装置的又一些实施例的示例性结构图。与之前实施例相比,本实施例的可穿戴装置还包括语音接收部件600。该部件用于接收使用者的语音指令,以触发以下的操作至少之一:所述扫描部件200的信息扫描操作、所述触感提示部件300的触感提示操作和所述语音提示部件500的语音提示操作。
本实施例可以进一步简化使用者的输入操作,例如通过语音指令要求可穿戴装置查找使用者周围预设尺寸空间内的某件物品,则可触发扫描部件200的扫描操作,以便查找附近的物品中是否有指定物品,如果有,则通过语音提示或者触感提示的方式告知使用者,如果没有则也告知使用者没有找到。
在一些实施例中,扫描部件200独立于佩戴部件100,则使用者在需要扫描时,通过手持等方式操作扫描部件200进行对象的扫描。而在另一些实施例中,由于使用者往往习惯于使用手来寻找运动路径或者特定物品,因此扫描部件200可选择通过佩戴部件设置在使用者的手部。图7是根据本公开可穿戴装置的再一些实施例的示例性结构图。参考图7,该实施例的扫描部件200包括以下至少一种:第一扫描模块210,设置在所述佩戴部件100上对应于使用者的手背一侧,用于对使用者前方及两侧的物体进行扫描;第二扫描模块220,设置在所述佩戴部件100上对应于使用者的手心一侧,用于对与使用者手接近或接触的物体进行扫描。
结合图3,在一些实施例中,第一扫描模块210可设置在手指700的手背侧。当使用者的手自然下垂或摆动时,第一扫描模块210的扫描区域对应于使用者前方及两侧,从而方便地对扫描区域内的物体进行扫描。
在一些实施例中,第一扫描模块210包括以下至少一种:红外传感单元,用于探测扫描区域中物体的位置及类型;距离传感单元,用于检测扫描区域中物体的距离。当使用者处于户外时,可通过红外传感单元和距离传感单元来识别路况,例如探测道路上的护栏、道路标识、人为或非人为设置的障碍物等物体的位置、类型或距离等信息,以方便使用者选择适合的行进方向,避开或跨过障碍物。
在另一些实施例中,第一扫描模块210包括以下至少一种:图像采集分析单元,用于采集扫描区域的物体图像,并根据所述物体图像来确定物体的类型、形状、尺寸和色彩中的至少一种;物体特性检测单元,用于对扫描区域中的物体的材质进行检测。
当使用者在特定区域寻找物品时,例如在室内寻找适合的衣物,使用者可以通过图像采集分析单元(例如包括互补金属氧化物导体CMOS或电荷耦合器件CCD的摄像头、物品数据库以及能够实现分析比对或特征匹配的处理器)对室内空间的多个区域进行拍摄,形成物体图像,然后利用物品数据库中记录的图像进行分析比对或者提取特征信息进行匹配,来获得衣物的相应方位,从而方便使用者按照指示来获得该被找的物品。当使用者需要辨别物品材质时,例如希望寻找一件毛皮大衣,则可利用物品特性检测单元,例如激光诱导击穿光谱仪来检测扫描区域中的物品的材质是否为毛皮。
为了满足使用者辨识文字的需求,在一些实施例中,第二扫描模块220包括文字扫描单元,该单元用于采集对象包含的文字信息。该文字扫描单元可选设置在手心侧的位置,例如手指端或指肚,这样使用者可以通过手指抚过书籍上的文字部分来扫描文字信息,从而方便盲人、低视力者或者视力受限的正常人进行文字阅读,而不需要依赖于特制的盲文书籍,进而扩展了使用者的阅读范围,降低了盲文书籍的购买成本。
基于本公开上述可穿戴装置的各个实施例,本公开还提供了相应的控制方法。图8是根据本公开控制方法的一些实施例的示例性流程图。在本实施例中,基于前述的可穿戴装置的控制方法包括:
步骤10、扫描对象,获得扫描信息;
步骤20、将扫描信息转换为触感信息。
使用者可利用佩戴部件100将可穿戴装置佩戴在身上,然后主动控制扫描部件200来调整扫描部件200,来获得希望扫描的信息,或者被动地接收扫描部件200的扫描信息。在不同实施例中,扫描信息有所不同,例如包括物品自身的形状、类型、尺寸或材质等属性信息,或者物品与使用者之间的方位或距离等关系信息,或者物品上附着的图形、符号、文字等信息等。步骤20中的转换操作可通过触感提示部件300对扫描信息的处理实现。通过将扫描信息转换成触感信息,给盲人、低视力者以及视力受限的正常人等使用者提供了辅助和便利。
在一些实施例中,步骤20的信息转换过程包括:将所述扫描部件200的扫描信息转换为对应的编码信息;根据所述编码信息对使用者的触觉敏感部位上的对应区域进行触觉刺激,以将所述扫描信息转换为所述触觉敏感部位可识别的触感信息。可选用的编码信息的形式、触觉刺激方式及敏感触觉部位均可参考前述可穿戴装置的实施例,这里就不再赘述了。
图9是根据本公开控制方法的另一些实施例的示例性流程图。与之前方法实施例相比,本实施例的步骤10包括步骤11,即对使用者所在道路的路况信息进行扫描,并分辨道路上的障碍物信息。在本实施例中,使用者可以在户外对所在道路的路况信息进行扫描,获得周围例如护栏、围墙、道路标识等物体的扫描信息,并分辨出道路上的障碍物的类型、距离、尺寸等信息。
通常来说,使用者在道路上行进时手臂会自然下垂,则随着手臂的摆动,扫描部件200的扫描区域就会对使用者所在道路进行覆盖。对于包括红外传感单元的扫描部件200,能够根据扫描区域内物体的反射光的波长来进行物体类型的判定。对于包括距离传感单元的扫描部件200,则能够实现障碍物等物体距离使用者的距离的确定。
在一些实施例中,扫描部件200通过扫描获得了相应的扫描信息之后,执行图9中的步骤21,即将扫描部件200获得的路况信息及障碍物信息通过触感提示部件300以触感方式提示给使用者,或者通过语音提示部件500以语音方式提示给使用者。
图10是根据本公开控制方法的又一些实施例的示例性流程图。与图8实施例相比,本实施例的步骤10包括步骤12,即对使用者所指示的区域内的物体进行扫描,以获取物体的类型、形状、尺寸、色彩和材质中的至少一种。在本实施例中,使用者可以在户外或室内对某个区域内的物品进行查找,例如在室内查找适合的衣服。使用者可以通过配戴在手上的可穿戴装置指向待查找的区域,以使扫描部件200的扫描区域覆盖到待查找区域。
在一些实施例中,扫描部件200包括图像采集分析单元,可以通过给待查找区域的整体或局部拍照,然后利用物品数据库中记录的图像进行分析比对或者提取特征信息进行匹配,来确定图像中各个部分对应的物品的类型、尺寸、形状或色彩等。例如在图像采集分析单元的拍照和比对分析,能够获得衣柜区域的图像中上衣、裤子、袜子和鞋等类别的物品的放置位置、颜色、款式等扫描信息。在另一些实施例中,扫描部件200包括物体特性检测单元,可以实现扫描区域中的物体的材质进行检测,例如检测待查找区域中的物品的材质。
在扫描部件获得物体的类型、形状、尺寸、色彩和材质中的至少一种之后,在一些实施例中执行步骤22,即将扫描部件获得的物体的类型、形状、尺寸、色彩和材质中的至少一种通过触感提示部件300以触感方式提示给使用者,或者通过语音提示部件500以语音方式提示给使用者。
图11是根据本公开控制方法的再一些实施例的示例性流程图。与图8实施例相比,本实施例的步骤10包括步骤13,即通过扫描部件200对对象包含的文字信息进行扫描。在本实施例中,使用者可以在阅读书籍时,通过配戴在手上的扫描部件200对书籍上的文字进行扫描,以获取文字信息。
在获得了文字信息后,在一些实施例中执行步骤23,即通过触感提示部件300将所述扫描部件200的扫描信息转换为使用者的触觉敏感部位可识别的触感信息,使得使用者通过触觉来了解其当前阅读的文字信息。在另一些实施例中,可选择通过语音提示的方式来播放出使用者扫描到的文字信息。在又一实施例中,还可选择将扫描信息以语音提示和触觉提示同时或按照预设顺序地提供给使用者,以实现使用者学习盲文的目的。
在另一些实施例中,可穿戴装置中的触感提示部件所佩戴的位置与触觉敏感部位较远,例如分别位于左手和右手,则控制方法可以包括在触感提示部件与触觉敏感部位趋近或接触时,向触觉敏感部位发出触觉敏感部位可识别的触觉信息。
前面提及了包括语音接收部件的可穿戴装置的实施例。基于这些实施例,对应的控制方法还包括:接收使用者的语音指令,以触发所述扫描部件的信息扫描操作或者所述非视觉交互部件的语音提示操作。这样使用者可以通过发出语音指令的方式来控制扫描部件、触感提示部件或者语音提示部件。
例如,当使用者希望出行到某个目的地,可通过语音的方式报出出行的目的地,可穿戴装置根据该目的地搜索合适的路线,并扫描当前道路上的路况信息,通过语音或者触感提示给使用者适合路线及路况信息。对于特别路况,还可通过语音提示使用者前方障碍物的运动状态以及危险系数,或者提供行动指导,例如发出停止前进、缓行等语音警示。
又例如,使用者在室内通过语音报出希望选择上衣,扫描部件扫描出室内衣服的类型和摆放位置,并通过语音或者触感方式提示使用者。使用者可以根据获得的信息进一步通过语音报出希望选择的上衣的颜色款式,例如黑色短袖衬衣,则扫描部件根据已搜索到的上衣进一步进行颜色和款式的排查,再通过语音或触感方式提示给使用者。当使用者在室内通过语音报出某种家用电器的名字,扫描部件对室内的家用电器进行扫描,并通过语音或者触感方式提示使用者。使用者可根据提示的家用电器的位置对家用电器进行操作。
本公开的实施例还提供一种存储介质,在其上存储有计算机指令,其中,所述计算机指令被处理器运行时执行前述的方法的一个或多个步骤。
其中,存储介质例如可以包括系统存储器、固定非易失性存储介质等。系统存储器例如存储有操作系统、应用程序、引导装载程序(Boot Loader)以及其他程序等。
本公开的实施例还提供一种设备,包括一个或多个处理器,所述处理器被配置为运行计算机指令以执行前述的方法的一个或多个步骤。
本领域内的技术人员应当明白,本公开的控制方法实施例可提供为方法、系统、或计算机程序产品。因此,本公开可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本公开可采用在一个或多个其中包含有计算机可用程序代码的计算机可用非瞬时性存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本公开是参照根据本发明实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解为可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
本说明书中多个实施例采用递进的方式描述,各实施例的重点有所不同,而各个实施例之间相同或相似的部分相互参见即可。对于方法实施例而言,由于其整体以及涉及的步骤与装置实施例中的内容存在对应关系,因此描述的比较简单,相关之处参见系统实施例的部分说明即可。
至此,已经详细描述了本公开的各实施例。为了避免遮蔽本公开的构思,没有描述本领域所公知的一些细节。本领域技术人员根据上面的描述,完全可以明白如何实施这里公开的技术方案。
虽然已经通过示例对本公开的一些特定实施例进行了详细说明,但是本领域的技术人员应该理解,以上示例仅是为了进行说明,而不是为了限制本公开的范围。本领域的技术人员应该理解,可在不脱离本公开的范围和精神的情况下,对以上实施例进行修改或者对部分技术特征进行等同替换。本公开的范围由所附权利要求来限定。
Claims (14)
1.一种可穿戴装置,包括:
扫描部件,配置成扫描对象,获得扫描信息;
触感提示部件,与所述扫描部件耦接,配置成将所述扫描信息转换为触感信息;
佩戴部件,配置成连接所述触感提示部件;和
语音提示部件,用于将所述扫描部件的扫描信息以语音方式提示给使用者,且能够与所述触感提示部件同时被使用,以便使用者根据声音确定触摸到的盲文;
其中,所述扫描部件包括:
第一扫描模块,设置在所述佩戴部件上对应于使用者的手背一侧,用于对使用者前方及两侧的物体进行扫描,所述第一扫描模块包括图像采集分析单元和物体特性检测单元,其中所述图像采集分析单元被配置为采集扫描区域的物体图像,并根据所述物体图像来确定物体的类型、形状、尺寸和色彩中的至少一种,所述物体特性检测单元被配置为对扫描区域中的物体的材质进行检测;和
第二扫描模块,设置在所述佩戴部件上对应于使用者的手心一侧,用于对与使用者手接近或接触的物体进行扫描,其中所述第二扫描模块包括文字扫描单元,所述文字扫描单元被配置为采集所述对象包含的文字信息。
2.根据权利要求1所述的可穿戴装置,其中所述触感提示部件包括:
控制器,包括信息转换模块,用于将所述扫描部件的扫描信息转换为对应的编码信息;和
触觉刺激单元,用于根据所述编码信息对使用者的触觉敏感部位上的对应区域进行触觉刺激,以将所述扫描信息转换为所述触觉敏感部位可识别的触感信息。
3.根据权利要求2所述的可穿戴装置,其中,
所述控制器还包括:控制模块,用于根据所述编码信息给与所述编码信息对应的所述触觉刺激单元的电触点加电;
所述触觉刺激单元包括:触点驱动机构,具有分别与所述电触点对应的多个升降机构,用于在所述电触点加电时驱动对应的升降机构进行升降运动。
4.根据权利要求3所述的可穿戴装置,其中所述触觉刺激单元还包括:柔性层,设置于所述触点驱动机构与所述触觉敏感部位之间。
5.根据权利要求2所述的可穿戴装置,其中所述编码信息包括盲文编码信息。
6.根据权利要求1所述的可穿戴装置,还包括:语音接收部件,用于接收使用者的语音指令,以触发以下的操作至少之一:所述扫描部件的信息扫描操作、所述触感提示部件的触感提示操作和所述语音提示部件的语音提示操作。
7.根据权利要求1所述的可穿戴装置,其中,所述第一扫描模块包括以下至少一种:
红外传感单元,用于探测扫描区域中物体的位置及类型;
距离传感单元,用于检测扫描区域中物体的距离。
8.根据权利要求1所述的可穿戴装置,还包括:充气调整部件,用于通过调整充入所述佩戴部件的充气量来控制所述佩戴部件的佩戴贴合度。
9.一种基于权利要求1~8任一所述的可穿戴装置的控制方法,包括:
扫描对象,获得扫描信息;
将扫描信息转换为触感信息,并将所述扫描信息同时或按照预设顺序地通过触感提示部件以触觉提示和通过语音提示部件以语音方式提供给使用者;
其中,所述扫描对象的操作包括:对使用者所指示的区域内的物体进行扫描,以获取物体的类型、形状、尺寸、色彩和材质中的至少一种,以及对所述对象包含的文字进行扫描。
10.根据权利要求9所述的控制方法,其中所述扫描对象的操作还包括:
对使用者所在道路的路况信息进行扫描,并分辨道路上的障碍物信息。
11.根据权利要求9所述的控制方法,还包括:
接收使用者的语音指令,以触发以下的操作至少之一:信息扫描操作、触感提示操作和语音提示操作。
12.根据权利要求9所述的控制方法,其中所述转换操作包括:
将所述扫描部件的扫描信息转换为对应的编码信息;
根据所述编码信息对使用者的触觉敏感部位上的对应区域进行触觉刺激,以将所述扫描信息转换为所述触觉敏感部位可识别的触感信息。
13.一种存储介质,在其上存储有计算机指令,其中,所述计算机指令被处理器运行时执行权利要求9至12中任意一项所述的方法的一个或多个步骤。
14.一种电子设备,包括一个或多个处理器,所述处理器被配置为运行计算机指令以执行权利要求9至12中任意一项所述的方法的一个或多个步骤。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810171054.2A CN108279780B (zh) | 2018-03-01 | 2018-03-01 | 可穿戴装置及控制方法 |
US16/156,375 US10929668B2 (en) | 2018-03-01 | 2018-10-10 | Wearable device and control method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810171054.2A CN108279780B (zh) | 2018-03-01 | 2018-03-01 | 可穿戴装置及控制方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108279780A CN108279780A (zh) | 2018-07-13 |
CN108279780B true CN108279780B (zh) | 2020-07-24 |
Family
ID=62808850
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810171054.2A Active CN108279780B (zh) | 2018-03-01 | 2018-03-01 | 可穿戴装置及控制方法 |
Country Status (2)
Country | Link |
---|---|
US (1) | US10929668B2 (zh) |
CN (1) | CN108279780B (zh) |
Families Citing this family (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109801513A (zh) * | 2019-01-10 | 2019-05-24 | 马天翼 | 一种基于触觉的被动记忆方法及穿戴设备 |
CN109493694B (zh) * | 2019-01-18 | 2021-01-26 | 京东方科技集团股份有限公司 | 盲人阅读器及利用盲人阅读器的方法 |
CN110149444B (zh) * | 2019-05-13 | 2021-03-02 | Oppo广东移动通信有限公司 | 消息提醒方法、装置、存储介质及电子设备 |
CN110044366A (zh) * | 2019-05-20 | 2019-07-23 | 中兴健康科技有限公司 | 一种复合导盲系统 |
CN110208946A (zh) * | 2019-05-31 | 2019-09-06 | 京东方科技集团股份有限公司 | 一种穿戴设备及基于穿戴设备的交互方法 |
US20190362650A1 (en) * | 2019-06-20 | 2019-11-28 | Tang Kechou | Dimensional Laser Sound Blind Aid (DLS Blind Aid)-A Method to Convey 3D Information to the Blind |
CN110489005B (zh) * | 2019-06-28 | 2022-12-27 | 浙江工业大学 | 具有触摸定位功能的二维点显器及其二维触点驱动方法 |
US10789436B1 (en) * | 2019-07-19 | 2020-09-29 | Zebra Technologies Corporation | Data capture device |
US12008161B2 (en) | 2019-09-24 | 2024-06-11 | Arkh, Inc. | Smart ring |
CN110728886B (zh) * | 2019-10-30 | 2021-10-08 | 京东方科技集团股份有限公司 | 盲文学习系统、指尖传感器及其形成方法 |
US11755111B2 (en) * | 2020-03-16 | 2023-09-12 | Arkh, Inc. | Spatially aware computing hub and environment |
TW202227934A (zh) * | 2020-12-31 | 2022-07-16 | 虹光精密工業股份有限公司 | 文件處理裝置及其直覺式操作方法 |
CN114185426A (zh) * | 2021-10-28 | 2022-03-15 | 安徽工程大学 | 一种指尖穿戴式双通道交互装置 |
CN114533563B (zh) * | 2022-01-05 | 2024-02-02 | 齐振标 | 一种慢性克山病患者用穿戴式定时服药提示机构 |
CN115465006A (zh) * | 2022-10-21 | 2022-12-13 | 西安外事学院 | 一种激光浮雕图像盲人可触可视感知实现方法及装置 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102208144A (zh) * | 2011-05-24 | 2011-10-05 | 中兴通讯股份有限公司 | 屏幕触感功能的实现方法及装置 |
CN202505587U (zh) * | 2012-03-22 | 2012-10-31 | 郑州科兴电子信息科技有限公司 | 电子点阵式智能盲人图像触觉传感装置 |
CN106227339A (zh) * | 2016-08-16 | 2016-12-14 | 西安中科比奇创新科技有限责任公司 | 可穿戴设备、虚拟现实人机交互系统及方法 |
CN107157717A (zh) * | 2016-03-07 | 2017-09-15 | 维看公司 | 用于向盲人提供视觉信息的物体检测、分析及提示系统 |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6672105B1 (en) * | 2001-08-28 | 2004-01-06 | Arthur A. Sills | Finger ring fit adjuster |
US8696357B2 (en) * | 2012-08-01 | 2014-04-15 | Thieab AlDossary | Tactile communication apparatus, method, and computer program product |
KR102350063B1 (ko) * | 2014-07-01 | 2022-01-11 | 삼성전자주식회사 | 신체 착용형 전자 장치 |
CN104173175B (zh) | 2014-09-11 | 2016-11-02 | 青岛黄海学院 | 可穿戴智能导盲器 |
KR101658513B1 (ko) * | 2015-04-23 | 2016-09-21 | 한국과학기술연구원 | 촉감 전달 장치 및 이를 구비한 사용자 인터페이스 시스템 |
CN205358359U (zh) | 2016-01-19 | 2016-07-06 | 宁波力芯科信息科技有限公司 | 一种智能手套 |
US10151926B2 (en) * | 2016-01-29 | 2018-12-11 | North Inc. | Systems, devices, and methods for preventing eyebox degradation in a wearable heads-up display |
CN106257356A (zh) * | 2016-03-25 | 2016-12-28 | 深圳增强现实技术有限公司 | 智能头戴设备及智能穿戴系统 |
CN105943325B (zh) * | 2016-06-07 | 2018-09-11 | 北京邮电大学 | 一种导盲设备 |
CN106230457B (zh) * | 2016-07-27 | 2017-10-24 | 深圳市妙严科技有限公司 | 基于智能穿戴设备的信息处理方法及系统 |
CN206548784U (zh) * | 2016-09-30 | 2017-10-13 | 深圳市镭神智能系统有限公司 | 一种头戴式导盲设备 |
-
2018
- 2018-03-01 CN CN201810171054.2A patent/CN108279780B/zh active Active
- 2018-10-10 US US16/156,375 patent/US10929668B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102208144A (zh) * | 2011-05-24 | 2011-10-05 | 中兴通讯股份有限公司 | 屏幕触感功能的实现方法及装置 |
CN202505587U (zh) * | 2012-03-22 | 2012-10-31 | 郑州科兴电子信息科技有限公司 | 电子点阵式智能盲人图像触觉传感装置 |
CN107157717A (zh) * | 2016-03-07 | 2017-09-15 | 维看公司 | 用于向盲人提供视觉信息的物体检测、分析及提示系统 |
CN106227339A (zh) * | 2016-08-16 | 2016-12-14 | 西安中科比奇创新科技有限责任公司 | 可穿戴设备、虚拟现实人机交互系统及方法 |
Also Published As
Publication number | Publication date |
---|---|
CN108279780A (zh) | 2018-07-13 |
US10929668B2 (en) | 2021-02-23 |
US20190272427A1 (en) | 2019-09-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108279780B (zh) | 可穿戴装置及控制方法 | |
CN114341779B (zh) | 用于基于神经肌肉控制执行输入的系统、方法和界面 | |
Wachs et al. | Vision-based hand-gesture applications | |
Jafri et al. | Computer vision-based object recognition for the visually impaired in an indoors environment: a survey | |
CN102915111B (zh) | 一种腕上手势操控系统和方法 | |
US10209881B2 (en) | Extending the free fingers typing technology and introducing the finger taps language technology | |
CN100583007C (zh) | 具有表面显示信息与互动功能的可动装置 | |
CN101901106A (zh) | 用于数据输入的方法及装置 | |
Shin et al. | Non-touch character input system based on hand tapping gestures using Kinect sensor | |
CN103019377A (zh) | 基于头戴式可视显示设备的输入方法及装置 | |
JP6344032B2 (ja) | ジェスチャ入力装置、ジェスチャ入力方法、およびジェスチャ入力プログラム | |
CN105653038A (zh) | 一种智能手套 | |
US9811170B2 (en) | Wearable input device | |
JP2004078977A (ja) | インターフェイス装置 | |
CN102880304A (zh) | 用于便携设备的字符输入方法及装置 | |
Elvitigala et al. | 2bit-tactilehand: evaluating tactons for on-body vibrotactile displays on the hand and wrist | |
Prätorius et al. | Sensing thumb-to-finger taps for symbolic input in vr/ar environments | |
CN106708333A (zh) | 一种基于空间识控技术的控制模块 | |
CN111563459A (zh) | 一种手指动作采集方法及手指动作采集设备 | |
JP2014041441A (ja) | 背面触覚情報提示型情報入力装置およびその方法 | |
Halarnkar et al. | Gesture recognition technology: A review | |
Rodrigues et al. | Evaluation of a head-tracking pointing device for users with motor disabilities | |
SE521283C2 (sv) | Anordning för inmatning av styrsignaler till en elektronisk apparat | |
Huda et al. | Real-time hand-gesture recognition for the control of wheelchair | |
CN111208907A (zh) | 基于肌电信号和手指关节形变信号的手语识别系统及方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |