CN109948435A - 坐姿提醒方法及装置 - Google Patents
坐姿提醒方法及装置 Download PDFInfo
- Publication number
- CN109948435A CN109948435A CN201910101151.9A CN201910101151A CN109948435A CN 109948435 A CN109948435 A CN 109948435A CN 201910101151 A CN201910101151 A CN 201910101151A CN 109948435 A CN109948435 A CN 109948435A
- Authority
- CN
- China
- Prior art keywords
- sitting posture
- target
- image
- texture image
- depth image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Image Analysis (AREA)
Abstract
本发明提供一种坐姿提醒方法,包括如下步骤:采集目标的纹理图像与深度图像;根据所述纹理图像和/或深度图像判断所述目标是否处于学习状态;当所述目标处于学习状态时,对所述纹理图像和/或深度图像进行处理以获取所述目标的坐姿;判断所述坐姿是否符合标准坐姿,当所述坐姿不符合标准坐姿时,发出相关提醒或执行相关操作。本发明还提供相应的坐姿提醒装置,利用深度图像、纹理图像对目标进行坐姿识别及提醒可以有效改善不良坐姿所引起的健康问题。
Description
技术领域
本发明涉及姿势校正技术领域,尤其涉及一种坐姿提醒方法及装置。
背景技术
研究表明,目前得近视的学生越来越多,引发孩子近视的根本原因在于长期处于不良坐姿中。例如,孩子在写作业的过程中,常常会产生坐姿不端正,书写姿势不正确,视距过近、视角不正,视觉长期疲劳的问题,长此以往就会造成近视的后果,给学习、生活带来诸多不便和烦恼,此外,长期处于不良坐姿的状态中,还极易引起脊椎弯曲或侧弯变形,造成含胸驼背,严重影响身心健康发展。
而在现实生活中,除了通过人为观察和纠正达到养成健康坐姿习惯的目的外,还有比较典型方法有基于可穿戴设备方法、基于人工智能方法和基于深度图像分析的方法。但是,要不成本很高,要不效果不理想,要不使用不方便,难以有效推广。
因此,现有技术中还缺乏一种行之有效的坐姿提醒方法及装置,以有效保护学生的视力和健康。
发明内容
为解决上述问题,本发明提出一种坐姿提醒方法,包括:采集目标的纹理图像与深度图像;根据所述纹理图像和/或深度图像判断所述目标是否处于学习状态;当所述目标处于学习状态时,对所述纹理图像和/或深度图像进行处理以获取所述目标的坐姿;判断所述坐姿是否符合标准坐姿,当所述坐姿不符合标准坐姿时,发出相关提醒或执行相关操作。
在其中一个实施例中,所述坐姿包括身体姿态、动作、视距、表情、手部动作中的至少一种。
在其中一个实施例中,所述学习状态的判断包括对所述目标对学习对象的持续凝视时间进行检测。
在其中一个实施例中,所述方法进一步包括:计算预设时间段内每一个分时段内所述不符合标准坐姿的坐姿的数量与所述预设时间段内所述目标的坐姿总数量的比值,以获取目标的坐姿在预设时间段内随时间的变化趋势。
在其中一个实施例中,所述方法进一步包括:对当前目标的坐姿与标准坐姿之间的差异作为评价依据对当前坐姿进行评价。
在其中一个实施例中,所述方法进一步包括:根据所述纹理图像和/或深度图像对桌面物品进行识别以判断零乱程度。
本发明还提出一种坐姿提醒装置,包括:采集设备,用于采集目标的纹理图像与深度图像;输出设备,用于发出提醒;处理器,与所述采集设备、输出设备相连,接收所述纹理图像和/或所述深度图像,并根据所述纹理图像和/或所述深度图像判断所述目标是否处于学习状态;以及当所述目标处于学习状态时,对所述纹理图像和/或深度图像进行处理以获取所述目标的坐姿;判断所述坐姿是否符合标准坐姿,当所述坐姿不符合标准坐姿时,发出相关提醒或执行相关操作。
在其中一个实施例中,所述坐姿包括身体姿态、动作、视距、表情、手部动作中的至少一种。
在其中一个实施例中,所述学习状态的判断包括对所述目标对学习对象的持续凝视时间进行检测。
在其中一个实施例中,所述处理器进一步执行:计算预设时间段内所述不符合标准坐姿的坐姿的数量与所述预设时间段内所述目标的坐姿总数量的比值,以获取目标的坐姿随时间的变化趋势。
在其中一个实施例中,所述处理器进一步执行:对当前目标的坐姿与标准坐姿之间的差异作为评价依据对当前坐姿进行评价。
在其中一个实施例中,所述处理器进一步执行:根据所述纹理图像和/或深度图像对桌面物品进行识别以判断零乱程度。
本发明提供的坐姿提醒方法及装置,通过采集的纹理信息和/或深度信息对目标的坐姿进行监控,当目标的坐姿不符合标准坐姿时,及时对目标进行提醒,避免了当目标在没有人工监测下长久处于不良坐姿,从而影响视力和健康。此外,本发明提供的坐姿提醒方法及装置,先利用采集的图像信息识别当前用户是否处于学习状态,若是,再对目标的坐姿进行识别,可以避免由于休息等坐姿不正导致的误提醒。
附图说明
图1为本发明一实施例中坐姿提醒装置的结构示意图;
图2为本发明另一实施例中坐姿提醒装置的结构示意图;
图3为本发明一实施例中坐姿提醒系统的结构示意图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
请参照图1,图1为本发明一个实施例中坐姿提醒装置10的结构示意图。装置10包括采集设备100、输出设备110,以及分别与采集设备100、输出设备110相连的处理器120。装置10根据其形态不同还可以包括一些支撑结构件、功能模块等,比如在一些实施例中,装置10可以是带坐姿提醒功能的台灯、书桌、机器人等。
采集设备100用于采集目标的深度图像与纹理图像。其中,采集设备100可以为基于结构光、双目、TOF(时间飞行算法)技术的深度相机,在一个实施例中,采集设备100包括结构光深度相机与纹理相机,以采集深度图像与纹理图像。深度图像与纹理图像的采集频率可以相同也可以不同,根据具体的功能需求进行相应的设定,比如以60FPS的频率交叉采集深度图像与纹理图像,最后分别获取30FPS的深度图像以及纹理图像。纹理图像包括可见光图像与不可见光图像,可见光图像包括彩色图像、白光图像;不可见光图像包括近红外图像、热红外图像、X射线图像等。
在一个实施例中,采集设备100所采集到的深度图像与纹理图像被进一步配准,即通过配准算法找到深度图像与纹理图像中各个像素之间的对应关系,以消除二者之间由于空间位置不同所产生的视差。配准可以由采集设备100中专用处理器来完成,也可以由外部处理器完成,比如由处理器120完成。经配准后的深度图像与纹理图像可以实现多种功能,比如可以加快物体检测与识别。在一个实施例中,可以先对纹理图像进行物体检测,再利用像素对应关系直接定位出深度图像中的物体,由此可以减少一次对深度图像的物体检测算法;在一个实施例中,可以先对上一帧的纹理图像进行物体检测,在下一帧进行深度图像采集时,仅获取物体所在位置上的像素的深度值,即仅输出物体部分的深度图像,从而减少深度图像提取算法计算量,同时降低数据传输带宽。反之,也可以先对深度图像进行物体检测或识别,再利用像素对应关系加速对纹理图像中物体的检测或识别。
处理器120用于接收采集设备100采集的深度图像和/或纹理图像,并根据所述纹理图像和/或深度图像判断目标是否处于学习状态,当所述目标处于学习状态时,对所述纹理图像和/或深度图像进一步进行处理以获取所述目标的坐姿,其次判断所述坐姿是否符合标准坐姿,当所述坐姿不符合标准坐姿时,则发出相关提醒或执行相关操作。可选地,在一个实施例中,处理器120可以先根据纹理图像识别目标的面部表情,以对目标的学习状态进行初步判断。当确定目标处于学习状态时,处理器120再对深度图像进行计算与处理,以获取所述目标的坐姿并判断所述坐姿是否符合标准坐姿,当所述坐姿不符合标准坐姿时,则执行提醒指令,例如在一个实施例中,处理器120生成相关提醒指令并通过所述输出设备110输出提醒信号以对所述目标进行提醒。
在一些实施例中,处理器120进行学习状态的判断包括:人脸检测、人脸识别、视线检测、学习对象检测等步骤。比如对人眼视线是否在一定时间段内持续凝视学习对象所在的区域进行检测,若持续凝视时间超过某一阈值,则认为处于学习状态。学习对象可以是书本、电子书、电脑、平板等设备,也可以是所呈现的学习内容,比如文字、图片、视频等学习内容。在一个实施例中,处理器120进行学习状态的判断还可以包括对目标表情的识别与判断等。
在一些实施例中,处理器120进行坐姿的判断包括对目标身体姿态和/或动作的检测与识别,在一个实施例中,还包括对人眼与学习对象距离(视距)的检测与识别。在一个实施例中,对身体姿态和动作的检测与识别可以基于纹理图像和/或深度图像对人体全身或者上半身关节点(骨架)进行检测,并根据骨架信息中人头部与躯干之间的相对位置关系对当前坐姿进行识别,进一步地,对姿态在时间序列上的变化则可以实现对动作的检测与识别。可以理解的是,在一些情况下,当身体整体前倾或者后仰时,虽然头部与躯干的相对位置正确,但视线却靠近或远离学习对象,因此,需要进一步对视距进行检测,结合身体姿态、视距可以更准确地反映当前目标的坐姿是否正确。可以理解的是,在一些实施例中,坐姿还可以包括身体姿态、视距之外的其他特征,比如人脸表情、手部动作等。
处理器120进一步将获取的目标的坐姿与标准坐姿进行比较,当监测目标的坐姿在预设的标准坐姿阈值范围内,则认定为标准坐姿,否则,发出相关提醒或执行相关操作,例如生成相关指令并通过所述输出设备110对所述目标进行提醒。
可选地,在一个实施例中,输出设备可以是显示面板、蜂鸣器、麦克风或者喇叭中的一种或几种。例如,当目标的坐姿不符合标准坐姿时,处理器120可以生成相关提醒指令,以控制显示面板显示相关提醒,或控制蜂鸣器、麦克风或者喇叭发出相关语音以提醒目标调整坐姿,也可以是多种提醒方式的结合。
此外,提醒指令除了可以直接输出至当前目标之外,根据坐姿检测结果还可以执行一些其他相关操作,比如输出至云端、其他终端以进行相应的处理,比如数据保存、统计以及实时监控等。
可以理解的是,处理器120可以是位于装置10当中的单个处理器(例如ARM、CPU)也可以是多种处理器的组合(例如同时包含嵌入式微处理器(MPU)以及嵌入式微控制器(MCU)),也可以是与装置10独立设置的云端处理器等(图中未示出)。
请参照图2,在其中一个实施例中,装置10还可以包括与处理器120相连的存储器130。存储器130用于存储目标的坐姿。如此,处理器120可以根据所存储目标的坐姿计算得到其坐姿随时间的变化趋势,或者计算预设时间段内所述不符合标准坐姿的坐姿的数量与所述预设时间段内所述目标的坐姿总数量的比值,以获取目标的坐姿的“不良率”。还可以根据预设总时间段内每一个分时段的“不良率”计算得到不良率随时间的变化趋势。例如,可以以1个小时为一个时间段,计算每个小时段内的不符合标准坐姿的坐姿的数量与目标的坐姿总数量的比值,以获取目标的坐姿随时间的变化趋势,并进一步根据变化趋势判断目标的学习状态。可以理解的是,存储器130可以位于装置10中,也可以是云端存储器。
可选地,在一个实施例中,处理器120还可以实时对当前目标的坐姿与标准坐姿之间的差异作为评价依据对当前坐姿进行评价(例如打分)。例如,假设标准坐姿设定为10分,当当前目标的坐姿在预设的标准坐姿阈值范围内,则对当前的坐姿打10分,且根据当前坐姿与标准坐姿的偏差大小进行相应的减分,可以理解的是,偏差越大,分数越低。此外,处理器120可以将评价结果(即分数)通过输出设备对目标进行提醒,例如,通过显示面板将分数进行显示或者通过语音装置(麦克风,喇叭)进行语音提醒;或者统计一定时间(比如每天)段内的评价结果,以监控坐姿随时间的变化趋势,从而进一步获取目标的学习状态。
可选地,在一个实施例中,当场景中出现多人时,处理器120要从深度图像中识别多个人体,并根据计算的得到的深度信息,选取离采集设备距离最近的人作为识别对象或者以视场中心的人作为识别对象。
请参照图3,本发明还提供一种坐姿提醒系统30,其包括坐姿提醒装置10及与所述坐姿提醒装置10通信相连的移动终端20,所述移动终端20用于接收所述坐姿提醒装置传送的数据,以实现对目标的远程监控。其中,装置10可以通过接口(图中未示出)与移动终端20进行相连,以进一步实现数据的传输,比如I/O接口、网络接口、USB接口、WIFI接口等。
可以理解的是,装置10中的处理器120可以将各种监测数据,例如采集设备100采集的深度图像和/或纹理图像发送给移动终端20,也可以将预设时间段内所述不符合标准坐姿的坐姿数量与所述预设时间段内所述监测目标的坐姿总数量的比值发送给移动终端20,或者也可以将对当前坐姿进行评价的评价结果等数据发送给移动终端20,以实现对所述监测目标的远程监控。
可选地,在一个实施例中,当采集设备100连续N帧采集的图像中都没有识别到目标,则判断目标已经离开,此时,处理器120可以根据接收到的深度图像和/或纹理图像对桌面物品进行识别以判断零乱程度,并统计离开时间,当物品零乱超过一定时间时,则发送提醒,例如发送短信,邮件,彩铃等到移动终端上,从而实现对所述监测目标的远程监控。
可选地,在一个实施例中,移动终端可以是手机、平板电脑、或智能穿戴设备中的至少一种。
本发明提供的坐姿提醒方法及装置,通过采集的纹理信息与深度信息对目标的坐姿进行监控,当目标的坐姿不符合标准坐姿时,及时对目标进行提醒,避免了当目标在没有人工监测下长久处于坐姿,从而影响视力和健康。此外,本发明提供的坐姿提醒方法及装置,先利用采集的纹理信息识别当前用户是否处于学习状态,若是,再对目标的坐姿进行识别,可以避免由于休息等坐姿不正导致的误提醒。
以上内容是结合具体的优选实施方式对本发明所作的进一步详细说明,不能认定本发明的具体实施只局限于这些说明。对于本发明所属技术领域的技术人员来说,在不脱离本发明构思的前提下,还可以做出若干等同替代或明显变型,而且性能或用途相同,都应当视为属于本发明的保护范围。
Claims (10)
1.一种坐姿提醒方法,其特征在于,包括如下步骤:
采集目标的纹理图像与深度图像;
根据所述纹理图像和/或深度图像判断所述目标是否处于学习状态;
当所述目标处于学习状态时,对所述纹理图像和/或深度图像进行处理以获取所述目标的坐姿;
判断所述坐姿是否符合标准坐姿,当所述坐姿不符合标准坐姿时,发出相关提醒或执行相关操作。
2.根据权利要求1所述的坐姿提醒方法,其特征在于,所述坐姿包括身体姿态、动作、视距、表情、手部动作中的至少一种。
3.根据权利要求1所述的坐姿提醒方法,其特征在于,所述学习状态的判断包括对所述目标对学习对象的持续凝视时间进行检测。
4.根据权利要求1所述的坐姿提醒方法,其特征在于,所述方法还包括:
计算预设时间段内每一个分时段内所述不符合标准坐姿的坐姿的数量与所述每一个分时段内所述目标的坐姿总数量的比值,以获取目标的坐姿在预设时间段内随时间的变化趋势;
或,
对当前目标的坐姿与标准坐姿之间的差异作为评价依据对当前坐姿进行评价。
5.根据权利要求1所述的坐姿提醒方法,其特征在于,所述方法还包括:
根据所述纹理图像和/或深度图像对桌面物品进行识别以判断零乱程度。
6.一种坐姿提醒装置,其特征在于,包括:
采集设备,用于采集目标的纹理图像与深度图像;
输出设备,用于发出提醒;
处理器,与所述采集设备、输出设备相连,用于:接收所述纹理图像和/或所述深度图像,并根据所述纹理图像和/或所述深度图像判断所述目标是否处于学习状态;以及
当所述目标处于学习状态时,对所述纹理图像和/或深度图像进行处理以获取所述目标的坐姿;
判断所述坐姿是否符合标准坐姿,当所述坐姿不符合标准坐姿时,发出相关提醒或执行相关操作。
7.根据权利要求6所述的坐姿提醒装置,其特征在于,所述坐姿包括身体姿态、动作、视距、表情、手部动作中的至少一种。
8.根据权利要求6所述的坐姿提醒装置,其特征在于,所述学习状态的判断包括对所述目标对学习对象的持续凝视时间进行检测。
9.根据权利要求6所述的坐姿提醒装置,其特征在于,所述处理器还包括执行:
计算预设时间段内所述不符合标准坐姿的坐姿的数量与所述预设时间段内所述目标的坐姿总数量的比值,以获取目标的坐姿随时间的变化趋势;
或,
对当前目标的坐姿与标准坐姿之间的差异作为评价依据对当前坐姿进行评价。
10.根据权利要求6所述的坐姿提醒装置,其特征在于,所述处理器进一步执行:
根据所述纹理图像和/或深度图像对桌面物品进行识别以判断零乱程度。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910101151.9A CN109948435A (zh) | 2019-01-31 | 2019-01-31 | 坐姿提醒方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910101151.9A CN109948435A (zh) | 2019-01-31 | 2019-01-31 | 坐姿提醒方法及装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN109948435A true CN109948435A (zh) | 2019-06-28 |
Family
ID=67006734
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910101151.9A Pending CN109948435A (zh) | 2019-01-31 | 2019-01-31 | 坐姿提醒方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109948435A (zh) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110648509A (zh) * | 2019-09-25 | 2020-01-03 | 珠海格力电器股份有限公司 | 生成提示信息的方法、装置和系统 |
CN110889322A (zh) * | 2019-10-09 | 2020-03-17 | 深圳市九洲电器有限公司 | 防止久坐的方法及相关产品 |
CN111515957A (zh) * | 2020-05-13 | 2020-08-11 | 暨南大学 | 用于坐姿检测和语言聊天的桌面机器人系统及桌面机器人 |
CN111601088A (zh) * | 2020-05-27 | 2020-08-28 | 大连成者科技有限公司 | 一种基于单目摄像头坐姿识别技术的坐姿监控系统 |
WO2021138964A1 (zh) * | 2020-01-10 | 2021-07-15 | 鄢家厚 | 基于智能手表的读写距离识别方法 |
CN113591522A (zh) * | 2020-04-30 | 2021-11-02 | 百度在线网络技术(北京)有限公司 | 图像处理方法、装置及存储介质 |
CN114005173A (zh) * | 2020-07-13 | 2022-02-01 | 阿里巴巴集团控股有限公司 | 数据处理方法及设备 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107169483A (zh) * | 2017-07-12 | 2017-09-15 | 深圳奥比中光科技有限公司 | 基于人脸识别的任务执行 |
CN107609383A (zh) * | 2017-10-26 | 2018-01-19 | 深圳奥比中光科技有限公司 | 3d人脸身份认证方法与装置 |
CN109117705A (zh) * | 2018-06-14 | 2019-01-01 | 浙江凯耀照明股份有限公司 | 一种通过台灯进行坐姿识别的系统及方法 |
-
2019
- 2019-01-31 CN CN201910101151.9A patent/CN109948435A/zh active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107169483A (zh) * | 2017-07-12 | 2017-09-15 | 深圳奥比中光科技有限公司 | 基于人脸识别的任务执行 |
CN107609383A (zh) * | 2017-10-26 | 2018-01-19 | 深圳奥比中光科技有限公司 | 3d人脸身份认证方法与装置 |
CN109117705A (zh) * | 2018-06-14 | 2019-01-01 | 浙江凯耀照明股份有限公司 | 一种通过台灯进行坐姿识别的系统及方法 |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110648509A (zh) * | 2019-09-25 | 2020-01-03 | 珠海格力电器股份有限公司 | 生成提示信息的方法、装置和系统 |
CN110889322A (zh) * | 2019-10-09 | 2020-03-17 | 深圳市九洲电器有限公司 | 防止久坐的方法及相关产品 |
WO2021138964A1 (zh) * | 2020-01-10 | 2021-07-15 | 鄢家厚 | 基于智能手表的读写距离识别方法 |
CN113591522A (zh) * | 2020-04-30 | 2021-11-02 | 百度在线网络技术(北京)有限公司 | 图像处理方法、装置及存储介质 |
CN111515957A (zh) * | 2020-05-13 | 2020-08-11 | 暨南大学 | 用于坐姿检测和语言聊天的桌面机器人系统及桌面机器人 |
CN111601088A (zh) * | 2020-05-27 | 2020-08-28 | 大连成者科技有限公司 | 一种基于单目摄像头坐姿识别技术的坐姿监控系统 |
CN111601088B (zh) * | 2020-05-27 | 2021-12-21 | 大连成者科技有限公司 | 一种基于单目摄像头坐姿识别技术的坐姿监控系统 |
CN114005173A (zh) * | 2020-07-13 | 2022-02-01 | 阿里巴巴集团控股有限公司 | 数据处理方法及设备 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109948435A (zh) | 坐姿提醒方法及装置 | |
Angelopoulos et al. | Event based, near eye gaze tracking beyond 10,000 hz | |
US10635900B2 (en) | Method for displaying gaze point data based on an eye-tracking unit | |
CN105022981B (zh) | 一种检测人眼健康状态的方法、装置及移动终端 | |
CN108427503A (zh) | 人眼追踪方法及人眼追踪装置 | |
CN104793741A (zh) | 带眼球跟踪虚拟现实成像系统和方法 | |
CN104133548A (zh) | 确定视点区域及控制屏幕亮度的方法及装置 | |
CN104090371B (zh) | 一种3d眼镜及3d显示系统 | |
CN104375648B (zh) | 一种腕式设备及其使用方法 | |
CN105095885B (zh) | 一种人眼状态的检测方法和检测装置 | |
US10843299B2 (en) | Object recognition and presentation for the visually impaired | |
KR20120060978A (ko) | 시선 위치 추적 기반의 3차원 인간-컴퓨터 상호작용 장치 및 방법 | |
CN106981183A (zh) | 坐姿矫正方法及系统 | |
CN110934591A (zh) | 一种坐姿检测方法及装置 | |
CN109376621A (zh) | 一种样本数据生成方法、装置以及机器人 | |
CN109766007A (zh) | 一种显示设备的注视点补偿方法及补偿装置、显示设备 | |
CN109522887A (zh) | 一种视线追踪方法、装置、设备及存储介质 | |
JP5103682B2 (ja) | インタラクティブ看板システム | |
CN112183200A (zh) | 一种基于视频图像的眼动追踪方法和系统 | |
CN112232128A (zh) | 基于视线追踪的老年残障人士照护需求识别方法 | |
CN110148092A (zh) | 基于机器视觉的青少年坐姿及情绪状态的分析方法 | |
CN114120357A (zh) | 一种基于神经网络的防近视方法和装置 | |
CN102508551B (zh) | 一种目光捕捉方法和采用目光捕捉的人机交互方法 | |
CN107346178A (zh) | 一种视力保护装置及方法 | |
CN109190562B (zh) | 智能坐姿监控方法、装置、智能升降桌及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
CB02 | Change of applicant information |
Address after: 11-13 / F, joint headquarters building, high tech Zone, 63 Xuefu Road, Yuehai street, Nanshan District, Shenzhen, Guangdong 518000 Applicant after: Obi Zhongguang Technology Group Co., Ltd Address before: 12 / F, joint headquarters building, high tech Zone, 63 Xuefu Road, Nanshan District, Shenzhen, Guangdong 518000 Applicant before: SHENZHEN ORBBEC Co.,Ltd. |
|
CB02 | Change of applicant information |