CN110531843A - 电子装置及电子装置的操作控制方法 - Google Patents
电子装置及电子装置的操作控制方法 Download PDFInfo
- Publication number
- CN110531843A CN110531843A CN201810507015.5A CN201810507015A CN110531843A CN 110531843 A CN110531843 A CN 110531843A CN 201810507015 A CN201810507015 A CN 201810507015A CN 110531843 A CN110531843 A CN 110531843A
- Authority
- CN
- China
- Prior art keywords
- electronic device
- user
- projection
- interface
- control
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/1633—Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
- G06F1/1637—Details related to the display arrangement, including those related to the mounting of the display in the housing
- G06F1/1639—Details related to the display arrangement, including those related to the mounting of the display in the housing the display being based on projection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/042—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
- G06F3/0421—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means by interrupting or reflecting a light beam, e.g. optical touch-screen
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/042—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
- G06F3/0425—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/0482—Interaction with lists of selectable items, e.g. menus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/10—Image acquisition
- G06V10/12—Details of acquisition arrangements; Constructional details thereof
- G06V10/14—Optical characteristics of the device performing the acquisition or on the illumination arrangements
- G06V10/143—Sensing or illuminating at different wavelengths
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/103—Static body considered as a whole, e.g. static pedestrian or occupant recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/107—Static hand or arm
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/28—Recognition of hand or arm movements, e.g. recognition of deaf sign language
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Computer Hardware Design (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Health & Medical Sciences (AREA)
- User Interface Of Digital Computer (AREA)
- Position Input By Displaying (AREA)
Abstract
本发明提供一种电子装置及电子装置的操作控制方法,所述电子装置包括处理器、投影单元及采集单元,该处理器包括投影模块,响应用户的输入操作,控制所述投影单元将所述电子装置的操作界面在一投影载体上投影形成一投影界面;侦测模块,控制所述采集单元侦测用户在所述投影界面及附近预设区域内执行的控制操作;确定模块,确定用户在所述投影界面及附近预设区域内执行的控制操作的类型,其中,用户执行的控制操作类型包括手势操作及触控操作;及控制模块,响应用户的手势操作或触控操作控制所述电子装置执行相应的操作。本发明将电子装置的操作界面投影在其他载体上,用户可以在投影界面上操控电子装置,提高了人机交互的操作灵活性和便利性。
Description
技术领域
本发明涉及一种电子装置及电子装置的操作控制方法。
背景技术
随着科技的发展,智能电子装置的应用越来越广泛,例如笔记本电脑、平板电脑、智能手机、穿戴式设备等。在现有技术中,部分智能电子装置(如智能手表)趋于小型化、便携化方向发展,导致许多智能电子装置的显示屏幕偏小,对应地,智能电子装置的操作界面上的文字、选项等也偏小,不便于用户操作,操作灵活性差,影响用户的使用体验。
发明内容
有鉴于此,有必要提供一种电子装置及电子装置的操作控制方法,以解决上述技术问题。
一种电子装置,包括处理器、投影单元及采集单元,该处理器包括:
投影模块,用于响应用户的输入操作,控制所述投影单元将所述电子装置的操作界面在一投影载体上投影形成一投影界面;
侦测模块,用于控制所述采集单元侦测用户在所述投影界面及附近预设区域内执行的控制操作;
确定模块,用于确定用户在所述投影界面及附近预设区域内执行的控制操作的类型,其中,用户执行的控制操作类型包括手势操作及触控操作;及
控制模块,用于响应用户的手势操作或触控操作控制所述电子装置执行相应的操作。
一种电子装置的操作控制方法,应用于一电子装置中,所述电子装置至少包括投影单元及采集单元,所述方法包括以下步骤:
响应用户的输入操作,所述投影单元将所述电子装置的操作界面在一投影载体上投影形成一投影界面;
所述采集单元侦测用户在所述投影界面及附近预设区域内执行的控制操作;
确定用户在所述投影界面及附近预设区域内执行的控制操作的类型,其中,用户执行的控制操作类型包括手势操作及触控操作;及
响应用户的手势操作或触控操作控制所述电子装置执行相应的操作。
上述电子装置及电子装置的操作控制方法将电子装置的操作界面投影在其他载体上,使得用户可以在投影形成的界面上操控电子装置,从而有效提高电子装置进行人机交互的操作灵活性和便利性。
附图说明
图1为本发明较佳实施方式中电子装置的功能模块示意图。
图2为本发明较佳实施方式中电子装置投影形成的投影界面示意图。
图3为本发明较佳实施方式中电子装置的操作界面示意图。
图4为本发明较佳实施方式中电子装置的操作控制方法的流程示意图。
主要元件符号说明
如下具体实施方式将结合上述附图进步说明本发明。
具体实施方式
请参考图1,为本发明较佳实施方式所提供的电子装置1。请一并参考图2,所述电子装置1可以将其操作界面100(如图3所示)投影在一投影载体2上,并形成一投影界面200,以便于用户在所述投影界面200上执行操作以控制所述电子装置1执行相应的操作。在本实施方式中,所述电子装置1可以是智能手机、平板电脑或智能手表,所述投影载体2可以是投影屏幕、投影幕布或普通平面。
所述电子装置1至少包括处理器10、存储器20、显示单元30、投影单元40、采集单元50及通信单元60。在本实施方式中,所述处理器10为微处理芯片。所述存储器20为只读存储器或随机存取存储器,用于存储所述电子装置1的多个应用软件。所述显示单元30为触控显示屏,用于显示所述电子装置1的操作界面100。
在本实施方式中,所述投影单元40为投影机,所述投影机作为所述电子装置1的内部组件装设于所述电子装置1中。在其他实施方式中,所述投影单元40也可以是与所述电子装置1电性连接的独立电子设备,可以通过所述通信单元60与所述电子装置1建立通信连接。
在本实施方式中,所述采集单元50为红外热摄像头,并集成有至少一红外传感器。所述采集单元50用于拍摄用户的红外热图像,以及发射红外线与接收反射的红外线。在其他实施方式中,所述采集单元50也可以是普通摄像头,用于拍摄用户的图像。
在本实施方式中,所述通信单元60为蓝牙模组或WiFi模组。所述电子装置1可以通过所述通信单元60与其他电子设备建立蓝牙连接或WiFi连接。
如图1所示,所述处理器10至少包括开启模块101、判断模块102、投影模块103、侦测模块104、确定模块105、控制模块106及接收模块107。在本实施方式中,上述模块为存储于所述存储器20中且可被所述处理器10调用执行的可程序化软件指令。可以理解的是,在其他实施方式中,上述模块也可为固化于所述处理器10中的程序指令或固件(firmware)。
所述开启模块101用于响应用户在所述电子装置1上的输入操作,开启所述电子装置1的投影功能。
请参考图3,在本实施方式中,所述电子装置1安装有一用于开启投影功能的投影软件110,所述投影软件110在开启之后,其界面上至少显示有开始投影选项111、暂停投影选项112以及结束投影选项113。所述输入操作为用户开启所述投影软件110,并点击开始投影选项111的操作。当所述开启模块101检测到用户的所述输入操作时,开启所述电子装置1的投影功能。需要说明的是,当所述投影软件110开启后处于后台运行时,所述电子装置1的投影功能仍可以实现。
所述判断模块102用于判断所述电子装置1与所述投影载体2之间的距离是否小于或等于一预设距离。
在本实施方式中,所述判断模块102控制所述采集单元50侦测所述电子装置1与所述投影载体2之间的距离,并判断侦测到的距离是否小于或等于所述预设距离。具体的,当用户将所述电子装置1正对一投影载体2时,所述采集单元50发射红外线并接收所述投影载体2反射的红外线,基于发射红外线与接收到反射红外线之间的时间间隔以及红外线的传播速度计算得到所述电子装置1与所述投影载体2之间的距离,然后所述判断模块102判断所述电子装置1与投影载体2之间的距离是否小于或等于所述预设距离。在本实施方式中,所述预设距离为4米。
在其他实施方式中,所述电子装置1与所述投影载体2之间也可以成一定角度,此时,所述处理器10控制所述采集单元50发射红外线的方向,向所述投影载体2发射红外线,以便于基于红外线测距原理获取所述电子装置1与所述投影载体2之间的距离。
当所述电子装置1与投影载体2之间的距离小于或等于所述预设距离时,所述投影模块103用于控制所述投影单元40将所述电子装置1的操作界面100在所述投影载体2上投影形成投影界面200。其中,所述投影单元40将所述操作界面100投影在所述投影载体2上的具体方法与现有的投影技术相同,在此不作详细描述。
在本实施方式中,所述投影模块103以预设比例将所述操作界面100投影至所述投影载体2,即,所述投影界面200显示的所述操作界面100的内容与所述操作界面100的内容呈预设比例关系。具体的,所述投影界面200上显示的物件(如应用程序图标、桌面)的位置与所述操作界面100内物件的位置相对应,所述投影界面200显示物件的尺寸与所述操作界面100内物件的尺寸呈所述预设比例。在本实施方式中,所述预设比例为5:1,即所述投影界面200内物件的尺寸是所述操作界面100内物件尺寸的五倍。
所述侦测模块104用于控制所述采集单元50侦测用户在所述投影界面200及附近预设区域内执行的控制操作。所述确定模块105用于确定用户在所述投影界面200及附近预设区域内执行的控制操作的类型。其中,用户执行的控制操作类型包括手势操作及触控操作。
如图2所示,在本实施方式中,所述预设区域为所述采集单元50与投影载体2之间的区域201。所述触控操作只能在所述投影界面200上实现,所述手势操作只能在所述区域201内实现。
所述采集单元50通过拍摄用户的红外热图像及发射与接收红外线的方式侦测用户在所述投影界面200及附近预设区域内执行的控制操作。如图2所示,如果所述采集单元50拍摄到红外热图像,则说明用户位于所述区域201内。
当所述采集单元50拍摄到用户的红外热图像时,所述侦测模块104还用于控制所述采集单元50侦测用户与所述采集单元50之间的垂直距离是否在预设距离范围内。具体的,如图2所示,当用户位于所述区域201内时,所述采集单元50通过发射红外线与接收用户身体反射的红外线确定用户与所述采集单元50之间的直线距离L1。所述采集单元50还可以根据接收到的用户反射的红外线以及发射的垂直于所述投影界面的红外线确定用户与所述采集单元50之间的直线方向与所述采集单元50垂直于所述投影界面200方向之间的夹角θ。所述侦测模块104计算得到用户与所述采集单元50之间的垂直距离L2=L1cosθ,并判断所述垂直距离L2是否在所述预设距离范围内。在本实施方式中,所述预设距离范围为[L-ΔL,L+ΔL],其中,L为所述采集单元50与所述投影界面200之间的垂直距离,即所述采集单元50侦测到的所述电子装置1与所述投影载体2之间的距离,ΔL为用户预设的用于减小误差的补偿距离。例如,当所述垂直距离L为3米,距离ΔL为5厘米时,所述预设距离范围为[2.95米,3.05米]。
当所述侦测模块104判定用户与所述采集单元50之间的垂直距离在所述预设距离范围内时,所述确定模块105判定用户在所述投影界面200上执行控制操作,从而可以确定用户执行的控制操作类型为触控操作。当所述侦测模块104判定用户与所述采集单元50之间的垂直距离不在所述预设距离范围内时,所述确定模块105判定用户未在所述投影界面200上执行控制操作,而是在所述区域201内执行控制操作,从而确定用户执行的控制操作类型为手势操作。
在本实施方式中,当所述确定模块105确定用户在所述投影界面200上执行触控操作时,所述采集单元50通过发射红外线至所述投影界面200,并接收用户手指反射回来的红外线,然后根据发射红外线与反射红外线检测用户的手指在所述投影界面200上执行触控操作的位置。同时,所述采集单元50还拍摄用户的红外热图像以侦测用户执行触控操作的动作。由于所述投影界面200内每一物件的位置与所述操作界面100内所述物件的位置相对应,所述侦测模块104根据所述触控操作的位置确定触控操作所触摸的物件,即触控操作的目标对象,所述侦测模块104还根据用户执行触控操作的动作确定触控操作所实现的功能。
在其他实施方式中,当所述采集单元50为普通摄像头时,所述采集单元50每隔预设时间拍摄用户的动作图像,根据拍摄的多个动作图像识别用户执行触控操作的动作。其中,所述预设时间为0.05秒。另外,当用户在所述投影界面200上执行触控操作时,所述采集单元50拍摄到的用户动作图像中必然包括触控操作所触摸的投影界面200的图像,所述侦测模块104可以通过识别所述多个动作图像中用户手指触摸的物件确定用户的触控操作在所述投影界面200上的目标对象。
在本实施方式中,所述触控操作至少包括点击操作、缩放操作及拖动操作。当所述采集单元50侦测到的动作为用户的手指触碰一次投影界面200时,所述侦测模块104确定用户的触控操作为点击操作;当所述采集单元50侦测到的动作为用户的两个手指在投影界面200上滑动时,所述侦测模块104确定用户的触控操作为缩放操作;当所述采集单元50侦测到的动作为用户的一个手指在所述投影界面200上滑动时,所述侦测模块104确定用户的触控操作为拖动操作。
在本实施方式中,所述存储器20存储有多个预设手势操作及每个预设手势操作在不同应用场景下对应执行的功能。当所述确定模块105确定用户在所述区域201内执行手势操作时,所述采集单元50实时拍摄用户的红外热图像,所述侦测模块104通过识别多个红外热图像以获取用户的手势操作,并且判断用户的手势操作是否为预设手势操作。
所述控制模块106用于响应用户的手势操作或触控操作控制所述电子装置1执行相应的操作。
在本实施方式中,所述控制模块106将用户的手势操作或触控操作转换为相应的操作指令,并根据所述操作指令控制所述电子装置1执行相应的操作。具体的,当所述侦测模块104侦测到用户的触控操作为点击操作时,所述控制模块106控制所述电子装置1开启点击操作的目标对象,例如开启应用程序、打开图片等。当所述侦测模块104侦测到用户的触控操作为缩放操作时,所述控制模块106控制所述电子装置1对缩放操作的目标对象进行缩放,例如放大或缩小图片等。当所述侦测模块104侦测到用户的触控操作为拖动操作时,所述控制模块106控制所述电子装置1改变拖动操作的目标对象的位置,例如切换桌面、改变进度条的位置以实现视频或音乐的快进或后退等。也就是说,用户在所述投影界面200上执行的触控操作等同于用户在所述操作界面100上执行的触控操作。
当所述侦测模块104侦测到用户的手势操作为预设手势操作时,所述控制模块106根据所述存储器20存储的每个预设手势操作在不同应用场景下对应执行的功能对所述电子装置1进行控制。例如,所述存储器20存储的预设手势操作至少包括左右挥手操作及上下挥手操作,其中左右挥手操作实现的功能为在文档显示的应用场景下控制文档前后翻页,以及在视频播放的应用场景下控制视频后退快进,上下挥手操作实现的功能为在文档显示的应用场景下控制文档上下翻页及在视频播放的应用场景下控制音量增高或降低。对应地,当用户的手势操作为预设的左右挥手操作时,所述控制模块106控制电子装置1执行文档的前后翻页或视频的后退快进。当用户的手势为预设的上下挥手操作时,所述控制模块106控制电子装置1执行文档的上下翻页或音量的增高或降低。
所述投影模块103还用于将所述电子装置1执行所述相应操作后的操作界面100投影在所述投影载体2上。在本实施方式中,所述投影模块103为实时地将电子装置1的操作界面100投影在所述投影载体2上。
进一步地,所述电子装置1还可以通过所述通信单元60与一电子设备(图未示)建立通信连接。所述接收模块107用于通过所述通信单元60接收所述电子设备传送的操作界面,所述投影模块103还响应用户的输入操作将所述电子设备的操作界面在投影载体2上投影形成投影界面200,所述控制模块106还根据用户在所述投影界面200及附近预设区域的控制操作控制所述电子设备执行相应的操作。在本实施方式中,所述电子设备为智能家电设备,例如空调、电饭煲、电风扇等。如此,所述电子装置1可以通过投影的方式便于用户了解智能家电设备的状态以及对智能家电设备进行远程控制。
请参考图4,为本发明较佳实施方式中电子装置的操作控制方法的流程示意图。
步骤S101,响应用户在所述电子装置1上的输入操作,开启所述电子装置1的投影功能。
步骤S102,判断所述电子装置1与所述投影载体2之间的距离是否小于或等于一预设距离。当判断结果为是时,所述方法进入步骤S103,否则流程结束。
步骤S103,所述投影单元40将所述电子装置1的操作界面100在所述投影载体2上投影形成投影界面200。
步骤S104,所述采集单元50侦测用户在所述投影界面200及附近预设区域内执行的控制操作。
步骤S105,确定用户在所述投影界面200及附近预设区域内执行的控制操作的类型。其中,用户执行的控制操作类型包括手势操作及触控操作。
步骤S106,响应用户的手势操作或触控操作控制所述电子装置1执行相应的操作。
步骤S107,将所述电子装置1执行所述相应操作后的操作界面100投影在所述投影载体2上。
进一步地,所述电子装置的操作控制方法还包括以下步骤:通过所述通信单元60接收所述电子设备传送的操作界面,响应用户的输入操作将所述电子设备的操作界面在投影载体2上投影形成投影界面200,根据用户在所述投影界面200及附近预设区域的控制操作控制所述电子设备执行相应的操作。
最后应说明的是,以上实施例仅用以说明本发明的实施方案而非限制,尽管参照较佳实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,可以对本发明的技术方案进行修改或者等同替换,而不脱离本发明技术方案的精神和范围。
Claims (10)
1.一种电子装置,包括处理器,其特征在于,所述电子装置还包括投影单元及采集单元,该处理器包括:
投影模块,用于响应用户的输入操作,控制所述投影单元将所述电子装置的操作界面在一投影载体上投影形成一投影界面;
侦测模块,用于控制所述采集单元侦测用户在所述投影界面及附近预设区域内执行的控制操作;
确定模块,用于确定用户在所述投影界面及附近预设区域内执行的控制操作的类型,其中,用户执行的控制操作类型包括手势操作及触控操作;及
控制模块,用于响应用户的手势操作或触控操作控制所述电子装置执行相应的操作。
2.如权利要求1所述的电子装置,其特征在于:所述采集单元为红外热摄像头,用于通过拍摄用户的红外热图像及发射与接收红外线的方式侦测用户在所述投影界面及附近预设区域内执行的控制操作。
3.如权利要求2所述的电子装置,其特征在于:所述侦测模块还用于控制所述采集单元侦测用户与所述采集单元之间的垂直距离是否在预设距离范围内,当用户与所述采集单元之间的垂直距离在所述预设距离范围内时,所述确定模块确定用户执行的控制操作类型为触控操作,当用户与所述采集单元之间的垂直距离不在所述预设距离范围内时,所述确定模块确定用户执行的控制操作类型为手势操作。
4.如权利要求1所述的电子装置,其特征在于:所述判断模块还用于判断所述电子装置与所述投影载体之间的距离是否小于或等于预设距离,当所述判断模块判定所述电子装置与所述投影载体之间的距离小于或等于预设距离时,所述投影模块响应用户的输入操作控制所述投影单元将所述电子装置的操作界面在影载体上投影形成投影界面。
5.如权利要求1所述的电子装置,其特征在于:所述电子装置还包括通信单元,用于与一电子设备建立通信连接,所述处理器还包括:
接收模块,用于通过所述通信单元接收所述电子设备传送的操作界面;
所述投影模块还响应用户的输入操作将所述电子设备的操作界面在所述投影载体上投影形成投影界面;及
所述控制模块还根据用户在所述投影界面及附近预设区域执行的控制操作控制所述电子设备执行相应的操作。
6.一种电子装置的操作控制方法,应用于一电子装置中,所述电子装置至少包括投影单元及采集单元,其特征在于,所述方法包括以下步骤:
响应用户的输入操作,所述投影单元将所述电子装置的操作界面在一投影载体上投影形成一投影界面;
所述采集单元侦测用户在所述投影界面及附近预设区域内执行的控制操作;
确定用户在所述投影界面及附近预设区域内执行的控制操作的类型,其中,用户执行的控制操作类型包括手势操作及触控操作;及
响应用户的手势操作或触控操作控制所述电子装置执行相应的操作。
7.如权利要求6所述的电子装置的操作控制方法,其特征在于,步骤“所述采集单元侦测用户在所述投影界面及附近预设区域内执行的控制操作”具体为:
所述采集单元通过拍摄用户的红外热图像及发射与接收红外线的方式侦测用户在所述投影界面及附近预设区域内执行的控制操作。
8.如权利要求7所述的电子装置的操作控制方法,其特征在于,所述步骤“确定用户在所述投影界面及附近预设区域内执行的控制操作的类型”具体包括:
所述采集单元侦测用户与所述采集单元之间的垂直距离是否在预设距离范围内;
当用户与所述采集单元之间的垂直距离在所述预设距离范围内时,确定用户执行的控制操作类型为触控操作;及
当用户与所述采集单元之间的垂直距离不在所述预设距离范围内时,确定用户执行的控制操作类型为手势操作。
9.如权利要求6所述的电子装置的操作控制方法,其特征在于,所述方法还包括以下步骤:
判断所述电子装置与所述投影载体之间的距离是否小于或等于预设距离;及
当判定所述电子装置与所述投影载体之间的距离小于或等于预设距离时,响应用户的输入操作控制所述投影单元将所述电子装置的操作界面在影载体上投影形成投影界面。
10.如权利要求6所述的电子装置的操作控制方法,其特征在于,所述方法还包括以下步骤:
通过所述电子装置的通信单元接收一电子设备传送的操作界面;
响应用户的输入操作将所述电子设备的操作界面在所述投影载体上投影形成投影界面;及
根据用户在所述投影界面及附近预设区域的控制操作控制所述电子设备执行相应的操作。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810507015.5A CN110531843A (zh) | 2018-05-24 | 2018-05-24 | 电子装置及电子装置的操作控制方法 |
TW107128669A TW202004432A (zh) | 2018-05-24 | 2018-08-16 | 電子裝置及電子裝置的操作控制方法 |
US16/421,809 US10969827B2 (en) | 2018-05-24 | 2019-05-24 | Electronic device and method for controlling user interface therein |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810507015.5A CN110531843A (zh) | 2018-05-24 | 2018-05-24 | 电子装置及电子装置的操作控制方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110531843A true CN110531843A (zh) | 2019-12-03 |
Family
ID=68614607
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810507015.5A Pending CN110531843A (zh) | 2018-05-24 | 2018-05-24 | 电子装置及电子装置的操作控制方法 |
Country Status (3)
Country | Link |
---|---|
US (1) | US10969827B2 (zh) |
CN (1) | CN110531843A (zh) |
TW (1) | TW202004432A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110855969A (zh) * | 2019-12-06 | 2020-02-28 | 深圳乐信软件技术有限公司 | 一种投影方法、装置及系统 |
CN111352541A (zh) * | 2020-02-28 | 2020-06-30 | 杭州鸿雁智能科技有限公司 | 投影式控制系统 |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111857411A (zh) * | 2020-06-30 | 2020-10-30 | 海尔优家智能科技(北京)有限公司 | 投影设备的红外触控功能控制方法、投影设备和存储介质 |
CN114012739B (zh) * | 2021-12-10 | 2023-06-27 | 北京云迹科技股份有限公司 | 基于全息投影技术控制机器人的方法及装置 |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TWI423112B (zh) * | 2009-12-09 | 2014-01-11 | Ind Tech Res Inst | 可攜式虛擬輸入操作裝置與其操作方法 |
US9134799B2 (en) * | 2010-07-16 | 2015-09-15 | Qualcomm Incorporated | Interacting with a projected user interface using orientation sensors |
KR102097452B1 (ko) * | 2013-03-28 | 2020-04-07 | 삼성전자주식회사 | 프로젝터를 포함하는 전자 장치 및 그 제어 방법 |
US9846486B2 (en) * | 2013-06-27 | 2017-12-19 | Eyesight Mobile Technologies Ltd. | Systems and methods of direct pointing detection for interaction with a digital device |
KR102140290B1 (ko) * | 2013-12-03 | 2020-07-31 | 삼성전자주식회사 | 입력 처리 방법 및 그 전자 장치 |
US9690400B2 (en) * | 2015-04-21 | 2017-06-27 | Dell Products L.P. | Information handling system interactive totems |
US10401966B2 (en) * | 2015-05-15 | 2019-09-03 | Atheer, Inc. | Method and apparatus for applying free space input for surface constrained control |
CN105549879A (zh) * | 2015-12-08 | 2016-05-04 | 联想(北京)有限公司 | 一种信息处理方法及电子设备 |
KR101976605B1 (ko) * | 2016-05-20 | 2019-05-09 | 이탁건 | 전자기기 및 그 동작 방법 |
US20180007328A1 (en) * | 2016-07-01 | 2018-01-04 | Intel Corporation | Viewpoint adaptive image projection system |
US10212404B2 (en) * | 2017-06-14 | 2019-02-19 | Newtonoid Technologies, L.L.C. | Projection mapping system and apparatus |
-
2018
- 2018-05-24 CN CN201810507015.5A patent/CN110531843A/zh active Pending
- 2018-08-16 TW TW107128669A patent/TW202004432A/zh unknown
-
2019
- 2019-05-24 US US16/421,809 patent/US10969827B2/en active Active
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110855969A (zh) * | 2019-12-06 | 2020-02-28 | 深圳乐信软件技术有限公司 | 一种投影方法、装置及系统 |
CN110855969B (zh) * | 2019-12-06 | 2022-11-15 | 深圳乐信软件技术有限公司 | 一种投影方法、装置及系统 |
CN111352541A (zh) * | 2020-02-28 | 2020-06-30 | 杭州鸿雁智能科技有限公司 | 投影式控制系统 |
Also Published As
Publication number | Publication date |
---|---|
US10969827B2 (en) | 2021-04-06 |
US20190361500A1 (en) | 2019-11-28 |
TW202004432A (zh) | 2020-01-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9298266B2 (en) | Systems and methods for implementing three-dimensional (3D) gesture based graphical user interfaces (GUI) that incorporate gesture reactive interface objects | |
US9448714B2 (en) | Touch and non touch based interaction of a user with a device | |
CN110531843A (zh) | 电子装置及电子装置的操作控制方法 | |
WO2019033957A1 (zh) | 交互位置确定方法、系统、存储介质和智能终端 | |
US20140071171A1 (en) | Pinch-and-zoom, zoom-and-pinch gesture control | |
KR20130105725A (ko) | 콘텐츠의 양 손 제어에 기반한 컴퓨터 비전 | |
US20120092283A1 (en) | Information processing apparatus, information processing method, and program | |
KR20140114913A (ko) | 사용자 기기의 센서 운용 방법 및 장치 | |
TWI643091B (zh) | 用以提供關於計算系統指令手勢之視覺回授的機制 | |
US20140055385A1 (en) | Scaling of gesture based input | |
US20150193000A1 (en) | Image-based interactive device and implementing method thereof | |
US20140267025A1 (en) | Method and apparatus for operating sensors of user device | |
WO2021203815A1 (zh) | 页面操作方法、装置、终端及存储介质 | |
WO2014194148A2 (en) | Systems and methods involving gesture based user interaction, user interface and/or other features | |
WO2016095640A1 (zh) | 移动终端的控制方法及移动终端 | |
US11989352B2 (en) | Method display device and medium with laser emission device and operations that meet rules of common touch | |
WO2014146516A1 (zh) | 一种左右手交互装置及方法 | |
TWI470511B (zh) | 雙模輸入裝置 | |
US9880733B2 (en) | Multi-touch remote control method | |
CN104267802A (zh) | 人机交互式虚拟触控装置、系统及方法 | |
US20160147294A1 (en) | Apparatus and Method for Recognizing Motion in Spatial Interaction | |
CN105183538B (zh) | 一种信息处理方法及电子设备 | |
EP4318187A1 (en) | Method, apparatus and system for cross-device task migration, and storage medium | |
CN104978018A (zh) | 触控系统及触控方法 | |
US9870061B2 (en) | Input apparatus, input method and computer-executable program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20191203 |
|
WD01 | Invention patent application deemed withdrawn after publication |