[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

KR20130080941A - Method and apparatus for processing a function of terminal having a touch panel - Google Patents

Method and apparatus for processing a function of terminal having a touch panel Download PDF

Info

Publication number
KR20130080941A
KR20130080941A KR1020120001836A KR20120001836A KR20130080941A KR 20130080941 A KR20130080941 A KR 20130080941A KR 1020120001836 A KR1020120001836 A KR 1020120001836A KR 20120001836 A KR20120001836 A KR 20120001836A KR 20130080941 A KR20130080941 A KR 20130080941A
Authority
KR
South Korea
Prior art keywords
touch
angle
data
touched
touch panel
Prior art date
Application number
KR1020120001836A
Other languages
Korean (ko)
Inventor
엄태원
권장윤
박소영
신승우
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020120001836A priority Critical patent/KR20130080941A/en
Publication of KR20130080941A publication Critical patent/KR20130080941A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0421Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means by interrupting or reflecting a light beam, e.g. optical touch-screen
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/048023D-info-object: information is displayed on the internal or external surface of a three dimensional manipulable object, e.g. on the faces of a cube that can be rotated by the user

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

단말장치가, 터치패널을 구비하며, 상기 터치패널의 터치부분과 터치되지 않은 부분의 터치신호를 발생하는 센서와, 상기 센서로부터 터치 위치와, 상기 터치된 부분과 터치되지 않은 부분의 변화를 검출하여 터치 각도를 검출하고, 상기 터치 위치 및 각도의 변화에 따라 설정된 기능을 실행하는 제어부와, 상기 제어부의 제어하에 실행되는 기능의 데이터를 표시하는 표시부로 구성된다.The terminal device has a touch panel, the sensor for generating a touch signal of the touch portion and the non-touch portion of the touch panel, the touch position from the sensor, the change of the touched portion and the non-touched portion is detected And a control unit for detecting a touch angle, executing a function set according to the change of the touch position and angle, and a display unit for displaying data of a function executed under control of the control unit.

Figure P1020120001836
Figure P1020120001836

Description

터치패널을 구비하는 장치의 기능 처리 장치 및 방법{METHOD AND APPARATUS FOR PROCESSING A FUNCTION OF TERMINAL HAVING A TOUCH PANEL}TECHNICAL AND APPARATUS FOR PROCESSING A FUNCTION OF TERMINAL HAVING A TOUCH PANEL}

본 발명은 터치패널을 구비하는 장치의 기능처리 장치 및 방법에 관한 것으로, 특히 터치 및 비터치 입력을 분석하여 특정 기능을 수행할 수 있는 장치 및 방법에 관한 것이다.The present invention relates to an apparatus and method for processing a function of an apparatus having a touch panel, and more particularly, to an apparatus and a method capable of performing a specific function by analyzing touch and non-touch inputs.

일반적으로 터치패널을 구비하는 장치는 터치패널의 터치 이벤트에 따라 장치의 동작을 제어하거나 또는 표시되는 데이터를 제어할 수 있다. 이런 경우, 사용자는 단말장치의 화면 상의 터치버튼(Soft key)나 단말장치에 장착되는 키(Hard key)를 이용하여 메뉴를 호출한 후 원하는 기능의 동작을 수행시킬 수 있었다. 따라서 상기 터치패널을 이용하는 장치에서 특정 기능을 수행하는 경우, 다수의 터치 이벤트를 발생시켜야 했다. In general, a device having a touch panel may control an operation of the device or control displayed data according to a touch event of the touch panel. In this case, the user could call a menu using a touch button on the screen of the terminal device or a hard key mounted on the terminal device to perform a desired function. Therefore, when performing a specific function in the device using the touch panel, a number of touch events had to be generated.

본 발명은 터치패널을 구비하는 장치에서 터치패의 터치 및 비터치 입력을 분석하여 휴대단말기에 매핑된 기능을 처리할 수 있는 장치 및 방법을 제안한다. 본 발명의 실시예에서는 터치패널을 통해 입력 발생시 터치위치에서 비터치된 손의 닿은 각도를 활용한 인터랙션을 제안한다. 또한 본 발명의 실시예에서는 터치패널을 통해 입력 발생시 터치위치에서 비터치된 손의 닿은 각도 및 방향을 활용한 인터랙션을 제안한다.The present invention proposes an apparatus and method for processing a function mapped to a portable terminal by analyzing touch and non-touch input of a touch panel in a device having a touch panel. An embodiment of the present invention proposes an interaction utilizing a contact angle of a non-touched hand at a touch position when an input occurs through a touch panel. In addition, the embodiment of the present invention proposes an interaction utilizing a touch angle and a direction of a non-touched hand at a touch position when an input occurs through the touch panel.

단말장치가, 터치패널을 구비하며, 상기 터치패널의 터치부분과 터치되지 않은 부분의 터치신호를 발생하는 센서와, 상기 센서로부터 터치 위치와, 상기 터치된 부분과 터치되지 않은 부분의 변화를 검출하여 터치 각도를 검출하고, 상기 터치 위치 및 각도의 변화에 따라 설정된 기능을 실행하는 제어부와, 상기 제어부의 제어하여 실행되는 기능의 데이터를 표시하는 표시부로 구성된 것을 특징으로 한다.The terminal device has a touch panel, the sensor for generating a touch signal of the touch portion and the non-touch portion of the touch panel, the touch position from the sensor, the change of the touched portion and the non-touched portion is detected And a control unit for detecting a touch angle, executing a function set according to the change of the touch position and angle, and a display unit for displaying data of a function executed by the control unit.

터치패널을 구비하는 단말장치의 데이터 표시 방법이, 터치패널로부터 터치 위치를 감지하는 과정과, 상기 터치패널로부터 터치된 부분과 터치되지 않은 부분의 변화를 검출하여 터치 각도를 검출하는 과정과, 상기 터치 위치 및 각도의 변화에 따라 데이터를 표시하는 과정으로 이루어짐을 특징으로 한다.A data display method of a terminal device having a touch panel may include: detecting a touch position from a touch panel; detecting a touch angle by detecting a change of a portion touched and a portion not touched by the touch panel; Characterized in that the process of displaying the data according to the change in the touch position and angle.

터치패널을 구비하는 장치에서 터치 및 비터치 입력을 분석하여 장치의 특정 기능을 수행할 수 있으며, 이로인해 사용자가 각 인터랙션에 매핑된 동작을 수행하기 위해 다양한 조합의 키를 누르거나 여러 스텝의 메뉴를 호출할 필요 없이 1 step만으로 간편하게 해당 기능을 수행 가능한 이점이 있다. In a device equipped with a touch panel, touch and non-touch inputs can be analyzed to perform specific functions of the device. This allows a user to press various combinations of keys or perform menus of various steps in order to perform actions mapped to each interaction. There is an advantage that can easily perform the function in one step without having to call.

도 1은 본 발명의 실시예에 따른 장치의 구성을 도시하는 도면
도 2는 본 발명의 제1실시예에 따른 단말장치의 구성을 도시하는 도면
도 3a - 도 3c는 본 발명의 실시예에서 각도 변화를 검출하여 3D 데이터의 표시를 제어하는 방법을 설명하는 도면
도 4는 본 발명의 제1실시예에 따른 단말장치의 동작 절차를 도시하는 흐름도
도 5는 본 발명의 제2실시예에 따른 단말장치의 구성을 도시하는 도면
도 6a - 도 6b는 본 발명의 실시예에서 방향 변화를 검출하는 방법을 설명하기 위한 도면
도 7은 본 발명의 실시예에 따라 각도 및 방향 변화에 따라 3D 대이터의 표시를 제어하는 방법을 설명하는 도면
도 8은 본 발명의 제2실시예에 따른 단말장치의 동작 절차를 도시하는 흐름도
도 9는 본 발명의 실시예에 따라 단말장치에서 터치되는 손의 각도를 검출하여 처리하는 예를 도시하는 도면
도 10은 본 발명의 실시예에 따른 휴대단말기의 구성을 도시하는 도면
1 shows a configuration of an apparatus according to an embodiment of the present invention.
2 is a diagram illustrating a configuration of a terminal apparatus according to the first embodiment of the present invention.
3A-3C illustrate a method of controlling the display of 3D data by detecting an angle change in an embodiment of the present invention.
4 is a flowchart illustrating an operation procedure of a terminal apparatus according to the first embodiment of the present invention.
5 is a diagram illustrating a configuration of a terminal device according to a second embodiment of the present invention.
6A-6B illustrate a method of detecting a change in direction in an embodiment of the present invention.
7 is a view for explaining a method of controlling the display of the 3D data according to the change of angle and direction according to an embodiment of the present invention.
8 is a flowchart illustrating an operation procedure of a terminal apparatus according to a second embodiment of the present invention.
9 is a diagram illustrating an example of detecting and processing an angle of a hand touched by a terminal device according to an exemplary embodiment of the present invention.
10 is a diagram illustrating a configuration of a portable terminal according to an embodiment of the present invention.

이하, 본 발명의 바람직한 실시 예들의 상세한 설명이 첨부된 도면을 참조하여 상세히 설명한다. 도면들 중 동일한 구성들은 가능한 한 어느 곳에서든지 동일한 부호들을 나타내고 있음을 유의하여야 한다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. It should be noted that the same configurations of the drawings denote the same reference numerals as possible whenever possible.

본 발명은 터치패널을 구비하는 장치에서 터치 및 비터치 입력을 분석하여 장치의 기능을 실행 또는 제어할 수 있다. 상기 터치 및 비터치 입력은 손가락 또는 손바닥이 터치된 상태에서 비터치된 손의 관계를 분석하여 최종적으로 입력을 결정하게 된다. 본 발명의 실시예에서는 터치 패널에 설정된 크기 영역 이상의 면적이 터치된 상태에서 터치패널이 터치된 위치와 터치되지 않은(닿지 않은) 영역 사이의 각도의 변화를 검출하고, 검출된 각도변화를 활용하여 특정 기능을 매핑하는 장치 및 방법을 제안한다. 이를 위하여, 본 발명의 실시예에 따른 단말장치는 터치패널을 구비하며, 상기 장치는 터치패널에 특정 크기 영역 이상 터치되었음을 감지하면, 상기 터치패널에 터치되지 않은 영역에서 손의 근접 정보를 판단하고, 상기 터치패널에 터치된 부분과 터치되지 않은 부분의 각도 변화를 검출하며, 상기 검출된 각도변화를 이용하여 설정된 기능(mapping된 기능)의 수행을 제어한다. The present invention can execute or control the function of the device by analyzing the touch and non-touch input in the device having a touch panel. The touch and non-touch input is finally determined by analyzing the relationship between the non-touched hands while the finger or the palm is touched. According to an exemplary embodiment of the present invention, a change in an angle between a position where the touch panel is touched and an area that is not touched (not touched) is detected while an area equal to or larger than a size area set in the touch panel is touched, and the detected angle change is utilized. An apparatus and method for mapping a specific function are proposed. To this end, the terminal device according to an embodiment of the present invention includes a touch panel, and when the device detects that the touch panel is touched by a specific size area or more, it determines the proximity information of the hand in the area not touched by the touch panel. The controller detects a change in angle between a portion touched by the touch panel and a portion not touched, and controls the execution of a set function (mapping function) using the detected angle change.

또한 본 발명의 실시예에서는 터치 패널에 설정된 크기 영역 이상의 면적이 터치된 상태에서 터치패널이 터치된 위치와 터치되지 않은(닿지 않은) 영역 사이의 각도의 변화를 검출하고, 또한 상기 터치된 영역(또는 비터치 영역)의 방향 변화를 검출하고, 이렇게 검출된 각도 및 방향 변화를 활용하여 특정 기능을 매핑하는 장치 및 방법을 제안한다. 이를 위하여, 본 발명의 실시예에 따른 단말장치는 터치패널을 구비하며, 상기 장치는 터치패널에 특정 크기 영역 이상 터치되었음을 감지하면, 상기 터치패널에 터치되지 않은 영역에서 손의 근접 정보를 판단한 후 상기 터치패널에 터치된 부분과 터치되지 않은 부분의 각도 변화를 검출하고, 상기 터치된 영역(또는 비터치된 영역)의 방향변화를 검출하며, 상기 검출된 각도 및 방향변화를 이용하여 설정된 기능(mapping된 기능)의 수행을 제어한다. In addition, the embodiment of the present invention detects a change in the angle between the touched position of the touch panel and the non-touched (non-touched) area in a state where an area equal to or larger than the size area set in the touch panel is touched, and further, the touched area ( Or an apparatus and method for detecting a change in the direction (non-touch area), and mapping a specific function by using the detected angle and direction change. To this end, the terminal device according to an embodiment of the present invention includes a touch panel, and when the device detects that the touch panel is touched by a specific size area or more, after determining proximity information of the hand in an area not touched by the touch panel, Detects a change in angle between a portion touched and a portion not touched by the touch panel, detects a change in the direction of the touched region (or a non-touched region), and sets a function set using the detected angle and the change of direction ( control the execution of mapped functions).

도 1은 본 발명의 실시예에 따른 장치의 구성을 도시하는 도면이다.1 is a diagram showing the configuration of an apparatus according to an embodiment of the present invention.

상기 도 1을 참조하면, 센서120은 터치패널이 될 수 있으며, 또한 터치패널 및 터치패널의 비터치를 감지할 수 있는 센서로 구성될 수 있다. 상기 센서120은 터치 영역 및 비터치된 부분의 세기를 감지한다. 제어부100은 단말장치의 전반적인 동작을 제어하며, 또한 상기 센서120으로부터 터치 영역과 터치되지 않은 부분의 상태를 검출하며, 검출된 결과에 따라 설정된 기능의 실행을 제어한다. 메모리110은 본 발명의 실시예에 따른 동작을 제어하는 프로그램을 저장하는 프로그램 메모리 및 프로그램을 수행하기 위한 데이터 및 프로그램을 수행하는 중에 발생되는 데이터를 저장하는 데이터 메모리를 구비한다. 표시부130은 상기 제어부100의 제어하에 단말장치의 동작 및 데이터를 표시한다. 여기서 상기 표시부130은 상기 센서120과 일체형으로 구성될 수 있으며(예를들면 터치 스크린이 될 수 있음), 사용자는 상기 표시부130에 표시되는 화면을 보고 터치 기능을 수행할 수 있으며, 센서120은 상기 표시부130의 화면 상에서 터치되는 입력을 감지할 수 있다.Referring to FIG. 1, the sensor 120 may be a touch panel, and may be configured as a touch panel and a sensor capable of detecting a non-touch of the touch panel. The sensor 120 senses the intensity of the touch area and the non-touched part. The controller 100 controls the overall operation of the terminal device, and also detects a state of the touch area and the non-touched part from the sensor 120 and controls execution of a function set according to the detected result. The memory 110 includes a program memory for storing a program for controlling an operation according to an exemplary embodiment of the present invention, and a data memory for storing data for executing a program and data generated while executing the program. The display unit 130 displays the operation and data of the terminal device under the control of the controller 100. The display unit 130 may be integrated with the sensor 120 (for example, may be a touch screen), and the user may view a screen displayed on the display unit 130 and perform a touch function. The touch input on the screen of the display unit 130 may be sensed.

상기와 같은 구성을 가지는 장치에서, 제어부100은 상기 센서120으로부터 터치패널에 특정 크기 영역 이상 터치되었음을 감지하면, 상기 터치패널에 터치되지 않은 부분에서 손의 근접 정보를 판단하고, 상기 터치패널 터치된 부분과 터치되지 않은 부분의 변화를 검출하고, 상기 검출되는 변화에 따라 설정된 기능의 실행을 제어한다. 여기서 상기 검출은 터치패널과 터치되지 않은 부분의 근접 상태를 감지하여 터치영역에서 비터치 부분이 이루는 각도의 변화를 검출할 수 있다. 또한 상기 검출은 상기 터치패널과 터치되지 않은 부분의 근접 상태를 감지하여 터치영역에서 비터치 부분이 이루는 각도의 변화 및 상기 터치채널에서 터치된 영역의 방향 변화를 검출할 수 있다. 또한 상기 제어부100은 상기 센서120의 출력으로부터 각도 및 방향 변화를 검출하여 매핑된 특정 기능의 실행을 제어한다.In the device having the configuration as described above, when the control unit 100 detects that the touch panel has touched a specific size area or more from the sensor 120, the controller 100 determines proximity information of the hand at a portion not touched by the touch panel, and touches the touch panel. The change of the portion and the portion not touched is detected, and the execution of the set function is controlled according to the detected change. The detection may detect a change of an angle formed by the non-touch part in the touch area by detecting a proximity state between the touch panel and the non-touch part. The detection may detect a proximity state between the non-touch portion and the touch panel to detect a change in the angle formed by the non-touch portion in the touch area and a change in the direction of the touched area on the touch channel. In addition, the controller 100 detects a change in angle and direction from the output of the sensor 120 and controls execution of a mapped specific function.

이하의 설명에서는 상기 터치영역, 각도 및/또는 방향의 변화에 따라 실행되는 기능은 3D(three dimensions) 데이터의 표시 기능이라고 가정하여 설명하기로 한다. 여기서 상기 3D 데이터는 지도 데이터가 될 수 있다.In the following description, it is assumed that a function executed according to a change in the touch area, angle, and / or direction is a display function of three-dimensional (3D) data. The 3D data may be map data.

도 2는 본 발명의 제1실시예에 따른 단말장치의 구성을 도시하는 도면이다. 도 3a - 도 3c는 본 발명의 실시예에서 각도 변화를 검출하여 3D 데이터의 표시를 제어하는 방법을 설명하는 도면이다.2 is a diagram showing the configuration of a terminal apparatus according to the first embodiment of the present invention. 3A-3C illustrate a method of controlling the display of 3D data by detecting an angular change in an embodiment of the invention.

상기 도 2 - 도 3c를 참조하면, 터치센서120은 터치패널이 될 수 있다. 그러면 상기 터치패널은 상기 사용자의 손의 터치 영역 및 비터치 영역에 서로 다른 세기를 가지는 터치신호를 발생할 수 있다. 또한 상기 센서120은 터치패널과, 상기 터치패널과 터치 영역과 비터치 영역 간의 거리를 감지하는 거리센서로 구성될 수 있다. 이런 경우, 상기 터치패널은 사용자 손의 터치영역에서 강한 신호를 발생할 수 있으며, 거리센서는 사용자 손이 터치되지 않은 영역에서 터치패널과 사용자의 손 사이 거리(간격)에 따라 서로 다른 세기를 가지는 신호를 발생할 수 있다. 여기서 상기 터치영역과 비터치 영역 간의 거리를 감지하는 거리센서는 근접센서가 될 수 있으며, 여기서 상기 근접 센서는 적외선 센서가 될 수 있다. 이하의 설명에서 상기 센서120은 터치패널과 근접센서로 구성된 경우를 예로들어 설명하기로 한다. 2 to 3C, the touch sensor 120 may be a touch panel. Then, the touch panel may generate touch signals having different intensities in the touch area and the non-touch area of the user's hand. In addition, the sensor 120 may include a touch panel and a distance sensor that detects a distance between the touch panel and the touch area and the non-touch area. In this case, the touch panel may generate a strong signal in the touch area of the user's hand, and the distance sensor has a signal having different intensities according to the distance (interval) between the touch panel and the user's hand in the area where the user's hand is not touched. May occur. The distance sensor for detecting the distance between the touch area and the non-touch area may be a proximity sensor, and the proximity sensor may be an infrared sensor. In the following description, the sensor 120 will be described with an example in which a touch panel and a proximity sensor are configured.

터치감지부210은 상기 센서120에 상기 터치패널에 터치된 손의 위치를 감지한다. 각도검출부220은 상기 터치감지부210에서 감지되는 터치영역과 상기 터치영역으로부터 터치되지 않은 부분(비터치 부분)의 손(손가락 또는 손바닥)과 터치패널 간의 거리를 검출하고, 상기 터치패널과 터치되지 않은 부분의 손의 각도를 검출한다. 즉, 사용자는 도 3a의 311, 313 및 315와 같이 터치패널에 터치를 할 수 있다. 이런 경우, 상기 311과 터치하는 경우, 상기 손바닥은 321과 같이 터치패널에 터치될 수 있으며, 상기 터치감지부210은 321과 같은 터치감지신호를 발생할 수 있다. 또한 상기 313과 같이 터치하는 경우, 상기 터치감지부210은 상기 손가락의 터치위치를 감지할 수 있으며, 근접센서는 323과 같이 손바닥에서 터치되지 않은 영역과 터치패널 간의 거리에 따라 서로 다른 세기를 가지는 신호를 발생한다. 따라서 상기 도 3a의 313과 같이 터치되는 경우, 상기 각도검출부220은 도 3b와 같은 신호를 수신하게 되며, 이런 경우 상기 각도검출부220은 상기 터치패널과 근접센서의 출력은 비터치영역에서 각도 θ1의 각도를 검출할 수 있다. 또한 상기 35와 같이 터치하는 경우, 상기 터치감지부210은 상기 손가락의 터치위치를 감지할 수 있으며, 근접센서는 325와 같이 손바닥에서 터치되지 않은 영역과 터치패널 간의 거리에 따라 서로 다른 세기를 가지는 신호를 발생한다. 따라서 상기 도 3a의 315와 같이 터치되는 경우, 상기 각도검출부220은 도 3b와 같은 신호를 수신하게 되며, 이런 경우 상기 각도검출부220은 상기 터치패널과 근접센서의 출력은 비터치영역에서 각도 θ2의 각도를 검출할 수 있다. 따라서 상기 각도검출부220은 사용자의 터치 및 비터치 영역에서 감지되는 신호를 이용하여 사용자의 손과 터치패널이 이루는 각도의 변화를 검출할 수 있다.The touch sensor 210 detects a position of a hand touched by the touch panel on the sensor 120. The angle detector 220 detects a distance between the touch area detected by the touch sensing unit 210 and the hand (finger or palm) of the non-touch part (non-touch part) and the touch panel from the touch area, and does not touch the touch panel. Detect the angle of the hand of the part that is not. That is, the user may touch the touch panel as shown in 311, 313, and 315 of FIG. 3A. In this case, when touching the 311, the palm may touch the touch panel as shown in 321, and the touch sensing unit 210 may generate a touch sense signal such as 321. In addition, when touching as shown in 313, the touch sensing unit 210 may detect the touch position of the finger, and the proximity sensor has different intensities according to the distance between the untouched area and the touch panel, such as 323. Generate a signal. Therefore, when touched as shown in 313 of FIG. 3A, the angle detector 220 receives a signal as shown in FIG. 3B. In this case, the angle detector 220 outputs the touch panel and the proximity sensor at an angle θ1 in the non-touch area. The angle can be detected. In addition, when touching as shown in 35, the touch sensing unit 210 may detect the touch position of the finger, and the proximity sensor has different intensities according to the distance between the untouched area and the touch panel as shown in 325. Generate a signal. Therefore, when touched as shown in 315 of FIG. 3A, the angle detector 220 receives a signal as shown in FIG. 3B. In this case, the angle detector 220 outputs the touch panel and the proximity sensor at an angle θ2 in the non-touch area. The angle can be detected. Therefore, the angle detector 220 may detect a change in the angle formed by the user's hand and the touch panel by using signals detected in the user's touch and non-touch areas.

3D 데이터 저장부290은 상기 메모리110에 구비될 수 있다. 상기 3D 데이터는 입체적으로 다양한 형태의 표현이 가능하다. 본 발명의 실시예에서는 사용자의 터치 입력에 따라 3D 데이터의 표현을 제어할 수 있다. 데이터처리부230은 상기 3D 데이터 저장부290의 데이터를 상기 터치감지부210 및 각도검출부220의 출력에 의해 제어하여 표시 데이터로 처리한다. 즉, 상기 데이터처리부230은 상기 터치감지부210에서 결정되는 터치 영역을 중심으로 상기 각도검출부220에서 출력되는 각도 변화를 적용하여 3D 데이터의 표시 형태를 변경한다. The 3D data storage unit 290 may be provided in the memory 110. The 3D data can be expressed in various forms in three dimensions. In the embodiment of the present invention, the representation of the 3D data may be controlled according to the user's touch input. The data processor 230 controls the data of the 3D data storage 290 by the output of the touch detector 210 and the angle detector 220 to process the display data. That is, the data processor 230 changes the display form of the 3D data by applying an angle change output from the angle detector 220 around the touch area determined by the touch detector 210.

도 3c의 3D 데이터는 예로써 지도 데이터가 될 수 있다. 이런 경우, 도 3c의 331과 같은 상기 3D 데이터는 사용자가 위에서 아래 방향으로 본(평면, plan) 경우가 될 수 있다. 상기 도 3c의 311과 같은 3D 데이터가 표시부130에 표시되는 상태에서 사용자가 도 3a의 313과 같이 터치 동작을 수행하면, 상기 데이터처리부230은 θ1 각도의 변화를 감지하고 도 3c의 333과 같이 3D 데이터의 표시 각도를 조절한다. 또한 도 3c의 331과 같이 표시되고 있는 상태에서 사용자가 도 3a의 315와 같이 터치 동작을 수행하면, 상기 데이터처리부230은 θ2 각도의 변화를 감지하고 도 3c의 335와 같이 3D 데이터의 표시 각도를 조절한다. 그러면 상기 표시제어부240은 상기 데이터처리부230에서 출력되는 3D 데이터를 표시부130을 통해 상기 도 3c와 같이 표시할 수 있다.The 3D data of FIG. 3C may be, for example, map data. In this case, the 3D data, such as 331 of FIG. 3C, may be a case where the user views the plan from the top to the bottom. When the user performs a touch operation as shown by 313 of FIG. 3A while 3D data such as 311 of FIG. 3C is displayed on the display unit 130, the data processor 230 senses a change in the θ1 angle and displays 3D as shown in 333 of FIG. 3C. Adjust the display angle of the data. In addition, when the user performs a touch operation as shown at 331 of FIG. 3C, the data processor 230 detects a change in the θ2 angle and adjusts the display angle of the 3D data as shown at 335 of FIG. 3C. Adjust. Then, the display controller 240 can display the 3D data output from the data processor 230 as shown in FIG. 3C through the display unit 130.

상기한 바와 같이 본 발명의 실시예에 따른 단말장치는 손이 화면(즉, 표시부와 일체형으로 구성되는 터치패널)에 설정된 크기 이상의 영역으로 터치된 상태에서 닿은 부분과 닿지 않은 부분의 각도를 검출하며, 검출되는 각도가 변화되는 경우 매핑된 기능을 수행한다. 예를들면 지도에서 View mode를 변경하는 경우, 화면에 손가락을 대고 화면과 손바닥의 근접정도를 변화시켜서(각도를 변화시켜서) 지도의 보는 각도를 변화시킨다.As described above, the terminal apparatus according to an embodiment of the present invention detects the angle of the touched part and the non-touched part while the hand is touched to an area of a size or more set on the screen (ie, a touch panel integrally formed with the display unit). If the detected angle changes, the mapped function is performed. For example, if you change the view mode on the map, you can change the viewing angle of the map by placing your finger on the screen and changing the proximity of the screen to the palm (by changing the angle).

도 4는 본 발명의 제1실시예에 따른 단말장치의 동작 절차를 도시하는 흐름도이다. 상기 제1실시예에는 터치입력의 각도 변화에 따라 매핑된 기능을 실행하는 것으로, 상기 도 4는 매핑된 기능이 3D 데이터의 표시기능인 경우를 가정하고 있다.4 is a flowchart illustrating an operation procedure of a terminal apparatus according to the first embodiment of the present invention. In the first embodiment, the mapped function is executed according to the change of the angle of the touch input, and FIG. 4 assumes that the mapped function is a display function of 3D data.

상기 도 4를 참조하면, 상기 제어부100은 411단계에서 3D 데이터를 표시하는 모드를 수행한다. 상기와 같은 3D 데이터 표시모드에서, 사용자는 표시부130 및 센서120이 일체형으로 구성된 터치 스크린 상에서 표시되는 화면을 보고 터치 동작을 수행할 수 있다. 상기와 같은 상태에서 상기 센서120을 통해 터치 입력을 감지하면, 상기 제어부100은 413단계에서 터치입력을 감지한다. 이때 상기 제어부100은 상기 센서120으로부터 출력되는 터치감지신호가 설정된 크기 영역 이상에서 발생되는 경우에 터치입력이 발생된 것으로 감지한다. 상기 터치입력이 감지되면, 상기 제어부100은 415단계에서 상기 터치입력이 발생된 위치를 감지하고, 417단계에서 각도를 검출한다. 이때 상기 각도 검출방법은 상기 도 3a 및 도 3b에 도시된 바와 같이, 사용자의 손이 터치된 위치에서 센서120(즉, 터치패널)과 사용자의 손이 터치되지 않은 부분의 거리를 확인하고, 이를(터치패널과 사용자의 비터치 부분 간의 거리값) 이용하여 사용자의 손이 터치된 각도를 검출한다. Referring to FIG. 4, the control unit 100 performs a mode of displaying 3D data in step 411. In the 3D data display mode as described above, the user may perform a touch operation by looking at a screen displayed on a touch screen in which the display unit 130 and the sensor 120 are integrally formed. When the touch input is sensed through the sensor 120 in the above state, the controller 100 detects the touch input in step 413. At this time, the control unit 100 detects that the touch input is generated when the touch detection signal output from the sensor 120 is generated over the set size area. When the touch input is detected, the control unit 100 detects a position where the touch input is generated in step 415 and detects an angle in step 417. 3A and 3B, the angle detection method checks the distance between the sensor 120 (that is, the touch panel) and the portion where the user's hand is not touched at the position where the user's hand is touched. The distance at which the user's hand is touched is detected using the distance value between the touch panel and the non-touch part of the user.

이후 상기 제어부100은 419단계에서 상기 각도가 변경되었는가 검사하며, 상기 각도가 변경된 경우 421단계에서 상기 변경된 각도를 반영하여 상기 표시되는 3D 데이터를 처리한다. 즉, 상기 제어부100은 상기 각도가 변화되는 상기 표시부130에 표시되는 3D 데이터를 상기 변경된 각도로 변경하며, 423단계에서 상기 각도가 변경된 3D 데이터를 표시부130을 통해 표시한다.Thereafter, the controller 100 checks whether the angle is changed in step 419, and if the angle is changed, in step 421, the controller 100 processes the displayed 3D data by reflecting the changed angle. That is, the controller 100 changes the 3D data displayed on the display unit 130 in which the angle is changed to the changed angle, and displays the 3D data in which the angle is changed through the display unit 130 in step 423.

또한 상기 표시되는 3D 데이터는 상기 각도 이외에 터치되는 위치가 변경되어도 표시데이타가를 변경할 수 있어야 한다. 즉, 사용자는 표시되는 데이터의 위치를 변경하고자 하는 경우, 터치 위치를 변경하거나 또는 스크롤 동작을 수행하게 된다. 이런 경우 상기 표시부130에 표시되는 데이터는 좌우 및/또는 상하로 이동되어 표시된다. 따라서 상기 센서120으로부터 터치감지신호를 수신하면 상기 제어부100은 425단계에서 터치위치의 번경 여부를 검사하며, 상기 터치위치가 변경되었으면 427단계에서 변경된 터치 위치를 반영하여 상기 표시부130에 표시되는 3D 데이터의 표시위치를 변경한다. In addition, the displayed 3D data should be able to change the display data even if the touched position other than the angle is changed. That is, when the user wants to change the position of the displayed data, the user changes the touch position or performs a scroll operation. In this case, the data displayed on the display unit 130 is displayed by being moved left and right and / or up and down. Therefore, upon receiving the touch detection signal from the sensor 120, the controller 100 checks whether the touch position is changed in step 425, and if the touch position is changed, the 3D data displayed on the display unit 130 reflects the changed touch position in step 427. Change the display position of.

상기와 같은 동작은 터치해제 동작이 발생될 때 까지 유지되며, 상기 제어부100은 사용자의 터치 각도 변경 및 터치 위치 변경 여부를 검사하여 표시되는 3D 데이터를 위치 및 각도를 변경할 수 있다. 이때 사용자가 터치를 해제하면, 상기 제어부100은 429단계에서 이를 감지하고 상기 411단계로 되돌아가 상기 3D 데이터 표시모드를 수행한다. 이때 상기 3D 데이터 표시모드는 3D 데이터를 표시하는 모든 기능을 수행하며, 또한 사용자가 3D 데이터 표시모드의 종료를 명령하면 상기 도 4와 같은 절차를 종료하는 절차도 포함한다. The above operation is maintained until the touch release operation occurs, and the controller 100 may change the position and angle of the displayed 3D data by checking whether the user changes the touch angle and the touch position. In this case, when the user releases the touch, the controller 100 detects this in step 429 and returns to step 411 to perform the 3D data display mode. In this case, the 3D data display mode performs all functions of displaying 3D data, and also includes a procedure of terminating the procedure as shown in FIG. 4 when the user commands the end of the 3D data display mode.

도 5는 본 발명의 제2실시예에 따른 단말장치의 구성을 도시하는 도면이다. 도 6a - 도 6b는 본 발명의 실시예에서 방향 변화를 검출하는 방법을 설명하기 위한 도면이고, 도 7은 본 발명의 실시예에 따라 각도 및 방향 변화에 따라 3D 데이터의 표시를 제어하는 방법을 설명하는 도면이다.5 is a diagram illustrating a configuration of a terminal device according to a second embodiment of the present invention. 6A and 6B are diagrams for describing a method of detecting a change in direction in an embodiment of the present invention, and FIG. 7 is a method for controlling display of 3D data according to an angle and a change in direction according to an embodiment of the present invention. It is a figure explaining.

상기 도 5 - 도 7을 참조하면, 상기 터치센서120은 상기한 바와 같이 터치패널이 될 수 있으며, 또한 상기 사용자의 손의 터치 영역 및 비터치 영역에 서로 다른 세기를 가지는 터치신호를 발생할 수 있는 거리센서를 더 구비할 수 있다. 5 through 7, the touch sensor 120 may be a touch panel as described above, and may generate touch signals having different intensities in the touch area and the non-touch area of the user's hand. A distance sensor may be further provided.

터치감지부210은 상기 센서120에 상기 터치패널에 터치된 손의 위치를 감지한다. 각도검출부220은 상기 터치감지부210에서 감지되는 터치영역과 상기 터치영역으로부터 터치되지 않은 부분(비터치 부분)의 손(손가락 또는 손바닥)과 터치패널 간의 거리를 검출하고, 상기 터치패널과 터치되지 않은 부분의 손의 각도를 검출한다. 즉, 상기 각도검출부220은 상기 도 3a와 같은 터치 동작에따라서 도 3b와 같은 각도를 검출할 수 있다. 방향검출부250은 상기 터치감지부210에서 출력되는 처치 영역의 방향을 검출한다. 즉, 사용자는 도 6a의 611 및 613과 같이 터치패널에 터치를 할 수 있다. 이런 경우, 상기 611과 터치하는 경우, 상기 터치감지부210은 621과 같은 터치감지신호를 발생할 수 있다. 또한 상기 613과 같이 터치하는 경우, 상기 터치감지부210은 상기 손가락의 터치위치를 감지할 수 있으며, 상기 터치감지부210은 623과 같은 터치감지신호를 발생할 수 있다. 이때 상기 도 6b의 621과 같은 터치신호는 터치 중심선이 X 축과 평행을 이루며, 도 6b의 623과 같은 터치신호는 625와 같이 X축과 Y축 사이에서 일정 각도θ12를 가지게 된다. 즉, 상기 도 6a의 611과 같은 터치신호는 0도에 가까운 방향 각을 가지며, 도 6a의 613과 같은 처치신호는 θ12각도를 가진다. 따라서 상기 방향검출부250은 사용자의 터치 방향에 따른 방향 각을 검출할 수 있다. The touch sensor 210 detects a position of a hand touched by the touch panel on the sensor 120. The angle detector 220 detects a distance between the touch area detected by the touch sensing unit 210 and the hand (finger or palm) of the non-touch part (non-touch part) and the touch panel from the touch area, and does not touch the touch panel. Detect the angle of the hand of the part that is not. That is, the angle detector 220 may detect the angle as shown in FIG. 3B according to the touch operation as shown in FIG. 3A. The direction detector 250 detects a direction of the treatment area output from the touch detector 210. That is, the user may touch the touch panel as shown in 611 and 613 of FIG. 6A. In this case, when touching 611, the touch sensing unit 210 may generate a touch sensing signal such as 621. In addition, when touching as shown in 613, the touch sensing unit 210 may sense a touch position of the finger, and the touch sensing unit 210 may generate a touch sensing signal such as 623. In this case, the touch signal as shown in FIG. 6B has a touch center line parallel to the X axis, and the touch signal as shown in 623 of FIG. 6B has a predetermined angle θ12 between the X and Y axes as shown in 625. That is, the touch signal such as 611 of FIG. 6A has a direction angle close to 0 degrees, and the treatment signal such as 613 of FIG. 6A has a θ12 angle. Therefore, the direction detection unit 250 may detect the direction angle according to the user's touch direction.

3D 데이터 저장부290은 상기 메모리110에 구비될 수 있으며, 상기한 바와 같이 상기 3D 데이터는 입체적으로 다양한 형태의 표현이 가능하다. 본 발명의 실시예에서는 사용자의 터치 입력의 위치, 손의 각도 및 터치 방향에 따라 3D 데이터의 표현을 제어할 수 있다. 데이터처리부230은 상기 3D 데이터 저장부290의 데이터를 상기 터치감지부210, 각도검출부220 및 방향검출부250의 출력에 의해 제어하여 표시 데이터로 처리한다. 즉, 상기 데이터처리부230은 상기 터치감지부210에서 결정되는 터치 영역을 중심으로 상기 각도검출부220에서 출력되는 손의 각도 변화 및 방향검출부250에서 출력되는 터치 방향 변화를 적용하여 3D 데이터의 표시 형태를 변경한다. The 3D data storage unit 290 may be provided in the memory 110. As described above, the 3D data may be represented in various forms in three dimensions. In the embodiment of the present invention, the representation of the 3D data may be controlled according to the position of the user's touch input, the angle of the hand, and the touch direction. The data processor 230 controls the data of the 3D data storage 290 by the output of the touch detector 210, the angle detector 220, and the direction detector 250 to process the display data. That is, the data processor 230 applies a change in the angle of the hand output from the angle detector 220 and a change in the touch direction output from the direction detector 250 around the touch area determined by the touch detector 210 to display the 3D data. Change it.

도 7의 3D 데이터는 예로써 지도 데이터가 될 수 있다. 이런 경우, 도 7의 710은 상기 3D 데이터를 위에서 아래 방향으로 본(평면, plan) 경우가 될 수 있다. 상기 도 7의 710과 같이 3D 데이터를 표시하는 도 3a의 313 및 도 6a의 611과 같은 터치 동작을 수행하면, 상기 데이터처리부230은 사용자의 손이 θ1 각도로 변화됨을 감지하고 또한 사용자의 터치 방향이 도 6b의 621과 같음을 감지할 수 있으며, 이런 경우 상기 데어터 처리부230은 도 7의 720과 같이 3D 데이터의 표시 각도 및 방향을 조절한다. 또한 상기 도 7의 710과 같이 3D 데이터를 표시하는 상태에서, 도 3a의 313 및 도 6a의 613과 같은 터치 동작을 수행하면, 상기 데이터처리부230은 사용자의 손이 θ1 각도로 변화됨을 감지하고 또한 사용자의 터치 방향이 도 6b의 623과 같음을 감지할 수 있으며, 이런 경우 상기 데어터 처리부230은 도 7의 730과 같이 3D 데이터의 표시 각도 및 방향을 조절한다.The 3D data of FIG. 7 may be, for example, map data. In this case, 710 of FIG. 7 may be a case where the 3D data is viewed from top to bottom. When performing a touch operation such as 313 of FIG. 3A and 611 of FIG. 6A, which displays 3D data as shown in 710 of FIG. 7, the data processor 230 senses that the user's hand is changed at an angle of θ1 and the user's touch direction. 6B, the data processor 230 adjusts the display angle and direction of the 3D data as shown in 720 of FIG. 7. In addition, when the 3D data is displayed as shown in 710 of FIG. 7, when the touch operation such as 313 of FIG. 3A and 613 of FIG. 6A is performed, the data processor 230 detects that the user's hand is changed by θ1 angle. The touch direction of the user may be sensed as 623 of FIG. 6B. In this case, the data processor 230 adjusts the display angle and direction of the 3D data as shown in 730 of FIG. 7.

또한 상기 도 7의 710과 같이 3D 데이터를 표시하는 도 3a의 315 및 도 6a의 611과 같은 터치 동작을 수행하면, 상기 데이터처리부230은 사용자의 손이 θ2 각도로 변화됨을 감지하고 또한 사용자의 터치 방향이 도 6b의 621과 같음을 감지할 수 있으며, 이런 경우 상기 데어터 처리부230은 도 7의 740과 같이 3D 데이터의 표시 각도 및 방향을 조절한다. 또한 상기 도 7의 710과 같이 3D 데이터를 표시하는 상태에서, 도 3a의 315 및 도 6a의 613과 같은 터치 동작을 수행하면, 상기 데이터처리부230은 사용자의 손이 θ2 각도로 변화됨을 감지하고 또한 사용자의 터치 방향이 도 6b의 623과 같음을 감지할 수 있으며, 이런 경우 상기 데어터 처리부230은 도 7의 750과 같이 3D 데이터의 표시 각도 및 방향을 조절한다.In addition, when performing a touch operation such as 315 of FIG. 3A and 611 of FIG. 6A, which displays 3D data as shown in 710 of FIG. 7, the data processor 230 detects that the user's hand is changed at an angle of θ2 and the user's touch 6B may detect that the direction is the same as that of 621 of FIG. 6B. In this case, the data processor 230 adjusts the display angle and direction of the 3D data as shown in 740 of FIG. 7. In addition, when the 3D data is displayed as shown in 710 of FIG. 7, when the touch operation such as 315 of FIG. 3A and 613 of FIG. 6A is performed, the data processor 230 detects that the user's hand is changed by θ2 angle. The touch direction of the user may be sensed as 623 of FIG. 6B. In this case, the data processor 230 adjusts the display angle and direction of the 3D data as shown in 750 of FIG. 7.

상기한 바와 같이 본 발명의 실시예에 따른 단말장치는 손이 화면(즉, 표시부와 일체형으로 구성되는 터치패널)에 설정된 크기 이상의 영역으로 터치된 상태에서 닿은 부분과 닿지 않은 부분의 각도를 검출하고, 손이 터치되는 영역의 방향 변화를 검출한다. 이후 상기 단말장치는 상기 검출되는 손의 각도 및 터치방향이 변화되는 경우, 손의 각도 및 터치 방향의 변화를 적용하여 매핑된 기능을 수행한다. 예를들면 지도에서 View mode를 변경하는 경우, 화면에 손가락을 대고 화면과 손바닥의 근접정도 및 터치 방향을 변화시켜서(각도 및 방향을 변화시켜서) 지도의 표시를 변화시킨다.As described above, the terminal apparatus according to an embodiment of the present invention detects the angle of the touched part and the non-touched part while the hand is touched to an area of a size larger than the size set on the screen (ie, a touch panel integrally formed with the display unit). , Detects a change in the direction of the area where the hand is touched. Thereafter, when the detected angle and the touch direction of the hand change, the terminal device applies a change in the angle and the touch direction of the hand to perform a mapped function. For example, when changing the view mode on a map, the display of the map is changed by changing the proximity of the screen and the palm and the touch direction (by changing the angle and direction) by placing a finger on the screen.

도 8은 본 발명의 제2실시예에 따른 단말장치의 동작 절차를 도시하는 흐름도이다. 상기 제2실시예에는 터치되는 손의 각도 및 터치 방향의 변화에 따라 매핑된 기능을 실행하는 것으로, 상기 도 8은 매핑된 기능이 3D 데이터의 표시기능인 경우를 가정하고 있다.8 is a flowchart illustrating an operation procedure of a terminal apparatus according to a second embodiment of the present invention. In the second embodiment, the mapped function is executed according to the change of the angle and the touch direction of the touched hand. FIG. 8 assumes that the mapped function is a display function of 3D data.

상기 도 8을 참조하면, 상기 제어부100은 811단계에서 3D 데이터를 표시하는 모드를 수행한다. 상기와 같은 3D 데이터 표시모드에서, 사용자는 표시부130 및 센서120이 일체형으로 구성된 터치 스크린 상에서 표시되는 화면을 보고 터치 동작을 수행할 수 있다. 상기와 같은 상태에서 상기 센서120을 통해 터치 입력을 감지하면, 상기 제어부100은 813단계에서 터치입력 여부를 검사한다. 이때 상기 제어부100은 상기한 바와 같이 상기 센서120으로부터 출력되는 터치감지신호가 설정된 크기 영역 이상에서 발생되는 경우에 터치입력이 발생된 것으로 결정한다. 상기 터치입력이 감지되면, 상기 제어부100은 815단계에서 상기 터치입력이 발생된 위치를 감지하고, 817단계에서 터치된 손의 각도 및 터치 방향을 검출한다. 이때 상기 각도 검출방법은 상기 도 3a 및 도 3b에 도시된 바와 같이, 사용자의 손이 터치된 위치에서 센서120(즉, 터치패널)과 사용자의 손이 터치되지 않은 부분의 거리를 확인하고, 이를(터치패널과 사용자의 비터치 부분 간의 거리값) 이용하여 사용자의 손이 터치된 각도를 검출한다. 또한 상기 터치 방향의 검출은 상기 도 6a 및 도 6b에 도시된 바와 같이 터치영역의 중심축이 기준값(여기서는 X 및 Y 좌표)과 비교 분석하여 방향이 변화되는 값(즉, 방향 각)을 검출할 수 있다. Referring to FIG. 8, the controller 100 performs a mode of displaying 3D data in step 811. In the 3D data display mode as described above, the user may perform a touch operation by looking at a screen displayed on a touch screen in which the display unit 130 and the sensor 120 are integrally formed. When the touch input is sensed through the sensor 120 in the above state, the controller 100 checks whether the touch input is performed in step 813. In this case, the controller 100 determines that the touch input is generated when the touch detection signal output from the sensor 120 is generated over the set size region. When the touch input is detected, the controller 100 detects a location where the touch input is generated in step 815, and detects an angle and a touch direction of the touched hand in step 817. 3A and 3B, the angle detection method checks the distance between the sensor 120 (that is, the touch panel) and the portion where the user's hand is not touched at the position where the user's hand is touched. The distance at which the user's hand is touched is detected using the distance value between the touch panel and the non-touch part of the user. 6A and 6B, the detection of the touch direction is performed by comparing the center axis of the touch area with a reference value (here, X and Y coordinates) to detect a value (that is, a direction angle). Can be.

이후 상기 제어부100은 819단계 및 821단계에서 상기 터치된 손의 각도가 변경되었는가 검사하며, 상기 각도가 변경된 경우에는 상기 변경된 손의 각도를 반영하여 상기 표시되는 3D 데이터를 처리한다. 또한 상기 제어부100은 825단계 및 827단계에서 터치영역의 방향 변화를 검출(즉, 사용자가 터치하는 방향)하며, 방향 변화가 검출되면 상기 터치방향의 변경을 적용하여 상기 표시되는 3D 데이터를 처리한다. 또한 상기 터치 위치가 변경되면, 상기 제어부100은 829단계 및 831단계를 수행하면서 변경된 터치 위치를 반영하여 3D 데이터를 처리한다. 그리고 상기 제어부100은 상기 821단계, 827단계 또는 831단계에서 수행한 후, 상기 변경(터치된 손의 각도, 터치 방향 및/또는 터치위치)에 따라 처리된 3D 데이터를 표시부130을 통해 표시한다. 이때 상기 터치위치, 터치 방향 및터치된 손의 각도에 따라 처리되는 3D 데이터는 상기 도 7과 같은 방법으로 표시될 수 있다.Thereafter, the controller 100 checks whether the angle of the touched hand is changed in steps 819 and 821. If the angle is changed, the controller 100 processes the displayed 3D data by reflecting the changed angle of the hand. In addition, in step 825 and 827, the controller 100 detects a change in the direction of the touch area (that is, a direction in which the user touches), and if a change in the direction is detected, applies the change in the touch direction to process the displayed 3D data. . If the touch position is changed, the controller 100 processes 3D data by reflecting the changed touch position while performing steps 829 and 831. The controller 100 displays the 3D data processed according to the change (the angle of the touched hand, the touch direction and / or the touch position) through the display 130 after performing the operations 821, 827, or 831. In this case, the 3D data processed according to the touch position, the touch direction, and the angle of the touched hand may be displayed as shown in FIG. 7.

상기와 같은 동작은 터치해제 동작이 발생될 때 까지 유지되며, 사용자가 터치를 해제하면 상기 제어부100은 833단계에서 이를 감지하고 상기 811단계로 되돌아가 3D 데이터 표시모드를 수행한다. 이때 상기 3D 데이터 표시모드는 3D 데이터를 표시하는 모든 기능을 수행하며, 또한 사용자가 3D 데이터 표시모드의 종료를 명령하면 상기 도 8과 같은 절차를 종료하는 절차도 포함한다. The above operation is maintained until the touch release operation occurs. When the user releases the touch, the control unit 100 detects it in step 833 and returns to step 811 to perform the 3D data display mode. In this case, the 3D data display mode performs all functions of displaying 3D data, and also includes a procedure of terminating the procedure as shown in FIG. 8 when the user commands the end of the 3D data display mode.

도 9는 본 발명의 실시예에 따라 단말장치에서 터치되는 손의 각도를 검출하여 처리하는 예를 도시하는 도면이다.9 is a diagram illustrating an example of detecting and processing an angle of a hand touched by a terminal device according to an exemplary embodiment of the present invention.

상기 도 9를 참조하면, 상기 단말장치는 사용자의 손이 센서120에 일정 크기 이상의 영역이 터치될 때 이를 터치입력으로 감지할 수 있다. 이런 경우, 상기 터치입력은 손바닥, 복수의 손가락 및 손날 등이 터치될 때 발생될 수 있다. 상기 도 9는 화면(터치패널 및 표시부가 일체형으로 구비되는 경우)에 손날을 대고 화면과 손바닥의 근접정도를 변화시켜서(각도를 변화시켜서) 3D 좌표축을 Rotate한다. 이때 상기 사용자의 손날의 방향과 위치가 Rotation 축이 될 수 있다. 이런 경우, 상기 단말장치의 구성은 상기 도 2와 같이 구성할 수 있다.Referring to FIG. 9, when the user's hand touches an area of a predetermined size or more on the sensor 120, the terminal device may detect this by a touch input. In this case, the touch input may be generated when the palm, a plurality of fingers and the blade are touched. FIG. 9 rotates the 3D coordinate axis by changing the proximity of the screen and the palm (by changing the angle) by placing the blade on the screen (when the touch panel and the display unit are integrally provided). At this time, the direction and position of the user's finger may be the rotation axis. In this case, the configuration of the terminal device can be configured as shown in FIG.

도 10은 본 발명의 실시예에 따른 휴대단말기의 구성이 될 수 있다. 여기서 상기 휴대단말기는 휴대전화기, tablet PC, slate PC, notebook PC 등이 될 수있다.10 may be a configuration of a portable terminal according to an embodiment of the present invention. The portable terminal may be a mobile phone, a tablet PC, a slate PC, a notebook PC, or the like.

상기 도 10을 참조하면, 통신부1020은 단말장치와 외부 장치 또는 통신망과 무선 통신 기능을 수행한다. 상기 통신부1020은 WCDMA, GSM, LTE 통신부등이 될 수 있으며, 또한 WiFi, Wibro, Wimax 통신부 등이 될 수 있고, 또한 Bluetooth, NFC 통신부 등이 될 수 있다. 터치스크린1030은 표시패널1031, 근접센서1033 및 터치패널1035가 일체형으로 구성될 수 있다. Referring to FIG. 10, the communication unit 1020 performs a wireless communication function with a terminal device and an external device or a communication network. The communication unit 1020 may be a WCDMA, GSM, LTE communication unit, etc., may also be a WiFi, Wibro, Wimax communication unit, etc., may also be a Bluetooth, NFC communication unit and the like. In the touch screen 1030, the display panel 1031, the proximity sensor 1033, and the touch panel 1035 may be integrated.

제어부1000은 상기 터치패널1035 및 근접센서1035의 출력으로부터 사용자에 의해 터치되는 위치, 손의 각도 및/또는 터치 방향을 검출하며, 상기 검출되는 터치위치, 터치 방향 및/또는 손의 각도에 따라 표시할 데이터를 변경하며, 상기 변경된 데이터를 표시패널1031을 통해 표시되도록 제어한다. 메모리1010은 상기 3D 데이터를 저장하고 있으며, 상기 제어부1000의 제어하에 억세스된다.The controller 1000 detects a position touched by the user, an angle of the hand, and / or a touch direction from the outputs of the touch panel 1035 and the proximity sensor 1035, and displays the touched position, the touch direction, and / or the angle of the hand. The data to be changed is changed, and the changed data is controlled to be displayed through the display panel 1031. The memory 1010 stores the 3D data and is accessed under the control of the controller 1000.

본 명세서와 도면에 개시 된 본 발명의 실시예들은 본 발명의 기술 내용을 쉽게 설명하고 본 발명의 이해를 돕기 위해 특정 예를 제시한 것일 뿐이며, 본 발명의 범위를 한정하고자 하는 것은 아니다. 여기에 개시된 실시예들 이외에도 본 발명의 기술적 사상에 바탕을 둔 다른 변형 예들이 실시 가능하다는 것은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 자명한 것이다.
Embodiments of the present invention disclosed in the specification and drawings are only specific examples to easily explain the technical contents of the present invention and aid the understanding of the present invention, and are not intended to limit the scope of the present invention. It will be apparent to those skilled in the art that other modifications based on the technical idea of the present invention are possible in addition to the embodiments disclosed herein.

Claims (12)

터치패널을 구비하며, 상기 터치패널의 터치부분과 터치되지 않은 부분의 터치신호를 발생하는 센서와,
상기 센서로부터 터치 위치와, 상기 터치된 부분과 터치되지 않은 부분의 변화를 검출하여 터치 각도를 검출하고, 상기 터치 위치 및 각도의 변화에 따라 설정된 기능을 실행하는 제어부와,
상기 제어부의 제어하여 실행되는 기능의 데이터를 표시하는 표시부로 구성된 것을 특징으로 하는 장치.
A sensor having a touch panel and generating touch signals of the touch portion and the non-touch portion of the touch panel;
A controller for detecting a touch angle by detecting a touch position and a change of the touched portion and a non-touched portion from the sensor, and executing a function set according to the change of the touch position and angle;
And a display unit for displaying data of a function executed by the control unit.
제1항에 있어서, 상기 센서는
터치패널과,
상기 터치패널에 터치되는 부분과 터치되지 않는 부분의 거리를 감지하는 근접센서로 구성된 것을 특징으로 하는 장치.
The method of claim 1, wherein the sensor
A touch panel,
Apparatus comprising a proximity sensor for sensing the distance between the portion touched on the touch panel and the portion not touched.
제2항에 있어서, 상기 터치패널, 근접센서 및 표시부는 일체형으로 구성된 것을 장치.The apparatus of claim 2, wherein the touch panel, the proximity sensor, and the display unit are integrally formed. 제3항에 있어서, 상기 근접센서는 적외선센서인 것을 특징으로 하는 장치.The apparatus of claim 3, wherein the proximity sensor is an infrared sensor. 제3항에 있어서, 상기 제어부는
상기 터치패널로부터 터치위치를 감지하는 터치감지부와,
상기 터치패널과 터치되지 않은 부분 간의 거리를 분석하여 터치 각도를 검출하는 각도검출부와,
상기 터치위치와 터치각도에 따라 상기 표시데이터를 처리하는 데이터처리부로 구성된 것을 특징으로 하는 장치.
4. The apparatus of claim 3, wherein the control unit
A touch sensing unit sensing a touch position from the touch panel;
An angle detector for detecting a touch angle by analyzing a distance between the touch panel and the non-touch portion;
And a data processor for processing the display data according to the touch position and the touch angle.
제5항에 있어서, 상기 데이터는 3D 데이터인 것을 특징으로 하는 장치.6. The apparatus of claim 5, wherein the data is 3D data. 제3항에 있어서, 상기 제어부는
상기 터치패널로부터 터치위치를 감지하는 터치감지부와,
상기 터치패널과 터치되지 않은 부분 간의 거리를 분석하여 터치 각도를 검출하는 각도검출부와,
상기 터치위치의 방향을 검출하는 방향검출부와,
상기 터치위치, 터치각도 및 터치방향의 변화에 의해 상기 표시데이타를 처리하는 데이터처리부로 구성된 것을 특징으로 하는 장치.
4. The apparatus of claim 3, wherein the control unit
A touch sensing unit sensing a touch position from the touch panel;
An angle detector for detecting a touch angle by analyzing a distance between the touch panel and the non-touch portion;
A direction detecting unit detecting a direction of the touch position;
And a data processor for processing the display data by the touch position, the touch angle, and the touch direction.
터치패널로부터 터치 위치를 감지하는 과정과,
상기 터치패널로부터 터치된 부분과 터치되지 않은 부분의 변화를 검출하여 터치 각도를 검출하는 과정과,
상기 터치 위치 및 각도의 변화에 따라 설정된 기능을 실행 및 표시하는 과정으로 이루어짐을 특징으로 하는 방법.
Detecting a touch position from the touch panel;
Detecting a touch angle by detecting a change in the touched portion and the non-touched portion from the touch panel;
And executing and displaying a function set according to the change of the touch position and angle.
제8항에 있어서, 상기 터치패널은 상기 터치패널에 터치되는 부분과 터치되지 않는 부분의 거리를 감지하는 근접센서를 더 구비하는 것을 특징으로 하는 방법.The method of claim 8, wherein the touch panel further comprises a proximity sensor configured to sense a distance between a portion touched by the touch panel and a portion not touched. 제9항에 있어서, 상기 근접센서는 적외선센서인 것을 특징으로 하는 방법.10. The method of claim 9, wherein the proximity sensor is an infrared sensor. 제10항에 있어서, 상기 설정된 기능은 3D 데이터 표시 기능이며,
상기 설정된 기능을 실행 및 표시하는 과정은 터치위치와 터치각도에 따라 상기 3D 데이터의 표시 위치 및 각도를 변경하여 표시하는 것을 특징으로 하는 방법.
The method of claim 10, wherein the set function is a 3D data display function.
The executing and displaying the set function may include changing and displaying a display position and an angle of the 3D data according to a touch position and a touch angle.
제11항에 있어서,
상기 터치위치의 방향을 검출하는 과정을 더 구비하며,
상기 설정된 기능을 실행 및 표시하는 과정은 상기 터치위치, 터치각도 및 터치방향의 변화에 의해 상기 3D 데이터의 표시위치, 각도 및 방향을 변경하여 표시하는 것을 특징으로 하는 방법.
The method of claim 11,
And detecting a direction of the touch position.
And executing the displayed function by changing the display position, angle, and direction of the 3D data by changing the touch position, touch angle, and touch direction.
KR1020120001836A 2012-01-06 2012-01-06 Method and apparatus for processing a function of terminal having a touch panel KR20130080941A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020120001836A KR20130080941A (en) 2012-01-06 2012-01-06 Method and apparatus for processing a function of terminal having a touch panel

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020120001836A KR20130080941A (en) 2012-01-06 2012-01-06 Method and apparatus for processing a function of terminal having a touch panel

Publications (1)

Publication Number Publication Date
KR20130080941A true KR20130080941A (en) 2013-07-16

Family

ID=48992833

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020120001836A KR20130080941A (en) 2012-01-06 2012-01-06 Method and apparatus for processing a function of terminal having a touch panel

Country Status (1)

Country Link
KR (1) KR20130080941A (en)

Similar Documents

Publication Publication Date Title
KR102253313B1 (en) Operation method and apparatus using fingerprint identification, and mobile terminal
US20170336899A1 (en) Electronic device with touch sensitive, pressure sensitive and displayable sides
EP2508972B1 (en) Portable electronic device and method of controlling same
US9671880B2 (en) Display control device, display control method, and computer program
JP5759660B2 (en) Portable information terminal having touch screen and input method
EP3525075B1 (en) Method for lighting up screen of double-screen terminal, and terminal
JP5640486B2 (en) Information display device
KR20180081133A (en) Rapid screen segmentation method and apparatus, electronic device, display interface, and storage medium
US20150185953A1 (en) Optimization operation method and apparatus for terminal interface
EP2431853A2 (en) Character input device
KR20140047515A (en) Electronic device for inputting data and operating method thereof
US10671269B2 (en) Electronic device with large-size display screen, system and method for controlling display screen
KR20160019762A (en) Method for controlling touch screen with one hand
US20170075453A1 (en) Terminal and terminal control method
TW201741814A (en) Interface control method and mobile terminal
WO2019153362A1 (en) Fingerprint input method, and terminal
WO2018160258A1 (en) System and methods for extending effective reach of a user's finger on a touchscreen user interface
JP5492627B2 (en) Information display device and information display method
EP3528103B1 (en) Screen locking method, terminal and screen locking device
TW201504929A (en) Electronic apparatus and gesture control method thereof
JP5855481B2 (en) Information processing apparatus, control method thereof, and control program thereof
KR20130080941A (en) Method and apparatus for processing a function of terminal having a touch panel
WO2016154859A1 (en) Left-right hand identification method and terminal
JP5624662B2 (en) Electronic device, display control method and program
CN108228054B (en) Electronic device, display control method and related products

Legal Events

Date Code Title Description
PA0109 Patent application

Patent event code: PA01091R01D

Comment text: Patent Application

Patent event date: 20120106

PG1501 Laying open of application
PC1203 Withdrawal of no request for examination
WITN Application deemed withdrawn, e.g. because no request for examination was filed or no examination fee was paid