[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

KR20100058250A - 모바일 디바이스의 사용자 인터페이스 - Google Patents

모바일 디바이스의 사용자 인터페이스 Download PDF

Info

Publication number
KR20100058250A
KR20100058250A KR1020080116997A KR20080116997A KR20100058250A KR 20100058250 A KR20100058250 A KR 20100058250A KR 1020080116997 A KR1020080116997 A KR 1020080116997A KR 20080116997 A KR20080116997 A KR 20080116997A KR 20100058250 A KR20100058250 A KR 20100058250A
Authority
KR
South Korea
Prior art keywords
mobile device
contact
controller
user interface
touch sensor
Prior art date
Application number
KR1020080116997A
Other languages
English (en)
Inventor
한데이비드
이진경
한서연
한문기
Original Assignee
한데이비드
한서연
한문기
이진경
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한데이비드, 한서연, 한문기, 이진경 filed Critical 한데이비드
Priority to KR1020080116997A priority Critical patent/KR20100058250A/ko
Publication of KR20100058250A publication Critical patent/KR20100058250A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1626Constructional details or arrangements for portable computers with a single-body enclosure integrating a flat display, e.g. Personal Digital Assistants [PDAs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1637Details related to the display arrangement, including those related to the mounting of the display in the housing
    • G06F1/1643Details related to the display arrangement, including those related to the mounting of the display in the housing the display being associated to a digitizer, e.g. laptops that can be used as penpads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/1694Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being a single or a set of motion sensors for pointer control or gesture input obtained by sensing movements of the portable computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Position Input By Displaying (AREA)

Abstract

본 발명은 모바일 디바이스의 사용자 인터페이스에 관한 것으로, 전면에 GUI를 표시하기 위한 디스플레이부를 구비하는 모바일 디바이스에 있어서 상기 모바일 디바이스의 측면에 하나 이상의 접촉이 발생하면 각각의 접촉면적 및 접촉위치를 감지하는 터치센서; 및
상기 터치센서를 통해 다수의 접촉이 감지되고, 다수의 접촉 가운데 하나 또는 두 접촉의 접촉위치가 이동하면 이동방향, 이동속도 또는 이동거리를 이용하여 상기 모바일 디바이스의 기능 가운데 미리 정해진 어느 하나를 실행시키는 제어부;를 구비하는 것을 특징으로 한다.
사용자 인터페이스, GUI(Graphical User Interface), 터치센서, 모션센서

Description

모바일 디바이스의 사용자 인터페이스{USER INTERFACE OF MOBILE DEVICE}
본 발명은 모바일 디바이스에 구비된 터치센서와 모션센서를 이용하여 인체공학적인 입력방법을 제공하고, 모바일 디바이스의 사용에 가장 편리한 GUI를 동적으로 제공하는 모바일 디바이스의 사용자 인터페이스에 관한 것이다.
PDA, 스마트폰, UMPC 등 최근 쏟아져 나오는 소형 전자제품들의 홍수로 이른바 모바일 컴퓨팅 환경은 획기적인 전환을 맞이하게 되었다.
한편, 이러한 모바일 디바이스들의 소형화 경향에 따라서 기존의 전통적인 키보드, 마우스, 키패드를 이용한 입력 대신에 더욱 손쉽고 직관적인 입력방법의 개발이 중요한 과제로 부상하였다.
특히 터치스크린을 이용하는 모바일 디바이스들이 늘어나면서 사용자가 모바일 디바이스를 쥐고서 나머지 한손을 이용하여 입력하는 것을 가정한 사용자 인터페이스의 연구가 꾸준히 있어왔다.
그러나, 종래의 연구들은 대부분 손가락이나 스타일러스펜을 이용하여 터치스크린에 가압함으로써 입력하는 전형적인 상황을 가정하고 있는 것이 일반적이었으며, 사용자가 모바일 디바이스를 어떻게 쥐고 있는가 또는 어떻게 보고 있는가 하는 주관적인 상황에 대한 분석을 전제로 삼지 못하는 한계를 갖고 있었다.
본 발명은 상기와 같은 종래기술의 한계점을 극복하기 위하여 안출된 것으로, 터치센서와 모션센서를 이용하여 사용자 마다의 습관이나 동적으로 변화하는 사용자와 모바일 디바이스의 관계와 같은 변수들을 고려, 인체공학적이고 사용자 편의성을 향상시킨 모바일 디바이스의 사용자 인터페이스 제공을 목적으로 한다.
상기와 같은 목적을 달성하기 위한 본 발명의 일 실시예에 의한 모바일 디바이스의 사용자 인터페이스는 전면에 GUI(Graphical User Interface)를 표시하기 위한 디스플레이부를 구비하는 모바일 디바이스에 있어서,
상기 모바일 디바이스의 측면에 하나 이상의 접촉이 발생하면 각각의 접촉면적 및 접촉위치를 감지하는 터치센서; 및
상기 터치센서를 통해 다수의 접촉이 감지되고, 다수의 접촉 가운데 하나 또는 두 접촉의 접촉위치가 이동하면 이동방향, 이동속도 또는 이동거리를 이용하여 상기 모바일 디바이스의 기능 가운데 미리 정해진 어느 하나를 실행시키는 제어부;를 구비하는 것을 특징으로 한다.
한편, 상기와 같은 목적을 달성하기 위한 본 발명의 이 실시예에 의한 모바일 디바이스의 사용자 인터페이스는 전면에 GUI를 표시하기 위한 디스플레이부를 구비하는 모바일 디바이스에 있어서,
상기 모바일 디바이스의 측면에 하나 이상의 접촉이 발생하면 각각의 접촉면적 및 접촉위치를 감지하는 터치센서; 및
접촉이 발생한 후 미리 정해진 시간 이내에 해제되는 경우 또는 미리 정해진 시간 이내에 접촉이 발생했다가 해제됨을 2회 이상 반복하는 경우 상기 모바일 디바이스의 기능 가운데 미리 정해진 어느 하나를 실행시키는 제어부;를 구비하는 것을 특징으로 한다.
한편, 상기와 같은 목적을 달성하기 위한 본 발명의 삼 실시예에 의한 모바일 디바이스의 사용자 인터페이스는 전면에 GUI를 표시하기 위한 디스플레이부를 구비하는 모바일 디바이스에 있어서,
상기 모바일 디바이스의 측면에 하나 이상의 접촉이 발생하면 각각의 접촉면적 및 접촉위치를 감지하는 터치센서; 및
상기 터치센서를 통해 감지된 접촉면적 및 접촉위치를 이용하여 상기 모바일 디바이스를 쥔 사용자의 손이 오른손인지 왼손인지 판단하고, 상기 디스플레이부를 통해 손의 방향에 대응하는 GUI를 표시하는 제어부;를 구비하는 것을 특징으로 한다.
이러한 본 발명에 의하면 사용자가 한 손으로 모바일 디바이스를 쥔 상태로, 나머지 손을 이용하지 않고도 용이하게 다양한 기능의 제어를 하는 것이 가능하며, 또한 모바일 디바이스를 쥔 손의 방향이나, 모바일 디바이스를 움직이는 것에 의하여 동적으로 사용자 편의성이 극대화된 GUI를 제공하는 것이 가능하다는 뛰어난 효과가 있다.
이하에서는 첨부하는 도면을 참조하여 본 발명에 의한 모바일 디바이스의 사용자 인터페이스의 구성을 개괄적으로 살펴보기로 한다. 도 1은 일반적인 모바일 디바이스의 외형을 예시적으로 도시하는 도면이며, 도 2는 본 발명에 의한 모바일 디바이스의 구성요소를 개념적으로 설명하는 기능블록도이다.
모바일 디바이스란 PDA, PMP, 스마트폰, 휴대전화, UMPC등의 휴대용 전자기기를 총칭하는 개념으로, 한손 또는 두손으로 쥐고서 사용할 수 있으며 액정화면을 통해 사용자에게 정지화면이나 동영상 등을 표시하는 것을 말한다.
이러한 모바일 디바이스(100)는 도 1에 예시적으로 도시된 바와 같이 디스플레이부(110)를 통해 GUI(Graphical User Interface)를 제공하고 터치스크린이나 하드웨어 버튼 등을 통해 입력받는 것이 일반적이다.
한편, 종래의 PDA나 MP3 플레이어 가운데는 원반형이거나 타원형의 형상을 가진 것도 있으나, 통상 전면과 후면이 넓은 납작한 육면체에 가까운 외형을 갖는 것이 일반적이다.
도 2에 의하면 본 발명에 의한 모바일 디바이스(100)는 디스플레이부(110) 이외에도 제어부(120), 터치센서(130), 모션센서(140)를 더 구비한다.
이때, 디스플레이부(110)는 종래기술에 의한 모바일 디바이스의 그것과 상이하지 아니하며, LCD패널을 이용하여 구현되는 것이 일반적이다. 최근에는 터치스크린을 이용하여 구현되는 경우가 많다.
터치센서(130)는 바람직하게는 모바일 디바이스(100)의 측면에 터치가 발생하는지 여부를 감지하는데, 필요에 따라서는 디스플레이부(110)의 베젤 부위 (도 1에서 모바일 디바이스 전면 가운데 디스플레이부를 제외한 나머지 영역) 또는 모바일 디바이스(100)의 후면에 이루어지는 터치를 감지하도록 구현할 수도 있다.
한편, 모션센서(140)는 모바일 디바이스(100)의 움직임이나, 기울어짐을 감지한다. 각속도를 측정하기 위한 자이로 센서나, 속도 변화를 측정하는 가속도 센서 등을 이용하여 구현될 수 있다.
제어부(120)는 이러한 터치센서(130) 및 모션센서(140)에 의해 얻어진 정보를 이용하여 사용자가 오른손으로 모바일 디바이스(100)를 쥐고 있는가, 또는 왼손으로 모바일 디바이스(100)를 쥐고 있는가, 엄지손가락 또는 검지손가락을 이용하여 측면 일부 영역을 탭핑 또는 드래그 했는가, 모바일 디바이스(100)를 특정 방향으로 움직이거나, 눕히거나 세우는 등 기울였는가를 판단하고, 그 판단결과에 따라서 모바일 디바이스(100)의 기능 가운데 어느 하나를 실행시킨다.
이하에서는 도 3을 참조하여 본 발명의 일 실시예에 의한 모바일 디바이스의 사용자 인터페이스를 자세히 살펴보기로 한다. 본 발명의 일 실시예는 사용자가 모 바일 디바이스(100)를 쥔 상태에서 어느 하나 또는 두개의 손가락을 이용해 측면을 드래그하는 경우의 처리에 관한 것이다.
도 3의 (a)는 사용자가 모바일 디바이스(100)를 쥔 상태로 엄지손가락을 이용해서 측면을 드래그하는 모양을 도시하며, 도 3의 (b)는 엄지와 검지손가락을 동시에 이용해서 측면을 드래그하는 모양을 도시한다.
도 3의 (a), (b)의 예에서 모바일 디바이스(100)의 전면에 디스플레이부(110)가 구비되어 있음을 확인할 수 있다. 한편, 터치센서(130)는 전면을 기준으로 윗면, 아랫면, 우측면과 좌측면(이하 "측면"이라 함)에 접촉이 발생하면 그 접촉면적과 접촉위치를 감지하되, 사용자가 도 3의 (a) 및 (b)에서 처럼 손가락을 이용하여 터치한 상태로 접촉위치를 이동(즉, 드래그)시키면 접촉위치를 연속적으로 감지함으로써 이동방향, 이동속도, 이동거리를 알 수 있도록 한다. 즉, 터치센서(130)가 감지한 접촉위치의 변화를 이용하여 제어부(120)가 이동방향, 속도 및 거리를 분석하는 것으로 구현할 수 있다.
제어부(120)는 도 3의 (a) 또는 (b)에 예시적으로 도시된 바와 같이 드래그가 일어나면 모바일 디바이스는 접촉위치의 이동방향, 이동속도 또는 이동거리 가운데 하나 또는 그 이상을 이용하여 모바일 디바이스(100)의 기능 가운데 어느 하나를 실행시킬 수 있다.
예를들어, 모바일 디바이스(100)를 이용해 음악파일을 재생하던 도중 도 3의 (a)와 같이 좌측면 상단부분을 위쪽으로 드래그하면 볼륨을 높인다거나, 빨리감기를 한다거나 하는 등, 미리 정해진 모바일 디바이스(100)의 특정 기능을 실행시킬 수 있다.
한편, 도 3의 (b)의 예에서는 모바일 디바이스(100)의 좌측면에 사용자의 손바닥과 엄지손가락의 두군데 접촉이 이루어지고, 윗면에 검지손가락이, 우측면에 중지부터 새끼 손가락까지의 세군데 접촉이 이루어진 상태에서, 엄지가 위쪽으로, 검지가 오른쪽 방향으로 동시에 드래그되고 있음을 확인할 수 있다.
이때, 터치센서(130)는 여섯군데 가운데서 엄지와 검지 두군데의 접촉위치가 이동하므로 이를 감지하며, 제어부(120)는 이에 대응하여 모바일 디바이스(100)의 특정 기능을 실행한다.
즉, 모바일 디바이스(100)의 측면에 두개의 드래그가 동시에 감지된 경우 각 드래그의 이동방향 등을 조합하여 모바일 디바이스(100)의 특정 기능을 실행하므로, 도 3의 (b)에서와 같이 모바일 디바이스(100)를 쥔 손의 손가락 끝을 움직이는 것만으로 여러가지의 기능을 제어하는 것이 가능해진다.
물론, 구현에 따라서는 두개의 드래그의 조합 대신에 드래그와 모바일 디바이스(100) 외부에 노출된 하드웨어 버튼의 클릭의 조합, 드래그와 터치스크린 클릭의 조합을 이용하여 다양한 기능의 제어를 하는 것도 가능하다.
한편, 제어부(120)는 상기에서 설명한 바와 같이 모바일 디바이스(100) 측면 일부에 드래그가 발생하면 드래그가 일어난 위치에 따라서 어떤 기능을 실행할 것인가를 결정할 수도 있겠으나, 여기서 더 나아가 터치센서(130)를 통해 감지된 다수의 접촉들의 상대적인 위치를 분석하여 드래그의 상대적인 위치에 따라서 어떤 기능을 실행할 것인지 결정할 수 있다.
즉, 도 3의 (a)를 예를들어 설명하자면 터치센서(130)는 모바일 디바이스(100)의 좌측면에 엄지손가락과 손바닥 두군데, 우측면에 검지에서 새끼 손가락까지 네군데 총 여섯군데의 접촉을 감지한다. 한편, 제어부(120)는 각각의 접촉면적과 위치를 분석하여 그 가운데 좌측면 아래쪽의 접촉이 가장 접촉면적이 넓고 나머지는 접촉면적이 비슷하므로 사용자의 손이 왼손이며, 좌측면 윗쪽의 접촉은 엄지손가락, 우측면의 접촉은 위에서부터 검지부터 새끼 손가락까지의 차례라고 판단할 수 있다. 제어부(120)는 이렇듯 다수의 접촉의 상대적인 위치를 분석하여 드래그가 발생하면 드래그가 발생한 절대적인 위치가 아닌 상대적인 위치에 따라 특정 기능을 실행할 수 있는 것이다.
도 3의 (a)의 예에서는 상기에서 설명한 바와 같이 면적이 가장 넓은 접촉과 같은 면 위쪽 부분에 드래그가 있었으므로 볼륨을 높이는 등과 같이 다른 접촉들과의 상대적인 위치에 따라서 특정 기능의 실행을 하게된다.
이에 의하면, 사용자가 도 3의 (a)와는 반대로 오른손으로 모바일 디바이스(100)를 쥐는 경우, 우측면의 위쪽 부분에 드래그를 하겠으나 이 경우에도 제어부(120)는 왼손으로 쥔 경우와 동일하게 볼륨을 높이는 기능을 실행할 수 있게 되는 것이다.
도 3의 (c)는 사용자가 모바일 디바이스(100)를 쥔 상태로 모바일 디바이스(100)를 우측으로 움직이는 모양을 도시하는데, 모바일 디바이스(100)를 움직이기 전후에 측면을 드래그하는 것을 가정하고 있다.
모션센서(140)는 모바일 디바이스(100)의 모바일 디바이스의 기울어짐 또는 움직임을 감지하는데,
제어부(120)는 상기 모션센서(140)를 통해 모바일 디바이스(100)의 기울어짐 또는 움직임이 감지되면 이에 따라 상기 모바일 디바이스의 특정 기능을 실행시킨다.
사용자가 모바일 디바이스(100)를 특정 방향으로 움직이거나, 가로 또는 세로로 세우는 등 기울이면 모바일 디바이스(100)의 측면에 이루어지는 드래그와의 조합으로 여러가지의 기능을 실행시킬 수 있게 된다.
사용자가 도 3의 (a)의 예와 같이 엄지손가락을 이용하여 위쪽으로 드래그한 후 도 3의 (c)의 예와 같이 오른쪽으로 움직이면 제어부(120)는 그 조합에 대응하는 기능을 실행하게 된다.
한편, 도 3의 (d)는 사용자가 한 손으로 모바일 디바이스(100)를 쥔 상태로, 나머지 한 손의 엄지와 검지를 이용하여 아래 윗면을 동시에 드래그하는 모양을 도시한다.
이 경우에도 상기에서 설명한 바와 같이 제어부(120)는 두개의 드래그가 동시에 일어났으므로 그 조합에 대응하는 모바일 디바이스(100)의 기능을 실행한다. 도 3의 (b)와의 차이점은 접촉이 여덟군데라는 점이다.
이하에서는 도 4를 참조하여 본 발명의 이 실시예에 의한 모바일 디바이스의 사용자 인터페이스를 자세히 살펴보기로 한다. 본 발명의 이 실시예는 사용자가 모바일 디바이스(100)를 쥔 상태에서 어느 하나의 손가락을 이용해 측면의 일부 영역을 태핑하거나 더블태핑하는 경우의 처리에 관한 것이다.
단, 상기 일 실시예에서 설명한 바와 중복되는 부분에 대한 설명은 생략하기로 한다.
도 4의 (a)는 사용자가 한 손으로 모바일 디바이스(100)를 쥔 상태로 엄지손가락을 이용하여 측면을 탭핑하는 모양을 도시하며, 도 4의 (b)는 검지손가락을 이용하여 측면을 탭핑하는 모양을 도시한다.
탭(Tap)의 사전적 의미는 "가볍게 두드리다"인데, 본 발명에서는 터치한 다음 일정 시간 이내에 터치를 해제하는 것을 의미하며, 더블탭(Double Tap)은 일정 시간 이내에 두번의 탭이 이루어지는 것을 의미한다.
즉, 사용자가 도 4의 (a)에서 처럼 모바일 디바이스(100)의 측면에 손가락을 댄 다음 떼는 동작을 하는 것을 탭, 이러한 동작이 짧은 시간동안 두번 이루어지는 것을 더블 탭이라 한다.
이때, 터치센서(130)는 모바일 디바이스(100)의 측면에 접촉이 발생하면 그 면적과 위치를 감지하며, 제어부(120)는 터치센서(130)를 이용, 접촉이 이루어졌다가 해제된 시간 간격을 분석하여 탭 또는 더블 탭이 발생하였나 여부를 판단한다.
한편, 제어부(120)는 탭 또는 더블 탭이 발생하면 그 위치에 대응하는 모바일 디바이스(100)의 특정 기능을 실행하는데, 이때의 위치란 상기에서 설명한 바와 같이 절대 위치일 수도 있으나 다수의 접촉간 상대적인 위치일 수도 있다.
도 4의 (a)와 (b)는 모바일 디바이스(100)의 좌측과 우측면의 윗쪽에 탭이 발생한 모양을 각각 도시하고 있는데, 제어부(120)는 각각 이에 대응하는 기능을 실행하게 된다.
한편, 도 4의 (c)는 사용자가 한 손으로 모바일 디바이스(100)를 쥔 상태로 모바일 디바이스(100)를 우측으로 움직이는 모양을 도시한다.
모션센서(140)는 모바일 디바이스(100)의 기울어짐 또는 움직임을 감지하는데, 제어부(120)는 상기 모션센서(140)를 통해 모바일 디바이스(100)의 기울어짐 또는 움직임이 감지되면 이에 따라 모바일 디바이스(100)의 특정 기능을 실행시킨다.
사용자가 모바일 디바이스(100)를 기울이거나 움직이는 경우, 제어부(120)는 터치, 탭 또는 더블탭과의 조합으로 다양한 기능을 실행시킬 수 있다.
도 4의 (c)의 예에서 사용자가 좌측면 윗쪽을 엄지손가락으로 태핑한 다음 모바일 디바이스(100)를 오른쪽으로 움직였는데 제어부(120)는 이 둘의 조합에 대응하여 "빨리감기"와 같은 기능을 실행 시킬 수 있다.
이하에서는 도 5를 참조하여 본 발명의 삼 실시예에 의한 모바일 디바이스의 사용자 인터페이스를 자세히 살펴보기로 한다. 본 발명의 삼 실시예는 사용자가 모바일 디바이스(100)를 쥔 손이 오른손인지, 왼손인지 또는 양손인지에 따라서, 그리고 모바일 디바이스(100)가 기울어진 각도와 방향에 따라 적절한 GUI를 표시하는 것에 관한 것이다.
단, 상기 일 실시예에서 설명한 바와 중복되는 부분에 대한 설명은 생략하기로 한다.
도 5의 (a) 및 (b)는 사용자가 오른손과 왼손을 이용하여 모바일 디바이스(100)를 쥔 모양을 각각 도시하고 있다.
터치센서(130)는 모바일 디바이스(100)의 측면에 하나 이상의 접촉이 발생하면 각각의 접촉면적 및 접촉위치를 감지하는데, 제어부(120)는 터치센서(130)를 통해 감지된 접촉면적 및 접촉위치를 이용하여 상기 모바일 디바이스를 쥔 사용자의 손이 오른손인지 왼손인지 판단한다.
오른손인지 왼손인지의 판단은 접촉면적과 위치의 분석에 의해 이루어진다. 도 5의 (b)의 예에서 사용자는 모바일 디바이스(100)를 오른손으로 쥐고 있는데 모바일 디바이스(100)의 우측면 아래쪽에 손바닥이, 윗쪽에 엄지손가락이 접촉되어 있으며, 좌측에 검지에서 새끼손가락까지 네군데의 접촉이 이루어져 있음을 확인할 수 있다. 이때, 접촉면적이 가장 넓은 우측면 아래쪽이 사용자의 손바닥 부분에 해당하며, 모바일 디바이스(100)의 우측면이므로 오른손이라 판단할 수 있다.
이후, 제어부(120)는 모바일 디바이스(100)를 쥔 손이 오른손인지 왼손인지에 따라서 GUI를 적절한 것으로 바꾸어 디스플레이부(110)를 통해 표시한다.
보통 모바일 디바이스(100)는 터치스크린을 구비하는 경우가 많으며 사용자는 이를 손가락을 이용해 터치하는 등의 방법으로 조작하는 것이 일반적인데, 오른손잡이인 경우와 왼손잡이인 경우를 나누어 GUI를 제공한다면 사용자 편의성이 극 대화될 것임은 당연하다. 따라서, 제어부(120)는 모바일 디바이스(100)를 쥔 손에 따라서 적당한 GUI를 제공하는 것이다. 예를들어, 사용자의 손의 방향에 따라서 특정 아이콘의 위치를 오른쪽이나 왼쪽으로 치우치게 표현하는 등을 들 수 있다.
한편, 모션센서(140)는 모바일 디바이스(100)의 기울어진 방향을 감지하는데, 제어부(120)는 상기 모바일 디바이스(100)가 기울어진 방향에 따라 상기 디스플레이부(110)를 통해 대응하는 GUI를 표시한다.
예를들어, 도 5의 (c)와 같이 사용자가 모바일 디바이스(100)를 세로 상태에서 가로 상태로 눕히거나, 도 5의 (d)와 같이 모바일 디바이스(100)를 꺼꾸로 세우면 제어부(120)는 이에 대응하는 적절한 GUI를 표시한다.
제어부(120)가 모바일 디바이스(100)를 쥔 손이 오른손인지, 왼손인지 여부와의 조합을 이용하여 "오른손으로 쥐고, 세로로 세웠을때" 또는 "왼손으로 쥐고, 가로로 눕혔을때" 각각 다른 GUI를 표시할 수 있음은 물론이다.
도 5의 (e)는 사용자가 양손을 이용하여 모바일 디바이스(100)를 쥔 모양을 도시하고 있다.
사용자가 모바일 디바이스(100)를 양손으로 쥐는 경우, 오른손 또는 왼손으로 쥔 경우와는 접촉면적이나 위치의 패턴이 다소 상이하다. 도 5의 (e)의 예에서 모바일 디바이스(100)는 가로로 눕혀져 있으며 우측면과 좌측면(세로로 세우는 경우라면 윗면과 아랫면에 해당)의 접촉면적과 접촉위치는 서로 대칭되는데, 우측면 과 좌측면의 거의 전 영역에 걸쳐 사용자의 손바닥과 접촉이 이루어져 있고 윗면에 오른손 검지와 왼손 검지가 접촉을 이루고 있음을 알 수 있다.
이러한 경우 제어부(120)는 사용자가 양손으로 쥔 것으로 파악하여 이에 대응하는 GUI를 표시할 수 있다. 예를들어, 모바일 디바이스(100)를 양손으로 쥐고 게임을 하는 경우 터치스크린(110) 상에 양손을 이용하여 게임 조작을 할 수 있도록 GUI를 표시할 수 있다.
상기에서 살펴본 실시예에서는 터치센서(130)가 모바일 디바이스(100)의 측면에 대한 터치만을 감지하는 것으로 설명하였으며, 이는 인체공학적인 측면이나 제품의 단가라는 경제성의 측면에서 바람직한 것이라 하겠으나 반드시 이에 국한되지는 아니하며, 터치센서(130)는 디스플레이부(110)의 베젤(전면에서 디스플레이부를 제외한 나머지 부분)이나, 모바일 디바이스(100)의 후면에 해당하는 영역에 대해 터치를 감지하도록 할 수도 있다.
이상 몇가지의 실시예를 들어 본 발명을 설명하였으나, 본 발명은 이러한 실시예에 국한되어 해석되지 아니하며, 특허청구범위에 기재된 기술적 사상의 범위내에서 자유롭게 변형 실시될 수 있다.
도 1은 모바일 디바이스의 외형을 예시적으로 도시하는 참고도이며,
도 2는 본 발명에 의한 모바일 디바이스의 구성요소를 개념적으로 설명하는 기능블록도이며,
도 3은 본 발명의 일 실시예에 의한 모바일 디바이스의 사용예를 도시하는 참고도이며,
도 4는 본 발명의 이 실시예에 의한 모바일 디바이스의 사용예를 도시하는 참고도이며,
도 5는 본 발명의 삼 실시예에 모바일 디바이스의 사용예를 도시하는 참고도이다.
<도면의 주요 부분에 대한 부호의 설명>
110 : 디스플레이부
120 : 제어부
130 : 터치센서
140 : 모션센서

Claims (12)

  1. 전면에 GUI(Graphical User Interface)를 표시하기 위한 디스플레이부를 구비하는 모바일 디바이스에 있어서,
    상기 모바일 디바이스의 측면에 하나 이상의 접촉이 발생하면 각각의 접촉면적 및 접촉위치를 감지하는 터치센서; 및
    상기 터치센서를 통해 다수의 접촉이 감지되고, 다수의 접촉 가운데 하나 또는 두 접촉의 접촉위치가 이동하면 이동방향, 이동속도 또는 이동거리를 이용하여 상기 모바일 디바이스의 기능 가운데 미리 정해진 어느 하나를 실행시키는 제어부;를 구비하는 것을 특징으로 하는 모바일 디바이스의 사용자 인터페이스.
  2. 제 1 항에 있어서,
    상기 모바일 디바이스의 기울어짐 또는 움직임을 감지하기 위한 모션센서;를 더 구비하되,
    상기 제어부는 상기 모바일 디바이스의 기울어짐 또는 움직임이 감지되면 이에 따라 상기 모바일 디바이스의 기능 가운데 미리 정해진 어느 하나를 실행시키는 것을 특징으로 하는 모바일 디바이스의 사용자 인터페이스.
  3. 제 1 항 또는 제 2 항에 있어서,
    상기 제어부는 다수의 접촉이 감지되면, 상기 다수의 접촉의 접촉면적과 접촉위치를 이용하여 각각의 상대적인 위치를 분석하고, 하나 또는 두 접촉의 접촉위치가 이동하면 이동한 접촉의 상대적인 위치에 따라서 실행될 상기 모바일 디바이스의 기능을 결정하는 것을 특징으로 하는 모바일 디바이스의 사용자 인터페이스.
  4. 제 1 항 또는 제 2 항에 있어서,
    상기 터치센서는 상기 모바일 디바이스 전면의 디스플레이부를 제외한 영역 또는 상기 모바일 디바이스 후면에 하나 이상의 접촉이 발생하면 각각의 접촉면적 및 접촉위치를 감지하되, 접촉위치의 이동을 감지하는 것을 특징으로 하는 모바일 디바이스의 사용자 인터페이스.
  5. 전면에 GUI를 표시하기 위한 디스플레이부를 구비하는 모바일 디바이스에 있어서,
    상기 모바일 디바이스의 측면에 하나 이상의 접촉이 발생하면 각각의 접촉면적 및 접촉위치를 감지하는 터치센서; 및
    접촉이 발생한 후 미리 정해진 시간 이내에 해제되는 경우 또는 미리 정해진 시간 이내에 접촉이 발생했다가 해제됨을 2회 이상 반복하는 경우 상기 모바일 디 바이스의 기능 가운데 미리 정해진 어느 하나를 실행시키는 제어부;를 구비하는 것을 특징으로 하는 모바일 디바이스의 사용자 인터페이스.
  6. 제 5 항에 있어서,
    상기 모바일 디바이스의 기울어짐 또는 움직임을 감지하기 위한 모션센서;를 더 구비하되,
    상기 제어부는 상기 모바일 디바이스의 기울어짐 또는 움직임이 감지되면 이에 따라 상기 모바일 디바이스의 기능 가운데 미리 정해진 어느 하나를 실행시키는 것을 특징으로 하는 모바일 디바이스의 사용자 인터페이스.
  7. 제 5 항 또는 제 6 항에 있어서,
    상기 제어부는 다수의 접촉이 감지되면, 상기 다수의 접촉의 접촉면적과 접촉위치를 이용하여 각각의 상대적인 위치를 분석하고, 접촉이 발생한 후 미리 정해진 시간 이내에 해제되거나, 미리 정해진 시간 이내에 2회 이상 접촉이 발생했다가 해제되면 해당 접촉의 상대적인 위치에 따라서 실행될 상기 모바일 디바이스의 기능을 결정하는 것을 특징으로 하는 모바일 디바이스의 사용자 인터페이스.
  8. 제 5 항 또는 제 6 항에 있어서,
    상기 터치센서는 상기 모바일 디바이스 전면의 디스플레이부를 제외한 영역 또는 상기 모바일 디바이스 후면에 하나 이상의 접촉이 발생하면 각각의 접촉면적 및 접촉위치를 감지하되, 접촉의 발생후 미리 정해진 시간 이내에 접촉이 해제되었나 여부를 감지하는 것을 특징으로 하는 모바일 디바이스의 사용자 인터페이스.
  9. 전면에 GUI를 표시하기 위한 디스플레이부를 구비하는 모바일 디바이스에 있어서,
    상기 모바일 디바이스의 측면에 하나 이상의 접촉이 발생하면 각각의 접촉면적 및 접촉위치를 감지하는 터치센서; 및
    상기 터치센서를 통해 감지된 접촉면적 및 접촉위치를 이용하여 상기 모바일 디바이스를 쥔 사용자의 손이 오른손인지 왼손인지 판단하고, 상기 디스플레이부를 통해 손의 방향에 대응하는 GUI를 표시하는 제어부;를 구비하는 것을 특징으로 하는 모바일 디바이스의 사용자 인터페이스.
  10. 제 9 항에 있어서,
    상기 모바일 디바이스의 기울어진 방향을 감지하기 위한 모션센서;를 더 구비하되,
    상기 제어부는 상기 모바일 디바이스가 기울어진 방향에 따라 상기 디스플레이부를 통해 대응하는 GUI를 표시하는 것을 특징으로 하는 모바일 디바이스의 사용자 인터페이스.
  11. 제 9 항 또는 제 10 항에 있어서,
    상기 제어부는 상기 터치센서를 통해 감지된 접촉면적 및 접촉위치를 이용하여 사용자가 상기 모바일 디바이스를 양손으로 쥐고 있는지 판단하고, 상기 디스플레이부를 통해 양손에 대응하는 GUI를 표시하는 것을 특징으로 하는 모바일 디바이스의 사용자 인터페이스.
  12. 제 9 항 또는 제 10 항에 있어서,
    상기 터치센서는 상기 모바일 디바이스 전면의 디스플레이부를 제외한 영역 또는 상기 모바일 디바이스 후면에 하나 이상의 접촉이 발생하면 각각의 접촉면적 및 접촉위치를 감지하는 것을 특징으로 하는 모바일 디바이스의 사용자 인터페이스.
KR1020080116997A 2008-11-24 2008-11-24 모바일 디바이스의 사용자 인터페이스 KR20100058250A (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020080116997A KR20100058250A (ko) 2008-11-24 2008-11-24 모바일 디바이스의 사용자 인터페이스

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020080116997A KR20100058250A (ko) 2008-11-24 2008-11-24 모바일 디바이스의 사용자 인터페이스

Publications (1)

Publication Number Publication Date
KR20100058250A true KR20100058250A (ko) 2010-06-03

Family

ID=42359931

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020080116997A KR20100058250A (ko) 2008-11-24 2008-11-24 모바일 디바이스의 사용자 인터페이스

Country Status (1)

Country Link
KR (1) KR20100058250A (ko)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101356743B1 (ko) * 2011-06-28 2014-02-03 (주)메이벨솔루션 톡톡 단말기
US9001056B2 (en) 2011-02-09 2015-04-07 Samsung Electronics Co., Ltd. Operating method of terminal based on multiple inputs and portable terminal supporting the same
US9959035B2 (en) 2013-12-27 2018-05-01 Samsung Display Co., Ltd. Electronic device having side-surface touch sensors for receiving the user-command

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9001056B2 (en) 2011-02-09 2015-04-07 Samsung Electronics Co., Ltd. Operating method of terminal based on multiple inputs and portable terminal supporting the same
US10013098B2 (en) 2011-02-09 2018-07-03 Samsung Electronics Co., Ltd. Operating method of portable terminal based on touch and movement inputs and portable terminal supporting the same
KR101356743B1 (ko) * 2011-06-28 2014-02-03 (주)메이벨솔루션 톡톡 단말기
US9959035B2 (en) 2013-12-27 2018-05-01 Samsung Display Co., Ltd. Electronic device having side-surface touch sensors for receiving the user-command

Similar Documents

Publication Publication Date Title
US10180778B2 (en) Method and apparatus for displaying graphical user interface depending on a user&#39;s contact pattern
JP4743267B2 (ja) 情報処理装置、情報処理方法およびプログラム
US20090213081A1 (en) Portable Electronic Device Touchpad Input Controller
KR101062594B1 (ko) 포인터 디스플레이가 가능한 터치스크린
US9448714B2 (en) Touch and non touch based interaction of a user with a device
KR200450989Y1 (ko) 양면 터치스크린을 구비한 플랫 패널 형상의 모바일 장치
KR101096358B1 (ko) 선택적 입력 신호 거절 및 수정을 위한 장치 및 방법
JP5529700B2 (ja) 情報処理装置、その制御方法、及びプログラム
JP5269648B2 (ja) 携帯端末装置及び入力装置
US8866776B2 (en) Information processing device adapted to receiving an input for user control using a touch pad and information processing method thereof
US20080134078A1 (en) Scrolling method and apparatus
US20110060986A1 (en) Method for Controlling the Display of a Touch Screen, User Interface of the Touch Screen, and an Electronic Device using The Same
US20140055385A1 (en) Scaling of gesture based input
EP3617834B1 (en) Method for operating handheld device, handheld device and computer-readable recording medium thereof
WO2009137000A2 (en) A method and system for performing scrolling by movement of a pointing object in a curvilinear path on a touchpad
US10671269B2 (en) Electronic device with large-size display screen, system and method for controlling display screen
KR20160097410A (ko) 동작 인식을 통한 비접촉식 입력 인터페이스 제공 방법 및 그 장치
KR20100058250A (ko) 모바일 디바이스의 사용자 인터페이스
JP5414134B1 (ja) タッチ式入力システムおよび入力制御方法
WO2013080425A1 (ja) 入力装置、情報端末、入力制御方法、および入力制御プログラム
JP6119291B2 (ja) 表示装置、電子機器、表示方法及びプログラム
US20150091831A1 (en) Display device and display control method
CN203606794U (zh) 一种手持式电脑的操控系统
KR101227799B1 (ko) 휴대가 가능한 전자기기용 외장형 복합 신호 입력 장치
KR20070102923A (ko) 입력방법

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E601 Decision to refuse application