[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

KR20170015089A - User terminal apparatus and control method thereof - Google Patents

User terminal apparatus and control method thereof Download PDF

Info

Publication number
KR20170015089A
KR20170015089A KR1020160001684A KR20160001684A KR20170015089A KR 20170015089 A KR20170015089 A KR 20170015089A KR 1020160001684 A KR1020160001684 A KR 1020160001684A KR 20160001684 A KR20160001684 A KR 20160001684A KR 20170015089 A KR20170015089 A KR 20170015089A
Authority
KR
South Korea
Prior art keywords
display area
live view
processor
user terminal
main display
Prior art date
Application number
KR1020160001684A
Other languages
Korean (ko)
Other versions
KR102174740B1 (en
Inventor
박현섭
김대명
김대현
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to US15/176,630 priority Critical patent/US9936138B2/en
Publication of KR20170015089A publication Critical patent/KR20170015089A/en
Priority to US15/915,696 priority patent/US10645292B2/en
Priority to US16/834,848 priority patent/US10701273B1/en
Priority to US16/890,480 priority patent/US11284003B2/en
Priority to KR1020200142850A priority patent/KR102308201B1/en
Application granted granted Critical
Publication of KR102174740B1 publication Critical patent/KR102174740B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2628Alteration of picture size, shape, position or orientation, e.g. zooming, rotation, rolling, perspective, translation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/16Details of telephonic subscriber devices including more than one display unit
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/52Details of telephonic subscriber devices including functional features of a camera

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

Provided are a user terminal device and a control method thereof. The user terminal device comprises: a display unit which includes a main display area arranged in the front of the user terminal device and a sub display area arranged in at least a part of the rear of the user terminal device by being extended from one side of the main display area; a camera which photographs an image; and a processor which controls the display unit to display a live view obtained through the camera on one of the main display area and the sub display area and to display the live view on the other when the orientation of the user terminal device is changed.

Description

사용자 단말 장치 및 그 제어 방법 { USER TERMINAL APPARATUS AND CONTROL METHOD THEREOF }[0001] USER TERMINAL APPARATUS AND CONTROL METHOD THEREOF [0002]

본 발명은 사용자 단말 장치 및 그 제어 방법에 대한 것으로, 더욱 상세하게는 촬영 시에 사용자 단말 장치의 전면 및 후면에 배치된 디스플레이를 이용하는 사용자 단말 장치 및 그 제어 방법에 대한 것이다.The present invention relates to a user terminal and a control method thereof, and more particularly, to a user terminal using a display arranged on the front and rear sides of a user terminal at the time of shooting and a control method thereof.

전자 기술의 발달에 힘입어 다양한 분야에서, 다양한 유형의 전자 장치가 사용되고 있다. 특히, 최근에는 Out Bending을 통해 디스플레이가 전자 장치의 뒷면까지 확장된 전자 장치(Half Round Display)가 개발되고 있다.Various types of electronic devices have been used in various fields due to the development of electronic technology. Particularly, in recent years, an electronic device (Half Round Display) in which a display is extended to the back side of an electronic device through Out Bending is being developed.

일반적으로 카메라는 전자 장치의 뒷면에 구비되고, 전자 장치의 뒷면에도 디스플레이가 제공됨에 따라 셀피 촬영 등이 좀더 용이하게 되었다. 또한, 하나의 카메라만을 구비하더라도 후면 디스플레이를 이용하여 촬영 상태를 확인하면서 촬영이 가능하게 되었다.In general, the camera is provided on the back side of the electronic device, and the display is provided on the back side of the electronic device. Also, even if only one camera is provided, it is possible to shoot while confirming the shooting state using the rear display.

그에 따라, 촬영 기능을 이용하는 경우에 후면 디스플레이를 이용하는 다양한 활용 가능성을 확보해 줄 필요성이 대두되었다.Accordingly, there has been a need to secure various possibilities of utilizing the rear display when using the photographing function.

본 발명은 상술한 문제점을 해결하기 위한 것으로, 본 발명의 목적은 촬영 상황에 기초하여 사용자 단말 장치의 전면 및 후면에 배치된 디스플레이를 제어하는 사용자 단말 장치 및 그 제어 방법을 제공함에 있다.It is an object of the present invention to provide a user terminal device and a control method thereof for controlling a display disposed on the front and rear sides of a user terminal device based on a photographing situation.

이상과 같은 목적을 달성하기 위한 본 발명의 일 실시 예에 따른 사용자 단말 장치는, 상기 사용자 단말 장치의 전면에 배치되는 메인 표시영역 및 상기 메인 표시영역의 일측으로부터 연장되어 상기 사용자 단말 장치의 후면의 적어도 일 영역에 배치되는 서브 표시영역으로 구성된 디스플레이, 영상을 촬영하는 카메라 및 상기 카메라를 통해 획득된 라이브 뷰를 상기 메인 표시영역 및 상기 서브 표시영역 중 하나에 디스플레이하고, 상기 사용자 단말 장치의 방향(orientation)이 변경되면 상기 라이브 뷰를 상기 메인 표시영역 및 상기 서브 표시영역 중 다른 하나에 디스플레이하도록 제어하는 프로세서를 포함한다.According to an aspect of the present invention, there is provided a user terminal apparatus including a main display region disposed on a front side of the user terminal and a display region extending from one side of the main display region, A display configured of at least one sub display area disposed in one area, a camera capturing an image, and a live view acquired through the camera, in one of the main display area and the sub display area, and displaying the live view on the other of the main display region and the sub display region when the orientation of the live view is changed.

또한, 상기 프로세서는 상기 메인 표시영역에는 상기 라이브 뷰를 디스플레이하고 상기 서브 표시영역에는 정보를 제공하지 않으며, 상기 사용자 단말 장치의 방향이 변경되면 상기 서브 표시영역에는 상기 라이브 뷰를 디스플레이하고, 상기 메인 표시영역에는 정보를 제공하지 않을 수 있다.The processor displays the live view in the main display area and does not provide information in the sub display area. When the direction of the user terminal is changed, the processor displays the live view in the sub display area, Information may not be provided in the display area.

그리고, 상기 프로세서는 상기 서브 표시영역에는 상기 라이브 뷰를 디스플레이하고 상기 메인 표시영역에는 정보를 제공하지 않으며, 상기 메인 표시영역에 사용자 터치가 감지되면, 상기 사용자 터치에 응답하여 영상을 촬영하여 저장할 수 있다.The processor displays the live view in the sub display area and does not provide information to the main display area. When a user touch is detected in the main display area, the processor captures and stores an image in response to the user touch have.

또한, 상기 프로세서는 상기 메인 표시영역 내의 어느 한 지점으로부터 기설정된 방향으로의 스와이프 인터랙션이 감지되면, 상기 기설정된 방향에 대응되도록 촬영 설정 값을 변경할 수 있다.In addition, when the swipe interaction in a predetermined direction is sensed from any one point in the main display area, the processor may change the shooting setting value to correspond to the predetermined direction.

그리고, 상기 프로세서는 상기 라이브 뷰를 상기 메인 표시영역에 디스플레이하며, 상기 라이브 뷰에서 사람의 얼굴이 포함된 것으로 인식되면, 상기 라이브 뷰에 포함된 얼굴 영역을 상기 서브 표시영역에 디스플레이하도록 상기 디스플레이를 제어할 수 있다.The processor displays the live view on the main display area and displays the face area included in the live view on the sub display area if it is recognized that the face of the person is included in the live view Can be controlled.

또한, 상기 프로세서는 상기 서브 표시영역의 크기에 대응되도록 상기 라이브 뷰의 일 영역을 크롭(crop)하여 상기 서브 표시영역에 디스플레이하도록 상기 디스플레이를 제어할 수 있다.Also, the processor may control the display to crop one area of the live view so as to correspond to the size of the sub display area and display the cropped one in the sub display area.

그리고, 상기 프로세서는 상기 라이브 뷰를 상기 메인 표시영역에 디스플레이하며, 상기 라이브 뷰에 사람이 포함된 것으로 인식되면 상기 서브 표시영역에 애니메이션을 디스플레이하도록 상기 디스플레이를 제어할 수 있다.The processor may display the live view in the main display area and may control the display to display an animation in the sub display area when the live view is recognized as including a person.

또한, 상기 프로세서는 피사체까지의 거리를 판단하고, 상기 판단된 거리가 기설정된 거리보다 작으면 상기 라이브 뷰를 상기 서브 표시영역에 디스플레이하고, 상기 판단된 거리가 기설정된 거리보다 크면 상기 라이브 뷰를 상기 메인 표시영역에 디스플레이하도록 상기 디스플레이를 제어할 수 있다.In addition, the processor may determine the distance to the subject, display the live view in the sub display area if the determined distance is less than the preset distance, and if the determined distance is greater than the preset distance, And to control the display to display in the main display area.

그리고, 복수의 센서를 더 포함하고, 상기 프로세서는 상기 복수의 센서로부터 감지되는 상기 사용자 단말 장치의 위치, 움직임 및 사용자의 그립 중 적어도 하나에 기초하여 상기 사용자 단말 장치의 방향이 변경된 것으로 판단할 수 있다.The processor may further include a plurality of sensors, and the processor may determine that the direction of the user terminal is changed based on at least one of a position, a motion, and a grip of the user detected by the plurality of sensors have.

또한, 상기 프로세서는 상기 라이브 뷰에서 기설정된 크기 이상의 사람의 얼굴이 인식되거나, 상기 기설정된 크기 이상의 사람의 얼굴이 인식되는 상태에서 상기 사람의 얼굴이 인식되지 않는 경우, 상기 사용자 단말 장치의 방향이 변경된 것으로 판단할 수 있다.If the face of the person is not recognized in a state where a face of a person having a predetermined size or larger is recognized in the live view or a face of a person having the predetermined size or more is recognized, It can be judged that it has been changed.

한편, 상기 목적을 달성하기 위한 본 발명의 일 실시예에 따른, 사용자 단말 장치의 전면에 배치되는 메인 표시영역 및 상기 메인 표시영역의 일측으로부터 연장되어 상기 사용자 단말 장치의 후면의 적어도 일 영역에 배치되는 서브 표시영역으로 구성된 디스플레이 및 영상을 촬영하는 카메라를 포함하는 사용자 단말 장치의 제어 방법은, 상기 카메라를 통해 획득된 라이브 뷰를 상기 메인 표시영역 및 상기 서브 표시영역 중 하나에 디스플레이하는 단계 및 상기 사용자 단말 장치의 방향(orientation)이 변경되면 상기 라이브 뷰를 상기 메인 표시영역 및 상기 서브 표시영역 중 다른 하나에 디스플레이하는 단계를 포함한다.In order to achieve the above object, according to an embodiment of the present invention, there is provided a user terminal, comprising: a main display area disposed on a front face of a user terminal device; and a display area extending from one side of the main display area, The method comprising the steps of: displaying a live view acquired through the camera in one of the main display area and the sub display area; And displaying the live view on the other of the main display area and the sub display area when the orientation of the user terminal device is changed.

또한, 상기 메인 표시영역 및 상기 서브 표시영역 중 하나에 디스플레이하는 단계는 상기 메인 표시영역에는 상기 라이브 뷰를 디스플레이하고 상기 서브 표시영역에는 정보를 제공하지 않으며, 상기 메인 표시영역 및 상기 서브 표시영역 중 다른 하나에 디스플레이하는 단계는 상기 사용자 단말 장치의 방향이 변경되면 상기 서브 표시영역에는 상기 라이브 뷰를 디스플레이하고, 상기 메인 표시영역에는 정보를 제공하지 않을 수 있다.Also, the displaying in one of the main display region and the sub display region displays the live view in the main display region and does not provide information in the sub display region, And displaying the live view on the other one may not display the live view on the sub display area and provide information on the main display area when the direction of the user terminal is changed.

그리고, 상기 메인 표시영역 및 상기 서브 표시영역 중 다른 하나에 디스플레이하는 단계는 상기 서브 표시영역에는 상기 라이브 뷰를 디스플레이하고 상기 메인 표시영역에는 정보를 제공하지 않으며, 상기 메인 표시영역에 사용자 터치가 감지되면, 상기 사용자 터치에 응답하여 영상을 촬영하여 저장하는 단계를 더 포함할 수 있다.The displaying on the other of the main display region and the sub display region may include displaying the live view on the sub display region and not providing information on the main display region, And photographing and storing the image in response to the user touch.

또한, 상기 메인 표시영역 내의 어느 한 지점으로부터 기설정된 방향으로의 스와이프 인터랙션이 감지되면, 상기 기설정된 방향에 대응되도록 촬영 설정 값을 변경하는 단계를 더 포함할 수 있다.The method may further include changing an imaging setting value to correspond to the predetermined direction when a swipe interaction in a predetermined direction is sensed from any one point in the main display area.

그리고, 상기 메인 표시영역 및 상기 서브 표시영역 중 다른 하나에 디스플레이하는 단계는 상기 라이브 뷰를 상기 메인 표시영역에 디스플레이하며, 상기 라이브 뷰에서 사람의 얼굴이 포함된 것으로 인식되면, 상기 라이브 뷰에 포함된 얼굴 영역을 상기 서브 표시영역에 디스플레이하는 단계를 더 포함할 수 있다.The displaying of the live view on the other of the main display region and the sub display region may display the live view on the main display region and may be included in the live view And displaying the face area in the sub display area.

또한, 상기 서브 표시영역에 디스플레이하는 단계는 상기 서브 표시영역의 크기에 대응되도록 상기 라이브 뷰의 일 영역을 크롭(crop)하여 상기 서브 표시영역에 디스플레이할 수 있다.In addition, the step of displaying in the sub display area may crop one area of the live view so as to correspond to the size of the sub display area and display the cropped image in the sub display area.

그리고, 상기 메인 표시영역 및 상기 서브 표시영역 중 다른 하나에 디스플레이하는 단계는 상기 라이브 뷰를 상기 메인 표시영역에 디스플레이하며, 상기 라이브 뷰에 사람이 포함된 것으로 인식되면 상기 서브 표시영역에 애니메이션을 디스플레이하는 단계를 더 포함할 수 있다.The step of displaying the live view on the other of the main display region and the sub display region displays the live view on the main display region and displays an animation on the sub display region The method comprising the steps of:

또한, 상기 메인 표시영역 및 상기 서브 표시영역 중 하나에 디스플레이하는 단계는 피사체까지의 거리를 판단하고, 상기 판단된 거리가 기설정된 거리보다 작으면 상기 라이브 뷰를 상기 서브 표시영역에 디스플레이하고, 상기 판단된 거리가 기설정된 거리보다 크면 상기 라이브 뷰를 상기 메인 표시영역에 디스플레이할 수 있다.In addition, the displaying in one of the main display area and the sub display area may include determining a distance to a subject, displaying the live view in the sub display area if the determined distance is less than a preset distance, If the determined distance is greater than the preset distance, the live view can be displayed on the main display area.

그리고, 상기 사용자 단말 장치의 위치, 움직임 및 사용자의 그립 중 적어도 하나를 감지하는 단계를 더 포함하고, 상기 메인 표시영역 및 상기 서브 표시영역 중 다른 하나에 디스플레이하는 단계는 상기 사용자 단말 장치의 위치, 움직임 및 사용자의 그립 중 적어도 하나에 기초하여 상기 사용자 단말 장치의 방향이 변경된 것으로 판단할 수 있다.The method of claim 1, further comprising detecting at least one of a position, a movement, and a grip of the user terminal, wherein displaying on the other of the main display region and the sub display region includes: The direction of the user terminal may be determined based on at least one of a movement and a grip of the user.

또한, 상기 메인 표시영역 및 상기 서브 표시영역 중 다른 하나에 디스플레이하는 단계는 상기 라이브 뷰에서 기설정된 크기 이상의 사람의 얼굴이 인식되거나, 상기 기설정된 크기 이상의 사람의 얼굴이 인식되는 상태에서 상기 사람의 얼굴이 인식되지 않는 경우, 상기 사용자 단말 장치의 방향이 변경된 것으로 판단할 수 있다.The displaying of the main display area and the sub display area may include displaying a face of a person having a predetermined size or more in the live view, If the face is not recognized, it can be determined that the direction of the user terminal is changed.

이상과 같은 본 발명의 다양한 실시 예에 따르면, 사용자 단말 장치는 다양한 촬영 상황에 기초하여 사용자 단말 장치의 전면 및 후면에 배치된 디스플레이를 제어하여 사용자가 용이하게 촬영을 수행할 수 있다.According to various embodiments of the present invention as described above, the user terminal device can easily perform the shooting by controlling the display disposed on the front and rear sides of the user terminal device based on various shooting situations.

도 1a 및 도 1b는 사용자 단말 장치의 디스플레이 구조의 일 예를 설명하기 위한 도면이다.
도 2a는 본 발명의 일 실시 예에 따른 사용자 단말 장치의 구성을 나타내는 블럭도이다.
도 2b는 사용자 단말 장치의 세부 구성의 일 예를 나타내는 블럭도이다.
도 2c는 스토리지에 저장된 다양한 모듈을 설명하기 위한 도면이다.
도 3은 메인 표시영역, 서브 표시영역 및 라운드 표시영역 중 하나만이 이용되는 일 예를 설명하기 위한 도면이다.
도 4는 메인 표시영역, 서브 표시영역 및 라운드 표시영역 중 적어도 두 영역이 이용되는 일 예를 설명하기 위한 도면이다.
도 5는 각 영역과 터치 입력에 따른 동작의 일 예를 설명하기 위한 도면이다.
도 6은 본 발명의 일 실시 예에 따른 사용자 단말 장치의 방향(orientation)이 변경된 경우의 동작을 설명하기 위한 도면이다.
도 7a 및 도 7b는 표시영역에 따라 제공되는 이미지를 변경하는 방법의 일 예를 설명하기 위한 도면이다.
도 8a 및 도 8b는 메인 표시영역을 통해 특정 기능을 실행하는 방법의 일 예를 설명하기 위한 도면이다.
도 9는 본 발명의 일 실시 예에 따른 메인 표시영역과 서브 표시영역 모두에 라이브 뷰를 디스플레이하는 방법을 설명하기 위한 도면이다.
도 10은 본 발명의 일 실시 예에 따른 메인 표시영역에 라이브 뷰를 서브 표시영역에 특정 컨텐츠를 디스플레이하는 방법을 설명하기 위한 도면이다.
도 11a 및 도 11b는 라이브 뷰를 디스플레이할 영역을 결정하는 방법의 일 예를 설명하기 위한 도면이다.도 12는 본 발명의 일 실시 예에 따른 사용자 단말 장치의 방향이 변경되는 것을 감지하는 방법을 설명하기 위한 도면이다.
도 13a 및 도 13b는 사용자 단말 장치의 방향 변경에 따른 동작의 일 예를 설명하기 위한 도면이다.
도 14a 및 도 14b는 촬영 기능을 실행시키기 위한 방법의 일 예를 설명하기 위한 도면이다.
도 15는 본 발명의 일 실시 예에 따른 라운드 표시영역을 이용하는 방법을 설명하기 위한 도면이다.
도 16은 본 발명의 다른 실시 예에 따른 사용자 단말 장치의 전면에 카메라가 구비된 경우를 설명하기 위한 도면이다.
도 17a 내지 도 17c는 기타 어플리케이션이 이용되는 경우의 일 예를 설명하기 위한 도면이다.
도 18a 및 도 18b는 디스플레이의 구성의 일 예를 설명하기 위한 도면이다.
도 19는 본 발명의 일 실시 예에 따른 사용자 단말 장치의 제어 방법을 설명하기 위한 흐름도이다.
1A and 1B are views for explaining an example of a display structure of a user terminal.
FIG. 2A is a block diagram illustrating a configuration of a user terminal according to an exemplary embodiment of the present invention. Referring to FIG.
2B is a block diagram showing an example of a detailed configuration of a user terminal.
2C is a diagram for explaining various modules stored in the storage.
3 is a view for explaining an example in which only one of the main display region, the sub display region and the round display region is used.
4 is a view for explaining an example in which at least two areas of the main display area, the sub display area and the round display area are used.
5 is a view for explaining an example of an operation according to each region and a touch input.
6 is a view for explaining an operation when the orientation of a user terminal device is changed according to an embodiment of the present invention.
7A and 7B are diagrams for explaining an example of a method of changing an image provided according to a display area.
8A and 8B are diagrams for explaining an example of a method of executing a specific function through the main display area.
9 is a view for explaining a method of displaying a live view in both the main display area and the sub display area according to the embodiment of the present invention.
10 is a view for explaining a method of displaying a live view in a main display area and a specific content in a sub display area according to an embodiment of the present invention.
11A and 11B are diagrams for explaining an example of a method for determining an area to display a live view. FIG. 12 illustrates a method of detecting a change in the direction of a user terminal according to an exemplary embodiment of the present invention. Fig.
13A and 13B are views for explaining an example of an operation according to a direction change of a user terminal.
14A and 14B are diagrams for explaining an example of a method for executing the photographing function.
15 is a view for explaining a method of using a round display area according to an embodiment of the present invention.
16 is a view for explaining a case where a camera is provided on the front side of a user terminal according to another embodiment of the present invention.
17A to 17C are diagrams for explaining an example in which other applications are used.
18A and 18B are views for explaining an example of the configuration of the display.
19 is a flowchart illustrating a method of controlling a user terminal according to an exemplary embodiment of the present invention.

이하, 본 발명의 다양한 실시 예에 대해서, 첨부된 도면을 참조하여 설명한다. 본 명세서에 기재된 내용은, 본 발명의 범위를 특정한 실시 형태로 한정하려는 것이 아니며, 실시 예의 다양한 변경(modifications), 균등물(equivalents), 및/또는 대체물(alternatives)을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 구성요소에 대해서는 동일 또는 유사한 참조 부호가 사용될 수 있다.Hereinafter, various embodiments of the present invention will be described with reference to the accompanying drawings. It is to be understood that the disclosure herein is not intended to limit the scope of the invention to the specific embodiments but includes various modifications, equivalents, and / or alternatives of the embodiments. In the description of the drawings, like or similar reference numerals may be used for similar components.

또한, 본 명세서에서 사용된 "제1," "제2," 등의 표현들은 다양한 구성요소들을, 순서나 중요도에 상관없이, 각 구성요소들을 서로 구분하기 위해 사용된다. 따라서, 이러한 표현에 의해 해당 구성요소들의 순서나 중요도가 한정되는 것은 아니다. 예를 들면, 본 문서에 기재된 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 바꾸어 명명될 수 있다.Also, the terms " first, "" second," and the like used in the present specification are used to distinguish the various components from each other regardless of order or importance. Therefore, the order and significance of the components are not limited by these expressions. For example, without departing from the scope of the rights described in this document, the first component can be named as the second component, and similarly the second component can also be named as the first component.

또한, 본 명세서에서 하나의 구성요소(예: 제1 구성요소)가 다른 구성요소(예: 제2 구성요소)에 기능적 또는 통신적으로(operatively or communicatively) 연결(coupled)되어 있다거나, 접속되어(connected to) 있다고 언급하는 것은, 각 구성요소들이 직접적으로 연결되거나, 다른 구성요소(예: 제3 구성요소)를 통하여 간접적으로 연결되는 경우까지 모두 포함할 수 있다는 것으로 이해되어야 한다. 반면에, 어떤 구성요소(예: 제1 구성요소)가 다른 구성요소(예: 제2 구성요소)에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 어떤 구성요소와 다른 구성요소 사이에 다른 구성요소(예: 제3 구성요소)가 존재하지 않는 것으로 이해될 수 있다.It will also be appreciated that where an element (e.g., a first element) is operatively or communicatively coupled to or coupled to another element (e.g., a second element) it should be understood that referring to the fact that each component is directly connected or indirectly connected through another component (e.g., a third component). On the other hand, when it is mentioned that a component (e.g. a first component) is "directly connected" or "directly connected" to another component (e.g. a second component) It can be understood that there is no other component (e.g., a third component) between the elements.

본 명세서(disclosure)에서 사용된 용어들은, 임의의 실시 예를 설명하기 위해 사용된 것으로, 다른 실시 예의 범위를 한정하려는 의도가 아닐 수 있다. 또한, 본 명세서에서는 설명의 편의상 단수 표현을 사용할 수도 있으나, 이는 문맥상 명백하게 다르게 뜻하지 않는 한, 복수 표현까지 포함하는 의미로 해석될 수 있다. 또한, 본 명세서에서 사용되는 용어들은 해당 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가질 수 있다. 본 명세서에 사용된 용어들 중 일반적인 사전에 정의된 용어들은, 관련 기술의 문맥상 가지는 의미와 동일 또는 유사한 의미로 해석될 수 있으며, 본 명세서에서 명백하게 정의되지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다. 경우에 따라서, 본 명세서에서 정의된 용어일지라도 본 명세서의 실시 예들을 배제하도록 해석될 수 없다.The terms used in the present disclosure are used to describe any embodiment and may not be intended to limit the scope of other embodiments. In addition, although the singular representation may be used herein for convenience of description, it may be interpreted as including plural representations unless the context clearly indicates otherwise. In addition, terms used in this specification may have the same meaning as commonly understood by those skilled in the art. General predefined terms used herein may be interpreted in the same or similar sense as the contextual meanings of the related art and are to be understood as meaning ideal or overly formal meanings unless explicitly defined herein . In some cases, the terms defined herein can not be construed to exclude embodiments of the present disclosure.

이하에서, 첨부된 도면을 이용하여 본 발명의 다양한 실시 예들에 대하여 구체적으로 설명한다.In the following, various embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도 1a 및 도 1b는 사용자 단말 장치(100)의 디스플레이 구조의 일 예를 설명하기 위한 도면이다.FIGS. 1A and 1B are views for explaining an example of a display structure of the user terminal device 100. FIG.

도 1a의 좌측 도면은 사용자 단말 장치(100)의 전면을 나타내고, 도 1a의 우측 도면은 사용자 단말 장치(100)의 후면을 나타낸다. 사용자 단말 장치(100)의 전면에는 전면 디스플레이가 배치되고, 사용자 단말 장치(100)의 후면에는 후면 디스플레이 및 카메라가 배치된다. 전면 디스플레이 및 후면 디스플레이는 서로 연결되어 있을 수 있고, 후면 디스플레이는 전면 디스플레이보다 작을 수 있다. 다만, 이에 한정되는 것은 아니고, 전면 디스플레이 및 후면 디스플레이는 동일한 크기일 수도 있다. 또한, 카메라도 사용자 단말 장치(100)의 전면에 배치될 수도 있다. 이하에서는 전면 디스플레이를 메인 표시영역(10), 후면 디스플레이를 서브 표시영역(20)으로 설명한다.1A is a front view of the user terminal device 100, and a right side view of FIG. 1A shows a rear surface of the user terminal device 100. As shown in FIG. A front display is disposed on a front surface of the user terminal device 100, and a rear display and a camera are disposed on a rear surface of the user terminal device 100. The front display and the rear display may be connected together, and the rear display may be smaller than the front display. However, the present invention is not limited thereto, and the front display and the rear display may be the same size. The camera may also be disposed on the front side of the user terminal device 100. Hereinafter, the front display will be referred to as a main display area 10 and the rear display will be referred to as a sub display area 20. [

도 1b의 좌측 도면은 메인 표시영역(10), 서브 표시영역(20) 및 라운드 표시영역(30)이 연결된 전체 디스플레이의 전면도를 나타내고, 도 1b의 우측 도면은 전체 디스플레이의 후면도를 나타낸다.1B shows a front view of the entire display in which the main display area 10, the sub display area 20 and the round display area 30 are connected, and the right side view of FIG. 1B shows a rear view of the entire display.

서브 표시영역(20)은 메인 표시영역(10)의 일측으로부터 연장되어 사용자 단말 장치(100)의 후면의 적어도 일 영역에 배치될 수 있다. 특히, 서브 표시영역(20)은 메인 표시영역(10)의 상측으로부터 구부러지도록 연장될 수 있다. 구부러진 영역은 곡면 형상일 수도 있으나, 이에 한정되는 것은 아니며, 디스플레이의 종류에 따라 각을 이룰 수도 있다.The sub display area 20 may extend from one side of the main display area 10 and be disposed in at least one area of the rear surface of the user terminal device 100. In particular, the sub display area 20 may extend from the upper side of the main display area 10 to be bent. The curved region may be curved, but is not limited thereto, and may be angled depending on the type of display.

라운드 표시영역(30)은 메인 표시영역(10) 및 서브 표시영역(20)을 연결하는 영역이다. 상술한 바와 같이, 라운드 표시영역(30)은 곡면 형상일 수도 있고, 각진 형상일 수도 있다. 라운드 표시영역(30)은 경계 라인(30-1, 30-2)에 의해 메인 표시영역(10) 및 서브 표시영역(20)과 구분된다.The round display area 30 is an area connecting the main display area 10 and the sub display area 20. [ As described above, the round display area 30 may be curved or angled. The round display region 30 is separated from the main display region 10 and the sub display region 20 by the boundary lines 30-1 and 30-2.

도 1b에 도시된 경계 라인(30-1, 30-2)은 일 실시 예에 불과하고, 경계 라인(30-1, 30-2)은 얼마든지 변경될 수 있다. 또한, 경계 라인(30-1, 30-2)은 제조사에 의해 제조 시에 결정될 수도 있으나, 사용자에 의해 변경될 수도 있다. 경계 라인(30-1, 30-2)이 변경되면, 메인 표시영역(10), 서브 표시영역(20) 및 라운드 표시영역(30)의 영역 크기가 변경되고, 각 영역에 디스플레이되는 컨텐츠의 크기가 변경될 수 있다.The boundary lines 30-1 and 30-2 shown in Fig. 1B are merely one embodiment, and the boundary lines 30-1 and 30-2 can be changed as much as possible. Further, the boundary lines 30-1 and 30-2 may be determined by the manufacturer at the time of manufacture, but may be changed by the user. When the boundary lines 30-1 and 30-2 are changed, the area size of the main display area 10, the sub display area 20, and the round display area 30 is changed, and the size of the content displayed in each area Can be changed.

한편, 도 1a 및 도 1b는 사용자 단말 장치(100)의 상측을 감싸는 것으로 도시하였으나, 사용자 단말 장치(100)의 하측, 좌측면 및 우측면 중 어느 하나를 감싸는 구성도 가능하다. 또한, 하나의 측면이 아닌 복수의 측면을 감싸는 구성도 가능하다.Although FIGS. 1A and 1B illustrate the upper side of the user terminal 100, the lower side, the left side, and the right side of the user terminal 100 may be enclosed. Further, it is also possible to arrange a plurality of side surfaces instead of one side surface.

한편, 디스플레이는 터치패드를 감싸고, 디스플레이와 터치패드는 상호 레이어 구조를 이루어 터치 스크린 형태로 구현될 수 있다. 이 경우, 터치패드 역시 디스플레이와 유사하게 구부러지게 되어, 터치 입력이 사용자가 생각하는 것과는 반대로 입력될 수 있다. 예를 들어, 사용자는 메인 표시영역(10)의 한 지점으로부터 위쪽 지점으로 드래그하는 경우와 서브 표시영역(10)의 한 지점으로부터 위쪽 지점으로 드래그하는 경우에 터치 영역의 차이 외에는 동일한 방향으로 터치하는 것으로 판단할 수 있다. 그러나, 터치패드는 구부러져 있기 때문에 메인 표시영역(10)의 한 지점으로부터 위쪽 지점으로 드래그하는 경우와 서브 표시영역(10)의 한 지점으로부터 위쪽 지점으로 드래그하는 경우의 방향을 반대로 입력받게 된다. 따라서, 사용자 단말 장치(100)는 어느 한 영역의 터치 입력의 방향을 반대로 인식하도록 설정될 수 있다. 이에 대한, 구체적인 내용은 본 발명의 범위를 벗어나는 것으로 생략한다.Meanwhile, the display wraps the touch pad, and the display and the touch pad have a mutual layer structure, and can be implemented as a touch screen. In this case, the touch pad also bends similarly to the display, so that the touch input can be input as opposed to what the user thinks. For example, in the case of dragging from one point to the upper point of the main display area 10 and dragging from one point to the upper point of the sub display area 10, the user touches the same direction other than the difference of the touch areas . However, since the touch pad is bent, the direction of dragging from one point to the upper point of the main display area 10 and the case of dragging from one point to the upper point of the sub display area 10 are reversely input. Accordingly, the user terminal device 100 can be set to recognize the direction of the touch input of one area in the opposite direction. The details of the above are omitted for the sake of deviating from the scope of the present invention.

한편, 메인 표시영역(10), 서브 표시영역(20) 및 라운드 표시영역(30)이 연결되어 있음에 따라 각종 센서 및 리시버는 사용자 단말 장치(100)의 측면 또는 하부에 구비될 수 있고, 특히 지향성 리서버가 구비될 수도 있다. 또는, 사용자 단말 장치(100)와 연동 가능한 일체형 커버에 리시버가 구비될 수도 있다. 한편, 리시버가 하부에 구비되는 경우, 프로세서(130)는 전화 통화 시에 상하를 반전시켜 디스플레이할 수도 있다.Since the main display area 10, the sub display area 20 and the round display area 30 are connected to each other, various sensors and receivers can be provided on the side or bottom of the user terminal 100, A directional re-server may be provided. Alternatively, the receiver may be provided in an integral cover that can be interlocked with the user terminal device 100. [ On the other hand, when the receiver is provided at the lower portion, the processor 130 may display the telephone conversation by inverting up and down.

이하에서는 먼저, 서브 표시영역(20)이 메인 표시영역(10)으로부터 곡면 형상의 라운드 표시영역(30)을 거쳐 연장된 구조 및 사용자 단말 장치(100)의 후면에 카메라가 배치된 것으로 설명한다. 그리고, 추가적으로 다른 구조를 갖는 디스플레이 및 카메라의 위치가 변경된 경우에 대하여도 실시 예를 확장하여 설명한다.Hereinafter, the structure in which the sub display area 20 extends from the main display area 10 through the round display area 30 of the curved shape and the camera is arranged on the rear surface of the user terminal 100 will be described. In addition, an embodiment will be described in addition to the case where the display and the camera having different structures are changed in position.

그리고, 이하에서는 메인 표시영역(10) 및 서브 표시영역(20)으로부터 라운드 표시영역(30)을 향하는 방향을 사용자 단말 장치(100)의 위쪽, 그 반대쪽을 아래쪽으로 설명한다. 좌측 및 우측은 사용자가 바라보고 있는 표시영역을 기준으로 설명한다. 따라서, 사용자가 메인 표시영역(10)을 바라보는 경우와 서브 표시영역(20)을 바라보는 경우의 좌측 및 우측을 반대로 설명한다.The direction from the main display area 10 and the sub display area 20 toward the round display area 30 will be described above the user terminal device 100 and the opposite side downward. The left and right sides are described with reference to the display area that the user is looking at. Therefore, the left and right sides of the case where the user looks at the main display area 10 and the case where the user looks at the sub display area 20 will be reversed.

도 2a는 본 발명의 일 실시 예에 따른 사용자 단말 장치(100)의 구성을 나타내는 블럭도이다.FIG. 2A is a block diagram illustrating a configuration of a user terminal 100 according to an embodiment of the present invention.

도 2a에 따르면, 사용자 단말 장치(100)는 디스플레이(110), 카메라(120) 및 프로세서(130)를 포함한다.2A, a user terminal device 100 includes a display 110, a camera 120, and a processor 130. [

한편, 도 2a는 사용자 단말 장치(100)가 디스플레이 기능 및 제어 기능 등과 같이 다양한 기능을 구비한 장치인 경우를 예로 들어, 각종 구성 요소들을 종합적으로 도시한 것이다. 따라서, 실시 예에 따라서는, 도 2a에 도시된 구성 요소 중 일부는 생략 또는 변경될 수도 있고, 다른 구성 요소가 더 추가될 수도 있다.FIG. 2A is a view illustrating various components in a case where the user terminal 100 is a device having various functions such as a display function and a control function. Therefore, depending on the embodiment, some of the components shown in Fig. 2A may be omitted or changed, and other components may be further added.

디스플레이(110)는 사용자 단말 장치(100)의 전면에 배치되는 메인 표시영역(10), 메인 표시영역(10)의 일측으로부터 연장되어 사용자 단말 장치(100)의 후면의 적어도 일 영역에 배치되는 서브 표시영역(20) 및 메인 표시영역(10)과 서브 표시영역(20)을 연결하는 라운드 표시영역(30)으로 구성될 수 있다. 다만, 이에 한정되는 것은 아니며, 예를 들어, 서브 표시영역(20)은 사용자 단말 장치(100)의 후면을 전부 감싸도록 구성될 수도 있다.The display 110 includes a main display area 10 disposed on the front side of the user terminal device 100 and a sub display area 10 extending from one side of the main display area 10 and disposed in at least one area of the rear surface of the user terminal device 100. [ A display area 20 and a round display area 30 connecting the main display area 10 and the sub display area 20. [ However, the present invention is not limited thereto. For example, the sub display area 20 may be configured to cover the entire rear surface of the user terminal device 100.

여기서, 전면 및 후면은 설명의 편의를 위해 사용된 단어이고, 특별히 단어의 의미에 한정될 것은 아니다. 예를 들어, 특정 전자 장치에 대하여는 일 측면 및 타 측면일 수도 있다. 한편, 메인 표시영역(10)의 일측으로부터 연장되는 것으로 설명하였으나, 이에 한정되는 것은 아니다. 예를 들어, 메인 표시영역(10)의 모든 측면으로부터 연장되어 사용자 단말 장치(100) 전체를 디스플레이로 덮을 수도 있다.Here, the front and rear surfaces are words used for convenience of explanation, and are not particularly limited to the meaning of words. For example, it may be one side and the other side for a particular electronic device. On the other hand, it has been described that it extends from one side of the main display region 10, but it is not limited thereto. For example, it may extend from all sides of the main display area 10 and cover the entire user terminal device 100 with a display.

디스플레이(110)의 서브 표시영역(20)은 메인 표시영역(10)의 상측으로부터 구부러지도록 연장되어 후면의 상부 영역에 배치될 수 있다. 예를 들어, 메인 표시영역(10) 및 서브 표시영역(20)을 측면에서 바라보면 'U'자와 같이 연결 부분이 곡선을 형성할 수 있다. 다만, 이에 한정되는 것은 아니며, 메인 표시영역(10) 및 서브 표시영역(20)을 측면에서 바라보면 'ㄷ'자와 같이 연결 부분이 90°의 각도를 이룰 수도 있다. 또한, 사용자 단말 장치(100)의 형태에 기초하여 다양한 연결 부위가 형성될 수도 있다.The sub display area 20 of the display 110 may be arranged to extend from the upper side of the main display area 10 to be bent at the upper area of the rear side. For example, when the main display region 10 and the sub display region 20 are viewed from the side, a connecting portion can form a curve like a 'U' character. However, the present invention is not limited thereto, and when the main display region 10 and the sub display region 20 are viewed from the side, the connecting portion may have an angle of 90 degrees as shown by a "C" character. In addition, various connection parts may be formed based on the form of the user terminal device 100. [

디스플레이(110)는 프로세서(130)의 제어에 의해 다양한 UI를 디스플레이할 수 있다. 예를 들어, 디스플레이(110)는 라이브 뷰, 갤러리 어플리케이션, 애니메이션 등을 디스플레이할 수 있다.The display 110 may display various UIs under the control of the processor 130. For example, the display 110 may display live views, gallery applications, animations, and the like.

디스플레이(110)는 프로세서(130)의 제어에 의해 메인 표시영역(10), 서브 표시영역(20) 및 라운드 표시영역(30)에 각각 다른 컨텐츠를 디스플레이할 수 있다. 예를 들어, 디스플레이(110)는 메인 표시영역(10)에는 동영상을 디스플레이하고, 서브 표시영역(20)에는 이미지를 디스플레이하고, 라운드 표시영역(30)에는 메시지 전송을 위한 UI를 디스플레이할 수 있다.The display 110 can display different contents in the main display area 10, the sub display area 20 and the round display area 30 under the control of the processor 130. [ For example, the display 110 may display a moving picture in the main display area 10, display an image in the sub display area 20, and display a UI for message transmission in the round display area 30 .

또는, 디스플레이(110)는 메인 표시영역(10), 서브 표시영역(20) 및 라운드 표시영역(30) 중 적어도 두 영역을 연동시켜 컨텐츠를 디스플레이할 수도 있다. 예를 들어, 디스플레이(110)는 메인 표시영역(10)에는 동영상을 디스플레이하고, 서브 표시영역(20)에는 동영상을 제어하기 위한 UI를 디스플레이할 수도 있다. 그리고, 디스플레이(110)는 라운드 표시영역(30)에는 동영상과는 무관한 기능을 제공하기 위한 UI를 디스플레이할 수 있다.Alternatively, the display 110 may display at least two areas of the main display area 10, the sub display area 20, and the round display area 30 in association with each other. For example, the display 110 may display a moving picture in the main display area 10, and may display a UI in the sub display area 20 for controlling the moving picture. In addition, the display 110 may display a UI for providing a function irrelevant to moving images in the round display area 30.

또는, 디스플레이(110)는 메인 표시영역(10), 서브 표시영역(20) 및 라운드 표시영역(30) 중 적어도 두 영역에 동일한 컨텐츠를 디스플레이할 수도 있다. 예를 들어, 디스플레이(110)는 메인 표시영역(10) 및 서브 표시영역(20)에 동일한 컨텐츠를 디스플레이하고, 라운드 표시영역(30)에는 별개의 컨텐츠를 디스플레이할 수도 있다.Alternatively, the display 110 may display the same content in at least two areas of the main display area 10, the sub display area 20, and the round display area 30. For example, the display 110 may display the same contents in the main display area 10 and the sub display area 20, and may display different contents in the round display area 30. [

디스플레이(110)는 LCD(Liquid Crystal Display Panel), OLED(Organic Light Emitting Diodes) 디스플레이, PDP(Plasma Display Panel) 등으로 구현될 수 있으나, 이에 한정되는 것은 아니다. 또한, 디스플레이(110)는 경우에 따라 투명 디스플레이, 플렉서블 디스플레이 등으로 구현되는 것도 가능하다.The display 110 may be implemented as an LCD (Liquid Crystal Display Panel), an OLED (Organic Light Emitting Diodes) display, a PDP (Plasma Display Panel), or the like, but is not limited thereto. Also, the display 110 may be implemented as a transparent display, a flexible display, or the like as the case may be.

카메라(120)는 사용자의 제어에 따라 정지 영상 또는 동영상을 촬상하기 위한 구성이다. 카메라(120)는 특정 시점에서의 정지 영상을 촬영할 수 있으나, 연속적으로 정지 영상을 촬영할 수도 있다. 카메라(120)는 획득한 영상을 디스플레이(110)로 제공하며, 메인 표시영역(10) 및 서브 표시영역(20) 중 적어도 하나에 라이브 뷰가 디스플레이될 수 있다. 카메라(120)는 사용자 단말 장치(100)의 방향(orientation)에 따라 사용자를 촬영하거나 배경 영상을 촬영할 수 있다. 카메라(120)는 전면 카메라, 후면 카메라와 같이 복수 개로 구현될 수도 있다.The camera 120 is a configuration for capturing a still image or a moving image under the control of the user. The camera 120 can photograph a still image at a specific point in time, but can continuously photograph a still image. The camera 120 provides the acquired image to the display 110 and a live view can be displayed on at least one of the main display area 10 and the sub display area 20. [ The camera 120 may photograph a user or photograph a background image in accordance with the orientation of the user terminal device 100. The camera 120 may be implemented as a plurality of cameras such as a front camera and a rear camera.

카메라(120)는 렌즈, 셔터, 조리개, 고체 촬상 소자, AFE(Analog Front End), TG(Timing Generator)를 포함한다. 셔터는 피사체에 반사된 빛이 사용자 단말 장치(100)로 들어오는 시간을 조절하고, 조리개는 빛이 들어오는 개구부의 크기를 기계적으로 증가 또는 감소시켜 렌즈에 입사되는 광량을 조절한다. 고체 촬상 소자는 피사체에 반사된 빛이 광전하로 축적되면, 광전하에 의한 상을 전기 신호로 출력한다. TG는 고체 촬상 소자의 픽셀 데이터를 리드아웃 하기 위한 타이밍 신호를 출력하며, AFE는 고체 촬상 소자로부터 출력되는 전기 신호를 샘플링하여 디지털화한다.The camera 120 includes a lens, a shutter, a diaphragm, a solid-state image sensor, an analog front end (AFE), and a timing generator (TG). The shutter adjusts the amount of time the reflected light from the subject enters the user terminal device 100, and the aperture adjusts the amount of light incident on the lens by mechanically increasing or decreasing the size of the aperture through which the light enters. The solid-state image pickup device outputs an electric signal as an image due to the photoelectric charge when the light reflected from the object is accumulated in the photo-electric charge. The TG outputs a timing signal for reading out the pixel data of the solid-state image pickup device, and the AFE samples and digitizes the electric signal output from the solid-state image pickup device.

프로세서(130)는 사용자 단말 장치(100)의 동작을 전반적으로 제어할 수 있다.The processor 130 may control the operation of the user terminal 100 as a whole.

프로세서(130)는 카메라(120)를 통해 획득된 라이브 뷰를 메인 표시영역(10) 및 서브 표시영역(20) 중 하나에 디스플레이하고, 사용자 단말 장치(100)의 방향(orientation)이 변경되면 라이브 뷰를 메인 표시영역(10) 및 서브 표시영역(20) 중 다른 하나에 디스플레이하도록 디스플레이(110)를 제어할 수 있다. 프로세서(130)는 중력 센서, 가속도 센서 및 자이로 센서 등을 이용하여 사용자 단말 장치(100)의 방향이 변경되는 것을 판단할 수 있다. 또는, 프로세서(130)는 카메라(120)에 의해 획득된 라이브 뷰를 분석하여 사용자 단말 장치(100)의 방향이 변경되는 것을 판단할 수도 있다. 다만, 이에 한정되는 것은 아니며, 프로세서(130)는 사용자 단말 장치의 방향 뿐만 아니라 특정 방향으로의 이동, 흔들기 등을 통해 라이브 뷰가 디스플레이될 영역을 변경할 수도 있다.The processor 130 displays the live view acquired through the camera 120 in one of the main display area 10 and the sub display area 20 and displays the live view when the orientation of the user terminal device 100 is changed. The display 110 can be controlled to display the view on the other of the main display area 10 and the sub display area 20. [ The processor 130 may determine that the direction of the user terminal device 100 is changed using a gravity sensor, an acceleration sensor, a gyro sensor, or the like. Alternatively, the processor 130 may analyze the live view obtained by the camera 120 to determine that the direction of the user terminal device 100 is changed. However, the present invention is not limited to this, and the processor 130 may change the area in which the live view is displayed through movement, waving, etc. in the specific direction as well as the direction of the user terminal device.

프로세서(130)는 라이브 뷰를 디스플레이하며, 추가적으로 가이드 라인을 디스플레이할 수 있다. 또한, 프로세서(130)는 촬영을 위한 GUI 외에도 갤러리 앱을 실행시키기 위한 GUI, 영상 보정 앱을 실행시키기 위한 GUI 등을 디스플레이할 수 있다.The processor 130 displays the live view and can additionally display the guidelines. In addition to the GUI for photographing, the processor 130 may also display a GUI for executing a gallery app, a GUI for executing an image correction app, and the like.

프로세서(130)는 메인 표시영역(10)에는 라이브 뷰를 디스플레이하고 서브 표시영역(20)에는 정보를 제공하지 않으며, 사용자 단말 장치(100)의 방향이 변경되면 서브 표시영역(20)에는 라이브 뷰를 디스플레이하고, 메인 표시영역(10)에는 정보를 제공하지 않을 수 있다. 정보를 제공하지 않는 방법에는 디스플레이(110)에 전원을 공급하지 않는 방법, 디스플레이(110)를 블랙으로 디스플레이하는 방법 등 다양한 방법이 있을 수 있다.The processor 130 displays a live view in the main display area 10 and does not provide information in the sub display area 20. When the direction of the user terminal device 100 is changed, And may not provide information to the main display area 10. There are various methods such as a method of not supplying power to the display 110, a method of displaying the display 110 in black, and the like.

한편, 프로세서(130)는 서브 표시영역(20)에 라이브 뷰를 디스플레이하고 메인 표시영역(10)에 정보를 제공하지 않는 상태에서, 메인 표시영역(10)의 터치 기능을 활성화시켜둘 수 있다. 프로세서(130)는 메인 표시영역(10)에 사용자 터치가 감지되면, 사용자 터치에 응답하여 영상을 촬영하여 저장할 수 있다.The processor 130 may enable the touch function of the main display area 10 in a state in which the live view is displayed in the sub display area 20 and information is not provided in the main display area 10. [ When the user touches the main display area 10, the processor 130 may photograph and store the image in response to the user touch.

여기서, 프로세서(130)는 메인 표시영역(10) 내의 어느 한 지점으로부터 기설정된 방향으로의 스와이프 인터랙션이 감지되면, 기설정된 방향에 대응되도록 촬영 설정 값을 변경할 수 있다.Here, the processor 130 may change the shooting setting value to correspond to a predetermined direction when a sweeping interaction in a predetermined direction is sensed from any one point in the main display area 10.

한편, 프로세서(130)는 라이브 뷰를 메인 표시영역(10)에 디스플레이하며, 라이브 뷰에서 사람의 얼굴이 포함된 것으로 인식되면, 라이브 뷰에 포함된 얼굴 영역을 서브 표시영역(20)에 디스플레이하도록 디스플레이(110)를 제어할 수 있다.The processor 130 displays the live view on the main display area 10 and displays the face area included in the live view on the sub display area 20 when it is recognized that the face of the person is included in the live view The display 110 can be controlled.

여기서, 프로세서(130)는 서브 표시영역(20)의 크기에 대응되도록 라이브 뷰의 일 영역을 크롭(crop)하여 서브 표시영역(20)에 디스플레이하도록 디스플레이(110)를 제어할 수 있다.Here, the processor 130 may control the display 110 to crop one area of the live view so as to correspond to the size of the sub display area 20 and display the cropped image in the sub display area 20. [

또한, 프로세서(130)는 라이브 뷰를 메인 표시영역(10)에 디스플레이하며, 라이브 뷰에 사람이 포함된 것으로 인식되면 서브 표시영역(20)에 애니메이션을 디스플레이하도록 디스플레이(110)를 제어할 수 있다.The processor 130 may also display the live view in the main display area 10 and may control the display 110 to display animations in the sub display area 20 when the live view is perceived as containing human .

한편, 프로세서(130)는 피사체까지의 거리를 판단하고, 판단된 거리가 기설정된 거리보다 작으면 라이브 뷰를 서브 표시영역(20)에 디스플레이하고, 판단된 거리가 기설정된 거리보다 크면 라이브 뷰를 메인 표시영역(10)에 디스플레이하도록 디스플레이(110)를 제어할 수 있다.If the determined distance is smaller than the preset distance, the processor 130 displays the live view in the sub display area 20. If the determined distance is greater than the preset distance, the processor 130 displays the live view The display 110 can be controlled to display in the main display area 10.

한편, 사용자 단말 장치(100)는 복수의 센서를 더 포함하고, 프로세서(130)는 복수의 센서로부터 감지되는 사용자 단말 장치(100)의 위치, 움직임 및 사용자의 그립 중 적어도 하나에 기초하여 사용자 단말 장치(100)의 방향이 변경된 것으로 판단할 수 있다.The user terminal device 100 may further include a plurality of sensors and the processor 130 may control the position of the user terminal 100 based on at least one of the position, It can be determined that the direction of the apparatus 100 has been changed.

또는, 프로세서(130)는 라이브 뷰에서 기설정된 크기 이상의 사람의 얼굴이 인식되거나, 기설정된 크기 이상의 사람의 얼굴이 인식되는 상태에서 사람의 얼굴이 인식되지 않는 경우, 사용자 단말 장치(100)의 방향이 변경된 것으로 판단할 수 있다.Alternatively, when the face of a person of a predetermined size or larger is recognized in the live view or a face of a person of a predetermined size or more is recognized, the processor 130 determines the direction of the user terminal 100 Can be judged to have been changed.

도 2b는 사용자 단말 장치(100)의 세부 구성의 일 예를 나타내는 블럭도이다. 도 2b에 따르면, 사용자 단말 장치(100)는 디스플레이(110), 카메라(120), 프로세서(130), GPS 칩(135), 스토리지(140), 감지부(145), 통신부(150), 사용자 인터페이스부(155), 오디오 처리부(160), 비디오 처리부(170), 스피커(180), 버튼(181), 마이크(182)를 포함한다. 도 2b에 도시된 구성요소들 중 도 2a에 도시된 구성요소와 중복되는 부분에 대해서는 자세한 설명을 생략하도록 한다.2B is a block diagram showing an example of a detailed configuration of the user terminal device 100. As shown in FIG. 2B, the user terminal 100 includes a display 110, a camera 120, a processor 130, a GPS chip 135, a storage 140, a sensing unit 145, a communication unit 150, An interface unit 155, an audio processing unit 160, a video processing unit 170, a speaker 180, a button 181, and a microphone 182. Details of the components shown in FIG. 2B that overlap with those shown in FIG. 2A will not be described in detail.

디스플레이(110)는 상술한 바와 같이 메인 표시영역(10), 서브 표시영역(20) 및 라운드 표시영역(30)으로 구분될 수 있다. 디스플레이(110)는 LCD(Liquid Crystal Display), OLED(Organic Light Emitting Diodes) 디스플레이, PDP(Plasma Display Panel) 등과 같은 다양한 형태의 디스플레이로 구현될 수 있다. 디스플레이(110) 내에는 a-si TFT, LTPS(low temperature poly silicon) TFT, OTFT(organic TFT) 등과 같은 형태로 구현될 수 있는 구동 회로, 백라이트 유닛 등도 함께 포함될 수 있다. 한편, 디스플레이(110)는 감지부(145)에 포함된 터치 감지부와 결합하여 터치 스크린으로 구현될 수 있다.The display 110 may be divided into a main display area 10, a sub display area 20, and a round display area 30 as described above. The display 110 may be implemented as various types of displays such as a liquid crystal display (LCD), an organic light emitting diode (OLED) display, and a plasma display panel (PDP). The display 110 may include a driving circuit, a backlight unit, and the like, which may be implemented in the form of an a-si TFT, a low temperature poly silicon (LTPS) TFT, an OTFT (organic TFT) Meanwhile, the display 110 may be implemented as a touch screen by being combined with the touch sensing unit included in the sensing unit 145. [

이때, 터치 감지부는 터치 패널 및 펜 인식 패널 중 적어도 하나 이상을 포함할 수 있다. 터치 패널은 사용자의 손가락 제스처 입력을 감지하고, 감지된 터치 신호에 해당하는 터치 이벤트 값을 출력할 수 있다. 터치 패널은 디스플레이(110)의 메인 표시영역(10), 서브 표시영역(20) 및 라운드 표시영역(30) 중 적어도 하나의 영역 아래에 실장될 수 있다.At this time, the touch sensing unit may include at least one of a touch panel and a pen recognition panel. The touch panel senses a user's finger gesture input and outputs a touch event value corresponding to the sensed touch signal. The touch panel may be mounted under at least one area of the main display area 10, the sub display area 20 and the round display area 30 of the display 110. [

터치 패널이 사용자의 손가락 제스처 입력을 감지하는 방식에는 정전식 방식과 감압식 방식이 있을 수 있다. 정전식은 사용자의 인체로 야기되는 미세 전기를 감지하여 터치 좌표를 산출하는 방식이다. 감압식은 터치 패널에 내장된 두 개의 전극 판을 포함하여, 터치된 지점의 상하 판이 접촉되어 전류가 흐르게 되는 것을 감지하여 터치 좌표를 산출하는 방식이다.There are two ways in which the touch panel senses the user's finger gesture input: electrostatic and pressure sensitive. The electrostatic method is a method of calculating the touch coordinates by sensing the minute electricity generated by the user's body. The pressure reduction type includes two electrode plates built in the touch panel, and touch coordinates are calculated by detecting the current flowing through the upper and lower plates of the touch point.

펜 인식 패널은 사용자의 터치용 펜(예컨대, 스타일러스 펜(stylus pen), 디지타이저 펜(digitizer pen))의 운용에 따른 사용자의 펜 제스처 입력을 감지하고, 펜 근접 이벤트 값 또는 펜 터치 이벤트 값을 출력할 수 있다. 펜 인식 패널은 디스플레이(110)의 메인 표시영역(10), 서브 표시영역(20) 및 라운드 표시영역(30) 중 적어도 하나의 아래에 실장될 수 있다.The pen recognition panel senses the user's pen gesture input according to the operation of the user's touch pen (e.g., a stylus pen, a digitizer pen) and outputs a pen proximity event value or a pen touch event value can do. The pen recognition panel may be mounted under at least one of the main display area 10, the sub display area 20 and the round display area 30 of the display 110.

펜 인식 패널은, 예로, EMR 방식으로 구현될 수 있으며, 펜의 근접 또는 터치에 의한 전자기장의 세기 변화에 따라 터치 또는 근접 입력을 감지할 수 있다. 상세하게는 펜 인식 패널은 그리드 구조를 가지는 전자 유도 코일 센서(미도시)와 전자 유도 코일 센서의 각 루프 코일에 순차적으로 소정의 주파수를 가지는 교류 신호를 제공하는 전자 신호 처리부(미도시)를 포함하여 구성될 수 있다. 이러한 펜 인식 패널의 루프 코일 근방에 공진회로를 내장하는 펜이 존재하면, 해당 루프 코일로부터 송신되는 자계가 펜 내의 공진회로에 상호 전자 유도에 기초한 전류를 발생시킨다. 이 전류를 기초로 하여, 펜 내의 공진 회로를 구성하는 코일로부터 유도 자계가 발생하게 되고, 펜 인식 패널은 이 유도 자계를 신호 수신 상태에 있는 루프 코일에서 검출하게 되어 펜의 접근 위치 또는 터치 위치가 감지될 수 있다.The pen recognition panel can be implemented, for example, by the EMR method, and can detect the touch or proximity input according to the proximity of the pen or the change in intensity of the electromagnetic field due to the touch. More specifically, the pen recognition panel includes an electromagnetic induction coil sensor (not shown) having a grid structure and an electronic signal processor (not shown) for sequentially providing an AC signal having a predetermined frequency to each loop coil of the electromagnetic induction coil sensor . When a pen incorporating a resonant circuit exists in the vicinity of the loop coil of the pen recognition panel, the magnetic field transmitted from the loop coil generates a current based on mutual electromagnetic induction in the resonant circuit in the pen. Based on this current, an induction magnetic field is generated from the coils constituting the resonance circuit in the pen. The pen recognition panel detects the induction magnetic field in the loop coil in the signal receiving state, so that the approach position or the touch position Can be detected.

펜 인식 패널은 디스플레이 영역 별로 다르게 구성될 수 있다. 예를 들어, 메인 표시영역(10)에는 터치 패널 및 펜 인식 패널이 모두 구비되고, 서브 표시영역(20) 및 라운드 표시영역(30)에는 터치 패널만이 구비될 수도 있다.The pen recognition panel can be configured differently for each display area. For example, both the touch panel and the pen recognition panel may be provided in the main display area 10, and only the touch panel may be provided in the sub display area 20 and the round display area 30.

프로세서(130)는 특정 패널의 전원을 차단하여 특정 패널을 비활성화시킬 수 있다. 또는, 프로세서(130)는 터치 패널 및 펜 인식 패널에 전원을 공급하며 터치 또는 펜 입력을 수신하나, 소프트웨어적으로 특정 패널에 대한 입력을 무시하여 특정 패널을 비활성화시킬 수도 있다.Processor 130 may de-energize a particular panel by de-energizing the particular panel. Alternatively, the processor 130 may provide power to the touch panel and the pen recognition panel and receive a touch or pen input, but may also inactivate a particular panel by ignoring input to the particular panel in software.

이 경우, 메인 표시영역(10)에 대응되는 터치 패널 및 펜 인식 패널의 활성화 여부에 따라, 손 터치 및 펜 터치 중 적어도 하나를 입력받을 수도 있다. 예를 들어, 터치 패널만을 활성화시켜 펜 터치 입력은 받지 않고 손 터치 입력만을 받거나 펜 인식 패널만을 활성화시켜 손 터치 입력은 받지 않고 펜 터치 입력만을 받을 수도 있다.In this case, at least one of the hand touch and the pen touch may be input depending on whether the touch panel corresponding to the main display area 10 and the pen recognition panel are activated or not. For example, by activating only the touch panel, only the hand touch input can be received without receiving the pen touch input, or only the pen recognition panel can be received, and only the pen touch input can be received without receiving the hand touch input.

또는, 터치 패널 및 펜 인식 패널이 전체 디스플레이 영역에 구비되고, 일부 영역의 펜 인식 패널을 비활성화시킬 수도 있다. 예를 들어, 프로세서(130)는 서브 표시영역(20) 및 라운드 표시영역(30)에 대응되는 펜 인식 패널만을 비활성화시킬 수도 있다.Alternatively, the touch panel and the pen recognition panel may be provided in the entire display area, and the pen recognition panel in some areas may be inactivated. For example, the processor 130 may deactivate only the pen recognition panel corresponding to the sub display area 20 and the round display area 30.

한편, 터치 패널 및 펜 인식 패널이 하나의 패널로 구현될 수도 있다. 이 경우, 프로세서(130)는 디스플레이 영역 전체를 통해 터치 입력 및 펜 입력을 감지할 수 있다.Meanwhile, the touch panel and the pen recognition panel may be implemented as one panel. In this case, the processor 130 may sense the touch input and the pen input through the entire display area.

프로세서(130)는 터치 패널 및 펜 인식 패널이 하나의 패널로 구현된 경우, 입력 종류 및 입력 영역 중 적어도 하나에 기초하여 입력에 대응되는 동작을 수행할 수 있다. 예를 들어, 프로세서(130)는 소프트웨어적으로 펜 입력과 같은 특정 입력을 무시할 수 있다. 또는, 프로세서(130)는 소프트웨어적으로 서브 표시영역(20)에 대한 펜 입력을 무시할 수 있다.The processor 130 may perform an operation corresponding to the input based on at least one of an input type and an input area when the touch panel and the pen recognition panel are implemented as one panel. For example, processor 130 may ignore certain inputs, such as pen input, in software. Alternatively, the processor 130 may ignore the pen input to the sub display area 20 by software.

프로세서(130)는 스토리지(140)에 저장된 각종 프로그램을 이용하여 사용자 단말 장치(100)의 동작을 전반적으로 제어한다. The processor 130 controls the operation of the user terminal 100 in general by using various programs stored in the storage 140.

구체적으로, 프로세서(130)는 RAM(131), ROM(132), 메인 CPU(133), 그래픽 처리부(134), 제1 내지 n 인터페이스(135-1 ~ 135-n), 버스(136)를 포함한다.Specifically, the processor 130 includes a RAM 131, a ROM 132, a main CPU 133, a graphics processing unit 134, first through n interfaces 135-1 through 135-n, .

RAM(131), ROM(132), 메인 CPU(133), 그래픽 처리부(134), 제1 내지 n 인터페이스(135-1 ~ 135-n) 등은 버스(136)를 통해 서로 연결될 수 있다. The RAM 131, the ROM 132, the main CPU 133, the graphics processing unit 134, the first to n interfaces 135-1 to 135-n, etc. may be connected to each other via the bus 136. [

제1 내지 n 인터페이스(135-1 내지 135-n)는 상술한 각종 구성요소들과 연결된다. 인터페이스들 중 하나는 네트워크를 통해 외부 장치와 연결되는 네트워크 인터페이스가 될 수도 있다.The first to n-th interfaces 135-1 to 135-n are connected to the various components described above. One of the interfaces may be a network interface connected to an external device via a network.

메인 CPU(133)는 스토리지(140)에 액세스하여, 스토리지(140)에 저장된 O/S를 이용하여 부팅을 수행한다. 그리고, 스토리지(140)에 저장된 각종 프로그램 등을 이용하여 다양한 동작을 수행한다.The main CPU 133 accesses the storage 140 and performs booting using the O / S stored in the storage 140. [ Then, various operations are performed using various programs stored in the storage 140. [

ROM(132)에는 시스템 부팅을 위한 명령어 세트 등이 저장된다. 턴온 명령이 입력되어 전원이 공급되면, 메인 CPU(133)는 ROM(132)에 저장된 명령어에 따라 스토리지(140)에 저장된 O/S를 RAM(131)에 복사하고, O/S를 실행시켜 시스템을 부팅시킨다. 부팅이 완료되면, 메인 CPU(133)는 스토리지(140)에 저장된 각종 애플리케이션 프로그램을 RAM(131)에 복사하고, RAM(131)에 복사된 애플리케이션 프로그램을 실행시켜 각종 동작을 수행한다.The ROM 132 stores a command set for booting the system and the like. The main CPU 133 copies the O / S stored in the storage 140 to the RAM 131 according to the instruction stored in the ROM 132, executes the O / S, . When the booting is completed, the main CPU 133 copies various application programs stored in the storage 140 to the RAM 131, executes the application program copied to the RAM 131, and performs various operations.

그래픽 처리부(134)는 연산부(미도시) 및 렌더링부(미도시)를 이용하여 아이콘, 이미지, 텍스트 등과 같은 다양한 객체를 포함하는 화면을 생성한다. 연산부(미도시)는 수신된 제어 명령에 기초하여 화면의 레이아웃에 따라 각 객체들이 표시될 좌표값, 형태, 크기, 컬러 등과 같은 속성값을 연산한다. 렌더링부(미도시)는 연산부(미도시)에서 연산한 속성값에 기초하여 객체를 포함하는 다양한 레이아웃의 화면을 생성한다. 렌더링부(미도시)에서 생성된 화면은 디스플레이(110)의 디스플레이 영역 내에 표시된다.The graphic processing unit 134 generates a screen including various objects such as an icon, an image, and a text using an operation unit (not shown) and a rendering unit (not shown). The operation unit (not shown) calculates an attribute value such as a coordinate value, a shape, a size, and a color to be displayed by each object according to the layout of the screen based on the received control command. The rendering unit (not shown) creates screens of various layouts including the objects based on the attribute values calculated by the operation unit (not shown). The screen generated in the rendering unit (not shown) is displayed in the display area of the display 110.

한편, 상술한 프로세서(130)의 동작은 스토리지(140)에 저장된 프로그램에 의해 이루어질 수 있다.Meanwhile, the operation of the processor 130 described above may be performed by a program stored in the storage 140. [

스토리지(140)는 사용자 단말 장치(100)를 구동시키기 위한 O/S(Operating System) 소프트웨어 모듈, 촬영 모듈 및 애플리케이션 모듈 등과 같이 다양한 데이터를 저장한다.The storage 140 stores various data such as an operating system (O / S) software module for driving the user terminal device 100, a photographing module, and an application module.

이 경우 프로세서(130)는 스토리지(140)에 저장된 정보에 기초하여 입력된 영상을 처리하여 디스플레이할 수 있다.In this case, the processor 130 may process and display the input image on the basis of the information stored in the storage 140.

GPS 칩(145)은 GPS(Grobal Positioning System) 위성으로부터 GPS 신호를 수신하여, 사용자 단말 장치(100)의 현재 위치를 산출하기 위한 구성요소이다. 프로세서(130)는 네비게이션 프로그램을 이용할 때나 그 밖에 사용자의 현재 위치가 필요할 경우에, GPS 칩(145)을 이용하여 사용자 위치를 산출할 수 있다.The GPS chip 145 is a component for receiving the GPS signal from a GPS (Global Positioning System) satellite and calculating the current position of the user terminal device 100. The processor 130 may calculate the user location using the GPS chip 145 when using the navigation program or otherwise requiring the user's current location.

통신부(150)는 다양한 유형의 통신방식에 따라 다양한 유형의 외부 장치와 통신을 수행하는 구성이다. 통신부(150)는 와이파이 칩(151), 블루투스 칩(152), 무선 통신 칩(153), NFC 칩(154) 등을 포함한다. 프로세서(130)는 통신부(150)를 이용하여 각종 외부 장치와 통신을 수행한다.The communication unit 150 is configured to perform communication with various types of external devices according to various types of communication methods. The communication unit 150 includes a Wi-Fi chip 151, a Bluetooth chip 152, a wireless communication chip 153, an NFC chip 154, and the like. The processor 130 communicates with various external devices using the communication unit 150. [

와이파이 칩(151), 블루투스 칩(152)은 각각 WiFi 방식, 블루투스 방식으로 통신을 수행한다. 와이파이 칩(151)이나 블루투스 칩(152)을 이용하는 경우에는 SSID 및 세션 키 등과 같은 각종 연결 정보를 먼저 송수신하여, 이를 이용하여 통신 연결한 후 각종 정보들을 송수신할 수 있다. 무선 통신 칩(153)은IEEE, 지그비(zigbee), 3G(3rd Generation), 3GPP(3rd Generation Partnership Project), LTE(Long Term Evoloution) 등과 같은 다양한 통신 규격에 따라 통신을 수행하는 칩을 의미한다. NFC 칩(154)은 135kHz, 13.56MHz, 433MHz, 860~960MHz, 2.45GHz 등과 같은 다양한 RF-ID 주파수 대역들 중에서 13.56MHz 대역을 사용하는 NFC(Near Field Communication) 방식으로 동작하는 칩을 의미한다.The Wi-Fi chip 151 and the Bluetooth chip 152 perform communication using the WiFi method and the Bluetooth method, respectively. When the WiFi chip 151 or the Bluetooth chip 152 is used, various connection information such as an SSID and a session key may be transmitted and received first, and communication information may be used to transmit and receive various information. The wireless communication chip 153 refers to a chip that performs communication according to various communication standards such as IEEE, Zigbee, 3G (3rd Generation), 3rd Generation Partnership Project (3GPP), LTE (Long Term Evolution) The NFC chip 154 means a chip operating in the NFC (Near Field Communication) mode using the 13.56 MHz band among various RF-ID frequency bands such as 135 kHz, 13.56 MHz, 433 MHz, 860 to 960 MHz and 2.45 GHz.

한편, 통신부(150)는 전자 장치와 단방향 통신 또는 양방향 통신을 수행할 수 있다. 단방향 통신을 수행하는 경우, 통신부(150)는 전자 장치로부터 신호를 수신할 수 있다. 양방향 통신을 수행하는 경우, 통신부(150)는 전자 장치로부터 신호를 수신할 수도 있고, 전자 장치로 신호를 송신할 수도 있다.Meanwhile, the communication unit 150 can perform unidirectional communication or bidirectional communication with the electronic device. When performing unidirectional communication, the communication unit 150 can receive a signal from the electronic device. When performing bidirectional communication, the communication unit 150 may receive a signal from the electronic device or transmit the signal to the electronic device.

사용자 인터페이스부(155)는 다양한 사용자 인터랙션(interaction)을 수신한다. 사용자 단말 장치(100)가 터치 기반의 휴대 단말로 구현되는 경우 사용자 인터페이스부(155)는 터치패드와 상호 레이어 구조를 이루는 터치 스크린 형태로 구현될 수도 있다. 이 경우, 사용자 인터페이스부(155)는 상술한 디스플레이(110)로 사용될 수 있게 된다.The user interface unit 155 receives various user interactions. When the user terminal device 100 is implemented as a touch-based portable terminal, the user interface unit 155 may be implemented as a touch screen having a mutual layer structure with the touch pad. In this case, the user interface unit 155 can be used as the display 110 described above.

감지부(미도시)는 터치 센서, 지자기 센서, 자이로 센서, 가속도 센서, 근접 센서, 그립 센서 등을 포함한다. 감지부는 상술한 터치 이외에, 회전, 기울기, 압력, 접근, 그립 등과 같은 다양한 조작을 감지할 수 있다.The sensing unit (not shown) includes a touch sensor, a geomagnetic sensor, a gyro sensor, an acceleration sensor, a proximity sensor, a grip sensor, and the like. In addition to the touch described above, the sensing unit can sense various operations such as rotation, tilt, pressure, approach, grip, and the like.

터치 센서는 정전식 또는 감압식으로 구현될 수 있다. 정전식 터치 센서는 디스플레이 표면에 코팅된 유전체를 이용하여, 사용자의 신체 일부가 디스플레이 표면에 터치되었을 때 사용자의 인체로 여기되는 미세 전기를 감지하여 터치 좌표를 산출하는 방식의 센서를 의미한다. 감압식 터치 센서는 사용자 단말 장치(100)에 내장된 두 개의 전극 판을 포함하여, 사용자가 터치하였을 경우, 터치된 지점의 상하 판이 접촉되어 전류가 흐르게 되는 것을 감지하여 터치 좌표를 산출하는 방식의 터치 센서를 의미한다. 그 밖에 적외선 감지 방식, 표면 초음파 전도 방식, 적분식 장력측정 방식, 피에조 효과 방식 등이 터치 인터랙션을 감지하는데 이용될 수 있다.The touch sensor can be implemented as an electrostatic or a pressure sensitive type. The electrostatic touch sensor refers to a sensor that uses a dielectric coated on a surface of a display to calculate touch coordinates by sensing minute electricity that is excited by the user's body when a part of the user's body is touched on the display surface. The pressure-sensitive type touch sensor includes two electrode plates built in the user terminal device 100, and when the user touches the upper and lower plates of the touched point, touches a touch Sensor. In addition, infrared sensing, surface ultrasonic conduction, integral tension measurement, and piezo effects can be used to detect touch interactions.

그 밖에 사용자 단말 장치(100)는 터치 센서 대신 마그네틱과 자기장 센서, 광센서 또는 근접 센서 등을 이용하여 손가락 또는 스타일러스 펜과 같은 터치 오브젝트의 접촉 또는 근접하게 되었는지 여부를 판단할 수도 있다. In addition, the user terminal device 100 may judge whether or not a touch object such as a finger or a stylus pen is brought into contact with or close to each other by using a magnetic and magnetic field sensor, an optical sensor, or a proximity sensor instead of the touch sensor.

지자기 센서는 사용자 단말 장치(100)의 회전 상태 및 이동 방향 등을 감지하기 위한 센서이다. 자이로 센서는 사용자 단말 장치(100)의 회전각을 감지하기 위한 센서이다. 지자기 센서 및 자이로 센서는 둘 다 구비될 수도 있으나, 이 중 하나만 구비되어 있더라도 사용자 단말 장치(100)는 회전 상태를 감지할 수 있다. The geomagnetic sensor is a sensor for detecting the rotation state and the moving direction of the user terminal device 100. The gyro sensor is a sensor for sensing the rotation angle of the user terminal device 100. Both the geomagnetic sensor and the gyro sensor may be provided, but even if only one of them is provided, the user terminal device 100 can detect the rotation state.

가속도 센서는 사용자 단말 장치(100)의 기울어진 정도를 감지하기 위한 센서이다. The acceleration sensor is a sensor for detecting the degree of tilting of the user terminal device 100.

근접 센서는 디스플레이 표면에 직접 접촉되지 않고 접근하는 모션을 감지하기 위한 센서이다. 근접 센서는 고주파 자계를 형성하여, 물체 접근 시에 변화되는 자계특성에 의해 유도되는 전류를 감지하는 고주파 발진 형, 자석을 이용하는 자기 형, 대상체의 접근으로 인해 변화되는 정전 용량을 감지하는 정전 용량 형과 같은 다양한 형태의 센서로 구현될 수 있다.The proximity sensor is a sensor for sensing the approaching motion without touching the display surface directly. The proximity sensor is a high-frequency oscillation type that forms a high-frequency magnetic field and senses a current induced by a magnetic field characteristic that changes when approaching an object, a magnetic type using a magnet, a capacitive type And the like.

그립 센서는 터치 스크린 상에 구비된 터치 센서와는 별개로, 후면, 테두리, 손잡이 부분에서 배치되어, 사용자의 그립(grip)을 감지하는 센서이다. 그립 센서는 터치 센서 외에 압력 센서로 구현될 수 있다.The grip sensor is disposed at the rear surface, the rim, and the grip portion separately from the touch sensor provided on the touch screen, and is a sensor that detects a user's grip. The grip sensor may be implemented as a pressure sensor in addition to the touch sensor.

오디오 처리부(160)는 오디오 데이터에 대한 처리를 수행하는 구성요소이다. 오디오 처리부(160)에서는 오디오 데이터에 대한 디코딩이나 증폭, 노이즈 필터링 등과 같은 다양한 처리가 수행될 수 있다.The audio processing unit 160 is a component that performs processing on audio data. In the audio processing unit 160, various processes such as decoding and amplification of audio data, noise filtering, and the like may be performed.

비디오 처리부(170)는 비디오 데이터에 대한 처리를 수행하는 구성요소이다. 비디오 처리부(170)에서는 비디오 데이터에 대한 디코딩, 스케일링, 노이즈 필터링, 프레임 레이트 변환, 해상도 변환 등과 같은 다양한 이미지 처리를 수행할 수 있다. The video processing unit 170 is a component that performs processing on video data. The video processing unit 170 may perform various image processing such as decoding, scaling, noise filtering, frame rate conversion, resolution conversion, and the like on the video data.

스피커(180)는 오디오 처리부(160)에서 처리된 각종 오디오 데이터 뿐만 아니라 각종 알림 음이나 음성 메시지 등을 출력하는 구성요소이다.The speaker 180 is a component for outputting various kinds of audio data processed by the audio processing unit 160, as well as various kinds of notification sounds and voice messages.

버튼(181)은 사용자 단말 장치(100)의 본체 외관의 전면부나 측면부, 배면부 등의 임의의 영역에 형성된 기계적 버튼, 터치 패드, 휠 등과 같은 다양한 유형의 버튼이 될 수 있다.The button 181 may be various types of buttons such as a mechanical button, a touch pad, a wheel, and the like formed in an arbitrary area such as a front surface portion, a side surface portion, and a back surface portion of the outer surface of the main body of the user terminal device 100.

마이크(182)는 사용자 음성이나 기타 소리를 입력받아 오디오 데이터로 변환하기 위한 구성이다.The microphone 182 is a configuration for receiving a user voice or other sound and converting it into audio data.

그 밖에, 도 2b에 도시하지는 않았으나, 실시 예에 따라서는, 사용자 단말 장치(100) 내에 USB 커넥터가 연결될 수 있는 USB 포트나, 헤드셋, 마우스, LAN 등과 같은 다양한 외부 단자와 연결하기 위한 다양한 외부 입력 포트, DMB(Digital Multimedia Broadcasting) 신호를 수신하여 처리하는 DMB 칩, 다양한 센서 등을 더 포함할 수 있음은 물론이다.2B, depending on the embodiment, the user terminal 100 may include a USB port to which a USB connector can be connected, various external inputs for connecting to various external terminals such as a headset, a mouse, and a LAN Port, a DMB chip for receiving and processing a DMB (Digital Multimedia Broadcasting) signal, various sensors, and the like.

도 2c는 스토리지(140)에 저장된 다양한 모듈을 설명하기 위한 도면이다.FIG. 2C is a diagram for explaining various modules stored in the storage 140. FIG.

도 2c의 소프트웨어는 스토리지(140)에 저장될 수도 있으나 반드시 이에 한정되는 것은 아니며 사용자 단말 장치(100) 내에 사용되는 다양한 유형의 저장 수단에 저장될 수도 있다. 도 2c에 따르면, 사용자 단말 장치(100)에는 OS(191), 커널(192), 미들웨어(193), 어플리케이션(194) 등을 포함하는 소프트웨어가 저장될 수 있다.The software of FIG. 2C may be stored in the storage 140 but is not limited thereto and may be stored in various types of storage means used in the user terminal device 100. 2C, software including an OS 191, a kernel 192, a middleware 193, an application 194, and the like may be stored in the user terminal device 100.

운영체제(Operating System: OS, 191)는 하드웨어의 전반적인 동작을 제어하고 관리하는 기능을 수행한다. 즉, OS(191)는 하드웨어 관리와 메모리, 보안 등의 기본적인 기능을 담당하는 계층이다.An operating system (OS) 191 controls and manages the overall operation of the hardware. That is, the OS 191 is a layer responsible for basic functions such as hardware management, memory, and security.

커널(192)은 디스플레이(110)에서 감지되는 터치 신호 등을 비롯한 각종 신호들을 미들웨어(193)로 전달하는 통로 역할을 한다.The kernel 192 serves as a channel for transmitting various signals including the touch signal and the like sensed by the display 110 to the middleware 193.

미들웨어(193)는 사용자 단말 장치(100)의 동작을 제어하는 각종 소프트웨어 모듈을 포함한다. 도 2c에 따르면, 미들웨어(193)는 메인 UI 프레임워크(193-1), 윈도우 매니저(193-2), 서브 UI 프레임워크(193-3), 보안 모듈(193-4), 시스템 매니저(193-5), 연결 매니저(193-6), X11 모듈(193-7), APP 매니저(193-8), 멀티미디어 프레임워크(193-9)를 포함한다.The middleware 193 includes various software modules for controlling the operation of the user terminal device 100. 2C, the middleware 193 includes a main UI framework 193-1, a window manager 193-2, a sub UI framework 193-3, a security module 193-4, a system manager 193-3, -5, a connection manager 193-6, an X11 module 193-7, an APP manager 193-8, and a multimedia framework 193-9.

메인 UI 프레임워크(193-1)는 디스플레이(110)의 메인 표시영역(10)에 표시할 각종 UI를 제공하기 위한 모듈이고, 서브 UI 프레임워크(193-3)는 서브 표시영역(20)에 표시할 각종 UI를 제공하기 위한 모듈이다. 메인 UI 프레임워크(193-1) 및 서브 UI 프레임워크(193-3)는 각종 오브젝트를 구성하는 이미지 합성기(Image Compositor module), 오브젝트가 표시될 좌표를 산출하는 좌표 합성기, 구성된 오브젝트를 산출된 좌표에 렌더링하는 렌더링 모듈, 2D 또는 3D 형태의 UI를 구성하기 위한 툴(tool)을 제공하는 2D/3D UI 툴킷 등을 포함할 수 있다.The main UI framework 193-1 is a module for providing various UIs to be displayed in the main display area 10 of the display 110. The sub UI framework 193-3 is a module for providing various UIs to be displayed in the sub display area 20 It is a module for providing various UIs to be displayed. The main UI framework 193-1 and the sub UI framework 193-3 include an image composer module constituting various objects, a coordinate synthesizer for calculating coordinates to be displayed on the object, A 2D / 3D UI toolkit that provides a tool for constructing a UI in 2D or 3D form, and the like.

윈도우 매니저(193-2)는 사용자의 신체나 펜을 이용한 터치 이벤트나 기타 입력 이벤트를 감지할 수 있다. 윈도우 매니저(193-2)는 이러한 이벤트가 감지되면 메인 UI 프레임워크(193-1) 또는 서브 UI 프레임워크(193-3)로 이벤트 신호를 전달하여, 이벤트에 대응되는 동작을 수행하도록 한다.The window manager 193-2 can detect touch events or other input events using the user's body or pen. When this event is detected, the window manager 193-2 transmits an event signal to the main UI framework 193-1 or the sub UI framework 193-3 to perform an operation corresponding to the event.

그 밖에도, 사용자가 화면을 터치 및 드래그하는 경우, 드래그 궤적에 따라 라인을 드로잉하기 위한 필기 모듈이나, 감지부에서 감지된 센서 값에 기초하여 피치각, 롤각, 요우각 등을 산출하기 위한 각도 산출 모듈 등과 같은 다양한 프로그램 모듈이 저장될 수도 있다.In addition, when a user touches and drags a screen, a writing module for drawing a line according to a drag trajectory or an angle calculation for calculating a pitch angle, a roll angle, and a yaw angle based on the sensor value sensed by the sensing portion Modules and the like may be stored.

보안 모듈(193-4)은 하드웨어에 대한 인증(Certification), 요청 허용(Permission), 보안 저장(Secure Storage) 등을 지원하는 모듈이다.The security module 193-4 is a module that supports hardware certification, permission permission, and secure storage.

시스템 매니저(193-5)는 사용자 단말 장치(100) 내의 각 구성요소들의 상태를 모니터링하고, 그 모니터링 결과를 타 모듈들에게 제공한다. 가령, 배터리 잔량이 부족하거나, 에러가 발생하는 경우, 통신 연결 상태가 끊어지는 경우 등이 발생하면 시스템 매니저(193-5)는 그 모니터링 결과를 메인 UI 프레임워크(193-1) 또는 서브 UI 프레임워크(193-3)로 제공하여 알림 메시지나 알림 음을 출력할 수 있다.The system manager 193-5 monitors the status of each component in the user terminal device 100 and provides the monitoring result to other modules. For example, when a remaining battery level is low, an error occurs, a communication connection state is lost, or the like, the system manager 193-5 transmits the monitoring result to the main UI framework 193-1 or the sub UI frame Work 193-3 to output a notification message or a notification sound.

연결 매니저(193-6)는 유선 또는 무선 네트워크 연결을 지원하기 위한 모듈이다. 연결 매니저(193-6)는 DNET 모듈, UPnP 모듈 등과 같은 다양한 세부 모듈들을 포함할 수 있다.The connection manager 193-6 is a module for supporting a wired or wireless network connection. The connection manager 193-6 may include various detailed modules such as a DNET module, a UPnP module, and the like.

X11 모듈(193-7)은 사용자 단말 장치(100)에 구비된 각종 하드웨어들로부터 각종 이벤트 신호를 수신하는 모듈이다. 여기서 이벤트란, 사용자 조작이 감지되는 이벤트, 시스템 알람이 발생하는 이벤트, 특정 프로그램이 실행 또는 종료되는 이벤트 등과 같이 다양하게 설정될 수 있다.The X11 module 193-7 is a module for receiving various event signals from various hardware provided in the user terminal device 100. [ Here, the event can be variously set, such as an event in which a user operation is detected, an event in which a system alarm occurs, an event in which a specific program is executed or terminated, and the like.

APP 매니저(193-8)는 스토리지(140)에 설치(install)된 각종 어플리케이션의 실행 상태를 관리하는 모듈이다. APP 매니저(193-8)는 X11 모듈(193-7)로부터 어플리케이션 실행 명령이 입력된 이벤트가 감지되면, 해당 이벤트에 대응되는 어플리케이션을 호출하여 실행시킨다. 즉, APP 매니저(193-8)는 적어도 하나의 오브젝트가 선택된 이벤트가 감지되면, 그 오브젝트에 대응되는 어플리케이션을 호출하여 실행시키는 동작을 수행한다.The APP manager 193-8 is a module for managing execution states of various applications installed in the storage 140. [ When the event that the application execution command is input from the X11 module 193-7 is detected, the APP manager 193-8 calls and executes the application corresponding to the event. That is, when at least one object selected event is detected, the APP manager 193-8 performs an operation to call and execute the application corresponding to the object.

멀티미디어 프레임워크(193-9)는 사용자 단말 장치(100)에 저장되어 있거나, 외부 소스로부터 제공되는 멀티미디어 컨텐츠를 재생하기 위한 모듈이다. 멀티미디어 프레임워크(193-9)는 플레이어 모듈, 캠코더 모듈, 사운드 처리 모듈 등을 포함할 수 있다. 이에 따라, 각종 멀티미디어 컨텐츠를 재생하여 화면 및 음향을 생성하여 재생하는 동작을 수행할 수 있다.The multimedia framework 193-9 is a module for reproducing the multimedia contents stored in the user terminal device 100 or provided from an external source. The multimedia framework 193-9 may include a player module, a camcorder module, a sound processing module, and the like. Accordingly, various multimedia contents can be reproduced to generate and reproduce a screen and sound.

도 2c에 표시된 소프트웨어 구조는 일 예에 불과하므로, 반드시 이에 한정되어야 하는 것은 아니다. 따라서, 필요에 따라 일부가 생략 또는 변형되거나, 추가될 수도 있음은 물론이다. 가령, 스토리지(140)에는 각종 센서들에서 센싱된 신호들을 분석하기 위한 센싱 모듈이나, 메신저 프로그램, SMS(Short Message Service) & MMS(Multimedia Message Service) 프로그램, 이메일 프로그램 등과 같은 메시징 모듈, 전화 정보 수집기(Call Info Aggregator) 프로그램 모듈, VoIP 모듈, 웹 브라우저 모듈 등과 같이 다양한 프로그램들이 추가로 마련될 수도 있다.The software structure shown in FIG. 2C is merely an example, and is not necessarily limited to this. Therefore, it goes without saying that parts may be omitted, modified, or added as necessary. For example, the storage 140 may include a sensing module for analyzing signals sensed by various sensors, a messaging module such as a messenger program, a Short Message Service (SMS) & Multimedia Message Service (MMS) program, an email program, (Call Info Aggregator) program module, a VoIP module, a web browser module, and the like.

한편, 상술한 바와 같이 사용자 단말 장치(100)는 휴대폰, 태블릿 PC, 랩탑 PC, PDA, MP3 플레이어, 전자 액자 장치, TV, PC, 키오스크 등과 같은 다양한 유형의 장치로 구현될 수 있다. 따라서, 도 2b 및 도 2c에서 설명한 구성은, 사용자 단말 장치(100)의 종류에 따라 다양하게 변형될 수 있다.Meanwhile, as described above, the user terminal device 100 may be implemented as various types of devices such as a mobile phone, a tablet PC, a laptop PC, a PDA, an MP3 player, an electronic frame device, a TV, a PC, a kiosk, 2B and 2C may be modified in various ways according to the type of the user terminal device 100. For example,

이상에서 설명한 바와 같이, 사용자 단말 장치(100)는 다양한 형태 및 구성으로 구현될 수 있다.As described above, the user terminal device 100 can be implemented in various forms and configurations.

이하에서는 본 발명의 이해를 돕기 위한 기본 구성과 다양한 실시 예에 대하여 설명한다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, a basic configuration and various embodiments for facilitating understanding of the present invention will be described.

도 3은 메인 표시영역(10), 서브 표시영역(20) 및 라운드 표시영역(30) 중 하나만이 이용되는 일 예를 설명하기 위한 도면이다.3 is a view for explaining an example in which only one of the main display region 10, the sub display region 20, and the round display region 30 is used.

도 3에 도시된 바와 같이, 프로세서(130)는 사용자 단말 장치(100)의 방향(orientation)에 기초하여 정보를 제공할 영역을 결정할 수 있다. 프로세서(130)는 어느 한 영역에 정보를 제공하는 경우, 다른 두 영역에는 정보를 제공하는 않을 수 있다.As shown in FIG. 3, the processor 130 may determine an area to provide information based on the orientation of the user terminal device 100. For example, as shown in FIG. When the processor 130 provides information to one area, it may not provide information to the other two areas.

프로세서(130)는 전원 버튼을 누르는 사용자 입력이 있는 경우 정보를 제공할 영역을 결정하는 동작을 수행할 수 있다. 또는, 프로세서(130)는 전화 또는 문자를 수신하는 경우, 정보를 제공할 영역을 결정하는 동작을 수행할 수 있다.The processor 130 may perform an operation of determining an area to provide information when there is a user input for pressing the power button. Alternatively, the processor 130, when receiving a telephone or text, may perform an operation of determining an area to provide information.

한편, 이상에서는 사용자 단말 장치(100)의 방향(orientation)에 기초하여 정보를 제공할 영역을 결정하는 것으로 설명하였으나, 이에 한정되는 것은 아니다. 예를 들어, 프로세서(130)는 전원 버튼을 누르는 사용자 입력이 있는 경우 사용자를 인식하여 사용자의 시선에 가까운 영역을 통해 정보를 제공할 수도 있다. 이때, 제공되는 정보는 실행된 어플리케이션에 따라 다를 수 있다.In the above description, the area for providing information is determined based on the orientation of the user terminal device 100, but the present invention is not limited thereto. For example, the processor 130 may recognize a user when there is a user input to press the power button, and may provide information through an area close to the user's line of sight. At this time, the provided information may be different depending on the executed application.

한편, 프로세서(130)는 정보를 제공하지 않는 영역에 대한 사용자의 터치 입력을 통해 정보가 제공될 디스플레이 영역을 변경할 수도 있다. 예를 들어, 프로세서(130)는 메인 표시영역(10)에 정보를 제공하는 중에 서브 표시영역(20)의 일 영역을 연속하여 터치하는 사용자 입력이 수신되면, 메인 표시영역(10)에 제공되는 정보를 서브 표시영역(20)에 디스플레이할 수도 있다.Meanwhile, the processor 130 may change the display area to which information is to be provided through the touch input of the user with respect to the area not providing information. For example, when a user input that continuously touches one area of the sub display area 20 is received while providing information to the main display area 10, the processor 130 provides the main display area 10 with information Information may be displayed in the sub display area 20. [

한편, 프로세서(130)는 동일한 정보라 하더라도 디스플레이될 영역에 따라 다르게 디스플레이할 수 있다. 예를 들어, 프로세서(130)는 도 3에 도시된 바와 같이, 디스플레이 영역별로 홈 화면의 레이아웃을 변경하여 디스플레이할 수도 있다.On the other hand, the processor 130 may display different information according to an area to be displayed even though the same information is displayed. For example, as shown in FIG. 3, the processor 130 may change the layout of the home screen for each display area and display the changed home screen.

한편, 프로세서(130)는 사용자 단말 장치(100)의 방향이 변경되면, 정보를 제공하는 영역을 변경할 수 있다. 예를 들어, 메인 표시영역(10)에 홈 화면이 디스플레이된 상태에서 사용자 단말 장치(100)를 기설정된 각도 이상 회전시키면, 프로세서(130)는 홈 화면을 서브 표시영역(20)에 디스플레이할 수 있다.Meanwhile, when the direction of the user terminal device 100 is changed, the processor 130 may change the area for providing information. For example, if the user terminal device 100 is rotated by a predetermined angle or more while the home screen is displayed in the main display area 10, the processor 130 can display the home screen in the sub display area 20 have.

특히, 프로세서(130)는 사용자 단말 장치(100)의 방향이 변경되어 디스플레이 영역이 변경되는 경우, 제공할 정보의 레이아웃을 변경할 수도 있다. 프로세서(130)는 정보를 제공할 영역이 변경되는 경우, 오브젝트 뿐만 아니라 오브젝트의 크기, 내용 및 레이아웃을 모두 변경할 수도 있다.In particular, the processor 130 may change the layout of the information to be provided when the direction of the user terminal device 100 is changed to change the display area. The processor 130 may change not only the object but also the size, content, and layout of the object when the area to be provided with information is changed.

한편, 프로세서(130)는 사용자 단말 장치(100)의 방향이 변경되어 디스플레이 영역이 변경되는 경우, 실행 중인 어플리케이션의 동작 상태를 변경하여 다른 디스플레이 영역에 제공할 수도 있다. 또는, 프로세서(130)는 사용자 단말 장치(100)의 방향이 변경되면, 디스플레이된 정보를 분할하여 다른 디스플레이 영역들에 디스플레이할 수도 있다.Meanwhile, when the direction of the user terminal device 100 is changed and the display area is changed, the processor 130 may change the operation state of the running application and provide the changed display area to another display area. Alternatively, the processor 130 may divide the displayed information and display it in other display areas when the direction of the user terminal device 100 is changed.

도 4는 메인 표시영역(10), 서브 표시영역(20) 및 라운드 표시영역(30) 중 적어도 두 영역이 이용되는 일 예를 설명하기 위한 도면이다.4 is a view for explaining an example in which at least two of the main display region 10, the sub display region 20, and the round display region 30 are used.

도 4에 도시된 바와 같이, 프로세서(130)는 메인 표시영역(10), 서브 표시영역(20) 및 라운드 표시영역(30) 중 두 영역에 서로 관련된 정보를 제공할 수 있다. 예를 들어, 프로세서(130)는 메인 표시영역(10)에 동영상을 디스플레이하고, 라운드 표시영역(30)에 동영상을 컨트롤하기 위한 UI를 디스플레이할 수 있다.As shown in FIG. 4, the processor 130 may provide information related to the two areas of the main display area 10, the sub display area 20, and the round display area 30. For example, the processor 130 may display a moving picture in the main display area 10, and may display a UI for controlling the moving picture in the round display area 30.

다만, 이에 한정되는 것은 아니며, 프로세서(130)는 메인 표시영역(10), 서브 표시영역(20) 및 라운드 표시영역(30) 중 두 영역에 서로 관련되지 않은 정보를 제공할 수도 있다.However, the present invention is not limited thereto, and the processor 130 may provide information that is not related to each other in two areas of the main display area 10, the sub display area 20, and the round display area 30.

또는, 도 4와 같이 라운드 표시영역(30)에 동영상을 컨트롤하기 위한 UI가 디스플레이된 상태에서 전화가 수신되면, 프로세서(130)는 라운드 표시영역(30)에 전화 수신 UI를 디스플레이하고, 동영상을 컨트롤하기 위한 UI를 서브 표시영역(20)으로 이동시켜 디스플레이할 수도 있다.4, the processor 130 displays the telephone receiving UI in the round display area 30, and displays the moving image in the round display area 30, and when the telephone is displayed in the state in which the UI for controlling the moving picture is displayed in the round display area 30, The UI for control may be moved to the sub display area 20 and displayed.

프로세서(130)는 전화 수신 UI를 터치하여 전화가 연결되면, 전화 통화 UI를 라운드 표시영역(30)에 디스플레이하고 동영상을 계속하여 재생할 수도 있다. 이때, 프로세서(130)는 동영상을 음소거할 수도 있다. 또는, 프로세서(130)는 동영상일 일시 정지해둘 수도 있다.The processor 130 may display the phone call UI in the round display area 30 and continuously reproduce the moving picture when the phone is connected by touching the phone receiving UI. At this time, the processor 130 may mute the moving picture. Alternatively, the processor 130 may pause the motion picture.

한편, 프로세서(130)는 메인 표시영역(10), 서브 표시영역(20) 및 라운드 표시영역(30) 전부를 이용하여 서로 관련된 정보를 제공할 수 있다. 예를 들어, 프로세서(130)는 메인 표시영역(10)에 동영상을 디스플레이하고, 서브 표시영역(20)에 동영상을 컨트롤하기 위한 UI를 디스플레이하고, 라운드 표시영역(30)에 동영상 재생 시점을 나타내는 UI를 디스플레이할 수 있다.Meanwhile, the processor 130 may provide information related to each other using all of the main display area 10, the sub display area 20, and the round display area 30. For example, the processor 130 may display a moving picture in the main display area 10, display a UI for controlling the moving picture in the sub display area 20, and display a moving picture playback time in the round display area 30 UI can be displayed.

또는, 프로세서(130)는 메인 표시영역(10), 서브 표시영역(20) 및 라운드 표시영역(30) 전부를 이용하여 서로 관련되지 않은 정보를 제공할 수도 있다. 또는, 프로세서(130)는 메인 표시영역(10), 서브 표시영역(20) 및 라운드 표시영역(30) 중 두 영역에 서로 관련 있는 정보를 제공하고, 나머지 하나의 영역에는 관련되지 않은 정보를 제공할 수도 있다.Alternatively, the processor 130 may provide information that is not related to each other by using all of the main display area 10, the sub display area 20, and the round display area 30. Alternatively, the processor 130 may provide information related to each other in two areas of the main display area 10, the sub display area 20, and the round display area 30, and may provide information that is not related to the other area You may.

한편, 프로세서(130)는 사용자 단말 장치(100)의 방향이 변경되면, 각 영역에 디스플레이되는 정보의 디스플레이 영역을 변경할 수 있다. 특히, 프로세서(130)는 각 영역에 디스플레이되는 정보를 조합하거나 분할하여 디스플레이되는 영역을 변경할 수도 있다.On the other hand, when the direction of the user terminal device 100 is changed, the processor 130 can change the display area of information displayed in each area. In particular, the processor 130 may combine or divide the information displayed in each area to change the displayed area.

한편, 프로세서(130)는 서브 표시영역(20) 상에 터치 입력이 수신되면, 서브 표시영역(20)에 디스플레이된 UI를 메인 표시영역(10)에 디스플레이할 수 있다. 또는, 프로세서(130)는 메인 표시영역(10) 상에 터치 입력이 수신되면, 메인 표시영역(10)에 디스플레이된 UI를 서브 표시영역(20) 및 라운드 표시영역(30) 중 적어도 하나에 디스플레이할 수도 있다.The processor 130 may display the UI displayed on the sub display area 20 in the main display area 10 when the touch input is received on the sub display area 20. [ Alternatively, when the touch input is received on the main display area 10, the processor 130 displays the UI displayed in the main display area 10 in at least one of the sub display area 20 and the round display area 30 You may.

한편, 프로세서(130)는 동일한 사용자 터치 입력이 감지되더라도 터치 영역에 따라 설정 값의 조절 정도를 다르게 할 수 있다. 예를 들어, 프로세서(130)는 동영상이 메인 표시영역(10)에 디스플레이된 상태에서 메인 표시영역(10) 또는 서브 표시영역(20)에 대한 드래그 조작이 입력되면, 드래그 조작의 방향에 따라 재생 시간 또는 볼륨 등을 조절할 수 있다. 이때, 프로세서(130)는 드래그 조작이 메인 표시영역(10)인 경우보다 서브 표시영역(20)인 경우에 재생 시간 또는 볼륨 등을 세밀하게 조절할 수 있다.Meanwhile, the processor 130 may adjust the degree of adjustment of the set value according to the touch region even if the same user touch input is sensed. For example, when the drag operation for the main display area 10 or the sub display area 20 is input while the moving image is displayed in the main display area 10, Time or volume can be adjusted. At this time, the processor 130 can finely control the reproduction time, volume, and the like in the case of the sub display area 20 as compared with the case where the drag operation is the main display area 10.

도 4는 일 실시 예에 불과하고, 이에 한정되는 것은 아니다. 예를 들어, 도 4의 메인 표시영역(10), 서브 표시영역(20) 및 라운드 표시영역(30)은 서로 교체될 수 있다. 또한, 도 4에 대한 동작은 얼마든지 다른 어플리케이션에서도 적용 가능하다.4 is only an example, and the present invention is not limited thereto. For example, the main display area 10, the sub display area 20, and the round display area 30 shown in Fig. 4 can be replaced with each other. In addition, the operation of FIG. 4 can be applied to any other application.

도 5는 각 영역과 터치 입력에 따른 동작의 일 예를 설명하기 위한 도면이다.5 is a view for explaining an example of an operation according to each region and a touch input.

도 5에 도시된 바와 같이, 프로세서(130)는 메인 표시영역(10)의 일 영역에서 라운드 표시영역(30)을 향하는 드래그 입력이 수신되면, 메인 표시영역(10)에서 제공되는 정보를 서브 표시영역(20)에 디스플레이할 수 있다.5, when the processor 130 receives a drag input from one area of the main display area 10 toward the round display area 30, the processor 130 converts the information provided in the main display area 10 into a sub- Can be displayed in the area (20).

프로세서(130)는 기설정된 크기 이상의 드래그 입력이 있는 경우에만 메인 표시영역(10)에서 제공되는 정보를 서브 표시영역(20)에 디스플레이할 수도 있다.The processor 130 may display information provided in the main display area 10 in the sub display area 20 only when there is a drag input of a predetermined size or larger.

드래그 입력 전에 서브 표시영역(20)에서 제공되는 정보가 있는 경우에, 프로세서(130)는 서브 표시영역(20)에 제공되는 정보를 더 이상 제공하지 않을 수 있다. 또는, 프로세서(130)는 서브 표시영역(20)에 제공되는 정보를 메인 표시영역(10) 또는 라운드 표시영역(30)에 디스플레이할 수도 있다.The processor 130 may no longer provide the information provided in the sub display area 20 when there is information provided in the sub display area 20 before the drag input. Alternatively, the processor 130 may display the information provided in the sub display area 20 in the main display area 10 or the round display area 30. [

도 5에서는 메인 표시영역(10) 및 서브 표시영역(20)만을 이용하는 것으로 설명하였으나, 이에 한정되는 것은 아니다. 예를 들어, 프로세서(130)는 사용자 입력의 종류에 따라, 메인 표시영역(10) 및 서브 표시영역(20) 중 어느 하나에 제공되는 정보를 라운드 표시영역(30)에 디스플레이할 수도 있다. 또는, 프로세서(130)는 라운드 표시영역(30)에 제공되는 정보를 메인 표시영역(10) 및 서브 표시영역(20) 중 어느 하나에 디스플레이할 수도 있다.5, only the main display region 10 and the sub display region 20 are used. However, the present invention is not limited thereto. For example, the processor 130 may display information provided to one of the main display area 10 and the sub display area 20 in the round display area 30, depending on the type of user input. Alternatively, the processor 130 may display information provided in the round display area 30 in one of the main display area 10 and the sub display area 20. [

한편, 프로세서(130)는 특정 영역에 정보를 제공하지 않더라도 터치 입력을 수신할 수 있다. 예를 들어, 프로세서(130)는 방송 컨텐츠가 메인 표시영역(10)에 디스플레이되는 상태에서 라운드 표시영역(30)을 드래그하는 사용자 입력이 수신되면, 방송 컨텐츠의 채널 또는 음량을 변경할 수 있다. 이때, 라운드 표시영역(30)에는 정보가 제공되지 않는 상태일 수 있다.Meanwhile, the processor 130 may receive the touch input even if the processor 130 does not provide information to a specific area. For example, the processor 130 may change the channel or volume of broadcast content when a user input for dragging the round display area 30 is received while the broadcast content is being displayed in the main display area 10. At this time, the round display area 30 may not be provided with information.

도 6은 본 발명의 일 실시 예에 따른 사용자 단말 장치(100)의 방향(orientation)이 변경된 경우의 동작을 설명하기 위한 도면이다.6 is a view for explaining an operation when the orientation of the user terminal 100 according to the embodiment of the present invention is changed.

도 6에 도시된 바와 같이 사용자 단말 장치(100)는 사용자 단말 장치(100)의 전면에 배치되는 메인 표시영역(10), 메인 표시영역(10)의 일측으로부터 연장되어 사용자 단말 장치(100)의 후면의 적어도 일 영역에 배치되는 서브 표시영역(20) 및 메인 표시영역(10)과 서브 표시영역(20)을 연결하는 라운드 표시영역(30)으로 구성된 디스플레이(110)를 포함한다.6, the user terminal 100 includes a main display area 10 disposed on the front surface of the user terminal 100, a display area 10 extending from one side of the main display area 10, And a display area 110 including a main display area 10 and a round display area 30 connecting the sub display area 20 with each other.

사용자 단말 장치(100)는 후면에 영상을 촬영하기 위한 카메라(120)를 구비할 수 있다. 설명의 편의를 위해 먼저, 사용자 단말 장치(100)의 후면에 카메라(120)가 구비된 구조에 대하여 설명한다. 사용자 단말 장치(100)의 전면에 카메라(120)가 구비된 구조에 대하여는 후술한다.The user terminal 100 may include a camera 120 for capturing an image on the rear side. For convenience of description, a structure in which the camera 120 is provided on the rear surface of the user terminal 100 will be described. The structure in which the camera 120 is provided on the front surface of the user terminal device 100 will be described later.

프로세서(130)는 카메라(110)를 통해 획득된 라이브 뷰를 메인 표시영역(10) 및 서브 표시영역(20) 중 하나에 디스플레이할 수 있다. 도 6의 상측 도면은 프로세서(130)가 라이브 뷰를 메인 표시영역(10)에 디스플레이한 도면이다. 또는, 프로세서(130)는 라이브 뷰를 서브 표시영역(20)에 디스플레이할 수도 있으며, 메인 표시영역(10) 및 서브 표시영역(20) 중 어느 영역에 디스플레이할지에 대하여는 후술한다.The processor 130 may display the live view obtained through the camera 110 in one of the main display area 10 and the sub display area 20. [ 6 is a diagram in which the processor 130 displays a live view in the main display area 10. In FIG. Alternatively, the processor 130 may display the live view in the sub display area 20, and the display of the main display area 10 and the sub display area 20 will be described later.

프로세서(130)는 사용자 단말 장치(100)의 방향(orientation)이 변경되면 라이브 뷰를 메인 표시영역(10) 및 서브 표시영역(20) 중 다른 하나에 디스플레이하도록 디스플레이(110)를 제어할 수 있다. 도 6의 하측 도면은 프로세서(130)가 라이브 뷰를 메인 표시영역(10)에 디스플레이한 상태에서, 특정 방향으로 기설정된 각도 이상의 회전 움직임이 감지되면 라이브 뷰를 서브 표시영역(20)에 디스플레이한 도면이다. 카메라(120)가 촬영하는 영상도 사용자 단말 장치(100)의 방향이 변경됨에 따라 달라질 수 있다. 프로세서(130)는 다양한 방법을 통해 사용자 단말 장치(100)의 방향이 변경된 것으로 판단할 수 있고, 구체적인 내용은 후술한다.The processor 130 may control the display 110 to display the live view on the other of the main display area 10 and the sub display area 20 when the orientation of the user terminal device 100 is changed . 6, when the processor 130 displays a live view on the main display area 10 and a rotational movement of a predetermined angle or more is detected in a specific direction, the live view is displayed on the sub display area 20 FIG. The image captured by the camera 120 may also be changed as the direction of the user terminal device 100 is changed. The processor 130 can determine that the direction of the user terminal device 100 has been changed through various methods, and the details will be described later.

프로세서(130)는 사용자 단말 장치(100)의 방향이 변경되어 라이브 뷰가 디스플레이되는 영역이 변경되면, 해당 영역에 대응되도록 소프트키, 제어 GUI 등을 디스플레이할 수 있다. 예를 들어, 프로세서(130)는 메인 표시영역(10)에 라이브 뷰가 디스플레이되는 경우, 촬영을 위한 GUI를 메인 표시영역(10)의 우측에 디스플레이할 수 있다. 그리고, 프로세서(130)는 사용자 단말 장치(100)의 방향이 변경되어 서브 표시영역(20)에 라이브 뷰가 디스플레이되는 경우, 촬영을 위한 GUI를 디스플레이하지 않고, 서브 표시영역(20)을 터치하는 경우 촬영을 수행할 수도 있다.When the direction of the user terminal device 100 is changed and the area in which the live view is displayed is changed, the processor 130 may display a soft key, a control GUI, or the like so as to correspond to the area. For example, when the live view is displayed in the main display area 10, the processor 130 can display a GUI for photographing on the right side of the main display area 10. [ When the direction of the user terminal device 100 is changed and the live view is displayed in the sub display area 20, the processor 130 does not display the GUI for photographing but touches the sub display area 20 You can also take a picture.

프로세서(130)는 서브 표시영역(20)에 라이브 뷰를 디스플레이하고 있는 상태에서, 사용자 단말 장치(100)의 방향이 변경되면 메인 표시영역(10)에 촬영 설정 값을 디스플레이할 수도 있다.The processor 130 may display the shooting setting value in the main display area 10 when the direction of the user terminal device 100 is changed while the live view is being displayed in the sub display area 20. [

프로세서(130)는 메인 표시영역(10)에는 라이브 뷰를 디스플레이하고 서브 표시영역(20)에는 정보를 제공하지 않으며, 사용자 단말 장치(100)의 방향이 변경되면 서브 표시영역(20)에는 라이브 뷰를 디스플레이하고, 메인 표시영역(10)에는 정보를 제공하지 않을 수도 있다. 예를 들어, 도 6의 상측 도면의 경우, 프로세서(130)는 서브 표시영역(20)에 정보를 제공하지 않을 수 있다. 또는, 도 6의 하측 도면의 경우, 프로세서(130)는 메인 표시영역(10)에 정보를 제공하지 않을 수 있다. 다만, 이에 한정되는 것은 아니고, 프로세서(130) 메인 표시영역(10) 및 서브 표시영역(20) 모두에 라이브 뷰를 디스플레이할 수도 있다.The processor 130 displays a live view in the main display area 10 and does not provide information in the sub display area 20. When the direction of the user terminal device 100 is changed, And may not provide information to the main display area 10. [ For example, in the case of the upper diagram of Fig. 6, the processor 130 may not provide information to the sub display area 20. [ Alternatively, in the case of the bottom view of FIG. 6, the processor 130 may not provide information to the main display area 10. However, the present invention is not limited to this, and the live view may be displayed in both the main display area 10 and the sub display area 20 of the processor 130. [

프로세서(130)는 메인 표시영역(10) 및 서브 표시영역(20) 중 하나의 영역을 검은색으로 디스플레이하여 정보를 제공하지 않을 수 있다. 또는, 프로세서(130)는 메인 표시영역(10) 및 서브 표시영역(20) 중 하나의 영역의 디스플레이(110)에 전원을 공급하지 않을 수도 있다. 프로세서(130)는 메인 표시영역(10) 및 서브 표시영역(20) 중 하나의 영역에 정보를 제공하지 않는 경우라도, 터치 기능은 활성화시켜 터치 입력을 수신할 수도 있다.The processor 130 may display one area of the main display area 10 and the sub display area 20 in black so as not to provide information. Alternatively, the processor 130 may not supply power to the display 110 of one of the main display region 10 and the sub display region 20. [ Even when the processor 130 does not provide information to one of the main display region 10 and the sub display region 20, the processor 130 may activate the touch function to receive the touch input.

프로세서(130)는 사용자 단말 장치(100)의 방향이 변경되면 촬영 모드를 변경할 수 있다. 예를 들어, 프로세서(130)는 사용자 단말 장치(100)의 방향이 변경되어 피사체가 가까운 곳에 있다고 인식되면, 셀피 촬영 모드로 전환할 수 있다. 셀피 촬영 모드는 셀피 촬영에 최적화된 모드로, 자동으로 사용자의 피부를 보정할 수 있다.The processor 130 may change the shooting mode when the direction of the user terminal device 100 is changed. For example, the processor 130 may switch to the self-portrait mode if the direction of the user terminal device 100 is changed to recognize that the subject is close. The self-portrait mode is a mode optimized for self-portrait photography, and can automatically correct the user's skin.

또는, 프로세서(130)는 사용자 단말 장치(100)의 방향이 변경되어 피사체가 먼 곳에 있다고 인식되면, 배경 촬영 모드로 전환할 수 있다. 배경 촬영 모드는 풍경 촬영에 최적화된 모드로, 자동으로 콘트라스트 및 화이트 밸런스를 조절할 수 있다.Alternatively, the processor 130 may switch to the background shooting mode if the direction of the user terminal device 100 is changed to recognize that the subject is distant. Background shooting mode is optimized for landscape shooting, and can automatically adjust the contrast and white balance.

한편, 프로세서(130)는 촬영 모드에 따라 화각을 달리할 수도 있다. 예를 들어, 프로세서(130)는 셀피 촬영 모드에서는 화각을 좁게 하고, 배경 촬영 모드에서는 화각을 넓게 할 수도 있다.Meanwhile, the processor 130 may vary the view angle depending on the photographing mode. For example, the processor 130 may narrow the angle of view in the self-portrait mode and widen the angle of view in the background mode.

그리고, 프로세서(130)는 촬영 모드에 따라 디스플레이에서 제공하는 UI를 다르게 할 수 있다. 예를 들어, 프로세서(130)는 셀피 촬영 모드인 경우에는 사용자의 피부를 보정하는 기능, 적목 감소 기능 등을 포함하는 UI를 제공하고, 배경 촬영 모드인 경우에는 콘트라스트 조절 기능, 화이트 밸런스 조절 기능 등을 포함하는 UI를 제공할 수 있다.The processor 130 may change the UI provided in the display according to the photographing mode. For example, the processor 130 provides UI including a function of correcting the user's skin, a red-eye reduction function and the like in the case of the self-portrait photographing mode. In the case of the background photographing mode, the processor 130 provides a contrast adjustment function, And the like.

도 7a 및 도 7b는 표시영역에 따라 제공되는 이미지를 변경하는 방법의 일 예를 설명하기 위한 도면이다.7A and 7B are diagrams for explaining an example of a method of changing an image provided according to a display area.

도 7a에 도시된 바와 같이, 프로세서(130)는 라이브 뷰를 메인 표시영역(10)에 디스플레이할 수 있다. 사용자가 촬영 조작을 하면, 프로세서(130)는 메인 표시영역(10)에 디스플레이되어 있는 이미지와 동일한 이미지를 저장할 수 있다.As shown in FIG. 7A, the processor 130 may display a live view in the main display area 10. When the user performs the shooting operation, the processor 130 can store the same image as the image displayed in the main display area 10. [

또는, 도 7b에 도시된 바와 같이, 프로세서(130)는 라이브 뷰를 서브 표시영역(20)에 디스플레이할 수 있다. 이때, 프로세서(130)는 카메라(120)를 통해 인식되는 이미지의 일부만을 디스플레이할 수 있다.Alternatively, as shown in FIG. 7B, the processor 130 may display a live view in the sub display area 20. [ At this time, the processor 130 can display only a part of the image recognized through the camera 120. [

도 7a 및 도 7b에는 설명의 편의를 위해 동일한 피사체를 촬영하고 있는 것으로 도시하였다. 즉, 프로세서(130)는 도 7a에 도시된 이미지를 촬영하나, 도 7b에 도시된 바와 같이 촬영된 이미지의 일부만을 서브 표시영역(20)에 디스플레이할 수 있다.7A and 7B show that the same subject is photographed for convenience of explanation. That is, the processor 130 photographs the image shown in FIG. 7A, but can display only a part of the photographed image in the sub display area 20 as shown in FIG. 7B.

다만, 이는 일 실시 예에 불과하고, 프로세서(130)는 촬영된 이미지 전체를 90도 회전하여 서브 표시영역(20)에 디스플레이할 수도 있다.However, this is merely an embodiment, and the processor 130 may display the entire photographed image in the sub display area 20 by rotating 90 degrees.

또한, 라이브 뷰가 서브 표시영역(20)에 디스플레이된 상태로 촬영이 수행되더라도, 프로세서(130)는 전체 이미지를 저장하고 있을 수 있다. 예를 들어, 사용자가 도 7b와 같이 구도를 잡아 셀피 촬영을 하더라도, 프로세서(130)는 도 7a에 도시된 바와 같이 사용자의 얼굴 뿐만 아니라 상체까지도 포함하는 원본 이미지를 촬영할 수 있다.Also, even if the photographing is performed while the live view is displayed in the sub display area 20, the processor 130 may be storing the entire image. For example, even if the user performs the self-portrait photographing as shown in FIG. 7B, the processor 130 can photograph the original image including not only the user's face but also the upper body, as shown in FIG. 7A.

이 경우, 프로세서(130)는 갤러리 앱 등이 실행되어 디스플레이되는 영역에 따라 저장된 이미지를 다르게 디스플레이할 수 있다. 예를 들어, 메인 표시영역(10)에 이미지가 디스플레이되는 경우, 프로세서(130)는 사용자의 상체까지 포함하는 원본 이미지를 디스플레이할 수 있다. 또는, 서브 표시영역(20)에 이미지가 디스플레이되는 경우, 프로세서(130)는 사용자의 얼굴만을 포함하는 부분 이미지를 디스플레이할 수 있다.In this case, the processor 130 may display the stored image differently according to the area where the gallery application or the like is executed and displayed. For example, when an image is displayed in the main display area 10, the processor 130 can display an original image including up to the user's upper body. Alternatively, when an image is displayed in the sub display area 20, the processor 130 may display a partial image including only the face of the user.

프로세서(130)는 원본 이미지와 부분 이미지를 모두 저장할 수 있다. 또는, 프로세서(130)는 원본 이미지만을 저장하고, 필요에 따라 서브 표시영역(20)에 대응되도록 이미지를 크롭(crop)하여 서브 표시영역(20)에 디스플레이할 수도 있다. 이 경우, 원본 이미지는 크롭될 영역에 대한 정보를 저장하고 있을 수 있다.도 8a 및 도 8b는 메인 표시영역(10)을 통해 특정 기능을 실행하는 방법의 일 예를 설명하기 위한 도면이다. 프로세서(130)는 서브 표시영역(20)에는 라이브 뷰를 디스플레이하고 메인 표시영역(10)에는 정보를 제공하지 않는 상태에서, 메인 표시영역(10)을 터치하는 사용자 입력에 따라 대응되는 기능을 실행할 수 있다.The processor 130 may store both the original image and the partial image. Alternatively, the processor 130 may store only the original image, crop the image so as to correspond to the sub display area 20 as needed, and display the image in the sub display area 20. [ 8A and 8B are views for explaining an example of a method of executing a specific function through the main display area 10. In this case, The processor 130 executes a corresponding function according to a user input that touches the main display area 10 in a state in which the live view is displayed in the sub display area 20 and information is not provided in the main display area 10 .

도 8a는 메인 표시영역(10)을 이용하여 영상을 촬영하는 것을 나타낸다. 예를 들어, 프로세서(130)는 서브 표시영역(20)에는 라이브 뷰를 디스플레이하고 메인 표시영역(10)에는 정보를 제공하지 않는 상태에서, 메인 표시영역(10)에 사용자 터치가 감지되면, 사용자 터치에 응답하여 영상을 촬영하여 저장할 수 있다.8A shows that the main display area 10 is used to photograph an image. For example, when the processor 130 displays a live view in the sub display area 20 and does not provide information to the main display area 10, if the user touch is detected in the main display area 10, The image can be captured and stored in response to the touch.

프로세서(130)는 메인 표시영역(10)의 기설정된 영역(11)에 대한 사용자 터치가 감지되는 경우에만 촬영을 수행할 수도 있다. 기설정된 영역(11)은 제조사에 의해 설정될 수도 있고, 사용자에 의해 설정될 수도 있다. 이 경우, 프로세서(130)는 메인 표시영역(10) 중 기설정된 영역(11)의 터치 기능을 활성화시키고, 메인 표시영역(10)의 다른 영역의 터치 기능을 비활성화시킬 수도 있다.The processor 130 may perform photographing only when a user touch to the predetermined area 11 of the main display area 10 is detected. The predetermined area 11 may be set by a manufacturer or may be set by a user. In this case, the processor 130 may activate the touch function of the predetermined area 11 of the main display area 10 and deactivate the touch function of the other area of the main display area 10. [

도 8b는 메인 표시영역(10)을 이용하여 촬영 설정 값을 변경하는 도면이다. 예를 들어, 프로세서(130)는 서브 표시영역(20)에는 라이브 뷰를 디스플레이하고 메인 표시영역(10)에는 정보를 제공하지 않는 상태에서, 메인 표시영역(10) 내의 어느 한 지점으로부터 기설정된 방향으로의 스와이프 인터랙션이 감지되면, 기설정된 방향에 대응되도록 촬영 설정 값을 변경할 수 있다.8B is a view for changing the photographing setting value by using the main display area 10. Fig. For example, the processor 130 displays a live view in the sub display area 20 and displays the live view in a predetermined direction from any one point in the main display area 10 without providing information in the main display area 10 The sweep setting value can be changed so as to correspond to the predetermined direction.

프로세서(130)는 메인 표시영역(10)의 기설정된 영역(11) 내의 어느 한 지점으로부터 기설정된 방향으로의 스와이프 인터랙션이 감지되는 경우에만 촬영 설정 값을 변경할 수도 있다. 기설정된 영역은 제조사에 의해 설정될 수도 있고, 사용자에 의해 설정될 수도 있다. 이 경우, 프로세서(130)는 메인 표시영역(10) 중 기설정된 영역(10)의 터치 기능을 활성화시키고, 메인 표시영역(10)의 다른 영역의 터치 기능을 비활성화시킬 수도 있다.The processor 130 may change the shooting setting value only when a sweeping interaction in a predetermined direction is sensed from any one point in the predetermined area 11 of the main display area 10. [ The preset area may be set by the manufacturer or may be set by the user. In this case, the processor 130 may activate the touch function of the predetermined area 10 of the main display area 10 and deactivate the touch function of the other area of the main display area 10.

프로세서(130)는 좌우 방향(810-1, 810-2)의 스와이프 인터랙션이 감지되면 노출 값을 변경하여 라이브 뷰를 디스플레이할 수 있다. 프로세서(130)는 상하 방향(820-1, 820-2)의 스와이프 인터랙션이 감지되면 줌인 또는 줌아웃하여 라이브 뷰를 디스플레이할 수 있다. 다만, 이에 한정되는 것은 아니며, 프로세서(130) 스와이프 인터랙션을 통해 초점을 변경하거나 화이트 밸런스를 변경할 수도 있다.The processor 130 can display the live view by changing the exposure value when the swipe interaction of the left and right directions 810-1 and 810-2 is detected. The processor 130 can display a live view by zooming in or out when the swipe interaction of the up and down directions 820-1 and 820-2 is detected. However, the present invention is not limited thereto, and the processor 130 may change the focus or change the white balance through swipe interaction.

도 8a 및 도 8b에서는 메인 표시영역(10)의 기설정된 영역(11)에 대하여만 설명하였으나, 이에 한정되는 것은 아니다. 예를 들어, 프로세서(130) 메인 표시영역(10) 전체의 터치 기능을 활성화시키고, 메인 표시영역(10)의 한 지점에 대한 사용자 터치가 감지되면 촬영을 수행할 수도 있다. 또는 프로세서(130)는 메인 표시영역(10)을 복수의 기설정된 영역으로 구분하여 각 영역마다 다른 기능을 할당할 수도 있다.8A and 8B, the predetermined area 11 of the main display area 10 is described, but the present invention is not limited thereto. For example, it is possible to activate the touch function of the entire main display area 10 of the processor 130 and to perform the photographing when a user touch to a point of the main display area 10 is detected. Alternatively, the processor 130 may divide the main display area 10 into a plurality of preset areas, and assign different functions to the respective areas.

프로세서(130)는 터치 및 스와이프 인터랙션 외에도 드래그 앤 드랍 인터랙션, 멀티 터치 인터랙션 및 두 지점을 벌리는 스트레치 인터랙션 등 다양한 인터랙션에 대하여도 대응되는 기능을 실행할 수 있다. 인터랙션 및 그에 대응되는 기능은 제조사에 의해 설정될 수도 있고, 사용자에 의해 설정될 수도 있다.In addition to touch and swipe interaction, the processor 130 can perform corresponding functions for various interactions such as drag-and-drop interaction, multi-touch interaction, and stretch interaction that opens two points. The interaction and the corresponding function may be set by the manufacturer or may be set by the user.

한편, 도 8a 및 도 8b에서는 메인 표시영역(10)을 터치하여 특정 기능을 실행하는 것으로 설명하였으나, 이에 한정되는 것은 아니다. 예를 들어, 프로세서(130)는 메인 표시영역(10)에는 라이브 뷰를 디스플레이하고 서브 표시영역(20)에는 정보를 제공하지 않는 상태에서, 서브 표시영역(20)에 사용자 터치가 감지되면, 사용자 터치에 응답하여 영상을 촬영하여 저장할 수 있다. 또는, 프로세서(130)는 서브 표시영역(20) 내의 어느 한 지점으로부터 기설정된 방향으로의 스와이프 인터랙션이 감지되면, 기설정된 방향에 대응되도록 촬영 설정 값을 변경할 수도 있다.8A and 8B, the main display region 10 is touched to perform a specific function. However, the present invention is not limited thereto. For example, if the processor 130 displays a live view in the main display area 10 and does not provide information to the sub display area 20, if the user touch is detected in the sub display area 20, The image can be captured and stored in response to the touch. Alternatively, the processor 130 may change the imaging setting value to correspond to a predetermined direction when a sweeping interaction in a predetermined direction is sensed from any one point in the sub display area 20. [

또는, 프로세서(130)는 메인 표시영역(10) 및 서브 표시영역(20) 모두에 라이브 뷰를 디스플레이하고, 사용자가 바라보고 있는 영역의 반대쪽에 위치한 영역을 터치 입력을 수신하는 영역으로 사용할 수도 있다.Alternatively, the processor 130 may display a live view in both the main display area 10 and the sub display area 20, and use an area located on the opposite side of the area viewed by the user as an area for receiving the touch input .

한편, 도 8a 및 도 8b에서는 카메라(120)를 이용하는 경우에 대하여만 설명하였으나, 다른 어플리케이션을 이용하는 경우에도 사용자가 바라보고 있는 영역의 반대쪽에 위치한 영역을 이용하여 터치 입력을 수신할 수도 있다. 예를 들어, 프로세서(130)는 메인 표시영역(10)에 방송 컨텐츠를 디스플레이하고 있는 상태에서, 서브 표시영역(20)의 스와이프 인터랙션을 통해 채널 또는 볼륨을 변경할 수도 있다.8A and 8B, only the case of using the camera 120 is described. However, even when another application is used, the touch input may be received using an area located on the opposite side of the area viewed by the user. For example, the processor 130 may change the channel or the volume through the swipe interaction of the sub display area 20 while displaying the broadcast content in the main display area 10.

또한, 도 8a 및 도 8b에서는 메인 표시영역(10) 및 서브 표시영역(20)을 이용하는 경우만을 설명하였으나, 메인 표시영역(10) 및 서브 표시영역(20) 중 어느 하나와 라운드 표시영역(30)을 이용하는 구성도 가능하다. 예를 들어, 프로세서(130)는 서브 표시영역(20)에 라이브 뷰를 디스플레이한 상태에서, 라운드 표시영역(30)을 터치하는 사용자 입력에 따라 촬영을 수행할 수도 있다.8A and 8B, only the main display region 10 and the sub display region 20 are used. However, any one of the main display region 10 and the sub display region 20 and the round display region 30 ) May be used. For example, the processor 130 may perform shooting according to a user input that touches the round display area 30 in a state where a live view is displayed in the sub display area 20. [

도 9는 본 발명의 일 실시 예에 따른 메인 표시영역(10)과 서브 표시영역(20) 모두에 라이브 뷰를 디스플레이하는 방법을 설명하기 위한 도면이다.9 is a view for explaining a method of displaying a live view in both the main display area 10 and the sub display area 20 according to an embodiment of the present invention.

도 9에 도시된 바와 같이, 프로세서(130)는 라이브 뷰를 메인 표시영역(10)에 디스플레이하며, 라이브 뷰에서 사람의 얼굴이 포함된 것으로 인식되면, 라이브 뷰에 포함된 얼굴 영역을 서브 표시영역(20)에 디스플레이하도록 디스플레이(110)를 제어할 수 있다. 예를 들어, 프로세서(130)는 피사체와의 거리가 먼 경우, 라이브 뷰를 메인 표시영역(10)에 디스플레이할 수 있다. 이에 대한 구체적인 내용은 후술한다.9, the processor 130 displays the live view in the main display area 10, and when it is recognized that a human face is included in the live view, the face area included in the live view is displayed in the sub display area The display 110 may be controlled to display on the display 20 of the display. For example, the processor 130 may display the live view in the main display area 10 when the distance from the subject is long. Details of this will be described later.

프로세서(130) 메인 표시영역(10)에 디스플레이되고 있는 라이브 뷰에서 사람의 얼굴을 인식할 수 있다. 라이브 뷰를 이용하여 사람의 얼굴을 인식하는 경우를 설명하면, 프로세서(130)는 라이브 뷰의 특정 정지 영상을 복수의 픽셀 블럭 단위로 구분하고, 각 픽셀 블럭 별로 대표 픽셀 값을 산출한다. 대표 픽셀 값은 픽셀 블럭 내에 포함되는 전체 픽셀들의 평균값으로 산출될 수도 있고, 최대 분포 값이나 중간 값, 최대 값 등으로 산출될 수도 있다. 프로세서(130)는 각 픽셀 블럭의 대표 픽셀 값을 서로 비교하여 유사 범위의 대표 픽셀 값을 가지는 픽셀 블럭들이 연속적으로 배치되었는지 여부를 판단한다. 연속적으로 배치된 경우 프로세서(130)는 그 픽셀 블럭들이 하나의 오브젝트를 구성하는 것으로 판단한다. 프로세서(130)는 오브젝트로 판단된 픽셀 블럭들 중에서 사람의 피부색과 유사한 픽셀 값 범위를 갖는 오브젝트가 존재하는지 판단한다. 프로세서(130)는 이러한 오브젝트가 존재하면, 그 오브젝트를 사람의 얼굴 영역이나 기타 신체 영역으로 인식하고, 나머지 부분은 주변 배경으로 판단할 수 있다.The processor 130 can recognize the face of a person in the live view displayed in the main display area 10. [ In a case where a human face is recognized using a live view, the processor 130 divides a specific still image of live view into a plurality of pixel block units, and calculates a representative pixel value for each pixel block. The representative pixel value may be calculated as an average value of all the pixels included in the pixel block, or may be calculated as a maximum distribution value, an intermediate value, a maximum value, and the like. The processor 130 compares the representative pixel values of each pixel block with each other to determine whether or not the pixel blocks having the representative pixel value of the similar range are successively arranged. When placed consecutively, the processor 130 determines that the pixel blocks constitute one object. The processor 130 determines whether there is an object having a pixel value range similar to human skin color among the pixel blocks judged as objects. When such an object exists, the processor 130 can recognize the object as a face region or other body region of a person, and determine the remaining portion as a surrounding background.

프로세서(130)는 서브 표시영역(20)의 크기에 대응되도록 라이브 뷰의 일 영역(910)을 크롭하여 서브 표시영역(20)에 디스플레이하도록 디스플레이(110)를 제어할 수 있다. 특히, 프로세서(130)는 서브 표시영역(20)의 가로 세로 비율을 유지하면서 라이브 뷰의 일 영역(910)을 크롭할 수 있다. 프로세서(130)는 라이브 뷰에 포함된 얼굴 영역이 서브 표시영역(20)의 중심부에 위치하도록 라이브 뷰의 일 영역(910)을 크롭할 수도 있다. 또는, 프로세서(130)는 도 9에 도시된 라이브 뷰의 일 영역(910)보다 작은 영역을 크롭하고, 크롭한 영역을 확대하여 서브 표시영역(20)에 디스플레이할 수도 있다.The processor 130 may control the display 110 to display one area 910 of the live view in the sub display area 20 so as to correspond to the size of the sub display area 20. [ Particularly, the processor 130 can crop one area 910 of the live view while maintaining the aspect ratio of the sub display area 20. [ The processor 130 may crop one area 910 of the live view so that the face area included in the live view is located at the center of the sub display area 20. [ Alternatively, the processor 130 may crop an area smaller than one area 910 of the live view shown in FIG. 9, enlarge the cropped area, and display it on the sub display area 20. FIG.

프로세서(130)는 라이브 뷰에서 복수의 사람의 얼굴이 포함된 것으로 인식되면, 복수의 사람의 얼굴 중 가장 가까이에 있는 사람의 얼굴 영역을 서브 표시영역(20)에 디스플레이할 수 있다. 또는, 프로세서(130)는 복수의 사람의 얼굴 중 사용자 단말 장치(100) 방향으로 시선을 유지하는 사람의 얼굴 영역을 서브 표시영역(20)에 디스플레이할 수도 있다. 또는, 프로세서(130)는 복수의 사람이 모두 나오도록 라이브 뷰의 일 영역을 크롭할 수도 있다. 프로세서(130)는 사람이 많은 경우에는 크롭 없이 라이브 뷰를 서브 표시영역(20)에 디스플레이할 수도 있다. 이로써, 사용자 단말 장치(100)를 이용하여 촬영을 수행하는 사람은 메인 표시영역(10)에 디스플레이된 라이브 뷰를 통해 촬영될 영상을 확인할 수 있고, 촬영되고 있는 사람은 서브 표시영역(20)에 디스플레이된 크롭된 라이브 뷰의 일 영역을 통해 촬영될 영상을 확인할 수 있다.The processor 130 can display a face region of a person nearest to a plurality of people's faces in the sub display region 20 when the processor 130 recognizes that a plurality of people's faces are included in the live view. Alternatively, the processor 130 may display a face region of a person who maintains a line of sight of the face of the user in the direction of the user terminal 100 in the sub display region 20. Alternatively, the processor 130 may crop one region of the live view so that a plurality of people are all present. The processor 130 may display the live view in the sub display area 20 without cropping if there are many people. Thus, a person who performs shooting using the user terminal device 100 can confirm an image to be photographed through a live view displayed in the main display area 10, You can see the image to be shot through one area of the displayed cropped live view.

도 9에서는 메인 표시영역(10) 및 서브 표시영역(20) 모두에 라이브 뷰를 디스플레이하는 동작을 설명하였으나, 이에 한정되는 것은 아니다. 예를 들어, 프로세서(130)는 셀피 촬영 모드로 동작하는 경우, 서브 표시영역(20)에는 라이브 뷰를 디스플레이하고, 메인 표시영역(10)에는 셀피 촬영 중임을 알리는 UI를 디스플레이할 수도 있다.9, the operation of displaying the live view in both the main display region 10 and the sub display region 20 has been described, but the present invention is not limited thereto. For example, when the processor 130 operates in the self-portrait mode, the main display area 10 displays a live view in the sub display area 20, and the UI in the main display area 10 indicates that the self-photographing is in progress.

도 10은 본 발명의 일 실시 예에 따른 메인 표시영역(10)에 라이브 뷰를 서브 표시영역(20)에 특정 컨텐츠를 디스플레이하는 방법을 설명하기 위한 도면이다.10 is a view for explaining a method of displaying a live view in the main display area 10 and a specific content in the sub display area 20 according to an embodiment of the present invention.

도 10에 도시된 바와 같이, 프로세서(130)는 라이브 뷰를 메인 표시영역(10)에 디스플레이하며, 라이브 뷰에 사람이 포함된 것으로 인식되면 서브 표시영역(20)에 애니메이션을 디스플레이하도록 디스플레이(110)를 제어할 수 있다. 예를 들어, 프로세서(130)는 라이브 뷰에 어린이가 인식되면 서브 표시영역(20)에 어린이용 애니메이션 또는 동물 이미지 등을 디스플레이할 수 있다. 프로세서(130)는 서브 표시영역(20)에 디스플레이되는 컨텐츠에 대응되는 사운드를 출력할 수도 있다. 이로써, 촬영되고 있는 사람의 시선이 사용자 단말 장치(100) 방향을 향하도록 할 수 있다.10, the processor 130 displays the live view in the main display area 10 and displays the animation in the sub display area 20 when it is recognized that the live view is included in the display 110 Can be controlled. For example, the processor 130 may display a child animation or an animal image in the sub display area 20 when a child is recognized in the live view. The processor 130 may output a sound corresponding to the content displayed in the sub display area 20. [ Thereby, it is possible to orient the line of sight of the person being photographed toward the user terminal device 100.

프로세서(130)는 라이브 뷰에 인식된 사람의 연령대 및 성별 중 적어도 하나에 기초하여 서브 표시영역(20)에 디스플레이될 컨텐츠를 결정할 수 있다. 예를 들어, 프로세서(130)는 라이브 뷰에 인식된 사람이 여자인 경우, 서브 표시영역(20)에 귀금속 등을 디스플레이할 수도 있다.The processor 130 may determine the content to be displayed in the sub display area 20 based on at least one of the age and gender of the person recognized in the live view. For example, the processor 130 may display a precious metal or the like in the sub display area 20 when the person recognized in the live view is an exciter.

프로세서(130)는 라이브 뷰에서 복수의 사람이 인식되면, 복수의 사람 중 가장 가까이에 있는 사람을 기준으로 서브 표시영역(20)에 디스플레이될 컨텐츠를 결정할 수 있다. 또는, 프로세서(130)는 복수의 사람 중 사용자 단말 장치(100)가 아닌 다른 방향으로 시선을 유지하는 사람을 기준으로 서브 표시영역(20)에 디스플레이될 컨텐츠를 결정할 수도 있다. 또는, 프로세서(130)는 라이브 뷰의 중심 영역에 가장 가까이에 위치한 사람을 기준으로 서브 표시영역(20)에 디스플레이될 컨텐츠를 결정할 수도 있다.When a plurality of persons are recognized in the live view, the processor 130 can determine contents to be displayed in the sub display area 20 based on a person who is closest to the plurality of persons. Alternatively, the processor 130 may determine the content to be displayed in the sub display area 20 based on a plurality of people who maintain their gaze in a direction other than the user terminal device 100. Alternatively, the processor 130 may determine the content to be displayed in the sub display area 20 based on the person located closest to the central area of the live view.

도 9 및 도 10에서는 라이브 뷰에서 사람 또는 사람의 얼굴이 인식되는 경우에 대하여 설명하였으나, 이에 한정되는 것은 아니다. 예를 들어, 프로세서(130)는 동물 등이 라이브 뷰에서 인식되더라도 서브 표시영역(20)에 라이브 뷰의 일 영역 또는 애니메이션 등을 디스플레이할 수도 있다. 또는, 프로세서(130)는 사용자의 조작에 따라 서브 표시영역(20)에 라이브 뷰의 일 영역 또는 애니메이션 등을 디스플레이할 수도 있다.In FIGS. 9 and 10, the case where a face of a person or a person is recognized in the live view has been described, but the present invention is not limited thereto. For example, the processor 130 may display one area of the live view, an animation, or the like in the sub display area 20 even if an animal or the like is recognized in the live view. Alternatively, the processor 130 may display one area of the live view, an animation, or the like in the sub display area 20 according to a user's operation.

도 11a 및 도 11b는 라이브 뷰를 디스플레이할 영역을 결정하는 방법의 일 예를 설명하기 위한 도면이다. 프로세서(130)는 피사체까지의 거리를 판단하고, 판단된 거리가 기설정된 거리보다 작으면 라이브 뷰를 서브 표시영역(20)에 디스플레이하고, 판단된 거리가 기설정된 거리보다 크면 라이브 뷰를 메인 표시영역(10)에 디스플레이하도록 디스플레이(110)를 제어할 수 있다.11A and 11B are views for explaining an example of a method for determining an area for displaying a live view. The processor 130 determines the distance to the subject and displays the live view in the sub display area 20 if the determined distance is less than the preset distance. If the determined distance is greater than the preset distance, And to control the display 110 to display in the area 10.

도 11a는 피사체까지의 거리가 기설정된 거리보다 작은 경우를 나타내고, 도 11b는 피사체까지의 거리가 기설정된 거리보다 큰 경우를 나타낸다. 프로세서(130)는 오토 포커싱을 이용하여 피사체까지의 거리를 판단할 수 있다. 또는, 프로세서(130)는 라이브 뷰의 특정 시점의 정지 영상을 분석하여 피사체의 윤곽에 기초하여 피사체까지의 거리를 판단할 수도 있다. 이로써, 사용자가 사용자 단말 장치(100)의 후면을 바라보며 사용자 자신을 촬영하는 경우, 서브 표시영역(20)에 라이브 뷰가 디스플레이되어 촬영될 영상을 확인하며 촬영할 수 있다. 또는, 사용자가 사용자 단말 장치(100)의 전면을 바라보며 다른 사람 또는 풍경 등을 촬영하는 경우, 메인 표시영역(10)에 라이브 뷰가 디스플레이되어 촬영될 영상을 확인하며 촬영할 수 있다.11A shows a case where the distance to the subject is smaller than a predetermined distance, and FIG. 11B shows a case where the distance to the subject is larger than a preset distance. The processor 130 may determine the distance to the subject using autofocusing. Alternatively, the processor 130 may analyze the still image at a specific point in time of the live view to determine the distance to the subject based on the outline of the subject. Thus, when the user views the back side of the user terminal device 100 and photographs the user himself / herself, the live view is displayed in the sub display area 20, so that the user can view and photograph the image to be photographed. Alternatively, when the user views the front side of the user terminal device 100 and photographs another person or scenery, a live view is displayed in the main display area 10 to confirm and photograph the image to be photographed.

다만, 이에 한정되는 것은 아니며, 프로세서(130)는 상술한 방법과 반대의 영역에 라이브 뷰를 디스플레이하거나, 메인 표시영역(10) 및 서브 표시영역(20) 모두에 라이브 뷰를 디스플레이할 수도 있다.However, the present invention is not limited thereto, and the processor 130 may display a live view in an area opposite to the above-described method, or may display a live view in both the main display area 10 and the sub display area 20. [

또는, 프로세서(130)는 사용자의 터치 조작이 이루어지는 영역에 라이브 뷰를 디스플레이할 수도 있다.Alternatively, the processor 130 may display a live view in an area where a touch operation of the user is performed.

또는, 프로세서(130)는 카메라(120)에 의해 촬영된 영상을 분석하여 라이브 뷰를 디스플레이할 영역을 결정할 수도 있다. 예를 들어, 프로세서(130)는 촬영된 이미지로부터 사용자를 인식하여 라이브 뷰를 디스플레이할 영역을 결정할 수도 있다.Alternatively, the processor 130 may analyze the image captured by the camera 120 to determine an area for displaying the live view. For example, the processor 130 may recognize the user from the photographed image and determine the area to display the live view.

또는, 프로세서(130)는 사용자의 홍채 인식을 통해 라이브 뷰를 디스플레이할 영역을 결정할 수도 있다.Alternatively, the processor 130 may determine an area for displaying the live view through iris recognition of the user.

도 12는 본 발명의 일 실시 예에 따른 사용자 단말 장치(100)의 방향이 변경되는 것을 감지하는 방법을 설명하기 위한 도면이다.12 is a diagram for explaining a method of detecting a change in the direction of the user terminal 100 according to an embodiment of the present invention.

도 12에 도시된 바와 같이, 사용자 단말 장치(100)의 방향이 변경되는 경우, 라이브 뷰의 영상이 변경될 수 있다. 사용자 단말 장치(100)는 상술한 바와 같이 복수의 센서를 구비하고 있을 수 있다. 프로세서(130)는 복수의 센서로부터 감지되는 사용자 단말 장치(100)의 위치, 움직임 및 사용자의 그립 중 적어도 하나에 기초하여 사용자 단말 장치(100)의 방향이 변경된 것으로 판단할 수 있다. 예를 들어, 프로세서(130)는 지자기 센서에 의한 사용자 단말 장치(100)의 회전 상태 및 이동 방향 및 자이로 센서에 의한 사용자 단말 장치(100)의 회전각에 기초하여 사용자 단말 장치(100)의 방향이 변경된 것으로 판단할 수 있다.As shown in FIG. 12, when the direction of the user terminal device 100 is changed, the image of the live view can be changed. The user terminal device 100 may include a plurality of sensors as described above. The processor 130 may determine that the direction of the user terminal device 100 has been changed based on at least one of the position, movement, and grip of the user terminal device 100 sensed by the plurality of sensors. For example, the processor 130 determines the orientation of the user terminal device 100 based on the rotation state and the movement direction of the user terminal device 100 by the geomagnetic sensor and the rotation angle of the user terminal device 100 by the gyro sensor Can be judged to have been changed.

프로세서(130)는 사용자 단말 장치(100)가 특정 방향으로 기설정된 각도 이상으로 회전하는 경우, 사용자 단말 장치(100)의 방향이 변경된 것으로 판단할 수 있다. 예를 들어, 프로세서(130)는 사용자 단말 장치(100)가 90° 이상으로 회전하는 경우, 사용자 단말 장치(100)의 방향이 변경된 것으로 판단하고 대응되는 동작을 수행할 수 있다.The processor 130 may determine that the direction of the user terminal device 100 has changed when the user terminal device 100 rotates more than a predetermined angle in a specific direction. For example, when the user terminal device 100 rotates by 90 degrees or more, the processor 130 may determine that the direction of the user terminal device 100 has changed and perform a corresponding operation.

한편, 프로세서(130)는 라이브 뷰에서 기설정된 크기 이상의 사람의 얼굴이 인식되거나, 기설정된 크기 이상의 사람의 얼굴이 인식되는 상태에서 사람의 얼굴이 인식되지 않는 경우, 사용자 단말 장치(100)의 방향이 변경된 것으로 판단할 수도 있다. 도 12는 라이브 뷰의 복수의 정지 영상을 순차적으로 나타낸다. 제1 정지 영상(1210)은 사람이 없는 영상이고, 제2 내지 제4 정지 영상(1220-1240)은 사람이 있는 영상이며, 제5 정지 영상(1250)은 다시 사람이 없는 영상이다. 즉, 도 12는 카메라 앵글을 왼쪽에서 오른쪽으로 이동시켰다가 다시 왼쪽으로 이동시킨 도면이다.If the face of the person is not recognized in a state in which a face of a person of a predetermined size or larger is recognized or a face of a person of a predetermined size or more is recognized in the live view, May be judged to have been changed. 12 shows a plurality of still images of the live view in sequence. The first still image 1210 is a human-free image, the second to fourth still images 1220 to 1240 are human images, and the fifth still image 1250 is a human-free image. That is, FIG. 12 is a diagram in which the camera angle is moved from left to right and then moved to the left.

프로세서(130)는 도 12와 같이 제2 정지 영상(1220)이 디스플레이되는 순간 및 제5 정지 영상(1250)이 디스플레이되는 순간을 사용자 단말 장치(100)의 방향이 변경된 것으로 판단할 수 있다.The processor 130 may determine that the direction of the user terminal 100 is changed at the moment when the second still image 1220 is displayed and at the moment when the fifth still image 1250 is displayed as shown in FIG.

다만, 이에 한정되는 것은 아니며, 프로세서(130)는 사람의 얼굴이 아닌 다른 사물을 기준으로 사용자 단말 장치(100)의 방향이 변경된 것으로 판단할 수도 있다. 예를 들어, 프로세서(130)는 라이브 뷰의 특정 정지 영상으로부터 미끄럼틀의 윤곽을 추출하고, 순차적으로 다음 정지 영상의 미끄럼틀의 윤곽을 추출하여, 미끄럼틀의 윤곽이 라이브 뷰 상의 기설정된 거리 이상으로 이동된 경우에 사용자 단말 장치(100)의 방향이 변경된 것으로 판단할 수 있다.However, the present invention is not limited thereto, and the processor 130 may determine that the direction of the user terminal device 100 is changed based on an object other than a human face. For example, the processor 130 extracts the outline of the slide from a specific still image of the live view, sequentially extracts the outline of the slide of the next still image, and the outline of the slide is moved beyond a predetermined distance on the live view It can be determined that the direction of the user terminal device 100 has been changed.

또는, 프로세서(130)는 사용자 단말 장치(100)가 구비하고 있는 각종 센서를 이용하여 절대 자세를 연속적으로 감지하고, 방향이 변경된 것으로 판단할 수 있다.Alternatively, the processor 130 may continuously detect the absolute posture using various sensors provided in the user terminal device 100, and determine that the direction is changed.

이때, 프로세서(130)는 기준 자세를 결정하고, 기준 자세로부터 기설정된 값 이상으로 자세가 변경되는 경우, 방향이 변경된 것으로 판단할 수 있다. 여기서, 기준 자세는 카메라 어플리케이션이 선택될 때의 자세일 수 있다.At this time, the processor 130 determines the reference posture and can determine that the direction is changed when the posture is changed from the reference posture to a predetermined value or more. Here, the reference posture may be a posture when the camera application is selected.

또는, 프로세서(130)는 사용자의 터치 조작에 따라 사용자 단말 장치(100)가 방향이 변경된 것으로 판단할 수도 있다.Alternatively, the processor 130 may determine that the user terminal device 100 has been changed in accordance with the user's touch operation.

도 13a 및 도 13b는 사용자 단말 장치(100)의 방향 변경에 따른 동작의 일 예를 설명하기 위한 도면이다.13A and 13B are views for explaining an example of an operation according to a direction change of the user terminal device 100. In FIG.

도 13a는 촬영 기능이 실행 중인 상태에서 사용자 단말 장치(100)의 방향이 변경되면 갤러리 앱이 실행되는 것을 나타낸다. 예를 들어, 프로세서(130)는 서브 표시영역(20)에 라이브 뷰를 디스플레이하고, 사용자 단말 장치(100)가 약 180° 회전하는 경우 갤러리 앱을 메인 표시영역(10)에 디스플레이할 수 있다. 또는, 프로세서(130)는 촬영 기능과 전혀 무관한 전화 기능, 인터넷 기능 등을 메인 표시영역(10)에 디스플레이할 수도 있다. 또는, 프로세서(130)는 촬영 기능을 중지시킬 수도 있다.13A shows that the gallery app is executed when the direction of the user terminal device 100 is changed while the photographing function is being executed. For example, the processor 130 may display a live view in the sub display area 20 and display the gallery app in the main display area 10 when the user terminal device 100 rotates about 180 degrees. Alternatively, the processor 130 may display a telephone function, an Internet function, etc., which are not related to the photographing function, in the main display area 10. Alternatively, the processor 130 may stop the photographing function.

또한, 프로세서(130)는 촬영이 수행되어 서브 표시영역(20)에 저장된 영상을 디스플레이하고 있는 상태에서, 사용자가 메인 표시영역(10)을 터치하는 경우 갤러리 앱 또는 보정을 위한 앱을 서브 표시영역(20)에 디스플레이할 수도 있다. 또는, 프로세서(130)는 촬영이 수행되면 순차적으로 촬영된 영상을 서브 표시영역(20)에 디스플레이하고, 사용자의 메인 표시영역(10)을 터치하는 동작으로 영상을 변경하여 디스플레이할 수도 있다.When the user touches the main display area 10 while the image is being displayed and the image stored in the sub display area 20 is being displayed, the processor 130 displays the gallery application or the application for correction in the sub display area (20). Alternatively, the processor 130 may display an image sequentially photographed in the sub display area 20 when the image capturing is performed, and may display the image by changing the image by touching the main display area 10 of the user.

도 13b는 동영상 촬영 기능이 실행 중인 상태에서 사용자 단말 장치(100)의 방향이 변경되면 동영상 촬영 기능이 중지되는 것을 나타낸다. 도 13b의 상측 도면에는 촬영 시간, 동영상 촬영을 종료시키기 위한 GUI(1310) 및 동영상 촬영을 일시정지시키기 위한 GUI(1320)가 도시되어 있다. 사용자는 동영상 촬영을 종료시키기 위한 GUI(1310)를 터치하여 동영상 촬영을 종료시킬 수도 있으나, 사용자 단말 장치(100)의 방향을 변경시켜 동영상 촬영을 종료시킬 수도 있다. 도 13b의 하측 도면에는 현재 촬영이 종료된 동영상의 썸 네일 이미지를 나타내며, 동영상을 실행시키기 위한 GUI(1330)를 터치하여 동영상을 실행시킬 수 있다.13B shows that the moving picture photographing function is stopped when the direction of the user terminal device 100 is changed while the moving picture photographing function is being executed. 13B shows a shooting time, a GUI 1310 for ending movie shooting, and a GUI 1320 for temporarily stopping movie shooting. The user may touch the GUI 1310 to end the moving picture shooting to terminate the moving picture shooting, but may change the direction of the user terminal device 100 to terminate the moving picture shooting. 13B shows a thumbnail image of a moving image which has been photographed at present, and a moving image can be executed by touching the GUI 1330 for executing the moving image.

다만, 이에 한정되는 것은 아니며, 프로세서(130)는 동영상 촬영 중에 메인 표시영역(10)을 터치하여 동영상 촬영을 일시 정지시키거나 종료시킬 수도 있다.However, the present invention is not limited thereto, and the processor 130 may pause or terminate the motion picture shooting by touching the main display area 10 during motion picture shooting.

도 14a 및 도 14b는 촬영 기능을 실행시키기 위한 방법의 일 예를 설명하기 위한 도면이다. 프로세서(130)는 촬영 기능을 나타내는 아이콘을 터치하는 외에 다른 방법을 통해서도 촬영 기능을 실행시킬 수 있다.14A and 14B are diagrams for explaining an example of a method for executing the photographing function. The processor 130 can execute the photographing function by a method other than touching the icon indicating the photographing function.

도 14a는 사용자 단말 장치(100)의 방향이 변경되면 촬영 기능이 실행되는 것을 나타낸다. 예를 들어, 프로세서(130)는 잠금 화면이 메인 표시영역(10)에 디스플레이되어 있는 상태에서, 사용자 단말 장치(100)의 방향이 변경되면 촬영 기능을 실행시키고, 서브 표시영역(20)에 라이브 뷰를 디스플레이할 수 있다. 또는, 프로세서(130)는 메인 표시영역(10)에서 정보를 제공하지 않는 상태에서, 사용자 단말 장치(100)의 방향이 변경되면 촬영 기능을 실행시키고, 서브 표시영역(20)에 라이브 뷰를 디스플레이할 수도 있다.14A shows that the photographing function is executed when the direction of the user terminal device 100 is changed. For example, in a state where the lock screen is displayed in the main display area 10, the processor 130 executes the shooting function when the direction of the user terminal device 100 is changed, You can display the view. Alternatively, when the direction of the user terminal device 100 is changed, the processor 130 executes the photographing function while displaying the live view in the sub display area 20 without providing information in the main display area 10, You may.

도 14b는 서브 표시영역(20)에 스와이프 인터랙션이 감지되면 촬영 기능이 실행되는 것을 나타낸다. 예를 들어, 프로세서(130)는 잠금 화면이 서브 표시영역(20)에 디스플레이되어 있거나 서브 표시영역(20)에서 정보를 제공하지 않는 상태에서, 서브 표시영역(20)에 스와이프 인터랙션이 감지되면 촬영 기능을 실행할 수 있다. 도 14b에는 좌측에서 우측으로의 스와이프 인터랙션을 나타냈으나, 특정 방향으로 한정되는 것은 아니다. 또한, 스와이프 인터랙션 뿐만 아니라 다른 인터랙션을 통해 촬영 기능을 실행하는 것도 가능하다.14B shows that the photographing function is executed when a swipe interaction is detected in the sub display area 20. [ For example, when the swipe interaction is detected in the sub display area 20 in a state where the lock screen is displayed in the sub display area 20 or the information is not provided in the sub display area 20 The photographing function can be executed. FIG. 14B shows the swipe interaction from left to right, but it is not limited to a specific direction. It is also possible to perform shooting functions through swiping interactions as well as other interactions.

도 14a 및 도 14b의 실시 예 외에도 다양한 방법을 통해 촬영 기능이 실행될 수 있다. 예를 들어, 프로세서(130)는 메인 표시영역(10) 및 서브 표시영역(20)이 정보를 제공하지 않는 상태에서 메인 표시영역(10) 및 서브 표시영역(20) 중 적어도 하나를 활성화시키는 경우, 사용자의 의도를 인식하여 촬영 기능을 실행시킬 수도 있다. 프로세서(130)는 특정 영역이 활성화되는 시점의 사용자의 얼굴, 사용자의 제스처 및 그립 형태 중 적어도 하나를 인식하여 촬영 기능을 실행시킬 수 있다. 예를 들어, 사용자가 손가락을 이용하여 "V" 자 모양을 만들고 있는 경우, 프로세서(130)는 촬영 기능을 실행할 수 있다.14A and 14B, the photographing function can be executed by various methods. For example, when the processor 130 activates at least one of the main display region 10 and the sub display region 20 in a state in which the main display region 10 and the sub display region 20 do not provide information , The user can recognize the intention and execute the photographing function. The processor 130 may recognize at least one of the face of the user, the gesture of the user, and the grip shape at the time when the specific area is activated, and execute the shooting function. For example, if the user is making a "V" shape using his or her finger, the processor 130 may execute a photographing function.

도 15는 본 발명의 일 실시 예에 따른 라운드 표시영역(30)을 이용하는 방법을 설명하기 위한 도면이다.15 is a diagram for explaining a method of using the round display area 30 according to an embodiment of the present invention.

도 15에 도시된 바와 같이 라운드 표시영역(30)은 메인 표시영역(10)과 서브 표시영역(20) 사이에 있다. 라운드 표시영역(30)에도 사용자 단말 장치(100)를 제어하기 위한 UI가 디스플레이될 수 있다. 예를 들어, 촬영 기능이 활성화되어 있는 경우에, 프로세서(130)는 라운드 표시영역(30)에 영상을 촬영하고 저장하기 위한 GUI(1520)를 디스플레이할 수 있다. 프로세서(130)는 사용자가 영상을 촬영하고 저장하기 위한 GUI(1520)를 터치하는 경우, 영상을 촬영하여 저장할 수 있다.As shown in FIG. 15, the round display area 30 is located between the main display area 10 and the sub display area 20. The UI for controlling the user terminal device 100 may also be displayed in the round display area 30. For example, when the photographing function is activated, the processor 130 may display the GUI 1520 for photographing and storing the image in the round display area 30. [ The processor 130 can photograph and store an image when the user touches the GUI 1520 for shooting and storing the image.

프로세서(130)는 라운드 표시영역(30)의 좌우 방향(1510-1, 1510-2)의 스와이프 인터랙션이 감지되면 노출 값을 변경하여 라이브 뷰를 디스플레이할 수 있다. 또는, 프로세서(130)는 줌인 또는 줌아웃하여 라이브 뷰를 디스플레이할 수 있다. 다만, 이에 한정되는 것은 아니며, 프로세서(130) 스와이프 인터랙션을 통해 초점을 변경하거나 화이트 밸런스를 변경할 수도 있다.The processor 130 can display the live view by changing the exposure value when the swipe interaction of the left and right directions 1510-1 and 1510-2 of the round display area 30 is detected. Alternatively, the processor 130 may display a live view by zooming in or out. However, the present invention is not limited thereto, and the processor 130 may change the focus or change the white balance through swipe interaction.

다만, 이에 한정되는 것은 아니며, 프로세서(130)는 라운드 표시영역(30)에 대한 스와이프 인터랙션이 감지되면 촬영 기능을 실행할 수도 있다. 또는, 프로세서(130)는 라운드 표시영역(30)을 터치하여 라이브 뷰가 디스플레이되는 영역을 변경할 수도 있다.However, the present invention is not limited thereto, and the processor 130 may execute the photographing function when a swipe interaction with the round display area 30 is detected. Alternatively, the processor 130 may touch the round display area 30 to change the area where the live view is displayed.

프로세서(130)는 특정 알림을 라운드 표시영역(30)에 디스플레이할 수도 있다. 예를 들어, 프로세서(130)는 피사체에 대한 초점이 맞춰지지 않은 경우, 해당 내용을 알리기 위한 알림을 라운드 표시영역(30)에 디스플레이할 수 있다. 프로세서(130)는 사용자가 알림을 터치하면, 피사체의 초점을 맞추기 위해 설정 등을 변경하거나 재시도할 수도 있다.The processor 130 may display a specific notification in the round display area 30. [ For example, when the subject 130 is not focused on the subject, the processor 130 may display a notice in the round display area 30 to inform the subject. When the user touches the notification, the processor 130 may change settings or retry to focus the subject.

도 16은 본 발명의 다른 실시 예에 따른 사용자 단말 장치(100)의 전면에 카메라(120)가 구비된 경우를 설명하기 위한 도면이다.FIG. 16 is a view for explaining a case where a camera 120 is provided on a front surface of a user terminal 100 according to another embodiment of the present invention.

도 16에 도시된 바와 같이 사용자 단말 장치(100)는 메인 표시영역(10)의 아래쪽에 카메라(120)를 구비할 수 있다. 다만, 상술한 실시 예의 대부분의 동작이 메인 표시영역(10)과 서브 표시영역(20)을 반대로 하여 동일하게 적용 가능하며, 구체적인 설명은 생략한다.As shown in FIG. 16, the user terminal 100 may include a camera 120 below the main display area 10. However, most of the operations of the embodiment described above can be applied to the main display region 10 and the sub display region 20 in the opposite manner, and a detailed description thereof will be omitted.

이상에서는 카메라 어플리케이션 위주로 설명하였으나, 다른 어플리케이션에 대하여도 유사한 동작이 가능하다.Although the camera application has been described above, similar operations are possible for other applications.

도 17a 내지 도 17c는 기타 어플리케이션이 이용되는 경우의 일 예를 설명하기 위한 도면이다.17A to 17C are diagrams for explaining an example in which other applications are used.

도 17a에 도시된 바와 같이, 프로세서(130)는 이벤트가 발생하면 이벤트가 발생한 시점의 사용자 단말 장치(100)의 방향에 기초하여 디스플레이 영역을 결정할 수 있다. 예를 들어, 프로세서(130)는 전화 또는 메시지가 수신되면 전화 또는 메시지가 수신된 시점의 사용자 단말 장치(100)의 절대 자세를 감지하여, 기설정된 디스플레이 영역에 전화 또는 메시지의 수신 내용을 디스플레이할 수 있다. 특히, 프로세서(130)는 메인 표시영역(10)이 테이블하고 닿아 있는 경우에 서브 표시영역(20)에 전화 또는 메시지의 수신 내용을 디스플레이할 수 있다.As shown in FIG. 17A, when an event occurs, the processor 130 can determine the display area based on the direction of the user terminal device 100 at the time when the event occurs. For example, when a telephone or a message is received, the processor 130 senses the absolute posture of the user terminal device 100 at the time the telephone or message is received, and displays the contents of the telephone or message in the predetermined display area . In particular, the processor 130 may display the received contents of the telephone or message in the sub display area 20 when the main display area 10 is in contact with the table.

또는, 도 17b에 도시된 바와 같이, 프로세서(130)는 이벤트가 발생하면 이벤트가 발생한 시점의 사용자 위치에 기초하여 디스플레이 영역을 결정할 수도 있다. 예를 들어, 프로세서(130)는 전화 또는 메시지가 수신되면 전화 또는 메시지가 수신된 시점의 사용자의 위치를 카메라(120)를 통해 인식하고, 사용자가 인식되면 서브 표시영역(20)에 전화 또는 메시지의 수신 내용을 디스플레이하고, 사용자가 인식되지 않으면 메인 표시영역(10)에 전화 또는 메시지의 수신 내용을 디스플레이할 수 있다.Alternatively, as shown in FIG. 17B, the processor 130 may determine the display area based on the user position at the time when the event occurs, when the event occurs. For example, when a telephone or a message is received, the processor 130 recognizes the position of the user at the time when the telephone or message is received through the camera 120, and when the user is recognized, And displays the received contents of the telephone or message in the main display area 10 if the user is not recognized.

또는, 도 17c에 도시된 바와 같이, 프로세서(130)는 이벤트가 발생하면 이벤트가 발생한 시점의 사용자 단말 장치(100)의 사용 상태에 기초하여 디스플레이 영역을 결정할 수도 있다. 예를 들어, 프로세서(130)는 사용자가 메인 표시영역(10)을 통해 동영상을 시청하고 있는 상태에서 전화 또는 메시지가 수신되면, 서브 표시영역(20) 또는 라운드 표시영역(30)에 전화 또는 메시지의 수신 내용을 디스플레이할 수 있다.Alternatively, as shown in FIG. 17C, the processor 130 may determine the display area based on the use state of the user terminal device 100 at the time when the event occurs, when the event occurs. For example, when a telephone or a message is received while the user is viewing a moving picture through the main display area 10, the processor 130 displays a telephone or a message (e.g., a message) in the sub display area 20 or the round display area 30 Can be displayed.

한편, 프로세서(130)는 사용자 단말 장치(100)의 방향이 변경되면, 디스플레이 영역을 변경할 수 있다. 예를 들어, 프로세서(130)는 메인 표시영역(10)을 통해 문자 메시지 내용을 확인하는 중에, 사용자 단말 장치(100)의 방향을 변경하여 서브 표시영역(20)을 보는 경우, 서브 표시영역(20)에 문자 메시지 내용을 디스플레이할 수 있다.Meanwhile, the processor 130 may change the display area when the direction of the user terminal device 100 is changed. For example, when the user views the sub display area 20 by changing the direction of the user terminal device 100 while checking the content of the text message through the main display area 10, 20 to display the content of the text message.

상술한 바와 같이, 프로세서(130)는 각종 센서를 이용하거나 카메라(120)를 이용하여 사용자 단말 장치(100)의 방향이 변경된 것으로 판단할 수 있다. 사용자 단말 장치(100)의 방향 변경에 대한 구체적인 설명은 중복되므로 생략한다.As described above, the processor 130 can determine that the direction of the user terminal device 100 has been changed by using various sensors or using the camera 120. The detailed description of the direction change of the user terminal device 100 is redundant and thus omitted.

프로세서(130)는 사용자 단말 장치(100)의 방향이 변경되어 디스플레이 영역이 변경되면, UI를 변경할 수도 있다. 구체적으로, 프로세서(130)는 UI에 포함되는 정보량, 정보 종류 및 레이아웃 중 적어도 하나를 변경할 수 있다. 예를 들어, 프로세서(130)는 문자 메시지를 메인 표시영역(10)에 디스플레이하는 경우 문자 메시지의 내용 뿐만 아니라 새로운 문자 메시지 작성을 위한 UI, 상대방 정보 등을 추가로 디스플레이할 수 있고, 문자 메시지를 서브 표시영역(20)에 디스플레이하는 경우 문자 메시지의 내용만을 디스플레이할 수 있다. 또한, 프로세서(130)는 문자 메시지를 라운드 표시영역(30)에 디스플레이하는 경우 문자 메시지의 일부 내용을 순차적으로 디스플레이할 수도 있다.The processor 130 may change the UI when the direction of the user terminal device 100 is changed to change the display area. Specifically, the processor 130 may change at least one of the amount of information, the type of information, and the layout included in the UI. For example, when displaying a text message on the main display area 10, the processor 130 can additionally display not only the contents of the text message, but also a UI, counterpart information, etc. for creating a new text message, When displaying in the sub display area 20, only the contents of the text message can be displayed. In addition, the processor 130 may sequentially display a part of the text message when the text message is displayed in the round display area 30.

특히, 프로세서(130)는 디스플레이 영역에 따라 제공하는 기능을 변경할 수 있다. 예를 들어, 프로세서(130)는 수신된 문자 메시지를 메인 표시영역(10)에 디스플레이하는 경우 답장 메시지 입력 기능, 수신 메시지 저장 기능, 수신 메시지 삭제 기능 등을 포함하는 UI를 디스플레이할 수 있으나, 수신된 문자 메시지를 라운드 표시영역(30)에 디스플레이하는 경우 수신된 문자 메시지 내용만을 디스플레이하고 다른 기능을 제공하지 않을 수 있다.도 18a 및 도 18b는 디스플레이의 구성의 일 예를 설명하기 위한 도면이다.In particular, the processor 130 may change the functionality provided by the display area. For example, when displaying the received text message on the main display area 10, the processor 130 may display a UI including a reply message input function, a received message storage function, a received message deletion function, When the displayed text message is displayed in the round display area 30, only the received text message content may be displayed, and no other function may be provided. FIGS. 18A and 18B are views for explaining an example of the configuration of the display.

도 18a는 플렉서블 디스플레이를 나타낸다. 사용자는 플렉서블 디스플레이를 접어서 사용할 수 있다. 이 경우, 접혀서 뒤집어진 영역(1810)은 서브 표시영역(20)에 대응되고, 접혀지지 않은 영역(1820)은 메인 표시영역(10)에 대응된다.18A shows a flexible display. The user can fold and use the flexible display. In this case, the folded and inverted area 1810 corresponds to the sub display area 20, and the unfolded area 1820 corresponds to the main display area 10. [

도 18a에서는 뒤집어진 영역(1810)의 면적이 접혀지지 않은 영역(1820)의 면적보다 작은 것으로 도시하였으나, 이에 한정되는 것은 아니다. 예를 들어, 사용자는 플렉서블 디스플레이를 정확히 반으로 접어 사용할 수도 있다.18A, the area of the inverted area 1810 is shown to be smaller than the area of the unfolded area 1820, but is not limited thereto. For example, the user may fold the flexible display exactly halfway.

상술한 실시 예 중 라운드 표시영역(30)을 제외하고, 대부분의 실시 예가 플렉서블 디스플레이에 적용 가능하며, 중복되는 설명이므로 생략한다. 다만, 플렉서블 디스플레이를 두 번 접어 라운드 표시영역(30)을 형성하는 경우, 상술한 라운드 표시영역(30)에 대한 실시 예도 적용 가능하다.Except for the round display area 30 of the above-described embodiments, most embodiments are applicable to the flexible display and are redundant descriptions, so will be omitted. However, in the case where the round display region 30 is formed by folding the flexible display twice, the above-described embodiment for the round display region 30 is also applicable.

도 18b에는 복수의 디스플레이가 앞뒤로 구비되어 있는 사용자 단말 장치(100)를 도시하였다. 이 경우, 전면 디스플레이(1830)는 메인 표시영역(10)에 대응되고, 후면 디스플레이(1840)는 서브 표시영역(20)에 대응된다. 마찬가지로 상술한 실시 예 중 라운드 표시영역(30)을 제외하고, 대부분의 실시 예가 복수의 디스플레이가 앞뒤로 구비되어 있는 사용자 단말 장치(100)에 적용 가능하며, 중복되는 설명이므로 생략한다.18B shows a user terminal 100 in which a plurality of displays are provided back and forth. In this case, the front display 1830 corresponds to the main display area 10, and the rear display 1840 corresponds to the sub display area 20. [ Likewise, most of the embodiments are applicable to the user terminal device 100 in which a plurality of displays are provided back and forth, except for the round display area 30 in the above-described embodiments, and are redundant explanations.

도 19는 본 발명의 일 실시 예에 따른 사용자 단말 장치의 제어 방법을 설명하기 위한 흐름도이다.19 is a flowchart illustrating a method of controlling a user terminal according to an exemplary embodiment of the present invention.

먼저, 카메라를 통해 획득된 라이브 뷰를 사용자 단말 장치의 전면에 배치되는 메인 표시영역 및 메인 표시영역의 일측으로부터 연장되어 사용자 단말 장치의 후면의 적어도 일 영역에 배치되는 서브 표시영역 중 하나에 디스플레이한다(S1910). 그리고, 사용자 단말 장치의 방향(orientation)이 변경되면 라이브 뷰를 메인 표시영역 및 서브 표시영역 중 다른 하나에 디스플레이한다(S1920).First, a live view obtained through a camera is displayed in one of a main display area disposed on the front side of the user terminal and a sub display area extending from one side of the main display area and disposed in at least one area on the back side of the user terminal (S1910). When the orientation of the user terminal device is changed, the live view is displayed on the other of the main display area and the sub display area (S1920).

여기서, 메인 표시영역 및 서브 표시영역 중 하나에 디스플레이하는 단계(S1910)는 메인 표시영역에는 라이브 뷰를 디스플레이하고 서브 표시영역에는 정보를 제공하지 않으며, 메인 표시영역 및 서브 표시영역 중 다른 하나에 디스플레이하는 단계(S1920)는 사용자 단말 장치의 방향이 변경되면 서브 표시영역에는 라이브 뷰를 디스플레이하고, 메인 표시영역에는 정보를 제공하지 않을 수 있다.Here, the step of displaying (S1910) in one of the main display region and the sub display region displays the live view in the main display region, does not provide information in the sub display region, , The live view may be displayed in the sub display area and the information may not be provided in the main display area if the direction of the user terminal device is changed.

한편, 메인 표시영역 및 서브 표시영역 중 다른 하나에 디스플레이하는 단계(S1420)는 서브 표시영역에는 라이브 뷰를 디스플레이하고 메인 표시영역에는 정보를 제공하지 않으며, 메인 표시영역에 사용자 터치가 감지되면, 사용자 터치에 응답하여 영상을 촬영하여 저장하는 단계를 더 포함할 수 있다.On the other hand, in step S1420 of displaying the main display area and the sub display area in another one, the live view is displayed in the sub display area and information is not provided in the main display area. When a user touch is detected in the main display area, And photographing and storing the image in response to the touch.

여기서, 메인 표시영역 내의 어느 한 지점으로부터 기설정된 방향으로의 스와이프 인터랙션이 감지되면, 기설정된 방향에 대응되도록 촬영 설정 값을 변경하는 단계를 더 포함할 수 있다.Here, if the sweeping interaction in a predetermined direction is detected from any one point in the main display area, the step of changing the shooting setting value may correspond to a predetermined direction.

한편, 메인 표시영역 및 서브 표시영역 중 다른 하나에 디스플레이하는 단계(S1920)는 라이브 뷰를 메인 표시영역에 디스플레이하며, 라이브 뷰에서 사람의 얼굴이 포함된 것으로 인식되면, 라이브 뷰에 포함된 얼굴 영역을 서브 표시영역에 디스플레이하는 단계를 더 포함할 수 있다.On the other hand, the step S1920 of displaying the live view on the other of the main display region and the sub display region displays the live view on the main display region. If the face of the person is recognized as being included in the live view, In the sub display area.

여기서, 서브 표시영역에 디스플레이하는 단계는 서브 표시영역의 크기에 대응되도록 라이브 뷰의 일 영역을 크롭(crop)하여 서브 표시영역에 디스플레이할 수 있다.Here, the step of displaying in the sub display area may crop one area of the live view so as to correspond to the size of the sub display area and display it in the sub display area.

또한, 메인 표시영역 및 서브 표시영역 중 다른 하나에 디스플레이하는 단계(S1920)는 라이브 뷰를 메인 표시영역에 디스플레이하며, 라이브 뷰에 사람이 포함된 것으로 인식되면 서브 표시영역에 애니메이션을 디스플레이하는 단계를 더 포함할 수 있다.In addition, displaying the live view on the other of the main display area and the sub display area (S1920) may display the live view on the main display area, and displaying the animation on the sub display area when the live view is recognized as having a person .

한편, 메인 표시영역 및 서브 표시영역 중 하나에 디스플레이하는 단계(S1910)는, 피사체까지의 거리를 판단하고, 판단된 거리가 기설정된 거리보다 작으면 라이브 뷰를 서브 표시영역에 디스플레이하고, 판단된 거리가 기설정된 거리보다 크면 라이브 뷰를 메인 표시영역에 디스플레이할 수 있다.On the other hand, the step S1910 of displaying one of the main display region and the sub display region determines the distance to the subject, displays the live view in the sub display region if the determined distance is smaller than the preset distance, If the distance is greater than the preset distance, the live view can be displayed in the main display area.

한편, 사용자 단말 장치의 위치, 움직임 및 사용자의 그립 중 적어도 하나를 감지하는 단계를 더 포함하고, 메인 표시영역 및 서브 표시영역 중 다른 하나에 디스플레이하는 단계(S1920)는 사용자 단말 장치의 위치, 움직임 및 사용자의 그립 중 적어도 하나에 기초하여 사용자 단말 장치의 방향이 변경된 것으로 판단할 수 있다.The method may further include detecting at least one of a position, a motion, and a user grip of the user terminal, and displaying the other one of the main display region and the sub display region (S1920) And a grip of the user, based on at least one of the grip and the grip of the user.

또한, 메인 표시영역 및 서브 표시영역 중 다른 하나에 디스플레이하는 단계(S1920)는 라이브 뷰에서 기설정된 크기 이상의 사람의 얼굴이 인식되거나, 기설정된 크기 이상의 사람의 얼굴이 인식되는 상태에서 사람의 얼굴이 인식되지 않는 경우, 사용자 단말 장치의 방향이 변경된 것으로 판단할 수 있다.In addition, displaying (S1920) in the other of the main display area and the sub display area may be performed in a state in which a human face of a predetermined size or larger is recognized in the live view, If it is not recognized, it can be determined that the direction of the user terminal device has been changed.

이상과 같은 본 발명의 다양한 실시 예에 따르면, 사용자 단말 장치는 다양한 촬영 상황에 기초하여 사용자 단말 장치의 전면 및 후면에 배치된 디스플레이를 제어하여 사용자가 용이하게 촬영을 수행할 수 있다.According to various embodiments of the present invention as described above, the user terminal device can easily perform the shooting by controlling the display disposed on the front and rear sides of the user terminal device based on various shooting situations.

한편, 이상에서는 촬영 기능이 실행된 경우에 초점을 맞추어 설명하였으나, 이에 한정되는 것은 아니다. 예를 들어, 프로세서는 메인 표시영역에 잠금 화면이 디스플레이되어 있는 상태에서, 사용자 단말 장치의 방향이 변경되면 기설정해둔 어플리케이션이 실행될 수도 있다. 또는, 프로세서는 메인 표시영역에 전화가 수신되고 있는 UI가 디스플레이되어 있는 상태에서, 사용자 단말 장치의 방향이 변경되면 전화를 연결할 수 있다. 프로세서는 통화 중에 사용자 단말 장치가 귀에서 멀어지는 경우, 연락처 등을 디스플레이할 수도 있다.While the above description has focused on the case where the photographing function is executed, the present invention is not limited thereto. For example, in a state where a lock screen is displayed in the main display area, the processor may execute an application previously set when the direction of the user terminal device is changed. Alternatively, the processor can connect the telephone when the direction of the user terminal is changed while the UI in which the telephone is being received is displayed in the main display area. The processor may display a contact or the like when the user terminal is out of the ear during a call.

또는, 프로세서는 백그라운드에서 실행되는 어플리케이션의 실행 상태를 서브 표시영역에 디스플레이할 수도 있다. 예를 들어, 프로세서는 특정 게임이나 음악 어플 등의 실행 상태를 서브 표시영역에 디스플레이하여 전력 소모를 최소화할 수 있다. 또는, 프로세서는 특정 어플리케이션이 실행되어 메인 표시영역에서 디스플레이되고 있는 상태에서, 사용자 단말 장치의 방향이 변경되면 해당 어플리케이션의 필수 기능을 표시하는 UI를 서브 표시영역에 디스플레이할 수도 있다.Alternatively, the processor may display an execution state of an application executed in the background in the sub display area. For example, the processor can display the execution status of a specific game or music application in the sub display area to minimize power consumption. Alternatively, in a state where a specific application is executed and displayed in the main display area, the processor may display a UI displaying essential functions of the application in the sub display area when the direction of the user terminal is changed.

한편, 이상에서는 사용자 단말 장치의 방향이 변경되는 것으로만 설명하였으나, 변경되는 방향에 따라 다른 동작을 수행할 수도 있다. 예를 들어, 사용자 단말 장치의 상측 방향, 하측 방향, 우측 방향, 좌측 방향 각각의 회전에 대하여 다른 기능이 실행될 수 있다. 또는, 사용자 단말 장치가 상측 방향으로 회전하더라도 시계 방향, 시계 반대 방향인지에 따라 다른 기능이 실행될 수도 있다.In the above description, only the direction of the user terminal is changed. However, other operations may be performed according to the changed direction. For example, different functions may be performed for each rotation of the user terminal device in the upward direction, the downward direction, the rightward direction, and the leftward direction. Alternatively, even if the user terminal device rotates in the upward direction, other functions may be performed depending on whether the user terminal device is clockwise or counterclockwise.

한편, 상술한 본 발명의 다양한 실시 예들에 따른 사용자 단말 장치의 전면에 배치되는 메인 표시영역 및 메인 표시영역의 일측으로부터 연장되어 사용자 단말 장치의 후면의 적어도 일 영역에 배치되는 서브 표시영역으로 구성된 디스플레이 및 영상을 촬영하는 카메라를 포함하는 사용자 단말 장치의 제어 방법은 컴퓨터에서 실행 가능한 프로그램 코드로 구현되어 다양한 비일시적 판독 가능 매체(non-transitory computer readable medium)에 저장된 상태로 프로세서에 의해 실행되도록 각 서버 또는 기기들에 제공될 수 있다.The display device includes a main display area disposed on a front surface of a user terminal device according to various embodiments of the present invention and a sub display area extending from one side of the main display area, And a camera for capturing an image may be implemented in a computer-executable program code and stored in various non-transitory computer readable media such that each server Or devices.

일 예로, 카메라를 통해 획득된 라이브 뷰를 메인 표시영역 및 서브 표시영역 중 하나에 디스플레이하는 단계 및 사용자 단말 장치의 방향(orientation)이 변경되면 라이브 뷰를 메인 표시영역 및 서브 표시영역 중 다른 하나에 디스플레이하는 단계를 순차적으로 수행하는 프로그램이 저장된 비일시적 판독 가능 매체(non-transitory computer readable medium)가 제공될 수 있다.For example, displaying the live view acquired through the camera in one of the main display area and the sub display area and displaying the live view on the other one of the main display area and the sub display area when the orientation of the user terminal device is changed A non-transitory computer readable medium may be provided in which a program for sequentially performing the displaying steps is stored.

비일시적 판독 가능 매체란 레지스터, 캐쉬, 메모리 등과 같이 짧은 순간 동안 데이터를 저장하는 매체가 아니라 반영구적으로 데이터를 저장하며, 기기에 의해 판독(reading)이 가능한 매체를 의미한다. 구체적으로는, 상술한 다양한 어플리케이션 또는 프로그램들은 CD, DVD, 하드 디스크, 블루레이 디스크, USB, 메모리카드, ROM 등과 같은 비일시적 판독 가능 매체에 저장되어 제공될 수 있다.A non-transitory readable medium is a medium that stores data for a short period of time, such as a register, cache, memory, etc., but semi-permanently stores data and is readable by the apparatus. In particular, the various applications or programs described above may be stored on non-volatile readable media such as CD, DVD, hard disk, Blu-ray disk, USB, memory card, ROM,

또한, 이상에서는 본 발명의 바람직한 실시 예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시 예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어져서는 안될 것이다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed exemplary embodiments, but, on the contrary, It will be understood by those skilled in the art that various changes in form and detail may be made therein without departing from the spirit and scope of the present invention.

100 : 사용자 단말 장치 110 : 디스플레이
10 : 메인 표시영역 20 : 서브 표시영역
30 : 라운드 표시영역 120: 카메라
130 : 프로세서 140 : 스토리지
145 : GPS 칩 150 : 통신부
155 : 사용자 인터페이스부 160 : 오디오 처리부
170 : 비디오 처리부 180 : 스피커
181 : 버튼 182 : 마이크
100: user terminal device 110: display
10: main display area 20: sub display area
30: Round display area 120: Camera
130: Processor 140: Storage
145: GPS chip 150:
155: user interface unit 160: audio processing unit
170: video processor 180: speaker
181: button 182: microphone

Claims (20)

사용자 단말 장치에 있어서,
상기 사용자 단말 장치의 전면에 배치되는 메인 표시영역 및 상기 메인 표시영역의 일측으로부터 연장되어 상기 사용자 단말 장치의 후면의 적어도 일 영역에 배치되는 서브 표시영역으로 구성된 디스플레이;
영상을 촬영하는 카메라; 및
상기 카메라를 통해 획득된 라이브 뷰를 상기 메인 표시영역 및 상기 서브 표시영역 중 하나에 디스플레이하고, 상기 사용자 단말 장치의 방향(orientation)이 변경되면 상기 라이브 뷰를 상기 메인 표시영역 및 상기 서브 표시영역 중 다른 하나에 디스플레이하도록 상기 디스플레이를 제어하는 프로세서;를 포함하는 사용자 단말 장치.
In a user terminal,
A display configured of a main display area disposed on a front surface of the user terminal device and a sub display area extending from one side of the main display area and disposed in at least one area of a rear surface of the user terminal device;
A camera for capturing an image; And
Displaying the live view acquired through the camera in one of the main display area and the sub display area, and when the orientation of the user terminal is changed, the live view is displayed in the main display area and the sub display area And control the display to display the other one.
제1항에 있어서,
상기 프로세서는,
상기 메인 표시영역에는 상기 라이브 뷰를 디스플레이하고 상기 서브 표시영역에는 정보를 제공하지 않으며, 상기 사용자 단말 장치의 방향이 변경되면 상기 서브 표시영역에는 상기 라이브 뷰를 디스플레이하고, 상기 메인 표시영역에는 정보를 제공하지 않는 것을 특징으로 하는 사용자 단말 장치.
The method according to claim 1,
The processor comprising:
Wherein the live view is displayed in the main display area and information is not provided in the sub display area, and when the direction of the user terminal is changed, the live view is displayed in the sub display area, Wherein the user terminal device does not provide the service.
제1항에 있어서,
상기 프로세서는,
상기 서브 표시영역에는 상기 라이브 뷰를 디스플레이하고 상기 메인 표시영역에는 정보를 제공하지 않으며,
상기 메인 표시영역에 사용자 터치가 감지되면, 상기 사용자 터치에 응답하여 영상을 촬영하여 저장하는 것을 특징으로 하는 사용자 단말 장치.
The method according to claim 1,
The processor comprising:
Wherein the sub-display area displays the live view and does not provide information to the main display area,
Wherein the controller captures and stores an image in response to the user touch when the user touch is detected in the main display area.
제3항에 있어서,
상기 프로세서는,
상기 메인 표시영역 내의 어느 한 지점으로부터 기설정된 방향으로의 스와이프 인터랙션이 감지되면, 상기 기설정된 방향에 대응되도록 촬영 설정 값을 변경하는 것을 특징으로 하는 사용자 단말 장치.
The method of claim 3,
The processor comprising:
And changes an imaging setting value to correspond to the predetermined direction when a swipe interaction in a predetermined direction is sensed from any one point in the main display area.
제1항에 있어서,
상기 프로세서는,
상기 라이브 뷰를 상기 메인 표시영역에 디스플레이하며, 상기 라이브 뷰에서 사람의 얼굴이 포함된 것으로 인식되면, 상기 라이브 뷰에 포함된 얼굴 영역을 상기 서브 표시영역에 디스플레이하도록 상기 디스플레이를 제어하는 것을 특징으로 하는 사용자 단말 장치.
The method according to claim 1,
The processor comprising:
And controls the display to display the face area included in the live view on the sub display area when the live view is recognized as including a human face in the live view. .
제5항에 있어서,
상기 프로세서는,
상기 서브 표시영역의 크기에 대응되도록 상기 라이브 뷰의 일 영역을 크롭(crop)하여 상기 서브 표시영역에 디스플레이하도록 상기 디스플레이를 제어하는 것을 특징으로 하는 사용자 단말 장치.
6. The method of claim 5,
The processor comprising:
And controls the display to crop one area of the live view so as to correspond to the size of the sub display area and display the cropped image in the sub display area.
제1항에 있어서,
상기 프로세서는,
상기 라이브 뷰를 상기 메인 표시영역에 디스플레이하며, 상기 라이브 뷰에 사람이 포함된 것으로 인식되면 상기 서브 표시영역에 애니메이션을 디스플레이하도록 상기 디스플레이를 제어하는 것을 특징으로 하는 사용자 단말 장치.
The method according to claim 1,
The processor comprising:
Controls the display to display the live view in the main display area and to display an animation in the sub display area if it is recognized that the live view is included in the live view.
제1항에 있어서,
상기 프로세서는,
피사체까지의 거리를 판단하고, 상기 판단된 거리가 기설정된 거리보다 작으면 상기 라이브 뷰를 상기 서브 표시영역에 디스플레이하고, 상기 판단된 거리가 기설정된 거리보다 크면 상기 라이브 뷰를 상기 메인 표시영역에 디스플레이하도록 상기 디스플레이를 제어하는 것을 특징으로 하는 사용자 단말 장치.
The method according to claim 1,
The processor comprising:
And displays the live view on the sub display area if the determined distance is less than the preset distance, and if the determined distance is greater than the preset distance, the live view is displayed on the main display area And controls the display to display the display.
제1항에 있어서,
복수의 센서;를 더 포함하고,
상기 프로세서는,
상기 복수의 센서로부터 감지되는 상기 사용자 단말 장치의 위치, 움직임 및 사용자의 그립 중 적어도 하나에 기초하여 상기 사용자 단말 장치의 방향이 변경된 것으로 판단하는 것을 특징으로 하는 사용자 단말 장치.
The method according to claim 1,
Further comprising: a plurality of sensors,
The processor comprising:
Wherein the controller determines that the direction of the user terminal is changed based on at least one of a position, a motion, and a grip of the user terminal detected by the plurality of sensors.
제1항에 있어서,
상기 프로세서는,
상기 라이브 뷰에서 기설정된 크기 이상의 사람의 얼굴이 인식되거나, 상기 기설정된 크기 이상의 사람의 얼굴이 인식되는 상태에서 상기 사람의 얼굴이 인식되지 않는 경우, 상기 사용자 단말 장치의 방향이 변경된 것으로 판단하는 것을 특징으로 하는 사용자 단말 장치.
The method according to claim 1,
The processor comprising:
If it is determined that the face of the user is not recognized in a state where a face of a person of a predetermined size or larger is recognized in the live view or a face of a person of the predetermined size or more is recognized, And the user terminal device.
사용자 단말 장치의 전면에 배치되는 메인 표시영역 및 상기 메인 표시영역의 일측으로부터 연장되어 상기 사용자 단말 장치의 후면의 적어도 일 영역에 배치되는 서브 표시영역으로 구성된 디스플레이 및 영상을 촬영하는 카메라를 포함하는 사용자 단말 장치의 제어 방법에 있어서,
상기 카메라를 통해 획득된 라이브 뷰를 상기 메인 표시영역 및 상기 서브 표시영역 중 하나에 디스플레이하는 단계; 및
상기 사용자 단말 장치의 방향(orientation)이 변경되면 상기 라이브 뷰를 상기 메인 표시영역 및 상기 서브 표시영역 중 다른 하나에 디스플레이하는 단계;를 포함하는 제어 방법.
And a sub display area extending from one side of the main display area and disposed in at least one area of the rear surface of the user terminal device, A method of controlling a terminal apparatus,
Displaying a live view obtained through the camera in one of the main display area and the sub display area; And
And displaying the live view on the other of the main display area and the sub display area when the orientation of the user terminal device is changed.
제11항에 있어서,
상기 메인 표시영역 및 상기 서브 표시영역 중 하나에 디스플레이하는 단계는,
상기 메인 표시영역에는 상기 라이브 뷰를 디스플레이하고 상기 서브 표시영역에는 정보를 제공하지 않으며,
상기 메인 표시영역 및 상기 서브 표시영역 중 다른 하나에 디스플레이하는 단계는,
상기 사용자 단말 장치의 방향이 변경되면 상기 서브 표시영역에는 상기 라이브 뷰를 디스플레이하고, 상기 메인 표시영역에는 정보를 제공하지 않는 것을 특징으로 하는 제어 방법.
12. The method of claim 11,
Wherein the displaying in one of the main display region and the sub display region comprises:
Wherein the main display area displays the live view and does not provide information to the sub display area,
Wherein the displaying on the other of the main display area and the sub display area comprises:
Wherein when the direction of the user terminal device is changed, the live view is displayed in the sub display area and information is not provided in the main display area.
제11항에 있어서,
상기 메인 표시영역 및 상기 서브 표시영역 중 다른 하나에 디스플레이하는 단계는,
상기 서브 표시영역에는 상기 라이브 뷰를 디스플레이하고 상기 메인 표시영역에는 정보를 제공하지 않으며,
상기 메인 표시영역에 사용자 터치가 감지되면, 상기 사용자 터치에 응답하여 영상을 촬영하여 저장하는 단계;를 더 포함하는 것을 특징으로 하는 제어 방법.
12. The method of claim 11,
Wherein the displaying on the other of the main display area and the sub display area comprises:
Wherein the sub-display area displays the live view and does not provide information to the main display area,
Further comprising photographing and storing an image in response to the user touch when the user touch is detected in the main display area.
제13항에 있어서,
상기 메인 표시영역 내의 어느 한 지점으로부터 기설정된 방향으로의 스와이프 인터랙션이 감지되면, 상기 기설정된 방향에 대응되도록 촬영 설정 값을 변경하는 단계;를 더 포함하는 것을 특징으로 하는 제어 방법.
14. The method of claim 13,
Further comprising changing a photographing setting value to correspond to the predetermined direction when a sweeping interaction in a predetermined direction is sensed from any one point in the main display area.
제11항에 있어서,
상기 메인 표시영역 및 상기 서브 표시영역 중 다른 하나에 디스플레이하는 단계는,
상기 라이브 뷰를 상기 메인 표시영역에 디스플레이하며,
상기 라이브 뷰에서 사람의 얼굴이 포함된 것으로 인식되면, 상기 라이브 뷰에 포함된 얼굴 영역을 상기 서브 표시영역에 디스플레이하는 단계;를 더 포함하는 것을 특징으로 하는 제어 방법.
12. The method of claim 11,
Wherein the displaying on the other of the main display area and the sub display area comprises:
Displays the live view in the main display area,
And displaying the face area included in the live view in the sub display area if it is recognized that the face of the person is included in the live view.
제15항에 있어서,
상기 서브 표시영역에 디스플레이하는 단계는,
상기 서브 표시영역의 크기에 대응되도록 상기 라이브 뷰의 일 영역을 크롭(crop)하여 상기 서브 표시영역에 디스플레이하는 것을 특징으로 하는 제어 방법.
16. The method of claim 15,
Wherein the displaying in the sub display area comprises:
Wherein one area of the live view is cropped so as to correspond to the size of the sub display area and displayed in the sub display area.
제11항에 있어서,
상기 메인 표시영역 및 상기 서브 표시영역 중 다른 하나에 디스플레이하는 단계는,
상기 라이브 뷰를 상기 메인 표시영역에 디스플레이하며,
상기 라이브 뷰에 사람이 포함된 것으로 인식되면 상기 서브 표시영역에 애니메이션을 디스플레이하는 단계;를 더 포함하는 것을 특징으로 하는 제어 방법.
12. The method of claim 11,
Wherein the displaying on the other of the main display area and the sub display area comprises:
Displays the live view in the main display area,
And displaying an animation in the sub display area if it is recognized that the live view includes a person.
제11항에 있어서,
상기 메인 표시영역 및 상기 서브 표시영역 중 하나에 디스플레이하는 단계는,
피사체까지의 거리를 판단하고, 상기 판단된 거리가 기설정된 거리보다 작으면 상기 라이브 뷰를 상기 서브 표시영역에 디스플레이하고, 상기 판단된 거리가 기설정된 거리보다 크면 상기 라이브 뷰를 상기 메인 표시영역에 디스플레이하는 것을 특징으로 하는 제어 방법.
12. The method of claim 11,
Wherein the displaying in one of the main display region and the sub display region comprises:
And displays the live view on the sub display area if the determined distance is less than the preset distance, and if the determined distance is greater than the preset distance, the live view is displayed on the main display area And displaying the image.
제11항에 있어서,
상기 사용자 단말 장치의 위치, 움직임 및 사용자의 그립 중 적어도 하나를 감지하는 단계;를 더 포함하고,
상기 메인 표시영역 및 상기 서브 표시영역 중 다른 하나에 디스플레이하는 단계는,
상기 사용자 단말 장치의 위치, 움직임 및 사용자의 그립 중 적어도 하나에 기초하여 상기 사용자 단말 장치의 방향이 변경된 것으로 판단하는 것을 특징으로 하는 제어 방법.
12. The method of claim 11,
Detecting at least one of a position, a motion of the user terminal, and a grip of the user;
Wherein the displaying on the other of the main display area and the sub display area comprises:
Wherein the control unit determines that the direction of the user terminal is changed based on at least one of a position, a motion, and a grip of the user terminal.
제11항에 있어서,
상기 메인 표시영역 및 상기 서브 표시영역 중 다른 하나에 디스플레이하는 단계는,
상기 라이브 뷰에서 기설정된 크기 이상의 사람의 얼굴이 인식되거나, 상기 기설정된 크기 이상의 사람의 얼굴이 인식되는 상태에서 상기 사람의 얼굴이 인식되지 않는 경우, 상기 사용자 단말 장치의 방향이 변경된 것으로 판단하는 것을 특징으로 하는 제어 방법.
12. The method of claim 11,
Wherein the displaying on the other of the main display area and the sub display area comprises:
If it is determined that the face of the user is not recognized in a state where a face of a person of a predetermined size or larger is recognized in the live view or a face of a person of the predetermined size or more is recognized, Wherein the control method comprises:
KR1020160001684A 2015-07-29 2016-01-06 User terminal apparatus and control method thereof KR102174740B1 (en)

Priority Applications (5)

Application Number Priority Date Filing Date Title
US15/176,630 US9936138B2 (en) 2015-07-29 2016-06-08 User terminal apparatus and control method thereof
US15/915,696 US10645292B2 (en) 2015-07-29 2018-03-08 User terminal apparatus and control method thereof
US16/834,848 US10701273B1 (en) 2015-07-29 2020-03-30 User terminal apparatus and control method thereof
US16/890,480 US11284003B2 (en) 2015-07-29 2020-06-02 User terminal apparatus and control method thereof
KR1020200142850A KR102308201B1 (en) 2015-07-29 2020-10-30 User terminal apparatus and control method thereof

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201562198360P 2015-07-29 2015-07-29
US62/198,360 2015-07-29

Related Child Applications (1)

Application Number Title Priority Date Filing Date
KR1020200142850A Division KR102308201B1 (en) 2015-07-29 2020-10-30 User terminal apparatus and control method thereof

Publications (2)

Publication Number Publication Date
KR20170015089A true KR20170015089A (en) 2017-02-08
KR102174740B1 KR102174740B1 (en) 2020-11-06

Family

ID=58155587

Family Applications (2)

Application Number Title Priority Date Filing Date
KR1020160001684A KR102174740B1 (en) 2015-07-29 2016-01-06 User terminal apparatus and control method thereof
KR1020200142850A KR102308201B1 (en) 2015-07-29 2020-10-30 User terminal apparatus and control method thereof

Family Applications After (1)

Application Number Title Priority Date Filing Date
KR1020200142850A KR102308201B1 (en) 2015-07-29 2020-10-30 User terminal apparatus and control method thereof

Country Status (1)

Country Link
KR (2) KR102174740B1 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021015337A1 (en) * 2019-07-24 2021-01-28 엘지전자 주식회사 Method for switching between front camera and rear camera in mobile terminal and same mobile terminal
CN112839115A (en) * 2019-11-22 2021-05-25 北京小米移动软件有限公司 Flexible screen module, terminal device and shooting method
US11086500B2 (en) 2018-11-29 2021-08-10 Samsung Electronics Co., Ltd. Foldable electronic device and method for displaying information in foldable electronic device
WO2022030921A1 (en) * 2020-08-04 2022-02-10 삼성전자 주식회사 Electronic device, and method for controlling screen thereof
WO2022092633A1 (en) * 2020-10-30 2022-05-05 삼성전자 주식회사 Method and device for photography guidance of flexible display
US12143708B2 (en) 2020-10-30 2024-11-12 Samsung Electronics Co., Ltd. Method and device for photography guidance of flexible display

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11983355B2 (en) 2020-11-18 2024-05-14 Samsung Electronics Co., Ltd. Electronic device comprising flexible display and operation method thereof

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003198676A (en) * 2001-12-28 2003-07-11 Kenwood Corp Portable terminal apparatus
KR20100050391A (en) * 2008-11-05 2010-05-13 소니 주식회사 Imaging apparatus and display control method thereof
KR20110062991A (en) * 2009-12-04 2011-06-10 삼성전자주식회사 Digital photographing apparatus, mdthod for controlling the same
JP2014060501A (en) * 2012-09-14 2014-04-03 Canon Inc Photographing control device and control method of imaging device
JP2014161066A (en) * 2014-04-09 2014-09-04 Olympus Imaging Corp Imaging apparatus and mode switching method in the same

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101661526B1 (en) * 2012-04-08 2016-10-04 삼성전자주식회사 Flexible display apparatus and user interface providing method thereof

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003198676A (en) * 2001-12-28 2003-07-11 Kenwood Corp Portable terminal apparatus
KR20100050391A (en) * 2008-11-05 2010-05-13 소니 주식회사 Imaging apparatus and display control method thereof
KR20110062991A (en) * 2009-12-04 2011-06-10 삼성전자주식회사 Digital photographing apparatus, mdthod for controlling the same
JP2014060501A (en) * 2012-09-14 2014-04-03 Canon Inc Photographing control device and control method of imaging device
JP2014161066A (en) * 2014-04-09 2014-09-04 Olympus Imaging Corp Imaging apparatus and mode switching method in the same

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11086500B2 (en) 2018-11-29 2021-08-10 Samsung Electronics Co., Ltd. Foldable electronic device and method for displaying information in foldable electronic device
WO2021015337A1 (en) * 2019-07-24 2021-01-28 엘지전자 주식회사 Method for switching between front camera and rear camera in mobile terminal and same mobile terminal
CN112839115A (en) * 2019-11-22 2021-05-25 北京小米移动软件有限公司 Flexible screen module, terminal device and shooting method
CN112839115B (en) * 2019-11-22 2022-04-08 北京小米移动软件有限公司 Flexible screen module, terminal device and shooting method
US11588962B2 (en) 2019-11-22 2023-02-21 Beijing Xiaomi Mobile Software Co., Ltd. Flexible screen module, terminal device and photographing method
WO2022030921A1 (en) * 2020-08-04 2022-02-10 삼성전자 주식회사 Electronic device, and method for controlling screen thereof
US12101550B2 (en) 2020-08-04 2024-09-24 Samsung Electronics Co., Ltd. Electronic device and method for controlling screen thereof
WO2022092633A1 (en) * 2020-10-30 2022-05-05 삼성전자 주식회사 Method and device for photography guidance of flexible display
US12143708B2 (en) 2020-10-30 2024-11-12 Samsung Electronics Co., Ltd. Method and device for photography guidance of flexible display

Also Published As

Publication number Publication date
KR102308201B1 (en) 2021-10-05
KR20200128493A (en) 2020-11-13
KR102174740B1 (en) 2020-11-06

Similar Documents

Publication Publication Date Title
US10701273B1 (en) User terminal apparatus and control method thereof
US11137890B2 (en) Display apparatus and method for displaying
US10326866B2 (en) Electronic device and method for controlling the electronic device thereof
KR102308201B1 (en) User terminal apparatus and control method thereof
KR102104053B1 (en) User termincal device for supporting user interaxion and methods thereof
US9594945B2 (en) Method and apparatus for protecting eyesight
US10416883B2 (en) User terminal apparatus and controlling method thereof
KR101969424B1 (en) Photographing device for displaying image and methods thereof
US11157127B2 (en) User terminal apparatus and controlling method thereof
KR102146858B1 (en) Photographing apparatus and method for making a video
KR20150094479A (en) User terminal device and method for displaying thereof
US10095384B2 (en) Method of receiving user input by detecting movement of user and apparatus therefor
US9538086B2 (en) Method of performing previewing and electronic device for implementing the same
KR20170059242A (en) Image display apparatus and operating method for the same
CN112383808A (en) Video playing method, device, terminal and storage medium
US11243687B2 (en) User terminal apparatus and controlling method thereof
US11284003B2 (en) User terminal apparatus and control method thereof
CN108664300B (en) Application interface display method and device in picture-in-picture mode
EP3285469B1 (en) Portable terminal capable of controlling brightness thereof, and brightness control method for same
CN113613053B (en) Video recommendation method and device, electronic equipment and storage medium
EP3287886A1 (en) User terminal apparatus and controlling method thereof
KR20170017850A (en) User terminal apparatus and control method thereof
CN112486371B (en) Application icon dragging method and device and storage medium
CN110694270A (en) Video stream display method, device and system
EP3287887A1 (en) User terminal apparatus and controlling method thereof

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right