[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

KR101967647B1 - Mobile terminal and control method thereof - Google Patents

Mobile terminal and control method thereof Download PDF

Info

Publication number
KR101967647B1
KR101967647B1 KR1020120129717A KR20120129717A KR101967647B1 KR 101967647 B1 KR101967647 B1 KR 101967647B1 KR 1020120129717 A KR1020120129717 A KR 1020120129717A KR 20120129717 A KR20120129717 A KR 20120129717A KR 101967647 B1 KR101967647 B1 KR 101967647B1
Authority
KR
South Korea
Prior art keywords
information
main body
unit
image
status information
Prior art date
Application number
KR1020120129717A
Other languages
Korean (ko)
Other versions
KR20140062851A (en
Inventor
김종환
이리나
김원
윤영일
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to KR1020120129717A priority Critical patent/KR101967647B1/en
Publication of KR20140062851A publication Critical patent/KR20140062851A/en
Application granted granted Critical
Publication of KR101967647B1 publication Critical patent/KR101967647B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72448User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions
    • H04M1/72454User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions according to context-related or environment-related conditions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/52Details of telephonic subscriber devices including functional features of a camera

Landscapes

  • Engineering & Computer Science (AREA)
  • Environmental & Geological Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Telephone Function (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

본 발명은 영상을 획득할 수 있는 이동 단말기 및 그것의 제어 방법에 관한 것이다. 본 발명의 일 실시 예에 따른 이동 단말기는, 단말기 본체; 영상들을 저장하도록 형성되는 메모리부; 영상을 촬영하도록 형성되는 카메라부; 및 상기 메모리부 및 상기 카메라부 중 적어도 하나로부터 영상을 획득하고, 상기 획득된 영상을 분석하며, 분석 결과를 이용하여 상기 본체의 상황 정보를 인식하며, 상기 본체의 상황 정보에 대응하는 설정 정보를 이용하여 상기 본체를 제어하는 제어부를 포함한다.The present invention relates to a mobile terminal capable of acquiring an image and a control method thereof. A mobile terminal according to an embodiment of the present invention includes: a terminal body; A memory unit configured to store images; A camera unit configured to capture an image; And acquiring an image from at least one of the memory unit and the camera unit, analyzing the obtained image, recognizing the status information of the main body using the analysis result, and setting information corresponding to the status information of the main body And a control unit for controlling the main body by using the main body.

Description

이동 단말기 및 그것의 제어 방법{MOBILE TERMINAL AND CONTROL METHOD THEREOF}[0001] MOBILE TERMINAL AND CONTROL METHOD THEREOF [0002]

본 발명은 이동 단말기에 관한 것으로, 좀 더 구체적으로 영상을 획득할 수 있는 이동 단말기 및 그것의 제어 방법에 관한 것이다.The present invention relates to a mobile terminal, and more particularly, to a mobile terminal capable of acquiring an image and a control method thereof.

단말기(terminal)는 이동 가능 여부에 따라 이동 단말기(mobile/portable terminal) 및 고정 단말기(stationary terminal)로 나뉠 수 있다. 다시 이동 단말기는 사용자의 직접 휴대 가능 여부에 따라 휴대(형) 단말기(handheld terminal) 및 거치형 단말기(vehicle mount terminal)로 나뉠 수 있다.The terminal is movable And may be divided into a mobile / portable terminal and a stationary terminal depending on whether the mobile terminal is a mobile terminal or a mobile terminal. The mobile terminal can be divided into a handheld terminal and a vehicle mount terminal according to whether the user can directly carry the mobile terminal.

이와 같은 단말기는 기능이 다양화됨에 따라, 예를 들어, 사진이나 동영상의 촬영, 음악이나 동영상 파일의 재생, 게임, 방송의 수신 등의 복합적인 기능들을 갖춘 멀티미디어 기기(Multimedia player) 형태로 구현되고 있다. 나아가 단말기의 기능 지지 및 증대를 위해, 단말기의 구조적인 부분 및 소프트웨어적인 부분을 개량하는 것이 고려될 수 있다.As the functions of the terminal are diversified, the terminal is implemented in the form of a multimedia device having a combination of functions such as photographing and photographing of a moving picture, reproduction of a music or video file, reception of a game and broadcasting, have. Further, in order to support and enhance the function of the terminal, it may be considered to improve the structural and software parts of the terminal.

한편, 사용자의 현재 위치 정보 및 현재 시간 정보에 따라 사용자가 원하는 단말기의 설정 정보가 달라질 수 있는데, 그럼에도 불구하고, 사용자가 직접 단말기의 설정을 변경하지 않는 이상 단말기의 설정 정보는 항상 일정하다는 문제점이 있었다. 즉, 사용자의 현재 위치 정보 및 현재 시각 정보에 따라 사용자가 단말기의 설정을 직접 변경해야 하는 불편함이 있었다.On the other hand, the setting information of the terminal desired by the user may vary according to the current location information of the user and the current time information. Nevertheless, there is a problem that the setting information of the terminal is always constant unless the user directly changes the setting of the terminal there was. That is, there has been an inconvenience that the user has to directly change the setting of the terminal according to the current location information and the current time information of the user.

본 발명의 목적은 단말기의 설정을 변경함에 있어서 사용자의 편의를 향상시킬 수 있는 이동 단말기 및 그것의 제어 방법을 제공하는 데 있다.SUMMARY OF THE INVENTION It is an object of the present invention to provide a mobile terminal and a control method thereof that can improve user's convenience in changing a setting of a terminal.

본 발명의 일 실시 예에 따른 이동 단말기는, 단말기 본체; 영상들을 저장하도록 형성되는 메모리부; 영상을 촬영하도록 형성되는 카메라부; 및 상기 메모리부 및 상기 카메라부 중 적어도 하나로부터 영상을 획득하고, 상기 획득된 영상을 분석하며, 분석 결과를 이용하여 상기 본체의 상황 정보를 인식하며, 상기 본체의 상황 정보에 대응하는 설정 정보를 이용하여 상기 본체를 제어하는 제어부를 포함한다.A mobile terminal according to an embodiment of the present invention includes: a terminal body; A memory unit configured to store images; A camera unit configured to capture an image; And acquiring an image from at least one of the memory unit and the camera unit, analyzing the obtained image, recognizing the status information of the main body using the analysis result, and setting information corresponding to the status information of the main body And a control unit for controlling the main body by using the main body.

실시 예에 있어서, 상기 제어부는, 외부로부터 입력 받은 제어 명령에 근거하여, 상기 메모리부에 저장된 영상들 중 선택 받은 영상 및 상기 카메라부를 통해 촬영된 영상 중 적어도 하나를 획득할 수 있다.In an embodiment, the control unit may acquire at least one of images selected through the camera unit and images selected from the images stored in the memory unit, based on a control command input from the outside.

실시 예에 있어서, 상기 제어부는, 상기 획득된 영상에 포함된 적어도 하나의 객체를 검출하고, 상기 검출된 객체를 분석하여, 복수의 상황 정보 중 어느 하나를 상기 본체의 상황 정보로 결정할 수 있다.In an embodiment, the control unit may detect at least one object included in the acquired image, analyze the detected object, and determine one of the plurality of status information as the status information of the main body.

실시 예에 있어서, 상기 제어부는, 상기 검출된 객체의 분석 결과, 상기 복수의 상황 정보 중 상기 본체에 매칭되는 상황 정보가 없는 경우, 상기 본체에 매칭되는 상황 정보 및 설정 정보를 입력 받고, 상기 입력 받은 상황 정보 및 설정 정보를 상기 메모리부에 저장할 수 있다.In the embodiment, the controller may receive context information and setting information matched to the main body when there is no context information matching the main body among the plurality of context information as a result of the detection of the detected object, The received status information and setting information can be stored in the memory unit.

실시 예에 있어서, 상기 이동 단말기는, 슬립 모드를 해제하기 위한 제어 명령을 입력 받는 사용자 입력부를 더 포함하고, 상기 제어부는, 상기 사용자 입력부를 통해 상기 슬립 모드를 해제하기 위한 제어 명령을 입력 받는 경우, 상기 카메라부를 활성화하고, 상기 카메라부가 영상을 촬영하도록 상기 카메라부를 제어할 수 있다.In an exemplary embodiment, the mobile terminal may further include a user input unit for receiving a control command for releasing the sleep mode, and the control unit may receive a control command for releasing the sleep mode through the user input unit , The camera unit may be activated and the camera unit may be controlled to photograph the camera unit.

실시 예에 있어서, 상기 이동 단말기는, 상기 본체의 위치 정보 및 시간 정보 중 적어도 하나를 수신하는 무선 통신부를 더 포함하고, 상기 제어부는, 상기 수신된 위치 정보 및 시간 정보 중 적어도 하나에 근거하여, 상기 카메라부를 활성화할지 여부를 결정할 수 있다.In an exemplary embodiment, the mobile terminal may further include a wireless communication unit that receives at least one of position information and time information of the main body, and the control unit controls the wireless communication unit based on at least one of the received position information and time information, It is possible to determine whether to activate the camera unit.

실시 예에 있어서, 상기 제어부는, 위성 항법 장치(Global Positioning System, GPS)로부터 수신된 위치 정보 및 액세스 포인트(Access Point, AP)와의 무선 통신을 통해 수집된 위치 정보 중 적어도 하나를 이용하여 상기 본체의 위치 정보를 결정할 수 있다.In an exemplary embodiment, the control unit may use at least one of position information received from a Global Positioning System (GPS) and location information collected through wireless communication with an Access Point (AP) Can be determined.

실시 예에 있어서, 상기 제어부는, 발생된 이벤트를 모니터링하고, 상기 발생된 이벤트의 종류에 따라 상기 카메라부를 활성화할지 여부를 결정할 수 있다.In an exemplary embodiment, the controller may monitor the generated event and determine whether to activate the camera unit according to the type of the generated event.

실시 예에 있어서, 상기 이동 단말기는, 음성 신호를 입력 받는 마이크를 더 포함하고, 상기 제어부는, 상기 마이크를 통해 입력 받은 음성 신호를 분석하고, 분석 결과에 따라 상기 카메라부를 활성화할지 여부를 결정할 수 있다.In an embodiment, the mobile terminal may further include a microphone for receiving a voice signal, the control unit may analyze the voice signal input through the microphone and determine whether to activate the camera unit according to the analysis result have.

실시 예에 있어서, 상기 제어부는, 상기 본체의 상황 정보를 결정하고 나서 기 설정된 시간이 지나면, 상기 카메라부를 활성화하고, 상기 카메라부가 영상을 촬영하도록 상기 카메라부를 제어할 수 있다.In an embodiment, the control unit may activate the camera unit and control the camera unit to photograph the camera unit image after a predetermined time elapses after determining the status information of the main body.

실시 예에 있어서, 상기 제어부는, 상기 본체의 상황 정보에 대응하는 설정 정보를 이용하여 적어도 하나의 애플리케이션을 추천하고, 상기 추천된 애플리케이션을 이용하여 상기 본체를 제어할 수 있다.In an embodiment, the control unit may recommend at least one application using setting information corresponding to the status information of the main body, and may control the main body using the recommended application.

실시 예에 있어서, 상기 제어부는, 상기 추천된 애플리케이션을 실행하거나, 상기 추천된 애플리케이션을 이용하여 상기 본체의 설정을 변경하거나, 상기 추천된 애플리케이션에 대응하는 아이콘을 디스플레이부에 표시할 수 있다.In an embodiment, the control unit may execute the recommended application, change the setting of the main body using the recommended application, or display an icon corresponding to the recommended application on the display unit.

실시 예에 있어서, 상기 메모리부는, 상기 복수의 상황 정보 각각에 최적화된 애플리케이션의 정보를 저장하고, 상기 제어부는, 상기 본체의 상황 정보에 매칭되는 애플리케이션을 상기 메모리부로부터 추천할 수 있다.In an embodiment, the memory unit may store information of an application optimized for each of the plurality of context information, and the control unit may recommend an application matching the context information of the main body from the memory unit.

실시 예에 있어서, 상기 제어부는, 사용자의 선택 및 사용 이력 정보 중 적어도 하나에 근거하여, 상기 복수의 상황 정보 각각에 최적화된 애플리케이션의 정보를 결정하고, 상기 결정된 정보를 상기 메모리부에 저장할 수 있다.In an embodiment, the control unit may determine information of an application optimized for each of the plurality of situation information based on at least one of user selection and use history information, and store the determined information in the memory unit .

본 발명의 일 실시 예는 단말기 본체를 구비하는 이동 단말기의 제어 방법에 관한 것이다. 상기 이동 단말기의 제어 방법은, 영상을 획득하는 단계; 상기 획득된 영상을 분석하고, 분석 결과를 이용하여 상기 본체의 상황 정보를 인식하는 단계; 및 상기 본체의 상황 정보에 대응하는 설정 정보를 이용하여 상기 본체를 제어하는 단계를 포함한다.An embodiment of the present invention relates to a control method of a mobile terminal having a terminal main body. The control method of the mobile terminal includes: acquiring an image; Analyzing the acquired image and recognizing the status information of the main body using the analysis result; And controlling the main body using setting information corresponding to the status information of the main body.

실시 예에 있어서, 상기 영상을 획득하는 단계는, 외부로부터 입력 받은 제어 명령에 근거하여, 메모리부에 저장된 영상들 중 선택 받은 영상 및 카메라부를 통해 촬영된 영상 중 적어도 하나를 획득하는 단계를 포함할 수 있다.In one embodiment, the step of acquiring the image may include acquiring at least one of the images selected through the camera unit and images selected from the images stored in the memory unit based on a control command input from the outside .

실시 예에 있어서, 상기 획득된 영상을 분석하고, 분석 결과를 이용하여 상기 본체의 상황 정보를 인식하는 단계는, 상기 획득된 영상에 포함된 적어도 하나의 객체를 검출하는 단계; 및 상기 검출된 객체를 분석하여, 복수의 상황 정보 중 어느 하나를 상기 본체의 상황 정보로 결정하는 단계를 포함할 수 있다.The step of analyzing the acquired image and recognizing the status information of the main body using the analysis result may include detecting at least one object included in the acquired image, And analyzing the detected object to determine any one of the plurality of pieces of context information as the context information of the main body.

실시 예에 있어서, 상기 본체의 상황 정보에 대응하는 설정 정보를 이용하여 상기 본체를 제어하는 단계는, 상기 본체의 상황 정보에 대응하는 설정 정보를 이용하여 적어도 하나의 애플리케이션을 추천하는 단계; 및 상기 추천된 애플리케이션을 이용하여 상기 본체를 제어하는 단계를 포함할 수 있다.The step of controlling the main body using the setting information corresponding to the status information of the main body may include recommending at least one application using the setting information corresponding to the main body status information, And controlling the main body using the recommended application.

본 발명에 의하면, 이동 단말기 본체의 상황 정보에 근거하여 이동 단말기의 설정 정보가 자동으로 변경될 수 있다. 즉, 사용자의 현재 상황을 고려한 사용자 인터페이스가 사용자에게 제공될 수 있다. 이에 따라, 현재 상황에 최적화되도록 이동 단말기의 설정을 변경함에 있어, 사용자의 조작이 줄어들 수 있다.According to the present invention, the setting information of the mobile terminal can be automatically changed based on the status information of the mobile terminal. That is, a user interface considering the current state of the user can be provided to the user. Accordingly, in changing the setting of the mobile terminal to be optimized for the current situation, the operation of the user can be reduced.

또한, 본 발명에 의하면, 이동 단말기의 카메라부로부터 촬영된 영상을 이용하여 현재 이동 단말기 본체의 상황 정보가 검출될 수 있다. 이에 따라, 이동 단말기가 무선 통신을 이용하여 위치 정보를 수신할 수 없는 상황에서도, 촬영된 영상을 이용하여 이동 단말기 본체의 대략적인 위치 정보가 결정될 수 있다. 결과적으로, 사용자의 편의가 향상될 수 있다.In addition, according to the present invention, the status information of the current mobile terminal body can be detected using the image photographed from the camera unit of the mobile terminal. Accordingly, even when the mobile terminal can not receive the position information using the wireless communication, the approximate position information of the mobile terminal body can be determined using the photographed image. As a result, the convenience of the user can be improved.

도 1은 본 발명에 따른 이동 단말기를 보여주는 블록도이다.
도 2a 및 도 2b는 본 발명에 따른 이동 단말기의 외관을 보여주는 사시도들이다.
도 3은 본 발명에 따른 이동 단말기의 일 실시 예를 설명하기 위한 순서도이다.
도 4 내지 도 6은 영상을 획득하는 동작 예를 보여주는 개념도들이다.
도 7은 획득된 영상을 이용하여 본체의 상황 정보를 결정하는 방법을 설명하기 위한 순서도이다.
도 8 내지 도 10은 획득된 영상을 이용하여 본체의 상황 정보를 결정하는 동작 예를 보여주는 개념도들이다.
도 11 내지 도 15는 영상의 획득 시점을 결정하는 동작 예를 보여주는 개념도들이다.
도 16 내지 도 18은 설정 정보를 이용하여 본체를 제어하는 동작 예를 보여주는 개념도들이다.
1 is a block diagram illustrating a mobile terminal according to the present invention.
2A and 2B are perspective views showing an appearance of a mobile terminal according to the present invention.
3 is a flowchart for explaining an embodiment of a mobile terminal according to the present invention.
FIGS. 4 to 6 are conceptual diagrams showing an example of an operation of acquiring an image.
FIG. 7 is a flowchart illustrating a method of determining status information of a main body using the obtained image.
8 to 10 are conceptual diagrams illustrating an example of an operation of determining the status information of the main body using the acquired image.
FIGS. 11 to 15 are conceptual diagrams illustrating an example of an operation for determining an acquisition time point of an image.
16 to 18 are conceptual diagrams showing an example of an operation of controlling the main body using setting information.

이하, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명의 기술적 사상을 용이하게 실시할 수 있을 정도로 상세하게 설명하기 위하여, 본 발명의 실시 예가 첨부된 도면을 참조하여 설명한다. 하지만, 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며, 여기에서 설명하는 실시 예에 한정되지 않는다. 그리고, 도면에서 본 발명을 명확하게 설명하기 위해 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통해 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.Hereinafter, embodiments of the present invention will be described with reference to the accompanying drawings so that those skilled in the art can easily carry out the technical idea of the present invention. The present invention may, however, be embodied in many different forms and should not be construed as limited to the embodiments set forth herein. In order to clearly explain the present invention, parts not related to the description are omitted, and like parts are denoted by similar reference numerals throughout the specification.

본 명세서에서 설명되는 이동 단말기에는 휴대폰, 스마트폰(smart phone), 노트북 컴퓨터(laptop computer), 디지털 방송용 단말기, PDA(Personal Digital Assistants), PMP(Portable Multimedia Player), 내비게이터(navigator) 등이 포함될 수 있다. 그러나, 본 명세서에 기재된 실시 예에 따른 구성은 이동 단말기에만 적용 가능한 경우를 제외하면, 디지털 TV, 데스크탑 컴퓨터 등과 같은 고정 단말기에도 적용될 수도 있음을 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자라면 쉽게 알 수 있을 것이다.The mobile terminal described herein may include a mobile phone, a smart phone, a laptop computer, a digital broadcasting terminal, a PDA (Personal Digital Assistants), a PMP (Portable Multimedia Player), a navigator, have. However, it should be understood that the configuration according to the embodiments described herein may be applied to a fixed terminal such as a digital TV, a desktop computer, and the like, unless it is applicable only to a mobile terminal. It will be easy to see.

도 1은 본 발명과 관련된 이동 단말기(100)를 보여주는 블록도이다.1 is a block diagram illustrating a mobile terminal 100 according to the present invention.

도 1을 참조하면, 이동 단말기(100)는 무선 통신부(110), A/V(Audio/Video) 입력부(이하, '사용자 추적부'라고 칭함)(120), 사용자 입력부(130), 감지부(140), 출력부(150), 메모리(160), 인터페이스부(170), 제어부(180) 및 전원 공급부(190)를 포함할 수 있다. 도 1에 도시된 구성요소들이 필수적인 것은 아니어서, 그보다 많은 구성요소들을 갖거나 그보다 적은 구성요소들을 갖는 이동 단말기가 구현될 수 있다.1, a mobile terminal 100 includes a wireless communication unit 110, an audio / video (A / V) input unit 120 (hereinafter referred to as a user tracking unit), a user input unit 130, An input unit 140, an output unit 150, a memory 160, an interface unit 170, a control unit 180, and a power supply unit 190. The components shown in Fig. 1 are not essential, so that a mobile terminal having more or fewer components can be implemented.

이하에서, 이동 단말기(100)의 구성요소들(110~190)에 대해 차례대로 살펴본다.Hereinafter, the components 110 to 190 of the mobile terminal 100 will be described in order.

무선 통신부(110)는 이동 단말기(100)와 무선 통신 시스템 사이, 또는 이동 단말기(100)와 이동 단말기(100)가 위치한 네트워크 사이의 무선 통신을 가능하게 하는 하나 이상의 모듈을 포함할 수 있다. 예를 들어, 무선 통신부(110)는 방송 수신 모듈(111), 이동통신 모듈(112), 무선 인터넷 모듈(113), 근거리 통신 모듈(114) 및 위치정보 모듈(115)을 포함할 수 있다.The wireless communication unit 110 may include one or more modules for enabling wireless communication between the mobile terminal 100 and the wireless communication system or between the mobile terminal 100 and the network in which the mobile terminal 100 is located. For example, the wireless communication unit 110 may include a broadcast receiving module 111, a mobile communication module 112, a wireless Internet module 113, a short distance communication module 114, and a location information module 115.

방송 수신 모듈(111)은 방송 채널을 통하여 외부의 방송 관리 서버로부터 방송 신호 및 방송 관련 정보를 수신한다. 여기서, 방송 관련 정보는 방송 채널, 방송 프로그램 또는 방송 서비스 제공자에 관련된 정보를 의미한다. 그리고, 방송 관련 정보는 이동통신망을 통하여도 제공될 수 있다. 이러한 경우에, 방송 관련 정보는 이동통신 모듈(112)에 의해 수신될 수 있다. 방송 수신 모듈(111)을 통해 수신되는 방송 신호 및 방송 관련 정보는 메모리(160)에 저장될 수 있다.The broadcast receiving module 111 receives broadcast signals and broadcast related information from an external broadcast management server through a broadcast channel. Here, the broadcast-related information means information related to a broadcast channel, a broadcast program, or a broadcast service provider. The broadcast-related information can also be provided through a mobile communication network. In this case, the broadcast-related information may be received by the mobile communication module 112. The broadcast signal and the broadcast-related information received through the broadcast receiving module 111 may be stored in the memory 160.

이동통신 모듈(112)은 이동 통신망 상에서 기지국, 외부의 단말기, 서버 중 적어도 하나와 무선 신호를 송수신한다. 이러한 무선 신호는 음성 호 신호, 화상 통화 호 신호, 문자 메시지 또는 멀티미디어 메시지 송수신에 따른 다양한 형태의 데이터를 포함할 수 있다.The mobile communication module 112 transmits and receives radio signals to at least one of a base station, an external terminal, and a server on a mobile communication network. Such wireless signals may include various types of data depending on a voice call signal, a video call signal, a text message, or a multimedia message transmission / reception.

무선 인터넷 모듈(113)은 무선 인터넷 접속을 위한 모듈로서, 이동 단말기(100)에 내장되거나 외장될 수 있다. 무선 인터넷 기술로는 WLAN(Wireless LAN)(Wi-Fi), Wibro(Wireless broadband), Wimax(World Interoperability for Microwave Access), HSDPA(High Speed Downlink Packet Access) 등이 이용될 수 있다.The wireless Internet module 113 is a module for wireless Internet access, and may be embedded in the mobile terminal 100 or externally. WLAN (Wi-Fi), Wibro (Wireless broadband), Wimax (World Interoperability for Microwave Access), HSDPA (High Speed Downlink Packet Access) and the like can be used as wireless Internet technologies.

근거리 통신 모듈(114)은 근거리 통신을 위한 모듈을 말한다. 근거리 통신(short range communication) 기술로는 블루투스(Bluetooth), RFID(Radio Frequency Identification), 적외선 통신(Infrared Data Association; IrDA), UWB(Ultra Wideband), ZigBee 등이 이용될 수 있다.The short-range communication module 114 refers to a module for short-range communication. As a short range communication technology, Bluetooth, Radio Frequency Identification (RFID), Infrared Data Association (IrDA), Ultra Wideband (UWB), ZigBee, and the like can be used.

위치정보 모듈(115)은 이동 단말기(100)의 위치를 획득하기 위한 모듈로서, 그것의 대표적인 예로는 GPS(Global Position System) 모듈이 있다.The position information module 115 is a module for acquiring the position of the mobile terminal 100, and a representative example thereof is a Global Position System (GPS) module.

계속해서 도 1을 참조하면, 사용자 추적부(120)는 오디오 신호 및 비디오 신호를 입력받고, 입력받은 신호를 이용하여 사용자를 추적하기 위한 것으로, 여기에는 카메라(121), 마이크(122), 적외선 센서(123) 등이 포함될 수 있다. 카메라(121)는 화상 통화 모드 또는 촬영 모드에서 이미지 센서에 의해 얻어지는 정지영상, 동영상 등의 화상 프레임을 처리한다. 카메라(121)에 의해 처리된 화상 프레임은 디스플레이부(151)에 표시될 수 있다. 그리고, 이러한 화상 프레임은 메모리(160)에 저장되거나 무선 통신부(110)를 통하여 외부로 전송될 수 있다. 카메라(121)는 사용 환경에 따라 2개 이상이 구비될 수 있다.1, the user tracking unit 120 receives an audio signal and a video signal and tracks a user using the received signal. The user tracking unit 120 includes a camera 121, a microphone 122, A sensor 123, and the like. The camera 121 processes image frames such as still images and moving images obtained by the image sensor in the video communication mode or the photographing mode. The image frame processed by the camera 121 can be displayed on the display unit 151. [ The image frame may be stored in the memory 160 or transmitted to the outside through the wireless communication unit 110. [ More than two cameras 121 may be provided depending on the use environment.

마이크(122)는 통화 모드, 녹음 모드, 음성선택 모드 등에서 외부로부터 입력되는 음향 신호를 전기적인 음성 데이터로 처리한다. 통화 모드에서 마이크(122)에 의해 처리된 음성 데이터는 이동통신 모듈(112)을 통해 이동통신 기지국으로 송신 가능한 형태로 변환되어 출력될 수 있다. 마이크(122)에는 외부의 음향 신호가 입력되는 과정에서 발생하는 잡음(noise)을 제거하기 위한 다양한 잡음 제거 알고리즘이 구현될 수 있다.The microphone 122 processes the sound signal input from the outside in the communication mode, the recording mode, the voice selection mode, and the like as electrical voice data. The voice data processed by the microphone 122 in the communication mode can be converted into a form that can be transmitted to the mobile communication base station through the mobile communication module 112 and output. The microphone 122 may be implemented with various noise reduction algorithms for eliminating noise generated when an external sound signal is input.

사용자 입력부(130)는 사용자가 이동 단말기(100)의 동작 제어를 위한 입력 데이터를 발생시킨다. 사용자 입력부(130)는 키 패드(key pad), 돔 스위치 (dome switch), 터치 패드(정압 및 정전), 조그 휠, 조그 스위치 등으로 구성될 수 있다.The user input unit 130 generates input data for controlling the operation of the mobile terminal 100 by a user. The user input unit 130 may include a key pad, a dome switch, a touch pad (static pressure and static electricity), a jog wheel, a jog switch, and the like.

감지부(140)는 사용자 접촉 유무, 이동 단말기(100)의 개폐 상태, 위치, 방위, 가속, 감속 등과 같은 이동 단말기(100)의 현재 상태를 감지하여 이동 단말기(100)의 동작을 제어하기 위한 감지 신호를 발생시킨다. 예를 들어, 이동 단말기(100)가 슬라이드 폰 형태인 경우, 감지부(140)는 슬라이드 폰의 개폐 여부를 감지할 수 있다. 또한, 감지부(140)는 전원 공급부(190)의 전원 공급 여부, 인터페이스부(170)의 외부 기기 결합 여부 등을 감지할 수도 있다.The sensing unit 140 senses the current state of the mobile terminal 100 such as presence or absence of a user, the open / close state of the mobile terminal 100, position, orientation, acceleration, deceleration, And generates a sensing signal. For example, when the mobile terminal 100 is in the form of a slide phone, the sensing unit 140 may detect whether the slide phone is opened or closed. The sensing unit 140 may sense whether the power supply unit 190 is powered on, whether the interface unit 170 is connected to an external device, and the like.

감지부(140)는 근접 센서(141)를 포함할 수 있다. 또한, 감지부(140)는 디스플레이부(151)에 대한 터치 동작을 감지하는 터치 센서(미도시됨)를 포함할 수 있다.The sensing unit 140 may include a proximity sensor 141. The sensing unit 140 may include a touch sensor (not shown) for sensing a touch operation with respect to the display unit 151.

터치 센서는 터치 필름, 터치 시트, 터치 패드 등의 형태를 가질 수 있다. 터치 센서는 디스플레이부(151)의 특정 부위에 가해진 압력 또는 디스플레이부(151)의 특정 부위에 발생하는 정전 용량의 변화를 전기적인 입력신호로 변환하도록 구성될 수 있다. 터치 센서는 터치 되는 위치 및 면적뿐만 아니라, 터치 압력까지도 검출할 수 있도록 구성될 수 있다.The touch sensor may have the form of a touch film, a touch sheet, a touch pad, or the like. The touch sensor may be configured to convert a pressure applied to a specific portion of the display portion 151 or a change in capacitance generated at a specific portion of the display portion 151 into an electrical input signal. The touch sensor can be configured to detect not only the position and area to be touched but also the touch pressure.

터치 센서와 디스플레이부(151)가 상호 레이어 구조를 이루는 경우에는, 디스플레이부(151)는 출력 장치 이외에 입력 장치로도 사용될 수 있다. 이러한 디스플레이부(151)는 ‘터치 스크린’으로 호칭할 수 있다.When the touch sensor and the display unit 151 have a mutual layer structure, the display unit 151 can be used as an input device in addition to the output device. The display unit 151 may be referred to as a 'touch screen'.

터치 스크린을 통한 터치 입력이 있는 경우, 그것에 대응하는 신호들은 터치 제어기(미도시됨)로 보내진다. 터치 제어기는 터치 센서로부터 전달되는 신호들을 처리한 다음 처리된 신호들에 대응하는 데이터를 제어부(180)로 전송한다. 이로써, 제어부(180)는 디스플레이부(151)의 어느 영역이 터치 되었는지 여부를 알 수 있게 된다.If there is a touch input via the touch screen, corresponding signals are sent to a touch controller (not shown). The touch controller processes the signals transmitted from the touch sensor, and then transmits data corresponding to the processed signals to the controller 180. Thus, the control unit 180 can know which area of the display unit 151 is touched.

터치 스크린이 정전식인 경우에는 감지 대상의 근접에 따른 전계의 변화로 감지 대상의 근접을 검출하도록 구성될 수 있다. 이러한 터치 스크린은 근접 센서(141)로 분류될 수 있다.In the case where the touch screen is electrostatic, it can be configured to detect the proximity of the sensing object by a change of the electric field along the proximity of the sensing target. Such a touch screen may be classified as proximity sensor 141. [

근접 센서(141)는 감지 대상의 유무를 전자계의 힘 또는 적외선을 이용하여 기계적 접촉이 없이 검출하는 센서를 말한다. 근접 센서(141)는 접촉식 센서보다는 그 수명이 길며 그 활용도 또한 높다. 근접 센서(141)의 예로는 투과형 광전 센서, 직접 반사형 광전 센서, 미러 반사형 광전 센서, 고주파 발진형 근접 센서, 정전용량형 근접 센서, 자기형 근접 센서, 적외선 근접 센서 등이 있다.The proximity sensor 141 refers to a sensor that detects the presence or absence of an object to be sensed without mechanical contact using an electromagnetic force or infrared rays. The proximity sensor 141 has a longer life than the contact type sensor and its utilization is also high. Examples of the proximity sensor 141 include a transmission type photoelectric sensor, a direct reflection type photoelectric sensor, a mirror reflection type photoelectric sensor, a high frequency oscillation type proximity sensor, a capacitive proximity sensor, a magnetic proximity sensor, and an infrared proximity sensor.

이하에서 설명의 편의를 위해, 감지 대상이 터치 스크린상에 접촉되지 않으면서 근접하는 행위를 “근접 터치(proximity touch)”라고 칭하고, 터치 스크린 상에 감지 대상이 접촉되는 행위를 “접촉 터치(contact touch)”라고 칭한다.Hereinafter, for convenience of explanation, a proximity action is referred to as " proximity touch " while an object to be sensed does not touch the touch screen, and an action of touching the sensing object on the touch screen is called & touch ".

근접 센서(141)는 근접 터치의 유무와 근접 터치 패턴(예를 들어, 근접 터치 거리, 근접 터치 방향, 근접 터치 속도, 근접 터치 시간, 근접 터치 위치, 근접 터치 이동 상태 등)을 감지한다. 이러한 근접 터치 유무 및 근접 터치 패턴에 상응하는 정보는 터치 스크린에 출력될 수 있다.The proximity sensor 141 detects the presence or absence of a proximity touch and a proximity touch pattern (for example, a proximity touch distance, a proximity touch direction, a proximity touch speed, a proximity touch time, a proximity touch position, The information corresponding to the presence / absence of proximity touch and the proximity touch pattern can be output to the touch screen.

출력부(150)는 시각, 청각, 촉각 등과 관련된 출력을 발생시킨다. 출력부(150)는 디스플레이부(151), 음향 출력 모듈(152), 알람부(153) 및 햅틱 모듈(154)를 포함할 수 있다.The output unit 150 generates an output related to visual, auditory, tactile, and the like. The output unit 150 may include a display unit 151, an audio output module 152, an alarm unit 153, and a haptic module 154.

디스플레이부(151)는 이동 단말기(100)에서 처리되는 정보를 표시(출력)한다. 예를 들어, 이동 단말기(100)가 통화 모드에서 동작하는 경우에는, 디스플레이부(151)는 통화와 관련된 UI(User Interface) 또는 GUI(Graphic User Interface)를 표시한다. 이동 단말기(100)가 화상 통화 모드 또는 촬영 모드에서 동작하는 경우에는, 디스플레이부(151)는 촬영된 영상, 수신된 영상, UI 또는 GUI 등을 표시한다.The display unit 151 displays (outputs) information processed by the mobile terminal 100. For example, when the mobile terminal 100 operates in the call mode, the display unit 151 displays a UI (User Interface) or a GUI (Graphic User Interface) related to the call. When the mobile terminal 100 operates in the video communication mode or the photographing mode, the display unit 151 displays the photographed image, the received image, the UI, the GUI, and the like.

디스플레이부(151)는 액정 디스플레이(Liquid Crystal Display, LCD), 박막 트랜지스터 액정 디스플레이(Thin Film Transistor-Liquid Crystal Display, TFT- LCD), 유기 발광 다이오드(Organic Light Emitting Diode, OLED), 플렉시블 디스플레이(flexible display), 3차원 디스플레이(3D display), 전자잉크 디스플레이(e-ink display) 중 적어도 하나를 포함할 수 있다.The display unit 151 may be a liquid crystal display (LCD), a thin film transistor liquid crystal display (TFT-LCD), an organic light emitting diode (OLED), a flexible display display, a 3D display, and an e-ink display.

디스플레이부(151)에 포함되는 적어도 하나의 디스플레이(또는 디스플레이 소자)는 그것을 통해 외부를 볼 수 있도록 투명형 또는 광투과형으로 구성될 수 있다. 이는 투명 디스플레이라 호칭할 수 있는데, 이러한 투명 디스플레이의 대표적인 예로는 TOLED(Transparant OLED) 등이 있다. 디스플레이부(151)의 후방 구조 또한 광 투과형 구조로 구성될 수 있다. 이러한 구조에 의하여, 사용자는 단말기 본체에서 디스플레이부(151)가 차지하는 영역을 통해 단말기 본체의 후방에 위치한 사물을 볼 수 있다.At least one display (or display element) included in the display unit 151 may be configured to be transparent or light transmissive so that the display can see the outside through it. This can be referred to as a transparent display. A typical example of such a transparent display is TOLED (Transparent OLED). The rear structure of the display unit 151 may also be of a light transmission type. With this structure, the user can see an object located behind the terminal body through the area occupied by the display unit 151 in the terminal body.

디스플레이부(151)는 이동 단말기(100)의 구현 형태에 따라 2개 이상 존재할 수 있다. 예를 들어, 이동 단말기(100)에는 복수의 디스플레이부들이 하나의 면에 이격되거나 일체로 위치할 수 있고, 또한 서로 다른 면에 각각 위치할 수도 있다.There may be two or more display units 151 according to the embodiment of the mobile terminal 100. [ For example, in the mobile terminal 100, a plurality of display portions may be spaced apart from each other or positioned integrally with one another, and may be located on different surfaces.

음향 출력 모듈(152)은 호 신호 수신, 통화 모드 또는 녹음 모드, 음성선택 모드, 방송수신 모드 등에서 무선 통신부(110)로부터 수신되거나 메모리(160)에 저장된 오디오 데이터를 출력할 수 있다. 음향 출력 모듈(152)은 이동 단말기(100)에서 수행되는 기능(예를 들어, 호 신호 수신음, 메시지 수신음 등)과 관련된 음향 신호를 출력하기도 한다. 이러한 음향 출력 모듈(152)에는 리시버(receiver), 스피커(speaker), 버저(buzzer) 등이 포함될 수 있다.The audio output module 152 may output audio data received from the wireless communication unit 110 or stored in the memory 160 in a call signal reception mode, a call mode or a recording mode, a voice selection mode, a broadcast reception mode, The sound output module 152 also outputs sound signals related to functions (e.g., call signal reception sound, message reception sound, etc.) performed in the mobile terminal 100. [ The audio output module 152 may include a receiver, a speaker, a buzzer, and the like.

알람부(153)는 이동 단말기(100)의 이벤트 발생을 알리기 위한 신호를 출력한다. 이동 단말기(100)에서 발생 되는 이벤트의 예로는 호 신호 수신, 메시지 수신, 키 신호 입력, 터치 입력 등이 있다. 알람부(153)는 비디오 신호나 오디오 신호 이외에 다른 형태, 예를 들어, 진동으로 이벤트 발생을 알리기 위한 신호를 출력할 수도 있다. 비디오 신호나 오디오 신호는 디스플레이부(151)나 음향 출력 모듈(152)을 통해서도 출력될 수 있으므로, 디스플레이부(151) 및 음향 출력 모듈(152)은 알람부(153)의 일부로 분류될 수도 있다.The alarm unit 153 outputs a signal for notifying the occurrence of an event of the mobile terminal 100. Examples of events generated in the mobile terminal 100 include call signal reception, message reception, key signal input, touch input, and the like. The alarm unit 153 may output a signal for informing occurrence of an event in a form other than a video signal or an audio signal, for example, vibration. The display unit 151 and the sound output module 152 may be classified as a part of the alarm unit 153 because the video signal or the audio signal can also be output through the display unit 151 or the sound output module 152. [

햅틱 모듈(haptic module)(154)은 사용자가 느낄 수 있는 다양한 촉각 효과를 발생시킨다. 햅틱 모듈(154)이 발생시키는 촉각 효과의 대표적인 예로는 진동이 있다. 햅택 모듈(154)이 발생시키는 진동의 세기, 패턴 등은 제어가능하다. 예를 들어, 서로 다른 진동을 합성하여 출력하거나 순차적으로 출력할 수도 있다.The haptic module 154 generates various tactile effects that the user can feel. A typical example of the haptic effect generated by the haptic module 154 is vibration. The intensity, pattern, and the like of the vibration generated by the hit module 154 are controllable. For example, different vibrations may be synthesized and output or sequentially output.

햅틱 모듈(154)은, 진동 외에도, 접촉 피부면에 대해 수직 운동하는 핀 배열, 분사구나 흡입구를 통한 공기의 분사력이나 흡입력, 피부 표면에 대한 스침, 전극(eletrode)의 접촉, 정전기력 등의 자극에 의한 효과, 흡열이나 발열 가능한 소자를 이용한 냉온감 재현에 의한 효과 등 다양한 촉각 효과를 발생시킬 수 있다.In addition to the vibration, the haptic module 154 may include a pin arrangement vertically moving with respect to the contact skin surface, a spraying force or a suction force of the air through the injection port or the suction port, a touch on the skin surface, contact with an electrode, Various effects can be generated such as the effect of heat generation and the effect of reproducing the cold sensation using the heat absorbing or heatable element.

햅틱 모듈(154)은 직접적인 접촉을 통해 촉각 효과를 전달할 수 있을 뿐만 아니라, 사용자가 손가락이나 팔 등의 근 감각을 통해 촉각 효과를 느낄 수 있도록 구성될 수도 있다. 햅틱 모듈(154)은 이동 단말기(100)의 구성 태양에 따라 2개 이상이 구비될 수 있다.The haptic module 154 can be configured to not only transmit the tactile effect through the direct contact but also to allow the user to feel the tactile effect through the muscular sense of the finger or arm. At least two haptic modules 154 may be provided according to the configuration of the mobile terminal 100.

메모리(160)는 제어부(180)의 동작을 위한 프로그램을 저장할 수 있고, 입력 및 출력되는 데이터들(예를 들어, 폰북, 메시지, 정지영상, 동영상 등)을 임시 저장할 수도 있다. 메모리(160)는 터치 스크린상의 터치 입력시 출력되는 다양한 패턴의 진동 및 음향에 관한 데이터를 저장할 수 있다.The memory 160 may store a program for the operation of the controller 180 and temporarily store input and output data (e.g., a phone book, a message, a still image, a moving picture, etc.). The memory 160 may store data related to vibrations and sounds of various patterns that are output upon touch input on the touch screen.

메모리(160)는 플래시 메모리(flash memory), 하드디스크(hard disk), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(random access memory; RAM), SRAM(static random access memory), 롬(read-only memory; ROM), EEPROM(electrically erasable programmable read-only memory), PROM(programmable read-only memory), 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 저장매체를 포함할 수 있다. 이동 단말기(100)는 인터넷(internet)상에서 메모리(160)의 저장 기능을 수행하는 웹 스토리지(web storage)와 관련되어 동작할 수도 있다.The memory 160 may be a flash memory, a hard disk, a multimedia card micro type, a card type memory (e.g., SD or XD memory), a random access memory (RAM), static random access memory (SRAM), read-only memory (ROM), electrically erasable programmable read-only memory (EEPROM), programmable read-only memory (PROM) And may include at least one storage medium. The mobile terminal 100 may operate in association with a web storage that performs storage functions of the memory 160 on the Internet.

인터페이스부(170)는 이동 단말기(100)에 연결되는 모든 외부기기와의 통로 역할을 한다. 인터페이스부(170)는 외부 기기로부터 데이터를 전송받거나, 전원을 공급받아 이동 단말기(100) 내부의 각 구성요소에 전달하거나, 이동 단말기(100) 내부의 데이터가 외부 기기로 전송되도록 한다. 예를 들어, 인터페이스부(170)에는 유/무선 헤드셋 포트, 외부 충전기 포트, 유/무선 데이터 포트, 메모리 카드(memory card) 포트, 식별 모듈이 구비된 장치를 연결하는 포트, 오디오 I/O(Input/Output) 포트, 비디오 I/O(Input/Output) 포트, 이어폰 포트 등이 포함될 수 있다.The interface unit 170 serves as a path for communication with all external devices connected to the mobile terminal 100. The interface unit 170 receives data from an external device or supplies power to each component in the mobile terminal 100 or transmits data to the external device. For example, the interface unit 170 may include a wired / wireless headset port, an external charger port, a wired / wireless data port, a memory card port, a port for connecting a device having an identification module, Input / output ports, video I / O ports, earphone ports, and the like.

식별 모듈은 이동 단말기(100)의 사용 권한을 인증하기 위한 각종 정보를 저장한 칩으로서, 사용자 인증 모듈(User Identify Module: UIM), 가입자 인증 모듈(Subscriber Identify Module: SIM), 범용 사용자 인증 모듈(Universal Subscriber Identity Module: USIM) 등을 포함할 수 있다. 식별 모듈이 구비된 장치(이하, ‘식별 장치’라고 칭함)는, 스마트 카드(smart card) 형식으로 제작될 수 있다. 따라서, 식별 장치는 포트를 통하여 단말기(100)와 연결될 수 있다.The identification module is a chip for storing various information for authenticating the usage right of the mobile terminal 100 and includes a user identification module (UIM), a subscriber identity module (SIM), a general user authentication module Universal Subscriber Identity Module (USIM)). A device equipped with an identification module (hereinafter referred to as "identification device") can be manufactured in a smart card format. Accordingly, the identification device can be connected to the terminal 100 through the port.

인터페이스부(170)는 이동단말기(100)가 외부 크래들(cradle)과 연결될 때 크래들로부터의 전원이 이동단말기(100)에 공급되는 통로가 되거나, 사용자에 의해 크래들에서 입력되는 각종 명령 신호가 이동 단말기(100)로 전달되는 통로가 될 수 있다. 크래들로부터 입력되는 각종 명령 신호 또는 전원은, 상기 이동 단말기(100)가 크래들에 정확히 장착되었음을 인지하기 위한 신호로 동작할 수도 있다.The interface unit 170 may be a path through which the power from the cradle is supplied to the mobile terminal 100 when the mobile terminal 100 is connected to an external cradle or various command signals input from the cradle by the user, (Not shown). The various command signals or power supplied from the cradle may also act as a signal for recognizing that the mobile terminal 100 is correctly mounted in the cradle.

제어부(controller, 180)는 이동 단말기(100)의 전반적인 동작을 제어한다. 예를 들어, 음성 통화, 데이터 통신, 화상 통화 등과 관련된 제어 및 처리를 수행한다. 제어부(180)는 멀티 미디어 재생을 위한 멀티미디어 모듈(181)을 구비할 수도 있다. 멀티미디어 모듈(181)은 제어부(180) 내에 구현될 수도 있고, 제어부(180)와 별도로 구현될 수도 있다. 제어부(180)는 터치 스크린상에서의 필기 입력 및 그림 그리기 입력을 각각 문자 및 이미지로 선택하는 패턴 선택 처리를 수행할 수 있다.The controller 180 controls the overall operation of the mobile terminal 100. For example, control and processing related to voice communication, data communication, video communication, and the like. The control unit 180 may include a multimedia module 181 for multimedia playback. The multimedia module 181 may be implemented in the control unit 180 or may be implemented separately from the control unit 180. [ The control unit 180 may perform pattern selection processing for selecting handwriting input and drawing input on the touch screen as characters and images, respectively.

전원 공급부(190)는 제어부(180)의 제어에 의해 외부의 전원, 내부의 전원을 인가받아 각 구성요소들의 동작에 필요한 전원을 공급한다.The power supply unit 190 receives external power and internal power under the control of the controller 180 and supplies power necessary for operation of the respective components.

여기에 설명되는 다양한 실시 예는 소프트웨어, 하드웨어 또는 이들의 조합된 것을 이용하여 컴퓨터 또는 이와 유사한 장치로 읽을 수 있는 기록매체 내에서 구현될 수 있다.The various embodiments described herein may be implemented in a recording medium readable by a computer or similar device using software, hardware, or a combination thereof.

하드웨어적인 구현에 의하면, 여기에 설명되는 실시 예는 ASICs(Application specific Integrated Circuits), DSPs(Digital Signal Processors), DSPDs(Digital Signal Processing Devices), PLDs(Programmable Logic Devices), FPGAs(Field Programmable Gate Arrays), 프로세서들(processors), 제어기들(controllers), 마이크로 컨트롤러들(micro-controllers), 마이크로 프로세서들(microprocessors), 기타 기능 수행을 위한 전기적인 유닛 중 적어도 하나를 이용하여 구현될 수 있다. 일부의 경우에 본 명세서에서 설명되는 실시 예들이 제어부(180) 자체로 구현될 수 있다.According to a hardware implementation, the embodiments described herein may be applied to various types of application specific integrated circuits (ASICs), digital signal processors (DSPs), digital signal processing devices (DSPDs), programmable logic devices (PLDs), field programmable gate arrays Microprocessors, microprocessors, and other electronic units for performing other functions, as will be appreciated by those skilled in the art. In some cases, the embodiments described herein may be implemented by the controller 180 itself.

소프트웨어적인 구현에 의하면, 본 명세서에서 설명되는 절차 및 기능과 같은 실시 예들은 별도의 소프트웨어 모듈들로 구현될 수 있다. 상기 소프트웨어 모듈들 각각은 본 명세서에서 설명되는 하나 이상의 기능 및 작동을 수행할 수 있다. 적절한 프로그램 언어로 쓰인 소프트웨어 애플리케이션으로 소프트웨어 코드가 구현될 수 있다. 이러한 소프트웨어 코드는 메모리(160)에 저장되고, 제어부(180)에 의해 실행될 수 있다.According to a software implementation, embodiments such as the procedures and functions described herein may be implemented with separate software modules. Each of the software modules may perform one or more of the functions and operations described herein. Software code may be implemented in a software application written in a suitable programming language. Such software codes may be stored in the memory 160 and executed by the control unit 180. [

이하에서, 이동 단말기(100)에 대한 사용자 입력의 처리 방법에 대해 설명한다.Hereinafter, a method of processing user input to the mobile terminal 100 will be described.

사용자 입력부(130)는 이동 단말기(100)의 동작을 제어하기 위한 명령을 입력받기 위해 조작되는 것으로서, 복수의 조작 유닛들을 포함할 수 있다. 조작 유닛들은 조작부(manipulating portion)로도 통칭 될 수 있으며, 사용자의 촉각을 이용하여 조작하게 되는 방식(tactile manner)이라면 어떤 방식이든 채용될 수 있다.The user input unit 130 is operated to receive a command for controlling the operation of the mobile terminal 100, and may include a plurality of operation units. The operating units may also be referred to as manipulating portions and may be employed in any manner as long as they are operated in a tactile manner by the user's tactile sense.

디스플레이부(151)에는 다양한 종류의 시각 정보가 표시될 수 있다. 이와 같은 시각 정보는 문자, 숫자, 기호, 그래픽, 아이콘 등의 형태로 표시될 수 있으며, 3차원 입체영상으로 이루어질 수 있다. 시각 정보의 입력을 위하여 문자, 숫자, 기호, 그래픽 및 아이콘 중 적어도 하나는 일정한 배열을 이루어 표시됨으로써 키패드의 형태로 구현될 수 있다. 이러한 키패드는 소위 ‘소프트키’라고 호칭할 수 있다.Various kinds of time information can be displayed on the display unit 151. [ Such visual information can be displayed in the form of letters, numbers, symbols, graphics, icons, and the like, and can be formed as a three-dimensional stereoscopic image. At least one of a character, a number, a symbol, a graphic, and an icon may be displayed in a predetermined arrangement for inputting time information, thereby being implemented as a keypad. Such a keypad may be referred to as a so-called " soft key ".

디스플레이부(151)는 전체 영역으로 작동되거나, 복수의 영역들로 나뉘어져 작동될 수 있다. 후자의 경우, 복수의 영역들은 서로 연관되게 작동되도록 구성될 수 있다. 예를 들어, 디스플레이부(151)의 상부와 하부에는 출력창과 입력창이 각각 표시될 수 있다. 출력창과 입력창은 각각 정보의 출력 또는 입력을 위해 할당되는 영역이다. 입력창에는 전화 번호의 입력을 위한 숫자가 표시된 소프트키가 출력될 수 있다. 소프트키가 터치되면, 터치된 소프트키에 대응되는 숫자가 출력창에 표시된다. 조작 유닛이 조작되면 출력창에 표시된 전화 번호에 대한 호 연결이 시도되거나 출력창에 표시된 텍스트가 애플리케이션에 입력될 수 있다.The display unit 151 may operate as an entire area or may be divided into a plurality of areas and operated. In the latter case, the plurality of areas can be configured to operate in association with one another. For example, an output window and an input window may be displayed on the upper and lower portions of the display unit 151, respectively. The output window and the input window are areas allocated for outputting or inputting information, respectively. In the input window, a soft key with a number for inputting a telephone number may be output. When the soft key is touched, the number corresponding to the touched soft key is displayed in the output window. When the operating unit is operated, a call connection to the telephone number displayed in the output window may be attempted, or the text displayed in the output window may be entered into the application.

디스플레이부(151) 또는 터치 패드는 터치 스크롤(scroll)를 감지하도록 구성될 수 있다. 사용자는 디스플레이부(151) 또는 터치 패드를 스크롤 함으로써 디스플레이부(151)에 표시된 개체, 예를 들어, 아이콘에 위치한 커서 또는 포인터를 이동시킬 수 있다. 나아가, 손가락을 디스플레이부(151) 또는 터치 패드 상에서 이동시키는 경우, 손가락이 움직이는 경로가 디스플레이부(151)에 시각적으로 표시될 수도 있다. 이는 디스플레이부(151)에 표시되는 이미지를 편집함에 유용할 것이다.The display unit 151 or the touch pad may be configured to detect touch scrolling. The user can move the cursor or the pointer positioned on the displayed object, for example, the icon, on the display unit 151 by scrolling the display unit 151 or the touch pad. Further, when the finger is moved on the display unit 151 or the touch pad, the path along which the finger moves may be visually displayed on the display unit 151. [ This will be useful for editing the image displayed on the display unit 151. [

디스플레이부(151) 및 터치 패드가 일정 시간 범위 내에서 함께 터치되는 경우에 대응하여, 이동 단말기(100)의 일 기능이 실행될 수도 있다. 함께 터치되는 경우로는, 사용자가 엄지 및 검지를 이용하여 이동 단말기(100)의 본체를 집는(clamping) 경우가 있을 수 있다. 이때, 실행되는 이동 단말기(100)의 일 기능은, 예를 들어, 디스플레이부(151) 또는 터치 패드에 대한 활성화 또는 비활성화일 수 있다.One function of the mobile terminal 100 may be executed in response to a case where the display unit 151 and the touch pad are touched together within a predetermined time range. In the case of being touched together, there may be a case where the user clamps the main body of the mobile terminal 100 using the thumb and index finger. At this time, one function of the mobile terminal 100 to be executed may be activation or deactivation for the display unit 151 or the touch pad, for example.

도 2a 및 도 2b는 본 발명과 관련된 이동 단말기(100)의 외관을 보여주는 사시도들이다.2A and 2B are perspective views showing the appearance of the mobile terminal 100 related to the present invention.

도 2a에서는 이동 단말기(100)의 전면 및 일 측면이 도시되고, 도 2b에서는 이동 단말기(100)의 후면 및 타 측면이 도시된다.FIG. 2A shows a front side and one side of the mobile terminal 100, and FIG. 2B shows a rear side and the other side of the mobile terminal 100. FIG.

도 2a를 참조하면, 이동 단말기(100)는 바 형태의 단말기 본체를 구비한다. 다만, 이동 단말기(100)는 이에 한정되지 않고, 2 이상의 본체들이 상대 이동 가능하게 결합하는 슬라이드 타입, 폴더 타입, 스윙 타입, 스위블 타입 등 다양한 형태로 구현될 수 있다.Referring to FIG. 2A, the mobile terminal 100 includes a bar-shaped terminal body. However, the mobile terminal 100 is not limited thereto, and may be realized in various forms such as a slide type, a folder type, a swing type, and a swivel type in which two or more bodies are movably coupled to each other.

단말기 본체는 외관을 형성하는 케이스(케이싱, 하우징, 커버 등)를 포함한다. 실시 예에 있어서, 케이스는 프론트 케이스(101)와 리어 케이스(102)로 구분될 수 있다. 프론트 케이스(101)와 리어 케이스(102)의 사이에 형성된 공간에는 각종 전자부품들이 내장된다. 프론트 케이스(101)와 리어 케이스(102) 사이에는 적어도 하나의 중간 케이스가 추가로 위치할 수 있다.The terminal body includes a case (a casing, a housing, a cover, and the like) that forms an appearance. In the embodiment, the case may be divided into a front case 101 and a rear case 102. A variety of electronic components are embedded in the space formed between the front case 101 and the rear case 102. At least one intermediate case may be additionally disposed between the front case 101 and the rear case 102. [

케이스들은 합성수지를 사출하여 형성되거나 금속 재질, 예를 들어, 스테인레스 스틸(STS), 티타늄(Ti) 등과 같은 금속 재질을 갖도록 형성될 수도 있다.The cases may be formed by injection molding of a synthetic resin or may be formed to have a metal material such as stainless steel (STS), titanium (Ti) or the like.

단말기 본체, 주로 프론트 케이스(101)에는 디스플레이부(151), 음향 출력부(152), 카메라(121), 사용자 입력부(130, 도 1 참조), 마이크(122), 인터페이스(170) 등이 위치할 수 있다.The display unit 151, the sound output unit 152, the camera 121, the user input unit 130 (see FIG. 1), the microphone 122, the interface 170, can do.

디스플레이부(151)는 프론트 케이스(101)의 주된 부분을 차지한다. 디스플레이부(151)의 일 단부에 인접한 영역에는 음향 출력부(152)와 카메라(121)가 위치하고, 타 단부에 인접한 영역에는 제 1 사용자 입력부(131) 및 마이크(122)가 위치한다. 제 2 사용자 입력부(132) 및 인터페이스(170)는 프론트 케이스(101) 및 리어 케이스(102)의 측면들에 위치할 수 있다.The display unit 151 occupies a main portion of the front case 101. [ The audio output unit 152 and the camera 121 are located in a region adjacent to one end of the display unit 151 and the first user input unit 131 and the microphone 122 are located in a region adjacent to the other end. The second user input unit 132 and the interface 170 may be located on the sides of the front case 101 and the rear case 102. [

사용자 입력부(130)는 이동 단말기(100)의 동작을 제어하기 위한 명령을 수신하기 위해 조작된다. 사용자 입력부(130)는 복수의 조작 유닛들(131, 132)을 포함할 수 있다.The user input unit 130 is operated to receive a command for controlling the operation of the mobile terminal 100. [ The user input unit 130 may include a plurality of operation units 131 and 132.

제 1 또는 제 2 조작 유닛들(131, 132)은 다양한 명령들을 수신할 수 있다. 예를 들어, 제 1 조작 유닛(131)은 시작, 종료, 스크롤 등과 같은 명령을 수신할 수 있다. 제 2 조작 유닛(132)은 음향 출력부(152)에서 출력되는 음향의 크기 조절, 디스플레이부(151)의 터치 선택 모드로의 전환 등과 같은 명령을 수신할 수 있다.The first or second operating units 131 and 132 can receive various commands. For example, the first operation unit 131 can receive commands such as start, end, scroll, and the like. The second operation unit 132 can receive commands such as adjusting the size of the sound output from the sound output unit 152, switching to the touch selection mode of the display unit 151, and the like.

도 2b를 참조하면, 단말기 본체의 후면, 즉, 리어 케이스(102)에는 후면 카메라(121´)가 추가 장착될 수 있다. 후면 카메라(121´)는 전면 카메라(121, 도 2a 참조)와 반대되는 촬영 방향을 갖고, 전면 카메라(121)와 다른 화소를 갖도록 구성될 수 있다.Referring to FIG. 2B, a rear camera 121 'may be additionally mounted on the rear surface of the terminal body, that is, the rear case 102. The rear camera 121 'has a photographing direction opposite to that of the front camera 121 (see FIG. 2A), and may be configured to have pixels different from those of the front camera 121.

예를 들어, 전면 카메라(121)는 저 화소를 갖도록 구성되고, 후면 카메라(121´)는 고 화소를 갖도록 구성될 수 있다. 이에 따라, 화상 통화 시에 전면 카메라(121)를 이용하면, 사용자의 얼굴을 촬영하여 촬영된 영상을 실시간으로 상대방에 전송하는 경우 전송 데이터의 크기를 줄일 수 있다. 반면, 후면 카메라(121´)는 고 화질의 영상을 저장하기 위한 목적으로 이용될 수 있다.For example, the front camera 121 may be configured to have a low pixel, and the rear camera 121 'may be configured to have a high pixel. Accordingly, when the front camera 121 is used during a video call, when the user's face is photographed and the photographed image is transmitted to the other party in real time, the size of the transmitted data can be reduced. On the other hand, the rear camera 121 'can be used for the purpose of storing a high-quality image.

한편, 카메라들(121, 121´)은 회전 또는 팝업(pop-up) 되도록 단말기 본체에 설치될 수 있다.Meanwhile, the cameras 121 and 121 'may be installed in the terminal body so as to be rotated or popped up.

플래쉬(123) 및 거울(124) 후면 카메라(121´)에 인접하는 곳에 추가 위치할 수 있다. 플래쉬(123)는 사용자가 후면 카메라(121´)로 피사체를 촬영하는 경우, 피사체를 향해 빛을 낸다. 거울(124)은 사용자가 후면 카메라(121´)를 이용하여 자신을 촬영(셀프 촬영)하는 경우, 사용자의 얼굴을 비춘다.The flash 123 and the mirror 124 may be further positioned adjacent to the rear camera 121 '. The flash 123 emits light toward the subject when the user photographs the subject with the rear camera 121 '. The mirror 124 illuminates the user's face when the user photographs himself (self-photographing) using the rear camera 121 '.

단말기 본체의 후면에는 후면 음향 출력부(152´)가 추가 위치할 수 있다. 후면 음향 출력부(152´)는 전면 음향 출력부(152, 도 2a 참조)와 함께 스테레오 기능을 수행할 수 있으며, 통화 시에 스피커폰 기능을 수행할 수 있다.A rear sound output unit 152 'may be additionally disposed on the rear surface of the terminal body. The rear sound output unit 152 'may perform a stereo function together with the front sound output unit 152 (see FIG. 2A), and may perform a speakerphone function during a call.

단말기 본체의 측면에는 통화를 위한 안테나 외에 방송신호 수신용 안테나(116)가 추가 위치할 수 있다. 방송 수신 모듈(111, 도 1 참조)의 일부를 구성하는 안테나(116)는 단말기 본체에서 인출 가능하게 설치될 수 있다.In addition to the antenna for communication, an antenna 116 for receiving broadcast signals may be additionally provided on the side surface of the terminal body. The antenna 116 constituting a part of the broadcast receiving module 111 (see FIG. 1) can be installed to be able to be drawn out from the terminal body.

단말기 본체에는 이동 단말기(100)에 전원을 공급하기 위한 전원 공급부(190)가 장착된다. 전원 공급부(190)는 단말기 본체에 내장되거나, 단말기 본체의 외부에서 직접 탈착될 수 있도록 구성될 수 있다.A power supply unit 190 for supplying power to the mobile terminal 100 is mounted on the terminal body. The power supply unit 190 may be built in the main body of the terminal or may be detachable from the outside of the main body of the terminal.

리어 케이스(102)에는 터치를 감지하기 위한 터치 패드(135)가 추가 장착될 수 있다. 터치 패드(135)는 디스플레이부(151, 도 2a 참조)와 마찬가지로 광 투과형으로 구성될 수 있다. 또한, 터치 패드(135)에도 시각 정보를 출력하기 위한 후면 디스플레이부가 추가 장착될 수 있다. 이때, 전면 디스플레이부(151) 및 후면 디스플레이부 양면에서 출력되는 정보는 터치 패드(135)에 의해 제어될 수 있다.The rear case 102 may further include a touch pad 135 for sensing a touch. The touch pad 135 may be of a light transmission type like the display unit 151 (see FIG. 2A). Further, a back display unit for outputting time information can be additionally mounted on the touch pad 135. [ At this time, information output from both sides of the front display unit 151 and the rear display unit can be controlled by the touch pad 135. [

터치 패드(135)는 디스플레이부(151)와 상호 관련되어 작동한다. 터치 패드(135)는 디스플레이부(151)의 후방에 평행하게 위치할 수 있다. 이러한 터치 패드(135)는 디스플레이부(151)와 동일하거나 작은 크기를 가질 수 있다.The touch pad 135 operates in correlation with the display unit 151. [ The touch pad 135 may be positioned parallel to the rear of the display unit 151. The touch pad 135 may have a size equal to or smaller than that of the display unit 151.

한편, 사용자의 현재 위치 정보 및 현재 시간 정보에 따라 사용자가 원하는 이동 단말기(100)의 설정 정보가 달라질 수 있는데, 그럼에도 불구하고, 사용자가 직접 이동 단말기(100)의 설정을 변경하지 않는 이상 이동 단말기(100)의 설정 정보는 항상 일정하다는 문제점이 있었다. 즉, 사용자의 현재 위치 정보 및 현재 시각 정보에 따라 사용자가 이동 단말기(100)의 설정을 직접 변경해야 하는 불편함이 있었다.Meanwhile, the setting information of the mobile terminal 100 desired by the user may vary according to the current location information and the current time information of the user. Nevertheless, unless the user directly changes the setting of the mobile terminal 100, There is a problem that the setting information of the display device 100 is always constant. That is, there is an inconvenience that the user has to directly change the setting of the mobile terminal 100 according to the current location information and the current time information of the user.

이에 따라, 이하에서 이동 단말기(100)의 설정을 변경함에 있어서 사용자의 편의를 향상시킬 수 있는 이동 단말기(100) 및 그것의 제어 방법에 대해 첨부된 도면을 참조하여 설명한다.Hereinafter, a mobile terminal 100 and a control method thereof that can improve user's convenience in changing the setting of the mobile terminal 100 will be described with reference to the accompanying drawings.

도 3은 본 발명에 따른 이동 단말기(100, 도 1 참조)의 일 실시 예를 설명하기 위한 순서도이다. 이동 단말기(100)는 본체, 메모리부(160, 도 1 참조), 카메라부(121, 도 1 참조) 및 제어부(180, 도 1 참조)를 포함한다.FIG. 3 is a flowchart for explaining an embodiment of the mobile terminal 100 (see FIG. 1) according to the present invention. The mobile terminal 100 includes a main body, a memory unit 160 (see FIG. 1), a camera unit 121 (see FIG. 1), and a control unit 180 (see FIG. 1).

도 3을 참조하면, 우선, 영상이 획득되는 단계(S110)가 진행된다.Referring to FIG. 3, first, an image is acquired (S110).

제어부(180)는 메모리부(160) 및 카메라부(121) 중 적어도 하나를 이용하여 영상을 획득할 수 있다. 메모리부(160) 및 카메라부(121) 중 어느 것을 이용하여 영상을 획득할지는 사용자에 의해 선택될 수도 있고, 제어부(180)에 의해 결정될 수도 있다. 제어부(180)는 사용 빈도 정보 및 최근에 사용된 이력 정보 중 적어도 하나에 근거하여, 메모리부(160) 및 카메라부(121) 중 어느 것을 이용하여 영상을 획득할지를 결정할 수 있다.The control unit 180 can acquire an image using at least one of the memory unit 160 and the camera unit 121. [ Whether the image is acquired using the memory unit 160 or the camera unit 121 may be selected by the user or may be determined by the control unit 180. [ The control unit 180 can determine which of the memory unit 160 and the camera unit 121 should acquire an image based on at least one of the frequency of use information and the recently used history information.

메모리부(160)는 영상들을 저장할 수 있다. 메모리부(160)를 이용하여 영상을 획득할 것으로 결정되는 경우, 사용자는 메모리부(160)에 저장된 영상들 중 적어도 하나를 선택할 수 있다. 제어부(180)는 선택된 영상을 획득할 수 있다.The memory unit 160 may store images. When it is determined that the image is to be acquired using the memory unit 160, the user can select at least one of the images stored in the memory unit 160. The control unit 180 can acquire the selected image.

카메라부(121)는 영상을 촬영할 수 있다. 카메라부(121)를 이용하여 영상을 획득할 것으로 결정되는 경우, 카메라부(121)는 정지 영상 또는 동영상을 촬영할 수 있다. 제어부(180)는 촬영된 영상을 획득할 수 있다.The camera unit 121 can take a picture. When it is determined to acquire an image using the camera unit 121, the camera unit 121 can capture a still image or a moving image. The control unit 180 can acquire the photographed image.

다음으로, 획득된 영상을 분석하고, 분석 결과를 이용하여 본체의 상황 정보가 인식되는 단계(S120)가 진행된다.Next, the acquired image is analyzed, and the state information of the main body is recognized using the analysis result (S120).

제어부(180)는 획득된 영상에서 배경을 분리할 수 있다. 이때, AMF(Approximated Median Filtering) 알고리즘이 이용될 수 있다. 제어부(180)는 AMF 알고리즘을 이용하여 획득된 영상에서 배경을 분리하고, 획득된 영상에 포함된 객체들을 검출할 수 있다.The control unit 180 can separate the background from the acquired image. At this time, the AMF (Approximated Median Filtering) algorithm can be used. The control unit 180 can separate the background from the acquired image using the AMF algorithm and detect the objects included in the acquired image.

제어부(180)는 메모리부(160)에 저장된 객체 프레임 이미지와 검출된 객체를 비교 및 분석할 수 있다. 제어부(180)는 분석 결과를 이용하여, 메모리부(160)에 저장된 복수의 상황 정보 중 본체에 매칭되는 상황 정보를 선택할 수 있다.The control unit 180 may compare and analyze the object frame image stored in the memory unit 160 with the detected object. The controller 180 can use the analysis result to select the context information matching the main body among the plurality of context information stored in the memory unit 160. [

한편, 제어부(180)는 카메라부(121)를 통해 획득된 영상에 포함된 객체를 검출함으로써 본체에 매칭되는 상황 정보를 선택할 수도 있지만, 다른 센서를 통해 정보를 수집할 수도 있다. 예를 들어, 제어부(180)는 사용자의 음성, 사용자의 체온, 사용자의 심박수 정보 등을 수집하여 본체에 매칭되는 상황 정보를 선택할 수도 있다.Meanwhile, the control unit 180 may select the situation information matching the main body by detecting the object included in the image acquired through the camera unit 121, but may collect information through other sensors. For example, the controller 180 may collect the voice of the user, the body temperature of the user, the heart rate information of the user, and the like and may select the situation information matched to the body.

이후, 본체의 상황 정보에 대응하는 설정 정보를 이용하여 본체가 제어되는 단계(S130)가 진행된다.Thereafter, the main body is controlled using the setting information corresponding to the main body status information (S130).

메모리부(160)에는 복수의 상황 정보 각각에 대응하는 본체의 설정 정보가 저장되어 있을 수 있다. 제어부(180)는 본체의 상황 정보에 대응하는 설정 정보를 추출하고, 추출된 설정 정보를 이용하여 본체를 제어할 수 있다.The memory unit 160 may store setting information of a main body corresponding to each of a plurality of pieces of status information. The control unit 180 may extract setting information corresponding to the status information of the main body, and may control the main body using the extracted setting information.

구체적으로, 제어부(180)는 추출된 설정 정보를 이용하여 본체의 설정을 변경할 수 있다. 또한, 제어부(180)는 특정 애플리케이션을 실행하거나, 특정 애플리케이션에 대응하는 아이콘을 홈 스크린에 표시할 수 있다.Specifically, the control unit 180 can change the setting of the main body using the extracted setting information. In addition, the control unit 180 can execute a specific application or display an icon corresponding to a specific application on the home screen.

상술한 바와 같이, 본 발명에 의하면, 본체의 상황 정보에 근거하여 본체의 설정 정보가 자동으로 변경될 수 있다. 즉, 사용자의 현재 상황을 고려한 사용자 인터페이스가 사용자에게 제공될 수 있다. 이에 따라, 현재 상황에 최적화되도록 본체의 설정을 변경함에 있어, 사용자의 조작이 줄어들 수 있다.As described above, according to the present invention, the setting information of the main body can be automatically changed based on the status information of the main body. That is, a user interface considering the current state of the user can be provided to the user. Thus, in changing the setting of the main body so as to be optimized to the current situation, the operation of the user can be reduced.

또한, 본 발명에 의하면, 카메라부(121)로부터 촬영된 영상을 이용하여 현재 본체의 상황 정보가 검출될 수 있다. 이에 따라, 이동 단말기(100)가 무선 통신을 이용하여 위치 정보를 수신할 수 없는 상황에서도, 촬영된 영상을 이용하여 본체의 대략적인 위치 정보가 결정될 수 있다. 결과적으로, 사용자의 편의가 향상될 수 있다.In addition, according to the present invention, status information of the current main body can be detected using the image photographed from the camera unit 121. [ Accordingly, even when the mobile terminal 100 can not receive the position information using the wireless communication, the approximate position information of the main body can be determined using the photographed image. As a result, the convenience of the user can be improved.

도 4 내지 도 6은 영상을 획득하는 동작 예를 보여주는 개념도들이다. 이동 단말기(100)는 본체, 메모리부(160, 도 1 참조), 카메라부(121, 도 1 참조) 및 제어부(180, 도 1 참조)를 포함한다.FIGS. 4 to 6 are conceptual diagrams showing an example of an operation of acquiring an image. The mobile terminal 100 includes a main body, a memory unit 160 (see FIG. 1), a camera unit 121 (see FIG. 1), and a control unit 180 (see FIG. 1).

도 4의 (a) 및 도 5의 (a)를 참조하면, 디스플레이부(151)는 홈 스크린을 표시할 수 있다. 홈 스크린은 복수의 객체들을 포함할 수 있다. 객체는 아이콘(icon), 위젯(widget), 썸네일 이미지(thumbnail image) 및 애플리케이션의 실행 메뉴 중 적어도 하나를 포함할 수 있다.4 (a) and 5 (a), the display unit 151 may display a home screen. The home screen may include a plurality of objects. The object may include at least one of an icon, a widget, a thumbnail image, and an execution menu of an application.

홈 스크린에 포함된 객체들 중 어느 하나, 예를 들어, 본체의 상황 정보를 검출하는 애플리케이션(이하, "스마트 아이(smart eye) 애플리케이션"이라고 칭함)에 대응하는 아이콘(252)이 선택되는 경우, 제어부(180)는 스마트 아이 애플리케이션을 실행할 수 있다. 이때, 비록 도시되지는 않았지만, 디스플레이부(151) 상단의 인디케이터 바에 스마트 아이 애플리케이션이 실행 중임을 나타내는 아이콘이 표시될 수도 있다.When the icon 252 corresponding to any one of the objects included in the home screen, for example, an application for detecting the status information of the main body (hereinafter referred to as a " smart eye application & The control unit 180 may execute a smart eye application. At this time, an icon indicating that the Smart Eye application is being executed may be displayed on the indicator bar at the upper part of the display unit 151, although it is not shown.

도 4의 (b) 및 도 5의 (b)를 참조하면, 스마트 아이 애플리케이션이 실행되면서, 제어부(180)는 사용자로부터 메모리부(160) 및 카메라부(121) 중 어느 것을 이용하여 영상을 획득할지를 선택 받을 수 있다. 이를 위해, 메모리부(160)를 이용하여 영상을 획득하는 기능에 대응하는 아이콘(이하, "제 1 아이콘"이라고 칭함)(253) 및 카메라부(121)를 이용하여 영상을 획득하는 기능에 대응하는 아이콘(이하, "제 2 아이콘"이라고 칭함)(254)이 디스플레이부(151)에 표시될 수 있다.4B and 5B, when the Smart Eye application is executed, the control unit 180 acquires a video image from the user using either the memory unit 160 or the camera unit 121 Can be selected. To this end, an icon (hereinafter referred to as "first icon") 253 corresponding to a function of acquiring an image using the memory unit 160 and a function of acquiring an image using the camera unit 121 (Hereinafter referred to as " second icon ") 254 may be displayed on the display unit 151. [

비록 도시되지는 않았지만, 제어부(180)가 사용 빈도 정보 및 최근에 사용된 이력 정보 중 적어도 하나에 근거하여 메모리부(160) 및 카메라부(121) 중 어느 것을 이용하여 영상을 획득할지를 결정할 수도 있다.Although not shown, the control unit 180 may determine whether to acquire an image using either the memory unit 160 or the camera unit 121 based on at least one of the frequency of use information and the recently used history information .

이때, 제 1 아이콘(253)이 선택되는 경우, 도 4의 (c)를 참조하면, 제어부(180)는 메모리부(160)에 저장된 영상들 각각에 대응하는 썸네일 이미지들을 디스플레이부(151)에 표시할 수 있다. 이때, 디스플레이부(151)에 표시되는 썸네일 이미지는, 정지 영상에 대응하는 썸네일 이미지 및 동영상의 한 장면에 대응하는 썸네일 이미지 중 적어도 하나를 포함할 수 있다. 4 (c), the controller 180 displays thumbnail images corresponding to the images stored in the memory unit 160 on the display unit 151 (step < RTI ID = 0.0 > Can be displayed. At this time, the thumbnail image displayed on the display unit 151 may include at least one of a thumbnail image corresponding to the still image and a thumbnail image corresponding to one scene of the moving image.

썸네일 이미지들 중 어느 하나(255')가 선택되는 경우, 도 4의 (d)를 참조하면, 제어부(180)는 선택된 썸네일 이미지(255')에 대응하는 영상(255)을 이용하여 현재 상황을 감지할 수 있다.Referring to FIG. 4D, when one of the thumbnail images 255 'is selected, the controller 180 displays the current situation using the image 255 corresponding to the selected thumbnail image 255' Can be detected.

이때, 도시된 바와 같이, 선택된 썸네일 이미지(255')에 대응하는 영상(255)이 디스플레이부(151)에 표시될 수 있다. 이와 함께, 현재 상황이 감지 중임을 알리는 팝업 창(256)이 디스플레이부(151)에 표시될 수 있다.At this time, as shown in the figure, an image 255 corresponding to the selected thumbnail image 255 'may be displayed on the display unit 151. At the same time, a pop-up window 256 informing that the current situation is being detected can be displayed on the display unit 151.

또한, 현재 메모리부(160)를 이용하여 영상을 획득했음을 나타내도록, 제 1 아이콘(253)이 제 2 아이콘(254)보다 강조되어 표시될 수 있다. 예를 들어, 도시된 바와 같이, 제 1 아이콘(253)의 테두리가 제 2 아이콘(254)의 테두리보다 굵게 표시될 수 있다. 비록 도시되지는 않았지만, 제어부(180)는 제 1 아이콘(253) 및 제 2 아이콘(254) 중 적어도 하나의 색상, 크기, 투명도 및 3차원 깊이 값 등을 변경함으로써, 제 1 아이콘(253)을 제 2 아이콘(254)보다 강조하여 표시할 수 있다.In addition, the first icon 253 may be highlighted and displayed above the second icon 254 to indicate that the image has been acquired using the current memory unit 160. For example, as shown, the border of the first icon 253 may be displayed in bolder than the border of the second icon 254. Although not shown, the control unit 180 may change the color, size, transparency, and three-dimensional depth value of at least one of the first icon 253 and the second icon 254 so that the first icon 253 The second icon 254 can be emphasized and displayed.

한편, 제 2 아이콘(254)이 선택되는 경우, 도 5의 (c)를 참조하면, 제어부(180)는 촬영할 영상의 종류를 선택 받을 수 있도록 팝업 창(257)을 디스플레이부(151)에 표시할 수 있다. 사용자는 팝업 창(257)을 통해 정지 영상을 촬영할지, 아니면, 동영상을 촬영할지를 선택할 수 있다. 비록 도시되지는 않았지만, 제어부(180)가 사용 빈도 정보 및 최근에 사용된 이력 정보 중 적어도 하나에 근거하여 정지 영상을 촬영할지, 아니면, 동영상을 촬영할지를 결정할 수도 있다.5 (c), the control unit 180 displays a pop-up window 257 on the display unit 151 so that the user can select the type of the image to be photographed can do. The user can select whether to shoot a still image or a moving image through the pop-up window 257. [ Although not shown, the control unit 180 may determine whether to take a still image or a moving image based on at least one of the frequency of use information and the recently used history information.

예를 들어, 사용자가 팝업 창(257)을 통해 동영상을 촬영하는 기능에 대응하는 아이콘을 선택하는 경우, 도 5의 (d)를 참조하면, 카메라부(121)는 동영상을 촬영할 수 있다.For example, when the user selects an icon corresponding to the function of photographing a moving image through the pop-up window 257, referring to FIG. 5 (d), the camera unit 121 can photograph a moving image.

이때, 비록 도시되지는 않았지만, 카메라부(121)가 복수의 카메라들을 포함하는 경우, 복수의 카메라들 중 어느 것을 이용하여 동영상을 촬영할지도 선택 받을 수 있다.At this time, although not shown, when the camera unit 121 includes a plurality of cameras, it is possible to select which one of the plurality of cameras is used to photograph a moving image.

다시 도면으로 돌아가서, 카메라부(121)가 촬영한 동영상(255)이 디스플레이부(151)에 표시될 수 있다. 이와 함께, 현재 상황이 감지 중임을 알리는 팝업 창(256)이 디스플레이부(151)에 표시될 수 있다.Referring back to the drawing, the moving picture 255 taken by the camera unit 121 can be displayed on the display unit 151. [ At the same time, a pop-up window 256 informing that the current situation is being detected can be displayed on the display unit 151.

또한, 현재 카메라부(121)를 이용하여 영상을 획득했음을 나타내도록, 제 2 아이콘(254)이 제 1 아이콘(253)보다 강조되어 표시될 수 있다. 예를 들어, 도시된 바와 같이, 제 2 아이콘(254)의 테두리가 제 1 아이콘(253)의 테두리보다 굵게 표시될 수 있다.In addition, the second icon 254 may be displayed more emphasized than the first icon 253 to indicate that the image is acquired using the camera unit 121 at present. For example, as shown, the border of the second icon 254 may be displayed in bolder than the border of the first icon 253.

이렇게 이동 단말기(100)의 카메라부(121)는 영상을 촬영할 수 있다. 도 6의 (a) 및 (c)에 도시된 바와 같이, 이동 단말기(100)의 본체가 회의실 내부에 있는 경우, 카메라부(121)는 회의실의 영상을 촬영할 수 있다.In this way, the camera unit 121 of the mobile terminal 100 can take an image. 6 (a) and 6 (c), when the main body of the mobile terminal 100 is inside the conference room, the camera unit 121 can capture images of the conference room.

한편, 본 발명의 모든 실시 예는 이동 단말기(100) 뿐만 아니라, 도 6의 (b)에 도시된 스마트 안경(300)에도 적용될 수 있다. 스마트 안경(300)은 카메라부(미도시됨)를 구비할 수 있다. 스마트 안경(300)은 운영체제(OS)를 갖추고 있으며, 데이터 접속 기능은 물론, GPS 기능 및 3D 영상 구현 기능 등을 갖출 수 있다.All the embodiments of the present invention can be applied not only to the mobile terminal 100 but also to the smart glasses 300 shown in FIG. 6 (b). The smart glasses 300 may include a camera unit (not shown). The smart glasses 300 are equipped with an operating system (OS) and can have a GPS function and a 3D image implementation function as well as a data connection function.

도 6의 (b) 및 (c)에 도시된 바와 같이, 스마트 안경(300)을 착용한 사용자가 회의실 내부에 있는 경우, 스마트 안경(300)에 구비된 카메라부는 회의실의 영상을 촬영할 수 있다.6 (b) and 6 (c), when the user wearing the smart glasses 300 is inside the conference room, the camera unit provided in the smart glasses 300 can capture images of the conference room.

카메라부가 회의실의 영상을 촬영하면, 촬영된 영상에 기반한 상황 정보에 근거하여 스마트 안경(300)의 설정이 변경될 수 있다. 또한, 스마트 안경(300)이 외부의 이동 단말기(100)로 상황 정보를 전송할 수도 있다. 이 경우, 이동 단말기(100)의 설정이 변경될 수 있다.When the camera unit captures an image of the conference room, the setting of the smart glasses 300 may be changed based on the situation information based on the captured image. In addition, the smart glasses 300 may transmit status information to an external mobile terminal 100. [ In this case, the setting of the mobile terminal 100 may be changed.

도 7은 획득된 영상을 이용하여 본체의 상황 정보를 결정하는 방법을 설명하기 위한 순서도이다. 도 8은 획득된 영상을 이용하여 본체의 상황 정보를 결정하는 동작 예를 보여주는 개념도이다. 이동 단말기(100)는 본체, 메모리부(160, 도 1 참조), 카메라부(121, 도 1 참조) 및 제어부(180, 도 1 참조)를 포함한다.FIG. 7 is a flowchart illustrating a method of determining status information of a main body using the obtained image. 8 is a conceptual diagram showing an example of an operation of determining the status information of the main body using the acquired image. The mobile terminal 100 includes a main body, a memory unit 160 (see FIG. 1), a camera unit 121 (see FIG. 1), and a control unit 180 (see FIG. 1).

도 7을 참조하면, 우선, 영상이 획득되는 단계(S210)가 진행된다.Referring to FIG. 7, first, an image is obtained (S210).

앞서 설명된 바와 같이, 영상은 메모리부(160) 및 카메라부(121) 중 적어도 하나를 통해 획득될 수 있다.As described above, the image can be acquired through at least one of the memory unit 160 and the camera unit 121. [

다음으로, 획득된 영상에서 배경이 분리되는 단계(S220) 및 배경과 분리된 객체가 검출되는 단계(S230)가 진행된다.Next, a step S220 of separating the background from the acquired image and a step S230 of detecting the separated object from the background are performed.

제어부(180)는 획득된 영상에서 배경을 분리할 수 있다. 이때, AMF(Approximated Median Filtering) 알고리즘이 이용될 수 있다. AMF 알고리즘은 영상에서 객체를 검출하기 위한 배경 분리 기법 중 하나로서, 긍정 곡선 영역(Positively curved region)에 대한 처리를 요하는 재귀적 배경 분리 기법이다.The control unit 180 can separate the background from the acquired image. At this time, the AMF (Approximated Median Filtering) algorithm can be used. The AMF algorithm is one of the background separation techniques for object detection in images. It is a recursive background separation technique that requires processing for positively curved regions.

제어부(180)는 AMF 알고리즘을 이용하여 획득된 영상에서 배경을 분리할 수 있다. 이때, 레퍼런스 이미지(reference image)가 이용될 수 있다. 획득된 영상에서 배경이 분리됨에 따라, 획득된 영상에서 객체들이 검출될 수 있다.The controller 180 can separate the background from the acquired image using the AMF algorithm. At this time, a reference image may be used. As the background separates from the acquired image, objects can be detected in the acquired image.

이때, 검출된 객체의 이미지를 보정하는 단계가 진행될 수도 있다. 즉, 검출된 객체의 선명도 및 색상 중 적어도 하나가 보정될 수 있다. 그러나, 이 단계는 생략될 수도 있다.At this time, a step of correcting the image of the detected object may be performed. That is, at least one of the sharpness and hue of the detected object may be corrected. However, this step may be omitted.

이후, 검출된 객체 중 관심 있는 객체(Region of Interest, ROI)가 선택되는 단계(S240)가 진행된다.Thereafter, in step S240, a region of interest (ROI) of interest is selected from the detected objects.

획득된 영상에 포함된 객체들은 본체의 상황 정보를 결정하는 데 있어서 필수적인 객체를 포함할 수도 있지만, 필요 없는 객체를 포함할 수도 있다. 이에 따라, 사용자는 복수의 객체들 중 본체의 상황 정보를 결정하는 데 있어서 필수적인 객체를 직접 선택할 수 있다. 한편, 사용자의 선택과 관계없이, 제어부(180)가 획득된 영상에서 일정 비율 이상의 점유율을 가지는 객체를 선택할 수도 있다.The objects included in the acquired image may include objects that are indispensable in determining the context information of the main body, but may also include objects that are not needed. Accordingly, the user can directly select an object necessary for determining the context information of the main body among a plurality of objects. On the other hand, regardless of the selection of the user, the control unit 180 can select an object having a share ratio equal to or higher than a predetermined ratio in the acquired image.

다음으로, 메모리부(160)의 객체 프레임 이미지와 선택된 객체가 오버랩되는 단계(S250) 및 오버랩된 영역이 기 설정된 영역 이상인지 여부가 판단되는 단계(S260)가 진행된다.Next, a step S250 of overlapping the object frame image of the memory unit 160 with the selected object and a step S260 of determining whether the overlapped region is equal to or greater than a predetermined area are performed.

여기에서 도 8을 참조하면, 메모리부(160)는 제 1 상황 인지 데이터베이스(Database)(161) 및 제 2 상황 인지 데이터베이스(162)를 포함할 수 있다. 제 1 상황 인지 데이터베이스(161)는 복수의 상황 정보에 따른 고유 번호를 저장할 수 있다. 여기에서, -1은 "null" 값을 의미한다.Referring to FIG. 8, the memory unit 160 may include a first context aware database 161 and a second context awareness database 162. The first context aware database 162 may include a first context aware database 162 and a second context aware database 162. [ The first context awareness database 161 may store unique numbers according to a plurality of context information. Here, -1 means "null" value.

제 2 상황 인지 데이터베이스(162)는 복수의 상황 정보에 대응하는 객체 프레임 이미지들 및 설정 정보를 저장할 수 있다. 설정 정보는, 발생될 이벤트 정보 및 이벤트가 발생했을 때 그에 대한 응답 정보를 포함할 수 있다.The second context awareness database 162 may store object frame images and configuration information corresponding to a plurality of context information. The setting information may include event information to be generated and response information when an event occurs.

예를 들어, 도시된 바와 같이, 상황 정보로 "회의 중"(고유 번호 0)임이 검출되기 위해, 획득된 영상에 포함될 객체로 프로젝터, 칠판, 사람 등을 필요로 한다. 즉, 획득된 영상에 프로젝터, 칠판, 사람 등이 포함되면, 제어부(180)는 현재 "회의 중"인 상황임을 인지할 수 있게 된다.For example, as shown in the figure, a projector, a blackboard, a person, or the like is required as an object to be included in the acquired image in order to detect "being in a meeting" (unique number 0) as the situation information. That is, if the acquired image includes a projector, a blackboard, a person, and the like, the control unit 180 can recognize that the present situation is " in conference ".

"회의 중"인 상황임이 인지되면, 제 1 이벤트로 호(call) 신호가 수신되는 경우, 제 1 이벤트에 대한 응답으로 제어부(180)는 자동 응답 메시지를 전송하거나, 무음 모드 또는 진동 모드로 전환할 수 있다. 마찬가지로, 제 2 이벤트로 메시지가 수신되는 경우, 제 2 이벤트에 대한 응답으로 제어부(180)는 자동 응답 메시지를 전송하거나, 무음 모드 또는 진동 모드로 전환할 수 있다.If a call signal is received in the first event, the controller 180 transmits an automatic response message in response to the first event or switches to the silent mode or the vibration mode can do. Similarly, when a message is received in the second event, the controller 180 may transmit an automatic response message in response to the second event, or may switch to a silent mode or a vibration mode.

여기에서, 제 1 이벤트 및 제 2 이벤트에 지정된 -1은 "이벤트 없음"을 의미한다. 예를 들어, "비행기" 안에 있는 상황인 경우, 이벤트가 없더라도 제어부(180)는 즉시 비행기 모드로 전환할 수 있다.Here, the -1 designated to the first event and the second event means " no event ". For example, in a situation that is in an " airplane ", the controller 180 may immediately switch to airplane mode even if there is no event.

다시 도 7로 돌아와서, 제어부(180)는 제 2 상황 인지 데이터베이스(162)에 저장된 객체 프레임 이미지와 선택된 객체를 오버랩할 수 있다. 오버랩된 영역이 기 설정된 영역 이상인 경우, 제어부(180)는 본체의 상황 정보를 결정할 수 있다(S270).Referring back to FIG. 7, the controller 180 may overlap the object frame image stored in the second context awareness database 162 with the selected object. If the overlapped area is equal to or larger than the predetermined area, the controller 180 can determine the status information of the main body (S270).

만약, 오버랩된 영역이 기 설정된 영역 미만인 경우, 제어부(180)는 검출된 객체 중 관심 있는 객체를 다시 선택하여, 본체의 상황 정보를 다시 결정할 수 있다.If the overlapped area is less than the preset area, the controller 180 can again select the object of interest among the detected objects and determine the state information of the main body again.

도 9 및 도 10은 획득된 영상을 이용하여 본체의 상황 정보를 결정하는 동작 예를 보여주는 개념도들이다. 이동 단말기(100)는 본체, 메모리부(160, 도 1 참조), 카메라부(121, 도 1 참조) 및 제어부(180, 도 1 참조)를 포함한다.FIGS. 9 and 10 are conceptual diagrams illustrating an example of an operation of determining the status information of the main body using the acquired image. The mobile terminal 100 includes a main body, a memory unit 160 (see FIG. 1), a camera unit 121 (see FIG. 1), and a control unit 180 (see FIG. 1).

도 9의 (a) 및 도 10의 (a)를 참조하면, 카메라부(121)가 촬영한 영상(255)이 디스플레이부(151)에 표시될 수 있다. 이와 함께, 촬영된 영상에서 객체가 검출 중임을 알리는 팝업 창(258)이 디스플레이부(151)에 표시될 수 있다.Referring to FIGS. 9A and 10A, an image 255 captured by the camera unit 121 can be displayed on the display unit 151. FIG. At the same time, a pop-up window 258 indicating that an object is being detected in the photographed image may be displayed on the display unit 151.

다음으로, 도 9의 (b) 및 도 10의 (b)를 참조하면, 제어부(180)는 AMF 알고리즘을 이용하여 획득된 영상에서 배경을 분리함으로써, 획득된 영상에서 객체들을 검출할 수 있다. 도시된 바와 같이, 객체들은, 칠판, 책상, 의자, 시계 등을 포함할 수 있다.Next, referring to FIGS. 9B and 10B, the controller 180 can detect objects in the acquired image by separating the background from the acquired image using the AMF algorithm. As shown, the objects may include blackboards, desks, chairs, clocks, and the like.

제어부(180)는 검출된 객체들 중 관심 있는 객체를 선택할 수 있다. 구체적으로, 제어부(180)는 획득된 영상에서 일정 비율 이상의 점유율을 가지는 객체를 선택할 수 있다. 예를 들어, 선택된 객체는, 칠판(259a), 책상(259b) 및 의자(259c~259e)를 포함할 수 있다. 또한, 도시된 바와 같이, 선택된 객체들(259a~259e)은 다른 객체들과 구분되도록 표시될 수 있다. 예를 들어, 선택된 객체들(259a~259e)의 테두리가 강조되어 표시될 수 있다.The controller 180 may select an object of interest among the detected objects. Specifically, the control unit 180 can select an object having a rate of occupancy equal to or greater than a predetermined rate in the acquired image. For example, the selected object may include a chalkboard 259a, a desk 259b, and chairs 259c through 259e. Also, as shown, the selected objects 259a through 259e may be displayed to be distinguished from other objects. For example, the edges of the selected objects 259a to 259e can be highlighted and displayed.

이후, 도 9의 (c)를 참조하면, 제어부(180)는 선택된 객체들(259a~259e)의 점유율을 검출하고, 검출된 점유율 정보에 근거하여, 메모리부(160, 도 1 참조)에 저장된 복수의 상황 정보 중 어느 하나를 본체의 상황 정보로 결정할 수 있다.9C, the control unit 180 detects the occupancy rate of the selected objects 259a to 259e and stores the occupancy rate of the selected objects 259a to 259e in the memory unit 160 (see FIG. 1) based on the detected occupancy rate information. Any one of the plurality of pieces of context information can be determined as the context information of the main body.

도시된 바와 같이, 제어부(180)는 선택된 객체들(259a~259e)의 점유율 정보를 알리는 팝업 창(260)을 디스플레이부(151)에 표시할 수 있다. 본체의 상황 정보가 결정됨에 따라, 제어부(180)는 본체의 상황 정보(예를 들어, "회의 상황")도 팝업 창(260)에 표시할 수 있다. 한편, 팝업 창(260)에는 선택된 객체들(259a~259e)의 점유율 정보 및 본체의 상황 정보 중 어느 하나만 포함될 수도 있다.As shown in the figure, the control unit 180 may display a pop-up window 260 on the display unit 151 to inform the occupancy information of the selected objects 259a to 259e. As the status information of the main body is determined, the control unit 180 can display the main body status information (e.g., " conference status ") in the pop-up window 260 as well. Meanwhile, the pop-up window 260 may include only one of the occupancy rate information of the selected objects 259a to 259e and the status information of the main body.

한편, 도 10의 (c)를 참조하면, 제어부(180)는 선택된 객체들(259a~259e)의 점유율 정보에 따른 본체의 상황 정보를 검출하지 못할 수도 있다. 이때, 제어부(180)는 본체의 상황 정보와 매칭되는 상황 정보가 메모리부(160)에 저장되어 있지 않음을 나타내는 팝업 창(261)을 디스플레이부(151)에 표시할 수 있다.On the other hand, referring to FIG. 10 (c), the controller 180 may not be able to detect the status information of the main body according to the occupancy rate information of the selected objects 259a to 259e. At this time, the controller 180 may display a pop-up window 261 on the display unit 151 indicating that the status information matching the status information of the main body is not stored in the memory unit 160. [

이때, 새로운 상황 정보를 입력하는 기능에 대응하는 아이콘이 선택되는 경우, 도 10의 (d)를 참조하면, 제어부(180)는 새로운 상황 정보를 입력 받기 위한 입력 창(262) 및 가상 키패드를 디스플레이부(151)에 표시할 수 있다. 새로운 상황 정보를 입력 받고 나면, 제어부(180)는 입력 받은 새로운 상황 정보를 선택된 객체들(259a~259e)의 객체 프레임 이미지들과 함께 메모리부(160)에 저장할 수 있다.10 (d), the control unit 180 displays an input window 262 for receiving new situation information and a virtual keypad for displaying the virtual keypad, Can be displayed on the display section (151). Upon receiving the new situation information, the controller 180 may store the received new situation information in the memory unit 160 together with the object frame images of the selected objects 259a to 259e.

또한, 비록 도시되지는 않았지만, 제어부(180)는 새로운 상황 정보에 대응하는 설정 정보를 입력 받을 수 있다. 설정 정보는, 발생될 이벤트 정보 및 이벤트가 발생했을 때 그에 대한 응답 정보를 포함할 수 있다. 또한, 제어부(180)는 설정 정보를 입력 받고 나서 바로 해당하는 상황 정보에 대응하는 응답 정보를 실행할지 여부(예를 들어, 바로 실행 모드 및 예약 실행 모드 등)를 선택 받을 수 있다.In addition, although not shown, the control unit 180 can receive setting information corresponding to new situation information. The setting information may include event information to be generated and response information when an event occurs. In addition, the control unit 180 can select whether to execute the response information corresponding to the corresponding situation information immediately after receiving the setting information (for example, the immediate execution mode and the scheduled execution mode).

도 11 내지 도 15는 영상의 획득 시점을 결정하는 동작 예를 보여주는 개념도들이다. 이동 단말기(100)는 본체, 메모리부(160, 도 1 참조), 카메라부(121, 도 1 참조) 및 제어부(180, 도 1 참조)를 포함한다.FIGS. 11 to 15 are conceptual diagrams illustrating an example of an operation for determining an acquisition time point of an image. The mobile terminal 100 includes a main body, a memory unit 160 (see FIG. 1), a camera unit 121 (see FIG. 1), and a control unit 180 (see FIG. 1).

도 11은 이동 단말기(100)가 슬립 모드(sleep mode)를 해제하기 위한 제어 명령을 입력 받을 때 영상을 획득하는 동작 예를 보여준다.11 shows an example of an operation of acquiring an image when the mobile terminal 100 receives a control command for releasing a sleep mode.

구체적으로, 도 11의 (a) 및 (b)를 참조하면, 이동 단말기(100)가 슬립 모드일 때, 사용자 입력부(130)는 슬립 모드를 해제하기 위한 제어 명령을 입력받을 수 있다. 여기에서, 슬립 모드는 디스플레이부(151)에 화면 정보가 표시되지 않으며, 디스플레이부(151)에 인가되는 터치 입력을 감지하지 않는 모드를 의미한다.11 (a) and 11 (b), when the mobile terminal 100 is in the sleep mode, the user input unit 130 may receive a control command for releasing the sleep mode. Here, the sleep mode means a mode in which the screen information is not displayed on the display unit 151 and the touch input applied to the display unit 151 is not sensed.

사용자 입력부(130)를 통해 슬립 모드를 해제하기 위한 제어 명령을 입력 받는 경우, 제어부(180)는 본체의 상황 정보를 검출하는 애플리케이션(이하, "스마트 아이(smart eye) 애플리케이션"이라고 칭함)을 실행할 수 있다.When receiving a control command for releasing the sleep mode through the user input unit 130, the control unit 180 executes an application (hereinafter referred to as a " smart eye application " .

도 11의 (c)를 참조하면, 스마트 아이 애플리케이션이 실행되면서, 제어부(180)는 사용자로부터 메모리부(160) 및 카메라부(121) 중 어느 것을 이용하여 영상을 획득할지를 선택 받을 수 있다.Referring to FIG. 11 (c), the controller 180 can select a user to acquire an image using the memory unit 160 and the camera unit 121, while the smart eye application is being executed.

이에 따라, 도시된 바와 같이, 메모리부(160)를 이용하여 영상을 획득하는 기능에 대응하는 제 1 아이콘(253) 및 카메라부(121)를 이용하여 영상을 획득하는 기능에 대응하는 제 2 아이콘(254)이 디스플레이부(151)에 표시되고, 사용자로부터 제 1 및 제 2 아이콘(253, 254) 중 어느 하나를 선택 받을 수 있다.Accordingly, the first icon 253 corresponding to the function of acquiring an image using the memory unit 160 and the second icon 253 corresponding to the function of acquiring the image using the camera unit 121, The first icon 254 is displayed on the display unit 151 and any one of the first and second icons 253 and 254 can be selected from the user.

한편, 비록 도시되지는 않았지만, 제어부(180)가 사용 빈도 정보 및 최근에 사용된 이력 정보 중 적어도 하나에 근거하여 메모리부(160) 및 카메라부(121) 중 어느 것을 이용하여 영상을 획득할지를 결정할 수도 있다.Although not shown, the control unit 180 determines whether to acquire an image using either the memory unit 160 or the camera unit 121 based on at least one of the frequency of use information and the recently used history information It is possible.

한편, 비록 도시되지는 않았지만, 사용자가 카메라부(121)의 동작을 위한 핫 키를 입력하는 경우, 바로 카메라부(121)를 이용하여 영상이 획득될 수도 있다.Meanwhile, although not shown, when a user inputs a hot key for the operation of the camera unit 121, an image may be obtained using the camera unit 121 immediately.

도 12는 이동 단말기(100)가 위치 정보 및 시간 정보 중 적어도 하나에 근거하여 영상을 획득하는 동작 예를 보여준다.12 shows an example of an operation in which the mobile terminal 100 acquires an image based on at least one of position information and time information.

구체적으로, 도 12의 (a) 및 (b)를 참조하면, 무선 통신부(110, 도 1 참조)는 본체의 위치 정보 및 시간 정보 중 적어도 하나를 수신할 수 있다. 제어부(180)는 수신된 위치 정보 및 시간 정보 중 적어도 하나에 근거하여, 스마트 아이 애플리케이션을 실행할지 여부를 결정할 수 있다.Specifically, referring to FIGS. 12A and 12B, the wireless communication unit 110 (see FIG. 1) can receive at least one of position information and time information of the main body. The control unit 180 can determine whether to execute the smart eye application based on at least one of the received location information and the time information.

제어부(180)는 위성 항법 장치(Global Positioning System, GPS)로부터 수신된 위치 정보 및 액세스 포인트(Access Point, AP)와의 무선 통신을 통해 수집된 위치 정보 중 적어도 하나를 이용하여 본체의 위치 정보를 결정할 수 있다.The controller 180 determines the position information of the main body using at least one of the position information received from the Global Positioning System (GPS) and the position information collected through wireless communication with an access point (AP) .

예를 들어, 본체의 위치 정보를 나타내는 좌표가 기 설정된 값 이상 변경되는 경우, 제어부(180)는 스마트 아이 애플리케이션을 실행할 수 있다. 이와 함께, 제어부(180)는 본체의 위치 이동이 감지되어 스마트 아이 애플리케이션을 실행함을 알리는 팝업 창(263)을 디스플레이부(151)에 표시할 수 있다.For example, when the coordinates indicating the position information of the main body are changed by a predetermined value or more, the control unit 180 can execute the smart eye application. In addition, the control unit 180 may display a pop-up window 263 on the display unit 151 indicating that the position of the main body is detected and the smart eye application is executed.

비록 도시되지는 않았지만, 현재 시간 정보에 근거하여 제어부(180)가 스마트 아이 애플리케이션을 실행할 수도 있다. 예를 들어, 현재 시간이 오전 9시인 경우, 제어부(180)는 스마트 아이 애플리케이션을 실행할 수 있다.Although not shown, the control unit 180 may execute the smart eye application based on the current time information. For example, when the current time is 9:00 am, the control unit 180 may execute the smart eye application.

이후, 도 12의 (c)를 참조하면, 스마트 아이 애플리케이션이 실행되면서, 제어부(180)는 사용자로부터 메모리부(160) 및 카메라부(121) 중 어느 것을 이용하여 영상을 획득할지를 선택 받을 수 있다.12 (c), when the Smart Eye application is executed, the control unit 180 can select a user to acquire an image using the memory unit 160 and the camera unit 121 .

도 13은 이동 단말기(100)가 발생된 이벤트의 종류에 근거하여 영상을 획득하는 동작 예를 보여준다.FIG. 13 shows an example of an operation of acquiring an image based on the type of an event that the mobile terminal 100 generates.

구체적으로, 도 13의 (a) 및 (b)를 참조하면, 제어부(180)는 발생된 이벤트를 모니터링할 수 있다. 예를 들어, 포 그라운드에 홈 스크린이 표시되는 동안, 제어부(180)는 백 그라운드에 발생된 이벤트를 모니터링할 수 있다. 제어부(180)는 백 그라운드에 이벤트가 발생됨을 알리는 팝업 창(264)을 디스플레이부(151)에 표시할 수 있다.13 (a) and 13 (b), the controller 180 may monitor the generated event. For example, while the home screen is being displayed in the foreground, the controller 180 may monitor events occurring in the background. The controller 180 may display on the display 151 a pop-up window 264 indicating that an event has occurred in the background.

제어부(180)는 발생된 이벤트의 종류를 검출할 수 있다. 검출된 이벤트의 종류에 따라, 제어부(180)는 스마트 아이 애플리케이션을 실행할지 여부를 결정할 수 있다. 제어부(180)는 검출된 이벤트의 종류 뿐만 아니라, 이벤트를 발생시킨 송신인의 정보에 따라 스마트 아이 애플리케이션을 실행할지 여부를 결정할 수도 있다.The control unit 180 can detect the type of the generated event. Depending on the type of the detected event, the control unit 180 can determine whether to execute the smart eye application. The control unit 180 may determine whether to execute the smart eye application according to the type of the detected event as well as the information of the sender who generated the event.

예를 들어, 검출된 이벤트가 문자 메시지 수신과 관련된 이벤트인 경우, 제어부(180)는 스마트 아이 애플리케이션을 실행할 수 있다. 이와 함께, 제어부(180)는 스마트 아이 애플리케이션을 실행함을 알리는 팝업 창(263)을 디스플레이부(151)에 표시할 수 있다.For example, if the detected event is an event related to receiving a text message, the control unit 180 may execute a smart eye application. At the same time, the control unit 180 may display a pop-up window 263 on the display unit 151 informing that the smart eye application is executed.

이후, 도 13의 (c)를 참조하면, 스마트 아이 애플리케이션이 실행되면서, 제어부(180)는 사용자로부터 메모리부(160) 및 카메라부(121) 중 어느 것을 이용하여 영상을 획득할지를 선택 받을 수 있다.13C, when the Smart Eye application is executed, the control unit 180 can select a user to acquire an image using the memory unit 160 and the camera unit 121 .

도 14는 이동 단말기(100)가 마이크(미도시됨)를 통해 입력 받은 음성 신호의 분석 결과에 근거하여 영상을 획득하는 동작 예를 보여준다.FIG. 14 shows an example of an operation in which the mobile terminal 100 acquires an image based on an analysis result of a voice signal input through a microphone (not shown).

구체적으로, 도 14의 (a) 및 (b)를 참조하면, 제어부(180)는 음성 인식 프로그램(예를 들어, 퀵 보이스 애플리케이션)을 실행할 수 있다. 마이크는 음성 신호를 입력 받을 수 있다. 제어부(180)는 마이크를 통해 입력 받은 음성 신호를 텍스트 데이터로 변환할 수 있다. 제어부(180)는 텍스트 데이터로 변환된 제어 명령이 추출되도록 자연어 처리(Natural Language Processing, NLP) 알고리즘을 수행할 수 있다.14 (a) and 14 (b), the control unit 180 can execute a voice recognition program (for example, a quick voice application). The microphone can receive a voice signal. The control unit 180 can convert the voice signal input through the microphone into text data. The control unit 180 may perform a Natural Language Processing (NLP) algorithm to extract the control command converted into the text data.

자연어 처리 알고리즘이란, 이동 단말기(100) 또는 컴퓨터가 사람 언어의 이해, 생성 및 분석을 하기 위한 인공 지능 기술을 의미한다. 자연어 이해 작업이란, 사람의 일상 생활 언어를 형태 분석, 의미 분석, 대화 분석 등을 통해 이동 단말기(100) 또는 컴퓨터가 처리할 수 있도록 변환시키는 작업을 의미한다.The natural language processing algorithm means an artificial intelligence technology for the mobile terminal 100 or the computer to understand, generate and analyze a human language. Natural language understanding work refers to a task of converting a daily life language of a person so that the mobile terminal 100 or the computer can process it through morphological analysis, semantic analysis, and dialog analysis.

도시된 바와 같이, 사용자는 마이크를 통해 음성으로 스마트 아이 애플리케이션을 실행시킬 수 있다. 또한, 사용자는 마이크를 통해 음성으로 영상 촬영 모드를 실행시킬 수 있다. 제어부(180)는 자연어 처리 알고리즘을 통해 제어 명령이 추출되면, 추출된 제어 명령을 이용하여 스마트 아이 애플리케이션을 실행시키고, 영상 촬영 모드를 실행시킬 수 있다.As shown, the user can execute the smart eye application by voice through the microphone. In addition, the user can execute the image photographing mode by voice through the microphone. When the control command is extracted through the natural language processing algorithm, the control unit 180 can execute the smart eye application using the extracted control command and execute the image shooting mode.

이후, 도 14의 (c)를 참조하면, 제어부(180)는 촬영된 영상(255)을 디스플레이부(151)에 표시할 수 있다.Referring to FIG. 14C, the control unit 180 may display the photographed image 255 on the display unit 151. FIG.

도 15는 이동 단말기(100)가 본체의 상황 정보를 결정하고 나서 기 설정된 시간이 지나고 영상을 획득하는 동작 예를 보여준다.15 shows an example of an operation in which the mobile terminal 100 determines the status information of the main body and acquires the image after a predetermined time has elapsed.

구체적으로, 도 15의 (a) 및 (b)를 참조하면, 본체의 상황 정보가 결정되고 나서 기 설정된 시간이 지난 후, 제어부(180)는 본체의 새로운 상황 정보를 결정하기 위해 스마트 아이 애플리케이션을 실행할 수 있다.15 (a) and 15 (b), after the predetermined time has elapsed since the status information of the main body is determined, the controller 180 controls the smart i-application to determine new status information of the main body Can be executed.

이에 따라, 디스플레이부(151)에 새로 획득된 영상(255')이 표시될 수 있다. 또한, 디스플레이부(151)에 현재 상황이 감지 중임을 알리는 팝업 창(256)이 표시될 수 있다. 또한, 카메라부(121)를 통해 새로운 영상(255')이 획득 중임을 나타내도록, 제 2 아이콘(254)이 강조되어 표시될 수 있다.Accordingly, the newly acquired image 255 'can be displayed on the display unit 151. [ In addition, a pop-up window 256 indicating that the current situation is being detected may be displayed on the display unit 151. [ In addition, the second icon 254 may be highlighted and displayed to indicate that a new image 255 'is being acquired through the camera unit 121. [

이후, 도 15의 (c)를 참조하면, 제어부(180)는 새로운 객체들의 점유율을 검출하고, 검출된 점유율 정보에 근거하여, 메모리부(160)에 저장된 복수의 상황 정보 중 어느 하나를 본체의 새로운 상황 정보로 결정할 수 있다.15 (c), the controller 180 detects the occupancy rate of the new objects, and based on the detected occupancy rate information, acquires any one of a plurality of pieces of context information stored in the memory unit 160, You can decide with new situation information.

도시된 바와 같이, 제어부(180)는 새로운 객체들의 점유율 정보를 알리는 팝업 창(260')을 디스플레이부(151)에 표시할 수 있다. 본체의 새로운 상황 정보가 결정됨에 따라, 제어부(180)는 본체의 새로운 상황 정보(예를 들어, "휴식 상황")도 팝업 창(260')에 표시할 수 있다.As shown in the figure, the controller 180 may display a popup window 260 'on the display unit 151 to inform the occupancy rate information of new objects. As new status information of the main body is determined, the control unit 180 can also display new status information of the main body (for example, " break situation ") in the pop-up window 260 '.

도 16 내지 도 18은 설정 정보를 이용하여 본체를 제어하는 동작 예를 보여주는 개념도들이다. 이동 단말기(100)는 본체, 메모리부(160, 도 1 참조), 카메라부(121, 도 1 참조) 및 제어부(180, 도 1 참조)를 포함한다.16 to 18 are conceptual diagrams showing an example of an operation of controlling the main body using setting information. The mobile terminal 100 includes a main body, a memory unit 160 (see FIG. 1), a camera unit 121 (see FIG. 1), and a control unit 180 (see FIG. 1).

도 16의 (a)를 참조하면, 제어부(180)는 획득된 영상에 포함된 객체들 중 선택된 객체들의 점유율 정보에 근거하여, 메모리부(160)에 저장된 복수의 상황 정보 중 어느 하나를 본체의 상황 정보로 결정할 수 있다.Referring to FIG. 16A, the controller 180 determines which one of a plurality of pieces of context information stored in the memory unit 160 is to be stored in the main body, based on the occupancy rate information of the selected objects among the objects included in the acquired image. It can be decided by the situation information.

도시된 바와 같이, 제어부(180)는 선택된 객체들의 점유율 정보를 알리는 팝업 창(260)을 디스플레이부(151)에 표시할 수 있다. 본체의 상황 정보가 결정됨에 따라, 제어부(180)는 본체의 상황 정보(예를 들어, "회의 상황")도 팝업 창(260)에 표시할 수 있다.As shown in the figure, the control unit 180 may display a pop-up window 260 on the display unit 151 to inform the occupancy rate information of the selected objects. As the status information of the main body is determined, the control unit 180 can display the main body status information (e.g., " conference status ") in the pop-up window 260 as well.

제어부(180)는 본체의 상황 정보에 대응하는 설정 정보를 이용하여 본체를 제어할 수 있다. 구체적으로, 제어부(180)는 본체의 상황 정보에 대응하는 설정 정보를 이용하여 적어도 하나의 애플리케이션을 추천하고, 추천된 애플리케이션을 이용하여 본체를 제어할 수 있다.The control unit 180 can control the main body using the setting information corresponding to the status information of the main body. Specifically, the control unit 180 can recommend at least one application using the setting information corresponding to the status information of the main body, and can control the main body using the recommended application.

좀 더 상세하게, 제어부(180)는 설정 정보를 이용하여 본체의 설정을 변경할 수 있다. 또한, 제어부(180)는 추천된 애플리케이션을 실행하거나, 추천된 애플리케이션에 대응하는 아이콘을 홈 스크린에 표시할 수 있다.In more detail, the control unit 180 can change the setting of the main body using the setting information. Further, the control unit 180 may execute a recommended application or display an icon corresponding to the recommended application on the home screen.

예를 들어, 도 16의 (b)를 참조하면, 본체의 상황 정보가 회의 상황으로 인지된 후, 호 신호가 수신될 수 있다. 이때, 도 16의 (c)에 도시된 바와 같이, 제어부(180)는 수신된 호 신호에 대해 자동 응답 메시지를 전송할 수 있다. 제어부(180)는 자동 응답 메시지를 상대방에게 전송한 후, 자동 응답 메시지를 전송했음을 알리는 팝업 창(265)을 디스플레이부(151)에 표시할 수 있다.For example, referring to FIG. 16 (b), a call signal can be received after the status information of the main body is recognized as a conference situation. At this time, as shown in (c) of FIG. 16, the controller 180 can transmit an automatic response message to the received call signal. After transmitting the automatic response message to the other party, the control unit 180 may display a popup window 265 on the display unit 151 indicating that the automatic response message has been transmitted.

한편, 도 16의 (d)에 도시된 바와 같이, 제어부(180)는 이동 단말기(100)의 모드를 매너 모드(예를 들어, 무음 모드 또는 진동 모드)로 전환할 수도 있다. 제어부(180)는 이동 단말기(100)의 모드를 매너 모드로 전환한 후, 매너 모드로 전환되었음을 알리는 팝업 창(266)을 디스플레이부(151)에 표시할 수 있다.16 (d), the control unit 180 may switch the mode of the mobile terminal 100 to a silent mode (for example, a silent mode or a vibration mode). The control unit 180 may display a pop-up window 266 on the display unit 151 indicating that the mobile phone 100 is switched to the silent mode after switching the mode of the mobile terminal 100 to the silent mode.

도 17을 참조하면, 제어부(180)는 추천된 애플리케이션에 대응하는 아이콘을 디스플레이부(151)에 표시할 수 있다. 예를 들어, 도 17의 (a) 및 (b)에 도시된 바와 같이, 본체의 상황 정보가 회의 상황으로 인지되면, 제어부(180)는 이메일 애플리케이션에 대응하는 아이콘(267a), 사전 애플리케이션에 대응하는 아이콘(267b), 연락처 애플리케이션에 대응하는 아이콘(267c) 및 전자 메모 애플리케이션에 대응하는 아이콘(267d)을 락 스크린(lock screen)에 표시할 수 있다.Referring to FIG. 17, the control unit 180 may display an icon corresponding to the recommended application on the display unit 151. FIG. 17 (a) and 17 (b), when the status information of the main body is recognized as a meeting situation, the control unit 180 displays an icon 267a corresponding to the e-mail application, The icon 267b corresponding to the contact application, the icon 267c corresponding to the contact application, and the icon 267d corresponding to the electronic memo application on the lock screen.

이를 위해, 메모리부(160)는 복수의 상황 정보 각각에 최적화된 애플리케이션의 정보를 저장할 수 있다. 구체적으로, 제어부(180)는 사용자의 선택 및 사용 이력 정보 중 적어도 하나에 근거하여, 복수의 상황 정보 각각에 최적화된 애플리케이션의 정보를 결정하고, 결정된 정보를 메모리부(160)에 저장할 수 있다. 제어부(180)는 본체의 상황 정보가 결정되면, 본체의 상황 정보에 매칭되는 애플리케이션을 메모리부(160)로부터 추천할 수 있다.To this end, the memory unit 160 may store information of an application optimized for each of a plurality of pieces of context information. Specifically, based on at least one of the user's selection and use history information, the control unit 180 can determine the information of the application optimized for each of the plurality of situation information, and store the determined information in the memory unit 160. [ When the status information of the main body is determined, the control unit 180 can recommend an application matching the status information of the main body from the memory unit 160. [

도 18의 (a)를 참조하면, 상황 정보에 최적화된 애플리케이션을 설정할 수 있는 설정 화면이 표시될 수 있다. 예를 들어, 상황 정보가 "회의 상황"인 경우, 사용자는 회의 중에 자주 사용하는 애플리케이션을 선택할 수 있다. 한편, 제어부(180)는 사용자의 선택 외에도, 사용자의 지난 사용 이력 정보에 근거하여 애플리케이션을 선택할 수 있다. 선택된 정보는 메모리부(160)에 저장될 수 있다.Referring to (a) of FIG. 18, a setting screen capable of setting an application optimized for the situation information can be displayed. For example, if the situation information is " conference situation ", the user can select a frequently used application during a meeting. On the other hand, the control unit 180 can select the application based on the past usage history information of the user, in addition to the selection by the user. The selected information may be stored in the memory unit 160.

비록 도면에는 상황 정보와 관련된 애플리케이션을 설정할 수 있는 설정 화면이 표시되었지만, 제어부(180)는 상황 정보와 관련하여 본체의 설정을 변경할 수 있는 설정 화면을 표시할 수도 있다. 사용자는 설정 화면에서 음향 출력 모듈(152, 도 1 참조)의 음향 모드 변경, 무선 통신부(110, 도 1 참조)의 통신 모드 변경 등을 수행할 수 있다.Although the setting screen for setting the application related to the situation information is displayed in the drawing, the control unit 180 may display a setting screen for changing the setting of the main body with respect to the situation information. The user can change the sound mode of the sound output module 152 (see FIG. 1) and change the communication mode of the wireless communication unit 110 (see FIG. 1) on the setting screen.

이후, 도 18의 (b)에 도시된 바와 같이, 복수의 상황 정보 중 "회의 상황"에 매칭되는 애플리케이션의 선택 결과를 보여주는 미리보기 화면(프리뷰 화면)이 디스플레이부(151)에 표시될 수 있다.Thereafter, as shown in FIG. 18B, a preview screen (preview screen) showing the selection result of the application matched with the "meeting situation" among the plurality of situation information can be displayed on the display unit 151 .

이에 따라, 이후, 본체의 상황 정보가 "회의 상황"임이 인지되면, 사용자가 미리 선택한 애플리케이션들에 대응하는 아이콘들이 락 스크린에 표시될 수 있다.Thereafter, when the status information of the main body is recognized as " conference situation ", icons corresponding to the applications pre-selected by the user can be displayed on the lock screen.

상술한 바와 같이, 본 발명의 모든 실시 예는 획득된 영상을 분석하고, 분석 결과에 근거하여 본체를 제어할 수 있다. 제어부(180)는 획득된 영상을 이용하여 현재 장소 정보, 현재 위치 정보, 현재 시간 정보 등을 검출할 수 있다.As described above, all embodiments of the present invention can analyze the acquired image and control the body based on the analysis result. The control unit 180 can detect the current location information, the current location information, the current time information, and the like using the acquired image.

제어부(180)는 현재 장소 정보에 근거하여, 사용자가 대중 교통 안에 있는 상황, 비행기 안에 있는 상황, 극장 안에 있는 상황 등을 검출하고, 각각의 상황에 최적화된 애플리케이션을 디스플레이부(151)에 표시하거나, 최적화된 모드를 실행할 수 있다. 예를 들어, 사용자가 버스 정류장에 있는 경우, 제어부(180)는 사용자가 자주 이용하는 버스의 노선 정보 또는 도착 시간 정보를 디스플레이부(151)에 표시할 수 있다. 다른 예를 들어, 사용자가 극장에 있는 경우, 제어부(180)는 극장에서 상영 중인 영화 정보 또는 최근 관람한 영화 정보를 디스플레이부(151)에 표시할 수 있다. 또한, 제어부(180)는 상영 중인 영화 정보 중 사용자가 선호하는 장르에 해당하는 영화 정보를 디스플레이부(151)에 표시할 수 있다.The control unit 180 detects the situation in the public transportation, the situation in the airplane, the situation in the theater, etc. based on the current place information and displays the application optimized for each situation on the display unit 151 , The optimized mode can be executed. For example, when the user is at the bus stop, the control unit 180 may display the route information or the arrival time information of the bus frequently used by the user on the display unit 151. For example, when the user is in the theater, the control unit 180 may display the movie information currently being displayed in the theater or recently viewed movie information on the display unit 151. In addition, the control unit 180 may display the movie information corresponding to the user's favorite genre on the display unit 151 among the movie information being displayed.

또한, 제어부(180)는 현재 위치 정보에 근거하여, 사용자가 주차 중인 상황, 사용자가 쇼핑 중인 상황 등을 검출하고, 사용자에게 네비게이션 화면을 제공하거나, 쇼핑 정보를 제공할 수 있다. 예를 들어, 사용자가 주차 중인 경우, 카메라부(121)는 주차장 영상을 스캔하고, 이후, 제어부(180)는 사용자에게 자동차가 주차된 영역을 안내해주는 네비게이션 화면을 제공할 수 있다. 다른 예를 들어, 사용자가 쇼핑 중인 경우, 제어부(180)는 쇼핑 센터의 층별 안내도를 디스플레이부(151)에 표시할 수 있다. 또한, 제어부(180)는 쇼핑 센터의 행사 안내 정보를 디스플레이부(151)에 표시할 수 있다.In addition, the control unit 180 can detect a situation in which the user is parked, a situation in which the user is shopping, etc., based on the current location information, provide a navigation screen to the user, or provide shopping information. For example, when the user is parked, the camera unit 121 scans the parking lot image, and then the control unit 180 may provide a navigation screen to guide the user to the parked area. For example, if the user is shopping, the control unit 180 may display the floor guide map of the shopping center on the display unit 151. [ In addition, the control unit 180 may display the event guide information of the shopping center on the display unit 151.

또한, 제어부(180)는 현재 상황 정보에 근거하여, 사용자가 교통사고 발생 지점에 있는 경우, 긴급 구조 전화를 자동으로 연결할 수 있다. 이때, 제어부(180)는 교통사고와 관련된 객체를 검출함으로써, 사용자가 교통사고 발생 지점에 있다는 것을 인지할 수 있다.In addition, the control unit 180 can automatically connect the emergency rescue phone when the user is at a traffic accident occurrence point based on the current situation information. At this time, the control unit 180 can recognize that the user is at a traffic accident occurrence point by detecting an object related to a traffic accident.

또한, 제어부(180)는 획득된 영상에 포함된 객체에 근거하여 사용자가 차량 내부에 있음을 검출할 수도 있고, 침대 위에 있음을 검출할 수도 있다. 예를 들어, 사용자가 차량 내부에 있는 경우, 이동 단말기(100)의 본체를 스피커폰 모드 및 블루투스 모드로 자동 전환할 수 있다. 다른 예를 들어, 사용자가 침대 위에 있는 경우, 날씨 정보, 뉴스 정보 및 사용자의 스케줄 정보를 디스플레이부(151)에 표시할 수 있다.In addition, the controller 180 may detect whether the user is inside the vehicle or on the bed based on the objects included in the acquired image. For example, when the user is inside the vehicle, the main body of the mobile terminal 100 can be automatically switched to the speakerphone mode and the Bluetooth mode. For example, when the user is on the bed, the weather information, news information, and schedule information of the user can be displayed on the display unit 151.

또 다른 예를 들어, 제어부(180)는 획득된 영상에 포함된 객체(예를 들어, 음식)에 근거하여 사용자가 식사 중임을 인지할 수 있다. 카메라부(121)는 식탁 위의 음식을 인지하고, 사용자의 건강 정보와 인지된 음식 정보를 연관하여 사용자에게 권장 음식을 추천할 수 있다. 또 다른 예를 들어, 제어부(180)는 획득된 영상에 포함된 객체(예를 들어, 공)에 근거하여 사용자가 운동 중임을 인지할 수 있다. 제어부(180)는 해당 객체(예를 들어, 공)를 이용할 수 있는 위치 정보를 디스플레이부(151)에 표시할 수 있다. 또 다른 예를 들어, 제어부(180)는 획득된 영상에 포함된 객체(예를 들어, 가전 제품)에 근거하여 홈 네트워크를 실행하고, 홈 네트워크를 통해 사용자의 집에 있는 가전 제품을 원격으로 제어할 수 있다.For example, the control unit 180 may recognize that the user is eating on the basis of the object (e.g., food) included in the acquired image. The camera unit 121 recognizes the food on the table and can recommend the recommended food to the user by associating the user's health information with the perceived food information. In another example, the controller 180 may recognize that the user is in motion based on the object (e.g., ball) included in the acquired image. The control unit 180 may display on the display unit 151 positional information that can use the object (e.g., ball). For example, the control unit 180 may execute a home network based on an object (for example, a home appliance) included in the acquired image, remotely control the home appliance in the user's home through the home network can do.

또한, 본 명세서에 개시된 일 실시 예에 의하면, 전술한 방법은, 프로그램이 기록된 매체에 프로세서가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 프로세서가 읽을 수 있는 매체의 예로는, ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장장치 등이 있으며, 캐리어 웨이브(예를 들어, 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다.Further, according to the embodiment disclosed herein, the above-described method can be implemented as a code that can be read by a processor on a medium on which the program is recorded. Examples of the medium that can be read by the processor include ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical data storage, etc., and may be implemented in the form of a carrier wave (e.g., transmission over the Internet) .

상기와 같이 설명된 이동 단말기는 상기 설명된 실시 예들의 구성과 방법이 한정되게 적용될 수 있는 것이 아니라, 상기 실시 예들은 다양한 변형이 이루어질 수 있도록 각 실시 예들의 전부 또는 일부가 선택적으로 조합되어 구성될 수도 있다.The mobile terminal described above can be applied to not only the configuration and method of the embodiments described above but also all or some of the embodiments may be selectively combined so that various modifications may be made to the embodiments It is possible.

Claims (18)

단말기 본체;
영상들을 저장하도록 형성되는 메모리부;
영상을 촬영하도록 형성되는 카메라부;
디스플레이부; 및
상기 메모리부 및 상기 카메라부 중 적어도 하나로부터 영상을 획득하고, 상기 획득된 영상을 상기 디스플레이부에 출력하며, 상기 획득된 영상을 분석하며, 분석 결과를 이용하여 상기 본체의 상황 정보를 인식하며, 상기 본체의 상황 정보에 대응하는 설정 정보를 이용하여 상기 본체를 제어하는 제어부를 포함하고,
상기 제어부는,
상기 획득된 영상에서 일정 비율 이상의 점유율을 가지는 객체들을 선택하고, 상기 선택된 객체들의 점유율을 검출하며, 검출된 점유율 정보에 근거하여 상기 본체의 상황 정보를 결정하고,
상기 획득된 영상에서 상기 선택된 객체들을 선택되지 않은 객체와 구분되도록 표시하며,
상기 선택된 객체들의 점유율 정보 및 상기 결정된 본체의 상황 정보를 포함하는 팝업창을 상기 디스플레이부에 출력하고,
상기 결정된 본체의 상황 정보에 대응되도록 상기 본체의 설정이 변경되면, 변경된 설정에 의해 상기 본체가 수행한 동작을 알리는 정보를 상기 디스플레이부에 출력하는 것을 특징으로 하는 이동 단말기.
A terminal body;
A memory unit configured to store images;
A camera unit configured to capture an image;
A display unit; And
Wherein the control unit acquires an image from at least one of the memory unit and the camera unit, outputs the obtained image to the display unit, analyzes the obtained image, And a control unit for controlling the main body using setting information corresponding to the status information of the main body,
Wherein,
Selecting the objects having the occupancy rates higher than a predetermined ratio in the acquired image, detecting the occupancy rate of the selected objects, determining the status information of the main body based on the detected occupancy rate information,
Displaying the selected objects so as to be distinguished from non-selected objects in the acquired image,
A pop-up window including the occupancy rate information of the selected objects and the determined status information of the main body to the display unit,
And outputs information informing the operation performed by the main body to the display unit when the setting of the main body is changed so as to correspond to the determined status information of the main body.
제 1 항에 있어서,
상기 제어부는,
외부로부터 입력 받은 제어 명령에 근거하여, 상기 메모리부에 저장된 영상들 중 선택 받은 영상 및 상기 카메라부를 통해 촬영된 영상 중 적어도 하나를 획득하는 것을 특징으로 하는 이동 단말기.
The method according to claim 1,
Wherein,
Wherein the control unit acquires at least one of an image selected from the images stored in the memory unit and an image captured through the camera unit based on a control command received from the outside.
제 2 항에 있어서,
상기 제어부는,
상기 획득된 영상에 포함된 적어도 하나의 객체를 검출하고, 상기 검출된 객체를 분석하여, 복수의 상황 정보 중 어느 하나를 상기 본체의 상황 정보로 결정하는 것을 특징으로 하는 이동 단말기.
3. The method of claim 2,
Wherein,
Detecting at least one object included in the acquired image, analyzing the detected object, and determining any one of the plurality of status information as status information of the main body.
제 3 항에 있어서,
상기 제어부는,
상기 검출된 객체의 분석 결과, 상기 복수의 상황 정보 중 상기 본체에 매칭되는 상황 정보가 없는 경우, 상기 본체에 매칭되는 상황 정보 및 설정 정보를 입력 받고,
상기 입력 받은 상황 정보 및 설정 정보를 상기 메모리부에 저장하는 것을 특징으로 하는 이동 단말기.
The method of claim 3,
Wherein,
Receiving status information and setting information matched to the main body when there is no status information matching the main body among the plurality of status information as a result of analysis of the detected object,
And stores the received status information and setting information in the memory unit.
제 3 항에 있어서,
슬립 모드를 해제하기 위한 제어 명령을 입력 받는 사용자 입력부를 더 포함하고,
상기 제어부는,
상기 사용자 입력부를 통해 상기 슬립 모드를 해제하기 위한 제어 명령을 입력 받는 경우, 상기 카메라부를 활성화하고, 상기 카메라부가 영상을 촬영하도록 상기 카메라부를 제어하는 것을 특징으로 하는 이동 단말기.
The method of claim 3,
Further comprising a user input unit for receiving a control command for releasing the sleep mode,
Wherein,
Wherein the control unit activates the camera unit and controls the camera unit to photograph the camera unit when the control unit receives the control command for releasing the sleep mode through the user input unit.
제 5 항에 있어서,
상기 본체의 위치 정보 및 시간 정보 중 적어도 하나를 수신하는 무선 통신부를 더 포함하고,
상기 제어부는,
상기 수신된 위치 정보 및 시간 정보 중 적어도 하나에 근거하여, 상기 카메라부를 활성화할지 여부를 결정하는 것을 특징으로 하는 이동 단말기.
6. The method of claim 5,
And a wireless communication unit for receiving at least one of position information and time information of the main body,
Wherein,
And determines whether to activate the camera unit based on at least one of the received location information and the time information.
제 6 항에 있어서,
상기 제어부는,
위성 항법 장치(Global Positioning System, GPS)로부터 수신된 위치 정보 및 액세스 포인트(Access Point, AP)와의 무선 통신을 통해 수집된 위치 정보 중 적어도 하나를 이용하여 상기 본체의 위치 정보를 결정하는 것을 특징으로 하는 이동 단말기.
The method according to claim 6,
Wherein,
The position information of the main body is determined using at least one of position information received from a Global Positioning System (GPS) and position information collected through wireless communication with an access point (AP) .
제 5 항에 있어서,
상기 제어부는,
발생된 이벤트를 모니터링하고, 상기 발생된 이벤트의 종류에 따라 상기 카메라부를 활성화할지 여부를 결정하는 것을 특징으로 하는 이동 단말기.
6. The method of claim 5,
Wherein,
Monitors the generated event, and determines whether to activate the camera unit according to the type of the generated event.
제 5 항에 있어서,
음성 신호를 입력 받는 마이크를 더 포함하고,
상기 제어부는,
상기 마이크를 통해 입력 받은 음성 신호를 분석하고, 분석 결과에 따라 상기 카메라부를 활성화할지 여부를 결정하는 것을 특징으로 하는 이동 단말기.
6. The method of claim 5,
Further comprising a microphone for receiving a voice signal,
Wherein,
Analyzes the voice signal inputted through the microphone, and determines whether to activate the camera unit according to the analysis result.
제 3 항에 있어서,
상기 제어부는,
상기 본체의 상황 정보를 결정하고 나서 기 설정된 시간이 지나면, 상기 카메라부를 활성화하고, 상기 카메라부가 영상을 촬영하도록 상기 카메라부를 제어하는 것을 특징으로 하는 이동 단말기.
The method of claim 3,
Wherein,
Wherein the control unit activates the camera unit and controls the camera unit to photograph the camera unit image after a predetermined time has elapsed after determining the status information of the main body.
제 3 항에 있어서,
상기 제어부는,
상기 본체의 상황 정보에 대응하는 설정 정보를 이용하여 적어도 하나의 애플리케이션을 추천하고, 상기 추천된 애플리케이션을 이용하여 상기 본체를 제어하는 것을 특징으로 하는 이동 단말기.
The method of claim 3,
Wherein,
Recommends at least one application using setting information corresponding to the status information of the main body, and controls the main body using the recommended application.
제 11 항에 있어서,
상기 제어부는,
상기 추천된 애플리케이션을 실행하거나, 상기 추천된 애플리케이션을 이용하여 상기 본체의 설정을 변경하거나, 상기 추천된 애플리케이션에 대응하는 아이콘을 디스플레이부에 표시하는 것을 특징으로 하는 이동 단말기.
12. The method of claim 11,
Wherein,
And displays the icon corresponding to the recommended application on the display unit. The mobile terminal according to claim 1, wherein the recommendable application is a mobile phone.
제 12 항에 있어서,
상기 메모리부는,
상기 복수의 상황 정보 각각에 최적화된 애플리케이션의 정보를 저장하고,
상기 제어부는,
상기 본체의 상황 정보에 매칭되는 애플리케이션을 상기 메모리부로부터 추천하는 것을 특징으로 하는 이동 단말기.
13. The method of claim 12,
The memory unit,
Storing information of an application optimized for each of the plurality of context information,
Wherein,
And recommends an application matching the status information of the main body from the memory unit.
제 13 항에 있어서,
상기 제어부는,
사용자의 선택 및 사용 이력 정보 중 적어도 하나에 근거하여, 상기 복수의 상황 정보 각각에 최적화된 애플리케이션의 정보를 결정하고, 상기 결정된 정보를 상기 메모리부에 저장하는 것을 특징으로 하는 이동 단말기.
14. The method of claim 13,
Wherein,
And information of the application optimized for each of the plurality of context information based on at least one of the user's selection and use history information and stores the determined information in the memory unit.
단말기 본체를 구비하는 이동 단말기의 제어 방법에 있어서:
영상을 획득하는 단계;
상기 획득된 영상을 디스플레이부에 출력하는 단계;
상기 획득된 영상을 분석하고, 분석 결과를 이용하여 상기 본체의 상황 정보를 인식하는 단계; 및
상기 본체의 상황 정보에 대응하는 설정 정보를 이용하여 상기 본체를 제어하는 단계를 포함하고,
상기 인식하는 단계는,
상기 획득된 영상에서 일정 비율 이상의 점유율을 가지는 객체들을 선택하고, 상기 선택된 객체들의 점유율을 검출하며, 검출된 점유율 정보에 근거하여 상기 본체의 상황 정보를 결정하는 것을 특징으로 하고,
상기 획득된 영상에서 상기 선택된 객체들을 선택되지 않은 객체와 구분되도록 표시하는 단계;
상기 선택된 객체들의 점유율 정보 및 상기 결정된 본체의 상황 정보를 포함하는 팝업창을 상기 디스플레이부에 출력하는 단계; 및
상기 결정된 본체의 상황 정보에 대응되도록 상기 본체의 설정이 변경되면, 변경된 설정에 의해 상기 본체가 수행한 동작을 알리는 정보를 상기 디스플레이부에 출력하는 단계를 더 포함하는 것을 특징으로 하는 이동 단말기의 제어 방법.
A method for controlling a mobile terminal having a terminal body, comprising:
Acquiring an image;
Outputting the obtained image to a display unit;
Analyzing the acquired image and recognizing the status information of the main body using the analysis result; And
And controlling the main body using setting information corresponding to the status information of the main body,
Wherein the recognizing comprises:
Wherein the control unit selects the objects having the occupancy rate equal to or higher than a predetermined rate in the acquired image, detects the occupancy rate of the selected objects, and determines the status information of the main body based on the detected occupancy rate information.
Displaying the selected objects so as to be distinguished from non-selected objects in the acquired image;
Outputting a pop-up window including the occupancy rate information of the selected objects and the determined status information of the main body to the display unit; And
Further comprising the step of outputting to the display unit information informing the operation performed by the main body according to the changed setting when the setting of the main body is changed so as to correspond to the determined status information of the main body Way.
제 15 항에 있어서,
상기 영상을 획득하는 단계는,
외부로부터 입력 받은 제어 명령에 근거하여, 메모리부에 저장된 영상들 중 선택 받은 영상 및 카메라부를 통해 촬영된 영상 중 적어도 하나를 획득하는 단계를 포함하는 것을 특징으로 하는 이동 단말기의 제어 방법.
16. The method of claim 15,
Wherein the acquiring of the image comprises:
And acquiring at least one of the images selected through the camera unit and images selected from the images stored in the memory unit based on the control command received from the outside.
제 16 항에 있어서,
상기 획득된 영상을 분석하고, 분석 결과를 이용하여 상기 본체의 상황 정보를 인식하는 단계는,
상기 획득된 영상에 포함된 적어도 하나의 객체를 검출하는 단계; 및
상기 검출된 객체를 분석하여, 복수의 상황 정보 중 어느 하나를 상기 본체의 상황 정보로 결정하는 단계를 포함하는 것을 특징으로 하는 이동 단말기의 제어 방법.
17. The method of claim 16,
Analyzing the acquired image and recognizing the status information of the main body using the analysis result,
Detecting at least one object included in the acquired image; And
Analyzing the detected object and determining one of a plurality of context information as status information of the main body.
제 17 항에 있어서,
상기 본체의 상황 정보에 대응하는 설정 정보를 이용하여 상기 본체를 제어하는 단계는,
상기 본체의 상황 정보에 대응하는 설정 정보를 이용하여 적어도 하나의 애플리케이션을 추천하는 단계; 및
상기 추천된 애플리케이션을 이용하여 상기 본체를 제어하는 단계를 포함하는 이동 단말기의 제어 방법.
18. The method of claim 17,
Wherein the step of controlling the main body using setting information corresponding to the status information of the main body comprises:
Recommending at least one application using configuration information corresponding to context information of the main body; And
And controlling the main body using the recommended application.
KR1020120129717A 2012-11-15 2012-11-15 Mobile terminal and control method thereof KR101967647B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020120129717A KR101967647B1 (en) 2012-11-15 2012-11-15 Mobile terminal and control method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020120129717A KR101967647B1 (en) 2012-11-15 2012-11-15 Mobile terminal and control method thereof

Publications (2)

Publication Number Publication Date
KR20140062851A KR20140062851A (en) 2014-05-26
KR101967647B1 true KR101967647B1 (en) 2019-04-10

Family

ID=50890968

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020120129717A KR101967647B1 (en) 2012-11-15 2012-11-15 Mobile terminal and control method thereof

Country Status (1)

Country Link
KR (1) KR101967647B1 (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011049905A (en) * 2009-08-27 2011-03-10 Kyocera Corp Portable electronic apparatus, and method of controlling camera section

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20050000143A (en) * 2003-06-23 2005-01-03 에스케이텔레텍주식회사 Method for camera operation of mobile phone using speech recognition
KR101164081B1 (en) * 2009-10-01 2012-07-12 에스케이플래닛 주식회사 Mobile terminal and method for setting user environment using circumference environment sensing thereof
KR101608673B1 (en) * 2009-10-30 2016-04-05 삼성전자주식회사 Operation Method for Portable Device including a touch lock state And Apparatus using the same
KR101256907B1 (en) * 2011-01-12 2013-04-22 연세대학교 산학협력단 Apparatus and method for recognizing user state in real-time

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011049905A (en) * 2009-08-27 2011-03-10 Kyocera Corp Portable electronic apparatus, and method of controlling camera section

Also Published As

Publication number Publication date
KR20140062851A (en) 2014-05-26

Similar Documents

Publication Publication Date Title
KR101917685B1 (en) Mobile terminal and control method thereof
KR101850034B1 (en) Mobile terminal and control method therof
KR102182398B1 (en) Electronic device and control method thereof
KR101608532B1 (en) Method for displaying data and mobile terminal thereof
KR101917691B1 (en) Mobile terminal and control method thereof
KR101474467B1 (en) Mobile terminal and control method for the mobile terminal
KR101853057B1 (en) Mobile Terminal And Method Of Controlling The Same
KR101887453B1 (en) Mobile terminal and control method thereof
KR101917689B1 (en) Mobile terminal and control method thereof
KR101917690B1 (en) Mobile terminal and control method for the mobile terminal
KR20130133460A (en) Mobile terminal and control method thereof
KR101952177B1 (en) Mobile terminal and control method thereof
KR20130122334A (en) Mobile terminal and control method thereof
KR20140109719A (en) Mobile terminal and control method thereof
KR101559772B1 (en) Mobile terminal and Method for controlling in thereof
KR20140028386A (en) Mobile terminal and control method thereof
KR101779001B1 (en) Mobile terminal and control method therof
KR101648509B1 (en) Mobile terminal and control method thereof
KR101987461B1 (en) Mobile terminal and method for controlling of the same
KR101467799B1 (en) Mobile terminal and Method for controlling an external device in the same
KR20140094868A (en) Mobile terminal and control method therof
KR20120109151A (en) Mobile terminal and control method therof
KR101967647B1 (en) Mobile terminal and control method thereof
KR101968524B1 (en) Mobile terminal and control method thereof
KR101721874B1 (en) Mobile terminal and image display method thereof

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant