[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

KR100633231B1 - Portable terminal with gesture recognition based information retrieval function and its implementation method - Google Patents

Portable terminal with gesture recognition based information retrieval function and its implementation method Download PDF

Info

Publication number
KR100633231B1
KR100633231B1 KR1020050032020A KR20050032020A KR100633231B1 KR 100633231 B1 KR100633231 B1 KR 100633231B1 KR 1020050032020 A KR1020050032020 A KR 1020050032020A KR 20050032020 A KR20050032020 A KR 20050032020A KR 100633231 B1 KR100633231 B1 KR 100633231B1
Authority
KR
South Korea
Prior art keywords
information
image data
unit
image
gesture
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
KR1020050032020A
Other languages
Korean (ko)
Inventor
윤정석
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to KR1020050032020A priority Critical patent/KR100633231B1/en
Application granted granted Critical
Publication of KR100633231B1 publication Critical patent/KR100633231B1/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/14Image acquisition
    • G06V30/148Segmentation of character regions
    • G06V30/153Segmentation of character regions using recognition of characters or words
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/107Static hand or arm
    • G06V40/113Recognition of static hand signs
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • User Interface Of Digital Computer (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

제스처 인식 기반 정보 검색기능을 구비한 휴대용 단말기 및 그 구현방법이 개시된다. 본 발명에 따른 제스처 인식 기반 정보 검색기능을 구비한 휴대용 단말기는, 카메라부를 통해 촬영한 영상 데이터를 모니터링하여 사용자 제스처 입력여부를 감지하고, 제스처가 감지된 복수의 영상 데이터를 분석하여 정보 검색대상을 검출하여 정보 검색대상의 위치 정보를 구하는 제스처 인식부와, 복수의 영상 데이터를 편집하여 화질 개선된 하나의 영상 데이터를 생성하는 영상 편집부와, 위치 정보를 이용하여 화질 개선된 영상데이터로부터 인식대상을 추출하여 인식하는 문자 인식기 및 객체 인식기를 구비한 영상 인식부와, 사전 데이터 및 객체 데이터를 저장한 정보 데이터 베이스부 및 정보 검색모드 선택에 대응하여 카메라부를 구동시키고, 선택된 정보 검색모드에 따라 문자 인식기 또는 객체 인식기를 선택적으로 구동시키며, 정보 데이터 베이스부를 이용하여 문자 인식기에서 인식된 문자로 구성된 단어 또는 객체 인식기에서 인식된 객체에 대한 정보 검색하여 표시부 또는 스피커를 통해 외부로 출력하는 중앙처리장치를 포함하여 이루어진다. Disclosed are a portable terminal having a gesture recognition based information retrieval function and an implementation method thereof. A portable terminal having a gesture recognition-based information retrieval function according to the present invention monitors image data photographed through a camera unit, detects whether a user gesture is input, analyzes a plurality of image data in which a gesture is detected, and retrieves an information search target. A gesture recognition unit for detecting and obtaining position information of an information search target; an image editing unit for generating one image data having improved image quality by editing a plurality of image data; and a recognition object from image data having improved image quality using position information. An image recognition unit having a character recognizer and an object recognizer to extract and recognize, an information database unit storing dictionary data and object data, and a camera unit in response to selection of an information retrieval mode, and a character recognizer according to the selected information retrieval mode. Or optionally running an object recognizer Use emitter base portion to search information about the object recognized by the object recognizer or word composed of the characters recognized by the character recognizer to comprise a central processing unit for outputting to the outside through the display or speaker.

Description

제스처 인식 기반 정보 검색기능을 구비한 휴대용 단말기 및 그 구현방법{Portable terminal with a information search function based on gesture recognition and implementating method thereof}Portable terminal with a information search function based on gesture recognition and implement method

도 1은 본 발명의 일 실시 예에 따른 제스처 인식 기반 정보 검색기능을 구비한 휴대용 단말기에 대한 블록도,1 is a block diagram of a portable terminal having a gesture recognition based information retrieval function according to an embodiment of the present invention;

도 2는 도 1에 도시된 영상 보정부에 의해 보정된 영상 데이터의 예를 도시한 도면, FIG. 2 is a diagram showing an example of image data corrected by the image correcting unit shown in FIG. 1;

도 3a 및 도 3b는 본 발명의 일 실시 예에 따른 휴대용 단말기를 이용한 정보 검색기능 구현방법을 설명하기 위한 흐름도,3A and 3B are flowcharts illustrating a method of implementing an information retrieval function using a portable terminal according to an embodiment of the present invention;

도 4는 본 발명의 다른 실시 예에 따른 제스처 인식 기반 정보 검색기능을 구비한 휴대용 단말기에 대한 블록도, 그리고,4 is a block diagram of a portable terminal having a gesture recognition based information retrieval function according to another embodiment of the present invention;

도 5는 본 발명의 다른 실시 예에 따른 휴대용 단말기를 이용한 정보 검색기능 구현방법을 설명하기 위한 흐름도이다. 5 is a flowchart illustrating a method of implementing an information retrieval function using a portable terminal according to another embodiment of the present invention.

* 도면의 주요 부분에 대한 부호의 설명 *Explanation of symbols on the main parts of the drawings

105, 405 : 카메라부 110, 410 : 영상처리부105, 405: camera unit 110, 410: image processing unit

115, 415 : 표시부 120, 420 : 제스처 인식부115, 415: display unit 120, 420: gesture recognition unit

125, 425 : 영상 편집부 130, 430 : 영상 보정부125, 425: video editing unit 130, 430: video correction unit

135 : 영상 인식부 136 : 문자 인식기135: image recognition unit 136: character recognizer

137 : 객체 인식기 140 : 정보 DB부137: object recognizer 140: information DB unit

170, 470 : 중앙처리장치 435 : 인터페이스부170, 470: central processing unit 435: interface unit

본 발명은 제스처 인식 기반 정보 검색기능을 구비한 휴대용 단말기 및 그 구현방법에 관한 것으로, 보다 상세하게는, 휴대용 단말기의 카메라를 통해 촬영되는 문서 및 사용자의 제스처를 분석하여 정보 검색대상을 자동으로 검출하고, 검출한 정보 검색대상에 대한 정보를 검색하여 제공하는 제스처 인식 기반 정보 검색기능을 구비한 휴대용 단말기 및 그 구현방법에 관한 것이다.The present invention relates to a portable terminal having a gesture recognition based information retrieval function and a method of implementing the same. The present invention relates to a portable terminal having a gesture recognition-based information retrieval function for retrieving and providing information on a detected information retrieval object and an implementation method thereof.

종래에는 뜻을 모르는 단어가 있는 경우, 책으로 된 사전을 이용하여 단어를 검색함으로써 그 뜻을 알 수 있었다. 그러나 책으로 된 사전은 단어 검색에 많은 시간이 소요되며 휴대가 불편하다는 단점을 갖는다. Conventionally, if there is a word that does not know the meaning, it was possible to know the meaning by searching the word using a dictionary of books. However, a book dictionary has a disadvantage in that it takes a lot of time to search for words and is inconvenient to carry.

이러한 문제점을 해결하기 위하여 개발된 것이 전자 사전이다. 전자사전은 기존 책으로 된 사전에 비하여 휴대가 용이하며, 사용이 편리하다는 장점이 있으나, 고가이며, 이미 한두 개 정도의 휴대기기를 휴대하고 있는 사용자에게는 별도로 전자사전을 휴대하여야 하는 문제점이 발생한다. The electronic dictionary was developed to solve this problem. Electronic dictionaries have the advantages of being easier to carry and convenient to use than dictionaries of existing books. However, they are expensive and require users to carry electronic dictionaries separately. .

따라서, 최근에는 일상적으로 휴대하고 다니는 핸드폰, PDA 등과 같은 휴대용 단말기에 전자사전 기능을 부가하여, 별도의 전자사전을 휴대하여야 하는 불편 함을 해소하고 있다. Therefore, recently, an electronic dictionary function is added to a portable terminal such as a mobile phone, a PDA, etc., which is carried on a daily basis, thereby eliminating the inconvenience of carrying a separate electronic dictionary.

그런데, 전자사전이나, 전자사전 기능을 구비한 휴대용 단말기의 경우, 사용자가 키 패널에 마련된 문자키를 조작하여 검색대상 문자를 입력하여야만 원하는 단어의 정보를 검색할 수 있으므로 사용상의 불편을 초래할 수 있다. However, in the case of an electronic dictionary or a portable terminal having an electronic dictionary function, the user may input information to search for a desired word only by inputting a character to be searched by operating a character key provided in the key panel, which may cause inconvenience in use. .

따라서, 본 발명의 목적은 휴대용 단말기의 카메라를 통해 촬영되는 문서와 사용자의 제스처를 분석하여 정보 검색대상을 자동으로 검출함으로써, 사용자에게 사용상의 편리성을 제공할 수 있는 제스처 인식 기반 정보 검색기능을 구비한 휴대용 단말기 및 그 구현방법을 제공하는 데 있다.Accordingly, an object of the present invention is to provide a gesture recognition-based information retrieval function that can provide user convenience by analyzing a document photographed through a camera of a portable terminal and a gesture of a user and automatically detecting an information retrieval object. It is to provide a portable terminal and an implementation method thereof.

상기와 같은 기술적 과제를 해결하기 위한, 본 발명에 따른 제스처 인식 기반 정보 검색기능을 구비한 휴대용 단말기는, 카메라부를 통해 촬영한 영상 데이터를 모니터링하여 사용자 제스처 입력여부를 감지하고, 상기 제스처가 감지된 복수의 영상 데이터를 분석하여 정보 검색대상을 검출하여 상기 정보 검색대상의 위치 정보를 구하는 제스처 인식부; 상기 복수의 영상 데이터를 편집하여 화질 개선된 하나의 영상 데이터를 생성하는 영상 편집부; 상기 위치 정보를 이용하여 상기 화질 개선된 영상데이터로부터 인식대상을 추출하여 인식하는 문자 인식기 및 객체 인식기를 구비한 영상 인식부; 사전 데이터 및 객체 데이터를 저장한 정보 데이터 베이스부; 및 정보 검색모드 선택에 대응하여 상기 카메라부를 구동시키고, 상기 선택된 정보 검색모드에 따라 상기 문자 인식기 또는 상기 객체 인식기를 선택적으 로 구동시키며, 상기 정보 데이터 베이스부를 이용하여 상기 문자 인식기에서 인식된 문자로 구성된 단어 또는 상기 객체 인식기에서 인식된 객체에 대한 정보 검색하여 표시부 또는 스피커를 통해 외부로 출력하는 중앙처리장치를 포함하여 이루어진다.In order to solve the technical problem as described above, the portable terminal having a gesture recognition-based information retrieval function according to the present invention, by monitoring the image data taken through the camera unit to detect whether the user gesture input, the gesture is detected A gesture recognition unit analyzing a plurality of image data to detect an information search target and obtaining position information of the information search target; An image editing unit configured to edit the plurality of image data to generate one image data having improved image quality; An image recognition unit including a character recognizer and an object recognizer for extracting and recognizing a recognition object from the image data having improved quality by using the location information; An information database unit storing dictionary data and object data; And driving the camera unit in response to selection of an information search mode, and selectively driving the character recognizer or the object recognizer according to the selected information search mode, and using the information database unit as a character recognized by the character recognizer. And a central processing unit for searching for information about the constructed word or the object recognized by the object recognizer and outputting the information to the outside through a display unit or a speaker.

상기 사용자 제스처는 사용자가 손가락 또는 도구를 이용하여 상기 카메라부를 통해 촬영되는 문서상의 특정 부분을 지칭하는 동작인 것을 특징으로 한다.The user gesture is an operation of referring to a specific part of a document photographed through the camera unit by a user using a finger or a tool.

바람직하게는, 상기 화질 개선된 영상 데이터를 보정하여 상기 영상 인식부에서 인식 가능한 형태로 변환하고, 상기 보정된 영상 데이터를 이용하여 상기 위치 정보를 보정하는 영상 보정부;를 더 포함하며, 상기 영상 인식부는 상기 보정된 위치 정보를 이용하여 상기 보정된 영상 데이터로부터 상기 인식대상을 추출하여 인식하는 것을 특징으로 한다.The image correction unit may further include correcting the image data having improved image quality, converting the image data into a form recognizable by the image recognition unit, and correcting the position information by using the corrected image data. The recognition unit may extract and recognize the recognition object from the corrected image data by using the corrected position information.

또한, 상기 정보 검색모드는 사전정보 검색모드 또는 객체정보 검색모드를 포함하며, 상기 중앙처리장치는 상기 정보 검색모드로 상기 사전정보 검색모드가 선택되는 경우 상기 문자 인식기를 구동시키고, 상기 정보 검색모드로 상기 객체정보 검색모드가 선택되는 경우 상기 객체 인식기를 구동시키는 것을 특징으로 한다.The information retrieval mode includes a dictionary information retrieval mode or an object information retrieval mode, and the central processing unit drives the character recognizer when the dictionary information retrieval mode is selected as the information retrieval mode, and the information retrieval mode. When the object information search mode is selected, characterized in that for driving the object recognizer.

한편, 상기와 같은 기술적 과제를 해결하기 위한, 본 발명에 따른 휴대용 단말기를 이용한 정보 검색기능 구현방법은, 사전정보 검색모드 선택에 대응하여 카메라부를 통해 촬영한 영상 데이터를 모니터링하여 사용자 제스처 입력여부를 감지하는 단계; 상기 사용자 제스처가 감지되는 경우 상기 제스처가 감지된 복수의 영상 데이터를 캡쳐하여 영상 편집부로 전송 및 상기 복수의 영상 데이터를 분석하여 정보 검색대상 검출하여 상기 정보 검색대상의 위치 정보를 구하는 단계; 상기 위치 정보를 이용하여 상기 복수의 영상 데이터를 편집하여 생성한 화질 개선된 영상 데이터로부터 문자인식대상 영역을 추출하고, 상기 추출한 영역에 포함된 문자를 인식하는 단계; 및 정보 데이터 베이스부에 저장된 사전 데이터를 이용하여 상기 인식된 문자로 구성된 단어의 정보를 검색하여 표시부 또는 스피커를 통해 외부로 출력하는 단계를 포함하여 이루어진다.On the other hand, in order to solve the above technical problem, the method of implementing the information search function using the portable terminal according to the present invention, whether to input the user gesture by monitoring the image data taken through the camera unit in response to the selection of the prior information search mode Sensing; Capturing a plurality of image data from which the gesture is detected, transmitting the image data to an image editing unit, analyzing the plurality of image data, and detecting an information search target to obtain location information of the information search target; Extracting a character recognition target region from image quality-enhanced image data generated by editing the plurality of image data using the position information, and recognizing a character included in the extracted region; And retrieving information of a word composed of the recognized characters by using dictionary data stored in an information database unit and outputting the information to the outside through a display unit or a speaker.

바람직하게는, 상기 화질 개선된 영상 데이터를 보정하여 상기 인식단계에서 인식 가능한 형태로 변환하고, 상기 보정된 영상 데이터를 이용하여 상기 위치 정보를 보정하는 단계;를 더 포함하며, 상기 인식단계는 상기 보정된 위치 정보를 이용하여 상기 보정된 영상 데이터로부터 상기 문자인식대상 영역을 추출하는 것을 특징으로 한다.Preferably, the method further includes correcting the image data having improved image quality, converting the image data into a form recognizable in the recognizing step, and correcting the position information using the corrected image data. The character recognition target area may be extracted from the corrected image data by using the corrected position information.

상기 사용자 제스처는 사용자가 손가락 또는 도구를 이용하여 상기 카메라부를 통해 촬영되는 문서상의 특정 부분을 지칭하는 동작인 것을 특징으로 한다.The user gesture is an operation of referring to a specific part of a document photographed through the camera unit by a user using a finger or a tool.

또한, 상기와 같은 기술적 과제를 해결하기 위한, 본 발명에 따른 휴대용 단말기를 이용한 정보 검색기능 구현방법은, 객체정보 검색모드 선택에 대응하여 카메라부를 통해 촬영한 영상 데이터를 모니터링하여 사용자의 제스처 입력여부를 감지하는 단계; 상기 사용자 제스처가 감지되는 경우 상기 제스처가 감지된 복수의 영상 데이터를 캡쳐하여 영상 편집부로 전송 및 상기 복수의 영상 데이터를 분석하여 정보 검색대상을 검출하여 상기 정보 검색대상의 위치 정보를 구하는 단계; 상기 위치 정보를 이용하여 상기 복수의 영상 데이터를 편집하여 생성한 화질 개선된 영상 데이터로부터 객체인식대상 영역을 추출하고, 상기 추출한 영역에 포함된 객체를 인식하는 단계; 및 정보 데이터 베이스부에 저장된 객체 데이터를 이용하여 상기 인식된 객체에 대한 정보를 검색하여 표시부 또는 스피커를 통해 외부로 출력하는 단계를 포함하여 이루어진다.In addition, in order to solve the above technical problem, the method of implementing the information retrieval function using the portable terminal according to the present invention, whether the user inputs the gesture by monitoring the image data captured by the camera unit in response to the object information search mode selection Detecting; Capturing a plurality of image data from which the gesture is detected, transmitting the image data to an image editing unit, analyzing the plurality of image data, and detecting an information search target to obtain location information of the information search target; Extracting an object recognition region from image quality-enhanced image data generated by editing the plurality of image data using the position information, and recognizing an object included in the extracted region; And searching for information on the recognized object by using object data stored in an information database unit and outputting the information about the recognized object to the outside through a display unit or a speaker.

바람직하게는, 상기 화질 개선된 영상 데이터를 보정하여 상기 인식단계에서 인식 가능한 형태로 변환하고, 상기 보정된 영상 데이터를 이용하여 상기 위치 정보를 보정하는 단계;를 더 포함하며, 상기 인식단계는 상기 보정된 위치 정보를 이용하여 상기 보정된 영상 데이터로부터 상기 객체인식대상 영역을 추출하는 것을 특징으로 한다.Preferably, the method further includes correcting the image data having improved image quality, converting the image data into a form recognizable in the recognizing step, and correcting the position information using the corrected image data. The object recognition target area may be extracted from the corrected image data by using the corrected position information.

나아가, 상기와 같은 기술적 과제를 해결하기 위한, 본 발명에 따른 제스처 인식 기반 정보 검색기능을 구비한 휴대용 단말기는, 카메라부를 통해 촬영한 영상 데이터를 모니터링하여 사용자 제스처 입력여부를 감지하고, 상기 제스처가 감지된 복수의 영상 데이터를 분석하여 정보 검색대상을 검출하여 상기 정보 검색대상의 위치 정보를 구하는 제스처 인식부; 상기 복수의 영상 데이터를 편집하여 화질 개선된 하나의 영상 데이터를 생성하는 영상 편집부; 정보 제공 서버와 데이터 통신을 수행하는 인터페이스부; 및 정보 검색모드 선택에 대응하여 상기 카메라부를 구동시키고, 상기 선택된 정보 검색모드에 대한 정보, 상기 화질 개선된 영상 데이터 및 상기 위치 정보를 상기 정보 제공 서버로 전송하도록 상기 인터페이스부를 제어하고, 상기 정보 제공 서버로부터 상기 정보 검색대상에 대한 정보를 전송받아 표시부 또는 스피커를 통해 외부로 출력하는 중앙처리장치를 포함하여 이루어진다.Furthermore, in order to solve the technical problem as described above, the portable terminal having a gesture recognition-based information retrieval function according to the present invention, by monitoring the image data taken through the camera unit to detect whether the user gesture input, A gesture recognition unit analyzing the plurality of detected image data to detect an information search target and obtaining position information of the information search target; An image editing unit configured to edit the plurality of image data to generate one image data having improved image quality; An interface unit for performing data communication with the information providing server; And controlling the interface unit to drive the camera unit in response to selection of an information retrieval mode, and transmit the information on the selected information retrieval mode, the image data with improved image quality, and the location information to the information providing server. And a central processing unit receiving the information on the information search target from the server and outputting the information to the outside through a display unit or a speaker.

상기 사용자 제스처는 사용자가 손가락 또는 도구를 이용하여 상기 카메라부를 통해 촬영되는 문서상의 특정 부분을 지칭하는 동작인 것을 특징으로 한다.The user gesture is an operation of referring to a specific part of a document photographed through the camera unit by a user using a finger or a tool.

바람직하게는, 상기 화질 개선된 영상 데이터 및 상기 위치 정보를 보정하는 영상 보정부;를 더 포함하며, 상기 중앙처리장치는 상기 정보 제공 서버로 상기 영상 보정부에서 보정된 영상 데이터 및 위치 정보를 전송하는 것을 특징으로 한다.Preferably, the image correction unit for correcting the image quality and the position information of the improved image quality further includes, wherein the central processing unit transmits the image data and position information corrected in the image correction unit to the information providing server Characterized in that.

상기 정보 검색모드는 사전정보 검색모드 또는 객체정보 검색모드인 것을 특징으로 하는 제스처 인식 기반 정보 검색기능을 구비한 휴대용 단말기.And the information retrieval mode is a dictionary information retrieval mode or an object information retrieval mode.

한편, 상기와 같은 기술적 과제를 해결하기 위한, 본 발명에 따른 휴대용 단말기를 이용한 정보 검색기능 구현방법은, 정보 검색모드 선택에 대응하여 카메라부를 통해 촬영한 영상 데이터를 모니터링하여 사용자 제스처 입력여부를 감지하는 단계; 상기 사용자 제스처가 감지되는 경우 상기 제스처가 감지된 복수의 영상 데이터를 캡쳐하여 영상 편집부로 전송 및 상기 복수의 영상 데이터를 분석하여 정보 검색대상을 검출하여 상기 정보 검색대상의 위치 정보를 구하는 단계; 상기 선택된 정보 검색모드에 대한 정보, 상기 복수의 영상 데이터를 편집하여 생성한 화질 개선된 영상 데이터 및 상기 위치 정보를 인터페이스부를 통해 접속된 정보 제공 서버로 전송하는 단계; 및 상기 정보 제공 서버로부터 상기 정보 검색대상에 대한 정보를 전송받아 표시부 또는 스피커를 통해 외부로 출력하는 단계를 포함하여 이루어진다.On the other hand, in order to solve the above technical problem, the method of implementing the information retrieval function using the portable terminal according to the present invention, by detecting the user gesture input by monitoring the image data taken through the camera unit in response to the information search mode selection Doing; Capturing a plurality of image data from which the gesture is detected, transmitting the image data to an image editing unit, analyzing the plurality of image data, and detecting an information search target to obtain location information of the information search target; Transmitting information on the selected information search mode, image data with improved image quality generated by editing the plurality of image data, and the location information to an information providing server connected through an interface unit; And receiving the information on the information search target from the information providing server and outputting the information to the outside through a display unit or a speaker.

상기 사용자 제스처는 사용자가 손가락 또는 도구를 이용하여 상기 카메라부를 통해 촬영되는 문서상의 특정 부분을 지칭하는 동작인 것을 특징으로 한다.The user gesture is an operation of referring to a specific part of a document photographed through the camera unit by a user using a finger or a tool.

이하, 첨부된 도면들을 참조하여 본 발명을 보다 상세히 설명한다. 다만, 본 발명을 설명함에 있어, 관련된 공지 기능 혹은 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그에 대한 상세한 설명은 생략한다.Hereinafter, the present invention will be described in more detail with reference to the accompanying drawings. However, in describing the present invention, when it is determined that a detailed description of a related known function or configuration may unnecessarily obscure the subject matter of the present invention, a detailed description thereof will be omitted.

도 1은 본 발명의 일 실시 예에 따른 제스처 인식 기반 정보 검색기능을 구비한 휴대용 단말기에 대한 블록도이다.1 is a block diagram of a portable terminal having a gesture recognition based information retrieval function according to an embodiment of the present invention.

도 1을 참조하면, 본 발명의 일 실시 예에 따른 휴대용 단말기는 카메라부(105), 영상처리부(110), 표시부(115), 제스처 인식부(120), 영상 편집부(125), 영상 보정부(130), 영상 인식부(135), 정보 데이터 베이스(Data Base, 이하 "DB"라 한다)부(140), RF부(145), 데이터 처리부(150), 오디오 처리부(155), 키 입력부(160) 및 중앙처리장치(CPU)(170)를 포함하여 구성된다.1, a portable terminal according to an embodiment of the present invention includes a camera unit 105, an image processing unit 110, a display unit 115, a gesture recognition unit 120, an image editing unit 125, and an image correction unit. 130, an image recognition unit 135, an information database (hereinafter referred to as "DB") unit 140, an RF unit 145, a data processing unit 150, an audio processing unit 155, a key input unit And a central processing unit (CPU) 170.

카메라부(105)는 CPU(170)의 제어에 따라 렌즈를 통해 촬영되는 피사체의 영상을 촬영한다. 본 실시예에 따른 카메라부(105)는 문자 인식을 위해 최소 100DPI(Dot Per Inch) 이상의 해상도가 요구되며, 최적의 인식 환경을 위해서는 200DPI 이상, 즉 30만 화소 정도의 해상도가 요구된다. 카메라부(105)에 의해 촬영된 영상은 영상처리부(110)로 인가된다.The camera unit 105 captures an image of a subject photographed through a lens under the control of the CPU 170. The camera unit 105 according to the present exemplary embodiment requires a resolution of at least 100 DPI (Dot Per Inch) or more for character recognition, and a resolution of 200 DPI or more, that is, about 300,000 pixels is required for an optimal recognition environment. The image photographed by the camera unit 105 is applied to the image processing unit 110.

영상처리부(110)는 카메라부(105)에서 출력되는 영상신호를 표시부(115)에서 표시 가능한 데이터로 변환하여 출력한다. 영상처리부(110)는 카메라부(105)에서 출력되는 영상신호를 프레임 단위로 처리하고, 프레임 영상 데이터를 표시부(115)에서 지원하는 해상도 및 화면의 사이즈에 맞게 조절하여 출력한다. The image processor 110 converts an image signal output from the camera unit 105 into data that can be displayed on the display unit 115 and outputs the data. The image processor 110 processes the image signal output from the camera unit 105 in units of frames, and adjusts and outputs the frame image data according to the resolution and screen size supported by the display unit 115.

표시부(115)는 영상처리부(110)에서 출력되는 영상 데이터 및 CPU(170)에서 출력되는 사용자 데이터를 표시한다. The display unit 115 displays image data output from the image processing unit 110 and user data output from the CPU 170.

제스처 인식부(120)는 영상처리부(110)에서 신호 처리되어 출력되는 영상 데이터를 모니터링하여 사용자 제스처 입력여부를 감지하고, 사용자 제스처가 감지되면 사용자 제스처가 감지된 복수의 영상 데이터를 캡쳐(capture)한다. 이때, 사용자 제스처 인식을 위해서는 5 내지 10 프레임 정도의 영상 데이터가 요구된다. 본 실시예에서 의미하는 사용자 제스처는 사용자의 손 동작에 의한 제스처로, 사용자가 손가락 또는 펜과 같은 도구를 이용하여 문서상의 특정 부분(정보 검색대상)을 지칭하는 동작을 의미한다. 여기서, 정보 검색대상을 지칭하는 동작의 예로는, 손가락 또는 펜을 이용하여 정보 검색대상을 두드리는 동작, 정보 검색대상에 밑줄을 긋는 동작, 정보 검색대상에 원이나 네모를 그리는 동작 등을 들 수 있다. The gesture recognition unit 120 monitors image data processed and output by the image processing unit 110 and detects whether a user gesture is input. When the user gesture is detected, the gesture recognition unit 120 captures a plurality of image data in which the user gesture is detected. do. In this case, image data of about 5 to 10 frames is required for user gesture recognition. In the present embodiment, the user gesture is a gesture by a user's hand gesture, and refers to an operation in which the user refers to a specific part (information search target) on the document by using a tool such as a finger or a pen. Here, examples of operations referring to the information search target may include tapping an information search target using a finger or a pen, underlining the information search target, and drawing a circle or a square on the information search target. .

제스처 인식부(120)는 캡쳐한 복수의 영상 데이터를 영상 편집부(125)로 전송한다. 제스처 인식부(120)는 캡쳐한 복수의 영상 데이터를 분석하여 정보 검색대상을 검출하고, 검출한 정보 검색대상의 위치 정보(좌표값 정보)를 구한다. 제스처 인식부(120)에서 검출된 정보 검색대상의 위치 정보는 CPU(170)로 제공된다. The gesture recognition unit 120 transmits the captured image data to the image editing unit 125. The gesture recognition unit 120 analyzes a plurality of captured image data to detect an information search target and obtains position information (coordinate value information) of the detected information search target. The location information of the information search target detected by the gesture recognition unit 120 is provided to the CPU 170.

영상 편집부(125)는 제스처 인식부(120)에서 출력되는 복수의 영상 데이터를 편집하여 화질 개선된 하나의 영상 데이터를 생성한다. 영상 편집부(125)에서 생성된 화질 개선된 영상 데이터는 CPU(170)로 제공된다. The image editing unit 125 edits a plurality of image data output from the gesture recognition unit 120 to generate one image data having improved image quality. The image quality improved image data generated by the image editing unit 125 is provided to the CPU 170.

영상 보정부(130)는 CPU(170)로부터 제공받은 화질 개선된 영상 데이터 및 정보 검색대상의 위치 정보를 보정하여 출력한다. 즉, 영상 보정부(130)는 도 2에 도시된 바와 같이, 영상 편집부(125)에서 출력되는 화질 개선된 영상 데이터를 보정(예컨대, 회전, 크기조정, 전단 등)하여 영상 인식부(135)에서 인식 가능한 형태로 변환한다. 도 2에서 (a)는 영상 보정 전의 영상 데이터를 나타낸 것이고, (b)는 영상 인식부(135)에서 인식 가능한 형태로 변환된 영상 데이터를 나타낸 것이다. The image corrector 130 corrects and outputs the image data having improved image quality and the position information of the information search target provided from the CPU 170. That is, as illustrated in FIG. 2, the image corrector 130 corrects (eg, rotates, resizes, shears, or improves) the image data having improved image quality output from the image editing unit 125 to thereby recognize the image recognizer 135. To a recognizable form. In FIG. 2, (a) shows image data before image correction, and (b) shows image data converted into a form recognizable by the image recognition unit 135.

또한, 영상 보정부(130)는 보정된 영상 데이터를 이용하여 정보 검색대상의 위치 정보를 보정한다. 이는 영상 데이터 보정에 의해 정보 검색대상의 위치가 변할 수 있기 때문이다. 영상 보정부(130)에서 보정된 영상 데이터 및 위치 정보는 CPU(170)로 제공된다.In addition, the image corrector 130 corrects the position information of the information search target by using the corrected image data. This is because the position of the information search target can be changed by correcting the image data. The image data and the position information corrected by the image corrector 130 are provided to the CPU 170.

영상 인식부(135)는 문자(text) 인식기(136) 및 객체(object) 인식기(137)를 포함하여 구성된다.The image recognizer 135 includes a text recognizer 136 and an object recognizer 137.

문자 인식기(136)는 CPU(170)에 의해 제어되며, 영상 보정부(130)에서 보정된 정보 검색대상의 위치 정보를 이용하여 보정된 영상 데이터로부터 문자인식대상 영역을 추출하고, 문자 DB(미도시)에 저장된 문자 정보를 이용하여 추출한 영역에 포함된 문자를 인식한다.The character recognizer 136 is controlled by the CPU 170, extracts a character recognition target region from the corrected image data by using the position information of the information search target corrected by the image corrector 130, and executes a character DB (not shown). The character included in the extracted area is recognized by using the character information stored in the C).

객체 인식기(137)는 CPU(170)에 의해 제어되며, 영상 보정부(130)에서 보정된 정보 검색대상의 위치 정보를 이용하여 보정된 영상 데이터로부터 객체인식대상 영역을 추출하고, 객체 DB(미도시)에 저장된 객체 정보를 이용하여 추출한 영역에 포함된 객체를 인식한다. 문자 인식기(136)에서 인식된 문자 또는 객체 인식기(137)에서 인식된 객체는 CPU(170)로 제공된다.The object recognizer 137 is controlled by the CPU 170, extracts an object recognition target region from the corrected image data by using the position information of the information search target corrected by the image corrector 130, and stores an object DB (not shown). Recognize the object included in the extracted area by using the object information stored in The character recognized by the character recognizer 136 or the object recognized by the object recognizer 137 is provided to the CPU 170.

정보 DB부(140)에는 영한 사전, 한영 사전, 국어 사전, 일한 사전, 한일 사 전 등과 같은 사전정보, 및 사물, 즉 물건, 동물과 같은 물리적인 객체들에 대한 객체 정보가 저장되어 있다. 본 실시 예에 따른 정보 DB부(140)는 휴대용 단말기의 내부 메모리에 저장되거나, 또 다르게는 외부 메모리 카드에 저장되어 휴대용 단말기에 장착되어 사용될 수 있음은 물론이다. The information DB unit 140 stores dictionary information such as English-Korean dictionary, Korean-English dictionary, Korean dictionary, Japanese-Korean dictionary, Korean-Japanese dictionary, and the like, and object information about physical objects such as objects, animals, and the like. The information DB unit 140 according to the present embodiment may be stored in an internal memory of the portable terminal, or alternatively, may be stored in an external memory card and installed in the portable terminal.

RF부(145)는 이동 통신망을 통해 접속된 외부 휴대용 단말기가 발송하는 신호를 안테나를 통해 수신하고, 송신대상 신호를 안테나를 통해 외부 휴대용 단말기에 전송하는 역할을 수행한다. The RF unit 145 receives a signal sent by an external portable terminal connected through a mobile communication network through an antenna, and transmits a signal to be transmitted to the external portable terminal through an antenna.

데이터 처리부(150)는 RF부(145)를 통해 외부 휴대용 단말기로 송신할 신호를 부호화 및 변조하는 모뎀(MODEM)과 RF부(145)를 통해 수신되는 신호를 복조 및 복호화하는 코덱(CODEC)을 포함하여 구성한다. The data processor 150 may include a modem for encoding and modulating a signal to be transmitted to an external portable terminal through the RF unit 145 and a codec for demodulating and decoding a signal received through the RF unit 145. It is configured to include.

오디오 처리부(155)는 데이터 처리부(150)에서 출력되는 오디오 신호를 스피커를 통해 외부로 출력하거나, 마이크를 통해 취득한 오디오 신호를 데이터 처리부(150)로 전송하는 역할을 수행한다.The audio processor 155 outputs an audio signal output from the data processor 150 to the outside through a speaker or transmits an audio signal acquired through a microphone to the data processor 150.

키 입력부(160)는 숫자키, 문자키 및 각종 기능키 들을 구비하고 있다. 본 실시예에서 요구되는 기능키는 사전정보 검색모드키 또는 객체정보 검색모드키이다. 키 입력부(160)는 사용자가 선택한 키에 해당하는 키 신호를 발생하여 CPU(170)로 인가한다. The key input unit 160 includes numeric keys, character keys, and various function keys. The function key required in this embodiment is a dictionary information search mode key or an object information search mode key. The key input unit 160 generates a key signal corresponding to a key selected by the user and applies it to the CPU 170.

CPU(170)는 휴대용 단말기의 전반적인 동작을 제어한다. 즉, CPU(170)는 키 입력부(160)로부터 입력되는 키 신호에 따라 휴대용 단말기의 동작모드를 사전정보 검색모드 또는 객체정보 검색모드로 전환시키고, 설정된 모드에 따라 휴대용 단말 기의 동작을 제어한다. 예를 들면, CPU(170)는 정보 검색모드 선택에 대응하여 카메라부(105)를 자동으로 온(on) 시키고, 설정된 정보 검색모드에 따라 문자 인식기(136) 또는 객체 인식기(137)를 선택적으로 구동시킨다. 즉, CPU(170)는 정보 검색모드로 사전정보 검색모드가 설정된 경우 문자 인식기(136)를 구동시키고, 정보 검색모드로 객체정보 검색모드가 설정된 경우 객체 인식기(137)를 구동시킨다. The CPU 170 controls the overall operation of the portable terminal. That is, the CPU 170 switches the operation mode of the portable terminal to the pre-information search mode or the object information search mode according to the key signal input from the key input unit 160, and controls the operation of the portable terminal device according to the set mode. . For example, the CPU 170 automatically turns on the camera unit 105 in response to the information search mode selection, and selectively selects the character recognizer 136 or the object recognizer 137 according to the set information search mode. Drive it. That is, the CPU 170 drives the character recognizer 136 when the dictionary information search mode is set as the information search mode, and drives the object recognizer 137 when the object information search mode is set as the information search mode.

또한, CPU(170)는 정보 DB부(140)를 이용하여 문자 인식기(136)에서 인식된 문자로 구성된 단어 또는 객체 인식기(137)에서 인식된 객체에 대한 정보를 검색하고, 검색된 정보를 표시부(115) 또는 스피커를 통해 외부로 출력한다. In addition, the CPU 170 may search for information about a word composed of characters recognized by the character recognizer 136 or an object recognized by the object recognizer 137 using the information DB unit 140, and display the retrieved information in the display unit ( 115) Or output through the speaker to the outside.

도 3a 및 도 3b는 본 발명의 일 실시예에 따른 휴대용 단말기를 이용한 정보 검색기능 구현방법을 설명하기 위한 흐름도이다.3A and 3B are flowcharts illustrating a method of implementing an information retrieval function using a portable terminal according to an embodiment of the present invention.

도 3a에 도시된 바와 같이, 키 입력부(160)를 통해 사전정보 검색모드키 신호가 수신되면(S200) CPU(170)는 휴대용 단말기의 동작모드를 사전정보 검색모드로 전환시키고, 카메라부(105)를 구동시킨다(S210). 카메라부(105)에 의해 촬영되는 문서에 대한 영상은 영상처리부(110)를 통해 표시부(115)에 표시된다. As shown in FIG. 3A, when the pre-information search mode key signal is received through the key input unit 160 (S200), the CPU 170 switches the operation mode of the portable terminal to the pre-information search mode, and the camera unit 105. (S210). An image of a document photographed by the camera unit 105 is displayed on the display unit 115 through the image processing unit 110.

휴대용 단말기의 동작모드가 사전정보 검색모드로 전환되는 경우, 제스처 인식부(120)는 영상처리부(110)에서 출력되는 영상 데이터를 모니터링하여 사용자 제스처 입력여부를 감지한다(S220). 상기 영상 데이터를 모니터링하는 중에 사용자 제스처가 감지되면, 제스처 인식부(120)는 제스처가 감지된 복수의 영상 데이터를 캡쳐하여 영상 편집부(125)로 전송함과 동시에 캡쳐한 복수의 영상 데이터를 분석하여 정보 검색대상 문자를 검출하고, 검출된 문자의 위치 정보를 구한다(S230).When the operation mode of the portable terminal is switched to the dictionary information search mode, the gesture recognition unit 120 monitors the image data output from the image processing unit 110 and detects whether the user gesture is input (S220). When the user gesture is detected while monitoring the image data, the gesture recognition unit 120 captures a plurality of image data from which the gesture is detected, transmits the image data to the image editing unit 125, and simultaneously analyzes the captured image data. The information search target character is detected, and position information of the detected character is obtained (S230).

CPU(170)는 영상 편집부(125)에서 출력되는 화질 개선된 영상 데이터를 문자 인식기(136)에서 인식 가능한 형태로 보정하도록 영상 보정부(130)를 제어한다(S240). 영상 보정부(130)는 CPU(170)의 제어에 따라 영상 편집부(125)에서 출력되는 화질 개선된 영상 데이터를 보정하여 문자 인식기(136)에서 인식 가능한 형태로 변환하고, 보정된 영상 데이터를 이용하여 제스처 인식부(120)에서 구해진 위치 정보를 보정한다. 영상 데이터 및 위치 정보에 대한 보정이 완료되면, CPU(170)는 영상 보정부(130)에 의해 보정된 영상 데이터 및 정보 검색대상 문자의 위치 정보를 문자 인식기(136)로 제공한다. The CPU 170 controls the image corrector 130 to correct image quality improved image data output from the image editor 125 in a form recognizable by the character recognizer 136 (S240). The image corrector 130 corrects the image data with improved image quality output from the image editor 125 under the control of the CPU 170, converts the image data into a form recognizable by the character recognizer 136, and uses the corrected image data. By correcting the position information obtained from the gesture recognition unit 120. When the correction of the image data and the position information is completed, the CPU 170 provides the character recognizer 136 with the position information of the image data and the information search target character corrected by the image corrector 130.

문자 인식기(136)는 보정된 정보 검색대상 문자의 위치 정보를 이용하여 상기 보정된 영상 데이터로부터 문자인식대상 영역를 추출하고, 문자 DB를 이용하여 추출한 영역에 포함된 문자를 인식한다(S250). The character recognizer 136 extracts a character recognition target region from the corrected image data by using the position information of the corrected information search target character, and recognizes a character included in the extracted region using the character DB (S250).

CPU(170)는 문자 인식기(136)에서 출력되는 문자를 조합하여 단어를 구성하고, 정보 DB부(140)에 저장된 사전 데이터를 이용하여 조합한 단어에 대한 정보를 검색한다(S260).The CPU 170 combines the characters output from the character recognizer 136 to form words, and retrieves information on the combined words using dictionary data stored in the information DB unit 140 (S260).

마지막으로, CPU(170)는 검색된 단어에 대한 정보를 표시부(115) 또는 스피커를 통해 외부로 출력한다(S270). 여기서, 검색된 단어에 대한 정보는 선택된 사전 따라 상이하다. 예를 들면, 사전정보 검색모드 설정에 대응하여 한영사전이 선택된 경우 문자 인식기(136)에서 인식된 한글에 대한 영어 정보를 제공하고, 사전정보 검색모드 설정에 대응하여 영한사전이 선택된 경우, 문자 인식기(136)에서 인식된 영어에 대한 한글 정보를 제공한다. Finally, the CPU 170 outputs information on the searched word to the outside through the display unit 115 or the speaker (S270). Here, the information on the searched words differs according to the selected dictionary. For example, when the Korean-English dictionary is selected in response to the dictionary information search mode setting, the character recognizer 136 provides English information about the recognized Korean and the English-Korean dictionary is selected in response to the dictionary information search mode setting. Korean information about the English recognized at 136 is provided.

한편, 도 3b에 도시된 바와 같이, 키 입력부(160)를 통해 객체정보 검색모드키 신호가 수신되면(S300), CPU(170)는 휴대용 단말기의 동작 모드를 객체정보 검색모드로 전환시키고, 카메라부(105)를 구동시킨다(S310).Meanwhile, as shown in FIG. 3B, when an object information search mode key signal is received through the key input unit 160 (S300), the CPU 170 switches the operation mode of the portable terminal to the object information search mode and the camera. The unit 105 is driven (S310).

휴대용 단말기의 동작모드가 객체정보 검색모드로 전환되는 경우, 제스처 인식부(120)는 영상처리부(110)에서 출력되는 영상 데이터를 모니터링하여 사용자 제스처 입력여부를 감지한다(S320). 상기 영상 데이터를 모니터링하는 중에 사용자 제스처가 감지되면, 제스처 인식부(120)는 제스처가 감지된 복수의 영상 데이터를 캡쳐하여 영상 편집부(125)로 전송함과 동시에 캡쳐한 복수의 영상 데이터를 분석하여 정보 검색대상 객체에 대한 위치 정보를 구한다(S330).When the operation mode of the portable terminal is switched to the object information search mode, the gesture recognition unit 120 monitors the image data output from the image processing unit 110 to detect whether the user gesture is input (S320). When the user gesture is detected while monitoring the image data, the gesture recognition unit 120 captures a plurality of image data from which the gesture is detected, transmits the image data to the image editing unit 125, and simultaneously analyzes the captured image data. The location information of the information search target object is obtained (S330).

CPU(170)는 영상 편집부(125)에서 출력되는 화질 개선된 영상 데이터를 객체 인식기(137)에서 인식 가능한 형태로 보정하도록 영상 보정부(130)를 제어한다(S340). 영상 보정부(130)는 CPU(170)의 제어에 따라 영상 편집부(125)에서 출력되는 화질 개선된 영상 데이터를 보정하여 문자 인식기(136)에서 인식 가능한 형태로 변환하고, 보정된 영상 데이터를 이용하여 제스처 인식부(120)에서 구해진 위치 정보를 보정한다. The CPU 170 controls the image corrector 130 to correct image quality improved image data output from the image editor 125 in a form recognizable by the object recognizer 137 (S340). The image corrector 130 corrects the image data with improved image quality output from the image editor 125 under the control of the CPU 170, converts the image data into a form recognizable by the character recognizer 136, and uses the corrected image data. By correcting the position information obtained from the gesture recognition unit 120.

객체 인식기(137)는 보정된 정보 검색대상 객체에 대한 위치 정보를 이용하여 상기 보정된 영상 데이터로부터 객체인식대상 영역을 추출하고, 객체 DB를 이용하여 추출한 영역에 포함된 객체를 인식한다(S350). The object recognizer 137 extracts an object recognition target region from the corrected image data by using the position information of the corrected information search target object, and recognizes an object included in the extracted region using the object DB (S350). .

CPU(170)는 정보 DB부(140)에 저장된 객체 데이터를 이용하여 객체 인식기(137)에서 인식된 객체에 대한 정보를 검색한다(S360). 마지막으로, CPU(170)는 검 색된 객체에 대한 정보를 표시부(115) 또는 스피커를 통해 외부로 출력한다(S370). 예를 들면, 정보 검색대상 객체가 '사과'라고 인식될 경우, 표시부(115) 또는 스피커를 통해 선택된 객체에 대한 정보(한글 및 영문 정보)를 제공한다.The CPU 170 retrieves information on the object recognized by the object recognizer 137 using the object data stored in the information DB unit 140 (S360). Finally, the CPU 170 outputs information on the searched object to the outside through the display unit 115 or the speaker (S370). For example, when the information search target object is recognized as an 'apple', information (Korean and English information) about the selected object is provided through the display unit 115 or the speaker.

상술한 바와 같이, 본 발명에 따른 정보 검색기능에 의하면 사용자 제스처에 기반하여 문서상의 단어에 대한 정보를 검색할 수 있음은 물론, 그림책이나 동화책과 같은 이미지 북에 포함된 객체들에 대한 정보도 검색할 수 있다. As described above, according to the information retrieval function according to the present invention, it is possible not only to search for information on a word on a document based on a user gesture, but also to search for information on objects included in an image book such as a picture book or a story book. can do.

한편, 도 4는 본 발명의 다른 실시예에 따른 제스처 인식 기반 정보 검색기능을 구비한 휴대용 단말기에 대한 블록도이다. Meanwhile, FIG. 4 is a block diagram of a portable terminal having a gesture recognition based information retrieval function according to another embodiment of the present invention.

도 4를 참조하면, 본 발명의 다른 실시예에 따른 휴대용 단말기는 카메라부(405), 영상처리부(410), 표시부(415), 제스처 인식부(420), 영상 편집부(425), 영상 보정부(430), 인터페이스부(435), RF부(440), 데이터 처리부(445), 오디오 처리부(450), 키 입력부(460) 및 CPU(470)를 포함하여 구성된다. 여기서, 인터페이스부(435) 및 CPU(470)를 제외한 블록들의 기능은 도 1에 도시된 휴대용 단말기의 블록들의 기능과 실질적으로 동일하므로 이에 대한 상세한 설명은 생략한다.Referring to FIG. 4, a portable terminal according to another embodiment of the present invention includes a camera unit 405, an image processor 410, a display unit 415, a gesture recognition unit 420, an image editing unit 425, and an image correction unit. 430, an interface unit 435, an RF unit 440, a data processor 445, an audio processor 450, a key input unit 460, and a CPU 470. Here, since the functions of the blocks except for the interface unit 435 and the CPU 470 are substantially the same as the functions of the blocks of the portable terminal illustrated in FIG. 1, a detailed description thereof will be omitted.

인터페이스부(435)는 CPU(470)의 제어에 따라 정보 제공 서버와 유/무선 데이터 통신을 지원한다. 이를 위해, 인터페이스부(435)는 정보 제공 서버와 유선 데이터 통신을 지원하는 유선 인터페이스부(미도시) 및 정보 제공 서버와 무선 통신을 지원하는 무선 인터페이스부(미도시)를 구비한다. The interface unit 435 supports wired / wireless data communication with the information providing server under the control of the CPU 470. To this end, the interface unit 435 includes a wired interface unit (not shown) that supports wired data communication with the information providing server and a wireless interface unit (not shown) that supports wireless communication with the information providing server.

본 실시예에 따른 CPU(470)는 정보 검색모드가 설정된 경우 사용자 제스처 감지여부에 따라 설정된 정보 검색모드에 대한 정보, 영상 보정부(430)에서 보정된 영상 데이터 및 정보 검색대상의 위치 정보를 정보 제공 서버로 전송하도록 인터페이스부(435)를 제어한다. 또한, CPU(470)는 인터페이스부(435)를 통해 정보 제공 서버로부터 정보 검색대상에 대한 정보를 수신하고, 수신한 정보를 표시부(415) 또는 스피커를 통해 외부로 출력한다. When the information retrieval mode is set, the CPU 470 according to the present embodiment provides information on the information retrieval mode set according to whether the user gesture is detected, image data corrected by the image correction unit 430, and location information of the information retrieval target. The interface unit 435 is controlled to transmit to the providing server. In addition, the CPU 470 receives information on an information search target from the information providing server through the interface unit 435, and outputs the received information to the outside through the display unit 415 or the speaker.

한편, 본 실시예에서는 휴대용 단말기에 영상 보정부(430)를 구비하여, 정보 제공 서버로 영상 보정부(430)에서 보정된 영상 데이터 및 정보 검색대상의 위치 정보를 전송하도록 구현하였으나, 이에 한정되는 것은 아니다. 즉, 문자 및 객체 인식 기능을 구비한 정보 제공 서버에서 영상 보정 기능을 수행하도록 구현할 수 있음은 물론이다.In the present embodiment, the image correction unit 430 is provided in the portable terminal to transmit the image data corrected by the image correction unit 430 and the position information of the information search target to the information providing server. It is not. That is, of course, it can be implemented to perform the image correction function in the information providing server having a character and object recognition function.

도 5는 본 발명의 다른 실시예에 따른 휴대용 단말기를 이용한 정보 검색기능 구현방법을 설명하기 위한 흐름도이다. 5 is a flowchart illustrating a method of implementing an information retrieval function using a portable terminal according to another embodiment of the present invention.

도 5에 도시된 바와 같이, 키 입력부(460)를 통해 사전정보 검색모드키 신호 또는 객체정보 검색모드키 신호가 수신되면(S500), CPU(470)는 휴대용 단말기의 동작 모드를 사전정보 검색모드 또는 객체정보 검색모드로 전환시키고, 카메라부(405)를 구동시킨다(S510).As shown in FIG. 5, when a pre-information search mode key signal or an object information search mode key signal is received through the key input unit 460 (S500), the CPU 470 selects an operation mode of the portable terminal in the pre-information search mode. Alternatively, the camera enters the object information search mode and drives the camera unit 405 (S510).

휴대용 단말기의 동작모드가 정보 검색모드로 전환되는 경우, 제스처 인식부(420)는 영상처리부(410)에서 출력되는 영상 데이터를 모니터링하여 사용자 제스처 입력여부를 감지한다(S520). When the operation mode of the portable terminal is switched to the information search mode, the gesture recognition unit 420 monitors the image data output from the image processing unit 410 to detect whether the user gesture is input (S520).

상기 영상 데이터를 모니터링하는 중에 사용자 제스처가 감지되면, 제스처 인식부(420)는 제스처가 감지된 복수의 영상 데이터를 캡쳐하여 영상 편집부(425) 로 전송함과 동시에 캡쳐한 복수의 영상 데이터를 분석하여 정보 검색대상에 대한 위치 정보를 구한다(S530). 영상 편집부(425)는 제스처 인식부(420)로부터 제공받은 복수의 영상 데이터를 편집하여 화질 개선된 하나의 영상 데이터를 생성한다. When a user gesture is detected while monitoring the image data, the gesture recognition unit 420 captures a plurality of image data from which the gesture is detected, transmits the image data to the image editing unit 425, and simultaneously analyzes the captured image data. The location information on the information search target is obtained (S530). The image editing unit 425 edits a plurality of image data provided from the gesture recognition unit 420 to generate one image data having improved image quality.

상기 530 단계 후에, CPU(470)는 설정된 정보 검색모드에 대한 정보 검색모드에 대한 정보, 영상 편집부(425)에서 출력되는 화질 개선된 영상 데이터 및 제스처 인식부(420)에서 출력되는 정보 검색대상의 위치 정보를 정보 제공 서버로 전송하도록 인터페이스부(435)를 제어한다(S540).After the step 530, the CPU 470 may determine information about the information search mode for the set information search mode, image data with improved image quality output from the image editing unit 425, and information search target output from the gesture recognition unit 420. The interface unit 435 is controlled to transmit the location information to the information providing server (S540).

상기 540 단계 후에, CPU(470)는 정보 제공 서버로부터 정보 검색대상에 대한 정보 수신여부를 감지한다(S550). 정보 제공 서버로부터 정보 검색대상에 대한 정보가 수신되면, CPU(470)는 수신된 정보를 표시부(415) 또는 스피커를 통해 외부로 출력한다(S560).After the step 540, the CPU 470 detects whether or not to receive information on the information search target from the information providing server (S550). When the information on the information search target is received from the information providing server, the CPU 470 outputs the received information to the outside through the display unit 415 or the speaker (S560).

한편, 이상에서 대표적인 실시예를 통하여 본 발명에 대하여 상세하게 설명하였으나, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 상술한 실시예에 대하여 본 발명의 범주에서 벗어나지 않는 한도 내에서 다양한 변형이 가능함을 이해할 것이다. 그러므로 본 발명의 권리범위는 설명된 실시예에 국한되어 정해져서는 안 되며, 후술하는 특허청구범위 뿐만 아니라 이 특허청구범위와 균등한 것들에 의해 정해져야 한다.On the other hand, the present invention has been described in detail through a representative embodiment, but those skilled in the art to which the present invention pertains various modifications within the scope of the present invention without departing from the scope of the present invention. I will understand what is possible. Therefore, the scope of the present invention should not be limited to the described embodiments, but should be defined by the claims below and equivalents thereof.

지금까지 설명한 바와 같이, 본 발명에 따르면, 사용자의 제스처를 감지하여 정보 검색대상 단어를 자동으로 검출하고, 검출한 단어에 대한 정보를 검색하여 사 용자에게 제공해줌으로써, 사용자가 정보 검색대상 단어를 입력시킬 필요가 없으므로 사용자에게 사용상의 편리성을 향상시킬 수 있다. As described above, according to the present invention, by detecting the user's gesture to automatically detect the information search target word, search for information on the detected word and provide it to the user, the user inputs the information search target word There is no need to make it possible to improve user convenience.

또한, 본 발명에 따르면, 객체 데이터를 데이터 베이스화 한 사전 DB를 구비하여, 일반적인 문서상의 단어 뿐만 아니라 이미지 북에 포함된 물리적 객체들에 대한 정보를 검색할 수 있도록 함으로써, 휴대용 단말기의 활용도를 향상시킬 수 있다. In addition, according to the present invention, by having a dictionary DB that database the object data, it is possible to search the information on the physical objects included in the image book as well as the word on the general document, thereby improving the utilization of the portable terminal Can be.

Claims (16)

카메라부를 통해 촬영한 영상 데이터를 모니터링하여 사용자 제스처 입력여부를 감지하고, 상기 제스처가 감지된 복수의 영상 데이터를 분석하여 정보 검색대상을 검출하여 상기 정보 검색대상의 위치 정보를 구하는 제스처 인식부;A gesture recognition unit configured to monitor image data photographed through a camera unit to detect whether a user gesture is input, analyze a plurality of image data in which the gesture is detected, detect an information search target, and obtain position information of the information search target; 상기 복수의 영상 데이터를 편집하여 화질 개선된 하나의 영상 데이터를 생성하는 영상 편집부;An image editing unit configured to edit the plurality of image data to generate one image data having improved image quality; 상기 위치 정보를 이용하여 상기 화질 개선된 영상데이터로부터 인식대상을 추출하여 인식하는 문자 인식기 및 객체 인식기를 구비한 영상 인식부; An image recognition unit including a character recognizer and an object recognizer for extracting and recognizing a recognition object from the image data having improved quality by using the location information; 사전 데이터 및 객체 데이터를 저장한 정보 데이터 베이스부; 및An information database unit storing dictionary data and object data; And 정보 검색모드 선택에 대응하여 상기 카메라부를 구동시키고, 상기 선택된 정보 검색모드에 따라 상기 문자 인식기 또는 상기 객체 인식기를 선택적으로 구동시키며, 상기 정보 데이터 베이스부를 이용하여 상기 문자 인식기에서 인식된 문자로 구성된 단어 또는 상기 객체 인식기에서 인식된 객체에 대한 정보 검색하여 표시부 또는 스피커를 통해 외부로 출력하는 중앙처리장치;를 포함하여 이루어진 제스처 인식 기반 정보 검색기능을 구비한 휴대용 단말기.Driving the camera unit in response to selection of an information search mode, selectively driving the character recognizer or the object recognizer according to the selected information search mode, and a word composed of characters recognized by the character recognizer using the information database unit Or a central processing unit searching for information on the object recognized by the object recognizer and outputting the information to the outside through a display unit or a speaker. 제 1항에 있어서,The method of claim 1, 상기 사용자 제스처는 사용자가 손가락 또는 도구를 이용하여 상기 카메라부를 통해 촬영되는 문서상의 특정 부분을 지칭하는 동작인 것을 특징으로 하는 제스 처 인식 기반 정보 검색기능을 구비한 휴대용 단말기.The user gesture is a gesture of referring to a specific part of a document photographed through the camera unit by a user using a finger or a tool. 제 1항에 있어서,The method of claim 1, 상기 화질 개선된 영상 데이터를 보정하여 상기 영상 인식부에서 인식 가능한 형태로 변환하고, 상기 보정된 영상 데이터를 이용하여 상기 위치 정보를 보정하는 영상 보정부;를 더 포함하며,And an image corrector configured to correct the image data having improved image quality, convert the image data into a form recognizable by the image recognizer, and correct the position information by using the corrected image data. 상기 영상 인식부는 상기 보정된 위치 정보를 이용하여 상기 보정된 영상 데이터로부터 상기 인식대상을 추출하여 인식하는 것을 특징으로 하는 제스처 인식 기반 정보 검색기능을 구비한 휴대용 단말기.And the image recognition unit extracts and recognizes the recognition object from the corrected image data by using the corrected position information. 제 1항에 있어서,The method of claim 1, 상기 정보 검색모드는 사전정보 검색모드 또는 객체정보 검색모드를 포함하며, The information search mode includes a dictionary information search mode or an object information search mode. 상기 중앙처리장치는 상기 정보 검색모드로 상기 사전정보 검색모드가 선택되는 경우 상기 문자 인식기를 구동시키고, 상기 정보 검색모드로 상기 객체정보 검색모드가 선택되는 경우 상기 객체 인식기를 구동시키는 것을 특징으로 하는 제스처 인식 기반 정보 검색기능을 구비한 휴대용 단말기.The CPU may drive the character recognizer when the dictionary information search mode is selected as the information search mode, and drive the object recognizer when the object information search mode is selected as the information search mode. A portable terminal having a gesture recognition based information retrieval function. 사전정보 검색모드 선택에 대응하여 카메라부를 통해 촬영한 영상 데이터를 모니터링하여 사용자 제스처 입력여부를 감지하는 단계;Detecting user gesture input by monitoring image data photographed through a camera unit in response to selection of a pre-information search mode; 상기 사용자 제스처가 감지되는 경우 상기 제스처가 감지된 복수의 영상 데이터를 캡쳐하여 영상 편집부로 전송 및 상기 복수의 영상 데이터를 분석하여 정보 검색대상 검출하여 상기 정보 검색대상의 위치 정보를 구하는 단계; Capturing a plurality of image data from which the gesture is detected, transmitting the image data to an image editing unit, analyzing the plurality of image data, and detecting an information search target to obtain location information of the information search target; 상기 위치 정보를 이용하여 상기 복수의 영상 데이터를 편집하여 생성한 화질 개선된 영상 데이터로부터 문자인식대상 영역을 추출하고, 상기 추출한 영역에 포함된 문자를 인식하는 단계; 및Extracting a character recognition target region from image quality-enhanced image data generated by editing the plurality of image data using the position information, and recognizing a character included in the extracted region; And 정보 데이터 베이스부에 저장된 사전 데이터를 이용하여 상기 인식된 문자로 구성된 단어의 정보를 검색하여 표시부 또는 스피커를 통해 외부로 출력하는 단계;를 포함하여 이루어진 휴대용 단말기를 이용한 정보 검색기능 구현방법.And retrieving information of a word composed of the recognized characters by using dictionary data stored in an information database unit and outputting the information to the outside through a display unit or a speaker. 제 5항에 있어서,The method of claim 5, 상기 화질 개선된 영상 데이터를 보정하여 상기 인식단계에서 인식 가능한 형태로 변환하고, 상기 보정된 영상 데이터를 이용하여 상기 위치 정보를 보정하는 단계;를 더 포함하며, And correcting the image data having improved image quality, converting the image data into a form recognizable in the recognition step, and correcting the position information by using the corrected image data. 상기 인식단계는 상기 보정된 위치 정보를 이용하여 상기 보정된 영상 데이터로부터 상기 문자인식대상 영역을 추출하는 것을 특징으로 하는 휴대용 단말기를 이용한 정보 검색기능 구현방법.And wherein the recognizing step extracts the text recognition target area from the corrected image data by using the corrected position information. 제 5항에 있어서,The method of claim 5, 상기 사용자 제스처는 사용자가 손가락 또는 도구를 이용하여 상기 카메라부 를 통해 촬영되는 문서상의 특정 부분을 지칭하는 동작인 것을 특징으로 하는 휴대용 단말기를 이용한 정보 검색기능 구현방법.And the user gesture is an operation of referring to a specific part of a document photographed through the camera unit by a user using a finger or a tool. 객체정보 검색모드 선택에 대응하여 카메라부를 통해 촬영한 영상 데이터를 모니터링하여 사용자의 제스처 입력여부를 감지하는 단계;Detecting whether a user inputs a gesture by monitoring image data photographed through a camera unit in response to selection of an object information search mode; 상기 사용자 제스처가 감지되는 경우 상기 제스처가 감지된 복수의 영상 데이터를 캡쳐하여 영상 편집부로 전송 및 상기 복수의 영상 데이터를 분석하여 정보 검색대상을 검출하여 상기 정보 검색대상의 위치 정보를 구하는 단계; Capturing a plurality of image data from which the gesture is detected, transmitting the image data to an image editing unit, analyzing the plurality of image data, and detecting an information search target to obtain location information of the information search target; 상기 위치 정보를 이용하여 상기 복수의 영상 데이터를 편집하여 생성한 화질 개선된 영상 데이터로부터 객체인식대상 영역을 추출하고, 상기 추출한 영역에 포함된 객체를 인식하는 단계; 및Extracting an object recognition region from image quality-enhanced image data generated by editing the plurality of image data using the position information, and recognizing an object included in the extracted region; And 정보 데이터 베이스부에 저장된 객체 데이터를 이용하여 상기 인식된 객체에 대한 정보를 검색하여 표시부 또는 스피커를 통해 외부로 출력하는 단계;를 포함하여 이루어진 휴대용 단말기를 이용한 정보 검색기능 구현방법.And searching for information on the recognized object by using object data stored in an information database unit and outputting the information about the recognized object to the outside through a display unit or a speaker. 제 8항에 있어서,The method of claim 8, 상기 화질 개선된 영상 데이터를 보정하여 상기 인식단계에서 인식 가능한 형태로 변환하고, 상기 보정된 영상 데이터를 이용하여 상기 위치 정보를 보정하는 단계;를 더 포함하며, And correcting the image data having improved image quality, converting the image data into a form recognizable in the recognition step, and correcting the position information by using the corrected image data. 상기 인식단계는 상기 보정된 위치 정보를 이용하여 상기 보정된 영상 데이 터로부터 상기 객체인식대상 영역을 추출하는 것을 특징으로 하는 휴대용 단말기를 이용한 정보 검색기능 구현방법.And wherein the recognizing step extracts the object recognition target area from the corrected image data by using the corrected position information. 제 8항에 있어서,The method of claim 8, 상기 사용자 제스처는 사용자가 손가락 또는 도구를 이용하여 상기 카메라부를 통해 촬영되는 문서상의 특정 부분을 지칭하는 동작인 것을 특징으로 하는 휴대용 단말기를 이용한 정보 검색기능 구현방법.And the user gesture is an operation of referring to a specific part of a document photographed through the camera unit by a user using a finger or a tool. 카메라부를 통해 촬영한 영상 데이터를 모니터링하여 사용자 제스처 입력여부를 감지하고, 상기 제스처가 감지된 복수의 영상 데이터를 분석하여 정보 검색대상을 검출하여 상기 정보 검색대상의 위치 정보를 구하는 제스처 인식부;A gesture recognition unit configured to monitor image data photographed through a camera unit to detect whether a user gesture is input, analyze a plurality of image data in which the gesture is detected, detect an information search target, and obtain position information of the information search target; 상기 복수의 영상 데이터를 편집하여 화질 개선된 하나의 영상 데이터를 생성하는 영상 편집부;An image editing unit configured to edit the plurality of image data to generate one image data having improved image quality; 정보 제공 서버와 데이터 통신을 수행하는 인터페이스부; 및An interface unit for performing data communication with the information providing server; And 정보 검색모드 선택에 대응하여 상기 카메라부를 구동시키고, 상기 선택된 정보 검색모드에 대한 정보, 상기 화질 개선된 영상 데이터 및 상기 위치 정보를 상기 정보 제공 서버로 전송하도록 상기 인터페이스부를 제어하고, 상기 정보 제공 서버로부터 상기 정보 검색대상에 대한 정보를 전송받아 표시부 또는 스피커를 통해 외부로 출력하는 중앙처리장치;를 포함하여 이루어진 제스처 인식 기반 정보 검색기능을 구비한 휴대용 단말기.In response to selection of an information retrieval mode, controlling the interface unit to transmit the information on the selected information retrieval mode, the image data with improved image quality, and the location information to the information providing server, and the information providing server. And a central processing unit for receiving the information on the information search target from the display unit and outputting the information to the outside through a display unit or a speaker. 제 11항에 있어서,The method of claim 11, 상기 사용자 제스처는 사용자가 손가락 또는 도구를 이용하여 상기 카메라부를 통해 촬영되는 문서상의 특정 부분을 지칭하는 동작인 것을 특징으로 하는 제스처 인식 기반 정보 검색기능을 구비한 휴대용 단말기.The user gesture is a portable terminal having a gesture recognition based information retrieval function, characterized in that the user refers to a specific portion of the document photographed through the camera unit using a finger or a tool. 제 11항에 있어서,The method of claim 11, 상기 화질 개선된 영상 데이터 및 상기 위치 정보를 보정하는 영상 보정부;를 더 포함하며, And an image corrector configured to correct the image data and the position information having improved image quality. 상기 중앙처리장치는 상기 정보 제공 서버로 상기 영상 보정부에서 보정된 영상 데이터 및 위치 정보를 전송하는 것을 특징으로 하는 제스처 인식 기반 정보 제공기능을 구비한 휴대용 단말기.The CPU is a portable terminal having a gesture recognition-based information providing function, characterized in that for transmitting the image data and position information corrected by the image correction unit to the information providing server. 제 11항에 있어서,The method of claim 11, 상기 정보 검색모드는 사전정보 검색모드 또는 객체정보 검색모드인 것을 특징으로 하는 제스처 인식 기반 정보 검색기능을 구비한 휴대용 단말기.And the information retrieval mode is a dictionary information retrieval mode or an object information retrieval mode. 정보 검색모드 선택에 대응하여 카메라부를 통해 촬영한 영상 데이터를 모니터링하여 사용자 제스처 입력여부를 감지하는 단계;Detecting user gesture input by monitoring image data photographed through a camera unit in response to selection of an information search mode; 상기 사용자 제스처가 감지되는 경우 상기 제스처가 감지된 복수의 영상 데 이터를 캡쳐하여 영상 편집부로 전송 및 상기 복수의 영상 데이터를 분석하여 정보 검색대상을 검출하여 상기 정보 검색대상의 위치 정보를 구하는 단계; Capturing a plurality of image data from which the gesture is detected, transmitting the image data to an image editing unit, analyzing the plurality of image data, and detecting an information search target to obtain location information of the information search target; 상기 선택된 정보 검색모드에 대한 정보, 상기 복수의 영상 데이터를 편집하여 생성한 화질 개선된 영상 데이터 및 상기 위치 정보를 인터페이스부를 통해 접속된 정보 제공 서버로 전송하는 단계; 및Transmitting information on the selected information search mode, image data with improved image quality generated by editing the plurality of image data, and the location information to an information providing server connected through an interface unit; And 상기 정보 제공 서버로부터 상기 정보 검색대상에 대한 정보를 전송받아 표시부 또는 스피커를 통해 외부로 출력하는 단계;를 포함하여 이루어진 휴대용 단말기를 이용한 정보 검색기능 구현방법.And receiving the information on the information search target from the information providing server and outputting the information to the outside through a display unit or a speaker. 제 15항에 있어서,The method of claim 15, 상기 사용자 제스처는 사용자가 손가락 또는 도구를 이용하여 상기 카메라부를 통해 촬영되는 문서상의 특정 부분을 지칭하는 동작인 것을 특징으로 하는 휴대용 단말기를 이용한 정보 검색기능 구현방법.And the user gesture is an operation of referring to a specific part of a document photographed through the camera unit by a user using a finger or a tool.
KR1020050032020A 2005-04-18 2005-04-18 Portable terminal with gesture recognition based information retrieval function and its implementation method Expired - Fee Related KR100633231B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020050032020A KR100633231B1 (en) 2005-04-18 2005-04-18 Portable terminal with gesture recognition based information retrieval function and its implementation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020050032020A KR100633231B1 (en) 2005-04-18 2005-04-18 Portable terminal with gesture recognition based information retrieval function and its implementation method

Publications (1)

Publication Number Publication Date
KR100633231B1 true KR100633231B1 (en) 2006-10-12

Family

ID=37626060

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020050032020A Expired - Fee Related KR100633231B1 (en) 2005-04-18 2005-04-18 Portable terminal with gesture recognition based information retrieval function and its implementation method

Country Status (1)

Country Link
KR (1) KR100633231B1 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100687690B1 (en) 2006-01-24 2007-02-27 엠텍비젼 주식회사 Digital processing device capable of data input using camera and its input method
WO2012020927A1 (en) * 2010-08-09 2012-02-16 에스케이텔레콤 주식회사 Integrated image search system and a service method therewith
KR101377876B1 (en) * 2012-06-29 2014-03-25 인텔렉추얼디스커버리 주식회사 Apparatus and method for mobile projection
CN103959287A (en) * 2011-10-25 2014-07-30 谷歌公司 Gesture-based search
KR101729938B1 (en) 2010-08-09 2017-04-26 에스케이플래닛 주식회사 Integrative image searching system and service method of the same
KR101784287B1 (en) * 2016-12-20 2017-10-11 에스케이플래닛 주식회사 Integrative image searching system and service method of the same

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100687690B1 (en) 2006-01-24 2007-02-27 엠텍비젼 주식회사 Digital processing device capable of data input using camera and its input method
WO2012020927A1 (en) * 2010-08-09 2012-02-16 에스케이텔레콤 주식회사 Integrated image search system and a service method therewith
US9576195B2 (en) 2010-08-09 2017-02-21 Sk Planet Co., Ltd. Integrated image searching system and service method thereof
KR101729938B1 (en) 2010-08-09 2017-04-26 에스케이플래닛 주식회사 Integrative image searching system and service method of the same
US10380170B2 (en) 2010-08-09 2019-08-13 Sk Planet Co., Ltd. Integrated image searching system and service method thereof
CN103959287A (en) * 2011-10-25 2014-07-30 谷歌公司 Gesture-based search
CN103959287B (en) * 2011-10-25 2018-01-09 谷歌公司 Search based on gesture
KR101377876B1 (en) * 2012-06-29 2014-03-25 인텔렉추얼디스커버리 주식회사 Apparatus and method for mobile projection
KR101784287B1 (en) * 2016-12-20 2017-10-11 에스케이플래닛 주식회사 Integrative image searching system and service method of the same

Similar Documents

Publication Publication Date Title
US8988543B2 (en) Camera based method for text input and keyword detection
KR100664421B1 (en) Handheld terminal and business card recognition method for business card recognition using equipped camera
CN101609365B (en) Character input method and system as well as electronic device and keyboard thereof
CN111586237B (en) An image display method and electronic device
US20100268929A1 (en) Electronic device and setting method thereof
US20110142344A1 (en) Browsing system, server, and text extracting method
KR20130024085A (en) Device and method for changing user interface in wireless terminal
US9704279B2 (en) Image processing device, image processing method, program, and recording medium
US9852349B2 (en) Scanning system, terminal device and scanning method
KR20100120753A (en) Image sensor and image sensing method for character recognition
KR102549570B1 (en) Image text broadcasting method and device, electronic circuit and storage medium
KR100736342B1 (en) Mobile terminal device and schedule management method
JP4668345B1 (en) Information processing apparatus and control method of information processing apparatus
KR100633231B1 (en) Portable terminal with gesture recognition based information retrieval function and its implementation method
KR101015740B1 (en) Character recognition method and device
US9343065B2 (en) System and method for processing a keyword identifier
US9641740B2 (en) Apparatus and method for auto-focusing in device having camera
KR100735262B1 (en) Automatic display method of mobile terminal
KR101499133B1 (en) Method and device for performing menu in wireless terminal
JP4800144B2 (en) Character string determination device, character string determination method, character string determination program, and computer-readable recording medium
KR100703414B1 (en) Information retrieval method using mobile terminal
JP2010191907A (en) Character input device and character input method
KR20080034248A (en) How to search photos using face recognition on a mobile device
JP4251643B2 (en) Image capturing apparatus and program
KR100726255B1 (en) Portable terminal capable of rapid character input and character input method using the same

Legal Events

Date Code Title Description
A201 Request for examination
PA0109 Patent application

Patent event code: PA01091R01D

Comment text: Patent Application

Patent event date: 20050418

PA0201 Request for examination
E701 Decision to grant or registration of patent right
PE0701 Decision of registration

Patent event code: PE07011S01D

Comment text: Decision to Grant Registration

Patent event date: 20060926

GRNT Written decision to grant
PR0701 Registration of establishment

Comment text: Registration of Establishment

Patent event date: 20060929

Patent event code: PR07011E01D

PR1002 Payment of registration fee

Payment date: 20060928

End annual number: 3

Start annual number: 1

PG1601 Publication of registration
LAPS Lapse due to unpaid annual fee
PC1903 Unpaid annual fee