KR101660271B1 - 메타데이터 태깅 시스템, 이미지 검색 방법, 디바이스 및 이에 적용되는 제스처 태깅방법 - Google Patents
메타데이터 태깅 시스템, 이미지 검색 방법, 디바이스 및 이에 적용되는 제스처 태깅방법 Download PDFInfo
- Publication number
- KR101660271B1 KR101660271B1 KR1020100011496A KR20100011496A KR101660271B1 KR 101660271 B1 KR101660271 B1 KR 101660271B1 KR 1020100011496 A KR1020100011496 A KR 1020100011496A KR 20100011496 A KR20100011496 A KR 20100011496A KR 101660271 B1 KR101660271 B1 KR 101660271B1
- Authority
- KR
- South Korea
- Prior art keywords
- gesture
- metadata
- image
- user
- mobile phone
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 67
- 229910016077 MP3P Inorganic materials 0.000 description 36
- 238000010586 diagram Methods 0.000 description 28
- 239000000284 extract Substances 0.000 description 16
- 230000002093 peripheral effect Effects 0.000 description 15
- 238000004458 analytical method Methods 0.000 description 13
- 238000012545 processing Methods 0.000 description 9
- 238000004891 communication Methods 0.000 description 8
- 230000000877 morphologic effect Effects 0.000 description 5
- 238000012217 deletion Methods 0.000 description 4
- 230000037430 deletion Effects 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 238000010187 selection method Methods 0.000 description 4
- 230000005540 biological transmission Effects 0.000 description 3
- 230000001815 facial effect Effects 0.000 description 3
- 238000010191 image analysis Methods 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 238000012790 confirmation Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/58—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/583—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/40—Analysis of texture
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/58—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/58—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/587—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using geographical or spatial information, e.g. location
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Databases & Information Systems (AREA)
- Data Mining & Analysis (AREA)
- Library & Information Science (AREA)
- Human Computer Interaction (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
메타데이터 태깅 시스템, 이미지 검색 방법, 디바이스 및 제스처 태깅방법이 개시된다. 본 메타데이터 태깅 시스템은, 메타데이터를 이미지에 태깅하여 전달하는 제1 디바이스 및 저장된 이미지들 중 적어도 하나가 검색되도록 하는 제2 디바이스를 포함한다. 이에 의해, 생성된 데이터를 보다 쉽고 간편하게 검색하여 사용할 수 있게 된다.
Description
본 발명은 메타데이터 태깅 시스템 , 이미지 검색 방법, 디바이스 및 이에 적용되는 제스처 태깅방법에 관한 것으로, 보다 상세하게는, 태깅된 메타데이터를 기반으로 이미지를 검색하기 위한 메타데이터 태깅 시스템, 이미지 검색 방법, 디바이스 및 이에 적용되는 제스처 태깅방법에 관한 것이다.
통상적으로, 사용자는, 데이터와 관련된 키워드를 입력하거나 시스템에 의해 제공되는 키워드들 중 선택하여 데이터에 대한 검색을 수행하게 된다. 이는, 데이터의 내용을 나타내는 메타데이터와 미리 준비된 데이터베이스 간의 연관 등록을 통해 이루어지게 된다.
그러나, 이러한 방식을 통해 사용자가 원활하게 데이터를 검색하기 위해서는, 메타데이터와 데이터베이스 간의 연관 등록을 수시로 해주어야 할 필요가 있으며, 이는 사용자에게 상당한 수고가 아닐 수 없다. 즉, 메타데이터와 데이터베이스 간의 연관 등록이 불충분하게 진행된 경우, 사용자는 방대한 데이터 가운데서 필요한 데이터에 대한 효과적인 검색에 지장을 받을 수 밖에 없게 된다.
이에 따라, 연관 등록과 같은 사용자의 별도 입력없이 메타데이터를 자동으로 추출하고, 추출된 메타데이터를 기반으로 하여 효과적으로 데이터를 검색할 수 있도록 하기 위한 방안의 모색이 요청된다.
본 발명은 상기와 같은 문제점을 해결하기 위하여 안출된 것으로서, 본 발명의 목적은, 데이터를 쉽고 간편하게 검색할 수 있도록 하기 위한 메타데이터 태깅 시스템, 이미지 검색 방법, 디바이스 및 이에 적용되는 제스처 태깅방법에 관한 것이다.
상기 목적을 달성하기 위한 본 발명의 일 실시예에 따른 메타데이터 태깅 시스템은, 이미지를 분석하여 상기 이미지에 대한 적어도 하나의 메타데이터를 추출하고, 상기 메타데이터를 상기 이미지에 태깅하여 상기 메타데이터가 태깅된 이미지를 제3 디바이스로 전달하는 제1 디바이스; 및 상기 메타데이터를 기초로, 상기 제3 디바이스에 저장된 이미지들 중 적어도 하나가 검색되도록 하는 제2 디바이스;를 포함한다.
여기서, 상기 제1 디바이스는, 얼굴인식 알고리즘, 형태분석 알고리즘 및 색분석 알고리즘 중 적어도 하나를 이용해, 상기 이미지를 분석하여, 상기 이미지에 포함된 인물, 장소, 사물 및 모션 중 적어도 하나에 관한 메타데이터를 추출할 수 있다.
또한, 상기 제1 디바이스는, 상기 이미지가 생성된 날짜 및 시간에 대한 정보를 저장하고, 상기 날짜 및 시간에 대한 정보를 메타데이터로 추출할 수 있다.
그리고, 상기 제1 디바이스는, GPS 신호를 수신하여 상기 이미지가 생성된 위치에 관한 메타데이터를 추출할 수 있다.
또한, 상기 제1 디바이스는, 상기 이미지가 생성된 후 사용자의 조작을 통해 입력된 정보를 기초로 상기 메타데이터를 추출할 수 있다.
그리고, 상기 제2 디바이스는, 상기 제2 디바이스에 표시되는 텍스트들 중 적어도 하나를 선택하여 상기 제3 디바이스로 전송함으로써, 상기 제3 디바이스에서 상기 선택된 텍스트를 기초로 상기 제3 디바이스에 저장된 이미지들 중 적어도 하나를 검색하도록 할 수 있다.
또한, 상기 제2 디바이스는, 상기 제2 디바이스에 표시된 달력에서 특정한 날짜를 선택하여 상기 제3 디바이스로 전송함으로써, 상기 제3 디바이스에서 상기 선택된 날짜를 기초로 상기 제3 디바이스에 저장된 이미지들 중 적어도 하나를 검색하도록 할 수 있다.
그리고, 상기 제2 디바이스는, 상기 제2 디바이스에 표시된 지도에서 특정한 위치를 선택하여 상기 제3 디바이스로 전송함으로써, 상기 제3 디바이스에서 상기 선택된 위치를 기초로 상기 제3 디바이스에 저장된 이미지들 중 적어도 하나를 검색하도록 할 수 있다.
또한, 상기 제2 디바이스는, 상기 제2 디바이스로 촬영된 이미지에서 사용자의 모션을 추출하여 상기 제3 디바이스로 전송함으로써, 상기 제3 디바이스에서 상기 모션을 기초로 상기 제3 디바이스에 저장된 이미지들 중 적어도 하나를 검색하도록 할 수 있다.
그리고, 상기 제3 디바이스는, 상기 제3 디바이스에 저장되어 있는 이미지들에 태깅된 메타데이터를 기초로 상기 검색을 수행하고, 검색된 이미지를 상기 제2 디바이스로 전송할 수 있다.
한편, 상기 목적을 달성하기 위한 본 발명의 일 실시예에 따른 이미지 검색방법은, 이미지를 분석하여 상기 이미지에 대한 적어도 하나의 메타데이터를 추출하는 단계; 상기 메타데이터를 상기 이미지에 태깅하여 상기 메타데이터가 태깅된 이미지를 외부 디바이스에 저장하는 단계; 및 상기 메타데이터를 기초로, 상기 외부 디바이스에 저장된 이미지들 중 적어도 하나를 검색하는 단계;를 포함한다.
한편, 본 발명의 일 실시예에 따른, 디바이스는, 사용자의 제스처를 입력받는 조작부; 및 상기 입력된 사용자의 제스처를 특정 컨텐츠의 메타 데이터에 태깅하는 제어부;를 포함한다.
그리고, 상기 조작부는, 사용자의 터치 조작을 입력받고, 상기 제스처는, 사용자에 의해 입력된 특정 형상의 터치 조작일 수도 있다.
또한, 상기 제어부는, 상기 제스처가 상기 특정 컨텐츠의 메타데이터에 태깅된 상태에서 상기 조작부를 통해 상기 제스처가 입력되면, 상기 특정 컨텐츠를 실행할 수도 있다.
그리고, 상기 제어부는, 상기 제스처를 상기 메타 데이터에 포함된 정보들 중 어느 하나에 대응시킴으로써, 상기 제스처를 상기 특정 컨텐츠의 메타 데이터에 태깅할 수도 있다.
한편, 본 발명의 일 실시예에 따른, 제스처 태깅방법은, 사용자의 제스처를 입력받는 단계; 및 상기 입력된 사용자의 제스처를 특정 컨텐츠의 메타 데이터에 태깅하는 단계;를 포함한다.
그리고, 상기 입력단계는, 상기 제스처로써 사용자의 터치 조작을 입력받고, 상기 제스처는, 사용자에 의해 입력된 특정 형상의 터치 조작일 수도 있다.
또한, 상기 제스처가 상기 특정 컨텐츠의 메타데이터에 태깅된 상태에서 상기 조작부를 통해 상기 제스처가 입력되면, 상기 특정 컨텐츠를 실행하는 단계;를 더 포함할 수도 있다.
그리고, 상기 태깅단계는, 상기 제스처를 상기 메타 데이터에 포함된 정보들 중 어느 하나에 대응시킴으로써, 상기 제스처를 상기 특정 컨텐츠의 메타 데이터에 태깅할 수도 있다.
이와 같이, 생성된 데이터를 분석하여 메타데이터를 태깅하여 저장함으로써, 데이터를 보다 쉽고 간편하게 검색하여 사용할 수 있게 된다.
또한, 제스처를 메타데이터에 태깅할 수 있게 되므로, 사용자는 제스처를 이용하여 원하는 컨텐츠를 검색할 수 있게 된다.
도 1은 본 발명의 일 실시예에 따른 메타데이터 태깅 시스템을 도시한 도면,
도 2는 본 발명의 일 실시예에 따른 메타데이터 태깅 방법을 설명하기 위해 제공되는 도면,
도 3은 본 발명의 다른 실시예에 따른 메타데이터 태깅 방법을 설명하기 위해 제공되는 도면,
도 4는 메타데이터가 태깅된 이미지가 표시된 화면을 도시한 도면,
도 5는 이미지 검색 방법을 설명하기 위한 도면,
도 6a 내지 도 6e는 각각의 검색 방법 화면을 도시한 도면,
도 7은 중앙 저장 장치에 의해 검색된 이미지들이 MP3P로 전송되어 MP3P의 화면에 표시된 모습을 도시한 도면,
도 8은 모바일 폰에 대한 개략적인 블록도,
도 9는 중앙 저장 장치에 대한 개략적인 블록도,
도 10a 내지 도 10f는 본 발명의 일 실시예에 따른, 모바일폰을 이용하여 음악 컨텐츠의 메타 데이터에 사용자의 제스처를 태깅하는 과정을 도시한 도면,
도 11a 내지 도 11c는 본 발명의 일 실시예에 따른, 제스처를 이용하여 컨텐츠를 실행시키는 과정을 도시한 도면,
도 12a 내지 도 12e는 본 발명의 일 실시예에 따른, 모바일폰을 이용하여 음악 컨텐츠의 메타 데이터에 태깅된 제스처를 변경하는 과정을 도시한 도면이다.
도 2는 본 발명의 일 실시예에 따른 메타데이터 태깅 방법을 설명하기 위해 제공되는 도면,
도 3은 본 발명의 다른 실시예에 따른 메타데이터 태깅 방법을 설명하기 위해 제공되는 도면,
도 4는 메타데이터가 태깅된 이미지가 표시된 화면을 도시한 도면,
도 5는 이미지 검색 방법을 설명하기 위한 도면,
도 6a 내지 도 6e는 각각의 검색 방법 화면을 도시한 도면,
도 7은 중앙 저장 장치에 의해 검색된 이미지들이 MP3P로 전송되어 MP3P의 화면에 표시된 모습을 도시한 도면,
도 8은 모바일 폰에 대한 개략적인 블록도,
도 9는 중앙 저장 장치에 대한 개략적인 블록도,
도 10a 내지 도 10f는 본 발명의 일 실시예에 따른, 모바일폰을 이용하여 음악 컨텐츠의 메타 데이터에 사용자의 제스처를 태깅하는 과정을 도시한 도면,
도 11a 내지 도 11c는 본 발명의 일 실시예에 따른, 제스처를 이용하여 컨텐츠를 실행시키는 과정을 도시한 도면,
도 12a 내지 도 12e는 본 발명의 일 실시예에 따른, 모바일폰을 이용하여 음악 컨텐츠의 메타 데이터에 태깅된 제스처를 변경하는 과정을 도시한 도면이다.
이하에서는 도면을 참조하여 본 발명을 더욱 상세하게 설명한다. 특히, 도 1 내지 도 3을 참조하여 메타데이터 태깅 시스템의 구성 및 동작 플로우에 대해 설명하기로 하고, 도 4 내지 도 7을 참조하여 태깅화면 및 검색화면에 대해 설명하기로 하며, 도 8 및 도 9를 참조하여, 메타데이터 태깅을 위한 각 장치의 구성에 대해 설명하기로 한다.
< 메타데이터 태깅 시스템의 구성 및 동작
플로우
>
도 1은 본 발명의 일 실시예에 따른 메타데이터 태깅 시스템을 도시한 도면이다. 본 실시예에 따른 메타데이터 태깅 시스템은, 촬영된 이미지의 메타데이터를 추출하여, 추출된 메타데이터를 촬영된 이미지에 태깅하여 저장하며, 이에 따라, 사용자로 하여금 촬영된 이미지들에 대한 검색이 용이하게 한다.
메타데이터 태깅 시스템은, 모바일 폰(100), 중앙 저장 장치(200), 주변 장치들(310, 320, 330, 340)로 구성된다.
모바일 폰(100)은 사용자가 휴대하여 가지고 다니는 이동 단말의 일종으로서, 다른 통신 가입자와 통화를 위한 궁극적 목적 이외에, 피사체를 촬영하여 촬영된 이미지가 후술할 중앙 저장 장치(200)에 저장되도록 하는 부수적 목적으로도 사용된다.
모바일 폰(100)은, 내장된 카메라를 통해 피사체를 촬영할 수 있으며, 촬영된 피사체에 대한 이미지를 분석하여 이미지의 속성들에 대한 정보, 즉, 이미지의 메타데이터를 추출하고, 추출된 메타데이터를 이미지에 태깅하여 중앙 저장 장치(200)로 전송하여, 중앙 저장 장치(200)에서 태깅된 이미지가 저장되도록 한다. 이미지에 메타데이터를 태깅하는 방법에 대해서는 후술하기로 한다.
중앙 저장 장치(200)는 일반적으로 고정된 장소에서 사용되는 고정식 저장 장치의 일종으로서, 모바일 폰(100)으로부터 수신된 이미지를 저장하고, 주변 장치들(310, 320, 330, 340) 중 하나로부터 수신된 이미지에 대한 호출명령에 따라 호출된 이미지를 주변 장치들(310, 320, 330, 340) 중 하나로 전송한다.
물론, 중앙 저장 장치(200)는 모바일 폰(100)이 아닌 주변 장치들(310)에서 생성된 이미지에 대한 저장도 할 수 있으며, 주변 장치들(310, 320, 330, 340)이 아닌 모바일 폰(100)으로의 이미지 전송도 할 수 있음은 물론이다.
주변 장치들(310, 320, 330, 340)은 사용자에 의해 휴대되어 사용되는 장치들 및 댁내 고정된 장소에서 사용되는 장치들을 모두 포함하며, 본 실시예에서는 MP3P(310), 디지털 카메라(320), TV(330) 및 모니터(340)를 예시적으로 도시하였다.
한편, 주변 장치들(310, 320, 330, 340)은 각자 본연의 역할 이외에, 중앙 저장 장치(200)에 억세스하여 중앙 저장 장치(200)에 저장된 이미지들을 수신할 수 있다. 특히, 주변 장치들(310, 320, 330, 340)은 중앙 저장 장치(200)에 저장된 이미지들 중 일부에 대해 수신할 수 있으며, 이러한 일부 이미지를 선택하기 위해, 다양한 검색 방법을 선택할 수 있다. 검색 방법에 대해서는 후술하기로 한다.
도 2는 본 발명의 일 실시예에 따른 메타데이터 태깅 방법을 설명하기 위해 제공되는 도면이다. 이하에서는, 설명의 편의를 위해, 주변 장치들을 대표하는 장치로서 MP3P(310)를 기준으로 설명하기로 한다.
모바일 폰(100)이 피사체를 촬영하여 이미지를 생성하면(S410), 모바일 폰(100)은 생성된 이미지를 분석하여(S420), 이미지에 대한 메타데이터를 추출한다(S430).
메타데이터를 추출하는 방법은, 다음과 같은 것들을 들 수 있다.
① 우선, 생성된 이미지를 분석하여 메타데이터를 추출하는 방법이다. 이미지를 분석하기 위해, 얼굴인식 알고리즘, 형태 분석 알고리즘 등을 사용될 수 있으며, 모바일 폰(100)이러한 알고리즘을 사용하여, 생성된 이미지에 포함된 인물 또는 동물에 대한 정보, 장소에 대한 정보, 주변 사물에 대한 정보, 인물 또는 동물의 동작에 대한 정보 등을 추출할 수 있다.
예를 들어, 모바일 폰(100)은 생성된 이미지에서 얼굴 부분을 파악하고, 얼굴 부분의 구체적 윤곽, 이목구비의 위치 등을 분석하여 인물에 대한 정보를 알 수 있으며, 생성된 이미지에 포함된 이정표, 간판 등의 사물을 기초로 장소에 대한 정보를 알 수 있다.
② 다음으로, 이미지가 생성된 시점의 날짜/시간 정보을 기초로 메타데이터를 추출하는 방법이다. 날짜/시간에 대한 정보는 피사체의 촬영시에 모바일 폰(100)에 자동으로 저장되는 날짜/시간 정보를 그대로 이용할 수 있을 것이다.
예를 들어, 피사체를 촬영한 날짜가 2009년 5월 1일인 경우, 이러한 데이터는 모바일 폰(100)에 그대로 저장되며, 모바일 폰(100)은 이를 기초로 메타데이터로 추출할 수 있다.
③ 또한, GPS 신호 수신기를 이용하여 이미지가 생성된 위치에 대한 정보를 기초로 메타데이터를 추출하는 방법도 고려할 수 있다. GPS 신호 수신기는 피사체가 촬영되는 시점에, 피사체가 촬영되는 구체적 위치에 대한 정보를 파악하여, 이러한 정보가 모바일 폰(100)으로 전달되도록 할 수 있으며, 모바일 폰(100)은 이를 기초로 메타데이터를 추출할 수 있다.
④ 뿐만 아니라, 사용자로부터 직접 입력된 내용을 기초로 메타데이터를 추출할 수도 있다. 즉, 사용자가 피사체를 촬영하여 촬영된 이미지와 관련되는 내용을 입력하는 경우, 모바일 폰(100)은 이러한 내용을 기초로도 메타데이터를 추출할 수 있다.
한편, 모바일 폰(100)은 추출된 메타데이터를 이미지에 태깅한다(S440). 메타데이터가 복수개 존재한다면, 복수개의 메타데이터를 이미지에 태깅한다.
이와 같이 이미지에 메타데이터가 태깅되면, 모바일 폰(100)은 태깅된 이미지를 중앙 저장 장치(200)로 전송한다.
중앙 저장 장치(200)는 메타데이터로 태깅된 이미지를 저장한다(S460).
한편, MP3P(310)는 중앙 저장 장치(200)에 태깅되어 저장된 이미지들 중 사용자가 원하는 이미지를 선택적으로 수신하기 위해, 사용자로부터 이미지 검색 방법을 선택받게 된다(S470).
사용자로부터 이미지 검색 방법이 선택되면, MP3P(310)는 선택된 방법에 따라 이미지를 검색하여 줄 것을 중앙 저장 장치(200)로 요청하며(S480), 중앙 저장 장치(200)는 요청된 검색 방법에 따라 이미지를 검색하여 추출하고(S490), 추출된 이미지들을 MP3P(310)로 전송한다(S500).
이와 같이, 모바일 폰(100)은 촬영된 이미지를 분석하여 메타데이터를 태깅하며, 이에 의해, MP3P(310)는 모바일 폰(100)에서 촬영된 이미지를 쉽고 간편하게 검색하여 사용할 수 있게 된다.
한편, 도 3은 본 발명의 다른 실시예에 따른 메타데이터 태깅 방법을 설명하기 위해 제공되는 도면이다.
모바일 폰(100)이 피사체를 촬영하여 이미지를 생성하면(S510), 모바일 폰(100)은 생성된 이미지를 중앙 저장 장치(200)로 전송한다(S520).
중앙 저장 장치(200)는 수신된 이미지를 분석하여(S530), 분석된 이미지에 대한 메타데이터를 추출하며(S540), 추출된 메타데이터를 수신된 이미지에 태깅한다(S550). 또한, 중앙 저장 장치(200)는 메타데이터가 태깅된 이미지를 저장한다(S560).
한편, MP3P(310)는 중앙 저장 장치(200)에 태깅되어 저장된 이미지들 중 사용자가 원하는 이미지를 선택적으로 수신하기 위해, 사용자로부터 이미지 검색 방법을 선택받게 된다(S570).
사용자로부터 이미지 검색 방법이 선택되면, MP3P(310)는 선택된 방법에 따라 이미지를 검색하여 줄 것을 중앙 저장 장치(200)로 요청하며(S580), 중앙 저장 장치(200)는 요청된 검색 방법에 따라 이미지를 검색하여 추출하고(S590), 추출된 이미지들을 MP3P(310)로 전송한다(S600).
이와 같이, 모바일 폰(100)에서 촬영된 이미지는 중앙 저장 장치(200)로 전송되고, 중앙 저장 장치(200)는 수신된 이미지를 분석하여 메타데이터를 태깅하며, 이에 의해, MP3P(310)는 모바일 폰(100)에서 촬영된 이미지를 쉽고 간편하게 검색하여 사용할 수 있게 된다.
<
태깅화면
및 검색화면 >
도 4는 메타데이터가 태깅된 이미지가 표시된 화면을 도시한 도면이다. 도 4에서는 설명의 편의를 위해 도 2의 실시예와 같이, 모바일 폰(100)에서 메타데이터가 태깅되는 것으로 상정하여 설명하기로 한다.
화면에는 촬영된 이미지(610)와 태깅된 메타데이터들(620)이 함께 표시된다.
① 우선, 촬영된 이미지(610)를 참고하면, 한 명의 인물과 데스크가 피사체로 되어 있는 것을 알 수 있다. 모바일 폰(100)은 이러한 이미지(610)를 분석하여 메타데이터들 중 'Office', 'Suji', 'Red' 및 'Desk'라는 메타데이터를 추출한다.
구체적으로, 모바일 폰(100)은 형태 분석 알고리즘을 이용하여 이미지(610)에 Desk가 포함되어 있다는 것을 알게 되며, 특히, 기저장된 이미지들 중 'Desk'라는 메타데이터가 태그되어 있는 이미지들에 대한 형태 분석 결과와 촬영된 이미지(610)에 대한 형태 분석 결과의 비교를 통해 알게 된다.
또한, 모바일 폰(100)은 형태 분석 알고리즘을 이용하여 촬영된 이미지(610)에 해당하는 장소가 Office라는 것을 알게 된다. 특히, 기저장된 이미지들 중 'Desk'라는 메타데이터가 태그되어 있는 이미지들에 대한 형태 분석 결과와 촬영된 이미지(610)에 대한 형태 분석 결과의 비교를 통해, 기저장된 이미지들 중 'Desk'라는 메타데이터가 태그되어 있는 이미지들과 촬영된 이미지(610)에 해당하는 장소가 동일하다는 결론을 내려지면, 'Desk'라는 메타데이터가 태그되어 있는 이미지들의 다른 메타데이터인 'Office'를 촬영된 이미지(610)의 메타데이터로 추출할 수 있는 것이다.
이와 마찬가지로, 모바일 폰(100)은 얼굴인식 알고리즘을 이용하여 촬영된 이미지(610)에 해당하는 인물이 Suji라는 것을 알게 된다. 특히, 기저장된 이미지들 중 'Suji'라는 메타데이터가 태그되어 있는 이미지들에 대한 얼굴 인식 결과와 촬영된 이미지(610)에 대한 얼굴 인식 결과의 비교를 통해, 기저장된 이미지들 중 'Suji'라는 메타데이터가 태그되어 있는 이미지들과 촬영된 이미지(610)에 해당하는 인물이 동일하다는 결론을 내려지면, 'Suji'라는 메타데이터가 태그되어 있는 이미지들의 메타데이터와 동일한 'Suji'를 촬영된 이미지(610)의 메타데이터로 추출할 수 있는 것이다.
뿐만 아니라, 모바일 폰(100)은, 촬영된 이미지(610)의 컬러 분석을 통해 촬영된 이미지(610)의 컬러 중 Red 컬러가 지배적이라는 결론이 내려지면, 'Red'라는 메타데이터를 추출할 수 있는 것이다.
② 다음으로, 모바일 폰(100)을 통해 사용자가 이미지(610)를 촬영하면, 모바일 폰(100)은 이미지(610)가 촬영된 날짜를 저장하게 된다. 모바일 폰(100)은 이를 기초로, 이미지(610)가 생성된 시점의 날짜/시간을 메타데이터로 추출한다. 본 실시예에서는 이미지(610)가 촬영된 날짜가 '2009년 5월 1일'인 것을 알 수 있다.
③ 또한, 모바일 폰(100)을 통해 사용자가 이미지(610)를 촬영하면, 모바일 폰(100)은 내장된 GPS 신호 수신 수단을 이용하여, 이미지(610)가 생성된 위치에 대한 정보를 저장하게 된다. 모바일 폰(100)은 이를 기초로, 이미지(610)가 생성된 시점의 날짜/시간을 메타데이터로 추출한다. 본 실시예에서는 이미지(610)가 촬영된 위치가 'Seoul'임을 알 수 있다.
본 실시예에서는, 얼굴 인식 알고리즘, 형태 분석 알고리즘, 색 분석 알고리즘 등을 통해, 'Office', 'Suji', 'Seoul', '2009-05-01', 'Red' 및 'Desk'와 같은 메타데이터가 추출된 것으로 상정하였으나, 이는 설명의 편의를 위한 예시적 사항에 불과하며, 이 외의 메타데이터가 추출되는 경우에도 본 발명이 적용될 수 있으며, 이상에서 설명한 것과 다른 방식을 통해 메타데이터가 추출될 수도 있을 것이다.
특히, 전술한 바와 같이, ④ 사용자로부터 직접 입력된 내용을 기초로 메타데이터를 추출할 수도 있을 것이다.
이와 같은 방식을 통해 촬영된 이미지에 대한 메타데이터가 이미지와 함께 중앙 저장 장치(200)에 저장되게 되며, 사용자는 저장된 메타데이터를 통해 이미지 검색을 보다 쉽고 간편하게 할 수 있게 된다.
이하에서는, 도 5 내지 도 7을 참조하여, 이미지를 검색하여 표시하는 과정에 대해 설명하기로 한다.
도 5는 이미지 검색 방법을 설명하기 위한 도면이다.
사용자가 MP3P(310)로 이미지 검색을 위한 명령을 입력하면, MP3P(310)의 디스플레이에는 검색방법을 선택하기 위한 화면이 표시된다. 이러한 검색방법 선택화면은, ⓐ 날짜/시간 검색, ⓑ 텍스트 검색, ⓒ 지도 검색, ⓓ 모션 검색으로 이루어진다. 또한, 사용자는 화면에 표시된 검색 방법들 중 하나를 선택하여, 중앙 저장 장치(200)에 저장된 이미지들을 검색할 수 있게 된다.
도 6a 내지 도 6e는 각각의 검색 방법 화면을 도시한 도면이다.
사용자가 ⓐ 날짜/시간 검색을 선택하면, 도 6a에 도시된 바와 같이, MP3P(310)의 디스플레이에는 달력 화면이 표시된다.
따라서, 사용자는 MP3P(310)의 디스플레이에 표시된 달력 화면 중 원하는 날짜를 선택할 수 있고, 이러한 사용자의 날짜 선택 조작에 따라, MP3P(310)는 선택된 날짜를 메타데이터로 하는 이미지들에 대한 전송요청을 중앙 저장 장치(200)로 전송하게 된다.
이후, MP3P(310)는, 선택된 날짜를 메타데이터로 하는 이미지들이 중앙 저장 장치(200)에 의해 검색된 결과를 수신하게 된다. 이와 같은 검색한 결과는, 이미지들 자체일 수도 있고, 이미지들에 대한 별도 정보일 수 있다.
물론, 이상에서 설명한 날짜 선택 방법은 예시적인 것이며, 본 발명이 이러한 날짜 선택 방법에 한정되어 이해되어져서는 안될 것이다.
한편, 사용자가 ⓑ 텍스트 검색을 선택하면, 도 6b에 도시된 바와 같이, MP3P(310)의 디스플레이에는 다양한 텍스트들이 동시에 표시된다. 이러한 텍스트들은, 메타데이터들에 대한 텍스트로서, 무작위적으로 화면상에 표시되거나, 중요도, 빈도 등을 고려하여 크기, 위치가 결정되어 표시될 수 있다.
따라서, 사용자는 MP3P(310)의 디스플레이에 표시된 메타데이터들에 대한 텍스트 중 원하는 텍스트를 선택할 수 있고, 이러한 사용자의 텍스트 선택 조작에 따라, MP3P(310)는 선택된 텍스트를 메타데이터로 하는 이미지들에 대한 전송요청을 중앙 저장 장치(200)로 전송하게 된다.
이후, MP3P(310)는, 선택된 텍스트를 메타데이터로 하는 이미지들이 중앙 저장 장치(200)에 의해 검색된 결과를 수신하게 된다. 이와 같은 검색한 결과는, 이미지들 자체일 수도 있고, 이미지들에 대한 별도 정보일 수 있다.
물론, 이상에서 설명한 텍스트 선택 방법은 예시적인 것이며, 본 발명이 이러한 텍스트 선택 방법에 한정되어 이해되어져서는 안될 것이다.
다음으로, 사용자가 ⓒ 지도 검색을 선택하면, 도 6c에 도시된 바와 같이, MP3P(310)의 디스플레이에는 지도 화면이 표시된다.
따라서, 사용자는 MP3P(310)의 디스플레이에 표시된 지도 화면 중 원하는 위치(지역)를 선택할 수 있고, 이러한 사용자의 위치 선택 조작에 따라, MP3P(310)는 선택된 위치(지역)를 메타데이터로 하는 이미지들에 대한 전송요청을 중앙 저장 장치(200)로 전송하게 된다.
이후, MP3P(310)는, 선택된 위치(지역)를 메타데이터로 하는 이미지들이 중앙 저장 장치(200)에 의해 검색된 결과를 수신하게 된다. 이와 같은 검색한 결과는, 이미지들 자체일 수도 있고, 이미지들에 대한 별도 정보일 수 있다.
물론, 이상에서 설명한 위치(지역) 선택 방법은 예시적인 것이며, 본 발명이 이러한 위치(지역) 선택 방법에 한정되어 이해되어져서는 안될 것이다.
다음으로, 사용자가 ⓓ 모션 검색을 선택하면, 도 6d에 도시된 바와 같이, MP3P(310)는 촬영모드로 진입한다.
따라서, 사용자는 MP3P(310)를 통해 피사체를 촬영할 수 있고, MP3P(310)는 촬영된 피사체 중 도 6e와 같이 특징 부분을 추출한다. 이에 따라, MP3P(310)는 특징 부분의 이미지 자체를 메타데이터로 하며, 특징 부분의 이미지와 동일한 이미지를 포함하는 이미지들에 대한 전송요청을 중앙 저장 장치(200)로 전송하게 된다.
이후, MP3P(310)는, 특징 부분의 이미지를 포함하는 이미지들이 중앙 저장 장치(200)에 의해 검색된 결과를 수신하게 된다. 이와 같은 검색한 결과는, 이미지들 자체일 수도 있고, 이미지들에 대한 별도 정보일 수 있다.
물론, 이상에서 설명한 모션 검색 방법도 설명의 편의를 위한 예시적인 것이며, 본 발명이 이러한 모션 검색 방법에 한정되어 이해되어져서는 안될 것이다.
한편, 도 7은 중앙 저장 장치(200)에 의해 검색된 이미지들이 MP3P(310)로 전송되어 MP3P(310)의 화면에 표시된 모습을 도시한 도면이다.
특히, 도 7은 MP3P(310)로 입력된 날짜 검색에 의해, '2009년 5월 1일'이라는 메타데이터를 가지는 이미지들이 중앙 저장 장치(200)에 의해 검색되어 MP3P(310)로 수신되어 표시되는 모습을 도시한 것이다.
이와 같은 방식을 통해, 사용자는 서로 다른 디바이스인 MP3P(310)의 조작으로 중앙 저장 장치(200)에 저장된 이미지를 보다 쉽고 간편하게 검색할 수 있게 된다.
< 메타데이터 태깅을 위한 각 장치의 구성 >
도 8은 이상에서 설명한 모바일 폰(100)에 대한 개략적인 블록도이다.
모바일 폰(100)은 촬영부(110), 영상 처리부(120), 디스플레이(130), 조작부(140), 제어부(150), 통신부(160), GPS 신호 수신부(170) 및 저장부(180)를 포함한다.
촬영부(110)는 피사체를 촬영하여, 촬영된 영상신호를 영상 처리부(120)로 전달한다.
영상 처리부(120)는 촬영된 영상신호를 이용하여 이미지를 생성하고, 생성된 이미지를 디스플레이(130)로 전달하며, 이에 따라 디스플레이(130)는 수신된 이미지를 화면에 표시한다. 또한, 영상 처리부(120)는 얼굴 인식 알고리즘, 형태 분석 알고리즘, 색 분석 알고리즘 등을 통해 생성된 이미지를 분석한 결과를 제어부(150)로 전달한다.
뿐만 아니라, 영상 처리부(120)는 제어부(150)로부터 수신된 메타데이터가 생성된 이미지에 부가되도록 한다.
조작부(140)는 사용자의 조작명령을 입력받는다. 구체적으로, 조작부(140)는 피사체 촬영을 위한 사용자의 조작, 이미지 분석에 대한 사용자의 조작, 메타데이터 추출 및 태깅에 대한 사용자의 조작 및 태깅된 이미지의 전송에 대한 사용자의 조작을 입력받는다.
조작부(140)는 입력된 사용자의 조작명령을 제어부(150)로 전달한다.
제어부(150)는 모바일 폰(100)에 대한 전반적인 동작을 제어한다. 특히, 제어부(150)는 영상 처리부(120)에서 이미지가 분석되도록 제어하고, 영상 처리부(120)에서 이미지를 분석한 결과를 토대로 이미지의 메타데이터들을 추출하며, 추출된 메타데이터가 이미지에 태깅되도록 한다.
통신부(160)는 제어부(150)의 제어하에, 무선통신 방식을 이용하여, 태깅된 이미지를 외부로 전송한다.
GPS 신호 수신부(170)는 위성 등으로부터 모바일 폰(100)이 존재하는 위치에 대한 정보를 수신하여 제어부(150)로 전송하며, 이미지가 생성되면, 제어부(150)는 위치에 대한 정보를 생성된 이미지에 대한 메타데이터로 추출한다.
저장부(180)는, 메타데이터, 생성된 이미지에 대한 정보, 위치 정보, 이미지 분석 정보 및 모바일 폰(100) 전반을 동작시키기 위한 프로그램을 저장한다. 이러한 저장부(180)는 하드디스크, 비휘발성 메모리 등으로 구현될 수 있다.
한편, MP3P(310)와 같은 주변 장치들(310, 320, 330, 340)에 대한 구성은 전술한 모바일 폰(100)에 대한 구성으로부터 유추될 수 있기에, 설명은 생략하기로 한다.
도 9는 지금까지 설명한 중앙 저장 장치(200)에 대한 개략적인 블록도이다.
중앙 저장 장치(200)는 통신부(210), 제어부(220) 및 저장부(230)로 구성된다.
통신부(210)는 무선통신 방식을 이용하여, 모바일 폰(100) 및 주변 장치들(310, 320, 330, 340)과 통신하여, 이미지를 송수신하고, 이미지 검색 요청을 수신한다.
특히, 통신부(210)는 모바일 폰(100)으로부터 태깅된 이미지를 수신하며, 주변 장치들(310, 320, 330, 340)로부터 이미지 검색 요청을 수신하여, 추출된 이미지를 주변 장치들(310, 320, 330, 340)로 전송한다.
제어부(220)는 중앙 저장 장치(200)에 대한 전반적인 동작을 제어한다. 특히, 제어부(220)는 모바일 폰(100)으로부터 수신된 이미지가 저장부(230)에 저장되도록하고, 주변 장치들(310, 320, 330, 340)에 의해 선택된 방법에 따라 저장부(230)에 저장된 이미지들을 검색한다.
저장부(230)는 태깅된 이미지, 메타데이터 및 중앙 저장 장치(200) 전반을 동작시키기 위한 프로그램을 저장한다. 이러한 저장부(230)는 하드디스크, 비휘발성 메모리 등으로 구현될 수 있다.
한편, 이상에서는 이미지를 생성하기 위한 장치로서 모바일 폰(100)을 예로 들어 설명하였으나, 이는 설명의 편의를 위한 예시적 사항에 불과하다. 따라서, 전술한 주변 장치들(310, 320, 330, 340)이 이미지를 생성하기 위한 장치로 사용되는 경우 뿐만 아니라 기타 다른 장치들이 이미지를 생성하기 위한 장치로서 사용되는 경우에도 본 발명의 기술적 사상이 그대로 적용될 수 있다.
또한, 이미지의 생성은 반드시 피사체의 촬영에 의한 이미지 생성에 국한되지는 않으며, 네트워크를 통한 이미지의 다운로드 등 다른 방식의 이미지 생성인 경우에도 본 발명이 적용될 수 있다.
뿐만 아니라, 본 발명의 기술적 사상은, 이미지에 국한되지 않는다고 볼 것이다. 예를 들어, 오디오 또는 텍스트 등을 생성하는 경우, 생성된 오디오 또는 텍스트에도 메타데이터 태깅이 가능함은 물론이다.
그리고, 이상에서 설명한 메타데이터 생성방법 및 검색방법은 예시적인 것에 불과하며, 이와 다른 방법을 사용하는 경우에도 본 발명의 기술적 사상이 적용될 수 있다.
< 제스처가 태깅된 메타데이터 >
구체적으로, 모바일폰(100)은 사용자의 제스처를 메타데이터에 태깅할 수도 있음은 물론이다. 이 경우에 관하여 도 8을 참고하여 설명하면, 모바일폰(100)의 조작부(140)는 사용자의 터치 조작에 해당되는 제스처를 입력받는다. 여기에서, 제스처는 사용자에 의해 입력된 특정 형상의 터치 조작을 나타낸다. 제스처는 사용자의 한번의 터치 조작에 의한 터치 경로의 형상에 대한 정보로 구성된다. 따라서, 모바일폰(100)의 제어부(150)은 제스처의 동일 여부의 판단을 터치 조작의 위치와 상관없이 터치 조작 경로의 형상이 동일한지 여부에 따라 결정하게 된다.
제어부(150)는 입력된 제스처를 특정 컨텐츠의 메타 데이터에 포함된 정보들 중 어느 하나에 대응시킴으로써, 제스처를 특정 컨텐츠의 메타 데이터에 태깅한다.
그리고, 제어부(150)는 제스처가 특정 컨텐츠의 메타데이터에 태깅된 상태에서 조작부(140)를 통해 상기 제스처가 입력되면, 특정 컨텐츠를 실행한다.
이와 관련하여, 도 10a 내지 도 12e를 참고하여 이하에서 상세히 설명한다. 이하의 설명에서, 모바일폰(100)의 조작부(140)는 터치스크린을 포함하여, 사용자의 터치 조작을 입력받는 것이 가능함을 전제로 설명한다.
도 10a 내지 도 10f는 본 발명의 일 실시예에 따른, 모바일폰(100)을 이용하여 음악 컨텐츠의 메타 데이터에 사용자의 제스처를 태깅하는 과정을 도시한 도면이다. 여기에서, 제스처는 사용자에 의해 입력된 특정 형상의 터치 조작을 나타낸다. 제스처는 사용자의 한번의 터치 조작에 의한 터치 경로의 형상에 대한 정보로 구성된다. 따라서, 모바일폰(100)은 제스처의 동일 여부의 판단을 터치 조작의 위치와 상관없이 터치 조작 경로의 형상이 동일한지 여부에 따라 결정하게 된다.
도 10a는 화면에 앨범 리스트가 표시된 상태의 모바일폰(100)을 도시한 도면이다. 도 10a에 도시된 바와 같이, 모바일폰(100)은 앨범 리스트에서 'Album 1'에 하이라이트(1010)가 위치된 상태이다. 이 상태에서, 사용자에 의해 메뉴 항목(1020)에 터치조작이 입력되면, 모바일폰(100)은 도 10b에 도시된 바와 같이 'Album 1'에 관련된 기능들에 대한 메뉴(1030)를 화면에 표시하게 된다.
도 10b는 'Album 1'에 관련된 기능들에 대한 메뉴(1030)가 화면에 표시된 모바일폰(100)을 도시한 도면이다. 도 10b에 도시된 바와 같이, 메뉴(1030)는 검색 항목, 선택재생 항목, 삭제 항목, 선택삭제 항목, 앨범담기 항목, 및 제스처 입력 항목(1035)을 포함한다. 여기에서, 사용자에 의해 제스처 입력 항목(1035)이 선택되면, 도 10c에 도시된 바와 같이, 모바일폰(100)은 제스처 입력창(1040)을 화면에 디스플레이한다.
도 10c는 'Album 1'에 대한 제스처를 입력받기 위한 제스처 입력창(1040)이 화면에 표시된 모바일폰(100)을 도시한 도면이다. 모바일폰(100)은 제스처 입력창(1040)에 입력된 터치조작을 제스처로 인식하게 된다.
도 10d는 사용자에 의해 제스처 입력창(1040)에 'Album 1'에 대한 제스처인 제스처 1(1050)이 입력되는 것을 도시한 도면이다. 도 10d에 도시된 바와 같이, 사용자에 의해 제스처 입력창(1040)에 제스처 1(1050)이 입력되면, 모바일폰(100)은 입력된 제스처 1(1050)의 터치 경로가 이루는 형상을 인식 및 저장하게 된다.
도 10e는 화면에 저장이 완료되었음을 알리는 메시지(1070)가 화면에 표시된 모바일폰(100)을 도시한 도면이다. 사용자에 의해 제스처 1(1050)이 입력된 후에 확인 아이콘(1060)이 선택되면, 모바일폰(100)은 입력된 제스처 1(1050)의 형상을 저장하고, 제스처 1(1050)을 'Album 1'에 대응시킴으로써 컨텐츠의 메타 데이터의 앨범 정보에 제스처 1(1050)을 태깅하게 된다. 이 때, 모바일폰(100)은 저장된 컨텐츠들 중 메타 데이터의 앨범 정보가 'Album 1'인 모든 컨텐츠의 메타 데이터의 앨범 정보에 제스처 1(1050)을 태깅하게 된다.
도 10f는 메타데이터의 앨범 정보에 제스처가 태깅된 컨텐츠 파일의 구조를 도시한 도면이다. 도 10f에 도시된 바와 같이, 컨텐츠 파일에는 메타 데이터와 컨텐츠 데이터가 포함되어 있다. 그리고, 메타 데이터는 앨범 정보, 아티스트 정보, 장르 정보, 및 파일명 정보가 포함되어 있다. 그리고, 앨범 정보로 'Album 1'이 태깅되어 있으며, 'Album 1'에 제스처 1이 함께 태깅되어 있는 것을 확인할 수 있다. 이와 같이, 모바일폰(100)은 제스처를 메타 데이터에 포함된 정보들 중 하나에 대응시킴으로써, 제스처를 컨텐츠의 메타 데이터에 태깅하게 된다.
이와 같은 과정을 통해, 모바일폰(100)은 메타데이터에 제스처를 태깅할 수 있게 된다.
이하에서는, 도 11a 내지 도 11c를 참고하여, 제스처를 이용하여 컨텐츠를 실행시키는 방법에 대해 설명한다. 도 11a 내지 도 11c는 본 발명의 일 실시예에 따른, 제스처를 이용하여 컨텐츠를 실행시키는 과정을 도시한 도면이다.
도 11a는 바탕화면(100)이 표시된 상태의 모바일폰(100)을 도시한 도면이다. 이 상태에서, 도 11b에 도시된 바와 같이, 사용자에 의해 제스처(1120)가 입력되면, 모바일폰(100)은 입력된 제스처(1120)의 형상을 인식하게 된다.
도 11b에서 입력된 제스처(1120)는 도 10d의 제스처 1(1050)과 동일한 형상인 것을 확인할 수 있다. 따라서, 모바일폰(100)은 'Album 1'에 해당되는 컨텐츠들을 실행하게 된다.
도 11c는 모바일폰(100)이 'Album 1'의 첫 컨텐츠를 재생하는 화면을 도시한 도면이다. 이와 같이, 제스처(1120)가 입력되면, 모바일폰(100)은 도 11c에 도시된 바와 같이, 'Album 1'에 해당되는 컨텐츠들을 재생 리스트로 선택하게 되고, 'Album 1'의 첫곡을 자동으로 재생하게 된다.
이와 같이, 모바일폰(100)은, 제스처가 입력되면, 컨텐츠의 메타 데이터에 태깅된 제스처를 검색하여, 동일한 형상의 제스처가 메타데이터에 태깅된 컨텐츠들을 재생리스트로 선택하고 자동으로 실행하게 된다.
따라서, 사용자는 제스처를 입력하는 것만으로 원하는 컨텐츠를 쉽게 실행할 수 있게 된다.
이하에서는, 도 12a 내지 도 12e를 참고하여, 제스처를 변경하는 과정에 대해 설명한다. 도 12a 내지 도 12e는 본 발명의 일 실시예에 따른, 모바일폰(100)을 이용하여 음악 컨텐츠의 메타 데이터에 태깅된 제스처를 변경하는 과정을 도시한 도면이다.
도 12a는 화면에 앨범 리스트가 표시된 상태의 모바일폰(100)을 도시한 도면이다. 도 12a에 도시된 바와 같이, 모바일폰(100)은 앨범 리스트에서 'Album 1'에 하이라이트(1210)가 위치된 상태이다. 이 상태에서, 사용자에 의해 메뉴 항목(1220)에 터치조작이 입력되면, 모바일폰(100)은 도 12b에 도시된 바와 같이 'Album 1'에 관련된 기능들에 대한 메뉴(1230)를 화면에 표시하게 된다.
도 12b는 'Album 1'에 관련된 기능들에 대한 메뉴(1230)가 화면에 표시된 모바일폰(100)을 도시한 도면이다. 도 12b에 도시된 바와 같이, 메뉴(1230)는 검색 항목, 선택재생 항목, 삭제 항목, 선택삭제 항목, 앨범담기 항목, 및 제스처 편집 항목(1235)을 포함한다. 여기에서, 사용자에 의해 제스처 편집 항목(1235)이 선택되면, 도 12c에 도시된 바와 같이, 모바일폰(100)은 제스처 입력창(1240)을 화면에 디스플레이한다.
도 12c는 'Album 1'에 대한 제스처를 입력받기 위한 제스처 입력창(1240)이 화면에 표시된 모바일폰(100)을 도시한 도면이다. 모바일폰(100)은 제스처 입력창(1240)에 입력된 터치조작을 제스처로 인식하게 된다.
도 12d는 사용자에 의해 제스처 입력창(1240)에 'Album 1'에 대한 제스처인 제스처 2(1245)가 입력되는 것을 도시한 도면이다. 도 12d에 도시된 바와 같이, 사용자에 의해 제스처 입력창(1240)에 제스처 2(1245)가 입력되면, 모바일폰(100)은 'Album 1'에 태깅된 제스처를 제스처 1(1050)에서 제스처 2(1245)로 변경하게 된다.
도 12e는 메타데이터의 앨범 정보에 태깅된 제스처가 제스처 2(1245)로 변경된 것을 도면이다. 도 12e에 도시된 바와 같이, 'Album 1'에 제스처 2가 함께 태깅되어 있는 것을 확인할 수 있다. 이와 같이, 모바일폰(100)은 메타 데이터에 태깅된 제스처를 변경할 수도 있다.
상술한 바와 같이, 모바일폰(100)은 메타 데이터에 제스처를 태깅하고, 메타 데이터에 태깅된 제스처를 이용하여 컨텐츠를 검색 및 재생할 수 있게 된다.
한편, 본 실시예에서는 컨텐츠가 음악 컨텐츠인 것으로 설명하였으나, 이외에 다양한 컨텐츠에도 적용될 수 있음은 물론이다. 예를 들어, 컨텐츠는 음악 컨텐츠, 이미지 컨텐츠, 동영상 컨텐츠, 및 문서 컨텐츠 등이 될 수도 있다.
또한, 본 실시예에서는 제스처가 메타데이터 내의 정보들 중 하나에 대응되는 것으로 설명하였으나, 제스처가 메타 데이터를 구성하는 하나의 정보가 될 수도 있음은 물론이다. 예를들어, 메타 데이터가 앨범 정보, 아티스트 정보, 장르 정보, 파일명 정보, 및 제스처 정보를 포함하도록 구현될 수도 있음은 물론이다.
한편, 이상에서는, 본 발명의 바람직한 실시예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어져서는 안될 것이다.
110 : 촬영부 120 : 영상 처리부
130 : 디스플레이 140 : 조작부
150 : 제어부 160 : 통신부
170 : GPS 신호 수신부 180 : 저장부
130 : 디스플레이 140 : 조작부
150 : 제어부 160 : 통신부
170 : GPS 신호 수신부 180 : 저장부
Claims (19)
- 삭제
- 삭제
- 삭제
- 삭제
- 삭제
- 삭제
- 삭제
- 삭제
- 삭제
- 삭제
- 삭제
- 제스처를 컨텐츠에 태깅하는 디바이스에 있어서,
상기 디바이스로부터 생성된 컨텐츠를 저장하는 저장부;
사용자의 제스처를 입력받는 조작부; 및
상기 조작부로부터 특정 컨텐츠의 검색을 위한 사용자의 제스처가 입력되면, 상기 입력된 사용자의 제스처를 상기 특정 컨텐츠의 메타 데이터에 태깅하는 제어부;를 포함하고,
상기 제어부는,
상기 조작부로부터 상기 특정 컨텐츠의 검색을 위한 사용자의 다른 제스처가 입력되면, 상기 태깅된 제스처를 상기 다른 제스처로 변경하는 제스처 태깅 디바이스. - 제12항에 있어서,
상기 조작부는,
사용자의 터치 조작을 입력받고,
상기 제스처는,
사용자에 의해 입력된 특정 형상의 터치 조작인 것을 특징으로 하는 제스처 태깅 디바이스. - 제12항에 있어서,
상기 제어부는,
상기 제스처가 상기 특정 컨텐츠의 메타데이터에 태깅된 상태에서 상기 조작부를 통해 상기 제스처가 입력되면, 상기 특정 컨텐츠를 실행하는 것을 특징으로 하는 제스처 태깅 디바이스. - 제12항에 있어서,
상기 제어부는,
상기 제스처를 상기 메타 데이터에 포함된 정보들 중 어느 하나에 대응시킴으로써, 상기 제스처를 상기 특정 컨텐츠의 메타 데이터에 태깅하는 것을 특징으로 하는 제스처 태깅 디바이스. - 디바이스로부터 생성된 컨텐츠를 저장하는 단계;
사용자의 제스처를 입력받는 단계;
특정 컨텐츠의 검색을 위한 사용자의 제스처가 입력되면, 상기 입력된 사용자의 제스처를 특정 컨텐츠의 메타 데이터에 태깅하는 단계; 및
상기 특정 컨텐츠의 검색을 위한 사용자의 다른 제스처가 입력되면, 상기 태깅된 제스처를 상기 다른 제스처로 변경하는 단계;를 포함하는 제스처 태깅방법. - 제16항에 있어서,
상기 입력단계는,
상기 제스처로써 사용자의 터치 조작을 입력받고,
상기 제스처는,
사용자에 의해 입력된 특정 형상의 터치 조작인 것을 특징으로 하는 제스처 태깅방법. - 제16항에 있어서,
상기 제스처가 상기 특정 컨텐츠의 메타데이터에 태깅된 상태에서 조작부를 통해 상기 제스처가 입력되면, 상기 특정 컨텐츠를 실행하는 단계;를 더 포함하는 것을 특징으로 하는 제스처 태깅방법. - 제16항에 있어서,
상기 태깅단계는,
상기 제스처를 상기 메타 데이터에 포함된 정보들 중 어느 하나에 대응시킴으로써, 상기 제스처를 상기 특정 컨텐츠의 메타 데이터에 태깅하는 것을 특징으로 하는 제스처 태깅방법.
Priority Applications (9)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/KR2010/005564 WO2011021907A2 (en) | 2009-08-21 | 2010-08-20 | Metadata tagging system, image searching method and device, and method for tagging a gesture thereof |
EP10810215.3A EP2467825A4 (en) | 2009-08-21 | 2010-08-20 | METADATA ADDING SYSTEM, IMAGE SEARCHING METHOD AND DEVICE, AND METHOD OF ADDING GESTURE THEREFOR |
BR112012002919-3A BR112012002919A2 (pt) | 2009-08-21 | 2010-08-20 | sistema de identificação vinculada de metadados, método de busca de imagem,e, dispositivo |
AU2010284736A AU2010284736B2 (en) | 2009-08-21 | 2010-08-20 | Metadata tagging system, image searching method and device, and method for tagging a gesture thereof |
CN201410293697.6A CN104063175B (zh) | 2009-08-21 | 2010-08-20 | 元数据标记系统和用户终端装置 |
JP2012525501A JP5791605B2 (ja) | 2009-08-21 | 2010-08-20 | メタデータのタグ付けシステム、イメージ検索方法、デバイス及びそれに適用されるジェスチャーのタグ付け方法 |
RU2012110605/08A RU2012110605A (ru) | 2009-08-21 | 2010-08-20 | Система добавления метаданных, способ и устройство поиска изображения и способ добавления жеста для этого |
CN201080036716.7A CN102473304B (zh) | 2009-08-21 | 2010-08-20 | 元数据标记系统、图像搜索方法和设备、及其用于标记手势的方法 |
US12/860,509 US10157191B2 (en) | 2009-08-21 | 2010-08-20 | Metadata tagging system, image searching method and device, and method for tagging a gesture thereof |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR20090077507 | 2009-08-21 | ||
KR1020090077507 | 2009-08-21 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20110020158A KR20110020158A (ko) | 2011-03-02 |
KR101660271B1 true KR101660271B1 (ko) | 2016-10-11 |
Family
ID=43929543
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020100011496A KR101660271B1 (ko) | 2009-08-21 | 2010-02-08 | 메타데이터 태깅 시스템, 이미지 검색 방법, 디바이스 및 이에 적용되는 제스처 태깅방법 |
Country Status (9)
Country | Link |
---|---|
US (1) | US10157191B2 (ko) |
EP (1) | EP2467825A4 (ko) |
JP (1) | JP5791605B2 (ko) |
KR (1) | KR101660271B1 (ko) |
CN (2) | CN102473304B (ko) |
AU (1) | AU2010284736B2 (ko) |
BR (1) | BR112012002919A2 (ko) |
RU (1) | RU2012110605A (ko) |
WO (1) | WO2011021907A2 (ko) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20210104997A (ko) | 2020-02-18 | 2021-08-26 | 주식회사 와이즈패션 | 표준화된 주문 데이터에 대응한 특징 정보 태깅을 지원하는 장치 |
KR20210104999A (ko) | 2020-02-18 | 2021-08-26 | 주식회사 와이즈패션 | 표준화된 주문 데이터에 대응한 특징 정보 태깅을 지원하는 방법 |
KR20210105000A (ko) | 2020-02-18 | 2021-08-26 | 주식회사 와이즈패션 | 표준화된 주문 데이터에 대응한 특징 정보 태깅을 지원하는 방법을 컴퓨터에서 실행시키기 위한 프로그램 |
KR20210105001A (ko) | 2020-02-18 | 2021-08-26 | 주식회사 와이즈패션 | 주문 데이터에 특징 정보 태깅을 지원하는 프로그램이 기록된 기록매체 |
KR20210104996A (ko) | 2020-02-18 | 2021-08-26 | 주식회사 와이즈패션 | 표준화된 주문 데이터에 대응한 특징 정보 태깅을 지원하는 장치 및 그 동작 방법 |
KR20210104998A (ko) | 2020-02-18 | 2021-08-26 | 주식회사 와이즈패션 | 표준화된 주문 데이터에 대응한 특징 정보 태깅을 지원하는 장치 |
Families Citing this family (35)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7822746B2 (en) * | 2005-11-18 | 2010-10-26 | Qurio Holdings, Inc. | System and method for tagging images based on positional information |
JP5043748B2 (ja) * | 2008-05-19 | 2012-10-10 | キヤノン株式会社 | コンテンツ管理装置、コンテンツ管理装置の制御方法、プログラム及び記録媒体 |
US10509466B1 (en) * | 2011-05-11 | 2019-12-17 | Snap Inc. | Headwear with computer and optical element for use therewith and systems utilizing same |
US8935259B2 (en) * | 2011-06-20 | 2015-01-13 | Google Inc | Text suggestions for images |
US10089327B2 (en) | 2011-08-18 | 2018-10-02 | Qualcomm Incorporated | Smart camera for sharing pictures automatically |
WO2013052867A2 (en) * | 2011-10-07 | 2013-04-11 | Rogers Henk B | Media tagging |
US9779114B2 (en) | 2011-10-07 | 2017-10-03 | Henk B. Rogers | Media geotagging |
US9646313B2 (en) * | 2011-12-13 | 2017-05-09 | Microsoft Technology Licensing, Llc | Gesture-based tagging to view related content |
KR101629588B1 (ko) * | 2011-12-13 | 2016-06-13 | 인텔 코포레이션 | 메타데이터 기반 인프라구조를 통한 다수의 미디어 타입들의 실시간 매핑 및 내비게이션 |
WO2013114931A1 (ja) * | 2012-01-30 | 2013-08-08 | 九州日本電気ソフトウェア株式会社 | 画像管理システム、携帯型情報端末、画像管理装置、画像管理方法、及びコンピュータ読み取り可能な記録媒体 |
GB2518577B (en) | 2012-08-24 | 2019-12-04 | Motorola Solutions Inc | Method and apparatus for authenticating digital information |
US9235342B2 (en) * | 2012-11-28 | 2016-01-12 | International Business Machines Corporation | Selective sharing of displayed content in a view presented on a touchscreen of a processing system |
KR102090269B1 (ko) * | 2012-12-14 | 2020-03-17 | 삼성전자주식회사 | 정보 검색 방법, 그와 같은 기능을 갖는 디바이스 및 기록 매체 |
US20140282012A1 (en) * | 2013-03-15 | 2014-09-18 | Write Brothers, Inc. | Method and system for making storyforming choices based on associated objects |
US20140298274A1 (en) * | 2013-03-22 | 2014-10-02 | Ntt Docomo, Inc. | Method and electronic device for processing data |
US9652460B1 (en) | 2013-05-10 | 2017-05-16 | FotoIN Mobile Corporation | Mobile media information capture and management methods and systems |
WO2014207188A1 (en) | 2013-06-28 | 2014-12-31 | Koninklijke Philips N.V. | Nearest available roadmap selection |
KR102165818B1 (ko) * | 2013-09-10 | 2020-10-14 | 삼성전자주식회사 | 입력 영상을 이용한 사용자 인터페이스 제어 방법, 장치 및 기록매체 |
WO2015039068A1 (en) * | 2013-09-16 | 2015-03-19 | Google Inc. | Providing labels for photos |
KR20150032101A (ko) * | 2013-09-17 | 2015-03-25 | 삼성전자주식회사 | 영상표시장치 및 영상표시방법 |
CN104636059B (zh) | 2013-11-13 | 2018-04-13 | 展讯通信(上海)有限公司 | 记事项目的搜索方法及其系统 |
US10049477B1 (en) | 2014-06-27 | 2018-08-14 | Google Llc | Computer-assisted text and visual styling for images |
US9881027B2 (en) | 2014-12-31 | 2018-01-30 | Ebay Inc. | Image appended search string |
US9563643B2 (en) * | 2015-06-25 | 2017-02-07 | Intel Corporation | Automatic metatagging in images |
KR101634106B1 (ko) * | 2015-09-25 | 2016-06-29 | 주식회사 지노시스템 | 위치 매칭 및 공간 검색을 통한 지리 정보 조회 방법 |
US10564924B1 (en) * | 2015-09-30 | 2020-02-18 | Amazon Technologies, Inc. | Navigating metadata in long form content |
GB2558850B (en) * | 2015-12-02 | 2021-10-06 | Motorola Solutions Inc | Method for associating a group of applications with a specific shape |
US10613707B2 (en) | 2015-12-10 | 2020-04-07 | International Business Machines Corporation | Auditing icons via image recognition to provide individualized assets to software project teams |
DE102016202095A1 (de) | 2016-02-11 | 2017-08-17 | Bayerische Motoren Werke Aktiengesellschaft | Vorrichtung zur Auswahl von Elementen aus einer Datenbank |
US10146758B1 (en) * | 2016-09-30 | 2018-12-04 | Amazon Technologies, Inc. | Distributed moderation and dynamic display of content annotations |
KR102660124B1 (ko) | 2018-03-08 | 2024-04-23 | 한국전자통신연구원 | 동영상 감정 학습용 데이터 생성 방법, 동영상 감정 판단 방법, 이를 이용하는 동영상 감정 판단 장치 |
CN111506752A (zh) * | 2019-01-30 | 2020-08-07 | 阿里巴巴集团控股有限公司 | 搜索方法、装置、电子设备及计算机存储介质 |
JP7229795B2 (ja) * | 2019-02-01 | 2023-02-28 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ | アノテーション装置、アノテーション方法、及び、プログラム |
KR102216065B1 (ko) * | 2020-05-04 | 2021-02-18 | 호서대학교 산학협력단 | 동영상 세그먼트에 대해 검색결과를 제공하는 방법 |
JP7483784B2 (ja) * | 2022-04-22 | 2024-05-15 | ソフトバンク株式会社 | 情報処理装置、情報処理方法、及びプログラム |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000090113A (ja) * | 1998-09-16 | 2000-03-31 | Real World Computing Partnership | マルチメディア・クラスタリング装置、マルチメディア・クラスタリング方法および記録媒体 |
JP2008257471A (ja) * | 2007-04-04 | 2008-10-23 | Canon Inc | 被写体メタデータ管理システム |
JP2009017017A (ja) * | 2007-07-02 | 2009-01-22 | Funai Electric Co Ltd | マルチメディア再生機器 |
JP2009093433A (ja) * | 2007-10-09 | 2009-04-30 | Olympus Imaging Corp | 画像処理装置及び検索装置 |
Family Cites Families (27)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5592608A (en) * | 1993-10-15 | 1997-01-07 | Xerox Corporation | Interactively producing indices into image and gesture-based data using unrecognized graphical objects |
US5832474A (en) | 1996-02-26 | 1998-11-03 | Matsushita Electric Industrial Co., Ltd. | Document search and retrieval system with partial match searching of user-drawn annotations |
JP2000137555A (ja) | 1998-11-02 | 2000-05-16 | Sony Corp | 情報処理装置及び方法並びに記録媒体 |
CN1443326A (zh) * | 2000-05-05 | 2003-09-17 | 株式会社巨晶片 | 获取和存储延迟浏览信息的系统和方法 |
JP4031255B2 (ja) | 2002-02-13 | 2008-01-09 | 株式会社リコー | ジェスチャコマンド入力装置 |
US7200803B2 (en) * | 2002-06-27 | 2007-04-03 | Microsoft Corporation | System and method for visually categorizing electronic notes |
JP4192729B2 (ja) * | 2002-09-16 | 2008-12-10 | 富士ゼロックス株式会社 | 自由形式注釈を強調するための方法、注釈強調表示装置、及び自由形式注釈を強調するためのプログラム |
US7840892B2 (en) * | 2003-08-29 | 2010-11-23 | Nokia Corporation | Organization and maintenance of images using metadata |
JP2005354134A (ja) | 2004-06-08 | 2005-12-22 | Sony Corp | 画像管理方法および装置、記録媒体、並びにプログラム |
JP4684745B2 (ja) | 2005-05-27 | 2011-05-18 | 三菱電機株式会社 | ユーザインタフェース装置及びユーザインタフェース方法 |
US7702681B2 (en) | 2005-06-29 | 2010-04-20 | Microsoft Corporation | Query-by-image search and retrieval system |
WO2007098295A2 (en) | 2006-02-27 | 2007-08-30 | Vobile, Inc. | Systems and methods for publishing, searching, retrieving and binding metadata for a digital object |
JP4175390B2 (ja) * | 2006-06-09 | 2008-11-05 | ソニー株式会社 | 情報処理装置、および情報処理方法、並びにコンピュータ・プログラム |
US8713079B2 (en) * | 2006-06-16 | 2014-04-29 | Nokia Corporation | Method, apparatus and computer program product for providing metadata entry |
JP2008165424A (ja) * | 2006-12-27 | 2008-07-17 | Sony Corp | 画像検索装置および方法、撮像装置、並びにプログラム |
US8473525B2 (en) | 2006-12-29 | 2013-06-25 | Apple Inc. | Metadata generation for image files |
US8244284B2 (en) * | 2007-06-28 | 2012-08-14 | Giga-Byte Communications, Inc. | Mobile communication device and the operating method thereof |
KR101513616B1 (ko) | 2007-07-31 | 2015-04-20 | 엘지전자 주식회사 | 이동 단말기 및 그 영상정보 관리방법 |
KR101476174B1 (ko) | 2007-09-04 | 2014-12-24 | 엘지전자 주식회사 | 휴대 단말기 및 휴대 단말기의 기능 실행 방법 |
US20090119572A1 (en) * | 2007-11-02 | 2009-05-07 | Marja-Riitta Koivunen | Systems and methods for finding information resources |
KR101087134B1 (ko) * | 2007-12-10 | 2011-11-25 | 한국전자통신연구원 | 체감 정보를 이용한 디지털 데이터 태깅 장치, 태깅 및검색서비스 제공 시스템 및 방법 |
US8212784B2 (en) | 2007-12-13 | 2012-07-03 | Microsoft Corporation | Selection and display of media associated with a geographic area based on gesture input |
TW200937254A (en) * | 2008-02-29 | 2009-09-01 | Inventec Appliances Corp | A method for inputting control commands and a handheld device thereof |
US9501694B2 (en) * | 2008-11-24 | 2016-11-22 | Qualcomm Incorporated | Pictorial methods for application selection and activation |
EP2380093B1 (en) * | 2009-01-21 | 2016-07-20 | Telefonaktiebolaget LM Ericsson (publ) | Generation of annotation tags based on multimodal metadata and structured semantic descriptors |
SG177285A1 (en) * | 2009-06-19 | 2012-02-28 | Alcatel Lucent | Gesture on touch sensitive input devices for closing a window or an application |
KR101611302B1 (ko) * | 2009-08-10 | 2016-04-11 | 엘지전자 주식회사 | 제스쳐 입력이 가능한 휴대 단말기 및 그 제어방법 |
-
2010
- 2010-02-08 KR KR1020100011496A patent/KR101660271B1/ko active IP Right Grant
- 2010-08-20 US US12/860,509 patent/US10157191B2/en not_active Expired - Fee Related
- 2010-08-20 RU RU2012110605/08A patent/RU2012110605A/ru not_active Application Discontinuation
- 2010-08-20 AU AU2010284736A patent/AU2010284736B2/en not_active Ceased
- 2010-08-20 BR BR112012002919-3A patent/BR112012002919A2/pt not_active Application Discontinuation
- 2010-08-20 EP EP10810215.3A patent/EP2467825A4/en not_active Ceased
- 2010-08-20 JP JP2012525501A patent/JP5791605B2/ja not_active Expired - Fee Related
- 2010-08-20 WO PCT/KR2010/005564 patent/WO2011021907A2/en active Application Filing
- 2010-08-20 CN CN201080036716.7A patent/CN102473304B/zh not_active Expired - Fee Related
- 2010-08-20 CN CN201410293697.6A patent/CN104063175B/zh not_active Expired - Fee Related
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000090113A (ja) * | 1998-09-16 | 2000-03-31 | Real World Computing Partnership | マルチメディア・クラスタリング装置、マルチメディア・クラスタリング方法および記録媒体 |
JP2008257471A (ja) * | 2007-04-04 | 2008-10-23 | Canon Inc | 被写体メタデータ管理システム |
JP2009017017A (ja) * | 2007-07-02 | 2009-01-22 | Funai Electric Co Ltd | マルチメディア再生機器 |
JP2009093433A (ja) * | 2007-10-09 | 2009-04-30 | Olympus Imaging Corp | 画像処理装置及び検索装置 |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20210104997A (ko) | 2020-02-18 | 2021-08-26 | 주식회사 와이즈패션 | 표준화된 주문 데이터에 대응한 특징 정보 태깅을 지원하는 장치 |
KR20210104999A (ko) | 2020-02-18 | 2021-08-26 | 주식회사 와이즈패션 | 표준화된 주문 데이터에 대응한 특징 정보 태깅을 지원하는 방법 |
KR20210105000A (ko) | 2020-02-18 | 2021-08-26 | 주식회사 와이즈패션 | 표준화된 주문 데이터에 대응한 특징 정보 태깅을 지원하는 방법을 컴퓨터에서 실행시키기 위한 프로그램 |
KR20210105001A (ko) | 2020-02-18 | 2021-08-26 | 주식회사 와이즈패션 | 주문 데이터에 특징 정보 태깅을 지원하는 프로그램이 기록된 기록매체 |
KR20210104996A (ko) | 2020-02-18 | 2021-08-26 | 주식회사 와이즈패션 | 표준화된 주문 데이터에 대응한 특징 정보 태깅을 지원하는 장치 및 그 동작 방법 |
KR20210104998A (ko) | 2020-02-18 | 2021-08-26 | 주식회사 와이즈패션 | 표준화된 주문 데이터에 대응한 특징 정보 태깅을 지원하는 장치 |
Also Published As
Publication number | Publication date |
---|---|
WO2011021907A2 (en) | 2011-02-24 |
EP2467825A2 (en) | 2012-06-27 |
JP5791605B2 (ja) | 2015-10-07 |
WO2011021907A3 (en) | 2011-06-23 |
CN104063175B (zh) | 2019-05-03 |
RU2012110605A (ru) | 2013-09-27 |
US20110047517A1 (en) | 2011-02-24 |
AU2010284736B2 (en) | 2016-01-28 |
CN104063175A (zh) | 2014-09-24 |
EP2467825A4 (en) | 2016-09-21 |
KR20110020158A (ko) | 2011-03-02 |
JP2013502637A (ja) | 2013-01-24 |
AU2010284736A1 (en) | 2012-01-19 |
CN102473304A (zh) | 2012-05-23 |
US10157191B2 (en) | 2018-12-18 |
CN102473304B (zh) | 2015-11-25 |
BR112012002919A2 (pt) | 2020-08-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101660271B1 (ko) | 메타데이터 태깅 시스템, 이미지 검색 방법, 디바이스 및 이에 적용되는 제스처 태깅방법 | |
US10739958B2 (en) | Method and device for executing application using icon associated with application metadata | |
KR101664754B1 (ko) | 정보 취득 방법, 장치, 프로그램 및 기록매체 | |
US7739597B2 (en) | Interactive media frame display | |
US8621045B2 (en) | Portable communication interface for accessing media content | |
US9524332B2 (en) | Method and apparatus for integratedly managing contents in portable terminal | |
WO2021147785A1 (zh) | 思维导图显示方法及电子设备 | |
US20120210201A1 (en) | Operation method for memo function and portable terminal supporting the same | |
KR20140139859A (ko) | 멀티미디어 콘텐츠 검색을 위한 사용자 인터페이스 방법 및 장치 | |
JP2013143141A (ja) | ディスプレイ装置、遠隔制御装置およびその検索方法 | |
CN109165320B (zh) | 一种信息收藏方法及移动终端 | |
US20110213773A1 (en) | Information processing apparatus, keyword registration method, and program | |
CN106202223A (zh) | 内容收藏方法、装置和用于收藏应用程序中内容的装置 | |
US8782052B2 (en) | Tagging method and apparatus of portable terminal | |
CN112020709A (zh) | 可视菜单 | |
KR102360262B1 (ko) | 통합 인포메이션의 생성, 푸시 방법, 장치, 단말, 서버 및 매체 | |
TWI798912B (zh) | 搜索方法、電子裝置及非暫時性電腦可讀記錄媒體 | |
KR20150019668A (ko) | 검색 연관 정보 제공 방법 및 이를 지원하는 전자 장치 | |
KR101365174B1 (ko) | 검색정보 생성방법 및 이를 적용한 영상기기 | |
CN103838809A (zh) | 信息处理设备、信息处理方法以及程序 | |
KR20060051956A (ko) | 콘텐츠 매니지먼트 시스템 및 콘텐츠 매니지먼트 방법, 및컴퓨터 프로그램 | |
KR20100116724A (ko) | 멀티미디어 데이터 검색을 위한 사용자 인터페이스 시스템 및 그 방법 | |
CA2826929A1 (en) | Operation method for memo function and portable terminal supporting the same | |
CN115278378A (zh) | 信息显示方法、信息显示装置、电子设备和存储介质 | |
JP2015176422A (ja) | 情報処理装置、システム、方法及びプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |