KR20230099841A - 전자장치 및 그 제어방법 - Google Patents
전자장치 및 그 제어방법 Download PDFInfo
- Publication number
- KR20230099841A KR20230099841A KR1020210189218A KR20210189218A KR20230099841A KR 20230099841 A KR20230099841 A KR 20230099841A KR 1020210189218 A KR1020210189218 A KR 1020210189218A KR 20210189218 A KR20210189218 A KR 20210189218A KR 20230099841 A KR20230099841 A KR 20230099841A
- Authority
- KR
- South Korea
- Prior art keywords
- content
- information
- image
- feature data
- electronic device
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 45
- 238000004891 communication Methods 0.000 description 37
- 238000012545 processing Methods 0.000 description 16
- 230000008569 process Effects 0.000 description 14
- 230000005236 sound signal Effects 0.000 description 13
- 230000015654 memory Effects 0.000 description 12
- 238000010586 diagram Methods 0.000 description 8
- 230000006870 function Effects 0.000 description 7
- 230000004044 response Effects 0.000 description 7
- 230000005540 biological transmission Effects 0.000 description 6
- 238000004590 computer program Methods 0.000 description 5
- 230000009471 action Effects 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 3
- 238000000605 extraction Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- APTZNLHMIGJTEW-UHFFFAOYSA-N pyraflufen-ethyl Chemical compound C1=C(Cl)C(OCC(=O)OCC)=CC(C=2C(=C(OC(F)F)N(C)N=2)Cl)=C1F APTZNLHMIGJTEW-UHFFFAOYSA-N 0.000 description 3
- 230000008859 change Effects 0.000 description 2
- 239000002131 composite material Substances 0.000 description 2
- 230000014509 gene expression Effects 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 238000012015 optical character recognition Methods 0.000 description 2
- OKTJSMMVPCPJKN-UHFFFAOYSA-N Carbon Chemical compound [C] OKTJSMMVPCPJKN-UHFFFAOYSA-N 0.000 description 1
- 239000002041 carbon nanotube Substances 0.000 description 1
- 229910021393 carbon nanotube Inorganic materials 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 239000002772 conduction electron Substances 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000009977 dual effect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000002068 genetic effect Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 239000002159 nanocrystal Substances 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/472—End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
- H04N21/4722—End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for requesting additional data associated with the content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/46—Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/25—Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
- H04N21/262—Content or additional data distribution scheduling, e.g. sending additional data at off-peak times, updating software modules, calculating the carousel transmission frequency, delaying a video stream transmission, generating play-lists
- H04N21/26291—Content or additional data distribution scheduling, e.g. sending additional data at off-peak times, updating software modules, calculating the carousel transmission frequency, delaying a video stream transmission, generating play-lists for providing content or additional data updates, e.g. updating software modules, stored at the client
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/25—Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
- H04N21/266—Channel or content management, e.g. generation and management of keys and entitlement messages in a conditional access system, merging a VOD unicast channel into a multicast channel
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/81—Monomedia components thereof
- H04N21/8166—Monomedia components thereof involving executable data, e.g. software
- H04N21/8173—End-user applications, e.g. Web browser, game
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/09—Recognition of logos
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Databases & Information Systems (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
Abstract
본 발명은 전자장치 및 그 제어방법에 관한 것으로서, 전자장치는, 디스플레이; 적어도 하나의 인터페이스부; 저장부; 및 디스플레이에 표시되는 컨텐트의 제1영상을 캡쳐하여 캡쳐된 제1영상의 제1특징 데이터를 획득하고, 획득된 제1특징 데이터를 인터페이스부를 통해 서버에 전송하여, 서버로부터 컨텐트에 대응하는 컨텐트 정보를 수신하고, 수신된 컨텐트 정보에 기초한 동작을 수행하며, 캡쳐된 제1영상으로부터 컨텐트를 식별할 수 있는 정보를 포함하는 제2특징 데이터를 획득하고, 수신된 컨텐트 정보를 획득된 제2특징 데이터와 연관되도록 저장부에 저장하고, 디스플레이를 통해 표시되는 컨텐트의 제2영상을 캡쳐하여 캡쳐된 제2영상이 저장된 제2특징 데이터에 대응하는 것으로 식별됨에 기초하여, 저장된 컨텐트 정보에 기초한 동작을 수행하는 적어도 하나의 프로세서를 포함한다.
Description
본 발명은 전자장치 및 그 제어방법에 관한 것으로서, 보다 상세하게는 표시되는 영상의 컨텐트를 인식하고 그 컨텐트 정보에 기초한 서비스 동작을 수행하는 전자장치 및 그 제어방법에 관한 것이다.
기술의 발전에 따라 사용자의 니즈가 점차 다양해지면서, 전자장치에 컨텐트를 공급하는 출처가 지상파와 같은 단일 소스에서, 케이블, IPTV(Internet Protocol TV), VOD(Video On Demand) 등으로 점차 다양화되는 추세이다. 또한, 컨텐트에 대한 서비스로서 맞춤형 광고나 추천 컨텐트 등의 정보를 제공하는 소스들도 생겨나고 있다.
이와 같은 맞춤형 광고나 추천 컨텐트 등의 서비스는 전자장치가 표시 중인 장면에 맞게 적절하게 제공될 필요가 있다. 이를 위해, 현재 사용자가 시청 중인 컨텐트를 식별하도록 하는 ACR(Automatic Contents Recognition) 기술이 사용되고 있다.
ACR은 현재 재생 중인 컨텐트에 대한 인식 요청을 서버로 전송하면, 그에 대한 응답을 서버로부터 수신하는 방식으로 컨텐트를 식별한다. 따라서, 컨텐트 인식 동작이 서버에 의해 수행되므로, 네트워크 사용에 따른 부하가 발생되며 그에 따른 비용 및 시간이 지속적으로 요구된다.
본 발명은, 컨텐트 인식 동작이 전자장치에서 자체적으로 이루어짐으로써, 네트워크 사용의 부하를 줄이고, 그로 인한 비용 및 시간을 절감할 수 있는 전자장치 및 그 제어방법을 제공한다.
본 발명 일 실시예에 따른 전자장치는, 디스플레이; 적어도 하나의 인터페이스부; 저장부; 및 디스플레이에 표시되는 컨텐트의 제1영상을 캡쳐하여 캡쳐된 제1영상의 제1특징 데이터를 획득하고, 획득된 제1특징 데이터를 인터페이스부를 통해 서버에 전송하여, 서버로부터 컨텐트에 대응하는 컨텐트 정보를 수신하고, 수신된 컨텐트 정보에 기초한 동작을 수행하며, 캡쳐된 제1영상으로부터 컨텐트를 식별할 수 있는 정보를 포함하는 제2특징 데이터를 획득하고, 수신된 컨텐트 정보를 획득된 제2특징 데이터와 연관되도록 저장부에 저장하고, 디스플레이를 통해 표시되는 컨텐트의 제2영상을 캡쳐하여 캡쳐된 제2영상이 저장된 제2특징 데이터에 대응하는 것으로 식별됨에 기초하여, 저장된 컨텐트 정보에 기초한 동작을 수행하는 적어도 하나의 프로세서를 포함한다.
제2특징 데이터는 소정 구간 동안 컨텐트의 영상에 포함되는 오브젝트에 관한 데이터를 포함할 수 있다. 오브젝트는 문자열, 로고 또는 그래픽 중 적어도 하나를 포함할 수 있다.
컨텐트는 제1컨텐트이고, 프로세서는, 디스플레이에 표시되는 제2컨텐트의 캡쳐된 제3영상이 제2특징 데이터에 대응하지 않는 것으로 식별됨에 기초하여, 캡쳐된 제3영상의 제1특징 데이터를 인터페이스부를 통해 서버에 전송하고, 서버로부터 제2컨텐트에 대응하는 컨텐트 정보를 수신하여, 수신된 제2컨텐트에 대응하는 컨텐트 정보에 기초한 동작을 수행할 수 있다.
프로세서는, 제2영상으로부터 획득된 제2특징 데이터와 저장부에 저장된 제2특징 데이터를 비교하여 제1영상과 제2영상이 서로 동일 또는 유사한 것으로 식별됨에 기초하여, 컨텐트의 제2영상이 저장된 제2특징 데이터에 대응하는 것으로 식별할 수 있다. 프로세서는 이진 검색 기법, 해싱 또는 해밍 거리 중 적어도 하나를 이용하여 제2특징 데이터를 비교할 수 있다.
컨텐트 정보는 컨텐트의 식별 정보, 관련 정보 또는 관련 정보를 제공하는 주소 정보 중 적어도 하나를 포함할 수 있다. 관련 정보는 컨텐트 명칭, 컨텐트의 종류, EPG(Electronic Program Guide) 데이터, 장르 정보, 채널 정보, 공급자 정보, 인물 정보, 물건 정보, 위치 정보, 음악 정보, 광고 정보 중 적어도 하나를 포함할 수 있다. 프로세서는, 인터페이스부를 통해 서버로부터 관련 정보를 주기적으로 수신하여, 저장부에 저장된 컨텐트 정보를 업데이트할 수 있다.
제1특징 데이터는 핑거프린트를 포함할 수 있다.
한편, 본 발명 일 실시예에 따른 전자장치를 제어하는 방법은, 디스플레이에 표시되는 컨텐트의 제1영상을 캡쳐하여 캡쳐된 제1영상의 제1특징 데이터를 획득하는 동작; 획득된 제1특징 데이터를 인터페이스부를 통해 서버에 전송하여, 서버로부터 컨텐트에 대응하는 컨텐트 정보를 수신하고, 수신된 컨텐트 정보에 기초한 동작을 수행하는 동작; 캡쳐된 제1영상으로부터 컨텐트를 식별할 수 있는 정보를 포함하는 제2특징 데이터를 획득하는 동작; 수신된 컨텐트 정보를 획득된 제2특징 데이터와 연관되도록 저장부에 저장하는 동작; 및 디스플레이를 통해 표시되는 컨텐트의 제2영상을 캡쳐하여 캡쳐된 제2영상이 저장된 제2특징 데이터에 대응하는 것으로 식별됨에 기초하여, 저장된 컨텐트 정보에 기초한 동작을 수행하는 동작을 포함한다.
제2특징 데이터는 소정 구간 동안 컨텐트의 영상에 포함되는 오브젝트에 관한 데이터를 포함할 수 있다. 오브젝트는 문자열, 로고 또는 그래픽 중 적어도 하나를 포함할 수 있다.
컨텐트는 제1컨텐트이고, 디스플레이에 표시되는 제2컨텐트의 캡쳐된 제3영상이 제2특징 데이터에 대응하지 않는 것으로 식별됨에 기초하여, 캡쳐된 제3영상의 제1특징 데이터를 인터페이스부를 통해 서버에 전송하고, 서버로부터 제2컨텐트에 대응하는 컨텐트 정보를 수신하는 동작; 및 수신된 제2컨텐트에 대응하는 컨텐트 정보에 기초한 동작을 수행하는 동작을 더 포함할 수 있다.
캡쳐된 제2영상으로부터 획득된 제2특징 데이터와 저장부에 저장된 제2특징 데이터를 비교하여 제1영상과 제2영상이 서로 동일 또는 유사한 것으로 식별됨에 기초하여, 컨텐트의 제2영상이 저장된 제2특징 데이터에 대응하는 것으로 식별하는 동작을 더 포함할 수 있다. 이진 검색 기법, 해싱 또는 해밍 거리 중 적어도 하나를 이용하여 제2특징 데이터를 비교하는 동작을 더 포함할 수 있다.
컨텐트 정보는 컨텐트의 식별 정보, 관련 정보 또는 관련 정보를 제공하는 주소 정보 중 적어도 하나를 포함할 수 있다. 관련 정보는 컨텐트 명칭, 컨텐트의 종류, EPG(Electronic Program Guide) 데이터, 장르 정보, 채널 정보, 공급자 정보, 인물 정보, 물건 정보, 위치 정보, 음악 정보, 광고 정보 중 적어도 하나를 포함할 수 있다. 서버로부터 관련 정보를 주기적으로 수신하여, 저장부에 저장된 컨텐트 정보를 업데이트할 수 있다.
제1특징 데이터는 핑거프린트를 포함할 수 있다.
상기한 바와 같은 본 발명의 전자장치 및 그 제어방법에 따르면, 컨텐트 인식 동작이 전자장치에서 자체적으로 이루어짐으로써, 네트워크 사용의 부하를 줄이고, 그로 인한 비용 및 시간을 절감할 수 있다.
도 1은 본 발명 일 실시예에 따른 컨텐트 정보에 기초한 동작을 수행하는 시스템의 일례를 도시한다.
도 2는 본 발명 일 실시예에 의한 전자장치의 구성을 도시한 블록도이다.
도 3은 본 발명 일 실시예에 의한 전자장치의 세부 블록도이다.
도 4는 본 발명 일 실시예에 따른 특징 데이터의 획득을 설명하기 위한 도면이다.
도 5는 본 발명 일 실시예에 따라 컨텐트 정보를 획득하는 과정을 도시한 흐름도이다.
도 6은 본 발명 일 실시예에 따라 컨텐트 정보에 기초한 동작을 수행하는 과정을 도시한 흐름도이다.
도 7은 본 발명 일 실시예에 따른 특징 데이터의 식별을 설명하기 위한 도면이다.
도 2는 본 발명 일 실시예에 의한 전자장치의 구성을 도시한 블록도이다.
도 3은 본 발명 일 실시예에 의한 전자장치의 세부 블록도이다.
도 4는 본 발명 일 실시예에 따른 특징 데이터의 획득을 설명하기 위한 도면이다.
도 5는 본 발명 일 실시예에 따라 컨텐트 정보를 획득하는 과정을 도시한 흐름도이다.
도 6은 본 발명 일 실시예에 따라 컨텐트 정보에 기초한 동작을 수행하는 과정을 도시한 흐름도이다.
도 7은 본 발명 일 실시예에 따른 특징 데이터의 식별을 설명하기 위한 도면이다.
이하에서는 첨부 도면을 참조하여 본 발명의 실시예들을 상세히 설명한다. 도면에서 동일한 참조번호 또는 부호는 실질적으로 동일한 기능을 수행하는 구성요소를 지칭하며, 도면에서 각 구성요소의 크기는 설명의 명료성과 편의를 위해 과장되어 있을 수 있다. 다만, 본 발명의 기술적 사상과 그 핵심 구성 및 작용이 이하의 실시예에 설명된 구성 또는 작용으로만 한정되지는 않는다. 본 발명을 설명함에 있어서 본 발명과 관련된 공지 기술 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략하기로 한다.
본 발명의 실시예에서, 제1, 제2 등과 같이 서수를 포함하는 용어는 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용되며, 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 또한, 본 발명의 실시예에서, '구성되다', '포함하다', '가지다' 등의 용어는 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다. 또한, 본 발명의 실시예에서, '모듈' 혹은 '부'는 적어도 하나의 기능이나 동작을 수행하며, 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있으며, 적어도 하나의 모듈로 일체화되어 구현될 수 있다. 또한, 본 발명의 실시예에서, 복수의 요소 중 적어도 하나(at least one)는, 복수의 요소 전부뿐만 아니라, 복수의 요소 중 나머지를 배제한 각 하나 혹은 이들의 조합 모두를 지칭한다.
도 1은 본 발명 일 실시예에 따른 컨텐트 정보에 기초한 동작을 수행하는 시스템의 일례를 도시한다.
일 실시예에 따르면, 컨텐트 정보에 기초한 동작을 수행하기 위한 시스템은 전자장치(10) 및 서버(20)를 포함한다.
전자장치(10)와 서버(20)는 네트워크를 통해 통신을 수행할 수 있다.
일 실시예에 따르면, 전자장치(10)는, 도 1에 도시된 바와 같이, 디스플레이(도 2의 110)를 포함하는 디스플레이장치(10a)로서 구현될 수 있다. 일 실시예에 따르면, 전자장치(10)는, 예를 들면, 서버(20)와 같은 외부의 신호공급원(소스)로부터 제공되는 신호, 즉, 컨텐트 또는 프로그램에 관한 데이터를 수신하고, 수신된 데이터를 기 설정된 프로세스에 따라 처리하여 디스플레이(110)에 영상으로 표시되도록 할 수 있다.
도 1을 참조하면, 디스플레이장치(10a)로 구현된 전자장치(10)는 방송국의 송출장비로부터 수신되는 방송신호, 방송정보, 또는 방송데이터 중 적어도 하나에 기초한 방송 영상을 처리할 수 있는 텔레비전(TV)일 수 있다. 이 경우, 전자장치(10)에는 방송신호를 채널 별로 튜닝하기 위한 튜너가 마련될 수 있다. 그러나, 본 발명의 사상이 전자장치(10)의 구현 예시에 한정되지 않는 바, 다른 실시예로서, 전자장치(10)는 유선 또는 무선 연결된 외부의 디스플레이로 신호를 전송하는 셋탑박스와 같은 영상처리장치(10b)로서 구현될 수도 있다. 또 다른 실시예로서, 전자장치(10)는 스마트폰(smart phone), 태블릿(tablet), 스마트패드(smart pad), 스마트노트(smart note), PDA(personal digital assistant, 개인 휴대용 정보 단말기), PMP(portable multimedia player), 내비게이션 장치, MP3 플레이어, 랩탑 컴퓨터(laptop computer)와 과 같은 이동 가능한 단말장치, 즉, 모바일장치로서 구현될 수도 있다.
전자장치(10)가 텔레비전인 경우, 전자장치(10)는 직접 또는 전자장치(10)와 케이블 등에 의해 연결될 수 있는 부가기기로서 마련되는 영상처리장치(10b), 예를 들면, 셋탑박스(set-top box, STB), OC 박스(one-connect box), 미디어박스 등을 통해 방송국의 송출장비로부터 수신되는 방송신호, 방송정보, 또는 방송데이터 중 적어도 하나에 기초한 방송 컨텐트를 수신할 수 있다. 여기서, 전자장치(10)와 부가기기의 연결 방식은 케이블에 한정되는 것은 아니며, 다양한 유무선 인터페이스가 적용될 수 있다.
전자장치(10)는, 예를 들면 방송국으로부터 송출되는 RF(radio frequency) 신호, 즉, 방송 컨텐트를 무선으로 수신할 수 있으며, 이를 위해 전자장치(10)에는 방송신호를 수신할 수 있는 안테나가 마련될 수 있다.
전자장치(10)에서, 방송 컨텐트는 지상파, 케이블, 위성 등을 통해서 수신 가능하며, 신호공급원, 즉, 소스는 방송국에 한정되지 않는다. 다시 말해, 데이터의 송수신이 가능한 장치 또는 스테이션이라면 본 발명의 소스에 포함될 수 있다.
전자장치(10)에서 수신되는 신호의 규격은 장치의 구현 형태에 대응하여 다양한 방식으로 구성될 수 있으며, 전자장치(10)는 후술하는 인터페이스부(도 2의 120)의 구현 형태에 대응하여, HDMI(High Definition Multimedia Interface), HDMI-CEC(Consumer Electronics Control), 디스플레이 포트(display port, DP), DVI, 컴포지트(composite) 비디오, 컴포넌트(component) 비디오, 슈퍼 비디오(super video), DVI(Digital Visual Interface), 썬더볼트(Thunderbolt), RGB 케이블, SCART(Syndicat des Constructeurs d'Appareils Radiorecepteurs et Televiseurs), USB(universal serial bus) 등의 규격에 대응하는 신호를 영상 컨텐트로서 유선으로 수신할 수 있다.
일 실시예에 따르면, 전자장치(10)는 스마트 TV 또는 IP TV(Internet Protocol TV)로 구현될 수 있다. 스마트 TV는 실시간으로 방송신호를 수신하여 표시할 수 있고, 웹 브라우징 기능을 가지고 있어 실시간 방송신호의 표시와 동시에 인터넷을 통하여 다양한 컨텐트의 검색 및 소비가 가능하고 이를 위하여 편리한 사용자 환경을 제공할 수 있는 TV이다. 또한, 스마트 TV는 개방형 소프트웨어 플랫폼을 포함하고 있어 사용자에게 양방향 서비스를 제공할 수 있다. 따라서, 스마트 TV는 개방형 소프트웨어 플랫폼을 통하여 다양한 컨텐트, 예를 들어 소정의 서비스를 제공하는 어플리케이션의 컨텐트를 사용자에게 제공할 수 있다. 이러한 어플리케이션은 다양한 종류의 서비스를 제공할 수 있는 응용 프로그램으로서, 예를 들어 SNS, 금융, 뉴스, 날씨, 지도, 음악, 영화, 게임, 전자 책 등의 서비스를 제공하는 어플리케이션을 포함한다.
전자장치(10)는 내부 또는 외부의 저장매체에 저장된 신호/데이터에 기초한 동영상, 정지영상, 어플리케이션(application), OSD(on-screen display), 다양한 동작 제어를 위한 유저 인터페이스(user interface, UI) 등을 화면에 표시하도록 신호를 처리할 수 있다.
전자장치(10)는 컨텐트 제공을 위한 소스로서, 서버(20)를 포함한 다양한 외부장치들로부터 유선 또는 무선 네트워크 통신에 의해 컨텐트를 제공받을 수 있으며, 통신의 종류는 한정되지 않는다.
구체적으로, 전자장치(10)는 후술하는 인터페이스부(120)의 구현 형태에 대응하여 와이파이(Wi-Fi), 와이파이 다이렉트(Wi-Fi Direct), 블루투스(bluetooth), 블루투스 저에너지(bluetooth low energy), 지그비(Zigbee), UWB(Ultra-Wideband), NFC(Near Field Communication) 등의 규격에 대응하는 신호를 영상 컨텐트로서 무선 네트워크 통신을 통해 수신할 수 있다. 또한, 전자장치(10)는 이더넷(Ethernet) 등과 같은 유선 네트워크 통신을 통해 컨텐트를 수신할 수 있다.
일 실시예에 따르면, 서버(20)는 복수로 마련될 수 있다.
일 실시예에서 서버(20)는 컨텐트 제공서버(21)를 포함할 수 있다.
컨텐트 제공서버(21)는 유선 또는 무선 네트워크를 통해 전자장치(10)를 포함한 다양한 기기로 컨텐트를 제공할 수는 컨텐트 프로바이더로서 마련될 수 있다. 컨텐트 제공서버(21)는, 예를 들면, 방송 컨텐트(프로그램), VOD(video on demand)와 같은 미디어파일, 웹컨텐트 등을 실시간 스트리밍 방식으로 제공할 수 있다.
일 실시예에 따르면 서버(20)는 ACR 서버(22)를 포함할 수 있다. ACR 서버(22)는 전자장치(10)로부터 표시되는 컨텐트에 관한 특징 데이터(예: 핑거프린트 등)를 수신할 수 있다. 여기서, ACR 서버(22)가 수신하는 특징 데이터는 제1특징 데이터로서 정의되며, 후술하는 전자장치(10)의 저장부(140)에 저장되는 제2특징 데이터와 구분된다.
ACR 서버(22)는, 수신된 제1특징 데이터에 기초하여 해당 컨텐트에 대응하는 컨텐트 정보(이하, 컨텐트 인식 정보라고도 한다)를 획득하여 전자장치(10)에 제공할 수 있다. 구체적으로, ACR 서버(22)는 제1특징 데이터를 식별, 즉, ACR(Automatic Contents Recognition)을 수행하여 해당 컨텐트에 매칭되는 컨텐트 정보를 획득하고, 그 컨텐트 정보를 제1특징 데이터에 대한 응답으로서 전자장치(10)로 제공할 수 있다.
일 실시예에 따르면, 컨텐트 정보는 사용자가 시청 중인 컨텐트를 인식한 결과로서, 해당 컨텐트의 식별 정보(예: 컨텐트 ID)를 포함할 수 있다.
일 실시예에서, 컨텐트 정보는 컨텐트의 관련 정보를 포함할 수 있다. 관련 정보는, 해당 컨텐트의 메타데이터로서, 예를 들면, 컨텐트 명칭(title), 컨텐트의 종류(타입), EPG(Electronic Program Guide) 데이터, 장르 정보, 채널 정보, 공급자(소스) 정보, 인물(출연자) 정보, 물건 정보, 위치(장소 또는 건물) 정보, 음악 정보, 광고 정보 중 적어도 하나를 포함할 수 있다. 다른 예로서, 관련 정보는 상기와 같은 컨텐트의 메타데이터를 제공하는 주소 정보를 포함할 수 있다.
일 실시예에 따르면, 서버(20)는 서비스 서버(23)를 포함할 수 있다. 서비스 서버(23)는, 컨텐트 정보(컨텐트 인식 정보)에 기초한 서비스(이하, 부가 서비스 라고도 한다)를 제공할 수 있다.
일 실시예에 따르면, 서비스 서버(23)는 컨텐트 정보에 기초한 서비스가 제공되도록 서비스 서버(23) 자체 또는 다른 연동 서버를 제어할 수 있다. 서비스 서버(23)는, 예를 들면, 전자장치(10)로부터의 요청에 응답하여, 전자장치(10)가 컨텐트 정보에 기초한 동작, 다시 말해, 하나 이상의 서비스 동작 수행하도록 하는 부가 서비스 정보를 전자장치(10)로 전송하거나 또는 부가 서비스 정보를 제공하는 주소 정보를 전자장치(10)로 전송할 수 있다.
일 실시예에 따르면, 부가 서비스 정보는, 예를 들면, 컨텐트와 관련된 실시간 뉴스 정보, 다른 컨텐트에 대한 추천 정보, 광고 정보 중 적어도 하나를 포함할 수 있다.
본 발명의 다양한 실시예에 따르면, 컨텐트 제공서버(21)와, ACR 서버(22)와, 서비스 서버(23)는 단일 서버로 구현되거나, 서로 분리된 복수의 서버로서 각각 마련될 수 있다. 일 실시예에 따르면, 컨텐트 제공서버(21)와, ACR 서버(22)와, 서비스 서버(23) 중 적어도 하나는 복수 개로 마련될 수 있으며, 이러한 복수의 서버를 통합적으로 관리하고 각 서버의 주소 정보를 제공하는 별도의 서버가 더 마련될 수도 있다.
전자장치(10)에는 컨텐트 재생을 위한 재생 어플리케이션, 예를 들면, TV 어플리케이션 또는 VOD 어플리케이션 중 적어도 하나가 설치될 수 있다. 전자장치(10)는, 재생 어플리케이션의 실행에 기초하여, 컨텐트 제공서버(21)로부터 컨텐트를 수신 및 그 수신한 컨텐트를 처리함으로써, 해당 컨텐트에 대응하는 영상이 디스플레이(110)를 통해 출력 즉, 표시되도록 할 수 있다. 여기서, 전자장치(10)는 실행된 어플리케이션에 대응하는 사용자 계정을 이용하여 컨텐트 제공서버(21)로부터 컨텐트를 수신할 수 있다.
전자장치(10)에는 ACR 기능을 지원하는 ACR 어플리케이션이 설치될 수 있다. 전자장치(10)는, ACR 어플리케이션의 실행에 기초하여, 표시 중인 컨텐트의 영상(제1영상)을 캡쳐하여 획득된 제1특징 데이터를 ACR 서버(22)로 전송하고, ACR 서버(22)로부터 컨텐트 정보(컨텐트 인식 정보)를 제공 받을 수 있다. 일 실시예에 따르면, 전자장치(10)는, ACR 어플리케이션의 실행에 기초하여, 캡쳐된 제1영상으로부터 제2특징 데이터를 획득하고, ACR 서버(22)로부터 획득된 컨텐트 정보를 제2특징 데이터와 매칭 또는 연계하여 저장부(140)에 저장할 수 있다. 여기서, 제2특징 데이터는 ACR 서버(22)로 전송되는 제1특징 데이터와 구분되며, 표시 중인 컨텐트를 식별할 수 있는 정보를 포함할 수 있다.
전자장치(10)에는 적어도 하나의 서비스 동작을 수행하기 위한 서비스 어플리케이션이 설치될 수 있다. 서비스 어플리케이션은, 예컨대, ACR에 기반한 확장된(Enhanced) 서비스를 제공하는 것으로서, 전자장치(10)는, 서비스 어플리케이션의 실행에 기초하여, 서비스 서버(23)로부터 컨텐트 정보에 대응하는 부가 서비스 정보를 수신하고, 수신된 부가 서비스 정보에 기초하여 서비스 동작을 수행할 수 있다.
일 실시예에 따르면, 전자장치(10)는, 서비스 어플리케이션의 실행에 기초하여, 디스플레이(110)를 통해 표시되는 영상(제2영상)에 대한 식별 결과에 따라 자체적으로 저장된 컨텐트 정보에 기초하여 서비스 동작을 수행할 수 있다.
일 실시예에서, 전자장치(10)는, 서비스 어플리케이션의 실행에 기초하여, 디스플레이(110)를 통해 표시되는 영상(제3영상)에 대한 식별 결과에 따라, 제3영상의 컨텐트에 대응하는 컨텐트 정보를 ACR 서버(22)로부터 수신하고, 그 수신된 컨텐트 정보에 기초하여 서비스 동작을 수행할 수 있다.
이하, 도면을 참조하여, 본 발명 일 실시예에 따른 전자장치의 구성 및 그 동작에 대해 설명하기로 한다.
도 2는 본 발명 일 실시예에 의한 전자장치의 구성을 도시한 블록도이다.
전자장치(10)는 동작을 위해 다양한 하드웨어 요소들을 포함한다. 다만, 도 2에 도시된 본 발명의 일 실시예에 의한 전자장치(10)의 구성은 하나의 예시일 뿐이며, 다른 실시예에 의한 전자장치는 도 2에 도시된 구성 외에 다른 구성으로 구현될 수 있다. 즉, 본 발명의 전자장치(10)는 도 2에 도시된 구성 외 다른 구성이 추가되거나, 혹은 도 2에 도시된 구성 중 적어도 하나가 배제된 형태로 구현될 수 있다. 또한, 본 발명의 전자장치(10)는, 도 2에 구성된 구성의 일부가 변경되는 형태로 구현될 수도 있다.
본 발명 일 실시예에 따른 전자장치(10)는, 도 2에 도시된 바와 같이, 디스플레이(110)를 포함할 수 있다.
디스플레이(110)는 영상을 디스플레이할 수 있다.
디스플레이(110)의 구현 방식은 한정되지 않으며, 예를 들면 액정(liquid crystal), 플라즈마(plasma), 발광 다이오드(light-emitting diode), 유기발광 다이오드(organic light-emitting diode), 면전도 전자총(surface-conduction electron-emitter), 탄소 나노 튜브(carbon nano-tube), 나노 크리스탈(nano-crystal) 등의 다양한 디스플레이 방식으로 구현될 수 있다.
일 실시예에 따르면, 디스플레이(110)는 영상을 표시하는 디스플레이 패널을 포함하며, 그 구현 방식에 따라서 부가적인 구성, 예를 들면 구동부(driver)를 더 포함할 수 있다.
전자장치(10)는 적어도 하나의 인터페이스부(120)를 포함할 수 있다.
인터페이스부(120)는, 전자장치(10)가 서버(20)를 포함하는 다양한 외부의 장치와 통신할 수 있도록 한다.
인터페이스부(120)는 유선 인터페이스부(121)를 포함할 수 있다. 유선 인터페이스부(121)는 HDMI, HDMI-CEC, USB, 컴포넌트(Component), 디스플레이 포트(DP), DVI, 썬더볼트, RGB 케이블 등의 규격에 따른 신호/데이터를 송/수신하는 연결부를 포함할 수 있다. 여기서, 유선 인터페이스부(121)는 이들 각각의 규격에 대응하는 적어도 하나 이상의 커넥터, 단자 또는 포트를 포함할 수 있다.
유선 인터페이스부(121)는 소스 등으로부터 신호를 입력받는 입력 포트를 포함하는 형태로 구현되며, 경우에 따라 출력 포트를 더 포함하여 양방향으로 신호를 송수신 가능하게 마련될 수 있다.
유선 인터페이스부(121)는 지상파/위성방송 등 방송규격에 따른 방송신호를 수신할 수 있는 안테나가 연결되거나, 케이블 방송 규격에 따른 방송신호를 수신할 수 있는 케이블이 연결될 수 있도록, HDMI 포트, DisplayPort, DVI 포트, 썬더볼트, 컴포지트(composite) 비디오, 컴포넌트(component) 비디오, 슈퍼 비디오(super video), SCART 등과 같이, 비디오 및/또는 오디오 전송규격에 따른 커넥터 또는 포트 등을 포함할 수 있다. 다른 예로서, 전자장치(10)는 방송신호를 수신할 수 있는 안테나를 내장할 수도 있다.
전자장치(10)는 인터페이스부(120)를 통해 수신하는 비디오/오디오신호가 방송신호인 경우, 수신된 방송신호를 채널 별로 튜닝하는 튜너(tuner)를 더 포함할 수 있다. 튜너는 튜닝된 특정 채널의 방송신호를 복조하여 트랜포트스트림(transport stream, TS) 형태의 신호로 출력하는 디모듈레이터를 포함할 수 있다. 다시 말해, 튜너와 디모듈레이터는 통합된 형태의 단일 칩으로 설계되거나, 상호 분리된 2개의 칩으로 각각 구현될 수 있다.
유선 인터페이스부(121)는 USB 포트 등과 같은 범용 데이터 전송규격에 따른 커넥터 또는 포트 등을 포함할 수 있다. 유선 인터페이스부(121)는 광 전송규격에 따라 광케이블이 연결될 수 있는 커넥터 또는 포트 등을 포함할 수 있다. 유선 인터페이스부(121)는 외부 마이크 또는 마이크를 구비한 외부 오디오기기가 연결되며, 마이크 또는 오디오기기로부터 오디오 신호를 수신 또는 입력할 수 있는 커넥터 또는 포트 등을 포함할 수 있다. 유선 인터페이스부(121)는 헤드셋, 이어폰, 외부 스피커 등과 같은 오디오기기가 연결되며, 오디오기기로 오디오 신호를 전송 또는 출력할 수 있는 커넥터 또는 포트 등을 포함할 수 있다. 유선 인터페이스부(121)는 이더넷(Ethernet) 등과 같은 네트워크 전송규격에 따른 커넥터 또는 포트를 포함할 수 있다. 예를 들면, 유선 인터페이스부(121)는 라우터 또는 게이트웨이에 유선 접속된 랜카드 등으로 구현될 수 있다.
유선 인터페이스부(121)는 커넥터 또는 포트를 통해 셋탑박스, 광학미디어 재생장치와 같은 외부기기, 또는 외부 디스플레이장치나, 스피커, 서버 등과 1:1 또는 1:N (N은 자연수) 방식으로 유선 접속됨으로써, 해당 외부기기로부터 비디오/오디오 신호를 수신하거나 또는 해당 외부기기에 비디오/오디오 신호를 송신한다. 유선 인터페이스부(121)는, 비디오/오디오 신호를 각각 별개로 전송하는 커넥터 또는 포트를 포함할 수도 있다.
유선 인터페이스부(121)는 다양한 종류의 통신 프로토콜에 대응하는 무선 통신모듈(S/W module, chip 등)을 포함하는 통신회로(communication circuitry)로서 구현될 수 있다.
일 실시예에서 유선 인터페이스부(121)는 전자장치(10)에 내장되나, 동글(dongle) 또는 모듈(module) 형태로 구현되어 전자장치(10)의 커넥터에 착탈될 수도 있다.
인터페이스부(120)는 무선 인터페이스부(122)를 포함할 수 있다.
무선 인터페이스부(122)는 전자장치(10)의 구현 형태에 대응하여 다양한 방식으로 구현될 수 있다. 예를 들면, 무선 인터페이스부(122)는 통신방식으로 RF(radio frequency), 지그비(Zigbee), 블루투스, 와이파이, UWB(Ultra WideBand) 및 NFC(Near Field Communication) 등 무선통신을 사용할 수 있다.
무선 인터페이스부(122)는 다양한 종류의 통신 프로토콜에 대응하는 무선 통신모듈(S/W module, chip 등)을 포함하는 통신회로(communication circuitry)로서 구현될 수 있다.
일 실시예에서 무선 인터페이스부(122)는 무선랜유닛을 포함한다. 무선랜유닛은 프로세서(150)의 제어에 따라 억세스 포인트(access point, AP)를 통해 무선으로 외부장치와 연결될 수 있다. 무선랜유닛은 와이파이 모듈을 포함한다.
일 실시예에서 무선 인터페이스부(122)는 억세스 포인트 없이 무선으로 전자장치(10)와 외부장치 사이에 1 대 1 다이렉트 통신을 지원하는 무선통신모듈을 포함한다. 무선통신모듈은 와이파이 다이렉트, 블루투스, 블루투스 저에너지 등의 통신방식을 지원하도록 구현될 수 있다. 전자장치(10)가 외부장치와 다이렉트로 통신을 수행하는 경우, 저장부(140)에는 통신 대상 기기인 외부장치에 대한 식별정보(예를 들어, MAC address 또는 IP address)가 저장될 수 있다.
본 발명 일 실시예에 따른 전자장치(10)에서, 무선 인터페이스부(122)는 성능에 따라 무선랜유닛과 무선통신모듈 중 적어도 하나에 의해 외부장치와 무선 통신을 수행하도록 마련된다.
일 실시예에서 무선 인터페이스부(122)는 LTE와 같은 이동통신, 자기장을 포함하는 EM 통신, 가시광통신 등의 다양한 통신방식에 의한 통신모듈을 더 포함할 수 있다.
무선 인터페이스부(122)는 네트워크 상의 서버 등의 외부장치와 무선 통신함으로써, 외부장치와 데이터 패킷을 송수신할 수 있다.
무선 인터페이스부(122)는 적외선 통신규격에 따라 IR(Infrared) 신호를 송신 및/또는 수신할 수 있는 IR송신부 및/또는 IR수신부를 포함할 수 있다. 무선 인터페이스부(122)는 IR송신부 및/또는 IR수신부를 통해 리모컨과 같은 입력장치 또는 다른 외부장치로부터 신호를 수신 또는 입력하거나, 다른 외부장치로 신호를 전송 또는 출력할 수 있다. 다른 예로서, 전자장치(10)는 와이파이, 블루투스 등 다른 방식의 무선 인터페이스부(122)를 통해 입력장치 또는 다른 외부장치와 신호를 송수신할 수 있다.
일 실시예에서 무선 인터페이스부(122)는 마이크와 같은 음성입력부를 통해 수신된 사용자음성의 정보로서 소정 데이터를 음성인식 서버와 같은 외부장치로 전송할 수 있다. 여기서, 전송되는 데이터의 형태/종류는 한정되지 않으며, 예를 들면, 사용자로부터 발화된 음성에 대응하는 오디오신호나, 오디오신호로부터 추출된 음성특징 등을 포함할 수 있다.
또한, 무선 인터페이스부(122)는 음성인식 서버와 같은 외부장치로부터 해당 사용자음성의 처리 결과의 데이터를 수신할 수 있다. 전자장치(10)는 수신된 데이터에 기초하여, 음성 처리결과에 대응하는 사운드를 내부 또는 외부의 스피커를 통해 출력할 수 있다.
다만, 상기한 실시예는 예시로서, 사용자음성을 서버로 전송하지 않고, 전자장치(10) 내에서 자체적으로 처리할 수도 있다. 즉, 다른 실시예에서 전자장치(10)가 STT(speech to text) 서버의 역할을 수행하도록 구현 가능하다.
전자장치(10)는 무선 인터페이스부(122)를 통해 리모컨과 같은 입력장치와 통신을 수행하여, 입력장치로부터 사용자음성에 대응하는 소리 신호를 수신할 수 있다.
일 실시예의 전자장치(10)에서, 서버(20) 등의 외부장치의 통신하는 통신모듈과 리모컨과 같은 입력장치와 통신하는 통신모듈은 서로 다를 수 있다. 예를 들어, 전자장치(10)는, 외부장치와 이더넷 모뎀 또는 와이파이 모듈을 통해 통신을 수행하고, 입력장치와 블루투스 모듈을 통해 통신을 수행할 수 있다.
다른 실시예의 전자장치(10)에서, 서버(20) 등의 외부장치와 통신하는 통신모듈과 리모컨과 같은 입력장치와 통신하는 통신모듈은 같을 수 있다. 예를 들어, 전자장치(10)는 블루투스 모듈을 통해 외부장치 및 입력장치와 통신을 수행할 수 있다.
일 실시예에서 무선 인터페이스부(122)는 전자장치(10)에 내장되나, 동글(dongle) 또는 모듈(module) 형태로 구현되어 전자장치(10)의 커넥터에 착탈될 수도 있다.
전자장치(10)는 사용자 입력부(130)를 포함할 수 있다.
사용자 입력부(130)는 사용자의 입력에 의해, 기설정된 다양한 제어 커맨드 또는 한정되지 않은 정보를 프로세서(150)에 전달한다.
사용자 입력부(130)는 전자장치(10) 본체에 마련된 전원키, 숫자키, 메뉴키 등의 버튼을 포함하는 키패드(또는 입력패널)를 포함한다.
일 실시예에서 사용자 입력부(130)는 전자장치(10)를 원격으로 제어 가능하게 기설정된 커맨드/데이터/정보/신호를 생성하여 전자장치(10)로 전송하는 입력장치를 포함한다. 입력장치는 리모컨(remote control), 키보드(keyboard), 마우스(mouse) 등을 포함하며, 전자장치(10) 본체와 이격 분리되어, 사용자 입력을 수신할 수 있다. 리모컨에는 사용자의 터치입력을 수신하는 터치 감지부 및/또는 사용자에 의한 자체 모션을 감지하는 모션 감지부가 마련될 수 있다. 입력장치는 리모컨 어플리케이션이 설치된 스마트 폰과 같은 단말장치를 포함하며, 이 경우 터치스크린을 통한 사용자의 터치입력이 수신 가능하다.
입력장치는 전자장치(10)와 무선통신이 가능하며, 무선통신은 블루투스, 적외선 통신, RF 통신, 무선랜, 와이파이 다이렉트 등을 포함한다.
일 실시예에 따르면, 사용자 입력부(130)는 사용자로부터 발화되는 음성/사운드를 수신할 수 있는 음성입력부, 예를 들면, 마이크(microphone)을 더 포함하며, 음성입력부는 전자장치(10) 본체 또는 리모컨과 같은 입력장치 중 적어도 하나에 마련될 수 있다.
전자장치(10)는 저장부(140)를 포함할 수 있다.
저장부(140)는 전자장치(10)의 다양한 데이터를 저장하도록 구성된다.
저장부(140)는 전자장치(10)에 공급되는 전원이 차단되더라도 데이터들이 남아있을 수 있으며, 변동사항을 반영할 수 있도록 쓰기 가능한 비휘발성 메모리(writable ROM)로 구비될 수 있다. 즉, 저장부(140)는 플래쉬 메모리(flash memory), EPROM 또는 EEPROM 중 어느 하나로 구비될 수 있다. 저장부(140)는 전자장치(10)의 읽기 또는 쓰기 속도가 비휘발성 메모리에 비해 빠른 DRAM 또는 SRAM과 같은 휘발성 메모리(volatile memory)를 더 구비할 수 있다.
저장부(140)에 저장되는 데이터는, 예를 들면 전자장치(10)의 구동을 위한 운영체제를 비롯하여, 이 운영체제 상에서 실행 가능한 다양한 프로그램, 어플리케이션, 영상데이터, 부가데이터 등을 포함한다.
구체적으로, 저장부(140)는 프로세서(150)의 제어에 따라 각 구성요소들의 동작에 대응되게 입/출력되는 신호 또는 데이터를 저장할 수 있다. 저장부(140)는 전자장치(10)의 제어를 위한 제어 프로그램, 제조사에서 제공되거나 외부로부터 다운로드 받은 어플리케이션, 어플리케이션과 관련된 UI, UI를 제공하기 위한 그래픽 또는 이미지, 사용자 정보, 문서, 데이터베이스들 또는 관련 데이터들을 저장할 수 있다.
일 실시예에 따르면, 전자장치(10)에서 표시되는 영상은 플래시메모리, 하드디스크 등과 같은 비휘발성의 저장부(140)에 저장된 데이터로부터 기인한 것일 수 있다. 저장부(140)는 전자장치(10)의 내부 또는 외부에 마련될 수 있으며, 외부에 마련되는 경우 저장부(140)는 유선 인터페이스부(121)를 통해 전자장치(10)에 연결될 수 있다.
본 명세서에서 저장부 라는 용어는 저장부(140), 프로세서(150) 내 롬(ROM)(도시되지 아니함), 램(RAM)(도시되지 아니함) 또는 전자장치(10)에 장착 가능한 메모리 카드(도시되지 아니함)(예를 들어, micro SD 카드, 메모리 스틱)를 포함하는 것으로서 정의된다.
일 실시예에 따르면, 저장부(140)에는 전자장치(10)가 텔레비전으로 동작하도록 하는 TV 어플리케이션, OTT 서버 등으로부터 수신되는 컨텐트가 재생되도록 하는 VOD 어플리케이션, 컨텐트 정보에 기초한 서비스 동작을 수행하는 서비스 어플리케이션 등이 저장될 수 있다.
일 실시예에 따르면, 저장부(140)에는 디스플레이(110)에 표시되는 컨텐트에 대응하는 컨텐트 정보가 저장될 수 있다. 여기서, 컨텐트 정보는 컨텐트 영상으로부터 추출된 제2특징 데이터와 연계되어 저장부(140)에 저장될 수 있다. 제2특징 데이터는 전술한 ACR 서버(22)로 전송되는 제1특징 데이터와 구분된다.
전자장치(10)는 적어도 하나의 프로세서(150)를 포함할 수 있다.
프로세서(150)는 전자장치(10)의 제반 구성들이 동작하기 위한 제어를 수행한다. 프로세서(150)는 이러한 제어 동작을 수행할 수 있도록 하는 제어 프로그램(혹은 인스트럭션)과, 제어 프로그램이 설치되는 비휘발성의 메모리, 설치된 제어 프로그램의 적어도 일부가 로드되는 휘발성의 메모리 및 로드된 제어 프로그램을 실행하는 적어도 하나의 범용 프로세서, 예를 들면 마이크로 프로세서(microprocessor), 응용 프로세서(application processor) 혹은 CPU(central processing unit)를 포함할 수 있다.
프로세서(150)는 싱글 코어, 듀얼 코어, 트리플 코어, 쿼드 코어 및 그 배수의 코어를 포함할 수 있다. 프로세서(150)는 복수의 프로세서, 예를 들어, 메인 프로세서(main processor) 및 슬립 모드(sleep mode, 예를 들어, 대기 전원만 공급되고 전자장치로서 동작하지 않는)에서 동작하는 서브 프로세서(sub processor)를 포함할 수 있다. 또한, 프로세서, 롬 및 램은 내부 버스(bus)를 통해 상호 연결될 수 있다.
일 실시예에 따르면, 프로세서(150)는 소스로부터 수신된 컨텐트 신호에 대해 기 설정된 다양한 프로세스를 수행하는 영상처리부를 포함할 수 있다. 프로세서(150)는 영상처리를 수행하여 생성 또는 결합한 출력 신호를 디스플레이(110)에 출력함으로써, 디스플레이(110)에 영상신호에 대응하는 영상이 표시되게 할 수 있다.
영상처리부는 영상신호를 전자장치(10)의 소정 영상 포맷에 대응하도록 디코드하는 디코더(decoder) 및/또는 영상신호를 디스플레이(110)의 출력규격에 맞도록 조절하는 스케일러(scaler)를 포함할 수 있다.
일 실시예에 따르면, 디코더는, 예를 들어, H.264/AVC 디코더인 것을 일례로 하지만 이에 한정되는 것은 아니다. 즉, 본 발명 실시예에 따른 비디오 디코더는 MPEG(Moving Picture Experts Group) 디코더 또는 HEVC(High Efficiency Video Codec) 디코더 등 다양한 압축 표준에 따른 디코더로서 구현 가능하다.
디코더는 하드웨어 디코더 또는 소프트웨어 디코더로서 구현될 수 있다. 일 실시예에 따르면, 전자장치(10)에는 디코더가 복수 개 마련될 수 있다. 여기서, 전자장치(10)에 마련된 복수의 디코더는 각각이 하드웨어 디코더로 구현되거나, 또는 소프트웨어 디코더로 구현될 수 있다. 본 발명의 전자장치(10)에 마련되는 디코더의 개수 및/또는 종류는 한정되지 않는다.
본 발명에서 영상처리부가 처리하는 컨텐트의 종류는 한정되지 않는다. 예를 들어, 영상처리부에서 처리 가능한 컨텐트는 비디오와 같은 동영상뿐 아니라, JPEG 파일과 같은 사진, 배경화면 등의 정지화상, UI의 메뉴항목 등을 더 포함할 수 있다.
본 발명의 영상처리부가 수행하는 영상처리 프로세스의 종류는 한정되지 않는바, 예를 들면 인터레이스(interlace) 방식의 방송신호를 프로그레시브(progressive) 방식으로 변환하는 디인터레이싱(de-interlacing), 영상 화질 개선을 위한 노이즈 감소(noise reduction), 디테일 강화(detail enhancement), 프레임 리프레시 레이트(frame refresh rate) 변환, 라인 스캐닝(line scanning) 다양한 프로세스 중 적어도 하나를 수행할 수 있다.
일 실시예에서 영상처리부는 이러한 각 프로세스를 수행하기 위한 다양한 칩셋, 메모리, 전자부품, 배선 등의 회로 구성이 인쇄회로기판(PCB) 상에 실장된 영상보드로 구현될 수 있다. 이 경우, 전자장치(10)에는 튜너, 영상처리부를 포함하는 프로세서(150)가 단일의 영상보드에 마련될 수 있다. 물론, 이는 일례에 불과하고 서로 통신 가능하게 연결된 복수의 인쇄회로기판에 배치될 수도 있다.
일 실시예에 따르면, 프로세서(150)는 전자장치(10)에 내장되는 PCB 상에 실장되는 메인 SoC(Main SoC)에 포함되는 형태로서 구현 가능하다.
제어 프로그램은, BIOS, 디바이스드라이버, 운영체계, 펌웨어, 플랫폼 및 어플리케이션 중 적어도 하나의 형태로 구현되는 프로그램(들)을 포함할 수 있다. 일 실시예로서, 어플리케이션은, 전자장치(10)의 제조 시에 전자장치(10)에 미리 설치 또는 저장되거나, 혹은 추후 사용 시에 외부로부터 수신된 데이터에 기초하여 전자장치(10)에 설치될 수 있다. 어플리케이션의 데이터는, 예컨대, 어플리케이션 마켓과 같은 외부의 서버로부터 전자장치(10)로 다운로드될 수도 있다. 이와 같은 외부 서버는, 본 발명의 컴퓨터프로그램제품의 일례이나, 이에 한정되는 것은 아니다.
제어 프로그램은 컴퓨터와 같은 기기로 읽을 수 있는 저장매체에 기록될 수 있다. 기기로 읽을 수 있는 저장매체는, 비일시적(non-transitory) 저장매체 또는 비휘발성(non-volatile) 저장매체의 형태로 제공될 수 있다. 여기서, ‘비일시적 저장매체'는 실재(tangible)하는 장치이고, 신호(signal)(예: 전자기파)를 포함하지 않는다는 것을 의미할 뿐이며, 이 용어는 데이터가 저장매체에 반영구적으로 저장되는 경우와 임시적으로 저장되는 경우를 구분하지 않는다. 일례로, '비일시적 저장매체'는 데이터가 임시적으로 저장되는 버퍼를 포함할 수 있다.
일 실시예에 따른 전자장치(10)에서, 프로세서(150)는 방송신호에 기초하여 소정 채널의 영상이 표시되도록 해당 신호를 처리할 수 있다. 또한, 프로세서(150)는 인터페이스부(120)를 통해 서버(20) 등 다양한 소스로부터 수신한 신호에 기초하여 소정 컨텐트의 영상이 표시되도록 해당 신호를 처리할 수 있다.
일 실시예에 따르면, 프로세서(150)는 디스플레이(110)에 표시되는 컨텐트의 제1영상(제1프레임)을 캡쳐하여, 캡쳐된 제1영상의 제1특징 데이터(예: 핑커프린트)를 획득할 수 있다. 프로세서(150)는 획득된 제1특징 데이터를 인터페이스부(120)를 통해 서버(20), 즉, ACR 서버(22)에 전송하여, ACR 서버(22)로부터 해당 컨텐트에 대응하는 컨텐트 정보를 수신할 수 있다. 여기서, 프로세서(150)는 수신된 컨텐트 정보에 기초한 동작, 예컨대, 컨텐트 추천, 맞춤 광고와 같은 서비스 동작을 수행할 수 있다.
일 실시예에 따르면, 프로세서(150)는 캡쳐된 제1영상의 제2특징 데이터를 획득하고, ACR 서버(22)로부터 수신된 컨텐트 정보를 제2특징 데이터와 연관되도록 저장부(140)에 저장할 수 있다. 여기서, 제2특징 데이터는 표시되는 컨텐트를 식별할 수 있는 정보를 포함한다. 구체적으로, 제2특징 데이터는 컨텐트를 식별할 수 있는 정보로서, 예를 들면, 캡쳐된 제1영상(제1프레임)에 포함되는 오브젝트(예: 문자열, 그래픽, 로고 등)에 관한 데이터를 포함할 수 있다.
일 실시예에 따르면, 프로세서(150)는 디스플레이(110)를 통해 표시되는 컨텐트의 제2영상(제2프레임)을 캡쳐하고, 캡쳐된 제2영상이 저장부(140)에 저장된 제2특징 데이터에 대응하는 것으로 식별됨에 기초하여, 제2특징 컨텐트와 연관되어 저장된 컨텐트 정보에 기초한 동작, 예컨대, 컨텐트 추천, 맞춤 광고와 같은 서비스 동작을 수행할 수 있다.
도 3은 본 발명 일 실시예에 의한 전자장치의 세부 블록도이고, 도 4는 본 발명 일 실시예에 따른 특징 데이터의 획득을 설명하기 위한 도면이다.
도 3을 참조하면, 일 실시예에 따른 전자장치(10)는 ACR 모듈(310)과 서비스 모듈(320)을 포함할 수 있다.
ACR 모듈(310)은 ACR 엔진을 포함할 수 있다. 일 실시예에 따르면, ACR 모듈(310)은 프로세서(150)와 ACR 어플리케이션의 조합에 의해 구현될 수 있다.
도 3을 참조하면, 일 실시예에서 ACR 모듈(310)은 캡쳐부(311), ACR 쿼리 생성부(322), 디스크립션 생성부(313), 데이터 매칭부(323)을 포함할 수 있다.
캡쳐부(311)는 디스플레이(110)에 표시되는 영상을 캡쳐할 수 있다. 예를 들어, 표시된 영상이 비월 주사 방식인 경우, 캡쳐부(311)는 영상, 즉, 프레임에서 홀수 번째 줄의 필드 픽쳐 및 짝수 번째 줄의 필드 픽쳐 중 적어도 하나를 캡쳐할 수 있다. 일 실시예에서, 캡쳐부(311)는 디스플레이(110)의 화면에 표시 중인 영상을 캡쳐하거나, 또는 컨텐트를 구성하는 비디오 신호를 캡쳐할 수 있다.
일 실시예에 따르면, 캡쳐부(311)는 음성과 같은 사운드(오디오)를 캡쳐할 수 있다. 캡쳐부(311)는, 예를 들면, 오디오 신호의 주파수나 진폭 등의 특성을 이용하여 사운드를 캡쳐할 수 있다. 일 실시예에 따르면, 캡쳐부(311)는 표시되는 영상, 즉 프레임 내 오디오 신호에 포함된 사운드를 캡쳐할 수 있으며, 캡쳐된 사운드는 음성, 음악, 멜로디, 효과음 등을 포함할 수 있다.
일 실시예에 따르면, 캡쳐부(311)는 미리 정해진 주기(예: 0.3초 내지 1초 사이의 일 값)로 영상과 사운드 중 적어도 하나를 캡쳐할 수 있다. 일 실시예에 따르면, 캡쳐부(311)는 소정 이벤트(예: 채널 전환 등)의 발생 시 영상과 사운드 중 적어도 하나를 캡쳐할 수 있다.
캡쳐부(311)는, 도 4에 도시된 바와 같이, 디스플레이(110)를 통해 표시되는 컨텐트(제1컨텐트)의 제1영상(41), 즉, 제1프레임으로부터 제1특징 데이터를 획득할 수 있다.
일 실시예에서 제1특징 데이터는, 영상의 특징(feature)을 나타내는 고유 데이터로서, 예를 들면, 핑커프린트를 포함할 수 있다. 핑거프린트는 지문 데이터, DNA 데이터 또는 유전자 데이터라고도 하며, 신호 자체의 고유 특성을 반영한다. 핑거프린트는, 예를 들면, 영상 또는 영상신호의 모션 벡터, 색상, 패턴 등의 특징을 표현하는 데이터일 수 있다. 다른 예로서, 핑거프린트는, 사운드 또는 오디오 신호의 주파수, 진폭 등의 특징을 표현하는 데이터일 수 있다. 핑거프린트는 알려진 다양한 알고리즘에 의해 획득 또는 추출될 수 있다.
ACR 쿼리 생성부(322)는 제1특성 데이터를 포함하는 ACR 쿼리(query)를 생성할 수 있다. 일 실시예에 따르면, 캡쳐부(311)에서 제1특성 데이터가 획득됨에 기초하여, 제1특성 데이터를 포함하는 ACR 쿼리를 생성할 수 있다. 생성된 ACR 쿼리는 캡쳐된 컨텐트에 대한 인식 요청(ACR request)으로서 인터페이스부(120)를 통해 ACR 서버(22)에 전송될 수 있다. 인터페이스부(120)는 ACR 서버(22)로부터 컨텐트의 인식 요청, 즉, ACR 쿼리에 대한 응답(ACR response)으로서 컨텐트 정보(컨텐트 인식 정보)를 수신하여, 데이터 매칭부(314) 또는 서비스 모듈(320)로 출력할 수 있다.
디스크립션 생성부(313)는 캡쳐부(311)에서 캡쳐된 제1영상, 즉, 제1프레임으로부터 제2특징 데이터를 획득할 수 있다. 여기서, 제2특징 데이터는 캡쳐된 제1영상으로부터 가공된 디스크립션(description) 데이터로서, 핑거프린트와 같은 제1특징 데이터와 구분된다.
디스크립션 생성부(313)는, 도 4에 도시된 바와 같이, 디스플레이(110)를 통해 표시되는 컨텐트의 제1영상(41)으로부터 제2특징 데이터를 획득할 수 있다.
일 실시예에 따르면, 제2특징 데이터는 디스플레이(110)에 표시되는 컨텐트를 식별할 수 있는 정보(예: 오브젝트의 정보)를 포함할 수 있다.
일 실시예에서 제2특징 데이터는 소정 구간 동안 컨텐트의 영상에 표시되는 오브젝트에 관한 데이터를 포함할 수 있다. 오브젝트는, 예를 들면, 1초 미만의 소정 시간 구간 동안 지속적으로(변화 없이) 영상에 표시되는 항목(아이템)으로서, 문자열, 그래픽, 로고, 워터마크 중 적어도 하나를 포함할 수 있다.
즉, 제2특징 데이터는 컨텐트를 식별할 수 있는 정보로서 컨텐트를 구성하는 복수의 프레임에 공통적으로 포함되는 오브젝트를 식별하여 획득될 수 있다.
일 실시예에 따르면, 디스크립션 생성부(313)는 OCR(optical character recognition), 로고 검출(logo detection), 특징점 추출(key-point extraction), 특징 기술자(feature descriptor) 추출, 컬러 히스토그램 등의 알고리즘을 이용하여 제2특징 데이터를 추출할 수 있다. 즉, 제2특징 데이터는 전술한 제1특징 데이터와 그 추출 방법이 상이하다.
일 실시예에서 제2특징 데이터는 캡쳐된 영상의 일부 영역(예: 문자 영역 또는 로고/그래픽 영역 등)으로부터 추출될 수 있다. 즉, 신호 자체의 고유 특성을 표현하는 제1특징 데이터와 비교하여, 상대적으로 간단한 유형의 디스크립션 데이터로서 획득될 수 있다.
도 4를 참조하면, 제1영상(41)(제1프레임)은, 예를 들어, 비행기 모양의 로고 또는 그래픽과 같은 오브젝트(45)를 포함하는 광고 영상(예: 여행사 또는 관광지 등에 관한 광고)에 대응할 수 있다. 다른 예로서, 제1영상(41)은 "OO 투어"와 같은 문자열의 오브젝트를 포함하는 광고 영상에 대응할 수 있다. 또 다른 예로서, 제1영상(41)은 광고뿐 아니라, 방송이나 영화 등의 예고편, 방송 프로그램, 미디어 컨텐트 등과 같이 사용자의 취향을 반영하여 반복적으로 표시되는 컨텐트의 영상에 대응할 수 있다.
데이터 매칭부(314)는 ACR 쿼리 생성부(322)를 통해 수신한 컨텐트 정보를 디스크립션 생성부(313)를 통해 획득한 제2특징 데이터와 연관되도록 저장부(140)에 저장할 수 있다.
일 실시예에 따르면, 데이터 매칭부(314)는 제1영상(41)의 컨텐트를 인식한 결과로서 ACR 서버(22)로부터 제공되는 컨텐트 정보, 예를 들면, 컨텐트 ID 와 같은 식별 정보를 제2특징 데이터와 매칭하여 저장부(140)에 저장할 수 있다.
일 실시예에 따르면, 데이터 매칭부(314)는 제1영상(41)의 컨텐트를 인식한 결과로서 ACR 서버(22)로부터 제공되는 컨텐트 정보, 예를 들면, 명칭, 종류, EPG, 장르, 채널 공급자, 인물, 물건, 위치 등의 메타데이터를 포함하는 관련 정보 또는 관련 정보를 제공하는 주소 정보 등을 제2특징 데이터와 매칭하여 저장부(140)에 저장할 수 있다.
일 실시예에 따르면, 데이터 매칭부(314)는 광고와 같이 로고나 그래픽으로 이루어진 특정 오브젝트를 포함하여 반복 표시되는 컨텐트(제1컨텐트)에 대해, 그 메타데이터를 관련 정보로서 주기적으로 ACR 서버(22)로부터 수신, 즉, 다운로드하고 제2특징 데이터와 매칭하여 관리할 수 있다. 여기서, 데이터 매칭부(314)는 필요 시 ACR 서버(22)로부터 추가로 정보를 수신할 수 있다. 그에 따라, 저장된 컨텐트 정보는 지속적으로 업데이트므로, 전자장치(10)가 해당 컨텐트(제1컨텐트)의 영상이 표시될 때 ACR 서버(22)를 통하지 않고 컨텐트 정보에 기초한 서비스 동작을 용이하게 수행할 수 있다.
서비스 모듈(320)은 인터페이스부(120)를 통해 서비스 서버(23)에 컨텐트 정보에 대응하는 서비스 정보를 요청하고, 그 요청에 응답하여 제공되는 부가 서비스 정보 또는 부가 서비스를 제공하는 주소 정보를 서비스 서버(23)로부터 수신할 수 있다. 서비스 모듈(320)은 부가 서비스 정보에 기초하여 소정 동작, 예를 들면, 맞춤 광고, 컨텐트 추천, 실시간 뉴스 등의 서비스 동작을 수행하도록 할 수 있다.
일 실시예에 따르면, 서비스 모듈(320)은 프로세서(150)와 서비스 어플리케이션의 조합에 의해 구현될 수 있다.
이하, 도면들을 참조하여, 컨텐트 정보를 획득하고 그에 기초한 동작이 이루어지는 실시예에 관해 구체적으로 설명하기로 한다.
도 5는 본 발명 일 실시예에 따라 컨텐트 정보를 획득하는 과정을 도시한 흐름도이다.
도 5를 참조하면, 전자장치(10)의 프로세서(150)는 동작 501에서 디스플레이(110)를 통해 표시되는 컨텐트(제1컨텐트)의 제1영상을 캡쳐할 수 있다. 여기서, 프로세서(150)는 미리 정해진 주기로 또는 소정 이벤트의 발생 시 표시 중인 컨텐트의 영상을 캡쳐할 수 있다.
전자장치(10)의 프로세서(150)는 동작 502에서 캡쳐된 제1영상의 제1특징 데이터를 획득할 수 있다. 제1특징 데이터는 핑커프린트와 같이 영상의 특징을 나타내는 데이터로서, 동작 501에서 캡쳐된 영상로부터 추출될 수 있다.
전자장치(10)의 프로세서(150)는, 동작 503에서 제1특징 데이터를 ACR 서버(22)로 전송할 수 있다. 즉, 프로세서(150)는 제1특징 데이터를 포함하는 ACR 쿼리를 생성하여, ACR 서버(22)로 표시된 컨텐트(제1컨텐트)에 대한 인식을 요청할 수 있다.
ACR 서버(22)는, 동작 504에서 제1특징 데이터를 식별, 즉, ACR을 수행할 수 있다.
ACR 서버(22)는, 동작 505에서 ACR 의 수행 결과로서 제1컨텐트에 매칭되는 컨텐트 정보(컨텐트 인식 정보)를 획득할 수 있다. 여기서, 컨텐트 정보는 제1컨텐트의 식별 정보를 포함하며, 관련 정보 또는 관련 정보를 제공하는 주소 정보를 더 포함할 수 있다.
ACR 서버(22)는 동작 506에서 제1컨텐트에 대해 획득된 컨텐트 정보를 제1특징 데이터에 대한 응답으로서 전자장치(10)로 제공할 수 있다.
전자장치(10)의 프로세서(150)는, 동작 507에서 표시된 컨텐트(제1컨텐트)의 컨텐트 정보에 기초한 동작을 수행할 수 있다. 예를 들면, 프로세서(150)는, 서비스 서버(23)를 통해 광고, 컨텐트 추천, 실시간 뉴스 등과 같은 컨텐트 정보에 대응하는 서비스 동작을 수행할 수 있다.
한편, 전자장치(10)의 프로세서(150)는, 동작 508에서 캡쳐된 제1영상의 제2특징 데이터를 획득할 수 있다. 제2특징 데이터는 컨텐트(제1컨텐트)를 식별할 수 있는 정보를 포함할 수 있다. 제2특징 데이터는, 예를 들면, 소정 구간 동안 컨텐트의 영상에 표시되는 오브젝트(예: 문자열, 로고, 그래픽, 워터마크 등)에 관한 데이터를 포함할 수 있다.
도 5의 일 실시예에서는 동작 508이 동작 507의 이후에 수행되는 것으로 도시되어 있으나, 동작 507 및 508은 순차 수행되지 않고, 병렬로 또는 상이한 순서로 수행될 수 있다. 예를 들면, 프로세서(150)는 동작 502에서 제1특징 데이터를 획득하면서, 동시에 또는 동작 502 이후 바로 동작 508를 수행하여 제2특징 데이터를 획득할 수 있다.
전자장치(10)의 프로세서(150)는, 동작 509에서, 동작 506에서 수신된 제1컨텐트의 컨텐트 정보를 동작 508에서 획득한 제2특징 데이터와 연관되도록 저장부(140)에 저장할 수 있다. 즉, 프로세서(150)는 제1컨텐트의 컨텐트 정보(예: 도 4와 같은 광고 영상의 ID)를 소정 오브젝트(예: 비행기 모양의 로고나 그래픽 또는 "OO 투어"와 같은 문자열)에 관한 정보와 매칭하여 저장할 수 있다.
이렇게 저장된 제2특징 데이터는 후술하는 도 6의 실시예에서 수행되는 전자장치(10)의 자체 저장된 컨텐트 정보에 기초한 동작 수행에 활용될 수 있다.
일 실시예에 따르면, 제1컨텐트의 영상(41)이 로고나 그래픽으로 이루어진 특정 오브젝트(45)를 포함하여 반복 표시되는 경우, 전자장치(10)의 프로세서(150)는 제1컨텐트의 메타데이터를 관련 정보로서 주기적으로 ACR 서버(22)로부터 다운로드 및 제2특징 데이터와 매칭시켜 업데이트하여 저장할 수 있다. 이에 전자장치(10)가 제1컨텐트의 영상(41)이 표시될 때 마다, ACR 서버(22)를 통하지 않고 자체 저장된 컨텐트 정보에 기초한 서비스 동작을 용이하게 수행할 수 있게 된다.
도 6은 본 발명 일 실시예에 따라 컨텐트 정보에 기초한 동작을 수행하는 과정을 도시한 흐름도이고, 도 7은 본 발명 일 실시예에 따른 특징 데이터의 식별을 설명하기 위한 도면이다.
도 6을 참조하면, 전자장치(10)의 프로세서(150)는, 동작 601에서 디스플레이(110)를 통해 표시되는 컨텐트의 제2영상(또는 제3영상)을 캡쳐할 수 있다.
프로세서(150)는, 동작 602에서 캡쳐된 제2영상이 저장부(140)에 기 저장된 제2특징 데이터에 대응하는지 여부를 식별할 수 있다. 여기서, 프로세서(150)는 도 3의 디스크립션 생성부(313)에서 설명된 방식에 의해 제2영상으로부터 제2특징 데이터를 획득할 수 있다.
기 저장된 제2특징 데이터는 도 5의 동작 508에서 획득된 제1컨텐트의 제2특징 데이터로서, 제1컨텐트를 식별할 수 있는 정보를 포함한다. 즉, 기 저장된 제2특징 데이터는 소정 구간 동안 제1컨텐트의 영상에 표시되는 오브젝트, 예를 들면, 도 4에 도시된 영상(41)에 포함된 로고나 그래픽과 같은 오브제트(45)에 관한 데이터일 수 있다.
프로세서(150)는, 동작 602에서 캡쳐된 제2영상(또는 제3영상)이 기 저장된 제2특징 데이터에 대응하는지 여부를 식별할 수 있다. 여기서, 프로세서(150)는 캡쳐된 제2영상(또는 제3영상)으로부터 획득된 제2특징 데이터와 저장부(140)에 저장된 제2특징 데이터를 비교하여, 서로 동일 또는 유사한 것으로 식별됨에 기초하여, 캡쳐된 제2영상이 저장된 제2특징 데이터에 대응하는 것으로 식별할 수 있다. 프로세서(150)는, 예를 들면, 비 트리(B-tree)와 같은 이진 검색 기법, 해싱(Hashing) 또는 해밍 거리(hamming distance) 등의 알고리즘을 이용하여 두 개의 제2특징 데이터를 서로 비교할 수 있다.
예를 들어, 도 7을 참조하면, 제2영상(71, 72, 73)이, 도 4에 도시된 제1영상(41)의 오브젝트(41)와 동일 또는 유사한 오브젝트(75)를 포함하는 경우, 제2영상(71, 72, 73)의 제2특징 데이터가 기 저장된 특징 데이터에 대응되는 것으로 식별될 수 있다.
반면, 도 7에서, 제3영상(74)이, 제1영상(41)의 오브젝트(41)와 동일 또는 유사한 오브젝트(75)를 포함하지 않는 경우, 제2컨텐트의 영상(74)의 제2특징 데이터가 기 저장된 특징 데이터에 대응되지 않는 것으로 식별할 수 있다.
동작 602에서 제2영상이 저장된 제2특징 데이터에 대응하는 것으로 식별됨에 기초하여, 프로세서(150)는 동작 603에서 기 저장된 컨텐트 정보에 기초한 동작을 수행할 수 있다.
즉, 프로세서(150)는 제2영상(71, 72, 73)과 제1영상(41)의 비교 결과, 제1영상과 제2영상이 동일 또는 유사한 것으로 식별되는 경우, ACR 서버(22)를 통하지 않고, 제1컨텐트에 매칭하여 자체 저장된 컨텐트 정보(예: 광고 ID)에 기초하여 서비스 동작을 수행할 수 있다.
제2영상(71, 72, 73)이 저장된 제2특징 데이터에 대응하는 것으로 식별됨에 기초하여, 프로세서(150)는 동작 603에서 기 저장된 컨텐트 정보에 기초한 동작을 수행할 수 있다. 즉, 프로세서(150)는 제2영상(71, 72, 73)의 컨텐트가 제1컨텐트인 것으로 식별하고, ACR 서버(22)를 통하지 않고, 제1컨텐트에 매칭하여 자체 저장된 컨텐트 정보(예: 광고 ID)에 기초하여 서비스 동작을 수행할 수 있다.
반면, 동작 602에서 제3영상(74)이 저장된 제2특징 데이터에 대응하지 않는 것으로 식별됨에 기초하여, 프로세서(150)는 동작 604에서 ACR 서버(22)로부터 획득된 컨텐트 정보에 기초한 기초한 동작(서비스 동작)을 수행할 수 있다.
즉, 프로세서(150)는 제3영상(74)의 제2컨텐트가 제1컨텐트와 전혀 다른 컨텐트인 경우, 인터페이스부(120)를 통해 해당 컨텐트(제2컨텐트)의 캡쳐된 제3영상(74)의 제1특징 데이터를 ACR 서버(22)로 전송하여, 제2컨텐트에 대응하는 컨텐트 정보를 ACR 서버(22)로부터 수신하고, 그 수신된 컨텐트 정보에 기초한 동작(서비스 동작)을 수행할 수 있다.
상기와 같은 일 실시예에 따른 전자장치(10)는, 사용자가 자주 시청하는 컨텐트(예: 광고 등)의 영상의 제2특징 데이터를 그 컨텐트 정보와 매칭하여 미리 저장해 두고, 동일 또는 유사한 영상이 표시될 때, ACR 서버(22)를 통한 매칭 과정 없이, 기 저장된 컨텐트 정보에 기초하여 자체적으로 서비스 동작을 수행할 수 있다. 따라서, ACR 서버(22)를 통한 인식 과정이 수행되지 않으므로, 전제적인 시스템 효율이 향상되고 네트워크 사용으로 인한 비용이 절감될 수 있다. 또한, ACR 서버(22)와 송수신하는 정보가 줄어들어, 해킹 등의 보안 문제도 대체가 용이할 수 있다.
상기와 같은 일 실시예에 따르면, 전자장치(10)가 컨텐트의 모든 프레임이 아닌 일부 프레임(제1영상)에 대해서 제2특징 데이터를 저장하고, 동일한 제1영상 뿐 아니라 유사한 제2영상에 대해서도 컨텐트를 식별하여 자체적인 서비스 동작이 수행 가능하므로, 완전히 동일한 영상뿐 아니라 유사한 영상도 용이하게 식별 및 그에 따른 서비스가 가능하면서, 전체적인 데이터 용량이 크지 않아 저장 공간이 많이 필요하지 않은 장점이 있다.
본 문서의 다양한 실시예들 및 이에 사용된 용어들은 본 문서에 기재된 기술적 특징들을 특정한 실시예들로 한정하려는 것이 아니며, 해당 실시예의 다양한 변경, 균등물, 또는 대체물을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 또는 관련된 구성요소에 대해서는 유사한 참조 부호가 사용될 수 있다. 아이템에 대응하는 명사의 단수 형은 관련된 문맥상 명백하게 다르게 지시하지 않는 한, 상기 아이템 한 개 또는 복수 개를 포함할 수 있다. 본 문서에서, "A 또는 B", "A 및 B 중 적어도 하나", "A 또는 B 중 적어도 하나", "A, B 또는 C", "A, B 및 C 중 적어도 하나", 및 "A, B, 또는 C 중 적어도 하나"와 같은 문구들 각각은 그 문구들 중 해당하는 문구에 함께 나열된 항목들 중 어느 하나, 또는 그들의 모든 가능한 조합을 포함할 수 있다. "제 1", "제 2", 또는 "첫째" 또는 "둘째"와 같은 용어들은 단순히 해당 구성요소를 다른 해당 구성요소와 구분하기 위해 사용될 수 있으며, 해당 구성요소들을 다른 측면(예: 중요성 또는 순서)에서 한정하지 않는다. 어떤(예: 제 1) 구성요소가 다른(예: 제 2) 구성요소에, "기능적으로" 또는 "통신적으로"라는 용어와 함께 또는 이런 용어 없이, "커플드" 또는 "커넥티드"라고 언급된 경우, 그것은 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로(예: 유선으로), 무선으로, 또는 제 3 구성요소를 통하여 연결될 수 있다는 것을 의미한다.
본 문서의 다양한 실시예들에서 사용된 용어 "모듈"은 하드웨어, 소프트웨어 또는 펌웨어로 구현된 유닛을 포함할 수 있으며, 예를 들면, 로직, 논리 블록, 부품, 또는 회로와 같은 용어와 상호 호환적으로 사용될 수 있다. 모듈은, 일체로 구성된 부품 또는 하나 또는 그 이상의 기능을 수행하는, 상기 부품의 최소 단위 또는 그 일부가 될 수 있다. 예를 들면, 일 실시예에 따르면, 모듈은 ASIC(application-specific integrated circuit)의 형태로 구현될 수 있다.
본 문서의 다양한 실시예들은 기기(machine)(예: 전자장치(10)) 의해 읽을 수 있는 저장 매체(storage medium)(예: 내장 메모리 또는 외장 메모리)에 저장된 하나 이상의 명령어들을 포함하는 소프트웨어(예: 프로그램)로서 구현될 수 있다. 예를 들면, 기기(예: 전자장치(10))의 프로세서(예: 프로세서(150))는, 저장 매체로부터 저장된 하나 이상의 명령어들 중 적어도 하나의 명령을 호출하고, 그것을 실행할 수 있다. 이것은 기기가 상기 호출된 적어도 하나의 명령어에 따라 적어도 하나의 기능을 수행하도록 운영되는 것을 가능하게 한다. 상기 하나 이상의 명령어들은 컴파일러에 의해 생성된 코드 또는 인터프리터에 의해 실행될 수 있는 코드를 포함할 수 있다. 기기로 읽을 수 있는 저장 매체는, 비일시적(non-transitory) 저장 매체의 형태로 제공될 수 있다. 여기서, ‘비일시적’은 저장 매체가 실재(tangible)하는 장치이고, 신호(signal)(예: 전자기파)를 포함하지 않는다는 것을 의미할 뿐이며, 이 용어는 데이터가 저장 매체에 반영구적으로 저장되는 경우와 임시적으로 저장되는 경우를 구분하지 않는다.
일 실시예에 따르면, 본 문서에 개시된 다양한 실시예들에 따른 방법은 컴퓨터 프로그램 제품(computer program product)에 포함되어 제공될 수 있다. 컴퓨터 프로그램 제품은 상품으로서 판매자 및 구매자 간에 거래될 수 있다. 컴퓨터 프로그램 제품은 기기로 읽을 수 있는 저장 매체(예: compact disc read only memory(CD-ROM))의 형태로 배포되거나, 또는 어플리케이션 스토어(예: 플레이 스토어TM)를 통해 또는 두 개의 사용자 장치들(예: 스마트 폰들) 간에 직접, 온라인으로 배포(예: 다운로드 또는 업로드)될 수 있다. 온라인 배포의 경우에, 컴퓨터 프로그램 제품의 적어도 일부는 제조사의 서버, 어플리케이션 스토어의 서버, 또는 중계 서버의 메모리와 같은 기기로 읽을 수 있는 저장 매체에 적어도 일시 저장되거나, 임시적으로 생성될 수 있다.
다양한 실시예들에 따르면, 상기 기술한 구성요소들의 각각의 구성요소(예: 모듈 또는 프로그램)는 단수 또는 복수의 개체를 포함할 수 있으며, 복수의 개체 중 일부는 다른 구성요소에 분리 배치될 수도 있다. 다양한 실시예들에 따르면, 전술한 해당 구성요소들 중 하나 이상의 구성요소들 또는 동작들이 생략되거나, 또는 하나 이상의 다른 구성요소들 또는 동작들이 추가될 수 있다. 대체적으로 또는 추가적으로, 복수의 구성요소들(예: 모듈 또는 프로그램)은 하나의 구성요소로 통합될 수 있다. 이런 경우, 통합된 구성요소는 상기 복수의 구성요소들 각각의 구성요소의 하나 이상의 기능들을 상기 통합 이전에 상기 복수의 구성요소들 중 해당 구성요소에 의해 수행되는 것과 동일 또는 유사하게 수행할 수 있다. 다양한 실시예들에 따르면, 모듈, 프로그램 또는 다른 구성요소에 의해 수행되는 동작들은 순차적으로, 병렬적으로, 반복적으로, 또는 휴리스틱하게 실행되거나, 상기 동작들 중 하나 이상이 다른 순서로 실행되거나, 생략되거나, 또는 하나 이상의 다른 동작들이 추가될 수 있다.
이상, 바람직한 실시예들을 통하여 본 발명에 관하여 상세히 설명하였으나, 본 발명은 이에 한정되는 것은 아니며 특허청구범위 내에서 다양하게 실시될 수 있다.
10 : 전자장치
110 : 디스플레이
120 : 인터페이스부
130 : 사용자입력부
140 : 저장부
150 : 프로세서
20 : 서버
21 : 컨텐트 제공서버
22 : ACR 서버
23 : 서비스 서버
110 : 디스플레이
120 : 인터페이스부
130 : 사용자입력부
140 : 저장부
150 : 프로세서
20 : 서버
21 : 컨텐트 제공서버
22 : ACR 서버
23 : 서비스 서버
Claims (20)
- 전자장치에 있어서,
디스플레이;
적어도 하나의 인터페이스부;
저장부; 및
상기 디스플레이에 표시되는 컨텐트의 제1영상을 캡쳐하여 상기 캡쳐된 제1영상의 제1특징 데이터를 획득하고,
상기 획득된 제1특징 데이터를 상기 인터페이스부를 통해 서버에 전송하여, 상기 서버로부터 상기 컨텐트에 대응하는 컨텐트 정보를 수신하고, 상기 수신된 컨텐트 정보에 기초한 동작을 수행하며,
상기 캡쳐된 제1영상으로부터 상기 컨텐트를 식별할 수 있는 정보를 포함하는 제2특징 데이터를 획득하고,
상기 수신된 컨텐트 정보를 상기 획득된 제2특징 데이터와 연관되도록 상기 저장부에 저장하고,
상기 디스플레이를 통해 표시되는 상기 컨텐트의 제2영상을 캡쳐하여 상기 캡쳐된 제2영상이 상기 저장된 제2특징 데이터에 대응하는 것으로 식별됨에 기초하여, 상기 저장된 컨텐트 정보에 기초한 동작을 수행하는 적어도 하나의 프로세서를 포함하는 전자장치. - 제1항에 있어서,
상기 제2특징 데이터는 소정 구간 동안 상기 컨텐트의 영상에 포함되는 오브젝트에 관한 데이터를 포함하는 전자장치. - 제2항에 있어서,
상기 오브젝트는 문자열, 로고 또는 그래픽 중 적어도 하나를 포함하는 전자장치. - 제1항에 있어서,
상기 컨텐트는 제1컨텐트이고,
상기 프로세서는,
상기 디스플레이에 표시되는 제2컨텐트의 캡쳐된 제3영상이 상기 제2특징 데이터에 대응하지 않는 것으로 식별됨에 기초하여, 상기 캡쳐된 제3영상의 제1특징 데이터를 상기 인터페이스부를 통해 상기 서버에 전송하고, 상기 서버로부터 상기 제2컨텐트에 대응하는 컨텐트 정보를 수신하여,
상기 수신된 제2컨텐트에 대응하는 컨텐트 정보에 기초한 동작을 수행하는 전자장치. - 제1항에 있어서,
상기 프로세서는,
상기 캡쳐된 제2영상으로부터 획득된 제2특징 데이터와 상기 저장부에 저장된 제2특징 데이터를 비교하여 상기 제1영상과 제2영상이 서로 동일 또는 유사한 것으로 식별됨에 기초하여, 상기 컨텐트의 제2영상이 상기 저장된 제2특징 데이터에 대응하는 것으로 식별하는 전자장치. - 제5항에 있어서,
상기 프로세서는 이진 검색 기법, 해싱 또는 해밍 거리 중 적어도 하나를 이용하여 상기 제2특징 데이터를 비교하는 전자장치. - 제1항에 있어서,
상기 컨텐트 정보는 상기 컨텐트의 식별 정보, 관련 정보 또는 관련 정보를 제공하는 주소 정보 중 적어도 하나를 포함하는 전자장치. - 제7항에 있어서,
상기 관련 정보는 컨텐트 명칭, 컨텐트의 종류, EPG(Electronic Program Guide) 데이터, 장르 정보, 채널 정보, 공급자 정보, 인물 정보, 물건 정보, 위치 정보, 음악 정보, 광고 정보 중 적어도 하나를 포함하는 전자장치. - 제8항에 있어서,
상기 프로세서는, 상기 인터페이스부를 통해 상기 서버로부터 상기 관련 정보를 주기적으로 수신하여, 상기 저장부에 저장된 컨텐트 정보를 업데이트하는 전자장치. - 제1항에 있어서,
상기 제1특징 데이터는 핑거프린트를 포함하는 전자장치. - 전자장치를 제어하는 방법에 있어서,
디스플레이에 표시되는 컨텐트의 제1영상을 캡쳐하여 상기 캡쳐된 제1영상의 제1특징 데이터를 획득하는 동작;
상기 획득된 제1특징 데이터를 인터페이스부를 통해 서버에 전송하여, 상기 서버로부터 상기 컨텐트에 대응하는 컨텐트 정보를 수신하고, 상기 수신된 컨텐트 정보에 기초한 동작을 수행하는 동작;
상기 캡쳐된 제1영상으로부터 상기 컨텐트를 식별할 수 있는 정보를 포함하는 제2특징 데이터를 획득하는 동작;
상기 수신된 컨텐트 정보를 상기 획득된 제2특징 데이터와 연관되도록 저장부에 저장하는 동작; 및
상기 디스플레이를 통해 표시되는 상기 컨텐트의 제2영상을 캡쳐하여 상기 캡쳐된 제2영상이 상기 저장된 제2특징 데이터에 대응하는 것으로 식별됨에 기초하여, 상기 저장된 컨텐트 정보에 기초한 동작을 수행하는 동작을 포함하는 방법. - 제11항에 있어서,
상기 제2특징 데이터는 소정 구간 동안 상기 컨텐트의 영상에 포함되는 오브젝트에 관한 데이터를 포함하는 방법. - 제12항에 있어서,
상기 오브젝트는 문자열, 로고 또는 그래픽 중 적어도 하나를 포함하는 방법. - 제11항에 있어서,
상기 컨텐트는 제1컨텐트이고,
상기 디스플레이에 표시되는 제2컨텐트의 캡쳐된 제3영상이 상기 제2특징 데이터에 대응하지 않는 것으로 식별됨에 기초하여, 상기 캡쳐된 제3영상의 제1특징 데이터를 상기 인터페이스부를 통해 상기 서버에 전송하고, 상기 서버로부터 상기 제2컨텐트에 대응하는 컨텐트 정보를 수신하는 동작; 및
상기 수신된 제2컨텐트에 대응하는 컨텐트 정보에 기초한 동작을 수행하는 동작을 더 포함하는 방법. - 제11항에 있어서,
상기 캡쳐된 제2영상으로부터 획득된 제2특징 데이터와 상기 저장부에 저장된 제2특징 데이터를 비교하여 상기 제1영상과 제2영상이 서로 동일 또는 유사한 것으로 식별됨에 기초하여, 상기 컨텐트의 제2영상이 상기 저장된 제2특징 데이터에 대응하는 것으로 식별하는 동작을 더 포함하는 방법. - 제15항에 있어서,
이진 검색 기법, 해싱 또는 해밍 거리 중 적어도 하나를 이용하여 상기 제2특징 데이터를 비교하는 동작을 더 포함하는 방법. - 제17항에 있어서,
상기 컨텐트 정보는 상기 컨텐트의 식별 정보, 관련 정보 또는 관련 정보를 제공하는 주소 정보 중 적어도 하나를 포함하는 방법. - 제11항에 있어서,
상기 관련 정보는 컨텐트 명칭, 컨텐트의 종류, EPG(Electronic Program Guide) 데이터, 장르 정보, 채널 정보, 공급자 정보, 인물 정보, 물건 정보, 위치 정보, 음악 정보, 광고 정보 중 적어도 하나를 포함하는 방법. - 제18항에 있어서,
상기 서버로부터 상기 관련 정보를 주기적으로 수신하여, 상기 저장부에 저장된 컨텐트 정보를 업데이트하는 동작을 더 포함하는 방법. - 제11항에 있어서,
상기 제1특징 데이터는 핑거프린트를 포함하는 방법.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210189218A KR20230099841A (ko) | 2021-12-28 | 2021-12-28 | 전자장치 및 그 제어방법 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210189218A KR20230099841A (ko) | 2021-12-28 | 2021-12-28 | 전자장치 및 그 제어방법 |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20230099841A true KR20230099841A (ko) | 2023-07-05 |
Family
ID=87158914
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020210189218A KR20230099841A (ko) | 2021-12-28 | 2021-12-28 | 전자장치 및 그 제어방법 |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20230099841A (ko) |
-
2021
- 2021-12-28 KR KR1020210189218A patent/KR20230099841A/ko unknown
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10945020B2 (en) | Electronic apparatus and method of operating the same | |
US12039693B2 (en) | Apparatus and method of controlling the same | |
US20230333591A1 (en) | Electronic apparatus and method of controlling the same | |
TW202025090A (zh) | 顯示器裝置以及控制其的方法 | |
EP3073749A1 (en) | Display apparatus, server, and operating method thereof | |
US20200219291A1 (en) | Display apparatus, image providing apparatus, and methods of controlling the same | |
US20170026707A1 (en) | Electronic device for providing information associated with broadcast content and method thereof | |
US11314663B2 (en) | Electronic apparatus capable of being connected to multiple external apparatuses having different protocols through a connection port and method of controlling the same | |
US20230179824A1 (en) | Display apparatus and method of controlling the same | |
KR102557379B1 (ko) | 디스플레이장치, 그 제어방법 및 기록매체 | |
KR20210025812A (ko) | 전자장치, 디스플레이장치 및 그 제어방법 | |
US11303958B2 (en) | Display device and image display method of the same | |
US11373659B2 (en) | Display apparatus and method of controlling the same | |
US20230179815A1 (en) | Electronic apparatus, server and method of controlling the same | |
KR20230099841A (ko) | 전자장치 및 그 제어방법 | |
US11688397B2 (en) | Electronic apparatus and method of controlling the same | |
KR102701491B1 (ko) | 전자장치 및 그 제어방법 | |
US20150040158A1 (en) | Receiving device, transmitter and transmitting/receiving system | |
US20240160296A1 (en) | Electronic apparatus and method of controlling the same | |
CN104980784A (zh) | 多媒体装置及其光标控制方法 | |
US12026246B2 (en) | Electronic apparatus and method of controlling the same | |
US20230262191A1 (en) | Display apparatus and control method therefor | |
KR20230046467A (ko) | 전자장치 및 그 제어방법 | |
KR20230025256A (ko) | 전자장치 및 그 제어방법 | |
KR20210073305A (ko) | 전자장치 및 그 제어방법 |