[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

KR101176500B1 - Image display apparatus, and method for operating the same - Google Patents

Image display apparatus, and method for operating the same Download PDF

Info

Publication number
KR101176500B1
KR101176500B1 KR1020100097106A KR20100097106A KR101176500B1 KR 101176500 B1 KR101176500 B1 KR 101176500B1 KR 1020100097106 A KR1020100097106 A KR 1020100097106A KR 20100097106 A KR20100097106 A KR 20100097106A KR 101176500 B1 KR101176500 B1 KR 101176500B1
Authority
KR
South Korea
Prior art keywords
image
depth
area
size
eye image
Prior art date
Application number
KR1020100097106A
Other languages
Korean (ko)
Other versions
KR20120035536A (en
Inventor
이성영
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to KR1020100097106A priority Critical patent/KR101176500B1/en
Publication of KR20120035536A publication Critical patent/KR20120035536A/en
Application granted granted Critical
Publication of KR101176500B1 publication Critical patent/KR101176500B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/139Format conversion, e.g. of frame-rate or size
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/174Segmentation; Edge detection involving the use of two or more images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • G06T2207/10021Stereoscopic video; Stereoscopic image sequence
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2213/00Details of stereoscopic systems
    • H04N2213/005Aspects relating to the "3D+depth" image format

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

본 발명은 영상표시장치 및 그 동작방법에 관한 것이다. 본 발명의 실시예에 따른 영상표시장치의 동작방법은, 33D 영상을 수신하는 단계와, 3D 영상 내의 프론트 깊이를 갖는 영역을 검출하는 단계와, 프론트 깊이를 갖는 영역이 제1 영역 이상인 경우, 프론트 깊이가 작아지도록 가변하는 단계와, 깊이 가변된 3D 영상을 표시하는 단계를 포함한다. 이에 의해, 3D 영상 표시시 사용자의 이용 편의성을 향상시킬 수 있게 된다. The present invention relates to an image display apparatus and an operation method thereof. An operation method of an image display apparatus according to an exemplary embodiment of the present invention includes receiving a 33D image, detecting a region having a front depth in the 3D image, and when the region having a front depth is equal to or greater than the first region, And varying the depth to be smaller, and displaying the 3D image having the variable depth. As a result, it is possible to improve the user's convenience in displaying the 3D image.

Description

영상표시장치 및 그 동작방법{Image display apparatus, and method for operating the same}Image display apparatus, and method for operating the same}

본 발명은 영상표시장치 및 그 동작방법에 관한 것이며, 더욱 상세하게는 3D 영상 표시시 사용자의 이용 편의성을 향상시킬 수 있는 영상표시장치 및 그 동작방법에 관한 것이다.The present invention relates to an image display apparatus and an operation method thereof, and more particularly, to an image display apparatus and an operation method thereof that can improve user convenience in displaying a 3D image.

영상표시장치는 사용자가 시청할 수 있는 영상을 표시하는 기능을 갖춘 장치이다. 사용자는 영상표시장치를 통하여 방송을 시청할 수 있다. 영상표시장치는 방송국에서 송출되는 방송신호 중 사용자가 선택한 방송을 디스플레이에 표시한다. 현재 방송은 전세계적으로 아날로그 방송에서 디지털 방송으로 전환하고 있는 추세이다. The image display device is a device having a function of displaying an image that a user can watch. The user can watch the broadcast through the image display device. A video display device displays a broadcast selected by a user among broadcast signals transmitted from a broadcast station on a display. Currently, broadcasting is shifting from analog broadcasting to digital broadcasting worldwide.

디지털 방송은 디지털 영상 및 음성 신호를 송출하는 방송을 의미한다. 디지털 방송은 아날로그 방송에 비해, 외부 잡음에 강해 데이터 손실이 작으며, 에러 정정에 유리하며, 해상도가 높고, 선명한 화면을 제공한다. 또한, 디지털 방송은 아날로그 방송과 달리 양방향 서비스가 가능하다. Digital broadcasting refers to broadcasting for transmitting digital video and audio signals. Digital broadcasting is more resistant to external noise than analog broadcasting, so it has less data loss, is advantageous for error correction, has a higher resolution, and provides a clearer picture. In addition, unlike analog broadcasting, digital broadcasting is capable of bidirectional services.

본 발명의 목적은, 3D 영상 표시시 사용자의 이용 편의성을 향상시킬 수 있는 영상표시장치 및 그 동작방법을 제공함에 있다.SUMMARY OF THE INVENTION An object of the present invention is to provide an image display apparatus and an operation method thereof that can improve user convenience in displaying a 3D image.

또한, 본 발명의 다른 목적은, 3D 영상 표시시, 깊이 가변을 통해, 사용자가 편안하게 3D 영상을 시청할 있는 영상표시장치 및 그 동작방법을 제공함에 있다.Another object of the present invention is to provide an image display apparatus and a method of operating the same, through which the user can comfortably watch the 3D image when the 3D image is displayed.

상기 목적을 달성하기 위한 본 발명의 실시예에 따른 영상표시장치의 동작방법은, 3D 영상을 수신하는 단계와, 3D 영상 내의 프론트 깊이를 갖는 영역을 검출하는 단계와, 프론트 깊이를 갖는 영역이 제1 영역 이상인 경우, 프론트 깊이가 작아지도록 가변하는 단계와, 깊이 가변된 3D 영상을 표시하는 단계를 포함한다.According to an aspect of the present invention, there is provided a method of operating an image display apparatus, the method including receiving a 3D image, detecting a region having a front depth in the 3D image, and a region having a front depth. In the case of more than one region, the method includes varying the front depth so as to reduce the front depth and displaying the 3D image having the variable depth.

또한, 상기 목적을 달성하기 위한 본 발명의 실시예에 따른 영상표시장치의 동작방법은, 3D 영상을 수신하는 단계와, 3D 영상의 모션을 검출하는 단계와, 3D 영상 내의 프론트 깊이 또는 백 깊이를 갖는 영역을 검출하는 단계와, 3D 영상의 모션 또는 모션 변화량, 프론트 깊이 영역 또는 백 깊이 중 적어도 하나에 기초하여, 3D 영상의 깊이를 가변하는 단계와, 깊이 가변된 3D 영상을 표시하는 단계를 포함한다. In addition, the operation method of the image display device according to an embodiment of the present invention for achieving the above object, receiving a 3D image, detecting the motion of the 3D image, and the front depth or back depth in the 3D image Detecting an area having a variable; varying a depth of the 3D image based on at least one of a motion or motion variation of the 3D image, a front depth area, or a back depth; and displaying a 3D image having a variable depth; do.

또한, 상기 목적을 달성하기 위한 본 발명의 실시예에 따른 영상표시장치는, 영상을 표시하는 디스플레이와, 수신되는 3D 영상 내의 프론트 깊이를 갖는 영역이 제1 영역 이상인 경우, 프론트 깊이가 작아지도록 가변하며, 깊이 가변된 3D 영상을 표시하도록 제어하는 제어부를 포함한다. In addition, the image display apparatus according to an embodiment of the present invention for achieving the above object is variable so that the front depth is smaller when the display for displaying the image and the region having the front depth in the received 3D image is greater than or equal to the first region. And a controller for controlling to display a 3D image having a variable depth.

본 발명의 실시예에 따르면, 3D 영상의 프론트 깊이에 따라, 깊이 가변을 수행함으로서, 사용자가 편안하게 3D 영상을 시청할 수 있게 된다.According to an embodiment of the present invention, the depth can be varied according to the front depth of the 3D image, so that the user can comfortably watch the 3D image.

또한, 3D 영상의 백 깊이에 따라, 깊이 가변을 수행함으로서, 사용자가 편안하게 3D 영상을 시청할 수 있게 된다.In addition, by varying the depth according to the back depth of the 3D image, the user can comfortably watch the 3D image.

또한, 3D 영상의 모션 또는 모션 변화량에 따라, 깊이 가변을 수행함으로서, 사용자가 편안하게 3D 영상을 시청할 수 있게 된다.In addition, by varying the depth according to the motion or the amount of motion change of the 3D image, the user can comfortably watch the 3D image.

결국, 3D 영상 표시시 사용자의 이용 편의성을 향상시킬 수 있게 된다. As a result, it is possible to improve the user's convenience in displaying the 3D image.

도 1은 본 발명의 일 실시예에 따른 영상표시장치의 내부 블록도이다.
도 2a 내지 도 2b는 본 발명의 일실시예에 따른 셋탑 박스와 디스플레이 장치의 내부 블록도이다.
도 3은 도 1의 제어부의 내부 블록도이다.
도 4는 3D 영상의 다양한 포맷을 보여주는 도면이다.
도 5는 도 4의 포맷에 따라 3D 시청장치의 동작을 보여주는 도면이다.
도 6은 본 발명의 실시예에 따른 3D 영상 신호의 다양한 스케일링 방식을 나타낸 도면이다.
도 7은 좌안 영상과 우안 영상에 의해 상이 맺히는 것을 설명하는 도면이다.
도 8은 좌안 영상과 우안 영상의 간격에 따른 3D 영상의 깊이를 설명하는 도면이다.
도 9는 본 발명의 일실시예에 따른 영상표시장치의 동작방법을 보여주는 순서도이다.
도 10a 내지 도 17b는 도 9의 영상표시장치의 동작방법의 다양한 예를 설명하기 위해 참조되는 도면이다.
1 is a block diagram illustrating an image display apparatus according to an exemplary embodiment of the present invention.
2A to 2B are internal block diagrams of a set-top box and a display device according to an embodiment of the present invention.
3 is an internal block diagram of the controller of FIG. 1.
4 is a diagram illustrating various formats of a 3D image.
5 is a diagram illustrating an operation of a 3D viewing apparatus according to the format of FIG. 4.
6 is a diagram illustrating various scaling methods of 3D video signals according to an embodiment of the present invention.
FIG. 7 is a diagram illustrating an image formed by a left eye image and a right eye image.
8 is a diagram illustrating depth of a 3D image according to a distance between a left eye image and a right eye image.
9 is a flowchart illustrating a method of operating an image display apparatus according to an embodiment of the present invention.
10A to 17B are views referred to for describing various examples of an operating method of the image display apparatus of FIG. 9.

이하에서는 도면을 참조하여 본 발명을 보다 상세하게 설명한다. Hereinafter, with reference to the drawings will be described the present invention in more detail.

이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 단순히 본 명세서 작성의 용이함만이 고려되어 부여되는 것으로서, 그 자체로 특별히 중요한 의미 또는 역할을 부여하는 것은 아니다. 따라서, 상기 "모듈" 및 "부"는 서로 혼용되어 사용될 수도 있다.The suffix "module" and " part "for components used in the following description are given merely for convenience of description, and do not give special significance or role in themselves. Accordingly, the terms "module" and "part" may be used interchangeably.

도 1은 본 발명의 일 실시예에 따른 영상표시장치의 내부 블록도이다. 1 is a block diagram illustrating an image display apparatus according to an exemplary embodiment of the present invention.

도 1을 참조하면, 본 발명의 일실시예에 의한 영상표시장치(100)는 튜너부(110), 복조부(120), 외부장치 인터페이스부(130), 네트워크 인터페이스부(135), 저장부(140), 사용자입력 인터페이스부(150), 센서부(미도시), 제어부(170), 디스플레이(180), 오디오 출력부(185), 및 3D 시청장치(195)를 포함할 수 있다.Referring to FIG. 1, the image display apparatus 100 according to an exemplary embodiment of the present invention includes a tuner unit 110, a demodulator 120, an external device interface unit 130, a network interface unit 135, and a storage unit. 140, a user input interface unit 150, a sensor unit (not shown), a controller 170, a display 180, an audio output unit 185, and a 3D viewing device 195.

튜너부(110)는 안테나를 통해 수신되는 RF(Radio Frequency) 방송 신호 중 사용자에 의해 선택된 채널 또는 기저장된 모든 채널에 해당하는 RF 방송 신호를 선택한다. 또한, 선택된 RF 방송 신호를 중간 주파수 신호 혹은 베이스 밴드 영상 또는 음성신호로 변환한다. The tuner unit 110 selects an RF broadcast signal corresponding to a channel selected by a user or all pre-stored channels among RF (Radio Frequency) broadcast signals received through an antenna. Also, the selected RF broadcast signal is converted into an intermediate frequency signal, a baseband image, or a voice signal.

예를 들어, 선택된 RF 방송 신호가 디지털 방송 신호이면 디지털 IF 신호(DIF)로 변환하고, 아날로그 방송 신호이면 아날로그 베이스 밴드 영상 또는 음성 신호(CVBS/SIF)로 변환한다. 즉, 튜너부(110)는 디지털 방송 신호 또는 아날로그 방송 신호를 처리할 수 있다. 튜너부(110)에서 출력되는 아날로그 베이스 밴드 영상 또는 음성 신호(CVBS/SIF)는 제어부(170)로 직접 입력될 수 있다.For example, if the selected RF broadcast signal is a digital broadcast signal, it is converted into a digital IF signal (DIF). If the selected RF broadcast signal is an analog broadcast signal, it is converted into an analog baseband image or voice signal (CVBS / SIF). That is, the tuner 110 may process a digital broadcast signal or an analog broadcast signal. The analog baseband video or audio signal CVBS / SIF output from the tuner 110 may be directly input to the controller 170.

또한, 튜너부(110)는 ATSC(Advanced Television System Committee) 방식에 따른 단일 캐리어의 RF 방송 신호 또는 DVB(Digital Video Broadcasting) 방식에 따른 복수 캐리어의 RF 방송 신호를 수신할 수 있다. In addition, the tuner unit 110 may receive a single broadcast RF broadcast signal according to an ATSC (Advanced Television System Committee) scheme or a multiple broadcast RF broadcast signal according to a digital video broadcasting (DVB) scheme.

한편, 튜너부(110)는, 본 발명에서 안테나를 통해 수신되는 RF 방송 신호 중 채널 기억 기능을 통하여 저장된 모든 방송 채널의 RF 방송 신호를 순차적으로 선택하여 이를 중간 주파수 신호 혹은 베이스 밴드 영상 또는 음성 신호로 변환할 수 있다. Meanwhile, the tuner unit 110 sequentially selects RF broadcast signals of all broadcast channels stored through a channel memory function among RF broadcast signals received through an antenna in the present invention, and converts them to intermediate frequency signals or baseband video or audio signals. Can be converted to

한편, 튜너부(110)는, 복수 채널의 방송 신호를 수신하기 위해, 복수의 튜너를 구비하는 것이 가능하다. 또는, 복수 채널의 방송 신호를 동시에 수신하는 단일 튜너도 가능하다.On the other hand, the tuner unit 110 may be provided with a plurality of tuners in order to receive broadcast signals of a plurality of channels. Alternatively, a single tuner may be used to receive broadcast signals of multiple channels simultaneously.

복조부(120)는 튜너부(110)에서 변환된 디지털 IF 신호(DIF)를 수신하여 복조 동작을 수행한다. The demodulator 120 receives the digital IF signal DIF converted by the tuner 110 and performs a demodulation operation.

예를 들어, 튜너부(110)에서 출력되는 디지털 IF 신호가 ATSC 방식인 경우, 복조부(120)는 8-VSB(7-Vestigal Side Band) 복조를 수행한다. 또한, 복조부(120)는 채널 복호화를 수행할 수도 있다. 이를 위해 복조부(120)는 트렐리스 디코더(Trellis Decoder), 디인터리버(De-interleaver), 및 리드 솔로먼 디코더(Reed Solomon Decoder) 등을 구비하여, 트렐리스 복호화, 디인터리빙, 및 리드 솔로먼 복호화를 수행할 수 있다.For example, when the digital IF signal output from the tuner unit 110 is an ATSC scheme, the demodulator 120 performs 7-VSB (7-Vestigal Side Band) demodulation. Also, the demodulation unit 120 may perform channel decoding. To this end, the demodulator 120 includes a trellis decoder, a de-interleaver, and a reed solomon decoder to perform trellis decoding, deinterleaving, Solomon decoding can be performed.

예를 들어, 튜너부(110)에서 출력되는 디지털 IF 신호가 DVB 방식인 경우, 복조부(120)는 COFDMA(Coded Orthogonal Frequency Division Modulation) 복조를 수행한다. 또한, 복조부(120)는, 채널 복호화를 수행할 수도 있다. 이를 위해, 복조부(120)는, 컨벌루션 디코더(convolution decoder), 디인터리버, 및 리드-솔로먼 디코더 등을 구비하여, 컨벌루션 복호화, 디인터리빙, 및 리드 솔로먼 복호화를 수행할 수 있다. For example, when the digital IF signal output from the tuner unit 110 is a DVB scheme, the demodulator 120 performs coded orthogonal frequency division modulation (COFDMA) demodulation. Also, the demodulation unit 120 may perform channel decoding. For this, the demodulator 120 may include a convolution decoder, a deinterleaver, and a reed-solomon decoder to perform convolutional decoding, deinterleaving, and reed solomon decoding.

복조부(120)는 복조 및 채널 복호화를 수행한 후 스트림 신호(TS)를 출력할 수 있다. 이때 스트림 신호는 영상 신호, 음성 신호 또는 데이터 신호가 다중화된 신호일 수 있다. 일예로, 스트림 신호는 MPEG-2 규격의 영상 신호, 돌비(Dolby) AC-3 규격의 음성 신호 등이 다중화된 MPEG-2 TS(Transport Stream)일수 있다. 구체적으로 MPEG-2 TS는, 4 바이트(byte)의 헤더와 184 바이트의 페이로드(payload)를 포함할 수 있다.The demodulation unit 120 may perform demodulation and channel decoding, and then output a stream signal TS. In this case, the stream signal may be a signal multiplexed with a video signal, an audio signal, or a data signal. For example, the stream signal may be an MPEG-2 TS (Transport Stream) multiplexed with an MPEG-2 standard video signal, a Dolby AC-3 standard audio signal, or the like. Specifically, the MPEG-2 TS may include a header of 4 bytes and a payload of 184 bytes.

한편, 상술한 복조부(120)는, ATSC 방식과, DVB 방식에 따라 각각 별개로 구비되는 것이 가능하다. 즉, ATSC 복조부와, DVB 복조부로 구비되는 것이 가능하다.On the other hand, the demodulator 120 described above can be provided separately according to the ATSC system and the DVB system. That is, it can be provided as an ATSC demodulation unit and a DVB demodulation unit.

복조부(120)에서 출력한 스트림 신호는 제어부(170)로 입력될 수 있다. 제어부(170)는 역다중화, 영상/음성 신호 처리 등을 수행한 후, 디스플레이(180)에 영상을 출력하고, 오디오 출력부(185)로 음성을 출력한다. The stream signal output from the demodulator 120 may be input to the controller 170. After performing demultiplexing, image / audio signal processing, and the like, the controller 170 outputs an image to the display 180 and outputs audio to the audio output unit 185.

외부장치 인터페이스부(130)는, 접속된 외부 장치(190)와 데이터를 송신 또는 수신할 수 있다. 이를 위해, 외부장치 인터페이스부(130)는, A/V 입출력부(미도시) 또는 무선 통신부(미도시)를 포함할 수 있다. The external device interface unit 130 may transmit or receive data with the connected external device 190. To this end, the external device interface unit 130 may include an A / V input / output unit (not shown) or a wireless communication unit (not shown).

외부장치 인터페이스부(130)는, DVD(Digital Versatile Disk), 블루레이(Blu ray), 게임기기, 카메라, 캠코더, 컴퓨터(노트북) 등과 같은 외부 장치(190)와 유/무선으로 접속될 수 있다. 외부장치 인터페이스부(130)는 접속된 외부 장치(190)를 통하여 외부에서 입력되는 영상, 음성 또는 데이터 신호를 영상표시장치(100)의 제어부(170)로 전달한다. 또한, 제어부(170)에서 처리된 영상, 음성 또는 데이터 신호를 연결된 외부 장치로 출력할 수 있다. 이를 위해, 외부장치 인터페이스부(130)는, A/V 입출력부(미도시) 또는 무선 통신부(미도시)를 포함할 수 있다. The external device interface unit 130 may be connected to the external device 190 such as a digital versatile disk (DVD), a Blu-ray, a game device, a camera, a camcorder, a computer (laptop), or the like by wire or wireless. . The external device interface unit 130 transmits an image, audio, or data signal input from the outside through the connected external device 190 to the controller 170 of the image display apparatus 100. In addition, the controller 170 may output an image, audio, or data signal processed by the controller 170 to a connected external device. To this end, the external device interface unit 130 may include an A / V input / output unit (not shown) or a wireless communication unit (not shown).

A/V 입출력부는, 외부 장치의 영상 및 음성 신호를 영상표시장치(100)로 입력할 수 있도록, USB 단자, CVBS(Composite Video Banking Sync) 단자, 컴포넌트 단자, S-비디오 단자(아날로그), DVI(Digital Visual Interface) 단자, HDMI(High Definition Multimedia Interface) 단자, RGB 단자, D-SUB 단자 등을 포함할 수 있다. The A / V input / output unit includes a USB terminal, a CVBS (Composite Video Banking Sync) terminal, a component terminal, an S-video terminal (analog), and a DVI so that video and audio signals of an external device can be input to the video display device 100. (Digital Visual Interface) terminal, HDMI (High Definition Multimedia Interface) terminal, RGB terminal, D-SUB terminal and the like.

무선 통신부는, 다른 전자기기와 근거리 무선 통신을 수행할 수 있다. 영상표시장치(100)는 블루투스(Bluetooth), RFID(Radio Frequency Identification), 적외선 통신(IrDA, infrared Data Association), UWB(Ultra Wideband), 지그비(ZigBee), DLNA(Digital Living Network Alliance) 등의 통신 규격에 따라 다른 전자기기와 네트워크 연결될 수 있다. The wireless communication unit can perform short-range wireless communication with other electronic devices. The image display apparatus 100 may communicate with Bluetooth, Radio Frequency Identification (RFID), Infrared Data Association (IrDA), Ultra Wideband (UWB), ZigBee, and Digital Living Network Alliance (DLNA). Depending on the specification, it can be networked with other electronic devices.

또한, 외부장치 인터페이스부(130)는, 다양한 셋탑 박스와 상술한 각종 단자 중 적어도 하나를 통해 접속되어, 셋탑 박스와 입력/출력 동작을 수행할 수도 있다. In addition, the external device interface unit 130 may be connected through at least one of the various set top boxes and the various terminals described above to perform input / output operations with the set top box.

한편, 외부장치 인터페이스부(130)는, 3D 시청장치(195)와 데이터를 송수신할 수 있다. The external device interface unit 130 may transmit / receive data with the 3D viewing device 195.

네트워크 인터페이스부(135)는, 영상표시장치(100)를 인터넷망을 포함하는 유/무선 네트워크와 연결하기 위한 인터페이스를 제공한다. 네트워크 인터페이스부(135)는, 유선 네트워크와의 접속을 위해, 이더넷(Ethernet) 단자 등을 구비할 수 있으며, 무선 네트워크와의 접속을 위해, WLAN(Wireless LAN)(Wi-Fi), Wibro(Wireless broadband), Wimax(World Interoperability for Microwave Access), HSDPA(High Speed Downlink Packet Access) 통신 규격 등이 이용될 수 있다. The network interface unit 135 provides an interface for connecting the image display apparatus 100 to a wired / wireless network including an internet network. The network interface unit 135 may include an Ethernet terminal for connection with a wired network, and for connection with a wireless network, a WLAN (Wi-Fi) or a Wibro (Wireless). Broadband, Wimax (World Interoperability for Microwave Access), High Speed Downlink Packet Access (HSDPA) communication standards, and the like may be used.

네트워크 인터페이스부(135)는, 네트워크를 통해, 인터넷 또는 컨텐츠 제공자 또는 네트워크 운영자가 제공하는 컨텐츠 또는 데이터들을 수신할 수 있다. 즉, 네트워크를 통하여 인터넷, 컨텐츠 제공자 등으로부터 제공되는 영화, 광고, 게임, VOD, 방송 신호 등의 컨텐츠 및 그와 관련된 정보를 수신할 수 있다. 또한, 네트워크 운영자가 제공하는 펌웨어의 업데이트 정보 및 업데이트 파일을 수신할 수 있다. 또한, 인터넷 또는 컨텐츠 제공자 또는 네트워크 운영자에게 데이터들을 송신할 수 있다. The network interface unit 135 may receive content or data provided by the Internet or a content provider or a network operator through a network. That is, it can receive contents and related information such as movies, advertisements, games, VOD, broadcasting signals, etc., provided from the Internet, a content provider, and the like through a network. In addition, the update information and the update file of the firmware provided by the network operator can be received. It may also transmit data to the Internet or content provider or network operator.

또한, 네트워크 인터페이스부(135)는, 예를 들어, IP(internet Protocol) TV와 접속되어, 양방향 통신이 가능하도록, IPTV용 셋탑 박스에서 처리된 영상, 음성 또는 데이터 신호를 수신하여 제어부(170)로 전달할 수 있으며, 제어부(170)에서 처리된 신호들을 IPTV용 셋탑 박스로 전달할 수 있다.In addition, the network interface unit 135 is connected to, for example, an Internet Protocol (IP) TV, and receives the video, audio, or data signals processed in the set-top box for the IPTV to enable bidirectional communication. The signal processed by the controller 170 may be transmitted to the set-top box for the IPTV.

한편, 상술한 IPTV는, 전송네트워크의 종류에 따라 ADSL-TV, VDSL-TV, FTTH-TV 등을 포함하는 의미일 수 있으며, TV over DSL, Video over DSL, TV overIP(TVIP), Broadband TV(BTV) 등을 포함하는 의미일 수 있다. 또한, IPTV는 인터넷 접속이 가능한 인터넷 TV, 풀브라우징 TV를 포함하는 의미일 수도 있다.Meanwhile, the above-described IPTV may mean ADSL-TV, VDSL-TV, FTTH-TV, etc. according to the type of transmission network, and include TV over DSL, Video over DSL, TV overIP (TVIP), and Broadband TV ( BTV) and the like. In addition, IPTV may also mean an Internet TV capable of accessing the Internet, or a full browsing TV.

저장부(140)는, 제어부(170) 내의 각 신호 처리 및 제어를 위한 프로그램이 저장될 수도 있고, 신호 처리된 영상, 음성 또는 데이터 신호를 저장할 수도 있다. The storage 140 may store a program for processing and controlling each signal in the controller 170, or may store a signal-processed video, audio, or data signal.

또한, 저장부(140)는 외부장치 인터페이스부(130)로 입력되는 영상, 음성 또는 데이터 신호의 임시 저장을 위한 기능을 수행할 수도 있다. 또한, 저장부(140)는, 채널 맵 등의 채널 기억 기능을 통하여 소정 방송 채널에 관한 정보를 저장할 수 있다. In addition, the storage unit 140 may perform a function for temporarily storing an image, audio, or data signal input to the external device interface unit 130. In addition, the storage 140 may store information on a predetermined broadcast channel through a channel storage function such as a channel map.

저장부(140)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램, 롬(EEPROM 등) 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. 영상표시장치(100)는, 저장부(140) 내에 저장되어 있는 파일(동영상 파일, 정지영상 파일, 음악 파일, 문서 파일 등)을 재생하여 사용자에게 제공할 수 있다.The storage unit 140 may include a flash memory type, a hard disk type, a multimedia card micro type, a card type memory (for example, SD or XD memory), It may include at least one type of storage medium such as RAM, ROM (EEPROM, etc.). The image display apparatus 100 may reproduce and provide a file (video file, still image file, music file, document file, etc.) stored in the storage 140 to a user.

도 1은 저장부(140)가 제어부(170)와 별도로 구비된 실시예를 도시하고 있으나, 본 발명의 범위는 이에 한정되지 않는다. 저장부(140)는 제어부(170) 내에 포함될 수 있다. 1 illustrates an embodiment in which the storage unit 140 is provided separately from the control unit 170, but the scope of the present invention is not limited thereto. The storage 140 may be included in the controller 170.

사용자입력 인터페이스부(150)는, 사용자가 입력한 신호를 제어부(170)로 전달하거나, 제어부(170)로부터의 신호를 사용자에게 전달한다. The user input interface unit 150 transmits a signal input by the user to the control unit 170 or a signal from the control unit 170 to the user.

예를 들어, 사용자입력 인터페이스부(150)는, RF(Radio Frequency) 통신 방식, 적외선(IR) 통신 방식 등 다양한 통신 방식에 따라, 원격제어장치(200)로부터 전원 온/오프, 채널 선택, 화면 설정 등의 사용자 입력 신호를 수신하거나, 제어부(170)로부터의 신호를 원격제어장치(200)로 송신할 수 있다. For example, the user input interface unit 150 may be powered on / off, channel selection, and screen from the remote controller 200 according to various communication methods such as a radio frequency (RF) communication method and an infrared (IR) communication method. A user input signal such as a setting may be received, or a signal from the controller 170 may be transmitted to the remote controller 200.

또한, 예를 들어, 사용자입력 인터페이스부(150)는, 전원키, 채널키, 볼륨키, 설정치 등의 로컬키(미도시)에서 입력되는 사용자 입력 신호를 제어부(170)에 전달할 수 있다.In addition, for example, the user input interface unit 150 may transmit a user input signal input from a local key (not shown) such as a power key, a channel key, a volume key, and a set value to the controller 170.

센서부(미도시)는, 사용자의 위치 또는 사용자의 제스처, 터치 또는 3D 시청장치(195)의 위치를 감지할 수 있다. 이를 위해, 센서부(미도시)는, 터치 센서, 음성 센서, 위치 센서, 동작 센서, 자이로 센서 등을 포함할 수 있다. The sensor unit (not shown) may detect the location of the user or the location of the user's gesture, touch, or 3D viewing device 195. To this end, the sensor unit (not shown) may include a touch sensor, a voice sensor, a position sensor, an operation sensor, a gyro sensor, and the like.

감지된 사용자의 위치, 사용자의 제스처, 터치 또는 3D 시청장치(195)의 위치 신호는 제어부(170)에 입력될 수 있다. 또는, 도면과 달리, 사용자입력 인터페이스부(150)를 통해, 제어부(170)에 입력될 수도 있다.The detected user's location, user's gesture, touch, or location signal of the 3D viewing device 195 may be input to the controller 170. Alternatively, unlike the drawing, it may be input to the controller 170 through the user input interface unit 150.

제어부(170)는, 튜너부(110) 또는 복조부(120) 또는 외부장치 인터페이스부(130)를 통하여, 입력되는 스트림을 역다중화하거나, 역다중화된 신호들을 처리하여, 영상 또는 음성 출력을 위한 신호를 생성 및 출력할 수 있다. The controller 170 may demultiplex the input stream or process the demultiplexed signals through the tuner unit 110, the demodulator 120, or the external device interface unit 130. Signals can be generated and output.

제어부(170)에서 영상 처리된 영상 신호는 디스플레이(180)로 입력되어, 해당 영상 신호에 대응하는 영상으로 표시될 수 있다. 또한, 제어부(170)에서 영상 처리된 영상 신호는 외부장치 인터페이스부(130)를 통하여 외부 출력장치로 입력될 수 있다. The image signal processed by the controller 170 may be input to the display 180 and displayed as an image corresponding to the image signal. In addition, the image signal processed by the controller 170 may be input to the external output device through the external device interface unit 130.

제어부(170)에서 처리된 음성 신호는 오디오 출력부(185)로 음향 출력될 수 있다. 또한, 제어부(170)에서 처리된 음성 신호는 외부장치 인터페이스부(130)를 통하여 외부 출력장치로 입력될 수 있다. The voice signal processed by the controller 170 may be sound output to the audio output unit 185. In addition, the voice signal processed by the controller 170 may be input to the external output device through the external device interface unit 130.

도 1에는 도시되어 있지 않으나, 제어부(170)는 역다중화부, 영상처리부 등을 포함할 수 있다. 이에 대해서는 도 3을 참조하여 후술한다.Although not shown in FIG. 1, the controller 170 may include a demultiplexer, an image processor, and the like. This will be described later with reference to FIG. 3.

그 외, 제어부(170)는, 영상표시장치(100) 내의 전반적인 동작을 제어할 수 있다. 예를 들어, 제어부(170)는 튜너부(110)를 제어하여, 사용자가 선택한 채널 또는 기저장된 채널에 해당하는 RF 방송을 선택(Tuning)하도록 제어할 수 있다. In addition, the controller 170 may control overall operations of the image display apparatus 100. For example, the controller 170 may control the tuner 110 to control the tuner 110 to select an RF broadcast corresponding to a channel selected by a user or a pre-stored channel.

또한, 제어부(170)는 사용자입력 인터페이스부(150)를 통하여 입력된 사용자 명령 또는 내부 프로그램에 의하여 영상표시장치(100)를 제어할 수 있다. In addition, the controller 170 may control the image display apparatus 100 by a user command or an internal program input through the user input interface unit 150.

예를 들어, 제어부(170)는, 사용자입력 인터페이스부(150)를 통하여 수신한 소정 채널 선택 명령에 따라 선택한 채널의 신호가 입력되도록 튜너부(110)를 제어한다. 그리고, 선택한 채널의 영상, 음성 또는 데이터 신호를 처리한다. 제어부(170)는, 사용자가 선택한 채널 정보 등이 처리한 영상 또는 음성신호와 함께 디스플레이(180) 또는 오디오 출력부(185)를 통하여 출력될 수 있도록 한다. For example, the controller 170 controls the tuner 110 to input a signal of a channel selected according to a predetermined channel selection command received through the user input interface 150. Then, video, audio, or data signals of the selected channel are processed. The controller 170 may output the channel information selected by the user together with the processed video or audio signal through the display 180 or the audio output unit 185.

다른 예로, 제어부(170)는, 사용자입력 인터페이스부(150)를 통하여 수신한 외부장치 영상 재생 명령에 따라, 외부장치 인터페이스부(130)를 통하여 입력되는 외부 장치(190), 예를 들어, 카메라 또는 캠코더로부터의 영상 신호 또는 음성 신호가 디스플레이(180) 또는 오디오 출력부(185)를 통해 출력될 수 있도록 한다. As another example, the controller 170 may output an external device 190, eg, a camera, input through the external device interface unit 130 according to an external device image playback command received through the user input interface unit 150. Alternatively, the video signal or the audio signal from the camcorder may be output through the display 180 or the audio output unit 185.

한편, 제어부(170)는, 영상을 표시하도록 디스플레이(180)를 제어할 수 있다. 예를 들어, 튜너부(110)를 통해 입력되는 방송 영상, 외부장치 인터페이스부(130)를 통해 입력되는 외부 입력 영상 또는 네트워크 인터페이스부(135)를 통해 입력되는 영상 또는 저장부(140)에 저장된 영상을 디스플레이(180)에 표시하도록 제어할 수 있다. The controller 170 may control the display 180 to display an image. For example, the broadcast image input through the tuner unit 110, the external input image input through the external device interface unit 130, or the image input through the network interface unit 135 or stored in the storage unit 140. The image may be controlled to be displayed on the display 180.

이때, 디스플레이(180)에 표시되는 영상은, 정지 영상 또는 동영상일 수 있으며, 2D 영상 또는 3D 영상일 수 있다.In this case, the image displayed on the display 180 may be a still image or a video, and may be a 2D image or a 3D image.

한편, 제어부(170)는 디스플레이(180)에 표시되는 영상 중에, 소정 오브젝트에 대해 3D 오브젝트로 생성하여 표시되도록 한다. 예를 들어, 오브젝트는, 접속된 웹 화면(신문, 잡지 등), EPG(Electronic Program Guide), 다양한 메뉴, 위젯, 아이콘, 정지 영상, 동영상, 텍스트 중 적어도 하나일 수 있다. Meanwhile, the controller 170 may generate and display a 3D object with respect to a predetermined object in the image displayed on the display 180. For example, the object may be at least one of a connected web screen (newspaper, magazine, etc.), an EPG (Electronic Program Guide), various menus, widgets, icons, still images, videos, and text.

이러한 3D 오브젝트는, 디스플레이(180)에 표시되는 영상과 다른 깊이를 가지도록 처리될 수 있다. 바람직하게는 3D 오브젝트가 디스플레이(180)에 표시되는 영상에 비해 돌출되어 보이도록 처리될 수 있다. Such a 3D object may be processed to have a different depth than the image displayed on the display 180. [ Preferably, the 3D object may be processed to appear protruding from the image displayed on the display 180.

한편, 제어부(170)는, 촬영부(미도시)로부터 촬영된 영상에 기초하여, 사용자의 위치를 인식한다. 예를 들어, 사용자와 영상표시장치(100)간의 거리(z축 좌표)를 파악할 수 있다. 그 외, 사용자 위치에 대응하는 디스플레이(180) 내의 x축 좌표, 및 y축 좌표를 파악할 수 있다.The controller 170 recognizes a user's position based on an image photographed by a photographing unit (not shown). For example, the distance (z-axis coordinate) between the user and the image display apparatus 100 may be determined. In addition, the x-axis coordinates and the y-axis coordinates in the display 180 corresponding to the user position may be determined.

한편, 제어부(170)는, 시청 장치에 따라, 해당하는 영상의 시청이 가능하도록 신호 처리를 수행할 수 있다. Meanwhile, the controller 170 may perform signal processing to enable viewing of a corresponding video according to the viewing device.

예를 들어, 센서부(미도시) 또는 촬영부(미도시)에서 시청 장치(195)의 존재, 동작 여부, 또는 개수를 감지하는 경우, 제어부(170)는, 시청 장치(195)와의 페어링을 위한 신호 처리를 수행할 수 있다. 즉, 페어링 신호를 시청 장치(195)로 출력하도록 제어하며, 시청 장치(195)로부터 응답 신호를 수신하도록 제어할 수 있다.For example, when the sensor unit (not shown) or the photographing unit (not shown) detects the presence, operation, or number of the viewing device 195, the controller 170 performs pairing with the viewing device 195. Signal processing can be performed. That is, the display device 195 may control to output the pairing signal to the viewing device 195 and to receive the response signal from the viewing device 195.

한편, 제어부(170)는, 감지되는 시청 장치(195)의 개수에 따라, 방송 영상이 수신되도록 튜너부(110)를 제어할 수 있다. 예를 들어, 감지되는 시청 장치의 개수가 3개인 경우, 복수의 튜너를 구비하는 튜너부(110)를 제어하여, 서로 다른 채널의 방송 영상을 수신하도록 제어할 수 있다. 그리고, 제어부(170)는, 각 시청 장치에 동기시켜, 서로 다른 시간에, 각각의 방송 영상을 표시하도록 제어할 수 있다.The controller 170 may control the tuner 110 to receive a broadcast image according to the number of detected viewing devices 195. For example, if the number of detected viewing devices is three, the tuner 110 including the plurality of tuners may be controlled to receive broadcast images of different channels. In addition, the controller 170 may control to display each broadcast video at different times in synchronization with each viewing device.

한편, 제어부(170)는, 감지되는 시청 장치의 개수에 따라, 입력되는 외부 입력 영상을 수신하는 것도 가능하다. 예를 들어, 감지되는 시청 장치의 개수가 3개인 경우, 각각, 방송 영상, DVD 등의 광학 장치로부터의 외부 입력 영상, PC 로부터의 외부 입력 영상을 수신하도록 제어할 수 있다. 그리고, 제어부(170)는, 각 시청 장치에 동기시켜, 서로 다른 시간에, 각각의 영상(방송 영상, DVD 영상, PC 영상)을 표시하도록 제어할 수 있다.The controller 170 may also receive an input external input image according to the number of detected viewing devices. For example, when the number of detected viewing apparatuses is three, each of the plurality of viewing apparatuses may be controlled to receive an external input image from an optical device such as a broadcast image or a DVD and an external input image from a PC. In addition, the controller 170 may control to display each video (broadcast video, DVD video, PC video) at different times in synchronization with each viewing device.

한편, 제어부(170)는, 영상 표시 중, 감지되는 시청 장치의 개수가 증가할때 마다, 표시되는 영상의 수직 동기 주파수(Vsync)를 증가시켜, 해당 영상들이 표시되도록 제어할 수 있다. 예를 들어, 1/60초 동안, 제1 영상과 제2 영상이 각각 제1 시청 장치와 제2 3D 시청장치에 동기되어 표시되다가, 제3 시청 장치가 사용되는 경우, 1/60초 동안, 제1 영상 내지 제3 영상을 각각 제1 시청 장치 내지 제3 시청 장치에 동기되어 표시되도록 제어할 수 있다. 즉, 수직 동기 주파수를 120Hz로 하여, 제1 영상과 제2 영상을 표시하다가, 수직 동기 주파수를 180HZ로 하여, 제1 영상 내지 제3 영상을 표시하도록 제어할 수 있다.Meanwhile, the controller 170 may increase the vertical synchronization frequency Vsync of the displayed image and control the corresponding images to be displayed whenever the number of the viewing apparatuses detected during image display increases. For example, for 1/60 seconds, the first image and the second image are displayed in synchronization with the first viewing device and the second 3D viewing device, respectively, and when the third viewing device is used, for 1/60 seconds, The first to third images may be controlled to be displayed in synchronization with the first to third viewing devices, respectively. That is, the first image and the second image may be displayed at 120 Hz, and the first to third images may be displayed at 180 HZ.

한편, 제어부(170)는, 각 시청 장치 별로, 시청 가능한 영상 검색 대상, 예를 들어 방송 영상의 채널 검색 대상을 달리하여, 설정할 수 있다. 예를 들어, 어른과 아이 등 연령 별로, 채널 검색 대상을 달리 설정하여, 채널 검색시, 검색 대상을 달리할 수 있다. 그외, 취향별, 성별, 최근 시청 채널별, 또는 프로그램 등급별로 구분하여 제공하는 것도 가능하다.On the other hand, the control unit 170 may set different viewing targets, for example, channel searching targets of broadcast images, for each viewing apparatus. For example, a channel search target may be set differently for each age such as an adult and a child, and the search target may be different when the channel is searched. In addition, it is also possible to provide by classification by taste, gender, recent viewing channel, or program grade.

한편, 제어부(170)는, 제1 시청 장치와 제2 시청 장치에서 서로 동일한 영상을 선택하는 경우, 중복임을 나타내는 메시지를 통지하도록 제어할 수 있다. 이러한 메시지는, 디스플레이(180) 상에 오브젝트 형태로 표시되던가, 또는 각 시청 장치에, 무선 신호로서 전송될 수 있다.On the other hand, when the first viewing device and the second viewing device select the same image from each other, the controller 170 may control to notify a message indicating that it is a duplicate. Such a message may be displayed in the form of an object on the display 180 or may be transmitted as a wireless signal to each viewing device.

한편, 도면에 도시하지 않았지만, 채널 신호 또는 외부 입력 신호에 대응하는 썸네일 영상을 생성하는 채널 브라우징 처리부가 더 구비되는 것도 가능하다. 채널 브라우징 처리부는, 복조부(120)에서 출력한 스트림 신호(TS) 또는 외부장치 인터페이스부(130)에서 출력한 스트림 신호 등을 입력받아, 입력되는 스트림 신호로부터 영상을 추출하여 썸네일 영상을 생성할 수 있다. 생성된 썸네일 영상은 그대로 또는 부호화되어 제어부(170)로 입력될 수 있다. 또한, 생성된 썸네일 영상은 스트림 형태로 부호화되어 제어부(170)로 입력되는 것도 가능하다. 제어부(170)는 입력된 썸네일 영상을 이용하여 복수의 썸네일 영상을 구비하는 썸네일 리스트를 디스플레이(180)에 표시할 수 있다. 이때의 썸네일 리스트는, 디스플레이(180)에 소정 영상을 표시한 상태에서 일부 영역에 표시되는 간편 보기 방식으로 표시되거나, 디스플레이(180)의 대부분 영역에 표시되는 전체 보기 방식으로 표시될 수 있다. 이러한 썸네일 리스트 내의 썸네일 영상은 순차적으로 업데이트 될 수 있다. On the other hand, although not shown in the figure, it may be further provided with a channel browsing processing unit for generating a thumbnail image corresponding to the channel signal or the external input signal. The channel browsing processor may receive a stream signal TS output from the demodulator 120 or a stream signal output from the external device interface 130, extract a video from the input stream signal, and generate a thumbnail image. Can be. The generated thumbnail image may be input as it is or encoded to the controller 170. In addition, the generated thumbnail image may be encoded in a stream form and input to the controller 170. The controller 170 may display a thumbnail list including a plurality of thumbnail images on the display 180 by using the input thumbnail image. In this case, the thumbnail list may be displayed in a simple viewing manner displayed in a partial region while a predetermined image is displayed on the display 180 or in an overall viewing manner displayed in most regions of the display 180. The thumbnail images in the thumbnail list may be updated sequentially.

디스플레이(180)는, 제어부(170)에서 처리된 영상 신호, 데이터 신호, OSD 신호, 제어 신호 또는 외부장치 인터페이스부(130)에서 수신되는 영상 신호, 데이터 신호, 제어 신호 등을 변환하여 구동 신호를 생성한다. The display 180 converts an image signal, a data signal, an OSD signal, a control signal, or an image signal, a data signal, a control signal received from the external device interface unit 130 processed by the controller 170, and generates a driving signal. Create

디스플레이(180)는 PDP, LCD, OLED, 플렉시블 디스플레이(flexible display)등이 가능하며, 또한, 3차원 디스플레이(3D display)가 가능할 수도 있다. 이러한, 3차원 영상 시청을 위해, 디스플레이(180)는, 추가 디스플레이 방식과 단독 디스플레이 방식으로 나뉠 수 있다.The display 180 may be a PDP, an LCD, an OLED, a flexible display, or a 3D display. In order to view the 3D image, the display 180 may be divided into an additional display method and a single display method.

단독 디스플레이 방식은, 별도의 추가 디스플레이, 예를 들어 안경(glass) 등이 없이, 디스플레이(180) 단독으로 3D 영상을 구현할 수 있는 것으로서, 그 예로, 렌티큘라 방식, 파라랙스 베리어(parallax barrier) 등 다양한 방식이 적용될 수 있다. The independent display method may implement a 3D image by the display 180 alone without additional display, for example, glasses, and the like, for example, a lenticular method, a parallax barrier, or the like. Various methods can be applied.

한편, 추가 디스플레이 방식은, 디스플레이(180) 외에 3D 시청장치(195)로서 추가 디스플레이를 사용하여, 3D 영상을 구현할 수 있는 것으로서, 그 예로, 헤드 마운트 디스플레이(HMD) 타입, 안경 타입 등 다양한 방식이 적용될 수 있다. Meanwhile, the additional display method may implement 3D images by using the additional display as the 3D viewing apparatus 195 in addition to the display 180. For example, various methods such as a head mounted display (HMD) type and glasses type may be used. Can be applied.

한편, 안경 타입은, 편광 안경 타입 등의 패시브(passive) 방식과, 셔터 글래스(ShutterGlass) 타입 등의 액티브(active) 방식으로 다시 나뉠 수 있다. 그리고, 헤드 마운트 디스플레이 타입에서도 패시브 방식과 액티브 방식으로 나뉠 수 있다.On the other hand, the spectacle type may be divided into a passive system such as a polarized glasses type and an active system such as a shutter glass type. In addition, the head mounted display can be divided into a passive type and an active type.

한편, 3D 시청장치(195)는, 입체 영상 시청이 가능한 3D용 글래스일 수도 있다. 3D용 글래스(195)는, 패시브 방식의 편광 글래스 또는 액티브 방식의 셔터 글래스를 포함할 수 있으며, 상술한 헤드 마운트 타입도 포함하는 개념으로 기술된다. The 3D viewing apparatus 195 may be 3D glasses capable of viewing stereoscopic images. The 3D glass 195 may include a passive polarized glass or an active shutter glass, and is described with the concept of including the aforementioned head mount type.

한편, 디스플레이(180)는, 터치 스크린으로 구성되어 출력 장치 이외에 입력 장치로 사용되는 것도 가능하다.The display 180 may be configured as a touch screen and used as an input device in addition to the output device.

오디오 출력부(185)는, 제어부(170)에서 음성 처리된 신호, 예를 들어, 스테레오 신호, 3.1 채널 신호 또는 5.1 채널 신호를 입력 받아 음성으로 출력한다. 음성 출력부(185)는 다양한 형태의 스피커로 구현될 수 있다.The audio output unit 185 receives a signal processed by the controller 170, for example, a stereo signal, a 3.1 channel signal, or a 5.1 channel signal, and outputs a voice signal. The voice output unit 185 may be implemented by various types of speakers.

촬영부(미도시)는 사용자를 촬영한다. 촬영부(미도시)는 1 개의 카메라로 구현되는 것이 가능하나, 이에 한정되지 않으며, 복수 개의 카메라로 구현되는 것도 가능하다. 한편, 촬영부(미도시)는 디스플레이(180) 상부에 배치될 수 있다. 촬영부(미도시)에서 촬영된 영상 정보는 제어부(170)에 입력된다. The photographing unit (not shown) photographs the user. The photographing unit (not shown) may be implemented by one camera, but is not limited thereto and may be implemented by a plurality of cameras. Meanwhile, the photographing unit (not shown) may be disposed above the display 180. The image information photographed by the photographing unit (not shown) is input to the controller 170.

제어부(170)는, 촬영부(미도시)로부터 촬영된 영상, 또는 센서부(미도시)로부터의 감지된 신호를 각각 또는 조합하여 사용자의 제스처를 감지할 수 있다. The controller 170 may detect a user's gesture by combining or combining an image captured by a photographing unit (not shown) or a detected signal from a sensor unit (not shown).

원격제어장치(200)는, 사용자 입력을 사용자입력 인터페이스부(150)로 송신한다. 이를 위해, 원격제어장치(200)는, 블루투스(Bluetooth), RF(Radio Frequency) 통신, 적외선(IR) 통신, UWB(Ultra Wideband), 지그비(ZigBee) 방식 등을 사용할 수 있다. 또한, 원격제어장치(200)는, 사용자입력 인터페이스부(150)에서 출력한 영상, 음성 또는 데이터 신호 등을 수신하여, 이를 원격제어장치(200)에서 표시하거나 음성 출력할 수 있다.The remote control apparatus 200 transmits the user input to the user input interface unit 150. To this end, the remote control apparatus 200 can use Bluetooth, RF (radio frequency) communication, infrared (IR) communication, UWB (Ultra Wideband), ZigBee, or the like. In addition, the remote control apparatus 200 may receive an image, an audio or a data signal output from the user input interface unit 150, and display or output the audio from the remote control apparatus 200.

상술한 영상표시장치(100)는, 고정형으로서 ATSC 방식(8-VSB 방식)의 디지털 방송, DVB-T 방식(COFDM 방식)의 디지털 방송, ISDB-T 방식(BST-OFDM방식)의 디지털 방송 등 중 적어도 하나를 수신 가능한 디지털 방송 수신기일 수 있다. 또한, 이동형으로서 지상파 DMB 방식의 디지털 방송, 위성 DMB 방식의 디지털 방송, ATSC-M/H 방식의 디지털 방송, DVB-H 방식(COFDM 방식)의 디지털 방송, 미디어플로(Media Foward Link Only) 방식의 디지털 방송 등 중 적어도 하나를 수신 가능한 디지털 방송 수신기일 수 있다. 또한, 케이블, 위성통신, IPTV 용 디지털 방송 수신기일 수도 있다.The video display device 100 described above is a fixed type of ATSC (8-VSB) digital broadcasting, DVB-T (COFDM) digital broadcasting, ISDB-T (BST-OFDM) digital broadcasting, and the like. It may be a digital broadcast receiver capable of receiving at least one. In addition, as a mobile type, digital broadcasting of terrestrial DMB system, digital broadcasting of satellite DMB system, digital broadcasting of ATSC-M / H system, digital broadcasting of DVB-H system (COFDM system) and media flow link only system It may be a digital broadcast receiver capable of receiving at least one of digital broadcasts. It may also be a digital broadcast receiver for cable, satellite communications, or IPTV.

한편, 본 명세서에서 기술되는 영상표시장치는, TV 수상기, 프로젝터(probjector), 휴대폰, 스마트 폰(smart phone), 노트북 컴퓨터(notebook computer), 디지털 방송용 단말기, PDA(Personal Digital Assistants), PMP(Portable Multimedia Player) 등이 포함될 수 있다.On the other hand, the image display device described in the present specification, a TV receiver, a projector (probjector), a mobile phone, a smart phone (smart phone), a notebook computer (notebook computer), digital broadcasting terminal, PDA (Personal Digital Assistants), PMP (Portable) Multimedia Player) may be included.

한편, 도 1에 도시된 영상표시장치(100)의 블록도는 본 발명의 일실시예를 위한 블록도이다. 블록도의 각 구성요소는 실제 구현되는 영상표시장치(100)의 사양에 따라 통합, 추가, 또는 생략될 수 있다. 즉, 필요에 따라 2 이상의 구성요소가 하나의 구성요소로 합쳐지거나, 혹은 하나의 구성요소가 2 이상의 구성요소로 세분되어 구성될 수 있다. 또한, 각 블록에서 수행하는 기능은 본 발명의 실시예를 설명하기 위한 것이며, 그 구체적인 동작이나 장치는 본 발명의 권리범위를 제한하지 아니한다.Meanwhile, a block diagram of the image display apparatus 100 shown in FIG. 1 is a block diagram for an embodiment of the present invention. Each component of the block diagram may be integrated, added, or omitted according to the specifications of the image display apparatus 100 that is actually implemented. That is, two or more constituent elements may be combined into one constituent element, or one constituent element may be constituted by two or more constituent elements, if necessary. In addition, the functions performed in each block are intended to illustrate the embodiments of the present invention, and the specific operations and apparatuses do not limit the scope of the present invention.

한편, 영상표시장치(100)는 도 1에 도시된 바와 달리, 도 1의 도시된 튜너부(110)와 복조부(120)를 구비하지 않고, 네트워크 인터페이스부(130) 또는 외부장치 인터페이스부(135)를 통해서, 영상 컨텐츠를 수신하고, 이를 재생할 수도 있다.On the other hand, the image display apparatus 100 does not include the tuner 110 and the demodulator 120 shown in FIG. 1, unlike the illustrated in FIG. 1, but the network interface 130 or the external device interface unit ( Through 135, image content may be received and played back.

한편, 영상표시장치(100)는, 장치 내에 저장된 영상 또는 입력되는 영상의 신호 처리를 수행하는 영상신호 처리장치의 일예이다, 영상신호 처리장치의 다른 예로는, 도 1에서 도시된 디스플레이(180)와 오디오 출력부(185)가 제외된 셋탑 박스, 상술한 DVD 플레이어, 블루레이 플레이어, 게임기기, 컴퓨터 등이 더 예시될 수 있다. 이 중 셋탑 박스에 대해서는 이하의 도 2a 내지 도 2b를 참조하여 기술한다. The image display apparatus 100 is an example of an image signal processing apparatus that performs signal processing of an image stored in an apparatus or an input image. Another example of the image signal processing apparatus is the display 180 illustrated in FIG. 1. And a set top box in which the audio output unit 185 is excluded, the above-described DVD player, Blu-ray player, game device, computer, etc. may be further illustrated. Among these, the set top box will be described with reference to FIGS. 2A to 2B below.

도 2a 내지 도 2b는 본 발명의 일실시예에 따른 셋탑 박스와 디스플레이 장치의 내부 블록도이다.2A to 2B are internal block diagrams of a set-top box and a display device according to an embodiment of the present invention.

먼저, 도 2a를 참조하면, 셋탑 박스(250)와 디스플레이장치(300)는, 유선 또는 무선으로 데이터를 송신 또는 수신할 수 있다. 이하에서는 도 1과의 차이점을 중심으로 기술한다.First, referring to FIG. 2A, the set-top box 250 and the display apparatus 300 may transmit or receive data by wire or wirelessly. Hereinafter, a description will be given focusing on differences from FIG. 1.

셋탑 박스(250)는, 네트워크 인터페이스부(255), 저장부(258), 신호 처리부(260), 사용자입력 인터페이스부(263), 및 외부장치 인터페이스부(265)를 포함할 수 있다.The set top box 250 may include a network interface unit 255, a storage unit 258, a signal processor 260, a user input interface unit 263, and an external device interface unit 265.

네트워크 인터페이스부(255)는, 인터넷망을 포함하는 유/무선 네트워크와 연결하기 위한 인터페이스를 제공한다. 또한, 접속된 네트워크 또는 접속된 네트워크에 링크된 다른 네트워크를 통해, 다른 사용자 또는 다른 전자 기기와 데이터를 송신 또는 수신할 수 있다. The network interface unit 255 provides an interface for connecting to a wired / wireless network including an internet network. It is also possible to transmit or receive data with other users or other electronic devices via the connected network or another network linked to the connected network.

저장부(258)는, 신호 처리부(260) 내의 각 신호 처리 및 제어를 위한 프로그램이 저장될 수도 있고, 외부장치 인터페이스부(265) 또는 네트워크 인터페이스부(255)로부터 입력되는 영상, 음성, 또는 데이터 신호의 임시 저장을 위한 기능을 수행할 수도 있다. The storage unit 258 may store a program for processing and controlling signals in the signal processing unit 260, and may include an image, audio, or data input from the external device interface unit 265 or the network interface unit 255. It may also serve as a temporary storage of the signal.

신호 처리부(260)는, 입력되는 신호의 신호 처리를 수행한다. 예를 들어, 입력되는 영상 신호의 역다중화 또는 복호화 등을 수행하며, 입력되는 음성 신호의 역다중화 또는 복호화를 수행할 수 있다. 이를 위해, 영상 디코더 또는 음성 디코더를 구비할 수 있다. 신호 처리된 영상 신호 또는 음성 신호는, 외부장치 인터페이스부(265)를 통해 디스플레이장치(300)로 전송될 수 있다. The signal processor 260 performs signal processing on the input signal. For example, demultiplexing or decoding of an input video signal may be performed, and demultiplexing or decoding of an input audio signal may be performed. To this end, a video decoder or an audio decoder may be provided. The signal processed video signal or audio signal may be transmitted to the display apparatus 300 through the external device interface unit 265.

사용자입력 인터페이스부(263)는, 사용자가 입력한 신호를 신호 처리부(260)로 전달하거나, 신호 처리부(260)로부터의 신호를 사용자에게 전달한다. 예를 들어, 로컬키(미도시) 또는 원격제어장치(200)를 통해 입력되는, 전원 온/오프, 동작 입력, 설정 입력 등의 다양한 제어 신호를 수신하여 신호 처리부(260)로 전달할 수 있다.The user input interface unit 263 transmits a signal input by the user to the signal processor 260 or transmits a signal from the signal processor 260 to the user. For example, various control signals, such as power on / off, operation input, setting input, etc., which are input through a local key (not shown) or the remote control apparatus 200, may be received and transmitted to the signal processor 260.

외부장치 인터페이스부(265)는, 유선 또는 무선으로 접속되는 외부장치와의 데이터 송신 또는 수신을 위한 인터페이스를 제공한다. 특히, 디스플레이장치(300)와의 데이터 송신 또는 수신을 위한 인터페이스를 제공한다. 그 외 게임기기, 카메라, 캠코더, 컴퓨터(노트북) 등과 같은 외부 장치와의 데이터 송신 또는 수신을 위한 인터페이스를 제공하는 것도 가능하다.The external device interface unit 265 provides an interface for data transmission or reception with an external device connected by wire or wirelessly. In particular, an interface for transmitting or receiving data with the display apparatus 300 is provided. In addition, it is possible to provide an interface for transmitting or receiving data with an external device such as a game device, a camera, a camcorder, a computer (laptop), or the like.

한편, 셋탑 박스(250)는, 별도의 미디어(media) 재생을 위한 미디어 입력부(미도시)를 더 포함할 수 있다. 이러한 미디어 입력부의 예로는, 블루레이 입력부(미도시) 등이 예시될 수 있다. 즉, 셋탑 박스(250)는, 블루레이 플레이어 등을 구비하는 것이 가능하다. 입력되는 블루레이 디스크 등의 미디어는 신호 처리부(260)에서의 역다중화 또는 복호화 등의 신호 처리 이후, 그 표시를 위해, 외부장치 인터페이스부(265)를 통해 디스플레이장치(300)로 전송될 수 있다. The set top box 250 may further include a media input unit (not shown) for reproducing a separate media. An example of such a media input unit may be a Blu-ray input unit (not shown). That is, the set top box 250 can be provided with a Blu-ray player or the like. The input media such as a Blu-ray disc may be transmitted to the display apparatus 300 through the external device interface unit 265 for display after signal processing such as demultiplexing or decoding in the signal processing unit 260. .

디스플레이장치(300)는, 튜너부(270), 외부장치 인터페이스부(273), 복조부(275), 저장부(278), 제어부(280), 사용자입력 인터페이스부(283), 디스플레이(290), 및 오디오 출력부(295)를 포함할 수 있다.The display device 300 includes a tuner unit 270, an external device interface unit 273, a demodulation unit 275, a storage unit 278, a control unit 280, a user input interface unit 283, a display 290, And an audio output unit 295, as shown in FIG.

튜너부(270), 복조부(275), 저장부(278), 제어부(280), 사용자입력 인터페이스부(283), 디스플레이(290), 및 오디오 출력부(295)는, 상술한 도 1에서 기술한 튜너부(110), 복조부(120), 저장부(140), 제어부(170), 사용자입력 인터페이스부(150), 디스플레이(180), 및 오디오 출력부(185)에 대응하므로, 이에 대한 설명을 생략한다. The tuner 270, the demodulator 275, the storage 278, the controller 280, the user input interface 283, the display 290, and the audio output unit 295 are described with reference to FIG. 1. The tuner 110, the demodulator 120, the storage 140, the controller 170, the user input interface 150, the display 180, and the audio output unit 185 are described. Omit the description.

한편, 외부장치 인터페이스부(273)는, 유선 또는 무선으로 접속되는 외부장치와의 데이터 송신 또는 수신을 위한 인터페이스를 제공한다. 특히, 셋탑 박스(250)와의 데이터 송신 또는 수신을 위한 인터페이스를 제공한다. The external device interface unit 273 provides an interface for data transmission or reception with an external device connected by wire or wirelessly. In particular, it provides an interface for transmitting or receiving data with the set-top box 250.

이에 따라, 셋탑 박스(250)를 통해 입력되는 영상 신호 또는 음성 신호가 제어부(290)를 거쳐, 디스플레이(290) 또는 오디오 출력부(295)를 통해 출력되게 된다. Accordingly, the video signal or the audio signal input through the set top box 250 is output through the display 290 or the audio output unit 295 via the control unit 290.

다음, 도 2b를 참조하면, 셋탑 박스(250)와 디스플레이장치(300)는, 도 2a의 셋탑 박스(250)와 디스플레이장치(300)와 동일하나, 다만, 튜너부(270) 및 복조부(275)의 위치가 디스플레이장치(300) 내가 아닌 셋탑 박스(250) 내에 위치하는 것에 그 차이가 있다. 이하에서는 그 차이점만을 기술한다.Next, referring to FIG. 2B, the set-top box 250 and the display apparatus 300 are the same as the set-top box 250 and the display apparatus 300 of FIG. 2A, except that the tuner 270 and the demodulator ( The difference is that the position of 275 is located in the set-top box 250 and not in the display apparatus 300. Only the differences are described below.

신호 처리부(260)는, 튜너부(270) 및 복조부(275)를 통해 수신되는 방송 신호의 신호 처리를 수행할 수 있다. 또한, 사용자입력 인터페이스부(263)는, 채널 선택, 채널 저장 등의 입력을 수신할 수 있다.The signal processor 260 may perform signal processing of a broadcast signal received through the tuner 270 and the demodulator 275. In addition, the user input interface unit 263 may receive an input such as channel selection and channel storage.

한편, 도 2a 내지 도 2b의 셋탑 박스(250)에서는 도 1에서의 오디오 출력부(185)를 도시하지 않았으나, 각각 별도의 오디오 출력부를 구비하는 것도 가능하다.Meanwhile, although the audio output unit 185 of FIG. 1 is not illustrated in the set top box 250 of FIGS. 2A to 2B, it is also possible to have separate audio output units.

도 3은 도 1의 제어부의 내부 블록도이고, 도 4는 3D 영상의 다양한 포맷을 보여주는 도면이며, 도 5는 도 4의 포맷에 따라 3D 시청장치의 동작을 보여주는 도면이다.3 is an internal block diagram of the controller of FIG. 1, FIG. 4 is a diagram illustrating various formats of a 3D image, and FIG. 5 is a diagram illustrating an operation of a 3D viewing apparatus according to the format of FIG. 4.

도면을 참조하여 설명하면, 본 발명의 일실시예에 의한 제어부(170)는, 역다중화부(310), 영상 처리부(320), OSD 생성부(340), 믹서(345), 프레임 레이트 변환부(350), 및 포맷터(360)를 포함할 수 있다. 그 외 오디오 처리부(미도시), 데이터 처리부(미도시)를 더 포함할 수 있다.Referring to the drawings, the control unit 170 according to an embodiment of the present invention, the demultiplexer 310, the image processor 320, the OSD generator 340, the mixer 345, the frame rate converter 350, and a formatter 360. The audio processing unit (not shown) and the data processing unit (not shown) may be further included.

역다중화부(310)는, 입력되는 스트림을 역다중화한다. 예를 들어, MPEG-2 TS가 입력되는 경우 이를 역다중화하여, 각각 영상, 음성 및 데이터 신호로 분리할 수 있다. 여기서, 역다중화부(310)에 입력되는 스트림 신호는, 튜너부(110) 또는 복조부(120) 또는 외부장치 인터페이스부(130)에서 출력되는 스트림 신호일 수 있다.The demultiplexer 310 demultiplexes an input stream. For example, when an MPEG-2 TS is input, it may be demultiplexed and separated into video, audio, and data signals, respectively. Here, the stream signal input to the demultiplexer 310 may be a stream signal output from the tuner 110, the demodulator 120, or the external device interface 130.

영상 처리부(320)는, 역다중화된 영상 신호의 영상 처리를 수행할 수 있다. 이를 위해, 영상 처리부(320)는, 영상 디코더(225), 및 스케일러(235)를 구비할 수 있다. The image processor 320 may perform image processing of the demultiplexed image signal. To this end, the image processor 320 may include an image decoder 225 and a scaler 235.

영상 디코더(225)는, 역다중화된 영상신호를 복호화하며, 스케일러(235)는, 복호화된 영상신호의 해상도를 디스플레이(180)에서 출력 가능하도록 스케일링(scaling)을 수행한다.The image decoder 225 decodes the demultiplexed image signal, and the scaler 235 performs scaling to output the resolution of the decoded image signal on the display 180.

영상 디코더(225)는 다양한 규격의 디코더를 구비하는 것이 가능하다. 예를 들어, 영상 디코더(225)는, MPEG-2 디코더, H.264 디코더, MPEC-C 디코더(MPEC-C part 3), MVC 디코더, FTV 디코더 중 적어도 하나를 구비할 수 있다. The video decoder 225 may include decoders of various standards. For example, the image decoder 225 may include at least one of an MPEG-2 decoder, an H.264 decoder, an MPEC-C decoder (MPEC-C part 3), an MVC decoder, and an FTV decoder.

한편, 영상 처리부(320)에서 복호화된 영상 신호는, 2D 영상 신호만 있는 경우, 2D 영상 신호와 3D 영상 신호가 혼합된 경우, 및 3D 영상 신호만 있는 경우로 구분될 수 있다. Meanwhile, the image signal decoded by the image processor 320 may be classified into a case in which only a 2D image signal is present, a case in which a 2D image signal and a 3D image signal are mixed, and a case in which only a 3D image signal is present.

예를 들어, 외부 장치(190)으로부터 입력되는 외부 영상 신호 또는 튜너부(110)에서 수신되는 방송 신호의 방송 영상 신호가, 2D 영상 신호만 있는 경우, 2D 영상 신호와 3D 영상 신호가 혼합된 경우, 및 3D 영상 신호만 있는 경우로 구분될 수 있으며, 이에 따라, 이후의 제어부(170), 특히 영상 처리부(320) 등에서 신호 처리되어, 각각 2D 영상 신호, 2D 영상 신호와 3D 영상 신호의 혼합 신호, 3D 영상 신호가 출력될 수 있다.For example, when the external video signal input from the external device 190 or the broadcast video signal of the broadcast signal received by the tuner 110 includes only the 2D video signal, the 2D video signal and the 3D video signal are mixed. , And 3D video signals, the signal may be processed by the controller 170, in particular, the image processor 320, and the like, and thus, mixed signals of 2D video signals, 2D video signals, and 3D video signals, respectively. The 3D video signal may be output.

한편, 영상 처리부(320)에서 복호화된 영상 신호는, 다양한 포맷의 3D 영상 신호일 수 있다. 예를 들어, 색차 영상(color image) 및 깊이 영상(depth image)으로 이루어진 3D 영상 신호일 수 있으며, 또는 복수 시점 영상 신호로 이루어진 3D 영상 신호 등일 수 있다. 복수 시점 영상 신호는, 예를 들어, 좌안 영상 신호와 우안 영상 신호를 포함할 수 있다. The image signal decoded by the image processor 320 may be a 3D image signal having various formats. For example, the image may be a 3D image signal including a color image and a depth image, or may be a 3D image signal including a plurality of view image signals. The plurality of viewpoint image signals may include, for example, a left eye image signal and a right eye image signal.

여기서, 3D 영상 신호의 포맷은, 도 4와 같이, 좌안 영상 신호(L)와 우안 영상 신호(R)를 좌,우로 배치하는 사이드 바이 사이드(Side by Side) 포맷(도 4a), 상,하로 배치하는 탑 다운(Top / Down) 포맷(도 4b), 시분할로 배치하는 프레임 시퀀셜(Frame Sequential) 포맷(도 4c), 좌안 영상 신호와 우안 영상 신호를 라인 별로 혼합하는 인터레이스 (Interlaced) 포맷(도 4d), 좌안 영상 신호와 우안 영상 신호를 박스 별로 혼합하는 체커 박스(Checker Box) 포맷(도 4e) 등일 수 있다.Here, the format of the 3D video signal is a side by side format (FIG. 4A) in which the left eye video signal L and the right eye video signal R are disposed left and right, as shown in FIG. 4, and up and down. Top / Down format (FIG. 4B) to arrange, Frame Sequential format (FIG. 4C) to arrange by time division, Interlaced format which mixes left-eye video signal and right-eye video signal line by line (FIG. 4B) 4d), a checker box format (FIG. 4E) for mixing the left eye image signal and the right eye image signal for each box may be used.

OSD 생성부(340)는, 사용자 입력에 따라 또는 자체적으로 OSD 신호를 생성한다. 예를 들어, 사용자 입력 신호에 기초하여, 디스플레이(180)의 화면에 각종 정보를 그래픽(Graphic)이나 텍스트(Text)로 표시하기 위한 신호를 생성할 수 있다. 생성되는 OSD 신호는, 영상표시장치(100)의 사용자 인터페이스 화면, 다양한 메뉴 화면, 위젯, 아이콘 등의 다양한 데이터를 포함할 수 있다. 또한, 생성되는 OSD 신호는, 2D 오브젝트 또는 3D 오브젝트를 포함할 수 있다. The OSD generator 340 generates an OSD signal according to a user input or itself. For example, a signal for displaying various types of information on a screen of the display 180 as a graphic or text may be generated based on a user input signal. The generated OSD signal may include various data such as a user interface screen, various menu screens, widgets, and icons of the image display apparatus 100. In addition, the generated OSD signal may include a 2D object or a 3D object.

믹서(345)는, OSD 생성부(340)에서 생성된 OSD 신호와 영상 처리부(320)에서 영상 처리된 복호화된 영상 신호를 믹싱할 수 있다. 이때, OSD 신호와 복호화된 영상 신호는 각각 2D 신호 및 3D 신호 중 적어도 하나를 포함할 수 있다. 믹싱된 영상 신호는 프레임 레이트 변환부(350)에 제공된다.The mixer 345 may mix the OSD signal generated by the OSD generator 340 and the decoded image signal processed by the image processor 320. In this case, the OSD signal and the decoded video signal may each include at least one of a 2D signal and a 3D signal. The mixed video signal is provided to the frame rate converter 350.

프레임 레이트 변환부(Frame Rate Conveter, FRC)(350)는, 입력되는 영상의 프레임 레이트를 변환한다. 예를 들어, 60Hz의 프레임 레이트를 120Hz 또는 240Hz 또는 480Hz 등으로 변환한다. 60Hz의 프레임 레이트를 120Hz로 변환하는 경우, 제1 프레임과 제2 프레임 사이에, 동일한 제1 프레임을 삽입하거나, 제1 프레임과 제2 프레임으로부터 예측된 제3 프레임을 삽입하는 것이 가능하다. 60Hz의 프레임 레이트를 240Hz로 변환하는 경우, 동일한 프레임을 3개 더 삽입하거나, 예측된 프레임을 3개 삽입하는 것이 가능하다. 60Hz의 프레임 레이트를 480Hz로 변환하는 경우, 동일한 프레임을 7개 더 삽입하거나, 예측된 프레임을 7개 삽입하는 것이 가능하다. The frame rate converter (FRC) 350 converts the frame rate of the input video. For example, a frame rate of 60 Hz is converted to 120 Hz or 240 Hz or 480 Hz. When converting a frame rate of 60 Hz to 120 Hz, it is possible to insert the same first frame or insert a third frame predicted from the first frame and the second frame between the first frame and the second frame. When converting a frame rate of 60 Hz to 240 Hz, it is possible to insert three more identical frames or three predicted frames. When converting a frame rate of 60 Hz to 480 Hz, it is possible to insert seven more identical frames or insert seven predicted frames.

한편, 이러한 프레임 레이트 변환부(350)는, 별도의 프레임 레이트 변환 없이, 입력되는 프레임 레이트를 그대로 출력하는 것도 가능하다. 바람직하게는, 2D 영상 신호가 입력되는 경우, 프레임 레이트를 그대로 출력할 수 있다. 한편, 3D 영상 신호가 입력되는 경우, 프레임 레이트를 상술한 바와 같이 가변하는 것이 가능하다.The frame rate converter 350 may output the input frame rate as it is without additional frame rate conversion. Preferably, when the 2D video signal is input, the frame rate can be output as it is. On the other hand, when a 3D video signal is input, the frame rate can be varied as described above.

포맷터(360)는, 프레임 레이트 변환된 3D 영상의 좌안 영상 프레임과 우안 영상 프레임을 배열할 수 있다. 그리고, 3D 시청 장치(195)의 좌안 글래스와 우안 글래스의 개방을 위한 동기 신호(Vsync)를 출력할 수 있다.The formatter 360 may arrange the left eye image frame and the right eye image frame of the frame rate-converted 3D image. In addition, the synchronization signal Vsync for opening the left eye glass and the right eye glass of the 3D viewing apparatus 195 may be output.

한편, 포맷터(Formatter)(360)는, 믹서(345)에서 믹싱된 신호, 즉 OSD 신호와 복호화된 영상 신호를 입력받아, 2D 영상 신호와 3D 영상 신호를 분리할 수 있다.Meanwhile, the formatter 360 may receive a mixed signal from the mixer 345, that is, an OSD signal and a decoded video signal, and separate the 2D video signal and the 3D video signal.

한편, 본 명세서에서, 3D 영상 신호는 3D 오브젝트를 포함하는 것을 의미하며, 이러한 오브젝트의 예로는 PIP(picuture in picture) 영상(정지 영상 또는 동영상), 방송 프로그램 정보를 나타내는 EPG, 다양한 메뉴, 위젯, 아이콘, 텍스트, 영상 내의 사물, 인물, 배경, 웹 화면(신문, 잡지 등) 등이 있을 수 있다.Meanwhile, in the present specification, the 3D video signal is meant to include a 3D object. Examples of the object include a picture in picture (PIP) image (still image or a video), an EPG indicating broadcast program information, various menus, widgets, There may be an icon, text, an object in the image, a person, a background, a web screen (newspaper, magazine, etc.).

한편, 포맷터(360)는, 3D 영상 신호의 포맷을 변경할 수 있다. 예를 들어, 도 4에 예시된 다양한 포맷 중 어느 하나의 포맷으로 변경할 수 있다. 이에 따라, 해당 포맷에 따라, 도 5와 같이, 안경 타입의 3D 시청장치의 동작이 수행될 수 있다. The formatter 360 may change the format of the 3D video signal. For example, it may be changed to any one of various formats illustrated in FIG. 4. Accordingly, according to the format, as shown in FIG. 5, the operation of the glasses-type 3D viewing apparatus may be performed.

먼저, 도 5(a)는, 포맷터(360)가 도 4의 포맷 중 프레임 시퀀셜 포맷으로 정렬하여 출력하는 경우, 3D용 글래스(195), 특히 셔터 글래스(195)의 동작을 예시한다.First, FIG. 5A illustrates an operation of the 3D glasses 195, in particular the shutter glass 195, when the formatter 360 arranges and outputs the frame sequential format among the formats of FIG.

즉, 디스플레이(180)에 좌안 영상(L)이 표시된 경우, 셔터 글래스(195)의 좌안 글래스가 개방, 우안 글래스가 닫히는 것을 예시하며, 우안 영상(R)이 표시된 경우, 셔터 글래스(195)의 좌안 글래스가 닫히고, 우안 글래스가 개방되는 것을 예시한다.That is, when the left eye image L is displayed on the display 180, the left eye glass of the shutter glass 195 is opened and the right eye glass is closed. When the right eye image R is displayed, The left eye glass is closed and the right eye glass is opened.

한편, 도 5(b)는, 포맷터(360)가 도 4의 포맷 중 사이드 바이 사이드 포맷으로 정렬하여 출력하는 경우, 3D용 글래스(195), 특히 편광 글래스(195)의 동작을 예시한다. 한편, 도 5(b)에서 적용되는 3D용 글래스(195)는, 셔터 글래스일 수 있으며, 이때의 셔터 글래스는 좌안 글래스와 우안 글래스 모두가 개방된 상태를 유지하여, 편광 글래스 처럼 동작할 수도 있다. FIG. 5B illustrates an operation of the 3D glass 195, in particular, the polarization glass 195 when the formatter 360 arranges and outputs the side-by-side format among the formats of FIG. 4. Meanwhile, the 3D glass 195 applied in FIG. 5B may be a shutter glass, and the shutter glass may be operated as a polarized glass by keeping both the left eye glass and the right eye glass open. .

한편, 포맷터(360)는, 2D 영상 신호를 3D 영상 신호로 전환할 수도 있다. 예를 들어, 3D 영상 생성 알고리즘에 따라, 2D 영상 신호 내에서 에지(edge) 또는 선택 가능한 오브젝트를 검출하고, 검출된 에지(edge)에 따른 오브젝트 또는 선택 가능한 오브젝트를 3D 영상 신호로 분리하여 생성할 수 있다. 이때, 생성된 3D 영상 신호는, 상술한 바와 같이, 좌안 영상 신호(L)와 우안 영상 신호(R)로 분리되어 정렬될 수 있다. Meanwhile, the formatter 360 may convert the 2D video signal into a 3D video signal. For example, an edge or selectable object may be detected within the 2D image signal according to a 3D image generation algorithm, and an object or selectable object according to the detected edge may be separated into a 3D image signal and generated. Can be. In this case, the generated 3D image signal may be divided into a left eye image signal L and a right eye image signal R, as described above, and may be aligned.

한편, 도면에서는 도시하지 않았지만, 포맷터(360) 이후에, 3D 효과(3-dimensional effect) 신호 처리를 위한 3D 프로세서(미도시)가 더 배치되는 것도 가능하다. 이러한 3D 프로세서(미도시)는, 3D 효과의 개선을 위해, 영상 신호의 밝기(brightness), 틴트(Tint) 및 색조(Color) 조절 등을 처리할 수 있다. 예를 들어, 근거리는 선명하게, 원거리는 흐리게 만드는 신호 처리 등을 수행할 수 있다. 한편, 이러한 3D 프로세서의 기능은, 포맷터(360)에 병합되거나 영상처리부(320) 내에 병합될 수 있다. 이에 대해서는 도 6 등을 참조하여 후술한다.Although not shown in the figure, a 3D processor (not shown) for processing a 3D effect signal may be further disposed after the formatter 360. The 3D processor (not shown) may process brightness, tint, and color adjustment of an image signal to improve 3D effects. For example, signal processing may be performed to sharpen the near distance and blur the far distance. Meanwhile, the functions of the 3D processor may be merged into the formatter 360 or merged into the image processor 320. This will be described later with reference to FIG. 6 and the like.

한편, 제어부(170) 내의 오디오 처리부(미도시)는, 역다중화된 음성 신호의 음성 처리를 수행할 수 있다. 이를 위해 오디오 처리부(미도시)는 다양한 디코더를 구비할 수 있다.Meanwhile, the audio processor (not shown) in the controller 170 may perform voice processing of the demultiplexed voice signal. To this end, the audio processor (not shown) may include various decoders.

예를 들어, 역다중화된 음성 신호가 부호화된 음성 신호인 경우, 이를 복호화할 수 있다. 구체적으로, 역다중화된 음성 신호가 MPEG-2 규격의 부호화된 음성 신호인 경우, MPEG-2 디코더에 의해 복호화될 수 있다. 또한, 역다중화된 음성 신호가 지상파 DMB(Digital Multimedia Broadcasting) 방식에 따른 MPEG 4 BSAC(Bit Sliced Arithmetic Coding) 규격의 부호화된 음성 신호인 경우, MPEG 4 디코더에 의해 복호화될 수 있다. 또한, 역다중화된 음성 신호가 위성 DMB 방식 또는 DVB-H에 따른 MPEG 2의 AAC(Advanced Audio Codec) 규격의 부호화된 음성 신호인 경우, AAC 디코더에 의해 복호화될 수 있다. 또한, 역다중화된 음성 신호가 돌비(Dolby) AC-3 규격의 부호화된 음성 신호인 경우, AC-3 디코더에 의해 복호화될 수 있다.For example, if the demultiplexed speech signal is a coded speech signal, it can be decoded. Specifically, when the demultiplexed speech signal is an encoded speech signal of MPEG-2 standard, it may be decoded by an MPEG-2 decoder. In addition, when the demultiplexed speech signal is an encoded speech signal of MPEG 4 Bit Sliced Arithmetic Coding (BSAC) standard according to the terrestrial digital multimedia broadcasting (DMB) scheme, it may be decoded by an MPEG 4 decoder. In addition, when the demultiplexed speech signal is an encoded audio signal of the AAC (Advanced Audio Codec) standard of MPEG 2 according to the satellite DMB scheme or DVB-H, it may be decoded by the AAC decoder. In addition, when the demultiplexed speech signal is a encoded speech signal of the Dolby AC-3 standard, it may be decoded by the AC-3 decoder.

또한, 제어부(170) 내의 오디오 처리부(미도시)는, 베이스(Base), 트레블(Treble), 음량 조절 등을 처리할 수 있다. Also, the audio processor (not shown) in the controller 170 may process a base, a treble, a volume control, and the like.

제어부(170) 내의 데이터 처리부(미도시)는, 역다중화된 데이터 신호의 데이터 처리를 수행할 수 있다. 예를 들어, 역다중화된 데이터 신호가 부호화된 데이터 신호인 경우, 이를 복호화할 수 있다. 부호화된 데이터 신호는, 각 채널에서 방영되는 방송프로그램의 시작시간, 종료시간 등의 방송정보를 포함하는 EPG(Electronic Progtam Guide) 정보일 수 있다. 예를 들어, EPG 정보는, ATSC방식인 경우, ATSC-PSIP(ATSC-Program and System Information Protocol) 정보일 수 있으며, DVB 방식인 경우, DVB-SI(DVB-Service Information) 정보를 포함할 수 있다. ATSC-PSIP 정보 또는 DVB-SI 정보는, 상술한 스트림, 즉 MPEG-2 TS의 헤더(2 byte)에 포함되는 정보일 수 있다.The data processor (not shown) in the controller 170 may perform data processing of the demultiplexed data signal. For example, when the demultiplexed data signal is an encoded data signal, it may be decoded. The encoded data signal may be EPG (Electronic Progtam Guide) information including broadcast information such as a start time and an end time of a broadcast program broadcasted in each channel. For example, the EPG information may be ATSC-PSIP (ATSC-Program and System Information Protocol) information in the case of the ATSC scheme, and may include DVB-Service Information (DVB-SI) in the case of the DVB scheme. . The ATSC-PSIP information or the DVB-SI information may be information included in the aforementioned stream, that is, the header (2 bytes) of the MPEG-2 TS.

한편, 도 3에서는 OSD 생성부(340)와 영상 처리부(320)으로부터의 신호를 믹서(345)에서 믹싱한 후, 포맷터(360)에서 3D 처리 등을 하는 것으로 도시하나, 이에 한정되지 않으며, 믹서가 포맷터 뒤에 위치하는 것도 가능하다. 즉, 영상 처리부(320)의 출력을 포맷터(360)에서 3D 처리하고, OSD 생성부(340)는 OSD 생성과 함께 3D 처리를 수행한 후, 믹서(345)에서 각각의 처리된 3D 신호를 믹싱하는 것도 가능하다.In FIG. 3, the signals from the OSD generator 340 and the image processor 320 are mixed in the mixer 345 and then 3D processed in the formatter 360, but the present invention is not limited thereto. May be located after the formatter. That is, the output of the image processor 320 is 3D processed by the formatter 360, and the OSD generator 340 performs 3D processing together with OSD generation, and then mixes each processed 3D signal by the mixer 345. It is also possible.

한편, 도 3에 도시된 제어부(170)의 블록도는 본 발명의 일실시예를 위한 블록도이다. 블록도의 각 구성요소는 실제 구현되는 제어부(170)의 사양에 따라 통합, 추가, 또는 생략될 수 있다. Meanwhile, a block diagram of the controller 170 shown in FIG. 3 is a block diagram for one embodiment of the present invention. Each component of the block diagram may be integrated, added, or omitted according to the specification of the controller 170 that is actually implemented.

특히, 프레임 레이트 변환부(350), 및 포맷터(360)는 제어부(170) 내에 마련되지 않고, 각각 별도로 구비될 수도 있다.In particular, the frame rate converter 350 and the formatter 360 are not provided in the controller 170, but may be provided separately.

도 6은 본 발명의 실시예에 따른 3D 영상 신호의 다양한 스케일링 방식을 나타낸 도면이다. 6 is a diagram illustrating various scaling methods of 3D video signals according to an embodiment of the present invention.

도면을 참조하면, 3D 효과(3-dimensional effect) 증대를 위해, 제어부(170)는 3D 효과 신호 처리를 수행할 수 있다. 그 중에서, 특히 3D 영상 내의 3D 오브젝트의 크기 또는 기울기 조절 등을 수행할 수 있다.Referring to the drawings, in order to increase the 3D effect, the controller 170 may perform 3D effect signal processing. Among them, in particular, the size or tilt of the 3D object in the 3D image may be adjusted.

도 6(a)와 같이, 3D 영상 신호 또는 3D 영상 신호 내의 3D 오브젝트(510)를 일정 비율로 전체적으로 확대 또는 축소(512)할 수 있으며, 또한 도 6(b) 및 도 6(c)와 같이, 3D 오브젝트를 부분적으로 확대 또는 축소(사다리꼴 형상, 514, 516)할 수도 있다. 또한, 도 6(d)와 같이, 3D 오브젝트의 적어도 일부를 회전(평행 사변형 형상, 518)시킬 수도 있다. 이러한 스케일링(크기 조절) 또는 기울기 조절을 통해, 3D 영상 또는 3D 영상 내의 3D 오브젝트의 입체감 즉, 3D 효과(3-dimensional effect)를 강조할 수 있게 된다.As shown in FIG. 6A, the 3D image signal or the 3D object 510 in the 3D image signal may be enlarged or reduced 512 as a whole at a predetermined ratio, and as shown in FIGS. 6B and 6C. The 3D object may be partially enlarged or reduced (trapezoidal shapes 514 and 516). In addition, as illustrated in FIG. 6D, at least a part of the 3D object may be rotated (parallel quadrilateral shape) 518. Through such scaling (scaling) or tilting, it is possible to emphasize a three-dimensional effect, that is, a three-dimensional effect, of a 3D image or a 3D object in the 3D image.

한편, 기울기(slope)가 커질수록, 도 6(b) 또는 도 6(c)와 같이, 사다리꼴 형상(514,516)의 평행한 양변의 길이 차가 커지거나, 도 6(d)와 같이, 회전각이 더 커지게 된다.On the other hand, as the slope becomes larger, as shown in FIG. 6 (b) or 6 (c), the length difference between the parallel sides of the trapezoidal shapes 514 and 516 increases, or as shown in FIG. 6 (d), the rotation angle is increased. It gets bigger.

한편, 이러한 크기 조절 또는 기울기 조절은, 포맷터(360)에서 3D 영상 신호가 소정 포맷으로 정렬된 후 수행될 수 있다. 또는 영상처리부(320) 내의 스케일러(235)에서 수행되는 것이 가능하다. 한편, OSD 생성부(340)는, 3D 효과 강조를 위해, 생성되는 OSD를 도 6에서 예시한 바와 같은 형상으로 오브젝트를 생성하는 것도 가능하다.Meanwhile, the size adjustment or the tilt adjustment may be performed after the 3D video signal is aligned in a predetermined format in the formatter 360. Alternatively, it may be performed by the scaler 235 in the image processor 320. On the other hand, the OSD generation unit 340, it is also possible to create the object in the shape as shown in Figure 6 to generate the OSD to emphasize the 3D effect.

한편, 도면에서는 도시하지 않았지만, 3D 효과(3-dimensional effect)를 위한 신호 처리로서, 도 6에서 예시한 크기 조절 또는 기울기 조절 등 외에, 영상 신호 또는 오브젝트의 밝기(brightness), 틴트(Tint) 및 색조(Color) 조절 등의 신호 처리가 수행되는 것도 가능하다. 예를 들어, 근거리는 선명하게, 원거리는 흐리게 만드는 신호 처리 등을 수행할 수 있다. 한편, 이러한 3D 효과를 위한 신호 처리는, 제어부(170) 내에서 수행되거나, 별도의 3D 프로세서를 통해 수행될 수 있다. 특히, 제어부(170) 내에서 수행되는 경우, 상술한 크기 조절 또는 기울기 조절 등과 함께, 포맷터(360)에서 수행되거나, 또는 영상처리부((320) 내에서 수행되는 것이 가능하다. On the other hand, although not shown in the figure, as a signal processing for a three-dimensional effect, in addition to the size adjustment or tilt adjustment illustrated in Figure 6, the brightness (brightness), tint (Tint) and It is also possible to perform signal processing such as color adjustment. For example, signal processing may be performed to sharpen the near distance and blur the far distance. Meanwhile, the signal processing for the 3D effect may be performed in the controller 170 or may be performed through a separate 3D processor. In particular, when performed in the controller 170, it may be performed in the formatter 360 together with the above-described size adjustment or tilt adjustment, or may be performed in the image processor 320.

도 7은 좌안 영상과 우안 영상에 의해 상이 맺히는 것을 설명하는 도면이며, 도 8은 좌안 영상과 우안 영상의 간격에 따른 3D 영상의 깊이를 설명하는 도면이다. FIG. 7 is a diagram illustrating an image formed by a left eye image and a right eye image, and FIG. 8 is a diagram illustrating a depth of a 3D image according to an interval between a left eye image and a right eye image.

먼저, 도 7을 참조하면, 복수의 영상 또는 복수의 오브젝트들(615,625,635,645)이 예시된다. First, referring to FIG. 7, a plurality of images or a plurality of objects 615, 625, 635, and 645 are illustrated.

먼저, 제1 오브젝트(615)는, 제1 좌안 영상신호에 기초하는 제1 좌안 영상(611,L)과 제1 우안 영상신호에 기초하는 제1 우안 영상(613,R)를 포함하며, 제1 좌안 영상(611,L)과 제1 우안 영상(613,R)의 간격은 디스플레이(180) 상에서 d1 인 것이 예시된다. 이때, 사용자는 좌안(601)과 제1 좌안 영상(611)을 연결하는 연장선, 및 우안(603)과 제1 우안 영상(603)을 연결하는 연장선이 교차되는 지점에, 상이 맺히는 것처럼 인식한다. 따라서 사용자는 제1 오브젝트(615)가 디스플레이(180) 보다 뒤에 위치하는 것으로 인식한다. First, the first object 615 includes first left eye images 611 and L based on the first left eye image signal and first right eye images 613 and R based on the first right eye image signal. An interval between the first left eye image 611 and L and the first right eye image 613 and R is illustrated to be d1 on the display 180. At this time, the user recognizes that an image is formed at an intersection of an extension line connecting the left eye 601 and the first left eye image 611 and an extension line connecting the right eye 603 and the first right eye image 603. Accordingly, the user recognizes that the first object 615 is located behind the display 180.

다음, 제2 오브젝트(625)는, 제2 좌안 영상(621,L)과 제2 우안 영상(623,R)를 포함하며, 서로 겹쳐져 디스플레이(180)에 표시되므로, 그 간격은 0 인 것이 예시된다. 이에 따라, 사용자는 제2 오브젝트(625)가 디스플레이(180) 상에 위치 것으로 인식한다. Next, since the second object 625 includes the second left eye images 621 and L and the second right eye images 623 and R and overlaps each other, the second object 625 is displayed on the display 180. do. Accordingly, the user recognizes that the second object 625 is located on the display 180.

다음, 제3 오브젝트(635)와 제4 오브젝트(645)는, 각각 제3 좌안 영상(631,L)과 제2 우안 영상(633,R), 제4 좌안 영상(641,L)과 제4 우안 영상(643,R)를 포함하며, 그 간격이 각각 d3, d4 인 것이 예시된다. Next, the third object 635 and the fourth object 645 are the third left eye image 631 and L, the second right eye image 633 and R, and the fourth left eye image 641 and L and the fourth object, respectively. The right eye images 643 and R are included, and the intervals are d3 and d4, respectively.

상술한 방식에 따라, 사용자는 상이 맺히는 위치에, 각각 제3 오브젝트(635)와 제4 오브젝트(645)가 위치하는 것으로 인식하며, 도면에서는, 각각 디스플레이(180) 보다 앞에 위치하는 것으로 인식한다. According to the above-described method, the user recognizes that the third object 635 and the fourth object 645 are positioned at the positions where the images are formed, respectively, and in the drawing, each of them is located in front of the display 180.

이때, 제4 오브젝트(645)가 제3 오브젝트(635) 보다 더 앞에, 즉 더 돌출되는 것으로 인식되며, 이는 제4 좌안 영상(641,L)과 제4 우안 영상(643,R)의 간격(d4)이, 제3 좌안 영상(631,L)과 제3 우안 영상(633,R)의 간격(d3) 보다 더 큰 것에 기인한다.At this time, it is recognized that the fourth object 645 is projected before the third object 635, that is, more protruded than the third object 635. This is because the interval between the fourth left eye image 641, L and the fourth right eye image 643, d4 is larger than the interval d3 between the third left eye image 631, L and the third right eye image 633, R. [

한편, 본 발명의 실시예에서는, 디스플레이(180)와 사용자에게 인식되는 오브젝트(615,625,635,645) 사이의 거리를 깊이(depth)로 표현한다. 이에 따라, 디스플레이(180)보다 뒤에 위치하고 있는 것처럼 사용자에게 인식되는 경우의 깊이(depth)는 음의 값(-)을 가지는 것으로 하며, 디스플레이(180)보다 앞에 위치하고 있는 것처럼 사용자에게 인식되는 경우의 깊이(depth)는 음의 값(+)을 가지는 것으로 한다. 즉, 사용자 방향으로 돌출 정도가 더 클수록, 깊이의 크기는 더 커지게 된다.Meanwhile, in the exemplary embodiment of the present invention, the distance between the display 180 and the objects 615, 625, 635, and 645 recognized by the user is expressed as a depth. Accordingly, the depth when the user is recognized as if it is located behind the display 180 has a negative value (-), and the depth when the user is recognized as if it is located before the display 180. (depth) is assumed to have a negative value (+). That is, the greater the degree of protrusion in the direction of the user, the greater the size of the depth.

도 8을 보면, 도 8(a)의 좌안 영상(701)과 우안 영상(702) 간의 간격(a)이, 도 8(b)에 도시된 좌안 영상(701)과 우안 영상(702) 간의 간격(b)이 더 작은 경우, 도 8(a)의 3D 오브젝트의 깊이(a') 보다, 도 8(b)의 3D 오브젝트의 깊이(b')가 더 큰 것을 알 수 있다. Referring to FIG. 8, the distance a between the left eye image 701 and the right eye image 702 of FIG. 8A is the distance between the left eye image 701 and the right eye image 702 shown in FIG. 8B. When (b) is smaller, it can be seen that the depth b 'of the 3D object of FIG. 8 (b) is larger than the depth a' of the 3D object of FIG. 8 (a).

이와 같이, 3D 영상이 좌안 영상과 우안 영상으로 예시되는 경우, 좌안 영상과 우안 영상 간의 간격에 의해, 사용자 입장에서 상이 맺히는 것으로 인식되는 위치가 달라지게 된다. 따라서, 좌안 영상과 우안 영상의 표시간격을 조절함으로써, 좌안 영상과 우안 영상으로 구성되는 3D 영상 또는 3D 오브젝트의 깊이를 조절할 수 있게 된다.As such, when the 3D image is exemplified as the left eye image and the right eye image, a position recognized as image formation from the user's point of view varies depending on the distance between the left eye image and the right eye image. Therefore, by adjusting the display interval of the left eye image and the right eye image, it is possible to adjust the depth of the 3D image or 3D object composed of the left eye image and the right eye image.

도 9는 본 발명의 일실시예에 따른 영상표시장치의 동작방법을 보여주는 순서도이고, 도 10a 내지 도 17b는 도 9의 영상표시장치의 동작방법의 다양한 예를 설명하기 위해 참조되는 도면이다.9 is a flowchart illustrating a method of operating an image display apparatus according to an embodiment of the present invention, and FIGS. 10A to 17B are diagrams for explaining various examples of the method of operating the image display apparatus of FIG. 9.

도 9를 참조하면, 먼저, 3D 영상을 수신한다(S910). Referring to FIG. 9, first, a 3D image is received (S910).

제어부(170)에 입력되는 3D 영상은, 튜너(110)에서 수신되는 방송 신호로부터의 방송 영상, 외부장치로부터의 외부 입력 영상, 저장부(140)에 저장된 영상 또는 네트워크를 통해 컨텐츠 제공자로부터 입력된 영상일 수 있다. The 3D image input to the controller 170 may be a broadcast image from a broadcast signal received from the tuner 110, an external input image from an external device, an image stored in the storage 140, or an input from a content provider through a network. It may be an image.

한편, 제어부(170)는, 3D 영상임을 나타내는, 스트림의 헤더(header) 내의 3D 영상 플래그(flag) 또는 3D 영상 메타 데이터(meta data) 또는 3D 영상의 포맷 정보(format information) 등을 참조하여, 입력되는 영상이 3D 영상인지 여부를 판단할 수 있다. Meanwhile, the controller 170 may refer to 3D video flags, 3D video metadata, or 3D video format information in the header of the stream indicating that the 3D video is a 3D video. It may be determined whether the input image is a 3D image.

입력되는 영상이 3D 영상인 경우, 제어부(170)는 3D 영상을 신호 처리한다. 도 3에서 상술한 바와 같이, 제어부(170)는, 역다중화 또는 복호화 등의 신호 처리를 수행하고, 프레임 레이트 변환부(350)에서 프레임 레이트를 변환시키거나, 포맷터(360)에서 3D 영상의 포맷을 도 4의 포맷 중 어느 하나로 변환시키거나, 입력되는 포맷대로 좌안 영상과 우안 영상을 배열하여 출력할 수 있다. 또한, OSD 생성부(340)에서 생성된 OSD 신호를 결합하여, 신호 처리를 수행할 수도 있다.If the input image is a 3D image, the controller 170 processes the 3D image. As described above in FIG. 3, the controller 170 performs signal processing such as demultiplexing or decoding, converts the frame rate in the frame rate converter 350, or formats the 3D image in the formatter 360. May be converted into any one of the formats shown in FIG. 4, or the left eye image and the right eye image may be arranged and output in the input format. In addition, the OSD signal generated by the OSD generator 340 may be combined to perform signal processing.

그리고, 제어부(170)는, 신호 처리된 3D 영상을 디스플레이(180)에 출력하여 표시되도록 제어한다.The controller 170 controls the 3D video signal processed to be displayed on the display 180.

도 10은 사이드 바이 사이드 포맷에 따라 3D 영상이 표시되는 것을 예시한다. 즉, 도 10a와 같이, 제어부(170) 내의 포맷터(360)는, 오브젝트(1015)를 구비하는 좌안 영상(1010)과, 오브젝트(1025)를 구비하는 우안 영상(1020)을, 사이드 바이 사이드 포맷에 따라 정렬할 수 있다. 디스플레이(180)는 좌안 영상(1010)과 우안 영상(1020)을 표시할 수 있다.10 illustrates that a 3D image is displayed according to a side by side format. That is, as shown in FIG. 10A, the formatter 360 in the control unit 170 includes a left eye image 1010 including an object 1015 and a right eye image 1020 including an object 1025 in side-by-side format. You can sort by. The display 180 may display a left eye image 1010 and a right eye image 1020.

결국, 3D 시청장치(1105), 예를 들어 편광 글래스를 착용한 사용자(195)는, 디스플레이(180)에 소정 깊이(da)의 3D 오브젝트(1035)를 갖는 3D 영상(1030)이 표시되는 것으로 인식할 수 있다.As a result, the user 195 wearing the 3D viewing apparatus 1105, for example, polarized glass, may display the 3D image 1030 having the 3D object 1035 having a predetermined depth da on the display 180. I can recognize it.

한편, 도 10은, 입력되는 3D 영상을 그대로 표시하는 것을 예시하며, 본 발명의 실시예에서는, 3D 영상의 모션 또는 프론트 깊이 또는 백 깊이 등을 고려하여, 깊이를 가변하여, 사용자로 하여금 편안하게 시청 가능하도록 한다. 이러한 동작방법에 대해서는, 이하의 도 11a 등을 참조하여 기술한다.Meanwhile, FIG. 10 illustrates displaying the input 3D image as it is, and according to an exemplary embodiment of the present invention, the depth is varied in consideration of the motion, the front depth, or the back depth of the 3D image, thereby allowing the user to feel comfortable. Make it available for viewing. This operation method will be described with reference to FIG. 11A and the like below.

다음, 3D 영상의 모션 또는 모션 변화량이 소정치 이하인지 여부를 판단한다(S915). 제어부(170), 특히, 영상 처리부(320)는 입력되는 3D 영상의 모션 또는 모션 변화량을 검출할 수 있다.Next, it is determined whether the motion or the motion change amount of the 3D image is less than or equal to a predetermined value (S915). The controller 170, in particular, the image processor 320 may detect a motion or a motion change amount of the input 3D image.

예를 들어, 영상 처리부(320) 내의 영상 디코더(325)에서, 입력되는 3D 영상을 복호화하는 경우, 이전 프레임 영상과 현재 프레임 영상의 비교를 통한 움직임 벡터(MV)를 산출할 수 있다. 또는, 부호화된 영상 신호에 구비되는 움직임 벡터(MV)를 추출할 수 있다. 이를 위해, 제어부(170)는, 이전 프레임 저장하기 위한 프레임 버퍼를 포함할 수 있다. 이러한 움직임 벡터를 이용하여, 제어부(170)는, 3D 영상의 모션(motion)을 산출할 수 있다. For example, when the image decoder 325 in the image processor 320 decodes the input 3D image, the motion vector MV may be calculated by comparing the previous frame image with the current frame image. Alternatively, a motion vector (MV) included in the encoded video signal may be extracted. To this end, the controller 170 may include a frame buffer for storing the previous frame. The controller 170 may calculate a motion of the 3D image by using the motion vector.

한편, 3D 영상 내에, 오브젝트가 복수개이며, 이에 따라 움직임 벡터가 복수개인 경우, 제어부(170)는, 해당 움직임 벡터를 모두 고려하여, 3D 영상의 모션 또는 모션 변화량을 검출하는 것도 가능하다.On the other hand, when there are a plurality of objects in the 3D image, and thus there are a plurality of motion vectors, the controller 170 may detect the motion or the amount of motion change of the 3D image in consideration of all the motion vectors.

제어부(170)는, 이러한 3D 영상의 모션 또는 모션 변화량이 소정치 이하인지 여부를 판단한다. 모션 또는 모션 변화량이 큰 경우, 3D 영상 시청시 깊이 가변의 영향이 작아지므로, 3D 영상의 모션 또는 모션 변화량이 소정치 이하인 경우에, 깊이 가변을 수행하는 것이 바람직하다. 깊이 가변을 위해, 이하의 단계가 수행된다.The controller 170 determines whether the motion or motion variation of the 3D image is less than or equal to a predetermined value. When the amount of motion or motion change is large, the influence of depth variation when viewing 3D images is reduced. Therefore, when the amount of motion or motion change of the 3D image is less than or equal to a predetermined value, it is preferable to perform depth change. In order to vary the depth, the following steps are performed.

한편, 도 10과 도 11을 비교하면, 도 10과 도 11의 영상은 일부 유사한 점이 있어, 모션 또는 모션 변화량이 작은 것을 알 수 있다. 이에 따라, 이하의 깊이 가변 수행이 가능하게 된다.Meanwhile, comparing FIG. 10 and FIG. 11 shows that the images of FIGS. 10 and 11 have some similarities, so that the amount of motion or motion change is small. Accordingly, it is possible to perform the following variable depth.

다음, 3D 영상 내의 프론트 깊이를 갖는 영역을 검출한다(S920). 또한, 3D 영상 내의 백 깊이를 갖는 영역을 검출한다(S925). 그리고, 프론트 깊이를 갖는 영역이 제1 영역 이상인 지 여부를 판단한다(S930). 해당하는 경우, 프론트 깊이가 작아지도록 깊이를 가변한다(S935). 그리고 가변된 깊이의 3D 영상을 표시하도록 제어한다(S940).Next, an area having a front depth in the 3D image is detected (S920). Also, an area having a back depth in the 3D image is detected (S925). In operation S930, it is determined whether the area having the front depth is greater than or equal to the first area. If applicable, the depth is varied so that the front depth is small (S935). In operation S940, the control apparatus 100 displays a 3D image having a variable depth.

제어부(170)는, 특히 포맷터(360)는, 3D 영상 내의 프론트 깊이(front depth)를 갖는 영역을 검출한다. 예를 들어, 포맷터(360)는, 3D 영상의 좌안 영상 내의 에지(edge)를 검출하고, 3D 영상의 우안 영상 내의 에지를 검출하며, 검출된 좌안 영상의 에지와 우안 영상의 에지를 비교하여, 프론트 깊이(front depth)를 갖는 영역을 검출할 수 있다.The controller 170, in particular, the formatter 360 detects an area having a front depth in the 3D image. For example, the formatter 360 detects an edge in the left eye image of the 3D image, detects an edge in the right eye image of the 3D image, compares the detected edge of the left eye image with the edge of the right eye image, It is possible to detect an area having a front depth.

좌안 영상의 에지 검출에 의해, 좌안 영상의 오브젝트가 검출될 수 있으며, 우안 영상의 에지 검출에 의해 우안 영상의 오브젝트가 검출될 수 있다. 도 7 등에서 상술한 바와 같이, 깊이는, 좌안 영상과 우안 영상 내의 오브젝트의 시차(disparity)에 의해 결정되므로, 좌안 영상의 오브젝트와 우안 영상의 오브젝트의 위치를 비교하여, 프론트 깊이를 갖는 지 여부를 판단한다. 좌안 영상에서 우안 영상에 비해 보다 우측에 위치하는 오브젝트가 배치되는 경우, 프론트 깊이를 갖게 된다. An object of the left eye image may be detected by edge detection of the left eye image, and an object of the right eye image may be detected by edge detection of the right eye image. As described above with reference to FIG. 7 and the like, since the depth is determined by the disparity of the objects in the left eye image and the right eye image, the position of the object of the left eye image and the object of the right eye image are compared to determine whether the front depth is obtained. To judge. When the object located on the right side of the left eye image is located more than the right eye image, the front depth is obtained.

그리고, 제어부(170)는, 특히 포맷터(360)는, 검출된 프론트 깊이의 오브젝트 영역이 제1 영역 이상인지 여부를 판단한다. 한편, 복수개인 경우, 각각의 합이 제1 영역 이상인지 여부를 판단한다.In addition, the controller 170, in particular, the formatter 360 determines whether the detected object depth has an object area equal to or greater than the first area. On the other hand, when there are a plurality, it is determined whether each sum is equal to or greater than the first area.

그리고, 해당하는 경우, 제어부(170), 특히 포맷터(360)는, 프론트 깊이가 작아지도록, 설정한다. 즉, 상술한 좌안 영상과 우안 영상 내의 오브젝트의 시차(disparity) 조정을 통해, 깊이가 작아지도록 설정한다. 이는, 과도한 돌출로 인해, 사용자가 3D 시청시 부자연스럽게 느낄 수 있는 것을 방지하기 위함이다. 이러한 깊이 축소에 의해, 사용자는 3D 영상 시청시 편안하게 시청할 수 있게 된다.In addition, if applicable, the control part 170, especially the formatter 360, is set so that a front depth may become small. That is, the depth is set to be smaller by adjusting the disparity of the objects in the left eye image and the right eye image. This is to prevent the user from feeling unnatural when viewing 3D due to excessive protrusion. By this depth reduction, the user can comfortably watch 3D video.

한편, 깊이 변화량은, 프론트 깊이를 갖는 오브젝트 영역의 크기 등에 의해 가변될 수 있다. 예를 들어, 프론트 깊이를 갖는 오브젝트 영역이 제1 영역 이상인 상태에서, 그 크기가 커질수록, 프론트 깊이가 작아지도록 설정할 수 있다.Meanwhile, the depth change amount may vary depending on the size of the object area having the front depth. For example, in a state where the object area having the front depth is greater than or equal to the first area, the front depth may be set smaller as the size thereof becomes larger.

또한, 깊이 변화량은, 프론트 깊이를 갖는 오브젝트 영역이 제1 영역 이상인 상태에서, 좌안 영상과 우안 영상의 차이가 기준치 이상인지 여부에 따라 달라질 수도 있다. Also, the depth change amount may vary depending on whether the difference between the left eye image and the right eye image is greater than or equal to the reference value when the object area having the front depth is equal to or greater than the first area.

예를 들어, 프론트 깊이를 갖는 영역이 제1 영역 이상이며, 좌안 영상과 우안 영상의 차이가 기준치 이상인 경우의 프론트 깊이의 변화량은, 프론트 깊이를 갖는 영역이 제1 영역 이상이며, 좌안 영상과 우안 영상의 차이가 기준치 미만인 경우의 프론트 깊이의 변화량 보다 크게 설정될 수 있다. 즉, 깊이가 더 작아지도록 설정할 수 있다. 이에 의해, 사용자는 3D 시청시 편안함을 느낄 수 있게 된다.For example, when the area having the front depth is greater than or equal to the first area and the front depth is greater than or equal to the reference value, the area having the front depth is greater than or equal to the first area and the left eye image and the right eye are greater than or equal to the reference value. If the difference in the image is less than the reference value may be set larger than the amount of change in the front depth. That is, the depth can be set to be smaller. As a result, the user may feel comfortable when viewing 3D.

한편, 제어부(170), 특히 포맷터(360)는, 프론트 깊이를 갖는 영역이 제1 영역 미만인 경우, 프론트 깊이가 커지도록 설정하는 것도 가능하다. On the other hand, the controller 170, especially the formatter 360, may be set so that the front depth is increased when the area having the front depth is less than the first area.

도 11a는, 사이드 바이 사이드 포맷에 따라, 디스플레이(180)에 오브젝트(1115)를 갖는 좌안 영상(1110)과, 오브젝트(1125)를 갖는 우안 영상(1120)이 표시되는 것을 예시한다. 이에 의해, 도 11b와 같이, 3D 시청장치(195)를 착용한 사용자(1105)는, 소정 깊이(d1)를 갖는 3D 오브젝트(1135)를 구비하는 3D 영상(1130)을 시청할 수 있게 된다.FIG. 11A illustrates that a left eye image 1110 having an object 1115 and a right eye image 1120 having an object 1125 are displayed on the display 180 according to a side by side format. Accordingly, as illustrated in FIG. 11B, the user 1105 wearing the 3D viewing apparatus 195 may watch the 3D image 1130 including the 3D object 1135 having a predetermined depth d1.

도 12a는, 도 11의 3D 영상을 기준으로, 프론트 깊이가 조절된 3D 영상을 예시한다. 상술한 바와 같이, 에지 검출에 의해, 도 11a에서의 좌안 오브젝트(1115)와 우안 오브젝트(1125)가 검출될 수 있으며, 좌안 오브젝트(1115)와 우안 오브젝트(1125)의 위치 비교 등에 의해, 해당 오브젝트가 프론트 오브젝트(front object)인지 여부를 판단한다. 도 11b와 같이 프론트 오브젝트(1135)으로 검출되는 경우, 프론트 오브젝트 영역이 제1 영역 이상인지 여부를 판단한다. 프론트 오브젝트의 크기가 제1 영역 이상인 경우, 도 12a와 같이 그 깊이를 축소하고, 그에 따라, 가변된 깊이(d2)의 3D 오브젝트(1145)를 갖는 3D 영상(1140)이 디스플레이(180) 상에 표시되게 된다. 이에 의해, 3D 시청장치(195)를 착용한 사용자(1105)는, 크기가 큰 프론트 오브젝트가 깊이 조정되어 표시되므로, 편안하게 3D 영상을 시청할 수 있게 된다.FIG. 12A illustrates a 3D image having a front depth adjusted based on the 3D image of FIG. 11. As described above, the left eye object 1115 and the right eye object 1125 in FIG. 11A can be detected by edge detection, and the corresponding object is compared by the position comparison between the left eye object 1115 and the right eye object 1125, and the like. Determine whether is a front object. When detected as the front object 1135 as shown in FIG. 11B, it is determined whether the front object area is greater than or equal to the first area. If the size of the front object is greater than or equal to the first area, the depth thereof is reduced as shown in FIG. 12A, and accordingly, a 3D image 1140 having the 3D object 1145 having a variable depth d2 is displayed on the display 180. Will be displayed. As a result, the user 1105 wearing the 3D viewing apparatus 195 is able to comfortably watch a 3D image because the front object having a large size is adjusted and displayed in depth.

한편, 도 12b는, 도 11b의 오브젝트(1135)가 깊이 축소되어, 도 12a의 오브젝트(1145)와 같이 표시되는 것을 예시한다.12B illustrates that the object 1135 of FIG. 11B is reduced in depth and displayed as the object 1145 of FIG. 12A.

한편, 도면에는 도시하지 않았지만, 상술한 바와 같이, 프론트 오브젝트 영역의 크기가 클수록, 깊이 변화량이 크게 설정되어, 해당 오브젝트의 깊이가 작아질 수 있다. 또한, 좌안 영상과 우안 영상의 차이가 클수록, 깊이 변화량이 크게 설정되어, 해당 오브젝트의 깊이가 작아질 수도 있다.On the other hand, although not shown in the figure, as described above, the larger the size of the front object area, the larger the amount of change in depth, the smaller the depth of the object. In addition, the greater the difference between the left eye image and the right eye image, the larger the amount of change in depth, and the smaller the depth of the object may be.

도 13은, 각각 프론트 깊이(d3,d4)를 갖는 복수의 오브젝트들(1315,1318)를 구비하는 3D 영상(1310)이 표시되는 것을 예시하며, 도 14는, 프론트 깊이 가변에 의해, 각각 축소된 프론트 깊이(d5,d6)를 갖는 복수의 오브젝트들(1415,1418)을 구비하는 3D 영상(1410)이 표시되는 것을 예시한다. 프론트 깊이를 갖는 오브젝트의 개수가 증가할수록, 또는 전체 프론트 깊이 영역이 증가할수록, 깊이 변화량이 크게 설정되어, 해당 오브젝트의 깊이가 작아질 수도 있다.FIG. 13 illustrates that the 3D image 1310 including the plurality of objects 1315 and 1318 having the front depths d3 and d4 are displayed, and FIG. 14 is respectively reduced due to the variable front depth. The 3D image 1410 including the plurality of objects 1415 and 1418 having the front depths d5 and d6 is displayed. As the number of objects having the front depth increases, or as the entire front depth area increases, the depth change amount may be set to be large, so that the depth of the object may be reduced.

한편, 제925 단계(S925) 이후에, 백 깊이를 갖는 영역이 제2 영역 이상인 지 여부를 판단한다(S945). 해당하는 경우, 백 깊이가 작아지도록 깊이를 가변한다(S950). 그리고 가변된 깊이의 3D 영상을 표시하도록 제어한다(S940).On the other hand, after the step 925 (S925), it is determined whether the area having a back depth is greater than or equal to the second area (S945). If applicable, the depth is varied so that the bag depth is reduced (S950). In operation S940, the control apparatus 100 displays a 3D image having a variable depth.

제어부(170)는, 특히 포맷터(360)는, 3D 영상 내의 백 깊이를 갖는 영역을 검출한다. 예를 들어, 포맷터(360)는, 3D 영상의 좌안 영상 내의 에지(edge)를 검출하고, 3D 영상의 우안 영상 내의 에지를 검출하며, 검출된 좌안 영상의 에지와 우안 영상의 에지를 비교하여, 백 깊이(back depth)를 갖는 영역을 검출할 수 있다.In particular, the controller 170 detects an area having a back depth in the 3D image. For example, the formatter 360 detects an edge in the left eye image of the 3D image, detects an edge in the right eye image of the 3D image, compares the detected edge of the left eye image with the edge of the right eye image, An area having a back depth can be detected.

좌안 영상의 에지 검출에 의해, 좌안 영상의 오브젝트가 검출될 수 있으며, 우안 영상의 에지 검출에 의해 우안 영상의 오브젝트가 검출될 수 있다. 도 7 등에서 상술한 바와 같이, 깊이는, 좌안 영상과 우안 영상 내의 오브젝트의 시차(disparity)에 의해 결정되므로, 좌안 영상의 오브젝트와 우안 영상의 오브젝트의 위치를 비교하여, 백 깊이(back depth)를 갖는 지 여부를 판단한다. 좌안 영상에서 우안 영상에 비해, 보다 좌측에 위치하는 오브젝트가 배치되는 경우, 백 깊이를 갖게 된다. An object of the left eye image may be detected by edge detection of the left eye image, and an object of the right eye image may be detected by edge detection of the right eye image. As described above in FIG. 7 and the like, since the depth is determined by the disparity of the objects in the left eye image and the right eye image, the back depth is compared by comparing the positions of the objects in the left eye image and the object in the right eye image. Determine whether you have. When the object located on the left side is arranged in the left eye image as compared to the right eye image, the left eye image has a back depth.

그리고, 제어부(170)는, 특히 포맷터(360)는, 검출된 백 깊이의 오브젝트 영역이 제2 영역 이상인지 여부를 판단한다. 한편, 복수개인 경우, 각각의 합이 제2 영역 이상인지 여부를 판단한다.In addition, the controller 170, in particular, the formatter 360 determines whether the detected object area of the back depth is greater than or equal to the second area. On the other hand, when there are a plurality, it is determined whether each sum is greater than or equal to the second area.

그리고, 해당하는 경우, 제어부(170), 특히 포맷터(360)는, 백 깊이의 크기가 작아지도록, 설정한다. 즉, 상술한 좌안 영상과 우안 영상 내의 오브젝트의 시차(disparity) 조정을 통해, 깊이의 크기가 작아지도록 설정한다. 이는, 과도한 함몰로 인해, 사용자가 3D 시청시 부자연스럽게 느낄 수 있는 것을 방지하기 위함이다. 이러한 백 깊이 크기의 축소에 의해, 사용자는 3D 영상 시청시 편안하게 시청할 수 있게 된다.In addition, if applicable, the control part 170, especially the formatter 360, sets so that the magnitude | size of a back depth may become small. That is, the size of the depth is set to be smaller by adjusting the disparity of the objects in the left eye image and the right eye image. This is to prevent the user from feeling unnatural when viewing 3D due to excessive depression. By reducing the size of the back depth, the user can comfortably watch 3D video.

한편, 깊이 변화량은, 백 깊이를 갖는 오브젝트 영역의 크기 등에 의해 가변될 수 있다. 예를 들어, 백 깊이를 갖는 오브젝트 영역이 제2 영역 이상인 상태에서, 그 크기가 커질수록, 백 깊이의 크기가 작아지도록 설정할 수 있다.Meanwhile, the depth change amount may vary depending on the size of the object region having the back depth. For example, in a state where the object area having the back depth is greater than or equal to the second area, as the size thereof increases, the size of the bag depth decreases.

또한, 깊이 변화량은, 백 깊이를 갖는 오브젝트 영역이 제2 영역 이상인 상태에서, 좌안 영상과 우안 영상의 차이가 기준치 이상인지 여부에 따라 달라질 수도 있다. In addition, the depth change amount may vary depending on whether the difference between the left eye image and the right eye image is greater than or equal to the reference value in a state where the object area having the back depth is equal to or greater than the second area.

예를 들어, 백 깊이를 갖는 영역이 제2 영역 이상이며, 좌안 영상과 우안 영상의 차이가 기준치 이상인 경우의 백 깊이의 변화량은, 백 깊이를 갖는 영역이 제2 영역 이상이며, 좌안 영상과 우안 영상의 차이가 기준치 미만인 경우의 백 깊이의 변화량 보다 크게 설정될 수 있다. 즉, 깊이의 크기가 더 작아지도록 설정할 수 있다. 이에 의해, 사용자는 3D 시청시 편안함을 느낄 수 있게 된다.For example, the amount of change in the back depth when the area having the back depth is greater than or equal to the second area and the difference between the left eye image and the right eye image is greater than or equal to the reference value, the area having the back depth is greater than or equal to the second area, the left eye image and the right eye If the difference in the image is less than the reference value may be set larger than the change amount of the back depth. That is, the depth can be set to be smaller. As a result, the user may feel comfortable when viewing 3D.

한편, 제어부(170), 특히 포맷터(360)는, 백 깊이를 갖는 영역이 제2 영역 미만인 경우, 백 깊이의 크기가 커지도록 설정하는 것도 가능하다. On the other hand, the control unit 170, especially the formatter 360, it is also possible to set the size of the back depth to be large, if the area having the back depth is less than the second area.

도 15는, 소정 깊이(d7)를 갖는 3D 오브젝트(1510)를 구비하는 3D 영상(1510)이 디스플레이(180)에 표시되는 것을 예시한다.FIG. 15 illustrates that a 3D image 1510 having a 3D object 1510 having a predetermined depth d7 is displayed on the display 180.

한편, 도 15와 도 16을 비교하면, 도 15와 도 16의 영상은 일부 유사한 점이 있어, 모션 또는 모션 변화량이 작은 것을 알 수 있다. 이에 따라, 이하의 깊이 가변 수행이 가능하게 된다.Meanwhile, comparing FIG. 15 with FIG. 16 shows that the images of FIGS. 15 and 16 have some similarities, so that the amount of motion or motion change is small. Accordingly, it is possible to perform the following variable depth.

도 16a는, 사이드 바이 사이드 포맷에 따라, 디스플레이(180)에 오브젝트(1125)를 갖는 좌안 영상(1110)과, 오브젝트(1115)를 갖는 우안 영상(1120)이 표시되는 것을 예시한다. 이에 의해, 도 16b와 같이, 3D 시청장치(195)를 착용한 사용자(1105)는, 소정 깊이(db)를 갖는 3D 오브젝트(1615)를 구비하는 3D 영상(1610)을 시청할 수 있게 된다.FIG. 16A illustrates that the left eye image 1110 having the object 1125 and the right eye image 1120 having the object 1115 are displayed on the display 180 according to the side by side format. Accordingly, as illustrated in FIG. 16B, the user 1105 wearing the 3D viewing apparatus 195 may watch the 3D image 1610 including the 3D object 1615 having a predetermined depth db.

도 17a는, 도 16의 3D 영상을 기준으로, 백 깊이가 조절된 3D 영상을 예시한다. 상술한 바와 같이, 에지 검출에 의해, 도 16a에서의 좌안 오브젝트(1125)와 우안 오브젝트(1115)가 검출될 수 있으며, 좌안 오브젝트(1125)와 우안 오브젝트(1115)의 위치 비교 등에 의해, 해당 오브젝트가 백 오브젝트(back object)인지 여부를 판단한다. 도 16b와 같이 백 오브젝트(1615)로 검출되는 경우, 백 오브젝트 영역이 제2 영역 이상인지 여부를 판단한다. 백 오브젝트의 크기가 제2 영역 이상인 경우, 도 17a와 같이 그 깊이의 크기를 축소하고, 그에 따라, 가변된 깊이(dc)의 3D 오브젝트(1715)를 갖는 3D 영상(1710)이 디스플레이(180) 상에 표시되게 된다. 이에 의해, 3D 시청장치(195)를 착용한 사용자(1105)는, 백 오브젝트가 깊이 조정되어 표시되므로, 편안하게 3D 영상을 시청할 수 있게 된다.FIG. 17A illustrates a 3D image in which a back depth is adjusted based on the 3D image of FIG. 16. As described above, the left eye object 1125 and the right eye object 1115 in FIG. 16A can be detected by edge detection, and the corresponding object is compared by the position comparison between the left eye object 1125 and the right eye object 1115. Determine whether is a back object. When detected as the back object 1615 as shown in FIG. 16B, it is determined whether the back object area is greater than or equal to the second area. If the size of the back object is greater than or equal to the second area, the depth of the depth is reduced as shown in FIG. 17A, and accordingly, the 3D image 1710 having the 3D object 1715 of variable depth dc is displayed. Will be displayed on the screen. As a result, the user 1105 wearing the 3D viewing apparatus 195 is able to comfortably watch the 3D image since the back object is displayed with the depth adjusted.

한편, 도 17b는, 도 16b의 오브젝트(1615)가 깊이 축소되어, 도 17a의 오브젝트(1715)와 같이 표시되는 것을 예시한다. 즉, 디스플레이(180) 방향으로 더 접근하게 된다.Meanwhile, FIG. 17B illustrates that the object 1615 of FIG. 16B is reduced in depth and displayed as the object 1715 of FIG. 17A. That is, closer to the display 180 direction.

한편, 도면에는 도시하지 않았지만, 상술한 바와 같이, 백 오브젝트 영역의 크기가 클수록, 깊이 변화량이 크게 설정되어, 해당 오브젝트의 깊이의 크기가 작아질 수 있다. 또한, 좌안 영상과 우안 영상의 차이가 클수록, 깊이 변화량이 크게 설정되어, 해당 오브젝트의 깊이의 크기가 작아질 수도 있다.On the other hand, although not shown in the drawing, as described above, the larger the size of the back object area, the larger the amount of change in depth, the smaller the size of the depth of the object. In addition, the greater the difference between the left eye image and the right eye image, the larger the amount of change in depth, and the smaller the depth of the object may be.

한편, 도면에는 도시하지 않았지만, 도 13과 유사하게, 각각 백 깊이를 갖는 복수의 오브젝트들을 구비하는 경우, 상술한 바와 같이, 백 깊이 가변을 수행하는 것도 가능하다. 백 깊이를 갖는 오브젝트의 개수가 증가할수록, 또는 전체 백 깊이 영역이 증가할수록, 깊이 변화량이 크게 설정되어, 해당 오브젝트의 깊이의 크기가 작아질 수도 있다.Although not shown in the drawing, similar to FIG. 13, when a plurality of objects each having a back depth is provided, it is also possible to perform variable bag depth as described above. As the number of objects having the bag depth increases, or as the total back depth area increases, the depth change amount may be set to be large, and the size of the depth of the object may be reduced.

본 발명에 따른 영상표시장치 및 그 동작방법은 상기한 바와 같이 설명된 실시예들의 구성과 방법이 한정되게 적용될 수 있는 것이 아니라, 상기 실시예들은 다양한 변형이 이루어질 수 있도록 각 실시예들의 전부 또는 일부가 선택적으로 조합되어 구성될 수도 있다.The image display apparatus and the operation method thereof according to the present invention are not limited to the configuration and method of the embodiments described above, but the embodiments may be applied to all or some of the embodiments May be selectively combined.

한편, 본 발명의 영상표시장치의 동작방법은 영상표시장치에 구비된 프로세서가 읽을 수 있는 기록매체에 프로세서가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 프로세서가 읽을 수 있는 기록매체는 프로세서에 의해 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 프로세서가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 데이터 저장장치 등이 있으며, 또한, 인터넷을 통한 전송 등과 같은 캐리어 웨이브의 형태로 구현되는 것도 포함한다. 또한, 프로세서가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 프로세서가 읽을 수 있는 코드가 저장되고 실행될 수 있다.Meanwhile, the operation method of the image display apparatus of the present invention can be implemented as a code that can be read by a processor on a recording medium readable by a processor included in the image display apparatus. The processor-readable recording medium includes all kinds of recording apparatuses in which data that can be read by the processor is stored. Examples of the processor-readable recording medium include ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical data storage device, and the like, and may also be implemented in the form of a carrier wave such as transmission over the Internet. . The processor-readable recording medium can also be distributed over network coupled computer systems so that the processor-readable code is stored and executed in a distributed fashion.

또한, 이상에서는 본 발명의 바람직한 실시예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어져서는 안될 것이다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed exemplary embodiments, but, on the contrary, It will be understood by those skilled in the art that various changes in form and detail may be made therein without departing from the spirit and scope of the present invention.

Claims (18)

3D 영상을 수신하는 단계;
상기 3D 영상의 모션을 검출하는 단계;
상기 3D 영상 내의 프론트 깊이를 갖는 영역을 검출하는 단계;
상기 프론트 깊이를 갖는 영역의 크기가 소정 제1 영역의 크기 이상인 경우, 상기 프론트 깊이가 작아지도록 가변하는 단계; 및
상기 깊이 가변된 3D 영상을 표시하는 단계;를 포함하며,
상기 3D 영상의 모션 또는 모션 변화량이 소정치 이하인 경우에, 상기 깊이 가변 단계가 수행되는 것을 특징으로 하는 영상표시장치의 동작방법.
Receiving a 3D image;
Detecting motion of the 3D image;
Detecting an area having a front depth in the 3D image;
If the size of the region having the front depth is greater than or equal to the size of the first region, changing the front depth to be smaller; And
Displaying the depth-variable 3D image;
And the depth varying step is performed when the motion or motion variation of the 3D image is less than or equal to a predetermined value.
제1항에 있어서,
상기 3D 영상 내의 백 깊이를 갖는 영역을 검출하는 단계; 및
상기 백 깊이를 갖는 영역의 크기가 소정 제2 영역의 크기 이상인 경우, 상기 백 깊이의 크기가 작아지도록 가변하는 단계;를 더 포함하는 것을 특징으로 하는 영상표시장치의 동작방법.
The method of claim 1,
Detecting an area having a back depth in the 3D image; And
If the size of the area having the back depth is greater than or equal to the size of the predetermined second area, varying the size of the back depth so that the size of the area is smaller.
제1항에 있어서,
상기 프론트 깊이를 갖는 영역을 검출하는 단계는,
상기 3D 영상의 좌안 영상 내의 에지를 검출하는 단계;
상기 3D 영상의 우안 영상 내의 에지를 검출하는 단계;
상기 좌안 영상의 에지와 상기 우안 영상의 에지를 비교하는 단계;를 포함하는 것을 특징으로 하는 영상표시장치의 동작방법.
The method of claim 1,
Detecting the region having the front depth,
Detecting an edge in a left eye image of the 3D image;
Detecting an edge in the right eye image of the 3D image;
And comparing an edge of the left eye image with an edge of the right eye image.
제2항에 있어서,
상기 백 깊이를 갖는 영역을 검출하는 단계는,
상기 3D 영상의 좌안 영상 내의 에지를 검출하는 단계;
상기 3D 영상의 우안 영상 내의 에지를 검출하는 단계;
상기 좌안 영상의 에지와 상기 우안 영상의 에지를 비교하는 단계;를 포함하는 것을 특징으로 하는 영상표시장치의 동작방법.
The method of claim 2,
Detecting the area having the back depth,
Detecting an edge in a left eye image of the 3D image;
Detecting an edge in the right eye image of the 3D image;
And comparing an edge of the left eye image with an edge of the right eye image.
제1항에 있어서,
상기 프론트 깊이 가변 단계는,
상기 프론트 깊이를 갖는 영역의 크기가 상기 제1 영역의 크기 이상이며, 상기 3D 영상의 좌안 영상과 우안 영상 사이의 시차가 기준치 이상인 경우의 프론트 깊이의 변화량은,
상기 프론트 깊이를 갖는 영역의 크기가 상기 제1 영역의 크기 이상이며, 상기 3D 영상의 좌안 영상과 우안 영상 사이의 시차가 상기 기준치 미만인 경우의 프론트 깊이의 변화량 보다 크게 설정되는 것을 특징으로 하는 영상표시장치의 동작방법.
The method of claim 1,
The front depth variable step,
The change amount of the front depth when the size of the area having the front depth is equal to or larger than the size of the first area and the parallax between the left eye image and the right eye image of the 3D image is greater than or equal to a reference value,
The size of the area having the front depth is greater than or equal to the size of the first area, and the image display is set to be larger than the change amount of the front depth when the parallax between the left eye image and the right eye image of the 3D image is less than the reference value. How the device works.
제2항에 있어서,
상기 백 깊이 가변 단계는,
상기 백 깊이를 갖는 영역의 크기가 상기 제2 영역의 크기 이상이며, 상기 3D 영상의 좌안 영상과 우안 영상 사이의 시차가 기준치 이상인 경우의 백 깊이의 변화량은,
상기 백 깊이를 갖는 영역의 크기가 상기 제2 영역의 크기 이상이며, 상기 3D 영상의 좌안 영상과 우안 영상 사이의 시차가 상기 기준치 미만인 경우의 백 깊이의 변화량 보다 크게 설정되는 것을 특징으로 하는 영상표시장치의 동작방법.
The method of claim 2,
The variable back depth step,
The amount of change in the back depth when the size of the area having the back depth is greater than or equal to the size of the second area and the parallax between the left eye image and the right eye image of the 3D image is greater than or equal to a reference value,
The size of the area having the back depth is greater than or equal to the size of the second area, and the image display is set larger than the amount of change in the back depth when the parallax between the left eye image and the right eye image of the 3D image is less than the reference value. How the device works.
제1항에 있어서,
상기 프론트 깊이 가변 단계는,
상기 프론트 깊이를 갖는 영역의 크기가 상기 제1 영역의 크기 미만인 경우, 상기 프론트 깊이가 커지도록 설정하는 것을 특징으로 하는 영상표시장치의 동작방법.
The method of claim 1,
The front depth variable step,
And when the size of the region having the front depth is less than the size of the first region, setting the front depth to be large.
제2항에 있어서,
상기 백 깊이 가변 단계는,
상기 백 깊이를 갖는 영역의 크기가 상기 제2 영역의 크기 미만인 경우, 상기 백 깊이의 크기가 커지도록 설정하는 것을 특징으로 하는 영상표시장치의 동작방법.
The method of claim 2,
The variable back depth step,
And when the size of the area having the back depth is less than the size of the second area, setting the size of the back depth to be large.
삭제delete 3D 영상을 수신하는 단계;
상기 3D 영상의 모션을 검출하는 단계;
상기 3D 영상 내의 프론트 깊이 또는 백 깊이를 갖는 영역을 검출하는 단계;
상기 3D 영상의 모션 또는 모션 변화량, 상기 프론트 깊이 영역 또는 백 깊이 중 적어도 하나에 기초하여, 상기 3D 영상의 깊이를 가변하는 단계; 및
상기 깊이 가변된 3D 영상을 표시하는 단계;를 포함하는 것을 특징으로 하는 영상표시장치의 동작방법.
Receiving a 3D image;
Detecting motion of the 3D image;
Detecting an area having a front depth or a back depth in the 3D image;
Varying a depth of the 3D image based on at least one of a motion or a motion variation amount of the 3D image, the front depth region, or a back depth; And
Displaying the depth-variable 3D image; and operating the image display device.
영상을 표시하는 디스플레이; 및
수신되는 3D 영상 내의 프론트 깊이를 갖는 영역의 크기가 소정 제1 영역의 크기 이상인 경우, 상기 프론트 깊이가 작아지도록 가변하며, 상기 깊이 가변된 3D 영상을 표시하도록 제어하는 제어부;를 포함하며,
상기 제어부는,
상기 3D 영상의 모션 또는 모션 변화량이 소정치 이하인 경우에, 상기 깊이 가변을 수행하는 것을 특징으로 하는 영상표시장치.
A display for displaying an image; And
If the size of the area having a front depth in the received 3D image is greater than or equal to the size of the first area, the control unit for varying the front depth is small, and controls to display the 3D image of the variable depth;
The control unit,
And varying the depth when the motion or motion variation of the 3D image is less than or equal to a predetermined value.
제11항에 있어서,
상기 제어부는,
상기 3D 영상 내의 백 깊이를 갖는 영역의 크기가 소정 제2 영역의 크기 이상인 경우, 상기 백 깊이의 크기가 작아지도록 가변하는 것을 특징으로 하는 영상표시장치.
The method of claim 11,
The control unit,
And when the size of the area having the back depth in the 3D image is greater than or equal to the size of the second predetermined area, the size of the back depth is changed to be smaller.
제11항에 있어서,
상기 제어부는,
상기 3D 영상의 좌안 영상 내의 에지 및 우안 영상 내의 에지를 검출하고, 상기 검출된 좌안 영상의 에지와 상기 우안 영상의 에지를 비교하여 상기 프론트 깊이 영역을 검출하는 것을 특징으로 하는 영상표시장치.
The method of claim 11,
The control unit,
And an edge in a left eye image and an edge in a right eye image of the 3D image, and detecting the front depth area by comparing the detected edge of the left eye image with an edge of the right eye image.
제12항에 있어서,
상기 제어부는,
상기 3D 영상의 좌안 영상 내의 에지 및 우안 영상 내의 에지를 검출하고, 상기 검출된 좌안 영상의 에지와 상기 우안 영상의 에지를 비교하여 상기 백 깊이 영역을 검출하는 것을 특징으로 하는 영상표시장치.
The method of claim 12,
The control unit,
And an edge in a left eye image and an edge in a right eye image of the 3D image, and detecting the back depth area by comparing the detected edge of the left eye image with an edge of the right eye image.
제11항에 있어서,
상기 제어부는,
상기 프론트 깊이를 갖는 영역의 크기가 상기 제1 영역의 크기 이상이며, 상기 3D 영상의 좌안 영상과 우안 영상 사이의 시차가 기준치 이상인 경우의, 프론트 깊이의 변화량은,
상기 프론트 깊이를 갖는 영역의 크기가 상기 제1 영역의 크기 이상이며, 상기 3D 영상의 좌안 영상과 우안 영상 사이의 시차가 상기 기준치 미만인 경우의, 프론트 깊이의 변화량 보다 크도록 설정하는 것을 특징으로 하는 영상표시장치.
The method of claim 11,
The control unit,
When the size of the area having the front depth is equal to or larger than the size of the first area, and the parallax between the left eye image and the right eye image of the 3D image is greater than or equal to the reference value, the amount of change in the front depth is
Wherein the size of the area having the front depth is equal to or larger than the size of the first area, and is set to be larger than the change amount of the front depth when the parallax between the left eye image and the right eye image of the 3D image is less than the reference value. Video display device.
제12항에 있어서,
상기 제어부는,
상기 백 깊이를 갖는 영역의 크기가 상기 제2 영역의 크기 이상이며, 상기 3D 영상의 좌안 영상과 우안 영상 사이의 시차가 기준치 이상인 경우의, 백 깊이의 변화량은,
상기 백 깊이를 갖는 영역의 크기가 상기 제2 영역의 크기 이상이며, 상기 3D 영상의 좌안 영상과 우안 영상 사이의 시차가 상기 기준치 미만인 경우의, 백 깊이의 변화량 보다 크도록 설정하는 것을 특징으로 하는 영상표시장치.
The method of claim 12,
The control unit,
When the size of the area having the back depth is equal to or larger than the size of the second area, and the parallax between the left eye image and the right eye image of the 3D image is equal to or greater than a reference value,
Wherein the size of the area having the back depth is equal to or larger than the size of the second area, and is set to be larger than the change amount of the back depth when the parallax between the left eye image and the right eye image of the 3D image is less than the reference value. Video display device.
제11항에 있어서,
상기 제어부는,
상기 3D 영상의 모션 또는 모션 변화량을 검출하는 것을 특징으로 하는 영상표시장치.
The method of claim 11,
The control unit,
And a motion or motion change amount of the 3D image.
제11항에 있어서,
상기 제어부는,
수신되는 3D 영상 내의 프론트 깊이를 갖는 영역의 크기가 상기 제1 영역의 크기 이상인 경우, 상기 프론트 깊이가 작아지도록 가변하는 포맷터;를 포함하는 것을 특징으로 하는 영상표시장치.

The method of claim 11,
The control unit,
And a formatter configured to reduce the front depth when the size of the region having the front depth in the received 3D image is greater than or equal to the size of the first region.

KR1020100097106A 2010-10-06 2010-10-06 Image display apparatus, and method for operating the same KR101176500B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020100097106A KR101176500B1 (en) 2010-10-06 2010-10-06 Image display apparatus, and method for operating the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020100097106A KR101176500B1 (en) 2010-10-06 2010-10-06 Image display apparatus, and method for operating the same

Publications (2)

Publication Number Publication Date
KR20120035536A KR20120035536A (en) 2012-04-16
KR101176500B1 true KR101176500B1 (en) 2012-08-22

Family

ID=46137426

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020100097106A KR101176500B1 (en) 2010-10-06 2010-10-06 Image display apparatus, and method for operating the same

Country Status (1)

Country Link
KR (1) KR101176500B1 (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100667810B1 (en) * 2005-08-31 2007-01-11 삼성전자주식회사 Apparatus for controlling depth of 3d picture and method therefor

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100667810B1 (en) * 2005-08-31 2007-01-11 삼성전자주식회사 Apparatus for controlling depth of 3d picture and method therefor

Also Published As

Publication number Publication date
KR20120035536A (en) 2012-04-16

Similar Documents

Publication Publication Date Title
US8803954B2 (en) Image display device, viewing device and methods for operating the same
KR101627214B1 (en) Image Display Device and Operating Method for the Same
KR101349276B1 (en) Video display device and operating method therefor
KR20110052771A (en) Image display device and operating method for the same
KR20110053734A (en) Image display device and operating method for the same
EP2424257A2 (en) Video display apparatus and operating method therefor
KR20110052306A (en) Apparatus for displaying image and method for operating the same
KR20110082380A (en) Apparatus for displaying image and method for operating the same
KR20110052308A (en) Apparatus for displaying image and method for operating the same
KR20110117490A (en) Method for operating an apparatus for displaying image
KR20120034996A (en) Image display apparatus, and method for operating the same
KR101708692B1 (en) Image display apparatus and method for operating the same
KR20110090640A (en) Image display device and operating method for the same
KR101730424B1 (en) Image display apparatus and method for operating the same
KR101730323B1 (en) Apparatus for viewing image image display apparatus and method for operating the same
KR20120062428A (en) Image display apparatus, and method for operating the same
KR101176500B1 (en) Image display apparatus, and method for operating the same
KR20120034836A (en) Image display apparatus, and method for operating the same
KR20110134087A (en) Image display apparatus and method for operating the same
KR101737367B1 (en) Image display apparatus and method for operating the same
KR101716144B1 (en) Image display apparatus, and method for operating the same
KR20120034995A (en) Image display apparatus, and method for operating the same
KR102014149B1 (en) Image display apparatus, and method for operating the same
KR20110133296A (en) Apparatus for viewing 3d image and method for operating the same
KR101730423B1 (en) Apparatus for displaying image and method for operating the same

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20150724

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20160722

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20170724

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20180724

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20190724

Year of fee payment: 8