[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2005065162A - Display device, transmitting apparatus, transmitting/receiving system, transmitting/receiving method, display method, transmitting method, and remote controller - Google Patents

Display device, transmitting apparatus, transmitting/receiving system, transmitting/receiving method, display method, transmitting method, and remote controller Download PDF

Info

Publication number
JP2005065162A
JP2005065162A JP2003296050A JP2003296050A JP2005065162A JP 2005065162 A JP2005065162 A JP 2005065162A JP 2003296050 A JP2003296050 A JP 2003296050A JP 2003296050 A JP2003296050 A JP 2003296050A JP 2005065162 A JP2005065162 A JP 2005065162A
Authority
JP
Japan
Prior art keywords
display
data
displayed
depth
depth direction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2003296050A
Other languages
Japanese (ja)
Other versions
JP4400143B2 (en
Inventor
Mitsuteru Kataoka
充照 片岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP2003296050A priority Critical patent/JP4400143B2/en
Publication of JP2005065162A publication Critical patent/JP2005065162A/en
Application granted granted Critical
Publication of JP4400143B2 publication Critical patent/JP4400143B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Controls And Circuits For Display Device (AREA)
  • Stereoscopic And Panoramic Photography (AREA)
  • Processing Or Creating Images (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a display device which performs three-dimensional (3D) display with high visibility for the audience by changing information relating to the depth direction of object data. <P>SOLUTION: The information relating to the depth direction of objects which comprise a display video image, other than the object designated by an input part 107 is changed by a 3D conversion part 109 so as to be displayed with the narrower depth and width. A video signal processing part 105 creates a 3D display video image based on the changed information, and a display part 110 displays the 3D display video image. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

本発明は、映像データ等を送信する送信装置、映像データを立体的に表示可能な表示装置、映像データを送受信することができる送受信システム、送受信方法、表示方法、送信方法、および映像に関する制御をすることができるリモコンに関するものである。   The present invention relates to a transmission device that transmits video data and the like, a display device that can display video data in three dimensions, a transmission / reception system that can transmit and receive video data, a transmission / reception method, a display method, a transmission method, and video control. It relates to a remote control that can do.

従来から、注視位置を変化させることにより、オブジェクト空間にあるオブジェクトの見え方を変化させて表示できることが知られていた。注視位置とは、表示上の視差が無くなる位置である。   Conventionally, it has been known that the appearance of an object in the object space can be changed and displayed by changing the gaze position. The gaze position is a position where the parallax on the display disappears.

そこで、両眼の視差を発生させる2つの異なる画像を生成する際に、注視位置の近傍にあるオブジェクトほど視差が無くなるように、左右両眼で認識される画像が一致するようにする。逆に、注視位置から離れたオブジェクトほど視差が誘発されるように、左右両眼で認識される画像にずれを与える。   Therefore, when generating two different images that generate binocular parallax, the images recognized by both the left and right eyes are made to coincide so that the object closer to the gaze position has no parallax. Conversely, the image recognized by both the left and right eyes is shifted so that parallax is induced as the object is farther from the gaze position.

その結果、注視位置の近傍にあるオブジェクトに対して、注視位置から手前にあるオブジェクトは飛び出して見え、注視位置から奥にあるオブジェクトは奥に引き下がって見える。   As a result, with respect to the object in the vicinity of the gaze position, the object in front of the gaze position appears to jump out, and the object in the back from the gaze position appears to be pulled back.

例えば、図48は表示画面4801に表示されるオブジェクト4802とオブジェクト4803とオブジェクト4804が示されており、また注視位置をそれぞれ注視位置4805、注視位置4806、注視位置4807と設定した場合が示されている。なお、視聴者は矢印方向へ視線を向けているとする。   For example, FIG. 48 shows an object 4802, an object 4803, and an object 4804 displayed on the display screen 4801, and shows a case where the gaze positions are set as a gaze position 4805, a gaze position 4806, and a gaze position 4807, respectively. Yes. It is assumed that the viewer is looking at the direction of the arrow.

まず、注視位置4805と設定されたとき、オブジェクト4802とオブジェクト4803とオブジェクト4804はともに奥に引き下がって表示される。   First, when the gaze position 4805 is set, the object 4802, the object 4803, and the object 4804 are all pulled down and displayed.

また、注視位置4806と設定されたときは、視聴者はオブジェクト4802とオブジェクト4804が手前に飛び出して表示される一方、オブジェクト4803は奥に引き下がって表示される。   When the gaze position 4806 is set, the viewer displays the object 4802 and the object 4804 as they jump out, and the object 4803 is displayed while being pulled back.

また、注視位置4807と設定されたときは、オブジェクト4802とオブジェクト4803とオブジェクト4804はともに手前に飛び出して表示される。(例えば特許文献1参照)。
特開2003−107603号公報(第14頁、第6図)
When the gaze position 4807 is set, the object 4802, the object 4803, and the object 4804 are all popped out and displayed. (For example, refer to Patent Document 1).
JP 2003-107603 A (page 14, FIG. 6)

ところで、上記方法によるオブジェクトの見え方は、注視位置を基準として、注視位置からオブジェクトの相対的な位置に依存していた。   By the way, the appearance of the object by the above method depends on the relative position of the object from the gaze position with the gaze position as a reference.

従って、例えば、複数のオブジェクトが近接しているような場合、その中から特定のオブジェクトのみを際立たせて表示させ、見やすい映像を得ることは難しかった。   Therefore, for example, when a plurality of objects are close to each other, it is difficult to display only a specific object while making it stand out and obtain an easy-to-view video.

また、例えば、オブジェクトが遠近さまざまな場所に配置されているような場合、激しい遠近差により視聴者の眼に疲労感を与え、やはり見やすい映像を得ることは難しかった
In addition, for example, when objects are arranged at various places in the perspective, it is difficult to obtain an easy-to-view video because the viewer's eyes are tired due to the severe perspective difference.

そこで、本発明は上記課題に鑑み、視聴者にとって視認性の高い立体表示を行う表示装置等を提供するものである。   Accordingly, in view of the above problems, the present invention provides a display device that performs stereoscopic display with high visibility for a viewer.

上記の課題を解決するために本発明による表示装置は、オブジェクトを立体的に表示することができるオブジェクトデータを取得する取得手段と、取得手段で取得したオブジェクトデータの奥行き方向に関する情報を変更する制御手段と、制御手段により変更されたオブジェクトデータに基づいてオブジェクトを立体的に表示する表示手段とを備えたものである。これにより、オブジェクトデータのうち奥行き方向に関する情報について変更を行い、そのオブジェクトデータに基づいてオブジェクトを立体的に表示することができる。   In order to solve the above problems, a display device according to the present invention includes an acquisition unit that acquires object data that can display an object in three dimensions, and a control that changes information related to the depth direction of the object data acquired by the acquisition unit. Means, and display means for stereoscopically displaying the object based on the object data changed by the control means. Thereby, the information regarding the depth direction in the object data can be changed, and the object can be stereoscopically displayed based on the object data.

また、表示手段に表示されるオブジェクトの中からオブジェクトを指定するオブジェクト指定手段を備えることにより、オブジェクト指定手段で指定されたオブジェクトまたはオブジェクト指定手段で指定されたオブジェクト以外の所定のオブジェクトで表示手段に表示されるオブジェクトのオブジェクトデータの奥行き方向に関する情報を変更できる。   Further, by providing an object designating unit for designating an object from among the objects displayed on the display unit, the object designated by the object designating unit or a predetermined object other than the object designated by the object designating unit is displayed on the display unit. Information about the depth direction of the object data of the displayed object can be changed.

また、奥行き方向に関する情報に基づいてオブジェクト指定手段で指定されたオブジェクトまたはオブジェクト指定手段で指定されたオブジェクト以外の所定のオブジェクトで表示手段に表示されるオブジェクトの奥行き位置または奥行き幅のうち少なくとも一方に関する情報を変更できる。   Further, it relates to at least one of the depth position or the depth width of the object displayed on the display means by a predetermined object other than the object specified by the object specifying means or the object specified by the object specifying means based on the information about the depth direction. You can change the information.

また、オブジェクト指定手段で指定されたオブジェクトの奥行き位置とオブジェクト指定手段で指定されたオブジェクト以外の所定のオブジェクトで表示手段に表示されるオブジェクトの奥行き位置とを比較し、比較結果に基づいて指定されたオブジェクト以外の所定のオブジェクトで表示手段に表示されるオブジェクトのオブジェクトデータの奥行き方向に関する情報を変更できる。   In addition, the depth position of the object specified by the object specifying means is compared with the depth position of the object displayed on the display means by a predetermined object other than the object specified by the object specifying means, and specified based on the comparison result. Information regarding the depth direction of the object data of the object displayed on the display means with a predetermined object other than the object can be changed.

また、オブジェクト指定手段で指定されたオブジェクトの奥行き位置とオブジェクト指定手段で指定されたオブジェクト以外の所定のオブジェクトで表示手段に表示されるオブジェクトの奥行き位置との差が狭まるように、比較結果に基づいて表示手段に表示されるオブジェクトのオブジェクトデータの奥行き方向に関する情報を変更できる。   Further, based on the comparison result, the difference between the depth position of the object specified by the object specifying means and the depth position of the object displayed on the display means by a predetermined object other than the object specified by the object specifying means is narrowed. Thus, the information regarding the depth direction of the object data of the object displayed on the display means can be changed.

また、オブジェクト指定手段で指定されたオブジェクトの奥行き位置が、オブジェクト指定手段で指定されたオブジェクト以外の所定のオブジェクトで表示手段により表示されるオブジェクトの奥行き位置よりも手前に表示されるように、比較結果に基づいて表示手段に表示されるオブジェクトのオブジェクトデータの奥行き方向に関する情報を変更できる。   Also, the comparison is performed so that the depth position of the object specified by the object specifying means is displayed in front of the depth position of the object displayed by the display means on a predetermined object other than the object specified by the object specifying means. Based on the result, the information about the depth direction of the object data of the object displayed on the display means can be changed.

また、オブジェクト指定手段で指定されたオブジェクトの奥行き幅が広くなるように、またはオブジェクト指定手段で指定されたオブジェクト以外の所定のオブジェクトで表示手段に表示されるオブジェクトの奥行き幅が狭くなるように、オブジェクト指定手段で指定されたオブジェクトのオブジェクトデータの奥行き方向に関する情報について変更できる。   Further, the depth width of the object specified by the object specifying means is widened, or the depth width of the object displayed on the display means by a predetermined object other than the object specified by the object specifying means is narrowed. Information about the depth direction of the object data of the object specified by the object specifying means can be changed.

また、オブジェクト指定手段で指定されたオブジェクトの奥行き位置が、オブジェクト指定手段で指定されたオブジェクト以外の所定のオブジェクトで表示手段により表示されるオブジェクトの奥行き位置よりも手前に表示されるように、表示手段に表示されるオブ
ジェクトのオブジェクトデータの奥行き方向に関する情報を変更できる。
Also, the display is performed so that the depth position of the object specified by the object specifying means is displayed in front of the depth position of the object displayed by the display means for a predetermined object other than the object specified by the object specifying means. Information about the depth direction of the object data of the object displayed on the means can be changed.

また、奥行き方向に対して垂直方向に広がる平面である基準平面とオブジェクト指定手段で指定されたオブジェクト以外の所定のオブジェクトで表示手段に表示されるオブジェクトの奥行き位置との差を狭めるように、オブジェクト指定手段で指定されたオブジェクト以外で表示手段に表示されるオブジェクトのオブジェクトデータのうち奥行き方向に関する情報について変更できる。   Further, the object is set so that the difference between the reference plane which is a plane extending in the vertical direction with respect to the depth direction and the depth position of the object displayed on the display unit with a predetermined object other than the object specified by the object specifying unit is narrowed. Information related to the depth direction can be changed among the object data of the objects displayed on the display means other than the objects specified by the specifying means.

また、表示手段に表示されるオブジェクトは、1以上の第1のオブジェクトと第1のオブジェクトに含まれる第2のオブジェクトとを有し、表示手段に表示されるオブジェクトの中から1以上の第1のオブジェクトを指定するオブジェクト指定手段を備え、制御手段は、オブジェクト指定手段で指定された第1のオブジェクトに含まれる第2のオブジェクトまたはオブジェクト指定手段で指定された第1のオブジェクト以外の第1のオブジェクトに含まれる第2のオブジェクトの奥行き方向に関する情報を変更できる。   The object displayed on the display means includes one or more first objects and a second object included in the first object, and one or more first objects selected from the objects displayed on the display means. The object designating means for designating the first object other than the first object designated by the second object included in the first object designated by the object designating means or the object designating means is provided. Information about the depth direction of the second object included in the object can be changed.

また、制御手段は、表示手段に表示されるオブジェクトの注目度に応じて、オブジェクトのオブジェクトデータの奥行き方向に関する情報を変更できる。   Further, the control unit can change information regarding the depth direction of the object data of the object in accordance with the degree of attention of the object displayed on the display unit.

また、表示手段に表示されるオブジェクトは番組の表を構成するオブジェクトであり、制御手段は番組の視聴率が高いほどオブジェクトの奥行き幅が広くなるようにオブジェクトのオブジェクトデータの奥行き方向に関する情報を変更できる。   In addition, the object displayed on the display means is an object constituting a program table, and the control means changes information on the depth direction of the object data of the object so that the depth width of the object becomes wider as the audience rating of the program is higher. it can.

また、表示手段に表示されるオブジェクトは階層構造で表示されるオブジェクトであり、制御手段は上位階層のオブジェクトに対して下位階層のオブジェクトの奥行き幅が広くなるように、下位階層のオブジェクトのオブジェクトデータの奥行き方向に関する情報を変更できる。   Further, the object displayed on the display means is an object displayed in a hierarchical structure, and the control means sets the object data of the object in the lower hierarchy so that the depth width of the object in the lower hierarchy is wider than the object in the upper hierarchy. You can change the information about the depth direction.

また、取得手段がオブジェクトデータの奥行き方向に関する情報を変更する処理手順を示す操作コードを取得したとき、制御手段は操作コードに基づいてオブジェクトのオブジェクトデータの奥行き方向に関する情報を変更できる。   In addition, when the acquisition unit acquires an operation code indicating a processing procedure for changing information related to the depth direction of the object data, the control unit can change information related to the depth direction of the object data of the object based on the operation code.

また、取得手段がオブジェクトデータの奥行き方向に関する情報を変更する処理手順を示す操作コードを取得したとき、制御手段は、操作コードまたはあらかじめ保持している操作コードのいずれかに基づいてオブジェクトのオブジェクトデータの奥行き方向に関する情報を変更することができる。   In addition, when the acquisition unit acquires an operation code indicating a processing procedure for changing information about the depth direction of the object data, the control unit acquires the object data of the object based on either the operation code or the operation code held in advance. It is possible to change the information regarding the depth direction.

また、操作コードがオブジェクトデータの奥行き方向に関する情報を変更するオブジェクトを指定する値であるとき、制御手段はオブジェクトを指定する値により指定されるオブジェクトまたはオブジェクトを指定する値により指定されるオブジェクト以外の所定のオブジェクトで表示手段に表示されるオブジェクトのオブジェクトデータの奥行き方向に関する情報を変更できる。   In addition, when the operation code is a value that designates an object that changes the information related to the depth direction of the object data, the control means may specify an object that is designated by the value that designates the object, or an object that is designated by the value that designates the object. Information regarding the depth direction of the object data of the object displayed on the display means with the predetermined object can be changed.

また、本発明による送信装置は、オブジェクトを立体的に表示することができるオブジェクトデータの奥行き方向に関する情報を変更する処理手順を示す操作コードとを送信できる。   In addition, the transmission device according to the present invention can transmit an operation code indicating a processing procedure for changing information related to the depth direction of object data capable of displaying an object in three dimensions.

また、本発明による送受信システムは、オブジェクトを立体的に表示することができるオブジェクトデータを送信する送信装置と、オブジェクトを立体的に表示することができるオブジェクトデータを受信する受信手段と、受信手段で受信したオブジェクトデータの奥行き方向に関する情報を変更する制御手段とを有するものである。これにより、オブジ
ェクトを立体的に表示することができるオブジェクトデータを送信し、そのオブジェクトデータを受信装置で受信することによって受信したオブジェクトデータの奥行き方向に関する情報を変更できる。
In addition, a transmission / reception system according to the present invention includes a transmission device that transmits object data that can display an object in three dimensions, a reception unit that receives object data that can display an object in three dimensions, and a reception unit. And control means for changing information related to the depth direction of the received object data. Thereby, the object data which can display an object in three dimensions is transmitted, The information regarding the depth direction of the received object data can be changed by receiving the object data with a receiver.

また、オブジェクトデータの奥行き方向に関する情報を変更する処理手順を示す操作コードを送信装置で送信し、その操作コードに基づいて受信装置においてオブジェクトのオブジェクトデータの奥行き方向に関する情報を変更できる。   In addition, an operation code indicating a processing procedure for changing information regarding the depth direction of the object data is transmitted by the transmission device, and information regarding the depth direction of the object data of the object can be changed at the reception device based on the operation code.

また、本発明によるリモコンは、立体的に表示されているオブジェクトの中から奥行き幅または奥行き位置を変更するオブジェクトを指定できるオブジェクト指定部を備えている。これにより、立体的に表示されているオブジェクトの中から奥行き幅または奥行き位置を変更するオブジェクトを指定できる。   In addition, the remote control according to the present invention includes an object designating unit that can designate an object whose depth width or depth position is to be designated from among three-dimensionally displayed objects. As a result, an object whose depth width or depth position is to be changed can be specified from among the three-dimensionally displayed objects.

また、立体的に表示されるオブジェクトの中で奥行き幅または奥行き位置を変更するオブジェクトの変更後の奥行き幅または奥行き位置を指定できる。   Further, it is possible to specify the depth width or the depth position after the change of the object whose depth width or depth position is changed among the objects displayed stereoscopically.

本発明により視聴者にとって視認性の高い立体表示を行う表示装置等を提供することができる。   According to the present invention, it is possible to provide a display device that performs stereoscopic display with high visibility for a viewer.

以下、本発明の実施の形態を、図面を参照しながら説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

(第1の実施の形態)
第1の実施の形態は、立体的に表示されるオブジェクトの奥行き幅を変更して表示する一例を示すものである。特に、指定したオブジェクトの視認性を向上させるために、指定したオブジェクト以外のオブジェクトの奥行き幅を変更して表示するものである。
(First embodiment)
The first embodiment shows an example in which the depth width of an object displayed stereoscopically is changed and displayed. In particular, in order to improve the visibility of a designated object, the depth width of an object other than the designated object is changed and displayed.

まず、第1の実施の形態の受信装置101について、図1を用いて説明する。受信装置101は、受信部102と分離部103、デコーダ104、映像信号処理部105、制御部106、入力部107、記憶部108、3D変換部109、表示部110を備えている。   First, the receiving apparatus 101 according to the first embodiment will be described with reference to FIG. The reception apparatus 101 includes a reception unit 102, a separation unit 103, a decoder 104, a video signal processing unit 105, a control unit 106, an input unit 107, a storage unit 108, a 3D conversion unit 109, and a display unit 110.

例えば、受信装置101とはテレビであり、勿論ケーブルテレビ網に接続して番組を受信したり、電話回線に接続してインターネット接続や通信カラオケを提供するような様々なサービスを受けられるテレビであってもよい。また、受信装置101は必ずしも上記構成を満たさなければならないものではなく、例えば表示部110を有さず、新たに表示を行う別機器に接続する必要があるようなSTB(セット・トップ・ボックス)であってもよい。   For example, the receiving device 101 is a television, and of course, a television that can receive various programs such as connecting to a cable television network to receive a program, or connecting to a telephone line to provide an internet connection or communication karaoke. May be. Further, the receiving apparatus 101 does not necessarily have to satisfy the above-described configuration. For example, the STB (set top box) that does not have the display unit 110 and needs to be connected to another device that newly performs display. It may be.

受信部102は、送信装置から送られてくる信号を受信して復調し、分離部103へ出力する。   The receiving unit 102 receives and demodulates a signal transmitted from the transmitting device, and outputs the demodulated signal to the separating unit 103.

分離部103は、受信部102から出力された信号に含まれる映像信号及び音声信号と番組に関する情報等の付加情報とを分離する。そして、映像信号及び音声信号はデコーダ104に出力され、付加情報は制御部106に出力される。   The separation unit 103 separates the video signal and audio signal included in the signal output from the reception unit 102 and the additional information such as information related to the program. Then, the video signal and the audio signal are output to the decoder 104, and the additional information is output to the control unit 106.

デコーダ104は、分離部103から出力された映像信号をデコード処理し、3D変換部109へ出力する。また、分離部103から出力された音声信号をデコード処理し、音声信号処理部(図示せず)を介しスピーカ等の音声出力部(図示せず)へ出力する。   The decoder 104 decodes the video signal output from the separation unit 103 and outputs the decoded video signal to the 3D conversion unit 109. Also, the audio signal output from the separation unit 103 is decoded and output to an audio output unit (not shown) such as a speaker via an audio signal processing unit (not shown).

3D変換部109は、デコーダ104から出力された映像信号に対して所定の処理を施し、映像信号部へ出力する。ただし、3D変換部109が所定の処理を行うのは、映像信号にオブジェクトデータ等の立体映像を表示するための情報が含まれている場合である。   The 3D conversion unit 109 performs predetermined processing on the video signal output from the decoder 104 and outputs the processed signal to the video signal unit. However, the 3D conversion unit 109 performs the predetermined process when the video signal includes information for displaying a stereoscopic video such as object data.

記憶部108は、制御部106からの付加情報を記憶する以外に、受信装置101に予め格納されている設定値や、視聴者からの要求で表示部110に表示が行われるオブジェクトデータも記憶している。例えば、後に述べる図16に示すような設定を行うためのメニューオブジェクトや、図31に示すような放送番組一覧オブジェクト、図37に示すような多画面一覧オブジェクトのオブジェクトデータを記憶している。   In addition to storing the additional information from the control unit 106, the storage unit 108 also stores setting values stored in advance in the receiving apparatus 101 and object data that is displayed on the display unit 110 in response to a request from the viewer. ing. For example, object data of a menu object for setting as shown in FIG. 16 described later, a broadcast program list object as shown in FIG. 31, and a multi-screen list object as shown in FIG. 37 are stored.

入力部107は、表示映像を構成しているオブジェクトから特定のオブジェクトを指定するためのオブジェクトIDを制御部106に出力する。   The input unit 107 outputs an object ID for designating a specific object from the objects constituting the display video to the control unit 106.

制御部106は、分離部103からの付加情報を記憶部108に出力する以外に、入力部107から出力されたオブジェクトIDを3D変換部109に出力する。また、受信部102に対して所望の映像信号を受信するように制御を行う。   In addition to outputting the additional information from the separation unit 103 to the storage unit 108, the control unit 106 outputs the object ID output from the input unit 107 to the 3D conversion unit 109. Further, control is performed so that the receiving unit 102 receives a desired video signal.

映像信号処理部105は、3D変換部109から出力されたオブジェクトデータに基づいて、表示映像を作成する。表示映像とは、例えば、ディスプレイに映される映像のことである。   The video signal processing unit 105 creates a display video based on the object data output from the 3D conversion unit 109. The display video is, for example, video displayed on the display.

表示部110は、映像信号処理部105により作成された表示映像を表示する。なお、表示映像を立体的に表示する方法としては、視聴者に赤と青の色フィルタをつけたメガネを着用させて左眼用、右眼用の映像を見せる方法や、上記に挙げたような立体映像を表示するための専用のメガネを用いずにディスプレイに左眼用、右眼用映像を交互に切り替えて表示する方法や、スリットを設ける方法等があるが、いずれの方法であってもよい。   The display unit 110 displays the display video created by the video signal processing unit 105. In addition, as a method of displaying the display image in three dimensions, as shown in the above method, the viewer can wear glasses with red and blue color filters and display the left-eye and right-eye images. There are a method of alternately switching the left and right eye images on the display without using dedicated glasses for displaying 3D images, and a method of providing slits. Also good.

ところで、第1の実施の形態の受信装置101で扱うオブジェクトデータは、図2に示すように、オブジェクトの識別を行うためのオブジェクトID201と、オブジェクトを表示するためのオブジェクト表示情報202から構成されているものとする。   By the way, the object data handled by the receiving apparatus 101 of the first embodiment is composed of an object ID 201 for identifying an object and object display information 202 for displaying the object, as shown in FIG. It shall be.

オブジェクト表示情報202は、オブジェクト空間内に設定されるx軸、y軸、z軸から成る絶対的な座標系を使用して位置が特定されるドットの集合として表される。   The object display information 202 is represented as a set of dots whose positions are specified using an absolute coordinate system including an x-axis, a y-axis, and a z-axis set in the object space.

具体的に述べると、以下で説明する図6のオブジェクト602は、8つのドット605、606、607、608、609、610、611、612から構成されているので、オブジェクト602のオブジェクト表示情報には8つのドット605、606、607、608、609、610、611、612の位置情報がそれぞれ記されている。   More specifically, the object 602 in FIG. 6 described below is composed of eight dots 605, 606, 607, 608, 609, 610, 611, and 612. Position information of eight dots 605, 606, 607, 608, 609, 610, 611, and 612 is shown.

座標系に関しては、図3に示すように、表示を行うディスプレイ左下を原点301とし、x軸は画面右方向、y軸は画面上方向、z軸は画面手前方向をそれぞれ正の方向として設定する。また、z軸座標値が正の値で表されるドットは、表示画面を眺める視聴者にとって、表示画面よりも手前に飛び出て見えるように表示される。
ところで、本発明の実施の形態を説明するにあたり、奥行き方向とはz軸に対して負の方向であるとし、手前とはz軸に対して正の方向、奥側とはz軸に対して負の方向であるとする。
As for the coordinate system, as shown in FIG. 3, the lower left of the display to be displayed is set as the origin 301, the x axis is set to the right side of the screen, the y axis is set to the upper direction of the screen, and the z axis is set to the forward direction of the screen. . In addition, the dot whose z-axis coordinate value is expressed as a positive value is displayed so that the viewer who looks at the display screen appears to jump out before the display screen.
By the way, in describing the embodiment of the present invention, the depth direction is a negative direction with respect to the z axis, the near side is the positive direction with respect to the z axis, and the far side is with respect to the z axis. Suppose that the direction is negative.

また、オブジェクトの奥行き位置とは、オブジェクト表示情報のうちのすべてのドットから得られるz軸座標値のうちの最大値とする。   The depth position of the object is the maximum value among the z-axis coordinate values obtained from all the dots in the object display information.

さらに、オブジェクトの奥行き幅とは、オブジェクト表示情報のうちのすべてのドットから得られるz軸座標値のうちの最大値からz軸座標値のうちの最小値を減じた値とする。   Further, the depth width of the object is a value obtained by subtracting the minimum value of the z-axis coordinate values from the maximum value of the z-axis coordinate values obtained from all the dots in the object display information.

また、オブジェクトは複数のオブジェクトの集合により構成することができる。例えば、景色を表すオブジェクトであれば、木を表すオブジェクトや山を表すオブジェクトから構成される。   An object can be constituted by a set of a plurality of objects. For example, an object representing a landscape includes an object representing a tree and an object representing a mountain.

次に、第1の実施の形態の受信装置101が行う処理手順について述べ、そのフローを図4に示す。   Next, a processing procedure performed by the receiving apparatus 101 according to the first embodiment will be described, and its flow is shown in FIG.

まず、視聴者はリモコン等の入力部107から特定のオブジェクトを指定するためのオブジェクトIDを入力する(ステップS401)。   First, the viewer inputs an object ID for designating a specific object from the input unit 107 such as a remote controller (step S401).

次に、入力したオブジェクトID以外のオブジェクトIDを有するオブジェクトの奥行き幅を狭めるために倍率値の数値入力を入力部107から行う(ステップS402)。倍率値とは、あるオブジェクトのオブジェクト表示情報から求められる奥行き幅に対する奥行き幅を狭めた後のオブジェクトの奥行き幅の割合のことである。例えば、倍率値を0.5と定めたとき、オブジェクトの奥行き幅は半分に狭められる。   Next, in order to narrow the depth width of an object having an object ID other than the input object ID, a numerical value of a magnification value is input from the input unit 107 (step S402). The magnification value is a ratio of the depth width of the object after the depth width is reduced with respect to the depth width obtained from the object display information of a certain object. For example, when the magnification value is set to 0.5, the depth width of the object is reduced to half.

次に、制御部106は、入力部107により入力された倍率値とオブジェクトIDを3D変換部109に出力する(ステップS403)。   Next, the control unit 106 outputs the magnification value and the object ID input by the input unit 107 to the 3D conversion unit 109 (step S403).

3D変換部109は、制御部106から受け取ったオブジェクトIDを有するオブジェクトを除き、映像を構成するオブジェクトの奥行き幅を狭めるように、倍率値に基づいてオブジェクト表示情報を変更する(ステップS404)。   The 3D conversion unit 109 changes the object display information based on the magnification value so as to narrow the depth width of the objects constituting the video except for the object having the object ID received from the control unit 106 (step S404).

映像信号処理部105は、変更されたオブジェクト表示情報に基づいて立体映像を作成する(ステップS405)。   The video signal processing unit 105 creates a stereoscopic video based on the changed object display information (step S405).

表示部110は、映像信号処理部105で作成された立体映像を表示する(ステップS406)。   The display unit 110 displays the stereoscopic video created by the video signal processing unit 105 (step S406).

なお、ステップS402において、一定時間の間に視聴者から倍率値の入力が行われない場合は、予め設定された倍率値に基づいて処理が続行されるようにしてもよい。   In step S402, if no magnification value is input from the viewer for a certain period of time, the processing may be continued based on a preset magnification value.

例えば、視聴者が入力部107から特定のオブジェクトのオブジェクトIDを入力した後、制御部106は視聴者から倍率値に数値入力が行われるまで処理を中断する。そして、中断した時間が予め定めた設定時間を超えた場合、制御部106は、記憶部108に予め設定された倍率値を取得し、3D変換部109に出力してもよい。   For example, after the viewer inputs an object ID of a specific object from the input unit 107, the control unit 106 interrupts the process until a numerical value is input to the magnification value from the viewer. When the interrupted time exceeds a predetermined set time, the control unit 106 may acquire a magnification value set in advance in the storage unit 108 and output it to the 3D conversion unit 109.

また、上記したように倍率値に入力を待つことなく、予め設定された倍率値を用いてもよい。その場合、図4に示した処理手順において、ステップS402は行われず、ステップS401のあと、ステップS403が行われることになる。   Further, as described above, a preset magnification value may be used without waiting for input of the magnification value. In that case, in the processing procedure shown in FIG. 4, step S402 is not performed, and step S403 is performed after step S401.

また、ステップS401が行われない場合も考えられる。例えば、後に述べる第6の実施の形態には、送信装置から特定のオブジェクトを選択できる例が示されており、受信装置で必ずしも特定のオブジェクトを指定する必要はない。   A case where step S401 is not performed is also conceivable. For example, in a sixth embodiment described later, an example in which a specific object can be selected from a transmission device is shown, and it is not always necessary to specify a specific object on the reception device.

次に、図4に示した処理手順において、3D変換部109が行う処理を詳細に述べ、そのフローを図5に示す。   Next, the processing performed by the 3D conversion unit 109 in the processing procedure shown in FIG. 4 will be described in detail, and the flow is shown in FIG.

入力部107により指定されたオブジェクトのオブジェクトIDを制御部106から受け取ったとき、3D変換部109は表示映像を構成するためにデコーダ104から出力されるオブジェクトのオブジェクトIDを読みとる(ステップS501)。   When the object ID of the object specified by the input unit 107 is received from the control unit 106, the 3D conversion unit 109 reads the object ID of the object output from the decoder 104 in order to form a display video (step S501).

読みとったすべてのオブジェクトのオブジェクトIDの中に、指定されたオブジェクトIDと一致するものがあるかを確認する(ステップS502)。   It is confirmed whether there is an object ID that matches the specified object ID among the object IDs of all the read objects (step S502).

もし、指定されたオブジェクトIDと一致するものがなければ(ステップS502でN)、3D変換部109が行う処理を終了する(ステップS503)。   If there is no object that matches the specified object ID (N in step S502), the process performed by the 3D conversion unit 109 is terminated (step S503).

もし、指定されたオブジェクトIDと一致するものがあれば(ステップS502でY)、処理を続行する。そして、指定されたオブジェクトIDと一致しないオブジェクトを選び出し(ステップS504)、そのオブジェクトのオブジェクト表示情報に含まれるすべてのドットのz軸座標値からz軸座標値の最大値、即ちオブジェクトの奥行き位置を求める(ステップS505)。   If there is an object that matches the specified object ID (Y in step S502), the process is continued. Then, an object that does not match the designated object ID is selected (step S504), and the maximum value of the z-axis coordinate value, that is, the depth position of the object is determined from the z-axis coordinate values of all the dots included in the object display information of the object. Obtained (step S505).

そして、ステップS504で選びだしたオブジェクトを構成する各ドットのz軸座標値を変更する。例えば、ステップS505で求めたオブジェクトの奥行き位置をDとし、倍率値をMとして表すと、変更後のドットのz軸座標値を、(D−M×(D−変更前のドットのz軸座標値))に基づいて変更する(ステップS506)。   Then, the z-axis coordinate value of each dot constituting the object selected in step S504 is changed. For example, when the depth position of the object obtained in step S505 is represented as D and the magnification value is represented as M, the changed z-axis coordinate value of the dot is expressed as (D−M × (D−z-axis coordinate of the dot before change). Value)) (step S506).

その後、デコーダ104から出力されたすべてのオブジェクトのオブジェクトIDが確認されたかを調べる(ステップS507)。   Thereafter, it is checked whether or not the object IDs of all the objects output from the decoder 104 have been confirmed (step S507).

もし、指定されたオブジェクトIDと一致しないオブジェクトで、表示映像に映し出されるすべてのオブジェクトのオブジェクトIDが確認されたならば(ステップS507でY)、3D変換部109が行う処理を終了する(ステップS503)。なお、すべてのオブジェクトとは、後に述べる図6を用いると、選択されたオブジェクト602以外のオブジェクト603とオブジェクト604のことである。 もし、すべてのオブジェクトのオブジェクトIDが確認されていなければ(ステップS507でN)、ステップS504に戻って処理を続ける。   If the object IDs of all objects displayed on the display video with objects that do not match the designated object ID are confirmed (Y in step S507), the processing performed by the 3D conversion unit 109 is terminated (step S503). ). Note that all objects refer to objects 603 and 604 other than the selected object 602 when FIG. 6 described later is used. If the object IDs of all the objects have not been confirmed (N in step S507), the process returns to step S504 and continues.

次に、第1の実施の形態を図6に示した表示映像に基づいて説明を行う。   Next, the first embodiment will be described based on the display image shown in FIG.

図6は、表示画面601に映し出される表示映像が示され、表示映像はオブジェクト602、オブジェクト603、オブジェクト604により構成されている。さらに、表示映像を上から眺めたときの、各オブジェクトのx軸座標とz軸座標による位置が示されている。   FIG. 6 shows a display video displayed on the display screen 601, and the display video is composed of an object 602, an object 603, and an object 604. Further, the position of each object according to the x-axis coordinate and the z-axis coordinate when the display image is viewed from above is shown.

なお、各オブジェクトの識別を行うため、オブジェクト602のIDを「001」、オブジェクト603のIDを「002」、オブジェクト604のIDを「003」とする。   In order to identify each object, the ID of the object 602 is “001”, the ID of the object 603 is “002”, and the ID of the object 604 is “003”.

また、各オブジェクトは8つのドットから構成されているとし、オブジェクト602を構成する8つのドットの座標値は、ドット605(1、3、5)、ドット606(1、3、7)、ドット607(4、3、5)、ドット608(4、3、7)、ドット609(1、5、5)、ドット610(1、5、7)、ドット611(4、5、5)、ドット612(4、5、7)とする。また、オブジェクト602の奥行き幅は、オブジェクト602を
構成するすべてのドットのうち、z軸座標値の最大値からz軸座標値の最小値を減じた値となるので、7−5=2である。
Also, it is assumed that each object is composed of eight dots, and the coordinate values of the eight dots constituting the object 602 are dot 605 (1, 3, 5), dot 606 (1, 3, 7), dot 607. (4, 3, 5), dot 608 (4, 3, 7), dot 609 (1, 5, 5), dot 610 (1, 5, 7), dot 611 (4, 5, 5), dot 612 (4, 5, 7). The depth width of the object 602 is 7−5 = 2 because it is a value obtained by subtracting the minimum value of the z-axis coordinate value from the maximum value of the z-axis coordinate value among all the dots constituting the object 602. .

同様に、オブジェクト603を構成する8つのドットの座標値は、ドット613(7、3、1)、ドット614(7、3、3)、ドット615(10、3、1)、ドット616(10、3、3)、ドット617(7、5、1)、ドット618(7、5、3)、ドット619(10、5、1)、ドット620(10、5、3)とする。このとき、オブジェクト603の奥行き幅は、3−1=2である。   Similarly, coordinate values of eight dots constituting the object 603 are dot 613 (7, 3, 1), dot 614 (7, 3, 3), dot 615 (10, 3, 1), dot 616 (10 3, 3), dot 617 (7, 5, 1), dot 618 (7, 5, 3), dot 619 (10, 5, 1), dot 620 (10, 5, 3). At this time, the depth width of the object 603 is 3-1 = 2.

オブジェクト604を構成する8つのドットの座標値は、ドット621(12、3、5)、ドット622(12、3、6)、ドット623(15、3、5)、ドット624(15、3、6)、ドット625(12、5、5)、ドット626(12、5、6)、ドット627(15、5、5)、ドット628(15、5、6)とする。このとき、オブジェクト604の奥行き幅は、6−5=1である。   The coordinate values of the eight dots constituting the object 604 are dot 621 (12, 3, 5), dot 622 (12, 3, 6), dot 623 (15, 3, 5), dot 624 (15, 3, 6), dots 625 (12, 5, 5), dots 626 (12, 5, 6), dots 627 (15, 5, 5), and dots 628 (15, 5, 6). At this time, the depth width of the object 604 is 6-5 = 1.

まず、視聴者は入力部107から特定のオブジェクトを指定するためのオブジェクトIDをリモコン等から入力する。ここでは、オブジェクト602を指定するために、オブジェクト602のオブジェクトIDである「001」がリモコンから出力されたとする。   First, the viewer inputs an object ID for designating a specific object from the input unit 107 from a remote controller or the like. Here, it is assumed that “001”, which is the object ID of the object 602, is output from the remote controller in order to specify the object 602.

次に、オブジェクト603とオブジェクト604の奥行き幅を狭めるために倍率値の数値入力をリモコン等から行う。第1の実施の形態では、倍率値を0.5とする。   Next, in order to narrow the depth width of the object 603 and the object 604, a numerical value of a magnification value is input from a remote controller or the like. In the first embodiment, the magnification value is 0.5.

なお、特定のオブジェクトの選択や、倍率値の数値入力をリモコン等から行うと書いたが、上記方法以外でもよい。例えば、図7に示すようなリモコン701を用いる方法が考えられる。リモコン701は、電源ボタン702とチャンネル切換ボタン703と十字オブジェクト選択ボタン704と操作ハンドル705を備えている。視聴者は十字オブジェクト選択ボタン704により、映像を構成しているオブジェクトから特定のオブジェクトを選択できる。また、操作ハンドル705を矢印方向706に操作することにより、画面上で確認しながら倍率の数値設定を行うことができる。なお、図8に示すようなリモコン801を用いる方法も考えられる。リモコン801は、電源ボタン802とチャンネル切換ボタン803と十字オブジェクト選択ボタン804と球体805を備えており、オブジェクト選択ボタン804により特定のオブジェクトを選択し、矢印方向806に球体を回転しながら設定を行えるようにしてもよい。   In addition, although it wrote that selection of a specific object and numerical value input of a magnification value were performed from a remote control etc., it may be other than the above method. For example, a method using a remote controller 701 as shown in FIG. 7 can be considered. The remote controller 701 includes a power button 702, a channel switching button 703, a cross object selection button 704, and an operation handle 705. The viewer can select a specific object from the objects constituting the video by using the cross object selection button 704. Further, by operating the operation handle 705 in the arrow direction 706, the numerical value of the magnification can be set while confirming on the screen. A method using a remote controller 801 as shown in FIG. 8 is also conceivable. The remote controller 801 includes a power button 802, a channel switching button 803, a cross object selection button 804, and a sphere 805. A specific object can be selected by the object selection button 804 and settings can be performed while rotating the sphere in the arrow direction 806. You may do it.

また、図6に示す表示映像に関して、視聴者が操作ハンドル705または球体805を操作したとき、表示映像は図9に示すような映像になる。なお、図9の構成について、図6に示したものと同じ構成であるものに関しては、図6で付した番号を援用する。   Further, regarding the display image shown in FIG. 6, when the viewer operates the operation handle 705 or the sphere 805, the display image becomes an image as shown in FIG. In addition, about the structure of FIG. 9, about the thing which is the same structure as what was shown in FIG. 6, the number attached | subjected in FIG. 6 is used.

図9には、表示画面601に選択したオブジェクト602、表示映像を構成するオブジェクト603とオブジェクト604、右下に制御状況表示オブジェクト901が表示されている。   In FIG. 9, the selected object 602 is displayed on the display screen 601, the objects 603 and 604 constituting the display video, and the control status display object 901 is displayed on the lower right.

制御状況表示オブジェクト901は、倍率値の大小の程度をグラフ表示902にして、簡単に把握できるためのものである。制御状況表示オブジェクト901には、「狭く」903、「元の幅」904、「広く」905と表示されており、「元の幅」904は倍率値が1となる地点である。図9では、グラフ表示が「元の幅」904と「狭く」903の中間あたりとなっており、本来の幅よりも若干狭めて表示されている、と確認できる。   The control status display object 901 is a graph display 902 for easily grasping the magnitude of the magnification value. The control status display object 901 displays “narrow” 903, “original width” 904, and “wide” 905, and “original width” 904 is a point where the magnification value is 1. In FIG. 9, the graph display is in the middle of “original width” 904 and “narrow” 903, and it can be confirmed that the graph is displayed slightly narrower than the original width.

また、表示画面601の中で、選択したオブジェクト602を瞬時に把握できるように矢印906が表示されている。   An arrow 906 is displayed on the display screen 601 so that the selected object 602 can be grasped instantaneously.

なお、制御状況表示オブジェクト901は、上記したように倍率値の大小の程度を示すのではなく、数値で表示してもよい。また、制御状況表示オブジェクト901が表示されるのは、操作ハンドル705または球体805により倍率値を設定するときのみ表示させてもよいし、選択したオブジェクト以外に表示映像を構成するオブジェクトの奥行き幅を狭めるように制御している間、表示させておいてもよいものとする。   Note that the control status display object 901 may be displayed numerically instead of indicating the magnitude of the magnification value as described above. The control status display object 901 may be displayed only when the magnification value is set by the operation handle 705 or the sphere 805, or the depth width of the objects constituting the display video other than the selected object may be displayed. It may be displayed during the control to be narrowed.

なお、操作ハンドル705または球体805は、第2の実施の形態で述べる差分値の数値を設定できるようにしてもよく、その場合、制御状況表示オブジェクト901は差分値の数値や程度を示すものであってもよい。   Note that the operation handle 705 or the sphere 805 may be set to the numerical value of the difference value described in the second embodiment, and in this case, the control status display object 901 indicates the numerical value and degree of the difference value. There may be.

また、矢印906は、選択したオブジェクト602を瞬時に把握できるような表示を行うものであれば他の手段でもよく、例えば制御状況表示オブジェクト901内に選択したオブジェクト602を縮尺して形状を表して表示するようなものであってもよい。   The arrow 906 may be other means as long as it can display the selected object 602 instantaneously. For example, the selected object 602 is scaled to represent the shape in the control status display object 901. It may be displayed.

次に、制御部106はオブジェクト602のIDである「001」と、倍率値0.5を3D変換部109に出力する。   Next, the control unit 106 outputs “001” that is the ID of the object 602 and the magnification value 0.5 to the 3D conversion unit 109.

3D変換部109は、映像を構成するオブジェクト602とオブジェクト603とオブジェクト604のオブジェクトIDをそれぞれ読みとり、その中からオブジェクトID「001」を有するオブジェクトと有さないオブジェクトとを識別する。   The 3D conversion unit 109 reads the object IDs of the object 602, the object 603, and the object 604 constituting the video, and identifies an object having the object ID “001” and an object having no object from them.

そして、オブジェクトID「001」を有さないオブジェクト603とオブジェクト604のうち、まずオブジェクト603のオブジェクトデータのオブジェクト表示情報から8つのドットの座標値を読みとる。そして、8つのドットのz軸座標値から最大値を求める。この場合、最大値は3である。   Of the objects 603 and 604 that do not have the object ID “001”, first, the coordinate values of eight dots are read from the object display information of the object data of the object 603. Then, the maximum value is obtained from the z-axis coordinate values of the eight dots. In this case, the maximum value is 3.

なお、オブジェクト表示情報のすべてのドットから得られるz軸座標値の最大値はオブジェクトの奥行き位置であるので、オブジェクト603の奥行き位置は3となる。   Since the maximum value of the z-axis coordinate value obtained from all the dots of the object display information is the depth position of the object, the depth position of the object 603 is 3.

次に、オブジェクト603を構成する8つのドットのz軸座標値を、オブジェクト603の奥行き位置を変更せず、オブジェクト603の奥行き幅を狭めるように変更する。例えば、オブジェクトの奥行き位置をDとし、倍率値をMとして表すと、変更後のドットのz軸座標値を(D−M×(D−変更前のドットのz軸座標値))に基づいて変更する。   Next, the z-axis coordinate values of the eight dots constituting the object 603 are changed so as to narrow the depth width of the object 603 without changing the depth position of the object 603. For example, if the depth position of the object is represented as D and the magnification value is represented as M, the z-axis coordinate value of the dot after change is based on (D−M × (D−z-axis coordinate value of dot before change)). change.

変更の一例を示すと、オブジェクト603を構成するドット617のz軸座標値は1であるので、z軸座標値の更新値は上式より、変更後のドットのz軸座標値=3−0.5(3−1)=2となる。この演算は、オブジェクト603を構成するすべてのドットについて行われる。   As an example of the change, since the z-axis coordinate value of the dot 617 constituting the object 603 is 1, the updated value of the z-axis coordinate value is the z-axis coordinate value of the dot after change = 3-0 from the above equation. .5 (3-1) = 2. This calculation is performed for all dots constituting the object 603.

次に、表示映像を構成するオブジェクトの中で、オブジェクト603以外でオブジェクトID「001」を有さないオブジェクトがあるかを調べる。そして、オブジェクト604についてはまだ処理が行われていないため、オブジェクト604について、オブジェクト604を構成するすべてのドットについて演算を行う。   Next, it is checked whether there is an object that does not have the object ID “001” other than the object 603 among the objects constituting the display video. Since the object 604 has not been processed yet, the object 604 is calculated for all the dots constituting the object 604.

表示映像を構成するオブジェクトの中ですべてのオブジェクトについて処理を行ったので、映像信号処理部105は、3D変換部109により更新されたオブジェクトデータに基づいて、オブジェクト602とオブジェクト603とオブジェクト604の立体映像を作成し、立体映像を表示する。   Since all the objects included in the display video are processed, the video signal processing unit 105 is based on the object data updated by the 3D conversion unit 109, and the objects 602, 603, and 604 are three-dimensional. Create video and display 3D video.

上記処理により、図6に示した表示映像は図10のようになる。なお、図10において、図6と同様の構成には同一番号を付し、説明は図6のものを援用する。   By the above processing, the display image shown in FIG. 6 becomes as shown in FIG. In FIG. 10, the same components as those in FIG. 6 are denoted by the same reference numerals, and the description of FIG.

図10において、表示映像を構成しているオブジェクトのうち、オブジェクト603を構成するドットと、オブジェクト604を構成するドットの位置は変更され、新たにオブジェクト1003、オブジェクト1004として表示されている。   In FIG. 10, among the objects constituting the display video, the positions of the dots constituting the object 603 and the dots constituting the object 604 are changed and are newly displayed as objects 1003 and 1004.

オブジェクト1003を構成する8つのドットの座標値は、ドット1005(7、3、2)、ドット1006(7、3、3)、ドット1007(10、3、2)、ドット1008(10、3、3)、ドット1009(7、5、2)、ドット1010(7、5、3)、ドット1011(10、5、2)、ドット1012(10、5、3)となっている。   The coordinate values of the eight dots constituting the object 1003 are dot 1005 (7, 3, 2), dot 1006 (7, 3, 3), dot 1007 (10, 3, 2), dot 1008 (10, 3, 2). 3), dot 1009 (7, 5, 2), dot 1010 (7, 5, 3), dot 1011 (10, 5, 2), and dot 1012 (10, 5, 3).

オブジェクト1004を構成する8つのドットの座標値は、ドット1013(12、3、5.5)、ドット1014(12、3、6)、ドット1015(15、3、5.5)、ドット1016(15、3、6)、ドット1017(12、5、5.5)、ドット1018(12、5、6)、ドット1019(15、5、5.5)、ドット1020(15、5、6)となっている。   The coordinate values of the eight dots constituting the object 1004 are dot 1013 (12, 3, 5.5), dot 1014 (12, 3, 6), dot 1015 (15, 3, 5.5), dot 1016 ( 15, 3, 6), dot 1017 (12, 5, 5.5), dot 1018 (12, 5, 6), dot 1019 (15, 5, 5.5), dot 1020 (15, 5, 6) It has become.

従って、変更を行う前のオブジェクト603の奥行き幅が2であったのに対して、倍率値を0.5と設定したことにより、変更を行った後のオブジェクト1003の奥行き幅は3−2=1となって表示される。   Therefore, the depth width of the object 1003 before the change is 2, whereas the magnification value is set to 0.5, so that the depth width of the object 1003 after the change is 3-2 = 1 is displayed.

同様に、変更を行う前のオブジェクト604の奥行き幅が1であったのに対して、倍率値を0.5と設定したことにより、変更を行った後のオブジェクト1004の奥行き幅は6−5.5=0.5となって表示される。   Similarly, the depth width of the object 604 before the change is 1, whereas the depth value of the object 1004 after the change is 6-5 by setting the magnification value to 0.5. .5 = 0.5 is displayed.

なお、図6から図10の表示映像に至る過程における3D変換部109の処理手順を図5に示したが、例えば、図6から図10の表示画面に至る処理の途中に、図11に示すように別のオブジェクト1101が表示映像に現れることが考えられる。このとき、3D変換部109は、オブジェクト1101に対しても図5に示した処理を行うことにより、表示映像中の選択したオブジェクト602以外のオブジェクトの奥行き幅を狭める。   The processing procedure of the 3D conversion unit 109 in the process from the display image of FIGS. 6 to 10 is shown in FIG. 5. For example, in the middle of the process from FIG. 6 to the display screen of FIG. Thus, it is conceivable that another object 1101 appears in the display image. At this time, the 3D conversion unit 109 reduces the depth width of the objects other than the selected object 602 in the display video by performing the processing shown in FIG.

また、上記した例では、倍率値を0.5と設定して、選択したオブジェクト以外で表示映像を構成しているオブジェクトの奥行き幅を狭めて表示させたが、例えば倍率値を1以上の値で設定して、選択したオブジェクトの奥行き幅を広めて設定するように処理してもよい。その時、上記したステップS502の後で、ステップS504として、選択されたオブジェクトのオブジェクトIDと一致するオブジェクトを選び出し、ステップS505の処理を行えばよい。要は、選択したオブジェクトを際立たせて表示させるために、選択したオブジェクトの奥行き幅を他のオブジェクトの奥行き幅に比べて相対的に広く表示できればよい。   In the above example, the magnification value is set to 0.5 and the depth of the objects constituting the display video other than the selected object is displayed narrowly. For example, the magnification value is 1 or more. It is also possible to set so that the depth width of the selected object is set wider. At that time, after step S502 described above, as step S504, an object that matches the object ID of the selected object may be selected and the process of step S505 may be performed. In short, in order to make the selected object stand out and displayed, it is only necessary that the depth width of the selected object can be displayed relatively wider than the depth width of other objects.

以上、第1の実施の形態によれば、視聴者に対する立体映像特有の圧迫感を抑制することができ、視聴者が指定したオブジェクトの表示を際立たせることができる。   As described above, according to the first embodiment, it is possible to suppress a feeling of pressure peculiar to stereoscopic video for the viewer, and to make the display of the object specified by the viewer stand out.

(第2の実施の形態)
第2の実施の形態は、立体的に表示されるオブジェクトの奥行き位置を変更して表示することにより、表示画面全体のオブジェクトの奥行き位置の遠近差が解消され、立体映像特有の圧迫感が抑制されるものである。
(Second Embodiment)
In the second embodiment, by changing and displaying the depth position of a stereoscopically displayed object, the perspective difference of the depth position of the object on the entire display screen is eliminated, and a sense of pressure peculiar to stereoscopic video is suppressed. It is what is done.

なお、第2の実施の形態の受信装置101は図1に示したものと同じ構成であり、以下
の説明では図1で付した番号を援用する。
Note that the receiving apparatus 101 of the second embodiment has the same configuration as that shown in FIG. 1, and the numbers given in FIG. 1 are used in the following description.

また、第2の実施の形態の受信装置101が行う処理手順については、ステップS402以外の処理については図4と同様に行われる。   Further, regarding the processing procedure performed by the receiving apparatus 101 of the second embodiment, the processing other than step S402 is performed in the same manner as in FIG.

第2の実施の形態の受信装置101では、ステップS402において、差分値を入力する。差分値とは、指定したオブジェクトIDを有するオブジェクト以外で表示映像を構成するオブジェクトの奥行き位置を、指定したオブジェクトIDを有するオブジェクトの奥行き位置に近づけるときに、移動できるz軸座標値のことである。   In the receiving apparatus 101 according to the second embodiment, a difference value is input in step S402. The difference value is a z-axis coordinate value that can be moved when the depth position of an object constituting the display video other than the object having the specified object ID is brought close to the depth position of the object having the specified object ID. .

また、3D変換部109が行うオブジェクト表示情報変更処理について、第1の実施の形態において示した図5のステップS506以外のステップでは同様の処理が行われるので、ステップS506について詳細に説明する。   Further, the object display information change process performed by the 3D conversion unit 109 is performed in steps other than step S506 of FIG. 5 illustrated in the first embodiment, and therefore step S506 will be described in detail.

第2の実施の形態において、ステップS506では、指定されたオブジェクトIDを有するオブジェクトの奥行き位置と映像を構成するオブジェクトの奥行き位置との大きさを比較する。   In the second embodiment, in step S506, the size of the depth position of the object having the designated object ID is compared with the depth position of the objects constituting the video.

もし、指定されたオブジェクトの奥行き位置が、ステップS504で選び出されたオブジェクトの奥行き位置よりも大きい値であれば、ステップS504で選び出されたオブジェクトを構成する各ドットのz軸座標値を(各ドットのz軸座標値+差分値)に基づいて変更する。   If the depth position of the designated object is larger than the depth position of the object selected in step S504, the z-axis coordinate value of each dot constituting the object selected in step S504 is ( It is changed based on the z-axis coordinate value + difference value of each dot.

もし、指定されたオブジェクトの奥行き位置が、ステップS504で選び出されたオブジェクトの奥行き位置よりも小さい値であれば、ステップS504で選び出されたオブジェクトを構成する各ドットのz軸座標値を(各ドットのz軸座標値−差分値)に基づいて変更する。   If the depth position of the designated object is smaller than the depth position of the object selected in step S504, the z-axis coordinate value of each dot constituting the object selected in step S504 is ( It is changed based on the z-axis coordinate value-difference value of each dot.

次に、上記した第2の実施の形態の処理を図6に示す表示画面に適用した例を示す。差分値は2とする。   Next, an example in which the process of the second embodiment described above is applied to the display screen shown in FIG. The difference value is 2.

3D変換部109において、オブジェクト603とオブジェクト604を構成するドットを変更する。   In the 3D conversion unit 109, the dots constituting the object 603 and the object 604 are changed.

例えば、オブジェクト603を構成するドット617を例にして説明する。オブジェクト602の奥行き位置は7であり、ドット617のz軸座標値は1である。従って、指定されたオブジェクトの奥行き位置がオブジェクトの奥行き位置よりも大きい値であり、各ドットのz軸座標値を(各ドットのz軸座標値+差分値)に基づいて変更する。即ち、ドット617のz軸座標値の更新値は、上式より(1+2)=3となる。この演算をオブジェクト603を構成するすべてのドットについて行う。同様に、オブジェクトID「001」を有さないオブジェクト604についても、オブジェクト604を構成するすべてのドットについて演算を行う。   For example, a description will be given taking the dot 617 constituting the object 603 as an example. The depth position of the object 602 is 7, and the z-axis coordinate value of the dot 617 is 1. Therefore, the depth position of the designated object is larger than the depth position of the object, and the z-axis coordinate value of each dot is changed based on (z-axis coordinate value + difference value of each dot). That is, the updated value of the z-axis coordinate value of the dot 617 is (1 + 2) = 3 from the above equation. This calculation is performed for all the dots constituting the object 603. Similarly, for the object 604 that does not have the object ID “001”, the calculation is performed for all the dots that form the object 604.

上記処理により、図6に示した表示映像は図12のようになる。なお、図12において、図6と同様の構成には同一番号を付し、説明は図6のものを援用する。   By the above processing, the display image shown in FIG. 6 becomes as shown in FIG. In FIG. 12, the same components as those in FIG. 6 are denoted by the same reference numerals, and the description of FIG.

図12において、表示映像を構成しているオブジェクトのうち、オブジェクト1203を構成するドットと、オブジェクト1204を構成するドットの位置は変更されている。   In FIG. 12, among the objects constituting the display video, the positions of the dots constituting the object 1203 and the dots constituting the object 1204 are changed.

オブジェクト1203を構成する8つのドットの座標値は、ドット1205(7、3、
3)、ドット1206(7、3、5)、ドット1207(10、3、3)、ドット1208(10、3、5)、ドット1209(7、5、3)、ドット1210(7、5、5)、ドット1211(10、5、3)、ドット1212(10、5、5)となる。このとき、奥行き位置は5、奥行き幅は2となる。
The coordinate values of the eight dots constituting the object 1203 are the dots 1205 (7, 3,
3), dot 1206 (7, 3, 5), dot 1207 (10, 3, 3), dot 1208 (10, 3, 5), dot 1209 (7, 5, 3), dot 1210 (7, 5, 5), dot 1211 (10, 5, 3), and dot 1212 (10, 5, 5). At this time, the depth position is 5 and the depth width is 2.

オブジェクト1204を構成する8つのドットの座標値は、ドット1213(12、3、7)、ドット1214(12、3、8)、ドット1215(15、3、7)、ドット1216(15、3、8)、ドット1217(12、5、7)、ドット1218(12、5、8)、ドット1219(15、5、7)、ドット1220(15、5、8)となる。このとき、奥行き位置は8、奥行き幅は1となる。   The coordinate values of the eight dots constituting the object 1204 are dot 1213 (12, 3, 7), dot 1214 (12, 3, 8), dot 1215 (15, 3, 7), dot 1216 (15, 3, 8), dot 1217 (12, 5, 7), dot 1218 (12, 5, 8), dot 1219 (15, 5, 7), and dot 1220 (15, 5, 8). At this time, the depth position is 8 and the depth width is 1.

図12のオブジェクト1203とオブジェクト1204は、オブジェクト603、オブジェクト604と比較して、オブジェクト602に近づいて表示されている。実際、各オブジェクトの奥行き位置の差が緩和されている。そのため、画面全体のオブジェクトの遠近差が解消され、立体映像特有の圧迫感が抑制され、視聴者の眼の負担も緩和され疲労感を抑えることができる。 なお、第2の実施の形態における3D変換部109の処理のステップS506において、オブジェクトの奥行き幅を倍率値分だけ変更させるとともに、奥行き位置も倍率値分だけ変更させるために、各ドットのz軸座標値を(各ドットのz軸座標値×倍率値)に基づいて変更してもよい。この式によれば、オブジェクトの奥行き幅が倍率値分だけ変更されるとともに、奥行き位置も倍率値分だけ変更される。   The objects 1203 and 1204 in FIG. 12 are displayed closer to the object 602 than the objects 603 and 604. Actually, the difference in the depth position of each object is reduced. Therefore, the perspective difference of the object of the whole screen is eliminated, the feeling of pressure peculiar to a three-dimensional image is suppressed, the burden on the viewer's eyes is alleviated, and the feeling of fatigue can be suppressed. In step S506 of the processing of the 3D conversion unit 109 in the second embodiment, the z-axis of each dot is used to change the depth width of the object by the magnification value and also change the depth position by the magnification value. The coordinate value may be changed based on (z-axis coordinate value × magnification value of each dot). According to this equation, the depth width of the object is changed by the magnification value, and the depth position is also changed by the magnification value.

上式によれば、図6に示した表示映像は図13のようになる。なお、図13において、図6と同様の構成には同一番号を付し、説明は図6のものを援用する。   According to the above equation, the display image shown in FIG. 6 is as shown in FIG. In FIG. 13, the same components as those in FIG. 6 are denoted by the same reference numerals, and the description of FIG.

図13には、オブジェクト602と、オブジェクト603を構成するドットに変更処理を行った後のオブジェクト1303と、オブジェクト604を構成するドットに変更処理を行った後のオブジェクト1304が示されている。   FIG. 13 shows an object 602, an object 1303 after the change processing is performed on the dots constituting the object 603, and an object 1304 after the change processing is performed on the dots constituting the object 604.

オブジェクト1303を構成する8つのドットの座標値は、ドット1305(7、3、0.5)、ドット1306(7、3、1.5)、ドット1307(10、3、0.5)、ドット1308(10、3、1.5)、ドット1309(7、5、0.5)、ドット1310(7、5、1.5)、ドット1311(10、5、0.5)、ドット1312(10、5、1.5)と変更される。このとき、奥行き位置は1.5、奥行き幅は1となる。   The coordinate values of the eight dots constituting the object 1303 are dot 1305 (7, 3, 0.5), dot 1306 (7, 3, 1.5), dot 1307 (10, 3, 0.5), dot 1308 (10, 3, 1.5), dot 1309 (7, 5, 0.5), dot 1310 (7, 5, 1.5), dot 1311 (10, 5, 0.5), dot 1312 ( 10, 5, 1.5). At this time, the depth position is 1.5 and the depth width is 1.

オブジェクト1304を構成する8つのドットの座標値は、ドット1310(12、3、2.5)、ドット1314(12、3、3)、ドット1315(15、3、2.5)、ドット1316(15、3、3)、ドット1317(12、5、2.5)、ドット1318(12、5、3)、ドット1319(15、5、2.5)、ドット1320(15、5、3)と変更される。このとき、奥行き位置は3、奥行き幅は0.5となる。   The coordinate values of the eight dots constituting the object 1304 are dot 1310 (12, 3, 2.5), dot 1314 (12, 3, 3), dot 1315 (15, 3, 2.5), dot 1316 ( 15, 3, 3), dot 1317 (12, 5, 2.5), dot 1318 (12, 5, 3), dot 1319 (15, 5, 2.5), dot 1320 (15, 5, 3) And changed. At this time, the depth position is 3, and the depth width is 0.5.

図13のオブジェクト1303とオブジェクト1304は、オブジェクト603、オブジェクト604と比較して、奥行き幅が半分に狭めて表示されている。さらに、オブジェクト1303とオブジェクト1304の奥行き位置は、x座標軸を含む平面、即ち表示を行うディスプレイに近づいている。   The object 1303 and the object 1304 in FIG. 13 are displayed with the depth width narrowed by half compared to the objects 603 and 604. Further, the depth positions of the object 1303 and the object 1304 are close to a plane including the x coordinate axis, that is, a display for display.

そして、ディスプレイに近い位置にあるオブジェクトを見る視聴者は鮮明にオブジェクトを見ることができ、全体的に鮮明な映像を確保しながら、オブジェクト602以外のオブジェクト1303とオブジェクト1304の奥行き幅を狭めることができる。   A viewer who sees an object close to the display can clearly see the object, and can reduce the depth width of the object 1303 and the object 1304 other than the object 602 while ensuring a clear image as a whole. it can.

なお、上記のように、各ドットのz軸座標値を(各ドットのz軸座標値×倍率値)に基
づいて変更する場合において、例えば図14に示すように視聴者が選択したオブジェクト1401のz軸座標値が正の値をとる一方で、オブジェクト1402とオブジェクト1403のz軸座標値が負の値をとるような場合でもよい。
As described above, when the z-axis coordinate value of each dot is changed based on (z-axis coordinate value × magnification value of each dot), for example, the object 1401 selected by the viewer as shown in FIG. The z-axis coordinate value may be a positive value, while the z-axis coordinate values of the objects 1402 and 1403 may be negative values.

つまり、オブジェクト1402とオブジェクト1403の奥行き幅と奥行き位置を変更して図15のように変更したことにより、オブジェクト1502とオブジェクト1503の奥行き位置はオブジェクト1401の奥行き位置に近づき、各オブジェクト間の遠近差が解消される。そのため、立体映像特有の圧迫感が抑制され、視聴者の眼の負担が緩和されるたけでなく、選択したオブジェクトが見やすく表示されるのである。なお、第2の実施の形態では、倍率値は1以下である場合について述べた。   That is, by changing the depth width and depth position of the objects 1402 and 1403 as shown in FIG. 15, the depth positions of the objects 1502 and 1503 approach the depth position of the object 1401, and the perspective difference between each object Is resolved. For this reason, the feeling of pressure peculiar to stereoscopic images is suppressed and the burden on the viewer's eyes is reduced, and the selected object is displayed in an easy-to-see manner. In the second embodiment, the case where the magnification value is 1 or less has been described.

以上、第2の実施の形態によれば、視聴者が指定したオブジェクトの奥行き位置と指定したオブジェクト以外で表示映像を構成するオブジェクトの奥行き位置との差を狭めることにより、画面全体のオブジェクトの奥行き位置の遠近差が解消され、立体映像特有の圧迫感を抑制することができる。   As described above, according to the second embodiment, the depth of the object on the entire screen is reduced by narrowing the difference between the depth position of the object designated by the viewer and the depth position of the object constituting the display video other than the designated object. The difference in position is eliminated, and the pressure feeling peculiar to stereoscopic images can be suppressed.

また、視聴者が指定したオブジェクト以外で表示映像を構成するオブジェクトの奥行き位置を、ある基準となる平面に対して近づけて表示することにより、指定したオブジェクトが際立って表示され、その一方で画面全体のオブジェクトの奥行き位置の遠近差が解消され、立体映像特有の圧迫感を抑制することができる。   In addition, by displaying the depth position of the objects that make up the display video other than the object specified by the viewer close to a certain reference plane, the specified object stands out, while the entire screen is displayed. The perspective difference of the depth position of the object can be eliminated, and the pressure feeling peculiar to the stereoscopic image can be suppressed.

(第3の実施の形態)
第1の実施の形態及び第2の実施の形態では、映像を構成するオブジェクトの中からオブジェクトを選択し、選択したオブジェクトの視認性を向上させるために、選択したオブジェクト以外のオブジェクトの奥行き幅や奥行き位置を変更して表示するものであった。
(Third embodiment)
In the first embodiment and the second embodiment, in order to select an object from the objects constituting the video and improve the visibility of the selected object, the depth width of objects other than the selected object The depth position was changed and displayed.

第3の実施の形態では、第1の実施の形態及び第2の実施の形態を活用して、メニュー表示を行うためのメニューオブジェクトの表示を見やすくする場合について説明する。   In the third embodiment, a case will be described in which the display of a menu object for performing menu display is made easier to view by utilizing the first embodiment and the second embodiment.

ところで、メニューオブジェクトとは、図16に示すように、メニュー項目を表示する1つ以上の項目ボタンオブジェクトから構成されている。第3の実施の形態では、メニューオブジェクト1601は項目Aボタンオブジェクト1602、項目Bボタンオブジェクト1603、項目Cボタンオブジェクト1604、項目Dボタンオブジェクト1605から構成されている。   By the way, the menu object is composed of one or more item button objects for displaying menu items, as shown in FIG. In the third embodiment, the menu object 1601 includes an item A button object 1602, an item B button object 1603, an item C button object 1604, and an item D button object 1605.

また、メニューオブジェクト1601のオブジェクトIDを「900」、項目Aボタンオブジェクト1602のオブジェクトIDを「901」、項目Bボタンオブジェクト1603のオブジェクトIDを「902」、項目Cボタンオブジェクト1604のオブジェクトIDを「903」、項目Dボタンオブジェクト1605のオブジェクトIDを「904」として、説明を行う。   The object ID of the menu object 1601 is “900”, the object ID of the item A button object 1602 is “901”, the object ID of the item B button object 1603 is “902”, and the object ID of the item C button object 1604 is “903”. The description will be made assuming that the object ID of the item D button object 1605 is “904”.

図17は、メニューの表示を行う受信装置1701の構成を示すものであり、受信部102と分離部103、デコーダ104、映像信号処理部105、入力部107、制御部1702、記憶部1703、3D変換部1704、メニュー変換部1705、表示部110を備えている。なお、図17において、図1と同様の構成には同一番号を付し、説明は図1のものを援用する。   FIG. 17 shows a configuration of a receiving device 1701 that displays a menu. The receiving unit 102, the separation unit 103, the decoder 104, the video signal processing unit 105, the input unit 107, the control unit 1702, the storage units 1703, and 3D. A conversion unit 1704, a menu conversion unit 1705, and a display unit 110 are provided. In FIG. 17, the same components as those in FIG. 1 are denoted by the same reference numerals, and the description of FIG.

入力部107は、視聴者からのメニュー表示要求を受け付ける。また、入力部107により、メニューに表示されている項目ボタンを選択できる。   The input unit 107 receives a menu display request from a viewer. Further, an item button displayed on the menu can be selected by the input unit 107.

制御部1702は、入力部107からメニュー表示要求が出されたとき、記憶部1703からメニューオブジェクト1601とメニューオブジェクト1601を構成する各項目の項目オブジェクトを取得し、メニュー変換部1705に出力する。また、メニューオブジェクト1601のオブジェクトID「900」を3D変換部1704に出力する。   When a menu display request is issued from the input unit 107, the control unit 1702 acquires the menu object 1601 and the item object of each item constituting the menu object 1601 from the storage unit 1703, and outputs them to the menu conversion unit 1705. Also, the object ID “900” of the menu object 1601 is output to the 3D conversion unit 1704.

メニュー変換部1705は、制御部1702から出力されるメニューオブジェクト1601と項目ボタンオブジェクト1602、1603、1604、1605のオブジェクトデータを受け取る。そして、メニューオブジェクト1601と項目ボタンオブジェクト1602、1603、1604、1605に対して所定の処理を行い、映像信号処理部105に出力する。   The menu conversion unit 1705 receives the object data of the menu object 1601 and the item button objects 1602, 1603, 1604, 1605 output from the control unit 1702. Then, predetermined processing is performed on the menu object 1601 and the item button objects 1602, 1603, 1604, and 1605, and the result is output to the video signal processing unit 105.

次に、図17に示した受信装置1701が扱うオブジェクトデータについて説明する。   Next, object data handled by the receiving device 1701 shown in FIG. 17 will be described.

まず、メニューオブジェクト1601のオブジェクトデータは、図18に示すように、オブジェクトID1801と、構成オブジェクトID格納情報1802と、オブジェクト表示情報1803により構成されている。構成オブジェクトID格納情報1802には、メニューオブジェクト1801を構成する項目ボタンオブジェクトのオブジェクトIDが格納されている。例えば、図16の場合であれば、構成オブジェクトID格納情報1802には、メニューオブジェクト1601を構成する項目Aボタンオブジェクト1602、項目Bボタンオブジェクト1603、項目Cボタンオブジェクト1604、項目Dボタンオブジェクト1605のオブジェクトIDである「901」と「902」と「903」と「904」というオブジェクトIDが格納されている。   First, the object data of the menu object 1601 is composed of an object ID 1801, configuration object ID storage information 1802, and object display information 1803 as shown in FIG. The configuration object ID storage information 1802 stores the object ID of the item button object that configures the menu object 1801. For example, in the case of FIG. 16, the configuration object ID storage information 1802 includes the item A button object 1602, the item B button object 1603, the item C button object 1604, and the item D button object 1605 constituting the menu object 1601. The object IDs “901”, “902”, “903”, and “904” that are IDs are stored.

さらに、項目ボタンオブジェクトのオブジェクトデータは、図19に示すように、オブジェクトID1901と、リンクオブジェクトID格納情報1902と、オブジェクト表示情報1903により構成されている。リンクオブジェクトID格納情報1902には、項目ボタンオブジェクトが選択されたときに、次に表示されるオブジェクトのオブジェクトIDが格納されている。   Further, as shown in FIG. 19, the object data of the item button object includes an object ID 1901, link object ID storage information 1902, and object display information 1903. The link object ID storage information 1902 stores the object ID of the object to be displayed next when the item button object is selected.

次に、第3の実施の形態の受信装置1701が行う処理手順について述べ、そのフローを図20に示す。   Next, a processing procedure performed by the receiving apparatus 1701 of the third embodiment will be described, and the flow is shown in FIG.

まず、視聴者は入力部107からメニューオブジェクト1601を表示要求する(ステップS2001)。   First, the viewer requests display of the menu object 1601 from the input unit 107 (step S2001).

次に、制御部1702は、選択されたメニューオブジェクト1601のオブジェクトデータを記憶部1703から取得する(ステップS2002)。   Next, the control unit 1702 acquires the object data of the selected menu object 1601 from the storage unit 1703 (step S2002).

そして、オブジェクトデータのうち構成オブジェクトID格納情報からメニューオブジェクト1601を構成する項目ボタンオブジェクト1602、1603、1604、1605のオブジェクトデータを記憶部1703から取得し、メニュー変換部1705に出力する(ステップS2003)。   Then, the object data of the item button objects 1602, 1603, 1604, and 1605 constituting the menu object 1601 is acquired from the storage unit 1703 from the configuration object ID storage information in the object data, and is output to the menu conversion unit 1705 (step S2003). .

さらに、制御部1702は、3D変換部1704から、メニューオブジェクト1601が表示要求されたときの表示映像を構成するオブジェクトの奥行き位置のうち最大値となる値を取得し、メニュー変換部1705に出力する。(ステップS2004)。   Further, the control unit 1702 obtains the maximum value among the depth positions of the objects constituting the display video when the display request of the menu object 1601 is requested from the 3D conversion unit 1704, and outputs the value to the menu conversion unit 1705. . (Step S2004).

そして、メニューオブジェクト1601の奥行き位置を制御部1702から出力された最大値に基づいて、その最大値よりも大きな値となるようにメニューオブジェクト1601と項目ボタンオブジェクトの奥行き位置を設定し(ステップS2005)、メニューオ
ブジェクト1601を構成するすべての項目ボタンオブジェクト1602、1603、1604、1605のオブジェクトデータを映像信号処理部105に出力する。
Then, the depth positions of the menu object 1601 and the item button object are set so that the depth position of the menu object 1601 is larger than the maximum value based on the maximum value output from the control unit 1702 (step S2005). , The object data of all the item button objects 1602, 1603, 1604, 1605 constituting the menu object 1601 are output to the video signal processing unit 105.

映像信号処理部105は、3D変換部1704とメニュー変換部1705から受け取ったオブジェクトデータに基づいて立体映像を作成する(ステップS2006)。   The video signal processing unit 105 creates a stereoscopic video based on the object data received from the 3D conversion unit 1704 and the menu conversion unit 1705 (step S2006).

表示部110は、映像信号処理部105で作成された立体映像を表示する(ステップS2007)。   The display unit 110 displays the stereoscopic video created by the video signal processing unit 105 (step S2007).

なお、図20に示した処理手順には、メニューオブジェクト1601以外で表示映像を構成するオブジェクトの奥行き幅や奥行き位置を変更する処理が記載されていないが、その処理は、例えば第1、第2の実施の形態に記載した処理方法により行えばよい。   Note that the processing procedure shown in FIG. 20 does not describe processing for changing the depth width or depth position of the objects constituting the display video other than the menu object 1601, but the processing is, for example, first or second. The processing method described in the embodiment may be performed.

次に、第3の実施の形態を図21に示した表示映像に基づいて説明する。   Next, a third embodiment will be described based on the display image shown in FIG.

図21は、メニュー表示が行われる前の表示画面2101に映し出される表示映像であり、表示映像は人物オブジェクト2102と家オブジェクト2103から構成されている。さらに、表示映像を上から眺めたときの、x軸座標値とz軸座標値による各オブジェクトの位置が示されている。   FIG. 21 shows a display image displayed on the display screen 2101 before the menu is displayed. The display image is composed of a person object 2102 and a house object 2103. Furthermore, the position of each object according to the x-axis coordinate value and the z-axis coordinate value when the display image is viewed from above is shown.

視聴者はメニュー表示を行うために、入力部107からメニューオブジェクト1601を表示要求する。   In order to display the menu, the viewer requests display of the menu object 1601 from the input unit 107.

次に、制御部1702は、記憶部1703からメニューオブジェクト1601のオブジェクトデータを取得する。   Next, the control unit 1702 acquires the object data of the menu object 1601 from the storage unit 1703.

そして、メニューオブジェクト1601のオブジェクトデータのうち構成オブジェクトID格納情報1802からメニューオブジェクト1601を構成する項目ボタンオブジェクトのオブジェクトIDを読み取り、記憶部1703から項目Aボタンオブジェクト1602、項目Bボタンオブジェクト1603、項目Cボタンオブジェクト1604、項目Dボタンオブジェクト1605のオブジェクトデータを取得し、メニューオブジェクト1601と取得した項目ボタンオブジェクト1602、1603、1604、1605をメニュー変換部1705に出力する。   Then, the object ID of the item button object constituting the menu object 1601 is read from the configuration object ID storage information 1802 in the object data of the menu object 1601, and the item A button object 1602, the item B button object 1603, and the item C are read from the storage unit 1703. The object data of the button object 1604 and the item D button object 1605 are acquired, and the menu object 1601 and the acquired item button objects 1602, 1603, 1604, and 1605 are output to the menu conversion unit 1705.

更に、制御部1702は、3D変換部1704から、表示映像を構成するオブジェクトのうち、最も大きい奥行き位置の値を取得し、メニュー変換部1705に出力する。図21では、人物オブジェクト2102が家オブジェクト2103よりも手前にあるので、制御部1702は人物オブジェクト2102の奥行き位置をメニュー変換部1705に出力する。   Further, the control unit 1702 acquires the value of the largest depth position among the objects constituting the display video from the 3D conversion unit 1704 and outputs the acquired value to the menu conversion unit 1705. In FIG. 21, since the person object 2102 is in front of the house object 2103, the control unit 1702 outputs the depth position of the person object 2102 to the menu conversion unit 1705.

なお、3D変換部1704は、予め視聴者が定めた倍率値に基づいて表示映像を構成する人物オブジェクト2102と家オブジェクト2103の奥行き幅を狭めて表示するように、それぞれのオブジェクトデータのオブジェクト表示情報を変更する。この処理については、既に第1の実施の形態で述べたので、説明を省略する。   Note that the 3D conversion unit 1704 displays the object display information of each object data so that the depth width of the person object 2102 and the house object 2103 constituting the display video is reduced based on a magnification value predetermined by the viewer. To change. Since this processing has already been described in the first embodiment, a description thereof will be omitted.

メニュー変換部1705は、制御部1702から送られたメニューオブジェクト1601と項目ボタンオブジェクトに対して、映像を構成するすべてのオブジェクトよりも手前に位置するような処理を行ったあと、映像信号処理部105に出力する。つまり、人物オブジェクト2102がメニューオブジェクト1601とそれぞれの項目ボタンオブジェクト1602、1603、1604、1605の奥行き位置よりも奥側となるように奥行き
位置が設定される。
The menu conversion unit 1705 performs processing such that the menu object 1601 and the item button object sent from the control unit 1702 are positioned in front of all the objects constituting the video, and then the video signal processing unit 105. Output to. That is, the depth position is set so that the person object 2102 is located behind the depth position of the menu object 1601 and the respective item button objects 1602, 1603, 1604, and 1605.

映像信号処理部105は、3D変換部1704とメニュー変換部1705から送られてくるオブジェクトデータに基づき、メニューオブジェクト1601と人物オブジェクト2102と家オブジェクト2103の立体映像を作成し、表示する。   The video signal processing unit 105 creates and displays a stereoscopic video of the menu object 1601, the person object 2102, and the house object 2103 based on the object data sent from the 3D conversion unit 1704 and the menu conversion unit 1705.

上記処理により、図21に示した表示映像は図22のようになる。   By the above processing, the display image shown in FIG. 21 becomes as shown in FIG.

図22によれば、人物オブジェクト2201と家オブジェクト2202は、人物オブジェクト2102と家オブジェクト2103と比較して倍率値分だけ奥行き幅が狭められて表示されている。また、メニューオブジェクト2203の奥行き位置が、映像を構成する他のオブジェクトの奥行き位置よりも手前に位置して表示されるようになる。その結果、メニューオブジェクト2203が他のオブジェクトと比較して際立って表示され、メニューの視認性が向上する。なお、上に示した例において、倍率値は1以下の値であれば任意の値を設定してよい。   According to FIG. 22, the person object 2201 and the house object 2202 are displayed with the depth width narrowed by the magnification value as compared to the person object 2102 and the house object 2103. In addition, the depth position of the menu object 2203 is displayed in front of the depth positions of other objects constituting the video. As a result, the menu object 2203 is displayed prominently compared to other objects, and the visibility of the menu is improved. In the example shown above, an arbitrary value may be set as long as the magnification value is 1 or less.

ところで、メニューが表示されている最中に、メニューの前方にオブジェクトが移動することがある。例えば、図23に示すように、メニューオブジェクト2203の後方に位置するオブジェクト2302は矢印2303に沿って移動し、メニューオブジェクト2203の前方に移動する。その結果、表示されたメニューオブジェクト2203の一部分がオブジェクト2302によって遮られてしまい、メニューオブジェクト2203の内容が正しく認識できなくなる。   By the way, an object may move to the front of the menu while the menu is displayed. For example, as shown in FIG. 23, the object 2302 located behind the menu object 2203 moves along the arrow 2303 and moves forward of the menu object 2203. As a result, a part of the displayed menu object 2203 is blocked by the object 2302, and the contents of the menu object 2203 cannot be correctly recognized.

そこで、メニューオブジェクト2203の前方にオブジェクト2302が移動しても、視聴者がメニューオブジェクト2203の表示を確認できるように、3D変換部1704は図24に示す処理を行う。   Therefore, even if the object 2302 moves in front of the menu object 2203, the 3D conversion unit 1704 performs the process shown in FIG. 24 so that the viewer can confirm the display of the menu object 2203.

なお、第3の実施の形態における以下の説明において、メニューオブジェクト2203の奥行き位置は、メニューオブジェクト2203とメニューオブジェクト2203を構成する項目ボタンオブジェクトのうちで最も小さな値をとる奥行き位置のことを指すものとする。   In the following description of the third embodiment, the depth position of the menu object 2203 refers to the depth position having the smallest value among the menu object 2203 and the item button object that configures the menu object 2203. And

まず、制御手段を介してメニュー変換部1705からメニューオブジェクト2203の奥行き位置の値を取得する(ステップS2401)。   First, the value of the depth position of the menu object 2203 is acquired from the menu conversion unit 1705 via the control means (step S2401).

次に、メニューオブジェクト2203以外で映像を構成するオブジェクトの中から一つオブジェクトを選び出し、そのオブジェクトの奥行き位置を求め(ステップS2402)、メニューオブジェクト2203の奥行き位置とメニューオブジェクト2203以外で表示されているオブジェクト2302の奥行き位置との大小を比較する(ステップS2403)。   Next, an object other than the menu object 2203 is selected from the objects constituting the video, and the depth position of the object is obtained (step S2402), and the depth position of the menu object 2203 and the menu object 2203 are displayed. The size of the object 2302 is compared with the depth position (step S2403).

もし、メニューオブジェクト2203の奥行き位置より手前となる奥行き位置を有するオブジェクト2302があれば(ステップS2403でY)、オブジェクト2302の奥行き位置をメニューオブジェクト2203の奥行き位置より手前とならないように変更する(ステップS2404)。   If there is an object 2302 having a depth position in front of the menu object 2203 (Y in step S2403), the depth position of the object 2302 is changed so as not to be in front of the menu object 2203 (step). S2404).

その後、メニューオブジェクト2203以外で表示されているすべてのオブジェクトのオブジェクトIDが確認されたかどうかを調べる(ステップS2405)。   Thereafter, it is checked whether or not the object IDs of all objects other than the menu object 2203 have been confirmed (step S2405).

もし、メニューオブジェクト2203以外で表示されているすべてのオブジェクトのオ
ブジェクトIDが確認されたならば(ステップS2405でY)、3D変換部1704が行う処理を終了する。
If the object IDs of all objects displayed other than the menu object 2203 are confirmed (Y in step S2405), the process performed by the 3D conversion unit 1704 is terminated.

もし、メニューオブジェクト2203以外で表示されているすべてのオブジェクトのオブジェクトIDが確認されていなければ(ステップS2405でN)、ステップS2402に戻って処理を継続する。   If the object IDs of all objects displayed other than the menu object 2203 have not been confirmed (N in step S2405), the process returns to step S2402 and continues.

図25は、図24に示した処理を施したときの表示画面を示したものである。3D変換部1704は、表示映像を構成するオブジェクトのうち、メニューオブジェクト2203の奥行き位置よりも大きな値である奥行き位置を有するオブジェクト2302に対して、メニューオブジェクト2203の奥行き位置よりも小さな値をとるように奥行き位置を変更する。   FIG. 25 shows a display screen when the processing shown in FIG. 24 is performed. The 3D conversion unit 1704 takes a value smaller than the depth position of the menu object 2203 with respect to the object 2302 having a depth position larger than the depth position of the menu object 2203 among the objects constituting the display video. Change the depth position.

そのため、メニューオブジェクト2203よりも前方に移動しようとするオブジェクト2302の奥行き位置を変更することにより、メニューオブジェクト2203の表示は遮られないようになる。   Therefore, the display of the menu object 2203 is not blocked by changing the depth position of the object 2302 that is to be moved forward from the menu object 2203.

なお、オブジェクト2302の奥行き位置の制御に関しては、図25に示したオブジェクト2302の動きを示した矢印に限らず、一例を示したものである。   Note that the control of the depth position of the object 2302 is not limited to the arrow indicating the movement of the object 2302 shown in FIG.

なお、図24に示した処理手順のステップS2404で、メニューオブジェクト2203の奥行き位置よりも大きな値をとる奥行き位置を有するオブジェクト2302があれば、メニューオブジェクト2203の奥行き位置をオブジェクトの奥行き位置よりも大きくなるように変更してもよい。   If there is an object 2302 having a depth position that is larger than the depth position of the menu object 2203 in step S2404 of the processing procedure shown in FIG. 24, the depth position of the menu object 2203 is set larger than the depth position of the object. You may change so that.

また、図24に示した処理手順のステップS2404で、メニューオブジェクト2203の奥行き位置より大きな奥行き位置を有するオブジェクト2302があれば、そのオブジェクト2302の表示色を映像信号処理部105において半透明に変更するようにしてもよい。半透明に変更することにより、オブジェクト2302がメニューよりも手前に移動しても、視聴者はメニューの表示を見ることができる。   24, if there is an object 2302 having a depth position larger than the depth position of the menu object 2203 in step S2404 of the processing procedure shown in FIG. 24, the display color of the object 2302 is changed to semi-transparent in the video signal processing unit 105. You may do it. By changing to semi-transparent, the viewer can see the display of the menu even if the object 2302 moves to the front of the menu.

なお、図26に示すように、メニューオブジェクト2203の手前に新たにオブジェクト2601が現れる場合もある。このような場合にも、図24に示した処理手順に従うことにより、手前に新たに現れるはずのオブジェクト2601をメニューオブジェクト2203の奥側に移動させた上でオブジェクト2602として表示させることができる。   As shown in FIG. 26, an object 2601 may newly appear before the menu object 2203. Even in such a case, by following the processing procedure shown in FIG. 24, the object 2601 that should appear newly in the foreground can be moved to the back side of the menu object 2203 and displayed as the object 2602.

なお、図24に示した処理は、メニューオブジェクト2203のように複数のオブジェクトから構成されるオブジェクトだけでなく、例えば第1の実施の形態で述べたような1つから成るオブジェクトに対しても適応できるものである。   Note that the processing shown in FIG. 24 is applied not only to an object composed of a plurality of objects such as the menu object 2203 but also to an object composed of one object as described in the first embodiment, for example. It can be done.

ところで、図22において、視聴者が入力部107からメニューに表示されている項目ボタンを選択しているとき、メニュー変換部1705は選択している項目ボタンオブジェクトの奥行き幅を広くすることにより、更に見やすいメニュー表示を行うことができる。   In FIG. 22, when the viewer selects an item button displayed on the menu from the input unit 107, the menu conversion unit 1705 further increases the depth width of the selected item button object. Easy-to-see menu display.

以下、メニュー変換部1705の処理手順について、図22とともに図27を用いて説明を行う。   Hereinafter, the processing procedure of the menu conversion unit 1705 will be described with reference to FIG. 27 together with FIG.

まず、入力部107から現在視聴者が選んでいる項目ボタンオブジェクトのオブジェクトIDを受け取る(ステップS2701)。例えば、図22において項目Aボタンオブジェクト1602を選択したとする。   First, the object ID of the item button object currently selected by the viewer is received from the input unit 107 (step S2701). For example, assume that the item A button object 1602 is selected in FIG.

次に、受け取ったオブジェクトIDを有する項目Aボタンオブジェクト1602をメニュー変換部1705から探し出す(ステップS2702)。   Next, the item A button object 1602 having the received object ID is searched from the menu conversion unit 1705 (step S2702).

次に、探し出した項目Aボタンオブジェクト1602の奥行き幅を広くして、奥行き位置が前面に出るように、オブジェクト表示情報を変更する(ステップS2703)。   Next, the object display information is changed so that the depth width of the found item A button object 1602 is widened and the depth position comes to the front (step S2703).

なお、変更方法については、例えば第1の実施の形態のように行えばよい。その際、奥行き位置が前面に出るようにして奥行き幅を広めるために、例えば、((1−倍率値)×(オブジェクトを構成するドットのうち最小値のz軸座標値)+(倍率値)×(各ドットのz軸座標値))に基づいて変更することが望ましい。この式によれば、オブジェクトの奥行き幅を変更する際に、オブジェクトの奥行き位置が変更される。   The changing method may be performed as in the first embodiment, for example. At that time, in order to widen the depth width so that the depth position comes to the front, for example, ((1−magnification value) × (minimum z-axis coordinate value of dots constituting the object) + (magnification value) It is desirable to change based on x (z-axis coordinate value of each dot). According to this equation, when the depth width of the object is changed, the depth position of the object is changed.

そして、変更したオブジェクト表示情報を映像信号処理部105に出力する(ステップS2704)。   Then, the changed object display information is output to the video signal processing unit 105 (step S2704).

図28は、図22の後に、視聴者がメニューオブジェクト2203のうち項目Aボタンオブジェクト1602を選んでいる状態を示すものである。図28によれば、視聴者が現在どのボタンを選択しているのかが瞬時に分かり、操作性が向上するものである。また、項目Aボタンオブジェクト1602は、メニューオブジェクト2203よりも前方に出ているため、他の項目ボタンオブジェクトよりも若干大きく表示されて見える。   FIG. 28 shows a state in which the viewer selects the item A button object 1602 from the menu object 2203 after FIG. According to FIG. 28, it is possible to instantly know which button the viewer is currently selecting, and the operability is improved. Further, since the item A button object 1602 protrudes ahead of the menu object 2203, it appears to be displayed slightly larger than the other item button objects.

なお、図28では選択した項目Aボタンオブジェクト2601を、その奥行き幅を広めることにより他の項目ボタンオブジェクトよりも強調して表示したが、選択した項目Aボタンオブジェクト2601以外の、項目Bボタンオブジェクト1603、項目Cボタンオブジェクト1604、項目Dボタンオブジェクト1605の奥行き幅を狭めて表示してもよい。   In FIG. 28, the selected item A button object 2601 is displayed with emphasis over the other item button objects by widening the depth width, but the item B button object 1603 other than the selected item A button object 2601 is displayed. The item C button object 1604 and the item D button object 1605 may be displayed with a reduced depth.

また、制御部1702は、項目Aボタンオブジェクト2601の奥行き位置を更に前面に移動するように、項目Aボタンオブジェクト2601のオブジェクトデータを変更するようにしてもよい。その結果、項目Aボタンオブジェクト2601は前面に表示され、また他の項目ボタンオブジェクトよりも大きく表示されて見え、視聴者が現在どのボタンを選択しているのかが瞬時に分かり、操作性が向上する。   Further, the control unit 1702 may change the object data of the item A button object 2601 so that the depth position of the item A button object 2601 is further moved to the front. As a result, the item A button object 2601 is displayed on the front, and is displayed larger than the other item button objects, so that it is instantly known which button the viewer is currently selecting, and the operability is improved. .

また、制御部1702は、項目Bボタンオブジェクト1603、項目Cボタンオブジェクト1604、項目Dボタンオブジェクト1605の奥行き位置を更に奥側に移動するように、それぞれの項目ボタンオブジェクト1603、1604、1605のオブジェクトデータを変更するようにしてもよい。   The control unit 1702 also sets the object data of the item button objects 1603, 1604, and 1605 so as to move the depth positions of the item B button object 1603, the item C button object 1604, and the item D button object 1605 to the far side. May be changed.

ところで、視聴者が入力部107により項目Aボタンオブジェクト1602を選択決定したとき、さらに新たな下位階層のメニューが表示される。   By the way, when the viewer selects and determines the item A button object 1602 using the input unit 107, a new lower-level menu is displayed.

このように、上位階層に対して下位階層メニューが表示されたとき、上位階層のメニューオブジェクト2203に対して下位階層のメニューオブジェクトの奥行き幅を更に広く設定することにより、更に視聴者にとって見やすいメニュー表示を行うことができる。   In this way, when a lower layer menu is displayed for the upper layer, the depth of the menu object in the lower layer is set wider than the menu object 2203 in the upper layer, thereby making it easier for the viewer to see the menu. It can be performed.

なお、第3の実施の形態における以下の説明において、メニューオブジェクトのリンクオブジェクトID格納情報に記載のオブジェクトIDを有するメニューオブジェクトのことを下位階層のメニューオブジェクトとし、リンクオブジェクトID格納情報に下位階層のメニューオブジェクトのオブジェクトIDを有するメニューオブジェクトのことを下位
階層のメニューオブジェクトに対して上位階層のメニューオブジェクトとする。
In the following description of the third embodiment, the menu object having the object ID described in the link object ID storage information of the menu object is defined as a lower level menu object, and the lower level hierarchy is included in the link object ID storage information. A menu object having an object ID of a menu object is defined as a higher-level menu object with respect to a lower-level menu object.

そこで、メニュー変換部1705の処理手順について述べ、そのフローを図29に示し、説明する。   Therefore, the processing procedure of the menu conversion unit 1705 will be described, and the flow will be described with reference to FIG.

まず、入力部107から、視聴者が選択した項目ボタンオブジェクトのオブジェクトIDを受け取る(ステップS2901)。   First, the object ID of the item button object selected by the viewer is received from the input unit 107 (step S2901).

次に、項目ボタンオブジェクトのオブジェクトIDを有する項目ボタンオブジェクトを探し出す(ステップS2902)。   Next, an item button object having an object ID of the item button object is searched for (step S2902).

次に、探し出した項目ボタンオブジェクトのリンクオブジェクトID格納情報を読みとる(ステップS2903)。   Next, the link object ID storage information of the found item button object is read (step S2903).

次に、リンクオブジェクトID格納情報に指定されたオブジェクトIDを有するオブジェクトを制御部1702を通じて記憶部1703から取得する(ステップS2904)。   Next, an object having the object ID specified in the link object ID storage information is acquired from the storage unit 1703 through the control unit 1702 (step S2904).

次に、制御部1702から取得したオブジェクトの奥行き幅が広まるようにオブジェクト表示情報を変更する(ステップS2905)。なお、変更方法については、既に第1の実施の形態で述べたのでここでは説明を省略する。   Next, the object display information is changed so that the depth width of the object acquired from the control unit 1702 is increased (step S2905). Since the changing method has already been described in the first embodiment, the description thereof is omitted here.

そして、変更したオブジェクト表示情報を映像信号処理部105に出力する(ステップS2906)。   Then, the changed object display information is output to the video signal processing unit 105 (step S2906).

次に、図29に示した処理手順を、図22に示した表示映像に基づいて説明する。   Next, the processing procedure shown in FIG. 29 will be described based on the display image shown in FIG.

まず、入力部107から、視聴者が項目Aボタンオブジェクト1602を選択決定する。   First, the viewer selects and determines the item A button object 1602 from the input unit 107.

その後、メニュー変換部1705は、項目Aボタンオブジェクト1602のオブジェクトデータを探し出す。   Thereafter, the menu conversion unit 1705 searches for object data of the item A button object 1602.

次に、項目Aボタンオブジェクト1602のリンクオブジェクトID格納情報を読みとり、次に表示する下位階層のメニューオブジェクトのオブジェクトIDを取得する。この場合、リンクオブジェクトID格納情報に「910」という情報が格納されているとする。   Next, the link object ID storage information of the item A button object 1602 is read, and the object ID of the lower-level menu object to be displayed next is acquired. In this case, it is assumed that information “910” is stored in the link object ID storage information.

メニュー変換部1705は、制御部1702を介して、新たな下位階層としてオブジェクトID「910」を有するオブジェクトを表示するためのオブジェクトデータを記憶部1703から取得する。   The menu conversion unit 1705 acquires object data for displaying an object having the object ID “910” as a new lower layer from the storage unit 1703 via the control unit 1702.

次に、上位階層に対して下位階層のメニューオブジェクトの奥行き幅を広く表示するために、奥行き幅を変更する。なお、本実施の形態では上位階層に対して一つ下位である階層のメニューオブジェクトの奥行き幅を2倍に変更するものとする。また、上位階層に対する下位階層のメニューオブジェクトの奥行き幅は、視聴者がリモコン等の制御装置から入力を行い設定してもよいし、視聴者等により予め設定してもよいものとする。   Next, the depth width is changed in order to display the depth width of the menu object in the lower hierarchy wider than the upper hierarchy. In the present embodiment, it is assumed that the depth width of the menu object in the hierarchy one level lower than the upper hierarchy is changed to twice. Also, the depth width of the menu object in the lower layer relative to the upper layer may be set by the viewer inputting from a control device such as a remote controller, or may be set in advance by the viewer or the like.

そして、変更された下位階層のメニューオブジェクトのオブジェクトデータは映像信号処理部105に出力され、表示される。   The changed object data of the lower-level menu object is output to the video signal processing unit 105 and displayed.

図29に示した処理手順の結果、図30に示す表示映像が得られる。   As a result of the processing procedure shown in FIG. 29, the display image shown in FIG. 30 is obtained.

図30には、上位階層であるメニューオブジェクト2203に対して、その下位階層であるメニューオブジェクト3001が表示されたものである。図30によれば、視聴者が最も注視する可能性が高い、つまり視聴者の注目度が高いと考えられる下位階層メニューオブジェクト2801の奥行き幅を上位階層メニューオブジェクト2203よりも広くすることにより、映像を構成する他のオブジェクトと表示が差別化され、操作性が向上する。   In FIG. 30, a menu object 3001 which is a lower hierarchy is displayed with respect to a menu object 2203 which is an upper hierarchy. According to FIG. 30, by making the depth width of the lower layer menu object 2801 that is most likely to be watched by the viewer, that is, the viewer's attention level is higher than that of the upper layer menu object 2203, The display is differentiated from the other objects constituting the, and the operability is improved.

なお、上記では、下位階層のメニューオブジェクト3001を際立たせて表示するために、上位階層に対して下位階層のメニューオブジェクト3001の奥行き幅を広めて表示したが、逆に上位階層のメニューオブジェクト2203の奥行き幅を下位階層のメニューオブジェクト3001の奥行き幅に対して狭めて表示してもよい。このとき、図29に示した処理手順において、ステップS2902において、メニュー項目選択部178から受け取った項目Aボタンオブジェクト1602のオブジェクトIDを有する項目ボタンオブジェクト以外の項目ボタンオブジェクトを探し出し、ステップS2903、ステップS2904の後、ステップS2905において制御部1702から取得したオブジェクトの奥行き幅が狭まるようにオブジェクト表示情報を変更して、ステップS2906を行っても良い。   In the above description, in order to make the lower layer menu object 3001 stand out and displayed, the depth of the lower layer menu object 3001 is displayed wider than the upper layer, but conversely, the menu object 2203 of the upper layer is displayed. The depth width may be displayed narrowly with respect to the depth width of the lower-level menu object 3001. At this time, in the processing procedure shown in FIG. 29, in step S2902, an item button object other than the item button object having the object ID of the item A button object 1602 received from the menu item selection unit 178 is searched for, and steps S2903 and S2904 are performed. Thereafter, the object display information may be changed so that the depth width of the object acquired from the control unit 1702 in step S2905 is narrowed, and step S2906 may be performed.

要は、下位階層のメニューオブジェクト3001を際立たせて表示するために、上位階層のメニューオブジェクト2203の奥行き幅と比較して、下位階層のメニューオブジェクト3001の奥行き幅が広くなっていればよい。   In short, in order to make the menu object 3001 in the lower hierarchy stand out and displayed, the depth width of the menu object 3001 in the lower hierarchy need only be wider than the depth width of the menu object 2203 in the upper hierarchy.

以上から、第3の実施の形態によれば、メニューオブジェクトのような、指定されたオブジェクトを最前面に表示し、指定されたオブジェクトを構成するオブジェクト以外のオブジェクトの奥行き幅を狭めて表示することにより、指定されたオブジェクトが見やすくなる。さらに、指定されたオブジェクトを他のオブジェクトにより表示が遮られなくすることができる。   As described above, according to the third embodiment, a specified object such as a menu object is displayed in the foreground, and the depth width of objects other than the objects constituting the specified object is displayed narrowly. This makes it easier to see the specified object. Further, the display of the designated object can be prevented from being blocked by other objects.

また、視聴者が注目したいと考える、例えば項目ボタンのようなオブジェクトや下位階層のオブジェクトの奥行き位置が前面に出てくるように、これらのオブジェクトの奥行き幅を広くすることにより、指定されたオブジェクトの視認性を向上することができる。   In addition, the specified objects can be specified by increasing the depth width of objects such as item buttons or lower-level objects that the viewer wants to pay attention to, so that the depth position of these objects comes to the front. Visibility can be improved.

(第4の実施の形態)
第4の実施の形態は、視聴者が関心を持つ可能性が高いと考えられるオブジェクト自体の奥行き幅を調整することにより、見やすい映像を提供するものである。
(Fourth embodiment)
In the fourth embodiment, an easy-to-view video is provided by adjusting the depth width of an object itself that is likely to be of interest to the viewer.

そこで、本発明をチャンネルとそのチャンネルに対応する放送番組が表示される放送番組一覧表示に適用した例を説明する。この放送番組一覧表示は、視聴者は視聴率の高い番組ほど関心があるという観点から、番組名を表示する際に、その番組の視聴率を反映させた表示を行うものである。換言すれば、番組の視聴率を注目度として見なし、視聴者の視聴率、つまり注目度が高い番組名を表示しているオブジェクトの奥行き幅ほど、その幅が広くなるようにオブジェクトのオブジェクトデータを変更するものである。   An example in which the present invention is applied to a broadcast program list display in which a channel and a broadcast program corresponding to the channel are displayed will be described. In this broadcast program list display, when a program name is displayed from the viewpoint that a viewer is interested in a program having a higher audience rating, the audience rating of the program is reflected. In other words, the audience rating of the program is regarded as the degree of attention, and the object data of the object is set so that the viewer's audience rating, that is, the depth width of the object displaying the program name with a high degree of attention, becomes wider. To change.

図31は、放送番組一覧表示を行う放送番組一覧オブジェクト3101であり、放送番組一覧オブジェクト3101はチャンネル表示オブジェクト3102、番組名表示オブジェクト3103、放送時刻表示オブジェクト3104により構成されている。   FIG. 31 shows a broadcast program list object 3101 that performs broadcast program list display. The broadcast program list object 3101 includes a channel display object 3102, a program name display object 3103, and a broadcast time display object 3104.

図32は、放送番組一覧表示を行う受信装置3201であり、受信部102と分離部1
03、デコーダ104、映像信号処理部105、入力部107、制御部3202、番組一覧制御部3203、記憶部108、視聴率記憶部3204、3D変換部3205、表示部110を備えている。なお、図32において、図1と同様の構成には同一番号を付し、説明は図1のものを援用する。
FIG. 32 shows a receiving device 3201 that displays a list of broadcast programs, and includes a receiving unit 102 and a separating unit 1.
03, a decoder 104, a video signal processing unit 105, an input unit 107, a control unit 3202, a program list control unit 3203, a storage unit 108, an audience rating storage unit 3204, a 3D conversion unit 3205, and a display unit 110. In FIG. 32, the same components as those in FIG. 1 are denoted by the same reference numerals, and the description of FIG.

視聴率記憶部3204は、送信装置やインターネット等から送信される各番組の視聴率を格納する。そして、後述する番組名表示オブジェクト3103のチャンネル表示情報に格納されているチャンネルに対応する番組の視聴率を、番組名表示オブジェクト3103の視聴率情報に書き込む。   The audience rating storage unit 3204 stores the audience rating of each program transmitted from a transmission device or the Internet. Then, the audience rating of the program corresponding to the channel stored in the channel display information of the program name display object 3103 described later is written in the audience rating information of the program name display object 3103.

制御部3202は、入力部107から放送番組一覧表示要求が出されたとき、記憶部108から放送番組一覧オブジェクト3101とチャンネル表示オブジェクト3102、番組名表示オブジェクト3103、放送時刻表示オブジェクト3104のオブジェクトデータを取得し、番組一覧制御部3203に出力する。   When a broadcast program list display request is issued from the input unit 107, the control unit 3202 receives object data of a broadcast program list object 3101, a channel display object 3102, a program name display object 3103, and a broadcast time display object 3104 from the storage unit 108. Acquired and output to the program list control unit 3203.

番組一覧制御部3203は、制御部3202から出力される放送番組一覧オブジェクト3101のオブジェクトデータと番組名表示オブジェクト3103を受け取る。そして、放送番組一覧オブジェクト3101を構成する番組名表示オブジェクト3103に対して所定の処理を行い、映像信号処理部105に出力する。   The program list control unit 3203 receives the object data of the broadcast program list object 3101 and the program name display object 3103 output from the control unit 3202. Then, predetermined processing is performed on the program name display object 3103 constituting the broadcast program list object 3101, and the result is output to the video signal processing unit 105.

図33には、放送番組一覧オブジェクト3101のオブジェクトデータが示されており、オブジェクトID3301と、構成オブジェクトID情報3302と、オブジェクト表示情報3303が格納されている。構成オブジェクトID情報3302には、放送番組一覧オブジェクト3101を構成するオブジェクトのオブジェクトIDが格納されている。   FIG. 33 shows object data of a broadcast program list object 3101 in which object ID 3301, configuration object ID information 3302, and object display information 3303 are stored. The configuration object ID information 3302 stores the object IDs of the objects constituting the broadcast program list object 3101.

また、図34には、番組名表示オブジェクト3103のオブジェクトデータが示されており、オブジェクトID3401と、チャンネル表示情報3402と、視聴率情報3403と、オブジェクト表示情報3404により構成されている。   Also, FIG. 34 shows object data of a program name display object 3103, which is composed of an object ID 3401, channel display information 3402, audience rating information 3403, and object display information 3404.

チャンネル表示情報3402には、番組が放送されるチャンネルが格納されている。視聴率情報3403には、そのチャンネルで放送される番組の視聴率が格納されている。また、オブジェクト表示情報3404には、番組の番組名を表示するためのデータが格納されている。   Channel display information 3402 stores a channel on which a program is broadcast. The audience rating information 3403 stores the audience rating of programs broadcast on the channel. The object display information 3404 stores data for displaying the program name of the program.

なお、チャンネル表示オブジェクト3102、放送時刻表示オブジェクト3104のオブジェクトデータは、図2で示したものと同様の構成であり、オブジェクト表示情報に表示する文字データが格納されている。   The object data of the channel display object 3102 and the broadcast time display object 3104 has the same configuration as that shown in FIG. 2, and character data to be displayed in the object display information is stored.

次に、第4の実施の形態の受信装置3201が行う処理手順について述べ、そのフローを図35に示す。   Next, a processing procedure performed by the receiving device 3201 according to the fourth embodiment will be described, and the flow is shown in FIG.

まず、視聴者は入力部107から放送番組一覧オブジェクト3101の表示要求をする(ステップS3501)。   First, the viewer requests display of the broadcast program list object 3101 from the input unit 107 (step S3501).

次に、制御部3202は記憶部108から放送番組一覧オブジェクト3101のオブジェクトデータを取得する(ステップS3502)。   Next, the control unit 3202 acquires object data of the broadcast program list object 3101 from the storage unit 108 (step S3502).

さらに、放送番組一覧オブジェクト3101の構成オブジェクトID情報から、必要なチャンネル表示オブジェクト3102、番組名表示オブジェクト3103、放送時刻表示オブジェクト3104のIDを取得し、記憶部108からそれらを取得する(ステップS
3503)。
Further, the IDs of the necessary channel display object 3102, program name display object 3103 and broadcast time display object 3104 are acquired from the configuration object ID information of the broadcast program list object 3101, and they are acquired from the storage unit 108 (step S).
3503).

そして、放送番組一覧オブジェクト3101とチャンネル表示オブジェクト3102、番組名表示オブジェクト3103、放送時刻表示オブジェクト3104のオブジェクトデータを番組一覧制御部3203に出力する(ステップS3504)。   Then, the object data of the broadcast program list object 3101, channel display object 3102, program name display object 3103, and broadcast time display object 3104 is output to the program list control unit 3203 (step S 3504).

番組一覧制御部3203は、番組名表示オブジェクト3103の視聴率情報3403から視聴率を取得し、各番組の視聴率に応じて番組名表示オブジェクト3103の奥行き幅を設定する(ステップS3505)。例えば、視聴率が1%であるときのオブジェクトの奥行き幅を予め決めておき、各番組の視聴率に対して(視聴率)×(視聴率が1%であるときの奥行き幅)に基づいてそれぞれの番組名を表すオブジェクトの奥行き幅を決定する。   The program list control unit 3203 acquires the audience rating from the audience rating information 3403 of the program name display object 3103, and sets the depth width of the program name display object 3103 according to the audience rating of each program (step S3505). For example, the depth width of the object when the audience rating is 1% is determined in advance, and based on (view rating) × (depth width when the audience rating is 1%) with respect to the audience rating of each program The depth width of the object representing each program name is determined.

映像信号処理部105は、番組一覧制御部3203で設定された奥行き幅に基づきメニューの立体映像を作成する(ステップS3506)。作成された立体映像は表示部110を介して表示される(ステップS3507)。   The video signal processing unit 105 creates a 3D video of the menu based on the depth width set by the program list control unit 3203 (step S3506). The created stereoscopic video is displayed via the display unit 110 (step S3507).

なお、放送番組一覧オブジェクト3101以外の表示映像を構成しているオブジェクトに関しては、第1の実施の形態及び第2の実施の形態に示した処理が行われている。しかし、放送番組一覧が全画面に表示されるのであれば、特にその処理は行われなくてもよい。   Note that the processing shown in the first embodiment and the second embodiment is performed on the objects constituting the display video other than the broadcast program list object 3101. However, if the broadcast program list is displayed on the entire screen, the process may not be performed.

次に、上記処理を行った結果表示される表示映像について図36をもとに説明を行う。   Next, display images displayed as a result of the above processing will be described with reference to FIG.

図36は、左端にチャンネル数を表示するチャンネル表示オブジェクト3102と、各チャンネルに対応した放送時刻表示オブジェクト3104と番組名表示オブジェクトが配置されている。そして、チャンネル100で放送される「Program A」という番組を表示している番組名表示オブジェクト3601の奥行き幅が最も広く、次いで「Program D」を表示している番組名表示オブジェクト3602と「Program E」を表示している番組名表示オブジェクト3603、「Program B」を表示している番組名表示オブジェクト3604と「Program C」を表示している番組名表示オブジェクト3605という順番で奥行き幅が狭くなっている。   In FIG. 36, a channel display object 3102 that displays the number of channels at the left end, a broadcast time display object 3104 corresponding to each channel, and a program name display object are arranged. The program name display object 3601 displaying the program “Program A” broadcast on the channel 100 has the widest depth, and then the program name display object 3602 displaying “Program D” and “Program E”. ”, A program name display object 3604 displaying“ Program B ”, and a program name display object 3605 displaying“ Program C ”. Yes.

これは、表示されている番組名の視聴率に基づき決定されたもので、視聴率が高い番組であるほど番組名表示オブジェクトの奥行き位置が前面に出でくるように奥行き幅を広くすることによって、視聴者の関心が高いと考えられる高視聴率番組を目立ちやすく表示している。   This is determined based on the audience rating of the displayed program name. By increasing the depth width so that the depth position of the program title display object comes out to the front as the program has a higher audience rating. , High-view rating programs that are considered to be of high interest to viewers are displayed prominently.

なお、視聴率により番組名表示オブジェクトの奥行き幅を決定する場合を説明したが、視聴率に限るものではない。例えば、視聴者が一定期間に見る番組の回数に基づき奥行き幅を決定したり、予めお好みの番組を登録しておき、放送番組一覧表の中にお好みの番組が表示されたとき、その番組を表示しているオブジェクトが、例えば他の番組を表示しているオブジェクトよりも前面に出てくるように奥行き幅を広くなるように設定してもよい。また、視聴者が予めお好みの番組ジャンルを入力しておき、その番組ジャンルの番組を表示しているオブジェクトが前面に出てくるように奥行き幅を広くなるように設定してもよい。   In addition, although the case where the depth width of the program name display object is determined based on the audience rating has been described, it is not limited to the audience rating. For example, when the viewer determines a depth range based on the number of programs that the viewer sees for a certain period of time or registers a favorite program in advance and displays the favorite program in the broadcast program list, For example, the depth width may be set so that the object displaying the program comes to the front of the object displaying another program. Alternatively, the viewer may input a desired program genre in advance, and the depth width may be set so that an object displaying a program of the program genre comes to the front.

また、番組名表示オブジェクトを前面に出てくるように表示するためには、例えば第1の実施の形態で述べたような処理により、番組名表示オブジェクトの奥行き位置を前面に出してもよい。   In order to display the program name display object so as to come to the front, the depth position of the program name display object may be brought to the front by, for example, the processing described in the first embodiment.

なお、視聴率が高い番組であるほど番組名表示オブジェクトの奥行き位置が前面に出でくるように奥行き幅を広くしたが、視聴率が低い番組であるほど番組名表示オブジェクトの奥行き位置が奥側に引っ込むように奥行き幅を狭くしてもよい。   Note that the depth width of the program name display object has been increased so that the depth position of the program name display object comes to the forefront as the program has a higher audience rating. However, the depth position of the program name display object becomes deeper as the program has a lower audience rating. The depth width may be narrowed so as to retract.

以上から、第4の実施の形態によれば、視聴者が関心を持つ可能性が高いと考えられるオブジェクトの奥行き位置ほど、より前面に出るように調整することにより、見やすい映像を提供できる。   As described above, according to the fourth embodiment, it is possible to provide an easy-to-view video by adjusting the depth position of an object considered to be highly likely to be of interest to the viewer so that the depth position of the object comes to the front.

特に、放送番組が表示される放送番組一覧表示に適用することにより、視聴者の関心の高い番組が際立って表示することができる。   In particular, by applying to broadcast program list display in which broadcast programs are displayed, programs that are highly interested by viewers can be displayed prominently.

(第5の実施の形態)
第5の実施の形態は、第1の実施の形態等で述べたオブジェクトに対する処理を、多画面表示に応用したものである。
(Fifth embodiment)
In the fifth embodiment, the processing on the object described in the first embodiment is applied to multi-screen display.

多画面表示とは、1つの表示画面上に複数の表示小画面を表示するものである。視聴者は、複数の表示小画面のうち一つの表示小画面を選択し、その表示小画面を通して映像を観ることができる。また、それぞれの表示小画面には別々の内容の映像が映し出されている。   Multi-screen display is to display a plurality of small display screens on one display screen. The viewer can select one display small screen from the plurality of display small screens and view the video through the display small screen. In addition, each of the small display screens displays images with different contents.

第5の実施の形態では、説明を簡便にするために2つの表示小画面を有する多画面表示を行う場合を例にとる。   In the fifth embodiment, a case where multi-screen display having two display small screens is performed is taken as an example in order to simplify the description.

多画面表示を行うために、多画面一覧オブジェクトを用いる。図37は、多画面一覧オブジェクト3701を表すものであり、多画面一覧オブジェクト3701は表示小画面を映し出すための画面オブジェクト3702、3703から構成されている。さらに、画面オブジェクト3702、3703は、画面オブジェクト3702、3703を備えるオブジェクト3704,3705から構成されている。また、画面オブジェクト3702、3703を構成するオブジェクトト3704,3705の奥行き位置と奥行き幅が分かるように、x軸座標軸とz軸座標軸を示す。   A multi-screen list object is used to perform multi-screen display. FIG. 37 shows a multi-screen list object 3701, and the multi-screen list object 3701 is composed of screen objects 3702 and 3703 for projecting a small display screen. Further, the screen objects 3702 and 3703 are composed of objects 3704 and 3705 including screen objects 3702 and 3703. In addition, the x-axis coordinate axis and the z-axis coordinate axis are shown so that the depth positions and depth widths of the objects 3704 and 3705 constituting the screen objects 3702 and 3703 can be understood.

図38は、多画面一覧表示機能を有する受信装置3801の構成を示すものである。受信装置3801は、受信部102、分離部103、デコーダ104、記憶部3802、制御部3803、入力部107、多画面生成部3804、映像格納部3805、映像信号処理部105、多画面3D変換部3806、表示部110を備えている。   FIG. 38 shows the configuration of a receiving apparatus 3801 having a multi-screen list display function. The reception device 3801 includes a reception unit 102, a separation unit 103, a decoder 104, a storage unit 3802, a control unit 3803, an input unit 107, a multi-screen generation unit 3804, a video storage unit 3805, a video signal processing unit 105, and a multi-screen 3D conversion unit. 3806 and a display unit 110 are provided.

制御部3803は、入力部107から多画面一覧表示の表示要求が出されたとき、記憶部3802から多画面一覧オブジェクト3701と多画面一覧オブジェクト3701を構成する画面オブジェクト3702、3703を取得し、多画面3D変換部3806に出力する。更に、視聴者が現在選択している画面オブジェクトのオブジェクトIDも、選択が切り替えられる度に多画面3D変換部3806に出力される。   When a display request for multi-screen list display is issued from the input unit 107, the control unit 3803 acquires the multi-screen list object 3701 and the screen objects 3702 and 3703 constituting the multi-screen list object 3701 from the storage unit 3802. The data is output to the screen 3D conversion unit 3806. Furthermore, the object ID of the screen object currently selected by the viewer is also output to the multi-screen 3D conversion unit 3806 every time the selection is switched.

また、制御部3803はそれぞれの表示小画面に映し出される映像の映像信号を取得するために、一定時間毎に画面オブジェクトに対応した映像信号を受信するように受信部102を制御する。   In addition, the control unit 3803 controls the receiving unit 102 to receive a video signal corresponding to a screen object at regular intervals in order to acquire a video signal of a video displayed on each display small screen.

更に、制御部3803は、受信部102で受信している映像信号から得られるオブジェクトによって構成される画面オブジェクトのオブジェクトIDを多画面生成部3804に出力する。   Further, the control unit 3803 outputs the object ID of the screen object configured by the object obtained from the video signal received by the receiving unit 102 to the multi-screen generating unit 3804.

多画面生成部3804は、デコーダ104から出力される映像信号に対して、所定の処理を行った後、その映像信号を映像格納部3805または多画面3D変換部3806に出力する。   The multi-screen generation unit 3804 performs predetermined processing on the video signal output from the decoder 104 and then outputs the video signal to the video storage unit 3805 or the multi-screen 3D conversion unit 3806.

映像格納部3805は、多画面生成部3804から映像格納部3805へ出力された映像信号と、多画面生成部3804から多画面3D変換部3806へ出力される映像信号とが同時に多画面3D変換部3806へ出力されるために設けられたものである。従って、多画面生成部3804から多画面3D変換部3806へ出力される映像信号に合わせて、映像格納部3805に格納された映像信号は多画面3D変換部3806に出力される。   The video storage unit 3805 simultaneously outputs the video signal output from the multi-screen generation unit 3804 to the video storage unit 3805 and the video signal output from the multi-screen generation unit 3804 to the multi-screen 3D conversion unit 3806. This is provided for output to 3806. Accordingly, the video signal stored in the video storage unit 3805 is output to the multi-screen 3D conversion unit 3806 in accordance with the video signal output from the multi-screen generation unit 3804 to the multi-screen 3D conversion unit 3806.

多画面3D変換部3806は、現在視聴者によって選択されている画面オブジェクト以外の画面オブジェクトを構成するオブジェクトに対して、奥行き幅が更に狭くなるようにオブジェクトデータに変更を行い、そのオブジェクトデータを映像信号処理部105へ出力する。   The multi-screen 3D conversion unit 3806 changes the object data so that the depth width becomes narrower with respect to the object constituting the screen object other than the screen object currently selected by the viewer, and the object data is converted into the video. Output to the signal processing unit 105.

なお、入力部107から多画面一覧表示の表示要求が出されていないときは、デコーダ104から出力された信号は多画面生成部3804を通り、多画面3D変換部3806へ出力する。多画面3D変換部3806では、第1の実施の形態等で述べた3D変換部と同様の処理を行い、表示映像を構成するオブジェクトのオブジェクトデータに対して処理が行える。   When a display request for multi-screen list display has not been issued from the input unit 107, the signal output from the decoder 104 passes through the multi-screen generation unit 3804 and is output to the multi-screen 3D conversion unit 3806. The multi-screen 3D conversion unit 3806 performs the same processing as the 3D conversion unit described in the first embodiment and the like, and can perform processing on the object data of the objects constituting the display video.

次に、図38に示した受信装置3801が扱うオブジェクトデータについて説明する。   Next, object data handled by the receiving apparatus 3801 shown in FIG. 38 will be described.

まず、多画面一覧オブジェクト3701のオブジェクトデータは、図39に示すように、オブジェクトID3901と、構成画面オブジェクトID情報3902と、オブジェクト表示情報3903から構成されている。構成画面オブジェクトID情報3902には、多画面一覧オブジェクト3701を構成する画面オブジェクト3702、3703のオブジェクトIDが格納されている。   First, the object data of the multi-screen list object 3701 is composed of an object ID 3901, configuration screen object ID information 3902, and object display information 3903 as shown in FIG. The configuration screen object ID information 3902 stores the object IDs of the screen objects 3702 and 3703 constituting the multi-screen list object 3701.

また、画面オブジェクト3702、3703のオブジェクトデータは、図2で述べた構成と同様のものとする。   The object data of the screen objects 3702 and 3703 is the same as the configuration described in FIG.

また、多画面生成部3804は、デコーダ104から出力される映像信号に含まれるそれぞれのオブジェクトデータについて、図2に示されるようなオブジェクトデータから、図40に示すようなオブジェクトデータに変換する。変換されたオブジェクトデータは、オブジェクトID4001と画面オブジェクトID情報4002、オブジェクト表示情報4003から構成されている。画面オブジェクトID情報4002には、オブジェクトID4001を有するオブジェクトがどの画面オブジェクトに属するものであるかの識別を行えるように、画面オブジェクトのオブジェクトIDが格納されている。   Further, the multi-screen generation unit 3804 converts each object data included in the video signal output from the decoder 104 from the object data as shown in FIG. 2 to the object data as shown in FIG. The converted object data includes an object ID 4001, screen object ID information 4002, and object display information 4003. The screen object ID information 4002 stores the object ID of the screen object so that it can be identified to which screen object the object having the object ID 4001 belongs.

次に、第5の実施の形態の受信装置3801が行う処理手順について述べ、そのフローを図41に示し、図37とともに説明する。なお、以下の説明において、画面オブジェクト3702、3703のオブジェクトIDをそれぞれ「1001」、「1002」とする。 まず、視聴者は入力部107から多画面一覧の表示要求を行う(ステップS4101)。   Next, a processing procedure performed by the reception apparatus 3801 according to the fifth embodiment will be described, and the flow thereof is shown in FIG. In the following description, the object IDs of the screen objects 3702 and 3703 are “1001” and “1002”, respectively. First, the viewer requests display of a multi-screen list from the input unit 107 (step S4101).

次に、制御部3803は、記憶部3802から多画面一覧オブジェクトのオブジェクトデータを取得する(ステップS4102)。   Next, the control unit 3803 acquires object data of the multi-screen list object from the storage unit 3802 (step S4102).

次に、制御部3803は多画面一覧オブジェクトの構成オブジェクトID情報から必要な画面オブジェクトを記憶部3802から取得し、多画面3D変換部3806に出力する(ステップS4103)。   Next, the control unit 3803 acquires a necessary screen object from the configuration object ID information of the multi-screen list object from the storage unit 3802, and outputs it to the multi-screen 3D conversion unit 3806 (step S4103).

次に、制御部3803は、入力部107から出力された現在視聴者が選択している画面オブジェクトのオブジェクトIDを受け取り、多画面3D変換部3806へ出力する(ステップS4104)。図37に則すると、視聴者が画面オブジェクト3702を選択しているとすると、制御部3803は画面オブジェクト3702のオブジェクトID「1001」を受け取り、多画面3D変換部3806へ出力する。   Next, the control unit 3803 receives the object ID of the screen object currently selected by the viewer output from the input unit 107, and outputs it to the multi-screen 3D conversion unit 3806 (step S4104). According to FIG. 37, if the viewer selects the screen object 3702, the control unit 3803 receives the object ID “1001” of the screen object 3702 and outputs it to the multi-screen 3D conversion unit 3806.

また、制御部3803は、受信部102に対して受信するチャンネルを指定するとともに、指定したチャンネルを表示している画面オブジェクトのオブジェクトIDを多画面生成部3804に出力する(ステップS4105)。   In addition, the control unit 3803 designates a channel to be received with respect to the receiving unit 102, and outputs the object ID of the screen object displaying the designated channel to the multi-screen generation unit 3804 (step S4105).

図37に則すと、制御部3803は、まずチャンネルが2である画面オブジェクト3703を構成するオブジェクトを受信するように受信部102を制御し、画面オブジェクト3703のオブジェクトID「1002」を多画面生成部3804に出力する。   According to FIG. 37, the control unit 3803 first controls the receiving unit 102 to receive an object constituting the screen object 3703 whose channel is 2, and generates a multi-screen object ID “1002” of the screen object 3703. Output to the unit 3804.

次に、多画面生成部3804は、制御部3803から受け取った画面オブジェクト3703のオブジェクトID「1002」を、デコーダ104から出力されている映像信号に含まれるオブジェクトデータに付加して、図40に示すようなオブジェクトデータに変換し、映像格納部3805に出力する(ステップS4106)。なお、映像格納部3805に格納された映像信号は、他の映像信号が多画面生成部3804から多画面3D変換部3806に出力されるまでの間、格納される。   Next, the multi-screen generation unit 3804 adds the object ID “1002” of the screen object 3703 received from the control unit 3803 to the object data included in the video signal output from the decoder 104, as shown in FIG. It converts into such object data, and outputs it to the image | video storage part 3805 (step S4106). Note that the video signal stored in the video storage unit 3805 is stored until another video signal is output from the multi-screen generation unit 3804 to the multi-screen 3D conversion unit 3806.

次に、制御部3803は、受信部102に対してステップS4106で指定したチャンネル以外のチャンネルを指定するとともに、多画面生成部3804に対して指定したチャンネルを表示している画面オブジェクトのオブジェクトIDを出力する(ステップS4107)。   Next, the control unit 3803 designates a channel other than the channel designated in step S4106 to the reception unit 102, and sets the object ID of the screen object displaying the designated channel to the multi-screen generation unit 3804. Output (step S4107).

図37に則すと、制御部3803は、受信部102に対してチャンネルが1である映像信号を受信するように制御し、多画面生成部3804に対してチャンネルが1である映像を表示している画面オブジェクト3702のオブジェクトID「1001」を出力する。   According to FIG. 37, the control unit 3803 controls the receiving unit 102 to receive a video signal having a channel of 1, and displays a video having a channel of 1 to the multi-screen generating unit 3804. The object ID “1001” of the current screen object 3702 is output.

次に、多画面生成部3804は、制御部3803から受け取った画面オブジェクト3702のオブジェクトID「1001」を、デコーダ104から出力されている映像信号に含まれるオブジェクデータに付加して、図40に示すようなオブジェクトデータに変換し、多画面3D変換部3806に出力する。この時、ステップS4106で述べた映像格納部3805に格納されていた映像信号も多画面3D変換部3806に同時に出力される(ステップS4108)。   Next, the multi-screen generation unit 3804 adds the object ID “1001” of the screen object 3702 received from the control unit 3803 to the object data included in the video signal output from the decoder 104, as shown in FIG. It converts into such object data, and outputs it to the multi-screen 3D conversion unit 3806. At this time, the video signal stored in the video storage unit 3805 described in step S4106 is simultaneously output to the multi-screen 3D conversion unit 3806 (step S4108).

多画面3D変換部3806は、制御部3803から出力された現在視聴者が選択している画面オブジェクト3702のオブジェクトIDと、多画面生成部3804あるいは映像格納部3805から送られる変換されたオブジェクトデータの画面オブジェクトID情報とを比較し(ステップS4109)、一致しない画面オブジェクトID情報を有する変換されたオブジェクトデータに対して、オブジェクト3705の奥行き幅を狭めるように設定し、映像信号処理部105へ出力する(ステップS4110)。   The multi-screen 3D conversion unit 3806 outputs the object ID of the screen object 3702 selected by the current viewer output from the control unit 3803 and the converted object data sent from the multi-screen generation unit 3804 or the video storage unit 3805. The screen object ID information is compared (step S4109), the converted object data having screen object ID information that does not match is set so as to reduce the depth width of the object 3705, and output to the video signal processing unit 105. (Step S4110).

図37に則すと、ステップS4104で受け取った視聴者が選択している画面オブジェクト3702のオブジェクトID「1001」と、ステップS4108より多画面生成部
3804から送られる変換されたオブジェクトデータの画面オブジェクトID情報である「1001」と、ステップS4106より映像格納部3805から送られる変換されたオブジェクトデータの画面オブジェクトID情報である「1002」とを比較する。
According to FIG. 37, the object ID “1001” of the screen object 3702 selected by the viewer received in step S4104 and the screen object ID of the converted object data sent from the multi-screen generating unit 3804 from step S4108. The information “1001” is compared with “1002” which is the screen object ID information of the converted object data sent from the video storage unit 3805 from step S4106.

そして、多画面3D変換部3806は、ステップS4104で受け取ったオブジェクトID「1001」を有さないID情報を格納しているオブジェクト、即ち、変換されたオブジェクトデータの画面オブジェクトID情報に「1002」が格納されているオブジェクトの奥行き幅を狭めるように設定し、映像信号処理部105へ出力する。

そして、映像信号処理部105で立体映像を作成し(ステップS4111)、表示部110において表示する(ステップS4112)。
Then, the multi-screen 3D conversion unit 3806 receives “1002” in the screen object ID information of the object storing the ID information not having the object ID “1001” received in step S4104, that is, the converted object data. The depth of the stored object is set to be narrowed and output to the video signal processing unit 105.

Then, the video signal processing unit 105 creates a stereoscopic video (step S4111) and displays it on the display unit 110 (step S4112).

なお、ステップS4110において、オブジェクト3704の奥行き幅を狭めるために記憶部3802から予め設定された倍率値を用いてもよいし、また、視聴者が数値入力を行ったり、図7や図8で述べたような操作ハンドルを備えたリモコンにより設定してもよい。   In step S4110, a magnification value set in advance from the storage unit 3802 may be used to reduce the depth width of the object 3704, or the viewer inputs a numerical value or is described with reference to FIGS. You may set with the remote control provided with the operation handle like.

次に、上記した処理手順による表示映像について説明を行う。   Next, a display image according to the above processing procedure will be described.

図42は、図37において、視聴者が入力部107から画面オブジェクト3702を選択したときの表示結果示すものであり、画面オブジェクト3702は画面オブジェクト4202に、画面オブジェクト3703は画面オブジェクト4203に対応している。また、画面オブジェクト4202はオブジェクト4204から構成されており、画面オブジェクト4203はオブジェクト4205から構成されている。   FIG. 42 shows a display result when the viewer selects the screen object 3702 from the input unit 107 in FIG. 37. The screen object 3702 corresponds to the screen object 4202, and the screen object 3703 corresponds to the screen object 4203. Yes. The screen object 4202 includes an object 4204, and the screen object 4203 includes an object 4205.

図42では、画面オブジェクト4203を構成しているオブジェクト4205の奥行き幅は狭めて表示されている。   In FIG. 42, the object 4205 constituting the screen object 4203 is displayed with a reduced depth.

その結果、画面オブジェクト4202を構成するオブジェクト4204は画面オブジェクト4203を構成するオブジェクト4205と比較して際立って表示され、視聴者は選択した画面オブジェクト4202をすぐに認識することができる。   As a result, the object 4204 constituting the screen object 4202 is displayed prominently compared with the object 4205 constituting the screen object 4203, and the viewer can immediately recognize the selected screen object 4202.

なお、第5の実施の形態では、説明を簡便にするために2つの表示小画面を有する多画面表示を例に挙げたが、2つ以上の表示小画面を有した多画面表示でもよい。   In the fifth embodiment, a multi-screen display having two display small screens is taken as an example to simplify the description, but a multi-screen display having two or more display small screens may be used.

以上から、第5の実施の形態によれば、複数の画面オブジェクトから構成される多画面一覧オブジェクトにおいて、選択した画面オブジェクト以外の画面オブジェクトを構成するオブジェクトの奥行き幅を狭めることにより、選択した画面オブジェクトからの表示映像が際立って表され、視聴者は選択した表示小画面が見やすくなる。   As described above, according to the fifth embodiment, in the multi-screen list object composed of a plurality of screen objects, the selected screen is reduced by reducing the depth width of the objects constituting the screen object other than the selected screen object. The display video from the object is prominently displayed so that the viewer can easily see the selected display small screen.

(第6の実施の形態)
第6の実施の形態は、オブジェクトデータを送信する送信装置と、第1の実施の形態等で述べたようにそのオブジェクトデータを受信し、そのオブジェクトデータの奥行き方向に関する情報に関して変更を行える受信装置とから構成される放送システムであり、例えばBSデジタル放送を実現する衛星放送システム等である
さらに、送信装置側において、番組制作者等が特定のオブジェクトを指定し、受信装置ではその特定されたオブジェクト以外で受信装置の表示映像に映っているオブジェクトの奥行き方向に関する情報について変更できるようなデータを送信する送信装置と、そのデータに基づいてオブジェクトの処理を行うことができる受信装置とを備えた放送システムである。
(Sixth embodiment)
In the sixth embodiment, a transmitting apparatus that transmits object data and a receiving apparatus that can receive the object data and change the information regarding the depth direction of the object data as described in the first embodiment. For example, a satellite broadcasting system that implements BS digital broadcasting, etc. Further, on the transmitting device side, a program producer or the like designates a specific object, and the receiving device specifies the identified object. A broadcast apparatus comprising: a transmitting apparatus that transmits data that can be changed with respect to information about the depth direction of an object that is displayed in a display image of the receiving apparatus; and a receiving apparatus that can process an object based on the data System.

図43は、第6の実施の形態である放送システムの構成を示すものである。放送システム4301は、送信装置4302と受信装置4303を備える。   FIG. 43 shows a configuration of a broadcasting system according to the sixth embodiment. The broadcast system 4301 includes a transmission device 4302 and a reception device 4303.

送信装置4302は、音声信号送出部4304と映像信号送出部4305、多重化部4306、変調部4307、送信部4308を備えている。   The transmission device 4302 includes an audio signal transmission unit 4304, a video signal transmission unit 4305, a multiplexing unit 4306, a modulation unit 4307, and a transmission unit 4308.

また、受信装置4303は、受信部102と分離部103、デコーダ104、映像信号処理部105、制御部106、入力部107、記憶部108、3D変換部109、表示部110を備えている。   The reception device 4303 includes a reception unit 102, a separation unit 103, a decoder 104, a video signal processing unit 105, a control unit 106, an input unit 107, a storage unit 108, a 3D conversion unit 109, and a display unit 110.

まず、送信装置4302について説明を行う。音声信号出力部4304と映像信号出力部4305からは映像表示を行うための音声信号とオブジェクトデータを含む映像信号が出力される。なお、映像信号は必ずしもオブジェクトデータを含むものでなくてもよく、平面的な映像の表示を行うためのデータも扱うことができる。   First, the transmission device 4302 will be described. The audio signal output unit 4304 and the video signal output unit 4305 output an audio signal for displaying video and a video signal including object data. Note that the video signal does not necessarily include object data, and can also handle data for displaying a planar video.

そして、多重化部4306は、音声信号出力部4304と映像信号出力部4305から出力される信号を多重化する。多重化された信号は、変調部4307で変調され、送信される。   The multiplexing unit 4306 multiplexes signals output from the audio signal output unit 4304 and the video signal output unit 4305. The multiplexed signal is modulated by the modulation unit 4307 and transmitted.

一方、受信装置4303は、送信装置4302から送信されてくる信号を受信して以下その処理を行うが、その処理については、第1の実施の形態等で述べた処理手順をと同様であるので、ここでは説明を省略する。なお、図43に示した受信装置4303は、第1の実施の形態と第2の実施の形態で挙げた受信装置を示したが、第3の実施の形態で述べた図17の受信装置や、第4の実施の形態で述べた図30の受信装置、第5の実施の形態で述べた図36の受信装置でもよい。   On the other hand, the receiving device 4303 receives the signal transmitted from the transmitting device 4302 and performs the processing below. The processing is the same as the processing procedure described in the first embodiment and the like. The description is omitted here. Note that the receiving device 4303 illustrated in FIG. 43 is the receiving device described in the first embodiment and the second embodiment, but the receiving device in FIG. 17 described in the third embodiment or the like. The receiving device of FIG. 30 described in the fourth embodiment and the receiving device of FIG. 36 described in the fifth embodiment may be used.

次に、送信装置側において、番組制作者等が特定のオブジェクトを指定し、受信装置ではその特定されたオブジェクト以外で受信装置の表示映像に映っているオブジェクトの奥行き方向に関する情報について変更できるようなデータを送信する送信装置と、そのデータに基づいてオブジェクトの処理を行うことができる受信装置とを備えた放送システムについて述べる。   Next, on the transmitting device side, a program producer or the like designates a specific object, and the receiving device can change information on the depth direction of the object shown in the display video of the receiving device other than the specified object. A broadcasting system including a transmitting device that transmits data and a receiving device that can process an object based on the data will be described.

図44は、第6の実施の形態である放送システムの構成を示すものである。放送データ通信システム4401は、送信装置4402と受信装置4403を備える。   FIG. 44 shows the configuration of a broadcast system according to the sixth embodiment. The broadcast data communication system 4401 includes a transmission device 4402 and a reception device 4403.

送信装置4402は、音声信号送出部4304と映像信号送出部4305、映像付加情報送出部4406、操作部4407、多重化部4306、変調部4307、送信部4308を備えている。   The transmission device 4402 includes an audio signal transmission unit 4304, a video signal transmission unit 4305, a video additional information transmission unit 4406, an operation unit 4407, a multiplexing unit 4306, a modulation unit 4307, and a transmission unit 4308.

また、受信装置4403は、受信部102と分離部103、デコーダ104、映像信号処理部105、制御部106、入力部107、記憶部108、3D変換部4412、表示部110を備えている。   The reception device 4403 includes a reception unit 102, a separation unit 103, a decoder 104, a video signal processing unit 105, a control unit 106, an input unit 107, a storage unit 108, a 3D conversion unit 4412, and a display unit 110.

まず、送信装置4402について説明を行う。番組制作者は操作部4407を通して、例えば図45に示すような編集画面4501を用いて映像中のオブジェクトを選択し、そのオブジェクトに対して第1の実施の形態等で述べた処理を受信装置において行うように指定することができる。   First, the transmission device 4402 will be described. The program producer selects an object in the video through the operation unit 4407 using, for example, an editing screen 4501 as shown in FIG. 45, and performs the processing described in the first embodiment on the object in the receiving apparatus. Can be specified to do.

編集画面4501には視聴者が視聴する表示映像が映し出される表示画面4502と、
詳細なオブジェクトデータが表示されるデータ表示画面4503がある。番組制作者が、表示映像から表示画面4502に映し出されているオブジェクト4504を選択したとき、データ表示画面4503にはオブジェクト4504の奥行き位置や奥行き幅等が表示され、自由に変更することができる。また、倍率値と差分値に関しても、表示画面4502を確認しながら設定を行うことができる。
The editing screen 4501 has a display screen 4502 on which a display image viewed by the viewer is displayed,
There is a data display screen 4503 on which detailed object data is displayed. When the program producer selects an object 4504 displayed on the display screen 4502 from the display video, the depth position and depth width of the object 4504 are displayed on the data display screen 4503 and can be freely changed. Further, the magnification value and the difference value can be set while confirming the display screen 4502.

操作部4407で決定した操作内容を示すデータは映像付加情報送出部4406に出力され、映像付加情報送出部4406では、操作内容を示すデータに基づき図46に示すオブジェクトデータを作成する。   Data indicating the operation content determined by the operation unit 4407 is output to the video additional information transmission unit 4406. The video additional information transmission unit 4406 creates object data shown in FIG. 46 based on the data indicating the operation content.

図46に示すオブジェクトデータは、オブジェクトID4601、操作コード4602、設定値4603、オブジェクト表示情報4604から構成される。   The object data shown in FIG. 46 includes an object ID 4601, an operation code 4602, a setting value 4603, and object display information 4604.

操作コード4602は、オブジェクトID4601により指定されたオブジェクト以外のオブジェクトに対してどのような処理を行うかを指定するための数値が格納されている。操作コード4602が1であるとき、設定値4603は第1の実施の形態で述べた倍率値を示すものとする。また、操作コード4602が2であるとき、設定値4603は第2の実施の形態で述べた差分値を示すものとする。また、操作コード4602が0であるときは、第1の実施の形態等で述べた処理を行わないものとする。   The operation code 4602 stores a numerical value for designating what processing is to be performed on an object other than the object designated by the object ID 4601. When the operation code 4602 is 1, the setting value 4603 indicates the magnification value described in the first embodiment. When the operation code 4602 is 2, the setting value 4603 indicates the difference value described in the second embodiment. When the operation code 4602 is 0, the processing described in the first embodiment and the like is not performed.

送信装置4402は、音声信号送出部4304から出力された音声信号と映像信号送出部4305から出力された映像信号以外に、もし映像付加情報送出部4406からオブジェクトデータが出力されたとき、映像信号と映像信号とオブジェクトデータを多重化部4306で多重化する。多重化部4306で多重化された信号は変調部4307で変調され、送信部4308で送信される。   In addition to the audio signal output from the audio signal transmission unit 4304 and the video signal output from the video signal transmission unit 4305, the transmission device 4402 receives the video signal when the object data is output from the video additional information transmission unit 4406. The video signal and the object data are multiplexed by the multiplexing unit 4306. The signal multiplexed by the multiplexing unit 4306 is modulated by the modulation unit 4307 and transmitted by the transmission unit 4308.

受信装置は図46に示すようなオブジェクトデータを含む送信信号を受信したとき、図47に示す処理手順により処理を行う。   When the receiving apparatus receives a transmission signal including object data as shown in FIG. 46, the receiving apparatus performs processing according to the processing procedure shown in FIG.

3D変換部4412は、デコーダ104から出力されたオブジェクトデータのうち操作コード4602を読み取り、操作コードが0であるかを調べる(ステップS4701)。   The 3D conversion unit 4412 reads the operation code 4602 from the object data output from the decoder 104, and checks whether the operation code is 0 (step S4701).

操作コード4602が0であるときは(ステップS4701でY)、第1の実施の形態、第2の実施の形態で述べた処理は行われず、オブジェクトデータを映像信号処理部105に出力する(ステップS4702)。   When the operation code 4602 is 0 (Y in step S4701), the processing described in the first embodiment and the second embodiment is not performed, and the object data is output to the video signal processing unit 105 (step). S4702).

そして、映像信号処理部105は、3D変換部4412から受け取ったオブジェクトデータに基づいて立体映像を作成する(ステップS4703)。   Then, the video signal processing unit 105 creates a stereoscopic video based on the object data received from the 3D conversion unit 4412 (step S4703).

表示部110は、映像信号処理部105で作成された立体映像を表示する(ステップS4704)。   The display unit 110 displays the stereoscopic video created by the video signal processing unit 105 (step S4704).

ステップS4701において、読み取った操作コード4602の値が0でなければ(ステップS4701でN)、操作コード4602が1であるかを調べる(ステップS4705)。   In step S4701, if the value of the read operation code 4602 is not 0 (N in step S4701), it is checked whether the operation code 4602 is 1 (step S4705).

操作コード4602が1であったとき(ステップS4705でY)、そのオブジェクトデータのうちオブジェクトIDと設定値4603から数値を読み込む(ステップS4706)。   When the operation code 4602 is 1 (Y in step S4705), a numerical value is read from the object ID and the set value 4603 among the object data (step S4706).

そして、ステップS4706で読み込んだオブジェクトデータ以外で、操作コードや設定値を含んでいないオブジェクトデータを有するオブジェクトの奥行き幅を設定値4603の数値分だけ変更し、映像信号処理部105に出力する(ステップS4707)。   Then, other than the object data read in step S4706, the depth width of the object having object data that does not include the operation code or the setting value is changed by the numerical value of the setting value 4603 and output to the video signal processing unit 105 (step) S4707).

映像信号処理部105は、3D変換部4412から受け取ったオブジェクトデータに基づいて立体映像を作成する(ステップS4703)。   The video signal processing unit 105 creates a stereoscopic video based on the object data received from the 3D conversion unit 4412 (step S4703).

表示部110は、映像信号処理部105で作成された立体映像を表示する(ステップS4704)。   The display unit 110 displays the stereoscopic video created by the video signal processing unit 105 (step S4704).

ステップS4705において、読み取った操作コード4602の値が1でなければ(ステップS4705でN)、操作コード4602が2であるかを調べる(ステップS4708)。   In step S4705, if the value of the read operation code 4602 is not 1 (N in step S4705), it is checked whether the operation code 4602 is 2 (step S4708).

操作コード4602が2であったとき(ステップS4708でY)、そのオブジェクトデータのうちオブジェクトIDと設定値4603を読み込む(ステップS4709)。   When the operation code 4602 is 2 (Y in step S4708), the object ID and setting value 4603 of the object data are read (step S4709).

そして、ステップS4709で読み込んだオブジェクトデータ以外で、操作コードや設定値を含んでいないオブジェクトデータを有するオブジェクトの奥行き位置を設定値4603の値の分だけ変更し、映像信号処理部105に出力する(ステップS4710)。   Then, other than the object data read in step S4709, the depth position of the object having the object data that does not include the operation code or the setting value is changed by the value of the setting value 4603 and output to the video signal processing unit 105 ( Step S4710).

映像信号処理部105は、3D変換部4412から受け取ったオブジェクトデータに基づいて立体映像を作成する(ステップS4703)。   The video signal processing unit 105 creates a stereoscopic video based on the object data received from the 3D conversion unit 4412 (step S4703).

表示部110は、映像信号処理部105で作成された立体映像を表示する(ステップS4704)。   The display unit 110 displays the stereoscopic video created by the video signal processing unit 105 (step S4704).

なお、第6の実施の形態は、操作コード4602と設定値4603を含むオブジェクトデータを受信したときに、必ずしも図47に示す処理手順が行われるものではない。例えば、受信装置側での設定によっては、たとえ操作コード4602と設定値4603を含むオブジェクトデータを受信したとしても、強制的に操作コード4602を0と書き換え、図47に示す処理を行わないようにしてもよい。また、操作コード4602を含まないで送信信号を受信したときは、操作コード4602が0であるものとして扱ってもよい。   In the sixth embodiment, when the object data including the operation code 4602 and the set value 4603 is received, the processing procedure shown in FIG. 47 is not necessarily performed. For example, depending on the setting on the receiving device side, even if object data including the operation code 4602 and the setting value 4603 is received, the operation code 4602 is forcibly rewritten to 0 and the processing shown in FIG. 47 is not performed. May be. Further, when a transmission signal is received without including the operation code 4602, the operation code 4602 may be handled as 0.

また、上記処理では、ステップS4706やステップS4709で読み込んだオブジェクトデータ以外で、操作コードや設定値を含んでいないオブジェクトデータを有するオブジェクトの奥行き幅を設定値の数値分だけ変更したが、ステップS4706やステップS4709で読み込んだオブジェクトIDを有するオブジェクトのオブジェクトデータのみを変更するようにしてもよい。   In the above processing, the depth width of an object having object data that does not include an operation code or setting value other than the object data read in step S4706 or step S4709 is changed by the numerical value of the setting value, but step S4706 or Only the object data of the object having the object ID read in step S4709 may be changed.

その場合、ステップS4706やステップS4709において、オブジェクト表示情報4604に示されるオブジェクトを読み込み、ステップS4707やステップS4710において、読み込んだオブジェクトの奥行き幅や奥行き位置を設定値4603分だけ変更し、映像信号処理部105に出力するようにすればよい。   In that case, in step S4706 or step S4709, the object indicated by the object display information 4604 is read, and in step S4707 or step S4710, the depth width or depth position of the read object is changed by the set value 4603, and the video signal processing unit The data may be output to 105.

また、送信するオブジェクトデータは、上記の構成に限らず、特定のオブジェクトを指定するオブジェクトID4601のみを含むもの、操作コード4602のみを含むもの、設定値4603のみを含むものであってもよい。そのとき、指定されるオブジェクト、処理方法や設定値は、例えば受信装置で予め設定した値を用いる。   Further, the object data to be transmitted is not limited to the above configuration, and may include only an object ID 4601 that specifies a specific object, only an operation code 4602, or only a setting value 4603. At this time, for example, a value preset in the receiving apparatus is used as the designated object, processing method, and set value.

また、オブジェクトID4601、操作コード4602、設定値4603のみを含むオブジェクトデータにより、受信装置にすでに蓄積されているオブジェクトをオブジェクトID4601により指定することもできる。   Further, an object already stored in the receiving apparatus can be specified by the object ID 4601 by object data including only the object ID 4601, the operation code 4602, and the setting value 4603.

なお、オブジェクトの奥行き位置と奥行き幅とを変更するように新たな操作コード4602を設け、受信装置に対して指定できるようにしてもよい。   Note that a new operation code 4602 may be provided to change the depth position and depth width of the object so that the object can be specified to the receiving apparatus.

なお、送信信号のオブジェクトデータに設定値が含まれていない場合や、あるいは受信装置が読み取れない場合は、受信装置で予め設定された倍率値や差分値に基づいて処理できるようにする。   When the set value is not included in the object data of the transmission signal, or when the receiving device cannot read, the processing can be performed based on the magnification value or the difference value set in advance by the receiving device.

また、送信信号のオブジェクトデータに操作コードや設定値が含まれている場合であっても、受信装置側でその設定値を使用するかどうかは任意であり、視聴者が受信装置に対して使用しないように設定することができる。また、送信信号のオブジェクトデータに含まれている操作コードや設定値を取得したとしても、予め設定された倍率値や差分値を用いて処理してもよい。   Even if the operation data and setting value are included in the object data of the transmission signal, whether or not to use the setting value on the receiving device side is arbitrary, and the viewer uses it for the receiving device. It can be set not to. Further, even if an operation code or a setting value included in the object data of the transmission signal is acquired, processing may be performed using a preset magnification value or difference value.

また、第1の実施に形態から第5の実施の形態では、入力部107によりオブジェクトを指定したが、第6の実施に形態ではオブジェクトID4601によりオブジェクトを指定する。しかし、制御部106は入力部107により指定されたオブジェクトでもオブジェクトID4601により指定されたオブジェクトでも同様に処理するため、オブジェクトを指定する方法の相違を除いては、第1に実施に形態から第5の実施の形態で述べた受信装置のオブジェクトの処理方法がそのまま適用できる。   In the first to fifth embodiments, an object is specified by the input unit 107. In the sixth embodiment, an object is specified by an object ID 4601. However, since the control unit 106 processes the object specified by the input unit 107 and the object specified by the object ID 4601 in the same manner, except for the difference in the method of specifying the object, the control unit 106 is first described in the fifth embodiment. The object processing method of the receiving apparatus described in the embodiment can be applied as it is.

以上から、第6の実施の形態によれば、送信装置と、送信装置から送信されるオブジェクトデータに対して、そのオブジェクトデータの奥行き方向に関する情報に変更を行える受信装置とを備える放送システムにより、立体的に表示される映像の視認性は向上し、視聴者の眼にかかる負担が軽減される。   As described above, according to the sixth embodiment, a broadcasting system including a transmission device and a reception device that can change object data transmitted from the transmission device into information related to the depth direction of the object data. The visibility of the stereoscopically displayed video is improved, and the burden on the viewer's eyes is reduced.

また、送信装置側で番組制作者等が指定したオブジェクトを指定できる送信装置と、その指定したオブジェクト、あるいは指定したオブジェクト以外で表示映像を構成しているオブジェクトの奥行き方向に関する情報について変更できる受信装置とから構成される放送システムにより、番組制作者は視聴者に対して趣向を凝らした映像効果を提供できる。特に、番組制作者がテレビニュース速報などの重要な情報を表示したいときに活用でき、文字情報を表示できるため、視聴者が表示を見逃さないようにすることができる。   In addition, a transmission apparatus that can specify an object specified by a program producer or the like on the transmission apparatus side, and a reception apparatus that can change the information regarding the depth direction of the specified object or an object constituting a display video other than the specified object. With the broadcasting system composed of the above, the program producer can provide elaborate video effects to the viewer. In particular, it can be used when a program producer wants to display important information such as a TV news bulletin, and can display character information, thereby preventing the viewer from overlooking the display.

なお、第1の実施の形態から第6の実施の形態に示した受信装置において、必ずしも送信装置から映像データが送られてくるような形態に限らない。例えば、DVD等の蓄積メディアに記録されている映像データを表示する場合でも、本発明を実施できる。   Note that the receiving apparatuses shown in the first to sixth embodiments are not necessarily limited to the form in which video data is sent from the transmitting apparatus. For example, the present invention can be implemented even when displaying video data recorded on a storage medium such as a DVD.

なお、第1の実施の形態から第6の実施の形態に示した受信装置において、送信されてくる信号にオブジェクトデータが含まれていない場合や、平面的な映像の表示を行うためのデータしか含まれていない場合もある。その場合、まず受信装置において、受信した映像が立体的に表示されるものか、平面的に表示されるものかの判断は制御部で行われる。   Note that, in the receiving apparatuses shown in the first to sixth embodiments, when object data is not included in the transmitted signal or only data for displaying a flat image is displayed. It may not be included. In that case, the control unit first determines whether the received image is displayed three-dimensionally or planarly in the receiving device.

視聴者が入力部から特定のオブジェクトを選択しようとするとき、入力部は制御部を通じて3D変換部からオブジェクトに関する情報を入手できるようにする。このときに、制御部はデコーダから取得したデータから、例えばz軸座標値が取得できるかどうかや立体映像信号の中に立体映像データであることを表すフラグの有無により、表示映像が立体表示か平面表示の判別を行い、もし受信しているデータが平面的に表示される映像データで
あるならば、視聴者にオブジェクトを選択できない旨を表示することができる。
When the viewer tries to select a specific object from the input unit, the input unit can obtain information on the object from the 3D conversion unit through the control unit. At this time, from the data acquired from the decoder, the control unit determines whether the display image is a three-dimensional display depending on whether a z-axis coordinate value can be acquired, for example, and whether or not a three-dimensional video signal has a flag indicating that it is stereoscopic video data. The flat display is determined, and if the received data is video data displayed in a flat manner, it can be displayed to the viewer that the object cannot be selected.

しかし、受信しているデータが平面的に表示される映像データであっても、メニュー表示や多画面一覧表示、放送番組一覧表示に関しては、記憶部に記憶されているオブジェクトデータを参照して表示されるので、常時選択入力部から表示要求を行える。   However, even if the received data is video data displayed in a plane, the menu display, multi-screen list display, and broadcast program list display are displayed with reference to the object data stored in the storage unit. Therefore, a display request can always be made from the selection input unit.

そして、その時のメニュー表示に関しては立体表示を行ってもよいし、平面的に表示させてもよい。   Then, regarding the menu display at that time, a three-dimensional display may be performed or a two-dimensional display may be performed.

また、受信しているデータが平面的に表示される映像データであっても、3D変換部において映像データに処理を行うことにより映像を立体化して見せるようにしてもよい。そのときは、例えば第1から第5の実施の形態で述べたように、映像の立体化の度合いを抑制しながらメニューの表示を行えばよい。   Moreover, even if the received data is video data displayed in a plane, the video may be displayed in a three-dimensional manner by processing the video data in the 3D conversion unit. In that case, as described in the first to fifth embodiments, for example, the menu may be displayed while suppressing the degree of stereoscopicization of the video.

また、第1から第5の実施の形態では、オブジェクトデータを含む送信データを想定したが、送信装置から左眼と右眼用で相違する平面映像を送信データとすることにより、受信装置で立体映像を再現する方法も考えられる。   In the first to fifth embodiments, transmission data including object data is assumed. However, a plane image that is different for the left eye and the right eye from the transmission device is set as transmission data, so that a three-dimensional image can be obtained by the reception device. A method of reproducing the image is also conceivable.

この場合、受信装置側の3D変換部では、メニュー以外の映像に関して、左眼と右眼用の平面映像の相違の度合いを緩和するように処理すれば、メニュー以外の映像は奥行きが狭まって表示されることが知られている。従って、送信データはオブジェクトデータを含むものでも、左眼と右眼用で相違する平面映像を含むものでも、本発明に影響を及ぼさない。   In this case, if the 3D conversion unit on the receiving device side processes the video other than the menu so as to reduce the degree of difference between the left-eye and right-eye flat images, the video other than the menu is displayed with a reduced depth. It is known that Therefore, the transmission data does not affect the present invention even if it includes object data or includes plane images that are different for the left and right eyes.

更に、本発明はかかる上記実施形態に限定されるものではなく、本発明の範囲を逸脱することなく種々の変形又は修正が可能である。   Furthermore, the present invention is not limited to the above-described embodiment, and various changes and modifications can be made without departing from the scope of the present invention.

本発明は、映像データ等を送信する送信装置、映像データを立体的に表示可能な表示装置、映像データを送受信することができる送受信システム、送受信方法、表示方法、送信方法、および映像に関する制御をすることができるリモコンに関するものである。   The present invention relates to a transmission device that transmits video data and the like, a display device that can display video data in three dimensions, a transmission / reception system that can transmit and receive video data, a transmission / reception method, a display method, a transmission method, and video control. It relates to a remote control that can do.

本発明の実施の形態を示す受信装置の構成図Configuration diagram of a receiving apparatus showing an embodiment of the present invention オブジェクトデータの構造図Object data structure diagram オブジェクト空間内に設定される座標系を示す図Diagram showing coordinate system set in object space 本発明の実施の形態を示す受信装置の処理手順を示す図The figure which shows the process sequence of the receiver which shows embodiment of this invention 本発明の実施の形態を示す3D変換部の処理手順を示す図The figure which shows the process sequence of the 3D conversion part which shows embodiment of this invention. 本発明の実施の形態を示すオブジェクトの表示とオブジェクトの位置を示す図The figure which shows the display of the object which shows embodiment of this invention, and the position of an object 操作ハンドルを備えたリモコンの斜視図Perspective view of remote control with operation handle 球体を備えたリモコンの斜視図Perspective view of remote control with a sphere リモコン操作時の表示画面を示す図The figure which shows the display screen at the time of remote control operation 本発明の実施の形態を示すオブジェクトの表示とオブジェクトの位置を示す図The figure which shows the display of the object which shows embodiment of this invention, and the position of an object 本発明の実施の形態を示すオブジェクトの表示とオブジェクトの位置を示す図The figure which shows the display of the object which shows embodiment of this invention, and the position of an object 本発明の実施の形態を示すオブジェクトの表示とオブジェクトの位置を示す図The figure which shows the display of the object which shows embodiment of this invention, and the position of an object 本発明の実施の形態を示すオブジェクトの表示とオブジェクトの位置を示す図The figure which shows the display of the object which shows embodiment of this invention, and the position of an object 本発明の実施の形態を示すオブジェクトの表示とオブジェクトの位置を示す図The figure which shows the display of the object which shows embodiment of this invention, and the position of an object 本発明の実施の形態を示すオブジェクトの表示とオブジェクトの位置を示す図The figure which shows the display of the object which shows embodiment of this invention, and the position of an object 本発明の実施の形態を示すメニューオブジェクトの表示図Menu object display diagram showing an embodiment of the present invention 本発明の実施の形態を示す受信装置の構成図Configuration diagram of a receiving apparatus showing an embodiment of the present invention 本発明の実施の形態を示すメニューオブジェクトデータの構造図Menu object data structure diagram showing an embodiment of the present invention 本発明の実施の形態を示す項目ボタンオブジェクトデータの構造図Structure diagram of item button object data showing an embodiment of the present invention 本発明の実施の形態を示す受信装置の処理手順を示す図The figure which shows the process sequence of the receiver which shows embodiment of this invention 本発明の実施の形態を示すオブジェクトの表示とオブジェクトの位置を示す図The figure which shows the display of the object which shows embodiment of this invention, and the position of an object 本発明の実施の形態を示すオブジェクトの表示とオブジェクトの位置を示す図The figure which shows the display of the object which shows embodiment of this invention, and the position of an object 本発明の実施の形態を示すオブジェクトの表示とオブジェクトの位置を示す図The figure which shows the display of the object which shows embodiment of this invention, and the position of an object 本発明の実施の形態を示す3D変換部の処理手順を示す図The figure which shows the process sequence of the 3D conversion part which shows embodiment of this invention. 本発明の実施の形態を示すオブジェクトの表示とオブジェクトの位置を示す図The figure which shows the display of the object which shows embodiment of this invention, and the position of an object 本発明の実施の形態を示すオブジェクトの表示とオブジェクトの位置を示す図The figure which shows the display of the object which shows embodiment of this invention, and the position of an object 本発明の実施の形態を示すメニュー変換部の処理手順を示す図The figure which shows the process sequence of the menu conversion part which shows embodiment of this invention. 本発明の実施の形態を示すオブジェクトの表示とオブジェクトの位置を示す図The figure which shows the display of the object which shows embodiment of this invention, and the position of an object 本発明の実施の形態を示すメニュー変換部の処理手順を示す図The figure which shows the process sequence of the menu conversion part which shows embodiment of this invention. 本発明の実施の形態を示すオブジェクトの表示とオブジェクトの位置を示す図The figure which shows the display of the object which shows embodiment of this invention, and the position of an object 本発明の実施の形態を示す放送番組一覧オブジェクトBroadcast program list object showing an embodiment of the present invention 本発明の実施の形態を示す受信装置の構成図Configuration diagram of a receiving apparatus showing an embodiment of the present invention 本発明の実施の形態を示す放送番組一覧オブジェクトデータの構造図Structure diagram of broadcast program list object data showing an embodiment of the present invention 本発明の実施の形態を示す番組名表示オブジェクトデータの構造図Structure diagram of program name display object data showing an embodiment of the present invention 本発明の実施の形態を示す受信装置の処理手順を示す図The figure which shows the process sequence of the receiver which shows embodiment of this invention 本発明の実施の形態を示す放送番組一覧オブジェクトの表示例を示す図The figure which shows the example of a display of the broadcast program list object which shows embodiment of this invention 本発明の実施の形態を示す多画面一覧オブジェクトの表示例を示す図The figure which shows the example of a display of the multiscreen list object which shows embodiment of this invention 本発明の実施の形態を示す受信装置の構成図Configuration diagram of a receiving apparatus showing an embodiment of the present invention 本発明の実施の形態を示す多画面一覧オブジェクトデータの構造図Multi-screen list object data structure diagram showing an embodiment of the present invention 本発明の実施の形態を示す変換されたオブジェクトデータの構造図Structure diagram of converted object data showing an embodiment of the present invention 本発明の実施の形態を示す受信装置の処理手順を示す図The figure which shows the process sequence of the receiver which shows embodiment of this invention 本発明の実施の形態を示す多画面一覧オブジェクトの表示例を示す図The figure which shows the example of a display of the multiscreen list object which shows embodiment of this invention 本発明の実施の形態を示す送信装置と受信装置の構成図Configuration diagram of transmitter and receiver according to an embodiment of the present invention 本発明の実施の形態を示す送信装置と受信装置の構成図Configuration diagram of transmitter and receiver according to an embodiment of the present invention 操作部による編集画面の表示を示す図The figure which shows the display of the edit screen by the operation section 本発明の実施の形態のオブジェクトデータを示す図The figure which shows the object data of embodiment of this invention 本発明の実施の形態を示す受信装置の処理手順を示す図The figure which shows the process sequence of the receiver which shows embodiment of this invention 従来例を示すオブジェクトの表示とオブジェクトの位置を示す図The figure which shows the display of the object which shows a prior art example, and the position of an object

符号の説明Explanation of symbols

102 受信部
103 分離部
104 デコーダ
105 映像信号処理部
106 制御部
107 入力部
108 記憶部
109 3D変換部
110 表示部
1702 制御部
1703 記憶部
1704 3D変換部
1705 メニュー変換部
3202 制御部
3203 番組一覧制御部
3204 視聴率記憶部
3205 3D変換部
3802 記憶部
3803 制御部
3804 多画面生成部
3805 映像格納部
3806 多画面3D変換部
4406 映像付加情報送出部
4407 操作部
4412 3D変換部
DESCRIPTION OF SYMBOLS 102 Receiving part 103 Separating part 104 Decoder 105 Video signal processing part 106 Control part 107 Input part 108 Storage part 109 3D conversion part 110 Display part 1702 Control part 1703 Storage part 1704 3D conversion part 1705 Menu conversion part 3202 Control part 3203 Program list control Unit 3204 audience rating storage unit 3205 3D conversion unit 3802 storage unit 3803 control unit 3803 multi-screen generation unit 3805 video storage unit 3806 multi-screen 3D conversion unit 4406 video additional information transmission unit 4407 operation unit 4412 3D conversion unit

Claims (28)

オブジェクトを立体的に表示することができるオブジェクトデータを取得する取得手段と、
前記取得手段で取得したオブジェクトデータの奥行き方向に関する情報を変更する制御手段と、
前記制御手段により変更されたオブジェクトデータに基づいてオブジェクトを立体的に表示する表示手段と
を備えていることを特徴とする表示装置。
Obtaining means for obtaining object data capable of displaying an object in three dimensions;
Control means for changing information about the depth direction of the object data acquired by the acquisition means;
A display device comprising: display means for three-dimensionally displaying an object based on the object data changed by the control means.
前記表示手段に表示されるオブジェクトの中からオブジェクトを指定するオブジェクト指定手段を備え、
前記制御手段は、前記オブジェクト指定手段で指定されたオブジェクトまたは前記オブジェクト指定手段で指定されたオブジェクト以外の所定のオブジェクトで前記表示手段に表示されるオブジェクトのオブジェクトデータの奥行き方向に関する情報を変更する
ことを特徴とする請求項1に記載の表示装置。
An object designating unit for designating an object from among the objects displayed on the display unit;
The control means changes information related to the depth direction of the object data of the object displayed on the display means by a predetermined object other than the object specified by the object specifying means or the object specified by the object specifying means. The display device according to claim 1.
前記制御手段は、前記奥行き方向に関する情報に基づいて前記オブジェクト指定手段で指定されたオブジェクトまたは前記オブジェクト指定手段で指定されたオブジェクト以外の所定のオブジェクトで前記表示手段に表示されるオブジェクトの奥行き位置または奥行き幅のうち少なくとも一方に関する情報を変更する
ことを特徴とする請求項2に記載の表示装置。
The control means includes a depth position of an object displayed on the display means with a predetermined object other than the object designated by the object designation means or the object designated by the object designation means based on the information about the depth direction, or The display device according to claim 2, wherein information on at least one of the depth widths is changed.
前記制御手段は、前記オブジェクト指定手段で指定されたオブジェクトの奥行き位置と前記オブジェクト指定手段で指定されたオブジェクト以外の所定のオブジェクトで前記表示手段に表示されるオブジェクトの奥行き位置とを比較し、比較結果に基づいて前記指定されたオブジェクト以外の所定のオブジェクトで前記表示手段に表示されるオブジェクトのオブジェクトデータの奥行き方向に関する情報を変更する
ことを特徴とする請求項2に記載の表示装置。
The control means compares the depth position of the object specified by the object specifying means with the depth position of the object displayed on the display means by a predetermined object other than the object specified by the object specifying means, and compares The display device according to claim 2, wherein information related to a depth direction of object data of an object displayed on the display unit with a predetermined object other than the designated object is changed based on a result.
前記制御手段は、前記オブジェクト指定手段で指定されたオブジェクトの奥行き位置と前記オブジェクト指定手段で指定されたオブジェクト以外の所定のオブジェクトで表示手段に表示されるオブジェクトの奥行き位置との差が狭まるように、前記比較結果に基づいて前記表示手段に表示されるオブジェクトのオブジェクトデータの奥行き方向に関する情報を変更する
ことを特徴とする請求項4に記載の表示装置。
The control means narrows the difference between the depth position of the object specified by the object specifying means and the depth position of the object displayed on the display means by a predetermined object other than the object specified by the object specifying means. The display device according to claim 4, wherein information related to a depth direction of object data of an object displayed on the display unit is changed based on the comparison result.
前記制御手段は、前記オブジェクト指定手段で指定されたオブジェクトの奥行き位置が、前記オブジェクト指定手段で指定されたオブジェクト以外の所定のオブジェクトで表示手段により表示されるオブジェクトの奥行き位置よりも手前に表示されるように、前記比較結果に基づいて前記表示手段に表示されるオブジェクトのオブジェクトデータの奥行き方向に関する情報を変更する
ことを特徴とする請求項4に記載の表示装置。
The control means displays the depth position of the object specified by the object specifying means in front of the depth position of the object displayed by the display means on a predetermined object other than the object specified by the object specifying means. The display device according to claim 4, wherein information on the depth direction of the object data of the object displayed on the display unit is changed based on the comparison result.
前記制御手段は、前記オブジェクト指定手段で指定されたオブジェクトの奥行き幅が広くなるように、または前記オブジェクト指定手段で指定されたオブジェクト以外の所定のオブジェクトで前記表示手段に表示されるオブジェクトの奥行き幅が狭くなるように、前記オブジェクト指定手段で指定されたオブジェクトのオブジェクトデータの奥行き方向に関する情報について変更を行う
ことを特徴とする請求項2に記載の表示装置。
The control means is configured to increase the depth width of the object specified by the object specifying means, or to display the depth width of the object displayed on the display means with a predetermined object other than the object specified by the object specifying means. The display device according to claim 2, wherein the information on the depth direction of the object data of the object specified by the object specifying means is changed so that the width of the display is narrow.
前記制御手段は、前記オブジェクト指定手段で指定されたオブジェクトの奥行き位置が、前記オブジェクト指定手段で指定されたオブジェクト以外の所定のオブジェクトで表示手段により表示されるオブジェクトの奥行き位置よりも手前に表示されるように、前記表示手段に表示されるオブジェクトのオブジェクトデータの奥行き方向に関する情報を変更する
ことを特徴とする請求項2に記載の表示装置。
The control means displays the depth position of the object specified by the object specifying means in front of the depth position of the object displayed by the display means on a predetermined object other than the object specified by the object specifying means. The display device according to claim 2, wherein information regarding a depth direction of object data of an object displayed on the display unit is changed.
前記制御手段は、奥行き方向に対して垂直方向に広がる平面である基準
平面と前記オブジェクト指定手段で指定されたオブジェクト以外の所定のオブジェクトで前記表示手段に表示されるオブジェクトの奥行き位置との差を狭めるように、前記オブジェクト指定手段で指定されたオブジェクト以外で前記表示手段に表示されるオブジェクトのオブジェクトデータのうち奥行き方向に関する情報について変更を行う
ことを特徴とする請求項2に記載の表示装置。
The control means calculates a difference between a reference plane that is a plane extending in a direction perpendicular to the depth direction and a depth position of an object displayed on the display means by a predetermined object other than the object specified by the object specifying means. The display device according to claim 2, wherein information relating to a depth direction is changed among object data of objects displayed on the display unit other than the object specified by the object specifying unit so as to be narrowed.
前記基準平面は、映像を表示する表示画面と交わる位置に設定される
ことを特徴とする請求項9に記載の表示装置。
The display device according to claim 9, wherein the reference plane is set at a position that intersects a display screen that displays an image.
前記表示手段に表示されるオブジェクトは少なくとも放送されるコンテンツを構成するオブジェクトであり、前記オブジェクト指定手段で指定されるオブジェクトはメニュー画面を構成するオブジェクトである
ことを特徴とする請求項2に記載の表示装置。
The object displayed on the display means is an object constituting at least broadcast content, and the object designated by the object designation means is an object constituting a menu screen. Display device.
前記表示手段に表示されるオブジェクトは、1以上の第1のオブジェクトと前記第1のオブジェクトに含まれる第2のオブジェクトとを有し、前記表示手段に表示されるオブジェクトの中から1以上の第1のオブジェクトを指定するオブジェクト指定手段を備え、
前記制御手段は、前記オブジェクト指定手段で指定された第1のオブジェクトに含まれる第2のオブジェクトまたは前記オブジェクト指定手段で指定された第1のオブジェクト以外の第1のオブジェクトに含まれる第2のオブジェクトの奥行き方向に関する情報を変更する
ことを特徴とする請求項1に記載の表示装置。
The object displayed on the display means includes one or more first objects and a second object included in the first object, and one or more first objects among the objects displayed on the display means. An object designating means for designating one object;
The control means includes a second object included in a first object specified by the object specifying means or a second object included in a first object other than the first object specified by the object specifying means. The display device according to claim 1, wherein information regarding the depth direction of the display is changed.
前記制御手段は、前記表示手段に表示されるオブジェクトの注目度に応じて、前記オブジェクトのオブジェクトデータの奥行き方向に関する情報を変更する
ことを特徴とする請求項1に記載の表示装置。
The display device according to claim 1, wherein the control unit changes information related to a depth direction of object data of the object according to a degree of attention of the object displayed on the display unit.
前記表示手段に表示されるオブジェクトは番組の表を構成するオブジェクトであり、前記制御手段は前記番組の視聴率が高いほど前記オブジェクトの奥行き幅が広くなるように前記オブジェクトのオブジェクトデータの奥行き方向に関する情報を変更する
ことを特徴とする請求項1に記載の表示装置。
The object displayed on the display means is an object constituting a table of the program, and the control means relates to the depth direction of the object data of the object so that the depth width of the object becomes wider as the audience rating of the program is higher. The display device according to claim 1, wherein the information is changed.
前記表示手段に表示されるオブジェクトは階層構造で表示されるオブジェクトであり、前記制御手段は上位階層のオブジェクトに対して下位階層のオブジェクトの奥行き幅が広くなるように、前記下位階層のオブジェクトのオブジェクトデータの奥行き方向に関する情報を変更する
ことを特徴とする請求項1記載の表示装置。
The object displayed on the display means is an object displayed in a hierarchical structure, and the control means is an object of the object in the lower hierarchy so that the depth of the object in the lower hierarchy is wider than the object in the upper hierarchy. The information on the depth direction of data is changed. The display device according to claim 1.
前記取得手段が、前記オブジェクトデータの奥行き方向に関する情報を変更する処理手順を示す操作コードを取得したとき、
前記制御手段は、前記操作コードに基づいて前記オブジェクトのオブジェクトデータの奥行き方向に関する情報を変更する
ことを特徴とする請求項1に記載の表示装置。
When the acquisition unit acquires an operation code indicating a processing procedure for changing information related to the depth direction of the object data,
The display device according to claim 1, wherein the control unit changes information related to a depth direction of object data of the object based on the operation code.
前記取得手段が、前記オブジェクトデータの奥行き方向に関する情報を変更する処理手順を示す操作コードを取得したとき、
前記制御手段は、前記操作コードまたはあらかじめ保持している操作コードのいずれかに基づいて前記オブジェクトのオブジェクトデータの奥行き方向に関する情報を変更することができる
ことを特徴とする請求項1に記載の表示装置。
When the acquisition unit acquires an operation code indicating a processing procedure for changing information related to the depth direction of the object data,
The display according to claim 1, wherein the control unit can change information related to a depth direction of object data of the object based on either the operation code or an operation code held in advance. apparatus.
前記操作コードは変更後の前記オブジェクトデータの奥行き方向に関する情報を定める、変更前のオブジェクトデータに対する倍率値である
ことを特徴とする請求項16または請求項17に記載の表示装置。
The display device according to claim 16 or 17, wherein the operation code is a magnification value with respect to the object data before the change, which defines information regarding the depth direction of the object data after the change.
前記操作コードが前記オブジェクトデータの奥行き方向に関する情報を変更するオブジェクトを指定する値であるとき、
前記制御手段は、前記オブジェクトを指定する値により指定されるオブジェクトまたは
前記オブジェクトを指定する値により指定されるオブジェクト以外の所定のオブジェクトで前記表示手段に表示されるオブジェクトのオブジェクトデータの奥行き方向に関する情報を変更する
ことを特徴とする請求項16または請求項17に記載の表示装置。
When the operation code is a value that specifies an object for changing information related to the depth direction of the object data,
The control means is information related to the depth direction of the object data of the object displayed on the display means by a predetermined object other than the object specified by the value specifying the object or the object specified by the value specifying the object. The display device according to claim 16 or 17, wherein the display device is changed.
前記オブジェクトデータの奥行き方向に関する情報は絶対的な空間座標軸上の値に基づいて表される情報、あるいは二次元データを三次元データに変換して得られる情報である
ことを特徴とする請求項1から請求項19のうちいずれか1項に記載の表示装置。
The information related to the depth direction of the object data is information expressed based on an absolute value on a spatial coordinate axis, or information obtained by converting two-dimensional data into three-dimensional data. The display device according to claim 19.
前記オブジェクトの奥行き位置は、前記各オブジェクトの最も手前に表示される位置である
ことを特徴とする請求項3から請求項6,請求項8,請求項9のうちいずれか1項に記載の表示装置。
The display according to any one of claims 3 to 6, claim 8, and claim 9, wherein the depth position of the object is a position displayed in front of each object. apparatus.
オブジェクトを立体的に表示することができるオブジェクトデータの奥行き方向に関する情報を変更する処理手順を示す操作コードとを送信する
ことを特徴とする送信装置。
A transmission apparatus that transmits an operation code indicating a processing procedure for changing information related to a depth direction of object data capable of displaying an object in three dimensions.
オブジェクトを立体的に表示することができるオブジェクトデータを送信する送信装置と、
オブジェクトを立体的に表示することができるオブジェクトデータを受信する受信手段と、前記受信手段で受信したオブジェクトデータの奥行き方向に関する情報を変更する制御手段とを有する受信装置と
を備えることを特徴とする送受信システム。
A transmission device for transmitting object data capable of displaying an object in three dimensions;
A receiving device comprising: receiving means for receiving object data capable of displaying an object in three dimensions; and control means for changing information relating to the depth direction of the object data received by the receiving means. Transmission / reception system.
前記送信装置は、さらに前記オブジェクトデータの奥行き方向に関する情報を変更する処理手順を示す操作コードを送信し、
前記受信装置は、前記操作コードに基づいて前記オブジェクトのオブジェクトデータの奥行き方向に関する情報を変更する
ことを特徴とする請求項23に記載の送受信システム。
The transmission device further transmits an operation code indicating a processing procedure for changing information on the depth direction of the object data,
The transmission / reception system according to claim 23, wherein the reception device changes information related to a depth direction of object data of the object based on the operation code.
オブジェクトを立体的に表示することができるオブジェクトデータを取得するステップと、
取得したオブジェクトデータの奥行き方向に関する情報を変更するステップと、
変更されたオブジェクトデータに基づいてオブジェクトを立体的に表示するステップと、
を含むことを特徴とする表示方法。
Obtaining object data capable of displaying an object in three dimensions;
Changing the information about the depth direction of the acquired object data;
Displaying the object three-dimensionally based on the changed object data;
A display method comprising:
オブジェクトを立体的に表示することができるオブジェクトデータと前記オブジェクトデータの奥行き方向に関する情報を変更する処理手順を示す操作コードとを送信するステップを含む
ことを特徴とする送信方法。
A transmission method comprising: transmitting object data capable of displaying an object in three dimensions and an operation code indicating a processing procedure for changing information related to a depth direction of the object data.
オブジェクトを立体的に表示することができるオブジェクトデータを送信するステップと、
オブジェクトを立体的に表示することができるオブジェクトデータを受信するステップと、
受信したオブジェクトデータの奥行き方向に関する情報を変更するステップと
を有することを特徴とする送受信方法。
Sending object data capable of displaying the object in three dimensions;
Receiving object data capable of displaying an object in three dimensions;
And a step of changing information on the depth direction of the received object data.
さらに前記オブジェクトデータの奥行き方向に関する情報を変更する処理手順を示す操作コードを送信し、
前記操作コードに基づいて前記オブジェクトのオブジェクトデータの奥行き方向に関する情報を変更する
ことを特徴とする請求項27に記載の送受信方法。
Furthermore, an operation code indicating a processing procedure for changing information on the depth direction of the object data is transmitted,
The transmission / reception method according to claim 27, wherein information related to a depth direction of object data of the object is changed based on the operation code.
JP2003296050A 2003-08-20 2003-08-20 Display device and display method Expired - Fee Related JP4400143B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003296050A JP4400143B2 (en) 2003-08-20 2003-08-20 Display device and display method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003296050A JP4400143B2 (en) 2003-08-20 2003-08-20 Display device and display method

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2009208889A Division JP5067407B2 (en) 2009-09-10 2009-09-10 Display device and display method

Publications (2)

Publication Number Publication Date
JP2005065162A true JP2005065162A (en) 2005-03-10
JP4400143B2 JP4400143B2 (en) 2010-01-20

Family

ID=34372084

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003296050A Expired - Fee Related JP4400143B2 (en) 2003-08-20 2003-08-20 Display device and display method

Country Status (1)

Country Link
JP (1) JP4400143B2 (en)

Cited By (37)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009147550A (en) * 2007-12-12 2009-07-02 Nintendo Co Ltd Display system
JP2010086228A (en) * 2008-09-30 2010-04-15 Fujifilm Corp Three-dimensional display apparatus, method and program
JP2010103866A (en) * 2008-10-27 2010-05-06 Fujifilm Corp Three-dimensional (3d) display and method of displaying in three dimensions, and program
WO2010092823A1 (en) * 2009-02-13 2010-08-19 パナソニック株式会社 Display control device
JP2010531102A (en) * 2007-06-19 2010-09-16 トリオビズ Method and apparatus for generating and displaying stereoscopic image with color filter
EP2306748A2 (en) * 2009-09-30 2011-04-06 Hitachi Consumer Electronics Co. Ltd. Receiver apparatus and reproducing apparatus
JP2011070450A (en) * 2009-09-25 2011-04-07 Panasonic Corp Three-dimensional image processing device and control method thereof
KR20110087805A (en) * 2010-01-27 2011-08-03 엘지전자 주식회사 Method for providing user interface and digital broadcast receiver enabling of the method
EP2408213A2 (en) * 2010-07-14 2012-01-18 LG Electronics Mobile terminal and controlling method thereof
JP2012060198A (en) * 2010-09-03 2012-03-22 Toshiba Corp Electronic apparatus, image processing method, and image processing program
WO2012049848A1 (en) * 2010-10-14 2012-04-19 パナソニック株式会社 Stereo image display device
CN102474641A (en) * 2009-07-07 2012-05-23 Lg电子株式会社 Method for displaying three-dimensional user interface
JP2012134726A (en) * 2010-12-21 2012-07-12 Toshiba Corp Image processor and image processing method
JP2012169911A (en) * 2011-02-15 2012-09-06 Nintendo Co Ltd Display control program, display controller, display control system, and display control method
JP2012169730A (en) * 2011-02-10 2012-09-06 Nec Personal Computers Ltd Image processing method and image processing device
WO2012131752A1 (en) * 2011-03-25 2012-10-04 パナソニック株式会社 Depth information updating device, stereoscopic video generation device, and depth information updating method
JP2012231254A (en) * 2011-04-25 2012-11-22 Toshiba Corp Stereoscopic image generating apparatus and stereoscopic image generating method
WO2012169336A1 (en) * 2011-06-08 2012-12-13 シャープ株式会社 Stereoscopic video display device
WO2012172752A1 (en) 2011-06-13 2012-12-20 Sony Corporation Display control apparatus, display control method, and program
WO2013024847A1 (en) * 2011-08-18 2013-02-21 シャープ株式会社 Stereoscopic image generating device, stereoscopic image display device, stereoscopic image generating method, and program
EP2574067A1 (en) * 2010-05-18 2013-03-27 Sony Corporation Data transmission system
JP2013517657A (en) * 2010-01-14 2013-05-16 ヒューマンアイズ テクノロジーズ リミテッド Method and system for adjusting the depth value of an object in a three-dimensional display
KR20130060505A (en) * 2011-11-30 2013-06-10 엘지전자 주식회사 Mobile terminal
EP2604040A1 (en) * 2010-08-12 2013-06-19 Thomson Licensing Stereoscopic menu control
KR20130100994A (en) * 2010-07-21 2013-09-12 톰슨 라이센싱 Method and device for providing supplementary content in 3d communication system
JP2014003465A (en) * 2012-06-19 2014-01-09 Seiko Epson Corp Image display device and control method therefor
US8749614B2 (en) 2009-10-16 2014-06-10 Lg Electronics Inc. Method for indicating a 3D contents and apparatus for processing a signal
JP2014140173A (en) * 2014-02-03 2014-07-31 Nikon Corp Image reproducing device
WO2014155670A1 (en) * 2013-03-29 2014-10-02 株式会社 東芝 Stereoscopic video processing device, stereoscopic video processing method, and stereoscopic video processing program
US8937648B2 (en) 2009-06-23 2015-01-20 Lg Electronics Inc. Receiving system and method of providing 3D image
JP2015173511A (en) * 2009-09-30 2015-10-01 ユナイテッド ビデオ プロパティーズ, インコーポレイテッド Systems and methods for navigating three-dimensional media guidance application
US9602797B2 (en) 2011-11-30 2017-03-21 Panasonic Intellectual Property Management Co., Ltd. Stereoscopic image processing apparatus, stereoscopic image processing method, and stereoscopic image processing program
KR101733488B1 (en) * 2010-07-22 2017-05-10 엘지전자 주식회사 Method for displaying 3 dimensional image and 3 dimensional image display device thereof
KR101742993B1 (en) 2010-07-07 2017-06-02 엘지전자 주식회사 A digital broadcast receiver and a method for processing a 3-dimensional effect in the digital broadcast receiver
KR101789683B1 (en) * 2011-06-13 2017-11-20 삼성전자주식회사 Display apparatus and Method for controlling display apparatus and remote controller
KR101812189B1 (en) * 2010-10-12 2017-12-26 삼성전자주식회사 Method for displaying contents list using 3D GUI and 3D display apparatus
KR101873747B1 (en) * 2011-12-27 2018-07-03 엘지전자 주식회사 Mobile terminal and method for controlling thereof

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2670130B1 (en) * 2012-06-01 2019-03-27 Alcatel Lucent Method and apparatus for mixing a first video signal and a second video signal

Cited By (64)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010531102A (en) * 2007-06-19 2010-09-16 トリオビズ Method and apparatus for generating and displaying stereoscopic image with color filter
JP2009147550A (en) * 2007-12-12 2009-07-02 Nintendo Co Ltd Display system
JP2010086228A (en) * 2008-09-30 2010-04-15 Fujifilm Corp Three-dimensional display apparatus, method and program
US8199147B2 (en) 2008-09-30 2012-06-12 Fujifilm Corporation Three-dimensional display apparatus, method, and program
JP4637942B2 (en) * 2008-09-30 2011-02-23 富士フイルム株式会社 Three-dimensional display device, method and program
JP2010103866A (en) * 2008-10-27 2010-05-06 Fujifilm Corp Three-dimensional (3d) display and method of displaying in three dimensions, and program
WO2010050158A1 (en) 2008-10-27 2010-05-06 Fujifilm Corporation Three-dimensional display device and method as well as program
JP4625517B2 (en) * 2008-10-27 2011-02-02 富士フイルム株式会社 Three-dimensional display device, method and program
US8130259B2 (en) 2008-10-27 2012-03-06 Fujifilm Corporation Three-dimensional display device and method as well as program
WO2010092823A1 (en) * 2009-02-13 2010-08-19 パナソニック株式会社 Display control device
US8937648B2 (en) 2009-06-23 2015-01-20 Lg Electronics Inc. Receiving system and method of providing 3D image
CN102474641B (en) * 2009-07-07 2015-05-13 Lg电子株式会社 Method for displaying three-dimensional user interface
US9549165B2 (en) 2009-07-07 2017-01-17 Lg Electronics, Inc. Method for displaying three-dimensional user interface
EP2452506A4 (en) * 2009-07-07 2014-01-22 Lg Electronics Inc Method for displaying three-dimensional user interface
CN102474641A (en) * 2009-07-07 2012-05-23 Lg电子株式会社 Method for displaying three-dimensional user interface
JP2011070450A (en) * 2009-09-25 2011-04-07 Panasonic Corp Three-dimensional image processing device and control method thereof
JP2015173511A (en) * 2009-09-30 2015-10-01 ユナイテッド ビデオ プロパティーズ, インコーポレイテッド Systems and methods for navigating three-dimensional media guidance application
JP2020188479A (en) * 2009-09-30 2020-11-19 ロヴィ ガイズ, インコーポレイテッド System and method for navigating three-dimensional media guidance application
JP2018152915A (en) * 2009-09-30 2018-09-27 ロヴィ ガイズ, インコーポレイテッド System and method for navigating three-dimensional media guidance application
US9922448B2 (en) 2009-09-30 2018-03-20 Rovi Guides, Inc. Systems and methods for generating a three-dimensional media guidance application
EP2306748A2 (en) * 2009-09-30 2011-04-06 Hitachi Consumer Electronics Co. Ltd. Receiver apparatus and reproducing apparatus
US8749614B2 (en) 2009-10-16 2014-06-10 Lg Electronics Inc. Method for indicating a 3D contents and apparatus for processing a signal
JP2013517657A (en) * 2010-01-14 2013-05-16 ヒューマンアイズ テクノロジーズ リミテッド Method and system for adjusting the depth value of an object in a three-dimensional display
KR101598916B1 (en) * 2010-01-27 2016-03-02 엘지전자 주식회사 Method for providing user interface and digital broadcast receiver enabling of the method
KR20110087805A (en) * 2010-01-27 2011-08-03 엘지전자 주식회사 Method for providing user interface and digital broadcast receiver enabling of the method
EP2574067A1 (en) * 2010-05-18 2013-03-27 Sony Corporation Data transmission system
EP2574067A4 (en) * 2010-05-18 2014-07-02 Sony Corp Data transmission system
KR101742993B1 (en) 2010-07-07 2017-06-02 엘지전자 주식회사 A digital broadcast receiver and a method for processing a 3-dimensional effect in the digital broadcast receiver
EP2408213A2 (en) * 2010-07-14 2012-01-18 LG Electronics Mobile terminal and controlling method thereof
JP2013535889A (en) * 2010-07-21 2013-09-12 トムソン ライセンシング Method and apparatus for providing auxiliary content in a three-dimensional communication system
KR101883018B1 (en) * 2010-07-21 2018-07-27 톰슨 라이센싱 Method and device for providing supplementary content in 3d communication system
KR20130100994A (en) * 2010-07-21 2013-09-12 톰슨 라이센싱 Method and device for providing supplementary content in 3d communication system
KR101733488B1 (en) * 2010-07-22 2017-05-10 엘지전자 주식회사 Method for displaying 3 dimensional image and 3 dimensional image display device thereof
JP2013544381A (en) * 2010-08-12 2013-12-12 トムソン ライセンシング 3D menu control
EP2604040A1 (en) * 2010-08-12 2013-06-19 Thomson Licensing Stereoscopic menu control
JP2012060198A (en) * 2010-09-03 2012-03-22 Toshiba Corp Electronic apparatus, image processing method, and image processing program
US8736668B2 (en) 2010-09-03 2014-05-27 Kabushiki Kaisha Toshiba Electronic apparatus and image processing method
KR101812189B1 (en) * 2010-10-12 2017-12-26 삼성전자주식회사 Method for displaying contents list using 3D GUI and 3D display apparatus
JP4972716B2 (en) * 2010-10-14 2012-07-11 パナソニック株式会社 Stereo image display device
WO2012049848A1 (en) * 2010-10-14 2012-04-19 パナソニック株式会社 Stereo image display device
JP2012134726A (en) * 2010-12-21 2012-07-12 Toshiba Corp Image processor and image processing method
JP2012169730A (en) * 2011-02-10 2012-09-06 Nec Personal Computers Ltd Image processing method and image processing device
JP2012169911A (en) * 2011-02-15 2012-09-06 Nintendo Co Ltd Display control program, display controller, display control system, and display control method
WO2012131752A1 (en) * 2011-03-25 2012-10-04 パナソニック株式会社 Depth information updating device, stereoscopic video generation device, and depth information updating method
JP2012231254A (en) * 2011-04-25 2012-11-22 Toshiba Corp Stereoscopic image generating apparatus and stereoscopic image generating method
JP2012256990A (en) * 2011-06-08 2012-12-27 Sharp Corp Stereoscopic image display device
WO2012169336A1 (en) * 2011-06-08 2012-12-13 シャープ株式会社 Stereoscopic video display device
KR101789683B1 (en) * 2011-06-13 2017-11-20 삼성전자주식회사 Display apparatus and Method for controlling display apparatus and remote controller
WO2012172752A1 (en) 2011-06-13 2012-12-20 Sony Corporation Display control apparatus, display control method, and program
US20140125784A1 (en) * 2011-06-13 2014-05-08 Sony Corporation Display control apparatus, display control method, and program
EP2718924A1 (en) * 2011-06-13 2014-04-16 Sony Corporation Display control apparatus, display control method, and program
CN103597538A (en) * 2011-06-13 2014-02-19 索尼公司 Display control device, display control method, and program
EP2718924A4 (en) * 2011-06-13 2014-12-10 Sony Corp Display control apparatus, display control method, and program
WO2013024847A1 (en) * 2011-08-18 2013-02-21 シャープ株式会社 Stereoscopic image generating device, stereoscopic image display device, stereoscopic image generating method, and program
JP2013042414A (en) * 2011-08-18 2013-02-28 Sharp Corp Stereoscopic image generating device, stereoscopic image display device, stereoscopic image generating method, and program
KR20130060505A (en) * 2011-11-30 2013-06-10 엘지전자 주식회사 Mobile terminal
US9602797B2 (en) 2011-11-30 2017-03-21 Panasonic Intellectual Property Management Co., Ltd. Stereoscopic image processing apparatus, stereoscopic image processing method, and stereoscopic image processing program
KR101870325B1 (en) * 2011-11-30 2018-06-22 엘지전자 주식회사 Mobile terminal
KR101873747B1 (en) * 2011-12-27 2018-07-03 엘지전자 주식회사 Mobile terminal and method for controlling thereof
JP2014003465A (en) * 2012-06-19 2014-01-09 Seiko Epson Corp Image display device and control method therefor
US9355503B2 (en) 2012-06-19 2016-05-31 Seiko Epson Corporation Image display apparatus and method for controlling the same
JP5851625B2 (en) * 2013-03-29 2016-02-03 株式会社東芝 Stereoscopic video processing apparatus, stereoscopic video processing method, and stereoscopic video processing program
WO2014155670A1 (en) * 2013-03-29 2014-10-02 株式会社 東芝 Stereoscopic video processing device, stereoscopic video processing method, and stereoscopic video processing program
JP2014140173A (en) * 2014-02-03 2014-07-31 Nikon Corp Image reproducing device

Also Published As

Publication number Publication date
JP4400143B2 (en) 2010-01-20

Similar Documents

Publication Publication Date Title
JP4400143B2 (en) Display device and display method
JP5067407B2 (en) Display device and display method
US8896672B2 (en) Image display device capable of three-dimensionally displaying an item or user interface and a method for operating the same
CN102550031B (en) Image display apparatus and method for operating the same
CA2370382C (en) Data structure and methods for providing an interactive program guide
CN102577398B (en) Image display device and method of operation thereof
CN103503446B (en) Transmitter, transmission method and receiver
CN102223555B (en) Image display apparatus and method for controlling the same
US20130169762A1 (en) Receiving apparatus, receiving method and transmitting apparatus
EP2363802A1 (en) An electronic device and method for providing user interface thereof
CN101938670A (en) Image display device and method of operation thereof
CN102804756B (en) Video image processing apparatus and method for controlling video image processing apparatus
KR20120039703A (en) Method for displaying three-dimensional user interface
CN101662609B (en) Video processing apparatus and video processing method
KR101635567B1 (en) Apparatus for displaying image and method for operating the same
US20130271570A1 (en) Program information display device, television receiver, program information display method, program information display program, and storage medium
EP2582144A2 (en) Image processing method and image display device according to the method
EP2676446B1 (en) Apparatus and method for generating a disparity map in a receiving device
US20120154383A1 (en) Image processing apparatus and image processing method
JP4937404B1 (en) Image processing apparatus and image processing method
US20120154382A1 (en) Image processing apparatus and image processing method
KR101801141B1 (en) Apparatus for displaying image and method for operating the same
KR101679570B1 (en) Image display apparatus and method for operating the same
KR101741432B1 (en) Apparatus for displaying image and method for operating the same
JP5355758B2 (en) Video processing apparatus and video processing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060721

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20060821

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090709

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090714

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090910

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20091006

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20091019

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121106

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131106

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees