JP2005065162A - Display device, transmitting apparatus, transmitting/receiving system, transmitting/receiving method, display method, transmitting method, and remote controller - Google Patents
Display device, transmitting apparatus, transmitting/receiving system, transmitting/receiving method, display method, transmitting method, and remote controller Download PDFInfo
- Publication number
- JP2005065162A JP2005065162A JP2003296050A JP2003296050A JP2005065162A JP 2005065162 A JP2005065162 A JP 2005065162A JP 2003296050 A JP2003296050 A JP 2003296050A JP 2003296050 A JP2003296050 A JP 2003296050A JP 2005065162 A JP2005065162 A JP 2005065162A
- Authority
- JP
- Japan
- Prior art keywords
- display
- data
- displayed
- depth
- depth direction
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Controls And Circuits For Display Device (AREA)
- Stereoscopic And Panoramic Photography (AREA)
- Processing Or Creating Images (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
Abstract
Description
本発明は、映像データ等を送信する送信装置、映像データを立体的に表示可能な表示装置、映像データを送受信することができる送受信システム、送受信方法、表示方法、送信方法、および映像に関する制御をすることができるリモコンに関するものである。 The present invention relates to a transmission device that transmits video data and the like, a display device that can display video data in three dimensions, a transmission / reception system that can transmit and receive video data, a transmission / reception method, a display method, a transmission method, and video control. It relates to a remote control that can do.
従来から、注視位置を変化させることにより、オブジェクト空間にあるオブジェクトの見え方を変化させて表示できることが知られていた。注視位置とは、表示上の視差が無くなる位置である。 Conventionally, it has been known that the appearance of an object in the object space can be changed and displayed by changing the gaze position. The gaze position is a position where the parallax on the display disappears.
そこで、両眼の視差を発生させる2つの異なる画像を生成する際に、注視位置の近傍にあるオブジェクトほど視差が無くなるように、左右両眼で認識される画像が一致するようにする。逆に、注視位置から離れたオブジェクトほど視差が誘発されるように、左右両眼で認識される画像にずれを与える。 Therefore, when generating two different images that generate binocular parallax, the images recognized by both the left and right eyes are made to coincide so that the object closer to the gaze position has no parallax. Conversely, the image recognized by both the left and right eyes is shifted so that parallax is induced as the object is farther from the gaze position.
その結果、注視位置の近傍にあるオブジェクトに対して、注視位置から手前にあるオブジェクトは飛び出して見え、注視位置から奥にあるオブジェクトは奥に引き下がって見える。 As a result, with respect to the object in the vicinity of the gaze position, the object in front of the gaze position appears to jump out, and the object in the back from the gaze position appears to be pulled back.
例えば、図48は表示画面4801に表示されるオブジェクト4802とオブジェクト4803とオブジェクト4804が示されており、また注視位置をそれぞれ注視位置4805、注視位置4806、注視位置4807と設定した場合が示されている。なお、視聴者は矢印方向へ視線を向けているとする。
For example, FIG. 48 shows an object 4802, an
まず、注視位置4805と設定されたとき、オブジェクト4802とオブジェクト4803とオブジェクト4804はともに奥に引き下がって表示される。
First, when the
また、注視位置4806と設定されたときは、視聴者はオブジェクト4802とオブジェクト4804が手前に飛び出して表示される一方、オブジェクト4803は奥に引き下がって表示される。
When the gaze position 4806 is set, the viewer displays the object 4802 and the object 4804 as they jump out, and the
また、注視位置4807と設定されたときは、オブジェクト4802とオブジェクト4803とオブジェクト4804はともに手前に飛び出して表示される。(例えば特許文献1参照)。
ところで、上記方法によるオブジェクトの見え方は、注視位置を基準として、注視位置からオブジェクトの相対的な位置に依存していた。 By the way, the appearance of the object by the above method depends on the relative position of the object from the gaze position with the gaze position as a reference.
従って、例えば、複数のオブジェクトが近接しているような場合、その中から特定のオブジェクトのみを際立たせて表示させ、見やすい映像を得ることは難しかった。 Therefore, for example, when a plurality of objects are close to each other, it is difficult to display only a specific object while making it stand out and obtain an easy-to-view video.
また、例えば、オブジェクトが遠近さまざまな場所に配置されているような場合、激しい遠近差により視聴者の眼に疲労感を与え、やはり見やすい映像を得ることは難しかった
。
In addition, for example, when objects are arranged at various places in the perspective, it is difficult to obtain an easy-to-view video because the viewer's eyes are tired due to the severe perspective difference.
そこで、本発明は上記課題に鑑み、視聴者にとって視認性の高い立体表示を行う表示装置等を提供するものである。 Accordingly, in view of the above problems, the present invention provides a display device that performs stereoscopic display with high visibility for a viewer.
上記の課題を解決するために本発明による表示装置は、オブジェクトを立体的に表示することができるオブジェクトデータを取得する取得手段と、取得手段で取得したオブジェクトデータの奥行き方向に関する情報を変更する制御手段と、制御手段により変更されたオブジェクトデータに基づいてオブジェクトを立体的に表示する表示手段とを備えたものである。これにより、オブジェクトデータのうち奥行き方向に関する情報について変更を行い、そのオブジェクトデータに基づいてオブジェクトを立体的に表示することができる。 In order to solve the above problems, a display device according to the present invention includes an acquisition unit that acquires object data that can display an object in three dimensions, and a control that changes information related to the depth direction of the object data acquired by the acquisition unit. Means, and display means for stereoscopically displaying the object based on the object data changed by the control means. Thereby, the information regarding the depth direction in the object data can be changed, and the object can be stereoscopically displayed based on the object data.
また、表示手段に表示されるオブジェクトの中からオブジェクトを指定するオブジェクト指定手段を備えることにより、オブジェクト指定手段で指定されたオブジェクトまたはオブジェクト指定手段で指定されたオブジェクト以外の所定のオブジェクトで表示手段に表示されるオブジェクトのオブジェクトデータの奥行き方向に関する情報を変更できる。 Further, by providing an object designating unit for designating an object from among the objects displayed on the display unit, the object designated by the object designating unit or a predetermined object other than the object designated by the object designating unit is displayed on the display unit. Information about the depth direction of the object data of the displayed object can be changed.
また、奥行き方向に関する情報に基づいてオブジェクト指定手段で指定されたオブジェクトまたはオブジェクト指定手段で指定されたオブジェクト以外の所定のオブジェクトで表示手段に表示されるオブジェクトの奥行き位置または奥行き幅のうち少なくとも一方に関する情報を変更できる。 Further, it relates to at least one of the depth position or the depth width of the object displayed on the display means by a predetermined object other than the object specified by the object specifying means or the object specified by the object specifying means based on the information about the depth direction. You can change the information.
また、オブジェクト指定手段で指定されたオブジェクトの奥行き位置とオブジェクト指定手段で指定されたオブジェクト以外の所定のオブジェクトで表示手段に表示されるオブジェクトの奥行き位置とを比較し、比較結果に基づいて指定されたオブジェクト以外の所定のオブジェクトで表示手段に表示されるオブジェクトのオブジェクトデータの奥行き方向に関する情報を変更できる。 In addition, the depth position of the object specified by the object specifying means is compared with the depth position of the object displayed on the display means by a predetermined object other than the object specified by the object specifying means, and specified based on the comparison result. Information regarding the depth direction of the object data of the object displayed on the display means with a predetermined object other than the object can be changed.
また、オブジェクト指定手段で指定されたオブジェクトの奥行き位置とオブジェクト指定手段で指定されたオブジェクト以外の所定のオブジェクトで表示手段に表示されるオブジェクトの奥行き位置との差が狭まるように、比較結果に基づいて表示手段に表示されるオブジェクトのオブジェクトデータの奥行き方向に関する情報を変更できる。 Further, based on the comparison result, the difference between the depth position of the object specified by the object specifying means and the depth position of the object displayed on the display means by a predetermined object other than the object specified by the object specifying means is narrowed. Thus, the information regarding the depth direction of the object data of the object displayed on the display means can be changed.
また、オブジェクト指定手段で指定されたオブジェクトの奥行き位置が、オブジェクト指定手段で指定されたオブジェクト以外の所定のオブジェクトで表示手段により表示されるオブジェクトの奥行き位置よりも手前に表示されるように、比較結果に基づいて表示手段に表示されるオブジェクトのオブジェクトデータの奥行き方向に関する情報を変更できる。 Also, the comparison is performed so that the depth position of the object specified by the object specifying means is displayed in front of the depth position of the object displayed by the display means on a predetermined object other than the object specified by the object specifying means. Based on the result, the information about the depth direction of the object data of the object displayed on the display means can be changed.
また、オブジェクト指定手段で指定されたオブジェクトの奥行き幅が広くなるように、またはオブジェクト指定手段で指定されたオブジェクト以外の所定のオブジェクトで表示手段に表示されるオブジェクトの奥行き幅が狭くなるように、オブジェクト指定手段で指定されたオブジェクトのオブジェクトデータの奥行き方向に関する情報について変更できる。 Further, the depth width of the object specified by the object specifying means is widened, or the depth width of the object displayed on the display means by a predetermined object other than the object specified by the object specifying means is narrowed. Information about the depth direction of the object data of the object specified by the object specifying means can be changed.
また、オブジェクト指定手段で指定されたオブジェクトの奥行き位置が、オブジェクト指定手段で指定されたオブジェクト以外の所定のオブジェクトで表示手段により表示されるオブジェクトの奥行き位置よりも手前に表示されるように、表示手段に表示されるオブ
ジェクトのオブジェクトデータの奥行き方向に関する情報を変更できる。
Also, the display is performed so that the depth position of the object specified by the object specifying means is displayed in front of the depth position of the object displayed by the display means for a predetermined object other than the object specified by the object specifying means. Information about the depth direction of the object data of the object displayed on the means can be changed.
また、奥行き方向に対して垂直方向に広がる平面である基準平面とオブジェクト指定手段で指定されたオブジェクト以外の所定のオブジェクトで表示手段に表示されるオブジェクトの奥行き位置との差を狭めるように、オブジェクト指定手段で指定されたオブジェクト以外で表示手段に表示されるオブジェクトのオブジェクトデータのうち奥行き方向に関する情報について変更できる。 Further, the object is set so that the difference between the reference plane which is a plane extending in the vertical direction with respect to the depth direction and the depth position of the object displayed on the display unit with a predetermined object other than the object specified by the object specifying unit is narrowed. Information related to the depth direction can be changed among the object data of the objects displayed on the display means other than the objects specified by the specifying means.
また、表示手段に表示されるオブジェクトは、1以上の第1のオブジェクトと第1のオブジェクトに含まれる第2のオブジェクトとを有し、表示手段に表示されるオブジェクトの中から1以上の第1のオブジェクトを指定するオブジェクト指定手段を備え、制御手段は、オブジェクト指定手段で指定された第1のオブジェクトに含まれる第2のオブジェクトまたはオブジェクト指定手段で指定された第1のオブジェクト以外の第1のオブジェクトに含まれる第2のオブジェクトの奥行き方向に関する情報を変更できる。 The object displayed on the display means includes one or more first objects and a second object included in the first object, and one or more first objects selected from the objects displayed on the display means. The object designating means for designating the first object other than the first object designated by the second object included in the first object designated by the object designating means or the object designating means is provided. Information about the depth direction of the second object included in the object can be changed.
また、制御手段は、表示手段に表示されるオブジェクトの注目度に応じて、オブジェクトのオブジェクトデータの奥行き方向に関する情報を変更できる。 Further, the control unit can change information regarding the depth direction of the object data of the object in accordance with the degree of attention of the object displayed on the display unit.
また、表示手段に表示されるオブジェクトは番組の表を構成するオブジェクトであり、制御手段は番組の視聴率が高いほどオブジェクトの奥行き幅が広くなるようにオブジェクトのオブジェクトデータの奥行き方向に関する情報を変更できる。 In addition, the object displayed on the display means is an object constituting a program table, and the control means changes information on the depth direction of the object data of the object so that the depth width of the object becomes wider as the audience rating of the program is higher. it can.
また、表示手段に表示されるオブジェクトは階層構造で表示されるオブジェクトであり、制御手段は上位階層のオブジェクトに対して下位階層のオブジェクトの奥行き幅が広くなるように、下位階層のオブジェクトのオブジェクトデータの奥行き方向に関する情報を変更できる。 Further, the object displayed on the display means is an object displayed in a hierarchical structure, and the control means sets the object data of the object in the lower hierarchy so that the depth width of the object in the lower hierarchy is wider than the object in the upper hierarchy. You can change the information about the depth direction.
また、取得手段がオブジェクトデータの奥行き方向に関する情報を変更する処理手順を示す操作コードを取得したとき、制御手段は操作コードに基づいてオブジェクトのオブジェクトデータの奥行き方向に関する情報を変更できる。 In addition, when the acquisition unit acquires an operation code indicating a processing procedure for changing information related to the depth direction of the object data, the control unit can change information related to the depth direction of the object data of the object based on the operation code.
また、取得手段がオブジェクトデータの奥行き方向に関する情報を変更する処理手順を示す操作コードを取得したとき、制御手段は、操作コードまたはあらかじめ保持している操作コードのいずれかに基づいてオブジェクトのオブジェクトデータの奥行き方向に関する情報を変更することができる。 In addition, when the acquisition unit acquires an operation code indicating a processing procedure for changing information about the depth direction of the object data, the control unit acquires the object data of the object based on either the operation code or the operation code held in advance. It is possible to change the information regarding the depth direction.
また、操作コードがオブジェクトデータの奥行き方向に関する情報を変更するオブジェクトを指定する値であるとき、制御手段はオブジェクトを指定する値により指定されるオブジェクトまたはオブジェクトを指定する値により指定されるオブジェクト以外の所定のオブジェクトで表示手段に表示されるオブジェクトのオブジェクトデータの奥行き方向に関する情報を変更できる。 In addition, when the operation code is a value that designates an object that changes the information related to the depth direction of the object data, the control means may specify an object that is designated by the value that designates the object, or an object that is designated by the value that designates the object. Information regarding the depth direction of the object data of the object displayed on the display means with the predetermined object can be changed.
また、本発明による送信装置は、オブジェクトを立体的に表示することができるオブジェクトデータの奥行き方向に関する情報を変更する処理手順を示す操作コードとを送信できる。 In addition, the transmission device according to the present invention can transmit an operation code indicating a processing procedure for changing information related to the depth direction of object data capable of displaying an object in three dimensions.
また、本発明による送受信システムは、オブジェクトを立体的に表示することができるオブジェクトデータを送信する送信装置と、オブジェクトを立体的に表示することができるオブジェクトデータを受信する受信手段と、受信手段で受信したオブジェクトデータの奥行き方向に関する情報を変更する制御手段とを有するものである。これにより、オブジ
ェクトを立体的に表示することができるオブジェクトデータを送信し、そのオブジェクトデータを受信装置で受信することによって受信したオブジェクトデータの奥行き方向に関する情報を変更できる。
In addition, a transmission / reception system according to the present invention includes a transmission device that transmits object data that can display an object in three dimensions, a reception unit that receives object data that can display an object in three dimensions, and a reception unit. And control means for changing information related to the depth direction of the received object data. Thereby, the object data which can display an object in three dimensions is transmitted, The information regarding the depth direction of the received object data can be changed by receiving the object data with a receiver.
また、オブジェクトデータの奥行き方向に関する情報を変更する処理手順を示す操作コードを送信装置で送信し、その操作コードに基づいて受信装置においてオブジェクトのオブジェクトデータの奥行き方向に関する情報を変更できる。 In addition, an operation code indicating a processing procedure for changing information regarding the depth direction of the object data is transmitted by the transmission device, and information regarding the depth direction of the object data of the object can be changed at the reception device based on the operation code.
また、本発明によるリモコンは、立体的に表示されているオブジェクトの中から奥行き幅または奥行き位置を変更するオブジェクトを指定できるオブジェクト指定部を備えている。これにより、立体的に表示されているオブジェクトの中から奥行き幅または奥行き位置を変更するオブジェクトを指定できる。 In addition, the remote control according to the present invention includes an object designating unit that can designate an object whose depth width or depth position is to be designated from among three-dimensionally displayed objects. As a result, an object whose depth width or depth position is to be changed can be specified from among the three-dimensionally displayed objects.
また、立体的に表示されるオブジェクトの中で奥行き幅または奥行き位置を変更するオブジェクトの変更後の奥行き幅または奥行き位置を指定できる。 Further, it is possible to specify the depth width or the depth position after the change of the object whose depth width or depth position is changed among the objects displayed stereoscopically.
本発明により視聴者にとって視認性の高い立体表示を行う表示装置等を提供することができる。 According to the present invention, it is possible to provide a display device that performs stereoscopic display with high visibility for a viewer.
以下、本発明の実施の形態を、図面を参照しながら説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings.
(第1の実施の形態)
第1の実施の形態は、立体的に表示されるオブジェクトの奥行き幅を変更して表示する一例を示すものである。特に、指定したオブジェクトの視認性を向上させるために、指定したオブジェクト以外のオブジェクトの奥行き幅を変更して表示するものである。
(First embodiment)
The first embodiment shows an example in which the depth width of an object displayed stereoscopically is changed and displayed. In particular, in order to improve the visibility of a designated object, the depth width of an object other than the designated object is changed and displayed.
まず、第1の実施の形態の受信装置101について、図1を用いて説明する。受信装置101は、受信部102と分離部103、デコーダ104、映像信号処理部105、制御部106、入力部107、記憶部108、3D変換部109、表示部110を備えている。
First, the
例えば、受信装置101とはテレビであり、勿論ケーブルテレビ網に接続して番組を受信したり、電話回線に接続してインターネット接続や通信カラオケを提供するような様々なサービスを受けられるテレビであってもよい。また、受信装置101は必ずしも上記構成を満たさなければならないものではなく、例えば表示部110を有さず、新たに表示を行う別機器に接続する必要があるようなSTB(セット・トップ・ボックス)であってもよい。
For example, the receiving
受信部102は、送信装置から送られてくる信号を受信して復調し、分離部103へ出力する。
The receiving
分離部103は、受信部102から出力された信号に含まれる映像信号及び音声信号と番組に関する情報等の付加情報とを分離する。そして、映像信号及び音声信号はデコーダ104に出力され、付加情報は制御部106に出力される。
The
デコーダ104は、分離部103から出力された映像信号をデコード処理し、3D変換部109へ出力する。また、分離部103から出力された音声信号をデコード処理し、音声信号処理部(図示せず)を介しスピーカ等の音声出力部(図示せず)へ出力する。
The
3D変換部109は、デコーダ104から出力された映像信号に対して所定の処理を施し、映像信号部へ出力する。ただし、3D変換部109が所定の処理を行うのは、映像信号にオブジェクトデータ等の立体映像を表示するための情報が含まれている場合である。
The
記憶部108は、制御部106からの付加情報を記憶する以外に、受信装置101に予め格納されている設定値や、視聴者からの要求で表示部110に表示が行われるオブジェクトデータも記憶している。例えば、後に述べる図16に示すような設定を行うためのメニューオブジェクトや、図31に示すような放送番組一覧オブジェクト、図37に示すような多画面一覧オブジェクトのオブジェクトデータを記憶している。
In addition to storing the additional information from the
入力部107は、表示映像を構成しているオブジェクトから特定のオブジェクトを指定するためのオブジェクトIDを制御部106に出力する。
The
制御部106は、分離部103からの付加情報を記憶部108に出力する以外に、入力部107から出力されたオブジェクトIDを3D変換部109に出力する。また、受信部102に対して所望の映像信号を受信するように制御を行う。
In addition to outputting the additional information from the
映像信号処理部105は、3D変換部109から出力されたオブジェクトデータに基づいて、表示映像を作成する。表示映像とは、例えば、ディスプレイに映される映像のことである。
The video
表示部110は、映像信号処理部105により作成された表示映像を表示する。なお、表示映像を立体的に表示する方法としては、視聴者に赤と青の色フィルタをつけたメガネを着用させて左眼用、右眼用の映像を見せる方法や、上記に挙げたような立体映像を表示するための専用のメガネを用いずにディスプレイに左眼用、右眼用映像を交互に切り替えて表示する方法や、スリットを設ける方法等があるが、いずれの方法であってもよい。
The
ところで、第1の実施の形態の受信装置101で扱うオブジェクトデータは、図2に示すように、オブジェクトの識別を行うためのオブジェクトID201と、オブジェクトを表示するためのオブジェクト表示情報202から構成されているものとする。
By the way, the object data handled by the receiving
オブジェクト表示情報202は、オブジェクト空間内に設定されるx軸、y軸、z軸から成る絶対的な座標系を使用して位置が特定されるドットの集合として表される。
The
具体的に述べると、以下で説明する図6のオブジェクト602は、8つのドット605、606、607、608、609、610、611、612から構成されているので、オブジェクト602のオブジェクト表示情報には8つのドット605、606、607、608、609、610、611、612の位置情報がそれぞれ記されている。
More specifically, the
座標系に関しては、図3に示すように、表示を行うディスプレイ左下を原点301とし、x軸は画面右方向、y軸は画面上方向、z軸は画面手前方向をそれぞれ正の方向として設定する。また、z軸座標値が正の値で表されるドットは、表示画面を眺める視聴者にとって、表示画面よりも手前に飛び出て見えるように表示される。
ところで、本発明の実施の形態を説明するにあたり、奥行き方向とはz軸に対して負の方向であるとし、手前とはz軸に対して正の方向、奥側とはz軸に対して負の方向であるとする。
As for the coordinate system, as shown in FIG. 3, the lower left of the display to be displayed is set as the
By the way, in describing the embodiment of the present invention, the depth direction is a negative direction with respect to the z axis, the near side is the positive direction with respect to the z axis, and the far side is with respect to the z axis. Suppose that the direction is negative.
また、オブジェクトの奥行き位置とは、オブジェクト表示情報のうちのすべてのドットから得られるz軸座標値のうちの最大値とする。 The depth position of the object is the maximum value among the z-axis coordinate values obtained from all the dots in the object display information.
さらに、オブジェクトの奥行き幅とは、オブジェクト表示情報のうちのすべてのドットから得られるz軸座標値のうちの最大値からz軸座標値のうちの最小値を減じた値とする。 Further, the depth width of the object is a value obtained by subtracting the minimum value of the z-axis coordinate values from the maximum value of the z-axis coordinate values obtained from all the dots in the object display information.
また、オブジェクトは複数のオブジェクトの集合により構成することができる。例えば、景色を表すオブジェクトであれば、木を表すオブジェクトや山を表すオブジェクトから構成される。 An object can be constituted by a set of a plurality of objects. For example, an object representing a landscape includes an object representing a tree and an object representing a mountain.
次に、第1の実施の形態の受信装置101が行う処理手順について述べ、そのフローを図4に示す。
Next, a processing procedure performed by the receiving
まず、視聴者はリモコン等の入力部107から特定のオブジェクトを指定するためのオブジェクトIDを入力する(ステップS401)。
First, the viewer inputs an object ID for designating a specific object from the
次に、入力したオブジェクトID以外のオブジェクトIDを有するオブジェクトの奥行き幅を狭めるために倍率値の数値入力を入力部107から行う(ステップS402)。倍率値とは、あるオブジェクトのオブジェクト表示情報から求められる奥行き幅に対する奥行き幅を狭めた後のオブジェクトの奥行き幅の割合のことである。例えば、倍率値を0.5と定めたとき、オブジェクトの奥行き幅は半分に狭められる。 Next, in order to narrow the depth width of an object having an object ID other than the input object ID, a numerical value of a magnification value is input from the input unit 107 (step S402). The magnification value is a ratio of the depth width of the object after the depth width is reduced with respect to the depth width obtained from the object display information of a certain object. For example, when the magnification value is set to 0.5, the depth width of the object is reduced to half.
次に、制御部106は、入力部107により入力された倍率値とオブジェクトIDを3D変換部109に出力する(ステップS403)。
Next, the
3D変換部109は、制御部106から受け取ったオブジェクトIDを有するオブジェクトを除き、映像を構成するオブジェクトの奥行き幅を狭めるように、倍率値に基づいてオブジェクト表示情報を変更する(ステップS404)。
The
映像信号処理部105は、変更されたオブジェクト表示情報に基づいて立体映像を作成する(ステップS405)。
The video
表示部110は、映像信号処理部105で作成された立体映像を表示する(ステップS406)。
The
なお、ステップS402において、一定時間の間に視聴者から倍率値の入力が行われない場合は、予め設定された倍率値に基づいて処理が続行されるようにしてもよい。 In step S402, if no magnification value is input from the viewer for a certain period of time, the processing may be continued based on a preset magnification value.
例えば、視聴者が入力部107から特定のオブジェクトのオブジェクトIDを入力した後、制御部106は視聴者から倍率値に数値入力が行われるまで処理を中断する。そして、中断した時間が予め定めた設定時間を超えた場合、制御部106は、記憶部108に予め設定された倍率値を取得し、3D変換部109に出力してもよい。
For example, after the viewer inputs an object ID of a specific object from the
また、上記したように倍率値に入力を待つことなく、予め設定された倍率値を用いてもよい。その場合、図4に示した処理手順において、ステップS402は行われず、ステップS401のあと、ステップS403が行われることになる。 Further, as described above, a preset magnification value may be used without waiting for input of the magnification value. In that case, in the processing procedure shown in FIG. 4, step S402 is not performed, and step S403 is performed after step S401.
また、ステップS401が行われない場合も考えられる。例えば、後に述べる第6の実施の形態には、送信装置から特定のオブジェクトを選択できる例が示されており、受信装置で必ずしも特定のオブジェクトを指定する必要はない。 A case where step S401 is not performed is also conceivable. For example, in a sixth embodiment described later, an example in which a specific object can be selected from a transmission device is shown, and it is not always necessary to specify a specific object on the reception device.
次に、図4に示した処理手順において、3D変換部109が行う処理を詳細に述べ、そのフローを図5に示す。
Next, the processing performed by the
入力部107により指定されたオブジェクトのオブジェクトIDを制御部106から受け取ったとき、3D変換部109は表示映像を構成するためにデコーダ104から出力されるオブジェクトのオブジェクトIDを読みとる(ステップS501)。
When the object ID of the object specified by the
読みとったすべてのオブジェクトのオブジェクトIDの中に、指定されたオブジェクトIDと一致するものがあるかを確認する(ステップS502)。 It is confirmed whether there is an object ID that matches the specified object ID among the object IDs of all the read objects (step S502).
もし、指定されたオブジェクトIDと一致するものがなければ(ステップS502でN)、3D変換部109が行う処理を終了する(ステップS503)。
If there is no object that matches the specified object ID (N in step S502), the process performed by the
もし、指定されたオブジェクトIDと一致するものがあれば(ステップS502でY)、処理を続行する。そして、指定されたオブジェクトIDと一致しないオブジェクトを選び出し(ステップS504)、そのオブジェクトのオブジェクト表示情報に含まれるすべてのドットのz軸座標値からz軸座標値の最大値、即ちオブジェクトの奥行き位置を求める(ステップS505)。 If there is an object that matches the specified object ID (Y in step S502), the process is continued. Then, an object that does not match the designated object ID is selected (step S504), and the maximum value of the z-axis coordinate value, that is, the depth position of the object is determined from the z-axis coordinate values of all the dots included in the object display information of the object. Obtained (step S505).
そして、ステップS504で選びだしたオブジェクトを構成する各ドットのz軸座標値を変更する。例えば、ステップS505で求めたオブジェクトの奥行き位置をDとし、倍率値をMとして表すと、変更後のドットのz軸座標値を、(D−M×(D−変更前のドットのz軸座標値))に基づいて変更する(ステップS506)。 Then, the z-axis coordinate value of each dot constituting the object selected in step S504 is changed. For example, when the depth position of the object obtained in step S505 is represented as D and the magnification value is represented as M, the changed z-axis coordinate value of the dot is expressed as (D−M × (D−z-axis coordinate of the dot before change). Value)) (step S506).
その後、デコーダ104から出力されたすべてのオブジェクトのオブジェクトIDが確認されたかを調べる(ステップS507)。
Thereafter, it is checked whether or not the object IDs of all the objects output from the
もし、指定されたオブジェクトIDと一致しないオブジェクトで、表示映像に映し出されるすべてのオブジェクトのオブジェクトIDが確認されたならば(ステップS507でY)、3D変換部109が行う処理を終了する(ステップS503)。なお、すべてのオブジェクトとは、後に述べる図6を用いると、選択されたオブジェクト602以外のオブジェクト603とオブジェクト604のことである。 もし、すべてのオブジェクトのオブジェクトIDが確認されていなければ(ステップS507でN)、ステップS504に戻って処理を続ける。
If the object IDs of all objects displayed on the display video with objects that do not match the designated object ID are confirmed (Y in step S507), the processing performed by the
次に、第1の実施の形態を図6に示した表示映像に基づいて説明を行う。 Next, the first embodiment will be described based on the display image shown in FIG.
図6は、表示画面601に映し出される表示映像が示され、表示映像はオブジェクト602、オブジェクト603、オブジェクト604により構成されている。さらに、表示映像を上から眺めたときの、各オブジェクトのx軸座標とz軸座標による位置が示されている。
FIG. 6 shows a display video displayed on the
なお、各オブジェクトの識別を行うため、オブジェクト602のIDを「001」、オブジェクト603のIDを「002」、オブジェクト604のIDを「003」とする。
In order to identify each object, the ID of the
また、各オブジェクトは8つのドットから構成されているとし、オブジェクト602を構成する8つのドットの座標値は、ドット605(1、3、5)、ドット606(1、3、7)、ドット607(4、3、5)、ドット608(4、3、7)、ドット609(1、5、5)、ドット610(1、5、7)、ドット611(4、5、5)、ドット612(4、5、7)とする。また、オブジェクト602の奥行き幅は、オブジェクト602を
構成するすべてのドットのうち、z軸座標値の最大値からz軸座標値の最小値を減じた値となるので、7−5=2である。
Also, it is assumed that each object is composed of eight dots, and the coordinate values of the eight dots constituting the
同様に、オブジェクト603を構成する8つのドットの座標値は、ドット613(7、3、1)、ドット614(7、3、3)、ドット615(10、3、1)、ドット616(10、3、3)、ドット617(7、5、1)、ドット618(7、5、3)、ドット619(10、5、1)、ドット620(10、5、3)とする。このとき、オブジェクト603の奥行き幅は、3−1=2である。
Similarly, coordinate values of eight dots constituting the
オブジェクト604を構成する8つのドットの座標値は、ドット621(12、3、5)、ドット622(12、3、6)、ドット623(15、3、5)、ドット624(15、3、6)、ドット625(12、5、5)、ドット626(12、5、6)、ドット627(15、5、5)、ドット628(15、5、6)とする。このとき、オブジェクト604の奥行き幅は、6−5=1である。
The coordinate values of the eight dots constituting the
まず、視聴者は入力部107から特定のオブジェクトを指定するためのオブジェクトIDをリモコン等から入力する。ここでは、オブジェクト602を指定するために、オブジェクト602のオブジェクトIDである「001」がリモコンから出力されたとする。
First, the viewer inputs an object ID for designating a specific object from the
次に、オブジェクト603とオブジェクト604の奥行き幅を狭めるために倍率値の数値入力をリモコン等から行う。第1の実施の形態では、倍率値を0.5とする。
Next, in order to narrow the depth width of the
なお、特定のオブジェクトの選択や、倍率値の数値入力をリモコン等から行うと書いたが、上記方法以外でもよい。例えば、図7に示すようなリモコン701を用いる方法が考えられる。リモコン701は、電源ボタン702とチャンネル切換ボタン703と十字オブジェクト選択ボタン704と操作ハンドル705を備えている。視聴者は十字オブジェクト選択ボタン704により、映像を構成しているオブジェクトから特定のオブジェクトを選択できる。また、操作ハンドル705を矢印方向706に操作することにより、画面上で確認しながら倍率の数値設定を行うことができる。なお、図8に示すようなリモコン801を用いる方法も考えられる。リモコン801は、電源ボタン802とチャンネル切換ボタン803と十字オブジェクト選択ボタン804と球体805を備えており、オブジェクト選択ボタン804により特定のオブジェクトを選択し、矢印方向806に球体を回転しながら設定を行えるようにしてもよい。
In addition, although it wrote that selection of a specific object and numerical value input of a magnification value were performed from a remote control etc., it may be other than the above method. For example, a method using a
また、図6に示す表示映像に関して、視聴者が操作ハンドル705または球体805を操作したとき、表示映像は図9に示すような映像になる。なお、図9の構成について、図6に示したものと同じ構成であるものに関しては、図6で付した番号を援用する。
Further, regarding the display image shown in FIG. 6, when the viewer operates the operation handle 705 or the
図9には、表示画面601に選択したオブジェクト602、表示映像を構成するオブジェクト603とオブジェクト604、右下に制御状況表示オブジェクト901が表示されている。
In FIG. 9, the selected
制御状況表示オブジェクト901は、倍率値の大小の程度をグラフ表示902にして、簡単に把握できるためのものである。制御状況表示オブジェクト901には、「狭く」903、「元の幅」904、「広く」905と表示されており、「元の幅」904は倍率値が1となる地点である。図9では、グラフ表示が「元の幅」904と「狭く」903の中間あたりとなっており、本来の幅よりも若干狭めて表示されている、と確認できる。
The control
また、表示画面601の中で、選択したオブジェクト602を瞬時に把握できるように矢印906が表示されている。
An
なお、制御状況表示オブジェクト901は、上記したように倍率値の大小の程度を示すのではなく、数値で表示してもよい。また、制御状況表示オブジェクト901が表示されるのは、操作ハンドル705または球体805により倍率値を設定するときのみ表示させてもよいし、選択したオブジェクト以外に表示映像を構成するオブジェクトの奥行き幅を狭めるように制御している間、表示させておいてもよいものとする。
Note that the control
なお、操作ハンドル705または球体805は、第2の実施の形態で述べる差分値の数値を設定できるようにしてもよく、その場合、制御状況表示オブジェクト901は差分値の数値や程度を示すものであってもよい。
Note that the operation handle 705 or the
また、矢印906は、選択したオブジェクト602を瞬時に把握できるような表示を行うものであれば他の手段でもよく、例えば制御状況表示オブジェクト901内に選択したオブジェクト602を縮尺して形状を表して表示するようなものであってもよい。
The
次に、制御部106はオブジェクト602のIDである「001」と、倍率値0.5を3D変換部109に出力する。
Next, the
3D変換部109は、映像を構成するオブジェクト602とオブジェクト603とオブジェクト604のオブジェクトIDをそれぞれ読みとり、その中からオブジェクトID「001」を有するオブジェクトと有さないオブジェクトとを識別する。
The
そして、オブジェクトID「001」を有さないオブジェクト603とオブジェクト604のうち、まずオブジェクト603のオブジェクトデータのオブジェクト表示情報から8つのドットの座標値を読みとる。そして、8つのドットのz軸座標値から最大値を求める。この場合、最大値は3である。
Of the
なお、オブジェクト表示情報のすべてのドットから得られるz軸座標値の最大値はオブジェクトの奥行き位置であるので、オブジェクト603の奥行き位置は3となる。
Since the maximum value of the z-axis coordinate value obtained from all the dots of the object display information is the depth position of the object, the depth position of the
次に、オブジェクト603を構成する8つのドットのz軸座標値を、オブジェクト603の奥行き位置を変更せず、オブジェクト603の奥行き幅を狭めるように変更する。例えば、オブジェクトの奥行き位置をDとし、倍率値をMとして表すと、変更後のドットのz軸座標値を(D−M×(D−変更前のドットのz軸座標値))に基づいて変更する。
Next, the z-axis coordinate values of the eight dots constituting the
変更の一例を示すと、オブジェクト603を構成するドット617のz軸座標値は1であるので、z軸座標値の更新値は上式より、変更後のドットのz軸座標値=3−0.5(3−1)=2となる。この演算は、オブジェクト603を構成するすべてのドットについて行われる。
As an example of the change, since the z-axis coordinate value of the dot 617 constituting the
次に、表示映像を構成するオブジェクトの中で、オブジェクト603以外でオブジェクトID「001」を有さないオブジェクトがあるかを調べる。そして、オブジェクト604についてはまだ処理が行われていないため、オブジェクト604について、オブジェクト604を構成するすべてのドットについて演算を行う。
Next, it is checked whether there is an object that does not have the object ID “001” other than the
表示映像を構成するオブジェクトの中ですべてのオブジェクトについて処理を行ったので、映像信号処理部105は、3D変換部109により更新されたオブジェクトデータに基づいて、オブジェクト602とオブジェクト603とオブジェクト604の立体映像を作成し、立体映像を表示する。
Since all the objects included in the display video are processed, the video
上記処理により、図6に示した表示映像は図10のようになる。なお、図10において、図6と同様の構成には同一番号を付し、説明は図6のものを援用する。 By the above processing, the display image shown in FIG. 6 becomes as shown in FIG. In FIG. 10, the same components as those in FIG. 6 are denoted by the same reference numerals, and the description of FIG.
図10において、表示映像を構成しているオブジェクトのうち、オブジェクト603を構成するドットと、オブジェクト604を構成するドットの位置は変更され、新たにオブジェクト1003、オブジェクト1004として表示されている。
In FIG. 10, among the objects constituting the display video, the positions of the dots constituting the
オブジェクト1003を構成する8つのドットの座標値は、ドット1005(7、3、2)、ドット1006(7、3、3)、ドット1007(10、3、2)、ドット1008(10、3、3)、ドット1009(7、5、2)、ドット1010(7、5、3)、ドット1011(10、5、2)、ドット1012(10、5、3)となっている。
The coordinate values of the eight dots constituting the
オブジェクト1004を構成する8つのドットの座標値は、ドット1013(12、3、5.5)、ドット1014(12、3、6)、ドット1015(15、3、5.5)、ドット1016(15、3、6)、ドット1017(12、5、5.5)、ドット1018(12、5、6)、ドット1019(15、5、5.5)、ドット1020(15、5、6)となっている。
The coordinate values of the eight dots constituting the
従って、変更を行う前のオブジェクト603の奥行き幅が2であったのに対して、倍率値を0.5と設定したことにより、変更を行った後のオブジェクト1003の奥行き幅は3−2=1となって表示される。
Therefore, the depth width of the
同様に、変更を行う前のオブジェクト604の奥行き幅が1であったのに対して、倍率値を0.5と設定したことにより、変更を行った後のオブジェクト1004の奥行き幅は6−5.5=0.5となって表示される。
Similarly, the depth width of the
なお、図6から図10の表示映像に至る過程における3D変換部109の処理手順を図5に示したが、例えば、図6から図10の表示画面に至る処理の途中に、図11に示すように別のオブジェクト1101が表示映像に現れることが考えられる。このとき、3D変換部109は、オブジェクト1101に対しても図5に示した処理を行うことにより、表示映像中の選択したオブジェクト602以外のオブジェクトの奥行き幅を狭める。
The processing procedure of the
また、上記した例では、倍率値を0.5と設定して、選択したオブジェクト以外で表示映像を構成しているオブジェクトの奥行き幅を狭めて表示させたが、例えば倍率値を1以上の値で設定して、選択したオブジェクトの奥行き幅を広めて設定するように処理してもよい。その時、上記したステップS502の後で、ステップS504として、選択されたオブジェクトのオブジェクトIDと一致するオブジェクトを選び出し、ステップS505の処理を行えばよい。要は、選択したオブジェクトを際立たせて表示させるために、選択したオブジェクトの奥行き幅を他のオブジェクトの奥行き幅に比べて相対的に広く表示できればよい。 In the above example, the magnification value is set to 0.5 and the depth of the objects constituting the display video other than the selected object is displayed narrowly. For example, the magnification value is 1 or more. It is also possible to set so that the depth width of the selected object is set wider. At that time, after step S502 described above, as step S504, an object that matches the object ID of the selected object may be selected and the process of step S505 may be performed. In short, in order to make the selected object stand out and displayed, it is only necessary that the depth width of the selected object can be displayed relatively wider than the depth width of other objects.
以上、第1の実施の形態によれば、視聴者に対する立体映像特有の圧迫感を抑制することができ、視聴者が指定したオブジェクトの表示を際立たせることができる。 As described above, according to the first embodiment, it is possible to suppress a feeling of pressure peculiar to stereoscopic video for the viewer, and to make the display of the object specified by the viewer stand out.
(第2の実施の形態)
第2の実施の形態は、立体的に表示されるオブジェクトの奥行き位置を変更して表示することにより、表示画面全体のオブジェクトの奥行き位置の遠近差が解消され、立体映像特有の圧迫感が抑制されるものである。
(Second Embodiment)
In the second embodiment, by changing and displaying the depth position of a stereoscopically displayed object, the perspective difference of the depth position of the object on the entire display screen is eliminated, and a sense of pressure peculiar to stereoscopic video is suppressed. It is what is done.
なお、第2の実施の形態の受信装置101は図1に示したものと同じ構成であり、以下
の説明では図1で付した番号を援用する。
Note that the receiving
また、第2の実施の形態の受信装置101が行う処理手順については、ステップS402以外の処理については図4と同様に行われる。
Further, regarding the processing procedure performed by the receiving
第2の実施の形態の受信装置101では、ステップS402において、差分値を入力する。差分値とは、指定したオブジェクトIDを有するオブジェクト以外で表示映像を構成するオブジェクトの奥行き位置を、指定したオブジェクトIDを有するオブジェクトの奥行き位置に近づけるときに、移動できるz軸座標値のことである。
In the receiving
また、3D変換部109が行うオブジェクト表示情報変更処理について、第1の実施の形態において示した図5のステップS506以外のステップでは同様の処理が行われるので、ステップS506について詳細に説明する。
Further, the object display information change process performed by the
第2の実施の形態において、ステップS506では、指定されたオブジェクトIDを有するオブジェクトの奥行き位置と映像を構成するオブジェクトの奥行き位置との大きさを比較する。 In the second embodiment, in step S506, the size of the depth position of the object having the designated object ID is compared with the depth position of the objects constituting the video.
もし、指定されたオブジェクトの奥行き位置が、ステップS504で選び出されたオブジェクトの奥行き位置よりも大きい値であれば、ステップS504で選び出されたオブジェクトを構成する各ドットのz軸座標値を(各ドットのz軸座標値+差分値)に基づいて変更する。 If the depth position of the designated object is larger than the depth position of the object selected in step S504, the z-axis coordinate value of each dot constituting the object selected in step S504 is ( It is changed based on the z-axis coordinate value + difference value of each dot.
もし、指定されたオブジェクトの奥行き位置が、ステップS504で選び出されたオブジェクトの奥行き位置よりも小さい値であれば、ステップS504で選び出されたオブジェクトを構成する各ドットのz軸座標値を(各ドットのz軸座標値−差分値)に基づいて変更する。 If the depth position of the designated object is smaller than the depth position of the object selected in step S504, the z-axis coordinate value of each dot constituting the object selected in step S504 is ( It is changed based on the z-axis coordinate value-difference value of each dot.
次に、上記した第2の実施の形態の処理を図6に示す表示画面に適用した例を示す。差分値は2とする。 Next, an example in which the process of the second embodiment described above is applied to the display screen shown in FIG. The difference value is 2.
3D変換部109において、オブジェクト603とオブジェクト604を構成するドットを変更する。
In the
例えば、オブジェクト603を構成するドット617を例にして説明する。オブジェクト602の奥行き位置は7であり、ドット617のz軸座標値は1である。従って、指定されたオブジェクトの奥行き位置がオブジェクトの奥行き位置よりも大きい値であり、各ドットのz軸座標値を(各ドットのz軸座標値+差分値)に基づいて変更する。即ち、ドット617のz軸座標値の更新値は、上式より(1+2)=3となる。この演算をオブジェクト603を構成するすべてのドットについて行う。同様に、オブジェクトID「001」を有さないオブジェクト604についても、オブジェクト604を構成するすべてのドットについて演算を行う。
For example, a description will be given taking the dot 617 constituting the
上記処理により、図6に示した表示映像は図12のようになる。なお、図12において、図6と同様の構成には同一番号を付し、説明は図6のものを援用する。 By the above processing, the display image shown in FIG. 6 becomes as shown in FIG. In FIG. 12, the same components as those in FIG. 6 are denoted by the same reference numerals, and the description of FIG.
図12において、表示映像を構成しているオブジェクトのうち、オブジェクト1203を構成するドットと、オブジェクト1204を構成するドットの位置は変更されている。
In FIG. 12, among the objects constituting the display video, the positions of the dots constituting the
オブジェクト1203を構成する8つのドットの座標値は、ドット1205(7、3、
3)、ドット1206(7、3、5)、ドット1207(10、3、3)、ドット1208(10、3、5)、ドット1209(7、5、3)、ドット1210(7、5、5)、ドット1211(10、5、3)、ドット1212(10、5、5)となる。このとき、奥行き位置は5、奥行き幅は2となる。
The coordinate values of the eight dots constituting the
3), dot 1206 (7, 3, 5), dot 1207 (10, 3, 3), dot 1208 (10, 3, 5), dot 1209 (7, 5, 3), dot 1210 (7, 5, 5), dot 1211 (10, 5, 3), and dot 1212 (10, 5, 5). At this time, the depth position is 5 and the depth width is 2.
オブジェクト1204を構成する8つのドットの座標値は、ドット1213(12、3、7)、ドット1214(12、3、8)、ドット1215(15、3、7)、ドット1216(15、3、8)、ドット1217(12、5、7)、ドット1218(12、5、8)、ドット1219(15、5、7)、ドット1220(15、5、8)となる。このとき、奥行き位置は8、奥行き幅は1となる。
The coordinate values of the eight dots constituting the
図12のオブジェクト1203とオブジェクト1204は、オブジェクト603、オブジェクト604と比較して、オブジェクト602に近づいて表示されている。実際、各オブジェクトの奥行き位置の差が緩和されている。そのため、画面全体のオブジェクトの遠近差が解消され、立体映像特有の圧迫感が抑制され、視聴者の眼の負担も緩和され疲労感を抑えることができる。 なお、第2の実施の形態における3D変換部109の処理のステップS506において、オブジェクトの奥行き幅を倍率値分だけ変更させるとともに、奥行き位置も倍率値分だけ変更させるために、各ドットのz軸座標値を(各ドットのz軸座標値×倍率値)に基づいて変更してもよい。この式によれば、オブジェクトの奥行き幅が倍率値分だけ変更されるとともに、奥行き位置も倍率値分だけ変更される。
The
上式によれば、図6に示した表示映像は図13のようになる。なお、図13において、図6と同様の構成には同一番号を付し、説明は図6のものを援用する。 According to the above equation, the display image shown in FIG. 6 is as shown in FIG. In FIG. 13, the same components as those in FIG. 6 are denoted by the same reference numerals, and the description of FIG.
図13には、オブジェクト602と、オブジェクト603を構成するドットに変更処理を行った後のオブジェクト1303と、オブジェクト604を構成するドットに変更処理を行った後のオブジェクト1304が示されている。
FIG. 13 shows an
オブジェクト1303を構成する8つのドットの座標値は、ドット1305(7、3、0.5)、ドット1306(7、3、1.5)、ドット1307(10、3、0.5)、ドット1308(10、3、1.5)、ドット1309(7、5、0.5)、ドット1310(7、5、1.5)、ドット1311(10、5、0.5)、ドット1312(10、5、1.5)と変更される。このとき、奥行き位置は1.5、奥行き幅は1となる。
The coordinate values of the eight dots constituting the
オブジェクト1304を構成する8つのドットの座標値は、ドット1310(12、3、2.5)、ドット1314(12、3、3)、ドット1315(15、3、2.5)、ドット1316(15、3、3)、ドット1317(12、5、2.5)、ドット1318(12、5、3)、ドット1319(15、5、2.5)、ドット1320(15、5、3)と変更される。このとき、奥行き位置は3、奥行き幅は0.5となる。
The coordinate values of the eight dots constituting the
図13のオブジェクト1303とオブジェクト1304は、オブジェクト603、オブジェクト604と比較して、奥行き幅が半分に狭めて表示されている。さらに、オブジェクト1303とオブジェクト1304の奥行き位置は、x座標軸を含む平面、即ち表示を行うディスプレイに近づいている。
The
そして、ディスプレイに近い位置にあるオブジェクトを見る視聴者は鮮明にオブジェクトを見ることができ、全体的に鮮明な映像を確保しながら、オブジェクト602以外のオブジェクト1303とオブジェクト1304の奥行き幅を狭めることができる。
A viewer who sees an object close to the display can clearly see the object, and can reduce the depth width of the
なお、上記のように、各ドットのz軸座標値を(各ドットのz軸座標値×倍率値)に基
づいて変更する場合において、例えば図14に示すように視聴者が選択したオブジェクト1401のz軸座標値が正の値をとる一方で、オブジェクト1402とオブジェクト1403のz軸座標値が負の値をとるような場合でもよい。
As described above, when the z-axis coordinate value of each dot is changed based on (z-axis coordinate value × magnification value of each dot), for example, the
つまり、オブジェクト1402とオブジェクト1403の奥行き幅と奥行き位置を変更して図15のように変更したことにより、オブジェクト1502とオブジェクト1503の奥行き位置はオブジェクト1401の奥行き位置に近づき、各オブジェクト間の遠近差が解消される。そのため、立体映像特有の圧迫感が抑制され、視聴者の眼の負担が緩和されるたけでなく、選択したオブジェクトが見やすく表示されるのである。なお、第2の実施の形態では、倍率値は1以下である場合について述べた。
That is, by changing the depth width and depth position of the
以上、第2の実施の形態によれば、視聴者が指定したオブジェクトの奥行き位置と指定したオブジェクト以外で表示映像を構成するオブジェクトの奥行き位置との差を狭めることにより、画面全体のオブジェクトの奥行き位置の遠近差が解消され、立体映像特有の圧迫感を抑制することができる。 As described above, according to the second embodiment, the depth of the object on the entire screen is reduced by narrowing the difference between the depth position of the object designated by the viewer and the depth position of the object constituting the display video other than the designated object. The difference in position is eliminated, and the pressure feeling peculiar to stereoscopic images can be suppressed.
また、視聴者が指定したオブジェクト以外で表示映像を構成するオブジェクトの奥行き位置を、ある基準となる平面に対して近づけて表示することにより、指定したオブジェクトが際立って表示され、その一方で画面全体のオブジェクトの奥行き位置の遠近差が解消され、立体映像特有の圧迫感を抑制することができる。 In addition, by displaying the depth position of the objects that make up the display video other than the object specified by the viewer close to a certain reference plane, the specified object stands out, while the entire screen is displayed. The perspective difference of the depth position of the object can be eliminated, and the pressure feeling peculiar to the stereoscopic image can be suppressed.
(第3の実施の形態)
第1の実施の形態及び第2の実施の形態では、映像を構成するオブジェクトの中からオブジェクトを選択し、選択したオブジェクトの視認性を向上させるために、選択したオブジェクト以外のオブジェクトの奥行き幅や奥行き位置を変更して表示するものであった。
(Third embodiment)
In the first embodiment and the second embodiment, in order to select an object from the objects constituting the video and improve the visibility of the selected object, the depth width of objects other than the selected object The depth position was changed and displayed.
第3の実施の形態では、第1の実施の形態及び第2の実施の形態を活用して、メニュー表示を行うためのメニューオブジェクトの表示を見やすくする場合について説明する。 In the third embodiment, a case will be described in which the display of a menu object for performing menu display is made easier to view by utilizing the first embodiment and the second embodiment.
ところで、メニューオブジェクトとは、図16に示すように、メニュー項目を表示する1つ以上の項目ボタンオブジェクトから構成されている。第3の実施の形態では、メニューオブジェクト1601は項目Aボタンオブジェクト1602、項目Bボタンオブジェクト1603、項目Cボタンオブジェクト1604、項目Dボタンオブジェクト1605から構成されている。
By the way, the menu object is composed of one or more item button objects for displaying menu items, as shown in FIG. In the third embodiment, the
また、メニューオブジェクト1601のオブジェクトIDを「900」、項目Aボタンオブジェクト1602のオブジェクトIDを「901」、項目Bボタンオブジェクト1603のオブジェクトIDを「902」、項目Cボタンオブジェクト1604のオブジェクトIDを「903」、項目Dボタンオブジェクト1605のオブジェクトIDを「904」として、説明を行う。
The object ID of the
図17は、メニューの表示を行う受信装置1701の構成を示すものであり、受信部102と分離部103、デコーダ104、映像信号処理部105、入力部107、制御部1702、記憶部1703、3D変換部1704、メニュー変換部1705、表示部110を備えている。なお、図17において、図1と同様の構成には同一番号を付し、説明は図1のものを援用する。
FIG. 17 shows a configuration of a receiving device 1701 that displays a menu. The receiving
入力部107は、視聴者からのメニュー表示要求を受け付ける。また、入力部107により、メニューに表示されている項目ボタンを選択できる。
The
制御部1702は、入力部107からメニュー表示要求が出されたとき、記憶部1703からメニューオブジェクト1601とメニューオブジェクト1601を構成する各項目の項目オブジェクトを取得し、メニュー変換部1705に出力する。また、メニューオブジェクト1601のオブジェクトID「900」を3D変換部1704に出力する。
When a menu display request is issued from the
メニュー変換部1705は、制御部1702から出力されるメニューオブジェクト1601と項目ボタンオブジェクト1602、1603、1604、1605のオブジェクトデータを受け取る。そして、メニューオブジェクト1601と項目ボタンオブジェクト1602、1603、1604、1605に対して所定の処理を行い、映像信号処理部105に出力する。
The menu conversion unit 1705 receives the object data of the
次に、図17に示した受信装置1701が扱うオブジェクトデータについて説明する。 Next, object data handled by the receiving device 1701 shown in FIG. 17 will be described.
まず、メニューオブジェクト1601のオブジェクトデータは、図18に示すように、オブジェクトID1801と、構成オブジェクトID格納情報1802と、オブジェクト表示情報1803により構成されている。構成オブジェクトID格納情報1802には、メニューオブジェクト1801を構成する項目ボタンオブジェクトのオブジェクトIDが格納されている。例えば、図16の場合であれば、構成オブジェクトID格納情報1802には、メニューオブジェクト1601を構成する項目Aボタンオブジェクト1602、項目Bボタンオブジェクト1603、項目Cボタンオブジェクト1604、項目Dボタンオブジェクト1605のオブジェクトIDである「901」と「902」と「903」と「904」というオブジェクトIDが格納されている。
First, the object data of the
さらに、項目ボタンオブジェクトのオブジェクトデータは、図19に示すように、オブジェクトID1901と、リンクオブジェクトID格納情報1902と、オブジェクト表示情報1903により構成されている。リンクオブジェクトID格納情報1902には、項目ボタンオブジェクトが選択されたときに、次に表示されるオブジェクトのオブジェクトIDが格納されている。
Further, as shown in FIG. 19, the object data of the item button object includes an
次に、第3の実施の形態の受信装置1701が行う処理手順について述べ、そのフローを図20に示す。 Next, a processing procedure performed by the receiving apparatus 1701 of the third embodiment will be described, and the flow is shown in FIG.
まず、視聴者は入力部107からメニューオブジェクト1601を表示要求する(ステップS2001)。
First, the viewer requests display of the
次に、制御部1702は、選択されたメニューオブジェクト1601のオブジェクトデータを記憶部1703から取得する(ステップS2002)。
Next, the
そして、オブジェクトデータのうち構成オブジェクトID格納情報からメニューオブジェクト1601を構成する項目ボタンオブジェクト1602、1603、1604、1605のオブジェクトデータを記憶部1703から取得し、メニュー変換部1705に出力する(ステップS2003)。
Then, the object data of the item button objects 1602, 1603, 1604, and 1605 constituting the
さらに、制御部1702は、3D変換部1704から、メニューオブジェクト1601が表示要求されたときの表示映像を構成するオブジェクトの奥行き位置のうち最大値となる値を取得し、メニュー変換部1705に出力する。(ステップS2004)。
Further, the
そして、メニューオブジェクト1601の奥行き位置を制御部1702から出力された最大値に基づいて、その最大値よりも大きな値となるようにメニューオブジェクト1601と項目ボタンオブジェクトの奥行き位置を設定し(ステップS2005)、メニューオ
ブジェクト1601を構成するすべての項目ボタンオブジェクト1602、1603、1604、1605のオブジェクトデータを映像信号処理部105に出力する。
Then, the depth positions of the
映像信号処理部105は、3D変換部1704とメニュー変換部1705から受け取ったオブジェクトデータに基づいて立体映像を作成する(ステップS2006)。
The video
表示部110は、映像信号処理部105で作成された立体映像を表示する(ステップS2007)。
The
なお、図20に示した処理手順には、メニューオブジェクト1601以外で表示映像を構成するオブジェクトの奥行き幅や奥行き位置を変更する処理が記載されていないが、その処理は、例えば第1、第2の実施の形態に記載した処理方法により行えばよい。
Note that the processing procedure shown in FIG. 20 does not describe processing for changing the depth width or depth position of the objects constituting the display video other than the
次に、第3の実施の形態を図21に示した表示映像に基づいて説明する。 Next, a third embodiment will be described based on the display image shown in FIG.
図21は、メニュー表示が行われる前の表示画面2101に映し出される表示映像であり、表示映像は人物オブジェクト2102と家オブジェクト2103から構成されている。さらに、表示映像を上から眺めたときの、x軸座標値とz軸座標値による各オブジェクトの位置が示されている。
FIG. 21 shows a display image displayed on the display screen 2101 before the menu is displayed. The display image is composed of a
視聴者はメニュー表示を行うために、入力部107からメニューオブジェクト1601を表示要求する。
In order to display the menu, the viewer requests display of the
次に、制御部1702は、記憶部1703からメニューオブジェクト1601のオブジェクトデータを取得する。
Next, the
そして、メニューオブジェクト1601のオブジェクトデータのうち構成オブジェクトID格納情報1802からメニューオブジェクト1601を構成する項目ボタンオブジェクトのオブジェクトIDを読み取り、記憶部1703から項目Aボタンオブジェクト1602、項目Bボタンオブジェクト1603、項目Cボタンオブジェクト1604、項目Dボタンオブジェクト1605のオブジェクトデータを取得し、メニューオブジェクト1601と取得した項目ボタンオブジェクト1602、1603、1604、1605をメニュー変換部1705に出力する。
Then, the object ID of the item button object constituting the
更に、制御部1702は、3D変換部1704から、表示映像を構成するオブジェクトのうち、最も大きい奥行き位置の値を取得し、メニュー変換部1705に出力する。図21では、人物オブジェクト2102が家オブジェクト2103よりも手前にあるので、制御部1702は人物オブジェクト2102の奥行き位置をメニュー変換部1705に出力する。
Further, the
なお、3D変換部1704は、予め視聴者が定めた倍率値に基づいて表示映像を構成する人物オブジェクト2102と家オブジェクト2103の奥行き幅を狭めて表示するように、それぞれのオブジェクトデータのオブジェクト表示情報を変更する。この処理については、既に第1の実施の形態で述べたので、説明を省略する。
Note that the 3D conversion unit 1704 displays the object display information of each object data so that the depth width of the
メニュー変換部1705は、制御部1702から送られたメニューオブジェクト1601と項目ボタンオブジェクトに対して、映像を構成するすべてのオブジェクトよりも手前に位置するような処理を行ったあと、映像信号処理部105に出力する。つまり、人物オブジェクト2102がメニューオブジェクト1601とそれぞれの項目ボタンオブジェクト1602、1603、1604、1605の奥行き位置よりも奥側となるように奥行き
位置が設定される。
The menu conversion unit 1705 performs processing such that the
映像信号処理部105は、3D変換部1704とメニュー変換部1705から送られてくるオブジェクトデータに基づき、メニューオブジェクト1601と人物オブジェクト2102と家オブジェクト2103の立体映像を作成し、表示する。
The video
上記処理により、図21に示した表示映像は図22のようになる。 By the above processing, the display image shown in FIG. 21 becomes as shown in FIG.
図22によれば、人物オブジェクト2201と家オブジェクト2202は、人物オブジェクト2102と家オブジェクト2103と比較して倍率値分だけ奥行き幅が狭められて表示されている。また、メニューオブジェクト2203の奥行き位置が、映像を構成する他のオブジェクトの奥行き位置よりも手前に位置して表示されるようになる。その結果、メニューオブジェクト2203が他のオブジェクトと比較して際立って表示され、メニューの視認性が向上する。なお、上に示した例において、倍率値は1以下の値であれば任意の値を設定してよい。
According to FIG. 22, the
ところで、メニューが表示されている最中に、メニューの前方にオブジェクトが移動することがある。例えば、図23に示すように、メニューオブジェクト2203の後方に位置するオブジェクト2302は矢印2303に沿って移動し、メニューオブジェクト2203の前方に移動する。その結果、表示されたメニューオブジェクト2203の一部分がオブジェクト2302によって遮られてしまい、メニューオブジェクト2203の内容が正しく認識できなくなる。
By the way, an object may move to the front of the menu while the menu is displayed. For example, as shown in FIG. 23, the
そこで、メニューオブジェクト2203の前方にオブジェクト2302が移動しても、視聴者がメニューオブジェクト2203の表示を確認できるように、3D変換部1704は図24に示す処理を行う。
Therefore, even if the
なお、第3の実施の形態における以下の説明において、メニューオブジェクト2203の奥行き位置は、メニューオブジェクト2203とメニューオブジェクト2203を構成する項目ボタンオブジェクトのうちで最も小さな値をとる奥行き位置のことを指すものとする。
In the following description of the third embodiment, the depth position of the
まず、制御手段を介してメニュー変換部1705からメニューオブジェクト2203の奥行き位置の値を取得する(ステップS2401)。
First, the value of the depth position of the
次に、メニューオブジェクト2203以外で映像を構成するオブジェクトの中から一つオブジェクトを選び出し、そのオブジェクトの奥行き位置を求め(ステップS2402)、メニューオブジェクト2203の奥行き位置とメニューオブジェクト2203以外で表示されているオブジェクト2302の奥行き位置との大小を比較する(ステップS2403)。
Next, an object other than the
もし、メニューオブジェクト2203の奥行き位置より手前となる奥行き位置を有するオブジェクト2302があれば(ステップS2403でY)、オブジェクト2302の奥行き位置をメニューオブジェクト2203の奥行き位置より手前とならないように変更する(ステップS2404)。
If there is an
その後、メニューオブジェクト2203以外で表示されているすべてのオブジェクトのオブジェクトIDが確認されたかどうかを調べる(ステップS2405)。
Thereafter, it is checked whether or not the object IDs of all objects other than the
もし、メニューオブジェクト2203以外で表示されているすべてのオブジェクトのオ
ブジェクトIDが確認されたならば(ステップS2405でY)、3D変換部1704が行う処理を終了する。
If the object IDs of all objects displayed other than the
もし、メニューオブジェクト2203以外で表示されているすべてのオブジェクトのオブジェクトIDが確認されていなければ(ステップS2405でN)、ステップS2402に戻って処理を継続する。
If the object IDs of all objects displayed other than the
図25は、図24に示した処理を施したときの表示画面を示したものである。3D変換部1704は、表示映像を構成するオブジェクトのうち、メニューオブジェクト2203の奥行き位置よりも大きな値である奥行き位置を有するオブジェクト2302に対して、メニューオブジェクト2203の奥行き位置よりも小さな値をとるように奥行き位置を変更する。
FIG. 25 shows a display screen when the processing shown in FIG. 24 is performed. The 3D conversion unit 1704 takes a value smaller than the depth position of the
そのため、メニューオブジェクト2203よりも前方に移動しようとするオブジェクト2302の奥行き位置を変更することにより、メニューオブジェクト2203の表示は遮られないようになる。
Therefore, the display of the
なお、オブジェクト2302の奥行き位置の制御に関しては、図25に示したオブジェクト2302の動きを示した矢印に限らず、一例を示したものである。
Note that the control of the depth position of the
なお、図24に示した処理手順のステップS2404で、メニューオブジェクト2203の奥行き位置よりも大きな値をとる奥行き位置を有するオブジェクト2302があれば、メニューオブジェクト2203の奥行き位置をオブジェクトの奥行き位置よりも大きくなるように変更してもよい。
If there is an
また、図24に示した処理手順のステップS2404で、メニューオブジェクト2203の奥行き位置より大きな奥行き位置を有するオブジェクト2302があれば、そのオブジェクト2302の表示色を映像信号処理部105において半透明に変更するようにしてもよい。半透明に変更することにより、オブジェクト2302がメニューよりも手前に移動しても、視聴者はメニューの表示を見ることができる。
24, if there is an
なお、図26に示すように、メニューオブジェクト2203の手前に新たにオブジェクト2601が現れる場合もある。このような場合にも、図24に示した処理手順に従うことにより、手前に新たに現れるはずのオブジェクト2601をメニューオブジェクト2203の奥側に移動させた上でオブジェクト2602として表示させることができる。
As shown in FIG. 26, an object 2601 may newly appear before the
なお、図24に示した処理は、メニューオブジェクト2203のように複数のオブジェクトから構成されるオブジェクトだけでなく、例えば第1の実施の形態で述べたような1つから成るオブジェクトに対しても適応できるものである。
Note that the processing shown in FIG. 24 is applied not only to an object composed of a plurality of objects such as the
ところで、図22において、視聴者が入力部107からメニューに表示されている項目ボタンを選択しているとき、メニュー変換部1705は選択している項目ボタンオブジェクトの奥行き幅を広くすることにより、更に見やすいメニュー表示を行うことができる。
In FIG. 22, when the viewer selects an item button displayed on the menu from the
以下、メニュー変換部1705の処理手順について、図22とともに図27を用いて説明を行う。 Hereinafter, the processing procedure of the menu conversion unit 1705 will be described with reference to FIG. 27 together with FIG.
まず、入力部107から現在視聴者が選んでいる項目ボタンオブジェクトのオブジェクトIDを受け取る(ステップS2701)。例えば、図22において項目Aボタンオブジェクト1602を選択したとする。
First, the object ID of the item button object currently selected by the viewer is received from the input unit 107 (step S2701). For example, assume that the item
次に、受け取ったオブジェクトIDを有する項目Aボタンオブジェクト1602をメニュー変換部1705から探し出す(ステップS2702)。
Next, the item
次に、探し出した項目Aボタンオブジェクト1602の奥行き幅を広くして、奥行き位置が前面に出るように、オブジェクト表示情報を変更する(ステップS2703)。
Next, the object display information is changed so that the depth width of the found item
なお、変更方法については、例えば第1の実施の形態のように行えばよい。その際、奥行き位置が前面に出るようにして奥行き幅を広めるために、例えば、((1−倍率値)×(オブジェクトを構成するドットのうち最小値のz軸座標値)+(倍率値)×(各ドットのz軸座標値))に基づいて変更することが望ましい。この式によれば、オブジェクトの奥行き幅を変更する際に、オブジェクトの奥行き位置が変更される。 The changing method may be performed as in the first embodiment, for example. At that time, in order to widen the depth width so that the depth position comes to the front, for example, ((1−magnification value) × (minimum z-axis coordinate value of dots constituting the object) + (magnification value) It is desirable to change based on x (z-axis coordinate value of each dot). According to this equation, when the depth width of the object is changed, the depth position of the object is changed.
そして、変更したオブジェクト表示情報を映像信号処理部105に出力する(ステップS2704)。 Then, the changed object display information is output to the video signal processing unit 105 (step S2704).
図28は、図22の後に、視聴者がメニューオブジェクト2203のうち項目Aボタンオブジェクト1602を選んでいる状態を示すものである。図28によれば、視聴者が現在どのボタンを選択しているのかが瞬時に分かり、操作性が向上するものである。また、項目Aボタンオブジェクト1602は、メニューオブジェクト2203よりも前方に出ているため、他の項目ボタンオブジェクトよりも若干大きく表示されて見える。
FIG. 28 shows a state in which the viewer selects the item
なお、図28では選択した項目Aボタンオブジェクト2601を、その奥行き幅を広めることにより他の項目ボタンオブジェクトよりも強調して表示したが、選択した項目Aボタンオブジェクト2601以外の、項目Bボタンオブジェクト1603、項目Cボタンオブジェクト1604、項目Dボタンオブジェクト1605の奥行き幅を狭めて表示してもよい。
In FIG. 28, the selected item A button object 2601 is displayed with emphasis over the other item button objects by widening the depth width, but the item
また、制御部1702は、項目Aボタンオブジェクト2601の奥行き位置を更に前面に移動するように、項目Aボタンオブジェクト2601のオブジェクトデータを変更するようにしてもよい。その結果、項目Aボタンオブジェクト2601は前面に表示され、また他の項目ボタンオブジェクトよりも大きく表示されて見え、視聴者が現在どのボタンを選択しているのかが瞬時に分かり、操作性が向上する。
Further, the
また、制御部1702は、項目Bボタンオブジェクト1603、項目Cボタンオブジェクト1604、項目Dボタンオブジェクト1605の奥行き位置を更に奥側に移動するように、それぞれの項目ボタンオブジェクト1603、1604、1605のオブジェクトデータを変更するようにしてもよい。
The
ところで、視聴者が入力部107により項目Aボタンオブジェクト1602を選択決定したとき、さらに新たな下位階層のメニューが表示される。
By the way, when the viewer selects and determines the item
このように、上位階層に対して下位階層メニューが表示されたとき、上位階層のメニューオブジェクト2203に対して下位階層のメニューオブジェクトの奥行き幅を更に広く設定することにより、更に視聴者にとって見やすいメニュー表示を行うことができる。
In this way, when a lower layer menu is displayed for the upper layer, the depth of the menu object in the lower layer is set wider than the
なお、第3の実施の形態における以下の説明において、メニューオブジェクトのリンクオブジェクトID格納情報に記載のオブジェクトIDを有するメニューオブジェクトのことを下位階層のメニューオブジェクトとし、リンクオブジェクトID格納情報に下位階層のメニューオブジェクトのオブジェクトIDを有するメニューオブジェクトのことを下位
階層のメニューオブジェクトに対して上位階層のメニューオブジェクトとする。
In the following description of the third embodiment, the menu object having the object ID described in the link object ID storage information of the menu object is defined as a lower level menu object, and the lower level hierarchy is included in the link object ID storage information. A menu object having an object ID of a menu object is defined as a higher-level menu object with respect to a lower-level menu object.
そこで、メニュー変換部1705の処理手順について述べ、そのフローを図29に示し、説明する。 Therefore, the processing procedure of the menu conversion unit 1705 will be described, and the flow will be described with reference to FIG.
まず、入力部107から、視聴者が選択した項目ボタンオブジェクトのオブジェクトIDを受け取る(ステップS2901)。 First, the object ID of the item button object selected by the viewer is received from the input unit 107 (step S2901).
次に、項目ボタンオブジェクトのオブジェクトIDを有する項目ボタンオブジェクトを探し出す(ステップS2902)。 Next, an item button object having an object ID of the item button object is searched for (step S2902).
次に、探し出した項目ボタンオブジェクトのリンクオブジェクトID格納情報を読みとる(ステップS2903)。 Next, the link object ID storage information of the found item button object is read (step S2903).
次に、リンクオブジェクトID格納情報に指定されたオブジェクトIDを有するオブジェクトを制御部1702を通じて記憶部1703から取得する(ステップS2904)。 Next, an object having the object ID specified in the link object ID storage information is acquired from the storage unit 1703 through the control unit 1702 (step S2904).
次に、制御部1702から取得したオブジェクトの奥行き幅が広まるようにオブジェクト表示情報を変更する(ステップS2905)。なお、変更方法については、既に第1の実施の形態で述べたのでここでは説明を省略する。
Next, the object display information is changed so that the depth width of the object acquired from the
そして、変更したオブジェクト表示情報を映像信号処理部105に出力する(ステップS2906)。 Then, the changed object display information is output to the video signal processing unit 105 (step S2906).
次に、図29に示した処理手順を、図22に示した表示映像に基づいて説明する。 Next, the processing procedure shown in FIG. 29 will be described based on the display image shown in FIG.
まず、入力部107から、視聴者が項目Aボタンオブジェクト1602を選択決定する。
First, the viewer selects and determines the item
その後、メニュー変換部1705は、項目Aボタンオブジェクト1602のオブジェクトデータを探し出す。
Thereafter, the menu conversion unit 1705 searches for object data of the item
次に、項目Aボタンオブジェクト1602のリンクオブジェクトID格納情報を読みとり、次に表示する下位階層のメニューオブジェクトのオブジェクトIDを取得する。この場合、リンクオブジェクトID格納情報に「910」という情報が格納されているとする。
Next, the link object ID storage information of the item
メニュー変換部1705は、制御部1702を介して、新たな下位階層としてオブジェクトID「910」を有するオブジェクトを表示するためのオブジェクトデータを記憶部1703から取得する。
The menu conversion unit 1705 acquires object data for displaying an object having the object ID “910” as a new lower layer from the storage unit 1703 via the
次に、上位階層に対して下位階層のメニューオブジェクトの奥行き幅を広く表示するために、奥行き幅を変更する。なお、本実施の形態では上位階層に対して一つ下位である階層のメニューオブジェクトの奥行き幅を2倍に変更するものとする。また、上位階層に対する下位階層のメニューオブジェクトの奥行き幅は、視聴者がリモコン等の制御装置から入力を行い設定してもよいし、視聴者等により予め設定してもよいものとする。 Next, the depth width is changed in order to display the depth width of the menu object in the lower hierarchy wider than the upper hierarchy. In the present embodiment, it is assumed that the depth width of the menu object in the hierarchy one level lower than the upper hierarchy is changed to twice. Also, the depth width of the menu object in the lower layer relative to the upper layer may be set by the viewer inputting from a control device such as a remote controller, or may be set in advance by the viewer or the like.
そして、変更された下位階層のメニューオブジェクトのオブジェクトデータは映像信号処理部105に出力され、表示される。
The changed object data of the lower-level menu object is output to the video
図29に示した処理手順の結果、図30に示す表示映像が得られる。 As a result of the processing procedure shown in FIG. 29, the display image shown in FIG. 30 is obtained.
図30には、上位階層であるメニューオブジェクト2203に対して、その下位階層であるメニューオブジェクト3001が表示されたものである。図30によれば、視聴者が最も注視する可能性が高い、つまり視聴者の注目度が高いと考えられる下位階層メニューオブジェクト2801の奥行き幅を上位階層メニューオブジェクト2203よりも広くすることにより、映像を構成する他のオブジェクトと表示が差別化され、操作性が向上する。
In FIG. 30, a
なお、上記では、下位階層のメニューオブジェクト3001を際立たせて表示するために、上位階層に対して下位階層のメニューオブジェクト3001の奥行き幅を広めて表示したが、逆に上位階層のメニューオブジェクト2203の奥行き幅を下位階層のメニューオブジェクト3001の奥行き幅に対して狭めて表示してもよい。このとき、図29に示した処理手順において、ステップS2902において、メニュー項目選択部178から受け取った項目Aボタンオブジェクト1602のオブジェクトIDを有する項目ボタンオブジェクト以外の項目ボタンオブジェクトを探し出し、ステップS2903、ステップS2904の後、ステップS2905において制御部1702から取得したオブジェクトの奥行き幅が狭まるようにオブジェクト表示情報を変更して、ステップS2906を行っても良い。
In the above description, in order to make the lower
要は、下位階層のメニューオブジェクト3001を際立たせて表示するために、上位階層のメニューオブジェクト2203の奥行き幅と比較して、下位階層のメニューオブジェクト3001の奥行き幅が広くなっていればよい。
In short, in order to make the
以上から、第3の実施の形態によれば、メニューオブジェクトのような、指定されたオブジェクトを最前面に表示し、指定されたオブジェクトを構成するオブジェクト以外のオブジェクトの奥行き幅を狭めて表示することにより、指定されたオブジェクトが見やすくなる。さらに、指定されたオブジェクトを他のオブジェクトにより表示が遮られなくすることができる。 As described above, according to the third embodiment, a specified object such as a menu object is displayed in the foreground, and the depth width of objects other than the objects constituting the specified object is displayed narrowly. This makes it easier to see the specified object. Further, the display of the designated object can be prevented from being blocked by other objects.
また、視聴者が注目したいと考える、例えば項目ボタンのようなオブジェクトや下位階層のオブジェクトの奥行き位置が前面に出てくるように、これらのオブジェクトの奥行き幅を広くすることにより、指定されたオブジェクトの視認性を向上することができる。 In addition, the specified objects can be specified by increasing the depth width of objects such as item buttons or lower-level objects that the viewer wants to pay attention to, so that the depth position of these objects comes to the front. Visibility can be improved.
(第4の実施の形態)
第4の実施の形態は、視聴者が関心を持つ可能性が高いと考えられるオブジェクト自体の奥行き幅を調整することにより、見やすい映像を提供するものである。
(Fourth embodiment)
In the fourth embodiment, an easy-to-view video is provided by adjusting the depth width of an object itself that is likely to be of interest to the viewer.
そこで、本発明をチャンネルとそのチャンネルに対応する放送番組が表示される放送番組一覧表示に適用した例を説明する。この放送番組一覧表示は、視聴者は視聴率の高い番組ほど関心があるという観点から、番組名を表示する際に、その番組の視聴率を反映させた表示を行うものである。換言すれば、番組の視聴率を注目度として見なし、視聴者の視聴率、つまり注目度が高い番組名を表示しているオブジェクトの奥行き幅ほど、その幅が広くなるようにオブジェクトのオブジェクトデータを変更するものである。 An example in which the present invention is applied to a broadcast program list display in which a channel and a broadcast program corresponding to the channel are displayed will be described. In this broadcast program list display, when a program name is displayed from the viewpoint that a viewer is interested in a program having a higher audience rating, the audience rating of the program is reflected. In other words, the audience rating of the program is regarded as the degree of attention, and the object data of the object is set so that the viewer's audience rating, that is, the depth width of the object displaying the program name with a high degree of attention, becomes wider. To change.
図31は、放送番組一覧表示を行う放送番組一覧オブジェクト3101であり、放送番組一覧オブジェクト3101はチャンネル表示オブジェクト3102、番組名表示オブジェクト3103、放送時刻表示オブジェクト3104により構成されている。
FIG. 31 shows a broadcast
図32は、放送番組一覧表示を行う受信装置3201であり、受信部102と分離部1
03、デコーダ104、映像信号処理部105、入力部107、制御部3202、番組一覧制御部3203、記憶部108、視聴率記憶部3204、3D変換部3205、表示部110を備えている。なお、図32において、図1と同様の構成には同一番号を付し、説明は図1のものを援用する。
FIG. 32 shows a
03, a
視聴率記憶部3204は、送信装置やインターネット等から送信される各番組の視聴率を格納する。そして、後述する番組名表示オブジェクト3103のチャンネル表示情報に格納されているチャンネルに対応する番組の視聴率を、番組名表示オブジェクト3103の視聴率情報に書き込む。
The audience
制御部3202は、入力部107から放送番組一覧表示要求が出されたとき、記憶部108から放送番組一覧オブジェクト3101とチャンネル表示オブジェクト3102、番組名表示オブジェクト3103、放送時刻表示オブジェクト3104のオブジェクトデータを取得し、番組一覧制御部3203に出力する。
When a broadcast program list display request is issued from the
番組一覧制御部3203は、制御部3202から出力される放送番組一覧オブジェクト3101のオブジェクトデータと番組名表示オブジェクト3103を受け取る。そして、放送番組一覧オブジェクト3101を構成する番組名表示オブジェクト3103に対して所定の処理を行い、映像信号処理部105に出力する。
The program list control unit 3203 receives the object data of the broadcast
図33には、放送番組一覧オブジェクト3101のオブジェクトデータが示されており、オブジェクトID3301と、構成オブジェクトID情報3302と、オブジェクト表示情報3303が格納されている。構成オブジェクトID情報3302には、放送番組一覧オブジェクト3101を構成するオブジェクトのオブジェクトIDが格納されている。
FIG. 33 shows object data of a broadcast
また、図34には、番組名表示オブジェクト3103のオブジェクトデータが示されており、オブジェクトID3401と、チャンネル表示情報3402と、視聴率情報3403と、オブジェクト表示情報3404により構成されている。
Also, FIG. 34 shows object data of a program
チャンネル表示情報3402には、番組が放送されるチャンネルが格納されている。視聴率情報3403には、そのチャンネルで放送される番組の視聴率が格納されている。また、オブジェクト表示情報3404には、番組の番組名を表示するためのデータが格納されている。
なお、チャンネル表示オブジェクト3102、放送時刻表示オブジェクト3104のオブジェクトデータは、図2で示したものと同様の構成であり、オブジェクト表示情報に表示する文字データが格納されている。
The object data of the
次に、第4の実施の形態の受信装置3201が行う処理手順について述べ、そのフローを図35に示す。
Next, a processing procedure performed by the
まず、視聴者は入力部107から放送番組一覧オブジェクト3101の表示要求をする(ステップS3501)。
First, the viewer requests display of the broadcast
次に、制御部3202は記憶部108から放送番組一覧オブジェクト3101のオブジェクトデータを取得する(ステップS3502)。
Next, the
さらに、放送番組一覧オブジェクト3101の構成オブジェクトID情報から、必要なチャンネル表示オブジェクト3102、番組名表示オブジェクト3103、放送時刻表示オブジェクト3104のIDを取得し、記憶部108からそれらを取得する(ステップS
3503)。
Further, the IDs of the necessary
3503).
そして、放送番組一覧オブジェクト3101とチャンネル表示オブジェクト3102、番組名表示オブジェクト3103、放送時刻表示オブジェクト3104のオブジェクトデータを番組一覧制御部3203に出力する(ステップS3504)。
Then, the object data of the broadcast
番組一覧制御部3203は、番組名表示オブジェクト3103の視聴率情報3403から視聴率を取得し、各番組の視聴率に応じて番組名表示オブジェクト3103の奥行き幅を設定する(ステップS3505)。例えば、視聴率が1%であるときのオブジェクトの奥行き幅を予め決めておき、各番組の視聴率に対して(視聴率)×(視聴率が1%であるときの奥行き幅)に基づいてそれぞれの番組名を表すオブジェクトの奥行き幅を決定する。
The program list control unit 3203 acquires the audience rating from the
映像信号処理部105は、番組一覧制御部3203で設定された奥行き幅に基づきメニューの立体映像を作成する(ステップS3506)。作成された立体映像は表示部110を介して表示される(ステップS3507)。
The video
なお、放送番組一覧オブジェクト3101以外の表示映像を構成しているオブジェクトに関しては、第1の実施の形態及び第2の実施の形態に示した処理が行われている。しかし、放送番組一覧が全画面に表示されるのであれば、特にその処理は行われなくてもよい。
Note that the processing shown in the first embodiment and the second embodiment is performed on the objects constituting the display video other than the broadcast
次に、上記処理を行った結果表示される表示映像について図36をもとに説明を行う。 Next, display images displayed as a result of the above processing will be described with reference to FIG.
図36は、左端にチャンネル数を表示するチャンネル表示オブジェクト3102と、各チャンネルに対応した放送時刻表示オブジェクト3104と番組名表示オブジェクトが配置されている。そして、チャンネル100で放送される「Program A」という番組を表示している番組名表示オブジェクト3601の奥行き幅が最も広く、次いで「Program D」を表示している番組名表示オブジェクト3602と「Program E」を表示している番組名表示オブジェクト3603、「Program B」を表示している番組名表示オブジェクト3604と「Program C」を表示している番組名表示オブジェクト3605という順番で奥行き幅が狭くなっている。
In FIG. 36, a
これは、表示されている番組名の視聴率に基づき決定されたもので、視聴率が高い番組であるほど番組名表示オブジェクトの奥行き位置が前面に出でくるように奥行き幅を広くすることによって、視聴者の関心が高いと考えられる高視聴率番組を目立ちやすく表示している。 This is determined based on the audience rating of the displayed program name. By increasing the depth width so that the depth position of the program title display object comes out to the front as the program has a higher audience rating. , High-view rating programs that are considered to be of high interest to viewers are displayed prominently.
なお、視聴率により番組名表示オブジェクトの奥行き幅を決定する場合を説明したが、視聴率に限るものではない。例えば、視聴者が一定期間に見る番組の回数に基づき奥行き幅を決定したり、予めお好みの番組を登録しておき、放送番組一覧表の中にお好みの番組が表示されたとき、その番組を表示しているオブジェクトが、例えば他の番組を表示しているオブジェクトよりも前面に出てくるように奥行き幅を広くなるように設定してもよい。また、視聴者が予めお好みの番組ジャンルを入力しておき、その番組ジャンルの番組を表示しているオブジェクトが前面に出てくるように奥行き幅を広くなるように設定してもよい。 In addition, although the case where the depth width of the program name display object is determined based on the audience rating has been described, it is not limited to the audience rating. For example, when the viewer determines a depth range based on the number of programs that the viewer sees for a certain period of time or registers a favorite program in advance and displays the favorite program in the broadcast program list, For example, the depth width may be set so that the object displaying the program comes to the front of the object displaying another program. Alternatively, the viewer may input a desired program genre in advance, and the depth width may be set so that an object displaying a program of the program genre comes to the front.
また、番組名表示オブジェクトを前面に出てくるように表示するためには、例えば第1の実施の形態で述べたような処理により、番組名表示オブジェクトの奥行き位置を前面に出してもよい。 In order to display the program name display object so as to come to the front, the depth position of the program name display object may be brought to the front by, for example, the processing described in the first embodiment.
なお、視聴率が高い番組であるほど番組名表示オブジェクトの奥行き位置が前面に出でくるように奥行き幅を広くしたが、視聴率が低い番組であるほど番組名表示オブジェクトの奥行き位置が奥側に引っ込むように奥行き幅を狭くしてもよい。 Note that the depth width of the program name display object has been increased so that the depth position of the program name display object comes to the forefront as the program has a higher audience rating. However, the depth position of the program name display object becomes deeper as the program has a lower audience rating. The depth width may be narrowed so as to retract.
以上から、第4の実施の形態によれば、視聴者が関心を持つ可能性が高いと考えられるオブジェクトの奥行き位置ほど、より前面に出るように調整することにより、見やすい映像を提供できる。 As described above, according to the fourth embodiment, it is possible to provide an easy-to-view video by adjusting the depth position of an object considered to be highly likely to be of interest to the viewer so that the depth position of the object comes to the front.
特に、放送番組が表示される放送番組一覧表示に適用することにより、視聴者の関心の高い番組が際立って表示することができる。 In particular, by applying to broadcast program list display in which broadcast programs are displayed, programs that are highly interested by viewers can be displayed prominently.
(第5の実施の形態)
第5の実施の形態は、第1の実施の形態等で述べたオブジェクトに対する処理を、多画面表示に応用したものである。
(Fifth embodiment)
In the fifth embodiment, the processing on the object described in the first embodiment is applied to multi-screen display.
多画面表示とは、1つの表示画面上に複数の表示小画面を表示するものである。視聴者は、複数の表示小画面のうち一つの表示小画面を選択し、その表示小画面を通して映像を観ることができる。また、それぞれの表示小画面には別々の内容の映像が映し出されている。 Multi-screen display is to display a plurality of small display screens on one display screen. The viewer can select one display small screen from the plurality of display small screens and view the video through the display small screen. In addition, each of the small display screens displays images with different contents.
第5の実施の形態では、説明を簡便にするために2つの表示小画面を有する多画面表示を行う場合を例にとる。 In the fifth embodiment, a case where multi-screen display having two display small screens is performed is taken as an example in order to simplify the description.
多画面表示を行うために、多画面一覧オブジェクトを用いる。図37は、多画面一覧オブジェクト3701を表すものであり、多画面一覧オブジェクト3701は表示小画面を映し出すための画面オブジェクト3702、3703から構成されている。さらに、画面オブジェクト3702、3703は、画面オブジェクト3702、3703を備えるオブジェクト3704,3705から構成されている。また、画面オブジェクト3702、3703を構成するオブジェクトト3704,3705の奥行き位置と奥行き幅が分かるように、x軸座標軸とz軸座標軸を示す。
A multi-screen list object is used to perform multi-screen display. FIG. 37 shows a multi-screen list object 3701, and the multi-screen list object 3701 is composed of
図38は、多画面一覧表示機能を有する受信装置3801の構成を示すものである。受信装置3801は、受信部102、分離部103、デコーダ104、記憶部3802、制御部3803、入力部107、多画面生成部3804、映像格納部3805、映像信号処理部105、多画面3D変換部3806、表示部110を備えている。
FIG. 38 shows the configuration of a
制御部3803は、入力部107から多画面一覧表示の表示要求が出されたとき、記憶部3802から多画面一覧オブジェクト3701と多画面一覧オブジェクト3701を構成する画面オブジェクト3702、3703を取得し、多画面3D変換部3806に出力する。更に、視聴者が現在選択している画面オブジェクトのオブジェクトIDも、選択が切り替えられる度に多画面3D変換部3806に出力される。
When a display request for multi-screen list display is issued from the
また、制御部3803はそれぞれの表示小画面に映し出される映像の映像信号を取得するために、一定時間毎に画面オブジェクトに対応した映像信号を受信するように受信部102を制御する。
In addition, the
更に、制御部3803は、受信部102で受信している映像信号から得られるオブジェクトによって構成される画面オブジェクトのオブジェクトIDを多画面生成部3804に出力する。
Further, the
多画面生成部3804は、デコーダ104から出力される映像信号に対して、所定の処理を行った後、その映像信号を映像格納部3805または多画面3D変換部3806に出力する。
The multi-screen generation unit 3804 performs predetermined processing on the video signal output from the
映像格納部3805は、多画面生成部3804から映像格納部3805へ出力された映像信号と、多画面生成部3804から多画面3D変換部3806へ出力される映像信号とが同時に多画面3D変換部3806へ出力されるために設けられたものである。従って、多画面生成部3804から多画面3D変換部3806へ出力される映像信号に合わせて、映像格納部3805に格納された映像信号は多画面3D変換部3806に出力される。
The
多画面3D変換部3806は、現在視聴者によって選択されている画面オブジェクト以外の画面オブジェクトを構成するオブジェクトに対して、奥行き幅が更に狭くなるようにオブジェクトデータに変更を行い、そのオブジェクトデータを映像信号処理部105へ出力する。
The multi-screen 3D conversion unit 3806 changes the object data so that the depth width becomes narrower with respect to the object constituting the screen object other than the screen object currently selected by the viewer, and the object data is converted into the video. Output to the
なお、入力部107から多画面一覧表示の表示要求が出されていないときは、デコーダ104から出力された信号は多画面生成部3804を通り、多画面3D変換部3806へ出力する。多画面3D変換部3806では、第1の実施の形態等で述べた3D変換部と同様の処理を行い、表示映像を構成するオブジェクトのオブジェクトデータに対して処理が行える。
When a display request for multi-screen list display has not been issued from the
次に、図38に示した受信装置3801が扱うオブジェクトデータについて説明する。
Next, object data handled by the receiving
まず、多画面一覧オブジェクト3701のオブジェクトデータは、図39に示すように、オブジェクトID3901と、構成画面オブジェクトID情報3902と、オブジェクト表示情報3903から構成されている。構成画面オブジェクトID情報3902には、多画面一覧オブジェクト3701を構成する画面オブジェクト3702、3703のオブジェクトIDが格納されている。
First, the object data of the multi-screen list object 3701 is composed of an
また、画面オブジェクト3702、3703のオブジェクトデータは、図2で述べた構成と同様のものとする。 The object data of the screen objects 3702 and 3703 is the same as the configuration described in FIG.
また、多画面生成部3804は、デコーダ104から出力される映像信号に含まれるそれぞれのオブジェクトデータについて、図2に示されるようなオブジェクトデータから、図40に示すようなオブジェクトデータに変換する。変換されたオブジェクトデータは、オブジェクトID4001と画面オブジェクトID情報4002、オブジェクト表示情報4003から構成されている。画面オブジェクトID情報4002には、オブジェクトID4001を有するオブジェクトがどの画面オブジェクトに属するものであるかの識別を行えるように、画面オブジェクトのオブジェクトIDが格納されている。
Further, the multi-screen generation unit 3804 converts each object data included in the video signal output from the
次に、第5の実施の形態の受信装置3801が行う処理手順について述べ、そのフローを図41に示し、図37とともに説明する。なお、以下の説明において、画面オブジェクト3702、3703のオブジェクトIDをそれぞれ「1001」、「1002」とする。 まず、視聴者は入力部107から多画面一覧の表示要求を行う(ステップS4101)。
Next, a processing procedure performed by the
次に、制御部3803は、記憶部3802から多画面一覧オブジェクトのオブジェクトデータを取得する(ステップS4102)。
Next, the
次に、制御部3803は多画面一覧オブジェクトの構成オブジェクトID情報から必要な画面オブジェクトを記憶部3802から取得し、多画面3D変換部3806に出力する(ステップS4103)。
Next, the
次に、制御部3803は、入力部107から出力された現在視聴者が選択している画面オブジェクトのオブジェクトIDを受け取り、多画面3D変換部3806へ出力する(ステップS4104)。図37に則すると、視聴者が画面オブジェクト3702を選択しているとすると、制御部3803は画面オブジェクト3702のオブジェクトID「1001」を受け取り、多画面3D変換部3806へ出力する。
Next, the
また、制御部3803は、受信部102に対して受信するチャンネルを指定するとともに、指定したチャンネルを表示している画面オブジェクトのオブジェクトIDを多画面生成部3804に出力する(ステップS4105)。
In addition, the
図37に則すと、制御部3803は、まずチャンネルが2である画面オブジェクト3703を構成するオブジェクトを受信するように受信部102を制御し、画面オブジェクト3703のオブジェクトID「1002」を多画面生成部3804に出力する。
According to FIG. 37, the
次に、多画面生成部3804は、制御部3803から受け取った画面オブジェクト3703のオブジェクトID「1002」を、デコーダ104から出力されている映像信号に含まれるオブジェクトデータに付加して、図40に示すようなオブジェクトデータに変換し、映像格納部3805に出力する(ステップS4106)。なお、映像格納部3805に格納された映像信号は、他の映像信号が多画面生成部3804から多画面3D変換部3806に出力されるまでの間、格納される。
Next, the multi-screen generation unit 3804 adds the object ID “1002” of the
次に、制御部3803は、受信部102に対してステップS4106で指定したチャンネル以外のチャンネルを指定するとともに、多画面生成部3804に対して指定したチャンネルを表示している画面オブジェクトのオブジェクトIDを出力する(ステップS4107)。
Next, the
図37に則すと、制御部3803は、受信部102に対してチャンネルが1である映像信号を受信するように制御し、多画面生成部3804に対してチャンネルが1である映像を表示している画面オブジェクト3702のオブジェクトID「1001」を出力する。
According to FIG. 37, the
次に、多画面生成部3804は、制御部3803から受け取った画面オブジェクト3702のオブジェクトID「1001」を、デコーダ104から出力されている映像信号に含まれるオブジェクデータに付加して、図40に示すようなオブジェクトデータに変換し、多画面3D変換部3806に出力する。この時、ステップS4106で述べた映像格納部3805に格納されていた映像信号も多画面3D変換部3806に同時に出力される(ステップS4108)。
Next, the multi-screen generation unit 3804 adds the object ID “1001” of the
多画面3D変換部3806は、制御部3803から出力された現在視聴者が選択している画面オブジェクト3702のオブジェクトIDと、多画面生成部3804あるいは映像格納部3805から送られる変換されたオブジェクトデータの画面オブジェクトID情報とを比較し(ステップS4109)、一致しない画面オブジェクトID情報を有する変換されたオブジェクトデータに対して、オブジェクト3705の奥行き幅を狭めるように設定し、映像信号処理部105へ出力する(ステップS4110)。
The multi-screen 3D conversion unit 3806 outputs the object ID of the
図37に則すと、ステップS4104で受け取った視聴者が選択している画面オブジェクト3702のオブジェクトID「1001」と、ステップS4108より多画面生成部
3804から送られる変換されたオブジェクトデータの画面オブジェクトID情報である「1001」と、ステップS4106より映像格納部3805から送られる変換されたオブジェクトデータの画面オブジェクトID情報である「1002」とを比較する。
According to FIG. 37, the object ID “1001” of the
そして、多画面3D変換部3806は、ステップS4104で受け取ったオブジェクトID「1001」を有さないID情報を格納しているオブジェクト、即ち、変換されたオブジェクトデータの画面オブジェクトID情報に「1002」が格納されているオブジェクトの奥行き幅を狭めるように設定し、映像信号処理部105へ出力する。
そして、映像信号処理部105で立体映像を作成し(ステップS4111)、表示部110において表示する(ステップS4112)。
Then, the multi-screen 3D conversion unit 3806 receives “1002” in the screen object ID information of the object storing the ID information not having the object ID “1001” received in step S4104, that is, the converted object data. The depth of the stored object is set to be narrowed and output to the video
Then, the video
なお、ステップS4110において、オブジェクト3704の奥行き幅を狭めるために記憶部3802から予め設定された倍率値を用いてもよいし、また、視聴者が数値入力を行ったり、図7や図8で述べたような操作ハンドルを備えたリモコンにより設定してもよい。
In step S4110, a magnification value set in advance from the
次に、上記した処理手順による表示映像について説明を行う。 Next, a display image according to the above processing procedure will be described.
図42は、図37において、視聴者が入力部107から画面オブジェクト3702を選択したときの表示結果示すものであり、画面オブジェクト3702は画面オブジェクト4202に、画面オブジェクト3703は画面オブジェクト4203に対応している。また、画面オブジェクト4202はオブジェクト4204から構成されており、画面オブジェクト4203はオブジェクト4205から構成されている。
FIG. 42 shows a display result when the viewer selects the
図42では、画面オブジェクト4203を構成しているオブジェクト4205の奥行き幅は狭めて表示されている。
In FIG. 42, the object 4205 constituting the
その結果、画面オブジェクト4202を構成するオブジェクト4204は画面オブジェクト4203を構成するオブジェクト4205と比較して際立って表示され、視聴者は選択した画面オブジェクト4202をすぐに認識することができる。
As a result, the
なお、第5の実施の形態では、説明を簡便にするために2つの表示小画面を有する多画面表示を例に挙げたが、2つ以上の表示小画面を有した多画面表示でもよい。 In the fifth embodiment, a multi-screen display having two display small screens is taken as an example to simplify the description, but a multi-screen display having two or more display small screens may be used.
以上から、第5の実施の形態によれば、複数の画面オブジェクトから構成される多画面一覧オブジェクトにおいて、選択した画面オブジェクト以外の画面オブジェクトを構成するオブジェクトの奥行き幅を狭めることにより、選択した画面オブジェクトからの表示映像が際立って表され、視聴者は選択した表示小画面が見やすくなる。 As described above, according to the fifth embodiment, in the multi-screen list object composed of a plurality of screen objects, the selected screen is reduced by reducing the depth width of the objects constituting the screen object other than the selected screen object. The display video from the object is prominently displayed so that the viewer can easily see the selected display small screen.
(第6の実施の形態)
第6の実施の形態は、オブジェクトデータを送信する送信装置と、第1の実施の形態等で述べたようにそのオブジェクトデータを受信し、そのオブジェクトデータの奥行き方向に関する情報に関して変更を行える受信装置とから構成される放送システムであり、例えばBSデジタル放送を実現する衛星放送システム等である
さらに、送信装置側において、番組制作者等が特定のオブジェクトを指定し、受信装置ではその特定されたオブジェクト以外で受信装置の表示映像に映っているオブジェクトの奥行き方向に関する情報について変更できるようなデータを送信する送信装置と、そのデータに基づいてオブジェクトの処理を行うことができる受信装置とを備えた放送システムである。
(Sixth embodiment)
In the sixth embodiment, a transmitting apparatus that transmits object data and a receiving apparatus that can receive the object data and change the information regarding the depth direction of the object data as described in the first embodiment. For example, a satellite broadcasting system that implements BS digital broadcasting, etc. Further, on the transmitting device side, a program producer or the like designates a specific object, and the receiving device specifies the identified object. A broadcast apparatus comprising: a transmitting apparatus that transmits data that can be changed with respect to information about the depth direction of an object that is displayed in a display image of the receiving apparatus; and a receiving apparatus that can process an object based on the data System.
図43は、第6の実施の形態である放送システムの構成を示すものである。放送システム4301は、送信装置4302と受信装置4303を備える。
FIG. 43 shows a configuration of a broadcasting system according to the sixth embodiment. The
送信装置4302は、音声信号送出部4304と映像信号送出部4305、多重化部4306、変調部4307、送信部4308を備えている。
The transmission device 4302 includes an audio
また、受信装置4303は、受信部102と分離部103、デコーダ104、映像信号処理部105、制御部106、入力部107、記憶部108、3D変換部109、表示部110を備えている。
The
まず、送信装置4302について説明を行う。音声信号出力部4304と映像信号出力部4305からは映像表示を行うための音声信号とオブジェクトデータを含む映像信号が出力される。なお、映像信号は必ずしもオブジェクトデータを含むものでなくてもよく、平面的な映像の表示を行うためのデータも扱うことができる。
First, the transmission device 4302 will be described. The audio
そして、多重化部4306は、音声信号出力部4304と映像信号出力部4305から出力される信号を多重化する。多重化された信号は、変調部4307で変調され、送信される。
The multiplexing unit 4306 multiplexes signals output from the audio
一方、受信装置4303は、送信装置4302から送信されてくる信号を受信して以下その処理を行うが、その処理については、第1の実施の形態等で述べた処理手順をと同様であるので、ここでは説明を省略する。なお、図43に示した受信装置4303は、第1の実施の形態と第2の実施の形態で挙げた受信装置を示したが、第3の実施の形態で述べた図17の受信装置や、第4の実施の形態で述べた図30の受信装置、第5の実施の形態で述べた図36の受信装置でもよい。
On the other hand, the
次に、送信装置側において、番組制作者等が特定のオブジェクトを指定し、受信装置ではその特定されたオブジェクト以外で受信装置の表示映像に映っているオブジェクトの奥行き方向に関する情報について変更できるようなデータを送信する送信装置と、そのデータに基づいてオブジェクトの処理を行うことができる受信装置とを備えた放送システムについて述べる。 Next, on the transmitting device side, a program producer or the like designates a specific object, and the receiving device can change information on the depth direction of the object shown in the display video of the receiving device other than the specified object. A broadcasting system including a transmitting device that transmits data and a receiving device that can process an object based on the data will be described.
図44は、第6の実施の形態である放送システムの構成を示すものである。放送データ通信システム4401は、送信装置4402と受信装置4403を備える。
FIG. 44 shows the configuration of a broadcast system according to the sixth embodiment. The broadcast data communication system 4401 includes a
送信装置4402は、音声信号送出部4304と映像信号送出部4305、映像付加情報送出部4406、操作部4407、多重化部4306、変調部4307、送信部4308を備えている。
The
また、受信装置4403は、受信部102と分離部103、デコーダ104、映像信号処理部105、制御部106、入力部107、記憶部108、3D変換部4412、表示部110を備えている。
The
まず、送信装置4402について説明を行う。番組制作者は操作部4407を通して、例えば図45に示すような編集画面4501を用いて映像中のオブジェクトを選択し、そのオブジェクトに対して第1の実施の形態等で述べた処理を受信装置において行うように指定することができる。
First, the
編集画面4501には視聴者が視聴する表示映像が映し出される表示画面4502と、
詳細なオブジェクトデータが表示されるデータ表示画面4503がある。番組制作者が、表示映像から表示画面4502に映し出されているオブジェクト4504を選択したとき、データ表示画面4503にはオブジェクト4504の奥行き位置や奥行き幅等が表示され、自由に変更することができる。また、倍率値と差分値に関しても、表示画面4502を確認しながら設定を行うことができる。
The
There is a
操作部4407で決定した操作内容を示すデータは映像付加情報送出部4406に出力され、映像付加情報送出部4406では、操作内容を示すデータに基づき図46に示すオブジェクトデータを作成する。
Data indicating the operation content determined by the
図46に示すオブジェクトデータは、オブジェクトID4601、操作コード4602、設定値4603、オブジェクト表示情報4604から構成される。
The object data shown in FIG. 46 includes an
操作コード4602は、オブジェクトID4601により指定されたオブジェクト以外のオブジェクトに対してどのような処理を行うかを指定するための数値が格納されている。操作コード4602が1であるとき、設定値4603は第1の実施の形態で述べた倍率値を示すものとする。また、操作コード4602が2であるとき、設定値4603は第2の実施の形態で述べた差分値を示すものとする。また、操作コード4602が0であるときは、第1の実施の形態等で述べた処理を行わないものとする。
The
送信装置4402は、音声信号送出部4304から出力された音声信号と映像信号送出部4305から出力された映像信号以外に、もし映像付加情報送出部4406からオブジェクトデータが出力されたとき、映像信号と映像信号とオブジェクトデータを多重化部4306で多重化する。多重化部4306で多重化された信号は変調部4307で変調され、送信部4308で送信される。
In addition to the audio signal output from the audio
受信装置は図46に示すようなオブジェクトデータを含む送信信号を受信したとき、図47に示す処理手順により処理を行う。 When the receiving apparatus receives a transmission signal including object data as shown in FIG. 46, the receiving apparatus performs processing according to the processing procedure shown in FIG.
3D変換部4412は、デコーダ104から出力されたオブジェクトデータのうち操作コード4602を読み取り、操作コードが0であるかを調べる(ステップS4701)。
The
操作コード4602が0であるときは(ステップS4701でY)、第1の実施の形態、第2の実施の形態で述べた処理は行われず、オブジェクトデータを映像信号処理部105に出力する(ステップS4702)。
When the
そして、映像信号処理部105は、3D変換部4412から受け取ったオブジェクトデータに基づいて立体映像を作成する(ステップS4703)。
Then, the video
表示部110は、映像信号処理部105で作成された立体映像を表示する(ステップS4704)。
The
ステップS4701において、読み取った操作コード4602の値が0でなければ(ステップS4701でN)、操作コード4602が1であるかを調べる(ステップS4705)。
In step S4701, if the value of the read
操作コード4602が1であったとき(ステップS4705でY)、そのオブジェクトデータのうちオブジェクトIDと設定値4603から数値を読み込む(ステップS4706)。
When the
そして、ステップS4706で読み込んだオブジェクトデータ以外で、操作コードや設定値を含んでいないオブジェクトデータを有するオブジェクトの奥行き幅を設定値4603の数値分だけ変更し、映像信号処理部105に出力する(ステップS4707)。
Then, other than the object data read in step S4706, the depth width of the object having object data that does not include the operation code or the setting value is changed by the numerical value of the
映像信号処理部105は、3D変換部4412から受け取ったオブジェクトデータに基づいて立体映像を作成する(ステップS4703)。
The video
表示部110は、映像信号処理部105で作成された立体映像を表示する(ステップS4704)。
The
ステップS4705において、読み取った操作コード4602の値が1でなければ(ステップS4705でN)、操作コード4602が2であるかを調べる(ステップS4708)。
In step S4705, if the value of the read
操作コード4602が2であったとき(ステップS4708でY)、そのオブジェクトデータのうちオブジェクトIDと設定値4603を読み込む(ステップS4709)。
When the
そして、ステップS4709で読み込んだオブジェクトデータ以外で、操作コードや設定値を含んでいないオブジェクトデータを有するオブジェクトの奥行き位置を設定値4603の値の分だけ変更し、映像信号処理部105に出力する(ステップS4710)。
Then, other than the object data read in step S4709, the depth position of the object having the object data that does not include the operation code or the setting value is changed by the value of the
映像信号処理部105は、3D変換部4412から受け取ったオブジェクトデータに基づいて立体映像を作成する(ステップS4703)。
The video
表示部110は、映像信号処理部105で作成された立体映像を表示する(ステップS4704)。
The
なお、第6の実施の形態は、操作コード4602と設定値4603を含むオブジェクトデータを受信したときに、必ずしも図47に示す処理手順が行われるものではない。例えば、受信装置側での設定によっては、たとえ操作コード4602と設定値4603を含むオブジェクトデータを受信したとしても、強制的に操作コード4602を0と書き換え、図47に示す処理を行わないようにしてもよい。また、操作コード4602を含まないで送信信号を受信したときは、操作コード4602が0であるものとして扱ってもよい。
In the sixth embodiment, when the object data including the
また、上記処理では、ステップS4706やステップS4709で読み込んだオブジェクトデータ以外で、操作コードや設定値を含んでいないオブジェクトデータを有するオブジェクトの奥行き幅を設定値の数値分だけ変更したが、ステップS4706やステップS4709で読み込んだオブジェクトIDを有するオブジェクトのオブジェクトデータのみを変更するようにしてもよい。 In the above processing, the depth width of an object having object data that does not include an operation code or setting value other than the object data read in step S4706 or step S4709 is changed by the numerical value of the setting value, but step S4706 or Only the object data of the object having the object ID read in step S4709 may be changed.
その場合、ステップS4706やステップS4709において、オブジェクト表示情報4604に示されるオブジェクトを読み込み、ステップS4707やステップS4710において、読み込んだオブジェクトの奥行き幅や奥行き位置を設定値4603分だけ変更し、映像信号処理部105に出力するようにすればよい。
In that case, in step S4706 or step S4709, the object indicated by the
また、送信するオブジェクトデータは、上記の構成に限らず、特定のオブジェクトを指定するオブジェクトID4601のみを含むもの、操作コード4602のみを含むもの、設定値4603のみを含むものであってもよい。そのとき、指定されるオブジェクト、処理方法や設定値は、例えば受信装置で予め設定した値を用いる。
Further, the object data to be transmitted is not limited to the above configuration, and may include only an
また、オブジェクトID4601、操作コード4602、設定値4603のみを含むオブジェクトデータにより、受信装置にすでに蓄積されているオブジェクトをオブジェクトID4601により指定することもできる。
Further, an object already stored in the receiving apparatus can be specified by the
なお、オブジェクトの奥行き位置と奥行き幅とを変更するように新たな操作コード4602を設け、受信装置に対して指定できるようにしてもよい。
Note that a
なお、送信信号のオブジェクトデータに設定値が含まれていない場合や、あるいは受信装置が読み取れない場合は、受信装置で予め設定された倍率値や差分値に基づいて処理できるようにする。 When the set value is not included in the object data of the transmission signal, or when the receiving device cannot read, the processing can be performed based on the magnification value or the difference value set in advance by the receiving device.
また、送信信号のオブジェクトデータに操作コードや設定値が含まれている場合であっても、受信装置側でその設定値を使用するかどうかは任意であり、視聴者が受信装置に対して使用しないように設定することができる。また、送信信号のオブジェクトデータに含まれている操作コードや設定値を取得したとしても、予め設定された倍率値や差分値を用いて処理してもよい。 Even if the operation data and setting value are included in the object data of the transmission signal, whether or not to use the setting value on the receiving device side is arbitrary, and the viewer uses it for the receiving device. It can be set not to. Further, even if an operation code or a setting value included in the object data of the transmission signal is acquired, processing may be performed using a preset magnification value or difference value.
また、第1の実施に形態から第5の実施の形態では、入力部107によりオブジェクトを指定したが、第6の実施に形態ではオブジェクトID4601によりオブジェクトを指定する。しかし、制御部106は入力部107により指定されたオブジェクトでもオブジェクトID4601により指定されたオブジェクトでも同様に処理するため、オブジェクトを指定する方法の相違を除いては、第1に実施に形態から第5の実施の形態で述べた受信装置のオブジェクトの処理方法がそのまま適用できる。
In the first to fifth embodiments, an object is specified by the
以上から、第6の実施の形態によれば、送信装置と、送信装置から送信されるオブジェクトデータに対して、そのオブジェクトデータの奥行き方向に関する情報に変更を行える受信装置とを備える放送システムにより、立体的に表示される映像の視認性は向上し、視聴者の眼にかかる負担が軽減される。 As described above, according to the sixth embodiment, a broadcasting system including a transmission device and a reception device that can change object data transmitted from the transmission device into information related to the depth direction of the object data. The visibility of the stereoscopically displayed video is improved, and the burden on the viewer's eyes is reduced.
また、送信装置側で番組制作者等が指定したオブジェクトを指定できる送信装置と、その指定したオブジェクト、あるいは指定したオブジェクト以外で表示映像を構成しているオブジェクトの奥行き方向に関する情報について変更できる受信装置とから構成される放送システムにより、番組制作者は視聴者に対して趣向を凝らした映像効果を提供できる。特に、番組制作者がテレビニュース速報などの重要な情報を表示したいときに活用でき、文字情報を表示できるため、視聴者が表示を見逃さないようにすることができる。 In addition, a transmission apparatus that can specify an object specified by a program producer or the like on the transmission apparatus side, and a reception apparatus that can change the information regarding the depth direction of the specified object or an object constituting a display video other than the specified object. With the broadcasting system composed of the above, the program producer can provide elaborate video effects to the viewer. In particular, it can be used when a program producer wants to display important information such as a TV news bulletin, and can display character information, thereby preventing the viewer from overlooking the display.
なお、第1の実施の形態から第6の実施の形態に示した受信装置において、必ずしも送信装置から映像データが送られてくるような形態に限らない。例えば、DVD等の蓄積メディアに記録されている映像データを表示する場合でも、本発明を実施できる。 Note that the receiving apparatuses shown in the first to sixth embodiments are not necessarily limited to the form in which video data is sent from the transmitting apparatus. For example, the present invention can be implemented even when displaying video data recorded on a storage medium such as a DVD.
なお、第1の実施の形態から第6の実施の形態に示した受信装置において、送信されてくる信号にオブジェクトデータが含まれていない場合や、平面的な映像の表示を行うためのデータしか含まれていない場合もある。その場合、まず受信装置において、受信した映像が立体的に表示されるものか、平面的に表示されるものかの判断は制御部で行われる。 Note that, in the receiving apparatuses shown in the first to sixth embodiments, when object data is not included in the transmitted signal or only data for displaying a flat image is displayed. It may not be included. In that case, the control unit first determines whether the received image is displayed three-dimensionally or planarly in the receiving device.
視聴者が入力部から特定のオブジェクトを選択しようとするとき、入力部は制御部を通じて3D変換部からオブジェクトに関する情報を入手できるようにする。このときに、制御部はデコーダから取得したデータから、例えばz軸座標値が取得できるかどうかや立体映像信号の中に立体映像データであることを表すフラグの有無により、表示映像が立体表示か平面表示の判別を行い、もし受信しているデータが平面的に表示される映像データで
あるならば、視聴者にオブジェクトを選択できない旨を表示することができる。
When the viewer tries to select a specific object from the input unit, the input unit can obtain information on the object from the 3D conversion unit through the control unit. At this time, from the data acquired from the decoder, the control unit determines whether the display image is a three-dimensional display depending on whether a z-axis coordinate value can be acquired, for example, and whether or not a three-dimensional video signal has a flag indicating that it is stereoscopic video data. The flat display is determined, and if the received data is video data displayed in a flat manner, it can be displayed to the viewer that the object cannot be selected.
しかし、受信しているデータが平面的に表示される映像データであっても、メニュー表示や多画面一覧表示、放送番組一覧表示に関しては、記憶部に記憶されているオブジェクトデータを参照して表示されるので、常時選択入力部から表示要求を行える。 However, even if the received data is video data displayed in a plane, the menu display, multi-screen list display, and broadcast program list display are displayed with reference to the object data stored in the storage unit. Therefore, a display request can always be made from the selection input unit.
そして、その時のメニュー表示に関しては立体表示を行ってもよいし、平面的に表示させてもよい。 Then, regarding the menu display at that time, a three-dimensional display may be performed or a two-dimensional display may be performed.
また、受信しているデータが平面的に表示される映像データであっても、3D変換部において映像データに処理を行うことにより映像を立体化して見せるようにしてもよい。そのときは、例えば第1から第5の実施の形態で述べたように、映像の立体化の度合いを抑制しながらメニューの表示を行えばよい。 Moreover, even if the received data is video data displayed in a plane, the video may be displayed in a three-dimensional manner by processing the video data in the 3D conversion unit. In that case, as described in the first to fifth embodiments, for example, the menu may be displayed while suppressing the degree of stereoscopicization of the video.
また、第1から第5の実施の形態では、オブジェクトデータを含む送信データを想定したが、送信装置から左眼と右眼用で相違する平面映像を送信データとすることにより、受信装置で立体映像を再現する方法も考えられる。 In the first to fifth embodiments, transmission data including object data is assumed. However, a plane image that is different for the left eye and the right eye from the transmission device is set as transmission data, so that a three-dimensional image can be obtained by the reception device. A method of reproducing the image is also conceivable.
この場合、受信装置側の3D変換部では、メニュー以外の映像に関して、左眼と右眼用の平面映像の相違の度合いを緩和するように処理すれば、メニュー以外の映像は奥行きが狭まって表示されることが知られている。従って、送信データはオブジェクトデータを含むものでも、左眼と右眼用で相違する平面映像を含むものでも、本発明に影響を及ぼさない。 In this case, if the 3D conversion unit on the receiving device side processes the video other than the menu so as to reduce the degree of difference between the left-eye and right-eye flat images, the video other than the menu is displayed with a reduced depth. It is known that Therefore, the transmission data does not affect the present invention even if it includes object data or includes plane images that are different for the left and right eyes.
更に、本発明はかかる上記実施形態に限定されるものではなく、本発明の範囲を逸脱することなく種々の変形又は修正が可能である。 Furthermore, the present invention is not limited to the above-described embodiment, and various changes and modifications can be made without departing from the scope of the present invention.
本発明は、映像データ等を送信する送信装置、映像データを立体的に表示可能な表示装置、映像データを送受信することができる送受信システム、送受信方法、表示方法、送信方法、および映像に関する制御をすることができるリモコンに関するものである。 The present invention relates to a transmission device that transmits video data and the like, a display device that can display video data in three dimensions, a transmission / reception system that can transmit and receive video data, a transmission / reception method, a display method, a transmission method, and video control. It relates to a remote control that can do.
102 受信部
103 分離部
104 デコーダ
105 映像信号処理部
106 制御部
107 入力部
108 記憶部
109 3D変換部
110 表示部
1702 制御部
1703 記憶部
1704 3D変換部
1705 メニュー変換部
3202 制御部
3203 番組一覧制御部
3204 視聴率記憶部
3205 3D変換部
3802 記憶部
3803 制御部
3804 多画面生成部
3805 映像格納部
3806 多画面3D変換部
4406 映像付加情報送出部
4407 操作部
4412 3D変換部
DESCRIPTION OF
Claims (28)
前記取得手段で取得したオブジェクトデータの奥行き方向に関する情報を変更する制御手段と、
前記制御手段により変更されたオブジェクトデータに基づいてオブジェクトを立体的に表示する表示手段と
を備えていることを特徴とする表示装置。 Obtaining means for obtaining object data capable of displaying an object in three dimensions;
Control means for changing information about the depth direction of the object data acquired by the acquisition means;
A display device comprising: display means for three-dimensionally displaying an object based on the object data changed by the control means.
前記制御手段は、前記オブジェクト指定手段で指定されたオブジェクトまたは前記オブジェクト指定手段で指定されたオブジェクト以外の所定のオブジェクトで前記表示手段に表示されるオブジェクトのオブジェクトデータの奥行き方向に関する情報を変更する
ことを特徴とする請求項1に記載の表示装置。 An object designating unit for designating an object from among the objects displayed on the display unit;
The control means changes information related to the depth direction of the object data of the object displayed on the display means by a predetermined object other than the object specified by the object specifying means or the object specified by the object specifying means. The display device according to claim 1.
ことを特徴とする請求項2に記載の表示装置。 The control means includes a depth position of an object displayed on the display means with a predetermined object other than the object designated by the object designation means or the object designated by the object designation means based on the information about the depth direction, or The display device according to claim 2, wherein information on at least one of the depth widths is changed.
ことを特徴とする請求項2に記載の表示装置。 The control means compares the depth position of the object specified by the object specifying means with the depth position of the object displayed on the display means by a predetermined object other than the object specified by the object specifying means, and compares The display device according to claim 2, wherein information related to a depth direction of object data of an object displayed on the display unit with a predetermined object other than the designated object is changed based on a result.
ことを特徴とする請求項4に記載の表示装置。 The control means narrows the difference between the depth position of the object specified by the object specifying means and the depth position of the object displayed on the display means by a predetermined object other than the object specified by the object specifying means. The display device according to claim 4, wherein information related to a depth direction of object data of an object displayed on the display unit is changed based on the comparison result.
ことを特徴とする請求項4に記載の表示装置。 The control means displays the depth position of the object specified by the object specifying means in front of the depth position of the object displayed by the display means on a predetermined object other than the object specified by the object specifying means. The display device according to claim 4, wherein information on the depth direction of the object data of the object displayed on the display unit is changed based on the comparison result.
ことを特徴とする請求項2に記載の表示装置。 The control means is configured to increase the depth width of the object specified by the object specifying means, or to display the depth width of the object displayed on the display means with a predetermined object other than the object specified by the object specifying means. The display device according to claim 2, wherein the information on the depth direction of the object data of the object specified by the object specifying means is changed so that the width of the display is narrow.
ことを特徴とする請求項2に記載の表示装置。 The control means displays the depth position of the object specified by the object specifying means in front of the depth position of the object displayed by the display means on a predetermined object other than the object specified by the object specifying means. The display device according to claim 2, wherein information regarding a depth direction of object data of an object displayed on the display unit is changed.
平面と前記オブジェクト指定手段で指定されたオブジェクト以外の所定のオブジェクトで前記表示手段に表示されるオブジェクトの奥行き位置との差を狭めるように、前記オブジェクト指定手段で指定されたオブジェクト以外で前記表示手段に表示されるオブジェクトのオブジェクトデータのうち奥行き方向に関する情報について変更を行う
ことを特徴とする請求項2に記載の表示装置。 The control means calculates a difference between a reference plane that is a plane extending in a direction perpendicular to the depth direction and a depth position of an object displayed on the display means by a predetermined object other than the object specified by the object specifying means. The display device according to claim 2, wherein information relating to a depth direction is changed among object data of objects displayed on the display unit other than the object specified by the object specifying unit so as to be narrowed.
ことを特徴とする請求項9に記載の表示装置。 The display device according to claim 9, wherein the reference plane is set at a position that intersects a display screen that displays an image.
ことを特徴とする請求項2に記載の表示装置。 The object displayed on the display means is an object constituting at least broadcast content, and the object designated by the object designation means is an object constituting a menu screen. Display device.
前記制御手段は、前記オブジェクト指定手段で指定された第1のオブジェクトに含まれる第2のオブジェクトまたは前記オブジェクト指定手段で指定された第1のオブジェクト以外の第1のオブジェクトに含まれる第2のオブジェクトの奥行き方向に関する情報を変更する
ことを特徴とする請求項1に記載の表示装置。 The object displayed on the display means includes one or more first objects and a second object included in the first object, and one or more first objects among the objects displayed on the display means. An object designating means for designating one object;
The control means includes a second object included in a first object specified by the object specifying means or a second object included in a first object other than the first object specified by the object specifying means. The display device according to claim 1, wherein information regarding the depth direction of the display is changed.
ことを特徴とする請求項1に記載の表示装置。 The display device according to claim 1, wherein the control unit changes information related to a depth direction of object data of the object according to a degree of attention of the object displayed on the display unit.
ことを特徴とする請求項1に記載の表示装置。 The object displayed on the display means is an object constituting a table of the program, and the control means relates to the depth direction of the object data of the object so that the depth width of the object becomes wider as the audience rating of the program is higher. The display device according to claim 1, wherein the information is changed.
ことを特徴とする請求項1記載の表示装置。 The object displayed on the display means is an object displayed in a hierarchical structure, and the control means is an object of the object in the lower hierarchy so that the depth of the object in the lower hierarchy is wider than the object in the upper hierarchy. The information on the depth direction of data is changed. The display device according to claim 1.
前記制御手段は、前記操作コードに基づいて前記オブジェクトのオブジェクトデータの奥行き方向に関する情報を変更する
ことを特徴とする請求項1に記載の表示装置。 When the acquisition unit acquires an operation code indicating a processing procedure for changing information related to the depth direction of the object data,
The display device according to claim 1, wherein the control unit changes information related to a depth direction of object data of the object based on the operation code.
前記制御手段は、前記操作コードまたはあらかじめ保持している操作コードのいずれかに基づいて前記オブジェクトのオブジェクトデータの奥行き方向に関する情報を変更することができる
ことを特徴とする請求項1に記載の表示装置。 When the acquisition unit acquires an operation code indicating a processing procedure for changing information related to the depth direction of the object data,
The display according to claim 1, wherein the control unit can change information related to a depth direction of object data of the object based on either the operation code or an operation code held in advance. apparatus.
ことを特徴とする請求項16または請求項17に記載の表示装置。 The display device according to claim 16 or 17, wherein the operation code is a magnification value with respect to the object data before the change, which defines information regarding the depth direction of the object data after the change.
前記制御手段は、前記オブジェクトを指定する値により指定されるオブジェクトまたは
前記オブジェクトを指定する値により指定されるオブジェクト以外の所定のオブジェクトで前記表示手段に表示されるオブジェクトのオブジェクトデータの奥行き方向に関する情報を変更する
ことを特徴とする請求項16または請求項17に記載の表示装置。 When the operation code is a value that specifies an object for changing information related to the depth direction of the object data,
The control means is information related to the depth direction of the object data of the object displayed on the display means by a predetermined object other than the object specified by the value specifying the object or the object specified by the value specifying the object. The display device according to claim 16 or 17, wherein the display device is changed.
ことを特徴とする請求項1から請求項19のうちいずれか1項に記載の表示装置。 The information related to the depth direction of the object data is information expressed based on an absolute value on a spatial coordinate axis, or information obtained by converting two-dimensional data into three-dimensional data. The display device according to claim 19.
ことを特徴とする請求項3から請求項6,請求項8,請求項9のうちいずれか1項に記載の表示装置。 The display according to any one of claims 3 to 6, claim 8, and claim 9, wherein the depth position of the object is a position displayed in front of each object. apparatus.
ことを特徴とする送信装置。 A transmission apparatus that transmits an operation code indicating a processing procedure for changing information related to a depth direction of object data capable of displaying an object in three dimensions.
オブジェクトを立体的に表示することができるオブジェクトデータを受信する受信手段と、前記受信手段で受信したオブジェクトデータの奥行き方向に関する情報を変更する制御手段とを有する受信装置と
を備えることを特徴とする送受信システム。 A transmission device for transmitting object data capable of displaying an object in three dimensions;
A receiving device comprising: receiving means for receiving object data capable of displaying an object in three dimensions; and control means for changing information relating to the depth direction of the object data received by the receiving means. Transmission / reception system.
前記受信装置は、前記操作コードに基づいて前記オブジェクトのオブジェクトデータの奥行き方向に関する情報を変更する
ことを特徴とする請求項23に記載の送受信システム。 The transmission device further transmits an operation code indicating a processing procedure for changing information on the depth direction of the object data,
The transmission / reception system according to claim 23, wherein the reception device changes information related to a depth direction of object data of the object based on the operation code.
取得したオブジェクトデータの奥行き方向に関する情報を変更するステップと、
変更されたオブジェクトデータに基づいてオブジェクトを立体的に表示するステップと、
を含むことを特徴とする表示方法。 Obtaining object data capable of displaying an object in three dimensions;
Changing the information about the depth direction of the acquired object data;
Displaying the object three-dimensionally based on the changed object data;
A display method comprising:
ことを特徴とする送信方法。 A transmission method comprising: transmitting object data capable of displaying an object in three dimensions and an operation code indicating a processing procedure for changing information related to a depth direction of the object data.
オブジェクトを立体的に表示することができるオブジェクトデータを受信するステップと、
受信したオブジェクトデータの奥行き方向に関する情報を変更するステップと
を有することを特徴とする送受信方法。 Sending object data capable of displaying the object in three dimensions;
Receiving object data capable of displaying an object in three dimensions;
And a step of changing information on the depth direction of the received object data.
前記操作コードに基づいて前記オブジェクトのオブジェクトデータの奥行き方向に関する情報を変更する
ことを特徴とする請求項27に記載の送受信方法。
Furthermore, an operation code indicating a processing procedure for changing information on the depth direction of the object data is transmitted,
The transmission / reception method according to claim 27, wherein information related to a depth direction of object data of the object is changed based on the operation code.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003296050A JP4400143B2 (en) | 2003-08-20 | 2003-08-20 | Display device and display method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003296050A JP4400143B2 (en) | 2003-08-20 | 2003-08-20 | Display device and display method |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009208889A Division JP5067407B2 (en) | 2009-09-10 | 2009-09-10 | Display device and display method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2005065162A true JP2005065162A (en) | 2005-03-10 |
JP4400143B2 JP4400143B2 (en) | 2010-01-20 |
Family
ID=34372084
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003296050A Expired - Fee Related JP4400143B2 (en) | 2003-08-20 | 2003-08-20 | Display device and display method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4400143B2 (en) |
Cited By (37)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009147550A (en) * | 2007-12-12 | 2009-07-02 | Nintendo Co Ltd | Display system |
JP2010086228A (en) * | 2008-09-30 | 2010-04-15 | Fujifilm Corp | Three-dimensional display apparatus, method and program |
JP2010103866A (en) * | 2008-10-27 | 2010-05-06 | Fujifilm Corp | Three-dimensional (3d) display and method of displaying in three dimensions, and program |
WO2010092823A1 (en) * | 2009-02-13 | 2010-08-19 | パナソニック株式会社 | Display control device |
JP2010531102A (en) * | 2007-06-19 | 2010-09-16 | トリオビズ | Method and apparatus for generating and displaying stereoscopic image with color filter |
EP2306748A2 (en) * | 2009-09-30 | 2011-04-06 | Hitachi Consumer Electronics Co. Ltd. | Receiver apparatus and reproducing apparatus |
JP2011070450A (en) * | 2009-09-25 | 2011-04-07 | Panasonic Corp | Three-dimensional image processing device and control method thereof |
KR20110087805A (en) * | 2010-01-27 | 2011-08-03 | 엘지전자 주식회사 | Method for providing user interface and digital broadcast receiver enabling of the method |
EP2408213A2 (en) * | 2010-07-14 | 2012-01-18 | LG Electronics | Mobile terminal and controlling method thereof |
JP2012060198A (en) * | 2010-09-03 | 2012-03-22 | Toshiba Corp | Electronic apparatus, image processing method, and image processing program |
WO2012049848A1 (en) * | 2010-10-14 | 2012-04-19 | パナソニック株式会社 | Stereo image display device |
CN102474641A (en) * | 2009-07-07 | 2012-05-23 | Lg电子株式会社 | Method for displaying three-dimensional user interface |
JP2012134726A (en) * | 2010-12-21 | 2012-07-12 | Toshiba Corp | Image processor and image processing method |
JP2012169911A (en) * | 2011-02-15 | 2012-09-06 | Nintendo Co Ltd | Display control program, display controller, display control system, and display control method |
JP2012169730A (en) * | 2011-02-10 | 2012-09-06 | Nec Personal Computers Ltd | Image processing method and image processing device |
WO2012131752A1 (en) * | 2011-03-25 | 2012-10-04 | パナソニック株式会社 | Depth information updating device, stereoscopic video generation device, and depth information updating method |
JP2012231254A (en) * | 2011-04-25 | 2012-11-22 | Toshiba Corp | Stereoscopic image generating apparatus and stereoscopic image generating method |
WO2012169336A1 (en) * | 2011-06-08 | 2012-12-13 | シャープ株式会社 | Stereoscopic video display device |
WO2012172752A1 (en) | 2011-06-13 | 2012-12-20 | Sony Corporation | Display control apparatus, display control method, and program |
WO2013024847A1 (en) * | 2011-08-18 | 2013-02-21 | シャープ株式会社 | Stereoscopic image generating device, stereoscopic image display device, stereoscopic image generating method, and program |
EP2574067A1 (en) * | 2010-05-18 | 2013-03-27 | Sony Corporation | Data transmission system |
JP2013517657A (en) * | 2010-01-14 | 2013-05-16 | ヒューマンアイズ テクノロジーズ リミテッド | Method and system for adjusting the depth value of an object in a three-dimensional display |
KR20130060505A (en) * | 2011-11-30 | 2013-06-10 | 엘지전자 주식회사 | Mobile terminal |
EP2604040A1 (en) * | 2010-08-12 | 2013-06-19 | Thomson Licensing | Stereoscopic menu control |
KR20130100994A (en) * | 2010-07-21 | 2013-09-12 | 톰슨 라이센싱 | Method and device for providing supplementary content in 3d communication system |
JP2014003465A (en) * | 2012-06-19 | 2014-01-09 | Seiko Epson Corp | Image display device and control method therefor |
US8749614B2 (en) | 2009-10-16 | 2014-06-10 | Lg Electronics Inc. | Method for indicating a 3D contents and apparatus for processing a signal |
JP2014140173A (en) * | 2014-02-03 | 2014-07-31 | Nikon Corp | Image reproducing device |
WO2014155670A1 (en) * | 2013-03-29 | 2014-10-02 | 株式会社 東芝 | Stereoscopic video processing device, stereoscopic video processing method, and stereoscopic video processing program |
US8937648B2 (en) | 2009-06-23 | 2015-01-20 | Lg Electronics Inc. | Receiving system and method of providing 3D image |
JP2015173511A (en) * | 2009-09-30 | 2015-10-01 | ユナイテッド ビデオ プロパティーズ, インコーポレイテッド | Systems and methods for navigating three-dimensional media guidance application |
US9602797B2 (en) | 2011-11-30 | 2017-03-21 | Panasonic Intellectual Property Management Co., Ltd. | Stereoscopic image processing apparatus, stereoscopic image processing method, and stereoscopic image processing program |
KR101733488B1 (en) * | 2010-07-22 | 2017-05-10 | 엘지전자 주식회사 | Method for displaying 3 dimensional image and 3 dimensional image display device thereof |
KR101742993B1 (en) | 2010-07-07 | 2017-06-02 | 엘지전자 주식회사 | A digital broadcast receiver and a method for processing a 3-dimensional effect in the digital broadcast receiver |
KR101789683B1 (en) * | 2011-06-13 | 2017-11-20 | 삼성전자주식회사 | Display apparatus and Method for controlling display apparatus and remote controller |
KR101812189B1 (en) * | 2010-10-12 | 2017-12-26 | 삼성전자주식회사 | Method for displaying contents list using 3D GUI and 3D display apparatus |
KR101873747B1 (en) * | 2011-12-27 | 2018-07-03 | 엘지전자 주식회사 | Mobile terminal and method for controlling thereof |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2670130B1 (en) * | 2012-06-01 | 2019-03-27 | Alcatel Lucent | Method and apparatus for mixing a first video signal and a second video signal |
-
2003
- 2003-08-20 JP JP2003296050A patent/JP4400143B2/en not_active Expired - Fee Related
Cited By (64)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010531102A (en) * | 2007-06-19 | 2010-09-16 | トリオビズ | Method and apparatus for generating and displaying stereoscopic image with color filter |
JP2009147550A (en) * | 2007-12-12 | 2009-07-02 | Nintendo Co Ltd | Display system |
JP2010086228A (en) * | 2008-09-30 | 2010-04-15 | Fujifilm Corp | Three-dimensional display apparatus, method and program |
US8199147B2 (en) | 2008-09-30 | 2012-06-12 | Fujifilm Corporation | Three-dimensional display apparatus, method, and program |
JP4637942B2 (en) * | 2008-09-30 | 2011-02-23 | 富士フイルム株式会社 | Three-dimensional display device, method and program |
JP2010103866A (en) * | 2008-10-27 | 2010-05-06 | Fujifilm Corp | Three-dimensional (3d) display and method of displaying in three dimensions, and program |
WO2010050158A1 (en) | 2008-10-27 | 2010-05-06 | Fujifilm Corporation | Three-dimensional display device and method as well as program |
JP4625517B2 (en) * | 2008-10-27 | 2011-02-02 | 富士フイルム株式会社 | Three-dimensional display device, method and program |
US8130259B2 (en) | 2008-10-27 | 2012-03-06 | Fujifilm Corporation | Three-dimensional display device and method as well as program |
WO2010092823A1 (en) * | 2009-02-13 | 2010-08-19 | パナソニック株式会社 | Display control device |
US8937648B2 (en) | 2009-06-23 | 2015-01-20 | Lg Electronics Inc. | Receiving system and method of providing 3D image |
CN102474641B (en) * | 2009-07-07 | 2015-05-13 | Lg电子株式会社 | Method for displaying three-dimensional user interface |
US9549165B2 (en) | 2009-07-07 | 2017-01-17 | Lg Electronics, Inc. | Method for displaying three-dimensional user interface |
EP2452506A4 (en) * | 2009-07-07 | 2014-01-22 | Lg Electronics Inc | Method for displaying three-dimensional user interface |
CN102474641A (en) * | 2009-07-07 | 2012-05-23 | Lg电子株式会社 | Method for displaying three-dimensional user interface |
JP2011070450A (en) * | 2009-09-25 | 2011-04-07 | Panasonic Corp | Three-dimensional image processing device and control method thereof |
JP2015173511A (en) * | 2009-09-30 | 2015-10-01 | ユナイテッド ビデオ プロパティーズ, インコーポレイテッド | Systems and methods for navigating three-dimensional media guidance application |
JP2020188479A (en) * | 2009-09-30 | 2020-11-19 | ロヴィ ガイズ, インコーポレイテッド | System and method for navigating three-dimensional media guidance application |
JP2018152915A (en) * | 2009-09-30 | 2018-09-27 | ロヴィ ガイズ, インコーポレイテッド | System and method for navigating three-dimensional media guidance application |
US9922448B2 (en) | 2009-09-30 | 2018-03-20 | Rovi Guides, Inc. | Systems and methods for generating a three-dimensional media guidance application |
EP2306748A2 (en) * | 2009-09-30 | 2011-04-06 | Hitachi Consumer Electronics Co. Ltd. | Receiver apparatus and reproducing apparatus |
US8749614B2 (en) | 2009-10-16 | 2014-06-10 | Lg Electronics Inc. | Method for indicating a 3D contents and apparatus for processing a signal |
JP2013517657A (en) * | 2010-01-14 | 2013-05-16 | ヒューマンアイズ テクノロジーズ リミテッド | Method and system for adjusting the depth value of an object in a three-dimensional display |
KR101598916B1 (en) * | 2010-01-27 | 2016-03-02 | 엘지전자 주식회사 | Method for providing user interface and digital broadcast receiver enabling of the method |
KR20110087805A (en) * | 2010-01-27 | 2011-08-03 | 엘지전자 주식회사 | Method for providing user interface and digital broadcast receiver enabling of the method |
EP2574067A1 (en) * | 2010-05-18 | 2013-03-27 | Sony Corporation | Data transmission system |
EP2574067A4 (en) * | 2010-05-18 | 2014-07-02 | Sony Corp | Data transmission system |
KR101742993B1 (en) | 2010-07-07 | 2017-06-02 | 엘지전자 주식회사 | A digital broadcast receiver and a method for processing a 3-dimensional effect in the digital broadcast receiver |
EP2408213A2 (en) * | 2010-07-14 | 2012-01-18 | LG Electronics | Mobile terminal and controlling method thereof |
JP2013535889A (en) * | 2010-07-21 | 2013-09-12 | トムソン ライセンシング | Method and apparatus for providing auxiliary content in a three-dimensional communication system |
KR101883018B1 (en) * | 2010-07-21 | 2018-07-27 | 톰슨 라이센싱 | Method and device for providing supplementary content in 3d communication system |
KR20130100994A (en) * | 2010-07-21 | 2013-09-12 | 톰슨 라이센싱 | Method and device for providing supplementary content in 3d communication system |
KR101733488B1 (en) * | 2010-07-22 | 2017-05-10 | 엘지전자 주식회사 | Method for displaying 3 dimensional image and 3 dimensional image display device thereof |
JP2013544381A (en) * | 2010-08-12 | 2013-12-12 | トムソン ライセンシング | 3D menu control |
EP2604040A1 (en) * | 2010-08-12 | 2013-06-19 | Thomson Licensing | Stereoscopic menu control |
JP2012060198A (en) * | 2010-09-03 | 2012-03-22 | Toshiba Corp | Electronic apparatus, image processing method, and image processing program |
US8736668B2 (en) | 2010-09-03 | 2014-05-27 | Kabushiki Kaisha Toshiba | Electronic apparatus and image processing method |
KR101812189B1 (en) * | 2010-10-12 | 2017-12-26 | 삼성전자주식회사 | Method for displaying contents list using 3D GUI and 3D display apparatus |
JP4972716B2 (en) * | 2010-10-14 | 2012-07-11 | パナソニック株式会社 | Stereo image display device |
WO2012049848A1 (en) * | 2010-10-14 | 2012-04-19 | パナソニック株式会社 | Stereo image display device |
JP2012134726A (en) * | 2010-12-21 | 2012-07-12 | Toshiba Corp | Image processor and image processing method |
JP2012169730A (en) * | 2011-02-10 | 2012-09-06 | Nec Personal Computers Ltd | Image processing method and image processing device |
JP2012169911A (en) * | 2011-02-15 | 2012-09-06 | Nintendo Co Ltd | Display control program, display controller, display control system, and display control method |
WO2012131752A1 (en) * | 2011-03-25 | 2012-10-04 | パナソニック株式会社 | Depth information updating device, stereoscopic video generation device, and depth information updating method |
JP2012231254A (en) * | 2011-04-25 | 2012-11-22 | Toshiba Corp | Stereoscopic image generating apparatus and stereoscopic image generating method |
JP2012256990A (en) * | 2011-06-08 | 2012-12-27 | Sharp Corp | Stereoscopic image display device |
WO2012169336A1 (en) * | 2011-06-08 | 2012-12-13 | シャープ株式会社 | Stereoscopic video display device |
KR101789683B1 (en) * | 2011-06-13 | 2017-11-20 | 삼성전자주식회사 | Display apparatus and Method for controlling display apparatus and remote controller |
WO2012172752A1 (en) | 2011-06-13 | 2012-12-20 | Sony Corporation | Display control apparatus, display control method, and program |
US20140125784A1 (en) * | 2011-06-13 | 2014-05-08 | Sony Corporation | Display control apparatus, display control method, and program |
EP2718924A1 (en) * | 2011-06-13 | 2014-04-16 | Sony Corporation | Display control apparatus, display control method, and program |
CN103597538A (en) * | 2011-06-13 | 2014-02-19 | 索尼公司 | Display control device, display control method, and program |
EP2718924A4 (en) * | 2011-06-13 | 2014-12-10 | Sony Corp | Display control apparatus, display control method, and program |
WO2013024847A1 (en) * | 2011-08-18 | 2013-02-21 | シャープ株式会社 | Stereoscopic image generating device, stereoscopic image display device, stereoscopic image generating method, and program |
JP2013042414A (en) * | 2011-08-18 | 2013-02-28 | Sharp Corp | Stereoscopic image generating device, stereoscopic image display device, stereoscopic image generating method, and program |
KR20130060505A (en) * | 2011-11-30 | 2013-06-10 | 엘지전자 주식회사 | Mobile terminal |
US9602797B2 (en) | 2011-11-30 | 2017-03-21 | Panasonic Intellectual Property Management Co., Ltd. | Stereoscopic image processing apparatus, stereoscopic image processing method, and stereoscopic image processing program |
KR101870325B1 (en) * | 2011-11-30 | 2018-06-22 | 엘지전자 주식회사 | Mobile terminal |
KR101873747B1 (en) * | 2011-12-27 | 2018-07-03 | 엘지전자 주식회사 | Mobile terminal and method for controlling thereof |
JP2014003465A (en) * | 2012-06-19 | 2014-01-09 | Seiko Epson Corp | Image display device and control method therefor |
US9355503B2 (en) | 2012-06-19 | 2016-05-31 | Seiko Epson Corporation | Image display apparatus and method for controlling the same |
JP5851625B2 (en) * | 2013-03-29 | 2016-02-03 | 株式会社東芝 | Stereoscopic video processing apparatus, stereoscopic video processing method, and stereoscopic video processing program |
WO2014155670A1 (en) * | 2013-03-29 | 2014-10-02 | 株式会社 東芝 | Stereoscopic video processing device, stereoscopic video processing method, and stereoscopic video processing program |
JP2014140173A (en) * | 2014-02-03 | 2014-07-31 | Nikon Corp | Image reproducing device |
Also Published As
Publication number | Publication date |
---|---|
JP4400143B2 (en) | 2010-01-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4400143B2 (en) | Display device and display method | |
JP5067407B2 (en) | Display device and display method | |
US8896672B2 (en) | Image display device capable of three-dimensionally displaying an item or user interface and a method for operating the same | |
CN102550031B (en) | Image display apparatus and method for operating the same | |
CA2370382C (en) | Data structure and methods for providing an interactive program guide | |
CN102577398B (en) | Image display device and method of operation thereof | |
CN103503446B (en) | Transmitter, transmission method and receiver | |
CN102223555B (en) | Image display apparatus and method for controlling the same | |
US20130169762A1 (en) | Receiving apparatus, receiving method and transmitting apparatus | |
EP2363802A1 (en) | An electronic device and method for providing user interface thereof | |
CN101938670A (en) | Image display device and method of operation thereof | |
CN102804756B (en) | Video image processing apparatus and method for controlling video image processing apparatus | |
KR20120039703A (en) | Method for displaying three-dimensional user interface | |
CN101662609B (en) | Video processing apparatus and video processing method | |
KR101635567B1 (en) | Apparatus for displaying image and method for operating the same | |
US20130271570A1 (en) | Program information display device, television receiver, program information display method, program information display program, and storage medium | |
EP2582144A2 (en) | Image processing method and image display device according to the method | |
EP2676446B1 (en) | Apparatus and method for generating a disparity map in a receiving device | |
US20120154383A1 (en) | Image processing apparatus and image processing method | |
JP4937404B1 (en) | Image processing apparatus and image processing method | |
US20120154382A1 (en) | Image processing apparatus and image processing method | |
KR101801141B1 (en) | Apparatus for displaying image and method for operating the same | |
KR101679570B1 (en) | Image display apparatus and method for operating the same | |
KR101741432B1 (en) | Apparatus for displaying image and method for operating the same | |
JP5355758B2 (en) | Video processing apparatus and video processing method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20060721 |
|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7421 Effective date: 20060821 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20090709 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20090714 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20090910 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20091006 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20091019 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121106 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20131106 Year of fee payment: 4 |
|
LAPS | Cancellation because of no payment of annual fees |