BR112013026086A2 - aparelho de transmissão, método de transmissão e aparelho de recepção - Google Patents
aparelho de transmissão, método de transmissão e aparelho de recepção Download PDFInfo
- Publication number
- BR112013026086A2 BR112013026086A2 BR112013026086-6A BR112013026086A BR112013026086A2 BR 112013026086 A2 BR112013026086 A2 BR 112013026086A2 BR 112013026086 A BR112013026086 A BR 112013026086A BR 112013026086 A2 BR112013026086 A2 BR 112013026086A2
- Authority
- BR
- Brazil
- Prior art keywords
- disparity information
- disparity
- information
- image
- image data
- Prior art date
Links
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/128—Adjusting depth or disparity
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/161—Encoding, multiplexing or demultiplexing different image signal components
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/172—Processing image signals image signals comprising non-image signal components, e.g. headers or format information
- H04N13/178—Metadata, e.g. disparity information
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/172—Processing image signals image signals comprising non-image signal components, e.g. headers or format information
- H04N13/183—On-screen display [OSD] information, e.g. subtitles or menus
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/194—Transmission of image signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/46—Embedding additional information in the video signal during the compression process
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/597—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/70—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Human Computer Interaction (AREA)
- Library & Information Science (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
Abstract
APARELHO DE TRANSMISSÃO, MÉTODO DE TRANSMISSÃO E APARELHO DE RECEPÇÃO.
O objetivo da presente invenção é poder realizar favoravelmente a exibição de uma imagem estereoscópica. Na presente invenção, primeira informação de paralaxe (informação de paralaxe correspondente à posição de renderização mais próxima do objeto em uma área predeterminada de uma tela de exibição da imagem parada) que foi adquirida para cada imagem parada predeterminada dos dados de imagem e segunda informação de paralaxe (informação de paralaxe correspondente à posição de renderização mais interma do objeto na área predeterminada da tela de exibição da imagem parada) são inseridas em um fluxo contínuo de vídeo e transmitidas. No lado do receptor, com base na primeira informação de paralaxe e na segunda informação de paralaxe, pode ser feita uma verificação considerando se ou não os ângulos de paralaxe das direções para o mesmo lado e das direções cruzadas estão em uma faixa predeterminada que não prejudica a saúde mediante visualização e, se necessário, é possível reconfigurar os dados de imagem do olho esquerdo e os dados de imagem do olho direito que configuram a imagem estereoscópica.
Description
2 “APARELHO DE TRANSMISSÃO, MÉTODO DE TRANSMISSÃO E - APARELHO DE RECEPÇÃO”
CAMPO DA INVENÇÃO A presente tecnologia diz respeito a um aparelho de transmissão, aum método de transmissão e a um aparelho de recepção, e, particularmente, diz respeito a um aparelho de transmissão e congêneres para habilitar exibição favorável de uma imagem estéreo ou exibição em sobreposição favorável de elementos gráficos em uma imagem estéreo.
FUNDAMENTOS DA INVENÇÃO Por exemplo, em PTL 1, um método para transmitir dados de imagem estéreo usando ondas de difusão de televisão é sugerido. Neste caso, dados de imagem do olho esquerdo e dados de imagem do olho direito que formam uma imagem estéreo são transmitidos, e exibição de imagem estéreo utilizando disparidade binocular é realizada em um receptor de televisão.
A figura 77 ilustra o relacionamento entre posições de exibição de imagens esquerda e direita de um objeto em uma tela e uma posição de reprodução de uma imagem estéreo formada a partir destas na exibição de imagem estéreo que utiliza disparidade binocular. Por exemplo, considerando um objeto A, do qual uma imagem esquerda La é exibida para ser deslocada —paraolado direito e uma imagem direita Ra é exibida para ser deslocada para o lado esquerdo na tela, da forma ilustrada na imagem parada, linhas de visão esquerda e direita cruzam na frente de uma superfície da tela e, assim, a posição de reprodução da imagem estéreo destas é na frente da superfície da tela.
Também, por exemplo, considerando um objeto B, do qual uma imagem esquerda Lb e uma imagem direita Rb são exibidas na mesma posição na tela, da forma ilustrada na imagem parada, linhas de visão esquerda e direita cruzam na superfície da tela e, assim, a posição de reprodução da imagem estéreo destas é na superfície da tela. Além do mais, — por exemplo, considerando um objeto C, do qual uma imagem esquerda Lc é f 2 ã exibida para ser deslocada para o lado esquerdo e do qual uma imagem direita Rec é exibida para ser deslocada para o lado direito na tela, da forma ilustrada na imagem parada, linhas de visão esquerda e direita cruzam atrás da superfície da tela e, assim, a posição de reprodução da imagem estéreo destas —éatrásda superfície da tela.
LITERATURA DE PATENTE PTL 1: Publicação do Pedido de Patente Japonês Não Examinado 2005-6114
PROBLEMA TÉCNICO Da forma supradescrita, na exibição de imagem estéreo, um espectador percebe a perspectiva em uma imagem estéreo que utiliza disparidade binocular. Aqui, é necessário que um ângulo de disparidade em relação à posição de reprodução do objeto mais próxima (um ângulo de disparidade em uma direção cruzada) e um ângulo de disparidade em relação à posição de reprodução do objeto mais distante (um ângulo de disparidade em uma direção para o mesmo lado) estejam em uma certa faixa, de forma que visualização não ocasione nenhum problema de saúde. Isto é, espera-se — que ângulos de disparidade sejam verificados em um lado de recepção, e, se os ângulos de disparidade estiverem fora da certa faixa, uma imagem do olho esquerdo e uma imagem do olho direito serão reconfiguradas de forma que os ângulos de disparidade fiquem na certa faixa. Adicionalmente, considerando os elementos gráficos de OSD — (Exibição Na Tela), uma aplicação ou congêneres exibidos em uma imagem de uma maneira sobreposta em um receptor (tais como um receptor / decodificador integrado ou um receptor de televisão), espera-se que tais elementos gráficos sejam renderizados em conjunto com a exibição de imagem estéreo, não apenas em termos de um espaço bidimensional, mas, também, em termos de profundidade de três dimensões. No caso da exibição de elementos gráficos em uma imagem de uma maneira sobreposta em um
Ê 3 Ss receptor, espera-se que ajuste de disparidade seja realizado de acordo com a perspectiva de objetos individuais na imagem, para manter consistência de perspectiva.
| Um objetivo da presente tecnologia é habilitar favorável exibição 5 —deuma imagem estéreo ou exibição em sobreposição favorável de elementos gráficos em uma imagem estéreo.
SOLUÇÃO DO PROBLEMA Um conceito da presente tecnologia encontra-se em um aparelho de transmissão que inclui: uma unidade de obtenção de dados de imagem que obtém dados de imagem do olho esquerdo e dados de imagem do olho direito que formam uma imagem estéreo; uma unidade de obtenção da informação de disparidade que obtém, para cada uma de certas imagens paradas dos dados de imagem obtidos, informação de disparidade sobre uma de uma imagem do olho esquerdo e de uma imagem do olho direito em relação à outra, a informação de disparidade incluindo primeira informação de disparidade correspondente à posição de reprodução do objeto mais próxima em uma certa área de uma tela de exibição da imagem parada e segunda informação de disparidade correspondente à posição de reprodução do — objetomais distante na certa área da tela de exibição da imagem parada; uma unidade de inserção da informação de disparidade que insere a informação de disparidade obtida em um fluxo contínuo de vídeo que é obtido pela codificação dos dados de imagem obtidos; e uma unidade de transmissão dos dados de imagem que transmite um contêiner de um certo formato, o contêiner incluindo o fluxo contínuo de vídeo no qual a informação de disparidade foi inserida.
Na presente tecnologia, a unidade de obtenção de dados de imagem obtém dados de imagem do olho esquerdo e dados de imagem do olho direito que formam uma imagem estéreo. Neste caso, os dados de imagem são obtidos, por exemplo, pela captura de uma imagem usando uma câmera ou pela leitura destes a partir de uma mídia de armazenamento.
: 4 S A unidade de obtenção da informação de disparidade obtém, para cada uma de certas imagens paradas dos dados de imagem, informação de | disparidade sobre uma de uma imagem do olho esquerdo e de uma imagem do olho direito em relação à outra, a informação de disparidade incluindo primeira informação de disparidade e segunda informação de disparidade. Neste caso, a obtenção da informação de disparidade pode ser realizada pelo menos para a imagem parada para a qual informação de disparidade deve ser transmitida, e não necessariamente para todas as imagens paradas. A primeira informação de disparidade é informação de disparidade correspondente à — posição de reprodução do objeto mais próxima a uma certa área de uma tela de exibição da imagem parada. A segunda informação de disparidade é informação de disparidade correspondente à posição de reprodução do objeto mais distante na certa área da tela de exibição da imagem parada.
Por exemplo, a unidade de obtenção da informação de disparidade pode obter a primeira informação de disparidade sobre cada uma das áreas particionadas que são obtidas pelo particionamento da tela de exibição da imagem parada usando a informação de partição e obter a segunda informação de disparidade sobre a íntegra da tela de exibição da imagem parada. Também, por exemplo, a unidade de obtenção da informação de — disparidade pode obter a primeira informação de disparidade e a segunda informação de disparidade sobre cada uma das áreas particionadas que são obtidas pelo particionamento da tela de exibição da imagem parada usando a informação de partição. Além do mais, por exemplo, a unidade de obtenção da informação de disparidade pode obter a primeira informação de — disparidade sobre cada uma das áreas particionadas que são obtidas pelo particionamento da tela de exibição da imagem parada usando a primeira informação de partição e obter a segunda informação de disparidade sobre cada uma das áreas particionadas que são obtidas pelo particionamento da tela de exibição da imagem parada usando a segunda informação de partição. A unidade de inserção da informação de disparidade insere a primeira informação de disparidade e a segunda informação de disparidade í 5 * obtidas em um fluxo contínuo de vídeo que é obtido pela codificação dos : dados de imagem obtidos. Por exemplo, informação de disparidade é inserida no fluxo contínuo de vídeo em unidades de imagens paradas ou em unidades de GOPs (Grupos de Imagens paradas). Além do mais, informação de S — disparidade pode ser inserida em unidades de outras unidades, por exemplo, em unidades de cenas.
Neste caso, a unidade de inserção da informação de disparidade pode inserir a informação de disparidade no fluxo contínuo de vídeo depois da realização de um processo de codificação de compressão. Por exemplo, no — processo de codificação de compressão, compressão de dados pode ser realizada usando um código de comprimento variável. Alternativamente, dados da diferença da informação de disparidade entre imagens paradas podem ser obtidos e codificação de comprimento variável pode ser neles realizada para aumentar adicionalmente a taxa de compressão.
Adicionalmente, neste caso, a unidade de inserção da informação de disparidade pode inserir adicionalmente, durante a inserção da informação de disparidade em uma certa imagem parada no fluxo contínuo de vídeo, informação de identificação que identifica se a informação de disparidade é informação de disparidade sobre a íntegra da tela de exibição da imagem — parada ou informação de disparidade sobre cada uma de um certo número de áreas particionadas. A informação de identificação habilita um lado de recepção a determinar facilmente se a informação de disparidade transmitida a ele é informação de disparidade sobre a íntegra da tela de exibição da imagem parada ou sobre cada uma de uma pluralidade de áreas particionadas.
A unidade de transmissão dos dados de imagem transmite um contêiner de um certo formato, o contéiner incluindo o fluxo contínuo de vídeo no qual a informação de disparidade foi inserida. Por exemplo, o contêiner pode ser um fluxo contínuo de transporte (MPEG-2 TS) adotado nos padrões de difusão digital. Alternativamente, por exemplo, o contêiner — pode ser um contêiner de MP4 usado para distribuição na Internet ou um contêiner de um outro formato.
ã 6 ( Uma unidade de inserção da informação de identificação insere, em uma camada de um contêiner, informação de identificação que identifica se um fluxo contínuo de vídeo inclui informação de disparidade inserida em f si.
Por exemplo, o contêiner é um fluxo contínuo de transporte, e a unidade de inserção da informação de identificação pode inserir a informação de identificação em uma tabela do mapa de programa ou em uma tabela de informação de evento.
Por exemplo, a unidade de inserção da informação de identificação descreve informação de identificação em um descritor que é inserido sob a tabela do mapa de programa da tabela de informação de evento.
Da forma supradescrita, na presente tecnologia, a primeira informação de disparidade (informação de disparidade correspondente à posição de reprodução do objeto mais próxima em uma certa área de uma tela de exibição da imagem parada) e a segunda informação de disparidade (informação de disparidade correspondente à posição de reprodução do objeto mais distante na certa área da tela de exibição da imagem parada) que são obtidas para cada uma de certas imagens paradas dos dados de imagem são inseridas em um fluxo contínuo de vídeo, e o fluxo contínuo de vídeo é transmitido.
Desta maneira, com base na primeira informação de disparidade e na segunda informação de disparidade, um lado de recepção é capaz de — verificar se um ângulo de disparidade em relação à posição de reprodução do objeto mais próxima (um ângulo de disparidade em uma direção cruzada) e um ângulo de disparidade em relação à posição de reprodução do objeto mais distante (um ângulo de disparidade em uma direção para o mesmo lado) estão em uma certa faixa na qual visualização não ocasiona nenhum problema de — saúdeounão.
Adicionalmente, um outro conceito da presente tecnologia encontra-se em um aparelho de recepção que inclui: uma unidade de recepção dos dados de imagem que recebe um contêiner de um certo formato, o contêiner incluindo um fluxo contínuo de vídeo, em que o fluxo contínuo de vídeo é obtido pela codificação dos dados de imagem do olho esquerdo e dos dados de imagem do olho direito f 7 ; que formam uma imagem estéreo, e em que o fluxo contínuo de vídeo inclui, inserida em si, para cada uma de certas imagens paradas dos dados de imagem, informação de disparidade sobre uma de uma imagem do olho esquerdo e de uma imagem do olho direito em relação à outra, a informação de disparidade incluindo primeira informação de disparidade correspondente à posição de reprodução do objeto mais próxima em uma certa área de uma tela de exibição da imagem parada e segunda informação de disparidade correspondente à posição de reprodução do objeto mais distante na certa área da tela de exibição da imagem parada, o aparelho de recepção incluindo adicionalmente: uma unidade de obtenção da informação que obtém os dados de imagem do olho esquerdo e os dados de imagem do olho direito e também obtém a primeira informação de disparidade e a segunda informação de disparidade a partir do fluxo contínuo de vídeo incluído no contêiner; e uma unidade de controle que provê uma instrução para reconimagem paradar pelo menos os dados de imagem do olho esquerdo e os dados de imagem do olho direito, de forma que um ângulo de disparidade fique em uma certa faixa, com base na primeira informação de disparidade e —nasegunda informação de disparidade obtidas.
Na presente tecnologia, a unidade de recepção dos dados de imagem recebe um contêiner de um certo formato, o contêiner incluindo um fluxo contínuo de vídeo. O fluxo contínuo de vídeo é obtido pela codificação dos dados de imagem do olho esquerdo e dos dados de imagem do olho — direito que formam uma imagem estéreo. Também, o fluxo contínuo de vídeo inclui, inserida em si, para cada uma de certas imagens paradas dos dados de imagem, informação de disparidade sobre uma de uma imagem do olho esquerdo e de uma imagem do olho direito em relação à outra, a informação de disparidade incluindo primeira informação de disparidade e segunda informação de disparidade. A primeira informação de disparidade é informação de disparidade correspondente à posição de reprodução do objeto
à mais próxima em uma certa área de uma tela de exibição da imagem parada. A segunda informação de disparidade é informação de disparidade correspondente à posição de reprodução do objeto mais distante na certa área da tela de exibição da imagem parada.
A unidade de obtenção da informação obtém, a partir do fluxo contínuo de vídeo incluído no contêiner, os dados de imagem do olho esquerdo e os dados de imagem do olho direito e também obtém a primeira informação de disparidade e a segunda informação de disparidade inseridas em uma certa imagem parada dos dados de imagem. Adicionalmente, a unidade de controle provê uma instrução para reconfigurar os dados de imagem do olho esquerdo e os dados de imagem do olho direito, de forma que um ângulo de disparidade fique em uma certa faixa, com base na primeira informação de disparidade e na segunda informação de disparidade obtidas.
Da forma supradescrita, na presente tecnologia, é provida uma instrução para reconfigurar os dados de imagem do olho esquerdo e os dados de imagem do olho direito, de forma que um ângulo de disparidade fique em uma certa faixa, com base na primeira informação de disparidade e na segunda informação de disparidade. Assim, os dados de imagem do olho esquerdo e os dados de imagem do olho direito podem ser reconfigurados de — forma que um ângulo de disparidade em relação à posição de reprodução do objeto mais próxima (um ângulo de disparidade em uma direção cruzada) e um ângulo de disparidade em relação à posição de reprodução do objeto mais distante (um ângulo de disparidade em uma direção para o mesmo lado) fiquem em uma certa faixa na qual visualização não ocasiona nenhum — problema de saúde.
Adicionalmente, um ainda outro conceito da presente tecnologia encontra-se em um aparelho de transmissão que inclui: uma unidade de obtenção de dados de imagem que obtém dados de imagem do olho esquerdo e dados de imagem do olho direito que formam uma imagem estéreo; uma unidade de obtenção da informação de disparidade que
É 9 obtém, para cada uma de certas imagens paradas dos dados de imagem obtidos, informação de disparidade sobre uma de uma imagem do olho esquerdo e de uma imagem do olho direito em relação à outra; uma unidade de codificação de compressão que realiza um — processo de codificação de compressão na informação de disparidade obtida; uma unidade de inserção da informação de disparidade que insere a informação de disparidade codificada com compressão em um fluxo contínuo de vídeo que é obtido pela codificação dos dados de imagem obtidos; e uma unidade de transmissão dos dados de imagem que transmite um contêiner de um certo formato, o contêiner incluindo o fluxo contínuo de vídeo no qual a informação de disparidade foi inserida.
Na presente tecnologia, a unidade de obtenção de dados de imagem obtém dados de imagem do olho esquerdo e dados de imagem do olho direito que formam uma imagem estéreo. Neste caso, os dados de imagem são obtidos, por exemplo, pela captura de uma imagem usando uma câmera ou pela leitura destes a partir de uma mídia de armazenamento.
A unidade de obtenção da informação de disparidade obtém, para cada uma de certas imagens paradas dos dados de imagem obtidos, informação de disparidade sobre uma de uma imagem do olho esquerdo e de uma imagem do olho direito em relação à outra. Neste caso, por exemplo, a informação de disparidade é gerada com base nos dados de imagem do olho esquerdo e nos dados de imagem do olho direito, ou é obtida pela leitura destes a partir de uma mídia de armazenamento.
A unidade de codificação de compressão realiza um processo de — codificação de compressão na informação de disparidade obtida. Por exemplo, a unidade de codificação de compressão pode realizar, como o processo de codificação de compressão, um processo que usa um código de comprimento variável na informação de disparidade obtida sobre as imagens paradas individuais. Alternativamente, por exemplo, a unidade de codificação — de compressão pode realizar, como o processo de codificação de compressão, um processo de obtenção dos dados da diferença entre uma imagem parada de
É 10 ã. referência e uma imagem parada referenciada, dentre as imagens paradas individuais obtidas, e de realização da codificação de comprimento variável nos dados da diferença. Neste caso, por exemplo, a unidade de codificação de compressão pode obter dados da diferença pela consideração de uma imagem S parada precedente na ordem de exibição como uma imagem parada referenciada. Alternativamente, neste caso, por exemplo, a unidade de codificação de compressão pode obter dados da diferença pela consideração de uma imagem parada precedente na ordem de decodificação como uma imagem parada referenciada. A unidade de inserção da informação de disparidade insere a informação de disparidade codificada com compressão em um fluxo contínuo A de vídeo que é obtido pela codificação dos dados de imagem obtidos. Por exemplo, informação de disparidade é inserida no fluxo contínuo de vídeo em unidade de imagens paradas ou em unidades de GOPs (Grupos de Imagens paradas). Além do mais, informação de disparidade pode ser inserida em unidades de outras unidades, por exemplo, em unidades de cenas.
Por exemplo, a unidade de inserção da informação de disparidade pode inserir adicionalmente, durante a inserção da informação de disparidade em uma certa imagem parada no fluxo contínuo de vídeo, informação de identificação que identifica se a informação de disparidade inserida compreende intradados ou dados da diferença. Neste caso, um lado de recepção é capaz de determinar facilmente se a informação de disparidade inserida compreende intradados ou dados da diferença.
a Também, por exemplo, a unidade de inserção da informação de 253 disparidade pode inserir a informação de disparidade para uma imagem r parada 1, uma imagem parada P e uma imagem parada B referenciada no fluxo contínuo de vídeo, e, em um caso em que a informação de disparidade inserida compreender dados da diferença, pode inserir adicionalmente informação que representa o número de imagens paradas até uma imagem — parada referenciada. Neste caso, um lado de recepção é capaz de determinar facilmente uma imagem parada referenciada.
f 11 f Da forma supradescrita, na presente tecnologia, informação de disparidade obtida para cada uma de certas imagens paradas dos dados de imagem é inserida em um fluxo contínuo de vídeo e o fluxo contínuo de vídeo é transmitido.
Desta maneira, a profundidade dos elementos gráficos exibidos emuma imagem estéreo de uma maneira sobreposta em um lado de recepção pode ser favoravelmente controlada em unidades de imagens paradas (quadros). Adicionalmente, na presente tecnologia, informação de disparidade inserida em um fluxo contínuo de vídeo foi codificada com compressão, de forma que a quantidade de dados possa ser reduzida.
Adicionalmente, um outro conceito da presente tecnologia encontra-se em um aparelho de recepção que inclui: uma unidade de recepção dos dados de imagem que recebe um contêiner de um certo formato, o contêiner incluindo um fluxo contínuo de vídeo, em que o fluxo contínuo de vídeo é obtido pela codificação dos — dados de imagem do olho esquerdo e dos dados de imagem do olho direito que formam uma imagem estéreo, e em que o fluxo contínuo de vídeo inclui, inserida em si, para cada uma de certas imagens paradas dos dados de imagem, informação de disparidade sobre uma de uma imagem do olho esquerdo e de uma imagem do —olhodireito em relação à outra, o aparelho de recepção incluindo adicionalmente: uma unidade de obtenção da informação que obtém os dados de imagem do olho esquerdo e os dados de imagem do olho direito e também *x obtém a informação de disparidade a partir do fluxo contínuo de vídeo — incluído no contêiner; e + uma unidade de interpolação da informação de disparidade que gera informação de disparidade sobre uma imagem parada para a qual a informação de disparidade obtida pela unidade de obtenção da informação não existe pela realização de interpolação usando a informação de disparidade obtida sobre uma imagem parada precedente e uma imagem parada subsequente.
e 12 Na presente tecnologia, a unidade de recepção dos dados de imagem recebe um contêiner de um certo formato, o contêiner incluindo um fluxo contínuo de vídeo.
O fluxo contínuo de vídeo é obtido pela codificação ã : dos dados de imagem do olho esquerdo e dos dados de imagem do olho — direito que formam uma imagem estéreo.
Também, o fluxo contínuo de vídeo inclui, inserida em si, para cada uma de certas imagens paradas dos dados de imagem, informação de disparidade sobre uma de uma imagem do olho esquerdo e de uma imagem do olho direito em relação à outra.
A unidade de obtenção da informação obtém os dados de imagem do olho esquerdo e os dados de imagem do olho direito e também obtém a informação de disparidade inserida em uma certa imagem parada dos dados de imagem a partir do fluxo contínuo de vídeo incluído no contêiner.
Também, a unidade de interpolação da informação de disparidade gera informação de disparidade sobre uma imagem parada para a qual informação —dedisparidade não existe pela realização de interpolação usando a informação de disparidade obtida sobre uma imagem parada precedente e uma imagem parada subsequente.
Da forma supradescrita, na presente tecnologia, informação de disparidade sobre uma imagem parada para a qual informação de disparidade não existe é gerada pela realização de interpolação usando a informação de disparidade obtida sobre uma imagem parada precedente e uma imagem parada subsequente.
Assim, por exemplo, a profundidade dos elementos gráficos exibidos em uma imagem estéreo de uma maneira sobreposta pode 4 ser favoravelmente controlada em unidades de imagens paradas (quadros). — Neste caso, quando a informação de disparidade sobre uma imagem parada ? gerada através de interpolação for gerada com precisão decimal, se a informação de disparidade corresponder à informação de disparidade de subpixels, atualização dinâmica da profundidade dos elementos gráficos pode ser realizada mais uniformemente.
Adicionalmente, um ainda outro conceito da presente tecnologia encontra-se em um aparelho de recepção que inclui:
E 13 uma unidade de recepção dos dados de imagem que recebe um contêiner de um certo formato, o contêiner incluindo um fluxo contínuo de vídeo, em que o fluxo contínuo de vídeo é obtido pela codificação dos dados de imagem do olho esquerdo e dos dados de imagem do olho direito — queformam uma imagem estéreo, e em que o fluxo contínuo de vídeo inclui, inserida em si, para cada uma de certas imagens paradas dos dados de imagem, informação de disparidade sobre uma de uma imagem do olho esquerdo e de uma imagem do olho direito em relação à outra, a informação de disparidade incluindo — primeira informação de disparidade correspondente à posição de reprodução do objeto mais próxima em uma certa área de uma tela de exibição da imagem parada e segunda informação de disparidade correspondente à posição de reprodução do objeto mais distante na certa área da tela de exibição da imagem parada, o aparelho de recepção incluindo adicionalmente: uma unidade de obtenção da informação que obtém os dados de imagem do olho esquerdo e os dados de imagem do olho direito e também obtém a primeira informação de disparidade e a segunda informação de disparidade a partir do fluxo contínuo de vídeo incluído no contêiner; e uma unidade de transmissão que transmite, a um aparelho externo, os dados de imagem do olho esquerdo e os dados de imagem do olho direito obtidos e a primeira informação de disparidade e a segunda informação de disparidade obtidas em associação uns com os outros. * Na presente tecnologia, a unidade de recepção dos dados de imagem recebe um contêiner de um certo formato, o contêiner incluindo um fluxo contínuo de vídeo.
Por exemplo, o contêiner pode ser um fluxo contínuo de transporte (MPEG-2 TS) adotado nos padrões de difusão digital.
Alternativamente, por exemplo, o contêiner pode ser um contéiner de MP4 usado para distribuição na Internet ou um contêiner de um outro formato.
O fluxo contínuo de vídeo é obtido pela codificação dos dados de imagem do olho esquerdo e dos dados de imagem do olho direito que formam f 14 uma imagem estéreo. Adicionalmente, o fluxo contínuo de vídeo inclui, inserida em si, para cada uma de certas imagens paradas dos dados de imagem, informação de disparidade sobre uma de uma imagem do olho esquerdo e de uma imagem do olho direito em relação à outra, a informação de disparidade incluindo primeira informação de disparidade e segunda informação de disparidade. A primeira informação de disparidade é informação de disparidade correspondente à posição de reprodução do objeto mais próxima em uma certa área de uma tela de exibição da imagem parada. Por outro lado, a segunda informação de disparidade é informação de — disparidade correspondente à posição de reprodução do objeto mais distante na certa área da tela de exibição da imagem parada.
A unidade de obtenção da informação obtém os dados de imagem do olho esquerdo e os dados de imagem do olho direito e também obtém a primeira informação de disparidade e a segunda informação de disparidade inseridas em uma certa imagem parada dos dados de imagem a partir do fluxo contínuo de vídeo incluído no contêiner. A unidade de transmissão transmite, a um aparelho externo, os dados de imagem do olho esquerdo e os dados de imagem do olho direito obtidos e a primeira informação de disparidade e a segunda informação de disparidade obtidas em associação uns com os outros.
Por exemplo, a unidade de transmissão transmite dados de imagem a um aparelho externo usando sinais diferenciais através de um certo número de canais e insere informação de disparidade em um período de supressão dos dados de imagem, desse modo, transmitindo a informação de * — disparidade ao aparelho externo. Neste caso, por exemplo, a unidade de — transmissão insere informação de disparidade em um pacote de informação de * umcerto formato localizado no período de supressão dos dados de imagem.
Por exemplo, o aparelho de recepção pode incluir adicionalmente uma unidade de reconfiguração da informação que reconconfiguradados de imagem e informação de disparidade, de forma que um ângulo de disparidade —fiqueem uma certa faixa, com base na primeira informação de disparidade e na segunda informação de disparidade obtidas. A unidade de transmissão
, 153 pode transmitir, ao aparelho externo, os dados de imagem do olho esquerdo e : os dados de imagem do olho direito reconconfigurados e a primeira informação de disparidade e a segunda informação de disparidade reconfigura : em associação uns com os outros.
Da forma supradescrita, na presente tecnologia, os dados de imagem do olho esquerdo e os dados de imagem do olho direito e a primeira informação de disparidade e a segunda informação de disparidade obtidos a partir de um fluxo contínuo de vídeo incluído em um contêiner de recepção são transmitidos a um aparelho externo em associação uns com os outros.
Assim, o aparelho externo é capaz de verificar, com base na primeira informação de disparidade e na segunda informação de disparidade, se um ângulo de disparidade em relação à posição de reprodução do objeto mais próxima (um ângulo de disparidade em uma direção cruzada) e um ângulo de disparidade em relação à posição de reprodução do objeto mais distante (um ângulo de disparidade em uma direção para o mesmo lado) estão ou não em uma certa faixa na qual visualização não ocasiona nenhum problema de saúde.
Adicionalmente, na presente tecnologia, por exemplo, a unidade de transmissão pode transmitir, em unidades de duas imagens paradas, informação de disparidade sobre uma primeira imagem parada e uma segunda imagem parada que são sequencialmente adjacentes uma à outra. Pelo menos a informação de disparidade sobre a primeira imagem parada ou a segunda imagem parada pode compreender dados da diferença em relação à * informação de disparidade sobre uma imagem parada imediatamente — precedente. Desta maneira, qualquer uma da informação de disparidade sobre Ta primeira imagem parada e da informação de disparidade sobre a segunda imagem parada compreende dados da diferença e, assim, a quantidade de dados de transmissão pode ser reduzida.
Adicionalmente, na presente tecnologia, por exemplo, o aparelho — de recepção pode incluir adicionalmente uma unidade de determinação que determina, com base nos dados da diferença entre a informação de a” 16 : disparidade sobre a primeira imagem parada e a informação de disparidade sobre a segunda imagem parada, qual da informação de disparidade sobre a primeira imagem parada e da informação de disparidade sobre a segunda imagem parada deve compreender os dados da diferença. Neste caso, por exemplo, quando a diferença entre a informação de disparidade sobre a primeira imagem parada e a informação de disparidade sobre a segunda imagem parada for grande devido à mudança de cena ou congêneres, a informação de disparidade sobre a primeira imagem parada pode ser determinada como dados da diferença e a quantidade de dados de transmissão — pode ser adicionalmente reduzida.
Adicionalmente, na presente tecnologia, por exemplo, a informação de disparidade transmitida pela unidade de transmissão pode incluir, adicionada em si, informação de identificação que indica se a informação de disparidade sobre a primeira imagem parada compreende — dados da diferença e se a informação de disparidade sobre a segunda imagem parada compreende dados da diferença. Neste caso, pode ser facilmente determinado se a informação de disparidade sobre a primeira imagem parada compreende dados da diferença e se a informação de disparidade sobre a segunda imagem parada compreende dados da diferença.
— EFEITOS VANTAJOSOS DA INVENÇÃO De acordo com a presente tecnologia, a exibição de uma imagem estéreo ou a exibição em sobreposição de elementos gráficos em uma imagem estéreo podem ser favoravelmente realizadas.
« — DESCRIÇÃO RESUMIDA DOS DESENHOS A figura 1 é um diagrama de blocos que ilustra uma configuração * — de exemplo de um sistema de transmissão / recepção de imagem de acordo com uma modalidade.
A figura 2 é um diagrama que ilustra um exemplo de informação de disparidade (vetor de disparidade) sobre cada bloco.
A figura 3 é um diagrama que descreve um exemplo de um método para gerar informação de disparidade em unidades de blocos.
k 17 x A figura 4 inclui diagramas que descrevem um exemplo de um processo de miniaturização para obter informação de disparidade sobre certas áreas particionadas a partir da informação de disparidade sobre blocos Í individuais.
A figura 5 é um diagrama que descreve que uma tela de exibição da imagem parada é particionada de forma que uma área particionada não monte em uma borda entre blocos de codificação.
A figura 6 é um diagrama que ilustra esquematicamente um exemplo de transições da informação de disparidade em áreas particionadas individuais de cada imagem parada.
A figura 7 inclui diagramas que descrevem sincronismos para inserir informação de disparidade, que é obtida para cada imagem parada dos dados de imagem, em um fluxo contínuo de vídeo.
A figura 8 é um diagrama de blocos que ilustra uma configuração —deexemplo de uma unidade de geração dos dados de transmissão que gera um fluxo contínuo de transporte em uma estação de difusão.
A figura 9 é um diagrama que ilustra uma configuração de exemplo de um fluxo contínuo de transporte.
A figura 10 inclui diagramas que ilustram uma estrutura de exemplo (Sintaxe) de um descritor de vídeo AVC e conteúdo de definição principal (semântica).
A figura 11 inclui diagramas que ilustram uma estrutura de exemplo (Sintaxe) de um descritor de extensão MVC e conteúdo de definição « principal(semântica).
A figura 12 inclui diagramas que ilustram uma estrutura de “ exemplo (Sintaxe) de um descritor da informação de profundidade dos elementos gráficos (graphics depth info descriptor) e o conteúdo de definição principal (semântica).
A figura 13 ilustra um exemplo de uma unidade de acesso no — cabeçalho de um GOP e de uma unidade de acesso na posição diferente do cabeçalho de um GOP em um caso em que o esquema de codificação for AVC.
Po 18 DS A figura 14 inclui diagramas que ilustram uma estrutura de 2 exemplo (Sintaxe) de "mensagem SEI depth information for graphics" e uma estrutura de exemplo (Sintaxe) de i "depth information for graphics data()".
A figura 15 é um diagrama que ilustra uma estrutura de exemplo (Sintaxe) de "depth information for graphics()" no caso de inserção da informação de disparidade para cada imagem parada em unidades de imagens paradas.
A figura 16 é um diagrama que ilustra uma estrutura de exemplo (Sintaxe) de "depth information for graphics()" no caso de inserção da informação de disparidade para cada imagem parada em unidades de imagens paradas.
A figura 17 é um diagrama que ilustra uma estrutura de exemplo (Sintaxe) de "depth information for graphics()" no caso de inserção da informação de disparidade para cada imagem parada em unidades de imagens paradas.
A figura 18 é um diagrama que ilustra conteúdo (Semântica) de informação principal em uma estrutira de exemplo (Sintaxe) de "depth information for graphics()".
A figura 19 inclui diagramas que ilustram exemplos de particionamento de uma tela de exibição da imagem parada.
A figura 20 é um diagrama que ilustra uma estrutura de exemplo (Sintaxe) de "depth information for graphics()" no caso de codificação « — coletiva da informação de disparidade para uma pluralidade de imagens — paradas.
' A figura 21 é um diagrama que ilustra uma estrutura de exemplo (Sintaxe) de "depth information for graphics()" no caso de codificação coletiva da informação de disparidade para uma pluralidade de imagens paradas.
A figura 22 é um diagrama que ilustra uma estrutura de exemplo (Sintaxe) de "depth information for graphics()" no caso de codificação
.! 19 É coletiva da informação de disparidade para uma pluralidade de imagens : paradas. A figura 23 inclui diagramas que ilustram uma estrutura de . exemplo (Sintaxe) de "user data()" e uma estrutura de exemplo (Sintaxe) de "depth information for graphics data()".
A figura 24 é um diagrama de blocos que ilustra uma outra configuração de exemplo da unidade de geração dos dados de transmissão que gera um fluxo contínuo de transporte na estação de difusão.
A figura 25 é um diagrama de blocos que ilustra um exemplo de uma configuração esquemática de uma unidade de codificação de compressão.
A figura 26 é um diagrama que ilustra a configuração de "Exp- Golomb code se(v)" como um código de comprimento variável.
A figura 27 é um diagrama que descreve codificação de compressão de um tipo de não previsão (Tipo de Não Previsão).
A figura 28 é um diagrama que descreve codificação de compressão de um tipo de previsão 0 (Tipo de Não Previsão 0).
A figura 29 é um diagrama que descreve codificação de compressão de um tipo de previsão 1 (Tipo de Não Previsão 1).
A figura 30 é um diagrama que descreve codificação de compressão de um tipo de previsão 2 (Tipo de Não Previsão 2).
A figura 31 é um diagrama que descreve codificação de compressão de um tipo de previsão 3 (Tipo de Não Previsão 3).
- A figura 32 é um diagrama que ilustra uma estrutura de exemplo (Sintaxe) de "depth information sei()" no caso de inserção da informação de * — disparidade codificada com compressão para cada imagem parada em unidades de imagens paradas.
A figura 33 é um diagrama que ilustra uma estrutura de exemplo (Sintaxe) de "depth information sei()" no caso de inserção da informação de — disparidade codificada com compressão para cada imagem parada em unidades de imagens paradas.
ST 20 á A figura 34 é um diagrama que ilustra uma estrutura de exemplo . (Sintaxe) de "depth information sei()" no caso de inserção da informação de disparidade codificada com compressão para cada imagem parada em ó unidades de imagens paradas.
A figura 35 é um diagrama que ilustra uma estrutura de exemplo (Sintaxe) de "depth information sei()" no caso de codificação coletiva da informação de disparidade codificada com compressão para uma pluralidade de imagens paradas.
A figura 36 é um diagrama que ilustra uma estrutura de exemplo (Sintaxe) de "depth information sei()" no caso de codificação coletiva da informação de disparidade codificada com compressão para uma pluralidade de imagens paradas. A figura 37 é um diagrama que ilustra uma estrutura de exemplo (Sintaxe) de "depth information sei()" no caso de codificação coletiva da informação de disparidade codificada com compressão para uma pluralidade de imagens paradas. A figura 38 é um diagrama que ilustra uma outra estrutura de exemplo (Sintaxe) de "depth information sei()". A figura 39 é um diagrama que ilustra a configuração de "Exp- Golomb code ue(v)" como um código de comprimento variável. A figura 40 é um diagrama que ilustra uma outra estrutura de exemplo (Sintaxe) de "depth information sei()". A figura 41 é um diagrama que ilustra um conceito de controle » — da profundidade dos elementos gráficos usando a informação de disparidade.
A figura 42 é um diagrama que ilustra que partes de informação de disparidade são sequencialmente obtidas em sincronismos de imagem parada dos dados de imagem em um caso em que um fluxo contínuo de vídeo incluir informação de disparidade inserida em si em unidades de imagens paradas.
A figura 43 é um diagrama que ilustra que partes de informação de disparidade para imagens paradas individuais em um GOP são ns 21 coletivamente obtidas no sincronismo do cabeçalho do GOP dos dados de : imagem em um caso em que um fluxo contínuo de vídeo incluir informação de disparidade inserida em si em unidades de GOPs.
É A figura 44 inclui diagramas que ilustram um exemplo de —exibiçãodeum texto explicativo (legenda) e elementos gráficos OSD em uma imagem.
A figura 45 é um diagrama de blocos que ilustra uma configuração de exemplo de um receptor / decodificador integrado.
A figura 46 é um diagrama de blocos que ilustra um exemplo de uma configuração esquemática de uma unidade de decodificação de compressão.
A figura 47 é um diagrama que descreve a verificação de ângulos de disparidade e a reconfiguração dos dados de imagem.
A figura 48 é um diagrama de blocos que ilustra uma configuração de exemplo de uma unidade de controle da informação de disparidade.
A figura 49 é um diagrama de blocos que descreve o controle realizado por uma unidade de controle da profundidade.
A figura 50 é um fluxograma (1/2) que ilustra um exemplo de um — procedimento de um processo de controle realizado pela unidade de controle da profundidade.
A figura 51 é um fluxograma (2/2) que ilustra o exemplo do procedimento do processo de controle realizado pela unidade de controle da . profundidade.
A figura 52 é um diagrama que ilustra um exemplo de controle da profundidade dos elementos gráficos no receptor / decodificador integrado.
A figura 53 é um diagrama que ilustra um outro exemplo de controle da profundidade dos elementos gráficos no receptor / decodificador integrado.
A figura 54 é um diagrama de blocos que ilustra uma configuração de exemplo de um receptor de televisão (sistema de entrada
A 22 “ HDMI).
. A figura 55 é um diagrama de blocos que descreve o controle realizado por uma unidade de controle da profundidade.
S A figura 56 é um fluxograma que ilustra um exemplo de um — procedimento de um processo de controle realizado pela unidade de controle da profundidade.
A figura 57 é um diagrama que ilustra um exemplo de controle da profundidade dos elementos gráficos no receptor de televisão. A figura 58 é um diagrama de blocos que ilustra uma configuração de exemplo de uma unidade de transmissão HDMI de um aparelho de origem e de uma unidade de recepção HDMI de um aparelho de destino. A figura 59 é um diagrama que ilustra uma estrutura de exemplo dos dados de transmissão TMDS (em um caso em que dados de imagem de
1.920 pixels horizontais x 1.080 linhas são transmitidos). A figura 60 é um diagrama que ilustra um arranjo de pinos (tipo A) de terminais HDMI nos quais cabos HDMI de um aparelho de origem e de um aparelho de destino são conectados. A figura 61 é um diagrama que ilustra um exemplo de uma estrutura de pacote de InfoFrame Específico de Revendedor HDMI no caso de uso do InfoFrame Específico de Revendedor HDMI para transmitir informação de disparidade. A figura 62 é um diagrama que ilustra o conteúdo da informação » principal no exemplo da estrutura de pacote de InfoFrame Específico de — Revendedor HDMI.
' A figura 63 é um diagrama que ilustra uma estrutura de exemplo de VS Info em um caso em que o número de áreas particionadas for "16" em um modo de imagem parada única.
A figura 64 é um diagrama que ilustra uma estrutura de exemplo deVS Infoemum caso em que o número de áreas particionadas for "16" em um modo de imagem parada dupla.
É 23 t A figura 65 é um diagrama que ilustra esquematicamente o caso e de realização da recepção em unidades de imagens paradas e da transmissão em um modo de imagem parada única.
i A figura 66 é um diagrama que ilustra esquematicamente o caso — de realização da recepção em unidades de imagens paradas e da transmissão em um modo de imagem parada dupla.
A figura 67 é um diagrama que ilustra esquematicamente o caso de realização da recepção em unidades de GOPs (uma pluralidade de imagens paradas) e da transmissão em um modo de imagem parada única.
A figura 68 é um diagrama que ilustra esquematicamente o caso - de realização da recepção em unidades de GOPs (uma pluralidade de imagens paradas) e da transmissão em um modo de imagem parada dupla.
A figura 69 é um diagrama que ilustra um outro exemplo da estrutura de pacote de VS Info (InfoFrame Específico de Revendedor HDMI).
A figura 70 é um diagrama que ilustra um outro exemplo da estrutura de pacote de VS Info (InfoFrame Específico de Revendedor HDMI).
A figura 71 é um diagrama que ilustra o conteúdo da informação principal no exemplo da estrutura de pacote de /nfoFrame Específico de Revendedor HDMI.
A figura 72 é um diagrama de blocos que ilustra uma configuração de exemplo para determinar a ordem de uma imagem parada N e de uma imagem parada N + 1.
A figura 73 é um diagrama que ilustra um exemplo de uma « — transição de tempo da informação de disparidade (valor da disparidade) em um caso em que |[D(N + 1) - DIN)| < Th.
Í A figura 74 é um diagrama que ilustra um exemplo de uma transição de tempo da informação de disparidade (valor da disparidade) em um caso em que |[D(N + 1) - D(IN)| > Th.
A figura 75 é um diagrama de blocos que ilustra uma outra — configuração de exemplo do sistema de transmissão / recepção de imagem. A figura 76 é um diagrama de blocos que ilustra uma outra f 24 É configuração de exemplo do receptor de televisão. A figura 77 é um diagrama que ilustra o relacionamento entre posições de exibição de imagens esquerda e direita de um objeto em uma tela e uma posição de reprodução de uma imagem estéreo formada a partir destas S —mnaexibiçãodeimagem estéreo que utiliza disparidade binocular.
DESCRIÇÃO DE MODALIDADES A seguir, uma modalidade para implementar a invenção (a seguir referida como uma "modalidade") será descrita. Note que a descrição será dada na seguinte ordem.
1. Modalidade
2. Modificação <1. Modalidade> [Sistema de transmissão / recepção de imagem] A figura | ilustra uma configuração de exemplo de um sistema — de transmissão / recepção de imagem 10 de acordo com uma modalidade. O sistema de transmissão / recepção de imagem 10 inclui uma estação de difusão 100, um receptor / decodificador integrado (STB) 200 e um receptor de televisão 300 que serve como um monitor. O receptor / decodificador integrado 200 e o receptor de televisão (TV) 300 são conectados um no outro —pormeio de um cabo HDMI (Interface Multimídia em Alta Definição) 400. "Descrição da estação de difusão” A estação de difusão 100 transmite um fluxo contínuo de transporte TS que serve como um contêiner por ondas de difusão. O fluxo . — contínuo de transporte TS inclui um fluxo contínuo de vídeo que é obtido pela — codificação dos dados de imagem do olho esquerdo e dos dados de imagem * do olho direito que formam uma imagem estéreo. Por exemplo, os dados de imagem do olho esquerdo e os dados de imagem do olho direito são transmitidos como um fluxo contínuo de vídeo. Neste caso, por exemplo, os dados de imagem do olho esquerdo e os dados de imagem do olho direito são — sujeitos a um processo de intercalação para serem formados como dados de imagem de um formato lado a lado ou de um formato topo e base, e os dados f 25 . de imagem são incluídos em um fluxo contínuo de vídeo. Alternativamente, por exemplo, os dados de imagem do olho esquerdo e os dados de imagem do olho direito são transmitidos como À diferentes fluxos contínuos de vídeo. Neste caso, por exemplo, os dados de S — imagem do olho esquerdo são incluídos em um fluxo contínuo de visualização base MVC e os dados de imagem do olho direito são incluídos em um fluxo contínuo de visualização não base MVC. Informação de disparidade (dados de disparidade) sobre uma de uma imagem do olho esquerdo e de uma imagem do olho direito em relação à — outra, a informação de disparidade sendo obtida para cada uma de certas imagens paradas dos dados de imagem, é inserida em um fluxo contínuo de vídeo. Neste caso, considera-se que informação de disparidade é obtida para pelo menos uma imagem parada para a qual informação de disparidade deve ser transmitida.
Aqui, informação de disparidade para cada imagem parada inclui primeira informação de disparidade e segunda informação de disparidade. A primeira informação de disparidade é informação de disparidade correspondente à posição de reprodução do objeto mais próxima em uma certa área de uma tela de exibição da imagem parada. Por outro lado, a segunda informação de disparidade é informação de disparidade correspondente à posição de reprodução do objeto mais distante na certa área da tela de exibição da imagem parada.
Quando se considerar que a posição de uma tela corresponde à . — disparidade zero, em um caso em que uma posição de reprodução do objeto —fornafrente datela, a informação de disparidade é obtida como um valor negativo * (veja DPa na figura 71). Por outro lado, em um caso em que uma posição de reprodução do objeto for atrás da tela, a informação de disparidade é obtida como um valor positivo (veja DPc na figura 71). Assim, por exemplo, dentre partes de informação de disparidade sobre uma certa área, uma parte de informação de — disparidade com um valor mínimo é usada como a primeira informação de disparidade. Também, por exemplo, dentre partes de informação de disparidade e. 26 " sobre a certa área, uma parte de informação de disparidade com um valor máximo é usada como a segunda informação de disparidade.
Neste caso, os seguintes métodos de obtenção podem ser usados para obter a primeira informação de disparidade e a segunda informação de — disparidade, por exemplo.
(1) Primeira informação de disparidade sobre cada uma das áreas particionadas, que são obtidas pelo particionamento de uma tela de exibição da imagem parada usando a informação de partição, é obtida e segunda informação de disparidade sobre a íntegra da tela de exibição da imagem —paradaé obtida.
(2) Primeira informação de disparidade e segunda informação de disparidade sobre cada uma das áreas particionadas, que são obtidas pelo particionamento de uma tela de exibição da imagem parada usando a informação de partição, são obtidas.
(3) Primeira informação de disparidade sobre cada uma das áreas particionadas, que são obtidas pelo particionamento de uma tela de exibição da imagem parada usando a primeira informação de partição, é obtida e segunda informação de disparidade sobre cada uma das áreas particionadas, que são obtidas pelo particionamento da tela de exibição da imagem parada usando a segunda informação de partição, é obtida.
(4) Primeira informação de disparidade sobre a íntegra de uma tela de exibição da imagem parada é obtida e segunda informação de disparidade sobre a íntegra da tela de exibição da imagem parada é obtida.
. Informação de disparidade sobre a íntegra da tela de exibição da — imagem parada ou cada uma das áreas particionadas é obtida pela realização deum processo de miniaturização na informação de disparidade sobre cada bloco. A figura 2 ilustra um exemplo de informação de disparidade (vetor de disparidade) sobre cada bloco.
A figura 3 ilustra um exemplo de um método para gerar informação de disparidade em unidades de blocos. Este exemplo é um exemplo de obtenção da informação de disparidade que indica uma vista do
: 27 es olho direito (Vista Direita) de uma vista do olho esquerdo (Vista Esquerda). : Neste caso, por exemplo, blocos de 4 x 4, 8 x 8 ou 16 x 16 pixels (blocos de detecção de disparidade) são definidos em uma imagem parada da vista do : olho esquerdo.
Da forma ilustrada na imagem parada, a imagem parada da vista do olho esquerdo é considerada como uma imagem de detecção e uma imagem parada da vista do olho direito é considerada como uma imagem de referência. Para cada bloco da imagem parada da vista do olho esquerdo, busca de bloco da imagem parada da vista do olho direito é realizada de forma —quea soma dos valores absolutos das diferenças entre pixels seja minimizada e dados de disparidade sejam obtidos.
Isto é, informação de disparidade DPn sobre um N-ésimo bloco é obtida pela realização de busca de bloco, de forma que a soma dos valores absolutos das diferenças no N-ésimo bloco seja minimizada, por exemplo, da forma expressada pela seguinte equação (1). Note que, na equação (1), Dj representa um valor de pixel na imagem parada da vista do olho direito e Di representa um valor de pixel na imagem parada da vista do olho esquerdo.
DPn = min( abs(differ (Dj - Di))) ... (1) A figura 4 ilustra um exemplo de um processo de miniaturização.
A figura 4(a) ilustra informação de disparidade sobre cada bloco obtida da maneira supradescrita. Com base na informação de disparidade sobre cada bloco, a primeira informação de disparidade e a segunda informação de disparidade sobre cada grupo (Grupo De Bloco) são obtidas, da forma » ilustrada na figura 4(b). Um grupo corresponde a uma camada superior de — blocos,e é obtido pelo agrupamento de uma pluralidade de blocos adjacentes. No exemplo da figura 4(b), cada grupo é constituído por quatro blocos agrupados por um quadro em linha rompida. Então, a primeira informação de disparidade sobre cada grupo é obtida, por exemplo, pela seleção, a partir das partes de informação de disparidade sobre todos os blocos no grupo, de uma parte de informação de disparidade com um valor mínimo. Também, segunda informação de disparidade sobre cada grupo é obtida, por exemplo, pela seleção, a e 28 à partir das partes de informação de disparidade sobre todos os blocos no grupo, de : uma parte de informação de disparidade com um valor máximo.
Subsequentemente, com base nos vetores de disparidade dos grupos individuais, a primeira informação de disparidade e a segunda — informação de disparidade sobre cada partição são obtidas, da forma ilustrada na figura 4(c). Uma partição corresponde a uma camada superior de grupos, e é obtida pelo agrupamento de uma pluralidade de grupos adjacentes. No exemplo da figura 4(c), cada partição é constituída por dois grupos agrupados por um quadro em linha rompida. Então, primeira informação de disparidade — sobre cada partição é obtida, por exemplo, pela seleção, a partir de partes da primeira informação de disparidade sobre todos os grupos na partição, de uma parte da primeira informação de disparidade com um valor mínimo. Também, segunda informação de disparidade sobre cada partição é obtida, por exemplo, pela seleção, a partir de partes da segunda informação de disparidade sobre todos os grupos na partição, de uma parte da segunda informação de disparidade com um valor máximo.
Subsequentemente, com base na informação de disparidade sobre as partições individuais, a primeira informação de disparidade e a segunda informação de disparidade sobre a íntegra de uma imagem parada (a íntegra de uma tela de exibição da imagem parada) posicionada na camada mais superior são obtidas, da forma ilustrada na figura 4(d). No exemplo da figura 4(d), a íntegra da imagem parada inclui quatro partições agrupadas por um quadro em linha rompida. Então, a primeira informação de disparidade sobre « — a íntegra da imagem parada é obtida, por exemplo, pela seleção, a partir de partes da primeira informação de disparidade sobre todas as partições “incluídas na íntegra da imagem parada, de uma parte da primeira informação de disparidade com um valor mínimo. Também, a segunda informação de disparidade sobre a íntegra da imagem parada é obtida, por exemplo, pela seleção, a partir das partes da segunda informação de disparidade sobre todas as partições — incluídas na íntegra da imagem parada, de uma parte da segunda informação de disparidade com um valor máximo.
o 29 7 A tela de exibição da imagem parada é particionada com base na informação de partição, e a informação de disparidade sobre cada área particionada é obtida, como exposto. Neste caso, a tela de exibição da imagem parada é particionada de maneira tal que uma área particionada não — monte em um limite entre blocos de codificação. A figura 5 ilustra um exemplo detalhado do particionamento de uma tela de exibição da imagem parada. Este exemplo é um exemplo de um formato de 1.920 x 1.080 pixels, e é um exemplo no qual a tela de exibição da imagem parada é particionada em duas áreas em cada uma das direções horizontal e vertical, de forma que — quatro áreas particionadas, isto é, Partição A, Partição B, Partição C e Partição D, sejam obtidas. Em um lado da transmissão, codificação é realizada em unidades de 16 x 16 blocos e, assim, oito linhas formadas por dados em branco são adicionadas, e codificação é realizada em dados de imagem de 1.920 pixels x 1.088 linhas. Assim, considerando a direção vertical, a tela de exibição da imagem parada é particionada em duas áreas com base em 1.088 linhas.
Da forma supradescrita, informação de disparidade (primeira informação de disparidade e segunda informação de disparidade) sobre a íntegra da tela de exibição da imagem parada ou cada área particionada —(Partição), que é obtida para cada uma de certas imagens paradas (quadros) dos dados de imagem, é inserida em um fluxo contínuo de vídeo. A figura 6 ilustra esquematicamente um exemplo de transições da informação de disparidade sobre áreas particionadas individuais. Neste exemplo, a tela de » — exibição da imagem parada é particionada em quatro áreas em cada uma das — direções horizontal e vertical, de forma que dezesseis áreas particionadas, isto * é, Partição O até Partição 15, existam. Neste exemplo, para simplificar a imagem parada, apenas transições das partes de informação de disparidade DO, D3, D9 e D1I5 sobre a Partição 0, a Partição 3, a Partição 9 e a Partição 15 são ilustradas. Os valores das partes de informação de disparidade podem — mudar durante o tempo (DO, D3 e D9) ou podem ser fixos (D15). Informação de disparidade obtida para cada uma de certas ão 30 Ss imagens paradas dos dados de imagem é inserida em um fluxo contínuo de : vídeo em unidades de imagens paradas, em unidades de GOPs ou congêneres. A figura 7(a) ilustra um exemplo de sincronismo com a codificação de imagem parada, isto é, um exemplo no qual a informação de disparidade é inserida em um fluxo contínuo de vídeo em unidades de imagens paradas. Neste exemplo, um atraso que ocorre no momento da transmissão dos dados de imagem é pequeno, o que é adequado para difusão ao vivo em que dados de imagem capturados por uma câmera são transmitidos.
A imagem parada 7(b) ilustra um exemplo de sincronismo com imagens paradas I (Intraimagens paradas) ou GOPs (Grupos de Imagens paradas) de vídeo codificado, isto é, um exemplo no qual a informação de disparidade é inserida em um fluxo contínuo de vídeo em unidades de GOPs. Neste exemplo, ocorre um atraso maior no momento da transmissão dos dados de imagem do que no exemplo da figura 7(a). Entretanto, partes de informação de disparidade sobre uma pluralidade de imagens paradas (quadros) são coletivamente transmitidas, de forma que o número de processos de obtenção da informação de disparidade em um lado de recepção possa ser reduzido. A figura 7(c) ilustra um exemplo de sincronismo com cenas de vídeo, isto é, um exemplo no qual a informação de disparidade é inserida em um fluxo contínuo de vídeo em unidades de cenas. Note que os exemplos da figura 7(a) até a figura 7(c) são meramente exemplos, e informação de disparidade pode ser inserida em unidades de outras unidades. Alternativamente, informação de identificação para identificar se » —um fluxo contínuo de vídeo inclui ou não informação de disparidade (primeira — informação de disparidade e segunda informação de disparidade) inserida em * — si pode ser inserida em uma camada de um fluxo contínuo de transporte TS. À informação de identificação é inserida, por exemplo, em uma tabela do mapa de programa (PMT) ou uma tabela de informação de evento (EIT) incluídas no fluxo contínuo de transporte TS. A informação de identificação habilita um — lado de recepção a identificar facilmente se o fluxo contínuo de vídeo inclui ou não informação de disparidade inserida em si. Os detalhes da informação e. 31 » de identificação serão descritos a seguir. "Configuração de exemplo da unidade de geração dos dados de transmissão" A figura 8 ilustra uma configuração de exemplo de uma unidade ; de geração dos dados de transmissão 110 que gera o fluxo contínuo de transporte TS supradescrito na estação de difusão 100. A unidade de geração dos dados de transmissão 110 inclui unidades de transmissão dos dados de imagem 111L e 111R, escalímetros 112L e 112R, um codificador de vídeo 113, um multiplexador 114 e uma unidade de geração dos dados de disparidade 115. A unidade de geração dos dados de transmissão 110 também inclui uma unidade de transmissão dos dados de legenda 116, um codificador de legenda 117, uma unidade de transmissão dos dados de áudio 118 e um codificador de áudio 119. As unidades de transmissão dos dados de imagem 111L e 111R, respectivamente, transmitem dados de imagem do olho esquerdo VL e dados de imagem do olho direito VR que formam uma imagem estéreo.
As unidades de transmissão dos dados de imagem 111L e 111R são constituídas, por exemplo, por uma câmera que captura uma imagem de um objeto e transmite dados de imagem, um leitor dos dados de imagem que lê dados de imagem a partir de uma mídia de armazenamento e transmite os dados de imagem, ou congêneres.
Cada um dos — dados de imagem VL e dos dados de imagem VR são, por exemplo, dados de imagem com um tamanho full HD de 1.920 x 1.080. Os escalímetros 112L e 112R, respectivamente, realizam um processo de escalonamento nos dados de imagem VL e nos dados de imagem » — VR na direção horizontal ou na direção vertical, se necessário.
Por exemplo, — nocaso de formação dos dados de imagem de um formato lado a lado ou de “ um formato topo e base, a fim de transmitir os dados de imagem VL e os dados de imagem VR como um fluxo contínuo de vídeo, os escalímetros 112L e 112R, respectivamente, reduzem os dados de imagem VL e os dados de imagem VR pela metade na direção horizontal ou na direção vertical, e — transmitem os dados de imagem reduzidos.
Alternativamente, por exemplo, no caso da transmissão dos dados de imagem VL e dos dados de imagem VR r como diferentes fluxos contínuos de vídeo, tais como um fluxo contínuo de : visualização base MVC e um fluxo contínuo de visualização não base MVC, os escalímetros 112L e 112R, respectivamente, transmitem os dados de ; imagem VL e os dados de imagem VR como eles estão, sem realizar um — processo de escalonamento nestes.
O codificador de vídeo 113 realiza codificação nos dados de imagem do olho esquerdo e nos dados de imagem do olho direito transmitidos a partir dos escalímetros 112L e 112R, por exemplo, de acordo com MPEG-4 AVC (MVC), MPEG-2 vídeo ou HEVC (Codificação de Vídeo de Alta — Eficiência), desse modo, obtendo dados de vídeo codificados. Também, o codificador de vídeo 113 gera um fluxo contínuo de vídeo que inclui os dados codificados pelo uso de um formatador de fluxo contínuo (não ilustrado) provido no estágio subsequente. Neste caso, o codificador de vídeo 113 gera um ou dois fluxos contínuos de vídeo (fluxos contínuos de vídeo elementares) que incluem os dados de vídeo codificados dos dados de imagem do olho esquerdo e dos dados de imagem do olho direito.
A unidade de geração dos dados de disparidade 115 gera informação de disparidade para cada imagem parada (quadro) com base nos dados de imagem do olho esquerdo VL e nos dados de imagem do olho direito VR transmitidos a partir das unidades de transmissão dos dados de imagem 111L e 111R. A unidade de geração dos dados de disparidade 115 obtém, para cada imagem parada, informação de disparidade sobre cada bloco, como exposto. Note que, em um caso em que as unidades de » — transmissão dos dados de imagem 111L e 111R forem constituídas por um — leitor dos dados de imagem que inclui uma mídia de armazenamento, a “unidade de geração dos dados de disparidade 115 pode ser configurada para ler informação de disparidade sobre cada bloco a partir da mídia de armazenamento juntamente com dados de imagem para obter a informação de disparidade. Alternativamente, um método para detecção da informação de — disparidade pelo uso de um resultado da correspondência de bloco realizada entre os dados de imagem do olho direito e os dados de imagem do olho esquerdo no
º 33 . codificador de vídeo 113 pode ser usado.
Além do mais, a unidade de geração da informação de disparidade 115 realiza um processo de miniaturização na informação de ; disparidade sobre cada bloco, desse modo, gerando a primeira informação de S — disparidade e a segunda informação de disparidade sobre a íntegra de uma tela de exibição da imagem parada ou cada uma das áreas particionadas (Partições) obtidas pelo particionamento da tela de exibição da imagem parada. Note que informação sobre um método para obter a primeira informação de disparidade e a segunda informação de disparidade é dada à unidade de geração da informação de disparidade 115, por exemplo, por uma operação de usuário. Isto é, informação sobre a geração da informação de disparidade sobre a íntegra da tela de exibição da imagem parada ou sobre a geração da informação de disparidade sobre cada uma das áreas particionadas obtidas pelo particionamento da tela de exibição da imagem parada em um —certonúmero de áreas é dada.
O codificador de vídeo 113 insere a primeira informação de disparidade e a segunda informação de disparidade sobre cada imagem parada geradas pela unidade de geração dos dados de disparidade 115 em um fluxo contínuo de vídeo. Neste caso, por exemplo, informação de disparidade sobre cada imagem parada é inserida no fluxo contínuo de vídeo em unidades de imagens paradas ou em unidades de GOPs (veja a figura 7). Note que, em um caso em que dados de imagem do olho esquerdo e dados de imagem do olho direito forem transmitidos como diferentes partes de dados de vídeo, a informação . — de disparidade pode ser inserida apenas em qualquer um dos fluxos contínuos de — vídeo.
: A unidade de transmissão dos dados de legenda 116 transmite dados de uma legenda (texto explicativo) a serem sobrepostos em uma imagem. A unidade de transmissão dos dados de legenda 116 é constituída, por exemplo, por um computador pessoal ou congêneres. O codificador de legenda 117 gera um fluxo contínuo de legenda (fluxo contínuo de legenda elementar) que inclui os dados de legenda transmitidos a partir da unidade de
À 34 transmissão dos dados de legenda 116. Note que o codificador de legenda 117 : consulta a informação de disparidade sobre cada bloco gerada pela unidade de geração dos dados de disparidade 115 e adiciona a informação de disparidade | correspondente a uma posição de exibição da legenda nos dados de legenda. Istoé, os dados de legenda incluídos no fluxo contínuo de legenda incluem informação de disparidade correspondente à posição de exibição da legenda.
A unidade de transmissão dos dados de áudio 118 transmite dados de áudio correspondentes aos dados de imagem. A unidade de transmissão dos dados de áudio 118 é constituída, por exemplo, por um microfone ou um leitor dos dados de áudio que Ilê dados de áudio a partir de uma mídia de armazenamento e transmite os dados de áudio. O codificador de áudio 119 realiza codificação nos dados de áudio transmitidos a partir da unidade de transmissão dos dados de áudio 118 de acordo com MPEG-2 Áudio, AAC ou congêneres, desse modo, gerando um fluxo contínuo de áudio (fluxo contínuo de áudio elementar).
O multiplexador 114 forma os fluxos contínuos elementares gerados pelo codificador de vídeo 113, pelo codificador de legenda 117 e pelo codificador de áudio 119 em pacotes PES e multiplexa os pacotes PES, desse modo, gerando um fluxo contínuo de transporte TS. Neste caso, um PTS (Registro de Tempo de Apresentação) é inserido no cabeçalho de cada pacote PES (Fluxo Contínuo Elementar Empacotado), para reprodução sincronizada em um lado de recepção.
O multiplexador 114 insere a supradescrita informação de * — identificação em uma camada do fluxo contínuo de transporte TS. A informação de identificação é informação para identificar se o fluxo contínuo de vídeo inclui ou não informação de disparidade (primeira informação de disparidade e segunda informação de disparidade) inserida em si. À informação de identificação é inserida, por exemplo, em uma tabela do mapa de programa (PMT), uma tabela de informação de evento (EIT) ou — congêneres incluídas no fluxo contínuo de transporte TS.
A operação da unidade de geração dos dados de transmissão 110 ilustrada na figura 8 será descrita em resumo. Os dados de imagem do olho esquerdo VL e os dados de imagem do olho direito VR que são transmitidos a partir das unidades de transmissão dos dados de imagem 111L e 11IR e formam uma imagem estéreo são respectivamente supridos aos escalímetros 112L e I12R. Os escalímetros 112L e 112R realizam um processo de escalonamento na direção horizontal ou na direção vertical nos dados de imagem VL e nos dados de imagem VR, respectivamente, se necessário. Os dados de imagem do olho esquerdo e os dados de imagem do olho direito transmitidos a partir dos escalímetros 112L e 112R são supridos ao — codificador de vídeo 113.
No codificador de vídeo 113, codificação é realizada nos dados de imagem do olho esquerdo e nos dados de imagem do olho direito, por exemplo, de acordo com MPEG-4 AVC (MVC), MPEG-2 vídeo, HEVC ou congêneres, de forma que dados de vídeo codificados sejam obtidos.
Também, no codificador de vídeo 113, um fluxo contínuo de vídeo que inclui os dados codificados é gerado por um formatador de fluxo contínuo provido | no estado subsequente. Neste caso, um ou dois fluxos contínuos de vídeo que incluem os dados de vídeo codificados dos dados de imagem do olho esquerdo e dos dados de imagem do olho direito são gerados.
Adicionalmente, os dados de imagem do olho esquerdo VL e os dados de imagem do olho direito VR que são transmitidos a partir das unidades de transmissão dos dados de imagem 1111 e 111R e formam uma imagem estéreo são supridos à unidade de geração dos dados de disparidade * 115. Na unidade de geração dos dados de disparidade 115, informação de — disparidade sobre cada bloco é obtida para cada imagem parada. Adicionalmente, na unidade de geração dos dados de disparidade 115, um processo de miniaturização é realizado na informação de disparidade sobre cada bloco, de forma que a primeira informação de disparidade e a segunda informação de disparidade sobre a íntegra da tela de exibição da imagem — parada ou cada uma das áreas particionadas obtidas pelo particionamento da tela de exibição da imagem parada sejam geradas.
& 36 : A primeira informação de disparidade e a segunda informação de E disparidade para cada imagem parada geradas pela unidade de geração dos dados de disparidade 115 são supridas ao codificador de vídeo 113. No codificador de vídeo 113, a primeira informação de disparidade e a segunda S — informação de disparidade para cada imagem parada são inseridas no fluxo contínuo de vídeo em unidades de imagens paradas ou em unidades de GOPs. Adicionalmente, a unidade de transmissão dos dados de legenda 116 transmite dados de uma legenda (texto explicativo) a serem sobrepostos em uma imagem. Os dados de legenda são supridos ao codificador de legenda
117. No codificador de legenda 117, um fluxo contínuo de legenda que inclui os dados de legenda é gerado. Neste caso, no codificador de legenda 117, informação de disparidade sobre cada bloco gerada pela unidade de geração dos dados de disparidade 115 é consultada, e informação de disparidade correspondente a uma posição de exibição é adicionada nos dados de legenda.
Adicionalmente, a unidade de transmissão dos dados de áudio 118 transmite dados de áudio correspondentes aos dados de imagem. Os dados de áudio são supridos ao codificador de áudio 119. No codificador de áudio 119, codificação é realizada nos dados de áudio de acordo com MPEG-2 Áudio, AAC ou congêneres, de forma que um fluxo contínuo de áudio seja gerado.
O fluxo contínuo de vídeo obtido pelo codificador de vídeo 113, o fluxo contínuo de legenda obtido pelo codificador de legenda 117 e o fluxo contínuo de áudio obtido pelo codificador de áudio 119 são supridos ao multiplexador 114. No multiplexador 114, os fluxos contínuos elementares by supridos a partir dos codificadores individuais são formados em pacotes PES eos pacotesPES são multiplexados, de forma que um fluxo contínuo de : transporte TS seja gerado. Neste caso, um PTS é inserido em cada cabeçalho do PES para reprodução sincronizada em um lado de recepção. Também, no multiplexador 114, informação de identificação para identificar se o fluxo contínuo de vídeo inclui ou não informação de disparidade inserida em si é — inserida, por exemplo, na PMT ou na EIT.
[Informação de identificação, estrutura da informação de disparidade e
: 37 : configuração do TS] : A figura 9 ilustra uma configuração de exemplo de um fluxo contínuo de transporte TS. Nesta configuração de exemplo, dados de imagem do olho esquerdo e dados de imagem do olho direito são transmitidos como — diferentes fluxos contínuos de vídeo. Isto é, um pacote PES "PES1 de vídeo" de um fluxo contínuo de vídeo gerado pela codificação dos dados de imagem do olho esquerdo e um pacote PES "PES2 de vídeo" de um fluxo contínuo de vídeo gerado pela codificação dos dados de imagem do olho direito são incluídos. Também, nesta configuração de exemplo, um pacote PES "PES3 de legenda" de um fluxo contínuo de legenda gerado pela codificação dos dados de legenda (incluindo informação de disparidade) e um pacote PES "PES4 de áudio" de um fluxo contínuo de áudio gerado pela codificação dos dados de áudio são incluídos.
Em uma área de dados do usuário de um fluxo contínuo de vídeo, SEI da informação de profundidade (depth information sei()) que inclui a primeira informação de disparidade e a segunda informação de disparidade para cada imagem parada foi inserida. Por exemplo, em um caso em que informação de disparidade para cada imagem parada é inserida em unidades de imagens paradas, a SEI da informação de profundidade é inserida em uma área de dados do usuário de cada imagem parada de um fluxo contínuo de vídeo. Também, por exemplo, em um caso em que informação de disparidade para cada imagem parada for inserida em unidades de GOPs, a SEI da informação de profundidade é inserida em uma área de dados do usuário de é uma imagem parada correspondente ao cabeçalho de um GOP de um fluxo — contínuo de vídeo ou em uma posição na qual informação do parâmetro de * sequência é inserida. Note que, embora a SEI da informação de profundidade seja inserida em ambos os fluxos contínuos de vídeo nesta configuração de exemplo, a SEI da informação de profundidade pode ser inserida em apenas um dos fluxos contínuos de vídeo. O fluxo contínuo de transporte TS inclui uma PMT (Tabela do Mapa de Programa) que serve como PSI (Informação Específica de
. 38 Ê. Programa). A PSI é informação que indica a qual programa cada fluxo : contínuo elementar incluído no fluxo contínuo de transporte TS pertence. Também, o fluxo contínuo de transporte TS inclui uma EIT (Tabela de i Informação de Evento) que serve como SI (Informação de Serviço) que S — gerencia unidades de evento.
Na PMT, existe um laço elementar com informação relacionada a cada fluxo contínuo elementar. Neste laço elementar, informação, tal como um identificador de pacote (PID), é localizada para cada fluxo contínuo, e, também, um descritor que descreve informação relacionada ao fluxo contínuo — elementar é localizado.
No supradescrito caso de inserção da informação de identificação que identifica se o fluxo contínuo de vídeo inclui ou não informação de disparidade (primeira informação de disparidade e segunda informação de disparidade) inserida em si, a informação de identificação é descrita, por exemplo, em um descritor inserido em um laço elementar de vídeo da tabela do mapa de programa. Este descritor é, por exemplo, um descritor de vídeo AVC existente (descritor de vídeo AVC), um descritor de extensão MVC (MVC extension descriptor) ou um descritor da informação de profundidade novamente definido (Depth info descriptor). Note que o descritor da informação de profundidade pode ser inserido na EIT, da forma indicada pelas linhas rompidas na imagem parada.
A figura 10(a) ilustra uma estrutura de exemplo (Sintaxe) de um descritor de vídeo AVC no qual informação de identificação é descrita. Este : descritor é aplicável em um caso em que vídeo for de um formato compatível com quadro MPEG-4 AVC. Este descritor já foi incluído no padrão H.264/AVC. Aqui, informação — do indicador — de 1 bit "depth info not existed flag [0]" é novamente definida neste descritor.
Da forma mostrada no conteúdo de definição (semântica) da figura 10(b), a informação do indicador indica se o correspondente fluxo — contínuo de vídeo inclui ou não, inserida em si, SEI da informação de profundidade (depth information sei()) que inclui a informação de
: 39 4 disparidade para cada imagem parada. Se a informação do indicador for "O", : isto indica que o fluxo contínuo de vídeo inclui a SEI da informação de profundidade. Por outro lado, se a informação do indicador for "1", isto indica que o fluxo contínuo de vídeo não inclui a SEI da informação de — profundidade.
A figura 11(a) ilustra uma estrutura de exemplo (Sintaxe) de um descritor de extensão MVC no qual a informação de identificação é descrita. Este descritor é aplicável em um caso em que vídeo for de um formato MPEG-4 AVC Anexo H MVC. Este descritor já foi incluído no padrão H264/AVC. Aqui, informação — do indicador — de a bit "depth info not existed flag" é novamente definida neste descritor.
Da forma mostrada no conteúdo de definição (semântica) na figura 11(b), a informação do indicador indica se o correspondente fluxo contínuo de vídeo inclui ou não, inserida em si, SEI da informação de profundidade (depth information sei) que inclui a informação de disparidade para cada imagem parada. Se a informação do indicador for "O", isto indica que o fluxo contínuo de vídeo inclui a SEI da informação de profundidade. Por outro lado, se a informação do indicador for "1", isto indica que o fluxo contínuo de vídeo não inclui a SEI da informação de — profundidade.
A figura 12(a) ilustra uma estrutura de exemplo (Sintaxe) de um descritor da informação de profundidade (Depth info descriptor). Um campo de 8 bits "descriptor tag" indica que este descritor é "depth info descriptor".
E Um campo de 8 bits "descriptor length" indica o número de bytes dos dados — subsequentes. Também, neste descritor, a informação do indicador de 1 bit * "depth info not existed flag" é descrita.
Da forma mostrada no conteúdo de definição (semântica) na figura 12(b), a informação do indicador indica se o correspondente fluxo contínuo de vídeo inclui ou não, inserida em si, SEI da informação de profundidade (depth information seif)) que inclui a informação de disparidade para cada imagem parada. Se a informação do indicador for "O",
* isto indica que o fluxo contínuo de vídeo inclui a SEI da informação de : profundidade. Por outro lado, se a informação do indicador for "1", isto indica que o fluxo contínuo de vídeo não inclui a SEI da informação de profundidade.
A seguir, será dada uma descrição do caso de inserção da SEI da informação de profundidade (depth information sei()) que inclui a informação de disparidade para cada imagem parada em uma área de dados do usuário de um fluxo contínuo de vídeo.
Por exemplo, em um caso em que o esquema de codificação for AVC, "depth information sei" é inserido como "mensagem SEI depth information" na parte das "SEls" de uma unidade de acesso. A figura 13(a) ilustra uma unidade de acesso no cabeçalho de um GOP (Grupo De Imagens paradas) e a imagem parada 13(b) ilustra uma unidade de acesso na posição diferente do cabeçalho de um GOP. Em um caso em que informação de disparidade para cada imagem parada for inserida em unidades de GOPs, "mensagem SEI depth information" é inserida apenas na unidade de acesso no cabeçalho de um GOP.
A figura 14(a) ilustra uma estrutura de exemplo (Sintaxe) da "mensagem SEI depth information". "uuid iso iec 11578" tem um valor UUID indicado por "ISO/IEC 11578:1996 AnnexA.". "depth information sei data()" é inserido no campo "under data payload byte". À figura 14(b) ilustra uma estrutura de exemplo (Sintaxe) de "depth information sei data". A SEI da informação de F profundidade (depth information sei()) é inserida. "userdata id' é um identificador de "depth information sei()" representado por 16 bits não assinalados.
Cada uma da figura 15, da figura 16 e da figura 17 ilustra uma estrutura de exemplo (Sintaxe) de "depth information sei()" no caso de inserção da informação de disparidade para cada imagem parada em unidades de imagens paradas. A figura 18 ilustra o conteúdo (Semântica) da informação principal nestas estruturas de exemplo.
g 41 . A figura 15 ilustra uma estrutura de exemplo (Sintaxe) : correspondente ao supradescrito método de obtenção (1) "primeira informação de disparidade sobre cada uma das áreas particionadas, que são í obtidas pelo particionamento de uma tela de exibição da imagem parada usando a informação de partição, é obtida, e segunda informação de disparidade sobre a íntegra da tela de exibição da imagem parada é obtida". Um campo de 3 bits "partition type" indica o tipo de partição de uma tela de exibição da imagem parada. "000" indica que a tela de exibição da imagem parada não é particionada, "001" indica que a tela de exibição da imagem — parada é particionada em duas áreas iguais em cada uma da direção horizontal e da direção vertical, e "010" indica que a tela de exibição da imagem parada é particionada em quatro áreas iguais em cada uma da direção horizontal e da direção vertical.
Um campo de 4 bits "partition count" indica o número total de áreas particionadas (Partições), que é um valor dependente no supradescrito "partition type". Por exemplo, em um caso em que "partition type = 000", o número total de áreas particionadas (Partições) é "1", da forma ilustrada na figura 19(a). Também, por exemplo, em um caso em que "partition type = 001", o número total de áreas particionadas (Partições) é "4", da forma ilustrada na figura 19(b). Também, por exemplo, em um caso em que "partition type = 010", o número total de áreas particionadas (Partições) é "16", da forma ilustrada na figura 19(c). Um campo de 8 bits "max disparity in picture" indica a : segunda informação de disparidade sobre a íntegra da tela de exibição da imagem parada, isto é, a máxima informação de disparidade (valor da * disparidade) sobre a íntegra da imagem parada.
Um campo de 8 bits "min disparity in partition" indica a primeira informação de disparidade sobre cada área particionada (Partição), isto é, a informação de disparidade mínima (valor da disparidade) sobre cada área particionada.
A figura 16 ilustra uma estrutura de exemplo (Sintaxe) correspondente ao supradescrito método de obtenção (2) "primeira
. informação de disparidade e segunda informação de disparidade sobre cada j uma das áreas particionadas, que são obtidas pelo particionamento de uma tela de exibição da imagem parada usando a informação de partição, são : obtidas". Na figura 16, uma descrição das partes correspondentes àquelas da figural5é omitida conforme apropriado.
Um campo de 3 bits "partition type" indica o tipo de partição da tela de exibição da imagem parada. Um campo de 4 bits "partition count" indica o número total de áreas particionadas (Partições), que é um valor dependente no supradescrito "partition type". Um campo de 8 bits "max disparity in partition" indica segunda informação de disparidade sobre cada área particionada (Partição), isto é, a máxima informação de disparidade (valor da disparidade) sobre cada área particionada. Um campo de 8 bits "min disparity in partition" indica a primeira informação de disparidade sobre cada área particionada (Partição), isto é, a informação de disparidade mínima (valor da disparidade) sobre cada área particionada.
A figura 17 ilustra uma estrutura de exemplo (Sintaxe) correspondente ao supradescrito método de obtenção (3) "primeira informação de disparidade sobre cada uma das áreas particionadas, que são obtidas pelo particionamento de uma tela de exibição da imagem parada — usando a primeira informação de partição, é obtida, e segunda informação de disparidade sobre cada uma das áreas particionadas, que são obtidas pelo particionamento da tela de exibição da imagem parada usando a segunda informação de partição, é obtida". Na figura 17, uma descrição das partes correspondentes àquelas da figura 15 e da figura 16 é omitida conforme apropriado.
- Um campo de 3 bits "partition type" indica o tipo de partição da tela de exibição da imagem parada considerando a obtenção da primeira informação de disparidade. Um campo de 4 bits "min partition count" indica o número total de áreas particionadas (Partições) nas quais a primeira informação de disparidade é obtida, que é um valor dependente no supradescrito "partition type". Um campo de 8 bits
. "min disparity in partition" indica a primeira informação de disparidade k sobre cada área particionada (Partição), isto é, a informação de disparidade mínima (valor da disparidade) sobre cada área particionada. É Um campo de 4 bits "max partition count" indica o número total de áreas particionadas (Partições) nas quais a segunda informação de disparidade é obtida. Um campo de 8 bits "max disparity in partition" indica a segunda informação de disparidade sobre cada área particionada (Partição), isto é, a máxima informação de disparidade (valor da disparidade) sobre cada área particionada.
Cada uma da figura 20, da figura 21 e da figura 22 ilustra uma estrutura de exemplo (Sintaxe) de "depth information sei()" no caso de codificação coletiva de uma pluralidade de imagens paradas, tal como o caso de inserção da informação de disparidade para cada imagem parada em unidades de GOPs. A figura 18 ilustra o conteúdo (Semântica) de informação principal nestas estruturas de exemplo.
A figura 20 ilustra uma estrutura de exemplo (Sintaxe) correspondente ao supradescrito método de obtenção (1) "primeira informação de disparidade sobre cada uma das áreas particionadas, que são obtidas pelo particionamento de uma tela de exibição da imagem parada usando a informação de partição, é obtida, e segunda informação de disparidade sobre a íntegra da tela de exibição da imagem parada é obtida". Na figura 20, uma descrição detalhada das partes correspondentes àquelas da figura 15 é omitida conforme apropriado.
Um campo de 6 bits "picture count" indica o número de imagens paradas. A "depth information sei()" inclui partes da primeira informação de disparidade e da segunda informação de disparidade, cujo número corresponde ao número de imagens paradas. Um campo de 4 bits "partition count" indica o número total de áreas particionadas (Partições). Um campo de 8 bits "max disparity in picture" indica a segunda informação — de disparidade sobre a íntegra da tela de exibição da imagem parada, isto é, a máxima informação de disparidade (valor da disparidade) sobre a íntegra da
E 44 7 imagem parada. Um campo de 8 bits "min disparity in partition" indica a & primeira informação de disparidade sobre cada área particionada (Partição), isto é, a informação de disparidade mínima (valor da disparidade) sobre cada : área particionada. Embora uma descrição detalhada seja omitida, a outra parte — da estrutura de exemplo ilustrada na figura 20 é igual à estrutura de exemplo ilustrada na figura 15.
A figura 21 ilustra uma estrutura de exemplo (Sintaxe) correspondente ao supradescrito método de obtenção (2) "primeira informação de disparidade e segunda informação de disparidade sobre cada uma das áreas particionadas, que são obtidas pelo particionamento de uma tela de exibição da imagem parada usando a informação de partição, são obtidas". Na figura 21, uma descrição das partes correspondentes àquelas da figura 16 e da figura 20 é omitida conforme apropriado.
Um campo de 6 bits "picture count" indica o número de imagens paradas. O "depth information sei()" inclui partes da primeira informação de disparidade e da segunda informação de disparidade, cujo número corresponde ao número de imagens paradas. Um campo de 4 bits "partition count" indica o número total de áreas particionadas (Partições). Um campo de 8 bits "max disparity in partition" indica a segunda informação de disparidade sobre cada área particionada (Partição), isto é, a máxima informação de disparidade (valor da disparidade) sobre cada área particionada. Um campo de 8 bits "min disparity in partition" indica a primeira informação de disparidade sobre cada área particionada (Partição), : isto é, a informação de disparidade mínima (valor da disparidade) sobre cada — área particionada. Embora uma descrição detalhada seja omitida, a outra parte h da estrutura de exemplo da figura 21 é igual à estrutura de exemplo ilustrada na figura 16.
A figura 22 ilustra uma estrutura de exemplo (Sintaxe) correspondente ao supradescrito método de obtenção (3) "primeira informação de disparidade sobre cada uma das áreas particionadas, que são obtidas pelo particionamento de uma tela de exibição da imagem parada é 45 G usando a primeira informação de partição, é obtida, e segunda informação de . disparidade sobre cada uma das áreas particionadas, que são obtidas pelo particionamento da tela de exibição da imagem parada usando a segunda informação de partição, é obtida". Na figura 22, uma descrição das partes — correspondentes àquelas da figura 17, da figura 20 e da figura 21 é omitida conforme apropriado.
Um campo de 6 bits "picture count" indica o número de imagens paradas. A "depth information sei()" inclui partes da primeira informação de disparidade e da segunda informação de disparidade, cujo número — corresponde ao número de imagens paradas. Um campo de 4 bits "min partition count" indica o número total de áreas particionadas (Partições) nas quais a primeira informação de disparidade é obtida e um campo de 4 bits "max partition count" indica o número total de áreas particionadas (Partições) nas quais a segunda informação de disparidade é obtida.
Um campo de 8 bits "min disparity in partition" indica a primeira informação de disparidade sobre cada área particionada (Partição), isto é, a informação de disparidade mínima (valor da disparidade) sobre cada área particionada. Um campo de 8 bits "max disparity in partition" indica a — segunda informação de disparidade sobre cada área particionada (Partição), isto é, a máxima informação de disparidade (valor da disparidade) sobre cada área particionada. Embora uma descrição detalhada seja omitida, a outra parte da estrutura de exemplo ilustrada na figura 22 é igual à estrutura de exemplo À! ilustrada na figura 17.
258 Foi dada anteriormente uma descrição do caso em que o esquema . de codificação é AVC. Por exemplo, em um caso em que o esquema de codificação for MPEG-2 vídeo, "depth information sei()" é inserida como dados do usuário "user data()" em uma área de dados do usuário de uma parte de cabeçalho da imagem parada. A figura 23(a) ilustra uma estrutura de exemplo (Sintaxe) de "user data". Um campo de 32 bits "user data start code" é um código de início dos dados do usuário
: 46 . (user data), que é um valor fixo "0x000001B2". . O campo de 32 bits subsequente ao código de início é um identificador para identificar o conteúdo dos dados do usuário. Aqui, o É identificador é "depth information sei data identifier", que habilita os dados — do usuário a serem identificados como "depth information sei data". Como um corpo de dados depois do identificador, "depth information sei data()" é inserido. A figura 23(b) ilustra uma estrutura de exemplo (Sintaxe) de "depth information sei data()". "depth information sei()" é inserida (veja a figura 15 até a figura 17 e a figura 20 até a figura 22).
Foi dada uma descrição de um exemplo de inserção da informação de disparidade em um fluxo contínuo de vídeo em um caso em que o esquema de codificação for AVC ou MPEG-2 vídeo. Embora uma descrição detalhada seja omitida, informação de disparidade pode ser inserida em um fluxo contínuo de vídeo usando uma estrutura similar também em um outro esquema de codificação com uma estrutura similar, tal como HEVC. "Uma outra configuração de exemplo da unidade de geração dos dados de transmissão" Considerando a supradescrita unidade de geração dos dados de transmissão 110 ilustrada na figura 8, um exemplo de inserção da informação — de disparidade (primeira informação de disparidade e segunda informação de disparidade) para cada imagem parada gerada pela unidade de geração dos dados de disparidade 115 em um fluxo contínuo de vídeo como está foi descrito. Entretanto, a informação de disparidade para cada imagem parada E pode ser inserida em um fluxo contínuo de vídeo depois que a quantidade de — dados deste foi reduzida pela realização de um processo de codificação de * compressão.
A figura 24 ilustra uma configuração de exemplo de uma unidade de geração dos dados de transmissão 110A neste caso. Na figura 24, as partes correspondentes àquelas da figura 8 são denotadas pelos mesmos números de referência, ea descrição detalhada destas é omitida. A unidade de geração dos dados de transmissão 110A inclui uma unidade de codificação de compressão
. 120. A unidade de codificação de compressão 120 realiza um processo de codificação de compressão na informação de disparidade (primeira informação de disparidade e segunda informação de disparidade) para cada i imagem parada gerada pela unidade de geração dos dados de disparidade 115, — parareduzira quantidade de dados.
A unidade de codificação de compressão 120 realiza, por exemplo, um processo que usa um código de comprimento variável como um processo de codificação de compressão. O codificador de vídeo 113 insere informação de disparidade (primeira informação de disparidade e segunda informação de disparidade) para cada imagem parada que passou por codificação de compressão realizada pela unidade de codificação de compressão 120 em um fluxo contínuo de vídeo. As outras partes da unidade de geração dos dados de transmissão 110A ilustrada na figura 24 são configuradas similarmente à unidade de geração dos dados de transmissão 110 ilustrada na figura 8, e operam de uma maneira similar.
A figura 25 ilustra um exemplo de uma configuração esquemática da unidade de codificação de compressão 120. A unidade de codificação de compressão 120 inclui um armazenamento temporário 121, um subtrator 122 e uma unidade de codificação de comprimento variável 122. O — armazenamento temporário 121 armazena temporariamente a informação de disparidade para cada imagem parada inserida em si. O subtrator 122 obtém dados da diferença entre as imagens paradas. A unidade de codificação de comprimento variável 122 realiza codificação de comprimento variável. A unidade de codificação de comprimento variável 120 usa, como um código de comprimento variável, "Exp-Golomb code se(v)" ilustrado na imagem parada . 26, por exemplo, mas um outro código de comprimento variável também pode ser usado.
A unidade de codificação de compressão 120 realiza um processo de codificação de compressão de acordo com cada um de um tipo de não — previsão ou de um tipo de previsão. Primeiro, um processo de codificação de compressão de um tipo de não previsão será descrito. Neste caso, a unidade a de processamento de codificação 120 realiza codificação de comprimento variável na informação de disparidade para cada imagem parada inserida em si. Assim, no processo de codificação de compressão do tipo de não previsão, - na unidade de codificação de compressão 120 ilustrada na figura 25, a — informação de disparidade para cada imagem parada inserida em si é suprida como está na unidade de codificação de comprimento variável 123.
A figura 27 ilustra o caso apenas do tipo de não previsão, em que previsão não é realizada. A figura 27(a) ilustra um exemplo da ordem de exibição das fatias de vídeo das imagens paradas 1, imagens paradas P e — imagens paradas B. A informação de disparidade para cada imagem parada (representada por "SEI" na imagem parada) existe para cada fatia de vídeo. À imagem parada 27(b) ilustra a ordem de decodificação (ordem de codificação) de cada imagem parada. A informação de disparidade para cada imagem parada passa por codificação de comprimento variável como está, isto é, no estado de intradados (representado por "Intra" na imagem parada).
No caso do tipo de não previsão, previsão de SEI não é realizada e, assim, é necessário realizar armazenamento temporário da SEI em unidades das unidades de acesso. Entretanto, já que previsão de SEI não é realizada, a eficiência da codificação é inferior ao caso de realização da previsão.
A seguir, um processo de codificação de compressão de um tipo de previsão será descrito. Neste caso, na unidade de processamento de codificação 120, dentre as partes de informação de disparidade para imagens paradas individuais nela inseridas, dados da diferença entre as imagens paradas de referência e as imagens paradas referenciadas são obtidos, e — codificação de comprimento variável é realizada nos dados da diferença.
' Assim, no processo de codificação de compressão do tipo de previsão, na unidade de codificação de compressão 120 ilustrada na imagem parada 25, dados da diferença entre as imagens paradas de referência e as imagens paradas referenciadas são obtidos pelo subtrator 122 e são supridos à unidade — de codificaçãode comprimento variável 123.
Como o tipo de previsão, o tipo de referência previsivelmente à
: 49 - SEI na ordem de exibição (tipo de previsão 0) pode ser usado. A figura 28 ilustra o caso do tipo de previsão 0. A figura 28(a) ilustra um exemplo da ordem de exibição das fatias de vídeo das imagens paradas 1, imagens paradas P e imagens paradas B. Na imagem parada, uma seta indica um alvo de previsão no momento da realização da previsão. Informação de disparidade para cada imagem parada (representada por "SEI" na imagem parada) existe para cada fatia de vídeo.
A figura 28(b) ilustra a ordem de decodificação (ordem de codificação) de cada imagem parada. Considerando a informação de — disparidade para cada imagem parada, a informação de disparidade para uma imagem parada I passa por codificação de comprimento variável como está, isto é, no estado de intradados (representado por "Intra" na imagem parada). Considerando a informação de disparidade para uma imagem parada B e uma imagem parada P, que seguem a imagem parada |, a imagem parada imediatamente precedente na ordem de exibição é considerada como uma imagem parada referenciada e dados da diferença são obtidos (representado por "Delta" na imagem parada), e os dados da diferença passam por codificação de comprimento variável. Na figura 28(b), a seta proveniente de cada imagem parada indica a imagem parada referenciada à qual a imagem — parada diz respeito.
No caso do tipo de previsão 0, previsão de SEI é realizada na ordem de exibição e, assim, o valor dos dados da diferença pode ser suprimido para ficar pequeno e a eficiência da codificação pode ser . maximizada. Entretanto, a ordem de previsão de SEI não corresponde à ordem de codificação de vídeo e, assim, é necessário para manter SEI . armazenada no armazenamento temporário. Além do mais, isto não é adequado para reprodução especial, tal como ignorar B.
Também, o tipo de referência previsivelmente à SEI na ordem de decodificação pode ser usado como o tipo de previsão. Adicionalmente, como estetipo de previsão, o tipo de realização de previsão de SEI em conjunto com um tipo de imagem parada de vídeo (tipo de previsão 1) pode ser usado.
E 50 . A figura 29 ilustra o caso do tipo de previsão 1. A figura 29(a) ilustra um . exemplo da ordem de exibição das fatias de vídeo das imagens paradas 1, das imagens paradas P e das imagens paradas B.
A informação de disparidade õ para cada imagem parada (representada por "SEI" na imagem parada) existe — paracada fatia de vídeo.
A figura 29(b) ilustra a ordem de decodificação das imagens paradas individuais.
A informação de disparidade para uma imagem parada I passa por codificação de comprimento variável como está, isto é, no estado de intradados (representado por "Intra" na imagem parada). Considerando a informação de disparidade para uma imagem parada B e uma imagem parada P, que seguem a imagem parada 1, uma imagem parada com um tipo de imagem parada de vídeo é considerada como uma imagem parada referenciada na ordem de decodificação, e dados da diferença (representados por "Delta" na imagem parada) são obtidos, e os dados da diferença passam por codificação de comprimento variável.
Na figura 29(b), a seta proveniente de cada imagem parada indica a imagem parada referenciada à qual a imagem parada diz respeito.
No caso do tipo de previsão 1, a ordem de previsão de SEI corresponde à ordem de codificação de vídeo, incluindo o tipo de imagem — parada do vídeo.
Isto é adequado para codificação ao vivo, e é adaptável à reprodução especial, tal como ignorar B.
Entretanto, previsão de SEI é realizada em uma pluralidade de quadros e, assim, a eficiência da codificação pode ser inferior àquela do supradescrito tipo de previsão 0. . Também, como o tipo de previsão, o tipo de referência — previsivelmente à SEI na ordem de decodificação e de referência à SEI que é ' decodificada de forma imediatamente prévia (tipo de previsão 2) pode ser usado.
A figura 30 ilustra o caso do tipo de previsão 2. A figura 30(a) ilustra um exemplo da ordem de exibição das fatias de vídeo das imagens paradas 1, das imagens paradas P e das imagens paradas B.
A informação de disparidade — para cada imagem parada (representada por "SEI" na imagem parada) existe para cada fatia de vídeo.
: S1 “ A figura 30(b) ilustra a ordem de decodificação (ordem de o codificação) de cada imagem parada. A informação de disparidade para uma imagem parada I passa por codificação de comprimento variável como está, é isto é, no estado de intradados (representado por "Intra" na imagem parada). — Considerando a informação de disparidade para uma imagem parada B e uma imagem parada P, que seguem a imagem parada |, a imagem parada imediatamente precedente na ordem de decodificação é considerada como uma imagem parada referenciada e dados da diferença (representados por "Delta" na imagem parada) são obtidos, e os dados da diferença passam por — codificação de comprimento variável. Na figura 30(b), a seta proveniente de cada imagem parada indica a imagem parada referenciada à qual a imagem parada diz respeito. No caso do tipo de previsão 2, a ordem de previsão de SEI corresponde à ordem de codificação de vídeo, mas a previsão de SEI não — depende do tipo de imagem parada do vídeo. Isto é adequado para codificação ao vivo, mas a previsão de SEI é realizada em uma pluralidade de quadros e, assim, a eficiência da codificação pode ser inferior àquela do supradescrito tipo de previsão 0. Também, como o tipo de previsão, o tipo de referência — previsivelmente à SEI na ordem de decodificação, realização da previsão de SEI com um tipo de imagem parada de vídeo e transmissão da informação de disparidade apenas para imagens paradas referenciadas, tais como uma imagem parada | e uma imagem parada P (tipo de previsão 3), pode ser usado. . A figura 31 ilustra o caso do tipo de previsão 3. A figura 31(a) ilustra um — exemplo da ordem de exibição das fatias de vídeo das imagens paradas 1, das " imagens paradas P e das imagens paradas B. A informação de disparidade para cada imagem parada (representada por "SEI" na imagem parada) existe para cada fatia de vídeo.
A figura 31(b) ilustra a ordem de decodificação das imagens — paradas individuais. A informação de disparidade para uma imagem parada 1 passa por codificação de comprimento variável como está, isto é, no estado de
: 52 . intradados (representado por "Intra" na imagem parada) Também, E considerando a informação de disparidade para uma imagem parada P, e uma imagem parada B referenciada (não ilustrada) que segue a imagem parada |, i uma imagem parada com um tipo de imagem parada de vídeo é considerada como uma imagem parada referenciada na ordem de decodificação, e dados da diferença (representados por "Delta" na imagem parada) são obtidos, e os dados da diferença passam por codificação de comprimento variável. Na imagem parada 31(b), a seta proveniente de cada imagem parada indica a imagem parada referenciada à qual a imagem parada diz respeito. À informação SEI para uma imagem parada na qual a informação SEI não é codificada (imagem parada B) é interpolada por um decodificador usando duas partes de informação SEI codificadas pelas imagens paradas referenciadas precedentes e subsequentes na ordem de exibição. No caso do tipo de previsão 3, a ordem de previsão de SEI corresponde à ordem de codificação de vídeo, incluindo o tipo de imagem parada do vídeo. Isto é adequado para codificação ao vivo, e é adaptável à reprodução especial, tal como ignorar B. A informação de disparidade apenas para imagens paradas referenciadas, tais como uma imagem parada 1, uma imagem parada P e uma imagem parada B referenciada, é codificada e transmitida e, assim, a eficiência da codificação aumenta. Entretanto, previsão de SEI é realizada em uma pluralidade de quadros e, assim, a eficiência da codificação é inferior àquela do supradescrito tipo de previsão O. Adicionalmente, informação SEI não codificada é interpolada e é alocada em z cada imagem parada e, assim, é necessário apresentar claramente o número de — imagens paradas correspondente a uma distância no tempo até a imagem ; parada para a qual informação de disparidade é prevista.
No caso de transmissão de um fluxo contínuo de vídeo AVC (compatível com quadro, ou MVC) usando um contêiner MPEG2-TS, um AUD (Delimitador de Unidade de Acesso) é anexado no cabeçalho de cada unidade de acesso. A informação de um AUD é "primary pic type", e é representada por um valor "primary pic type = 1" no caso de I ou P. Isto
& 53 à significa que a correspondente unidade de acesso (normalmente, 1 imagem ã parada) é uma imagem parada referenciada.
A ordem de pacote do vídeo é constituída por "AUD"-"SPS"-"PPS"-"SEI"-"Fatia". Portanto, o decodificador usa a informação de um AUD a fim de decodificar corretamente a informação S —sobreo conteúdo da SEI antes da decodificação de "Fatia". Note que, no caso de AVC, imagens paradas referenciadas incluem uma imagem parada B referenciada, bem como uma imagem parada I e uma imagem parada P, como exposto.
No caso do supradescrito tipo de previsão 3, a informação de — disparidade apenas para imagens paradas referenciadas, tais como uma imagem parada 1, uma imagem parada P e uma imagem parada B referenciada, é codificada e transmitida.
Assim, em um lado do decodificador (lado de recepção), a informação de disparidade para uma imagem parada cuja informação de disparidade não é transmitida é obtida pelo uso, por exemplo, de interpolação com base na informação de disparidade para as imagens paradas precedentes e subsequentes.
Por exemplo, na imagem parada 31(b), a informação de disparidade para imagens paradas correspondentes a Bl e B2 é obtida com base na informação de disparidade transmitida por "SEIO" e "SEI3". Em um caso em que um valor de interpolação for uma — fração decimal, um decodificador (receptor) compatível com "disparidade de subpixel" é capaz de realizar atualização dinâmica de uma posição de exibição de elementos gráficos mais uniformemente.
Cada uma da figura 32, da figura 33 e da figura 34 ilustra uma . estrutura de exemplo (Sintaxe) de "depth information sei()" no caso de — inserção da informação de disparidade codificada com compressão para cada imagem parada em unidades de imagens paradas.
A figura 18 ilustra o conteúdo (Semântica) da informação principal nestes exemplos de estruturas.
Embora uma descrição detalhada seja omitida, estas estruturas de exemplo são iguais às supradescritas estruturas de exemplo (Sintaxe) ilustradas na figura 15, na figura 16 e na figura 17, exceto em que a informação de disparidade passou por codificação de compressão.
- 54 , Cada uma da figura 35, da figura 36 e da figura 37 ilustra uma : estrutura de exemplo (Sintaxe) de "depth information sei()" no caso de codificação coletiva de uma pluralidade de imagens paradas, como no caso de inserção da informação de disparidade codificada com compressão para cada imagem parada em unidades de GOPs. A figura 18 ilustra o conteúdo (Semântica) da informação principal nestas estruturas de exemplo. Embora uma descrição detalhada seja omitida, estas estruturas de exemplo são iguais às supradescritas estruturas de exemplo (Sintaxe) ilustradas na figura 20, na figura 21 e na figura 22, exceto em que a informação de disparidade passou —porcodificação de compressão.
A figura 38 ilustra uma estrutura de exemplo (Sintaxe) de "depth information sei()" que é aplicável no caso do tipo de previsão 3. A figura 18 ilustra o conteúdo (Semântica) da informação principal na estrutura de exemplo. Um campo "picture count for skipping" indica o número de imagens paradas até uma imagem parada precedente referenciada com a qual a informação de disparidade é prevista. Note que a informação neste campo pode ser inserida depois que a codificação de comprimento variável foi realizada nas inúmeras imagens paradas usando, por exemplo, "Exp-Golomb code ue(v)" ilustrado na figura 39. A informação do indicador de 1 bit "partition enabled flag" indica se a tela é particionada ou não. Quando a informação do indicador for "1", isto indica que a tela de exibição da imagem parada é particionada. Quando a informação do indicador for "O", isto indica que a tela não é : particionada. A informação do indicador habilita um lado de recepção a — determinar facilmente se informação de disparidade transmitida corresponde à íntegra da tela de exibição da imagem parada ou a cada uma de uma pluralidade de áreas particionadas. Note que, nas supradescritas estruturas de exemplo individuais (Sintaxe) ilustradas na figura 15 até na figura 17, na figura 20 até na figura 22 ena figura32 até na figura 37, o campo de 3 bits "partition type" pode ser substituído com a informação do indicador de 1 bit "partition enabled flag".
: 55 . Alternativamente, o campo de 3 bits "partition type" pode ser tratado como . informação do indicador similar a "partition enabled flag". Neste caso, quando qualquer um dos 3 bits for "1", isto indica que a tela de exibição da É imagem parada é particionada. Quando todos os 3 bits forem "O", isto indica —queatelanão é particionada.
Novamente em relação à figura 38, a informação do indicador de 1 bit "Intra disparity flag" indica se o valor da informação de disparidade (disparidade) é ou não um valor tipo não previsão (intradados). Quando a informação do indicador for "1", isto indica que o valor da informação de — disparidade é um valor tipo não previsão (intradados). Quando a informação do indicador for "O", isto indica que valor da informação de disparidade é valor tipo previsão (dados da diferença). Além do mais, também nas supradescritas estruturas de exemplo individuais (Sintaxe) ilustradas na figura 32 até na figura 37, a informação do indicador de 1 bit "Intra disparity flag" — pode ser adicionalmente adicionada. Neste caso, um lado de recepção é capaz de determinar facilmente se a informação de disparidade inserida compreende intradados ou dados da diferença. Um campo de 4 bits "partition count" indica o número total de áreas particionadas (Partições). Um campo "max disparity in partition" indica a segunda informação de disparidade sobre cada área particionada (Partição), isto é, a máxima informação de disparidade (valor da disparidade) sobre cada área particionada. Um campo "min disparity in partition" indica a primeira informação de disparidade sobre cada área particionada (Partição), : isto é, a informação de disparidade mínima (valor da disparidade) sobre cada — área particionada.
A estrutura de exemplo (Sintaxe) de "depth information sei()" ilustrada na figura 38 corresponde à estrutura de exemplo (Sintaxe) de "depth information sei()" ilustrada na figura 32. Embora a ilustração seja omitida, as estruturas correspondentes às estruturas de exemplo (Sintaxe) de "depth information sei()" ilustradas na figura 33 até na figura 37 podem ser similarmente consideradas. Também, em vez da estrutura de exemplo
É 56 : (Sintaxe) de "depth information sei()" ilustrada na figura 38, a estrutura de s exemplo (Sintaxe) de "depth information sei()" ilustrada na figura 40 pode ser usada. Neste caso, o campo de 3 bits "partition type" é tratado como : informação do indicador similar, por exemplo, a "partition enabled flag". "Descrição do receptor / decodificador integrado" O receptor / decodificador integrado 200 recebe um fluxo contínuo de transporte TS que é transmitido por ondas de difusão a partir da estação de difusão 100. Também, o receptor / decodificador integrado 200 decodifica um fluxo contínuo de vídeo incluído no fluxo contínuo de — transporte TS, e gera dados de imagem do olho esquerdo e dados de imagem do olho direito que formam uma imagem estéreo. Também, o receptor / decodificador integrado 200 extrai informação de disparidade (primeira informação de disparidade e segunda informação de disparidade) para cada imagem parada dos dados de imagem que foi inserida no fluxo contínuo de vídeo.
O receptor / decodificador integrado 200 verifica, com base na primeira informação de disparidade e na segunda informação de disparidade, se um ângulo de disparidade em relação à posição de reprodução do objeto mais próxima (um ângulo de disparidade em uma direção cruzada) e um ângulo de disparidade em relação à posição de reprodução do objeto mais distante (um ângulo de disparidade em uma direção para o mesmo lado) estão ou não em uma certa faixa na qual visualização não ocasiona nenhum problema de saúde. Então, se os ângulos de disparidade estiverem fora da n certa faixa, o receptor / decodificador integrado 200 reconfigurada os dados — deimagem do olho esquerdo e os dados de imagem do olho direito, de forma À que os ângulos de disparidade fiquem na certa faixa, e corrige a primeira informação de disparidade e a segunda informação de disparidade.
Também, no caso da exibição de elementos gráficos (elementos gráficos do STB) em uma imagem de uma maneira sobreposta, o receptor / — decodificador integrado 200 obtém os dados de uma imagem do olho esquerdo e de uma imagem do olho direito nos quais elementos gráficos são
: 57 $ sobrepostos, pelo uso dos dados de imagem, da informação de disparidade . (primeira informação de disparidade) e dos dados de elementos gráficos. Neste caso, o receptor / decodificador integrado 200 proporciona disparidade À correspondente à posição de exibição dos elementos gráficos aos elementos —gráficosa serem sobrepostos na imagem do olho esquerdo e na imagem do olho direito em unidades de imagens paradas, desse modo, obtendo os dados da imagem do olho esquerdo nos quais elementos gráficos são sobrepostos e os dados da imagem do olho direito nos quais elementos gráficos são sobrepostos.
Em decorrência do proporcionamento de disparidade aos elementos — gráficos da maneira supradescrita, os elementos gráficos (elementos gráficos do STB) exibidos em uma imagem estéreo de uma maneira sobreposta podem ser exibidos na frente de um objeto em uma imagem estéreo na posição de exibição. Desta maneira, no caso da exibição de elementos gráficos de OSD, uma aplicação, EPG da informação de programa ou congêneres em uma imagem de uma maneira — sobreposta, consistência de perspectiva para objetos individuais na imagem pode ser mantida.
A figura 41 ilustra um conceito de controle da profundidade dos elementos gráficos usando a informação de disparidade. Em um caso em que informação de disparidade for um valor negativo, disparidade é proporcionada de forma que elementos gráficos para exibição ao olho esquerdo sejam deslocados para o lado direito e elementos gráficos para exibição ao olho direito sejam deslocados para o lado esquerdo em uma tela. Neste caso, a posição de exibição dos elementos gráficos é na frente da tela. Por outro lado, z em um caso em que informação de disparidade for um valor positivo, — disparidade é proporcionada de forma que elementos gráficos para exibição ' ao olho esquerdo sejam deslocados para o lado esquerdo e elementos gráficos para exibição ao olho direito sejam deslocados para o lado direito na tela. Neste caso, a posição de exibição dos elementos gráficos é atrás da tela.
Da forma supradescrita, o fluxo contínuo de vídeo inclui, inserida emsi,ainformação de disparidade obtida para cada imagem parada dos dados de imagem. Assim, o receptor / decodificador integrado 200 é capaz de ç 58 : controlar precisamente a profundidade dos elementos gráficos com base na . informação de disparidade pelo uso da informação de disparidade sincronizada com o sincronismo de exibição dos elementos gráficos.
Também, a figura 41 ilustra um ângulo de disparidade na direção —parao mesmo lado (890 -62)e um ângulo de disparidade na direção cruzada (90 - 01). No receptor / decodificador integrado 200, é verificado se estes ângulos de disparidade estão ou não na certa faixa na qual visualização não ocasiona nenhum problema de saúde, com base na primeira informação de disparidade e na segunda informação de disparidade para cada imagem parada inserida no fluxo contínuo de vídeo.
A figura 42 ilustra um exemplo de um caso em que um fluxo contínuo de vídeo inclui a informação de disparidade inserida em si em unidades de imagens paradas. No receptor / decodificador integrado 200, partes de informação de disparidade são sequencialmente obtidas em — sincronismos de imagem parada dos dados de imagem. Para exibir elementos gráficos, a informação de disparidade (primeira informação de disparidade) correspondente ao sincronismo de exibição dos elementos gráficos é usada, e disparidade apropriada é proporcionada aos elementos gráficos. Também, a figura 43 ilustra, por exemplo, um exemplo de um caso em que um fluxo — contínuo de vídeo inclui a informação de disparidade inserida em si em unidades de GOPs. No receptor / decodificador integrado 200, no sincronismo do cabeçalho de cada GOP dos dados de imagem, partes de informação de disparidade (conjunto da informação de disparidade) para imagens paradas , individuais no GOP são coletivamente obtidas. Para exibir elementos gráficos — (elementos gráficos do STB), a informação de disparidade (primeira ] informação de disparidade) correspondente ao sincronismo de exibição dos elementos gráficos é usada e disparidade apropriada é proporcionada aos elementos gráficos.
"Vista Lateral" na figura 44(a) ilustra um exemplo de exibição de um texto explicativo (legenda) e elementos gráficos OSD em uma imagem. Neste exemplo de exibição, um texto explicativo e elementos gráficos são
- sobrepostos em uma imagem formada por um plano de fundo, um objeto no E plano médio e um objeto em primeiro plano. "Vista de Topo" na figura 44(b) ilustra a perspectiva do plano de fundo, do objeto no plano médio, do objeto : em primeiro plano, do texto explicativo e dos elementos gráficos. A figura —A44(b)ilustraque o texto explicativo e os elementos gráficos são percebidos na frente dos objetos correspondentes à posição de exibição. Note que, embora não ilustrado, em um caso em que as posições de exibição do texto explicativo e dos elementos gráficos se sobrepuserem, disparidade apropriada é proporcionada aos elementos gráficos, de forma que os elementos gráficos — sejam percebidos na frente do texto explicativo, por exemplo.
"Configuração de exemplo do receptor / decodificador integrado" A figura 45 ilustra uma configuração de exemplo do receptor / decodificador integrado 200. O receptor / decodificador integrado 200 inclui um armazenamento temporário de contêiner 211, um demultiplexador 212, um armazenamento temporário codificado 213, um decodificador de vídeo 214, um armazenamento temporário decodificado 215, um escalímetro 216, uma unidade de reconfiguração L/R 263 e uma unidade de sobreposição 217. Também, o receptor / decodificador integrado 200 inclui uma unidade de decodificação de compressão 261, um armazenamento temporário da informação de disparidade 218, uma unidade de controle da informação de disparidade 262, uma unidade de geração de elementos gráficos do receptor / decodificador integrado (STB) 219, uma unidade de controle da profundidade 220 e um armazenamento temporário de elementos gráficos 221. . Também, o receptor / decodificador integrado 200 inclui um — armazenamento temporário codificado 231, um decodificador de legenda 232, À um armazenamento temporário de pixels 233, um armazenamento temporário da informação de disparidade de legenda 234 e uma unidade de controle da exibição de legenda 235. Além do mais, o receptor / decodificador integrado 200 inclui um armazenamento temporário codificado 241, um decodificador — de áudio 242, um armazenamento temporário de áudio 243, uma unidade de mixagem de canal 244 e uma unidade de transmissão HDMI 251.
: O armazenamento temporário de contêiner 211 armazena Y temporariamente um fluxo contínuo de transporte TS recebido por um sintonizador digital ou congêneres (não ilustrados). O fluxo contínuo de transporte TS inclui um fluxo contínuo de vídeo, um fluxo contínuo de —legendae um fluxo contínuo de áudio. O fluxo contínuo de vídeo inclui um ou dois fluxos contínuos de vídeo obtidos pela codificação dos dados de imagem do olho esquerdo e dos dados de imagem do olho direito.
Por exemplo, dados de imagem de um formato lado a lado ou de um formato topo e base podem ser formados a partir dos dados de imagem do olho esquerdo e dos dados de imagem do olho direito, e podem ser transmitidos como um fluxo contínuo de vídeo. Também, por exemplo, dados de imagem do olho esquerdo e dados de imagem do olho direito podem ser transmitidos como diferentes fluxos contínuos de vídeo, por exemplo, um fluxo contínuo de visualização base MVC e um fluxo contínuo de visualização não base MVC.
O demultiplexador 212 extrai, do fluxo contínuo de transporte TS que é armazenado temporariamente no armazenamento temporário de contêiner 211, fluxos contínuos individuais de vídeo, legenda e áudio. Também, o demultiplexador 212 extrai, do fluxo contínuo de transporte TS, a informação de identificação (informação do indicador "graphics depth info not existed flag[0]") que indica se o fluxo contínuo de vídeo inclui ou não a informação de disparidade inserida em si e transmite a informação de identificação a uma unidade de controle (CPU) que não é . ilustrada. Se a informação de identificação indicar que o fluxo contínuo de — vídeo inclui informação de disparidade, o decodificador de vídeo 214 obtém a informação de disparidade (primeira informação de disparidade e segunda informação de disparidade) a partir do fluxo contínuo de vídeo sob o controle pela unidade de controle (CPU), da forma descrita a seguir.
O armazenamento temporário codificado 213 armazena — temporariamente o fluxo contínuo de vídeo extraído pelo demultiplexador
212. O decodificador de vídeo 214 realiza um processo de decodificação no s 61 : fluxo contínuo de vídeo armazenado no armazenamento temporário E codificado 213, desse modo, obtendo dados de imagem do olho esquerdo e dados de imagem do olho direito. Também, o decodificador de vídeo 214 obtém í informação de disparidade (primeira informação de disparidade e segunda — informação de disparidade) para cada imagem parada dos dados de imagem inseridos no fluxo contínuo de vídeo. O armazenamento temporário decodificado 215 armazena temporariamente os dados de imagem do olho esquerdo e os dados de imagem do olho direito obtidos pelo decodificador de vídeo 214. A unidade de decodificação de compressão 261 recebe a informação de disparidade (primeira informação de disparidade e segunda informação de disparidade) para cada imagem parada dos dados de imagem obtidos pelo decodificador de vídeo 214 e, se a informação de disparidade recebida for codificada com compressão, realiza um processo de decodificação. Se a informação de disparidade recebida não for codificada com compressão, a unidade de decodificação de compressão 261 considera a informação de disparidade recebida como informação de disparidade a ser transmitida.
A unidade de decodificação de compressão 261 realiza um processo oposto ao processo realizado pela unidade de codificação de — compressão 120 na unidade de geração dos dados de transmissão 110A ilustrada na figura 24. A figura 46 ilustra um exemplo de uma configuração esquemática da unidade de decodificação de compressão 261. A unidade de decodificação de compressão 261 inclui uma unidade de decodificação de . comprimento variável 264, um armazenamento temporário 265 e uma unidade —de adição 266. A unidade de decodificação de comprimento variável 264 Â realiza decodificação de comprimento variável na informação de disparidade inserida codificada com compressão. O armazenamento temporário 265 armazena temporariamente a informação de disparidade decodificada a ser transmitida. A unidade de adição 266 adiciona dados da diferença de uma imagem parada de referência na informação de disparidade de uma imagem parada referenciada, desse modo, obtendo informação de disparidade a ser e 62 . transmitida para a imagem parada de referência.
Novamente em relação à figura 45, o armazenamento temporário da informação de disparidade 218 armazena temporariamente a informação de disparidade decodificada com compressão (primeira informação de S — disparidade e segunda informação de disparidade). A unidade de controle da informação de disparidade 262 verifica, com base na primeira informação de disparidade e na segunda informação de disparidade para cada imagem parada armazenadas no armazenamento temporário da informação de disparidade 218, se um ângulo de disparidade em relação à posição de reprodução do — objeto mais próxima (um ângulo de disparidade em uma direção cruzada) e um ângulo de disparidade em relação à posição de reprodução do objeto mais distante (um ângulo de disparidade em uma direção para o mesmo lado) estão ou não em uma certa faixa na qual visualização não ocasiona nenhum problema de saúde.
Se os ângulos de disparidade estiverem fora da certa faixa, a unidade de controle da informação de disparidade 262 instrui a unidade de reconfiguração L/R 263 a reconfigurar os dados de imagem do olho esquerdo e os dados de imagem do olho direito, de forma que os ângulos de disparidade fiquem na certa faixa. Também, a unidade de controle da informação de — disparidade 262 corrige a primeira informação de disparidade e/ou a segunda informação de disparidade de acordo com os dados de imagem do olho esquerdo e os dados de imagem do olho direito reconfigura dados, e transmite a primeira informação de disparidade e/ou a segunda informação de . disparidade. Note que, em um caso em que os ângulos de disparidade — estiverem na certa faixa, a unidade de controle da informação de disparidade i 262 não instrui a unidade de reconfiguração L/R 263 a reconfigurar os dados de imagem do olho esquerdo e os dados de imagem do olho direito, e transmite a primeira informação de disparidade e a segunda informação de disparidade como elas estão sem corrigi-las.
A parte superior da figura 47 ilustra um exemplo de uma transição temporal dos ângulos de disparidade no lado próximo e no lado distante dos dados recebidos (dados de imagem do olho esquerdo e dados de o imagem do olho direito). Uma faixa "d" representa a faixa de ângulos de disparidade na qual a visualização não ocasiona nenhum problema de saúde. Neste exemplo, há um período no qual o ângulo de disparidade fica fora da —faixadnolado distante.
A parte inferior da figura 47 ilustra um exemplo de uma transição temporal dos ângulos de disparidade no lado próximo e no lado distante dos dados reconfigura dados (dados de imagem do olho esquerdo e dados de imagem do olho direito). (a) é um exemplo do caso de realização de controle — de limite quando o ângulo de disparidade estiver fora da faixa d. (b) é um exemplo do caso de redução da íntegra do volume de profundidade, de forma que os ângulos de disparidade fiquem na faixa d.
A figura 48 ilustra uma configuração de exemplo da unidade de controle da informação de disparidade 262. A unidade de controle da informação de disparidade 262 inclui uma unidade de obtenção do valor máximo 271, uma unidade de obtenção do valor mínimo 272, uma unidade de verificação do ângulo de disparidade 272 e uma unidade de correção da informação de disparidade 274. A unidade de obtenção do valor máximo 271 seleciona uma parte da segunda informação de disparidade com um valor “máximo dentre partes recebidas da segunda informação de disparidade (disparidade máxima), e a supre à unidade de verificação do ângulo de disparidade 273. O número de partes da segunda informação de disparidade recebida é um em um caso em que a segunda informação de disparidade for - sobre a íntegra da tela de imagem parada e é plural em um caso em que a — segunda informação de disparidade for sobre cada uma de uma pluralidade de i áreas particionadas. A unidade de obtenção do valor mínimo 272 seleciona uma parte da primeira informação de disparidade com um valor mínimo dentre partes recebidas da primeira informação de disparidade (disparidade mínima), e a supre à unidade de verificação do ângulo de disparidade 273. O —número de partes da primeira informação de disparidade recebida é um em um caso em que a primeira informação de disparidade for sobre a íntegra da
- 64 tela de imagem parada e é plural em um caso em que a primeira informação e de disparidade for sobre cada uma de uma pluralidade de áreas particionadas.
A unidade de verificação do ângulo de disparidade 273 verifica, É com base na primeira informação de disparidade e na segunda informação de E disparidade, se o ângulo de disparidade no lado próximo e o ângulo de ' <= disparidade no lado distante estão ou não na faixa d (veja a figura 47) dos ângulos de disparidade nos quais a visualização não ocasiona nenhum problema de saúde, e supre o resultado da verificação à unidade de correção da informação de disparidade 274. Se os ângulos de disparidade estiverem fora da faixa d, a unidade de correção da informação de disparidade 274 instrui a unidade de reconfiguração L/R 263 a reconfigurar os dados de imagem do olho esquerdo e os dados de imagem do olho direito recebidos, de forma que os ângulos de disparidade fiquem na faixa d. Adicionalmente, à unidade de correção da informação de disparidade 274 é suprida a primeira informação de disparidade (disparidade mínima) e a segunda informação de disparidade (disparidade máxima) recebidas. A unidade de correção da informação de disparidade 274 realiza um processo de correção na primeira informação de disparidade e na segunda informação de disparidade em resposta à supradescrita instrução para — reconfigurar os dados de imagem do olho esquerdo e os dados de imagem do olho direito, e transmite a primeira informação de disparidade (disparidade mínima corrigida) e a segunda informação de disparidade (disparidade máxima corrigida) corrigidas. Note que, se os ângulos de disparidade . estiverem na faixa d, a unidade de correção da informação de disparidade 274 —nãoinstruia unidade de reconfiguração L/R 263 a reconfigurar os dados de i imagem do olho esquerdo e os dados de imagem do olho direito, e transmite a primeira informação de disparidade e a segunda informação de disparidade como elas estão sem corrigi-las.
Novamente em relação à figura 45, o escalímetro 216 realiza um — processo de escalonamento na direção horizontal ou na direção vertical nos dados de imagem do olho esquerdo e nos dados de imagem do olho direito transmitidos a partir do armazenamento temporário decodificado 215, se : necessário. Por exemplo, em um caso em que os dados de imagem do olho esquerdo e os dados de imagem do olho direito forem transmitidos como : t dados de imagem de um formato lado a lado ou de um formato topo e base em Ss um fluxo contínuo de vídeo, o escalímetro 216 realiza escalonamento , ascendente de 2x nos dados de imagem na direção horizontal ou na direção vertical e transmite os dados de imagem. Também, por exemplo, em um caso em que os dados de imagem do olho esquerdo e os dados de imagem do olho direito forem transmitidos como diferentes fluxos contínuos de vídeo, tais como um fluxo contínuo de visualização base MVC e um fluxo contínuo de visualização não base MVC, o escalímetro 216 não realiza um processo de escalonamento e transmite os dados de imagem do olho esquerdo e os dados de imagem do olho direito como eles estão. A unidade de reconfiguração L/R 263 reconfigurada dados de imagem do olho esquerdo e dados de imagem do olho direito. Isto é, em um caso em que qualquer um de um ângulo de disparidade na direção para o mesmo lado e de um ângulo de disparidade na direção cruzada estiver fora da certa faixa na qual visualização não ocasiona nenhum problema de saúde, a unidade de reconfiguração L/R 263 reconfigura os dados de imagem do olho — esquerdo e os dados de imagem do olho direito, de forma que o ângulo de disparidade fique na certa faixa, em resposta a uma instrução de reconfiguração proveniente da supradescrita unidade de controle da informação de disparidade 262. * O armazenamento temporário codificado 231 armazena temporariamente o fluxo contínuo de legenda extraído pelo demultiplexador
214. O decodificador de legenda 232 realiza um processo oposto ao processo realizado pelo codificador de legenda 117 da supradescrita unidade de geração dos dados de transmissão 110 (veja a figura 8). Isto é, o decodificador de legenda 232 realiza um processo de decodificação no fluxo contínuo de legenda armazenado no armazenamento temporário codificado 231, desse modo, obtendo dados de legenda.
Os dados de legenda incluem dados em mapa de bits de uma . legenda (texto explicativo), informação da posição de exibição sobre a legenda "posição de renderização da legenda (x2, y2)" e informação de f disparidade sobre a legenda (texto explicativo) "disparidade da legenda". O armazenamento temporário de pixels 233 armazena temporariamente os dados . em mapa de bits da legenda (texto explicativo) e a informação da posição de exibição sobre a legenda (texto explicativo) "posição de renderização da legenda (x2, y2)", que são obtidos pelo decodificador de legenda 232. O armazenamento temporário da informação de disparidade de legenda 234 armazena temporariamente a informação de disparidade sobre a legenda (texto explicativo) "disparidade da legenda" obtida pelo decodificador de legenda 232. A unidade de controle da exibição de legenda 235 gera partes de dados em mapa de bits de uma legenda "dados de legenda" para exibição ao olho esquerdo e exibição ao olho direito às quais disparidade é proporcionada, com base nos dados em mapa de bits da legenda (texto explicativo), na informação da posição de exibição e na informação de disparidade sobre a legenda (texto explicativo). A unidade de geração de elementos gráficos do receptor / decodificador integrado (STB) 219 gera dados de elementos — gráficos de OSD, uma aplicação, EPG ou congêneres.
Os dados de elementos gráficos incluem dados em mapa de bits dos elementos gráficos "dados de elementos gráficos" e informação da posição de exibição sobre os elementos gráficos "posição de renderização dos elementos gráficos (x1, y1)". - O armazenamento temporário de elementos gráficos 221 — armazena temporariamente os dados em mapa de bits dos elementos gráficos | "dados de elementos gráficos" gerados pela unidade de geração de elementos gráficos do receptor / decodificador integrado 219. A unidade de sobreposição 217 sobrepõe, respectivamente, nos dados de imagem do olho esquerdo e nos dados de imagem do olho direito, as partes de dados em mapa de bits da — legenda "dados de legenda" para exibição ao olho esquerdo e exibição ao olho direito geradas pela unidade de controle da exibição de legenda 235.
Também, a unidade de sobreposição 217 sobrepõe, respectivamente, nos dados de imagem do olho esquerdo e nos dados de imagem do olho direito, partes de dados em mapa de bits dos elementos à. gráficos "dados de elementos gráficos" armazenadas no armazenamento 5 temporário de elementos gráficos 221. Neste momento, disparidade é -” proporcionada pela unidade de controle da profundidade 220 (descrita a seguir) às partes de dados em mapa de bits dos elementos gráficos "dados de elementos gráficos" que são sobrepostas nos dados de imagem do olho esquerdo e nos dados de imagem do olho direito, respectivamente. Aqui, em um caso em que os dados em mapa de bits dos elementos gráficos "dados de elementos gráficos" compartilharem os mesmos pixels que os dados em mapa de bits da legenda "dados de legenda", a unidade de sobreposição 217 sobregrava os dados de elementos gráficos nos dados de legenda.
A unidade de controle da profundidade 220 proporciona — disparidade às partes de dados em mapa de bits dos elementos gráficos "dados de elementos gráficos" sobrepostas nos dados de imagem do olho esquerdo e nos dados de imagem do olho direito, respectivamente. Assim, a unidade de controle da profundidade 220 gera informação da posição de exibição sobre elementos gráficos "posição de renderização" para exibição ao olho esquerdo e exibição ao olho direito para cada imagem parada dos dados de imagem, e realiza controle de deslocamento de uma posição de sobreposição das partes de dados em mapa de bits dos elementos gráficos "dados de elementos gráficos" armazenadas no armazenamento temporário de elementos gráficos f 221 nos dados de imagem do olho esquerdo e nos dados de imagem do olho direito.
Da forma ilustrada na figura 49, a unidade de controle da profundidade 220 gera informação da posição de exibição "posição de renderização" pelo uso da seguinte informação. Isto é, a unidade de controle da profundidade 220 usa a primeira informação de disparidade (disparidade —mínima) para cada imagem parada transmitida a partir da unidade de controle da informação de disparidade 262. Também, a unidade de controle da profundidade 220 usa a informação da posição de exibição sobre a legenda É (texto explicativo) "posição de renderização da legenda (x2, y2)" armazenada no armazenamento temporário de pixels 233. : Também, a unidade de controle da profundidade 220 usa a S informação de disparidade sobre a legenda (texto explicativo) "disparidade da - legenda" armazenada no armazenamento temporário da informação de disparidade de legenda 234. Também, a unidade de controle da profundidade 220 usa a informação da posição de exibição sobre os elementos gráficos "posição de renderização dos elementos gráficos (xl, yl)" gerada pela unidade de geração de elementos gráficos do receptor / decodificador integrado 219. Também, a unidade de controle da profundidade 220 usa a informação de identificação que indica se o fluxo contínuo de vídeo inclui ou não a informação de disparidade inserida em si.
Também, a unidade de controle da profundidade 220 atualiza a primeira informação de disparidade (disparidade mínima) para cada imagem parada, transmitida a partir da unidade de controle da informação de disparidade 262, de acordo com a sobreposição de uma legenda ou elementos gráficos em uma imagem.
Neste caso, a unidade de controle da profundidade 220 atualiza o valor da informação de disparidade (disparidade) sobre uma área particionada correspondente à posição de exibição da legenda (texto explicativo) e à posição de exibição dos elementos gráficos com o valor da informação de disparidade (disparidade) usada para proporcionar disparidade à legenda (texto explicativo) ou aos elementos gráficos, por exemplo. . O fluxograma da figura 50 e da figura 51 ilustra um exemplo de um procedimento de um processo de controle realizado pela unidade de : controle da profundidade 220. A unidade de controle da profundidade 220 executa o processo de controle para cada imagem parada (quadro) na qual exibição de elementos gráficos é realizada.
A unidade de controle da profundidade 220 inicia o processo de controle na etapa STI. — Subsequentemente, na etapa ST2, a unidade de controle da profundidade 220 determina, com base na informação de identificação, se o fluxo contínuo de
: 69 vídeo inclui informação de disparidade para elementos gráficos inserida em si : ou não.
Se o fluxo contínuo de vídeo incluir a informação de disparidade " inserida em si, a unidade de controle da profundidade 220 prossegue para o — processo da etapa ST3. Na etapa ST3, a unidade de controle da profundidade . 220 examina todas as áreas particionadas (partições) que incluem as coordenadas nas quais elementos gráficos são exibidos de uma maneira sobreposta. Então, na etapa ST4, a unidade de controle da profundidade 220 compara as partes de informação de disparidade (disparidades) sobre áreas — particionadas alvos (partições), seleciona um valor ideal, tal como um valor mínimo, e considera o valor selecionado como um valor (graphics disparity) da informação de disparidade dos elementos gráficos (disparidade).
Subsequentemente, a unidade de controle da profundidade 220 prossegue para o processo da etapa ST5. Se o fluxo contínuo de vídeo não incluir informação de disparidade inserida em si na etapa ST2 exposta, a unidade de controle da profundidade 220 prossegue imediatamente para o processo da etapa ST5. Na etapa ST5, a unidade de controle da profundidade 220 determina se há um fluxo contínuo de legenda que inclui informação de disparidade (disparidade) ou não.
Se houver um fluxo contínuo de legenda que inclui informação de disparidade (disparidade), a unidade de controle da profundidade 220 compara, na etapa ST6, o valor da informação de disparidade (disparidade) para a legenda (subtitle disparity) com o valor da informação de disparidade * para os elementos gráficos (graphics disparity). Note que, se o fluxo — contínuo de vídeo não incluir informação de disparidade (disparidade) para i elementos gráficos inserida em si, o valor da informação de disparidade para os elementos gráficos (graphics disparity) é definido, por exemplo, em "O".
Subsequentemente, na etapa ST7, a unidade de controle da profundidade 220 determina se a condição "subtitle disparity > (graphics disparity)" é satisfeita ou não. Se a condição for satisfeita, na etapa ST8, a unidade de controle da profundidade 220 obtém partes de dados em
: 70 mapa de bits dos elementos gráficos para exibição ao olho esquerdo e 3 exibição ao olho direito nas quais posições de exibição foram deslocadas pelo uso de um valor equivalente ao valor da informação de disparidade : (disparidade) para elementos gráficos (graphics disparity), com base nos S — dadosem mapa de bits dos elementos gráficos "dados de elementos gráficos" v armazenados no armazenamento temporário de elementos gráficos 221, e sobrepõe as partes de dados em mapa de bits dos elementos gráficos nos dados de imagem do olho esquerdo e nos dados de imagem do olho direito, respectivamente.
Subsequentemente, na etapa ST9, a unidade de controle da profundidade 220 atualiza o valor da informação de disparidade (disparidade) sobre uma área particionada (partição) correspondente à posição da tela na qual a legenda ou elementos gráficos foram sobrepostos. Depois do processo da etapa ST9, a unidade de controle da profundidade 220 termina o processo de controle na etapa ST10.
Por outro lado, se a condição não for satisfeita na etapa ST7, a unidade de controle da profundidade 220 obtém partes de dados em mapa de bits dos elementos gráficos para exibição ao olho esquerdo e exibição ao olho direito nas quais posições de exibição foram deslocadas pelo uso de um valor — menor que a informação de disparidade (disparidade) para elementos gráficos, com base nos dados em mapa de bits dos elementos gráficos "dados de elementos gráficos" armazenados no armazenamento temporário de elementos gráficos 221, e sobrepõe as partes de dados em mapa de bits dos elementos * — gráficos nos dados de imagem do olho esquerdo e nos dados de imagem do — olho direito, respectivamente, na etapa ST10. Depois do processo da etapa á STI11, a unidade de controle da profundidade 220 realiza o processo da etapa ST9 e termina o processo de controle na etapa ST10.
Adicionalmente, se não houver um fluxo contínuo de legenda que inclui informação de disparidade (disparidade), na etapa ST5, a unidade — de controle da profundidade 220 prossegue para o processo da etapa ST12. Na etapa ST12, a unidade de controle da profundidade 220 controla a profundidade dos elementos gráficos pelo uso do valor da informação de disparidade para elementos gráficos (graphics disparity) obtido na etapa ST4 ou do valor da informação de disparidade (disparidade) calculado pelo é receptor / decodificador integrado 200. Isto é, a unidade de controle da profundidade 220 obtém partes > de dados em mapa de bits dos elementos gráficos para exibição ao olho esquerdo e exibição ao olho direito nas quais posições de exibição foram deslocadas pelo uso do valor da informação de disparidade para elementos gráficos (graphics disparity) ou do valor da informação de disparidade — (disparidade) calculado, com base nos dados em mapa de bits dos elementos gráficos "dados de elementos gráficos" armazenados no armazenamento temporário de elementos gráficos 221, e sobrepõe as partes de dados em mapa de bits dos elementos gráficos nos dados de imagem do olho esquerdo e nos dados de imagem do olho direito, respectivamente. Depois do processo da etapa ST12,a unidade de controle da profundidade 220 realiza o processo da etapa ST9 e termina o processo de controle na etapa ST10.
A figura 52 ilustra um exemplo de controle da profundidade dos elementos gráficos no receptor / decodificador integrado 200. Neste exemplo, considerando os elementos gráficos (elementos gráficos do STB), disparidade é proporcionada aos elementos gráficos para exibição ao olho esquerdo e aos elementos gráficos para exibição ao olho direito com base em uma parte da informação de disparidade com um valor mínimo dentre partes da informação de disparidade sobre as oito áreas particionadas na direita (Partições 2, 3, 6,7, ' 10, 11, 14 e 15). Em decorrência disto, os elementos gráficos são exibidos na —frentedeum objeto da imagem (vídeo) nestas oito áreas particionadas.
A imagem parada 53 também ilustra um exemplo de controle da profundidade dos elementos gráficos no receptor / decodificador integrado
200. Neste exemplo, considerando os elementos gráficos (elementos gráficos do STB), disparidade é proporcionada aos elementos gráficos para exibição ao olho esquerdo e aos elementos gráficos para exibição ao olho direito com base em uma parte da informação de disparidade com um valor mínimo dentre partes da informação de disparidade sobre as oito áreas particionadas na direita (Partições 2, 3, 6,7, 10, 11, 14 e 15) e, também, na informação de disparidade sobre uma legenda (texto explicativo). : Em decorrência disto, os elementos gráficos são exibidos na —frentede um objeto e, também, uma legenda (texto explicativo) da imagem ” (vídeo) nestas oito áreas particionadas.
Note que, neste caso, a legenda (texto explicativo) também é exibida na frente de um objeto da imagem (vídeo) nas quatro áreas particionadas (Partições 8, 9, 10 e 11) correspondentes à posição de exibição da legenda, com base na informação de disparidade sobre a legenda (texto explicativo). Note que, no caso do exemplo de controle da profundidade na figura 53, um processo de atualização da informação de disparidade é realizado da seguinte maneira, por exemplo.
Isto é, primeiro, os valores das partes da informação de disparidade (disparidades) sobre as quatro áreas —particionadas (Partições 8, 9, 10 e 11) correspondentes à posição de exibição da legenda são atualizados pelo valor da informação de disparidade (subtitle disparity) usado para proporcionar disparidade à legenda.
Subsequentemente, os valores das partes da informação de disparidade (disparidades) sobre as oito áreas particionadas (Partições 2, 3, 6,7, 10, 11, 14 e 15) são atualizados pelo valor da informação de disparidade (graphics disparity) usado para proporcionar disparidade aos elementos gráficos.
Novamente em relação à figura 45, o armazenamento temporário . codificado 241 armazena temporariamente o fluxo contínuo de áudio extraído — pelo demultiplexador 212. O decodificador de áudio 242 realiza um processo oposto ao processo realizado pelo codificador de áudio 119 da supradescrita unidade de geração dos dados de transmissão 110 (veja a figura 8). Isto é, o decodificador de áudio 242 realiza um processo de decodificação no fluxo contínuo de áudio armazenado no armazenamento temporário codificado 241, — desse modo, obtendo dados de áudio decodificados.
O armazenamento temporário de áudio 243 armazena temporariamente os dados de áudio
. obtidos pelo decodificador de áudio 242. A unidade de mixagem de canal 244 gera dados de áudio de cada canal para realizar, por exemplo, surround de 5.1 canais ou congêneres, a partir dos dados de áudio armazenados no . armazenamento temporário de áudio 243, e transmite os dados de áudio S gerados.
. Note que a leitura da informação (dados) a partir do armazenamento temporário decodificado 215, do armazenamento temporário da informação de disparidade 218, do armazenamento temporário de pixels 233, do armazenamento temporário da informação de disparidade de legenda 234 e do armazenamento temporário de áudio 243 é realizada com base em PTS, e sincronismo de transferência é alcançado.
A unidade de transmissão HDMI 251 transmite, a um aparelho de destino de HDMI, nesta modalidade, ao receptor de televisão 300, os dados de imagem do olho esquerdo e os dados de imagem do olho direito obtidos através de um processo de sobreposição de uma legenda e de elementos gráficos realizado pela unidade de sobreposição 217 e os dados de áudio de cada canal obtidos pela unidade de mixagem de canal 244, pela realização de comunicação compatível com HDMI. Aqui, os dados de imagem do olho esquerdo obtidos pela unidade de sobreposição 217 compreendem dados de imagem do olho esquerdo nos quais uma legenda (texto explicativo) e elementos gráficos do STB para exibição ao olho esquerdo são sobrepostos. Também, os dados de imagem do olho direito obtidos pela unidade de sobreposição 217 são dados de imagem do olho direito nos quais uma legenda Á - (texto explicativo) e elementos gráficos do STB para exibição ao olho direito — são sobrepostos.
Também, a unidade de transmissão HDMI 251 transmite, ao receptor de televisão 300, a primeira informação de disparidade (disparidade mínima) para cada imagem parada que foi atualizada pela unidade de controle da profundidade 220 e a segunda informação de disparidade (disparidade — máxima) para cada imagem parada transmitida a partir da unidade de controle da informação de disparidade 262, pelo uso de uma interface HDMI. Nesta modalidade, a primeira informação de disparidade e a segunda informação de disparidade são transmitidas depois de serem inseridas em um período de supressão dos dados de imagem. Os detalhes da unidade de transmissão ê HDMI 251 serão descritos a seguir.
A operação do receptor / decodificador integrado 200 ilustrado e na figura 45 será descrita em resumo. Um fluxo contínuo de transporte TS recebido por um sintonizador digital ou congêneres é armazenado temporariamente no armazenamento temporário de contêiner 211. O fluxo contínuo de transporte TS inclui um fluxo contínuo de vídeo, um fluxo — contínuo de legenda e um fluxo contínuo de áudio. O fluxo contínuo de vídeo inclui um ou dois fluxos contínuos de vídeo obtidos pela codificação dos dados de imagem do olho esquerdo e dos dados de imagem do olho direito.
No demultiplexador 212, fluxos contínuos individuais de vídeo, legenda e áudio são extraídos do fluxo contínuo de transporte TS que é armazenado temporariamente no armazenamento temporário de contêiner
211. Também, no demultiplexador 212, a informação de identificação (informação do indicador "graphics depth info not existed flag/0]"), que indica se o fluxo contínuo de vídeo inclui ou não a informação de disparidade inserida em si, é extraída do fluxo contínuo de transporte TS e é transmitida à unidade de controle (CPU) que não é ilustrada.
O fluxo contínuo de vídeo extraído pelo demultiplexador 212 é suprido ao armazenamento temporário codificado 213 e é neste armazenado temporariamente. Então, no decodificador de vídeo 214, um processo de - — decodificação é realizado no fluxo contínuo de vídeo armazenado no — armazenamento temporário codificado 213, de forma que dados de imagem do olho esquerdo e dados de imagem do olho direito sejam obtidos. Os dados de imagem do olho esquerdo e os dados de imagem do olho direito são armazenados temporariamente no armazenamento temporário decodificado 215.
Também, no decodificador de vídeo 214, a informação de — disparidade (primeira informação de disparidade e segunda informação de disparidade) para cada imagem parada dos dados de imagem que foi inserida
À 75 no fluxo contínuo de vídeo é obtida. A informação de disparidade passa apropriadamente por decodificação de compressão na unidade de decodificação de compressão 261 e é armazenada temporariamente no E armazenamento temporário da informação de disparidade 218. Na unidade de controle da informação de disparidade 262, é verificado, com base na * primeira informação de disparidade e na segunda informação de disparidade para cada imagem parada armazenadas no armazenamento temporário da informação de disparidade 218, se um ângulo de disparidade em relação à posição de reprodução do objeto mais próxima (um ângulo de disparidade em uma direção cruzada) e um ângulo de disparidade em relação à posição de reprodução do objeto mais distante (um ângulo de disparidade em uma direção para o mesmo lado) estão ou não na faixa d (veja a figura 47) na qual visualização não ocasiona nenhum problema de saúde. Então, se os ângulos de disparidade estiverem fora da certa faixa, a unidade de controle da informação de disparidade 262 instrui a unidade de reconfiguração L/R 263 a reconfigurar os dados de imagem do olho esquerdo e os dados de imagem do olho direito, de forma que os ângulos de disparidade fiquem na faixa d. Adicionalmente, neste caso, a unidade de controle da informação de disparidade 262 corrige a primeira informação de disparidade —e/oua segunda informação de disparidade de acordo com os dados de imagem do olho esquerdo e os dados de imagem do olho direito reconfigurados, e transmite a primeira informação de disparidade e/ou a segunda informação de disparidade corrigidas. Note que, em um caso em que os ângulos de . disparidade estiverem na certa faixa d, a unidade de controle da informação —de disparidade 262 não instrui a unidade de reconfiguração L/R 263 a reconfigurar os dados de imagem do olho esquerdo e os dados de imagem do olho direito, e transmite a primeira informação de disparidade e a segunda informação de disparidade sem corrigi-las.
No escalímetro 216, um processo de escalonamento na direção — horizontal ou na direção vertical é realizado nos dados de imagem do olho esquerdo e nos dados de imagem do olho direito transmitidos a partir do armazenamento temporário decodificado 215, se necessário. A partir do escalímetro 216, por exemplo, dados de imagem do olho esquerdo e dados de imagem do olho direito de um tamanho ful! HD de 1.920 x 1.080 são obtidos. : Os dados de imagem do olho esquerdo e os dados de imagem do olho direito S são supridos à unidade de sobreposição 217 por meio da unidade de . reconfiguração L/R 263. A unidade de reconfiguração L/R 263 reconfigura os dados de imagem do olho esquerdo e os dados de imagem do olho direito se necessário. Isto é, em um caso em que qualquer um dos ângulos de disparidade na direção —parao mesmo lado e na direção cruzada estiver fora da faixa d (veja a figura 47) na qual a visualização não ocasiona nenhum problema de saúde, a unidade de reconfiguração L/R 263 reconfigura os dados de imagem do olho esquerdo e os dados de imagem do olho direito, de forma que o ângulo de disparidade fique na certa faixa, com base em uma instrução de —reconfiguração proveniente da unidade de controle da informação de disparidade 262. Adicionalmente, o fluxo contínuo de legenda extraído pelo demultiplexador 212 é suprido ao armazenamento temporário codificado 231 e é neste armazenado temporariamente. No decodificador de legenda 232, um processo de decodificação é realizado no fluxo contínuo de legenda armazenado no armazenamento temporário codificado 231, de forma que dados de legenda sejam obtidos. Os dados de legenda incluem dados em mapa de bits de uma legenda (texto explicativo), informação da posição de exibição * —sobre a legenda "posição de renderização da legenda (x2, y2)" e informação — de disparidade sobre a legenda (texto explicativo) "disparidade da legenda".
Os dados em mapa de bits da legenda (texto explicativo) e a informação da posição de exibição sobre a legenda (texto explicativo) "posição de renderização da legenda (x2, y2)" obtidos pelo decodificador de legenda 232 são armazenados temporariamente no armazenamento temporário de pixels 233. Também, a informação de disparidade sobre a legenda (texto explicativo) "disparidade da legenda" obtida pelo
: T7 - decodificador de legenda 232 é armazenada temporariamente no armazenamento temporário da informação de disparidade de legenda 234. Na unidade de controle da exibição de legenda 235, partes de . dados em mapa de bits da legenda "dados de legenda" para exibição ao olho esquerdo e exibição ao olho direito nas quais disparidade foi proporcionada * são geradas com base nos dados em mapa de bits da legenda (texto explicativo), na informação da posição de exibição e na informação de disparidade sobre a legenda (texto explicativo). As partes de dados em mapa de bits da legenda "dados de legenda" para exibição ao olho esquerdo e exibição ao olho direito geradas desta maneira são supridas à unidade de sobreposição 217 e são sobrepostas nos dados de imagem do olho esquerdo e nos dados de imagem do olho direito, respectivamente.
Na unidade de geração de elementos gráficos do receptor / b decodificador integrado (STB) 219, dados de elementos gráficos de OSD, uma aplicação, EPG ou congêneres são gerados.
Os dados de elementos à gráficos incluem dados em mapa de bits de elementos gráficos "dados de elementos gráficos" e informação da posição de exibição sobre os elementos gráficos "posição de renderização dos elementos gráficos (xl, yl)". O armazenamento temporário de elementos gráficos 221 armazena temporariamente os dados de elementos gráficos gerados pela unidade de geração de elementos gráficos do receptor / decodificador integrado (STB) 219. Na unidade de sobreposição 217, partes dos dados em mapa de bits dos elementos gráficos "dados de elementos gráficos" armazenadas no . armazenamento temporário de elementos gráficos 221 são sobrepostas nos — dados de imagem do olho esquerdo e nos dados de imagem do olho direito.
Neste momento, disparidade é proporcionada pela unidade de controle da profundidade 220 às partes de dados em mapa de bits dos elementos gráficos "dados de elementos gráficos" respectivamente sobrepostas nos dados de imagem do olho esquerdo e nos dados de imagem do olho direito, com base na informação de disparidade correspondente à posição de exibição dos elementos gráficos, dentre as partes da primeira informação de disparidade
: 78 - sobre áreas particionadas individuais de cada imagem parada dos dados de imagem transmitidas a partir da unidade de controle da informação de disparidade 262. Neste caso, se os dados em mapa de bits dos elementos . gráficos "dados de elementos gráficos" compartilharem os mesmos pixels que os dadosem mapa de bits da legenda "dados de legenda", a unidade de à sobreposição 217 sobregrava os dados de elementos gráficos nos dados de legenda.
Os dados de imagem do olho esquerdo nos quais a legenda (texto explicativo) e os elementos gráficos do STB para exibição ao olho esquerdo — são sobrepostos e os dados de imagem do olho direito nos quais a legenda (texto explicativo) e os elementos gráficos do STB para exibição ao olho direito são sobrepostos são obtidos a partir da unidade de sobreposição 217. Os dados de imagem do olho esquerdo e os dados de imagem do olho direito : são supridos à unidade de transmissão HDMI 251. Adicionalmente, o fluxo contínuo de áudio extraído pelo é demultiplexador 212 é suprido ao armazenamento temporário codificado 241 e é neste armazenado temporariamente. No decodificador de áudio 242, um processo de decodificação é realizado no fluxo contínuo de áudio armazenado no armazenamento temporário codificado 241, de forma que dados de áudio — decodificados sejam obtidos. Os dados de áudio são supridos à unidade de mixagem de canal 244 por meio do armazenamento temporário de áudio 243. Na unidade de mixagem de canal 244, dados de áudio de cada canal para realizar, por exemplo, surround de 5.1 canais ou congêneres, são gerados a * partir dos dados de áudio. Os dados de áudio são supridos à unidade de transmissão HDMI 251.
Adicionalmente, na unidade de controle da profundidade 220, primeira informação de disparidade sobre cada área particionada de cada imagem parada dos dados de imagem transmitidos a partir da unidade de controle da informação de disparidade 262 é atualizada de acordo com a — sobreposição de um texto explicativo ou de elementos gráficos em uma imagem. Neste caso, o valor da informação de disparidade (disparidade) sobre
F 79 a área particionada (partição) correspondente à posição de exibição da legenda (texto explicativo) e à posição de exibição dos elementos gráficos é atualizado, por exemplo, no valor da informação de disparidade (disparidade) h usado para proporcionar disparidade à legenda (texto explicativo) ou aos — elementos gráficos. A informação de disparidade atualizada é suprida à unidade . de transmissão HDMI 251. Também, a segunda informação de disparidade para cada imagem parada dos dados de imagem transmitidos a partir da unidade de controle da informação de disparidade 262 é suprida à unidade de transmissão HDMI 251.
A unidade de transmissão HDMI 251 transmite, ao receptor de televisão 300, os dados de imagem do olho esquerdo e os dados de imagem do olho direito, os dados de áudio e, também, a informação de disparidade (primeira informação de disparidade e segunda informação de disparidade) b para cada imagem parada dos dados de imagem, pela realização de comunicação compatível com HDMI. Aqui, a informação de disparidade é á: transmitida depois de ser inserida em um pacote de informação localizado em um período de supressão dos dados de imagem, nesta modalidade, em um InfoFrame Específico de Revendedor HDMI. [Descrição do receptor de televisão] Novamente em relação à figura 1, o receptor de televisão 300 recebe dados de imagem do olho esquerdo e dados de imagem do olho direito, dados de áudio e, também, informação de disparidade (primeira informação de disparidade e segunda informação de disparidade) para cada imagem . parada dos dados de imagem que são transmitidos a partir do receptor / — decodificador integrado 200 por meio do cabo HDMI 400.
No caso da exibição de elementos gráficos (elementos gráficos de TV) em uma imagem de uma maneira sobreposta, por exemplo, o receptor de televisão 300 obtém dados de uma imagem do olho esquerdo e de uma imagem do olho direito nos quais elementos gráficos são sobrepostos, pelo —usodos dados de imagem, da primeira informação de disparidade e dos dados de elementos gráficos. Neste caso, o receptor de televisão 300 proporciona,
aos elementos gráficos a serem sobrepostos na imagem do olho esquerdo e na imagem do olho direito, disparidade correspondente à posição de exibição dos elementos gráficos para cada imagem parada, desse modo, obtendo dados da S imagem do olho esquerdo nos quais elementos gráficos são sobrepostos e dados da imagem do olho direito nos quais elementos gráficos são * sobrepostos.
Em decorrência do proporcionamento de disparidade aos elementos gráficos da maneira supradescrita, os elementos gráficos (elementos gráficos de TV) exibidos em uma imagem estéreo de uma maneira — sobreposta podem ser exibidos na frente de um objeto na imagem estéreo na posição de exibição. Desta maneira, no caso da exibição de elementos gráficos de OSD, uma aplicação, EPG da informação de programa ou congêneres em uma imagem de uma maneira sobreposta, consistência de : perspectiva para objetos individuais na imagem pode ser mantida.
Também, o receptor de televisão 300 é capaz de verificar, com base na primeira informação de disparidade e na segunda informação de disparidade, se um ângulo de disparidade em relação à posição de reprodução do objeto mais próxima (um ângulo de disparidade em uma direção cruzada) e um ângulo de disparidade em relação à posição de reprodução do objeto mais — distante (um ângulo de disparidade em uma direção para o mesmo lado) estão ou não na faixa d (veja a figura 47) na qual visualização não ocasiona nenhum problema de saúde. Se os ângulos de disparidade estiverem fora da faixa, o receptor de televisão 300 é capaz de reconfigurar os dados de imagem do olho *« esquerdoe os dados de imagem do olho direito.
257 [Configuração de exemplo do receptor de televisão] A figura 54 ilustra uma configuração de exemplo de um sistema de entrada HDMI do receptor de televisão 300. Note que a ilustração de um sistema de verificação para um ângulo de disparidade é omitida. O receptor de televisão 300 inclui uma unidade de recepção HDMI 311, um escalímetro 312, uma unidade de sobreposição 313, uma unidade de controle da profundidade 314, um armazenamento temporário de elementos gráficos 315,
uma unidade de geração de elementos gráficos da televisão (TV) 316 e uma unidade de processamento de áudio 317. A unidade de recepção HDMI 311 recebe dados de imagem do : olho esquerdo e dados de imagem do olho direito que formam uma imagem S — estéreo e dados de áudio a partir de um aparelho de origem de HDMI, nesta ' modalidade, a partir do receptor / decodificador integrado 200, pela realização de comunicação compatível com HDMI.
Também, a unidade de recepção HDMI 311 recebe informação de disparidade (primeira informação de disparidade e segunda informação de disparidade) para cada imagem parada dos dados de imagem a partir do receptor / decodificador integrado 200 usando uma interface HDMI.
Os detalhes da unidade de recepção HDMI 311 serão descritos a seguir.
O escalímetro 312 realiza um processo de escalonamento nos ' dados de imagem do olho esquerdo e nos dados de imagem do olho direito recebidos pela unidade de recepção HDMI 311, se necessário.
Por exemplo, o Ú escalímetro 312 faz com que os tamanhos dos dados de imagem do olho esquerdo e dos dados de imagem do olho direito correspondam a um tamanho da tela.
A unidade de geração de elementos gráficos da televisão (TV) 316 gera dados de elementos gráficos de OSD, uma aplicação, EPG ou — congêneres.
Os dados de elementos gráficos incluem dados em mapa de bits dos elementos gráficos "dados de elementos gráficos" e informação da posição de exibição sobre os elementos gráficos "posição de renderização dos elementos gráficos (x1, y1)". - O armazenamento temporário de elementos gráficos 315 — armazena temporariamente os dados em mapa de bits dos elementos gráficos "dados de elementos gráficos" gerados pela unidade de geração de elementos gráficos da televisão 316. A unidade de sobreposição 313 sobrepõe partes dos dados em mapa de bits dos elementos gráficos "dados de elementos gráficos" armazenadas no armazenamento temporário de elementos gráficos 315 nos — dados de imagem do olho esquerdo e nos dados de imagem do olho direito, respectivamente.
Neste momento, disparidade é proporcionada pela unidade
: 82 de controle da profundidade 314 descrita a seguir às partes de dados em mapa de bits dos elementos gráficos "dados de elementos gráficos" respectivamente sobrepostas nos dados de imagem do olho esquerdo e nos dados de imagem É do olho direito. A unidade de controle da profundidade 314 proporciona * disparidade às partes de dados em mapa de bits dos elementos gráficos "dados de elementos gráficos" respectivamente sobrepostas nos dados de imagem do olho esquerdo e nos dados de imagem do olho direito. Com este propósito, a unidade de controle da profundidade 314 gera informação da posição de exibição sobre elementos gráficos "posição de renderização" para exibição ao olho esquerdo e exibição ao olho direito para cada imagem parada dos dados de imagem, e realiza controle de deslocamento das posições de sobreposição das partes de dados em mapa de bits dos elementos gráficos "dados de elementos E gráficos" armazenadas no armazenamento temporário de elementos gráficos 315 —nosdados de imagem do olho esquerdo e nos dados de imagem do olho direito.
É Da forma ilustrada na figura 55, a unidade de controle da profundidade 314 gera informação da posição de exibição "posição de renderização" usando a seguinte informação. Isto é, a unidade de controle da profundidade 314 usa a primeira informação de disparidade (disparidade — mínima) sobre cada área particionada (partição) para cada imagem parada dos dados de imagem recebidos pela unidade de recepção HDMI 311. Também, a unidade de controle da profundidade 314 usa a informação da posição de exibição sobre elementos gráficos "posição de renderização dos elementos .
« gráficos (xl, yl)" gerada pela unidade de geração de elementos gráficos da televisão 316. Também, à unidade de controle da profundidade 314 usa informação de recepção que indica se informação de disparidade foi recebida ou não pela unidade de recepção HDMI 311.
O fluxograma da figura 56 ilustra um exemplo de um procedimento de um processo de controle realizado pela unidade de controle — da profundidade 314. A unidade de controle da profundidade 314 executa o processo de controle para cada imagem parada (quadro) na qual exibição de
“ 83 elementos gráficos é realizada. A unidade de controle da profundidade 314 inicia o processo de controle na etapa ST21. Subsequentemente, na etapa ST22, a unidade de controle da profundidade 314 determina, com base na informação de recepção, se informação de disparidade para elementos gráficos foi recebida ou não pela unidade de recepção HDMI 311. Note que, - se informação de identificação "PRTY" do pacote de InfoFrame Específico do Revendedor HDMI descrito a seguir indicar a existência da informação de disparidade como informação a ser referida, a unidade de recepção HDMI 311 extrai a informação de disparidade do pacote para ser usada. Neste caso, a informação de recepção representa "recebido".
Se a informação de disparidade (disparidade) tiver sido recebida, a unidade de controle da profundidade 314 prossegue para o processo da etapa ST23. Na etapa ST23, a unidade de controle da profundidade 314 examina R todas as áreas particionadas (partições) que incluem as coordenadas nas quais elementos gráficos devem ser exibidos de uma maneira sobreposta. Então, na E etapa ST24, a unidade de controle da profundidade 314 compara as partes da primeira informação de disparidade (disparidade mínima) sobre áreas particionadas alvos (partições), seleciona um valor ideal, tal como um valor mínimo, e considera o valor selecionado como o valor (graphics disparity) da informação de disparidade dos elementos gráficos (disparidade). Subsequentemente, na etapa ST25, a unidade de controle da profundidade 314 obtém partes de dados em mapa de bits dos elementos gráficos para exibição ao olho esquerdo e exibição ao olho direito nas quais posições de exibição foram deslocadas pelo uso de um valor equivalente ao valor da informação de disparidade (disparidade) para elementos gráficos (gráphics disparity), com base nos dados em mapa de bits dos elementos gráficos "dados de elementos gráficos" armazenados no armazenamento temporário de elementos gráficos 315, e sobrepõe as partes de dados em mapa de bits dos elementos gráficos nos dados de imagem do olho esquerdo e nos — dados de imagem do olho direito, respectivamente. Depois do processo da etapa ST25, a unidade de controle da profundidade 314 termina o processo de
: 84 controle na etapa ST26.
Por outro lado, se a informação de disparidade (disparidade) não for recebida, na etapa ST22, a unidade de controle da profundidade 314 obtém partes de dados em mapa de bits dos elementos gráficos para exibição ao olho “5 esquerdo e exibição ao olho direito nas quais posições de exibição foram : deslocadas pelo uso de um valor da informação de disparidade (disparidade) calculado pelo receptor de televisão 300, com base nos dados em mapa de bits dos elementos gráficos "dados de elementos gráficos" armazenados no armazenamento temporário de elementos gráficos 315, e sobrepõe as partes — de dados em mapa de bits dos elementos gráficos nos dados de imagem do olho esquerdo e nos dados de imagem do olho direito, respectivamente, na etapa ST27. Depois do processo da etapa ST27, a unidade de controle da profundidade 314 termina o processo de controle na etapa ST26. . A figura 57 ilustra um exemplo de controle da profundidade dos elementos gráficos no receptor de televisão 300. Neste exemplo, considerando É os elementos gráficos de TV, disparidade é proporcionada aos elementos gráficos para exibição ao olho esquerdo e aos elementos gráficos para exibição ao olho direito com base na informação de disparidade com um valor mínimo dentre as partes da primeira informação de disparidade sobre quatro áreas particionadas (Partições 10, 11, 14 e 15) na direita. Em decorrência disto, os elementos gráficos de TV são exibidos na frente de um objeto da imagem (vídeo) nestas quatro áreas particionadas. Note que, neste caso, uma legenda (texto explicativo) e, também, elementos gráficos do STB já foram sobrepostos na imagem (vídeo) pelo receptor / decodificador integrado 200. A operação do receptor de televisão 300 ilustrado na figura 54 será descrita em resumo. A unidade de recepção HDMI 311 recebe, a partir do receptor / decodificador integrado 200, dados de imagem do olho esquerdo e dados de imagem do olho direito, dados de áudio e, também, informação de disparidade (primeira informação de disparidade e segunda informação de — disparidade) para cada imagem parada dos dados de imagem, pela realização de comunicação compatível com HDMI.
- 85 : Os dados de imagem do olho esquerdo e os dados de imagem do olho direito recebidos pela unidade de recepção HDMI 311 passam por um processo de escalonamento no escalímetro 312, se necessário, e, então, são supridos à unidade de sobreposição 313. Na unidade de geração da televisão “3 (TV) 316, dados de elementos gráficos de OSD, uma aplicação, EPG ou : congêneres são gerados.
Os dados de elementos gráficos incluem dados em mapa de bits de elementos gráficos "dados de elementos gráficos" e informação da posição de exibição sobre os elementos gráficos "posição de renderização dos elementos gráficos (x1, y1)". O armazenamento temporário de — elementos gráficos 315 armazena temporariamente os dados de elementos gráficos gerados pela unidade de geração de elementos gráficos da televisão 315. Na unidade de sobreposição 313, partes de dados em mapa de bits dos elementos gráficos "dados de elementos gráficos" armazenadas no E armazenamento temporário de elementos gráficos 315 são sobrepostas nos dados de imagem do olho esquerdo e nos dados de imagem do olho direito, i respectivamente.
Neste momento, disparidade é proporcionada às partes de dados em mapa de bits dos elementos gráficos "dados de elementos gráficos" respectivamente sobrepostas nos dados de imagem do olho esquerdo e nos dados de imagem do olho direito pela unidade de controle da profundidade 314 com base na primeira informação de disparidade (disparidade mínima) correspondente à posição de exibição dos elementos gráficos.
A unidade de controle da profundidade 314 usa, para o controle, a primeira informação de disparidade sobre cada área particionada (partição) para cada imagem parada dos dados de imagem recebida pela unidade de — recepção HDMI 311 ea informação da posição de exibição sobre elementos gráficos "posição de renderização dos elementos gráficos (x1, y1)" gerada pela unidade de geração de elementos gráficos da televisão 316. Os dados de uma imagem do olho esquerdo na qual elementos gráficos de TV para exibição ao olho esquerdo são sobrepostos e os dados de uma imagem do olho direito na qual elementos gráficos de TV para exibição ao olho direito são sobrepostos são obtidos a partir da unidade de
- 86 ó sobreposição 313. Estas partes de dados de imagem são transmitidas a uma unidade de processamento para exibição de imagem estéreo, e exibição de imagem estéreo é realizada.
Adicionalmente, os dados de áudio de cada canal recebidos pela “5 unidade de recepção HDMI 311 são supridos a um alto-falante por meio da “ unidade de processamento de áudio 317 que ajusta a qualidade e o volume do som, e transmissão de áudio é realizada em sincronismo com a exibição de imagem estéreo. [Configuração de exemplo da unidade de transmissão HDMI e da unidade de — recepção HDMI] A figura 58 ilustra uma configuração de exemplo da unidade de transmissão HDMI 251 do receptor / decodificador integrado 200 e da unidade de recepção HDMI 311 do receptor de televisão 300 no sistema de : transmissão / recepção de imagem 10 da figura 1. A unidade de transmissão HDMI 251 transmite sinais É diferenciais correspondentes aos dados de pixel de uma imagem descomprimida para uma tela à unidade de recepção HDMI 311 de uma maneira unidirecional usando uma pluralidade de canais em um período de imagem efetivo (a seguir, também referido como um período de vídeo ativo — conforme apropriado). Aqui, o período de imagem efetivo é obtido pela remoção de um período de supressão horizontal e um período de supressão vertical do período de um sinal de sincronismo vertical até o próximo sinal de sincronismo vertical. Também, a unidade de transmissão HDMI 251 transmite sinais diferenciais correspondentes pelo menos aos dados de áudio que — acompanham uma imagem, aos dados de controle, aos outros dados auxiliares e congêneres à unidade de recepção HDMI 311 de uma maneira unidirecional usando uma pluralidade de canais no período de supressão horizontal ou no período de supressão vertical.
Os canais de transmissão no sistema HDMI que inclui a unidade — de transmissão HDMI 251 e a unidade de recepção HDMI 311 incluem os seguintes canais de transmissão. Isto é, há três canais TMDS nº 0 até nº 2 que
- 87 h servem como canais de transmissão para transmissão serial dos dados de pixel e dos dados de áudio da unidade de transmissão HDMI 251 à unidade de recepção HDMI 311 de uma maneira unidirecional em sincronismo com um relógio de pixel. Também, há um canal do relógio TMDS que serve como um “5 — canaldetransmissão para transmitir um relógio de pixel.
: A unidade de transmissão HDMI 251 inclui um transmissor HDMI 81. O transmissor 81 converte dados de pixel de uma imagem descomprimida em correspondentes sinais diferenciais e os transmite serialmente de uma maneira unidirecional à unidade de recepção HDMI 311 — conectada por meio do cabo HDMI 400 usando uma pluralidade de canais, isto é, os três canais TMDS nº 0, nº 1 e nº 2, por exemplo. Também, o transmissor 81 converte dados de áudio que acompanham uma imagem descomprimida, adicionalmente, dados de controle : necessários, outros dados auxiliares e congêneres em correspondentes sinais diferenciais e os transmite serialmente de uma maneira unidirecional à É unidade de recepção HDMI 311 usando os três canais TMDS nº 0, nº 1 e nº 2. Além do mais, o transmissor 81 transmite um relógio de pixel sincronizado com os dados de pixel, que são transmitidos usando os três canais TMDS nº 0, nº 1 e nº 2, à unidade de recepção HDMI 311 conectada —pormeio do cabo HDMI 400 usando o canal do relógio TMDS. Aqui, em um canal TMDS nº 1 (1 =0, 1 ou 2), dados de pixel de 10 bits são transmitidos em um relógio do relógio de pixel. A unidade de recepção HDMI 311 recebe os sinais diferenciais correspondentes aos dados de pixel, transmitidos de uma maneira —unidirecional a partir da unidade de transmissão HDMI 251 usando a pluralidade de canais, no período de vídeo ativo. Também, a unidade de recepção HDMI 311 recebe os sinais diferenciais correspondentes aos dados de áudio e aos dados de controle, transmitidos de uma maneira unidirecional a partir da unidade de transmissão HDMI 251 usando a pluralidade de canais, — no período de supressão horizontal ou no período de supressão vertical. Isto é, a unidade de recepção HDMI 311 inclui um receptor
- 88 õ HDMI 82. O receptor HDMI 82 recebe um sinal diferencial correspondente aos dados de pixel e sinais diferenciais correspondentes aos dados de áudio e aos dados de controle, transmitidos de uma maneira unidirecional a partir da unidade de transmissão HDMI 251 usando os canais TMDS nº 0, nº 1 e nº 2.
“ Neste caso, o receptor HDMI 82 recebe os sinais diferenciais em sincronismo & com o relógio de pixel transmitido a partir da unidade de transmissão HDMI 251 usando o canal do relógio TMDS.
Os canais de transmissão no sistema HDMI incluem canais de transmissão chamados de um DDC (Canal de Dados de Exibição) 83 e uma linha CEC 84, além dos supradescritos canais TMDS nº 0 até nº 2 e do canal do relógio TMDS. O DDC 83 é constituído por duas linhas de sinal que são incluídas no cabo HDMI 400 e que não são ilustradas. O DDC 83 é usado pela unidade de transmissão HDMI 251 para ler E-EDID (Dados de E Identificação da Exibição Estendidos Aprimorados) a partir da unidade de recepção HDMI 311.
: Isto é, a unidade de recepção HDMI 311 inclui, além do receptor HDMI 81, uma ROM (Memória Exclusiva de Leitura) dos EDID 85 que armazena E-EDID, que compreende informação de desempenho sobre seu desempenho (Configuração / Capacidade). A unidade de transmissão HDMI 2511 êosE-EDID a partir da unidade de recepção HDMI 311 conectada por meio do cabo HDMI 400 usando o DDC 83 em resposta a uma solicitação proveniente de uma unidade de controle (CPU) que não é ilustrada, por exemplo.
A unidade de transmissão HDMI 251 transmite os E-EDID lidos à unidade de controle (CPU). A unidade de controle (CPU) é capaz de reconhecer a definição do desempenho da unidade de recepção HDMI 311 com base nos E-EDID. Por exemplo, a unidade de controle (CPU) reconhece se o receptor de televisão 300 que inclui a unidade de recepção HDMI 311 é capaz ou não de tratar dados de imagem estéreo, e, se for o caso, reconhecer — adicionalmente a estrutura de dados de transmissão TMDS com a qual o receptor de televisão 300 é compatível.
- 89 A linha CEC 84 é constituída por uma única linha de sinal (não ilustrada) incluída no cabo HDMI 400, e é usada para realizar comunicação bidirecional de dados de controle entre a unidade de transmissão HDMI 251 e a unidade de recepção HDMI 311. A linha CEC 84 constitui uma linha de “5 dadosde controle.
% Também, o cabo HDMI 400 inclui uma linha (linha HPD) 86 conectada em um pino chamado de HPD (Detecção de Conexão Rápida). Um aparelho de origem é capaz de detectar a conexão de um aparelho de destino usando a linha 86. Note que a linha HPD 86 também é usada como uma linha —HEAC- que constitui um caminho de comunicação bidirecional. Também, o cabo HDMI 400 inclui uma linha (linha de suprimento de energia) 87 usada para suprir energia de um aparelho de origem a um aparelho de destino. Além do mais, o cabo HDMI 400 inclui uma linha de utilidades 88. A linha de . utilidades 88 também é usada como uma linha HEAC+ que constitui um caminho de comunicação bidirecional.
Ú A figura 59 ilustra uma estrutura de exemplo dos dados de transmissão TMDS. A figura 59 ilustra os períodos das respectivas partes de dados de transmissão em um caso em que dados de imagem de 1.920 pixels horizontais x 1.080 linhas verticais forem transmitidos usando os canais TMDSnº0,nºlenº2.
Em um campo de vídeo em que dados de transmissão são transmitidos usando os três canais TMDS nº 0, nº 1 e nº 2 de HDMI, existem três tipos de períodos de acordo com o tipo de dados de transmissão. Os três tipos de períodos incluem um período de dados de vídeo, um período de ilha — dedadoseum período de controle.
Aqui, o período do campo de vídeo é um período de uma borda de subida (borda ativa) de um certo sinal de sincronismo vertical até uma borda de subida do próximo sinal de sincronismo vertical. O período do campo de vídeo pode ser dividido em um período de supressão horizontal, um — período de supressão vertical e um período de vídeo ativo. O período de vídeo ativo é um período obtido pela remoção do período de supressão horizontal e
. 90 F do período de supressão vertical do período do campo de vídeo.
O período de dados de vídeo é alocado no período de vídeo ativo. No período de dados de vídeo, os dados de pixels ativos correspondentes a
1.920 pixels x 1.080 linhas que constituem dados de imagem descomprimidos ES para uma tela são transmitidos.
O período de ilha de dados e o período de controle são alocados no período de supressão horizontal e no período de supressão vertical. No período de ilha de dados e no período de controle, dados auxiliares são transmitidos. Isto é, o período de ilha de dados é alocado em parte do período — de supressão horizontal e do período de supressão vertical. No período de ilha de dados, dados não relacionados ao controle nos dados auxiliares, por exemplo, pacotes de dados de áudio ou congêneres, são transmitidos.
O período de controle é alocado na outra parte do período de supressão horizontal e do período de supressão vertical. Neste período de controle, dados relacionados ao controle nos dados auxiliares, por exemplo, um sinal de sincronismo vertical e um sinal de sincronismo horizontal, pacotes de controle, etc. são transmitidos.
A figura 60 ilustra um exemplo de um arranjo de pinos de um terminal HDMI. O arranjo de pinos ilustrado na figura 60 é chamado de tipo A. Dados TMDS nº i+ e Dados TMDS nº i-, que são sinais diferenciais do canal TMDS nº i, são transmitidos usando duas linhas que servem como linhas diferenciais. As duas linhas são conectadas nos pinos aos quais Dados TMDS nº i+ são atribuídos (os pinos com números de pino 1, 4 e 7) e nos pinos aos quais Dados TMDS nº i- são atribuídos (os pinos com números de pino 3, 6€e 9).
Também, a linha CEC 84 através da qual um sinal CEC que serve como dados para controle é transmitido é conectada no pino com um número de pino 13. Também, a linha através da qual um sinal SDA (Dados Seriais), tais como E-EDID, é transmitido é conectada no pino com um — número de pino 16. A linha através da qual um sinal SCL (Relógio Serial), que é um sinal de relógio usado para sincronismo na transmissão / recepção
: de um sinal SDA, é transmitido é conectada no pino com um número de pino
15. O supradescrito DDC 83 é constituído por uma linha através da qual um sinal SDA é transmitido e uma linha através da qual um sinal SCL é transmitido. ms Também, como exposto, a linha HPD (linha HEAC-) 86 usada : por um aparelho de origem para detectar a conexão de um aparelho de destino é conectada no pino com um número de pino 19. Também, a linha de utilidades (linha HEAC+) 88 é conectada no pino com um número de pino 14. Também, como exposto, a linha 87 para suprir energia é conectada no pino comum número de pino 18. [Método para transmitir / receber informação de disparidade usando HDMI] Será dada uma descrição de um método para transmitir / receber informação de disparidade (Disparidade) sobre cada área particionada (Partição) para cada imagem parada dos dados de imagem usando uma interface HDMI. Como este método, um método para usar um pacote de informação localizado em um período de supressão dos dados de imagem, por exemplo, InfoFrame Específico do Revendedor HDMI (VS Info), pode ser usado. : Neste método, considera-se que "HDMI Video Format ="010"" e"3D Meta present=1" em VS Info, e "extensão do InfoFrame Específico de Revendedor" é especificado. Neste caso, "3D Metadata type" é definido como não usado, por exemplo, "0O0l", e informação de disparidade (Disparidade) sobre cada área particionada (Partição) é especificada. A figura 61 ilustra um exemplo da estrutura de pacote de VS /Info.OVS Info é definido em CEA-S61-D e, assim, a descrição detalhada deste é omitida. A figura 62 ilustra o conteúdo da informação principal no exemplo da estrutura de pacote ilustrado na figura 61. No sétimo bit até o quinto bit do quarto byte (PB4), a informação de 3 bits "HDMI Video Format", que indica o tipo de dados de imagem, fica — localizada. Em um caso em que os dados de imagem forem dados de imagem 3D, a informação de 3 bits é "010". Também, em um caso em que os dados de
- 92 : imagem forem dados de imagem 3D, informação de 4 bits "3D Structure" que indica uma estrutura de dados de transmissão TMDS fica localizada no sétimo bit até o quarto bit do quinto byte (PB5). Por exemplo, no caso do método de empacotamento de quadro, a informação de 4 bits é "0000". O Também, "3D Meta present" fica localizado no terceiro bit do : quinto byte (PB5) e, no caso da especificação da extensão do InfoFrame Específico de Revendedor, o um bit é "1". Também, "3D Metadata type" fica localizado no sétimo bit até o quinto bit do sétimo byte (PB7). No caso da especificação da informação de disparidade (Disparidade) sobre cada área — particionada (Partição), a informação de 3 bits não é usada, por exemplo, "001". Também, "3D Metadata length" fica localizado no quarto byte até o zero-ésimo byte do sétimo byte (PB7). A informação de 5 bits indica o tamanho da informação de disparidade (Disparidade) sobre cada área : particionada (Partição). O valor do "3D Metadata length" varia de 0x00 até OxlF,e o valor obtido pela adição de 2 no valor representa a íntegra do ; tamanho da informação de disparidade (Disparidade) depois deste campo.
Por exemplo, "00000" representa 2 (em número decimal) e "11111" representa 33 (em número decimal). Também, informação de identificação de 1 bit "PRTY" fica localizada no zero-ésimo bit do sexto byte (PB6). A informação de identificação indica se o VS Info inclui ou não informação a ser referida por um lado de destino HDMI, aqui, a informação de disparidade (Disparidade). "1" indica que informação a ser referida pelo destino HDMI está absolutamente incluída. "0" indica que informação a ser referida pelo destino —HDMI não está necessariamente incluída.
Com a informação de identificação de 1 bit "PRTY" sendo localizada, o destino HDMI, nesta modalidade, o receptor de televisão 300, é capaz de determinar se VS Info inclui ou não informação a ser referida, sem examinar "3D Metadata type" e posteriores.
Assim, a informação de — identificação habilita o destino HDMI a realizar eficientemente um processo de extração da informação a ser referida de VS Info e, desta maneira, uma
: 93 " carga do processamento pode ser reduzida.
Também, "partition type" fica localizado no sétimo bit até o quinto bit do oitavo byte (PB8). A informação de 3 bits indica o tipo de partição da tela de exibição de uma imagem parada alvo. "000" indica que a “5 telade exibição não é particionada, "001" indica que a tela de exibição é - particionada em duas áreas iguais em cada uma das direções horizontal e vertical, e "010" indica que a tela de exibição é particionada em quatro áreas iguais em cada uma das direções horizontal e vertical.
Também, a informação de identificação de 1 bit "d picture" fica localizada no quarto bit do oitavo byte (PB8). A informação de identificação . representa uma única imagem parada ou imagem parada dupla. "0" representa uma única imagem parada, isto é, o modo de transmissão da informação de disparidade (Disparidade) sobre cada área particionada (Partição) para uma : imagem parada. "1" representa uma imagem parada dupla, isto é, o modo de transmissão da informação de disparidade (Disparidade) sobre cada área L particionada (Partição) para duas imagens paradas.
Também, "partition count" fica localizado no terceiro bit até o zero-ésimo bit do oitavo byte (PB8). A informação de 4 bits representa o número total de áreas particionadas (Partições) e é um valor dependente no — supradescrito "partition type". Por exemplo, "0000" representa um número total "1", e "1111" representa um número total "16".
Adicionalmente, a partir do 8+1-ésimo byte (PB8+1), partes da informação de disparidade (primeira informação de disparidade e segunda informação de disparidade) para uma imagem parada ou duas imagens — paradas ficam sequencialmente localizadas. A informação de 8 bits "max disparity in picture" indica a segunda informação de disparidade sobre a íntegra da tela de exibição da imagem parada (a íntegra da imagem parada), isto é, a máxima informação de disparidade (valor da disparidade) sobre a íntegra da imagem parada. A informação de 8 bits "disparity in partition" indica a primeira informação de disparidade sobre cada área particionada (Partição), isto é, a informação de disparidade mínima (valor da disparidade)
. 94 * sobre cada área particionada.
A figura 63 ilustra uma estrutura de exemplo de VS Info em um caso em que "d picture = 0", isto é, o modo é um modo de imagem parada única, e "partition type = 010", isto é, o número de áreas particionadas é "16". Neste caso, a informação de disparidade sobre cada área particionada - para uma imagem parada fica localizada no 8+1-ésimo byte (PB8+1) e posteriores.
Por outro lado, a figura 64 ilustra uma estrutura de exemplo de VS Info em um caso em que "d picture = 1", isto é, o modo é um modo de imagem parada dupla, e "partition type = 010", isto é, o número de áreas —particionadas é "16". Neste caso, a informação de disparidade sobre cada área particionada para duas imagens paradas fica localizada no 8+1-ésimo byte (PB8+1) e posteriores.
Da forma supradescrita, em um caso em que um fluxo contínuo t de vídeo incluir informação de disparidade inserida em si em unidades de imagens paradas, o receptor / decodificador integrado 200 obtém informação i de disparidade para uma imagem parada no sincronismo de cada imagem parada dos dados de imagem (veja a figura 42). Adicionalmente, como exposto, em um caso em que um fluxo contínuo de vídeo incluir informação de disparidade inserida em unidades de GOPs, o receptor / decodificador integrado 200 obtém coletivamente partes da informação de disparidade (conjunto da informação de disparidade) para imagens paradas individuais em um GOP no sincronismo do cabeçalho do GOP dos dados de imagem (veja a figura 43). Em qualquer caso, o receptor / decodificador integrado 200 é — capaz de selecionar arbitrariamente tanto um modo de imagem parada única quanto um modo de imagem parada dupla, por exemplo, com base em negociação usando a linha CEC 84 entre o receptor / decodificador integrado 200 e o receptor de televisão 300, ou a definição no ROM dos EDID 85. Neste caso, o receptor / decodificador integrado 200 é capaz de selecionar um — modo de acordo com uma banda de transmissão para transmitir informação de disparidade para cada imagem parada ou de acordo com a capacidade de
: 95 processamento do receptor / decodificador integrado 200 e do receptor de televisão 300, e é capaz de transmitir favoravelmente a informação de disparidade ao receptor de televisão 300. No receptor de televisão 300, a informação de disparidade a (Disparidade) sobre todas as imagens paradas pode ser precisamente recebida . em qualquer modo de transmissão com base na informação de identificação de modo "d picture" localizada em VS Info e na supradescrita informação de identificação que indica se informação de referência "PRTY" existe ou não. A figura 65 ilustra esquematicamente um caso em que o receptor / decodificador integrado 200 obtém informação de disparidade para uma imagem parada no sincronismo de cada imagem parada dos dados de imagem e transmite sequencialmente partes da informação de disparidade para imagens paradas individuais ao receptor de televisão 300 em um modo de : imagem parada única. Também, a figura 66 ilustra esquematicamente um caso 155 em que o receptor / decodificador integrado 200 obtém informação de í disparidade para uma imagem parada no sincronismo de cada imagem parada dos dados de imagem e transmite sequencialmente partes da informação de disparidade para imagens paradas individuais ao receptor de televisão 300 em um modo de imagem parada dupla.
Também, a figura 67 ilustra esquematicamente um caso em que o receptor / decodificador integrado 200 obtém coletivamente partes da informação de disparidade para imagens paradas individuais em um GOP no sincronismo do cabeçalho do GOP dos dados de imagem e transmite sequencialmente as partes da informação de disparidade para as imagens — paradas individuais ao receptor de televisão 300 em um modo de imagem parada única. Adicionalmente, a figura 68 ilustra esquematicamente um caso em que o receptor / decodificador integrado 200 obtém coletivamente partes da informação de disparidade para imagens paradas individuais em um GOP no sincronismo do cabeçalho do GOP dos dados de imagem e transmite — sequencialmente as partes da informação de disparidade para as imagens paradas individuais ao receptor de televisão 300 em um modo de imagem
. 9% - parada dupla.
Note que, anteriormente, foi dada uma descrição de que o receptor / decodificador integrado 200 é capaz de selecionar arbitrariamente um modo de imagem parada única ou um modo de imagem parada dupla.
"8 Entretanto, por exemplo, no caso de obtenção coletiva das partes da : informação de disparidade para imagens paradas individuais em um GOP no sincronismo do cabeçalho do GOP dos dados de imagem, as partes da informação de disparidade podem ser transmitidas em um modo de imagem parada única. Neste caso, partes da informação de disparidade para imagens — paradas individuais no GOP são alocadas em imagens paradas individuais, e as partes da informação de disparidade para imagens paradas individuais são sequencialmente transmitidas em unidades de imagens paradas (veja a figura 67). Neste caso, mesmo se a banda de transmissão para transmitir uma parte : da informação de disparidade para cada imagem parada for estreita, a parte da informação de disparidade para cada imagem parada pode ser favoravelmente ' transmitida ao receptor de televisão 300.
Por outro lado, em um caso em que o receptor / decodificador integrado 200 for capaz de transmitir VS InfoFrame apenas uma vez em dois períodos de quadro de vídeo, ou em um caso em que o receptor de televisão — 300 for capaz de receber VS InfoFrame apenas uma vez em dois períodos de quadro de vídeo, a informação de disparidade para dois quadros de vídeo pode ser sequencialmente transmitida usando uma único VS InfoFrame, da forma ilustrada na figura 66.
Note que, anteriormente, foi dada uma descrição de um exemplo — de transmissão das partes da informação de disparidade para uma primeira imagem parada e uma segunda imagem parada que são sequencialmente adjacentes uma à outra como elas estão, isto é, no estado de intradados, em unidades de duas imagens paradas (dois quadros) em um modo de imagem parada dupla. Entretanto, no modo de imagem parada dupla, a informação de — disparidade para a primeira imagem parada ou a segunda imagem parada pode compreender dados da diferença da informação de disparidade para a imagem
. 97 parada imediatamente precedente, para reduzir a quantidade de dados de transmissão.
A figura 69 e a figura 70 ilustram outros exemplos da estrutura de pacote de VS Info (InfoFrame Específico de Revendedor HDMI). Embora uma descrição detalhada seja omitida, a estrutura do zero-ésimo byte (PB0) até o sexto . byte (PB6) é a mesma do supradescrito exemplo da estrutura de pacote ilustrado na figura 61. A figura 71 ilustra o conteúdo da informação principal nos exemplos da estrutura de pacote ilustrados na figura 69 e na figura 70. No sétimo bit até o quinto bit do sétimo byte (PB7), "3D Metadata type" fica localizado.
No caso da especificação da informação de disparidade (Disparidade) sobre cada área particionada (Partição), a informação de 3 bits não é usada, por exemplo, "001". Também, no quarto byte até o zero-ésimo byte do sétimo byte : (PB7), "3D Metadata length" fica localizado.
A informação de 5 bits indica 15º o tamanho da informação de disparidade (Disparidade) sobre cada área : particionada (Partição). O valor do "3D Metadata length" varia de 0x00 até Ox16. Por exemplo, "00011" representa 3 (em número decimal) e "11010" representa 26 (em número decimal). No sétimo bit do oitavo byte (PB8), a informação de identificação de | bit "d picture" fica localizada.
A informação de identificação representa uma única imagem parada ou uma imagem parada dupla. "O" representa uma única imagem parada, isto é, o modo de transmissão da informação de disparidade (Disparidade) para uma imagem parada como informação de disparidade (Disparidade) sobre cada área — particionada (Partição). "1" representa uma imagem parada dupla, isto é, o modo de transmissão da informação de disparidade (Disparidade) para duas imagens paradas como informação de disparidade (Disparidade) sobre cada área particionada (Partição). No quinto bit do oitavo byte (PB8), informação de identificação del bit "partition enable" fica localizada.
A informação de identificação indica se a imagem parada alvo tem ou não informação de disparidade
- 98 n (Disparidade) sobre cada área particionada (Partição). "1" indica que áreas particionadas são especificadas nas direções horizontal e vertical e cada área particionada tem informação de disparidade (Disparidade). "0" indica que a íntegra da tela tem uma parte da informação de disparidade (Disparidade). No sexto bit do oitavo byte (PB8), a informação de identificação . de 1 bit "Picture reorder" fica localizada.
A informação de identificação indica, no caso da transmissão de uma imagem parada dupla, qual das duas imagens paradas (N, N + 1) é transmitida primeiro, isto é, N é cronologicamente o primeiro e N + 1 é o segundo, ou N + 1 é — cronologicamente o primeiro e N é o segundo. "1" indica que a imagem parada (N + 1) é a primeira, o valor da informação de disparidade (Disparidade) é representado por 8 bits, a imagem parada N é a segunda e um valor da diferença da informação de disparidade (Disparidade) para a imagem : parada (N - 1) é representado por 4 bits. "0" indica que a imagem parada Né a primeira, o valor da informação de disparidade (Disparidade) é representado . por 8 bits, a imagem parada (N + 1) é a segunda e um valor da diferença da informação de disparidade (Disparidade) para a imagem parada N é representado por 4 bits.
Também, no terceiro bit até o zero-ésimo bit do oitavo byte —(PB8), "partition count" fica localizado.
A informação de 4 bits representa o número total de áreas particionadas (Partições). Por exemplo, "0000" representa um número total "1", e "1111" representa um número total "16", Então, no 8+l-ésimo byte (PB8+1) e posteriores, partes da informação de disparidade (primeira informação de disparidade e segunda informação de disparidade) para uma imagem parada ou duas imagens paradas ficam sequencialmente localizadas.
A informação de 8 bits "max disparity in picture" indica a segunda informação de disparidade sobre a íntegra da tela de exibição da imagem parada (a íntegra da imagem parada), isto é, a máxima informação de disparidade (valor da disparidade) sobre a íntegra da imagem parada A informação de 8 bits "Min disparity in partition" indica a primeira informação de disparidade
: 99 . sobre cada área particionada (Partição), isto é, a informação de disparidade mínima (valor da disparidade) sobre cada área particionada.
A estrutura de exemplo de VS Info na figura 69 ilustra uma : estrutura de exemplo de VS Info em um caso em que "d picture = 1", o modo forum modo de imagem parada dupla, "picture reorder = 0" e a imagem S parada N ficar cronologicamente localizada antes da imagem parada N + 1. Note que este exemplo ilustra um caso em que "partition count = 1111" eo número de áreas particionadas é "16". Neste caso, "Max disparity in picture", que é a segunda informação de disparidade sobre a íntegra da tela de exibição da imagem parada na imagem parada N, isto é, a máxima informação de disparidade (valor da disparidade) para a íntegra da imagem parada, fica localizada no 8+1-ésimo byte (PB8+1). Também, "Min disparity in partition", que é a : primeira informação de disparidade sobre cada área particionada (Partição) na imagem parada N, isto é, a informação de disparidade mínima (valor da À disparidade) para cada área particionada, fica localizada no 8+2-ésimo byte (PB8+2) até o 8+16-ésimo byte (PB8+16). Também, neste caso, "Differential max disparity in picture", que é a segunda informação de disparidade sobre a íntegra da tela de exibição —daimagem parada na imagem parada N + 1, isto é, os dados da diferença da máxima informação de disparidade (valor da disparidade) para a íntegra da imagem parada, fica localizada no terceiro bit até o zero-ésimo bit do 8+17- ésimo byte (PB8+17). "Differential min disparity in partition", que é a primeira informação de disparidade sobre cada área particionada (Partição) na — imagem parada N+ |, isto é, o valor da diferença da mínima informação de disparidade (valor da disparidade) para cada área particionada, fica localizada no 8+18-ésimo byte (PB8+18) até o 8+25-ésimo byte (PB8+25). A estrutura de exemplo de VS Info na figura 70 ilustra uma estrutura de exemplo de VS Info em um caso em que "d picture = 1", o modo for um modo — de imagem parada dupla, "picture reorder = 1" e a imagem parada N + 1 ficar cronologicamente localizada antes da imagem parada N.
Note que este exemplo
: 100 - ilustra um caso em que "partition count = 1111" e o número de áreas particionadas é "16". Neste caso, "Max disparity in picture", que é a segunda informação de disparidade sobre a íntegra da tela de exibição da imagem : 5 — parada na imagem parada N + 1, isto é, a máxima informação de disparidade - (valor da disparidade) para a íntegra da imagem parada, fica localizada no 8+1-ésimo byte (PB8+1). Também, "Min disparity in partition", que é a primeira informação de disparidade sobre cada área particionada (Partição) na imagem parada N + 1, isto é, a informação de disparidade mínima (valor da — disparidade) para cada área particionada, fica localizada no 8+2-ésimo byte (PB8+2) até o 8+16-ésimo byte (PB8+16). Também, neste caso, "Differential max disparity in picture", que é a segunda informação de disparidade sobre a íntegra da tela de exibição . da imagem parada na imagem parada N, isto é, os dados da diferença da máxima informação de disparidade (valor da disparidade) para a íntegra da Ú imagem parada, fica localizado no terceiro bit até o zero-ésimo bit do 8+17- ésimo byte (PB8+17). "Differential min disparity in partition", que é a primeira informação de disparidade sobre cada área particionada (Partição) na imagem parada N, isto é, o valor da diferença da mínima informação de — disparidade (valor da disparidade) para cada área particionada, fica localizada no 8+18-ésimo byte (PB8+18) até o 8+25-ésimo byte (PB8+25). [Determinação de ordem da imagem parada N e da imagem parada N + 1] Aqui, determinação da ordem de uma imagem parada N e de uma imagem parada N + 1, isto é, determinação se "picture reorder" deve ser "0" —ou"l",érealizada da seguinte maneira, por exemplo.
Determinação da ordem de uma imagem parada N e de uma imagem parada N + | é realizada, por exemplo, com a configuração ilustrada na figura 72. A informação de disparidade é suprida a uma memória de quadro 281 e é atrasada em um quadro.
Em um subtrator 282, dados da diferença "D(N) - D(N + 1)" entre a informação de disparidade D(N + 1) para uma imagem parada N + l ea informação de disparidade D(N) para uma imagem parada N são calculados, e
- 101 - os dados da diferença são transmitidos a uma unidade de determinação de ordem 283. Na unidade de determinação de ordem 283, o valor absoluto dos dados da diferença |D(N) - D(N + 1)|) é comparado com um limite Th, e a : 5 — ordem da imagem parada N e da imagem parada N + | é determinada. . Quando |D(N) - D(N + 1)| < Th, a unidade de determinação de ordem 283 determina que "a imagem parada N é a primeira e a imagem parada N+ 1 é a segunda", define "picture reorder" de VS Info em "O", e localiza a informação de disparidade para a imagem parada N e a imagem parada N + | em VS Info da maneira ilustrada na imagem parada 69. Neste caso, a informação de disparidade para a imagem parada N + 1 compreende dados da diferença em relação à informação de disparidade para a imagem parada N.
A figura 73 ilustra um exemplo de uma transição temporal da : informação de disparidade (valor da disparidade) em um caso em que [D(N) - DIN 155 +1)|<Th.
Neste exemplo, a informação de disparidade muda significativamente entre a imagem parada N - | e a imagem parada N.
Entretanto, a mudança na informação de disparidade é pequena entre a imagem parada N e a imagem parada N + 1. Assim, |D(N) - D(N + 1)| < Th é satisfeito.
Neste caso, a informação de disparidade para imagem parada N + 1 compreende os dados da diferença em relação à informação de disparidade para a imagem parada N e, assim, o valor desta é relativamente pequeno.
Por outro lado, quando |D(N) - D(N + 1)| > Th, a unidade de determinação de ordem 283 determina que "a imagem parada N + 1 é a primeira e a imagem parada N é a segunda", define "picture reorder" de VS Infoem'"O0"elocalizaa informação de disparidade para a imagem parada N+1eaimagem parada N em VS Info da maneira ilustrada na figura 70. Neste caso, a informação de disparidade para a imagem parada N compreende dados da diferença em relação à informação de disparidade para a imagem parada N - 1. A imagem parada 74 ilustra um exemplo de uma transição temporal da informação de disparidade (valor da disparidade) em um caso em
- 102 PE que |[D(N) - D(N + 1)| > Th.
Neste exemplo, a mudança na informação de disparidade é pequena entre a imagem parada N - | e a imagem parada N, mas a mudança na informação de disparidade é grande entre a imagem parada N e D a imagem parada N + 1. Assim, [D(N) - D(N + 1)| > Th é satisfeito.
Neste —caso,a informação de disparidade para a imagem parada N compreende os S dados da diferença em relação à informação de disparidade para a imagem parada N - | e, assim, o valor desta é relativamente pequeno.
Aqui, — considerando — "Min disparity in partition", valores mínimos Min disparity(N + 1) e Min disparity(N) de "Min disparity in partition" de cada área particionada (Partição) são usados como D(N + 1) e D(N), da forma expressada pelas seguintes equações (2) e (3), respectivamente.
D(N + 1) = Min disparity(N+1) . = Mínimo (Min disparity partition (N+1 O, N+1 1,--, N+115)).-(2) à D(N) = Min disparity(N) = Mínimo (Min disparity partition (N 0, N 1,--, N 15)) ... 6) Note que, considerando D(N), "Min disparity partition" da imagem parada N na mesma área particionada (Partição) que "Min disparity partition", que é Min disparity (N + 1) adotada como D(N + 1) na equação (2) exposta, pode ser usado em vez de obtê-lo pelo uso da equação (3) exposta.
Por outro lado, considerando "Max disparity in picture", “Max disparity in picture" da imagem parada N + 1 é usado como D(N + 1) e"Max disparity in picture" da imagem parada N é usado como D(N). Note que, considerando um resultado da determinação da comparação entre [D(N) - D(N + 1)| e Th, se o resultado que considera "Min disparity in partition" não corresponder ao resultado que considera "Max disparity in picture", o resultudo que considera "Min disparity in partition" pode ser preferivelmente usado.
: 103 Note que, na supradescrita estrutura de exemplo de VS Info ilustrado na figura 70, a imagem parada N + 1 fica cronologicamente localizada antes da imagem parada N. Desta maneira, a estrutura do 8+1- ésimo byte (PB8+1) até o 8+25-ésimo byte (PB+25) torna-se a mesma i 5 estrutura de exemplo de VS Info na figura 69, em que a imagem parada N fica . cronologicamente localizada antes da imagem parada N + | e, assim, leitura é realizada de forma estável em um lado de recepção. Entretanto, na estrutura de exemplo de VS Info ilustrado na figura 70, as posições da informação de disparidade para a imagem parada N + | e da informação de disparidade para —aimagem parada N podem ser invertidas.
Também, na descrição exposta, um exemplo no qual o receptor / decodificador integrado 200 é capaz de selecionar um modo de imagem parada única ou um modo de imagem parada dupla foi descrito. Entretanto, o S modo de diversas imagens paradas pode ser usado em vez do modo de imagem parada dupla, e o número de imagens paradas pode ser Ú arbitrariamente selecionado. Adicionalmente, pode haver um caso em que o número de modos selecionáveis é três ou mais. Neste caso, é possível mudar o número de áreas particionadas (partições) para um número apropriado no lado de origem da HDMI, de forma que transmissão possa ser realizada em uma — dada banda.
Da forma supradescrita, no sistema de transmissão / recepção de imagem 10 ilustrado na figura 1, a estação de difusão 100 insere a primeira informação de disparidade e a segunda informação de disparidade que são obtidas para cada uma de certas imagens paradas dos dados de imagem em um fluxo contínuo de vídeo, e transmite o fluxo contínuo de vídeo. Aqui, a primeira informação de disparidade é informação de disparidade correspondente à posição de reprodução do objeto mais próxima em uma certa área de uma tela de exibição da imagem parada, e a segunda informação de disparidade é informação de disparidade correspondente à posição de — reprodução do objeto mais distante na certa área da tela de exibição da imagem parada. Assim, por exemplo, com base na primeira informação de disparidade e na segunda informação de disparidade, o receptor / decodificador integrado 200 em um lado de recepção é capaz de verificar se um ângulo de disparidade está ou não em uma certa faixa na qual visualização não ocasiona nenhum problema de saúde e de reconfigurar os dados de : 5 imagem do olho esquerdo e os dados de imagem do olho direito, se . necessário. Adicionalmente, no sistema de transmissão / recepção de imagem ilustrado na figura 1, a estação de difusão 100 realiza um processo de codificação de compressão na informação de disparidade durante a inserção 10 —dainformação de disparidade obtida para cada uma de certas imagens paradas dos dados de imagem em um fluxo contínuo de vídeo e a transmissão do fluxo contínuo de vídeo, e a quantidade de dados pode ser reduzida. <2. Modificação> : Note que, na supradescrita modalidade, o sistema de transmissão / recepção de imagem 10 é constituído pela estação de difusão 100, pelo í receptor / decodificador integrado 200 e pelo receptor de televisão 300. Entretanto, da forma ilustrada na figura 75, um sistema de transmissão / recepção de imagem 10A constituído pela estação de difusão 100 e por um receptor de televisão 300A pode ser empregado.
A figura 76 ilustra uma configuração de exemplo do receptor de televisão 300A. Na figura 76, as partes correspondentes àquelas da figura 45 são denotadas pelos mesmos números de referência, e a descrição detalhada destas é omitida. Uma unidade de geração de elementos gráficos da televisão (TV) 219A é similar à unidade de geração de elementos gráficos de receptor / — decodificador integrado (STB) 219 do receptor / decodificador integrado 200 da figura 45, e gera dados de elementos gráficos de OSD, uma aplicação, EPG ou congêneres.
A partir da unidade de sobreposição 217, dados de uma imagem do olho esquerdo na qual uma legenda (texto explicativo) e elementos gráficos para exibição ao olho esquerdo são sobrepostos são obtidos e, também, dados de uma imagem do olho direito na qual uma legenda (texto explicativo) e elementos gráficos para exibição ao olho direito são sobrepostos são obtidos.
Estas partes de dados de imagem são transmitidas a uma unidade de processamento para exibição de imagem estéreo, e exibição 7 de imagem estéreo é realizada.
Também, na unidade de mixagem de canal — 244,dados de áudio de cada canal para realizar, por exemplo, surround de 5.1 canais ou congêneres, são gerados a partir dos dados de áudio.
Os dados de áudio são supridos, por exemplo, a um alto-falante, e transmissão de áudio é realizada de acordo com a exibição de imagem estéreo.
Embora uma descrição detalhada seja omitida, a outra parte do — receptor de televisão 300A ilustrado na figura 76 é configurada similarmente ao receptor / decodificador integrado 200 da figura 45, e opera similarmente.
Também, na supradescrita modalidade, o receptor / decodificador integrado 200 e o receptor de televisão 300 são conectados um no outro por : meio de uma interface digital HDMI.
Entretanto, mesmo em um caso em que eles forem conectados um no outro por meio de uma interface digital similar à S interface digital HDMI (incluindo tanto sem fios quanto com fios), a presente tecnologia é certamente aplicável da mesma maneira.
Também, na supradescrita modalidade, um método para usar um InfoFrame Específico de Revendedor HDMI foi descrito como um método para transmitir informação de disparidade do receptor / decodificador integrado 200 ao receptor de televisão 300. Alternativamente, um método para usar um espaço ativo pode ser usado e, além do mais, transmissão pode ser realizada através de um caminho de comunicação bidirecional constituído pela linha HPD 86 (linha HEAC-) e pela linha de utilidades 88 (linha HEACH). Também, na supradescrita modalidade, um exemplo no qual a informação de disparidade é transmitida do receptor / decodificador integrado 200 ao receptor de televisão 300 por meio de uma interface HDMI foi descrito.
Entretanto, a tecnologia de transmissão da informação de — disparidade por meio de uma interface HDMI desta maneira é certamente aplicável em uma combinação de um outro tipo de aparelho de origem e um é 106 outro tipo de aparelho de destino. Por exemplo, um tocador de disco para um BD, um DVD ou congêneres e uma máquina de jogos podem ser usados como um aparelho de origem e um aparelho de monitor, um aparelho projetor ou congêneres podem ser usados como um aparelho de destino. Também, na supradescrita modalidade, um exemplo no qual um . contêiner é um fluxo contínuo de transporte (MPEG-2 TS) foi descrito. Entretanto, a presente tecnologia também é aplicável em um sistema com uma configuração na qual distribuição a um terminal de recepção é realizada usando uma rede, tal como a Internet. Na distribuição na Internet, um —contêiner de MP4 ou de um outro formato pode ser usado para distribuição em muitos casos.
Isto é, como um contêiner, contêiners de vários formatos, tais como um fluxo contínuo de transporte (MPEG-2 TS) adotado nos padrões de difusão digital e MP4 usado para distribuição na Internet, podem ser usados.
Também, aplicação na qual um método para suprir um único serviço é : dividido em uma pluralidade de métodos, e os métodos individuais são realizados em diferentes formas de transmissão, isto é, um caso em que uma das vistas é transmitida por ondas de rádio e a outra vista é transmitida na Internet, pode ser empregada. Além do mais, a presente tecnologia também pode prover as seguintes configurações.
(1) Aparelho de transmissão, incluindo: uma unidade de obtenção de dados de imagem que obtém dados de imagem do olho esquerdo e dados de imagem do olho direito que formam —umaimagem «estéreo; uma unidade de obtenção da informação de disparidade que obtém, para cada uma de certas imagens paradas dos dados de imagem obtidos, a informação de disparidade sobre uma de uma imagem do olho esquerdo e de uma imagem do olho direito em relação à outra, a informação — de disparidade incluindo primeira informação de disparidade correspondente à posição de reprodução do objeto mais próxima em uma certa área de uma tela
: 107 de exibição da imagem parada e segunda informação de disparidade correspondente à posição de reprodução do objeto mais distante na certa área da tela de exibição da imagem parada; uma unidade de inserção da informação de disparidade que insere i 5 a informação de disparidade obtida em um fluxo contínuo de vídeo que é . obtido pela codificação dos dados de imagem obtidos; e uma unidade de transmissão dos dados de imagem que transmite um contêiner de um certo formato, o contêiner incluindo o fluxo contínuo de vídeo no qual a informação de disparidade foi inserida.
(2) Aparelho de transmissão, de acordo com (1), em que a unidade de inserção da informação de disparidade insere a primeira informação de disparidade e a segunda informação de disparidade em unidades de imagens paradas ou em unidades de GOPs.
: (3) Aparelho de transmissão, de acordo com (1) ou (2), em que a unidade de inserção da informação de disparidade insere a informação de disparidade obtida no fluxo contínuo de vídeo depois da realização de um processo de codificação de compressão.
(4) Aparelho de transmissão, de acordo com qualquer um de (1) até (3), em que a unidade de inserção da informação de disparidade insere — adicionalmente, durante a inserção da informação de disparidade em uma certa imagem parada no fluxo contínuo de vídeo, a informação de identificação que identifica se a informação de disparidade é informação de disparidade sobre a íntegra da tela de exibição da imagem parada ou informação de disparidade sobre cada uma de um certo número de áreas — particionadas.
(5) Aparelho de transmissão, de acordo com qualquer um de (1) até (4), em que a unidade de obtenção da informação de disparidade obtém a primeira informação de disparidade sobre cada uma das áreas particionadas que são obtidas pelo particionamento da tela de exibição da imagem parada — usando a informação de partição e também obtém a segunda informação de disparidade sobre a íntegra da tela de exibição da imagem parada.
& 108 ó (6) Aparelho de transmissão, de acordo com qualquer um de (1) até (4), em que a unidade de obtenção da informação de disparidade obtém a primeira informação de disparidade e a segunda informação de disparidade sobre cada uma das áreas particionadas que são obtidas pelo particionamento á 5 —dateladeexibiçãodaimagem parada usando a informação de partição.
. (7) Aparelho de transmissão, de acordo com qualquer um de ( D até (4), em que a unidade de obtenção da informação de disparidade obtém a primeira informação de disparidade sobre cada uma das áreas particionadas que são obtidas pelo particionamento da tela de exibição da imagem parada usando a primeira informação de partição e também obtém a segunda informação de disparidade sobre cada uma das áreas particionadas que são obtidas pelo particionamento da tela de exibição da imagem parada usando a segunda informação de partição.
(8) Método de transmissão, incluindo: | 15 uma etapa de obtenção dos dados de imagem do olho esquerdo e ã dos dados de imagem do olho direito que formam uma imagem estéreo; uma etapa de obtenção, para cada uma de certas imagens paradas dos dados de imagem obtidos, da informação de disparidade sobre uma de uma imagem do olho esquerdo e de uma imagem do olho direito em relação à outra, a informação de disparidade incluindo primeira informação de disparidade correspondente à posição de reprodução do objeto mais próxima em uma certa área de uma tela de exibição da imagem parada e segunda informação de disparidade correspondente à posição de reprodução do objeto mais distante na certa área da tela de exibição da imagem parada; uma etapa de inserção da informação de disparidade obtida em um fluxo contínuo de vídeo que é obtido pela codificação dos dados de imagem obtidos; e uma etapa de transmissão de um contêiner de um certo formato, o contêiner incluindo o fluxo contínuo de vídeo no qual a informação de — disparidade foi inserida. (9) Aparelho de recepção, incluindo:
à 109 ' uma unidade de recepção dos dados de imagem que recebe um contêiner de um certo formato, o contêiner incluindo um fluxo contínuo de vídeo, em que o fluxo contínuo de vídeo é obtido pela codificação dos : dados de imagem do olho esquerdo e dos dados de imagem do olho direito — que formam uma imagem estéreo, e * em que o fluxo contínuo de vídeo inclui, inserida em si, para cada uma de certas imagens paradas dos dados de imagem, a informação de disparidade sobre uma de uma imagem do olho esquerdo e de uma imagem do olho direito em relação à outra, a informação de disparidade incluindo — primeira informação de disparidade correspondente à posição de reprodução do objeto mais próxima em uma certa área de uma tela de exibição da imagem parada e segunda informação de disparidade correspondente à posição de reprodução do objeto mais distante na certa área da tela de exibição da : imagem parada, o aparelho de recepção incluindo adicionalmente: à uma unidade de obtenção da informação que obtém os dados de imagem do olho esquerdo e os dados de imagem do olho direito e também obtém a primeira informação de disparidade e a segunda informação de disparidade a partir do fluxo contínuo de vídeo incluído no contêiner; e uma unidade de controle que provê uma instrução para reconfigurar os dados de imagem do olho esquerdo e os dados de imagem do olho direito, de forma que um ângulo de disparidade fique em uma certa faixa, com base na primeira informação de disparidade e na segunda informação de disparidade obtidas.
(10) Aparelho de transmissão, incluindo: uma unidade de obtenção de dados de imagem que obtém dados de imagem do olho esquerdo e dados de imagem do olho direito que formam uma imagem estéreo; uma unidade de obtenção da informação de disparidade que — obtém, para cada uma de certas imagens paradas dos dados de imagem obtidos, a informação de disparidade sobre uma de uma imagem do olho
& 110 : esquerdo e de uma imagem do olho direito em relação à outra; : uma unidade de codificação de compressão que realiza um processo de codificação de compressão na informação de disparidade obtida; uma unidade de inserção da informação de disparidade que insere i S a informação de disparidade codificada com compressão em um fluxo . contínuo de vídeo que é obtido pela codificação dos dados de imagem obtidos; e uma unidade de transmissão dos dados de imagem que transmite um contêiner de um certo formato, o contêiner incluindo o fluxo contínuo de —vídeono qual a informação de disparidade foi inserida.
(11) Aparelho de transmissão, de acordo com (10), em que a unidade de codificação de compressão realiza, como o processo de codificação de compressão, um processo que usa um código de comprimento Y variável na informação de disparidade obtida sobre as imagens paradas individuais.
' (12) Aparelho de transmissão, de acordo com (11), em que a unidade de codificação de compressão realiza, como o processo de codificação de compressão, um processo de obtenção dos dados da diferença entre uma imagem parada de referência e uma imagem parada referenciada, — dentreas imagens paradas individuais obtidas, e de realização da codificação de comprimento variável nos dados da diferença.
(13) Aparelho de transmissão, de acordo com (12), em que a unidade de codificação de compressão obtém dados da diferença pela consideração de uma imagem parada precedente na ordem de exibição como —umaimagem parada referenciada.
(14) Aparelho de transmissão, de acordo com (12), em que a unidade de codificação de compressão obtém dados da diferença pela consideração de uma imagem parada precedente na ordem de decodificação como uma imagem parada referenciada.
(15) Aparelho de transmissão, de acordo com qualquer um de (12) até (14), em que a unidade de inserção da informação de disparidade
: insere adicionalmente, durante a inserção da informação de disparidade em : uma certa imagem parada no fluxo contínuo de vídeo, a informação de identificação que identifica se a informação de disparidade inserida SÊ compreende intradados ou dados da diferença. (16) Aparelho de transmissão, de acordo com (14), em que a - unidade de inserção da informação de disparidade insere a informação de disparidade para uma imagem parada |, uma imagem parada P e uma imagem parada B referenciada no fluxo contínuo de vídeo, e em um caso em que a informação de disparidade inserida compreender dados da diferença, insere adicionalmente informação que representa o número de imagens paradas até uma imagem parada referenciada. (17) Método de transmissão, incluindo: uma etapa de obtenção dos dados de imagem do olho esquerdo e à dos dados de imagem do olho direito que formam uma imagem estéreo; uma etapa de obtenção, para cada uma de certas imagens paradas dos dados de imagem obtidos, da informação de disparidade sobre uma de uma imagem do olho esquerdo e de uma imagem do olho direito em relação à outra; uma etapa de realização de um processo de codificação de compressão na informação de disparidade obtida; uma etapa de inserção da informação de disparidade codificada com compressão em um fluxo contínuo de vídeo que é obtido. pela — codificação dos dados de imagem obtidos; e uma etapa de transmissão de um contêiner de um certo formato, o contêiner incluindo o fluxo contínuo de vídeo no qual a informação de disparidade foi inserida. (18) Aparelho de recepção, incluindo: uma unidade de recepção dos dados de imagem que recebe um contêiner de um certo formato, o contêiner incluindo um fluxo contínuo de
: 112 ã vídeo, . em que o fluxo contínuo de vídeo é obtido pela codificação dos dados de imagem do olho esquerdo e dos dados de imagem do olho direito : que formam uma imagem estéreo, e Ss em que o fluxo contínuo de vídeo inclui, inserida em si, para : cada uma de certas imagens paradas dos dados de imagem, a informação de disparidade sobre uma de uma imagem do olho esquerdo e de uma imagem do olho direito em relação à outra, o aparelho de recepção incluindo adicionalmente: uma unidade de obtenção da informação que obtém os dados de imagem do olho esquerdo e os dados de imagem do olho direito e também obtém a informação de disparidade a partir do fluxo contínuo de vídeo incluído no contêiner; e : uma unidade de interpolação da informação de disparidade que gera informação de disparidade sobre uma imagem parada para a qual a informação de disparidade obtida pela unidade de obtenção da informação não existe pela realização de interpolação usando a informação de disparidade obtida sobre uma imagem parada precedente e uma imagem parada subsequente.
(19) Aparelho de recepção, incluindo: uma unidade de recepção dos dados de imagem que recebe um contêiner de um certo formato, o contêiner incluindo um fluxo contínuo de vídeo, em que o fluxo contínuo de vídeo é obtido pela codificação dos — dados de imagem do olho esquerdo e dos dados de imagem do olho direito que formam uma imagem estéreo, e em que o fluxo contínuo de vídeo inclui, inserida em si, para cada uma de certas imagens paradas dos dados de imagem, a informação de disparidade sobre uma de uma imagem do olho esquerdo e de uma imagem do olho direito em relação à outra, a informação de disparidade incluindo primeira informação de disparidade correspondente à posição de reprodução
: 193 do objeto mais próxima em uma certa área de uma tela de exibição da imagem parada e segunda informação de disparidade correspondente à posição de reprodução do objeto mais distante na certa área da tela de exibição da y imagem parada, Ss o aparelho de recepção incluindo adicionalmente: . uma unidade de obtenção da informação que obtém os dados de imagem do olho esquerdo e os dados de imagem do olho direito e também obtém a primeira informação de disparidade e a segunda informação de disparidade a partir do fluxo contínuo de vídeo incluído no contêiner; e uma unidade de transmissão que transmite, a um aparelho externo, os dados de imagem do olho esquerdo e os dados de imagem do olho direito obtidos e a primeira informação de disparidade e a segunda informação de disparidade obtidas em associação uns com os outros.
(20) Aparelho de recepção, de acordo com (19), incluindo j 15 adicionalmente: * uma unidade de reconfiguração da informação que reconfigura dados de imagem e informação de disparidade de forma que um ângulo de disparidade fique em uma certa faixa, com base na primeira informação de disparidade e na segunda informação de disparidade obtidas, em que a unidade de transmissão transmite, ao aparelho externo, os dados de imagem do olho esquerdo e os dados de imagem do olho direito reconfigurados e a primeira informação de disparidade e a segunda informação de disparidade reconfiguradas em associação uns com os outros.
(21) Aparelho de recepção, de acordo com (1) ou (20), em que a unidade de transmissão transmite, em unidades de duas imagens paradas, a informação de disparidade sobre uma primeira imagem parada e uma segunda imagem parada que são sequencialmente adjacentes uma à outra, e em que pelo menos a informação de disparidade sobre a primeira — imagem parada ou a segunda imagem parada compreende dados da diferença em relação à informação de disparidade sobre uma imagem parada x 114 imediatamente precedente. (22) Aparelho de recepção, de acordo com (21), incluindo adicionalmente: 3 uma unidade de determinação que determina, com base nos S — dados da diferença entre a informação de disparidade sobre a primeira : imagem parada e a informação de disparidade sobre a segunda imagem parada, qual da informação de disparidade sobre a primeira imagem parada e da informação de disparidade sobre a segunda imagem parada deve compreender os dados da diferença.
(23) Aparelho de recepção, de acordo com (22), em que a informação de disparidade transmitida pela unidade de transmissão inclui, adicionada em si, a informação de identificação que indica se a informação de disparidade sobre a primeira imagem parada compreende dados da diferença e se a informação de disparidade sobre a segunda imagem parada compreende i 15 —dadosda diferença.
£ Recursos principais da presente tecnologia são como segue. Um valor máximo (segunda informação de disparidade) e um valor mínimo (primeira informação de disparidade) da informação de disparidade obtida para cada imagem parada são inseridos em um fluxo contínuo de vídeo e o fluxo contínuo de vídeo é transmitido, de forma que se um ângulo de disparidade está ou não em uma certa faixa na qual visualização não ocasiona nenhum problema de saúde possa ser verificado em um lado de recepção (veja a figura 8 e a figura 15). Também, no caso de inserção da informação de disparidade obtida para cada imagem parada em um fluxo contínuo de vídeo e — de transmissão do fluxo contínuo de vídeo, um processo de codificação de compressão é realizado na informação de disparidade para reduzir a quantidade de dados (veja a imagem parada 24). Também, no caso da transmissão das partes da informação de disparidade para duas imagens paradas sequenciais em unidades de duas imagens paradas a um aparelho externo usando HDMI, a informação de disparidade para uma das imagens paradas compreende dados da diferença em relação à imagem parada s 115 ] imediatamente precedente, de forma que a quantidade de dados de transmissão seja reduzida (veja a figura 69).
LISTA DOS SINAIS DE REFERÊNCIA À 10, 10A sistema de transmissão / recepção de imagem 100 estação de difusão * 110, 110A unidade de geração dos dados de transmissão 111L, 111R unidade de transmissão dos dados de imagem 112L, 112R escalímetro 113 codificador de vídeo 114 multiplexador 115 unidade de geração dos dados de disparidade 116 unidade de transmissão dos dados de legenda 117 codificador de legenda 118 unidade de transmissão dos dados de áudio Ps 119 codificador de áudio S 120 unidade de codificação de compressão 121 armazenamento temporário 122 subtrator 123 unidade de codificação de comprimento variável 200 receptor / decodificador integrado 211 armazenamento temporário de contêiner 212 demultiplexador 213 armazenamento temporário codificado 214 decodificador de vídeo 215 armazenamento temporário decodificado 216 escalímetro 217 unidade de sobreposição 218 armazenamento temporário da informação de disparidade 219 armazenamento temporário de elementos gráficos do — receptor / decodificador integrado (STB) 219A armazenamento temporário de elementos gráficos da
É televisão (TV) 220 unidade de controle da profundidade 221 armazenamento temporário de elementos gráficos 231 armazenamento temporário codificado Is 232 decodificador de legenda : 233 armazenamento temporário de pixels 234 armazenamento temporário da informação de disparidade de legenda 235 unidade de controle da exibição de legenda 241 armazenamento temporário codificado 242 decodificador de áudio 243 armazenamento temporário de áudio 244 unidade de mixagem de canal 251 unidade de transmissão HDMI 261 unidade de decodificação de compressão : 262 unidade de controle da informação de disparidade 263 unidade de reconfiguração L/R 264 unidade de decodificação de comprimento variável 265 armazenamento temporário 266 adicionador 271 unidade de obtenção do valor máximo 272 unidade de obtenção do valor mínimo 273 unidade de verificação do ângulo de disparidade 274 unidade de correção da informação de disparidade 281 memória de quadro 282 subtrator 283 unidade de determinação de ordem 300, 300A receptor de televisão 311 unidade de recepção HDMI 312 escalímetro 313 unidade de sobreposição
314 unidade de controle da profundidade 315 armazenamento temporário de elementos gráficos 316 unidade de geração de elementos gráficos da televisão (TV) 317 unidade de processamento de áudio "e. 400 cabo HDMI
Claims (23)
1. Aparelho de transmissão, caracterizado pelo fato de que compreende: ? uma unidade de obtenção de dados de imagem que obtém dados S —deimagem do olho esquerdo e dados de imagem do olho direito que formam * uma imagem estéreo; uma unidade de obtenção da informação de disparidade que obtém, para cada uma de certas imagens paradas dos dados de imagem obtidos, informação de disparidade sobre uma de uma imagem do olho — esquerdo e de uma imagem do olho direito em relação à outra, a informação de disparidade incluindo primeira informação de disparidade correspondente à posição de reprodução do objeto mais próxima em uma certa área de uma tela de exibição da imagem parada e segunda informação de disparidade correspondente à posição de reprodução do objeto mais distante na certa área i 15 —datelade exibição da imagem parada; Ê uma unidade de inserção da informação de disparidade que insere a informação de disparidade obtida em um fluxo contínuo de vídeo que é obtido pela codificação dos dados de imagem obtidos; e uma unidade de transmissão dos dados de imagem que transmite um contêiner de um certo formato, o contêiner incluindo o fluxo contínuo de vídeo no qual a informação de disparidade foi inserida.
2. Aparelho de transmissão, de acordo com a reivindicação 1, caracterizado pelo fato de que a unidade de inserção da informação de disparidade insere a primeira informação de disparidade e a segunda — informação de disparidade em unidades de imagens paradas ou em unidades de GOPs.
3. Aparelho de transmissão, de acordo com a reivindicação 1, caracterizado pelo fato de que a unidade de inserção da informação de disparidade insere a informação de disparidade obtida no fluxo contínuo de — vídeo depois da realização de um processo de codificação de compressão.
4. Aparelho de transmissão, de acordo com a reivindicação |,
É caracterizado pelo fato de que a unidade de inserção da informação de : disparidade insere adicionalmente, durante a inserção da informação de disparidade em uma certa imagem parada no fluxo contínuo de vídeo, informação de identificação que identifica se a informação de disparidade é i S informação de disparidade sobre a íntegra da tela de exibição da imagem . parada ou informação de disparidade sobre cada uma de um certo número de áreas particionadas.
5. Aparelho de transmissão, de acordo com a reivindicação 1, caracterizado pelo fato de que a unidade de obtenção da informação de — disparidade obtém a primeira informação de disparidade sobre cada uma das áreas particionadas que são obtidas pelo particionamento da tela de exibição da imagem parada usando a informação de partição e também obtém a segunda informação de disparidade sobre a íntegra da tela de exibição da imagem parada. L 15
6. Aparelho de transmissão, de acordo com a reivindicação 1, * caracterizado pelo fato de que a unidade de obtenção da informação de disparidade obtém a primeira informação de disparidade e a segunda informação de disparidade sobre cada uma das áreas particionadas que são obtidas pelo particionamento da tela de exibição da imagem parada usando a informação de partição.
7. Aparelho de transmissão, de acordo com a reivindicação |, caracterizado pelo fato de que a unidade de obtenção da informação de disparidade obtém a primeira informação de disparidade sobre cada uma das áreas particionadas que são obtidas pelo particionamento da tela de exibição —daimagem parada usando a primeira informação de partição e também obtém a segunda informação de disparidade sobre cada uma das áreas particionadas que são obtidas pelo particionamento da tela de exibição da imagem parada usando a segunda informação de partição.
8. Método de transmissão, caracterizado pelo fato de que — compreende: uma etapa de obtenção dos dados de imagem do olho esquerdo e dos dados de imagem do olho direito que formam uma imagem estéreo; uma etapa de obtenção, para cada uma de certas imagens paradas dos dados de imagem obtidos, de informação de disparidade sobre uma de : uma imagem do olho esquerdo e de uma imagem do olho direito em relação à outra, a informação de disparidade incluindo primeira informação de às disparidade correspondente à posição de reprodução do objeto mais próxima em uma certa área de uma tela de exibição da imagem parada e segunda informação de disparidade correspondente à posição de reprodução do objeto mais distante na certa área da tela de exibição da imagem parada; uma etapa de inserção da informação de disparidade obtida em um fluxo contínuo de vídeo que é obtido pela codificação dos dados de imagem obtidos; e uma etapa de transmissão de um contêiner de um certo formato, o contêiner incluindo o fluxo contínuo de vídeo no qual a informação de É 15 disparidade foi inserida. *
9. Aparelho de recepção, caracterizado pelo fato de que compreende: uma unidade de recepção dos dados de imagem que recebe um contêiner de um certo formato, o contêiner incluindo um fluxo contínuo de vídeo, em que o fluxo contínuo de vídeo é obtido pela codificação dos dados de imagem do olho esquerdo e dos dados de imagem do olho direito que formam uma imagem estéreo, e em que o fluxo contínuo de vídeo inclui, inserida em si, para — cada uma de certas imagens paradas dos dados de imagem, informação de disparidade sobre uma de uma imagem do olho esquerdo e de uma imagem do olho direito em relação à outra, a informação de disparidade incluindo primeira informação de disparidade correspondente à posição de reprodução do objeto mais próxima em uma certa área de uma tela de exibição da imagem parada e segunda informação de disparidade correspondente à posição de reprodução do objeto mais distante na certa área da tela de exibição da imagem parada, : o aparelho de recepção compreendendo adicionalmente: uma unidade de obtenção da informação que obtém os dados de : imagem do olho esquerdo e os dados de imagem do olho direito e também obtém a primeira informação de disparidade e a segunda informação de disparidade a partir do fluxo contínuo de vídeo incluído no contêiner; e uma unidade de controle que provê uma instrução para reconfigurar os dados de imagem do olho esquerdo e os dados de imagem do olho direito, de forma que um ângulo de disparidade fique em uma certa faixa, com base na primeira informação de disparidade e na segunda informação de disparidade obtidas.
10. Aparelho de transmissão, caracterizado pelo fato de que compreende: uma unidade de obtenção de dados de imagem que obtém dados : 15 —deimagem do olho esquerdo e dados de imagem do olho direito que formam uma imagem estéreo; uma unidade de obtenção da informação de disparidade que obtém, para cada uma de certas imagens paradas dos dados de imagem obtidos, informação de disparidade sobre uma de uma imagem do olho — esquerdo e de uma imagem do olho direito em relação à outra; uma unidade de codificação de compressão que realiza um * processo de codificação de compressão na informação de disparidade obtida; uma unidade de inserção da informação de disparidade que insere a informação de disparidade codificada com compressão em um fluxo — contínuo de vídeo que é obtido pela codificação dos dados de imagem obtidos; e uma unidade de transmissão dos dados de imagem que transmite um contêiner de um certo formato, o contêiner incluindo o fluxo contínuo de vídeo no qual a informação de disparidade foi inserida.
11. Aparelho de transmissão, de acordo com a reivindicação 10, caracterizado pelo fato de que a unidade de codificação de compressão realiza, como o processo de codificação de compressão, um processo usando um código de comprimento variável na informação de disparidade obtida sobre as imagens paradas individuais.
12. Aparelho de transmissão, de acordo com a reivindicação 11, 5 caracterizado pelo fato de que a unidade de codificação de compressão - realiza, como o processo de codificação de compressão, um processo de obtenção dos dados da diferença entre uma imagem parada de referência e uma imagem parada referenciada, dentre as imagens paradas individuais obtidas, e de realização da codificação de comprimento variável nos dados da diferença.
13. Aparelho de transmissão, de acordo com a reivindicação 12, caracterizado pelo fato de que a unidade de codificação de compressão obtém dados da diferença pela consideração de uma imagem parada precedente na ordem de exibição como uma imagem parada referenciada.
À 15 14. Aparelho de transmissão, de acordo com a reivindicação 12, : caracterizado pelo fato de que a unidade de codificação de compressão obtém dados da diferença pela consideração de uma imagem parada precedente na ordem de decodificação como uma imagem parada referenciada.
15. Aparelho de transmissão, de acordo com a reivindicação 12, caracterizado pelo fato de que a unidade de inserção da informação de disparidade insere adicionalmente, durante a inserção da informação de disparidade em uma certa imagem parada no fluxo contínuo de vídeo, informação de identificação que identifica se a informação de disparidade inserida compreende intradados ou dados da diferença.
23 16. Aparelho de transmissão, de acordo com a reivindicação 14, caracterizado pelo fato de que a unidade de inserção da informação de disparidade insere a informação de disparidade para uma imagem parada 1, uma imagem parada P e uma imagem parada B referenciada no fluxo contínuo de vídeo, e em um caso em que a informação de disparidade inserida h 6 , compreender dados da diferença, insere adicionalmente informação que : representa o número de imagens paradas até uma imagem parada referenciada.
17. Método de transmissão, caracterizado pelo fato de que compreende: . uma etapa de obtenção dos dados de imagem do olho esquerdo e dos dados de imagem do olho direito que formam uma imagem estéreo; uma etapa de obtenção, para cada uma de certas imagens paradas dos dados de imagem obtidos, de informação de disparidade sobre uma de —umaimagem do olho esquerdo e de uma imagem do olho direito em relação à outra; uma etapa de realização de um processo de codificação de compressão na informação de disparidade obtida; uma etapa de inserção da informação de disparidade codificada . 15" com compressão em um fluxo contínuo de vídeo que é obtido pela : codificação dos dados de imagem obtidos; e uma etapa de transmissão de um contêiner de um certo formato, o contêiner incluindo o fluxo contínuo de vídeo no qual a informação de disparidade foi inserida.
18. Aparelho de recepção, caracterizado pelo fato de que compreende: uma unidade de recepção dos dados de imagem que recebe um contêiner de um certo formato, o contêiner incluindo um fluxo contínuo de vídeo, em que o fluxo contínuo de vídeo é obtido pela codificação dos dados de imagem do olho esquerdo e dos dados de imagem do olho direito que formam uma imagem estéreo, e em que o fluxo contínuo de vídeo inclui, inserida em si, para cada uma de certas imagens paradas dos dados de imagem, informação de — disparidade sobre uma de uma imagem do olho esquerdo e de uma imagem do olho direito em relação à outra,
& 7 i o aparelho de recepção compreendendo adicionalmente: uma unidade de obtenção da informação que obtém os dados de imagem do olho esquerdo e os dados de imagem do olho direito e também obtém a informação de disparidade a partir do fluxo contínuo de vídeo i 5 — incluído no contêiner; e . uma unidade de interpolação da informação de disparidade que gera informação de disparidade sobre uma imagem parada para a qual a informação de disparidade obtida pela unidade de obtenção da informação não existe pela realização de interpolação usando a informação de disparidade obtida sobre uma imagem parada precedente e uma imagem parada subsequente.
19. Aparelho de recepção, caracterizado pelo fato de que compreende: uma unidade de recepção dos dados de imagem que recebe um Á 15 contêiner de um certo formato, o contêiner incluindo um fluxo contínuo de : vídeo, em que o fluxo contínuo de vídeo é obtido pela codificação dos dados de imagem do olho esquerdo e dos dados de imagem do olho direito que formam uma imagem estéreo, e em que o fluxo contínuo de vídeo inclui, inserida em si, para cada uma de certas imagens paradas dos dados de imagem, informação de disparidade sobre uma de uma imagem do olho esquerdo e de uma imagem do olho direito em relação à outra, a informação de disparidade incluindo primeira informação de disparidade correspondente à posição de reprodução —doobjetomais próxima em uma certa área de uma tela de exibição da imagem parada e segunda informação de disparidade correspondente à posição de reprodução do objeto mais distante na certa área da tela de exibição da imagem parada, o aparelho de recepção compreendendo adicionalmente: uma unidade de obtenção da informação que obtém os dados de imagem do olho esquerdo e os dados de imagem do olho direito e também
À 8 ] obtém a primeira informação de disparidade e a segunda informação de t disparidade a partir do fluxo contínuo de vídeo incluído no contêiner; e uma unidade de transmissão que transmite, a um aparelho externo, os dados de imagem do olho esquerdo e os dados de imagem do olho i 5 direito obtidos e a primeira informação de disparidade e a segunda . informação de disparidade obtidas em associação uns com os outros.
20. Aparelho de recepção, de acordo com a reivindicação 19, caracterizado pelo fato de que compreende adicionalmente: uma unidade de reconfiguração da informação que reconfigura — dados de imagem e informação de disparidade, de forma que um ângulo de disparidade fique em uma certa faixa, com base na primeira informação de disparidade e na segunda informação de disparidade obtidas, em que a unidade de transmissão transmite, ao aparelho externo, os dados de imagem do olho esquerdo e os dados de imagem do olho direito reconfigurados e a primeira informação de disparidade e a segunda informação de disparidade reconfiguradas em associação uns com os outros.
21. Aparelho de recepção, de acordo com a reivindicação 19, caracterizado pelo fato de que a unidade de transmissão transmite, em unidades de duas imagens paradas, informação de disparidade — sobre uma primeira imagem parada e uma segunda imagem parada que são sequencialmente adjacentes uma à outra, e em que pelo menos a informação de disparidade sobre a primeira imagem parada ou a segunda imagem parada compreende dados da diferença em relação à informação de disparidade sobre uma imagem parada — imediatamente precedente.
22. Aparelho de recepção, de acordo com a reivindicação 21, caracterizado pelo fato de que compreende adicionalmente: uma unidade de determinação que determina, com base nos dados da diferença entre a informação de disparidade sobre a primeira imagem parada e a informação de disparidade sobre a segunda imagem parada, qual da informação de disparidade sobre a primeira imagem parada e
À da informação de disparidade sobre a segunda imagem parada deve É compreender os dados da diferença.
23. Aparelho de recepção, de acordo com a reivindicação 22, caracterizado pelo fato de que a informação de disparidade transmitida pela S — unidade de transmissão inclui, adicionada em si, informação de identificação . que indica se a informação de disparidade sobre a primeira imagem parada compreende dados da diferença e se a informação de disparidade sobre a segunda imagem parada compreende dados da diferença.
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012032215 | 2012-02-16 | ||
JP2012-032215 | 2012-02-16 | ||
JP2012035684 | 2012-02-21 | ||
JP2012-035684 | 2012-02-21 | ||
PCT/JP2013/050723 WO2013121823A1 (ja) | 2012-02-16 | 2013-01-17 | 送信装置、送信方法および受信装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
BR112013026086A2 true BR112013026086A2 (pt) | 2020-08-11 |
Family
ID=48983949
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
BR112013026086-6A BR112013026086A2 (pt) | 2012-02-16 | 2013-01-17 | aparelho de transmissão, método de transmissão e aparelho de recepção |
Country Status (7)
Country | Link |
---|---|
US (2) | US9596449B2 (pt) |
EP (1) | EP2683168B1 (pt) |
JP (2) | JP6090168B2 (pt) |
KR (1) | KR101981813B1 (pt) |
CN (1) | CN103597823B (pt) |
BR (1) | BR112013026086A2 (pt) |
WO (1) | WO2013121823A1 (pt) |
Families Citing this family (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9860515B2 (en) * | 2012-12-11 | 2018-01-02 | Electronics And Telecommunications Research Institute | Apparatus and method for 3D content broadcasting with boundary information |
US9762889B2 (en) * | 2013-05-08 | 2017-09-12 | Sony Corporation | Subtitle detection for stereoscopic video contents |
US9973787B2 (en) * | 2014-05-01 | 2018-05-15 | Sony Corporation | Communication device and communication method |
JP6862830B2 (ja) * | 2014-12-29 | 2021-04-21 | ソニーグループ株式会社 | 送信装置、送信方法、受信装置および受信方法 |
KR102337159B1 (ko) * | 2015-05-21 | 2021-12-08 | 삼성전자주식회사 | 컨텐츠 출력 장치 및 방법과, 디스플레이 장치 |
KR102519209B1 (ko) * | 2015-06-17 | 2023-04-07 | 한국전자통신연구원 | 스테레오스코픽 비디오 데이터를 처리하기 위한 mmt 장치 및 방법 |
EP4198911A1 (en) * | 2015-08-18 | 2023-06-21 | Magic Leap, Inc. | Virtual and augmented reality systems and methods |
WO2018011054A1 (en) * | 2016-07-15 | 2018-01-18 | Koninklijke Kpn N.V. | Streaming virtual reality video |
CN106325521B (zh) * | 2016-08-31 | 2018-06-29 | 北京小米移动软件有限公司 | 测试虚拟现实头显设备软件的方法及装置 |
EP3535644B1 (en) | 2016-11-04 | 2023-02-22 | Koninklijke KPN N.V. | Streaming virtual reality video |
US10212532B1 (en) | 2017-12-13 | 2019-02-19 | At&T Intellectual Property I, L.P. | Immersive media with media device |
US11523185B2 (en) | 2019-06-19 | 2022-12-06 | Koninklijke Kpn N.V. | Rendering video stream in sub-area of visible display area |
Family Cites Families (36)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS6365574U (pt) | 1986-10-17 | 1988-04-30 | ||
JPH0715748A (ja) * | 1993-06-24 | 1995-01-17 | Canon Inc | 画像記録再生装置 |
US5625408A (en) * | 1993-06-24 | 1997-04-29 | Canon Kabushiki Kaisha | Three-dimensional image recording/reconstructing method and apparatus therefor |
JPH08133125A (ja) | 1994-11-04 | 1996-05-28 | Nissan Motor Co Ltd | 自動車のサブフレーム取付構造 |
JPH08142908A (ja) | 1994-11-18 | 1996-06-04 | Nissan Motor Co Ltd | 自動車のサブフレーム取付構造 |
JPH10191394A (ja) * | 1996-12-24 | 1998-07-21 | Sharp Corp | 多視点画像符号化装置 |
JP2001088736A (ja) | 1999-09-24 | 2001-04-03 | Suzuki Motor Corp | サスペンションフレーム構造 |
JP4405272B2 (ja) * | 2003-02-19 | 2010-01-27 | パナソニック株式会社 | 動画像復号化方法、動画像復号化装置及びプログラム |
JP4190357B2 (ja) | 2003-06-12 | 2008-12-03 | シャープ株式会社 | 放送データ送信装置、放送データ送信方法および放送データ受信装置 |
JP2005094168A (ja) * | 2003-09-12 | 2005-04-07 | Sharp Corp | ファイル構造及びそれを用いる画像記録装置並びに画像再生装置 |
JP4697005B2 (ja) | 2006-03-29 | 2011-06-08 | 三菱自動車工業株式会社 | 車体構造 |
JP2008018901A (ja) | 2006-07-14 | 2008-01-31 | Toyota Motor Corp | 車両前部構造 |
JP2010505174A (ja) | 2006-09-28 | 2010-02-18 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | メニューディスプレイ |
JP4763571B2 (ja) * | 2006-10-24 | 2011-08-31 | シャープ株式会社 | 立体画像生成装置及び立体画像復号装置 |
JP2008174179A (ja) | 2007-01-22 | 2008-07-31 | Nissan Motor Co Ltd | 車体前部構造 |
JP4910882B2 (ja) | 2007-05-23 | 2012-04-04 | 三菱自動車工業株式会社 | サスクロスメンバ取付け構造 |
JP5228626B2 (ja) * | 2007-05-29 | 2013-07-03 | パナソニック株式会社 | 立体プリント配線板とその製造方法 |
US8922621B2 (en) * | 2007-10-19 | 2014-12-30 | Samsung Electronics Co., Ltd. | Method of recording three-dimensional image data |
JP2010064637A (ja) | 2008-09-11 | 2010-03-25 | Daihatsu Motor Co Ltd | 車両の下部構造 |
JP5274359B2 (ja) | 2009-04-27 | 2013-08-28 | 三菱電機株式会社 | 立体映像および音声記録方法、立体映像および音声再生方法、立体映像および音声記録装置、立体映像および音声再生装置、立体映像および音声記録媒体 |
JP5267334B2 (ja) * | 2009-05-28 | 2013-08-21 | 株式会社Jvcケンウッド | 立体映像表示装置および立体映像表示方法 |
JP5402715B2 (ja) * | 2009-06-29 | 2014-01-29 | ソニー株式会社 | 立体画像データ送信装置、立体画像データ送信方法、立体画像データ受信装置および立体画像データ受信方法 |
JP5446913B2 (ja) | 2009-06-29 | 2014-03-19 | ソニー株式会社 | 立体画像データ送信装置および立体画像データ送信方法 |
JP5407957B2 (ja) * | 2009-06-29 | 2014-02-05 | ソニー株式会社 | 立体画像データ送信装置および立体画像データ受信装置 |
JP5407968B2 (ja) * | 2009-06-29 | 2014-02-05 | ソニー株式会社 | 立体画像データ送信装置および立体画像データ受信装置 |
JP2011030182A (ja) * | 2009-06-29 | 2011-02-10 | Sony Corp | 立体画像データ送信装置、立体画像データ送信方法、立体画像データ受信装置および立体画像データ受信方法 |
JP2011030179A (ja) * | 2009-06-29 | 2011-02-10 | Sony Corp | 画像データ送信装置、制御方法およびプログラム |
RU2554465C2 (ru) * | 2009-07-27 | 2015-06-27 | Конинклейке Филипс Электроникс Н.В. | Комбинирование 3d видео и вспомогательных данных |
JP2011166757A (ja) * | 2010-01-15 | 2011-08-25 | Sony Corp | 送信装置、送信方法および受信装置 |
JP2011155431A (ja) * | 2010-01-27 | 2011-08-11 | Hitachi Consumer Electronics Co Ltd | フレームレート変換装置および映像表示装置 |
JP5577789B2 (ja) * | 2010-03-25 | 2014-08-27 | ソニー株式会社 | 画像データ送信装置、画像データ送信方法および画像データ受信装置 |
JP2011223481A (ja) * | 2010-04-14 | 2011-11-04 | Sony Corp | データ構造、画像処理装置、画像処理方法、およびプログラム |
JP2011239169A (ja) * | 2010-05-10 | 2011-11-24 | Sony Corp | 立体画像データ送信装置、立体画像データ送信方法、立体画像データ受信装置および立体画像データ受信方法 |
JP2012010311A (ja) * | 2010-05-26 | 2012-01-12 | Sony Corp | 送信装置、送信方法、受信装置、受信方法および送受信システム |
JP5655393B2 (ja) * | 2010-06-23 | 2015-01-21 | ソニー株式会社 | 画像データ送信装置、画像データ送信装置の制御方法、画像データ送信方法および画像データ受信装置 |
JP2011211754A (ja) * | 2011-07-15 | 2011-10-20 | Fujifilm Corp | 画像処理装置および方法並びにプログラム |
-
2013
- 2013-01-17 BR BR112013026086-6A patent/BR112013026086A2/pt active Search and Examination
- 2013-01-17 WO PCT/JP2013/050723 patent/WO2013121823A1/ja active Application Filing
- 2013-01-17 JP JP2013542274A patent/JP6090168B2/ja not_active Expired - Fee Related
- 2013-01-17 US US14/110,512 patent/US9596449B2/en active Active
- 2013-01-17 EP EP13748981.1A patent/EP2683168B1/en active Active
- 2013-01-17 CN CN201380001556.6A patent/CN103597823B/zh not_active Expired - Fee Related
- 2013-01-17 KR KR1020137026511A patent/KR101981813B1/ko active IP Right Grant
-
2017
- 2017-01-17 JP JP2017005688A patent/JP6365697B2/ja not_active Expired - Fee Related
- 2017-01-20 US US15/411,260 patent/US9860511B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
EP2683168B1 (en) | 2019-05-01 |
US20170134707A1 (en) | 2017-05-11 |
CN103597823A (zh) | 2014-02-19 |
KR20140134212A (ko) | 2014-11-21 |
CN103597823B (zh) | 2017-11-03 |
WO2013121823A1 (ja) | 2013-08-22 |
US20140028798A1 (en) | 2014-01-30 |
EP2683168A4 (en) | 2015-07-22 |
KR101981813B1 (ko) | 2019-08-28 |
JPWO2013121823A1 (ja) | 2015-05-11 |
JP6090168B2 (ja) | 2017-03-08 |
US9860511B2 (en) | 2018-01-02 |
JP6365697B2 (ja) | 2018-08-01 |
JP2017099000A (ja) | 2017-06-01 |
US9596449B2 (en) | 2017-03-14 |
EP2683168A1 (en) | 2014-01-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6406327B2 (ja) | 受信装置および受信方法 | |
US9860511B2 (en) | Transmitting apparatus, transmitting method, and receiving apparatus | |
US20110149034A1 (en) | Stereo image data transmitting apparatus and stereo image data transmittimg method | |
WO2013108531A1 (ja) | 受信装置、受信方法および電子機器 | |
US20140078248A1 (en) | Transmitting apparatus, transmitting method, receiving apparatus, and receiving method | |
US20110141238A1 (en) | Stereo image data transmitting apparatus, stereo image data transmitting method, stereo image data receiving data receiving method | |
JP5633259B2 (ja) | 立体画像データ送信装置、立体画像データ送信方法および立体画像データ受信装置 | |
US20130141534A1 (en) | Image processing device and method | |
US20140327740A1 (en) | Transmission apparatus, transmisson method, receiver and receiving method | |
WO2012063675A1 (ja) | 立体画像データ送信装置、立体画像データ送信方法および立体画像データ受信装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
B06U | Preliminary requirement: requests with searches performed by other patent offices: procedure suspended [chapter 6.21 patent gazette] | ||
B15K | Others concerning applications: alteration of classification |
Free format text: A CLASSIFICACAO ANTERIOR ERA: H04N 13/00 Ipc: H04N 13/128 (2018.01), H04N 13/161 (2018.01), H04N |
|
B350 | Update of information on the portal [chapter 15.35 patent gazette] | ||
B09A | Decision: intention to grant [chapter 9.1 patent gazette] | ||
B11D | Dismissal acc. art. 38, par 2 of ipl - failure to pay fee after grant in time |