ES2634162T3 - Método de codificación escalable de vídeo y métodos de decodificación que utilizan predicción ponderada, dispositivos para ello, programas para ello, y medio de grabación donde se graba el programa - Google Patents
Método de codificación escalable de vídeo y métodos de decodificación que utilizan predicción ponderada, dispositivos para ello, programas para ello, y medio de grabación donde se graba el programa Download PDFInfo
- Publication number
- ES2634162T3 ES2634162T3 ES08841336.4T ES08841336T ES2634162T3 ES 2634162 T3 ES2634162 T3 ES 2634162T3 ES 08841336 T ES08841336 T ES 08841336T ES 2634162 T3 ES2634162 T3 ES 2634162T3
- Authority
- ES
- Spain
- Prior art keywords
- image region
- component
- prediction
- coefficient
- immediately
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/577—Motion compensation with bidirectional frame interpolation, i.e. using B-pictures
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/103—Selection of coding mode or of prediction mode
- H04N19/105—Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/187—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a scalable video layer
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/30—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
- H04N19/33—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability in the spatial domain
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
- Compression, Expansion, Code Conversion, And Decoders (AREA)
- Television Signal Processing For Recording (AREA)
Abstract
Un método de codificación escalable de video, que comprende: - para cada una de las regiones de imagen de referencia: calcular un coeficiente de ponderación primero que incluye un coeficiente proporcional (w0) y un coeficiente de compensación (d0) e indica la variación de brillo entre una región de imagen de destino de codificación (B) y la región de imagen de referencia, en el que tanto la región de imagen de destino de codificación (B) como la región de imagen de referencia pertenecen a una capa superior (Capa # 1), y corregir la región de imagen de referencia con el coeficiente de ponderación primero, - después de procesar todas las regiones de imagen de referencia, ejecutar la estimación de movimiento para seleccionar al menos una de las regiones de imagen de referencia (B0), - ejecutar compensación de movimiento con al menos dicha región de imagen de referencia seleccionada (B0), estando caracterizado el método porque, para cada una de las regiones de imagen de referencia, calcular el coeficiente de ponderación primero comprende un paso que, cuando una región de imagen inmediatamente inferior (Ba), que está presente espacialmente en la misma posición que la región de imagen de destino de codificación (B) en una capa inmediatamente inferior (Capa # l-1), realizó la predicción entre tramas en la capa inmediatamente inferior (Capa # l-1), identifica una región de imagen de referencia de capa inmediatamente inferior (Bb0) que la región de imagen inmediatamente inferior (Ba) utilizó como una referencia de predicción en la predicción de movimiento ponderada, y calcula el coeficiente de ponderación primero: corrigiendo un componente de CC (R(l, t-T0, Bc0)) de una región de imagen (Bc0) en la capa superior, que está presente espacialmente en la misma posición que la región de imagen de referencia de capa inmediatamente inferior (Bb0), con un coeficiente de ponderación segundo (w0', d0') que la región de imagen inmediatamente inferior (Ba) utilizó en la predicción de movimiento ponderada, determinando el resultado de la corrección sea un componente de CC (R(l-1, t, Ba)) de la región de imagen inmediatamente inferior (Ba), y calculando el coeficiente proporcional (w0) o el coeficiente de compensación (d0) de acuerdo con el componente de CC determinado (R(l-1, t, Ba)) de la región de imagen inmediatamente inferior (Ba) y un componente de CC de la región de imagen de referencia.
Description
5
10
15
20
25
30
35
40
45
50
55
descripcion
Metodo de codificacion escalable de video y metodos de decodificacion que utilizan prediccion ponderada, dispositivos para ello, programas para ello, y medio de grabacion donde se graba el programa
Campo teonioo
La presente invencion se refiere a un metodo de codificacion escalable de video y a un dispositivo para ello que codifica de manera escalable una imagen de video cuyo brillo varia en el tiempo, un metodo de decodificacion escalable de video y un dispositivo para ello que decodifica datos codificados que fueron codificados por la codificacion escalable de video, un programa de codificacion escalable de video utilizado en la realizacion del metodo de codificacion escalable de video, un medio de grabacion legible por ordenador en el que se almacena el programa, un programa de decodificacion escalable de video utilizado en la realizacion del metodo de decodificacion escalable de video y un medio de grabacion legible por ordenador donde se almacena el programa.
Se reivindica prioridad en la solicitud de patente japonesa n° 2007-277224, presentada el 25 de octubre de 2007.
Teonioa anterior
En los metodos convencionales de codificacion de video, la prediccion de movimiento se realiza mediante la adaptacion de bloques basada en la minimizacion de la diferencia en los valores de pixeles entre tramas, mejorando asi el rendimiento de codificacion. Sin embargo, para una imagen tal como una imagen de fundido cuyo brillo varia en el tiempo, el residuo de prediccion de la prediccion de movimiento aumenta en una cantidad equivalente a la variacion de brillo y por ello se degrada el rendimiento de codificacion.
En consecuencia, en la H.264/AVC mostrada en el documento no patente 1, la prediccion de movimiento ponderada se realiza aplicando de forma adaptativa un coeficiente de ponderacion a una imagen de referencia para la prediccion de movimiento. Esta prediccion de movimiento ponderada genera una senal de referencia de prediccion con variacion de brillo temporal corregida, mejorando asi el rendimiento de codificacion.
H.264/AVC incluye dos metodos para la prediccion de movimiento ponderada: modo explicito que codifica un coeficiente de ponderacion utilizado en la correccion de brillo y lo transmite, y modo implicito que, en lugar de transmitir el coeficiente de ponderacion, utiliza informacion de trama de referencia para crear indirectamente el mismo coeficiente de ponderacion en un codificador y un decodificador. La Tabla 1 muestra las categorias y los metodos de prediccion de la prediccion de movimiento ponderada en el corte P y el corte B.
________________________________________________[Tabla 11________________________________________________
Tabla 1: categorias y metodos de prediccion de movimiento ponderada en H.264/AVC
- Tipo
- Categoria de prediccion Senal de prediccion Transmision de coeficiente
- Corte P
- - z=W0-r0+d0 Transmitir W0, d0, (explicito)
- Corte B
- Prediccion L0/L1 z=W0-r0+d0 (Prediccion L0) z=Wrh+d1 (Prediccion L1) Transmitir W0, d0, W1, d1 (explicito)
- Bi-prediccion
- z=W0- r0+W1 r1+d(d=1 /2(d0+d1) Transmitir W0, d0, W1, d1 (explicito)
- z=WQ-rQ+W1-r1
- Calcular W0 y W1 de acuerdo con la distancia desde la imagen de referencia (implicito)
En la Tabla 1, z es una senal de prediccion de movimiento ponderada, r0 y r1 son senales de referencia de prediccion de movimiento ponderada, W0, W1, d0 y d1 son coeficientes ponderados. La conmutacion de prediccion de movimiento ponderada y la seleccion del modo de transmision de coeficiente de ponderacion se ejecutan en unidades de corte.
La figura 20 es un diagrama explicativo de la prediccion de movimiento ponderada (modo implicito) en H.264/AVC. El modo implicito se utiliza solo para bi-prediccion en cortes B. Suponiendo que la variacion de brillo en una trama de destino de codificacion y dos tramas de referencia sea lineal, los coeficientes proporcionales W0 y W1 se calculan de acuerdo con la distancia desde las tramas de referencia. Un coeficiente de compensacion d se establece en 0.
Mientras que en el ejemplo de la figura 20, los coeficientes proporcionales se calculan por division interna de acuerdo con las distancias de las tramas de referencia, el calculo por division externa puede realizarse de la misma manera.
Un metodo de extension escalable (JSVC) en la H.264/AVC mostrada en el documento no patente 2 ha sido estandarizado por la JVT, que es un equipo conjunto de la ISO y la ITU-T, y emplea actualmente la misma prediccion de movimiento ponderada que la H.264/AVC mencionada anteriormente. Un codificador de referencia JSVC JSVM mostrado en el documento no patente 3 tambien utiliza la prediccion de movimiento ponderada
5
10
15
20
25
30
35
40
45
50
55
60
65
mostrada en la Tabla 1.
Una tecnologia conocida para detectar el cambio general en el brillo de una imagen de video y realizar la compensacion de brillo se divulga en el documento patente 1. La tecnologia descrita en el documento patente 1 utiliza una cantidad de variacion de brillo global de una pantalla completa y un indicador que indica una determinacion de si se debe compensar la variacion de brillo en cada region pequena, y puede utilizarse en casos en los que la variacion de brillo no es uniforme dentro la pantalla.
Un metodo para mejorar el rendimiento de prediccion en modo implicito durante la bi-prediccion en H.264/AVC se divulga en el documento no patente 4. La ensenanza del documento no patente 4 permite una tecnica de prediccion ponderada eficiente en codificacion espacialmente escalable que utiliza una estructura multicapa. Un coeficiente de compensacion puede ser calculado utilizando un valor medio de la senal decodificada de la capa inmediatamente inferior, mejorando asi el rendimiento de prediccion de las secuencias que contienen variacion de luminancia no lineal. Esta tecnica se discutira en la siguiente descripcion.
El documento no patente 5 se refiere a un metodo de compresion para manejar las variaciones de brillo locales en secuencias de video utilizando parametros de prediccion ponderada locales. La estimacion de parametros ponderada para cada bloque se basa en las muestras vecinas calculadas previamente del bloque actual y sus muestras compensadas de movimiento correspondientes. Sin embargo, esta tecnica anade complejidad tanto en el codificador como en el decodificador.
El documento no patente 6 se refiere a un metodo para mejorar el rendimiento de prediccion en modo implicito durante la bi-prediccion introduciendo valores de compensacion de DC descargables. Este metodo permite introducir un subconjunto de bi-prediccion ponderada explicita existente con el fin de optimizar la codificacion.
Documento no patente 1: ITU-T: “Advanced video coding for generic audiovisual services”, ITU-T Rec. H.264, pp. 129-132, mayo de 2003.
Documento no patente 2: T.Wiegand, G.Sullivan, J.Reichel, H. Schwarz y M.Wien: “Joint Draft 8 of SVC Amendment”, ISO/IEC JTC1/SC29/WG11 e ITU-T SG16. 6, JVT-U201, pags. 166-170, octubre de 2006.
Documento no patente 3: J.Reichel, H. Schwarz y M.Wien: “Joint Scalable Video Model JSVM-8”, ISO/IEC JTC1/SC29/WG11 e ITU-T SG16 Q.6, JVT-U202, octubre de 2006.
Documento no patente 4: Kazuya Hayase, Yukihiro Bandoh, Seishi Takamura, Kazuto Kamikura, y Yoshiyuki Yashima: “Weighted Prediction of Spatial Scalable Video Coding using Inter-Layer Correlation” FIT 2007, Sexto forum sobre ciencia y tecnologia de la informacion, pp. 253-256, septiembre de 2007.
Documento no patente 5: Pen Yin ET AL: “Localized Weighted Prediction for Video Coding” PROCEDIMIENTOS DE CONFERENCIA/IEEE, Simposio internacional en circuitos y sistemas (ISCAS): 23-26 de mayo de 2005, Centro de conferencias internacional, Kobe, Japon.
Documento no patente 6: Kadono; “Implicit Weighted Bi-prediction using DC Offset”, Grupo de estudio ITU 16 -Grupo de expertos de codificacion de video- 18 de octubre de 2002, XP030005494.
Documento patente 1: Publicacion de patente japonesa no examinada, primera publicacion n° H10-32824. Descripcion de la invencion Problemas a resolver por la invencion
La prediccion de movimiento ponderada en H.264/AVC se ejecuta en unidades de corte. Por lo tanto, en los casos donde hay variacion de brillo en una parte de un corte, y donde la variacion de brillo no es uniforme dentro del corte, el rendimiento de prediccion de la prediccion de movimiento ponderada se degrada. Un ejemplo es la variacion de brillo causada por la sombra de un objeto en movimiento y similares. Puesto que JSVC hereda la prediccion de movimiento ponderada en H.264/AVC, se enfrenta al mismo problema.
Si se intenta realizar una prediccion de movimiento ponderada calculando el coeficiente de ponderacion en unidades menores que los cortes, tales como macrobloques, la cantidad de codificacion necesaria para el coeficiente de ponderacion en modo explicito sera extremadamente grande. En tales casos, el coeficiente de ponderacion se calcula preferentemente en modo implicito. Sin embargo, como se explico anteriormente, el modo implicito de prediccion de movimiento ponderada en H.264/AVC se limita a la bi-prediccion en cortes B.
Ademas, puesto que el coeficiente de ponderacion calculado en modo implicito en la prediccion de movimiento ponderada se basa en la suposicion de que la variacion de brillo entre la trama de destino de codificacion y las dos tramas de referencia es lineal, cuando la variacion de brillo temporal sobre estos tres tramas es no lineal, es
5
10
15
20
25
30
35
40
45
50
55
60
65
imposible calcular un coeficiente de ponderacion apropiado, y el rendimiento de prediccion se degrada. Los ejemplos incluyen una imagen de fundido donde el brillo vana de forma no lineal, una imagen que contiene un flash, etc.
Puesto que la prediccion de movimiento ponderada en JSVC emplea directamente la prediccion de movimiento ponderada H.264/AVC, se enfrenta al mismo problema.
En la tecnologfa divulgada en el documento patente 1, la informacion de indicador se debe transmitir para cada pequena region, lo que conduce a un problema de rendimiento de codificacion degradado. Ademas, puesto que la variacion del brillo no puede compensarse en las regiones pequenas cuando hay una gran cantidad de variacion de brillo en la region pequena y esto diverge de la cantidad de la variacion global del brillo, este punto tambien conduce a un problema de rendimiento de codificacion degradado.
La presente invencion se ha realizado teniendo en cuenta estas circunstancias y tiene como objeto establecer, en una codificacion escalable espacial que incluye una capa base que tiene una resolucion espacial mas baja y una o mas capas de mejora que tienen una resolucion espacial mas alta, un metodo de diseno de codificador y decodificador escalable que generan un coeficiente de ponderacion para la prediccion de movimiento ponderada basandose en informacion relativa a la variacion de brillo temporal entre una senal decodificada de una trama de referencia para la prediccion de movimiento y una senal decodificada de una capa inmediatamente inferior de una trama de destino de codificacion, y, sin transmitir informacion de coeficiente de ponderacion, realizar la prediccion de movimiento ponderada utilizando un mismo coeficiente de ponderacion en el codificador y el decodificador.
Medios para resolver el problema
(1) Configuracion de un aparato de codificacion escalable de vfdeo de la invencion
Para conseguir los objetos anteriores, el aparato de codificacion escalable de vfdeo de la presente invencion emplea una configuracion como se establece en la reivindicacion adjunta 10.
Configuraciones posibles adicionales del aparato de codificacion de la presente invencion se definen en las reivindicaciones dependientes 11-18.
El metodo de codificacion escalable de vfdeo de la invencion realizada por las funciones de los dispositivos de proceso descritos antes tambien puede ser realizado mediante un programa informatico. El programa informatico se almacena en un medio de grabacion legible por ordenador apropiado o suministrado a traves de una red, y, cuando se implementa la invencion, el programa se instala y se acciona en el dispositivo de control tal como una CPU, por la que se realiza la invencion.
(2) Configuracion de un aparato de decodificacion escalable de vfdeo de la invencion
Para conseguir los objetos anteriores, el aparato de decodificacion escalable de vfdeo de la invencion emplea una configuracion como se establece en la reivindicacion adjunta 19.
Configuraciones posibles adicionales del aparato de codificacion de la presente invencion se definen en las reivindicaciones dependientes 19-24.
El metodo de decodificacion escalable de vfdeo de la invencion realizado por las funciones de los dispositivos de procesamiento descritos anteriormente tambien puede realizarse mediante un programa informatico. El programa informatico se almacena en un medio de grabacion legible por ordenador apropiado o se suministra a traves de una red y, al implementar la invencion, el programa se instala y funciona en un dispositivo de control tal como una CPU, por lo que se realiza la invencion.
Efectos de la invencion
De acuerdo con la presente invencion, incluso cuando el brillo vana en una parte de una imagen debido a la sombra de un objeto movil o similar, se hace posible reducir la memoria y el tiempo de calculo requeridos para el proceso de decodificacion, mientras se ejecuta una prediccion de movimiento ponderada altamente precisa en modo implfcito, que no transmite el coeficiente de ponderacion.
Tambien de acuerdo con la presente invencion, incluso en la prediccion unidireccional tal como la prediccion L0/L1 en el corte P y el corte B, que hasta ahora solo toleraba el modo explfcito, entonces es posible reducir la memoria y el tiempo de calculo requeridos para el proceso de decodificacion, mientras se ejecuta una prediccion de movimiento ponderada altamente precisa en modo implfcito, que no transmite el coeficiente de ponderacion.
Tambien de acuerdo con la presente invencion, incluso en imagenes que tienen una variacion de brillo no lineal entre la trama de destino de codificacion/decodificacion y una pluralidad de tramas de referencia de prediccion, tales como imagenes que incluyen un flash e imagenes de fundido no lineales, entonces resulta posible reducir la
5
10
15
20
25
30
35
40
45
50
55
60
65
memoria y el tiempo de calculo requerido para el proceso de decodificacion, mientras se ejecuta una prediccion de movimiento ponderada altamente precisa en modo implfcito, que no transmite el coeficiente de ponderacion.
Debido a tales mejoras en el rendimiento de prediccion de movimiento ponderada, de acuerdo con la invencion, se preve una mayor eficacia de codificacion.
Breve desoripoion de Ios dibujos
[FIG. 1A] Un diagrama explicativo de la variacion de brillo entre tramas.
[FIG. 1B] Un diagrama de un ejemplo de rendimiento de prediccion degradado.
[FIG. 1C] Un diagrama esquematico explicativo de la invencion.
[FIG. 2] Un diagrama explicativo de una trama de destino de correccion y una trama corregida.
[FIG. 3] Un diagrama explicativo de un metodo para calcular un coeficiente de ponderacion en la invencion de solicitud de patente japonesa n° 2007-174161.
[FIG. 4A] Un diagrama explicativo de un metodo para calcular un coeficiente de ponderacion en la invencion de la Solicitud de Patente Japonesa n° 2007-174161.
[FIG. 4B] De manera similar, un diagrama explicativo de un metodo para calcular un coeficiente de ponderacion en la invencion de la solicitud de patente japonesa n° 2007-174161.
[FIG. 4C] De forma similar, un diagrama explicativo de un metodo para calcular un coeficiente de ponderacion en la invencion de la solicitud de patente japonesa n° 2007-174161.
[FIG. 5] Un diagrama esquematico explicativo de la invencion.
[FIG. 6] De manera similar, un diagrama esquematico explicativo de la invencion.
[FIG. 7] Un diagrama explicativo de los resultados de las pruebas de una prueba realizada con el fin de verificar la eficacia de la invencion.
[FIG. 8] Un diagrama de flujo de una realizacion de un proceso de codificacion de acuerdo con la invencion.
[FIG. 9] Un diagrama de flujo de una realizacion de un proceso de decodificacion de acuerdo con la invencion.
[FIG. 10] Un diagrama de flujo de una realizacion de un proceso de estimacion de movimiento ponderada de acuerdo con la invencion.
[FIG. 11] Un diagrama de flujo de una realizacion de un proceso de compensacion de movimiento ponderada de acuerdo con la invencion.
[FIG. 12] Un diagrama de flujo de una realizacion de un proceso de calculo de coeficiente de ponderacion de acuerdo con la invencion.
[FIG. 13] Un diagrama de flujo de una realizacion de un proceso de estimacion de componente de CC de bloque inmediatamente inferior de acuerdo con la invencion.
[FIG. 14] Un diagrama de configuracion de una realizacion de un aparato de codificacion de acuerdo con la invencion.
[FIG. 15] Un diagrama de configuracion de una realizacion de un aparato de decodificacion de acuerdo con la invencion.
[FIG. 16] Un diagrama de configuracion de una realizacion de un estimador de movimiento ponderado de acuerdo con la invencion.
[FIG. 17] Un diagrama de configuracion de una realizacion de un compensador de movimiento ponderado de acuerdo con la invencion.
[FIG. 18] Un diagrama de configuracion de una realizacion de un calculador de coeficiente de ponderacion de acuerdo con la invencion.
5
10
15
20
25
30
35
40
45
50
55
60
65
[FIG. 19] Un diagrama de configuracion de una realizacion de un estimador de componente de CC de bloque inmediatamente inferior de acuerdo con la invencion.
[FIG. 20] Un diagrama explicativo de la prediccion de movimiento ponderada en H.264/AVC.
Numeros de referenda
101 Unidad de determinacion del metodo de prediccion
102 Intra-predictor
103 Predictor de movimiento ponderado
104 Predictor entre capas
105 Estimador de movimiento ponderado
106 Compensador de movimiento ponderado
107 Generador de senal residual de prediccion
108 Codificador de senal residual de prediccion
109 Decodificador
110 Unidad de almacenamiento de senal decodificada de capa
111 Unidad de almacenamiento de informacion de codificacion
201 Decodificador del modo de prediccion
202 Unidad de almacenamiento del modo de prediccion
203 Unidad de determinacion del metodo de prediccion
204 Intra-predictor
205 Predictor de movimiento no ponderado
206 Predictor entre capas
207 Decodificador de informacion vectorial de movimiento
208 Unidad de almacenamiento de informacion vectorial de movimiento
209 Compensador de movimiento ponderado
210 Unidad de almacenamiento de informacion de codificacion de capa inmediatamente inferior
211 Decodificador de senal residual
212 Unidad de almacenamiento de senal residual
213 Generador de senal decodificada
214 Unidad de almacenamiento de senal decodificada de capa de mejora relevante Mejor modo de llevar a oabo la invencion
En primer lugar, se explicara un resumen de la presente invencion.
En esta explicacion, por razones de conveniencia, las regiones de imagen se indican como bloques y los componentes DC (corriente continua) de las regiones de imagen se indican mediante valores medios.
El modo implicito es un metodo para calcular indirectamente un coeficiente de ponderacion requerido en la prediccion de movimiento ponderada, sin transmitir informacion de codificacion adicional. Siempre que el coeficiente
de mejora relevante
de capa inmediatamente inferior
5
10
15
20
25
30
35
40
45
50
55
de ponderacion calculado represente adecuadamente la variacion del brillo, este es un metodo notablemente eficaz. Sin embargo, si el coeficiente de ponderacion calculado diverge de la variacion de brillo, el rendimiento de prediccion se degrada.
Como se muestra en la figura 1 A, en el caso de imagenes de fundido no lineales o imagenes de destello, la variacion de brillo entre tramas es no lineal.
En tales casos, si la prediccion lineal se realiza utilizando solo un coeficiente de ponderacion para una senal de referencia de prediccion, como se muestra en la figura 1B, el rendimiento de prediccion se degradara.
En consecuencia, en la prediccion de movimiento ponderada en bi-prediccion, se proporciona un coeficiente de compensacion, mientras que en modo implicito de JVSC, puesto que este coeficiente de compensacion se establece en cero, la cantidad de divergencia se expresa como el residuo de prediccion.
Por otro lado, cuando smn representa una senal original en las coordenadas (m, n) en un bloque de destino de codificacion con un tamano de MxN, y0mn e y1mn representan senales decodificadas en las coordenadas (m , n) en dos bloques de referencia en bi-prediccion y se asigna al bloque de codificacion de destino un coeficiente de ponderacion (W0, W1, d), la diferencia “e” entre una senal de prediccion de movimiento ponderada calculada utilizando el coeficiente de ponderacion (W0, W1, d) y la senal original es:
y asi la energia total E de la diferencia de prediccion emn
en el bloque de destino de codificacion es:
Si W0 y W1 se aplican de la misma manera que en la figura 20, se puede determinar un coeficiente de compensacion d para minimizar la energia total E, resolviendo “dE / dd = 0” y determinando:
d = <s> - w0<yo> - wi<yi>
<s>: Valor medio de la senal original del bloque de destino de codificacion <y0>: Valor medio de la senal decodificada del bloque de referencia <y1>: Valor medio de la senal decodificada del bloque de referencia.
Sin embargo, un decodificador no puede referirse a una senal original. En consecuencia, la presente invencion se centra en la conservacion de un valor medio de entre capas. Como se muestra en la figura 1C, en lugar del valor medio <s> de la senal original, la invencion utiliza un valor medio <x> de una senal decodificada de un bloque (bloque inmediatamente inferior) que esta presente espacialmente en la misma posicion que la del bloque de destino de codificacion en una capa inmediatamente inferior y determina el coeficiente de compensacion d como:
d * <x> - w(J<yn> - W]<yi>
Sin embargo, para determinar el valor medio <x> de la senal decodificada del bloque inmediatamente inferior que se encuentra espacialmente en la misma posicion que la del bloque de destino de codificacion en la capa inmediatamente inferior, todas las senales decodificadas de la capa inmediatamente inferior deben ser decodificadas. Esto requiere una memoria de gran capacidad y un tiempo de calculo largo.
En la presente invencion, en la prediccion de movimiento ponderada en bi-prediccion, al determinar la cantidad de compensacion de acuerdo con la ecuacion de calculo,
d a <x> - wo<yo> - W]<yi>
el bloque de referencia de capa inmediatamente inferior, que el bloque inmediatamente inferior utilizo como referencia de prediccion para la prediccion de movimiento, es identificado, y <x> se determina obteniendo el resultado de la aplicacion del coeficiente de ponderacion que el bloque inmediatamente inferior utilizo en la prediccion de movimiento ponderada en el valor medio de las senales de decodificacion del bloque en la capa superior presente espacialmente en la misma posicion que la del bloque de referencia de capa inmediatamente inferior y asumiendo el resultado como el valor medio de las senales decodificadas del bloque inmediatamente
5
10
15
20
25
30
35
40
45
50
55
60
65
inferior.
El bloque de referencia de capa inmediatamente inferior que el bloque inmediatamente inferior utilizo como destino de referencia de prediccion de prediccion de movimiento puede identificarse sin decodificar todas las senales de la capa inmediatamente inferior, decodificando una parte de la informacion, tal como un vector de movimiento o similar. Por lo tanto, de acuerdo con la presente invencion, no hay problema en requerir una memoria de gran capacidad y un tiempo de calculo largo.
Los coeficientes ponderados W0 y wi se pueden determinar en el lado de decodificacion calculandolos de acuerdo con la distancia entre tramas entre el bloque de destino de codificacion y cada bloque de referencia. Ademas, el coeficiente de compensacion d tambien se puede determinar en el lado de decodificacion calculandolo a partir de la senal decodificada. Por consiguiente, de acuerdo con la invencion, no hay necesidad de transmitir los coeficientes ponderados al lado de decodificacion.
Por lo tanto, de acuerdo con la invencion, en la prediccion de movimiento ponderada en la bi-prediccion, incluso cuando el brillo entre tramas varia de forma no lineal mientras se implementa el modo implicito, se puede conseguir una prediccion de movimiento ponderada altamente precisa con una pequena capacidad de memoria y en poco tiempo.
La idea tecnica de la invencion tambien se puede aplicar en prediccion de movimiento ponderada en prediccion unidireccional.
Es decir, en la prediccion de movimiento ponderada en prediccion unidireccional:
i) como coeficiente proporcional, se utiliza la relacion entre el valor medio de la senal decodificada del bloque de referencia y el valor medio de la senal original de un bloque de destino de codificacion, y se utiliza un coeficiente de compensacion de cero; o
ii) como coeficiente de compensacion, se utiliza la diferencia entre el valor medio de la senal decodificada del bloque de referencia y el valor medio de la senal decodificada del bloque de destino de codificacion, y 1 se utiliza como coeficiente proporcional.
Sin embargo, un decodificador no puede referirse a una senal original. En consecuencia, la presente invencion se centra en la conservacion de un valor medio entre capas y, en lugar del valor medio de la senal original del bloque de destino de codificacion, utiliza el valor medio de la senal decodificada del bloque inmediatamente inferior para determinar la relacion y la diferencia mencionadas anteriormente.
Sin embargo, para determinar el valor medio de la senal decodificada del bloque inmediatamente inferior, todas las senales decodificadas de la capa inmediatamente inferior deben ser decodificadas. Esto requiere una memoria de gran capacidad y un tiempo de calculo largo.
En consecuencia en la invencion, en la prediccion de movimiento ponderada unidireccional, se identifica el bloque de referencia de la capa inmediatamente inferior, que el bloque inmediatamente inferior utilizo como destino de referencia de prediccion para la prediccion de movimiento, y la relacion y la diferencia antes mencionadas se calculan obteniendo el resultado de la aplicacion del coeficiente de ponderacion (llamado segundo coeficiente) que el bloque inmediatamente inferior utilizo en la prediccion de movimiento ponderada al valor medio de las senales decodificadas del bloque en la capa superior presente espacialmente en la misma posicion que la del bloque de referencia de la capa inmediatamente inferior, y asumiendo el resultado como el valor medio de las senales decodificadas del bloque inmediatamente inferior.
El bloque de referencia de capa inmediatamente inferior, que el bloque inmediatamente inferior utilizo como destino de referencia de prediccion para la prediccion de movimiento, puede identificarse sin decodificar todas las senales de la capa inmediatamente inferior por decodificacion de una parte de la informacion, tal como un vector de movimiento. Por lo tanto, de acuerdo con la invencion, no hay problema en requerir una memoria de gran capacidad y un tiempo de calculo largo.
Esto permite que los coeficientes ponderados se determinen en el lado de decodificacion calculandolos a partir de la senal decodificada y, en consecuencia, de acuerdo con la invencion, no es necesario transmitir los coeficientes ponderados al lado de decodificacion.
Por lo tanto, de acuerdo con la invencion, en prediccion de movimiento ponderada en prediccion unidireccional, incluso cuando el brillo entre tramas cambia de forma no lineal mientras se implementa el modo implicito, se puede lograr una prediccion de movimiento ponderada altamente precisa con una pequena capacidad de memoria y en poco tiempo.
Posteriormente, la invencion se explicara en detalle con referencia a realizaciones de ejemplo.
5
10
15
20
25
30
35
40
45
50
55
60
65
Como se menciono anteriormente, la prediccion de movimiento ponderada en H.264/AVC se ejecuta en unidades de corte. Por lo tanto, cuando hay variacion de brillo en parte de un corte, o cuando la variacion de brillo no es uniforme dentro del corte, el rendimiento de prediccion de la prediccion de movimiento ponderada se degrada. Un ejemplo es la variacion de brillo causada por la sombra de un objeto en movimiento. Puesto que JSVC hereda la prediccion de movimiento ponderada en H.264/AVC, se enfrenta al mismo problema.
Si se intenta realizar una prediccion de movimiento ponderada mediante el calculo de coeficientes ponderados en unidades menores que los cortes, tales como macrobloques, la cantidad de codificacion necesaria para el coeficiente de ponderacion en modo explicito sera extremadamente grande. En tales casos, los coeficientes ponderados se calculan preferentemente en modo implicito. Sin embargo, como se explico anteriormente, el modo implicito de prediccion de movimiento ponderada en H.264/AVC se limita a la bi-prediccion en cortes B.
Ademas, puesto que un coeficiente de ponderacion calculado en modo implicito en la prediccion de movimiento ponderada se basa en la suposicion de que la variacion de brillo a traves de la trama de destino de codificacion y las dos tramas de referencia es lineal, cuando la variacion de brillo temporal sobre estas tres tramas es no lineal, es imposible calcular un coeficiente de ponderacion apropiado, y el rendimiento de prediccion se degrada. Los ejemplos incluyen una imagen de fundido donde el brillo varia de forma no lineal, una imagen que contiene un flash, etc. Puesto que la prediccion de movimiento ponderada en JSVC implementa la prediccion de movimiento ponderada H.264/AVC sin ninguna modificacion, se enfrenta al mismo problema.
En vista de tales circunstancias, los inventores presentaron previamente una solicitud de solicitud de patente japonesa numero 2007-174161 (presentada el 2 de julio de 2007) para una nueva invencion que pueda resolver estos problemas.
La invencion presentada en el documento JP 2007-174161 calcula un coeficiente de ponderacion utilizando la senal decodificada de una capa inmediatamente inferior de la trama de destino de codificacion.
Posteriormente, se explicara un metodo de calculo del coeficiente de ponderacion introducido por la invencion presentado en el documento JP 2007-174161.
La invencion presentada en el documento JP 2007-174161 emplea el siguiente procedimiento para calcular un coeficiente de ponderacion para su uso en la estimacion de movimiento ponderada y la compensacion de movimiento ponderada para codificacion escalable.
En modo implicito convencional, la variacion temporal del brillo se estima mediante interpolacion o extrapolacion dentro de una capa de acuerdo con la distancia desde una trama de referencia, y se calcula el coeficiente de ponderacion.
En la invencion (solicitud de patente japonesa n° 2007-174161), la variacion de brillo temporal se estima mas precisamente utilizando informacion relacionada con la senal decodificada de una capa inmediatamente inferior de la capa a codificar/decodificar.
Se explicaran los simbolos utilizados en la explicacion del procedimiento.
Sea f una trama de destino del proceso de codificacion/decodificacion (en lo sucesivo, trama de destino de correccion) de la capa de mejora, f0 sea una trama de referencia de estimacion/compensacion de movimiento ponderada (en lo sucesivo trama corregida) en la prediccion L0 en corte P o corte B, y f sea una trama corregida de la prediccion L1 en el corte B. Una trama en la capa inmediatamente inferior al mismo tiempo que la trama de destino de correccion f se indica g.
Un valor de senal de prediccion insertado en las coordenadas (i, j) de un bloque de destino de proceso de codificacion/decodificacion (en lo sucesivo, bloque de destino de correccion) en la trama f se denomina z (i, j) y un valor de senal decodificado en las coordenadas (i, j) de un bloque de referencia de estimacion/compensacion de movimiento ponderada (en lo sucesivo, bloque corregido) en la trama f0 se indica como y0 (i, j). Ademas, un valor de senal decodificado en las coordenadas (i, j) de un bloque en la trama g presente espacialmente en la misma posicion que la del bloque de destino de correccion de la trama f se indica x (i, j).
Esto se muestra en la figura 2. La figura 2 es un diagrama cuando la relacion de resolucion entre la capa de mejora relevante y la capa inmediatamente inferior es 2:1 en ambos ejes horizontal y vertical. Un proceso similar puede realizarse para relaciones de resolucion distintas de 2:1.
Sea Y0 un valor de componente de CC de un bloque corregido en la trama f0 y X sea un valor de componente de CC de un bloque en la trama g presente espacialmente en la misma posicion que la de un bloque de destino de correccion de la trama f. En el caso de la figura 2, se calculan de la siguiente manera.
5
10
15
20
25
30
35
40
45
[Formula 1]
Metodo para calcular los coeficientes ponderados en el corte P y la prediccion L0/L1 en el corte B
En la prediccion de una sola trama, tal como el corte P y la prediccion L0/L1 realizada en el corte B, el valor de la senal de prediccion z (i, j) se calcula como sigue.
Para el corte P y la prediccion L0 en el corte B:
Para la prediccion L1 en el corte B:
z(ij) = wi ■ yi(i,j)+di (3)
La invencion (el documento JP 2007-174161) describe dos ejemplos de metodos de calculo de estos coeficientes ponderados W0 y d0, o W1 y d1.
La siguiente explicacion de los metodos de calculo describe ejemplos en el corte P y prediccion L0 en el corte B. Para la prediccion L1 en el corte B, los elementos relativos a tramas f0 y g0 pueden ser reemplazados por elementos relativos a las tramas f y g1.
Los dos metodos de calculo se basan en la siguiente suposicion. Puesto que la trama f y la trama g estan compuestas de la misma informacion de tiempo, podemos esperar que sus senales tengan brillo similar. Utilizando la informacion de brillo de la trama g, que ya se conoce, la variacion de brillo de la trama f de destino de correccion se predice indirectamente a partir de la trama corregida f0.
Metodo 1-1: Correccion proporcional de coeficiente utilizando el componente de CC en la prediccion de una sola trama
En este metodo, los coeficientes ponderados se calculan como sigue.
wo - X/Yn (4)
do _ 0 (5)
Metodo 1-2: Correccion de coeficiente de compensacion utilizando el componente de CC en la prediccion de una sola trama
En este metodo, los coeficientes ponderados se calculan como sigue.
wo - 1 (6)
do - X-Yo (7)
Metodo de calculo del coeficiente de ponderacion en la bi-prediccion en el corte B
En la bi-prediccion en el corte B, el valor de la senal de prediccion z (i, j) se calcula como sigue.
5
10
15
20
25
30
35
40
45
50
z(i, j) = w0 • y0(i, j) + w, • y,(i, j)+d (8)
En la invencion (el documento JP 2007-174161), los coeficientes ponderados W0, wi y d se calculan como sigue.
El metodo de calculo se basa en la suposicion de que, puesto que la trama f y la trama g se componen de informacion del mismo tiempo, sus senales tienen brillo similar. Utilizando la informacion de brillo de la trama g, que ya se conoce, la variacion de brillo de la trama f de correccion se predice indirectamente a partir de las tramas corregidas f0 y f1.
Metodo 2-1: Correccion del coeficiente de ponderacion utilizando un bloque de componente de CC en la bi- prediccion
En este metodo, los coeficientes ponderados se calculan como sigue.
Wy = 1 -W) (9)
w,=th/td (10)
d = X-wo ■ Yo-w, ■ Yi (11)
donde tb es la distancia entre tramas desde la trama corregida f0 a la trama de destino de correccion y td es la distancia entre tramas desde la trama corregida f0 a la trama corregida f1.
A continuacion se presenta un resumen de los metodos de calculo de los coeficientes ponderados introducidos por la invencion presentada en la patente japonesa 2007-174161 como se ha descrito anteriormente.
Como se muestra en la figura 3, que B represente el bloque de una trama en el instante t en la capa relevante 1, y que B0 y B1 representen respectivamente bloques de referencia para la misma. B0 y B1 pertenecen respectivamente a una trama en el instante t-T0 y a una trama en el instante t + T1 en la capa 1.
Supongamos que la trama en el instante t-T es la unica trama de referencia en la prediccion unidireccional.
Ademas, sea Ba un bloque de la trama en el instante t espacialmente en la misma posicion que la del bloque B en una capa inmediatamente inferior 1-1. En lo sucesivo, Ba se denomina “bloque inmediatamente inferior”.
Sea R (1, t-T0, B0) el componente de CC de la senal decodificada en el bloque de referencia B0, R (1, t+T 1, B1) sea el componente de CC de la senal decodificada en el bloque de referencia B1, y R (1-1, t, Ba) sea el componente de CC de la senal decodificada en el bloque inmediatamente inferior Ba.
El componente de CC de cada bloque se genera aplicando una FFT bidimensional o una DCT bidimensional al conjunto de pixeles en ese bloque.
La invencion presentada en el documento JP 2007-174161 define los coeficientes ponderados (W0, d0) o (W0, W1, d) en este momento como sigue.
Para la prediccion unidireccional:
Correccion de coeficiente proporcional: metodo de correccion utilizando las formulas (4) y (5)
Wy = R(l-l,t, B, ! R. .1 I . B;l)
do = 0 (12)
o
Correccion de coeficiente de compensacion: metodo de correccion que utiliza las formulas (6) y (7)
5
10
15
20
25
30
35
40
45
50
55
Wo - 1
do = R(l-1, t, Ba) / R(l, t-T0, Bo) (13)
Para la bi-prediccion:
Metodo de correccion que utiliza las formulas (9) a (11)
Wo — 1 W[
wi =T0/(To+Ti)
d - R(l-1, t, Ba)-wo R(l,t-To, Bo)-w, R(l, t+T,, B,) (14)
Por lo tanto, la prediccion de movimiento ponderada en modo implicito que no transmite informacion relativa a los coeficientes ponderados puede ser implementada por medio de una prediccion unidireccional. Existen dos tipos de metodos para calcular los coeficientes ponderados en la prediccion unidireccional: el metodo de correccion de coeficientes proporcionales dado en la formula (12) y el metodo de correccion del coeficiente de compensacion dado en la formula (13).
Ademas, el rendimiento de prediccion en modo implicito durante la bi-prediccion en H.264/AVC se mejora en la forma dada en la formula (14).
En relacion con la invencion de acuerdo con la formula (14), los inventores publicaron ‘Kazuya Hayase, Yukihiro Bandoh, Seishi Takamura, Kazuto Kamikura y Yoshiyuki Yashima: “Prediccion ponderada de codificacion de video escalable espacial utilizando la correlacion entre capas” FIT 2007, Sexto forum sobre ciencia y tecnologia de la informacion, pp. 253-256, septiembre de 2007 ».
Se explicara brevemente la correccion del coeficiente proporcional en prediccion unidireccional que determina los coeficientes ponderados (W0, d0) de acuerdo con la formula (12). Como se muestra en la figura 4A, en la determinacion del coeficiente de ponderacion W0 para que sea la relacion entre el componente a de CC de la senal decodificada en el instante t-T0 en la capa 1 y el componente p de CC de la senal original en el instante t en la capa 1, el componente p de CC de la senal original en el instante t en la capa 1 se reemplaza por un componente P’ de CC de la senal decodificada en el instante t en la capa 1-1, y se considera que el resultado es el coeficiente de ponderacion W0.
Una caracteristica aqui es que, puesto que el coeficiente de ponderacion W0 se puede calcular a partir de la senal decodificada, no necesita ser transmitido al lado de decodificacion.
Se explicara brevemente la correccion del coeficiente de compensacion en la prediccion unidireccional que determina los coeficientes ponderados (W0, d0) de acuerdo con la formula (13). Como se muestra en la figura 4B, en la determinacion del coeficiente de compensacion d0 para que sea la diferencia entre el componente p de CC de la senal original en el instante t en la capa 1 y el componente a de CC de la senal decodificada en el instante t-T0 en la capa 1, p representa el componente p de CC de la senal original en el instante t en la capa 1 se reemplaza por un componente p’ de CC de la senal decodificada en el instante t en la capa 1-1, y se considera que el resultado es el coeficiente de compensacion d0.
Una caracteristica aqui es que, puesto que el coeficiente de compensacion d0 se puede calcular a partir de la senal decodificada, no necesita ser transmitido al lado de decodificacion.
Se explicara brevemente la correccion del coeficiente de compensacion en la bi-prediccion que determina los coeficientes ponderados (W0, d0) de acuerdo con la formula (14). Como se muestra en la figura 4C, si a representa el componente de CC de la senal decodificada en el instante t-T0 en la capa 1, p representa el componente de CC de la senal original en el instante t en la capa 1, e y representa el componente de CC de la senal decodificada en el instante t + T1 en la capa 1, entonces en la determinacion del coeficiente de compensacion d sera “d = p-W0 ■ a-W1 ■ Y”, el componente p de DC de la senal original en el instante t en la capa 1 se reemplaza por un componente p’ de CC de la senal decodificada en el instante t en la capa 1-1, y se considera que el resultado es el coeficiente de compensacion d.
Una caracteristica aqui es que, puesto que el coeficiente de compensacion d se puede calcular a partir de la senal decodificada, no necesita ser transmitido al lado de decodificacion.
Por otro lado, los tipos de decodificacion de los procesos de codificacion que forman capas multiples como JSVC
5
10
15
20
25
30
35
40
45
50
55
60
65
incluyen decodificacion de bucle multiple, que requiere compensacion de movimiento inverso en una capa inferior, y decodificacion de bucle unico, que no requiere compensacion de movimiento inverso en una capa inferior. Generalmente, los procesos de decodificacion deben ser simples. Por esta razon, la compensacion de movimiento inverso de alta carga es un proceso que debe evitarse siempre que sea posible, mientras que la decodificacion de bucle unico esta en demanda.
En esta memoria descriptiva, “compensacion de movimiento inverso” indica los procesos en cuanto a la identificacion de la senal decodificada de un bloque indicado por un vector de movimiento.
Sin embargo, en la invencion presentada en el documento JP 2007-174161, como se muestra en la formula (2), se calcula el componente de CC R (1 -1, t, Ba) de la senal decodificada en el bloque inmediatamente inferior Ba, despues de que todas las senales decodificadas en la capa inmediatamente inferior se han creado. En consecuencia, el proceso de decodificacion se convierte en uno de decodificacion de bucle multiple, y queda espacio para mejorar.
En vista de tales circunstancias, la presente invencion tiene como objeto establecer, en una codificacion escalable espacial que incluye una capa base y una o mas capas de mejora, un nuevo metodo de diseno de un codificador y decodificador escalable que estima un componente de CC de una senal decodificada en una capa inmediatamente inferior de una trama de destino de codificacion a partir de solo una senal decodificada de una trama de referencia de prediccion de movimiento e informacion de codificacion relativa a la compensacion de movimiento en la capa inmediatamente inferior y genera un coeficiente de ponderacion de prediccion de movimiento ponderada a partir de la relacion entre el componente de CC calculada de la senal decodificada de la capa inmediatamente inferior de la trama de destino de codificacion y el componente de CC de la senal decodificada de la trama de referencia de prediccion de movimiento y, de este modo, realiza la prediccion de movimiento ponderada utilizando el mismo coeficiente de ponderacion en el codificador y el decodificador sin transmitir informacion de coeficiente de ponderacion.
Se explicara un procedimiento para la prediccion de movimiento ponderada en la invencion.
La prediccion de movimiento ponderada se compone de dos pasos: estimacion de movimiento ponderada y compensacion de movimiento ponderada.
La estimacion de movimiento ponderada indica un proceso de correccion de la variacion de brillo entre una trama de destino de proceso y una trama de referencia de prediccion de movimiento mientras se busca el movimiento entre las tramas y la informacion de movimiento de salida detectada en la busqueda como vector de movimiento.
La compensacion de movimiento ponderada indica un proceso de lectura de la informacion de movimiento, correccion de la variacion de brillo con respecto a un valor de senal indicado por el vector de movimiento, y salida del valor de la senal corregida como una senal de prediccion en la trama de destino de proceso.
En un proceso de codificacion, se detecta un vector de movimiento mediante estimacion de movimiento ponderada, se lee el vector de movimiento y se ejecuta la compensacion de movimiento ponderada.
En un proceso de decodificacion, se lee el vector de movimiento decodificando la informacion de codificacion y se ejecuta la compensacion de movimiento ponderada.
Los coeficientes ponderados se pueden calcular en unidades de regiones de imagenes arbitrarias. Los ejemplos incluyen unidades de trama, unidades de corte, unidades de macrobloque, incluso unidades de bloque mas pequenas obtenidas dividiendo minuciosamente un macrobloque, etc.
En la invencion, puesto que no hay necesidad de transmitir un coeficiente de ponderacion para la capa en cuestion, la sobrecarga requerida para la prediccion de movimiento ponderada es la misma independientemente de la unidad de region de imagen que se utilice para el calculo. Por lo tanto, cuanto menor sea la unidad de region de imagen utilizada para calcular el coeficiente de ponderacion, mayor sera el aumento en el rendimiento de prediccion de movimiento ponderada.
La explicacion se llevara a cabo tomando como ejemplo un caso en el que el coeficiente de ponderacion se calcula en unidades de macrobloque. La prediccion de movimiento ponderada mediante un proceso similar tambien puede realizarse utilizando unidades distintas de los macrobloques.
Un proceso similar puede ser realizado independientemente de la senal de destino, tal como para una senal de luminancia o una senal de color.
Estimacion de movimiento ponderada
La estimacion de movimiento ponderada se logra mediante la busqueda, para cada macrobloque de la trama de
5
10
15
20
25
30
35
40
45
50
55
60
65
destino de codificacion, de un macrobloque coincidente en la trama de referenda de estimacion.
Durante esta busqueda, cada vez que se cambia un macrobloque de destino de busqueda, se calcula un coeficiente de ponderacion que indica la variacion de brillo entre los bloques en ambas tramas, y la senal decodificada del macrobloque de destino de busqueda, que se corrige con ese coeficiente de ponderacion, se utiliza como una senal comparativa para la determinacion de la coincidencia.
Un macrobloque que se determina como coincidente se convierte en la referencia para un vector de movimiento, y se utiliza como macrobloque de referencia en la compensacion de movimiento.
Un ejemplo de medio de determinacion de coincidencia es el mencionado en el documento no patente 1, que minimiza el coste de Lagrange entre la cantidad de codificacion y la distorsion de codificacion.
Compensacion de movimiento ponderada
En la compensacion de movimiento ponderada, en primer lugar, se lee la informacion vectorial de movimiento mantenida por cada macrobloque de destino de codificacion/decodificacion.
Posteriormente, se calcula un coeficiente de ponderacion que indica la variacion de brillo entre un macrobloque de referencia indicado por ese vector de movimiento y el macrobloque de destino de codificacion/decodificacion.
La senal decodificada del macrobloque de referencia, que se corrige con el coeficiente de ponderacion, se utiliza entonces como senal de prediccion en el macrobloque de destino de codificacion/decodificacion.
Procesamiento del calculo del coeficiente de ponderacion
Los coeficientes ponderados para su uso en la estimacion de movimiento ponderada de codificacion escalable y la compensacion de movimiento ponderada se calculan tipicamente mediante el siguiente procedimiento.
Como en la invencion presentada en el documento JP 2007-174161, para un bloque en el que se realiza una prediccion unidireccional, el coeficiente de ponderacion se calcula a partir de la formula (12) o la formula (13) mencionadas anteriormente, mientras que cuando se realiza la bi-prediccion, se calcula a partir de la formula (14) mencionada anteriormente.
Sin embargo, la presente invencion emplea un metodo diferente para determinar el componente de CC de la senal decodificada R (1-1, t, Ba) del bloque inmediatamente inferior que el de la invencion presentada en el documento JP 2007-174161.
Es decir, mientras que la invencion presentada en el documento JP 2007-174161 obtiene el componente de CC decodificando completamente y convirtiendo ortogonalmente la capa inmediatamente inferior, en la presente invencion, la capa inmediatamente inferior solo se decodifica parcialmente (es decir, el nivel de decodificacion de un parte de la informacion de codificacion, en lugar de decodificar hasta que se decodifica la senal de imagen), y el componente de CC se obtiene entonces mediante estimacion indirecta a partir de esta informacion parcialmente decodificada y la senal decodificada de la trama de referencia de la capa relevante.
La decodificacion parcial elimina la necesidad de realizar una compensacion de movimiento inverso y puede acortar el tiempo de decodificacion.
Se explicaran los simbolos utilizados en una explicacion de un procedimiento especifico.
Como se muestra en la figura 5, sea B el bloque relevante de una trama en el instante t en la capa 1. Sea Ba un bloque inmediatamente inferior del bloque B en una capa inmediatamente inferior 1 -1.
Sean Bb0 y Bb1 bloques de referencia de prediccion de movimiento del bloque inmediatamente inferior Ba, y supongamos que Bb0 y Bb1 pertenecen respectivamente a una trama en el instante t-T0 en la capa 1 y una trama en el instante t + T1 en la capa I-1.
Las posiciones de los bloques de referencia Bb0 y Bb1 en la capa inmediatamente inferior 1-1 se obtienen decodificando informacion de codificacion sobre un indice de trama de referencia y un vector de movimiento mantenido por el bloque inmediatamente inferior Ba.
Asimismo, sean Bc0 y Bc1 bloques en la capa 1 presentes espacialmente en las mismas posiciones que los bloques de referencia Bb0 y Bb1 en la capa inmediatamente inferior I-1. En lo sucesivo, Bc0 y Bc1 se denominan “bloques inmediatamente superiores”.
Sean R(l-1, t, Ba), R(l-1, t-T0, Bb0), R(l-1, t + T1, Bb1), R(1, t-T0, Bcq) y R(1, t + T1, Bc1) respectivamente componentes
5
10
15
20
25
30
35
40
45
50
55
60
de CC de senales decodificadas en los bloques Ba, Bb0, Bbi, Bc0 y Bci.
Sea E (l-1, t, Ba) el componente de CC de una senal residual de prediccion contenida en el bloque inmediatamente inferior Ba. El componente de CC E(l-1, t, Ba) de la senal residual de prediccion se obtiene decodificando la informacion de codificacion de un componente de CC de una senal residual de prediccion mantenida por el bloque inmediatamente inferior Ba.
Cuando se realiza la prediccion de movimiento ponderada en la capa inmediatamente inferior, sean (W0’, d0’) los coeficientes ponderados entre el bloque inmediatamente inferior Ba y el bloque de referencia Bb0, y sea (W1’, d1’) los coeficientes ponderados entre el bloque inmediatamente inferior Ba y el bloque de referencia Bb1.
Estos coeficientes ponderados (W0’, d0’) y (W1’, d1’), llamados coeficientes ponderados segundos, se obtienen decodificando la informacion de codificacion del coeficiente de ponderacion mantenido por el bloque inmediatamente inferior Ba.
En la presente invencion, aunque no es necesario codificar el coeficiente de ponderacion para la capa 1, si existe la necesidad de codificar el coeficiente de ponderacion de la capa inmediatamente inferior 1-1 depende de si hay una capa por debajo de ella.
Para mayor comodidad en esta explicacion, supongamos que los coeficientes ponderados (segundos) (W0’, d0’) y (W1’, d1’) se obtienen por decodificacion de la informacion de codificacion de los coeficientes ponderados mantenidos por el bloque inmediatamente inferior Ba.
Posteriormente, con respecto al metodo de prediccion para el bloque Ba inmediatamente inferior, se explicaran diferentes metodos para determinar el componente de CC R(l-1, t, Ba) de la senal decodificada del bloque inmediatamente inferior Ba en cuatro casos distintos: intra-prediccion, prediccion unidireccional en la prediccion entre tramas, bi-prediccion en la prediccion entre tramas, y una mezcla de regiones de prediccion unidireccional y regiones de bi-prediccion en un bloque en la prediccion entre tramas.
(1) Bloque inmediatamente inferior Ba realiza intra-prediccion
Cuando el bloque inmediatamente inferior Ba realiza la intra-prediccion y la prediccion se ejecuta utilizando la intra- prediccion restringida, todas las senales decodificadas en el bloque inmediatamente inferior Ba se pueden reconstruir sin realizar compensacion de movimiento inverso.
En este caso, la “intra-prediccion restringida” se utiliza en H.264/AVC como se describe en el documento no patente 1 y en JSVC como se describe en el documento no patente 2 y es un tipo de metodo de intra-prediccion que tiene una restriccion que, cuando no hay modo de intra-prediccion en los bloques adyacentes, el bloque no puede emplear el modo de intra-prediccion.
Utilizando este metodo, un bloque que emplea el modo de intra-prediccion puede reconstruir las senales decodificadas en el bloque dentro de la trama, haciendo innecesaria la compensacion de movimiento inverso.
Por lo tanto, cuando el bloque inmediatamente inferior Ba realiza la intra-prediccion y la prediccion emplea la intra- prediccion restringida, todas las senales decodificadas en el bloque inmediatamente inferior Ba son simplemente reconstruidas y un componente de CC se calcula sobre la base de cada valor de senal. Si la intra-prediccion no emplea intra-prediccion restringida, la invencion no se implementa.
(2) Bloque inmediatamente inferior Ba realiza prediccion entre tramas utilizando prediccion unidireccional
Cuando el bloque inmediatamente inferior Ba utiliza la prediccion unidireccional, el componente de CC de senal decodificada R (l-1, t, Ba) del bloque inmediatamente inferior Ba se puede estimar como sigue.
R(l-1, t, Ba) * Wo’ ■ R(l-1, t-To, Bho) + do’ + E(l-1, t, B.) (15)
Sin embargo, la informacion de R(l-1, t-T0, Bb0) no puede obtenerse sin reconstituir todas las senales decodificadas en la capa inmediatamente inferior.
En consecuencia, suponiendo que:
R(l—1 * t-T0, Bbo) * R(l, t-To, Bco) (16)
el componente de CC decodificada R(1, Mo, Bc0) del bloque inmediatamente superior Bc0 (del bloque Bb0) en la capa
5
10
15
20
25
30
35
40
45
50
relevante se utiliza como sustituto.
A menos que exista una considerable distorsion de cuantificacion en los componentes DC de la senal decodificada de la capa relevante y la capa inmediatamente inferior, la suposicion de la formula (16) generalmente se mantiene.
Si la trama t-T0 de la capa 1 es la trama de referencia de la trama relevante t, las senales decodificadas del bloque Bc0 se han almacenado en un bufer para la prediccion de movimiento.
Por lo tanto, utilizando los valores estimados a partir de la formula (16) para calcular el componente de CC de la senal decodificada del bloque inmediatamente inferior Ba, pueden calcularse coeficientes ponderados sin realizar compensacion de movimiento inverso en la capa inmediatamente inferior.
Posteriormente en la presente invencion, R (l-1, t, Ba) se estima a partir de la siguiente formula.
R(l-1, t, Ba) * Wo’ ■ R(l. t-To, BCd) + do’ + E(l-1, t, Ba) (17)
Es posible aqui que el bloque inmediatamente inferior Ba incluya una pluralidad de bloques pequenos, que contienen una pluralidad de vectores de movimiento. Por ejemplo, si el bloque relevante B tiene un tamano de 16x16, el tamano del bloque inmediatamente inferior Ba sera 8x8. JSVC permite el uso de siete tamanos de bloque: 4x4, 4x8, 8x4, 8x8, 8x16, 16x8 y 16x16.
Por lo tanto, cuando el bloque inmediatamente inferior Ba es de tamano 8x8, contiene un maximo de cuatro bloques pequenos.
Cuando el bloque inmediatamente inferior Ba contiene una pluralidad de bloques pequenos, el valor del componente de CC de la senal decodificada en cada bloque pequeno se pondera de acuerdo con el area del respectivo bloque pequeno y su suma total se considera que es el componente de CC de la senal decodificada R(l-1, t, Ba) del bloque inmediatamente inferior Ba.
A continuacion se explica un ejemplo de un procedimiento de calculo especifico cuando el bloque inmediatamente inferior incluye una pluralidad de bloques pequenos.
Como se muestra en la figura 6, supongamos que el bloque B tiene un tamano de 16x16 y el bloque inmediatamente inferior Ba contiene dos bloques pequenos de tamano 4x4 y un bloque pequeno de tamano 4x8. Estos bloques pequenos se indican por Ba0 y Ba1 (bloques 4x4) y Ba2 (bloque 4 x 8).
Por otra parte, Bb00, Bb01 y Bb02 indican respectivamente bloques de referencia para la prediccion de movimiento de los bloques pequenos Ba0, Ba1 y Ba2, y Bc00, Bc01, y Bc02 respectivamente indican inmediatamente bloques superiores en la capa relevante espacialmente en las mismas posiciones que esos bloques de referencia.
Sean (W0 , d0 ), (W0 , d0 ) y (W0 , d0 ) coeficientes ponderados asignados respectivamente a bloques pequenos
Ba0, Ba1 y Ba2.
El componente de CC de senal decodificada R(l-1, t, Ba) del bloque Ba se calcula como sigue.
R(1—1, t, Ba) = (1/4) - [w0°’ - R(l, t-To, Bco0)
■ do0, ■ E(l 1, t, B/1)]
(1/4) • [wo1’ * R(l, t- -To, Bco1)
■■ do1’ ' E(1 l.t.B,1)]
(1/2) [w02’ R(l, t-T(j, lV)
+ d/' +EC1-1. t,B/)] (18)
(3) Bloque inmediatamente inferior Ba realiza prediccion entre tramas utilizando bi-prediccion
Cuando el bloque inmediatamente inferior Ba utiliza la bi-prediccion, su componente de CC de senal decodificada
R(l-1, t, Ba) se puede estimar como sigue.
5
10
15
20
25
30
35
40
45
R(l-1, t, B;i) = wu’ ■ Rfl-1, lT„, Bbo)
+ wj ’ K( 1 1. 11 11. Bhi)
+ (1/2) ■ (dfl'+dri+Ell-lit, Ba) (19)
Sin embargo, similar a la prediccion unidireccional, la informacion de R(l-1, t-T0, Bb0) y R(l-1, t + Ti, Bbi) no puede obtenerse sin decodificar todas las senales decodificadas en la capa inmediatamente inferior.
Por consiguiente, asumiendo que:
R(l—1, t-To, Bbo) * R(l, t-To, Bco)
R(l-1, t+T,, Bbi) « R(l, t+T,, Bc|) (20)
los componentes de CC de senal decodificada R (1, t-T), Bc0) y R(1, t + T1, Bc1) de los bloques inmediatamente superiores Bc0 y Bc1 (de los bloques Bb0 y Bb1) en la capa relevante se utilizan como sustitutos.
Siempre que la distorsion de cuantificacion contenida en los componentes de CC de senal decodificada de la capa relevante y la capa inmediatamente inferior no sea considerable, la formula (20) generalmente se mantiene.
La invencion entonces estima R (l-1, t, Ba) a partir de la siguiente formula.
R(l—1, t, Ba)*wr R(lt t-To, Bdl)
+ W|’ • R(l, t+Ti, BC|)
+ (1/2) - (do’+dr) + E(l-1, t, Ba) (21)
Como en la prediccion unidireccional, existe la posibilidad de que el bloque Ba incluya una pluralidad de bloques pequenos y contenga una pluralidad de vectores de movimiento.
En este caso, como en la prediccion unidireccional, los valores de componente de CC de cada uno de los bloques pequenos se ponderan de acuerdo con las areas de los bloques pequenos, y su suma total se indica por el componente de CC de senal decodificada R(l-1 , T, Ba) del bloque inmediatamente inferior Ba.
Por ejemplo, supongamos que el bloque relevante B tiene un tamano de 16x16 y el bloque inmediatamente inferior Ba contiene dos bloques pequenos de tamano 4x4 y un bloque pequeno de tamano 4x8. Estos bloques pequenos se indican por Ba0, Ba1 y Ba2.
Sean Bb00, Bm1, Bb02, Bb10, Bb11 y Bb12 bloques de referencia para la bi-prediccion de los bloques pequenos Ba0, Ba1 y Ba2 respectivamente, y sean Bc00, Bc01, Bc02, Bc10, Bd1 y Bc12 bloques inmediatamente superiores en la capa relevante espacialmente en las mismas posiciones que estos bloques de referencia.
Ademas, sean (W0 , d0 ), (W1 , d1 ), (W0 , d0 ), (W1 , d1 ), y (W0 , d0 ), (W1 , d1 ) los coeficientes ponderados
asignados respectivamente a los bloques pequenos Ba0, Ba1 y Ba2.
En este momento, el componente de CC de senal decodificada R(l-1, t, Ba) del bloque Ba se calcula como sigue. [Formula 2]
/?{{ — !,«, B„)
= I (u% R(U- To,BS,) + < • R(l,t + Ti.B?,) + \ (4 + 4)
+ i Lj' • fl(l,<-T0,B)o) + »}' R(l,t + T„B'cl) + \ (4 +d}’) +E(l-l,t,fli)) + 5 • fl(l.t-T0,Brf,) +tuf • R(l,t + Ti.Bj,) + j (^o +di ) +E(l~M.Ba))
(221
(4) Mezcla de prediccion unidireccional y bi-prediccion en bloque inmediatamente inferior Ba
5
10
15
20
25
30
35
40
45
50
55
La pluralidad de bloques pequenos (por ejemplo 4x4) en el bloque inmediatamente inferior Ba puede utilizar independientemente una de prediccion unidireccional y bi-prediccion. En este caso, supongamos que, a traves del mismo procedimiento que en (2) y (3), el valor del componente de CC de senal decodificada en cada bloque pequeno se pondera de acuerdo con el area del bloque pequeno respectivo y su suma total se considera para ser el componente de CC de senal decodificada R(l-1, t, Ba) del bloque Ba.
Ahora supongamos que, como en (2) y (3), el bloque B tiene un tamano de 16x16, y el bloque inmediatamente inferior Ba contiene dos bloques pequenos de tamano 4x4 (Ba0 y Ba1) y un pequeno bloque de tamano 4x8 (Ba2).
En este ejemplo, Ba0 y Ba2 utilizan la prediccion unidireccional, mientras que Ba1 utiliza la bi-prediccion. Bb00 y Bb02 representan respectivamente bloques de referencia para la prediccion unidireccional en bloques pequenos Ba0 y Ba2, mientras que Bb01 y Bb11 representan bloques de referencia para la bi-prediccion en el bloque pequeno Ba1.
Bc00, Bc02, Bc01, Bd1 representan bloques inmediatamente superiores en la capa relevante espacialmente en las mismas posiciones que esos bloques de referencia.
(W00, d00), (W0 1, d01), (W11, d11), y (W02, d02), representan los coeficientes ponderados asignados respectivamente a los bloques pequenos Ba0, Ba1 y Ba2.
El componente de CC de senal decodificada R(l-1, t, Ba) del bloque Ba se calcula ahora como sigue.
[Formula 3]
R(l-l,t,Ba)
— - (ttljj • R (l,t — To, Bj®) + ^0 + E (^ —
4 V
+ J • R (i. t - To, Bln) + vu}' R{l,t + Ti, S*x) +
+ \ (w? R (U - To, «$,) +4+ B (1-1,t,Bl))
■■■■ [23)
Como se ha descrito anteriormente, la presente invencion no se implementa cuando el bloque inmediatamente inferior Ba utiliza intra-prediccion y la prediccion no emplea intra-prediccion restringida. Tampoco se implementa cuando las senales decodificadas de los bloques inmediatamente superiores Bc0 y Bc1 de los bloques de referencia de prediccion Bb0 y Bb1 no se almacenan en un bufer para prediccion de movimiento.
En los casos en los que la invencion no se implementa, la codificacion se realiza utilizando otro metodo de prediccion. Ejemplos son prediccion de movimiento ponderada JSVC, prediccion de movimiento no ponderada ordinaria e intra-prediccion.
Cuando la capa inmediatamente inferior realiza la prediccion entre tramas, si la prediccion de movimiento ponderada en la capa inmediatamente inferior obtiene un rendimiento notablemente alto, el componente de CC E (l-1, t, Ba) de la senal residual de prediccion del bloque inmediatamente inferior Ba sera cercana a cero.
En tales casos, no es necesario considerar el componente de CC de la senal residual de prediccion. En consecuencia, no es necesario decodificar, lo que permite reducir aun mas la memoria y la cantidad de calculo utilizadas para la decodificacion. Por lo tanto, cuando se hace hincapie en la reduccion de la memoria y la cantidad de calculo, no es necesario anadir el componente de CC de la senal residual de prediccion.
A continuacion se sigue una explicacion de una prueba en la que la invencion se implementa en un codificador de referencia JSVC JSVM 8.0 para verificar el rendimiento de codificacion de la prediccion ponderada (WP) que realiza la correccion de coeficiente proporcional y WP que realiza la correccion de coeficiente de compensacion en la prediccion unidireccional de acuerdo con la invencion.
En esta prueba, la WP de JSVM se utilizo para codificar una capa base, mientras que la WP de la invencion se aplico a una capa de mejora. La verificacion del rendimiento se evaluo de acuerdo con las caracteristicas de distorsion de la velocidad cuando se aplico la WP de JSVM, y cuando se aplico la WP de la invencion, a la capa de mejora.
Utilizando tres imagenes estandar de JSVC, City, Soccer y Foreman, un fundido lineal blanco fue mezclado en 33 tramas en la cabecera de cada imagen.
Se probaron dos tipos de fundido, fundido de entrada/de salida, y se utilizaron las 33 tramas de esta porcion de
5
10
15
20
25
30
35
40
45
50
55
60
mezcla de fundido como tramas de destino de codificacion.
Se introdujo una imagen QCIF (que tiene un tamano de imagen de 176x144 pixeles) a 30 fps en la capa de base, y se introdujo una imagen CIF (que tiene un tamano de imagen de 352x288 pixeles) a 30 fps en la capa de mejora; el patron de imagen fue IPPP.
Cuatro valores de los parametros de cuantificacion (21, 24, 27 y 30) fueron probados, y los mismos valores se aplicaron a la capa base y la capa de mejora.
Se realizo una busqueda de movimiento exhaustiva, utilizando solo precision de enteros.
La Tabla 2 da las reducciones de cantidad de codificacion logradas implementando la presente invencion a partir de los valores de WP de JSVM. Se consiguio una reduccion maxima de la cantidad de codificacion del 6,38%. En general, las reducciones fueron mayores en las imagenes de fundido de salida.
[Tabla 21
- Tabla 2: tasas de reduccion de cantidad de codificacion (%) desde WP de JSVM
- Fundido de entrada Fundido de salida
- City
- Soccer Foreman City Soccer Foreman
- Correccion de coeficiente proporcional
- -0,40 0,09 -0,13 -2,64 -1,79 -1,11
- Correccion de coeficiente de compensacion
- -0,34 -0,32 -0,78 -6,38 -3,65 -3,13
Con referencia a la figura 7, se determino la relacion senal a ruido de pico (PSNR) y la velocidad de bits de cada procedimiento en la imagen de fundido City, que alcanzo la velocidad de reduccion maxima, y estos se compararon entonces (“Y-PSNR” representa PSNR de una senal de luminancia).
Como se desprende de la figura 7, el procedimiento de la presente invencion puede reducir la cantidad de codificacion, independientemente de la velocidad.
Al comparar la correccion de coeficiente proporcional y la correccion de coeficiente de compensacion, si bien no hay diferencia entre ellos en las imagenes de fundido de entrada (no mostradas), la correccion del coeficiente de compensacion es claramente mas efectiva en las imagenes de fundido de salida.
En la verificacion de rendimiento, la WP por correccion de coeficiente de compensacion alcanzo una reduccion de cantidad de codificacion media de 4,39% en imagenes de fundido de salida.
Aunque esta prueba ilustra caracteristicas de codificacion en la prediccion unidireccional, se espera una mejora de rendimiento similar en la bi-prediccion.
Realizaoiones
Posteriormente, la invencion se explicara en detalle de acuerdo con las realizaciones.
FLUJO DE PROCESAMIENTO Realizacion del proceso de codificacion
Con referencia a la figura 8, se explicara una realizacion de un procedimiento de codificacion de acuerdo con la invencion.
La realizacion explicada aqui es un proceso de codificacion ejecutado en un unico macrobloque. La informacion de codificacion completa se obtiene procesando todos los macrobloques de esta manera.
Paso S101: Realizar un proceso de determinacion para determinar si el macrobloque relevante en la capa de mejora es un macrobloque de destino para la prediccion de movimiento ponderada; si lo es, realizar un proceso de Paso S103, si no lo es, realizar un proceso de Paso S102.
Paso S102: Generar una senal de prediccion de acuerdo con la informacion del modo de prediccion del macrobloque emitido en el proceso del Paso S101.
Los tipos de metodos de prediccion incluyen: intra-prediccion, prediccion de movimiento no ponderada ordinaria y prediccion entre capas. Un ejemplo de un metodo de prediccion para cada uno de estos metodos es el metodo de prediccion en JSVM descrito en el documento no patente 3.
Paso S103: Leer la senal original del macrobloque relevante, la senal decodificada de un macrobloque de destino de
5
10
15
20
25
30
35
40
45
50
55
60
65
busqueda (en una trama de referencia) y la informacion de codificacion de la capa inmediatamente inferior, realizar una estimacion de movimiento ponderada e informacion vectorial de movimiento de salida. La figura 10 (explicada mas adelante) ilustra este proceso en detalle.
Paso S104: Leer la informacion vectorial de movimiento emitida en el proceso del paso S103 e informacion de codificacion de la capa inmediatamente inferior, realizar compensacion de movimiento ponderada y emitir una senal de prediccion de movimiento ponderada. La figura 11 (explicada mas adelante) ilustra este proceso en detalle.
Paso S105: Leer la senal de prediccion emitida por el proceso del paso S102 o el paso S104, generar una senal de diferencia entre la senal de prediccion y la senal original del macrobloque relevante y codificar esta senal de diferencia.
Un ejemplo de un proceso de codificacion de la senal de diferencia es el proceso de codificacion en JSVM mencionado en el documento no patente 3.
Realizacion del proceso de decodificacion
Con referencia a la figura 9, se explicara una realizacion de un proceso de decodificacion de acuerdo con la invencion.
La realizacion explicada aqui es un proceso de decodificacion ejecutado en un unico macrobloque. La senal decodificada total se forma procesando todos los macrobloques de esta manera.
Paso S201: Leer la informacion de codificacion relativa al modo de prediccion del macrobloque relevante en la capa de mejora, realizar un proceso de decodificacion, y emitir informacion del modo de prediccion.
Paso S202: Realizar un proceso de determinacion para determinar si el macrobloque relevante en la capa de mejora es un macrobloque de destino para la prediccion de movimiento ponderada; si la respuesta es si, realizar un proceso del Paso S204, si no, realizar un proceso del Paso S203.
Paso S203: Generar una senal de prediccion de acuerdo con la informacion del modo de prediccion del macrobloque relevante emitido en el proceso del Paso S201. Los tipos de metodos de prediccion incluyen intra-prediccion, prediccion de movimiento no ponderada ordinaria y prediccion entre capas.
Paso S204: Leer la informacion de codificacion relativa al vector de movimiento del macrobloque relevante, realizar un proceso de decodificacion y emitir el vector de movimiento.
Paso S205: Leer la informacion vectorial de movimiento emitida en el proceso del Paso S204 e informacion de codificacion de la capa inmediatamente inferior, realizar compensacion de movimiento ponderada y emitir una senal de prediccion de movimiento ponderada. La figura 11 (descrita mas adelante) ilustra este proceso en detalle.
Paso S206: Leer la senal de prediccion emitida en el Paso S203 o el Paso S205, anadirla a la senal residual de prediccion decodificada para construir una senal decodificada, y emitir esta senal decodificada.
Explicacion detallada del proceso del Paso S103
Con referencia a la figura 10, se explicara en detalle una realizacion del proceso de estimacion de movimiento ponderada (el proceso del Paso S103) de acuerdo con la invencion.
Paso S301: Leer la informacion de codificacion de la capa inmediatamente inferior y la senal decodificada del macrobloque de destino de busqueda actual, calcular el coeficiente de ponderacion que se aplicara al macrobloque de destino de busqueda y emitirlo. La figura 12 (descrita mas adelante) ilustra este proceso en detalle.
Paso S302: Leer el coeficiente de ponderacion emitido en el proceso del Paso S301, ponderar la senal decodificada del macrobloque de destino de busqueda actual con ese coeficiente de ponderacion y emitir el valor de senal ponderado.
Paso S303: Calcular el coste de codificacion constituido por la cantidad de codificacion y la cantidad de distorsion de codificacion entre el valor de senal emitido en el proceso del Paso S302 y la senal original del macrobloque relevante y emitirlo.
Un ejemplo de este coste de codificacion es el coste de Lagrange entre la cantidad de codificacion y la distorsion de codificacion debido al error cuadrado en el JSVM mencionado en el documento no patente 3.
Paso S304: Realizar el proceso de determinacion para determinar si se han realizado busquedas para todos los macrobloques a buscar; en caso afirmativo, realizar un proceso del Paso S306, en caso negativo, realizar un
5
10
15
20
25
30
35
40
45
50
55
60
65
proceso del Paso S305.
Paso S305: Cambiar el objetivo de proceso al siguiente macrobloque de destino de busqueda.
Paso S306: Leer la informacion del coste de codificacion emitida en el proceso del Paso S303, seleccionar un macrobloque que tiene el coste de codificacion mas pequeno entre los macrobloques que fueron buscados y emitir la diferencia en las posiciones de coordenadas entre este macrobloque y el macrobloque relevante, como un vector de movimiento.
Descripcion detallada de los procesos del Paso S104 y S205
Con referencia a la figura 11, se explicara una realizacion de un proceso de compensacion de movimiento ponderada (procesos de los Pasos S104 y S205) de acuerdo con la invencion.
Paso S401: Leer la informacion vectorial de movimiento del macrobloque relevante, y emitirlo. Para la compensacion de movimiento ponderada en un proceso de codificacion, esta informacion vectorial de movimiento se lee desde la salida de la estimacion de movimiento ponderada, mientras que para la compensacion de movimiento ponderada en un proceso de decodificacion, se lee desde la salida del proceso de decodificacion del vector de movimiento.
Paso S402: Leer la informacion de codificacion de una capa inmediatamente inferior y la informacion vectorial de movimiento emitida en el proceso del Paso S401, calcular un coeficiente de ponderacion para el macrobloque de referencia indicado por el vector de movimiento, y emitirlo. La figura 12 (descrita mas adelante) ilustra este proceso con mayor detalle.
Paso S403: Leer la informacion de coeficiente de ponderacion emitida en el proceso del Paso S402, ponderar la senal decodificada del macrobloque de referencia con ese coeficiente de ponderacion y emitir el valor de senal ponderado.
Explicacion detallada de los procesos del Paso S301 y el Paso S402
Con referencia a la figura 12, se explicara una realizacion de un proceso de calculo de coeficiente de ponderacion (procesos de los Pasos S301 y S402) de acuerdo con la invencion.
Paso S501: Leer la informacion de codificacion de la capa inmediatamente inferior, realizar un proceso de determinacion para determinar si el modo de prediccion del bloque inmediatamente inferior del macrobloque relevante es la intra-prediccion; en caso afirmativo, realizar un proceso del Paso S504; en caso negativo, realizar un proceso del Paso S502.
Paso S502: Realizar un proceso de determinacion para determinar si la senal decodificada de un bloque inmediatamente superior del bloque de referencia que el bloque inmediatamente inferior referido a la prediccion de movimiento se almacena en un bufer para la prediccion de movimiento; en caso afirmativo, realizar un proceso del Paso S503; en caso negativo, realizar un proceso del Paso S512.
Paso S503: Leer la informacion de codificacion de la capa inmediatamente inferior y la senal decodificada de la trama de referencia de la capa relevante, estimar un valor del componente de CC del bloque inmediatamente inferior y emitirlo. La figura 13 (descrita mas adelante) ilustra este proceso en detalle.
Paso S504: Leer la informacion de codificacion de la capa inmediatamente inferior, llevar a cabo un proceso de determinacion para determinar si la intra-prediccion del bloque inmediatamente inferior del macrobloque relevante es intra-prediccion restringida; en caso afirmativo, realizar un proceso del Paso S505; en caso negativo, realizar un proceso del Paso S512.
Paso S505: Leer la informacion de codificacion de la capa inmediatamente inferior, realizar un proceso de decodificacion del bloque inmediatamente inferior, reconstruir todas las senales en el bloque y emitirlas al bufer.
Paso S506: Leer la senal decodificada en el bloque inmediatamente inferior desde el bufer, calcular el componente de CC de la senal decodificada en el bloque inmediatamente inferior, y emitirla a un registro.
Paso S507: Leer la informacion del modo de prediccion del macrobloque relevante, realizar un proceso de determinacion para determinar si el modo de prediccion es una prediccion unidireccional; en caso afirmativo, realizar un proceso del paso S508; en caso negativo, realizar un proceso del Paso S511.
Paso S508: Realizar un proceso de determinacion para determinar si un metodo de calculo de coeficiente de ponderacion especificado externamente es un tipo de correccion de coeficiente proporcional; en caso afirmativo, realizar un proceso del Paso S509; en caso negativo, realizar un proceso del Paso S510.
5
10
15
20
25
30
35
40
45
50
55
60
65
En este caso, “tipo de correccion de coeficiente proporcional” indica un metodo de calculo de coeficiente de ponderacion implementado de acuerdo con la formula (12) descrita anteriormente.
En general, el tipo de correccion de coeficiente proporcional es mas eficaz en imagenes de fundido de entrada en blanco e imagenes de fundido de salida en negro. Por el contrario, el tipo de correccion de coeficiente de compensacion, que es el metodo de calculo de coeficiente de ponderacion implementado de acuerdo con la formula (13) descrita anteriormente, es mas eficaz en imagenes de fundido de salida en blanco y en imagenes de fundido de entrada en negro.
Por lo tanto, es preferible determinar esta informacion de especificacion externa relacionada con el metodo de calculo del coeficiente de ponderacion de acuerdo con un resultado de determinacion del tipo de fundido.
Paso S509: Leer el valor de uno de los componentes de CC del bloque inmediatamente inferior estimado en el proceso del Paso S503 y el componente de CC del bloque inmediatamente inferior calculado en el proceso del Paso S506, establecer la relacion entre ese componente de Cc y el valor de componente de CC del bloque de referencia como el coeficiente proporcional, establecer el coeficiente de compensacion en 0, y emitirlos. Este procedimiento cumple con la formula (12) descrita anteriormente.
Paso S510: Leer el valor de uno de los componentes de CC del bloque inmediatamente inferior estimado en el proceso del Paso S503 y el componente de CC del bloque inmediatamente inferior calculado en el proceso del Paso S506, establecer la diferencia entre ese componente de CC y el valor del componente de CC del bloque de referencia como el coeficiente de compensacion, establecer el coeficiente proporcional en 1 y emitirlos. Este procedimiento cumple con la formula (13) descrita anteriormente.
Paso S511: Leer la informacion relativa a la distancia entre tramas entre cada bloque de referencia y el bloque relevante, establecer su relacion como coeficiente proporcional, leer el valor de uno entre el componente de CC del bloque inmediatamente inferior estimado en el proceso del Paso S503 y el componente de CC del bloque inmediatamente inferior calculado en el proceso del Paso S506, establecer la diferencia entre ese valor de componente de CC y un valor obtenido mediante la aplicacion del coeficiente proporcional a cada componente de CC correspondiente de dos bloques de referencia como valor de compensacion, y emitirlo. Este procedimiento cumple con la formula (14) descrita anteriormente.
Paso S512: Implementar un metodo de calculo del coeficiente de ponderacion que no se refiera a un componente de CC estimado de un bloque inmediatamente inferior.
Un ejemplo concebible es el metodo de calculo del coeficiente de ponderacion que utiliza el modo implicito o el modo explicito en JSVM mencionado en el documento no patente 3.
Explicacion detallada del proceso del Paso S503
Con referencia a la figura 13, se explicara una realizacion de un proceso de estimacion del componente de CC de un bloque inmediatamente inferior (el proceso del Paso S503) de acuerdo con la invencion.
Paso S601: Leer la informacion de codificacion relativa a la informacion de division de bloques pequenos del bloque inmediatamente inferior, decodificarla e identificar la estructura de division de los bloques pequenos del bloque inmediatamente inferior.
Paso S602: Leer la informacion de codificacion relativa al indice de trama de referencia del bloque pequeno relevante, decodificarla y escribirla en un registro.
Paso S603: Leer la informacion de codificacion relativa a un vector de movimiento del bloque pequeno relevante, decodificarla y escribirla en un registro.
Paso S604: Leer la informacion de codificacion relativa a un coeficiente de ponderacion del bloque pequeno relevante, decodificarla y escribirla en un registro.
Paso S605: Leer la informacion de codificacion relativa a un componente de CC de una senal residual de prediccion del bloque pequeno relevante, decodificarla y escribirla en un registro.
Paso S606: Leer la informacion del indice de trama de referencia y el vector de movimiento emitidos en los procesos de los Pasos S602 y S603 desde los registros, e identificar la posicion del bloque de referencia de prediccion de movimiento de ese bloque pequeno.
Paso S607: Leer la senal decodificada del bloque inmediatamente superior del bloque de referencia identificado en el proceso del Paso S606, calcular el componente de CC de la senal decodificada y escribir el valor del componente de CC en un registro.
5
10
15
20
25
30
35
40
45
50
55
60
65
Paso S608: Leer el valor del componente de CC calculado en el proceso del Paso S607 del registro, ponderarlo con el coeficiente de ponderacion calculado en el proceso del Paso S604, y escribir el valor del resultado en un registro.
Paso S609: Leer el valor de componente de CC ponderado calculado en el proceso del Paso S608 del registro, anadirle el valor de componente de CC de la senal residual de prediccion calculada en el proceso del Paso S605, asumir que el valor de resultado es el valor de estimacion (valor estimado) del componente de CC del bloque relevante, y escribirlo en un registro.
Paso S610: Realizar un proceso de determinacion para determinar si se han completado los procesos de estimacion de componente de CC para todos los bloques pequenos; en caso afirmativo, realizar un proceso del Paso S611; en caso negativo, realizar un proceso del Paso S612.
Paso S611: Leer el valor del componente de CC de estimacion de cada bloque pequeno calculado en el proceso del Paso S609, ponderar el valor del componente de CC de estimacion de cada bloque pequeno de acuerdo con la relacion de area entre los bloques pequenos en el bloque inmediatamente inferior, asumir la suma ponderada como el valor de estimacion del componente de CC del bloque inmediatamente inferior, y emitir la suma.
Paso S612: Cambiar el destino del proceso al siguiente bloque de destino de estimacion de componente de CC.
APARATOS DE PROCESAMIENTO
Realizacion ejemplar de un aparato de codificacion
Con referencia a la figura 14, se explicara una realizacion de un aparato de codificacion de acuerdo con la invencion. La figura 14 es un diagrama de un aparato que codifica un macrobloque.
Unidad 101 de determinacion de metodo de prediccion: lee la informacion de especificacion que especifica un metodo de prediccion para el macrobloque relevante y, de acuerdo con la informacion de especificacion, cambia a un proceso de cada predictor.
La unidad 101 de determinacion de metodo de prediccion cambia a un proceso de un intra-predictor 102 si el metodo de prediccion especificado es una intra-prediccion, a un proceso de un predictor 103 de movimiento no ponderado si es prediccion no ponderada ordinaria, a un proceso de un predictor entre capas 104 Si es una prediccion entre capas, y a un proceso de un estimador 105 de movimiento ponderado si es una prediccion de movimiento ponderada.
Intra predictor 102: lee una senal original de destino y una senal decodificada correspondiente de una trama de destino de codificacion, ejecuta la intra-prediccion para generar una senal de prediccion y envia la senal de prediccion a un generador 107 de senal residual de prediccion.
Un ejemplo de un metodo de intra-prediccion es el metodo de intra-prediccion de JSVM mencionado en el documento no patente 3.
Predictor 103 de movimiento no ponderado: lee la senal original de destino de la trama de destino de codificacion y una senal decodificada de destino de la trama de referencia, ejecuta la prediccion de movimiento no ponderada ordinaria para generar una senal de prediccion y envia esta senal de prediccion al generador 107 de senal residual de prediccion.
Un ejemplo de un metodo ordinario de prediccion de movimiento no ponderado es el metodo ordinario de prediccion de movimiento no ponderado de JSVM mencionado en el documento 3 de no patente.
Predictor entre capas 104: lee, para la trama de destino de codificacion, la senal original de destino y la informacion de codificacion de la capa inmediatamente inferior, ejecuta la prediccion entre capas para generar una senal de prediccion y envia la senal de prediccion al generador 107 de senal residual de prediccion.
Un ejemplo de un metodo de prediccion entre capas es el metodo de prediccion entre capas de JSVM mencionado en el documento no patente 3.
Estimador 105 de movimiento ponderado: lee, para la trama de destino de codificacion, la senal original de destino, una senal decodificada de la trama de referencia emitida desde una unidad 110 de almacenamiento de senal decodificada de la capa de mejora relevante y la informacion de codificacion de la capa inmediatamente inferior emitida desde una unidad 111 de almacenamiento de informacion de codificacion de la capa inmediatamente inferior, ejecuta la estimacion de movimiento ponderada, genera un vector de movimiento y envia la informacion vectorial de movimiento a un compensador 106 de movimiento ponderado. La figura 16 (descrita mas adelante) ilustra una configuracion detallada del estimador 105 de movimiento ponderado.
5
10
15
20
25
30
35
40
45
50
55
60
65
Compensador 106 de movimiento ponderado: lee la senal decodificada de la trama de referenda emitida desde la unidad 110 de almacenamiento de senal decodificada de capa de mejora relevante y codifica informacion de la capa inmediatamente inferior emitida desde la unidad 111 de almacenamiento de informacion de codificacion de capa inmediatamente inferior, genera una senal de prediccion y envia la senal de prediccion al generador 107 de senal residual de prediccion. La figura 17 (descrita mas adelante) ilustra una configuracion detallada del compensador 106 de movimiento ponderado.
Generador 107 de senal residual de prediccion: lee la senal original de destino de la trama de destino de codificacion y la senal de prediccion emitida desde el intra-predictor 102, o el predictor 103 de movimiento no ponderado o el predictor entre capas 104 o el compensador 106 de movimiento ponderado, genera una senal de diferencia entre la senal original y la senal de prediccion, y envia la senal de diferencia al codificador 108 de senal residual de prediccion.
Codificador 108 de senal residual de prediccion: lee la senal residual de prediccion emitida desde el generador 107 de senal residual de prediccion, realiza un proceso de codificacion y envia el resultado como informacion de codificacion.
La informacion de codificacion se envia simultaneamente a un bufer, con el fin de introducirlo en un decodificador 109.
Un ejemplo de este proceso de codificacion de senal residual de prediccion es la aplicacion de la serie de procesos que incluyen la transformacion ortogonal, la cuantificacion y la codificacion de longitud variable de JSVM mencionada en el documento no patente 3.
Decodificador 109: lee la informacion de codificacion del bufer, realiza un proceso de decodificacion y envia la senal decodificada obtenida de este modo a la unidad 110 de almacenamiento de senal decodificada de la capa de mejora relevante.
Un procedimiento de decodificacion de acuerdo con la presente invencion se aplica al proceso de decodificacion anterior. La figura 15 (descrita mas adelante) ilustra una configuracion detallada de un aparato de decodificacion que funciona como el decodificador 109.
Unidad 111 de almacenamiento de informacion de codificacion de capa inmediatamente inferior: lee la informacion de codificacion de la capa inmediatamente inferior y la envia a un bufer.
Realizacion del aparato de decodificacion
Con referencia a la figura 15, se explicara una realizacion de un aparato decodificador de acuerdo con la invencion. La figura 15 es un diagrama de un aparato que decodifica un macrobloque en la capa de mejora relevante.
Decodificador 201 de modo de prediccion: lee la informacion de codificacion relativa a un modo de prediccion para el macrobloque relevante, realiza un proceso de decodificacion en el mismo y envia informacion del modo de prediccion a una unidad 202 de almacenamiento de modo de prediccion.
Unidad 203 de determinacion de metodo de prediccion: lee la informacion del modo de prediccion de la unidad 202 de almacenamiento del modo de prediccion y, de acuerdo con esa informacion de especificacion, cambia a un proceso de un predictor.
La unidad 203 de determinacion del metodo de prediccion cambia a un proceso de un intra-predictor 204 si el metodo de prediccion especificado es una intra-prediccion, a un proceso de un predictor 205 de movimiento no ponderado si es una prediccion ordinaria no ponderada, a un proceso de un predictor entre capas 206 si es una prediccion entre capas, y a un proceso de un decodificador 207 de informacion vectorial de movimiento si es prediccion de movimiento ponderada.
Intra predictor 204: lee una senal original de destino y una senal decodificada correspondiente de una trama de destino de codificacion, ejecuta la intra-prediccion para generar una senal de prediccion, y envia la senal de prediccion a un generador 213 de senal decodificada.
Predictor 205 de movimiento no ponderado: lee la senal original de destino de la trama de destino de codificacion y la senal decodificada de destino de la trama de referencia, ejecuta la prediccion de movimiento no ponderada ordinaria para generar una senal de prediccion y envia esta senal de prediccion al generador 213 de senal decodificado.
Predictor entre capas 206: lee, para la trama de destino de codificacion, la senal original de destino y la informacion de codificacion de la capa inmediatamente inferior, ejecuta la prediccion entre capas para generar una senal de
5
10
15
20
25
30
35
40
45
50
55
60
65
prediccion y envfa la senal de prediccion al generador 213 de senal decodificado.
Decodificador 207 de informacion vectorial de movimiento: lee la informacion de codificacion relativa al vector de movimiento del macrobloque relevante, realiza un proceso de decodificacion del mismo y envfa informacion vectorial de movimiento a una unidad 208 de almacenamiento de informacion vectorial de movimiento.
Compensador 209 de movimiento ponderado: lee la senal decodificada de la trama de referencia emitida desde una unidad 214 de almacenamiento de senal decodificada de la capa de mejora relevante y la informacion codificada de la capa inmediatamente inferior emitida desde una unidad 210 de almacenamiento de informacion de codificacion de capa inmediatamente inferior, genera una senal de prediccion y envfa la senal de prediccion al generador 213 de senal decodificado. La figura 17 (descrita mas adelante) ilustra una configuracion detallada del compensador 209 de movimiento ponderado.
Unidad 210 de almacenamiento de informacion de codificacion de capa inmediatamente inferior: lee la informacion de codificacion de la capa inmediatamente inferior y la envfa a un bufer.
Decodificador 211 de senal residual: lee la informacion de codificacion relativa a una senal residual del macrobloque relevante, realiza un proceso de decodificacion de la misma y envfa una senal residual a una unidad 212 de almacenamiento de senales residuales.
Generador 213 de senal decodificada: lee una senal de prediccion emitida desde el intra-predictor 204, o el predictor 205 de movimiento no ponderado, o el predictor entre capas 206, o el compensador 209 de movimiento ponderado, lo sintetiza con la senal residual leida desde la unidad 212 de almacenamiento de senal residual, genera una senal decodificada, y la envfa.
El generador 213 de senal decodificado escribe simultaneamente la senal decodificada en la unidad 214 de almacenamiento de senal decodificada de la capa de mejora relevante.
Configuracion detallada del estimador 105 de movimiento ponderado
Con referencia a la figura 16, se explicara una realizacion del estimador 105 de movimiento ponderado de acuerdo con esta invencion. La figura 16 es un diagrama de un dispositivo que realiza una estimacion de movimiento ponderada para un macrobloque en la capa de mejora relevante.
Unidad 301 de configuracion de bloque de destino de busqueda: lee la senal decodificada de la trama de referencia en la capa de mejora relevante, identifica un macrobloque como objetivo de busqueda de la estimacion de movimiento y envfa la senal decodificada de ese macrobloque a un calculador 302 de coeficiente de ponderacion.
Calculador 302 de coeficiente de ponderacion: lee la senal decodificada del macrobloque de destino de busqueda emitida desde la unidad 301 de configuracion de bloque de destino de busqueda y la informacion de codificacion de la capa inmediatamente inferior, calcula un coeficiente de ponderacion que se aplicara al macrobloque de destino de busqueda y lo envfa a una unidad 303 de almacenamiento de coeficientes ponderados.
Generador 304 de senal de estimacion de movimiento ponderada: lee el coeficiente de ponderacion de la unidad 303 de almacenamiento de coeficientes ponderados, pondera la senal decodificada del macrobloque de destino de busqueda con el coeficiente de ponderacion y envfa la senal ponderada a una unidad 305 de almacenamiento de senal de estimacion de movimiento.
Calculador 306 de coste de codificacion: lee la senal original del macrobloque relevante desde el bufer relevante, lee la senal de estimacion de movimiento ponderada desde la unidad 305 de almacenamiento de senal de estimacion de movimiento ponderada, calcula un coste de codificacion constituido por la cantidad de codificacion y la distorsion de codificacion entre la senal de estimacion de movimiento ponderada y la senal original del macrobloque relevante, envfa el coste de codificacion a una unidad 307 de almacenamiento de coste de codificacion, y cambia a un proceso de una unidad 308 de determinacion de finalizacion de busqueda.
Un ejemplo de este coste de codificacion es el coste de Lagrange entre la cantidad de codificacion y la distorsion de codificacion debido al error cuadrado en JSVM, mencionado en el documento no patente 3.
Unidad 308 de determinacion de finalizacion de busqueda: realiza un proceso de determinacion para determinar si se ha realizado una busqueda de estimacion de movimiento ponderada en el macrobloque relevante dentro de la trama de referencia para todos los candidatos especificados dentro del intervalo de busqueda y, en caso afirmativo, cambia a un proceso de una unidad 309 de determinacion de bloque de referencia, en caso negativo, cambia a un proceso de la unidad 301 de configuracion de bloque de destino de busqueda.
Unidad 309 de determinacion de bloque de referencia: lee un grupo de datos de coste de codificacion para todos los macrobloques de destino de busqueda de la unidad 307 de almacenamiento de coste de codificacion, determina un
5
10
15
20
25
30
35
40
45
50
55
60
65
macrobloque de destino de busqueda con el coste de codificacion mas pequeno para ser un bloque de referencia y genera la diferencia entre posiciones de coordenadas de este bloque de referencia y el macrobloque relevante como informacion vectorial de movimiento.
Configuracion detallada de los compensadores 106 y 209 de movimiento ponderados
Con referencia a la figura 17, se explicara una realizacion de los compensadores 106 y 209 de movimiento ponderados de acuerdo con esta invencion. La figura 17 es un diagrama de un dispositivo que realiza una compensacion de movimiento ponderada para un macrobloque en la capa de mejora relevante.
Unidad 401 de configuracion de senal de bloque de referencia: lee la senal decodificada de la trama de referencia y la informacion vectorial de movimiento, identifica un macrobloque de referencia y envia la senal decodificada de ese macrobloque a un calculador 402 de coeficiente de ponderacion.
Cuando el compensador de movimiento ponderado se instala dentro de un aparato de codificacion (como es el caso del compensador 106 de movimiento ponderado), la informacion vectorial de movimiento se aplica a partir del estimador 105 de movimiento ponderado, mientras que cuando el compensador de movimiento ponderado se instala dentro de un aparato decodificador (como es el caso del compensador 209 de movimiento ponderado), la informacion vectorial de movimiento se aplica desde el decodificador 207 de informacion vectorial de movimiento.
Calculador 402 de coeficiente de ponderacion: lee la senal decodificada del macrobloque de referencia emitido desde la unidad 401 de configuracion de la senal de bloque de referencia y la informacion de codificacion de la capa inmediatamente inferior, calcula un coeficiente de ponderacion que se implementara en el macrobloque de referencia y lo envia a una unidad 403 de almacenamiento de coeficiente de ponderacion.
Generador 404 de senal de prediccion de movimiento ponderada: lee el coeficiente de ponderacion desde la unidad 403 de almacenamiento de coeficiente de ponderacion, pondera la senal decodificada del bloque de referencia con el coeficiente de ponderacion y envia la senal ponderada a una unidad 405 de almacenamiento de senal de prediccion de movimiento ponderada.
Configuracion detallada de los calculadores 302 y 402 de coeficientes ponderados
Con referencia a la figura 18, se explicara una realizacion de los calculadores 302 y 402 de coeficientes ponderados de acuerdo con esta invencion. La figura 18 es un diagrama de un dispositivo que calcula un coeficiente de ponderacion para un macrobloque en la capa de mejora relevante.
Unidad 501 de determinacion de modo de prediccion de bloque inmediatamente inferior: lee la informacion de codificacion de la capa inmediatamente inferior, realiza un proceso de determinacion de un modo de prediccion del bloque inmediatamente inferior del macrobloque relevante, y (i) cuando el modo de prediccion es la intra-prediccion y la prediccion es una intra-prediccion restringida, cambia a un proceso de un decodificador 505 de senal de bloque inmediatamente inferior; (ii) cuando el modo de prediccion es una intra-prediccion y la prediccion no es una intra- prediccion restringida, cambia a un proceso de un calculador 512 de coeficiente de ponderacion de no referencia de componente de estimacion de bloque inmediatamente inferior, iii) cuando el modo de prediccion es la prediccion entre tramas, cambia a un proceso de una unidad 502 de determinacion de bufer de senal decodificada inmediatamente superior a la referencia de prediccion de bloque inmediatamente inferior.
Unidad 502 de determinacion del bufer de senal decodificada inmediatamente superior de referencia de prediccion de bloque inmediatamente inferior: realiza un proceso de determinacion para determinar si una senal decodificada de un bloque inmediatamente superior del bloque de referencia de prediccion ha sido almacenada en bufer y, en caso afirmativo, cambia a un proceso de un estimador 503 de componente de CC de bloque inmediatamente inferior, en caso negativo, cambia a un proceso del calculador 512 de coeficiente de ponderacion de no referencia de componente de estimacion de bloque inmediatamente inferior.
Estimador 503 de componente de CC de bloques inmediatamente inferior: lee la informacion de codificacion de la capa inmediatamente inferior y la senal decodificada de la trama de referencia de la capa relevante, estima un valor para el componente de CC del bloque inmediatamente inferior, y lo envia a una unidad 504 de almacenamiento de componente de CC de estimacion de bloque inmediatamente inferior. La figura 19 (descrita mas adelante) ilustra una configuracion detallada del estimador 503 de componente de CC de bloque inmediatamente inferior.
Decodificador 505 de senal de bloque inmediatamente inferior: lee la informacion de codificacion de la capa inmediatamente inferior, reconstruye todas las senales decodificadas en el bloque inmediatamente inferior y envia la senal decodificada relevante a un calculador 506 de componente de CC de bloque inmediatamente inferior.
Calculador 506 de componentes de CC de bloque inmediatamente inferior: lee la senal decodificada en el bloque inmediatamente inferior del decodificador 505 de senal de bloque inmediatamente inferior, calcula un componente de CC de la senal decodificada en el bloque inmediatamente inferior, y cambia a una unidad 507 de determinacion de
5
10
15
20
25
30
35
40
45
50
55
60
65
modo de prediccion de macrobloque relevante.
Unidad 507 de determinacion de modo de prediccion de macrobloque relevante: lee la informacion de modo de prediccion de macrobloque relevante, realiza un proceso de determinacion para determinar si el modo de prediccion es prediccion unidireccional y, en caso afirmativo, cambia a un proceso de una unidad 508 de determinacion de metodo de calculo de coeficiente de ponderacion, en caso negativo, cambia a un proceso de un calculador 509 de coeficiente de ponderacion de bi-prediccion.
Unidad 508 de determinacion de metodo de calculo de coeficiente de ponderacion: realiza un proceso de determinacion para determinar si un metodo de calculo de coeficiente de ponderacion especificado externamente es un tipo de correccion de coeficiente proporcional y, en caso afirmativo, cambia a un proceso de un calculador 510 de coeficiente de ponderacion de tipo de correccion de coeficiente proporcional de prediccion unidireccional, en caso negativo, cambia a un proceso de un calculador 511 de coeficiente de ponderacion de tipo de correccion de coeficiente de compensacion de prediccion unidireccional.
En este caso, “tipo de correccion de coeficiente proporcional” indica un metodo de calculo de coeficiente de ponderacion implementado de acuerdo con la formula (12) descrita anteriormente.
En general, el tipo de correccion de coeficiente proporcional es mas eficaz en imagenes de fundido de entrada en blanco e imagenes de fundido de salida en negro. Por el contrario, el tipo de correccion de coeficiente de compensacion, que es el metodo de calculo de coeficiente de ponderacion implementado de acuerdo con la formula (13) descrita anteriormente, es mas eficaz en imagenes de fundido de salida en blanco y en imagenes de fundido de entrada en negro.
Por lo tanto, es preferible determinar esta informacion de especificacion externa relacionada con el metodo de calculo del coeficiente de ponderacion de acuerdo con un resultado de determinacion del tipo de fundido.
Calculador 509 de coeficiente de ponderacion de bi-prediccion: lee la informacion relativa a la distancia entre tramas de cada bloque de referencia y el bloque relevante, determina un coeficiente proporcional a partir de la relacion entre ellos, lee el valor del componente de Cc del bloque inmediatamente inferior de la unidad 504 de almacenamiento de componente de CC de estimacion de bloques inmediatamente inferior o del calculador 506 de componente de CC de bloque inmediatamente inferior y establece la diferencia entre este valor de componente de CC y un valor obtenido mediante la aplicacion del coeficiente proporcional a cada valor de componente de CC correspondiente de los dos bloques de referencia como un coeficiente de compensacion. Este procedimiento cumple con la formula (14) descrita anteriormente.
Calculador 510 de coeficiente de ponderacion de tipo de correccion de coeficiente de prediccion unidireccional: lee el valor del componente de CC del bloque inmediatamente inferior de la unidad 504 de almacenamiento de componente de CC de estimacion de bloque inmediatamente inferior o del calculador 506 de componente de CC de bloque inmediatamente inferior, establece la relacion entre ese valor de componente de Cc y el valor de componente de CC del bloque de referencia como un coeficiente proporcional, establece el coeficiente de compensacion en 0 y envia los resultados. Este procedimiento cumple con la formula (12) descrita anteriormente.
Calculador 511 de coeficiente de ponderacion de tipo de correccion de coeficiente de compensacion de prediccion unidireccional: lee el valor del componente de Cc del bloque inmediatamente inferior de la unidad 504 de almacenamiento de componente de Cc de estimacion de bloques inmediatamente inferior o del calculador 506 de componente de CC de bloque inmediatamente inferior, establece la diferencia entre ese valor de componente de CC y el valor de componente de CC del bloque de referencia como el coeficiente de compensacion, establece el coeficiente proporcional en 1 y envia los resultados. Este procedimiento cumple con la formula (13) descrita anteriormente.
Calculador 512 de coeficiente de ponderacion de no referencia de componente de CC de estimacion de bloque inmediatamente inferior: realiza un metodo de calculo de coeficiente de ponderacion que no utiliza el componente de CC del bloque inmediatamente inferior y envia el resultado.
Como ejemplo de este proceso, se puede aplicar el metodo de calculo del coeficiente de ponderacion en modo explicito o modo implicito en JSVM mencionado en el documento no patente 3.
Configuracion detallada del estimador 503 de componente de CC de bloque inmediatamente inferior
Con referencia a la figura 19, se explicara una realizacion del estimador 503 de componente de CC de bloque inmediatamente inferior de acuerdo con la invencion. La figura 19 es un diagrama de un dispositivo que realiza una estimacion del componente de CC de bloque inmediatamente inferior para un macrobloque en la capa de mejora relevante.
Decodificador 601 de informacion de division de bloques pequenos: lee la informacion de codificacion relativa a la
5
10
15
20
25
30
35
40
45
50
55
60
65
informacion de division de bloques pequenos en el bloque inmediatamente inferior, realiza la decodificacion de los mismos y envfa una informacion de division de bloques pequena decodificada a una unidad 602 de almacenamiento de informacion de division de bloques pequenos.
Decodificador 603 de informacion de fndice de trama de referencia: lee la informacion de codificacion relativa a un fndice de trama de referencia de un bloque pequeno relevante, realiza su decodificacion y envfa informacion de fndice de trama de referencia decodificada a una unidad 604 de almacenamiento de informacion de fndice de trama de referencia.
Decodificador 605 de informacion vectorial de movimiento: lee la informacion de codificacion relativa a un vector de movimiento del correspondiente bloque pequeno, realiza su decodificacion y envfa informacion vectorial de movimiento decodificada a una unidad 606 de almacenamiento de informacion vectorial de movimiento.
Decodificador 607 de informacion de coeficiente de ponderacion: lee la informacion de codificacion relativa a un coeficiente de ponderacion del bloque pequeno relevante, realiza su decodificacion y envfa informacion de coeficiente de ponderacion decodificado a una unidad 608 de almacenamiento de informacion de coeficiente de ponderacion.
Decodificador 609 de informacion de componente de CC de senal residual de prediccion: lee la informacion de codificacion relativa a un componente de CC de una senal residual de prediccion del bloque pequeno relevante, realiza su decodificacion y envfa informacion de componente de CC decodificada de la senal residual de prediccion a una unidad 610 de almacenamiento de informacion de componente de CC de senal residual de prediccion.
Identificador 611 de posicion de referencia de prediccion de bloque pequeno relevante: lee el fndice de trama de referencia decodificado y la informacion vectorial de movimiento desde la unidad 604 de almacenamiento de informacion de fndice de trama de referencia y la unidad 606 de almacenamiento de informacion vectorial de movimiento respectivamente, e identifica la posicion de un bloque de referencia para la prediccion de movimiento del bloque pequeno relevante.
Calculador 612 de componentes de CC de la senal decodificada de bloque inmediatamente superior: lee una senal decodificada de un bloque inmediatamente superior del bloque de referencia, que es identificado por el identificador 611 de posicion de referencia de prediccion de bloque pequeno relevante, calcula un componente de CC de dicha senal decodificada y envfa el resultado a una unidad 613 de almacenamiento de componente de CC de senal decodificada de bloque inmediatamente superior.
Unidad 614 de funcionamiento de coeficiente de ponderacion: lee el componente de CC de la senal decodificada del bloque inmediatamente superior del bloque de referencia desde la unidad 613 de almacenamiento de componente de Cc de senal decodificada de bloque inmediatamente superior, lee un coeficiente de ponderacion asignado al bloque pequeno relevante desde la unidad 608 de almacenamiento de informacion de coeficiente de ponderacion, pondera el componente de CC de la senal decodificada del bloque inmediatamente superior utilizando el coeficiente de ponderacion y envfa un componente de CC ponderado a un sumador 615 de componente de CC de senal residual de prediccion.
Sumador 615 de componente de CC de senal residual de prediccion: lee el valor del componente de CC ponderado de la senal decodificada del bloque inmediatamente superior emitido desde la unidad 614 de funcionamiento de coeficiente de ponderacion, lee el componente de CC decodificada de la senal residual de prediccion desde la unidad 610 de almacenamiento de informacion de componente de CC de senal residual de prediccion, anade ambos juntos y envfa el valor de resultado a una unidad 616 de almacenamiento de componente de CC de estimacion de bloque pequeno relevante.
Unidad 617 de determinacion de proceso de estimacion de componente de CC de bloque pequeno: realiza un proceso de determinacion para determinar si el proceso de estimacion de componente de CC se ha completado para todos los bloques pequenos, en caso afirmativo, cambia a un calculador 618 de componente de CC de estimacion de bloque inmediatamente inferior relevante, en caso negativo, cambia a un actualizador 619 de bloque pequeno de destino de estimacion.
Calculador 618 de componente de CC de estimacion de bloque inmediatamente inferior relevante: lee el componente de CC de estimacion de cada bloque pequeno desde la unidad 616 de almacenamiento de componente de Cc de estimacion de bloque pequeno relevante, pondera el componente de CC de estimacion de cada bloque pequeno de acuerdo con la relacion de area de los bloques pequenos en el bloque inmediatamente inferior relevante, asume la suma ponderada como el valor de estimacion del componente de CC del bloque inmediatamente inferior relevante, y envfa el valor de estimacion.
Actualizador 619 de bloque pequeno de destino de estimacion: cambia el objetivo del proceso al siguiente bloque pequeno de destino de estimacion de componente de CC.
Aplioabilidad industrial
La presente invencion se puede aplicar a la codificacion escalable de video, y permite ejecutar una prediccion de movimiento ponderada altamente precisa sin transmitir un coeficiente de ponderacion.
Claims (28)
- 5101520253035404550556065reivindicaciones1. - Un metodo de codificacion escalable de video, que comprende:- para cada una de las regiones de imagen de referencia:calcular un coeficiente de ponderacion primero que incluye un coeficiente proporcional (W0) y un coeficiente de compensacion (d0) e indica la variacion de brillo entre una region de imagen de destino de codificacion (B) y la region de imagen de referencia, en el que tanto la region de imagen de destino de codificacion (B) como la region de imagen de referencia pertenecen a una capa superior (Capa # 1), ycorregir la region de imagen de referencia con el coeficiente de ponderacion primero,- despues de procesar todas las regiones de imagen de referencia, ejecutar la estimacion de movimiento para seleccionar al menos una de las regiones de imagen de referencia (B0),- ejecutar compensacion de movimiento con al menos dicha region de imagen de referencia seleccionada (B0),estando caracterizado el metodo porque, para cada una de las regiones de imagen de referencia, calcular el coeficiente de ponderacion primero comprende un paso que, cuando una region de imagen inmediatamente inferior (Ba), que esta presente espacialmente en la misma posicion que la region de imagen de destino de codificacion (B) en una capa inmediatamente inferior (Capa # l-1), realizo la prediccion entre tramas en la capa inmediatamente inferior (Capa # l-1), identifica una region de imagen de referencia de capa inmediatamente inferior (Bb0) que la region de imagen inmediatamente inferior (Ba) utilizo como una referencia de prediccion en la prediccion de movimiento ponderada, y calcula el coeficiente de ponderacion primero:corrigiendo un componente de CC (R(l, t-To, Bc0)) de una region de imagen (Bc0) en la capa superior, que esta presente espacialmente en la misma posicion que la region de imagen de referencia de capa inmediatamente inferior (Bb0), con un coeficiente de ponderacion segundo (W0’, d0’) que la region de imagen inmediatamente inferior (Ba) utilizo en la prediccion de movimiento ponderada,determinando el resultado de la correccion sea un componente de CC (R(l-1, t, Ba)) de la region de imagen inmediatamente inferior (Ba), ycalculando el coeficiente proporcional (W0) o el coeficiente de compensacion (d0) de acuerdo con el componente de CC determinado (R(l-1, t, Ba)) de la region de imagen inmediatamente inferior (Ba) y un componente de CC de la region de imagen de referencia.
- 2. - El metodo de codificacion escalable de video de acuerdo con la reivindicacion 1, en el que, para cada una de las regiones de imagen de referencia, calcular el coeficiente de ponderacion primero comprende ajustar el coeficiente proporcional como la relacion entre el componente de CC de la region de imagen de referencia y el componente de CC de la region de imagen inmediatamente inferior, y ajustar el coeficiente de compensacion como cero; y solo una de las regiones de imagen de referencia es seleccionada en la estimacion de movimiento.
- 3. - El metodo de codificacion escalable de video de acuerdo con la reivindicacion 1, en el que, para cada una de las regiones de imagen de referencia, calcular el coeficiente de compensacion comprende ajustar el coeficiente de compensacion como la diferencia entre el componente de CC de la region de imagen de referencia y el componente de CC de la region de imagen inmediatamente inferior, y ajustar el coeficiente proporcional como 1; y solo una de las regiones de imagen de referencia es seleccionada en la estimacion de movimiento.
- 4. - El metodo de codificacion escalable de video de acuerdo con la reivindicacion 1, en el que el coeficiente de ponderacion primero incluye un coeficiente proporcional primero, un coeficiente proporcional segundo y un coeficiente de compensacion, en el que solo dos de las regiones de imagen de referencia localizadas en diferentes tramas se seleccionan en la estimacion de movimiento, y en el que calcular el coeficiente de ponderacion primero comprende ajustar el coeficiente proporcional primero y segundo cada uno como un valor calculado de acuerdo con una distancia entre tramas entre la region de imagen de destino de codificacion y una respectiva de una region de imagen de referencia primera y segunda, y ajustar el coeficiente de compensacion como un valor calculado sustrayendo, desde el componente de CC de la region de imagen inmediatamente inferior, un valor que se obtiene multiplicando cada componente de CC de las regiones de imagen de referencia primera y segunda mediante el correspondiente de los coeficientes proporcionales primero y segundo.
- 5. - El metodo de codificacion escalable de video de acuerdo con la reivindicacion 1, en el que para cada una de las regiones de imagen de referencia, calcular el coeficiente de ponderacion primero comprende:anadir un componente de CC de una senal residual de prediccion de la prediccion de movimiento generada en la region de imagen inmediatamente inferior a un valor obtenido corrigiendo el componente de CC de la region de5101520253035404550556065imagen en la capa superior, que esta presente espacialmente en la misma posicion que la region de imagen de referenda de capa inmediatamente inferior, con el coeficiente de ponderacion segundo que la region de imagen inmediatamente inferior utilizo en la prediccion de movimiento ponderada, ydeterminar un resultado de la suma para que sea el componente de CC de la region de imagen inmediatamente inferior.
- 6. - El metodo de codificacion escalable de video de acuerdo con la reivindicacion 1, en el que:cuando la prediccion de movimiento de la region de imagen inmediatamente inferior se realizo en las unidad de region que son mas pequenas que la region de imagen inmediatamente inferior, calculando para cada una de las regiones de imagen de referencia, el coeficiente de ponderacion primero comprende calcular un componente de CC para cada unidad de region para obtener el componente de CC de la region de imagen inmediatamente inferior, y, basandose en esos componentes de CC calculados y las areas de las unidades de region respectivas, calcular un componente de CC determinado como el componente de CC de la region de imagen inmediatamente inferior.
- 7. - Un metodo de decodificacion escalable de video, que comprende:calcular un coeficiente de ponderacion primero que incluye un coeficiente proporcional (W0) y un coeficiente de compensacion (d0) e indica la variacion de brillo entre una region de imagen de destino de codificacion (B) y al menos una region de imagen de referencia indicada por un vector de movimiento decodificado donde tanto la region de imagen de destino de decodificacion y al menos dicha region de imagen de referencia pertenecen a una capa superior (Capa # 1), yejecutar la compensacion de movimiento corrigiendo al menos dicha region de imagen de referencia con el coeficiente de ponderacion primero,estando caracterizado el metodo porque calcular el coeficiente de ponderacion primero comprende un paso que, cuando una region de imagen inmediatamente inferior (Ba), que esta presente espacialmente en la misma posicion que la region de imagen de destino de decodificacion (B) en una capa inmediatamente inferior (Capa # 1-1), realizo la prediccion entre tramas en la capa inmediatamente inferior, identifica una region de imagen de referencia de capa inmediatamente inferior (Bb0) que la region de imagen inmediatamente inferior (Ba) utilizo como una referencia de prediccion en la prediccion de movimiento ponderada, y calcula el coeficiente de ponderacion primero:corrigiendo un componente de CC (R(l-1, t-To, Bc0)) de una region de imagen (Bc0) en la capa superior, que esta presente espacialmente en la misma posicion que la region de imagen de referencia de capa inmediatamente inferior (Bb0), con un coeficiente de ponderacion segundo (W0’, d0’) que la region de imagen inmediatamente inferior (Ba) utilizo en la prediccion de movimiento ponderada,determinando un resultado de la correccion para ser un componente de CC (R(l-1, t, Ba)) de la region de imagen inmediatamente inferior (Ba), ycalculando el coeficiente proporcional (W0) o el coeficiente de compensacion (d0) de acuerdo con el componente de CC determinado (R(l-1, t, Ba)) de la region de imagen inmediatamente inferior (Ba) y un componente de CC de al menos dicha region de imagen de referencia.
- 8. - El metodo de decodificacion escalable de video de acuerdo con la reivindicacion 7, en el que solo una region de imagen de referencia es indicada por el vector de movimiento decodificado y en el que calcular el coeficiente de ponderacion primero comprende ajustar el coeficiente proporcional como la relacion entre el componente de CC de la region de imagen de referencia indicada por el vector de movimiento decodificado y el componente de CC de la region de imagen inmediatamente inferior, y ajustar el coeficiente de compensacion como cero.
- 9. - El metodo de decodificacion escalable de video de acuerdo con la reivindicacion 7, en el que solo una region de imagen de referencia es indicada por el vector de movimiento decodificado y en el que calcular el coeficiente de ponderacion primero comprende ajustar el coeficiente de compensacion como la diferencia entre el componente de CC de la region de imagen de referencia indicada por el vector de movimiento decodificado y el componente de CC de la region de imagen inmediatamente inferior, y ajustar el coeficiente proporcional como 1.
- 10. - El metodo de decodificacion escalable de video de acuerdo con la reivindicacion 7, en el que el coeficiente de ponderacion primero incluye un coeficiente proporcional primero, un coeficiente proporcional segundo y un coeficiente de compensacion, en el que regiones de imagen de referencia primera y segunda localizadas en diferentes tramas son indicadas por el vector de movimiento decodificado y en el que calcular el coeficiente de ponderacion primero comprende ajustar el coeficiente proporcional primero y segundo cada uno como un valor calculado de acuerdo con una distancia entre tramas entre la region de imagen de destino de decodificacion y una respectiva de las regiones de imagen de referencia primera y segunda indicadas por el vector de movimiento decodificado, y ajustar el coeficiente de compensacion como un valor calculado sustrayendo, desde el componente5101520253035404550556065de CC de la region de imagen inmediatamente inferior, un valor que se obtiene multiplicando cada componente de CC de las regiones de imagen de referencia primera y segunda indicadas por el vector de movimiento decodificado por el correspondiente de los coeficientes proporcionales primero y segundo.
- 11. - El metodo de decodificacion escalable de video de acuerdo con la reivindicacion 7, en el que calcular el coeficiente de ponderacion primero comprende:anadir un componente de CC de una senal residual de prediccion de la prediccion de movimiento generada en la region de imagen inmediatamente inferior a un valor obtenido corrigiendo el componente de CC de la region de imagen en la capa superior, que esta presente espacialmente en la misma posicion que la region de imagen de referencia de capa inmediatamente inferior, con el coeficiente de ponderacion segundo que la region de imagen inmediatamente inferior utilizo en la prediccion de movimiento ponderada, ydeterminar un resultado de la suma para que sea el componente de CC de la region de imagen inmediatamente inferior.
- 12. - El metodo de decodificacion escalable de video de acuerdo con la reivindicacion 7, en el quecuando la prediccion de movimiento de la region de imagen inmediatamente inferior se realizo en las unidades de region que son mas pequenas que la region de imagen inmediatamente inferior, calculando para cada una de las regiones de imagen de referencia, el coeficiente de ponderacion primero comprende calcular un componente de CC para cada unidad de region para obtener el componente de CC de la region de imagen inmediatamente inferior, y, basandose en esos componentes de CC calculados y las areas de las unidades de region respectivas, calcular un componente de CC determinado como el componente de CC de la region de imagen inmediatamente inferior.
- 13. - Un aparato de codificacion escalable de video, en el que:- para cada una de las regiones de imagen de referencia, el aparato calcula un coeficiente de ponderacion primero (W0, d0) que incluye un coeficiente proporcional (W0) y un coeficiente de compensacion (d0) e indica la variacion de brillo entre una region de imagen de destino de codificacion (B) y la region de imagen de referencia, en el que tanto la region de imagen de destino de codificacion (B) como la region de imagen de referencia pertenecen a una capa superior (Capa # 1), y corrige la region de imagen de referencia con el coeficiente de ponderacion primero,- despues de procesar todas las regiones de imagen de referencia, el aparato ejecuta la estimacion de movimiento para seleccionar al menos una de las regiones de imagen de referencia (B0); y- el aparato ejecuta la compensacion de movimiento con al menos dicha region de imagen de referencia (B0);el aparato esta caracterizado porque comprende un dispositivo de calculo que, para cada una de las regiones de imagen de referencia, cuando una region de imagen inmediatamente inferior (Ba), que esta presente espacialmente en la misma posicion que la region de imagen de destino de decodificacion (B) en una capa inmediatamente inferior (Capa # 1-1), realizo la prediccion entre tramas en la capa inmediatamente inferior, identifica una region de imagen de referencia de capa inmediatamente inferior (Bb0) que la region de imagen inmediatamente inferior (Ba) utilizo como una referencia de prediccion en la prediccion de movimiento ponderada, y calcula el coeficiente de ponderacion primero:corrigiendo un componente de CC (R(l-1, t-To, Bc0)) de una region de imagen (Bc0) en la capa superior, que esta presente espacialmente en la misma posicion que la region de imagen de referencia de capa inmediatamente inferior (Bb0), con un coeficiente de ponderacion segundo (W0’, d0’) que la region de imagen inmediatamente inferior (Ba) utilizo en la prediccion de movimiento ponderada,determinando un resultado de la correccion para ser un componente de CC (R(l-1, t, Ba)) de la region de imagen inmediatamente inferior (Ba), ycalculando el coeficiente proporcional (W0) o el coeficiente de compensacion (d0) de acuerdo con el componente de CC determinado (R(l-1, t, Ba)) de la region de imagen inmediatamente inferior (Ba) y un componente de CC de la region de imagen de referencia.
- 14. - El aparato de codificacion escalable de video de acuerdo con la reivindicacion 13, en el que, para cada una de las regiones de imagen de referencia, el dispositivo de calculo ajusta el coeficiente proporcional como la relacion entre el componente de CC de la region de imagen de referencia y el componente de CC de la region de imagen inmediatamente inferior, y ajusta el coeficiente de compensacion como cero; y solo una de las regiones de imagen de referencia es seleccionada en la estimacion de movimiento.
- 15. - El aparato de codificacion escalable de video de acuerdo con la reivindicacion 13, en el que, para cada una de las regiones de imagen de referencia, el dispositivo de calculo ajusta el coeficiente de compensacion como la5101520253035404550556065relacion entre el componente de CC de la region de imagen de referenda y el componente de CC de la region de imagen inmediatamente inferior, y ajusta el coeficiente de proporcional como cero; y solo una de las regiones de imagen de referencia es seleccionada en la estimacion de movimiento.
- 16. - El aparato de codificacion escalable de video de acuerdo con la reivindicacion 13, en el que el coeficiente de ponderacion primero incluye un coeficiente proporcional primero, un coeficiente proporcional segundo y un coeficiente de compensacion, en el que dos de las regiones de imagen de referencia localizadas en diferentes tramas son seleccionadas en la estimacion de movimiento y en el que el dispositivo de calculo ajusta el coeficiente proporcional primero y segundo cada uno como un valor calculado de acuerdo con una distancia entre tramas entre la region de imagen de destino de codificacion y una respectiva de las regiones de imagen de referencia primera y segunda, y ajusta el coeficiente de compensacion como un valor calculado sustrayendo, desde el componente de CC de la region de imagen inmediatamente inferior, un valor que se obtiene multiplicando cada componente de CC de las regiones de imagen de referencia primera y por el correspondiente de los coeficientes proporcionales primero y segundo.
- 17. - El aparato de codificacion escalable de video de acuerdo con la reivindicacion 13, en el que, para cada una de las regiones de imagen de referencia, el dispositivo de calculo:anade un componente de CC de una senal residual de prediccion de la prediccion de movimiento generada en la region de imagen inmediatamente inferior a un valor obtenido corrigiendo el componente de CC de la region de imagen en la capa superior, que esta presente espacialmente en la misma posicion que la region de imagen de referencia de capa inmediatamente inferior, con el coeficiente de ponderacion segundo que la region de imagen inmediatamente inferior utilizo en la prediccion de movimiento ponderada, ydetermina un resultado de la suma para que sea el componente de CC de la region de imagen inmediatamente inferior.
- 18. - El aparato de codificacion escalable de video de acuerdo con la reivindicacion 13, en el que:cuando la prediccion de movimiento de la region de imagen inmediatamente inferior se realizo en las unidades de region que son mas pequenas que la region de imagen inmediatamente inferior, el dispositivo de calculo calcula, para cada una de las regiones de imagen de referencia, un componente de CC para cada unidad de region para obtener el componente de CC de la region de imagen inmediatamente inferior, y, basandose en esos componentes de CC calculados y las areas de las unidades de region respectivas, calcula un componente de CC determinado como el componente de CC de la region de imagen inmediatamente inferior.
- 19. - Un aparato de decodificacion escalable de video, en el que:el aparato calcula un coeficiente de ponderacion primero (W0, d0) que incluye un coeficiente proporcional (W0) y un coeficiente de compensacion (d0) e indica la variacion de brillo entre una region de imagen de destino de codificacion (B) y al menos una region de imagen de referencia indicada por un vector de movimiento decodificado donde tanto la region de imagen de destino de decodificacion como al menos dicha region de imagen de referencia pertenecen a una capa superior (Capa # 1), y ejecuta la compensacion de movimiento corrigiendo al menos dicha region de imagen de referencia con el coeficiente de ponderacion primero; y el aparato estando caracterizado porque comprende un dispositivo de calculo que, cuando una region de imagen inmediatamente inferior (Ba), que esta presente espacialmente en la misma posicion que la region de imagen de destino de decodificacion (B) en una capa inmediatamente inferior (Capa # 1-1), realizo la prediccion entre tramas en la capa inmediatamente inferior, identifica una region de imagen de referencia de capa inmediatamente inferior (Bb0) que la region de imagen inmediatamente inferior (Ba) utilizo como una referencia de prediccion en la prediccion de movimiento ponderada, y calcula el coeficiente de ponderacion primero:corrigiendo un componente de CC (R(l-1, t-To, Bc0)) de una region de imagen (Bc0) en la capa superior, que esta presente espacialmente en la misma posicion que la region de imagen de referencia de capa inmediatamente inferior (Bb0), con un coeficiente de ponderacion segundo (W0’, d0’) que la region de imagen inmediatamente inferior (Ba) utilizo en la prediccion de movimiento ponderada,determinando un resultado de la correccion para ser un componente de CC (R(l-1, t, Ba)) de la region de imagen inmediatamente inferior (Ba), ycalculando el coeficiente proporcional (W0) o el coeficiente de compensacion (d0) de acuerdo con el componente de CC determinado (R(l-1, t, Ba)) de la region de imagen inmediatamente inferior (Ba) y un componente de CC de al menos dicha region de imagen de referencia.
- 20. - El aparato de decodificacion escalable de video de acuerdo con la reivindicacion 19, en el que solo una region de imagen de referencia es indicada por el vector de movimiento decodificado y en el que el dispositivo de calculo ajusta el coeficiente proporcional como la relacion entre el componente de CC de la region de imagen de referencia5101520253035404550indicada por el vector de movimiento decodificado y el componente de CC de la region de imagen inmediatamente inferior, y ajusta el coeficiente de compensacion como cero.
- 21. - El aparato de decodificacion escalable de video de acuerdo con la reivindicacion 19, en el que solo una region de imagen de referencia es indicada por el vector de movimiento decodificado y en el que el dispositivo de calculo ajusta el coeficiente de compensacion como la diferencia entre el componente de CC de la region de imagen de referencia indicada por el vector de movimiento decodificado y el componente de CC de la region de imagen inmediatamente inferior, y ajusta el coeficiente proporcional como 1.
- 22. - El aparato de decodificacion escalable de video de acuerdo con la reivindicacion 19, en el que el coeficiente de ponderacion primero incluye un coeficiente proporcional primero, un coeficiente proporcional segundo y un coeficiente de compensacion, en el que solo regiones de imagen de referencia primera y segunda localizadas en diferentes tramas son indicadas por el vector de movimiento decodificado y en el que el dispositivo de calculo ajusta el coeficiente proporcional primero y segundo cada uno como un valor calculado de acuerdo con una distancia entre tramas entre la region de imagen de destino de decodificacion y una respectiva de las regiones de imagen de referencia primera y segunda indicadas por el vector de movimiento decodificado, y ajusta el coeficiente de compensacion como un valor calculado sustrayendo, desde el componente de CC de la region de imagen inmediatamente inferior, un valor que se obtiene multiplicando cada componente de CC de las regiones de imagen de referencia primera y segunda indicadas por el vector de movimiento decodificado por el correspondiente de los coeficientes proporcionales primero y segundo.
- 23. - El aparato de decodificacion escalable de video de acuerdo con la reivindicacion 19, en el que el dispositivo de calculo:anade un componente de CC de una senal residual de prediccion de la prediccion de movimiento generada en la region de imagen inmediatamente inferior a un valor obtenido corrigiendo el componente de CC de la region de imagen en la capa superior, que esta presente espacialmente en la misma posicion que la region de imagen de referencia de capa inmediatamente inferior, con el coeficiente de ponderacion segundo que la region de imagen inmediatamente inferior utilizo en la prediccion de movimiento ponderada, ydetermina un resultado de la suma para que sea el componente de CC de la region de imagen inmediatamente inferior.
- 24. - El aparato de decodificacion escalable de video de acuerdo con la reivindicacion 19, en el que:cuando la prediccion de movimiento de la region de imagen inmediatamente inferior se realizo en las unidades de region que son mas pequenas que la region de imagen inmediatamente inferior, el dispositivo de calculo calcular un componente de CC para cada unidad de region para obtener el componente de CC de la region de imagen inmediatamente inferior, y, basandose en esos componentes de CC calculados y las areas de las unidades de region respectivas, calcula un componente de CC determinado como el componente de CC de la region de imagen inmediatamente inferior.
- 25. - Un programa de codificacion escalable de video por el que un ordenador ejecuta un metodo de codificacion escalable de video de acuerdo con la reivindicacion 1.
- 26. - Un medio de grabacion legible por ordenador que almacena un programa de codificacion escalable de video por el que un ordenador ejecuta un metodo de codificacion escalable de video de acuerdo con la reivindicacion 1.
- 27. - Un programa de descodificacion escalable de video por el que un ordenador ejecuta un metodo de descodificacion escalable de video de acuerdo con la reivindicacion 7.
- 28. - Un medio de grabacion legible por ordenador que almacena un programa de decodificacion escalable de video por el que un ordenador ejecuta un metodo de decodificacion escalable de video de acuerdo con la reivindicacion 7.
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007277224 | 2007-10-25 | ||
JP2007277224 | 2007-10-25 | ||
PCT/JP2008/068971 WO2009054347A1 (ja) | 2007-10-25 | 2008-10-20 | 動画像スケーラブル符号化方法及び復号方法、それらの装置、それらのプログラム並びにプログラムを記録した記録媒体 |
Publications (1)
Publication Number | Publication Date |
---|---|
ES2634162T3 true ES2634162T3 (es) | 2017-09-26 |
Family
ID=40579452
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
ES08841336.4T Active ES2634162T3 (es) | 2007-10-25 | 2008-10-20 | Método de codificación escalable de vídeo y métodos de decodificación que utilizan predicción ponderada, dispositivos para ello, programas para ello, y medio de grabación donde se graba el programa |
Country Status (11)
Country | Link |
---|---|
US (1) | US8548039B2 (es) |
EP (1) | EP2202984B1 (es) |
JP (1) | JP5261774B2 (es) |
KR (1) | KR101123285B1 (es) |
CN (1) | CN101836457B (es) |
BR (1) | BRPI0818665A2 (es) |
CA (1) | CA2702525C (es) |
ES (1) | ES2634162T3 (es) |
RU (1) | RU2461978C2 (es) |
TW (1) | TWI384885B (es) |
WO (1) | WO2009054347A1 (es) |
Families Citing this family (32)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20090099720A (ko) * | 2008-03-18 | 2009-09-23 | 삼성전자주식회사 | 영상의 부호화, 복호화 방법 및 장치 |
BRPI0918478A2 (pt) * | 2008-09-04 | 2015-12-01 | Thomson Licensing | métodos e aparelho para refinamento de previsão usando previsão de movimento implícito |
DE102009017436B4 (de) * | 2009-04-15 | 2011-12-29 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Erkennung einer Änderung zwischen Bildern oder in einer Sequenz von Bildern |
US8995526B2 (en) | 2009-07-09 | 2015-03-31 | Qualcomm Incorporated | Different weights for uni-directional prediction and bi-directional prediction in video coding |
US9161057B2 (en) | 2009-07-09 | 2015-10-13 | Qualcomm Incorporated | Non-zero rounding and prediction mode selection techniques in video encoding |
US9521424B1 (en) | 2010-10-29 | 2016-12-13 | Qualcomm Technologies, Inc. | Method, apparatus, and manufacture for local weighted prediction coefficients estimation for video encoding |
JP2012244353A (ja) * | 2011-05-18 | 2012-12-10 | Sony Corp | 画像処理装置および方法 |
CN107105267B (zh) * | 2011-09-23 | 2020-09-04 | 株式会社Kt | 解码视频信号的方法 |
KR20130050405A (ko) * | 2011-11-07 | 2013-05-16 | 오수미 | 인터 모드에서의 시간 후보자 결정방법 |
US9860549B2 (en) | 2012-03-29 | 2018-01-02 | Lg Electronics Inc. | Inter-layer prediction method and encoding device and decoding device using same |
US20150139323A1 (en) * | 2012-07-24 | 2015-05-21 | Electronics And Telecommunications Research Institute | Method of decoding images and device using same |
US9635356B2 (en) * | 2012-08-07 | 2017-04-25 | Qualcomm Incorporated | Multi-hypothesis motion compensation for scalable video coding and 3D video coding |
SG11201500314WA (en) * | 2012-09-28 | 2015-02-27 | Intel Corp | Inter-layer residual prediction |
US10085038B2 (en) * | 2012-09-28 | 2018-09-25 | Sony Corporation | Encoding device, encoding method, decoding device, and decoding method |
KR102447521B1 (ko) | 2012-10-01 | 2022-09-26 | 지이 비디오 컴프레션, 엘엘씨 | 베이스 레이어로부터 예측을 위한 서브블록 세부분할의 유도를 이용한 스케일러블 비디오 코딩 |
CN104704827B (zh) * | 2012-11-13 | 2019-04-12 | 英特尔公司 | 用于下一代视频的内容自适应变换译码 |
WO2014103763A1 (ja) * | 2012-12-26 | 2014-07-03 | ソニー株式会社 | 画像処理装置および方法 |
JP5952733B2 (ja) * | 2012-12-28 | 2016-07-13 | 日本電信電話株式会社 | 映像符号化方法、映像復号方法、映像符号化装置、映像復号装置、映像符号化プログラム、映像復号プログラム及び記録媒体 |
JP5894301B2 (ja) * | 2012-12-28 | 2016-03-23 | 日本電信電話株式会社 | 映像符号化装置および方法、映像復号装置および方法、及びそれらのプログラム |
WO2014109594A1 (ko) * | 2013-01-10 | 2014-07-17 | 삼성전자 주식회사 | 휘도차를 보상하기 위한 인터 레이어 비디오 부호화 방법 및 그 장치, 비디오 복호화 방법 및 그 장치 |
CN105308961B (zh) * | 2013-04-05 | 2019-07-09 | 三星电子株式会社 | 用于补偿亮度差的层间视频编码方法和设备以及层间视频解码方法和设备 |
US9288507B2 (en) * | 2013-06-21 | 2016-03-15 | Qualcomm Incorporated | More accurate advanced residual prediction (ARP) for texture coding |
KR102199461B1 (ko) * | 2013-07-15 | 2021-01-06 | 삼성전자주식회사 | 적응적 휘도 보상을 위한 인터 레이어 비디오 부호화 방법 및 그 장치, 비디오 복호화 방법 및 그 장치 |
US20150016502A1 (en) * | 2013-07-15 | 2015-01-15 | Qualcomm Incorporated | Device and method for scalable coding of video information |
US20160277767A1 (en) * | 2015-03-16 | 2016-09-22 | Thomson Licensing | Methods, systems and apparatus for determining prediction adjustment factors |
KR20170059718A (ko) * | 2015-11-23 | 2017-05-31 | 삼성전자주식회사 | 디코딩 장치 및 그 방법 |
CN109417640B (zh) * | 2016-07-05 | 2021-08-17 | 株式会社Kt | 用于处理视频信号的方法和设备 |
WO2019147628A1 (en) * | 2018-01-24 | 2019-08-01 | Vid Scale, Inc. | Generalized bi-prediction for video coding with reduced coding complexity |
CN113170096A (zh) * | 2018-10-27 | 2021-07-23 | 华为技术有限公司 | 子块融合候选的单独融合列表和视频编码的帧内和帧间预测技术协调 |
DE102019210580A1 (de) * | 2019-07-18 | 2021-01-21 | Robert Bosch Gmbh | Verfahren zum Ermitteln einer Position eines ersten Bildbereichs in einem Korrespondenz-Bild, SoC und Steuervorrichtung und System zur Durchführung des Verfahrens, sowie Computerprogramm |
CN111447454B (zh) * | 2020-03-30 | 2022-06-07 | 浙江大华技术股份有限公司 | 编码方法及其相关装置 |
CN112616052B (zh) * | 2020-12-11 | 2023-03-28 | 上海集成电路装备材料产业创新中心有限公司 | 一种视频压缩信号的重建方法 |
Family Cites Families (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH1032824A (ja) | 1996-07-16 | 1998-02-03 | Nippon Telegr & Teleph Corp <Ntt> | 動画像の輝度変化検出方法、動画像の輝度変化補償方法、動画像の位置検出方法および動画像符号化・復号装置 |
US6937659B1 (en) * | 1997-11-14 | 2005-08-30 | Ac Capital Management, Inc. | Apparatus and method for compressing video information |
US6931060B1 (en) * | 1999-12-07 | 2005-08-16 | Intel Corporation | Video processing of a quantized base layer and one or more enhancement layers |
US6895055B2 (en) * | 2001-10-29 | 2005-05-17 | Koninklijke Philips Electronics N.V. | Bit-rate guided frequency weighting matrix selection |
RU2335860C2 (ru) * | 2002-10-01 | 2008-10-10 | Томсон Лайсенсинг С.А. | Неявное взвешивание опорных изображений в видеодекодере |
CN1781312A (zh) * | 2003-04-29 | 2006-05-31 | 皇家飞利浦电子股份有限公司 | 图像处理装置 |
CN1985520A (zh) * | 2004-07-15 | 2007-06-20 | 三星电子株式会社 | 运动信息编/解码及可分级视频编/解码设备和方法 |
JP4232976B2 (ja) | 2004-08-16 | 2009-03-04 | Kddi株式会社 | 動き予測情報検出装置 |
CN101204092B (zh) * | 2005-02-18 | 2010-11-03 | 汤姆森许可贸易公司 | 从低分辨率图像导出高分辨率图像的编码信息的方法以及实施所述方法的编码和解码设备 |
KR100763182B1 (ko) * | 2005-05-02 | 2007-10-05 | 삼성전자주식회사 | 다계층 기반의 가중 예측을 이용한 비디오 코딩 방법 및장치 |
KR100714696B1 (ko) * | 2005-06-24 | 2007-05-04 | 삼성전자주식회사 | 다계층 기반의 가중 예측을 이용한 비디오 코딩 방법 및장치 |
BRPI0613659B1 (pt) * | 2005-07-21 | 2019-06-04 | Thomson Licensing | Método e aparelho para o prognóstico ponderado para uma codificação de vídeo redimensionável |
US8311121B2 (en) * | 2005-10-12 | 2012-11-13 | Thomson Licensing | Methods and apparatus for weighted prediction in scalable video encoding and decoding |
JP2007174161A (ja) | 2005-12-21 | 2007-07-05 | Ricoh Co Ltd | 文書情報処理装置 |
JP2007277224A (ja) | 2006-03-13 | 2007-10-25 | Tanabe Seiyaku Co Ltd | トランス−4−アミノ−1−メチルシクロヘキサノール類の製造方法 |
CN101690237B (zh) | 2007-07-02 | 2012-03-21 | 日本电信电话株式会社 | 活动图像可分级编码方法及解码方法、其装置 |
-
2008
- 2008-10-20 ES ES08841336.4T patent/ES2634162T3/es active Active
- 2008-10-20 RU RU2010114733/07A patent/RU2461978C2/ru active
- 2008-10-20 KR KR1020107008045A patent/KR101123285B1/ko active IP Right Grant
- 2008-10-20 EP EP08841336.4A patent/EP2202984B1/en active Active
- 2008-10-20 US US12/682,370 patent/US8548039B2/en active Active
- 2008-10-20 JP JP2009538193A patent/JP5261774B2/ja active Active
- 2008-10-20 BR BRPI0818665A patent/BRPI0818665A2/pt not_active IP Right Cessation
- 2008-10-20 CN CN2008801128274A patent/CN101836457B/zh active Active
- 2008-10-20 CA CA2702525A patent/CA2702525C/en active Active
- 2008-10-20 WO PCT/JP2008/068971 patent/WO2009054347A1/ja active Application Filing
- 2008-10-21 TW TW097140256A patent/TWI384885B/zh active
Also Published As
Publication number | Publication date |
---|---|
RU2461978C2 (ru) | 2012-09-20 |
RU2010114733A (ru) | 2011-11-10 |
CN101836457B (zh) | 2012-07-11 |
KR101123285B1 (ko) | 2012-03-20 |
US20100215095A1 (en) | 2010-08-26 |
JPWO2009054347A1 (ja) | 2011-03-03 |
EP2202984A4 (en) | 2011-08-17 |
CA2702525A1 (en) | 2009-04-30 |
US8548039B2 (en) | 2013-10-01 |
TW200935919A (en) | 2009-08-16 |
BRPI0818665A2 (pt) | 2015-09-08 |
KR20100066560A (ko) | 2010-06-17 |
CN101836457A (zh) | 2010-09-15 |
WO2009054347A1 (ja) | 2009-04-30 |
TWI384885B (zh) | 2013-02-01 |
JP5261774B2 (ja) | 2013-08-14 |
EP2202984B1 (en) | 2017-04-19 |
EP2202984A1 (en) | 2010-06-30 |
CA2702525C (en) | 2014-07-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
ES2634162T3 (es) | Método de codificación escalable de vídeo y métodos de decodificación que utilizan predicción ponderada, dispositivos para ello, programas para ello, y medio de grabación donde se graba el programa | |
ES2841312T3 (es) | Predicción de vectores de movimiento para modelos de movimiento afines en codificación de vídeo | |
CN110291790B (zh) | 视频编码中的运动矢量(mv)约束和变换约束 | |
CN103229504B (zh) | 获取运动矢量预测值的方法与装置 | |
ES2767066T3 (es) | Procedimiento de descodificación de imágenes en movimiento | |
BR112013001351B1 (pt) | dispositivo de codificação preditiva de imagem, método de codificação preditiva de imagem, dispositivo de decodificação preditiva de imagem e método de decodificação preditiva de imagem | |
CN110870316B (zh) | 视频编码和解码中低复杂度双向帧内预测的方法和装置 | |
PT1445960T (pt) | Método de codificação de figuração em movimento e método de descodificação de figuração em movimento | |
ES2972326T3 (es) | Un codificador, un decodificador y métodos correspondientes para el modo de fusión | |
CN111083485B (zh) | 仿射模式的运动信息的利用 | |
ES2822248T3 (es) | Método y aparato para predicción con compensación de movimiento | |
BR122020002121A2 (pt) | Decodificação de vídeo | |
CN110268716B (zh) | 由球面投影处理等量矩形对象数据以补偿畸变 | |
KR20120126115A (ko) | 코딩 유닛의 비디오 코딩 동안 국소적 다중가설 예측을 수행하는 방법, 및 관련 장치 | |
BR122020013770B1 (pt) | Método para decodificar uma imagem, e método para codificar uma imagem | |
BRPI0307197B1 (pt) | Método de compensação de movimento, método de codificação de imagem e método de decodificação de imagem | |
BR112021014711A2 (pt) | Codificador, decodificador, método de codificação e método de decodificação | |
ES2299171T3 (es) | Procedimiento de codificacion de imagenes en movimiento y aparato de codificacion de imagenes en movimiento. | |
WO2020042604A1 (zh) | 视频编码器、视频解码器及相应方法 | |
JP7410191B2 (ja) | ビデオエンコーダ、ビデオデコーダ、及び対応する方法 | |
CN117616756A (zh) | 用于视频处理的方法、设备和介质 | |
TW202015405A (zh) | 用於視訊編解碼的幀間預測方法以及裝置 | |
CN117795960A (zh) | 用于视频处理的方法、装置和介质 | |
CN118285095A (zh) | 视频处理方法、设备和介质 | |
CN110740330B (zh) | 一种子块运动候选的冗余校验的方法及设备 |