ES2670324T3 - Procedimiento de restablecimiento de un modo de intra predicción - Google Patents
Procedimiento de restablecimiento de un modo de intra predicción Download PDFInfo
- Publication number
- ES2670324T3 ES2670324T3 ES16184557.3T ES16184557T ES2670324T3 ES 2670324 T3 ES2670324 T3 ES 2670324T3 ES 16184557 T ES16184557 T ES 16184557T ES 2670324 T3 ES2670324 T3 ES 2670324T3
- Authority
- ES
- Spain
- Prior art keywords
- intra prediction
- mode
- unit
- modes
- prediction mode
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/46—Embedding additional information in the video signal during the compression process
- H04N19/463—Embedding additional information in the video signal during the compression process by compressing encoding parameters before transmission
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/103—Selection of coding mode or of prediction mode
- H04N19/11—Selection of coding mode or of prediction mode among a plurality of spatial predictive coding modes
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/124—Quantisation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/13—Adaptive entropy coding, e.g. adaptive variable length coding [AVLC] or context adaptive binary arithmetic coding [CABAC]
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/157—Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
- H04N19/159—Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
- H04N19/176—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/182—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a pixel
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/44—Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/593—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/70—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/80—Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
- Compression, Expansion, Code Conversion, And Decoders (AREA)
- Error Detection And Correction (AREA)
- Compression Of Band Width Or Redundancy In Fax (AREA)
Abstract
Un procedimiento de restablecimiento de un modo de intra predicción, que comprende: restablecer un indicador de primer grupo de modos de intra predicción y un índice de modo de predicción de una unidad de predicción actual; generar un primer grupo de modos de intra predicción usando unos modos de intra predicción disponibles de una unidad de predicción izquierda y una unidad de predicción de arriba vecina de la unidad de predicción actual, en el que el número de modos de intra predicción que pertenecen al primer grupo de modos de intra predicción se fija en tres; determinar un modo de intra predicción que esté incluido en el primer grupo de modos de intra predicción e indicado por el índice de modo de intra predicción como el modo de intra predicción de la unidad de predicción actual cuando el indicador de grupo de modos de intra predicción indica que el modo de intra predicción de la unidad de predicción actual pertenece al primer grupo de modos de intra predicción; y determinar un modo de intra predicción que esté incluido en un segundo grupo de modos de intra predicción e indicado por el índice de modo de intra predicción como el modo de intra predicción de la unidad de predicción actual cuando el indicador de grupo de modos de intra predicción indica que el modo de intra predicción de la unidad de predicción actual no pertenece al primer grupo de modos de intra predicción, en el que, cuando solo se encuentra disponible un modo de intra predicción de entre los modos de intra predicción de la unidad de intra predicción izquierda y la unidad de intra predicción de arriba, el primer grupo de modos de intra predicción incluye el modo de intra predicción disponible de las respectivas unidades de predicción y dos modos de intra predicción adicionales que se determinan de tal manera que, cuando el modo de intra predicción disponible es un modo de intra predicción no direccional, los dos modos de intra predicción adicionales incluyen otro modo de intra predicción no direccional y un modo vertical, en el que, cuando el modo de intra predicción disponible es un modo de CC, los dos modos de intra predicción adicionales incluyen un modo planar y el modo vertical, y en el que, cuando el modo de intra predicción disponible es el modo planar, los dos modos de intra predicción adicionales incluyen el modo de CC y el modo vertical.
Description
5
10
15
20
25
30
35
40
45
50
DESCRIPCION
Procedimiento de restablecimiento de un modo de intra predicción Campo técnico
La presente invención se refiere a un procedimiento de descodificación de intra predicción, y más en concreto, a un procedimiento de restablecimiento de un modo de intra predicción, generar un bloque de predicción muy similar a un bloque original, descodificar un bloque residual y generar un bloque reconstruido usando el bloque de predicción y el bloque residual.
Técnica antecedente
En procedimientos de compresión de imagen tales como Grupo de Expertos de Imágenes en Movimiento (MPEG)-1, MPEG-2, MPEG-4 y H.264/MPEG-4, Codificación Avanzada de Audio (AVC), una imagen se divide en macrobloques para codificar una imagen. A continuación, los macrobloques respectivos se codifican usando inter predicción o intra predicción.
En la intra predicción, un bloque actual de una imagen se codifica no con el uso de una imagen de referencia, sino con el uso de los valores de píxeles espacialmente adyacentes al bloque actual. Un modo de intra predicción con poca distorsión se selecciona mediante la comparación, con un macrobloque original, de un bloque de predicción que se genera usando los valores de píxeles adyacentes. A continuación, usando el modo de intra predicción seleccionado y los valores de píxeles adyacentes, se calculan valores de predicción del bloque actual. Las diferencias entre los valores de predicción y los valores de píxeles del bloque actual original se calculan y, a continuación, se codifican a través de codificación de transformada, cuantificación y codificación por entropía. El modo de intra predicción también se codifica.
En la intra predicción convencional de 4 * 4, hay nueve modos de un modo vertical, un modo horizontal, un modo de CC, un modo descendente - izquierdo diagonal, un modo descendente - derecho diagonal, un modo derecho vertical, un modo izquierdo vertical, un modo ascendente - horizontal y un modo descendente - horizontal.
De acuerdo con la norma H.264, un modo se selecciona de entre los nueve modos para generar un bloque de predicción del bloque actual. De acuerdo con la norma HEVC en desarrollo, hay 17 o 34 modos de intra predicción.
No obstante, cuando algunos o todos los valores de píxeles adyacentes al bloque actual no existen o no se han codificado aún, es imposible aplicar algunos o la totalidad de los modos de intra predicción al bloque actual. En el presente caso, si se realiza una intra predicción mediante la selección de un modo de intra predicción de entre los modos de intra predicción disponibles, la distorsión entre un bloque de predicción y un bloque original se vuelve grande. Por lo tanto, la eficiencia de codificación se deteriora.
Asimismo, a medida que aumenta el número de modos de intra predicción, se requieren un nuevo procedimiento de codificación del modo de intra predicción más eficaz que el procedimiento convencional, y un procedimiento más eficaz de descodificación del modo de intra predicción y de generación de un bloque reconstruido.
El documento WO 03/105070 divulga un procedimiento eficaz, de este tipo, de codificación del modo de intra predicción. El documento WO 03/105070 divulga, de forma específica, generar dos grupos de modos de intra predicción en los que el primer grupo consiste en los modos de intra predicción más probables y el segundo grupo consiste en los modos de intra predicción restantes. La probabilidad de cada modo de intra predicción se determina de forma adaptativa de acuerdo con los modos de intra predicción de los bloques vecinos. A continuación, se señaliza si el modo de intra predicción seleccionado pertenece al primer o al segundo grupo de modos de intra predicción.
Descripción
Problema técnico
La presente invención se refiere a un procedimiento de generación de un bloque de predicción muy similar a un bloque original de acuerdo con un modo de intra predicción, generar un bloque residual mediante la descodificación de una señal residual y generar un bloque reconstruido usando el bloque de predicción y el bloque residual.
Solución técnica
Un aspecto de la presente invención proporciona un procedimiento de descodificación de una intra predicción, que comprende: desmultiplexar una información de intra predicción y una señal residual, restablecer un modo de intra predicción de una unidad de predicción actual usando la información de intra predicción y los modos de intra predicción de las unidades de predicción adyacentes a la unidad de predicción actual, generar unos píxeles de referencia usando uno o más píxeles de referencia disponibles si existen píxeles de referencia no disponibles de la unidad de predicción, filtrar de forma adaptativa los píxeles de referencia sobre la base del modo de intra predicción restablecido, generar un bloque de predicción usando el modo de intra predicción restablecido y los píxeles de
5
10
15
20
25
30
35
40
45
50
referencia, descodificar la señal residual que se ha desmultiplexado para generar un bloque residual y generar un bloque reconstruido usando el bloque de predicción y el bloque residual.
Efectos ventajosos
Un procedimiento de acuerdo con la presente invención restablece un modo de intra predicción de la unidad de predicción actual, y filtra de forma adaptativa los píxeles de referencia de acuerdo con el modo de intra predicción restablecido con el fin de generar un bloque de predicción que reduce al mínimo la diferencia entre un bloque de predicción y un bloque original. El bloque residual se genera mediante la descodificación, de forma adaptativa, de la señal residual de acuerdo con el modo de intra predicción. Y, el bloque restablecido se genera mediante la combinación del bloque de predicción muy similar a un bloque original y el bloque residual. Por lo tanto, puede ser posible proporcionar un procedimiento de descodificación de un modo de predicción que se corresponde con un procedimiento de codificación de un modo de predicción que puede disminuir de forma eficaz la cantidad adicional de bits de acuerdo con un número aumentado de modos de intra predicción y que se requiere para codificar el bloque residual se reduce al mínimo. Asimismo, puede ser posible obtener un alto rendimiento de compresión y una alta eficiencia de reproducción mediante la provisión de un procedimiento de descodificación que se corresponde con un procedimiento de codificación que puede disminuir la cantidad de bits que se requiere para codificar mediante la generación de un bloque de predicción similar a una imagen original.
Descripción de los dibujos
La figura 1 es un diagrama de bloques de un aparato de codificación de imágenes en movimiento de acuerdo con la presente invención.
La figura 2 es un diagrama de bloques de una unidad de intra predicción de un aparato de codificación de imágenes en movimiento de acuerdo con la presente invención.
La figura 3 es un diagrama conceptual que muestra unas posiciones de píxeles de referencia que se usan para una intra predicción de acuerdo con la presente invención.
La figura 4 es un diagrama conceptual que ilustra unos modos de intra predicción direccionales de acuerdo con la presente invención.
La figura 5 es un diagrama de bloques de un aparato de descodificación de imágenes en movimiento de acuerdo con la presente invención.
La figura 6 es un diagrama de bloques de una unidad de intra predicción de un aparato de descodificación de imágenes en movimiento de acuerdo con la presente invención.
La figura 7 es un diagrama de flujo que ilustra un procedimiento de descodificación en un modo de intra predicción de acuerdo con la presente invención.
La figura 8 es un diagrama de flujo que ilustra un procedimiento de restablecimiento de un modo de intra predicción de acuerdo con la presente invención cuando el número de modos de predicción en un primer grupo de modos de intra predicción es variable.
La figura 9 es un diagrama de flujo que ilustra otro procedimiento de restablecimiento de un modo de intra predicción de acuerdo con la presente invención cuando el número de modos de predicción en un primer grupo de modos de intra predicción está fijado.
Modo de la invención
En lo sucesivo en el presente documento, se describirán en detalle diversas realizaciones de la presente invención con referencia a los dibujos adjuntos. No obstante, la presente invención no está limitada a las realizaciones a modo de ejemplo que se dan a conocer a continuación, sino que se puede implementar en diversos tipos. Por lo tanto, son posibles muchas otras modificaciones y variaciones de la presente invención y se debe entender que, dentro del ámbito del concepto que se da a conocer, la presente invención se puede poner en práctica de una forma que no sea la que se ha descrito específicamente.
La figura 1 es un diagrama de bloques de un aparato de codificación de imágenes en movimiento de acuerdo con la presente invención.
Haciendo referencia a la figura 1, un aparato de codificación de imágenes en movimiento 100 de acuerdo con la presente invención incluye una unidad de división de imagen 110, una unidad de transformada 120, una unidad de cuantificación 130, una unidad de exploración 131, una unidad de codificación por entropía 140, una unidad de intra predicción 150, una unidad de inter predicción 160, una unidad de cuantificación inversa 135, una unidad de transformada inversa 125, una unidad de post procesamiento 170, una unidad de almacenamiento de imágenes 180, un sustractor 190 y un sumador 195.
5
10
15
20
25
30
35
40
45
50
55
60
La unidad de división de imagen 110 analiza una señal de vídeo de entrada para dividir cada unidad de codificación más grande (LCU) de una imagen en una o más unidades de codificación, cada una de las cuales tiene un tamaño previamente determinado, determina el modo de predicción de cada unidad de codificación, y determina el tamaño de la unidad de predicción por cada unidad de codificación. La unidad de división de imagen 110 envía la unidad de predicción que se va a codificar a la unidad de intra predicción 150 o la unidad de inter predicción 160 de acuerdo con el modo de predicción. Asimismo, la unidad de división de imagen 110 envía las unidades de predicción que se van a codificar al sustractor 190.
La unidad de transformada 120 transforma los bloques residuales entre un bloque original de una unidad de predicción y un bloque de predicción que se genera mediante la unidad de intra predicción 150 o la unidad de inter predicción 160. El bloque residual está compuesto por una unidad de codificación. El bloque residual se puede dividir en unas unidades de transformada óptimas y transformarse. Un tipo de matriz de transformada se puede determinar de forma adaptativa de acuerdo con un modo de predicción (intra o inter). Debido a que las señales residuales de un modo de intra predicción tienen directividades de acuerdo con los modos de intra predicción, el tipo de matriz de transformada se puede determinar de forma adaptativa de acuerdo con un modo de intra predicción. La unidad de transformada se puede transformar mediante unas matrices de transformada unidimensionales (1D) horizontal y vertical. En la inter predicción, se aplica un tipo de matriz de transformada previamente determinado. En la intra predicción, hay una alta posibilidad de que los bloques residuales tengan una directividad vertical cuando el modo de intra predicción de la unidad de predicción actual sea horizontal. Por lo tanto, una matriz de números enteros basada en la transformada discreta del coseno (DCT, discrete cosine transform) se aplica a la dirección vertical, y una matriz de números enteros basada en la transformada discreta del seno (DST) o en la transformada de Karhunen Loeve (KLT) se aplica a la dirección horizontal. Cuando el modo de intra predicción es vertical, una matriz de números enteros basada en DST o en KTL se aplica a la dirección vertical, y una matriz de números enteros basada en DCT se aplica a la dirección horizontal. Asimismo, en la intra predicción, la matriz de transformada se puede determinar de forma adaptativa de acuerdo con un tamaño de las unidades de transformada.
La unidad de cuantificación 130 determina un tamaño de paso de cuantificación para cuantificar los coeficientes de transformada del bloque residual para cada unidad de codificación. El tamaño de paso de cuantificación se determina por unidad de codificación que tenga un tamaño igual a o más grande que un tamaño previamente determinado. El tamaño previamente determinado puede ser de 8 * 8 o de 16 * 16. Usando el tamaño de paso de cuantificación determinado y una matriz de cuantificación que se determina de acuerdo con un modo de predicción, los coeficientes de transformada se cuantifican. La unidad de cuantificación 130 usa los tamaños de paso de cuantificación de una o más unidades de codificación adyacentes a la unidad de codificación actual para generar un predictor de tamaño de paso de cuantificación de la unidad de codificación actual.
La unidad de cuantificación 130 recupera de forma secuencial las unidades de codificación en el siguiente orden de exploración; 1) una unidad de codificación izquierda de la unidad de codificación actual, 2) una unidad de codificación de arriba de la unidad de codificación actual, y 3) una unidad de codificación izquierda de arriba de la unidad de codificación actual. Y la unidad de cuantificación genera el predictor de tamaño de paso de cuantificación de la unidad de codificación actual usando uno o dos tamaños de paso de cuantificación válidos. Por ejemplo, el primer tamaño de paso de cuantificación válido que es encontrado en el orden de exploración se puede determinar como el predictor de tamaño de paso de cuantificación. Un promedio de los primeros dos tamaños de paso de cuantificación válidos que se recuperan en el orden de exploración se puede determinar como el predictor de tamaño de paso de cuantificación, y un tamaño de paso de cuantificación válido se determina como el predictor de tamaño de paso de cuantificación cuando solo es válido un tamaño de paso de cuantificación. Cuando se determina el predictor de tamaño de paso de cuantificación, una diferencia entre el tamaño de paso de cuantificación y el predictor de tamaño de paso de cuantificación se transmite a la unidad de codificación por entropía 140.
Puede que no haya ninguna de una unidad de codificación izquierda, una unidad de codificación de arriba y una unidad de codificación izquierda de arriba de la unidad de codificación actual. Por otro lado, puede haber una unidad de codificación previa de la unidad de codificación actual en el orden de codificación de la LCU. Por lo tanto, para unidades de codificación adyacentes a la unidad de codificación actual y la LCU, la unidad de codificación previa de la unidad de codificación actual en el orden de codificación pueden ser candidatas. En el presente caso, el orden de exploración anterior se puede cambiar al siguiente orden de exploración; 1) la unidad de codificación izquierda de la unidad de codificación actual, 2) la unidad de codificación de arriba de la unidad de codificación actual, 3) la unidad de codificación izquierda de arriba de la unidad de codificación actual y 4) la unidad de codificación previa de la unidad de codificación actual. El orden de exploración puede variar, o la unidad de codificación izquierda de arriba se puede omitir en el orden de exploración. El bloque de transformada cuantificado se proporciona a la unidad de cuantificación inversa 135 y la unidad de exploración 131.
La unidad de exploración 131 explora los coeficientes de transformada cuantificados del bloque de transformada cuantificado, convirtiendo de ese modo los coeficientes de transformada cuantificados en unos coeficientes de transformada cuantificados 1D. Un patrón de exploración se determina de acuerdo con el modo de intra predicción debido a que la distribución de los coeficientes de transformada cuantificados depende del modo de intra predicción. El patrón de exploración también se puede determinar de acuerdo con el tamaño de la unidad de transformada. El patrón de exploración se puede determinar dependiendo del modo de intra predicción direccional. Los coeficientes de transformada cuantificados se exploran en el sentido inverso.
5
10
15
20
25
30
35
40
45
50
55
Cuando los coeficientes de transformada cuantificados se dividen en una pluralidad de subconjuntos, se aplica el mismo patrón de exploración a cada subconjunto. La pluralidad de subconjuntos consiste en un subconjunto principal y uno o más subconjuntos restantes. El subconjunto principal está situado en un lado izquierdo superior e incluye un coeficiente de CC. Los uno o más subconjuntos residuales cubren una región que no sea el subconjunto principal.
Se puede aplicar una exploración en zigzag para explorar los subconjuntos. Los subconjuntos se pueden explorar comenzando con el subconjunto principal para los subconjuntos residuales en una dirección hacia delante, o se pueden explorar en el sentido inverso. Un patrón de exploración para explorar los subconjuntos se puede establecer como el mismo que un patrón de exploración para explorar los coeficientes de transformada cuantificados en los subconjuntos. En el presente caso, el patrón de exploración para explorar los subconjuntos se determina de acuerdo con el modo de intra predicción. El codificador transmite una información que es capaz de indicar una posición del último coeficiente cuantificado no nulo de la unidad de transformada a un descodificador. El codificador también transmite una información que es capaz de indicar una posición del último coeficiente cuantificado no nulo de cada subconjunto al descodificador.
La unidad de cuantificación inversa 135 cuantifica de forma inversa los coeficientes de transformada cuantificados. La unidad de transformada inversa 125 restablece los bloques residuales del dominio espacial a partir de los coeficientes de transformada cuantificados de forma inversa. El sumador 195 genera un bloque reconstruido mediante la suma del bloque residual que es reconstruido por la unidad de transformada inversa 125 y el bloque de predicción a partir de la unidad de intra predicción 150 o la unidad de inter predicción 160.
La unidad de post procesamiento 170 realiza un proceso de filtrado de desbloqueo para eliminar los artefactos de bloqueo que se generan en una imagen reconstruida, un proceso de aplicación de desplazamiento adaptativo para complementar una diferencia entre la imagen reconstruida y la imagen original por píxel, y un proceso de filtro de lazo adaptativo (ALF) para complementar una diferencia entre la imagen reconstruida y la imagen original con una unidad de codificación.
El proceso de filtrado de desbloqueo se puede aplicar a un límite entre unidades de predicción que tienen un tamaño previamente determinado o más y entre unidades de transformada. El tamaño previamente determinado puede ser de 8 x 8. El proceso de filtrado de desbloqueo incluye una etapa de determinación de un límite a filtrar, una etapa de determinación de la intensidad de filtrado de límite a aplicar al límite, una etapa de determinación de si aplicar, o no, un filtro de desbloqueo, y una etapa de selección de un filtro a aplicar al límite cuando se determina la aplicación del filtro de desbloqueo.
Si aplicar, o no, el filtro de desbloqueo se determina de acuerdo con i) si la intensidad de filtrado de límite es, o no, más grande que 0 y ii) si un valor que indica la diferencia entre píxeles de límite del bloque P y el bloque Q que se encuentran adyacentes al límite a filtrar es, o no, más pequeño que un primer valor de referencia que se determina de acuerdo con un parámetro de cuantificación.
Pueden existir dos o más filtros. Cuando el valor absoluto de una diferencia entre dos píxeles adyacentes al límite de bloque es igual a o más grande que un segundo valor de referencia, se selecciona un filtro débil. El segundo valor de referencia se determina mediante el parámetro de cuantificación y la intensidad de filtrado de límite.
El proceso de aplicación de desplazamiento adaptativo tiene por objeto reducir una diferencia (distorsión) entre un píxel que se somete al filtro de desbloqueo y el píxel original. Se puede determinar si realizar, o no, el proceso de aplicación de desplazamiento adaptativo en la unidad de una imagen o un fragmento. Una imagen o fragmento se puede dividir en una pluralidad de regiones de desplazamiento, y un modo de desplazamiento se puede determinar según la región de desplazamiento. Puede haber un número previamente determinado de modos de desplazamiento de borde (por ejemplo, cuatro modos de desplazamiento de borde), dos modos de desplazamiento de banda. En el caso del modo de desplazamiento de borde, se determina un modo de borde al que pertenece cada píxel y se aplica un desplazamiento que se corresponde con el modo de borde determinado. El modo de borde se determina sobre la base de una distribución de valores de píxel de dos píxeles adyacentes al píxel actual.
El proceso de filtro de lazo adaptativo se puede realizar en función de un valor que se obtiene mediante la comparación de una imagen original y una imagen reconstruida a la que se aplica el proceso de filtrado de desbloqueo o el proceso de aplicación de desplazamiento adaptativo. El aLf determinado se puede aplicar a todos los píxeles que se incluyen en un bloque de 4 x 4 o un bloque de 8 x 8. Si aplicar, o no, un ALF se puede determinar para cada unidad de codificación. El tamaño y los coeficientes de un filtro de lazo pueden variar de acuerdo con cada unidad de codificación. La información que indica si se aplica un ALF a cada unidad de codificación se puede incluir en un encabezamiento de fragmento. En el caso de una señal de crominancia, si aplicar, o no, el ALF se puede determinar para cada unidad de imagen. A diferencia de la luminancia, el filtro de lazo puede tener una forma rectangular.
El proceso de filtro de lazo adaptativo se realiza en función del fragmento. Por lo tanto, la información que indica si el proceso de filtro de lazo adaptativo se aplica, o no, a un fragmento actual, se incluye en un encabezamiento de fragmento o un encabezamiento de imagen. Si el proceso de filtro de lazo adaptativo se aplica al fragmento actual, el
5
10
15
20
25
30
35
40
45
50
55
encabezamiento de fragmento o la imagen incluye una información que indica una longitud de filtro horizontal y/o una longitud de filtro vertical de las componentes de luminancia que se usa en el proceso de filtro de lazo adaptativo. En el caso de usar un procedimiento de predicción, el encabezamiento de fragmento o la imagen incluye unos coeficientes de filtro predichos.
Las componentes de crominancia también se pueden filtrar de forma adaptativa. El encabezamiento de fragmento o el encabezamiento de imagen puede incluir una información acerca de si se filtra, o no, cada componente de crominancia. Para reducir la cantidad de bits, la información que indica si se filtra la componente de Cr y la información que indica si se filtra la componente de Cb se pueden codificar de forma conjunta. Un índice lo más bajo se asigna al caso en el que no se filtra ninguna de las componentes de Cr y de Cb debido a que la probabilidad de que ninguna de las componentes de Cr y de Cb no se haya filtrado con el fin de reducir la complejidad es alta y se realiza la codificación por entropía. Un índice lo más alto se asigna al caso en el que se filtran ambas de las componentes de Cr y de Cb.
La unidad de almacenamiento de imágenes 180 recibe una imagen post procesada a partir de la unidad de post procesamiento 160, y almacena la imagen restablecida en unidades de imagen. Una imagen puede ser una imagen en una trama o un campo. La unidad de almacenamiento de imágenes 180 tiene una memoria intermedia (que no se muestra) que es capaz de almacenar una pluralidad de imágenes.
La unidad de inter predicción 160 realiza una estimación de movimiento usando una o más imágenes de referencia que están almacenadas en la unidad de almacenamiento de imágenes 180, y determina uno o más índices de imagen de referencia que indican las imágenes de referencia y uno o más vectores de movimiento. De acuerdo con el índice de imagen de referencia y el vector de movimiento, la unidad de inter predicción 160 extrae un bloque de predicción que se corresponde con una unidad de predicción que se va a codificar a partir de una imagen de referencia que se selecciona de entre una pluralidad de imágenes de referencia que están almacenadas en la unidad de almacenamiento de imágenes 180 y emite el bloque de predicción extraído.
La unidad de intra predicción 150 realiza una intra predicción usando píxeles de referencia reconstruidos en una imagen que incluye una unidad de predicción actual. La unidad de intra predicción 150 recibe la unidad de predicción actual que se va a codificar de forma predictiva, selecciona uno de un número previamente determinado de modos de intra predicción, y realiza una intra predicción. El número previamente determinado de modos de intra predicción depende de un tamaño de la unidad de predicción actual. La unidad de intra predicción filtra de forma adaptativa los píxeles de referencia para generar el bloque de intra predicción. Cuando algunos de los píxeles de referencia no se encuentran disponibles, es posible generar los píxeles de referencia en las posiciones no disponibles usando píxeles de referencia disponibles.
La unidad de codificación por entropía 140 codifica por entropía los coeficientes de transformada cuantificados que son cuantificados por la unidad de cuantificación 130, la información de intra predicción que se recibe a partir de la unidad de intra predicción 150, una información de movimiento que se recibe a partir de la unidad de inter predicción 160, y así sucesivamente.
La figura 2 es un diagrama de bloques de la unidad de intra predicción 150 de una unidad de codificación de imágenes en movimiento 100 de acuerdo con la presente invención.
Haciendo referencia a la figura 2, la unidad de intra predicción 150 incluye una unidad de generación de píxeles de referencia 151, una unidad de filtrado de píxeles de referencia 152, una unidad de generación de bloques de predicción 153, una unidad de determinación de modo de predicción 154 y una unidad de codificación de modo de predicción 155.
La unidad de generación de píxeles de referencia 151 determina que es necesario generar píxeles de referencia para una intra predicción y genera píxeles de referencia si es necesario generar los píxeles de referencia.
La figura 3 es un diagrama conceptual que muestra unas posiciones de píxeles de referencia que se usan para una intra predicción de acuerdo con la presente invención. Tal como se muestra en la figura 3, los píxeles de referencia de la predicción actual consisten en unos píxeles de referencia de arriba, unos píxeles de referencia izquierdos y un píxel de referencia de esquina. Los píxeles de referencia de arriba de la unidad de predicción actual son unos píxeles (las regiones C y D) que se encuentran presentes a lo largo del doble de la anchura de la unidad de predicción actual, y los píxeles de referencia izquierdos de la unidad de predicción actual son unos píxeles (las regiones A y B) que se encuentran presentes a lo largo del doble de la altura de la unidad de predicción actual. El píxel de referencia de esquina está situado en (x = -1, y = -1).
La unidad de generación de píxeles de referencia 151 determina si los píxeles de referencia se encuentran, o no, disponibles. Si uno o más píxeles de referencia no se encuentran disponibles, la unidad de generación de píxeles de referencia 151 genera píxeles de referencia en las posiciones no disponibles usando píxeles de referencia disponibles.
5
10
15
20
25
30
35
40
45
50
55
Cuando la unidad de predicción actual está situada en el límite superior de una imagen o un fragmento, los píxeles de referencia de arriba (las regiones C y D) y el píxel de referencia de esquina de la unidad de predicción actual no existen. Cuando la unidad de predicción actual está situada en el límite izquierdo de una imagen o un fragmento, los píxeles de referencia izquierdos (las regiones A y B) y el píxel de referencia de esquina no existen. En esos casos, los píxeles de referencia se generan al copiar el valor de un píxel disponible lo más cerca del píxel no disponible. Es decir, cuando la unidad de predicción actual está situada en el límite superior de una imagen o un fragmento, los píxeles de referencia de arriba se pueden generar al copiar el píxel de referencia izquierdo de más arriba (es decir, un píxel de referencia que está situado en la posición de más arriba de la región A). Cuando la unidad de predicción actual está situada en el límite izquierdo de una imagen o un fragmento, los píxeles de referencia izquierdos se pueden generar al copiar el píxel de referencia de arriba más a la izquierda (es decir, un píxel de referencia que está situado en la posición más a la izquierda de la región C).
A continuación, se describirá un caso en el que algunos de los píxeles de referencia en unos píxeles de referencia de arriba o izquierdos de una unidad de predicción actual que se va a codificar se encuentran no disponibles. Hay dos casos en los que 1) se encuentran presentes píxeles de referencia disponibles en solo una dirección con respecto a los píxeles de referencia no disponibles, y 2) se encuentran presentes píxeles de referencia disponibles en ambas direcciones con respecto a los píxeles de referencia no disponibles.
En primer lugar, se describirá un caso en el que se encuentran presentes píxeles de referencia disponibles en solo una dirección con respecto a los píxeles de referencia no disponibles.
Puede ser posible que los píxeles de referencia adyacentes al límite de arriba de la unidad de predicción actual (la región C) se encuentren disponibles, pero los píxeles de referencia de arriba izquierdos (la región D) pueden no encontrarse disponibles. Cuando la unidad de predicción actual está situada en el límite derecho de un fragmento o una LCU, los píxeles de referencia en la región D no se encuentran disponibles. En el presente caso, los píxeles de referencia de arriba izquierdos (la región D) se generan usando uno o más píxeles de referencia de arriba disponibles. Los píxeles de referencia de arriba izquierdos se generan al copiar un píxel de arriba más a la derecha o mediante el uso de dos o más píxeles de referencia de arriba disponibles.
Cuando los píxeles de referencia (la región A) adyacentes al lado izquierdo del bloque de predicción actual se encuentran disponibles, pero los píxeles de referencia de debajo izquierdos (la región B) pueden no encontrarse disponibles. Cuando la unidad de predicción actual está situada en el límite de debajo de un fragmento o una LCU, los píxeles de referencia en la región B no se encuentran disponibles. En el presente caso, los píxeles de referencia de debajo izquierdos (la región B) se generan usando uno o más píxeles de referencia izquierdos disponibles. Los píxeles de referencia de debajo izquierdos se generan al copiar un píxel más bajo izquierdo o mediante el uso de dos o más píxeles de referencia izquierdos disponibles.
Tal como se ha descrito en lo que antecede, si el píxel de referencia disponible existe en solo una dirección a partir de los píxeles no disponibles, el píxel de referencia se genera al copiar el valor de un píxel disponible lo más cerca del píxel no disponible. Como alternativa, los píxeles de referencia se pueden generar usando dos o más píxeles disponibles lo más cerca del píxel no disponible.
A continuación, se describirá un caso en el que se encuentran presentes píxeles de referencia disponibles en ambas direcciones con respecto a los píxeles de referencia no disponibles.
Por ejemplo, cuando la unidad de predicción actual está situada en el límite superior de un fragmento y la unidad de predicción de arriba derecha de la unidad de predicción actual se encuentra disponible, los píxeles de referencia que se corresponden con la región C de la unidad de predicción actual no se encuentran disponibles, pero los píxeles de referencia que están situados en las regiones A y D se encuentran disponibles. En el presente caso en el que se encuentran disponibles píxeles de referencia que se encuentran presentes en ambas direcciones, los píxeles de referencia se generan mediante la selección de los píxeles de referencia disponibles lo más cerca de cada dirección y mediante el uso de los mismos (es decir, el píxel de referencia más hacia arriba en la región A y el píxel de referencia más hacia la izquierda en la región D).
Los píxeles de referencia se generan mediante el redondeo del promedio de los píxeles de referencia que se han mencionado en lo que antecede (es decir, los píxeles lo más cerca de cada dirección). Sin embargo, se puede usar una interpolación lineal para generar los píxeles de referencia debido a que la diferencia entre los valores de los píxeles de referencia que se han mencionado en lo que antecede puede ser grande. Con el fin de concretar, puede ser posible generar unos píxeles de referencia no disponibles de la ubicación actual al considerar la ubicación frente a los dos píxeles de referencia disponibles.
La unidad de filtrado de píxeles de referencia 152 filtra de forma adaptativa los píxeles de referencia de la unidad de predicción actual.
Haciendo referencia a la figura 4, se describe el funcionamiento de la unidad de filtrado de píxeles de referencia 152. La figura 4 es un diagrama conceptual que ilustra unos modos de intra predicción direccionales de acuerdo con la presente invención.
5
10
15
20
25
30
35
40
45
50
55
La unidad de filtrado de píxeles de referencia 152 filtra de forma adaptativa los píxeles de referencia de acuerdo con el modo de intra predicción y la posición del píxel de referencia.
En el modo vertical (el modo 0), el modo horizontal (el modo 1) y el modo de CC (el modo 2), los píxeles de referencia no se filtran. Sin embargo, en los modos de intra predicción direccionales que no sean los modos 0, 1 y 2, los píxeles de referencia se filtran de forma adaptativa. El píxel más a la derecha de los píxeles de referencia de arriba que están situados en (x = 2 N - 1, y = -1) y el píxel más bajo de los píxeles de referencia izquierdos que están situados en (x = -1, y = 2 N - 1) no se filtran. Los otros píxeles de referencia se filtran usando dos píxeles de referencia adyacentes.
Se aplica un filtro de paso bajo para suavizar las diferencias entre los píxeles de referencia adyacentes. El filtro de paso bajo puede ser un filtro de 3 coeficientes [1, 2, 1] o un filtro de 5 coeficientes [1, 2, 4, 2, 1].
La aplicación del filtro de paso bajo se determina mediante un tamaño de la unidad de predicción actual y el modo de intra predicción.
Un filtro se aplica de forma adaptativa a los píxeles de referencia en los modos de intra predicción direccionales 3, 6 y 9 que tienen una dirección de 45° con referencia a la dirección horizontal o vertical de acuerdo con el tamaño de la unidad de predicción. Si el tamaño de la unidad de predicción es más pequeño que un tamaño previamente determinado, se aplica un primer filtro. Si el tamaño de la unidad de predicción es igual a o más grande que el tamaño previamente determinado, se puede aplicar un segundo filtro más fuerte que el primer filtro. El tamaño previamente determinado puede ser de 16 * 16.
En los modos de intra predicción direccionales que existen entre el modo de intra predicción 3, 6 o 9 y el modo de intra predicción horizontal o vertical, el filtro se puede aplicar de forma adaptativa a los píxeles de referencia de acuerdo con el tamaño de la unidad de predicción. El filtro se puede aplicar en un número previamente determinado de modos de intra predicción adyacentes al modo 3, 6 o 9. Para las unidades de predicción que tienen el mismo número de modos de intra predicción direccionales, el número previamente determinado se puede aumentar a medida que aumenta el tamaño del bloque de predicción. Por ejemplo, el filtro se aplica a un primer número de modos de intra predicción adyacentes al modo 3, 6 o 9 para las unidades de predicción de 8 * 8, a un segundo número de modos de intra predicción adyacentes al modo 3, 6 o 9 para la unidad de predicción de 16 * 16, y a un tercer número de modos de intra predicción adyacentes al modo 3, 6 o 9 para la unidad de predicción de 32 * 32. El primer número es igual a o más pequeño que el segundo número, y el segundo número es igual a o más pequeño que el tercer número.
La unidad de generación de bloques de predicción 153 genera un bloque de predicción que se corresponde con el modo de intra predicción.
En el modo de CC, el bloque de predicción consiste en unos promedios de los píxeles de referencia, y puede tener lugar una diferencia de paso entre píxeles en un bloque de predicción adyacente a los píxeles de referencia. Por lo tanto, los píxeles de predicción de la línea superior y la línea izquierda que se encuentran adyacentes a los píxeles de referencia se filtran usando los píxeles de referencia. El píxel de predicción superior izquierdo adyacente a dos píxeles de referencia (el píxel de referencia superior y el píxel de referencia izquierdo) se filtra mediante un filtro de 3 coeficientes. Los otros píxeles de predicción (los píxeles de la línea superior y los píxeles de la línea izquierda en el bloque de predicción) y adyacentes a un píxel de referencia se filtran mediante un filtro de 2 coeficientes.
En el modo planar, los píxeles de predicción se generan usando un píxel de referencia de esquina, unos píxeles de referencia izquierdos y unos píxeles de referencia de arriba. Un píxel de predicción que está situado en (a, b) se genera usando un píxel de referencia de esquina que está situado en (x = -1, y = -1), un píxel de referencia de arriba que está situado en (x = a, y = -1) y un píxel de referencia izquierdo que está situado en (x = -1, y = b). En el modo planar, los píxeles de predicción no se filtran mediante un píxel de referencia.
Cuando se generan pixeles de predicción copiando un correspondiente píxel de referencia de arriba en el modo vertical (modo 0), una correlación entre un píxel de referencia izquierdo en el bloque de predicción y un píxel de predicción adyacente al píxel de referencia izquierdo disminuye a medida que la posición del píxel de predicción se desplaza hacia abajo. Cuando se generan píxeles de predicción copiando un correspondiente píxel de referencia izquierdo en el modo horizontal (modo 1), una correlación entre un píxel de referencia de arriba en el bloque de predicción y un píxel de predicción adyacente al píxel de referencia de arriba disminuye a medida que la posición del píxel de predicción se desplaza hacia la derecha. Por este motivo, en el modo vertical, la diferencia entre el bloque de predicción y una unidad de predicción original aumenta a medida que la posición del píxel de predicción se desplaza hacia abajo.
Por lo tanto, en el modo vertical, los píxeles izquierdos en el bloque de predicción pueden filtrarse usando píxeles de referencia izquierdos no usados al generar el bloque de predicción con el fin de disminuir la diferencia. En el modo horizontal, los píxeles de arriba en el bloque de predicción pueden filtrarse usando píxeles de referencia de arriba no usados al generar el bloque de predicción.
5
10
15
20
25
30
35
40
45
50
55
En los modos de intra predicción direccionales (números de modo 22, 12, 23, 5, 24, 13 y 25) que existen entre el modo 0 y el modo 6, y el modo 6, al generar el bloque de predicción usando solamente píxeles de referencia de arriba de la unidad de predicción actual, la diferencia entre un píxel de referencia y píxeles en una línea izquierda del bloque de predicción generado y adyacentes al píxel de referencia aumenta a medida que la posición del píxel de predicción se desplaza hacia abajo.
En los modos de intra predicción direccionales (números de modo 30, 16, 31, 8, 32, 17, 33) que existen entre el modo 1 y el modo 9, y el modo 9, al generar el bloque de predicción usando solamente píxeles de referencia izquierdos de la unidad de predicción actual, la diferencia entre un píxel de referencia y píxeles en una línea superior del bloque de predicción generado y adyacentes al píxel de referencia aumenta a medida que la posición del píxel de predicción se desplaza hacia la derecha.
Por lo tanto, algunos píxeles del bloque de predicción pueden filtrarse de forma adaptativa para el modo de intra predicción direccional a excepción del modo de CC con el fin de compensar la diferencia. De lo contrario, para compensar la diferencia, el bloque de predicción puede generarse usando píxeles de referencia tanto de arriba como izquierdos.
En primer lugar se describirá un procedimiento para filtrar algunos píxeles del bloque de predicción.
En el modo 6, el bloque de predicción se genera usando píxeles de referencia de arriba y píxeles de predicción izquierdos adyacentes a un píxel de referencia. El área de píxeles en el bloque de predicción que han de filtrarse puede variar de acuerdo con un tamaño de la unidad de predicción. Es decir, el número de líneas y la proporción de píxeles en una línea que han de filtrarse pueden variar en función del tamaño de la unidad de predicción. El número de líneas puede aumentar o mantenerse igual o la proporción puede disminuir a medida que aumenta el tamaño de la unidad de predicción. Asimismo, la intensidad de filtrado puede disminuir a medida que aumenta la distancia respecto al píxel de referencia.
Por ejemplo, los píxeles de la primera línea izquierda (x=0, y=0,-,3) en el bloque de predicción generado se filtran para una unidad de predicción de 4 * 4. Todos los píxeles de predicción de la primera línea izquierda y algunos píxeles de predicción de la segunda línea se filtran para una unidad de predicción de 8 * 8. Los algunos píxeles de predicción pueden estar ubicados en (x=1, y=4,-,7). Todos los píxeles de predicción de la primera línea izquierda, una primera cantidad de píxeles de predicción de la segunda línea y una segunda cantidad de píxeles de predicción de la tercera línea se filtran para una unidad de predicción de 16 * 16. La primera cantidad de píxeles de predicción pueden estar ubicados en (x=1, y=4,-,7) y la segunda cantidad de píxeles de predicción pueden estar ubicados en (x=2, y=8,-,15). Todos los píxeles de predicción de la primera línea izquierda, una primera cantidad de píxeles de predicción de la segunda línea, una segunda cantidad de píxeles de predicción de la tercera línea y una tercera cantidad de píxeles de predicción de la cuarta línea se filtran para una unidad de predicción de 32 * 32. La tercera cantidad de píxeles de predicción pueden estar ubicados en (x=3, y=16,-,31).
En un número predeterminado de modos de intra predicción más próximos al modo 6 y existentes entre el modo 0 y el modo 6, los píxeles de predicción pueden filtrarse usando el mismo procedimiento que en el modo 6. La cantidad de píxeles de predicción que van a filtrarse puede disminuir o mantenerse igual a medida que la dirección del modo de intra predicción se aleja de la dirección del modo 6. En un número predeterminado de modos de intra predicción más próximos al modo 0 y existentes entre el modo 0 y el modo 6, los píxeles de predicción pueden filtrarse usando el mismo procedimiento que en el modo vertical.
En el modo 9, los píxeles de predicción pueden filtrarse usando el mismo procedimiento que en el modo 6. En los modos de intra predicción existentes entre el modo 1 y el modo 9, los píxeles de predicción pueden filtrarse usando el mismo procedimiento que en los modos de intra predicción existentes entre el modo 0 y el modo 6.
Mientras tanto, en el modo 6 y un número predeterminado de los modos de intra predicción adyacentes al modo 6, el bloque de predicción puede generarse usando todos los píxeles de referencia de arriba e izquierdos, sin usar el procedimiento anteriormente mencionado que filtra algunos píxeles en el bloque de predicción. En el modo 9 y un número predeterminado de los modos de intra predicción adyacentes al modo 9, se aplica el mismo procedimiento.
La unidad de determinación de modo de intra predicción 154 determina el modo de intra predicción de la unidad de predicción actual. La unidad de determinación de modo de intra predicción 154 selecciona un modo de intra predicción en el que la cantidad de bits de codificación de un bloque residual se reduce al mínimo para cada modo de intra predicción como el modo de intra predicción de la unidad de predicción actual.
La unidad de codificación de modo de intra predicción 155 codifica el modo de intra predicción de la unidad de predicción actual que se determina mediante la unidad de determinación de modo de intra predicción 154. La unidad de codificación de modo de intra predicción 155 se puede integrar en la unidad de intra predicción 150 o en la unidad de codificación por entropía 140.
La unidad de codificación de modo de intra predicción 155 codifica el modo de intra predicción de la unidad de predicción actual usando los modos de intra predicción de las unidades de predicción adyacentes a la unidad de predicción actual. La unidad de codificación de modo de intra predicción 155 clasifica los modos de intra predicción
5
10
15
20
25
30
35
40
45
50
55
(por ejemplo, 35 modos) admisibles para la unidad de predicción actual en una pluralidad de grupos de modos de intra predicción, codifica un índice que se corresponde con un grupo al que pertenece el modo de intra predicción actual y un índice que se corresponde con el modo de intra predicción de la unidad de predicción actual en el grupo al que pertenece el modo de intra predicción actual. Cada grupo incluye al menos un modo de intra predicción. Preferentemente, el número de los grupos de modos de intra predicción es de 2 o 3.
En lo sucesivo en el presente documento, se describirá un caso en el que el número de los grupos de modos de intra predicción es 2.
En primer lugar, se obtienen los modos de intra predicción de las unidades de predicción adyacentes a la unidad de predicción actual. Los modos de intra predicción pueden ser unos modos de intra predicción de una unidad de predicción izquierda y una unidad de predicción de arriba de la unidad de predicción actual. Cuando existe una pluralidad de unidades de predicción de arriba de la unidad de predicción actual, la pluralidad de unidades de predicción de arriba se exploran en una dirección previamente determinada (por ejemplo, de derecha a izquierda) para determinar el modo de intra predicción de una primera unidad de predicción disponible como un modo de intra predicción de arriba. Asimismo, cuando existe una pluralidad de unidades de predicción izquierda de la unidad de predicción actual, la pluralidad de unidades de predicción izquierda se exploran en una dirección previamente determinada (por ejemplo, de abajo arriba) para determinar el modo de intra predicción de una primera unidad de predicción disponible como un modo de intra predicción izquierda. Como alternativa, de entre una pluralidad de unidades de predicción disponibles, el modo de intra predicción de una unidad de predicción disponible que tiene el número de modo de intra predicción más bajo se puede establecer como un modo de intra predicción de arriba.
A continuación, el modo de intra predicción obtenido se puede convertir en uno de los modos admisibles para la unidad de predicción actual cuando el número de modo de intra predicción obtenido es igual a o más grande que el número de modos de intra predicción admisibles para la unidad de predicción actual.
A continuación, un primer grupo de modos de intra predicción se construye usando el modo de intra predicción obtenido o convertido.
Los modos de intra predicción obtenidos o convertidos y uno o más candidatos de modo de intra predicción que se determinan en un orden previamente determinado por los modos de intra predicción obtenidos o convertidos se usan para construir el primer grupo de modos de intra predicción. Cuando el modo de intra predicción obtenido o convertido es un modo direccional, los candidatos de modo de intra predicción pueden ser uno o más modos de intra predicción direccionales lo más cerca del modo de intra predicción obtenido o convertido.
A continuación, se determina si el modo de intra predicción de la unidad de predicción actual pertenece, o no, al primer grupo de modos de intra predicción.
Cuando el modo de intra predicción de la unidad de predicción actual pertenece al primer grupo de modos de intra predicción, se codifican una información que indica el primer grupo de modos de intra predicción y un índice que se corresponde con el modo de intra predicción de la unidad de predicción actual en el primer grupo de modos de intra predicción.
Sin embargo, cuando el modo de intra predicción de la unidad de predicción actual no pertenece al primer grupo de modos de intra predicción, se codifican una información que indica un segundo grupo de modos de intra predicción y un índice que se corresponde con el modo de intra predicción de la unidad de codificación actual en el segundo grupo de modos de intra predicción. El segundo grupo de modos de intra predicción incluye los modos de intra predicción que no sean los modos de intra predicción que pertenecen al primer grupo de modos de intra predicción.
Cuando no se encuentra disponible ninguno del modo de intra predicción de arriba y el modo de intra predicción izquierda, se añaden uno o más modos de intra predicción al primer grupo de modos de intra predicción. Por ejemplo, se puede añadir un modo de CC o un modo planar cuando se añade un modo de intra predicción. Se pueden añadir un modo de CC y un modo planar o vertical cuando se añaden dos modos de intra predicción. Un modo de CC, un modo planar y uno del modo vertical y el modo horizontal se pueden añadir cuando se añaden tres modos de intra predicción.
Cuando se encuentra disponible uno del modo de intra predicción de arriba y el modo de intra predicción izquierda o cuando el modo de intra predicción de arriba y el modo de intra predicción izquierda son el mismo, se puede añadir uno o dos modos de intra predicción al primer grupo de modos de intra predicción. Por ejemplo, se puede añadir un modo de CC o un modo planar cuando se añade un modo de intra predicción. Cuando se añaden dos modos de intra predicción, los modos de intra predicción que se van a añadir varían de acuerdo con si el modo de intra predicción disponible es, o no, un modo de intra predicción direccional. Si el modo de intra predicción disponible es uno de los modos de intra predicción no direccional (es decir, un modo de CC y un modo planar), se pueden añadir un modo vertical y un modo horizontal o se pueden añadir el otro modo de intra predicción direccional y un modo vertical. Si el modo de intra predicción disponible es un modo de intra predicción direccional, se pueden añadir dos modos de intra predicción lo más cerca del modo de intra predicción direccional en ambos lados. Sin embargo, si existe el modo de intra predicción adyacente en solo un lado del modo de intra predicción disponible (es decir, el modo de intra predicción disponible es el modo 6 o 9), el modo de intra predicción adyacente (el modo 25 o 33) y se
5
10
15
20
25
30
35
40
45
50
55
puede añadir uno de un modo de CC o un modo planar.
Cuando el modo de intra predicción de la unidad de predicción actual pertenece al segundo grupo de modos de intra predicción, el índice se corresponde con un número reordenado del modo de intra predicción de la unidad de codificación actual en el segundo grupo de modos de intra predicción. En el presente caso, se puede usar una tabla de VLC.
Se presenta el caso en el que el número de los grupos de modos de intra predicción es de 2, pero el número de los grupos de modos de intra predicción puede ser de 3. Cuando el número de los grupos de modos de intra predicción es de 3, si el modo de intra predicción de la unidad de predicción actual no pertenece al primer grupo de modos de intra predicción, se determina si el modo de intra predicción de la unidad de predicción actual pertenece al segundo grupo de modos de intra predicción. Si el modo de intra predicción de la unidad de predicción actual pertenece al segundo grupo de modos de intra predicción, se codifican una información que indica el segundo grupo de modos de intra predicción y un índice que se corresponde con el modo de intra predicción de la unidad de codificación actual en el segundo grupo de modos de intra predicción. Si el modo de intra predicción de la unidad de predicción actual no pertenece al segundo grupo de modos de intra predicción, se codifican una información que indica el tercer grupo de modos de intra predicción y un índice que se corresponde con el modo de intra predicción de la unidad de codificación actual en el tercer grupo de modos de intra predicción. El segundo grupo de modos de intra predicción se genera sobre la base de los modos de intra predicción de la unidad de predicción izquierda y la unidad de predicción de arriba de la unidad de predicción actual.
Como alternativa, la unidad de codificación de modo de predicción 155 puede codificar el modo de intra predicción del modo de predicción actual tal como sigue. En primer lugar, se determina si el modo de intra predicción de la unidad de predicción actual es igual a uno de los modos de intra predicción del bloque previo adyacente a las unidades de predicción actual. Si el modo de intra predicción de la unidad de predicción actual es igual a uno de los modos de intra predicción del bloque previo adyacente a las unidades de predicción actual, una etiqueta que indica esto (pred_flag) se establece en 1 y el modo de intra predicción de la unidad de predicción actual se codifica usando el modo de intra predicción izquierda o de arriba disponible. De lo contrario, la etiqueta (pred_flag) se establece en 0 y se codifica un índice que indica el número ordenado del modo de intra predicción de la unidad de codificación actual de entre los modos de intra predicción que no sean los modos de intra predicción izquierda y de arriba.
Mientras tanto, los modos de intra predicción de componente de crominancia pueden incluir un modo que usa el modo de intra predicción correspondiente de la componente de luminancia. En el presente caso, tal información se puede incluir en un conjunto de parámetros de secuencia (SPS), un conjunto de parámetros de imagen (PPS) o un encabezamiento de fragmento. El número de modos de intra predicción de componente de crominancia puede variar de acuerdo con un tamaño de la unidad de predicción. Los modos de intra predicción de componente de crominancia se pueden codificar usando los modos de intra predicción del bloque adyacente. En el presente caso, el procedimiento de codificación es el mismo que se ha descrito en lo que antecede. De lo contrario, los modos de intra predicción de componente de crominancia se pueden codificar sin usar información de modo de intra predicción del bloque adyacente. En el presente caso, se puede usar una tabla de VLC.
La unidad de transmisión de bloques de predicción 156 transmite el bloque de predicción generado que se corresponde con el modo de intra predicción al sustractor 190.
La figura 5 es un diagrama de bloques de un aparato de descodificación de imágenes en movimiento de acuerdo con la presente invención.
El aparato de descodificación de imágenes en movimiento de acuerdo con la presente invención incluye una unidad de descodificación por entropía 210, una unidad de exploración inversa 220, una unidad de cuantificación inversa 230, una unidad de transformada inversa 240, una unidad de intra predicción 250, una unidad de inter predicción 260, una unidad de post procesamiento 270, una unidad de almacenamiento de imágenes 280, un sumador 290 y un conmutador de cambio de intra/inter 295.
La unidad de descodificación por entropía 210 extrae la información de intra predicción, una información de inter predicción y una información de coeficientes cuantificados a partir de un flujo de bits recibido. La unidad de descodificación por entropía 210 transmite la información de inter predicción a la unidad de inter predicción 260, la información de intra predicción a la unidad de intra predicción 250 y la información de coeficientes cuantificados a la unidad de exploración inversa 220.
La unidad de exploración inversa 220 convierte la información de coeficientes cuantificados en un bloque de transformada cuantificado bidimensional. Uno de una pluralidad de patrones de exploración inversa se selecciona para la conversión. El patrón de exploración inversa se selecciona sobre la base del modo de intra predicción. Si un tamaño de una unidad de transformada que se va a descodificar es más grande que el tamaño de referencia previamente determinado, una unidad de transformada cuantificada se genera mediante la exploración, de forma inversa, de los coeficientes de transformada cuantificados en la unidad de un tamaño previamente determinado del subconjunto. Si el tamaño de una unidad de transformada que se va a descodificar es igual al tamaño de referencia previamente determinado, la unidad de transformada cuantificada se genera mediante la exploración, de forma
5
10
15
20
25
30
35
40
45
50
55
inversa, de los coeficientes de transformada cuantificados en la unidad de la unidad de transformada. Si los coeficientes de transformada cuantificados se exploran de forma inversa en la unidad del subconjunto, un mismo patrón de exploración inversa se aplica a los coeficientes de transformada cuantificados en cada subconjunto. La pluralidad de subconjuntos consiste en un subconjunto principal y uno o más subconjuntos restantes. El subconjunto principal está situado en un lado izquierdo superior e incluye un coeficiente de CC, y los uno o más subconjuntos restantes cubren una región que no sea el subconjunto principal.
Un patrón de exploración a aplicar a los subconjuntos puede ser una exploración en zigzag. Los subconjuntos se pueden explorar de forma inversa comenzando con el subconjunto principal para los subconjuntos residuales en una dirección hacia delante, o se pueden explorar en el sentido inverso. Un patrón de exploración inversa para explorar los subconjuntos se puede establecer como el mismo que un patrón de exploración inversa para explorar los coeficientes de transformada cuantificados. La unidad de exploración inversa 220 realiza un procedimiento de exploración inversa usando una información que indica una posición del último coeficiente cuantificado no nulo de la unidad de transformada.
La unidad de cuantificación inversa 230 determina un predictor de tamaño de paso de cuantificación de una unidad de codificación actual. La operación para determinar el predictor de tamaño de paso de cuantificación es la misma que la del procedimiento de la unidad de cuantificación 130 de la figura 1. La unidad de cuantificación inversa suma el predictor de tamaño de paso de cuantificación determinado y un tamaño de paso de cuantificación residual recibido para generar un tamaño de paso de cuantificación de la unidad de codificación actual. La unidad de cuantificación inversa 230 restablece los coeficientes cuantificados de forma inversa usando una matriz de cuantificación que se determina mediante el tamaño de paso de cuantificación. La matriz de cuantificación varía de acuerdo con el tamaño del bloque actual que se va a restablecer. La matriz de cuantificación se puede seleccionar para un bloque que tiene el mismo tamaño en función de al menos uno de un modo de predicción y un modo de intra predicción del bloque actual.
La unidad de cuantificación inversa 230 determina un predictor de tamaño de paso de cuantificación de una unidad de codificación actual. La operación de determinación del predictor de tamaño de paso de cuantificación es la misma que la operación de la unidad de cuantificación 130 de la figura 1. La unidad de cuantificación inversa suma el predictor de tamaño de paso de cuantificación determinado y un tamaño de paso de cuantificación residual recibido para generar un tamaño de paso de cuantificación de la unidad de codificación actual. La unidad de cuantificación inversa 230 restablece los coeficientes cuantificados de forma inversa usando una matriz de cuantificación que se determina mediante el tamaño de paso de cuantificación. La matriz de cuantificación varía de acuerdo con el tamaño del bloque actual o la matriz de cuantificación varía para un bloque de acuerdo con al menos uno del modo de predicción y el modo de intra predicción.
La unidad de transformada inversa 240 transforma de forma inversa el bloque cuantificado de forma inversa para restablecer un bloque residual. La matriz de transformada inversa a aplicar al bloque cuantificado de forma inversa se determina de forma adaptativa de acuerdo con el modo de predicción (intra o inter) y el modo de intra predicción. El procedimiento de determinación de la matriz de transformada inversa es el mismo que el procedimiento en la unidad de transformada 120 de la figura 1.
El sumador 290 suma el bloque residual restablecido que es restablecido por la unidad de transformada inversa 240 y un bloque de predicción que se genera mediante la unidad de intra predicción 250 o la unidad de inter predicción 260 para generar un bloque de imagen reconstruido.
La unidad de intra predicción 250 restablece el modo de intra predicción del bloque actual sobre la base de la información de intra predicción que se recibe a partir de la unidad de descodificación por entropía 210 y genera un bloque de predicción de acuerdo con el modo de intra predicción restablecido.
La unidad de inter predicción 260 restablece los índices de imagen de referencia y los vectores de movimiento sobre la base de la información de inter predicción que se recibe a partir de la unidad de descodificación por entropía 210 y genera un bloque de predicción usando los índices de imagen de referencia y los vectores de movimiento. Cuando se aplica una compensación de movimiento con una precisión fraccionaria, el bloque de predicción se genera usando un filtro de interpolación.
La unidad de post procesamiento 270 opera del mismo modo que la unidad de post procesamiento 160 de la figura 3.
La unidad de almacenamiento de imágenes 280 almacena la imagen reconstruida post procesada mediante la unidad de post procesamiento 270.
La figura 6 es un diagrama de bloques de la unidad de intra predicción 250 de un aparato de descodificación de imágenes en movimiento 200 de acuerdo con la presente invención.
La unidad de intra predicción 250 de acuerdo con la presente invención incluye una unidad de descodificación de modos de intra predicción 251, una unidad de generación de píxeles de referencia 252, una unidad de filtrado de píxeles de referencia 253, una unidad de generación de bloques de predicción 254 y una unidad de transmisión de
5
10
15
20
25
30
35
40
45
50
55
bloques de predicción 255.
La unidad de descodificación de modos de intra predicción 251 recibe la información de intra predicción a partir de la unidad de descodificación por entropía 210 y restablece el modo de intra predicción de la unidad de predicción actual. La información de intra predicción incluye una información que indica el grupo de modos de intra predicción al cual pertenece la unidad de predicción actual que se va a descodificar, y el índice de modos de intra predicción.
La unidad de descodificación de modos de intra predicción 251 obtiene los modos de intra predicción de las unidades de predicción adyacentes a la unidad de predicción actual. Los modos de intra predicción pueden ser el modo de intra predicción de una unidad de intra predicción izquierda y una unidad de intra predicción de arriba de la unidad de predicción actual. Cuando existe una pluralidad de unidades de predicción de arriba de la unidad de predicción actual, la pluralidad de unidades de predicción de arriba se exploran en una dirección previamente determinada (por ejemplo, de derecha a izquierda) para determinar el modo de intra predicción de una primera unidad de predicción disponible como un modo de intra predicción de arriba. Asimismo, cuando existe una pluralidad de unidades de predicción izquierda de la unidad de predicción actual, la pluralidad de unidades de predicción izquierda se exploran en una dirección previamente determinada (por ejemplo, de abajo arriba) para determinar el modo de intra predicción de una primera unidad de predicción disponible como un modo de intra predicción izquierda. Como alternativa, de entre una pluralidad de unidades de predicción disponibles, el modo de intra predicción de una unidad de predicción disponible que tiene el número de modo de intra predicción más bajo se puede establecer como un modo de intra predicción de arriba.
El modo de intra predicción de arriba o el modo de intra predicción izquierda se convierte en uno de los modos admisibles cuando el número de modos de intra predicción de arriba o el número de modos de intra predicción izquierda es igual a o más grande que el número de modos de intra predicción admisibles para la unidad de predicción actual.
Un primer grupo de modos de intra predicción se construye usando el modo de intra predicción obtenido o convertido. Los modos de intra predicción obtenidos o convertidos y uno o más candidatos de modo de intra predicción que se determinan en un orden previamente determinado por los modos de intra predicción obtenidos o convertidos se pueden incluir en el primer grupo de modos de intra predicción. Cuando el modo de intra predicción obtenido o convertido es un modo direccional, los uno o más candidatos de modo de intra predicción pueden ser al menos un modo de intra predicción direccional lo más cerca del modo de intra predicción obtenido o convertido.
La unidad de descodificación de modos de intra predicción 251 determina si la información que indica el grupo de modos de intra predicción indica, o no, el primer grupo de modos de intra predicción.
Si la información que indica el grupo de modos de intra predicción indica el primer grupo de modos de intra predicción, el modo de intra predicción que se corresponde con el índice de modo de intra predicción recibido se selecciona de entre el primer grupo de modos de intra predicción, y el modo de intra predicción seleccionado se establece como el modo de intra predicción de la unidad de predicción actual.
Si la información que indica el grupo de modos de intra predicción indica el segundo grupo de modos de intra predicción, el modo de intra predicción que se corresponde con el índice de modo de intra predicción recibido se selecciona de entre el segundo grupo de modos de intra predicción, y el modo de intra predicción seleccionado se establece como el modo de intra predicción de la unidad de predicción actual. El segundo grupo de modos de intra predicción incluye unos modos de intra predicción que no sean los modos de intra predicción que pertenecen al primer grupo de modos de intra predicción. Los modos de intra predicción del segundo modo de intra predicción se pueden reordenar con referencia al índice de modo de intra predicción. Asimismo, los modos de intra predicción del segundo modo de intra predicción se pueden reordenar con referencia al modo de intra predicción de la unidad de predicción de arriba e izquierda de la unidad de predicción actual así como el índice de modo de intra predicción.
Cuando no se encuentra disponible ninguno del modo de intra predicción de arriba y el modo de intra predicción izquierda, se añaden uno o más modos de intra predicción al primer grupo de modos de intra predicción. Por ejemplo, se puede añadir un modo de CC o un modo planar cuando se añade un modo de intra predicción. Se pueden añadir un modo de CC y un modo planar o vertical cuando se añaden dos modos de intra predicción. Un modo de CC, un modo planar, y uno del modo vertical y el modo horizontal se pueden añadir cuando se añaden tres modos de intra predicción.
Cuando se encuentra disponible uno del modo de intra predicción de arriba y el modo de intra predicción izquierda o cuando el modo de intra predicción de arriba y el modo de intra predicción izquierda son el mismo, se puede añadir uno o dos modos de intra predicción al primer grupo de modos de intra predicción. Por ejemplo, se puede añadir un modo de CC o un modo planar cuando se añade un modo de intra predicción. Cuando se añaden dos modos de intra predicción, los modos de intra predicción que se van a añadir varían de acuerdo con si el modo de intra predicción disponible es, o no, un modo de intra predicción direccional. Si el modo de intra predicción disponible es uno de los modos de intra predicción no direccional (es decir, un modo de CC o un modo planar), se pueden añadir un modo vertical y un modo horizontal o se pueden añadir el otro modo de intra predicción no direccional (es decir, un modo planar o un modo de CC) y un modo vertical. Si el modo de intra predicción disponible es un modo de intra
5
10
15
20
25
30
35
40
45
50
55
predicción direccional, se pueden añadir dos modos de intra predicción lo más cerca del modo de intra predicción disponible en ambos lados. Sin embargo, para un cierto modo (por ejemplo, el modo 6 o el modo 9) que tiene el modo de intra predicción adyacente en solo un lado del modo de intra predicción disponible, el modo de intra predicción adyacente (el modo 25 o el modo 33) y se puede añadir uno de un modo de CC y un modo planar.
Como alternativa, la unidad de descodificación de modo de predicción 251 puede descodificar el modo de intra predicción del modo de predicción actual tal como sigue. En primer lugar, se analiza sintácticamente una etiqueta (pred_flag) que indica si el modo de intra predicción de la unidad de predicción actual es igual a uno de los modos de intra predicción de las unidades de intra predicción previas (por ejemplo, las unidades de predicción de arriba e izquierda). Si la etiqueta (pred_flag) es 1, el modo de intra predicción de la unidad de predicción actual se determina usando el modo de intra predicción izquierda disponible y el modo de intra predicción de arriba disponible. Si la etiqueta (pred_flag) es 0, el modo de intra predicción de la unidad de predicción actual se determina usando la información de modo de predicción restante (rem_pred_mode). La información de modo de predicción restante (rem_pred_mode) indica el orden de los modos de intra predicción de la unidad de intra predicción actual de entre los modos de intra predicción disponibles que no sean el modo de intra predicción izquierda disponible y el modo de intra predicción de arriba disponible.
La unidad de generación de píxeles de referencia 252 genera píxeles de referencia usando el mismo procedimiento que se describe en la unidad de generación de píxeles de referencia 151 del aparato de codificación 100. Sin embargo, la unidad de generación de píxeles de referencia 252 puede generar de forma adaptativa los píxeles de referencia de acuerdo con el modo de intra predicción restablecido solo cuando los píxeles de referencia que se usan para generar un bloque de predicción y que se determinan mediante el modo de intra predicción no se encuentran disponibles.
La unidad de filtrado de píxeles de referencia 253 filtra de forma adaptativa los píxeles de referencia sobre la base del modo de intra predicción restablecido y un tamaño de la unidad de predicción actual. El procedimiento y la condición de filtrado y son los mismos que los de la unidad de filtrado de píxeles de referencia 152 del aparato de codificación 100.
La unidad de generación de bloques de predicción 254 genera un bloque de predicción usando los píxeles de referencia sobre la base del modo de intra predicción restablecido. Un procedimiento de generación del bloque de predicción es el mismo procedimiento que se usa en la unidad de generación de bloques de predicción 154 del aparato de codificación 100.
La unidad de transmisión de bloques de predicción 255 transmite el bloque de predicción que se recibe a partir del generador de bloques de predicción 254 al sumador 290.
La figura 7 es un diagrama de flujo que ilustra un procedimiento de descodificación en un modo de intra predicción de acuerdo con la presente invención.
En primer lugar, la información de intra predicción y las señales residuales se desmultiplexan a partir de un flujo de bits recibido en la etapa S100. La etapa S100 se realiza en la unidad de una unidad de codificación. La información de intra predicción se extrae a partir de una sintaxis de unidad de predicción en la unidad de codificación. Las señales residuales se extraen a partir de una sintaxis de unidad de transformada en la unidad de codificación.
El modo de intra predicción de una unidad de predicción actual se restablece usando la información de intra predicción que se obtiene a partir de la sintaxis de unidad de predicción en la etapa S110. La información de intra predicción incluye el indicador de grupo de modos de intra predicción (pred_mode) y el índice de modo de intra predicción. Si la información de intra predicción no incluye el índice de modo de intra predicción, la información de intra predicción se establece en 0. El indicador de grupo de modos de intra predicción indica el grupo de modos de intra predicción al cual pertenece el modo de intra predicción de la unidad de predicción actual. Si el número de los grupos de modos de intra predicción es de 2, el indicador de grupo de modos de intra predicción (pred_mode) puede ser una etiqueta de un bit. El número de los grupos de modos de intra predicción puede ser de 2 o 3.
La figura 8 es un diagrama de flujo que ilustra un procedimiento de restablecimiento de un modo de intra predicción de acuerdo con la presente invención. El número de modos de intra predicción que pertenecen al primer grupo de modos de intra predicción varía. Se describirá un caso en el que el número de los grupos de modos de intra predicción es de 2.
En primer lugar, un primer grupo de modos de intra predicción se construye usando los modos de intra predicción de las unidades de predicción adyacentes a la unidad de predicción actual en la etapa S111.
Por ejemplo, el primer grupo de modos de intra predicción está compuesto por los modos de intra predicción disponibles de las unidades de intra predicción de arriba y las de izquierda de la unidad de predicción actual. Si ambos de los modos de intra predicción de las unidades de intra predicción de arriba y las de izquierda se encuentran no disponibles, se puede añadir un modo de CC o un modo planar al primer grupo de modos de intra predicción. El primer grupo de modos de intra predicción puede incluir al menos un modo de intra predicción adicional que es un primer modo de intra predicción disponible que es encontrado cuando se recupera un modo de
5
10
15
20
25
30
35
40
45
50
intra predicción derecha de arriba, un modo de intra predicción izquierda de debajo, un modo de intra predicción izquierda de arriba de la unidad de predicción actual.
Cuando existe una pluralidad de unidades de predicción de arriba de la unidad de predicción actual, la pluralidad de unidades de predicción de arriba se exploran en una dirección previamente determinada (por ejemplo, de izquierda a derecha) para determinar el modo de intra predicción de una primera unidad de predicción disponible como un modo de intra predicción de arriba. Asimismo, cuando existe una pluralidad de unidades de predicción izquierda de la unidad de predicción actual, la pluralidad de unidades de predicción izquierda se exploran en una dirección previamente determinada (por ejemplo, de arriba abajo) para determinar el modo de intra predicción de una primera unidad de predicción disponible como un modo de intra predicción izquierda.
Si el modo de intra predicción disponible no es igual a uno de los modos de intra predicción admisibles de la unidad de predicción actual, el modo de intra predicción disponible se convierte en uno de los modos de intra predicción admisibles de la unidad de predicción actual.
Se determina si el modo de intra predicción de la unidad de predicción actual pertenece, o no, al primer grupo de modos de intra predicción, sobre la base del indicador de grupo de modos de intra predicción en la etapa S112.
Si el modo de intra predicción de la unidad de predicción actual pertenece al primer grupo de modos de intra predicción, se determina si el índice de modo de intra predicción existe, o no, en la etapa S113.
Si el índice de modo de intra predicción existe, el modo de intra predicción del primer grupo de modos de intra predicción que se corresponde con el índice de modo de intra predicción se determina como el modo de intra predicción de la unidad de predicción actual en la etapa S114.
Si el índice de modo de intra predicción no existe, el índice de modo de intra predicción se establece en 0 y el modo de intra predicción del primer grupo de modos de intra predicción que se corresponde con el índice de modo de intra predicción 0 se determina como el modo de intra predicción de la unidad de predicción actual en la etapa S115. Es decir, si el índice de modo de intra predicción no existe, solo se incluye un modo de intra predicción en el primer grupo de modos de intra predicción.
Si el modo de intra predicción de la unidad de predicción actual no pertenece al primer grupo de modos de intra predicción, el modo de intra predicción del segundo grupo de modos de intra predicción que se corresponde con el índice de modo de intra predicción se determina como el modo de intra predicción de la unidad de predicción actual en la etapa S116. El segundo grupo de modos de intra predicción incluye la totalidad de los modos de intra predicción que no sean los modos de intra predicción que pertenecen al primer grupo de modos de intra predicción. El índice de modo de intra predicción se puede asignar en el orden del número de modo del modo de intra predicción del segundo grupo de modos de intra predicción.
La figura 9 es un diagrama de flujo que ilustra otro procedimiento de restablecimiento del modo de intra predicción de acuerdo con la presente invención. El número de modos de intra predicción que pertenecen a un primer grupo de modos de intra predicción está fijado.
En primer lugar, un primer grupo de modos de intra predicción se construye usando los modos de intra predicción de las unidades de predicción adyacentes a la unidad de predicción actual en la etapa S211.
Cuando el primer grupo de modos de intra predicción incluye dos modos de intra predicción, el primer grupo de modos de intra predicción se construye tal como sigue.
Se determina si los modos de intra predicción de las unidades de intra predicción de arriba y las de izquierda de la unidad de predicción actual se encuentran, o no, disponibles. Si el modo de intra predicción disponible no es uno de los modos de intra predicción admisibles de la unidad de predicción actual, el modo de intra predicción disponible se convierte en uno de los modos de intra predicción admisibles. Cuando se encuentran disponibles ambos de los modos de intra predicción de las unidades de intra predicción de arriba y las de izquierda y no son el mismo, el primer grupo de modos de intra predicción está compuesto por los modos de intra predicción de las unidades de intra predicción de arriba y las de izquierda. Cuando solo se encuentra disponible uno de los modos de intra predicción de las unidades de intra predicción de arriba y las de izquierda o cuando los modos de intra predicción de las unidades de intra predicción de arriba y las de izquierda son el mismo, el primer grupo de modos de intra predicción está compuesto por el modo de intra predicción disponible y un modo de intra predicción adicional. Si el modo de intra predicción disponible no es un modo de CC, el modo de intra predicción adicional puede ser un modo de CC. Si el modo de intra predicción disponible es un modo de CC, el modo de intra predicción adicional puede ser un modo planar o un modo vertical.
Cuando el primer grupo de modos de intra predicción incluye tres modos de intra predicción, el primer grupo de modos de intra predicción se construye tal como sigue.
5
10
15
20
25
30
35
40
45
50
55
Se determina si los modos de intra predicción de las unidades de intra predicción de arriba y las de izquierda de la unidad de predicción actual se encuentran, o no, disponibles. Si el modo de intra predicción disponible no es uno de los modos de intra predicción admisibles de la unidad de predicción actual, el modo de intra predicción disponible se puede convertir en uno de los modos de intra predicción admisibles.
Cuando ambos de los modos de intra predicción de las unidades de intra predicción de arriba y las de izquierda se encuentran disponibles y no son el mismo uno que otro, el primer grupo de modos de intra predicción está compuesto por los dos modos de intra predicción disponibles y un modo de intra predicción adicional. El modo de intra predicción adicional es diferente de los dos modos de intra predicción disponibles y es uno de un modo vertical, un modo horizontal y un modo de CC. El modo de intra predicción adicional es el primer modo de intra predicción que se puede añadir en el orden del modo de CC, el modo vertical y el modo horizontal.
Cuando solo se encuentra disponible uno de los modos de intra predicción de las unidades de intra predicción de arriba y las de izquierda o cuando los modos de intra predicción de las unidades de intra predicción de arriba y las de izquierda son el mismo, el primer grupo de modos de intra predicción está compuesto por el modo de intra predicción disponible y dos modos de intra predicción adicionales. Los dos modos de intra predicción adicionales se determinan de forma adaptativa de acuerdo con los modos de intra predicción disponibles y un tamaño de la unidad de predicción. Si el tamaño de la unidad de predicción es igual a o más pequeño que un tamaño previamente determinado y el modo de intra predicción disponible es un modo direccional, dos modos de intra predicción que tienen una dirección lo más cerca de la dirección del modo de intra predicción disponible se seleccionan como los dos modos de intra predicción adicionales. Sin embargo, si el modo de intra predicción disponible es el modo 6 o 9, el modo 6 o 9 se selecciona como el otro modo de intra predicción adicional. Si el modo de intra predicción disponible es un modo de intra predicción no direccional, los dos modos de intra predicción adicionales son un modo vertical y un modo horizontal, o el otro modo de intra predicción no direccional y un modo vertical.
Cuando la totalidad de los modos de intra predicción de las unidades de intra predicción de arriba y las de izquierda se encuentran no disponibles, el primer grupo de modos de intra predicción está compuesto por tres modos de intra predicción adicionales. Los tres modos de intra predicción adicionales pueden ser un modo de CC, un modo vertical y un modo horizontal, o un modo de CC, un modo planar y un modo vertical.
Cuando existe una pluralidad de unidades de predicción de arriba de la unidad de predicción actual, la pluralidad de unidades de predicción de arriba se exploran en una dirección previamente determinada (por ejemplo, de izquierda a derecha) para determinar el modo de intra predicción de una primera unidad de predicción disponible como un modo de intra predicción de arriba. Asimismo, cuando existe una pluralidad de unidades de predicción izquierda de la unidad de predicción actual, la pluralidad de unidades de predicción izquierda se exploran en una dirección previamente determinada (por ejemplo, de arriba abajo) para determinar el modo de intra predicción de una primera unidad de predicción disponible como un modo de intra predicción izquierda.
A continuación, se determina si el modo de intra predicción de la unidad de predicción actual pertenece, o no, al primer grupo de modos de intra predicción, sobre la base del indicador de grupo de modos de intra predicción en la etapa S212.
Si el modo de intra predicción de la unidad de predicción actual pertenece al primer grupo de modos de intra predicción, el modo de intra predicción del primer grupo de modos de intra predicción que se corresponde con el índice de modo de intra predicción se determina como el modo de intra predicción de la unidad de predicción actual en la etapa S213.
Si el modo de intra predicción de la unidad de predicción actual no pertenece al primer grupo de modos de intra predicción, el modo de intra predicción del segundo grupo de modos de intra predicción que se corresponde con el índice de modo de intra predicción se determina como el modo de intra predicción de la unidad de predicción actual en la etapa S214. El segundo grupo de modos de intra predicción incluye la totalidad de los modos de intra predicción que no sean los modos de intra predicción que pertenecen al primer grupo de modos de intra predicción.
El índice del candidato de modo de intra predicción en el segundo grupo de modos de intra predicción se asigna en el orden del número de modo del modo de intra predicción del segundo grupo de modos de intra predicción.
A continuación, los píxeles de referencia se generan de forma adaptativa sobre la base del modo de intra predicción restablecido de la unidad de predicción actual en la etapa S120.
Cuando hay píxeles de referencia disponibles en solo un lado de la posición del píxel de referencia no disponible, los píxeles de referencia se generan al copiar el valor de un píxel disponible lo más cerca del píxel no disponible. Como alternativa, los píxeles de referencia se generan usando dos píxeles disponibles lo más cerca del píxel no disponible. Cuando el píxel de referencia no disponible existe entre los píxeles disponibles, el píxel de referencia se genera usando dos píxeles de referencia disponibles lo más cerca del píxel no disponible en ambos lados. El valor del píxel de referencia generado puede ser un promedio de los dos píxeles de referencia disponibles lo más cerca del píxel no disponible en ambos lados. Se puede usar un procedimiento de interpolación lineal para generar los píxeles de referencia cuando una diferencia entre los dos píxeles de referencia disponibles es grande.
5
10
15
20
25
30
35
40
45
50
55
A continuación, los píxeles de referencia se filtran de forma adaptativa sobre la base del modo de intra predicción restablecido (S130). Cuando el modo de intra predicción restablecido es un modo vertical (el modo 0), un modo horizontal (el modo 1) o un modo de CC (el modo 2), los píxeles de referencia no se filtran. En un modo de intra predicción direccional que no sea el modo vertical y el modo horizontal, los píxeles de referencia se filtran de forma adaptativa. El píxel de referencia más a la derecha de los píxeles de referencia de arriba que están situados en (x = 2 N - 1, y = -1) y el píxel de referencia más bajo de los píxeles de referencia izquierdos que están situados en (x = -1, y = 2 N - 1) no se filtran. Los píxeles de referencia restantes se filtran usando dos píxeles de referencia adyacentes.
Se aplica un filtro de paso bajo para suavizar la diferencia entre píxeles de referencia adyacentes. El filtro de paso bajo puede ser un filtro de 3 coeficientes [1,2, 1] o un filtro de 5 coeficientes [1, 2, 4, 2, 1].
Un filtro se aplica de forma adaptativa a los píxeles de referencia de acuerdo con el tamaño de la unidad de predicción en los modos de intra predicción direccionales que existen entre un modo horizontal o vertical y el modo de intra predicción que tiene una dirección de 45° con referencia a la dirección horizontal o vertical. El filtro se puede aplicar de forma adaptativa a los modos que existen entre el modo horizontal y los modos que tienen una dirección de 45° con referencia al modo horizontal, o los modos que existen entre el modo vertical y los modos que tienen una dirección de 45° con referencia al modo vertical de acuerdo con el tamaño de la unidad de predicción. El número previamente determinado se puede aumentar a medida que aumenta el tamaño de la unidad de predicción. Por ejemplo, el filtro se aplica al modo de predicción que tiene una dirección de 45° con referencia a la dirección horizontal o vertical y un primer número de modos de intra predicción lo más cerca del modo de predicción que tiene una dirección de 45° con referencia a la dirección horizontal o vertical para una unidad de predicción de 8 * 8. Y el filtro se aplica al modo de predicción que tiene una dirección de 45° con referencia a la dirección horizontal o vertical y un segundo número de modos de intra predicción lo más cerca del modo de predicción que tiene una dirección de 45° con referencia a la dirección horizontal o vertical para una unidad de predicción de 16 * 16. Y el filtro se aplica al modo de predicción que tiene una dirección de 45° con referencia a la dirección horizontal o vertical y un tercer número de modos de intra predicción lo más cerca del modo de predicción que tiene una dirección de 45° con referencia a la dirección horizontal o vertical para una unidad de predicción de 32 * 32. El primer número es igual a o más pequeño que el segundo número, y el segundo número es igual a o más pequeño que el tercer número.
A continuación, un bloque de predicción se genera usando los píxeles de referencia de acuerdo con el modo de intra predicción restablecido en la etapa S140. El procedimiento de generación de un bloque de predicción es el mismo que el de la unidad de generación de bloques de intra predicción 254 de la figura 6.
Las señales residuales se descodifican por entropía en la etapa S150.
Las señales residuales se exploran de forma inversa en la etapa S160. Es decir, las señales residuales se convierten en un bloque de transformada cuantificado bidimensional. Un patrón de exploración inversa se selecciona de entre una pluralidad de patrones de exploración inversa para esta conversión. El patrón de exploración inversa se determina de acuerdo con el modo de intra predicción. Si el tamaño de la unidad de transformada es más grande que un tamaño previamente determinado, las señales residuales se exploran de forma inversa en la unidad del subconjunto y se genera una unidad de transformada cuantificada. Si el tamaño de la unidad de transformada es igual al tamaño previamente determinado, las señales residuales se exploran de forma inversa en la unidad de la unidad de transformada y se genera una unidad de transformada cuantificada.
El bloque de transformada cuantificado bidimensional se cuantifica de forma inversa en la etapa S170. El predictor de tamaño de paso de cuantificación de la unidad de codificación actual se determina para la cuantificación inversa. El predictor de tamaño de paso de cuantificación se determina usando el mismo procedimiento que el de la unidad de cuantificación inversa 230 de la figura 5. El predictor de tamaño de paso de cuantificación determinado y un tamaño de paso de cuantificación residual recibido se suman para generar un tamaño de paso de cuantificación a aplicar al bloque de transformada. Y los coeficientes de cuantificación inversa se restablecen usando la matriz de cuantificación que se determina mediante el tamaño de paso de cuantificación.
A continuación, el bloque cuantificado de forma inversa se transforma de forma inversa en la etapa S180. Una matriz de transformada inversa se puede determinar de forma adaptativa de acuerdo con el modo de intra predicción restablecido. La unidad de transformada se puede transformar de forma inversa mediante unas matrices de transformada unidimensionales (1D) horizontal y vertical. En la intra predicción, hay una alta posibilidad de que las señales residuales tengan una directividad vertical cuando el modo de intra predicción sea horizontal. Por lo tanto, la matriz de números enteros basada en DCT se aplica a la dirección vertical, y la matriz de números enteros basada en DST o en KTL se aplica a la dirección horizontal. Cuando el modo de intra predicción es vertical, una matriz de números enteros basada en DST o en KTL inversa se aplica a la dirección vertical, y una matriz de números enteros basada en DCT inversa se aplica a la dirección horizontal. Cuando el modo de intra predicción es un modo de CC, una matriz de números enteros basada en DCT inversa se aplica en ambas de las direcciones.
El bloque de predicción generado y el bloque transformado de forma inversa se suman para generar una imagen reconstruida en la etapa S190. Las señales residuales restablecidas y las señales de predicción restablecidas se pueden sumar en la unidad de la unidad de codificación.
Aunque la invención se ha mostrado y descrito con referencia a determinadas realizaciones a modo de ejemplo de la misma, los expertos en la técnica entenderán que pueden realizarse en las mismas diversos cambios en forma y detalles sin apartarse del alcance de la invención tal como se define en las reivindicaciones adjuntas.
Claims (2)
- 51015202530REIVINDICACIONES1. Un procedimiento de restablecimiento de un modo de intra predicción, que comprende:restablecer un indicador de primer grupo de modos de intra predicción y un índice de modo de predicción de una unidad de predicción actual;generar un primer grupo de modos de intra predicción usando unos modos de intra predicción disponibles de una unidad de predicción izquierda y una unidad de predicción de arriba vecina de la unidad de predicción actual, en el que el número de modos de intra predicción que pertenecen al primer grupo de modos de intra predicción se fija en tres;determinar un modo de intra predicción que esté incluido en el primer grupo de modos de intra predicción e indicado por el índice de modo de intra predicción como el modo de intra predicción de la unidad de predicción actual cuando el indicador de grupo de modos de intra predicción indica que el modo de intra predicción de la unidad de predicción actual pertenece al primer grupo de modos de intra predicción; ydeterminar un modo de intra predicción que esté incluido en un segundo grupo de modos de intra predicción e indicado por el índice de modo de intra predicción como el modo de intra predicción de la unidad de predicción actual cuando el indicador de grupo de modos de intra predicción indica que el modo de intra predicción de la unidad de predicción actual no pertenece al primer grupo de modos de intra predicción,en el que, cuando solo se encuentra disponible un modo de intra predicción de entre los modos de intra predicción de la unidad de intra predicción izquierda y la unidad de intra predicción de arriba, el primer grupo de modos de intra predicción incluye el modo de intra predicción disponible de las respectivas unidades de predicción y dos modos de intra predicción adicionales que se determinan de tal manera que, cuando el modo de intra predicción disponible es un modo de intra predicción no direccional, los dos modos de intra predicción adicionales incluyen otro modo de intra predicción no direccional y un modo vertical,en el que, cuando el modo de intra predicción disponible es un modo de CC, los dos modos de intra predicción adicionales incluyen un modo planar y el modo vertical, yen el que, cuando el modo de intra predicción disponible es el modo planar, los dos modos de intra predicción adicionales incluyen el modo de CC y el modo vertical.
- 2. El procedimiento de la reivindicación 1, en el que el segundo grupo de modos de intra predicción incluye unos modos de intra predicción que no sean los modos de intra predicción que pertenecen al primer grupo de modos de intra predicción.
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR20100079529 | 2010-08-17 | ||
KR20100079529 | 2010-08-17 | ||
KR1020110064301A KR20120058384A (ko) | 2010-08-17 | 2011-06-30 | 인트라 프리딕션 방법 |
KR20110064301 | 2011-06-30 |
Publications (1)
Publication Number | Publication Date |
---|---|
ES2670324T3 true ES2670324T3 (es) | 2018-05-30 |
Family
ID=45605532
Family Applications (11)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
ES16184578T Active ES2696931T3 (es) | 2010-08-17 | 2011-08-12 | Procedimiento para codificar un modo de intrapredicción |
ES16184582.1T Active ES2693903T3 (es) | 2010-08-17 | 2011-08-12 | Aparato para descodificar un modo de intrapredicción |
ES16184616.7T Active ES2670327T3 (es) | 2010-08-17 | 2011-08-12 | Procedimiento de restablecimiento de un modo de intra predicción |
ES16184574T Active ES2696898T3 (es) | 2010-08-17 | 2011-08-12 | Procedimiento para codificar un modo de intrapredicción |
ES16184586.2T Active ES2693905T3 (es) | 2010-08-17 | 2011-08-12 | Aparato para descodificar un modo de intrapredicción |
ES16184568.0T Active ES2670325T3 (es) | 2010-08-17 | 2011-08-12 | Procedimiento de codificación de un modo de intra predicción |
ES16184572.2T Active ES2670326T3 (es) | 2010-08-17 | 2011-08-12 | Procedimiento de codificación de un modo de intra predicción |
ES11818362.3T Active ES2602779T3 (es) | 2010-08-17 | 2011-08-12 | Procedimiento de descodificación de intra-predicciones |
ES16184557.3T Active ES2670324T3 (es) | 2010-08-17 | 2011-08-12 | Procedimiento de restablecimiento de un modo de intra predicción |
ES16184577.1T Active ES2685669T3 (es) | 2010-08-17 | 2011-08-12 | Aparato para codificar un modo de intrapredicción |
ES16184569.8T Active ES2685668T3 (es) | 2010-08-17 | 2011-08-12 | Aparato para codificar un modo de intrapredicción |
Family Applications Before (8)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
ES16184578T Active ES2696931T3 (es) | 2010-08-17 | 2011-08-12 | Procedimiento para codificar un modo de intrapredicción |
ES16184582.1T Active ES2693903T3 (es) | 2010-08-17 | 2011-08-12 | Aparato para descodificar un modo de intrapredicción |
ES16184616.7T Active ES2670327T3 (es) | 2010-08-17 | 2011-08-12 | Procedimiento de restablecimiento de un modo de intra predicción |
ES16184574T Active ES2696898T3 (es) | 2010-08-17 | 2011-08-12 | Procedimiento para codificar un modo de intrapredicción |
ES16184586.2T Active ES2693905T3 (es) | 2010-08-17 | 2011-08-12 | Aparato para descodificar un modo de intrapredicción |
ES16184568.0T Active ES2670325T3 (es) | 2010-08-17 | 2011-08-12 | Procedimiento de codificación de un modo de intra predicción |
ES16184572.2T Active ES2670326T3 (es) | 2010-08-17 | 2011-08-12 | Procedimiento de codificación de un modo de intra predicción |
ES11818362.3T Active ES2602779T3 (es) | 2010-08-17 | 2011-08-12 | Procedimiento de descodificación de intra-predicciones |
Family Applications After (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
ES16184577.1T Active ES2685669T3 (es) | 2010-08-17 | 2011-08-12 | Aparato para codificar un modo de intrapredicción |
ES16184569.8T Active ES2685668T3 (es) | 2010-08-17 | 2011-08-12 | Aparato para codificar un modo de intrapredicción |
Country Status (19)
Country | Link |
---|---|
US (4) | US9491478B2 (es) |
EP (11) | EP3125555B1 (es) |
JP (12) | JP5982612B2 (es) |
KR (16) | KR101854489B1 (es) |
CN (12) | CN103168472B (es) |
CY (5) | CY1118382T1 (es) |
DK (5) | DK2608541T3 (es) |
ES (11) | ES2696931T3 (es) |
HR (5) | HRP20170053T1 (es) |
HU (9) | HUE040601T2 (es) |
LT (5) | LT3125552T (es) |
NO (1) | NO3125552T3 (es) |
PL (11) | PL3125552T3 (es) |
PT (5) | PT3125555T (es) |
RS (5) | RS57112B1 (es) |
SI (5) | SI2608541T1 (es) |
SM (1) | SMT201600449B (es) |
TR (2) | TR201807094T4 (es) |
WO (1) | WO2012023762A2 (es) |
Families Citing this family (61)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20110113561A (ko) | 2010-04-09 | 2011-10-17 | 한국전자통신연구원 | 적응적인 필터를 이용한 인트라 예측 부호화/복호화 방법 및 그 장치 |
SG10201503180SA (en) * | 2010-04-23 | 2015-06-29 | M&K Holdings Inc | Apparatus For Encoding A Moving Picture |
KR101854489B1 (ko) * | 2010-08-17 | 2018-05-03 | 엠앤케이홀딩스 주식회사 | 인트라 예측 모드 복호화 방법 |
US11284072B2 (en) | 2010-08-17 | 2022-03-22 | M&K Holdings Inc. | Apparatus for decoding an image |
US9008175B2 (en) | 2010-10-01 | 2015-04-14 | Qualcomm Incorporated | Intra smoothing filter for video coding |
CN107257465B (zh) | 2010-12-08 | 2020-08-04 | Lg 电子株式会社 | 由编码装置和解码装置执行的内预测方法及可读存储介质 |
US20120163457A1 (en) * | 2010-12-28 | 2012-06-28 | Viktor Wahadaniah | Moving picture decoding method, moving picture coding method, moving picture decoding apparatus, moving picture coding apparatus, and moving picture coding and decoding apparatus |
CN102595118B (zh) * | 2011-01-14 | 2015-04-08 | 华为技术有限公司 | 一种编解码中的预测方法和预测器 |
CN102595124B (zh) | 2011-01-14 | 2014-07-16 | 华为技术有限公司 | 图像编码解码方法、处理图像数据方法及其设备 |
WO2012134046A2 (ko) * | 2011-04-01 | 2012-10-04 | 주식회사 아이벡스피티홀딩스 | 동영상의 부호화 방법 |
DK2704435T3 (da) * | 2011-04-25 | 2019-05-06 | Lg Electronics Inc | Fremgangsmåde til interforudsigelse, samt koder og afkoder, som anvender denne |
KR101383775B1 (ko) | 2011-05-20 | 2014-04-14 | 주식회사 케이티 | 화면 내 예측 방법 및 장치 |
RU2660640C1 (ru) * | 2011-06-28 | 2018-07-06 | Самсунг Электроникс Ко., Лтд. | Способ и устройство для кодирования видео, а также способ и устройство для декодирования видео, сопровождаемого внутренним прогнозированием |
GB2494468B (en) | 2011-09-12 | 2014-01-15 | Canon Kk | Method and device for encoding or decoding information representing prediction modes |
WO2013062194A1 (ko) | 2011-10-24 | 2013-05-02 | (주)인터앱 | 복원 블록을 생성하는 방법 및 장치 |
MX338990B (es) | 2011-10-24 | 2016-05-09 | Infobridge Pte Ltd | Aparato para la decodificacion de imagenes. |
DK2942954T3 (da) | 2011-10-24 | 2020-08-24 | Innotive Ltd | Billedafkodningsindretning |
US9154796B2 (en) * | 2011-11-04 | 2015-10-06 | Qualcomm Incorporated | Intra-mode video coding |
KR20130049524A (ko) * | 2011-11-04 | 2013-05-14 | 오수미 | 인트라 예측 블록 생성 방법 |
US9210438B2 (en) | 2012-01-20 | 2015-12-08 | Sony Corporation | Logical intra mode naming in HEVC video coding |
EP3512197B8 (en) | 2012-01-20 | 2020-10-21 | Dolby Laboratories Licensing Corporation | Intra prediction mode mapping method |
GB2501535A (en) * | 2012-04-26 | 2013-10-30 | Sony Corp | Chrominance Processing in High Efficiency Video Codecs |
JP5972687B2 (ja) * | 2012-07-02 | 2016-08-17 | 株式会社Nttドコモ | 動画像予測符号化装置、動画像予測符号化方法、動画像予測符号化プログラム、動画像予測復号装置、動画像予測復号方法及び動画像予測復号プログラム |
EP2870755A1 (en) * | 2012-07-05 | 2015-05-13 | Thomson Licensing | Video coding and decoding method with adaptation of coding modes |
JP5798539B2 (ja) * | 2012-09-24 | 2015-10-21 | 株式会社Nttドコモ | 動画像予測符号化装置、動画像予測符号化方法、動画像予測復号装置及び動画像予測復号方法 |
JP2014082639A (ja) * | 2012-10-16 | 2014-05-08 | Canon Inc | 画像符号化装置およびその方法 |
US9426473B2 (en) * | 2013-02-01 | 2016-08-23 | Qualcomm Incorporated | Mode decision simplification for intra prediction |
JP6212890B2 (ja) * | 2013-03-22 | 2017-10-18 | 富士通株式会社 | 動画像符号化装置、動画像符号化方法、及び動画像符号化プログラム |
KR102294830B1 (ko) | 2014-01-03 | 2021-08-31 | 삼성전자주식회사 | 디스플레이 구동 장치 및 이미지 데이터 처리 장치의 동작 방법 |
CN105338365B (zh) * | 2014-05-27 | 2018-11-20 | 富士通株式会社 | 视频编码方法和视频编码装置 |
US10856009B2 (en) | 2014-09-04 | 2020-12-01 | Mediatek Inc. | Method of block vector clipping and coding for screen content coding and video coding |
CN106797475B (zh) * | 2014-10-08 | 2019-12-10 | 联发科技股份有限公司 | 视频编码方法 |
CN106375768B (zh) * | 2015-07-23 | 2019-05-17 | 中国科学院信息工程研究所 | 基于帧内预测模式校准的视频隐写分析方法 |
JP5933086B2 (ja) * | 2015-08-21 | 2016-06-08 | 株式会社Nttドコモ | 動画像予測符号化装置、動画像予測符号化方法、動画像予測復号装置及び動画像予測復号方法 |
CN105354526B (zh) * | 2015-09-28 | 2018-03-20 | 西安中颖电子有限公司 | 提高一维条码解码效率的方法以及一维条码的解码系统 |
JP6088689B2 (ja) * | 2016-04-28 | 2017-03-01 | 株式会社Nttドコモ | 動画像予測符号化装置、動画像予測符号化方法、動画像予測復号装置及び動画像予測復号方法 |
JP6740534B2 (ja) * | 2016-07-04 | 2020-08-19 | 日本放送協会 | 符号化装置、復号装置及びプログラム |
US11438582B2 (en) * | 2016-08-03 | 2022-09-06 | Kt Corporation | Video signal processing method and device for performing intra-prediction for an encoding/decoding target block |
CN114286091B (zh) * | 2016-09-05 | 2024-06-04 | 罗斯德尔动力有限责任公司 | 图像编码和解码方法、比特流存储介质及数据传输方法 |
EP3516876A4 (en) * | 2016-10-14 | 2020-07-22 | MediaTek Inc. | METHOD AND DEVICE FOR SMOOTHING A FILTER FOR THE REMOVAL OF RING ARTIFACTS |
WO2018124653A1 (ko) * | 2016-12-27 | 2018-07-05 | 삼성전자 주식회사 | 인트라 예측에서 참조 샘플을 필터링하는 방법 및 장치 |
US10863198B2 (en) | 2017-01-03 | 2020-12-08 | Lg Electronics Inc. | Intra-prediction method and device in image coding system for 360-degree video |
JP6242517B2 (ja) * | 2017-02-03 | 2017-12-06 | 株式会社Nttドコモ | 動画像予測復号装置及び動画像予測復号方法 |
EP4114007A1 (en) | 2017-07-10 | 2023-01-04 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Bit-plane coding |
JP6408681B2 (ja) * | 2017-11-07 | 2018-10-17 | 株式会社Nttドコモ | 動画像予測復号方法 |
CN116389733A (zh) * | 2017-12-22 | 2023-07-04 | 数码士有限公司 | 视频信号处理方法和设备 |
WO2019199093A1 (ko) * | 2018-04-11 | 2019-10-17 | 엘지전자 주식회사 | 인트라 예측 모드 기반 영상 처리 방법 및 이를 위한 장치 |
SG11202009345QA (en) * | 2018-05-10 | 2020-10-29 | Samsung Electronics Co Ltd | Video encoding method and apparatus, and video decoding method and apparatus |
CN110650337B (zh) * | 2018-06-26 | 2022-04-01 | 中兴通讯股份有限公司 | 一种图像编码方法、解码方法、编码器、解码器及存储介质 |
CN110876057B (zh) * | 2018-08-29 | 2023-04-18 | 华为技术有限公司 | 一种帧间预测的方法及装置 |
CN118042126A (zh) * | 2018-09-13 | 2024-05-14 | 弗劳恩霍夫应用研究促进协会 | 用于预测图片的块的方法、装置和存储介质 |
JP6602931B2 (ja) * | 2018-09-20 | 2019-11-06 | 株式会社Nttドコモ | 動画像予測復号方法 |
RU2768956C1 (ru) | 2018-09-28 | 2022-03-25 | ДжейВиСиКЕНВУД Корпорейшн | Устройство декодирования изображения, способ декодирования изображения, устройство кодирования изображения и способ кодирования изображения |
EP3860122B1 (en) | 2018-09-28 | 2024-03-27 | JVCKenwood Corporation | Image decoding device, image decoding method, and image decoding program |
WO2020111982A1 (en) | 2018-11-26 | 2020-06-04 | Huawei Technologies Co., Ltd. | Method of intra predicting a block of a picture |
EP3697094A1 (en) * | 2019-02-13 | 2020-08-19 | InterDigital VC Holdings, Inc. | Intra prediction mode extension |
CN111193934A (zh) * | 2020-04-10 | 2020-05-22 | 杭州雄迈集成电路技术股份有限公司 | 一种帧内预测方法、系统、计算机设备及可读存储介质 |
JP7104101B2 (ja) * | 2020-06-24 | 2022-07-20 | 日本放送協会 | 符号化装置、復号装置及びプログラム |
CN114466238B (zh) * | 2020-11-09 | 2023-09-29 | 华为技术有限公司 | 帧解复用方法、电子设备及存储介质 |
CN114554195B (zh) * | 2020-11-25 | 2024-06-25 | 腾讯科技(深圳)有限公司 | 图像处理方法、设备及存储介质 |
WO2024080706A1 (ko) * | 2022-10-10 | 2024-04-18 | 엘지전자 주식회사 | 영상 인코딩/디코딩 방법 및 장치, 그리고 비트스트림을 저장한 기록 매체 |
Family Cites Families (85)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3835207B2 (ja) * | 2001-06-27 | 2006-10-18 | ソニー株式会社 | 試着画像提供システム及び試着画像提供方法、試着画像生成装置及び試着画像生成方法 |
US7289672B2 (en) * | 2002-05-28 | 2007-10-30 | Sharp Laboratories Of America, Inc. | Methods and systems for image intra-prediction mode estimation |
US7236524B2 (en) * | 2002-05-28 | 2007-06-26 | Sharp Laboratories Of America, Inc. | Methods and systems for image intra-prediction mode communication |
US20030231795A1 (en) * | 2002-06-12 | 2003-12-18 | Nokia Corporation | Spatial prediction based intra-coding |
JP4490261B2 (ja) * | 2002-06-11 | 2010-06-23 | ノキア コーポレイション | イントラ符号化に基づく空間予測 |
KR100750110B1 (ko) * | 2003-04-22 | 2007-08-17 | 삼성전자주식회사 | 4×4인트라 휘도 예측 모드 결정방법 및 장치 |
KR100579542B1 (ko) * | 2003-07-29 | 2006-05-15 | 삼성전자주식회사 | 블럭 간의 상관성을 고려한 움직임 추정 장치 및 방법 |
KR100982514B1 (ko) * | 2003-11-14 | 2010-09-16 | 삼성전자주식회사 | 영상의 인트라 예측 부호화 방법 및 그 장치 |
KR20050121627A (ko) | 2004-06-22 | 2005-12-27 | 삼성전자주식회사 | 동영상 코덱의 필터링 방법 및 필터링 장치 |
CA2573990A1 (en) * | 2004-07-15 | 2006-02-23 | Qualcomm Incorporated | H.264 spatial error concealment based on the intra-prediction direction |
CN100455021C (zh) * | 2004-09-30 | 2009-01-21 | 华为技术有限公司 | 帧内预测模式的选择方法 |
US8571100B2 (en) * | 2004-11-04 | 2013-10-29 | Thomson Licensing | Fast intra mode prediction for a video encoder |
KR100679025B1 (ko) * | 2004-11-12 | 2007-02-05 | 삼성전자주식회사 | 다 계층 기반의 인트라 예측 방법, 및 그 방법을 이용한비디오 코딩 방법 및 장치 |
TWI266539B (en) * | 2005-01-13 | 2006-11-11 | Via Tech Inc | Decoding device with multi-buffers |
JP2006246431A (ja) * | 2005-02-07 | 2006-09-14 | Matsushita Electric Ind Co Ltd | 画像符号化装置および画像符号化方法 |
CN100348051C (zh) * | 2005-03-31 | 2007-11-07 | 华中科技大学 | 一种增强型帧内预测模式编码方法 |
JP4722125B2 (ja) * | 2005-04-01 | 2011-07-13 | パナソニック株式会社 | 画像復号化装置及び画像復号化方法 |
KR100739714B1 (ko) * | 2005-07-06 | 2007-07-13 | 삼성전자주식회사 | 인트라 예측 모드 결정 방법 및 장치 |
US20080165849A1 (en) * | 2005-07-22 | 2008-07-10 | Mitsubishi Electric Corporation | Image encoder and image decoder, image encoding method and image decoding method, image encoding program and image decoding program, and computer readable recording medium recorded with image encoding program and computer readable recording medium recorded with image decoding program |
US20080137744A1 (en) * | 2005-07-22 | 2008-06-12 | Mitsubishi Electric Corporation | Image encoder and image decoder, image encoding method and image decoding method, image encoding program and image decoding program, and computer readable recording medium recorded with image encoding program and computer readable recording medium recorded with image decoding program |
US20090123066A1 (en) * | 2005-07-22 | 2009-05-14 | Mitsubishi Electric Corporation | Image encoding device, image decoding device, image encoding method, image decoding method, image encoding program, image decoding program, computer readable recording medium having image encoding program recorded therein, |
US20080130990A1 (en) * | 2005-07-22 | 2008-06-05 | Mitsubishi Electric Corporation | Image encoder and image decoder, image encoding method and image decoding method, image encoding program and image decoding program, and computer readable recording medium recorded with image encoding program and computer readable recording medium recorded with image decoding program |
US20080123947A1 (en) * | 2005-07-22 | 2008-05-29 | Mitsubishi Electric Corporation | Image encoding device, image decoding device, image encoding method, image decoding method, image encoding program, image decoding program, computer readable recording medium having image encoding program recorded therein |
US20080130989A1 (en) * | 2005-07-22 | 2008-06-05 | Mitsubishi Electric Corporation | Image encoder and image decoder, image encoding method and image decoding method, image encoding program and image decoding program, and computer readable recording medium recorded with image encoding program and computer readable recording medium recorded with image decoding program |
KR100727990B1 (ko) * | 2005-10-01 | 2007-06-13 | 삼성전자주식회사 | 영상의 인트라 예측 부호화 방법 및 그 방법을 사용하는부호화 장치 |
KR100739790B1 (ko) * | 2006-02-02 | 2007-07-13 | 삼성전자주식회사 | 인트라 예측 모드 결정 방법 및 장치 |
CN101385356B (zh) * | 2006-02-17 | 2011-01-19 | 汤姆森许可贸易公司 | 采用帧内预测模式的图像编码方法 |
KR20060027842A (ko) | 2006-02-24 | 2006-03-28 | 삼성전자주식회사 | 4×4인트라 휘도 예측 모드 결정방법 및 장치 |
US8000390B2 (en) * | 2006-04-28 | 2011-08-16 | Sharp Laboratories Of America, Inc. | Methods and systems for efficient prediction-mode selection |
BRPI0621935A2 (pt) * | 2006-07-28 | 2016-09-13 | Toshiba Kk Toshiba Corp | método e aparelho para codificar e decodificar imagem |
US8976870B1 (en) * | 2006-08-30 | 2015-03-10 | Geo Semiconductor Inc. | Block and mode reordering to facilitate parallel intra prediction and motion vector prediction |
RU2009116239A (ru) * | 2006-09-29 | 2010-11-10 | Томсон Лайсенсинг (Fr) | Геометрическое внутреннее предсказание |
BRPI0717639A2 (pt) * | 2006-10-30 | 2013-11-12 | Nippon Telegraph & Telephone | Método de geração de informações de referência preditas, métodos de codificação de decodificação de vídeo, aparelhos destinados aos mesmos, programas destinados aos mesmos, e mídias de armazenamento que armazenam os programas |
KR100856392B1 (ko) * | 2006-11-08 | 2008-09-04 | 한국전자통신연구원 | 현재 영상의 복원영역을 참조하는 동영상 부호화/복호화장치 및 그 방법 |
JPWO2008084817A1 (ja) * | 2007-01-09 | 2010-05-06 | 株式会社東芝 | 画像符号化と復号化の方法及び装置 |
JP4254867B2 (ja) | 2007-01-31 | 2009-04-15 | ソニー株式会社 | 情報処理装置および方法、プログラム、並びに記録媒体 |
WO2008130367A1 (en) * | 2007-04-19 | 2008-10-30 | Thomson Licensing | Adaptive reference picture data generation for intra prediction |
CN101690235B (zh) * | 2007-06-29 | 2013-05-01 | 夏普株式会社 | 图像编码装置、图像编码方法、图像译码装置、图像译码方法、程序以及记录介质 |
KR101479263B1 (ko) * | 2007-07-09 | 2015-01-06 | 삼성전자주식회사 | 이동 통신 시스템에서 적응적 피어투피어 통신 선택 방법 및 장치 |
TW200910971A (en) * | 2007-08-22 | 2009-03-01 | Univ Nat Cheng Kung | Direction detection algorithms for H.264 intra prediction |
JP2009081576A (ja) * | 2007-09-25 | 2009-04-16 | Toshiba Corp | 動画像復号装置、および動画像復号方法 |
KR101946376B1 (ko) * | 2007-10-16 | 2019-02-11 | 엘지전자 주식회사 | 비디오 신호 처리 방법 및 장치 |
CN101971631B (zh) * | 2007-12-21 | 2013-03-27 | 艾利森电话股份有限公司 | 自适应帧内模式选择 |
EP2081386A1 (en) * | 2008-01-18 | 2009-07-22 | Panasonic Corporation | High precision edge prediction for intracoding |
CN101500161B (zh) * | 2008-01-31 | 2012-03-21 | 华为技术有限公司 | 基于自适应块变换的帧内预测方法及装置 |
KR20090095316A (ko) * | 2008-03-05 | 2009-09-09 | 삼성전자주식회사 | 영상 인트라 예측 방법 및 장치 |
US20090274211A1 (en) * | 2008-04-30 | 2009-11-05 | Omnivision Technologies, Inc. | Apparatus and method for high quality intra mode prediction in a video coder |
WO2009136743A2 (ko) * | 2008-05-07 | 2009-11-12 | Lg전자 | 비디오 신호의 디코딩 방법 및 장치 |
US8761253B2 (en) * | 2008-05-28 | 2014-06-24 | Nvidia Corporation | Intra prediction mode search scheme |
JP2009302776A (ja) * | 2008-06-11 | 2009-12-24 | Canon Inc | 画像符号化装置、その制御方法、及びコンピュータプログラム |
CN101605255B (zh) * | 2008-06-12 | 2011-05-04 | 华为技术有限公司 | 一种视频编解码的方法及装置 |
CN101350927B (zh) * | 2008-07-29 | 2011-07-13 | 北京中星微电子有限公司 | 帧内预测选择最优预测模式的方法及装置 |
US8724697B2 (en) * | 2008-09-26 | 2014-05-13 | Qualcomm Incorporated | Locating motion vectors for video data units |
JP5238523B2 (ja) | 2009-01-13 | 2013-07-17 | 株式会社日立国際電気 | 動画像符号化装置、動画像復号化装置、および、動画像復号化方法 |
EP2393296A1 (en) * | 2009-01-29 | 2011-12-07 | Panasonic Corporation | Image coding method and image decoding method |
CN101854540B (zh) * | 2009-04-01 | 2014-07-02 | 辉达公司 | 用于应用h.264视频编码标准的帧内预测方法及装置 |
KR101033769B1 (ko) * | 2009-05-11 | 2011-05-09 | 선문대학교 산학협력단 | 영상 데이터의 인트라 예측 모드 결정 방법 |
KR101527085B1 (ko) * | 2009-06-30 | 2015-06-10 | 한국전자통신연구원 | 인트라 부호화/복호화 방법 및 장치 |
KR101702553B1 (ko) * | 2009-07-04 | 2017-02-03 | 에스케이 텔레콤주식회사 | 영상 부호화/복호화 방법 및 장치 |
CN101605263B (zh) * | 2009-07-09 | 2012-06-27 | 杭州士兰微电子股份有限公司 | 帧内预测的方法和装置 |
KR101510108B1 (ko) * | 2009-08-17 | 2015-04-10 | 삼성전자주식회사 | 영상의 부호화 방법 및 장치, 그 복호화 방법 및 장치 |
US8477845B2 (en) * | 2009-10-16 | 2013-07-02 | Futurewei Technologies, Inc. | Predictive adaptive scan ordering for video coding |
US20110274162A1 (en) * | 2010-05-04 | 2011-11-10 | Minhua Zhou | Coding Unit Quantization Parameters in Video Coding |
US8588303B2 (en) * | 2010-03-31 | 2013-11-19 | Futurewei Technologies, Inc. | Multiple predictor sets for intra-frame coding |
US8463059B2 (en) * | 2010-04-23 | 2013-06-11 | Futurewei Technologies, Inc. | Two-layer prediction method for multiple predictor-set intra coding |
US9083974B2 (en) * | 2010-05-17 | 2015-07-14 | Lg Electronics Inc. | Intra prediction modes |
US8902978B2 (en) * | 2010-05-30 | 2014-12-02 | Lg Electronics Inc. | Enhanced intra prediction mode signaling |
KR101854489B1 (ko) * | 2010-08-17 | 2018-05-03 | 엠앤케이홀딩스 주식회사 | 인트라 예측 모드 복호화 방법 |
WO2012087077A2 (ko) | 2010-12-23 | 2012-06-28 | 삼성전자 주식회사 | 영상 예측 단위에 대한 인트라 예측 모드 부호화 방법 및 장치, 및 영상 예측 단위에 대한 인트라 예측 모드 복호화 방법 및 장치 |
BR112013014374B8 (pt) * | 2011-09-13 | 2022-08-30 | Mediatek Singapore Pte Ltd | Método e aparelho para codificação de modo intra em hevc |
CN105338347B (zh) * | 2011-10-24 | 2018-11-13 | 英孚布瑞智有限私人贸易公司 | 用于图像解码的方法和装置 |
DK2942954T3 (da) | 2011-10-24 | 2020-08-24 | Innotive Ltd | Billedafkodningsindretning |
EP2950535B1 (en) | 2011-10-24 | 2020-06-24 | Innotive Ltd | Method and apparatus for decoding intra prediction mode |
KR20130049522A (ko) | 2011-11-04 | 2013-05-14 | 오수미 | 인트라 예측 블록 생성 방법 |
KR20130049524A (ko) * | 2011-11-04 | 2013-05-14 | 오수미 | 인트라 예측 블록 생성 방법 |
JP6694635B2 (ja) * | 2014-12-26 | 2020-05-20 | 国立大学法人大阪大学 | マイクロrnaにおけるメチル化修飾部位を計測する方法 |
JP6472242B2 (ja) * | 2014-12-26 | 2019-02-20 | 亀田製菓株式会社 | 焼き菓子 |
JP6320911B2 (ja) * | 2014-12-26 | 2018-05-09 | サントリーホールディングス株式会社 | 食物繊維 |
JP6441072B2 (ja) * | 2014-12-26 | 2018-12-19 | ミヨシ油脂株式会社 | 食用油脂中のクロロプロパノール類を低減する方法 |
JP2016123339A (ja) * | 2014-12-26 | 2016-07-11 | ユニーテック株式会社 | 多能性幹細胞の品質診断方法及び診断キット、抗がん剤並びに疾患モデル動物 |
JP6447125B2 (ja) * | 2014-12-26 | 2019-01-09 | 大日本印刷株式会社 | 細胞培養容器 |
JP2016123333A (ja) * | 2014-12-26 | 2016-07-11 | 味の素株式会社 | 新規調味料用組成物 |
JP2016123340A (ja) * | 2014-12-26 | 2016-07-11 | 株式会社エバンス | 膵癌治療感受性の診断方法及び膵癌治療感受性の増強剤 |
JP6481365B2 (ja) * | 2014-12-26 | 2019-03-13 | 井関農機株式会社 | 苗移植機 |
JP2016123336A (ja) * | 2014-12-26 | 2016-07-11 | 大日本印刷株式会社 | 細胞培養容器 |
-
2011
- 2011-08-12 KR KR1020137020599A patent/KR101854489B1/ko active IP Right Grant
- 2011-08-12 RS RS20180454A patent/RS57112B1/sr unknown
- 2011-08-12 DK DK11818362.3T patent/DK2608541T3/en active
- 2011-08-12 CN CN201180050177.7A patent/CN103168472B/zh active Active
- 2011-08-12 ES ES16184578T patent/ES2696931T3/es active Active
- 2011-08-12 RS RS20180573A patent/RS57233B1/sr unknown
- 2011-08-12 ES ES16184582.1T patent/ES2693903T3/es active Active
- 2011-08-12 PL PL16184557T patent/PL3125552T3/pl unknown
- 2011-08-12 EP EP16184572.2A patent/EP3125555B1/en active Active
- 2011-08-12 HU HUE16184582A patent/HUE040601T2/hu unknown
- 2011-08-12 EP EP16184577.1A patent/EP3125557B1/en active Active
- 2011-08-12 CN CN201610809895.2A patent/CN106851286B/zh not_active Expired - Fee Related
- 2011-08-12 PT PT161845722T patent/PT3125555T/pt unknown
- 2011-08-12 PT PT161846167T patent/PT3125561T/pt unknown
- 2011-08-12 PL PL11818362T patent/PL2608541T3/pl unknown
- 2011-08-12 SI SI201131041A patent/SI2608541T1/sl unknown
- 2011-08-12 DK DK16184616.7T patent/DK3125561T3/en active
- 2011-08-12 CN CN201610809896.7A patent/CN107105234B/zh not_active Expired - Fee Related
- 2011-08-12 HU HUE16184568A patent/HUE039205T2/hu unknown
- 2011-08-12 RS RS20180499A patent/RS57165B1/sr unknown
- 2011-08-12 TR TR2018/07094T patent/TR201807094T4/tr unknown
- 2011-08-12 EP EP16184557.3A patent/EP3125552B1/en active Active
- 2011-08-12 PT PT118183623T patent/PT2608541T/pt unknown
- 2011-08-12 LT LTEP16184557.3T patent/LT3125552T/lt unknown
- 2011-08-12 TR TR2018/06128T patent/TR201806128T4/tr unknown
- 2011-08-12 EP EP16184586.2A patent/EP3125560B1/en active Active
- 2011-08-12 DK DK16184568.0T patent/DK3125553T3/en active
- 2011-08-12 LT LTEP16184572.2T patent/LT3125555T/lt unknown
- 2011-08-12 PL PL16184578T patent/PL3125558T3/pl unknown
- 2011-08-12 CN CN201610809604.XA patent/CN106851285B/zh not_active Expired - Fee Related
- 2011-08-12 PL PL16184616T patent/PL3125561T3/pl unknown
- 2011-08-12 CN CN201610809603.5A patent/CN107071425B/zh not_active Expired - Fee Related
- 2011-08-12 KR KR1020187009846A patent/KR20180039757A/ko not_active Application Discontinuation
- 2011-08-12 CN CN201510038581.2A patent/CN104602004B/zh active Active
- 2011-08-12 HU HUE16184572A patent/HUE039207T2/hu unknown
- 2011-08-12 PL PL16184586T patent/PL3125560T3/pl unknown
- 2011-08-12 PL PL16184577T patent/PL3125557T3/pl unknown
- 2011-08-12 KR KR1020147010247A patent/KR20140057673A/ko not_active IP Right Cessation
- 2011-08-12 KR KR1020187009845A patent/KR20180039756A/ko not_active Application Discontinuation
- 2011-08-12 CN CN201610809894.8A patent/CN107105250B/zh not_active Expired - Fee Related
- 2011-08-12 KR KR1020187009844A patent/KR20180039755A/ko not_active Application Discontinuation
- 2011-08-12 CN CN201510055953.2A patent/CN104602005B/zh active Active
- 2011-08-12 ES ES16184616.7T patent/ES2670327T3/es active Active
- 2011-08-12 DK DK16184572.2T patent/DK3125555T3/en active
- 2011-08-12 JP JP2013524784A patent/JP5982612B2/ja active Active
- 2011-08-12 PL PL16184568T patent/PL3125553T3/pl unknown
- 2011-08-12 EP EP16184582.1A patent/EP3125559B1/en active Active
- 2011-08-12 KR KR1020127028865A patent/KR101373819B1/ko active IP Right Review Request
- 2011-08-12 PL PL16184582T patent/PL3125559T3/pl unknown
- 2011-08-12 ES ES16184574T patent/ES2696898T3/es active Active
- 2011-08-12 LT LTEP16184616.7T patent/LT3125561T/lt unknown
- 2011-08-12 CN CN201610809898.6A patent/CN107071426B/zh not_active Expired - Fee Related
- 2011-08-12 EP EP16184569.8A patent/EP3125554B1/en active Active
- 2011-08-12 ES ES16184586.2T patent/ES2693905T3/es active Active
- 2011-08-12 ES ES16184568.0T patent/ES2670325T3/es active Active
- 2011-08-12 HU HUE11818362A patent/HUE031186T2/hu unknown
- 2011-08-12 PL PL16184569T patent/PL3125554T3/pl unknown
- 2011-08-12 DK DK16184557.3T patent/DK3125552T3/en active
- 2011-08-12 ES ES16184572.2T patent/ES2670326T3/es active Active
- 2011-08-12 ES ES11818362.3T patent/ES2602779T3/es active Active
- 2011-08-12 PT PT161845680T patent/PT3125553T/pt unknown
- 2011-08-12 WO PCT/KR2011/005941 patent/WO2012023762A2/ko active Application Filing
- 2011-08-12 KR KR1020147010246A patent/KR20140057672A/ko not_active IP Right Cessation
- 2011-08-12 SI SI201131494T patent/SI3125552T1/en unknown
- 2011-08-12 KR KR1020187009843A patent/KR20180039754A/ko not_active Application Discontinuation
- 2011-08-12 SI SI201131484T patent/SI3125561T1/en unknown
- 2011-08-12 CN CN201610808102.5A patent/CN106231308B/zh active Active
- 2011-08-12 KR KR1020187009839A patent/KR20180039750A/ko not_active Application Discontinuation
- 2011-08-12 KR KR1020147014100A patent/KR20140075020A/ko not_active Application Discontinuation
- 2011-08-12 KR KR1020187009842A patent/KR20180039753A/ko not_active Application Discontinuation
- 2011-08-12 LT LTEP16184568.0T patent/LT3125553T/lt unknown
- 2011-08-12 NO NO16184557A patent/NO3125552T3/no unknown
- 2011-08-12 LT LTEP11818362.3T patent/LT2608541T/lt unknown
- 2011-08-12 ES ES16184557.3T patent/ES2670324T3/es active Active
- 2011-08-12 HU HUE16184616A patent/HUE038963T2/hu unknown
- 2011-08-12 PL PL16184574T patent/PL3125556T3/pl unknown
- 2011-08-12 SI SI201131498T patent/SI3125553T1/en unknown
- 2011-08-12 KR KR1020137020598A patent/KR20130091799A/ko not_active IP Right Cessation
- 2011-08-12 CN CN201610809897.1A patent/CN106851287B/zh not_active Expired - Fee Related
- 2011-08-12 KR KR1020187009840A patent/KR20180039751A/ko not_active Application Discontinuation
- 2011-08-12 KR KR1020187009841A patent/KR20180039752A/ko not_active Application Discontinuation
- 2011-08-12 KR KR1020147014092A patent/KR20140071507A/ko active Search and Examination
- 2011-08-12 PL PL16184572T patent/PL3125555T3/pl unknown
- 2011-08-12 RS RS20161024A patent/RS55325B1/sr unknown
- 2011-08-12 HU HUE16184569A patent/HUE040410T2/hu unknown
- 2011-08-12 EP EP11818362.3A patent/EP2608541B1/en active Active
- 2011-08-12 EP EP16184568.0A patent/EP3125553B1/en active Active
- 2011-08-12 KR KR1020147010248A patent/KR101474987B1/ko active IP Right Review Request
- 2011-08-12 CN CN201610809602.0A patent/CN106851284B/zh active Active
- 2011-08-12 EP EP16184578.9A patent/EP3125558B1/en active Active
- 2011-08-12 EP EP16184574.8A patent/EP3125556B1/en active Active
- 2011-08-12 PT PT161845573T patent/PT3125552T/pt unknown
- 2011-08-12 SI SI201131499T patent/SI3125555T1/en unknown
- 2011-08-12 RS RS20180526A patent/RS57166B1/sr unknown
- 2011-08-12 HU HUE16184574A patent/HUE042510T2/hu unknown
- 2011-08-12 ES ES16184577.1T patent/ES2685669T3/es active Active
- 2011-08-12 EP EP16184616.7A patent/EP3125561B1/en active Active
- 2011-08-12 HU HUE16184557A patent/HUE039248T2/hu unknown
- 2011-08-12 ES ES16184569.8T patent/ES2685668T3/es active Active
- 2011-08-12 HU HUE16184586A patent/HUE040604T2/hu unknown
-
2012
- 2012-09-21 US US13/624,844 patent/US9491478B2/en active Active
-
2016
- 2016-06-22 JP JP2016123332A patent/JP6371795B2/ja not_active Expired - Fee Related
- 2016-06-22 JP JP2016123333A patent/JP6371796B2/ja active Active
- 2016-06-22 JP JP2016123331A patent/JP6322230B2/ja active Active
- 2016-06-22 US US15/189,561 patent/US9924187B2/en active Active
- 2016-06-22 JP JP2016123334A patent/JP6371797B2/ja not_active Expired - Fee Related
- 2016-06-22 US US15/189,485 patent/US9918087B2/en active Active
- 2016-06-22 JP JP2016123338A patent/JP6371799B2/ja not_active Expired - Fee Related
- 2016-06-22 JP JP2016123336A patent/JP6371798B2/ja active Active
- 2016-06-22 JP JP2016123330A patent/JP6371794B2/ja active Active
- 2016-06-22 JP JP2016123340A patent/JP6371801B2/ja not_active Expired - Fee Related
- 2016-06-22 JP JP2016123337A patent/JP6322232B2/ja active Active
- 2016-06-22 JP JP2016123335A patent/JP6322231B2/ja active Active
- 2016-06-22 JP JP2016123339A patent/JP6371800B2/ja not_active Expired - Fee Related
- 2016-06-22 US US15/189,452 patent/US9924186B2/en active Active
- 2016-12-13 SM SM201600449T patent/SMT201600449B/it unknown
- 2016-12-22 CY CY20161101330T patent/CY1118382T1/el unknown
-
2017
- 2017-01-12 HR HRP20170053TT patent/HRP20170053T1/hr unknown
-
2018
- 2018-05-14 CY CY20181100489T patent/CY1120190T1/el unknown
- 2018-05-25 HR HRP20180834TT patent/HRP20180834T1/hr unknown
- 2018-06-12 CY CY181100614T patent/CY1120795T1/el unknown
- 2018-06-12 CY CY181100612T patent/CY1120815T1/el unknown
- 2018-06-12 CY CY181100613T patent/CY1120813T1/el unknown
- 2018-07-11 HR HRP20181098TT patent/HRP20181098T1/hr unknown
- 2018-07-18 HR HRP20181147TT patent/HRP20181147T1/hr unknown
- 2018-07-18 HR HRP20181145TT patent/HRP20181145T1/hr unknown
Also Published As
Similar Documents
Publication | Publication Date | Title |
---|---|---|
ES2670324T3 (es) | Procedimiento de restablecimiento de un modo de intra predicción | |
ES2575381T3 (es) | Dispositivo de decodificación de intra-predicción | |
ES2952358T3 (es) | Aparato para decodificar un fotograma en movimiento | |
JP6360947B2 (ja) | 映像データを復号化する方法 | |
ES2720652T3 (es) | Aparato para codificar una imagen |