[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

RU2600547C2 - Способ получения вектора движения с временным предсказанием и устройство, использующее этот способ - Google Patents

Способ получения вектора движения с временным предсказанием и устройство, использующее этот способ Download PDF

Info

Publication number
RU2600547C2
RU2600547C2 RU2013140661/08A RU2013140661A RU2600547C2 RU 2600547 C2 RU2600547 C2 RU 2600547C2 RU 2013140661/08 A RU2013140661/08 A RU 2013140661/08A RU 2013140661 A RU2013140661 A RU 2013140661A RU 2600547 C2 RU2600547 C2 RU 2600547C2
Authority
RU
Russia
Prior art keywords
block
prediction
boundary
lcu
correlated
Prior art date
Application number
RU2013140661/08A
Other languages
English (en)
Other versions
RU2013140661A (ru
Inventor
Бэ Кын ЛЭЕ
Джэ Чхол КВОН
Джо Ёун КИМ
Original Assignee
Кт Корпорейшн
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020120039501A external-priority patent/KR101204026B1/ko
Application filed by Кт Корпорейшн filed Critical Кт Корпорейшн
Publication of RU2013140661A publication Critical patent/RU2013140661A/ru
Application granted granted Critical
Publication of RU2600547C2 publication Critical patent/RU2600547C2/ru

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T9/00Image coding
    • G06T9/004Predictors, e.g. intraframe, interframe coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • H04N19/159Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/109Selection of coding mode or of prediction mode among a plurality of temporal predictive coding modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/167Position within a video image, e.g. region of interest [ROI]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/44Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/517Processing of motion vectors by encoding
    • H04N19/52Processing of motion vectors by encoding by predictive encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/56Motion estimation with initialisation of the vector search, e.g. estimating a good candidate to initiate a search
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T9/00Image coding
    • G06T9/40Tree coding, e.g. quadtree, octree

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

Настоящее изобретение относится к способу кодирования и декодирования видео. Техническим результатом изобретения является уменьшение объема требуемой памяти и уменьшение количества соответствующих вычислительных ресурсов. Устройство декодирования видео, использующее способ получения вектора движения временного предсказания, содержит модуль предсказания, выполненный с возможностью определения соотнесенного блока в соотнесенном изображении на основании того, прилегает ли граница целевого блока предсказания к границе наибольшего кодового блока (LCU), получения вектора движения временного предсказания целевого блока предсказания путем использования вектора движения определенного таким образом соотнесенного блока. 2 н. и 6 з.п. ф-лы, 10 ил.

Description

Область техники, к которой относится изобретение
Настоящее изобретение относится к способу кодирования и декодирования видео, более конкретно, настоящее изобретение относится к способу получения вектора движения временного предсказания и устройству, использующему этот способ.
Уровень техники
В последнее время в различных областях возрастает спрос на видео высокого качества с высоким разрешением, такое как HD-видео (видео высокой четкости) и UHD-видео (видео сверхвысокой четкости). Поскольку приходят к видеоданным с высоким разрешением и/или с высоким качеством, то объем видеоданных относительно возрастает по сравнению с существующими видеоданными, при этом, если видеоданные передаются через обычную проводную/беспроводную широкополосную сеть или сохраняются на существующей запоминающей среде, то затраты на передачу и хранение возрастают. Для решения этой задачи, которая возникает при переходе видеоданных к высокому разрешению и высокому качеству, могут быть использованы высокоэффективные технологии сжатия видео.
Разработан ряд схем, которые могут использоваться для сжатия видео, такие как схема межкадрового предсказания, которая предсказывает значения пикселей в текущем изображении, исходя из изображения до или после текущего изображения, схема внутрикадрового предсказания, которая предсказывает значения пикселей, содержащихся в текущем изображении, используя пиксельную информацию в текущем изображении, и схема энтропийного кодирования, которая назначает более короткие кодовые слова для значений, которые встречаются более часто, и назначает более длинные кодовые слова для значений, которые встречаются менее часто. Такие схемы сжатия видео могут использоваться для эффективного сжатия, передачи или сохранения видеоданных.
Сущность изобретения
Техническая задача
Целью настоящего изобретения является обеспечение способа получения вектора движения временного предсказания для блока, прилегающего к границе LCD.
Другой целью настоящего изобретения является обеспечение устройства для реализации способа получения вектора движения временного предсказания для блока, прилегающего к границе LCU.
Техническое решение
Для достижения первой цели настоящего изобретения в соответствии с аспектом настоящего изобретения, способ кодирования видеоданных включает в себя шаги определения индекса опорного изображения соотнесенного блока целевого блока предсказания; и определение вектора предсказания движения соотнесенного блока, причем соотнесенный блок является блоком, адаптивно определяемым по местоположению целевого блока предсказания в наибольшем кодовом блоке (LCU). Соотнесенный блок может определяться иначе, путем выяснения, прилегает ли нижняя граница целевого блока предсказания к границе LCU. Соотнесенный блок может определяться путем выяснения, прилегает ли нижняя граница целевого блока предсказания к границе LCU, и прилегает ли только правая граница целевого блока предсказания к границе LCU. Соотнесенный блок может определяться с помощью опорных положений пикселей в LCU. Если левая сторона или нижняя граница целевого блока предсказания не прилегает к границе LCD, то последовательно определяют первый соотнесенный блок и пятый соотнесенный блок в качестве соотнесенного блока в зависимости от доступности соотнесенного блока в соответствующем положении.
Для достижения второй цели настоящего изобретения в соответствии с аспектом настоящего изобретения, способ декодирования видео может включать в себя шаги определения того, прилегает ли граница целевого блока предсказания к границе LCD; и определение доступности первого соотнесенного блока в соответствии с определением того, прилегает ли граница целевого блока предсказания к границе LCU. Способ декодирования видео может дополнительно включать в себя шаг определения другого соотнесенного блока, помимо первого соотнесенного блока, как соотнесенного блока для получения вектора движения временного предсказания, если определено, что первый соотнесенный блок недоступен. Шаг определения другого соотнесенного блока, помимо первого соотнесенного блока, как соотнесенного блока для получения вектора движения временного предсказания, если установлено, что первый соотнесенный блок недоступен, является шагом по определению отличающегося соотнесенного блока для получения вектора движения временного предсказания для случая, когда нижняя граница целевого блока предсказания прилегает к границе LCU, и для случая, когда только правая граница целевого блока предсказания прилегает к границе LCU. Шаг определения доступности первого соотнесенного блока в соответствии с определением того, прилегает ли граница целевого блока предсказания к границе LCU, является шагом для определения первого соотнесенного блока как недоступного, если нижняя граница целевого блока предсказания прилегает к границе LCU. Дополнительно может содержаться шаг определения первого соотнесенного блока как соотнесенного блока для получения вектора движения временного предсказания, если первый соотнесенный блок доступен, или для определения доступности пятого соотнесенного блока, если первый соотнесенный блок недоступен.
Для достижения третьей цели настоящего изобретения в соответствии с аспектом настоящего изобретения, устройство декодирования видео содержит модуль энтропийного декодирования, декодирующий информацию о размере LCD, и модуль предсказания, определяющий индекс опорного изображения соотнесенного блока, причем соотнесенный блок является блоком, адаптивно определяемым по местоположению целевого блока предсказания в LCU. Соотнесенный блок может определяться путем определения того, прилегает ли нижняя граница целевого блока предсказания к границе LCU. Соотнесенный блок может определяться путем определения того, прилегает ли нижняя граница целевого блока предсказания к границе LCU, и прилегает ли только правая граница целевого блока предсказания к границе LCU. Соотнесенный блок может определяться с помощью опорных положений пикселей в LCU. Если левая сторона или нижняя граница целевого блока предсказания не прилегает к границе LCU, то последовательно определяют первый соотнесенный блок и пятый соотнесенный блок в качестве соотнесенного блока в соответствии с доступностью соотнесенного блока в соответствующем положении.
Для достижения четвертой цели настоящего изобретения в соответствии с аспектом настоящего изобретения, устройство декодирования видео может включать в себя модуль энтропийного декодирования, декодирующий информацию о размере LCU, и модуль предсказания, определяющий, прилегает ли граница целевого блока предсказания к границе LCU, а также определяющий доступность первого соотнесенного блока в соответствии с определением того, прилегает ли граница целевого блока предсказания к границе LCU. Модуль предсказания может определить другой соотнесенный блок, помимо первого соотнесенного блока, как соотнесенный блок для получения вектора движения временного предсказания, если определено, что первый соотнесенный блок недоступен. Модуль предсказания может определить другой соотнесенный блок для получения вектора движения временного предсказания в случае, если нижняя граница целевого блока предсказания прилегает к границе LCU, и в случае, если только правая граница целевого блока предсказания прилегает к границе LCU. Модуль предсказания может определить первый соотнесенный блок как недоступный, если нижняя граница целевого блока предсказания прилегает к границе LCU. Модуль предсказания может определить первый соотнесенный блок как соотнесенный блок для получения вектора движения временного предсказания, если первый соотнесенный блок доступен, или может определить доступность пятого соотнесенного блока, если первый соотнесенный блок недоступен.
Предпочтительные результаты
Как было раскрыто выше, способ получения вектора движения временного предсказания и устройство, в котором используется данный способ в соответствии с вариантом реализации настоящего изобретения, могут по-разному использовать соотнесенное (или сорасположенное или совмещаемое) изображение, исходя из которого, получают временной вектор движения, в зависимости от того, прилегает ли целевой блок предсказания к LCU. Применение этого способа позволяет уменьшить объем требуемой памяти и уменьшить количество соответствующих вычислительных ресурсов.
Краткое описание чертежей
На фиг. 1 показана блок-схема, иллюстрирующая устройство кодирования видео в соответствии с вариантом реализации настоящего изобретения.
На фиг. 2 показана блок-схема, иллюстрирующая видеодекодер в соответствии с другим вариантом реализации настоящего изобретения.
На фиг. 3 представлен концептуальный вид, иллюстрирующий способ получения вектора движения временного предсказания в соответствии с вариантом реализации настоящего изобретения.
На фиг. 4 показана блок-схема алгоритма, иллюстрирующая способ получения вектора движения временного предсказания в соответствии с вариантом реализации настоящего изобретения.
На фиг. 5 представлен концептуальный вид, иллюстрирующий положение соотнесенного блока для получения вектора движения временного предсказания в соответствии с вариантом реализации настоящего изобретения.
На фиг. 6 представлен концептуальный вид, иллюстрирующий способ определения соотнесенного блока для получения вектора движения временного предсказания в соответствии с вариантом реализации настоящего изобретения.
На фиг. 7 представлен концептуальный вид, иллюстрирующий случай, когда целевой блок предсказания прилегает к нижней границе LCU в соответствии с вариантом реализации настоящего изобретения.
На фиг. 8 показана блок-схема алгоритма, иллюстрирующая способ межкадрового предсказания, использующий режим слияния в соответствии с вариантом реализации настоящего изобретения.
На фиг. 9 представлен концептуальный вид, иллюстрирующий положения пространственных кандидатов на слияние в соответствии с вариантом реализации настоящего изобретения.
На фиг. 10 показана блок-схема алгоритма, иллюстрирующая способ межкадрового предсказания, использующий AMVP в соответствии с вариантом реализации настоящего изобретения.
Реализация изобретения
Для настоящего изобретения могут быть выполнены различные модификации, и настоящее изобретение может иметь несколько вариантов реализации. Частные примеры вариантов реализации раскрываются подробно со ссылкой на чертежи. Однако настоящее изобретение не ограничено частными вариантами реализации, и следует понимать, что настоящее изобретение включает в себя все модификации, эквиваленты или замены, входящие в объем и сущность настоящего изобретения. При пояснении чертежей для одинаковых элементов могут использоваться одинаковые номера.
Для описания различных элементов (или признаков) могут быть использованы термины «первый» и «второй». Однако эти элементы не ограничиваются этим. Эти термины используются только для отличия одного элемента от другого. Например, первый элемент может быть обозначен вторым элементом, а второй элемент может быть аналогично назван первым. Термин «и/или» включает в себя комбинацию множества соответствующих элементов, как здесь описано, или любой элемент из множества соответствующих элементов.
Если указано, что элемент (или признак) «подключен» или «присоединен» к другому элементу, то данный элемент может быть непосредственно присоединен или подключен к другому элементу. Напротив, если признак или элемент «непосредственно подключен или присоединен» к другому элементу, то промежуточные элементы отсутствуют.
Используемые здесь термины приведены для раскрытия вариантов реализации и не предназначены для ограничения настоящего изобретения. Единственная форма термина также включает в себя и множественную форму, если явно не указывается противоположное. Применяемые здесь термины «содержит» или «включает в себя», и т.п. служат для указания того, что имеются описываемые признаки, целые числа, шаги, операции, элементы, компоненты, части или их комбинации, но они не исключают наличие или возможность добавления одного или более признаков, целых чисел, шагов, операций, элементов, компонентов, частей или их комбинаций.
Далее подробно раскрываются предпочтительные варианты реализации настоящего изобретения со ссылкой на сопровождающие чертежи. Одинаковые числовые обозначения на чертежах относятся к одинаковым элементам, а описание одинаковых элементов не повторяется.
На фиг. 1 показана блок-схема, иллюстрирующая устройство кодирования видео в соответствии с вариантом реализации настоящего изобретения.
Согласно фиг. 1, устройство 100 кодирования видео может включать в себя модуль 110 разделения изображения, модуль 120 межкадрового предсказания, модуль 125 внутрикадрового предсказания, модуль 130 преобразования, модуль 135 квантования, модуль 160 переупорядочивания, модуль 165 энтропийного кодирования, модуль 140 расквантования, модуль 145 обратного преобразования, модуль 150 фильтрации и память 155.
Каждый модуль на фиг. 1 показан независимо для отображения отличающихся друг от друга функций устройства кодирования видео, но это не означает, что каждый модуль выполнен в виде отдельного аппаратного или программного модульного (компонентного) блока. То есть, для удобства описания, модули показаны как выполненные независимо, и по меньшей мере два из этих модулей могут быть объединены в один модуль, или один из модулей может быть разделен на множество модулей для реализации функций. Варианты реализации с комбинированием модулей или варианты реализации с разделением модулей также входят в объем настоящего изобретения без отступления от сущности настоящего изобретения.
Кроме того, некоторые из модулей могут не быть обязательными модулями для реализации существенной функции в настоящем изобретении, а быть лишь опциональными модулями для улучшения рабочих характеристик. Настоящее изобретение может включать в себя только обязательные модули, необходимые для реализации сущности настоящего изобретения, исключая модули, используемые лишь для улучшения рабочих характеристик, и эта конфигурация также входит в объем настоящего изобретения.
Модуль 110 разделения изображения может разделять входное изображение на по меньшей мере один блок обработки. При этом блок обработки может быть блоком предсказания (PU), блоком преобразования (TU) или кодовым блоком (CU). Модуль 110 разделения изображения может кодировать изображение путем разделения одного изображения на комбинацию из множества кодовых блоков, блоков предсказания и блоков преобразования, при этом комбинация одного кодового блока, блока предсказания и блока преобразования может быть выбрана в соответствии с заданным стандартом (или критерием), например, стоимостной функцией, и может быть закодирована.
Например, одно изображение может быть разделено на множество кодовых блоков. Для разделения изображения на кодовые блоки может использоваться рекурсивная древовидная структура, такая как счетверенная древовидная структура. С изображением или наибольшим кодовым блоком в качестве корневого, кодовый блок может быть разделен на другие кодовые блоки, при этом число младших узлов равно количеству разделенных кодовых блоков. Кодовый блок, который далее не разделяется в соответствии с заданным ограничением, считается листовым узлом. Другими словами, если подразумевается, что для кодового блока доступно только квадратное разделение, то данный кодовый блок может быть разделен максимум на четыре других кодовых блока.
Далее в вариантах реализации настоящего изобретения кодовый блок может означать блок, в котором выполняют как кодирование, так и декодирование.
Блок предсказания может быть разделен с формой по меньшей мере одного квадрата или прямоугольника, имеющего одинаковый размер с кодовым блоком.
При формировании блока предсказания, в котором выполняется внутрикадровое предсказание на основании кодового блока, если данный кодовый блок не является наименьшим кодовым блоком, то внутрикадровое предсказание может выполняться без разделения блока предсказания на множество блоков предсказания NxN.
Модуль предсказания может включать в себя модуль 120 межкадрового предсказания для выполнения межкадрового предсказания и модуль 125 внутрикадрового предсказания для выполнения внутрикадрового предсказания. В отношении блока предсказания можно определить, следует ли выполнять межкадровое предсказание или внутрикадровое предсказание, и в соответствии с каждым способом предсказания можно определить конкретную информацию (например, режим внутрикадрового предсказания, вектор движения, опорное изображение и т.д.). В то же время блок обработки для выполнения предсказания может отличаться от блока обработки для определения способа предсказания и его конкретных деталей. Например, способ предсказания и режим предсказания могут быть определены блоком предсказания, а осуществление предсказания может быть выполнено в блоке преобразования. Остаточное значение (остаточный блок) между сформированным блоком предсказания и исходным блоком может подаваться в модуль 130 преобразования. Далее информация режима предсказания и информация вектора движения и т.д., используемые для предсказания, также могут кодироваться в модуле 165 энтропийного кодирования вместе с остаточным значением и затем могут быть переданы в устройство декодирования. Если используется конкретный режим кодирования, а не формируется блок предсказания с помощью модулей 120, 125 предсказания, то исходный блок, как он есть, может быть закодирован и передан в устройство декодирования.
Модуль межкадрового предсказания может предсказывать блок предсказания на основании информации по меньшей мере одного изображения из изображений до текущего изображения или изображений после текущего изображения. Модуль межкадрового предсказания может включать в себя модуль интерполяции опорного изображения, модуль предсказания движения и модуль компенсации движения.
Модуль интерполяции опорного изображения может принимать информацию опорного изображения из памяти 155 и может формировать пиксельную информацию в блоке, меньшем, чем блок целочисленных пикселей в опорном изображении. В случае пикселей яркости может использоваться 8-выводной интерполяционный фильтр на основе DCT с различными коэффициентами фильтрации для каждого вывода для формирования пиксельной информации в блоке, меньшем, чем блок целочисленных пикселей, блоком в 1/4 пикселя. В случае цветного сигнала может использоваться 4-выводной интерполяционный фильтр на основе DCT с различными коэффициентами фильтрации для каждого вывода для формирования пиксельной информации в блоке, меньшем, чем блок целочисленных пикселей, блоком в 1/8 пикселя.
Модуль предсказания движения может осуществлять предсказание движения на основании опорного изображения, интерполированного модулем интерполяции опорного изображения. Для получения вектора движения могут использоваться различные способы, такие как FBMA (от англ. «Full search-based Block Matching Algorithm» - алгоритм поиска совпадающих блоков на основании полного поиска), TSS (от англ. «Three Step Search» - трехшаговый поиск) или NTS (от англ. «New Three-Step Search Algorithm» -новый алгоритм трехшагового поиска) и т.п. Вектор движения может иметь значение вектора движения в блоке 1/2 пикселя или в блоке 1/4 пикселя на основании интерполированного пикселя. Модуль предсказания движения может предсказывать текущий блок предсказания путем применения различных способов предсказания движения. В качестве способа предсказания могут использоваться различные способы, такие как способ пропуска, способ слияния или способ AMVP (от англ. «Advanced Motion Vector Prediction» - усовершенствованное предсказание вектора движения).
В соответствии с примерным вариантом реализации настоящего изобретения, модуль межкадрового предсказания может определять, прилегает ли граница целевого блока предсказания к границе LCU (наибольшего кодового блока), а также может определять, доступен ли первый соотнесенный (или сорасположенный или совмещенный) блок в соответствии с определением того, прилегает ли граница целевого блока предсказания к границе LCD. Например, если первый соотнесенный блок недоступен, то второй соотнесенный блок может быть определен как соотнесенный блок для получения вектора движения временного предсказания. Или, если первый соотнесенный блок недоступен, то положение первого соотнесенного блока может быть изменено, и первый соотнесенный блок с измененным положением может быть определен как соотнесенный блок для получения вектора движения временного предсказания.
Далее, модуль межкадрового предсказания может включать в себя модуль предсказания, который определяет индекс опорного изображения соотнесенного блока целевого блока предсказания и определяет вектор движения временного предсказания соотнесенного блока. Соотнесенный блок может адаптивно определяться в соответствии с положением целевого блока предсказания в LCU (наибольшем кодовом блоке). Далее подробно раскрывается работа модуля предсказания в соответствии с настоящим изобретением.
Модуль межкадрового предсказания может формировать блок предсказания на основании информации об опорных пикселях, соседних с текущим блоком, которая является пиксельной информацией о пикселях в текущем изображении. Если блок, соседний для текущего блока предсказания, является блоком, к которому применяется межкадровое предсказание и, таким образом, опорный пиксель является пикселем из межкадрового предсказания, то опорный пиксель, входящий в блок, к которому применяется межкадровое предсказание, может быть заменен с использованием информации опорного пикселя блока, к которому применяется внутрикадровое предсказание. То есть, если опорный пиксель недоступен, то информация недоступного опорного пикселя может быть заменена, по меньшей мере, одним из доступных опорных пикселей.
Что касается внутрикадрового предсказания, то режимы предсказания могут включать в себя режим направленного предсказания, в котором используют информацию об опорных пикселях в соответствии с направлением предсказания, и режим ненаправленного предсказания, в котором не используется информация о направлении при осуществлении предсказания. Режим для предсказания информации о яркости может отличаться от режима предсказания информации о цвете. Кроме того, информация о режиме внутрикадрового предсказания, в котором предсказана информация о яркости, или информация о предсказанном сигнале яркости может использоваться для предсказания информации цветности.
При выполнении внутрикадрового предсказания, если размер блока предсказания такой же, как размер блока преобразования, то внутрикадровое предсказание выполняется на основании пикселей, находящихся с левой стороны блока предсказания, пикселей, находящихся вверху слева блока предсказания, и пикселей, находящихся вверху блока предсказания. Однако, при выполнении внутрикадрового предсказания, если размер блока предсказания отличается от размера блока преобразования, то внутрикадровое предсказание может выполняться с использованием опорных пикселей, основанных на блоке преобразования. Кроме того, только для наименьшего кодового блока может выполняться внутрикадровое предсказание с использованием разделения NxN.
В способе внутрикадрового предсказания блок предсказания может формироваться после применения фильтра внутрикадрового сглаживания, зависящего от режима, (MDIS-фильтра) к опорным пикселям в соответствии с режимом предсказания. К опорным пикселям могут применяться различные типы MDIS-фильтров. Для реализации способа внутрикадрового предсказания режим внутрикадрового предсказания текущего блока предсказания может предсказываться из режима внутрикадрового предсказания блока предсказания, соседнего для текущего блока предсказания. В случае, когда режим предсказания текущего блока предсказания предсказан с использованием информации о режиме, предсказанной из соседнего блока предсказания, если режим внутрикадрового предсказания текущего блока предсказания совпадает с режимом внутрикадрового предсказания соседнего блока предсказания, то для передачи информации, указывающей на то, что текущий блок предсказания идентичен в режиме предсказания с соседним блоком предсказания, может использоваться заданная флаговая информация. И если режим предсказания текущего блока предсказания отличается от режима предсказания соседнего блока предсказания, то для кодирования информации о режиме предсказания текущего блока может применяться энтропийное кодирование.
Кроме того, можно получить остаточный блок, включающий в себя информацию об остаточном значении, которое представляет собой разность между исходным блоком блока предсказания и блоком предсказания, по которому осуществляется предсказание на основании блока предсказания, сформированного в модуле 120, 125 предсказания. Полученный остаточный блок может быть подан в модуль 130 преобразования. Модуль 130 преобразования может преобразовать остаточный блок с использованием способа преобразования, такого как DCT (дискретное косинусное преобразование) или DST (дискретное синусное преобразование). Остаточный блок включает в себя информацию остатка между блоком предсказания, сформированным с помощью модулей 120, 125 предсказания, и исходным блоком. Что следует применять, DCT или DST, для преобразования остаточного блока, можно определить на основании информации режима внутрикадрового предсказания блока предсказания, используемого для формирования остаточного блока.
Модуль 135 квантования может квантовать значения, преобразованные в частотную область модулем 130 преобразования. В зависимости от блока или важности изображения параметр квантования может меняться. Значение, полученное в модуле 135 квантования, может подаваться в модуль 140 расквантования и модуль 160 переупорядочивания.
Модуль 160 переупорядочивания может осуществлять переупорядочивание коэффициентов для квантованных остаточных значений.
Модуль 160 переупорядочивания может изменять коэффициенты формы двумерного (2D) блока в форму одномерного вектора с помощью способа сканирования коэффициента. Например, модуль 160 переупорядочивания может использовать способ диагонального сканирования от DC-коэффициентов до высокочастотных коэффициентов, тем самым упорядочивая коэффициенты в форме 2D-блока в форму одномерного вектора. В зависимости от размера модуля преобразования и режима внутрикадрового предсказания, вместо способа диагонального сканирования может использоваться способ вертикального сканирования, в котором коэффициенты в форме 2D-блока сканируются вдоль столбца или метод горизонтального сканирования, коэффициенты в форме 2D-блока сканируются вдоль ряда. Другими словами, в зависимости от размера блока преобразования и режима внутрикадрового предсказания может использоваться одно из диагонального сканирования, вертикального сканирования и горизонтального сканирования.
Модуль 165 энтропийного кодирования может осуществлять энтропийное кодирование на основании значений, полученных из модуля 160 переупорядочивания. Для энтропийного кодирования могут использоваться различные способы кодирования, такие как, например, экспоненциальный код Голомба, САВАС (бинарное арифметическое кодирование, адаптивное к контексту).
Модуль 165 энтропийного кодирования может кодировать различную информацию, предоставляемую модулем 160 переупорядочивания и модулями 120, 125 предсказания, такую как информация об остаточных коэффициентах и информация о типе блока кодового блока, информация режима предсказания, информация блока разделения, информация блока предсказания и информация блока передачи, информация вектора движения, информация опорного кадра, информация интерполяции для блока, информация фильтрации и информация о размере LCU.
Модуль 165 энтропийного кодирования может осуществлять энтропийное кодирование значений коэффициентов кодового блока, как входящего из модуля 160 переупорядочивания, с использованием способа энтропийного кодирования, такого как САВАС.
Модуль 140 расквантования может осуществлять расквантование значений, квантованных модулем 135 квантования, а модуль 145 обратного преобразования может осуществлять обратное преобразование значений, преобразованных модулем 130 преобразования. Остаточное значение, формируемое модулем 140 расквантования и модулем 145 обратного преобразования, может добавляться к блоку предсказания, предсказанному с помощью модуля оценки движения, модуля компенсации движения и модуля внутрикадрового предсказания, входящих в модуль 120, 125 предсказания, тем самым формируя восстановленный блок.
Модуль 150 фильтрации может включать в себя по меньшей мере одно из фильтра деблокирования, модуля коррекции смещения и ALF (адаптивный фильтр с обратной связью).
Фильтр деблокирования может устранять блочное искажение, возникающее из-за границы блока в восстановленном (или реконструированном) изображении. Следует ли применять фильтр деблокирования к текущему блоку, можно определить с помощью пикселя, входящего в несколько столбцов или рядов, входящих в блоки. При применении деблокирующего фильтра к блоку, может применяться сильный фильтр или слабый фильтр в зависимости от требуемой силы фильтрации деблокирования. Кроме того, при применении деблокирующего фильтра к блоку, фильтрация горизонтального направления и фильтрация вертикального направления могут осуществляться параллельно.
Модуль коррекции смещения может корректировать смещение между исходным изображением и изображением с деблокированием в пиксельном блоке (или попиксельно). Чтобы выполнить коррекцию смещения для конкретного изображения, пиксели, имеющиеся в изображении, делят на заданное число областей, одну из которых затем выбирают для выполнения смещения, при этом может использоваться способ применения смещения к соответствующей области, или способ применения смещения с учетом краевой информации каждого пикселя.
ALF (адаптивный фильтр с обратной связью) может выполнять фильтрацию на основании значения, полученного сравнением фильтрованного восстановленного (или реконструированного) изображения, и исходного изображения. Пиксели, содержащиеся в изображении, делят на заданные группы, и затем определяют один фильтр, применяемый к соответствующей группе, выполняя, тем самым, фильтрацию для каждой группы дискриминационным образом. В отношении информации о том, следует ли применять ALF, сигнал яркости может передаваться для каждого кодового блока, а применяемый размер и коэффициент ALF могут различаться для каждого блока. ALF может иметь различные формы, а количество коэффициентов в данном фильтре может меняться соответственно. Информация, относящаяся к фильтрации такого ALF (информация о коэффициентах фильтра, информация о включении/выключении ALF или информация о форме фильтра) может передаваться, будучи включенной в заданный набор параметров битового потока.
Память 155 может сохранять восстановленный блок или изображение, формируемое с помощью модуля 150 фильтрации, а сохраненный восстановленный блок или изображение могут передаваться в модуль 120, 125 предсказания при выполнении межкадрового предсказания.
На фиг. 2 показана блок-схема, иллюстрирующая видеодекодер в соответствии с другим вариантом реализации настоящего изобретения.
Согласно фиг. 2, видеодекодер может включать в себя модуль 210 энтропийного декодирования, модуль 215 переупорядочивания, модуль 220 расквантования, модуль 225 обратного преобразования, модуль 230 и 235 предсказания, модуль 240 фильтрации и память 245.
Если битовый поток видео поступает из видеокодера, то данный входящий битовый поток может быть декодирован в процессе, обратном происходящему в видеокодере.
Модуль 210 энтропийного декодирования может осуществлять энтропийное декодирование в процессе, обратном энтропийному кодированию, выполняемому в модуле энтропийного кодирования видеокодера. Из фрагментов информации, декодируемой модулем 210 энтропийного декодирования, информация, используемая для получения блока предсказания, такая как информация о размере LCU или информация о размере блока, подается в модуль 230 и 235 предсказания, а остаточные значения, полученные с помощью энтропийного декодирования в модуле энтропийного декодирования, могут подаваться в модуль 215 переупорядочивания.
Модуль 210 энтропийного декодирования может декодировать информацию, относящуюся к внутрикадровому предсказанию и межкадровому предсказанию, выполняемым в кодере. Как было раскрыто выше, при наличии заданного ограничения, если видеокодер осуществляет внутрикадровое предсказание и межкадровое предсказание, то энтропийное декодирование осуществляется на основании такого ограничения, с получением при этом информации, относящейся к внутрикадровому предсказанию и межкадровому предсказанию для текущего блока.
Модуль 215 переупорядочивания может осуществлять переупорядочивание на основании способа, которым кодер переупорядочивает битовый поток, который энтропийно декодирован в модуле 210 энтропийного декодирования. Такое переупорядочивание может быть выполнено путем восстановления коэффициентов, представленных в форме одномерных векторов, в форму 20-блока коэффициентов.
Модуль 220 расквантования может осуществлять расквантование на основании блока переупорядоченных коэффициентов и параметров квантования, полученных из кодера.
Модуль 225 обратного преобразования может осуществлять обратное DCT-преобразование и обратное DST-преобразование, по отношению к DCT- и DST-преобразованиям, выполненным модулем преобразования, над результатом квантования, выполненного видеокодером. Обратное преобразование может выполняться на основании блока преобразования, определенного видеокодером. Модуль преобразования видеокодера может выборочно осуществлять DCT- и DST-преобразования в зависимости от совокупности информации, такой как способ предсказания, размер текущего блока и направление предсказания, а модуль 225 обратного преобразования видеодекодера может осуществлять обратное преобразование на основании информации преобразования, выполненного в модуле преобразования видеокодера.
Модуль 230 и 235 предсказания может формировать блок предсказания на основании предварительно декодированного блока или предварительно декодированной информации изображения, полученных из памяти 245, и информации, относящейся к формированию блока предсказания, полученной из модуля 210 энтропийного декодирования.
Модуль 230 и 235 предсказания может включать в себя модуль определения блока предсказания, модуль межкадрового предсказания и модуль внутрикадрового предсказания. Модуль определения блока предсказания может принимать различную информацию, включая информацию о режиме предсказания в способе внутрикадрового предсказания, информацию, относящуюся к предсказанию движения в способе межкадрового предсказания и информацию блока предсказания, а также различную информацию, поступающую из модуля энтропийного декодирования. Модуль определения блока предсказания может выделять блок предсказания из текущего кодового блока, а также может определять, осуществляется межкадровое предсказание или осуществляется внутрикадровое предсказание для блока предсказания. Модуль межкадрового предсказания может осуществлять межкадровое предсказание для текущего блока предсказания в соответствии с информацией, содержащейся, по меньшей мере, в одном изображении из изображений до текущего изображения или изображений после текущего изображения. Модуль межкадрового предсказания может осуществлять межкадровое предсказание для текущего блока предсказания с использованием информации, необходимой для межкадрового предсказания текущего блока предсказания, полученного из видеокодера.
Для реализации межкадрового предсказания можно определить, какой режим из режима пропуска, режима слияния и режима AMVP является способом предсказания движения для блока предсказания, имеющегося в соответствующем кодовом блоке, на основании данного кодового блока.
В соответствии с вариантом реализации настоящего изобретения модуль межкадрового предсказания может определять, прилегает ли целевой блок предсказания к границе LCU (наибольшего кодового блока), а также может определять, доступен ли первый соотнесенный блок в соответствии с определением того, прилегает ли целевой блок предсказания к границе LCU. Например, если определено, что первый соотнесенный блок недоступен, то в качестве соотнесенного блока для получения вектора временного предсказания движения может быть определен второй соотнесенный блок, или, если первый соотнесенный блок недоступен, то положение первого соотнесенного блока может быть изменено так, что первый соотнесенный блок с измененным положением может быть определен как соотнесенный блок для получения вектора временного предсказания движения. Кроме того, модуль межкадрового предсказания может включать в себя модуль предсказания, который определяет индекс опорного изображения соотнесенного блока целевого блока предсказания, а также определяет вектор предсказания движения соотнесенного блока. Соотнесенный блок может адаптивно определяться в соответствии с местоположением целевого блока предсказания в LCU (наибольшем кодовом блоке). Далее подробно описывается работа модуля предсказания в соответствии с настоящим изобретением.
Модуль внутрикадрового предсказания может формировать блок предсказания на основании пиксельной информации в текущем изображении. Если блок предсказания является блоком, к которому применяется внутрикадровое предсказание, то внутрикадровое предсказание может осуществляться на основании информации режима внутрикадрового предсказания блока предсказания, полученного из видеокодера. Модуль внутрикадрового предсказания может включать в себя MDIS-фильтр, модуль интерполяции опорного пикселя и DC-фильтр. MDIS-фильтр осуществляет фильтрацию по опорному пикселю текущего блока. Для MDIS-фильтра можно определить, применять ли фильтр, в соответствии с режимом предсказания текущего блока предсказания. Фильтрация по опорному пикселю текущего блока может осуществляться с использованием информации MDIS-фильтра и режима предсказания блока предсказания, полученных из видеокодера. Если режим предсказания текущего блока является режимом, который не осуществляет фильтрацию, то MDIS-фильтр может не применяться.
Если режим предсказания блока предсказания является режимом предсказания, в котором межкадровое предсказание осуществляется на основании пиксельных значений, полученных интерполяцией опорного пикселя, то путем интерполяции опорных пикселей можно определить опорный пиксель в блоке, меньшем, чем целое значение пикселя. Если режим предсказания текущего блока предсказания является режимом предсказания, в котором блок предсказания формируют без интерполяции опорного пикселя, то опорный пиксель можно не подвергать интерполяции. DC-фильтр может формировать блок предсказания посредством фильтрации, если режим предсказания текущего блока является DC-режимом.
Восстановленный блок или изображение могут быть поданы в модуль 240 фильтрации. Модуль 240 фильтрации может включать в себя фильтр деблокирования, модуль коррекции смещения и ALF.
Информация о том, применялся ли соответствующий блок или изображение с фильтром деблокирования, может подаваться из кодера видео (или изображения). Если был применен фильтр деблокирования, то из видеокодера может поступить информация о том, применяемый фильтр деблокирования является сильным фильтром или слабым фильтром. Фильтр деблокирования видеодекодера может получать относящуюся к фильтру деблокирования информацию из видеокодера, при этом может осуществляться деблокирующая фильтрация для соответствующего блока в видеодекодере. Аналогично видеокодеру, видеодекодер может сначала осуществлять вертикальную деблокирующую фильтрацию и горизонтальную деблокирующую фильтрацию. Перекрывающаяся область (области) могут подвергаться, по меньшей мере, одному из вертикального деблокирования и горизонтального деблокирования. В области, где вертикальная деблокирующая фильтрация и горизонтальная деблокирующая фильтрация перекрывают друг друга, может осуществляться либо вертикальная деблокирующая фильтрация, либо горизонтальная деблокирующая фильтрация, которая до этого могла не осуществляться для этой области. Такой процесс деблокирующей фильтрации обеспечивает возможность параллельной обработки деблокирующей фильтрации.
Модуль коррекции смещения может осуществлять коррекцию смещения для восстановленного изображения на основании типа коррекции смещения, применяемого к изображению в процессе кодирования, и информации о значении смещения в процессе кодирования.
ALF может осуществлять фильтрацию согласно сравнению между восстановленным изображением после фильтрации, и исходным изображением. ALF может осуществляться для кодового блока на основании информации о том, применяется ли ALF, и информации о коэффициентах ALF, полученных из кодера. Такая информация об ALF может быть обеспечена путем включения в набор конкретных параметров.
Память 245 может сохранять восстановленное изображение или восстановленный блок, чтобы использовать это в качестве опорного изображения или опорного блока, а также может подавать восстановленное изображение в отображающий модуль.
Как было раскрыто выше, хотя в варианте реализации настоящего изобретения для удобства описания используется термин «кодовый блок», кодовый блок также может использоваться как блок декодирования. Способ предсказания в соответствии с вариантом реализации настоящего изобретения, описываемый далее со ссылкой на фиг. 3-11, может осуществляться таким элементом, как модуль предсказания, показанный на фиг. 1 и 2.
На фиг. 3 представлен концептуальный вид, иллюстрирующий способ получения вектора движения временного предсказания в соответствии с вариантом реализации настоящего изобретения.
Согласно фиг. 3, вектор движения временного предсказания может быть получен на основании значения вектора движения соотнесенного блока (colPu) в соотнесенном изображении (colPic).
Соотнесенное изображение является изображением, содержащим соотнесенный блок для получения информации, относящейся к вектору движения временного предсказания, при выполнении способа межкадрового предсказания, такого как слияние или AMVP. Соотнесенный блок может быть определен как блок, содержащийся в соотнесенном изображении, при этом соотнесенный блок определяется на основании информации о местоположении целевого блока предсказания и имеет временную фазу, отличающуюся от целевого блока предсказания.
Для одного целевого блока предсказания может быть множество соотнесенных блоков. Информация, относящаяся к движению соотнесенного блока, имеющегося в соотнесенном изображении, может сохраняться как одно репрезентативное значение по отношению к предварительно заданному блоку. Например, по отношению к блоку с размером 16×16, информация, относящаяся к предсказанию движения (вектор движения, опорное изображение и т.п.) может быть определена и сохранена в качестве одного репрезентативного значения в блоке 16×16.
На фиг. 4 показана схема алгоритма, иллюстрирующая способ определения вектора движения временного предсказания в соответствии с вариантом реализации настоящего изобретения.
Далее в настоящем документе, способ получения вектора движения временного предсказания, который раскрывается ниже, может использоваться в способе межкадрового предсказания, таком как режим слияния или режим AMVP. Способ получения вектора движения временного предсказания может быть способом получения временного блока-кандидата (соотнесенного блока) для реализации режима слияния, способом получения временного блока-кандидата (соотнесенного блока) для реализации режима AMVP и способом получения вектора движения временного предсказания.
Далее в настоящем документе, в варианте реализации настоящего изобретения «соотнесенный блок» может определяться и использоваться в качестве термина, обозначающего временной блок-кандидат, используемый в режиме слияния и режиме AMVP.
Согласно фиг. 4, получают информацию соотнесенного изображения (шаг S400).
Информация о местоположения целевого блока предсказания, информация о размере целевого блока предсказания и информация индекса опорного изображения целевого блока предсказания может использоваться для получения информации соотнесенного изображения, информации соотнесенного блока и вектора движения временного предсказания.
В соответствии с вариантом реализации настоящего изобретения, информация соотнесенного изображения может быть получена на основании информации типа слайса (slice_type), информации списка опорных изображений (collocated_from_l0_flag) и информации индекса опорного изображения (collocated_ref_idx). При использовании информации списка опорных изображений (collocated_from_l0_flag), если информация списка опорных изображений (collocated_from_l0_flag) указывает 1, это означает, что соотнесенное изображение находится в первом списке опорных изображений (List 0), а если информация списка опорных изображений (collocated_from_l0_flag) указывает 0, это означает, что соотнесенное изображение находится во втором списке опорных изображений (List 1).
Например, если тип слайса - это B-слайс, и значение информации списка опорных изображений (collocated_from_l0_flag) равно 0, то соотнесенное изображение может быть определено как изображение, содержащееся во втором списке опорных изображений, а если типа слайса - это B-слайс, и значение информации списка опорных изображений (collocated_from_l0_flag) равно 1, или если тип слайса - это P-слайс, то соотнесенное изображение может быть определено как изображение, входящее в первый список опорных изображений.
В случае способа межкадрового предсказания, использующего режим слияния, если удовлетворено заданное условие, то информация индекса опорного изображения соседнего блока в конкретном положении может быть определена в качестве информации для соотнесенного изображения, а если заданное условие не удовлетворено, то предыдущее изображение для текущего изображения может быть определено в качестве соотнесенного изображения.
Получают информацию соотнесенного блока (шаг S410).
Информацию для соотнесенного блока можно получить различным образом в зависимости от того, прилегает ли часть (или участок) целевого блока предсказания к границе LCU (наибольшего кодового блока). Далее в настоящем документе со ссылкой на фиг. 5-9 раскрывается способ определения соотнесенного блока в зависимости от положения целевого блока предсказания и границы LCU.
На фиг. 5 показан концептуальный вид, иллюстрирующий местоположение соотнесенного блока для получения временного вектора движения в соответствии с вариантом реализации настоящего изобретения.
Согласно фиг. 5, в качестве соотнесенных блоков для получения временного вектора движения могут использоваться блоки в различных положениях по отношению к целевому блоку предсказания. Соотнесенные блоки, которые могут использоваться для получения временного вектора движения, могут классифицироваться в зависимости от местоположений следующим образом.
Если точка, находящаяся слева-сверху целевого блока предсказания, равна (xP, yP), ширина целевого блока предсказания равна nPSW, а высота целевого блока предсказания равна nPSH, то первый соотнесенный блок 500 может быть блоком, содержащим точку (xP+nPSW, yP+nPSH) в соотнесенном изображении, второй соотнесенный блок 510 может быть блоком, содержащим точку (xP+nPSW-MinPuSize, yP+nPSH) в соотнесенном изображении, третий соотнесенный блок 520 может быть блоком, содержащим точку (xP+nPSW, yP+nPSH-MinPuSize) в соотнесенном изображении, четвертый соотнесенный блок 530 может быть блоком, содержащим точку (xP+nPSW-1, yP+nPSH-1) в соотнесенном изображении, пятый соотнесенный блок 540 может быть блоком, содержащим точку (xP+(nPSW»1), yP+(nPSH»1)) в соотнесенном изображении и шестой соотнесенный блок 550 может быть блоком, содержащим точку (xP+(nPSW»1)-1, yP+(nPSH»1)-1) в соотнесенном изображении.
Соотнесенный блок может адаптивно определяться в соответствии с положением текущего блока предсказания, расположенного в LCU. Позиционное соотношение между целевым блоком предсказания и границей LCU можно классифицировать на следующие случаи: 1) когда нижний край и правая сторона целевого блока предсказания не прилегают к границе LCU, 2) когда только нижний край целевого блока предсказания прилегает к границе LCU, 3) когда и правая сторона, и нижний край целевого блока предсказания прилегают к границе LCU, и 4) когда только правая сторона целевого блока предсказания прилегает к границе LCU.
В соответствии с вариантом реализации настоящего изобретения, соотнесенный блок может адаптивно определяться различным образом в зависимости от положения целевого блока предсказания в LCU.
1) Если нижний край и правая сторона целевого блока предсказания не прилегают к границе LCU, то первый соотнесенный блок и пятый соотнесенный блок могут последовательно использоваться в качестве соотнесенного блока с проверкой доступности, для того чтобы получить временной вектор движения.
2) Если только нижний край целевого блока предсказания прилегает к границе LCU, то третий соотнесенный блок и пятый соотнесенный блок могут последовательно использоваться в качестве соотнесенного блока с проверкой доступности, для того чтобы получить временной вектор движения.
3) Если и правая сторона, и нижний край целевого блока предсказания прилегают к границе LCU, то четвертый соотнесенный блок и пятый соотнесенный блок могут последовательно использоваться в качестве соотнесенного блока с проверкой доступности, для того чтобы получить временной вектор движения.
4) Если только правая сторона целевого блока предсказания прилегает к границе LCU, то второй соотнесенный блок и пятый соотнесенный блок могут последовательно использоваться в качестве соотнесенного блока с проверкой доступности, для того чтобы получить временной вектор движения.
То есть, в соответствии с вариантом реализации настоящего изобретения, временной блок-кандидат можно адаптивно определить в зависимости от местоположения текущего блока в LCU. Положения пикселей для указания временного блока-кандидата в случае, если нижняя граница текущего блока прилегает к границе LCU, могут отличаться от положений пикселей для указания временного блока-кандидата в случае, если нижняя граница текущего блока не прилегает к границе LCU. При этом положения пикселей для указания временного блока-кандидата для случая, когда нижняя граница текущего блока прилегает к границе LCU, могут отличаться от положений пикселей для указания временного блока-кандидата для случая, когда только правая граница текущего блока прилегает к границе LCU.
В соответствии с другим вариантом реализации настоящего изобретения может использоваться способ, в котором соотнесенный блок может определяться (или выбираться) адаптивно и иначе в зависимости от положения целевого блока предсказания в LCU так, чтобы соотнесенный блок и целевой блок предсказания находились в том же самом LCU, или соотнесенный блок может не использоваться, если соотнесенный блок и целевой блок предсказания не находятся в одном и том же LCU.
На фиг. 6 представлен концептуальный вид, иллюстрирующий способ определения соотнесенного блока для получения вектора предсказания движения в соответствии с вариантом реализации настоящего изобретения.
Согласно фиг. 6, могут быть известны положения соотнесенных блоков совокупности блоков предсказания, находящихся в LCU.
В случае PU0, PU1, PU2 и PU5, блоки предсказания являются блоками предсказания внутри LCU, и первый соотнесенный блок может первым использоваться в качестве соотнесенного блока для получения временного вектора движения.
В случае PU4 и PU7, границы блоков предсказания прилегают только к нижней границе LCU, и в качестве соотнесенного блока для получения временного вектора движения сначала может использоваться третий соотнесенный блок.
В случае PU8, граница блока предсказания прилегает как к нижней границе, так и к правой границе LCU, и в качестве соотнесенного блока для получения временного вектора движения сначала может использоваться четвертый соотнесенный блок.
В случае PU3 и PU6, границы блоков предсказания прилегают только к правой границе LCU, и в качестве соотнесенного блока для получения временного вектора движения сначала может использоваться второй соотнесенный блок.
То есть, как было раскрыто выше, временной блок-кандидат адаптивно определяется в зависимости от местоположения текущего блока в LCU, а положения пикселей для указания временного блока-кандидата в случаях, когда нижняя граница текущего блока прилегает к границе LCU (случаи PU4, PU7 и PU8), и в случаях, когда нижняя граница текущего блока не прилегает к границе LCU (случаи PU0, PU1, PU2, PU3, PU5 и PU6), отличаются друг от друга. Кроме того, положения пикселей для указания временного блока-кандидата могут отличаться в случаях, когда нижняя граница текущего блока прилегает к границе LCU (случаи PU4, PU7 и PU8), и в случаях, когда только правая граница текущего блока прилегает к границе LCU (случаи PU3 и PU6).
В соответствии с другим вариантом реализации настоящего изобретения, до тех пор, пока соотнесенный блок находится в том же LCU, что и целевой блок предсказания, соотнесенный блок адаптивно и иначе определяется в зависимости от положения целевого блока предсказания в LCU. Если конкретный соотнесенный блок не находится в том же LCU, что и целевой блок предсказания, то такой конкретный соотнесенный блок может быть недоступным. Например, если нижняя граница блока предсказания прилегает к нижней границе LCU подобно PU4, PU7 и PU8, то первый соотнесенный блок может быть отмечен (или указан) как недоступный, и вместо него может использоваться пятый соотнесенный блок в качестве соотнесенного блока для определения временного вектора движения.
Как таковой, в качестве способа определения соотнесенного блока может быть использован способ, в котором, классифицируя характеристики целевого блока предсказания, как было раскрыто выше, в зависимости от положения целевого блока предсказания и границы LCU, выбирают блок для использования в качестве соотнесенного блока в зависимости от классифицированного положения целевого блока предсказания. Предпочтительно, подразумевается, что первый соотнесенный блок и пятый соотнесенный блок могут последовательно использоваться в качестве соотнесенного блока для получения временного вектора движения. После проверки доступности первого соотнесенного блока (например, прилегает ли нижняя граница целевого блока предсказания к LCU) соотнесенный блок, отличающийся от первого соотнесенного блока, может быть определен как соотнесенный блок для получения временного вектора движения. Например, если первый соотнесенный блок определен как недоступный посредством шагов определения того, прилегает ли целевой блок предсказания к границе LCD (наибольшего кодового блока), то соотнесенный блок для получения временного вектора движения может быть изменен на другой соотнесенный блок (например, третий соотнесенный блок), или же может использоваться непосредственно пятый соотнесенный блок без использования первого соотнесенного блока.
В частности, вышеуказанный способ может осуществляться посредством следующих шагов:
1) Шаг определения, прилегает ли граница целевого блока предсказания к границе LCU (наибольший кодовый блок),
2) Шаг определения, доступен ли первый соотнесенный блок, в зависимости о того, прилегает ли граница целевого блока предсказания к границе LCU. В частности, на шаге 2), если нижняя граница целевого блока предсказания прилегает к границе LCU, то можно определить, что первый соотнесенный блок недоступен,
3) Шаг определения соотнесенного блока, отличающегося от первого соотнесенного блока, в качестве соотнесенного блока для получения вектора движения временного предсказания, если первый соотнесенный блок недоступен. В частности, на шаге 3) в случае, если нижняя граница целевого блока предсказания прилегает к границе LCU, и в случае, если правая граница целевого блока предсказания прилегает к границе LCU, в качестве соотнесенных блоков для получения временного вектора движения могут быть определены отличающиеся соотнесенные блоки для каждого отличающегося случая,
4) Шаг определения первого соотнесенного блока в качестве соотнесенного блока для получения вектора движения временного предсказания, если первый соотнесенный блок доступен, и определения доступности пятого соотнесенного блока, если первый соотнесенный блок недоступен.
Вышеуказанные шаги могут быть опциональными шагами, и соотношение последовательности шагов или способа определения может меняться без отступления от сущности настоящего изобретения.
На фиг. 7 показан концептуальный вид, иллюстрирующий случай, когда целевой блок предсказания прилегает к нижней границе LCU в соответствии с вариантом реализации настоящего изобретения.
Согласно фиг. 7, показан случай, когда местоположение соотнесенного блока изменяется, если целевой блок предсказания (PU, PU7 или PU8) расположен у нижней границы LCU. Если целевой блок предсказания (PU4, PU7 или PU8) расположен у нижней границы LCU, то местоположение соотнесенного блока может быть установлено так, что информация, относящаяся к предсказанию движения, может быть получена даже без поиска LCU, расположенного под текущим LCU, среди LCU-блоков. Например, вектор движения временного предсказания можно получить с использованием третьего соотнесенного блока, а не первого соотнесенного блока целевого блока предсказания. 1) если прилегает только правая граница LCU, то, в зависимости от доступности, первый соотнесенный блок и пятый соотнесенный блок последовательно определяются в качестве соотнесенного блока для получения вектора движения временного предсказания, 2) если прилегает нижняя граница LCU, то, в зависимости от доступности, в качестве соотнесенного блока для получения вектора движения временного предсказания могут быть последовательно определены третий соотнесенный блок и пятый соотнесенный блок. То есть, в соответствии с вариантом реализации настоящего изобретения, положения пикселей для указания временного блока-кандидата могут отличаться для случая, когда нижняя граница текущего блока прилегает к границе LCU, и для случая, когда нижняя граница текущего блока не прилегает к границе LCD.
Возвращаясь к фиг. 4, на основании соотнесенного блока, определенного с помощью способа, раскрытого выше применительно к фиг. 5-7, определяют вектор предсказания движения (mvLXCol) соотнесенного блока и информацию (availableFlagLXCol) о доступности соотнесенного блока (шаг S420).
Информация (availableFlagLXCol) доступности соотнесенного блока и вектор (mvLXCol) движения соотнесенного блока, которые следует использовать для межкадрового предсказания целевого блока предсказания на основании информации соотнесенного блока, определенной с помощью процедур, показанных на фиг. 5-7, могут быть получены следующим способом:
1) Если соотнесенный блок (colPu) закодирован на основании режима внутрикадрового предсказания, если соотнесенный блок (colPu) недоступен, если соотнесенное изображение (colPic) недоступно для предсказания вектора движения временного предсказания, или если межкадровое предсказание осуществляется без использования вектора движения временного предсказания, то вектор (mvLXCol) движения соотнесенного блока и информация (availableFlagLXCol) доступности соотнесенного блока могут быть заданы как 0.
2) В отличие от случая 1), информация (mvLXCol) вектора движения соотнесенного блока и информация (availableFlagLXCol) доступности соотнесенного блока могут быть получены с помощью флага (PredFlagL0) и флага (PredFlagL1), где флаг (PredFlagL0) указывает, используется или нет список LO, а флаг (PredFlagL.1) указывает, используется или нет список L1.
Во-первых, если определено, что межкадровое предсказание выполнено по соотнесенному блоку без использования списка L0 (флаг (PredFlagL0) равен 0), то информация соотнесенного блока, относящаяся к предсказанию движения, такая как информация mvCol, информация refldxCol и информация listCol могут быть заданы как L1 и MvL1[xPCol][yPCol], RefldxL1[xPCol][yPCol], которые являются информацией соотнесенного блока, относящейся к предсказанию движения, полученной с использованием списка L1, при этом информация (availableFlagLXCol) доступности соотнесенного блока может быть задана как 1.
В других случаях, если определено, что межкадровое предсказание выполнено по соотнесенному блоку с использованием списка L0 (флаг (PredFlagL0) равен 1), то информация соотнесенного блока, относящаяся к предсказанию движения, такая как информация mvCol, информация refldxCol и информация listCol может задаваться отдельно для случая, когда PredFlagL1 равен 0 и для случая, когда PredFlagL1 равен 1, и информация (availableFlagLXCol) доступности соотнесенного блока может быть установлена как 1.
Полученный mvLXCol масштабируют (шаг S430).
Для использования mvLXCol, полученного на шаге S420 в качестве вектора движения временного предсказания для целевого блока предсказания, полученное значение mvLXCol может масштабироваться на основании информации расстояния, относящейся к расстоянию между соотнесенным изображением, содержащим соотнесенный блок и опорным изображением соотнесенного блока, на которое ссылается соотнесенный блок, и к расстоянию между изображением, содержащим целевой блок предсказания, и опорным изображением, на которое ссылается целевой блок предсказания. После масштабирования полученного значения mvLXCol может быть получен вектор движения временного предсказания.
Далее в настоящем документе, в соответствии с вариантом реализации настоящего изобретения, раскрывается способ реализации межкадрового предсказания, такой как слияние и AMVP.
На фиг. 8 показана схема алгоритма, иллюстрирующая способ межкадрового предсказания, использующего режим слияния в соответствии с вариантом реализации настоящего изобретения.
Согласно фиг. 8, из пространственного кандидата на слияние может быть получена информация, относящаяся к предсказанию движения (шаг S1000).
Пространственный кандидат на слияние может быть получен из соседних блоков предсказания целевого блока предсказания. Для получения пространственного кандидата на слияние может быть получена информация о ширине и высоте блока предсказания, информация MER (области оценки движения), информация singleMCLFlag и информация о положении частей. На основании такой входной информации можно получить информацию (availableFlagN) доступности в соответствии с положением пространственного кандидата на слияние, информацию (refldxL0, refldxU) опорного изображения, информацию (predFlagL0N, redFlag0N) использования списка и информацию (mvL0N, mvL1N) вектора движения. Множество блоков, соседних для целевого блока предсказания, могут быть пространственными кандидатами на слияние.
На фиг. 9 показан концептуальный вид, иллюстрирующий положения пространственных кандидатов на слияния в соответствии с вариантом реализации настоящего изобретения.
Согласно фиг. 9, если положение точки вверху слева целевого блока предсказания равно (xP, yP), ширина целевого блока предсказания равна nPSW, а высота целевого блока предсказания равна nPSH, то пространственный кандидат на слияние может быть блоком АО, содержащим точку (xP-1, yP+nPSH), блоком А1, содержащим точку (хР-1, yP+nPSH-MinPuSize), блоком ВО, содержащим точку (xP+nPSW, уР-1), блоком В1, содержащим точку (xP+nPSW-MinPuSize, уР-1) и блоком В2, содержащим точку (xP-MinPuSize, уР-1).
Вернемся к фиг. 8, где определяют значение индекса опорного изображения временного кандидата на слияние (шаг S1010).
Значение индекса опорного изображения временного кандидата на слияние как значение индекса соотнесенного изображения, содержащего временной кандидат на слияние (соотнесенный блок), может быть получено при следующих конкретных условиях. Данные условия являются произвольными и могут варьироваться. Например, в случае, когда положение точки сверху-слева целевого блока предсказания равно (xP, yP), ширина целевого блока предсказания равна nPSW и высота целевого блока предсказания равна nPSH, если 1) существует соседний блок предсказания целевого блока предсказания, соответствующий положению (xP-1, yP+nPSH-1) (далее обозначаемый как соседний блок предсказания для получения индекса опорного изображения), 2) значение индекса деления соседнего блока предсказания для определения индекса опорного изображения равно 0, 3) соседний блок предсказания для вывода индекса опорного изображения не является блоком, по которому осуществляется предсказание с использованием режима внутрикадрового предсказания, и 4) целевой блок предсказания и соседний блок предсказания для вывода индекса опорного изображения не принадлежат одной и той же MER (области оценки движения), то значение индекса опорного изображения временного кандидата на слияние может быть определено как то же самое значение, что и значение индекса опорного изображения соседнего блока предсказания для получения индекса опорного изображения. Если эти условия не удовлетворяются, то значение индекса опорного изображения временного кандидата на слияние может быть задано равным 0.
Определяют временной блок-кандидат на слияние (соотнесенный блок), и из соотнесенного блока получают информацию, относящуюся к предсказанию движения (шаг S1020).
В соответствии с вариантом реализации настоящего изобретения, временной блок-кандидат на слияние (соотнесенный блок) может адаптивно определяться в зависимости от местоположения целевого блока предсказания в LCD так, чтобы соотнесенный блок находился в том же самом LCD, что и целевой блок предсказания.
1) Если нижний край и правая сторона целевого блока предсказания не прилегают к границе LCU, то при определении доступности в качестве соотнесенного блока для получения временного вектора движения могут последовательно использоваться первый соотнесенный блок и пятый соотнесенный блок.
2) Если только нижний край целевого блока предсказания прилегает к границе LCU, то при определении доступности в качестве соотнесенного блока для получения временного вектора движения могут последовательно использоваться третий соотнесенный блок и пятый соотнесенный блок.
3) Если и правая сторона, и нижний край целевого блока предсказания прилегают к границе LCU, то при определении доступности в качестве соотнесенного блока для получения временного вектора движения могут последовательно использоваться четвертый соотнесенный блок и пятый соотнесенный блок.
4) Если только правая сторона целевого блока предсказания прилегает к границе LCU, то при определении доступности в качестве соотнесенного блока для получения временного вектора движения могут последовательно использоваться второй соотнесенный блок и пятый соотнесенный блок.
В соответствии с вариантом реализации настоящего изобретения может использоваться способ, обеспечивающий возможность определять соотнесенный блок адаптивно и иначе, в зависимости от положения целевого блока предсказания в LCU, чтобы находиться в положении, находящемся в одном LCU вместе с целевым блоком предсказания, или соотнесенный блок, не находящийся в одном LCU вместе с целевым блоком предсказания, может не использоваться.
Как было раскрыто выше, в качестве способа получения соотнесенного блока может использоваться способ разделения характеристик целевого блока предсказания, как было раскрыто выше, в зависимости от положения целевого блока предсказания и границы LCU, и определения блока для немедленного использования в качестве соотнесенного блока в зависимости от положения выделенного целевого блока предсказания. Однако, первый соотнесенный блок и пятый соотнесенный блок могут сначала считаться последовательно используемыми в качестве соотнесенных блоков для получения временного вектора движения, при этом определяют, доступен ли первый соотнесенный блок (например, прилегает ли нижняя граница целевого блока предсказания к LCU), и затем в качестве соотнесенного блока для определения временного вектора движения может определяться соотнесенный блок, отличающийся от первого соотнесенного блока.
Конфигурируют список кандидатов на слияние (шаг S1030).
Список кандидатов на слияние может формироваться с включением в него, по меньшей мере, одного из пространственных кандидатов на слияние и временного кандидата на слияние. Пространственные кандидаты на слияние и временной кандидат на слияние, входящие в список кандидатов на слияние, можно упорядочить с заданным приоритетом.
Список кандидатов на слияние может быть созданным с входящим в него фиксированным числом кандидатов на слияние, и если число кандидатов на слияние меньше, чем данное фиксированное число, то информация, относящаяся к предсказанию движения и принадлежащая кандидатам на слияние, комбинируется для формирования кандидатов на слияние, или в качестве кандидатов на слияния формируются нулевые векторы, формируя, таким образом, список кандидатов на слияние.
На фиг. 10 показана схема алгоритма, иллюстрирующая способ межкадрового предсказания с использованием AMVP в соответствии с вариантом реализации настоящего изобретения.
Согласно фиг. 10, из пространственных блоков-кандидатов AMVP получают информацию, относящуюся к предсказанию движения (шаг S1200).
Для получения информации индекса опорного изображения и вектора предсказания движения целевого блока предсказания, пространственный блок(и)-кандидат(ы) AMVP можно определить из блоков предсказания, соседних для целевого блока предсказания.
Вернемся к фиг. 9, согласно которой в качестве первого пространственного блока-кандидата AMVP можно использовать один из блока АО и блока А1, а в качестве второго пространственного блока-кандидата AMVP можно использовать один из блока ВО, блока В1 и блока В2, определяя таким образом пространственные блоки-кандидаты AMVP.
Из временного блока-кандидата AMVP получают информацию, относящуюся к предсказанию движения (шаг S1210).
В соответствии с вариантом реализации настоящего изобретения, соотнесенный блок может адаптивно определяться в зависимости от местоположения целевого блока предсказания в LCU так, чтобы соотнесенный блок находился в том же самом LCU, что и целевой блок предсказания.
1) Если нижний край и правая сторона целевого блока предсказания не прилегают к границе LCU, то в качестве соотнесенного блока для получения временного вектора движения с проверкой доступности могут последовательно использоваться первый соотнесенный блок и пятый соотнесенный блок.
2) Если только нижний край целевого блока предсказания прилегает к границе LCU, то в качестве соотнесенного блока для получения временного вектора движения с проверкой доступности могут последовательно использоваться третий соотнесенный блок и пятый соотнесенный блок.
3) Если и правая сторона, и нижний край целевого блока предсказания прилегают к границе LCU, то в качестве соотнесенного блока для получения временного вектора движения с проверкой доступности могут последовательно использоваться четвертый соотнесенный блок и пятый соотнесенный блок.
4) Если только правая сторона целевого блока предсказания прилегает к границе LCU, то в качестве соотнесенного блока для получения временного вектора движения с проверкой доступности могут последовательно использоваться второй соотнесенный блок и пятый соотнесенный блок.
В соответствии с вариантом реализации настоящего изобретения, может применяться способ, в котором соотнесенный блок, не находящийся в том же самом LCU, что и целевой блок предсказания, может не использоваться, а также способ, в котором соотнесенный блок адаптивно определяется в зависимости от местоположения целевого блока предсказания в LCU, чтобы иметь местоположение, входящее в тот же самый LCU, что и целевой блок предсказания.
На шаге S1200 получения пространственных блоков-кандидатов AMVP, если первый пространственный блок-кандидат AMVP и второй пространственный блок-кандидат AMVP определены как доступные, и значения полученных векторов предсказания движения не одинаковы, то шаг S1210 получения вектора движения временного предсказания можно не выполнять.
Создают список кандидатов AMVP (шаг S1220).
Список кандидатов AMVP создается с использованием информации, относящейся к предсказанию движения, полученной при выполнении по меньшей мере одного из шагов S1200 и S1210. Если в созданном списке кандидатов AMVP имеется такая же информация, относящаяся к предсказанию движения, то в качестве значения кандидата AMVP может использоваться одно значение среди одинаковых информации, относящихся к предсказанию движения. Информация, относящаяся к предсказанию движения, входящая в список кандидатов AMVP, может содержать только фиксированное число значений кандидатов.
Хотя в настоящем документе раскрыты данные варианты реализации настоящего изобретения, для специалиста в области техники, к которой относится изобретение, очевидно, что могут быть сделаны различные изменения и модификации настоящего изобретения без отступления от сущности и объема настоящего изобретения.

Claims (8)

1. Способ получения вектора движения временного предсказания, содержащий: определение соотнесенного блока в соотнесенном изображении на основании того, прилегает ли граница целевого блока предсказания к границе наибольшего кодового блока (LCU); и получение вектора движения временного предсказания целевого блока предсказания путем использования вектора движения определенного таким образом соотнесенного блока.
2. Способ по п. 1, в котором соотнесенный блок определяют путем выяснения, прилегает ли нижняя граница целевого блока предсказания к границе LCU.
3. Способ по п. 1, в котором соотнесенный блок определяют путем выяснения, прилегает ли нижняя граница целевого блока предсказания к границе LCU и прилегает ли только правая граница целевого блока предсказания к границе LCU,
4. Способ по п. 1, в котором вектор движения временного предсказания получают путем масштабирования вектора движения соотнесенного блока на основании первого расстояния и второго расстояния, при этом первое расстояние представляет собой расстояние между изображением, содержащим целевой блок предсказания, и опорным изображением целевого блока предсказания, а второе расстояние представляет собой расстояние между соотнесенным изображением и опорным изображением соотнесенного блока.
5. Устройство декодирования видео, содержащее: модуль предсказания, выполненный с возможностью определения соотнесенного блока в соотнесенном изображении на основании того, прилегает ли граница целевого блока предсказания к границе наибольшего кодового блока (LCU), получения вектора движения временного предсказания целевого блока предсказания путем использования вектора движения определенного таким образом соотнесенного блока.
6. Устройство по п. 5, в котором определение соотнесенного блока происходит путем выяснения, прилегает ли нижняя граница целевого блока предсказания к границе LCU.
7. Устройство по п. 5, в котором определение соотнесенного блока происходит путем выяснения, прилегает ли нижняя граница целевого блока предсказания к границе LCU и прилегает ли только правая граница целевого блока предсказания к границе LCU.
8. Устройство по п. 5, в котором получение вектора движения временного предсказания происходит путем масштабирования вектора движения соотнесенного блока на основании первого расстояния и второго расстояния, при этом первое расстояние представляет собой расстояние между изображением, содержащим целевой блок предсказания, и опорным изображением целевого блока предсказания, а второе расстояние представляет собой расстояние между соотнесенным изображением и опорным изображением соотнесенного блока.
RU2013140661/08A 2011-09-09 2012-09-06 Способ получения вектора движения с временным предсказанием и устройство, использующее этот способ RU2600547C2 (ru)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
KR20110091782 2011-09-09
KR10-2011-0091782 2011-09-09
KR10-2012-0039501 2012-04-17
KR1020120039501A KR101204026B1 (ko) 2011-09-09 2012-04-17 시간적 예측 움직임 벡터 유도 방법 및 이러한 방법을 사용하는 장치
PCT/KR2012/007174 WO2013036041A2 (ko) 2011-09-09 2012-09-06 시간적 예측 움직임 벡터 유도 방법 및 이러한 방법을 사용하는 장치

Related Child Applications (9)

Application Number Title Priority Date Filing Date
RU2016133570A Division RU2716231C2 (ru) 2011-09-09 2012-09-06 Способ декодирования видеосигнала
RU2016133501A Division RU2622849C1 (ru) 2011-09-09 2012-09-06 Способ и устройство декодирования видеосигнала
RU2016133481A Division RU2635235C1 (ru) 2011-09-09 2012-09-06 Способ и устройство декодирования видеосигнала
RU2016133579A Division RU2716563C2 (ru) 2011-09-09 2012-09-06 Способ декодирования видеосигнала
RU2016133546A Division RU2636118C1 (ru) 2011-09-09 2012-09-06 Способ декодирования видеосигнала
RU2016133566A Division RU2716230C2 (ru) 2011-09-09 2012-09-06 Способ декодирования видеосигнала
RU2016133536A Division RU2636117C1 (ru) 2011-09-09 2012-09-06 Способ декодирования видеосигнала
RU2016133485A Division RU2646384C1 (ru) 2011-09-09 2012-09-06 Способ и устройство декодирования видеосигнала
RU2016133580A Division RU2716229C2 (ru) 2011-09-09 2012-09-06 Способ декодирования видеосигнала

Publications (2)

Publication Number Publication Date
RU2013140661A RU2013140661A (ru) 2015-10-20
RU2600547C2 true RU2600547C2 (ru) 2016-10-20

Family

ID=47832709

Family Applications (10)

Application Number Title Priority Date Filing Date
RU2016133580A RU2716229C2 (ru) 2011-09-09 2012-09-06 Способ декодирования видеосигнала
RU2016133485A RU2646384C1 (ru) 2011-09-09 2012-09-06 Способ и устройство декодирования видеосигнала
RU2016133546A RU2636118C1 (ru) 2011-09-09 2012-09-06 Способ декодирования видеосигнала
RU2016133536A RU2636117C1 (ru) 2011-09-09 2012-09-06 Способ декодирования видеосигнала
RU2016133481A RU2635235C1 (ru) 2011-09-09 2012-09-06 Способ и устройство декодирования видеосигнала
RU2016133570A RU2716231C2 (ru) 2011-09-09 2012-09-06 Способ декодирования видеосигнала
RU2016133501A RU2622849C1 (ru) 2011-09-09 2012-09-06 Способ и устройство декодирования видеосигнала
RU2013140661/08A RU2600547C2 (ru) 2011-09-09 2012-09-06 Способ получения вектора движения с временным предсказанием и устройство, использующее этот способ
RU2016133579A RU2716563C2 (ru) 2011-09-09 2012-09-06 Способ декодирования видеосигнала
RU2016133566A RU2716230C2 (ru) 2011-09-09 2012-09-06 Способ декодирования видеосигнала

Family Applications Before (7)

Application Number Title Priority Date Filing Date
RU2016133580A RU2716229C2 (ru) 2011-09-09 2012-09-06 Способ декодирования видеосигнала
RU2016133485A RU2646384C1 (ru) 2011-09-09 2012-09-06 Способ и устройство декодирования видеосигнала
RU2016133546A RU2636118C1 (ru) 2011-09-09 2012-09-06 Способ декодирования видеосигнала
RU2016133536A RU2636117C1 (ru) 2011-09-09 2012-09-06 Способ декодирования видеосигнала
RU2016133481A RU2635235C1 (ru) 2011-09-09 2012-09-06 Способ и устройство декодирования видеосигнала
RU2016133570A RU2716231C2 (ru) 2011-09-09 2012-09-06 Способ декодирования видеосигнала
RU2016133501A RU2622849C1 (ru) 2011-09-09 2012-09-06 Способ и устройство декодирования видеосигнала

Family Applications After (2)

Application Number Title Priority Date Filing Date
RU2016133579A RU2716563C2 (ru) 2011-09-09 2012-09-06 Способ декодирования видеосигнала
RU2016133566A RU2716230C2 (ru) 2011-09-09 2012-09-06 Способ декодирования видеосигнала

Country Status (14)

Country Link
US (4) US10523967B2 (ru)
EP (2) EP3179723B1 (ru)
JP (7) JP5745693B2 (ru)
CN (19) CN107580221B (ru)
AU (1) AU2012305071B2 (ru)
BR (1) BR112013022641B1 (ru)
CA (2) CA2937483C (ru)
ES (1) ES2487993B1 (ru)
GB (7) GB2562635B (ru)
MX (4) MX351052B (ru)
PL (1) PL231159B1 (ru)
RU (10) RU2716229C2 (ru)
SE (5) SE1651149A1 (ru)
WO (1) WO2013036041A2 (ru)

Families Citing this family (53)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120068743A (ko) * 2010-12-17 2012-06-27 한국전자통신연구원 인터 예측 방법 및 그 장치
GB2562635B (en) 2011-09-09 2019-04-03 Kt Corp Method for deriving a temporal predictive motion vector
MX2013008349A (es) 2011-09-23 2013-11-04 Kt Corp Metodo para inducir un bloque candidato de combinacion y dispositivo que usa el mismo.
CN105453564B (zh) 2013-07-30 2019-05-10 株式会社Kt 支持多个层的图像编码和解码方法以及使用该方法的装置
US9894369B2 (en) 2013-07-30 2018-02-13 Kt Corporation Image encoding and decoding method supporting plurality of layers and apparatus using same
WO2015016536A1 (ko) * 2013-07-30 2015-02-05 주식회사 케이티 복수의 레이어를 지원하는 영상의 부호화 및 복호화 방법 및 이를 이용하는 장치
CN111147845B (zh) * 2014-11-27 2023-10-10 株式会社Kt 对视频信号进行解码的方法和对视频信号进行编码的方法
WO2017008255A1 (en) * 2015-07-14 2017-01-19 Mediatek Singapore Pte. Ltd. Advanced intra prediction mode signaling in video coding
US10313765B2 (en) 2015-09-04 2019-06-04 At&T Intellectual Property I, L.P. Selective communication of a vector graphics format version of a video content item
WO2017048008A1 (ko) * 2015-09-17 2017-03-23 엘지전자 주식회사 영상 코딩 시스템에서 인터 예측 방법 및 장치
CN105681788B (zh) * 2016-04-07 2019-05-03 中星技术股份有限公司 视频编码方法和视频编码装置
CN116546205A (zh) * 2016-04-08 2023-08-04 韩国电子通信研究院 用于导出运动预测信息的方法和装置
US10116957B2 (en) * 2016-09-15 2018-10-30 Google Inc. Dual filter type for motion compensated prediction in video coding
US11095892B2 (en) * 2016-09-20 2021-08-17 Kt Corporation Method and apparatus for processing video signal
US11394976B2 (en) * 2017-01-03 2022-07-19 Lg Electronics Inc. Inter-prediction method and apparatus in image coding system
EP3383043A1 (en) 2017-03-27 2018-10-03 Thomson Licensing Methods and apparatus for picture encoding and decoding
JP6867870B2 (ja) 2017-05-18 2021-05-12 スタンレー電気株式会社 車両用灯具
CN111480341A (zh) * 2017-11-01 2020-07-31 Vid拓展公司 用于合并模式的解码器侧运动矢量细化和子块运动导出
KR20190090728A (ko) * 2018-01-25 2019-08-02 주식회사 윌러스표준기술연구소 서브블록 기반의 모션 보상을 이용한 비디오 신호 처리 방법 및 장치
WO2019164031A1 (ko) * 2018-02-22 2019-08-29 엘지전자 주식회사 영상 코딩 시스템에서 블록 분할 구조에 따른 영상 디코딩 방법 및 장치
CN118381900A (zh) 2018-03-21 2024-07-23 Lx 半导体科技有限公司 图像编码/解码设备以及发送图像数据的设备
JP7100200B2 (ja) 2018-06-29 2022-07-12 北京字節跳動網絡技術有限公司 マージ/amvpにhmvp候補を追加する際の一部/全部プルーニング
EP3791588A1 (en) 2018-06-29 2021-03-17 Beijing Bytedance Network Technology Co. Ltd. Checking order of motion candidates in lut
SG11202012293RA (en) 2018-06-29 2021-01-28 Beijing Bytedance Network Technology Co Ltd Update of look up table: fifo, constrained fifo
KR102660666B1 (ko) 2018-06-29 2024-04-26 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 Lut들을 업데이트하기 위한 조건들
TWI731360B (zh) 2018-06-29 2021-06-21 大陸商北京字節跳動網絡技術有限公司 查找表的使用條件
TWI744660B (zh) * 2018-06-29 2021-11-01 大陸商北京字節跳動網絡技術有限公司 運動估計區域改進
KR20210025537A (ko) 2018-06-29 2021-03-09 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 하나 또는 다수의 룩업 테이블들을 사용하여 이전에 코딩된 모션 정보를 순서대로 저장하고 이를 사용하여 후속 블록들을 코딩하는 개념
CN110662057B (zh) 2018-06-29 2022-06-21 北京字节跳动网络技术有限公司 视频处理方法、装置、设备以及存储比特流的方法
SG11202013028PA (en) 2018-06-29 2021-01-28 Beijing Bytedance Network Technology Co Ltd Interaction between lut and amvp
EP3815376A1 (en) 2018-07-02 2021-05-05 Beijing Bytedance Network Technology Co. Ltd. Luts with intra prediction modes and intra mode prediction from non-adjacent blocks
WO2020009447A1 (ko) * 2018-07-02 2020-01-09 엘지전자 주식회사 인터 예측 모드 기반 영상 처리 방법 및 이를 위한 장치
CN110868601B (zh) * 2018-08-28 2024-03-15 华为技术有限公司 帧间预测方法、装置以及视频编码器和视频解码器
KR102643422B1 (ko) 2018-08-29 2024-03-04 베이징 다지아 인터넷 인포메이션 테크놀로지 컴퍼니 리미티드 서브블록 기반 시간적 모션 벡터 예측을 사용한 비디오 코딩의 방법 및 장치
GB2590310B (en) 2018-09-12 2023-03-22 Beijing Bytedance Network Tech Co Ltd Conditions for starting checking HMVP candidates depend on total number minus K
GB2579763B (en) * 2018-09-21 2021-06-09 Canon Kk Video coding and decoding
IL307586A (en) 2018-09-21 2023-12-01 Guangdong Oppo Mobile Telecommunications Corp Ltd A method for encoding/decoding image signals and a device therefor
GB2577318B (en) 2018-09-21 2021-03-10 Canon Kk Video coding and decoding
KR102658887B1 (ko) * 2018-10-10 2024-04-18 삼성전자주식회사 움직임 벡터 차분값을 이용한 비디오 부호화 및 복호화 방법, 및 움직임 정보의 부호화 및 복호화 장치
GB2578151B (en) 2018-10-18 2021-06-09 Canon Kk Video coding and decoding
GB2578150C (en) 2018-10-18 2022-05-18 Canon Kk Video coding and decoding
JP7281890B2 (ja) 2018-10-24 2023-05-26 シャープ株式会社 動画像符号化装置および動画像復号装置
CN113273186A (zh) 2019-01-10 2021-08-17 北京字节跳动网络技术有限公司 Lut更新的调用
WO2020143824A1 (en) 2019-01-13 2020-07-16 Beijing Bytedance Network Technology Co., Ltd. Interaction between lut and shared merge list
CN113330739A (zh) 2019-01-16 2021-08-31 北京字节跳动网络技术有限公司 Lut中的运动候选的插入顺序
WO2020192611A1 (en) 2019-03-22 2020-10-01 Beijing Bytedance Network Technology Co., Ltd. Interaction between merge list construction and other tools
CN110933408B (zh) * 2019-06-21 2020-11-10 杭州海康威视数字技术股份有限公司 预测模式的解码、编码方法及装置
KR20220044271A (ko) 2019-08-10 2022-04-07 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 비디오 비트스트림들에서의 서브픽처 의존적 시그널링
CN117676135A (zh) 2019-10-18 2024-03-08 北京字节跳动网络技术有限公司 子图片与环路滤波之间的相互影响
JP7397211B2 (ja) 2020-02-14 2023-12-12 北京字節跳動網絡技術有限公司 映像ビットストリームにおけるサブピクチャ情報の信号通知
EP4107941A4 (en) * 2020-03-23 2023-04-19 Beijing Bytedance Network Technology Co., Ltd. PREDICTION REFINEMENT FOR AFFINE BLENDING MODE AND AFFINE MOTION VECTOR PREDICTION MODE
CN113840148A (zh) * 2020-06-24 2021-12-24 Oppo广东移动通信有限公司 帧间预测方法、编码器、解码器以及计算机存储介质
CN111698517B (zh) * 2020-06-29 2022-07-12 Oppo广东移动通信有限公司 运动矢量的确定方法、装置、电子设备和可读存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2003174C1 (ru) * 1990-01-22 1993-11-15 Санкт-Петербургский государственный электротехнический университет им.В.И.Уль нова (Ленина) Способ распознавани изображений
RU2182727C2 (ru) * 2000-07-20 2002-05-20 Дворкович Александр Викторович Способ поиска векторов движения деталей в динамических изображениях
RU2360375C2 (ru) * 2002-07-18 2009-06-27 Эл Джи Электроникс Инк. Способ определения векторов движения для текущего блока в кадре, подлежащем декодированию

Family Cites Families (95)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5508744A (en) 1993-03-12 1996-04-16 Thomson Consumer Electronics, Inc. Video signal compression with removal of non-correlated motion vectors
JP3640318B2 (ja) * 1995-09-01 2005-04-20 インターナショナル・ビジネス・マシーンズ・コーポレーション ディジタル画像の符号化方法及びシステム
EP1305951A2 (en) 2000-07-20 2003-05-02 Giant Leap Ahead Limited Method and apparatus for determining motion vectors in dynamic images
US20030099294A1 (en) * 2001-11-27 2003-05-29 Limin Wang Picture level adaptive frame/field coding for digital video content
KR100446083B1 (ko) 2002-01-02 2004-08-30 삼성전자주식회사 움직임 추정 및 모드 결정 장치 및 방법
US20050226462A1 (en) * 2002-05-30 2005-10-13 Wittebrood Rimmert B Unit for and method of estimating a motion vector
CN100566420C (zh) 2002-07-15 2009-12-02 株式会社日立制作所 动态图像的编码方法
CN1689325B (zh) * 2002-10-01 2012-05-30 汤姆森许可贸易公司 视频编码器中参考图像的隐含加权
US7801217B2 (en) 2002-10-01 2010-09-21 Thomson Licensing Implicit weighting of reference pictures in a video encoder
US7408986B2 (en) 2003-06-13 2008-08-05 Microsoft Corporation Increasing motion smoothness using frame interpolation with motion analysis
US20040258154A1 (en) 2003-06-19 2004-12-23 Microsoft Corporation System and method for multi-stage predictive motion estimation
US7609763B2 (en) * 2003-07-18 2009-10-27 Microsoft Corporation Advanced bi-directional predictive coding of video frames
WO2005020583A1 (en) 2003-08-22 2005-03-03 Koninklijke Philips Electronics, N.V. Joint spatial-temporal-orientation-scale prediction and coding of motion vectors for rate-distortion-complexity optimized video coding
US8064520B2 (en) * 2003-09-07 2011-11-22 Microsoft Corporation Advanced bi-directional predictive coding of interlaced video
US20070014359A1 (en) * 2003-10-09 2007-01-18 Cristina Gomila Direct mode derivation process for error concealment
KR100596706B1 (ko) 2003-12-01 2006-07-04 삼성전자주식회사 스케일러블 비디오 코딩 및 디코딩 방법, 이를 위한 장치
MXPA06006107A (es) * 2003-12-01 2006-08-11 Samsung Electronics Co Ltd Metodo y aparato de codificacion y decodificacion escalables de video.
KR100597402B1 (ko) 2003-12-01 2006-07-06 삼성전자주식회사 스케일러블 비디오 코딩 및 디코딩 방법, 이를 위한 장치
JP3879741B2 (ja) 2004-02-25 2007-02-14 ソニー株式会社 画像情報符号化装置および画像情報符号化方法
KR100694059B1 (ko) * 2004-09-30 2007-03-12 삼성전자주식회사 멀티 타임 스캔 방식에 기초한 인터 모드 인코딩 및디코딩 방법 및 장치
KR100888962B1 (ko) * 2004-12-06 2009-03-17 엘지전자 주식회사 영상 신호의 인코딩 및 디코딩 방법
KR100703770B1 (ko) 2005-03-25 2007-04-06 삼성전자주식회사 가중 예측을 이용한 비디오 코딩 및 디코딩 방법, 이를위한 장치
WO2006109209A1 (en) 2005-04-12 2006-10-19 Koninklijke Philips Electronics N.V. Video processing with region-based multiple-pass motion estimation and update of temporal motion vector candidates
KR100896279B1 (ko) * 2005-04-15 2009-05-07 엘지전자 주식회사 영상 신호의 스케일러블 인코딩 및 디코딩 방법
JP2006303734A (ja) 2005-04-18 2006-11-02 Victor Co Of Japan Ltd 動画像符号化装置及びそのプログラム
KR20060123939A (ko) 2005-05-30 2006-12-05 삼성전자주식회사 영상의 복부호화 방법 및 장치
US8761258B2 (en) 2005-06-17 2014-06-24 The Hong Kong University Of Science And Technology Enhanced block-based motion estimation algorithms for video compression
WO2007005750A2 (en) 2005-07-01 2007-01-11 Sonic Solutions Method, apparatus and system for use in multimedia signal encoding
KR20070038396A (ko) 2005-10-05 2007-04-10 엘지전자 주식회사 영상 신호의 인코딩 및 디코딩 방법
KR100728031B1 (ko) * 2006-01-23 2007-06-14 삼성전자주식회사 가변 블록 크기 움직임 예측을 위한 부호화 모드 결정 방법및 장치
WO2007114612A1 (en) 2006-03-30 2007-10-11 Lg Electronics Inc. A method and apparatus for decoding/encoding a video signal
US20100091845A1 (en) 2006-03-30 2010-04-15 Byeong Moon Jeon Method and apparatus for decoding/encoding a video signal
CN101491095B (zh) 2006-03-30 2013-07-10 Lg电子株式会社 用于解码/编码视频信号的方法和装置
CN101090491B (zh) * 2006-06-16 2016-05-18 香港科技大学 用于视频压缩的增强的基于块的运动估计算法
WO2007148909A1 (en) 2006-06-19 2007-12-27 Lg Electronics, Inc. Method and apparatus for processing a vedeo signal
CN101102503A (zh) 2006-07-07 2008-01-09 华为技术有限公司 视频分层编码层间运动矢量的预测方法
US8532178B2 (en) 2006-08-25 2013-09-10 Lg Electronics Inc. Method and apparatus for decoding/encoding a video signal with inter-view reference picture list construction
US20080101474A1 (en) 2006-11-01 2008-05-01 Yi-Jen Chiu Optimizing the storage and reducing the computation of reference picture list processing in video decoding
CN101222638B (zh) * 2007-01-08 2011-12-07 华为技术有限公司 多视视频编解码方法及装置
CN101669367A (zh) 2007-03-02 2010-03-10 Lg电子株式会社 用于解码/编码视频信号的方法及设备
KR20100014553A (ko) 2007-04-25 2010-02-10 엘지전자 주식회사 비디오 신호의 인코딩/디코딩 방법 및 장치
CN101119493B (zh) * 2007-08-30 2010-12-01 威盛电子股份有限公司 区块式数字编码图像的译码方法及装置
JP2011501497A (ja) 2007-10-15 2011-01-06 ノキア コーポレイション マルチビュー映像コンテンツのための動きスキップおよびシングルループ符号化
KR101946376B1 (ko) 2007-10-16 2019-02-11 엘지전자 주식회사 비디오 신호 처리 방법 및 장치
US8908765B2 (en) 2007-11-15 2014-12-09 General Instrument Corporation Method and apparatus for performing motion estimation
US9641861B2 (en) * 2008-01-25 2017-05-02 Mediatek Inc. Method and integrated circuit for video processing
CN101540902B (zh) * 2008-03-20 2011-02-02 华为技术有限公司 运动矢量的缩放方法和装置、编解码方法和系统
CN101983029B (zh) * 2008-03-31 2015-01-14 皇家飞利浦电子股份有限公司 制备包括传感器的可吞服胶囊的方法
JP2010011075A (ja) * 2008-06-26 2010-01-14 Toshiba Corp 動画像符号化及び動画像復号化の方法及び装置
JP2010016454A (ja) * 2008-07-01 2010-01-21 Sony Corp 画像符号化装置および方法、画像復号装置および方法、並びにプログラム
TWI374672B (en) * 2008-07-04 2012-10-11 Univ Nat Taiwan Seamless wireless video transmission for multimedia applications
JP5289440B2 (ja) 2008-07-10 2013-09-11 三菱電機株式会社 画像符号化装置、画像復号装置、画像符号化方法及び画像復号方法
WO2010041855A2 (en) * 2008-10-06 2010-04-15 Lg Electronics Inc. A method and an apparatus for processing a video signal
CN101540926B (zh) * 2009-04-15 2010-10-27 南京大学 基于h.264的立体视频编解码方法
CN102883160B (zh) 2009-06-26 2016-06-29 华为技术有限公司 视频图像运动信息获取方法、装置及设备、模板构造方法
KR101456498B1 (ko) 2009-08-14 2014-10-31 삼성전자주식회사 계층적 부호화 단위의 스캔 순서를 고려한 비디오 부호화 방법 및 장치, 비디오 복호화 방법 및 장치
CN102361671B (zh) 2009-08-20 2013-08-21 金落成 朝前后倾斜椅子而摇荡的秋千
JP2011097572A (ja) 2009-09-29 2011-05-12 Canon Inc 動画像符号化装置
WO2011070730A1 (ja) 2009-12-07 2011-06-16 日本電気株式会社 映像符号化装置および映像復号装置
CN101860754B (zh) * 2009-12-16 2013-11-13 香港应用科技研究院有限公司 运动矢量编码和解码的方法和装置
KR20110068792A (ko) 2009-12-16 2011-06-22 한국전자통신연구원 적응적 영상 부호화 장치 및 방법
JP2011151775A (ja) * 2009-12-22 2011-08-04 Jvc Kenwood Holdings Inc 画像復号装置、画像復号方法および画像復号プログラム
KR101522850B1 (ko) 2010-01-14 2015-05-26 삼성전자주식회사 움직임 벡터를 부호화, 복호화하는 방법 및 장치
US9036692B2 (en) 2010-01-18 2015-05-19 Mediatek Inc. Motion prediction method
CN102131094A (zh) * 2010-01-18 2011-07-20 联发科技股份有限公司 运动预测方法
KR20120086232A (ko) 2011-01-25 2012-08-02 (주)휴맥스 율-왜곡 최적화를 위한 영상 부호화/복호화 방법 및 이를 수행하는 장치
WO2011096770A2 (ko) * 2010-02-02 2011-08-11 (주)휴맥스 영상 부호화/복호화 장치 및 방법
KR101495724B1 (ko) 2010-02-02 2015-02-25 삼성전자주식회사 계층적 데이터 단위의 스캔 순서에 기반한 비디오 부호화 방법과 그 장치, 및 비디오 복호화 방법과 그 장치
WO2011096662A2 (ko) 2010-02-02 2011-08-11 (주)휴맥스 율-왜곡 최적화를 위한 영상 부호화/복호화 방법 및 이를 수행하는 장치
PE20170652A1 (es) * 2010-04-23 2017-05-12 Mandk Holdings Inc Dispositivo de procesamiento de imagenes digitales para codificar una imagen
KR102415787B1 (ko) * 2010-05-04 2022-06-30 엘지전자 주식회사 비디오 신호의 처리 방법 및 장치
US9124898B2 (en) 2010-07-12 2015-09-01 Mediatek Inc. Method and apparatus of temporal motion vector prediction
HRP20231669T1 (hr) * 2010-09-02 2024-03-15 Lg Electronics, Inc. Inter predikcija
KR101033243B1 (ko) * 2010-11-17 2011-05-06 엘아이지넥스원 주식회사 객체 추적 방법 및 장치
US8824558B2 (en) 2010-11-23 2014-09-02 Mediatek Inc. Method and apparatus of spatial motion vector prediction
US8711940B2 (en) * 2010-11-29 2014-04-29 Mediatek Inc. Method and apparatus of motion vector prediction with extended motion vector predictor
US9137544B2 (en) 2010-11-29 2015-09-15 Mediatek Inc. Method and apparatus for derivation of mv/mvp candidate for inter/skip/merge modes
US10142630B2 (en) * 2010-12-10 2018-11-27 Texas Instruments Incorporated Mode adaptive intra prediction smoothing in video coding
WO2012081949A2 (ko) 2010-12-17 2012-06-21 한국전자통신연구원 인터 예측 방법 및 그 장치
KR20120068743A (ko) 2010-12-17 2012-06-27 한국전자통신연구원 인터 예측 방법 및 그 장치
JP6057165B2 (ja) 2011-01-25 2017-01-11 サン パテント トラスト 動画像復号化方法
US9319716B2 (en) 2011-01-27 2016-04-19 Qualcomm Incorporated Performing motion vector prediction for video coding
WO2012140821A1 (ja) 2011-04-12 2012-10-18 パナソニック株式会社 動画像符号化方法、動画像符号化装置、動画像復号化方法、動画像復号化装置、および動画像符号化復号化装置
US9247266B2 (en) * 2011-04-18 2016-01-26 Texas Instruments Incorporated Temporal motion data candidate derivation in video coding
GB2562635B (en) 2011-09-09 2019-04-03 Kt Corp Method for deriving a temporal predictive motion vector
US9392235B2 (en) 2011-11-18 2016-07-12 Google Technology Holdings LLC Explicit way for signaling a collocated reference picture for video coding
BR112014012006A2 (pt) * 2011-11-18 2017-05-30 Motorola Mobility Llc uma forma explícita para sinalizar uma imagem colocalizada para codificação de vídeo de alta eficiência (hevc)
WO2013078248A1 (en) * 2011-11-21 2013-05-30 General Instrument Corporation Implicit determination and combined implicit and explicit determination of collocated picture for temporal prediction
US9445076B2 (en) * 2012-03-14 2016-09-13 Qualcomm Incorporated Disparity vector construction method for 3D-HEVC
US9525861B2 (en) * 2012-03-14 2016-12-20 Qualcomm Incorporated Disparity vector prediction in video coding
US10200709B2 (en) 2012-03-16 2019-02-05 Qualcomm Incorporated High-level syntax extensions for high efficiency video coding
US9503720B2 (en) 2012-03-16 2016-11-22 Qualcomm Incorporated Motion vector coding and bi-prediction in HEVC and its extensions
JP6144754B2 (ja) * 2012-04-11 2017-06-07 モトローラ モビリティ エルエルシーMotorola Mobility Llc 時間的予測のための時間的動きベクトル予測(mvp)フラグのシグナリング
US9549177B2 (en) 2012-04-11 2017-01-17 Google Technology Holdings LLC Evaluation of signaling of collocated reference picture for temporal prediction
US9325990B2 (en) 2012-07-09 2016-04-26 Qualcomm Incorporated Temporal motion vector prediction in video coding extensions

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2003174C1 (ru) * 1990-01-22 1993-11-15 Санкт-Петербургский государственный электротехнический университет им.В.И.Уль нова (Ленина) Способ распознавани изображений
RU2182727C2 (ru) * 2000-07-20 2002-05-20 Дворкович Александр Викторович Способ поиска векторов движения деталей в динамических изображениях
RU2360375C2 (ru) * 2002-07-18 2009-06-27 Эл Джи Электроникс Инк. Способ определения векторов движения для текущего блока в кадре, подлежащем декодированию

Also Published As

Publication number Publication date
EP2672710A4 (en) 2016-08-03
RU2013140661A (ru) 2015-10-20
CN107396099B (zh) 2020-03-06
AU2012305071A8 (en) 2013-10-31
CN107592529A (zh) 2018-01-16
SE1651148A1 (sv) 2016-08-25
RU2636117C1 (ru) 2017-11-20
PL407911A1 (pl) 2015-05-25
CA2937483C (en) 2017-09-05
CN107404651B (zh) 2020-03-06
RU2716230C2 (ru) 2020-03-06
RU2016133570A (ru) 2018-12-10
RU2716229C2 (ru) 2020-03-06
JP5745693B2 (ja) 2015-07-08
CN107580221B (zh) 2020-12-08
US20210044832A1 (en) 2021-02-11
JP2014520477A (ja) 2014-08-21
GB201716275D0 (en) 2017-11-22
CN107580220A (zh) 2018-01-12
CN107483925A (zh) 2017-12-15
CN103430550A (zh) 2013-12-04
CN107483928A (zh) 2017-12-15
GB201716265D0 (en) 2017-11-22
CN107580218A (zh) 2018-01-12
GB2562635A (en) 2018-11-21
CN107483925B (zh) 2020-06-19
CN107483927A (zh) 2017-12-15
AU2012305071A1 (en) 2013-10-03
RU2716563C2 (ru) 2020-03-12
GB201716271D0 (en) 2017-11-22
CN107483929B (zh) 2020-05-12
SE1651147A1 (sv) 2016-08-25
CN107483928B (zh) 2020-05-12
CN107592527A (zh) 2018-01-16
US11089333B2 (en) 2021-08-10
SE1651149A1 (sv) 2016-08-25
GB201809871D0 (en) 2018-08-01
CN107396098B (zh) 2020-03-06
RU2636118C1 (ru) 2017-11-20
GB2559226B (en) 2018-11-28
MX338137B (es) 2016-04-05
ES2487993B1 (es) 2015-09-29
CN107580218B (zh) 2020-05-12
CA2829114C (en) 2016-11-22
JP5993484B2 (ja) 2016-09-14
CN106170088B (zh) 2019-02-19
CN107483927B (zh) 2020-06-05
US20200084475A1 (en) 2020-03-12
CN107404651A (zh) 2017-11-28
BR112013022641A2 (ru) 2017-09-21
RU2646384C1 (ru) 2018-03-02
SE1351475A1 (sv) 2014-06-09
GB2508739B (en) 2018-12-05
CN107483926A (zh) 2017-12-15
SE538787C2 (sv) 2016-11-22
SE1551592A1 (sv) 2015-12-03
ES2487993R1 (es) 2015-01-27
EP2672710A2 (en) 2013-12-11
CN107580220B (zh) 2020-06-19
GB2559227A (en) 2018-08-01
CN107396098A (zh) 2017-11-24
CN103430550B (zh) 2017-10-13
RU2016133579A (ru) 2018-12-10
PL231159B1 (pl) 2019-01-31
CN107483929A (zh) 2017-12-15
CN107592527B (zh) 2020-05-12
JP6619045B2 (ja) 2019-12-11
CN107635140B (zh) 2020-12-08
CN107635140A (zh) 2018-01-26
MX351041B (es) 2017-09-29
WO2013036041A3 (ko) 2013-05-02
BR112013022641A8 (pt) 2017-09-12
MX2013010155A (es) 2013-12-02
GB2562129B (en) 2019-04-03
ES2487993A2 (es) 2014-08-25
JP2015167372A (ja) 2015-09-24
GB2559445B (en) 2018-11-28
RU2016133570A3 (ru) 2020-01-30
BR112013022641B1 (pt) 2022-07-12
MX351052B (es) 2017-09-29
US20130343461A1 (en) 2013-12-26
GB2559445A (en) 2018-08-08
JP2015167373A (ja) 2015-09-24
CA2829114A1 (en) 2013-03-14
RU2016133566A3 (ru) 2020-01-30
RU2635235C1 (ru) 2017-11-09
CA2937483A1 (en) 2013-03-14
RU2716231C2 (ru) 2020-03-06
US20150208093A1 (en) 2015-07-23
CN104349164B (zh) 2018-02-02
GB2559226A (en) 2018-08-01
GB2562129A (en) 2018-11-07
CN104349164A (zh) 2015-02-11
CN107580221A (zh) 2018-01-12
GB2562635B (en) 2019-04-03
GB201716273D0 (en) 2017-11-22
JP6062507B2 (ja) 2017-01-18
CN107592528A (zh) 2018-01-16
EP3179723B1 (en) 2023-01-25
GB2559227B (en) 2018-11-28
CN107580219A (zh) 2018-01-12
JP2018139422A (ja) 2018-09-06
JP6062508B2 (ja) 2017-01-18
US10523967B2 (en) 2019-12-31
GB2562130A (en) 2018-11-07
SE538057C2 (sv) 2016-02-23
RU2016133579A3 (ru) 2020-01-30
GB201716270D0 (en) 2017-11-22
JP2016007039A (ja) 2016-01-14
CN106170088A (zh) 2016-11-30
CN107592529B (zh) 2020-05-12
CN107580219B (zh) 2020-12-08
EP3179723A1 (en) 2017-06-14
GB2562130B (en) 2019-04-03
CN107396099A (zh) 2017-11-24
CN107592528B (zh) 2020-05-12
RU2016133580A (ru) 2018-12-10
RU2622849C1 (ru) 2017-06-20
RU2016133566A (ru) 2018-12-10
RU2016133580A3 (ru) 2020-01-30
US10805639B2 (en) 2020-10-13
EP2672710B1 (en) 2022-10-26
CN107483926B (zh) 2020-06-05
GB2508739A (en) 2014-06-11
GB2559445A8 (en) 2018-10-03
GB201321881D0 (en) 2014-01-22
JP6062480B2 (ja) 2017-01-18
JP2016007040A (ja) 2016-01-14
JP6322693B2 (ja) 2018-05-09
AU2012305071B2 (en) 2014-12-11
JP2017098967A (ja) 2017-06-01
WO2013036041A2 (ko) 2013-03-14

Similar Documents

Publication Publication Date Title
RU2600547C2 (ru) Способ получения вектора движения с временным предсказанием и устройство, использующее этот способ
AU2015200360B2 (en) Method for deriving a temporal predictive motion vector, and apparatus using the method
AU2016216719B2 (en) Method for deriving a temporal predictive motion vector, and apparatus using the method